生成式 AI 至今在全球引发狂潮,现在,不论是科技业还是一般行业的主管,都把 AI 相关议题挂嘴上,常常讨论。想谈话像个内行人,或在公司数位转型创新会议的简报上显得更专业吗?以下这 10 个关键字是矽谷许多人工智慧科学家,讨论此话题时常常提及的名词。只要正确掌握,就能大致了解人工智慧的入门知识,也能提升你和企业高层讨论此议题的深度。
AGI(Artificial General Intelligence, 通用人工智慧)
通用人工智慧,或可称为强人工智慧,相较於AlphaGO等弱人工智慧,或说专家型人工智慧,AGI 能理解与学习多元知识,较接近一般人类;不像 AlphaGO 只能执行学习下棋的特定任务,其它都不会。而去年至今爆红的生成式人工智慧,例如 ChatGPT、Bard,也是朝 AGI 的方向去发展的应用,只是目前还不算全面成功。
Deep Learning(深度学习)
深度学习是机器学习的其中一种,它起源於模仿人类大脑的结构,特别是脑神经网络,它实际上是采用具有多层节点的人造神经网络来分析资讯与学习。由 OpenAI 开发出的聊天机器人ChatGPT,背後所使用的大型语言模型,正是采用了深度学习,特别是其中一种称为「变换器」(Transformer)的模型,来生成近似人类的文本内容。
LLM, Large Language Model(大型语言模型)
大型语言模型(LLM)是一种人工智慧模型,它是根据所收到的输入生成类似人类的文本来训练出来。之所以能称为「大型」,是因为它有大量的参数,通常是数十亿,才足以让这些模型来学习资料中更复杂的模式。
LLM 通常是从多元的互联网内容中训练出来的。然而,这些模型不知道训练中的具体档或来源,也没有能力去搜寻外界网页,除非在对话过程中与它们分享。包括 OpenAI ChatGPT 的 GPT-3和GPT-4;以及 Google Bard 的 LaMDA(Language Model for Dialogue Applications),都是一种 LLM。这些模型可以生成创意写作,回答问题,翻译语言,甚至编写软体代码,以及其他任务。
Unsupervised Learning(非监督式学习)
训练人工智慧学习的方式,可分为监督式与非监督式。所谓非监督式学习,是使用没有经过标注与分类的资讯,来训练人工智慧,并允许它在没有经过指导的方式下自行理解掌握知识。ChatGPT 正是由非监督式学习的方式训练出来。
非监督式学习的问题是,它回答同一个问题不会有固定答案,因为它是按照相似度分类得来答案,也因此,许多人常因为 ChatGPT 回答同个问题,可以出现多种答案而感到困惑,事实上仍需要人类去自行验证正确性。
Supervised Learning(监督式学习)
监督式学习则和非监督式学习不同,它是采取标注过的数据来训练人工智慧,因此问一个问题会有固定答案。同时,人工智慧也会透过对照误差,逐步修正去达到愈来愈精准的预测。
像是目前广泛被使用的垃圾信侦测模型,就是用监督式学习方式训练出来。至於监督式学习的缺点是需要仰赖大量人工,事前去做标注,耗费时间与成本较高。
Reinforcement Learning(强化式学习)
是除了非监督式与监督式学习之外,第三种常见用来训练 AI 的机器学习方式。简单来说,强化学习是让机器在和一个动态环境互动过程中,让自己从一次次的试错中学着进步。
例如之前引起围棋界轰动的 AlphaGO,正是透过强化学习,来习得可以超越人类棋圣的强大下棋能耐。而 ChatGPT虽然主要是用非监督式学习来训练,如今也正尝试用强化学习来优化它的能耐。
Paperclips(回纹针)
当愈来愈多人讨论起人工智慧的安全风险,回纹针一词总被提起。就连 OpenAI 执行长奥特曼(Sam Altman),也曾在今年 2 月个人推特上做了网路投票:「请问大家认为人工智慧是想要做很多的小回纹针,还是一个大回纹针就好?」结果竟来引来超过 2 万网友热烈讨论与投票,也让行外人更摸不着头绪,到底人工智慧和回纹针有何关系?
其实,回纹针这个象徵在人工智慧界相当重要,它源自於哲学家博斯特罗姆(Nick Bostrom)提出的一个思想实验,该实验认为,一个超级强大的人工智慧,有可能被赋予一项任务,即制造尽可能多的回纹针,由於为了不断制造回纹针,人工智慧会不断掠夺人类资源,甚至最後决定杀死人类,再将人类遗体制作成回纹针,以完成被下达的任务。但是人类届时已无法控制它。
因此,许多 AI 专家以回纹针警惕自己,不要打造过度强大的人工智慧。其实,如果你有注意到 OpenAI 的企业标志,会发现它正是由许多回纹针所组成。虽然 OpenAI 执行长奥特曼,从未针对企业标志背後的意义做完整说明,许多网友推测可能是发想於这个思想实验。
Hard Takeoff/Soft Takeoff (硬起飞/软起飞)
人工智慧又不是开飞机,为何要讨论「硬起飞(Hard Takeoff)」或「软起飞(Soft Takeoff)」?原来,这是专家用来评估人工智慧该如何开发,才不会过度冲击人类的行内术语。「硬起飞」指的是人工智慧太快开发成超级智慧,人类有可能适应不及甚至反被宰制。「软起飞」则就是相对缓慢的开发,让人类社会有足够时间适应。
Guardrails(护栏)
最近许多企业热衷导入 AI,但是也发生了不少个资与企业机密疑似外泄的事件;另外 AI 随机乱达,可能造成假讯息风暴也被不少人担忧。人工智慧是否需要有「护栏」来防治各种 AI 不按牌理出牌的状况?这是近期矽谷企业在发展人工智慧时,已经正视的议题,这些公司也正积极研究各种护栏,来改善现有软体。
另外,包括 Nvidia 等许多企业,也正打造创新的 AI 护栏软体,提供给有需要的客户来顺应新趋势。
Stochastic Parrots(随机鹦鹉)
许多人在和生成式AI聊天机器人沟通时,会觉得它只会顺着自己语意,随机回答一些模棱两可的答案,似乎它没有真的懂过?不过是只鹦鹉。「随机鹦鹉」要探讨的,正是这个现象。
随机鹦鹉一词最早源於 2021 年由班德(Emily M. Bender)等人发表「语言模型有可能太大?」为主题的论文中,他们认为,虽然复杂的人工智慧模型,可以生成看似真实的文本,但软体本身其实并不理解语言背後的概念,那就像是一只鹦鹉。
(本文转载自《远见》)