ChatGPT的出现开启了各行各业对於AI应用的想像,许多企业积极利用内部资料尝试透过API串接不同服务。不过,台湾智慧云端服务股份有限公司副总经理黄世民提醒,OpenAI虽然开放ChatGPT的API,却没有公开模型内容,也就是使用者「只能接受别人已经训练好的大脑。」
在提到ChatGPT背後的模型时,不能忽略Transformer这个关键的模型架构,许多知名的模型像是BERT与GPT-3等,都是奠基在这个架构上,也是在这个架构被提出後,才掀起对於「算力」的讨论。「在Transformer这个模型出现之後,它既可以看过去所有的历史,又可以平行化,」中央研究院资讯科学研究所研究员古伦维解释,过往模型必须仰赖周围或上一步的讯息才能进行下一步的判断,而Transformer的厉害之处,在於它能全盘地掌握全局,也因此有越来越多的算力投入,并且不断建立出越来越大的模型。
Transformer的模型又可以分为BERT及GPT两大语言模型系列,而这些语言模型中的参数量也急剧增加,古伦维形容:「参数量增加的功能,有点像是我们可以记住很多东西。」但是,直到ChatGPT的出现,GPT系列才开始受到关注,最大的原因就是掌握了与人沟通的能力。随着後续模型的能力越来越强,当中的参数量也越来越大,对於算力的需求也就逐步升高。
AI的发展就是一场军备竞赛
台湾智慧云端服务股份有限公司副总经理黄世民认为,这些大语言模型的出现,就像是建构了一个可以处理多样且复杂事物的脑袋,甚至对於各行各业以AI内部的从业人员带来许多变动。在过去几年,甚至可以发现与AIGC(Artificial Intelligence Generated Content)人工智慧生成内容相关的公司越来越多,甚至在短短两个月内,ChatGPT注册使用者就超过一亿,并且吸引许多企业尝试,以推出更多如文书处理、智慧客服相关的应用。
「OpenAI只有Open API,并没有Open Model让大家可以调整模型的表现,你只能接受别人已经训练好的大脑,」黄世民提到,OpenAI虽然提供了目前最好的服务,但有许多具有特定领域知识的行业,以及在地化语言与法规的需求没有办法被满足。因此,台智云便利用Bloom这个开源模型,在强化其繁体中文能力後提供商业服务,让企业可以利用自己的资料做出对应的应用与模型。但由於大型语言模型的训练牵涉到算力,必须用到许多GPU,并且以超级电脑的运算架构丛集起来。目前全球的超级电脑,多半集中在美中以及多数石油公司手上。
那麽,台湾目前的算力资源是否充足?黄世民坦言,虽然目前台湾杉2号的算力在对内市场使用上,透过聪明的管理模式仍够使用,但再过一段时间很可能就不足。他同时也透露,已有东南亚国家前来探问,想要建造自己的基础模型。由於基础模型的训练是场马拉松,如果我们持续投入,势必不足。
新时代的来临,要学习快速适应环境与技术的能力
除了算力,人才也是关键的资源。古伦维提到,人才一直都是缺乏的,由於过往台湾这方面的产业链并不大,许多厉害的人才都会选择到国外大公司就业,因此,也期待能有更多人才能投入NLP等高阶技术发展的领域。
面对越来越多的生成式内容的出现,古伦维建议,目前已有许多专家提出技术方法来判别,但是,「机器产生的不一定的是假的。」因为很多人利用AI作为创作工具,真假与否和是不是机器写的并没有关系,关键在使用者的意图。较需要担心的是,做坏事的速度会因为工具而加快。
随着AI的能力越来越强,未来的学生又该具备哪些能力?古伦维指出,目前AIGC主要有三个关键问题,第一是资料透明度问题,因为无法掌握模型背後的资料来源为何;第二则是安全性问题,透过破解系统,取得其他公司的机密,也可能因为上传公司的资料而泄露机密;第三则是道德问题。而这些问题都要仰赖教育,让学生能有辨别是非的能力,同时,也要学习快速适应环境与技术的能力,培养持续学习的动机与方法。