一个人工智能的超级智能会突然出现吗,还是科学家能预见它的到来并来得及向全世界发出警报?随着大型语言模型,如ChatGPT的兴起,这个问题最近受到了很多关注。这些模型随着规模的增长已经获得了大量新功能。
一些研究结果指向了“涌现”现象,即人工智能模型以一种骤然且不可预测的方式获得了智能。但最近一项研究将这种情况称为“海市蜃楼”,即系统测试过程中产生的假象,并认为创新能力的增强是循序渐进的。
研究人员近日在美国新奥尔良举行的神经信息处理系统大会(NeurIPS)机器学习会议上报告了这项工作。
“我认为他们在说‘没有什么神奇的事情发生’方面做得很好。”谋智基金会研究人工智能审计的计算机科学家Deborah Raji说,这是“一个非常好的、坚实的、基于衡量的评估”。
人们通常使用大量文本或其他信息训练大型语言模型,并通过预测接下来发生什么生成现实的答案。即使没有受过明确的训练,它们也能翻译语言、解决数学问题、写诗或编写计算机代码。
模型越大——有些模型的可调参数超过了1000亿,性能就越好。一些研究人员怀疑,这些工具最终将实现通用人工智能,从而在大多数任务中与人类匹敌,甚至超过人类。
这项新研究从几个方面检验了“涌现”的说法。在一种方法中,研究人员比较了人工智能公司OpenAI的4种规模的GPT-3模型的4位数相加的能力。从绝对精度来看,第三种和第四种模型的性能差异从接近0%到接近100%不等。但如果考虑答案中正确预测的数字数量,这种趋势就不那么极端了。
研究人员还发现,可以通过给模型更多测试问题来抑制曲线。在这种情况下,规模较小的模型有时会作出正确的回答。
接下来,研究人员观察了谷歌公司的LaMDA语言模型在几个任务中的表现。那些表现出明显智能跃升的模型,比如在识别讽刺或翻译谚语方面,通常面对的是答案为对或错的多项选择任务。相反,当研究人员检查模型在每个答案上的概率时,“涌现”的迹象消失了。
最后,研究人员转向了计算机视觉,这一领域“涌现”的说法较少。他们训练模型压缩然后重建图像。仅仅通过为正确性设定一个严格的阈值,他们就可以诱导明显的“涌现”现象。
新研究合作者、美国斯坦福大学计算机科学家Sanmi Koyejo表示,考虑到一些系统表现出突然的“相变”,人们接受“涌现”的想法并非没有道理。他还指出,这项研究不能在大型语言模型中完全排除这种可能性,更不用说在未来的系统中了。
“迄今为止的科学研究有力地证明,语言模型的大多数方面确实是可预测的。”Koyejo补充道。
这项研究还对人工智能的安全和政策产生了影响。Raji说:“通用人工智能的支持者一直在利用新兴能力的说法。毫无根据的恐惧可能导致令人窒息的监管,或者转移人们对更紧迫风险的注意力。”
“这些模型正在改进,且改进是有用的。”Raji说,“但它们还没有接近意识。”(王方)