加州理工人工智能专家:AI永远是人类的附属品
文库划重点:阿布-穆斯塔法:“预训练+微调”是一种分而治之的巧妙方式,一次训练AI专注于一个问题并完善它,例如,要求它造出语法正确的句子(即使表达出来的是胡说八道),然后为这个预训练的系统提供更具体的引导性信息。
由ChatGPT和GPT-4引发的这一轮“人工智能狂潮”远比人们最初预想的持续更久,伴随而来的争议与忧虑近期也在不断发酵和上升。
围绕争议,人工智能专家分成两种截然不同的派别,一种对当下以ChatGPT为代表的人工智能技术表达出深切担忧,另一些著名的人工智能专家如Meta首席人工智能科学家杨立昆认为,暂停AI研发才会对人类科技的进步带来巨大伤害。
回归科学,理性对以GPT-4为代表的AI能力的边界进行反思:它能做什么?不能做什么?最重要的是,人类现在必须采取什么行动来实现“有益的AI”?
4月8日,《中国新闻周刊》就以上问题专访了美国加州理工学院电气工程和计算机科学教授亚瑟·阿布-穆斯塔法。他是人工智能领域的知名专家,同时也是IEEE神经网络委员会的创始人之一,曾在多家科技公司担任机器学习顾问。以下是记者和他的对话:
AI的应用远比设计更复杂和危险
中国新闻周刊:此前,埃隆·马斯克等人签署了联名公开信,业内形成了对人工智能发展的两种截然不同的看法,你更认同哪方?
阿布-穆斯塔法:联名公开信,意图是好的,但无法起到任何实质效果,因为不会真的有公司遵守并暂停六个月的AI研发。我认为这是对人工智能“过于快速发展”的许多下意识反应之一,是一种没有经过深思熟虑、出于冲动的行为。就我个人而言,不赞同暂停更强大AI模型的研发,现在要做的不是暂停,而是如何更好阻止对这种强大工具的“不良使用”,所以我没有签署公开信。
如何推动更强有力的人工智能监督?政府需要通过立法对如何“合理地使用”AI进行约束或限制,欧盟《人工智能法案》是一个开始。立法时有很多需要考虑的因素,尤其要注意的是,法案公布后能强制执行吗?副作用是什么?是否会产生意想不到的后果?制定法案或任何监管规则都必须经过谨慎考量,而不是短期内出于对人工智能的恐惧或为了应对想象中的风险而匆忙制定,目前为止,我还没有看到任何提议或法案经过了深思熟虑,并且可以得到有效执行。很多人担心人工智能将接管人类的一切,所以意大利、德国、美国等国政府做出反应,动机更多是出于“现在必须要采取一些行动,否则的话公众会对政府不满”。
中国新闻周刊:如何使AI真正符合人类的价值观和道德准则?
阿布-穆斯塔法:这100%取决于AI系统的开发者和使用者。人工智能没有内在的道德或恶意,人工智能只是服从命令,它会做人类训练它去做的事情,如果人类给它的是充满偏见的数据,就会诞生一个充满偏见的AI,因此OpenAI需要不断调整,选择一些好的数据或者让ChatGPT不回答恶意的问题。但解决这个问题的复杂之处在于,即使开发者把整个AI系统设计的很“符合人类价值观”,仍会有非常多元的用户从不同角度使用它,这是开发者控制不了的。因此,AI应用远比设计更复杂和危险,人类可以用良好的意图去设计“好的AI”,然后有一个用户从一个好的角度去使用它,最后却让AI变得很糟糕。
因为在人类社会中,好和坏的标准是非常不明确的。如果你去训练一个AI下棋,比如AlphaGo,规则是明确的,AI经过训练后很清楚如何界定“好的行为”,只要能赢就是一步好棋,在这里,赢是客观的,可以让AI系统通过与自己做“对抗练习”,不断强化这点。但更多时候,我们要训练AI去完成一些缺乏客观好坏规则的任务,此时,让系统自身去理解什么是“好的行为”非常困难。
中国新闻周刊:联名公开信指出,最近几个月,人工智能实验室正陷入一场失控的竞赛(out-of-control race),这是否真的在发生?
阿布-穆斯塔法:这是一种非常情绪化的表述。不过谈到所谓竞赛,可以预料到的是,在短期未来的AI产业格局中,世界范围内很可能只有2~3个非常强大的类似ChatGPT这样的人工智能工具占领整个全球市场,因为开发这样的大模型所涉及成本是巨大的,需要数千个GPU(图形处理器)核心运行2个月以及海量的数据和算力。我做过一个简单计算,GPT-3模型有超过1000亿个参数,假设你的笔记本电脑有足够的内存,在电脑上运行它至少需要20万年,这也是为什么目前所有最新的大模型进展都来自科技公司,而不是大学,因为其中涉及到的资金比任何大学的常规研发资金至少多了两个数量级。
但话说回来,我们永远无法预料未来,五年以后是否可能诞生一种能节省大量计算资源的新模型,还未可知。这就像GPU在四十余年前刚诞生时,最初只是为了让游戏中的图形移动得更快,但就是这个简单的想法,后来完全改变了计算机这个领域。所以,如果几年以后真的出现一种完全不同的模型,可以让成本从10亿美元降低至1000万美元,这就改变了整个游戏规则,届时将会有大量的玩家出现。
中国新闻周刊:大模型时代的到来,也和基于“预训练+微调”这种自然语言处理(NLP)的主流范式有关。2018年后,这种模式几乎重塑了人工智能的商业形态,你如何看待这种趋势?
阿布-穆斯塔法:“预训练+微调”是一种分而治之的巧妙方式,一次训练AI专注于一个问题并完善它,例如,要求它造出语法正确的句子(即使表达出来的是胡说八道),然后为这个预训练的系统提供更具体的引导性信息。这种办法非常有效,因为它使我们能够在迄今为止取得的成就基础上再接再厉,而不是从头开始。
OpenAI将其对公众开放的这个主意很聪明,现在他们获得了大量的数据和反馈,可以用来训练更新一代的系统,而且这些资源是独家的,因为公众不会对下一个类似的产品产生同样多的兴趣。
AI只是在复制人类的“外观”
中国新闻周刊:那么应如何理性、客观去认知当下的人工智能水平和ChatGPT的能力边界?
阿布-穆斯塔法:我有个朋友跑去问ChatGPT:“关于阿布-穆斯塔法,你知道什么?”然后,ChatGPT列出了关于我的一份非常详细的履历和人物小传,在答案的首段,它呈现的表述看起来非常专业,但接下来就有不少错误的信息,比如我上过的大学就搞错了。这件事充分说明了ChatGPT的本质,从某种意义上说,它只是把所有信息以一种非常特殊的彼此相关的方式放在一起。
因此,我对ChatGPT表现出来的一切并不惊讶,为生产这个系统而投入的资源是巨大的,它有1000多亿个参数,可以记住很多东西,但并不是很聪明。因为它同时给你的是好信息和坏信息,而且完全没意识到自己做错了事,只是碰巧能以一种令人信服的方式去构建回答。
人工智能的本质在于它使用了一种类似于人类大脑的结构,这种结构以一种非常高效的方式存储信息,看到新的情况之后会推理和判断什么是“最接近它的东西”,这就是深度神经网络所做的事情,这一办法已经持续了几十年。
目前,人工智能的整体发展水平很令人振奋。但即使在业内,真正了解所有技术细节的人很少,只有OpenAI、Google这些参与了大模型训练的人才能说清楚,但他们对外分享的信息也是有限的。我推测下一步最重要的突破可能集中在:AI系统如何用更少资源达到相同的性能水平。
中国新闻周刊:沿着这条路继续往下走,AI是否能进化到理解“概念”和“常识”?有专家认为GPT-4已经初步具备了“自我反思”能力,你怎么看?
阿布-穆斯塔法:如果说人工智能已发展出自我反思能力,那一定是数量巨大的任务训练带来的,是通过合并足够多数量的“分散而零碎的智能任务”实现的。比如说我做1000个ChatGPT,其中一个对语言感兴趣,另一个处理数学问题,第三个负责视觉识别,直到它的“能力”覆盖了几乎人类所有的领域,再将其合并为一个,它一定能表现出一种“通用的智能”,这就是所谓的“大力出奇迹”,也是“多模态机器学习”的本质。但这一切只是表象,只是看起来具备了自我反思能力和通用智能。从某种意义上说,人类尝试做的其实是拥有一个巨大的系统,这个系统只是试图复制人类的“外观”。
中国新闻周刊:在现有AI概念框架中,无论如何努力,AI也只能是看起来仿佛拥有了人类智能的灵活性和通用性,而不是真正实现这点?
阿布-穆斯塔法:ChatGPT的参数是1000多亿,但大脑中突触的数量是在100万亿左右,比AI多了至少三个数量级,人类大脑运行也远比人工智能复杂得多。
实际上,神经网络之所以能成功,就是因为它类似大脑的架构,具体而言,许多简单的计算单元通过携带参数高度连接。然而,神经网络的细节与大脑不同,也没有必要试图使它们更相似,我打个比方,飞机看起来像鸟类,但飞机不会像鸟类那样拍打翅膀,生物学可以被用作一般的灵感,但不应该规定每一个细节。
就现有技术路径而言,人们的主要方法是训练更大的模型,不断提高计算能力,尝试覆盖更多的领域,并让这些不同的领域相互作用,但我不知道继续通过“蛮力”来做这件事是否会带来无法管理的后果。
人类为什么这么关心“通用人工智能”(Artificial General Intelligence,AGI),因为它触及了人性中最根本的东西,侵犯了人类的自我(Ego),即:人类是否是最独一无二的存在。对于如何实现AGI,目前所有想法都只是推测,我们只能针对已经看到的技术范式进行突破,但真实情况是,我们根本难以想象会走上一条怎样的路径。
回到15年前,如果有人告诉你GPU对机器学习有用,大多数人的反应是怎么可能,但现实就是这么发生了。因此,无论人类是否有实现AGI的一天,至少我认为这肯定不会是世界末日。
中国新闻周刊:既然这样的话,怎么理解微软研究人员称,GPT-4已经显示出接近人类智能或通用人工智能的“火花”?
阿布-穆斯塔法:问题的关键是,“通用人工智能”到底是什么?目前对于AGI概念还没有很明确的定义。对于通用人工智能,人类更想追求的目标是:AI突然之间学会了以上所有,能举一反三,而不是一次次学会某个特定任务,就像魔法一样,但这是一个非常模糊的描述。
因此,现在迫切需要就“通用人工智能”概念本身达成共识,用非常精确的计算机语言去界定它,制定明确的检验规则,遵照这些规则,人类才能知道AGI是否已经实现?潜在的危险是什么?但我目前还没看到令人信服的准确定义。现在,当人们谈论“通用人工智能”时,承载了太多人类的情感,有时甚至是不切实际的期望和恐惧,但这种恐惧把智能和“自我”混为一谈。人们必须冷静下来,理性地把AGI视作一个科学目标,而非掺杂了政治、情感和各种主观因素。
常规工作或在更短时间内被AI替代
中国新闻周刊:在AI研究领域,人工智能是否能产生“自我意识”一直是一个非常热的话题。对此你怎么看?
阿布-穆斯塔法:对这个问题,我的看法相当保守。我认为AI领域的任何技术进步都不可能产生一个“有意识的实体”,现在不会,20年之后不会,可能永远都不会。正如我之前所说的,意识和情绪的“显现”是很容易做到的,AI未来能“看起来像拥有了情感或意识”,就像电影里有一个厉害的演员表达出了某种强烈的情绪,但这只是表演,是纯粹的行为表象。
中国新闻周刊:但这种观点非常“人类中心主义”,有一种说法认为,如果AI的“自我意识”完全超出了人类的理解范围,其实很难从人类的角度去界定它。
阿布-穆斯塔法:虽然如此,我还是坚持我的看法,或许未来真的如你所说,但目前这只是一种推测。事实上,对人类意识的定义本身在科学上都是不确定的,客观上也不可测量,我知道我有意识,你有意识,你知道爱是什么,情感是什么,悲伤是什么,因为你能感觉到它们,你能与它们联系起来,但所有这些都是一种人类经验,为什么会这样?我们不知道。
我认为,AI始终是一个无生命的机器,背后有严密的齿轮在驱动它,这些齿轮就是不同的参数,复杂的输出可能会给我们留下这样的印象:那里有一个与众不同的人,但这种输出不是来自意识,而是一种算法。为什么我们认为有人在那里?因为当我们看到这个输出之后,把它在脑海中与我们过去的记忆、情感,与人类自身联系在一起。
中国新闻周刊:未来,哪些行业会从AI发展中受益,哪些行业可能被颠覆?
阿布-穆斯塔法:所有行业都会从人工智能的发展中受益,甚至以无法预料到的方式。
五年前有人问我:人工智能的下一个20年如何发展?我说,AI将在20年内取代人类几乎所有常规智能工作(routine intelligence tasks),也就是“完成复杂任务但不需要创新的智能”。自动驾驶是一个典型的例子,未来,职业司机会失业,更多低技术含量的工种会被AI取代,公司会倾向于雇佣更高质量的员工。这是一个必须要积极解决的社会问题,否则,很多人将会面临失业的痛苦。
ChatGPT诞生后,我修正了我的预期,我现在认为,可能不需要20年,这些常规工作在更短的时间内就可能被AI全部替代,不管我们如何界定“通用人工智能”,常规智能是通向它的第一步。所有事情都正在加速,这是毫无疑问的。
中国新闻周刊:在常规智能工作之外,AI未来是否也会取代一些更具有创造力的工作?
阿布-穆斯塔法:还是以AlphaGo为例,你会发现AI在某种意义上也在进行“创造性的防御”,为了赢得比赛,它发现了人类没有想到的防御策略,我不知道这是否是一种创新或者只是自动化的产物,因为这背后是AI对海量策略的尝试。“AI的创造力”目前也没有很可靠的定义。
中国新闻周刊:人类应如何与AI共存?
阿布-穆斯塔法:我们没有与AI共存的压力,AI永远是人类的附属品。
发于2023.4.17总第1088期《中国新闻周刊》杂志,记者:霍思伊
杂志标题:“AI永远是人类的附属品”——专访加州理工学院人工智能专家亚瑟·阿布-穆斯塔法
收录于哈希力量,手机站省略本文固定网址