马斯克等签署联名信:呼吁暂停训练比GPT-4更强大的人工智能
文库划重点:早在2017年,马斯克就提出了“AI威胁论”,认为人工智能是人类文明的危险,并指出威胁程度要远高于车祸、飞机失事、毒品泛滥等。在2018年的一次采访中,马斯克更是强调,人工智能要比核武器危险得多。
特斯拉CEO埃隆·马斯克(Elon Musk)和一群人工智能专家及行业高管在一封公开信中表示,他们呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月,理由是这种系统对社会和人类构成潜在风险。
这封信由非营利组织未来生命研究所(Future of Life Institute)发布,包括马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和Stability AI首席执行官伊马德·穆斯塔克(Emad Mostaque)在内的1000多人签署,呼吁暂停高级人工智能的开发,直到为此类设计制定、实施并由独立专家审核的共享安全协议。
信中写道:“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”
这封信还详细列出了与人类竞争的人工智能系统以经济和政治破坏的形式对社会和文明造成的潜在风险,并呼吁开发者与政策制定者就治理问题和监管机构展开合作。
这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,并且无可置疑。这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。
OpenAI的ChatGPT自去年发布以来,已促使竞争对手推出类似产品,并促使企业将其或类似技术集成到自己的应用程序和产品中。
马斯克此前就曾多次表达对人工智能的担忧,他在今年2月的一次视频讲话中表示,人工智能是未来人类文明最大的风险之一。他说:“它有积极的一面,也有消极的一面,有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”
马斯克当时指出,应该监管人工智能的安全问题,即使会放慢这一技术的发展速度。早在2017年,马斯克就提出了“AI威胁论”,认为人工智能是人类文明的危险,并指出威胁程度要远高于车祸、飞机失事、毒品泛滥等。在2018年的一次采访中,马斯克更是强调,人工智能要比核武器危险得多。
收录于哈希力量,手机站省略本文固定网址