“这是人类第一次集体反AI事件,必将记入史册。”有科技界人士在朋友圈写道。3月29日,由图灵奖得主、深度学习三巨头之一的约书亚·本吉奥,特斯拉公司CEO埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。公开信称,暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。截至目前,这封公开信已经有1100多名全球科技界人士联署。AI实验真的失控了吗?记者发现,由ChatGPT引发的人工智能话题正在从科技和经济学问题演变成伦理和哲学命题。
全球的AI实验室“完全失控”
AI威胁论是这封公开信的出发点。公开信表示,大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认……最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。
这封公开信提到,现在人工智能在一般任务上变得与人类一样有竞争力。对此,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,“在开始训练未来的系统之前,可能必须得到独立的审查,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。”
呼吁暂停不可预测的研究
公开信呼吁,所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。公开信中还写道,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。“这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。”
基于此,这封信提出建议,人工智能的研究和开发应该重新聚焦于,使目前最先进和强大的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏。
AI消灭人类“并非不可想象”
在这个被外界戏称为人类首个“反AI联盟”的名单上,签名的目前有图灵奖得主约书亚·本吉奥,StabilityAI首席执行官EmadMostaque、纽约大学教授马库斯、特斯拉公司CEO马斯克,以及《人类简史》作者尤瓦尔·赫拉利等。签名人还包括苹果联合创始人史蒂夫·沃兹尼亚克、2020年美国总统选举民主党初选候选人杨安泽、AI经典教科书《人工智能:一种现代方法》作者StuartRus⁃sell等。两名来自微软的软件工程师,以及来自OpenAI“竞争对手”的研究员,包括谷歌旗下DeepMind的三位研究科学家也签下了自己的名字。
面对OpenAI产品在全球的火爆程度,OpenAI创始人兼CEO山姆·阿尔特曼近日在接受媒体采访时表示,自己对AI如何影响劳动力市场、选举和虚假信息的传播有些“害怕”。AI需要政府和社会共同参与监管,用户反馈和规则制定对抑制AI的负面影响非常重要。
“深度学习之父”、图灵奖的另外一名获得者杰弗里·辛顿(GeoffreyHinton)近日接受哥伦比亚广播公司采访时表示,AI消灭人类“并非不可想象”,人类需要警惕AI会给一小部分公司和政府带来巨大的权力。北青报记者注意到,部分学者提出要警惕“数字利维坦”,得到了许多网民的支持。