首页 > 资讯 > 科技 > 正文
2023-05-26 23:16

科学家警告人工智能危险,但不同意解决方案

Scientists Warn of Artificial Intelligence Dangers but Don't Agree on Solutions

帮助建立了当今人工智能技术基础的计算机科学家对其危险发出了警告,但这并不意味着他们对这些危险是什么或如何预防这些危险达成了一致。

被称为人工智能教父的杰弗里·辛顿从b谷歌退休后,可以更自由地发言,他计划周三在麻省理工学院的一次会议上概述他的担忧。他已经对自己的工作表示遗憾,并怀疑如果机器变得比人聪明,人类是否还能生存下去。

与辛顿共同获得最高计算机科学奖的人工智能先驱约书亚·本吉奥周三告诉美联社,他“非常赞同”辛顿对聊天机器人(如ChatGPT和相关技术)带来的担忧,但担心简单地说“我们注定要失败”无济于事。

“我想说,主要的区别在于,他是一个悲观的人,而我更乐观,”蒙特利尔大学(University of Montreal)教授本吉奥说。“我确实认为,无论是短期的还是长期的危险都是非常严重的,不仅需要少数研究人员认真对待,而且需要政府和民众认真对待。”

有很多迹象表明政府正在倾听。白宫召集bbo、微软和chatgpt制造商OpenAI的首席执行官周四与副总统卡玛拉·哈里斯会面,官员们称这是一次关于如何减轻其技术的近期和长期风险的坦率讨论。欧洲立法者也在加速谈判,以通过全面的新人工智能规则。

但是,所有关于最可怕的未来危险的讨论都让一些人担心,围绕超人机器(目前还不存在)的炒作,分散了人们对目前基本上不受监管的人工智能产品制定实际保障措施的努力。

b谷歌人工智能伦理团队的前负责人玛格丽特·米切尔(Margaret Mitchell)表示,她对辛顿在b谷歌任职的10年里没有公开发声感到不安,尤其是在著名黑人科学家蒂姆尼特·格布鲁(Timnit Gebru)于2020年下台之后。在大型语言模型被广泛商业化为ChatGPT和b谷歌的Bard等产品之前,格布鲁研究了大型语言模型的危害。

“他很荣幸能跳出歧视传播的现实,仇恨语言的传播,对女性的毒性和未经同意的色情内容,所有这些问题都在积极地伤害着科技领域被边缘化的人,”米切尔说。在格布鲁离职后,米切尔也被迫离开谷歌。“他跳过了所有这些事情,去担心更远的事情。”

Bengio、Hinton和在Facebook母公司meta工作的第三位研究人员Yann LeCun都因在人工神经网络领域的突破而获得了2019年的图灵奖,这对今天的人工智能应用程序(如ChatGPT)的发展至关重要。

本吉奥是三人中唯一一个没有在科技巨头工作的人,多年来他一直对人工智能的短期风险表示担忧,包括就业市场的不稳定、自动化武器和有偏见的数据集的危险。

但这些担忧最近有所加剧,导致本吉奥加入了埃隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等其他计算机科学家和科技商业领袖的行列,呼吁暂停六个月开发比OpenAI最新型号GPT-4更强大的人工智能系统。

本吉奥周三表示,他相信最新的人工智能语言模型已经通过了“图灵测试”。图灵测试是以英国密码破译者、人工智能先驱阿兰·图灵于1950年提出的方法命名的,该方法旨在衡量人工智能何时变得与人类难以区分——至少在表面上如此。

“这是一个里程碑,如果我们不小心,可能会产生严重的后果,”本吉奥说。“我主要担心的是它们如何被利用来达到破坏民主、网络攻击和虚假信息的邪恶目的。你可以与这些系统对话,并认为你是在与人类互动。他们很难被发现。”

研究人员不太可能就目前的人工智能语言系统如何变得比人类更聪明达成一致——这些系统有许多局限性,包括捏造信息的倾向。

Aidan Gomez是2017年开创性论文的共同作者之一,该论文介绍了一种所谓的变压器技术(ChatGPT结尾的“T”),用于提高机器学习系统的性能,特别是在如何从文本段落中学习方面。戈麦斯当时还只是b谷歌公司的一名20岁的实习生。他记得,当他的团队在凌晨3点左右把该交的报纸发出去时,他躺在公司加州总部的沙发上。

“艾丹,这将是巨大的,”他记得一位同事告诉他,从那以后,这项工作帮助开发了可以生成类似人类的散文和图像的新系统。

六年后,戈麦斯现在是自己的人工智能公司Cohere的首席执行官,他对这些系统的潜在应用充满热情,但他认为,这些系统的真实能力“与现实脱节”,“依赖于非凡的想象力和推理能力”,这让他感到不安。

戈麦斯说:“认为这些模型会以某种方式接近我们的核武器,并引发某种灭绝级别的事件,这种说法是没有建设性的。”“这对那些试图做好事的真正务实的政策努力是有害的。”