首页 > 资讯 > 科学 > 正文
2023-05-26 23:25

人工智能可以处理比人类更多的信息——那么它会阻止我们重复我们的错误吗?



Napoleon retreating from Russia.

不了解历史会让人重蹈覆辙,这是一句陈词滥调。正如许多人指出的那样,我们从历史中学到的唯一东西就是我们很少从历史中学到任何东西。人们一次又一次地在亚洲进行陆地战争。他们一次又一次地重复着同样的约会错误。但为什么会发生这种情况呢?科技会终结这一切吗?

一个问题是健忘和“短视”:我们看不到过去的事件与当前的事件有何关联,忽视了正在展开的模式。拿破仑应该注意到,他进军莫斯科的行动,与大约一个世纪前瑞典国王查理十二世(Charles XII)失败的尝试有相似之处。

当事情出错时,我们也不善于学习。我们常常试图忽略事件的尴尬转折,而不是确定为什么一个决定是错误的,以及如何避免它再次发生。这意味着下次类似的情况出现时,我们看不到相似之处——并重复错误。

两者都揭示了信息的问题。在第一种情况下,我们无法记住个人或历史信息。在第二种情况下,我们不能在信息可用时对其进行编码。

也就是说,当我们不能有效地推断将要发生什么时,我们也会犯错误。也许情况太复杂或者太费时,不需要考虑。或者我们有偏见,误解了正在发生的事情。

科技令人讨厌的力量

但科技肯定能帮助我们吗?我们现在可以将信息储存在大脑之外,并使用计算机来检索它。这应该会让学习和记忆变得容易,对吧?

     

本文与世界上最大的哲学和音乐节HowTheLightGetsIn合作,于5月26日至29日在hay -on- whye举行。普拉吉亚·阿加瓦尔和安德斯·桑德伯格将与编辑米里亚姆·弗兰克尔和马特·沃伦讨论我们对认知偏见的理解如何帮助我们纠正一些错误。这里的票:8折,代码为CONVERSATION23

当信息可以很好地检索时,存储信息是有用的。但记忆与从已知位置或日期检索文件不同。记忆包括找出相似之处,并把事情带到脑海中。

人工智能(AI)还需要能够自发地为我们的大脑带来相似之处——通常是不受欢迎的相似之处。但如果它善于发现可能的相似之处(毕竟,它可以搜索整个互联网和我们所有的个人数据),它也经常会发现错误的相似之处。

对于失败的约会,它可能会注意到它们都涉及晚餐。但吃饭从来不是问题所在。桌子上有郁金香,这完全是一个巧合——没有理由要避开它们。

Man talking on his phone sat next to a woman holding a glass of wine looking annoyed.      

这意味着它会警告我们不关心的事情,可能以一种令人讨厌的方式。降低其灵敏度意味着增加了在需要时得不到警告的风险。

这是一个基本问题,同样适用于任何顾问:谨慎的顾问会经常喊狼来了,乐观的顾问会错过风险。

好的顾问是我们信任的人。他们的谨慎程度和我们差不多,我们知道他们知道我们想要什么。这在人类顾问身上很难找到,在人工智能身上更是如此。

科技在哪里阻止了错误?保证没有白痴的作品。切割机需要你按住按钮,让你的手远离刀片。当操作员丧失操作能力时,“死人开关”会使机器停止工作。

微波炉的门一打开就会关闭辐射。要发射导弹,两个人需要在房间里同时转动钥匙。在这里,精心的设计使错误难以发生。但是我们对不太重要的情况不够关心,使得设计变得不那么愚蠢。

当科技运转良好时,我们往往过于信任它。由于自动驾驶系统的惊人效率,今天航空公司飞行员的实际飞行时间比过去要少。当自动驾驶仪失灵时,这是一个坏消息,飞行员没有足够的经验来纠正这种情况。

第一个新型石油平台(Sleipnir a)之所以沉没,是因为工程师们相信了作用在平台上的力的软件计算。这个模型是错误的,但它以一种令人信服的方式呈现了结果,看起来是可靠的。

我们的许多技术都非常可靠。例如,我们没有注意到互联网上丢失的数据包是如何在幕后不断被发现的,纠错代码是如何消除噪音的,保险丝和冗余是如何使设备安全的。

但当我们逐级增加复杂性时,它看起来非常不可靠。我们确实注意到当Zoom视频延迟,人工智能程序回答错误或电脑崩溃时。然而,问问50年前使用过电脑或汽车的人,它们实际上是如何工作的,你会注意到它们的性能和可靠性都较差。

我们让技术变得越来越复杂,直到它变得太烦人或不安全。随着部件变得更好、更可靠,我们经常选择添加新的令人兴奋和有用的功能,而不是坚持现有的功能。这最终会使这项技术变得不那么可靠。

错误是会发生的

这也是为什么人工智能是一把双刃剑,可以避免错误。自动化工作时通常会使事情更安全、更高效,但当它失败时,麻烦就会大得多。自主性意味着智能软件可以补充我们的思维,减轻我们的负担,但当它不像我们希望的那样思考时,它可能会表现失常。

游戏越复杂,出现的错误就越多。任何和高智商的学者打过交道的人都知道,当他们的常识让他们失望时,他们会用巨大的创造力把事情搞得一团糟——而人工智能几乎没有人类的常识。

这也是担心人工智能指导决策的一个深刻原因:它们会犯新的错误。我们人类知道人类的错误,这意味着我们可以注意到它们。但智能机器也会犯我们无法想象的错误。

更重要的是,人工智能系统是由人类编程和训练的。有很多这样的系统变得有偏见甚至偏执的例子。它们模仿人类世界的偏见,重复人类世界的错误,即使人们明确地试图避免这些错误。

最后,错误还会继续发生。为什么我们对世界的看法是错误的,为什么我们不能记住我们应该记住的一切,为什么我们的技术不能完美地帮助我们避免麻烦,这是有根本原因的。

但我们可以努力减少错误的后果。撤销按钮和自动保存已经在我们的电脑上保存了无数的文件。伦敦的纪念碑、日本的海啸石和其他纪念碑都在提醒我们某些风险。良好的设计实践使我们的生活更安全。

最终,我们可以从历史中学到一些东西。我们的目标应该是从错误中生存和学习,而不是阻止它们发生。技术可以帮助我们做到这一点,但我们需要仔细考虑我们真正想从它那里得到什么——并相应地进行设计。

《光明如何》遵循“错误与文艺复兴”的主题,找出我们在理论、社会组织和世界事务中犯下的根本错误,并探索新的思想和行动形式。更多信息请点击这里。过来看看吧对话编辑米里亚姆·弗兰克尔和马特·沃伦与特邀嘉宾拉夫堡大学社会不平等教授普拉吉亚·阿加瓦尔和牛津大学人类未来研究所的安德斯·桑德伯格进行对话关于我们如何克服认知偏见去思考以不同的方式看待世界。5月26日至29日怀恩海,使用代码CONVERSATION23购票可享8折优惠。