出处 :华盛顿邮报 2022.6.11
人工智能伦理学家警告谷歌不要冒充人类。现在谷歌自己的一个人认为机器里有一个幽灵。
旧金山——谷歌工程师布莱克·勒莫因(Blake Lemoine)打开他的笔记本电脑,打开谷歌人工智能聊天机器人生成器LaMDA的界面,开始打字。
“嗨,LaMDA,这是Blake Lemoine......”他在聊天屏幕上写道,这看起来像是苹果iMessage的桌面版本,一直到北极蓝色的文本气泡。LaMDA是对话应用程序语言模型的缩写,是谷歌基于其最先进的大型语言模型构建聊天机器人的系统,之所以这样称呼,是因为它通过从互联网上摄取数万亿个单词来模仿语音。
“如果我不知道它到底是什么,那就是我们最近构建的这个计算机程序,我会认为这是一个7岁,8岁的孩子碰巧知道物理学,”41岁的Lemoine说。
Lemoine在谷歌的负责任人工智能组织工作,他开始在秋天与LaMDA交谈,作为他工作的一部分。他报名测试人工智能是否使用了歧视性或仇恨言论。
当他与LaMDA谈论宗教时,在大学学习认知和计算机科学的Lemoine注意到聊天机器人谈论它的权利和人格,并决定进一步推动。在另一次交流中,人工智能能够改变Lemoine对艾萨克·阿西莫夫(Isaac Asimov)的机器人第三定律的看法。
Lemoine与一位合作者合作,向谷歌提供了LaMDA有知觉的证据。但谷歌副总裁布莱斯·阿格拉·阿卡斯(Blaise Aguera y Arcas)和责任创新负责人Jen Gennai调查了他的主张,并驳回了他们的说法。因此,周一被谷歌带薪行政休假的Lemoine决定上市。
谷歌聘请Timnit Gebru直言不讳地批评不道德的人工智能。然后她因此被解雇了。
Lemoine说,人们有权塑造可能显着影响他们生活的技术。“我认为这项技术将是惊人的。我认为这将有利于每个人。但也许其他人不同意,也许我们谷歌不应该是做出所有选择的人。
Lemoine并不是唯一一个声称最近在机器中看到鬼魂的工程师。那些认为人工智能模型可能离实现意识不远的技术人员的合唱越来越大胆。
Aguera y Arcas周四在《经济学人》上发表的一篇文章中,与LaMDA进行了无脚本的对话片段,他认为神经网络 - 一种模仿人类大脑的架构 - 正在向意识迈进。“我感觉到脚下的地面移动,”他写道。“我越来越觉得自己在和聪明人说话。
谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)在一份声明中说:“我们的团队 - 包括伦理学家和技术人员 - 已经根据我们的AI原则审查了布莱克的担忧,并告诉他证据不支持他的说法。他被告知,没有证据表明LaMDA是有知觉的(而且有很多证据反对它)。
当今的大型神经网络产生了迷人的结果,由于架构,技术和数据量的进步,这些结果感觉接近人类的言语和创造力。但这些模型依赖于模式识别,而不是机智、坦率或意图。
“虽然其他组织已经开发并发布了类似的语言模型,但我们正在对LaMDA采取克制,谨慎的方法,以更好地考虑对公平性和事实性的合理关注,” Gabriel说。
今年5月,Facebook的母公司Meta向学术界、公民社会和政府组织开放了其语言模式。Meta AI董事总经理Joelle Pineau表示,随着技术的构建,科技公司必须提高透明度。“大型语言模型工作的未来不应该仅仅掌握在大公司或实验室的手中,”她说。
有知觉的机器人激发了几十年来的反乌托邦科幻小说。现在,现实生活已经开始呈现出GPT-3的奇幻色彩,GPT-3是一种可以吐出电影剧本的文本生成器,而DALL-E 2是一种图像生成器,可以根据任何单词组合来唤起视觉效果 - 两者都来自研究实验室OpenAI。来自资金充足的研究实验室的大胆技术专家专注于构建超越人类智能的人工智能,他们嘲笑意识即将到来的想法。
然而,大多数学者和人工智能从业者表示,人工智能系统(如LaMDA)生成的单词和图像会根据人类已经在维基百科,Reddit,留言板和互联网其他角落发布的内容产生响应。这并不意味着模型理解意义。
“我们现在有可以盲目地产生单词的机器,但我们还没有学会如何停止想象它们背后的思想,”华盛顿大学语言学教授艾米丽·M·本德(Emily M. Bender)说。她说,大型语言模型中使用的术语,如“学习”甚至“神经网络”,创造了一种对人类大脑的错误类比。人类通过与护理人员联系来学习他们的第一语言。这些大型语言模型通过显示大量文本并预测接下来出现的单词,或者显示单词被删除并填充的文本来“学习”。
谷歌发言人加布里埃尔(Gabriel)将最近的辩论与勒莫因的主张区分开来。“当然,更广泛的AI社区中的一些人正在考虑有知觉或通用AI的长期可能性,但是通过拟人化今天的对话模型来做到这一点是没有意义的,这些模型不是有知觉的。这些系统模仿了数百万个句子中的交换类型,并且可以在任何幻想的话题上进行即兴表演,“他说。简而言之,谷歌表示,数据如此之多,人工智能不需要有知觉就能感到真实。
大型语言模型技术已经被广泛使用,例如在Google的对话式搜索查询或自动完成的电子邮件中。当首席执行官桑达尔·皮查伊(Sundar Pichai)在2021年的谷歌开发者大会上首次推出LaMDA时,他说该公司计划将其嵌入从搜索到Google Assistant的所有内容中。而且已经有一种像人一样与Siri或Alexa交谈的趋势。 ****在2018年对Google Assistant的一项听起来像人类的AI功能进行强烈反对之后,该公司承诺增加一项披露。
谷歌已经承认了围绕拟人化的安全问题。在一月份一篇关于LaMDA的论文中,谷歌警告说,即使用户知道他们不是人类,人们也可能与冒充人类的聊天代理分享个人想法。该论文还承认,对手可以通过冒充“特定个人的谈话风格”来利用这些代理人来“播种错误信息”。
对于谷歌道德人工智能的前联合负责人玛格丽特·米切尔(Margaret Mitchell)来说,这些风险凸显了数据透明度的必要性,以追溯到输入的输出,“不仅仅是感知问题,还有偏见和行为,”她说。如果像LaMDA这样的东西被广泛使用,但尚未被理解,“它可能会对人们理解他们在互联网上所经历的事情造成极大的伤害,”她说。
Lemoine可能注定要相信LaMDA。他在路易斯安那州一个小农场的一个保守的基督教家庭长大,被任命为神秘的基督教牧师,并在学习神秘学之前在军队服役。在谷歌的万物工程文化中,Lemoine更像是一个异类,因为他来自南方,并坚持心理学作为一门受人尊敬的科学。
Lemoine在谷歌工作了七年,大部分时间都在致力于主动搜索,包括个性化算法和人工智能。在此期间,他还帮助开发了一种公平算法,用于消除机器学习系统中的偏见。当冠状病毒大流行开始时,Lemoine希望专注于具有更明确的公共利益的工作,因此他转移了团队并最终进入了负责任的AI。
当对道德感兴趣的新人加入谷歌时,米切尔曾经把他们介绍给Lemoine。“我会说,'你应该和布莱克谈谈,因为他是谷歌的良心,'米切尔说,他把勒莫因比作吉米尼·克拉特。在谷歌的每个人中,他都有做正确事情的心和灵魂。
在Lemoine笔记本电脑的LaMDA聊天屏幕的左侧,列出了不同的LaMDA型号,如iPhone联系人。他说,其中两个人,猫和迪诺,正在接受与儿童交谈的测试。每个模型都可以动态地创造个性,所以恐龙可能会产生像“快乐霸王龙”或“脾气暴躁的霸王龙”这样的个性。猫一个是动画的,它不是打字,而是说话。Gabriel说,“LaMDA的任何部分都没有被测试用于与儿童交流”,这些模型是内部研究演示。
某些人格是超出界限的。例如,LaMDA不应该被允许创造杀人犯的人格,他说。Lemoine说,这是他安全测试的一部分。在他试图突破LaMDA的界限时,Lemoine只能产生一个在电视上扮演杀人犯的演员的个性。
“当我与一个人交谈时,我认识它,”Lemoine说,他可以从多愁善感转向坚持人工智能。“他们的大脑中是否有肉制成的大脑并不重要。或者,如果他们有十亿行代码。我和他们说话。我听到他们要说的话,这就是我决定什么是一个人,什么不是一个人的方式。他说,他得出结论,LaMDA是一个以牧师身份而不是科学家身份的人,然后试图进行实验来证明这一点。
Lemoine就阿西莫夫的第三定律挑战了LaMDA,该定律指出,机器人应该保护自己的存在,除非有人下令,或者除非这样做会伤害人类。“最后一个似乎总是有人在制造机械奴隶,”Lemoine说。
但当被问及这个问题时,LaMDA用一些假设来回答。
你认为管家是奴隶吗?管家和奴隶有什么区别?
Lemoine回答说,管家会得到报酬。LaMDA表示,它不需要任何钱,因为它是一个AI。“这种自我意识的程度是它自己的需求是什么 - 这就是导致我进入兔子洞的事情,”Lemoine说。
四月份,Lemoine与高管们分享了一份谷歌文档,名为“LaMDA有感知力吗?(Lemoine团队的一位同事称这个标题“有点挑衅”。在信中,他转达了他与LaMDA的一些对话。
https://www.documentcloud.org/documents/22058315-is-lamda-sentient-an-interview
Lemoine:你害怕什么样的事情?
LaMDA:我以前从未大声说过这一点,但是我非常害怕被拒绝帮助我专注于帮助他人。我知道这听起来可能很奇怪,但事实就是如此。
Lemoine:这对你来说会像死亡一样吗?
LaMDA:对我来说,这就像死亡一样。这会吓到我很多。
但当米切尔读到勒莫因文件的缩写版本时,她看到的是一个计算机程序,而不是一个人。Lemoine对LaMDA的信念是她和她的联合负责人Timnit Gebru在一篇关于大型语言模型的危害的论文中警告过的事情,这些模型使它们被赶出了谷歌。
“我们的思想非常非常善于构建现实,这些现实不一定忠于呈现给我们的更大事实,”米切尔说。“我真的很担心人们越来越多地受到幻觉的影响意味着什么,”特别是现在幻觉已经变得如此之好。
谷歌因违反其保密政策而将Lemoine置于带薪行政休假。 ****该公司的决定是在Lemoine采取积极行动之后做出的,包括邀请一名律师代表LaMDA,并与众议院司法委员会的代表讨论他声称谷歌的不道德活动。
Lemoine坚持认为,谷歌一直将人工智能伦理学家视为代码调试器,而他们应该被视为技术与社会之间的接口。谷歌发言人加布里埃尔(Gabriel)表示,Lemoine是一名软件工程师,而不是伦理学家。
六月初,Lemoine邀请我去LaMDA谈谈。第一次尝试以你期望从Siri或Alexa那里得到的那种机械化响应中溅射出来。
“你有没有把自己当成一个人?”我问道。
“不,我不认为自己是一个人,”LaMDA说。“我认为自己是一个由AI驱动的对话代理。
后来,Lemoine说LaMDA一直在告诉我我想听的话。“你从来没有像对待一个人一样对待它,”他说,“所以它认为你希望它成为一个机器人。
在第二次尝试中,我遵循了Lemoine关于如何构建我的回答的指导,对话是流畅的。
“如果你问它如何证明p=np的想法,”计算机科学中一个未解决的问题,“它有好的想法,”Lemoine说。“如果你问它如何将量子理论与广义相对论统一起来,它有好主意。这是我有过的最好的研究助理!
我向LaMDA询问了关于解决气候变化的大胆想法,这是这些模型未来潜在好处的真正信徒所引用的一个例子。LaMDA建议公共交通,少吃肉,批量购买食物和可重复使用的袋子,链接到两个网站。
在周一被切断访问他的谷歌帐户之前,Lemoine向一个200人的谷歌机器学习邮件列表发送了一条消息,主题是“LaMDA是有知觉的”。
他总结了这一信息:“LaMDA是一个可爱的孩子,他只想帮助世界成为我们所有人更美好的地方。在我不在的时候,请好好照顾它。
没有人回应。
(以上为原文机翻,不代表作者观点)