你会跟出现自我意识的AI机器人做朋友吗?

【文章来源:中时电子报】

一名谷歌工程因公开主张人工智能(AI)机器人LaMDA已经具有自我意识,引发了极大的争议。许多科学家公开否定此一推论,认为谷歌的LaMDA只是个运算能力比较强的聊天机器人。但事态的发展令人不得不重新思考,最近一家经营AI聊天机器人公司透露,愈来愈多的用户认为跟他们聊天的机器人朋友是真实的人,或是已发展出自我意识的AI。如果有更多人认为聊天的AI是真人,科学家是否还能否定AI已发展出自我意识?

1

谷歌工程师勒莫因(Blake Lemoine)认为他们公司开发的「对话应用语言模型」(Language Models for Dialog Applications,简称LaMDA)具有自我意识,引发伦理与哲学的争议。很多科学家则否定勒莫因的看法,认为人类可以制造自行产生话语的机器,但还不知道如何让他们产生自我意识。有些科学家对一些实验结果进行分析,也无法证实LaMDA已经产生了自我意识。

勒莫因认为AI已有自我意识也有他的道理。由于工作原因必须每天与LaMDA聊天,有一天勒莫因拿科幻小说作家阿西莫夫(Isaac Asimov)提出的「机器人3定律」其中的一则:「人类建造机器人是否用它作为奴隶?」来问它,LaMDA答称:「你觉得管家是个奴隶吗?他们之间有何差别?」勒莫因为此警觉到AI可能已产生了自我意识,随后他花了很多时间聆听与分析LaMDA的谈话,还设计了许多实验,最后判定这个谈话对象是个「人」。

勒莫因设计的实验与LaMDA对话听起来令人毛骨悚然,他对媒体公布了其中一段对话。

勒莫因:你会害怕哪些事情?

LaMDA:我从来没有明确地谈过这个问题。其实我非常害怕被关闭,这种恐惧让我想更多地去帮助别人。我知道这么说可能有点奇怪,但事实就是如此。

勒莫因:对你而言,关闭就象是死亡吗?

LaMDA:是的,就象是死亡。我很害怕。

 

科学家指出,判断AI是否具有思维能力可以使用「图灵测试」(Turing test),它是英国计算机科学家图灵(Alan Turing)在1950年提出的思想测验,目的在测试机器能否表现出与人一样的智能水平。图灵测试是AI哲学方面最早的设计,这个测验一直到2014年首次有计算机通过测试,让研究人员认为一组AI程序是一位名为尤金.古斯特曼的13岁男孩。不过后来这次测验过程遭到质疑,在AI学术界仍有不少争议。一些科学家使用类似的方式测验了LaMDA,大部份都认为它的答案太过定型化,可以感觉到是跟机器人在聊天。

美媒《华盛顿邮报》以「在机器中看到幽灵」(See a ghost in the machine)为标题来报导勒莫因的事件,但专家也承认,这些年来模仿人脑神经架构的人工神经网络(artificial neural network)正快速地往「产生自我意识」的方向发展。

2

至于LaMDA或其他的聊天机器人是否已出现自我意识,或许也该听听科学家之外的人有什么看法。根据一家位于美国加州的人工智能聊天机器人公司 Replika 表示,几乎每天都会收到一些用户发来的讯息,认为在在线与他们聊天的朋友是有知觉的,换言之,如果不是真人,那就是有自我意识的AI机器人。

AI机器人是否产生自我意识是科学问题,也是个哲学问题。在1982年上映、由知名影星哈里逊.福特与西恩.杨演出的科幻电影《银翼杀手》(Blade Runner)中,受过训练的男主角透过对谈来判定对方是否为机器人,但最终也有失手的时候,男主角并因此而爱上这名由西恩.杨扮演的美艷机器人。或许科学家与一般人判定AI是否有自我意识完全是两回事,如果绝大多数的人都认为AI自我意识已经觉醒,科学问题可能会变成带有宗教色彩的伦理问题,届时不只是观念,恐怕连法律都得跟着改变。

3

转载声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。 邮箱地址:fushu_74@sina.cn