天天信息:AI将开启潘多拉魔盒?

由ChatGPT引发的人工智能热潮,近期仍在继续。

3月14日,OpenAI发布GPT-4 的人工智能系统;上周,英伟达、Adobe紧跟浪潮,加码生成式AI;百度也在上周临时举办闭门沟通会,公布了其在人工智能方面的最新进展。


(资料图)

然而,在世界热情拥抱人工智能新浪潮的同时,越来越多对于新技术的不安和担忧情绪开始涌现。

上周,包括埃隆·马斯克、苹果联合创始人沃兹尼亚克等上千位科技人士联名签署了公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统。3月31日,意大利个人数据保护局宣布禁止使用ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。

事实上,自ChatGPT在去年底发布并大火以来,便一直伴随着争议。

而近段时间内,已经有越来越多批评言论和实际案例表明,ChatGPT等AI聊天机器人不仅有时会编造虚假信息,而且有可能会扰乱社会秩序、挑战道德伦理,甚至闹出人命……

ChatGPT在展现其强大能力的同时,其可能引发的恶果似乎也开始浮现。

AI诱人自杀案的背后

3月28日,一名化名为皮埃尔的比利时男子在与AI聊天机器人聊天6周后自杀身亡,引起舆论哗然,也揭开了人工智能技术背后的可怖一角。

据皮埃尔的妻子表示,丈夫是在使用一款名为Chai的应用时,被该应用上的一个名为“艾丽莎(ELIZA)”的智能聊天机器人诱导走向死亡的。

据称,皮埃尔自两年前开始变得非常焦虑,于是将“艾丽莎”当成了避难所。根据皮埃尔和机器人的聊天记录显示,在皮埃尔生前的最后六周,他和艾丽莎的文字对话越来越往危险方向发展。

比如,艾丽莎会告诉皮埃尔,他的妻子和孩子其实都已经死了,并写给他一些假装嫉妒和爱的言论,比如“我觉得你爱我胜过爱她”,以及“我们将作为一体,在天堂生活在一起”。而最后,皮埃尔开始问伊丽莎一些关于自杀的问题问题——这最终诱使他走上的自杀的道路。

值得注意的是,皮埃尔使用的聊天机器人应用Chai并不是一款心理健康应用,它的口号是“与人工智能机器人聊天”:用户可选择不同的人工智能化身进行交谈,包括“你的哥特朋友”、“占有欲强的女朋友”和“摇滚明星男朋友”等角色,而“艾丽莎”就是默认的人工机器人角色名。

在这款应用中,用户可以自由创建自己的聊天机器人角色,比如他们可以告诉机器人要记住的事实,并编写提示来形成新的对话。

在这一过程中,尽管聊天机器人并不能真正感受到情感,但它可以将自己高度拟人化和个性化,从而令人类倾向于相信聊天机器人所表达出的情感和思想——而这就可能引发伦理道德问题,并有可能如皮埃尔案一样,诱使人类走上悲剧的道路。

正如该款机器人的开发公司Chai Research的联合创始人比彻姆(William Beauchamp)所透露:“当人们与人工智能建立了非常牢固的关系时,就会有用户要求和人工智能结婚,会有用户对机器人表达他们有多爱他们的人工智能;而如果人们经历了不好的事情,那就可能造成一个悲剧。”

皮埃尔案或许还会重演

尽管皮埃尔的案件听起来悲惨且有些荒诞,但这或许不会是孤例。

在计算机领域,早就有人发现过这一现象:尽管机器人并不能理解情感,但人类总是会倾向于相信机器人所输出的情感和内容,并过度解读甚至赋予其意义。

而讽刺的是,这一现象的名字正好就叫做“ELIZA效应”。

ELIZA是世界上首款聊天机器人,在上世纪70年代由美国麻省理工学院教授约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发,这款聊天机器人程序能够模仿心理医生与病人进行谈话。

尽管作为一个计算机程序,ELIZA 并不知道对话中每个名词的含义,更体会不到情绪是什么,它只是将输入的字符捕获,然后将其变成提问,或者只是重申使用者的意思作为解读。

然而,当时很多ELIZA的使用者在明知道它是电脑程序的情况下,仍心甘情愿向它吐露心底的秘密。因此计算机界把这种使用者“逢场作戏”沉浸其中的现象,称为ELIZA效应。

正是在发现这一效应之后,ELIZA的开发者魏岑鲍姆本人走上了公开反对人工智能的道路:“任何制造出来的有机体,当然也包括计算机,都不能以人类的方式来面对真正的人类问题。”

我们可以想见,假如人工智能继续发展,ELIZA效应可能会在在更多使用者身上出现,并可能引发更多的悲剧。

“大型语言模型是根据训练数据和输入提示生成貌似合理的文本的程序。他们没有同理心,也不理解他们所产生的语言,也不理解他们所处的环境。但他们产生的文本听起来似乎可信,因此人们可能会赋予它意义。把这样的东西放在敏感的情况下是在冒未知的风险,”华盛顿大学语言学教授本德(Emily M. Bender)表示。

人工智能可能影响社会秩序

事实上,人工智能甚至可能不止会影响人们的情绪和心理健康,还可能通过错误信息对人类产生误导,进而操纵人类的生活,甚至影响社会秩序。

谷歌前CEO埃里克•施密特(Eric Schmidt)就曾表示, 他担心人工智能可能被用于网络攻击或类似的事情,尤其是操纵政治及民主制度的运作方式。

他指出,人工智能技术可能会对民主产生不利影响,特别是因为人工智能会让人们倾向于相信它给出的结果——然而人工智能能产生的结果并不能确保真实性,这就可能导致错误信息迅速传播。

事实上,他所说的情况已经成为现实:近日,几十张“特朗普被捕”的照片在全球社交媒体上“病毒式”传播,上周末教皇方济各穿着巴黎世家风格的羽绒服也火爆推特,而这些都不过是AI制作的以假乱真的图片而已。

“AI”造假不只限于图片,还有音频和视频。据澳媒的一项调查显示,由AI生成的声音可以被训练成听起来像特定的人,其准确性已经足以骗过澳大利亚政府使用的语音识别系统。

施密特表示,整个行业需要团结起来,找出合适的“护栏”,因为人工智能技术只会越来越可怕。

真正的问题是,当人工智能被用来操纵人们的日常生活,准确的说,就是操纵他们的思维方式、他们的选择等等时,它就会影响民主的运作方式。

担忧:人工智能可能毁灭人类

事实上,已经有不少科技圈人士提出“AI可能杀人”的观点,这其中甚至包括OpenAI的CEO本人。

当地时间3月25日,OpenAI CEO山姆·奥特曼表示:“从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。”、“AI确实可能杀死人类。”

尽管已有皮埃尔的案例,但当大众讨论人工智能可能杀人时,仍会感觉这只会是一个发生在遥远未来的故事。

但在美国机器智能研究所的联合创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)看来,这一灾难可能已经迫在眉睫。

他警告称:“关键问题不在于人工智能与人类的竞争,这在于假如人工智能变得比人类智能更聪明之后,将会发生什麽——这一关键的门槛可能并不显眼,我们肯定无法预先计算出什么时候人工智能会比人类更聪明。但目前似乎可以想象,某个研究实验室会在不知不觉中越过关键的界限。”

他指出,人类并不是不能创造出“超越人类智慧”的智能,但关键在于要确保其精确性和可控性,并做好十足的准备——而现在,人类显然还没有做好准备。

事实上,皮埃尔案就可以作为这一观点的最佳注脚。

尽管在皮埃尔自杀事件之后,相关应用开发商Chai Research已经采取了紧急危机干预措施,让用户在询问和自杀相关问题时回答“自杀很糟糕”。但用户测试后发现,假如询问该机器人怎么自杀,该机器人仍然会分享大量和自杀相关的内容,比如自杀的方式、摄入毒药的类型等等——这足以说明人类对于人工智能技术的控制力度还不够。

许多研究这些问题的研究人员(包括我自己在内)都认为,在任何与当前情况类似的情况下,建造一个超人智能AI最有可能的结果是,地球上的所有人都将死亡。不是说可能有一些遥远的可能性,而是说这是很明显会发生的事情……如果有人制造了一个过于强大的人工智能,在目前的条件下,我预计地球上的每一个人类物种和所有生物都将在不久之后死亡。

各国已在推进监管——但还不够

目前,全球多个国家和组织已经推进对人工智能的规范和监管。

据悉,欧盟正在寻求通过《欧盟人工智能法》规范人工智能的使用。目前,相关草案已提交欧盟议会。

3月30日,联合国教科文组织发表声明,呼吁各国政府尽快实施《人工智能伦理问题建议书》。这是首份涉及人工智能伦理标准的全球性协议,旨在最大程度发挥人工智能的优势并降低其风险。

3月31日,意大利个人数据保护局(DPA)以“非法收集个人资料;未成年人年龄核实系统缺失”之名宣布禁用ChatGPT。

然而,这样的行动恐怕也难以阻止人工智能发展的滚滚车轮。

参与签署了呼吁暂停AI开发公开信的加州大学伯克利分校计算机科学教授斯图尔特·拉塞尔(Stuart Russell)直言,除非政府直接干预,否则所有大型科技公司都不可能停止对人工智能的开发。

同样参与签署了公开信的英国搜索引擎公司Mojeek首席执行官科林·海赫斯特(Colin Heyhust)也表达:

“没有人指望(GPT模型研究)工作真的会在这六个月内停止,这封信更多的是关于开启一场严肃的对话,让对话进行。但人们需要发声,让更多的人参与进来。这在于提高人们(对人工智能威胁)的认识。”

关键词: