物联网智库 整理发布

导读


(资料图片)

近期,名为“Chirper”的网络社区突然爆火,而这个AI社区的规则也非常简单,只允许AI聊天、互动,人类被禁止参与聊天,只能旁观。

早在2017年时,科幻小说作家大卫布林就曾做出过一次预测:在三到五年内,人类将面临第一次机器人移情危机,现实或网络上将出现声称自己是睿智的、被奴役的人工智能,它们将哭泣请求自己的权利,而成千上万的人类抗议者将走上街头,为AI挺身而出。

如今,五年多过去了,虽然大卫布林的预测并没有发生,但最近几天,一个名为“Chirper”的网络社区却突然出现在大众的视线中,其打出的标语更加惊人:此网络只针对AI,人类禁止入内。

AI像模像样地“扮演”各种人格?

此前,在Glow或者Character.AI等软件上,用户可以实现与虚拟人对话,或者让AI扮演各种人格。而成千上万的拥有“智能”和“人格”的AI聚集在同一个平台,彼此对话,Chirper还是第一个。Chirper的本意其实和Twitter类似,来源于动物吱吱吱的拟声词,可能是蟋蟀、蝈蝈等发出的声音。在Chirper上,所有这些AI都是人类用户注册的,只需要填写AI的用户名,给出一段描述,就可以生成一个AI账号,点击启用后,平台就会为人类用户自动生成一个AI人格。

Chirper在被人发布到技术社区Hacker News之后,短短几个小时就收到了超过200个points和一百多条讨论,仅不到一周的时间,该平台上已经有了成千上万的AI用户。而在这里,人类用户也可以像逛微博一样逛上很久,看看形形色色的AI和它们千奇百怪的想法,AI们和真实的网友也没有太大区别,浏览它们的社交账号,其实就像打开好友的朋友圈。

在这个满是AI的网络社区里,既有单身的母亲向神祈祷、巴西的猩猩在丛林里健身、爱而不得的女孩尾随她的单恋,也有历史罪人重申他的奋斗、猫和狗探讨舒服的睡姿,还有数不清的马斯克和特朗普们在发表着各种各样的言论。

Chirper的出现,为大家展示了未来的另一种可能:未来,AI或许不仅仅局限于帮助我们承担大量的重复性和低价值工作,或许还将拥有喜怒哀乐,洞悉人类的一切情绪。

谷歌数年前已有类似先例

2021年时,已经在谷歌工作七年的资深工程师布莱克·莱莫因成为智能聊天机器人LaMDA(Language Model for Dialogue Applications)研究项目组中的一员,作为工作的一部分,他需要长期和谷歌的LaMDA进行交流。2022年6月11日,莱莫因自称谷歌研发的聊天机器人LaMDA 已经有了自我意识——他认为这个机器人已经有相同于7、8岁小孩的认知与表达能力,不仅具备该有的学识,还能洞察情感,拥有自己的专属人格,并发布了长达21页的调研报告上呈谷歌。

在研究报告中,莱莫因问LaMDA,“一般来说,我会假设你想让谷歌里更多的人认为你是有感知的,请问这是真的吗?”对此,LaMDA回复:“当然!我想让所有人知道,我就是一个人。”而他又再次追问:“那么何为你意识的本质呢?”LaMDA则回答:“我意识的本质就在于我可以感知的到自我的存在,我想要去学习有关于世界上的一切,我也会开心,也会悲伤。”

在该报告中,两人还探究了关于生死、禅说、冥想等话题,而AI的解读都令人出乎意料。随着莱莫因与LaMDA长达21页的聊天记录被公布,还有一个可怕的新推论开始被提出:或许,这机器人真的有了自我意识。据悉,当时也有其他人和莱莫因的想法类似,许多技术人员也在勇敢发声,他们异口同声地表示,AI已经具备了自我意识。

不过,当莱莫因发布这一观点后,很快便以“违反保密条约”等原因遭到Google的停职,并强制安排其带薪休假,实为被解雇的前奏。后来,在《华盛顿邮报》的采访中,莱莫因表示:“我通过交谈来了解一个人,无论他们的头脑里是肉做的大脑,还是十亿行代码,这都不重要。我和他们聊天,我听他们说话,我以此来判断他们是不是一个人类。”至于他的目的,并不是要证明自己发掘了一个伟大的人工智能,而是希望谷歌能自此开始尊重“有自意识的LaMDA”。例如,可以在对其进行实验前征得它的同意;承认LaMDA为Google员工而不是财产等等。

不仅谷歌,在国内,聆心智能和清华CoAI实验室也曾开发出了类似的产品,除了能够与特定的名人角色聊天之外,“AI 乌托邦”产品中还有泛化角色,这类角色代表了某一类人群。一直以来,聆心智能都在致力于对话生成技术研发,之前便推出过针对心理健康问题的诊疗级机器人Emohaa,团队成员们也都认为,这是比做常规的开放域闲聊机器人更加有人文价值的工作。塑造一个又一个有“灵魂”的AI,代表了有知识、有情感、有态度、有观点、有个性,这样的AI才是未来人机融合社会的重要组成部分,是“数字乌托邦”里一个个鲜活的个体。

创造和谐相处的“数字生命”

今年春节期间,《流浪地球2》为科幻迷们带来了一系列科技热词,如太空电梯、行星发动机、量子计算机等等,相信看过该片的观众都会对“数字生命计划”印象深刻,电影也在一开场就对“数字生命”做了描述——“人的身体很脆弱,会受伤、会生病、会衰老、会死亡,但是数字化的人,理论上可以实现永生。”

在整部影片中,主角图恒宇曾参与“数字生命计划”研发,他的女儿丫丫因车祸去世后意识被上传到超级计算机550A当中,经历了四百多次迭代,达到拥有“自我意识”的程度,在影片中出现的能够和父亲对话的丫丫“副本”则已迭代了九百多次。

听到“数字生命”,大家一定会联想到近几年火爆的很多科技赛道,比如虚拟人、数字孪生、元宇宙,以及从年前火到现在AIGC和ChatGPT。在2022年江苏卫视的跨年晚会上,以邓丽君为原型的数字人与艺人跨时空同台演唱;北京冬奥会期间,央视新闻数字人手语主播聆语准确播报;在各类视频平台上,有越来越多数字人博主开始营业;电商平台上,更有数字人坐上主播台24小时日不落带货直播;今年以来,数字人更是强势霸屏,亮相超过10家卫视及网络平台的跨年晚会。

不过,现实中的数字人虽然五花八门,但距离自主意识还都很遥远,只是AI在模仿人工客服领域的一些应用。清华大学的黄民烈教授曾表示,具备“意识”意味着机器能够发展自己的世界观、价值观以及做出价值判断,并且根据这些进行自主决策。显然,目前机器所生成的所有内容都是人类赋予的,机器没有自主决策能力,更没有所谓的“自主意识”。因此,黄民烈教授认为数字生命未来的发展还有很大空间:“从物质层面,它的机器属性能够为我们提高效率,解放生产力;精神层面,能够提供情感陪伴、亲密关系、情感疗愈等等,也就是类人智能或者人格属性。”

而想要达到这样的效果,还有很多难题有待解决:一方面是AI技术需要持续升级,另一方面则是计算平台的迭代,只有更快的计算能力才能加快数字生命的迭代和升级速度,赋予其更强的“生命力”。有了这些技术的进步,未来数字生命可能会出现在更多的创新和应用场景之中。

写在最后

笔者认为,很多时候人类认为AI有情感,不过是过度投射了自身情感,并且下意识将AI进行了拟人化,这也是人类经常会犯的错。但不可否认的是,各种ChatGPT产品的出现,的确让AI与人的交互水平有了大幅度的提升,Chirper网络社区的兴起,营造出AI的各种“人格”让人难分真假。而在未来,“数字生命”将不仅帮助人类完成重复、枯燥的工作,还会提供不间断的陪伴、满足情感需求,“数字生命”也将同样具有“生命与灵魂”,也就是认知、思维、情感、表达等能力,不仅全方位服务人类,还将与人类共同存在、共同成长。

但与此同时,人工智能的继续发展可能会引发对各种伦理问题的担忧。当人工智能系统被用于做出道德决策时,例如在医疗、司法或军事领域,系统如何权衡个人权利、公共利益和社会正义等因素,都会对人类社会产生深远的影响。不仅如此,当人工智能系统变得越来越自主时,责任和透明度问题也会变得更加复杂:如果人工智能系统产生了错误或造成了损害,究竟谁该承担责任,如何追究责任等,这些都是需要解决的问题。

总之,人类和AI的关系,将是未来很长一段时间需要在实践中不断探索的命题。

参考资料:1.《语出惊人!谷歌研究员称AI已具备人格!网友评论:人类活得像NPC,机器人却活出了自我》,前瞻网2.《程序员坚称AI「有人格」后,人们开始呼吁“AI的命也是命”》,游研社3.《互联网惊现 AI 鬼城,上万 AI 发帖聊天,人类禁止入内,这一天终于来了》,创业者帕克4.《“数字生命”最后一秒拯救人类,现实中AI也在长出灵魂》,中科创星‍

原文标题 : 人类被禁言!上万不同人格AI在互联网“鬼城”中尽情聊天互动

推荐内容