美国《外交政策》杂志5月29日文章,原题:人工智能将加剧全球不平等现象人工智能(AI)竞赛愈演愈烈,其风险也达到了前所未有的程度。包括阿里巴巴、谷歌和微软在内,各大企业都在运用强大的计算能力,推动AI进步。此外,成百上千的私有企业和非营利组织也在推出软件和程序,以期在这一新兴市场占据一席之地。有关人士预测,这些成果将颠覆我们工作、娱乐、交易、创造财富和管理事物的方式。
机器人会代替人类吗?
(资料图)
在一片乐观的氛围中,畏惧的情绪也在滋长。越来越多的科技巨头和计算机科学家都表达了对复杂算法的担忧,他们认为在不久的将来,超级智械将迅速取代人类。2022年的一项调查表明,近一半受访的AI专家认为,这些技术至少有一成概率会毁灭人类。
对机器智能风险的担忧由来已久。早在1872年,英国作家塞缪尔·巴特勒就在《乌有之乡》一书中预言,有自主知觉的机器人终将代替人类。1942年,俄裔美籍科幻小说大师艾萨克·阿西莫夫提出了著名的“机器人三定律”:机器人不得伤害人类;机器人必须服从人类命令,除非这些命令与第一定律相冲突;机器人必须保护人类存在,只要这种保护不与第一定律或第二定律相冲突。
纵观历史,AI当前的热度同其混乱程度一样达到了史无前例的水平。大型语言模型及其背后强大的计算能力不再局限于实验室,而是走向上亿人的真实生活。不过,一些AI的忠实拥趸确信,如果不加以管控,AI将在不远的将来给人类带来致命危害。曾经远在天边的理论威胁如今变得愈发真切,日前,有3.1万余人联名呼吁,暂停对强大AI模型的培训,因为它们是“当今社会和人类面临的最大风险”。
潜在危害集中在4个方面
早在这种焦虑蔓延开之前,北美和西欧地区的政府、企业和高校已就AI和潜在危害展开了讨论。关注点主要聚焦在4个方面:首先,超级智能机器可能快速取代人类,带来存在性威胁;第二,AI会加重失业形势;第三,AI模仿及传递文本、语音和视频的方式,会加剧虚假和错误信息的传播;第四,AI可能会被用于研发生化或网络病毒等末日科技,从而带来毁灭性打击。
随着有关AI风险意识的增强,用于缓冲风险的标准也在逐步完善。这些标准多数是自愿性的,例如大量有关设计责任感和自我约束的协议和准则。实现人类利益最大化、提升设计安全性、以及算法优化,这些都是常见的AI开发原则。算法透明、有关应用的责任感和公平公正、隐私和数据保护、人为监督和管控、以及合规性,都是AI的发展目标。自愿性的自我监管将逐渐失去关注,科技企业也在自发参与,推动建立AI管理机构和更健全的制度体系。
然而,对保障体系的关注范围还远远不够。目前,有关AI和减轻其危害的策略的讨论主要集中在西方世界。现行的政府和行业标准多数来源于欧盟、美国或是经济合作与发展组织的成员国。
欧盟即将推出新的AI法案,聚焦存在高风险的AI应用和体系。西方世界对AI的关注,得益于各地区高度密集的AI企业、投资人和研究机构。而在拉丁美洲、南部非洲、南亚和东南亚等地,尽管AI也在迅猛发展,其需求和担忧却并没有出现在AI的相关讨论中。换言之,有关AI影响和监管的讨论,主要集中在少数人口中。而全球67亿人口所处的贫困和发展中国家,对有关问题投入的关注和资源要少很多。
低收入地区危害更甚
这种形势有很大的风险,由于缺乏AI监管,全球南方地区面临的负面影响更严重。AI更深层次的负面影响在于对平等机遇的侵害。放任AI自由发展,将扩大各国的社会、经济和数字鸿沟,促使企业权力集中,深化技术垄断,使西方早已千疮百孔的民主制度雪上加霜。
尽管AI的危害是全球性的,但其对各地区的影响程度并不相同,在监管体系和制度薄弱的中低收入的国家和地区,其危害尤其严重。一方面,富有国家开发的算法和数据,以及在发展中国家的后续应用,会加重由于意识薄弱和多样性不足导致的偏见和歧视。此外,由于薪资和劳动保护的不足,收入和技术水平较低的工人尤其面临着被AI取代的风险。诚然,AI在全球南方的发展将带来巨大的利益,但如果缺乏适当的监管、伦理管控和对公众意识的强化,我们就无法限制其负面影响。