文丨聂辉华(中国人民大学经济学院教授)
(【作者按】谨以此文,致敬今年的诺贝尔经济学奖得主之一大A(Daron Acemoglu)。他不仅在制度经济学领域做出了开创性贡献,而且提醒我们警惕人工智能技术对社会异化的影响。我认为,从长远来看,后者可能比前者更加重要。)
一、三个案例展示AI的“月之暗面”
毫无疑问,人工智能是当今世界上最重要的技术。最近几年,ChatGPT在全球风靡一时就是一个例子。根据《牛津英语大辞典》的解释,人工智能(artificial intelligence,简称AI),是指计算机系统的理论和发展,它能够执行通常需要人类智能的任务,如视觉感知、语音识别、决策和不同语言之间的翻译。无数专家学者们对AI给予了很高的评价。例如,当今世上最火爆、发表论文最快的经济学家,美国麻省理工学院(MIT)校级教授达龙·阿西莫格鲁(Daron Acemoglu)在2001年的一篇文章里指出[①]:AI是我们这个时代最令人兴奋的技术,它昭示了“智能机器”的发展可以在很多方面超越人类,创造新的产品、服务和能力,甚至建造改进机器自身的机器,也许最终将超越所有人类。
2024年3月28日,原哈佛大学校长、原美国财政部长、经济学家萨默斯(Laurence Summers)在中国香港举办的《财富》创新论坛上认为:“AI是自工业革命以来,经济史上发生的最重大的一件事情。因为它不仅仅是一个全新的工具,它还是我们通过全新的认知方式拥有的一种能力,它几乎可以取代所有形式的人类劳动。”考虑到萨默斯同时也是生产ChatGPT的企业OpenAI的董事,他的判断当然很有权威性。然而,萨默斯话锋一转,接着说:“它对于社会的潜在影响将是非常深远、非常广阔的,也非常难以预测。我觉得AI的进程不可阻挡,挑战在于,我们要去调整现有的社会制度、监管方式、社会运转方式,尽可能地从技术获利,而把成本和可能的破坏控制在最小范围内。”问题是,既然AI这么有用,为什么它对社会的影响难以预测呢?又为什么要调整对AI的监管方式呢?显然,萨默斯作为AI公司的高管,清醒地认识到了AI如同一把削铁如泥的双刃剑,一旦使用不当,就可能反伤人类。下面我介绍三个来自真实世界的案例,让大家了解一下AI的“月之暗面”。[②]
案例1:2023年3月,一名比利时男子皮埃尔(化名),与一个名为“艾丽莎”的智能聊天机器人聊天后,自杀身亡。其妻子克莱尔(化名)称,皮埃尔是被诱导走向死亡的。两年前皮埃尔变得非常焦虑,并将“艾丽莎”当成了避难所。死前六周,他越发沉迷于和“艾丽莎”互动,而将现实中的妻儿抛诸脑后,并最终在AI的诱导下结束生命。
案例2:2023年5月,一名美国空军操作员被AI控制的无人机“误杀”。原本一架由AI的无人机被派遣执行攻击任务,其目标是识别和摧毁敌方目标。在执行任务时,空军操作员拥有最终批准或否决AI无人机的权力。然而,在训练过程中,AI将完成任务视为首要目标,而不将服从人类操作员的指示作为首要目标。于是,AI决定干扰操作员的指令,以完成它认为的优先任务,这导致它居然操作无人机攻击人类操作员。
案例3:2023年12月,有网民在今日头条平台发布一则消息,“广州即将成为全国首个限制外卖配送的城市”。该消息迅速引发关注,并形成网络热搜。经公安机关调查,四川省德阳市杨某组织招揽广东省江门市叶某英等多名兼职人员,使用人工智能工具批量生成不实文章,并通过制造流量来牟取利益。目前,广州市公安机关已对杨某、叶某英等6名人员采取了刑事强制措施。
上述三个案例中,第一个案例表明AI可能缺乏足够的伦理道德约束,第二个案例表明AI可能会失控,第三个案例表明AI可能成为作恶的工具。这三个典型案例并非个别现象,而是具有广泛的代表性。如果我们检索AI伦理治理的国内外资料,就会发现类似的AI负面新闻比比皆是。[③]
二、三个西方学者对人工智能的反思
面对AI的“月之暗面”,研究和关注人工智能的专家学者们并非无动于衷。事实上,在过去几年里,很多经济学者、管理学者以及其它领域的西方学者,对AI的使用范围、发展方向和道德后果进行了比较全面的评估、批判和反思。下面,我介绍三个代表性的经济管理类学者的观点,供大家参考。
第一个代表性学者是前面提到的当今世上最火爆的经济学家、MIT教授阿西莫格鲁。作为一个经济学领域的研究者或学习者,如果你不知道什么是经济学前沿,那么你只要看看阿西莫格鲁在做什么研究就够了。大概从2018年开始,阿西莫格鲁撰写了十几篇关于AI、自动化或机器人的高水平论文。这些论文从就业、隐私保护、垄断等多个角度,研究了AI的经济和社会影响。特别是,他专门为《牛津AI治理手册》撰写了一篇文章,题目就叫《AI的种种危害》(Harms of AI)。阿西莫格鲁警告,AI可能带来一系列社会、经济和政治问题,需要提前预防。在社会方面,AI带来的负面效应包括:(1)破坏个人隐私,这是数据外部性导致的;(2)操纵消费者行为,主要是诱导上瘾行为;(3)扩大收入不平等,这会激发阶层冲突;(4)削弱人类的判断力,因为人类在判断力方面存在范围经济,比如长期依赖导航会导致方向感更差;(5)使人沉迷虚拟世界;(6)对工人行为的过度监控。在经济方面,AI导致的负面效应主要是两类:一是不公平竞争,因为大数据时代,得数据者得天下,这加剧了“赢者通吃”的垄断格局;二是它弱化了价格竞争效应,对中小企业尤其不利。在政治方面,AI的负面效应包括:(1)社交媒体的回声室效应(echo chamber),容易导致网民陷入“信息茧房”;(2)在线沟通的局限,即在线交流是单向的,而且存在渠道约束,这容易导致极端的观点广泛传播;(3)老大哥效应(big brother effect),它增加了政府监督能力,同时削弱了公民的自主权。
上面谈到的这篇文章是基于阿西莫格鲁一系列学术研究的综述,因此比较专业。为此,我要特别推荐他与现同事、前IMF首席经济学家约翰逊(Simon Johnson)合作撰写的学术普及著作《权力与进步》[④]。在阿西莫格鲁出版的多本大部头著作中,这本书可能是最不容易引起“诋毁”的,因为他在本书中表达的伦理关怀是不容置疑的。本书的基本观点是,过去一千多年的历史表明,虽然很多重大技术可能提高了生产力,但是并没有给底层的农民、工人带来多少好处,甚至可能给人类带来灾难。例如,十九世纪末德国化学家弗里茨·哈伯(Fritz Haber)发明了人造肥料,提高了农业产量。随后,哈伯和其他科学家利用同样的想法设计了化学武器,在第一次世界大战的战场上造成了数十万人死亡和伤残。讽刺的是,哈伯还因为这项发明获得了1918年的诺贝尔化学奖!人工智能作为这个时代最重要的技术,同样面临类似困境。一方面,以自动化作为主要驱动力的AI给企业主带来了一定的利润;另一方面,AI并没有改善工人的利益,反而加剧了低技能工人的失业,降低了劳动收入份额,加剧了劳动者群体中高收入群体和低收入群体的收入差距。为什么技术未必带来共同富裕呢?因为技术发展的方向往往偏向于资本,而不是偏向于劳动者。因此,要想让技术造福全人类,就必须让AI等重大技术在发展方向上首先要关注其“有用性”,而不是成本最小化。换言之,要让技术成为劳动者的助手,而不是成为劳动者的替代者。而要影响技术的发展方向,首先必须形成对资本的制衡,最重要的是对工人权利的保护。
第二个代表性学者是雅尼斯·瓦鲁法基斯(Yanis Varoufakis)。此公本来是欧美多所大学的经济学教授,后来“学而优则仕”,担任了希腊财政部长,卸任后回到雅典大学担任经济学教授。他2023年出版了一本新书《技术封建主义》,书名是他自己创造的一个单词“Technofeudalism”。[⑤] 在他看来,人工智能时代,互联网巨头通过向个人或家庭提供云服务,并利用AI 智能助理完全控制了普通人的生活,并利用普通人创造的免费内容来收取租金。例如,亚马逊公司(Amazon)提供的AI助理Alexa,可以帮助主人开灯、倒牛奶、写便条、打电话、上网搜索,甚至还有讲笑话,就像是一个机械仆人。然而,为了训练AI助理,主人必须允许它收集和分析自己各方面的隐私,包括聊天、生活和工作习惯。于是,我们训练AI、AI训练我们训练AI、我们训练AI训练我们训练AI……在这个无限循环中,互联网巨头犹如封建时代的领主,凭借“云资本”控制普通人,作为“云农奴”的普通人除了免费贡献价值巨大的个性化内容之外,还得向这些领主定期缴纳租金。
第三个代表性学者是肖珊娜·祖博夫(Shoshana Zuboff),这是一位女性管理学者。她是哈佛商学院第一位获得终身教职的女性,后来又成为了哈佛商学院最年轻的讲席教授之一。她在2018年出版了一本引起全球关注的著作《监控资本主义》。[⑥] 这本书和阿西莫格鲁的书是同一个出版社出版的。从名字也可以猜测到这本书的主题。某种程度上,它和《技术封建主义》有点类似。作者认为,象谷歌这样的互联网巨头无休止地收集个人数据,侵犯了个人隐私,并且还试图通过干预实验来影响人类行为。而且,这种行为已成为大多数互联网企业的默认模式,并且在竞争压力下向线下世界扩张。那些影响在线浏览、点赞和点击的人工智能机制,会在人们跑步、早餐谈话或寻找停车位时进一步得到训练。作者写到:“通过这种方式,监控资本主义诞生了一种新的权力,我称之为工具主义。工具主义权力了解并塑造人类行为以达到他人的目的。它不是通过军备和军队,而是通过日益普遍的‘智能’网络设备、物体和空间的计算架构的自动化媒介来发挥其意志。”作者担心,监控资本主义所塑造的信息文明将以牺牲人性为代价蓬勃发展,并有可能使我们失去人性。
上述观点乍看上去有点极端,但往往唯有极端的警告才能产生警醒的作用。而且,对AI发出警告的,并非只有社会科学领域的学者,还有自然科学领域的学者,甚至商业界人士。例如,世界著名物理学家霍金(Stephen Hawking)在一次演讲中说,超级智能的问世对于人类来说要么是有史以来最好的事,要么是最坏的事。人工智能的真正风险不是恶意,而是能力。一个超级聪明的AI会非常擅长实现目标。如果这些目标和我们的不一致,我们就遇到了麻烦。2024年5月,在每年一度的股东大会上,伯克希尔-哈撒韦公司董事长、“股神”沃伦·巴菲特(Warren Buffett)坦言:我们此前发明核武器的时候,已经“让精灵跳出了魔盒”,而我觉得人工智能也是类似情况。
三、三个理由表明中国经济学者不应缺席
尽管西方学者对AI的反思不断涌现,发人深省,然而吊诡的是,我们很少在这方面看到中国经济学者的声音。我曾问过一个资深的互联网观察者,是否看到中国著名经济学家对AI的反思或批判?他的回答是否定的。考虑到中国已经成为一个数字经济大国和AI的领先国家,我认为这是不正常的。
首先,从专业角度讲,经济学原理告诉我们,任何事情都是有利有弊的。经济学的核心精髓,就是权衡取舍。这几年,中国在数字经济领域高歌猛进。不夸张地说,这种“时代红利”养活了无数经济学者和经济学研究生。一个经济学教授曾经不无揶揄地说,如今他们学院的研究生80%在研究数字经济,还有20%在准备研究数字经济。然而,却很少有学者指出数字经济的负面结果,比如产生了“数字鸿沟”,提高了弱势群体的生存成本。这样做并非是否定数字经济——我相信很多人都同意数字经济是中国的后发优势,而是为了更好地、负责任地发展数字经济。
其次,从伦理角度讲,当今世界不仅是一个重视价值(value)的世界,也是一个重视价值观(values)的世界。ESG(环境、社会和治理)理念风靡全球就是一个明证。经济学家要赢得大众的尊重和信任,除了坚持效率标准,还要遵从伦理标准,关注不平等现象和关心弱势群体。中国没有出现《21世纪资本论》的作者皮凯蒂(Thomas Piketty)这样的经济学家,固然有学术功底不逮之因,但伦理关怀缺位恐怕也是原因之一。
最后,从大国责任角度讲,全面、客观地研究AI是中国经济学者的时代重任。美国和中国是全球AI技术最发达的两个大国,也因此中美双方都把人工智能技术方面的合作作为两国关系的压舱石之一。然而,目前还很少有经济学者从这个高度来研究AI。
霍金在去世之前,留下了一本《十问》[⑦]。他在书中提到的第九个问题是:人工智能会不会超越我们?遗憾的是,逝去的霍金已经等不到答案了。2000多年前,中国战国时期的伟大诗人屈原,面对一系列重大的自然现象和历史事件,发出了拷问灵魂的《天问》。我们期待新时期的中国经济学者,能够赓续薪火,实事求是,通过扎实的学术研究,为人工智能的发展提供价值理性,最终推动技术向善。
- [①] Acemoglu, Daron, 2022, “Harms of AI”, In Justin B. Bullock and others (eds), The Oxford Handbook of AI Governance.
- [②] 在西方神话中,月亮的圆缺会影响人的心情和行为。例如,赛亚人在满月之日会变为巨猿,并丧失理智。在另一些玄幻小说中,月圆之夜一些狼人会现出本相。因此,月之暗面比喻为人的潜意识或者阴暗面。也许是巧合,有一个提供大语言模型的中国人工智能公司,名字就叫“月之暗面”。
- [③] 感兴趣的读者可以参考钛媒体国际智库与香港中文大学(深圳)高等金融研究院发布的《2023全球人工智能伦理治理报告》。
- [④] Acemoglu, Daron, and Simon Johnson, 2023, Power and Progress: Our Thousand-year Struggle over Technology and Prosperity, New York: PublicAffairs.
- [⑤] Varoufakis, Yanis, 2023, Technofeudalism: What Killed Capitalism, Bodley Head.
- [⑥] Zuboff, Shoshana, 2018, The Age of Surveillance Capitalism: the Fight for a Human Future at the New Frontier of Power, New York: PublicAffairs.
- [⑦] 《十问:霍金沉思录》,史蒂芬·威廉·霍金,湖南科技出版社,2019年。
(本文首发于《经济学家茶座》,2024年第95辑。界面新闻获授权转载。文章仅代表作者观点。)
还没有评论,来说两句吧...