在俄乌冲突战场上,一架乌军自杀式无人机正在俄军阵地上空盘旋,无人机上的摄像头对准战壕不断地扫描,在发现有人员活动后人工智能迅速识别,然后俯冲进行自杀式攻击。
镜头转向俄乌战场上乌军阵地上空,俄军一架无人侦察机在乌军阵地上空进行侦察,在发现坦克装甲车后,后方人员迅速将这一信息传递给操纵“柳叶刀”巡飞弹的作战人员,“柳叶刀”巡飞弹飞向发现目标的阵地上空附近,巡飞弹上也配备了人工智能系统,能够迅速识别坦克装甲车辆,并对目标进行锁定攻击,即使遇到干扰,最后也能够进行自主攻击。
上述是俄乌两军公布的无人机和巡飞弹作战画面,人工智能(AI)技术在俄乌冲突中的抢眼表现已经引发了高度关注,同时也将极大推动该技术在军事领域的应用。随着人工智能等新兴技术的快速发展,如何确保这些技术的安全应用成为各国在本届北京香山论坛期间关注的焦点。
9月12日,在论坛高端访谈设置专场讨论人工智能安全。9月13日,在论坛第六分组会议“新兴技术向善”上又专门对人工智能、合成生物学等新兴技术如何向善等议题展开交流和讨论。
人工智能技术上战场
2021年,美国前国务卿基辛格曾出版《人工智能时代与人类未来》一书,阐述了他对人工智能发展、影响等方面的看法。该书提出,人工智能将重塑全球安全与世界秩序,对人工智能的崛起提出了想法和警示。基辛格认为,人工智能武器具备核武器所不具备的三个特点:集中在大公司和私人部门;技术更容易被复制,从而容易被非政府组织掌握;小国也有机会掌握。
该书出版的第二年,俄乌冲突爆发,随着冲突进程的推进,越来越多具备人工智能技术的武器投入战场:无人机、无人作战车辆、无人艇以及巡飞弹等,人工智能技术还参与卫星图像识别、辅助决策、网络以及电子对抗等。
国防大学教授孟祥青接受澎湃新闻(www.thepaper.cn)采访时指出,第一次世界大战被认为是机械化战争的开端,海湾战争被认为开启了信息化战争,而这次俄乌冲突被认为拉开了智能化战争的帷幕,虽然现在的人工智能技术对武器和作战是浅赋能,对战争的影响不是非常大,但已经预示了这一趋势。
目前,在俄乌冲突中,由人工智能赋能的武器越来越多出现在战场上。今年3月,英国国防部宣布把援乌无人机的数量从4000架增加至1万架,其中数千架是配备了人工智能技术的无人机,以支持其在战场上的行动。这些无人机将携带先进的传感器和武器系统,具备高度的自主性和智能性,能够在复杂的环境中进行侦察、打击和防御等多种任务。
2023年1月,一篇名为《算法是如何打破俄乌战争平衡的?》的报道,披露了美国高科技公司与美国国防部及情报部门合作,深度介入俄乌冲突的种种内幕。报道提及,美国高科技公司提供的人工智能软件被广泛用于卫星图像判读,发现有价值的目标。
据报道,乌军还广泛使用了一套来自美国民用软件公司帕兰提尔的“元星座”信息系统。通过该系统,各种各样的高精尖技术应用被整合,形成一种“击杀链条”,乌克兰及其盟友可以看到特定作战区域目前可用的数据。卫星图像目标识别是一个重要而复杂的问题,传统的人工判读面临诸多挑战,而人工智能基于深度学习的能力可以在卫星图像判读方面发挥很大的作用,为卫星图像目标识别提供了新的解决方案。
俄罗斯也在俄乌冲突战场上使用具备人工智能的武器,比如“柳叶刀-3”巡飞弹的弹载人工智能用于目标搜索和识别,可以独立找到预定的目标并进行攻击。俄罗斯的无人战车也在战场上出现,比如MT-1无人扫雷车、“标记”无人作战车辆等。
为了适应未来战争,俄国防部曾于2022年成立了人工智能武器研究部门,以加强人工智能技术的使用,发展新的特种装备。
另一场备受瞩目的冲突——巴以冲突也有不少具备人工智能技术的武器被运用于战场。据报道,以色列在进攻加沙时,使用了一款名为“薰衣草”的人工智能系统来帮助识别哈马斯武装人员,识别目标的数量和速度大大增加,以往以色列情报部门会在10天的工作中找到并批准10个打击目标,现在他们10天的工作可以找到并批准大约100个打击目标。
此外,人工智能修改、生成图片和视频——也可被用于战时的信息战或舆论战。美国“连线”网站题为“生成式人工智能在以色列-哈马斯之间的虚假信息战中发挥了令人惊讶的作用”的文章称,巴以冲突爆发后引发了前所未有的“虚假信息浪潮”,这是“算法驱动的战争迷雾”,使社交媒体陷入困境。
共同制定安全标准是出路
当前,人工智能、合成生物学等新兴技术的快速发展正在释放巨大的应用价值,同时也带来难以预知的风险和挑战,攸关全人类的利益,如何确保新兴技术的安全应用成为各国关注的焦点。
美国国防分析研究所研究员,美国前助理国防部长帮办施灿德在本届北京香山论坛“人工智能安全”高端访谈中表示,有人工智能控制的无人机已经在俄乌战场上使用,还有在加沙,其他国家的军队也都在考虑人工智能相关的应用,但是现在人们也在讨论人工智能的安全和治理的问题,这也是没有被涉足的领域。
谈到人工智能的安全和风险,人工智能能否自主决策、是否可信,如何管控人工智能可能带来的风险等问题备受关注。
人工智能算法“黑箱”的不透明性带来了安全风险,也使得社会信任问题正变得越来越复杂。对此,东京大学生产技术研究所特聘教授、日本工程院外籍院士胡昂表示,人工智能这个“黑箱”是否可信,这是一个终极问题。在他看来,人脑不可替代,“至少在短时间内人工智能难以取代人脑做决策”。
联合国教科文组织人工智能与数据科学促进社会发展教席、荷兰海牙应用科技大学数据科学教授兰普罗斯·斯特吉乌拉斯指出:“人类的技术人员都会犯错,何况机器?”“人工智能是否能取代人脑自主决策,这是一个哲学问题,也是一个现实问题。”
参考消息网今年7月报道,美国趣味科学网站6月刊发《人工智能犯下的灾难性错误》的文章,文章列举了人工智能的“灾难性”例子,提醒人工智能的风险不可忽视。
据报道,英国广播公司的一项调查发现,社交平台正在利用AI删除可能的战争罪行视频,这些举动可能会让受害者在未来无法进行正当的追索。社交平台在战争和社会动乱中发挥着关键作用,通常是那些面临风险的人的一种交流方式。调查发现,尽管公众感兴趣的图文内容可以保留在网站上,但有关在乌克兰的袭击的视频会被迅速删除。
这些“灾难性”例子还出现在人们的日常生活中,谷歌图片在其AI软件上搜索大猩猩时出现黑人的图片后,曾不得不取消了这一功能。包括苹果公司在内的其他公司也曾因类似指控面临诉讼。
施灿德认为,人工智能的安全问题涉及方方面面,除了国防,还包括民生等。因此,他建议国家间达成多边协议,缓解人工智能安全风险。
在清华大学信息科学技术学院院长、中国工程院院士戴琼海看来,未来三年,人工智能发展将进入快车道。由于人工智能发展的不可预测性,相关伦理、治理要走在前面,要降低人工智能应用的安全风险,使其为人类谋福祉。
在专家看来,加强人工智能领域治理的国际合作尤其是大国间的合作尤其重要,共同制定安全标准能够让人工智能更好地造福人类。
今年5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。双方介绍了各自对人工智能技术风险的看法和治理举措以及推动人工智能赋能经济社会发展采取的措施。双方均认识到人工智能技术发展既面临机遇也存在风险,重申继续致力于落实两国元首在旧金山达成的重要共识。
在施灿德看来,中美要确保沟通能够持续进行。“在新技术领域,双方正逐渐达到某种程度的对等或平衡,这或许能促使双方进行更加坦诚和深入的对话。我们必须确保他们继续努力保持沟通。”施灿德说。
还没有评论,来说两句吧...