9月8日,在2024浦江创新论坛的科技伦理论坛上,中国工程院院士、国家科技伦理委员会委员、人工智能伦理分委员会主任、鹏城实验室主任高文表示,国内百“模”大战也消耗了大量资源,“整个社会用电里,大概1%~3%的耗电用在计算方面。”他建议加强国产算力和国产生成式大模型构建,把开源和闭源模型高效利用起来。
面对人工智能带来的伦理问题,中国工程院院士高文表示,要加强技术研究和制度设计。
从完整概念提出至今,人工智能的发展历史只有68年。高文表示,这68年里,人工智能经历了三个阶段:第一阶段是基于逻辑推理的人工智能,大约经历了20年;第二阶段是基于规则的专家系统阶段,这些规则由人类一条条罗列出来,也由神经网络训练而来,这个阶段持续了大约30年。
从2006年至今是人工智能发展的第三阶段,也就是基于深度神经网络的阶段。这一阶段实际上又经历了两次浪潮,其中第一次浪潮是可用神经网络对图像分类的判别式人工智能,第二次浪潮则是从2017年起步的生成式人工智能。
生成式人工智能会带来深度伪造、诈骗、抄袭、歧视、侵犯隐私和数据安全、“劳动降级”等社会问题。高文表示,判别式人工智能和生成式人工智能如火如荼,但对当前的劳动力市场影响不大,下一轮热潮很可能是具身智能、人形机器人等,真正对劳动力市场产生大规模影响的,也是这一轮。“如果机器人被大量使用,怎样使作为劳动力的人仍有工作,是我们必须要面临的问题。”
高文表示,要从伦理上监管人工智能带来的社会问题。当前的人工智能伦理面临两个派别,一派认为要坚决控制风险,另一派认为现在的人工智能尚未发展到需要立刻踩刹车的阶段,现在只需设计好刹车,但不需要踩刹车。
“我们必须要有足够的技术手段,在数据、算法或使用中设立规范和标准。”他认为,要想规避这些危害,就需要加强技术研究和制度设计,将来必须能对人工智能踩刹车、关电源,在设计人工智能时要留有处理手段。“刹车的好坏、灵敏度都和技术有关,所以要加强技术研究。装不装刹车、什么时候装刹车,这需要制度配合。”
他也提到,除了文生文 ,还要考虑文生图、文生视频,“大语言模型是一维的数据串,到了图像就变成了两维数据,到了视频就变成三维数据,这些数据怎么在统一架构下训练和学习?所以有很多技术上的问题需要考虑。”高文表示,要加强技术研究,完善理论基础验证,提升模型可解释性,严格控制生成式人工智能的底层价值取向,实现安全价值对齐,“现在还是靠人来做对齐,把人回答的一些解读一点点输入来对齐,有没有更好的对接方法,这也需要技术跟进。”
在算力能耗方面,“目前人工智能给我们带来的一个技术和社会问题就是耗能太高。整个社会用电里,大概1%~3%的耗电用在计算方面。人工智能稍微再往前走一两年,大概有10%的耗电用在算力上,再往前走很可能要30%左右被算力耗掉。”高文表示,如何有效利用电力做适当的算力是当前面临的挑战,国内百“模”大战也消耗了大量资源,要把开源和闭源模型高效利用起来,加强国产算力和国产生成式大模型构建。
与此同时,要确保数据要素可信流通。在制度设计方面,要开展与生成式人工智能伦理相关的理论研究,完善生成式人工智能的法律法规建设。“我们要在治理领域形成共识,加强国际合作。”高文表示。
还没有评论,来说两句吧...