【文汇报】施骞、肖超:筑牢人工智能安全监管制度防线
发布时间:08-13-24

图为特斯拉擎天柱机器人。《文汇报》记者 袁婧摄

党的二十届三中全会提出:“加强网络安全体制建设,建立人工智能安全监管制度。”这是党中央统筹发展与安全,积极应对人工智能安全风险作出的重要部署。为了预判和有效应对人工智能技术发展产生的风险,以及人工智能应用带来的社会影响,有效推进人工智能技术的应用发展,必须深入解析智能技术引发社会风险的全新特征,对社会风险进行前瞻预测、科学约束、正确引导,构建兼顾发展与安全的人工智能社会风险综合治理体系,为社会治理效能提升注入动能。

人工智能时代社会风险的四个全新特征

当前,全球进入具有高度不确定性的“风险社会”时代,人工智能技术正在改变现代社会的运行逻辑与规则,人类社会的价值理念、行为方式正在被系统化重构,由此产生的社会风险主要呈现为蔓延性、级联性、衍生性和滞后性四个全新特征:

其一,人工智能提升了风险信息的扩散速度与范围,社会风险具有蔓延性。人工智能技术降低了信息生成难度,提升了信息扩散的广度和深度,信息扩散使得风险事件的影响范围级数扩大,形成了极强的蔓延性。同时,人工智能通过情感分析和行为预测,能够识别和放大用户的情绪和行为。一类风险事件如果引发了强烈的诸如恐慌、愤怒等情绪反应,人工智能系统可能会优先推荐和传播这类信息,进一步加剧公众情绪,使得风险信息具有极强的感染性和蔓延性,如果不加以有效监管和控制,将对社会安全和社会秩序造成极大影响。

其二,人工智能模糊了社会系统虚实边界,社会风险具有级联性。人工智能技术使得人与人、人与物、物与物之间高度耦合,虚拟世界和现实世界的界限变得模糊,形成一个复杂的网络系统。众多社会活动通过虚拟平台进行,又嵌入现实情境,虚拟世界中的数据泄露可能会导致现实世界中的身份盗用,社交媒体上的舆论可以迅速影响现实世界中的社会行为和决策。反之,现实世界中的安全事件也会通过数据传输影响虚拟世界的安全,虚实互动造成社会风险的级联效应。智能技术赋能下不同社会系统间高度互联,众多决策过程实现自动化,然而自动化系统的错误决策可能引发一系列连锁反应,导致风险的级联性传播。

其三,人工智能引发了一系列次生风险和风险链,社会风险具有衍生性。人工智能技术的应用可能会引发初始风险,风险在解决或缓解过程中,会进一步引发一系列次生风险,形成复杂的风险链条。风险事件可以在不同领域之间迅速扩散,在多个层次上传导,形成次生风险。例如网络攻击不仅会导致信息泄露,还可能通过影响物联网等引发现实世界中的事故,如交通堵塞、医疗设备故障等。数据错误或算法不当也可能衍生一系列次生风险。以算法偏见为例,其所导致的决策机制不公平现象,往往会引发社会的不满和冲突。而风险事件通常又会造成公众行为和心理的变化,进一步衍生新的次生风险,形成风险链。

其四,人工智能隐匿了部分风险事件的影响,社会风险具有滞后性。人工智能技术依赖大量数据进行训练和操作,依靠算法进行决策,数据泄露或滥用可能不会立即造成明显影响,决策过程和结果可能在短期内看不出问题,但随着时间的推移,数据滥用和算法偏见的累积效应会逐渐显现。同时,人工智能技术还高度依赖技术基础设施和自动化系统,这些系统故障或设计缺陷可能在短期内不易发现,但随着时间的推移,问题逐渐积累可能导致系统性风险。智能技术的应用对社会行为和心理有深远影响。例如,长期使用智能推荐系统可能导致信息茧房效应,使用户的视野变狭窄,进而影响社会的多样性和包容性。

实现“面向人工智能的治理”的四种策略

为有效应对人工智能技术发展可能引发的社会风险及其全新特征,必须有针对性地变更传统风险治理模式,在利用人工智能技术提升风险识别与预警效率,做到“基于人工智能的治理”的同时,有效防范与预警人工智能技术应用可能带来的风险,实现“面向人工智能的治理”,构建“技术赋能社会治理、治理防范技术滥用”的双向治理逻辑。

首先,利用多模态数据识别复杂交互关系,提升风险识别与预警的准确性。多模态数据是指对于同一描述对象,通过不同领域或视角获取的数据,用来表示不同形态的数据形式或同种形态的不同格式。多模态数据融合技术能够充分挖掘和利用数据间的互补信息,更全面地表征对象特征,识别或推断更复杂的交互关系,实现对社会复杂巨系统的实时感知、关联分析和态势预测,不仅可以提高风险识别的准确性,构建更具灵活性的风险评估和预警框架,实现风险管控的前瞻性和动态性,还可以有效整合风险预警与响应过程中彼此独立的决策过程,为不同决策主体间的协同提供基础方法和工具。因此,可以通过整合来自不同领域的不同模态数据,将文本、图像、音频和传感器数据等不同模态的数据进行综合分析,应用机器学习、深度学习等技术,识别数据之间的复杂交互关系。促进政府、企业、社会组织、学术机构等多方协作,建立跨部门的信息共享机制,整合多模态数据资源,构建实时预警系统,及时发现和预警潜在风险。

其次,结合智能技术发展应用水平制定个性化风险治理方案,防止出现风险应力集中现象。由于不同区域间经济社会发展与人工智能技术应用水平存在差异,进而导致风险响应能力的不一致,社会风险的跨区域传播演化呈现不均衡的现象。需要结合区域发展实际制定个性化风险治理方案,通过多主体多区域协同降低局部应力,避免形成社会系统的结构性破坏。因此,人工智能技术的风险治理首先要评估不同区域的人工智能技术应用水平,并分析包括应急资源、技术基础设施、管理能力在内的风险响应能力,识别区域风险应对的强弱点。根据不同区域的具体情况,制定个性化的风险治理策略。例如,经济发达地区可以重点加强技术安全和数据保护,而经济欠发达地区则需要提升基础设施建设和技术普及。通过政策支持和资金投入,推动技术落后地区的智能技术应用水平提升,缩小区域间技术差距和风险响应能力差异。

再次,平衡技术发展与风险规制,优化风险治理总成本,做到数智技术既“管得住”又“放得活”。人工智能风险治理需要兼顾“安全”与“发展”,既要规避治理失效造成的经济社会损失,又要防止过度治理带来的经济社会效益降低。人工智能风险治理的成本包括治理机制生效与失效状态下风险预防成本、社会失效成本与社会效益损失成本等众多成本要素。可根据技术的成熟度和应用场景,适时调整监管强度。在技术初期阶段,采用宽松监管,鼓励创新;在技术成熟期,加强监管,确保安全和规范。在制定风险治理策略时,需要量化不同成本要素,进行成本效益分析,选择最优治理方案,既有效控制风险,又避免不必要的治理成本。同时,为有效降低风险治理成本,可提供政策和资金支持,鼓励企业和科研机构开展安全技术创新,在推动人工智能技术创新的同时,确保安全保障措施的同步发展。

最后,超前研判人工智能技术发展可能引发的社会风险,妥善制定人工智能社会风险监管制度与标准。人工智能技术的快速发展迭代往往快于政策和法律的制定和调整,导致面向人工智能的治理政策标准具有一定的滞后性。因此,需要将人工智能技术应用嵌入社会治理中,面向人工智能社会风险制定相关的安全监管制度与行业标准,在推动智能技术应用场景建设与发展的同时,确保政策和法律能够与技术发展同步。应定期进行人工智能技术发展趋势分析,从技术、伦理、法律、经济和社会等多个维度进行综合评估,建立人工智能风险预警机制,及时发现和预判新兴技术带来的潜在风险,研究制定灵活且具有前瞻性的政策和法规。此外,还应积极参与国际标准和法规的制定,建立跨国合作平台,促进各国在人工智能治理方面的合作与交流,共同应对全球性的技术风险和挑战。

(作者单位:同济大学经济与管理学院)

来源:《文汇报》2024-08-11第06版

 

关闭 微信扫一扫

X Thank you for your interest in Master of Global Management, Tongji University!