要闻 宏观 金融 证券 产业 公益财经 地产 能源 健康 汽车 评论 人道慈善

https://uploads.chinatimes.net.cn/article/202403/20240305152208N4upECw9zG.jpg

AI时代如何保障算法安全?全国政协委员张毅建议进一步完善人工智能算法治理体系|两会声音

赵奕 2024-3-5 16:29:52

本报记者 赵奕 胡金华 上海报道

当前,我国人工智能产业已经进入快速发展期。中国信息通信研究院公布的数据显示,2022年中国人工智能核心产业规模达5080亿元,同比增长18%;初步统计,2023年规模达到5784亿元,增速达13.9%。

但随之而来的,一系列诸如算法歧视、算法黑箱、信息茧房、算法霸权等法律甚至伦理问题也开始涌现,人工智能技术发展所带来的隐私安全和伦理道德等问题也需要得到重点关注。

在今年全国两会上,全国政协委员、金杜律师事务所高级合伙人张毅便带来了一份关于进一步完善人工智能算法治理体系的提案。他在接受《华夏时报》记者时表示,如何在促进发展的同时,更好完善人工智能算法治理体系,监管手段和能力如何提升,对我国相关产业的发展和国家治理能力现代化至关重要。

监管难以问责

“我非常关注人工智能产业的发展。人工智能产业三大要素:算法、算力和数据。去年全国两会上我的提案关注了数据问题。两会结束后不久,我就开始酝酿算法治理体系的提案。去年下半年,我作为上海新联会会长,针对先导产业组织了多次调研,形成的专报之一涉及算力问题。因此,这次历时近一年的研究和调研后形成的算法提案,是我长期以来关注人工智能产业的顺理成章的成果。”张毅说。

在调研过程中,张毅注意到,我国已出台的算法管理规定存在不足。具体表现在,当前相关管理规定主要为部门规章、规范性文件和推荐性国家标准,法律效力较低;监管客体仅限于民商事主体提供算法服务,不直接规制政府算法行为;法律责任上多为框架化、倡导性原则,导致算法治理内容与违法侵权间未形成充分对应关系;实践中主要通过算法备案和生成式人工智能(大模型)备案两项制度作为问责起点,但大模型备案尚在“实验期”,缺乏成熟规则指引。受限于部门规章的效力层级,未形成算法问责完整架构;在责任主体上,未对“服务提供者”等概念进行明确划分,不足以应对实践中复杂角色定位,也造成监管难以问责。

同时,张毅指出,管理机构部门化,存在监管竞合或真空。我国尚未设立统一的算法监管机构,依据《生成式人工智能服务管理暂行办法》,网信、发改、工信、公安等均有权对其职权范围内的算法问题进行监管。部门化的监管格局对综合型算法监管时容易产生监管竞合,但对新型算法又容易出现监管真空。

此外,算法侵害的认定和维权困难。张毅表示,算法提供者拥有信息资源和技术优势,算法机制和决策过程不可解释或难以理解等原因,被算侵害对象面临“理解难、取证难”问题,而执法者也面临“认定难”问题。

张毅还指出,生成式人工智能技术(AIGC)带来了新的挑战。他表示,AIGC大模型具有基于海量数据进行自学习特性,迭代快,其在垂类领域应用也在快速多样化,难以为现有监管体系和技术/工具覆盖,从而产生监管真空或失焦的情况。

强化算法透明度

据《2022全球人工智能创新指数报告》显示,中国人工智能创新指数近三年一直保持全球第二水平,在人才、教育、专利产出等方面均有所进步。

为推动人工智能产业健康有序发展,张毅建议,首先,应尽快推进《人工智能法》的出台,构建人工智能算法治理体系,弥补监管体系空白。同时,可考虑通过针对性的法规予以补充规范。针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。将人工智能和算法技术按风险等级进行划分并采取不同监管措施,并设置事前、事中和事后全生命周期监管措施义务。

同时,张毅提出,强化和创新算法监管。强化由网信牵头,发展改革、数据、工信、公安等多部门共同参与的算法治理联席会议制度,完善“横向协同,纵向联动”算法治理格局。借助市场力量,外聘或者借调算法及人工智能领域的专家共同参与监管流程,补齐监管技术短板。引入“监管沙盒”制度,允许算法及人工智能企业在监管机构的监督下,于相对可控的环境内进行试验性的开发、测试和验证。此外,或可考虑探索将人工智能技术应用于人工智能监管,以提高监管效率。

张毅还表示,要进一步保障用户权利。推进算法服务商以个人能够理解方式披露算法风险与可能产生的损害、算法运行步骤与决策结果间关系等运行规则,减少专业术语,便于用户理解和决策。要求算法服务商在个人用户决定选择拒绝使用算法服务的情况下,进一步优化用户便捷关闭算法服务的选项。

此外,张毅认为,还需要拓展算法侵害行为维权路径与责任模式,增强用户维权力量。在算法侵权的诉讼中采取“过错推定”归责原则,实行 “举证责任倒置”。用户仅承担受到算法损害的责任,由算法服务商对算法和损害之间无因果关系,以及无过错承担举证责任。探索人工智能算法领域的民事公益诉讼制度。此外,不宜局限于要求具体损害结果的责任模式,可考虑综合考量训练数据、科技伦理等多维度规定算法侵害行为的违法责任,增强源头治理,形成责任闭环。

责任编辑:徐芸茜 主编:公培佳