产业

人工智能法草案来了,但防范风险的猜想多于现实

人工智能法草案进入国务院2023年度立法工作计划,预备年内提请全国人大常委会审议。

界面新闻记者 |张旭

界面新闻编辑 |刘海川

人工智能法草案进入国务院2023年度立法工作计划,预备年内提请全国人大常委会审议。

“人工智能领域立法可以确保人工智能技术的安全和可信使用。”西南政法大学人工智能法学院教授朱福勇向界面新闻表示,立法可以明确责任归属方法或原则,保护人权,防止人工智能的滥用,确保智能决策过程更加公开透明,防止不公平和歧视的现象,保护公共利益,预防未来风险。

"我们认为,风险类型主要包括数据安全、网络舆情威胁、算法歧视、个人信息泄露、知识产权侵权、诱发网络犯罪、技术垄断以及侵蚀教育体系等。"他说。不过,这些风险大多还是停留于猜想和假设层面,尚未实际发生,这些风险的发生概率同样未有定论。

为何立法?

放观国外,全球范围内关于人工智能安全的治理逐步深入和具化。朱福勇介绍,2017年以来,美国、欧盟、德国、加拿大、日本、新加坡等国家或地区已陆续发布人工智能发展和治理的规范,各国和地区开展的立法探索呈现出从宏观性准则和战略,逐渐细化至诸如自动驾驶治理、数据安全等具体层面的趋势。

然而“目前来看,我国无论从国家部委、还是地方层面,还没有人工智能相关立法。我们了解到的,更多的是各级政府出台的指导意见和促进政策,或是人工智能基础共性、关键技术、安全伦理等各层次的标准制定。”北京市京师(深圳)律师事务所知识产权中心主任管巧丽说。

界面新闻注意到,2017年7月20日,国务院印发《新一代人工智能发展规划》明确提出人工智能立法“三步走”战略目标:到2020年,实现部分领域的人工智能伦理规范和政策法规初步建立;2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。

2023年4月,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《管理办法》”)公开征求意见的通知,就生成式人工智能服务内容进行针对性规范。

地方层面上也曾对人工智能发展进行合规性约束。2022年9月上海发布《上海市促进人工智能产业发展条例》;2022年11月,《深圳经济特区人工智能产业促进条例》正式施行,针对不法分子利用人工智能盗取数据或者“杀熟”,《条例》要求政府设立专门的人工智能伦理委员会,推进人工智能伦理安全规范的制订和实施。

“不过,目前为止,对人工智能的约束大多依靠自主性的道德准则,全国仅在少数地方探索性地出台了人工智能相关约束条例,但并未系统性地对人工智能的行为规范、处罚准则进行规定。”南昌大学元宇宙研究院院长、南昌大学数学与计算机学院教授闵卫东在2023年两会上谈到,现有的立法进程对于《新一代人工智能发展规划》中“第二步”的要求,还相差甚远。并且,地方关于人工智能领域的法律法规存在其天然的局限性,无法站在国家层面的高度进行立法,不能覆盖和应对全国、全社会对立法的需求。

对此,他建议国家层面加大力度进一步推进人工智能领域立法,从国家法律层面支撑国家人工智能发展战略,促进人工智能产业健康发展,保障数字经济高质量发展安全。

立法难点何在?

“如果想要制定一部促进法,可能较为简单,但若想制定一部综合性法律或者以治理为主要特色的法律,则较为困难。”上海同济大学教授陈吉栋认为,此次立法面临诸多难点。“任何一部法律,需有明确的调整对象。而在此次立法当中,我们对所要调整对象的认知并不清晰。”陈吉栋向界面新闻介绍,明确调整对象才能进行核心制度设计。但是,“我们无法科学评估人工智能系统在研发、生成、应用环节中会造成怎样的风险。”因此,“从这个意义上来讲,制定一部人工智能法案的最大难处在于如何对法律本身进行定位。”

朱福勇也谈到,就人工智能风险的评估与预测文献梳理而言,"我们认为,风险类型主要包括数据安全、网络舆情威胁、算法歧视、个人信息泄露、知识产权侵权、诱发网络犯罪、技术垄断以及侵蚀教育体系等。"不过,这些风险大多还是停留于猜想和假设层面,尚未实际发生,这些风险的发生概率同样未有定论。

他解释,“基于前瞻性和预测性的立场,不少学者着手探讨人工智能应用的治理理论和监管模式。其中,最为典型的一种观点是鉴于ChatGPT、GPT-4所展现出的强大功能及其潜在的巨大安全风险,主张通过专门立法解决现阶段以及未来可能发生的技术风险,但却始终未能言明专门立法所需要解决的调整对象、基本原则以及责任体系等问题。”

除了难以言明调整对象之外,人工智能立法还存在其他难题。朱福勇谈到,人工智能技术更新迭代速度极快,立法难以与技术更新速度保持同步,这可能导致法律规制难以适应新技术的应用和影响。除此之外,违法追责难题也需化解,如果人工智能系统做出有害的决策或行为,由谁负责较为合洽?算法的可解释性也是立法要面临的难题。

技术创新与法律监管需适度平衡。“人工智能需要大量的数据进行训练和学习,但这涉及到个人隐私和数据保护的问题。如何平衡促进科技创新和保护个人隐私之间的关系极具有挑战性。”朱福勇表示。

重在平衡,不宜严苛

如何展开立法思路,在现有法律体系框架内针对市场准入和具体应用制定可操作性条款?朱福勇建议,要本着创新导向、合法必要、安全可信、风险防范和多主体全领域监管等原则展开立法相关工作。

他指出,要明确界定人工智能的内涵和外延,明确立法适用的范围,包括公共部门和私营部门,以及国内和跨境应用等。其次,明确人工智能法律监管主体、模式、内容和监管责任。此外,也需明确数据隐私和保护规则、透明与可解释规则。包括要求解释决策过程的基本原理、输入和输出,确保决策过程的可追溯性和可解释性。

"立法也要规定开发者和使用者对AI系统的行为负有责任,建立追溯机制和责任追究;也要禁止基于种族、性别、宗教、性取向等因素的歧视性使用AI技术,确保算法决策不带有偏见和不公正性。"朱福勇说,还要明确安全和防范规则、国际合作与标准规则。促进国际合作与协调,积极参与国际组织和倡议,推动AI治理和政策制定的国际对话。

管巧丽一直从事知识产权领域工作。权利客体的保护问题方面,她建议在交叉领域开展法律层面研究,明确人工智能技术创作的作品是否属于知识产权保护客体。

对于如何平衡监管规制与技术创新?陈吉栋介绍,“这部法律是面向未来的,应具有法律3.0的特色。”他解释,应该认识到规制力量的提供并不在于法律本身,而是在于被规制主体、规制能力、规制资源,以及规制作用的发挥。“若盲目设定一些很空泛的制度,去试图守住安全底线,忽视被规制主体的利益,不会是成功的立法。”陈吉栋说。  他建议,要建立规制空间,使得不同的规制主体能够进行有效的商谈。

朱福勇也认为,通常在人工智能技术发展初期,不宜采取过于严苛的监管措施;当技术成熟、市场需求增长、风险和问题日益突出的时候,则应加大监管强度。当前情势下,坚守价值引领与技术“纠错”并行、秩序保障与创新提升协同、权益维护与义务承担对称,无疑是最恰当的平衡之道。

24快报
JSON抓取失败