美国人工智能立法情况
法律应当如何规范人工智能,从而在鼓励创新的同时保护人类社会的基本价值并将风险保持在可控范围之内,这是一个已经引起广泛讨论和要求立法回应的问题。早在2016年,美国白宫就发布了《为了人工智能的未来而准备》(ReparingfortheFutureofArtificialIntelligence)报告,对人工智能的现状、发展以及远景进行了梳理,针对可能引发的社会、政策等问题进行了分析,并提出应对建议等。特朗普上任后,采取积极措施,消除监管方面的障碍,促进人工智能发展。2018年5月白宫举办“美国产业人工智能峰会”(ArtificialIntelligenceforAmericanIndustry),会议宣布成立“人工智能特别委员会”,提出继续保持美国在人工智能领域全球领导地位的重要举措。美国国会也积极推进促进人工智能的立法,提出《人工智能未来法案》的一个重要目的在于确保美国在人工智能方面的全球竞争力。美国国会也于2017年底提出了两党法案《人工智能未来法案》(FutureofArtificialIntelligenceAct)。该法案反映了美国社会对人工智能可能引发的问题及其对经济繁荣和社会稳定性影响的关注,提议建立一个联邦咨询委员会进一步研究人工智能相关法律政策问题。该法案如获通过,将成为美国启动全面监管人工智能的第一个重要步骤。但更为现实的做法是从具体领域或实际问题入手,有针对性地制定相关法律,如在自动驾驶领域,美国参众两院均已针对性地提出相关法案。
立法机关作为建立监管体制和树立基本原则的起点
人工智能的监管体制需要得到公众认可,即立法上的承认。从程序的正当性和普遍的代表性看,立法机关作为监管机构,有着无可替代的作用。立法机关的代议性,使其成为建立监管体制和树立基本原则的起点,进而可以明确监管的目标和建立相应的监管机制。但立法者相对缺乏专业性,尤其在新兴科技领域,又会限制其作用的发挥。在2018年美国国会举行的关于脸谱网公司数据隐私问题的听证会上,这一问题充分暴露,一些议员无法进行专业对话。美国的立法者主要依靠听证会和游说团体来获得相对专业的意见,但各有缺陷,尤其是在新兴领域。此外,立法机构通过下设立法专业委员会,听取专家的建议。即使这样,立法者也不可能在一个特定问题或议案上耗费太多时间,这就限制了立法机构通过专家咨询意见了解某项科技的具体特征,从而做出正确立法决策的能力。但立法机构可通过授权和雇用具有特殊知识的专家来弥补这一缺陷,同时采取措施监督授权的行使。鉴于人工智能领域的专业性与复杂性,其对立法不仅提出了更高要求,更超越了当前的法律体系。为此,2017年美国参众两院公布的《人工智能未来法案》,提出由美国商务部成立联邦人工智能发展与应用咨询委员会,研究人工智能相关法律政策问题。
行政机关发挥政策的平衡和调节作用
美国体制下,行政机关具有的灵活性、相对独立性和专业化背景,使其在人工智能的监管领域能够更好地发挥平衡和调节作用。法律赋予行政机关做出行政范围内广泛决策的权力,因此行政机关的一个特点是可塑性强,能够为了应对某一个社会问题或者监管某一个行业而迅速调整自己。行政机关不仅能像立法者一样制定政策,而且能够像法院一样处理矛盾纠纷,还具有执行决策的能力。行政机构能够通过发布政策和信息影响资源配制,包括收集和发布风险和利好信息,来微妙地影响公众的行为。行政机关享有与立法机关相同的事前监管权力,能够在损害发生前就采取一些政策措施影响行业发展,包括制定行业标准、定义产品特性、限制产品功能、加强公共宣传以及不予许可、禁售某项产品等。近年来,美国国家公路交通安全管理局加强对自动驾驶汽车的安全指导,食品药品监督管理局(FDA)批准与医疗健康有关的人工智能产品和服务上市,均体现出行政机构对发展人工智能的监管态度和引领作用。此外,人工智能涉及的领域广泛,行政机关内部通过跨行业、跨部门协作,能够在更宏大的背景下考虑问题,制定更加专业、影响更广的战略,美国白宫成立人工智能特别委员会即是如此。
司法体系发挥保障和事后监管作用
司法体系(法院)主要通过认定责任等威慑手段来影响未来的行为。法院无法在侵权没有发生的情况下适用侵权法律,所以侵权法在影响和制定政策的前瞻性上存在不足。法院倾向于考虑一项事物的害处,而非其能够带来的益处,起到的主要是抑制作用。因此,法院胜任的是事后监管的职能。法院以个案为出发点,在损害案件发生后,发现事实、确定适用法律、明确责任如何分担。但法院很难从更大科技背景出发,从更宏观的层面确定人工智能等新兴科技的风险与收益。对人工智能而言,这样的考虑可能并不全面。与行政和立法机关相比,法院通常没有能力进行事前监管,这会造成其对于人工智能可能带来的新的风险采取保守主义的态度。目前,人工智能的进步还是渐进式的,尚未导致现行法律规则出现大规模改变。随着人工智能的加速发展,对法院如何跟上技术进步的步伐也提出了挑战。
几点建议
2017年,中国国务院发布了《新一代人工智能发展规划》,明确提出建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,为我国人工智能立法指明了方向。当前,我国人工智能领域发展日新月异,但相关立法工作尚未跟上。借鉴相关国家的实践经验,在人工智能立法方面,需要采取开放包含的态度和审慎有效的原则。一方面应采取措施,加大立法力度,进一步规范人工智能的发展,为人工智能的健康有序发展营造良好环境;另一方面,必须遵循客观规律,在人工智能诸多理论问题、实践问题尚未弄清的情况下,避免仓促出台法律法规。
立法应兼顾防范风险和促进创新,现阶段更应倾向于鼓励创新。当前人工智能的发展已进入一个关键时期,在立法上不仅需要加强规范,防范带来的风险,更需要营造有利环境,促进其发展和创新。国务院发布的《新一代人工智能发展规划》提出,到2030年我国在人工智能理论、技术与应用方面总体达到世界领先水平,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。与世界先进水平相比,我国在发展人工智能方面尚存在诸多短板,如关键核心技术掌握不多、高端人才缺乏等。要实现规划目标,要求我们在发展人工智能方面敢于尝试、宽容失败。现阶段立法规制的重点应放在鼓励创新和发展上,积极营造良好环境,吸引各类创新人才和投资主体参与人工智能的开发、应用和推广。阻碍技术创新,错失发展机遇;二是放任自流,该管不管,给国家安全带来隐患,给人民生命财产带来损失。有关建议如下。
坚持先有实践,后有立法规范。坚持问题导向和有效实用原则,出台有关法律法规应有针对性,避免大而全、空而不实。在立法条件尚不成熟的情况下,可以考虑通过政府部门发布具体行业指南加以引导,规范发展,为立法积累经验和依据。积极学习借鉴发达国家人工智能立法经验,但决不能照抄照搬。各国国情不同、文化传统不同,对待人工智能态度并不相同,采取的法律实践不同。对此,应结合我国实情,制定相关法律规范,指导和规范人工智能技术的发展和应用。
加强跨部门、跨行业协作。人工智能属于通用性技术,涉及面广,应用领域宽,带来的问题新,所涉及的诸多立法问题在现有的法律框架和制度体系下难以找到答案,需要综合考虑公众、社会团体、产业界、政府机构等可能受人工智能影响的群体的利益。同时,人工智能带来的很多法律问题属于跨领域问题,涉及技术标准、国家安全、伦理道理等,需要召集行业专家、法律专家和社会学家共同研究论证。因此,应加强跨部门、跨行业协作,在聚集经验智慧、形成普遍共识的基础上,推动人工智能领域的立法。
加强相关问题的深入研究和立法规划。当前人工智能技术的发展已超出法律实践,需要在理论上加强研究,及时跟进。人工智能的立法既涉及对人工智能本身的认识,包括社会伦理问题,也涉及具体应用问题,还涉及数据、算法等技术问题,不同的问题归属不同的立法范畴。这就需要从总体上加以规划,在人工智能总体立法尚不成熟时,具体应用领域立法不应停滞,应成熟一项、出台一项,先易后难,逐步形成体系。对人工智能风险的管控,目前还主要在弱人工智能领域,今后强人工智能也可能突破,这方面更需要在理论研究上先期投入,为制定一个通用性的人工智能法律奠定基础。
(摘自《科情智库》2019年07月26日 张华胜 文)