12月28日,第四届“数字法治与智慧司法”国际研讨会顺利举行。本届研讨会华中科技大学与湖北省高级人民法院为联合主办单位、华中科技大学法学院与湖北司法大数据研究中心为共同承办单位。国家人权教育与培训基地·华中科技大学人权法律研究院为会议协办单位之一。来自美国、英国、白俄罗斯、丹麦等国著名大学和研究机构的国际专家,国内著名高校和研究机构法学专家,法院系统、实务界、产业界的代表近150人围绕“数字法治与智慧司法”主题展开学术探讨,深入交流、达成共识,为数字法治建设与发展贡献新的智慧和方案。
本次会议包括主题报告和分论坛环节,分论坛设中文会场、法理会场、国际会场三个分会场。本期推送国际会场发言摘要。
分论坛一

主持人:华中科技大学法学院副院长、副教授 鄢斌
主题发言

东南大学法学院王禄生教授的发言主题为“预测性司法的历史生成与时代图景”。他详述了预测性司法的历史进程,从临床预测起步,经精算预测发展为如今的算法驱动模式,同时呈现出现实中的预测性警务和审判等形态。此领域争议不断,支持者与反对者各有观点。王教授指出,预测性司法会使刑事司法深层逻辑转变,如社会联结和治理方式的变化,同时也与刑事司法价值存在内生冲突,像程序、实体公正及中立性等方面的矛盾。面对这些难题,他提出良法善治理念下的协同治理是关键解决办法。最后,教授精准总结到预测性司法是刑事司法预测在数智时代的延续,中国在这一领域展现出了后来居上的趋势,但仍需要符合国情的预测性司法治理途径加以管理,以保障其在法治框架内稳健前行,充分发挥其在司法领域的作用与价值,为司法现代化进程助力。

丹麦哥本哈根法学院向文副教授在“人工智能时代司法决策中的人文主义价值探讨”主题下提出了关于司法预测中的人文主义视角的讨论。他认为,相关的实体程序问题不仅涉及法律,还涉及哲学、伦理、艺术等多个领域。向文教授首先分析了人工智能在司法决策中面临透明度、公平性、合法性以及人权等方面的挑战。人工智能系统内可能带来不公正后果的偏见对有效管制、保护数据隐私和保障安全性提出了新挑战。他随后阐述了中国儒家思想与法家思想对预测性司法的影响,并从“以人民为中心”的人文主义中国模式出发,对比分析了欧洲人工智能法案及其监管保护主义特点和美国在人工智能政策上的自由主义和人文主义取向。未来希望能够进一步沟通交流,以加强国际间在人工智能与司法领域的实践与理论合作。

联合国特别报告员、白俄罗斯国立大学和平研究中心主任Alena Douhan教授的发言主题为“网络制裁对国家主权和人权的影响”。她指出网络制裁对国家主权和人权的影响是复杂且深远的。随着网络司法管辖的扩展,一些西方国家的单边法律制裁行为,如美国2024年实施的28项网络制裁,对目标国家产生了重大负面影响。首先,这些制裁往往出于外交目的,如保护国家利益或维护技术优势,而不仅仅是针对犯罪行为。其次,这些制裁行为常常缺乏足够的证据,且存在信息不透明的问题,导致其他国家或者公司的声誉受损。她表示,这些不合理的网络制裁限制目标国家使用一些网络或者软件服务,进而对其交通、医疗、教育等基本服务造成影响,侵犯其公民基本权利,损害其国家主权和人权。这些行为不仅影响了受制裁国家的发展,还加剧了全球数字鸿沟,限制了国际对话和合作。

西北工业大学法学院宋丁博男副教授的发言主题为“智能无人系统应用的隐私安全风险与法律规制——以‘无人驾驶汽车’为例”。她谈到,在智能交通系统越来越普及、自动驾驶市场规模和渗透率持续突破的当下,自动驾驶汽车迎来政策利好,但不可忽视自动驾驶汽车发展的隐患,尤其是自动驾驶汽车运行中的信息安全风险,包括环境感知技术、定位导航技术、决策规划技术等引发的个人信息风险。自动驾驶汽车运行中的信息侵权包含侵权主体的双重性、侵权方式的隐蔽性和侵权客体的广泛性等特征。通过比较法启示与借鉴,采取重构治理谱系,软法硬法结合和完善监管机制等举措。她建议,完善自动驾驶汽车运行中的个人信息保护立法体系,优化自动驾驶汽车汽车运行中的人格信息侵权救济路径,构建自动驾驶汽车运行中个人信息安全监管机制等。

牛津大学法学院Luisa Mayr的发言主题为“沙盒不仅适用于儿童:为人工智能监管构建协作框架”。人工智能的大致发展历程及传统法律框架在应对人工智能技术快速发展时具有局限性,相关监管机构因此陷入两难境地。她对比了英国和欧盟在人工智能监管上的差异:英国的监管方式基于安全、透明、公平等原则并有利于创新;欧盟则采取颇为严格、可能会抑制创新的自上而下的监管方法。她对沙盒监管制度展开介绍,解释了该制度运作的基本原理。通过对英国21家金融科技公司监管沙盒的案例进行研究,她分析了应用沙盒监管制度的显著优势,认为该制度能有效缓解创新与监管之间的紧张关系,但也承认存在着外界对沙盒制度的质疑和应用挑战,未来人工智能沙盒监管制度的最佳发展方向应当是合作以及与新兴科技公司对话。

牛津大学法学院Rufus Hall以“理解信任和人工智能:哲学视角”为发言主题,针对“我们应如何理解信任人工智能”这一议题,梳理了众多学者和哲学家的观点。他强调信任在社会中扮演着至关重要的角色,尽管我们信任人工智能能够提升生产力、推动高科技发展,但信任本身具有脆弱性。如何保证人工智能系统在执行任务时不背离我们的期待?如果人工智能的行为失当,如何追究责任?Hall进一步探讨了信任的构建与工程学理念,认为信任不仅仅是人与人之间的自然行为,亦是技术和社会之间互动的基础。在人工智能的语境下,信任不仅依赖于系统的运作效率,更关乎对系统背后设计者的信任。他指出,正如社会中的某些行为会破坏集体信任,人工智能的误用或失效也可能导致用户对智能系统的普遍不信任。如何有效利用人工智能,同时保障信任的稳定性和延续性,是一个很值得研究的问题。
与谈环节

华中科技大学电子信息与通信学院王玉明副教授对以上教授、学者的发言进行了与谈。他首先提到,网络制裁是一个非常现实的问题,我们应思考如何去解决受网络制裁影响的相关问题。关于人工智能时代的人文主义价值问题,他提到现今的看法与之前的以“司法决策”为主有所不同,人文主义价值能否对其起到关键性作用,也是值得思考的。对于预测性司法,他表示应当设置一些预见性的措施来对预测性司法可能带来的负面影响进行规避。他还提到,智能无人系统应用如今得到了全球性的流行与发展,针对此产生的法律规制是必要的,其带来的隐私安全风险问题也是不可忽视的。此外,他赞同将沙盒应用到人工智能监管方面,并表示这将为人工智能的发展提供良好的服务。他还指出,理解信任是在人工智能时代十分重要的话题,需要进一步进行研究思考。
分论坛二

主持人:华中科技大学法学院博士研究生 方路锦
主题发言

爱丁堡大学法学院计算法律理论教授Burkhard Schafer的发言主题为“人工智能监管升温,探索恒温器般的法律调控”。他先为我们介绍了欧洲出台的《人工智能法案》(AI Act)。该法案对AI进行了广义的定义,并且将AI细分为“禁止性”、“高风险”和“低风险”三种类别,对不同类别的AI规定了不同的监管力度。他认为尽管法案覆盖范围广泛,但其设计存在明显局限性。首先,对AI的定义过于宽泛,导致几乎所有算法软件都可能被纳入监管范围,造成监管资源分散。其次,对高风险AI应用的分类过于僵化,难以反映技术在不同情境下的多样化表现。他指出,脱离应用背景的AI风险分类忽略了情境的重要性,仅依赖僵化的风险分类体系可能无法准确评估技术的真实威胁。动态调整机制能够根据具体场景重新评估技术风险,避免因过于宽泛的AI定义或单一分类方式导致的监管失误,平衡社会风险管理与技术创新,支持AI技术的健康发展。

阿里巴巴技术总监孙常龙以“法律大数据的构建与探索”为主题,从法律大数据的构建、应用探索、以及该领域现存的实际问题三个方面展开分享。首先,孙常龙所带领的团队在过去7年中,围绕法律实务领域的大数据模型应用,与多家单位展开合作,对应客户需求和基于专业法律知识,已经开发出可用于进行对话、法律检索和阅读、生成法律文书的大数据模型。然而,法律大数据模型在庭审争议焦点的生成、合同审查等方面还存在着诸多困境,一方面源于缺乏丰富且高质量的数据资源支撑,另一方面,跨学科人才的缺失和内部决策不透明等因素成为制约法律数据大模型继续发展的阻碍。最后,他提出未来展望,法律大模型的构建和应用需要从底层逻辑出发,将应用层、能力层、大模型层、数据层有机融合,结合司法场景的实际问题,使得法律大数据AI成为惠及普通用户的工具。

夏威夷大学马诺阿分校传播与信息学院传播学Jenifer Sunrise Winter教授的发言主题“人工智能和大数据时代分布式数据治理的挑战”,她首先分析了数据治理的背景与现状,即传统以单一组织为中心的数据治理模式已无法适应数据跨组织、跨司法管辖区流动的新形势,构建分布式数据治理体系成为重要任务。她总结了当前数据治理的三大挑战。第一,数据链接与新数据生成会产生数据准确性、完整性和来源可信度的风险。第二,AI模型的训练需要大量的多样化数据,需要不同领域和系统的共享。第三,分布式数据治理的协调挑战。数据流动跨组织和跨司法管辖区的特性,以及当前多样化的数据共享模式,给制定统一的数据治理标准带来难题。尽管面临挑战,分布式数据治理在组织、监管政策和技术三个维度展现出重要机遇。她认为,分布式数据治理是平衡技术创新与风险管理的关键途径,通过组织、政策和技术的多维协作,分布式数据治理能够有效应对复杂的技术与社会环境,推动数字创新的可持续发展。

牛津大学法学院Jack Bridgford在他的“人工智能研究中的技术乐观主义:挑战有关法律判决预测模型的基本假设”演讲中深入探讨了人工智能在法律领域应用的技术乐观主义。他指出,尽管AI在提高司法效率、精确度和公正性方面显示出巨大潜力,但这种乐观情绪往往忽视了算法透明度、人类决策的可接受标准以及算法偏见等关键伦理问题。Bridgford强调,技术乐观主义可能导致我们忽视了AI应用中更深层次的社会和文化问题,包括如何平衡算法的公平性与准确性,以及如何确保AI的发展与人类尊严和公平等核心价值保持一致。此外,Bridgford提出了对法律系统价值观的深刻反思,包括司法自由裁量权和主观性的重要性,以及依赖历史数据和模型可能带来的风险。如果我们在追求技术进步时过于关注技术作为工具的角色,可能会忽视民主共识和人类中心的价值观。因此,他呼吁在发展法律AI采取跨学科合作的方法,确保技术的发展能够服务于人类的利益,并且与社会共享的价值观念相协调。

牛津大学法学院Ned Chapman的发言主题为“从欧洲吸取教训:填补英国的空白人工智能监管和合同外民事责任的处理方法”。他从欧盟内数个国家内AI监管的法律实践出发,通过对比分析方法,指出英国在人工智能监管与相关法律责任问题。他指出,英国政府当下寻求在法律与风险平衡的监管框架下,使得法律监管能更好跟上技术发展的步伐,为AI产业的发展提供法律保障和优质的环境。在现实生活中,人工智能的自主性和创新性发展不可避免地带来法律监管、道德风险、私有利益和社会利益平衡等问题,这为部分人工智能公司在英国继续投入、壮大产业发展尤为不利。最后,Chapman以欧盟的产品、消费者权益保护等法律出发,指出人工智能的监管不仅仅要追求结果的问题,也是一个过程性问题,他在证据、因果关系认定等维度下阐述英国向欧盟学习的路径,具体包括综合风险认定、责任承担的本土化立法等,以期更好适应AI的未来发展。
与谈环节

华中科技大学法学院陈起行教授对以上5位发言者的发言逐一进行了精炼总结,并且总结说这些演讲共同勾勒出了人工智能在法律领域应用的广阔图景,涵盖了监管、数据治理、伦理和社会文化等多个维度,强调了人工智能技术在法律实践中的深远影响和面临的挑战。他指出,随着AI技术的不断发展,法律界必须适应新的监管框架,同时确保技术的应用符合伦理和法律标准,跨学科合作的重要性日益凸显,确保人工智能的发展能够服务于人类的利益,并与社会共享等价值观念相协调。
“数字法治与智慧司法”国际研讨会由华中科技大学与湖北省高级人民法院于2021年联合发起,一年一届,至今已举办四届。该研讨会面向数字法治建设的需要,从计算法学领域出发,旨在为智慧司法建设、人工智能与司法实践的融合提供一个研讨交流的平台。