
活动专题
时间:2025-05-22 10:43:52 来源:天府新区法院(四川自贸区法院)综合办张波、黄怡
[内容导读] 【摘 要】:随着近年信息技术的迭代发展,人工智能对司法活动的辅助作用日益彰显,人工智能大型语言模型(LLM)在司法领域的应用展现...
【摘 要】:随着近年信息技术的迭代发展,人工智能对司法活动的辅助作用日益彰显,人工智能大型语言模型(LLM)在司法领域的应用展现出非凡的潜力和广阔的前景,国内外的科研团队研发出多款用于法律咨询、文书处理、法条检索等方面的应用模型。然而,当前司法实践中运用的大型语言模型尚未达到像“人”一样思考的程度,在是非辨识、价值判断、法律援引等应用方面还面临一系列难题,可能存在数据安全、算法透明度、误判风险等问题。本文从梳理当前大型语言模型在司法领域的应用情况出发,重点分析存在的风险,探索防范对策。
一、现状分析:大型语言模型司法应用的情况阐述
人工智能技术的日趋成熟使得大型语言模型在教育、金融等诸多领域展现出非凡表现,其在司法实践中的应用潜力将是非常巨大的。
(一)大型语言模型与司法裁判的适合度
大型语言模型(LLM, Large Language Model)是人工智能领域目前应用非常广泛的一项技术,它使用深度学习的方法,通过在大规模文本数据集上进行训练,学习语言的统计规律和模式,从而达到处理、理解和生成自然语言文本的目的。如果在构建完整的证据推理和法律推理规则的基础上,由大型语言模型的自然语言处理系统提取和转化证据信息,进行证据推理,并根据原告的诉讼请求、被告的答辩意见、事实依据,进而完成法律推理,认定法律实事及适用法律,最终做出判决,那么人工智能实现独立审判将可能成为现实。
(二)大型语言模型在当前司法领域的应用
2023年7月,北京大学团队发布提供普惠法律服务的大模型ChatLaw,该模型能够处理法律咨询,支持文书写作、法律建议等。同年9月,复旦大学数据智能与社会计算实验室发布大型语言模型驱动的名为DISC-LawLLM的中文智慧法律系统,该系统具备法律文本处理能力、法律推理思维能力等。同年10月,美国Harvey公司与OpenAI达成技术合作,基于OpenAI的GTP-4系列模型,结合专有法律数据进行预训练和微调,为律师提供深度定制的ChatGPT助手,取得优异表现。
(三)大型语言模型在司法领域应用的价值
2022年12月,最高人民法院发布《关于规范和加强人工智能司法应用的意见》,指出到2025年基本建成较为完备的司法人工智能技术应用体系。因此,将人工智能大型语言模型引入司法裁判并逐步实现审判智能化具有非常重要的意义。一方面,审判智能化可以提升审判效率。大型语言模型可以通过语言理解、图文识别等功能认定案件实事,在海量的数据库中寻找法律适用、拟定裁判结果,辅助和支持法官裁判,从而有效提升审判效率、缓解人案矛盾。另一方面,审判智能化可以提升裁判公正性。大型语言模型卓越的机器深度学习能力可以确保其拟定的裁判结果有着大量类案判例作支持,为法官提供类案裁判参考,一定程度解决“同案不同判”问题。
二、困境解读:大型语言模型司法应用的多重风险
人工智能是新一轮科技革命和产业变革的重要驱动力量,大型语言模型蓬勃发展的机遇与风险相伴相生。尤其是应用到司法领域,必然存在诸多风险问题需加紧解决。
(一)价值取向难题:法理情难以统一
司法不应该是冷冰冰的,而是融通国法、天理、人情,有温度、有力量,彰显公平正义的司法。传统的司法模式以人为主体,法官凭借自身的法律知识、审判经验和社会阅历,尚不能完全确保在司法裁判中统一法理情,运用当前“智能化”水平还处于“弱人工智能”程度的人工智能技术,则更难实现这一目的。司法实践中虽然存在案件事实清楚、法律适用清晰的简单案件,也存在案件事实复杂、法律适用交织的繁难案件。如果再加上平衡政治效果、社会效果的要求,必然导致审判智能化陷入研发瓶颈中,短期内难以搭建出适合的算法框架。
(二)算法偏见难题:引发司法责任问题
人工智能算法设计者如果缺乏司法伦理观念、知识构成和经验累积,极有可能导致算法偏见。使用COMPAS系统量刑的“威斯康星州诉埃里克·卢米斯”案,就曾被怀疑有算法歧视的倾向。不同于相对简单的语音识别转录技术功能,大型语言模型引入司法裁判将直接影响当事人的权利和义务,细微的参数调整就可能带来较大的差异。人类可以为自己的决定承担责任,可是人工智能如何担责?责任主体模糊可能会使人工智能决策陷入审查难、问责难的窘境,如果公众因此对人工智能的决策产生怀疑,将会严重损害司法权威。
(三)数据匮乏难题:影响司法裁判公正
人工智能技术发展最宝贵的资源就是数据,要实现大型语言模型辅助司法裁判,必须建立一个庞大且稳定的司法数据库。毕竟,有限数据归纳得出的预测结论会缺乏稳定性。当前国内司法领域人工智能研发的数据支撑主要依赖于现行有效的法律法规、中国裁判文书网公开的裁判文书、最高人民法院发布的指导案例等,但其统计的文书类型繁杂、未包含不宜公布的类型、新增罪名公开文书数量有限,很难达到大数据的体量标准和特征数。
三、完善路径:大型语言模型司法应用的规范方式
大型语言模型司法应用的积极意义是毋庸置疑的,有必要采取有效措施防止不可逆的危害结果发生。
(一)组建新型司法模式,明确研发方向
虽然法律人对人工智能介入司法领域往往持犹疑与不信任的态度,但是以人类法官为核心的司法制度并不是完美的。毕竟人总会犯错,准确率的确不能和机器比拟。人工智能的介入恰恰能弥补这一不足,它可以辅助办案人员查漏补缺,也可以成为维护司法规则的监督者。大型语言模型辅助司法裁判,提供了组建人与人工智能结合的新型司法模式的可能。其适用范围应循序渐进,对涉及生命健康等最核心权利的案件慎重使用,或加以人工校对、判断;优先适用于案件事实清楚、证据确实充分的简单案件。应当明确在我国司法责任制改革,“审理者裁判、裁判者负责”背景下,大型语言模型较长时间内只能是辅助办案的工具。
(二)建立算法审查机制,杜绝算法偏见
现阶段大型语言模型司法应用多为高校、科技公司自主研发,研发技术、成果多数掌握在高校和公司手里。下一步,司法机关在与之合作过程中,应主导系统开发进程,明确告知人工智能运用时可能产生的偏见和错误;建立算法审查机制,增强算法透明度,保障公众知情权。公众可随时申请人工智能算法信息公开,参与审查和监督;算法的合理性、合法性、公正性也应受到全国各层级法院法官的审查,确保应用于审判工作中的算法没有明显偏见。全国各层级法院法官应积极加强对系统的使用和培训,使其不断优化和迭代更新,提升模型可解释性、准确性和公平性。
(三)扩充数据信息资源,做到入库筛查
数据是人工智能技术发展的基石,大型语言模型司法应用研发的关键之一就是建立司法数据库,对数据信息进行筛选和扩充,逐步有效解决当前数据匮乏的问题。对当前数据内容进行质量筛选,去除一些质量不高、代表性不强、甚至有错漏的裁判文书和案例。多策并用,推动裁判文书网上公开,加速法院历史档案电子化进程;有序推进公检法司之间案件信息共享;谨慎的与非官方的科研机构、律师事务所等合作,进一步完善司法数据库。
四、结 语
大型语言模型司法应用的开发需要长时间、专注的投入与坚持,绝非俯仰之间即可成熟运用。其研发之路也许不会一帆风顺,但我们相信,通过谨慎规划和小心监管,一定能突破当前种种壁垒,将大型语言模型引入司法裁判,提高司法公信力,服务社会主义法治建设。
责任编辑:广汉
声明:
凡文章来源标注为"智领安平行业网"的文章版权均为本站所有,如需转载请务必注明出处为"智领安平行业网",违反者本网将追究相关法律责任。非本网作品均来自互联网并标明了来源,如出现侵权行为,请立即与我们联系,待核实后,我们将立即删除,并向您致歉。