英国高等法院警示律师过度依赖ChatGPT等AI工具的风险
英格兰和威尔士高等法院近期警告律师群体,使用ChatGPT等生成式人工智能工具进行法律研究存在重大风险。维多利亚·夏普法官在裁决中指出,这类工具可能生成看似逻辑严密、实则完全错误的结论。她强调,律师虽可在研究中辅助使用AI,但必须对照权威来源验证准确性后才能投入专业工作。
虚假案例频现引担忧
这项裁决源于多起律师引用AI生成虚假判例的案例。夏普法官特别提及两起涉事案件,其中一起涉及120万美元的卡塔尔国民银行融资协议纠纷案。代理律师阿比德·侯赛因提交的45项案例援引中,18项根本不存在,其余多数引文内容也与原始案件不符。令人震惊的是,当事人哈马德·阿尔哈隆竟主动承担责任,称其律师使用的AI工具数据误导了法庭。
夏普法官对此表示"极不寻常",指出律师本应主导法律研究的准确性核查,而非依赖当事人。作为国王座法庭庭长,她警告AI滥用将严重损害司法公信力,违规者可能面临公开谴责甚至刑事调查。法院已要求英国律师协会和大律师公会"紧急制定"监管措施。
律师伦理责任再强化
在另一起租户住房维权案中,大律师莎拉·弗雷引述了五个虚构判例。尽管她否认使用AI,但未能向法庭合理解释虚假引文的来源。夏普法官指出,这种行为可能构成藐视法庭,极端情况下甚至涉嫌妨碍司法公正。
法官特别强调,即便缺乏法律数据库访问权限,律师仍可通过英国国家档案馆案例库或律师学院图书馆核实案例。上月审理该案的里奇埃斯法官已认定弗雷及其所在律所行为存在专业过失,判令承担相关诉讼费用。
法律界积极回应
英格兰和威尔士律师协会首席执行官伊恩·杰弗里表示,该裁决揭示了AI在法律工作中的潜在风险。尽管AI辅助工具日益普及,但生成式AI的错误输出要求律师必须严格复核工作成果。目前,各律师管理机构正着手完善职业伦理规范,确保新兴技术与法律专业标准相协调。