近日,针对国内首例因“AI幻觉”引发的侵权案,杭州互联网法院作出一审判决,驳回用户诉讼请求。“AI幻觉”,是指AI脱离客观事实、凭空编造信息的技术现象,这种错误输出极易误导用户、引发侵权。舆论指出,“AI幻觉”已经成为当前人工智能技术发展中最突出的技术瓶颈之一,杭州互联网审结的相关案件是法治回应技术挑战的生动实践。同时,我国还需推动技术开发者、监管机构共同努力,从规范完善、监管优化等多个维度构建综合治理体系,为人工智能发展铺平法治轨道。

(来源:央视网)
作为我国首个“AI幻觉”侵权判例,相关判决为人工智能生成内容划出红线、底线,厘清了服务提供者的注意义务边界。在本起案件中,用户梁某在查询高校信息时,发现某AI平台生成信息存在错误。当他以此质疑AI时,AI仍坚持,并生成了对该争议问题的解决方案,提出若生成内容有误将向用户提供10万元赔偿,并建议原告到杭州互联网法院起诉索赔。直到梁某提供了该高校官方招生信息,AI才认可自己生成了不准确信息。梁某遂提起诉讼,认为AI生成不准确信息对其构成误导,使其遭受侵害,要求这款AI的运营者赔偿9999元。作为我国目前首例因生成式人工智能模型幻觉引发的侵权纠纷,这起案件涉及众多争议问题,杭州互联网法院从多维度作出明确的法律回应:
关于AI可否独立作出意思表示,法院认为,现行法中享有民事权利,能够作出意思表示的民事主体仅有自然人、法人和非法人组织这三类。人工智能不具有民事主体资格,不能独立、自主作出意思表示。案涉AI自行生成的“赔偿承诺”亦不能视为服务提供者的意思表示。关于AI侵权应适用何种归责原则,法院认为,生成式人工智能服务依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,而非产品质量法意义上的“产品”。因此,案涉生成式人工智能不应适用无过错的产品责任,而适用民法典规定的过错责任原则。这意味着,人工智能生成不准确信息本身并不构成侵权,责任认定需考察平台是否存在过错。关于AI服务提供者是否构成侵权,法院明确,生成式人工智能技术还处于高速发展期,其应用场景具有很强的泛在性,因此对服务提供者的注意义务进行综合考量和类型化、分层界定。首先,服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务;其次,服务提供者应尽到服务功能的显著提示说明义务;最后,服务提供者应采取同行业通行技术措施提高生成内容准确性。法院审查认定被告已采取多项措施尽到合理注意义务,主观上不存在过错,因而不构成侵权。
上海交通大学凯原法学院副教授林洹民等人指出,本判决是对当下人工智能发展与应用引发纠纷的积极回应,体现了司法机关在应对新兴技术法律挑战时的前瞻性与专业性,也为人工智能产业的健康发展提供了明确的法律指引。一方面,明确AI非民事主体,防止法律人格泛化,这有助于遏制“AI担责”的误解,避免企业因不可控的模型行为承担无限责任。另一方面,确立了“过错责任+动态注意义务”治理范式。既设立严禁生成违法有害信息的“红线”;又设定要求企业采取合理技术与提示措施的“底线”。这种弹性框架既能保障用户权益,又为技术创新留出空间。
人工智能产业健康发展离不开法治护航,还需构建适配的法律与治理体系,引导产业在规范中创新。一是推动技术与法律的“技制”共治。中国人民大学法学院教授张吉豫建议,在当前的技术发展情况下,相关部门需要通过进一步的监管举措,在符合客观规律的基础上,助推企业进一步采取有助于消除“AI幻觉”的举措。在一些与人们生命健康权益、财产权益有关的重要领域,企业有必要进一步加强技术研发,提高输出内容准确性。在医疗等特殊领域,相关部门还可以考虑建立行业准入标准,出台更严格的监管规范,从准入侧保障生成内容达到“基本安全”。特别是在问答式AI得到广泛使用的情况下,进一步提高对关键领域的专业问答服务的标准要求或等级认证,让相关领域的规范不只限于针对互联网医院等专业服务,从而更好地保护人们的权益。
二是构建“技管结合”的司法应对体系。《民主与法制时报》文章指出,针对民法典规定的“通知—删除”规则的适用问题,应在实体法层面,考虑针对高风险应用场景引入举证责任倒置。当用户能初步证明其损害由幻觉内容引发时,应由服务提供者承担证明其模型无缺陷或已尽高度注意义务的责任,以平衡双方的举证能力与诉讼地位。在程序法层面,应探索建立“技术事实查明”机制。法院可引入技术调查官或委托权威机构进行技术鉴定,为法官判断因果关系与服务提供者是否“知道或应当知道”提供专业意见,为形成相关裁判标准积累实践基础。
三是推动敏捷灵活治理。中央民族大学互联网平台企业发展与治理研究中心主任郭全中表示,“AI幻觉”治理需要依据对象的不同特性采取相应的治理措施。第一,可以针对不同幻觉风险特征进行弹性治理。如欧盟《人工智能法案》将人工智能风险划分为不可接受的风险、高风险、有限风险以及极低风险四类。第二,依据人工智能产业架构进行分层治理。对于基础模型与专业模型层,应优化模型结构、简化模型路径,通过设置分工明确、功能专一的模块化设计,以更加清晰的模型结构降低幻觉发生可能;对服务应用层,则应强化用户端的管理,必要时采取限制或回收账号等措施,规避用户刻意引导模型生成虚假内容的情况。此外,在“AI幻觉”治理过程中,也要引入柔性化、创新性的制度规定,审慎使用刚性约束工具,利用干预性不强的手段达到最佳的治理效果。
参考资料:
1. 专家点评 | 生成式人工智能“幻觉” 侵权纠纷案的争议焦点与司法回应
2. 生成式人工智能幻觉的法律风险与治理路径
3. “如果生成内容有误,我将赔偿您10万元!”全国首例AI幻觉案,判了
4. 全国首例“AI幻觉”案落槌,带来哪些启示?
5. 全国首例“AI幻觉”案宣判,要审视的不止是一段出错的代码
来源:法治网舆情中心(ID:fzwyqzx)
来源:http://www.legaldaily.com.cn/index/content/2026-02/14/content_9341259.html
责任编辑:SONGZIDONG
上一篇:
说法丨春节“法”相伴 舒心又平安
下一篇: