摘要
技术与社会交互的复杂语境中,人工智能生成合成内容的传播呈现风险“放大效应”。平台作为“放大”的核心枢纽,承担更多治理责任,但也滋生滥用权力的风险。“平台判定用户内容AI生成首案”揭示其中的制度张力与纠纷争议。对此,应引入人工智能生成合成内容标识机制,构建客观判断标准,明确责任承担,提升规则公开性与可预期性。再进一步优化法律适用,若相应主体未核验人工智能生成合成内容标识,法院可推定其未尽合理注意义务;放任未标识内容传播的,可认定其默许风险发生,构成间接故意侵权。借助标识还可细化和评估有害内容传播链条上的各主体责任承担情况。此外,还需要经由法律适用明确对恶意反标识手段的判断和处理机制,并推动相关主体在未进行标识时进行解释说明。
出处
《法律适用》
北大核心
2025年第9期136-147,共12页
Journal of Law Application
基金
国家社会科学基金重点项目“数据要素收益分配法律问题研究”(项目编号:24AZD021)的阶段性成果。