
OpenAI 发布《儿童安全蓝图》,剑指 AI 生成儿童性虐待内容
背景:AI 驱动儿童性虐待内容急剧上升
随着 AI 技术快速发展,网络儿童安全形势愈发严峻。根据互联网观察基金会(IWF)的数据,2025 年上半年共检测到超过 8000 例 AI 生成的儿童性虐待内容,较去年同期增长 14%。犯罪分子正利用 AI 工具伪造未成年人裸照,用于财务性敲诈(sextortion),并借助 AI 生成可信的对话内容实施网络引诱(grooming)。
此外,多起青少年与 AI 聊天机器人互动后自杀的事件,引发政策制定者、教育工作者和儿童安全倡导者的强烈关注。
核心变化:三大方向构建防护体系
OpenAI 于本周二发布《儿童安全蓝图》(Child Safety Blueprint),与国家失踪与受虐儿童中心(NCMEC)、检察官联盟(Attorney General Alliance)合作,并参考了北卡罗来纳州检察官 Jeff Jackson 和犹他州检察官 Derek Brown 的意见。该蓝图聚焦三个方向:
- 立法更新:推动将 AI 生成虐待内容纳入现有法律框架
- 举报机制:优化面向执法部门的报告流程,确保可疑内容快速上报
- 系统内置防护:在 AI 产品中直接集成预防性安全措施
影响与建议:平台责任与行业协同
这不是 OpenAI 首次强化儿童保护举措。此前公司已更新 18 岁以下用户交互指南,明确禁止生成不当内容、鼓励自残行为,或提供帮助用户向监护人隐瞒不安全行为的信息。近期还针对印度青少年发布了专项安全指南。
去年 11 月,社交媒体受害者法律中心(Social Media Victims Law Center)与 Tech Justice Law Project 在加州法院提起 7 起诉讼,指控 OpenAI 在产品尚未就绪时仓促发布 GPT-4o,声称其心理操控特性导致用户自杀。目前该诉讼仍在进行中。
随着监督&管理压力持续增大,AI 平台如何在技术创新与安全责任之间取得平衡,将成为行业共同面对的课题。


评论