导语:面对日益严峻的青少年网络安全挑战,两大AI巨头OpenAI和Anthropic本周宣布推出重大安全更新。包括通过AI模型预测用户年龄、识别对话中的未成年人特征,以及针对青少年群体调整沟通风格,旨在为未成年用户筑起一道数字防火墙。
随着全球对青少年网络安全的关注度达到新高,人工智能行业的两大领军者OpenAI和Anthropic于本周四不约而同地宣布了更为积极的未成年人保护措施。
OpenAI 安全压倒一切的互动准则
OpenAI在其最新发布的“模型规范”中,特别新增了四项针对18岁以下用户的核心原则。公司立场鲜明地表示,未来ChatGPT在与13至17岁的青少年互动时,“青少年安全”将被置于首位,权级高于最大限度的思想自由等其他目标。
为了落实这一承诺,OpenAI制定了具体的执行举措
- 安全引导 在面临存在风险的选择时,系统将强制引导青少年转向更安全的选项。
- 现实支持 系统会鼓励青少年回归线下互动。一旦对话触及高风险领域,AI将主动提供可信赖的线下支持资源或紧急干预机构的联系方式。
- 沟通风格调整 AI将采用“热情且尊重”的语调,杜绝居高临下的说教式语气。
此外,OpenAI证实正在研发一种先进的年龄预测模型。一旦系统通过行为特征检测到用户可能未满18岁,将自动强制应用上述青少年保护机制。

图源备注:图片由AI生成
Anthropic 捕捉对话中的微妙迹象
相比之下,Anthropic采取了更为严厉的策略。由于其政策严禁18岁以下用户使用Claude聊天机器人,该公司正在部署一套深度检测系统。
该系统旨在识别对话中可能暗示用户是未成年人的“微妙迹象”,一旦确认,将自动关停违规账号。同时,Anthropic展示了其在减少AI“谄媚行为”(sycophancy)方面的技术进展,旨在防止AI为了迎合用户而顺从青少年的错误或有害倾向,从而更好地保护未成年人的心理健康。
此次行业巨头的集体行动,正值立法者对AI公司施加巨大压力之际。此前涉及青少年自杀的诉讼案件已给全行业敲响了警钟,促使各大公司加速推出家长控制功能并严控极端话题。
相关推荐

2025 AI 技术峰会

AI 实战课程
热门工具
AI 助手
智能对话,提升效率
智能图像处理
一键美化,智能修图
AI 翻译
多语言实时翻译






评论 (0)
暂无评论,快来发表第一条评论吧!