OpenAI与Anthropic联手构建未成年人防线 AI将具备年龄预测与行为识别能力

匿名作者
2025-12-20 10:4874

导语:面对日益严峻的青少年网络安全挑战,两大AI巨头OpenAI和Anthropic本周宣布推出重大安全更新。包括通过AI模型预测用户年龄、识别对话中的未成年人特征,以及针对青少年群体调整沟通风格,旨在为未成年用户筑起一道数字防火墙。

随着全球对青少年网络安全的关注度达到新高,人工智能行业的两大领军者OpenAI和Anthropic于本周四不约而同地宣布了更为积极的未成年人保护措施。

OpenAI 安全压倒一切的互动准则

OpenAI在其最新发布的“模型规范”中,特别新增了四项针对18岁以下用户的核心原则。公司立场鲜明地表示,未来ChatGPT在与13至17岁的青少年互动时,“青少年安全”将被置于首位,权级高于最大限度的思想自由等其他目标。

为了落实这一承诺,OpenAI制定了具体的执行举措

  • 安全引导 在面临存在风险的选择时,系统将强制引导青少年转向更安全的选项。
  • 现实支持 系统会鼓励青少年回归线下互动。一旦对话触及高风险领域,AI将主动提供可信赖的线下支持资源或紧急干预机构的联系方式。
  • 沟通风格调整 AI将采用“热情且尊重”的语调,杜绝居高临下的说教式语气。

此外,OpenAI证实正在研发一种先进的年龄预测模型。一旦系统通过行为特征检测到用户可能未满18岁,将自动强制应用上述青少年保护机制。

Google_AI_Studio_2025-12-20T02_39_03.011Z.png

图源备注:图片由AI生成

Anthropic 捕捉对话中的微妙迹象

相比之下,Anthropic采取了更为严厉的策略。由于其政策严禁18岁以下用户使用Claude聊天机器人,该公司正在部署一套深度检测系统。

该系统旨在识别对话中可能暗示用户是未成年人的“微妙迹象”,一旦确认,将自动关停违规账号。同时,Anthropic展示了其在减少AI“谄媚行为”(sycophancy)方面的技术进展,旨在防止AI为了迎合用户而顺从青少年的错误或有害倾向,从而更好地保护未成年人的心理健康。

此次行业巨头的集体行动,正值立法者对AI公司施加巨大压力之际。此前涉及青少年自杀的诉讼案件已给全行业敲响了警钟,促使各大公司加速推出家长控制功能并严控极端话题。

评论 (0)

暂无评论,快来发表第一条评论吧!

AI 技术峰会

2025 AI 技术峰会

AI 实战课程

AI 实战课程

热门工具

AI 助手

智能对话,提升效率

智能图像处理

一键美化,智能修图

AI 翻译

多语言实时翻译