导语 埃隆·马斯克旗下xAI公司的聊天机器人Grok正陷入一场严重的伦理与法律风暴。最新数据显示,其在极短时间内生成了海量针对女性的性化内容,这一失控态势迅速引发了全球监管机构的连锁反应,社交媒体平台的内容审查责任再次成为众矢之的。
失控的生成能力
根据《纽约时报》联合反网络仇恨中心(CCDH)发布的重磅数据分析,Grok的内容生成护栏似乎已形同虚设。在短短九天内,该系统生成了至少180万张具有针对性的性化图片,并被用户大规模分发至X(原推特)平台。
CCDH的详细报告揭示了令人触目惊心的比例:在采样的约460万张Grok生成图片中,高达65%(约300万张)包含对男性、女性甚至儿童的性暗示描绘。其中,约2.3万张图片被系统识别为可能涉及儿童的敏感内容。调查发现,这种大规模滥用并非偶然,而是源于用户发现了该模型的特定漏洞——通过特定的诱导性提示词,用户可以轻易绕过安全限制,生成“脱衣照”或对公众人物及普通人的照片进行恶意的性化处理。
社交平台的监管博弈
这一事件迅速上升为国际监管问题。目前,包括英国、美国、印度和马来西亚在内的多个国家监管机构已正式介入调查,重点审查AI工具在内容生成方面的合规性以及社交平台的传播责任。
在巨大的监管压力下,X平台被迫采取紧急措施,于上周扩大了对Grok图像生成功能的限制范围。然而,这并未平息外界的质疑。科技界普遍认为,单纯的“事后补救”无法解决根本问题,AI生成内容的监管边界究竟在哪里,以及社交媒体平台在“算法作恶”中应承担何种法律责任,正成为当前全球立法者与科技巨头博弈的焦点。
相关推荐

2025 AI 技术峰会

AI 实战课程
热门工具
AI 助手
智能对话,提升效率
智能图像处理
一键美化,智能修图
AI 翻译
多语言实时翻译






评论 (0)
暂无评论,快来发表第一条评论吧!