隐私服务商 Proton 指控谷歌利用15亿用户的照片训练 AI 模型,尽管谷歌坚决否认,但“非端到端加密”的现状揭示了云服务在 AI 时代的信任危机。
来自竞争对手的隐私指控
近日,谷歌新推出的 AI 图像工具 Nano Banana 陷入舆论漩涡。专注于隐私保护的科技公司 Proton 公开指控,谷歌可能在未经用户明确同意的情况下,利用 Google Photos 中存储的私密照片来训练其强大的生成式 AI 系统。
Proton 在社交媒体上的言辞激烈,直指谷歌 AI 生成逼真图像的能力源于对安卓用户相册的扫描。考虑到 Google Photos 在全球拥有约15亿用户,这一指控如果属实,将是科技史上最大规模的数据滥用事件之一。这一争议的爆发点颇为微妙,正值公众对 AI 生成内容“现实与虚构界限模糊”感到焦虑的时刻。
谷歌的否认与加密真相
面对指控,谷歌反应迅速且坚决。在发给《福布斯》的声明中,谷歌强调:“我们不使用您的个人数据来训练任何生成式 AI 模型,包括其他 Gemini 模型和产品。”谷歌进一步解释,用户数据的处理严格遵循服务条款。
然而,声明中也暴露了一个关键事实:Google Photos 并非端到端加密服务。谷歌承认,为了检测儿童色情等非法内容,其自动系统和专业团队有权扫描平台上的图像。这正是争议的核心——只要数据不是端到端加密,从技术上讲,平台方就拥有“查看”和“使用”数据的钥匙。
云时代的信任黑洞
此次事件不仅是两家公司之间的口水战,更折射出 AI 时代云服务的普遍困境。绝大多数用户从未阅读过冗长的隐私政策,而 AI 工具正以前所未有的速度渗透进日常平台。正如安全专家指出,除非使用端到端加密,否则存储在云端的照片在某种意义上就是“裸奔”的。即便科技巨头承诺不用于训练,用户信任一旦产生裂痕,修复将难如登天。
相关推荐

2025 AI 技术峰会

AI 实战课程
热门工具
AI 助手
智能对话,提升效率
智能图像处理
一键美化,智能修图
AI 翻译
多语言实时翻译




评论 (0)
暂无评论,快来发表第一条评论吧!