警惕!你传给 AI 的私人照片,可能正沦为 “训练养料”

“上传一张照片,让 AI 帮我诊断皮肤问题”“用 AI 给职业照换个风格”…… 如今,向 ChatGPT 等生成式 AI 上传私人照片,已成为不少人寻求便利的日常操作。但在享受 AI 带来的快捷服务时,你可曾想过,这些承载着生活点滴、个人隐私的照片,在上传之后究竟去了哪里?隐私专家发出警告:看似普通的操作背后,实则隐藏着巨大风险,你的照片极有可能已被用于 AI 训练,个人隐私正面临前所未有的挑战。

在数字时代,AI 聊天机器人看似贴心,实则暗藏玄机,隐私专家雅各布・霍夫曼 – 安德鲁斯直言:“千万别上传你不想被他人看到的照片,可遗憾的是,很多用户还天真地以为 AI 会严守隐私,就像当初轻信互联网一样。”AI 平台与普通云相册截然不同,它不仅面临黑客攻击、数据泄露的风险,用户账户可能被盗用,更关键的是,AI 公司自身便能轻易访问用户数据与图像。为优化模型性能,公司会定期抽样审核用户对话,其中就包括已上传的图片,这一过程被称为 “人在回路” 监督。即便用户删除聊天记录,图片也可能早已被标记、存档甚至人工审核,悄无声息地成为 AI 训练数据的一部分。

更让人意想不到的是,照片所携带的信息远超想象。每张图片都附着元数据,记录着拍摄时间、地理位置、设备信息等敏感内容。高分辨率照片中,桌面文件、信用卡信息,甚至背景中他人的生物特征都可能意外曝光。若 AI 公司未对这些元数据进行处理,便可能借此拼凑出用户的日常行为、常去地点、社交关系等信息。斯坦福大学隐私研究员珍妮弗・金指出:“用户实则在不知情的状况下,免费为 AI 公司贡献了训练数据,若事先知晓,很多人根本不会同意。”

当前,各大 AI 公司在图像使用政策上差异显著,让人无所适从。微软旗下 Copilot 及 Anthropic 的 Claude 承诺不会将用户上传图像用于模型训练;OpenAI 则默认使用全部数据,仅允许用户选择退出;Meta 更是在美地区限制用户选择退出数据训练,且政策解释含糊不清。混乱的政策背后,是用户对自身数据控制权的丧失。一些具有独特特征或网络上大量传播的图像,极易被 AI 系统 “记住”,甚至可能以可识别形式出现在聊天机器人结果中,导致个人隐私泄露。例如,AI 头像生成、年龄变化滤镜等功能,因需用户上传清晰人脸照片,风险系数极高。此前 Meta 推出的 AI 聊天应用,就曾因产品设计缺陷,致使部分用户对话及照片公开显示,引发轩然大波。

AI Now Institute 联合主任莎拉・迈尔斯・韦斯特的警告振聋发聩:“如今上传的图像,未来或许会被用于远超预期的场景,数据的使用时间远比想象中长久。” 尽管多数 AI 公司宣称不会向第三方分发数据,却并未承诺删除已上传图片。随着技术发展与商业策略调整,这些图像极有可能流入新应用场景,而用户却浑然不知。在这个 AI 深度介入生活的时代,当我们举起手机,轻点上传按钮时,务必三思而后行,守护好个人隐私的最后防线,别让私人照片成为 AI 肆意 “生长” 的养料。

为您推荐