#人工智能 埃隆马斯克的 Grok AI 应用户要求制作大量露骨图片甚至是包含儿童色情图片,在 X 上用户只需要发图艾特 Grok 即可要求处理图像,但 Grok 安全措施显然没到位。目前法国政府已经指控 xAI 和 X 可能违反了欧盟数字服务法,接到用户反馈后 xAI 也开始修复所谓的安全措施漏洞。查看全文:https://ourl.co/111469
本周 X/Twitter 上最火的帖子可能就是关于 Grok AI 生成大量露骨图片的内容,Grok AI 活跃在 X 平台并会按照用户要求执行操作,于是不少用户要求 Grok AI 把某人照片中的衣服剥离。
由于 X 账户回复内容是公开可见的,因此用户只需要转到 Grok AI 主页查看回复或者是图片就可以看到人要求 Grok AI 生成的图片,不少用户看到图片后直呼辣眼睛。
这些图片里不乏存在埃隆马斯克裸露照片以及大量其他人的裸露照片,甚至还有未成年人的裸露照片,在大多数国家或地区,涉及未成年人的色情内容都是严重的犯罪。
负责生成图片的是 Grok AI 推出的 Grok Imagine 图像生成模型,该模型本身就缺乏针对性爱和深度伪造技术的安全保障,在 2025 年 8 月推出时用户就可以使用该模型生成 NSFW 图像 (意为不适合在工作场所查看的内容)。
然而 xAI 的反应速度似乎并不快,在收到大量用户反馈后该公司才发帖表示正在考虑加强安全措施:
个别情况下用户被要求提供并收到描述未成年人衣着暴露的 AI 图片,我们团队已经发现安全措施存在漏洞并正在紧急修复。另外我们团队正在考虑进一步加强我们的安全措施。(注:原文如此)
在 xAI 的可接受使用政策里明确禁止用户以色情方式描绘人物肖像,但这不一定包含仅带有性暗示的内容,当然政策本身确实禁止对儿童进行性化或剥削,只不过 xAI 的安全政策显然没有跟上。
目前法国政府已经开始指控 Grok AI 在未经用户同意的情况下生成并传播明显违法的色情内容,法国政府称 xAI 和 X/Twitter 可能违反了欧盟的数字服务法,这项法规要求平台降低非法内容传播的风险。

