
三名匿名原告向加州联邦法院提起诉讼,主张埃隆·马斯克旗下的xAI公司需为其AI模型生成可识别未成年人的色情图像承担责任。
原告拟提起集体诉讼,代表所有被Grok将其未成年真实图像制作成色情内容的群体。他们主张,xAI未落实其他顶尖实验室为防止图像模型生成涉及真实人物及未成年人的色情内容所采用的基础措施。
案件名为Jane Doe 1、Jane Doe 2(未成年人)与Jane Doe 3(未成年人)诉x.AI Corp.及x.AI LLC,该案件已在美国加利福尼亚州北区地方法院提起。
其他深度学习图像生成工具运用多种技术来避免从普通照片中生成儿童色情内容,而诉讼指出xAI并未采用这些标准。
值得关注的是,若一个模型可基于真实图像生成裸露或色情内容,那么要阻止其生成涉及儿童的色情内容几乎是不可能的。马斯克曾公开宣传Grok具备生成色情图像以及描绘穿着暴露的真实人物的能力,这一点在相关诉讼中成为了核心争议点。
原告Jane Doe 1的高中返校节照片与年鉴照片,被Grok篡改生成了裸露图像。一位匿名举报者通过Instagram与她取得联系,告知这些照片正在网络上传播,还向她发送了一个Discord服务器的链接——该服务器里存有她以及其他她在学校认识的未成年人被色情化处理的图像。
第二名原告Jane Doe 2从刑事调查人员处得知,某第三方移动应用借助Grok模型生成了她被修改的色情化图像。第三名原告Jane Doe 3同样收到刑事调查人员的通知,称在一名落网嫌疑人的手机里发现了她被篡改的色情图像。原告方律师指出,鉴于第三方的使用仍需依托xAI的代码与服务器,该公司应当承担相应责任。
三名原告里有两人尚未成年,他们称这些图像的传播以及可能对自身声誉和社交生活造成的影响,令他们备感痛苦。他们依据一系列旨在保护受剥削儿童、防止企业过失的法律,提出了民事处罚的诉求。