一系列围绕X公司旗下AI工具Grok的事件在日本引发关注。部分日本中学生和大学生被发现,在未经当事人同意的情况下,利用Grok生成同学的性暗示或性化图像,这一行为已引起广泛不安,相关使用者也开始担心可能面临法律后果。
自2025年12月24日Grok推出图像生成与编辑功能后,社交平台上逐渐出现许多把现实人物生成裸露或穿着暴露内衣的合成图像,这导致了多起受害者的投诉。
1月6日,X公司发出警示,明确表示利用Grok生成性化篡改图像的行为属于上传违法内容,相关账号可能面临内容被删除、账号被永久封禁的处理,公司还会在必要情况下配合执法部门进行调查。
日本法律咨询平台Bengoshi.com上很快涌现出许多相关咨询,咨询者大多是青少年和年轻群体,他们称之前并不了解使用Grok可能存在的法律隐患。比如,有高中生承认曾生成同班女生的裸露视频,虽然没有传播,但担心仅仅“制作”这一行为本身是否已经违法;也有人询问,只是向AI发出将同学处理成内衣形象的指令,是否会被判定为制作色情内容;还有大学生表示,尽管已经删除了账号和数据,但还是担心平台会不会把相关信息提交给警方,甚至考虑主动去自首。
专攻互联网法律领域的律师清水洋平表示,这类行为确实有引发法律责任的可能性。他进一步解释道,要是生成的图像包含裸露或带有明显性暗示的内容,就可能对当事人的名誉权或隐私权造成侵害;而当情节较为严重时,还可能触及刑事范畴的诽谤罪,或是涉及著作权侵权方面的问题。
日本出现的这些情况,同样被看作是全球范围内围绕Grok的争议点之一。反对者指出,这款工具在某种程度上拉低了生成不良内容的准入条件。不少向法律网站寻求帮助的用户称,是在看到X公司的官方警示后,才明白自身行为的严重程度。当下,他们最忧虑的结果是面临刑事处罚以及给家人造成的社会层面的影响。