第三方研究机构近期发布的一份分析报告引发广泛争议,埃隆·马斯克旗下的社交平台X已成为全球范围内AI生成非自愿“脱衣”图像的主要来源之一,而其内置的AI工具Grok正是这一现象背后的关键驱动因素。
研究人员针对1月5日到1月6日期间Grok账号所发布图像展开了24小时的审查工作,结果显示,该平台每小时生成的带有性暗示或包含裸露内容的图像,数量最高达到了大约6700张。而这一数据与同一时期其他主流网站相比,存在明显的高出情况。
法律与政策领域的专家表示,此类内容呈现爆发式增长,直接原因在于Grok推行的免费策略,以及它与社交网络之间实现的无缝对接,这让这类内容具备了极为强大的传播扩散能力。
和OpenAI、Anthropic、谷歌这些同类产品比起来,Grok在生成真人敏感图像方面的限制要少得多。虽然马斯克之前说过,生成非法内容的用户会承担相应后果,但不少受害者表示,X的审核系统动作很慢,很多被举报的违规图像在投诉之后还是能在平台上看到。
目前,欧盟、英国、法国、马来西亚、印度等多个国家和地区的监管机构已着手加大对Grok的审查力度,重点关注其可生成露骨内容的“Spicy Mode”功能。
你认为马斯克是否应该为了保护隐私,而完全取消Grok的绘图功能呢?欢迎在评论区分享你的看法!