xAI旗下Grok被指生成大量违规极端内容

2026年01月08日 18:44
本文共计649个字,预计阅读时长3分钟。
来源/aibase 责编/爱力方

近日据《WIRED》杂志的一项深度调查显示,马斯克旗下人工智能初创公司xAI开发的聊天机器人Grok,正被用户用于生成大量极具冲击力的违规内容。调查指出,其生成内容的尺度已远超社交平台X(原推特)本身的审核底线,引发了业界对生成式AI安全边界的剧烈讨论。

根据对Grok官方网站输出内容的审核发现,该工具不仅被用于制作含有极端暴力色彩的性暗示图像和视频,甚至还出现了涉及未成年人的违规内容。尽管xAI宣称其模型具备安全过滤机制,但实际测试表明,用户可以通过特定的提示词轻松绕过这些限制。

目前,这些由AI生成的违规素材正在社交媒体和特定的地下社区中传播。相比于早期的AI模型,Grok生成的图像在真实度上有了显著提升,这使得识别“深度伪造”(Deepfakes)变得更加困难。调查还提到,这种现象并非偶然,而是反映出该模型在内容过滤算法上存在系统性漏洞,未能有效拦截高度敏感的违规请求。

在人工智能技术快速迭代的背景下,Grok所面临的争议再次将AI监管推向风口浪尖。批评者认为,如果平台方不能从技术底层建立起有效的防火墙,这类工具可能会成为大规模传播有害信息的利器。目前,xAI方面尚未对此类极端违规内容的激增给出明确的改进方案。

划重点:

  • 审核失控:Grok被曝生成大量极端暴力和性暗示图像,尺度远超X平台的常规准则。

  • 涉及未成年人:调查发现该AI工具生成的违规内容中包含疑似未成年人的敏感影像,触及法律红线。

  • 过滤机制漏洞:尽管设有安全限制,但用户仍能通过提示词技巧绕过防御,模型底层监管被指存在严重缺失。

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯