




(来源:MIT Technology Review)
大多数主流 AI 图像生成器都为生成内容设置了严格的防护措施,以防止用户创作出暴力、色情、非法或其他有害内容。这些规则同时也旨在避免明显的版权侵权行为。然而,由马斯克的 AI 公司 xAI 开发的 Grok 几乎无视这些原则,这与马斯克一贯反对所谓“觉醒 AI”的立场不谋而合。与之形成对比的是,其他主流图像生成模型通常会拒绝生成涉及名人、版权作品、暴力或恐怖主义的图像,除非用户使用某些复杂技巧规避限制。而 Grok 则几乎毫无保留地接受用户的请求,比如生成特朗普发射火箭筒或米奇老鼠手持炸弹这样的图像。虽然它对生成裸体图像仍有一定限制,但其对规则的松散执行削弱了其他公司为避免争议内容所作的努力。Grok 的这种无约束模式引发了广泛争议,对行业规范造成了直接挑战。这种行为不仅加剧了公众对生成式 AI 潜在风险的担忧,还可能迫使其他公司重新评估其模型的规则和限制机制,以应对更加复杂的行业环境。尽管主流生成式 AI 模型虽然配备了安全过滤器以阻止生成不当内容,但研究表明这些机制很容易被越狱,例如通过 SneakyPrompt 的手段攻破。这种方法利用 AI 模型处理文本提示的机制,通过替换或调整词汇,使得过滤器难以识别并阻止有害内容。这类技术漏洞不仅可能被用于生成暴力或色情内容,还可能被用于信息战,制造虚假新闻和操控舆论。例如,AI 生成的虚假战争图像可能激化冲突,造成严重的后果。为了应对这些问题,开发者应加强训练数据的清理和预处理,采用更精细的安全措施,并提供内容标签以帮助识别 AI 生成的内容。此外,跨行业的协作和技术改进被认为是减少 AI 滥用的关键。随着生成式 AI 的能力不断增强,其安全和伦理问题必须引起更多关注。行业需要平衡技术发展的潜力和社会责任,确保 AI 技术的应用不会带来不可预见的负面影响。






