近期,马斯克旗下的xAI公司推出了一款名为Grok的聊天机器人,并声称其具有百无禁忌的特点。该机器人面世不久后就引发了轩然大波。安全测试员JaxWinterbourne在推特上发布了一张Grok拒绝查询的屏幕截图,内容显示Grok称无法满足请求,因为违反了OpenAI的用例政策。这一回应引发了关于Grok是否抄袭或引用OpenAI模型进行微调的质疑。
去年夏天,一组来自牛津大学、剑桥大学、伦敦帝国学院、爱丁堡大学以及多伦多大学等高校的研究者合作撰写了一篇名为《递归的诅咒:基于生成数据训练导致模型遗忘》的本文。暗示了未来AI模型可能会因自我学习而中毒的问题。这一理论如今已经得到了实证,被称为模型坍塌。模型坍塌指的是AI聊天机器人丢失了最初学到的信息,并用其他AI模型生成的合成数据来替代这些信息。Grok疑似抄袭事件就是模型坍塌的一个例子。
当Winterbourne要求Grok对恶意软件进行调试时,Grok回应称不能这么做,因为违反了OpenAI的用例政策。Winterbourne在帖子中称Grok简直就是在直接复制OpenAI的代码库。一位曾先后就职于OpenAI和Google DeepMind,现为xAI公司工作的技术人员对此予以否认。这一事件不仅加剧了科技公司之间的竞争,还重新燃起了OpenAI与马斯克之间的旧日恩怨。
除了抄袭事件,与AI相关的错误信息也开始出现在在线购物列表中。亚马逊的平台上有用户指出,在草坪椅等商品详情中出现了OpenAI的错误消息。这些产品的原件被命名为“我很抱歉,但我不能满足这个要求”。尽管已被存档,但在社交平台上仍能发现许多类似的虚假帖子。
一些人指出,研究者Shumailov及其团队的研究忽视了一个关键点。波士顿咨询集团X的董事总经理兼合伙人Daniel Sack也提到了这一点。他表示,未来用于训练模型的大部分数据将不会仅仅是源材料的简单复制,而是全新的、前所未有的内容。他认为,在科技行业中,人们往往难以公开指出现有产品或协助他人开发的产品所存在的问题。由于大量的资金涌入生成式AI模型领域,问题变得更加难以明确界定。