首页 / 体育 / 正文

OpenAI声称《纽约时报》在其版权诉讼中没有讲述完整的故事

放大字体  缩小字体 来源:admin 2024-09-26 05:50  浏览次数:61 来源:本站    

  

  

  OpenAI周一表示,《纽约时报》并未报道该公司12月27日对这家由山姆·奥特曼(Sam altman)领导的公司和微软提起诉讼的全部内容。

  有趣的是,《纽约时报》引发的反刍似乎来自于数年前在多个第三方网站上扩散的文章。似乎他们故意操纵提示,通常包括冗长的文章摘录,以便让我们的模型反悔,”OpenAI在一篇博客文章中写道。

  作为诉讼的一部分,《纽约时报》提交了大约100个侵犯版权的例子,这些例子表明,ChatGPT或其底层模型返回的文本片段与《纽约时报》文章或编辑内容中发布的段落几乎完全相同。

  然而,OpenAI声称,即使使用了“操纵”提示,其模型“通常也不会像《纽约时报》所暗示的那样表现,这表明他们要么指示模型反悔,要么从许多尝试中挑选出他们的例子。”

  OpenAI表示,《纽约时报》提出的例子并不是滥用或允许用户活动的典型例子。它指出,生成的文本不能替代著名的报纸。

  这家由山姆·奥特曼(Sam altman)领导的公司表示,它已经发现并正在努力解决ChatGPT的“反刍”问题,该公司将其称为“死记硬背”,并表示这是模型培训过程的失败。

  根据该公司的说法,当特定内容在训练数据中不止一次出现时,记忆往往会更常见,在这种情况下,《纽约时报》的文章也出现在其他网站上。

  “因此,我们有适当的措施来限制无意的记忆,防止模型输出中的重复。我们也希望我们的用户能够负责任;故意操纵我们的模型来反刍是对我们技术的不当使用,也违反了我们的使用条款。”该公司在博客中写道。

  虽然有很多关于《纽约时报》起诉OpenAI的评论,但一些技术创新者似乎对OpenAI的逻辑表示同情。

  人工智能领域的顶尖科学家之一吴恩达(Andrew Ng)在Twitter上写道:“在阅读了@nytimes对@OpenAI和@微软的诉讼后,我发现自己更同情OpenAI和微软,而不是纽约时报。”

  吴恩达声称,就像人类可以在开放的互联网上阅读文件,从中学习,并合成全新的想法一样,人工智能也应该被允许这样做。

  这位人工智能科学家在《深度学习》中解释说:“我希望看到公共互联网上的培训被纳入合理使用的范畴——这样社会会更好——尽管这最终是否真的是由立法者和法院决定的。”人工智能的每周通讯。

  在某种程度上支持OpenAI的说法,吴恩达进一步表示,《纽约时报》提出的违规例子是由于一种类似ragg的机制,即用户提示导致系统浏览网页,检索特定文章,然后将其打印出来。

  系统架构师丹尼尔·杰弗里斯(Daniel Jeffries)也在Twitter上解释了为什么《纽约时报》一案的胜诉概率接近于零,并在一定程度上支持了OpenAI的说法。

  杰弗里斯是在回应杰森·克林特(Jason Klint)在Twitter上的帖子,后者认为《纽约时报》的案子更有可能获胜。克林特是内容公司行业协会Digital Content Next的首席执行官。

  这位系统架构师还指出,《纽约时报》案可能会走上与莎拉·西尔弗曼案相同的道路,在该案中,一位美国地区法官裁定,就目前而言,判定生成的图像是否可能直接违反版权法“不合理”。

  OpenAI已经表示,它认为使用公开的互联网材料来训练人工智能模型是合理的使用。该公司表示,这种做法得到了长期以来广泛接受的先例的支持。

  在《纽约时报》提起诉讼之前,OpenAI表示,它正在与《纽约时报》就一项协议进行谈判,谈判将持续到12月19日。

  《纽约时报》在博客中写道:“谈判的重点是围绕ChatGPT的实时显示和署名展开高价值的合作,《纽约时报》将获得一种与现有和新读者联系的新方式,我们的用户将获得他们的报道。”该报还补充说,它已经向《纽约时报》解释说,他们的内容对现有模型的培训没有任何意义,对未来的培训也没有足够的影响力。

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱:rally510@qq.com
沪ICP备20018752号