首页 / 生活 / 正文

小心!牛津大学教授警告不要与人工智能聊天机器人分享个人信息

放大字体  缩小字体 来源:admin 2024-09-30 05:37  浏览次数:98 来源:本站    

  

  

  2023年是生成式人工智能聊天机器人及其背后的大型语言模型(llm)的一年。这些模型呈指数级增长,一些人工智能专家担心这可能对人类构成危险。他们认为事情不应该以这种速度处理,尤其是在没有监督的情况下。话虽如此,专家们已经表达了他们对人工智能变得有感情、有自己的思想的担忧,但很少有人说,你可以和聊天机器人在多大程度上个人化。

  但现在,牛津大学(Oxford University)人工智能教授迈克·伍尔德里奇(Mike Wooldridge)警告人工智能聊天机器人的用户,要小心他们分享的内容。简而言之,他说你不应该与聊天机器人分享个人和敏感信息,比如你的政治观点,或者你在工作中对老板有多生气。这可能会导致不良后果,是“极其不明智的”。

  据《卫报》报道,部分原因是他认为这些聊天机器人无法提供平衡的回应;相反,这项技术“告诉你你想听的”。

  他说:“这项技术基本上是为了告诉你你想听的东西——这就是它所做的一切。”

  他还补充说,一旦你向ChatGPT这样的聊天机器人提供了一条个人信息,这些信息通常会“直接输入ChatGPT的未来版本”,这意味着它可以用来训练人工智能聊天机器人的生成人工智能模型。当然,你不能在喂完东西后把它拉回来。然而,值得注意的是,OpenAI确实增加了一个选项,让用户在ChatGPT中关闭聊天记录,这意味着他们的聊天记录不会被用来训练人工智能模型。

  在相关新闻中,Zerodha首席执行官兼联合创始人Nithin Kamath也警告了与人工智能和深度造假相关的重大风险,以及它如何影响金融机构。他指出,有“检查是否活泼,以及对方是否真实的检查”,但由于人工智能和深度伪造的快速发展,验证一个给定的人是真实的还是人工智能生成的将变得越来越困难。

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱:rally510@qq.com
沪ICP备20018752号