
2023年是生成式人工智能聊天机器人及其背后的大型语言模型(llm)的一年。这些模型呈指数级增长,一些人工智能专家担心这可能对人类构成危险。他们认为事情不应该以这种速度处理,尤其是在没有监督的情况下。话虽如此,专家们已经表达了他们对人工智能变得有感情、有自己的思想的担忧,但很少有人说,你可以和聊天机器人在多大程度上个人化。
但现在,牛津大学(Oxford University)人工智能教授迈克·伍尔德里奇(Mike Wooldridge)警告人工智能聊天机器人的用户,要小心他们分享的内容。简而言之,他说你不应该与聊天机器人分享个人和敏感信息,比如你的政治观点,或者你在工作中对老板有多生气。这可能会导致不良后果,是“极其不明智的”。
据《卫报》报道,部分原因是他认为这些聊天机器人无法提供平衡的回应;相反,这项技术“告诉你你想听的”。
他说:“这项技术基本上是为了告诉你你想听的东西——这就是它所做的一切。”
他还补充说,一旦你向ChatGPT这样的聊天机器人提供了一条个人信息,这些信息通常会“直接输入ChatGPT的未来版本”,这意味着它可以用来训练人工智能聊天机器人的生成人工智能模型。当然,你不能在喂完东西后把它拉回来。然而,值得注意的是,OpenAI确实增加了一个选项,让用户在ChatGPT中关闭聊天记录,这意味着他们的聊天记录不会被用来训练人工智能模型。
在相关新闻中,Zerodha首席执行官兼联合创始人Nithin Kamath也警告了与人工智能和深度造假相关的重大风险,以及它如何影响金融机构。他指出,有“检查是否活泼,以及对方是否真实的检查”,但由于人工智能和深度伪造的快速发展,验证一个给定的人是真实的还是人工智能生成的将变得越来越困难。



