乐鱼网.com

【人工智能】学术论文:AI 聊天机器人跟着时间的推移慢慢的变糟糕

来源:乐鱼网.com    发布时间:2025-01-03 05:28:30

  消费者对聊天机器人的兴趣减弱导致 2024 年第二季度AI行业收入下降。

  《自然科学杂志》最近发表的一项题为“更大、更具指导性的语言模型变得不那么可靠”的研究表明,随着新模型的发布,人工智能聊天机器人会跟着时间的推移犯更多的错误。

  该研究的作者之一周乐欣提出,由于人工智能模型经过优化,始终可提供可信的答案,因此看似正确的答案都会被优先处理,并推送给最终用户,而不管准确性如何。

  这些人工智能幻觉具有自我强化的特性,并且跟着时间的推移而不断加剧——使用旧的大型语言模型来训练新的大型语言模型会加剧此现状,因此导致“模型崩溃”。

  编辑兼作家 Mathieu Roy 告诫用户别过度依赖这些工具,并应始终检查AI生成的搜索出来的结果是不是真的存在不一致之处:

  “虽然AI可以用于许多任务,但用户验证从AI模型获得的信息很重要。事实核查应该是每个人用AI工具过程中的一个步骤。当涉及到客户服务聊天机器人时,这会变得更复杂。”

  更糟糕的是,“除了询问聊天机器人本身之外,通常无另外的办法能检查信息,”罗伊断言。

  2024 年 2 月,谷歌的人工智能平台开始 制作不符合历史的图像 ,引发了人们的嘲笑。例如,它把有色人种描绘成纳粹军官,并制作出不准确的著名历史人物形象。

  不幸的是,在当前的AI和大型语言模型中,此类事件太常见了。包括 Nvidia 首席执行官黄仁勋在内的行业高管已提出通过强制 AI 模型进行 研究并 为用户给出的每一个来源来缓解 AI 幻觉。

  然而,这些措施已经在最流 行的AI和大型语言模型中得到体现,但人工智能幻觉的问题仍然存在。

  最近,今年 9 月,HyperWrite AI 首席执行官马特·舒默 (Matt Shumer) 宣布,该公司新款 70B 型号采用一种名为“反射调整”的方法,据称该办法能够让 AI 机器人 通过一系列分析自身的错误 并跟着时间的推移调整其反应来学习。

上一篇:国际e特快和ems有什么区别 下一篇:家用市场期待机器人来“敲门”