斯坦福大学研究发现AI 聊天机器人ChatGPT的表现超不稳定
发布时间:2023-09-08 12:40:38 所属栏目:外闻 来源:
导读:据最新一份来自斯坦福大学的调查报告显示,ChatGPT 这种流行的生成式人工智慧聊天机器人的表现在过去的数个月里出现了较大的起伏变化。
斯坦福大学的团队评估了 ChatGPT 在几个月内如何处理不同的任务。他们发现,
斯坦福大学的团队评估了 ChatGPT 在几个月内如何处理不同的任务。他们发现,
据最新一份来自斯坦福大学的调查报告显示,ChatGPT 这种流行的生成式人工智慧聊天机器人的表现在过去的数个月里出现了较大的起伏变化。 斯坦福大学的团队评估了 ChatGPT 在几个月内如何处理不同的任务。他们发现,ChatGPT 的能力随时间的推移而出现了不一致。目前,ChatGPT 有两个版本—— 免费的 GPT-3.5 模型和更智能、更快速的付费 GPT-4 版本。 研究人员发现,GPT-4 在3 月份能够有效地解决数学问题,识别质数的准确率为97.6%。三个月后,其准确率下降到了2.4%。而另一方面,GPT-3.5 却变得更好,从 7.4% 的准确率提高到了 86.8%。 研究人员还注意到,在编写代码和视觉推理方面也有类似的波动。斯坦福大学计算机科学教授 James Zou 称:“当我们调整一个大型语言模型来提高它在某些任务上的表现时,那可能会有很多意想不到的后果,可能会损害这个模型在其他任务上的表现…… 这个模型回答问题的方式有各种各样的相互依赖性,这可能导致我们观察到的一些恶化行为。” 越来越多的研究人员认为,结果并不能真正意义上反映 现有ChatGPT 性能的准确性状态,而是显示了一致性的微调可能是模型带来的意外可能的后果。本质上,当修改模型的一部分来改善一个任务时,其他任务可能会受到影响。为什么会这样很难确定,因为没有人知道 ChatGPT 是如何运作的,而且它的代码也不是开源的。 随着时间的推移,研究人员注意到,ChatGPT 的回答不仅变得不太准确,而且还停止了解释其推理过程。 由于 ChatGPT 的运作方式,要研究和衡量它的表现可能很困难,这项研究强调了观察和评估驱动 ChatGPT 等工具的大型语言模型(LLM)性能变化的必要性。这些结果表明,chatgpt的运作方式与传统编程语言不同,它不依赖于一个特定的函数,而是通过多个函数来实现。 (编辑:聊城站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐