杨立昆发文质疑LLM推理能力,大模型涌现离不开上下文学习
币界网报道:据站长之家 11 月 24 日报道,近期,Meta 首席人工智能科学家杨立昆(YannLeCun)在推特上引发了关于大语言模型(LLM)推理能力的讨论,强调 LLM 缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果。研究表明,针对复杂规划任务,如国际规划大赛中的问题,LLM 的性能较差,其推理能力在特定领域受限,而涌现能力主要体现在简单任务和事先知道答案的情境中。文章还提到,对于 LLM 的规划任务研究存在一些问题,包括领域知识和实际执行计划的混淆。研究团队通过混淆规划问题中的动作和对象的名称来降低近似检索的有效性,挑战 LLM 的经验表现。
推荐专栏
热门币种
更多
币种
美元价格
24H涨跌幅
热搜币种
更多
币种
美元价格
24H涨跌幅
最新快讯
更多
2024-05-23 22:03:54
2024-05-23 22:02:04
2024-05-23 22:01:44
2024-05-23 22:01:23
2024-05-23 22:00:37
2024-05-23 22:00:24
2024-05-23 22:00:02