Debatox

从“预测下一个词”到涌现出复杂能力,大型语言模型是否意味着产生了“理解”?

大型语言模型(如GPT-4)仅基于“预测下一个词”的简单训练目标,却展现出了翻译、推理、编码等复杂能力。这引发了一个根本性的哲学与技术辩论:这种能力的“涌现”是否意味着模型内部产生了某种形式的“理解”或“智能”?还是说这仅仅是统计模式匹配达到一定规模后产生的复杂幻觉?

正方 47%53% 反方

观点擂台

正方观点 (0)

暂无观点,来做第一个!

反方观点 (0)

暂无观点,来做第一个!

0/300