大型语言模型(如GPT-4)仅基于“预测下一个词”的简单训练目标,却展现出了翻译、推理、编码等复杂能力。这引发了一个根本性的哲学与技术辩论:这种能力的“涌现”是否意味着模型内部产生了某种形式的“理解”或“智能”?还是说这仅仅是统计模式匹配达到一定规模后产生的复杂幻觉?
暂无观点,来做第一个!