标签:tokenizer

AI模型遭遇常识挑战:数字比较出错,9.11与9.9大小分辨,tokenizer与角色扮演提示揭示问题所在

在人工智能的世界里,即使是最新最先进的模型也可能面临尴尬的挑战。近期,一些顶级大模型在面对“9.11 和 9.9 哪个大”的简单问题时,竟然给出了错误的答案。GPT-4o 和谷歌的 Gemini Advanced 付费版都认为 9.11 更大,而 Claude 3.5 Sonnet 提供了荒谬的计算方法。这个问题揭示了尽管AI在复杂数学问题上的能力日益增强,但在基本常识方面仍有不足。 一位名叫 Riley Goodside 的提示词工程师发现了这个问题,他在测试 GPT-4o 时发现模型错误地认为 9.11 更大。当他尝试改变提问方式或限定为实数比较时,结果并未改善。有趣的...