
ChatGPT, Claude, Gemini не вміють рахувати. І це не баг - це архітектура.
Моделі, які пишуть робочий код, проходять юридичні іспити і генерують поезію, але регулярно помиляються в елементарній арифметиці.
Причина проста: вони читають числа як слова, а не як математичні об'єкти.
Уявіть, що вас просять скласти "сто двадцять сім" і "триста дев'яносто чотири" в голові, без переведення в цифри. Приблизно так працює LLM - токенізатор розбиває числа на довільні фрагменти, і модель змушена "вгадувати" результат замість обчислювати його.
Що з цим робити на практиці?
Нормалізуйте дані перед подачею: прибирайте роздільники тисяч, валютні знаки, уніфікуйте десяткові роздільники.
Великі числа подавайте словами або в науковій нотації - "1 млрд" замість "1000000000".
Замість "порахуй" просіть "напиши код, який рахує".
Використовуйте інструменти з вбудованим інтерпретатором: Code Interpreter, агентні системи.
Додавайте крок самоперевірки в промпт - нехай модель звірить результат з вхідними даними.
Детальніше про архітектурні обмеження, порівняння форматів даних і стратегії промптингу - у повному дослідженні, зробленому з допомогою Gemini (deep research). Можна ознайомитися за посиланням