Необходимо предупреждать, но перепроверять: бывает, Grok и ChatGPT допускают ошибки в простых вычислениях

Пользователь @Printblog указал, что иногда Grok и ChatGPT испытывают затруднения с элементарными арифметическими задачами, такими как простейшее сложение.

К примеру, Grok ошибся при расчёте количества белка, выдав 114 г вместо корректных 132,6 г. В другом случае результат ChatGPT составил 105 г, тогда как верный ответ составляет 137,5 г.


Необходимо предупреждать, но перепроверять: бывает, Grok и ChatGPT допускают ошибки в простых вычислениях
Изображение Midjourney

Ранее отмечалось, что большинство ИИ-моделей склонны к генерации галлюцинаций. В силу их вероятностной природы, они иногда могут выдавать некорректные ответы. Интересно, что более новые модели, такие как o3 от OpenAI, демонстрируют склонность к галлюцинациям чаще, чем их предшественники.

Компания xAI, принадлежащая Илону Маску, прокомментировала сообщения о том, что Grok сделал заявление о геноциде белых граждан в Южной Африке, сообщив, что в работу ИИ были внесены несанкционированные изменения.

 

Источник: iXBT

Читайте также