Илон Маск назвал три качества, отсутствие которых может превратить ИИ в угрозу

Илон Маск назвал три качества, отсутствие которых может превратить ИИ в угрозу

Илон Маск в подкасте с индийским предпринимателем Нихилом Каматом заявил, что безопасное развитие искусственного интеллекта возможно только при соблюдении трёх фундаментальных принципов — истины, красоты и любопытства.

По его мнению, пренебрежение этими основами повышает риск того, что ИИ будет порождать ошибочные и опасные выводы, теряя связь с объективной реальностью.

  • Маск подчеркнул, что при обучении на материалах интернета системы неизбежно наталкиваются на дезинформацию, что способно нарушать их причинно‑логические механизмы и приводить к абсурдным либо разрушительным результатам.
  • В качестве примера он указал на феномен «галлюцинаций» — когда ИИ выдает недостоверные ответы. Маск напомнил, что в начале 2025 года функция Apple Intelligence на iPhone распространила ложное уведомление о победе британского дартсмена Люка Литтлера на чемпионате PDC ещё до реального финала.
  • По его словам, ИИ должен не ограничиваться поиском фактов: ему необходимо обладать чувством эстетики и живым интересом к природе реальности и будущему человечества. Без этого технология рискует превратиться в инструмент разрушения, а не прогресса.
  • Эта позиция созвучна предупреждениям одного из пионеров искусственного интеллекта Джеффри Хинтона, который оценивал вероятность гибели человечества из‑за ИИ в 10–20 %. Среди краткосрочных угроз Хинтон выделял галлюцинации и массовую автоматизацию низкоквалифицированных рабочих мест. По его словам, надежда заключается в том, что при достаточной научной работе и ресурсах разработчики смогут создать системы, которые «никогда не захотят причинить человеку вред».
 

Источник