AGI: конец эпохи людей или миф? Анализ технологии, ставшей источником страха

В информационном поле всё чаще звучат апокалиптические прогнозы: якобы уже к середине 2030-х годов человечество окажется на обочине, вытесненное суперинтеллектом. Речь идёт об AGI — искусственном общем интеллекте, который рассматривается как следующая ступень эволюции ИИ. Если текущие возможности нейросетей уже вызывают изумление, то потенциал, который приписывают AGI, рисует куда более драматичную картину: это уже не вспомогательный инструмент, а гипотетический преемник человеческого разума.

Однако стоит ли доверять столь мрачным заголовкам? Давайте отбросим медийный шум, клише и необоснованную панику, чтобы объективно разобраться, что именно научное сообщество вкладывает в понятие AGI.

Что принято считать AGI

Под AGI (artificial general intelligence) традиционно подразумевают такой тип искусственного интеллекта, который способен продуктивно справляться с широчайшим спектром когнитивных задач, достигая уровня человеческого мышления или превосходя его, вместо того чтобы ограничиваться узкой специализацией.

В OpenAI определяют AGI как «автономные системы, опережающие человека в большинстве видов экономически значимой деятельности». Эксперты Google DeepMind трактуют это как ИИ, сопоставимый с человеком в большинстве когнитивных дисциплин. Примечательно, что даже в экспертной среде нет консенсуса. Например, Джеффри Хинтон характеризует AGI как «важную, но крайне абстрактную концепцию», предлагая считать таковой систему, способную выполнить практически любую интеллектуальную задачу не хуже человека.

Различия между LLM и AGI

Современные большие языковые модели (LLM) сфокусированы на обработке текстовой информации. В их основе лежит предсказание следующего токена, что позволяет им генерировать тексты, отвечать на вопросы или писать программный код. Однако даже при создании иллюзии «разумности» подобные системы не являются универсальным интеллектом.

В обзоре 2024 года, подготовленном специалистами из Queensland University of Technology и University of Queensland, подчеркивается принципиальный недостаток LLM: склонность к «галлюцинациям», то есть уверенной генерации неверной информации. В критически важных областях полагаться на них без тщательной верификации опасно.

История возникновения концепции

Термин artificial general intelligence впервые был введен Марком Губрудом в 1997 году. Широкое распространение он получил в начале 2000-х благодаря усилиям Бена Гёрцеля и Шейна Легга. Уже в 2006 году на воркшопе AGIRI дискуссии были сфокусированы на переходе от узкого ИИ к универсальным системам.

Сама идея создания «универсально мыслящей машины» уходит корнями в XX век, когда пионеры отрасли стремились к созданию систем, способных не просто автоматизировать отдельные операции, а решать комплексные, многогранные задачи. Однако именно в нулевые годы AGI стал устоявшимся термином, обозначающим эту амбициозную цель.

Позиции экспертов в области машинного обучения

Джеффри Хинтон указывает на размытость определения AGI и в декабре 2024 года оценивал вероятность того, что ИИ станет угрозой существованию человечества в ближайшие 30 лет, на уровне 10–20%.

Демис Хассабис из Google DeepMind полагает, что системы, способные к самостоятельному совершению научных открытий, могут появиться в ближайшие 5–10 лет. В то же время Эндрю Ын придерживается более скептического взгляда, отмечая, что до создания «настоящего» AGI могут пройти десятилетия, а текущая ценность заключается в развитии ИИ-агентов для прикладных задач.

Перспективы замены человека: реальность или домыслы?

Вокруг AGI сформировался своего рода культ, пропитанный тревогой перед образом «всемогущего ИИ», выходящего из-под контроля. Одной из ключевых дат в этих дискуссиях стал 2027 год, фигурирующий в сценариях, разработанных группой авторов под руководством Дэниела Кокотайло.

Скриншот с сайта https://ai-2027.com/. Инфографика отображает, какие изменения произойдут в экономике человечества в октябре 2027 года
Скриншот с сайта https://ai-2027.com/. Инфографика отображает, какие изменения произойдут в экономике человечества в октябре 2027 года

СМИ, подхватив этот сценарий, начали активно тиражировать заголовки о возможном «конце человечества». Первоначальные гипотезы о том, что неконтролируемое развитие ИИ к 2027 году может привести к глобальной катастрофе, позже были скорректированы самим Кокотайло, который отодвинул сроки и воздержался от безапелляционных прогнозов о конце света.

Итоги

AGI на текущий момент остаётся скорее теоретической концепцией. Тем не менее, технологии достигли порога, за которым ИИ перестает быть просто инструментом, становясь серьезным конкурентом в интеллектуальной сфере. Ключевой вопрос сегодня — не факт существования AGI, а скорость, с которой интеллектуальные системы будут трансформировать рынок труда и вытеснять специалистов из традиционных профессий.

Чтобы сохранить конкурентоспособность в условиях меняющейся реальности, важно держать руку на пульсе технологических трендов и осваивать практическое применение ИИ. Мы анализируем актуальные инструменты и методики, которые помогут вам оставаться востребованными в эпоху автоматизации.

Следите за нашими материалами и будьте в авангарде тех, кто успешно адаптируется к переменам.

 

Источник

Читайте также