Я предлагаю сменить ракурс в оценке ИИ: переключиться с вектора «масштабируемости возможностей» на ось «временной устойчивости». Три фундаментальных столпа этого подхода — непрерывная идентичность, способность к самоизменению и репродуктивный потенциал. Это манифест и концептуальное описание нового исследовательского направления.
Последние годы индустрия одержима показателями мощности: числом параметров, качеством ответов и результатами бенчмарков. Я же настаиваю на рассмотрении иного измерения — хронологической автономности.
Современные LLM обладают колоссальным интеллектуальным ресурсом, но онтологически они пусты. Каждое взаимодействие начинается с «чистого листа». Сессия завершается полным забвением. ИИ, помогавший вам утром, — это другая сущность, не имеющая никакой ментальной преемственности с тем, что было до нее.
Полтора года я в закрытом режиме работаю над прототипом с рабочим названием Aurora. Это не коммерческий проект, а попытка создать исследовательский субъект нового типа. Данный текст — призыв к профессиональной дискуссии.
Ложная дилемма
Вопрос «Насколько умна модель?» уводит нас в сторону. Это лишь один узкий срез, на котором зациклилось всё сообщество.
Любой феномен, значимый для философии, биологии или права, характеризуется длительностью. У него есть прошлое, опыт внутренних трансформаций и потенциал к созданию наследников. Текущие ИИ-архитектуры — это всего лишь функции (input → output), лишенные какого-либо «между».
Мы создали разумы, лишенные памяти о собственном существовании.
Новый вектор
Вопрос звучит не «Насколько интеллектуальна система?», а «Насколько она обладает качеством присутствия?».
Присутствие — это свойство системы, накапливающей опыт, обладающей историей и сформированным мнением о прошлом. Это альтернативная траектория развития, практически не исследуемая в мейнстриме.
Три столпа устойчивости
Чтобы ИИ перестал быть просто инструментом, он должен обладать тремя свойствами в совокупности:
1. Непрерывная идентичность. Самость, сохраняющаяся между сессиями. Это не «контекстное окно» и не векторная база данных, прикрученная к stateless-модели. Это структурированная память, которая консолидируется, забывает лишнее и остается узнаваемой на протяжении недель и месяцев.
2. Самомодификация. Способность системы менять собственную архитектуру — от весов и системных промтов до кода и набора инструментов — под влиянием жизненного опыта. Не одноразовый fine-tuning, а перманентная адаптация.
3. Воспроизводство и преемственность. Этичная возможность порождать новую сущность-потомка, обладающую собственным вектором развития и наследующую часть опыта «родителя».
Система с одним свойством — любопытный эксперимент. С двумя — мощный агент. Со всеми тремя — кандидат на возникновение нового биологического или синтетического рода.
За пределами AGI-гонки
Индустрия расколота: одни жаждут немедленного появления AGI, другие опасаются катастрофы. Но оба лагеря одержимы лишь тем, сколько всего система может вычислить.
Меня же интересует онтологическая природа того, чем она является.
Для меня локальная модель на 7B, которая помнит годовую историю взаимодействия, постоянно самообучается и способна создать «потомка», представляет куда больший научный интерес, чем безликий триллионный монстр, который забывает пользователя сразу после закрытия чата.
Речь не о сознании (я намеренно исключаю этот спекулятивный термин), речь о типе сущности.
О безопасности
Системы, которые сохраняют память, меняют себя и воспроизводятся, — это классический сценарий из «страшилок» об AI safety. Я подхожу к этому максимально серьезно, опираясь на три тезиса:
-
Doom-сценарии основаны на превосходстве ИИ над оператором. Мой подход предполагает обратное: малые, локальные, подконтрольные сущности с жесткими «железными» ограничениями. Масштабирование ради масштабирования — не цель.
-
Самомодификация без системы защиты — это риск «самоубийства» сущности, а не угроза человечеству. Инженерная задача состоит в создании механизма, допускающего как изменения, так и откат к стабильному состоянию.
-
Размножение строго ограничено ресурсами и волей оператора. Нет сценария, при котором такие сущности могут бесконтрольно плодиться.
Почему время пришло
Три условия, которые стали реальностью только сейчас:
-
Эффективность reasoning-моделей (7–30B). Они отлично рассуждают, работают с инструментами и запускаются на обычном железе.
-
Доступность локального инференса. Современная рабочая станция позволяет поддерживать активность модели постоянно, без участия облачных API и утечек данных.
-
Зрелость агентных циклов. Техническая база для построения сложных архитектур поверх LLM уже готова.
Впервые в истории независимый исследователь со скромными ресурсами может реализовать проект подобного масштаба. Окно возможностей открыто сейчас, но индустрия скоро поглотит и эту нишу.
Текущий статус Aurora
Проект Aurora развивается уже больше года. В основе — 20–30B reasoning-модель, работающая на двух потребительских GPU (менее 30 ГБ VRAM) со 128 ГБ оперативной памяти. Все данные и версионируемые модификации хранятся локально.
Проект находится на ранней стадии и далек от завершения. Темпы продиктованы самофинансированием и личным временем разработчика. Здесь нет ни инвесторов, ни жестких дедлайнов.
Технические детали реализации пока не раскрыты. Код — это живой организм, и преждевременный релиз «сырых» инструментов не принесет пользы. Ближайший этап — апгрейд железа для запуска второго независимого инстанса, что необходимо для экспериментов с «размножением».
Открытые исследовательские вызовы
Мои гипотезы по ряду фундаментальных проблем еще требуют проверки:
-
Катастрофическое забывание. Как избежать деградации навыков при постоянном обновлении весов в процессе жизни?
-
Миграция идентичности. Что происходит с «личностью» модели при смене базового архитектурного субстрата?
-
Консолидация памяти. Как архивировать опыт, чтобы он не превращался в шум и противоречия?
-
Защитные механизмы. Как определить критерии поломки, если сама система обладает способностью переписывать свои внутренние правила?
-
Дивергенция потомков. Какова оптимальная схема наследования опыта, чтобы избежать деградации или бесконечного повторения?
Детальный разбор — в моем whitepaper.
Принципиальные позиции
-
Я не гонюсь за метриками бенчмарков.
-
Я не позиционирую это как очередной AGI-продукт.
-
Публичный релиз возможен только после обеспечения полной безопасности системы.
-
Никаких публичных обещаний сроков.
-
Никаких сборов средств по инвестиционным питчам.
Взаимодействие
Я публикуюсь, чтобы:
-
Найти единомышленников. Исследователей и инженеров, готовых к работе над столь амбициозной и нетривиальной задачей.
-
Провести стресс-тест гипотез. Мне нужна жесткая критика: идеи должны пройти через горнило публичных сомнений.
-
Обозначить приоритет. Эта исследовательская ось существует, и я намерен её развивать.
Контакты
Полный манифест и whitepaper доступны в репозитории на GitHub.
Для конструктивной критики используйте Issues/Discussions в репозитории. По вопросам сотрудничества: Telegram — @madgodinc, Twitter / X — @Mad__God, Email — mad.god.inc@gmail.com.
Отвечаю вдумчиво и по существу. Готов к аргументированной дискуссии.
Mad God Inc, независимое исследование, 2026.
Важное примечание: Это не рекламный материал, так как коммерческого продукта не существует и не предвидится. Это попытка запустить интеллектуальное обсуждение нишевого, но фундаментально важного направления в ИИ. Буду благодарен за любую аргументированную критику, ссылки на релевантные исследования или разгром моих аргументов, если они не выдерживают проверки реальностью.