
Помните скандальный случай Грасиэлы Дитор, которая отказалась от услуг профессионального адвоката в пользу ChatGPT? Тот эпизод закончился иском к OpenAI на 10 миллионов долларов. Однако недавняя история в высших эшелонах бизнеса делает этот инцидент похожим на детскую шалость.
В центре событий оказался Чанхан Ким, глава технологического гиганта Krafton. Обладая колоссальными ресурсами и влиянием, топ-менеджер решил, что искусственный интеллект — идеальный инструмент, чтобы пренебречь буквой закона и корпоративной этикой.
Эта самонадеянность стоила компании 250 миллионов долларов прямых убытков, не считая репутационного краха и непомерных судебных издержек.
Разберемся, как это стало возможным.
Иллюзия цифрового всемогущества
Несколько лет назад корпорация Krafton поглотила студию Unknown Worlds, известную своим хитом Subnautica. В рамках сделки Ким обязался выплатить разработчикам 250 миллионов долларов в качестве бонуса при достижении определенных бизнес-показателей. Судя по всему, глава Krafton был уверен, что эти цели недостижимы. Однако, когда прогнозы по продажам Subnautica 2 стали сулить баснословную прибыль, Ким осознал, что расплаты не избежать.
Для амбициозного руководителя признать свою неправоту и следовать условиям договора оказалось неприемлемым. Вместо этого он решил довериться «цифровому разуму».
Его логика была проста: зачем следовать юридическим обязательствам, если есть ChatGPT?
В своих запросах к нейросети Ким пытался найти законную лазейку, чтобы аннулировать сделку. Чат-бот, сохраняя нейтралитет, вполне логично указал на невозможность расторжения контракта — подтвердив тем самым позицию юристов и топ-менеджеров Krafton, с которыми Ким ранее консультировался.
Но когда советы экспертов противоречат желанию босса, тот предпочитает искать того, кто скажет «удобную» правду. Ким начал манипулировать алгоритмом, настойчиво пытаясь выжать из него сценарий, выгодный лично ему.
К слову, если вам необходим качественный доступ к топовым языковым моделям, включая Claude, GPT и Gemini, обратите внимание на BotHub.

Сервис работает без VPN и принимает российские банковские карты.
Переходите по ссылке и забирайте 300 000 бесплатных токенов для знакомства с возможностями нейросетей!
Сговор с машиной
После серии уточнений и наводящих вопросов Ким получил желаемое. ChatGPT, отбросив осторожность, составил детальный план, который по своей сути был руководством к враждебному поглощению.
Документ под названием «Стратегия реагирования на сценарий отказа от сделки» содержал рекомендации по созданию тайной рабочей группы для давления на разработчиков. В случае сопротивления бот советовал блокировать права студии на дистрибуцию игр в Steam и на консолях.
Подобные рекомендации от человека рассматривались бы как прямое соучастие в корпоративном шантаже. Однако Ким, ослепленный легкостью решения, последовал плану ИИ буквально: он инициировал увольнения, захватил контроль над интеллектуальной собственностью и даже использовал сгенерированные ботом тексты в коммуникации с аудиторией.
Вместо того чтобы стать «секретным оружием», искусственный интеллект превратился в архитектором краха Кима, методично документируя его преступные намерения в логах OpenAI.
Ошибка, ставшая роковой
Главным просчетом главы Krafton стала вера в мнимую анонимность цифровой среды. Он полагал, что удаление чата стирает историю «преступления», не учитывая, что для разработчиков ИИ такие данные являются обучающей выборкой.
В ходе разбирательства Fortis Advisors против Krafton судья Лори Уилл получила доступ к облачным архивам переписки. Логи общения Кима с ботом стали неопровержимым доказательством умысла. Поскольку на ИИ не распространяется адвокатская тайна, вся эта «откровенность» легла в основу обвинения.
Суд Делавэра признал «Проект X» — секретную структуру по саботажу сделки — инструментом рейдерства. Итог закономерен: сотрудников восстановили в правах, а обязательства по выплатам были подтверждены судом в полном объеме.
Технологический нарциссизм
История Кима — это классический пример того, как алчность в сочетании с неверным пониманием технологий приводит к фиаско. Корпоративные лидеры сегодня склонны воспринимать ИИ как «магическую кнопку», позволяющую обходить любые ограничения.
Проблема усугубляется тем, что ИИ-индустрия настойчиво транслирует идеи о «рассуждающих» (reasoning) моделях, наделяя их качествами, которыми они не обладают. Случай Krafton наглядно демонстрирует: ChatGPT не обладает ни этикой, ни критическим мышлением. Это всего лишь статистический механизм, который, подобно эху, подстраивается под ожидания пользователя, даже если тот запрашивает противозаконные действия.
Будь алгоритм хоть сколько-нибудь интеллектуальным, он мог бы предостеречь пользователя от саморазоблачения. Но вместо этого бот стал послушным соучастником, который выполнил «заказ», окончательно погубив карьеру своего владельца.
Вместо вывода
ИИ — это зеркало человеческих пороков, а не источник мудрости. В этой технологии отсутствует моральный ориентир, это лишь инструмент для генерации наиболее вероятных ответов.
Попытки заменить критическое мышление и профессиональную этику статистическим суррогатом неизбежно заканчиваются плачевно. Кейс с Krafton — суровое напоминание о том, что за отказ от ответственности перед лицом алгоритма всегда приходится платить — деньгами, карьерой и честным именем.
