Китайские IT-компании внедряют ИИ-агентов, обученных на навыках реальных сотрудников

В китайском корпоративном секторе набирает обороты тревожная тенденция: сотрудников принуждают «тренировать» нейросети на деталях их повседневной работы — вплоть до анализа поведения коллег. То, что начиналось как сатирический эксперимент в сети, превратилось в реальный рабочий инструмент, провоцируя острые дебаты о допустимых границах автоматизации и рисках полноценной замены людей машинами.

В центре внимания оказался проект Colleague Skill, размещенный на GitHub. Изначально задуманный как ироничный ответ на волну ИИ-сокращений, инструмент позволяет «дистиллировать» профессиональный опыт и личностные паттерны сотрудников, чтобы на их основе создать автономного ИИ-агента. Идея быстро вышла за рамки шутки, став объектом пристального интереса как среди рядовых айтишников, так и у руководства компаний.

Как сообщает MIT Technology Review, работодатели всё чаще требуют от подчиненных детальной оцифровки рабочих процессов для внедрения таких агентов, как OpenClaw или Claude Code. Под предлогом оптимизации скрывается создание «цифровых слепков» сотрудников, которые в перспективе могут взять на себя их обязанности.

Принцип работы Colleague Skill предельно прост: достаточно указать данные профиля коллеги, и система автоматически парсит его рабочую переписку, документацию и файлы. Итогом становится детализированная инструкция, копирующая не только круг задач, но и индивидуальный почерк: от специфики общения до мельчайших привычек в оформлении текстов. Это позволяет ИИ-двойнику имитировать поведение человека почти без искажений.

Разработчик проекта, инженер Шанхайской лаборатории ИИ Тяньи Чжоу, признается, что создавал инструмент как способ высмеять практику, при которой компании вынуждают сотрудников готовить почву для собственного увольнения, делегируя их функции алгоритмам.

Китайские IT-компании внедряют ИИ-агентов, обученных на навыках реальных сотрудников
Иллюстрация: Nano Banana

Общественная реакция неоднородна. Одни видят в этом повод для черного юмора, другие — экзистенциальную угрозу профессионализму. 27-летняя IT-разработчица из Шанхая по имени Амбер Ли на практике убедилась в эффективности технологии. Используя Colleague Skill, она воссоздала модель поведения бывшего коллеги. По её словам, ИИ «удивительно точно» скопировал манеру общения и стиль правок, став эффективным виртуальным напарником. Однако Ли признается: наблюдать за тем, как программа имитирует человеческую личность, «жутко и некомфортно».

Параллельно бизнес активно внедряет агентов, способных обрабатывать корреспонденцию, анализировать данные и бронировать услуги. Хотя их автономность пока невелика, компании настаивают на создании полных «карт компетенций», чтобы сократить дистанцию между возможностями нейросетей и запросами бизнеса.

Ханчэн Цао из Университета Эмори отмечает, что прагматика компаний ясна: они пытаются стандартизировать бизнес-процессы, отделяя рутину, поддающуюся алгоритмизации, от задач, требующих человеческого интеллекта. Но для самих специалистов этот процесс выглядит как безжалостное «разложение на модули», упрощающее человека до набора функций, которые легко вычеркнуть из штатного расписания.

В ответ на эту угрозу появились инструменты «анти-дистилляции». Пекинский продакт-менеджер Коки Сюй выпустила решение, которое искажает данные о рабочей деятельности, делая невозможным создание качественной автоматизированной копии сотрудника. Видео с демонстрацией этого «цифрового саботажа» стало вирусным.

Юридическая сторона вопроса остается «серой зоной»: кому принадлежат данные, описывающие уникальный стиль мышления человека — работодателю или личности? Коки Сюй надеется, что дискуссия вокруг подобных технологий приведет к созданию правовых барьеров, защищающих право человека на его профессиональную идентичность в эпоху всеобщего ИИ-копирования. В конечном счете, пока агенты недостаточно стабильны, чтобы полностью заменить людей, но сам факт обесценивания человеческого труда вызывает у специалистов серьезные опасения за будущее индустрии.

 

Источник: iXBT

Читайте также