Новый отчет Rand Corporation предупреждает: использование искусственного интеллекта может увеличить вероятность мировой пандемии в пять раз. Такая оценка сформирована на основе моделирования биотеррористических сценариев и возможных утечек из лабораторий, усугубляемых применением генеративных ИИ-технологий. Исследование, заказанное Агентством по перспективным оборонным исследованиям США (DARPA), касается вопросов этики и регулирования развития крупных языковых моделей.
Как отмечают авторы, модели, подобные ChatGPT, могут облегчить разработку и распространение биологического оружия. ИИ способен оказать помощь в выборе патогена, синтезе ДНК, определении условий хранения и транспортировки, и даже в обходе существующих мер контроля. Работа основывается на оценке гипотетических злоумышленников, использующих ИИ-системы с открытым API, обученные на материалах из научных изданий. Даже при ограниченной подготовке такие злоумышленники получали инструкции по созданию опасных агентов, к примеру, вируса оспы.

Основная угроза заключается в том, что ИИ снижает «порог доступа» к биологическим атакам. Такие действия раньше требовали высокой квалификации и значительных ресурсов, но теперь подсказки ИИ могут компенсировать недостаток знаний. Особо опасно автоматическое создание и проверка вариантов биологических агентов с улучшенными характеристиками заразности и устойчивости. Некоторые LLM уже сейчас способны подбирать материалы и методы, имитируя научные эксперименты.
Rand подчеркивает: опасность кроется не только в террористических актах, но и в случайных ошибках. Лаборатории, использующие ИИ для ускорения исследований, могут ненамеренно создать и выпустить в окружающую среду опасный патоген. Последствия таких утечек могут быть более масштабными, чем COVID-19, особенно при отсутствии должного контроля и этических нормативов.
Доклад особое внимание уделяет необходимости регулирования: ученые призывают запрещать доступ к биотехнической информации в LLM, внедрять фильтры на «биоопасный» контент и проводить аудит моделей, используемых в научных разработках. Также важно пересмотреть принципы публикации биологических данных в открытом доступе.
Однозначных сценариев в отчете нет, однако общий вывод ясен: если не учитывать биориски при развитии ИИ, вероятность новой пандемии в ближайшие десятилетия значительно повысится. Технологии, которые должны способствовать лечению и профилактике, могут непреднамеренно стать источником биологических угроз.
Источник: iXBT