Искусственный интеллект может усилить угрозу глобальной пандемии: новое исследование предупреждает об опасности

Новый отчет Rand Corporation предупреждает: использование искусственного интеллекта может увеличить вероятность мировой пандемии в пять раз. Такая оценка сформирована на основе моделирования биотеррористических сценариев и возможных утечек из лабораторий, усугубляемых применением генеративных ИИ-технологий. Исследование, заказанное Агентством по перспективным оборонным исследованиям США (DARPA), касается вопросов этики и регулирования развития крупных языковых моделей.

Как отмечают авторы, модели, подобные ChatGPT, могут облегчить разработку и распространение биологического оружия. ИИ способен оказать помощь в выборе патогена, синтезе ДНК, определении условий хранения и транспортировки, и даже в обходе существующих мер контроля. Работа основывается на оценке гипотетических злоумышленников, использующих ИИ-системы с открытым API, обученные на материалах из научных изданий. Даже при ограниченной подготовке такие злоумышленники получали инструкции по созданию опасных агентов, к примеру, вируса оспы.


Искусственный интеллект может усилить угрозу глобальной пандемии: новое исследование предупреждает об опасности
Иллюстрация: ChatGPT

Основная угроза заключается в том, что ИИ снижает «порог доступа» к биологическим атакам. Такие действия раньше требовали высокой квалификации и значительных ресурсов, но теперь подсказки ИИ могут компенсировать недостаток знаний. Особо опасно автоматическое создание и проверка вариантов биологических агентов с улучшенными характеристиками заразности и устойчивости. Некоторые LLM уже сейчас способны подбирать материалы и методы, имитируя научные эксперименты.

Rand подчеркивает: опасность кроется не только в террористических актах, но и в случайных ошибках. Лаборатории, использующие ИИ для ускорения исследований, могут ненамеренно создать и выпустить в окружающую среду опасный патоген. Последствия таких утечек могут быть более масштабными, чем COVID-19, особенно при отсутствии должного контроля и этических нормативов.

Доклад особое внимание уделяет необходимости регулирования: ученые призывают запрещать доступ к биотехнической информации в LLM, внедрять фильтры на «биоопасный» контент и проводить аудит моделей, используемых в научных разработках. Также важно пересмотреть принципы публикации биологических данных в открытом доступе.

Однозначных сценариев в отчете нет, однако общий вывод ясен: если не учитывать биориски при развитии ИИ, вероятность новой пандемии в ближайшие десятилетия значительно повысится. Технологии, которые должны способствовать лечению и профилактике, могут непреднамеренно стать источником биологических угроз.

 

Источник: iXBT

Читайте также