Федеральный суд США вынес вердикт о незаконности массового аннулирования гуманитарных грантов, инициированного департаментом эффективности государственного управления (DOGE). Основанием для отмены стали результаты внутреннего расследования, подтвердившие, что для идентификации «неприемлемых» проектов ведомство прибегало к помощи ChatGPT.
В своем 143-страничном постановлении окружной судья Коллин Макмэхон постановила, что действия DOGE противоречат Конституции США. Суд установил, что ведомство занималось систематической дискриминацией, отфильтровывая заявки по критериям расовой принадлежности, национальности, вероисповедания и сексуальной ориентации.
Разбирательство стало следствием коллективного иска, поданного гуманитарными организациями против DOGE и Национального фонда гуманитарных наук (NEH). В ходе процесса выяснилось, что сотрудники DOGE задействовали ИИ для анализа кратких содержаний грантовых заявок, чтобы выявить соответствие повестке DEI — вопросам разнообразия, равенства и инклюзивности.
Согласно материалам дела, сотрудник DOGE Джастин Фокс делегировал анализ ChatGPT, используя шаблонные запросы на предмет связи проектов с DEI. При этом Фокс признал в суде, что не задавал системе четких критериев определения DEI и не имел представления о методах интерпретации данных самой нейросетью.
Параллельно с ИИ, DOGE применяла систему «кодов обнаружения» (Detection Codes) — набор триггерных слов, включая BIPOC, minorities, tribal, indigenous, immigrant, LGBTQ, homosexual и gay. Эти термины служили автоматическими маркерами для классификации грантов как «спорных» или «нецелевого использования средств».

Суд акцентировал внимание на том, что под запрет попали важнейшие исследования, посвященные Холокосту, истории движения за гражданские права, культуре коренных народов, а также образовательные инициативы в сфере климата и традиционных знаний.
Судья Макмэхон подчеркнула, что государственные структуры не имеют права перекладывать ответственность на алгоритмы. В вердикте четко указано: ChatGPT выступал «государственным инструментом», и внедрение технологий искусственного интеллекта не освобождает ведомства от обязанности соблюдать конституционные нормы.
Более того, суд отметил отсутствие доказательств того, что чиновники DOGE проводили хотя бы минимальную верификацию результатов, выдаваемых нейросетью. Фактически, ИИ был превращен в инструмент предвзятой автоматической фильтрации по чувствительным социальным признакам.
Итогом разбирательства стала отмена решения о прекращении финансирования более чем 1400 грантов — суд потребовал возобновить их поддержку. В решении указано на прямое нарушение Первой поправки (защищающей свободу слова) и Пятой поправки (гарантирующей равную защиту закона) Конституции США.
Этот кейс претендует на статус важнейшего прецедента в области применения генеративного ИИ в государственном управлении. Судебная инстанция подтвердила: госорганы несут безусловную ответственность за все решения, принятые с использованием технологий искусственного интеллекта.
На фоне активной цифровизации госсектора данное постановление усиливает общественный и правовой запрос на прозрачность и этический контроль при внедрении алгоритмов в процессы принятия государственных решений и распределения бюджетных средств.
Последствия этого вердикта, вероятно, выйдут далеко за рамки сферы гуманитарных грантов, существенно скорректировав практику использования нейросетей в государственном администрировании.
Источник: iXBT


