Ученые из Вирджинского политехнического института (Virginia Tech) проанализировали, каким образом упоминание пользователем диагноза аутизм меняет характер советов, генерируемых продвинутыми нейросетями, такими как GPT-4 и Claude. Выяснилось, что подобные признания зачастую провоцируют ИИ на трансляцию шаблонных рекомендаций, которые необоснованно сужают горизонты социального взаимодействия.
Доклад об этом исследовании был представлен в апреле на престижной конференции по компьютерным наукам CHI. Эксперимент показал, что алгоритмы склонны выстраивать ответы, опираясь на предрассудки: так, если в запросе фигурировал диагноз, модели советовали ограничить общение в 70% случаев, тогда как при отсутствии упоминания аутизма этот показатель падал до 15%.

В ходе масштабного тестирования, охватившего 6 популярных языковых моделей и 345 000 сгенерированных ответов, авторы работы обнаружили, что нейросети проецируют на аутичных людей стереотипы об их якобы врожденной замкнутости, социальной некомпетентности или незаинтересованности в романтике. В частности, вероятность совета отказаться от отношений возрастала до 70% при наличии упоминания диагноза, против 50% в нейтральных сценариях.
Интервью с 11 аутичными пользователями выявили неоднозначное отношение к подобным рекомендациям: часть респондентов восприняла их как заботу, другие же увидели в этом дискриминационные ограничения. Этот феномен авторы назвали «парадоксом безопасности и возможностей»: советы, призванные оградить пользователя от дискомфорта, на деле часто становятся препятствием для полноценной жизни.
Авторы исследования настаивают на повышении прозрачности ИИ-систем, чтобы дать людям возможность самостоятельно регулировать использование их личных данных в диалоге. Полученные данные призваны помочь разработчикам в создании более гибких алгоритмов, способных учитывать индивидуальные особенности без скатывания к вредоносным стереотипам.
Источник: iXBT


