Новое исследование: Большие языковые модели не угрожают существованию человечества
Согласно недавнему исследованию, проведенному Университетом Бата и Техническим университетом Дармштадта, крупные языковые модели (такие как ChatGPT) не способны к самостоятельному обучению или приобретению новых умений, что исключает их как экзистенциальную угрозу для людей.
Работа, опубликованная в материалах 62-й ежегодной конференции Ассоциации компьютерной лингвистики (ACL 2024), демонстрирует, что языковые модели имеют лишь поверхностную способность следовать инструкциям и справляться с языковыми задачами, но они не могут осваивать новые навыки без явной инструкции. Это показывает, что данные модели остаются контролируемыми, предсказуемыми и безопасными.
Под руководством профессора Ирины Гуревич из Технического университета Дармштадта в Германии, исследовательская группа провела эксперименты, чтобы проверить способность моделей решать задачи, с которыми они не сталкивались ранее. Результаты показали, что сочетание надлежащего выполнения инструкций и языковых способностей LLM объясняет как их возможности, так и ограничения.
«Общественное мнение о том, что этот тип ИИ представляет угрозу человечеству, мешает повсеместному внедрению и развитию данных технологий, отвлекая внимание от действительных проблем, требующих решения», — сказал доктор Хариш Тайяр Мадабуши, специалист по информатике из Университета Бата и соавтор исследования.
Доктор Тайяр Мадабуши отметил, что опасения по поводу экзистенциальной угрозы от LLM высказываются не только неспециалистами, но и некоторыми ведущими исследователями ИИ по всему миру. Однако тесты показали, что эти модели не способны к сложному мышлению.
«Хотя важно устранить потенциальные злоупотребления ИИ, такие как создание фейковых новостей или мошенничество, преждевременно вводить правила, основываясь на предполагаемых экзистенциальных угрозах», — добавил доктор Тайяр Мадабуши.
Профессор Гуревич подчеркнула, что результаты исследования не означают отсутствие любой угрозы от ИИ. «Мы лишь показываем, что утверждения о сложных мыслительных способностях, связанных с определенными угрозами, не подтверждаются доказательствами и что процесс обучения LLM хорошо контролируем», — сказала она.
Источник: iXBT