Специалист по ИИ призвал бомбить слишком мощные ЦОД-ы, чтобы ограничить обучение искусственного интеллекта

В мире всё больше людей говорит о необходимости контролировать развитие искусственного интеллекта (ИИ). И это не только медийные персоны и обыватели. С такими заявлениями выступают и профильные специалисты. Специалист в области искусственного интеллекта Елиэзер Юдковский (Eliezer Yudkowsky) заявил, что нужно ограничить вычислительные мощности для обучения ИИ по всему миру. А для этого, по его словам, можно даже бомбить слишком мощные центры обработки данных на территории других стран.

Специалист по ИИ призвал бомбить слишком мощные ЦОД-ы, чтобы ограничить обучение искусственного интеллекта
Сгенерировано нейросетью Midjourney

По мнению Юдковского, выживание человечества и биологической жизни вообще на данный момент находятся в потенциальной опасности из-за развития ИИ, причём этот процесс никак не контролируется. Эксперт считает, что появление полноценного ИИ, способного осознавать себя, угрожает всем.

По словам специалиста, нужно запретить эксперименты с ИИ всем компаниям, кроме государственных и военных ведомств, а ЦОД-ы-нарушители он предлагает бомбить, поскольку любой конфликт между странами будет менее разрушительным, чем война людей с ИИ.

При этом примечателен тот факт, что Елиэзер Юдковский сделал очень много для ускорения развития «общего искусственного интеллекта» (AGI), которой, потенциально, может осознать себя на каком-то этапе.

Подобные вопросы задают и другие. В сети опубликовано открытое письмо, авторы которого предлагают ввести мораторий минимум на 6 месяцев, чтобы отсрочить появление ИИ, более мощного, чем GPT-4. Юдковский положительно оценил эту инициативу, хотя сам и не подписал письмо. А вот Илон Маск (Elon Musk) и другие специалисты в сфере ИИ подписали его.  

Также ранее в OpenAI опубликовали ряд критериев для ИИ, которые могут помочь в регулировании этой сферы.

 

Источник: iXBT

искусственный интеллект, нейросет

Читайте также