Иллюзии и будущее chatGPT, разговор с главным исполнительным директором OpenAI

Русскоязычный Лекс Фридман — ученый и автор подкаста из США, взял интервью у CEO OpenAI.

Иллюзии и будущее chatGPT, разговор с главным исполнительным директором OpenAI

Лекс известен своей работой в области искусственного интеллекта, в частности, его исследования направлены на модели глубокого обучения и компьютерного зрения. В своем подкасте Лекс интервьюирует людей из различных областей, включая ученых, инженеров, предпринимателей и других влиятельных людей, и обсуждает темы, связанные с AI, наукой, технологиями и обществом. Он также занимается преподаванием в MIT, где он ведет курсы по искусственному интеллекту и компьютерному зрению.

Лекс считает, что искусственный интеллект является самым значительным прорывом в истории и может вызвать волнения из-за того, что AI будет широко применяться, а будущий супер-ИИ может уничтожить людей (намеренно или нет). Он берет интервью у выборки влиятельных ученых и фирм, изучает стимулы для создания ИИ во благо и прошлое человечества, чтобы понять, что было сделано хорошо и плохо. Он также беспокоится, что ИИ может разобщать общество.

Интервью №367 продолжительностью 2,5 часа вместе с Сэмом Альтманом, бывшего CEO Y Combinator и текущего CEO OpenAI

GPT сообщает, что модель удивительно реконструирует знания из большого объема данных, хотя требует много усилий для обучения и оптимизации. Однако, благодаря обратной связи от людей, модель стала более удобной и пытается помочь пользователям. Лекс интересуется, есть ли магия в GPT, на что GPT отвечает, что они оценивают модель и понимают ее полное функционирование, но не приписывают нейронкам человеческих качеств, так как они являются просто инструментом.

Модель оценивается на основе различных критериев и метрик, чтобы определить ее эффективность в выполнении задач, на которые она была обучена. Эти метрики могут включать точность, скорость обучения, память и другие показатели. В случае GPT (Generative Pre-trained Transformer) это может быть, например, точность в генерации текста, его связность и естественность. Оценка модели является важной частью ее разработки и постоянно улучшается, чтобы получить более точные и эффективные результаты.

Лекс считает, что для сознания нужен опыт прямого взаимодействия с миром, а не просто данные. Сэм упоминает, что GPT может фэйковать сознание, но для настоящего сознания необходимо больше, чем просто данные. Он считает, что сознание является самым важным субстратом вселенной, но Silicon Valley уже обогнала брахманов в своей религии о симуляции.

Принципы AI alignment (выравнивания искусственного интеллекта) являются совокупностью идей и концепций, которые предлагают общий подход к разработке безопасного и надежного искусственного интеллекта. Они призваны гарантировать, что системы искусственного интеллекта будут действовать в соответствии с целями, заданными людьми, и не причинят вреда людям или обществу в целом.

Принципы AI alignment включают в себя такие идеи, как:

Ясное определение целей искусственного интеллекта: цели, заданные людьми, должны быть ясны и недвусмысленны, чтобы избежать нежелательных последствий.

Безопасность: системы искусственного интеллекта должны быть безопасными и непричиняющими вреда, как в процессе обучения, так и при работе в реальном мире.

Избегание нежелательных последствий: системы искусственного интеллекта должны избегать действий, которые могут привести к нежелательным последствиям, включая вред для людей, общества и окружающей среды.

Обратная связь и контроль: системы искусственного интеллекта должны обеспечивать возможность обратной связи и контроля со стороны людей, чтобы предотвратить нежелательные действия.

Прозрачность: системы искусственного интеллекта должны быть прозрачными и понятными для людей, чтобы обеспечить легкость анализа и контроля их действий.

Эти принципы пытаются предостеречь от возможных нежелательных последствий, связанных с использованием систем искусственного интеллекта, и направлены на создание безопасных и надежных систем, которые будут действовать в интересах общества и людей.

Ниже небольшая выдержка интервью и мнения Сэма Альтмана




OpenAI начали предоставлять людям доступ к модели GPT и проверять ее на соответствие принципам AI alignment, но до сих пор многие не понимают, как она работает. Люди считают, что компьютеры — это инструменты для творческого партнерства, усилители, а не создатели. Мы очень стараемся, но если задать GPT один и тот же вопрос 10 тысяч раз, большинство ответов будут верными, но несколько могут быть неверными, и их могут использовать для создания сенсационных заголовков на Twitter. Люди должны просто привыкнуть к тому, как работают модели.

Юдковский высказал опасения по поводу развития и использования искусственного интеллекта, считая, что возможность создания общего искусственного интеллекта (AGI) может стать угрозой для человечества, если его разработка не будет сопровождаться активными мерами по обеспечению безопасности и этичности. Он также подчеркнул, что существуют технические и философские проблемы, которые необходимо решить, чтобы обеспечить AI alignment (согласованность искусственного интеллекта с ценностями и интересами человечества).

Кроме того, Юдковский высказывал беспокойство о возможном неравенстве в доступе к преимуществам, которые может принести искусственный интеллект, между различными странами и социальными группами, а также об опасности использования AI для автоматизации работы и увольнения людей без соответствующей замены трудовыми местами.

Что касается опасений по поводу ИИ, на самом деле он даст миру изобилие и счастливых людей, и мы найдем удивительные способы, которыми люди смогут чувствовать себя полезными в невообразимых ранее сферах. Сэм понимает опасения, высказанные Юдковским, но мир должен обновляться, а не оставаться в прошлом, когда философия об ИИ была придумана еще до появления глубокого обучения.

Маск очень беспокоится о безопасности общего ИИ, но почему он критикует нас? Мы очень стараемся. Лучше бы он вспомнил, как критиковали SpaceX в начале.

Сэм Альтман

Что касается «экспонент», то Сэм скорее поддерживает плавный подъем ИИ — так все мы успеем во всем разобраться. В конечном итоге ИИ будет открытым исходным кодом, а страны будут играть с законами.

Что касается конкуренции с технологическими гигантами, то OpenAI просто является лабораторией, прибыль ограничена (но сотрудники имеют возможность получить выгоду).

OpenAI была создана как некоммерческая организация с участием Маска, Альтмана и Сутскевера

Подписывайтесь на tg-канал, где больше информации

 

Источник

Читайте также