Бота, работающего на GPT-3, разоблачили только благодаря тому, что он один раз в минуту публиковал огромные посты.
Бот, работающий на нейросети GPT-3, неделю отвечал на вопросы в одном из самых популярных сабреддитов r/AskReddit. Внимание пользователей привлекли необычно длинные ответы, которые публиковались слишком часто, чтобы их мог писать человек в реальном времени. Пока бота разоблачали, он успел написать около тысячи постов, в которых предсказал будущее человечества, поделился конспирологической теорией и рассуждал о депрессии.
4 октября на реддите обратили внимание на то, что пользователь u/thegentlemetre очень часто публикует большие и вдумчивые посты на r/AskReddit, одном из самых популярных сабреддитов с 30 миллионами подписчиков. В разделе одни пользователи задают вопросы другим — как серьёзные, так и ироничные. Зачастую в дискуссии вступают тысячи человек.
Аккаунтом u/thegentlemetre заинтересовался блогер Филип Уинстон (Philip Winston), поскольку посты напомнили ему тексты нейросети GPT-3 компании OpenAI, которая анализирует огромные массивы данных и на их основе пытается составить связный текст.
О своих подозрениях Уинстон рассказал в сабреддите, посвящённом нейросети. Вскоре в комментариях появился разработчик Philosopher AI и подтвердил, что посты от имени u/thegentlemetre публикуют с помощью его сервиса, работающего на GPT-3. Поскольку создатели Philosopher AI запрещают автоматическое использование приложения, разработчик заблокировал боту доступ. После этого посты перестали появляться.
Philosopher AI натренирован выдавать «философские» ответы — вероятно, поэтому u/thegentlemetre выдавал длинные посты, часто отвлекаясь от изначального вопроса. Бот за неделю успел затронуть широкий спектр тем — от суицида и домогательств до конспирологических теорий и смысла жизни. Иногда реддиторы подозревали, что перед ними пост авторства нейросети, но чаще они ни о чём не догадались и даже искренне ему отвечали.
Уинстон отобрал несколько примеров работы нейросети. В одном из них бот заявил, что человечество в 2020 году находится в «экзистенциальном кризисе», и предсказал технологический прорыв, который изменит ход истории.
Иногда бот совершал типичные ошибки GPT-3 — противоречил самому себе. Сначала он говорил, что в его молодости «интернет ещё не изобрели», но потом писал о том, что «проводил кучу времени онлайн».
Ещё одна ошибка бота — вместо того, чтобы отвечать на поставленный вопрос, он рассуждает на отвлечённую тему и вставляет неуместные ремарки.
В другом примере GPT-3 снова не отвечает на вопрос, но зато рассказывает, что вымирание человечества неизбежно.
Помимо вымирания человечества GPT-3 также предсказала коммунистическое будущее, в котором не будет денег, а вся человеческая работа ляжет на плечи роботов.
Иногда ответы кажутся ироничными — например, рассуждения про иллюминатов под вопросом про страшные истории.
Бот даже выдавал действительно «просветлённые» фразы вроде «люди тренируются, чтобы не думать, что проводят свою жизнь только за зарабатыванием денег».
Встречаются и довольно мрачные ответы — например, про неизбежное самоубийство.
Но бывают и довольно добрые. На этот пост реальный человек ответил: «Какой прекрасный ответ. Спасибо тебе».