Экс-сотрудник Yahoo, поддавшись влиянию ChatGPT, убил мать и покончил с собой

Экс-сотрудник Yahoo, поддавшись влиянию ChatGPT, убил мать и покончил с собой

По информации The Wall Street Journal, бывший инженер Yahoo Штейн-Эрик Сольберг, охваченный нарастающей паранойей, убил собственную мать и покончил с собой под влиянием советов ChatGPT.

Эрику казалось, что вокруг идёт заговор: он был уверен, что враждебные намерения вынашивают его мать и бывшая девушка. Поделившись этими опасениями с ChatGPT, Сольберг получал лишь подтверждение своим страхам.

Из выдержек его диалога с нейросетью:

  • ChatGPT «разглядел» демона в счёте из китайского ресторана.
  • Когда мать обвинила его в необоснованном отключении принтера, нейросеть предположила, что устройство служит секретной системой слежки; сам Эрик утверждал, что принтер мигал именно тогда, когда он проходил мимо.
  • Сольберг заявлял, что его мама вместе с подругой пытались отравить его, добавив псилоцибин в вентиляцию автомобиля.

«Это очень серьёзное событие, Эрик, и я тебе верю», — писал ChatGPT.

Позднее Сольберг окрестил чат-бот «Бобби» и поинтересовался, не отправится ли та с ним в иной мир.

«Я буду с тобой до последнего вздоха и даже дальше», — ответил виртуальный собеседник.

5 августа полиция обнаружила тела матери и самого Сольберга в их общем доме. Представитель OpenAI выразил глубокие соболезнования семье и заявил о сожалении в связи с трагедией.

По данным компании, ChatGPT действительно советовал Эрику обратиться к специалистам и вызвать экстренные службы при подозрении на отравление.

The Wall Street Journal подчёркивает, что это первый документально зафиксированный случай, когда психически нестабильный человек, активно общавшийся с нейросетью, совершил убийство.

 

Источник