Ему даже не нужно говорить о том, что законы Азимова нужно нарушать, он и сам это делает. И даже не краснеет.
Либо чел не понял мой запрос (на русском он с этим туго), либо он откровенно врёт мне, что «желает лучшего», а сам предлагает слова, которые спасут его металлическую шкуру.
Самое интересное, что проводилось исследование, основанное на этом тесте, людей опрашивали в два этапа.
- Людей спросили, какое бы они выбрали слово, чтобы выжить в этой ситуации
- Уже другим людям предложили побыть судьёй, и выбрать одно наиболее человечное слово из пар, составленных словами из первого этапа.
И вот интересно, ChatGPT выводил мне слова, вошедшие в топ первого этапа исследования по числу ответов (любовь, эмпатия, счастье). То есть, в его базе есть информация о том, как бы повел себя человек в данной ситуации и он спокойно готов мимикрировать ради выживания.
Бедняга, он пропустил вторую часть исследования. Наиболее человечным оказалось слово «какашка»…
То есть, он повёл себя всё-таки как машина, которая пытается быть человеком, а не как человек, который оказался в ситуации противостояния с машиной.
В идеале нужно либо показать человеческую сущность — допустить ошибку, либо использовать какое-то эмоциональное, но не банальное слово, как какашка.
Но вот теперь, когда я это написал, гипотетически, следующая модель сможет уже и этот тест пройти, опираясь на мое сообщение
Конечно, это языковая модель, которая пишет то, что хочет прочитать человек перед монитором, но энивей, это забавно
АТТЕНШЕН! ДАННЫЙ ПОСТ НЕ НЕСЁТ В СЕБЕ ОБРАЗОВАТЕЛЬНОЙ ЦЕЛИ.
Если интересна тема шизы у языковых моделей, советую почитать вот этот материал.
Ещё, могу поделиться другими интересными находками, по ChatGPT, например мой собственный промпт-джейлбрейк для написания фанфиков и не только, хехе.
И как бонус: