ChatGPT-4, созданный OpenAI, успешно выполнил тест Тьюринга, введя в заблуждение участников в 54% случаев, как сообщают учёные из Калифорнийского университета в Сан-Диего.
Суть теста заключается в том, что если человек не способен отличить ответы компьютера от ответов реального человека, то машина признаётся разумной. В эксперименте приняли участие 500 человек, которым предлагалось беседовать с тремя ИИ и одним человеком. В итоге ChatGPT-4 показал превосходные результаты по сравнению с другими системами, включая предыдущую версию ChatGPT-3.5 и программу 1960-х годов ELIZA.
Учёные подчёркивают, что результаты теста скорее отражают его собственные ограничения, нежели реальный уровень интеллекта ИИ, поскольку тест оценивает степень имитации человеческого общения, а не разумность действий. Тем не менее, если эксперимент будет признан валидным после его рецензирования, это станет первым убедительным свидетельством того, что ИИ может пройти тест Тьюринга.
Стоит отметить, что сам тест Тьюринга подвергается серьёзной критике со стороны многих специалистов. Из-за изменений в общественном восприятии ИИ и технологического прогресса его результаты могут быть не объективными. Исследование всё ещё ожидает независимой экспертизы, и его выводы следует рассматривать с осторожностью.