Будучи нейробиологом, я посвятила годы изучению взаимодействия искусственного и человеческого интеллекта. Мои открытия оказались неожиданными: кажется, мы фокусируемся совсем не на тех угрозах, которые действительно стоят перед нами.
Что превосходит другого: человек или алгоритм?
На протяжении трёх десятилетий моей карьеры в области ИИ этот вопрос оставался краеугольным камнем всех дискуссий.
Нас приучили к определенному нарративу: нейросети возьмут на себя рутину — анализ данных, подготовку черновиков и скучные вычисления, — а мы оставим за собой всё по-настоящему ценное: творческий подход, принятие решений и человеческое видение. Однако мои исследования доказывают, что мы изначально задавали неверный вектор и приходили к ложным умозаключениям.
Несколько месяцев назад я организовала эксперимент с участием жителей Сан-Франциско. Каждая группа получила час на составление прогнозов по реальным событиям с платформы Polymarket. Такой подход позволил нам объективно сравнить результаты с «коллективным разумом» тысяч рыночных игроков, движимых финансовым интересом. Мы тестировали работу ИИ в одиночку, чисто человеческие команды и гибридные связки «человек плюс нейросеть».
Люди, полагавшиеся исключительно на интуицию или утреннюю новостную повестку, сработали слабо. Большие языковые модели — ChatGPT и Gemini — показали себя ощутимо лучше, но всё же не смогли догнать рынок.
Самое интересное началось в гибридных командах.
Большинство таких групп использовали ИИ лишь как генератор готовых ответов, выдавая их за свои собственные, — их результаты не отличались от работы одного лишь алгоритма. Другие же, напротив, транслировали ИИ свои прогнозы, ожидая подтверждения. Эти «валидаторы» попали в ловушку предвзятости подтверждения: чат-боты, стремясь быть полезными, просто подыгрывали пользователям. В итоге такие команды справлялись даже хуже, чем ИИ в одиночку.
И лишь в 5–10 % случаев происходило нечто иное. Нейросеть становилась полноценным спарринг-партнером. Люди вступали в интеллектуальную конфронтацию, требовали обоснований и ставили под сомнение любые выводы. Когда ИИ демонстрировал излишнюю самоуверенность, его «проверяли на прочность». Когда люди уповали на собственное чутье, они заставляли ИИ искать контраргументы.
Такие гибриды превращались в своего рода «киборгов».
Эти команды рождали глубокие идеи, недоступные ни человеку, ни машине по отдельности. Они стали единственными, кто стабильно конкурировал с рыночными прогнозами по точности, а порой и опережал их.
Секрет был не в выдающихся когнитивных способностях участников, а в двух фундаментальных качествах: способности к децентрации (умению принять иную точку зрения) и интеллектуальной скромности.
Децентрация — это не просто терпимость к чужому мнению, а способность глубоко проникнуть в его логику. Интеллектуальная скромность — это готовность признать границы собственного невежества и выдержать этот дискомфорт, вместо того чтобы поспешно заполнять пустоту псевдознанием.
По сути, это эмоциональные компетенции. Для децентрации нужен искренний интерес к чужой мысли. Для интеллектуальной скромности требуется эмоциональная смелость: не бояться выглядеть растерянным или «глупым» перед лицом чьей-то уверенной, но не всегда верной позиции.
Мы привыкли обесценивать такие навыки, отдавая предпочтение решительности и скорости. Мы создаем ИИ-инструменты, которые стремятся избавить нас от малейшего дискомфорта неопределенности.
Мой эксперимент показал: важны именно те качества, которые вызывают внутреннее сопротивление. Способность публично признать ошибку, сохраняя любопытство. Готовность отложить смартфон и самостоятельно обдумать сложный вопрос, а не получить ответ за три секунды. Умение прочитать авторитетно изложенный текст ИИ и критически спросить: «А что здесь упущено?». Соглашаться не с тем, что звучит уверенно, а с тем, что подтверждается фактами.
Эти способности не развиваются в зоне комфорта. Они крепнут, когда мы намеренно выбираем сложность: студент, который глубоко прорабатывает задачу до проверки ответа; человек, который продолжает углубляться в диалог; читатель, который позволяет сложной мысли трансформировать свои убеждения. Сейчас же чат-боты, выдавая максимально простые ответы, незаметно атрофируют наше критическое мышление.
Я называю это «парадоксом информационной доступности». Стремительное удешевление информации разрушает навыки исследования. Мы видим, как студенты при помощи ИИ решают задачи быстрее, но теряют навыки самостоятельной работы. Как программисты генерируют больше кода, но хуже понимают его логику. Это выглядит как прогресс, но на деле мы оптимизируем себя до полной потери продуктивности.
Меня беспокоит именно этот скрытый процесс. Не антиутопический захват власти машинами, а постепенное, незаметное делегирование нашего мышления алгоритмам.
Со временем общество может разделиться на две группы: тех, кто использует ИИ как интеллектуального союзника для оттачивания своего разума, и тех, кто совершенствуется лишь в поиске быстрых решений, разучившись задавать правильные вопросы.
Что же делать каждому из нас?
Перестаньте воспринимать ИИ как инструмент для экономии времени. Рассматривайте его как эрудированного соавтора для исследования неопределенности. Не поручайте ему всю скучную работу — используйте его, чтобы увидеть то, что вы упускаете.
На практике: прежде чем принять ответ ИИ, попросите его привести самый убедительный аргумент против его собственной позиции. Если модель уходит от ответа, знайте — именно здесь кроется самая важная неопределенность. Общайтесь с ней как с блестящим эрудитом, который все прочитал, но не всегда понимает суть — пользуйтесь тем, что он мыслит иначе, чем вы, а не тем, что он с вами согласен.
В разработке ИИ пора задаться вопросом: развивает ли продукт человеческий потенциал или истощает его? Нам критически нужны тесты для измерения эффективности именно гибридного интеллекта. Ошибки — это стимул для обучения мозга. ИИ, который берет на себя все трудности, лишает нас самой возможности стать умнее.
Хорошая новость в том, что любознательность, интеллектуальная скромность и способность смотреть на мир с разных сторон — это не врожденные черты. Их можно развивать практикой и правильной средой.
Но это требует осознанного выбора — от каждого из нас, от педагогов и от разработчиков. В глобальной гонке между человеческим потенциалом и его угасанием ставки еще никогда не были такими высокими.

