Система блокирует пользователей и выдаёт им предупреждения, анализируя текстовый чат.
В конце октября киберспортивная компания FACEIT представила искусственный интеллект под названием Minerva, созданный для борьбы с токсичностью и спамом.
ИИ-модератора разработали совместно с Google Cloud и Jigsaw. Его несколько месяцев тренировали при помощи машинного обучения, и запустили в тестовом режиме в конце августа 2019-го, уже не проверяя большую часть решений, которые выносит система.
Minerva фиксирует нарушения через несколько секунд после окончания матча. Если в сообщениях замечены оскорбления или спам, игрока блокируют или выдают ему соответствующее предупреждение. За повторные нарушения наказания постепенно становятся всё жёстче.
По данным FACEIT, система проанализировала 200 миллионов сообщений за несколько месяцев — из них в 7 миллионах зафиксировали неподобающее поведение и оскорбления.
За первые шесть недель работы ИИ выдал 90 тысяч предупреждений и заблокировал 20 тысяч пользователей. При этом общая частота нарушений упала больше чем на 20% — с 2,3 миллиона в августе до 1,8 миллиона в сентябре.
Число игроков, нарушивших правила поведения хотя бы раз, тоже удалось понизить. Оно упало на 8% — с 247 тысяч в августе до 227 тысяч в сентябре.
По словам сотрудников FACEIT, они собираются развивать Minerva и улучшать алгоритмы по обнаружению токсичности. Компания хочет, чтобы система могла распознавать спам и оскорбления в реальном времени.