После нескольких довольно странных инцидентов с чат-ботом от Microsoft по имени Tay, который превратил Twitter в пристанище сексизма и расизма, разработчики социального сервиса всерьёз озаботились безопасностью своих пользователей. Чтобы в будущем такая ситуация больше никогда не повторилась (ведь чат-ботов с каждым днём становится всё больше и больше), Twitter запустит алгоритм проверки всех аккаунтов, работающих благодаря искусственному интеллекту, на их «адекватность».
Способы проверки чат-ботов в социальной сети будут варьироваться от довольно обычных до не совсем гуманных — всё будет зависеть от того, как ИИ успел проявить себя в Twitter. Примечательно, что самым спокойным ботам достанется больше всех — компания собирается проводить своего рода стресс-тесты, отправляя «добрым» ботам твиты с оскорбительным содержанием. В частности, обещают присутствие расистских выпадок, нецензурных высказываний в сторону феминисток и много чего ещё. В общем и целом, Twitter собирается вывести абсолютно каждого бота на чистую воду, но больше всех пострадают невинные.
Такая методика компании может показаться довольно радикальной, но Twitter оправдывает алгоритм тем, что более эффективного метода для борьбы с ботами, несущими негатив в массы, найти не удалось. Тем не менее, если система допустит ошибку и случайно перепутает аккаунты человека и ИИ, то последствия могут быть очень и очень плачевными.
Источник: