Частота ошибок Google в распознавании речи с 2012 года сократилась более чем на 30 %

Старший научный сотрудник Google Джефф Дин (Jeff Dean) в рамках конференции AI Frontiers Conference в Санта-Кларе, Калифорния, рассказал о том, насколько далеко компании удалось продвинуться в плане улучшения своего программного обеспечения для распознавания речи. В частности, Дин заявил, что частота ошибочных слов в распознавании речи, то есть то, насколько часто Google некорректно транскрибирует слова, снизилась более чем на 30 %. Изначально об этом написала Карисса Белл (Karissa Bell) с сайта Mashable в Twitter, после чего информацию подтвердил представитель Google изданию VentureBeat.

VentureBeat

VentureBeat

Дин связывает такой прогресс с «добавлением нейронных сетей» — систем, которые Google и другие компании используют для работы с технологиями глубокого обучения. Нейронные сети совершенствуются благодаря анализу больших объёмов данных вроде фрагментов речи. Впервые Google начала использовать нейронные сети в своих системах распознавания речи ещё в 2012 году, когда состоялся запуск Android Jelly Bean.

Google нечасто рассказывает о своих достижениях в улучшении этой, без сомнения, важной технологии, использующейся во всё большем количестве продуктов компании, начиная с «умных» колонок Google Home и заканчивая виртуальной клавиатурой Gboard для iOS и Android. Тем не менее, в 2015 году генеральный директор компании Сундар Пичаи (Sundar Pichai) рассказал, что её частота ошибочных слов составляет 8 %.

В августе прошлого года Алекс Асеро (Alex Acero), старший директор голосового помощника Siri компании Apple, рассказал, что частота ошибок Siri сократилось в два раза в рамках всех языков, а во многих случаях даже более чем в два раза. В сентябре 2016 года Microsoft сообщила, что её исследователям удалось достичь показателя частоты ошибочных слов в 6,3 %.

Источник:

google, нейронная сеть, распознавание речи, частота ошибочных слов

Читайте также