Они предназначены для людей с ограниченными возможностями. Компания обещает не собирать голосовые данные пользователей.
- Компания представила функции, которые добавят в предстоящие версии iOS, iPadOS и macOS. Они предназначены для людей с нарушениями зрения, слуха и когнитивных способностей. Функции станут доступны до конца 2023 года.
- На всех устройствах Apple появится функция Live Speech («Живая Речь»). Пользователи смогут набирать текст сообщения во время звонка по Face Time или личного разговора, а система его озвучит.
- Для тех, кто рискует потерять способность разговаривать из-за болезни, будет работать функция Personal Voice («Персональный голос»), которая синтезирует речь на основе голоса пользователя. Для создания «копии» голоса нужно в течение 15 минут зачитывать в микрофон специальные подсказки. Функция работает на основе алгоритмов машинного обучения и интегрируется с «Живой речью»: для озвучивания текста можно будет использовать собственный голос.
- На начальном этапе функция будет работать только с английским языком на устройствах с процессорами Apple. Компания утверждает, что не собирает голосовые данные, а все вычисления производятся локально на устройстве.
- На iPhone и iPad появится режим Assistive Access («Вспомогательный доступ»). В нём доступны только основные функции: камера, сообщения, звонки, фотографии и музыка. Текст и иконки приложений при этом увеличены.
- Инструмент «Лупа», который позволяет использовать камеру как увеличительное стекло и помогает слабовидящим распознавать объекты, получит новые функции. Он также сможет подсказывать значение небольших текстовых обозначений на кнопках — например, в лифте или на микроволновке. Устройство определит текст и прочтёт его вслух. Функция будет доступна в том числе на английском, французском, немецком, испанском, китайском, японском и украинском языках.