iPhone и iPad можно будет управлять своими глазами
Apple анонсировала ряд новых функций доступности, которые появятся позже в этом году для владельцев iPhone и iPad. Среди них следует отметить возможность взаимодействия с интерфейсами iOS и iPadOS посредством движения глаз. Компания называет это Eye Tracking, и это система, построенная на основе Dwell Control. Теперь Dwell Control был доступен как часть Accessibility Keyboard в macOS, позволяя пользователям выполнять действия мыши с помощью жестов глазами и головы.
На iPhone и iPad функция Eye Tracking займет несколько секунд для калибровки и будет работать с помощью передней камеры. После включения он позволит пользователям с ограниченными физическими возможностями выполнять жесты пальцем и кнопками движения глаз.
Действия остановки также доступны для гарнитуры Vision Pro. На дорогой XR машине они входят в состав системы Assistive Touch в настройках специальных возможностей. На компьютерах Mac жесты глазами и головы позволяют щелкать мышью, перетаскивать и опускать и другие основные жесты управления пользовательским интерфейсом.
Для пользователей с недостатками слуха Apple добавляет на iPhone функцию Music Haptics. После активации Taptic Engine, установленного внутри iPhone, будет производить вибрацию синхронно с воспроизведением музыки, используя смесь ритмичных нажатий, плавных вибраций и текстур.
Эта функция уже сертифицирована для миллионов песен в библиотеке Apple Music. Разработчики могут использовать интерфейсы программирования приложений (API), чтобы включить обратную связь доступности на основе вибрации, чтобы сделать свои программы более инклюзивными и функционально полезными для людей с проблемами слуха.
Для людей, имеющих проблемы с речи, Apple добавляет несколько новых функций к своим телефонам и планшетам. Первый – Atypical Speech, который полагается на машинное обучение для определения уникальной языковой подписи человека, чтобы помочь ему выполнять задания с помощью голосовых команд.
Далее на очереди – Vocal Shortcuts. Это позволяет пользователям записывать собственные аудиосигналы, а затем назначать их в качестве ярлыков для различных задач на устройствах, которые могут быть одношаговыми или многошаговыми по своей природе. Apple говорит, что эти функции были «разработаны для пользователей с хроническими или прогрессирующими заболеваниями, влияющими на язык, такими как церебральный паралич, боковой амиотрофический склероз (БАС) или инсульт».
Еще одна связанная функция – персональный голос. Люди, которым трудно произносить или читать длинные предложения, могут создать личный голос, используя более короткие фразы.
Apple также разработала функцию оздоровления, учитывающую укачивание в условиях транспортного средства. Функция, о которой идет речь, называется Vehicle Motion Cues, и после ее включения на экране будут отображаться анимированные точки динамически согласующиеся с направлением движения автомобиля. Идея заключается в том, чтобы снизить сенсорный конфликт, чтобы пользователям было легче читать содержимое на экране.
Зарегистрируйтесь, чтобы оставлять комментарии
Вход
Заходите через социальные сети
FacebookTwitter