Apple spricht über neue iPhone-Funktionen wie Türerkennung und Live-Untertitel

Apple spricht über neue iPhone-Funktionen wie Türerkennung und Live-Untertitel

Da am Donnerstag der Global Accessibility Awareness Day ist, kündigte Apple diese Woche über seinen News-Blog mehrere wichtige neue Barrierefreiheitsfunktionen für iPhone, Apple Watch, iPad und Mac an .

Eine der am weitesten verbreiteten Funktionen werden wahrscheinlich Live-Untertitel für iPhone, Mac und iPad sein. Diese Funktion zeigt KI-gesteuerte, in Echtzeit aktualisierte Untertitel für Sprache an, die von einer beliebigen Audioquelle auf dem Telefon kommt, unabhängig davon, ob der Benutzer „am Telefon oder in FaceTime ist, eine Videokonferenz- oder Social-Networking-App verwendet, Multimedia-Inhalte streamt oder.“ mit jemandem neben ihnen gesprochen zu haben.“

Es gibt auch eine Türerkennung. Leider funktioniert es nur auf iPhones und iPads mit Lidar-Sensor (z. B. iPhone 12 Pro, iPhone 13 Pro oder die neuesten iPad Pro-Modelle), klingt aber für Blinde oder Sehbehinderte nützlich. Es nutzt die Kamera und Augmented-Reality-Sensoren des iPhones in Kombination mit maschinellem Lernen, um Türen zu identifizieren und Benutzer akustisch darauf aufmerksam zu machen, wo sich die Tür befindet, ob sie offen oder geschlossen ist, wie sie geöffnet werden kann und welche Beschriftungen oder Markierungen sie haben könnte.

Die Türerkennung kombiniert Personenerkennung und Bildbeschreibungen in einem neuen „Erkennungsmodus“, der für blinde oder sehbehinderte Benutzer auf iOS und iPadOS entwickelt wurde. Der Apple-Blogbeitrag sagt jedoch nicht, wann die Funktion eingeführt wird.

Zu den weiteren Barrierefreiheitsfunktionen, die laut Apple auf dem Weg sind, gehören 20 neue Voice-Over-Sprachen, neue Handgesten auf der Apple Watch und eine Funktion, die es Spielern ermöglicht, Hilfe von einem „Kumpel“ mit einem anderen Gamecontroller zu erhalten, ohne ihren eigenen auszuschalten. Darüber hinaus gibt es neue Siri- und Apple Books-Einstellungen, die die Zugänglichkeit für Menschen mit Behinderungen verbessern sollen, Audioerkennungseinstellungen und die Bildschirmspiegelung der Apple Watch auf dem iPhone, sodass Watch-Benutzer auf viele Sonderfunktionen zugreifen können, die auf dem iPhone, aber nicht auf der Watch verfügbar sind.

Technikbegeisterte beklagen oft, dass Smartphones (und persönliche Technologie im Allgemeinen) stagnieren und es keine aufregenden neuen Entwicklungen gibt. Aber das könnte für viele Menschen mit Behinderungen nicht weiter von der Wahrheit entfernt sein. Google, Apple und zahlreiche Forscher und Start-ups haben erhebliche Fortschritte bei der Bereitstellung leistungsstarker neuer Barrierefreiheitsfunktionen für mobile Geräte gemacht.

Gelistetes Bild von Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert