A saját hangunkon szólalna meg az iPhone, új kisegítő lehetőségeken dolgozik az Apple.
A hallással, látással, kognitív készségekkel kapcsolatos kisegítő lehetőségeken dolgozik az Apple. Az egyik ilyen funkció a Live Speech, vagyis élő beszéd, ami lehetővé teszi a némák számára hívások közben, hogy írjanak, amit a telefon beszéddé alakít. A másik a Personal Voice, vagyis személyes hang, ez képessé teszi a telefont, hogy a mi hangunkon szólaljon meg, a harmadik pedig a Detection Mode, ami a vakok és gyengénlátók számára hasznos.
Az Assistive Access, vagyis segített hozzáférés bekapcsolásával a telefon alkalmazásban nagy, könnyebben észrevehető gyorsgombokat kapnak a kontaktok, egy alkalmazásban lesz elérhető a sima telefonálás és a FaceTime is. Az üzenetek alkalmazás egy nagy emoji billentyűzetet kap, a galéria pedig kinagyítja a képek előnézetét. A funkciók iOS-en és iPadOS-en is elérhetőek lesznek.
A Live Speech (élő beszéd) lehetővé teszi, hogy a gyakran használt kifejezéseket elmentsük, hogy hívás közben gyorsan beolvashassa a telefon. A Personal Voice (személyes hang) 15 percnyi hang alapján képes a mi hangunkon megszólani, ehhez tanítani kell a modellt, így a telefon által felajánlott különböző szövegeket kell felolvasnunk a működéséhez.
A gyengén hallóknak újdonság, hogy az iPhone-kompatibilis hallókészülékeket Mac gépeken is használhatják majd.
A gyorsan váltakozó képekre, animációkra érzékenyek megállíthatják majd a GIF-eket az üzenetek alkalmazásban és a Safariban, valamit az is állítható lesz, hogy a Siri milyen gyorsan beszéljen, egészen 0,8-tól 2-szeres sebességig.
Az Apple csak annyit árult el, hogy az év során később érkeznek meg az újdonságok, valószínűleg az iOS és az iPadOS 17-es, valamint a macOS 14-es verziójával. A funkciókat várhatóan a WWDC-n részletesebben bemutatják, ami idén június 5-én kezdődik.