top of page
Foto do escritorRafael de Angeli

iPhone falará na própria voz do usuário no iOS 17, com novos recursos divulgados pela Apple

A Apple apresentou hoje uma ampla gama de novos recursos de acessibilidade para iPhones, iPads e Macs que devem chegar ainda este ano no iOS 17.


A Apple diz que “os novos recursos de software para acessibilidade cognitiva, de fala e visão estão chegando ainda este ano", o que sugere fortemente que eles farão parte do iOS 17, iPadOS 17 e macOS 14. Os novos sistemas operacionais devem ser apresentados na WWDC no início de junho antes dos lançamentos oficiais que devem acontecer em setembro e outubro.


Acesso Assistido


O Assistive Access (Acesso Assistido) inclui uma experiência personalizada para Telefone e FaceTime, que são combinados em um único aplicativo Calls (Chamadas), além de Mensagens, Câmera, Fotos e Música. O recurso oferece uma interface simplificada com botões de alto contraste e grandes rótulos de texto, além de ferramentas para ajudar a personalizar a experiência. Os usuários podem, por exemplo, escolher entre um layout mais visual baseado em grade para a tela inicial e aplicativos ou um layout baseado em linha para usuários que preferem textos.



Fala ao Vivo e Voz Pessoal - Acessibilidade de fala avançada


O Live Speech (Fala ao Vivo) no ‌iPhone‌, ‌iPad‌ e Mac permite que os usuários digitem o que desejam dizer e falem em voz alta durante chamadas telefônicas e ‌FaceTime‌, bem como conversas pessoais. Os usuários também podem salvar frases comumente usadas para entrar em conversas rapidamente.



Usuários em risco de perder a capacidade de falar, como aqueles com diagnóstico recente de Esclerose Lateral Amiotrófica (ELA), podem usar o Personal Voice (Voz Pessoal) para criar uma voz digital que soe como eles. Os usuários simplesmente precisam ler junto com um conjunto aleatório de frases de texto para gravar 15 minutos de áudio em um ‌iPhone‌ ou ‌iPad‌. O recurso usa aprendizado de máquina no dispositivo para manter as informações dos usuários seguras e privadas e se integra ao Fala ao Vivo para que os usuários possam falar com sua própria voz.


Modo de Detecção na Lupa e Apontar e Falar


No aplicativo Magnifier (Lupa), Point and Speak (Apontar e Falar) ajuda os usuários a interagir com objetos físicos que possuem vários rótulos de texto. Ao usar um eletrodoméstico, por exemplo, o Apontar e Falar combina a entrada do aplicativo Câmera, o scanner LiDAR e o aprendizado de máquina no dispositivo para anunciar o texto nos botões à medida que os usuários movem o dedo pelo teclado.



Apontar e Falar é integrado ao aplicativo Lupa no ‌iPhone‌ e ‌iPad‌, funciona com o VoiceOver e pode ser usado com outros recursos, como Detecção de Pessoas, Detecção de Portas e Descrições de Imagens para ajudar os usuários a navegar em seu ambiente físico com mais eficiência.


Outras características e recursos

  • Usuários surdos ou com deficiência auditiva podem emparelhar dispositivos auditivos MFi (Made for ‌iPhone)‌ diretamente a um Mac com opções de personalização específicas.

  • O Controle de Voz ganha sugestões fonéticas para edição de texto para que os usuários que digitam com a voz possam escolher a palavra certa entre várias que podem soar semelhantes.

  • O Guia de Controle de Voz ajuda os usuários a aprender dicas e truques sobre o uso de comandos de voz como alternativa ao toque e à digitação.

  • O Controle Assistivo agora pode ser ativado para transformar qualquer switch em um controlador de videogame virtual.

  • O Tamanho do Texto agora é mais fácil de ajustar em aplicativos do Mac, incluindo Finder, Mensagens, Mail, Calendário e Notas.

  • Usuários sensíveis a animações rápidas podem pausar imagens automaticamente com elementos em movimento, como GIFs, no app Mensagens e no Safari.

  • Usuários podem personalizar a velocidade com que a Siri fala com eles, com opções que variam de 0,8x a 2x.

  • Atalhos ganham uma nova ação "Lembre-se disso", ajudando usuários com deficiências cognitivas a criar um diário visual no aplicativo Notas.



Fontes: Apple e MacRumors

16/5/2023 - 21h19

Comments


bottom of page