top of page
  • Foto do escritorFernando Cunha JR

Detecção de mão e corpo no iOS 14 dá novas maneiras de interagir com o iPhone sem tocar na tela

WWDC20: com o iOS 14 e o macOS Big Sur, os desenvolvedores poderão adicionar um recurso para detectar poses de corpo e mãos em fotos e vídeos para seus aplicativos usando a estrutura vision atualizada da Apple.


Como explicado na WWDC 2020, essa funcionalidade permitirá que os aplicativos analisem as poses, movimentos e gestos das pessoas, permitindo uma grande variedade de recursos potenciais.


A Apple apresentou alguns exemplos, incluindo um aplicativo de fitness que poderia rastrear automaticamente o exercício que um usuário realiza, um aplicativo de treinamento de segurança que poderia ajudar os funcionários a usar ergonomia correta e um aplicativo de edição de mídia que poderia encontrar fotos ou vídeos com base na semelhança de pose.


A detecção de pose manual, em particular, promete oferecer uma nova forma de interação com aplicativos. A demonstração da Apple mostrou uma pessoa segurando o polegar e o dedo indicador juntos e, em seguida, sendo capaz de desenhar em um aplicativo para iPhone sem tocar no display.


Além disso, os aplicativos poderiam usar a estrutura para sobrepor emojis ou gráficos nas mãos de um usuário que espelham o gesto específico, como um sinal de paz.



Outro exemplo é um aplicativo de câmera que aciona automaticamente a captura de fotos quando detecta o usuário fazendo um gesto específico de mão no ar.


A estrutura é capaz de detectar múltiplas mãos ou corpos em uma cena, mas os algoritmos podem não funcionar tão bem com pessoas que estão usando luvas, curvadas, viradas de cabeça para baixo ou usando roupas transbordantes ou semelhantes a mantos.


O algoritmo também pode ter dificuldades se uma pessoa estiver perto da borda da tela ou parcialmente obstruída.


Funcionalidades semelhantes já estão disponíveis através do ARKit, mas são limitada a sessões de realidade aumentada e só funcionam com a câmera traseira, em modelos compatíveis, no iPhone e iPad. Com a estrutura Vision atualizada, os desenvolvedores têm muito mais possibilidades.


Leia também:



Fonte/Imagens: MacRumors

25/06/2020 - 17h33

bottom of page