Meta’s anunciado Alguns recursos adicionais de acessibilidade e suporte do usuário, incluindo explicadores de áudio nos óculos Ray-Ban, tradução em linguagem de sinais no WhatsApp, desenvolvimentos de interação da pulseira e muito mais.
Primeiro, o lançamento de Meta, da Meta, as descrições expandidas nos óculos Ray-Ban, que ajudarão os usuários a entender melhor seu ambiente.
Como explicado por Meta:
““A partir de hoje, estamos introduzindo a capacidade de personalizar a Meta AI para fornecer respostas detalhadas aos meta-óculos Ray-Ban com base no que está à sua frente. Com esse novo recurso, a Meta AI poderá fornecer respostas mais descritivas quando as pessoas perguntarem sobre seu ambiente. ”
Isso dará às pessoas com visão variável mais opções no entendimento, com os explicadores de áudio alimentados diretamente em seu ouvido, mediante solicitação.
Também poderia tornar os óculos inteligentes da Meta um produto ainda mais popular, para uma gama de usuários em expansão. O Adição de IA sob demanda Ajudou a aumentar as vendas do dispositivo, e esses tipos de funcionalidades de assistência adicional também ampliarão seu público.
A Meta diz que está lançando isso para todos os usuários nos EUA e no Canadá nas próximas semanas, com mercados adicionais a seguir.
“Para começar, vá para a seção Configurações do dispositivo no aplicativo Meta AI e alterne sobre respostas detalhadas sob acessibilidade.”
Meta também adicionando um novo “Chame um voluntário”Recurso na Meta AI, que conectará indivíduos cegos ou de baixa visão a uma rede de voluntários mistosos em tempo real, para fornecer assistência às tarefas.
Em outra frente, Meta’s também apontou para seu trabalho no desenvolvimento de trabalhos em SEMG (Eletromiografia da superfície) interação através de um dispositivo de pulseiraque usa sinais eletromagnéticos do seu corpo facilita a interação digital.
A Meta está trabalhando na funcionalidade controlada pelo pulso para seus óculos AR, e isso também permitirá maior acessibilidade.
A Meta diz que está atualmente em processo de construção de seus avanços com seu dispositivo de interação no pulso:
““Em abril, concluímos a coleta de dados com uma organização de pesquisa clínica (CRO) para avaliar a capacidade de pessoas com tremores manuais (devido ao Parkinson’s e Tremor essencial) de usar modelos baseados em SEMG para controles de computador (como deslizar e clicar) e para a caligrafia baseada em SEMG. Nós também temos um Colaboração de pesquisa ativa com a Universidade Carnegie Mellon Para permitir que as pessoas com paralisia manual devido a lesão na medula espinhal use controles baseados em SEMG para interações humano-computador. Esses indivíduos mantêm muito poucos sinais motores, e eles podem ser detectados por nossa tecnologia de alta resolução. Somos capazes de ensinar as pessoas a usar rapidamente esses sinais, facilitando o HCI já o primeiro dia do uso do sistema.”
As aplicações para isso podem ser significativas, e o Meta’s Progress no desenvolvimento de dispositivos de interação de pulseira aprimorados que poderiam permitir a interação direta com o movimento limitado.
Finalmente, a Meta’s também apontou para o uso em evolução de seus modelos de IA para novos recursos de assistência, incluindo “Sign-Speak”, desenvolvido por um fornecedor de terceiros, que permite que os usuários do WhatsApp traduzam seu discurso em linguagem de sinais (e vice-versa) com clipes de vídeo gerados pela AI.
Isso pode acabar sendo outro adiantamento para uma conexão aprimorada, facilitando mais engajamento entre usuários de maneira diferente.
Alguns projetos valiosos, com implicações de amplo alcance.
Você pode ler mais sobre os últimos avanços de acessibilidade do Meta aqui.