A Apple está fazendo testes ousados no campo da acessibilidade ao desenvolver uma tecnologia que permite controlar dispositivos como iPhones, iPads e o óculos de realidade virtual Vision Pro diretamente com o pensamento.
A iniciativa, que envolve o uso de implantes cerebrais, é voltada principalmente para pessoas com mobilidade reduzida nos membros superiores, como pacientes com lesões na medula espinhal ou doenças neurodegenerativas, como a Esclerose Lateral Amiotrófica (ALS).
Como funciona o implante que capta sinais do cérebro
A inovação gira em torno de um implante semelhante a um stent, inserido em um vaso sanguíneo próximo ao córtex motor do cérebro. O dispositivo, chamado de interface cérebro-computador (BCI), capta os sinais neurais associados à intenção de movimento e os transforma em comandos digitais.
Assim, os comandos são interpretados por um recurso já existente nos sistemas da Apple chamado switch control, que permite adicionar novos tipos de entrada para navegação e controle de interface.
Com isso, os sinais cerebrais podem ser traduzidos em ações como selecionar ícones ou iniciar comandos específicos nos dispositivos da marca.
Primeiros testes mostram resultados promissores
Embora a tecnologia ainda esteja em fase de desenvolvimento, os primeiros testes com humanos indicam um futuro promissor para a tecnologia. Um paciente com ALS conseguiu, por meio do implante e do novo software da Apple, interagir com o iPhone e o iPad.
Mais impressionante ainda: ele foi capaz de usar o Apple Vision Pro para viver uma experiência de realidade virtual, observando paisagens montanhosas nos Alpes Suíços. Ele também foi capaz de alimentar o cachorro dele com um alimentador através de uma tecnologia da NVIDIA, como você pode visualizar no vídeo abaixo:
Apesar das conquistas, os testes revelam limitações atuais. O sistema ainda não permite simular o uso de um touchscreen ou o controle preciso de um cursor, como ocorre com um mouse.
Mesmo assim, a aplicação prática já representa um grande avanço para um público estimado em mais de 150 mil pessoas nos Estados Unidos com comprometimentos graves nos membros superiores.
Pela primeira vez, pacientes com mobilidade severamente limitada conseguiram se comunicar com um iPhone apenas com o pensamento. É um salto que redefine os limites da acessibilidade digital
Novo padrão de software será liberado para desenvolvedores
Além do desenvolvimento conjunto com o fabricante do implante, a Apple pretende lançar ainda este ano um padrão de software específico que permitirá a integração da tecnologia com dispositivos da marca.
A expectativa é que a liberação desse padrão para desenvolvedores terceirizados acelere a criação de soluções ainda mais refinadas e adaptáveis a diferentes perfis de usuários.
No entanto, o lançamento comercial da tecnologia ainda deve demorar. A liberação final depende da aprovação da FDA (agência reguladora dos Estados Unidos), o que pode levar alguns anos. Mesmo assim, a Apple se antecipa e reforça seu histórico de pioneirismo em recursos de acessibilidade.
Leia também:
- Apple iOS 19 pode ter gerenciador de bateria por IA
- Justiça determina que Apple aceite apps externos e pagamentos rivais no Brasil
- Apple vai adicionar IA no Safari – e pode romper acordo com Google nas buscas
Histórico de inovação em acessibilidade
A empresa já havia se destacado anteriormente ao lançar, em 2014, um protocolo próprio para integração de aparelhos auditivos ao iPhone, que acabou se tornando referência no setor. Mais recentemente, ampliou seus recursos de acessibilidade com melhorias no leitor Magnifier para macOS e na ferramenta de leitura em Braille.
Uma coisa é certa: com essa nova empreitada no campo da neurotecnologia, a Apple mostra que continua comprometida em criar experiências realmente inclusivas.
Fonte: Synchron

📱 Rumores Apple 2027
Lista de produtos da Apple para 2027 prevê iPhone dobrável e óculos inteligente