Tudo sobre Apple
Chips cerebrais são uma grande aposta para mudar a realidade de pessoas com dificuldades de fala e mobilidade. Algumas interfaces podem ser mais invasivas do que outras, pois dependem de cirurgias no crânio, como é o caso da Neuralink. Outras se apoiam em dispositivos eletrônicos baseados em EEG (eletrodos sobre o couro cabeludo), expertise da Cognixion, que acaba de anunciar um novo teste clínico.
Com sede em Santa Bárbara, Califórnia, a startup vai iniciar um estudo que integra a sua interface cérebro-computador baseada em EEG com o Apple Vision Pro. O projeto é particularmente interessante para pessoas com condições como esclerose lateral amiotrófica (ELA), lesão medular (LM), deficiências de fala relacionadas a AVC (exceto afasia) e traumatismo cranioencefálico (TCE).
O objetivo é testar como o hub de biossensores NucleusTM da Cognixion pode criar novas maneiras de comunicação e interação entre indivíduos, utilizando combinações de sinais cerebrais, olhar ou postura da cabeça, sem a necessidade de cirurgia. O foco é garantir comunicação natural e conversacional entre os participantes e suas famílias, cuidadores e comunidades.

“Ao explorar como a tecnologia BCI não invasiva da Cognixion e os aplicativos de IA podem funcionar com os recursos de acessibilidade da Apple, esperamos desbloquear novos níveis de independência e conexão para pessoas que vivem com ELA, lesões na medula espinhal, AVC e lesões cerebrais traumáticas”, disse Andreas Forsland, CEO da Cognixion. “Nosso foco é melhorar vidas hoje, sem a necessidade de cirurgia ou sistemas conectados.”
Combinando inovações
Assim como em todos os produtos Apple, o visionOS conta com diversos recursos de acessibilidade, como AssistiveTouch, Controle de Alavancas, Rastreamento Ocular, Controle de Permanência, Fala ao Vivo. Aproveitando essas ferramentas, o estudo visa avaliar novas formas de interação sem as mãos e sem voz para indivíduos com pouco ou nenhum controle motor voluntário.
A Cognixion também validará casos de uso em aplicações de Realidade Assistida, desde o controle de dispositivos de mobilidade até o acesso a entretenimento, educação e trabalho — tudo por meio de uma interface não invasiva, projetada para independência no mundo real.
“Este estudo visa compreender a experiência do paciente — o que acontece quando recursos avançados de acessibilidade se unem a novos métodos de entrada neural”, disse Chris Ullrich, pesquisador principal do ensaio clínico. “Estamos comprometidos em trabalhar em estreita colaboração com cada participante, aprendendo com suas experiências vividas e traduzindo isso em soluções significativas e prazerosas.”

Leia Mais:
- Paciente com ELA controla iPad pelo pensamento; veja vídeo
- China faz teste de chip cerebral e acirra disputa com EUA
- Sam Altman pode apoiar rival da Neuralink, de Elon Musk
Como participar?
Pessoas interessadas em participar devem entrar em contato com a Cognixion pelo e-mail [email protected] e incluir “Estudo de computação espacial da Cognixion” no assunto. O estudo está previsto para durar até abril de 2026. Mais detalhes estão disponíveis em ClinicalTrials.gov (palavra-chave: Cognixion).
A empresa ressalta que o dispositivo não está disponível para venda e não diagnostica nem trata nenhuma condição médica. Um ensaio clínico complementar após este estudo será feito pela Cognixion com o objetivo de obter a liberação da FDA, nos EUA (órgão semelhante à Anvisa do Brasil).

Por lá, mais de 14 milhões de pessoas vivem com limitações de fala e mobilidade relacionadas a doenças neurológicas, mesmo acordadas e conscientes; a cada ano, quase 1 milhão a mais são diagnosticadas com essas condições. Na avaliação da startup, 750.000 americanos têm acesso limitado a soluções básicas para comunicação oral.