19 de novembro de 2017

Cadeira de rodas é controlada por expressões faciais

Projeto apoiado pelo programa PIPE-FAPESP pretende adaptar a tecnologia, ainda experimental e de alto custo, para torná-la mais acessível e colocá-la no mercado (Imagem: Divulgação)
Projeto apoiado pelo programa PIPE-FAPESP pretende adaptar a tecnologia, ainda experimental e de alto custo, para torná-la mais acessível e colocá-la no mercado (Imagem: Divulgação)

por Karina Toledo | Agência Fapesp

Uma cadeira de rodas que pode ser controlada por pequenos movimentos da face, da cabeça ou da íris foi desenvolvida por pesquisadores da Faculdade de Engenharia Elétrica e de Computação da Universidade Estadual de Campinas (FEEC/Unicamp).

O equipamento ainda é considerado experimental e de alto custo. Porém, um projeto aprovado recentemente pelo Programa Pesquisa Inovativa em Pequenas Empresas (PIPE), da FAPESP, tem como objetivo adaptar a tecnologia para torná-la mais acessível e colocá-la no mercado brasileiro dentro de dois anos.

“Nosso objetivo é que o produto final custe no máximo o dobro de uma cadeira motorizada comum, dessas que são controladas por joystick e hoje custam em torno de R$ 7 mil”, disse o professor da FEEC/Unicamp Eleri Cardozo, que apresentou resultados da pesquisa durante o 3rd BRAINN Congress, realizado em Campinas de 11 a 13 de abril de 2016.

Segundo Cardozo, a tecnologia poderá beneficiar pessoas com tetraplegia, vítimas de acidente vascular cerebral (AVC), portadores de esclerose lateral amiotrófica ou outras condições de saúde que impedem o movimento preciso das mãos.

O trabalho, iniciado em 2011, contou inicialmente com apoio da Financiadora de Estudos e Projetos (Finep) e hoje é desenvolvido no âmbito do Instituto de Pesquisa sobre Neurociências e Neurotecnologia (BRAINN), um Centro de Pesquisa, Inovação e Difusão (CEPID) apoiado pela FAPESP.

“Nosso grupo estudava técnicas de interface cérebro-computador (BCI, na sigla em inglês, métodos de aquisição e processamento de sinais que permitem a comunicação entre o cérebro e um dispositivo externo) e achamos que seria interessante avaliar a tecnologia em uma situação real”, contou Cardozo.

O grupo então adquiriu uma cadeira motorizada convencional, retirou o joystick e a equipou com diversos dispositivos normalmente encontrados em robôs, como sensores capazes de medir a distância de paredes e de outros objetos ou detectar diferenças de profundidade no piso.

O protótipo também foi equipado com um notebook que envia os comandos diretamente para a cadeira e com uma câmera 3D com a tecnologia RealSense, da Intel, que permite interagir com o computador por meio de expressões faciais ou movimentos corporais.

“A câmera identifica mais de 70 pontos da face – em torno da boca, do nariz e dos olhos – e, a partir da movimentação desses pontos, é possível extrair comandos simples, como ir para frente, para trás, para a esquerda ou direita e, o mais importante, parar”, explicou Cardozo.

Também é possível interagir com o computador por meio de comandos de voz, mas essa tecnologia é considerada menos confiável que as expressões faciais por causa das diferenças de timbre e da possível interferência de ruído ambiente.

“Essas limitações podem ser contornadas com a definição de um número reduzido de comandos e com uma função de treinamento incorporada ao software que otimiza a identificação dos comandos para um usuário específico”, disse Cardozo.

Pensando em pacientes com quadros ainda mais graves – que impedem até mesmo a movimentação facial – o grupo também trabalha em uma tecnologia de BCI que permite extrair sinais diretamente do cérebro, por meio de eletrodos externos, e transformá-los em comandos. O equipamento, no entanto, ainda não está embarcado na cadeira robotizada.

“Fizemos demonstrações em que uma pessoa fica sentada na cadeira e outra sentada próximo a uma mesa usando o capacete com os eletrodos e controlando a cadeira. Antes de embarcar o equipamento de BCI na cadeira precisamos solucionar algumas limitações, como a alimentação de energia. Ainda é uma tecnologia muito cara, mas está saindo uma nova geração de baixo custo, na qual o capacete pode ser impresso em 3D”, disse Cardozo.

A cadeira também foi equipada como uma antena wifi que permite a um cuidador dirigir o equipamento remotamente, pela internet. “Essas interfaces exigem do usuário um nível de concentração que pode ser cansativo. Por isso, se houver necessidade, a qualquer momento outra pessoa pode assumir o comando da cadeira”, contou Cardozo.

Startup

Dentre as metodologias já testadas pela equipe da Unicamp, a interface baseada em captura e processamento de expressões faciais tem se mostrado a mais promissora no curto prazo e, portanto, será o foco do projeto desenvolvido no âmbito do programa PIPE sob a coordenação do pesquisador Paulo Gurgel Pinheiro. Para isso, o grupo criou a startup HOO.BOX Robotics.

“A empresa é um spin-off do meu pós-doutorado, cujo objetivo era desenvolver interfaces para dirigir uma cadeira de rodas com o mínimo de esforço possível do usuário. Inicialmente testamos sensores capazes de captar contrações dos músculos da face, depois evoluímos para tecnologias de imagem capazes de captar expressões faciais sem a necessidade de sensores”, contou Pinheiro.

Em vez de criar uma cadeira robotizada, como é o caso do protótipo da Unicamp, o grupo pretende, para reduzir o custo, desenvolver um software e uma minigarra mecânica que poderiam ser implantados em qualquer cadeira motorizada com joystick já existente no mercado.

“Nossa ideia é que o usuário possa baixar o software que fará o processamento das expressões faciais em seu notebook. O computador ficará conectado a essa minigarra por meio de uma porta USB. Quando ele fizer as expressões-chave, como um beijo, um meio sorriso, franzir o nariz, inflar as bochechas ou levantar as sobrancelhas, o software manda o comando para a garra e essa movimenta o joystick. Dessa forma, não mexemos na estrutura da cadeira e ela não perde a garantia”, explicou Pinheiro.

O pesquisador estima que um protótipo do sistema, batizado de Wheelie, estará pronto até o início de 2017. Dois desafios deverão ser vencidos nesse período: melhorar a classificação das expressões faciais, de modo a evitar que a interpretação dos sinais fique prejudicada por diferenças na iluminação ambiente, e garantir que apenas as expressões faciais do usuário da cadeira sejam capturadas quando houver outras pessoas próximas.

“A tecnologia também poderá, no futuro, ajudar na recuperação de pessoas que sofreram AVC ou outro tipo de lesão cerebral, pois o paciente poderá observar o avanço na realização de movimentos e ficará mais motivado a seguir o tratamento”, disse Pinheiro.

Compartilhe!

Veja mais notícias

error: Conteúdo protegido.