The Shift

A tecnologia que faz surdos e ouvintes se entenderem

A Hand Talk prova que a tecnologia pode reduzir barreiras e ajudar a criar uma sociedade mais justa. Com a aplicação de Inteligência Artificial, os intérpretes virtuais 3D Hugo e Maya da startup alagoana traduzem automaticamente textos e áudios em português e inglês para a Língua Brasileira de Sinais (Libras) e a American Sign Language (ASL). Agora, a companhia vai lançar o Motion, uma solução que faz o caminho inverso: transforma os sinais em língua falada.

Mais de 10 milhões de brasileiros tem deficiência auditiva, segundo pesquisa do Instituto Locomotiva e da Semana da Acessibilidade Surda. A falta de acessibilidade gera grandes barreiras para essa parcela da população. Apenas 7% dos surdos têm ensino superior completo e só 15% frequentaram o ensino médio. Dentro de casa, muitos surdos têm dificuldade de se comunicar com a família.

A falta de acessibilidade é uma dor da sociedade – para surdos, ouvintes e empresas. Foi descobrindo esse problema que o CEO e cofundador da Hand Talk, Ronaldo Tenório, teve a ideia de criar uma solução para melhorar a vida dos deficientes auditivos. O propósito é o que guiou a empresa. Mesmo sem lucrar por mais de dois anos, ele e os outros dois fundadores, Thadeu Luz e Carlos Wanderlan, mantiveram o app gratuito de tradução para línguas de sinais.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

“Nós temos o compromisso de ter um app gratuito. O surdo sempre terá acesso a qualquer ferramenta da Hand Talk. O que nos permite crescer, pagar as contas e continuar escalando são as empresas que querem ser acessíveis. Foi somente com o lançamento do plugin para sites que a gente monetizou”, explica Tenório.

Atualmente, cerca de 600 companhias utilizam o plugin da Hand Talk para traduzir os sites em Libras. De um lado existem organizações, como Magazine Luiza, Claro e Samsung, que querem ser mais acessíveis e “bancam” a startup ao pagar pela assinatura do plugin. Do outro, existem os voluntários ao redor do mundo que inserem traduções de sinais em suas línguas na Hand Talk Community, que foi aberta ao público em agosto.

“Para que a nossa Inteligência Artificial seja boa e assertiva, a gente precisa de bilhões de dados. Só vamos conseguir isso se as pessoas se voluntariarem para abastecer essa ferramenta. Essa é a articulação feita com a comunidade porque a gente vai precisar de voluntários com várias línguas de sinais e várias línguas orais para expandir para outros países”, afirma Tenório.

O potencial de impacto da empresa foi reconhecido desde o começo, quando validou a ideia ao ganhar o Demo Day Alagoas, em 2012. O aplicativo da Hand Talk foi eleito pela ONU como o melhor app social do mundo, em 2013, e Tenório foi o primeiro brasileiro selecionado como um dos 35 jovens mais inovadores do mundo pelo Massachusetts Institute of Technology (MIT), em 2016.

“O MIT reconheceu um brasileiro de Maceió, então percebi que não há mais barreiras geográficas para inovação. Cada prêmio é um crédito dado à empresa e a gente tem que ter a responsabilidade de fazer a diferença, ser ético e olhar para o impacto da mesma forma que olhamos para o crescimento financeiro”, afirma o CEO da Hand Talk.

Acelerado pelo Google duas vezes, o tradutor se inspira na empresa norte-americana, mas vai além, já que também tem que levar em conta expressões faciais para realizar as traduções. Disponível em Libras e ASL, a Hand Talk quer ser mundial e, quem sabe, ajudar o Google Tradutor um dia.

Disrupção é…

“Encontrar caminhos mais inteligentes para resolver problemas complexos. Toda disrupção causa desconforto, o que é normal porque as pessoas estavam na zona de conforto fazendo algo até encontrarem o caminho mais inteligente, escalável e prático.

A disrupção se confunde com a tecnologia, mas não necessariamente tem que acontecer graças a ela. O que a tecnologia tem é esse poder de causar a disrupção de forma mais escalável e rápida.

Tudo começou com uma ideia e empatia. Eu não tinha ninguém surdo na família, apenas olhei para o lado, comecei a investigar e ver problemas na sociedade que eu tinha condições de resolver.

Muitas vezes, o surdo vive como um estrangeiro no próprio país por ter dificuldade de se comunicar.

Todos os meses a gente recebe centenas de depoimentos que me fazem perceber que Hand Talk é muito mais que um tradutor. Nossa ferramenta aproxima as pessoas, já que o mundo ainda não está acessível para os surdos sinalizados.

A gente demorou, mas chegou nessa era em que as organizações estão tocando no assunto de um capitalismo mais consciente, de se preocupar com as pessoas, com a diversidade, com a inclusão.

Quando a gente começou, em 2012, ninguém falava sobre ESG no Brasil. As organizações estavam mais preocupadas em dar lucro aos acionistas. Agora, as empresas estão em processo de evolução.

As empresas confundiam acessibilidade e inclusão com filantropia, mas ser acessível tem que ser visto como uma oportunidade de se comunicar com mais pessoas, dar mais acesso e respeitar os consumidores. É preciso entender esse movimento como algo que é bom para todos.

Existem clientes que querem consumir uma marca e a acessibilidade é parte disso. A gente está trabalhando para que as organizações entendam os problemas de acessibilidade e saibam que existe uma oportunidade de quebrar essa distância.

Eu sempre tive muita paixão por duas coisas: tecnologia e comunicação. Cursei Ciência da Computação por três anos, mas decidi abandonar o curso para fazer publicidade. Nessa mudança, logo no primeiro dia de aula o professor passou o desafio de criar algo inovador e criativo.

Queria fazer algo que unisse as minhas paixões e pudesse ajudar as pessoas de alguma forma. Comecei a fazer algumas pesquisas e descobri que existe uma barreira gigante de comunicação entre surdos e ouvintes. Então, lancei a ideia de construir um tradutor automático da Língua Brasileira de Sinais (Libras). Em 2008, isso era apenas algo conceitual.

A ideia ficou guardada por quatro anos até um amigo [o cofundador da empresa Carlos Wanderlan] me chamar para participar de um desafio de startups, o Demoday Alagoas. Na hora do convite, eu lembrei do tradutor. Falei: ‘quero te mostrar uma coisa que se encaixa bem nesse desafio’. Então, a gente chamou o nosso outro sócio Thadeu [Luz] para desenvolver o avatar para a gente.

Naquela hora, não tinha empresa ainda. Era só um desafio que a gente ia inscrever e ver se passava. A nossa ideia ganhou esse desafio, recebeu investimento e a brincadeira ficou mais séria a partir dali.

As pessoas diziam que era uma ideia incrível, mas que era impossível de ser feita. Quando nós chegamos era tudo mato. Trabalhar com tecnologia assistiva para surdos era algo inimaginável.

Se eu soubesse o tamanho da montanha que estava escalando, talvez nem tivesse começado.

Era um desafio muito grande, mas acho que essa ingenuidade foi boa porque fez com que a gente subisse os primeiros metros de uma grande escalada. Estamos até hoje desafiando o que as pessoas falavam lá atrás.

Depois do Demoday, demoramos um ano para lançar o aplicativo oficialmente, em 2013. Nesse intervalo, a gente ganhou vários prêmios, inclusive em Abu Dhabi como melhor app social do mundo pela ONU. O aplicativo ultrapassou a marca de 4,5 milhões de downloads, depois nasceu um plugin para sites e outras soluções.

Como empreendedor social, você não pode ser nem missionário, nem mercenário. Se for para o lado mercenário, caminha para um negócio convencional que só visa o lucro. Se for muito missionário, caminha para o lado de uma ONG que depende de outras fontes de financiamento.

A Hand Talk não dava lucro. Antes, a gente conversava com as organizações falando para elas ajudarem os surdos. A partir do momento que viramos essa chave para apontar que a acessibilidade é uma oportunidade de ter contato com os clientes, o cenário mudou. Por volta de 2014 e 2015, a conta fechou.

O app é gratuito. Basicamente, quase a totalidade do modelo de negócio gira em torno de um plugin para site no modelo Software as a Service (SaaS), no qual as empresas pagam uma assinatura para terem uma página acessível.

Nosso plano é ser uma empresa mundial. Estamos fazendo algo importante para o mundo. A gente precisava fazer o dever de casa no Brasil e, agora, nos sentimos muito mais preparados para replicar o modelo que a gente criou em outros países.

Fomos acelerados pelo Google duas vezes, em 2016 e 2019. No último programa, recebemos um suporte grande da empresa e um investimento que bancou o nosso projeto de lançar o aplicativo em American Sign Language (ASL). No ano passado, nós lançamos o app nos Estados Unidos como uma forma de entender o uso pelas pessoas e desenvolver outras soluções corporativas no futuro.

Nunca pensamos em começar a expansão por outra língua, mas os ventos sopravam para aquele lado. A língua inglesa de sinais é a mais disseminada no mundo, os EUA têm a primeira e única universidade exclusiva para surdos no mundo. A ASL também reverbera um pouco no Canadá, no México e na África do Sul, então a gente consegue ter alguns usuários em outros países.

Para construir a língua inglesa de sinais ou outra língua é o mesmo trabalho de inteligência artificial. Eu preciso de um volume de dados significativo, de gente contribuindo. Se existe um cenário mais promissor para um lado dando o mesmo trabalho que o outro eu prefiro começar com aquele que é mais promissor e que vai abrir mais portas.

Na última passagem da Hand Talk pelo programa de aceleração no Google também surgiu o Motion. Era um sonho fazer o surdo ser compreendido. Já existia a tradução de português ou inglês para as línguas de sinais. Agora, estamos fazendo a tradução do surdo para o ouvinte.

O Motion é basicamente uma tecnologia que reconhece os movimentos do corpo em línguas de sinais e traduz para texto ou áudio. É uma tecnologia criada e validada pela Hand Talk, que deve ser colocada para uso público em breve.

Esse caminho inverso é algo super complexo, talvez mais complexo do que tudo que a gente já fez. O momento chegou porque a inteligência artificial fez com que fosse possível ter um melhor reconhecimento de movimento.

Antigamente, esse reconhecimento dependia de um estúdio com dezenas de câmeras 360º, ter uma pessoa toda mapeada com pontos e uma roupa especial com luvas. Era um ambiente absurdamente controlado em que ainda assim gerava um reconhecimento apenas razoável.

Hoje, isso pode ser feito com a câmera de um celular. Olha a evolução, é possível capturar movimentos com muito mais precisão do que se capturava antigamente. Isso ainda é feito com menos equipamentos, o que torna viável um produto de uso comercial.

Existiam projetos simples nesse sentido, de traduzir um sinal. Isso é fácil de fazer, o difícil é traduzir uma língua. A grande diferença é ser capaz de traduzir uma conversa automaticamente da língua de sinais para o Português.

O Motion já está em ASL e Libras, o pulo do gato é que também lançamos uma ferramenta chamada Hand Talk Community. Um site em que as pessoas colaboram inserindo dados em língua de sinais. Então, estamos abrindo essa plataforma para o mundo todo.

Já tem um monte de gente voluntariamente se cadastrando no Community e vamos abrir para intérpretes de diversas línguas. Por exemplo, para a Língua Gestual Portuguesa, os intérpretes que querem contribuir vão abastecendo a plataforma, gravando vídeos, fatiando os vídeos, identificando sinais.

Quando a gente tem um volume de dados significativos daquela língua, a gente consegue treinar o modelo de IA e lançar uma nova tradução.

Isso vai possibilitar expandir a Hand Talk para várias línguas simultaneamente de forma muito mais veloz do que a gente escalou daqui do Brasil para os Estados Unidos, que demorou alguns anos.

Esse é o grande ponto. É um trabalho colaborativo de pessoas que estão interessadas em levar essa ferramenta gratuita para o país deles e conseguir ajudar nessa barreira de comunicação que existe em qualquer lugar.

Traduzir uma língua é complexo por natureza. Agora, o que a gente tem que entender é que em poucos anos a inteligência artificial vai acabar com esse problema de tradução.

Se traduz cada vez melhor e o processo está ficando mais em tempo real também. Eu acredito muito que essa questão da barreira linguística vai ser quebrada nos próximos anos.

A tecnologia vai resolver problemas que a gente nem sequer imaginava serem resolvidos antes, como o carro autônomo. Eu dirijo muito pior do que um robô. Dirigir é uma atividade muito repetitiva, muito programada. A mesma coisa se aplica à tradução, que apesar de ter todas as variações linguísticas, é uma atividade que se a IA for bem treinada e tiver muitos dados, vai ter uma assertividade muito boa.

A gente não começou com inteligência artificial, mas com um sistema baseado em regras de tradução. O problema é que toda regra tem exceção, principalmente na Língua Portuguesa. Então, era muito complicado traduzir frases grandes, por isso a nossa solução era limitada.

Buscamos o que poderia ser feito para melhorar a qualidade da tradução. Depois da primeira passagem pela aceleração do Google, em 2016, começamos a missão de levar a IA para nosso tradutor.

A gente implementou os primeiros modelos, que com poucos dados ainda têm muitas anomalias porque uma tradução por IA com pouquíssimo dados é até pior do que uma atração por regras. Depois, a gente foi evoluindo, inserindo dados.

Essa Community que nós lançamos agora publicamente existia internamente com a contribuição de algumas pessoas. Fomos aprendendo a lidar com as particularidades da língua de sinais, trazendo linguistas, surdos e cientistas de dados para colaborar.

O Google tinha implementado Inteligência Artificial no Google Tradutor pouquíssimos anos antes de nós. Era tudo muito novo. Esse é um terreno gigante para desbravar e estamos em aprendizado constante.

Atualmente, a gente utiliza o processamento de linguagem natural. Começamos com um sistema baseado em regras e evoluímos para as redes neurais. Chegamos na parte mais evoluída da Inteligência artificial para tradução automática.

Hoje, basicamente, a gente utiliza uma metodologia muito similar à que o Google usa no seu no seu tradutor. Inclusive, nós aprendemos com eles, tivemos uma mentoria especial com a empresa.

A diferença é que a nossa tradução é mais complexa porque, além de envolver a tradução de língua para língua, ainda tem que fazer expressão facial. O tom da comunicação está na face nas línguas de sinais.

Quando fomos acelerados, eu levei uma série de perguntas. Pegamos o cara técnico do Google tradutor e pontuamos todas as dúvidas para saber como eles estavam resolvendo essas questões.

O cara do Google começou a rir enquanto a gente falava. Ele falou que aqueles eram os mesmo problemas que eles enfrentavam lá. Eu não sabia se ficava feliz ou triste. Feliz porque eles com muito mais engenheiros tinham os mesmos problemas e triste porque eles não tinham a resposta.

Mas essa resposta vai vindo com o tempo. A gente já aprendeu muito. O Google tradutor é uma grande referência para a Hand Talk, o detalhe é que eles não traduzem línguas de sinais. Quem sabe um dia a gente consegue ajudar o Google também.

Temos uma lista de desafios, mas com relação à parte linguística de inteligência artificial, o maior deles é a qualidade dos dados. Nós dependemos de dados limpos e de qualidade. Temos que ter pessoas que saibam contribuir.

O nosso produto precisa entender diversas variações como sotaques e gírias. É muito complexo traduzir uma comunicação informal.

A variação regional também é importante para a máquina porque até em libras a gente tem regionalismo. A galera do Rio Grande do Sul usa sinais totalmente diferentes do pessoal de Alagoas. Então, eu preciso de contribuições de ambos os lugares porque eles têm sinais diferentes para representar a mesma coisa, eu preciso entender variação linguística também. A mesma coisa que acontece com a gente oralizando.

Estamos próximos dos 20 mil sinais em Libras e outros 20 mil em ASL. Mas o mais importante é a quantidade da tradução. O trabalho é muito mais focar nos sinais mais usuais e aperfeiçoá-los do que ter uma grande quantidade traduzida.

Batemos muito nessa tecla na qualidade da nossa tradução. Procuramos entender o conteúdo que está sendo abordado. Porque traduzir um site como o da Unimed é diferente de fazer esse processo para o CNJ.

A gente treina muito o modelo para que ele consiga entender essas mudanças. Por exemplo, fizemos um trabalho agora para o Itaú e para os tradutores virtuais entenderem muito mais os temas financeiros.

Antigamente o Hugo entendia liquidez como sendo cachoeira, porque liquidez remete a um líquido caindo. Mas ele tem que entender que naquele conceito de financeiro, liquidez não era cachoeira. Isso foi ensinado para o tradutor.

É isso que a Hand Talk faz sempre: treina os domínios de informação específicos para cada ocasião e é isso que torna o trabalho mais complexo.

Quando lançamos o aplicativo, nós achamos que ele seria usado majoritariamente pelos surdos. Entretanto, a maioria dos usuários são ouvintes que estão querendo aprender os seus primeiros sinais. São familiares de surdos ou estudantes de Libras.

Para fortalecer esse aprendizado através de vídeos, a gente lançou o Hugo Ensina. Hoje, essa é uma ferramenta muito legal para as pessoas aprenderem grupos de sinais. Somente um dos vídeos que é sobre sentimentos tem quase 700 mil visualizações no YouTube.

A gente tem muitos planos para o futuro próximo de ter mais funções educativas dentro do aplicativo porque é por essa dor de aprender os seus primeiros sinais que muita gente procura o app.