No final de 2017, a empresa de cruzeiros Royal Caribbean começou um processo de transformação digital com a intenção de se diferenciar da concorrência e facilitar a vida aos passageiros. A visão foi mostrada num evento em Nova Iorque, “Sea Beyond”, e continha novidades muito interessantes, tais como pulseiras que abrem portas e apps que controlam a temperatura das cabines. Mas uma das mais ambiciosas era o reconhecimento facial à entrada dos navios, para acabar com as filas intermináveis antes do embarque. E isso vai mesmo avançar.
A empresa vai integrar um sistema de reconhecimento facial no terminal de cruzeiros que está a construir em Galveston, Texas, e que estará operacional em 2021. A gigante dos mares já começou a testar a tecnologia num dos seus terminais, na Flórida, e os resultados são positivos. Os passageiros tiram uma foto com a app da empresa e quando chegam ao ponto de embarque a inteligência artificial do sistema faz a correspondência entre a imagem e a cara da pessoa ao vivo. Em vez de fazer os passageiros esperar uma hora, a entrada no barco de cruzeiro demora apenas alguns minutos. E esse é um benefício palpável de uma tecnologia que está a entrar no quotidiano e em breve tornará muitas imagens de filmes de ficção científica em realidade.
O sector das viagens é um dos maiores candidatos à massificação de sistemas de reconhecimento facial, depois de uma década a usar estes sistemas em aeroportos e uma empresa portuguesa, Vision-Box, entre as líderes do mercado. A essa aplicação está associada a segurança, que agora permeia outros segmentos – desde a integração no iPhone X e seguintes à popularização de sistemas de segurança doméstica que reconhecem caras familiares e alertam para estranhos. A utilidade destas aplicações é inegável e traz benefícios imediatos aos utilizadores. Mas as implicações de uma utilização em massa de tecnologias de reconhecimento facial, bem como as bases de dados e o treino de algoritmos que é necessário, levantam muitas questões pertinentes. Foi isso que o Electronic Privacy Information Center (EPIC) disse ao congresso norte-americano na semana passada.
Este centro de pesquisa de interesse público, sediado em Washington, D.C., enviou uma carta ao Comité de Apropriações da Câmara dos Representantes pedindo a suspensão do financiamento do programa de reconhecimento facial nos aeroportos norte-americanos “até que as garantias de privacidade sejam estabelecidas.” Em causa está a iniciativa de Entrada e Saída Biométrica que consta do orçamento da TSA, a Administração de Segurança dos Transportes e que, segundo o EPIC, não tem mecanismos de supervisão em funcionamento que permitam garantir a privacidade dos passageiros. O centro concluiu que as autoridades fronteiriças estão a tornar cada vez mais difícil evitar o reconhecimento facial e tal infringe os direitos individuais dos cidadãos. Um dos problemas é que as companhias aéreas têm poucos ou nenhuns limites no que respeita à utilização dos dados de reconhecimento facial recolhidos nos aeroportos.
“O reconhecimento facial continua a colocar ameaças à privacidade e liberdades civis”, acusa o EPIC. “Técnicas de reconhecimento facial podem ser implementadas de forma encoberta, remota e em massa”, sublinha. Uma vez que não há regulações federais sobre a recolha, uso, disseminação e retenção destes dados biométricos, o EPIC considera que estão criadas “novas oportunidades de rastreio e monitorização”, ameaçando os direitos de livre associação e expressão. Este rastreio sujeita não apenas cidadãos americanos, mas qualquer pessoa – incluindo cidadãos portugueses protegidos pelas leis europeias – que passe pelos aeroportos dos Estados Unidos. O exemplo chinês mostra o potencial de utilização da tecnologia para apertar o controlo dos cidadãos.
O governo do país asiático está a usar reconhecimento facial para registar a cara das pessoas no dia a dia, armazenando essas imagens numa base de dados nacional que inclui nome, idade e etnia. Como resultado, o governo chinês tem cada vez mais capacidade para saber por onde anda determinado cidadão e com quem ele se associa. Na província de Zhengzhou, por exemplo, as forças policiais usam óculos com sistemas de reconhecimento facial, e em Pequim existe uma proposta para identificar turistas que se comportem de forma desadequada e colocá-los em listas negras. Nos Estados Unidos, o receio é que os sistemas sejam usados pelas autoridades para destacar minorias e sujeitá-las a uma monitorização baseada nos traços étnicos, além do potencial de quebras de segurança que exponham o dado biométrico mais sensível e imutável dos consumidores.
A preocupação é tão grande que os senadores Roy Blunt (Republicano) e Brian Schatz (Democrata) introduziram uma proposta de lei para proteger os consumidores da recolha de imagens faciais que é atualmente feita por empresas como o Facebook sem que os utilizadores se apercebam disso. Houve vários especialistas a especularem que o desafio dos 10 anos, que incentivava à partilha de imagens separadas por uma década lado a lado, tivesse sido criado para treinar os algoritmos de reconhecimento facial.
Esta é uma área sensível e controversa, que em março voltou à baila quando uma investigação da NBC determinou que a IBM usou cerca de um milhão de fotografias tiradas do Flickr para treino de algoritmos sem consentimento dos donos das imagens. A tecnológica não é a única; são várias as empresas a usarem imagens disponíveis publicamente para este fim, porque a precisão destes algoritmos depende do volume e qualidade das bases de dados usadas para os treinar. Há fortes críticas feitas às tecnológicas que desenvolvem estes sistemas.
O produto de reconhecimento facial da Amazon, Rekognition, tem problemas e vícios que foram publicamente denunciados na semana passada por 25 investigadores da área, incluindo especialistas da Google e Microsoft. O sistema tem dificuldade em reconhecer pessoas de tez escura e uma taxa elevada de identificação incorreta de mulheres como homens, algo que os especialistas avisam ser produto da falta de diversidade das equipas que conceberam o sistema. Este é, na verdade, um dos problemas mais bicudos da inteligência artificial neste momento: quando os sistemas são desenvolvidos por equipas maioritariamente masculinas e brancas, o produto final acusa falta de diversidade. Os preconceitos usados na conceção do sistema ou no volume de dados usados para o treinar poderão afetar as minorias de forma desproporcional, sendo que esses vícios ficam escondidos por trás de uma aparência de imparcialidade da máquina.
Todas as tecnologias de inteligência artificial são baseadas em dados, regras e outro tipo de inserções por parte de especialistas humanos, sublinhou um relatório recente da Gartner. Alexander Linden, vice presidente de pesquisa da consultora, explica que hoje “não há forma de banir completamente os preconceitos” e que isso reforça a necessidade de tentar “reduzi-los ao mínimo.” Além de garantir que as bases de dados são diversas, também é crucial “assegurar a diversidade das equipas que trabalham com a IA” e que existe uma revisão permanente do trabalho. “Este simples processo pode reduzir de forma significativa a seleção e o preconceito de confirmação.”