Que mensagem pretende passar com a sua apresentação na conferência?
A mensagem principal é que a Inteligência Artificial tem muitas aplicações em duas grandes vertentes: a vertente da analítica, que já está bem estabelecida mas continua a ser muito importante, e a vertente da automação, onde temos assistido a avanços mais recentes, com diversas tecnologias.
Nesta vertente da automação, vou falar em alguns desenvolvimentos recentes, nomeadamente o processamento de língua natural e o processamento de imagem e vídeo.
Refere-se ao foco na IA generativa, que teve um salto exponencial no último ano.
Especialmente de língua natural. Mas também já tínhamos avanços na visão por computador, que tem vindo a tornar-se cada vez mais importante.
Apesar de os desenvolvimentos estarem a acontecer ao longo de anos, há agora uma visibilidade maior com os bots de conversação e geradores de imagens. Considera que estes avanços constituem uma revolução?
Esta capacidade para processar língua natural vai ser particularmente relevante quando estes sistemas forem integrados com outros tipos de sistemas de informação, com bases de dados, motores de busca, motores de raciocínio. Desse ponto de vista, de facto, é relevante. Não tanto pelo que os sistemas são por si hoje, embora já sejam úteis, como o ChatGPT, mas pelo tipo de sistemas mais complexos que vão permitir construir no futuro, ao serem integrados verticalmente em soluções que resolvem problemas específicos das empresas. Na área da contabilidade, dos recursos humanos, do apoio legal, etc.
Portanto, mais importante do que um LLM [grande modelo de linguagem] por si só, é a integração de um LLM num sistema vertical com acesso aos sistemas de informação das empresas.
Há sectores onde essa integração vai ser mais importante ou que vão aderir mais rapidamente?
Todos os sectores vão sofrer alterações, mas os serviços têm muitas componentes que são mais fáceis de automatizar. Porque já envolvem processamento de texto, processamento de imagens, de documentos.
Na distribuição, por exemplo, haverá coisas que vão sofrer alterações, mas o seu essencial talvez não se venha a alterar para já. Na área dos serviços sim. Vamos assistir a ganhos de eficiência significativos.
Nesse sentido, qual a sua opinião em relação às transformações do mercado laboral e o receio de que a automatização elimine postos de trabalho?
Isso pode acontecer. Mas como temos falta de recursos humanos e é um país com baixa produtividade, acho que tudo o que venha a aliviar o estrangulamento dos recursos humanos e aumentar a produtividade é positivo. Parece-me que, sem prejuízo de haver algumas áreas em que haja impacto negativo no mercado de emprego, em geral vamos ver um impacto positivo, com um aumento da produtividade e a remoção dos estrangulamentos dos recursos humanos altamente qualificados.
Um país como Portugal pode beneficiar em relação a outros?
Acho que estamos bem posicionados para beneficiar bastante. Temos uma população envelhecida, temos lacunas de mão de obra significativas e temos baixa produtividade. São teoricamente duas limitações que estes sistemas podem endereçar.
Diria que aumento de produtividade e eficiência nas empresas são das principais vantagens na aplicação destas ferramentas de IA?
Sim, de um ponto de vista económico. Do ponto de vista individual também. Se as pessoas souberem usar pode haver algumas poupanças significativas em termos de processamento da sua informação pessoal, terem um assistente que possa fazer certas tarefas.
Em termos globais, do impacto económico, diria que é o aumento da eficiência e a eliminação ou redução dos estrangulamentos ao nível de recursos humanos.
Viu algum exemplo que o tenha impressionado, uma startup ou uma aplicação inovadora destas tecnologias?
Há muitas startups a aplicarem isto. Uma que uns alunos meus criaram penso que vai na direção correta de integrar estes sistemas. Eles têm um produto para a área legal onde toda a legislação portuguesa foi mastigada por um sistema destes e agora pode ser inquirida. Pode-se interagir com a legislação portuguesa da mesma maneira que se interage com um jurista.
O sistema ainda não é perfeito mas tem um nível de desempenho muito elevado. É um bom exemplo; sistemas equivalentes para uma área de contabilidade, recursos humanos, etc. vão ter impactos significativos. Este em particular fiquei bastante impressionado com o seu desempenho. É uma empresa que se chama Neural Shift.
Considera que Portugal está bem posicionado para ter empresas destas que exportem produtos e serviços IA?
Acho que sim, por várias razões. Temos um sistema universitário e de investigação forte nesta área. A Inteligência Artificial em Portugal tem uma história antiga e temos competências em Lisboa, no Porto, Coimbra, Minho. Temos também uma população relativamente aberta a adotar novas tecnologias, o que é uma vantagem. E temos uma dimensão que tem a desvantagem de não ser um mercado muito grande mas a vantagem de permitir pilotos de dimensão controlada. Ideias que não se podem testar nos Estados Unidos ou que mesmo na Alemanha é difícil podem ser testadas num país com dez milhões de habitantes.
Temos várias empresas e unicórnios, a Unbabel, a Feedzai, a Talkdesk, que desenvolvem atividade nesta área e são referências internacionais, portanto penso que estamos bem posicionados.
Agora, também é uma área que muda muito rapidamente e é difícil saber como vamos estar daqui a um ano ou dois.
Os benefícios são visíveis, mas do outro lado da moeda vê algumas desvantagens nesta nova era da IA?
Coloca alguns desafios às universidades, especialmente aos mecanismos de avaliação. Corremos o risco de a aprendizagem dos alunos se tornar mais superficial, porque sabem que têm sempre disponível sistemas destes. Vai exigir uma reconfiguração da forma como em algumas áreas avaliamos os alunos. Se isso não for bem feito, arriscamos a deixar deteriorar o sistema educativo.
A outra preocupação é a desinformação. Estes sistemas podem ser usados para criar ainda mais desinformação, mais personalizada e perigosa. A componente da desinformação e a de tornar mais superficial o processo de aprendizagem parecem-me ser dois riscos a que devemos prestar atenção e tomar medidas para os evitar.
Há já na União Europeia uma tentativa inicial de regulamentar a IA. O que acha disso?
O Artificial Intelligence Act vem juntar-se a outra legislação, como o Digital Markets Act, o Digital Services Act, o Data Act. O AI Act é o que tem tido mais visibilidade. Eles adotam uma classificação de níveis de risco dos sistemas, por maneira a tentar impor limitações aos sistemas de mais alto risco ou mesmo proibi-los. Parece-me ser uma abordagem adequada. Tudo depende de como isto vai ser implementado e se nesta tentativa de limitar os riscos – que vêm por via da desinformação, perda de privacidade, etc. – se não vamos criar demasiados obstáculos à inovação. Essa é a preocupação, conseguirmos atingir aqui o equilíbrio entre a regulação de maneira a preservar os direitos e liberdades e não limitar completamente a capacidade de inovação das empresas.
Aí o risco é de que as empresas europeias tenham obstáculos que empresas noutras regiões não vão ter?
Exatamente. Torna mais difícil o processo de inovação porque têm de cumprir regulamentos e restrições que, em particular nos Estados Unidos e na China, que são os maiores blocos nesta área, [as empresas] não venham a ter.
Uma vez que conhece bem o mercado americano, acha possível haver uma regulamentação global acordada entre os vários blocos?
Parece-me difícil, por duas razões. Com a China porque tem a sua própria estratégia e não está muito sensível a estas questões de regulação, e com os Estados Unidos porque têm empresas muito poderosas que teriam muito a perder se fossem sujeitas a atividades de regulação muito intensa.
Agora, alguns estados dos Estados Unidos vão provavelmente adotar pelo menos algumas ideias da legislação europeia, tipicamente a Califórnia, o lllinois. Pode ser que a Europa venha a influenciar um bocadinho pelo menos nos Estados Unidos. É menos óbvio com a China.
Identifica alguma coisa que gostaria de ver nessa legislação, um ponto essencial?
O AI Act é relativamente fraco na componente de estímulo à inovação. A maior parte é dedicada à componente de identificação de níveis de risco e dos requisitos associados. Houve um white paper que deu origem a toda esta legislação e que equilibrava essas duas vertentes, o estímulo à inovação e a proteção dos direitos e liberdades. Mas o AI Act veio a focar-se muito na proteção dos direitos e liberdades e menos na componente do estímulo à inovação, que acabou por ser uma coisa relativamente marginal e superficial. Eu gostaria que a legislação tomasse em consideração estas duas vertentes, sendo que – obviamente – quanto mais liberdade dermos à inovação menos garantias temos da preservação dos direitos e liberdades. Há aqui um equilíbrio que não é fácil.
Vemos dois campos a formar-se, o dos entusiastas e o dos assombrados, que pedem uma moratória no desenvolvimento de IA. Onde se posiciona?
Estou mais alinhado com o campo que diz que os riscos estão a ser exagerados e que a Inteligência Artificial, tal como existe hoje, é muito menos poderosa do que parece e da perceção que as pessoas têm. O que precisamos é de mais investigação e desenvolvimento de sistemas mais sofisticados, mais poderosos, menos sujeitos a erros e a alucinações, em particular.
Parece-me que as notas de alarme são prematuras e mal esclarecidas. Há alguma divisão na comunidade científica neste aspeto e argumentos de lado a lado relevantes.
Com essa referência às alucinações, acha que há um risco de as pessoas acreditarem em tudo o que os sistemas dizem sem questionar?
Sim, porque os sistemas são de facto convincentes. Quando alucinam, alucinam com convicção e às vezes inventam factos que não existiram, decisões judiciais que não existiram, artigos científicos que não existiram, e se as pessoas não estiverem bem esclarecidas e pensarem que aquilo é uma espécie de motor de busca ou base de dados, têm tendência a acreditar.
Esse é um risco. Tenho tentado, aliás, esclarecer que aquilo não são bases de dados nem motores de busca nem bases de conhecimento. Há uma fração significativa das pessoas que corre o risco de usar mal.
Ana Rita Guerra