15 fevereiro 2025

A inteligência artificial também erra


(Ilustração de autor desconhecido)

Errare humanum est é uma conhecida locução latina que significa "errar é humano". Todos os seres humanos cometem erros: uns graves, outro desprezáveis e até alguns que poderão ser fatais. E as máquinas, também se enganam? Se sim, porquê e como?

Uma máquina que seja completamente estúpida não se engana, porque se limita a fazer sempre da mesma maneira aquilo para que foi feita, uma e outra vez, ad æternum. Já quanto à chamada inteligência artificial (IA), o caso muda completamente de figura. Já existem muitos e diversos sistemas de inteligência artificial, que têm características diferenciadas consoante o fim a que se destinam, mas o mais popular de todos é, sem dúvida nenhuma, o chamado LLM (Large Language Model, ou seja, Grande Modelo de Linguagem), que é uma forma de inteligência artificial generativa de que o ChatGPT e o DeepSeek são neste momento os exemplos mais conhecidos, com milhões e milhões de utilizadores espalhados pelo mundo.

Ao contrário das máquinas estúpidas, a IA generativa pode enganar-se e pode assim enganar os seus utilizadores humanos de forma completamente convincente, mesmo que estes estejam atentos e prevenidos. Como poderemos nós saber se o ChatGPT ou outro sistema semelhante nos está a enganar ou a dizer a verdade? O que diferencia os erros das máquinas dos erros dos humanos?

Quando o chatbot (podemos chamar-lhe interlocutor) de uma IA generativa com o qual estamos a interagir, nos debita lixo sem pés nem cabeça, não temos dúvidas de que a IA teve uma "alucinação" e mandamo-la dar uma volta ao bilhar grande. Mesmo quando o chatbot nos apresenta frases gramaticalmente corretas, mas que são manifestamente disparatadas, tal como aconselhar-nos a comer pedras, também a mandamos bugiar. Estas e outras afirmações ridículas feitas pelo ChatGPT e afins já aconteceram e irão continuar a acontecer, espera-se que com uma frequência cada vez menor. O problema surge quando os erros da IA generativa são de tal maneira subtis que acabamos por acreditar neles, tal como por vezes acreditamos em algumas das fake news que agora pululam por aí, por mais prevenidos que estejamos, porque parecem fazer sentido e fingem ser credíveis.

O que é que distingue os erros cometidos pelas máquinas dos erros cometidos pelos humanos? Há diferenças? Há. Os humanos enganam-se muitas vezes nas contas, por exemplo. Eu engano-me quase sempre, aliás. A quantidade de erros que cometemos quando fazemos contas varia consoante o estado de fadiga em que nos encontrarmos. Quanto mais fatigados estivermos, mais nos enganamos. A IA generativa, pelo contrário, não se fatiga, não precisa de fazer uma pausa para tomar café ou desentorpecer as pernas. Os seus erros são sistemáticos e ocorrem com uma frequência mais ou menos constante ao longo do tempo. As suas respostas erradas aparecem de uma forma aleatória e até podem resultar numa mistura de afirmações corretas com afirmações erradas, tornando-se difícil distinguir umas das outras.

Muitos erros humanos podem resultar da ignorância ou, pelo menos, de um conhecimento deficiente relativamente a um dado assunto. Já a inteligência artificial generativa, como os LLM, não tem dúvidas. Ela faz uma afirmação completamente idiota com a mesma aparente convicção de quem tem a certeza absoluta do que diz. A IA generativa limita-se a consultar a sua incomensurável base de dados, recolhe uns dados, recolhe outros, compara-os, aceita uns (geralmente os que lhe aparecem mais vezes), rejeita outros, interliga os que aceitou, procura analogias, corta aqui, acrescenta acolá, elabora um texto (ou cria uma imagem, ou o que for), verifica se está correto do ponto de vista gramatical (ou outro) e apresenta-nos o resultado.

A IA generativa não tem conhecimentos; tem dados. Não tem bom senso; tem raciocínio lógico. Não tem intuição; tem dedução. Não sabe sequer se sabe ou se não sabe; o que ela "sabe", é o que está registado nos seus monstruosos centros de dados, que são continuamente alimentados pelos seus rastreadores (web crawlers) que permanentemente pesquisam e recolhem tudo o que encontram na web, incluindo o conteúdo deste despretensioso blog. Se nos seus centros de dados a IA generativa encontrar um texto irónico ou sarcástico, leva‑o a sério, porque também não sabe o que é a ironia. É possível que alguns dos disparates com que ela nos brinda possam vir de textos humorísticos, como um qualquer texto que proponha que se comam pedras ao pequeno‑almoço para emagrecer… A IA poderá então concluir que comer pedras faz bem à saúde, porque o texto lho diz, e pimba!, diz uma asneira completamente absurda. Não se pode confiar cegamente na IA generativa. Ainda por cima, quanto mais elaborados e complexos forem os raciocínios que ela for chamada a desenvolver, maior será a probabilidade de errar em algum ponto.

A IA generativa é passível de correção e de melhoramentos ao longo do tempo. Não é estática. Não é por acaso que ela se chama generativa. O ChatGPT está cada vez melhor e o mesmo se passa com os outros LLM, que se corrigem a si próprios em função das respostas e reações que vão recebendo dos seus utilizadores humanos. A chamada aprendizagem-máquina (machine learning) existe mesmo e funciona mesmo. As melhores formas de lidar com os erros da IA e de corrigi-los, antes de eles chegarem ao utilizador final, são atualmente objeto de intensa investigação por parte dos engenheiros e cientistas envolvidos no seu desenvolvimento. Do trabalho destes só poderemos esperar avanços cada vez maiores, tanto para o bem como para o mal, porque a tecnologia, em si, é neutra; boa ou má será a utilização que se fizer dela.

Comentários: 0

Enviar um comentário