Nos Lusíadas há um personagem, o Velho do Restelo, que tem medo do progresso.
Esta personagem é um representante da humanidade contra o empreendedor audaz.
Milhares de pessoas foram condenadas à morte por proporem ideias novas, talvez o mais famoso tenha sido o filósofo Sócrates, executado porque alguns alunos o acusaram de, com os seu método de ensino, corromper a juventude. Sim, foram os alunos que o acusaram.
Agora que surgiu um site, o ChatGPT, que responde a questões colocadas em linguagem natural, surgiram vozes a dizer "Meu Deus, parem com isso pois a humanidade está em risco".
Mas afinal o que é a Inteligência Artificial?
É apenas estatística.
Existe um procedimento (a que chamam algoritmo) que agrega a informação disponível, e um critério de decisão. Depois, com muitos dados, resulta uma regra estatística de decisão.
Vejamos um exemplo simples.
Tenho de chegar ao emprego às 8:30 (por cada minuto atrasado, tenho de trabalhar 2 minutos) e posso apanhar o comboio das 7:00 ou o das 7:15.
A minha decisão vai ser "Apanhar o comboio mais cedo faz-me levantar 15 minutos mais cedo mas apanhar o mais tarde, obriga-me a trabalhar mais. Se a diferença for maior do que 10 minutos de trabalho, vou no comboio mais cedo".
Vamos à inteligência artificial.
Ao longo dos dias, registei o comboio e a hora a que cheguei ao trabalho (alguns exemplos de dados):
Agora, com estes dados, o computador calcula um facto estatístico:
Se apanhar o comboio das 7:00 tenho, em média, de trabalhar mais 3,6 minutos.
Se apanhar o comboio das 7:15 tenho, em média, de trabalhar mais 17,3 minutos.
Se apanhar o comboio mais tarde tenho então de trabalhar mais 14,7 minutos do que se apanhar o comboio mais cedo.
Como o meu limite são 10 minutos, a Inteligência Artificial vai decidir que tenho de apanhar o comboio das 7:00.
A Inteligência Artificial não me obriga a nada.
Diz que, usando os dados que eu lhe forneci e o critério que eu explicitei, o melhor é eu apanhar o comboio das 7:00. No entanto, posso apanhar o comboio das 7:15, consciente de que estou a violar o meu critério.
Identificação de impressões digitais.
O nosso telemóvel reconhece as impressões digitais o que cai dentro da Inteligência Artificial. E essa facilidade não se nos parece nada perigoso.
Quando encostamos o dedo ao leitor, um processamento de imagem vai identificar pontos notáveis (centro, bifurcações, ilhotas, pontas soltas). Depois, centra a imagem no "redemoinho central" da impressão digital e, em termos relativos, calcula a distância de alguns pontos notáveis a esse centro. Vamos supor que calcula 5 distâncias com 3 casas decimais. Então, a impressão digital vai ser, por exemplo, condensada no número 564.347.254.343.034.
O telemóvel não pode guardar o "nosso" número pois poderia ser copiado.Mas precisa guardar qualquer coisa para, no futuro, conseguir validar que somos nós a meter o dedo.
Vai guardar um número transformado com uma função a partir de 564347254343034 mas que não é este número. Vamos supor que a função são os primeiros 15 dígitos do logarítmico. Então, o telemóvel vai guardar 339666908771514.
Se alguém conseguir copiar esse código e inseri-lo no telemóvel como a minha impressão digital, como vai ser calculado o seu logaritmo, não vai conseguir validar-se porque o resultado será 334589865732548, diferente do que está gravado.
Os computadores há muitos anos que fazem coisas impossíveis aos humanos.
Podemos usar o multibanco porque a máquina consegue ler um código secreto que está no nosso cartão, aceder a uma base de dados distante que tem milhões de registos e comunicar de forma segura com essa base de dados em fracções de segundo.
Quando fazemos uma pesquisa de uma palavra num documento Word e, de forma mais intensa, quando fazemos uma pergunta ao Google, a nossa palavra é comparada com milhares de frases quase instantaneamente, o que é impossível de fazer aos humanos.
Quando um jogo calcula a trajectória de uma bola de ténis para parecer realista (obdecendo às leis da física), realiza numa fracção de segundo cálculos que demorariam milhares de anos a um engenheiro (e resmas de papel).
Com mais dados, melhores algoritmos e mais poder de cálculo, a Inteligência Artificial diz coisas aparentemente mais humanas.
A capacidade das máquinas (de que o nosso cérebro é um exemplo) resulta do somar de muitos processos simples. Se o computador consegue articular milhares de milhóes de regras, vai-nos parecer inteligente.
O nosso cérebro e o da mosca da fruta tem neurónios idênticos mais somos mais capazes que a mosca porque temos um milhão de vezes mais neurónios (apenas).
Se eu tiver muitos dados, por exemplo, a informação sobre todos as decisões judiciais tomadas pelos tribunais portugueses nos últimos 10 anos, algoritmos mais capazes de partir o texto em frases com significado e agregar essas frases, mais poder de cálculo para combinar e relacionar as milhões de frases, mais capaz será o computador de responder às nossas perguntas.
Mas o mais complexos e potente dos computadores é menos capaz do que o cérebro da mosca, é diferente, consegue realizar operações algébricas que a mosca não consegue mas é computacionalmente menos capaz (não consegue realizar um voo, com reconhecimento óptico dos obstáculos, num espaço diminuto como a mosca faz).
Como o computador consegue fazer coisas que os humanos não conseguem (consultar bases de dados enormes e realizar milhares de milhões de cálculos numa fracção de segundo), parece que são mais inteligentes que a mosca mas ainda estão muito, muito, muito longe.
Não devemos ter medo do ChatGPT pois sabe pouco.
Existem sites que têm exemplos de programas em várias linguagens de programação, bem estruturados, com perguntas e respostas. Então, como o ChatGPT tem acesso a essa informação, consegue programar bem. Por exemplo, eu não consigo programar em Assembler mas, se fizer uma pergunta, obtenho uma resposta boa (o compilador faz melhor trabalho e não é "inteligente").
Mas eu fiz um teste um pouco mais difícil e o ChatGPT falhou completamente. Questionei-o sobre uma técnicas de judo e não conseguiu dizer nada. O Google (e o youtube) conseguiram mostrar informação muito mais rica, focalizada e informativa sobre as minhas dúvidas de judo do que o ChatGPT.
No meu cálculo, serão precisos muitos e muitos anos.
O cérebro humano tem 100 mil milhões de neurónios, cada neurónio tem 10000 ligações e cada ligação tem a capacidade de 10000 transístores. Temos então de ter um computador com 100x10000x10000 mil milhões de transístores. A manter-se a duplicação da densidade dos transístores a cada 26 meses, o que ninguém sabe se é possível, esse computador apenas vai aparecer no ano 2100.
Se há tantas pessoas más (penso que a maioria), capazes de invadir países, matar milhares de pessoas ou, apenas, no dia a dia fazer pequena maldades como atropelar propositadamente ciclistas ou piões na passadeira, não devemos ter medo de, no ano 2100, haver carros que atropelam de forma propositada ciclistas. Essa maldade já existe, todos os dias ouvimos falar de assassinatos, violações, assaltos, insultos e não são feitos por computadores.
E existe o consolo de, até 2100, mais de 90% da população actualmente viva ir morrer de outras causas que não a inteligência artificial (e ninguém se preocupa, por exemplo, pedindo "Não nasçam mais crianças porque vão estar condenadas a morrer").