Este artigo não foi escrito por um algoritmo. Como o ChatGPT nos pôs a falar de inteligência artificial

  • ECO - Parceiro CNN Portugal
  • 19 fev 2023, 13:25
Flávio Nunes
Este artigo não foi escrito por um algoritmo. Como o ChatGPT nos pôs a falar de inteligência artificial - TVI
ChatGPT (AP)

Subitamente, o ChatGPT está nas bocas do mundo. As capacidades deste programa têm deixado muitos de queixo caído e prometem acelerar o investimento em inteligência artificial. Mas há riscos

Este artigo sobre o ChatGPT não foi escrito por um algoritmo. Mas podia. Bastava pedir à máquina que escrevesse um texto noticioso sobre a renovada euforia em torno da inteligência artificial. Podia até ir mais longe e definir um limite de carateres ou mesmo um estilo de escrita específico. O resultado seria impressionante. Porém, não necessariamente jornalístico e verdadeiro.

Por esta altura, o ChatGPT quase dispensa apresentações. Trata-se de uma plataforma desenvolvida por uma empresa chamada OpenAI e disponibilizada ao público no final de novembro de 2022. Dois meses depois, ultrapassou os 100 milhões de utilizadores. A chave está na simplicidade. Em termos funcionais, o ChatGPT não é mais do que uma janela do Messenger, um espaço onde podemos introduzir um pedido, colocar uma pergunta ou fazer uma declaração. Depois, o programa dá uma resposta.

Em diferentes áreas e setores, ferramentas como o ChatGPT estão a ser usadas para os mais variados fins. Uma programadora pode fornecer um trecho de código e pedir ao algoritmo que descreva o que ele faz. Um investigador pode solicitar uma lista de manuais técnicos sobre qualquer assunto que seja capaz de expor por palavras. E um jornalista pode obter dez propostas de ângulos noticiosos sobre como a inteligência artificial está a transformar o mundo dos negócios.

Se for usado com espírito crítico, o ChatGPT e outros modelos do mesmo tipo podem ser uma ajuda preciosa para qualquer profissional ou utilizador particular. Vai a Roma e quer saber o que visitar? Peça ideias ao ChatGPT. Quer diversificar a sua alimentação mas a inspiração é escassa? Veja o que lhe diz o algoritmo. Só que também existem aplicações mais nefastas que são uma ameaça em crescimento. E se alguém pedir ao programa para desenvolver um poderoso vírus informático, ou fornecer um pacote de notícias falsas sobre imigrantes, por exemplo?

Não é preciso chegar a esse extremo. Muitos começam a olhar para o ChatGPT como uma ferramenta informativa, uma espécie de motor de busca. Mas este programa em concreto não foi criado para esse fim. Uma das grandes limitações da ferramenta é ser relativamente dada àquilo que os especialistas chamam de “alucinações”. O ChatGPT mente, inventa coisas e di-las com a maior das convicções – por exemplo, que o ECO, um jornal online, publica desde 1990. As consequências podem variar consoante quem estiver do outro lado do ecrã.

A magia da estatística

Arlindo Oliveira, investigador, professor catedrático do Instituto Superior Técnico (IST) e presidente do Instituto de Engenharia de Sistemas e Computadores (INESC), explica que a magia na base destes programas é a estatística: “São modelos estatísticos. Dada a ocorrência de uma certa sequência de palavras, preveem as probabilidades da próxima palavra, podendo olhar muito para trás no texto. Têm contexto de longa duração e foram treinados com muitos textos.”

Para facilitar a compreensão, Arlindo Oliveira dá um exemplo. Perante o par de palavras “Presidente Marcelo”, há uma elevada probabilidade de que as três palavras seguintes sejam “Rebelo de Sousa”. “Os modelos acabam por ter modelos estatísticos do mundo. Como é que são criados? Usam uma rede neuronal para guardar as relações estatísticas entre palavras – transformadores – que permitem relacionar entre si palavras que estão afastadas no texto. Essa capacidade é que os torna poderosos”, ensina.

É também essa uma das razões que torna o ChatGPT num modelo mais eficaz do que o parente GPT-3. Este último escolhia como palavra seguinte aquela que era a mais provável. O ChatGPT procura, entre as hipóteses, aquela que é a mais adequada, de acordo com o especialista. Para Arlindo Oliveira, o sucesso do ChatGPT assenta, por isso, em “dois fatores”. Por um lado, é “mais fácil de usar, fácil de registar e não tem limite”. Por outro, “foi de facto afinado para o alinhar melhor com as expectativas dos seres humanos, com resultados impressionantes. Inventa menos, percebe melhor as questões. Resulta numa interface mais natural.”

Como seria de esperar, a surpreendente popularidade do ChatGPT já está a acelerar o investimento global em inteligência artificial. A Microsoft apoiou a OpenAI com dez mil milhões de dólares, na esperança de dar novas capacidades aos seus produtos e serviços, e a Google apressou-se a anunciar o seu próprio chatbot, a que chamou Bard. Se a euforia se traduzirá em avanços reais no futuro, ainda está por provar. Para já, os especialistas encaram este momento com um otimismo moderado.

João Leite, professor da Faculdade de Ciências e Tecnologia da Nova e diretor do Departamento de Informática, comenta que “o ChatGPT mostra um avanço técnico absolutamente incrível nesta área da inteligência artificial”, mas nota que “há coisas boas e más”. “Nós não devemos falar do GPT como uma inteligência artificial. Devemos falar do ChatGPT como um modelo de linguagem. Vamos imaginar que tínhamos ensinado um sistema a falar, mas não temos grandes garantias sobre o que vai dizer. A grande qualidade é a forma, não o conteúdo”, adverte.

E é precisamente o conteúdo que é um “problema”, alerta. “Estatisticamente, [o ChatGPT] vai dizer coisas acertadas. Até constrói frases certas. Mas também constrói frases que não têm ponta por onde se pegue e em que o conteúdo é zero. O ChatGPT não tem uma relação com a noção de verdade. Não tem nem consegue ter, porque a forma como ele é treinado, a própria génese, não permite incorporar essa noção de verdade. É um dos grandes problemas da inteligência artificial”, destaca o professor da FCT Nova.

Robert Clowes, investigador, professor da Universidade Nova de Lisboa e coordenador do Lisbon Mind, Cognition & Knowledge Group, que é parte do Instituto de Filosofia da Nova (Ifilnova), acredita que os desenvolvimentos no campo da inteligência artificial estão “a acontecer muito rapidamente”, mas tem reservas em declarar a popularidade do ChatGPT como um momento de viragem neste campo: “É difícil. Não quero responder que sim. Está em aberto para muita gente.”

Mesmo com cautelas, o investigador mostra interesse e “alguma surpresa” com certas capacidades que tem encontrado na chamada inteligência artificial generativa – modelos treinados com quantidades gigantescas de dados que são capazes de produzir conteúdos. E há vários exemplos. O ChatGPT e o Bard estão para a produção de texto como o DALL-E (OpenAI), o Midjourney e o Stable Diffusion (Stability AI) estão para a criação de imagens. “Conseguem produzir pedaços de linguagem, pedaços de texto e de imagens. São capazes de produzir textos sintaticamente corretos, úteis, interessantes e provocadores”, descreve Robert Clowes.

Em junho do ano passado, Blake Lemoine, engenheiro da Google, foi notícia mundial ao declarar que o modelo LaMDA, desenvolvido pela multinacional e que serve de base ao funcionamento do Bard, se tinha tornado consciente. Até o comparou a “uma criança de sete ou oito anos que por acaso sabe de Física”. A Google apressou-se a rejeitar essa afirmação e o Lemoine foi afastado. O caso é recordado por Robert Clowes numa altura em que, segundo testes realizados pela The Economist, o modelo da Google é “ligeiramente melhor” em Matemática, mas o ChatGPT foi capaz de responder corretamente a nove questões de um exame de acesso ao ensino secundário, contra sete respostas corretas do rival. “Estou convencido de que [o LaMDA] não é consciente em nenhum sentido significativo. Mas um tetraneto do LaMDA pode vir a ser. É possível, mas não acho que esteja assim tão perto”, comenta o investigador.

Já Pedro Lima, presidente do Institute for Systems and Robotics do Instituto Superior Técnico (IST), acredita “que se justifica algum hype [entusiasmo] na medida em que é um avanço”. No entanto, lembra também que esta área “tem tido muitos avanços e recuos”. “É sempre com cuidado que enfrentamos estes avanços, que há cinco anos eram ficção científica. O ChatGPT tem as suas falhas, mas, na realidade, [estes programas] são capazes de fazer coisas que revelam uma profundidade muito grande do que está por trás”, diz. Assumindo que assistiu a “muitos” desses avanços e recuos, o especialista também confessa que consegue “ver algumas diferenças” nesta onda de entusiasmo em comparação com momentos anteriores.

Novas formas de pesquisa

Há muito que os humanos sonham com robôs capazes de lhes satisfazer todos os desejos – mesmo todos. Mas uma boa regra geral é que as máquinas são quase o oposto dos humanos. Completam com rapidez e destreza o que é difícil para os humanos fazer (como processar todas as chaves já sorteadas no Euromilhões e dizer quais os números que saem com mais frequência), ao mesmo tempo que têm grande dificuldade em completar tarefas que são básicas para os humanos (como agarrar, segurar e transportar uma caixa). A robótica é muito próxima da inteligência artificial, só que, apesar dos avanços nos modelos de linguagem natural, tem ainda mais caminho pela frente, alerta Pedro Lima, do Técnico.

Isso não significa que a inteligência artificial – e mesmo a robótica – não tenham, já hoje, um impacto nas nossas vidas. As aplicações são múltiplas e vão do algoritmo que escolhe os vídeos que aparecem no TikTok ao modelo que verifica se uma transferência bancária é fraudulenta, passando pelo robô que acelera o processamento da nossa encomenda num centro de distribuição postal. Nada disto é novidade, mesmo para os leitores menos informados. Talvez, a grande transformação no curto prazo seja uma maior clareza quanto ao que a inteligência artificial ainda pode fazer para revolucionar o funcionamento dos motores de busca. E, até, mudar por completo o modelo de negócio de alguns gigantes da tecnologia.

Durante quase toda a história da internet, o Google foi o motor de busca dominante. Esse mercado parece estar agora sob disputa, depois de a Microsoft ter anunciado que o ChatGPT vai dar gás ao seu próprio motor de pesquisas, o praticamente esquecido Bing. A mudança já é bem visível. Enquanto o Google ainda exibe a mesma caixa de pesquisa desde o final dos anos 90, a página inicial do Bing tem agora uma caixa de pesquisa mais alta, com a indicação “Pergunte-me qualquer coisa…”. Os utilizadores são convidados a digitar até 1.000 carateres e alguns resultados são fornecidos em linguagem natural, como se de uma conversa se tratasse, graças ao poder dos modelos de linguagem da OpenAI.

Com a Google a preparar-se para adicionar o Bard às pesquisas, tudo parece indicar que a forma universal de pesquisar na web vai, muito em breve, ficar obsoleta. Quem procura “brinquedos para criança de seis anos” terá mais sucesso se expor a intenção na forma de um pedido: “Sugere cinco brinquedos para oferecer a uma criança de seis anos interessada em ciência”, por exemplo.

Essa realidade próxima vai exigir aos utilizadores um grau muito maior de confiança em relação ao que é apresentado pelos motores de busca, com riscos notórios associados, principalmente tendo em conta que a proliferação de informação falsa nos últimos anos tem tornado avisado o inverso. Novamente, os especialistas contactados para este artigo têm visões diferentes sobre esta matéria.

“Por um lado, eu acho que se está a atribuir demasiada inteligência a sistemas que não são tão inteligentes quanto isso. Por outro, temos de nos preparar para a quantidade de sistemas que vai usar o ChatGPT ou coisas semelhantes sem qualquer garantia de veracidade. É potencialmente perigoso”, admite Pedro Lima.

Esse é também um dos “grandes problemas” para João Leite, que sublinha que “nós, seres humanos, temos tendência a antropomorfizar estes sistemas”, olhando para eles “como se fossem seres humanos” e assumindo que, se é capaz de falar como um humano, também é capaz de fazer outras coisas como um humano. “Quase que colocamos ali uma confiança no que está a sair que é perigosa. Quando olhamos para o que acontece com as notícias falsas e a utilização das redes sociais, agora, imagine-se o perigo que será ter um sistema bem-falante”, diz o professor. “Assusta-me. Há dias li que um juiz dizia que já tinha usado [o ChatGPT] para escrever partes dos seus acórdãos e algumas pessoas já o estão a usar para fins sérios. Temo que essa fronteira seja rapidamente ultrapassada”, admite.

Arlindo Oliveira também concorda que o ChatGPT “não é um motor de busca”, mas encara esta transformação com algum otimismo. Porque, embora não o seja, “não é preciso fazer alterações tão profundas para o tornar num motor de busca”, diz. “É uma investigação ativa que se está a fazer, para reportar informação factual. Não me parece muito complicada. Não tenho grandes dúvidas de que, no futuro, vai haver modelos destes que vão ser usados como motores de busca. Parecidos com o que temos agora, mas menos sujeitos a cometer erros factuais. A vantagem será que consegue perceber melhor a nossa intenção, mastigar a informação toda e reportar”, remata o professor. “Este mecanismo é mais poderoso. É como se tivesse um assistente humano a interagir com o Google.”

União Europeia acelera o passo

Há quase cinco anos, pelo menos, que a Comissão Europeia despertou para os benefícios e riscos da inteligência artificial. A recolha de informação levou Bruxelas a apresentar, em abril de 2021, um pacote legislativo para regular estas tecnologias na União Europeia, que ficou conhecido por AI Act. A proposta encara o tema seguindo várias categorias de risco. Os sistemas considerados de alto risco serão sujeitos a regras apertadas, enquanto os que se encaixem na categoria de “risco inaceitável” serão totalmente proibidos.

O processo legislativo tem seguido os trâmites normais da União Europeia, que demora sempre vários anos. Mas os desenvolvimentos recentes, incluindo a disponibilização ao público de um modelo de linguagem geral, capaz de ser usado para os fins mais e menos arriscados, tornam a regulação ainda mais urgente, admitiu o comissário europeu Thierry Breton, em declarações à Reuters: “Como mostrou o ChatGPT, as soluções de inteligência artificial podem oferecer grandes oportunidades aos negócios e aos cidadãos, mas também apresentam riscos. É por isso que precisamos de um enquadramento regulatório sólido para garantir inteligência artificial de confiança, baseada em dados de alta qualidade”, comentou.

Se quiserem não perder o comboio, as instituições europeias terão, inevitavelmente, de acelerar o passo. O setor está a ferver e todos os dias surgem notícias de novas aplicações para estes algoritmos. Mas seria o ChatGPT capaz de substituir totalmente o autor deste artigo? Possivelmente. O programa conseguiria produzir muitas destas linhas, algumas até melhor do que este seu correspondente. Só que, à data, não teria como encontrar os melhores especialistas, agendar entrevistas, fazer perguntas, processar informação e raciocinar sobre ela de forma integrada. As máquinas podem já ser capazes de muita coisa. Mas, para gáudio da nossa espécie, a mão humana ainda faz toda a diferença.