Sistema de inteligência artificial considerado "perigoso demais" está disponível para qualquer pessoa - TVI

Sistema de inteligência artificial considerado "perigoso demais" está disponível para qualquer pessoa

  • Henrique Magalhães Claudino
  • 7 nov 2019, 20:25
Trabalho

Sistema reproduz o tom, a forma e o estilo da pessoa, criando um texto que é indistinguível daquele criado pelo utilizador original

Um sistema de inteligência artificial considerado “perigoso demais” para ser utilizado pelo público está disponível para qualquer pessoa que o queira utilizar.

O sistema “GPT-2” foi desenvolvido pela OpenAI, uma instituição sem fins lucrativos de pesquisa em inteligência artificial, fundada por Elon Musk.

O funcionamento do “GPT-2” é simples: basta um utilizador inserir um trecho de texto e o sistema analisa-o, sendo capaz de adivinhar e de produzir  a continuação do texto. 

 

 

Ao fazê-lo, o sistema reproduz o tom, a forma e o estilo da pessoa, criando um texto que é indistinguível daquele criado pelo utilizador original. 

Rapidamente, vários investigadores aperceberam-se de que o sistema era demasiado bom a realizar a tarefa atribuída e temem agora que possa ser utilizado de forma maliciosa por políticos ou criminosos.

O Centro de Investigação de Terrorismo Extremismo e Contraterrorismo do Instituto de Estudos Internacionais de Middlebury alertou para a facilidade como o sistema GPT-2 pode ser manipulado para gerar propaganda sintética para movimentos racistas, anárquicos ou jihadistas.

 

 

A OpenAi afirmou também que o seu sistema pode causar o colapso da confiança do público naquilo que lê.

Devido a preocupações com a utilização maliciosa deste tipo de tecnologia, decidimos não divulgar o modelo com mais capacidades”, escreveu a OpenAI em fevereiro, no seu blogue oficial. 

Em vez disso, a instituição decidiu disponibilizar um modelo inferior do sistema.

Como uma experiência de responsabilidade e transparência, vamos, contudo, disponibilizar um modelo com menos capacidade para ser testado por investigadores”, escreveu a OpenAI.

Vários investigadores e interessados começaram a ensinar a este modelo dados específicos e criaram exemplos de versões do GPT-2 especializadas em diferentes estilos de texto em inglês: há uma sala de conversa exclusiva para bots, softwares concebidos para simular ações humanas, um gerador de poesia e um simulador de chat online.

Uma destas versões disponíveis online mostra exatamente o poder e os limites da versão inferior do GPT-2.

Por exemplo, se escrever: “gosto de maçãs”, o sistema responde, numa questão de segundos, da seguinte forma:

Gosto de maçãs, mas tenho de ser honesto, o facto de a indústria alimentar ter conseguido fazer tanto dinheiro ao manipular as pessoas que querem maçãs pela sua doçura, e são doces. E as pessoas que não gostam do seu sabor doce, vão comprá-la a uma loja. 

Noutras palavras, não podemos culpar as pessoas que compram o que querem e pagam o que têm de pagar. Se o governo mudasse os impostos na alimentação, isso poderia significar a subida do preço de vários alimentos, mas a maior parte dos preços dos alimentos continuaria estável. 

Porém, um imposto nas maçãs teria um grande impacto nas pessoas que vivem em comunidades remotas ou rurais

Ou seja, a partir de uma informação bastante simples, o sistema completou a resposta com visões económicas, sociais e políticas.

A versão completa do GPT-2 é mais convincente do que a versão testada, mas apenas por uma pequena margem. 

 

A divulgação do modelo mais recente do sistema GPT-2 vem numa altura em que se discute de forma acesa a responsabilidade que os investigadores de inteligência artificial devem ter em mitigar os danos causados pelo seu trabalho. 

Especialistas temem também que o acesso fácil a sistemas de inteligência artificial possa gerar perigos para o público, como o uso de deepfakes, uma técnica de síntese de imagens ou sons humanos baseada em técnicas de inteligência artificial.

Continue a ler esta notícia