Um sistema de inteligência artificial considerado “perigoso demais” para ser utilizado pelo público está disponível para qualquer pessoa que o queira utilizar.
O sistema “GPT-2” foi desenvolvido pela OpenAI, uma instituição sem fins lucrativos de pesquisa em inteligência artificial, fundada por Elon Musk.
O funcionamento do “GPT-2” é simples: basta um utilizador inserir um trecho de texto e o sistema analisa-o, sendo capaz de adivinhar e de produzir a continuação do texto.
We're releasing the 1.5billion parameter GPT-2 model as part of our staged release publication strategy.
- GPT-2 output detection model: https://t.co/PX3tbOOOTy
- Research from partners on potential malicious uses: https://t.co/om28yMULL5
- More details: https://t.co/d2JzaENiks pic.twitter.com/O3k28rrE5l
— OpenAI (@OpenAI) November 5, 2019
Ao fazê-lo, o sistema reproduz o tom, a forma e o estilo da pessoa, criando um texto que é indistinguível daquele criado pelo utilizador original.
Rapidamente, vários investigadores aperceberam-se de que o sistema era demasiado bom a realizar a tarefa atribuída e temem agora que possa ser utilizado de forma maliciosa por políticos ou criminosos.
O Centro de Investigação de Terrorismo Extremismo e Contraterrorismo do Instituto de Estudos Internacionais de Middlebury alertou para a facilidade como o sistema GPT-2 pode ser manipulado para gerar propaganda sintética para movimentos racistas, anárquicos ou jihadistas.
The full GPT-2 model is finally out.
I dunno, guys. pic.twitter.com/k5dP8V2sa5
— Tomer Ullman (@TomerUllman) November 5, 2019
A OpenAi afirmou também que o seu sistema pode causar o colapso da confiança do público naquilo que lê.
Devido a preocupações com a utilização maliciosa deste tipo de tecnologia, decidimos não divulgar o modelo com mais capacidades”, escreveu a OpenAI em fevereiro, no seu blogue oficial.
Em vez disso, a instituição decidiu disponibilizar um modelo inferior do sistema.
Como uma experiência de responsabilidade e transparência, vamos, contudo, disponibilizar um modelo com menos capacidade para ser testado por investigadores”, escreveu a OpenAI.
Vários investigadores e interessados começaram a ensinar a este modelo dados específicos e criaram exemplos de versões do GPT-2 especializadas em diferentes estilos de texto em inglês: há uma sala de conversa exclusiva para bots, softwares concebidos para simular ações humanas, um gerador de poesia e um simulador de chat online.
Uma destas versões disponíveis online mostra exatamente o poder e os limites da versão inferior do GPT-2.
Por exemplo, se escrever: “gosto de maçãs”, o sistema responde, numa questão de segundos, da seguinte forma:
“Gosto de maçãs, mas tenho de ser honesto, o facto de a indústria alimentar ter conseguido fazer tanto dinheiro ao manipular as pessoas que querem maçãs pela sua doçura, e são doces. E as pessoas que não gostam do seu sabor doce, vão comprá-la a uma loja.
Noutras palavras, não podemos culpar as pessoas que compram o que querem e pagam o que têm de pagar. Se o governo mudasse os impostos na alimentação, isso poderia significar a subida do preço de vários alimentos, mas a maior parte dos preços dos alimentos continuaria estável.
Porém, um imposto nas maçãs teria um grande impacto nas pessoas que vivem em comunidades remotas ou rurais”
Ou seja, a partir de uma informação bastante simples, o sistema completou a resposta com visões económicas, sociais e políticas.
A versão completa do GPT-2 é mais convincente do que a versão testada, mas apenas por uma pequena margem.
the neural net (gpt2) fed the opening line of neuromancer has created a novel premise i really want to read? pic.twitter.com/OxkBSISm80
— charlotte 👻 (@tambourine) November 7, 2019
A divulgação do modelo mais recente do sistema GPT-2 vem numa altura em que se discute de forma acesa a responsabilidade que os investigadores de inteligência artificial devem ter em mitigar os danos causados pelo seu trabalho.
Especialistas temem também que o acesso fácil a sistemas de inteligência artificial possa gerar perigos para o público, como o uso de deepfakes, uma técnica de síntese de imagens ou sons humanos baseada em técnicas de inteligência artificial.