O grande perigo da inteligência artifical sem controlo: "o risco de extinção" - TVI

O grande perigo da inteligência artifical sem controlo: "o risco de extinção"

  • CNN
  • Brian Fung
  • 31 mai 2023, 13:14
Indústria e investigadores na área da inteligência artificial alertam para o risco de "extinção". Foto:  Cecilie_Arcurs/E+/Getty Images

"Mitigar o risco de extinção devido à inteligência artificial deve ser uma prioridade global a par de outros riscos para a sociedade", dizem

Dezenas de líderes da indústria da inteligência artificial (IA), académicos e até algumas celebridades apelaram na terça-feira à redução do risco de aniquilação global devido à inteligência artificial, argumentando numa breve declaração que a ameaça de extinção devido à IA deve ser uma prioridade global.

"Mitigar o risco de extinção devido à inteligência artificial deve ser uma prioridade global a par de outros riscos para a sociedade, como pandemias e uma guerra nuclear", diz o comunicado publicado pelo Centro para a Segurança na IA.

O documento foi assinado pelos principais responsáveis da indústria, incluindo o CEO da OpenAI, Sam Altman; o chamado "padrinho" da IA, Geoffrey Hinton; executivos de topo e investigadores da Google DeepMind e Anthropic; Kevin Scott, diretor de tecnologia da Microsoft; Bruce Schneier, o pioneiro da segurança e criptografia da Internet; o defensor do clima Bill McKibben; o músico Grimes, entre outros.

O comunicado reforça as preocupações generalizadas sobre o grande perigo da inteligência artificial sem controlo. Os especialistas em IA afirmam que a sociedade ainda está muito longe de desenvolver o tipo de inteligência artificial geral que é matéria de ficção científica; os inovadores chatbots atuais reproduzem em grande parte padrões baseados em dados de treino que lhes foram fornecidos e não pensam por si próprios.

Ainda assim, a onda de entusiasmo e de investimento na indústria da IA levou a apelos à regulamentação no início da era da inteligência artificial, antes que ocorram grandes percalços.

Este apelo surge na sequência do sucesso viral do ChatGPT da OpenAI, que ajudou a intensificar corrida na indústria tecnológica pelo domínio da inteligência artificial. Face a esta realidade, um número crescente de legisladores, grupos de defesa e especialistas em tecnologia têm alertado para o potencial de uma nova safra de chatbots alimentados por IA para espalhar desinformação e substituir empregos.

Hinton, cujo trabalho pioneiro ajudou a moldar os sistemas de IA de hoje, disse anteriormente à CNN que decidiu deixar seu cargo na Google e "denunciar" a tecnologia depois de ter percebido "subitamente" "que estas coisas estão a ficar mais inteligentes do que nós".

Dan Hendrycks, diretor do Centro para a Segurança na IA, escreveu num tweet na terça-feira que a declaração proposta pela primeira vez por David Kreuger, um professor de IA da Universidade de Cambridge, não impede a sociedade de enfrentar outros tipos de risco da IA, como o viés algorítmico ou a desinformação.

Hendrycks comparou o comunicado agora partilhado com os avisos dos cientistas nucleares "que emitem avisos sobre as próprias tecnologias que criaram".

"As sociedades podem lidar com vários riscos ao mesmo tempo; não é «ou / ou», mas «sim / e» ", escreveu Hendrycks. "Do ponto de vista da gestão de riscos, tal como seria imprudente dar prioridade exclusivamente aos danos atuais, também seria imprudente ignorá-los."

Continue a ler esta notícia