logo

Elon Musk e outros CEOs tech pedem pausa em desenvolvimento de IA

Carta aberta assinada por empresários e pesquisadores diz que implementação de sistemas de aprendizado de máquina saiu do controle
Author image

Redação AB

31 mar 2023

2 minutos de leitura

Imagem de Destaque

Empresários de big techs como Elon Musk (CEO da Tesla e diretor do Twitter), Jaan Tallinn (co-fundador do Skype), Steve Wozniak (co-fundador da Apple) e vários pesquisadores de Inteligência Artificial assinaram uma carta aberta que pede uma pausa no desenvolvimento de sistemas de IA.

O documento cita receio sobre os “riscos profundos para a sociedade e humanidade” e diz que os laboratórios estão em uma “corrida fora do controle” para desenvolver e implantar sistemas de aprendizado de máquina. A oremissa é “que ninguém – nem mesmo seus criadores – pode entender, prever, ou ter controle confiável”.

“Pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”, afirma o documento.


VEJA TAMBÉM:
GM testa integração do ChatGPT aos sistemas de seus veículos
Carro elétrico feito no Brasil: realidade imediata ou sonho distante?


Carta pode abrir caminho para domínio político

Segundo o site The Verge, é improvável que a carta tenha qualquer efeito sobre o clima atual na pesquisa de IA. Empresas de tecnologia como Google e Microsoft correm para implantar novos produtos, muitas vezes deixando de lado as preocupações com segurança e ética, de acordo com a reportagem.

Por outro lado, é um sinal de uma crescente oposição, que pode abrir caminho para regulamentações governamentais sobre o tema.


– Faça aqui a sua inscrição no #ABX23 e garanta sua presença no maior encontro do setor automotivo


Até mesmo a multiplataforma digital OpenAI expressou a necessidade potencial de “revisão independente” de futuros sistemas de IA para garantir que eles atendam aos padrões de segurança. 

“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar, em parceria, um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, escrevem eles. “Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros.”