
Empresários de big techs como Elon Musk (CEO da Tesla e diretor do Twitter), Jaan Tallinn (co-fundador do Skype), Steve Wozniak (co-fundador da Apple) e vários pesquisadores de Inteligência Artificial assinaram uma carta aberta que pede uma pausa no desenvolvimento de sistemas de IA.
O documento cita receio sobre os “riscos profundos para a sociedade e humanidade” e diz que os laboratórios estão em uma “corrida fora do controle” para desenvolver e implantar sistemas de aprendizado de máquina. A oremissa é “que ninguém – nem mesmo seus criadores – pode entender, prever, ou ter controle confiável”.
“Pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”, afirma o documento.
VEJA TAMBÉM:
– GM testa integração do ChatGPT aos sistemas de seus veículos
– Carro elétrico feito no Brasil: realidade imediata ou sonho distante?
Carta pode abrir caminho para domínio político
Segundo o site The Verge, é improvável que a carta tenha qualquer efeito sobre o clima atual na pesquisa de IA. Empresas de tecnologia como Google e Microsoft correm para implantar novos produtos, muitas vezes deixando de lado as preocupações com segurança e ética, de acordo com a reportagem.
Por outro lado, é um sinal de uma crescente oposição, que pode abrir caminho para regulamentações governamentais sobre o tema.
– Faça aqui a sua inscrição no #ABX23 e garanta sua presença no maior encontro do setor automotivo
Até mesmo a multiplataforma digital OpenAI expressou a necessidade potencial de “revisão independente” de futuros sistemas de IA para garantir que eles atendam aos padrões de segurança.
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar, em parceria, um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, escrevem eles. “Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros.”