Líderes e especialistas em tecnologia pedem uma pausa de 6 meses na experimentação de IA

Líderes e especialistas em tecnologia pedem uma pausa de 6 meses na experimentação de IA

Líderes e especialistas em tecnologia estão pedindo uma pausa de 6 meses na experimentação de IA. Eles estão preocupados com os eventos (muito) turbulentos nesta área e com a falta de segurança ao redor.

A carta aberta, assinada por líderes de tecnologia e outros pesquisadores de IA de alto nível, pede aos laboratórios e empresas de IA que “ suspendam imediatamente ” seus trabalhos. Os signatários, incluindo Steve Wozniak e Elon Musk, gostariam de fazer uma pausa de pelo menos seis meses na produção de tecnologias baseadas em GPT-4 para aproveitar os sistemas de IA existentes e permitir que as pessoas se adaptem e garantam que possam beneficiar a todos. A carta acrescenta que pensamento e previsão são essenciais para proteger os sistemas de IA.

Líderes e especialistas em tecnologia pedem uma pausa de 6 meses na experimentação de IA

A referência ao GPT-4, um modelo OpenAI que pode responder com texto a mensagens escritas ou visuais, surge no momento em que as empresas já estão tentando desenvolver sistemas sofisticados de bate-papo usando essa tecnologia. A Microsoft, por exemplo, confirmou recentemente que redesenhou seu mecanismo de busca Bing para aproveitar o modelo GPT-4. O Google, por sua vez, lançou recentemente o Bard, seu próprio sistema generativo de inteligência artificial baseado em LaMDA. Esse problema existe há muito tempo, mas a corrida em que as empresas de tecnologia se encontram hoje parece ser ainda mais preocupante.

“Infelizmente, esse nível de planejamento e gerenciamento não existe, os laboratórios de IA estão trabalhando duro para desenvolver e implantar cérebros virtuais que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma alguma. Seguro”, podemos ler no especial.

Eles estão preocupados com os desenvolvimentos (demasiado) rápidos na área e a insegurança em torno

Esta carta foi publicada pelo Instituto Futuro da Vida (FLI), organização comprometida com a redução dos riscos e do uso indevido das novas tecnologias. Anteriormente, Elon Musk doou US$ 10 milhões ao FLI para estudar a segurança da IA. Além de Steve Wozniak e este último, existem grandes nomes no campo da IA, como o presidente do Center for AI e Digital Policy, Mark Rothenberg, o físico do MIT e presidente da FLI, Max Tegmark, e o escritor Yuval Noah Harari. Este último também escreveu um artigo de opinião no New York Times na semana passada sobre os riscos representados pela IA com os fundadores do Center for Humane Technology e outros signatários Tristan Harris e Aza Raskin.

Essa ligação parece uma continuação lógica de uma pesquisa de 2022 com mais de 700 pesquisadores de aprendizado de máquina, que descobriu que quase metade dos participantes disse que havia 10% de chance de que as consequências da IA ​​seriam “extremamente ruins”. Quando questionados sobre a segurança da pesquisa em IA, 68% dos pesquisadores responderam que mais ou muito mais precisa ser feito.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *