Dezenas de especialistas em inteligência artificial (IA), incluindo os CEOs da OpenAI, Google DeepMind e Anthropic, assinaram recentemente uma declaração aberta publicada pelo Center for AI Safety (CAIS).
Acabamos de lançar uma declaração:
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.
Os signatários incluem Hinton, Bengio, Altman, Hassabis, Song, etc. https://t.co/N9f6hs4bpa
(1 / 6)
-Dan Hendrycks (@DanHendrycks) 30 de maio de 2023
A declaração contém uma única frase:
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.
Entre os signatários do documento estão um verdadeiro “quem é quem” dos luminares da IA, incluindo o “Padrinho” da IA, Geoffrey Hinton; Universidade da Califórnia, Stuart Russell de Berkeley; e Lex Fridman do Instituto de Tecnologia de Massachusetts. O músico Grimes também é signatário, listado na categoria “outras figuras notáveis”.
Relacionado: Músico Grimes disposto a 'dividir 50% dos royalties' com música gerada por IA
Embora a declaração possa parecer inócua na superfície, a mensagem subjacente é um tanto controversa na comunidade de IA.
Um número aparentemente crescente de especialistas acredita que as tecnologias atuais podem ou inevitavelmente levarão ao surgimento ou desenvolvimento de um sistema de IA capaz de representar uma ameaça existencial à espécie humana.
Suas opiniões, no entanto, são contrariadas por um contingente de especialistas com opiniões diametralmente opostas. Yann LeCun, cientista-chefe de IA da meta, por exemplo, observou em várias ocasiões que não acredita necessariamente que a IA se tornará incontrolável.
A IA super-humana não está nem perto do topo da lista de riscos existenciais.
Em grande parte porque ainda não existe.Até que tenhamos um design básico para IA de nível canino (sem falar no nível humano), discutir como torná-la segura é prematuro. https://t.co/ClkZxfofV9
-Yann LeCun (@ylecun) 30 de maio de 2023
Para ele e outros que discordam da retórica da “extinção”, como Andrew Ng, cofundador do Google Brain e ex-cientista-chefe do Baidu, a IA não é o problema, é a resposta.
Do outro lado do argumento, especialistas como Hinton e o CEO da Conjecture, Connor Leahy, acreditam que a IA em nível humano é inevitável e, como tal, a hora de agir é agora.
Os chefes de todos os principais laboratórios de IA assinaram esta carta reconhecendo explicitamente o risco de extinção da AGI.
Um incrível passo à frente, parabéns a Dan por seu incrível trabalho ao montar isso e obrigado a todos os signatários por fazerem sua parte para um futuro melhor! https://t.co/KDkqWvdJcH
-Connor Leahy (@NPCollapse) 30 de maio de 2023
No entanto, não está claro quais ações os signatários da declaração estão pedindo. Os CEOs e/ou chefes de IA de quase todas as grandes empresas de IA, bem como cientistas renomados de toda a academia, estão entre os que assinaram, deixando claro que a intenção não é interromper o desenvolvimento desses sistemas potencialmente perigosos.
No início deste mês, o CEO da OpenAI, Sam Altman, um dos signatários da declaração acima mencionada, fez sua primeira aparição perante o Congresso durante uma audiência no Senado para discutir a regulamentação da IA. Seu testemunho ganhou as manchetes depois que ele passou a maior parte instando os legisladores a regularem seu setor.
O Altman's Worldcoin, um projeto que combina criptomoeda e prova de personalidade, também fez recentemente as rodadas da mídia depois de levantar US$ 115 milhões em financiamento da Série C, elevando seu financiamento total após três rodadas para US$ 240 milhões.
Fonte: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war