Especialistas em IA assinam documento comparando risco de 'extinção da IA' a pandemias e guerra nuclear

Dezenas de especialistas em inteligência artificial (IA), incluindo os CEOs da OpenAI, Google DeepMind e Anthropic, assinaram recentemente uma declaração aberta publicada pelo Center for AI Safety (CAIS). 

A declaração contém uma única frase:

“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.

Entre os signatários do documento estão um verdadeiro “quem é quem” dos luminares da IA, incluindo o “Padrinho” da IA, Geoffrey Hinton; Universidade da Califórnia, Stuart Russell de Berkeley; e Lex Fridman do Instituto de Tecnologia de Massachusetts. O músico Grimes também é signatário, listado na categoria “outras figuras notáveis”.

Relacionado: Músico Grimes disposto a 'dividir 50% dos royalties' com música gerada por IA

Embora a declaração possa parecer inócua na superfície, a mensagem subjacente é um tanto controversa na comunidade de IA.

Um número aparentemente crescente de especialistas acredita que as tecnologias atuais podem ou inevitavelmente levarão ao surgimento ou desenvolvimento de um sistema de IA capaz de representar uma ameaça existencial à espécie humana.

Suas opiniões, no entanto, são contrariadas por um contingente de especialistas com opiniões diametralmente opostas. Yann LeCun, cientista-chefe de IA da meta, por exemplo, observou em várias ocasiões que não acredita necessariamente que a IA se tornará incontrolável.

Para ele e outros que discordam da retórica da “extinção”, como Andrew Ng, cofundador do Google Brain e ex-cientista-chefe do Baidu, a IA não é o problema, é a resposta.

Do outro lado do argumento, especialistas como Hinton e o CEO da Conjecture, Connor Leahy, acreditam que a IA em nível humano é inevitável e, como tal, a hora de agir é agora.

No entanto, não está claro quais ações os signatários da declaração estão pedindo. Os CEOs e/ou chefes de IA de quase todas as grandes empresas de IA, bem como cientistas renomados de toda a academia, estão entre os que assinaram, deixando claro que a intenção não é interromper o desenvolvimento desses sistemas potencialmente perigosos.

No início deste mês, o CEO da OpenAI, Sam Altman, um dos signatários da declaração acima mencionada, fez sua primeira aparição perante o Congresso durante uma audiência no Senado para discutir a regulamentação da IA. Seu testemunho ganhou as manchetes depois que ele passou a maior parte instando os legisladores a regularem seu setor.

O Altman's Worldcoin, um projeto que combina criptomoeda e prova de personalidade, também fez recentemente as rodadas da mídia depois de levantar US$ 115 milhões em financiamento da Série C, elevando seu financiamento total após três rodadas para US$ 240 milhões.

Fonte: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war