O momento Cry Wolf do hype da IA ​​é inútil

Embora eu seja alguém que estuda cenários do fim da humanidade, acredito que a “carta do especialista” sugerindo uma moratória de 6 meses para a IA ou a declaração mais recente de que o risco da IA ​​está no nível de pandemia e risco nuclear são exagerados. A opinião ainda mais selvagem de que precisamos desligar a IA é irresponsável. Qualquer preocupação tem que ser proporcional aos riscos que enfrentamos. No momento, não estamos em perigo imediato da IA.

As IAs atuais não são capazes de dominar a sociedade. Eles não têm sentimentos e não merecem proteção como as vidas humanas. Eles não são superinteligentes e não superam os humanos de maneira geral. Na verdade, eles não pensam em nada. No momento, se alimentados com dados abundantes, os AIs são muito bons em tarefas específicas, como cálculo e previsão. Isso não é preocupante, esses são recursos que esses sistemas têm por design. A promessa da IA ​​inclui resolver o câncer, transformar a produção industrial, modelar cenários futuros e gerenciar desafios ambientais. Dito isso, existem razões legítimas para criticar as IAs atuais pelo uso de recursos, transparência, preconceito, segurança cibernética e seu impacto futuro no emprego.

As IAs são computacionalmente caras – o que significa que são um grande desperdício de energia fóssil escassa. Isso tem que ser tratado imediatamente. Mas não é uma questão existencial, é uma questão de uso racional de recursos. O fato de as IAs que dependem de modelos de dados grandes e ineficientes estarem se tornando muito caras para rastrear e investigar pela academia ou pelo governo é um problema real. Mas é iminentemente corrigível. Consórcios de instituições acadêmicas de elite ou governos poderiam se unir e compartilhar recursos de computação da mesma forma que fizeram para a supercomputação.

Os Large Language Models (LLM) são modelos de IA que podem gerar textos em linguagem natural a partir de grandes quantidades de dados. Um problema com isso é que esses textos são derivados diretamente das contribuições intelectuais honestas de outras pessoas. Eles são de fato roubados. A IA generativa, em particular, recombina dados de consumidores e organizacionais, bem como conteúdo criativo, violando totalmente os direitos autorais. Isso é sério, mas não existencial e, além disso, a UE, os lobistas de Hollywood e os “cinco grandes” editoras de livros já estão no caso. Espere que isso diminua o peso da IA. No ritmo atual, as IAs ficarão sem bons dados de treinamento bem antes de se aproximarem da senciência.

Algoritmos já usados ​​para calcular nossos impostos, selecionar nossos feeds online ou colocar pessoas na prisão têm uma falta de transparência impressionante. No entanto, esse é o caso há anos e não tem nada a ver com os últimos desenvolvimentos de IA. O viés de IA é um recurso e não um bug. A estereotipagem é, de fato, a principal abordagem através da qual tais modelos funcionam. Só que o preconceito está escondido em camadas impenetráveis ​​de raciocínio de máquina indescritível para humanos, especialistas ou não. O que devemos questionar é a sabedoria dos desenvolvedores que desenvolveram tais sistemas, não a capacidade do sistema que eles criaram, que é um fato. Os sistemas raramente serão melhores do que a sabedoria ou as intenções daqueles que os constroem ou administram.

Os dados de treinamento de IA refletem os preconceitos presentes na sociedade da qual esses dados foram coletados. A reutilização de dados de treinamento ruins é uma prática preocupante que já polui os modelos de IA. As abordagens atuais de IA simplesmente amplificam o viés para chegar rapidamente a um resultado. Isto é, reconhecidamente, o oposto do que queremos. O que queremos fazer é usar a tecnologia para proteger o erro humano. Preocupar-se com o erro da máquina é um desperdício da inteligência humana.

Apesar da metáfora da “rede neural”, as IAs atuais não se parecem com cérebros nem de longe. Os atuais sistemas de IA não podem raciocinar por analogia como os humanos. Isso é bom. Na verdade, podemos não querer o tipo de alinhamento de IA que os fanáticos estão defendendo e tentando imitar. As máquinas devem ser diferentes dos humanos. É assim que podemos maximizar os pontos fortes uns dos outros. E como podemos manter as máquinas distintas e separadas. As máquinas não devem ter nenhum interesse para alinhar.

A IA representa cada vez mais uma ameaça significativa à segurança cibernética como um ativo para criminosos e estados hostis. Mas a segurança cibernética é um setor maduro com muitos especialistas bem equipados para lidar com o desafio. Não há razão para desligar a IA por causa de temores de segurança cibernética.

A interrupção do emprego por causa da IA ​​tem sido uma questão política há anos, primeiro com robôs, agora com sistemas de IA baseados em software. Isso significa que os governos estarão prontos para lidar com isso. O estudo Work of The Future do MIT descobriu que a preocupação com o desemprego devido aos robôs é exagerada. Os seres humanos sempre encontraram maneiras de trabalhar e também o farão no futuro. A manufatura será transformada pela IA? Já está acontecendo, mas de forma bastante controlada.

De tempos em tempos, a IA sofre com promessas exageradas sobre funcionalidade atual ou escopo futuro. Os primeiros invernos de IA começaram em 1974-1980, quando o governo dos EUA retirou seu financiamento. A segunda foi de 1987 a 1993, quando os custos aumentaram e a IA falhou em cumprir suas elevadas promessas.

Aguardando a chegada de novos paradigmas, no período de 2025-2030, provavelmente entraremos em um terceiro inverno de IA. Pelo menos em comparação com o verão quente da IA ​​que nos foi prometido. A razão é que, apesar do hype, por todos os motivos descritos acima, grandes modelos de linguagem estão prestes a atingir sua utilidade máxima e, eventualmente, precisarão ser substituídos por abordagens computacionalmente mais elegantes e mais transparentes.

Um desses candidatos é a computação hiperdimensional, que faria com que as máquinas raciocinassem com mais eficiência porque dariam às máquinas compreensão semântica, a capacidade de processar o significado e o contexto por trás das informações do mundo real. No momento, os sistemas de IA não entendem as relações entre palavras e frases, eles são simplesmente bons em adivinhar. Isso é insuficiente. Eventualmente, precisaremos de IA incorporada, porque o pensamento está ligado à percepção do espaço. Esse é definitivamente o caso da fabricação, que é um jogo altamente físico. Também precisaremos de IA capaz de recursos de memória humana, como priorizar com base em algumas informações em primeiro plano e em segundo plano em outras informações. O esquecimento é uma ferramenta que os humanos usam para o pensamento abstrato, deixando de lado práticas organizacionais obsoletas, tomando decisões e permanecendo no momento e não é simplesmente uma falha. Nenhuma máquina pode fazer isso muito bem ainda.

Enquanto isso, precisamos regular, mas não neste segundo. E, quando regulamos, é melhor que o façamos bem. A má regulamentação da IA ​​provavelmente piorará a situação. Acordar os reguladores para esse desafio pode ser útil, mas não tenho certeza se a atual geração de reguladores está preparada para esse tipo de mudanças radicais que seriam necessárias para fazê-lo bem. Isso implicaria restringir empresas poderosas (possivelmente todas as empresas listadas), limitar o uso de IA na governança e significaria enormes mudanças na maneira como os mercados de consumo funcionam atualmente. Essencialmente, teríamos que religar a sociedade. Isso nos levaria ao decrescimento algumas décadas antes do que poderíamos desejar. O desafio da transparência em torno da IA ​​pode ser mais formidável do que as variáveis ​​de controle com as quais todos parecem tão preocupados, não que não sejam relacionadas, é claro.

Além disso, não podemos ficar igualmente preocupados sempre que um benchmark de IA é alcançado. Precisamos conservar nossas energias para momentos verdadeiramente grandes de risco em cascata. Eles virão e, para ser justo, não estamos preparados. Meus cenários futuros previstos (consulte Cenários de extinção para 2075) incluem violações massivas de dados que mantêm países inteiros bloqueados em seus próprios processos por meses. Também me preocupo com IAs que são auxiliadas por grupos criminosos ou atores estatais. Acima de tudo, eu me preocupo com combinações de IA, nanotecnologia, biologia sintética e tecnologia quântica – inteligência quase invisível quase orgânica de capacidade desconhecida, talvez daqui a algumas décadas, acontecendo exatamente quando o mundo será consumido pelos efeitos em cascata do clima. mudar.

Os atuais modelos de IA ainda não funcionam suficientemente bem para serem uma ameaça à humanidade. Antes de podermos considerar desligá-los, precisamos de IAs melhores. Mais do que isso, precisamos de desenvolvedores mais sábios, cidadãos mais sensibilizados e formuladores de políticas mais bem informados. Também precisamos de um conceito de COMO regular a IA. Mas isso pode ser feito sem desacelerar nada. Será uma jornada educacional para todos. A carta de moratória relativa ao GPT 4 (2023) é um momento de choro com apenas uma leve semelhança com os riscos em cascata que a humanidade enfrentará nas próximas décadas. Colocar o risco de IA no nível de risco pandêmico e risco nuclear em 2023 é prematuro. Será que vamos chegar lá? Talvez. Mas o choro do lobo tem consequências. Suga o oxigênio dos próximos debates sobre sustos reais.

Fonte: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/