Os formuladores de políticas precisam lidar com os desafios reais da IA

Concentrar-se no risco nebuloso de extinção da IA ​​é uma distração perigosa.

Na semana passada, um grupo financiado pelo Vale do Silício chamado Center for AI Safety divulgou uma declaração de uma frase: “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”. Ele foi assinado por muitos líderes da indústria e respeitados pesquisadores de IA e recebeu ampla cobertura da imprensa.

A reação mais ampla à declaração foi dura. Sandra Wachter, professora da Universidade de Oxford, disse que foi apenas um golpe publicitário. Alguns dos signatários mais sensatos, como o especialista em segurança Bruce Schneier, rapidamente expressaram remorso aos signatários. “Na verdade, não acho que a IA represente um risco para a extinção humana”, disse Schneier.

Outros pensaram que a declaração era realmente um truque de arrecadação de fundos. O professor de Sociologia da Duke University, Kieren Healy, postou uma paráfrase simulada: “meus amigos e eu vamos precisar de um caminhão cheio de dinheiro para mitigar as ameaças existenciais literais em nível de espécie associadas a essa coisa que afirmamos estar fazendo”.

Marietje Schaake, ex-parlamentar da UE agora no Centro de Política Cibernética da Universidade de Stanford, sugeriu que o subtexto da declaração era que os formuladores de políticas deveriam lidar com o risco existencial, enquanto os executivos de negócios estabelecem as regras reais para o uso da IA. Embora a IA possa ser uma novidade, disse ela, esse argumento implícito de que os líderes da indústria de IA “estão em melhor posição para regular as próprias tecnologias que produzem” não passava de pontos de discussão reciclados de seu uso anterior em mídias sociais e controvérsias sobre criptomoedas.

Minha opinião é que os avisos apocalípticos de IA alcançando uma agência consciente e independente são uma distração dos verdadeiros desafios da IA ​​que exigem que os reguladores intensifiquem a aplicação da lei atual e os formuladores de políticas considerem revisões para lidar com as lacunas legais.

A fraude realizada usando IA é ilegal, como disse a presidente da Comissão Federal de Comércio, Lina Khan. A agência já alertou sobre o uso de IA para se passar por pessoas para cometer golpes por vídeo e telefone. A China notou a mesma coisa e está reprimindo os golpes baseados em IA. Não está claro se há novas questões legais aqui, mas enormes esforços de fiscalização seriam necessários para controlar essa enxurrada de fraudes de IA. Financiar totalmente o pedido de orçamento da agência de US$ 590 milhões seria um uso muito mais produtivo do dinheiro público do que um estudo dos riscos existenciais da IA.

Todo mundo está preocupado com a desinformação criada pela IA, como o recente anúncio do 'Falso Putin' de que a Rússia estava sob ataque. A rotulagem pode ajudar muito a reduzir esses riscos. O comercial do Comitê Nacional Republicano que se seguiu ao anúncio de Biden de sua candidatura presidencial usou IA para gerar imagens do que poderia acontecer sob uma nova presidência de Biden, mas foi rotulado como tal e isso reduziu o risco de desinformação.

A transparência para a IA é um fruto de política acessível que os formuladores de políticas devem agarrar, como alguns parecem estar fazendo. Nesta semana, a vice-presidente da Comissão Europeia, Vera Jourova, pediu às empresas de tecnologia que rotulem o conteúdo gerado pela inteligência artificial. Nos EUA, o deputado Ritchie Torres (DN.Y.) apresentará em breve a legislação que exigiria que serviços como o ChatGPT divulguem que sua produção foi “gerada por inteligência artificial”.

Direitos autorais e IA são outro desafio. Alguma clareza é necessária sobre como compensar os proprietários de direitos autorais pelo uso de seu material para treinamento em IA. Em fevereiro, a Getty processou a Stability AI nos EUA, dizendo que a empresa de IA havia copiado 12 milhões de imagens da Getty sem permissão para treinar seu software de geração de imagens Stable Diffusion AI. Na semana passada, pediu a um tribunal de Londres que bloqueasse a Stability AI no Reino Unido porque a empresa de IA violou os direitos autorais da Getty ao treinar seu sistema.

Esses casos serão discutidos no tribunal. Mas há um argumento decente de que os detentores de direitos autorais não precisam ser compensados ​​por causa do uso justo ou porque apenas fatos e ideias desprotegidos são extraídos para treinamento de IA. Além disso, a diretiva Copyright in Digital Single Market da União Europeia de 2019 contém uma exceção que permite a mineração de texto e dados de material protegido por direitos autorais on-line, a menos que o proprietário dos direitos autorais opte por não usar proteções tecnológicas, como um bloqueador de cabeçalho para impedir a digitalização. Isso pode abranger dados de treinamento de IA.

O atual rascunho da Lei de Inteligência Artificial da União Europeia exige a divulgação dos trabalhos protegidos por direitos autorais usados ​​no treinamento de sistemas de IA. Isso parece ter a intenção de permitir que os proprietários de direitos autorais exerçam seu direito de recusar a mineração de texto e dados para treinamento de IA. Mas também pode ser um passo em direção a algo mais. Isso pode levar a um regime de licença compulsória que impediria os detentores de direitos autorais de bloquear o treinamento em IA, mas forneceria a eles alguma compensação pelo uso de sua propriedade intelectual. Resolver essas questões de direitos autorais exigirá atenção concentrada dos formuladores de políticas.

A Lei de IA da UE também exige que os sistemas de IA de risco passem por um processo de certificação destinado a garantir que os riscos tenham sido avaliados adequadamente e medidas de mitigação razoáveis ​​adotadas. O rascunho atual trata modelos fundamentais como o ChatGPT como sistemas arriscados sujeitos a certificação, um fardo potencial que aparentemente levou o chefe da Open AI, Sam Altman, a dizer que retiraria o ChatGPT da Europa se não pudesse cumpri-lo. Desde então, ele voltou atrás com a ameaça, dizendo que não tem planos de sair.

No entanto, ele tem um ponto. Os formuladores de políticas que procuram uma questão concreta para mastigar devem se perguntar como um sistema de IA de uso geral, como o ChatGPT, pode ser certificado como “seguro” quando muitos dos riscos surgirão apenas quando o sistema for aplicado na prática.

Essas são apenas algumas das principais questões de IA que devem preocupar os formuladores de políticas. Outros incluem impactos no emprego de sistemas de IA cada vez mais capazes, desafios de privacidade quando os dados de treinamento incluem informações pessoais, a tendência à concentração criada pelos enormes custos e efeitos de rede do software de IA de treinamento, a aplicação das regras de responsabilidade da Seção 230 e a aplicação de as leis contra preconceito em empréstimos, habitação e emprego quando a IA impulsiona as avaliações de elegibilidade.

Os formuladores de políticas não precisam e não devem vagar por reinos nebulosos onde programas autônomos de IA ficam fora de controle e ameaçam a sobrevivência humana. Eles têm muito trabalho a fazer para enfrentar os muitos desafios da IA ​​no mundo real.

Fonte: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/