A ética da IA ​​e a lei da IA ​​avaliando as principais maneiras de implementar essa declaração de direitos da IA ​​lançada recentemente, incluindo e surpreendentemente usando a IA de forma direta

Há pouca dúvida de que precisamos de projetos em nossas vidas diárias.

Se você vai construir aquela casa dos seus sonhos há muito imaginada, seria sábio primeiro montar um plano utilizável.

Um projeto mostra de maneira tangível e documentada qualquer perspectiva visionária de olhos arregalados que possa estar trancada em sua cabeça. Aqueles que serão chamados para construir sua querida casa poderão consultar a planta e definir os detalhes de como fazer o trabalho. Plantas são úteis. A ausência de um projeto é problemática para lidar com qualquer tipo de tarefa ou projeto complexo.

Vamos mudar esse tributo um tanto sentimental, mas genuíno, aos projetos para o reino da Inteligência Artificial (IA).

Aqueles de vocês que estão substancialmente em IA podem estar vagamente cientes de que uma importante política projeto foi lançado recentemente nos EUA que se refere comprovadamente ao futuro da IA. Conhecido informalmente como o Declaração de Direitos da IA, o título oficial do white paper proclamado é o “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” e está prontamente disponível online.

O documento é o resultado de um esforço de um ano e de um estudo consciente do Escritório de Política Científica e Tecnológica (OSTP). A OSTP é uma entidade federal que foi criada em meados da década de 1970 e serve para assessorar o presidente americano e o Escritório Executivo dos EUA em vários aspectos tecnológicos, científicos e de engenharia de importância nacional. Nesse sentido, você pode dizer que esta Declaração de Direitos da IA ​​é um documento aprovado e endossado pela Casa Branca dos EUA existente.

A Declaração de Direitos da IA ​​retrata a direitos humanos que a humanidade deveria ter em relação ao advento da IA ​​em nossas vidas diárias. Enfatizo esse ponto importante porque algumas pessoas ficaram intrigadas a princípio que talvez isso fosse algum tipo de reconhecimento de que a IA tem personalidade jurídica e que isso era uma ladainha de direitos para IA sencientes e robôs humanóides. Não, ainda não chegamos. Como você verá em um momento, não estamos nem perto da IA ​​senciente, apesar das manchetes dos banners que parecem nos dizer o contrário.

Ok, então precisamos de um plano que explique os direitos humanos em uma era de IA?

Sim, com certeza temos.

Você quase precisaria estar trancado em uma caverna e estar ausente do acesso à Internet para não saber que a IA já está e cada vez mais invadindo nossos direitos. A era recente da IA ​​foi inicialmente vista como sendo AI For Good, o que significa que poderíamos usar a IA para a melhoria da humanidade. Nos calcanhares de AI For Good veio a percepção de que também estamos imersos em AI para mau. Isso inclui IA que é planejada ou auto-alterada para ser discriminatória e faz escolhas computacionais imbuindo vieses indevidos. Às vezes, a IA é construída dessa maneira, enquanto em outros casos ela se desvia para esse território desagradável.

Para minha cobertura e análise contínuas e extensas da Lei da IA, Ética da IA ​​e outras tendências tecnológicas e sociais importantes da IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Descompactando a Declaração de Direitos da IA

Já discuti anteriormente a Declaração de Direitos da IA ​​e farei uma rápida recapitulação aqui.

Como um aparte, se você gostaria de conhecer meus prós e contras aprofundados da Declaração de Direitos de IA recentemente lançada, eu detalhei minha análise em uma postagem no Jurista, Ver o link aqui. O Jurista é um notável site online de notícias e comentários jurídicos, amplamente conhecido como um serviço de notícias jurídico premiado, desenvolvido por uma equipe global de repórteres, editores, comentaristas, correspondentes e desenvolvedores de conteúdo de estudantes de direito, e está sediado na University of Pittsburgh School of Law em Pittsburgh, onde começou há mais de 25 anos. Saudações à equipe excepcional e trabalhadora da Jurista.

Na Declaração de Direitos da IA, existem cinco categorias fundamentais:

  • Sistemas seguros e eficazes
  • Proteções de discriminação algorítmica
  • Dados privados
  • Aviso e explicação
  • Alternativas humanas, consideração e fallback

Observe que eu não os numerei de um a cinco, pois isso pode implicar que eles estão em uma sequência específica ou que um dos direitos é aparentemente mais importante que o outro. Vamos supor que eles são cada um de seus próprios méritos. Todos eles são, em certo sentido, igualmente meritórios.

Como uma breve indicação do que cada um consiste, aqui está um trecho do white paper oficial:

  • Sistemas Seguros e Eficazes: “Você deve estar protegido de sistemas inseguros ou ineficazes. Os sistemas automatizados devem ser desenvolvidos com a consulta de diversas comunidades, partes interessadas e especialistas de domínio para identificar preocupações, riscos e impactos potenciais do sistema.”
  • Proteções contra discriminação algorítmicas: “Você não deve enfrentar discriminação por algoritmos e sistemas devem ser usados ​​e projetados de forma equitativa. A discriminação algorítmica ocorre quando os sistemas automatizados contribuem para tratamentos diferentes injustificados ou impactam desfavorecendo as pessoas com base em sua raça, cor, etnia, sexo (incluindo gravidez, parto e condições médicas relacionadas, identidade de gênero, status intersexual e orientação sexual), religião, idade , nacionalidade, deficiência, status de veterano, informação genética ou qualquer outra classificação protegida por lei.”
  • Dados privados: “Você deve estar protegido contra práticas abusivas de dados por meio de proteções integradas e deve ter controle sobre como os dados sobre você são usados. Você deve estar protegido contra violações de privacidade por meio de escolhas de design que garantam que tais proteções sejam incluídas por padrão, inclusive garantindo que a coleta de dados esteja em conformidade com as expectativas razoáveis ​​e que apenas os dados estritamente necessários para o contexto específico sejam coletados.”
  • Aviso e Explicação: “Você deve saber que um sistema automatizado está sendo usado e entender como e por que ele contribui para os resultados que o afetam. Projetistas, desenvolvedores e implementadores de sistemas automatizados devem fornecer documentação em linguagem simples, geralmente acessível, incluindo descrições claras do funcionamento geral do sistema e o papel que a automação desempenha, aviso de que tais sistemas estão em uso, o indivíduo ou organização responsável pelo sistema e explicações sobre resultados claros, oportunos e acessíveis”.
  • Alternativas humanas, consideração e fallback: “Você deve poder optar por não participar, quando apropriado, e ter acesso a uma pessoa que possa considerar e solucionar rapidamente os problemas que encontrar. Você deve poder optar por sair de sistemas automatizados em favor de uma alternativa humana, quando apropriado.”

Em geral, essas são facetas dos direitos da humanidade que têm sido cogitadas por um bom tempo no contexto da Ética da IA ​​e da Lei da IA, veja minha cobertura, como em o link aqui. O white paper aparentemente não tira magicamente um coelho da cartola quanto a algum direito recém-descoberto ou desenterrado que até agora não foi elucidado em um contexto da era da IA.

Tudo bem.

Você poderia afirmar que a compilação deles em uma coleção bem empacotada e formalizada fornece um serviço vital. Além disso, ao ser ungido como um aclamado Declaração de Direitos da IA, isso ainda coloca todo o assunto abertamente e habilmente na consciência da esfera pública. Ele reúne uma infinidade de discussões díspares em um conjunto singular que agora pode ser anunciado e transmitido a todos os tipos de partes interessadas.

Permitam-me apresentar esta lista de reações favoráveis ​​à anunciada Declaração de Direitos da IA:

  • Fornece uma compilação essencial de princípios fundamentais
  • Serve como um modelo ou base para construir
  • Atua como uma chamada vocalizada à ação
  • Desperta o interesse e mostra que essas são considerações sérias
  • Reúne uma infinidade de discussões díspares
  • Estimula e contribui para os esforços de adoção de IA ética
  • Sem dúvida, contribuirá para o estabelecimento de Leis de IA
  • Outros

Também precisamos considerar as reações menos favoráveis, levando em conta que há muito mais trabalho a ser feito e que este é apenas o início de uma longa jornada no árduo caminho de governar a IA.

Como tal, críticas um tanto duras ou, digamos, construtivas feitas sobre a Declaração de Direitos da IA ​​incluem:

  • Não legalmente exigível e completamente não vinculativo
  • Apenas consultivo e não considerado política governamental
  • Menos abrangente em comparação com outros trabalhos publicados
  • Consiste principalmente em conceitos amplos e carece de detalhes de implementação
  • Vai ser um desafio transformar em leis práticas viáveis ​​reais
  • Aparentemente silencioso sobre a questão iminente de possivelmente proibir a IA em alguns contextos
  • Reconhece marginalmente as vantagens de usar a IA que é bem concebida
  • Outros

Talvez o comentário acre mais proeminente tenha se centrado no fato de que esta Declaração de Direitos da IA ​​não é juridicamente aplicável e, portanto, não tem água quando se trata de estabelecer metas claras. Alguns disseram que, embora o white paper seja útil e encorajador, ele definitivamente carece de dentes. Eles questionam o que pode vir de um conjunto de preceitos engenhosos que dizem ser de dentes ocos.

Vou abordar essas observações mordazes em um momento.

Enquanto isso, o white paper afirma abundantemente as limitações do que esta Declaração de Direitos da IA ​​implica:

  • “O Plano para uma Declaração de Direitos da IA ​​não é vinculativo e não constitui política do governo dos EUA. Ele não substitui, modifica ou direciona a interpretação de qualquer estatuto, regulamento, política ou instrumento internacional existente. Não constitui orientação obrigatória para os órgãos públicos ou federais e, portanto, não exige o cumprimento dos princípios aqui descritos. Também não é determinante qual será a posição do governo dos EUA em qualquer negociação internacional. A adoção desses princípios pode não atender aos requisitos de estatutos, regulamentos, políticas ou instrumentos internacionais existentes, ou aos requisitos das agências federais que os aplicam. Esses princípios não se destinam e não proíbem ou limitam qualquer atividade legal de uma agência governamental, incluindo aplicação da lei, segurança nacional ou atividades de inteligência” (de acordo com o white paper).

Para aqueles que foram rápidos em minar a Declaração de Direitos da IA ​​como legalmente não vinculativa, vamos fazer um experimento mental sobre essa alegação pungente. Suponha que o white paper tenha sido lançado e tenha toda a força da lei. Ouso dizer que o resultado seria um tanto cataclísmico, pelo menos no que diz respeito às respostas legais e sociais à proclamação.

Os legisladores ficariam furiosos por o esforço não ter realizado os processos normativos e os procedimentos legais para elaborar tais leis. As empresas ficariam enfurecidas, com razão, por terem novas leis surgindo sem notificação e conhecimento suficientes de quais são essas leis. Todo tipo de consternação e indignação se seguiria.

Não é uma boa maneira de gravitar em direção a firmar os direitos da humanidade em uma era de IA.

Lembre-se de que eu já havia começado essa discussão trazendo à tona o valor e a vitalidade dos projetos.

Imagine que alguém pulou a etapa de elaborar plantas e pulou imediatamente para construir a casa dos seus sonhos. Como você acha que seria a casa? Parece uma aposta justa que a casa não corresponderia especialmente ao que você tinha em mente. A propriedade resultante pode ser uma bagunça total.

A essência é que precisamos de planos e agora temos um para avançar na descoberta de leis judiciosas de IA e capacitar adoções éticas de IA.

Eu gostaria de abordar, portanto, as maneiras pelas quais este projeto de Declaração de Direitos da IA ​​pode ser transformado em uma casa, por assim dizer. Como vamos utilizar o projeto? Quais são os próximos passos adequados? Esse projeto pode ser suficiente ou precisa de mais carne nos ossos?

Antes de entrarmos nesses assuntos pesados, gostaria de primeiro ter certeza de que estamos todos na mesma página sobre a natureza da IA ​​e em que consiste o status de hoje.

Definindo o registro direto sobre a IA de hoje

Eu gostaria de fazer uma declaração extremamente enfática.

Está pronto para começar?

Não há nenhuma IA hoje que seja senciente.

Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular descontroladamente sobre a IA senciente, essa discussão poderia seguir uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Eu sugiro fortemente que mantenhamos as coisas no chão e consideremos a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Tenha muito cuidado ao antropomorfizar a IA de hoje.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Tudo isso tem implicações notavelmente significativas na ética da IA ​​e oferece uma janela útil para as lições aprendidas (mesmo antes de todas as lições acontecerem) quando se trata de tentar legislar a IA.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando o ganso de ouro ao reprimir os avanços na IA que oferecem imensas vantagens sociais.

Em colunas anteriores, cobri os vários esforços nacionais e internacionais para criar e promulgar leis que regulam a IA, veja o link aqui, por exemplo. Também abordei os vários princípios e diretrizes de Ética em IA que várias nações identificaram e adotaram, incluindo, por exemplo, o esforço das Nações Unidas, como o conjunto de Ética em IA da UNESCO que quase 200 países adotaram. o link aqui.

Aqui está uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA que explorei de perto anteriormente:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, trabalham e realizam manutenção em sistemas de IA.

Todas as partes interessadas ao longo de todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Conforme enfatizado anteriormente aqui, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Agora que estabeleci uma base útil, estamos prontos para mergulhar ainda mais na Declaração de Direitos da IA.

Quatro maneiras essenciais de implementar a Declaração de Direitos da IA

Alguém lhe entrega uma planta e lhe diz para começar a trabalhar.

O que você faz?

No caso da Declaração de Direitos da IA ​​como um modelo, considere estes quatro passos essenciais para seguir em frente:

  • Servir como entrada para a formulação de leis de IA: Use o plano para ajudar na formulação de leis de IA, fazendo isso de forma alinhada nos níveis federal, estadual e local (talvez auxiliando também os esforços legais internacionais de IA).
  • Ajuda para que a Ética da IA ​​seja mais amplamente adotada: Use o modelo para promover formulações de Ética em IA (às vezes chamadas de “leis brandas” em comparação com “leis rígidas”), fazendo isso para inspirar e orientar empresas, indivíduos, entidades governamentais e outros grupos em direção a uma Ética melhor e mais consistente resultados de IA.
  • Atividades de desenvolvimento de IA da forma: Use o plano para estimular a criação de metodologias de desenvolvimento de IA e aspectos de treinamento, fazendo isso para tentar fazer com que os desenvolvedores de IA e aqueles que colocam ou empregam IA sejam mais conscientes de como conceber a IA de acordo com os preceitos desejáveis ​​da Ética da IA ​​e em antecipação de leis de IA iminentes sendo promulgadas.
  • Motive o advento da IA ​​para auxiliar no controle da IA: Use o projeto para conceber a IA que será usada para tentar servir como um equilíbrio contra outras IA que possam estar se desviando para o território indesejável. Este é um daqueles pontos de vista macroscópicos pelos quais podemos usar a mesma coisa que achamos ostensivamente preocupante para também (ironicamente, pode-se dizer) ajudar a nos proteger.

Discuti cada uma dessas quatro etapas acima mencionadas ao longo de minhas postagens de coluna.

Para esta discussão aqui, eu gostaria de focar no quarto passo listado, ou seja, que a Declaração de Direitos da IA ​​pode servir como um motivador para o advento da IA ​​para auxiliar no controle da IA. Este é um passo um tanto chocante ou surpreendente para muitos que ainda não entraram totalmente nesse reino de avanço da IA.

Permita-me elaborar.

Uma simples analogia deve resolver o problema. Hoje em dia, todos estamos acostumados a violações de segurança cibernética e invasões de hackers. Quase todos os dias ouvimos falar ou somos afetados por alguma brecha mais recente em nossos computadores que permitirá que malfeitores nefastos peguem nossos dados ou coloquem um ransomware covarde em nossos laptops.

Um meio de lutar contra essas tentativas desprezíveis consiste em usar um software especializado que tenta impedir esses arrombamentos. Você quase certamente tem um pacote de software antivírus em seu computador em casa ou no trabalho. Provavelmente há algo semelhante em seu smartphone, quer você perceba que está lá ou não.

Meu ponto é que às vezes você precisa combater fogo com fogo (veja minha cobertura sobre isso, como em o link aqui e o link aqui).

No caso da IA ​​que cai no reino proibido de AI para mau, podemos procurar usar AI For Good que contende com aquele malicioso AI para mau. Claro que não é uma cura milagrosa. Como você sabe, há uma jogada contínua de gato e rato acontecendo entre malfeitores que procuram invadir nossos computadores e os avanços que estão sendo feitos nas proteções de segurança cibernética. É um jogo quase infinito.

Podemos usar a IA para tentar lidar com a IA que seguiu um caminho proibido. Fazer isso vai ajudar. Não será especialmente uma bala de prata, já que a IA adversa que está sendo direcionada quase certamente será projetada para evitar tais proteções. Este será um jogo de gato e rato contínuo de IA versus IA.

De qualquer forma, a IA que usamos para nos proteger fornecerá alguma proteção contra a IA ruim. Assim, indubitavelmente precisamos conceber uma IA que possa nos proteger ou proteger. E também devemos procurar criar a IA de proteção para se ajustar à medida que a IA ruim se ajusta. Haverá uma aparência feroz de gato e rato na velocidade da luz.

Nem todo mundo gosta dessa ampliação do papel da IA.

Aqueles que já percebem a IA como um conglomerado homogêneo e amorfo, ficariam arrepiados e pesadelos com essa jogada IA-versus-AI fingida. Se tentarmos colocar fogo contra fogo, talvez estejamos apenas fazendo um fogo ainda maior. A IA se tornará uma enorme fogueira, que não controlamos mais e optará por escravizar a humanidade ou nos eliminar do planeta. Quando se trata de discutir a IA como um risco existencial, geralmente somos levados a acreditar que toda a IA se unirá, veja minha discussão sobre essas questões em o link aqui. Você vê, nos é dito que cada pedaço de IA irá agarrar seus irmãos IA e se tornar uma grande família unitária de senhores.

Esse é o cenário terrível e decididamente perturbador da IA ​​senciente como uma máfia perfeita de todos por um e um por todos.

Embora você seja livremente bem-vindo para fazer tais conjecturas sobre que isso possa ocorrer algum dia, garanto que, por enquanto, a IA que temos hoje consiste em caminhões de programas de IA díspares e desconectados que não têm uma maneira específica de conspirar entre si.

Dito isso, tenho certeza de que aqueles que acreditam fervorosamente nas teorias da conspiração da IA ​​vão insistir que eu disse isso propositalmente para esconder a verdade. Ah! Talvez eu esteja sendo pago pela IA de hoje que já está planejando a grande aquisição da IA ​​(sim senhor, estarei banhando-me em riquezas quando os senhores da IA ​​governarem). Ou, e eu certamente não sou a favor desse outro ângulo, talvez eu esteja cegamente inconsciente de como a IA está tramando secretamente pelas nossas costas. Acho que teremos que esperar e ver se faço parte do golpe da IA ​​ou um bode expiatório da IA ​​(ai, isso dói).

Voltando às considerações terrenas, vamos explorar brevemente como a IA contemporânea pode ser usada para ajudar na implementação da Declaração de Direitos da IA. Vou me referir conveniente e sumariamente a isso como Boa IA.

Usaremos os cinco pilares incorporados na Declaração de Direitos da IA:

  • Boa IA para promover Sistemas Seguros e Eficazes: Sempre que você estiver sujeito ou usando um sistema de IA, o Good AI tenta descobrir se a IA que está sendo utilizada é insegura ou ineficaz. Após tal detecção, o Good AI pode alertá-lo ou tomar outras ações, incluindo bloquear o Bad AI.
  • Boa IA para fornecer Proteções contra discriminação algorítmicas: Ao usar um sistema de IA que pode conter algoritmos discriminatórios, o Boa IA tenta verificar se existem proteções inadequadas para você e procura determinar se realmente existem vieses indevidos na IA que está sendo usada. A Boa IA pode informá-lo e também potencialmente denunciar automaticamente a outra IA a várias autoridades, conforme estipulado pelas leis de IA e requisitos legais.
  • Boa IA para preservar Dados privados: Esse tipo de IA boa tenta protegê-lo contra invasões de privacidade de dados. Quando outra IA está tentando solicitar dados que talvez não sejam genuinamente necessários de você, a Boa IA o informará sobre a ação excessiva. A Good AI também pode potencialmente mascarar seus dados de uma maneira que, ao ser fornecida à outra AI, ainda preservará seus direitos de privacidade de dados. etc.
  • Boa IA para estabelecer Aviso e Explicação: Todos nós provavelmente encontraremos sistemas de IA que carecem muito de fornecer notificações adequadas e apropriadas e que, infelizmente, não apresentam uma explicação adequada para suas ações. Uma boa IA pode tentar interpretar ou interrogar a outra IA, fazendo isso para identificar potencialmente notificações e explicações que deveriam ter sido fornecidas. Mesmo que isso não seja viável em uma determinada instância, a Good AI pelo menos o alertará sobre as falhas da outra AI e possivelmente denunciará a AI às autoridades designadas com base nas leis de AI estipuladas e nos requisitos legais.
  • Boa IA para oferecer Alternativas humanas, consideração e fallback: Suponha que você esteja usando um sistema de IA e a IA aparentemente não esteja à altura da tarefa em questão. Você pode não perceber que as coisas estão indo mal, ou pode estar um pouco cauteloso e inseguro sobre o que fazer sobre a situação. Nesse caso, a Boa IA estaria examinando silenciosamente o que a outra IA está fazendo e poderia avisá-lo sobre preocupações vitais sobre essa IA. Você seria solicitado a solicitar uma alternativa humana à IA (ou a Boa IA poderia fazê-lo em seu nome).

Para entender melhor como esse tipo de Boa IA pode ser desenvolvido e colocado em campo, veja meu popular e altamente cotado livro de IA (honrado em dizer que foi considerado um “Top Ten”) sobre o que geralmente tenho me referido como anjos da guarda de IA, veja o link aqui.

Conclusão

Eu sei o que você está pensando. Se tivermos uma boa IA projetada para nos proteger, suponha que a boa IA seja corrompida e se torne uma IA ruim. O famoso ou infame bordão latino parece totalmente pertinente a essa possibilidade: Quis custodiet ipsos custodes?

A frase é atribuída ao poeta romano Juvenal e pode ser encontrada em sua obra intitulada Sátiras, e pode ser traduzido livremente como significando quem irá guardar ou vigiar os próprios guardas. Muitos filmes e programas de TV, como Star Trek alavancaram esta linha repetidamente.

Isso é certamente porque é um excelente ponto.

Com certeza, quaisquer leis de IA que forem promulgadas precisarão abranger tanto a IA Ruim quanto a IA Boa que dá errado. É por isso que será crucial escrever leis de IA sensatas e abrangentes. Os legisladores que apenas tentam jogar o juridiquês aleatório na parede e esperam que ele cumpra as leis da IA ​​vão se encontrar profundamente errando o alvo.

Nós não precisamos disso.

Não temos tempo nem podemos arcar com as despesas sociais para lidar com leis de IA inadequadamente concebidas. Eu apontei que, lamentavelmente, às vezes estamos testemunhando novas leis relacionadas à IA que são mal compostas e repletas de todos os tipos de problemas legais, veja, por exemplo, minha análise de sondagem da lei de auditoria de Viés de IA da cidade de Nova York (NYC) em o link aqui.

Vamos nos certificar de que usamos adequadamente o modelo da Declaração de Direitos da IA ​​que agora temos em mãos em relação à IA. Se ignorarmos o projeto, perdemos por ter intensificado nosso jogo. Se implementarmos erroneamente o projeto, vergonha para nós por termos usurpado uma base útil.

O estimado poeta romano Juvenal disse outra coisa que podemos aproveitar nesta circunstância: Anima sana in corpore sano.

Geralmente, isso se traduz na afirmação de que seria prudente ter uma mente sã ou sã e um corpo são ou são. Isso nos permite suportar qualquer tipo de labuta, segundo Juvenal, e certamente será o único caminho para uma vida de paz ou virtude.

É hora de usarmos uma mente sã e um corpo são para garantir que estamos garantindo que a humanidade tenha nossos direitos humanos preservados e solidamente fortalecidos no mundo emergente da IA ​​onipresente e às vezes desagradável. Esse é um bom conselho dos romanos que devemos seguir na corrida de hoje em meio a uma época confusa de IA e um futuro decisivamente cheio de IA boa e ruim.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- declaração-de-direitos-incluindo-e-surpreendentemente-usando-ai-totalmente/