Implantar o raciocínio jurídico na IA pode atingir de forma inteligente o alinhamento do valor humano, diz a ética da IA ​​e a lei da IA

Na coluna de hoje, vou tecer uma miríade de tópicos aparentemente díspares relacionados à IA em um tecido bem tecido.

Está pronto para começar?

Imagine que você está usando um aplicativo com inteligência artificial que está ajudando você a realizar algum tipo de tarefa significativa. Talvez o assunto seja financeiro ou relacionado à saúde. A essência é que você depende da IA ​​para fazer a coisa certa e agir de maneira segura e segura.

Suponha que a IA entre em um território antiético.

Você pode não perceber que a IA está fazendo isso.

Por exemplo, a IA pode estar contando com fatores discriminatórios potencialmente ocultos, como raça ou gênero, embora você possa não ter nenhum meio viável de discernir o uso indevido. Aí está você, sozinho, recebendo a ponta curta do bastão por meio de uma IA que foi criada desde o início de maneira problemática ou conseguiu se direcionar para um risco ético arriscado e limítrofe (falarei mais sobre isso em um momento).

O que você pode fazer ou o que pode ser feito sobre a IA que opta por seguir um caminho antiético?

Além de tentar construir de antemão a IA para que ela não faça esse tipo de ação insidiosa, também detalhei anteriormente que há um interesse crescente em incorporar um Verificação de ética de IA componente no pântano crescente de sistemas de IA do Velho Oeste, vale-tudo, sendo lançados no mercado. A ideia é que, para tentar impedir que um aplicativo infundido com IA vá além das dimensões éticas, poderíamos usar IA adicional para fazer um check-and-balance. Essa IA adicionada pode estar fora do aplicativo de IA de destino ou pode ser um componente incorporado ou implantado diretamente na IA na qual queremos fazer uma verificação dupla.

Como eu disse antes, veja o link aqui: “Uma tendência emergente recentemente consiste em tentar construir grades de proteção éticas na IA que serão detectadas quando o resto de um sistema de IA começar a ir além dos limites éticos predefinidos. De certa forma, o objetivo é usar a própria IA para evitar que ela se comporte de forma ética. Você poderia dizer que pretendemos que a IA se recupere” (Lance Eliot, “Crafting Ethical AI That Monitors Unethical AI And Tryes To Deter Bad AI From Acting Up”, Forbes, 28 de março de 2022).

Você também pode achar de interesse relevante meu livro sobre bots guardiões de IA, às vezes referidos como anjos da guarda, que abrange os fundamentos técnicos desses verificadores duplos integrados de IA dentro da IA ​​de última geração, consulte o link aqui.

O ponto principal é que seu bacon pode, felizmente, ser salvo pelo uso de um elemento de medição ética de verificação dupla de IA que foi desenvolvido e implantado em um aplicativo de IA que você está usando. Mas isso será um guardião suficiente para realmente garantir que a IA não o endureça totalmente e se aventure em um terreno perigoso?

Você vê, o aplicativo AI pode funcionar ostensivamente ilegal atos.

Uma coisa é ter IA que entra em uma área cinzenta do que consideramos ser comportamentos éticos ou antiéticos. Um comportamento igualmente desconcertante e um provável agravamento da preocupação envolvem a IA que apenas pula o tubarão por assim dizer e desce para a escuridão de má qualidade de atos totalmente ilegais.

AI ilegal é ruim. Permitir que a IA ilegal fique desacompanhada é ruim. Alguns estudiosos do direito estão abertamente preocupados com o fato de que o advento e a difusão da IA ​​irão gradualmente e terrivelmente enfraquecer nossa aparência do Estado de Direito, veja minha análise em o link aqui.

Espere um segundo, você pode estar dizendo.

Você pode ficar tentado a pensar que os desenvolvedores de IA nunca programar sua IA para ir contra a lei. Inimaginável. Apenas vilões malvados o fariam (o que, aliás, tenha em mente que existem aqueles que estão intencionalmente planejando e usando IA para propósitos malignos, uma área de interesse crescente para criminosos e outros que desejam usar IA para atividades nefastas).

Desculpe, mas é uma ilusão supor que todos os desenvolvedores de IA não malignos vão garantir estritamente que sua IA cumpra totalmente a lei. Pode ser que a IA se auto-ajuste e entre em atividades ilegais. Claro, também existe a possibilidade de que os desenvolvedores de IA quisessem que a IA agisse ilegalmente ou que não estivessem cientes do que constituía atos ilegais versus legais quando estavam criando a IA (sim, isso é bem possível, ou seja, que um equipe totalmente tecnológica de IA pode ignorar as travessuras legais de sua IA, o que não é desculpável e ainda assim acontece com frequência alarmante).

O que pode ser feito sobre isso?

Mais uma vez, além de tentar garantir que a IA seja rígida e legal, uma abordagem adicional para ganhar força envolve incorporar ou implantar um componente de IA que faça uma verificação dupla legal para o restante do aplicativo de IA. Sentado em silêncio e muitas vezes não anunciado, esta IA adicionada está observando o resto da IA ​​para tentar discernir se a IA vai se rebelar ou pelo menos ultrapassar os limites das restrições legais ou regulamentares impostas.

Agora, temos dois tipos de verificação dupla de IA que são potencialmente incorporadas a um aplicativo de IA:

  • Verificador duplo de ética da IA: Em tempo real, esse componente ou suplemento de IA avalia o restante da IA ​​quanto a comportamentos éticos e antiéticos que a IA exibe
  • IA Verificador jurídico: Em tempo real, esse componente ou suplemento de IA avalia o restante da IA ​​para garantir a permanência dentro dos fundamentos legais e para a captura de atividades ilegais emergentes pela IA

Para esclarecer, essas são concepções relativamente novas e, como tal, a IA que você está usando hoje pode estar em qualquer uma dessas condições atuais:

  • IA que não possui verificadores duplos incluídos
  • AI que tem um verificador duplo de Ética de IA incluído, mas nenhum outro verificador duplo
  • AI que tem um verificador duplo legal AI incluído, mas nenhum outro verificador duplo
  • IA que possui um verificador duplo de Ética de IA e um verificador jurídico de IA
  • Outros

Existem alguns aspectos marcadamente complicados de ter o verificador duplo de Ética da IA ​​e o verificador jurídico da IA ​​trabalhando lado a lado em um aplicativo de IA como irmão e irmã afins. Este é um tipo de dualismo que pode ser mais difícil de coordenar do que você pode supor (acho que todos nós sabemos que irmãos e irmãs podem ter os laços mais estreitos, embora também possam lutar como idiotas de vez em quando e se oporem vigorosamente). Visualizações).

Eu discuti longamente esse tipo de árduo dualismo: “Um dualismo negligenciado está ocorrendo na IA para o Bem Social envolvendo a falta de abranger tanto o papel da agência moral artificial quanto o raciocínio legal artificial em sistemas avançados de IA. Os esforços de pesquisadores e desenvolvedores de IA tendem a se concentrar em como criar e incorporar agentes morais artificiais para orientar a tomada de decisões morais quando um sistema de IA está operando no campo, mas também não se concentraram e associaram o uso de recursos artificiais de raciocínio jurídico , que é igualmente necessário para resultados morais e legais robustos” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good,” Harvard University CRCS Annual Conference 2020, Centro de Harvard para Pesquisa e Sociedade de Computação)

Se você gostaria de entender por que pode haver tensão entre um verificador duplo de Ética de IA e um verificador jurídico de IA, você pode encontrar esta citação notável de valor conceitual alucinante: “A lei pode permitir algum ato específico, mesmo que esse ato seja imoral; e a lei pode proibir um ato, mesmo que esse ato seja moralmente permissível, ou mesmo moralmente exigido” (Shelly Kagan, Os limites da moralidade, 1998).

Vamos mudar um pouco nosso foco e ver como esses verificadores duplos se encaixam em outro tópico de IA altamente examinado, ou seja, IA responsável ou uma consideração conjunta do alinhamento dos valores humanos e IA.

A noção geral é que queremos uma IA que obedeça a valores humanos adequados e desejáveis. Alguns se referem a isso como IA responsável. Outros discutem de forma semelhante IA responsável, IA confiável e Alinhamento de IA, todos os quais tocam no mesmo princípio fundamental. Para minha discussão sobre essas questões importantes, ver o link aqui e o link aqui, Apenas para nomear alguns.

Como podemos alinhar a IA com os valores humanos?

Como sugerido anteriormente, esperamos que os desenvolvedores de IA estejam cientes do desenvolvimento de uma IA que atinja a adesão à IA responsável. Lamentavelmente, eles podem não, conforme as razões anteriormente elucidadas. Além disso, eles podem tentar fazê-lo e, no entanto, a IA acaba se auto-ajustando além do domínio saliente dos comportamentos éticos ou possivelmente em águas ilegais.

Tudo bem, precisamos considerar nossos verificadores duplos práticos como um meio de proteger esses riscos e exposições. O uso de um verificador duplo de Ética de IA bem concebido pode ajudar materialmente no alinhamento da IA ​​com os valores humanos. Da mesma forma, o uso de um verificador jurídico de IA bem elaborado pode ajudar substancialmente no alinhamento da IA ​​com os valores humanos.

Assim, um meio crucial e ainda não muito conhecido de buscar chegar a IA responsável, IA confiável, IA responsável, Alinhamento de IA etc. Verificador duplo legal de IA que funcionaria incansavelmente como uma verificação dupla da IA ​​na qual eles estão incorporados.

Nesta discussão, gostaria de entrar em mais detalhes sobre a natureza e as construções dos verificadores jurídicos de IA que podem ser incorporados à IA. Para fazer isso, pode ser útil compartilhar com você alguns antecedentes adicionais sobre o tópico geral de IA e Direito.

Para um exame prático de como a IA e a lei estão se misturando, veja minha discussão em o link aqui. Em meu olhar perspicaz sobre IA e Direito acoplamento, forneço esta concepção direta de duas maneiras principais de inter-relacionar a IA e a lei:

  • (1) Lei aplicada à IA: A formulação, promulgação e aplicação de leis aplicadas à regulação ou governança da Inteligência Artificial em nossa sociedade
  • (2) AI-aplicado à Lei: Tecnologia de Inteligência Artificial concebida e aplicada à lei, incluindo o raciocínio jurídico baseado em IA (AILR) infundido em aplicativos de alta tecnologia LegalTech para realizar tarefas de advocacia de forma autônoma ou semi-autônoma

O primeiro ponto de vista listado consiste em considerar como as leis existentes e as novas vão reger a IA. A segunda perspectiva listada tem a ver com a aplicação da IA ​​à lei.

Esta última categoria geralmente envolve o emprego de Raciocínio Legal baseado em IA (AILR) em várias ferramentas online usadas por advogados. Por exemplo, a IA pode fazer parte de um pacote de gerenciamento do ciclo de vida do contrato (CLM) que auxilia os advogados identificando a linguagem contratual que será útil para a elaboração de novos contratos ou pode detectar contratos com linguagem legalmente insípida que permite contratempos ou brechas legais (para minha análise dos chamados “cheiros da lei” que podem ser discernidos pela IA, consulte o link aqui).

Inevitavelmente, teremos IA aplicada à lei que se torna disponível para uso do público em geral e que não exige a presença de um advogado. No momento, como resultado de várias restrições, incluindo a UPL (Unauthorized Practical of Law), disponibilizar aplicativos de consultoria jurídica baseados em IA é um assunto espinhoso e controverso, veja minha discussão em o link aqui.

Eu trouxe esta introdução sobre IA & Direito para apontar que outro uso instrumental da IA ​​aplicada à lei seria criar verificadores de AI Legal.

Sim, o mesmo tipo de proeza tecnológica envolvida na aplicação da IA ​​à lei pode servir como um dever duplo ao usar a IA para servir como um verificador duplo legal de IA incorporado ou implantado. O verificador duplo AI Legal é um componente que deve ser versado em facetas legais. Quando o restante do aplicativo AI está executando várias ações, o verificador duplo AI Legal está avaliando se o aplicativo AI está fazendo isso legalmente e dentro das restrições legais.

Um componente de verificação dupla do AI Legal não precisa necessariamente cobrir toda a gama de tudo o que há para saber sobre a lei. Dependendo da natureza do aplicativo de IA quanto ao propósito e ações da IA ​​em geral, o verificador jurídico da IA ​​pode ser muito mais restrito em termos de conhecimento jurídico que contém.

Identifiquei uma estrutura útil para mostrar como a IA no domínio jurídico abrange uma série de capacidades autônomas, conhecidas como Níveis de Autonomia (LoA). Para uma visão geral, veja meu Forbes postagem da coluna de 21 de novembro de 2022, “O caso convincente e abrangente de por que os advogados precisam saber sobre IA e a lei” em o link aqui, e para uma descrição técnica detalhada, veja meu artigo de pesquisa aprofundada no Revista de Direito Computacional do MIT de 7 de dezembro de 2021, ver o link aqui.

A estrutura elucida cinco níveis de IA usados ​​em empreendimentos legais:

  • Nível 0: Sem automação para trabalho jurídico baseado em IA
  • Nível 1: Automação de assistência simples para trabalho jurídico baseado em IA
  • Nível 2: Automação de assistência avançada para trabalho jurídico baseado em IA
  • Nível 3: Automação semiautônoma para trabalho jurídico baseado em IA
  • Nível 4: Domínio autônomo para trabalho jurídico baseado em IA
  • Nível 5: Totalmente autônomo para trabalho jurídico baseado em IA

Vou descrevê-los brevemente aqui.

O nível 0 é considerado o nível sem automação. O raciocínio jurídico e as tarefas jurídicas são realizados por meio de métodos manuais e ocorrem principalmente por meio de abordagens baseadas em papel.

O nível 1 consiste em automação de assistência simples para raciocínio jurídico de IA. Exemplos dessa categoria incluem o uso diário de processamento de texto baseado em computador, o uso diário de planilhas computadorizadas, acesso a documentos jurídicos on-line armazenados e recuperados eletronicamente e assim por diante.

O nível 2 consiste em automação de assistência avançada para raciocínio jurídico de IA. Exemplos dessa categoria incluem o uso de Processamento de Linguagem Natural (NLP) rudimentar no estilo de consulta, elementos simplistas de Aprendizado de Máquina (ML), ferramentas de análise estatística para previsões de casos jurídicos, etc.

O nível 3 consiste em automação semi-autônoma para raciocínio jurídico de IA. Exemplos dessa categoria incluem o uso de Sistemas Baseados em Conhecimento (KBS) avançados para raciocínio jurídico, o uso de Machine Learning e Deep Learning (ML/DL) para raciocínio jurídico, NLP avançado e assim por diante.

O nível 4 consiste em sistemas baseados em computador autônomos de domínio para raciocínio jurídico de IA. Este nível reutiliza a noção conceitual de Domínios de Design Operacional (ODDs), como utilizado para carros autônomos, mas aplicado ao domínio legal. Os domínios jurídicos podem ser classificados por áreas funcionais, como direito de família, direito imobiliário, direito falimentar, direito ambiental, direito tributário, etc.

O nível 5 consiste em sistemas baseados em computador totalmente autônomos para raciocínio jurídico de IA. Em certo sentido, o Nível 5 é o superconjunto do Nível 4 em termos de abranger todos os domínios legais possíveis. Por favor, perceba que esta é uma tarefa bastante difícil.

Você pode conceber esses níveis de autonomia em pé de igualdade com os usos semelhantes ao discutir carros autônomos e veículos autônomos (também com base no padrão oficial SAE, consulte minha cobertura em o link aqui). Ainda não temos carros autônomos nível 5 da SAE. Estamos nos aproximando dos carros autônomos SAE Nível 4. A maioria dos carros convencionais está no nível 2 do SAE, enquanto alguns dos carros mais novos estão entrando no nível 3 do SAE.

No domínio legal, ainda não temos AILR de nível 5. Estamos tocando em algum nível 4, embora em ODDs extremamente estreitos. O nível 3 está começando a ver a luz do dia, enquanto o pilar do AILR hoje é principalmente no nível 2.

Um recente artigo de pesquisa sobre IA aplicada à lei postulou uma tipificação conhecida como A lei informa o código. A pesquisadora afirma: “Um dos principais objetivos do A lei informa o código A agenda é ensinar a IA a seguir o espírito da lei” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology e Propriedade Intelectual, Volume 20, no prelo). Existem algumas considerações essenciais que o A lei informa o código mantra traz e eu vou orientá-lo através de vários desses preceitos fundamentais.

Antes de mergulhar no assunto, gostaria de estabelecer alguns fundamentos essenciais sobre IA e, particularmente, Ética e Lei da IA, fazendo isso para garantir que a discussão seja contextualmente sensata.

A crescente conscientização da IA ​​ética e também da lei de IA

A era recente da IA ​​foi inicialmente vista como sendo AI For Good, o que significa que poderíamos usar a IA para a melhoria da humanidade. Nos calcanhares de AI For Good veio a percepção de que também estamos imersos em AI para mau. Isso inclui IA que é planejada ou auto-alterada para ser discriminatória e faz escolhas computacionais imbuindo vieses indevidos. Às vezes, a IA é construída dessa maneira, enquanto em outros casos ela se desvia para esse território desagradável.

Quero ter certeza de que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular descontroladamente sobre a IA senciente, essa discussão poderia seguir uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Eu sugiro fortemente que mantenhamos as coisas no chão e consideremos a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Tenha muito cuidado ao antropomorfizar a IA de hoje.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Tudo isso tem implicações notavelmente significativas na ética da IA ​​e oferece uma janela útil para as lições aprendidas (mesmo antes de todas as lições acontecerem) quando se trata de tentar legislar a IA.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando o ganso de ouro ao reprimir os avanços na IA que oferecem imensas vantagens sociais.

Em colunas anteriores, cobri os vários esforços nacionais e internacionais para criar e promulgar leis que regulam a IA, veja o link aqui, por exemplo. Também abordei os vários princípios e diretrizes de Ética em IA que várias nações identificaram e adotaram, incluindo, por exemplo, o esforço das Nações Unidas, como o conjunto de Ética em IA da UNESCO que quase 200 países adotaram. o link aqui.

Aqui está uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA que explorei de perto anteriormente:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, trabalham e realizam manutenção em sistemas de IA.

Todas as partes interessadas ao longo de todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Conforme enfatizado anteriormente aqui, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Também examinei recentemente a Declaração de Direitos da IA que é o título oficial do documento oficial do governo dos EUA intitulado “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” que foi o resultado de um esforço de um ano do Office of Science and Technology Policy (OSTP ). O OSTP é uma entidade federal que serve para assessorar o Presidente Americano e o Escritório Executivo dos EUA em vários aspectos tecnológicos, científicos e de engenharia de importância nacional. Nesse sentido, você pode dizer que esta Declaração de Direitos da IA ​​é um documento aprovado e endossado pela Casa Branca dos EUA existente.

Na Declaração de Direitos da IA, existem cinco categorias fundamentais:

  • Sistemas seguros e eficazes
  • Proteções de discriminação algorítmica
  • Dados privados
  • Aviso e explicação
  • Alternativas humanas, consideração e fallback

Eu revisei cuidadosamente esses preceitos, veja o link aqui.

Agora que estabeleci uma base útil sobre esses tópicos relacionados à Ética da IA ​​e à Lei da IA, estamos prontos para entrar no tópico inebriante dos verificadores jurídicos da IA ​​e no domínio da A lei informa o código.

Verificadores jurídicos de IA incorporados à IA para alinhamento de valor humano

às vezes me refiro a Verificadores jurídicos de IA através de um acrônimo de AI-LDC. Isso é um pouco visualmente chocante para aqueles que não estão familiarizados com o acrônimo. Como tal, não usarei esse acrônimo específico nesta discussão, mas gostaria de mencioná-lo a você como um alerta.

Para descompactar algumas das complexidades dos verificadores jurídicos de IA, vamos abordar estes pontos principais:

  • Uso de verificadores jurídicos de IA como um mecanismo de alinhamento de valores humanos de IA
  • IA mais expansiva exigirá correspondentemente verificadores jurídicos de IA mais robustos
  • Verificadores jurídicos de IA promulgam a lei e notavelmente não estão fazendo lei (presumivelmente)
  • Equilíbrio delicado entre a personificação legal da IA ​​da lei como regras versus padrões
  • Exigir prova do pudim quando se trata de IA cumprindo a lei

Devido a limitações de espaço, cobrirei apenas esses cinco pontos por enquanto, embora, por favor, fique atento para mais cobertura em minha coluna, abrangendo considerações adicionais e igualmente dignas de nota sobre esses assuntos em rápida evolução e avanço.

Agora, coloque o cinto de segurança e prepare-se para uma viagem revigorante.

  • Uso de verificadores jurídicos de IA como um mecanismo de alinhamento de valores humanos de IA

Existem inúmeras maneiras de tentar alcançar um alinhamento harmonioso entre a IA e os valores humanos.

Como mencionado anteriormente, podemos produzir e promulgar os preceitos de Ética da IA ​​e buscar fazer com que os desenvolvedores de IA e aqueles que trabalham e operam a IA cumpram essas pedras angulares. Infelizmente, isso por si só não resolverá o problema. Você tem alguns planejadores que inevitavelmente não entenderão a mensagem. Você tem alguns inventores que ostentarão a IA ética e tentarão contornar os princípios prescritos um tanto vagos. E assim por diante.

O uso de abordagens de “leis brandas” que envolvem a Ética da IA ​​deve ser quase inexoravelmente emparelhado com caminhos de “leis duras”, como a aprovação de leis e regulamentos que enviarão um sinal forte a todos que criam ou utilizam IA. O longo braço da lei pode vir para cima de você se você não estiver aproveitando criteriosamente a IA. O som das portas da prisão batendo poderia chamar a atenção.

Um grande problema, porém, é que às vezes a porta do celeiro já deixou os cavalos saírem. Uma IA que está em campo estará potencialmente produzindo todos os tipos de atos ilegais e continuará a fazê-lo não apenas até ser capturada, mas também quando alguma fiscalização finalmente surgir para impedir o fluxo de ações ilegais. Tudo isso pode levar tempo. Enquanto isso, os humanos estão sendo prejudicados de uma forma ou de outra.

Nesta incursão vem o verificador duplo AI Legal.

Ao residir em um aplicativo de IA, o verificador duplo do AI Legal é capaz de detectar imediatamente quando a IA parece estar em conflito com a lei. O verificador duplo AI Legal pode parar o AI em suas trilhas. Ou o componente pode alertar os humanos quanto às atividades ilegais identificadas, fazendo isso em tempo hábil, o que pode levar os supervisores a tomar medidas corretivas urgentes. Há também o registro formalizado considerado que o componente pode criar, fornecendo uma aparência tangível de uma trilha de auditoria para fins de codificação das ações adversas da IA.

Diz-se que nossas leis são uma forma de conglomerado multiagente, de modo que as leis inevitavelmente são uma mistura do que a sociedade procurou lançar como um equilíbrio entre prováveis ​​visões conflitantes de comportamentos sociais adequados e impróprios. Um verificador duplo legal de IA baseado em nossas leis está, portanto, incorporando essa mistura.

Notavelmente, isso é mais do que apenas programar uma lista de regras legais definitivas. As leis tendem a ser mais maleáveis ​​e buscam padrões abrangentes, em vez de especificar as regras microscópicas mais minuciosas. Complexidades são abundantes.

Voltando ao artigo de pesquisa observado anteriormente, veja como essas considerações também podem ser vistas em relação à busca do Alinhamento da IA: “A lei, a filosofia aplicada do alinhamento de vários agentes, atende exclusivamente a esses critérios. O alinhamento é um problema porque não podemos ex ante especifique regras que total e comprovadamente direcionem o bom comportamento da IA. Da mesma forma, as partes de um contrato legal não podem prever todas as contingências de seu relacionamento, e os legisladores não podem prever as circunstâncias específicas sob as quais suas leis serão aplicadas. É por isso que grande parte do direito é uma constelação de padrões” (ibid).

Incorporar a lei em um verificador duplo jurídico de IA é muito mais desafiador do que você pode imaginar a princípio.

À medida que a IA avança, precisaremos alavancar esses avanços de acordo. Acontece que o que é bom para o ganso também é bom para o ganso. Aqueles de nós que estão progredindo na IA aplicada à lei estão forçando os limites da IA ​​e indubitavelmente forjando novos avanços que podem, em última análise, alimentar o progresso da IA ​​por completo.

  • IA mais expansiva exigirá correspondentemente verificadores jurídicos de IA mais robustos

Uma jogada de gato e rato confronta esse tópico.

As chances são de que, à medida que a IA avança, qualquer componente de verificador duplo da AI Legal achará as coisas cada vez mais difíceis de lidar. Por exemplo, um aplicativo de IA que está sendo examinado pode ter inventado novas maneiras super sorrateiras de ocultar as ações ilegais que a IA está realizando. Mesmo que a IA não esteja seguindo um caminho dissimulado, a complexidade geral da IA ​​pode ser um obstáculo assustador para a avaliação do verificador jurídico da IA.

Veja como isso se torna especialmente significativo.

Suponha que um desenvolvedor de IA ou alguma empresa que utiliza IA proclame que existe um verificador jurídico de IA incorporado ao aplicativo baseado em IA. Voila, eles parecem ter lavado as mãos de quaisquer outras preocupações. O verificador duplo AI Legal cuidará de tudo.

Não é assim.

O verificador duplo AI Legal pode ser insuficiente para a natureza do aplicativo AI envolvido. Existe também a possibilidade de que o verificador duplo AI Legal fique desatualizado, talvez não sendo atualizado com as leis mais recentes referentes ao aplicativo AI. Uma série de razões pode ser prevista para explicar por que a mera presença de um verificador jurídico de IA não será uma bala de prata.

Considere estes insights da pesquisa citada anteriormente: “Como o estado da arte para os avanços da IA, podemos definir níveis iterativamente mais altos de capacidades de compreensão jurídica demonstradas. Se um desenvolvedor afirma que seu sistema possui recursos avançados em tarefas, ele deve demonstrar compreensão legal avançada e habilidades de raciocínio legal da IA, que praticamente não têm limite de dificuldade ao considerar o pântano de leis e regulamentos ao longo do tempo, precedentes e jurisdição ” (ibidem).

  • Verificadores jurídicos de IA promulgam a lei e notavelmente não estão fazendo lei (presumivelmente)

Tenho certeza de que alguns de vocês estão horrorizados com a ideia de ter esses verificadores jurídicos de IA.

Uma preocupação frequentemente expressa é que aparentemente vamos permitir que a IA decida nossas leis por nós. Meu Deus, você pode estar pensando, alguma peça de automação ultrapassará a humanidade. Esses malditos verificadores legais de IA incorporados se tornarão os reis padrão de nossas leis. O que quer que eles façam será o que a lei parece ser.

Os humanos serão governados pela IA.

E esses verificadores jurídicos de IA são a ladeira escorregadia que nos leva até lá.

Um contra-argumento é que tal conversa é matéria de teorias da conspiração. Você está postulando descontroladamente e se metendo em um estado de confusão. A realidade é que esses verificadores jurídicos da IA ​​não são sencientes, não vão dominar o planeta e exagerar sobre seu risco existencial é claramente absurdo e imensamente exagerado.

Em suma, permanecendo com uma postura calma e racional, precisamos estar cientes de que os checadores jurídicos da IA ​​servem para refletir adequadamente a lei e não por design e nem por acidente ir além para de alguma forma entrar no reino reverenciado de fazer lei. Deixando de lado as extrapolações de sensibilidade, certamente podemos concordar que há uma preocupação real e premente de que o verificador jurídico da AI possa acabar deturpando a verdadeira natureza de uma determinada lei.

Por sua vez, você poderia alegar que, portanto, aquela lei específica “deturpada” está essencialmente sendo renovada, uma vez que não significa mais apropriadamente o que foi pretendido pela lei real. Espero que você possa ver francamente como esta é uma consideração sutil, mas reveladora. A qualquer momento, o verificador jurídico da IA ​​pode virtualmente criar ou, digamos, “alucinar” novas leis simplesmente pela forma como o componente da IA ​​está interpretando a lei como originalmente declarada ou incorporada na IA (para minha cobertura da chamada IA alucinações, Ver o link aqui).

Cuidado com isso deve ser exercido estridentemente.

Sobre esse tópico, o estudo de pesquisa mencionado acima oferece esse pensamento paralelo em termos de tentar evitar cruzar essa linha sagrada: “Não pretendemos que a IA tenha legitimidade para fazer leis, estabelecer precedentes legais ou fazer cumprir a lei. Na verdade, isso prejudicaria nossa abordagem (e devemos investir esforços significativos para evitar isso). Em vez disso, o objetivo mais ambicioso do Código Informativo da Lei é codificar e incorporar computacionalmente a generalização dos conceitos e padrões legais existentes no desempenho validado da IA” (ibid).

  • Equilíbrio delicado entre a personificação legal da IA ​​da lei como regras versus padrões

As leis são confusas.

Para praticamente qualquer lei nos livros, provavelmente há uma infinidade de interpretações sobre o que a lei estipula na prática real. Na linguagem do campo da IA, nos referimos às leis como sendo semanticamente ambíguas. É isso que torna o desenvolvimento da IA ​​aplicada à lei um desafio tão empolgante e, ao mesmo tempo, vexatório. Ao contrário da análise precisa de números que você pode ver em aplicativos de IA voltados para finanças, o desejo de incorporar nossas leis à IA envolve lidar com um tsunami de ambiguidades semânticas.

No livro da minha fundação sobre os fundamentos do AI Legal Reasoning (AILR), discuto como as tentativas anteriores de simplesmente codificar as leis em um conjunto de regras limitadas não nos levaram tão longe quanto gostaríamos no domínio jurídico (consulte o link aqui). O AILR de hoje deve abranger uma integração entre o uso de regras e o que pode ser chamado de padrões abrangentes que a lei representa.

Esse importante equilíbrio pode ser expresso da seguinte maneira: “Na prática, a maioria das disposições legais situa-se em algum ponto entre a regra pura e o padrão puro, e a teoria jurídica pode ajudar a estimar a combinação correta de “regularidade” e “padronização”. ao especificar os objetivos dos sistemas de IA” (ibid).

  • Exigir prova do pudim quando se trata de IA cumprindo a lei

Querer algo é diferente de ter algo.

Essa pitada de sabedoria surge ao proferir que, embora possamos querer ter verificadores jurídicos de IA, precisamos garantir abundantemente que eles funcionem e funcionem corretamente. Observe que isso apresenta outro obstáculo difícil e cansativo. Cobri anteriormente os últimos avanços e desafios na verificação e validação da IA, consulte o link aqui.

Conforme observado no trabalho de pesquisa: “Para resolver a lacuna, antes que os modelos de IA sejam implantados em capacidades cada vez mais agênticas, por exemplo, veículos totalmente autônomos nas principais estradas, a parte responsável pela implantação deve demonstrar a compreensão do sistema de metas humanas, políticas e padrões legais. Um procedimento de validação poderia ilustrar a 'compreensão' da IA ​​do 'significado' dos conceitos jurídicos” (ibid).

Conclusão

Peço que você considere se juntar a mim nesta nobre missão de construir e colocar em campo verificadores legais de IA. Precisamos de mais atenção e recursos dedicados a essa busca virtuosa.

Isso também fornece duplo dever, como mencionado anteriormente, para alcançar o Raciocínio Legal de IA (AILR) que pode ser usado para auxiliar advogados e potencialmente usado diretamente pelo público em geral. De fato, alguns argumentam veementemente que o único meio viável de chegar a um sentido mais completo de acesso à justiça (A2J) será por meio da elaboração de IA que incorpore capacidades legais e possa ser acessada por todos.

Um ponto final rápido por enquanto.

A discussão até agora enfatizou que o verificador duplo legal da IA ​​seria incorporado ou implantado na IA. Este é de fato o foco principal daqueles que pesquisam e realizam este reino emergente.

Aqui está uma questão que vale a pena ponderar.

Coloque seu boné de pensamento.

Por que não usar verificadores de IA Legal em todos os softwares?

A essência é que, em vez de usar exclusivamente os verificadores legais de IA na IA, talvez devêssemos ampliar nosso ponto de vista. Todos os tipos de software podem se extraviar legalmente. A IA reconhecidamente recebeu a maior parte da atenção devido às maneiras pelas quais a IA geralmente é usada, como a tomada de decisões angustiantes que afetam os seres humanos em suas vidas cotidianas. Você poderia facilmente sustentar que existem muitos sistemas não-IA que fazem o mesmo.

Em essência, não devemos permitir que nenhum software tenha um passeio gratuito para evitar ou evitar a lei.

Lembre-se de que mencionei anteriormente as duas categorias de combinação de IA e lei. Aqui nos concentramos no uso da IA ​​aplicada à lei. Do outro lado da moeda está a aplicação da lei à IA. Suponha que adotemos leis que exijam o uso de verificadores jurídicos de IA.

A princípio, isso pode estar confinado a sistemas de IA, especialmente aqueles classificados como especialmente de alto risco. Gradualmente, o mesmo requisito de verificador duplo legal de AI também pode ser estendido para software não AI. Mais uma vez, não há passeios gratuitos.

Enquanto você se preocupa com essa consideração acima, vou apimentar as coisas como um teaser de encerramento. Se vamos tentar exigir verificadores duplos jurídicos da IA, também podemos fazer o mesmo com os verificadores duplos de ética da IA. O uso de um verificador jurídico de IA é apenas metade da história, e não podemos negligenciar ou esquecer também as questões de Ética da IA.

Vou terminar este discurso alegre com uma das minhas citações favoritas. Pelas sábias palavras de Earl Warren, o famoso jurista que serviu como Chefe de Justiça dos Estados Unidos: “Na vida civilizada, a lei flutua em um mar de ética”.

Pode ser melhor colocar estridentemente esses verificadores legais de IA em desenvolvimento e verificadores de ética em IA em uso ávido se quisermos manter nossas cabeças acima de mares agitados potencialmente iminentes de IA azeda e sistemas não-IA severos que colocam em risco nossa segurança .

Eles podem ser o colete salva-vidas da humanidade.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- e-ai-law/