Ética de IA e lei de IA esclarecendo o que de fato é IA confiável

Confiança é tudo, é o que dizem.

O notável filósofo Lao Tzu disse que aqueles que não confiam o suficiente não serão confiáveis. Ernest Hemingway, um estimado romancista, afirmou que a melhor maneira de descobrir se você pode confiar em alguém é confiando nele.

Enquanto isso, parece que a confiança é preciosa e frágil. A confiança que se tem pode desmoronar como um castelo de cartas ou de repente estourar como um balão estourado.

O antigo trágico grego Sófocles afirmou que a confiança morre, mas a desconfiança floresce. O filósofo e matemático francês Descartes afirmou que é prudente nunca confiar totalmente naqueles que nos enganaram uma vez sequer. O extraordinário investidor bilionário Warren Buffett exortou que leva vinte anos para construir uma reputação confiável e cinco minutos para arruiná-la.

Você pode se surpreender ao saber que todas essas visões variadas e opiniões provocativas sobre confiança são cruciais para o advento da Inteligência Artificial (IA).

Sim, há algo profundamente referido como IA confiável que continua recebendo muita atenção nos dias de hoje, incluindo vaias de dentro do campo da IA ​​e também explosões turbulentas por aqueles de fora do reino da IA. A noção geral implica se a sociedade estará ou não disposta a confiar em sistemas como os de IA.

Presumivelmente, se a sociedade não confia ou não pode confiar na IA, as chances são de que os sistemas de IA não consigam tração. A IA como a conhecemos atualmente será deixada de lado e apenas acumulará poeira. Surpreendentemente, a IA pode acabar no lixo, relegada historicamente a nada mais do que um experimento de alta tecnologia desesperadamente tentado, mas espetacularmente fracassado. Quaisquer esforços para revigorar a IA potencialmente enfrentariam uma tremenda batalha difícil e seriam interrompidos por todos os tipos de objeções e protestos diretos. Ostensivamente, devido à falta de confiança na IA.

Qual será, devemos confiar na IA ou não devemos confiar na IA?

Em essência, vamos realmente ter uma IA confiável?

Essas são questões antigas e não resolvidas. Vamos descompactá-lo.

Ética da IA ​​e a luta pela IA confiável

A crença de muitos dentro da IA ​​é que os desenvolvedores de sistemas de IA podem ganhar confiança na IA ao projetar adequadamente uma IA que seja confiável. A essência é que você não pode esperar ganhar confiança se a IA não for aparentemente confiável no início. Ao criar sistemas de IA de uma maneira percebida como confiável, há uma chance sólida de que as pessoas aceitem a IA e adotem os usos da IA.

Um escrúpulo que já incomoda essa consideração confiável de IA é que já podemos estar em um déficit de confiança pública quando se trata de IA. Você poderia dizer que a IA que já vimos cavou um buraco e está destruindo a confiança em grandes quantidades. Assim, em vez de começar em alguma base suficiente de confiabilidade, a IA terá que surpreendentemente sair do déficit, agarrando cada grama desejada de confiança adicional que será necessária para convencer as pessoas de que a IA é de fato confiável.

Nesse desafio vem a Ética da IA ​​e a Lei da IA.

A Ética da IA ​​e a Lei da IA ​​estão lutando muito para tentar descobrir o que será necessário para tornar a IA confiável. Alguns sugerem que existe uma fórmula ou leis rígidas que levarão a IA aos céus confiáveis. Outros indicam que será necessário muito trabalho e adesão consistente e implacável aos princípios da Ética da IA ​​e da Lei da IA ​​para obter a tão alardeada confiança da sociedade.

O enigma contemporâneo sobre a confiança na IA não é especialmente novo em si.

Você pode facilmente voltar ao final da década de 1990 e rastrear o surgimento de um desejo procurado por “computação confiável” daqueles dias. Este foi um esforço em larga escala da indústria de tecnologia para discernir se os computadores poderiam ser feitos de uma maneira que seria interpretada como confiável pela sociedade.

As principais perguntas consistiam em:

  • O hardware do computador poderia ser feito de tal forma que fosse confiável?
  • O software poderia ser criado de tal forma que fosse confiável?
  • Poderíamos colocar em prática computadores em rede global que seriam confiáveis?
  • E assim por diante.

O sentimento predominante na época e que continua até hoje é que a computação confiável continua sendo um tipo de Santo Graal que, infelizmente, ainda não está ao nosso alcance (como observado em um artigo intitulado “Trustworthy AI” no Comunicações da ACM). Você pode argumentar de forma convincente que a IA é mais um componente do envelope de confiabilidade da computação, mas a IA torna a busca pela confiança ainda mais desafiadora e incerta. A IA tornou-se o potencial spoiler na luta para alcançar uma computação confiável. Possivelmente o elo mais fraco da cadeia, por assim dizer.

Vamos dar uma olhada rápida no motivo pelo qual a IA nos deixou preocupados por ser menos do que confiável. Além disso, exploraremos os princípios da Ética da IA ​​que se espera que ajudem a sustentar a confiança percebida já semi-submarina (ou desconfiança borbulhante) da IA ​​de hoje. Para minha cobertura contínua e extensa de Ética em IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos vincular isso à pergunta sobre IA confiável

Certamente não pareceríamos estar dispostos a confiar na IA que apresenta preconceitos adversos e ações discriminatórias. Nossa crença, nesse caso, seria que tal IA decididamente não é confiável, portanto, tendemos a desconfiar ativamente da IA. Sem exagerar em uma comparação antropomórfica (falarei mais sobre a antropomorfização da IA ​​em breve), um humano que exibisse preconceitos indesejáveis ​​também estaria sujeito à classificação como não sendo particularmente confiável.

Mergulhando na confiança e na confiabilidade

Talvez devêssemos dar uma olhada no que queremos dizer quando afirmamos que confiamos ou não em alguém ou alguma coisa. Primeiro, considere várias definições diárias de confiança no dicionário.

Exemplos do que significa confiança por definição são:

  • Confiança garantida no caráter, habilidade, força ou verdade de alguém ou algo (Dicionário online Merriam-Webster).
  • Confiança na integridade, força, habilidade, garantia, etc., de uma pessoa ou coisa (Dictionary.com)
  • Crença firme na confiabilidade, verdade, habilidade ou força de alguém ou algo (Dicionário on-line da Oxford Languages).

Eu gostaria de salientar que todas essas definições se referem a “alguém” e também se referem a “algo” como sendo potencialmente confiável. Isso é notável, pois alguns podem insistir que só confiamos em humanos e que o ato de confiar é reservado exclusivamente para a humanidade como nosso alvo de confiabilidade. Não tão. Você pode ter confiança em sua torradeira de cozinha. Se ele parece fazer sua torrada de forma confiável e trabalha rotineiramente para fazê-lo, você pode certamente ter uma aparência de confiança sobre se a torradeira é de fato confiável.

Nessa mesma linha de pensamento, a IA também pode ser objeto de nosso ponto de vista de confiança. As chances são de que a confiança associada à IA seja muito mais complicada do que, digamos, uma torradeira comum. Uma torradeira geralmente só pode fazer um punhado de ações. É provável que um sistema de IA seja muito mais complexo e pareça operar com menos transparência. Nossa capacidade de avaliar e verificar a confiabilidade da IA ​​será muito mais difícil e oferecerá desafios distintos.

Além de ser mais complexo, um sistema de IA típico é considerado não determinístico e potencialmente autorregulador ou autoajustável. Podemos explorar brevemente essa noção.

Uma máquina determinista tende a fazer as mesmas coisas repetidamente, de forma previsível e com um padrão discernível de como está operando. Você pode dizer que uma torradeira comum torra mais ou menos da mesma maneira e tem controles de torragem que moderam a torragem, os quais são geralmente previsíveis pela pessoa que usa a torradeira. Em contraste, sistemas complexos de IA são frequentemente concebidos para serem não determinísticos, o que significa que eles podem fazer coisas bem diferentes além do que você poderia esperar. Isso também pode ser parcialmente amplificado se a IA for escrita para se auto-ajustar, um aspecto que pode vantajosamente permitir que a IA melhore no caso de ML/DL, embora também possa fazer com que a IA vacile ou entre nas fileiras da maldade da IA. Você pode não saber o que o atingiu, por assim dizer, pois foi pego totalmente desprevenido pelas ações da IA.

O que podemos fazer para tentar aproximar a IA da confiabilidade?

Uma abordagem consiste em tentar garantir que aqueles que constroem e implementam a IA estejam obedecendo a um conjunto de preceitos de Ética da IA. Como mencionado por esses pesquisadores de IA: “A confiança é uma atitude de que um agente se comportará conforme o esperado e pode ser confiável para atingir seu objetivo. A confiança é quebrada após um erro ou mal-entendido entre o agente e o indivíduo que confia. O estado psicológico de confiança na IA é uma propriedade emergente de um sistema complexo, geralmente envolvendo muitos ciclos de projeto, treinamento, implantação, medição de desempenho, regulação, redesenho e retreinamento” (indicado no Comunicações da ACM, “Trust, Regulation, and Human-in-the-Loop AI Within the European Region” por Stuart Middleton, Emmanuel Letouze, Ali Hossaini e Adriane Chapman, abril de 2022).

A essência é que, se conseguirmos que os desenvolvedores de IA cumpram a IA ética, esperamos que eles acabem produzindo IA confiável. Isso é muito bom, mas parece um pouco impraticável no mundo real, embora seja absolutamente um caminho que vale a pena seguir.

Aqui está o que quero dizer.

Suponha que um esforço diligente seja realizado por desenvolvedores de IA criando um sistema de IA para algum propósito que geralmente chamaremos de X. Eles cuidadosamente certificam-se de que a IA cumpra os preceitos de transparência da Ética da IA. Eles garantem que a privacidade seja adequadamente incorporada à IA. Para quase todos os princípios usuais de ética em IA, os construtores de IA garantem exaustivamente que a IA atenda ao preceito determinado.

Você deve agora confiar nessa IA?

Permita-me ajudar a filtrar seus pensamentos sobre essa pergunta aberta.

Acontece que os cibercriminosos conseguiram se infiltrar na IA e sorrateiramente fazer com que a IA executasse X e ainda alimentasse os hackers cibernéticos com todos os dados que a IA está coletando. Ao fazer isso, esses malfeitores estão insidiosamente enfraquecendo o preceito de privacidade. Você está felizmente inconsciente de que isso está acontecendo sob o capô da IA.

Com essa informação adicional, farei a mesma pergunta novamente.

Você confia nessa IA?

Atrevo-me a dizer que a maioria das pessoas imediatamente declararia que certamente não confie nessa IA em particular. Eles podem ter confiado antes. Eles agora optam por não considerar mais a IA confiável.

Alguns insights importantes baseados neste exemplo simples são dignos de contemplação:

  • Dinâmica da Confiança. Mesmo a melhor das intenções de cobrir todas as bases para garantir que a ética da IA ​​seja incorporada a um sistema de IA não é garantia do que a IA pode se tornar ou se tornar. Uma vez que a IA é colocada em uso, pessoas de fora podem potencialmente minar os acúmulos de IA Ética.
  • Minando a confiança de dentro. O ato de minar a confiabilidade não precisa necessariamente ser de fora. Um insider que está fazendo manutenção regular no sistema de IA pode errar e enfraquecer a IA para ser menos confiável. Este desenvolvedor de IA pode não saber o que eles criaram.
  • Compromissos Inadvertidos de Confiança. Uma IA auto-ajustável ou auto-regulada pode, em algum momento, se ajustar e se desviar para o território não confiável. Talvez a IA tente reforçar a transparência da IA ​​e, no entanto, simultaneamente e de forma inadequada, comprometa as facetas da privacidade.
  • Dispersão de confiança. Tentar alcançar todos os princípios da Ética da IA ​​com o mesmo grau máximo de confiabilidade geralmente não é prontamente viável, pois muitas vezes têm objetivos opostos ou têm outros conflitos potenciais inerentes. É uma perspectiva bastante idealizada acreditar que todos os preceitos éticos da IA ​​estão alinhados de forma sonhadora e todos atingíveis em algum grau maximizável igual.
  • A confiança pode ser cara para alcançar. O custo para tentar alcançar uma aparência de alto nível de IA confiável por meio da realização de várias etapas extensas e exaustivas e respeitando a litania dos princípios de Ética da IA ​​será relativamente alto. Você pode facilmente argumentar que o custo seria proibitivo em termos de colocar alguns sistemas de IA em uso que de outra forma teriam um valor importante para a sociedade, mesmo que a IA fosse, digamos, menos do que ideal por um desejo de confiabilidade.
  • E assim por diante.

Não interprete mal as observações anteriores para sugerir que devemos de alguma forma evitar o esforço de construir e colocar em campo uma IA confiável. Você estaria jogando fora o bebê com a água do banho, por assim dizer. A interpretação adequada é que precisamos fazer essas atividades de confiança para que a IA seja considerada confiável, e ainda assim isso por si só não é uma panacéia ou uma bala de prata.

Caminhos multifacetados para IA confiável

Existem importantes formas multifacetadas adicionais de buscar uma IA confiável.

Por exemplo, como abordei anteriormente em minhas colunas, uma miríade de leis e regulamentos recém-emergentes sobre IA visa levar os fabricantes de IA a conceber uma IA confiável. o link aqui e o link aqui.

Essas proteções legais são cruciais como um meio abrangente de garantir que aqueles que desenvolvem a IA sejam totalmente responsabilizados por sua IA. Sem esses possíveis remédios legais e penalidades legais, aqueles que apressam a IA no mercado provavelmente continuarão fazendo isso com pouca ou nenhuma consideração séria por alcançar uma IA confiável. Devo acrescentar que, se essas leis e regulamentações forem mal concebidas ou implementadas de forma inadequada, elas podem, lamentavelmente, prejudicar a busca por IA confiável, talvez ironicamente e estranhamente promovendo IA não confiável em vez de IA confiável (veja minhas discussões na coluna para obter mais explicações).

Eu também tenho sido um defensor ferrenho do que eu tenho chamado ardentemente de Bots de anjo da guarda de IA (veja minha cobertura em o link aqui). Este é um próximo método ou abordagem de tentar combater fogo com fogo, ou seja, usar a IA para nos ajudar a lidar com outras IA que podem ou não ser confiáveis.

Primeiro, algum contexto de fundo será útil.

Suponha que você esteja optando por confiar em um sistema de IA que não tem certeza de sua confiabilidade. Uma preocupação importante pode ser que você esteja sozinho em suas tentativas de descobrir se a IA é confiável ou não. A IA é potencialmente mais rápida computacionalmente do que você e pode tirar vantagem de você. Você precisa de alguém ou algo do seu lado para ajudar.

Uma perspectiva é que sempre deve haver um humano no circuito que servirá para ajudá-lo enquanto você usa um sistema de IA. Isso, porém, é uma solução problemática. Se a IA estiver funcionando em tempo real, o que discutiremos momentaneamente quando se trata do advento dos carros autônomos baseados em IA, ter um humano no circuito pode não ser suficiente. A IA pode estar agindo em tempo real e, no momento em que um humano designado entrar em cena para descobrir se a IA está funcionando corretamente, um resultado catastrófico já pode ter ocorrido.

Como um aparte, isso traz outro fator sobre a confiança. Geralmente atribuímos um nível de confiança com base no contexto ou circunstância que estamos enfrentando. Você pode confiar plenamente em seu filho ou filha para ser fiel a você, mas se você estiver caminhando e decidir confiar na criança para lhe dizer se é seguro pisar na beira de um penhasco, acho que você seria sábio considerar se a criança pode dar esse tipo de conselho de vida ou morte. A criança pode fazê-lo com seriedade e sinceridade e, no entanto, ser incapaz de dar tal conselho adequadamente.

A mesma noção está associada à confiança quando se trata de IA. Um sistema de IA que você está usando para jogar damas ou xadrez provavelmente não está envolvido em nenhuma deliberação de vida ou morte. Você pode ficar mais à vontade com sua atribuição de confiança. Um carro autônomo baseado em IA que desce uma rodovia em alta velocidade requer um nível de confiança muito mais árduo. O menor sinal do sistema de direção da IA ​​pode levar diretamente à sua morte e à morte de outras pessoas.

Em uma entrevista publicada de Beena Ammanath, Diretora Executiva do Global Deloitte AI Institute e autora do livro IA confiável, uma ênfase semelhante em considerar as facetas contextuais de onde a confiabilidade da IA ​​entra em jogo: “Se você está construindo uma solução de IA que está fazendo o diagnóstico do paciente, a imparcialidade e o viés são super importantes. Mas se você está construindo um algoritmo que prevê falhas em motores a jato, justiça e parcialidade não são tão importantes. A IA confiável é realmente uma estrutura para você começar a pensar sobre as dimensões da confiança dentro de sua organização” (VentureBeat, 22 de março de 2022).

Ao discutir IA confiável, você pode interpretar esse tópico de várias maneiras.

Por exemplo, IA confiável é algo que todos nós vemos como um objetivo desejável e aspiracional, ou seja, que devemos estar desejosos de conceber e promulgar uma IA confiável. Há outro uso do bordão. Um uso um tanto alternativo é que IA confiável é um estado de condição ou medida, de tal forma que alguém pode afirmar que criou um sistema de IA que é uma instância de IA confiável. Você também pode usar a frase IA confiável para sugerir um método ou abordagem que pode ser usado para alcançar a confiabilidade da IA. etc.

Em uma nota relacionada, confio que você perceba que nem toda IA ​​é igual e que devemos estar atentos para não fazer declarações gerais sobre toda a IA. É provável que um sistema de IA específico seja significativamente diferente de outro sistema de IA. Um desses sistemas de IA pode ser altamente confiável, enquanto o outro pode ser marginalmente confiável. Seja cauteloso ao assumir de alguma forma que a IA é um monólito que é totalmente confiável ou totalmente não confiável.

Este simplesmente não é o caso.

Eu gostaria de abordar brevemente algumas de minhas pesquisas em andamento sobre IA confiável que você pode achar de interesse, cobrindo o papel emergente de Bots de anjo da guarda de IA.

É assim que funciona.

Você estaria armado com um sistema de IA (um bot anjo da guarda de IA) desenvolvido para avaliar a confiabilidade de algum outro sistema de IA. O bot anjo da guarda de IA tem como foco primordial sua segurança. Pense nisso como se você tivesse os meios para monitorar a IA em que está confiando, tendo um sistema de IA diferente em seu verdadeiro bolso, talvez rodando em seu smartphone ou outros dispositivos semelhantes. Seu proverbial guardião da IA ​​pode calcular com base no que a IA em que você está confiando também o faz, trabalhando em velocidades rápidas e calculando a situação em tempo real, muito mais rápido do que um humano no circuito poderia fazê-lo.

Você pode, à primeira vista, estar pensando que a IA na qual você já está confiando deveria ter algum interno Guarda-corpos de IA que fazem o mesmo que esse bot anjo da guarda de IA calculado separadamente. Sim, isso certamente seria desejado. Um escrúpulo é que as proteções de IA construídas em um sistema de IA podem ser alinhadas de forma integral e prejudicial à IA em si, portanto, a suposta proteção de IA não é mais capaz de verificar ou validar a IA de forma independente.

A ideia contrastante é que seu bot anjo da guarda de IA é um mecanismo de IA independente ou de terceiros que é distinto da IA ​​na qual você está confiando. Ele fica fora da outra IA, permanecendo dedicado a você e não dedicado à IA que está sendo monitorada ou avaliada.

Um meio direto de pensar sobre isso pode ser expresso através das seguintes declarações simplificadas semelhantes a equações. Podemos dizer que “P” deseja potencialmente confiar em “R” para fazer uma tarefa específica “X”:

Isso seria o seguinte quando apenas pessoas estivessem envolvidas:

  • A pessoa P confia na pessoa R para fazer a tarefa X.

Quando optamos por confiar na IA, a declaração é reformulada para isso:

  • A pessoa P confia na instância R do AI para fazer a tarefa X.

Podemos adicionar o bot anjo da guarda AI dizendo o seguinte:

  • A pessoa P confia na instância-R da IA ​​para fazer a tarefa X como sendo monitorada pela instância-Z do bot anjo da guarda da IA

O bot anjo da guarda da IA ​​está avaliando incansavelmente e incansavelmente a IA na qual você está confiando. Como tal, seu guardião de IA acessível pode alertá-lo de que a confiança dessa outra IA é injustificada. Ou, o guardião da IA ​​pode interagir eletronicamente com a outra IA para tentar garantir que qualquer variação que não seja confiável seja corrigida rapidamente e assim por diante (veja minha cobertura sobre esses detalhes em o link aqui).

A metáfora do reservatório Trusty Trust

Como estamos discutindo vários níveis de confiança, você pode achar útil uma metáfora útil sobre confiabilidade ao conceber a confiança como um tipo de reservatório.

Você tem uma certa quantidade de confiança em uma determinada pessoa ou coisa em uma determinada circunstância em um determinado momento. O nível de confiança aumentará ou diminuirá, dependendo do que mais acontecer em relação a essa pessoa ou coisa em particular. A confiança pode estar em um nível zero quando você não tem confiança alguma na pessoa ou coisa. A confiança pode ser negativa quando você se aventura a desconfiar dessa pessoa ou coisa.

No caso de sistemas de IA, seu reservatório de confiança para a IA específica na qual você está confiando em uma circunstância específica aumentará ou diminuirá conforme você avalie a confiabilidade da IA. Às vezes, você pode estar bem ciente desse nível variável de confiança sobre a IA, enquanto em outros casos você pode estar menos ciente e mais por palpite fazendo julgamentos sobre a confiabilidade.

As maneiras pelas quais discutimos aqui os meios para aumentar os níveis de confiança para a IA incluem:

  • Adesão à Ética da IA. Se a IA na qual você está confiando foi criada tentando aderir aos preceitos apropriados da Ética da IA, você presumivelmente usaria esse entendimento para aumentar o nível de seu reservatório de confiança para esse sistema de IA específico. Como uma nota lateral, também é possível que você generalize para outros sistemas de IA quanto à sua confiabilidade, da mesma forma, embora isso às vezes possa ser uma forma enganosa do que chamo Aura de confiança da IA ​​se espalhando (seja cauteloso ao fazer isso!).
  • Use um Human-In-The-Loop. Se a IA tiver um humano no circuito, você poderá aumentar positivamente sua confiança percebida na IA.
  • Estabelecer Leis e Regulamentos. Se houver leis e regulamentos associados a esse tipo específico de IA, você também poderá aumentar seu nível de confiança.
  • Empregar um bot anjo da guarda de IA. Se você tiver um bot anjo da guarda de IA pronto, isso também aumentará ainda mais seu nível de confiança.

Como mencionado anteriormente, a confiança pode ser bastante frágil e desmoronar em um instante (ou seja, o reservatório de confiança despeja rápida e repentinamente toda a confiança acumulada).

Imagine que você está dentro de um carro autônomo baseado em IA e a IA dirigindo de repente faz uma curva radical à direita, fazendo com que as rodas guinchem e quase forçando o veículo autônomo a capotar em perigo. O que aconteceria com o seu nível de confiança? Parece que, mesmo que você anteriormente mantivesse a IA em um nível elevado de confiança, você diminuiria drasticamente e abruptamente seu nível de confiança, de forma sensata.

Neste momento desta discussão pesada, aposto que você deseja exemplos ilustrativos adicionais que possam mostrar a natureza e o escopo da IA ​​confiável. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre a busca de IA confiável e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e IA confiável

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Acredito que isso forneça uma litania de advertências suficiente para fundamentar o que estou prestes a relatar.

Estamos preparados agora para mergulhar profundamente nos carros autônomos e na IA confiável.

Confiança é tudo, especialmente no caso de carros autônomos baseados em IA.

A sociedade parece estar de olho no surgimento de carros autônomos. Por um lado, há uma grande esperança de que o advento dos verdadeiros carros autônomos reduzirá comprovadamente o número de mortes anuais relacionadas a carros. Só nos Estados Unidos há cerca de 40,000 mortes anuais e cerca de 2.5 milhões de feridos devido a acidentes de carro, veja minha coleção de estatísticas em o link aqui. Humanos bebem e dirigem. Os humanos dirigem enquanto estão distraídos. A tarefa de dirigir um carro parece consistir em ser capaz de se concentrar de forma repetitiva e infalível na direção e evitar acidentes de carro. Como tal, podemos sonhar que os sistemas de direção de IA guiem os carros autônomos de forma repetitiva e infalível. Você pode interpretar carros autônomos como um duplo, consistindo em reduzir o volume de mortes e ferimentos em acidentes de carro, além de potencialmente tornar a mobilidade disponível em uma base muito mais ampla e acessível.

Mas, enquanto isso, a preocupação paira sobre as percepções da sociedade sobre se os carros autônomos serão seguros o suficiente para circular em nossas vias públicas em geral.

Se até mesmo um carro autônomo entrar em um acidente ou colisão que leve a uma única morte ou lesão grave, você provavelmente pode antecipar que a confiança um pouco construída de hoje em relação aos carros sem motorista baseados em IA cairá vertiginosamente. Vimos isso acontecer quando o agora infame incidente ocorreu no Arizona que envolveu um carro autônomo (não realmente) que colidiu e matou um pedestre (veja minha cobertura em este link aqui).

Alguns especialistas apontam que é injusto e inapropriado basear a confiança dos carros autônomos de IA na faceta de que apenas um próximo acidente ou colisão que produza morte poderia minar os já relativamente livres de acidentes nas estradas públicas. Além disso, em uma base ainda mais injusta, as chances são de que, não importa qual marca de carro autônomo de IA ou modelo se envolva em um incidente doloroso, a sociedade indubitavelmente culparia todas as marcas de carros autônomos.

A totalidade dos carros autônomos pode ser sumariamente manchada e a indústria como um todo pode sofrer uma enorme reação, levando a um possível encerramento de todos os testes em estradas públicas.

Um contribuinte para tal contra-ataque é encontrado nas declarações sem sentido dos defensores dos carros autônomos de que todos os carros sem motorista serão indestrutíveis. Essa ideia de ser indestrutível não é apenas totalmente errada (veja o link aqui), insidiosamente está preparando a indústria de carros autônomos para um conjunto de expectativas totalmente fora de sintonia. Esses pronunciamentos estranhos e inatingíveis de que haverá zero mortes devido a carros autônomos estão alimentando o equívoco de que qualquer acidente de carro sem motorista é um sinal claro de que todo o kit e o kaboodle são em vão.

Há uma tristeza distinta ao perceber que o progresso em direção aos carros autônomos e o acúmulo de confiança da sociedade, centímetro por centímetro, podem ser eliminados em um instante. Isso vai ser uma grande demonstração sobre a fragilidade da confiança.

Conclusão

Muitas montadoras e empresas de tecnologia de direção autônoma geralmente seguem os princípios de ética da IA, fazendo isso para tentar construir e colocar em campo uma IA confiável em termos de carros autônomos baseados em IA seguros e confiáveis. Por favor, perceba que algumas dessas empresas são mais fortes e mais dedicadas aos preceitos da IA ​​Ética do que outras. Há também startups ocasionais ou iniciantes relacionadas a carros autônomos que parecem deixar de lado muitos dos pilares da Ética da IA ​​(veja minha análise em o link aqui).

Em outras frentes, novas leis e regulamentos que abrangem carros autônomos estão gradualmente sendo colocados nos livros legais. Se eles têm os dentes necessários para apoiá-los é uma questão diferente, assim como se a aplicação dessas leis está sendo levada a sério ou negligenciada (veja minhas colunas para análises sobre isso).

Há também o ângulo de alta tecnologia para isso também. Eu previ que veremos gradualmente variantes de bots anjos da guarda de IA que virão à tona na arena de veículos autônomos e carros autônomos. Nós não estamos lá ainda. Isso se tornará mais prevalente quando a popularidade dos carros autônomos se tornar mais difundida.

Este último ponto traz à tona uma famosa frase sobre confiança que você, sem dúvida, já sabe de cor.

Confie mas verifique.

Podemos nos permitir estender nossa confiança, talvez generosamente. Enquanto isso, também devemos observar como um falcão para garantir que a confiança que geramos seja verificada tanto por palavras quanto por ações. Vamos colocar um pouco de confiança na IA, mas verificar continuamente se estamos depositando nossa confiança de forma adequada e com os olhos bem abertos.

Você pode confiar em mim nisso.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/