A ética da IA ​​desconfia do agravamento da assimetria da IA ​​em meio aos seres humanos que ficam com a ponta curta do bastão

Às vezes você está do lado errado da vara.

Esse coloquialismo pode ser aplicado à noção de assimetria.

Sim, vou falar sobre assimetria. Como você provavelmente já encontrou neste mundo de pernas para o ar em que vivemos, há ocasiões em que você pode ter menos conhecimento sobre um assunto que é relativamente importante para você. Isso é formalmente conhecido como Informação assimétrica.

A chave é que você tem menos conhecimento ou informação do que gostaria de ter, além de ter decididamente menos do que a outra parte envolvida no assunto. Você está em clara desvantagem em comparação com a outra parte. Eles sabem algo que você não sabe. Eles podem aproveitar o que sabem, especialmente em termos do que você não sabe, e obter vantagem em quaisquer deliberações ou negociações difíceis com você.

Bem, há um garoto novo na cidade, conhecido como Assimetria de IA.

Este último bordão refere-se à possibilidade de você ir contra alguém que está armado com IA, enquanto você não está tão armado.

Eles têm IA do lado deles, enquanto você tem, bem, apenas você. As coisas estão desequilibradas. Você está em uma desvantagem presumida. O outro lado poderá correr em círculos ao seu redor devido ao aumento da IA. Isso pode estar dentro do famoso ditado de que tudo vale no amor e na guerra (um provérbio de longa data cunhado em Eufués por John Lyly, 1578), embora a dinâmica e os perigos da assimetria da IA ​​levantem questões éticas desafiadoras da IA. Para minha cobertura contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Antes de entrarmos no reino da IA ​​e suas abundantes complexidades em relação à assimetria da IA, vamos primeiro explorar a versão regular do dia-a-dia da velha assimetria de informações. Isso preparará o terreno para se aproximar do proverbial novato da IA ​​no bloco.

Um conto breve e propositalmente esclarecedor pode abrir seu apetite.

No outro dia, tive um pneu furado enquanto estava na estrada e procurava rapidamente encontrar um substituto adequado que pudesse ser instalado imediatamente. Usando meu smartphone, procurei on-line em lojas de pneus próximas para descobrir a distância que eu tinha que percorrer com meu pneu run-flat e se alguma loja estava aberta. Além disso, fiz uma avaliação rápida das avaliações dos clientes on-line e tentei coletar qualquer coisa útil sobre quanto tempo eles estavam no negócio e outros fatores que pudessem mostrar seu valor.

Ao ligar para uma das lojas de pneus, o balconista me deu uma cotação alegre para o custo do pneu e sua instalação. O pneu não era exatamente o que eu tinha em mente, mas o balconista me garantiu que seria a única loja da região que poderia fazer o trabalho imediatamente. De acordo com o funcionário, qualquer uma das outras lojas de pneus próximas não teria nenhum desses pneus em estoque e levaria pelo menos um dia para esses concorrentes obterem um pneu adequado em algum armazém semi-distante.

Eu estava no meio de uma assimetria de informação.

O balconista afirmou saber mais sobre a situação local das lojas de pneus e, em particular, sobre o tipo de pneu que eu precisava. Eu estava em uma área que eu estava apenas de passagem e não tinha nenhum conhecimento em primeira mão sobre as lojas de pneus naquela área geográfica específica. Por tudo que eu sabia, o funcionário estava certo e estava me dando a verdade nua e crua.

Mas o funcionário estava fazendo isso?

Talvez sim, talvez não.

Pode ser que o balconista acreditasse sinceramente em tudo o que me estava sendo transmitido. Para o funcionário, esta era a verdade. Ou talvez o balconista estivesse exagerando um pouco na verdade. Era possível que o que estava sendo dito pudesse ser verdade, embora a maneira como estava sendo retratado implicasse que era a verdade absoluta e irrefutável. Claro, também poderia ter sido uma bobagem completa e o balconista estava apenas dando um xelim para a loja de pneus para angariar meus negócios. Poderia uma comissão suculenta estar em jogo?

Atrevo-me a dizer que ninguém gosta de estar em uma posição tão azarão.

Os riscos da situação são um fator vital no quanto uma assimetria de informação é importante. Se a questão em questão é de natureza de vida ou morte, estar na casinha de cachorro e depender da outra parte para o que eles sabem ou professam saber é uma postura superficial e altamente indesejável. , como pedir seu jantar em um restaurante e o garçom te dizer que o prato de peixe é divino, mas você nunca comeu lá antes e está desinformado, você pode acompanhar esse mínimo de assimetria de informações sem muita angústia (eu suponha também que você também está apostando que o servidor não arriscaria dar conselhos azedos e perder uma gorjeta decente).

Voltando à história do pneu gasto (um trocadilho!), eu não teria nenhuma maneira instantânea de descobrir se o balconista estava me dando informações confiáveis ​​e informativas. Você pode estar se perguntando o que aconteceu. Decidi fazer ligações para várias outras lojas de pneus próximas.

Você está pronto para o que eu descobri?

Todas as outras lojas de pneus tinham o pneu desejado em estoque e não iam tentar me convencer a comprar um pneu diferente (como o primeiro funcionário tentou fazer). Eles também poderiam fazer o trabalho no mesmo prazo que a primeira loja de pneus que eu talvez liguei. Quase o mesmo preço.

Um suspiro de alívio bem-vindo ocorreu de minha parte, asseguro-lhe.

Ironicamente, na Lei da má sorte de Murphy, o primeiro lugar que entrei em contato foi o único que parecia estar fora para almoçar, por assim dizer. Fico feliz por ter procurado obter mais informações. Isso reduziu a lacuna de assimetria de informações. Eu me aplaudi por ter me apegado às minhas armas e não ter acedido ao primeiro lugar que chamei.

Dito isto, havia uma espécie de custo definido envolvido na minha obtenção de informações adicionais. Fiz aproximadamente quatro ligações que cada uma levou cerca de quinze a vinte minutos para serem totalmente realizadas. Nesse sentido, gastei cerca de uma hora e meia enquanto imaginava para onde levar meu carro. Se eu tivesse levado meu carro imediatamente para aquele primeiro lugar, o pneu novo estaria quase no meu carro naquele momento. Por outro lado, é quase certo que, mais tarde, eu teria me arrependido da decisão rápida que tomei enquanto estava em um covarde vínculo de assimetria de informação.

Às vezes você tem que cerrar os dentes e aceitar a temida assimetria de informação como ela vem. Você só espera que qualquer decisão que você tome seja boa o suficiente. Pode não ser uma decisão “perfeita” e você pode se arrepender mais tarde da escolha feita. O outro ângulo é que você pode tentar reforçar o seu lado da equação da informação, embora isso não seja necessariamente gratuito e também possa consumir um tempo precioso, dependendo se o tempo estimado é essencial.

Agora que você está, sem dúvida, confortado em saber que meu carro está funcionando bem com seu pneu novo e correto, posso mudar para o surgimento da assimetria de IA.

Considere um conto de aflição da IA.

Você está procurando obter um empréstimo à habitação. Existe um analisador de solicitação de hipoteca online que um determinado banco está usando. O sistema online faz uso dos recursos avançados de IA atuais. Não há necessidade de falar com um agente de concessão de empréstimo humano. A IA faz tudo.

O sistema de IA orienta você por uma série de prompts. Você devidamente preenche os formulários e responde ao sistema de IA. Esta IA é muito tagarela. Enquanto você no passado pode ter usado um sistema de formulário convencional baseado em computador, essa variante de IA é mais parecida com a interação com um agente humano. Não exatamente, mas o suficiente para que você quase pudesse começar a acreditar que um humano estava do outro lado dessa atividade.

Depois de fazer o possível para “discutir” sua solicitação com essa IA, no final, ela informa que infelizmente a solicitação de empréstimo não foi aprovada. É meio que sua cabra que a IA parece oferecer um pedido de desculpas, como se a IA quisesse aprovar o empréstimo, mas aqueles humanos mesquinhos que supervisionam o banco não permitem que a IA o faça. Para minha cobertura de quão enganosos são esses tipos de alegadas desculpas de IA, veja o link aqui.

Você não tem a menor ideia do motivo pelo qual foi rejeitado. A IA não oferece nenhuma explicação. Talvez a IA tenha cometido um erro ou errado em seus cálculos. Pior ainda, suponha que a IA tenha usado algumas considerações altamente questionáveis, como sua raça ou sexo, ao decidir sobre o empréstimo. Tudo o que você sabe é que parecia ter desperdiçado seu tempo e também entregou uma tonelada de dados privados à IA e ao banco. A IA deles superou você.

Isso seria rotulado como um exemplo de assimetria de IA.

Era você contra o banco. O banco estava armado com IA. Você não estava igualmente armado. Você tinha sua inteligência e sua escola de sabedoria, mas nenhuma IA residindo em seu bolso de trás. Mente contra uma máquina. Infelizmente, a máquina ganhou neste caso.

O que estás a fazer?

Primeiro, precisamos, em uma base social, perceber que essa assimetria de IA está crescendo e se tornando quase onipresente. Os humanos estão encontrando IA em todos os sistemas com os quais interagimos diariamente. Às vezes, a IA é o único elemento com o qual interagimos, como neste exemplo sobre a solicitação de empréstimo. Em outros casos, um humano pode estar no circuito que depende da IA ​​para ajudá-lo a realizar um determinado serviço. Para o empréstimo, pode ser que o banco queira que você fale com um agente humano em vez de interagir com a IA, mas para o qual o agente humano está usando um sistema de computador para acessar a IA que está orientando o agente humano durante o processo de solicitação de empréstimo (e quase sempre você tem certeza de que o agente humano age como se estivesse aprisionado por ter que fazer estritamente o que a IA “mandá-los fazer”).

De qualquer forma, a IA ainda está na mistura.

Em segundo lugar, precisamos tentar garantir que a assimetria da IA ​​esteja pelo menos sendo feita com base na ética da IA.

Permita-me explicar essa observação aparentemente estranha. Veja bem, se pudermos ter certeza de que a IA está agindo de maneira eticamente correta, podemos ter algum consolo sobre a assimetria que está em jogo. Em uma base um tanto análoga, mas também vaga, você pode dizer que, se minha interação com o primeiro balconista da loja de pneus tivesse algumas diretrizes éticas estridentes em vigor e aplicadas, talvez eu não tivesse ouvido a história que me contaram, ou pelo menos eu talvez não tivesse que procurar imediatamente descobrir se uma grande história estava sendo contada para mim.

Em breve explicarei mais sobre Ética em IA.

Terceiro, devemos buscar maneiras de reduzir a assimetria da IA. Se você tivesse IA do seu lado, se esforçando para ser seu treinador ou protetor, talvez pudesse usar essa IA para contra-atacar a outra IA com a qual está enfrentando. Como se costuma dizer, às vezes faz muito sentido combater fogo com fogo.

Antes de entrar em um pouco mais de carne e batatas sobre as considerações selvagens e confusas subjacentes à assimetria da IA, vamos estabelecer alguns fundamentos adicionais sobre tópicos profundamente essenciais. Precisamos mergulhar brevemente na Ética da IA ​​e especialmente no advento do Machine Learning (ML) e Deep Learning (DL).

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, vamos explorar o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos voltar ao nosso foco na assimetria da IA.

Uma rápida recapitulação sobre minhas três recomendações identificadas acima mencionadas é esta:

1) Conscientize-se de que a assimetria de IA existe e está crescendo

2) Procure garantir que a assimetria da IA ​​seja limitada pela Ética da IA

3) Tente lidar com a assimetria da IA ​​armando-se com a IA

Vamos dar uma olhada mais de perto no último ponto de combate ao fogo com fogo.

Imagine que, ao tentar obter um empréstimo, você tivesse uma IA trabalhando ao seu lado. Este pode ser um aplicativo baseado em IA em seu smartphone que foi desenvolvido para obter empréstimos. Não é um aplicativo de um dos bancos e, em vez disso, foi desenvolvido de forma independente para agir em seu nome. Eu detalhei esses tipos de aplicativos em meu livro sobre bots de anjo da guarda baseados em IA, veja o link aqui.

Ao solicitar um empréstimo, você pode consultar este aplicativo à medida que avança no processo de inscrição pela outra IA. Esses dois sistemas de IA são distintos e completamente separados um do outro. A IA do seu smartphone foi “treinada” para conhecer todos os truques usados ​​pela outra IA. Como tal, as respostas que você inserir na IA do banco serão baseadas no que sua IA está aconselhando.

Outra variante consiste em sua IA respondendo às perguntas feitas pela outra IA. Até onde a outra IA pode verificar, é você que está digitando as respostas. Em vez disso, você pode estar apenas observando as interações ocorrerem entre os dois sistemas de IA em batalha. Isso permite que você veja o que sua IA está oferecendo. Além disso, você pode ajustar sua IA dependendo de estar satisfeito com o que sua IA está fazendo em seu nome.

Eu previ que todos nós vamos gradualmente nos tornar armados com IA que estará do nosso lado nessas situações de assimetria de IA.

Vamos considerar como isso vai funcionar.

Estes são os impactos fundamentais na condição de assimetria de IA que eu havia estabelecido:

  • Achatando a assimetria da IA ​​a seu favor (trazendo você para cima, na esperança de alcançar níveis iguais)
  • Estimulando uma assimetria de IA a seu favor (levando você a uma vantagem quando já são iguais)
  • Impulsionando uma assimetria de IA a seu favor extraordinário (ganhando uma vantagem mais ampla quando já em vantagem)
  • Subcotação inadvertida da assimetria da IA ​​para seu desfavor (quando você tinha uma vantagem preexistente e a IA inadvertidamente o derrubou)

Hora de mergulhar profundamente nessas possibilidades intrigantes.

Achatando a assimetria da IA ​​a seu favor

Achatar a assimetria da IA ​​é a consideração mais óbvia e mais frequentemente discutida, ou seja, que você se armaria com IA para tentar ir de igual para igual com a IA que está sendo usada pelo outro lado no assunto em questão. A configuração de assimetria de IA começou com você em desvantagem. Você não tinha IA ao seu lado. Você estava no lado ruim das coisas. O outro lado tinha IA e eles estavam no terreno mais alto.

Assim, você sabiamente se armou com IA que visaria colocar você e a outra IA em igualdade de condições.

Uma nuance importante e talvez surpreendente a ter em mente é que nem sempre será o caso de os sistemas de IA empregados se equilibrarem uniformemente. Você pode se armar com IA que é, digamos, menos potente do que a IA que o outro lado está usando. Nesse caso, você aumentou sua posição de desvantagem, felizmente, embora agora não seja totalmente igual ao outro lado e sua IA.

É por isso que me refiro a isso como achatamento da assimetria da IA. Você pode ser capaz de diminuir a lacuna, embora não feche totalmente a lacuna. O objetivo final seria usar a IA ao seu lado, que o levará a uma postura completamente igual. A questão é que isso pode ou não ser viável. O outro lado poderia ter uma IA realmente cara e você está tentando competir com a versão econômica da IA.

Nem toda IA ​​é igual.

Estimulando uma assimetria de IA a seu favor

Esta circunstância não é algo muito discutido hoje, em parte porque é raro agora. Algum dia, isso será comum. A noção é que suponha que você esteja sem IA e ainda assim em igualdade de condições com o lado que tem IA.

Bom para você.

Os humanos têm seu juízo sobre eles.

Mas você pode querer ganhar uma vantagem sobre o outro lado. Armar-se com IA leva você a um patamar mais alto. Agora você tem sua inteligência e sua IA confiável em mãos. Você ganhou uma vantagem que presumivelmente prevalecerá sobre a IA do outro lado.

Impulsionando uma assimetria de IA a seu favor extraordinário

Usando uma lógica semelhante como o aspecto de estimular uma assimetria de IA em seu nome, suponha que você já esteja acima das capacidades do outro lado que está usando a IA. Portanto, você não está começando em uma postura igual. Você felizmente já está no topo.

Você pode querer de qualquer maneira garantir uma vantagem ainda maior. Portanto, você se arma com IA. Isso leva sua cabeça e ombros acima do outro lado.

Subcotação inadvertida da assimetria da IA ​​para seu desfavor

Duvido que você queira ouvir sobre essa possibilidade. Por favor, perceba que lidar com IA não é só rosas e bolos de sorvete.

Pode ser que quando você se arma com IA, você realmente se prejudica. Se você já era menos que a IA do outro lado, agora está em um buraco mais profundo. Se você estava em igualdade de condições, agora você está em desvantagem. Se você estava acima do outro lado, agora está igual ou abaixo dele.

Como isso pôde acontecer?

Você pode ficar chocado ao ponderar que a IA que você adota vai desviá-lo. Isso facilmente poderia ocorrer. Só porque você tem IA ao seu lado não significa que seja útil. Você pode estar usando a IA e ela fornece conselhos que você não necessariamente acha que são adequados, mas decide seguir com ela de qualquer maneira. Sua lógica na época era que, já que você se deu ao trabalho de obter a IA, você poderia depender dela.

A IA que você está usando pode estar com defeito. Ou pode ser mal elaborado. Há uma série de razões pelas quais a IA pode estar dando conselhos duvidosos. Aqueles que aceitam cegamente o que a IA diz para fazer estão fadados a se encontrar em um mundo de dor. Eu cobri essas situações em minha coluna, como o link aqui.

A linha inferior é que não há absolutamente nenhuma garantia de que só porque você se arma com IA você vai ganhar no jogo AI Asymmetry.

Você pode chegar a um campo de jogo nivelado. Você pode ganhar uma vantagem. E, lamentavelmente, você precisa ser cauteloso, pois pode ser que você afunde para níveis mais baixos quando armado com IA.

Até certo ponto, é por isso que a ética da IA ​​e a IA ética são um tópico tão crucial. Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de ética em IA e fazê-lo integralmente para o desenvolvimento e o campo da IA ​​é vital para a produção de IA apropriada.

Além de empregar a Ética da IA, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Na verdade, eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando a galinha dos ovos de ouro ao reprimir os avanços da IA ​​que oferecem imensas vantagens sociais. Veja por exemplo minha cobertura em o link aqui e o link aqui.

Neste momento desta discussão pesada, eu aposto que você está desejoso de alguns exemplos ilustrativos que possam mostrar este tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre a assimetria da IA ​​e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e assimetria de IA

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Vamos esboçar um cenário que mostra a assimetria de IA.

Contemple a questão aparentemente inconsequente de onde os carros autônomos estarão em roaming para pegar passageiros. Este parece ser um tópico abundantemente inócuo.

A princípio, suponha que os carros autônomos da IA ​​estejam circulando por cidades inteiras. Qualquer pessoa que queira solicitar uma carona em um carro autônomo tem basicamente a mesma chance de conseguir um. Gradualmente, a IA começa a manter principalmente os carros autônomos circulando em apenas uma seção da cidade. Esta seção é mais lucrativa e a IA foi programada para tentar e maximizar receitas como parte do uso na comunidade em geral (isso ressalta a mentalidade subjacente à otimização, ou seja, concentrando-se em apenas uma métrica específica e negligenciando outros fatores cruciais no processo).

Os membros da comunidade nas partes empobrecidas da cidade são menos propensos a conseguir uma carona em um carro autônomo. Isso ocorre porque os carros autônomos estavam mais distantes e circulavam na parte de maior renda da cidade. Quando um pedido chega de uma parte distante da cidade, qualquer outro pedido de um local mais próximo teria uma prioridade mais alta. Eventualmente, a disponibilidade de obter um carro autônomo em qualquer lugar que não seja a parte mais rica da cidade é quase impossível, exasperante para aqueles que viviam nessas áreas agora carentes de recursos.

Lá se vão os sonhos de mobilidade para todos que os carros autônomos deveriam trazer à vida.

Você poderia afirmar que a IA caiu em uma forma de viés estatístico e computacional, semelhante a uma forma de discriminação por procuração (também conhecida como discriminação indireta). Perceba que a IA não foi programada para evitar esses bairros mais pobres. Vamos ser claros sobre isso neste caso. Não, foi concebido apenas para otimizar a receita, uma meta aparentemente aceitável, mas isso foi feito sem que os desenvolvedores de IA contemplassem outras ramificações potenciais. Essa otimização, por sua vez, involuntária e inevitavelmente levou a um resultado indesejável.

Se tivessem incluído as considerações de ética da IA ​​como parte de sua mentalidade de otimização, eles poderiam ter percebido de antemão que, a menos que criassem a IA para lidar com esse tipo de superdimensionamento apenas em uma métrica, poderiam ter evitado resultados tão sombrios. Para saber mais sobre esses tipos de problemas que a adoção generalizada de veículos autônomos e carros autônomos provavelmente incorrerão, veja minha cobertura em este link aqui, descrevendo um estudo liderado por Harvard do qual fui co-autor sobre esses tópicos.

Em qualquer caso, assuma que o cavalo já está fora do celeiro e a situação não é imediatamente passível de soluções abrangentes.

O que aqueles que querem usar esses carros autônomos podem fazer?

A abordagem mais aparente seria trabalhar com líderes comunitários para fazer com que a montadora ou empresa de tecnologia de direção autônoma reconsiderasse como eles configuraram a IA. Talvez pressionar qualquer licenciamento ou licença que tenha sido concedida para a implantação desses carros autônomos naquela cidade ou vila. Esses são provavelmente meios viáveis ​​de trazer mudanças positivas, embora possa demorar um pouco até que esses esforços dêem frutos.

Outro ângulo seria se armar com IA.

Imagine que alguém criou habilmente um aplicativo baseado em IA que funciona em seu smartphone e lida com a IA da montadora ou operadora de frota que está recebendo solicitações de passeios. Pode ser que a IA que você está usando explore elementos-chave da outra IA, de modo que uma solicitação de um carro autônomo por você receba maior prioridade. Observe que não estou sugerindo que algo ilegal esteja ocorrendo, mas sim que a IA do seu lado foi desenvolvida com base em “recursos” descobertos ou mesmo brechas na outra IA.

Conclusão

A história sobre lutar descaradamente contra a IA do operador de frota de carros autônomos ao se armar com IA traz controvérsias e considerações adicionais sobre ética em IA.

Por exemplo:

  • Se uma pessoa pode fazer uso da IA ​​para dar a ela uma vantagem sobre a IA de algum outro sistema, até onde isso pode ir em termos de possivelmente cruzar os limites da Ética da IA ​​(convenço os carros autônomos a virem até mim e meus amigos, com exclusão de todos os outros)?
  • Além disso, existe alguma semelhança com a consideração da Ética da IA ​​de que, se alguém conhece ou está armado com IA para lutar com outra IA, as pessoas restantes que não têm essa IA de equilíbrio devem ser de alguma forma alertadas para a IA e serem capazes de se armar? em conformidade também?

No final, tudo isso está nos levando a um futuro que parece assustador, consistindo em uma corrida armamentista de IA. Quem terá a IA necessária para se locomover e sobreviver e quem não terá? Sempre haverá mais uma IA que surge e desperta a necessidade de uma IA de contrapeso?

Carl Sagan, o venerado cientista, forneceu esta sábia sabedoria sobre corridas armamentistas especialmente cataclísmicas: “A corrida armamentista nuclear é como dois inimigos jurados mergulhados na gasolina até a cintura, um com três fósforos, o outro com cinco”.

Devemos ter como objetivo decisivo manter nossos pés secos e nossas cabeças claras quando se trata de uma corrida armamentista de IA cada vez mais iminente.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- da vara/