Ética da IA ​​dizendo que a IA deve ser especialmente implantada quando os preconceitos humanos são abundantes

Os humanos têm que conhecer suas limitações.

Você pode se lembrar da famosa frase sobre conhecer nossas limitações como corajosamente proferida pelo personagem Dirty Harry no filme de 1973 intitulado Magnum Force (de acordo com as palavras do ator Clint Eastwood em seu papel memorável como o inspetor Harry Callahan). A noção geral é que às vezes tendemos a ignorar nossos próprios limites e nos colocar em água quente de acordo. Seja por arrogância, ser egocêntrico ou simplesmente cego às nossas próprias capacidades, o preceito de estar ciente e levar em conta explicitamente nossas tendências e deficiências é bastante sensato e útil.

Vamos adicionar uma nova reviravolta ao sábio conselho.

A Inteligência Artificial (IA) tem que conhecer suas limitações.

O que quero dizer com essa variante do bordão venerado?

Acontece que a corrida inicial para colocar a IA moderna em uso como um solucionador esperançoso dos problemas do mundo tornou-se manchada e completamente enlameada pela percepção de que a IA de hoje tem algumas limitações bastante severas. Saímos das manchetes animadoras de AI For Good e cada vez mais nos encontramos atolados em AI para mau. Você vê, muitos sistemas de IA foram desenvolvidos e colocados em campo com todos os tipos de preconceitos raciais e de gênero indesejáveis, e uma infinidade de outras desigualdades terríveis.

Para minha cobertura extensa e contínua de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Os vieses descobertos nesses sistemas de IA não são do tipo, digamos, “intencional” que atribuiríamos ao comportamento humano. Menciono isso para enfatizar que a IA de hoje não é senciente. Apesar das manchetes estridentes que sugerem o contrário, simplesmente não há nenhuma IA em nenhum lugar que chegue perto da senciência. Além disso, não sabemos como colocar a IA no suporte da senciência, e ninguém pode dizer com certeza se algum dia atingiremos a senciência da IA. Talvez um dia aconteça, ou talvez não.

Então, meu ponto é que não podemos atribuir uma intenção particular ao tipo de IA que possuímos atualmente. Dito isto, podemos atribuir abundantemente intenção àqueles que estão criando sistemas de IA. Alguns desenvolvedores de IA não sabem que criaram um sistema de IA que contém preconceitos desagradáveis ​​e possivelmente ilegais. Enquanto isso, outros desenvolvedores de IA percebem que estão imbuindo preconceitos em seus sistemas de IA, potencialmente fazendo isso de maneira intencional.

De qualquer forma, o resultado ainda é impróprio e provavelmente ilegal.

Esforços intensos estão em andamento para promulgar princípios de ética em IA que esclarecerão os desenvolvedores de IA e fornecerão orientação adequada para evitar a incorporação de preconceitos em seus sistemas de IA. Isso vai ajudar de uma forma twofer. Primeiro, aqueles que criam IA não terão mais a desculpa pronta de que simplesmente não estavam cientes de quais preceitos deveriam ser seguidos. Em segundo lugar, aqueles que se desviam das condições de IA Ética serão mais prontamente capturados e mostrados como evitando o que foram avisados ​​para fazer e não fazer.

Vamos tomar um momento para considerar brevemente alguns dos principais preceitos éticos da IA ​​para ilustrar o que os construtores de IA devem pensar e realizar rigorosamente a partir de uma postura ética da IA.

Conforme declarado pelo Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, inclusive com metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, enquanto é uma situação muito mais complicada sobre a codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Por favor, esteja ciente de que é preciso uma aldeia para conceber e colocar em campo a IA. Para o qual toda a vila deve estar atenta à Ética da IA.

De qualquer forma, agora que cheguei à mesa de que a IA pode conter vieses, talvez todos possamos concordar com esses dois fatos aparentes:

1. Os seres humanos podem ter vários preconceitos indesejáveis ​​e podem agir de acordo com eles

2. A IA pode ter vários vieses desfavoráveis ​​e pode agir de acordo com esses vieses

Eu sou um pouco odiado em empilhar humanos versus IA nesse contexto, pois de alguma forma isso pode implicar que a IA tem capacidades sencientes a par dos humanos. Certamente não é assim. Voltarei momentaneamente às crescentes preocupações sobre a antropomorfização da IA ​​um pouco mais adiante nesta discussão.

O que é pior, humanos que exibem preconceitos indesejáveis ​​ou IA que o faz?

Atrevo-me a dizer que a questão coloca uma dessas escolhas sombrias. É o proverbial menor de dois males, pode-se argumentar. Gostaríamos que os humanos não incorporassem preconceitos indesejáveis. Gostaríamos ainda que, mesmo que os humanos tenham preconceitos desfavoráveis, eles não ajam de acordo com esses preconceitos. O mesmo poderia ser dito da IA. Gostaríamos que a IA não incorporasse vieses desfavoráveis ​​e que, mesmo que existam vieses codificados internamente, a IA pelo menos não agisse sobre eles.

Os desejos, no entanto, não necessariamente governam o mundo (para minha análise da aparência crescente e perturbadora dos chamados Realização de desejo de IA pela sociedade em geral, ver o link aqui).

Ok, obviamente queremos que os humanos conheçam suas limitações. Há uma importância em reconhecer quando você tem preconceitos indesejáveis. Há igual importância em tentar evitar que esses preconceitos indesejáveis ​​sejam infundidos em suas ações e decisões. As empresas hoje estão tentando todos os tipos de abordagens para evitar que seus funcionários caiam nas armadilhas terríveis de preconceitos indesejáveis. Treinamento especializado está sendo dado aos funcionários sobre como realizar seu trabalho de maneira eticamente correta. Os processos são moldados em torno dos funcionários para alertá-los quando eles parecem estar exibindo costumes antiéticos. E assim por diante.

Outro meio de lidar com humanos e seus preconceitos indesejáveis ​​seria automatizar o trabalho humano. Sim, basta remover o humano do loop. Não permita que um humano execute uma tarefa de tomada de decisão e você presumivelmente não terá mais preocupações persistentes sobre o comportamento humano em relação a quaisquer preconceitos indesejáveis. Não há um humano envolvido e, portanto, o problema dos potenciais preconceitos humanos parece estar resolvido.

Trago isso à tona porque estamos testemunhando uma mudança gradual e de grande porte para o uso da IA ​​em uma maneira de tomada de decisão por algoritmo (ADM). Se você puder substituir um trabalhador humano por IA, as chances são de que muitos benefícios surgirão. Como já mencionado, você não se preocuparia mais com os preconceitos humanos desse trabalhador humano (aquele que não está mais fazendo esse trabalho). As chances são de que a IA seja menos onerosa em geral quando comparada a um horizonte de longo prazo. Você dispensa todas as outras dificuldades variadas que são parte integrante dos trabalhadores humanos. etc.

Uma proposição que está ganhando terreno parece ser esta: Ao tentar decidir onde melhor colocar a IA, olhe primeiro para as configurações que já envolvem preconceitos humanos desfavoráveis ​​por seus funcionários e para os quais esses preconceitos estão prejudicando ou complicando excessivamente determinadas tarefas de tomada de decisão.

A conclusão é que parece prudente obter o maior retorno possível em termos de investimento em IA, visando diretamente tarefas de tomada de decisão humana altamente expostas que são difíceis de controlar de uma perspectiva de infusão de vieses desfavoráveis. Remova os trabalhadores humanos nessa função. Substitua-os por IA. A suposição é que a IA não teria tais vieses indesejáveis. Portanto, você pode ter seu bolo e comê-lo também, ou seja, realizar as tarefas de decisão e fazê-lo menos o espectro ético e legal de preconceitos indesejáveis.

Quando você escreve isso, o ROI (retorno do investimento) provavelmente tornaria a adoção da IA ​​uma escolha óbvia.

Aqui está como isso geralmente acontece.

Olhe em toda a sua empresa e tente identificar as tarefas de tomada de decisão que afetam os clientes. Dessas tarefas, quais são mais propensas a serem influenciadas inadequadamente se os trabalhadores estiverem incorporando preconceitos indesejáveis? Se você já tentou controlar esses preconceitos, talvez tenha deixado as coisas como estão. Por outro lado, se os preconceitos continuarem reaparecendo e o esforço para eliminá-los for oneroso, considere colocar alguma IA pertinente nesse papel. Não mantenha os trabalhadores na mistura, pois eles podem substituir a IA ou empurrar a IA de volta para o abismo dos preconceitos desfavoráveis. Além disso, certifique-se de que a IA possa executar a tarefa com proficiência e que você tenha capturado suficientemente as facetas de tomada de decisão necessárias para realizar o trabalho.

Enxague e repita.

Percebo que parece uma noção direta, embora perceba que há muitas maneiras pelas quais a substituição de trabalhadores humanos por IA pode facilmente dar errado. Muitas empresas estavam ansiosas para tomar tais ações e não consideraram conscientemente como fazê-lo. Como resultado, eles muitas vezes fizeram uma bagunça muito pior do que tinham em suas mãos para começar.

Quero esclarecer e acentuar que a IA não é uma panacéia.

Falando nisso, há um grande problema sobre a limpeza de aparentemente descartar os tomadores de decisão com viés humano com a IA supostamente imparcial. O problema é que você pode estar apenas substituindo um conjunto de preconceitos desfavoráveis ​​por outro. De acordo com a indicação anterior, a IA pode conter vieses indesejáveis ​​e pode agir de acordo com esses vieses. Fazer uma suposição descarada de que trocar humanos tendenciosos por IA imparcial não é tudo o que parece ser.

Em suma, aqui está o acordo ao visualizar o assunto estritamente a partir dos fatores de viés:

  • A IA não tem vieses desfavoráveis ​​e, portanto, o ADM baseado em IA é útil para implantar
  • A IA tem os mesmos vieses negativos que os humanos substituídos e, portanto, o ADM baseado em IA é preocupante
  • A IA introduz novos vieses indesejáveis ​​além dos humanos substituídos e provavelmente piorará as coisas de acordo
  • A IA a princípio parece bem e depois gradualmente oscila em vieses indesejáveis
  • Outros

Podemos descompactar brevemente essas possibilidades.

A primeira é a versão idealizada do que pode acontecer. A IA não tem preconceitos desfavoráveis. Você coloca a IA no lugar e ela faz o trabalho soberbamente. Bom para você! Claro, seria de esperar que você também tenha lidado de maneira hábil com o deslocamento de trabalhadores humanos devido à inclusão da IA.

No segundo caso, você coloca a IA em funcionamento e descobre que a IA está exibindo os mesmos vieses desfavoráveis ​​que os trabalhadores humanos tinham. Como isso pode ser? Um meio comum de cair nessa armadilha é usar Machine Learning (ML) e Deep Learning (DL) com base em dados coletados de como os humanos na função estavam tomando suas decisões anteriormente.

Permita-me um momento para explicar.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que vêm fazendo o trabalho há anos e anos incorporam vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de Aprendizado de Máquina ou Aprendizado Profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem em si.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática arcana pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Tudo dito, você pode acabar de volta à estaca zero. Os mesmos preconceitos desagradáveis ​​dos humanos são agora computacionalmente espelhados no sistema de IA. Você não erradicou os preconceitos.

Pior ainda, é menos provável que você perceba que a IA tem vieses. No caso dos humanos, você normalmente pode estar em guarda de que os humanos têm preconceitos desfavoráveis. Esta é uma expectativa básica. O uso da IA ​​pode levar os líderes a acreditar que a automação removeu completamente qualquer tipo de preconceito humano. Eles estão assim se preparando por terem dado um tiro no pé. Eles se livraram de humanos com preconceitos indesejáveis ​​aparentemente conhecidos, sendo substituídos por IA que se pensava não ter esses preconceitos e, no entanto, agora colocaram em uso a IA repleta dos mesmos preconceitos já conhecidos.

Isso pode deixar as coisas realmente vesgas. Você pode ter removido outras proteções sendo usadas com os trabalhadores humanos que foram estabelecidos para detectar e prevenir o surgimento desses preconceitos humanos já previstos. A IA agora tem rédea solta. Nada está no lugar para pegá-lo antes de agir. A IA, então, pode começar a levá-lo por um caminho sombrio do vasto acúmulo de ações tendenciosas.

E você está na postura desajeitada e talvez responsável que você já sabia sobre os preconceitos e agora permitiu que esses preconceitos causassem estragos. Talvez uma coisa seja nunca ter encontrado tais preconceitos indesejáveis ​​e, de repente, do nada, a IA os desencadeia. Você pode tentar desculpar isso com o tipo de distração “quem teria adivinhado” (não muito convincente, talvez). Mas ter agora configurado a IA que está fazendo as mesmas ações tendenciosas desfavoráveis ​​de antes, bem, suas desculpas estão ficando mais finas e fracas.

Uma reviravolta nisso envolve a IA exibindo vieses indesejáveis ​​que não haviam sido encontrados anteriormente quando os humanos estavam realizando a tarefa. Pode-se dizer que isso talvez seja mais difícil de evitar, pois consiste em “novos” vieses que a empresa não estava procurando anteriormente. No final, porém, as desculpas podem não fornecer muito alívio. Se o sistema de IA se aventurou em território antiético e ilegal, seu ganso pode estar frito.

Uma outra faceta a ter em mente é que a IA pode começar bem e depois avançar para vieses indesejáveis. Isso é especialmente provável quando o uso de Machine Learning ou Deep Learning ocorre continuamente para manter a IA atualizada. Esteja o ML/DL trabalhando em tempo real ou fazendo atualizações periodicamente, a atenção deve ser se a IA está possivelmente ingerindo dados que agora contêm vieses e que anteriormente não estavam presentes.

Para os líderes que pensam que estão ganhando um almoço grátis acenando com uma varinha mágica para substituir trabalhadores humanos tendenciosos por IA, eles terão um despertar muito rude. Veja minha discussão sobre a importância de capacitar líderes com os preceitos da Ética da IA ​​em o link aqui.

Neste momento desta discussão, eu aposto que você está desejoso de alguns exemplos do mundo real que podem mostrar o enigma de substituir (ou não) preconceitos negativos humanos por preconceitos desfavoráveis ​​baseados em IA.

Estou feliz que você perguntou.

Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre preconceitos indesejáveis ​​na IA e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Como esclarecimento, verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não há um carro autônomo de verdade no Nível 5, que ainda nem sabemos se isso será possível e nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e IA com vieses impróprios

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Acredito que isso forneça uma litania de advertências suficiente para fundamentar o que estou prestes a relatar.

Estamos preparados agora para mergulhar profundamente nos carros autônomos e nas possibilidades de IA ética que envolvem a exploração de IA e preconceitos indesejáveis.

Vamos usar um exemplo direto. Um carro autônomo baseado em IA está em andamento nas ruas do seu bairro e parece estar dirigindo com segurança. No início, você dedicou atenção especial a cada vez que conseguiu vislumbrar o carro autônomo. O veículo autônomo se destacou com seu rack de sensores eletrônicos que incluíam câmeras de vídeo, unidades de radar, dispositivos LIDAR e similares. Depois de muitas semanas de carro autônomo circulando pela sua comunidade, agora você mal percebe. Para você, é apenas mais um carro nas vias públicas já movimentadas.

Para que você não pense que é impossível ou implausível se familiarizar com a visão de carros autônomos, escrevi frequentemente sobre como os locais que estão dentro do escopo de testes de carros autônomos gradualmente se acostumaram a ver os veículos enfeitados, veja minha análise em este link aqui. Muitos dos moradores, eventualmente, passaram de boquiabertos boquiabertos para agora emitindo um bocejo expansivo de tédio para testemunhar aqueles sinuosos carros autônomos.

Provavelmente a principal razão agora que eles podem notar os veículos autônomos é por causa do fator de irritação e exasperação. Os sistemas de direção de IA convencionais garantem que os carros estejam obedecendo a todos os limites de velocidade e regras da estrada. Para motoristas humanos agitados em seus carros tradicionais conduzidos por humanos, às vezes você fica irritado quando fica preso atrás dos carros autônomos baseados em IA estritamente cumpridores da lei.

Isso é algo que todos nós precisamos nos acostumar, com ou sem razão.

De volta ao nosso conto.

Acontece que duas preocupações impróprias começam a surgir sobre os carros autônomos baseados em IA, de outra forma inócuos e geralmente bem-vindos, especificamente:

uma. Onde a IA está percorrendo os carros autônomos para pegar carona tornou-se uma preocupação ansiosa na comunidade em geral

b. Como a IA está tratando os pedestres que aguardam que não têm o direito de passagem também é um problema crescente

No início, a IA estava percorrendo os carros autônomos por toda a cidade. Qualquer um que quisesse pedir uma carona no carro autônomo tinha basicamente a mesma chance de conseguir um. Gradualmente, a IA começou a manter principalmente os carros autônomos circulando em apenas uma parte da cidade. Esta seção era uma grande geradora de dinheiro e o sistema de IA havia sido programado para tentar maximizar as receitas como parte do uso na comunidade.

Os membros da comunidade nas partes empobrecidas da cidade eram menos propensos a conseguir uma carona em um carro autônomo. Isso ocorreu porque os carros autônomos estavam mais distantes e circulavam na parte de maior receita da localidade. Quando um pedido chegasse de uma parte distante da cidade, qualquer pedido de um local mais próximo que provavelmente estivesse na parte “estimada” da cidade teria uma prioridade mais alta. Eventualmente, a disponibilidade de obter um carro autônomo em qualquer lugar que não fosse a parte mais rica da cidade era quase impossível, exasperante para aqueles que viviam nessas áreas agora carentes de recursos.

Você poderia afirmar que a IA praticamente desembarcou em uma forma de discriminação por procuração (também conhecida como discriminação indireta). A IA não foi programada para evitar esses bairros mais pobres. Em vez disso, “aprendeu” a fazê-lo por meio do uso do ML/DL.

O problema é que os motoristas humanos de compartilhamento de caronas eram conhecidos por fazer a mesma coisa, embora não necessariamente exclusivamente devido ao ângulo de ganhar dinheiro. Havia alguns dos motoristas humanos que compartilhavam carona que tinham um viés desfavorável sobre pegar passageiros em certas partes da cidade. Este era um fenômeno um tanto conhecido e a cidade havia implementado uma abordagem de monitoramento para capturar motoristas humanos fazendo isso. Motoristas humanos podem ter problemas por realizar práticas de seleção desagradáveis.

Supunha-se que a IA nunca cairia nesse mesmo tipo de areia movediça. Nenhum monitoramento especializado foi configurado para acompanhar para onde os carros autônomos baseados em IA estavam indo. Somente depois que os membros da comunidade começaram a reclamar é que os líderes da cidade perceberam o que estava acontecendo. Para saber mais sobre esses tipos de problemas em toda a cidade que veículos autônomos e carros autônomos apresentarão, veja minha cobertura em este link aqui e que descreve um estudo liderado por Harvard que eu co-autor sobre o tema.

Este exemplo dos aspectos de roaming dos carros autônomos baseados em IA ilustra a indicação anterior de que pode haver situações envolvendo humanos com preconceitos indesejáveis, para os quais os controles são implementados, e que a IA substituindo esses motoristas humanos é deixada de lado. gratuitamente. Infelizmente, a IA pode se tornar cada vez mais atolada em vieses semelhantes e fazê-lo sem proteções suficientes no lugar.

Um segundo exemplo envolve a IA determinando se deve parar para aguardar pedestres que não têm o direito de passagem para atravessar uma rua.

Sem dúvida, você já estava dirigindo e encontrou pedestres que estavam esperando para atravessar a rua e ainda assim eles não tinham o direito de passagem para fazê-lo. Isso significava que você podia decidir se deveria parar e deixá-los atravessar. Você poderia prosseguir sem deixá-los atravessar e ainda estar totalmente dentro das regras legais de condução de fazê-lo.

Estudos sobre como os motoristas humanos decidem parar ou não para esses pedestres sugeriram que, às vezes, os motoristas humanos fazem a escolha com base em preconceitos indesejáveis. Um motorista humano pode olhar para o pedestre e optar por não parar, mesmo que tivesse parado se o pedestre tivesse uma aparência diferente, como com base na raça ou sexo. Eu examinei isso em o link aqui.

Imagine que os carros autônomos baseados em IA sejam programados para lidar com a questão de parar ou não para pedestres que não têm o direito de passagem. Veja como os desenvolvedores de IA decidiram programar essa tarefa. Eles coletaram dados das câmeras de vídeo da cidade que estão espalhadas por toda a cidade. Os dados mostram motoristas humanos que param para pedestres que não têm o direito de passagem e motoristas humanos que não param. Tudo é coletado em um grande conjunto de dados.

Usando Machine Learning e Deep Learning, os dados são modelados computacionalmente. O sistema de direção de IA usa esse modelo para decidir quando parar ou não. Geralmente, a ideia é que, seja qual for o costume local, é assim que a IA vai direcionar o carro autônomo.

Para surpresa dos líderes da cidade e dos moradores, a IA evidentemente optou por parar ou não com base na aparência do pedestre, incluindo sua raça e gênero. Os sensores do carro autônomo escaneariam o pedestre à espera, alimentariam esses dados no modelo ML/DL e o modelo emitiria para a IA se deveria parar ou continuar. Lamentavelmente, a cidade já tinha muitos preconceitos de motoristas humanos a esse respeito e a IA agora estava imitando o mesmo.

A boa notícia é que isso levanta uma questão que quase ninguém sabia que existia anteriormente. A má notícia foi que, como a IA foi pega fazendo isso, ela levou a maior parte da culpa. Este exemplo ilustra que um sistema de IA pode meramente duplicar os preconceitos indesejáveis ​​já preexistentes dos humanos.

Conclusão

Há uma infinidade de maneiras de tentar evitar a criação de IA que tenha vieses desfavoráveis ​​ou que, com o tempo, colete vieses. Uma abordagem envolve garantir que os desenvolvedores de IA estejam cientes disso e, portanto, mantenham-se atentos para programar a IA para evitar o assunto. Outro caminho consiste em fazer com que a IA se automonitorize para comportamentos antiéticos (veja minha discussão em o link aqui) e/ou ter outro pedaço de IA que monitore outros sistemas de IA quanto a comportamentos potencialmente antiéticos (abordei isso em o link aqui).

Para recapitular, precisamos perceber que os humanos podem ter preconceitos indesejáveis ​​e que, de alguma forma, eles precisam conhecer suas limitações. Da mesma forma, a IA pode ter vieses indesejáveis ​​e, de alguma forma, precisamos conhecer suas limitações.

Para aqueles de vocês que estão adotando avidamente a Ética da IA, gostaria de terminar agora com outra frase famosa que todos já devem conhecer. Ou seja, continue a usar e compartilhar a importância da IA ​​Ética. E ao fazer isso, eu descaradamente diria isso: “Vá em frente, faça o meu dia.”

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especialmente-deployed-when-human-biases-are-alenty/