A ética da IA ​​e a lei da IA ​​estão se movendo em direção a padrões que identificam e gerenciam explicitamente os vieses da IA

Você já jogou cinquenta e duas cartas?

Não é um jogo que você normalmente faria de bom grado. Aqui está o porquê. Alguém oferece a você que é um esporte supostamente divertido e, se você morder a isca doce, eles jogam um baralho inteiro de cartas no ar e sumariamente no chão. A pessoa então lhe dá um sorriso atrevido e diz para você ir em frente e pegar as cartas. Esse é o jogo inteiro.

Brincalhão!

Eu tenho uma pergunta um tanto pensativa para lhe fazer sobre isso.

Suponha que uma das cartas escorregou debaixo de um sofá próximo. Quando você terminasse de pegar todas as cartas, você saberia que faltava uma porque só haveria cinqüenta e uma em sua mão.

A questão é: você poderia determinar qual cartão estava faltando?

Tenho certeza de que você diria imediatamente que poderia facilmente descobrir qual carta não estava em suas mãos. Tudo o que você precisa fazer é colocar o baralho em ordem. Você sabe que um baralho padrão consiste em quatro naipes e que dentro de cada naipe as cartas são numeradas de um a dez e depois em Valete, Dama e Rei.

Você sabe disso porque um baralho padrão de cartas de baralho é baseado em um padrão.

Uau, essa afirmação pode parecer uma daquelas afirmações totalmente óbvias. Bem, sim, claro, um baralho de jogo padrão é baseado em um padrão. Nós todos sabemos isso. Meu ponto é que, tendo um padrão, podemos confiar no padrão quando necessário. Além de ser capaz de deduzir qual carta está faltando em um baralho, você também pode jogar zilhões de jogos de cartas conhecidos com outras pessoas. Uma vez que alguém é informado sobre as regras de um jogo, ele é diretamente capaz de jogar porque já sabe completamente em que consiste o baralho. Você não precisa explicar a eles que o baralho tem quatro naipes e cartas numeradas de várias maneiras. Eles já sabem que é assim.

Onde estou indo com isso?

Estou tentando levá-lo por um caminho que é um meio vital de progredir no campo da IA ​​e especialmente no campo da Ética da IA ​​e da IA ​​Ética. Você vê, precisamos tentar chegar a padrões generalizados e todos acordados sobre a Ética da IA. Se pudermos fazer isso, aumentará a facilidade de adoção da IA ​​ética e demonstrará melhorar os sistemas de IA que continuam sendo lançados desordenadamente no mercado (como um baralho não numerado e não ordenado de curingas). Para minha cobertura contínua e extensa de Ética de IA, IA Ética e Lei de IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Trago isso à tona para fornecer uma base para minha discussão aqui que se concentrará em um segmento específico ou parte do domínio mais amplo da Ética da IA, ou seja, como mencionado anteriormente, o elemento específico dos vieses da IA. A razão também pela qual compartilho este tópico com você é que um documento divulgado pelo Instituto Nacional de Padrões e Tecnologia (NIST) está tentando nos fazer avançar em direção a um padrão que caracteriza vieses de IA. O documento tem o título Em direção a um padrão para identificar e gerenciar o viés na inteligência artificial pelos autores Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt e Patrick Hall, e foi publicado pelo Departamento de Comércio dos EUA, Publicação Especial NIST 1270, em março de 2022.

Estaremos desempacotando este esforço útil e encorajador para estabelecer o que queremos dizer com vieses de IA. O velho ditado é que você não pode gerenciar o que não pode medir. Ao ter um padrão que estabelece a variedade de vieses da IA, você pode começar a medir e gerenciar o flagelo dos vieses da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, inclusive com metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Responsabilidade
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Subjacente a muitos desses preceitos-chave da Ética da IA ​​está a natureza insidiosa dos vieses da IA.

Assim como um baralho de cartas, com certeza seria bacana se pudéssemos de alguma forma agrupar os vieses da IA ​​em um conjunto de “naipes” ou categorias. De fato, o documento do NIST oferece um agrupamento sugerido.

Três categorias principais estão sendo propostas:

1) Vieses Sistêmicos

2) Vieses Estatísticos e Computacionais

3) Preconceitos Humanos

Se todos os vieses da IA ​​se encaixam perfeitamente em uma dessas três categorias, certamente é algo a ser considerado. Você pode certamente argumentar que alguns vieses de IA se enquadram em uma, duas ou todas as três categorias ao mesmo tempo. Além disso, você pode alegar que mais categorias merecem ser mencionadas, como uma quarta, quinta, sexta ou mais séries de agrupamentos.

Espero que seja isso que você esteja pensando, porque precisamos envolver todos para ajudar a moldar esses padrões. Se você está irritado com a forma como esses padrões estão se formando, eu o exorto a transformar essa energia em ajudar o resto de nós a tornar esses padrões emergentes tão robustos e completos quanto podem ser esculpidos.

Por enquanto, podemos dar uma olhada nas três categorias propostas e ver que tipo de mão lidamos até agora (sim, vou continuar usando uma analogia com um baralho de cartas, fazendo isso ao longo de toda esta peça escrita, você pode apostar seu último centavo nesse ás não tão oculto de um tema).

O que significa referir-se a vieses sistêmicos?

Aqui está o que o documento do NIST diz: “Os vieses sistêmicos resultam de procedimentos e práticas de instituições particulares que operam de maneira que resultam em certos grupos sociais sendo favorecidos ou favorecidos e outros sendo desfavorecidos ou desvalorizados. Isso não precisa ser o resultado de qualquer preconceito ou discriminação consciente, mas sim da maioria seguindo as regras ou normas existentes. Racismo institucional e sexismo são os exemplos mais comuns” (observe que este é apenas um pequeno trecho e os leitores são encorajados a ver a explicação mais completa).

A IA entra na mistura de preconceitos sistêmicos, fornecendo um meio de transmitir e aplicar esses preconceitos em aplicativos baseados em IA. Sempre que você usa um software com infusão de IA, pelo que você sabe, ele pode conter uma série de vieses que já estão embutidos no sistema por meio das empresas e práticas do setor que levaram à criação da IA. De acordo com o estudo do NIST: “Esses vieses estão presentes nos conjuntos de dados usados ​​na IA e nas normas, práticas e processos institucionais em todo o ciclo de vida da IA ​​e na cultura e sociedade mais amplas”.

Em seguida, considere o conjunto de vieses rotulados como vieses estatísticos e computacionais.

O documento do NIST afirma o seguinte: “Os vieses estatísticos e computacionais decorrem de erros que resultam quando a amostra não é representativa da população. Esses vieses surgem do erro sistemático em oposição ao aleatório e podem ocorrer na ausência de preconceito, parcialidade ou intenção discriminatória. Nos sistemas de IA, esses vieses estão presentes nos conjuntos de dados e processos algorítmicos usados ​​no desenvolvimento de aplicativos de IA e geralmente surgem quando os algoritmos são treinados em um tipo de dados e não podem extrapolar além desses dados.”

Esse tipo de viés estatístico e computacional geralmente é incorporado a um sistema de IA que usa Machine Learning (ML) e Deep Learning (DL). Trazer à tona a pesada questão do ML/DL contemporâneo exige uma tangente lateral relacionada sobre o que é IA e o que é ML/DL.

Vamos nos certificar de que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning e Deep Learning, que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Isso nos leva diretamente à terceira categoria do conjunto de três agrupamentos do NIST, especificamente o papel dos preconceitos humanos no surgimento dos preconceitos da IA. Aqui está o que o documento do NIST indicou: “Os vieses humanos refletem erros sistemáticos no pensamento humano com base em um número limitado de princípios heurísticos e valores de previsão para operações de julgamento mais simples. Esses vieses geralmente são implícitos e tendem a se relacionar com a forma como um indivíduo ou grupo percebe as informações (como saída de IA automatizada) para tomar uma decisão ou preencher informações ausentes ou desconhecidas. Esses vieses são onipresentes nos processos de tomada de decisão institucionais, de grupo e individuais em todo o ciclo de vida da IA ​​e no uso de aplicativos de IA uma vez implantados.”

Você agora tem uma introdução rápida às três categorias.

Eu gostaria de compartilhar com vocês um pouco mais de reflexão, conforme expresso no documento do NIST. Um gráfico em sua narrativa fornece um resumo útil das principais questões e considerações subjacentes a cada um dos três conjuntos de vieses da IA. Eu os listo aqui para sua conveniência de referência e edificação.

#1: Vieses Sistêmicos

  • Quem é contado e quem não é contado?

— Problemas com variáveis ​​latentes

— Sub-representação de grupos marginalizados

— Automação de desigualdades

— Sub-representação na determinação da função de utilidade

— Processos que favorecem a maioria/minoria

— Viés cultural na função objetivo (melhor para indivíduos vs melhor para o grupo)

  • Como sabemos o que é certo?

— Reforço das desigualdades (os grupos são mais impactados com maior uso de IA)

— Policiamento preditivo mais impactado negativamente

— Adoção generalizada de compartilhamento de caronas/carros autônomos/etc. pode mudar as políticas que afetam a população com base no uso

#2: Vieses estatísticos e computacionais

  • Quem é contado e quem não é contado?

- Viés de amostragem e seleção

— Usando variáveis ​​de proxy porque são mais fáceis de medir

- Viés de automação

— Escala Likert (categórica a ordinal a cardinal)

— Não linear vs linear

- Falácia ecológica

— Minimizando a norma L1 vs. L2

— Dificuldade geral em quantificar fenômenos contextuais

  • Como sabemos o que é certo?

— Falta de validação cruzada adequada

- Viés de sobrevivência

- Dificuldade com justiça

#3: Preconceitos Humanos

  • Quem é contado e quem não é contado?

— Viés observacional (efeito de rua)

— Viés de disponibilidade (ancoragem)

- Falácia de McNamara

— O pensamento de grupo leva a escolhas estreitas

— O efeito Rashomon leva à defesa subjetiva

— Dificuldade em quantificar objetivos pode levar à falácia de McNamara

  • Como sabemos o que é certo?

- Viés de confirmação

- Viés de automação

Neste momento desta discussão pesada, aposto que você deseja alguns exemplos ilustrativos que possam mostrar as três categorias de vieses da IA. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre as três categorias propostas de vieses da IA ​​e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e preconceitos de IA

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Acredito que isso forneça uma litania de advertências suficiente para fundamentar o que estou prestes a relatar.

Estamos preparados agora para mergulhar profundamente nos carros autônomos e nas possibilidades de IA ética que envolvem as três categorias de vieses de IA.

Imagine que um carro autônomo baseado em IA está em andamento nas ruas do seu bairro e parece estar dirigindo com segurança. No início, você dedicou atenção especial a cada vez que conseguiu vislumbrar o carro autônomo. O veículo autônomo se destacou com seu rack de sensores eletrônicos que incluíam câmeras de vídeo, unidades de radar, dispositivos LIDAR e similares. Depois de muitas semanas de carro autônomo circulando pela sua comunidade, agora você mal percebe. Para você, é apenas mais um carro nas vias públicas já movimentadas.

Para que você não pense que é impossível ou implausível se familiarizar com a visão de carros autônomos, escrevi frequentemente sobre como os locais que estão dentro do escopo de testes de carros autônomos gradualmente se acostumaram a ver os veículos enfeitados, veja minha análise em este link aqui. Muitos dos moradores, eventualmente, passaram de boquiabertos boquiabertos para agora emitindo um bocejo expansivo de tédio para testemunhar aqueles sinuosos carros autônomos.

Provavelmente a principal razão agora que eles podem notar os veículos autônomos é por causa do fator de irritação e exasperação. Os sistemas de direção de IA convencionais garantem que os carros estejam obedecendo a todos os limites de velocidade e regras da estrada. Para motoristas humanos agitados em seus carros tradicionais conduzidos por humanos, às vezes você fica irritado quando fica preso atrás dos carros autônomos baseados em IA estritamente cumpridores da lei.

Isso é algo que todos nós precisamos nos acostumar, com ou sem razão.

De volta ao nosso conto.

Consideraremos a seguir como os vieses sistêmicos podem atuar nesse contexto de carros autônomos.

Alguns especialistas estão muito preocupados que os carros autônomos sejam domínio apenas dos ricos e da elite. Pode ser que o custo para usar carros autônomos seja proibitivamente caro. A menos que você tenha muito dinheiro, talvez nunca veja o interior de um carro autônomo. Aqueles que usarão carros autônomos terão que ser ricos, alega-se.

Como tal, alguns desconcertantemente exortam que uma forma de viés sistêmico permeará o advento dos carros autônomos baseados em IA. O sistema industrial de veículos autônomos como um todo manterá os carros autônomos fora das mãos daqueles que são pobres ou menos ricos. Isso pode não ser necessariamente por intenção aberta e apenas acontece que a única maneira acreditada de recuperar os custos onerosos de ter inventado carros autônomos será cobrar preços escandalosamente altos.

Se você retrucar que hoje existem esses testes de carros autônomos que estão permitindo que a pessoa comum use, então parece evidente que você não precisa ser rico em si, o contra-argumento é que este é um tipo de jogo de conchas era. As montadoras e as empresas de tecnologia de direção autônoma estão supostamente dispostas a fazer parecer que o custo não será uma barreira substantiva. Eles estão fazendo isso para fins de relações públicas agora e aumentarão os preços assim que descobrirem as rugas. Um conspirador pode até alegar que as “cobaias” como pessoas comuns estão sendo usadas perniciosamente para permitir que os ricos fiquem mais ricos.

Então, dado esse assunto bastante controverso, e colocando meus próprios dois centavos neste tópico sórdido, não acredito que carros autônomos serão superados para uso diário. Não entrarei em detalhes aqui sobre minha base para fazer tal afirmação e convido você a ver minhas discussões conscientes em o link aqui e também em o link aqui.

Seguindo em frente, podemos considerar a questão dos vieses estatísticos e computacionais relacionados à IA.

Contemple a questão aparentemente inconsequente de onde os carros autônomos estarão em roaming para pegar passageiros. Este parece ser um tópico abundantemente inócuo. Usaremos o conto da cidade ou cidade que tem carros autônomos para destacar o espectro talvez surpreendentemente potencial dos vieses estatísticos e computacionais relacionados à IA.

A princípio, suponha que a IA estivesse percorrendo os carros autônomos por toda a cidade. Qualquer um que quisesse pedir uma carona no carro autônomo tinha basicamente a mesma chance de conseguir um. Gradualmente, a IA começou a manter principalmente os carros autônomos circulando em apenas uma parte da cidade. Esta seção era uma grande geradora de dinheiro e o sistema de IA havia sido programado para tentar maximizar as receitas como parte do uso na comunidade.

Os membros da comunidade nas partes empobrecidas da cidade eram menos propensos a conseguir uma carona em um carro autônomo. Isso ocorreu porque os carros autônomos estavam mais distantes e circulavam na parte de maior receita da localidade. Quando um pedido chegasse de uma parte distante da cidade, qualquer pedido de um local mais próximo que provavelmente estivesse na parte “estimada” da cidade teria uma prioridade mais alta. Eventualmente, a disponibilidade de obter um carro autônomo em qualquer lugar que não fosse a parte mais rica da cidade era quase impossível, exasperante para aqueles que viviam nessas áreas agora carentes de recursos.

Você poderia afirmar que a IA praticamente caiu em uma forma de viés estatístico e computacional, semelhante a uma forma de discriminação por procuração (também conhecida como discriminação indireta). A IA não foi programada para evitar esses bairros mais pobres. Em vez disso, “aprendeu” a fazê-lo por meio do uso do ML/DL.

Supunha-se que a IA nunca cairia nesse tipo de areia movediça vergonhosa. Nenhum monitoramento especializado foi configurado para acompanhar para onde os carros autônomos baseados em IA estavam indo. Somente depois que os membros da comunidade começaram a reclamar é que os líderes da cidade perceberam o que estava acontecendo. Para saber mais sobre esses tipos de problemas em toda a cidade que veículos autônomos e carros autônomos apresentarão, veja minha cobertura em este link aqui e que descreve um estudo liderado por Harvard que eu co-autor sobre o tema.

Para a terceira categoria de preconceitos humanos relacionados aos preconceitos da IA, nos voltamos para um exemplo que envolve a IA determinando se deve parar para aguardar pedestres que não têm o direito de passagem para atravessar uma rua.

Sem dúvida, você já estava dirigindo e encontrou pedestres que estavam esperando para atravessar a rua e ainda assim eles não tinham o direito de passagem para fazê-lo. Isso significava que você podia decidir se deveria parar e deixá-los atravessar. Você poderia prosseguir sem deixá-los atravessar e ainda estar totalmente dentro das regras legais de condução de fazê-lo.

Estudos sobre como os motoristas humanos decidem parar ou não para esses pedestres sugeriram que, às vezes, os motoristas humanos fazem a escolha com base em preconceitos indesejáveis. Um motorista humano pode olhar para o pedestre e optar por não parar, mesmo que tivesse parado se o pedestre tivesse uma aparência diferente, como com base na raça ou sexo. Eu examinei isso em o link aqui.

Imagine que os carros autônomos baseados em IA sejam programados para lidar com a questão de parar ou não para pedestres que não têm o direito de passagem. Veja como os desenvolvedores de IA decidiram programar essa tarefa. Eles coletaram dados das câmeras de vídeo da cidade que estão espalhadas por toda a cidade. Os dados mostram motoristas humanos que param para pedestres que não têm o direito de passagem e motoristas humanos que não param. Tudo é coletado em um grande conjunto de dados.

Usando Machine Learning e Deep Learning, os dados são modelados computacionalmente. O sistema de direção de IA usa esse modelo para decidir quando parar ou não. Geralmente, a ideia é que, seja qual for o costume local, é assim que a IA vai direcionar o carro autônomo.

Para surpresa dos líderes da cidade e dos moradores, a IA evidentemente optou por parar ou não com base na idade do pedestre. Como isso poderia acontecer?

Após uma análise mais detalhada do vídeo da discrição do motorista humano, verifica-se que muitos dos casos de não parar envolveram pedestres que tinham uma bengala de um idoso. Motoristas humanos aparentemente não estavam dispostos a parar e deixar uma pessoa idosa atravessar a rua, presumivelmente devido ao tempo presumido que poderia levar para alguém fazer a viagem. Se o pedestre parecia que poderia atravessar a rua rapidamente e minimizar o tempo de espera do motorista, os motoristas eram mais receptivos a deixar a pessoa atravessar.

Isso ficou profundamente enterrado no sistema de direção da IA. Os sensores do carro autônomo escaneariam o pedestre à espera, alimentariam esses dados no modelo ML/DL e o modelo emitiria para a IA se deveria parar ou continuar. Qualquer indicação visual de que o pedestre pode demorar para atravessar, como o uso de uma bengala, matematicamente estava sendo usado para determinar se o sistema de direção de IA deveria deixar o pedestre que esperava atravessar ou não.

Você poderia argumentar que isso era uma dependência de um preconceito humano preexistente.

Conclusão

Algumas considerações finais por enquanto.

Existe um ditado popular que diz que você não pode mudar as cartas que recebe e, em vez disso, deve aprender a jogar adequadamente com qualquer mão que tenha recebido.

No caso dos preconceitos da IA, se não nos empenharmos fervorosamente no estabelecimento da Ética da IA ​​em todos os aspectos e, especialmente, solidificarmos a caracterização dos preconceitos da IA, os tipos de mãos com as quais vamos lidar estarão transbordando de antiéticos decadentes, e possivelmente estrato ilegal. Temos que impedir que essas cartas sejam distribuídas, para começar. O objetivo valente de criar e promulgar padrões de IA ética é uma ferramenta crucial para combater o tsunami crescente dos próximos AI para mau.

Você pode decididamente levar ao banco que o viés desenfreado da IA ​​e a IA antiética serão como um castelo de cartas frágil, implodindo sobre si mesmo e provavelmente sendo desastroso para todos nós.

Vamos jogar para ganhar, fazendo isso com IA adequadamente ética.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- preconceitos/