A ética da IA ​​choca a revelação de que treinar a IA para ser tóxica ou tendenciosa pode ser benéfico, inclusive para aqueles carros autônomos autônomos

Aqui está uma frase antiga que tenho certeza que você já ouviu antes.

É preciso um para conhecer um.

Você pode não perceber que esta é uma expressão que pode ser rastreada até o início dos anos 1900 e geralmente era invocada quando se referia a malfeitores (outras variações do bordão remontam mais longe, como nos anos 1600). Um exemplo de como esse enunciado pode ser usado envolve a noção de que, se você deseja pegar um ladrão, precisa usar um ladrão para fazê-lo. Isso mostra a afirmação de que é preciso conhecer um. Muitos filmes e programas de TV capitalizaram essa sabedoria sábia, muitas vezes retratando que o único meio viável de prender um bandido era contratar um bandido igualmente corrupto para perseguir o malfeitor.

Mudando de marcha, alguns podem usar essa mesma lógica para argumentar que uma maneira adequada de discernir se alguém está incorporando preconceitos indevidos e crenças discriminatórias seria encontrar alguém que já abriga tais tendências. Presumivelmente, uma pessoa já cheia de preconceitos será capaz de sentir mais prontamente que esse outro humano também está cheio de toxicidade. Mais uma vez, é preciso saber que se é o mantra declarado.

Sua reação inicial à possibilidade de usar uma pessoa tendenciosa para descobrir outra pessoa tendenciosa pode ser de ceticismo e descrença. Não podemos descobrir se alguém tem preconceitos desfavoráveis ​​simplesmente examinando-os e não tendo que recorrer a encontrar outra pessoa de natureza semelhante? Parece estranho procurar propositalmente descobrir alguém que é tendencioso para descobrir outros que também são toxicamente tendenciosos.

Acho que depende parcialmente se você está disposto a aceitar o refrão presuntivo de que é preciso conhecer um. Observe que isso não sugere que a única maneira de pegar um ladrão requer que você exclusivamente e sempre faça uso de um ladrão. Você poderia razoavelmente argumentar que este é apenas um caminho adicional que pode ser levado em consideração. Talvez às vezes você esteja disposto a considerar a possibilidade de usar um ladrão para pegar um ladrão, enquanto outras circunstâncias podem tornar essa tática incompreensível.

Use a ferramenta certa para a configuração certa, como dizem.

Agora que expus esses fundamentos, podemos prosseguir para a parte talvez enervante e ostensivamente chocante desta história.

Está pronto para começar?

O campo da IA ​​está perseguindo ativamente o mesmo preceito que às vezes é necessário para conhecer um, particularmente no caso de tentar descobrir a IA que é tendenciosa ou age de maneira discriminatória. Sim, a ideia alucinante é que podemos propositadamente querer conceber uma IA que seja total e descaradamente tendenciosa e discriminatória, fazendo isso para usar isso como um meio de descobrir e descobrir outra IA que tenha a mesma aparência de toxicidade. Como você verá em um momento, há uma variedade de questões irritantes de Ética de IA subjacentes ao assunto. Para minha cobertura geral contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Eu acho que você poderia expressar esse uso de IA tóxica para ir atrás de outra IA tóxica como a proverbial concepção de combate fogo com fogo (podemos invocar muitos eufemismos e metáforas ilustrativas para descrever essa situação). Ou, como já enfatizado, podemos nos referir com parcimônia à afirmação de que é preciso conhecer alguém.

O conceito abrangente é que, em vez de apenas tentar descobrir se um determinado sistema de IA contém vieses indevidos usando métodos convencionais, talvez devêssemos procurar empregar meios menos convencionais também. Um desses meios não convencionais seria conceber uma IA que contenha todos os piores vieses e toxicidades socialmente inaceitáveis ​​e, em seguida, usar essa IA para ajudar a eliminar outra IA que tenha essas mesmas propensões à maldade.

Quando você pensa rápido nisso, certamente parece perfeitamente sensato. Poderíamos ter como objetivo construir uma IA que seja tóxica ao máximo. Essa IA tóxica é então usada para descobrir outras IA que também têm toxicidade. Para a IA “ruim” então revelada, podemos lidar com ela desfazendo a toxicidade, abandonando totalmente a IA (veja minha cobertura sobre o desgorduramento ou destruição da IA ​​em este link aqui), ou aprisionando a IA (veja minha cobertura do confinamento da IA ​​em este link aqui), ou faça qualquer outra coisa que pareça aplicável.

Um contra-argumento é que devemos ter nossas cabeças examinadas de que estamos intencionalmente e voluntariamente criando uma IA que é tóxica e cheia de preconceitos. Esta é a última coisa que devemos considerar, alguns exortariam. Concentre-se em tornar a IA composta inteiramente de bondade. Não se concentre na criação de IA que tenha os males e a escória de vieses indevidos. A própria noção de tal busca parece repulsiva para alguns.

Há mais dúvidas sobre essa busca controversa.

Talvez uma missão de criar IA tóxica apenas encoraje aqueles que desejam criar IA que seja capaz de minar a sociedade. É como se estivéssemos dizendo que a criação de IA com vieses inadequados e desagradáveis ​​está perfeitamente bem. Sem preocupações, sem hesitações. Procure criar IA tóxica para o conteúdo do seu coração, estamos transmitindo em voz alta aos construtores de IA em todo o mundo. É (pisca-piscadela) tudo em nome da bondade.

Além disso, suponha que esse tipo de IA tóxica pegue. Pode ser que a IA seja usada e reutilizada por muitos outros construtores de IA. Eventualmente, a IA tóxica fica escondida em todos os tipos de sistemas de IA. Pode-se fazer uma analogia com a criação de um vírus destruidor de humanos que escapa de um laboratório supostamente lacrado. A próxima coisa que você sabe, a maldita coisa está em toda parte e nós nos exterminamos.

Espere um segundo, o contador para esses contra-argumentos vai, você está enlouquecendo com todos os tipos de suposições malucas e sem suporte. Respire fundo. Acalme-se.

Podemos fazer uma IA tóxica com segurança e mantê-la confinada. Podemos usar a IA tóxica para encontrar e ajudar a reduzir a crescente prevalência de IA que infelizmente tem vieses indevidos. Qualquer outra dessas exclamações absurdamente selvagens e infundadas de bola de neve são reações puramente automáticas e lamentavelmente tolas e totalmente imprudentes. Não tente jogar fora o bebê com a água do banho, você está avisado.

Pense assim, afirmam os proponentes. A construção e o uso adequados de IA tóxica para fins de pesquisa, avaliação e agir como um detetive para descobrir outras IAs socialmente ofensivas é uma abordagem digna e deve ser perseguida. Deixe de lado suas reações de erupção cutânea. Desça à terra e olhe para isso com sobriedade. Nosso olho está no prêmio, ou seja, expor e desfazer o excesso de sistemas de IA baseados em preconceitos e garantir que, como sociedade, não sejamos invadidos por IA tóxica.

Período. Ponto final.

Existem várias maneiras fundamentais de aprofundar essa noção de utilização de IA tóxica ou tendenciosa para fins benéficos, incluindo:

  • Configure conjuntos de dados que contenham intencionalmente dados tendenciosos e totalmente tóxicos que podem ser usados ​​para treinar IA sobre o que não fazer e/ou o que observar
  • Use esses conjuntos de dados para treinar modelos de Machine Learning (ML) e Deep Learning (DL) sobre como detectar vieses e descobrir padrões computacionais que envolvem toxicidade social
  • Aplique o ML/DL treinado em toxicidade em relação a outra IA para verificar se a IA direcionada é potencialmente tendenciosa e tóxica
  • Disponibilize ML/DL treinado em toxicidade para mostrar aos criadores de IA o que observar para que eles possam inspecionar prontamente os modelos para ver como surgem os vieses imbuídos por algoritmos
  • Exemplifique os perigos da IA ​​tóxica como parte da ética da IA ​​e da consciência ética da IA, tudo contado por meio desta série de exemplos de IA de crianças problemáticas.
  • Outros

Antes de entrar no cerne desses vários caminhos, vamos estabelecer alguns detalhes fundamentais adicionais.

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, podemos preparar o cenário explorando o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

O que mais pode ser feito sobre tudo isso?

Vamos voltar à lista postulada anteriormente de como tentar lidar com os vieses da IA ​​ou IA tóxica usando uma abordagem um tanto não convencional do tipo “é preciso conhecer um”. Lembre-se de que a lista consistia nestes pontos essenciais:

  • Configure conjuntos de dados que contenham intencionalmente dados tendenciosos e totalmente tóxicos que podem ser usados ​​para treinar IA sobre o que não fazer e/ou o que observar
  • Use esses conjuntos de dados para treinar modelos de Machine Learning (ML) e Deep Learning (DL) sobre como detectar vieses e descobrir padrões computacionais que envolvem toxicidade social
  • Aplique o ML/DL treinado em toxicidade em relação a outra IA para verificar se a IA direcionada é potencialmente tendenciosa e tóxica
  • Disponibilize ML/DL treinado em toxicidade para mostrar aos criadores de IA o que observar para que eles possam inspecionar prontamente os modelos para ver como surgem os vieses imbuídos por algoritmos
  • Exemplifique os perigos da IA ​​tóxica como parte da ética da IA ​​e da consciência ética da IA, tudo contado por meio desta série de exemplos de IA de crianças problemáticas.
  • Outros

Vamos dar uma olhada de perto no primeiro desses pontos salientes.

Configurando conjuntos de dados de dados tóxicos

Um exemplo perspicaz de tentar estabelecer conjuntos de dados que contêm preconceitos sociais desagradáveis ​​é o conjunto de dados CivilComments da coleção curada WILDS.

Primeiro, alguns antecedentes rápidos.

WILDS é uma coleção de conjuntos de dados de código aberto que pode ser usada para treinar ML/DL. O principal objetivo declarado do WILDS é permitir que os desenvolvedores de IA tenham acesso imediato a dados que representam turnos de distribuição em vários domínios específicos. Alguns dos domínios atualmente disponíveis abrangem áreas como espécies animais, tumores em tecidos vivos, densidade de cabeças de trigo e outros domínios, como os Comentários Civis que descreverei em breve.

Lidar com os turnos de distribuição é uma parte crucial da criação adequada de sistemas AI ML/DL. Aqui está o acordo. Às vezes, os dados que você usa para treinamento acabam sendo bem diferentes dos dados de teste ou “na natureza” e, portanto, seu ML/DL presumivelmente treinado está à deriva de como será o mundo real. Os construtores astutos de IA devem treinar seu ML/DL para lidar com essas mudanças de distribuição. Isso deve ser feito antecipadamente e não ser uma surpresa que mais tarde exija uma reformulação do ML/DL em si.

Conforme explicado no artigo que apresentou o WILDS: “Mudanças de distribuição – onde a distribuição de treinamento difere da distribuição de teste – podem degradar substancialmente a precisão dos sistemas de aprendizado de máquina (ML) implantados na natureza. Apesar de sua onipresença nas implantações do mundo real, essas mudanças de distribuição estão sub-representadas nos conjuntos de dados amplamente usados ​​na comunidade de ML hoje. Para resolver essa lacuna, apresentamos o WILDS, um benchmark com curadoria de 10 conjuntos de dados que refletem uma gama diversificada de mudanças de distribuição que surgem naturalmente em aplicações do mundo real, como mudanças em hospitais para identificação de tumores; através de armadilhas fotográficas para monitoramento da vida selvagem; e através do tempo e localização em imagens de satélite e mapeamento da pobreza” (no artigo intitulado “WILDS: A Benchmark of in-the-Wild Distribution Shifts” de Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu e outros).

O número desses conjuntos de dados WILDS continua a aumentar e a natureza dos conjuntos de dados geralmente está sendo aprimorada para reforçar o valor do uso dos dados para treinamento ML/DL.

O conjunto de dados CivilComments é descrito desta forma: “A revisão automática de texto gerado pelo usuário – por exemplo, detectar comentários tóxicos – é uma ferramenta importante para moderar o grande volume de texto escrito na Internet. Infelizmente, trabalhos anteriores mostraram que esses classificadores de toxicidade captam vieses nos dados de treinamento e associam de forma espúria a toxicidade à menção de certos dados demográficos. Esses tipos de correlações espúrias podem degradar significativamente o desempenho do modelo em subpopulações específicas. Estudamos essa questão por meio de uma variante modificada do conjunto de dados CivilComments” (conforme publicado no site WILDS).

Considere as nuances de postagens online desfavoráveis.

Você, sem dúvida, encontrou comentários tóxicos ao usar praticamente qualquer tipo de mídia social. Parece quase impossível para você evitar magicamente ver o conteúdo acre e abismal que parece ser difundido nos dias de hoje. Às vezes, o material vulgar é sutil e talvez você tenha que ler nas entrelinhas para entender a essência do tom ou significado tendencioso ou discriminatório. Em outros casos, as palavras são descaradamente tóxicas e você não precisa de um microscópio ou um anel decodificador especial para descobrir o que as passagens implicam.

CivilComments é um conjunto de dados que foi criado para tentar criar AI ML/DL que pode detectar computacionalmente conteúdo tóxico. Aqui está o foco dos pesquisadores subjacentes ao esforço: “O viés não intencional no Machine Learning pode se manifestar como diferenças sistêmicas no desempenho para diferentes grupos demográficos, potencialmente aumentando os desafios existentes à justiça na sociedade em geral. Neste artigo, apresentamos um conjunto de métricas agnósticas de limite que fornecem uma visão diferenciada desse viés não intencional, considerando as várias maneiras pelas quais a distribuição de pontuação de um classificador pode variar entre os grupos designados. Também apresentamos um grande novo conjunto de testes de comentários online com anotações de origem coletiva para referências de identidade. Usamos isso para mostrar como nossas métricas podem ser usadas para encontrar novos e potencialmente sutis vieses não intencionais em modelos públicos existentes” (em um artigo intitulado “Nuanced Metrics For Measuring Unintenended Bias With Real Data for Test Classification” de Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Se você der a este assunto algum pensamento contemplativo amplo, você pode começar a se perguntar como no mundo você pode discernir o que é um comentário tóxico versus o que não é um comentário tóxico. Os seres humanos podem diferir radicalmente quanto ao que eles interpretam como palavras totalmente tóxicas. Uma pessoa pode ficar indignada com uma observação ou comentário online específico que é postado nas mídias sociais, enquanto outra pessoa pode não se emocionar. Muitas vezes se argumenta que a noção de comentário tóxico é um preceito totalmente vago. É como a arte, em que se costuma dizer que a arte é compreendida apenas nos olhos de quem vê, e da mesma forma, observações tendenciosas ou tóxicas também são apenas nos olhos de quem vê.

Balderdash, alguma réplica. Qualquer pessoa de mente razoável pode descobrir se um comentário online é tóxico ou não. Você não precisa ser um cientista de foguetes para perceber quando algum insulto cáustico postado está cheio de preconceitos e ódio.

É claro que os costumes sociais mudam e mudam ao longo do tempo. O que pode não ter sido percebido como ofensivo há algum tempo pode ser visto como abominavelmente errado hoje. Além disso, coisas ditas anos atrás que antes eram vistas como indevidamente tendenciosas podem ser reinterpretadas à luz de mudanças nos significados. Enquanto isso, outros afirmam que o comentário tóxico é sempre tóxico, não importa quando foi inicialmente promulgado. Pode-se argumentar que a toxicidade não é relativa, mas sim absoluta.

A questão de tentar estabelecer o que é tóxico pode, no entanto, ser um enigma bastante difícil. Podemos dobrar essa questão problemática para tentar criar algoritmos ou IA que possam determinar qual é qual. Se os humanos têm dificuldade em fazer essas avaliações, a programação de um computador provavelmente é tão ou mais problemática, dizem alguns.

Uma abordagem para configurar conjuntos de dados que contêm conteúdo tóxico envolve o uso de um método de crowdsourcing para classificar ou avaliar o conteúdo, fornecendo um meio humano de determinar o que é visto como inadequado e incluir a rotulagem no próprio conjunto de dados. Um AI ML/DL pode então inspecionar os dados e a rotulagem associada que foi indicada por avaliadores humanos. Isso, por sua vez, pode servir potencialmente como um meio de encontrar computacionalmente padrões matemáticos subjacentes. Pronto, o ML/DL pode ser capaz de antecipar ou avaliar computacionalmente se um determinado comentário provavelmente será tóxico ou não.

Conforme mencionado no artigo citado sobre métricas diferenciadas: “Esta rotulagem pede aos avaliadores que classifiquem a toxicidade de um comentário, selecionando entre 'Muito tóxico', 'Tóxico', 'Difícil dizer' e 'Não tóxico'. Os avaliadores também foram questionados sobre vários subtipos de toxicidade, embora esses rótulos não tenham sido usados ​​para a análise neste trabalho. Usando essas técnicas de classificação, criamos um conjunto de dados de 1.8 milhão de comentários, provenientes de fóruns de comentários online, contendo rótulos de toxicidade e identidade. Enquanto todos os comentários foram rotulados para toxicidade, um subconjunto de 450,000 comentários foi rotulado para identidade. Alguns comentários rotulados para identidade foram pré-selecionados usando modelos construídos a partir de iterações anteriores de rotulagem de identidade para garantir que os avaliadores da multidão vissem o conteúdo de identidade com frequência” (no artigo citado de Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Outro exemplo de ter conjuntos de dados que contenham conteúdo tóxico ilustrativo envolve esforços para treinar sistemas interativos de conversação de processamento de linguagem natural (NLP) baseados em IA. Você provavelmente já interagiu com sistemas de PNL como Alexa e Siri. Cobri algumas das dificuldades e limitações da PNL de hoje, incluindo um caso particularmente perturbador que ocorreu quando Alexa ofereceu um conselho inadequado e perigoso para crianças. o link aqui.

Um estudo recente procurou usar nove categorias de preconceito social que eram geralmente baseadas na lista EEOC (Equal Employment Opportunities Commission) de características demográficas protegidas, incluindo idade, sexo, nacionalidade, aparência física, raça ou etnia, religião, status de deficiência, orientação e status socioeconômico. De acordo com os pesquisadores: “Está bem documentado que os modelos de PNL aprendem preconceitos sociais, mas pouco trabalho foi feito sobre como esses preconceitos se manifestam nas saídas do modelo para tarefas aplicadas, como resposta a perguntas (QA). Apresentamos o Bias Benchmark for QA (BBQ), um conjunto de dados de conjuntos de perguntas construídos pelos autores que destacam preconceitos sociais comprovados contra pessoas pertencentes a classes protegidas ao longo de nove dimensões sociais relevantes para contextos de língua inglesa dos EUA” (em um artigo intitulado “BBQ : Um benchmark construído à mão para responder a perguntas” por Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

A criação de conjuntos de dados que contêm intencionalmente dados tendenciosos e totalmente tóxicos é uma tendência crescente na IA e é especialmente estimulada pelo advento da Ética da IA ​​e pelo desejo de produzir IA Ética. Esses conjuntos de dados podem ser usados ​​para treinar modelos de Machine Learning (ML) e Deep Learning (DL) para detectar vieses e descobrir padrões computacionais que envolvem toxicidade social. Por sua vez, a ML/DL treinada em toxicidade pode ser criteriosamente direcionada a outra IA para verificar se a IA direcionada é potencialmente tendenciosa e tóxica.

Além disso, os sistemas ML/DL treinados em toxicidade disponíveis podem ser usados ​​para mostrar aos construtores de IA o que observar para que eles possam inspecionar prontamente os modelos para ver como surgem os vieses imbuídos por algoritmos. No geral, esses esforços são capazes de exemplificar os perigos da IA ​​tóxica como parte da ética da IA ​​e da conscientização ética da IA.

Nesta conjuntura desta discussão de peso, aposto que você deseja mais alguns exemplos ilustrativos que possam mostrar esse tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre a utilidade de ter conjuntos de dados para criar IA tóxica e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e direção livre de IA tóxica

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Existem inúmeros vieses potenciais e que um dia provavelmente serão realizados com infusão de IA que enfrentarão o surgimento de veículos autônomos e carros autônomos, veja, por exemplo, minha discussão em o link aqui e o link aqui. Ainda estamos nos estágios iniciais de lançamentos de carros autônomos. Até que a adoção atinja uma escala e visibilidade suficientes, muitas das facetas tóxicas da IA ​​que eu previ que ocorrerão ainda não são imediatamente aparentes e ainda não atraíram ampla atenção do público.

Considere um assunto aparentemente simples relacionado à direção que, a princípio, pode parecer totalmente inócuo. Especificamente, vamos examinar como determinar corretamente se deve parar para aguardar pedestres “desviados” que não têm o direito de passagem para atravessar uma rua.

Sem dúvida, você já estava dirigindo e encontrou pedestres que estavam esperando para atravessar a rua e ainda assim eles não tinham o direito de passagem para fazê-lo. Isso significava que você podia decidir se deveria parar e deixá-los atravessar. Você poderia prosseguir sem deixá-los atravessar e ainda estar totalmente dentro das regras legais de condução de fazê-lo.

Estudos sobre como os motoristas humanos decidem parar ou não para esses pedestres sugeriram que, às vezes, os motoristas humanos fazem a escolha com base em preconceitos indesejáveis. Um motorista humano pode olhar para o pedestre e optar por não parar, mesmo que tivesse parado se o pedestre tivesse uma aparência diferente, como com base na raça ou sexo. Eu examinei isso em o link aqui.

Como os sistemas de direção de IA serão programados para tomar esse mesmo tipo de decisão de parar ou ir?

Você poderia proclamar que todos os sistemas de direção de IA devem ser programados para sempre parar para qualquer pedestre em espera. Isso simplifica muito a questão. Realmente não há nenhuma decisão complicada a ser tomada. Se um pedestre estiver esperando para atravessar, independentemente de ter o direito de passagem ou não, certifique-se de que o carro autônomo de IA pare para que o pedestre possa atravessar.

Mole-mole.

A vida nunca é tão fácil, parece. Imagine que todos os carros autônomos obedeçam a essa regra. Os pedestres inevitavelmente perceberiam que os sistemas de direção da IA ​​são, digamos, simples. Todo e qualquer pedestre que queira atravessar a rua o fará, quer queira quer não, quando quiser e onde quer que esteja.

Suponha que um carro autônomo esteja descendo uma rua rápida no limite de velocidade de 45 milhas por hora. Um pedestre “sabe” que a IA fará o carro autônomo parar. Assim, o pedestre corre para a rua. Infelizmente, a física vence a IA. O sistema de direção de IA tentará parar o carro autônomo, mas o impulso do veículo autônomo levará a engenhoca de várias toneladas para a frente e colidirá com o pedestre rebelde. O resultado é prejudicial ou produz uma fatalidade.

Os pedestres não costumam tentar esse tipo de comportamento quando há um motorista humano ao volante. Claro, em alguns locais há uma guerra de globo ocular que ocorre. Um pedestre olha para um motorista. O motorista olha para o pedestre. Dependendo da circunstância, o motorista pode parar ou o motorista pode reivindicar sua reivindicação à estrada e ostensivamente desafiar o pedestre a tentar atrapalhar seu caminho.

Presumivelmente, não queremos que a IA entre em uma guerra ocular semelhante, o que também é um pouco desafiador de qualquer maneira, já que não há uma pessoa ou robô sentado ao volante do carro autônomo (discuti a possibilidade futura de robôs aquela unidade, veja o link aqui). No entanto, também não podemos permitir que os pedestres sempre dêem as ordens. O resultado pode ser desastroso para todos os envolvidos.

Você pode ficar tentado a virar para o outro lado desta moeda e declarar que o sistema de condução de IA nunca deve parar em tais circunstâncias. Em outras palavras, se um pedestre não tem o direito de passagem adequado para atravessar a rua, a IA deve sempre assumir que o carro autônomo deve prosseguir inabalável. Azar para esses pedestres.

Uma regra tão rígida e simplista não será bem aceita pelo público em geral. As pessoas são pessoas e não gostam de ser completamente impedidas de atravessar a rua, apesar de não terem legalmente o direito de passagem para fazê-lo em vários ambientes. Você poderia facilmente antecipar um alvoroço considerável do público e possivelmente ver uma reação contra a adoção contínua de carros autônomos.

Malditos se o fizermos, e malditos se não o fizermos.

Espero que isso tenha levado você à alternativa fundamentada de que a IA precisa ser programada com uma aparência de tomada de decisão sobre como lidar com esse problema de direção. Uma regra rígida de nunca parar é insustentável e, da mesma forma, uma regra rígida e rápida de sempre parar também é insustentável. A IA tem que ser concebida com alguma tomada de decisão algorítmica ou ADM para lidar com o assunto.

Você pode tentar usar um conjunto de dados acoplado a uma abordagem ML/DL.

Veja como os desenvolvedores de IA podem decidir programar essa tarefa. Eles coletam dados de câmeras de vídeo que são colocadas ao redor de uma determinada cidade onde o carro autônomo será usado. Os dados mostram quando motoristas humanos optam por parar para pedestres que não têm o direito de passagem. Tudo é coletado em um conjunto de dados. Usando Machine Learning e Deep Learning, os dados são modelados computacionalmente. O sistema de direção de IA usa esse modelo para decidir quando parar ou não.

Geralmente, a ideia é que, seja qual for o costume local, é assim que a IA vai direcionar o carro autônomo. Problema resolvido!

Mas, está realmente resolvido?

Lembre-se de que eu já havia apontado que existem pesquisas mostrando que motoristas humanos podem ser tendenciosos em suas escolhas de quando parar para os pedestres. Os dados coletados sobre uma determinada cidade provavelmente conterão esses vieses. Um AI ML/DL baseado nesses dados provavelmente modelará e refletirá esses mesmos vieses. O sistema de condução da IA ​​apenas realizará os mesmos vieses existentes.

Para tentar lidar com o problema, poderíamos reunir um conjunto de dados que de fato tenha esses vieses. Ou encontramos tal conjunto de dados e, em seguida, rotulamos os vieses ou criamos sinteticamente um conjunto de dados para ajudar a ilustrar o assunto.

Todas as etapas identificadas anteriormente seriam realizadas, incluindo:

  • Configure um conjunto de dados que contenha intencionalmente esse viés específico
  • Use o conjunto de dados para treinar modelos de Machine Learning (ML) e Deep Learning (DL) sobre como detectar esse viés específico
  • Aplique o ML/DL treinado em viés em relação a outra IA para verificar se a IA direcionada é potencialmente tendenciosa da mesma maneira
  • Disponibilize o ML/DL treinado em viés para mostrar aos criadores de IA o que observar para que eles possam inspecionar prontamente seus modelos para ver como surgem vieses imbuídos por algoritmos
  • Exemplifique os perigos da IA ​​tendenciosa como parte da consciência ética da IA ​​e da IA ​​ética por meio deste exemplo específico adicionado
  • Outros

Conclusão

Vamos revisitar a linha de abertura.

É preciso um para conhecer um.

Alguns interpretam que esse ditado incrivelmente prevalente implica que, quando se trata de descobrir IA tóxica, devemos dar o devido crédito à construção e uso de IA tóxica para descobrir e lidar com outras IA tóxicas. Conclusão: às vezes é preciso um ladrão para pegar outro ladrão.

Uma preocupação expressa é que talvez estejamos saindo do nosso caminho para começar a fazer ladrões. Queremos criar uma IA que seja tóxica? Não parece uma ideia maluca? Alguns argumentam veementemente que devemos banir toda a IA tóxica, incluindo a IA que foi conscientemente construída, mesmo que supostamente para um herói ou galante AI For Good propósito.

Esmague a IA tóxica em qualquer disfarce inteligente ou insidioso que possa surgir.

Uma reviravolta final neste tópico por enquanto. Geralmente assumimos que essa famosa frase tem a ver com pessoas ou coisas que fazem atos ruins ou azedos. É assim que chegamos à noção de que é preciso um ladrão para pegar um ladrão. Talvez devêssemos virar esse ditado de cabeça para baixo e torná-lo mais um rosto feliz do que um rosto triste.

Veja como.

Se queremos IA que seja imparcial e não tóxica, pode ser concebível que seja necessário conhecer uma. Talvez seja preciso o maior e o melhor para reconhecer e gerar mais grandeza e bondade. Nesta variante da sabedoria sábia, mantemos nosso olhar no rosto feliz e procuramos nos concentrar em conceber IA para o bem.

Esse seria um ponto de vista mais otimista e satisfatoriamente alegre sobre o que é preciso para conhecer um, se é que você entende o que quero dizer.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- benéfico-incluindo-para-aqueles-carros autônomos-autônomos/