A ética da IA ​​avalia cautelosamente se oferecer recompensas de caça aos preconceitos da IA ​​para capturar e capturar sistemas totalmente autônomos eticamente perversos é prudente ou fútil

Procurado: Caçadores de preconceitos de IA.

Esse pode ser um anúncio moderno que você começará a ver aparecendo nos canais de mídia social e fazendo aparições em vários anúncios de emprego online. Este é um conceito ou função relativamente novo. Traz consigo polêmica. Alguns crentes fervorosos argumentam fervorosamente que isso faz muito sentido e deveria estar acontecendo o tempo todo, enquanto outros estão nervosos fazendo algumas coçar a cabeça e não têm tanta certeza de que isso seja uma boa ideia.

A essência do papel consiste em descobrir da IA ​​quaisquer preconceitos ocultos ou práticas discriminatórias incorporadas. Para o resgate, vêm os ávidos e antigos caçadores de preconceitos da IA. Eles provavelmente seriam caçadores de recompensas experientes em computador. Mais ainda, esperançosamente, mergulhado nas profundezas dos recursos de IA.

Ter uma arma, viajar e pode, por meio de uma pontaria afiada com IA, conseguir expor esses vieses desagradáveis ​​​​e desagradáveis ​​​​da IA.

Isso levanta uma série de questões espinhosas sobre a sensibilidade de seguir essa tática quando se trata de descobrir vieses de IA. Como discutirei momentaneamente, saiba que o advento da IA ​​também trouxe consigo o surgimento de preconceitos de IA. Uma torrente de preconceitos de IA. Para minha cobertura contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Como vamos descobrir que um determinado sistema de IA tem vieses?

Você pode confiar aos desenvolvedores de IA que criaram a IA para fazer isso. A questão é que eles podem estar tão envolvidos em preconceitos que eles mesmos não conseguem reconhecer os preconceitos em sua IA inventada. Tudo parece bom para eles. Ou eles podem estar tão empolgados com a IA e ter um sentimento de orgulho por ela que ter que ter um olhar crítico para examiná-la em busca de vieses seria difícil e realmente deprimente. Muitas outras razões podem parecer prejudicar os desenvolvedores de IA para assumir essa tarefa, incluindo falta de habilidades para descobrir os vieses incorporados, falta de tempo em um projeto para fazê-lo, etc.

Ok, então vá em frente e contrate consultores externos para fazer o trabalho sujo para você, por assim dizer. Acontece que os consultores ficarão felizes em examinar sua IA em busca de vieses, cobrando um bom centavo para fazê-lo (muitos e muitos centavos). Perceba que você precisa pagar para que eles se adaptem ao seu sistema de IA. Você precisa então vasculhá-los, o que pode levar um número incalculável de horas laboriosas e caras. Usar consultores é uma opção se você tiver orçamento para isso.

Na “lacuna” potencial de como encontrar esses vieses insidiosos da IA, vêm os caçadores de recompensas heróicos e arrojados da IA.

Você não costuma pagá-los adiantado. Eles tentam encontrar os vieses da IA ​​em seu próprio tempo e têm que pagar suas próprias contas ao fazê-lo. Somente se eles encontrarem vieses com sucesso, eles serão pagos. Suponho que você poderia afirmar prontamente que, de uma maneira adequada de pensar, essa é a definição convencional de um caçador de recompensas. Seja pago se você tiver sucesso. Não seja pago se você não for bem sucedido. Ponto final, fim da história.

Os programas de recompensas existem desde pelo menos o tempo dos romanos e, portanto, podemos supor que eles funcionam, tendo perdurado com sucesso como prática ao longo de todos esses anos.

Aqui está um pedaço fascinante de curiosidades históricas para você. Alegadamente, uma mensagem postada durante o Império Romano na cidade de Pompéia proclamou que os caçadores de recompensas eram necessários para encontrar um pote de cobre que desapareceu de uma pequena loja. A recompensa pela recuperação do pote de cobre foi um prêmio impressionante de sessenta e cinco moedas de bronze. Desculpe dizer que não sabemos se algum caçador de recompensas encontrou o pote de cobre e reivindicou as moedas de bronze, mas sabemos que a caça de recompensas certamente continuou desde os tempos antigos.

Em tempos mais modernos, você deve estar ciente de que na década de 1980 havia algumas recompensas notáveis ​​​​oferecidas para encontrar bugs ou erros de computador em pacotes de software prontos para uso e, em seguida, na década de 1990, a Netscape ofereceu uma recompensa marcante para encontrar bugs em seu navegador da web. (tornando-se uma das empresas mais proeminentes da época a fazê-lo). O Google e o Facebook optaram por caçar recompensas por bugs a partir de 2010 e 2013 anos, respectivamente. Alguns anos depois, em 2016, até o Departamento de Defesa dos EUA (DoD) entrou em ação por ter um esforço de recompensa “Hack the Pentagon” (observe que a recompensa publicamente focada foi para bugs encontrados em vários sites relacionados ao DoD e não em sistemas de missão crítica de defesa).

Vamos nos aprofundar mais no tópico de recompensas por bugs. Percebo que meu objetivo principal é falar sobre vieses de IA na caça de recompensas nesta discussão, mas existem alguns paralelos bastante relevantes com a arena de recompensas de bugs.

Alguns estão comprovadamente intrigados com o fato de qualquer empresa querer oferecer uma recompensa para encontrar bugs (ou, neste caso, vieses de IA) em seus sistemas.

Na superfície, isso parece um tipo de estratégia do tipo “você está pedindo”. Se você deixar o mundo saber que você dá as boas-vindas àqueles que podem tentar encontrar falhas em seu software, parece o mesmo que dizer aos ladrões para irem em frente e tentarem invadir sua casa. Mesmo se você já acredita que tem um sistema de alarme contra ladrões muito bom e que ninguém deve ser capaz de entrar em sua casa segura, imagine perguntar e, de fato, implorar a todos os ladrões que desçam ao seu local de residência e veja se eles podem rachar nele. Oh, os problemas que tecemos para nós mesmos.

O mesmo pode ser dito sobre pedir aos caçadores de recompensas para encontrar vieses em sua IA.

Primeiro, talvez implique que você já acredita ou mesmo sabe que sua IA tem preconceitos. Essa é uma admissão implícita chocantemente direta que poucos parecem dispostos a fazer e pode potencialmente sair pela culatra.

Segundo, você não sabe ao certo o que esses caçadores de recompensas podem fazer. Eles podem optar por dizer ao mundo inteiro que encontraram vieses em sua IA. Supõe-se que isso pode perder a recompensa, embora alguns possam apreciar a atenção ou tentar reforçar seu status para obter shows de consultoria e outras possibilidades de geração de receita. Talvez pudesse ser totalmente altruísta. Pode ser uma forma de ativismo de IA. Eu posso continuar.

Terceiro, pode haver uma reviravolta sorrateira em todo o caso. Um caçador de recompensas que afirma estar procurando por vieses de IA pode estar bisbilhotando diabolicamente para encontrar maneiras de atacar seu sistema de IA. A coisa toda é uma farsa para finalmente realizar um ataque cibernético grave. Você pode ter assumido que eles estavam tentando ajudar, enquanto eles têm erros em seus corações. Triste, mas possível.

Quarto, podemos ficar ainda mais maliciosamente contorcidos sobre esse assunto. Um caçador de recompensas encontra alguns vieses de IA embaraçosos e potencialmente motivadores de ações judiciais. A recompensa é uma quantia de dólares que chamaremos de X. Em vez de reivindicar a recompensa, o caçador de recompensas faz uma espécie de estranha provocação de ransomware. Se você pagar ao caçador de recompensas uma quantia de dez vezes X ou talvez os céus o limite, eles falarão sobre os vieses da IA. Você tem até a meia-noite de domingo para responder. Após esse ponto no tempo, os vieses da IA ​​serão revelados para todos verem. Caramba, uma situação covarde para se estar.

Quinto, os mais recentes são os chamados cibercriminosos de “hack to return” que, depois de roubar um monte de dinheiro online, decidem se arrepender e devolver parte do espólio ilícito que pegaram. A empresa que recebe seu dinheiro parcialmente devolvido está disposta a considerar o valor roubado restante como uma recompensa após o fato aos ladrões. Parece que todo mundo “ganha” na medida em que a maior parte dos fundos é devolvida e, enquanto isso, os cibercriminosos não são perseguidos legalmente, além de receberem a recompensa dos piratas. Isso é prudente ou perpetuando insidiosamente atos ilícitos?

Percebo que alguns de vocês podem estar dizendo que ninguém deveria lançar IA que tenha algum viés. Isso parece resolver todo esse dilema sobre usar ou não os caçadores de recompensas da IA. Só não se coloque em uma situação de recompensa. Certifique-se de que seus desenvolvedores de IA façam a coisa certa e não permitam vieses de IA em seus sistemas de IA. Talvez use consultores para fazer uma verificação dupla. Em essência, faça o que for necessário para evitar pensar ou pedir a esses caçadores de recompensas de preconceito de IA que venham para a mesa.

Sim, isso pareceria inteiramente sensato. O problema é que também é um pouco sonhador. A complexidade de muitos sistemas de IA é tão grande que tentar garantir que nem um pingo de viés de IA surja será árduo. Além disso, alguns sistemas de IA são projetados propositalmente para ajustar e “aprender” à medida que avançam. Isso significa que em algum momento futuro a IA que você concebeu, que vamos fingir a princípio ser puramente limpa e sem preconceitos, pode gravitar em direção à incorporação de preconceitos (não quero dizer isso de uma maneira antropomórfica, como explicarei mais adiante à medida que acompanhe este tópico).

Aqueles que favorecem a caça de recompensas por bugs de software tendem a argumentar que faz sentido oferecer tais recompensas. Podemos considerar sua lógica e ver se ela também se aplica ao reino dos preconceitos da IA.

Os defensores das recompensas por bugs enfatizam que, em vez de tentar fingir que não há falhas em seu sistema, por que não encorajar que elas sejam encontradas, fazendo isso de maneira “controlada”? Em contraste, sem tal esforço de recompensa, você poderia apenas esperar e rezar para que, por acaso, ninguém encontre um buraco, mas se, em vez disso, você estiver oferecendo uma recompensa e dizendo àqueles que encontrarem um buraco que serão recompensados, ele oferece uma recompensa. chance de escorar o buraco por conta própria e impedir que outros o encontrem secretamente em algum momento posterior.

O mesmo pode ser dito no caso de uso de vieses de IA. Se você oferecer uma recompensa suficiente, esperamos que os caçadores de recompensas tragam a descoberta de vieses de IA à sua atenção. Você pode então lidar com os vieses da IA ​​de maneira relativamente silenciosa e medida. Isso pode evitar um problema muito maior e mais assustador mais tarde, ou seja, que outra pessoa encontre vieses de IA em sua IA e grite sobre isso para os céus.

Geralmente, uma empresa que deseja habilitar o esforço de caça a recompensas de bugs implementará uma Política de Divulgação de Vulnerabilidade (VDP). O VDP indica como os bugs devem ser encontrados e relatados à empresa, juntamente com a forma como a recompensa ou recompensa será fornecida ao caçador. Normalmente, o VDP exigirá que o caçador acabe assinando um Acordo de Confidencialidade (NDA) para que não revele a outras pessoas o que encontrou.

A noção de usar um NDA com caçadores de recompensas tem alguma controvérsia. Embora talvez faça sentido para a empresa que oferece a recompensa querer manter em segredo as exposições encontradas, também é dito que sufoca a conscientização geral sobre esses bugs. Presumivelmente, se os bugs de software puderem ser falados, isso ajudaria potencialmente a segurança de outros sistemas em outras empresas que, então, reforçariam suas exposições. Alguns caçadores de recompensas não assinam um NDA, parcialmente devido ao desejo do público e parcialmente devido à tentativa de manter sua própria identidade oculta. Lembre-se também de que o aspecto do NDA geralmente não surge até que o caçador afirme que encontrou um bug, em vez de exigi-lo com antecedência.

Alguns VDPs estipulam que o NDA é apenas por um período de tempo limitado, permitindo que a empresa primeiro encontre uma solução para o buraco aparente e depois permita uma divulgação mais ampla sobre ele. Uma vez que o buraco foi tapado, a empresa permite um afrouxamento do NDA para que o resto do mundo possa saber sobre o bug. O tempo típico de resolução para bugs caçados por recompensas é de cerca de 15 a 20 dias quando uma empresa deseja conectá-lo imediatamente, enquanto em outros casos pode se estender por 60 a 80 dias. Em termos de pagamento ao caçador de recompensas, o chamado time-to-pay, depois que o buraco foi verificado como realmente existente, os pagamentos de recompensas tendem a ocorrer em cerca de 15 a 20 dias para as instâncias menores e em torno de 50 a 60 dias. dias para as instâncias maiores (estas estão mudando constantemente as indicações da indústria e mencionadas apenas como ilustrativas).

Os caçadores de recompensas também devem ser solicitados a participar de um VDP e lidar com um NDA?

Você pode obter um sim e um não para essa pergunta. Sim, algumas empresas devem seguir esse caminho. Não, você pode não necessariamente optar por seguir esse caminho. Os fatores incluem o tamanho e a natureza da IA, o potencial de qualquer exposição de viés de IA envolvida e várias outras considerações éticas, legais e comerciais que podem ser consideradas.

Posso acrescentar que estabelecer um esforço de caça a recompensas para vieses de IA de sua IA é uma ordem muito mais alta do que você pode supor à primeira vista.

Começaremos com a formidável possibilidade de você ser sobrecarregado por caçadores de recompensas de preconceitos de IA.

No momento, você teria dificuldade em encontrar muitos que tivessem esse cartão de visita. Não há muitos ao redor. É os dias do Velho Oeste a esse respeito. Mas se a noção de viés de IA na caça a recompensas pegar, especialmente quando as recompensas são abundantes e ricamente recompensadoras, você pode apostar que todos vão mergulhar na piscina de caça de vieses.

Você quer todo tipo de ralé perseguindo preconceitos de IA em seu sistema de IA? Você terá alguns compradores que são realmente especialistas nesse tipo de coisa. Você terá outros compradores que são amadores e podem fazer uma bagunça ou gritar lobo. A próxima coisa que você sabe, qualquer pessoa que possa soletrar “Inteligência Artificial” virá para cavar sua mina de ouro de um sistema de IA para essas preciosas pepitas de ouro de viés de IA. A corrida do ouro está acontecendo. Isso pode não ser bom para você.

Você precisará examinar as submissões do caçador de recompensas. Haverá muito “ruído” nas alegações relatadas, no sentido de que muitos dos vieses de IA alegados não existem, embora o caçador de recompensas insista que eles encontraram alguns. Imagine quanto trabalho suas próprias equipes de IA serão necessárias para examinar as reivindicações de recompensas, explorar a validade de cada uma e, potencialmente, ir e voltar com o caçador de recompensas sobre se o ouro foi descoberto ou não.

Alguns argumentam que essa é outra razão para fazer tudo sozinho. Você pode inevitavelmente descobrir que a coisa da recompensa é mais problema do que vale a pena.

Aqui está outra questão para refletir. Como os caçadores de recompensas saberão como é um viés de IA? Em essência, sem alguma aparência do que procurar, qualquer rocha brilhante pode ser reivindicada como apresentando um viés de IA na mina de ouro de IA que está sendo escavada.

Nos dias do Velho Oeste, suponha que você oferecesse uma recompensa pela captura de Billy the Kid (um famoso fora-da-lei). Se você fez isso e não incluiu uma foto da aparência de Billy, imagine o número de caçadores de recompensas que podem arrastar para o escritório do xerife alguém que eles esperavam ou pensavam ser Billy the Kid. Você pode ser inundado com falsos Billy's. Isso é ruim, já que você provavelmente precisaria olhar para cada um, fazer perguntas de sondagem e tentar verificar se a pessoa era realmente Billy ou não.

O ponto é que, para configurar o esforço de recompensa de viés de IA, seria sábio tentar esclarecer em que você considera que consistem os vieses de IA. Isso requer um tipo de calibração Goldilocks. Você não quer ser tão confinado que os caçadores de recompensas ignorem os preconceitos da IA ​​apenas porque eles não se encaixam na sua definição estipulada, e nem você quer que eles gritem “Eureka!” em cada pedaço de viés de IA que eles por acaso encontram.

Você precisará do equilíbrio certo de Cachinhos Dourados em que consistem os vieses da IA ​​e, portanto, fornecer instruções de preferência explícitas.

Muito dessa caça a recompensas de viés de IA será focada em sistemas de Machine Learning (ML) e Deep Learning (DL) baseados em IA. Isso faz sentido, já que o advento da difusão de ML/DL está crescendo, além de parecer ter alguns dos desafios mais prováveis ​​de abranger vieses indevidos de IA.

Esses pesquisadores identificam quão saliente pode ser um esforço de caça a recompensas de viés de IA, particularmente no contexto de ML/DL: (ou hackers) para fins mais interativos e produtivos. A esperança é que, ao convidar deliberadamente partes externas a encontrar bugs de software ou hardware em seus sistemas e, muitas vezes, fornecer incentivos monetários para isso, um ecossistema mais saudável e de resposta mais rápida evolua. É natural que a comunidade de ML considere uma abordagem semelhante de "recompensa de viés" para a descoberta e reparo oportunos de modelos e sistemas com viés ou outros comportamentos indesejáveis. Em vez de encontrar bugs no software, as partes externas são convidadas a encontrar vieses – por exemplo, subgrupos (demográficos ou outros) de entradas nos quais um modelo treinado apresenta desempenho inferior – e são recompensados ​​por fazê-lo” (no artigo “An Algorithmic Framework for Bias Bounties” de Ira Globus-Harris, Michael Kearns e Aaron Roth).

No artigo de pesquisa, os autores descrevem uma abordagem sugerida para quais tipos de vieses de IA podem ser procurados por caçadores de recompensas. Há também uma indicação sobre como avaliar as alegações de caçadores de recompensas associadas aos supostos vieses de IA assim descobertos. De acordo com minhas observações anteriores, as chances são de que você receba reivindicações ilusórias e tenha que separar o trigo do joio da IA.

Antes de entrar em um pouco mais de carne e batatas sobre as considerações selvagens e confusas subjacentes à caça ao viés da IA, vamos estabelecer alguns fundamentos adicionais sobre tópicos profundamente integrais. Precisamos mergulhar brevemente na Ética da IA ​​e especialmente no advento do Machine Learning (ML) e Deep Learning (DL).

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, vamos explorar o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos agora retornar ao tópico da caça ao viés da IA.

Para aqueles que estão considerando um esforço de caça a recompensas de viés de IA, aqui estão minhas sete etapas principais recomendadas sobre a melhor forma de proceder:

1) Avaliar. Avalie a adequação de um esforço de caça a recompensas de preconceito de IA para suas circunstâncias e de acordo com seus sistemas de IA

2) Design. Projete uma abordagem apropriada de caça a recompensas de viés de IA

3) Executar. Implemente e divulgue seus esforços de caça a recompensas de preconceito de IA

4) Campo. Coloque as reivindicações de recompensa de viés de IA e processe de acordo

5) Fixar. Corrija ou ajuste sua IA conforme pertinente a essas exposições de viés de IA descobertas

6) Adjust. Ajuste a caça de recompensas de viés de IA conforme necessário

7) Descontinuar. Descontinue a caça de recompensas de viés de IA quando não for mais necessária

Na minha série de etapas acima, observe que eu mencionei que você provavelmente desejará corrigir ou ajustar sua IA com base na verificação de que um viés de IA reivindicado realmente existe em seu sistema de IA. Isso abundantemente faz sentido. Você quase certamente gostaria de reforçar quaisquer vieses de IA encontrados. Pense nas ramificações legais (e éticas) se você não fizer isso. Uma coisa é afirmar que você não sabia que existia um viés de IA e, portanto, permitiu que existisse, enquanto é muito mais difícil ter um registro de que você estava ciente de um viés de IA e não fez nada sobre isso.

A natureza e o grau da correção ou ajuste da IA ​​dependeriam, é claro, da importância dos vieses da IA ​​e da profundidade dos problemas. Se você tiver sorte, talvez uma quantidade modesta de mudanças na IA retifique as coisas. O outro potencial é que você pode precisar fazer uma reescrita completa da IA. Para o tipo ML/DL de IA, isso pode exigir voltar à prancheta e começar do zero com um conjunto de dados totalmente novo e um modelo ML/DL limpo. Eu discuti o advento do desgorgement de IA ou destruição de IA como um remédio legal potencial contra IA desagradável, veja o link aqui.

Uma questão a ser ponderada é se você gostaria que os caçadores de recompensas fizessem mais do que apenas identificar a existência de vieses de IA. Por exemplo, você pode adoçar a recompensa indicando que as correções propostas também são bem-vindas. Um viés de IA encontrado por um caçador de recompensas pode receber uma recompensa ou prêmio indicado. Se o caçador de recompensas também puder oferecer uma fixo ao viés da IA, eles podem receber uma recompensa adicional.

Alguns argumentam que esta é uma ponte longe demais. Eles dizem que você deve manter os caçadores de recompensas de viés de IA focados exclusivamente em encontrar vieses de IA. Você vai criar um monte de consequências adversas indesejáveis, convidando-os a também sugerir correções. Mantenha as coisas simples. O objetivo é obter o máximo de olhos adicionais na descoberta de vieses de IA para que você possa decidir o que fazer a seguir. Não turva as águas.

Um aspecto espinhoso que precisa ser descoberto envolve a magnitude da recompensa ou prêmio para os caçadores de recompensas que genuinamente descobrem os vieses da IA. Você quer que a recompensa seja demonstrativa. Sem uma recompensa alta o suficiente, você não terá muitos caçadores de recompensas ou eles não estarão especialmente ansiosos para procurar os vieses da IA ​​em seus sistemas de IA. Em vez disso, eles podem se concentrar em outros esforços de recompensas de viés de IA.

Além disso, como mencionado, você quer tentar reprimir o desejo dos caçadores de recompensas de transformar suas descobertas de viés de IA em outras formas de ouro. Se a recompensa parecer insignificante, pode irritar os caçadores de recompensas e levá-los a buscar outras recompensas mais altas. Eles podem adotar uma abordagem de ransomware em relação a você. Eles podem declarar que têm um viés de IA suculento que um concorrente adoraria saber e poderia usar contra sua empresa, divulgando que o viés de IA existe em sua IA. Assim, eles vendem o viés de IA descoberto para o maior lance. E assim por diante.

Supõe-se que, se você definir a recompensa em um intervalo extremamente alto, também estará solicitando problemas em potencial. Isso poderia atrair todos os tipos de caçadores de recompensas malucos. Eles, por sua vez, podem inundar as mídias sociais com alegações nebulosas de que encontraram uma infinidade de vieses de IA, fazendo isso para sua própria autopromoção e sem ter realmente lançado nenhum viés de IA. De certa forma, sua recompensa aumentada inadvertidamente ilumina sua IA e estimula uma enorme quantidade de mariposas grosseiras a serem perniciosamente atraídas pelo feixe de luz brilhante.

Outra consideração envolve a acessibilidade à sua IA.

Para habilitar uma possibilidade de caça de recompensas de IA, os caçadores de recompensas precisam obter acesso suficiente à sua IA. Eles não terão muita sorte em encontrar vieses de IA se estiverem totalmente bloqueados. Mas você não quer abrir mão de suas proteções de segurança cibernética, pois isso pode comprometer completamente seu sistema de IA.

Você pode tentar fazer com que os caçadores de recompensas assinem várias declarações juridicamente vinculativas e, em seguida, forneça-lhes o acesso necessário. Alguns caçadores de recompensas não vão gostar desse tipo de abordagem. O ponto de vista deles é que eles só farão o que qualquer caminho aberto e disponível publicamente permitir. Eles são dissidentes livres, por assim dizer, e não gostam de ser selados, por assim dizer. Fazer com que eles assinem em documentos legais intimidadores fará com que muitos deles evitem procurar vieses de IA em sua IA. Ou eles podem ficar irritados com seu desafio legal e decidir que verão o que podem encontrar por meios públicos, fazendo isso com o desejo talvez estridente de mostrar o quão vulnerável você realmente é.

Eu tenho outro ângulo que pode fazer sua cabeça girar.

Um caçador de recompensas experiente em IA pode decidir criar um sistema de IA que possa examinar sua IA e possivelmente descobrir vieses de IA em sua IA. Este é o ferramenteiro optando por fazer uma ferramenta para fazer o trabalho em vez de realizar o trabalho manual. Em vez de examinar laboriosamente sua IA, o caçador de recompensas versado em IA gasta seu tempo inventando uma ferramenta de IA que faz a mesma coisa. Eles então usam a ferramenta de IA em sua IA. A beleza também é que eles podem presumivelmente reutilizar a ferramenta de IA em qualquer outra pessoa que também esteja oferecendo uma oportunidade de caça de recompensas em sua respectiva IA.

Eu sei o que você provavelmente está pensando. Se uma ferramenta de IA pode ser concebida para examinar a IA quanto a vieses, o fabricante da IA ​​que está sendo examinada quanto a vieses de IA deve criar tal ferramenta de IA ou comprar uma para seu próprio uso. Em teoria, eles não precisam enfrentar todo o carnaval de caçadores de recompensas, para começar. Basta usar a IA para encontrar seus vieses de IA.

Sim, isso é algo que você pode esperar que surgirá gradualmente. Enquanto isso, a base desses esforços provavelmente consistirá em desenvolvedores de IA caçando recompensas. Eles podem usar várias ferramentas para ajudar em seus esforços, mas no curto prazo, é improvável que simplesmente coloquem a ferramenta de IA no automático e tirem uma soneca de modo que a ferramenta faça toda a busca por viés de IA para eles.

Ainda não estamos lá.

Neste momento desta discussão pesada, eu aposto que você está desejoso de alguns exemplos ilustrativos que possam mostrar este tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre o uso da caça de recompensas por IA e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAADA
S (Sistemas Avançados de Assistência ao Condutor).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e caça a recompensas de IA

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Em minhas colunas, já discuti longamente o uso de caçadores de recompensas orientados por bugs no reino de veículos autônomos e carros autônomos. Esta abordagem, de fato, ocorreu neste nicho. Há os debates usuais sobre se é uma boa ideia ou não. Os esforços geralmente têm sido de natureza limitada, muitas vezes mantidos relativamente quietos.

Um discurso semelhante pode ocorrer quando o foco muda para a caça aos vieses da IA, em vez de buscar os bugs do sistema em si. Alguns sugerem que é um maldito se você fizer isso, maldito se você não for um enigma.

Aqui está o porquê.

Primeiro, para deixar claro, existem várias maneiras pelas quais veículos autônomos e carros autônomos estarão sujeitos a conter vieses de IA, veja minha cobertura em o link aqui e o link aqui, apenas para citar alguns. Fabricantes de automóveis e empresas de carros autônomos parecem sensatos em tentar impedir que esses vieses de IA apareçam em seus sistemas de IA. A tempestade legal e ética contra essas empresas será, sem dúvida, intensa.

O uso de um esforço de caça a recompensas de viés de IA é uma abordagem adequada neste contexto específico?

Uma resposta é que sim, isso será útil e fornecerá uma abundância de conjuntos “gratuitos” de novos olhos para tentar capturar quaisquer vieses de IA incorporados de um carro autônomo de IA ou algo semelhante. A maioria dos desenvolvedores de IA que constroem carros autônomos está ocupada fazendo IA que pode dirigir um carro com segurança do ponto A ao ponto B. Eles estão preocupados com essa capacidade principal e não têm tempo nem atenção para quaisquer vieses de IA que possam estar em algum lugar sua IA.

A outra resposta é que não, permitir a caça de recompensas por veículos autônomos e carros autônomos em qualquer base, seja por bugs ou vieses de IA, deve ser ferozmente evitado. O argumento é que esses veículos e sua IA são de calibre de vida ou morte. Mexer com a IA de qualquer forma pode ser de alguma forma ruinoso para a IA e afetar o que o sistema de condução da IA ​​faz.

Um contra-argumento para esse último ponto é que os caçadores de recompensas deveriam ser incapazes de alterar a IA que estão examinando. Assim, não há perigo de eles mexerem com a IA e fazer com que a IA nesse contexto se torne subitamente um sistema de condução de IA enlouquecido. Os caçadores de recompensas estão tendo acesso somente leitura. Permitir que eles avancem seria uma grande estupidez e um grande erro.

O contra-argumento para esse contra-argumento é que, ao permitir e incentivar os caçadores de recompensas a examinar sua IA, todo o assunto se torna arriscado. Esses caçadores de recompensas podem descobrir maneiras de explorar quaisquer bugs ou vieses encontrados. Essas explorações, por sua vez, podem ser para fins desonestos. Seria melhor não convidar “ladrões” para sua casa, por assim dizer. Uma vez que eles tenham fechado a junta, você acabará por ter um monte de problemas.

Para aqueles que têm sistemas de IA de magnitude inferior à vida ou morte, a crença é que as repercussões de uma incursão de caça a recompensas que dão errado são muito menos arriscadas. Talvez sim. Por outro lado, se uma empresa despejou seu dinheiro em um sistema de IA que os caçadores de recompensas conseguem usurpar, você pode supor que os danos à reputação e outros danos potenciais ainda serão prejudicados.

Não há almoço grátis quando se trata de caça a recompensas de viés de IA.

Uma rápida observação de encerramento por enquanto.

Quando o notório fora-da-lei Jesse James foi procurado durante o Velho Oeste, foi impresso um pôster de “Procurado” que oferecia uma recompensa de US $ 5,000 por sua captura (afirmando “vivo ou morto”). Era uma quantia bastante grande de dinheiro na época. Um dos membros de sua própria gangue optou por atirar em Jesse e receber a recompensa. Suponho que isso mostra o quão eficaz uma recompensa pode ser.

O uso de caçadores de recompensas de preconceito de IA será uma coisa boa ou ruim?

Se você optar por instituir um esforço de caçador de recompensas de preconceito de IA, sugiro que você mantenha os olhos bem abertos e olhe por cima do ombro o tempo todo. Isso é prudente para você e sua IA. Você nunca sabe o que pode acontecer, incluindo que um caçador de recompensas conivente de alguma forma insere sub-repticiamente um viés de IA em sua IA e grita para o mundo que eles encontraram um viés de IA sem escrúpulos em sua IA. Talvez fazendo isso em uma tentativa descarada e descomunal de buscar a recompensa, além de se proclamar um herói que essencialmente conquistou o alardeado Jesse James.

Pensando bem, uma IA senciente provavelmente não vai gostar dessa ideia de uma provisão desconcertante de morto ou vivo, pode-se especular languidamente.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautious-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- sistemas eticamente perversos-completamente autônomos-é-prudente-ou-fúteis/