A ética da IA ​​é cética sobre o estabelecimento das chamadas leis de IA de bandeira vermelha para chamar a atenção de algoritmos tendenciosos em sistemas autônomos de IA

Vamos falar sobre as Leis da Bandeira Vermelha.

Você, sem dúvida, sabe que a noção de Leis da Bandeira Vermelha tem sido amplamente abordada nos noticiários ultimamente. Manchetes que cobrem o tópico são em grande quantidade. Paixões e debates apaixonados sobre esses assuntos estão no topo da mente como uma preocupação da sociedade e envolvem as leis atuais e emergentes de armas de bandeira vermelha.

Atrevo-me a dizer que você pode não estar familiarizado com outras leis de bandeira vermelha promulgadas no final de 1800 referentes a veículos motorizados e os precursores dos automóveis modernos de hoje. Sim, isso mesmo, as Leis da Bandeira Vermelha remontam à história, embora abranjam outros tópicos em comparação com o foco contemporâneo de hoje. Estes são normalmente referidos como leis de trânsito de bandeira vermelha.

Essas leis, agora centenárias e completamente extintas, exigiam que qualquer carruagem motorizada ou motor movido a vapor tivesse naquele momento um adulto precedendo o veículo e carregando uma bandeira vermelha para fins de alerta. A ideia era que o gado pudesse ficar alarmado com aquelas engenhocas barulhentas e rabugentas que desciam lenta e irregularmente pelas estradas de terra ou marginalmente pavimentadas, assim, ter alguém caminhando na frente da engenhoca enquanto agitava vigorosamente uma bandeira vermelha poderia evitar o surgimento de calamidades. Caso você esteja se perguntando, ferrovias e trens foram considerados excluídos das mesmas leis, pois eram veículos integralmente vinculados aos trilhos e tinham outras leis cobrindo suas ações.

Imagine ter que agitar bandeiras vermelhas hoje como um requisito para todos os carros em nossas vias públicas.

Por exemplo, um motorista comum descendo a rua do seu bairro teria que garantir que um adulto acenando uma bandeira vermelha estivesse presente e desfilasse na frente do carro em movimento. Isso teria que acontecer para cada veículo que passa pela sua rua. Talvez as pessoas se tornassem intermediários de bandeira vermelha que alugavam para motoristas de carro que passavam que de outra forma não tinham um amigo ou parente que pudesse ir na frente deles e fazer a ação de acenar estipulada.

Hoje em dia, tendemos a associar o aceno de bandeira vermelha relacionado a rodovias com canteiros de obras de rodovias. À medida que você se aproxima de uma estrada escavada, os trabalhadores estarão segurando uma bandeira vermelha para chamar sua atenção. Isso lhe diz para desacelerar e estar em alerta. Pode haver uma escavadeira que vai se aproximar do seu caminho. Um buraco gigante pode estar à frente e você precisará atravessá-lo com cautela.

Mas voltemos ao uso de bandeiras vermelhas em 1800.

Acredite ou não, o sinal da bandeira vermelha deveria estar pelo menos um oitavo de milha à frente da próxima máquina motorizada. Isso parece uma distância bastante longa. Supõe-se, porém, que isso fazia muito sentido naqueles dias. Os ruídos assustadores do motor e talvez a mera visão do veículo podem ser suficientes para deixar os animais enervados. Algumas das Leis da Bandeira Vermelha daquela época exigiam também que uma luz vermelha brilhante fosse mantida no alto durante a noite para que um aviso de precaução vermelho visualmente aparente pudesse ser visto a uma distância escura.

Em geral, acho justo afirmar que nós, como sociedade, tendemos a associar uma bandeira vermelha como uma espécie de sinal ou sinalização de que algo está potencialmente errado ou pelo menos precisa de nossa atenção devota.

Prepare-se para uma reviravolta neste fenômeno de bandeira vermelha.

Há uma alegação de que devemos exigir disposições de bandeira vermelha quando se trata de Inteligência Artificial (IA).

Isso é um pouco surpreendente e um conceito surpreendente que deixa muitas cabeças coçando. Você pode estar confuso sobre como ou por que deveria haver os chamados Leis de IA de bandeira vermelha. Por favor, note que estou rotulando isso como leis de IA de bandeira vermelha para diferenciar o assunto das leis de trânsito de bandeira vermelha (como as do final de 1800) e também para separá-las das outras leis de armas de bandeira vermelha mais prevalentes de hoje.

Nós realmente precisamos de leis de IA de bandeira vermelha que sejam distinta e exclusivamente orientadas para questões de IA?

Aqueles que defendem a abordagem proposta insistiriam que precisamos absolutamente de disposições legais que ajudem a reprimir a IA que contém preconceitos indevidos e atua de maneira discriminatória. No momento, a construção e a implantação da IA ​​são semelhantes a uma circunstância de vale tudo no Velho Oeste. Os esforços para conter a IA ruim atualmente dependem da formulação e adoção das diretrizes de Ética da IA. Para minha cobertura contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Leis que enquadram a IA ruim estão sendo lentamente concebidas e promulgadas, veja minha cobertura em o link aqui. Alguns temem que os legisladores não estejam indo rápido o suficiente. Parece que as comportas de permitir que a IA tendenciosa seja promovida no mundo estão amplamente abertas agora. A torção de mãos diz que, quando novas leis entrarem nos livros, o gênio do mal já estará fora da garrafa.

Não tão rápido, os contra-argumentos vão. As preocupações são que, se as leis forem implementadas muito rapidamente, mataremos o ganso de ouro, por assim dizer, pelo qual os esforços de IA secarão e não obteremos os benefícios de aumento social dos novos sistemas de IA. Desenvolvedores de IA e empresas que desejam usar IA podem se assustar se uma série bizantina de novas leis que governam a IA forem implementadas de repente nos níveis federal, estadual e local, sem mencionar as leis internacionais relacionadas à IA que também estão avançando.

Nesse caso confuso, vem a chamada para as Leis de IA da Bandeira Vermelha.

Antes de entrar um pouco mais sobre as considerações selvagens e confusas subjacentes à Lei de IA da Bandeira Vermelha, vamos estabelecer alguns fundamentos adicionais sobre tópicos profundamente essenciais. Precisamos mergulhar brevemente na Ética da IA ​​e especialmente no advento do Machine Learning (ML) e Deep Learning (DL).

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, vamos explorar o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos voltar ao nosso foco nas leis de IA da bandeira vermelha.

O conceito subjacente é que as pessoas seriam capazes de levantar uma bandeira vermelha sempre que acreditassem que um sistema de IA estava operando de maneira indevidamente tendenciosa ou discriminatória. Você não estaria levantando uma bandeira física em si e, em vez disso, estaria simplesmente usando alguns meios eletrônicos para divulgar suas preocupações. A parte da bandeira vermelha do esquema ou abordagem é mais uma metáfora do que uma incorporação física.

Finja que você estava solicitando um empréstimo à habitação. Você opta por usar um serviço bancário online para solicitar um empréstimo. Depois de inserir alguns dados pessoais, você espera momentaneamente que o sistema de IA que está sendo usado para decidir se você é digno ou não de empréstimo. A IA diz que você foi recusado para o empréstimo. Ao solicitar uma explicação de por que você foi rejeitado, a narrativa textual parece sugerir a você que a IA estava usando fatores tendenciosos indevidos como parte do algoritmo de tomada de decisão.

Hora de levantar uma bandeira vermelha sobre a IA.

Onde exatamente esta bandeira vermelha estará acenando?

Essa é uma pergunta de um milhão de dólares.

Um ponto de vista é que devemos criar um banco de dados nacional que permita que as pessoas marquem suas bandeiras vermelhas relevantes para a IA. Alguns dizem que isso deveria ser regulamentado pelo governo federal. As agências federais seriam responsáveis ​​por examinar as bandeiras vermelhas e ajudar o público em geral quanto à veracidade e lidar com presumivelmente “má IA” que alimentou os registros de relatórios de bandeira vermelha.

Uma lei nacional de IA de bandeira vermelha aparentemente seria estabelecida pelo Congresso. A lei explicaria o que é uma bandeira vermelha pertinente à IA. A lei descreveria como essas bandeiras vermelhas da IA ​​são levantadas. E assim por diante. Também pode ser o caso de estados individuais também optarem por criar suas próprias leis de IA de bandeira vermelha. Talvez eles o façam em vez de uma iniciativa nacional, ou o façam para amplificar particularidades que sejam especialmente atraentes para seu estado específico.

Críticos de um programa federal ou de qualquer programa de IA da Red Flag apoiado pelo governo argumentam que isso é algo que a indústria privada pode fazer e que não precisamos do Big Brother para vir à tona. A indústria pode estabelecer um repositório online no qual as pessoas possam registrar alertas sobre sistemas de IA. Uma ação de autopoliciamento da indústria resolveria suficientemente essas questões.

Um escrúpulo sobre a suposta abordagem da indústria é que ela parece cheirar a compadrio. As empresas estariam dispostas a obedecer a algum banco de dados privado da Red Flag AI? Muitas empresas potencialmente ignorariam as bandeiras vermelhas marcadas sobre sua IA. Não haveria dentes afiados para fazer com que as empresas lidassem com as bandeiras vermelhas inseridas.

Ei, os proponentes da abordagem do setor privado soam errados, isso seria semelhante ao serviço nacional do Yelp. Os consumidores podem olhar para as bandeiras vermelhas e decidir por si mesmos se querem fazer negócios com empresas que acumularam uma série de bandeiras vermelhas orientadas à IA. Um banco que estava recebendo toneladas de alertas sobre sua IA teria que prestar atenção e renovar seus sistemas de IA, então a lógica continua, caso contrário os consumidores evitariam a empresa como uma praga.

Se toda essa abordagem é realizada pelo governo ou pela indústria é apenas a ponta do iceberg em questões espinhosas que enfrentam o postulado proposto das Leis de IA da Bandeira Vermelha.

Coloque-se no lugar de uma empresa que desenvolveu ou está usando IA. Pode ser que os consumidores levantem bandeiras vermelhas, mesmo que não haja uma base viável para fazê-lo. Se as pessoas pudessem postar livremente uma bandeira vermelha sobre a IA, elas poderiam ser tentadas a fazê-lo por capricho, ou talvez por vingança contra uma empresa que de outra forma não fez nada de errado com o consumidor.

Em suma, pode haver muitas bandeiras vermelhas falso-positivas sobre a IA.

Outra consideração é o enorme tamanho ou magnitude das bandeiras vermelhas resultantes. Poderia facilmente haver milhões e milhões de bandeiras vermelhas levantadas. Quem vai acompanhar todas essas bandeiras vermelhas? Qual seria o custo para fazê-lo? Quem pagará pelos esforços de acompanhamento da bandeira vermelha? etc.

Se você disser que qualquer pessoa que registre ou denuncie uma bandeira vermelha sobre IA tem que pagar uma taxa, você entrou em um reino obscuro e insidioso. A preocupação seria que apenas os ricos pudessem se dar ao luxo de levantar bandeiras vermelhas. Isso, por sua vez, implica que os empobrecidos não seriam capazes de participar igualmente das atividades de bandeira vermelha e, essencialmente, não teriam local para alertar sobre IA adversa.

Apenas mais uma reviravolta por enquanto, a saber, que esse tipo de lei de bandeira vermelha ou diretrizes sobre IA parece ser posterior ao fato, em vez de servir como um aviso prévio.

Voltando às Leis de Trânsito da Bandeira Vermelha, a ênfase de usar uma bandeira vermelha era evitar uma calamidade para começar. O aceno de bandeira vermelha deveria estar muito à frente do próximo carro. Por estar à frente do veículo, o gado seria alertado e aqueles que guardavam o gado saberiam que deveriam tomar precauções devido à fonte perturbadora que logo chegaria.

Se as pessoas só conseguem levantar uma bandeira vermelha sobre a IA que aparentemente já prejudicou ou minou seus direitos, o cavalo proverbial já está fora do celeiro. Tudo o que isso parece realizar é que, esperançosamente, outras pessoas que venham agora saibam que devem ser cautelosas com esse sistema de IA. Enquanto isso, a pessoa supostamente injustiçada já sofreu.

Alguns sugerem que talvez possamos permitir que as pessoas levantem bandeiras vermelhas sobre a IA que eles suspeito podem ser tendenciosos, mesmo que não tenham usado a IA e não tenham sido diretamente afetados pela IA. Assim, a bandeira vermelha é acenada antes que o dano seja feito.

Caramba, vai a réplica, você vai realmente transformar as bandeiras vermelhas de lidar com a IA em um assunto totalmente incontrolável e caótico. Se alguém, por qualquer motivo, puder levantar uma bandeira vermelha sobre um sistema de IA, apesar de não ter feito nada com essa IA, você será inundado com bandeiras vermelhas. Pior ainda, você não será capaz de discernir o joio do trigo. Toda a abordagem de bandeira vermelha entrará em colapso sob seu próprio peso, derrubando a bondade da ideia, permitindo que destroços e ralé afundassem todo o navio.

Vertiginoso e confuso.

Neste momento desta discussão pesada, eu aposto que você está desejoso de alguns exemplos ilustrativos que possam mostrar este tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre as Leis de IA da Red Flag e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e leis de IA de bandeira vermelha

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Vamos esboçar um cenário que pode alavancar uma Red Flag AI Law.

Você entra em um carro autônomo baseado em IA e deseja que o veículo autônomo o leve ao supermercado local. Durante a viagem relativamente breve, a IA toma uma rota que parece um pouco errada. Em vez de seguir o caminho mais direto, a IA navega para ruas fora do caminho, o que faz com que o tempo de condução seja maior do que normalmente poderia ser.

O que está acontecendo?

Supondo que você esteja pagando pelo uso do carro autônomo, você pode suspeitar que a IA foi programada para dirigir uma rota mais longa para tentar aumentar a tarifa ou o custo da viagem. Qualquer um que já tenha pegado um táxi convencional com tração humana conhece os truques que podem ocorrer para colocar mais dinheiro no taxímetro. É claro que, com pessoas com GPS em seus smartphones enquanto andam de táxi ou equivalente, você pode facilmente pegar um motorista humano que parece estar fazendo rotas desnecessariamente longas e sorrateiramente.

Acontece que você tem outra preocupação com a escolha da rota, algo que realmente te atormenta.

Suponha que o roteamento tenha sido feito para evitar certas partes da cidade devido a facetas raciais. Existem casos documentados de motoristas humanos que foram pegos fazendo esse tipo de escolha, veja minha discussão em o link aqui. Talvez a IA tenha sido programada de forma adversa.

Você decide levantar uma bandeira vermelha.

Vamos supor, para fins de discussão, que foi promulgada uma Lei Red Flag AI que abrange sua jurisdição. Pode ser lei local, lei estadual, lei federal ou internacional. Para uma análise que eu escrevi com a Iniciativa de Política de Veículos Autônomos de Harvard (AVPI) sobre a crescente importância da liderança local quando as comunidades adotam o uso de carros autônomos, veja o link aqui.

Então, você acessa um banco de dados de IA do Red Flag online. No banco de dados de incidentes, você insere as informações sobre a viagem de carro autônomo. Isso inclui a data e hora da jornada de condução, juntamente com a marca e o modelo do carro autônomo. Você então entra na rota de navegação que parecia suspeita e está sugerindo ou talvez alegando abertamente que a IA foi concebida com intenções e capacidades tendenciosas ou discriminatórias.

Teríamos que especular sobre os outros detalhes da Lei de IA da Bandeira Vermelha sobre o que acontece a seguir neste cenário específico. Em teoria, haveria uma provisão para alguém revisar a bandeira vermelha. Eles provavelmente tentariam fazer com que a montadora ou empresa de tecnologia de direção autônoma explicasse seu ponto de vista sobre a bandeira vermelha registrada. Quantas outras bandeiras vermelhas foram registradas? Que resultados essas bandeiras vermelhas produziram?

E assim por diante iria.

Conclusão

Absurdo, alguns céticos exortam.

Não precisamos das leis de IA da bandeira vermelha, elas exercem severamente. Fazer qualquer coisa desse tipo atrapalhará os trabalhos quando se trata do ritmo e do progresso da IA. Quaisquer leis desse tipo seriam difíceis de manejar. Você estaria criando um problema que não resolve um problema. Existem outras maneiras de lidar com a IA que são ruins. Não agarre cegamente os canudos para lidar com a IA tendenciosa.

Mudando de marcha, todos sabemos que os toureiros usam capas vermelhas para, aparentemente, atrair a atenção do touro bravo. Embora o vermelho seja a cor que mais associamos a essa prática, você pode se surpreender ao saber que os cientistas dizem que os touros não percebem a cor vermelha da muleta (eles são daltônicos para o vermelho). O espetáculo popular MythBusters fez um exame bastante divertido sobre este assunto. O movimento da capa é o elemento chave e não a cor escolhida.

Para aqueles que deixam de lado a necessidade de leis de IA de bandeira vermelha, uma reconvenção é que precisamos de uma natureza ondulante dramática e inconfundível para garantir que os desenvolvedores de IA e as empresas que implantam IA evitem IA tendenciosa ou ruim. Se não fosse por uma bandeira vermelha, talvez uma capa esvoaçante ou basicamente qualquer tipo de abordagem de alerta poderia estar dentro do reino da devida consideração.

Sabemos com certeza que existe uma IA ruim e que muito mais IA ruim virá em nossa direção. Encontrar maneiras de nos proteger da IA ​​adversa é crucial. Da mesma forma, definir barreiras para tentar impedir que a IA ruim entre no mundo é igualmente importante.

Ernest Hemingway afirmou que ninguém vive a vida toda, exceto os toureiros. Precisamos ter certeza de que os humanos possam viver sua vida até o fim, apesar de qualquer maldade ou loucura da IA ​​que seja promulgada sobre nós.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- algoritmos tendenciosos em sistemas autónomos/