Ética da IA ​​se irritando com a crescente síndrome da batata quente sendo empregada por fabricantes de IA aparentemente tentando evitar a responsabilidade por seus sistemas autônomos que decidem a vida

Todos nós sabemos que você deve se certificar de não acabar com a proverbial batata quente.

A aposta da batata quente parece traçar suas raízes pelo menos no final dos anos 1800, quando um jogo de salão envolvendo velas acesas meio que fez a bola rolar. As pessoas normalmente se sentavam em uma série de cadeiras de madeira que eram relativamente adjacentes umas às outras e jogavam um jogo totalmente empolgante naquela época. Uma vela acesa seria entregue de pessoa a pessoa pelos jogadores e representava o que, mais tarde, optamos por dizer como entregar um batata quente.

Era costume que cada pessoa fosse obrigada a falar em voz alta uma rima popular antes de poder passar adiante a vela que queimava progressivamente. A rima aparentemente foi assim:

“Jack está vivo e provavelmente viverá;

Se ele morrer em sua mão, você tem uma perda para dar.”

Este recital de rimas presumivelmente permitiria que a vela continuasse queimando até sua conclusão final. Quem ficou preso com a vela em sua posse após a extinção natural no final foi a pessoa que perdeu a partida (trocadilho!).

De acordo com as palavras indicadas na rima, o perdedor tinha que pagar a “perda” e, portanto, geralmente tinha que sair de qualquer rodada adicional do jogo. Isso pode então ser combinado com o que hoje consideramos como cadeiras musicais cotidianas, de modo que a pessoa que perdeu a rodada não participe mais das rodadas subsequentes (como se a música parasse e eles não conseguissem obter um assento disponível). No final, sobrariam apenas duas pessoas que passavam a vela acesa e diziam a rima, até que um vencedor final fosse determinado na extinção final.

Você pode estar se perguntando por que não jogamos mais este jogo com uma vela acesa e por que normalmente nos referimos a isso como uma batata quente, em vez de descrever isso como um esquema de “vela acesa”. Os pesquisadores criaram muitas teorias sobre como isso aconteceu gradualmente. A história parece nebulosa e indecisa sobre como as coisas evoluíram nessa questão. Suponho que podemos ficar aliviados com o fato de que as velas acesas não são comumente usadas assim, pois as chances de algo dar errado palpavelmente parecem muito preocupantes (alguém deixa cair a vela e acende o fogo, ou alguém se queima pela vela ao ser entregue de outro jogador, etc.).

Em termos da batata quente como um substituto potencial para a vela acesa, você geralmente pode argumentar que a batata será um pouco mais segura no geral. Nenhuma chama aberta. Sem cera derretida. A base potencial para o uso de batatas neste contexto é que elas são conhecidas por reter facilmente o calor depois de aquecidas. Você pode passar a batata e ela permanecerá quente por um tempo. Supõe-se que decidir quando a batata quente não está mais quente e, em vez disso, é classificada como fria seria uma proposta acaloradamente discutível.

Claro, a noção de uma proverbial batata quente é mais uma consideração independente nos dias de hoje. Qualquer coisa que seja classificada ou classificada como uma batata quente geralmente é uma qualidade seriamente descartada. Você não quer estar segurando uma batata quente. Você quer ter certeza de que vai para outro lugar. Até certo ponto, você pode não estar muito preocupado com o destino, simplesmente porque não está mais em sua posse.

Você pareceria bastante insensível ao entregar uma batata quente a um amigo querido ou conhecido semelhante. Isso pareceria totalmente fora de ordem. Talvez encontre outra pessoa ou outro lugar para colocar aquela batata quente, se puder. Um movimento desesperado pode ser forçar a batata quente em um colega afável, mas isso só é feito como último recurso.

O outro lado dessa moeda é que você pode se deliciar em entregar uma batata quente a alguém de quem não gosta ou de quem está buscando vingança. Claro, uma batata quente pode ser quase gloriosamente útil se você pretende minar uma pessoa que o tratou mal. Deixe-os descobrir o que fazer com a batata quente. Boa viagem para a batata e pior sorte para a pessoa com quem você a marcou.

Em um cenário de batata quente envolvendo apenas duas pessoas, existe a possibilidade de uma rápida disputa sobre qual pessoa está segurando o item desagradável e indesejado. Por exemplo, eu entrego a batata quente para você e você a devolve às pressas para mim. Assumindo que não precisamos anunciar uma canção de ninar entre cada entrega, podemos simplesmente passar a batata tão rápido quanto nossos braços nos permitem fazê-lo.

Você pode estar curioso para saber por que optei por mergulhar fundo na reverenciada e frequentemente citada batata quente.

Aqui está o porquê.

Acontece que o disfarce de batata quente está sendo cada vez mais usado no campo da Inteligência Artificial (IA).

A maioria das pessoas não sabe nada sobre isso. Eles nunca ouviram falar disso. Eles desconhecem completamente o que é. Mesmo muitos desenvolvedores de IA não estão cientes do assunto. No entanto, ele existe e parece estar sendo usado em ambientes realmente questionáveis, especialmente casos envolvendo circunstâncias de vida ou morte.

Eu me refiro a isso como o AI Síndrome da Batata Quente.

Há muitas repercussões sérias subjacentes a essa síndrome e precisamos ter certeza de que colocamos nossos limites de pensamento de Ética em IA e consideramos o que deve ser feito. Há sérias considerações éticas. Deve haver implicações legais notáveis ​​também (que ainda não alcançaram visibilidade social, embora eu preveja que em breve chegarão). Para minha cobertura contínua e extensa de questões de ética em IA, IA ética e IA legal, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Vamos descompactar o Síndrome da Batata Quente AI.

Imagine um sistema de IA que está trabalhando em conjunto com um humano. A IA e o humano estão passando o controle de alguma atividade em andamento, de modo que às vezes o humano está no controle, enquanto outras vezes a IA está no controle. A princípio, isso pode ser feito de uma maneira, digamos, bem-educada ou razoável. Por várias razões, das quais entraremos em breve, a IA pode verificar computacionalmente que o controle precisa ser rapidamente passado para o humano.

Este é o batata quente que vem a pôr em perigo a vida no mundo real, em vez de servir apenas como um jogo infantil instrutivo.

O problema com uma passagem apressada do controle da IA ​​para o humano é que isso pode ser feito de maneira razoável ou pode ser realizado de maneira bastante irracional. Se o humano não estiver particularmente esperando a entrega, isso provavelmente é um problema. Se o humano geralmente está bem com a passagem do controle, as circunstâncias subjacentes à transferência podem ser assustadoras quando o humano recebe tempo insuficiente ou consciência insuficiente do motivo pelo qual o controle está sendo forçado a ser colocado em suas mãos humanas.

Vamos explorar exemplos de como isso pode produzir perigo de vida ou morte para o ser humano e possivelmente para outros humanos próximos. É coisa séria. Ponto final, ponto final.

Antes de entrar em um pouco mais das facetas carnudas das considerações selvagens e lanosas subjacentes ao Síndrome da Batata Quente AI, vamos apresentar alguns fundamentos adicionais sobre tópicos profundamente essenciais. Precisamos mergulhar brevemente na Ética da IA ​​e especialmente no advento do Machine Learning (ML) e Deep Learning (DL).

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, vamos explorar o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos voltar ao nosso foco na batata quente e seu uso potencialmente desastroso na IA. Há também uma maldade que pode espreitar dentro do estratagema da batata quente também.

Como uma rápida recapitulação sobre a manifestação da IA ​​do gambito da batata quente:

  • A IA e um humano no circuito estão trabalhando em conjunto em uma determinada tarefa
  • A IA tem controle algumas vezes
  • O humano-in-the-loop tem controle algumas vezes
  • Existe alguma forma de protocolo de transferência entre a IA e o humano
  • A transferência pode ser altamente visível ou pode ser sutil e quase oculta
  • Isso tudo geralmente é dentro de um contexto em tempo real (algo ativamente está em andamento)

O foco principal aqui é quando a transferência é essencialmente uma batata quente e a IA opta de repente por entregar o controle ao humano. Observe que, mais adiante, também abordarei a outra faceta, ou seja, a entrega do controle humano à IA como uma batata quente.

Primeiro, considere o que pode acontecer quando a IA faz uma transferência de batata quente para um humano no circuito.

Vou me referir ao humano como o humano no circuito porque estou dizendo que o humano já é parte integrante da atividade de trabalho em andamento. Poderíamos ter outros cenários em que um humano que não estava especialmente envolvido na atividade, talvez um estranho em todo o assunto, recebe a batata quente pela IA, então tenha em mente que existem outros sabores desse meio.

Se eu estivesse lhe entregando uma batata quente e quisesse fazê-lo de maneira razoável, talvez eu o alertasse de que vou entregar as coisas para você. Além disso, eu tentaria fazer isso se acreditasse genuinamente que você possuir a batata quente era melhor do que eu tê-la. Eu calcularia mentalmente se você deveria tê-lo ou se eu deveria continuar com ele.

Imagine um jogo de basquete. Você e eu estamos no mesmo time. Esperamos trabalhar juntos para tentar vencer o jogo. Faltam apenas alguns segundos no cronômetro e precisamos desesperadamente marcar, caso contrário perderemos o jogo. Eu me posiciono para dar o último tiro. Devo fazê-lo, ou devo passar a bola para você e fazer você dar a última tacada?

Se eu for um jogador de basquete melhor e tiver uma chance maior de acertar o arremesso, provavelmente deveria ficar com a bola e tentar fazer o arremesso. Se você é um jogador de basquete melhor do que eu, eu provavelmente deveria passar a bola para você e deixar você arremessar. Outras considerações vêm à tona, como qual de nós está em melhor posição na quadra para arremessar, além de se um de nós está exausto já que o jogo está quase no fim e pode estar desgastado e não está à altura seus tiros. etc.

Com todos esses fatores em meio a um momento angustiante, preciso decidir entre ficar com a bola ou passá-la para você.

Perceba que neste cenário o relógio é crucial. Você e eu somos confrontados com uma resposta extremamente oportuna. Todo o jogo está agora em jogo. Quando o tempo acabar, ou ganhamos porque um de nós fez o arremesso, ou perdemos porque não o afundamos. Talvez eu possa ser o herói se eu afundar a cesta. Ou você pode ser o herói se eu passar a bola para você e você afundar.

Há o lado da cabra ou desvantagens disso também. Se eu ficar com a bola e errar o arremesso, todo mundo pode me acusar de ser a cabra ou decepcionar todo o time. Por outro lado, se eu passar a bola para você e você errar o arremesso, bem, você se torna o bode. Isso pode ser totalmente injusto com você, pois eu o forcei a ser o último atirador e dar o último tiro.

Você definitivamente saberia que eu coloquei você nessa posição desanimadora. E embora todos possam me ver fazendo isso, eles são obrigados a se concentrar apenas na última pessoa que teve a bola. Eu possivelmente andaria de skate livre. Ninguém se lembraria que eu te passei a bola no último momento. Eles só iriam lembrar que você tinha a bola e perdeu o jogo porque você não fez o arremesso.

Ok, então eu passo a bola para você.

Por que eu fiz isso?

Não há uma maneira fácil de determinar isso.

Minhas verdadeiras intenções podem ser que eu não queria ficar preso sendo o bode, então optei por colocar toda a pressão em você. Quando perguntado por que passei a bola, eu poderia afirmar que o fiz porque pensei que você é um arremessador melhor do que eu (mas, vamos fingir que não acredito nisso). Ou pensei que você estava em uma posição melhor do que eu (vamos fingir que eu também não achava isso). Ninguém jamais saberia que eu estava apenas tentando evitar ficar preso com a batata quente.

Do ponto de vista externo das coisas, ninguém poderia discernir prontamente minha verdadeira razão para passar a bola para você. Talvez eu tenha feito isso inocentemente porque acreditei que você era o melhor jogador. Esse é um ângulo. Talvez eu tenha feito isso porque não queria que todos me chamassem de perdedor por possivelmente errar o arremesso, então peguei a bola para você e percebi que foi um grande alívio para mim. Se eu realmente me importava com você é uma questão completamente diferente.

Agora podemos adicionar mais alguns detalhes à batata quente relacionada à IA:

  • A IA opta por dar controle ao humano no circuito no último momento
  • O último momento pode já estar muito além de qualquer ação humana viável
  • O humano no circuito tem o controle, mas de forma um tanto falsa devido ao tempo de entrega

Medite sobre isso por um momento.

Suponha que um sistema de IA e um humano no circuito estejam trabalhando juntos em uma tarefa em tempo real que envolve a execução de uma máquina em grande escala em uma fábrica. A IA detecta que o maquinário está dando errado. Em vez de a IA continuar a manter o controle, a IA abruptamente entrega o controle ao humano. A maquinaria nesta fábrica está indo rapidamente para o caos puro e não há tempo para o humano tomar medidas corretivas.

A IA entregou a batata quente ao humano no circuito e enfiou o humano com a verdadeira batata quente, de modo que as circunstâncias não são mais humanamente possíveis de lidar. Tag, você é isso, segue a velha linha ao jogar jogos de tag quando criança. O humano é, digamos, marcado com a bagunça.

Assim como meu exemplo sobre o jogo de basquete.

Por que a IA fez a transferência?

Bem, diferentemente de quando um humano entrega abruptamente uma bola de basquete e depois faz um aceno selvagem sobre por que o fez, geralmente podemos examinar a programação da IA ​​e descobrir o que levou a IA a fazer esse tipo de transferência de batata quente.

Um desenvolvedor de IA pode ter decidido de antemão que, quando a IA entra em uma situação muito ruim, a IA deve continuar a dar controle ao humano no circuito. Isso parece perfeitamente sensato e razoável. O humano pode ser “o melhor jogador” em campo. Os seres humanos podem usar suas capacidades cognitivas para potencialmente resolver qualquer problema que esteja à mão. A IA possivelmente atingiu os limites de sua programação e não há mais nada construtivo que ela possa fazer na situação.

Se a IA tivesse feito a transferência faltando um minuto antes que a maquinaria ficasse kablam, talvez um minuto de heads-up seja tempo suficiente para que o humano no circuito possa corrigir as coisas. Suponha, porém, que a IA tenha feito o handover com três segundos restantes. Você acha que um humano poderia reagir nesse período de tempo? Improvável. De qualquer forma, apenas para tornar as coisas ainda menos confusas, suponha que a transferência para o humano-no-loop ocorreu com alguns nanossegundos restantes (um nanossegundo é um bilionésimo de segundo, o que, em comparação, um piscar rápido de o olho é lento de 300 milissegundos).

Um humano no circuito poderia reagir suficientemente se a IA entregasse a batata quente com meras frações de segundos para tomar qualquer ação aberta?

Não.

A transferência é mais falsidade do que poderia parecer.

Na realidade, a transferência não fará nenhum bem quando se trata da terrível situação. A IA fez com que o humano se tornasse o bode.

Alguns desenvolvedores de IA não pensam nisso quando criam sua IA. Eles (erroneamente) felizmente não levam em conta que o tempo é um fator crucial. Tudo o que eles fazem é optar por programar uma transferência quando as coisas ficam difíceis. Quando não houver mais nada para a IA fazer construtivamente, jogue a bola para o jogador humano.

Os desenvolvedores de IA podem deixar de pensar nisso no momento de codificar a IA e, muitas vezes, falham duas vezes ao não fazer testes que trazem isso à tona. Tudo o que seus testes mostram é que a IA “obedientemente” fez uma transferência quando os limites da IA ​​foram atingidos. Voila, presume-se que a IA seja boa e pronta para ser usada. O teste não incluiu um humano real que foi colocado nessa posição nada invejável e impossível. Não havia um processo adequado de teste humano no circuito que pudesse ter protestado que essa transferência de um piscar de olhos no último momento, ou mesmo após o último momento, fez pouco ou nada de bom.

É claro que alguns desenvolvedores de IA terão considerado com astúcia esse tipo de situação, com sabedoria.

Depois de refletir sobre o enigma, eles continuarão a programar a IA para agir dessa maneira, de qualquer maneira.

Por quê?

Porque não há mais nada a fazer, pelo menos em sua mente. Quando tudo mais falhar, passe o controle para o humano. Talvez um milagre ocorra. A essência, porém, é que isso não é uma preocupação para o desenvolvedor de IA, e eles estão dando ao humano a última chance de lidar com a bagunça em mãos. O desenvolvedor de IA lava as mãos de tudo o que acontece depois.

Quero esclarecer que os desenvolvedores de IA não são os únicos criadores desses designs de batata quente. Há uma série de outras partes interessadas que vêm à mesa para isso. Talvez um analista de sistemas que fez as especificações e análise de requisitos tenha declarado que é isso que a IA deve fazer. Os desenvolvedores de IA envolvidos criaram a IA de acordo. O gerente de projeto de IA pode ter inventado isso. Os executivos e a gerência que supervisionam o desenvolvimento da IA ​​podem ter inventado isso.

Todos ao longo de todo o ciclo de vida de desenvolvimento da IA ​​podem ter levado adiante esse mesmo design da batata quente. Se alguém notou isso, não podemos dizer com certeza. Se eles notassem, aqueles poderiam ter sido rotulados como opositores e deixados de lado. Outros podem ter chamado a atenção para o assunto, mas não compreenderam as repercussões. Eles sentiram que era uma minúcia técnica que não estava dentro de seu escopo.

Acrescentarei a esta lista informal de “razões” uma possibilidade muito mais nefasta.

Uma síndrome da batata quente da IA ​​às vezes é empregada intencionalmente porque aqueles que fazem a IA queriam ter sua reivindicação apaixonada de negação plausível.

Prepare-se para esta parte da história.

No caso do maquinário da fábrica que dá errado, é provável que haja muitas acusações sobre quem é o responsável pelo que aconteceu. Em termos de operação do maquinário, tínhamos um sistema de IA fazendo isso e um humano no circuito. Estes são nossos dois jogadores de basquete, metaforicamente.

O relógio estava acabando e o maquinário estava prestes a entrar em colapso. Digamos que você e eu sabemos que a IA fez uma transferência para o humano no circuito, fazendo isso com tempo insuficiente para o humano tomar qualquer ação suficiente para corrigir ou evitar o desastre. Ninguém mais percebe que foi isso que aconteceu.

A empresa que faz a IA pode, em qualquer caso, declarar imediatamente que não é culpada porque o humano tinha o controle. De acordo com seus registros impecáveis, a IA não estava no controle na época do kaboom. O humano era. Portanto, claramente, é patentemente óbvio que um humano é o culpado.

A empresa de IA está basicamente mentindo ao fazer essa afirmação franca?

Não, eles parecem estar dizendo a verdade.

Quando perguntados se eles têm certeza de que a IA não está no controle, a empresa proclama em alto e bom som que a IA não está no controle. Eles documentaram a prova dessa afirmação (assumindo que a IA manteve um registro do incidente). Na verdade, os executivos da empresa de IA podem levantar as sobrancelhas em desgosto por alguém desafiar sua integridade nesse ponto. Eles estariam dispostos a jurar em seu juramento sagrado que a IA estava não no controle. O humano-in-the-loop tinha o controle.

Espero que você veja como isso pode ser enganoso.

Sim, o humano recebeu o controle. Em teoria, o humano estava no controle. A IA não estava mais no controle. Mas a falta de tempo e notificação disponíveis torna essa afirmação extremamente vazia.

A beleza disso, do ponto de vista do fabricante de IA, seria que poucos poderiam contestar as alegações oferecidas. O fabricante de IA pode não liberar os logs do incidente. Fazer isso poderia revelar a situação manipulada. Os logs são argumentados como sendo de Propriedade Intelectual (IP) ou de outra natureza de natureza proprietária e confidencial. A empresa provavelmente argumentaria que, se os logs fossem mostrados, isso mostraria o molho secreto de sua IA e esgotaria seu valor IP.

Imagine a situação do pobre humano no circuito. Eles estão perplexos porque todos os estão culpando por deixar as coisas saírem do controle. A IA “fez a coisa certa” e entregou o controle ao humano. Isso pode ter sido o que as especificações disseram para fazer (mais uma vez, porém, as especificações foram negligentes em não levar em conta os fatores de tempo e viabilidade). Os logs que não foram divulgados, mas que alegam ser blindados pelo fabricante da IA, atestam o fato absoluto de que o humano recebeu o controle da IA.

Você poderia declarar isso como um lamentável golpe no humano perplexo que quase certamente vai levar a queda.

As chances são de que somente se isso for para o tribunal a realidade do que aconteceu acabará sendo revelada. Se os beagles legais astutos estiverem cientes desse tipo de show, eles tentarão obter legalmente os logs. Eles precisariam de uma testemunha especializada (algo que eu fazia de tempos em tempos) para decifrar os registros. Os logs sozinhos podem não ser suficientes. Os logs podem ser adulterados ou alterados, ou criados propositadamente para não mostrar os detalhes com clareza. Como tal, o código de IA pode precisar ser aprofundado também.

Enquanto isso, durante todo esse processo agonizante e demorado de descoberta legal, o humano no circuito ficaria muito ruim. A mídia pintaria a pessoa como irresponsável, perderia a cabeça, não foi diligente e deveria ser totalmente responsabilizada. Possivelmente por meses ou anos, durante esse processo, essa pessoa ainda seria aquela para quem todos apontavam o dedo acusador. O fedor pode nunca ser removido.

Tenha em mente também que esta mesma circunstância pode facilmente acontecer novamente. E de novo. Supondo que o fabricante de IA não alterou a IA, sempre que surgir uma situação semelhante de última hora, a IA fará essa transferência sem tempo restante. Seria de esperar que essas situações não estivessem acontecendo com frequência. Nas raras ocasiões em que isso ocorre, o humano no circuito ainda é o bode expiatório conveniente.

É um truque diabólico.

Você pode querer insistir que o fabricante de IA não fez nada de errado. Eles estão dizendo a verdade. A IA desistiu do controle. O humano foi então considerado no controle. Esses são os fatos. Não há sentido em contestá-lo.

Se alguém sabe e faz as perguntas difíceis, além de se o fabricante de IA responde a essas perguntas de maneira direta, isso é algo que parece raramente acontecer.

As perguntas incluem:

  • Quando a IA fez a transferência para o humano no circuito?
  • Em que base programada a IA fez a transferência?
  • O humano no circuito teve tempo suficiente para assumir o controle?
  • Como a IA foi projetada e concebida para esses dilemas?
  • E assim por diante.

Até certo ponto, é por isso que a ética da IA ​​e a IA ética são um tópico tão crucial. Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de ética em IA e fazê-lo integralmente no desenvolvimento e em campo da IA ​​é vital para produzir IA apropriada, incluindo (talvez surpreendentemente ou ironicamente) a avaliação de como a ética da IA ​​é adotada pelas empresas.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Na verdade, eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando a galinha dos ovos de ouro ao reprimir os avanços da IA ​​que oferecem imensas vantagens sociais.

Neste momento desta discussão pesada, eu aposto que você deseja alguns exemplos ilustrativos adicionais que possam mostrar este tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre a Síndrome da Batata Quente da IA ​​e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e síndrome da batata-quente IA

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Para veículos totalmente autônomos, pode não haver nenhuma chance de ocorrer uma transferência entre a IA e um humano, devido à possibilidade de não haver nenhum humano no circuito para começar. A aspiração de muitos fabricantes de carros autônomos de hoje é remover completamente o motorista humano da tarefa de dirigir. O veículo nem conterá controles de direção acessíveis a humanos. Nesse caso, um motorista humano, se presente, não poderá participar da tarefa de direção, pois não tem acesso a nenhum controle de direção.

Para alguns veículos totalmente autônomos, alguns projetos ainda permitem que um humano esteja no circuito, embora o humano não precise estar disponível ou participar do processo de direção. Assim, um ser humano pode participar da condução, se a pessoa assim o desejar. Em nenhum momento, porém, a IA depende do humano para realizar qualquer uma das tarefas de direção.

No caso de veículos semi-autônomos, existe uma relação de mãos dadas entre o motorista humano e a IA. Para alguns projetos, o motorista humano pode assumir os controles de direção inteiramente e essencialmente impedir que a IA participe da direção. Se o motorista humano deseja restabelecer a IA no papel de motorista, ele pode fazê-lo, embora isso às vezes force o humano a abrir mão dos controles de direção.

Outra forma de operação semi-autônoma envolveria o motorista humano e a IA trabalhando juntos em equipe. A IA está dirigindo e o humano está dirigindo. Eles estão dirigindo juntos. A IA pode se submeter ao humano. O humano pode se submeter à IA.

Em algum momento, o sistema de direção de IA pode verificar computacionalmente que o carro autônomo está entrando em uma situação insustentável e que o veículo autônomo vai bater.

Como um aparte, alguns especialistas estão por aí alegando que os carros autônomos serão infalíveis, o que é pura bobagem e uma coisa ultrajante e equivocada de se dizer, veja minha cobertura em o link aqui.

Continuando o cenário de um carro autônomo em direção a uma colisão ou acidente de carro, o sistema de direção de IA pode ser programado para entregar sumariamente os controles de direção ao motorista humano. Se houver tempo suficiente disponível para o motorista humano tomar uma ação evasiva, isso de fato pode ser uma coisa sensata e adequada para a IA.

Mas suponha que a IA faça a transferência com uma fração de segundo restante. O tempo de reação do motorista humano não é rápido o suficiente para responder adequadamente. Além disso, se milagrosamente o humano foi rápido o suficiente, as chances são de que não haja ações evasivas viáveis ​​que possam ser realizadas com o tempo limitado restante antes do acidente. Esta é uma segunda diferença: (1) tempo insuficiente para o motorista humano agir, (2) tempo insuficiente para que, se a ação fosse possível pelo motorista humano, a ação poderia ser realizada na quantidade insuficiente de tempo fornecida.

Em suma, isso é semelhante à minha discussão anterior sobre a situação da campainha de basquete e a maquinaria da fábrica que enlouqueceu.

Vamos adicionar o ingrediente nefasto a isso.

Uma montadora ou empresa de tecnologia de direção autônoma não quer ser marcada por vários acidentes de carro que estão acontecendo em sua frota. O sistema de direção de IA está programado para sempre passar o controle para o motorista humano, independentemente de haver tempo suficiente para o motorista humano fazer algo sobre a situação. Sempre que ocorre um acidente de carro desse tipo, a montadora ou a empresa de tecnologia autônoma é capaz de insistir vocalmente que o motorista humano estava no controle, enquanto a IA não estava.

Seu histórico de sistemas de direção de IA parece ser estelar.

Nem uma vez o sistema de condução de IA é “culpado” por esses acidentes de carro. São sempre aqueles malditos motoristas humanos que parecem não manter os olhos na estrada. Podemos tender a engolir essa blasfêmia e acreditar que a IA totalmente precisa provavelmente nunca está errada. Podemos tender a acreditar (já que sabemos por experiência) que motoristas humanos são descuidados e cometem muitos erros de direção. A conclusão lógica é que os motoristas humanos devem ser os culpados, e o sistema de direção da IA ​​é totalmente inocente.

Antes que alguns defensores da direção autônoma fiquem chateados com essa caracterização, vamos reconhecer absolutamente que o motorista humano pode muito bem estar em falta e que eles deveriam ter tomado medidas mais cedo, como assumir os controles de direção da IA. Há também a chance de o motorista humano ter feito algo substancial quando a IA entregou os controles de direção. etc.

O foco aqui tem sido nas circunstâncias em que a IA foi considerada o motorista do veículo e, de repente, e com pouca atenção ao que um motorista humano pode fazer, joga a batata quente para o motorista humano. É também por isso que muitos estão preocupados com o duplo papel de condução dos veículos semiautônomos. Você pode dizer que há muitos motoristas ao volante. O objetivo, ao que parece, seria resolver a questão com veículos totalmente autônomos que não precisam de um humano ao volante e a IA está sempre dirigindo o veículo.

Isso traz à tona a questão aliada sobre o que ou quem é responsável quando a IA está dirigindo, que abordei muitas vezes em minhas colunas, como o link aqui e o link aqui.

Conclusão

Precisamos ter cuidado ao ouvir ou ler sobre acidentes de carro envolvendo veículos semiautônomos. Desconfie daqueles que tentam nos enganar, proclamando que seu sistema de direção de IA tem um histórico impecável. A manobra conivente do Síndrome da Batata Quente AI pode estar na mistura.

Para as empresas que tentam ser ardilosas nestes assuntos, talvez possamos manter em nossos corações a famosa frase de Abraham Lincoln: “Você pode enganar todas as pessoas por algum tempo e algumas pessoas o tempo todo, mas você não pode enganar todas as pessoas o tempo todo.”

Tentei revelar aqui a magia da IA ​​escondida atrás da tela e às vezes colocada sob o capô, que elucido para que mais pessoas não vai ser enganado mais do tempo.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- aparentemente-tentando-evitar-responsabilidade-por-sua-vida-decidindo-sistemas-autônomos/