A ética da IA ​​lutando com o inevitável dos acidentes de IA, que também paira sobre os carros autônomos

Você por acaso conhece alguém que parece ser particularmente propenso a acidentes?

Parece que todos nós fazemos.

Talvez a pessoa seja do tipo que está apta a escorregar em uma casca de banana ou derrubar um vaso precioso em sua sala. Eles são um ímã humano para acidentes de um tipo ou de outro. Pode ser tão ruim que você até reluta em estar perto deles às vezes. Você pode obter o transbordamento sinistro ou sofrer as consequências inglórias de um de seus acidentes desagradáveis.

Mas talvez estejamos sendo excessivamente duros ao sugerir que alguém está mais predisposto a acidentes do que outros. Pode-se argumentar que acidentes podem acontecer a qualquer um de nós. Todos estamos sujeitos à possibilidade de cometer ou envolver-se em um acidente. O melhor de nós incluído.

Vamos empilhar em cima desta discussão uma questão adicionalmente irritante.

Os acidentes são inevitáveis?

Em outras palavras, não importa o quanto tentemos evitar acidentes, pode ser que, mesmo assim, ainda haja uma chance e uma certeza absoluta de que acidentes ocorrerão. Você pode procurar proteger o mundo de acidentes. Isso parece indubitavelmente prudente. Mas, de uma forma ou de outra, os acidentes ainda mostrarão sua feia cabeça.

Como se costuma dizer, os acidentes estão esperando para acontecer.

Pode ser útil esclarecer o que significa referir-se a algum evento como sendo apropriadamente rotulado como um acidente. A definição usual do dicionário é que um acidente é um tipo de incidente que ocorre de forma inesperada e não intencional, para o qual há um resultado infeliz que consiste em uma aparência de dano ou lesão.

Descompacte conscientemente essa definição.

O referido incidente é inesperado. Isso implica que não parecíamos perceber que o próprio acidente ocorreria.

O referido incidente não é intencional. Isso sugere que devemos descartar as circunstâncias em que alguém intencionalmente procurou que o incidente ocorresse. Se um brincalhão coloca uma casca de banana no chão onde sabe que um inocente desafortunado e desavisado pisará, você terá dificuldade em afirmar que a pessoa que tropeçou nela sofreu um acidente. Em vez disso, eles foram enganados e insidiosamente levados a uma armadilha.

A definição também inclui o critério de que o resultado é infeliz. Um acidente a esta luz deve levar a um resultado amargo. A pessoa que acidentalmente derrubou um vaso quebrou e possivelmente danificou o item apreciado além do reparo. O dono do vaso é prejudicado pela perda de valor. A pessoa que se deparou com o vaso pode agora ficar devendo a perda ao dono. Deus me livre que alguém possa ter sido cortado ou desfeito pela quebra do vaso.

Por uma questão de equilíbrio igual, podemos querer notar que também existem os chamados acidentes “bons”. Uma pessoa pode encontrar-se em grande fortuna ou acumular algum outro benefício vital devido ao resultado de um acidente. Um dos exemplos mais citados consiste em Sir Alexander Fleming e sua aclamada descoberta da penicilina. A história diz que ele foi um pouco descuidado em seu laboratório e ao retornar de umas duas semanas de férias encontrou um molde em uma de suas placas de cultura. Alegadamente, ele disse o seguinte sobre o assunto: “Às vezes, encontra-se o que não está procurando. Quando acordei logo após o amanhecer de 28 de setembro de 1928, certamente não planejava revolucionar toda a medicina descobrindo o primeiro antibiótico do mundo, ou matador de bactérias. Mas acho que foi exatamente o que fiz.”

Vamos deixar de lado os acidentes favoráveis ​​e focar aqui nos acidentes sombrios. A versão carrancuda dos acidentes é onde esses resultados adversos podem ser especialmente fatais ou ter resultados onerosos. Tanto quanto possível, os acidentes negativos que queremos minimizar (e, é claro, os acidentes positivos que gostaríamos de maximizar, se isso for viável, embora eu aborde essa variante de carinha sorridente em uma coluna posterior).

Gostaria de reformular ligeiramente a pergunta anterior sobre a inevitabilidade dos acidentes. Até agora, mantivemos nossa atenção nos acidentes que ocorrem na instância particular de uma pessoa singular. Não há dúvida de que os acidentes também podem afetar uma multidão de pessoas ao mesmo tempo. Isso pode ser particularmente encontrado quando as pessoas estão imersas em um sistema complexo de um tipo ou de outro.

Prepare-se para uma variante da pergunta lançada anteriormente.

Os acidentes do sistema são inevitáveis?

Devemos refletir sobre isso.

Suponha que um chão de fábrica seja projetado para fazer peças para carros. Aqueles que projetaram a fábrica estão, digamos, extremamente preocupados com os acidentes de trabalho que possam ocorrer. Os trabalhadores da fábrica são obrigados a usar capacetes em todos os momentos. Placas na fábrica exortam a ter cuidado com os acidentes e estar atento no seu trabalho. Todos os cuidados são tomados para evitar acidentes.

Neste sistema, podemos esperar que ninguém sofra um acidente. Você acredita que não há chance de um acidente acontecer? Eu ousaria sugerir que nenhum pensador razoável apostaria que a chance de um acidente é zero neste caso. As chances podem ser muito baixas de um acidente acontecer, mas ainda sabemos e assumimos que, apesar de todas as precauções, ainda há um risco mínimo de que um acidente ocorra.

Tudo isso aponta para a ideia de que, em um sistema de complexidade suficiente, somos obrigados a acreditar que acidentes ainda ocorrerão, por mais que tentemos evitá-los. Estamos relutantemente nos apoiando na estipulação de que os acidentes do sistema são de fato inevitáveis. Uma declaração grandiosa desse calibre pode ter uma ressalva de que o sistema teria que ter algum limite de complexidade tal que seja essencialmente impossível cobrir todas as bases para evitar totalmente os acidentes.

Você agora foi apresentado passo a passo a uma teoria amplamente delineada sobre acidentes que podem ser rotulados como Acidentes Normais ou a Teoria do Acidente Normal (NAT). Aqui está uma descrição útil de pesquisadores que examinaram essa noção: “Em uma escala grande o suficiente, qualquer sistema produzirá 'acidentes normais'. Estes são acidentes inevitáveis ​​causados ​​por uma combinação de complexidade, acoplamento entre componentes e danos potenciais. Um acidente normal é diferente de acidentes de falha de componente mais comuns, pois os eventos e interações que levam a um acidente normal não são compreensíveis para os operadores do sistema” (conforme declarado em “Entendendo e evitando falhas de IA: um guia prático” de Robert Williams e Roman Yampolskiy, Filosofias Diário).

A razão pela qual eu trouxe você para a terra dos chamados acidentes normais é que talvez precisemos aplicar cuidadosamente essa teoria a algo que está gradualmente e inevitavelmente se tornando onipresente em nossa sociedade, ou seja, o advento da Inteligência Artificial (IA).

Vamos nos aprofundar nisso.

Algumas pessoas assumem falsamente que a IA será a perfeição. Os sistemas de IA não cometerão erros e não nos causarão problemas, diz a especulação. Tudo o que você precisa fazer é garantir que esses desenvolvedores de IA façam um trabalho bom o suficiente e, voila, a IA nunca fará nada que possa ser interpretado como acidental ou gerando um acidente.

Não tão rápido nessa crença hipotética. Se você está disposto a comprar a teoria da acidentes normais, qualquer IA de qualquer complexidade substantiva inevitavelmente causará um acidente. Independentemente de quantos ajustes noturnos esses desenvolvedores de IA fazem para evitar um acidente, a IA certamente em algum momento se envolverá em um acidente. É assim que o biscoito se desfaz. E não há trégua chorando em nosso leite derramado sobre isso.

Pondere o mashup da IA ​​e os princípios conceituais da acidentes normais.

Imagine que temos um sistema de IA que controla armas nucleares. A IA foi cuidadosamente elaborada. Todas as verificações e saldos concebíveis foram codificados no sistema de IA. Estamos a salvo de um acidente baseado em IA que possa ocorrer? Aqueles que apoiam o ponto de vista dos acidentes normais diriam que não estamos tão seguros quanto se poderia supor. Dado que a IA provavelmente será especialmente complexa, um acidente normal está esperando silenciosamente para surgir algum dia, talvez no pior momento possível.

A essência dessas perguntas e escrúpulos espinhosos é que devemos estar atentos ao fato de que a IA está fadada a ser carregada de acidentes, e a humanidade precisa fazer algo sensato e proativo sobre os perigos que podem resultar. Como você verá em um momento ou dois, esta é uma consideração iminente quando se trata de usar a IA, e o campo da Ética da IA ​​e da IA ​​Ética está lutando um pouco sobre o que fazer. Para minha cobertura contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Antes de entrarmos na toca do coelho, vamos nos certificar de que estamos na mesma página sobre a natureza da IA. Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um ser humano lhe dando conselhos. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui). Ao todo, esses cenários aumentariam a avaliação da fonte.

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que aproveitam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Ao todo, uma esperança geral é que, ao estabelecer um senso de preceitos de ética em IA, possamos pelo menos aumentar a conscientização da sociedade sobre o que a IA pode fazer de forma benéfica e também produzir negativamente. Discuti extensivamente várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Talvez precisemos adicionar às alardeadas listagens de Ética de IA que precisamos considerar explicitamente e tomar medidas ostensivas para prevenir ou pelo menos mitigar de forma estridente acidentes normais que possa ocorrer. Aqueles que desenvolvem IA precisam fazer o melhor nessa frente. Aqueles que implantam IA precisam fazer o mesmo. Aqueles que usam ou estão de alguma forma sujeitos à IA devem ser cautelosos e estar atentos à possibilidade de acidentes de IA que aparentemente surgirão.

Você pode ficar tentado a pensar que precauções suficientes podem ser incorporadas à IA para que as chances de um acidente caiam para zero. Para aqueles que são técnicos, a arrogância usual é que, se uma tecnologia pode gerar um problema, outra tecnologia certamente pode resolver o problema. Apenas continue jogando mais e mais tecnologia até que o problema desapareça.

Bem, aqueles que estudaram acidentes orientados a sistemas tenderiam a discordar e educadamente retrucar à suposta pompa techie, proferindo um ponto de vista conhecido como Swiss Cheese Model (SCM): “No SCM, as camadas de segurança são modeladas como fatias de queijo com furos representando pontos fracos em cada camada de segurança. Com o tempo, os buracos mudam de forma e se movem. Eventualmente, não importa quantas fatias de queijo (camadas de segurança) existam, os buracos se alinharão permitindo um tiro direto através de todas as fatias de queijo (ocorre um acidente)” (de acordo com o artigo citado anteriormente por Robert Williams e Roman Yampolskiy ).

Eu não quero ficar atolado nessa tangente lateral sobre se existe ou não uma maneira garantida de programar a IA para evitar totalmente e sempre qualquer chance de acidente. Existem todos os tipos de abordagens de prova matemática e computacional que estão sendo tentadas. Acho razoável e justo declarar que hoje não temos um método de trabalho escalável nem tecnologias que possam garantir uma chance tão zero, além disso, definitivamente estamos sobrecarregados com toneladas e toneladas de IA que está sendo produzida desordenadamente que nós sei com certeza não procurou respeitar tais práticas. Esse último ponto é crucial, pois mesmo que possamos inventar algo em um laboratório de IA, dimensionar isso para os zilhões de esforços de IA selvagens e despreocupados em andamento e que continuarão a surgir é um problema complicado e provavelmente não resolvido, mesmo que uma máquina de prova computacional prateie bala existia.

Outro ponto que acredito merecer uma breve menção consiste na IA que se transforma em atos desagradáveis ​​como resultado de atores humanos mal-intencionados. Não vou colocar esses casos no reino dos acidentes de IA. Lembre-se de que a discussão inicial sugeriu que a definição do dicionário de acidente era um incidente de um acidente não intencional natureza. Se um cibercriminoso humano consegue fazer com que um sistema de IA faça coisas ruins, não classifico essa IA como tendo sofrido um acidente. Eu confio que você vai concordar com essa presunção.

Uma questão interessante surge sobre quanto de várias ações indesejáveis ​​da IA ​​podem ser atribuídas puramente a um acidente de IA versus o ato desonesto de um cibercriminoso. De acordo com alguns dos bancos de dados de relatórios de incidentes de IA existentes, parece que os acidentes de IA acontecem mais do que os incidentes mal-intencionados, embora você tenha que considerar essa noção com uma boa dose de sal. Digo isso porque há uma grande tentação de não relatar quando um sistema de IA foi atacado e talvez estar um pouco mais disposto a relatar quando ocorrer um acidente de IA.

Há uma ressalva extremamente importante que precisamos discutir sobre acidentes de IA.

Usar o slogan “acidentes de IA” geralmente é indesejável e criará uma grande bagunça para todos nós, ou seja, para toda a sociedade. Quando um humano sofre um acidente, muitas vezes damos de ombros e nos solidarizamos com a pessoa que sofreu o acidente. Parece que tratamos a palavra “acidente” como se significasse que ninguém é responsável pelo que aconteceu.

Vamos pegar o exemplo de entrar em um acidente de carro. Um carro faz uma curva à direita e acidentalmente bate em outro carro que estava indo em frente. Puxa, foi só um acidente e aconteceu acidentalmente. Aqueles que não estavam envolvidos no incidente talvez deixem o assunto de lado se o evento for expresso em termos de ser apenas um acidente que aconteceu.

Eu tenho a sensação de que se você estivesse no carro que foi atingido, você não seria tão solidário com o motorista que fez a curva excessivamente larga. Sua opinião certamente seria que o outro motorista era um péssimo motorista e que um ato de direção ostensivamente ilegal ou imprudente levou ao acidente de carro. Ao rotular o incidente como um “acidente”, o motorista que estava preso agora está em desvantagem, pois a aparência é que tudo ocorreu apenas por acaso, e não pelas mãos do motorista que errou.

Na verdade, a palavra “acidente” está tão cheia de conotações variadas que, em geral, as estatísticas do governo sobre acidentes de carro se referem ao assunto como colisões de carro ou acidentes de carro, em vez de usar a expressão acidentes de carro. Uma colisão de carro ou um acidente de carro não parece ter implicações sobre como o incidente aconteceu. Enquanto isso, o fraseado de um “acidente de carro” quase nos leva a pensar que foi um capricho do destino ou de alguma forma fora das mãos da humanidade.

Você pode ver abundantemente como essa consideração conotacional se aplica ao se referir a acidentes de IA. Não queremos que os desenvolvedores de IA se escondam atrás do escudo conotacional de que a IA acidentalmente causou danos a alguém. O mesmo vale para aqueles que implantam IA. Você poderia argumentar que o fraseado de “acidentes de IA” é quase uma antropomorfização da IA ​​que enganará a sociedade a permitir que os humanos que estavam nos bastidores da IA ​​escapem da responsabilidade. Para minha discussão sobre a crescente importância de responsabilizar os humanos por sua IA, veja minha discussão em este link aqui e este link aqui.

Vou usar daqui em diante o bordão de acidentes de IA, mas o faço com relutância e apenas porque é a maneira convencional de me referir a esse fenômeno. Tentativas de dizer isso de maneira diferente tendem a ser lamentavelmente mais inchadas e não tão fáceis de ler. Certifique-se de interpretar o bordão de uma maneira que não faça com que você olhe para o outro lado e não perceba que os humanos subjacentes à IA são culpados quando a IA dá errado.

Para ajudar a ilustrar a provável confusão ou os aspectos enganosos de se referir à IA como incorrendo em acidentes, podemos retornar às minhas observações sobre derrubar um vaso. Considere este exemplo de IA fazendo isso: “Esse problema tem a ver com coisas que são feitas por acidente ou indiferença pela IA. Um robô de limpeza derrubando um vaso é um exemplo disso. Ambientes complexos têm tantos tipos de 'vasos' que é improvável que possamos programar uma penalidade para todos os efeitos colaterais” (de acordo com o artigo de Robert Williams e Roman Yampolskiy).

Um sistema de IA que é colocado em uso em uma casa e depois “acidentalmente” derruba um vaso parece sugerir que ninguém deve ser culpado por essa ação adversa da IA. Foi apenas um acidente, pode-se lamentar lamentavelmente. Por outro lado, devemos justamente perguntar por que o sistema de IA não foi programado para lidar com as circunstâncias do vaso em geral. Mesmo que os desenvolvedores de IA não tenham previsto um vaso per se como estando dentro do escopo dos objetos que poderiam ser encontrados, certamente podemos questionar por que não houve uma prevenção abrangente de objetos que teria impedido o sistema de IA de derrubar o vaso (assim, a IA pode não reconhecer o vaso como um vaso, mas ainda poderia tê-lo evitado como um objeto detectável a ser evitado).

Eu previ e continuo prevendo que estamos gradualmente caminhando para uma enorme batalha legal sobre o surgimento de sistemas de IA que se envolvem em “acidentes de IA” e causam algum tipo de dano. Até agora, a sociedade não reagiu de forma considerável a uma reação legal à IA que é lançada no mercado e produz consequências adversas, intencionalmente ou não. O movimento de IA de hoje, que se tornou uma corrida de ouro de fabricantes de IA mal-feitos e aqueles que apressam a implantação da IA, estão tendo sorte agora e permanecem relativamente intocados por ações civis e processos criminais.

A reação legal alimentada pela IA está chegando, mais cedo ou mais tarde.

Seguindo em frente, como vamos tentar lidar com a inevitabilidade dos chamados acidentes de IA?

Uma coisa que podemos fazer imediatamente é tentar antecipar como os acidentes de IA podem ocorrer. Ao antecipar os acidentes de IA, podemos pelo menos buscar meios para reduzi-los ou minimizar sua probabilidade de ocorrência. Além disso, podemos tentar colocar grades de proteção para que, quando um acidente de IA acontecer, as chances de danos demonstrativos sejam diminuídas.

Um conjunto útil de fatores que foram descritos no artigo de pesquisa citado anteriormente Entendendo e evitando falhas de IA: um guia prático inclui essas propriedades (conforme citado no artigo de pesquisa):

  • O sistema que é afetado pelas saídas do AI.
  • Atraso de tempo entre as saídas da IA ​​e o sistema maior, observabilidade do sistema, nível de atenção humana e capacidade dos operadores de corrigir o mau funcionamento da IA.
  • O dano máximo possível pelo uso malicioso dos sistemas que a IA controla.
  • Acoplamento dos componentes na proximidade da IA ​​e complexidade das interações.
  • Lacuna de conhecimento de IA e outras tecnologias usadas e o nível de energia do sistema.

Neste ponto desta discussão pesada, aposto que você deseja alguns exemplos ilustrativos que possam elucidar ainda mais o tópico de acidentes de IA. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre o advento dos chamados acidentes de IA e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e incidentes de IA

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Acredito que isso forneça uma litania de advertências suficiente para fundamentar o que estou prestes a relatar.

Estamos preparados agora para mergulhar profundamente nos carros autônomos e nas possibilidades de IA ética que envolvem o advento dos chamados acidentes de IA.

Imagine que um carro autônomo baseado em IA está em andamento nas ruas do seu bairro e parece estar dirigindo com segurança. No início, você dedicou atenção especial a cada vez que conseguiu vislumbrar o carro autônomo. O veículo autônomo se destacou com seu rack de sensores eletrônicos que incluíam câmeras de vídeo, unidades de radar, dispositivos LIDAR e similares. Depois de muitas semanas de carro autônomo circulando pela sua comunidade, agora você mal percebe. Para você, é apenas mais um carro nas vias públicas já movimentadas.

Para que você não pense que é impossível ou implausível se familiarizar com a visão de carros autônomos, escrevi frequentemente sobre como os locais que estão dentro do escopo de testes de carros autônomos gradualmente se acostumaram a ver os veículos enfeitados. Muitos dos moradores, eventualmente, passaram de boquiabertos boquiabertos para agora emitindo um bocejo expansivo de tédio para testemunhar aqueles sinuosos carros autônomos.

Provavelmente a principal razão agora que eles podem notar os veículos autônomos é por causa do fator de irritação e exasperação. Os sistemas de direção de IA convencionais garantem que os carros estejam obedecendo a todos os limites de velocidade e regras da estrada. Para motoristas humanos agitados em seus carros tradicionais conduzidos por humanos, às vezes você fica irritado quando fica preso atrás dos carros autônomos baseados em IA estritamente cumpridores da lei.

Isso é algo que todos nós precisamos nos acostumar, com ou sem razão.

De volta ao nosso conto.

Um dia, o carro autônomo sofre um acidente.

Ao fazer uma curva à direita, o sistema de direção da IA ​​girou amplamente o veículo autônomo e um carro dirigido por humanos foi atingido. O carro dirigido por humanos estava seguindo em frente na pista adequada de tráfego. Não havia nenhuma oportunidade específica para o motorista humano desviar ou evitar ser atropelado. Além disso, não houve aviso ou indicação do carro autônomo de que ele faria a curva à direita amplamente.

Isso é um acidente?

Certamente podemos dizer que está englobado na rubrica de ser um acidente de IA. A base para tal afirmação é que havia um sistema de direção de IA ao volante do carro autônomo. De alguma forma, por qualquer motivo, a IA optou por fazer uma grande oscilação ao fazer uma curva à direita. O resultado levou o carro autônomo a bater em um carro dirigido por humanos.

Lembre-se da discussão anterior sobre as conotações associadas à palavra “acidente” e veja como esses subtons aparecem nesse cenário. Além disso, lembre-se de que discutimos o caso de um motorista humano fazendo uma ampla curva à direita e colidindo com um outro carro dirigido por humanos. Percebemos que a noção desse ato ser um “acidente” é enganosa e confusa. O motorista humano que fez o grande balanço poderia se esconder atrás da ideia de que um acidente ocorreu apenas aparentemente por acaso ou pelos caprichos do destino.

Em vez de rotular o cenário como um “acidente de IA” no caso do carro autônomo baseado em IA ir longe e bater no carro dirigido por humanos, talvez devêssemos dizer que foi um acidente de carro ou colisão de carro envolvendo um carro autônomo. carro de condução e um carro dirigido por humanos. Podemos então dispensar a confusão vazia de ser um acidente de meios incognoscíveis.

Qual você acha que seria a reação do público ao incidente?

Bem, se a montadora ou a empresa de tecnologia de direção autônoma puderem rotular o assunto como um acidente, eles poderão contornar a possível reação da comunidade em geral. Um sentimento de simpatia por todos os acidentes relatados possivelmente fluiria para a circunstância específica. Para saber mais sobre como cidades, condados e líderes estaduais potencialmente reagirão a incidentes de veículos autônomos de IA, consulte a discussão de um estudo de Harvard que co-liderei e conforme descrito em o link aqui.

Se a situação for claramente descrita como um acidente de carro ou colisão de carro, talvez isso possa permitir a percepção de que alguém ou algo talvez seja o culpado pelo incidente. Uma reação instintiva pode ser que a IA seja responsabilizada. A questão é que, até ou se decidirmos ungir a IA como tendo uma aparência de personalidade jurídica, você não poderá atribuir a responsabilidade à IA em si (veja minha discussão sobre IA e personalidade jurídica em o link aqui).

Podemos inspecionar o sistema de direção de IA para tentar descobrir o que levou à direção aparentemente inadequada e ao subsequente acidente de carro. Isso não implica que a IA será responsabilizada. As partes responsáveis ​​incluem os desenvolvedores de IA, o operador da frota do carro autônomo e outros. Incluo outros também, pois existe a possibilidade de a cidade ser parcialmente responsabilizada pelo desenho da esquina onde ocorreu a curva. Além disso, suponha que um pedestre estivesse saindo da esquina e o sistema de direção de IA optasse por evitar a pessoa e, no entanto, ficasse enredado no acidente de carro.

E assim por diante.

Conclusão

Gostaríamos de saber o que a IA estava calculando computacionalmente e o que ela foi programada para fazer. A IA fez como foi codificado? Talvez a IA tenha encontrado um bug ou erro na programação, o que não justifica as ações, mas fornece mais uma pista de como a falha ocorreu.

Que tipo de proteções de IA foram programadas no sistema de direção de IA? Se houvesse grades de proteção, gostaríamos de descobrir por que elas pareciam não impedir o acidente de carro. Talvez o sistema de direção da IA ​​pudesse ter parado em vez de fazer a curva. Gostaríamos de saber quais alternativas a IA avaliou computacionalmente durante o curso do incidente.

Além de chegar ao fundo do incidente em particular, outro escrúpulo legítimo é se o sistema de condução da IA ​​tem uma falha ou outro aspecto incorporado que fará tipos semelhantes de atos adversos. Em essência, este incidente pode ser um indicador revelador de mais por vir. Como as simulações baseadas em computador de situações de direção foram usadas para tentar antecipar esse tipo de alerta do sistema de direção de IA? Houve testes de direção suficientes na estrada para descobrir os problemas de IA que podem ter levado ao acidente de carro?

Este cenário destaca um enigma controverso que está enfrentando o surgimento de carros autônomos baseados em IA.

É assim.

Por um lado, há um desejo social de adotar carros autônomos rapidamente devido à esperança de que os sistemas de direção de IA sejam tão seguros ou possivelmente mais seguros do que os motoristas humanos. Somente nos Estados Unidos, atualmente temos cerca de 40,000 mortes humanas anualmente devido a acidentes de carro e cerca de 2.5 milhões de ferimentos humanos. As análises sugerem que uma parte considerável desses acidentes de carro é atribuível a erro humano, como dirigir embriagado, dirigir distraído etc. (veja minha avaliação de tais estatísticas em o link aqui).

Os sistemas de direção de IA não vão beber e dirigir. Eles não precisarão descansar e não se desgastarão enquanto estiverem ao volante. A suposição é que, ao estabelecer carros autônomos como um meio de transporte viável, podemos reduzir o número de motoristas humanos. Isso, por sua vez, deve significar que reduziremos sumariamente o número anual de mortes humanas e lesões causadas por acidentes de carro.

Alguns especialistas disseram que terminaremos com zero fatalidades e zero ferimentos, e esses carros autônomos supostamente serão infalíveis, mas esse é um conjunto de expectativas totalmente absurdo e totalmente falso. Eu expliquei por que isso é tão falso em o link aqui.

De qualquer forma, suponha que teremos uma certa quantidade de acidentes de carro nos quais os carros autônomos se envolverão. Suponha também que esses acidentes de carro terão uma certa quantidade de mortes e ferimentos. A questão que está sendo angustiada é se nós, como sociedade, estamos dispostos a tolerar tais casos. Alguns dizem que, se ocorrer uma fatalidade ou uma lesão como resultado de carros autônomos verdadeiros, todo o kit e o kaboodle devem ser fechados.

O ponto de vista contrário é que, se as vidas salvas estão reduzindo as contagens anuais, deveríamos continuar incentivando o advento dos carros autônomos e não reagir de maneira tão ilógica. Precisaremos aceitar a premissa de que ainda existirá uma certa quantidade de mortes e ferimentos, mesmo com carros autônomos, e ainda perceber que a contagem anual, se diminuir, sugere que estamos no caminho certo.

Claro, alguns argumentam que não devemos ter carros autônomos em nossas vias públicas até que sejam liberados para tal uso como resultado de extensas e exaustivas simulações baseadas em computador ou por meio de testes privados em pistas fechadas. O contra-argumento é que a única maneira viável e rápida de obter carros autônomos é usar vias públicas e que quaisquer atrasos na adoção de carros autônomos permitirão que as horrendas contagens de acidentes de carros conduzidos por humanos continuem. Abordei esse debate com mais detalhes em minhas colunas e exorto os leitores a olhar para essas discussões para ter uma noção completa das perspectivas sobre esse assunto controverso.

Vamos encerrar as coisas por enquanto.

Acidentes de IA vão acontecer. Devemos resistir ao impulso de interpretar um acidente de IA como algo aparentemente acidentalmente e, portanto, falsamente, deixe os criadores e aqueles que implantam a IA serem categoricamente fora do gancho.

Há uma reviravolta adicional que deixo como um pensamento intrigante final para o seu dia.

O comediante Dane Cook teria contado esta piada sobre acidentes de carro: “Há alguns dias, sofri um acidente de carro. Não é minha culpa. Mesmo que não seja sua culpa, a outra pessoa sai do carro e olha para você como se fosse sua culpa: Por que você parou no sinal vermelho e me deixou bater em você fazendo 80!”

Onde a reviravolta vem à tona é a possibilidade de um sistema de IA optar por insistir que, quando ocorre um acidente de IA envolvendo essa IA em particular, a IA afirma que o incidente foi culpa do humano e certamente não culpa da IA. A propósito, isso pode ser abundantemente verdade e o humano pode estar tentando usar a IA como bode expiatório alegando que foi culpa da IA.

Ou talvez a IA esteja tentando usar o humano como bode expiatório.

Veja bem, a IA que criamos pode ser complicada dessa maneira, por acidente ou não.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- dirigindo-carros-também/