Ética de IA e lições de sistemas autônomos extraídas daquele recente voo da Alaska Airlines, onde o piloto e o co-piloto discordaram antes de decolar e abruptamente optaram por taxiar de volta ao terminal e seguir caminhos separados

As companhias aéreas têm estado bastante nas notícias ultimamente.

Estamos na crise de verão dos voos. Passageiros cansados ​​e frustrados enfrentam todo tipo de interrupção de voo e contorções de programação das companhias aéreas. Os voos são cancelados inesperadamente. Os voos estão atrasados. Fumaça dos passageiros. Infelizmente, houve muitos casos de passageiros que permitiram que esses vexames surgissem, e vimos lamentavelmente muitos vídeos virais de confrontos diretos e às vezes socos.

Mais raramente aprendemos sobre disputas entre um piloto e um copiloto que podem ocorrer no cockpit.

Isso é uma grande surpresa.

De fato, ficamos naturalmente surpresos ao pensar que um piloto e um copiloto teriam qualquer aparência de um sério desentendimento durante qualquer estágio de um voo. Se o desacordo estiver relacionado com qual marca de café é melhor, nossa suposição é que isso não se intrometeria no esforço de trabalho que envolve pilotar o avião. Os dois simplesmente ignorariam sua falta de olho no olho em um tópico aparentemente irrelevante para o vôo. Seu comportamento profissional e treinamento de piloto de longa data entrariam em ação e eles voltariam o foco para os detalhes do voo.

Considere, porém, quando um desacordo profissional intervém.

Vou compartilhar brevemente com vocês uma notícia amplamente divulgada sobre um caso recente de algo que aconteceu durante um voo nos EUA referente a um alegado desacordo profissional na cabine.

Isso está sendo citado principalmente para que possamos explorar um tema relacionado que é de grande importância para o advento da Inteligência Artificial (IA). Você vê, pode haver uma forma de, digamos, desacordo profissional entre não apenas humanos em um desacordo de humano para humano, mas também podemos ter algo semelhante ocorrendo em meio à adoção de IA e, portanto, desacordos profissionais de humanos versus IA resultantes . Todos os tipos de considerações de ética da IA ​​surgem. Para minha cobertura extensa e contínua de questões de Ética de IA e IA Ética, consulte o link aqui e o link aqui, para nomear apenas alguns.

Prepare-se para um conto fascinante.

Conforme relatado recentemente nas notícias, um caso de “desentendimento profissional” aparentemente surgiu durante um voo da Alaska Airline que ia de Washington a São Francisco. De acordo com as reportagens, o voo havia se afastado do portão e aguardava na pista permissão para taxiar e voar. Uma tempestade estava em andamento e levou a um atraso de mais de uma hora e meia. Acontece que o avião acabou dando meia-volta e voltou para o portão, que alguns dos passageiros normalmente poderiam ter assumido que era simplesmente uma precaução de segurança relacionada à tempestade.

De acordo com vários tweets, parece que o piloto e o copiloto tiveram algum tipo de briga fora de vista durante seu tempo no cockpit e de alguma forma chegaram à conclusão de que a abordagem mais prudente seria cancelar o voo e retornar ao terminal . Tweets sugeriram que o capitão e o primeiro oficial aparentemente não se davam bem. A companhia aérea mais tarde emitiu uma declaração de que a situação era infeliz (a situação não foi explicitamente declarada ou explicada em si), os dois oficiais de voo foram avaliados pela administração e considerados aptos para voar, as tripulações foram trocadas e o voo acabou ocorrendo e mais tarde chegou a São Francisco.

Em certo sentido, se de fato o piloto e o copiloto tivessem um desacordo profissional, como se o avião estava devidamente pronto para voar ou se o risco de voar em meio a uma tempestade estava dentro de uma faixa de segurança adequada, esses passageiros deveriam ser aliviados e grato que o avião foi devolvido ao portão. Melhor prevenir do que remediar. Ter um atraso adicional vale bem a suposta redução dos riscos associados a uma viagem de voo considerada difícil ou adversa.

Algumas pessoas podem se surpreender com o surgimento de uma divergência profissional.

Talvez tenhamos a falsa impressão de que tudo o que acontece no cockpit é totalmente preciso e bem roteirizado. Toda forma de discrição humana aparentemente foi extirpada do processo. Com base em gráficos exatos e cuidadosamente calculados, um voo pode prosseguir ou não. Não pode haver desacordo quando se pensa que todo o kit e caboodle são baseados em cálculos irrefutáveis ​​de fatos e números.

Essa não é toda a verdade da questão. Claro, há uma enorme quantidade de protocolos e todos os tipos de freios e contrapesos, mas isso não elimina todo o julgamento humano. Pilotos e copilotos ainda exercem o julgamento humano. Felizmente, esse julgamento humano é aprimorado por anos de vôo. As probabilidades são de que um piloto e um copiloto em um avião comercial de passageiros tenham muita experiência de voo anterior e aproveitem prontamente seus muitos anos de raciocínio e julgamento aprofundados associados a estar nos controles de voo.

Dado o papel notável do julgamento humano, podemos prever logicamente que um piloto e um copiloto às vezes terão divergências profissionais. Na maioria das vezes, presumivelmente, há muito pouca discordância. O piloto e o copiloto para voos diários provavelmente estarão bem alinhados com a preponderância do tempo. Somente quando um cenário de voo pudesse sair dos limites convencionais, esperaríamos que surgisse um atrito mais tenso.

Se houver uma forte diferença de opinião entre os dois, eu ousaria dizer que queremos que eles a discutam.

Imagine uma situação em que o piloto deseja estridentemente prosseguir, mas o copiloto percebe que os riscos são muito altos. A mera reverência do copiloto ao piloto pareceria indesejável. O copiloto é uma verificação e um equilíbrio para o que um piloto pode estar pensando em fazer. Para aqueles que querem que um copiloto cale a boca e apenas aja sem pensar o que o piloto decreta, bem, isso não é muito tranquilizador. Um copiloto não é simplesmente um “piloto” sobressalente que entra em cena apenas quando o piloto está totalmente incapacitado. Essa é uma compreensão equivocada do valor de ter um piloto e um copiloto na cabine.

Há o outro ângulo para isso.

Considere o caso de um piloto que não acredita que um voo deva prosseguir e, enquanto isso, o copiloto está entusiasmado com a ideia de se levantar no ar. O que então? Pela hierarquia esperada, o piloto deve prevalecer convencionalmente sobre o copiloto. O papel designado de ser o principal responsável torna o piloto o maior do que de outra forma é um pouco igual. Normalmente, o piloto tem mais tempo de vôo geral do que o copiloto e, portanto, o copiloto deve hierarquicamente ceder aos desejos do piloto (quando dentro do razoável).

De qualquer forma, acho que todos podemos concordar que optar por não voar é uma escolha seguramente menos arriscada do que decidir voar. Uma vez que o avião está no ar, os níveis de risco ficam enormes em comparação com qualquer terreno estável comum. Um voo comercial habitual que simplesmente taxia de volta ao terminal sem ter entrado no ar seria uma resolução bastante amigável para qualquer debate acalorado sobre entrar em voo.

Vamos mudar de marcha e usar esta notícia corajosa para um propósito completamente diferente, mas relacionável.

Estamos gradualmente tendo entre nós uma prevalência de sistemas autônomos baseados em IA. Às vezes, a IA comanda o show, por assim dizer. A IA faz tudo de A a Z, e podemos interpretar isso como IA totalmente autônoma ou quase. Em outros casos, podemos ter IA que interage e, até certo ponto, é programada para depender de um humano no circuito.

Eu gostaria de me concentrar na questão de um sistema autônomo ou semi-autônomo baseado em IA que, desde o início, tenha um humano no circuito. A IA e o humano são intencionalmente colocados juntos e deveriam estar trabalhando em conjunto. Eles são coortes na execução de uma determinada tarefa em mãos. A IA sozinha não deveria estar agindo na tarefa. A IA deve interagir com o humano designado.

Eu trago essa caracterização para diferenciar de situações em que o humano-in-the-loop é considerado uma faceta opcional. Em essência, a IA tem rédea solta. Se a IA optar por fazer uso do humano, que assim seja. Não há exigência de que a IA tenha que entrar em contato ou trabalhar lado a lado com o humano designado. As análises que vou relatar são certamente pertinentes a esse tipo de opcional arranjo de interação, mas não é a isso que estou direcionando especificamente nesta discussão em particular.

Ok, então temos algum tipo de tarefa em que um humano e uma IA trabalharão juntos, inseparavelmente um do outro. Em um sentido abstrato, temos um humano sentado em um assento e um sistema de IA sentado no outro assento. Digo isso descaradamente porque não estamos limitando essa discussão a um robô, por exemplo, que realmente pode estar sentado em um assento. Estou metaforicamente aludindo à noção de que a IA está em algum lugar participando da tarefa e o humano também. Fisicamente, seu paradeiro não é especialmente vital para a discussão.

Você pode não ter certeza de quando tal circunstância pode surgir.

Mole-mole.

Mais tarde, discutirei o advento de veículos autônomos e carros autônomos. Em certos níveis de autonomia, a IA e o humano devem trabalhar juntos. A IA pode estar dirigindo o carro e solicitar que o humano assuma os controles de direção. O humano pode estar dirigindo o carro e ativar a IA para assumir os controles. Eles estão se revezando nos controles de direção.

Além disso, alguns projetos estão fazendo com que a IA esteja essencialmente ativa o tempo todo (ou, a menos que esteja desligada), de modo que a IA esteja sempre pronta. Além disso, a IA pode intervir diretamente, mesmo sem o pedido humano, dependendo da situação que está se desenrolando. Suponhamos, por exemplo, que o humano parece ter adormecido ao volante. Como o humano aparentemente não pode ativar a IA (porque a pessoa está dormindo), a IA pode ser programada para assumir os controles do humano.

Alguns projetos trazem a IA e os humanos para uma abordagem de condução dupla. A IA está dirigindo e o humano está dirigindo. Ou, se preferir, o humano está dirigindo e a IA também está dirigindo. Eles estão cada um dirigindo o veículo. Eu comparo isso com aqueles carros especialmente manipulados que talvez você tenha usado ao fazer treinamento de motorista e havia dois conjuntos de controles de direção no veículo, um para o aluno motorista e outro para o instrutor de direção.

Esse é apenas um exemplo de um cenário em que a IA e os humanos podem estar trabalhando em conjunto em uma tarefa. Todos os tipos de possibilidades existem. Outros tipos de veículos autônomos podem ser concebidos de forma semelhante, como aviões, drones, submersíveis, navios de superfície, trens e assim por diante. Não temos que considerar apenas as configurações veiculares e de transporte. Visualize o domínio médico e as cirurgias que estão sendo realizadas em conjunto por um médico e um sistema de IA. A lista não tem fim.

Eu quase sinto vontade de me referir à piada classicamente barulhenta sobre um humano e uma IA que entram juntos em um bar. É muito engraçado para aqueles em IA.

Sério, vamos voltar ao foco de um sistema humano e de IA que está trabalhando juntos em uma determinada tarefa. Primeiro, quero evitar a antropomorfização da IA, que é algo que enfatizarei ao longo do artigo. A IA não é senciente. Por favor, mantenha isso em mente.

Aqui está algo para refletir: Um humano designado sempre estará em total acordo com uma IA conjunta?

Para qualquer tarefa complexa, parece improvável que o humano e a IA estejam inteiramente e sempre totalmente em sintonia. O humano pode, em algumas ocasiões, discordar da IA. Podemos levar essa suposição até o banco.

Eu gostaria que você também considerasse essa possibilidade talvez surpreendente: A IA sempre estará em total acordo com um humano designado no circuito?

Novamente, para qualquer tarefa complexa, parece bastante concebível que a IA não esteja de acordo com os humanos em algumas ocasiões. Se você já está se inclinando para a ideia de que a IA deve estar sempre errada enquanto os humanos devem estar sempre certos, seria sábio repensar essa conclusão precipitada. Visualize um carro que tenha um humano e uma IA dirigindo juntos o veículo semi-autônomo. O humano dirige-se para uma parede de tijolos. Por quê? Não sabemos, talvez o humano esteja bêbado ou tenha adormecido, mas sabemos que bater em uma parede de tijolos não é uma boa ideia, tudo o mais sendo igual. A IA pode detectar a próxima calamidade e tentar se afastar da barreira iminente.

Ao todo, teremos a possibilidade distinta de a IA e o humano discordarem um do outro. A outra maneira de dizer a mesma coisa é que humanos e IA estão discordando entre si. Observe que não quero que o sequenciamento de IA-e-humano versus humano-e-IA sugira nada sobre a direção ou plausibilidade do desacordo.

Os dois trabalhadores, um humano e um que é IA, estão discordando um do outro.

Poderíamos de antemão declarar que sempre que ocorre um desacordo entre uma determinada IA ​​e um determinado humano, de antemão proclamamos que o humano prevalece sobre a IA. Dito isto, meu exemplo ilustrativo sobre o carro que está indo em direção a uma parede de tijolos parece nos dissuadir de que o humano sempre necessariamente estará certo.

Poderíamos, em contraste, optar por declarar antecipadamente que, sempre que surgir um desacordo, teremos estabelecido de antemão que a IA está certa e o humano está errado. Esta também não é uma disposição sensatamente generalizável. Imagine um carro em que a IA tenha algum erro ou bug de software incorporado e a IA esteja tentando desviar o veículo da estrada e entrar em uma vala. Supondo que tudo o mais seja igual, o humano deve ser capaz de superar essa ação de direção da IA ​​e impedir que o veículo aterrisse na ravina.

Vamos fazer um resumo rápido disso:

  • Um humano no circuito sempre estará em total acordo com a IA? Responda: Não.
  • A IA sempre estará em total acordo com um humano no circuito? Responda: Não.
  • Um humano no circuito sempre estará certo em comparação com a IA? Responda: Não necessariamente.
  • A IA sempre estará certa em comparação com o humano no circuito? Resposta: Não necessariamente.

Você certamente pode configurar a IA para ser considerada por padrão como a parte “errada” ou mais fraca e, portanto, sempre adiar o humano sempre que surgir um desacordo. Da mesma forma, você pode configurar a IA para assumir que a IA é considerada “certa” sempre que um humano estiver em desacordo com a IA. Quero esclarecer que podemos fazer isso programaticamente, se assim o desejarmos. Estou afirmando que, em geral, isso nem sempre será o caso. Certamente há cenários em que não sabemos de antemão se a IA está “certa” ou o humano está “certo” em termos de optar por um ou outro em um desacordo relacionado a uma determinada tarefa.

Eu o levei a uma questão muito importante e altamente complicada.

O que devemos fazer quando ocorre um desacordo profissional entre o humano no circuito e a IA (ou, de forma equivalente, podemos expressar isso como sendo entre a IA e o humano no circuito)?

Não tente se esquivar da pergunta.

Alguns podem argumentar que isso nunca aconteceria, mas como expus no meu exemplo sobre o carro, certamente poderia acontecer. Alguns podem argumentar que um humano é obviamente superior e deve ser o vencedor de qualquer desacordo. Meu exemplo do carro e da parede de tijolos derruba aquele. Existem proponentes da IA ​​que podem insistir que a IA deve ser a vencedora, devido à superação ostensiva das emoções humanas e do pensamento desenfreado desses seres humanos de pensamento difuso. Mais uma vez, meu outro exemplo envolvendo o carro indo para a vala enfraquece essa afirmação.

No mundo real, a IA e os humanos vão discordar, mesmo quando os dois são propositalmente colocados em uma situação de equipe para realizar uma tarefa realizada em conjunto. Isso vai acontecer. Não podemos enfiar a cabeça na areia e fingir que não vai acontecer.

Vimos que os humanos que pilotavam o avião aparentemente entraram em desacordo. Felizmente, eles concordaram em discordar, assim parece. Eles trouxeram o avião de volta para o terminal. Eles encontraram um meio de lidar com o desacordo. A resolução para o desacordo deles funcionou bem, em comparação com se talvez eles tivessem brigado na cabine ou talvez voado no ar e continuado a ser combativo um com o outro. Esse é um cenário triste que é insustentável, e podemos agradecer por não ter ocorrido.

Permita-me fornecer minha lista das várias maneiras pelas quais os desacordos de IA e humano no circuito (ou humano no circuito e IA) podem ser resolvidos:

  • A IA e o humano em equipe resolvem as coisas (amigavelmente ou não)
  • O humano prevalece sobre a IA, por padrão
  • A IA prevalece sobre o humano, por padrão
  • Alguma outra resolução fixa predeterminada prevalece, por padrão
  • O humano de terceiros está em loop e sua indicação prevalece sobre as partes
  • A IA de terceiros está em loop e sua indicação prevalece sobre as partes
  • O humano de terceiros substitui o humano existente, as coisas prosseguem de novo
  • A IA de terceiros substitui a IA existente, as coisas continuam de novo
  • O humano de terceiros substitui a IA existente, as coisas prosseguem de novo (agora de humano para humano)
  • A IA de terceiros substitui o humano existente, as coisas prosseguem de novo (agora IA para IA)
  • Outros

Esses são abundantemente dignos de serem descompactados.

Antes de entrar em um pouco mais de carne e batatas sobre as considerações selvagens e confusas subjacentes a como lidar com a IA e as divergências humanas, vamos apresentar alguns fundamentos adicionais sobre tópicos profundamente essenciais. Precisamos mergulhar brevemente na Ética da IA ​​e especialmente no advento do Machine Learning (ML) e Deep Learning (DL).

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, vamos explorar o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos voltar ao nosso foco nas divergências entre a IA e um humano.

Eu indiquei anteriormente que estas são algumas das estratégias de resolução de desacordos:

  • A IA e o humano em equipe resolvem as coisas (amigavelmente ou não)
  • O humano prevalece sobre a IA, por padrão
  • A IA prevalece sobre o humano, por padrão
  • Alguma outra resolução fixa predeterminada prevalece, por padrão
  • O humano de terceiros está em loop e sua indicação prevalece sobre as partes
  • A IA de terceiros está em loop e sua indicação prevalece sobre as partes
  • O humano de terceiros substitui o humano existente, as coisas prosseguem de novo
  • A IA de terceiros substitui a IA existente, as coisas continuam de novo
  • O humano de terceiros substitui a IA existente, as coisas prosseguem de novo (agora de humano para humano)
  • A IA de terceiros substitui o humano existente, as coisas prosseguem de novo (agora IA para IA)
  • Outros

Hora de descompactar estes.

Primeiro, considere que isso é tudo sobre profissional desacordos.

Um desacordo profissional é vagamente definido como um desacordo associado a uma tarefa relacionada ao trabalho.

Por exemplo, um desacordo que surge entre um piloto e um copiloto sobre se deve prosseguir com um voo que está enfrentando uma tempestade pode ser rotulado como um desacordo profissional. Em contraste, um desacordo veemente sobre qual marca de café o piloto defende versus a marca que o copiloto prefere é prontamente categorizado como um desacordo não profissional neste contexto específico.

É claro que, se um desacordo não profissional se transformar em um desacordo profissional, podemos estar interessados ​​no desacordo não profissional como uma fonte presumida ou faísca para o desacordo profissional. Imagine que um piloto e um copiloto discutem amargamente sobre qual marca de café é a melhor, o que, lamentavelmente, se espalha para preocupações específicas do voo (trocadilho!), como decolar ou não.

Em segundo lugar, precisamos ter em mente a magnitude do desacordo profissional.

Talvez o piloto e o copiloto ou em leve desacordo sobre o procedimento de voar. Eles não estão em desacordo e apenas contemplando os prós e contras de decolar. Este não é o calibre ou a magnitude de um desacordo profissional que costumamos considerar aqui. O problema é que pode ser que o desacordo profissional seja transitório e ambas as partes cheguem a uma resolução cordialmente ou pelo menos em tempo hábil. Geralmente, o foco do desacordo profissional dentro do escopo são aqueles que são aparentemente intratáveis, e as duas partes permanecem firmemente em desacordo.

Terceiro, geralmente tem que haver algo sério em jogo para que essas diretrizes entrem em ação.

Optar por voar ou não é uma decisão decididamente de vida ou morte se o voo estiver em risco devido a uma tempestade ou se o avião não for considerado totalmente preparado para tal jornada. Isso é um negócio sério. Ainda podemos aplicar as diretrizes às divergências profissionais menos impactantes, embora possa incomodar mais do que valer a pena.

Ok, nossas considerações são que:

  • O desacordo é principalmente orientado profissionalmente e não sobre algo não profissional
  • O desacordo é de natureza sustentada e não meramente transitório ou prontamente resolvido
  • O desacordo prevê consequências sérias e geralmente é de um resultado impactante
  • As partes estão em desacordo e parecem intratáveis

Vamos agora dar uma olhada em cada uma das minhas diretrizes ou abordagens sugeridas sobre como lidar com essas divergências profissionais.

A IA e o humano em equipe resolvem as coisas (amigavelmente ou não)

Começo a lista com a possibilidade direta de que a IA e o humano no circuito sejam capazes de resolver o desacordo profissional entre si. Parece que talvez o exemplo dos dois humanos, o piloto e o copiloto, ilustre esse tipo de circunstância. De alguma forma, eles resolveram retornar ao terminal e seguir caminhos separados. Pode ser que um sistema de IA e um humano sejam capazes de descobrir uma abordagem de resolução que seja geralmente satisfatória para ambas as partes e o assunto seja concluído satisfatoriamente.

O humano prevalece sobre a IA, por padrão

Ao configurar a IA, podemos programar uma regra que diga que o humano no circuito sempre prevalecerá sempre que surgir um desacordo profissional. Este seria o padrão explicitamente codificado. Também podemos permitir alguma forma de substituição, apenas por precaução, embora a regra permanente seja que o humano prevaleça.

A IA prevalece sobre o humano, por padrão

Ao configurar a IA, podemos programar uma regra que diga que a IA sempre prevalecerá sobre o humano no circuito sempre que surgir um desacordo profissional. Este é o padrão explicitamente codificado. Também podemos permitir alguma forma de substituição, apenas por precaução, embora a regra permanente seja que a IA prevaleça.

Alguma outra resolução fixa predeterminada prevalece, por padrão

Ao configurar a IA, podemos programar uma regra que diga que alguma outra resolução fixa predeterminada prevalecerá sempre que surgir um desacordo profissional com o humano no circuito. O human-in-the-loop não prevalece por padrão. A IA não prevalece por padrão. Há alguma outra resolução pré-identificada. Por exemplo, talvez haja o lançamento de uma moeda que será usada para decidir qual das duas partes é considerada o caminho certo a seguir. Isso obviamente pareceria bastante arbitrário; assim, outro exemplo de abordagem seria que uma regra especializada entrasse em ação que calculasse um valor com base nas entradas das duas partes e chegasse a um resultado como desempate.

O humano de terceiros está em loop e sua indicação prevalece sobre as partes

Em um desacordo profissional, uma regra pode ser que um terceiro que seja humano seja invocado e inserido no ambiente para tomar uma decisão sobre como resolver o desacordo. A IA está programada para adiar o que o humano terceirizado decidir. O humano que já está no human-in-the-loop foi instruído de antemão que, se tal situação ocorrer, eles também devem se submeter ao humano de terceiros. Como um aparte, você provavelmente pode antecipar que o humano-in-the-loop pode ter angústia em aceitar qualquer coisa que o humano de terceiros decida se a decisão não concordar com a postura do humano-in-the-loop.

A IA de terceiros está em loop e sua indicação prevalece sobre as partes

Em um desacordo profissional, uma regra pode ser que um terceiro que seja um sistema de IA diferente seja invocado e inserido no cenário para tomar uma decisão sobre como resolver o desacordo. A IA original está programada para adiar o que a IA de terceiros decidir. O humano que já está no circuito humano foi instruído de antemão que, se tal situação ocorrer, eles também devem se submeter à IA de terceiros. Como um aparte, você provavelmente pode antecipar que o humano-in-the-loop pode ter angústia em aceitar o que a IA de terceiros decidir se a decisão não concordar com a postura do humano-in-the-loop.

O humano de terceiros substitui o humano existente, as coisas prosseguem de novo

Em caso de desacordo profissional, o humano-in-the-loop é substituído por um terceiro que é um humano e que se torna doravante o humano-in-the-loop. O humano que era o humano original no loop para a tarefa não é mais considerado parte da tarefa em questão. É um aspecto em aberto sobre o que de outra forma acontece com o agora substituído humano no circuito, mas estamos dizendo que com certeza eles não têm mais nenhum papel contínuo na tarefa de trabalho.

A IA de terceiros substitui a IA existente, as coisas continuam de novo

Em caso de desacordo profissional, a IA é substituída por uma IA de terceiros e essa se torna a IA doravante usada para a tarefa de trabalho em questão. A IA que estava sendo usada originalmente para a tarefa não é mais considerada parte da tarefa em questão. É um aspecto aberto sobre o que de outra forma acontece com a IA agora substituída, mas estamos dizendo que com certeza a IA não tem mais nenhum papel contínuo na tarefa de trabalho.

O humano de terceiros substitui a IA existente, as coisas prosseguem de novo (agora de humano para humano)

Em caso de desacordo profissional, a IA é substituída por um humano terceirizado para quem essa pessoa agora se torna a parte considerada em equipe que será usada para a tarefa de trabalho em questão. A IA que estava sendo usada originalmente para a tarefa não é mais considerada parte da tarefa em questão. É um aspecto aberto sobre o que de outra forma acontece com a IA agora substituída, mas estamos dizendo que com certeza a IA não tem mais nenhum papel contínuo na tarefa de trabalho. Em suma, isso agora se torna uma tarefa realizada de duas partes entre humanos.

A IA de terceiros substitui o humano existente, as coisas prosseguem de novo (agora IA para IA)

Em caso de desacordo profissional, o humano-in-the-loop é substituído por uma IA de terceiros e esta IA torna-se o substituto para o humano-in-the-loop anterior. O humano que era o humano original no loop para a tarefa não é mais considerado parte da tarefa em questão. É um aspecto em aberto sobre o que de outra forma acontece com o agora substituído humano-in-the-loop, mas estamos dizendo que com certeza eles não têm mais nenhum papel contínuo na tarefa de trabalho. Em resumo, isso agora se torna uma IA para IA de duas partes para executar a tarefa.

Outros

Outras variações podem ser criadas para lidar com uma divergência profissional, mas abordamos aqui alguns dos fundamentos.

Como vamos decidir qual dessas abordagens será a correta para uma determinada situação?

Uma grande variedade de questões entra em fazer tal escolha. Existem considerações tecnológicas. Existem considerações comerciais. Existem considerações legais e éticas.

Até certo ponto, é por isso que a ética da IA ​​e a IA ética são um tópico tão crucial. Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de ética em IA e fazê-lo integralmente no desenvolvimento e em campo da IA ​​é vital para produzir IA apropriada, incluindo (talvez surpreendentemente ou ironicamente) a avaliação de como a ética da IA ​​é adotada pelas empresas.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Na verdade, eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando a galinha dos ovos de ouro ao reprimir os avanços da IA ​​que oferecem imensas vantagens sociais.

Neste momento desta discussão pesada, eu aposto que você está desejoso de alguns exemplos ilustrativos que possam mostrar este tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre as resoluções de desacordo entre IA e humanos e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e desacordo IA-versus-humano

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Para veículos totalmente autônomos, pode não haver nenhuma chance de um desacordo profissional entre um humano e a IA devido à possibilidade de não haver nenhum humano no circuito para começar. A aspiração de muitos fabricantes de carros autônomos de hoje é remover completamente o motorista humano da tarefa de dirigir. O veículo nem conterá controles de direção acessíveis a humanos. Nesse caso, um motorista humano, se presente, não poderá participar da tarefa de direção, pois não tem acesso a nenhum controle de direção.

Para alguns veículos totalmente autônomos, alguns projetos ainda permitem que um humano esteja no circuito, embora o humano não precise estar disponível ou participar do processo de direção. Assim, um ser humano pode participar da condução, se a pessoa assim o desejar. Em nenhum momento, porém, a IA depende do humano para realizar qualquer uma das tarefas de direção.

No caso de veículos semi-autônomos, existe uma relação de mãos dadas entre o motorista humano e a IA. O motorista humano pode assumir os controles de direção inteiramente e essencialmente impedir que a IA participe da direção. Se o motorista humano deseja restabelecer a IA no papel de motorista, ele pode fazê-lo, embora isso às vezes force o humano a abrir mão dos controles de direção.

Outra forma de operação semi-autônoma envolveria o motorista humano e a IA trabalhando juntos em equipe. A IA está dirigindo e o humano está dirigindo. Eles estão dirigindo juntos. A IA pode se submeter ao humano. O humano pode se submeter à IA.

Em algum momento, o sistema de direção de IA e o motorista humano no circuito podem chegar a um ponto de “discordância profissional” quanto à tarefa de direção em questão.

Para ilustrar como algumas das regras acima mencionadas para lidar com um desacordo profissional podem ser difíceis de implementar, considere a instância de invocar um terceiro humano para entrar no assunto e oferecer uma decisão para resolver o problema não resolvido.

Suponha que uma montadora ou empresa de tecnologia de direção autônoma tenha providenciado para que operadores humanos remotos tenham acesso aos controles de direção dos veículos de sua frota. O operador humano está sentado em algum escritório distante ou ambiente semelhante. Por meio de um sistema de computador, eles podem visualizar a cena de direção acessando as câmeras e outros dispositivos sensores carregados no carro autônomo. Para eles, isso é quase como jogar um videogame online, embora, é claro, as circunstâncias da vida real tenham consequências potencialmente terríveis.

Um sistema de IA e um motorista humano dentro do carro estão dirigindo um veículo semi-autônomo por uma longa estrada. De repente, a IA quer entrar em uma vala. O motorista humano não quer fazer isso. Os dois estão brigando pelos controles de direção.

Como isso será resolvido?

Talvez pudéssemos ter instituído de antemão que o humano sempre vence. Suponha, porém, que optamos por não fazer isso.

Poderíamos ter instituído de antemão que a IA sempre vence. Suponha que optamos por não fazer isso. Em suma, não adotamos nenhuma dessas regras, exceto que decidimos permitir que um terceiro humano interviesse e resolvesse uma divergência profissional de qualquer natureza substantiva.

Neste caso de uso, a IA e o motorista humano ao volante estão lutando pelos controles de direção. Isso é, digamos, transmitido ao operador humano remoto (nosso humano terceirizado). O operador humano remoto examina o que está acontecendo e decide se afastar da vala, aparentemente evitando o que a IA estava tentando fazer. Ao mesmo tempo, suponha que o operador humano remoto conduza o tráfego em sentido contrário, o que talvez nem a IA nem o motorista humano dentro do carro quisessem fazer.

O ponto é que a maneira pela qual essa regra foi implementada é que o operador humano terceirizado é capaz de substituir completamente a IA e o humano no circuito. Se isso vai produzir um bom resultado certamente não é garantido.

Usarei este exemplo para destacar alguns insights adicionais sobre esses assuntos.

Você não pode assumir descaradamente que só porque uma dessas regras é posta em prática o resultado do desacordo resolvido é necessariamente um bom resultado garantido. Pode não ser. Não há nenhum tipo de regra sempre certa que possa ser selecionada.

Em seguida, algumas dessas regras podem não ser implementáveis ​​de forma viável.

Considere o exemplo do operador humano remoto intervindo quando a IA e o motorista humano estão brigando pelos controles de direção. Pode levar muitos segundos para o operador humano remoto descobrir o que está acontecendo. Até então, o veículo já pode ter acabado na vala ou teve algum outro resultado adverso. Além disso, suponha que a localização do veículo impeça o acesso remoto, como estar em algum lugar onde não haja conectividade eletrônica de rede. Ou talvez os recursos de rede do veículo não estejam funcionando naquele momento específico.

Como você pode ver, a regra pode parecer elegante no papel, embora colocá-la em uso real possa ser uma abordagem muito difícil ou altamente arriscada. Veja minha cobertura crítica sobre o operador remoto de veículos autônomos e carros autônomos em o link aqui.

Gostaria de abordar brevemente outro tópico relacionado que abordarei com maior profundidade em uma próxima análise.

Uma das preocupações crescentes sobre veículos autônomos e carros autônomos semi-autônomos é o chamado Síndrome da Batata Quente.

Aqui está o acordo.

Um sistema de direção de IA e um humano estão dirigindo juntos. Uma situação terrível surge. A IA foi programada para abandonar a tarefa de dirigir e entregar as coisas ao humano quando ocorre um momento terrível. Isso parece talvez “sensato” na medida em que parecemos estar invocando a regra sobre o ser humano o “vencedor” padrão em qualquer possível desacordo profissional.

Mas a desistência da IA ​​pode ser para fins mais nefastos ou considerados insidiosos. Pode ser que a montadora ou empresa de tecnologia autônoma não queira que sua IA seja considerada a “parte culpada” quando ocorrer um acidente de carro. Para aparentemente evitar ficar preso assim, a IA entrega abruptamente os controles para o humano. Voila, o humano agora é presumivelmente responsável pelo veículo.

O kicker é que suponha que a IA faça essa transferência com, digamos, um segundo antes que ocorra uma falha.

O humano realmente teria algum tempo disponível para evitar o acidente?

Provavelmente não.

Suponha que a IA faça a transferência com alguns milissegundos ou nanossegundos restantes. Atrevo-me a dizer que o ser humano tem essencialmente zero chance de fazer qualquer coisa para evitar o acidente.

Do ponto de vista da montadora ou empresa de carros autônomos, eles podem tentar agir como se suas mãos estivessem limpas quando ocorre um acidente de carro. O carro estava sendo dirigido por um humano. A IA não estava dirigindo o carro. A única conclusão “lógica” parece ser que o humano deve ser o culpado e a IA deve ser completamente inocente.

É um crocodilo.

Discutirei isso com mais profundidade em uma próxima coluna.

Conclusão

Desentendimentos profissionais vão ocorrer.

É difícil imaginar qualquer tarefa complexa que tenha duas partes co-executando a tarefa e para a qual nunca surgiriam divergências profissionais. Isso parece uma terra de fantasia ou pelo menos uma grande raridade.

Hoje, temos muitos e muitos casos de desacordo profissional entre humanos, para os quais diariamente as resoluções são resolvidas de uma forma ou de outra de forma pacífica e sensata. Na verdade, muitas vezes criamos situações intencionalmente para fomentar e trazer à tona divergências profissionais. Você pode argumentar que isso mostra a famosa sabedoria de que às vezes duas cabeças pensam melhor que uma.

À medida que a IA se tornar mais prevalente, teremos muitos executores de tarefas de duas partes de IA para humano ou humano para IA e haverá divergências profissionais que irá ocorrer. A abordagem preguiçosa é sempre submeter-se ao humano. Esta pode não ser a abordagem mais adequada. AI pode ser a melhor escolha. Ou uma das outras regras acima mencionadas pode ser uma abordagem mais sólida.

Existe aquela linha sábia frequentemente repetida de que todos nós geralmente devemos ser capazes de concordar em discordar, embora, quando se trata de um problema, às vezes um desacordo tem que ser inequivocamente resolvido, caso contrário o assunto em questão levará a uma calamidade incalculável. Não podemos deixar um desacordo definhar na videira. O tempo pode ser essencial e vidas podem estar em jogo.

Há um requisito claro para alguns meios prudentes para resolver desacordos, mesmo que não necessariamente de forma agradável, inclusive quando a IA e um humano no circuito não estão vendo olho no olho nem byte a byte.

Espero que você não discorde dessa afirmação totalmente agradável.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- o-piloto-e-co-piloto-discordaram-antes-de-decolar-e-abruptamente-optou-para-táxi-voltar-para-o-terminal-e-ir-seus-caminhos-separados/