Ética da IA ​​e a busca pela autoconsciência na IA

Você é autoconsciente?

Aposto que você acredita que é.

O fato é que, supostamente, poucos de nós são especialmente autoconscientes. Há uma gama ou grau de autoconsciência e todos nós supostamente variamos em quão astutamente autoconscientes somos. Você pode pensar que é totalmente autoconsciente e apenas marginalmente. Você pode ser um pouco autoconsciente e perceber que esse é o seu estado mental.

Enquanto isso, na parte mais alta do espectro, você pode acreditar que é totalmente autoconsciente e, de fato, é francamente tão autoconsciente quanto possível. Bom para você.

Falando nisso, de que adianta ser extremamente autoconsciente?

Segundo pesquisa publicada no Harvard Business Review (HBR) por Tasha Eurich, você supostamente é capaz de tomar melhores decisões, está mais confiante em suas decisões, é mais forte em suas capacidades de comunicação e mais eficaz em geral (por artigo intitulado “O que a autoconsciência realmente é (e como para cultivá-lo).” O fator de bônus é que aqueles com autoconsciência estridente são menos inclinados a trapacear, roubar ou mentir. esforçando-se para ser um ser humano melhor e embelezar seus semelhantes.

Toda essa conversa sobre autoconsciência traz à tona uma questão um tanto óbvia, a saber, o que a frase autoconsciência realmente denota. Você pode facilmente encontrar toneladas de várias definições e interpretações sobre a construção complexa e, digamos, piegas que implica ser autoconsciente. Alguns simplificariam as coisas sugerindo que a autoconsciência consiste em monitorar seu próprio eu, saber o que você está fazendo. Você está profundamente consciente de seus próprios pensamentos e ações.

Presumivelmente, ao não ser autoconsciente, uma pessoa não perceberia o que está fazendo, nem por quê, e também não saberia o que outras pessoas têm a dizer sobre ela. Tenho certeza que você já conheceu pessoas que são assim.

Algumas pessoas parecem andar nesta terra sem a menor ideia do que elas mesmas estão fazendo, e nem têm a menor ideia do que os outros estão dizendo sobre elas. Eu acho que você pode argumentar que eles são como um touro de cabeça para baixo em uma delicada butique de quebráveis. Costumamos acreditar que o touro não sabe o que está fazendo e permanece alheio aos pontos de vista dos outros, a menos que esses outros tentem manobrar fisicamente ou encurralar a criatura sem noção.

Diz-se que a autoconsciência pode ser um tanto recursiva.

Deixe-me esboçar um exemplo para ilustrar essa recursão. Você está assistindo a um vídeo de gato bastante absorvente em seu smartphone (todo mundo faz isso, parece). Algumas pessoas não teriam outros pensamentos aparentes além das maravilhosas e reconfortantes travessuras daqueles queridos gatos. Enquanto isso, qualquer pessoa com um mínimo de autoconsciência sabe que está assistindo a um vídeo de gato. Eles também podem estar cientes de que outras pessoas ao seu redor estão notando que estão assistindo a um vídeo de gato.

Observe que você pode ser autoconsciente e ainda estar imerso em uma, digamos, uma atividade primária específica. A principal atividade neste caso é assistir ao vídeo do gato. Secundariamente, e simultaneamente, você pode carregar o pensamento de que está de fato assistindo a um vídeo de gato. Você também é capaz de carregar o pensamento de que os outros estão observando você enquanto assiste ao vídeo do gato completamente divertido. Você não precisa necessariamente interromper uma atividade, como parar de assistir ao vídeo do gato, para então contemplar separadamente que você está (ou apenas estava) assistindo a um vídeo do gato. Esses pensamentos podem aparentemente ocorrer em paralelo uns com os outros.

Às vezes, nossa autoconsciência pode nos expulsar ou pelo menos interromper uma atividade mental primária. Talvez, ao pensar em assistir ao vídeo do gato, sua mente se distraia parcialmente, pois está se esforçando demais para se concentrar apenas no vídeo em si. Você opta por rebobinar o vídeo para revisitar a parte que você viu, mas que estava mentalmente distraído de compreender completamente. A autoconsciência perturbou sua atividade mental primária.

Ok, agora estamos prontos para os aspectos recursivos surgirem.

Está pronto para começar?

Você está assistindo a um vídeo de gato. Sua autoconsciência está informando que você está assistindo a um vídeo de gato e que outras pessoas estão assistindo você enquanto você assiste ao vídeo. Esse é o status quo.

Em seguida, você faz um salto mental adicional. Você começa a pensar sobre sua autoconsciência. Você está autoconsciente de que está engajando sua autoconsciência. É assim que acontece: Estou pensando demais em pensar em assistir ao vídeo do gato, você se pergunta desesperadamente? Esta é outra camada de autoconsciência. Classificação de autoconsciência em cima de outras autoconsciências.

Há um velho ditado que diz que são tartarugas até o fim. Para os fenômenos de autoconsciência, você pode ser:

  • Não está ciente de si mesmo
  • Autoconsciente de si mesmo
  • Autoconsciência da sua autoconsciência de si mesmo
  • Autoconsciente de seu ser autoconsciente de sua autoconsciência de si mesmo
  • Ad Infinitum (ou seja, e assim por diante)

Você deve ter percebido que eu estava apontando sutilmente que parece haver duas categorias principais de autoconsciência. Uma teoria em particular postula que temos um tipo de autoconsciência interna que se concentra em nossos estados internos, e também temos uma autoconsciência externa que ajuda a avaliar as percepções sobre nós daqueles ao nosso redor que estão nos vendo.

De acordo com o artigo da HBR, aqui está uma descrição rápida dos dois tipos teorizados de autoconsciência: “O primeiro, que apelidamos de autoconsciência interna, representa a clareza com que vemos nossos próprios valores, paixões, aspirações, adequação ao nosso ambiente, reações (incluindo pensamentos, sentimentos, comportamentos, pontos fortes e fracos) e impacto sobre os outros”. E enquanto isso a outra é: “A segunda categoria, autoconsciência externa, significa entender como as outras pessoas nos veem, em termos dos mesmos fatores listados acima. Nossa pesquisa mostra que as pessoas que sabem como os outros as veem são mais habilidosas em mostrar empatia e aceitar as perspectivas dos outros.”

Uma útil matriz de dois por dois ou quatro quadrados pode ser derivada afirmando que tanto a autoconsciência interna quanto a externa variam de alto a baixo, e você pode combinar as duas categorias uma com a outra. A pesquisa da HBR indica que você é considerado um desses quatro arquétipos de autoconsciência:

  • Introspector: baixa autoconsciência externa + alta autoconsciência interna
  • Buscador: Baixa Autoconsciência Externa + Baixa Autoconsciência Interna
  • Agradável: Alta Autoconsciência Externa + Baixa Autoconsciência Interna
  • Consciente: Alta Autoconsciência Externa + Alta Autoconsciência Interna

O pináculo seria o arquétipo “Aware” que consiste em estar no degrau superior de ser autoconsciente externamente e igualmente no topo de ser autoconsciente internamente. Para esclarecer, você não atinge essa postura vangloriada de maneira necessariamente permanente. Você pode deslizar para frente e para trás entre ser alto e baixo, entre os reinos de autoconsciência interno e externo. Pode depender da hora do dia, da situação em que você se encontra e de uma série de outros fatores importantes.

Agora que cobrimos afavelmente alguns elementos fundamentais sobre autoconsciência, podemos tentar vincular isso ao tópico de comportamentos éticos.

A alegação usual sobre ser autoconsciente é que é mais provável que você seja honesto quando é autoconsciente. Isso significa que, como já indicado, você está menos propenso a comportamentos éticos adversos, como roubar, trapacear e mentir. A justificativa para essa tendência é que a atividade de sua autoconsciência faria você perceber que seu próprio comportamento é desagradável ou antiético. Você não apenas se pega quando entra em águas lamacentas e antiéticas, mas também está propenso a se dirigir de volta para terra firme (a santidade do território ético), por assim dizer.

Sua autoconsciência o ajuda a exercer o autocontrole.

Presumivelmente, um contraste seria quando há pouca ou nenhuma autoconsciência, o que sugere que alguém talvez esteja alheio à sua inclinação para comportamentos antiéticos. Você poderia argumentar que uma pessoa tão inconsciente pode não perceber que está tendo um desempenho adverso. Semelhante ao touro na loja de quebráveis, até que algo mais abertamente chame sua atenção, é improvável que eles se autorregulam.

Nem todo mundo compra isso, a propósito. Alguns argumentariam que a autoconsciência pode ser aplicada tão prontamente a ser antiético quanto a ser ético. Por exemplo, um malfeitor pode ser totalmente autoconsciente e gostar de estar cometendo o mal. Sua autoconsciência até os leva mais estridentemente a atos cada vez maiores de má conduta nefasta.

Há mais nebulosidade nisso do que pode parecer diretamente. Suponha que alguém seja profundamente autoconsciente, mas desconhece os costumes éticos de uma determinada sociedade ou cultura. Dessa forma, eles não têm nenhuma orientação ética, apesar do fato de serem autoconscientes. Ou, se preferir, talvez a pessoa conheça os preceitos éticos e não acredite que se apliquem a eles. Eles se consideram únicos ou fora dos limites do pensamento ético convencional.

Volta e volta vai.

A autoconsciência poderia ser interpretada como uma faca de dois gumes orientada para a ética, alguns enfatizariam fervorosamente.

Por enquanto, vamos com a versão de cara feliz que consiste em autoconsciência em geral nos guiando ou empurrando para comportamentos éticos. Tudo o mais sendo igual, faremos a suposição impetuosa de que quanto mais autoconsciência houver, mais inclinado eticamente você será. Com certeza parece agradável e inspirador desejar que assim seja.

Vamos mudar de marcha e trazer a Inteligência Artificial (IA) para o cenário.

Estamos em um momento nesta discussão para conectar todos os emaranhados do processo com o domínio florescente da IA ​​ética, também comumente conhecida como ética da IA. Para minha cobertura contínua e extensa da ética da IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

A noção de IA Ética implica entrelaçar o campo da ética e do comportamento ético ao advento da IA. Você certamente já viu manchetes que levantaram alarmes sobre a IA repleta de desigualdades e vários preconceitos. Por exemplo, há preocupações de que os sistemas de reconhecimento facial baseados em IA possam às vezes exibir discriminação racial e de gênero, geralmente como resultado de como as instalações subjacentes de Machine Learning (ML) e Deep Learning (DL) foram treinadas e colocadas em campo (veja minha análise no este link aqui).

Para tentar parar ou pelo menos mitigar a corrida desordenada em direção AI para mau, consistindo em sistemas de IA que são inadvertidamente ou às vezes intencionalmente moldados para agir mal, houve uma urgência recente de aplicar os preceitos éticos ao desenvolvimento e uso da IA. O objetivo sério é fornecer orientação ética para desenvolvedores de IA, além de empresas que constroem ou implementam IA e aquelas que dependem de aplicativos de IA. Como exemplo dos princípios de IA ética sendo criados e adotados, veja minha cobertura em o link aqui.

Dê um momento de reflexão para considerar estas três questões altamente cruciais:

  • Podemos fazer com que os desenvolvedores de IA adotem os princípios éticos da IA ​​e coloquem essas diretrizes em uso real?
  • Podemos fazer com que as empresas que criam ou trabalham com IA façam o mesmo?
  • Podemos fazer com que aqueles que usam IA estejam igualmente cientes das facetas éticas da IA?

Eu diria descaradamente isso, é uma tarefa difícil.

A emoção de fazer IA pode superar qualquer suspeita de atenção à ética da IA. Bem, não apenas a emoção, mas ganhar dinheiro também é parte integrante dessa equação. Você pode se surpreender ao saber que alguns no reino da IA ​​estão aptos a dizer que vão conseguir lidar com as “coisas” Éticas da IA ​​assim que colocarem seus sistemas de IA fora da porta. Este é o mantra técnico típico de certificar-se de falhar rápido e falhar com frequência até acertar (espero acertar).

Claro, aqueles que estão empurrando sumariamente a IA eticamente duvidosa para o público em geral estão deixando o cavalo sair do celeiro. Sua proclamada idéia estendida é que o AI para mau será consertado após o uso diário, o que é prejudicial, pois o cavalo já está galopando desenfreadamente. Danos podem ser feitos. Há também a maior chance de que nada seja consertado ou ajustado enquanto a IA estiver em uso. Uma desculpa frequente é que mexer com a IA nesse momento pode torná-lo ainda pior em termos de tomada de decisão algorítmica (ADM) já antiética saindo completamente do papel.

O que pode ser feito para obter a utilidade e a vitalidade de ter a IA ética como uma luz brilhante e orientadora nas mentes daqueles que estão construindo IA, colocando em campo a IA e usando a IA?

Responda: Autoconsciência.

Sim, a noção é que, se as pessoas fossem mais autoconscientes sobre como usam ou interagem com a IA, isso pode aumentar sua propensão a querer que a IA ética seja a norma. O mesmo pode ser dito sobre os desenvolvedores de IA e as empresas relacionadas a sistemas de IA. Se eles fossem mais autoconscientes do que estão fazendo, talvez eles adotassem mais a ética da IA.

Parte da lógica já estipulada é que ser autoconsciente oferece uma tendência a ser uma pessoa eticamente melhor e também evitar ser uma pessoa eticamente ruim. Se pudermos manter essa premissa, isso implica que os desenvolvedores de IA que estão mais inclinados à autoconsciência estarão, portanto, inclinados a comportamentos éticos e, portanto, inclinados a produzir IA eticamente sólida.

É uma ponte muito longe para você?

Alguns diriam que a indiretividade é um pouco demais. A cadeia exorbitante de ligações entre ser autoconsciente, ser eticamente virtuoso e aplicar preceitos éticos à IA talvez seja difícil de engolir. Um contra-argumento é que não faria mal tentar.

Os céticos diriam que um desenvolvedor de IA pode ser autoconsciente e possivelmente ter uma mente mais ética, mas eles não vão necessariamente aplicar esse acampamento mental aos costumes da IA ​​Ética. A resposta a esse escrúpulo é que, se pudermos divulgar e popularizar questões éticas de IA, a conexão aparentemente tênue se tornará mais óbvia, esperada e possivelmente se tornará a maneira padrão de fazer as coisas quando se trata de criar IA.

Agora vou adicionar uma reviravolta a esta saga. A torção pode fazer sua cabeça girar. Por favor, certifique-se de estar bem sentado e preparado para o que estou prestes a indicar.

Alguns apontam que deveríamos estar construindo a IA Ética diretamente na própria IA.

Você pode ficar perplexo com esse pronunciamento. Vamos descompactá-lo.

Um programador pode criar um sistema de IA e fazê-lo com sua própria autoconsciência de programação de tentar impedir que a IA incorpore preconceitos e desigualdades. Em vez de apenas arar a programação, o desenvolvedor está observando por cima do próprio ombro para perguntar se a abordagem que está realizando resultará na necessária ausência de elementos adversos na IA.

Ótimo, temos um desenvolvedor de IA que parece ser suficientemente autoconsciente, procurou adotar comportamentos éticos e viu a luz para incluir preceitos éticos ao criar seu sistema de IA.

Marque uma vitória para a IA Ética!

Tudo muito bem, embora aqui está algo que pode acontecer mais tarde. A IA é colocada em campo e colocada em uso diário. Parte da IA ​​incluía um componente para poder “aprender” em tempo real. Isso significa que a IA pode se ajustar com base em novos dados e outros aspectos da programação original. Como um aparte rápido, isso não implica que a IA seja senciente. Não temos IA senciente. Ignore essas manchetes idiotas dizendo que sim. Ninguém pode dizer se teremos IA senciente, e ninguém pode prever suficientemente quando isso acontecerá.

Voltando à nossa história, a IA foi projetada propositalmente para melhorar a si mesma enquanto estava em andamento. Uma noção bastante útil. Em vez de os programadores terem que fazer melhorias continuamente, eles permitem que o programa de IA faça isso por si mesmo (uau, isso é ficar sem emprego?).

Durante o tempo em que a IA polegada por polegada se ajusta, várias desigualdades e preconceitos sórdidos estão se insinuando no sistema de IA por seus próprios atos de alteração. Considerando que o programador originalmente manteve esses aspectos decadentes, eles agora estão formulando devido ao ajuste da IA ​​em tempo real. Lamentavelmente, isso pode acontecer de uma maneira tão sutil nos bastidores que ninguém é mais sábio. Aqueles que antes poderiam ter dado luz verde à IA após o exaustivo teste inicial, agora estão cegamente inconscientes de que a IA seguiu o caminho podre de AI para mau.

Um meio de prevenir ou pelo menos capturar esse surgimento indesejável seria construir na IA uma espécie de verificador ético de IA. Um componente dentro da IA ​​é programado para observar o comportamento da IA ​​e detectar se o ADM antiético está começando a surgir. Nesse caso, o componente pode enviar um alerta para os desenvolvedores de IA ou para uma empresa que está executando o sistema de IA.

Uma versão mais avançada desse componente pode tentar reparar o AI. Isso seria um ajuste dos ajustes, fazendo com que os aspectos não éticos surgidos voltem aos parâmetros éticos próprios. Você pode imaginar que esse tipo de programação é complicado. Há uma chance de que isso possa se extraviar, possivelmente tornando antiético em profundamente antiético. Existe também a possibilidade de um falso positivo acionar o componente em ação e talvez estragar as coisas de acordo.

De qualquer forma, sem nos atrapalharmos em como esse verificador duplo funcionaria, vamos fazer uma declaração audaciosa sobre isso. Você pode sugerir que, de alguma forma limitada, a IA é considerada autoconsciente.

Caramba, essas são palavras de luta para muitos.

A crença predominante de quase todos é que a IA de hoje não é autoconsciente. Ponto final, ponto. Até chegarmos à IA senciente, que não sabemos se ou quando isso ocorrerá, não há nenhum tipo de IA que seja autoconsciente. Não pelo menos no sentido de autoconsciência orientada para o ser humano. Nem mesmo sugira que isso pode acontecer.

Eu certamente concordo que precisamos ter cuidado com a antropomorfização da IA. Falarei mais sobre essa preocupação em breve.

Enquanto isso, se você, por uma questão de discussão, estiver disposto a usar a fase “autoconsciente” de uma maneira frouxa, acredito que você possa ver prontamente por que se pode dizer que a IA está cumprindo a noção geral de autoconsciência. conhecimento. Temos uma parte da IA ​​que está monitorando o resto da IA, mantendo o controle sobre o que o resto da IA ​​está fazendo. Quando o resto da IA ​​começa a exagerar, a parte de monitoramento procura detectar isso. Além disso, a parte de monitoramento da IA ​​ou o verificador duplo pode direcionar o restante da IA ​​de volta para as faixas apropriadas.

Isso não parece um pouco com o ato de assistir a esses vídeos de gatos e ter a autoconsciência de que você estava fazendo isso?

Há um toque familiar para ele.

Podemos estender isso ainda mais. O componente de verificação dupla de IA não é apenas programado para observar o comportamento do resto da IA, mas também observa o comportamento daqueles que estão usando a IA. Como os usuários estão se saindo ao utilizar a IA? Suponha que alguns usuários estejam expressando indignação porque a IA parece estar os discriminando. O verificador duplo da IA ​​pode ser capaz de perceber isso, usando-o como outra bandeira vermelha sobre o resto da IA ​​se perder.

Isso traz à tona as categorizações de autoconsciência interna e externa.

O verificador duplo da IA ​​está escaneando interna e externamente para descobrir se o resto da IA ​​entrou em mares turbulentos. A detecção levantará um sinalizador ou fará com que uma autocorreção seja decretada.

Vamos adicionar outra extensão um tanto incompreensível. Construímos outro verificador duplo de IA destinado a verificar novamente o verificador duplo de IA principal. Por quê então? Bem, suponha que o verificador duplo da IA ​​pareça estar vacilando ou falhando em fazer seu trabalho. O verificador duplo de IA do verificador duplo procuraria detectar esse mau funcionamento e tomar as medidas necessárias de acordo. Bem-vindo à natureza recursiva da autoconsciência, alguns podem declarar orgulhosamente, conforme exibido em um sistema de IA computacional.

Para aqueles que já estão na ponta de sua cadeira sobre isso, o último comentário, por enquanto, é que podemos tentar sugerir que, se você tornar os sistemas de IA “autoconscientes”, eles potencialmente gravitarão em direção ao comportamento ético. Eles estão fazendo isso em uma base senciente? Decididamente, não. Eles estão fazendo isso em uma base computacional? Sim, embora tenhamos que ser claros que não é do mesmo calibre que o comportamento humano.

Se você se sente desconfortável com o fato de a noção de autoconsciência estar sendo distorcida erroneamente para ajustá-la a um esquema computacional, suas dúvidas quanto a isso são bem observadas. Se devemos interromper os esforços contínuos de IA que alavancam a noção é outra questão em aberto. Você poderia argumentar de forma persuasiva que pelo menos parece nos levar a um resultado melhor do que a IA provavelmente fará. Precisamos, no entanto, ter os olhos bem abertos enquanto isso acontece.

Acho que vamos precisar ver como tudo isso se desenrola. Volte a isso em cinco anos, dez anos e cinquenta anos, e veja se seu pensamento mudou sobre o assunto controverso.

Percebo que este foi um exame um tanto inebriante do tópico e você pode estar ansiando por alguns exemplos do dia-a-dia. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre a IA ter uma aparência de “autoconsciência” e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Como esclarecimento, verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não há um carro autônomo de verdade no Nível 5, que ainda nem sabemos se isso será possível e nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e IA com a chamada autoconsciência

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Acredito que isso forneça uma litania de advertências suficiente para fundamentar o que estou prestes a relatar.

Estamos preparados agora para mergulhar profundamente em carros autônomos e questões éticas de IA que envolvem a noção de que a IA tem um tipo de autoconsciência, se você quiser.

Vamos usar um exemplo direto. Um carro autônomo baseado em IA está em andamento nas ruas do seu bairro e parece estar dirigindo com segurança. No início, você dedicou atenção especial a cada vez que conseguiu vislumbrar o carro autônomo. O veículo autônomo se destacou com seu rack de sensores eletrônicos que incluíam câmeras de vídeo, unidades de radar, dispositivos LIDAR e similares. Depois de muitas semanas de carro autônomo circulando pela sua comunidade, agora você mal percebe. Para você, é apenas mais um carro nas vias públicas já movimentadas.

Para que você não pense que é impossível ou implausível se familiarizar com a visão de carros autônomos, escrevi frequentemente sobre como os locais que estão dentro do escopo de testes de carros autônomos gradualmente se acostumaram a ver os veículos enfeitados, veja minha análise em este link aqui. Muitos dos moradores, eventualmente, passaram de boquiabertos boquiabertos para agora emitindo um bocejo expansivo de tédio para testemunhar aqueles sinuosos carros autônomos.

Provavelmente a principal razão agora que eles podem notar os veículos autônomos é por causa do fator de irritação e exasperação. Os sistemas de direção de IA convencionais garantem que os carros estejam obedecendo a todos os limites de velocidade e regras da estrada. Para motoristas humanos agitados em seus carros tradicionais conduzidos por humanos, às vezes você fica irritado quando fica preso atrás dos carros autônomos baseados em IA estritamente cumpridores da lei.

Isso é algo que todos nós precisamos nos acostumar, com ou sem razão.

De volta ao nosso conto. Um dia, suponha que um carro autônomo em sua cidade se aproxime de um sinal de pare e não pareça estar diminuindo a velocidade. Céus, parece que o sistema de direção de IA fará com que o carro autônomo passe pelo sinal de pare. Imagine se um pedestre ou ciclista estivesse em algum lugar próximo e fosse pego de surpresa que o carro autônomo não iria parar adequadamente. Vergonhoso. Perigoso!

E, ilegal.

Vamos agora considerar um componente de IA no sistema de condução de IA que atua como um estilo de verificação dupla autoconsciente.

Dedicaremos um momento para aprofundar os detalhes do que está acontecendo dentro do sistema de condução de IA. Acontece que as câmeras de vídeo montadas no veículo autônomo detectaram o que parecia ser um sinal de pare, embora neste caso uma árvore coberta de mato obscureça abundantemente o sinal de pare. O sistema de Aprendizado de Máquina e Aprendizado Profundo que foi originalmente treinado em sinais de Stop foi concebido em padrões de sinais de Stop principalmente completos, geralmente sem restrições. Ao examinar computacionalmente as imagens de vídeo, foi atribuída uma baixa probabilidade de que existisse um sinal de pare naquele local específico (como complicação adicional e explicação adicional, este era um sinal de pare recém-publicado que não aparecia nos mapas digitais preparados anteriormente que o sistema de condução AI estava confiando).

Em suma, o sistema de direção de IA determinou computacionalmente a seguir em frente como se o sinal de pare fosse inexistente ou possivelmente um sinal de outro tipo que talvez se assemelhasse a um sinal de pare (isso pode acontecer e acontece com alguma frequência).

Mas, felizmente, o verificador autoconsciente da IA ​​estava monitorando as atividades do sistema de condução da IA. Ao revisar computacionalmente os dados e a avaliação pelo resto da IA, esse componente optou por substituir o curso normal do procedimento e, em vez disso, ordenou que o sistema de direção da IA ​​parasse adequadamente.

Ninguém ficou ferido e nenhum ato ilegal ocorreu.

Você poderia dizer que o verificador duplo autoconsciente da IA ​​agiu como se fosse um agente legal incorporado, tentando garantir que o sistema de direção da IA ​​obedecesse à lei (neste caso, um sinal de pare). Claro que a segurança também foi fundamental.

Espero que esse exemplo mostre como o verificador duplo autoconsciente de IA concebido pode funcionar.

Em seguida, podemos considerar brevemente um exemplo de IA ética mais proeminente que ilustra como a verificação dupla autoconsciente da IA ​​pode fornecer uma funcionalidade incorporada orientada à IA ética.

Primeiro, como pano de fundo, uma das preocupações expressas sobre o advento dos carros autônomos baseados em IA é que eles podem acabar sendo usados ​​de maneira discriminatória um tanto inadvertida. Aqui está como. Suponha que esses carros autônomos sejam configurados para tentar maximizar seu potencial de receita, o que decididamente faz sentido para aqueles que estão operando uma frota de carros autônomos disponíveis para compartilhamento de viagens. O proprietário da frota gostaria de ter uma operação lucrativa.

Pode ser que em uma determinada vila ou cidade, os carros autônomos de roaming gradualmente comecem a atender algumas partes da comunidade e não outras áreas. Eles fazem isso com o objetivo de ganhar dinheiro, pois as áreas mais pobres podem não ser tão geradoras de receita quanto as partes mais ricas do local. Esta não é uma aspiração explícita de servir a algumas áreas e não servir a outras. Em vez disso, surge organicamente quanto à IA dos carros autônomos “descobrir” computacionalmente que há mais dinheiro a ser ganho concentrando-se nas áreas geograficamente mais bem pagas. Eu discuti essa preocupação ética social em minha coluna, como em o link aqui.

Suponha que adicionamos um verificador duplo autoconsciente de IA nos sistemas de condução de IA. Depois de um tempo, o componente de IA percebe computacionalmente um padrão de onde os carros autônomos estão em roaming. Notavelmente, em algumas áreas, mas não em outras. Com base em ter sido codificado com alguns preceitos éticos da IA, o verificador autoconsciente da IA ​​começa a guiar os carros autônomos para outras partes da cidade que, de outra forma, estavam sendo negligenciadas.

Isso ilustra a noção de autoconsciência da IA ​​e o faz em combinação com o elemento IA ética.

Mais um exemplo pode fornecer informações de que essa consideração de IA ética também pode ser uma ramificação de vida ou morte bastante séria e séria.

Considere uma reportagem sobre um acidente de carro recente. Alegadamente, um motorista humano estava chegando a um cruzamento movimentado e teve um sinal verde para seguir em frente. Outro motorista passou por um semáforo vermelho e entrou no cruzamento quando não deveria. O motorista com a luz verde percebeu no último momento que este outro carro iria bater severamente em seu carro.

De acordo com esse motorista em perigo, ele calculou conscientemente que ou seria atropelado pelo outro carro ou poderia desviar para tentar evitar o intruso. O problema com o desvio era que havia pedestres próximos que estariam em perigo.

Qual escolha você faria?

Você pode se preparar para ser atingido e esperar que o dano não o machuque ou mate. Por outro lado, você pode desviar radicalmente, mas gravemente em perigo e possivelmente ferir ou matar pedestres próximos. Este é um problema difícil, que envolve julgamento moral e está totalmente imerso em implicações éticas (e legais).

Há um dilema ético de propósito geral que cobre esse tipo de dilema, famoso ou talvez infamemente chamado de Problema do bonde, veja minha extensa cobertura em este link aqui. Acontece que é um experimento mental eticamente estimulante que remonta ao início de 1900. Como tal, o tópico já existe há bastante tempo e, mais recentemente, tornou-se geralmente associado ao advento da IA ​​e dos carros autônomos.

Substitua o motorista humano por um sistema de direção de IA incorporado em um carro autônomo.

Imagine então que um carro autônomo de IA está entrando em um cruzamento e os sensores do veículo autônomo detectam de repente um carro dirigido por humanos vindo perigosamente diretamente através de uma luz vermelha e mirando no carro sem motorista. Suponha que o carro autônomo tenha alguns passageiros dentro do veículo.

O que você quer que a IA faça?

Se o sistema de direção de IA optar por seguir em frente e ser atropelado (provavelmente ferindo ou talvez matando os passageiros dentro do veículo), ou você deseja que o sistema de direção de IA se arrisque e se afaste, embora a ação de desvio leve o veículo autônomo perigosamente em direção aos pedestres próximos e pode machucá-los ou matá-los.

Muitos dos fabricantes de IA de carros autônomos estão adotando uma abordagem de cabeça na areia para essas dificuldades éticas de IA. Em geral, a IA, conforme programada atualmente, simplesmente avançaria e seria violentamente abalroada pelo outro carro. A IA não foi programada para procurar outras manobras evasivas.

Eu previ repetidamente que essa postura de não ver o mal, não ouvir o mal dos fabricantes de carros autônomos de IA acabará por aparecer e mordê-los (minha análise está em o link aqui). Você pode esperar ações judiciais envolvendo esses acidentes de carro que procurarão descobrir o que a IA foi programada para fazer. A empresa ou os desenvolvedores de IA ou o operador de frota que desenvolveu e colocou em campo a IA foi negligente ou responsável pelo que a IA fez ou deixou de fazer? Você também pode antecipar que uma tempestade pública de conscientização ética sobre a IA ocorrerá quando esses tipos de casos ocorrerem.

Nesse dilema de IA ética, entra nosso alardeado verificador autoconsciente de IA que é orientado para a ética. Talvez esse componente especial de IA possa se envolver nesses tipos de circunstâncias. A parte está monitorando o restante do sistema de direção de IA e o status do carro autônomo. Quando surge um momento terrível como esse, o componente de IA serve como um solucionador de problemas de carrinho e oferece o que o sistema de direção de IA deve fazer.

Não é uma coisa fácil de codificar, eu garanto.

Conclusão

Vou compartilhar com vocês o último pensamento por enquanto sobre este tópico.

É provável que você ache intrigante.

Você conhece o teste do espelho?

É bastante conhecido no estudo da autoconsciência. Outros nomes para o assunto são o teste de auto-reconhecimento do espelho, o teste da mancha vermelha, o teste rouge e frases relacionadas. A técnica e a abordagem foram inicialmente elaboradas no início da década de 1970 para avaliar a autoconsciência dos animais. Os animais que passaram com sucesso no teste incluem macacos, certos tipos de elefantes, golfinhos, pegas e alguns outros. Os animais que foram testados e supostamente não passaram no teste incluem pandas gigantes, leões marinhos, etc.

Aqui está o acordo.

Quando um animal se vê no espelho, o animal percebe que a imagem mostrada é dele mesmo, ou o animal pensa que é outro animal?

Presumivelmente, o animal reconhece visualmente sua própria espécie, tendo visto outros de sua própria espécie, e pode, portanto, pensar que o animal mostrado no espelho é um primo ou talvez um competidor beligerante (especialmente se o animal rosna para a imagem no espelho, que em volta parece estar rosnando de volta para eles). Talvez você já tenha visto seu gato doméstico ou cachorro de estimação fazer o mesmo quando se vê em um espelho doméstico pela primeira vez.

De qualquer forma, presumiríamos que um animal selvagem nunca se viu antes. Bem, isso não é necessariamente verdade, já que talvez o animal tenha se vislumbrado em uma piscina de água calma ou através de uma formação rochosa brilhante. Mas essas são consideradas chances menos prováveis.

Ok, queremos de alguma forma avaliar se um animal é capaz de descobrir que é de fato o animal mostrado no espelho. Pondere sobre esse ato aparentemente simples. Os seres humanos descobrem desde cedo que existem e que sua existência é demonstrada ao se verem em um espelho. Tornam-se autoconscientes de si mesmos. Em teoria, você pode não perceber que é você, até se ver no espelho.

Talvez os animais não sejam capazes de se tornar cognitivamente autoconscientes da mesma maneira. Pode ser que um animal se veja em um espelho e acredite perpetuamente que é algum outro animal. Não importa quantas vezes ele se veja, ele ainda pensaria que este é um animal diferente dele.

A parte do truque disso vem para jogar. Fazemos uma marca no animal. Esta marca deve ser visível apenas quando o animal se vê no espelho. Se o animal puder se torcer ou virar e ver a marca em si mesmo (diretamente), isso arruinará o experimento. Além disso, o animal não pode sentir, cheirar ou de qualquer outra forma detectar a marca. Mais uma vez, se o fizessem, arruinaria o experimento. O animal não pode saber que colocamos a marca nele, pois isso indicaria ao animal que algo está lá.

Queremos restringir as coisas de tal forma que a única razão possível pela qual a marca seja detectável seja olhando para si mesma no espelho.

Aha, o teste já está pronto. O animal é colocado na frente de um espelho ou vagueia até ele. Se o animal tentar tocar ou cavar a marca posteriormente, concluiremos razoavelmente que a única maneira de isso ocorrer é se o animal perceber que a marca está em si mesmo. Muito poucas espécies de animais foram capazes de passar com sucesso neste teste.

Há uma série de críticas sobre o teste. Se um testador humano estiver por perto, eles podem dar coisas olhando para a marca, o que pode fazer com que o animal escove ou apalpe a marca. Outra possibilidade é que o animal ainda acredite que outro animal é mostrado no espelho, mas é do mesmo tipo, e assim o animal se pergunta se também tem uma marca como a do outro animal.

E assim vai.

Tenho certeza de que você está feliz em saber disso e daqui em diante entenderá por que há um ponto ou alguma marca estranha em um animal que, de outra forma, não teria essa marca. Quem sabe, pode ter acabado recentemente um experimento de teste de espelho. Parabenize o animal, com segurança, por ter sido um participante generoso.

O que isso tem a ver com carros autônomos baseados em IA?

Você vai gostar desta parte.

Um carro autônomo está andando por uma longa estrada. O sistema de direção de IA está usando sensores para detectar outro tráfego. Esta é uma rodovia de duas pistas que tem tráfego indo para o norte em uma pista e para o sul na outra pista. Ocasionalmente, carros e caminhões tentarão passar um pelo outro, entrando na pista oposta e depois voltando para a pista correta de viagem.

Você já viu isso, você sem dúvida fez isso.

Aposto que este próximo aspecto já aconteceu com você também. À frente do carro autônomo está um daqueles caminhões-tanque de tamanho considerável. É feito de metal brilhante. Polido e limpo como um apito. Ao ficar atrás de um caminhão desse tipo, você pode ver a imagem espelhada do seu carro pela parte traseira do caminhão-tanque. Se você já viu isso, sabe o quão fascinante pode ser. Aí está você, você e seu carro, refletidos no reflexo espelhado da traseira do caminhão-tanque.

Sente-se para a torção louca.

Um carro autônomo aparece atrás do caminhão-tanque. As câmeras detectam a imagem de um carro que é mostrada no reflexo espelhado. Uau, a IA avalia, isso é um carro? Está vindo no carro autônomo? À medida que o carro autônomo se aproxima cada vez mais do caminhão-tanque, o carro parece estar se aproximando cada vez mais.

Caramba, a IA computacionalmente pode calcular que esta é uma situação perigosa e a IA deve tomar medidas evasivas desse veículo desonesto louco. Veja bem, a IA não se reconheceu no espelho. Ele falhou no teste do espelho.

O que fazer? Talvez o verificador duplo autoconsciente da IA ​​entre no assunto e assegure ao resto do sistema de condução da IA ​​que é apenas um reflexo inofensivo. Perigo evitado. O mundo está salvo. Passagem bem sucedida do AI Mirror Test!

Com uma conclusão irônica, podemos até sugerir que às vezes a IA é mais inteligente ou pelo menos mais autoconsciente do que um urso médio (embora, para crédito dos ursos, eles geralmente se saiam bem no teste do espelho, muitas vezes tendo obtido habituados ao seu reflexo em poças de água).

Correção, talvez a IA possa ser mais autoconsciente do que pandas gigantes e leões marinhos, mas não diga isso aos animais, eles podem ser tentados a esmagar ou destruir sistemas de IA. Não queremos isso, não é?

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/