Ética da IA ​​e inoculação psicológica induzida pela IA para ajudar os humanos com desinformação

O que vamos fazer com o excesso massivo de desinformação e desinformação?

Tudo está comprovadamente ficando cada vez pior, a cada dia que passa.

Talvez a Inteligência Artificial (IA) possa vir em nosso socorro. Sim, isso mesmo, podemos aproveitar os usos benéficos da IA ​​para lidar com nosso implacável tsunami de desinformação e desinformação. Podemos ser sábios em tentar fazê-lo. Cada avenida de solução potencial parece digna de ser perseguida.

Como um aparte, gostaria de reconhecer imediatamente e observar que a IA sem dúvida vai tb seja parte do problema também. Não há dúvida de que os humanos podem alavancar prontamente a IA para gerar desinformação e desinformação. Além disso, a IA pode ser usada insidiosamente para fazer com que a desinformação e a desinformação pareçam incrivelmente válidas e induzam os humanos a acreditar que as informações apresentadas são sedutoramente precisas e factuais. Um lado decididamente triste do que a IA traz para a mesa. Voltaremos a esse enigma negativo no final desta discussão.

Por enquanto, vamos colocar nossas carinhas sorridentes e explorar como a IA é benéfica para trazer desinformação e desinformação de joelhos. Uma tendência importante será que tudo isso se encaixa em elementos vitais da Ética da IA. A cobertura da minha coluna de Ética em IA e IA Ética é contínua e extensa, incluindo o link aqui e o link aqui, Apenas para nomear alguns.

Considere estas maneiras fundamentais pelas quais a IA pode ser uma aliada especialmente útil na guerra contra a desinformação e a desinformação:

  • Parar no Get-Go: A IA pode ser usada para detectar e tentar extirpar a desinformação e a desinformação antes que ela se solte
  • Filtrar antes de visto: A IA pode ser usada para filtrar desinformação e desinformação para que você não precise se preocupar em vê-la
  • Prepare você para ser imune: A IA pode ser usada para reforçar sua prontidão e capacidade de lidar com desinformação e desinformação (conhecida formalmente como uma espécie de inoculação psicológica)
  • Outros

O primeiro ponto listado envolve tentar impedir a desinformação e a desinformação o mais cedo possível, antes que o conteúdo chegue ao mundo.

Esta é uma abordagem altamente problemática. Alguns argumentariam veementemente que isso poderia ser uma tentativa do Big Brother de suprimir a liberdade de expressão. Até onde essa IA seria capaz de ir? Poderia impedir as pessoas de expressarem livremente suas opiniões? Isso misteriosamente pode se tornar uma ladeira escorregadia da IA, tornando-se o pior pesadelo de resultados malignos que inocentemente começaram com a melhor das intenções.

Tenho certeza que você entendeu a imagem.

O segundo ponto é um pouco mais moderado e sugere que poderíamos usar IA para filtrar conteúdo para nós.

Você pode ter um bot de filtro de IA que verificará todos os seus feeds de dados recebidos de várias notícias e outras fontes. A IA é feita sob medida para detectar qualquer desinformação ou desinformação que atenda aos seus critérios pessoais. Assim, em tal cenário, não é uma situação de censura do Big Brother. Você controla a IA e como ela está filtrando sua verdadeira caixa de entrada de informações em seu nome.

Parece muito bom.

Existem, no entanto, algumas preocupações dignas de nota.

Por exemplo, já estamos muito polarizados em nossas visões e esse uso da IA ​​pode tornar essa polarização mais profunda e sombria. Imagine que, com essa inteligência artificial que funciona 24 horas por dia, 7 dias por semana, você nunca precisa ver um pingo de informação que classificou como sendo potencialmente desinformação e desinformação. Sua perspectiva polarizada agora está quase garantida para permanecer intacta. Durante todo o dia e sempre que você procura dar uma olhada na informação que aguarda sua atenção, ela está sempre totalmente pré-selecionada, e sem chance de olhar para a chamada desinformação e desinformação.

Eu digo que a desinformação e a desinformação podem ser assim chamado porque há uma enorme controvérsia sobre o que realmente constitui desinformação e desinformação. Alguns especialistas insistem que há uma base absoluta para determinar o que é desinformação e o que é desinformação. Existe o certo e o errado. Tudo pode ser calculado sem errar que algo seja desinformação ou desinformação.

Nem todo mundo vê as coisas como sendo tão claras.

Diz-se que o proverbial contraste de dicotomia mutuamente exclusivo liga ou desliga é um estado de espírito enganador. A desinformação de uma pessoa pode não ser considerada desinformação para outra pessoa. Da mesma forma sobre desinformação. A afirmação é que a desinformação e a desinformação variam em termos de natureza e magnitude. Tentar classificar definitivamente todas as informações em uma pilha ou outra é muito mais difícil do que sugere o aceno de mão.

A essência é que o segundo ponto sobre o uso da IA ​​como mecanismo de filtragem tem suas desvantagens. Há pouca dúvida de que a IA será cada vez mais usada para esse uso. Ao mesmo tempo, precisamos estar atentos aos desafios que essa IA trará à tona. A IA como filtro para desinformação e desinformação não é uma bala de prata ou um slam dunk.

Isso nos leva ao terceiro ponto, ou seja, a possibilidade de usar a IA para tornar os humanos melhores em lidar com desinformação e desinformação.

Duvido que você provavelmente tenha ouvido falar muito sobre essa terceira via de uso da IA ​​nesse contexto. Está apenas começando a surgir. Você está agora na vanguarda de algo que provavelmente crescerá e gradualmente será colocado em uso. Por favor, saiba que, à medida que essa popularidade se expande, a controvérsia sobre se é uma abordagem adequada também se tornará altamente visível.

Parte do problema é que a IA está sendo usada para o que alguns chamariam de maneira depreciativa de jogando jogos mentais com humanos.

Isso parece sinistro.

Isso também nos leva ao reino da ética da IA.

Tudo isso também está relacionado a preocupações emergentes sobre a IA de hoje e especialmente o uso de Machine Learning e Deep Learning como uma forma de tecnologia e como ela está sendo utilizada. Veja, há usos de ML/DL que tendem a envolver a IA ser antropomorfizada pelo público em geral, acreditando ou optando por assumir que a ML/DL é IA senciente ou próxima (não é). Além disso, ML/DL pode conter aspectos de correspondência de padrões computacionais que são indesejáveis ​​ou totalmente impróprios, ou ilegais do ponto de vista ético ou legal.

Pode ser útil primeiro esclarecer o que quero dizer ao me referir à IA em geral e também fornecer uma breve visão geral do Machine Learning e Deep Learning. Há uma grande confusão sobre o que a Inteligência Artificial conota. Eu também gostaria de apresentar os preceitos da Ética da IA ​​para você, que serão especialmente essenciais para o restante deste discurso.

Declarando o registro sobre a IA

Vamos nos certificar de que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente.

Nós não temos isso.

Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de The Singularity, veja minha cobertura em o link aqui).

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning e Deep Learning, que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Parte do problema é nossa tendência de antropomorfizar computadores e especialmente a IA. Quando um sistema de computador ou IA parece agir de maneira que associamos ao comportamento humano, há um desejo quase irresistível de atribuir qualidades humanas ao sistema. É uma armadilha mental comum que pode agarrar até o cético mais intransigente sobre as chances de alcançar a senciência.

Até certo ponto, é por isso que a ética da IA ​​e a IA ética são um tópico tão crucial.

Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de ética em IA e fazê-lo integralmente no desenvolvimento e campo de IA é vital para a produção de IA apropriada, incluindo a avaliação de como a ética de IA é adotada pelas empresas.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando o ganso de ouro ao reprimir os avanços na IA que oferecem imensas vantagens sociais. Veja por exemplo minha cobertura em o link aqui.

Em colunas anteriores, cobri os vários esforços nacionais e internacionais para criar e promulgar leis que regulam a IA, veja o link aqui, por exemplo. Também abordei os vários princípios e diretrizes de Ética em IA que várias nações identificaram e adotaram, incluindo, por exemplo, o esforço das Nações Unidas, como o conjunto de Ética em IA da UNESCO que quase 200 países adotaram. o link aqui.

Aqui está uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA que explorei de perto anteriormente:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como anteriormente enfatizado aqui, é preciso uma aldeia para conceber e colocar em campo a IA, e para a qual toda a aldeia deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos manter as coisas no chão e nos concentrar na IA computacional não senciente de hoje.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Acredito que agora preparei o cenário para discutir suficientemente o papel da IA ​​como meio de estimular a inoculação psicológica relacionada ao lidar com desinformação e desinformação.

Entrando na mente dos humanos

Vamos começar com o básico ou fundamentos subjacentes à desinformação e à desinformação.

Geralmente, desinformação refere-se a informações falsas ou enganosas.

A desinformação é aproximadamente a mesma, embora consista no elemento adicional de intenção. Normalmente interpretamos a informação como sendo desinformação quando é a informação Pretendido para desinformar.

Posso dizer-lhe que atualmente são 10 horas da noite, o que, digamos, é falso porque a hora é realmente meia-noite. Se eu tivesse lhe dito 10 horas como um palpite e não estivesse tentando enganar, normalmente diríamos que eu o informei mal. Eu tinha transmitido desinformação. Talvez eu fosse preguiçoso ou talvez eu realmente acreditasse que eram 10 horas. Por outro lado, se eu tivesse mencionado 10 horas porque intencionalmente queria enganá-lo a pensar que a hora era 10 horas e que eu sabia que na verdade era meia-noite, isso poderia ser considerado uma forma de desinformação .

Um aspecto notável da informação em geral é que normalmente somos capazes de espalhar informações e, assim, a informação pode se tornar um pouco difundida. A informação pode realmente fluir como água, em um sentido amplo.

Eu lhe digo que são 10 horas da noite. Agora você tem essa informação específica. Você pode gritar em voz alta para um grupo de pessoas próximas que são 10 horas da noite. Eles agora também têm essa mesma informação. Talvez algumas dessas pessoas peguem seus telefones celulares e liguem para outras pessoas para dizer que são 10 horas. Em suma, as informações podem ser espalhadas ou compartilhadas e, às vezes, feitas de forma tão rápida, enquanto em outros casos, de forma lenta.

De certa forma, você pode argumentar que a informação pode se tornar viral.

Existe uma palavra ou terminologia cunhada que você talvez não tenha visto ou usado que ajuda a descrever esse fenômeno de informação que se torna viral, a palavra é infodêmico. Esta palavra é um mashup de informação e ser uma epidemia. Em geral, uma infodemia está associada a circunstâncias que envolvem a disseminação de desinformação ou desinformação. A noção é que informações falsas ou enganosas podem se tornar virais, indesejavelmente, semelhantes à propagação indesejável de doenças ou enfermidades.

No exemplo sobre a hora ser 10 horas da noite, esse fato aparente foi uma informação que foi espalhada para o grupo de pessoas próximas. Eles, por sua vez, espalham o fato para os outros. Se as 10 horas eram falsas, então esse caso específico de desinformação ou desinformação se espalhou para muitos outros. Eles podem não saber que a informação era desinformação ou possivelmente desinformação.

Eu confio que todas essas definições e fundamentos parecem sensatas e você está a bordo até agora.

Ótimo, vamos continuar.

Conduzi-vos um tanto sub-repticiamente a algo que ocupa muito fascínio e também angústia. A essência é que existem paralelos razoavelmente sólidos entre o que as doenças fazem viralmente e o que a desinformação ou desinformação faz viralmente.

Nem todos concordam com esses paralelos alegados. No entanto, eles são intrigantes e dignos de consideração.

Permita-me elaborar.

Veja, podemos tentar alavancar a analogia útil de se referir a doenças transmitidas por humanos e doenças que se espalham, fazendo isso para comparar uma possibilidade semelhante com a disseminação de desinformação e desinformação. Para tentar impedir a propagação de doenças, podemos procurar detectar precocemente e procurar conter uma fonte emergente de doença que aponte a propagação potencial da doença. Outra abordagem para lidar com uma doença que se espalha seria se proteger contra o uso prudente de uma máscara ou equipamento de proteção. Uma terceira abordagem pode consistir em tomar vacinas para tentar aumentar sua imunidade relacionada à doença.

Agora fechamos o círculo em que essas mesmas abordagens para lidar com doenças podem ser explicitamente comparadas a lidar com desinformação e desinformação. Mencionei anteriormente que há esforços semelhantes em andamento para empregar a Inteligência Artificial para tentar lidar com a desinformação e a desinformação, principalmente (como mencionado anteriormente):

  • Parar no Get-Go: A IA pode ser usada para detectar e tentar extirpar a desinformação e a desinformação antes que ela se solte
  • Filtrar antes de visto: A IA pode ser usada para filtrar desinformação e desinformação para que você não precise se preocupar em vê-la
  • Prepare você para ser imune: A IA pode ser usada para reforçar sua prontidão e capacidade de lidar com desinformação e desinformação (conhecida formalmente como uma espécie de inoculação psicológica)
  • Outros

O terceiro aspecto será de maior interesse aqui.

Aqui está o acordo.

Sabemos que as doenças geralmente atingem o corpo humano. Com a analogia de como a desinformação e a desinformação ocorrem, podemos sugerir que a informação suja atinge o mente humana. Sim, você pode presumivelmente entrar em contato com desinformação ou desinformação que flui em sua mente. A desinformação ou desinformação potencialmente corrompe ou envenena sua maneira de pensar.

Um corpo humano pode ser vacinado para tentar se preparar para entrar em contato com doenças. Surge uma grande questão sobre se podemos fazer o mesmo pela mente humana. É possível tentar inocular a mente para que, quando desinformação ou desinformação vier à sua mente, você esteja pronto para isso e tenha sido inoculado adequadamente?

Um campo de estudos conhecido como inoculação psicológica postula que a mente pode de fato ser inoculada no sentido de estar preparada para lidar com desinformação ou desinformação.

Considere esta descrição em um estudo de pesquisa recente sobre inoculação psicológica e o que às vezes é rotulado como fazer pré-bunking:

  • “Desmascarar a desinformação também é problemático porque a correção da desinformação nem sempre anula completamente seus efeitos, um fenômeno conhecido como efeito de influência contínua. Assim, em contraste com o desmascaramento, o prebunking ganhou destaque como um meio de construir preventivamente resiliência contra a exposição antecipada à desinformação. Esta abordagem é geralmente fundamentada na teoria da inoculação. A teoria da inoculação segue uma analogia com a imunização médica e postula que é possível construir resistência psicológica contra tentativas de persuasão indesejadas, assim como as inoculações médicas criam resistência fisiológica contra patógenos.Os avanços da ciência, 24 de agosto de 2022, “A inoculação psicológica melhora a resiliência contra a desinformação nas mídias sociais” pelos coautores Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje e Stephan Lewandowsky).

Voltando ao meu exemplo sobre a hora ser 10 horas da noite, suponha que eu tenha dito anteriormente que às vezes a hora reivindicada não é a hora real. De agora em diante, você tem uma forma de inoculação para ter cuidado com os tempos reivindicados. Esta inoculação preparou você para entrar em contato com tempos alegados que são desinformação ou desinformação.

Se eu tivesse avisado há vários anos sobre os tempos alegados não serem tempos reais, há uma chance de você não pensar nesse aviso de muito tempo atrás. Assim, a inoculação anterior foi (digamos) desgastada. Minha inoculação para você pode precisar ser reforçada.

Há também uma chance de que a inoculação não tenha sido específica o suficiente para você usá-la quando necessário. Se eu tivesse avisado anos atrás sobre os tempos reivindicados versus os tempos reais, isso poderia ser muito amplo. A inoculação pode não funcionar no caso específico de você ser informado sobre as 10 horas. Nesse sentido, talvez minha inoculação devesse ter sido que você deveria ser cauteloso quando um horário declarado de 10 horas é usado. É claro que as inoculações no caso de doenças são um pouco as mesmas, às vezes sendo muito específicas para doenças conhecidas, enquanto em outros casos são de amplo espectro.

Um estudo de pesquisa muito citado feito em 1961 sobre inoculação psicológica por William McGuire da Universidade de Columbia é agora considerado um clássico neste campo de estudo. Você pode achar interessante estes pontos-chave que ele fez na época:

  • “Tal imunização generalizada pode derivar de qualquer um dos dois mecanismos. A pré-exposição pode chocar a pessoa ao perceber que os “truísmos” que ela sempre aceitou são de fato vulneráveis, provocando-a a desenvolver uma defesa de sua crença, com o resultado de que ela é mais resistente aos fortes contra-argumentos quando eles vêm. Alternativamente, as refutações envolvidas na pré-exposição podem fazer com que todos os contra-argumentos apresentados subsequentemente contra a crença pareçam menos impressionantes” (William McGuire, “Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Alternative Psicologia Social, 1961).

Você acha essa analogia de inoculações e imunização uma comparação útil e adequada ao reino da desinformação e desinformação?

Alguns sim, outros não.

Para os propósitos desta discussão, por favor, aceite que a premissa é razoável e adequada.

Como vamos tentar inocular ou imunizar a mente das pessoas?

Poderíamos fazer com que as pessoas lessem livros que pudessem iluminar suas mentes. Podemos contar a eles sobre isso, ou fazer com que assistam a vídeos ou ouçam fitas de áudio. etc.

E podemos usar a IA para fazer o mesmo.

Um sistema de IA pode ser concebido para ser seu inoculador. Sempre que você começa a ficar online, como na Internet, um aplicativo baseado em IA pode prepará-lo para sua jornada online. A IA pode alimentar você com uma pequena quantidade de desinformação rotulada como tal, permitindo que você perceba que está prestes a ver algo que é intencionalmente falso.

Após a exposição a essa desinformação alimentada por IA, sua mente agora está sendo preparada para lidar com desinformação ou desinformação que você pode encontrar na natureza na Internet. Sua mente foi preparada. Voila, você vê um blog na Internet que oferece um fato alegado de que criaturas alienígenas de Marte já estão aqui na Terra e se escondem à vista de todos, mas essa aparente desinformação ou desinformação é prontamente rejeitada por sua mente devido à inoculação anterior (bem, então, novamente, talvez seja verdade e eles realmente estão aqui!).

De qualquer forma, espero que você seja capaz de discernir agora como a IA pode ajudar a inocular ou imunizar humanos com relação à desinformação ou desinformação.

Vários aplicativos de IA estão sendo desenvolvidos para funcionar como inoculadores de desinformação ou desinformação. A IA pode procurar fornecer inoculação ampla e fornecer uma aparência geral de imunização. A IA também pode ser desenvolvida para formas mais específicas de inoculação. Além disso, a IA pode funcionar de forma personalizada, ajustada às suas necessidades ou interesses específicos. A IA avançada neste espaço também tentará determinar seu nível de tolerância, taxa de absorção mental, capacidade de retenção e outros fatores ao compor e apresentar as chamadas injeções de imunização, por assim dizer.

Parece bastante prático.

AI como jogador de jogos mentais perigosos

A IA usada dessa maneira pareceria bastante útil à primeira vista (ei, mencionei isso apenas um segundo atrás).

Há uma série de possíveis desvantagens e problemas que são preocupantes e talvez assustadores.

Em minhas colunas, costumo discutir as capacidades de uso duplo da IA, veja por exemplo o link aqui. A IA pode ser um contribuinte vital para a humanidade. Infelizmente, a IA também é sobrecarregada por muitos perigos e armadilhas infelizes.

Para o caso da IA ​​como inculcador, vamos considerar estas questões demonstrativas relacionadas à Ética da IA:

  • Reações adversas por humanos
  • Reações não responsivas por humanos
  • Segmentação incorreta de IA
  • Subdirecionamento de IA
  • Violação cibernética da IA
  • Outros

Vamos explorar brevemente essas preocupações.

Reações Adversas por Humanos

Suponha que um humano recebendo esse tipo de inoculação baseada em IA tenha uma reação adversa ou produza um efeito adverso.

A pessoa pode interpretar mal a imunização e, de repente, tornar-se não receptiva a qualquer informação que receba. Eles bloqueiam todas as informações. A IA de alguma forma os levou a jogar fora o bebê com a água do banho (um velho ditado, talvez valha a pena se aposentar). Em vez de apenas tentar lidar com a desinformação e a desinformação, a pessoa reagiu decidindo que todas as informações são sempre falsas.

Não acho que queremos que as pessoas exagerem tanto.

Há uma infinidade de reações adversas que a IA pode promover. Isso se deve em parte à forma como a IA tentou realizar a inoculação, mas também temos que colocar parte do problema nos pés do humano que recebeu a inoculação. Eles podem ter reagido de maneira selvagem ou bizarra que outros que receberam a mesma inoculação de IA não o fizeram.

Novamente, você pode comparar isso com a analogia de inoculações para doenças.

Em suma, será importante que, quando tais esforços de IA forem utilizados, sejam feitos de maneira responsável que busquem minimizar os efeitos adversos. Também deve haver um aspecto de acompanhamento da IA ​​para tentar verificar se ocorreu uma reação adversa. Se houver uma reação adversa detectada, a IA deve ser planejada para tentar ajudar a pessoa em sua resposta adversa e procurar superar ou aliviar a resposta.

Reações não responsivas por seres humanos

Outra possibilidade é que a inoculação com IA não tenha impacto na pessoa receptora.

Uma pessoa recebe uma inoculação baseada em IA relacionada à desinformação ou desinformação. Enquanto a maioria das pessoas “pega” e fica imunizada, é provável que haja pessoas que não reagirão de forma alguma. Eles não aprendem nada com a inoculação. Eles não respondem à tentativa da IA ​​de imunizá-los contra todos ou certos tipos de desinformação ou desinformação.

Mais uma vez, isso é comparável a inoculações para doenças.

A IA deve ser concebida para lidar com tal circunstância.

Segmentação incorreta de IA

Imagine que uma IA espera imunizar as pessoas em relação a um tópico específico que diremos ser o tópico X, mas acontece que o tópico Y está sendo coberto. A IA está errando na segmentação.

Este é um problema duplo. Em primeiro lugar, o tópico X não foi abordado como o objetivo presumido e esperado do inoculador de IA. Em segundo lugar, o tópico Y é coberto, mas talvez não queríamos que as pessoas fossem imunizadas sobre esse tópico.

Oops.

As perguntas abundam. Isso poderia ter sido impedido de acontecer? Se acontecer, podemos desfazer o tópico da imunização Y? Podemos procurar cobrir o tópico X inoculação, ou a pessoa será menos receptiva ou não receptiva devido ao erro de direcionamento da IA ​​originalmente?

Muitas preocupações problemáticas surgem.

Subdirecionamento de IA

Uma IA fornece uma inoculação no tópico Z. As pessoas que recebem a inoculação parecem ter uma reação mínima ou quase insignificante. A inoculação foi insuficiente para se firmar.

Você pode ficar tentado a afirmar rapidamente que isso é facilmente resolvido. Basta repetir a inoculação. Talvez sim, talvez não.

A inoculação da IA ​​pode ter um valor tão limitado que, não importa se você tem pessoas que a experimentam cem vezes, o resultado ainda é marginal. Pode ser necessário aumentar a inoculação em vez de simplesmente repeti-la.

Enquanto isso, imagine que seja feita uma tentativa de aumentar a inoculação alimentada por IA, mas isso vai ao mar. A versão aprimorada causa hiper-reações. Caramba, nós viemos de mal a pior.

Violação cibernética da IA

Imagine que a IA está sendo usada extensivamente para ajudar as pessoas a serem inoculadas contra desinformação e desinformação.

Uma confiança geral toma conta das pessoas. Eles sabem e esperam que a IA os apresente com trechos que abrirão seus olhos para o que é conhecido como desinformação e desinformação.

Tudo está bem e bom, ao que parece.

Um malfeitor é de alguma forma capaz de fazer uma violação cibernética na IA. Eles forçam sorrateiramente na IA alguma desinformação desejada que eles querem que as pessoas pensem que não é desinformação. A IA está organizada para fazer com que a desinformação real pareça ser uma informação verdadeira. Além disso, a informação verdadeira é feita para parecer desinformação.

As pessoas estão completamente snookered. Eles estão sendo desinformados pela IA. Além disso, porque eles se tornaram dependentes da IA ​​e por confiarem que a IA estava fazendo a coisa certa, eles caíram no gancho, na linha e na chumbada por essa IA violada. Sem hesitação.

Dada a facilidade com que a desinformação pode se espalhar ainda mais, o malfeitor pode gostar que a existência desse tipo de IA seja a maneira mais fácil e rápida de espalhar suas mentiras insidiosas pelo mundo. Ironicamente, é claro, tendo aproveitado o inoculador de IA para essencialmente espalhar a doença.

Conclusão

Devemos ter a IA jogando jogos mentais conosco?

A IA para inoculação de desinformação e desinformação pode ser um cavalo de Tróia ameaçador?

Você pode fazer um caso substantivo para se preocupar com esse pesadelo.

Outros zombam dessa possibilidade. As pessoas são inteligentes o suficiente para saber quando a IA tenta enganá-las. As pessoas não vão cair nesse drible. Apenas idiotas seriam enganados por tal IA. Essas são as réplicas e contra-argumentos usuais.

Não querendo parecer menos do que admirando totalmente os humanos e a natureza humana, eu apenas sugeriria que há ampla indicação de que os humanos podem se apaixonar pela IA que os engana.

Há uma questão ainda maior que talvez paira sobre tudo isso.

Quem faz a IA e como a IA decide algoritmicamente o que é considerado desinformação e desinformação?

Todo um tiroteio está ocorrendo hoje no mundo em geral sobre o que constitui especificamente desinformação e desinformação. Alguns afirmam que fatos são fatos, portanto, nunca pode haver confusão sobre o que é informação apropriada versus informação imprópria. O diabo, porém, às vezes está nos detalhes, com certeza.

Uma observação final por enquanto. Abraham Lincoln declarou: “Você pode enganar todas as pessoas por algum tempo e algumas pessoas o tempo todo, mas você não pode enganar todas as pessoas o tempo todo”.

A IA, que é usada para ajudar a inoculação da humanidade contra desinformação e desinformação, será uma ferramenta vital para garantir que nem todas as pessoas possam ser enganadas o tempo todo? Ou pode ser usado para enganar mais pessoas na maior parte do tempo?

O tempo dirá.

E isso certamente não é desinformação ou desinformação.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-duced-psychological-inoculation-to-help-humans-with-disinformation/