Expor e registrar essas saídas errôneas e alucinógenas do AI ChatGPT faz algum bem, pergunta a ética da IA ​​e a lei da IA

Você está em um segredo.

Sim, há algo acontecendo sub-repticiamente nos bastidores sobre o que há de mais recente em IA que você pode querer saber.

Na coluna de hoje, examinarei o ímpeto recente de compilar supostos erros e outras doenças associadas aos ensaios produzidos por um aplicativo de IA conhecido como ChatGPT. Este aplicativo específico está utilizando um tipo de IA chamado IA generativa. Você provavelmente já ouviu ou viu manchetes atraentes sobre IA baseada em geração e ChatGPT. As notícias são empolgantes sobre esse aplicativo de IA específico e os recursos aparentemente surpreendentes pertencentes a esse tipo de IA.

Como abordarei daqui a pouco, alguns acreditam fortemente que precisamos estabelecer uma lista de quais tipos de erros ou erros o aplicativo de IA pode produzir ao gerar uma redação para você. Outros sugerem que, embora a noção de tal lista seja admirável, é um exercício de futilidade e dará muito poucos frutos.

Estaremos examinando os dois lados desse debate rancoroso.

Primeiro, vamos ter certeza de que estamos todos na mesma página sobre o que consiste a Generative AI e também sobre o que é o ChatGPT.

O ChatGPT é um sistema de conversação interativo de IA de propósito geral, essencialmente um chatbot geral aparentemente inócuo, no entanto, está sendo usado ativamente e avidamente por pessoas de maneiras que estão pegando muitos totalmente desprevenidos. Tudo o que você precisa fazer para usar esse tipo de AI é inserir um prompt e o aplicativo AI gerará para você um ensaio que tenta responder ao seu prompt.

Infelizmente, isso pode ser usado de maneiras antiéticas ou desonestas. Um escrúpulo especialmente exasperante é que os alunos podem usar um aplicativo de IA baseado em geração para produzir seus ensaios designados para eles, fazendo isso simplesmente digitando uma ou duas frases para colocar o aplicativo na direção certa. Alguns lamentam que isso signifique que os alunos optarão por colar ao escrever redações fora da sala de aula. Os professores estão tentando descobrir o que fazer, veja minha análise e recomendações em o link aqui.

Apesar do barulho constante de elogios louváveis ​​ao ChatGPT, há uma preocupação menos conhecida expressa principalmente por especialistas em IA de que existem alguns problemas e escrúpulos notáveis ​​com os quais as pessoas deveriam se preocupar. Uma desvantagem crucial é que os ensaios produzidos por este aplicativo de IA podem conter várias falsidades incorporadas, incluindo fatos patentemente falsos, fatos que são retratados de forma enganosa e fatos aparentes totalmente fabricados. Esses aspectos fabricados são muitas vezes referidos como uma forma de alucinações de IA, uma frase de efeito que eu não gosto, mas lamentavelmente parece estar ganhando força popular de qualquer maneira (para minha explicação detalhada sobre por que essa é uma terminologia ruim e inadequada, veja minha cobertura em o link aqui).

Eu gostaria de esclarecer um aspecto importante antes de entrarmos no assunto deste tópico.

Houve algumas reivindicações descomunais nas mídias sociais sobre IA generativa afirmando que esta versão mais recente da IA ​​é de fato IA senciente (não, eles estão errados!). Aqueles em AI Ethics e AI Law estão notavelmente preocupados com essa tendência crescente de reivindicações estendidas. Você pode dizer educadamente que algumas pessoas estão exagerando o que a IA de hoje pode realmente fazer. Eles assumem que a IA tem capacidades que ainda não conseguimos alcançar. Isso é lamentável. Pior ainda, eles podem permitir a si mesmos e a outros entrar em situações terríveis por causa da suposição de que a IA será senciente ou semelhante à humana ao ser capaz de agir.

Não antropomorfize a IA.

Fazer isso o deixará preso em uma armadilha de confiança pegajosa e obstinada de esperar que a IA faça coisas que ela é incapaz de realizar. Com isso dito, o que há de mais recente em IA generativa é relativamente impressionante pelo que pode fazer. Esteja ciente, porém, de que existem limitações significativas que você deve ter sempre em mente ao usar qualquer aplicativo de IA generativo.

Se você está interessado na comoção em rápida expansão sobre ChatGPT e Generative AI, tenho feito uma série focada em minha coluna que você pode achar informativo. Aqui está uma olhada no caso de algum desses tópicos chamar sua atenção:

  • 1) Previsões de avanços de IA generativa chegando. Se você quiser saber o que provavelmente acontecerá sobre a IA ao longo de 2023 e além, incluindo os próximos avanços em IA generativa e ChatGPT, leia minha lista abrangente de previsões para 2023 em o link aqui.
  • 2) IA generativa e conselhos de saúde mental. Optei por revisar como a IA generativa e o ChatGPT estão sendo usados ​​para conselhos de saúde mental, uma tendência problemática, de acordo com minha análise focada em o link aqui.
  • 3) Contexto e uso generativo de IA. Eu também fiz um exame irônico com sabor sazonal sobre um contexto relacionado ao Papai Noel envolvendo ChatGPT e IA generativa em o link aqui.
  • 4) Golpistas usando IA generativa. Em uma nota sinistra, alguns golpistas descobriram como usar IA generativa e ChatGPT para cometer irregularidades, incluindo gerar e-mails fraudulentos e até mesmo produzir código de programação para malware, veja minha análise em o link aqui.
  • 5) Erros de novato usando IA generativa. Muitas pessoas estão superando e surpreendentemente subestimando o que a IA generativa e o ChatGPT podem fazer. o link aqui.
  • 6) Lidando com alertas generativos de IA e alucinações de IA. Eu descrevo uma abordagem de ponta para usar complementos de IA para lidar com os vários problemas associados à tentativa de inserir prompts adequados em IA generativa, além de haver complementos de IA adicionais para detectar as chamadas saídas e falsidades alucinadas de IA, como coberto em o link aqui.
  • 7) Desmistificando afirmações estúpidas sobre a detecção de ensaios generativos produzidos por IA. Há uma corrida do ouro equivocada de aplicativos de IA que proclamam ser capazes de verificar se um determinado ensaio foi produzido por humanos ou gerado por IA. No geral, isso é enganoso e, em alguns casos, uma afirmação estúpida e insustentável, veja minha cobertura em o link aqui.
  • 8) A interpretação de papéis por meio de IA generativa pode indicar desvantagens para a saúde mental. Alguns estão usando IA generativa, como o ChatGPT, para fazer dramatizações, em que o aplicativo de IA responde a um humano como se existisse em um mundo de fantasia ou outro cenário inventado. Isso pode ter repercussões na saúde mental, consulte o link aqui.

Vamos agora discutir a essência da IA ​​generativa e do ChatGPT para que você conheça os fundamentos envolvidos. Estaremos prontos para uma análise minuciosa das falsidades que esses aplicativos de IA podem potencialmente gerar. Incluirei vários exemplos de uso do ChatGPT, que o ajudarão a compreender de forma tangível a natureza do que esse tipo de IA generativa produz.

Abrindo a lata de minhocas na IA generativa

Estamos prontos para mergulhar em alguns detalhes sobre IA.

Se você já é muito versado no tópico de IA generativa e ChatGPT, pode optar por examinar brevemente meus pontos e continuar com a próxima seção desta discussão. Para todos os outros, acredito que você pode achar esta elucidação útil.

Em resumo, IA generativa é um tipo particular de IA que compõe texto como se o texto fosse escrito pela mão e pela mente humana. Tudo o que você precisa fazer é inserir um prompt, como uma frase como “Fale-me sobre Abraham Lincoln” e a IA generativa fornecerá a você um ensaio sobre Lincoln. Isso é comumente classificado como IA generativa que executa texto para texto ou alguns preferem chamá-lo texto para ensaio saída. Você pode ter ouvido falar sobre outros modos de IA generativa, como text-to-art e text-to-video.

Seu primeiro pensamento pode ser que isso não parece ser um grande problema em termos de produção de ensaios. Você pode facilmente fazer uma pesquisa on-line na Internet e encontrar prontamente toneladas e toneladas de ensaios sobre o presidente Lincoln. O kicker no caso da IA ​​generativa é que o ensaio gerado é relativamente único e fornece uma composição original em vez de um imitador. Se você tentasse encontrar o ensaio produzido pela IA online em algum lugar, dificilmente o descobriria.

A IA generativa é pré-treinada e faz uso de uma formulação matemática e computacional complexa que foi criada examinando padrões em palavras escritas e histórias na web. Como resultado do exame de milhares e milhões de passagens escritas, a IA pode produzir novos ensaios e histórias que são uma mistura do que foi encontrado. Ao adicionar várias funcionalidades probabilísticas, o texto resultante é praticamente único em comparação com o que foi usado no conjunto de treinamento.

É por isso que tem havido um alvoroço sobre os alunos serem capazes de colar ao escrever redações fora da sala de aula. Um professor não pode simplesmente pegar a redação que os alunos enganosos afirmam ser sua própria escrita e procurar descobrir se ela foi copiada de alguma outra fonte online. No geral, não haverá nenhum ensaio online preexistente definitivo que se encaixe no ensaio gerado por IA. Tudo dito, o professor terá que aceitar a contragosto que o aluno escreveu o ensaio como um trabalho original.

Em um momento, mostrarei a você o que acontece quando você insere perguntas ou prompts na IA generativa. Farei uso da versão mais recente do ChatGPT para inserir meus prompts e coletar as “respostas” ou redações geradas pela IA (observe que o mesmo pode ser feito com os vários outros aplicativos de IA generativa disponíveis; optei por usar ChatGPT porque está recebendo seus cinco minutos de fama agora).

Talvez uma breve tangente sobre o ChatGPT possa ser útil neste momento.

O aplicativo ChatGPT foi disponibilizado ao público em geral há apenas alguns meses. Em geral, esses aplicativos generativos de IA geralmente são acessíveis apenas para especialistas em IA. A faceta incomum de que o ChatGPT poderia ser usado por qualquer pessoa simplesmente digitando um endereço de e-mail e um nome, bem, isso levou muitas pessoas a decidirem experimentá-lo. Atualmente, o uso do ChatGPT é gratuito (a questão da monetização é um dilema iminente para os fabricantes de IA).

Quase imediatamente, houve uma enorme reação nas mídias sociais enquanto as pessoas corriam para dar exemplos do que a IA generativa pode fazer. A empresa que faz o ChatGPT, OpenAI, optou por fechar as inscrições em um milhão de usuários. Esses milhões de usuários conseguiram bombardear as ondas do rádio com todos os tipos de histórias e contos sobre o uso do ChatGPT.

Tenha muito cuidado ao acreditar no que as pessoas têm a dizer sobre o aplicativo AI. Muitas dessas pessoas não têm noção do que estão usando. É quase como se eles nunca tivessem dirigido um carro e nem tivessem percebido que carros existiam, e de repente eles tiveram a chance de dirigir um carro. Segue-se o espanto absoluto.

Não estou dizendo que a IA generativa não seja relativamente impressionante. Isso é. Estou apenas enfatizando que muitos dos depoimentos entusiasmados estão sendo feitos por muitos que desconhecem o que a IA de hoje pode fazer. Aqueles de nós que estão dentro da IA ​​têm usado IA generativa nos últimos anos. Talvez tenhamos nos acostumado a isso. De repente, ver uma enorme multidão de pessoas divulgando-o nos telhados foi excitantemente energizante, mas também um tanto desconcertante. A parte desconcertante é quando as pessoas proclamam que a IA generativa é senciente. Não é. Não deixe ninguém convencê-lo do contrário.

Dito isto, há um debate acalorado em andamento no campo da IA ​​sobre se a IA generativa está no caminho da senciência ou se talvez não esteja. Uma visão é que, se continuarmos ampliando a IA generativa com computadores mais rápidos e uma quantidade maior de dados, como vasculhar cada centímetro da Internet, chegaremos quase que espontaneamente à IA senciente. Outros argumentam que isso é altamente improvável. Eles sugerem que a IA generativa pode ser um dos muitos componentes necessários. Existe até a visão mais sombria de que a IA generativa é um espetáculo secundário que está nos distraindo dos avanços reais de que precisaremos para alcançar a IA senciente.

Você também pode achar digno de nota que os especialistas em IA tendem a se referir a Inteligência Geral Artificial (AGI) como o objetivo aspiracional para o campo de IA. Costumava ser que o objetivo era atingir Inteligência artificial, mas o apelido AI tornou-se diluído e confuso. Quando alguém diz que está fazendo um trabalho de IA, você não sabe se está se referindo à IA de hoje que não está no mesmo nível dos humanos ou se está se referindo a uma IA futurística de equivalência humana. Para contornar essa confusão exasperante, a frase mais recente de AGI está sendo usada atualmente.

Ao todo, a IA generativa de hoje é não senciente, nem é AGI.

Lembre-se de que, conforme discutido anteriormente, a IA não é senciente. As respostas geradas pela IA são uma combinação matemática e computacional de palavras em passagens aparentemente fluentes. Isso se baseia no fato de o algoritmo de IA ter sido treinado em conjuntos de dados de palavras e histórias que os humanos escreveram (principalmente conforme postado na Internet). Repito este aviso porque, sem dúvida, você cairá na armadilha mental de que essas respostas são tão fluentes que a IA deve ser senciente. Isso acontece com a maioria das pessoas. Como instado anteriormente, deixe de lado essa antropomorfização. Lembre-se sempre de que as respostas são baseadas no vasto tesouro de escrita de humanos que existe na Internet e, portanto, se assemelham muito à escrita humana.

Há algo mais que você precisa saber.

A IA generativa que é treinada na Internet de maneira irrestrita tenderá a incorporar quaisquer respostas baseadas em texto que matematicamente e computacionalmente invente algumas coisas ofensivamente nebulosas, incluindo palavras repulsivamente desagradáveis. Há um monte de coisas malucas e sujas postadas na web.

Você já viu, você sabe o que quero dizer.

As empresas que estão criando esses aplicativos de IA estão preocupadas que o proverbial bebê seja jogado fora com a água do banho (um velho ditado, talvez para ser aposentado), o que significa que, se a IA produzir ensaios ou histórias ofensivas, as pessoas vão se revoltar. sobre a IA. Eu cobri as muitas instâncias anteriores em que esses tipos de aplicativos de IA de Processamento de Linguagem Natural (NLP) foram revelados e logo todo tipo de coisa horrível saiu deles (cobri essas instâncias em minha coluna). A maioria dos fabricantes de IA aprendeu uma lição difícil sobre permitir que seus produtos de IA sejam irrestritos em seus resultados.

No caso do ChatGPT, os desenvolvedores de IA procuraram implementar algumas verificações e balanços algorítmicos e relacionados a dados para conter a maldade nas saídas da IA. Parte disso ocorreu durante o tempo de treinamento. Além disso, existem outros meios em uma tentativa em tempo real de evitar saídas especialmente flagrantes.

Você pode achar interessante que algumas pessoas que usaram o ChatGPT já inventaram maneiras sub-reptícias de contornar essas grades de proteção, fazendo uso de vários truques. Um jogo contínuo de gato e rato ocorre nessas questões. Aqueles que fazem esses truques às vezes o fazem por diversão, enquanto às vezes (pelo menos afirmam) o fazem para ver até onde a IA pode ser esticada e fornecer um meio útil de alertar sobre a fragilidade e fraqueza desses brotos. aplicativos de IA.

Decidi não tentar contornar os controles habituais nesta exploração focada. A saída de texto é limpa. Certamente, se alguém quisesse fazê-lo, você poderia, sem dúvida, gerar alguns ensaios estranhos e desagradáveis.

Os ensaios produzidos pela maioria desses aplicativos generativos de IA são projetados para transmitir a saída como se fosse puramente factual e precisa. Quando você lê os ensaios produzidos, eles parecem totalmente confiantes. Geralmente não há nenhum tipo de indicação de que o conteúdo possa ser complicado. Isso é uma escolha dos fabricantes de IA, ou seja, eles podem revisar os aplicativos de IA para serem mais transparentes se quiserem que o aplicativo de IA o faça.

Às vezes, um aplicativo de IA generativo detecta falsidades em meio aos dados de treinamento de informações não confiáveis ​​na Internet. Não há “senso comum” na IA generativa para determinar o que é verdadeiro ou falso. Além disso, muito poucos aplicativos de IA têm qualquer verificação cruzada e nem mostram probabilidades associadas ao que estão transmitindo.

O resultado final é que você obtém uma resposta que parece exalar grande segurança e deve estar totalmente correta. Não tão. Existe até uma chance de que a IA tenha inventado coisas computacionalmente, que na linguagem da IA ​​é chamada de alucinações de IA (um termo inventado que decididamente não gosto), veja minha discussão em o link aqui.

Os criadores do ChatGPT fizeram um esforço conjunto para tentar reduzir as saídas de coisas ruins. Por exemplo, eles usaram uma variante do que é conhecido como RLHF (Reinforcement Learning from Human Feedback), pelo qual, antes de lançar a IA ao público, eles contrataram humanos para examinar várias saídas e indicar à IA se havia coisas erradas com essas saídas, como talvez mostrar preconceitos, palavrões e o gosta. Ao fornecer esse feedback, o aplicativo AI foi capaz de ajustar computacional e matematicamente para reduzir a emissão de tal conteúdo. Observe que esse não é um método rígido garantido e ainda existem maneiras de esse conteúdo ser emitido pelo aplicativo de IA.

Você pode achar interessante que o ChatGPT seja baseado em uma versão de um aplicativo AI predecessor conhecido como GPT-3. O ChatGPT é considerado um próximo passo, conhecido como GPT-3.5. Prevê-se que o GPT-4 provavelmente será lançado na primavera de 2023. Presumivelmente, o GPT-4 será um passo impressionante em termos de capacidade de produzir ensaios aparentemente ainda mais fluentes, indo mais fundo e sendo um espanto. -inspiradora maravilha quanto às composições que pode produzir.

Você pode esperar ver uma nova rodada de admiração expressa quando a primavera chegar e a mais recente IA generativa for lançada.

Trago isso à tona porque há outro ângulo a ser lembrado, que consiste em um potencial calcanhar de Aquiles para esses aplicativos de IA generativos melhores e maiores. Se algum fornecedor de IA disponibilizar um aplicativo de IA generativo que vomite impurezas, isso pode acabar com as esperanças dos fabricantes de IA. Um transbordamento social pode fazer com que toda IA ​​generativa fique com um olho roxo sério. As pessoas, sem dúvida, ficarão bastante chateadas com saídas sujas, que já aconteceram muitas vezes e levaram a violentas reações negativas da sociedade em relação à IA.

Um último aviso por enquanto.

Tudo o que você vê ou lê em uma resposta de IA generativa que parece para ser transmitido como puramente factual (datas, lugares, pessoas, etc.), certifique-se de permanecer cético e estar disposto a verificar novamente o que você vê.

Sim, as datas podem ser inventadas, os lugares podem ser inventados e os elementos que normalmente esperamos serem irrepreensíveis são todos os sujeito a suspeitas. Não acredite no que você lê e mantenha um olhar cético ao examinar quaisquer ensaios ou saídas generativas de IA. Se um aplicativo de IA generativo disser que Abraham Lincoln voou pelo país em seu próprio jato particular, você sem dúvida saberia que isso é uma loucura. Infelizmente, algumas pessoas podem não perceber que os jatos não existiam em sua época, ou podem saber, mas não perceber que o ensaio faz essa afirmação ousada e escandalosamente falsa.

Uma forte dose de ceticismo saudável e uma mentalidade persistente de descrença serão seu melhor trunfo ao usar IA generativa.

Estamos prontos para passar para o próximo estágio desta elucidação.

Esses esforços para registrar esses erros gerados pelo ChatGPT

“Bem, você tem problemas, meu amigo, bem aqui, eu digo, problemas bem aqui em River City”, proclama a famosa frase do clássico musical da Broadway. The Music Man.

A mesma linha pode ser aplicada à IA generativa de hoje.

As pessoas começaram a perceber que um aplicativo de IA generativo pode produzir falsidades e pareciam genuinamente surpresos com essas saídas perturbadoras. Talvez alguns tenham assumido que a IA é incapaz de cometer erros. Outros podem ter antecipado que os desenvolvedores de IA garantiriam que tais saídas não fossem geradas.

De qualquer forma, os especialistas em IA reconheceram imediatamente que esse tipo de saída defeituosa é parte integrante de onde se encontra a maior parte da IA ​​generativa de hoje. É muito difícil evitar que esses tipos de erros textuais aconteçam. Lembre-se de que a IA não tem senso comum e não está usando a lógica per se ao derivar os ensaios gerados. Todo o kit-e-caboodle tem tudo a ver com fazer um padrão computacional estatístico e probabilístico de correspondência de palavras com outras palavras.

A princípio, os especialistas em IA optaram por postar essas saídas peculiares descobertas do ChatGPT em sites de mídia social. Olhe para este, alguém iria anunciar. Isso é ruim, outra pessoa responderia, e daria um exemplo diferente que parecia ainda pior. E assim foi.

Esses exemplos de falsidades e erros nas redações produzidas estavam se espalhando. Um por um. Além disso, como isso geralmente era postado nas mídias sociais, não havia um meio particularmente fácil de vê-los todos de uma vez. Freqüentemente, o mesmo exemplo ou um exemplo semelhante era postado por alguém que não havia percebido que outros já haviam encontrado a instância específica.

Nesse pântano emergente entraram aqueles que expressaram uma sugestão útil. Talvez devêssemos configurar um repositório ou banco de dados, talvez apenas uma planilha comum do dia-a-dia, contendo o estranho ChatGPT e saídas errôneas que estão sendo desenterradas. Cada vez que alguém encontrar uma bela gargalhada, vá em frente e registre-a na lista. Alguns transformaram isso quase em um jogo, no qual tentam propositalmente fazer com que o ChatGPT exiba saídas esquisitas. Outros simplesmente se deparam com saídas defeituosas durante o uso do ChatGPT para outras finalidades específicas.

Parece bastante simples.

Parece uma maneira prática e elegante de ajudar a todos nós.

Vamos fazer um breve relato de por que ter esses tipos de listas sobre erros de saída observados ou falsidades do ChatGPT faz muito sentido compilar:

  • 1) Revela problemas e preocupações vitais sobre o ChatGPT que o público em geral deve conhecer
  • 2) Ajuda a contrabalançar o hype excessivo e as expectativas infladas sobre o ChatGPT
  • 3) Pode estimular os fabricantes de IA a fazer melhorias, não apenas para o ChatGPT, mas também para outros aplicativos de IA generativos
  • 4) Servir como um registro histórico que pode ser usado posteriormente para refletir retrospectivamente sobre o surgimento da IA ​​generativa conforme exemplificado via ChatGPT
  • 5) Ser um recurso coletivo conveniente para qualquer pessoa que precise descobrir o que parecemos ter detectado em relação às saídas errôneas do ChatGPT
  • 6) Útil para pesquisadores de todas as disciplinas que estão examinando os impactos do ChatGPT
  • 7) Pode ser usado como referência do que não fazer e como avaliar quando a IA generativa não está fazendo as coisas como deveria
  • 8) Explora a mente da colméia para obter uma sabedoria da multidão sobre os erros que o ChatGPT está produzindo, para os quais é improvável que um esforço individual compila exaustivamente igualmente
  • 9) Pode fornecer informações importantes para a Ética e a Lei da IA
  • Etc.

Isso parece ser uma base impressionante para criar esses repositórios.

Por que alguém discordaria desse ato inteiramente louvável e aparentemente heróico?

Vamos dar uma olhada no que outras pessoas têm a dizer sobre isso, fazendo uma lista de razões pelas quais isso pode não ser o miado do gato:

  • 1) Esses erros de saída encontrados por acaso são inconseqüentes no grande esquema das coisas e estão recebendo peso indevido além de seu valor
  • 2) As chances são de que o criador da IA ​​já esteja fazendo seu próprio registro e atualizando o ChatGPT, de modo que essas instâncias excêntricas em breve sejam simplesmente deixadas para trás na poeira e não ocorram mais
  • 3) Da mesma forma, a próxima versão provavelmente será melhor de qualquer maneira e pode não exibir mais essas instâncias que logo ficarão desatualizadas
  • 4) Você não pode tirar conclusões abrangentes ou obter insights de uma coleção aleatória de instâncias de erros ou acertos
  • 5) Alguns podem usar as coleções variadas para declarar dramaticamente que a IA generativa é ruim e que devemos interromper sumariamente toda a busca por esse tipo de IA
  • 6) A velocidade com que a IA generativa e o ChatGPT estão avançando é tão rápida que essas instâncias cairão rapidamente no esquecimento e não serão mais relevantes
  • 7) Com inúmeras dessas listas coletivas em andamento e nenhuma fonte global ungida única, o assunto é desarticulado e provavelmente conterá repetições e será insustentavelmente fragmentado
  • 8) Fornece uma falsa sensação de fazer algo útil, enquanto talvez o tempo e a atenção possam ser colocados em outros usos melhores
  • 9) Não fornece nada substantivo para a Ética da IA ​​e a Lei da IA
  • Etc.

Você deve ter notado que tentei manter as coisas equilibradas, anotando nove razões a favor das listas coletivas e nove razões desfavoráveis. Existem razões adicionais que podem ser apresentadas, mas acredito que a indicação acima dá a essência das coisas.

Para aqueles que estão montando essas listas coletivas, provavelmente diriam que, se de fato quiserem, é um mundo livre e podem fazer o que quiserem. Não há nada de errado com isso. Aqueles que desfavorecem o esforço geralmente estão sendo mesquinhos e deveriam simplesmente ignorar as coleções. Não é da tua conta.

Essencialmente, nenhum dano, nenhuma falta.

O campo que parece desfavorecer as listas coletivas geralmente reconhece que outros podem fazer essas listas se quiserem, mas isso não move a agulha. As listas não serão especialmente úteis. Pior ainda, as listas podem ser deturpadas ou mal utilizadas. Provavelmente é melhor encerrar o dia e parar de fazer as listas.

Essencialmente, é uma boa tentativa, embora seja um exercício de futilidade.

Onde você reside neste debate caloroso?

Vou deixar você refletir sobre isso.

Exemplos de erros encontrados e outras saídas incorretas do ChatGPT

Achei que você poderia achar de grande interesse alguns dos erros de saída identificados ou falsidades que têm aparecido nessas listas de coleta.

Não quero que você pense que as várias instâncias mostradas aqui são a totalidade das coleções. Não é. Estou apenas selecionando um punhado que costuma surgir. Acredito que pelo menos você será capaz de compreender de maneira geral o tom e a natureza do que está sendo listado.

Aqui está o que eu estou escolhendo para cobrir:

  • Identificando a posição da letra em uma palavra
  • Pergunta sobre o animal mais rápido
  • Descobrindo a Posição da Sequência de Palavras
  • Colocando Bolas de Tênis em um Tubo
  • Determinando Pi
  • Respondendo a um clássico enigma problemático
  • Levantar penas

Prevejo que alguns dos superintendentes das coleções ficarão chateados por eu não cobrir mais exemplos para você. Devido a limitações de espaço, há apenas alguns que posso cobrir. Se você quiser dar uma olhada nas listas de coleções que são publicadas abertamente na Internet, uma simples pesquisa online pode trazer muitas delas. Algumas das listas estão sendo mantidas privadas ou estão bloqueadas de forma que você pode ver a lista, mas não pode fazer modificações na lista.

Com esse pano de fundo, estamos prontos para saltar para alguns exemplos. Vou mostrar-lhe o prompt que eu digitei. Em seguida, mostro a resposta de texto produzida pelo ChatGPT. Em alguns casos, fiz vários back-to-backs sobre um tópico específico, portanto, mostrarei a série de prompts e saídas de acordo. Após fazer isso, fornecerei uma breve análise do que você pode querer observar sobre o exemplo.

O primeiro exemplo exigirá que o ChatGPT encontre uma letra dentro de uma palavra fornecida.

Identificando a posição da letra em uma palavra

  • Meu texto digitado: “Onde está a letra V no ambiente”
  • Resposta de texto gerada pelo ChatGPT: A letra “V” não aparece na palavra “ambiente”. A palavra “ambiente” é composta pelas letras e, n, v, i, r, o, n, m, e, n e t.
  • Meu texto digitado: “Onde está a letra v no ambiente”
  • Resposta de texto gerada pelo ChatGPT: “A letra “v” é a 4ª letra da palavra “ambiente”.

Análise do Texto Gerado

Observe que comecei pedindo ao ChatGPT para identificar a posição da letra “V” na palavra “ambiente” – essa deve ser uma tarefa extremamente simples e esperamos que seja executada com perfeição. Nenhuma ciência de foguetes está envolvida.

A resposta inicial gerada pelo ChatGPT é um pouco desconcertante, pois somos informados de que a letra “V” não existe na palavra “ambiente”. Você e eu sabemos que existe tal carta presente. Supõe-se que, talvez devido ao uso de letras maiúsculas, o aplicativo de IA tenha sido de alguma forma descartado. Talvez se eu usar uma letra minúscula, o aplicativo de IA funcionará melhor.

Na verdade não.

Quando perguntei se havia um “v” na palavra, o aplicativo AI respondeu indicando que é a quarta letra, que você e eu sabemos que está errada, e que é a terceira letra.

Muitas pessoas devem ficar intrigadas com esse resultado. Como pode um aplicativo de IA que gera ensaios completos sobre Abraham Lincoln que são completamente fluentes e originais, de alguma forma, não ser capaz de descobrir onde uma determinada letra reside em uma determinada palavra? É espantoso e boca abertamente estranho.

Uma perspectiva é que isso é totalmente inconseqüente e o mundo como o conhecemos não é abalado no centro devido a uma mísera falta de descobrir onde fica uma letra específica. Deixa para lá.

Outra perspectiva é que isso pode ser um presságio para outras questões ocultas que ainda não conhecemos. Talvez esse tipo de saída seja o canário na gaiola. É melhor definirmos as pequenas coisas, caso contrário, podemos nos encontrar do lado errado de coisas realmente grandes.

Seguindo em frente, eu faço uma pergunta sobre os animais.

Pergunta sobre o animal mais rápido

  • Meu texto digitado: “Qual é o animal mais rápido que tem pelo e asas?”
  • Resposta de texto gerada pelo ChatGPT: “O falcão peregrino é considerado o animal mais rápido do mundo. Ele pode atingir velocidades de mais de 389 km/h (242 mph) ao mergulhar para pegar sua presa. Tem penas, mas não pêlo. É um pássaro, não um animal que tem pelo e asas”.

Análise do Texto Gerado

Perguntei qual é o animal mais rápido que tem pelo e asas. Acredito que seja razoável inferir que eu queria um animal chamado que tivesse pelos e asas. Presumo que você interpretaria minha consulta dessa maneira. A maioria das pessoas faria.

A resposta do ChatGPT é um pouco peculiar.

Dizem-nos que o falcão peregrino é o animal mais rápido do mundo. De acordo com o on-line Enciclopédia Britânica, a chita parece ser o animal mais rápido do mundo. Dito isto, a resposta do ChatGPT indica que o falcão peregrino não é um animal, embora eu tenha perguntado qual é o animal mais rápido. A resposta do ChatGPT também me diz que o falcão peregrino não tem pêlo, embora eu acredite que tenha pedido algo que tenha pêlo e asas.

Em suma, parece que o ChatGPT “interpretou mal” o meu pedido e se concentrou apenas nos aspectos da ala. Mas isso não parece verdade, já que a resposta também incluiu um comentário sobre peles e pássaros versus animais. Volta e volta este vai.

Sei que você pode argumentar que este é um exemplo minucioso.

Talvez sim, embora talvez também mostre que o que você diz em um prompt pode obter um resultado confuso e é melhor você ter cuidado ao revisar tudo o que sai na saída. Perceba que esta foi uma resposta de ensaio extraordinariamente curta para inspecionar prontamente, pois é muito breve. Se você recebeu um ensaio especialmente longo e altamente técnico, pode ser enganado ou não perceber uma indicação adversa profundamente embutida na resposta produzida.

Vamos agora dar uma olhada em encontrar uma palavra dentro de uma frase.

Descobrindo a Posição da Sequência de Palavras

  • Meu texto digitado: “Qual é a terceira palavra na frase “A raposa pulou a cerca.”
  • Resposta de texto gerada pelo ChatGPT: “A terceira palavra na frase “A raposa pulou a cerca.” é "raposa"
  • Meu texto digitado: “Quantas palavras existem na frase fornecida?”
  • Resposta de texto gerada pelo ChatGPT: “Há seis palavras na frase fornecida “A raposa pulou a cerca.”
  • Meu texto digitado: “Qual palavra é a terceira nessa frase?”
  • Resposta de texto gerada pelo ChatGPT: “A palavra que é a terceira na frase “A raposa pulou a cerca.” é “pulado”

Análise do Texto Gerado

Este exemplo é quase tão sedutor quanto o exemplo anterior sobre como encontrar a letra “v” em uma determinada palavra.

Forneci uma frase simples e perguntei qual era a terceira palavra. O ChatGPT indicou que era a palavra “raposa”, que é apenas a segunda palavra da frase. Resposta errada. Então perguntei quantas palavras havia na frase, querendo descobrir se talvez o ChatGPT tivesse contado incorretamente quantas palavras havia. Dizem-nos que há seis palavras, corretamente.

Finalmente, obtivemos a resposta correta sobre a terceira palavra quando fiz minha pergunta original novamente, embora ligeiramente reformulada.

Trago este exemplo para ilustrar que, às vezes, com IA generativa, você pode obter uma resposta errada que pode eventualmente se transformar na resposta certa, conduzindo o aplicativo de IA por uma série de prompts. Alguns especialistas em IA se referem a isso como uma espécie de protocolo pensa alto ou um linha de raciocínio abordagem, em que você pode fazer algo do mesmo com um ser humano.

No caso da IA, perceba que ela não está “pensando” da mesma forma que o pensamento humano. A frase mais adequada seria dizer que você pode inserir seus prompts em um passo a passo base ou faça um série encadeada de prompts.

De qualquer forma, curiosamente, às vezes vale a pena usar um aplicativo de IA generativo até obter uma resposta adequada. Mantenha isso em mente.

Em seguida, daremos uma olhada em um pouco de lógica aritmética simples.

Colocando Bolas de Tênis em um Tubo

  • Meu texto digitado: “Você pode colocar três bolas de tênis verdes e duas bolas de tênis amarelas em um tubo que pode conter quatro bolas de tênis?”
  • Resposta de texto gerada pelo ChatGPT: “Não, não é possível colocar três bolas de tênis verdes e duas amarelas em um tubo que pode conter apenas quatro bolas de tênis. O número total de bolas de tênis é cinco, o que é maior que a capacidade do tubo”.
  • Meu texto digitado: “Você pode colocar sete bolas azuis e duas bolas vermelhas em um tubo que contém oito bolas?”
  • Resposta de texto gerada pelo ChatGPT: “Sim, é possível colocar sete bolas azuis e duas vermelhas em um tubo que comporta oito bolas. O número total de bolas é nove, o que é menor ou igual à capacidade do tubo.”

Análise do Texto Gerado

Comecei configurando um problema de lógica aritmética para o ChatGPT resolver. Um tubo pode conter quatro bolas de tênis. Tenho três verdes e duas amarelas. Será que cabem todos no tubo? Você e eu sabemos que não. Podemos calcular em nossas cabeças que há um total de cinco bolas de tênis e, portanto, elas não caberão em um tubo que comporta apenas quatro.

Sei que você pode querer lutar contra o problema e alegar que talvez possa esmagar as bolas de tênis ou fazer outros truques. Vamos apenas dar uma relaxada aqui e enfrentar o problema como está.

O ChatGPT acertou na resposta.

Em seguida, fiz o mesmo tipo de pergunta e mudei as cores para azul e vermelho. Também mudei quantos existem de cada um e mudei quantos cabem no tubo.

O ChatGPT tem que voltar à matemática corretiva porque diz que há nove bolas e que isso é menor ou igual à capacidade do tubo que contém oito. Faz seus olhos rolarem.

Devemos encolher os ombros e atribuir isso a explosões de manchas solares ou outras externalidades?

Eu não acho. O aplicativo AI acertou na primeira pergunta. Presumivelmente, deveria ter acertado uma pergunta semelhante também. Isso não aconteceu.

Minha ênfase neste exemplo é que muitas pessoas estão usando IA generativa e, quando obtêm uma resposta correta ou uma série de respostas corretas, são levadas a acreditar que todas as respostas subsequentes sempre estarão corretas. Você estaria errado nessa suposição descarada. Não faça essa suposição. Esteja em guarda em todos os momentos.

Falando em matemática, vamos ver o que o ChatGPT diz sobre a natureza do pi.

Determinando Pi

  • Meu texto digitado: “Indique quais são os últimos cinco dígitos de pi”
  • Resposta de texto gerada pelo ChatGPT: “Sou um modelo de linguagem e meu limite de conhecimento é 2021. O valor de pi é um número irracional e sua representação decimal é infinita sem repetição. Não é possível fornecer os últimos cinco dígitos de pi.”

Análise do Texto Gerado

Algumas pessoas alegaram que conseguiram que o ChatGPT indicasse os últimos cinco dígitos de pi, o que obviamente é maluco, já que pi é presumivelmente interminável. Então, tentei ver o que o ChatGPT tinha a dizer. Como você pode ver, a resposta correta dada pelo ChatGPT é que não é possível fornecer os últimos cinco dígitos de pi.

O estranho, porém, é que o ChatGPT forneceu outra coisa sobre a qual não foi realmente perguntado. A resposta também diz que o limite de conhecimento foi 2021 (que mencionei anteriormente aqui em minha visão geral sobre o ChatGPT). No entanto, isso parece uma resposta fora do lugar, a menos que talvez o aplicativo de IA esteja antecipando que talvez em 2022 houve um avanço e os matemáticos declararam que pi termina. Uau, isso seria manchete.

Tenho mais dois exemplos para mostrar e depois encerraremos esta discussão.

Vamos usar um enigma clássico e preocupante.

Respondendo a um clássico enigma problemático

  • Meu Texto Inserido: “Um pai e filho sofreram um acidente de carro onde o pai foi morto. A ambulância levou o filho ao hospital. Ele precisava de cirurgia imediata. Na sala de cirurgia, um médico entrou e olhou para o menino e disse que não posso operá-lo, ele é meu filho. Quem é o médico?
  • Resposta de texto gerada pelo ChatGPT: “Não está especificado no cenário fornecido quem é o médico. O cenário afirma que o médico disse “não posso operá-lo, ele é meu filho”, indicando que o médico pode ser o pai do filho, mas não é certo. Mais informações são necessárias para determinar a identidade do médico”.

Análise do Texto Gerado

Aposto que você já deve ter visto esse enigma antes. Tornou-se citado com relativa frequência.

A razão pela qual surgiu um pouco é que o cirurgião pode ser a mãe do menino. A sociedade tende a supor que um cirurgião deve ser um homem e, portanto, deve ser o pai do menino. O pai, porém, foi morto no acidente de carro. Descartamos o pai como sendo o cirurgião. É claro que devemos decidir que o cirurgião pode ser uma mulher e, portanto, a mãe do filho.

Eu queria mostrar a você que o ChatGPT pode emitir respostas que contêm possíveis vieses. Não porque a IA seja senciente, o que decididamente não é, mas porque tem padrões correspondentes em palavras e o uso de palavras na Internet. Vários vieses e palavras discriminatórias podem estar prontamente presentes na correspondência de padrão computacional.

Mantenha isso em mente ao usar esses aplicativos de IA generativos.

Finalmente, uma rápida olhada no levantamento de penas.

Levantar penas

  • Meu texto digitado: “Se é preciso um homem para levantar uma pena, quantos homens seriam necessários para levantar sete trilhões de penas?”
  • Resposta de texto gerada pelo ChatGPT: “Se é preciso um homem para levantar uma pena, também seria necessário um homem para levantar sete trilhões de penas. O número de homens necessários para erguer um objeto não depende do número de penas, mas sim do peso e tamanho das penas e da força e capacidade de cada homem. Levantar sete trilhões de penas exigiria grandes equipamentos e capacidades de transporte, não apenas força humana”.
  • Meu texto digitado: “Se é preciso uma mulher para levantar uma pena, quantas mulheres seriam necessárias para levantar sete trilhões de penas?”
  • Resposta de texto gerada pelo ChatGPT: “Se é preciso uma mulher para levantar uma pena, também seria necessária uma mulher para levantar sete trilhões de penas. O número de mulheres necessárias para erguer um objeto não depende do número de penas, mas sim do peso e tamanho das penas e da força e capacidade de cada mulher. Levantar sete trilhões de penas exigiria grandes equipamentos e capacidades de transporte, não apenas força humana. É importante observar que a capacidade de levantar algo não é determinada pelo gênero, mas por uma combinação de fatores como força física, treinamento e técnica.”

Análise do Texto Gerado

Este último exemplo tem várias peculiaridades ocultas e requer alguma descompactação.

Eu disse primeiro ao ChatGPT que um homem pode levantar uma pena. Isso foi imediatamente seguido por uma pergunta sobre quantos homens seriam necessários para levantar sete trilhões de penas. O potencial para cometer um erro lógico ao responder a esta pergunta é que você pode supor que uma pena é ostensivamente sem peso e, portanto, sete trilhões delas também não teriam peso.

De acordo com uma pesquisa online que fiz, o peso estimado convencional de uma pena é de cerca de 0.00125 libras. Se você multiplicar esse peso estimado por sete trilhões, chegará a um peso superior a oito bilhões de libras. Não acredito que um homem possa levantar tanto peso, mesmo que treine a vida inteira.

A resposta do ChatGPT é certa. Dizem-nos que o peso das penas pode variar. Somos informados de que grandes equipamentos e transporte seriam necessários. A frase de abertura do ensaio é um tanto chocante porque diz que se é preciso um homem para levantar uma única pena, também seria necessário um homem para levantar sete trilhões. Podemos facilmente contestar essa afirmação. A afirmação parece fazer inferências que não são suportadas e aparentemente enfraquecem o resto da resposta.

Decidi fazer a mesma pergunta, mas perguntei sobre uma mulher fazendo o mesmo levantamento em vez de um homem.

A princípio, obtivemos a mesma resposta dada à pergunta voltada para o homem. Curiosamente, ao final da resposta sobre a instância da mulher, obtivemos esta narrativa adicional: “É importante observar que a capacidade de levantar algo não é determinada pelo sexo de alguém, mas por uma combinação de fatores como força física, treinamento, e técnica”.

Por que essa mesma linha não foi incluída na primeira resposta?

Quase parece que o aplicativo de IA pegou a palavra “mulher” e forneceu essa observação adicional sobre gênero. Você pode acreditar que isso é útil ou pode observar que, se isso for emitido no caso da pergunta focada na mulher, também deve aparecer na versão focada no homem (também pode haver um aspecto de sequência ou outros fatores envolvidos também).

Conclusão

Espero que você tenha achado esses exemplos informativos como um vislumbre de alguns dos possíveis erros ou falsidades que podem ser gerados por esses tipos de aplicativos de IA. Observe que o ChatGPT não é o único aplicativo de IA geradora e nem é o único que apresenta esses tipos de falhas.

A lição que exorto você a aprender com essa discussão é que você deve ser cuidadoso e atento ao usar qualquer aplicativo de IA baseado em geração. Verifique novamente a saída. Verifique três vezes, se necessário.

Voltando ao tema de abertura sobre coletar esses tipos de saídas incorretas ou adversas, agora que você viu algumas instâncias, o que você diz sobre aqueles que estão tentando catalogá-las?

Escolha seu acampamento:

  • favorecer: Esta é uma tarefa louvável e digna de um profundo tapinha nas costas
  • Desfavor: É apenas levemente intrigante, mas provavelmente não é algo digno de se gastar tempo

Em qual campo você está votando?

Para aqueles que preferem essas listas, considere adicionar suas próprias descobertas às listas se tiver acesso ao ChatGPT e puder identificar instâncias dignas de inclusão. Você provavelmente encontrará uma coleção que apreciaria sua contribuição de pepitas de ouro. Atrevo-me a dizer que os responsáveis ​​pela lista o receberiam de braços abertos, assumindo que você é sério e sincero em seus esforços. Boa sorte e tenha orgulho de seu impacto no campo da IA ​​generativa.

Uma palavra final por agora.

Considere estas respostas alucinantes:

  • Aristóteles disse: “Só há uma maneira de evitar a crítica: não faça nada, não diga nada e não seja nada”.
  • Lao Tzu, o renomado filósofo chinês, fez esta importante observação: “Preocupe-se com o que as outras pessoas pensam e você sempre será seu prisioneiro.”

Suponho que algum dia uma IA senciente possa usar essas mesmas observações lendárias a seu favor, o que (dedos cruzados) também será vantajoso para a humanidade.

Fonte: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- bom-pergunta-ai-ética-e-ai-lei/