Generative AI ChatGPT pode devorar de forma perturbadora seus dados privados e confidenciais, adverte a ética da IA ​​e a lei da IA

Agora você vê seus dados, agora não.

Enquanto isso, seus preciosos dados se tornaram parte do coletivo, por assim dizer.

Refiro-me a um aspecto que pode ser bastante surpreendente para aqueles de vocês que estão usando ansiosamente e seriamente o que há de mais moderno em Inteligência Artificial (IA). Os dados que você insere em um aplicativo de IA potencialmente não são totalmente privados para você e somente para você. Pode ser que seus dados sejam utilizados pelo fabricante de IA para presumivelmente buscar melhorar seus serviços de IA ou podem ser usados ​​por eles e/ou até mesmo por seus parceiros aliados para uma variedade de propósitos.

Agora você foi avisado.

Essa entrega de seus dados está acontecendo da maneira mais inócua e potencialmente por milhares ou na ordem de milhões de pessoas. Como assim? Existe um tipo de IA conhecido como IA generativa que recentemente conquistou grandes manchetes e a atenção do público em geral. O mais notável dos aplicativos de IA generativos existentes é um chamado ChatGPT, desenvolvido pela empresa OpenAI.

Há supostamente cerca de um milhão de usuários registrados no ChatGPT. Muitos desses usuários parecem se deliciar em experimentar este aplicativo de IA generativo mais quente e mais recente. O processo é extraordinariamente simples. Você insere algum texto como um prompt e pronto, o aplicativo ChatGPT gera uma saída de texto que geralmente tem a forma de um ensaio. Alguns se referem a isso como text-to-text, embora eu prefira denotar como text-to-essay, já que essa verborragia faz mais sentido no dia a dia.

A princípio, um usuário novato provavelmente inserirá algo divertido e despreocupado. Conte-me sobre a vida e os tempos de George Washington, alguém pode entrar como um alerta. O ChatGPT então produziria um ensaio sobre nosso lendário primeiro presidente. O ensaio seria totalmente fluente e você teria dificuldade em discernir que foi produzido por um aplicativo de IA. Uma coisa emocionante de se ver acontecer.

As chances são de que, depois de brincar por um tempo, um segmento de usuários novatos terá se preenchido e potencialmente optará por parar de brincar com o ChatGPT. Eles agora superaram seu FOMO (medo de perder), fazendo isso depois de experimentar o aplicativo de IA que quase todo mundo parece estar falando. Ato feito.

Alguns, porém, começarão a pensar em outras maneiras mais sérias de usar a IA generativa.

Talvez use o ChatGPT para escrever aquele memorando que seu chefe tem insistido para você escrever. Tudo o que você precisa fazer é fornecer um prompt com os pontos que você tem em mente, e a próxima coisa que você sabe é que um memorando inteiro foi gerado pelo ChatGPT que deixaria seu chefe orgulhoso de você. Você copia o ensaio produzido do ChatGPT, cola-o no modelo oficial da empresa em seu pacote de processamento de texto e envia por e-mail o elegante memorando para seu gerente. Você vale um milhão de dólares. E você usou seu cérebro para encontrar uma ferramenta útil para fazer o trabalho duro para você. Dê um tapinha nas costas.

Isso não é tudo.

Sim, há mais.

Lembre-se de que a IA generativa pode executar uma série de outras tarefas relacionadas à escrita.

Por exemplo, suponha que você tenha escrito uma narrativa de algum tipo para um cliente valioso e deseja muito fazer uma revisão do material antes que ele seja distribuído.

Mole-mole.

Você cola o texto de sua narrativa em um prompt do ChatGPT e instrui o ChatGPT a analisar o texto que você compôs. A redação resultante pode se aprofundar em suas palavras e, para sua agradável surpresa, tentar aparentemente inspecionar o significado do que você disse (indo muito além de atuar como um verificador ortográfico ou um analisador gramatical). O aplicativo AI pode detectar falhas na lógica de sua narrativa ou pode descobrir contradições que você não percebeu que estavam em sua própria escrita. É quase como se você tivesse contratado um editor humano habilidoso para avaliar seu rascunho e fornecer uma ladainha de sugestões úteis e preocupações anotadas (bem, quero afirmar categoricamente que não estou tentando antropomorfizar o aplicativo de IA, principalmente que um editor humano é um ser humano, enquanto o aplicativo AI é apenas um programa de computador).

Ainda bem que você usou o aplicativo generativo de IA para examinar sua preciosa narrativa escrita. Sem dúvida, você preferiria que a IA encontrasse esses problemas escritos inquietantes, em vez de enviar o documento ao seu cliente premiado. Imagine que você compôs a narrativa para alguém que o contratou para criar uma representação bastante vital. Se você tivesse dado a versão original ao cliente, antes de fazer a revisão do aplicativo de IA, poderia sofrer um grande constrangimento. O cliente quase certamente teria sérias dúvidas sobre suas habilidades para fazer o trabalho solicitado.

Vamos aumentar a aposta.

Considere a criação de documentos legais. Isso é obviamente um assunto particularmente sério. Palavras e como elas são compostas podem significar uma defesa legal ou uma calamidade legal sombria.

Em minha pesquisa e consultoria contínuas, interajo regularmente com muitos advogados que estão profundamente interessados ​​em usar IA no campo do direito. Vários programas de LegalTech estão se conectando aos recursos de IA. Um advogado pode usar IA generativa para redigir um rascunho de um contrato ou redigir outros documentos legais. Além disso, se o próprio advogado fez um rascunho inicial, ele pode passar o texto para um aplicativo de IA generativo, como o ChatGPT, para dar uma olhada e ver quais buracos ou lacunas podem ser detectados. Para saber mais sobre como os advogados e o campo jurídico estão optando por usar a IA, consulte minha discussão em o link aqui.

Estamos prontos, porém, para esfregar isso.

Um advogado pega um contrato redigido e copia o texto em um prompt para o ChatGPT. O aplicativo AI produz uma revisão para o advogado. Acontece que várias pegadinhas são encontradas pelo ChatGPT. O advogado revisa o contrato. Eles também podem pedir ao ChatGPT para sugerir uma reformulação ou refazer o texto composto para eles. Uma versão nova e melhor do contrato é então produzida pelo aplicativo generativo de IA. O advogado pega o texto gerado e o coloca em um arquivo de processamento de texto. Off a missiva vai para o cliente. Missão cumprida.

Você consegue adivinhar o que também acabou de acontecer?

Nos bastidores e sob o capô, o contrato poderia ter sido engolido como um peixe na boca de uma baleia. Embora esse advogado que usa IA possa não perceber, o texto do contrato, conforme colocado como um prompt no ChatGPT, pode ser engolido pelo aplicativo de IA. Agora é forragem para correspondência de padrões e outras complexidades computacionais do aplicativo de IA. Isso, por sua vez, pode ser usado de várias maneiras. Se houver dados confidenciais no rascunho, isso também está potencialmente dentro dos limites do ChatGPT. Seu prompt fornecido ao aplicativo AI agora é ostensivamente parte do coletivo de uma forma ou de outra.

Além disso, o ensaio produzido também é considerado parte do coletivo. Se você pediu ao ChatGPT para modificar a minuta para você e apresentar a nova versão do contrato, isso é interpretado como um ensaio produzido. As saídas do ChatGPT também são um tipo de conteúdo que pode ser retido ou transformado pelo aplicativo AI.

Caramba, você pode ter dado inocentemente informações privadas ou confidenciais. Não é bom. Além disso, você nem saberia que o fez. Nenhuma bandeira foi levantada. Uma buzina não soou. Nenhuma luz piscando disparou para chocá-lo e trazê-lo à realidade.

Podemos antecipar que não-advogados poderiam facilmente cometer tal erro, mas para um advogado versado cometer o mesmo erro de iniciante é quase inimaginável. No entanto, provavelmente existem profissionais jurídicos cometendo esse mesmo erro em potencial. Eles correm o risco de violar um elemento notável do privilégio advogado-cliente e possivelmente violar as Regras Modelo de Conduta Profissional (MRPC) da American Bar Association (ABA). Em particular: “Um advogado não deve revelar informações relativas à representação de um cliente, a menos que o cliente dê consentimento informado, a divulgação seja implicitamente autorizada para realizar a representação ou a divulgação seja permitida pelo parágrafo (b)” (citado de o MRPC, e para o qual as exceções associadas à subseção b não parecem abranger o uso de um aplicativo de IA generativo de maneira não segura).

Alguns advogados podem tentar desculpar sua transgressão alegando que não são magos da tecnologia e que não teriam meios prontos para saber que a inserção de informações confidenciais em um aplicativo de IA generativo pode, de alguma forma, ser uma espécie de violação. A ABA deixou claro que um dever dos advogados envolve estar atualizado em IA e tecnologia do ponto de vista jurídico: “Para manter o conhecimento e a habilidade necessários, um advogado deve se manter atualizado com as mudanças na lei e sua prática, incluindo os benefícios e riscos associados à tecnologia relevante, engajar-se em estudos e educação continuados e cumprir todos os requisitos de educação jurídica continuada aos quais o advogado está sujeito” (conforme MRPC).

Várias disposições entram nessa aparência de dever legal, incluindo manter as informações confidenciais do cliente (Regra 1.6), proteger a propriedade do cliente, como dados (Regra 1.15), comunicar-se adequadamente com um cliente (Regra 1.4), obter o consentimento informado do cliente (Regra 1.6), e garantir representação competente em nome de um cliente (Regra 1.1). E há também a resolução pouco conhecida, mas altamente notável, com foco em IA, aprovada pela ABA: “Que a American Bar Association insta os tribunais e advogados a abordar as questões éticas e legais emergentes relacionadas ao uso de inteligência artificial ('AI') na prática da lei, incluindo: (1) viés, explicabilidade e transparência das decisões automatizadas feitas pela IA; (2) uso ético e benéfico da IA; e (3) controles e supervisão da IA ​​e dos fornecedores que fornecem IA.”

Palavras ao sábio para meus amigos e colegas legais.

O cerne da questão é que praticamente qualquer um pode se meter em uma enrascada ao usar IA generativa. Não-advogados podem fazê-lo por sua suposta falta de perspicácia legal. Os advogados também podem fazer isso, talvez apaixonados pela IA ou não respirando fundo e refletindo sobre as repercussões legais que podem surgir ao usar a IA generativa.

Estamos todos potencialmente no mesmo barco.

Você também deve perceber que o ChatGPT não é o único aplicativo de IA generativo do mercado. Existem outros aplicativos de IA generativos que você pode usar. Eles também são provavelmente cortados do mesmo tecido, ou seja, as entradas que você insere como prompts e as saídas que você recebe como ensaios gerados são considerados parte do coletivo e podem ser usados ​​pelo criador de IA.

Na coluna de hoje, vou desvendar a natureza de como os dados que você insere e os dados que recebe da IA ​​generativa podem ser potencialmente comprometidos com relação à privacidade e à confidencialidade. Os fabricantes de IA disponibilizam seus requisitos de licenciamento e você deve ler essas estipulações vitais antes de começar a usar ativamente um aplicativo de IA com qualquer aparência de dados reais. Vou orientá-lo através de um exemplo de tal licenciamento, fazendo isso para o aplicativo ChatGPT AI.

Em tudo isso, há uma série de considerações sobre a ética da IA ​​e a lei da IA.

Esteja ciente de que há esforços contínuos para imbuir os princípios éticos da IA ​​no desenvolvimento e no uso de aplicativos de IA. Um contingente crescente de preocupados e antigos éticos da IA ​​está tentando garantir que os esforços para conceber e adotar a IA levem em consideração uma visão de fazer AI For Good e evitando AI para mau. Da mesma forma, há propostas de novas leis de IA que estão sendo cogitadas como possíveis soluções para impedir que os empreendimentos de IA enlouqueçam com os direitos humanos e coisas do gênero. Para minha cobertura contínua e extensa de Ética e Lei de IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Existem nuances e provisões significativas de IA ética associadas a como os fabricantes de IA podem ou devem lidar com os dados ou informações que parecem privados ou confidenciais para seus usuários. Você provavelmente também sabe que várias leis existentes atingem o cerne de como os dados devem ser tratados por entidades de tecnologia. As chances também são de que as novas leis de IA também se cruzem nesse mesmo território. Veja, por exemplo, minha cobertura do Declaração de Direitos da IA e outras disputas legais acontecendo sobre IA, em o link aqui.

Aqui está a principal conclusão dessa discussão:

  • Seja muito, muito, muito cuidadoso sobre quais dados ou informações você opta por colocar em seus prompts ao usar IA generativa e, da mesma forma, seja extremamente cuidadoso e antecipe que tipos de ensaios produzidos você pode obter, pois os resultados também podem ser absorvidos.

Isso implica que você não deve usar IA generativa?

Não, não é nada disso que estou dizendo.

Use IA generativa para o conteúdo do seu coração. A essência é que você precisa estar atento a como usá-lo. Descubra que tipo de estipulações de licenciamento estão associadas ao uso. Decida se você pode viver com essas estipulações. Se houver meios de informar ao fabricante de IA que você deseja invocar certos tipos de proteções ou concessões adicionais, certifique-se de fazê-lo.

Também mencionarei uma outra faceta que percebo que deixará algumas pessoas furiosas. Aqui vai. Apesar de quaisquer que sejam as estipulações de licenciamento, você também deve assumir que existe a possibilidade de que esses requisitos não sejam totalmente cumpridos. As coisas podem dar errado. Coisas podem escorregar entre as rachaduras. No final, claro, você pode ter um processo legal contra um fabricante de IA por não cumprir suas estipulações, mas isso ocorre um pouco depois que o cavalo já está fora do celeiro.

Uma maneira potencialmente altamente segura de proceder seria configurar sua própria instância em seus próprios sistemas, seja na nuvem ou internamente (e, supondo que você siga as devidas precauções de segurança cibernética, o que reconhecidamente alguns não fazem e são piores off em sua própria nuvem do que usar a nuvem do fornecedor de software). Um problema um tanto incômodo, porém, é que poucos dos aplicativos generativos de IA em grande escala permitem isso no momento. Eles estão praticamente trabalhando apenas em nossa nuvem. Poucos disponibilizaram a opção de ter uma instância inteira esculpida apenas para você. Eu previ que gradualmente veremos essa opção surgindo, embora a princípio seja bastante caro e um tanto complicado, veja minhas previsões em o link aqui.

Como pessoas especialmente brilhantes e notavelmente astutas se metem em um pântano de erosão da confidencialidade de dados ou informações?

O fascínio desses aplicativos generativos de IA é bastante magnético quando você começa a usá-los. Passo a passo, você se encontra hipnotizado e optando por colocar os pés cada vez mais fundo nas águas generativas da IA. A próxima coisa que você sabe é que está entregando prontamente conteúdo proprietário que deveria ser mantido privado e confidencial em um aplicativo de IA generativo.

Resista ao impulso e, por favor, evite cair gradualmente em uma armadilha desagradável.

Para líderes de negócios e executivos de alto nível, o mesmo aviso vale para você e para todas as pessoas em sua empresa. Os executivos seniores também se envolvem no entusiasmo e na surpresa de usar a IA generativa. Eles podem realmente atrapalhar e potencialmente inserir informações secretas de nível superior em um aplicativo de IA.

Além disso, eles podem ter grandes ligas de seus funcionários também brincando com IA generativa. Muitos desses funcionários conscientes estão inserindo sem pensar e alegremente as informações privadas e confidenciais da empresa nesses aplicativos de IA. De acordo com notícias recentes, a Amazon aparentemente descobriu que alguns funcionários estavam inserindo várias informações proprietárias no ChatGPT. Um aviso de orientação legal foi enviado internamente para ser cauteloso ao usar o aplicativo de IA irresistível.

No geral, um pouco de ironia entra no fenômeno crescente de funcionários, querendo ou não, inserindo dados confidenciais no ChatGPT e em outras IA generativas. Permita-me elaborar. As empresas modernas de hoje geralmente têm políticas rígidas de segurança cibernética que foram meticulosamente elaboradas e implementadas. Existem inúmeras proteções tecnológicas. A esperança é evitar liberações acidentais de coisas cruciais. Uma batida contínua é para ter cuidado ao visitar sites, ter cuidado ao usar aplicativos não aprovados e assim por diante.

Junto vem aplicativos AI generativos, como ChatGPT. As notícias sobre o aplicativo de IA disparam e recebem atenção generalizada. Um frenesi surge. As pessoas nessas empresas que têm todas essas proteções de segurança cibernética optam por entrar em um aplicativo de IA generativo. Eles brincam à toa com isso no começo. Eles então começam a inserir os dados da empresa. Uau, eles agora potencialmente expuseram informações que não deveriam ter sido divulgadas.

O brinquedo novinho em folha que contorna magicamente os milhões de dólares em gastos com proteções de segurança cibernética e treinamento contínuo sobre o que não fazer. Mas, ei, é emocionante usar IA generativa e fazer parte da multidão “in”. Isso é o que conta, aparentemente.

Espero que você entenda minha tendência sobre ser marcadamente cauteloso.

A seguir, vamos dar uma olhada em como a IA generativa lida tecnicamente com o texto dos prompts e dos ensaios produzidos. Também exploraremos algumas das estipulações de licenciamento, usando o ChatGPT como exemplo. Perceba que não vou cobrir toda a gama desses elementos de licenciamento. Certifique-se de envolver seu advogado para quaisquer aplicativos de IA generativos que você decida usar. Além disso, o licenciamento difere de fabricante de IA para fabricante de IA, além disso, um determinado fabricante de IA pode optar por alterar seu licenciamento, portanto, mantenha-se atento a qualquer que seja a versão mais recente do licenciamento estipulado.

Temos alguns desempacotamentos emocionantes para fazer neste tópico inebriante.

Primeiro, devemos ter certeza de que estamos todos na mesma página sobre o que consiste a IA generativa e também sobre o que é o ChatGPT. Depois de cobrir essa faceta fundamental, podemos realizar uma avaliação convincente da metáfora do espelho associada a esse tipo de IA.

Se você já está bastante familiarizado com o Generative AI e o ChatGPT, talvez possa folhear a próxima seção e prosseguir com a seção seguinte. Acredito que todos os outros acharão instrutivos os detalhes vitais sobre esses assuntos, lendo atentamente a seção e se atualizando.

Uma cartilha rápida sobre IA generativa e ChatGPT

O ChatGPT é um sistema orientado a conversação interativo de IA de uso geral, essencialmente um chatbot geral aparentemente inócuo, no entanto, está sendo usado ativamente e avidamente por pessoas de maneiras que pegam muitos totalmente desprevenidos, como detalharei em breve. Este aplicativo de IA utiliza uma técnica e tecnologia no domínio da IA ​​que costuma ser chamada de IA generativa. A IA gera saídas como texto, que é o que o ChatGPT faz. Outros aplicativos de IA baseados em geração produzem imagens como fotos ou obras de arte, enquanto outros geram arquivos de áudio ou vídeos.

Vou me concentrar nos aplicativos de IA generativos baseados em texto nesta discussão, pois é isso que o ChatGPT faz.

Os aplicativos generativos de IA são extremamente fáceis de usar.

Tudo o que você precisa fazer é inserir um prompt e o aplicativo AI gerará para você um ensaio que tenta responder ao seu prompt. O texto composto parecerá que o ensaio foi escrito pela mão e pela mente humana. Se você inserir um prompt que diga “Fale-me sobre Abraham Lincoln”, a IA generativa fornecerá a você um ensaio sobre Lincoln. Isso é comumente classificado como IA generativa que executa texto para texto ou alguns preferem chamá-lo texto para ensaio saída. Conforme mencionado, existem outros modos de IA generativa, como text-to-art e text-to-video.

Seu primeiro pensamento pode ser que essa capacidade generativa não pareça grande coisa em termos de produção de ensaios. Você pode facilmente fazer uma pesquisa on-line na Internet e encontrar prontamente toneladas e toneladas de ensaios sobre o presidente Lincoln. O kicker no caso da IA ​​generativa é que o ensaio gerado é relativamente único e fornece uma composição original em vez de um imitador. Se você tentasse encontrar o ensaio produzido pela IA online em algum lugar, dificilmente o descobriria.

A IA generativa é pré-treinada e faz uso de uma formulação matemática e computacional complexa que foi criada examinando padrões em palavras escritas e histórias na web. Como resultado do exame de milhares e milhões de passagens escritas, a IA pode produzir novos ensaios e histórias que são uma mistura do que foi encontrado. Ao adicionar várias funcionalidades probabilísticas, o texto resultante é praticamente único em comparação com o que foi usado no conjunto de treinamento.

É por isso que tem havido um alvoroço sobre os alunos serem capazes de colar ao escrever redações fora da sala de aula. Um professor não pode simplesmente pegar a redação que os alunos enganosos afirmam ser sua própria escrita e procurar descobrir se ela foi copiada de alguma outra fonte online. No geral, não haverá nenhum ensaio online preexistente definitivo que se encaixe no ensaio gerado por IA. Tudo dito, o professor terá que aceitar a contragosto que o aluno escreveu o ensaio como um trabalho original.

Existem preocupações adicionais sobre a IA generativa.

Uma desvantagem crucial é que os ensaios produzidos por um aplicativo de IA baseado em geração podem ter várias falsidades incorporadas, incluindo fatos patentemente falsos, fatos que são retratados de forma enganosa e fatos aparentes que são totalmente fabricados. Esses aspectos fabricados são muitas vezes referidos como uma forma de alucinações de IA, uma frase de efeito que eu desaprovo, mas lamentavelmente parece estar ganhando força popular de qualquer maneira (para minha explicação detalhada sobre por que essa é uma terminologia ruim e inadequada, veja minha cobertura em o link aqui).

Eu gostaria de esclarecer um aspecto importante antes de entrarmos no assunto deste tópico.

Houve algumas reivindicações descomunais nas mídias sociais sobre IA generativa afirmando que esta versão mais recente da IA ​​é de fato IA senciente (não, eles estão errados!). Aqueles em AI Ethics e AI Law estão notavelmente preocupados com essa tendência crescente de reivindicações estendidas. Você pode dizer educadamente que algumas pessoas estão exagerando o que a IA de hoje pode realmente fazer. Eles assumem que a IA tem capacidades que ainda não conseguimos alcançar. Isso é lamentável. Pior ainda, eles podem permitir a si mesmos e a outros entrar em situações terríveis por causa da suposição de que a IA será senciente ou semelhante à humana ao ser capaz de agir.

Não antropomorfize a IA.

Fazer isso o deixará preso em uma armadilha de confiança pegajosa e obstinada de esperar que a IA faça coisas que ela é incapaz de realizar. Com isso dito, o que há de mais recente em IA generativa é relativamente impressionante pelo que pode fazer. Esteja ciente, porém, de que existem limitações significativas que você deve ter sempre em mente ao usar qualquer aplicativo de IA generativo.

Se você está interessado na comoção em rápida expansão sobre ChatGPT e Generative AI, tenho feito uma série focada em minha coluna que você pode achar informativo. Aqui está uma olhada no caso de algum desses tópicos chamar sua atenção:

  • 1) Previsões de avanços de IA generativa chegando. Se você quiser saber o que provavelmente acontecerá sobre a IA ao longo de 2023 e além, incluindo os próximos avanços em IA generativa e ChatGPT, leia minha lista abrangente de previsões para 2023 em o link aqui.
  • 2) IA generativa e conselhos de saúde mental. Optei por revisar como a IA generativa e o ChatGPT estão sendo usados ​​para conselhos de saúde mental, uma tendência problemática, de acordo com minha análise focada em o link aqui.
  • 3) Fundamentos de IA generativa e ChatGPT. Esta peça explora os elementos-chave de como a IA generativa funciona e, em particular, investiga o aplicativo ChatGPT, incluindo uma análise do burburinho e fanfarra, em o link aqui.
  • 4) Tensão entre professores e alunos sobre IA generativa e ChatGPT. Aqui estão as maneiras pelas quais os alunos usarão a IA generativa e o ChatGPT. Além disso, existem várias maneiras de os professores lidarem com esse maremoto. Ver o link aqui.
  • 5) Contexto e uso generativo de IA. Eu também fiz um exame irônico com sabor sazonal sobre um contexto relacionado ao Papai Noel envolvendo ChatGPT e IA generativa em o link aqui.
  • 6) Golpistas usando IA generativa. Em uma nota sinistra, alguns golpistas descobriram como usar IA generativa e ChatGPT para cometer irregularidades, incluindo gerar e-mails fraudulentos e até mesmo produzir código de programação para malware, veja minha análise em o link aqui.
  • 7) Erros de novato usando IA generativa. Muitas pessoas estão superando e surpreendentemente subestimando o que a IA generativa e o ChatGPT podem fazer. o link aqui.
  • 8) Lidando com alertas generativos de IA e alucinações de IA. Eu descrevo uma abordagem de ponta para usar complementos de IA para lidar com os vários problemas associados à tentativa de inserir prompts adequados em IA generativa, além de haver complementos de IA adicionais para detectar as chamadas saídas e falsidades alucinadas de IA, como coberto em o link aqui.
  • 9) Desmistificando afirmações estúpidas sobre a detecção de ensaios generativos produzidos por IA. Há uma corrida do ouro equivocada de aplicativos de IA que proclamam ser capazes de verificar se um determinado ensaio foi produzido por humanos ou gerado por IA. No geral, isso é enganoso e, em alguns casos, uma afirmação estúpida e insustentável, veja minha cobertura em o link aqui.
  • 10) A interpretação de papéis por meio de IA generativa pode indicar desvantagens para a saúde mental. Alguns estão usando IA generativa, como o ChatGPT, para fazer dramatizações, em que o aplicativo de IA responde a um humano como se existisse em um mundo de fantasia ou outro cenário inventado. Isso pode ter repercussões na saúde mental, consulte o link aqui.
  • 11) Expor a gama de erros e falsidades produzidos. Várias listas coletadas estão sendo reunidas para tentar mostrar a natureza dos erros e falsidades produzidos pelo ChatGPT. Alguns acreditam que isso é essencial, enquanto outros dizem que o exercício é inútil, veja minha análise em o link aqui.
  • 12) As escolas que proíbem o ChatGPT de IA generativa estão perdendo o barco. Você deve saber que várias escolas, como o Departamento de Educação da cidade de Nova York (NYC), declararam a proibição do uso do ChatGPT em sua rede e dispositivos associados. Embora isso possa parecer uma precaução útil, não moverá a agulha e, infelizmente, perderá completamente o barco, veja minha cobertura em o link aqui.
  • 13) Generative AI ChatGPT estará em todos os lugares devido à próxima API. Há uma reviravolta importante sobre o uso do ChatGPT, ou seja, por meio do uso de um portal de API nesse aplicativo de IA específico, outros programas de software poderão invocar e utilizar o ChatGPT. Isso vai expandir drasticamente o uso de IA generativa e tem consequências notáveis, veja minha elaboração em o link aqui.
  • 14) Maneiras pelas quais o ChatGPT pode fracassar ou derreter. Vários possíveis problemas irritantes estão à frente do ChatGPT em termos de minar os tremendos elogios que recebeu até agora. Esta análise examina de perto oito possíveis problemas que podem fazer com que o ChatGPT perca força e até mesmo acabe na casa do cachorro, veja o link aqui.

Você pode achar interessante que o ChatGPT seja baseado em uma versão de um aplicativo AI predecessor conhecido como GPT-3. O ChatGPT é considerado um próximo passo, conhecido como GPT-3.5. Prevê-se que o GPT-4 provavelmente será lançado na primavera de 2023. Presumivelmente, o GPT-4 será um passo impressionante em termos de capacidade de produzir ensaios aparentemente ainda mais fluentes, indo mais fundo e sendo um espanto. -inspiradora maravilha quanto às composições que pode produzir.

Você pode esperar ver uma nova rodada de admiração expressa quando a primavera chegar e a mais recente IA generativa for lançada.

Trago isso à tona porque há outro ângulo a ser lembrado, que consiste em um potencial calcanhar de Aquiles para esses aplicativos de IA generativos melhores e maiores. Se algum fornecedor de IA disponibilizar um aplicativo de IA generativo que vomite impurezas, isso pode acabar com as esperanças dos fabricantes de IA. Um transbordamento social pode fazer com que toda IA ​​generativa fique com um olho roxo sério. As pessoas, sem dúvida, ficarão bastante chateadas com saídas sujas, que já aconteceram muitas vezes e levaram a violentas reações negativas da sociedade em relação à IA.

Um último aviso por enquanto.

Tudo o que você vê ou lê em uma resposta de IA generativa que parece para ser transmitido como puramente factual (datas, lugares, pessoas, etc.), certifique-se de permanecer cético e estar disposto a verificar novamente o que você vê.

Sim, as datas podem ser inventadas, os lugares podem ser inventados e os elementos que normalmente esperamos serem irrepreensíveis são todos os sujeito a suspeitas. Não acredite no que você lê e mantenha um olhar cético ao examinar quaisquer ensaios ou saídas generativas de IA. Se um aplicativo de IA generativo disser que Abraham Lincoln voou pelo país em seu próprio jato particular, você sem dúvida saberia que isso é uma loucura. Infelizmente, algumas pessoas podem não perceber que os jatos não existiam em sua época, ou podem saber, mas não perceber que o ensaio faz essa afirmação descarada e escandalosamente falsa.

Uma forte dose de ceticismo saudável e uma mentalidade persistente de descrença serão seu melhor trunfo ao usar IA generativa.

Estamos prontos para passar para o próximo estágio desta elucidação.

Sabendo o que diabos vai acontecer com esse texto

Agora que estabelecemos os fundamentos, podemos mergulhar nas considerações de dados e informações ao usar IA generativa.

Primeiro, vamos considerar brevemente o que acontece quando você insere algum texto em um prompt do ChatGPT. Não sabemos ao certo o que está acontecendo dentro do ChatGPT, pois o programa é considerado proprietário. Alguns apontaram que isso prejudica o senso de transparência sobre o aplicativo de IA. Uma observação um tanto bajuladora é que, para uma empresa chamada OpenAI, sua IA está realmente fechada para acesso público e não está disponível como código aberto.

Vamos discutir a tokenização.

Quando você insere texto simples em um prompt e pressiona Enter, presumivelmente ocorre uma conversão que ocorre imediatamente. O texto é convertido em um formato que consiste em tokens. Tokens são subpartes de palavras. Por exemplo, a palavra “hambúrguer” normalmente seria dividida em três tokens consistindo na porção “ham”, “bur” e “ger”. Uma regra prática é que os tokens tendem a representar cerca de quatro caracteres ou são considerados aproximadamente 75% de uma palavra em inglês convencional.

Cada token é então reformulado como um número. Várias tabelas internas designam qual token é atribuído a qual número específico. A conclusão disso é que o texto que você inseriu agora é inteiramente um conjunto de números. Esses números são usados ​​para analisar computacionalmente o prompt. Além disso, a rede de correspondência de padrões que mencionei anteriormente também é baseada em valores tokenizados. Por fim, ao compor ou gerar a redação produzida, esses tokens numéricos são usados ​​primeiro e, antes de serem exibidos, os tokens são convertidos novamente em conjuntos de letras e palavras.

Pense nisso por um momento.

Quando digo às pessoas que é assim que funciona a mecânica do processamento, elas geralmente ficam atordoadas. Eles presumiram que um aplicativo de IA generativo, como o ChatGPT, deve usar palavras totalmente integrativas. Supomos logicamente que as palavras atuam como a pedra angular para identificar estatisticamente as relações em narrativas e composições escritas. Acontece que o processamento realmente tende a usar tokens. Talvez isso aumente o espanto sobre como o processo computacional parece fazer um trabalho bastante convincente de imitar a linguagem humana.

Eu guiei você por esse processo devido a um equívoco comum que parece estar se espalhando. Algumas pessoas parecem acreditar que, como o texto do prompt está sendo convertido em tokens numéricos, você está são e salvo de que os componentes internos do aplicativo AI de alguma forma não têm mais o texto inserido originalmente. Assim, continua a alegação, mesmo que você tenha inserido informações confidenciais em seu prompt, não se preocupe, pois tudo foi aparentemente tokenizado.

Essa noção é uma falácia. Acabei de apontar que os tokens numéricos podem ser prontamente trazidos de volta ao formato textual de letras e palavras. O mesmo pode ser feito com o prompt convertido que foi tokenizado. Não há nada magicamente protetor em ter sido tokenizado. Dito isto, após a conversão em tokens, se houver um processo adicional que opte por descartar tokens, movê-los e, de outra forma, embaralhar ou cortar coisas, nesse caso, existe de fato a possibilidade de que algumas partes do original prompt não estão mais intactos (e supondo que uma cópia original não seja retida ou armazenada em algum lugar internamente).

Em seguida, gostaria de dar uma olhada nas várias notificações e estipulações de licenciamento do ChatGPT.

Quando você faz login no ChatGPT, uma série de avisos e comentários informativos são exibidos.

Aqui estão eles:

  • “Ocasionalmente pode gerar informações incorretas.”
  • “Ocasionalmente, pode produzir instruções prejudiciais ou conteúdo tendencioso.”
  • “Treinado para recusar pedidos inapropriados.”
  • “Nosso objetivo é obter feedback externo para melhorar nossos sistemas e torná-los mais seguros.”
  • “Embora tenhamos salvaguardas em vigor, o sistema pode ocasionalmente gerar informações incorretas ou enganosas e produzir conteúdo ofensivo ou tendencioso. Não se destina a dar conselhos.”
  • “As conversas podem ser revisadas por nossos treinadores de IA para melhorar nossos sistemas.”
  • “Por favor, não compartilhe nenhuma informação sensível em suas conversas.”
  • “Este sistema é otimizado para o diálogo. Deixe-nos saber se uma resposta específica foi boa ou inútil.”
  • “Conhecimento limitado do mundo e eventos após 2021.”

Dois desses cuidados declarados são especialmente relevantes para esta discussão. Olhe para o sexto ponto com marcador e o sétimo ponto com marcador.

Vamos desempacotar esses dois:

“As conversas podem ser revisadas por nossos treinadores de IA para melhorar nossos sistemas.”

Este sexto ponto explica que as conversas de texto ao usar o ChatGPT podem ser revisadas pelo ChatGPT por meio de seus “treinadores de IA”, o que está sendo feito para melhorar seus sistemas. Isto é para informá-lo de que, para todos e quaisquer prompts de texto inseridos e os correspondentes ensaios produzidos, todos os quais fazem parte da “conversa” que você realiza com o ChatGPT, eles podem ser vistos inteiramente por seu pessoal. A justificativa apresentada é que isso está sendo feito para melhorar o aplicativo de IA, e também nos dizem que é um tipo de tarefa de trabalho realizada por seus treinadores de IA. Talvez sim, mas o resultado é que eles avisaram você de que podem ver seu texto. Ponto final, ponto final.

Se eles fizessem outra coisa com seu texto, você provavelmente procuraria aconselhamento jurídico sobre se eles gravitaram flagrantemente além dos limites sugeridos de apenas revisar o texto para fins de melhoria do sistema (supondo que você tenha descoberto que eles o fizeram, qual dos em si parece talvez improvável). De qualquer forma, você pode imaginar a disputa legal de tentar prendê-los nisso, e suas tentativas de redigir uma maneira de escapar de serem presos por violar de alguma forma os limites de sua isenção de responsabilidade.

“Por favor, não compartilhe nenhuma informação sensível em suas conversas.”

O sétimo ponto indica que você não deve compartilhar nenhuma informação confidencial em suas conversas. Isso parece relativamente simples. Suponho que você possa questionar em que consiste a definição de informação confidencial. Além disso, o ponto marcado não informa por que você não deve compartilhar informações confidenciais. Se algum dia você tiver que tentar e, suando muito, explicar por que inseriu dados confidenciais tolamente, pode tentar a afirmação de sobrancelha levantada de que o aviso não foi específico e, portanto, você não entendeu o significado. Prenda a respiração com isso.

Em suma, ouso dizer que a maioria das pessoas que vi usando o ChatGPT tendem a não ler os pontos com marcadores, ou passam os olhos pelas precauções com marcadores e apenas acenam com a cabeça como se fosse o jargão jurídico comum que você vê todos os Tempo. Poucos parecem levar os avisos estritamente a sério. Isso é uma falha do fornecedor por não tornar as precauções mais pronunciadas? Ou devemos presumir que os usuários devem ser responsáveis ​​e ler conscientemente, compreender e, posteriormente, agir judiciosamente com base nos avisos?

Alguns até afirmam que o aplicativo AI deve avisá-lo repetidamente. Cada vez que você insere um prompt, o software deve exibir um aviso e perguntar se você deseja retornar. Uma e outra vez. Embora isso possa parecer uma precaução útil, é certo que irritaria muito os usuários. Uma troca espinhosa está envolvida.

Ok, então esses são os cuidados óbvios apresentados para todos os usuários verem prontamente.

Os usuários que podem ser mais curiosos podem optar por seguir algumas das estipulações de licenciamento detalhadas que também são publicadas online. Duvido que muitos o façam. Meu palpite é que poucos olham seriamente para os pontos marcados ao fazer login, e menos ainda por uma margem enorme, dão uma olhada nos detalhes de licenciamento. Novamente, estamos todos um tanto insensíveis a essas coisas hoje em dia. Não estou desculpando o comportamento, apenas observando por que ele ocorre.

Examinarei alguns trechos dos termos de licenciamento publicados.

Primeiro, aqui está uma definição do que eles consideram “conteúdo” associado ao uso do ChatGPT:

  • “Seu conteúdo. Você pode fornecer entrada para os Serviços ('Entrada') e receber a saída gerada e retornada pelos Serviços com base na Entrada ('Saída'). Entrada e Saída são coletivamente "Conteúdo". Como entre as partes e na medida permitida pela lei aplicável, você possui todas as Entradas e, sujeito à sua conformidade com estes Termos, a OpenAI cede a você todos os seus direitos, títulos e interesses em e para a Saída. A OpenAI pode usar o Conteúdo conforme necessário para fornecer e manter os Serviços, cumprir a lei aplicável e fazer cumprir nossas políticas. Você é responsável pelo Conteúdo, inclusive por garantir que ele não viole nenhuma lei aplicável ou estes Termos.”

Se você examinar cuidadosamente essa definição, notará que a OpenAI declara que pode usar o conteúdo conforme julgar necessário para manter seus serviços, incluindo o cumprimento das leis aplicáveis ​​e a aplicação de suas políticas. Este é um catchall útil para eles. Em uma das minhas próximas colunas, discutirei um tópico diferente, mas relacionado, especificamente sobre os direitos de Propriedade Intelectual (PI) que você tem em relação aos prompts de texto inseridos e aos ensaios produzidos (aponto isso aqui desde a definição do O conteúdo aborda esse tópico).

Em outra parte dos termos, rotulada como seção c, eles mencionam esta faceta: “Um dos principais benefícios dos modelos de aprendizado de máquina é que eles podem ser aprimorados com o tempo. Para ajudar a OpenAI a fornecer e manter os Serviços, você concorda e instrui que podemos usar o Conteúdo para desenvolver e melhorar os Serviços.” Isso é semelhante ao aviso de uma linha discutido anteriormente que aparece quando você faz login no ChatGPT.

Um documento separado vinculado a isso fornece alguns aspectos adicionais sobre esses assuntos de peso:

  • “Como parte dessa melhoria contínua, quando você usa modelos OpenAI por meio de nossa API, podemos usar os dados que você nos fornece para melhorar nossos modelos. Isso não apenas ajuda nossos modelos a se tornarem mais precisos e melhores na solução de seu problema específico, mas também ajuda a melhorar suas capacidades gerais e segurança. Sabemos que a privacidade e a segurança dos dados são essenciais para nossos clientes. Tomamos muito cuidado para usar controles técnicos e de processo apropriados para proteger seus dados. Removemos qualquer informação de identificação pessoal dos dados que pretendemos usar para melhorar o desempenho do modelo. Também usamos apenas uma pequena amostra de dados por cliente para nossos esforços de melhorar o desempenho do modelo. Por exemplo, para uma tarefa, o número máximo de solicitações de API que amostramos por cliente é limitado a 200 a cada 6 meses” (extraído do documento intitulado “Como seus dados são usados ​​para melhorar o desempenho do modelo”).

Observe que a estipulação indica que a disposição se aplica ao uso da API como um meio de conectar e usar todos os modelos OpenAI. É um tanto obscuro se isso se aplica igualmente aos usuários finais que estão usando diretamente o ChatGPT.

Em um documento diferente, que contém sua lista de várias perguntas frequentes, eles fornecem uma série de perguntas e respostas, duas das quais parecem especialmente pertinentes a esta discussão:

  • “(5) Quem pode ver minhas conversas? Como parte de nosso compromisso com uma IA segura e responsável, revisamos as conversas para melhorar nossos sistemas e garantir que o conteúdo esteja em conformidade com nossas políticas e requisitos de segurança.”
  • “(8) Você pode excluir prompts específicos? Não, não podemos excluir solicitações específicas do seu histórico. Por favor, não compartilhe nenhuma informação sensível em suas conversas.”

Existe um documento adicional que cobre sua política de privacidade. Ele diz o seguinte: “Coletamos informações que sozinhas ou em combinação com outras informações em nossa posse podem ser usadas para identificá-lo (“Informações pessoais”)” e, em seguida, explica que eles podem usar dados de registro, dados de uso, informações de comunicação, informações do dispositivo, cookies, análises e outras informações potencialmente coletadas sobre você. Certifique-se de ler as letras miúdas.

Acho que isso fornece um tour por algumas considerações subjacentes a como seus dados podem ser usados. Como mencionei no início, não vou passar laboriosamente por todas as estipulações de licenciamento.

Espero que isso o coloque em um estado de espírito sobre esses assuntos e permaneça no topo de sua mente.

Conclusão

Eu já disse isso antes e vou dizer de novo, não insira dados confidenciais ou privados nesses aplicativos generativos de IA.

Considere algumas dicas úteis ou opções neste sábio conselho:

  • Pense antes de usar IA generativa
  • Remova as coisas de antemão
  • Mascarar ou falsificar sua entrada
  • Configure sua própria instância
  • Outros

Indicarei a seguir em que consiste cada um deles. A configuração de sua própria instância foi abordada anteriormente aqui. O uso de “outro” em minha lista se deve à possibilidade de outras maneiras de lidar com a prevenção da inclusão de dados confidenciais, o que abordarei em uma coluna futura.

Vamos examinar estes:

  • Pense antes de usar IA generativa. Uma abordagem envolve evitar completamente o uso de IA generativa. Ou pelo menos pense duas vezes antes de fazer isso. Suponho que o caminho mais seguro envolve não usar esses aplicativos de IA. Mas isso também parece bastante grave e quase exagerado.
  • Remova as coisas de antemão. Outra abordagem consiste em remover informações confidenciais ou privadas de tudo o que você inserir como um prompt. Nesse sentido, se você não entrar, não há chance de ser infundido no Borg. A desvantagem é que talvez a remoção da parte confidencial de alguma forma reduza ou prejudique o que você está tentando fazer com que a IA generativa faça por você.
  • Mascarar ou falsificar suas entradas. Você pode modificar o texto proposto alterando as informações para que tudo o que parecia confidencial ou privado agora seja retratado de maneira diferente. Por exemplo, em vez de um contrato mencionando a Widget Company e John Smith, você altera o texto para se referir à Specious Company e Jane Capone. Uma questão aqui é se você fará um trabalho suficientemente exaustivo para que todos os aspectos confidenciais e privados sejam totalmente alterados ou falsificados. Seria fácil perder algumas das nuvens e deixar coisas que não deveriam estar lá.

Aqui está uma reviravolta interessante que pode fazer sua cabeça se aprofundar ainda mais neste tópico. Se você pode garantir completamente que nenhum de seus prompts de entrada contenha informações confidenciais, isso significa que você não precisa se preocupar nem um pouco com os ensaios produzidos que também contêm informações confidenciais?

Isso pareceria axiomaticamente verdadeiro. Nenhuma entrada confidencial, nenhuma saída confidencial.

Aqui está sua reviravolta alucinante.

A IA generativa geralmente é configurada para se retreinar computacionalmente a partir dos prompts de texto que estão sendo fornecidos. Da mesma forma, a IA generativa é frequentemente projetada para retreinar computacionalmente os ensaios produzidos. Todo esse retreinamento visa melhorar as capacidades da IA ​​generativa.

Descrevi em uma de minhas outras colunas o seguinte experimento que realizei. Um advogado estava tentando descobrir um novo meio de lidar com uma questão legal. Após um exame exaustivo da literatura jurídica, parecia que todos os ângulos já levantados foram encontrados. Usando IA generativa, conseguimos que o aplicativo de IA produzisse uma novidade de uma abordagem jurídica que aparentemente não havia sido identificada anteriormente. Acreditava-se que ninguém mais havia desembarcado nessa postura legal. Uma pepita de ouro legal, por assim dizer. Isso pode ser uma bonança legal competitiva estrategicamente valiosa que, no momento certo, pode ser aproveitada e explorada.

Esse ensaio produzido constitui uma forma de informação confidencial, de modo que foi gerado pela IA para essa pessoa em particular e contém algo especial e aparentemente único?

Aha, isso nos leva a outro tópico aliado e entrelaçado sobre a propriedade e os direitos de propriedade intelectual associados à IA generativa. Fique ligado para ver como isso acontece.

Uma observação final por enquanto.

Sófocles forneceu esta sabedoria: “Não faça nada secretamente; pois o Tempo vê e ouve todas as coisas e revela tudo. Suponho que você poderia modernizar o texto e afirmar que a IA generativa e aqueles que concebem e mantêm a IA também podem ver tudo.

É um conselho modestamente simbólico, digno de ser lembrado.

Fonte: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- ética-e-lei/