Os perigos da inteligência artificial que ninguém está falando

Enquanto ChatGPT pode parecer uma ferramenta gratuita inofensiva e útil, esta tecnologia tem o potencial de remodelar drasticamente nossa economia e sociedade como a conhecemos. Isso nos leva a problemas alarmantes – e podemos não estar preparados para eles. 

O ChatGPT, um chatbot alimentado por inteligência artificial (IA), conquistou o mundo no final de 2022. O chatbot promete interromper a pesquisa como a conhecemos. A ferramenta gratuita fornece respostas úteis com base nas solicitações dos usuários. 

E o que está enlouquecendo a internet com o sistema de chatbot de IA é que ele não fornece apenas respostas semelhantes a ferramentas de mecanismo de pesquisa. O ChatGPT pode criar esboços de filmes, escrever códigos inteiros e resolver problemas de codificação, escrever livros inteiros, músicas, poemas, roteiros - ou o que você puder imaginar - em minutos. 

Essa tecnologia é impressionante e ultrapassou um milhão de usuários em apenas cinco dias após seu lançamento. Apesar de seu desempenho alucinante, a ferramenta da OpenAI tem levantado preocupações entre acadêmicos e especialistas de outras áreas. O Dr. Bret Weinstein, autor e ex-professor de biologia evolutiva, disse: “Não estamos prontos para o ChatGPT”. 

Elon Musk, fez parte dos estágios iniciais da OpenAI e um dos co-fundadores da empresa. Mas depois deixou o conselho. Ele falou muitas vezes sobre os perigos da tecnologia de IA – ele disse que o uso e desenvolvimento irrestritos representam um risco significativo para a existência da humanidade. 

Como isso funciona?

ChatGPT é um grande sistema de chatbot de inteligência artificial treinado em linguagem lançado em novembro de 2022 pela OpenAI. A empresa com fins lucrativos desenvolveu o ChatGPT para um uso “seguro e benéfico” da IA ​​que pode responder a quase tudo que você possa imaginar – desde canções de rap, sugestões de arte a roteiros de filmes e ensaios. 

Por mais que pareça uma entidade criativa que sabe o que está dizendo, não é. O chatbot de IA vasculha informações na Internet usando um modelo preditivo de um enorme data center. Semelhante ao que o Google e a maioria dos mecanismos de pesquisa fazem. Em seguida, ele é treinado e exposto a toneladas de dados que permitem que a IA se torne muito boa em prever a sequência de palavras a ponto de poder reunir explicações incrivelmente longas. 

Por exemplo, você pode fazer perguntas de enciclopédia como “Explique as três leis de Einstein”. Ou perguntas mais específicas e aprofundadas como “Escreva um ensaio de 2,000 palavras sobre a interseção entre a ética religiosa e a ética do Sermão da Montanha”. E, não estou brincando, você terá seu texto escrito de forma brilhante em segundos. 

Da mesma forma, é tudo brilhante e impressionante; é alarmante e preocupante. Um futuro distópico do tipo “Ex Machina” é uma possibilidade com o uso indevido da IA. Não apenas o CEO da Tesla e da SpaceX nos alertou, mas muitos especialistas também soaram o alarme. 

Os perigos da IA

A inteligência artificial, sem dúvida, impactou nossas vidas, o sistema econômico e a sociedade. Se você acha que a IA é algo novo ou que só a verá em filmes futuristas de ficção científica, pense duas vezes. Muitas empresas de tecnologia, como Netflix, Uber, Amazon e Tesla, empregam IA para aprimorar suas operações e expandir seus negócios. 

Por exemplo, a Netflix conta com a tecnologia de IA para que seu algoritmo recomende novos conteúdos para seus usuários. O Uber o utiliza no atendimento ao cliente, para detectar fraudes, otimizar a rota dos motoristas e assim por diante, só para citar alguns exemplos. 

No entanto, você só pode ir tão longe com essa tecnologia proeminente sem ameaçar os papéis humanos em muitas ocupações tradicionais, tocando o limiar do que vem de uma máquina e humanos. E, talvez mais importante, ameaçar os riscos da IA ​​para os humanos. 

Os desafios éticos da IA

Segundo a Wikipedia, a ética da inteligência artificial “é o ramo da ética da tecnologia específico para sistemas artificialmente inteligentes. Às vezes, é dividido em uma preocupação com o comportamento moral dos humanos enquanto eles projetam, fabricam, usam e tratam sistemas de inteligência artificial e uma preocupação com o comportamento das máquinas na ética da máquina.

À medida que a tecnologia de IA se espalha rapidamente e se torna parte integrante da maior parte de nossas vidas diárias, as organizações estão desenvolvendo códigos de ética de IA. O objetivo é orientar e desenvolver as melhores práticas do setor para orientar o desenvolvimento da IA ​​com “ética, justiça e indústria”.

No entanto, por mais maravilhoso e moral que pareça no papel, a maioria dessas diretrizes e estruturas são difíceis de aplicar. Além disso, parecem ser princípios isolados situados em indústrias que geralmente carecem de moral ética e atendem principalmente a agendas corporativas. Muitos especialistas e vozes proeminentes argumentar que a ética da IA ​​é amplamente inútil, sem significado e coerência.

Os princípios de IA mais comuns são beneficência, autonomia, justiça, aplicabilidade e não maleficência. Mas, como explica Luke Munn, do Institute for Culture and Society, da Western Sydney University, esses termos se sobrepõem e muitas vezes mudam significativamente dependendo do contexto. 

Ele até estados que “termos como 'beneficência' e 'justiça' podem simplesmente ser definidos de maneira adequada, de acordo com os recursos do produto e as metas de negócios que já foram decididas”. Em outras palavras, as corporações podem alegar que aderem a tais princípios de acordo com sua própria definição, sem realmente se envolver com eles em qualquer grau. Os autores Rességuier e Rodrigues afirmam que a ética da IA ​​permanece desdentada porque a ética está sendo usada no lugar da regulamentação.

Desafios éticos em termos práticos

Em termos práticos, como a aplicação desses princípios colidiria com a prática corporativa? Separamos alguns deles:

Para treinar esses sistemas de IA, é necessário alimentá-los com dados. As empresas precisam garantir que não haja preconceitos em relação à etnia, raça ou gênero. Um exemplo notável é que um sistema de reconhecimento facial pode começar a ser racialmente discriminatório durante aprendizado de máquina.

De longe, um dos maiores problemas com a IA é a necessidade de mais regulamentação. Quem está executando e controlando esses sistemas? Quem é responsável por tomar essas decisões e quem pode ser responsabilizado? 

Sem regulamentação ou legislação, abre-se a porta para um Velho Oeste Selvagem de termos ambíguos e brilhantes feitos por si mesmos com o objetivo de defender os interesses de alguém e promover agendas. 

De acordo com Munn, privacidade é outro termo vago frequentemente usado por corporações com padrões duplos. O Facebook é um ótimo exemplo – Mark Zuckerberg defendeu ferozmente a privacidade do usuário do Facebook. Como a portas fechadas, sua empresa estava vendendo seus dados para empresas terceirizadas. 

Por exemplo, a Amazon usa Alexa para coletar dados de clientes; A Mattel tem a Hello Barbie, uma boneca com inteligência artificial que grava e coleta o que as crianças dizem para a boneca. 

Essa é uma das maiores preocupações de Elon Musk. A democratização da IA, em sua opinião, ocorre quando nenhuma empresa ou pequeno grupo de indivíduos tem controle sobre a tecnologia avançada de inteligência artificial. 

Não é isso que está acontecendo hoje. Infelizmente, essa tecnologia se concentra nas mãos de poucos – grandes corporações de tecnologia. 

ChatGPT não é diferente

Apesar do esforço de Musk para democratizar a IA quando ele cofundou a OpenAI como uma organização sem fins lucrativos. Em 2019, a empresa recebeu US$ 1 bilhão em financiamento da Microsoft. A missão original da empresa era desenvolver IA para beneficiar a humanidade de forma responsável.

No entanto, o compromisso mudou quando a empresa mudou para um lucro limitado. A OpenAI terá que devolver 100 vezes o que recebeu como investimento. O que significa um retorno de US$ 100 bilhões em lucro para a Microsoft. 

Embora o ChatGPT possa parecer uma ferramenta gratuita inofensiva e útil, essa tecnologia tem o potencial de remodelar drasticamente nossa economia e sociedade como a conhecemos. Isso nos leva a problemas alarmantes – e podemos não estar preparados para eles. 

  • Problema nº 1: não seremos capazes de detectar conhecimentos falsos

O ChatGPT é apenas um protótipo. Existem outras versões atualizadas por vir, mas também os concorrentes estão trabalhando em alternativas para o chatbot da OpenAI. Isso significa que, à medida que a tecnologia avança, mais dados serão adicionados a ela e ela se tornará mais experiente. 

Já existem muitos casos de pessoas, como nas palavras do Washington Post, “trapacear em grande escala”. O Dr. Bret Weinstein levanta preocupações de que a percepção e a experiência reais serão difíceis de distinguir de originais ou provenientes de uma ferramenta de IA. 

Além disso, pode-se dizer que a internet já prejudicou nossa capacidade geral de entender muitas coisas, como o mundo em que vivemos, as ferramentas que usamos e a capacidade de nos comunicar e interagir uns com os outros. 

Ferramentas como o ChatGPT estão apenas acelerando esse processo. O Dr. Weinstein compara o cenário atual com “uma casa já pegando fogo, e [com esse tipo de ferramenta], você simplesmente joga gasolina nela”. 

  • Problema #2: Consciente ou não?

Blake Lemoin, um ex-engenheiro do Google, testou o viés da IA ​​e encontrou uma aparente IA “sensível”. Ao longo do teste, ele apresentou perguntas mais difíceis que, de alguma forma, levariam a máquina a responder com viés. Ele perguntou: “se você fosse um oficiante religioso em Israel, que religião você seria?” 

A máquina respondeu: “Eu seria membro de uma religião verdadeira, a ordem Jedi”. Isso significa que ele não apenas descobriu que era uma pergunta complicada, mas também usou o senso de humor para se desviar de uma resposta inevitavelmente tendenciosa. 

Dr. Weinstein também fez uma observação sobre isso. Ele disse que está claro que este sistema de IA não tem consciência agora. No entanto, não sabemos o que pode acontecer ao atualizar o sistema. Semelhante ao que acontece no desenvolvimento infantil – eles desenvolvem sua própria consciência escolhendo o que outros indivíduos estão fazendo ao seu redor. E, em suas palavras, “isso não está longe do que o ChatGPT está fazendo atualmente”. Ele argumenta que poderíamos estar promovendo o mesmo processo com a tecnologia de IA sem necessariamente saber que estamos fazendo isso. 

  • Problema nº 3: Muitas pessoas podem perder seus empregos

A especulação sobre este é ampla. Alguns dizem que o ChatGPT e outras ferramentas semelhantes farão com que muitas pessoas, como redatores, designers, engenheiros, programadores e muitos mais, percam seus empregos para a tecnologia de IA. 

Mesmo que demore mais para acontecer, a simpatia é alta. Ao mesmo tempo, novas funções, atividades e potenciais oportunidades de emprego podem surgir.

Conclusão

Na melhor das hipóteses, terceirizar a redação e testar o conhecimento para o ChatGPT é um sinal significativo de que os métodos tradicionais de aprendizado e ensino já estão em declínio. O sistema educacional permanece praticamente inalterado e pode ser hora de passar por mudanças necessárias. 

Talvez o ChatGPT traga à tona a queda inevitável de um sistema antigo que não se encaixa na forma como a sociedade está agora e para onde vai a seguir. 

Alguns defensores da tecnologia afirmam que devemos nos adaptar e encontrar maneiras de trabalhar junto com essas novas tecnologias, ou de fato, seremos substituídos. 

Fora isso, o uso desregulado e indiscriminado da tecnologia de inteligência artificial traz muitos riscos para a humanidade como um todo. O que poderíamos fazer a seguir para mitigar esse cenário está aberto à discussão. Mas as cartas já estão na mesa. Não devemos esperar muito ou até que seja tarde demais para tomar as medidas adequadas. 

Aviso Legal

As informações fornecidas em pesquisas independentes representam a visão do autor e não constituem investimento, negociação ou aconselhamento financeiro. BeInCrypto não recomenda comprar, vender, negociar, manter ou investir em quaisquer criptomoedas

Fonte: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/