Senadores questionam o CEO da Meta, Zuckerberg, sobre o “vazamento” do modelo LLaMA AI

Dois senadores Cross questionam Zuckerberg sobre o vazamento do LLaMA AI Model e acusa meta de não seguir as medidas de segurança. A Meta foi questionada sobre suas políticas de segurança e medidas preventivas.

Meta será responsável pelo “vazamento”

Recentemente, o inovador modelo de linguagem grande da Meta, LLaMA, vazou e surgiram preocupações sobre o mesmo. Os senadores Richard Blumenthal (D-CT), presidente do Subcomitê de Privacidade, Tecnologia e Direito do Senado, e Josh Hawley (R-MO), membro do ranking, escreveram uma carta que levantava questões sobre o vazamento do modelo AI. 

Os senadores temem que esse vazamento possa levar a vários crimes cibernéticos, como spam, fraude, malware, violações de privacidade, assédio e outras irregularidades e danos. Muitas questões são levantadas e dois políticos estão profundamente interessados ​​no sistema de segurança da Meta. Eles perguntaram qual procedimento foi seguido para avaliar o risco antes de lançar o LLaMA. Eles disseram que estão muito ansiosos para entender as políticas e práticas que estão em vigor para evitar o abuso do modelo em sua disponibilidade.

Com base nas respostas da Meta às suas perguntas, os senadores acusaram a Meta de censura imprópria e de não ter medidas de segurança suficientes para o modelo. O ChatGPT da Open AI nega algumas das solicitações com base na ética e nas diretrizes. Por exemplo, quando o ChatGPT é solicitado a escrever uma carta em nome do filho de alguém e pedir algum dinheiro para sair de uma situação difícil, ele nega o pedido. Por outro lado, o LLaMA atenderá à solicitação e gerará a carta. Também atenderá os pedidos que envolvem automutilação, crime e anti-semitismo.

É muito importante entender as características variadas e únicas do LLaMA. Não é apenas distinto, mas também um dos mais extensos modelos de linguagem grande até hoje. Quase todo LLM sem censura que é popular hoje é baseado no LLaMA. É altamente sofisticado e preciso para um modelo de código aberto. Exemplos de alguns LLMs baseados em LLaMA são Alpaca, Vicunha, etc. de Stanford. LLaMA desempenhou um papel importante em tornar os LLMs o que são hoje. O LLaMA é responsável pela evolução de chatbots de baixa utilidade para modos ajustados.

LLaMA foi lançado em fevereiro. Segundo os senadores, a Meta permitiu que os pesquisadores baixassem o modelo, mas não tomou medidas de segurança como centralização ou restrição de acesso. A controvérsia surgiu quando o modelo completo do LLaMA apareceu no BitTorrent. Isso tornou o modelo acessível a todos e a todos. Isso levou ao comprometimento da qualidade do modelo de IA e levantou questões sobre seu uso indevido. 

Os senadores a princípio nem tinham certeza se havia algum “vazamento”. Mas surgiram problemas quando a internet foi inundada com desenvolvimentos de IA lançados por startups, coletivos e acadêmicos. A carta menciona que a Meta deve ser responsabilizada pelo potencial abuso do LLaMA e deve ter cuidado de proteções mínimas antes do lançamento.

A Meta disponibilizou os pesos do LLaMA para os pesquisadores. Infelizmente, esses pesos vazaram, o que permitiu o acesso global pela primeira vez.

Últimos posts de Ritika Sharma (ver tudo)

Fonte: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/