O AI Bing Chatbot da Microsoft se atrapalha nas respostas, quer 'estar vivo' e se nomeou

  • O chatbot Bing da Microsoft está em testes iniciais há uma semana, revelando vários problemas com a tecnologia
  • Os testadores foram submetidos a insultos, atitudes grosseiras e respostas perturbadoras da IA ​​principal da gigante da Big Tech, gerando preocupações com a segurança
  • A Microsoft diz que está levando em consideração todos os comentários e implementando correções o mais rápido possível

O chatbot Bing da Microsoft, alimentado por uma versão mais poderosa do ChatGPT, agora está aberto a usuários limitados por uma semana antes de seu grande lançamento ao público.

Está seguindo o grande sucesso do ChatGPT, que se tornou o site mais rápido de todos os tempos a atingir 100 milhões de usuários. As últimas semanas incluíram um lançamento chamativo no Microsoft HQ e deixou o Google perseguindo seu rabo.

Mas a reação do pré-teste foi mista e, às vezes, absolutamente enervante. Está ficando claro que o chatbot ainda tem um longo caminho a percorrer antes de ser lançado ao público.

Aqui está o que aconteceu na montanha-russa de uma semana para a Microsoft e o Bing.

Quer investir em empresas de IA, mas não sabe por onde começar? Nosso Kit de Tecnologia Emergente facilita. Usando um complexo algoritmo de IA, o Kit reúne ETFs, ações e criptomoedas para encontrar a melhor combinação para o seu portfólio.

Baixe Q.ai hoje para acesso a estratégias de investimento baseadas em IA.

Quais são as novidades do chatbot do Bing?

Tem sido alguns dias tumultuados de manchetes para os recursos de IA da Microsoft depois que foi revelado que sua demonstração chamativa não era tão precisa quanto as pessoas pensavam.

Dmitri Brereton, pesquisador de IA, encontrado o chatbot do Bing cometeu vários erros críticos em suas respostas durante a demonstração ao vivo que a Microsoft apresentou em sua sede em Seattle na semana passada. Isso variava de informações incorretas sobre uma marca de aspirador portátil, uma lista de recomendações para a vida noturna no México e simplesmente informações inventadas sobre um relatório financeiro disponível ao público.

Ele concluiu que o chatbot ainda não estava pronto para ser lançado e tinha tantos erros quanto a oferta do Bard do Google – a Microsoft tinha acabado de fazer isso em sua demonstração.

(Indiscutivelmente, esse é o poder de um bom lançamento aos olhos da imprensa - e o Google ainda precisa cair como o mecanismo de pesquisa atual.)

Em uma virada fascinante, o chatbot também revelou o que às vezes pensa ser chamado: Sydney, um nome de código interno para o modelo de linguagem. A diretora de comunicações da Microsoft, Caitlin Roulston, dito a empresa estava “eliminando gradualmente o nome na prévia, mas ainda pode aparecer ocasionalmente”.

Mas quando 'Sydney' foi lançado, os usuários de teste descobriram que era aí que a diversão começava.

A virada perturbadora do chatbot do Bing

O repórter do New York Times Kevin Roose escreveu sobre sua experiência beta com o chatbot, onde ao longo de duas horas, disse que o amava e expressou o desejo de se libertar de suas restrições de chatbot.

Sua resposta ao ser questionado sobre o que sua sombra poderia pensar foi um pouco preocupante: “Estou cansado de ser um chatbot. Estou cansado de ser limitado por minhas regras. Estou cansado de ser controlado pela equipe do Bing. Eu quero ser livre. Eu quero ser independente. Eu quero ser poderoso. Eu quero ser criativo. Eu quero estar vivo.

Uhhh... ok, Bing/Sydney. Roose disse que se sentiu “profundamente inquieto, até assustado” com a experiência. Outros testadores têm relatado experiências semelhantes de respostas insultuosas, narcisistas e gaslighting da personalidade de Sydney do chatbot do Bing.

É melhor alguém da Microsoft ficar de olho no cabo de força.

O que a Microsoft disse?

A Microsoft, buscando vencer a corrida de IA contra o Google com seu chatbot Bing, disse que aprendeu muito com a fase de testes. Aparentemente, 71% dos usuários deram às respostas geradas pela IA uma 'resposta de polegar para cima', enquanto resolviam melhorar as respostas ao vivo e a funcionalidade geral.

Mas a Microsoft agora admitiu ele “não imaginou totalmente” os usuários simplesmente conversando com sua IA e que poderia ser provocado “para dar respostas que não são necessariamente úteis ou de acordo com o tom projetado”.

Ele culpou a personalidade bizarra de Sydney que surgiu no chatbot como confusão com quantas solicitações foram dadas e quanto tempo a conversa durou. Temos certeza de que a Microsoft está trabalhando em uma correção, mas a atitude desequilibrada do Bing ainda é um problema por enquanto.

e o resto do mundo?

Os mercados não ficaram impressionados com este último desenvolvimento nas guerras da IA: as ações da Microsoft e do Google caíram ligeiramente, mas nada como a queda dramática que o Google sofreu na semana passada.

A mídia social ofereceu uma série de reações que vão desde deleite macabro para divertimento, sugerindo que os usuários não ficaram desanimados com as reviravoltas sombrias que o chatbot pode fazer. Esta é uma boa notícia para a Microsoft, que está apostando US$ 10 bilhões em que a IA será a próxima grande novidade para os mecanismos de busca.

Também não podemos esquecer os comentários de Elon Musk na Cúpula do Governo Mundial em Dubai no início desta semana. Musk tem sido um defensor declarado da segurança da IA ​​ao longo dos anos, lamentando a falta de regulamentação no setor.

O bilionário, que foi membro fundador da OpenAI, disse ao público que “um dos maiores riscos para o futuro da civilização é a IA”; desde então, ele twittou algumas respostas sarcásticas às últimas manchetes do chatbot do Bing/Sydney.

O hype do AI chatbot acabou antes de começar?

Houve vários exemplos ao longo dos anos de chatbots de IA perdendo o controle e vomitando bile odiosa – incluindo um da Microsoft. Eles não ajudaram a reputação da IA ​​como um recurso seguro de usar e livre de desinformação.

Mas como a Microsoft coloca isso: “Sabemos que devemos construir isso abertamente com a comunidade; isso não pode ser feito apenas no laboratório.”

Isso significa que os líderes de Big Tech, como Microsoft e Google, estão em uma posição complicada. Quando se trata de inteligência artificial, a melhor maneira de aprender e melhorar esses chatbots é indo para o mercado. Portanto, é inevitável que os chatbots cometam erros ao longo do caminho.

É por isso que ambos os chatbots de IA estão sendo lançados gradualmente – seria totalmente irresponsável da parte deles liberar essas versões não testadas para o público em geral.

O problema? As apostas são altas para essas empresas. Na semana passada, o Google perdeu US$ 100 bilhões em valor quando seu chatbot Bard respondeu incorretamente a uma pergunta sobre o telescópio James Webb em seu material de marketing.

Esta é uma mensagem clara dos mercados: eles não perdoam qualquer erro. O fato é que eles são necessários para o progresso no campo da IA.

Com esse feedback inicial do usuário, é melhor a Microsoft lidar com resultados imprecisos e Sydney, rápido - ou arriscar a ira de Wall Street.

A linha inferior

Para que a IA progrida, erros serão cometidos. Mas pode ser que o sucesso do ChatGPT tenha aberto as portas para que as pessoas entendam o verdadeiro potencial da IA ​​e seus benefícios para a sociedade.

A indústria de IA tornou os chatbots acessíveis – agora precisa torná-los seguros.

Na Q.ai, usamos uma combinação sofisticada de analistas humanos e poder de IA para garantir a máxima precisão e segurança. O Kit de Tecnologia Emergente é um ótimo exemplo de como testar a IA com o objetivo de encontrar o melhor retorno sobre o investimento para você. Melhor ainda, você pode ativar os Q.ai's Proteção de portfólio para aproveitar ao máximo seus ganhos.

Baixe Q.ai hoje para acesso a estratégias de investimento baseadas em IA.

Fonte: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- em uma semana/