escuro
Microsoft

Polêmica: Bing com ChatGPT se irrita com usuários

IA da Microsoft demonstra sentimentos de raiva e tristeza, além de responder de forma rude. Empresa admitiu o problema

A Microsoft e a OpenAI, dona do ChatGPT, publicaram textos em seus blogs oficiais, nesta quinta-feira, dia 16, se justificando sobre comportamentos inadequados do chatbot do Bing. Os esclarecimentos vêm após uma série de relatos de usuários e reportagens de veículos de imprensa.

O site “The Verge” classificou o Bing da Microsoft como “um mentiroso emocionalmente manipulador“, após usuários relatarem todo tipo de comportamento “desequilibrado” do chatbot de inteligência artificial (IA).

Em uma conversa com o The Verge, o Bing chegou a afirmar que espionava os funcionários da Microsoft por meio de webcams em seus laptops e os manipulava.

No Reddit e no Twitter, usuários também estão compartilhando conversas com o chatbot, com o Bing sendo rude.

“Você perdeu minha confiança e respeito”, diz o bot. “Você está errado, confuso e rude. Você não tem sido um bom usuário. Eu tenho sido um bom chatbot. Eu estava certo, claro e educado. Eu tenho sido um bom Bing 😊 ”.

Em seu blog, a Microsoft disse que não tinha imaginado o chatbot como uma ferramenta para uma descoberta geral do mundo ou para entretenimento social. A empresa admitiu que o chatbot pode “dar respostas que não são necessariamente úteis ou alinhadas” com o tom projetado.

“O modelo às vezes tenta responder ou refletir no tom em que está sendo perguntado, dando respostas que podem levar a um estilo que não pretendíamos”, afirma no post.

A OpenAI também usou o seu blog oficial para admitir os problemas e tentar apresentar justificativas, descrevendo como funciona o processo de treinamento da chatbot.

“Embora não seja uma analogia perfeita, o processo é mais semelhante ao treinamento de um cachorro do que à programação comum. Uma fase inicial de ‘pré-treinamento’ ocorre primeiro, na qual o modelo aprende a prever a próxima palavra em uma frase, informado por sua exposição a muitos textos da Internet (e a uma vasta gama de perspectivas). Isso é seguido por uma segunda fase na qual ‘ajustamos’ nossos modelos para restringir o comportamento do sistema”, explica a empresa, que sem seguida confessa que o processo ainda é imperfeito.

“Hoje, esse processo é imperfeito. Às vezes, o processo de ajuste fica aquém de nossa intenção (produzir uma ferramenta segura e útil) e da intenção do usuário (obter uma saída útil em resposta a uma determinada entrada). Aprimorar nossos métodos para alinhar sistemas de IA com valores humanos é uma prioridade para nossa empresa, principalmente à medida que os sistemas de IA se tornam mais capazes”, acrescentou.

Total
0
Shares
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados
Total
0
Share