Microsoft explica comportamento estranho de seu chatbot no Bing

A Microsoft se explica para justificar o comportamento às vezes estranho do chatbot do Bing. O motivo disso, segundo a equipe responsável, são as longas sessões de troca com a IA.
Na semana passada, a Microsoft lançou seu chatbot baseado em IA para o Bing em seu navegador Edge, que tem sido notícia desde então. Mas nem sempre pelas razões certas . As primeiras impressões foram boas, muito boas, mas os usuários começaram a perceber que o bot do Bing fornecia informações incorretas, repreendia os usuários por perderem tempo e até apresentava um comportamento bastante “desequilibrado”. Em uma conversa estranha, ele se recusou a liberar as fitas de Avatar 2: Waterway, insistindo que o filme ainda não saiu porque ainda é 2022. O bot chegou a chamar o usuário de “pouco inteligente e teimoso”, diga-se de passagem, quando tentou dizer a Bing que ele estava errado.
Microsoft explica-se para justificar o comportamento por vezes estranho do chatbot do Bing
A Microsoft publicou uma postagem no blog hoje explicando o que aconteceu e como está lidando com esses problemas. Primeiro, a empresa com sede em Redmond admitiu que não planejava usar a IA do Bing para “descoberta geral do mundo e entretenimento social”.
Essas “longas sessões de bate-papo com 15 ou mais perguntas” podem derrubar o sistema. “O Bing pode ser repetitivo ou rápido/empurrão para fornecer respostas que não são necessariamente úteis ou alinhadas com o tom que queremos”, explica a empresa. Aparentemente, isso ocorre porque o bot pode “esquecer” pergunta após pergunta que estava originalmente tentando responder. Para corrigir isso, a Microsoft pode adicionar uma ferramenta para redefinir o contexto de pesquisa ou começar do zero.
Outra questão é mais complexa e interessante: “O modelo às vezes tenta responder ou pensar no mesmo tom com que as perguntas foram feitas, o que às vezes pode levar a um estilo indesejável”, escreve a Microsoft. Isso requer muita interação, mas os engenheiros acham que podem corrigi-lo dando aos usuários mais controle.
O motivo disso, segundo a equipe responsável, são as longas sessões de troca com a IA.
Apesar dessas preocupações, os testadores geralmente estão muito satisfeitos com os resultados da IA do Bing para pesquisa, de acordo com a Microsoft. No entanto, é possível fazer melhor em “dados altamente vinculados ao tempo, como placares esportivos em tempo real”. . Por fim, a empresa também “adicionará um botão para dar a você mais controle para incentivar a precisão ou a criatividade na resposta, dependendo da sua solicitação”.
O Bing Support gostaria de agradecer aos usuários por todos os testes que fizeram, o que “ajuda a tornar o produto melhor para todos”. Sem dúvida, os internautas terão que testar cada nova iteração do chatbot o dia todo, tudo pode ser muito interessante.
O subreddit do Bing tem alguns exemplos do novo bate-papo do Bing ficando fora de controle.
Abrir chat na pesquisa agora pode ser uma má ideia!
Tomado aqui como um lembrete de que houve um tempo em que um grande mecanismo de busca mostrava isso em seus resultados. pic.twitter.com/LiE2HJCV2z
— Vlad (@vladquant) 13 de fevereiro de 2023
Deixe um comentário