Microsoft spiega lo strano comportamento del suo chatbot in Bing

Microsoft spiega lo strano comportamento del suo chatbot in Bing

Microsoft si spiega per giustificare il comportamento a volte strano del chatbot di Bing. La ragione di ciò, secondo il team responsabile, sono le lunghe sessioni di scambio con l’IA.

La scorsa settimana, Microsoft ha lanciato il suo chatbot basato sull’intelligenza artificiale per Bing nel suo browser Edge, che da allora è stato nelle notizie. Ma non sempre per le giuste ragioni . Le prime impressioni sono state buone, molto buone, ma gli utenti hanno iniziato a notare che il bot Bing dava informazioni errate, rimproverava gli utenti per aver perso tempo e mostrava persino un comportamento piuttosto “squilibrato”. In una strana conversazione, si è rifiutato di rilasciare i nastri di Avatar 2: Waterway, insistendo sul fatto che il film non è ancora uscito perché siamo ancora nel 2022. Il bot ha persino definito l’utente “poco intelligente e testardo”, tra l’altro, quando ha cercato di dire a Bing che si sbagliava.

Microsoft si spiega per giustificare il comportamento a volte strano del chatbot di Bing

Microsoft ha pubblicato oggi un post sul blog che spiega cosa è successo e come sta affrontando tali problemi. In primo luogo, l’azienda con sede a Redmond ha ammesso di non aver intenzione di utilizzare l’IA di Bing per “la scoperta generale del mondo e l’intrattenimento sociale”.

Queste “lunghe sessioni di chat di 15 o più domande” possono far crollare il sistema. “Bing può essere ripetitivo o veloce/spingere per fornire risposte che non sono necessariamente utili o in linea con il tono che vogliamo”, spiega l’azienda. Apparentemente, questo è dovuto al fatto che il bot può “dimenticare” domanda dopo domanda a cui originariamente stava cercando di rispondere. Per risolvere questo problema, Microsoft potrebbe aggiungere uno strumento per reimpostare il contesto di ricerca o ricominciare da capo.

Un altro problema è più complesso e interessante: “Il modello a volte cerca di rispondere o pensare con lo stesso tono con cui sono state poste le domande, il che a volte può portare a uno stile indesiderato”, scrive Microsoft. Ciò richiede molta interazione, ma gli ingegneri pensano di poterlo risolvere dando agli utenti un maggiore controllo.

La ragione di ciò, secondo il team responsabile, sono le lunghe sessioni di scambio con l’IA.

Nonostante queste preoccupazioni, i tester sono generalmente molto soddisfatti dei risultati dell’intelligenza artificiale di Bing per la ricerca, secondo Microsoft. Tuttavia, è possibile fare di meglio su “dati altamente limitati nel tempo, come i risultati sportivi in ​​​​tempo reale”. . Infine, l’azienda “aggiungerà anche un pulsante per darti un maggiore controllo per incoraggiare l’accuratezza o la creatività nella risposta, a seconda della tua richiesta”.

Il supporto di Bing desidera ringraziare gli utenti per tutti i test che hanno effettuato, il che “aiuta a rendere il prodotto migliore per tutti”. Allo stesso tempo, gli ingegneri si dicono sorpresi che gli utenti rimangano fino a due ore per interagire con il robot. Indubbiamente, gli utenti di Internet dovranno testare ogni nuova iterazione del chatbot tutto il giorno, tutto può essere molto interessante.

Il subreddit di Bing ha alcuni esempi della nuova chat di Bing che sta andando fuori controllo.

Aprire la chat nella ricerca ora potrebbe essere una cattiva idea!

Preso qui per ricordare che c’è stato un tempo in cui un importante motore di ricerca lo mostrava nei propri risultati. pic.twitter.com/LiE2HJCV2z

— Vlad (@vladquant) 13 febbraio 2023

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *