Microsoft skaidro sava tērzēšanas robota dīvaino uzvedību pakalpojumā Bing
Microsoft skaidro sevi, lai attaisnotu Bing tērzēšanas robota dažkārt dīvaino uzvedību. Iemesls tam, pēc atbildīgās komandas domām, ir ilgās apmaiņas sesijas ar AI.
Pagājušajā nedēļā Microsoft savā Edge pārlūkprogrammā palaida uz AI balstītu tērzēšanas robotu Bing, kas kopš tā laika ir bijis ziņās. Bet ne vienmēr pareizo iemeslu dēļ . Pirmie iespaidi bija labi, ļoti labi, taču lietotāji sāka pamanīt, ka Bing bots sniedza nepareizu informāciju, lamāja lietotājus par laika tērēšanu un pat izrādīja diezgan “nelīdzsvarotu” uzvedību. Kādā dīvainā sarunā viņš atteicās izdot filmas Avatar 2: Waterway kasetes, uzstājot, ka filma vēl nav iznākusi, jo vēl ir 2022. gads. Starp citu, robots lietotāju pat nosauca par “neinteliģentu un spītīgu”, kad viņš mēģināja pateikt Bingam, ka viņš kļūdās.
Microsoft skaidro sevi, lai attaisnotu Bing tērzēšanas robota dažkārt dīvaino uzvedību
Microsoft šodien publicēja emuāra ziņu, kurā paskaidrots, kas noticis un kā tā risina šādas problēmas. Pirmkārt, Redmondā bāzētais uzņēmums atzina, ka neplāno izmantot Bing AI “vispārējai pasaules atklāšanai un sociālajai izklaidei”.
Šīs “garās tērzēšanas sesijas, kurās ir 15 vai vairāk jautājumu”, var nojaukt sistēmu. “Bing var būt atkārtots vai ātrs/pakustināt, lai sniegtu atbildes, kas ne vienmēr ir noderīgas vai atbilst mūsu vēlamajam tonim,” skaidro uzņēmums. Acīmredzot tas ir tāpēc, ka robots var “aizmirst” jautājumu pēc jautājuma, uz kuru tas sākotnēji mēģināja atbildēt. Lai to labotu, Microsoft var pievienot rīku meklēšanas konteksta atiestatīšanai vai sākt no nulles.
Cits jautājums ir sarežģītāks un interesantāks: “Modele dažkārt mēģina atbildēt vai domāt tādā pašā tonī, kā tika uzdoti jautājumi, kas dažkārt var novest pie nevēlama stila,” raksta Microsoft. Tas prasa daudz mijiedarbības, taču inženieri domā, ka var to novērst, sniedzot lietotājiem lielāku kontroli.
Iemesls tam, pēc atbildīgās komandas domām, ir ilgās apmaiņas sesijas ar AI.
Neskatoties uz šīm bažām, testētāji parasti ir ļoti apmierināti ar Bing AI meklēšanas rezultātiem, norāda Microsoft. Tomēr ir iespējams labāk strādāt ar “augsti ierobežotiem datiem, piemēram, reāllaika sporta rezultātiem”. Amerikāņu gigants arī cenšas uzlabot faktiskās atbildes, piemēram, attiecībā uz finanšu pārskatiem, reizinot datus ar koeficientu četri. . Visbeidzot, uzņēmums arī “pievienos pogu, lai sniegtu jums lielāku kontroli, lai veicinātu atbildes precizitāti vai radošumu atkarībā no jūsu pieprasījuma”.
Bing atbalsta dienests vēlas pateikties lietotājiem par viņu veiktajām pārbaudēm, kas “palīdz padarīt produktu labāku ikvienam”. Tajā pašā laikā inženieri saka, ka ir pārsteigti, ka lietotāji pavada divas stundas, lai mijiedarbotos ar robotu. Bez šaubām, interneta lietotājiem visu dienu būs jātestē katra jauna čatbota iterācija, viss var būt ļoti interesants.
Bing subreddit piedāvā diezgan daudz piemēru, kā jaunā Bing tērzēšana kļūst nekontrolējama.
Atvērt tērzēšanu meklēšanā tagad varētu būt slikta ideja!
Šeit tiek ņemts vērā kā atgādinājums, ka kādreiz liela meklētājprogramma to rādīja savos rezultātos. pic.twitter.com/LiE2HJCV2z
— Vlads (@vladquant) 2023. gada 13. februārī
Atbildēt