OpenAI myöntää, että tekoälyn kirjoitusilmaisimet eivät toimi
Usein kysyttyjen kysymysten osiossa ”Toimivatko AI-ilmaisimet?” OpenAI kirjoittaa : ”Lyhyesti sanottuna ei. Vaikka jotkut (mukaan lukien OpenAI) ovat julkaisseet työkaluja, jotka pyrkivät havaitsemaan tekoälyn tuottamaa sisältöä, mikään niistä ei ole osoittanut luotettavan erottavan tekoälyn luomasta ja ihmisen luomasta sisällöstä.
Heinäkuussa käsittelimme perusteellisesti, miksi tekoälyn kirjoitusilmaisimet, kuten GPTZero, eivät toimi, ja asiantuntijat kutsuivat niitä ”enimmäkseen käärmeöljyksi”. Nämä ilmaisimet antavat usein vääriä positiivisia tuloksia, koska ne luottavat todentamattomiin tunnistusmittareihin. Loppujen lopuksi tekoälyn kirjoittamassa tekstissä ei ole mitään erityistä, joka erottaa sen aina ihmisen kirjoittamasta, ja ilmaisimet voidaan päihittää muotoilemalla uudelleen. Samassa kuussa OpenAI lopetti tekoälyluokituksensa, joka oli kokeellinen työkalu, joka oli suunniteltu tunnistamaan tekoälyn kirjoittamaa tekstiä. Sillä oli järjetön 26 prosentin tarkkuus.
OpenAI:n uusi FAQ käsittelee myös toista suurta väärinkäsitystä, jonka mukaan ChatGPT itse voi tietää, onko teksti tekoälyn kirjoittamaa vai ei. OpenAI kirjoittaa: ”Lisäksi ChatGPT:llä ei ole ”tietoa” siitä, mitä sisältöä tekoäly voisi tuottaa. Joskus se muodostaa vastauksia kysymyksiin, kuten ”kirjoititko tämän [esseen]?” tai ”voiko tämä olla tekoälyn kirjoittamia?” Nämä vastaukset ovat satunnaisia, eikä niillä ole todellisuuspohjaa.”
Samansuuntaisesti OpenAI käsittelee myös tekoälymalliensa taipumusta sekoittaa vääriä tietoja, joita olemme myös käsitelleet yksityiskohtaisesti Arsissa. ”Joskus ChatGPT kuulostaa vakuuttavalta, mutta se voi antaa sinulle virheellistä tai harhaanjohtavaa tietoa (kutsutaan usein ”hallusinaatioksi” kirjallisuudessa), yritys kirjoittaa. ”Se voi jopa muodostaa lainauksia tai lainauksia, joten älä käytä sitä ainoana tutkimuslähteenä.”
(Toukokuussa eräs asianajaja joutui vaikeuksiin tekemästään juuri niin – viitaten kuuteen olemattomaan tapaukseen, jotka hän otti ChatGPT:stä.)
Vaikka automaattiset tekoälyilmaisimet eivät toimi, se ei tarkoita, että ihminen ei voisi koskaan havaita tekoälyn kirjoitusta. Esimerkiksi opettaja, joka tuntee oppilaan tyypillisen kirjoitustyylin, voi kertoa, kun hänen tyylinsä tai kykynsä yhtäkkiä muuttuu. Lisäksi jotkut huolimattomat yritykset pitämään tekoälyn luomaa työtä ihmisen kirjoittamana voivat jättää merkkiä, kuten lauseen ” AI-kielimallina ”, mikä tarkoittaa, että joku kopioi ja liitti ChatGPT-tulosteen olematta varovainen. Ja äskettäin tieteellisessä Nature-lehdessä julkaistu artikkeli osoitti, kuinka ihmiset huomasivat lauseen ”Regenerate response” tieteellisessä artikkelissa, joka on ChatGPT:n painikkeen nimi.
Tekniikan nykytilanteessa on turvallisinta välttää automaattiset tekoälyntunnistustyökalut kokonaan. ”Tällä hetkellä tekoälyn kirjoittaminen on havaitsematonta ja todennäköisesti pysyy sellaisena”, toistuva tekoälyanalyytikko ja Whartonin professori Ethan Mollick kertoi Arsille heinäkuussa. ”Tekoälytunnistimilla on korkea väärien positiivisten prosenttiosuus, eikä niitä siksi pitäisi käyttää.”
Vastaa