New York Times kieltää tekoälytoimittajia kaappaamasta sen sisältöä ilman lupaa

New York Times kieltää tekoälytoimittajia kaappaamasta sen sisältöä ilman lupaa

Elokuun alussa The New York Times päivitti käyttöehtojaan (TOS) kieltääkseen artikkeleiden ja kuvien kaapimisen tekoälykoulutukseen, raportoi Adweek. Siirto tapahtuu aikana, jolloin teknologiayritykset ovat jatkaneet AI-kielisten sovellusten, kuten ChatGPT:n ja Google Bardin , kaupallistamista, jotka saavuttivat kykynsä massiivisten luvattomien Internet-tietojen raappausten kautta.

Uudet ehdot kieltävät Timesin sisällön – joka sisältää artikkeleita, videoita, kuvia ja metatietoja – käytön minkä tahansa tekoälymallin harjoittamiseen ilman nimenomaista kirjallista lupaa. Käyttöehtojen kohdassa 2.1 NYT sanoo, että sen sisältö on tarkoitettu lukijan ”henkilökohtaiseen, ei-kaupalliseen käyttöön” ja että ei-kaupallinen käyttö ei sisällä ”minkään ohjelmiston kehittämistä, mukaan lukien, mutta ei rajoittuen, koulutus koneoppimis- tai tekoälyjärjestelmä.”

Alempana, kohdassa 4.1, ehdot sanovat, että ilman NYT:n etukäteen antamaa kirjallista lupaa kukaan ei saa ”käyttää Sisältöä minkään ohjelmiston kehittämiseen, mukaan lukien, mutta ei rajoittuen, koneoppimis- tai tekoälyjärjestelmän koulutukseen. .”

NYT myös hahmottelee rajoitusten huomiotta jättämisen seurauksia: ”Palveluiden kiellettyyn käyttöön osallistuminen voi johtaa siviili-, rikosoikeudellisiin ja/tai hallinnollisiin seuraamuksiin, sakkoihin tai sanktioihin käyttäjää ja käyttäjää avustavia henkilöitä vastaan.”

Niin uhkaavalta kuin se kuulostaakin, rajoittavat käyttöehdot eivät ole aiemmin pysäyttäneet Internetin tukkumyyntiä koneoppimistietosarjoihin. Kaikki nykyään saatavilla olevat suuret kielimallit – mukaan lukien OpenAI:n GPT-4 , Anthropicin Claude 2 , Meta’s Llama 2 ja Googlen PaLM 2 – on koulutettu Internetistä kaavittujen suurien materiaalien tietoihin. Käyttämällä prosessia, jota kutsutaan valvomattomaksi oppimiseksi , verkkotiedot syötettiin hermoverkkoihin, jolloin tekoälymallit saivat käsitteellisen kielenkäsityksen analysoimalla sanojen välisiä suhteita.

Kiistanalainen luonne kopioitujen tietojen käyttämisestä tekoälymallien kouluttamiseen, jota ei ole täysin ratkaistu Yhdysvaltain tuomioistuimissa, on johtanut ainakin yhteen kanteeseen , jossa OpenAI:ta syytetään käytännön aiheuttamasta plagioinnista. Viime viikolla Associated Press ja useat muut uutisorganisaatiot julkaisivat avoimen kirjeen , jossa todettiin, että ”on kehitettävä oikeudellinen kehys tekoälysovelluksia käyttävän sisällön suojaamiseksi” muiden huolenaiheiden ohella.

OpenAI ennakoi todennäköisesti jatkuvia oikeudellisia haasteita edessään ja on alkanut tehdä toimenpiteitä, joiden tarkoituksena on ehkäistä osan tästä kritiikistä. Esimerkiksi OpenAI esitti äskettäin menetelmän , jolla verkkosivustot voisivat estää sen tekoälyä harjoittavan verkkoindeksointirobotin robots.txt-tiedoston avulla. Tämä johti siihen, että useat sivustot ja kirjoittajat ilmoittivat julkisesti estävänsä indeksointirobotin.

Toistaiseksi se, mikä on jo kaavittu, leivotaan GPT-4: ksi, mukaan lukien New York Timesin sisältö. Saatamme joutua odottamaan GPT-5:een asti nähdäksemme, kunnioittavatko OpenAI tai muut tekoälytoimittajat sisällön omistajien toiveita jäädä ulkopuolelle. Jos ei, uusia tekoälyoikeudenkäyntejä tai määräyksiä saattaa olla näköpiirissä.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *