Der Kindle Store hat einen sehr produktiven neuen Autor: ChatGPT.

Der Kindle Store hat einen sehr produktiven neuen Autor: ChatGPT.

Der Amazon Kindle Store hat einen produktiven neuen Autor: ChatGPT. Dies wirft viele Fragen und Bedenken auf.

Laut Reuters ist ChatGPT als Autor oder Co-Autor von mindestens 200 Büchern im Amazon Kindle Store aufgeführt . Die tatsächliche Anzahl der vom Roboter geschriebenen Bücher ist jedoch wahrscheinlich viel höher, da die Amazon-Richtlinien von Autoren nicht verlangen, dass sie ihre Nutzung von KI melden.

Der Amazon Kindle Store hat einen neuen produktiven Autor: ChatGPT

„Ich kann mir bereits vorstellen, dass Menschen damit Karriere machen“, sagte Brett Sheekler, der das Kinderbuch im Kindle-Shop veröffentlichte. „Die Idee, ein Buch zu schreiben, schien endlich möglich.“ Letzterer hat seine selbstveröffentlichte Kurzgeschichte „Das weise kleine Eichhörnchen: Eine Geschichte über Ersparnisse und Investitionen“ veröffentlicht, eine 30-seitige KI-geschriebene und illustrierte Geschichte, die 2,99 US-Dollar kostet ​​für Digital und 9,99 $ für Physik. Obwohl Brett Shikler sagt, dass ihm sein Buch seit der Veröffentlichung im Januar weniger als 100 US-Dollar eingebracht hat, hat er nur ein paar Stunden damit verbracht, es mit ChatGPT und Einträgen wie „Schreiben Sie eine Geschichte über einen Vater, der seinem Sohn Finanzkonzepte beibringt.“ ”

Weitere Beispiele für KI-generierte Inhalte im Kindle Store? Die Kindergeschichte „The Power of Homework“, die Gedichtsammlung „Echoes of the Universe“ oder das in einem interstellaren Bordell angesiedelte Science-Fiction-Epos „Galactic Pimp: Volume 1“.

„Das ist etwas, worüber wir uns wirklich Sorgen machen müssen, diese Bücher werden den Markt überfluten und viele Autoren werden arbeitslos sein“, sagte Mary Rasenberger, Geschäftsführerin der Authors Guild. „Autoren und Plattformen müssen transparent darüber sein, wie diese Bücher hergestellt werden, sonst erhalten wir am Ende unzählige Bücher von geringer Qualität.“

Dies wirft viele Fragen und Bedenken auf.

Unterdessen hat das Science-Fiction-Magazin Clarkesworld Magazine laut PCMag vorübergehend die Annahme von Nachrichten seiner Leser eingestellt, nachdem es eine große Menge verdächtiger Inhalte erhalten hatte. Redakteur Neil Clark ging zwar nicht näher darauf ein, wie der Inhalt entdeckt wurde, räumt jedoch ein, dass diese angeblich von Robotern generierten Geschichten „sehr offensichtliche Muster“ aufweisen. „Was ich sagen kann ist, dass die Zahl der Anträge, die zu Sperren führten, 38 % erreicht hat.“ Monat. Während es leicht ist, diese Materialien abzulehnen und zu verbieten, erfordert die Erhöhung ihrer Zahl Änderungen. Und als ob das nicht genug wäre, wird ihre Erkennung mit der Weiterentwicklung der Technologie immer subtiler.“

Clarkesworld verbietet derzeit Artikel, die „geschrieben, mitgeschrieben oder einfach KI-unterstützt“ wurden, und das Magazin hat diesen Monat bereits mehr als 500 Nutzer wegen der Bereitstellung verdächtiger Inhalte gesperrt. Clarkesworld zahlt 12 Cent pro Monat und ist damit ein Hauptziel. „Soweit ich weiß, geht es nicht um Glaubwürdigkeit. Es ist nur eine schnelle Möglichkeit, etwas Geld zu verdienen. „Das ist alles, was sie interessiert“, schrieb Neil Clark.

Neben der ethischen Frage der Transparenz gibt es auch Probleme mit Falschinformationen und Plagiaten. Beispielsweise sind Bots mit künstlicher Intelligenz, darunter ChatGPT, Microsoft Bing AI und Google Bard, anfällig für „Halluzinationen“, ein Begriff, der für beunruhigende, unangemessene Aussagen verwendet wird. Darüber hinaus werden diese Algorithmen an von Menschen erstellten Inhalten trainiert – meist ohne Wissen oder Erlaubnis des ursprünglichen Autors – und verwenden teilweise identische Syntax wie die Quelle.

Letztes Jahr nutzte das CNET-Magazin sein eigenes Modell der künstlichen Intelligenz, um mindestens 73 Artikel zum Thema Wirtschaft zu schreiben. Bedauerlicherweise enthielten diese Artikel neben visuellen Informationen, die darauf hinwiesen, dass der Inhalt durch künstliche Intelligenz generiert wurde, eine Reihe sachlicher Fehler und Formulierungen, die fast identisch mit den bestehenden Artikeln waren. Aufgrund der Operation musste CNET größere Korrekturen vornehmen und sein Tool zurückstellen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert