Technologieführer und Experten fordern eine sechsmonatige Pause von KI-Experimenten
Technologieführer und Experten fordern eine sechsmonatige Pause von KI-Experimenten. Sie sind besorgt über die (zu) turbulenten Ereignisse in dieser Gegend und die mangelnde Sicherheit in der Umgebung.
Der offene Brief, der von Technologieführern und anderen hochkarätigen KI-Forschern unterzeichnet wurde, fordert KI-Labore und Unternehmen auf, ihre Arbeit „ sofort einzustellen “. Die Unterzeichner, darunter Steve Wozniak und Elon Musk, möchten eine Pause von mindestens sechs Monaten bei der Produktion von GPT-4-basierten Technologien einlegen, um die Vorteile bestehender KI-Systeme zu nutzen und es den Menschen zu ermöglichen, sich anzupassen und sicherzustellen, dass sie allen zugute kommen. Der Brief fügt hinzu, dass Denken und Weitsicht für die Sicherheit von KI-Systemen unerlässlich sind.
Technologieführer und Experten fordern eine sechsmonatige Pause von KI-Experimenten
Der Verweis auf GPT-4, ein OpenAI-Modell, das mit Text auf schriftliche oder visuelle Nachrichten reagieren kann, kommt daher, dass Unternehmen bereits versuchen, mithilfe dieser Technologie ausgefeilte Chat-Systeme zu entwickeln. Microsoft hat beispielsweise kürzlich bestätigt, dass es seine Bing-Suchmaschine neu gestaltet hat, um die Vorteile des GPT-4-Modells zu nutzen. Google wiederum hat kürzlich Bard auf den Markt gebracht, sein eigenes generatives künstliches Intelligenzsystem auf Basis von LaMDA. Dieses Problem gibt es schon seit langem, aber die aktuelle Lage der Race-Tech-Unternehmen scheint noch besorgniserregender zu sein.
„Leider gibt es dieses Maß an Planung und Management nicht. KI-Labore arbeiten hart daran, virtuelle Gehirne zu entwickeln und einzusetzen, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder in irgendeiner Weise kontrollieren kann.“ „Sicher“, können wir im Special lesen.
Sie sind besorgt über die (zu) schnelle Entwicklung in der Region und die Unsicherheit in der Umgebung
Dieser Brief wurde vom Future of Life Institute (FLI) veröffentlicht, einer Organisation, die sich für die Reduzierung der Risiken und des Missbrauchs neuer Technologien einsetzt. Zuvor hatte Elon Musk 10 Millionen US-Dollar an das FLI gespendet, um die Sicherheit von KI zu untersuchen. Neben Steve Wozniak und letzterem gibt es große Namen auf dem Gebiet der KI wie Mark Rothenberg, Präsident des Center for AI and Digital Policy, Max Tegmark, MIT-Physiker und FLI-Präsident, und den Schriftsteller Yuval Noah Harari. Letzterer schrieb letzte Woche auch einen Leitartikel der New York Times über die von KI ausgehenden Risiken mit den Gründern des Center for Humane Technology und anderen Unterzeichnern Tristan Harris und Aza Raskin.
Dieser Aufruf scheint eine logische Fortsetzung einer Umfrage aus dem Jahr 2022 unter mehr als 700 Forschern im Bereich maschinelles Lernen zu sein, bei der festgestellt wurde, dass fast die Hälfte der Teilnehmer sagte, dass die Wahrscheinlichkeit, dass die Folgen der KI „extrem schlimm“ sein würden, bis zum Aussterben der Menschheit bei 10 Prozent liegt. Auf die Frage nach der Sicherheit der KI-Forschung antworteten 68 % der Forscher, dass noch mehr oder viel mehr getan werden müsse.
Schreibe einen Kommentar