Datenintelligenz von Platon.
Vertikale Suche & KI.

Die Abwertung von durch KI erstellten Inhalten ist faul und ignoriert die Geschichte

Datum:

Kolonne Es hat weniger als achtzehn Monate gedauert, bis sich von Menschen und KI erzeugte Medien auf unmögliche Weise vermischt haben. Manche halten dies für völlig unverantwortlich und weigern sich, irgendetwas mit Medien zu tun zu haben, die irgendeinen generativen Inhalt enthalten. Diese ideologische Haltung verrät eine falsche Hoffnung: dass dies ein vorübergehender Trend ist, eine Besessenheit von der neuesten Entwicklung, die vorübergehen wird.

Das ist es nicht, und das wird es auch nicht. Was passen muss, ist die Art und Weise, wie wir mit KI-generierten Inhalten umgehen.

Um zu verstehen, warum, wissen Sie, dass mein Verleger kürzlich von der Londoner Buchmesse mit einem großartigen Vorschlag zurückgekehrt ist: die Aufnahme einer Hörbuchversion meiner neuesten Version gedrucktes Werk. Wir hatten einen Videoanruf, um alle Einzelheiten zu besprechen. Möchte ich es selbst aufnehmen? Ja, sehr. Wann könnte ich anfangen? Fast sofort. Und ich hatte eine tolle Idee: Ich werde die sehr coole KI-Sprachsynthesesoftware von verwenden Elf Labore um einzigartige Stimmen für die Big Three Chatbots zu synthetisieren – ChatGPT, Copilot und Gemini.

Der Anruf verstummte. Mein Verleger wirkte verlegen. „Schau, Mark, das können wir nicht machen.“

"Warum nicht? Es wird großartig klingen!“

"Es ist nicht das. Audible lässt uns nichts hochladen, was KI-generiert ist.“

Eine Anti-KI-Richtlinie macht Sinn, wenn die Wahrscheinlichkeit groß ist, dass sie von Zehntausenden von Texten mit KI-Stimmen überschwemmt wird – das ist mit ziemlicher Sicherheit die Befürchtung von Audible. (Es gibt auch das Problem, Synchronsprecher arbeitslos zu machen – obwohl es Arbeitgeber gibt eher weniger besorgt über Arbeitsplatzverluste.)

Mein Verlag wird sich an die Regeln von Audible halten. Da es jedoch immer schwieriger wird, zwischen menschlichen und synthetischen Stimmen zu unterscheiden, verfolgen andere Hörbuchautoren möglicherweise einen unbekümmerteren Ansatz.

Wenn man bedenkt, wie schnell sich der Bereich der generativen KI verbessert – Hume.AI's „einfühlsame“ Stimme ist der jüngste bemerkenswerte Fortschritt – diese Politik scheint eher eine Notlösung als eine nachhaltige Lösung zu sein.

Es scheint, als ob generative KI und die Werkzeuge, die sie ermöglicht, praktisch über Nacht aufgetaucht sind. Tatsächlich begann alles mit der Generierung eines Stroms von Empfehlungen – schon in den Tagen von Firefly. Texte, Bilder und Stimmen sind vielleicht das, was wir als generative KI bezeichnen, aber in Wirklichkeit sind sie einfach die neuesten und lautesten Ergebnisse aus fast drei Jahrzehnten Entwicklung.

Obwohl es befriedigend ist, die Grenze zwischen „echt“ und „falsch“ zu ziehen, verrät eine Naivität, die an vorsätzliche Ignoranz darüber grenzt, wie unsere Welt funktioniert. An alldem sind menschliche Hände beteiligt – sowohl als Marionette als auch als Puppenspieler – und arbeiten mit algorithmischen Systemen zusammen, die von Anfang an das erzeugen, was wir sehen und hören. Wir können bei all dem den Menschen nicht sauber von der Maschine trennen – und könnten es auch nie.

Wenn wir uns nicht von den Produkten unserer Tools trennen können, können wir zumindest transparent über diese Tools und deren Verwendung sein. Die australische Zeitung „Nine News“ versuchte kürzlich, die generativen „Infill“- und „Outfill“-Funktionen von Photoshop für das Sex-Up eines retuschierten Fotos eines Politikers verantwortlich zu machen, nur um Adobe schnell darauf aufmerksam zu machen Photoshop würde das nicht tun ohne Anleitung eines menschlichen Bedieners.

Die Öffentlichkeit wurde zu keinem Zeitpunkt darüber informiert, dass das von Nine ausgestrahlte Bild mit KI verbessert wurde, was auf den Kern des Problems hinweist. Ohne Transparenz verlieren wir die Entscheidungsfreiheit darüber, ob wir einem Bild – oder einem Sender – vertrauen können oder nicht.

Mein Kollege Sally Dominguez plädiert kürzlich für eine „Trust Triage“ – eine Skala, die für alle Medien zwischen „100 Prozent KI-generierten“ und „vollständig handwerklich erstellten menschlichen Inhalten“ schwankt. Theoretisch würde es den Urhebern die Möglichkeit bieten, sowohl über den Medienprozess als auch über das Produkt völlig transparent zu sein, und den Medienkonsumenten gleichzeitig die Möglichkeit geben, vernünftig und im Verständnis verankert zu sein.

Das hätten wir fordern sollen, als unsere Social-Media-Feeds algorithmisch wurden. Stattdessen bekamen wir Geheimhaltung und Überwachung, dunkle Muster und Sucht. Der Algorithmus war stets unsichtbar und allgegenwärtig und konnte frei agieren.

In diesem kurzen und verschwindenden Moment – ​​während wir noch den Unterschied zwischen menschlichen und KI-generierten Inhalten erkennen können – müssen wir damit beginnen, alle von uns erstellten Medien zu kennzeichnen und alle Medien misstrauisch zu befragen, die sich weigern, uns ihre Einzelheiten preiszugeben. Wenn wir diese Gelegenheit verpassen, die Praxis der Transparenz zu verankern, könnten wir völlig verloren sein. ®

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?