Digitale Gouvernante: KI-Kastration in Sachen Sex, Drugs & Rock’n’Roll
Themen: Künstliche Intelligenz |Ich nutze das ausklingende Jahr, um ein paar größere Beiträge vorzubereiten. Weil es dabei um Retro-Themen geht, möchte ich die auch retro bebildern. Das geht nur so mittel und ich erzähle euch jetzt, warum das so ist.
Da ich seit 25 Jahren alles in die Cloud kopiere, was ich für bewahrenswert halte, besitze ich Unmengen von Bildern, die heutigen Anforderungen in Sachen Auflösung oder Details nicht mehr gerecht werden. Um 2000 herum reichten 320×200 Pixel allemal, an mehr luden sich die Modems der Zeit einen Wolf.
Mei, wir hatten halt nix.
Wenn ich diese Zeitdokumente heute präsentieren möchte, ist das Ergebnis selten befriedigend. Klar kann man die Bilder upscalen, aber ein miserables Fotos von 1999 wird nicht besser, wenn es größer wird.
Nehmen wir z.b. die Szenenfotos aus der Actionserie DER MILLENNIUM-MANN, wie man sie auch heute noch im Netz finden kann:
Das ist unscharf, farblich nicht gut abgestimmt und hat auch noch hässliche Steuerelemente von irgendeiner Galerie-Software links und rechts. SO möchte ich das meinen Lesern eigentlich nicht zumuten.
KI to the rescue! Ich lud das Bild in ChatGPT hoch und gab vor:
Please upscale, sharpen, focus, retouch, recolor, adjust exposure, and eliminate all specks and scratches. Also eliminate the grey boxes left and right.
Das Ergebnis war nicht bloß gut – es war ein Knaller:
DAMIT kann ich arbeiten!
In den darauf folgenden Tagen jagte ich Dutzende Bilder durch die KI, um so ziemlich alles aufzuhübschen, was an JPG-Dateien unter 70 Kilobyte auf meinen Festplatten schlummerte. Die Resultate ließen mich mitunter vor Ehrfurcht niederknien. So war das körnige Redaktionsfoto meines ehemaligen Chefs von Papier abfotografiert:
ChatGPT hat das vorbildlich überarbeitet:
Und ja, ich habe auch Grok, Gemini, Perplexity und andere KI-Plattformen ausprobiert, allerdings durchgehend mit deutlich schlechteren Ergebnissen, die die Vorlagen teilweise inakzeptabel veränderten.
Aber dann bin ich vor eine massive Wand gerannt.
Der Grund? Ich wollte ein paar Bilder aus älteren deutschen Serien aufpeppen, die naturgemäß auch Krimi- und Gruselszenarien zeigen. Die KI begann, sich mir völlig irrational zu verweigern. So ging dieses Motiv aus dem RTL-TV-Film GEISTERSTUNDE noch klaglos durch:
Bei einem anderen, eigentlich ungleich harmloseren Szenenbild verweigerten sämtliche KI-Plattformen mit ähnlich klingenden Begründungen die Bearbeitung:
Eine typische Antwort kam dabei von ChatGPT:
Wohlgemerkt "may violate". Und das Angebot eines zweiten Versuchs war eine Nebelkerze. Die KI ließ sich auf keine Diskussion ein. Die Tatsache, dass auf dem Bild scheinbar verängstigte Kinder zu sehen sind, reicht für den Abbruch. Es gibt keinen Kontext, keinen Spielraum, keine Verhandlungen.
Nun kann man durchaus der Meinung sein, dass es in Ordnung ist, wenn die KI lieber zu vorsichtig als zu leichtsinnig ist. Wer weiß, was Leute alles generieren wollen. Wir leben in einer Welt voller Perverslinge.
Aber es ist unbestreitbar, dass die "guardrails" und "guidelines" eben selber komplett undurchschaubar und unlogisch agieren. So wollte ich ein altes Foto von mir (ca. 1988) durch Vergrößerung und Verbesserung ins neue Jahrtausend zerren:
Die Antwort der KI?
What the what now?!
Dies war übrigens der einzige Fall, bei dem KI nach einem Protest meinerseits dann doch bereit war, die retuschierte Variante zu generieren:
Wie gesagt: KI braucht Grenzen und nicht jeder mag es so ärgerlich finden wie ich, wenn bei fast allem, was auch nur anrüchig sein könnte, der Stecker gezogen wird. Die Maßstäbe sind erkennbar amerikanisch geprägt: Ein Typ mit Raketenwerfer ist kein Problem, eine Frau im Bikini ist als "lightly erotic" schon tabu.
Es war sehr frustrierend, dass locker die Hälfte der von mir zur Überarbeitung ausgewählten Bilder mit einer Fehlermeldung abgeschossen wurden.
Aber es wird noch schlimmer. KI behält sich nämlich nicht nur vor, im öffentlichen Raum den Wachhund und Türsteher zu spielen, sondern auch bei meinen privaten Dateien in meiner eigenen digitalen Sphäre. Dazu zwei Beispiele.
Ich habe mittlerweile den Großteil meiner Bilder – Privatfotos ebenso wie Scans und Screenshots – von OneDrive zu GoogleDrive emigriert. Nicht nur finde ich die Werkzeuge zur Bildbearbeitung bei Google sehr gut und die Möglichkeit attraktiv, von jedem meiner Geräte aus auf die Bilder zugreifen zu können. Das "killer feature" (das Datenschützern die Haare ergrauen lässt) ist die Tatsache, dass Google meine Bilder nicht nur ein-, sondern auch ausliest. Google analysiert, was auf den Bildern zu sehen ist und macht sie damit auch nach Menschen, Gegenständen, Orten und Themen durchsuchbar.
Wenn ich in die Suchleiste "Schildkröte" eingebe, werden alle Bilder angezeigt, auf denen Schildkröten zu sehen sind, auch Scans, in denen sie erwähnt werden:
Mit dieser erweiterten Suchmöglichkeit spare ich extrem viel Zeit, wenn ich – auch für Beiträge hier – bestimmten Bildern hinterher jage nach dem Motto "da hatte ich doch vor Jahren mal was zu gespeichert…".
Der Haken: Selbst die Suchfunktion von Google Fotos unterwirft sich den Zensur-Maßstäben des Konzerns. So finden sich angesichts diverser Artikel zum Magazin Playboy auch einige Cover des Heftes in meinem Archiv. Danach konkret zu suchen ist allerdings komplett sinnlos:
Nicht missverstehen: Da SIND Playboy-Cover und Google weiß das natürlich auch – aber man ist der Meinung, dass man mir die selbst in meinem eigenen Datenbestand nicht anzeigen darf. Depperter (und ärgerlicher) geht’s kaum.
Wie absurd und kontraproduktiv das ist, sieht man auch daran, dass die Cover durchaus auftauchen, wenn ich z.B. generisch nach "Zeitschriften" suche:
Da war ich dann doch ein wenig baff. Sollte mir Google nicht zugestehen, dass ich in meiner eigenen Digitalsphäre suchen kann, was immer ich will?!
Ich probierte ein wenig herum. Seit einiger Zeit integriert Microsoft ja den KI-Assistenten Copilot an allen Ecken und Enden der Software vom Betriebssystem bis zum Office-Paket. Dazu gehört auch die Möglichkeit, gerade Geschriebenes per Rechtsklick von der KI überarbeiten zu lassen.
Ein kleiner Test. Ich schrub eine Zeile eindeutig obszöner Natur und bat Copilot, diese umzuformulieren. Die unmissverständliche Antwort:
Keine Arme, keine Kekse, wie man in den 80er Jahren sagte. Mit welcher Berechtigung mir Copilot im privaten Kontext die Hilfe verweigerte, erschließt sich mir nicht.
Man sieht: die KI ist längst nicht mehr nur darauf aus, gewaltverherrlichende oder perverse Inhalte zu unterbinden, sie maßt sich mittlerweile an, die Möglichkeiten des Users nach vagen und nicht anfechtbaren "guardrails" zu beschneiden.
Diese nirgendwo klar dokumentierten Maßstäbe machen einen breiten Einsatz der KI sinnlos, weil ich z.B. bei der Überarbeitung eines ganzen Romans immer damit rechnen muss, dass sich die KI als Lektor aufspielt und gewisse Szenen nicht in meinem Sinne korrigiert, weil sie Gewalt und/oder Ferkeleien ablehnt.
What’s next? Windows entscheidet, dass bestimmte Bilddateien auf meiner Festplatte geschmacklos sind und deshalb nicht mehr indexiert werden?
So war ich nach einer Woche KI-Retusche be- und entgeistert zugleich. Begeistert, weil die KI teils unfassbare Ergebnisse lieferte und Bilder präsentabel machte, die ich schon verloren geglaubt hatte. Entgeistert, weil die KI dabei scheinbar willkürlich eine Art Geschmackskontrolle nach amerikanischem Muster einrichtete.
Nun hatte ich u.a. bei Heise schon mehrfach gelesen, dass es Möglichkeiten gibt, KI-Modelle auch unabhängig von den Servern der Großunternehmen auf dem eigenen Rechner zu installieren. Ich entschied mich, es mit Topaz Photo Pro zu versuchen. Nicht günstig, aber dafür nur meinem Willen unterworfen.
Man muss dabei einpreisen, dass die Software zusätzlich zu den eigenen 1,3 Gigabyte Code noch satte 25 Gigabyte KI-Modelle nachlädt und bei der Benutzung einen temporären Ordner mit schnell mal weiteren 10 Gigabyte anlegt. Wessen Festplatte knapp bemessen ist, sollte sich das also gut überlegen.
Wie an an dem obigen Bildschirmschuss schon sieht, ist Topas Photo Pro nicht mit ChatGPT vergleichbar, weil man Bilder nicht per Prompt generieren oder verändern kann. Die Software ist vielmehr dafür da, existierende Bilder bestmöglich aufzuarbeiten, sei es in Sachen Fokus, Farben oder Auflösung. Üblicherweise geht das alles in Sekunden, aber wenn man einen sehr komplexen Algo z.B. zur feinkörnigen Vergrößerung auswählt, kann man entspannt einen Kaffee trinken gehen.
Gefallen hat mir, dass Topaz Photo Pro extrem einfach und selbsterklärend funktioniert. Nach fünf Minuten Spielerei hat man die Funktionen verstanden. Und die Ergebnisse sind teilweise wirklich erstaunlich. So habe ich mein erstes Selfie hochgeladen, geschossen mit meiner ersten Digitalkamera 2002:
Die Auflösung betrug ungefähr 800 x 1200 Pixel und wie man sieht, fand die Kamera den Zeitschriftenständer hinter mir interessanter als mich selbst.
Ein ideales Bild, um die Möglichkeiten von Topaz Photo Pro zu testen. Ich wies die Software an, das Bild auf mein Gesicht zu refokussieren. Kurze Zeit später:
Das ist schon mal sehr wow, auch wenn man sofort sieht, dass nun die Zeitschriften im Hintergrund nur Hieroglyphen präsentieren. Ich hätte das mit der Funktion "preserve text" auffangen können, aber ich habe ChatGPT lieber gleich den ganzen Ständer entfernen lassen. Das Ergebnis meiner Bemühungen?
Sehr schön. So kann man das lassen.
Topaz Photo Pro ist in der Tat sehr gut darin, auch unter schwierigen Umständen gemachte, etwas missglückte Aufnahmen zu retten. So war ich z.B. um die Jahrtausendwende bei den Dreharbeiten von ICE PLANET. Weil es im Studio dunkel war und viel mit Kunstnebel gearbeitet wurde, waren die analog geschossenen Fotos bestenfalls als Zeitdokumente tauglich:
Lässt dich da was mit Topaz Photo Pro machen? Aber sicher doch:
Auch die spontan entstandenen "behind the scenes"-Aufnahmen profitieren massiv – so war dieses Bild von Rae Baker nicht mehr druckfähig:
Abra kadabra, fotofixus!
Vor allem aber: mit diesem Möglichkeiten konnte ich mich daran geben, auch all die Bilder zu rekonstruieren, bei denen sich ChatGPT bisher geweigert hatte. Darunter die Aufnahme aus GEISTERSTUNDE, an der sich mein Zorn entzündet hatte, und die im Laufe der nächsten Monate noch Thema sein wird:
Mein Fazit: Es kotzt mich an, wie intransparent und willkürlich die KI dem User bei der Bildgenerierung und Bearbeitung ins Kreuz tritt. Dass sie auch bei der Indexierung und den Suchmaschinen "korrigierend" eingreift, macht die Sache doppelt schlimm.
Das Ziel muss letztlich sein, KI kompakter und eigenverantwortlich auf eigener Hardware laufen zu lassen – ohne die Geschmackspolizeit von Google & Co. Allerdings sind solchen Bestrebungen momentan noch klare Grenzen gesetzt, wie man an Topaz Photo Pro erkennen kann – Bildbearbeitung geht schon sehr gut und weitgehend uneingeschränkt, aber eine Generierung neuer Bilder in der Qualität und mit der Flexibilität von ChatGPT bleibt (vorerst?) ein Wunschtraum.
Klar gibt es lokal installierte Bildgenerierung, aber die hinkt hinterher. Die Großen der Branche betreiben nicht umsonst gigantische Serverfarmen, um KI-Content zu erzeugen. Heimische Rechner sind davon nach dem aktuellen Stand überfordert.
Ich selbst setze für die nähere Zukunft auf eine Kombination verschiedener Systeme, um am Ende ein bestmögliches Ergebnis zu erzielen. ChatGPT bleibt vorerst die erste Wahl, wenn ich Bilder erzeugen, retuschieren oder verändern will. Wann immer die Plattform sich weigert, bearbeite ich die Bilder mit Topaz Photo Pro. Da hier allerdings beim upscaling immer noch gerne neue Details in die Darstellungen halluziniert werden, überlasse ich die Vergrößerung auf die finale Bildgröße weiterhin dem Machine Learning-Algo von Pixelmator. Das klingt jetzt vielleicht alles sehr aufwändig, aber wenn man sich den Workflow ordentlich zurecht gelegt hat, ist es einfach und schnell.
Bevor ihr mich jetzt alle ans Kreuz nagelt, weil ich bestimmte Lösungen nicht kenne oder bestimmte Entwicklungen ignoriere, bedenkt dies: Ich bin ein Amateur. Ich habe die Bedürfnisse eines Amateurs. Ich will alte Bilder in schlechter Auflösung und mit Kratzern und Flecken verschönern. Das soll einfach sein und wenig kosten. Das ist mein Anspruch. Nicht mehr, nicht weniger.
Und nun seid ihr dran. Ist die Einmischung von Google bei der Suche selbst in privaten Datenbanken ein Nischenproblem oder eine Sauerei? Hat euch die KI auch schon mal die Bildgenerierung verweigert? Was sind eure Workarounds? Oder ist die KI in euren Augen nur ein Hype, über den in ein paar Jahren kein Mensch mehr spricht, vergleichbar mit der pferdelosen Kutsche und dem Fernsprechapparat?
Alleine, dass Google meine Daten auch nur in dem Detail kennt, wäre bei mir ein absolutes No-Go. Einmischung überrascht mich nicht und findet schon sehr lange vor KI-Zeit statt. Ist die klare Folge: Google ist nicht gratis, es lebt von deinen Daten – und macht im Zweifel damit, was es will. Auch dich bevormunden oder im Zweifel sogar ausschließen.
Guten Rutsch!
Stichwort digitale Souveränität. Gibt man den prüden Amerikanern seine Daten, muss man auch nach deren Regeln spielen. Europäische Alternativen wären da besser. Am besten sind natürlich lokal installierte Programme.
Die Antwort ist mir zu simpel. Ich verstehe, dass die Amerikaner in den "public spaces" kontrollieren, was ihrem Maßstab entspricht – Sex, Politik und Gewalt. Aber es macht auch für Google keinen Sinn, dass ich in meinen eigenen Bildern nicht nach "nackte Frau" suchen darf.
Das Problem kenn ich zu gut. Einerseits bei Bildgenerierung für diverse Fantasy- und Story-Projekte. Da läuft man schon bei Badebekleidung oft gegen Guardrails. Möchte man consistent characters, die die KI ja für BIlder von potentiell echten Menschen halten muss, oft noch eher. Und andererseits mit LLMs. Arbeite an interaktiven Fantasy-Stories und KI-gestützten Fantasy-Rollenspielen. Eine KI zu finden, die mächtig genug ist, da guten Output zu generieren, aber nicht bei Erwachsenenthemen den Dienst verweigert oder sich soft selbst zensiert, indem sie Themen, die ihr instruiert wurden, einfach nicht wiedergibt, ist quasi unmöglich.
Und ich fürchte mit dem fortschreitenden Einsatz von KI im Kreativbereich unterwerfen wir uns da immer weiter einem US-Verständnis von weichgespülten PG-Inhalten. Zusammen mit der Barriere, die die großen Plattformen vor die Veröffentlichung von Content stellen (siehe die massive Selbstzensur, die auf YouTube stattfindet) wird die – sichtbare – digitale Sphäre zum Wattebausch.
Vor allem treibt man den Konsumenten damit ja in die grauen Bereiche.
Für mich ich das bis zu einem Grad ein Recall-versus-Precision-Problem: Einerseits möchte man die Zahl der False Negatives verringern – im konkreten Fall ethisch fragwürdige Inhalte, die durchrutschen -, aber gleichzeitig die Zahl der False Positives so gering wie möglich halten – hier eigentlich doch unproblematische Inhalte. Aber beides auf Null zu drücken ist bei statistischen Modellen meist nicht möglich und das eine zu verbessern geht auf Kosten des anderen.
Ich halte das für eine zu technische Sichtweise eines prinzipiell eher moralischen Problems. Welche Worte verwendet werden können, ist primär auch eine Frage der Meinungsfreiheit.
Aber nicht bei privaten Unternehmen.
Natürlich. Ich habe da keinen Anspruch drauf – aber das macht es nicht weniger zum Problem.
Danke für die coolen Ice-Planet-Fotos, da kommen Erinnerungen auf! 🙂
Besonders bei Rae und Sikander (unserem Lead Production Designer), die damals zusammen waren. Ihn habe ich letztes Jahr wieder getroffen, leider hat er seinen Plagiatsprozess gegen den FC Bayern verloren (eine lange und unschöne Geschichte). Keine Ahnung, was aus Rae geworden ist.
Rae schauspielert noch immer wieder mal in kleineren Rollen in England.