07
Jul 2024

Undress-KI: Jedes Bild ein Nacktbild?

Themen: Künstliche Intelligenz, Neues |

Ich bin immer noch begeistert von KI und den ständigen wachsenden Möglichkeiten, die sich dadurch bieten – aber eben auch, weil ich davon nicht gefährdet bin. Die KI ist kein Konkurrent, sie kann mir nichts nehmen.

Dass die KI auch Schattenseiten hat, die weit über den Jobverlust hinausgehen können, haben wir bereits besprochen. Die KI schafft Realitäten, von denen wir nicht wissen, wie wir sie bewerten oder wie wir mit ihnen umgehen sollen. Sie ermöglicht auch, die Realität als Fake abzukanzeln – wie erst vor ein paar Tagen, als konservative Spinner in den USA prophezeiten, ein möglicher kompetenter Auftritt von Biden bei der Diskussion der Präsidentschaftskandidaten wäre vermutlich einer vagen “KI-Maske” zu verdanken. Der Mensch sucht nicht DIE Wahrheit, sondern EINE Wahrheit, die in sein Weltbild passt. Die KI erschafft sie.

Es ist Teil meiner Schnuppertouren in die Welt der KI, dass ich auch Bereiche beleuchte, die nicht jedem zugänglich sind – oder angenehm. Das Thema Kinderpornografie hatten wir schon – heute geht es um “fake nudity”, die durch KI eine ganz neue Qualität bekommt.

Der Versuch, den weiblichen Körper unter Zuhilfenahme von Technik zu entkleiden, ist nicht neu. Er entspringt dem Drang des Mannes, das Objekt der Begierde nackt zu sehen. Mag man nicht schön finden, ist evolutionsbiologisch aber absolut nachvollziehbar. Sogar die albernen “Röntgenbrillen” in alten Groschenroman verdanken ihren Erfolg dieser Tatsache:

Die Möglichkeit, Bilder digital zu manipulieren, machte es erstmals möglich, Nacktfotos zu erstellen, wo es vorher keine gab. Das blieb allerdings eine extreme Nische chronischer Masturbanten – bis das Internet aufkam. Jetzt konnte man Nacktfotos nicht nur erstellen, sondern auch verbreiten! Das Klientel für diesen meist harmlosen Schweinkram zauberte sich krude Annäherungen dessen, was es sich unter den Blusen von Kelly Bundy und Agent Scully vorstellte.

Da das Internet schon um die Jahrtausendwende ein selbstregulierendes System war, kam mit dem Fake Detective ein Regulativ auf, das Hunderte von “garantiert echten” Nacktfotos als teilweise beschämend schlechte Fälschungen entlarvte:

Der Fake Detective gab allerdings irgendwann mal auf, weil die schiere Schwemme und die zunehmende Perfektion der Bilder eine Katalogisierung weitgehend unmöglich machte. Es war ein Kampf gegen Windmühlen. Hinzu kam, dass kaum jemand wirklich glaubte, es mit echten Abbildungen zu tun haben. Warum musste man das also noch entlarven?

Die KI hat auch hier wieder die Spielregeln geändert. Und das in einer Art und Weise, die das Problem aus der Nische in den Mainstream zerrt.

Ganz einfach ausgedrückt: Die KI kann fast perfekte Nacktfotos von jeder Frau generieren – Popstar, Nachbarin, Lehrerin, Ex-Freundin. Sie macht es schnell, einfach, und kostenlos. Die Ergebnisse sind teilweise so verblüffend, dass ein Dementi (“ich würde solche Fotos nie machen!”) nur die überzeugen dürfte, die es glauben wollen.

Das hier ist Sprengstoff. Und darum bin ich sehr vorsichtig, werde kaum Beispiele und keinerlei Web-Adressen nennen.

Eins vorab: Ja, die offiziellen KI-Systeme treffen Sicherheitsvorkehrungen, um einem Missbrauch vorzubeugen. Die Video-KI Hedra lässt ihre Figuren keine Texte sprechen, die nach “hate speech” oder Sexismus klingen. MidJourney blockiert alles, was nach Erotik aussieht. ChatGPT schreibt keine Pornos.

Aber das sind alles künstliche, nachträgliche Schranken. Wer Zugriff auf das KI-Trainingsmaterial und die Algorithmen hat, der kann sie jederzeit aushebeln. Und diverse Angebote im Web tun genau das. Sie sind die unzensierten Generatoren für die pubertären Fantasien der User.

Ich hatte nicht vor, das zu bebildern, glaube aber, dass es notwendig ist, weil nur dann klar wird, mit was wir hier konfrontiert werden. Die von der KI generierten Nacktfotos sind keine Photoshop-Pinseleien, sondern erschreckend perfekte Analysen, wie DIESER Körper auf DIESEM Bild in DIESER Pose aussehen könnte.

Nehmen wir also mit großer Vorsicht mal dieses Cover von Jasmin Wagners Best of-CD, das die Sängerin als eine Art Wonder Woman zeigt:

Auf einer online sehr beliebten Plattform kann ich das hochladen, die “Rüstung” markieren und dann mit einem Klick das hier herstellen (nachträglich zensiert):

Man achte darauf, wie genau die KI den Hautton trifft und die Schärfe des Bildes. Sie erkennt die Pose, den Lichteinfall und die Schatten, generiert neben der Oberweite auch noch die Bauchmuskulatur und den Nabel.

Um es ganz klar zu sagen: Hätte der Playboy dieses Bild als Teil eines Photo-Shootings der Sängerin veröffentlicht, hätte niemand es in Zweifel gezogen. Es ist keine Retusche mehr, es ist eine erschreckend perfekte Simulation.

Der KI ist egal, ob das Bild in Farbe ist oder schwarzweiß, ein 50 Jahre altes Polaroid oder ein Screenshot aus einem Film – das Ergebnis ist der Vorlage angepasst. Man kann auch von anderer KI generierte “Fotos” mit der Undress-Plattform entkleiden oder Fotos wie das obige nach unten “verlängern”, bis auch der Rest der Frau zu sehen ist. Die KI rechnet dazu, was nie im Bildausschnitt war.

Faktisch bedeutet das, dass Frauen sich nicht mehr “verstecken” können. Jedes Bild ist ein potenzielles Nacktbild. Es braucht keine Zustimmung, keine Rechtfertigung, keine legale Grundlage. Es entwertet “echte” erotische Aufnahmen und verwischt die Grenzen zwischen den Stars, die sich ausziehen wollen und denen, die es nicht tun (wollen). Helene Fischer? Kein Problem. Nena? Natürlich. Verona Pooth? Wurde auch Zeit.

Nun ist die Sexualisierung und Objektifizierung weiblicher Stars nicht neu und fast schon als “part of the game” akzeptiert. Wer im Rampenlicht steht, präsentiert seine Form – mehr oder weniger. Man kann damit Karriere machen, wenn man ausreichend schamlos ist.

Aber diese KI schert sich nicht um die Frage, ob jemand berühmt ist und damit aus irgendeiner kruden Argumentation heraus “vogelfrei”. Wo man jedes Foto hochladen kann, wird jedes Foto hochgeladen. Jungs können ihre Klassenkameradinnen digital “ausziehen”, Bürohengste ihre Kolleginnen. Für den Privat”gebrauch”? Natürlich, natürlich. Alles ganz harmlos. Aber dem besten Freund kann man das Bild ja wohl mal schicken…

Es ist bezeichnend, dass die KI, mit der ich herumgespielt habe, nur weibliche Körper entkleiden kann/will. Das Interesse in dieser Angelegenheit scheint eine weitgehend männliche Exklusiveigenschaft zu sein.

Man stelle sich mal vor, was für Bilder in Schulen, Firmen, Vereinen kursieren können – und wie unmöglich es für die Frauen sein wird, dieser Fake-Verfügbarkeit etwas entgegen zu setzen. Abgesehen davon, dass man die Bilder nie vollständig aus der digitalen Sphäre wird löschen können – es wird plötzlich eine umgekehrte Beweislast geben, dass sie nicht doch echt sind. Die Fakes erschaffen eine Realität, der widersprochen werden muss. Und selbst wenn der Frau die Chance gegeben wird, sich darüber zu empören – hat sie nicht vielleicht doch…? Könnte doch sein?

Gibt es irgendein “Recht” oder wenigstens eine plausible Rechtfertigung, eine Frau nackt zu sehen, die sich nie ausgezogen hat? Entmündigen wir die Frauen, weil wir ihnen die Entscheidungshoheit absprechen, wer was zu sehen bekommt?

Die KI entreißt den Frauen ihre Intimsphäre. Und Fotos sind ja erst der Anfang. Eine KI wie Hedra könnte aus solchen Fotos problemlos auch Videoclips machen. Ex-Frauen, Ex-Freundinnen, Ex-Kolleginnen damit gezielt psychisch zu zerstören und fertig zu machen, wäre eine Kleinigkeit.

Kann man, muss man, sollte man einschreiten? Nehmen wir die pubertäre Neugier der Männer als unvermeidlich hin? Setzen wir ganz früh eine rote Linie? Hoffen wir, dass es ein Nischenproblem bleibt? Muss schon strafbar sein, was die KI ausspuckt, auch wenn die Frauen nicht direkt davon betroffen sind? Wäre es dann nicht schon ein Verbrechen, wenn ich mit dem Filzstift Brüste auf das Cover der obigen Jasmin Wagner-CD male?

Wo hört die erlaubte sexuelle Fantasie auf, wo fängt der sexuelle Missbrauch an?

Es wird in meinen Augen nicht nur eine Frage der Gesetze, sondern auch der Reife unserer Gesellschaft sein, wie wir damit umgehen.



Abonnieren
Benachrichtige mich bei
guest

45 Kommentare
Älteste
Neueste
Inline Feedbacks
Alle Kommentare anzeigen
Thomas G. Liesner
Thomas G. Liesner
7. Juli, 2024 22:07

Bei ChatGPT muss ich aus praktischer Erfahrung widersprechen – mit etwas Geduld und Kreativität spuckt er problemlos pornografische Szenen aus, egal ob Modell 3.5 oder 4. Allerdings sind das nur Texte ohne Bezüge zu realen Personen.

Das Problem mit überzeugenden Fake-Nackt-Bildern oder demnächst auch wohl Videos sehe ich auch und sofern das nicht massiv strafbewehrt wird, wird es mit Sicherheit viel Missbrauch geben, wenn die entsprechenden Seiten bekannter werden.

Wobei ich vor kurzem gelesen habe, dass die Mehrzahl der “Sextortion”-Opfer inzwischen männlich zwischen 16 und 20 oder so sein sollen, so dass männliche Sexbilder für Erpresser auch interessant sein könnten.

Last edited 2 Monate zuvor by Thomas G. Liesner
Howie Munson
Howie Munson
8. Juli, 2024 07:19

Strafen nützen nur, wenn der Täter damit rechnet erwischt zu werden (was die meisten nicht erwarten). Und bei Rachetaten ist selbst das egal.

Thomas G. Liesner
Thomas G. Liesner
8. Juli, 2024 16:20
Reply to  Howie Munson

Wenn bei erwischten Tätern keine Strafe möglich ist mangels strafbarem Sachverhalt ist es auf jeden Fall noch schlimmer, da dann gar kein Unrechtsbewusstsein aufkommen kann.

heino
heino
8. Juli, 2024 06:36

Auf die Reife der Gesellschaft würde ich da nicht bauen, denn es gibt mit Sicherheit genug Männer, die keinerlei Rücksicht darauf nehmen, was sie den Frauen antun, wenn es um ihre eigene Triebbefriedigung geht (von Kriminellen mit einschlägigen Absichten ganz abgesehen). Ob es da sofort eine Veschärfung des Strafrechts braucht, bezweifle ich, aber man muss die Ki-Anbieter in meinen Augen schon dazu zwingen, Mißbrauch soweit wie möglich zu verhindern.

Stefan
Stefan
8. Juli, 2024 19:37
Reply to  heino

Das halte ich für komplett zwecklos. Die Modelle sind zum Teil open source, die sind im Netz, die werden genauso geteilt wie die Bilder, die sie erzeugen. Verschiedenste Varianten von Stable Diffusion liegen auf hunderttausenden von Rechnern. Auch auf meinem. Das schert sich nicht um Sicherheitsmechanismen einzelner Anbieter und wenn jemand einen einbaut, baut der nächste ihn wieder aus.
Einen KI-Anbieter strafrechtlich auszuschalten bringt in etwa so viel wie das Abschalten einer Tauschbörse – nachhaltig nichts.

Ehrlich gesagt, ich halte es für bedenklich, immer neue Schranken hochzuziehen gegen Nacktbilder etc. Müssen wir auch Photoshop beschneiden? Das wird ja zum selben Zweck verwendet. Aktfotografen haben dann halt Pech gehabt. Erotische Gedichte? Teufelszeug! Bilder, die Blut zeigen? Gewaltverherrlichung! Geschichten über Mobbing? Brandgefährlich!
Ich bin gerade in einem Projekt, dass LLMs ins Fantasy-Rollenspiel integriert. Es ist zum Verzweifeln. ChatGPT, Llama und co. mögen keine Gewalt und wenn sich Figuren flirtatious anschauen wird auch schnell mal die Arbeit verweigert. Bleibt nur der Gang zur B-Ware. Die schreibt aber auch einfach mal ungefragt Kinderpornografie und ist qualitativ .. unterwältigend. Noch.

Die Technologie wird nicht weggehen und mit strikten Richtlinien werfen wir dem Einsatz durch erwachsene verantwortungsvolle Menschen hypermoralisierende Steine in den Weg. Während abseits der Mainstream-Produkte eh alles geht.

Ich will damit keineswegs sagen, dass Undressing Apps doch eine tolle Sache sind und keinen Schaden anrichten. Aber ich glaube, wir müssen uns Gedanken machen, wie wir mit der Technologie umgehen statt darüber, wie wir sie loswerden.

Stefan
Stefan
8. Juli, 2024 22:28
Reply to  Torsten Dewi

“wenn man die großen, frei zugänglichen Plattformen dicht macht, schneidet man auch einer großen Menge “casual user” den Zugang ab”
So wie bei den Musiktauschbörsen?
Wir reden von einer Technologie mit unbegrenztem Nachschub. Eine, die sich beliebig kopieren lässt und die nahezu keine Infrastruktur braucht. Mein eigener Vergleich hinkt. Es ist nicht als wolltest du Tauschbörsen abschalten. Sondern als wolltest du die gecrackten CDs darauf löschen lassen.

“das sagst du, solange es nicht das Leben deiner Tochter in der Schule ruiniert, …”
Wundere mich etwas, auf welches Zitat du damit antwortest. Hätte es auf meine Aussage, wir müssten lernen, damit umzugehen, verstanden, weil das sicherlich eine gesellschaftlich herausfordernde These ist.
Aber beim Thema Erotikzensur? Wo ist denn mal nach gefälschten Nacktbildern der Ruf nach Photoshop-Verbot/-Einschränkung laut geworden? Die Wut richtet sich doch in erster Linie gegen den Täter und nicht das Werkzeug.

Du hast sicherlich im Grundsatz Recht. So lange es einen selbst nicht betrifft, hat man leicht reden. Ich behaupte aber mal, man hat auch den unverstellten Blick, um zu sehen, dass sich das Problem nicht per Verbot aus der Welt schaffen lässt.

heino
heino
9. Juli, 2024 06:36
Reply to  Stefan

Zunächst einmal habe ich mich nicht für ein generelles Verbot von KI ausgesprochen, sondern für eine Regulierung, die bei den Anbietern ansetzt, so wie es ja in Teilen auch schon geschieht. Natürlich wird man damit nicht alles verhindern können, aber zumindest einen Teil vermeiden und was dann noch übrig bleibt, muss eben über den juristischen Weg geklärt werden. Und dein Vergleich mit der Aktfotografie hinkt massiv, denn die fotografierten Personen geben da vorher ihr Einverständnis (bzw. lassen sich aus Eigeninteresse fotografieren), während hier das Thema eindeutiger Missbrauch ohne vorheriges Einholen einer Zustimmung ist.

Stefan
Stefan
10. Juli, 2024 15:03
Reply to  Torsten Dewi

Ihr missversteht das Beispiel mit der Aktfotografie. Selbstverständlich gilt dafür genau das Gleiche wie für alle anderen Personenfotografien: zu anderen Zwecken nutzen als die, denen das Modell zugestimmt hat, ist nicht okay. Insbesondere wenn es ums nachträgliche Nackigmachen geht. Und dass die Frau anderweitig schon hüllenlos zu sehen ist, ist absolut keine Zustimmung zu Fake-Bildern.
Ich wollte stattdessen darauf aufmerksam machen, dass da eine neue Generation Werkzeuge heranwächst, die nicht mehr content-agnostisch arbeitet. Photoshop hat sich nie darum geschert, was für Bilder du wie damit bearbeitest. Wird das in Zukunft auch noch so sein, wenn überall Bild-KI hintersteckt? Oder sagt PS, wenn es die Beleuchtung anpassen soll, dann “Nö, mach ich nicht, du Perversling!” .. das ist der Grund, warum ich die Ideen, KI darf keine Brüste malen, kein Blut, keine Waffen etc. recht bedenklich finde.

Und zu dem hinkenden Vergleich oben: finde ich, dass man die Undress-App aus den App Stores schmeißen soll? Ja. Denn, Torsten, da hast völlig recht: die ist spezifisch für nichts anderes da und dieser alleinige Zweck ist abzulehnen. Ich warne lediglich davor, zu glauben, dass man damit die Möglichkeiten zum “Undressing” loswird oder auch bloß maßgeblich einschränken kann. Das wird nicht passieren. Gerade in Deutschland ruhen wir uns viel zu häufig darauf aus, gesellschaftliche und technologische Entwicklung gesetzliche ausknipsen zu wollen, um uns nicht damit beschäftigen zu müssen, was sie für uns bedeuten und wie wir damit umgehen, dass sie da sind.

Auf den Punkt gebracht: Ja, in Zukunft werden fremde Männer deine Frau, deine Schwester, deine Tochter digital ausziehen oder es so aussehen lassen können als ob. Und ja, es wird jemanden geben, der das auch tut. Die meisten heimlich. Einige öffentlich. Wir können das technisch nicht verhindern, wir können dem Arsch nur nachträglich aufs Maul geben. Also sollten wir uns damit beschäftigen, wie wir als Gesellschaft damit umgehen. Zum Beispiel, indem wir ein Bewusstsein schaffen, dass ein “Nacktbild” nun etwas anderes ist als ein “Nacktfoto”, eine Fantasie ist und nichts damit zu tun hat, wie der Person unter der Kleidung wirklich aussieht.

Goran
Goran
11. Juli, 2024 03:02
Reply to  Stefan

Adobe hat übrigens letzens versucht neue Nutzungsbedingungen durchzubringen, die Adobe das Auslesen, Analysieren und Speichern der mit Adobeprogrammen bearbeiteten Daten erlauben und auch eine unentgeldliche weltweite Nutzungslizens beinhalteten.

Na, noch Lust Adobe zu nutzen?

Nach Aufschrei wurde erstmal zurückgerudert, aber diese Formulierungen treten in den letzten Jahren immer häufiger auf.

Konkreter zum Thema: Ja Photoshop wird mit KI-Unterstützung irgendwann direkt in Deine Bearbeitung eingreifen können, und das die das auch wollen, haben sie öffentlich gezeigt.

Last edited 1 Monat zuvor by Goran
Stefan
Stefan
13. Juli, 2024 00:42
Reply to  Goran

Das eine hat mit dem anderen nichts zu tun.
Eingreifen können sie auch ohne die neuen Nutzungsbedingungen. Wenn Adobe entscheidet, dass es keine Bilder mehr mit nackten Brüsten bearbeiten lassen will, könnten sie das jederzeit umsetzen, denn lokal bzw. in deiner Arbeitsumgebung wird das Bild natürlich trotzdem analysiert, das ist ja ein Teil des Arbeitsprozesses. Gen Fill verweigert derartige Arbeiten ja auch.

Die Ausdehnung der Nutzungsbefugnisse diente dazu, sich neues Trainingsmaterial zu beschaffen, nachdem man sich mit der Verpflichtung zu ethischer KI selbst ins Knie geschossen hatte und qualitativ hinter der Konkurrenz blieb. Und sich damit einreiht in die immer größer werdende Reihe von Plattformen, die beschließen, ihre Nutzer zur Abschaffung selbiger auszubeuten (siehe zB auch Stack Overflow oder Adobe selbst bereits mit Adobe Stock)

heino
heino
11. Juli, 2024 06:33
Reply to  Stefan

Da würde mich dann aber interessieren, wie denn deiner Meinung nach ein gesellschaftlich richtiger Umgang damit aussehen würde, wenn du die Verantwortung für die Verbreitung solcher Programme weder bei den Herstellern noch beim Gesetzgeber siehst (zumindest verstehe ich deinen Einwand so). Ich denke, es spielt für die abgebildete Person keine Rolle, ob es sich um ein Nacktfoto oder ein Nacktbild handelt, denn den Schaden wird auf jeden Fall sie (in aller Regel halt Mädchen oder Frauen) haben. Ganz verhindern – da bin ich bei dir – wird man das leider nie können, es wird immer Männer geben, die sich durch nichts von solchen Handlungen abhalten lassen. Aber wie willst du das einschränken, wenn nicht über die Hersteller bzw. den Rechtsweg?

heino
heino
11. Juli, 2024 16:59
Reply to  Torsten Dewi

Ich dachte, ich hätte den letzten Post von Stefan kommentiert. Da habe ich wohl gepennt

Stefan
Stefan
13. Juli, 2024 00:32
Reply to  heino

Was ist ein “Programm”? Was ist ein “Hersteller”? Das sind hier die Knackpunkte. Das ist eine sehr klassische und naive Denkweise. “Programm illegal -> verbieten und Hersteller kaltstellen” – das funktioniert hier nicht.

Das “Programm” dieser Undressing-App ist vermutlich eine schnell gebaute Box um ein getuntes SDXL-Modell. Ich schätze mal, nicht einmal selbst trainiert. Die Technologie liegt im Netz, für alle verfügbar. Der “Hersteller” ist für ihre Verbreitung irrelevant. Wahrscheinlich eine Einzelperson. Du kannst – und solltest – diese App aus den Stores entfernen (da sind wir uns ja einig, s. o.), aber das ändert imo nichts an der Situation und kaum etwas an der Verfügbarkeit.
Nun die Frage: Was, wenn es keine “Undressing”-App wäre, sondern eine “Inpaint Everything!”-App, mit der man das Gleiche machen kann. Wollen wir die ebenso verbieten?

Das eigentliche “Programm” bzw. Modell ist da draußen im Netz, frei verfügbar, siehe zB Civitai als größtes Modell-Register. Die Bedienung via Web-UIs ist mittlerweile kinderleicht. Ja, die Hürde ist höher als bei einer Handy-App. Aber hunderttausende Menschen verwenden das. Wer irgendwie Interesse daran hat und nicht völlig technikavers ist, wird das hinbekommen. Jeder Gamer wird das schaffen und die Rechenpower bereits bereit haben.
Wie willst du für all das irgendwen in die Verantwortung stellen? Die Modelle sind General-Purpose-“Programme”. Die Oberflächen sind content-agnostisch. Die “Hersteller” sind Anonymos von irgendwo auf der Welt. Dafür brauchst du eine globale Internetpolizei, die das Netz von allem säubert, was für illegale Handlungen missbraucht werden kann. Das ist entweder unmöglich oder dystopisch.

Wie ich das einschränken will? Das sind illegale Handlungen, wir haben Gesetze dagegen. Du darfst nicht einfach Nacktbilder von jemandem herstellen und verbreiten. Selbstverständlich muss das verfolgt werden.
Jedoch zu glauben, man könne das an der Wurzel angehen, ist eine Illusion. Daher habe ich auch keine Lösung zum Einschränken der Technologie per se.

Stefan
Stefan
13. Juli, 2024 14:14
Reply to  Torsten Dewi

Das war an heinos Beitrag gerichtet, der wiederum an mich gerichtet sein sollte 😅. Dort war explizit von Programmen und Herstellern die Rede.

Dass das in Sachen Pornographie geht zweifle ich an. Da hat doch jedes Kind freien Zugriff drauf, jede Form der Regulierung ist gescheitert.

Last edited 1 Monat zuvor by Stefan
heino
heino
15. Juli, 2024 06:33
Reply to  Stefan

Vermutlich sind wir uns in unseren Ansichten näher, als es zunächst geklungen hat. Du hast natürlich Recht, was die Begrifflichkeiten angeht. Ich bin kein IT-Mensch, daher habe ich Begriffe benutzt, die ich für verständlich hielt. Und vielleicht haben wir uns auch einfach missverstanden. Natürlich kann man für Programme, die die User selber erstellen nicht z.B. Open AI verantwortlich machen. Aber man per Gesetz regeln, dass z.B. Open AI von vornherein die Möglichkeit einer solchen Nutzung der eigenen Produkte soweit möglich verhindert (was ja auch schon geschieht) oder im eigenen App-Store die Verbreitung solcher Propgramme unterbindet. Was dann noch Verbreitung findet, muss natürlich auf Basis der bestehenden Gesetzgebung geregelt werden.

Stefan
Stefan
17. Juli, 2024 11:58
Reply to  heino

Ja, ich denke, im Kern sind wir uns da einig. Aber ich glaube, es gibt da immer noch Missverständnisse, wie hier der “Markt” funktioniert.
Punkt 1: Bei OpenAI (Midjourney, etc.) brauchst du das nicht per Gesetz regeln. Die haben solche Angst vor KP-Skandalen, dass deren Modelle bereits massiv übermoderiert sind. Die haben keine Undress Option. Deren Produkte werden dazu nicht verwendet.
Punkt 2: Diejenigen, die ein Modell (nach)trainieren, dass es Menschen digital auszieht, sind nicht OpenAI oder MJ, sondern Kevin, der schüchterne Nerd von Gegenüber. Und sein Kumpel Ole, der darin das große Geld wittert. Die kannst du allerdings nicht vorbeugend per Gesetz regulieren.
Punkt 3: Schlussendlich wäre ein solches Gesetz auch äußerst fragwürdig. Weil es im Endeffekt bedeuten würde: Verbot von Bilderzeugungsmodellen, die primäre oder sekundäre Geschlechtsmodelle zeichnen, die anrüchige/provokante Posen zeichnen, aufreizende Kleidung, pikante Situationen und vieles mehr. Das ist mit unserer freiheitlichen Ordnung nicht zu vereinbaren.

McKingsly
McKingsly
8. Juli, 2024 07:51

“Wäre es dann nicht schon ein Verbrechen, wenn ich mit dem Filzstift Brüste auf das Cover der obigen Jasmin Wagner-CD male?”

Der Satz hat mich dann zum Nachdenken gebracht, sehr guter Einwand. Wo sollte man die Grenze setzen, das lässt sich ja beliebig “vergrauen”. Was, wenn ich die KI das als Ölgemälde erstellen lasse? Könnte ja ein begabter Maler auch aus der “Fantasie”.

Maximilian Frömter
Maximilian Frömter
8. Juli, 2024 14:44

Darüber zu debattieren ist letztlich bedeutungslos. Wenn eine neue Technologie für pornographische Fantasien genutzt werden kann, wird sie das auch werden. Legalität hin oder her.

Maximilian Frömter
Maximilian Frömter
9. Juli, 2024 10:55
Reply to  Torsten Dewi

Ich meine damit lediglich, daß so eine Debatte in der Realität zu keinerlei greifbarem Ergebnis führen wird – die millionenfache Verbreitung der Fakes mag man gesetzlich einschränken, verhindern kann man sie niemals, selbst wenn man sie letzten Endes kriminalisiert. Die Katze ist aus dem Sack. Daß sowas moralisch verwerflich ist, wird ja kein normaler Mensch bestreiten.

DSFARGEG
DSFARGEG
9. Juli, 2024 09:32

Es geht bei sowas nicht um Wichsvorlagen, außer für einen sehr geringen Teil der Bevölkerung, der z.B. Jasmin Wagner auf gruselige Weise fetischisiert. Der sehr viel größere Teil des “Nutzens” dürfte, wie du es ja auch beschreibst, auf Machtdemonstrationen hinauslaufen. Als Pornos sind die KI-Fakes sowieso ungeeignet, eben weil sie Fakes sind. Es ist ja kein Zufall, dass ausgewiesene Amateur-Pornos mit das Beliebteste auf jeder Schmuddelplattform sind. Die lassen das sexuelle Utopia als real erscheinen, das kann ein Fake nicht leisten.

Feivel
Feivel
10. Juli, 2024 16:34
Reply to  DSFARGEG

“Der sehr viel größere Teil des “Nutzens” dürfte, wie du es ja auch beschreibst, auf Machtdemonstrationen hinauslaufen”

Ich lese sowas immer wieder, insbesondere seit der Begriff “sexualisierte Gewalt” en vogue geworden ist. Die Frag ist nicht konfrontativ gemeint: Gibt es dafür irgendeinen Hinweis oder Beweis? Mein (ebenfalls unbelegter) Eindruck ist, dass es deutlich mehr Männer mit Fetischen, die sich durchaus an solchen Bildern .. erfreuen würden, gibt als solche “Macht-Machos”. Mir ist nicht klar, wo diese Idee “die meisten Männer vergewaltigen aus Machtbedürfnis statt aus sexuellem Verlangen” herkommt. Oder ist das ein ganz anderes Boot als die synthetischen Pornos?

heino
heino
11. Juli, 2024 06:52
Reply to  Feivel

Vergewaltigung ist aber etwas ganz anderes als das Erzeugen von Nacktbildern zum eigenen “Vergnügen”. Dass Vergewaltiger in der Regel eher auf Macht aus sind, ist wohl ein Ergebnis der kriminalistischen Untersuchungen socher Verbrechen mit anschließender psychologischer Begutachtung. Einen schönen Einblick, wie es zu dieser Einstufung kam, geben die Bücher von John Douglas und Mark Olshaker über die Fälle, die Douglas beim FBI bearbeitete und die u.a. die Vorlage zur Serie “Mindhunter” bildeten. Da geht es viel um Vergewaltiger und um Serienmörder, die Vergewaltigung nutzen, um sich selbst mächtig fühlen zu können

heino
heino
11. Juli, 2024 17:01
Reply to  Torsten Dewi

Gleiches Problem wie weiter oben, ich wollte eigentlich auf den Post von Feivel antworten. Entweder habe ich einen schlechten Tag oder mein Tablet spinnt

Mencken
Mencken
12. Juli, 2024 10:41

“Man stelle sich mal vor, was für Bilder in Schulen, Firmen, Vereinen kursieren können – und wie unmöglich es für die Frauen sein wird, dieser Fake-Verfügbarkeit etwas entgegen zu setzen. Abgesehen davon, dass man die Bilder nie vollständig aus der digitalen Sphäre wird löschen können – es wird plötzlich eine umgekehrte Beweislast geben, dass sie nicht doch echt sind.”

Das sehe ich nicht so. Ich erwarte eher, dass das Gegenteil eintreten wird und künftig die Beweislast,dass die Bilder wirklich echt sind, erheblich zunehmen wird.

Mencken
Mencken
12. Juli, 2024 15:19
Reply to  Torsten Dewi

Nein, ich habe das schon verstanden. Wenn der Punkt erreicht ist, an dem das Normalität geworden ist, wird die Grundannahme erstmal Fake, bzw. AI sein. Wenn ich was anderes suggerieren will, liegt die Beweislast bei mir, ansonsten wird das als “Fake News” laufen. Auf der politischen Ebene haben wir das Problem ja schon.

Mencken
Mencken
12. Juli, 2024 17:55
Reply to  Torsten Dewi

Davon rede ich auch. Die Prämisse ist doch hier, dass die Beweislast umgekehrt und das Opfer gezwungen ist, zu beweisen,dass die Bilder nicht echt sind.
Die Annahme halte ich für falsch. Ich gehe davon aus, dass der umgekehrte Fall eintritt und alle Bilder erstmal als Fakes gelten, sofern die Echtheit der Bilder nicht nachgewiesen/untermauert wird. Dementsprechend ist das Opfer auch nicht zum Widerspruch genötigt. Dies ist nur dann der Fall, wenn die Bilder zumindest als möglicherweise echt gelten könnten und das wiederum klappt nur, wenn der Täter nicht komplett anonym ist, bzw. eben versuchen muss, glaubhafte “Beweise” zu liefern.
Natürlich bleibt es ein unschöner und inakzeptabler Angriff auf das Opfer, aber “eine Realität, der widersprochen werden muss”, wird hier nicht erschaffen. Ändern wird sich stattdessen unser Verständnis davon, was glaubhafte Realität ist.

Stefan
Stefan
13. Juli, 2024 01:00
Reply to  Torsten Dewi

Ich bin da bei Mencken – ich bin mir nur nicht sicher, wie viele Opfer es braucht bis die Gesellschaft dort angekommen ist.

Und nein, wir werden nicht alle seriösen Quellen unter Generalverdacht stellen müssen. Aber wir müssen besser lernen und schulen, was eine seriöse Quelle ist. Und eine scheinbare Fotografie (und künftig auch Video) ist genau dies eben nicht mehr. An diesem Punkt sind wir aber bereits.
Und für all das brauchen wir endlich richtig gute Erziehung in Sachen Medien- und Digitalkompetenz, sonst wird es nämlich wirklich fatal.

Stefan
Stefan
13. Juli, 2024 14:52
Reply to  Torsten Dewi

Na, du hast hier aber als erster von den “seriösen Quellen” geschrieben und nun schreibst du, man könne das gar nicht definieren 😉

Ich stimme dir da aber weitgehend zu. Das ist das absolut zentrale Problem des Fake-News-Zeitalters und brandgefährlich. Ist die Tagesschau eine seriöse Quelle? Truth Social? Der Wortvogel? Ich? Zu nichts davon wird es eine einheitliche Meinung geben.

Medienkompetenz heißt für mich aber nicht, dass wir den Menschen eine staatlich abgesegnete Liste an seriösen Quellen vorlegen. Aber wir müssen schulen, was das bedeutet, warum das wichtig ist, woran man vertrauenswürdige Quellen und solche, die es nicht sind, erkennt. Wie man zweifelhafte oder unbelegte Informationen gegencheckt. Du hast journalistisch gearbeitet, du kennst das. Die neue Entwicklung ist, das wir auch lehren müssen, dass die Seriösität einer Quelle schwerer wiegt als die vermeintliche Authentizität eines digitalen Dokuments. Wir müssen klar machen, dass Bilder grundsätzlich komplett fake sein können. Das ist sehr vielen Menschen absolut nicht klar und die Gefahren, die damit einhergehen, gehen weit über die hier diskutierten hinaus. Ja, all das kann man schulen auch ohne eine absolute Definition seriöser Quellen zu haben und ich halte das für dringend notwendig.

Wenn ich zu Facebook rübergehe und dort ein “Foto” von dir poste, wie du vor weinenden Hindus lachend eine heilige Kuh verspeist, darf die Reaktion nicht blankes Entsetzen dir gegenüber sein und ein “war doch klar, der Dewi fand Religion schon immer scheiße!!!” (oder Beifall von den unangenehmen Ecken der Plattform) sondern die Frage: Wer ist dieser Stefan? Warum zur Hölle sollte ich dem das glauben? Auch ohne dass irgendwer mal definiert hat, ob ich seriös bin oder nicht.
(Bsp ist bewusst etwas lächerlich gewählt .. man weiß nie, wo so Textausschnitte landen).