The Digital Fig Leaf Madness 🇺🇸 🇩🇪

The Digital Fig Leaf Madness 🇺🇸 🇩🇪

Last Monday, I found myself once again at my computer, engaged in an epic battle with Adobe's artificial intelligence. You probably know the drill: you just want to quickly edit a photo for your blog, but the AI has decided to play moral guardian for the day.

 

Dieser Artikel auf Deutsch ›

"We're sorry," Photoshop informed me with the condescension of an overzealous bouncer, "but nudity has been detected."

Oh really? In a nude photograph? Who would have thought! And this despite being a paying Adobe customer. But apparently, that doesn't qualify me to actually use the software I'm paying for.

Photoshop refuses to work

Fine then, Plan B: I copy the image, dutifully censor it with a color overlay like a schoolboy in detention, let the AI do its thing, and then paste the original back in. A digital game of hide-and-seek that makes about as much sense as wearing a bikini in a sauna. But hey, the artificial intelligence is happy — and isn't that what really matters in the end?

And here's the best part: When I tried to tell an AI about my troubles, it seriously gave me the digital version of "Sorry, I can't help you with that" — presumably afraid of frying its circuits with my not-safe-for-work words. The irony that even a conversation about censorship gets censored seemed to dawn on only me. Maybe I should replace all nipples in the text with asterisks first, so the artificial intelligence dares to speak with me.

Then comes the next act in this comedy of errors: I dare to use the word "nude" on Patreon — where, by the way, I already had to jump through an authentication obstacle course stricter than entering some countries. PLOP! A warning window pops up as if I'd just entered the nuclear launch codes. "Potentially community guidelines violating content detected! Our Trust & Safety Team will review this." Right. Censorship in a text. About nude photography. For adults. On a platform for nude photography. Behind a paywall.

In the past, there were at least real people in the Philippines deciding what was acceptable and what wasn't (not that this made it any better). Today, AI does it — faster, more efficient, and above all: dumber. It blocks accounts like Angelique's, flags harmless images as "inappropriate," and hands out digital house bans faster than an over-anxious elementary school principal.

Instagram Account Restriction
The forbidden picture enlarged for you

The most absurd part? Nobody seems to know exactly who's supposed to be protected from what here. Politics doesn't care, the platforms point to their community guidelines, and these guidelines seem to come from a prudish era when table legs were still covered with little skirts.

And so here I sit, a photographer in 2025, playing digital hide-and-seek with algorithms. I trick, deceive, and disguise, just to do my job. A job that, by the way, is as old as art itself. But you already knew that.

 


Der digitale Feigenblatt-Wahnsinn

Am Montag saß ich wieder einmal vor meinem Computer und führte einen epischen Kampf mit der künstlichen Intelligenz von Adobe. Sie kennen das bestimmt: Man will nur schnell ein Foto für den Blog bearbeiten, aber die KI hat entschieden, dass sie heute den Blockwart spielen möchte.

"Tut uns leid", teilte mir Photoshop mit der Herablassung eines übereifrigen Türstehers mit, "aber hier wurde Nacktheit erkannt."

Ach was, wirklich? In einem Aktfoto? Wer hätte das gedacht! Dabei bin ich zahlender Kunde bei Adobe. Aber offenbar qualifiziert mich das noch lange nicht dafür, die Software auch tatsächlich zu nutzen.

Photoshop verweigert zu arbeiten

Also gut, Plan B: Ich kopiere das Bild, zensiere es brav mit einer Farbfläche wie ein Schuljunge, der nachsitzen muss, lasse die KI ihr Ding machen und füge dann das Original wieder ein. Ein digitales Versteckspiel, das ungefähr so sinnvoll ist wie ein Bikini in der Sauna. Aber hey, die künstliche Intelligenz ist zufrieden — und ist es nicht das, was am Ende zählt?

Und das Beste kommt noch: Als ich einer KI von meinen Leiden erzählen wollte, gab sie mir allen Ernstes lapidar zurück: "Tut mir leid, da kann ich Ihnen leider nicht helfen" — vermutlich hatte sie Angst, sich an meinen nicht-jugendfreien Worten die Schaltkreise zu verbrennen. Was für eine Ironie, wenn selbst ein Gespräch über Zensur zensiert wird! Wahrscheinlich müsste ich erst alle Nippel im Text durch Sternchen ersetzen, damit die künstliche Intelligenz sich traut, mit mir zu sprechen.

Dann der nächste Akt in dieser Komödie der Irrungen: Ich wage es, auf Patreon— wo ich übrigens bereits durch einen Authenti­fizierungs­parcours springen musste, der strenger ist als die Einreise in manche Länder — das Wort "nude" zu verwenden. PLOP! Ein Warnfenster springt auf, als hätte ich gerade den nuklearen Startcode eingegeben. "Möglicherweise gegen unsere Community-Richtlinien verstoßender Inhalt gefunden! Unser Trust & Safety Team wird dies prüfen." Aha. Zensur in einem Text. Über Aktfotografie. Für Erwachsene. Auf einer Plattform für Aktfotografie. Hinter einer Paywall.

Früher gab es dafür wenigstens noch echte Menschen auf den Philippinen, die entschieden, was geht und was nicht (das machte es natürlich nicht besser). Heute macht das die KI — schneller, effizienter und vor allem: dümmer. Sie sperrt Konten wie das von Angelique, markiert harmlose Bilder als "anstößig" und verhängt digitale Hausverbote schneller als ein übernervöser Grundschuldirektor.

Instagram Konto-Einschränkung
Das verbotene Foto für Euch in groß

Das Absurdeste daran? Niemand scheint so recht zu wissen, wer hier eigentlich vor was geschützt werden soll. Die Politik kümmert es nicht, die Plattformen verweisen auf ihre Community Guidelines, und diese Guidelines wiederum scheinen von einem prüden Zeitalter zu stammen, in dem man Tischbeinen noch Röckchen anzog.

Und so sitze ich hier, ein Fotograf im Jahr 2025, und spiele digitales Verstecken mit Algorithmen. Ich trickse, täusche und tarne, nur um meiner Arbeit nachgehen zu können. Eine Arbeit, die übrigens so alt ist wie die Kunst selbst. Aber das wissen Sie ja.

Navigate