Naked on the Net: How Algorithms Strip Our Images 🇺🇸 🇩🇪

Naked on the Net: How Algorithms Strip Our Images 🇺🇸 🇩🇪

The days when humans decided on the appropriateness of images are long gone. Today, algorithms scan our photos for every square centimeter of skin. And it's frighteningly simple, as I'll show you in this article.

 

Dieser Artikel auf Deutsch ›

Recently, I came across a formula for automatic skin detection in photos. JavaScript, really just a few lines of code — and it was done. You can try it yourself below in this blog post. I was also surprised when I realized how simple the basic technology actually is.

Complete Simplified Skin Detection Code

Of course, major platforms like Instagram & Co. employ much heavier artillery. Their AI-powered systems don't just recognize skin colors; they also scan for nipples, classify body regions, and have facial recognition in their back pocket anyway.

Modern content moderation systems are far smarter than a simple color filter. They recognize body shapes regardless of color, analyze textures and contours, and thanks to deep learning, they've been trained on millions of images in all imaginable variations.

Even semantic segmentation allows them to understand the entire image context. AI is no longer fooled by this. The same technology that can detect skin cancer in medicine is being repurposed here to censor artistic expression.

Easily detected skin …
… but not when the room is colored in shades of skin

Wait a minute. Have you noticed that we now live in a world where algorithms decide whether a photo is "decent"?

The irony: The more platforms filter, the more they actually criminalize normal behaviors. Even harmless snapshots become potentially suspicious material. We all become suspects.

Completely harmless photos get blocked because too much skin is visible. A portrait on the beach? Could be suggestive. Nude photography with censorship bars? Watch out!

The question is: What came first? The compulsion for excessive control or the "offensive" material? And who makes these decisions? And who is being protected?

The system reminds me frighteningly of times we thought we had overcome.

Constant surveillance, automated suspicions, preemptive obedience — ring any bells? The Stasi would have been delighted with today's technical possibilities.

As a photographer, I experience daily how this automation restricts artistic freedom. It would be so simple: understand context, apply human judgment, distinguish art from provocation. But algorithms can't do that — no matter how complex they are.

With my simple JavaScript tool, I can show you how easily skin detection already works. Red-marked areas that the algorithm classifies as "critical" — that's basically all there is to it. Of course, as mentioned, the major platforms use more sophisticated systems, but the basic principle remains the same.

Test it yourself with the tool here in the article. And be surprised by what the algorithm classifies as "questionable."

Simplified Skin Detection

The tool works completely locally in your browser. Your images don't leave your computer when you try the tool.

 


Nackt im Netz: Wie Algorithmen unsere Bilder ausziehen

Die Zeiten, in denen Menschen über die Angemessenheit von Bildern entschieden, sind längst vorbei. Heute scannen Algorithmen unsere Fotos nach jedem Quadratzentimeter Haut. Und das ist erschreckend einfach, wie ich Ihnen in diesem Artikel zeige.

Neulich stieß ich auf eine Formel für die automatische Erkennung von Hautpartien in Fotos. JavaScript, wirklich nur ein paar Zeilen Code — fertig war die Laube. Sie können es in diesem Blogartikel selbst ausprobieren. Ich war auch überrascht, als ich merkte, wie simpel die grundlegende Technik eigentlich ist.

Kompletter vereinfachter Code zur Hauterkennung

Klar, die großen Plattformen wie Instagram & Co. fahren deutlich schwerere Geschütze auf. Deren KI-gestützte Systeme erkennen nicht nur Hautfarben, sondern scannen auch gleich nach Nippeln, klassifizieren Körperregionen und haben die Gesichtserkennung eh schon in der Hosentasche.

Die modernen Content-Moderationssysteme sind längst schlauer als ein simpler Farbfilter. Sie erkennen Körperformen unabhängig von der Farbe, analysieren Texturen und Konturen, und dank Deep Learning wurden sie mit Millionen von Bildern in allen erdenklichen Varianten trainiert.

Sogar die semantische Segmentierung erlaubt es ihnen, den gesamten Bildkontext zu verstehen. Die KI lässt sich davon nicht mehr täuschen. Dabei wird die gleiche Technologie, die in der Medizin Hautkrebs erkennen kann, hier zweckentfremdet, um künstlerische Ausdrucksformen zu zensieren.

Kein Problem bei der Hauterkennung …
… es sei denn, der ganze Raum ist hautfarben

Moment mal. Ist Ihnen auch schon aufgefallen, dass wir mittlerweile in einer Welt leben, in der Algorithmen darüber entscheiden, ob ein Foto "anständig" ist?

Die Ironie dabei: Je mehr die Plattformen filtern, desto mehr kriminalisieren sie eigentlich normale Verhaltensweisen. Selbst aus harmlosen Schnappschüssen wird potentiell verdächtiges Material. Wir alle werden zu Verdächtigen.

Da werden völlig harmlose Fotos gesperrt, weil zu viel Haut zu sehen ist. Ein Porträt am Strand? Könnte ja anzüglich sein. Aktfotografie mit Zensurbalken? Aufpassen!

Die Frage ist dabei: Was war zuerst da? Der Zwang zur übertriebenen Kontrolle oder das "anstößige" Material? Und wer trifft die Entscheidungen? Und wer wird dabei eigentlich geschützt?

Dabei erinnert mich das System erschreckend an Zeiten, die wir eigentlich überwunden glaubten.

Ständige Überwachung, automatisierte Verdächtigungen, vorauseilender Gehorsam — klingelt da was? Die Stasi hätte ihre helle Freude an den technischen Möglichkeiten von heute.

Als Fotograf erlebe ich täglich, wie diese Automatisierung künstlerische Freiheit einschränkt. Dabei wäre es so einfach: Kontext verstehen, menschliches Urteilsvermögen einsetzen, Kunst von Provokation unterscheiden. Aber das können Algorithmen eben nicht — egal wie komplex sie sind.

Mit meinem simplen JavaScript-Tool kann ich Ihnen zeigen, wie einfach Hauterkennung schon funktioniert. Rot markierte Bereiche, die der Algorithmus als "kritisch" einstuft — mehr ist es im Kern nicht. Natürlich nutzen die großen Plattformen wie bereits erwähnt ausgeklügeltere Systeme, aber das Grundprinzip bleibt das gleiche.

Testen Sie es selbst. Und lassen Sie sich überraschen, was der Algorithmus alles als "bedenklich" einstuft. Das Tool arbeitet komplett lokal in Ihrem Browser. Ihre Bilder verlassen nicht Ihren Computer, wenn Sie das Tool ausprobieren.

Navigate