Zu meiner Schulzeit wurden mir Beispiele gezeigt, in denen die Chinesische Führung in Ungnade gefallene Funktionäre aus offiziellen Fotos herausretuschieren lies. Das war vor der Zeit der Digitalkameras und digitaler Bildbearbeitung, entsprechend aufwendig war das damals. Entgegen den Möglichkeiten hat man sich darüber hinaus entschieden, die Bilder so zu retuschieren, dass man sieht, dass da eine Lücke in den Reihen ist, um zu verdeutlichen „der ist da nicht mehr, weil er sich falsch verhalten hat“. Das waren oft genug hingerichtete Personen, die Message war also recht deutlich.
Dann wurden die Bilder digital, und mit der entsprechenden Zeit und passenden Ausbildung konnten die Profis Bilder sehr beeindruckend manipulieren, so dass of genug das bearbeitete Bild nur noch vage mit der Realität verbunden war. Wie echt Pizzastücke als Fotomodels sind, mag fraglich sein, aber tatsächlich würde ich es nicht ausschließen wollen. Aber dass praktische jede Vorlage zum „perfekten Model“ werden kann, sollte inzwischen den meisten klar sein, und selbst wirklich schöne Frauen werden weiteroptimiert bis zu einem völlig unrealistischen Schönheitsideal.
Bei aller technischen Weiterentwicklung, für all das brauchte es immer noch Profis, zumindest, wenn es wirklich „perfekt“ aussehen sollte.
Google ändert das jetzt: It’s Official: AIs are now re-writing history | Robert Elliott Smith
Um das klar zustellen. Google nimmt einen Satz Bilder, entscheidet (vollautomatisch und nur auf Basis von Algorithmen!) welche Teilbilder jeweils das optimum bei bestimmten Teilen darstellt und erstellt aus all den Einzelteilen dann ein „optimales“ Ergebnis. Und das binnen Sekunden!
Mancher wird sagen: naja, so wild ist das nicht, Voraussetzung sind ja genügend ähnliche Bilder um genügend Rohmaterial zu haben, und kleistert daraus das optimum zusammen.
Tatsächlich ist es aber sehr viel schlimmer:
- Dank der massiven Verbreitung von Smartphones und den vergleichsweise geringen Preisen selbst hochwertiger Kameras gibt es zumindest von „wichtigen“ bzw. „öffentlichen“ Ereignissen hunderte, wenn nicht tausende Fotos. Über „Auto-Upload“ landen viele davon umgehend auf Google-Servern. Rohmaterial gibt es also genug.
- Voraussetzung für das puzzlen ist, dass der Algorithmus
– Personen als solche erkennt
– Personen auf verschiedenen Aufnahmen wiedererkennt
– Körperteile vom Hintergrund unterscheiden kann und den Personen zuordnen kann
– Mimik und Gestik deuten kann - Auch Blickwinkel werden erkannt und korrigiert, ebenso Farbkorrektur, Helligkeit usw.
Auf Basis dieser Fähigkeiten ist bereits eine Menge möglich! Derzeit werden der AI vergleichsweise harmlose Aufgaben gestellt, etwa „zeige maximale Harmonie und maximale Glücklichkeit bei allen abgebildeten Personen“. Aber auf der Basis dieser Fähigkeiten können auch ganz andere Aufgaben definiert werden. Und in Sekundenschnelle abgearbeitet werden.
Wenn es der richtige einprogrammiert, zeigt Google+ nur noch Bilder von glücklichen Franzosen und finsteren Deutschen, und bei Staatsempfängen verweigert Merkel Hollande stets den Handschlag. Das wird das Bild sein. Egal, wo man sich das Bild ansieht, solange man die Zielseite nur über Google aufruft.
Egal, was die Realität war…