News
/ 12. Mai 2021

Zwei neue Tools schützen vor Missbrauch unserer Fotos

Wie kann ich mich vor sammelwütiger Gesichtserkennungssoftware im Internet schützen? Mit den beiden neuen Software-Tools Fawkes und Lowkey, die an den US-amerikanischen Universitäten Chicago und Maryland entwickelt wurden.

Milliarden Fotos kursieren in den sozialen Medien. Ganz egal ob in Facebook, Instagram oder TikTok: Menschen zeigen sich gerne im Urlaub, im Garten, im Restaurant oder beim Feiern. Meistens mit Selfies, auf denen die Personen gut zu erkennen sind.

Sorgloser Umgang mit Fotos

Wer kann die Fotos sehen? Was kann mit den Bildern passieren? Viele Internetnutzer stellen sich diese Fragen nicht und gehen äußerst sorglos mit ihren Bildern um.

Das hat Folgen: Immer mehr Unternehmen nutzen die Fotos aus dem Netz, um Gesichtsdatenbanken aufzubauen und Algorithmen zu trainieren.

PimEyes und Clearview erstellten Datenbanken

Im letzten Jahr gab es gleich zwei solcher Fälle, die öffentliches Aufsehen erregten:

  • Die kostenlose Suchmaschine PimEyes durchsuchte das Internet nach Gesichtern und baute eine Datenbank mit rund 900 Millionen Gesichtern auf (wir berichteten).
  • Das Unternehmen Clearview AI nutzte Selfies aus öffentlich zugänglichen Quellen, um eine Gesichtsdatenbank zu erstellen, die dann an Polizeibehörden vermarktet wurde (unser Podcast dazu).

In beiden Fällen informierten die Unternehmen die Nutzer nicht über das Verwenden ihrer Bilder.

Software gibt Kontrolle zurück

Wer die Kontrolle über seine eigenen Fotos zurückhaben will, kann zwei neue Software-Tools nutzen.

Wie die Süddeutsche Zeitung berichtet, haben die US-amerikanischen Universitäten von Chicago und Maryland dafür Fawkes und Lowkey entwickelt. Bis Ende April haben bereits mehr als eine halbe Million Nutzer die Software heruntergeladen.

Filter verwirren die Algorithmen

Beide Programme versehen die Fotos mit Störungen, die nur ein paar Pixel groß sind. Sie verwirren die Algorithmen und führen die Künstliche Intelligenz (KI) in die Irre. Durch diese Störfeuer können die KI-Modelle die Bilder nicht mehr zuordnen oder missachten sie ganz.

Das Gute an der Sache ist: Das menschliche Auge nimmt die Störungen nicht wahr.

Data Poisoning wirkt

Das „Data Poisoining“ – wie Forscher die Störfeuer wegen der Vergiftung der Daten nennen – ist laut Angaben der Entwickler aktuell bei allen gängigen großen Bilderkennungsmodelle wirksam. „Ich habe einfach etwas dagegen, wenn Leute sich etwas nehmen, das ihnen nicht zusteht“, erklärte Emily Wenger, eine der Entwicklerinnen der Tools, gegenüber der Süddeutschen Zeitung.

Mehr Informationen:

Elke Zapf