Sie verwenden einen veralteten Browser. Um im Internet auch weiterhin sicher unterwegs zu sein, empfehlen wir ein Update.

Nutzen Sie z.B. eine aktuelle Version von Edge, Chrome oder Firefox

Fit für die DSGVO finden Sie jetzt hier
News
12. Mai 2021

Zwei neue Tools schützen vor Missbrauch unserer Fotos

Gratis
US-amerikanische Universitäten entwickeln zwei Programme, die vor Gesichtserkennung im Netz schützen.
Bild: aerogondo / iStock / Getty Images Plus
4,80 (5)
Gesichtserkennung
Wie kann ich mich vor sammelwütiger Gesichtserkennungssoftware im Internet schützen? Mit den beiden neuen Software-Tools Fawkes und Lowkey, die an den US-amerikanischen Universitäten Chicago und Maryland entwickelt wurden.

Milliarden Fotos kursieren in den sozialen Medien. Ganz egal ob in Facebook, Instagram oder TikTok: Menschen zeigen sich gerne im Urlaub, im Garten, im Restaurant oder beim Feiern. Meistens mit Selfies, auf denen die Personen gut zu erkennen sind.

Sorgloser Umgang mit Fotos

Wer kann die Fotos sehen? Was kann mit den Bildern passieren? Viele Internetnutzer stellen sich diese Fragen nicht und gehen äußerst sorglos mit ihren Bildern um.

Das hat Folgen: Immer mehr Unternehmen nutzen die Fotos aus dem Netz, um Gesichtsdatenbanken aufzubauen und Algorithmen zu trainieren.

PimEyes und Clearview erstellten Datenbanken

Im letzten Jahr gab es gleich zwei solcher Fälle, die öffentliches Aufsehen erregten:

  • Die kostenlose Suchmaschine PimEyes durchsuchte das Internet nach Gesichtern und baute eine Datenbank mit rund 900 Millionen Gesichtern auf (wir berichteten).
  • Das Unternehmen Clearview AI nutzte Selfies aus öffentlich zugänglichen Quellen, um eine Gesichtsdatenbank zu erstellen, die dann an Polizeibehörden vermarktet wurde (unser Podcast dazu).

In beiden Fällen informierten die Unternehmen die Nutzer nicht über das Verwenden ihrer Bilder.

Software gibt Kontrolle zurück

Wer die Kontrolle über seine eigenen Fotos zurückhaben will, kann zwei neue Software-Tools nutzen.

Wie die Süddeutsche Zeitung berichtet, haben die US-amerikanischen Universitäten von Chicago und Maryland dafür Fawkes und Lowkey entwickelt. Bis Ende April haben bereits mehr als eine halbe Million Nutzer die Software heruntergeladen.

Filter verwirren die Algorithmen

Beide Programme versehen die Fotos mit Störungen, die nur ein paar Pixel groß sind. Sie verwirren die Algorithmen und führen die Künstliche Intelligenz (KI) in die Irre. Durch diese Störfeuer können die KI-Modelle die Bilder nicht mehr zuordnen oder missachten sie ganz.

Das Gute an der Sache ist: Das menschliche Auge nimmt die Störungen nicht wahr.

Data Poisoning wirkt

Das „Data Poisoining“ – wie Forscher die Störfeuer wegen der Vergiftung der Daten nennen – ist laut Angaben der Entwickler aktuell bei allen gängigen großen Bilderkennungsmodelle wirksam. „Ich habe einfach etwas dagegen, wenn Leute sich etwas nehmen, das ihnen nicht zusteht“, erklärte Emily Wenger, eine der Entwicklerinnen der Tools, gegenüber der Süddeutschen Zeitung.

Mehr Informationen:

Elke Zapf
Verfasst von
Elke Zapf
Elke Zapf

ist freiberufliche Kommunikationsexpertin und Journalistin. Ihre Schwerpunkte sind Wissenschaft, Forschung, nachhaltiger Tourismus und Datenschutz.

Sie hat mehr als 20 Jahre Erfahrung in der Pressearbeit, Unternehmenskommunikation, Öffentlichkeitsarbeit und Wissenschaftskommunikation.

Zehn Jahre leitete sie die Hochschulkommunikation der Technischen Hochschule Nürnberg und war Pressesprecherin der Hochschule. Davor leitete sie den Sachbereich Presse- und Öffentlichkeitsarbeit des Bayerischen Landesamts für Gesundheit und Lebensmittelsicherheit.

Das journalistische Handwerkszeug lernte sie ganz klassisch bei einem Redaktionsvolontariat direkt nach dem Studium der Politischen Wissenschaften.

Kontakt:

https://www.zapf-kommunikation.de/

Kommentar abgeben

0 Kommentare
Vielen Dank! Ihr Kommentar muss noch redaktionell geprüft werden, bevor wir ihn veröffentlichen.