Künstliche Intelligenz (KI) soll unseren Alltag erleichtern. Doch welche Daten werden dabei für welchen Zweck verarbeitet? Und stellen Verantwortliche sicher, dass ihre KI-Systeme datenschutzkonform sind? Antworten gibt die französische Aufsichtsbehörde für den Datenschutz.
Die Idee hinter „synthetischen Daten“ besteht darin, einen ursprünglichen Datensatz zu verwenden und daraus neue, künstliche Daten mit ähnlichen statistischen Eigenschaften zu erstellen. KI-Modelle sollen sich auf diese Weise datenschutzfreundlich trainieren lassen.
Das Betriebsrätemodernisierungsgesetz klärt die Frage, ob der Betriebsrat ein eigener Verantwortlicher ist oder nicht. Außerdem erlaubt es virtuelle Betriebsratssitzungen und regelt die Mitbestimmung beim Einsatz von Künstlicher Intelligenz und bei mobiler Arbeit.
Datenschutz-Software kann wesentlich dazu beitragen, die DSGVO umzusetzen. Was die jeweiligen Tools jedoch genau leisten und was die Beschäftigten weiterhin manuell tun müssen, sollte genau bekannt sein.
Der Tätigkeitsbericht des Landesbeauftragten für den Datenschutz Baden-Württemberg beschäftigt sich mit zahlreichen spannenden Themen, etwa mit dem Einsatz künstlicher Intelligenz im Personalwesen, der Auslegung der Auskunftspflicht und mit den datenschutzrechtlichen Herausforderungen in Zeiten der Pandemie.
Sie begegnen einem immer öfter beim Surfen auf Webseiten oder bei Bestellvorgängen im E-Commerce: sogenannte Chatbots. Was müssen Verantwortliche datenschutzrechtlich beachten, wenn sie solche
Dialogsysteme mit „sprachlichen Fähigkeiten“ einsetzen?
Bei KI-Verfahren fehlt meist die Transparenz, wie sie personenbezogene Daten verarbeiten. Zudem erfolgt die Datenverarbeitung oft in einem US-Cloud-Dienst. KI-Chips könnten dies ändern, indem sie Teile der KI-basierten Datenverarbeitung direkt auf den Geräten ermöglichen.
Der Bayerische Landesbeauftragte für den Datenschutz (BayLfD), Prof. Dr. Thomas Petri, stellte gestern den Tätigkeitsbericht 2019 seiner Behörde vor. Der BayLfD ist für den öffentlichen Bereich zuständig. Ein Schwerpunkt ist das Thema Datenschutz im Bereich Künstlicher Intelligenz, kurz KI.
Um Ausgangsbeschränkungen durchzusetzen und Infektionsketten nachzuverfolgen, setzen einige Länder auf technische Mittel wie Gesichtserkennung und KI. Auch vor der Corona-Krise war die Sammelwut von Biometrie-Anbietern wie Clearview AI in die Schlagzeilen geraten. Im Interview mit Prof. Dr. Johannes Caspar, Hamburgischer Beauftragter für Datenschutz und Informationsfreiheit, sprechen wir über die Chancen und Risiken von Gesichtserkennung und KI.
Die EU-Kommission hat sich auf Grundprinzipien für die Regulierung von Künstlicher Intelligenz (KI) verständigt. In Einsatzbereichen mit hohem Risiko wie Gesundheit, Polizei oder Verkehr sollen KI-Systeme transparent und nachvollziehbar sein, heißt es im europäischen KI-Konzept.