Künstliche Intelligenz (KI) ist in der Breite der Unternehmen angekommen. Dies führt schnell zur Frage, wie sich ein solches Produkt für einen datenschutzkonformen Einsatz kontrollieren lässt. Hier gibt es Synergien zwischen DSGVO und KI-VO.
Ein Video erstellen und dabei die Stimme eines bekannten Menschen verwenden? KI macht das locker möglich. Aber wehe, wenn der bekannte Mensch damit nicht einverstanden ist! Dann kann es teuer werden.
Immer mehr Unternehmen setzen in vielen Bereichen auf künstliche Intelligenz (KI). Hinsichtlich des Datenschutzes sorgt das durchaus für Probleme. Betreibt man KI-Anwendungen lokal, sieht das zwar etwas anders aus. Aber auch hier gilt es einiges zu beachten.
Die Einführung von Tools, die mit KI-Funktionen werben, erzeugt in der Praxis teils erhebliche Aufwände. Denn Prüfprozesse sind oft noch nicht etabliert. Zur gezielten und effizienten Gestaltung von Prüfungen ist es daher umso wichtiger, zunächst zu klären, ob es sich tatsächlich um künstliche Intelligenz handelt.
Ist es nicht wunderbar, dass wir keine Protokolle von Videokonferenzen manuell erstellen müssen? Schließlich gibt es tolle „Notetaker“-Tools, die uns die Arbeit abnehmen – einfach topp! Doch die Werkzeuge bergen Datenschutztücken.
Die Integration von künstlicher Intelligenz (KI) in Browser schreitet zügig voran. Dazu kommen externe Erweiterungen und neue Browser, die ganz auf KI-Nutzung ausgerichtet sind. Hier gilt es einiges zu beachten und in Datenschutzschulungen zu transportieren.
Für den Datenschutz erscheint es vorteilhaft, wenn eine künstliche Intelligenz (KI) nicht in der Cloud, sondern lokal auf dem eigenen Endgerät läuft. Bei genauerer Betrachtung zeigt sich, dass dabei neue Risiken für den Datenschutz entstehen und die Datensicherheit gefährdet sein kann.
Die KI-Kompetenz ist seit dem 02.02.2025 Pflicht! In der Praxis ist damit die Frage verbunden, was das genau heißt. Bedeutet es etwa auch, einen KI-Beauftragten haben zu müssen? Der Beitrag erläutert die Pflicht und stellt sie in den Kontext weiterer Regelungen des AI Act.
Kürzlich sorgte das chinesische Unternehmen DeepSeek mit seinem KI-Sprachmodell R1 für Aufsehen. Das Modell soll ähnlich gut sein wie ChatGPT von OpenAI, aber deutlich effizienter. Stellt DeepSeek ein Datenschutzrisiko oder eine Chance dar?