ul { line-height: 1.6; }

Meta AI in WhatsApp – was steckt dahinter?📱 Datenschutzrisiken und die Anforderungen der EU KI-Verordnung

Eine Professorin zeigt ihren Studenten die neue META-Richtlinien

WhatsApp hat mit der Einführung seines KI-Chatbots „Meta AI“ eine neue Funktion integriert, die auch für Unternehmen relevante Fragen aufwirft – insbesondere im Hinblick auf Datenschutz und die kommende EU-Verordnung über Künstliche Intelligenz (AI Act).

Seit dem Frühjahr 2025 ist Meta AI Teil der WhatsApp-Oberfläche. Ein blauer Kreis am unteren Bildschirmrand führt zu einem neuen Chatbereich, in dem Nutzer Fragen stellen, Inhalte generieren oder sich bei alltäglichen Aufgaben helfen lassen können. Der Assistent basiert auf Metas Sprachmodell Llama und wird stetig weiterentwickelt. Besonders auffällig: Die Funktion lässt sich nicht deaktivieren. Selbst wenn der Chat gelöscht wird, bleibt das KI-Symbol in der App sichtbar.

Technischer Komfort – rechtliches Risiko ⚖️

Für Unternehmen, deren Mitarbeitende WhatsApp dienstlich nutzen – etwa in der Kundenkommunikation oder internen Abstimmung – ist diese KI-Integration kritisch zu hinterfragen. Auch wenn WhatsApp betont, dass 1:1-Chats weiterhin Ende-zu-Ende-verschlüsselt sind, werden alle Interaktionen mit Meta AI zentral verarbeitet – also auf Metas Servern gespeichert, analysiert und möglicherweise für KI-Trainingszwecke genutzt. 💾

Diese Datenverarbeitung betrifft auch Inhalte in Gruppenchats, sobald Meta AI angesprochen wird. Zwar bietet Meta technische Sicherungsmaßnahmen wie „Private Processing“, verschlüsselte Übertragung und eine „erweiterte Privatsphäre“-Einstellung, aber: Wo personenbezogene Daten verarbeitet werden, entstehen automatisch datenschutzrechtliche Pflichten – auch für Unternehmen, die ihre Kommunikationsinfrastruktur nicht vollständig kontrollieren.

Rechtliche Einschätzung und DSGVO-Pflichten 🔐

Die DSGVO verlangt von Unternehmen, dass sie bei jeder Verarbeitung personenbezogener Daten eine geeignete Rechtsgrundlage vorweisen können – insbesondere, wenn Drittanbieter wie Meta eingebunden sind. Im Fall von Meta AI ist nicht abschließend geklärt, ob Nutzerdaten zur Verbesserung des KI-Modells verwendet werden dürfen, ohne aktive Einwilligung. Verbraucherschützer haben Meta bereits wegen ähnlicher Praktiken bei Facebook und Instagram abgemahnt.

Besonders heikel: Personenbezogene Daten Dritter, die selbst kein WhatsApp nutzen, könnten dennoch verarbeitet werden. ❗

KI-Verordnung bringt zusätzliche Anforderungen 📋

Mit dem Inkrafttreten der EU-KI-Verordnung (AI Act) verschärfen sich die rechtlichen Rahmenbedingungen. Die Verordnung verpflichtet Unternehmen dazu, alle eingesetzten KI-Systeme zu erfassen, zu klassifizieren und – je nach Risikokategorie – unterschiedliche Compliance-Maßnahmen zu ergreifen.

Auch wenn Meta AI als geringes Risiko eingestuft werden kann, greift dennoch das Transparenzgebot der Verordnung: Unternehmen müssen offenlegen, wenn in der Kundeninteraktion KI zum Einsatz kommt. Eine einfache Kennzeichnung im Interface reicht dabei nicht immer aus.

Was Unternehmen jetzt tun sollten ✅

Die Kombination aus DSGVO und AI Act verlangt von Unternehmen einen verantwortungsvollen Umgang mit KI-Funktionen wie Meta AI. Folgende Maßnahmen sind empfehlenswert:

  1. Inventarisierung: Alle Anwendungen mit KI-Funktion erfassen. 🗂️
  2. Transparenz schaffen: Kunden und Mitarbeitende klar informieren, wenn KI zum Einsatz kommt. 🧾
  3. Rechtsgrundlage prüfen: Einwilligungen dokumentieren und Datenschutzkonzepte anpassen. 📜
  4. Datenschutz-Folgenabschätzung: DSFA nach Art. 35 DSGVO durchführen – vor allem bei sensiblen Daten. 🧪
  5. Schulungen anbieten: Mitarbeitende mit Funktionsweise und Risiken vertraut machen. 🎓
  6. Kommunikationsrichtlinien überarbeiten: Klare Regeln für den Einsatz von KI definieren. 📝
  7. Zukunftssicherheit schaffen: KI-Verantwortliche benennen und Compliance-Strukturen anpassen. 🔄

Fazit 🧩

Der Einsatz von Meta AI in WhatsApp zeigt exemplarisch, welche Herausforderungen Künstliche Intelligenz im unternehmerischen Alltag mit sich bringt. Datenschutz und Transparenzpflichten werden durch den AI Act weiter gestärkt – auch bei scheinbar einfachen Tools wie Chatbots. Unternehmen sollten jetzt handeln, um rechtssicher und zukunftsfähig zu bleiben. 🛡️

Ein Beitrag von Simone Winkler, Expertin für IT- und Datenschutzrecht

Weitere Beiträge

Nach oben scrollen