Der Einsatz von Künstlicher Intelligenz (KI) und die Datensammlung durch Online-Anbieter stehen zunehmend im Mittelpunkt datenschutzrechtlicher Diskussionen, besonders in Deutschland, wo strenge Regularien wie die Datenschutz-Grundverordnung (DSGVO) und die neue EU-KI-Verordnung (AI Act) für Klarheit sorgen sollen. Die Kombination dieser Rechtsvorschriften stellt Unternehmen vor Herausforderungen, insbesondere hinsichtlich der Sammlung, Nutzung und Verarbeitung personenbezogener Daten durch KI-Systeme.
Zunahme der Datensammlung
Moderne Technologien wie Künstliche Intelligenz (KI), maschinelles Lernen und Big Data haben in vielen Bereichen signifikante Vorteile gebracht, insbesondere in der Optimierung des Nutzererlebnisses. KI kann personalisierte Empfehlungen anbieten, wie etwa in Online-Shops oder Streaming-Diensten, was den Nutzern relevantere Inhalte bietet. Durch maschinelles Lernen können Systeme das Verhalten der Nutzer analysieren und anpassen, was zu einer höheren Zufriedenheit führt, da die Benutzeroberflächen intuitiver und personalisierter werden.
Die Integration beschleunigt außerdem Prozesse, automatisiert Aufgaben und steigert die Effizienz, was nicht nur für die Unternehmen, sondern auch für die Endnutzer von Vorteil ist. Insgesamt bieten moderne Technologien neuen Online Plattformen, sei es im Gaming, anderen Sektoren des Unterhaltungssektors oder im E-Commerce, die Möglichkeit, verbesserte Benutzeroberflächen und Kundensupport anzubieten.
Viele dieser Daten sind personenbezogen und umfassen Nutzungsverhalten, Präferenzen oder in einigen Fällen, wenn es um die Digitalisierung von medizinischen Diensten geht, auch sensible Informationen wie Gesundheitsdaten. Die DSGVO gibt klare Richtlinien vor, wie Unternehmen personenbezogene Daten sammeln, speichern und verarbeiten dürfen. Ein zentraler Aspekt ist die Einwilligung der Betroffenen (Art. 6 DSGVO) sowie das Prinzip der Datenminimierung (Art. 5 Abs. 1c DSGVO), das besagt, dass nur jene Daten erhoben werden dürfen, die für den jeweiligen Zweck notwendig sind. In Deutschland und der EU werden diese Vorgaben durch den AI Act ergänzt, der im August 2024 in Kraft getreten ist.
Neue Anforderungen durch den AI Act
Mit der Einführung des AI Acts im Jahr 2024 wird der Umgang mit KI-basierten Systemen in der EU klar geregelt. Der Rechtsrahmen sorgt dafür, dass Anbieter und Betreiber von KI-Systemen, die Daten von EU-Bürgern nutzen, die Vorschriften beachten müssen, auch wenn sie außerhalb der EU ansässig sind. Der AI Act hat einen weiten Geltungsbereich und regelt den gesamten Lebenszyklus eines KI-Systems – von der Entwicklung bis zur Nutzung.
Unternehmen, die solche Systeme nutzen oder entwickeln, müssen umfangreiche Sicherheitsmaßnahmen und technische Dokumentationen bereitstellen, um den Datenschutz zu gewährleisten. Der AI Act unterteilt KI-Systeme in vier Risikokategorien: verbotene, Hochrisiko-, limitierte und minimal riskante Systeme. Systeme, die als Hochrisiko-KI eingestuft werden, wie z. B. KI-Systeme zur Überwachung oder Bonitätsprüfung, unterliegen besonders strengen Regulierungen (Art. 6 AI Act).
Besonders betroffene Unternehmen sind jene, die sogenannte Hochrisiko-KI-Systeme einsetzen. Dies betrifft unter anderem KI-basierte Bewerbungsverfahren, Bonitätsprüfungen oder Gesichtserkennungssysteme im öffentlichen Raum. Ein Anbieter solcher Systeme muss etwa nachweisen, dass die genutzten Algorithmen nicht diskriminieren und dass die erhobenen Daten sicher verarbeitet werden.
Datensicherheit und Ethik
Die umfassende Erfassung und Nutzung von Daten durch Online-Anbieter und deren KI-Systeme birgt das Risiko von Datenmissbrauch und potenziellen Datenschutzverletzungen. Unternehmen müssen sicherstellen, dass keine Rückschlüsse auf einzelne Personen möglich sind, da dies zu erheblichen Strafen führen könnte. Verstöße gegen die DSGVO oder den AI Act können zu Bußgeldern von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen, je nachdem, welcher Betrag höher ist.
Ein weiterer zentraler Punkt ist die Frage der Datensicherheit. KI-Systeme, die auf großen Datensätzen trainiert werden, können anfällig für Sicherheitslücken sein. Wenn die Daten nicht ausreichend geschützt sind, besteht die Gefahr von Cyberangriffen oder Datenlecks, die sensible Informationen öffentlich zugänglich machen könnten.
Neben den rechtlichen Anforderungen rücken auch ethische Fragen in den Vordergrund. So sind zum Beispiel KI-Systeme, die das Verhalten von Menschen bewerten oder „Social Scoring“ betreiben, in der EU grundsätzlich verboten (Art. 5 AI Act). Auch die Verwendung von KI zur Emotionserkennung oder zur Prognose von Verhaltensmustern wird kritisch gesehen und ist ebenfalls stark eingeschränkt.
Quellen:
https://ey-law.de/de_de/news/2024/die-eu-ki-verordnung-kommt-ein-erster-ueberblick
https://www.bundesregierung.de/breg-de/themen/digitalisierung/kuenstliche-intelligenz/ai-act-2285944
- Fulfillment-Dienstleister in Deutschland: Ein umfassender Leitfaden - 4. Dezember 2024
- Rechtliche Aspekte des modularen Bauens: Was Bauherren wissen müssen - 3. Dezember 2024
- Wie gestaltest Du das perfekte Teamevent für Mitarbeiter? 6 kreative Ideen - 3. Dezember 2024