Datenschutz und Ethik: Was darf KI?

08.01.2021IT & Telekommunikation

von Christian Brennholt und Dr. Katharina Ludewig

Sprachassistenten, Face-ID, intelligente Häuser, selbstfahrende Autos: Künstliche Intelligenz begegnet uns überall. Aber was steckt eigentlich dahinter? Eine anerkannte und einheitlich verwendete Definition für Künstliche Intelligenz (KI) gibt es nicht. Vereinfacht handelt es sich dabei um die Automatisierung von Entscheidungsvorgängen basierend auf Algorithmen.

Der Einsatz und die Verwendung von KI birgt spannende Ansätze, die das tägliche (Arbeits-)Leben erleichtern oder auch eine hohe Präzision versprechen, so beispielsweise im Gesundheitswesen (Diagnostik, Operationsroboter, Decision Making Systeme etc.). Auf der anderen Seite schürt das Thema „Digitalisierung und KI“ Sorgen, die ernst genommen und überdacht werden müssen. Dazu zählt etwa die Angst, Opfer einer nicht vorurteilsfreien oder einer nicht transparenten maschinellen (Fehl-)Entscheidung zu werden.

Herausforderungen
Per se sind Algorithmen weder gut noch schlecht. Algorithmen verarbeiten (oft personenbezogene) Daten – sowohl beim Aufsetzen und Training von KI als auch bei der Verwendung. Risiken können dabei auf verschiedenen Ebenen entstehen: So hat ein KI-basiertes System für Bewerberauswahlverfahren in den USA Frauen nicht als Bewerberinnen berücksichtigt. Hintergrund war, dass die der KI zugrundeliegenden Datensätze entsprechend der tatsächlichen Belegschaftszusammensetzung überwiegend Männer als erfolgreiche Mitarbeiter erkannte. In einem anderen Beispiel wurde in Australien einem Muttersprachler wegen mangelnder Englischkenntnisse keine Einwanderungserlaubnis erteilt. Der irische Akzent wurde vom automatisierten Sprachtest nicht erkannt. Diese Beispiele zeigen, wie wichtig es ist, auf Algorithmen basierende KI-Systeme erklärbar, transparent und nachvollziehbar zu gestalten und zu verwenden, um Risiken wie etwa Diskriminierung zu vermeiden. Und es stellt sich die Frage nach den gesetzlichen Rahmenbedingungen.

Maßstab sind die Grundrechte
Durch KI getroffene oder unterstützte Entscheidungen betreffen alle Lebensbereiche und können dadurch direkt in die Grundrechte von Menschen eingreifen. Dazu zählen beispielsweise das Recht auf freie Meinungsäußerung, Versammlungsfreiheit, Achtung der Menschenwürde und das Recht auf informationelle Selbstbestimmung. Verbraucherschutz-, Datenschutz- und andere Gesetze sind als Garanten für einen wirksamen Schutz im Lichte dieser Grundrechte auszulegen. KI-Systeme müssen an diesem Standard gemessen werden. Im Spannungsfeld zwischen technischen Möglichkeiten und rechtlichen Vorgaben darf aber auch der moralische Kompass nicht übersehen werden: Dem „Recht, etwas zu tun“ steht „das Richtige tun“ zur Seite.

Im Datenschutz verankerte Grundsätze
Aus dem Datenschutzrecht kommt die Anforderung, dass sich die Datenverarbeitung an einen zuvor festgelegten und rechtmäßigen Zweck halten muss, der nur unter spezifischen Bedingungen geändert werden kann. Damit werden insbesondere selbst lernenden, die Daten eventuell für neue Zwecke verarbeitenden Systemen Grenzen gesetzt. Die Daten müssen zudem in einer für die Person transparenten und nachvollziehbaren Weise verarbeitet werden. Nur so kann verhindert werden, dass die KI als eine „Black Box“ erscheint. In dieselbe Richtung geht auch das in der Datenschutz-Grundverordnung (DSGVO) geregelte Recht, nicht einer vollständig automatisierten Entscheidung unterworfen zu werden. Dahinter steckt die Idee, dass ein Mensch eher als eine Maschine in der Lage sein wird, fehlerhafte oder eventuell diskriminierende Entscheidungen zu erkennen und zu korrigieren. Als Ausdruck der Garantie der Würde des Menschen (Art. 1 Abs. 1 Grundgesetz) wird hier eine Regelung im Datenschutz geschaffen, die verhindern soll, dass der Mensch zum Objekt einer künstlichen Intelligenz gemacht wird. Ebenfalls in der DSGVO ist der Grundsatz der Datenminimierung verankert. Hieraus folgt etwa, dass möglichst anonyme Daten oder Testdaten anstelle von „echten“ Daten verwendet werden sollen. Schließlich enthält die DSGVO Regelungen zur Sicherheit der Datenverarbeitung durch die Implementierung geeigneter technischer und organisatorischer Maßnahmen. Hierzu zählen auch Maßnahmen zur Pseudonymisierung, Verschlüsselung oder Anonymisierung von Daten. Um sicherzustellen, dass die genannten Grundsätze bereits bei der Planung der KI und ihrer Wirkweise berücksichtigt werden, hat die DSGVO dem Verantwortlichen das sogenannte „Datenschutz by design“ auferlegt sowie die Verpflichtung, bei Datenverarbeitungen mit voraussichtlich hohem Risiko für den Einzelnen eine Datenschutz-Folgenabschätzung vorzunehmen. Abhängig von den möglichen Risiken oder der Sensibilität der betroffenen Daten müssen die getroffenen Maßnahmen zur Begegnung solcher Risiken dokumentiert werden.

Ethische Kriterien
Nicht nur die Datenethikkommission der Bundesregierung, auch die deutschen (siehe etwa die Hambacher Erklärung der Datenschutzkonferenz) und internationalen (siehe die Declaration on Ethics and Data Protection in Artificial Intelligence der ICDPPC) Datenschutzaufsichtsbehörden
sowie die EU sprechen sich für die Schaffung eines einheitlichen Konzepts unter Berücksichtigung ethischer Fragen für KI-Systeme aus. In ihrem „Weißbuch zur künstlichen Intelligenz“ heißt es: „Angesichts der erheblichen Auswirkungen, die KI auf unsere Gesellschaft und die notwendige Vertrauensbildung haben kann, ist es von entscheidender Bedeutung, dass die europäische KI auf unseren Werten und Grundrechten wie Menschenwürde und Schutz der Privatsphäre fußt.” Im Wesentlichen geht es dabei um die Forderung, KI-Systeme mittels einer so genannten „Ethik by Design“ so zu gestalten und zu trainieren, dass sie beim späteren Einsatz folgende Anforderungen erfüllen:

1) Keine Degradierung des Menschen zum bloßen Objekt/Gewährleistung menschlicher Aufsicht,
2) Sicherheit durch angemessene technische und organisatorische Standards,
3) Datenschutz und -qualität,
4) Transparenz (Erklärbarkeit und Nachvollziehbarkeit),
5) Nichtdiskriminierung und Fairness,
6) gesellschaftliches und ökologisches Wohlergehen
7) und Verantwortlichkeit im Sinne einer Rechenschaftspflicht.

Fazit
KI-Systeme sind Teil unseres Lebens und ihr Einfluss wächst. Marktentwicklung und Innovationen können und sollen nicht blockiert werden. Das Ziel muss es sein, rechtliche und ethische Grundlagen mit einem technikund innovationsfreundlichen Rahmen für die (Weiter-) Entwicklung von KI zu verbinden. Inwieweit die bestehenden gesetzlichen Rahmenbedingungen für dieses Ziel ausreichen, hängt entscheidend von der weiteren technischen Entwicklung und der gesellschaftlichen Diskussion in diesem Bereich ab. Auf nationaler Ebene stellen u.a. die Erklärung der Datenethikkommission, die Hambacher Erklärung oder das Positionspapier der Datenschutzkonferenz gute Leitlinien da. Das Weißbuch zur Künstlichen Intelligenz zeigt auf EU-Ebene ebenfalls gute Ansätze. Wir dürfen aber nicht vergessen, dass (Daten-)Ethik subjektive, kulturelle und kontextgebundene Elemente beinhaltet. Eine Einigung auf über die EU hinausgehende internationale Grundprinzipien wäre daher begrüßenswert.

 

Ziel muss es sein, rechtliche und ethische Grundlagen mit einem technik- und innovationsfreundlichen Rahmen für die (Weiter-)Entwicklung von KI zu verbinden.

Christian Brennholt, Global Deputy Chief Privacy Officer, Coca-Cola
Dr. Katharina Ludewig, Privacy Counsel EMEA & Global Marketing, Coca-Cola