Skip to content
Suchen Sie nach Produkten und Lösungen von InterSystems, Karrieremöglichkeiten und mehr.

Künstliche Intelligenz und Ethik: Anforderungen für vertrauenswürdige Entscheidungen

Vertrauenswürdige KI
Bevor künstliche Intelligenz im Hinblick auf ihre Entscheidungen vertrauenswürdig ist, muss sie erst einige Anforderungen erfüllen.

Viele Unternehmen streben danach, sich stets ethisch korrekt zu verhalten. Voraussetzung dafür ist es, dem Prinzip in allen Bereichen im Unternehmen zu folgen. Zugleich kommt es darauf an, das eigene Handeln immer wieder zu hinterfragen und zu überprüfen. In dieser Hinsicht stellen die Entwicklung und der Einsatz von künstlicher Intelligenz (KI) jedoch ein Problem dar.

Gefahr der KI

Derzeit ist es als Mensch oft nicht möglich, die Entscheidungen einer KI nachzuvollziehen. Zu verstehen, auf welche Information sie sich aus der Masse an Daten stützt und wie dabei die Gewichtung aussieht, ist schwierig. Dazu ist KI technologisch zu weit fortgeschritten und damit zu komplex. Das heißt, ihre Entscheidungen lassen sich nicht immer begründen. Das ist eine Gefahr und ein ethisches Problem für die Gesellschaft. Je nachdem, wo KI genutzt wird, sind die Risiken falscher Entscheidungen höher. Zum Beispiel hat im Gesundheitswesen eine falsche Diagnose unter Umständen schwerwiegende Konsequenzen.

KI und Ethik

Zentral ist deshalb folgende Frage: Was macht eine vertrauenswürdige KI aus? Es geht dabei vor allem um ihre ethische Betrachtung. Wenn Unternehmen auf KI und ihre Entscheidungen vorbehaltlos vertrauen können, löst sich das genannte Problem. Leitlinien für eine vertrauenswürdige KI existieren bereits. Beispielsweise haben sich unabhängige KI-Experten der Europäischen Kommission (EK) auf drei Leitlinien geeinigt, die es für sie bei der Entwicklung von KI zu befolgen gilt. Zuerst einmal ist es entscheidend, ob sie rechtmäßig ist. KI muss alle geltenden Gesetze und Bestimmungen einhalten. Außerdem wird von ihr gefordert, die Einhaltung ethischer Grundsätze und Werte zu garantieren. Zuletzt soll die KI auch robust sein – sowohl in technischer als auch sozialer Hinsicht.

Ein klares Gesetz gibt es zu dem Thema nicht. Als Basis für die Leitlinien dienen die europäischen Grundrechte. Explizit werden vier Prinzipien aufgelistet: Achtung der menschlichen Autonomie, Schadensverhütung, Fairness und Erklärbarkeit. Allerdings können sie im Einsatz von KI zu Konflikten führen – ein Beispiel: Im Hinblick auf die Arbeit der Polizei sorgt KI eventuell für Rückgang von Kriminalität, aber verletzt dabei durch Überwachung potenziell die Privatsphäre von Personen. Die Leitlinien sind zudem zu allgemein formuliert, um sie tatsächlich umzusetzen. Es ist daher notwendig, sie genauer zu definieren.

Genauere Anforderungen

Dementsprechend haben die KI-Experten der EK die Anforderungen einer vertrauenswürdigen KI verfasst. Sie beziehen sich auf die technischen, rechtlichen und ethischen Aspekte der KI. Für die Experten sind insgesamt sieben Anforderungen bei der Entwicklung von KI einzuhalten: Vorrang menschlichen Handelns und menschliche Aufsicht, technische Robustheit und Sicherheit, Schutz der Privatsphäre und Datenqualitätsmanagement, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht. Weitere Anforderungen sind aber denkbar, wie beispielsweise die Übereinstimmung mit den Werten der westeuropäischen Demokratie und die Vermeidung einer Machtkonzentration.

Von der Theorie zur Praxis

Nun stehen die Anforderungen zwar fest, trotzdem bleibt es eine Herausforderung, ihnen gerecht zu werden. Die EK stellt für die Umsetzung eine Checkliste zur Verfügung, die ein Self Assessment ermöglicht. Darüber hinaus kann es sich lohnen, einen Ethics Officer in das eigene KI-Projekt einzubinden, der die Technologie versteht. Seine Aufgabe besteht dann darin, sein umfassendes Wissen einzubringen und den Entwicklern beratend zur Seite zu stehen. Eines steht jedoch fest: Zu 100 Prozent lassen sich die Anforderungen nie erfüllen und häufig unterscheiden sie sich je nach Anwendungsbereich. Es geht deshalb nicht darum, eine perfekte Lösung zu haben, sondern Konflikte zu entdecken. Dann haben Entwickler zumindest eine Erklärung dafür, was vor sich geht. Der Schlüssel zum Erfolg ist es, sich kontinuierlich anzuschauen, ob die KI den Anforderungen entspricht.

Mit Z-Inspection® steht ein Lösungsansatz zur praktischen Umsetzung dieser Aufgabe zur Verfügung. Z-Inspection® ist ein allgemeines Prüfverfahren für ethische KI, das in vielen verschiedenen Bereichen angewendet werden kann, unter anderem in der Wirtschaft, dem Gesundheitswesen und dem öffentlichen Sektor. Das Verfahren beruht auf den Forschungsarbeiten eines internationalen Teams von Wissenschaftlern und ist nach unserem Wissen das erste verfügbare Verfahren, um die Vertrauenswürdigkeit einer künstlichen Intelligenz in der Praxis zu bewerten.

Daneben sind für eine starke KI aber auch die Anzahl und die Qualität der zugrunde liegenden Daten maßgeblich. Wenn nur wenige Daten vorliegen, sind die Informationen eventuell nicht signifikant genug. Schlechte oder unvollständige Daten führen außerdem oft zu Fehlern. Zu empfehlen ist es daher, hinreichend Daten zu akkumulieren und zu filtern, um aussagekräftige Healthy Data zu erhalten.

Über den Autoren

Prof. Roberto V. Zicari

Roberto V. Zicari ist Professor für Datenbank- und Informationssysteme (DBIS) an der Goethe-Universität Frankfurt, Deutschland. Er ist ein international anerkannter Experte auf dem Gebiet der Datenbanken und Big Data. Seine Interessen erstrecken sich auch auf Ethik und KI, Innovation und Entrepreneurship. Er ist Gründer des Frankfurt Big Data Lab an der Goethe-Universität Frankfurt und Herausgeber des Webportals ODBMS.org sowie des ODBMS Industry Watch Blog. Roberto V. Zicari leitet zusammen mit einem Team von internationalen Experten die Definition eines Bewertungsprozesses für Ethical AI, genannt Z-Inspection. In den letzten fünf Jahren war er Gastprofessor am Center for Entrepreneurship and Technology im Department of Industrial Engineering and Operations Research an der UC Berkeley (USA).

 

RELATED TOPICS