31. Januar 2020 (aktualisiert am 12. Mai 2021) Erstellt von Viktoria Szostakowski Künstliche Intelligenz
Künstliche Intelligenzen sind auf dem Vormarsch. Kein Wunder, schließlich handelt es sich dabei um wichtige Helfer unseres Alltags, die bei manchen Arbeitsprozessen gar nicht mehr wegzudenken sind. KIs haben das Potenzial, unsere Wirtschaft und Gesellschaft voranzutreiben und grundlegend zu ändern. Wir sind dazu verpflichtet, die Richtung dieses Prozesses vorzugeben, indem wir ethische Standards setzen und diese kontrollieren.
Die ursprünglich aus der Informatik stammenden KIs sind mittlerweile in unserem Alltagsleben angekommen. Wir kennen sie beispielsweise als Sprachsteuerungsassistenten, die Tätigkeiten für uns übernehmen oder vorausschauend für uns planen.
Es gibt aber über Smart Home-Komponenten und kleine Alltagshelfer hinaus, weitere Zukunftsvorstellungen, inwiefern Künstliche Intelligenzen unseren Alltag verbessern und die Grenzen unserer Fähigkeiten ausschöpfen können. Besonders heiß diskutiertes Thema ist hierbei das autonome Fahren. Autonome Autos, die durch KIs gesteuert fahren, sollen die Straßen sicherer machen und Unfälle reduzieren. Gleichzeitig schwingen bei dieser Vorstellung auch die potenziellen Gefahren und Unsicherheiten bezüglich ethischen Verhaltens mit. Bei wem liegt die Verantwortung bei Unfällen? Wie soll bei kritischen Situationen im Straßenverkehr entschieden werden? Nach welchen Kriterien und Maßstäben sollen Künstliche Intelligenzen handeln?
Künstliche Intelligenzen arbeiten, indem sie Datenmengen durchsuchen, auswerten und anhand dessen Muster erkennen, die sie immer weiterspinnen – sprich, selbstständig weiterlernen. Künstliche Intelligenz übernehmen spezifische Aufgaben, die sie mithilfe dieser selbstentwickelten Muster erledigen. Doch es gibt auch Bedenken: „Verantwortlich für das Versagen der Algorithmen sind wir Menschen“, so Jörg Dräger und Ralph Müller-Eiselt, Autoren des Buches „Wir sind die intelligenten Maschinen“.
Was passiert, wenn die zugrunde liegenden Datenmengen nicht neutral sind und ein unerwünschtes Ergebnis hervorrufen? Künstliche Intelligenzen werden zunehmend in Unternehmen eingesetzt und übernehmen dabei oft Arbeiten, wie das Auswerten von Bewerbungen nach bestimmten Kriterien. Genau dabei ist einem großen Unternehmen ein Fehler unterlaufen. Die Arbeitsweise der eingesetzten KI erwies sich als unfair. Grund dafür war nicht die KI selbst, sondern die ihr zur Verfügung stehenden Daten. Die Programmierer setzen lediglich die Daten der letzten 10 Jahre ein, in denen mehr Männer als Frauen eingestellt wurden. Die KI schloss daraus, die Kategorie „männlich“ positiver zu bewerten als die Kategorie „weiblich“.
Auch im Bereich der Medizin erhofft man sich Abhilfe durch Künstliche Intelligenzen. Jedoch sind die Bedenken hierbei noch größer. Schließlich handelt es sich bei vielen Entscheidungen um Leben und Tod eines Patienten. Fehlerhaftes Verhalten einer KI kann tiefgreifende Folgen haben. Zudem fehlen zu manchen Krankheiten, Minderheiten und Kindern wichtige Forschungsdaten, sodass ein fehlerloser und vollständiger Algorithmus noch nicht möglich ist.
Als Biases bezeichnet man Verzerrungen aufgrund von diskriminierenden KI-Systemen. Diese können sowohl in der Konzipierung als auch in der Anwendung entstehen. Eine Diskriminierung liegt dann vor, wenn bestimmte Gruppen von Menschen anders behandelt werden als andere.
Solche Defizite und Systemfehler entstehen als Folge von Zeitdruck und der Erwartungshaltung, KI-Systeme schnell einsetzen zu können. Zudem besteht oft ein Mangel an Ressourcen und fehlende Berücksichtigung ethischer Standards. Die daraus resultierenden Folgen, sind beispielsweise Sensoren, die lediglich hellhäutige Menschen erkennen. Um die Funktionsweise von KI-Systemen möglichst fehlerfrei zu konzipieren, müssen große Datenmengen, insbesondere zu Personen, zur Verfügung stehen. Damit auch die Datenauswertung ethisch korrekt geschieht, muss eine Zustimmung des Betroffenen zur Erhebung dessen Daten vorliegen.
Christoph Lütge beantwortet in einem Interview mit der Zeit Fragen zur Ethik von Künstlichen Intelligenzen. Er ist Leiter des Institute for Ethics Artificia Intelligence (IEAI), welches es sich zur Aufgabe gemacht hat, ethische Richtlinien für KI-Systeme zu formulieren und Zusammenhänge zwischen Ethik und Künstlicher Intelligenz erforscht.
Auf die Frage, ob es faire und vorurteilsfreie Algorithmen gibt, antwortet Lütge mit einem klaren „Ja“, verweist jedoch darauf, dass KI-Systeme auch fehleranfällig sind. Um diese Fehler zu beseitigen, „muss man innerhalb des KI-Systems möglichst viele Szenarien durchspielen und beobachten, wann die Änderungen an den Randbedingungen zu einem fundamental anderen Resultat führen. Auf dieser Grundlage kann man den Algorithmus nachjustieren“ (Lütge). Als Präventionsmaßnahme sieht Lütge die Formulierung von ethischen Regeln, nach denen KIs arbeiten sollen. „Die Ethik muss in die Systeme eingeschrieben sein“ (Lütge). Unternehmen sollen sich an diese Richtlinien halten, andernfalls sollen künftig Strafzahlungen oder der Verlust der Reputation drohen. „Und wir müssen klären, wie Unternehmen reagieren, wenn es aufgrund von KI zu einem Verhalten kommt, das wir als nicht richtig empfinden“ (Lütge).
Der Zusammenhang von Ethik und Künstlicher Intelligenz wird immer wichtiger, insbesondere bei der fortschreitenden Digitalisierung der Welt. Die Reflexion und Gestaltung von ethischen Standards Künstlicher Intelligenzen stellt eine große Herausforderung dar, der sich die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) gestellt hat.
„Künstliche Intelligenz revolutioniert unser Leben und unsere Arbeit. Sie bietet enorme Vorteile für Wirtschaft und Gesellschaft. Aber sie weckt auch Ängste und ethische Bedenken. Entsprechend stehen unsere Regierungen in der Pflicht zu gewährleisten, dass KI-Systeme unseren Werten und Gesetzen folgen und die Menschen davon ausgehen können, dass Sicherheit und Privatsphäre höchste Priorität haben“,
OECD-Generalsekretär Angel Gurría, OECD-Ministertreffen 2019
Im Mai 2019 formulierte diese dazu fünf Grundsätze zum Umgang mit Künstlicher Intelligenz im Rahmen des OECD-Ministerratstreffens. Erarbeitet wurden die Grundsätze in Zusammenarbeit mit einer Gruppe von über 50 Expertinnen und Experten aus Politik, Wissenschaft, Wirtschaft, Zivilgesellschaft, Technologie, Gewerkschaften und internationalen Gremien. Diese Expertinnen und Experten kamen aus den 36 OECD-Mitgliedsländer und sechs weiteren Ländern.
Bei den Grundsätzen handelt es sich um wertbasierte Prinzipien für den verantwortungsvollen Einsatz vertrauenswürdiger Formen von künstlicher Intelligenz. Zudem wurden fünf Empfehlungen für das Regierungshandeln und die internationale Zusammenarbeit formuliert. Zusammen soll dies als ethischer Maßstab für die Gestaltung und Nutzung von KI-Systemen dienen.