06. Juli 2018 (aktualisiert am 03. Juli 2023) Erstellt von Melanie Heß Künstliche Intelligenz
Spätestens seit im März in Arizona eine Fußgängerin durch ein selbstfahrendes Auto des Fahrdienstes Uber getötet wurde ist die Diskussion darüber, wer Verantwortung für ein solches Unglück übernehmen muss, hochgekocht. Die Frage ist durchaus berechtigt. Ist der Hersteller Schuld an einer falschen Entscheidung, die aufgrund von Lern-Algorithmen getroffen wurde? Wenn dieser keine Verantwortung trägt, wer dann? Reicht die aktuelle Gesetzeslage aus, um sowas zu entscheiden? Wer kommt für entstandene Schäden auf? Besonders Entwickler selbstfahrender Autos werben damit, durch das Fehlen menschlichen Versagens besonders wenig Unfälle zu verursachen. Wenn das dann allerdings doch passiert, ist die Schuldfrage umso komplizierter.
Bei einem Autounfall haftet (sowohl in Deutschland als auch in den USA) normalerweise der Fahrer beziehungsweise der Fahrzeughalter. Der Hersteller des Fahrzeugs haftet nur bei Produktionsmängeln. Eine Künstliche Intelligenz lernt selbst Entscheidungen anhand von zuvor verarbeiteten Daten zu treffen. Wird jemand durch diese Entscheidung geschädigt, handelt es sich dabei allerdings nicht wirklich um einen Fehler bei der Produktion, der Hersteller hätte somit eigentlich nicht Schuld. Es gibt aber auch keinen verantwortlichen Fahrer und einen Roboter kann man schlecht veranlagen, oder? Es gibt verschiedene Meinungen dazu, ob für solche Situationen neue Gesetze vonnöten sind oder wie man das Problem sonst lösen kann. Eine Lösung muss jedoch gefunden werden, denn laut Prognosen wird die Produktion von voll- oder teilautomatisierten Fahrzeugen weltweit in den nächsten Jahren stark ansteigen.
Vor der Unkontrollierbarkeit Künstlicher Intelligenz fürchten sich einige. Auch Tesla-Chef Elon Musk scheint Respekt vor der Technologie zu haben, deren Entwicklung niemand richtig vorhersehen kann. Er hat schon öfter auf die Gefahren von KI hingewiesen und äußert sich auch positiv zu neuen Gesetzen.
„Wenn wir bei Künstlicher Intelligenz nur reagieren, kommt die Regulierung zu spät.“
Musk warnt davor, erst zu handeln, wenn bereits größere Probleme aufgetreten sind und es eventuell schon zu spät ist, schwerwiegende Schäden zu verhindern. Man müsse vorher darüber nachdenken, was passieren kann und das Strafrecht und andere Gesetze dahingehend anpassen. Auch wenn teilweise noch unklar ist, wie entsprechende Gesetzesentwürfe aussehen sollen.
Auf der anderen Seite gibt es auch einige Stimmen, die der Meinung sind, dass die aktuelle Gesetzeslage ausreichend sei, wurde doch in Deutschland erst letztes Jahr das Straßenverkehrsgesetz für automatisiertes Fahren geändert. Darin wurde unter anderem festgehalten, dass der Fahrer sich vom Verkehrsgeschehen abwenden darf, wenn das Fahrzeug autonom steuert, er allerdings wahrnehmungsbereit sein muss. Das bedeutet, dass der Fahrer so aufmerksam sein muss, dass er das Steuer wieder übernehmen kann, wenn er vom System dazu aufgefordert wird. Es soll aufgezeichnet werden, wann der Fahrer und wann das System die Kontrolle über das Fahrzeug haben, um so Haftungsfragen einfacher klären zu können. Hat der Fahrer die Kontrolle, haftet dieser, ansonsten haftet der Hersteller des Fahrzeugs. Der damalige Bundesverkehrsminister Alexander Dobrindt (CSU) sprach von einer rechtlichen „Gleichstellung zwischen dem menschlichen Fahrer und dem Computer als Fahrer“. Allerdings gab es auch reichlich Kritik zu diesen Straßenverkehrsgesetzen. Zum einen sei Vorsicht bei der Speicherung von Daten geboten, zum anderen gehe es nur um das Fahren mit hoch- und vollautomatisierten Fahrfunktionen, nicht um das voll autonome Fahren. Deshalb stellt sich die Frage, wie geeignet das Gesetz für die Zukunft ist. Für 2019 ist jedoch eine Evaluation der neuen Regelung angesetzt.
Gerade unter dem Gesichtspunkt, dass es bei KI auch über autonomes Fahren hinaus geht, wurde debattiert, ob der Künstlichen Intelligenz eine eigene Rechtspersönlichkeit zugesprochen werden sollte. Wie das aber praktisch umgesetzt werden würde ist unklar. Wie sollte eine Maschine strafrechtlich verfolgt werden? Und wie sollte diese für Kosten aufkommen? Die Idee scheitert wohl an der praktischen Umsetzung. Kritiker meinen, der Vorschlag sei eher an Science-Fiction Vorstellungen angelehnt als an der Wirklichkeit, denn Künstliche Intelligenz sei noch lange nicht so fortgeschritten, wie teilweise behauptet wird.
Der Versicherungskonzern Allianz schlägt vor, eine Gefährdungshaftung für Künstliche Intelligenz gesetzlich zu verankern. Die KI würde dann als eine Art „erlaubte Gefahr“ gelten, die wegen ihrer Nützlichkeit für die Gesellschaft nicht verboten ist. Gleiches gilt beispielsweise bei Atomkraftwerken oder Eisenbahngesellschaften. Fraglich ist dann nur, ob die Skepsis, die KI bei einigen auslöst, noch weiter verstärkt wird.
Die Rechtslage befindet sich beim Thema KI – genau wie die Entwicklung der Künstlicher Intelligenz selbst – noch ziemlich am Anfang. Wichtig ist allerdings, zu erkennen, dass das autonome Fahren nur ein Teilbereich der KI darstellt. Sie hat darüber hinaus noch wesentlich mehr Potenzial und wird wahrscheinlich in jeden Bereich Einzug erhalten. Dadurch, dass schwer vorherzusehen ist, wie schnell sich KI entwickelt, ist es dementsprechend auch schwer, sich auf neue Gesetze zu einigen. Die Politik darf sich deshalb nicht auf neuen Gesetzen ausruhen, sondern muss diese immer wieder auf Aktualität prüfen.