Ich seh’ ich seh’ was du nicht siehst: Wie eine Künstliche Intelligenz Verkehrszeichen sieht.
Fahrassistenzsysteme im Straßenverkehr sind bereits jetzt ein fixer Bestandteil der Grundausstattung von modernen Autos. In Zukunft spielen diese intelligenten Systeme eine noch größere Rolle. Für dabei verwendete Methoden der Künstlichen Intelligenz (KI) stellt das Lesen von Verkehrszeichen jedoch eine Herausforderung dar. In einem gemeinsamen Projekt erforschten die ASFINAG, die Johannes Kepler Universität Linz und die RISC Software GmbH diese Systeme – und wollen dadurch das Vertrauen in diese neuen Technologien erhöhen.
Wenn beim Tunnelportal die LED-Anzeige „STOP“ zeigt, dann wissen wir – es könnte gefährlich werden und wir halten an – auch wenn einzelne LEDs defekt sind. Oder wenn durch starken Schneefall die Geschwindigkeitsbeschränkung für mich als Mensch schwer zu erkennen ist – kann die KI das dann trotzdem noch? Der Mensch ist meist in der Lage beschädigte oder verschmutzte und dadurch schlecht erkennbare Verkehrszeichen zu erkennen und richtig zu reagieren. Künstliche Systeme müssen dies erst erlernen und beweisen, damit wir ihnen vertrauen können.
Vertrauenswürdige KI
Um VZ-Erkennungssysteme verstärkt einsetzen zu können, bedarf es der Akzeptanz der Gesellschaft. Eine solche ist erreichbar, wenn die KI vertrauenswürdig entwickelt wird. Technisch ausgereifte Methoden begründen die Vertrauenswürdigkeit; reichen allein aber nicht aus. Die Einbeziehung des Rechts und der Ethik in der Entwicklung tragen wesentlich zur Vertrauensbildung bei. In der Praxis ist das schwieriger, als man meinen sollte. Soll die KI – aus Sicht der Verkehrsteilnehmer – insgesamt möglichst viele Unfälle vermeiden? Oder lieber besonders schwere Unfälle an gefährlichen Abschnitten (etwa Tunneleinfahrten oder Auf- und Ausfahrten) verhindern? Soll die KI das Auto aufgrund der Erkennung der Verkehrszeichen alleine steuern, oder soll der Mensch doch jederzeit übernehmen können? Durch eine umfangreiche Befragung finden Jurist*innen der Johannes Kepler Universität Linz heraus, welche Aspekte der Bevölkerung sowie den Stakeholdern wichtig sind, damit sie einer KI vertrauen können. Das Ergebnis unter Einbeziehung der wesentlichen KI-Prinzipien (Autonomie, Schadensminderung, Fairness, Transparenz) fließen in die Entwicklung der KI ein.