Gutes Auto, böses Auto - Sind autonome Autos die besseren Fahrer?

Schon heute keine Seltenheit mehr im Straßenverkehr: Selbsteinparkende Autos.
 
Autorin von "Social Rating" Christiane Landgraf
 
Psychologin Dr. Lena Rittger aus Elsenfeld
 
Hubert Konrad aus Eichenbühl--Pfohlbach
 
Timo Bleifuß aus Amorbach-Neudorf
Parken Sie noch selbst ein, oder lassen Sie schon parken? Autos, bei denen man zum Einparken das Steuer ganz aus der Hand geben kann, sind ja schon heute keine Seltenheit mehr. Aber ab wann wird es Alltag sein, dass unser Auto uns selbstständig zum Einkaufen oder in den Urlaub fährt?

Nach dem Smartphone wird das selbstfahrende Auto die nächste große Stufe im Computerzeitalter sein. Die Frage dabei ist jedoch: Wie verhält sich diese künstliche Intelligenz in der realen Welt?

Nur ein Beispiel: Unser Auto kommt in eine gefährliche Situation. Es kann einem Crash nur noch durch Ausweichen entgehen. Nach rechts fahren: Hier steht ein 80-jähriger Mann den es frontal erwischen würde. Nach links umlenken: hier fährt er in ein achtjähriges Mädchen. Wie entscheidet das Auto?

Soll der Mensch in Notfallsituationen eingreifen? Reagiert er dann richtig oder nicht? Selbstfahrende Autos werden ja auch in unterschiedlichen Kulturen und Umgebungen gefahren. Auf deutschen oder amerikanischen Autobahnen genauso wie auf indischen Straßen. Es gelten jeweils andere Verkehrsregeln, Gesetze und Fahrkulturen. Wir verlassen uns schon jetzt ganz auf die Technik – ABS, Spurhaltung, Navi, Airbags oder selbstständig einparkende Autos. Inwieweit werden wir unser Leben aber komplett in die Hände, Pardon – in das Computerhirn eines Autos legen? Und sind sich die Verantwortlichen der Tragweite und Verantwortung bewusst? Genau diese Fragen hat auch die Mainaschafferin Christiane Landgraf kürzlich bei ihrer Lesung, in der katholischen Bücherei in Weilbach, ihren Zuhörern gestellt.

Im Mai 2016 sorgte der erste tödliche Unfall mit einem computergesteuerten Tesla in den USA für Aufsehen. Der Wagen fuhr im sogenannten Autopilot-Modus, das heißt, er war nicht komplett autonom. Es handelt sich dabei um ein ausgeklügeltes Assistenzsystem, das vom Fahrer bewusst angeschaltet werden muss, um dann unter anderem Spur und Abstand zu halten. Die US-Verkehrsbehörde NHTSA hatte in ihrem Untersuchungsbericht dann festgestellt, dass das Assistenzsystem zwar wie zugesichert funktioniert habe, der Fahrer hätte sich aber nicht allein auf die Technik verlassen dürfen.
Und gleich stellt sich ein weiteres Problem: Selbstfahrende Autos können Unmengen an Daten über Fahrer und Passanten sammeln. Da die Autos vernetzt sind, werden sie angreifbar sein wie jeder Computer. Wie wird sich die Autoindustrie dieser Herausforderung stellen?

Ethikkommision greift ein

Beschäftigt man sich näher mit dem Thema, stellt man fest, wie unglaublich komplex es ist. Wer trägt die Verantwortung? Nach welchen Kriterien entscheiden Programmierer? Kann man überhaupt jedes Szenario beurteilen? Wurden die Konsequenzen umfassend durchdacht? Zumindest sollte die Industrie künftig offen über ethische Fragen sprechen und diskutieren – schon um Spekulationen und Ängsten vorzugreifen. Ein vom Verkehrsministerium eingesetztes Gremium hat im Mai diesen Jahres die Leitlinien für selbstfahrende Autos auf deutschen Straßen vorgestellt. Dem Gremium gehören Wissenschaftler, Vertreter der Autobranche, Verbraucherschützer und Mitglieder des Autofahrerclubs ADAC an. Computer dürfen in Autos in Deutschland künftig Fahrfunktionen übernehmen, der Mensch am Lenkrad muss aber immer wieder eingreifen können.

Unter anderem wird in der Ethikkommision etwa der schwere Unfall in Alzenau von 2012, bei dem zwei Menschen ums Leben kamen, als Präzedenzfall gehandelt. Auch hier ging es um ein Fahrzeug mit Spurhalteassistent.

Noch ist die Skepsis bei den meisten groß, sich von einem selbstfahrenden Auto durch die Gegend kutschieren zu lassen. Dabei war es ausgerechnet ein Deutscher, der die künstliche Intelligenz bei Autos entscheidend voranbrachte: Professor Sebastian Thrun. Sollte der Computer in Zukunft die Kontrolle übernehmen, wäre ein wichtiges Argument die größere Sicherheit. Die Realität auf unseren Straßen sieht derzeit so aus: Für die Masse an Unfällen trägt der Mensch am Steuer die Verantwortung. Experten erwarten, dass durch autonomes Fahren die Zahl der Unfälle drastisch gesenkt werden wird.

Wie bei jeder Technik wird es wahrscheinlich auch hier nie ein perfektes System geben – aber es wird versucht werden, die Technik so sicher wie möglich zu machen. Gern dürfen Sie, liebe Leserinnen und Leser, Ihre Meinung dazu äußern.
Wir freuen uns über Ihre Kommentare zum Beitrag

Interviews:

Autorin Christiane Landgraf aus Mainaschaff hat mit ihrem Debutroman „Social Rating“ ein Buch über selbstfahrende Autos und gechippte Menschen geschrieben.
„Schreiben war für mich ein Kindheitstraum – gefehlt hat bisher nur das richtige Thema. Im Freundeskreis haben wir über selbstfahrende Autos und die moralische Komponente diskutiert. Danach hat mich dieses Thema nicht mehr losgelassen. Wie würde ein Auto in einer Gefahrensituation reagieren? Der Mensch täte es instinktgetrieben, moralisch geprägt oder auch im

Affekt. All das trifft auf ein selbstfahrendes Auto nicht zu. Dieses wäre vorher im Labor programmiert. Ich möchte mit meinem Buch auch einen Anstoß geben, dass mehr hinterfragt wird, was technologisch möglich ist und auch die Moral hinter den neuen Entwicklungen. Ich möchte die Menschen mehr für das Thema sensibilisieren – egal ob es um ­autonome Autos, gechipte Menschen oder soziale Medien geht.“

Psychologin Dr. Lena Rittger aus Elsenfeld setzt sich beruflich schon längere Zeit mit dem Thema auseinander: Was sind die Grenzen der menschlichen Leistung in den kritischen Situationen und wie muss sich das System daran orientieren und ausgelegt werden, damit der Fahrer seine Überwachungsaufgabe voll erfüllen kann? Und was wird sich in unseren Autos ändern, wenn wir höhere Automatisierungslevels in Zukunft umsetzen können?

„Der Fahrer hat trotz Automatisierung die volle Verantwortung und muss innerhalb von Sekunden erkennen, wenn was schiefgeht und wann er eingreifen muss. Die spannende Frage für uns Psychologen ist: Kann der Mensch Gefahrensituationen einschätzen und richtig reagieren?“

Zum einen ist es ja so, dass sich die Automatisierung in den Autos selbst und insgesamt in unserem Straßennetz (Stichwort: Mischverkehr automatisiert und nicht automatisiert) wahrscheinlich schrittweise vollziehen wird. Es gibt jetzt bereits Fahrzeuge auf der Straße, die die Längsregelung und die Querregelung übernehmen können und so das Fahrzeug in der Spur mit der richtigen Geschwindigkeit halten können (auch von deutschen Herstellern!). Der Fahrer hat dabei die volle Verantwortung, muss überwachen und innerhalb von Bruchteilen von Sekunden erkennen, wenn was schiefgeht und wann er eingreifen muss. Die spannende Frage für uns als Psychologen ist dann: Kann er das überhaupt? Wie muss das System ausgelegt sein, damit der Fahrer seine Überwachungsaufgabe voll erfüllen kann? Was sind die Grenzen der menschlichen Leistungsfähigkeit und welche Situationen können gar nicht durch den Fahrer abgefangen werden? Wie muss sich das System dann ausrichten und wie können wir den Fahrer aufmerksam halten?

Der entscheidende Wechsel im Paradigma des automatisierten Fahrens ist dann, wenn der Fahrer eben nicht mehr dauerhaft überwachen muss, sondern verschiedene Zeitreserven vom System definiert werden, innerhalb derer das System den Fahrer warnt und zur Übernahme auffordert – während dieser gerade was anderes machen kann (auf dem Handy spielen/schlafen…). Auch hier ist die heiß diskutierte Frage: Wieviel Zeit braucht der Fahrer, bis er aus verschiedenen Zuständen (schlafen oder SMS schreiben oder oder oder…) übernehmen kann? Dementsprechend müssen die technischen Parameter ausgelegt werden (z.B. wie weit müssen die Sensoren in die „Zukunft“ schauen können, um den Fahrer entsprechend der Übernahmezeiten zu warnen). Und damit beschäftigen sich gerade alle Hersteller und die Wissenschaft ganz stark.

Ganz grundsätzlich ist uns immer wichtig, dass diese unterschiedlichen Stufen des automatisierten Fahrens unterschieden werden  dazu anbei die offizielle Nomenklatur (die so von der BAST und auch internationalen Organisationen/Regierungen ausgegeben wurde). Das Tesla Fahrzeug von dem im Text die Rede ist, war ein Level 2 Fahrzeug  der Fahrer musste überwachen und hätte eingreifen müssen. Von Level 2 auf Level 3 findet der entscheidende Schritt statt, bei dem der Fahrer nicht mehr dauerhaft überwachen muss. Erst ab Level 5 sprechen wir von fahrerlosen, hochautomatisierten Fahrzeugen (Robotaxis). (Ich persönlich mag den Begriff „autonom“ nicht gerne… denn selbst wenn es keinen Fahrer mehr gibt, dann haben wir mit den automatisch fahrenden Fahrzeugen ja keinen „autonomen“ Agenten… sondern der Mensch programmiert, gibt Rahmenbedingungen vor, definiert das Ziel, usw… und die Maschine führt danach aus).

Die Fragestellung die spannend für mich ist, ist was machen die Menschen mit der neuen, geschenkten Freizeit, wenn ich die 1,5 Stunden die ich am Tag im Auto sitze, sinnvoll nutzen kann und nicht mehr selbst im Stau fahren muss? Und wie wird das die Automobilindustrie verändern und revolutionieren? Wie wird sich unser Verständnis für Mobilität im Allgemeinen wandeln? Bei den Smartphones dachten am Anfang viele Nutzer, dass man das nicht braucht, dass alles Spielereien sind. Heute können wir uns ein Leben ohne diesen „Luxus“ nicht mehr vorstellen.

Bezüglich der ethischen Fragestellungen ist mir aus technischer Entwickler-Sicht klar, dass das Auto keine ethische Entscheidung treffen kann und wir ihm auch keine ethische/menschliche Entscheidung für den Einzelfall einprogrammieren können. Meiner Meinung nach kann der Weg den ein Fahrzeugalgorithmus gehen wird nur ganz pragmatisch sein: Es steht eine Kollision bevor? -> Ja -> Wie sieht das aktuelle Umfeldmodell aus bzw. gibt es freien Raum um auszuweichen und die Kollision zu verhindern? -> Wenn ja, dann dahin ausweichen; -> Wenn nein, dann Vollbremsen. Natürlich ist das in der Praxis komplexer (was ist freier Raum? Welche Fahrzeugreaktion führt zu welchen Konsequenzen? usw.). Aber praktisch werden die Entscheidungen im Auto basierend auf den physikalischen Kriterien der Situation stattfinden. Die Ingenieure müssen sicherstellen, dass sie alles Mögliche dafür getan haben, um den Unfall und Schaden zu verhindern und es wird im Einzelfall zu entscheiden sein, ob ein Fehler passiert ist und wer den Fehler gemacht hat. Aber ein perfektes, 100% funktionierendes System wird es erstmal nicht geben.
Der Punkt Vernetzung hat erstmal nicht unbedingt etwas mit Automatisierung zu tun. Ich denke für die Nutzer ist dies ein sehr wichtiges Thema – wir vernetzen ja alles, ich will, dass die Bilder die ich mit dem Handy mache sofort auf meinem Tablet zur Verfügung stehen, dass die Musik die ich zuhause höre auch im Auto abspielbar ist, usw. wir leben ja quasi in und aus der Cloud. Da darf sich das Auto – was ja z.T. einen großen Teil meines Lebensraums neben Arbeit und Wohnung einnimmt – nicht davon abschotten. Mit allen Herausforderungen, die sich für die IT Welt hier allgemein ergeben (z.B. Hacker & Missbrauch). Die Hersteller arbeiten hier auch intensiv daran, das Auto gegen solche kriminellen Aktivitäten abzuschotten. Die Diskussion darum wer im digitalen Zeitalter generell Zugriff auf meine Daten hat, wie gläsern ich für Google und Co bin führt in diesem Kontext wahrscheinlich etwas zu weit.



Boris Großkinsky, Fahrlehrer, Eichenbühl:
„Zunächst stellt sich die Frage, wann und in welcher Intensität dieses Thema auf uns zukommt. Wir erleben in den letzten Jahren eine enorme Entwicklung im Bereich der Assistenz-Systeme. Diese Systeme unterstützen den Fahrer und dienen hauptsächlich dazu, mögliche Fehler des Fahrers zu vermeiden oder deren Folgen zu verringern. Ein komplett autonom fahrendes Fahrzeug halte ich für kritisch. Es stellt sich die Frage, was passiert, wenn die Technik einen Fehler macht. Aus meiner Sicht ist es unerlässlich, dass hier Mensch und Technik im Team arbeiten. Allein aus Fragen der Haftung für Unfälle heraus rechne ich nicht damit, dass die Technik in absehbarer Zeit komplett das Steuer übernimmt. Was wäre, wenn das Auto, das selbstständig fährt, einen schweren Unfall verursacht? Wer wird zur Verantwortung gezogen? Hersteller, Halter, Insassen, Werkstatt … ? Die Weiterentwicklung von Assistenz-Systemen halte ich für gut und wichtig, wobei hier auch die intensive Einweisung der Nutzer von großer Bedeutung ist.“

Hubert Konrad aus Eichenbühl-Pfohlbach:
„Grundsätzlich bin ich aufgeschlossen für neue Technologien, sofern sie ausgereift und gut erprobt sind. Das trifft für den Beruf, den Alltag und den Freizeitbereich zu. Viele Unfälle passieren durch menschliche Unachtsamkeit und mangelnde Vorausschau. Der Straßenverkehr verursacht viele Todesfälle jedes Jahr. Hoffnung am Horizont sind ohne Frage effiziente Fahrcomputer und autonom fahrende Autos mit künstlicher Intelligenz. Solche Systeme könnten zum Beispiel die Reaktionsfähigkeit bei Bremsmanövern beschleunigen oder umweltschonenderes Fahren möglich machen.“

Timo Bleifuß, Amorbach-Neudorf:
„Ich bin viel unterwegs: in der Freizeit fahre ich gern im Odenwald mit dem Rad und da sind Touren mit 30 Kilometer Länge keine Seltenheit. Beruflich ist das Auto für mich eine große Notwendigkeit: als Handelsreisender einer großen Firma im Landkreis vergrößerte sich mein Aktionsradius um ein Mehrfaches. Hier profitiere ich von computergestützten Hilfen wie dem treibstoffsparenden Tempomat oder einem orientierungshelfenden Navigationsgerät. Neue Technik im Auto muss aus meiner Sicht eine praktische Hilfe darstellen, zu mehr Sicherheit beitragen und insgesamt vernünftig sein!“
Schon dabei? Hier anmelden!
Schreiben Sie einen Kommentar zum Beitrag:
Spam und Eigenwerbung sind nicht gestattet.
Mehr dazu in unserem Verhaltenskodex.