Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
 |
15.05.14, 17:30
|
#1
|
Erfahrenes Mitglied
Registriert seit: Nov 2011
Beiträge: 648
Bedankt: 326
|
Wenn Software über Leben und Tod entscheidet
Zitat:
Wen soll ein selbstfahrendes Auto rammen, wenn es einen Unfall nicht verhindern kann - den SUV links oder den Kleinwagen rechts? Eine Frage nicht nur von Ethik und Recht.
Ein selbstfahrendes Auto fährt auf der Mittelspur der Autobahn, plötzlich kreuzt direkt vor ihm jemand die Spur. Die Elektronik des Autos ist zwar schneller als jeder Mensch, aber eine Kollision lässt sich nicht verhindern - das autonome Auto kann nur auswählen, ob es gar nicht ausweicht oder links den Geländewagen rammt, oder rechts den Kleinwagen. Wie entscheidet die Software, wessen Leben sie aufs Spiel setzt?
Patrick Lin, Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, hat solche Gedankenexperimente für das Magazin Wired durchgespielt. Schließlich würden autonom fahrende Autos wie das von Google vor allem deshalb entwickelt, weil sie in solchen Situationen aufgrund ihrer immer wachen Sensoren und ihrer Reaktionsschnelligkeit bessere Entscheidungen treffen können als ein Mensch. Sie können den zu erwartenden Schaden minimieren. Aber nach welchen Regeln das geschieht, müssen vorher die Programmierer festlegen.
Anders gefragt: Wessen Tod nehmen die autonomen Fahrzeuge (beziehungsweise deren Entwickler) in Kauf, wenn sie die eigenen Insassen schützen wollen? Für Lin sind das Fragen von Softwareethik, Moral und auch von Gesetzen und Geschäftsmodellen.
Allzu viel Zeit bleibt vielleicht nicht mehr, bis sie beantwortet werden müssen. Google will seine selbstfahrenden Autos schon 2017 so weit entwickelt haben, dass sie für die Öffentlichkeit auch jenseits der heutigen Testfahrten taugen. Vor Kurzem hat das Unternehmen bekanntgegeben, mittlerweile Tausende von Verkehrssituationen in der Stadt zu beherrschen.
Den behelmten Motoradfahrer verschonen oder den ohne Helm?
Lin beschreibt zunächst das Beispiel mit dem Geländewagen und dem Kleinwagen. Die Vernunft sagt: Der Geländewagen ist stabiler, seine Insassen sind besser geschützt als die des Kleinwagens. Also sollte das fahrerlose Auto besser mit dem Geländewagen kollidieren. Aber darf dessen Besitzer per Softwareprogrammierung eines anderen Fahrzeugs dafür bestraft werden, kein kleineres Auto gekauft zu haben? Dürfen Hersteller von besonders stabilen Autos bestraft werden, wodurch ihr Geschäftsmodell leiden könnte?
Und was Lin noch nicht einmal erwähnt: Muss man einen Kleinwagen fahren, um sich vor Unfällen mit autonomen Fahrzeugen zu schützen, wenn man damit gleichzeitig das Risiko eingeht, bei einem Unfall mit einem normalen Auto größere Schäden davonzutragen? Kommt es vielleicht auch darauf an, wie viele Menschen in den Autos links und rechts sitzen und in Gefahr geraten, und nicht nur auf die Bauart der beiden Wagen?
Beispiel zwei: Wenn ein selbstfahrendes Auto einen Unfall nicht mehr verhindern und nur noch entscheiden kann, ob es links den Motorradfahrer mit Helm oder rechts den ohne Helm trifft - welche Entscheidung ist dann die weniger falsche?
Die Vernunft sagt, der Motorradfahrer mit Helm hat die größere Chance, den Unfall zu überleben. Die Moral sagt, der ohne Helm sollte für sein verantwortungsloses oder sogar illegales Handeln nicht auch noch belohnt werden. Das Auto könnte dem Zufall die Entscheidung überlassen
"Schleier der Ignoranz"
Lin spielt eine Reihe von Lösungsmöglichkeiten durch. Die erste wäre ein Zufallszahlengenerator. Er würde anspringen, sobald das Auto einen Zusammenstoß links oder rechts als unausweichlich erkennen würde. Kommt dabei eine ungerade Zahl heraus, würde das Auto nach links ausweichen, bei einer geraden Zahl nach rechts. Das würde menschliches Handeln ansatzweise simulieren, weil Menschen in solchen Momenten keine durchdachte Reaktion mehr zeigen könnten.
Entscheidet das Auto aber zufällig, würde es sich praktisch selbst überflüssig machen. Die überlegene Reaktionsgeschwindigkeit in solchen kritischen Situationen ist einer der Hauptgründe, warum selbstfahrende Autos überhaupt entwickelt werden.
Eine Alternative zum Zufall wäre laut Lin ein "Schleier der Ignoranz": Die Entwickler der selbstfahrenden Autos könnten dafür sorgen, dass der Unfall-Algorithmus nicht weiß, was für Autos links und rechts von ihm fahren - ob es sich um Geländewagen oder Kleinwagen handelt. Dabei wäre es aber ein Unterschied, ob die Information gar nicht erst erhoben wird, oder ob sie von den Sensoren erfasst wird, aber nicht in den Algorithmus einfließt. Letzteres könnte ein rechtliches Problem sein, glaubt Lin. Denn die Autohersteller könnten möglicherweise dafür belangt werden, vorhandene Informationen nicht genutzt zu haben, um das Leben eines Menschen zu beschützen.
Kommt es zum Prozess - weil etwa die Angehörigen eines Unfallopfers den Hersteller des autonomen Fahrzeugs verklagen - ergeben sich laut Lin ganz neue rechtliche Fragen: Die Software-Programmierer hätten ja bei der Entwicklung genug Zeit gehabt, die "richtige" Entscheidung einzuprogrammieren. Damit würde der Affekt als Ursache für den Tod eines Menschen also ausfallen. Der Unfall wäre möglicherweise näher am Mord als am Totschlag.
Es gibt noch eine ganze Reihe weiterer Fragen und Gedankenspiele, die sich anschließen und die Lin zum Teil hier nennt: Welche Versicherung versichert den Geländewagenfahrer gegen Unfälle mit autonom fahrenden Fahrzeugen? Wer haftet, wenn deren Bordcomputer abstürzt und keine "am wenigsten falsche" Reaktion mehr zeigen kann? Lässt sich ein fahrerloses Auto austricksen - kann man ihm als Motorradfahrer vorgaukeln, ein Geländewagen zu sein?
Aus Lins Gedankenspielen könnten schon bald drängende Fragen werden. Das wissen die Entwickler autonom fahrender Autos wie zum Beispiel Daniel Göhring. Er ist Teamleiter der Autonomos Labs der FU Berlin, die ein solches Fahrzeug entwickeln, und sagt: "Unser autonomes Fahrzeug verwendet für die Erfassung anderer Verkehrsteilnehmer sowie von Hindernissen vorrangig Laserscanner, Radarsysteme sowie Stereokamerasysteme. Damit wäre es möglich und auch wünschenswert, Fahrzeugklassen und unterschiedliche Verkehrsteilnehmer zu unterscheiden. Für die Situationsvorhersage ist das schon heute relevant. Mit fortschreitender technologischer Entwicklung werden ethische Fragen an Relevanz gewinnen."
Bisher behandele das Auto der FU "alle Verkehrsteilnehmer äquivalent", sagt Göhring. "Fahren wir beispielsweise auf einer zweispurigen Straße und es befindet sich ein Hindernis auf unserer Spur, führen wir Spurwechsel nur dann durch, wenn die andere Fahrspur frei ist und keine Gefährdung anderer Verkehrsteilnehmer entsteht. Um solche gefährlichen Situationen innerhalb unserer Entwicklung gänzlich zu vermeiden, befindet sich an Bord unserer autonomen Fahrzeuge immer ein Sicherheitsfahrer." Was aber passiert, wenn der nicht mehr rechtzeitig eingreifen kann?
Der Preis, den wir zahlen müssen?
Kate Darling, Expertin für Roboterethik am MIT Media Lab in Cambridge, Massachusetts, sagt: "Manche mögen argumentieren, dass solche Unfälle sehr selten sein werden. Da fahrerlose Autos sehr viel sicherer und vorhersehbarer fahren als Menschen es tun, könnte man das unausgewogene Verhalten der Autos in diesen Extremfällen als vernünftigen Preis ansehen, den wir halt zahlen müssen. Aber solche Unfälle und ihre Entstehungsgeschichte könnten die öffentliche Wahrnehmung massiv beeinflussen. Das kann von Gerichtsurteilen bis hin zu einem generellen Widerstand gegen die Technik reichen."
Es sei wohl in jedermanns Interesse, wenn das Verhalten der Autos gesetzlichen Standards unterliege, sagt Kate Darling: "Standards, die nicht nur direkte Kosten berücksichtigen, sondern auch das, was die Gesellschaft von diesen Autos erwartet." Der erste Schritt sei es, öffentliche Aufmerksamkeit zu schaffen, denn "das hier ist keine Science-Fiction-Zukunft, wir müssen jetzt darüber reden".
|
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Ich muss sagen eine sehr interessante Frage.
|
|
|
15.05.14, 18:47
|
#2
|
Doomsayer
Registriert seit: Aug 2009
Beiträge: 1.783
Bedankt: 1.493
|
Nicht nur eine interessante Frage. Sondern eine absolut kritisch-fundamentale. Denn sie lässt sich niemals einwandfrei beantworten (siehe hierzu den Film I Robot, dort wird ein ähnliches Thema aufgegriffen).
Egal wie man an die Lösung einer solchen Frage herangeht, es wird in jedem Fall in einem Zwei- oder Mehrklassensystem auf der Straße enden. Wie welche Klasse definiert ist und wie viele es gibt wird bloß durch die Variablen festegelegt werden. Das einzig faire ist hier wohl ein Zufallsgenerator, wobei ich nicht einmal das so sagen würde. Immerhin macht sich ein Mensch sehr wohl Gedanken, wohin er ausweicht, auch wenn sie Zweifelsohne den direkten Weg zwischen Aktion und Reaktion gehen und nicht erst im Denkapparat landen. Die Nummer mit dem Motorradfahrer ohne Helm würde ich (ebenfalls Motorradfahrer) fast sogar unterstützen.
Defakto muss bzw. kann diese Frage also nur beantwortet werden, indem sie gar nicht erst gestellt werden muss. Und das ist nicht einmal der Fall, wenn es NUR selbstfahrende Autos gibt. In einer solchen Vision würden sämtliche Fahrzeuge miteinander kommunizieren, und es würde kein plötzliches unvorhersehbares Hindernis geben. Knallt eine Kloschüssel von der ISS auf die Straße, können alle Fahrzeuge dynamisch ausweichen und so den geringstmöglichen Unfall erreichen. Das Problem dabei ist jedoch dass die steuernden Maschinen immer noch eine Entscheidungsgrundlage brauchen. Ein Nachteil wenn man eben doch nur 1 und 0 kann, egal wie viel Glitzer draufgekippt wird. Ja, ein Computer kann deutlich schneller bzw. überhaupt die komplette Situation in Sekundenbruchteilen analysieren und entsprechend reagieren, das für einen Menschen unausweichliche noch umgehen. Aber spätestens wenn der Punkt eintritt, an dem eine Kollision mit anderen Verkehrsteilnehmern nicht mehr verhindert werden kann, darf auf keinen Fall durch eine Wertung entschieden werden.
Ein Mensch entscheidet hier per Reflex, unvoreingenommen und unbeeinflusst. Nicht das Optimalste, aber vielleicht das Beste für uns.
__________________
Die zwei eisernen Regeln des Erfolgs: 1. Verrate niemals alles, was Du weißt.
|
|
|
15.05.14, 18:55
|
#3
|
Banned
Registriert seit: Dec 2009
Ort: Sektor 7 Blau
Beiträge: 1.435
Bedankt: 1.131
|
Zitat:
das autonome Auto kann nur auswählen, ob es gar nicht ausweicht oder links den Geländewagen rammt, oder rechts den Kleinwagen. Wie entscheidet die Software, wessen Leben sie aufs Spiel setzt?
|
Ich denk mal die Automatik entscheidet später bestimmt nach dem Jahresbrutto der Betroffenen Insassen wo es letztendlich reinfährt .
Der Staat füttert die Autosoftware mit Nummernschilderdaten von allen Autos der Unterschicht und wenn bei nem Unfall so ein Nummernschild nebendran zufällig aufleuchtet,darf es zum ausbremsen vom Auto benutzt werden.
|
|
|
15.05.14, 19:30
|
#4
|
Ultimative Keks Power
Registriert seit: Sep 2010
Beiträge: 1.675
Bedankt: 1.889
|
Irgendwie denke ich die machen da Probleme wo keine sind. Falls der Unfall unvermeidlich ist, dann wird die Spur beibehalten und ne Vollbremsung hingelegt. Genauso wie wenn ein Reh auf die Straße hüpft. Da fährt man nicht in den Gegenverkehr um das arme Tier zu schützen, auch wenn viele das gerne tun würden. Der Verursacher wird gerammt und gut ist. Kein Problem.
Warum sollte man da noch unbeteiligte rein ziehen? Versteh ich echt nicht.
|
|
|
15.05.14, 19:39
|
#5
|
Echter Freak
Registriert seit: Jun 2010
Beiträge: 2.209
Bedankt: 3.944
|
@oder: genau das ist mir auch durch den Kopf gegangen.
Unliebsame Personen könnte man, statt mit auffälligen Drohnen, auf diese Art unauffällig aus dem Weg räumen. Wars halt ein Unfall.
VT? - ja, noch...
__________________
"Wir müssen friedenstüchtig werden"
(Boris Pistolius, dt. Philosoph)
|
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 14:05 Uhr.
().
|