Oder ist dir ein Algorithmus hinterm Steuer nicht geheuer? Die Tagesfrage.
Collage: Daniela Rudolf
Teile diesen Beitrag mit Anderen:
In den USA könnten Algorithmen für selbstfahrende Autos bald per Gesetz als "Fahrer" gelten. Sagt zumindest die NHTSA, die US-Bundesbehörde für Straßen- und Fahrzeugsicherheit. Für Google und alle anderen, die an Karosserien mit Künstlicher Intelligenz drin arbeiten, ist das eine extrem gute Nachricht. Die Behörde gab außerdem bekannt, dass sie innerhalb von sechs Monaten Richtlinien für selbstfahrende Autos aufstellen will.
Bis jetzt ist Künstliche Intelligenz als Fahrer in den US-Verkehrsgesetzen schlicht nicht vorgesehen, was am Ende heißt, dass Google die komplett selbstständig fahrenden Autos nicht auf den Markt bringen kann. Laut Sicherheitsvorschrift in vielen Bundesstaaten müssen Autos eine Bremse haben, die mit dem Fuß bedient, und ein Steuer, das von Hand gelenkt wird. Wenn die NHTSA die Regeln jetzt lockert, könnten sie in nicht mehr so ferner Zeit zum Straßenbild gehören, die Autos, in denen alle Insassen nur noch Beifahrer sind.
Studien (etwa diese) deuten außerdem darauf hin, dass selbstfahrende Autos weniger Unfälle bauen als menschliche Fahrer. Dennoch: Viele haben ein mulmiges Gefühl bei den intelligenten Kraftwagen. Und fragen zum Beispiel, ob so ein Auto gehackt werden kann und welche "Moral" man den Fahrzeugen antrainieren sollte. Soll der Wagen so programmiert sein, dass möglichst die Insassen einen Unfall überleben – oder möglichst viele Menschen? Hier ein interessanter Artikel mit einem Szenario: Angenommen, ein selbstfahrendes Auto rast versehentlich auf eine Menschenmenge zu. Es könnte rumreißen, würde dabei aber gegen eine Mauer prallen und den Fahrer töten. Wie will man die selbstfahrenden Autos haben?
Will man sie überhaupt? Sind selbstfahrende Autos die Zukunft? Und Sicherheitsbedenken übervorsichtig? Würdest du dich gerne von einem Algorithmus durch die Gegend kutschieren lassen?