• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Mal wieder reißerische "KI" Schlagzeilen.

Dieses Erkennen hat aber nichts mit Klugheit zu tun, sondern mit Empirik, mit Mustererkennung. Abzuwägen hieße ja, Zweifel zu haben. Aber einer KI fehlt vielleicht nicht die Fähigkeit sich zu hinterfragen (eine Routine), aber jedes erneut berechnete Ergebnis würde letztendlich egal sein. Weil es der KI ebenso als nützliches Ergebnis dient, die Person zu erschießen. Leiden beendet, dem leidenden Individuum zur Erfüllung verholfen.
Ein Ergebnis ist nicht egal, wenn es eine Relevanz für die KI hat hinsichtlich ihres bisherigen Wissens (widerspricht sich z.B: etwas? Dann ist genaueres Hinterfragen wichtig) oder gar ihrer grundlegenden Programmierung (z.B. wenn etwas "gegen Mensch" ist - Erschießen zählt i.a. nicht dazu). Dass es nicht immer einfach/eindeutig ist, klar; das gilt auch bei uns Menschen, z.B. bei Abtreibung.
 
Werbung:
Beim autonomen Fahren gar, wird sie zu einem Gottgleichen Wesen: Nach welchen Kriterien wird sie im Falle eines unvermeidbaren Unfalles entscheiden, wer überlebt, wer stirbt? Nach utilitaristischen Maßgaben? Innerhalb sekundenbruchteilen würde dann die (Gesichts-) Erkennung einem jungen Beteiligten eine größere Materielle Nützlichkeit zusprechen als einem älteren oder behinderten Menschen? Wenn überhaupt eine geplante Entscheidung anstünde, müsste sie nicht "erwürfelt" werden, dem Zufall überlassen?

Nein das ist nicht ganz richtig.
Ich habe ja zwei Jahre in der Software-Entwicklung für autonomes Fahren gearbeitet.

Erstmal möchte ich sagen, dass es innerhalb des Autos eine Ring-Architektur gibt mit drei Ebenen die parallel berechnen.
Die erste ist sozusagen die normale Ebene bei der berechnet wird, wobei im zweiten Kanal eine unabhängige zweite Berechnung läuft.
Im nächsten Schritt schaut man, ob irgendwelche Abweichungen zwischen First und Second sind.
Ein dritter Kanal ist dann zur Absicherung da (Funktion streng limitiert).
Das Auto könnte so noch rechts heranfahren und notfalls SOS (falls notwendig).
Aber bis dahin müsste erstmal ein Ausfall der beiden Kanäle passieren, was fast ausgeschlossen werden kann.
Normalerweise harmoniert es zwischen diesen beiden "Hirn-Hälften" (first und second).
Und das wichtigste: Dazu braucht man keine KI sondern es reichen zeitoptimierte Module/ Interaktion.

Was wir mit KI gemacht haben war eher Schilder-Erkennung oder relevante Objekte (static/ dynamic).
Da konnte man Geschwindigkeiten ablesen, oder Dinge ablesen die man normalerweise nicht kann (durch Sensor-Fusion).
Es gibt dann Fälle, wo zb. der Lidar etwas sieht, aber die Kamera nicht und innerhalb der Fusion kann KI zb. über einen Look-Up-Tabelle oder Cloud unterstützend helfen/ das System schneller machen. Aber es werden keine Entscheidungen wie du es sagst, alleine von KI getroffen.
So wie in unserem Körper zb. auch nicht alleine das Hirn steuert, sondern das Gesamtsystem (check?).

Wenn du magst, kannst du dir mal die Tesla-Unfälle anschauen.
Als ich damals tätig war, wurde ein Fall ganz besonders beleuchtet. Ein Tesla fuhr in den USA einfach so in ein (ich glaube) am Stauende stehendes Feuerwehrauto. Das krasse war, dass der Tesla noch beschleunigt hat, also die Systeme meinten volle Fahrt voraus.
(Anmerkung: Tesla nutzt Autopilot und Autopilot ist soweit ich weiß autonomous driving level 3 (maximal 4)).

Oder ein Uber-Fahrzeug (lvl 3), was eigentlich hätte bremsen müssen, weil es in den Lidar-Daten einige Treffer gab.
Da wurde einmal andersherum geschaut, also warum hat KI NICHT gesehen, was sie sehen sollte, obwohl die Ergebnisse da waren?

Und was ich noch weiß... es gab damals für Level 4-5 Autonomes Fahren in de USA ein Gremium was diese ethischen Sachen geregelt hat. Hatte Daimler 2011 aber auch schon, als ihre erste S-Klasse mit Level 3 die Bertha-Benz-Strecke fuhr. Und zwar durch Anforderungen und Anwendungsfällen. Auch hätte man autonome Autos viel früher auf den Markt bringen können, aber wer brauchte das 2016 schon?

Ansonsten gerne, wenn du noch was wissen möchtest.

Liebe Grüße
 
Ich halte diese Überlegungen für recht überflüssig. Denkt z.B. irgendein Mensch beim Unfall darüber nach in den oft nur Sekundenbruchteilen? Warum sollte es die KI denn? Sie sollte vielmehr wie der Mensch versuchen, die Unfallfolgen grundsätzlich versuchen möglichst gering zu halten, also möglichst schnell bremsen u.ä., grundsätzlich eher vorausschauen fahren usw.
Halte ich nicht für überflüssig, weil hier "Schicksal" versus "Planung" gegenüber stehen. Unkontrollierte menschliche Handlungen in einer Notsituation unterliegen keiner Moral und deren Folgen kann man als "Schicksal" bezeichnen, die Programmierung einer KI hingegen nicht.
 
Halte ich nicht für überflüssig, weil hier "Schicksal" versus "Planung" gegenüber stehen. Unkontrollierte menschliche Handlungen in einer Notsituation unterliegen keiner Moral und deren Folgen kann man als "Schicksal" bezeichnen, die Programmierung einer KI hingegen nicht.
Also ich hoffe mal, dass das Fahren im normalen Straßenverkehr immer der Normalfall ist und Unfälle unglückliche Ausnahmen bleiben und insofern "Schicksal".
Ok, man kann selbstfahrende Autos womöglich besser auf eine Unfallsituation einstellen (dein "Planung") als die Masse der hinsichtlich Unfällen untrainierten Autofahrer u.ä., wobei man diese Menschen natürlich auch entsprechend trainieren könnte, was aber nur selten z.B. in Fahrsicherheitstrainings geschieht.
Mein Hauptpunkt ist aber, dass es mir wichtiger ist, Unfälle überhaupt vorausschauend zu vermeiden und im Notfalle die Folgen insgesamt zu minimieren; ob da noch Rechenzeit ist, Menschen gegeneinander abzuwägen (z.B. komplexe Gesichtserkennung fürs Alter o.ä.)... ich meine, dass sonstige Folgen-Minimierungszeit besser anders genutzt werden sollte.
 
KIs werden eines Tages mit Sicherheit zu besseren Autofahrern als es menschliche Autofahrer sein könnten.
Aber dennoch überlassen Menschen ihr Schicksal in der Regel lieber einem fehlbareren Menschen als einem
unfehlbarerem unmenschlichen System.
 
KIs werden eines Tages mit Sicherheit zu besseren Autofahrern als es menschliche Autofahrer sein könnten.
Das wird wohl so sein.
Aber dennoch überlassen Menschen ihr Schicksal in der Regel lieber einem fehlbareren Menschen als einem
unfehlbarerem unmenschlichen System.
Ich denke, das ist eine Frage der Gewohnheit.
Taschenrechnern wird sicher mehr vertraut als "fehlbaren menschlichen Rechnern".
Selbst Expertensystemen wurde schon z.T. zu viel vertraut.

Wenn also Menschen sich erst daran gewöhnt haben, dürften sie vertrauten unmenschlichen Systemen eher vertrauen. Wobei das dann ein Risiko sein kann, wenn dieses System doch mal einen Fehler hat.
 
Das wird wohl so sein.

Ich denke, das ist eine Frage der Gewohnheit.
Taschenrechnern wird sicher mehr vertraut als "fehlbaren menschlichen Rechnern".
Selbst Expertensystemen wurde schon z.T. zu viel vertraut.
Aber Taschenrechner sind nicht die letzte Instanz bei Entscheidungen.
Es ist immer noch der Bediener, der das Ergebnis kontrolliert und ggf freigibt.
Wenn also Menschen sich erst daran gewöhnt haben, dürften sie vertrauten unmenschlichen Systemen eher vertrauen. Wobei das dann ein Risiko sein kann, wenn dieses System doch mal einen Fehler hat.
Die Automation wird zunehmen, ohne Zweifel. Aber die Verantwortung verbleibt bei den Menschen.
 
Also ich hoffe mal, dass das Fahren im normalen Straßenverkehr immer der Normalfall ist und Unfälle unglückliche Ausnahmen bleiben und insofern "Schicksal".
Ok, man kann selbstfahrende Autos womöglich besser auf eine Unfallsituation einstellen (dein "Planung") als die Masse der hinsichtlich Unfällen untrainierten Autofahrer u.ä., wobei man diese Menschen natürlich auch entsprechend trainieren könnte, was aber nur selten z.B. in Fahrsicherheitstrainings geschieht.
Mein Hauptpunkt ist aber, dass es mir wichtiger ist, Unfälle überhaupt vorausschauend zu vermeiden und im Notfalle die Folgen insgesamt zu minimieren; ob da noch Rechenzeit ist, Menschen gegeneinander abzuwägen (z.B. komplexe Gesichtserkennung fürs Alter o.ä.)... ich meine, dass sonstige Folgen-Minimierungszeit besser anders genutzt werden sollte.
Es gab Berechnungen, Statistiken.
Wenn 50% der Autos autonom wären usw...
Bei 100% Autonome Autos hat man glaube ich eine Unfallquote von unter 0,1% gehabt.
Das war weniger als der Mensch und trotzdem fühlt man sich unsicher.
Ist halt auch menschliche Psyche im Spiel.

Fliegen tue ich zb. auch sehr ungern.
Statistisch gesehen ist jede Autofahrt, wenn ich am Steuer sitze, unsicherer als sich fliegen zu lassen?
 
Werbung:
Aber Taschenrechner sind nicht die letzte Instanz bei Entscheidungen.
Es ist immer noch der Bediener, der das Ergebnis kontrolliert und ggf freigibt.
So sollte es bei bisheriger KI ja auch sein. Bei selbstfahrenden Autos ist es natürlich ein wenig anders, insofern du als Mitfahrer ja nicht dem Teil jede seiner Fahr-Entscheidungen kontrollieren willst.
Die Automation wird zunehmen, ohne Zweifel. Aber die Verantwortung verbleibt bei den Menschen.
So ist es. Die Frage ist dann, wie sehr im Detail oder wie/ob "nur" eher insgesamt, wie weit kann man einer KI-Entscheidung zumindest im Kleinen (versuchen zu) vertrauen.
PS: ...wie deine eben genannten U-Bahnen.
 
Zurück
Oben