:: forum.grenzwissen.de :: Das andere Forum für Grenzwissenschaften ::

 

Zurück   :: forum.grenzwissen.de :: Das andere Forum für Grenzwissenschaften :: > Politik & Wirtschaft > Überwachungsstaat > Künstliche Intelligenz

Künstliche Intelligenz Deep Learning, KI in der Praxis, Turing-Tests

Antwort
 
Themen-Optionen Ansicht
Alt 05.02.2018, 18:18   #21
HaraldL
Lebendes Foren-Inventar
 
Registriert seit: 18.08.2002
Beiträge: 3.150
Standard

@MJ01:
Zitat:
Beispiel: Rechts ist ein Hindernis, das beispielsweise nicht erbremst werden kann, links aber geht ein Fußgänger. Soll der Rechner also den Fußgänger niederfahren, oder soll er mit einer fünfköpfigen Besatzung ins Hindernis hineinrasen? Oder ist ein Schotterhaufen weicher/könnte er als Sprungrampe fungieren, als ein Auto im Gegenverkehr? etc., etc.....
Das autonome Fahrzeug sollte in diesem Fall einen Hupton loslassen. Der Fußgänger wird dann hoffentlich zum Fahrbahnrand gehen, was auch das autonome Fahrzeug registriert und dann versuchen zwischen Fußgänger und Hindernis hinzudurchzufahren, wobei ggf. das Hindernis und Fahrzeug beschädigt werden.

Hat man autonome Fahrzeuge schon unter winterlichen Verkehrsverhältnissen auf einer kurvenreichen Paßstraße erprobt?
HaraldL ist offline   Mit Zitat antworten
Alt 05.02.2018, 18:42   #22
basti_79
Administrator
 
Benutzerbild von basti_79
 
Registriert seit: 18.11.2005
Beiträge: 10.978
Standard

Drollig finde ich hier, dass nicht etwa (wie in der Fahrschule) Standardsituationen untersucht werden sollen, sondern auch noch die x-te Ausnahme... Das nennt man wohl "das Haar in der Suppe suchen"...

Zitat:
Zitat von MJ01 Beitrag anzeigen
[Kamerasystem]
So eine Kamera (oder ein andersartiger Sensor) kann ein Bild aufnehmen, das (reproduziert) durch einen Menschen wahrgenommen werden kann. Man kann jetzt die Forderung aufstellen, dass eine AI dieselbe Wahrnehmung entwickelt wie ein Mensch, d.h. das erkennt, was ein Mensch auch erkennen könnte (Turing-Test). Dergleichen auf Sensoren zu übertragen, die keine direkte Entsprechung zu unseren Sinnesorganen haben (LIDAR meinetwegen), ist schwierig. Aber auch dort könnte man die Anforderung sprachlich beschreiben, wie Ihr es ja oben auch tut, indem Ihr bestimmte Testszenarien konstruiert.

Zitat:
Womit ich eben nicht der Ansicht bin, dass Computerassistenzsysteme
emotionell reagieren sollten.
Da müsste man erst einmal feststellen, was damit gemeint ist - aber so oder so scheinen AI's Menschen in einigen Perspektiven zu übertreffen. Gerade, was z.B. Impulskontrolle angeht.

Zitat:
Das wird das Hauptproblem von diesen System sein. Wenn die Systeme am "lebenden Objekt", also am Menschen lernen müssen, kann das einmal zu viel sein.
Das ist erst einmal Ad Extremum, und dann hat man ja Verkehrsordnungen und dergleichen letztendlich nur so entwickelt. Die Anforderung muss dieselbe bleiben wie an einen Menschen: sich an die Verkehrsregeln zu halten.

Zitat:
Somit wird den Softwareentwicklern eben nichts anderes übrig bleiben, als gewisse Routinen fix zu implementieren.
Du stellst Dir das falsch vor. Das hat mehr Ähnlichkeit mit der Dressur eines Säugetiers, als damit, ein Programm zu implementieren. Bloss, dass man unglaublich wirksame "Verstärker" zur Verfügung hat.

Zitat:
Das ist jedesmal das KO-Argument der Autoindustrie:
"Ein Mensch hätte auch nicht besser reagiert"
Dazu müsste man sagen,
"dann brauche ich solche Systeme nicht, wenn sie nicht besser als man selbst sind" und
"diese Systeme machen nicht die Fehler der Menschen, jedoch andere, die der Mensch nie gemacht hätte".
Man könnte aber auch sagen: Totalverbot, weiter wie bisher, es ist ja noch immer gutgegangen.

Das sind halt keine Argumente. Man muss schon betrachten, wie diese Systeme in realen Situationen (meinetwegen auch - realen - Testsituationen) reagieren, und kann sich nicht so lange Freak-Cases aus den Fingern saugen, bis man irgendwann auf ein Problem stößt. Das könnte man nämlich mit Menschen auch machen.

Das Stichwort ist Anscheinend "Dilemma"...

Zitat:
Hat man autonome Fahrzeuge schon unter winterlichen Verkehrsverhältnissen auf einer kurvenreichen Paßstraße erprobt?
Das weiß ich nicht, das ist aber eine gute Frage.

Ich würde vorschlagen, das Verhalten von autonomen Systemen nur so weit zu prüfen, wie eine Führerscheinprüfung dieselbe Prüfung zuließe. Natürlich kann man die autonomen Systeme effizienter prüfen (eine Version könnte man ja auf tausende Fahrzeuge kopieren), aber es darf meiner Meinung nach keinen prinzipiellen Unterschied zwischen einer Führerscheinprüfung und der Abnahme eines autonomen Systems geben.
__________________
Perfidulo: Ich hatte erst vor, einen Roman darüber [über das verschwundene Mittelalter] zu schreiben.
Groschenjunge: Was ist der Unterschied zum Jetzt?
Perfidulo: Es quasseln nicht dauernd Leute dazwischen.
basti_79 ist offline   Mit Zitat antworten
Alt 05.02.2018, 19:31   #23
MJ01
Lebende Foren-Legende
 
Benutzerbild von MJ01
 
Registriert seit: 09.08.2010
Ort: Nähe St. Pölten/Lilienfeld in Niederösterreich
Beiträge: 1.875
Standard

Zitat:
Zitat von basti_79 Beitrag anzeigen
Drollig finde ich hier, dass nicht etwa (wie in der Fahrschule) Standardsituationen untersucht werden sollen, sondern auch noch die x-te Ausnahme... Das nennt man wohl "das Haar in der Suppe suchen"...
Das sind halt keine Argumente. Man muss schon betrachten, wie diese Systeme in realen Situationen (meinetwegen auch - realen - Testsituationen) reagieren, und kann sich nicht so lange Freak-Cases aus den Fingern saugen, bis man irgendwann auf ein Problem stößt....
Ich würde vorschlagen, das Verhalten von autonomen Systemen nur so weit zu prüfen, wie eine Führerscheinprüfung dieselbe Prüfung zuließe. Natürlich kann man die autonomen Systeme effizienter prüfen (eine Version könnte man ja auf tausende Fahrzeuge kopieren), aber es darf meiner Meinung nach keinen prinzipiellen Unterschied zwischen einer Führerscheinprüfung und der Abnahme eines autonomen Systems geben.
Aber exakt an solchen Problemen stößt sich das System eben. Es ist sogar ein definitives KO-Kriterium! Es wird nämlich als "sicheres System" verkauft, "das Unfälle vermeiden hilft". Und exakt bei solchen Extremverhältnissen versagt das System eben, siehe Teslaunfall!

Zitat:
Zitat von basti_79 Beitrag anzeigen
So eine Kamera (oder ein andersartiger Sensor) kann ein Bild aufnehmen, das (reproduziert) durch einen Menschen wahrgenommen werden kann. Man kann jetzt die Forderung aufstellen, dass eine AI dieselbe Wahrnehmung entwickelt wie ein Mensch, d.h. das erkennt, was ein Mensch auch erkennen könnte.
Exakt dann benötige ich das System nicht. Es soll mit seinem Systemen eben besser/sicherer als der Mensch sein, siehe oben.

Zitat:
Zitat von basti_79 Beitrag anzeigen
Du stellst Dir das falsch vor. Das hat mehr Ähnlichkeit mit der Dressur eines Säugetiers, als damit, ein Programm zu implementieren. Bloss, dass man unglaublich wirksame "Verstärker" zur Verfügung hat.
Glaube ich nicht.
Ich kann mir durchaus vorstellen, dass man das System an diversen Testkonfigurationen lernen lässt. Nur in der endgültigen Kaufversion müssen die Reaktionen fix implementiert sein. Es kann nicht sein, dass jedes System anders reagiert. Das würde jegliche Rechtssicherheit des Systems untergraben ("Jö, der Fahrer hat dem System was Falsches gelernt!"). Und was das für Zeit kosten würde, wenn das System jedesmal den Entscheidungsbaum durchspielen müsste.
MJ01 ist offline   Mit Zitat antworten
Alt 05.02.2018, 19:43   #24
MJ01
Lebende Foren-Legende
 
Benutzerbild von MJ01
 
Registriert seit: 09.08.2010
Ort: Nähe St. Pölten/Lilienfeld in Niederösterreich
Beiträge: 1.875
Standard

Zitat:
Zitat von HaraldL Beitrag anzeigen
Hat man autonome Fahrzeuge schon unter winterlichen Verkehrsverhältnissen auf einer kurvenreichen Paßstraße erprobt?
Ja, Ford hat es bei winterlichen Verhältnissen (allerdings Passstraßen???) siehe und Chrysler. Und da einige Systeme von Volvo sind, die sicherlich auch.
MJ01 ist offline   Mit Zitat antworten
Alt 05.02.2018, 19:58   #25
basti_79
Administrator
 
Benutzerbild von basti_79
 
Registriert seit: 18.11.2005
Beiträge: 10.978
Standard

Zitat:
Zitat von MJ01 Beitrag anzeigen
Aber exakt an solchen Problemen stößt sich das System eben. Es ist sogar ein definitives KO-Kriterium! Es wird nämlich als "sicheres System" verkauft, "das Unfälle vermeiden hilft". Und exakt bei solchen Extremverhältnissen versagt das System eben, siehe Teslaunfall!
Das "Argument" hat Löcher wie Scheunentore.
  1. Sind die allermeisten Situationen eben keine Extremsituationen
  2. Wäre es unter den bekannten (und oben beschriebenen) Umständen ausreichend, wenn die AI "nur" meistens besser fährt (weniger Unfälle baut) als ein Mensch.
  3. Man "schlimmstenfalls" die globalen Unfallraten vergleichen müsste - und da die AI's die Nase weit vorn haben, d.h. deutlich weniger Unfälle bauen...

Ausserdem ist der Teslaunfall mit dem Laster dahingehend untypisch, als dass
  1. Der Tesla-Autopilot eben nicht für autonomes Fahren zertifiziert ist, sondern als Assistenzsystem vermarktet wird
  2. Einem Menschen ein solcher Fehler vermutlich nicht unterlaufen wäre, bzw. falls, wir davon nichts wüssten

Zitat:
Exakt dann benötige ich das System nicht. Es soll mit seinem Systemen eben besser/sicherer als der Mensch sein, siehe oben.
Sagt wer? Du? Die erste Hürde ist meiner Meinung nach, dass das System genauso gut ist wie ein Mensch. Der Perfektionismus, den Du verlangst, scheint übermäßig. Und dann stellt sich heraus, dass die AI's auch noch besser sind als Menschen in vergleichbaren Situationen - und Du suchst Haare in der Suppe...

Wie gesagt, das kann man mit den "Narzisstischen Kränkungen der Menschheit" vergleichen.

Zitat:
Ich kann mir durchaus vorstellen, dass man das System an diversen Testkonfigurationen lernen lässt.
Genaugenommen: Tausende. Lernen eben.

Zitat:
Nur in der endgültigen Kaufversion müssen die Reaktionen fix implementiert sein.
"Müssen" muss da gar nichts. Man würde sich sicher wünschen, dass das System sich nicht verändert (oder zumindest nicht ohne Information des Besitzers), aber selbst dann ist das noch krass unterschiedlich zu "Implementation" (ein Programm schreiben).

Zitat:
Es kann nicht sein, dass jedes System anders reagiert.
Ersetze "System" durch "Mensch". Was ergibt sich?

Zitat:
Das würde jegliche Rechtssicherheit des Systems untergraben ("Jö, der Fahrer hat dem System was Falsches gelernt!").
Moment mal. In Deutschland ist es zumindest bis jetzt so, dass die (juristische) Verantwortung beim Fahrzeugführer liegt. D.h. wenn Du bei einem autonomen Fahrzeug auf dem Fahrersitz sitzt, hast Du (auf dem Papier) die Aufgabe, das Fahrzeug zu kontrollieren und ggf. einzugreifen. Juristisch ergibt sich da kein Unterschied zu einem beliebigen Assistenzsystem, z.B. zu einem Einparkhelfer.

Und selbst wenn man jetzt die Verantwortung auf die AI übertragen könnte (wovon man in Deutschland anscheinend noch Generationen entfernt ist), würde sich ergeben, dass die AI's weniger Unfälle bauen - dass also diese Entscheidung die richtige war. Dass viele Menschen in Deutschland nicht denken können, ist ja geläufig. Aber warum muss man die Anderen damit quälen?

Zitat:
Und was das für Zeit kosten würde, wenn das System jedesmal den Entscheidungsbaum durchspielen müsste.
Wovon redest Du?
__________________
Perfidulo: Ich hatte erst vor, einen Roman darüber [über das verschwundene Mittelalter] zu schreiben.
Groschenjunge: Was ist der Unterschied zum Jetzt?
Perfidulo: Es quasseln nicht dauernd Leute dazwischen.
basti_79 ist offline   Mit Zitat antworten
Alt 05.02.2018, 23:36   #26
MJ01
Lebende Foren-Legende
 
Benutzerbild von MJ01
 
Registriert seit: 09.08.2010
Ort: Nähe St. Pölten/Lilienfeld in Niederösterreich
Beiträge: 1.875
Standard

Zitat:
Zitat von basti_79 Beitrag anzeigen
Das "Argument" hat Löcher wie Scheunentore.
Ausserdem ist der Teslaunfall mit dem Laster dahingehend untypisch.
Da liegst Du völlig falsch!
Wenn nur ein einziger Risikofaktor der rein durch das System gegeben ist, bekannt wird, ist das das System so wie es ist gestorben!
Und es wurde bekannt, dass der Unfall nicht der erste dieser Art bei Tesla war.
Zitat:
Nicht der erste Unfall
Der Unfall eines Tesla S, der sich autonom bewegt, ist nicht der erste, sondern wird wegen seiner tragischen Konsequenzen im Moment mit besonderem Augenmerk bedacht. Bereits 2015 kursiert bei Youtube ein Video unter dem Titel "Tesla Autopilot tried to kill me!", das zeigt, wie ungenügend die Assistenten eines Tesla arbeiten. Mitte Mai diesen Jahres berichten US-amerikanische Medien über ein Tesla Model S, das wegen des Versagens des Autopiloten in einen stehenden Van gefahren ist. Diese Berichte fanden aber keine nennenswerte Aufmerksamkeit, denn das Versagen der Technik blieb ohne Folgen.
Konsequenz: Es ist nicht das Aus des Systems (was ursprünglich sogar gefordert wurde), aber es muss weiter geforscht werden, damit solche Unfälle nicht mehr auftreten können. Das ist eine eindeutige Vorgabe der Bevölkerung und der Behörden. Wie in den entsprechenden Veröffentlichungen bewiesen wurde.
Wenn Du mir da nicht glaubst, dann lies die entsprechenden Veröffentlichungen.
Also sind deine weiteren Argumente in diese Richtung irrelevant und dein Scheunentor bricht zusammen.

Außerdem wird das System, zumindestens in der Ausbaustufe 5 als komplett autonomes Fahren bezeichnet und die Bezeichnung Teslars "Autopilot" suggerierte exakt so ein System. Und spätestens dann MUSS das System besser funktionieren, als wenn ein Mensch lenkt und dann MUSS Rechtssicherheit gegeben sein.
MJ01 ist offline   Mit Zitat antworten
Alt 06.02.2018, 01:33   #27
HaraldL
Lebendes Foren-Inventar
 
Registriert seit: 18.08.2002
Beiträge: 3.150
Standard

Ist überhaupt Teslas Autopilot das Maß aller Dinge?
HaraldL ist offline   Mit Zitat antworten
Alt 06.02.2018, 06:35   #28
basti_79
Administrator
 
Benutzerbild von basti_79
 
Registriert seit: 18.11.2005
Beiträge: 10.978
Standard

Zitat:
Zitat von MJ01 Beitrag anzeigen
Da liegst Du völlig falsch!
Wenn nur ein einziger Risikofaktor der rein durch das System gegeben ist, bekannt wird, ist das das System so wie es ist gestorben!
Ist das jetzt Dein Wunsch, oder denkst Du, dass alle Menschen so denken? Wie erklärst Du Dir, dass hier im Forum offensichtlich andere Menschen anders denken?

Zitat:
Außerdem wird das System, zumindestens in der Ausbaustufe 5 als komplett autonomes Fahren bezeichnet und die Bezeichnung Teslars "Autopilot" suggerierte exakt so ein System. Und spätestens dann MUSS das System besser funktionieren, als wenn ein Mensch lenkt und dann MUSS Rechtssicherheit gegeben sein.
Rechtssicherheit ist gegeben - wo machst Du da eine Lücke aus? Und warum denkst Du, dass so ein System besser fahren müsste, als ein Mensch? Übrigens tun das auch schon bestehende Systeme, man muss schon die Gesamtsituation betrachten.

Zitat:
Zitat von HaraldL Beitrag anzeigen
Ist überhaupt Teslas Autopilot das Maß aller Dinge?


Eben nicht.

"Rechtssicherheit" würde hier mitunter bedeuten, dass allerhöchstens nach diesen Unfällen Teslas Autopilot verboten wird, nicht etwa das entsprechende System von Google noch dazu. Aber auch dafür würde ich keinen Anlass sehen.
__________________
Perfidulo: Ich hatte erst vor, einen Roman darüber [über das verschwundene Mittelalter] zu schreiben.
Groschenjunge: Was ist der Unterschied zum Jetzt?
Perfidulo: Es quasseln nicht dauernd Leute dazwischen.
basti_79 ist offline   Mit Zitat antworten
Alt 06.02.2018, 12:40   #29
MJ01
Lebende Foren-Legende
 
Benutzerbild von MJ01
 
Registriert seit: 09.08.2010
Ort: Nähe St. Pölten/Lilienfeld in Niederösterreich
Beiträge: 1.875
Standard

Zitat:
Zitat von basti_79 Beitrag anzeigen
Ist das jetzt Dein Wunsch, oder denkst Du, dass alle Menschen so denken? Wie erklärst Du Dir, dass hier im Forum offensichtlich andere Menschen anders denken?
Hast Du eine Umfrage gestartet, dass Du dies so genau zu wissen glaubst?
Und nein, mein Wunsch ist es nicht, weil ich grundsätzlich alle neuen Innovationen positiv sehe. Ich sehe jedoch auch die Probleme und die Notwendigkeit hier spezielle Lösungsoptionen einzusetzen. Denn es kann nicht sein, dass neue Systeme eingesetzt werden und der einzelne Mensch aber für die Nachteile aufkommen muss.
Und ja, ich denke, dass jeder zurückschrecken wird, derartige Systeme einzusetzen, wenn er weiß, dass durch solche Systeme es zu tödlichen Unfällen kommen kann. Ganz aktuell 24.01.2018:
Zitat:
Erneuter Tesla-Crash unter Autopilot
In Kalifornien hat ein Tesla Model S im Autopilot-Modus ein stehendes Feuerwehrauto gerammt. Der Fahrer und Tesla schieben einander die Schuld zu.
Also ich würde "Autonomes Fahren" maximal als Zusatzoption sehen, wie beispielsweise einen Tempomat.
Zitat:
Zitat von basti_79 Beitrag anzeigen
Rechtssicherheit ist gegeben - wo machst Du da eine Lücke aus? Und warum denkst Du, dass so ein System besser fahren müsste, als ein Mensch? Übrigens tun das auch schon bestehende Systeme, man muss schon die Gesamtsituation betrachten.
Weil derartige Systeme so verkauft werden. "Sie seien sicherer und vermeiden Unfälle" sagt die Industrie und die Politiker und die Systeme "schließen den Risikofaktor Mensch" aus. Siehe , bzw. Studie hier
Und die derzeitige Regel sagt aus, dass eben IMMER der Fahrer für die Fahrsituation verantwortlich ist.
Nur bei Phase 5 Fahrzeugen gibt es eben keinen Fahrer und auch keine Möglichkeit in die Steuerung einzugreifen.
Und exakt da gibt es eben die Lücke.
Wird übrigens auch von diversen Versicherungen diskutiert, ist also ein allgemein anerkanntes Problem.
Eigenartig, dass Du als Intellektueller diese offensichtlich gar nicht erkennen kannst oder willst.
Zitat:
Zitat von basti_79 Beitrag anzeigen
Zitat:
Ist überhaupt Teslas Autopilot das Maß aller Dinge?

Eben nicht.
"Rechtssicherheit" würde hier mitunter bedeuten, dass allerhöchstens nach diesen Unfällen Teslas Autopilot verboten wird, nicht etwa das entsprechende System von Google noch dazu. Aber auch dafür würde ich keinen Anlass sehen.
Natürlich heutzutage nicht mehr. Damals zum Zeitpunkt des Tesla-Unfalles (immerhin schon zwei Jahre her) aber sehr wohl. Exakt dieser Unfall führte eben zum Zerwürfnis mit der Firma, die diese Erkennungssysteme baute (Mobileye).
Seit damals sind natürlich die anderen Systeme (Ford, Chreysler, Volvo, Deimler) die MobilEye einsetzen wesentlich besser als Tesla.

Geändert von MJ01 (06.02.2018 um 12:43 Uhr).
MJ01 ist offline   Mit Zitat antworten
Alt 06.02.2018, 14:44   #30
HaraldL
Lebendes Foren-Inventar
 
Registriert seit: 18.08.2002
Beiträge: 3.150
Standard

Warum macht man nicht auf Rennstrecken Wettrennen mit autonomen Autos, wobei man noch einige langsamere autonome Fahrzeuge in Form von Lastwägen in verschiedenen Bauformen auf die Strecke läßt?
Warum läßt man nicht auf geeigneten Verkehrsübungsplätzen mal zahlreiche autonome Autos so lange fahren, bis ihnen der Kraftstoff oder die Batterie ausgeht?
Dann zeigt sich doch, wie gut manche Technik ist!

Es stellt sich aber auch die Frage, ob nicht manche Hinweisschilder geändert werden müssen. Müssen Schilder mit Straßennamen so klein sein und können Hausnummern nicht auch auf Straßen gemalt werden?
HaraldL ist offline   Mit Zitat antworten
Antwort

Lesezeichen

Themen-Optionen
Ansicht

Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.
Gehe zu

Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
Urteil - Sie sind nicht mehr berechtigt, fahrerlaubnisfreie Fahrzeuge auf öffentliche HaraldL Kurioses 17 04.02.2010 17:24
Soldaten der Zukunft: Autonome Kampfroboter Zeitungsjunge Fischblog 2 04.03.2008 01:01
Geheimanlage Mount Weather - Eine autonome Stadt? Myticandy Mysteriöse Orte 11 17.06.2003 14:20


Alle Zeitangaben in WEZ +2. Es ist jetzt 12:54 Uhr.


Powered by vBulletin® ~ Copyright ©2000 - 2018 ~ Jelsoft Enterprises Ltd.


Das forum.grenzwissen.de unterliegt der Creative Common Lizenz, die Sie hier nachlesen können.
Wir bitten um Benachrichtigung, falls Sie Inhalte von uns verwenden.