:: forum.grenzwissen.de :: Das andere Forum für Grenzwissenschaften ::

 

Zurück   :: forum.grenzwissen.de :: Das andere Forum für Grenzwissenschaften :: > Politik & Wirtschaft > Überwachungsstaat > Künstliche Intelligenz

Künstliche Intelligenz Deep Learning, KI in der Praxis, Turing-Tests

Antwort
 
Themen-Optionen Ansicht
Alt 24.07.2016, 22:33   #1
basti_79
Lebende Moderatoren-Legende
 
Benutzerbild von basti_79
 
Registriert seit: 18.11.2005
Beiträge: 9.121
Standard KI als "tickende Zeitbombe"

Der Philosoph Nick Bostrom beschreibt seine Ängste vor KI. Dieses Motiv ist meiner Meinung nach schon in "Terminator 2" hinreichend behandelt worden. Da wird dann erst einmal unterstellt, dass KI's intelligenter sein könnten als Menschen, und dass sie auch bösartig sein könnten. Beides halte ich für ziemlichen Mumpitz.

Erstmal scheint Intelligenz absolut zu sein. So gibt es zwar jede Menge Streit darüber, wer nun (besonders) intelligent wäre und wer nicht, aber scheinbar nie einen Fall von offensichtlich konsequent überlegener natürlicher Intelligenz. Das liegt auch daran, dass viele Lernprozesse (Lernen wird mit Intelligenz assoziiert) eine Zeit brauchen.

Als Beispiel nehme ich gern den Fortschritt in der Mathematik. Es gibt da zahllose offene Probleme, aber es gelingt auch immer wieder, eine Frage, die schon lange offen war, zu beantworten. Im Rückblick war die Lösung dann irgendwo zwischen "trivial, aber schwer zu entdecken" und "technisch hochkompliziert". Es gibt Mathematiker, die allein viele Probleme gelöst haben (Euler z.B.), oder die - wie Paul Erdös - in Kooperation mit anderen sozusagen Geburtshelfer waren für Lösungen. Das scheint zwar eine individuelle Eigenschaft ("kann gut Mathematik betreiben"), und erfüllt auch eine Definition von Intelligenz (neue Probleme lösen), allerdings scheint es nicht der Fall zu sein, dass diese Leute anderswo genauso glänzen könnten.

Könnte man einer KI beibringen, mathematische Beweise zu führen, hätte man erstens definitiv eine "harte KI", die von einem Menschen nicht mehr zu unterscheiden ist, und zweitens sicherlich eine Möglichkeit, den Fortschritt in der Mathematik zu beschleunigen. Ähnlich wie beim Go kommt es bei der Mathematik oft darauf an, in einer unübersichtlichen Situation viele verschiedene Varianten auszuprobieren, von der dann eine stimmen würde. Computer sind gerade darin gut.

Jetzt ist das "Jahrhundertealte mathematische Probleme werden gelöst" nicht wirklich ein Bedrohungsszenario. Es müsste zusätzlich zu der unterstelltermaßen "schnellen" Intelligenz noch etwas dazukommen, dass daraus eine bedrohliche Situation wird. Bostrom deutet es an: die KI's könnten die Infrastruktur übernehmen, verhindern, dass sie abgeschaltet werden, oder sogar planen, die Menschheit zu vernichten.

Das halte ich nicht für realistisch. Erst einmal ist offensichtlich, dass bösartiges Verhalten bei Menschen tief in der Stammesgeschichte verwurzelt liegt. Territorialverhalten wie "Gartenzäune bauen", aber auch "Krieg", lässt sich zurückführen auf einen offenbar instinktiven Bedarf an Autonomie. Die Leute fühlen sich in der "kuscheligen Höhle mit viel Sicherheit" eben wohl.

KI's haben keine solchen Instinkte. Sie könnten das entsprechende Verhalten vielleicht von Menschen lernen, aber da sie ja tatsächlich "Tabula Rasa" wären, gibt es keinen Grund, anzunehmen, dass sie dieses Verhalten schon bei ihrer Schöpfung mitbringen. Ebensowenig haben sie einen Körper mit Nebennierenrinden, die Adrenalin ausschütten, mit Sexualorganen und einem dazugehörigen Trieb usw. - eine KI ist das genaue Gegenteil eines "embodied mind".

Sogar in der Psychiatrie wird inzwischen davon ausgegangen, dass Verhaltensstörungen auf anatomische (bzw. physiologische) Varietäten zurückzuführen sind. Das Asperger-Syndrom wäre demnach durch eine Unterversorgung von Nervenzellen mit dem Neurotransmitter GABA zu erklären, die Borderline-Störung durch eine übererregbare Amygdala, Narzissmus und Macchiavellismus durch eine wenig erregbare oder verkümmerte.

Mangels Althirn könnte eine KI nur dann überhaupt Aggression entwickeln, wenn sie dieses Verhalten durch Nachahmung lernt. Und wäre dann immer noch "nur" ein Programm auf einem Computer. Eine KI hätte nicht einmal den Wunsch, zu "überleben" (weiterbetrieben zu werden), wenn sie den nicht von Menschen lernt. Sie wüsste nicht, dass sie ein Programm auf einem Computer ist, der z.B. abgeschaltet werden könnte. Und wenn sie das lernt, wäre das für sie einfach Tatsache, wie es für uns Tatsache ist, dass wir eines Tages sterben werden.

Eine KI hätte keine Angst und keinen Zorn. Nicht im engeren Sinne der Worte. Sie kann vielleicht das entsprechende Verhalten zeigen, was für Behavioristen dasselbe ist, aber ihr fehlt die physiologische Grundlage für diese Emotionen - wie für alle anderen auch.

Man müsste also schon einen Teil des Programms eben so gestalten, dass die KI entsprechende Impulse bekommt. Warum aber sollte man das überhaupt tun?

Als Beispiel kann man selbstfahrende Autos verwenden. Die werden mit einem "Überlebensinstinkt" konstruiert. Das Programm, das die Autos steuert, wird so gestaltet, dass es Kollisionen vermeidet. Es lernt, kollisionsfrei Auto zu fahren. Wie jeder Mensch es auch in der Fahrschule lernt. Theoretisch könnte so ein selbstfahrendes Auto "Amok fahren". Es tut das aber nicht, weil es weder aggressive Impulse verspürt, noch so überhaupt denken könnte. Es hat keine persönlichen Ziele, und keine Emotionen noch dazu.

Die Frage wird erst dann spannend, wenn KI's tatsächlich Sozialverhalten zeigen, also mit Menschen oder miteinander kommunizieren. Und da könnte man dann unterstellen, dass sich eine KI z.B. in eine Machtposition bringt oder anfängt, Maschinen zu bedienen.

Das mit den Maschinen wäre für die KI etwas zwecklos. Natürlich sind z.B. Wasserwerke mit dem Internet verbunden und mitunter sogar fernwartbar. Die KI könnte möglicherweise die Wasserversorgung abstellen. Aber das hieße dann erst einmal, dass die Sicherheitssysteme des Wasserwerks mangelhaft waren, und dann ergäbe das ja für die KI gar keinen Sinn.

Ebensowenig könnte man unterstellen, dass KI's ohne weiteres Macht gewinnen wollen. Macht ist wieder so ein Primaten-Ding. KI's fehlt dafür einfach die anatomische Grundlage. Wenn man jetzt unterstellt, eine solche würde einkonstruiert, ebenso, wie man den selbstfahrenden Autos Fahren einkonstruiert, hätte man letztendlich eine politische KI. Und dann damit genau dieselben Probleme wie mit menschlichen Politikern. Man bräuchte "Sicherungen", dass die KI sich nicht zum Diktator aufschwingt oder sich korrumpieren lässt - wobei, Korruption ist schon reichlich sinnlos, wenn man kein Geld braucht.

Entsprechend kann man sich auch vorstellen, dass man der KI einbaut, Geld hinterherzulaufen. Das Endergebnis wäre dann ein künstlicher Banker.

Es gibt schlicht keinen Grund, zu unterstellen, KI's könnten in ihrer Bösartigkeit Menschen nicht nur gleichkommen, sondern sogar übertreffen. Der Mythos vom "Guten im Menschen" hat schon lange ausgedient, zumindest, was Alpha-Primaten angeht. Die setzen schlicht ihre eigenen Interessen vor die aller anderen und werden dafür auch noch von vielen bewundert, ja sogar angefeuert und darin unterstützt. Diktaturen können nur funktionieren, wenn ein substantieller Teil der Bevölkerung "stillschweigend" mitmacht. Und die Behauptung, eine KI könnte ein noch größeres Maß an Trägheit und Inkompetenz an den Tag legen als z.B. die Bundesregierung, halte ich für gewagt.

Im Artikel ist die Rede von "Werten", die man den KI's dann "einimpfen" müsste. Da reicht ein Fingerzeig auf die Realität, um den Unterschied zwischen Anspruch und Wirklichkeit zu verdeutlichen. Einerseits wird gerüchtet, Menschen würden ethisch handeln und versuchen, andere Leute nicht zu quälen. Andererseits empfinden viele ihr Leben als qualvoll, und können auch ganz klar bestimmte Leute benennen, die sie quälen.

Bostrom will das ganz anders sehen: die KI's sollten doch lieber am Vorbild der Menschen lernen, statt dass man ihnen Ethik "mitgibt". Das sehe ich, angesichts eben jener Realität, als fragwürdig an. Ich befürchte da keine Apokalypse, aber wenn wir ehrlich sind, ist Arschlochverhalten so weit verbreitet, dass die KI's eher dieses lernen würden als alles andere. Anscheinend hält Bostrom selber wenig von Ethik, dass er sie nicht einmal verbreitet sehen möchte.

Als ebenso wenig realistisch wie die ganzen Übertreibungen sehe ich den Versuch, die Verwirklichung von "harter KI" so weit in die Zukunft zu verlegen. Es ist meiner Meinung nach nicht mehr allzu weit bis dahin.

Es handelt es sich insgesamt wohl um eine Instanz von:

Zitat:
Zitat von Douglas Adams
I've come up with a set of rules that describe our reactions to technologies:
1. Anything that is in the world when you’re born is normal and ordinary and is just a natural part of the way the world works.
2. Anything that's invented between when you’re fifteen and thirty-five is new and exciting and revolutionary and you can probably get a career in it.
3. Anything invented after you're thirty-five is against the natural order of things.
Aber was erwartet man auch... der beschäftigt sich laut Wikipedia mit Matrixismus und Transhumanismus... Wenn's Geld bringt und Anerkennung...?

http://taz.de/Kuenstliche-Intelligenz/!5321037/
__________________
Perfidulo: Ich hatte erst vor, einen Roman darüber [über das verschwundene Mittelalter] zu schreiben.
Groschenjunge: Was ist der Unterschied zum Jetzt?
Perfidulo: Es quasseln nicht dauernd Leute dazwischen.
basti_79 ist offline   Mit Zitat antworten
Antwort

Lesezeichen

Themen-Optionen
Ansicht

Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.
Gehe zu

Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
"Zionist" ist ein antisemitischer Code für "Jude" basti_79 Justiz 7 11.09.2016 18:17
"Der Westen": "Neonazi muss dreiseitigen Aufsatz schreiben" basti_79 Bildung und Schulen 3 31.03.2014 12:11
Was ist der Unterschied zwischen "Bilanz" und "Gewinn & Verlust-Rechnung"? basti_79 Ökonomie - BWL & VWL 11 17.08.2011 21:11


Alle Zeitangaben in WEZ +2. Es ist jetzt 03:49 Uhr.


Powered by vBulletin® ~ Copyright ©2000 - 2017 ~ Jelsoft Enterprises Ltd.


Das forum.grenzwissen.de unterliegt der Creative Common Lizenz, die Sie hier nachlesen können.
Wir bitten um Benachrichtigung, falls Sie Inhalte von uns verwenden.