Hallo,
ich suche Gruppen/Leute, die ernsthaft versuchen, Grundlagen für die "starke KI" zu finden. Ich selbst habe es mir gewissermaßend zur Lebensaufgabe gemacht, wenn auch (erstmal?) "nur" hobbymäßig (allerdings auf Basis meines Informatik-Diploms (1993) mit Schwerpunktsbereich KI).
Meine Ausgangsthese: Starke KI ("sKI") ist möglich. Ich verstehe darunter, dass es keinen prinzipiellen Unterschied zwischen menschlicher und sKI gibt, also dass es keine theoretischen Grenzen für sKI gibt. Das heißt aber nicht, dass sKI zwangsweise identisch oder zumindest sehr ähnlich zum Menschen sein muss (ob das nun gewünscht ist oder nicht).
Zu euren Beiträgen, hier erstmal zum Ausgangsbeitrag:
Ob dies nun durch künstliche neuronale Netze("knN") oder anders geschehen kann, ist mir persönlich eigentlich egal bzw. ich erwarte, dass die Gebiete der symbolischen und der subsymblischen KI (knN) mehr verschmelzen werden. Persönlich bin ich aber mehr für die symbolische KI.
Entscheidend ist m.E. aber viel mehr, dass eine sKI von Grund auf Lernen können muss. Die Frage ist dann die der Ausgangsbasis, des fundamentalen "Wissens" u.ä.
Außerdem muss eine sKI eine "Urmotivation" haben, also von sich aus aktiv agieren (wollen).
Daneben ist ein Körper wie die eines Roboters sehr hilfreich.
(Details ggf. ein anderes Mal.)
Zitat:
Um eine KI zu schaffen, die so wie das Hirn des Menschen arbeitet, müsste man verstehen, wie genau das Hirn arbeitet.
Eine (s)KI muss ja zum Glück nicht genauso arbeiten.
@xunwichtig:
Wie du das genauer siehst, interessiert mich, da du auch schon viele Jahre dabei bist.
Sicher ist Rechenleistung ein Problem, aber vielmehr ist die "Strategie" (wie du es nennst) entscheidend. Wie dies auf biochemischem Weg erreicht werden kann, ist mir nicht klar, allerdings auch nicht mehr Weg als Informatiker.
Zitat:
Künstlich ist auch deshalb unangebracht, da man sich als Gott hin stellt. Eine Intelligenz ist nicht etwas, das man (wir / du / ich) schaffen kann, sondern etwas, das sich mit der zeit selbst bildet. Daher ist KI eine fehlannahme in bezug zur "schaffung" von Intelligenten Systemen.
Ich stimme dir voll zu, dass KI sich mit der Zeit "selbst bildet", nämlich auf Basis (fast) ständigen Lernens. Ob man es nun aber "KI"/"künstlich" nennt, ist ziemlich egal; man wird dadurch nicht zum Gott, sondern nur zum Erschaffer im Sinne eines Ingenieurs o.ä. (vor allem, wenn man es nicht biochemisch/biologisch angeht).
Zitat:
Ihr solltet euch erstmal darüber klar werden, WAS für eine Intelligente Software Ihr überhaupt meint.
Das ist sicherlich nie verkehrt :)
Zitat:
...müssen wir ja erstmal selbst herausfinden, ob wir Intelligent sind, udn was das geanu bedeuten mag. Schliesslich wenden wir hier nur ein Verfahren an, das anhand unseres Massstabs definiert, das "dieses" Intellignet ist, oder nicht.
Bei Intelligenz werden wir Menschen uns selbst meist als Ausgangspunkt nehmen. Für mich ist Intelligenz die (Güte der) Fähigkeit, seine eigenen Ziele/Bedürfnisse/Wünsche zu erreichen/befriedigen zu können.
@Sternthaler:
Zitat:
p_mork hat folgendes geschrieben::
Zitat:
Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.
Ist aber das nicht genau das Problem? Denn wie sage ich einem Programm, dass es nicht vollkommen das tun soll, was im Programm steht?
Ganz einfach: In dem man bei dem Prgramm nur fundamentale Grundlagen festlegt, den Rest lernt es.
Zitat:
Damit ist dann ja schon mal ein sich selbst änderndes Programm geschaffen.
Das ist zwar grundsätzlich möglich, halte ich aber nicht für zielführend und nötig. Es reicht, wenn das Programm einen kleinen, festen Kern hat und ein immer weiter wachsende "Hülle" durch sein ständig Gelerntes (technisch eine immer weiter wachsende Datenbank u.ä.)
Sollte es wirklich einen grundlegenden Fehler im Kern geben, wäre es sinnvoller, ein neues Programm zu schaffen. Verglichen auf uns Menschen ist das Evolution: Ein einzelner Mensch ändert seine Genstruktur nicht, aber seine Kinder, Enkel usw. habe eine (etwas) andere.
Zitat:
Was verstehen wir überhaupt unter dem Begriff Inteligenz. Der Turing-Test ist ja schon mal ein Ansatz.
Ersteres ist sicher ein wichtiger Punkt, der hier m.A.n. zu weit führt (und eher was für www.philosophie-raum.de ist). Den Turing-Test sehe ich auch als guten Ansatz an - einen besseren gibt es m.A.n. (bisher??) nicht.
@lpw:
Zitat:
Da steckt ein Problem drin, denn wenn wissen macht ist, dann sind Computer in vielen Bereichen intelligenter als Menschen (wenn sie zusammenarbeiten), wenn sie dann noch lernen wie man lernt werden Menschen nicht mehr lange die dominanten "Lebewesen" sein....
Richtig, das Lernen kann den Computer leicht zum "wissens-intelligenteren" Wesen machen. Allerdings muss er dadurch nicht dominant sein: Das ist eine Frage seiner Grundprogrammierung, ob wir ihm einen entsprechenden (Bedürfnis zum) Egoismus zugestehen.
Da ich fürchte, dass mein Beitrag zu lang wird, beende ich diesen hier.
Gruß
Burkart