Hey, cool, Du hast es geschafft =D> . Danke für das Video.
Was für Kondensatoren hast Du genommen? Die 100nF? Man könnte das ganze langsamer kriegen, wenn man einfach die 100nF durch 1uF ersetzt.
Hey, cool, Du hast es geschafft =D> . Danke für das Video.
Was für Kondensatoren hast Du genommen? Die 100nF? Man könnte das ganze langsamer kriegen, wenn man einfach die 100nF durch 1uF ersetzt.
Spiking Neurons, the next step: https://www.roboternetz.de/community...en-Intelligenz
Grundaufbau für das Video wie im elektronik-labor mit 100nF Kondensatoren für die Neuronen. In der Simulation hatte ich schon mal 1µF versucht und mußte dann die Schaltung neu abstimmen. Jetzt habe ich das real auch nochmal mit 1µF probiert. Mit und ohne Veränderung des Pulsgenerators. Es wird langsamer aber die Blinkreihenfolge der LEDs für das Lauflicht kommt durcheinander und die Trimmer müssen neu eingstellt werden. Das ist zumindest in meiner Schaltung diffizil, erfordert durch die langsamere Frequenz mehr Geduld, scheint aber möglich.
Nettes Rätsel. Hat Spaß gemacht. Bin gespannt, wie die KI Diskussion weitergeht. Mir fehlt ein praktischer, ganz einacher Testfall, in dem man ein minimales neuronales Netz gleich welcher Art real und anschaulich ausprobieren kann. In der Art, daß ein mechanischer Arm verschiedenfarbige Gewichte zu heben versucht und bei einer Farbe immer scheitert und sich später gar nicht mehr daran versucht. Ist mir in der Verwirklichung noch zu zu aufwendig aber so ähnlich halt.
Gruß
Searcher
Hoffentlich liegt das Ziel auch am Weg
..................................................................Der Wegzu einigen meiner Konstruktionen
das ist kein einfaches Beispiel, sondern bereits ein vergleichsweise extrem komplexes.Mir fehlt ein praktischer, ganz einacher Testfall, in dem man ein minimales neuronales Netz gleich welcher Art real und anschaulich ausprobieren kann. In der Art, daß ein mechanischer Arm verschiedenfarbige Gewichte zu heben versucht und bei einer Farbe immer scheitert und sich später gar nicht mehr daran versucht.
Mit 5-10 Neuronen wirst du es nur schaffen, einfache Muster in der Art von AND, NAND, OR, NOR, NOT und (vielleicht) XOR und deren Verknüpfungen für sehr wenige digitale Inputs hinzukriegen (vlt bis zu einem Dutzend).
Mit etwa 100-150 Neuronen wirst du einfachste Mustererkennungen trainieren und erkennen können (z.B. verschieden platzierte Zeichensymbole auf einer 10x10 Punktematrix als Input-Array).
Erst mit weitaus größeren Netze könnten komplexe Verhaltenmuster trainiert werden.
Und die Trainingszeit wächst exponentiell von Minuten zu Stunden zu Wochen oder Monaten, je nach cpu.
Ich kann mich noch an eine Zeit erinnern, als in den Elektronikzeitschriften noch Schaltungen mit der 74xx Logik gezeigt wurden. Damals hat man die ganzen Lauflichter und Ähnliches mit diesen Bausteinen gebaut. Man war da noch näher an der eigentlichen Rechenlogik. Bis zur künstlichen Intelligenz auf den Computern der heutigen Zeit war es ein weiter Weg und vermutlich hat keiner am Anfang versucht, den Schaltungen aus Logikgattern irgendwie Intelligenz einzuflösen.
Jetzt haben wir in diesem Thread gesehen, wie man aus den Pulsneuronen ein Lauflicht bauen kann. Dieses Lauflicht funktioniert vollständig anders als die Lauflichter mit der 74xer Reihe. Entscheidend ist der Transistorcount: Im SNN-Pulsneuronenbuch wird gezeigt, dass man ein Neuron aus 4 Transistonen bauen kann ( so meine ich mich zu erinnern, ohne jetzt nachschlagen zu wollen ). Wieviel mehr Transistoren braucht man wohl für das Bit eines gewöhnliches Schieberegisters?
Das dürften deutlich mehr sein, sehr viel mehr. Und das Neuron kann noch ein paar Zustände mehr represäntieren.
Es stellt sich als die Frage, um wie viel diese Maschine hier kleiner würde, wenn man sie aus neuronaler Logik aufbauten würde:
https://hackaday.com/2016/07/06/4230...r-is-complete/
Spiking Neurons, the next step: https://www.roboternetz.de/community...en-Intelligenz
Hallo stochri,
Deine Formulierung ist sehr ungenau, finde ich.
Eine Antwort auf die Frage findest Du u.A. bei Wikipedia unter FlipFlop. Es representiert vom Prinzip eine Speicherstelle in Form eines Bit. Es kann gesetzt werden und hält den Zustand, bis es zurückgesetzt wird.
Folgend nur ein Hinweis:
Hier lohnt es sich, sich mit dem Thema Quantencomputer auseinanderzusetzen. Bei dieser Materie geht es genau um solche Sachverhalte, der Speicherung mehrerer Zustände.Und das Neuron kann noch ein paar Zustände mehr represäntieren.
MfG
Wieso ungenau? Die Aufgabe ist ganz einfach: Baue ein Lauflicht mit Transistoren. Eines nach klassischer Logik und eines mit neuronaler Schaltungstechnik. Wenn Du mit der neuronalen Schaltungstechnik weniger brauchst, hat sie gewonnen.Deine Formulierung ist sehr ungenau, finde ich.
Quantencomputer haben nichts mit den Pulsneuronen zu tun ( und deshalb vermutlich ebensowenig wie mit der Funktion unseres Gehirns ).Hier lohnt es sich, sich mit dem Thema Quantencomputer auseinanderzusetzen. Bei dieser Materie geht es genau um solche Sachverhalte, der Speicherung mehrerer Zustände.
Wenn ich von mehreren Zuständen spreche, dann meine ich die Zustandsvariable: Beim binären Flip/Flop hat sie zwei Zustände und beim SNN-Neuron ist es die Spannung am Integrationskondensator. Die ist kontinuierlich und unter der Annahme, sie wäre unendlich genau bräuchte man für die Darstellung auch unendlich viele binäre Zustände. Das ist praktisch natürlich nicht der Fall ( aufgrund von Schaltungstoleranzen und anderem ), so dass man beim gezeigten Neuron wahrscheinlich mit 3Bit auskommt.
Spiking Neurons, the next step: https://www.roboternetz.de/community...en-Intelligenz
Gut, ich dachte jetzt, Du erkennst, was gemeint war.
Ich erkläre es ganz genau:
Das stimmt nicht und ist daher falsch. Es sei denn, Du meintest das anders. Die Antwort lautet: nicht mehr, sondern weniger Transistoren werden benötigt, um ein Bit abzubilden.Im SNN-Pulsneuronenbuch wird gezeigt, dass man ein Neuron aus 4 Transistonen bauen kann ( so meine ich mich zu erinnern, ohne jetzt nachschlagen zu wollen ). Wieviel mehr Transistoren braucht man wohl für das Bit eines gewöhnliches Schieberegisters? Das dürften deutlich mehr sein, sehr viel mehr.
Was Du mit Bit eines Schieberegisters meinst, ist mir daher nicht klar. Deshalb schrieb ich: Deine Formulierung ist sehr ungenau.
MfG
- - - Aktualisiert - - -
Für den Fall, dass ein Schieberegister aus D-Flip-Flops aufgebaut ist, würdest Du mit "Bit" ein D-Flip-Flop meinen.
Ein D-Flip-Flop kann man aus 4 NAND-Gattern aufbauen.
Ein NAND-Gatter besteht aus 2 Transistoren.
Ergo wäre die Antwort: für ein "Bit" eines Schieberegisters bräuchte man 2 mal 4, also 8 Transistoren.
Die AussageIst hier sehr relativ (ungenau). Nach der obigen Betrachtung sind es mal gerade doppelt so viele Transistoren, wenn Du, bei Deiner andern Sache, 4 Transistoren benötigst.Das dürften deutlich mehr sein, sehr viel mehr
Dazu kommen aber noch Widerstände und Kondensatoren. Vielleicht sollte man die Größe der Schaltung / der Schaltkreise und Gesamtzahl an diskreten Bauelementen in eine solche Betrachtung einbeziehen.
MfG
Lesezeichen