der wesentliche Punkt wäre, dass es lernfähig = auf verschiedene Input- und Reaktionsmuster flexibel trainierbar ist, denn sonst macht ein NN IMO keinen Sinn - und dafür dürfte es gern ein paar Transistoren mehr besitzen...
der wesentliche Punkt wäre, dass es lernfähig = auf verschiedene Input- und Reaktionsmuster flexibel trainierbar ist, denn sonst macht ein NN IMO keinen Sinn - und dafür dürfte es gern ein paar Transistoren mehr besitzen...
Der Dreh an der Sache ist doch der: ein biologisches Gehirn kennt keine Digitaltechnik, es funktioniert analog und zwar ausschließlich. Das kann man elektronisch analog nachbauen, oder man greift auf Digitaltechnik zurück. Wodurch es eben möglich wird, extrem viel Platz einzusparen. Auch wenn im Vergleich evtl. mehr Bauteile benötigt werden. Der Kostenaufwand beim diskret analogen Aufbau wäre ungleich viel höher. Auch der Materialeinsatz steigt nicht unbeträchtlich. Dieses hat man doch bei der Erfindung des Computers durchgemacht. Deswegen dürfen wir stolz sein, dass wir heute Milliarden Transistoren auf 1cm² unterbringen können. Lehrreich ist ein analoger Aufbau, zum Verständnis, aber allemal und super geeignet.
MfG
analog oder digital mit float oder double (die ja auch analoge Werte nachbilden) - völlig egal, Hauptsache: lernfähig, und je leistungsfähiger, desto besser.
Ist denn diese analoge Schaltung nun lernfähig und trainierbar auf Muster oder Umweltreize?
Außerdem funktoniert ein biologisches Gehirn nicht analog, sondern reagiert auf abzählbare Neurotransmitter-Molekülzahlzahlen an Rezeptoren, bis zu Schwellenwerten, in Ganzzahl-Schritten, worauf hin dann ab dem Schwellenwert die Polarisation nach "alles-oder-nichts"-Gesetz erfolgt, also quasi 0 auf 1 (Depolarisation), anschließend wieder zurück auf 0 (Repolarisation), demnach ist die Auslösung des Nervenzellimpulses ein getriggertes digitales Ereignis.
PS: Strengenommen beruht aber ja auch "analog"-Technik auf einer abzählbaren ganzzahligen Schritt-Anzahl von Überträgern, nämlich Elektronen (nur dass die Schritte hier noch deutlich kleiner sind als die (schrittweise) rund 0 bis 1010 Neurotransmitter-Moleküle im synaptischen Spalt von nat. Nervenzellen)
Geändert von HaWe (30.11.2019 um 22:27 Uhr) Grund: typo
Nein, es funktioniert gemischt: Sowohl analog als auch digital. Im vereinfachten Modell entspricht die Spannung am Kondensator dem Zellpotential und das ist analog. Der Puls ( oder im Fachjargon "das Aktionspotential" ) ist digital. Er ist entweder da oder er ist nicht da.Der Dreh an der Sache ist doch der: ein biologisches Gehirn kennt keine Digitaltechnik, es funktioniert analog und zwar ausschließlich.
Da Du Dich ja mit der KI ein wenig auskennst: Bei den meisten praktischen Anwendungen wird zwischen "Training" und "Inferenz" unterschieden. Normalerweise ist das Training auf leistungsstarken Computern mit großen Trainingsdatensätzen durchgeführt. Die spätere Anwendung kann z.B. auf einem relativ schwachbrüstigen Mikrocontroller ( von mir aus mit KI-Beschleuniger wie der Kendryte K210 ) durchgeführt werden.der wesentliche Punkt wäre, dass es lernfähig = auf verschiedene Input- und Reaktionsmuster flexibel trainierbar ist, denn sonst macht ein NN IMO keinen Sinn - und dafür dürfte es gern ein paar Transistoren mehr besitzen...
Die trainierten Modelle kann man z.B. für Tensorfloor fertig herunter laden. Das resultierende System ist starr, wurde aber vorher durch lernen erzeugt, ist aber selbst nicht mehr lernfähig.
Spiking Neurons, the next step: https://www.roboternetz.de/community...en-Intelligenz
Das das nun mehr oder weniger Unsinn ist, wenn man sich betrachtet, wie Analaogtechnik funktioniert...
... das hast Du dann ja auch schon selbst bemerkt.
Analog
zu Analog schreibt der Duden: kontinuierlich, stufenlos
Beispiel Physik: analoges Signal (Analogsignal)
Auch wenn analoge Vorgänge auf digitaler Ebene beschrieben werden können, ändert das nichts daran, was sie sind.
"Er ist entweder da oder er ist nicht da." ist eine Betrachtungsweise.
Zum Beispiel: ein Auto auf der Straße ist auch da oder nicht da. Je nachdem, wann ich hinschaue. Deswegen ist seine Bewegung nicht digital.
Da es im biologischen Gehirn sprunghafte Anstiege gibt, plötzliche Entladungen, und die Funktion im Wesentlich auch darauf beruht, will ich mir hier gar nicht gegen einzelne Betrachtungen stellen.
MfG
Geändert von Moppi (01.12.2019 um 07:32 Uhr)
naja Moppi, wie es sich anhört bist du ja ein Fachmann auf dem Gebiet der analogen und digitalen, lernfähigen neuronalen Netze, der Physiologie und Anatomie der tierischen und menschlichen Neurone sowie der Informationstheorie...Zitat von Moppi
- - - Aktualisiert - - -
Das Zellpotential ist eine elektrische Spannung, hervorgerufen durch einen K/Na-Gradienten, ja: hier liegt etwas vor wie eine elektrische Spannung bei Kondensatoren.Zitat von stochri
Was aber zur Auslösung eines Impulses führt und auch auf trainiertem/gelerntem Verhalten beruht, das hat damit nichts unmittelbares zu tun, denn das läuft NICHT über eine "analoge" elektrische Spannung:
es sind vergleichsweise viel kleinere Zahlen von Molekülen in der Synapse: diese steigen schrittweise von Null auf 5-10 Milliarden an (in zählbaren Portions-Schritten, sowie sie aus einzelnen Vesikeln ausgeschüttet werden), und bei einem bestimmten Zwischenwert (quasi eine Integer-Zahl) dazwischen, bei dem sie an Rezeptoren andocken, wird ein kritischer Grenzwert erreicht. Das ist nicht mehr analog, sondern eben ein digitaler Integer-Zahlenwert: und dies ist das, was die Lernfunktion der Zelle ausmacht.
Sobald diese bestimmte abzählbare Anzahl an Rezeptoren einen Bindungspartner hat, depolarisiert das Neuron kurzfristig komplett, das ist das (digitale) Aktivierungsereignis: beschreibbar als 0 oder 1.
So betrachtet muss man die (analoge) Zellspannung funktionell trennen von den Mechanismen, wie das Neuron lernt und wie es auslöst, und das kann man durch rein digitale Prozesse beschreiben.
Was du über lernfähige Netze schreibst, ist genau das, was lernfähige natürliche Neuronen oder elektronische Perzeptronen ausmachen:
Es ist ein und dieselbe Struktur, die sowohl lernen kann, als auch gelerntes ausführen kann, als auch dann wieder umlernen oder dazu lernen kann, und dann wieder das neu gelernte verbessert oder erweitert wiedergeben kann, und auch dann wieder weiter lernen kann, und genau das macht ein intelligentes System ja aus.
Ein Gerät, welches nur dieses fertige gelernte Wissen wiedergeben kann, ist hingegen nicht intelligenter als eine Schallplatte.
Mir ist nicht klar, inwieweit das analoge Schaltungsbeispiel aus dem TOP zum Lernen fähig ist.
Geändert von HaWe (01.12.2019 um 11:14 Uhr)
Die Diskussion hier geht um zwei Punkte, die Unterscheidung zwischen analog und digital und die Definition von neuronalen Netzen bezüglich ihrer Lernfähigkeit.
Interessanterweise sind es nur Begriffe die unterschiedlich zugeordnet werden, die Sachverhalte werden werden dabei nicht unterschiedlich beurteilt.
Ein passendes Beispiel für analog und digital ist sicher der Eingang eines Arduino, ein sogenannter analoger Eingang unterscheidet auch nur zwischen vielen diskreten Spannungswerten. Man könnte also auch dort nach anderen Bezeichnungen suchen, die Bezeichung ist nur eben weit verbreitet.
Auch bei den neuronalen Netzen kann man nach Beispielen suchen. Wenn das Netz nicht mehr intelligenter ist als eine Schallplatte weil es aufgehört hat zu lernen, wie wird es dann genannt? Ist die Beschreibung neuronales Netz wirklich nicht mehr angebracht? Welche andere Bezeichnung gibt es dann für ein solches Gebilde?
Vorraussetzung für die Netze, die nur wiedergeben, ist, dass es lernfähige Netze gibt, mit denen man Daten trainieren kann und sie den anderen dann "überspielt".
Das eine sind dann eben intelligente lernfähige Netze ("KI"), das andere sind statische, nicht lernfähige Netze, pointiert ausgedrückt: das eine ist das Orchester, das andere der Plattenspieler.
Perzeptronen wie in Feed-Forward-, Backpropagation, Jordan-, Elman- oder Hopfield-Netzen oder auch SOMs sind lernfähig ("KI") und können sellbstverständlich auch zusätzlich das Gelernte wiedergeben, umlernen oder dazu lernen.
Meine Frage ist, inwiefern eine analoge Schaltung wie im TOP bezüglich ihrer Reaktionsmuster (vergleichbar) lernfähig ist oder sein kann, oder wie dann eine lernfähige analoge Zelle aussieht und alleine und im Verbund (Netz) funktioniert.
Lesezeichen