So müsste MemBrain mit mehreren Instanzen doch auch agieren
Ich denke, dass das nicht ganz vergleichbar ist: Bei MemBrain müsste ein Client ja schließlich bestimmen können, mit welcher MemBrain Instanz er sich verbinden möchte (jede enthält ja u.U ein völlig anderes Netz mit anderen I/O Namen etc.). Dementsprechend müsste jede MemBrain Instanz ein eigener Server sein, der auf einem in bestimmten Grenzen zuweisbaren Port lauscht.

Uuhh, dann stellt sich die Frage, wie man ein Netz, das sich auf diverse PCs verteilt, die zwar übers Netz verbunden sind, trainiert.
Da hab' ich sowieso Bedenken: Für Backpropagation müsste man jeder MemBrain Instanz auch noch Fehler-Signale übermitteln. Außerdem müsste das Ganze synchronisiert ablaufen, in einer bestimmten, bekannten Reihenfolge der Sub-Netze. Eine Instanz müsste "Master" sein, die I/O Daten kennen und dann das Lernen triggern, welches dann in einer Art Kettenreaktion über alle Instanzen laufen müsste, bis zurück zum Master. In einem ersten Anlauf möchte ich das ganz bestimmt noch nicht realisieren. Hinzu kommt, dass der Backprop Algorithmus sowieso ein Problem mit Netzen mit vielen Layern hat: Die Fehlersignale werden beim Zurückpropagieren per Definition immer kleiner, so dass Schichten, die weit vom Ausgang weg liegen, kaum trainiert werden.
Was ich mir da schon eher vorstellen kann, ist eine Art Hebb'scher Lernalgorithmus, bei dem ein Neuron lediglich seine direkten Nachbarn kennen muss, um seine Aktivierungsschwelle und sein Verbindungsstärken zu ändern. Das entspricht auch vielmehr der Biologie, es muss keine bestimmte Netzarchitektur vorliegen. Allerdings habe ich mit solchen Teachern bisher keine Erfolge gehabt, da bin ich noch am Tüfteln.
Mit einem solchen Teacher könnte jede MemBrain Instanz für sich selbst lernen, ohne von den anderen zu wissen. Dann bräuchte man vielleicht nur noch so eine Art Botenstoff-Arsenal, welches als globale Messages von verschiedenen MemBrain Instanzen verteilt werden könnte... fantasier...

Vielleicht könnte man ja doch was drehen an der Priorität von MemBrain, damit auch stärkerer Netzwerkverkehr noch durchkommt
Kann man doch schon mit Hilfe der Think- und Teach-Geschwindigkeit. Gibt es da immer noch Probleme?
Ein (MemBrain-)Netz über ein (TCP-)Netzwerk zu verteilen, stößt meiner Ansicht nach an schon fast philosophische Grenzen.
Allerdings... der Gedanke macht mir auch wirklich Spaß!!

Ich würde gerne nochmal das Beispiel von der Entfernungsmessung nehmen:
Ein Entfernungswert könnte jederzeit bei Bedarf abgeholt werden (Reaktion).
Dieser Bedarfsfall sollte nicht die Regel sein, um zu überprüfen, ob eine "gefährliche" Distanz unterschritten wurde, sonder um sie z.B. für die Auswertung eines anderen Ereignisses heran zu ziehen.
Sollte im Gegensatz dazu eine Schwellenwert unterschreitung stattfinden, so sollte eine Aktion ausgelöst werden (Aktion).
Generell würde ich das einheitlich gestalten (z.B. Inputs pollen, Outputs berechnen und bei Anfragen nach außen zur Verfügung stellen). Prinzipiell benötigt ein Netz bei jedem Berechnungsschritt einen möglichst aktuellen Satz Input Daten. Ob es die nun gesendet bekommt oder zyklisch pollt ist aus meiner Sicht gar nicht so wichtig, ich denke man sollte hier auf ein möglichst robustes und performanzoptimiertes Modell zielen.

Ich würde es gerne so formulieren:
Um zeitnahe erste Tests machen zu können, sollte ein Basisprotokoll geschaffen werden, auf dem sich weitere (höhere) Protokollschichten aufsetzen lassen. Oder ?
Schön gesagt... dieser Formulierung kann ich natürlich nur zustimmen