Ein nettes Projekt wäre sicher, wenn eine PS3 für die Steuerung des Robonova verwendet wird, eine ein Simulationsmodell des Roboters errechnet, eine weitere die wirklichen Bewegungen und Sensordaten des physischen Roboters erfasst und damit dann die Modellparamter verfeinert. So könnte man ein adaptives Robotermodell schaffen mit dem dann wiederum die Bahn- und Bewegungsplanung auf der ersten PS3 durchgeführt wird...

Weitere schöne Anwendungen "unbegrenzter" Rechenleistung wären natürlich auch Spracherkennung und Sprachsynthese für den Robonova.
Genau: Spracherkennung und Synthese dürfte kein Problem sein.
Da gibt es ja massenhaft Code für.
Die Robodance-Software nutzt ja schon eine Sprachsteuerung von Robotern über Skype (Internet).
Das verbraucht auch kaum Resourcen. Das macht ein SPE im Schlaf.

Mir reichen Codes in Hochsprache (z.B. in C)
Die Konvertierung macht ein entsprechendes Kompilerprogramm.
Das wird quasi automatisch angepaßt.
Anpassen müßte Ich da nur die I/O-Schnittstellen, ...
Die Video-Digitalisierung geschieht über Linux (USB-Video-Capturekarte).
Die Datenübertragung an den Robonova könnte Ich z.B. über Bluthooth machen. Für den Anfang erstmal IR oder USB-Seriell-Adapter.

Einen Robonova - Bausatz habe Ich gerade gekauft.
Ich würde am liebsten die Bewegungen statt durch den
ATMEGA128L durch den Cluster erledigen und den
ATMEGA128L als reinen "Durchreicher".
Sprich Er soll nur die Sensordaten und die Befehle für die
Servos durchreichen. Eventuell gewisse einfache Muster.

Die Idee ist eine Trennung in Bewustsein und autonomer Selbststeuerung.
Sprich, daß der ATM128L dafür sorgt, daß der Roboter nicht fällt.

Oder meint Ihr, daß es sinnvoller wäre, schon Servo-Routinen im ATM128 zu hinterlegen? Allerdings hat das den Nachteil, daß die Bewegungen nicht so komplex flexibel variierbar sind. Z.B. keine durch den Roboter lernbare Bewegungen sondern nur die Auswahl vorgefertigter Bewegungen.
Man könnte zwar eine Feedback-Anpassung z.B. durch einen Gyro- oder Tilt-Sensor machen (kommt sowiso rein), aber Ich glaube nicht, daß der ATM128L eine derart notwendige komlexe dynamische Anpassung der Bewegungen schafft.

Am liebsten wäre mir, wenn der ATM128L solange der Cluster den Roboter steuert sich nur für den Notfall bereithält. Wenn z.B. der Datenstrom abreist. Dann könnte der ATM auf ein Ausfall- oder Notfall-Programm umschalten und die Robotersteuerung übernehmen.

Der Robonova soll eine Kamera, Microphone, ein Gyro- oder Tilt-, ein Ultraschall-Sensor, ein Kompass oder GPS-Modul und eine leistungsfähigere Datenverbindung bekommen.
Also max. Kamera + Microphone + 3x Sensoren + Datenverbindung.
Eventuell noch Temperatursensor und änliche Sensoren, die quasi kaum Platz und Gewicht benötigen.
Ich will den Roboter aber auf keinen Fall überladen.

Die Kameradaten will Ich direkt per Funk übertragen,
da es bisher noch keine leistungsfähigen Erkennungssysteme gibt.
Der Robonova muß ohnehin schon mit den Sensoren genug schleppen.
Ich will Ihn nicht noch mehr belasten.

Mir ist durchaus klar, daß das Ganze ziemlich heftig ist.
Genau deshalb, will Ich schon vorhandenen Quellcode nutzen.

Wenn Ich wirklich Alles selbst schreiben muß, wird das Ganze sicherlich etliche Jahre dauern. Alleine Bilderkennung, neuronales Netzwerk, ...

Ein Kameramodul + Mikrophone incl. Antenne habe Ich schon und Ich arbeite gerade an der Verarbeitung der Capturedaten vom USB-AV-Capturemodul.

Die Streamdaten muß Ich dann an die entsprechenden Erkennungs-Programme übergeben.