Hallo Fangemeinde!
Als Programmierer des Teils kurz zur Lage der Dinge:
Zum Erkennen des Untergrundes: Geht schon ganz gut, nur sind die Fototransistoren besonders auf rot und infrarot empfindlich. Da wär sicher noch einiges an Optimierung nötig - aber wir haben ja zum Glück noch die Erkennung von Hindernissen AUF dem Rasen.

3 Ansätze muss ich noch überprüfen:

1) Odometrie; geht aber nicht per NQC, sondern nur per Java auf dem RCX (wegen der Variablen und der Fließkommaarithmetik). Nun drehen aber die Räder manchmal durch, ist also zur Positionsbestimmung nicht besonders genau. Daher braucht man also noch eine Peilung zur Ortsbestimmung, um die Odometrie-Daten zu aktualisieren. Und einen 2. RCX als Slave, da alle vorhandenen Sensoreingänge bereits belegt sind. Die Positionsdaten aus Odometrie lassen sich aber in der grausam verkapselten LeJos-Navigator-Class nicht einfach durch die Peilungsdaten überschreiben...

2.) DOCH Drähte mit HF vergraben als Rand-Markierungen. Wollte ich eigentlich vermeiden. [-(

3.) Alternativ: weiter drauf los fahren lassen, aber mit einer Kamera und einer Bildverarbeitungssoftware ausstatten. Momentan fällt mir da zusammen mit dem RCX nur LegoCam + VisionCommand + Subnotebook ein. Hier klappt die Untergrunderkennung 10x besser (Farbe), und wenn man die Cam schräg anordnet, schieben sich andersfarbige Objekte (Hindernisse) von oben ins Bild - Grund zum Abdrehen.

Hundertprozentig wird es aber nie klappen. Man hat aber, wenn der Robi-Tobi überhaupt ein bißchen so vor sich hinmäht, aber schon ein paar Minuten gewonnen, die man dann auf seinem Handtuch verbringen kann.

Viele Grüße!