Hi William,

das Video von der 3d Lagevisualisierung des Tricopter find ich sehr witzig. Er jault und wehrt sich, wen du ihn herumdrehst. Ist zwar genau das, was er tun soll, schaut aber lustig aus.

Ja Leds hab ich schon mal durch Bildanalyse auswerten lassen:

Bild hier  

Zur Framerate kann ich nicht viel sagen, ich bin da recht pragmatisch vorgegangen, ohne die Zeiten zu erheben.

Wenns mir zu langsam war, dann habe ich:

1. die Algorithmen gestreamlined. Grad wenn ich so munter drauflosprobiere, entsteht oft ballastreicher Code.

2. geschaut, dass ich die Lage des Fahrzeugs gut voraussage. Dann Suche ich um die Vorausgesagte Lage jeder Led nur einen kleinen Bereich ab und schau, wo sie tatsächlich steht. Wenn eine Led 2x nicht gefunden wird, wird das Fahrzeug gebremst, und der Suchbereich vergrössert. Notfalls Stillstand und das Ganze Bild absuchen.

Eine ERfahrung hab ich auch noch gemacht: Im hellen Tageslicht sind Farbscheiben besser zu sehen als LEDs. Ohne Streuscheiben sind sie zwar hell, aber zu klein im Bild, um statistische Methoden sinnvoll anzuwenden. Mit grösseren Streuscheiben, lässt die Lichtstärke stark nach. Bunte Scheiben oder Kugeln im hellen Tageslicht, geben da mehr her.

Dein Video mit den LEDs schaut schon gut aus. Kannst du etwas dazu sagen? Ich find das sehr interessant. Ist das im Dunklen aufgenommen, oder ist das durch die Filterung schon so schwarz geworden?

Die Bildanalyse zur Orientierung an Leucht- oder Farbmarkierung halt ich für sehr Erfolgversprechend, genau und ökonomisch, sobald die Entfernungen aus der Reichweite von IR und US rausgehen und mehr Genauigkeit verlangt wird, als bezahlbare GPS Systeme bieten.

Ich find das ganz fein, wenn da jetzt mehr Kollegen dran arbeiten, und bin auf die Erkenntnisse und Ergebnisse schon sehr gespannt. Den Thread https://www.roboternetz.de/phpBB2/vi...c.php?p=453732 hast du sicher schon gesehen, da soll sich ein landwirtschaftliches automatisiertes Fahrzeug an einer Bodenrille orientieren.

grüsse,
Hannes