Liste der Anhänge anzeigen (Anzahl: 2)
So um mal bei dem Beispiel HC-SR04 zu bleiben, hier mal 2 Links zu Unterlagen.
https://docs.google.com/document/d/1...t?pref=2&pli=1
Hier findet man auf Seite 3 die Angabe zum Öffnungswinkel von 30° und auf Seite 5 eine Grafik.
http://www.mikrocontroller.net/attac...hreibung_3.pdf
Hier sind noch ein paar Infos in Deutsch.
Bei einem Selbstbau eines US-Sensors kann man die Auflösung etwas verbessern, indem man den Öffnungswinkel des Empfängers verkleinert und ggf. durch mehrere Empfänger mit leicht unterschiedlichen Blickrichtungen eine vergleichende Messung durchführt.
Anhang 31295
Bei Sharp IR Sensoren erreicht man eine bessere seitliche Auflösung, aber dafür braucht man da dann 2 bis 3 Sensoren um vom Nahfeld bis zum Fernfeld alles abzudecken.
Anhang 31294
Achtung die Bezeichnungen der Modelle haben sich mittlerweile geändert.
Man kann einen optischen Sensor nach dem Triangulationssystem auch selbst bauen, das ist dann aber schon etwas Arbeit (grade beim genauen ausrichten) Und bei meinem Versuch war die Detektion ließ die Erkennung noch zu wünschen übrig.
Man braucht einen Laser mit Koliminatoroptik, einen Polarisationsfilter (Folie einer billig 3D-Brille) eine Zeilenlupe (gibt es immer wieder mal günstik aus Acryl in Billigmärkten) ggf. einen gewölbten Spiegel (selbst machen) und eine Sensorzeile von einem Flachbettscanner.
#
Liste der Anhänge anzeigen (Anzahl: 1)
Ein Lösungsansatz:
LidarLite als 360° Rundumsensor, ca. 13ms/ Messung, 128 Messungen/Umdrehung.
Anhang 31296
Links mit/rechts ohne Slam, Auflösung 10cm/Kästchen, gefahrene Strecke ca. 85m auf einem Terrain von etwa 10x10m Grundfläche (der typische Kellerflur).
Links in schwarz von Odometrie gemessene Position/Weg, in blau durch Slam korrigiert.
Der Slam läuft übrigens nicht auf dem Controller, sondern auf einem mitgeführten Tablet.
Aber ich habe keine Ahnung, ob ich da mit Kanonen auf Spatzen schieße. Kommt hier jemand mit "weniger" Sensorik auf gleichwertige Ergebnisse?
Liste der Anhänge anzeigen (Anzahl: 1)
Nicht ganz.
Anhang 31301
Beim Gradeausfahren schauen beide US-Sensoren zur Kollisionsvermeidung nach vorne oder je 10°-20° nach außen damit sie sich nicht gegenseitig stören.
Beim Kartieren wird dann z.B. der rechte um 180° nach hinten gedreht und dann fahren beide parallel in 10° Schritten gegen den Uhrzeigersinn die 180° ab.
So dauert das Kartieren nur halb so lange und beide Sensoren schauen nicht gleichzeitig in die selbe Richtung, was Störungen vermeidet.
Ein optical flow Sensor verrät dir nicht wo Du bist sondern wie Du dich bewegst. Das Bild enthällt nur Bewegungsvektoren.
Du kannst also feststellen wie schnell du bist und ob alle Vektoren gleich schnell sind (Gradeausfahrt) oder eine Seite langsamer ist (Kurvenfahrt/Drehung).
Oder ob es Vektoren gibt die nicht zur Eigenbewegung passen (bewegtes Fremdobjekt).
Erst beides zusammen sagt Dir wo du (relativ zu den kartierten Landmarken) bist.