-         

Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 10 von 19

Thema: Kamerasensor?

  1. #1
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.01.2006
    Beiträge
    4.556

    Kamerasensor?

    Anzeige

    Moin moin allerseits.

    Die oft gestellte Frage wie sich ein Bot orientieren kann läßt mir
    so recht keine Ruhe. Wegstrecken Messung ungenau, GPS noch
    ungenauer, Laserscanner + Auswertung zu teuer, Baken nicht
    Autonom u.s.w.

    Wenn man sich so eine Optische Mouse näher ansieht ist dort
    eine kleine 16x16 (?) Pixel Kamera verbaut und diese Kamera
    macht eine Bildauswertung auf die Untergrund Bewegung.

    Das sollte doch auch mit einer normalen Kamera auf dem Bot
    montiert, möglich sein? Verschiebt sich ein kleiner ausgesuchter
    Bildbereich aus dem aufgenommenen Hintergrund, sollte damit
    auch der Mousezeiger oder eine Motorsteuerung machbar sein.

    Es gibt ja auch Bildvermessung, also sollte auch eine Entferhnung
    ermittelt werden können.

    Meine Frage jetzt, warum hat das SO noch keiner versucht? Das ganze
    große Bild muß ja nicht Ausgewertet werden ein kleiner Bereich sollte
    ausreichen und die Bilddaten stehen gewöhnlich an fest vorgegebenen
    Speicherstellen. Ich stelle mir z.B. vor aus den Farb oder Graustufenwerten
    eines Bereiches einen Mittelwert zu bilden und bei einer gewissen Abweichung
    in den Nachbarbereich gegensteuern.

    Als Beispiel: http://wiki.unixboard.de/index.php/BMP

    Hier einmal den Aufbau einer BMP, wenn man daraus eine Matrix abgreift
    sollten sich Verschiebungen in dieser Matrix doch bemerkbar machen
    und auswerten lassen?

    Allerdings bin ich kein Profi in Bildverarbeitung und sehe das möglicherweise
    etwas "zu grün".

    Trotzdem würde ich mich freuen wenn dieses Thema aufgenommen und
    Diskutiert würde, ich denke das dort einige Möglichkeiten zu finden sind.

    Grüße Richard

  2. #2
    Erfahrener Benutzer Robotik Einstein Avatar von Vitis
    Registriert seit
    06.01.2005
    Ort
    Südpfalz
    Alter
    43
    Beiträge
    2.240
    wer sagt das dies noch keiner probiert hat?

    Das Problem ist die Platform ...
    Hab mal mit Bildverarbeitung am AVR rumgewerkelt,
    per Sobel Kanten erkennen und verschiedene Suchalgorythmen
    bei Auflösung von 320 x 240 in 32 Graustufen (waren mehr, habs dann
    verringert) ... der Rechenaufwand und auch RAM-Bedarf für die Geschichte war
    immens, deutlich über meiner gewählten Plattform.
    Aber machbar.
    Hab dann Richtung FPGA weitgergemacht, aber mangels Zeit da noch
    keine vorzeigbaren Ergebnisse erzielt
    Vor den Erfolg haben die Götter den Schweiß gesetzt

  3. #3
    Erfahrener Benutzer Robotik Einstein Avatar von vohopri
    Registriert seit
    11.09.2004
    Ort
    südlich der Alpen
    Beiträge
    1.708
    Hallo Richard,

    wer sagt, dass es hier die Bestrebungen mit Kamera zu navigieren nicht gibt? Das Forum hat auch eine Suchfunktion und in meiner Signatur ist zur Zeit ein Link auf mein Projekt.

    Da ich den Speicher- und Rechenaufwand von vornherein (zumindest für die Entwicklungsphase) als recht gross eingeschätzt habe, wie Vitis es auch in der Praxis erfahren hat, hab ich für die Entwicklungsphase, das System umgestülpt. Mein Pozessor steht auf dem Schreibtisch, die Kamera ist fix und die optischen Navigationsmarkierungen befinden sich auf dem Fahrzeug. Die grundlegenden Aufgaben der Navigation bleiben aber gleich. Später kann man die fertigen Algorithmen streamlinen, Kamera und Prozessor an Bord verstauen und die Markierungen fix in die Gegend pflanzen.

    grüsse,
    Hannes

  4. #4
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.01.2006
    Beiträge
    4.556
    Moin moin,

    @ Viotis, ich habe Deine arbeiten über Kantenerkennung natürlich
    gelesen. Ist allerdings schon etwas her. FPGA ist bei Bildverarbeitung
    natürlich optimal, es sollen auch kostenlose (?) Testboards von
    den Herstellern zu bekommen sein....

    @Hannes, Durch Deinen schönen Thread bin ich wieder etwas
    wach geworden.

    Mein Problem ist eher das ich über 30 Jahre Soft wie Hardwaremäßig
    Pausiert habe. Heute sind Reperaturen wenn überhaupt möglich, einfach
    zu teuer. Heute wird einfach ausgetauscht.

    Beispiel Aldi, alles was vom Kunden zurückkommt wird ohne Prüfung
    ausgetauscht. Im Hauptlager gesammelt um dann per LKW auf die
    Sondermüllkippe gekarrt zu werden......Da weint das Technikerherz!

    Ich würde mich über Tip`s wo ich mich über die Grundlagen wie man
    so etwas, vorerst möglichst einfach, einlesen kann.

    Grüße Richard

  5. #5
    Erfahrener Benutzer Robotik Einstein Avatar von vohopri
    Registriert seit
    11.09.2004
    Ort
    südlich der Alpen
    Beiträge
    1.708
    Hallo nochmals,

    danke für das Kompliment für meinen Thread.

    Mit einem Tip zu Fachliteratur kann ich leider nicht dienen. Die betreffende Fachliteratur würde ich auch wahrscheinlich kaum verstehen, da mir der mathematische Hintergrund fehlt. Darum gehe ich auch sehr pragmatisch vor, ich gehe die Bitmap durch, berechne Farbdistanzen, reihe die Ergebnisse, werde dann noch mit der Umgebungsähnlichkeit gewichten und berechne den Schwerpunkt der gefundenen Fläche. Erstaunlicherweise zeigt sich, dass ich die Farbmarkierungen schon recht brauchbar orten kann.

    Ich hoffe, du wendest dich auch diesem Thema zu, denn dann könnten wir in der Diskussion ein paar interessante Themen zur Bildanalyse erforschen.

    Es ist auch meine Überzeugung, dass man mit optischer Navigation mittels Kamera im Bereich dieser kleinen Fahrzeuge die besten Ergebnisse mit minimalem Aufwand erhält.

    grüsse,
    Hannes

  6. #6
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.01.2006
    Beiträge
    4.556
    [quote="vohopri"

    Mit einem Tip zu Fachliteratur kann ich leider nicht dienen. Die betreffende Fachliteratur würde ich auch wahrscheinlich kaum verstehen,

    Erstaunlicherweise zeigt sich, dass ich die Farbmarkierungen schon recht brauchbar orten kann.

    Da Deine Kamera wie bei den Fußballbot`s extern plaziert ist brauchst Du
    das ganze Bild = große Datei, aber ganz klar SO könnte man auch einen
    Rasenmäher super steuern! Ich war letztes Jahr auf der Bot Fussball DM
    in Bremen. Absolut IRRE mit welcher Geschwindigkeit die kleinen Spieler
    Per Kamera und laptopp übers Feld gehetzt sind.

    Wenn die Kamera auf dem Bot sitzt sollten ein paar Bildbereiche für
    eine Lageerkennung ausreichen. z.B. 4 4x4 Blöcke innen, 5x5 Blöcke
    außen. Wandert der innere Block in einer Richtung in den äußeren
    wird gegengesteuert.....Bei einer gewünschten Richtungsänderung werden
    die Blöcke halt entsprechend verschoben, dadurch wird dann automatisch
    "Gegengesteuert". SO mein "Hintergrund" Gedanke.

    Ich hoffe, du wendest dich auch diesem Thema zu, denn dann könnten wir in der Diskussion ein paar interessante Themen zur Bildanalyse erforschen.

    Ich versuche halt etwas zu lernen um letztendlich den Bot halbwegs
    autonom agieren zu lassen.

    Es ist auch meine Überzeugung, dass man mit optischer Navigation mittels Kamera im Bereich dieser kleinen Fahrzeuge die besten Ergebnisse mit minimalem Aufwand erhält.

    Alles unter xyz k Euro scheint zur Zeit nicht geeignet einen vorgegebenen
    Kurs auf großer Fläche +/- 3 cm genau zu halten. Ob das mittels
    Bildverarbeitung zu realisieren ist? Aber es währe ein quasie "Multisensor".


    grüsse,
    Hannes[/quote]

    Ich habe jetzt einma versucht in Deinem Text zu Antworten, ich hoffe das klappt?

    Grüße Richard

  7. #7
    Erfahrener Benutzer Robotik Einstein Avatar von vohopri
    Registriert seit
    11.09.2004
    Ort
    südlich der Alpen
    Beiträge
    1.708
    Hallo Richard,

    Da Deine Kamera wie bei den Fußballbot`s extern plaziert ist brauchst Du
    das ganze Bild = große Datei
    Nein, ich verarbeite immer nur den Bildteil, wo die Land- beziehungsweise Fahrzeugmarke erwartet wird.

    4 4x4 Blöcke innen, 5x5 Blöcke
    außen.
    Hier kann ich dir nicht folgen, da du nicht schreibst, was in den Bildblöcken erfasst werden soll. Es wäre ohnedies leichter, du würdest dein Projekt einmal ausführlich und nachvollziehbar darstellen. Oder habe ich da einen Projektvorstellungsthread übersehen?

    Ich versuche halt etwas zu lernen ...
    Ja genau, ich versuche auch zu lernen und das ist hoffentlich der Sinn von dem Forum.

    Alles unter xyz k Euro scheint zur Zeit nicht geeignet einen vorgegebenen
    Kurs auf großer Fläche +/- 3 cm genau zu halten
    +/-30 mm ist unnötig +/- 100 mm ist ein hohes, gutes Ziel. Wieviel Grad ein Pixel auflöst, das lässt sich für jede Kamera / Objektiv / Entfernungs Kombination ausrechnen. So teuer ist das Aufnehmen von ausreichend auflösenden Bildern nicht mehr. Wie gesagt, muss nicht das ganze Bild verarbeitet werden.

    grüsse,
    Hannes

  8. #8
    Erfahrener Benutzer Robotik Einstein Avatar von Vitis
    Registriert seit
    06.01.2005
    Ort
    Südpfalz
    Alter
    43
    Beiträge
    2.240
    hmmm ... also kostenlose Dev-Boards sind mir jetzt noch
    nicht unter gekommen, haste da ne Quelle dafür?
    Kann man immer brauchen

    FPGA ist halt ne ganz andere Herangehensweise als
    bei µC ... hab erst den Ansatz über VHDL gesucht,
    aber das ist ne ganz andere Programmierweise als im
    typischen zeilenweise Proggen in C oder Basic ...
    Wie gesagt, bin da aber noch dran, dauert halt,
    auch deswegen weil ich noch in ARM7
    und auf AVR32 noch an dem Problem dran bin ... so recht
    will der Knoten aber halt nicht platzen leider.
    Vor den Erfolg haben die Götter den Schweiß gesetzt

  9. #9
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    11.12.2007
    Ort
    weit weg von nahe Bonn
    Alter
    33
    Beiträge
    2.380
    ich schmeiss hier mal den "neuen" Atmega1284P in den raum, hab auch erstmal net schlecht geschaut als ich den ram gesehen habe ^_^

    hab mir direkt mal einen organisiert ... aber bildverarbeitung werd ich wohl nicht damit machen ... ich bleib erstmal bei meinen webcontrollern

  10. #10
    Erfahrener Benutzer Robotik Einstein Avatar von Vitis
    Registriert seit
    06.01.2005
    Ort
    Südpfalz
    Alter
    43
    Beiträge
    2.240
    16K sind schon ne Menge, aber leider nicht genug.
    Um nen Bot zu steuern brauchste schon n paar pixel
    damit die Route nicht zu "grob" wird.
    Das Problem ist ... nehmen wir mal an minimalste
    Auflösung 320 x 240 4-Bit Graustufen ... dann sind das
    schon 38400 Byte zu speichern für einen Frame.
    Dann lässte nur mal noch die Kantenerkennung drüber laufen,
    gibt dann nochmal ne 1-Bit Grafik, die 9600 Byte hat ...
    Das ist dann mal der Bedarf um ein Bild zu puffern und
    einmal bearbeiten. Den Puffer kannste ja löschen bzw.
    mit dem nächsten Frame überschreiben, aber die Bearbeitungsergebnisse
    musste halt mindestens 1mal zwischenspeichern um die Veränderung
    rauszurechnen ... übereinstimmende Kanten suchen und die Bewegung
    im Bild errechnen, daraus den Vektor der Bewegung der Kamera
    errechnen ... die Rechenzeit geht noch, bei mir ging das
    wärend der Übertragung des nächsten Frames nebenher
    aber die Framerate war einfach zu niedrig ...

    Auch n Kandidat für die Geschichten wär der neue XMega, bin
    mal gespannt was der so drauf hat
    Vor den Erfolg haben die Götter den Schweiß gesetzt

Seite 1 von 2 12 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •