-
        

+ Antworten
Seite 1 von 3 123 LetzteLetzte
Ergebnis 1 bis 10 von 23

Thema: Laser erkennen für Roboter-Fernsteuerung

  1. #1
    der_Gast
    Gast

    Laser erkennen für Roboter-Fernsteuerung

    Anzeige

    Hallo leute

    Nach den ersten Einsteigerprojekten, möchte ich mich nun an meinen erstes, richtiges Roböterchen machen. Es soll aber eigentlich kein fertiger Roboter sein, sondern eine "Ausprobier-plattform".

    als erstes möchte ich die Steuerung ausprobieren. Gedacht habe ich mir das wie folgt:
    Ich möchte gerne den Roboter per Laser steuern, und zwar so, dass ich den Laser als "Zielmarkierung" nutze.
    Am schönsten wäre es natürlich, wenn der Roboter im ganzen Haus den Laserstrahl selbst sehen könnte, doch ich glaube das ist nicht möglich, oder?

    Also müsste man die Fläche, auf der der Roboter funktioniert, auf eine Fläche von ca 1m x 1m beschränken, auf der dann Fotosensoren o.ä. plaziert sind.
    Die Frage ist einfach, wie erkennt diese Fläche den Laserstrahl? Oder gibts es doch eine Möglichkeit, den Laserstrahl ohne spezielle "Bodensensoren" vom Roboter aus zu erkennen?

    Ich hoffe, ich konnte mein problem verständlich darlegen

    Grüsse

  2. #2
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    27.08.2004
    Ort
    Kreis Starnberg
    Alter
    52
    Beiträge
    1.819
    Ich hoffe, ich konnte mein problem verständlich darlegen
    Das ist Dir nicht so sehr gelungen.
    Du möchtest, dass der Roboter einem Lichtpunkt folgt?
    So ähnlich wie bei diesem (biogenen) Modell hier?
    http://en.sevenload.com/videos/fJRi4...t-Taschenlampe
    Der Hund hat jedenfalls seine Lichtsensoren nicht über den Fußboden plaziert.
    Oder habe ich es völlig falsch verstanden?

  3. #3
    Gast
    Sorry, war im stress und erst noch abgelenkt, ich probiers nochmal:

    Es gibt einen Punkt A (dort wo der Roboter steht) und eine Fläche F, welcher am besten eine beliebige Fläche (Fussboden o.Ä. ist).
    Wenn ich nun mit dem Laserpointer (welchen ich in der Hand halte) auf einen Belibigen Punkt auf der Fläche F "pointe", wird dieser Punkt zum Punkt B.
    Dann läuft der Roboter zu diesem Punkt B

    Mögliche Lösungsansätze die mir eingefallen sind, wäre

    1.) Eine Kamera wird an der Zimmerdecke montiert. Diese erkennt den Punkt auf der Fläche F und rechnet seine Koordinaten in xy Koordinaten um, welche an den Roboter übermittelt werden.

    Nachteil: -Keeeeine Ahnung wie ich das programmieren soll, der Roboter funktioniert nur auf der Fläche, welche von der Kamera eingesehen werden kann und die Koordinaten müssten am besten per FUnk an den Roboter übertragen werden.

    2.)Hundmodell: Der Roboter hat vorne dran eine Kamera, welche den Punkt "sieht" und ihm folgt.
    Frage: Gibts es eine einfachere Methode als die Kamerabilder auswerten zu müssen? Stell ich mir recht kompliziert vor...

    Nachteil: Sowas in der Richtung hab ich noch nie entwickelt, der Roboter müsste, um erkennen zu können das er rückwärts fahren muss, auf allen 4 Seiten eine Kamera haben

    Gibt es einfachere Methoden? Wie habt ihr so Sachen gelöst?

    Grüsse

  4. #4
    Gast
    Ach ja, noch ne dritte Möglichkeit

    Die Fläche auf der der Roboter funktioniert, besteht aus einem "Netz" von Fototransistoren, welche auf das Licht des Lasers ansprechen...

    Nochmal: Die Lösung sollte, wenn ich nicht bereits alle aufgezählt habe, möglichst einfach und günstig sein. Einfach, weil einfach immer gut ist, genauso wie günstig (Und nein, ich bin nicht soeiner der eine Raumsonde für 1000Euro bauen will, ich bin mir bewusst, das ich ein rel. kostspieleiges Hobby habe, dementsprechend ist günstig relativ und bedeutet halt "so günstig wie möglich")

  5. #5
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    27.08.2004
    Ort
    Kreis Starnberg
    Alter
    52
    Beiträge
    1.819
    Bei der dritten Möglichkeit müsste die Information noch irgendwie vom feststehenden Netz auf den mobilen Roboter übertragen werden.
    Ich denke schon dass das Modell Hund abgewandelt werden kann. Damit man eine 360° Rundumsicht bekommt, braucht man aber mehrere Sensoren gleichmäßig um den Umfang verteilt. Der Algorithmus wäre einfach: bewege dich in die Richtung, aus der Du am meisten Licht empfängst.
    Statt vieler Sensoren kann man auch einen einzigen Sensor nehmen der rotiert, oder das Licht über einen rotierenden Spiegel bekommt.
    Problem: Empfindlichkeit für Fremdlicht. Die Sache funktioniert also nur im Dunkeln. Wenn man dem Pointer eine Frequenz aufmoduliert und die Sensoren spezifisch für diese Frequenz auslegt, dann kann man einigermaßen unempfindlich gegenüber Fremdlicht werden, es wird aber schon schwierig, bei direktem Sonnenlicht wird das wahrscheinlich auch nicht mehr gehen. Zusätzlich helfen auch Farbfilter in der Farbe des Pointers und Blenden, die Licht von oben vom Sensor fernhalten. Insgesamt muß man aber damit rechnen, dass Licht vom Fenster oder einer Lampe immer viel stärker ist als das Licht vom Pointer.

  6. #6
    Erfahrener Benutzer Begeisterter Techniker
    Registriert seit
    19.05.2005
    Ort
    Berlin
    Beiträge
    316
    Eine Möglichkeit wäre es, eine Kamera auf einen Kugelspiegel gucken zu lassen.

    So kannst du mit einer Kamera schon mal 360° überblicken.
    Wenn der Roboter dann noch mit dem Laserpointer "reden" kann, wird die Sache (die entsprechende Hardware voraussgesetzt) schon relativ beherrschbar.
    1. Laserpointer anmachen - Foto schiessen.
    2. Laserpointer ausmachen - Foto schiessen.
    3. Bildinformationen von Foto2 von Foto1 subtrahieren.
    Als Ergebnis sollte, bis auf ein wenig rauschen nur ein heller Punkt in einem sonst dunklen Bild übrigbleiben.
    Dann noch ein bisschen rechnen und du hast die Koordinaten des Punktes.

    Sowas kannst du schon mit ner CMU-Cam und nem ATM8 machen.[/img]

  7. #7
    Gast
    Die Variante mit dem Kugelspiegel gefällt mir sehr gut. Ich kann mir jedoch denken, dass so ein Teil nicht allzu günstig ist, könnte man dazu auch eine blanke Weihnachtskugel zweckentfremden oder ist die zu uneben?

    Was ist eine CMU-Cam? :S

    Die Idee mit dem BIld 2 von Bild 1 abziehen leuchtet mir ein, gibts vielleicht Seiten wo sowas beschrieben und erklärt wird? Am schönsten noch in BASCOM;p

  8. #8
    Gast
    kann man denn als Kamera auch ne billig-cam von Pollin für ungefähr 20 euro nehmen? Liebe Grüsse

  9. #9
    Gast
    Okay ich hab nun einen interessanten Thread gefunden, der sich ebenfalls mit dem thema beschäftigt:

    Sehe ich das richtig, das die CMU-Cam das Bild selber schon soweit verarbeitet, dass sie Kanten oder Punkte oder Hell/Dunkel erkennt?
    Ist das dann so, dass ich die an den MC anschliessen kann, und sie von dort aus konfigurieren muss, nach was sie im Bild suchen soll?

    Die CMU ist schon ein bisschen teuer, aber ich habe ein Kameramodul gefunden, welches die Daten per I2C bereitstellt.
    Wäre es realistisch, die Daten eines solchen kameramoduls per Mega32 @ 16 Mhz in Bascom auszuwerten (also nach dem Punkt abzusuchen?)

    Liebe Grüsse

  10. #10
    Gast
    Das hauptproblem beim Mega32 wird der Mangel an Speicher sein. Der Mega32 hat nur 2 Kbytes, und davon wird auch noch ein bischen für andere zwecke gebraucht. Wenn man 2 Bilder voneinander abziehen will, muß man schon eines der Bilder speichern.
    Für Bildbearbeitung sollte man schon besser 32 kBytes oder mehr an RAM haben.

+ Antworten
Seite 1 von 3 123 LetzteLetzte

Benutzer, die dieses Thema gelesen haben: 0

Derzeit gibt es keine Benutzer zum Anzeigen.

Berechtigungen

  • Neue Themen erstellen: Ja
  • Themen beantworten: Ja
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •