- SF800 Solar Speicher Tutorial         
Seite 3 von 3 ErsteErste 123
Ergebnis 21 bis 30 von 119

Thema: RP6 Kamera Bildverarbeitung

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Hi habe gerade gesehen, dass es im forum ein super thread dazu gibt. Dazu wurde mittels modem und 3g stick eine steuerung gebaut...kamera ist auch vorhanden diese art steuerung geht überall, ob draußen via 3g oder in der wohnung mit wlan
    http://<br /> <a href="https://www....7569</a><br />

  2. #2
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.01.2006
    Beiträge
    4.555
    Zitat Zitat von Biohazardry Beitrag anzeigen
    Hi habe gerade gesehen, dass es im forum ein super thread dazu gibt. Dazu wurde mittels modem und 3g stick eine steuerung gebaut...kamera ist auch vorhanden diese art steuerung geht überall, ob draußen via 3g oder in der wohnung mit wlan
    http://<br /> <a href="https://www.r...7569</a><br />
    Der Link klappt SO leider nicht.

    Gruß Richard

  3. #3
    Erfahrener Benutzer Roboter-Spezialist Avatar von RolfD
    Registriert seit
    07.02.2011
    Beiträge
    414
    Hab mal ne Frage, WAS bzw. WIE willst Du eigentlich das Bild verarbeiten bzw. welche Schlüsse daraus ziehen? Ich frage weil ich auch überlege irgenwann mal mein RP6 mit einer cam auszurüsten. Ich tendiere allerdings z.Z. zu einer minicam mit möglichst wenig Pixeln/Farben und einer Bildauswertung auf dem RP&. Aber auch da stellt sich die Frage, WAS will man auswerten.

    Ich kam auf die Idee, 2 Laserpointer am RP6 zu befestigen, einer starr, einer über ein Servo drehbar bzw. mit Gelenk angebracht kippbar, so das also letztlich 2 Lichtpunkte entstehen - einer davon regulierbar "schielend". Aus der Entfernung zwischen den Lichtpunkten und dem dazu nötigen Winkel lassen sich Informationen über die Entfernung zum Hindernis gewinnen. Ich weis nur noch nicht ob die Stellgenauigkeit von Servos ausreicht um das so zu nutzen.

    Man braucht dazu im Bild aber nur 2 helle/rote Punkte auf der Horizontalen finden und den Schielwinkel einberechnen - und das wird der M128 in jedem Fall, der M32 vermutlich auch können. Auch ein Treppenstufensensor wäre über ein vertikal kippbaren Laser machbar da der Laserpunkt an der Treppenkante im Bild "verschwindet". Allerdings ist das schon richtig Aufwand, 3 Laserpunkte im Blick zu behalten und daraus in einem bewegten System Entscheidungen abzuleiten. Eine kompliziertere Berechnung wie Gesichts/Hindernis/Symbolerkennung kann man allerdings wohl nur auf dem PC... bevor ich mir da aber Gedanken zum RP6 mache, würde ich vielleicht erst mal mit einer Webcam auf dem PC was proggen. Später die Webcam Bilder an den PC bzw. die daraus resultierenden Steuerbefehle Befehle an den RP6 zu bekommen ist dann sicher ein kleineres Problem. Da gibts genug Funkmodems. Dazu taugt dann am besten wohl cameraseitig eine fertig aufgebaute WLAN Webcam denn auch die UART-Funkmodems sind nicht sonderlich schnell und einer Datenflut wie von einer Webcam nicht gewachsen. Und grade bei Cams ohne Motorzoom bist Du bei der Verarbeitung auf viele Pixel und gute Bildqualität/Linsen im System angewiesen. Die Pixelflut ist aber eben auch wieder hinderlich denn letztlich brichst du das ganze Bild auf eine 0/1 Information runter. Also fahren/nicht fahren z.b... das ist quasi ein Paradoxon. Das ist auch so selbst wenn du jedes Pixel der Cam mit einem mehrstufigen neuronalen Netz an einen Neuroneneingang verknüpfst und per "lerntraining" auf einem Supercomputer letztlich nur die Entscheidung fällst: "Fahren oder nicht fahren.... das ist hier die Frage...."

    Äm.. das ist jetzt nicht bei Shakespeare geklaut auch wenns so aussieht

    Aber was will ich mit dem Post sagen...? Nun, vielleicht das man sich klar sein sollte was man erwartet, dann ist auch die Umsetzung meist einfacher.
    Der Mensch blendet z.B. 90% der ständig eintreffenden Bildinfo aus und reagiert nur auf Bewegung und "Hotpoints of Interest"...weil er mit der Bilderflut zu schnell ermüdet und sich sonst laufend mit Infos beschäftigt, die nicht im Mittelpunkt des Interesses liegen. Auf einem Recher ist das mit nutzlosem verbrennen von Maschinenzyklen in Delayloops und Verbrauch von RAM für wertlose Infos gleichzusetzen und fängt schon bei den Datenformaten wie BMP/JPG an. Wir Menschen neigen dazu, Bildverarbeitung so zu programmieren als sei der Robby auf Koks...oder bei Falschfarben LSD... das dabei nichts rum kommt sieht man an jedem Kokser... Aber da sind wir dann schon wieder bei der KI... und so..

    Du kannst ja mal versuchsweise eine Pattern Rekognition für die Webcam schreiben.. sprich du hältst der Webcam eine Zeitung vor ... also händisch.. nicht als starrer Versuchsaufbau... und der PC "liest"/erkennt daraus Texte.... die Technik dafür ist mit ocr wohl bekannt... Als Spionagebot/"Marsrover" das Chaos unterm Bett zu erforschen oder um ferngesteuert die Katze zu jagen ist so eine Wlancam schon fein... aber für eine "Auswertung" ohne Mensch ist hier weniger mehr. Das muss man bedenken wenn man über eine Cam auf einem Bot redet. Da Bildsensoren und die meist notwendigen AD-Konverter rauschen, kann man aber auch sehr gut Cams mit mehr Pixeln und ohne Artificial Retina verwenden um benachbarte Pixel (direkt beim Einlesen?) zusammen zu fassen damit das Bild kontrastreicher wird. Dies reduziert dann auch die tatsächlich auszuwertende Datenmenge erheblich. Legt man das Prinzip vom Point of Interest zu Grunde, langt im Printip ein 8 byte langes Array um den POI in der Bildlage zu definieren, man braucht dann nur noch den POI idetifizieren (Ball), z.B. über Lichtemission/Farberkennung. "folge dem roten Ball" .... hellster Punkt im Bild (Laser) usw... Hat man 2 POIs.. warum auch immer, reicht das Array nachwievor... man muss halt nur 2 POIs "finden"... als Linienfolger (siehe unten) könnte auch mehr (nah,mitte,fern) definieren, also im Bild unten mitte oben... und so die Linie quasi vorhersagen (perspektive rausrechnen), radien berechnen, usw. Damit kommt der RP6 dann auch garantiert schnell um jede Kurve... Das System ist vielseitig... und man braucht nicht immer gleich megapixel und gigaram...

    Was eine korrekt dimensionierte Bildverarbeitung (ohne Laserservos) tatsächlich leisten kann - mit einem S/W-Bildsensor aus einem Spielzeug mit "nur" 128x128 Pixeln - zeigt z.B. folgende Geschichte:
    http://www.atmel.com/dyn/resources/p...3_robotics.pdf Ein weiteres Beispiel ist der wohl bekannte Linienfolger mit Cam auf Servo hier im Forum. Eine Lasergestützte Verarbeitung sah ich mit einem horrizontal gestreuten Laser, der seine umgebung "scannt" - was aber schon wieder recht lange dauerte und für Rollbetrieb so kaum in Frage kommt.
    http://www.youtube.com/watch?v=xifGyUPa0IE
    Ein "vorausplanender" Linienfolger oder Fußballrobby wäre auch mit einer cam denkbar. lageänderungen des Bot bei Unebenheiten im Boden kann man so auch erkennen (Thema Panzerkanone stabil halten), scheint aber alles nicht so einfach zu sein, man liest relativ selten über erfolgreiche Nutzungen von cams.

    LG RolfD

  4. #4
    Na bamm das ist ein Roman was du da geschrieben hast.. bitte sei nicht böse wenn ich irgendwas übersehen habe

    Naja Bildverarbeitung auf Roboter mit einer Rechenleistung unter Pentium III wird schwierig da hast du vollkommen Recht aber das Ziel ist ja den Robby als "Sonde" zu benutzen also als vorgeschobenen Beobachter... die Auswertung und Befehlsausgabe erfolgt im HQ (Stand-pc/Laptop).

    Und soo schwer ist Bildverarbeitung/Auswertung auch nicht.... Man muss nur ein bischen tricksen z.B mit Filter (alte Disketten könne wunder volbringen ) siehe Feuerwerhrbot-Wettbewerb... weiß nurt grad net werd das gemacht hat ... glaub es war ein asuro-bot...

    Naja wenn du Anfangen möchtest mit Bildverarbeitung solltest du einfach eine Webcam nehmen am Pc anschließen und mit LabView starten.... (Bitte reißt mir nicht den Schädel ab weil ich LabView vorgeschlagen hab aber meiner Meinung nach eignet es sich hervoragend dazu weil .)grafische Prog-sprache und .)tollen Tutorials )

    Auf diese Weise habe ich einen Münzzähler und ein Katzenverfolger programiert innerhalb von 2-3 Wochen (ohne vorher erfahrungen auf diesen Gebiet gehabt zu haben...)

    So jetzt hab ich auch ein kleinen Roman geschrieben...

    Gruß Biohazard

  5. #5
    So sorry wenn ich den alten Thread ausgrabe aber ich habe mal eine Tracking-Routine auf LabView mit meinen RP6 kombiniert. Damit man mal einen Vorstellung hat wie einfach das ist hab ich auch gleich ein Video gemacht... (Eigentlich war das Hauptproblem bei den Projekt den RP6 mittels PC zu steuern.. aber die Bildverarbeiten passt so gut darein )
    http://www.youtube.com/watch?v=rOhR0VNoDxY

    Wenn jemand die Tracking Routine nachbauen möchte oder interesse daran hat einfacht antworten dann erkläre ich detailierter wie das Vi funktioniert.

    Gruß Biohazrad

  6. #6
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    06.11.2010
    Beiträge
    773
    Ja, LabView scheint ne echt nette Spielerei zu sein!
    Was auch möglich ist (irgendwo im Forum sollte auch ein Beitrag dazu sein, irgendwas mit Lichtfleck-Verfolgung eines Spielzeug-Autos...) ist die Auswertung eines Lichtflecks mittels Position Sensitive Device:
    http://de.wikipedia.org/wiki/Position_Sensitive_Device
    Hab mir da mal so einen kleinen Sensor gekauft, ist wie ein Photowiderstand, nur nicht in 0D sondern in 1D. Gibts auch als 2D, war mir dann aber zum ausprobieren zu teuer. Habs leider noch nicht in Betrieb genommen, aber ich wollts hier mal ansprechen.

    Gruß,
    Fabian

  7. #7
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.01.2006
    Beiträge
    4.555
    Zitat Zitat von Biohazardry Beitrag anzeigen
    Wenn jemand die Tracking Routine nachbauen möchte oder interesse daran hat einfacht antworten dann erkläre ich detailierter wie das Vi funktioniert.

    Gruß Biohazrad
    Interessant ist das schon, Fragt sich wo Mensch eine möglichst kostenlose LabView Version bekommt. Ich hatte hier noch eine C`t von 2003 mit Vollversion, nur die ist leider Schrott (verkratzt). Nur um herum zu spielen um festzustellen das ich zu unbedarft bin, ist etwas teuer.

    Gruß Richard

  8. #8
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    06.11.2010
    Beiträge
    773
    Also bei mir geht der link. Oder halt einfach Wikipedia, dann suchen nach Position Sensitive Device.

    Fabian

  9. #9
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.01.2006
    Beiträge
    4.555
    Zitat Zitat von fabqu Beitrag anzeigen
    Also bei mir geht der link. Oder halt einfach Wikipedia, dann suchen nach Position Sensitive Device.

    Fabian
    Ich meinte diesen http://<br /> <a href="http://www.ro...7569</a><br /> Link. Position Sensitive Device diese Teile kenne ich, habe einmal beim Hersteller nachgefragt was so etwas kostet.....
    NIX für (meine) Brieftasche, jedenfalls nicht die 2D 10x10 mm. Die liegen im oberen k€ Bereich. Sind dafür aber bedeutend schneller als CCD Sensoren und messen echt Punkt genau.

    Gruß Richard

Seite 3 von 3 ErsteErste 123

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

Labornetzteil AliExpress