Auch der TED Talk lohnt sich.
Das Paper findet man hier.
Ich weiss nicht, ob es die Netzwerk-Anbindung immer benötigt. Denke schon.
Aber wo willst du den Cube-Roboter starten, wenn es dort kein WLAN gibt?!?
Auch der TED Talk lohnt sich.
Das Paper findet man hier.
Ich weiss nicht, ob es die Netzwerk-Anbindung immer benötigt. Denke schon.
Aber wo willst du den Cube-Roboter starten, wenn es dort kein WLAN gibt?!?
-30Y: Basic@Schneider_CPC, Kosmos-Baukästen • -20Y: Mindstorms RCX 1.5, Visual Basic, Pascal, php • NOW: Python3, Arduino MEGA, Raspberry Pi 3, NiboBurger, LEGO Boost/Mindstorms
http://www.it-cow.de/post/Objekterke...OpenCV-22.aspx
Hast du das schon gesehen? Was müsste doch in etwas sein, was du brauchst, oder?
Objekterkennung steht bei mir noch nicht so weit oben auf meinem Plan. Ich arbeite mich gerade bei OpenCV in MLP ein, was auch schon halbwegs funktioniert. Mein eigens neurales Netz habe ich erst einmal auf Eis gelegt. Irgendwie will die Backpropergation nicht so wirklich und OpenCV bietet da, nach dem was man so hört, äusserst gute Lösungen für an. Auch mit CUDA und so.
Ich habe mal mittels Tutorials Gesichtserkennung hinbekommen mit OpenCV. War eigentlich sehr einfach, schnell und hat echt gut funktioniert!
Was ich im Moment mit OpenCV eben schon gelöst habe, ich ein kleines Spiel, in welchem ich das MLP durch reinforcement learning trainieren will. Erst danach baue ich einen Bot. Der soll zwar auch später eine Kamera bekommen, aber so weit bin ich noch nicht. Vielleicht kann ich dir aber trotzdem helfen, wenn es grundlegend um OpenCV geht.
hallo,
jein...: für Videos, nicht Bilder, und farbig, samt Methoden, um Objekte anlernen zu können, als fertiges Bilderkennungsmodul, denn die nackten openCV-Funktionen haben sich ja bisher als viel zu kompliziert und zu aufwändig erwiesen.
Eher als High-Level-API, z.B. so, wie ich in der PixyCam-Software Farben und 2-3-farbige Labels anlernen kann, aber für den Raspi jetzt auch Formen und Muster - vom Ergebnis her wie in dem YOLO von Robotrader, aber offline verfügbar und mit selber trainierbaren Objekten:
https://github.com/pjreddie/yolo-pap...ter/system.pdf
oder von der Konzeption her vergleichbar hiermit (PixyCam mit PixyMon + Arduino oder Python):
http://cmucam.org/projects/cmucam5/w...ke_an_Arduino)
http://cmucam.org/projects/cmucam5/wiki/Latest_release
oder hiermit (PiStorms Cam Software):
http://builderdude35.com/2016/08/03/...and-pi-camera/
: bis hierhin müsste das Programm samt API bereits als Bilderkennungsmodul fertig verfügbar sein, so wie für Pixy, PiStorms oder NXTCam:
es streamt z.B. das, was es erkennt, automatisch über die serielle Schnittstelle wie auch bei den PixyCam-Examples über die Pixy() class;
Jetzt erst kommt das eigene Programm, wo man per switch/case auf die erkannten und vom Bilderkennungsmodul seriell gestreamten Objekte (Farben, Formen, Schilder) je nach Bild-Position reagieren kann (nur auflisten oder auch hinfahren, wegfahren, umfahren, zentrieren, greifen,...) :
z.B.:
(ab 1:00 !)
edit:
Pixy ist leider doch keine Lösung, die Erkennungsalgorithmen und die Cam-CCD-Farbsensoren sind einfach zu schlecht;
vgl.: http://www.mindstormsforum.de/viewto...p=71572#p71572
Geändert von HaWe (26.02.2018 um 12:10 Uhr) Grund: Links++
Na ja, Videos sind ja prinzipiell auch nur eine Aneinanderreihung von Bildern. Von daher müsste das verwendbar sein.
Ich glaube aber, dass du bei OpenCV da schlechte Karten haben wirst, eine Funktion zu finden, welche dir sämtliche Arbeit abnimmt. Zumindest wäre mir in der Richtung nichts bekannt.
Lesezeichen