PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : An Spieler: Annäherung an eine Computer-Gehirn-Schnittstelle



novindbn
30.03.2009, 21:13
Ich bin Kampfsportler und befinde mich momentan in einer längeren Trainingspause. Jetzt habe ich mir überlegt, daß ich die Bewegungen, die ich normalerweise im Kampfsport verwende, also zum Beispiel den Kniestoß, den Roundhousekick und so weiter doch auch nutzen könnte um ein Computerspiel, das Nahkampfsequenzen beinhaltet, zu steuern.

Ich habe mir überlegt, wie die Elektronik aussehen muß, die eine sehr gute Körperbewegung-Spielfigurbewegung-Relation herstellt.

Meine erste Überlegung war, an allen Gelenken entsprechende Elemente anzubringen, die die Position im Raum bestimmen, und diese Daten anschließend per Funk an den Computer weiterzuleiten. Anschließend führe ich die Bewegungen aus, während alle Daten gleichzeitig vom PC aufgenommen und gespeichert werden. Nun weise ich diese Daten bestimmten Tasten oder Mausbewegungen zu. Bevor ich weiter in diesem Bereich kam, fand ich die Gehirn-Computer-Verbindungshardware (http://news.idealo.de/news/15106-oczs-nia-hirn-computer-schnittstelle-pc-gamer.html).

Ich habe mir überlegt, ob es nicht einfacher ist die Bewegungen, die ja sowieso ein Äquivalent im Gehirn beziehungsweise in den Gehirnsströmen haben, indirekt auszulesen, indem ich die Software von dieser Hardware etwas bearbeite um so direkte Daten zu bekommen. Ich würde also, wie oben, die Bewegungen ausführen und schauen, welche Daten dieses Meßgerät dabei messen kann. Anschließend würde ich diese Daten, mit einer gewissen Toleranz natürlich, wiederum einer Taste beziehungsweise einer Mausbewegung zuordnen.

So würde ich mich, verbunden mit dem - zugegeben leichte Horrorvisionen hervorrufenden - Gerät in Kampfposition begeben, oder drei, vier Meter laufen, und die Spielfigur auf dem Bildschirm dasselbe tun sehen.

Wie seht ihr das, welche Entwicklungen wurden bereits in diesem Bereich gemacht beziehungsweise was seht ihr als einfacher an?

Dieses Projekt habe ich auf sehr lange Zeit angelegt, sofern ich es überhaupt realisiere. Das soll ersteinmal nur eine geistige Konstruktion sein.

yaro
30.03.2009, 21:59
Naja......das Gerät selber weiterzuentwickeln ist schon sehr gewagt....wahrscheinlich ist das garnicht so leicht, wie du es dir vorstellst, denn die Entwickler von dem Teil sind auch nicht so blöd, und habens dennnoch nicht so weit geschafft.

Die andere Idee ist schon eher praktikabler, da gibt es auch schon Vorgänger für.
Die Schwierigkeit wird wohl die Positionsbestimmung im Raum sein.....
Am einfachsten währe es wohl mit Kameras getan, deren Programmierung allerdings kein Kinderspiel. Wenn du nicht richtig gut im programmieren bist, sollte das sehr schwer werden.

Das, was du tatsächlich verwirklichen könntest ist, dir mit ein wenig Mechanik sowas wie "winkelmesser" an deine Gelenke basteln, die ein Poti drehen und über dieses ausgelesen werden könnten. Wirst zwar wahrscheinlich einen externen ADC brauchen, aber das sollte kein problem darstellen.

Wenn du wirklich vor hast, sowas zu verwirklichen, dann bin ich sehr gespannt, was daraus wird.

Viel Erfolg

oberallgeier
30.03.2009, 22:11
Hi,

... Bewegungen, die ja sowieso ein Äquivalent ... haben, indirekt auszulesen ...Das ist ja nicht soo weit hergeholt. Die Forschung (und z.T. die Entwicklung) auf diesem Sektor ist ziemlich aktiv - auch wenn nicht alles was gemacht wird, veröffentlicht wird. Sensorik, Sensorapplikation und Signalauswertung ist vielleicht etwas anspruchsvoll.

Zeitgerecht zu Deinem Posting ist hier ein hübscher Artikel (http://www.spektrumverlag.de/blatt/d_sdwv_start) - der Link dürfte aber nur temporär korrekt sein. Kauf Dir vielleicht das Aprilheft vom Spektrum der Wissenschaft, das ist die deutsche Ausgabe des SCIENTIFIC AMERICAN (ich hatte es gerade heute reinbekommen). Aber Du kannst ja hier mal reinschmecken (http://www.spektrumverlag.de/artikel/986442) (Titel : LOG-IN ins GEHIRN ... also weiterblättern bis diese Seite kommt).

Netzman
30.03.2009, 22:30
Sogenannte BCIs (Brain-Computer-Interfaces) dürften wohl für einen Privatmenschen sehr schwer zu realisieren sein, sowohl von der finanziellen als auch von der wissenschaftlichen Seite.
Üblicherweise werden die Signale mit handelsüblichen EEGs aufgenommen (hier fängts schon an mit den Kosten :P), digitalisiert, der Datenstrom von mehreren MB/sec mit verschiedensten Filterstufen herruntergerechnet und in der letzten Phase ausgewertet, wo wiederrum mit verschiedensten Methoden (u.a. neuronale Netzwerke), spezifische Muster herrausgefiltert werden.
Das erfordert alles in allem einiges an Know-How, das wohl selten in einer Person gebunden ist.
Ich will dich ja nicht demotivieren, wenn du meinst du würdest das schaffen, freue ich mich auf deine Ergebnisse :)

Für deinen Einsatzzweck dürfte aber ein MotionCapture-System, wie seit jahren erfolgreich in der Filmindustrie eingesetzt, geeigneter sein.
Die Hardware ist recht übersichtlich - 2 Kameras (am besten IR, mit normalen gehts aber auch), IR-Scheinwerfer und strategisch am Körper platzierte Reflektoren.
Wie du das software-seitig auswertest hat zb. Vohopri bei seinem Fahrzeug gut dokumentiert.
Dann noch ein paar trigonometrische Berechnungen aus den 2 Kamerabildern um ein 3D-Modell der Bewegung zu erhalten und "das wärs auch schon" :)

mfg

novindbn
30.03.2009, 22:51
Nun, es gibt das Gerät ja schon und 400DM sind nun auch nicht so teuer. Fraglich ist, ob die Punkte an der Stirn auch geeignete Punkte sind. EEGs haben schließlich Elektroden am gesamten Kopf, nicht nur der Stirn.

Aber um ab und zu zu spielen, extra Reflektoren am ganzen Körper anzubringen - da fehlt mir jetzt schon die Motivation.

Ich denke, entweder ein BCI oder ein Baustein, der sowohl Abstand zum Sensor am PC in X & Y sowie der Höhe mißt. Die Höhenunterschiede können über einen sehr genauen Luftdrucksensor gemessen werden. Es darf aber nicht über Sichtkontakt passieren, denn was passiert, wenn ich mich umdrehe und der Sensor abgewendet ist.

BCI stelle ich mir am leichtesten vor. Helm aufsetzen und los geht es.

Problem bei allen Modellen: Was ist mit der Bewegung? Wie bringe ich der Figur natürlich das Laufen bei ohne mich selbst weiträumig zu bewegen? Es ist schließlich eher Step-Aerobic als Augmented Reality; der PC ist letztlich stationär wie auch der Bildschirm.

thewulf00
31.03.2009, 10:37
Wenn es Dir bereits bei der Reflektorenanbringung an Motivation fehlen würde, dann wirst Du Dein 400DM (oder Euro?) -Teil sehr schnell hinschmeißen.
Glaub doch den Leuten hier auch mal was. Alle sagen dasselbe.

novindbn
31.03.2009, 15:44
Ich habe erste Testreihen mit einigen Bewegungen. Jetzt könnte ich fragen, welche Bewegung es war, aber ich glaube nicht, daß irgendjemand dies aus diesem Diagramm herauslesen kann.

Mir wurde klar, daß das System, das die Bewegung umrechnen soll, nicht bis zum Ende warten kann. Sonst schlage ich und erst nachdem ich fertig bin, schlägt die Spielfigur.

Also muß vermutet werden, wie die Bewegung endet. Kann dieser Prozeß automatisiert werden, ich denke ich bin nicht der erste, der Zahlen erraten möchte.

Der schwere Weg wäre, jeden Wert mit dem aktuellen Wert zu vergleichen und bei einer Abweichung überhalb eines gewissen Toleranzbereiches zu erkennen, daß diese Bewegung nicht durchgeführt wurde.

Das stelle ich mir sehr inperformant vor. Ideen, das effizienter anzugehen?

novindbn
31.03.2009, 19:03
Weiterer Fortschritt:

Mir ist aufgefallen, daß in OpenCV eigentlich alles da ist: Einmal hat einer eine Gestenerkennung kreirt, dann eine Augenbewegungserkennung, dann eine Kopfpositionserkennung, aber keiner hat jemals dran gedacht, kurz den anderen zu fragen beziehungsweise alles zu kombinieren.

Netzman
31.03.2009, 19:33
Ich will dir ja wirklich nicht den Wind aus den Segeln nehmen, aber du verfolgst einen grundsätzlichen Denkfehler. Du rechnest mit den Signalen die an die Muskeln gehen und willst dann die resultierende Bewegung daraus errechnen, das hat schon mal systembedingt eine Verzögerung und nicht wirklich was mit einem BCI zu tun. Muskelsignale kann man auch einfach mit Körperelektroden aufzeichnen.
Was du eigentlich machen willst, ist den Gedanken, der zu der Bewegung führt, zu erkennen. Dafür brauchts schon mal recht viele nicht-invasive Elektroden um eine einigermaßen brauchbare Auflösung aktivierter Hirnareale zu erhalten, besser wären implantierte Platinelektroden.
Um diesen Datenstrom dann mal herunterzufiltern um brauchbare Erkenntnisse daraus zu ziehen, brauchts schon mal ordentlich Rechenpower. Hier werden keine Desktop-PCs mehr verwendet. usw blabla, es ist um Größenordnungen weniger Aufwand ein MotionCapture-System komplett zu entwickeln und 10x täglich in den Reflektoranzug rein- und rauszuhüpfen als ein BCI ohne erhebliche Forschungsmittel und Know-How auch nur ansatzweise zum laufen zu bekommen.

mfg

Thomas$
31.03.2009, 20:24
wie weit könnte man die wii nutzen ?
mfg

novindbn
31.03.2009, 20:48
Interessante Einwände Netzman, leider völlig destruktiv und nicht zwingend fundiert.

Die wii würde nur ein Körperteil bestimmen, ich bräuchte mehrere Wii. Und außerdem sind sie unhandlich zu befestigen. Wie wird dort die Position bestimmt und übertragen?

Aktueller Fortschritt:
http://shoot3d.biz/technology.html

thewulf00
31.03.2009, 20:58
Das ist so nicht ganz korrekt.
Ich kenne ein Projekt, dass die Wii umgekehrt benutzt.

Das funktioniert so:
Die Wii-Fernbedienung wurde an den AtMega angeschlossen und das ganze liegt auf dem Fernseher und zeigt Richtung Person. Um die Wii-Fernbedienung drumherum wurde eine ganze Batterie an Infrarot-LEDs befestigt, die auch Richtung Person zeigen.

Schaltet man jetzt die gesamten LEDs ein, passiert ... nichts. Denn das IR-Licht muss erst reflektiert werden, dazu einfach reflektierende Elemente an den wichtigen Körperstellen anbringen.

Der Autor des Projektes hat das mit den Fingern gemacht und hatte dann auf dem Fernseher eine Konsole, wie Tom Cruise in Minority Report. Sehr geil!

Man muss nur wissen wie, und nicht gleich jede Idee als destruktiv abtun...

PS: In einer Wii wird die relative Position über Gyroskope ermittelt und über Funk übertragen. Die absolute Position ermittelt der IR-Sensor, der vorn in der Wii sitzt. Der Sender für das IR-Licht ist ein Extraelement, was man auf den Fernseher stellt.

Netzman
31.03.2009, 22:28
Würde das sogar eher konstruktiv sehen, schließlich werden dir hier viel einfachere und erprobte Möglichkeiten gezeigt um das was du vorhast umzusetzen.
Ich schlage auch die Lektüre von zb. http://bci.tugraz.at/index.html vor.

Die Wii hat eine IR-Kamera die helle "Blobs" (= Reflektoren) erkennt und deren Position als Output liefert, was ansich der von mir beschriebenen Möglichkeit zum MotionCapturing weitestgehend entspricht.

mfg

novindbn
31.03.2009, 23:22
Netzman, was passiert, wenn du dich drehst? Genau, die Reflektoren sind verdeckt, das System funktioniert nicht mehr. Netzman, les dir alle meine Beiträge nochmals durch und antworte erst dann, damit du weißt, auf welchem Pfad ich mich zur Zeit befinde.

Netzman
31.03.2009, 23:35
http://sitemaker.umich.edu/pavelka/files/cunningham-dance.jpg
wenn du dich drehst, sieht die Kamera die Reflektoren auf dem Rücken und der Seite.
Bei einem BCI wärst du schnell in den ganzen Kabeln eingewickelt.

mfg

novindbn
01.04.2009, 02:28
Netzman, les dir alle meine Beiträge nochmals durch und antworte erst dann, damit du weißt, auf welchem Pfad ich mich zur Zeit befinde.

Netzman
01.04.2009, 03:12
Tut mir leid, ich kann dir wirklich nicht ganz folgen was du wie machen willst.
BCI? Wii? Gestenerkennung? MotionCapture?
Gehts dir um die Entwicklung oder darum ein fertiges System einzusetzen?

mfg

thewulf00
01.04.2009, 08:09
Ich glaube, er weiß es selbst nicht so genau.

novindbn
01.04.2009, 14:55
BCI, Wii, Gestenerkennung und MotionCapture sind alle nur Wege zu einem Ziel:

Übertragen meiner Bewegungen in ein Computerspiel.

Was nicht vergessen werden darf: Computerspiele wie Silent Hill haben selten viele Bewegungsmöglichkeiten. Es gibt vorwärts als eine Taste. Nicht "etwas vorwärts" oder "einen Schritt vorwärts" sondern vorwärts. Genauso links, rechts, zuschlagen und so weiter.

Das System kann also sehr ungenau sein.

Netzman
01.04.2009, 16:25
Ja und auf welchen Pfaden wandelst du nun?

mfg

novindbn
01.04.2009, 19:38
Ich weiche frohen Mutes mit Hochgeschwindigkeit vom Pfad der Gehirnwellenerkennung ab und konzentriere mich auf MotionCapture ohne Marker mit einem Camcorder. Denn an sich ist alles vorhanden: Gesichtserkennung mißt zuverlässig auch die Entfernung des Gesichtes. Jetzt muß das gleiche nur noch mit dem restlichen Körper möglich sein.

Mir ist folgendes zu schwer aber vieleicht bekommst du oder jemand anders hier im Forum es hin: http://luis-unzueta.vndv.com/documents/PhD_Luis_Unzueta.pdf.

Ich habe Luis bereits angesprochen, er meinte, er habe kein Copyright mehr an seiner Forschung, er hat vorgeschlagen, daß ich aufgrund seiner Diplomarbeit das Programm erstelle.

Wie ich es verstehe läßt er den Computer aufgrund der menschlichen Anatomie die Position berechnen.

johns
01.04.2009, 22:08
hallo,

http://openeeg.sourceforge.net/doc/index.html


The OpenEEG project is about making plans and software for do-it-yourself EEG devices available for free (as in GPL). It is aimed toward amateurs who would like to experiment with EEG.


da gibts auch einen bausatz von olimex (modular eeg).
aber wie gut das ganze ist weiss ich nicht.

aufjedenfall ist mir auch abseits der bastlergemeinde kein BCI system bekannt welches mehr als ein paar bit information verlässlich aus den per EEG gemesenen strömen extrahieren konnte. und selbst das nur wenn sich der proband so wenig wie möglich bewegte damit einerseits nicht andere gedanken oder neurale impulse an muskeln in der nähe der elektroden die messung erschweren und andererseits die elektroden nicht auf der glatze verrutschen.
viel bessere erfolge sind wie bereits erwähnt mittels elektroden direkt am gehirn erreichbar, noch bessere mit elektroden im gehirn, wobei es auch hierbei probleme bei der praktischen umsetzung geben dürfte.




So würde ich mich, verbunden mit dem - zugegeben leichte Horrorvisionen hervorrufenden - Gerät in Kampfposition begeben, oder drei, vier Meter laufen, und die Spielfigur auf dem Bildschirm dasselbe tun sehen.
aha, du willst dich bewegen. BCI ist ungeeignet.



Problem bei allen Modellen: Was ist mit der Bewegung? Wie bringe ich der Figur natürlich das Laufen bei ohne mich selbst zu bewegen?

ok, du willst dich nicht dabei bewegen. klarer fall für ein BCI (der zukunft).


Übertragen meiner Bewegungen in ein Computerspiel.
diese anforderung schliesst einen vorteil durch BCI/EEG aus, da eine bewegung per definition erst eine bewegung ist wenn sie ausgeführt wird, was widerum ein direktes messen der bewegung ermöglicht, welches leichter umsetzbar ist als BCI (z.b motion capture, beschleunigungssensoren und gyros, oä).


Was nicht vergessen werden darf: Computerspiele wie Silent Hill haben selten viele Bewegungsmöglichkeiten. Es gibt vorwärts als eine Taste. Nicht "etwas vorwärts" oder "einen Schritt vorwärts" sondern vorwärts. Genauso links, rechts, zuschlagen und so weiter.
dieser zusatz ist unvereinbar mit der vorangegangenen anforderung, da es sich hierbei um das auslösen der ausführung einer von wenigen bereits gespeicherten bewegung handelt. hier wäre ein BCI über EEG eher denkbar (auch im hobbybereich, siehe OpenEEG), aber es wären auch andere schnittstellen möglich, man könnte zb versuchen taster irgendwie an den computer anzuschliessen, einen für vor, einen für zurück und dann noch mindestens einen für apchagi. ich glaube so ein dingens in entsprechendem gehäuse wäre der renner schlechthin. über einen passenden namen für ein solches gerät müsste man halt noch nachdenken. und schnell sein, da ich mir sicher bin dass sich das apple innerhalb der nächsten jahre patentieren lassen wird.




meine abschliessenden empfehlungen:

a) motion capturing (blaue handschuhe, gelbe füsse, roter kopf, ggf bessere marker. hintergrund mittels bewegungserkennung entfernen, merkmalserkennung auf blaue, gelbe und rote blobs) zum aufnehmen der bewegungen, gestenerkennung zum auslösen der wiedergabe.

b) bastel-BCI auf basis OpenEEG/Glatze als auslöser und hoffen (bezahlen) dass man genügend verschiedene zustände differenzieren kann. die bewegungen könnten vorher mittels eines sequenzers modelliert werden.

oder kombinationen von a) und b)


ich hoffe das passt einigermassen zu dem von dir aktuell gewählten pfad, da ich einer eventuellen aufforderung zum erneuten lesen vorangegangener beiträge mangels aussagekraft ohnenhin nicht nachkommen werde.




lg


ps.


PS: In einer Wii wird die relative Position über Gyroskope ermittelt und über Funk übertragen.

es werden keine gyroskope verwendet, sondern beschleunigungssensoren. gyroskope sollten aber als zubehör erhältlich sein (MotionPlus).




EDIT:



Mir ist folgendes zu schwer aber vieleicht bekommst du oder jemand anders hier im Forum es hin: http://luis-unzueta.vndv.com/documents/PhD_Luis_Unzueta.pdf.


ich hab mir die doktorarbeit gerade ein paar mal schnell durchgelesen und mal eine betaversion programmiert! es funktioniert überraschender weise schon sehr gut, nur die nasenspitze macht noch probleme, da stimmt irgendwas mit dem normalabstand zum gesicht nicht, viel zu hohe werte. morgen stelle ich dir den quellcode der bisdahin mit sicherheit fertigen 1.0 version zur verfügung. die urheberrechte bleiben natürlich aufgrund deiner ausserordentlich umfangreichen vorarbeit vollständig bei dir.
ich hoffe es dauert dir nicht zu lange, sonst schick mir einfach eine PM und ich leg nachtschicht ein. falls nicht sonstwer hier im forum schneller ist und dir das teil bereits fertig hat.

novindbn
02.04.2009, 17:25
SoundcardEEG sieht recht interessant und einfach aus, allerdings gibt es dort nur zwei Kanäle. Reicht das zum Steuern....

Schade, daß ich den Rest deines Beitrages nach
beiträge mangels aussagekraft ohnenhin nicht nachkommen werde nicht mehr lesen konnte, so hast du deinen Beitrag ab obengenanntem umsonst geschrieben.

Netzman
02.04.2009, 17:56
Ich muss mich für mich und meinen Kollegen entschuldigen, dass wir dir eine eigene Denkleistung, Initiative und Phantasie zugemutet haben.

Ich bin so frei und denke mal an deiner Stelle dein Vorhaben ein bisschen durch:
Du willst jetzt optisch mit einer normalen Kamera die Körperhaltung/Position erfassen und damit Computerspiele/Kampfsimulationen steuern.
Rein hypothetisch, diese Doktorarbeit ist dir zu kompliziert umzusetzen und jemand anderes hat weder Lust/Zeit/Bedarf/Wissen das für dich umzusetzen, natürlich völlig gratis, wäre es doch eine Überlegung ein einfacheres Verfahren zur Positionserkennung zu verwenden.

Oh, Zufall! Marker sind leicht zu erkennen, alles was du hierfür benötigst lässt sich hier im Forum finden (du suchst ja gerne irgendwelche Sachen raus) aber die sind dir ja leider zu uncool.

Weiterführende Gedankenspiele überlasse ich nun dir, ich wünsche viel Erfolg bei deinem Projekt.

mfg

novindbn
02.04.2009, 18:49
Ich muss mich für mich und meinen Kollegen entschuldigenNein, muß.t du nicht. Du hast fast nichts falsch gemacht, mehr Aufmerksamkeit in Zukunft aber ansonsten hast du dir nichts vorzuwerfen.

thewulf00
03.04.2009, 11:45
Leider können wir Dir nicht helfen, da Du unsere Hilfe ablehnst - inzwischen mehrfach. Ich spreche nicht für mich, sondern allgemein über die Antworten.
So einen Beitrag, wie den von johns, bekommt man selten. Ein fundierte Antwort, für die er sich viel Zeit nahm, und das ganz freiwillig und ohne auch nur einen Gedanken an das Finanzielle zu verschwenden. Aber was passiert? Mit rüdem, unangebrachtem Ton abgelehnt.

Tut mir leid, aber Dir ist nicht zu helfen, zumindest nicht von uns.

Wir wünschen Dir alle viel Erfolg bei Deinem Projekt. Halte uns bitte über die Fortschritte auf dem Laufenden.

Richard
03.04.2009, 17:49
Wenn es Dir bereits bei der Reflektorenanbringung an Motivation fehlen würde, dann wirst Du Dein 400DM (oder Euro?) -Teil sehr schnell hinschmeißen.
Glaub doch den Leuten hier auch mal was. Alle sagen dasselbe.

Moin moin allerseits.

Heute schon eingesetzte gesteuerte Prothesen (Arm/Bein), werden nicht
über Hinströme sondern über Sensoren an den Muskeln gesteuert. Dabei
ist es "relativ" egal welcher Muskel oder besser Muskelnerv vom Sensor
abgefragt wird. DENN es ist der Mensch der lehrnen muß mit welchen
!Gedankenbefehlen! er welche Aktionen bei der Prothese auslöst.
Nach einigen Monaten üben klappt das dann "beinahe" so unbewußt wie
"normal", die Steuerung muß nicht mehr bewust konzentriert erfolgen.

Mit Einem Muskelkadiogramm sollte es auch gehen, nur dort sitzen die
Sensoren als Nadel IM Muskel, da ist es unwarscheinlich das Mensch
damit ausgerüßtet Kampfsport betreibt....

Hirnströme einfach mittels Helm abgreifen dürfte nahezu unmöglich sein.
Der Sender (Hirn) arbeitet mit sehr niedrigen Strömen = sehr niedrigen
Elektrischen Feldern. Außerdem ist die Frequenz ca. 30 Hz (?) nicht zum
Senden geeignet. Da im Hirn kein Verstärker eingebaut werden kann, muß
der Empfänger extrem verstärkt werden. Der verstärkt aber auch den
restlichen elektromagnetischen "Schmutz".

Es muß also für einen nach außen total abgeschirmten Helm gesorgt
werden und und und und.

Einzig die Methode der Trickfilmer, auf den ganzen Körper kleine Reflecktoren
anbringen, Sereofilmen und diese Daten dann auf ein gerendertes Digitales
Abbild übertragen sollte klappen. Die Soft und Hardware ist in der
Filmindustrie erprobt und BBC oder wie der Englische Sender heißt bietet
die Software (GPL) sogar kostenlos an, habe ich jedenfalls gerade vor
kurzen gelesen. Wo ??????.

Gruß Richard

novindbn
05.04.2009, 01:22
Einzig die Methode der Trickfilmer, auf den ganzen Körper kleine Reflecktoren
anbringen, Sereofilmen und diese Daten dann auf ein gerendertes Digitales
Abbild übertragen sollte klappen. Die Soft und Hardware ist in der
Filmindustrie erprobt und BBC oder wie der Englische Sender heißt bietet
die Software (GPL) sogar kostenlos an, habe ich jedenfalls gerade vor
kurzen gelesen. Wo ??????.

Gruß Richard
Das würde sicher gehen. Allerdings um ab und zu zu spielen die Reflektoren immer wieder anzubringen sieht mir unrealistisch aus. Genauso wie extra eine Stereokamera bzw. eine zweite baugleiche Kamera anzuschaffen. Und außerdem geht es hier um komplette Animationen. Für die Spiele reichen(leider) Vorwärts ja/nein etc..

Vieleicht sollten sich auch Spieler an der Diskussion beteiligen, ich habe den Eindruck, die meisten hier haben noch nie ein Computerspiel gespielt.

oberallgeier
05.04.2009, 09:30
Hallo novindbn,

ich glaube ich kann Deine Absicht schon nachvollziehen, auch wenn ich mich, siehe mein Posting ganz oben, (https://www.roboternetz.de/phpBB2/zeigebeitrag.php?p=434310#434310) vorerst nur theoretisch damit beschäftige. Würde ich ein solches Thema angehen, dann wäre meine erste Übung irgendein Signal von Nerven oder Muskeln bei mir am Kopf oder Arm oder sonstwo abzugreifen und das im Computer darzustellen. Beispiel: den Mauszeiger bewegen durch Drehen und Neigen der Faust oder Hand. Mit einem Wort: ich würde am Anfang anfangen, nicht in der Mitte. Auf diese Art und Weise bin ich in meinem professionellen Bereich schon ziemlich weit gekommen. Wenn dann das erste, minimale Teilergebnis da ist, dann hat man - an einer eher einfachen Sache - einiges gelernt und kann Schritt für Schritt, auch mit vielen Schritten auf einmal, vorangehen. Ein so komplexes Gebiet verlangt ja auch einige eigene Erfahrungen und Kenntnisse; jedenfalls würde ich mich dabei nicht so sehr auf die Kenntnisse von anderen verlassen. Immerhin muss man sich ja beim Anwenden fremden Wissens doch ziemlich in fremde Gedanken einarbeiten. Diese Arbeit nutze ich lieber, mein eigenes Wissen zu erwerben. Nix für ungut, wenn ich Dir diese grundlegenden Dinge vorbete, vermutlich kennst Du die sowieso. Mich ärgert es immer, wenn jemand ganz begeistert von einem schwierigen Thema ist - und vorwiegend gesagt bekommt, was alles nicht geht oder wie es anders vermutlich besser ginge (geht mir in meinem professionellen Umfeld immer wieder so - und ich habe schon manches fertig bekommen).

Viel Erfolg

novindbn
06.04.2009, 02:53
So schwer es fällt, ich halte mir immer wieder vor Augen, daß es deren Realität ist. Sie würden es so machen. Oder sie wollen gehört werden und wenn ich es nicht nach ihren Vorgaben mache, sind sie beleidigt.

Es ist nicht so, daß es mir egal ist, wenn der X-te mit einem "geht eh nicht" ankommt. Nein es geht mir sogar sehr auf die Nerven und wenn mir das jemand zum Xten Mal in der Realität sagen würde, würde ich ihn meiden oder ihm eine kleben. Aber die kleinen sachlichen Elemente dazwischen bringen mich auf neue Ideen.

Denn trotzdem, oberallgeier: Willst du alles neu erfinden? Gerade bei Software gibt es meiner Erfahrung nach nichts, was nicht mindestens ein Mensch auf der Welt programmiert und ins Internet gestellt hat.

Hätte jetzt einer einen Link zu einer Software, die bereits tut, was ich möchte, würde ich es "wegen dem Lerneffekt" nicht nochmals machen.

Ich tue etwas, weil es auf dem Weg zum Ziel liegt, nicht um mir einreden zu können, jetzt "etwas gelernt zu haben".

Ich weiß, warum du es geschrieben hast. Weil du den Textverlauf, die kleine Geschichte im Internet mit dem Namen "An Spieler: Annäherung an eine Computer-Gehirn-Schnittstelle" in eine für dich nicht verlogene Richtung biegen wolltest. Dabei ging es nicht um mich, sondern um dein Empfinden. Trotzdem ist es gut, denn ich hätte früher oder später ähnliches geschrieben.