Zitat Zitat von Manf
Bei der Triangulation wird der Ort nicht in eine Helligkeitsinformation umgesetzt die auch vom Reflexionsfaktor mitbestimmt wird, sondern in eine korrespondierende Ortsinformation.
Ja. Wobei bei der Triangulation ja auch die Reflexionseigenschaften des Materials (hier: das Gewebe der Stimmlippen) Einfluß haben, oder?
Mal ne (blöde?) Frage: wird ein Infrarotsensor von starkem weißen Licht beeinflußt? Kann es da Störungen geben?
Man muß sicher noch sehen, wie die Messung in das Gesamtkonzept mit der eigentlichen Untersuchung paßt und ob es keine Störungen gibt.

Die angesprochenen Messungen mit mechanischem Scannen sind ohne Berührung. Die Fokusmethode Beispielsweise verwendet einen Lichtpunkt auf dem Objekt und verschiebt eine Linse (oder entsprechendes) so, daß der Lichtpunkt klein wird. Das ist dann ziemlich genau die Schärfeeinstellung die eigentlich gebraucht wird. Nimmt man ein gemeinsames System für Untersuchung und Schärfe?
Gute Frage... also, es gibt 1 gemeinsamen Strahlengang, also 1 Optik für sowohl das sichtbare Bild (Videosystem) als auch für den Untersuchungsstrahl (1300nm, also im Nah-IR). Jetzt muß diese Optik ja scharfgestellt werden auf den entsprechenden Abstand (variiert je nach Patient, Geschlecht, Alter), damit man ein scharfes Bild sieht. Je nachdem, ob der OCT-Strahl vor oder hinter dieser Verstelloptik eingekoppelt wird, wird er dadurch auch beeinflußt. Was da sinnvoll ist, ist dann aber eine Frage der Berechnung und Auslegung der Optik.... Man könnte natürlich tatsächlich irgendwie die Bildschärfeeinstellung mit der Einstellung der OCT-Fokusebene koppeln. Wie das gehen kann und ob das überhaupt genau genug wäre, ist die Frage... Aber prinzipiell auch ein Möglichkeit.

Lästig ist dabei das Abscannen des Gesamtweges zum Feststellen des Abstandes maximaler Schärfe. Wie sich hier wieder die Schärfeeinstellung und die eigentliche Messung beeinflussen ist zu prüfen.

Ach so, und Fasern dürfen nur um einen bestimmten Betrag gekrümmt werden, sonst klappt es mit der Lichtleitung irgendwann nicht mehr. Ob das also konstruktiv funktioniert, aus einem ca. 10 mm-Rohr eine Faser im rechten Winkel nach unten zu legen, ist auch noch ne Frage.
Für die Funktion nimmt man einen Spiegel.
Ja, klar Bild hier  
Beleuchtet man das Objekt schräg mit einem Lichtstrahl dann kann man aus dem Ort des Lichtpunktes die Entfernung bestimmen. Mit PSD Sensor oder mit der Kamera selbst. Hier ist dann wieder zu klären wie sich die Messungen beeinflussen können oder dürfen.
Manfred
Ahhh ja, der OCT-Strahl liegt im IR und ein evtl. IR-Entfernungssensor auch, könnte Probleme geben. Oder man nutzt gleich den OCT-Strahl und ermittelt per seitlichem PSD die Entfernung. Oder natürlich, so wie du sagst, mit einem zusätzlichen Lichtpunkt und Bildverarbeitung, dann bräuchte man irgendeinen Auswertealgorithmus, also ein Programm, daß dann auch das OCT steuert...

Mal noch eine andere Frage, die hier zwar wohl nicht ganz passend ist, weil eher informatischer Natur... ich stell sie mal trotzdem .

Wie irgendwo schon mal geschrieben, ist der OCT-Bildbereich nur einige mm groß, nur dann ist ein Bild sichtbar. Außerhalb sieht man nur ein schwarzes Bild, bzw. Grundrauschen. Könnte man mit einer ausreichend schnellen Bildverarbeitung eine Art Tiefenscan machen und dabei die (OCT-Schicht-) Bilder auswerten? Sobald der Helligkeitsanteil ansteigt, liegt man in der Bildebene und könnte die dann "verfolgen".
Das geht grob in die Richtung wie die von dir, Manfred, beschriebene Fokusmethode. Auch hier müßte man einen gewissen Bereich durch "trial-and-error" durchscannen. Voraussetzung dabei wäre ein ausreichend schnelles OCT-System, das die Bilder schnell bereitstellt.