Stimmt, das hatte ich hier (klick) abgehandelt, damals für nen analogen GP2D120 (leider ist aktuell mein Bildserver offline - daher gibts keine Anschaulichkeit :-/ ). Meine damaligen Entstörung mit 100 nF Kerko und 100 µF Elko war gut, heute nehme ich 500+ µF (Faustregel: 1 mF pro 1 A). Aktuell arbeite ich gerade mit der neuen, analogen Typenreihe 20-150 und 100-550, wobei es mir nicht auf absolute Genauigkeit ankommt. Trotzdem wird entstört. Denn ohne Entstörung schippern diese Burschen die Spannungsversorgung mit ihrem Müll voll ... und das will ich verhindern. Hintergrund der Rückschmutzung in die Versorgungsspannung ist der LED-Strom. Die LEDs (der alten GP´s) werden zwar nur rund 60 µs bestromt - und das im Millisekundenabstand - 1 kHz. Dies über 80 % der Messperiode, gefolgt von 20 % Pause, in der ein Update des Messergebnisses am Ausgang erfolgt. Die neuen Sensoren sind ähnlich aufgebaut. Die Entstörung wird in vielen Datenblättern von Sharp empfohlen. Dagegen kenne ich aktuell nur EIN einziges Sharp-Datenblatt, in dem von dem hohen Stromhunger der LED die Rede ist.... GP2 von Sharp ... auf Hinweise gestoßen das ein einzelner Sensor bis zu 1A zieht, wenn er die LED einschaltet ...
Vielleicht den Widerstand/Spannungsabfall zwischen aktuellem Aufhängepunkt und den beiden Fix-/Endpunkten des Führungskabels messen ?? Auch ein auf-/abgewickeltes Messseil ist eine genaue, störungsfreie, schnelle Messmethode! Ansonsten ist ein recht ordentliches Verfahren das RADAR; wir nutzen es hier in den Bergen/Wildbächen als Wasserstandsanzeiger. Und der kann präzise sein - WENN die Wasseroberfläche glatt ist *ggg*. RADAR wird ja auch zunehmend im Consumerbereich - bei Fahrerassistenten wie z.B. Einparken - benutzt, die Geräte werden immer kleiner und billiger! Allerdings ist es in seiner Ausbreitungscharakteristik wie Ultraschall :-/... da meine Messpunkt zwischen zwei Führungskabeln liegt ...
Lesezeichen