in 2k speicher bekomme ich NIE 1000 werte unter ... variablen für andere operationen, mind. 2 pointer pro wert wenn ich ne liste nehmen sollte gleitkomma berechnungen ........

die rechenzeit ein array zu sortieren wäre irrwitzig

ich habs jetzt so gelöst, dass ich 20-50 werte sammle, erwartungswert und vertrauensbereich berechne, dann ein array von 100 bytes nehme, die mitte des array ist der erwartungswert, die grenzen stellen den vertrauensbereich dar, alle werte die ausserhalb liegen werden nur gezählt und der maximalwert gespeichert, so bekomm ich ne gute aussage über fehler und einen gut aufgelösten boxplot ... der vertrauensbereich und erwartungswert werden immer neu berechnet

n anderer mega wird schon kompliziert, ich brauch auf jeden fall die 24PDIP größer auf keinen fall und kleiner kann ich demjenigen der die platine bauen muss nicht zumuten ...

ich hab für n array mit 360 werten ne ermittlungszeit von ~290µS gemessen, morgen werd ich mal schauen was ne einfach bzw. doppelt verkette liste an zeit und speicher braucht

PS: es geht um nen lebensdauertest, da wird immer zwischen 2 zuständen gewechselt und dann das ergebnis gemessen, hin und wieder können totalfehler entstehen bei dem kein wertewechsel entsteht und sonst sind nur gewisse schwankungen zu erwarten ... später dann ein trend und abschliessend die zerstörung ^_^ ... zur laufzeit soll man trends schon erkennen können, anhand steigender streuung oder fallender erwartungswerte
aber dabei soll eben auch sowas wie totalfehler den mittelwert nicht beeinflussen aber sie sollen auch nicht von der statistik verschluckt werden

problem ist eben die kommunikationsschnittstelle, also wenn ich mehr als 5 werte (ohne ausreisser oder totalfehler) gemessen habe werde ich sie als boxplot darstellen, so kann mein datenpaket maximal 16bytes groß werden aber bis zu 100 messwerte beinhalten, wenn ich schneller messen sollte als ich abrufen kann