Die Unterscheidung zwichen Groß- und Kleinbuchstaben geht noch weiter zurück wie UNIX. für die Zeichenkodierung hat man bei Computern den ASCII Zeichensatz des Telex Systems übernommen und sowohl beim ASCII, dem neueren ANSI als auch bei Unicode werden Großbuchstaben und Kleinbuchstaben halt mit anderen Bitfolgen codiert. Und Comuter ferstehen halt nun mal nur Nullen und Einsen. Damit sind ein "c", ein "C" oder auch ein "h" und ein "H" grundverschiedene Zeichen. und eine Sysntaxkontrolle kann man strikt oder auch für Variantenerkennung programmieren. Strikt ist halt weniger Code und somit gibt es IDE die nur "c" und "h" akzeptieren und Systeme die klein und Großbuchstsaben akzeptieren. Am sichersten ist man wenn man der alten Acht-Punkt-Drei (8.3) Notation folgt und immer alles klein schreibt. Google mal ASCII Tabelle und ANSI Tabelle spätestens bei den Umlauten (Ä,Ö,Ü,ä,ö,ü und ß) wird es ganz lustig. Das Alphabet "A-Z und a-z" haben bei ASCII und ANSI ja noch die selbe Codierung aber Sonderzeichen wie Umlaute halt nicht.
Das vergessen heute viele Programmierer grade bei modernen Systemen ie SAP R3 wenn sie Daten aus älteren Mainframes übernehmen wollen.
(Komisch im Test mit den 1000 Testdatensätzen hat alles geklappt, aber jetzt hat es die Personaldaten von "Müller" nicht übernommen.)
Übrigens einer der Gründe, warum man auf vielen Formularen AE, OE, UE und SS schreiben soll anstelle richtig Ä,Ö,Ü und ß.
Verunstaltung der deutschen Sprache um ein paar Euro beim Programmierer zu sparen.
Lesezeichen