...habe kürzlich mit Arduino & BitVoicer gearbeitet - cloudbasiert, mit erstaunlich guter Spracherkennung ohne "Einlernphase":
http://www.bitsophia.com/en-US/BitVoicer/Overview.aspx
...habe kürzlich mit Arduino & BitVoicer gearbeitet - cloudbasiert, mit erstaunlich guter Spracherkennung ohne "Einlernphase":
http://www.bitsophia.com/en-US/BitVoicer/Overview.aspx
Ist schon ein bisschen schade das es irgendwie kein TTS gibt was man direkt ins Programm einbinden kann und die die richtig gut klingen dann das Gesprochene erst hochladen müssen.
Hallo,
Für eine vollsynthetische Sprachgeneration, braucht man vor allem grosse Wörterbücher und Rechenleistung.
Zuerst muss die Schrift in eine phonetische Form übersetzt werden. Besonders bei Lehnwörtern ergibt sich eine von den allgemeinen Regeln abweichende Aussprache. Manche Wörter erhalten erst im Kontext ihren Sinn und werden dann anders ausgesprochen.
Als Schweizer fällt mir da "St. Moritz" als Beispiel ein. Nach den deutschen Regeln liegt die Betonung auf der ersten Silbe, wir betonen aber die Letzte.
Für eine lebendige Sprache müssen noch andere Elemente, wie z.B. Satzeichen berücksichtigt werden. Der selbe Satz wird unterschiedlich betont, je nachdem ob hinten ein Punkt, Fragezeichen oder Ausrufezeichen steht.
Ein weiteres Problem ist, dass die Fachsprache in der Forschung Englisch ist und sich die Forschung vor allem auf die englische Sprache bezieht.
Füttert man eine TTS für englisch mit deutschen Sätzen hat man ein Ergebnis mit grauenhaftem englischen Akzent.
MfG Peter(TOO)
Manchmal frage ich mich, wieso meine Generation Geräte ohne Simulation entwickeln konnte?
Lesezeichen