Kommunikation ist eine komplizierte Sache: »Das Gesagte ist nicht das Gemeinte und das Hörte nicht das Verstandene.« Diese Probleme werden noch größer, wenn man es mit einem strengen, aber primitiven Gegenüber wie dem Computer zu tun hat. Während Menschen gut mit Mehrdeutigkeiten umgehen und sich auf die jeweilige Situation einstellen können, gelingt dies Computern (noch) nicht.

Einem Computer muss man daher sehr genau erklären, was man meint und wovon man spricht. Und dies nicht nur auf der inhaltlichen Ebene, sondern bereits auf der Ebene einzelner Zeichen gibt es Mehrdeutigkeiten, deren strenge Auslegung eine Differenzierung bei der Kommunikation erfordert, um das gewünschte Ergebnis zu erzielen.

In handgeschriebenen Texten sind feine Differenzierungen der Zeichen nur schwer möglich, weshalb wir Menschen als Leser gut im Umgang mit diesen Mehrdeutigkeiten sind. Am Computer jedoch, wo ein Zeichen eine exakt definierte Einheit mit klaren Eigenschaften ist, treten plötzlich die Feinheiten zu Tage, die sonst im Textfluss verschwimmen. So gibt es mehrere Zeichen, die optisch gleich aussehen, aber eine unterschiedliche Bedeutung in sich tragen, die für die Verarbeitung durch den Computer von Relevanz ist.

Bis vor einigen Jahrzehnten waren solche Fragen auch noch nicht von großer Bedeutung, aber Unicode machts möglich.

Leerzeichen

Horizontale Striche

Hochkommata