Allgemein
Knowledge Base
- Neue Struktur (In Arbeit)
- Computertechnisches
Community
Privat
Was Sie sehen, ist, was Sie bekommen...
Die Textverarbeitungsprogrammen früher gerne genutzter Satz, um direkt zu zeigen, wie das später ausgedruckte Endergebnis aussehen wird.
Das Ausgeben von Text war auf den ersten Computern noch eine Herausforderung.
Es gab Textmodi für die Darstellung von Buchstaben. Um mal etwas weiter auszuholen, beim Atari 8bit waren es 40 Zeichen in der Breite, 24 Zeilen in der Höhe. Der C64 hatte 1 Zeile mehr. Beim PC gab es gleich 80 Zeichen in der Zeile, was aber auch einen Monitor voraussetzte, weil die früheren Röhren-Fernseher die benötigte Auflösung für 80 Zeichen in einer Zeile einfach noch nicht hergaben.
Beim Textmodi wird jedes Zeichen auf dem Schirm als 1 Byte kodiert und die Darstellung wird einem Zeichensatz entnommen. Damit steht schon fest, das nur 256 unterschiedliche Zeichen auf dem Monitor dargestellt werden können. Der Atari 8bit z.B. konnte nur 128 unterschiedliche Zeichen darstellen. Das war auch dem Speicherplatz geschuldet, da dieser knapp bemessen war, RAM war noch exorbitant teuer. 128 Zeichen sind nicht viel, wenn man bedenkt, 0-9 sind 10 Zeichen, A-Z sind 26 Buchstaben, a-z sind nochmal 26 Buchstaben und noch ein paar Satzzeichen wie .,?!;:$#%& noch ein paar Mathematische Symbole wie +-*/()= da sind 128 Zeichen schnell weg. Wenn jetzt noch internationale Zeichen wie äöüÄÖÜß hinzukommen, wird es eng. An fette Schrift, kursive Schrift, oder fette und kursive Schrift war nicht zu denken.
Im Textmodi war die Textausgabe recht einfach, es gab einen Cursor, der die Position markierte, an der als nächstes Text ausgegeben wird.
Mit Funktionsaufrufen wie in modernen Programmiersprachen z.B. C printf("Hallo Welt!"); ist die Ausgabe von Text sehr einfach möglich. Der Cursor wandert für jeden auszugebenden Buchstaben weiter nach rechts. Sollte am Ende der Zeile noch weiterer Text ausgegeben werden, wird einfach die Zeile umgebrochen, der Cursor wandert an den Anfang der Zeile zurück, allerdings eine Zeile tiefer und weiter geht es.
Es war alles auf wenig Speicherverbrauch ausgelegt. Zudem war die Ausgabe von Text im Textmodi sehr flott.
Mit der grafischen Darstellung von Text kamen als erstes die Herausforderungen des wesentlich höheren Speicherverbrauches. Ein Textmodi auf dem Atari 8bit in 40x24 belegt 960 Bytes. Der Zeichensatz braucht 1024 Bytes für 128 unterschiedliche Zeichen, wenn jedes Zeichen 8x8 Bit verwendet. Der Default-Zeichensatz ist im ROM hinterlegt, braucht also keinen RAM-Speicher.
Ein Grafikmodi in Monochrom braucht für die selbe Auflösung (8x8 Pixel pro Buchstabe) schon 320x192 Pixel. Was 7680 Bytes entspricht. Buchstaben müssen jetzt gezeichnet werden.
Vorteile Text im Grafikmodus darstellen:
Nachteile:
Textmodi gibt es nicht mehr! Der originale Amiga stellt die Grafik in Planes bereit, das ist ein linearer Speicherbereich der Monochrome die Pixel darstellt. 8 Pixel in einem Byte. Man kann mehrere dieser Planes übereinander legen und durch die entstehenden Bit-Kombinationen mit den Farbregistern die entsprechende Farbe darstellen. Das machte das Setzen eines Pixels zur Sisyphos-Aufgabe. Da jede Plane an einer beliebigen Position auf dem Schirm dargestellt werden konnte.
Unterschätzt nicht den Speicherverbrauch, der Amiga hatte ChipMem, das für die Darstellung der Grafik, der Sprites, aber auch für Sound-Daten gebraucht wurde. Die ersten Amigas kamen mit 512kb RAM. Die letzten Amigas hatten 1992 dann 2mb ChipMem. Die ersten 68k Motorola-Prozessoren konnten auch nur 16mb RAM-Speicher ansprechen (24 Bit). Zu damaliger Zeit eine riesige Menge Speicher, der auch eher unbezahlbar war. Da es erst 1mbit Chips gab. Das änderte sich erst mit dem Motorola 68020 der 4gb adressieren konnte (32 Bit).
Die ersten PC zu Zeiten des Amiga 1986-1992 hatten meist Text-Darstellung (MS-DOS), für Grafik gab es EGA-Auflösung, danach kam das bessere VGA. Damit ließen sich schon 1024 Pixel in einer Zeile darstellen. Je nach RAMDAC und Speicher auch mal mehr. Ein Pixel war ein Byte groß, es gab dann aber auch recht schnell 2-4 Byte pro Pixel. Planes, wie auf dem Amiga kannte der PC nicht. Erst 256 unterschiedliche Farben, dann 65536 und irgendwann 16 Millionen, da sah der Amiga dann alt gegen aus.
Die Auflösungen, die Grafikkarten darstellen konnten, wuchsen mit der Zeit recht schnell. Erst 800x600, dann 1024x768, dann 1280x960, alles mit dem Verhältnis von 4/3. Erst 16 Bit, dann 32 Bit. Dann kamen die überbreiten Monitore mit einem Seitenverhältnis 16/9 Full-HD mit 1920x1080 Pixeln. Dann kam WQHD mit 2560x1440 oder 4k mit 3840x2160. Ein beschränkender Faktor war die RAM-Größe auf den frühen Grafikkarten. Mit 512kb RAM (ET4000?) lässt sich kein 640x480 in 16 Bit darstellen, dazu wären min. 600kb nötig. Der Kompromiss hieß 640x400 Pixel in 16 Bit. Das ging, gerade so eben.
Der Autor (Lars) fährt aktuell 5120 x 1440 Pixel in 24 Bit pro Pixel, was 22118400 Bytes (~21mb) belegt.
Immer war es ein Spiel auch mit dem Monitor, welche Auflösung konnte dieser noch scharf darstellen. Was helfen einem 1280 Pixel in der horizontalen, wenn der Monitor nicht mal mehr 800 Pixel auflösen konnte. Das Bild wirkte verwaschen, unscharf, damit wollte niemand arbeiten. Das änderte sich erst mit den LCD-Displays. Irgendwann Anfang der 2000er ging es so richtig los. Jetzt wurde exakt das genutzt, was der Monitor hergab. Mittlerweile sind die Pixel so klein, dass das menschliche Auge einzelne Pixel nur noch schwer erkennen kann. Des Weiteren wird Antialiasing verwendet, um die Pixel schön scharf aber trotzdem mit weichen Übergängen darzustellen.
Das Darstellen von Text innerhalb eines Grafikmodus in unterschiedlichen Ausprägungen (Proportional, nebst kursiv, fett, hochgestellt...) geriet immer mehr zur Herkulesaufgabe. Es entspricht mehr dem Setzen von Buchstaben, mit unterschiedlich breiten Zwischenräumen zwischen den Wörtern, wofür früher Layouter gebraucht wurden. Die Anforderungen stiegen immer schneller.