Die Ent­wick­lung von Unix zählt zwei­fels­frei zu den wich­tigs­ten Mei­len­stei­nen der Com­pu­ter­ge­schich­te. Das Be­triebs­sys­tem führte nicht nur einige ele­men­ta­re Konzepte der In­for­ma­ti­ons­tech­nik wie das hier­ar­chisch auf­ge­bau­te Da­tei­sys­tem mit Ord­ner­struk­tur ein; es diente auch als Grundlage für die Ent­wick­lung diverser anderer Systeme, z. B. der pro­prie­tä­ren Apple-Be­triebs­sys­te­men macOS und iOS oder des Open-Source-Projekts Linux, aus dem wiederum zahl­rei­che Ab­lei­tun­gen wie Ubuntu, Debian oder das mobile Android her­vor­ge­gan­gen sind. Wie genau wurde Unix zu einer der ein­fluss­reichs­ten An­wen­dun­gen zur Com­pu­ter­ver­wal­tung und weshalb konnte das Ent­wick­ler­team seine Ideen zunächst aus­schließ­lich auf Tafeln und No­tiz­zet­teln fest­hal­ten?

Ge­mein­schafts­pro­jekt Multics legt den Grund­stein

1965 prä­sen­tier­te im Rahmen der Fall Joint Computer Con­fe­rence eine Ar­beits­grup­pe ihre Idee eines neuen Be­triebs­sys­tems. Die Gruppe bestand aus Mit­ar­bei­tern des Mas­sa­chu­setts Institute of Tech­no­lo­gy (MIT), des Konzerns General Electric und der Bell La­bo­ra­to­ries (Bell Labs) von AT&T (seit 2016 Teil der For­schungs- und Ent­wick­lungs­ab­tei­lung von Nokia). Sie tauften das Be­triebs­sys­tem Mul­ti­ple­xed In­for­ma­ti­on and Computing Service, kurz Multics. Dabei ver­folg­ten sie voll­kom­men neue Ansätze, wobei ins­be­son­de­re das Konzept des Time-Sharings im Fokus stand. So sollte Multics zu den ersten Systemen zählen, die es mehreren Benutzern er­mög­li­chen, gleich­zei­tig an einem Computer zu arbeiten, indem sie sich die Re­chen­zeit des zu­grun­de­lie­gen­den Pro­zes­sors teilen.

Für ihr Vorhaben benötigte die Multics-Ar­beits­grup­pe einen Rechner, der eine Reihe spe­zi­fi­scher An­for­de­run­gen erfüllen musste: Ei­ner­seits sollte er einen sauber struk­tu­rier­ten Be­fehls­satz aufweisen, um die für die Ent­wick­lung vor­ge­se­he­ne höhere Pro­gram­mier­spra­che PL/I von IBM nutzen zu können. An­de­rer­seits musste er den geplanten Mehr­be­nut­zer­be­trieb un­ter­stüt­zen und asynchron arbeiten, um die Per­for­mance-Einbußen bei der Spei­cher­ver­wal­tung möglichst gering zu halten. Man entschied sich aus diesem Grund zunächst für den GE-635 und später für den GE-645 von General Electric. Die Ent­wick­lung führte man auf dem bereits lauf­fä­hi­gen Mehr­be­nut­zer­sys­tem CTSS durch, das bereits zu Beginn der 1960er-Jahre vom MIT ent­wi­ckelt worden war. Ver­zö­ge­run­gen bei der Ent­wick­lung des PL/I-Compilers, fi­nan­zi­el­le Engpässe, interne Dif­fe­ren­zen und der wachsende Druck von außen führten schließ­lich dazu, dass sich die Bell Labs 1969 aus dem Projekt zu­rück­zo­gen.

Aus Multics wird Unix

Multics wurde am MIT wei­ter­ent­wi­ckelt und im späteren Verlauf von dem Konzern Honeywell In­ter­na­tio­nal Inc. – nach dessen Kauf von General Electric – kom­mer­zi­ell auf Honeywell-6180-Maschinen ver­trie­ben (bis 1986). Den In­for­ma­ti­ker Ken Thompson, der zum damaligen Zeitpunkt Mit­ar­bei­ter der aus­ge­stie­ge­nen Bell Labs war, ließ die Idee eines Mehr­be­nut­zer­sys­tems al­ler­dings nicht los: Gemeinsam mit Dennis Ritchie und einem kleinen Team der AT&T-Ein­rich­tung begann er mit den Planungen eines eigenen Systems auf Basis der Multics-Grund­sät­ze. Die Suche nach einem ge­eig­ne­ten Computer erwies sich zunächst jedoch als er­geb­nis­los – und da die Bell Labs sich gegen den Kauf eines passenden Exemplars stemmten, hielten die Ent­wick­ler ihre Gedanken und Fort­schrit­te des geplanten Da­tei­sys­tems zunächst auf Papier und Tafeln fest.

Schließ­lich konnte man einen ge­brauch­ten PDP-7-Mi­ni­com­pu­ter der Firma Digital Equipment Cor­po­ra­ti­on (DEC) für das geplante Projekt gewinnen. Dieses Rech­ner­sys­tem, das „nur noch“ die Größe einer Schrank­wand besaß, lief mit dem Be­triebs­sys­tem GECOS (General Electric Com­pre­hen­si­ve Operating System), das fortan als Ent­wick­lungs­platt­form diente. Schnell ent­stan­den wertvolle Software-Werkzeuge wie eine Kom­man­do­zei­le (sh), ein Editor (ed) und das bereits in Pa­pier­form exis­tie­ren­de Da­tei­sys­tem – vorerst noch in einer As­sem­bler­spra­che (hard­ware­nah, aber für Menschen ver­ein­facht). Da das neue Be­triebs­sys­tem im Gegensatz zu Multics nur zwei Benutzer zuließ, die je nur einen Prozess gleich­zei­tig ausführen konnten, nannte das Team dieses in Anlehnung an die Vorlage Unics. Aufgrund der Be­gren­zung der Länge von Da­tei­na­men in GECOS entstand schließ­lich der end­gül­ti­ge Name Unix.

Erst B, dann C: Unix bekommt seine eigene, höhere Pro­gram­mier­spra­che

Nachdem das Bell-Labs-Team also Unix und einige ele­men­ta­re Programme ge­schrie­ben hatte, schickte es sich an, die zu diesem Zweck ver­wen­de­te As­sem­bler­spra­che durch eine weniger komplexe Variante zu ersetzen. Den Plan, einen Compiler für die bereits exis­tie­ren­de IBM-Sprache Fortran zu ent­wi­ckeln, verwarf man al­ler­dings schon nach kurzer Zeit. Statt­des­sen begannen die Arbeiten an einer eigenen, neuen Sprache, wobei man sich stark an PL/I – der Multics-Sprache – und der am MIT ent­wi­ckel­ten BCPL (Basic Combined Pro­gramming Language) ori­en­tier­te. In der Folge schrieben Ritchie und Co. einige der System-Werkzeuge neu in dieser im­pe­ra­ti­ven Sprache, bis sie 1970 einen neuen PDP-11-Rechner erhielten und erneut zum Umdenken gezwungen waren – die neue Sys­tem­ar­chi­tek­tur war nicht wie die des PDP-7-Computers und der Pro­gram­mier­spra­che B wort-, sondern byte­ori­en­tiert.

Mit C ent­wi­ckel­te Bell Labs daher in den folgenden zwei Jahren den ge­schichts­träch­ti­gen Nach­fol­ger, dessen Syntax und andere Ei­gen­schaf­ten sich in diversen modernen Pro­gram­mier­spra­chen wie der Er­wei­te­rung C++, Java, Ja­va­Script, PHP oder Perl wie­der­fin­den. Als die Sprache 1973 aus­ge­reift genug war, begann das Ent­wick­ler­team damit, den kom­plet­ten Unix-Kernel neu in C zu schreiben. Das Ergebnis ver­öf­fent­lich­te das Unix-Team Mitte der 1970er-Jahre. Da AT&T zu diesem Zeitpunkt als staatlich kon­trol­lier­ter Mo­no­po­list in der Te­le­kom­mu­ni­ka­ti­ons­bran­che keinerlei Software verkaufen durfte, stellte man Unix (Version 6), mitt­ler­wei­le ein Mehr­be­nut­zer­sys­tem, das auch mehrere Prozesse gleich­zei­tig erlaubte, allen in­ter­es­sier­ten Uni­ver­si­tä­ten kos­ten­frei zur Verfügung – inklusive eines C-Compilers, was das System auf nahezu allen Platt­for­men nutzbar machte.

Hard­ware­freund­lich und quell­of­fen: Unix erobert die Ent­wick­ler­sze­ne

Mit der Freigabe der Unix-Software für Bil­dungs­ein­rich­tun­gen begann der Siegeszug des neuen Be­triebs­sys­tems – zunächst aber in erster Linie als Spielzeug der pro­gram­mie­ren­den Zunft. Ge­wöhn­li­che Ar­beits­pro­zes­se auf den damaligen IBM-Main­frames und PDP-Maschinen liefen hingegen weiterhin auf den nativen Systemen wie RSX-11, RT-11 oder IST. Für Ent­wick­ler bestand der Wert des be­reit­ge­stell­ten Quell­codes von Kernel und den einzelnen An­wen­dun­gen indes nicht nur im Lern­ef­fekt: Die geringen Ansprüche, die Unix an die Hardware stellte, sowie der hohe Nut­zer­kom­fort luden zum Ex­pe­ri­men­tie­ren und Wei­ter­ent­wi­ckeln ein, was vor allem an der Uni­ver­si­tät von Ka­li­for­ni­en in Berkeley, der ehe­ma­li­gen Hei­mat­uni­ver­si­tät Thompsons, Anklang fand – wobei die Tatsache, dass dieser dort 1976 eine Gast­pro­fes­sur in der neu ge­schaf­fe­nen In­for­ma­tik­ab­tei­lung antrat, ver­mut­lich eine nicht un­we­sent­li­che Rolle gespielt hat.

So ver­bes­ser­ten Bill Joy und Chuck Haley, zwei damalige Diplom-Studenten, u. a. das von Thompson ent­wi­ckel­te Pascal-System und pro­gram­mier­ten mit ex – dem Vorgänger des noch heute zu Stan­dard­in­stal­la­tio­nen unixoider Systeme zählenden vi – einen voll­kom­men neuen Text­edi­tor. 1977 erschien schließ­lich unter der Leitung Joys eine ab­ge­wan­del­te Unix-Variante, die die bis dahin vor­ge­nom­me­nen Ver­bes­se­run­gen und Wei­ter­ent­wick­lun­gen enthielt. Die Berkeley Software Dis­tri­bu­ti­on (BSD), die später u. a. das Netz­werk­pro­to­koll TCP/IP in das Unix-Universum in­te­grier­te und erstmalig dem Ansatz eines freien Be­triebs­sys­tems (dank der eigenen BSD-Lizenz) gerecht werden konnte, gilt seitdem als eine der wich­tigs­ten Unix-Ab­wand­lun­gen.

Die 1980er-Jahre: Kom­mer­zia­li­sie­rung und „Unix-Kriege“

In den folgenden Jahren sollten immer mehr Ab­wand­lun­gen das Licht der Welt erblicken, wobei immer mehr auch fi­nan­zi­el­le Aspekte eine Rolle spielen sollten. So erwarb Microsoft schon 1979 eine Unix-V7-Lizenz, um u. a. Por­tie­run­gen für Intel- und Motorola-Pro­zes­so­ren zu ent­wi­ckeln. Im folgenden Jahr ver­öf­fent­lich­te das Software-Un­ter­neh­men Xenix, das als Standard-Be­triebs­sys­tem für PCs geplant war, aber zu hohe Ansprüche an die Hardware stellte. Microsoft gab die Wei­ter­ent­wick­lung letzt­end­lich in die Hände des Software-Her­stel­lers SCO (Santa Cruz Operation), um sich auf OS/2 und die Wei­ter­ent­wick­lung von MS-DOS zu kon­zen­trie­ren.

Auch Bill Joy sprang 1982 mit seiner neu ge­grün­de­ten Firma Sun Mi­cro­sys­tems auf den Zug auf, und zwar mit dem pro­prie­tä­ren, auf BSD ba­sie­ren­den System SunOS (Vorgänger von Solaris), das speziell für den Einsatz auf Servern und Work­sta­tions geplant war.

Der wahre Kampf um die Gunst der Unix-Ge­folg­schaft ent­brann­te jedoch zwischen AT&T, das mitt­ler­wei­le die Erlaubnis für den kom­mer­zi­el­len Vertrieb erhalten hatte, und der Berkeley-Uni­ver­si­tät, die mit BSD und der großen Zahl un­ter­stüt­zen­der Pro­gram­mie­rer mit wert­vol­len und in­no­va­ti­ven Neue­run­gen glänzen konnte. So versuchte AT&T zunächst mit System III (1981) und ins­be­son­de­re mit dem op­ti­mier­ten System V (1983), die beide auf Unix V7 aufbauten, den Markt zu erobern, während die Uni­ver­si­tät von Berkeley zeit­gleich 4.2BSD ver­öf­fent­lich­te, für das innerhalb von 18 Monaten mehr als 1.000 Lizenzen aus­ge­stellt wurden. Damit war es deutlich beliebter als das kos­ten­pflich­ti­ge System V, das vor allem das Fast File System (FFS) und die Netz­werk­fä­hig­keit (dank in­te­grier­tem TCP/IP) der Berkeley-Variante vermissen ließ.

Mit dem vierten Release von System V (1988) im­ple­men­tier­te AT&T diese beiden sowie zahl­rei­che andere Features von BSD, aber auch von Xenix und SunOS, woraufhin viele Nutzer auf die kom­mer­zi­el­le Lösung wech­sel­ten.

Dem Pinguin sei Dank: Unix wird zur Server-Lösung

Während die ver­schie­de­nen Unix-Systeme mit­ein­an­der um das Wohl­wol­len der eigenen Community kon­kur­rier­ten, lieferten sich Apple und Microsoft zunächst einen Wett­streit im Personal-Computer-Sektor und später im Server-Umfeld. Während Microsoft das Rennen auf den Heim-PCs für sich entschied, erschien 1991 mit Linux plötzlich ein auf Unix-Konzepten ba­sie­ren­des System auf der Bild­flä­che, das sich in den folgenden Jahren dazu an­schi­cken sollte, das Ser­ver­um­feld für sich zu gewinnen. Der Ent­wick­ler Linus Torvalds hatte mit dem Paket aus einem frei li­zen­zier­ten Kernel und der ebenfalls frei ver­füg­ba­ren GNU-Software den Wunsch nach einem kon­kur­renz­fä­hi­gen Open-Source-Be­triebs­sys­tem erfüllt und damit den Nerv der Zeit getroffen.

Bis heute sind zahl­rei­che Unix-Linux-Ab­lei­tun­gen wie Debian, CentOS, Red Hat oder Ubuntu, die auch als Derivate be­zeich­net werden, als Sys­tem­soft­ware für Server aller Art im Einsatz. Ins­be­son­de­re Ubuntu erfreut sich jedoch auch immer größerer Be­liebt­heit auf hei­mi­schen PCs. Linux, das wir in einem Grund­la­gen­ar­ti­kel genauer be­leuch­ten, ist aber bei Weitem nicht der einzige Unix-Nach­fol­ger, der in der heutigen Com­pu­ter­welt von Bedeutung ist: Seit Mac OS X 10.0 bzw. Mac OS X Server 1.0 greift das Apple-Be­triebs­sys­tem auf Darwin, eine freie BSD-Variante, als Unterbau zurück. Das Berkeley-Unix selbst ist mit zahl­rei­chen weiteren, freien Ableitung wie FreeBSD, OpenBSD oder NetBSD sogar mehrfach vertreten.

Mit iOS (gleiche Sys­tem­ba­sis wie macOS) und Android (basiert auf Linux-Kernel) zählen außerdem auch die beiden meist­ver­brei­te­ten Be­triebs­sys­te­me für mobile Geräte zur Unix-Familie.

Was ist Unix – die wich­tigs­ten Ei­gen­schaf­ten des System-Mei­len­steins

Bei vielen Merkmalen, die Unix aus­zeich­nen, handelte es sich zum Zeitpunkt seiner Ein­füh­rung um absolute Neuheiten, die nicht nur den Aufbau späterer, unixoider Systeme und Dis­tri­bu­tio­nen stark be­ein­flus­sen sollten, sondern auch von den Kon­kur­ren­ten Apple und Microsoft in ihren Be­triebs­sys­te­men auf­ge­grif­fen wurden. Ins­be­son­de­re mit folgenden Cha­rak­te­ris­ti­ka machten Ritchie, Thompson und Co. Unix sei­ner­zeit zum Weg­be­rei­ter moderner Be­triebs­sys­te­me:

Hier­ar­chi­sches, uni­ver­sel­les Da­tei­sys­tem

Ein ele­men­ta­rer Be­stand­teil von Unix war von Anfang an das hier­ar­chisch or­ga­ni­sier­te Da­tei­sys­tem, das es dem Benutzer er­mög­licht, Dateien in Ordnern zu struk­tu­rie­ren. Dem Root-Ver­zeich­nis (Wur­zel­ver­zeich­nis), das mit dem Schräg­strich „/“ ge­kenn­zeich­net wird, können dabei beliebig viele Un­ter­ver­zeich­nis­se zu­ge­ord­net werden. Das Grund­prin­zip „Ever­y­thing is a file“ (dt. „Alles ist eine Datei“) ver­fol­gend, bildet Unix u. a. auch Laufwerke, Fest­plat­ten, Terminals oder fremde Rechner als Ge­rä­te­da­tei­en im Da­tei­sys­tem ab. Einige Derivate, darunter auch Linux, zeichnen sogar Prozesse und deren Ei­gen­schaf­ten als Dateien im vir­tu­el­len Da­tei­sys­tem procfs aus.

Mehr­pro­zess­be­trieb (Mul­ti­tas­king)

Ent­schei­dend für den Erfolg von Unix war außerdem die Mög­lich­keit, mehrere Prozesse bzw. Programme gleich­zei­tig aus­zu­füh­ren, ohne dass diese sich ge­gen­sei­tig in die Quere kommen. Dafür stützte sich das Be­triebs­sys­tem von Beginn an auf die Methode des prä­emp­ti­ven Mul­ti­tas­kings. Bei dieser Methode übernimmt der so­ge­nann­te Scheduler (engl. schedule = „Zeitplan“), der Be­stand­teil des Be­triebs­sys­tem­ker­nels ist, die Ver­wal­tung der einzelnen Prozesse über ein Prio­ri­tä­ten­sys­tem. Apple und Microsoft befassten sich erst we­sent­lich später, im Laufe der 1990er-Jahre, mit der Rea­li­sie­rung ver­gleich­ba­rer Pro­zess­ma­nage­ment-Lösungen.

Mehr­be­nut­zer­sys­tem (Multiuser-System)

Schon für Multics war die Haupt­ziel­vor­ga­be ein System, das mehreren Benutzern das gleich­zei­ti­ge Arbeiten er­mög­li­chen sollte. Zu diesem Zweck wird jedem Programm und Prozess ein Ei­gen­tü­mer zu­ge­ord­net. Und auch, wenn Unix zunächst auf zwei User be­schränkt war, gehörte diese Ei­gen­schaft von Anfang an zum Portfolio der Sys­tem­soft­ware. Der Vorteil eines der­ar­ti­gen Mehr­be­nut­zer­sys­tems lag nicht nur in der Chance, zum gleichen Zeitpunkt auf die Leistung eines einzigen Pro­zes­sors zugreifen zu können, sondern auch in dem damit ver­bun­de­nen Rech­te­ma­nage­ment. Ad­mi­nis­tra­to­ren konnten nun Zu­griffs­rech­te und ver­füg­ba­re Res­sour­cen für die ver­schie­de­nen User de­fi­nie­ren. Vor­aus­set­zung war zunächst aber auch, dass die Hardware des je­wei­li­gen Rechners mit­spiel­te.

Netz­werk­fä­hig­keit

Mit 4.2BSD wurde das Berkeley-Unix 1983 eines der ersten Be­triebs­sys­te­me, das den In­ter­net­pro­to­koll­sta­pel in­te­grier­te, der die Grundlage für das Internet und eine einfache Netz­werk­kon­fi­gu­ra­ti­on legte und die Mög­lich­keit bot, als Client oder Server zu agieren. Ende der 1980er-Jahre kam mit der bereits erwähnten vierten Version von System V auch eine Variante des kom­mer­zi­el­len AT&T-Systems auf den Markt, in der dem Kernel die legendäre Pro­to­koll­fa­mi­lie hin­zu­ge­fügt worden war. Windows sollte TCP/IP hingegen bei­spiels­wei­se erst mit 3.11 (1993) und einer ent­spre­chen­den Er­wei­te­rung un­ter­stüt­zen.

Platt­form­un­ab­hän­gig­keit

Während man andere Be­triebs­sys­te­me und deren An­wen­dun­gen zur Zeit der Ent­ste­hung von Unix noch ganz gezielt auf einen ganz be­stimm­ten Pro­zes­sor­typ zuschnitt, verfolgte das Bell-Labs-Team von Beginn an den Ansatz eines portablen Systems. Zwar begann man zunächst mit einer As­sem­bler­spra­che, doch sobald die Grund­struk­tur der Sys­tem­soft­ware ge­schaf­fen war, startete das Projekt einer eigenen, höheren Pro­gram­mier­spra­che, aus dem die his­to­ri­sche Sprache C her­vor­ging. Zwar waren die in C ge­schrie­be­nen Kom­po­nen­ten trotz mit­ge­lie­fer­tem Compiler vorerst noch stark an die Ar­chi­tek­tur der PDP-Maschinen, die Ritchie und Co. als Basis für ihre Arbeiten dienten, gebunden. Spä­tes­tens mit der stark über­ar­bei­te­ten Unix-V7-Version (1979) verdiente sich das Be­triebs­sys­tem jedoch zurecht seinen Ruf als portables System.

Das Unix-Werk­zeug­kas­ten-Prinzip und die Shell

Unix-Systeme vereinen eine Vielzahl nütz­li­cher Werkzeuge und Befehle, die in der Regel jeweils nur für wenige, spezielle Aufgaben kon­zi­piert sind. Linux greift hierfür bei­spiels­wei­se auf die GNU-Tools zurück. Für die all­ge­mei­ne Pro­blem­lö­sung gilt das Prinzip, Antworten in der Kom­bi­na­ti­on von Standard-Werk­zeu­gen zu finden, anstatt spe­zi­fi­sche Neu­pro­gram­mie­run­gen zu ent­wi­ckeln. Das wich­tigs­te Tool ist dabei seit jeher die Shell (sh), ein text­ori­en­tier­ter Kom­man­do­in­ter­pre­ter, der um­fang­rei­che Pro­gram­mier­mög­lich­kei­ten be­reit­stellt. Diese klas­si­sche Be­nut­zer­schnitt­stel­le ist auch ohne grafische Ober­flä­che sinnvoll nutzbar, auch wenn ein solches Interface, das spä­tes­tens mit Linux auch den Weg ins Unix-Umfeld fand, den Be­dien­kom­fort natürlich erhöht. Dennoch bietet die Shell für erfahrene Anwender einige we­sent­li­che Vorteile:

  • ver­ein­fach­ter Be­dien­auf­wand dank in­tel­li­gen­ter Au­to­ver­voll­stän­di­gung
  • Copy-and-Paste-Funktion
  • in­ter­ak­tiv (direkter Zugriff) und nicht­in­ter­ak­tiv (Aus­füh­rung von Skripten) ver­wend­bar
  • höhere Fle­xi­bi­li­tät, da die einzelnen An­wen­dun­gen (Tools, Befehle) nahezu frei kom­bi­nier­bar sind
  • stan­dar­di­sier­te und stabile Be­nut­zer­schnitt­stel­le, was bei einem GUI nicht immer ge­währ­leis­tet ist
  • Ar­beits­we­ge von Skripten werden au­to­ma­tisch do­ku­men­tiert
  • schnelle und einfache Im­ple­men­tie­rung von An­wen­dun­gen

Fazit: Wer Be­triebs­sys­te­me verstehen will, sollte einen Blick auf Unix werfen

Der Aufstieg von Microsoft und Apple, der un­mit­tel­bar mit ihren Machern Bill Gates und Steve Jobs in Ver­bin­dung steht, sucht ohne Zweifel sei­nes­glei­chen. Den Grund­stein für den riesigen Erfolg der beiden Mul­ti­kon­zer­ne legte jedoch die Pio­nier­ar­beit, die Dennis Ritchie, Ken Thompson und das restliche Unix-Team zwischen 1969 und 1974 leisteten. Denn Unix sollte nicht nur diverse eigene Derivate her­vor­brin­gen, sondern auch andere Be­triebs­sys­te­me mit seinen Konzepten wie dem hier­ar­chisch auf­ge­bau­ten Da­tei­sys­tem, der mächtigen Shell oder der hohen Por­ta­bi­li­tät be­ein­flus­sen. Um letztere um­zu­set­zen, ent­wi­ckel­te man mit C quasi im Vor­bei­ge­hen die ein­fluss­reichs­te Pro­gram­mier­spra­che der Com­pu­ter­ge­schich­te.

Um sich die Mög­lich­kei­ten der Sprache und die all­ge­mei­ne Funk­ti­ons­wei­se von Be­triebs­sys­te­men bewusst zu machen, gibt es kein besseres An­schau­ungs­ob­jekt als ein Unix-System. Dabei müssen Sie nicht einmal auf eine der klas­si­schen Varianten zu­rück­grei­fen: Linux-Dis­tri­bu­tio­nen wie Gentoo oder Ubuntu haben sich den modernen An­sprü­chen angepasst, ohne das Grund­fea­ture der maximalen Kontrolle über das System auf­zu­ge­ben. Etwas be­schränk­ter in ihren Mög­lich­kei­ten sind Sie bei dem ein­steig­er­freund­li­chen macOS, das den Spagat zwischen der mächtigen Unix-Basis und einer an­spre­chend ge­stal­te­ten gra­fi­schen Ober­flä­che jedoch mit Bravour meistert.

Zum Hauptmenü