Computergeschichte(n) - Bernd Leitenberger - E-Book

Computergeschichte(n) E-Book

Bernd Leitenberger

0,0

Beschreibung

Der erste PC erblickte 1974 das Licht der Welt. Der Altair 8800 hatte den Charme eines Elektronikbaukastens: Der Käufer musste ihn selbst zusammenbauen, danach konnte er ihn in Maschinensprache über Kippschalter „programmieren“ und sah die Rechenergebnisse in Form von leuchtenden LED. Trotzdem löste dieses Gerät eine PC-Revolution aus, die bis heute anhält. Computergeschichte(n) ist kein Roman über die Ereignisse der frühen PC-Ära. Es ist auch kein Geschichtsbuch und kein Technikbuch über die Computer der siebziger und achtziger Jahre. Es ist dies alles und trotzdem etwas anderes. Erzählt werden zehn Geschichten rund um und über die PC-Pioniere und ihre Firmen: Ed Roberts, Bill Gates, Gary Kildall, Stephen Wozniak und Steve Jobs, Jack Tramiel, Chuck Peddle, Clive Sinclair, Adam Osborne, Philip Estridge und Seymour Cray, sowie die Geschichte von Intel. Diese Kurzgeschichten drehen sich darum, wie diese Väter des PC Firmenimperien schufen oder woran sie scheiterten. Besonderes Augenmerk hat der Autor auch auf die Technik gelegt. Während bei anderen Computerbüchern diese fast keine Rolle spielt und nur von den Personen die Rede ist, wird in den Computergeschichte(n) erklärt, warum ein Computer erfolgreich wurde, oder zum Flop geriet. Im Anhang findet sich eine knappe technische Beschreibung der von den Pionieren entworfenen Geräte und der frühen Intel Prozessoren. Der Schwerpunkt des Buchs liegt auf dem Zeitraum zwischen 1974 und 1994. Neu in der zweiten Auflage ist ein eigenes Kapitel über einen Pionier, der zeitgleich Computer entwickelte – aber einige Nummern größer: Seymour Cray und seine Supercomputer. Die restlichen Kapitel wurden durchgesehen und leicht ergänzt.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 541

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Besonderen Dank schulde ich Hans Pulina, Ralph Kanig und Joachim Uhlig für das Korrekturlesen des Manuskripts.

Inhaltsverzeichnis

Vorwort

Vor dem Mikrocomputer

Die ersten Computer

Der Transistor und der kommerzielle Erfolg

Die integrierte Schaltung

Computerfamilien

Ed Roberts

Die Geburt des Altair

Neue Konkurrenz und Produktionsprobleme

William (Bill) Gates III

BASIC

Der DOS Deal

Anwendungsprogramme

Windows

Der Ritt auf dem Bären

Windows NT

Demo und Vaporware

Gary Kildall

CP/M – oder was ist ein Betriebssystem?

Die Vermarktung von CP/M

„Gary went flying“ – die wahre Geschichte

Spätere Projekte

Steve Jobs und Steven Wozniak

Apple I

Apple II

VisiCalc

Apple III

Xerox PARC und die Lisa

Macintosh

Apple zwischen Jobs

NeXT und Pixar

Neuanfang bei Apple

Die Intel Story

Andy Grove

Die Erfindung von DRAM und EPROM

Der Mikroprozessor

Die Zwischenlösung

Problem Speicher

Auf dem Weg zum Monopol

Bedrohung RISC

Prozesse

Ein neuer Konkurrent

Jack Tramiel

Chuck Peddle

Sir Clive Sinclair

ZX80 und ZX81

Sinclair Spectrum und Ql

Adam Osborne

Bill Loewe und Philip Estridge

Die Klones

IBM verliert den Anschluss

Eigene Standards

Seymour Cray

Die CDC 6600

Die CDC 7600 und 8600

Die Cray 1

Die Cray 2

Die Cray 3

Die letzten 20 Jahre

Die Technik der frühen PCs

Crays Supercomputer

Verkaufte Stückzahlen

Die Entwicklung der Intel Prozessoren

Tabellarische Übersicht der Intel Prozessoren

Epilog

Links

Literaturhinweise

Zeittafel

Vorwort

Es gibt eine Reihe von Büchern über die frühen Jahre des PC. Bill Gates, Stephen Wozniak und andere Pioniere haben Autobiografien geschrieben. Warum also noch ein Buch? Vielleicht, weil eine Zusammenfassung fehlt, oder sich andere Bücher nur auf einen Aspekt oder eine Person konzentrieren. Ich vermisse bei vielen Büchern auch, dass sie die Rechner behandeln. Schließlich geht es hier um Technikgeschichte. Sie ist zwar an Personen geknüpft, doch erfolgreich wurden die Produkte – auf jedes Genie kommen einige Hundert, die mit ihrer Firma nicht erfolgreich waren. Ich habe mich entschlossen, diese Lücke im deutschsprachigen Raum zu füllen. Das Buch ist keine vollständige Geschichte des PC und kein biografisches Buch. Vielmehr geht es um einzelne Ereignisse, die involvierten Personen und ihre Rolle in der Geschichte des PC. Im Anhang findet sich als Ergänzung eine technische Beschreibung der Geräte, die von den PC-Pionieren entwickelt wurden.

Das Buch umfasst den Zeitraum zwischen 1974 und 1995, wobei die meisten Ereignisse zwischen 1974 und 1984 liegen. Vorher gab es zwar auch schon Computer, aber keine Rechner, die für Privatpersonen bezahlbar waren. Nach 1991 war die Vormachtstellung von Microsoft im Betriebssystemmarkt durch Windows zementiert und bei den Rechnern spielten nicht IBM-PC kompatible Systeme keine Rolle mehr. Ich schreibe Fachbücher und dies hat sich auch im Stil dieses Buches niedergeschlagen. Sie finden daher kaum Anekdoten über die PC-Pioniere, sondern eine Aufzählung und Erläuterung der Ereignisse. Ich hoffe, dieser Stil kommt beim Leser an. Die einzelnen Kapitel können unabhängig voneinander gelesen werden. Dadurch gibt es aber auch notwendigerweise einige Wiederholungen. Die Technik der Computer und Intel-Prozessoren habe ich im letzten Kapitel etwas vertieft.

Neu in der zweiten Auflage ist ein Kapitel über Seymour Cray, dessen Computer zur gleichen Zeit entstanden, aber in einem völlig anderen Segment angesiedelt waren. Ich denke als Kontrast, und weil es sich um besondere Rechner handelt, ist er eine gute Ergänzung zu den Pionieren im PC-Bereich.

Neu ist auch eine Zeittafel, die es erlaubt, die Ereignisse im zeitlichen Zusammenhang zu sehen.

Vor dem Mikrocomputer

Auch wenn es in diesem Buch vorrangig um die PC-Geschichte geht, wäre es nicht komplett ohne einen kurzen Abriss über die Geschichte des Computers. Ich beginne nicht bei den Anfängen – Ideen und Pläne für Geräte und Rechenmaschinen gab es schon seit dem 18. Jahrhundert – sondern mit den ersten gebauten Computern.

Die Theorie über die Bestandteile des Computers wurde in den späten vierziger Jahren des vorigen Jahrhunderts von Alan Turing entwickelt. Danach enthält ein Computer mindestens ein Rechenwerk, einen Speicher sowie ein Bussystem zum Datentransport zwischen diesen Komponenten. John von Neumann beschrieb später die Architektur, nach der die meisten Computer arbeiten. Danach werden Befehle aus dem Speicher geholt, von einer Steuerlogik decodiert, im Rechenwerk ausgeführt und die Ergebnisse wieder im Speicher abgelegt. Daten und Programme teilen sich einen gemeinsamen Speicher. Wie der erste amerikanische Computer ENIAC beweist, kann man durchaus auch einen Computer bauen, der nicht diesem Prinzip gehorcht, die Nachteile waren aber offensichtlich: Die Programmierung von ENIAC war sehr aufwendig.

Zentrales Element für den Aufbau eines Computers ist ein Schalter. Wie der Lichtschalter lässt er in einer Stellung Strom durch, in der anderen Stellung nicht. Von der Zeit, die für das Umschalten benötigt wird, hängt die Geschwindigkeit des Computers ab. Fortschreitende Geschwindigkeitssteigerungen fanden durch den Einsatz von Relais, Vakuumröhren, Transistoren und integrierten Schaltungen statt.

Jeder Schalter hat einen Eingang und einen Ausgang. Ob ein Strom vom Eingang zum Ausgang fließt, entscheidet bei einem Lichtschalter der Mensch, indem er den Schalter drückt oder eben nicht. Beim Computer erfolgt das Umschalten durch eine eigene Steuerleitung, welche die mechanische Betätigung ersetzt.

Die ersten Computer

Schon 1937 konstruierte der Ingenieursstudent Konrad Zuse im Wohnzimmer der Eltern den Vorfahren des ersten Computers, die Z1. Als Schalter verwendete er Blechteile, das Gerät arbeitete rein mechanisch. Als Antrieb diente ein Staubsaugermotor. Er musste dafür pro Schalter drei Blechteile von Hand aussägen. Ein Steuerblech wird mechanisch bewegt und stellt einen elektrischen Kontakt zwischen den beiden Blechen für den Ein- und Ausgang her. Die Blechteile verklemmten sich allerdings recht häufig.

Deshalb verwendete Zuse für das Nachfolgegerät Z2 ausgemusterte Relais, die damals zur Vermittlung von Telefongesprächen benutzt wurden. Ein Relais ist ein elektromechanischer Schalter. Dieser besteht aus zwei durch einen Abstand getrennten Metallbügeln (Kontakt- und Klopfhebel). Im ausgeschalteten Zustand berühren sich diese nicht und es kann kein Strom fließen. Unter dem Kontakthebel befindet sich eine Spule, die unter Strom gesetzt werden kann. Dabei entsteht ein Magnetfeld, welches den Klopfhebel anzieht. Es kommt zum Kontakt und der Strom kann fließen. Die Z2 besteht aus rund 200 Relais. Sie wird kurz vor Kriegsausbruch fertiggestellt, funktioniert dann auch bei einer Vorführung, danach jedoch versagt sie: die alten Telefonrelais haben ausgeleierte Bügel und immer fällt eines der vielen Relais aus. Relais wurden auch für die Mark I und den Collosos verwendet.

Die Z1 und der Nachfolger Z2 waren noch Prototypen. Die Z1 funktionierte zwar grundsätzlich, war aber für den praktischen Einsatz zu störanfällig. Die Z2 war nur ein Experiment, um die neue Relaistechnik auszuprobieren. Sie enthielt einige wichtige Baugruppen eines Computers, war aber noch nicht komplett. Der eigentliche Zweck der Z2 war, festzustellen, ob die Relaistechnik zuverlässiger funktionierte, als die bei der Z1 verwendete Mechanik.

Zuses erster vollständiger Computer, die Z3 von 1941, bestand aus 600 Relais für das Rechenwerk und 1.400 Relais für den Speicher. In der Komplexität entsprach er Intels erstem Mikroprozessor, dem 4004. Das Programm wurde auf Lochstreifen gespeichert. Dafür nutzte Zuse alte Kinofilme, die er mit einem Bürolocher lochte.

Obwohl solch ein Rechner sicher kriegswichtig war, bekam er keine Unterstützung von offiziellen Stellen und bastelte bis zum Ende des Krieges weiter an der Z4. Die erste Vorführung der Z3 am 12.5.1941 gilt als Geburtsstunde des Computers. Zuse wird vom Dienst in der Wehrmacht freigestellt und arbeitet bei den Henschel Flugzeugwerken. Dort bekam er Unterstützung von Mitarbeitern, die ihm Teile brachten bzw. der Lehrlingswerkstatt, die für ihn die Bleche für die Z4 herstellten – die Z4 sollte wie die Z1 wieder aus Blechen als Schaltelementen bestehen. Fertig wurde die Z4 allerdings erst vor Kriegsende.

Er konnte aber zwei Geräte zum Einsatz bringen, die zwar keine Computer waren, (sie waren nicht frei programmierbar), aber die ein festgelegtes Programm abarbeiteten. Sie mussten Korrekturwerte für die den Abwurf der Gleitbombe HS 293 berechnen. Die HS 293 war eine geflügelte, aber antrieblose Bombe, die es ermöglichte den Bombern bei Angriffen auf Schiffen nach dem Abwurf abzudrehen und so dem Abwehrfeuer zu entkommen. Damit sie das Ziel traf, mussten entweder die Flügel sehr präzise gearbeitet sein oder man musste die Abweichung von der Idealform kennen und entsprechend Abwurfhöhe, Entfernung und seitliche Lage korrigieren. Da man durch die kriegsbedingte Rohstoff- und Arbeitskraftknappheit die Flügel aus Blech stanzte, ging man den zweiten Weg. Zuse entwickelt einen Rechner der die Abweichungen berechnet. Die Berechnungen sind fest verdrahtet. Das „Spezialgerät 1“ (S1) wurde von Messpunkt zu Messpunkt gebracht, die Abweichung eingegeben und es berechnete die Korrekturwerte. Es war von 1942 bis 1944 im Einsatz. Das darauf aufbauende Spezialgerät 2 konnte die Messwerte über selbst entwickelte Analogwandler selbst aufnehmen und kann als Vorläufer der Signalverarbeitungsprozessoren angesehen werden.

Seit 1942 arbeitet er nach Feierabend an der Z4. Das Rechenwerk besteht aus 600 Relais, der Speicher aus den mechanischen Schaltern. Sie wurde vor Kriegsende fertiggestellt, verfügte über 2.200 Bauteile und einen Speicher für 64 Fließkommazahlen mit 32 Bit pro Zahl. Sie war bis 1950 der einzige Computer in Europa. Durch den verlorenen Krieg gelangte Zuses Erstleistung aber in Vergessenheit. Erst sehr spät wurde man auch in Deutschland darauf aufmerksam, dass er den Computer erfand. Im Ausland hat sich diese Erkenntnis bis heute nicht durchgesetzt. Ich habe für dieses Buch auch einige englische Bücher über Computergeschichte gelesen – in keinem wird Zuse erwähnt.

Parallel dazu arbeitete auch das britische Militär an einem Computer. Dieser „Colossos“ sollte die chiffrierten Funkmeldungen der deutschen Verschlüsselungsmaschine „Enigma“ entschlüsseln. Auch die USA entwickelten einen Computer. Ihr Mark I wurde 1943 fertiggestellt, bestand aus 3.304 Relais und 800km Draht, die 3 Millionen Verbindungen verknüpften. Der Rechner war 15m lang, 2,4m hoch und wog 5 t. Mit Hilfe von 420 Wählschaltern mussten die Operateure das Programm von Hand eingeben. Mark I schaffte eine Addition in 0,3 s und eine Multiplikation in 3 Sekunden. Auch Zuses Z4 war nicht viel schneller und benötigte für 20 Additionen eine Sekunde. Die Z4 war aber der erste funktionsfähige programmierbare Computer. Sowohl Collossos, wie auch Mark I waren nur fähig eine Aufgabe durchzuführen und nicht programmierbar. Sie waren also eher seinem „Spezialgerät 1“ vergleichbar.

Der Grund für diese langsame Rechengeschwindigkeit war die Wahl des Schalters: Durch das elektromechanische Prinzip dauerte es immer einen Sekundenbruchteil, bis ein Kontakt hergestellt wurde. Die Mechanik limitierte somit die Rechengeschwindigkeit. Die Taktfrequenz von Zuses Z3 lag im Bereich von wenigen Hertz.

Doch schon 1945 wurde ENIAC (Electronic Numerical Integrator and Computer) vorgestellt. Der Rechner war ursprünglich entwickelt worden, um Ballistiktabellen für Geschütze zu berechnen, doch kam er für den Zweiten Weltkrieg nicht mehr rechtzeitig zum Einsatz.

Dieser Rechner basierte auf Vakuumröhren, wie sie als Verstärker in Radios eingesetzt wurden. Bei einer Vakuumröhre befindet sich zwischen einer stromführenden Kathode und einer Strom aufnehmenden Anode ein Gitter in einem Vakuum. Durch das Spannungsgefälle werden Elektronen von der Kathode zur Anode emittiert. Strom fließt, wenn diese an der Anode ankommen. Setzt man das Gitter zwischen den beiden Elektroden aber unter Spannung, so stößt eine negative Ladung die Elektronen ab – es fließt kein Strom. Wie das Relais ist auch die Vakuumröhre ein Schalter, etwas kleiner, vor allem aber schneller, da der Strom berührungslos transferiert wird. Eine Elektronenröhre kann tausendmal schneller schalten als ein mechanisches Relais. ENIAC, der mit 17.468 dieser Röhren 170m² Platz einnahm, schaffte schon 1.000 Rechnungen pro Sekunde und war damit fünfzigmal schneller als die Z3.

Elektronenröhren haben aber auch Nachteile. Sie brauchen viel Strom, entwickeln viel Wärme und sind nicht sehr langlebig. Wenn eine Vakuumröhre eine durchschnittliche Lebensdauer von zwei Jahren hat, so fiel bei ENIAC eine Röhre pro Stunde aus. Die damaligen Programmierer waren mehr Mechaniker als Programmierer, weil laufend Röhren ausgewechselt werden mussten. ENIAC benötigte eine Leistung von 150 kW. Der Rechner brauchte viel Platz, denn die Abwärme musste an die Umgebung abgegeben werden. Später entdeckte man, dass die Röhren vor allem beim An- und Abschalten ausfielen, und schaltete die Computer nicht mehr ab. Damit konnte man auch mit Röhren eine Betriebsdauer von 20 Stunden erreichen. Grace Hopper, eine der ersten Programmiererinnen, die später die Programmiersprache COBOL erfand, prägte den Ausdruck „Bug“ (Käfer) für einen Computerfehler. Eine Motte hatte in ENIAC einen Kurzschluss verursacht.

ENIAC basierte auf dem Prinzip analoger Schaltungen, wie sie damals schon in Analogrechnern eingesetzt wurden, und setzte deren Arbeitsprinzip digital um, ohne jedoch das Prinzip zu verändern. Analogrechner können elektrische Signale addieren, subtrahieren und integrieren. Wie der Ausdruck „analog“ ausdrückt, ist das Ergebnis dann aber keine Folge von definierten Signalen wie bei Digitalrechnern, sondern eine Spannung oder ein Strom proportional zum Wert. Analogrechner waren nicht frei programmierbar, sondern konnten bedingt durch die Verbindung jeweils nur eine Aufgabe lösen, die jedoch sehr gut. So setzte man experimentell zu Kriegsende in der von Braun entwickelten V-2 einen Analogrechner ein, der die Rakete entlang eines vorher festgelegten Pfades steuerte und das Triebwerk bei Erreichen eines Sollpunktes abschaltete. Er erhöhte die Zielgenauigkeit beträchtlich.

So hatte ENIAC nicht weniger als zwanzig Akkumulatoren. Dies waren die digitalen Gegenstücke zu analogen Integratoren, die Signale aufsummierten. Dazu kamen eine Multiplikationseinheit, eine Einheit zum Dividieren / Ziehen der Quadratwurzel und drei Einheiten, die Werte für Formeln aufnahmen. Von einer Programmierung im heutigen Sinne konnte man bei ENIAC noch nicht sprechen. Es wurde ein Programm geschrieben, indem die Einheiten neu verbunden wurden. Das Programm wurde damit direkt über die Hardwareverdrahtung festgelegt. ENIAC hatte über 5 Millionen Verbindungen zwischen den Bauteilen. Damit konnte der Computer die Ergebnisse von vorgegebenen Formeln berechnen – aber auch nicht mehr.

ENIAC wurde sehr populär, er kam sogar in der Wochenschau, wobei der damalige Kommentar auch schon den Hauptnachteil von ENIAC aufzeigte: „Der ENIAC berechnet die Flugbahn, die ein Geschoss in 30 Sekunden durchläuft, in 20 Sekunden. Das Programmieren dauert zwei Tage“. Kurz nach ENIAC stellt John von Neumann sein Prinzip vor, wie ein Computer funktionieren sollte. Demnach wird die Berechnung nicht durch die Verdrahtung festgelegt, sondern ein Programm. Damit gewann der Computer nicht nur Flexibilität, sondern er wurde auch universell einsetzbar. Schon der nächste Computer (EDVAC), der von 1946 bis 1949 entwickelt wurde, basierte auf von Neumanns Ideen.

Im Jahr 1951 wurde mit dem Univac I der erste kommerzielle Computer vorgestellt. Es war der erste Rechner, der nicht von Regierungsstellen in Auftrag gegeben wurde, sondern auf dem freien Markt verkauft werden sollte. Der Erste wurde an das Zensus Büro ausgeliefert. Dieses kam mit der Auswertung der Daten der Volkszählungen mit Lochkarten und mechanischen Sortier- und Addiermaschinen nicht mehr nach. Der Univac löste die Aufgabe. Der fünfte Univac sagte 1952 den Sieg Eisenhowers, basierend auf 5% der schon ausgezählten Wählerstimmen mit einer Genauigkeit von 1% voraus – nur glaubte ihm das damals keiner. Er machte Computer aber mit einem Schlag bekannt, denn er war in der CBS-Fernsehübertragung zur Wahl präsent. Der UNIVAC war anders als ENIAC frei programmierbar.

Die Anfänge der Computerindustrie waren schleppend. Die ersten Computer waren Einzelanfertigungen und es gab alle paar Jahre neue Modelle. Bis Ende der Fünfziger Jahre gab es erst einige Firmen, die Computer anboten. IBM, bei Büromaschinen weltweit führend, stieg erst relativ spät in dieses Geschäft ein. IBM hatte jedoch mit der Entwicklung von Systemen, die mit den schon eingeführten mechanischen Maschinen zur Verarbeitung von Lochkarten zusammenarbeiteten, sehr großen Erfolg.

Es war möglich die mechanischen Lochkartenstanzer und Lesegeräte an Computer anzuschließen. IBM wurde bald Marktführer, obwohl ihre Computer zunächst sehr langsam waren. Sie fügten sich aber in die Produktpalette von IBM nahtlos ein. Ein Käufer musste sich so nicht für ein neues und gegen ein altes System entscheiden. Der erste in Serie produzierte Computer war das IBM 650 System aus dem Jahr 1954. Von ihm wurden über Tausend Stück produziert. Dagegen gab es kaum Abnehmer für schnelle Computer. Sie wurden vorwiegend von Regierungsstellen und hier vor allem vom Militär gekauft. Das führte dazu, dass IBM sich auf den Markt für die Datenverarbeitung konzentrierte. Das bedeutete: die Rechner sollten keine komplexen Programme ausführen, aber viele Daten verabreiten. Das war z.B. nötig für die Buchhaltung, die Berechnung von Versicherungsbeiträgen, indem man Risiken berechnete oder die Verwaltung von Bankkonten. In diesem geschäftlichen Umfeld konnte sich IBM etablieren und lieferte seine Rechner an die Rechnungsabteilungen von größeren Firmen, Versicherungen und Banken aus.

Abbildung 1: Eine Vakuumröhre

Der Transistor und der kommerzielle Erfolg

Solange Rechner mit Vakuumröhren arbeiteten, gab es nur eine geringe Nachfrage nach Computern. Die Rechner waren unhandlich, fehleranfällig und langsam. So gab es in den späten Vierziger und Fünfziger Jahren nur wenige Computer mit beschränkter Speicherfähigkeit. Sie wurden vor allem für wissenschaftliche und militärische Zwecke eingesetzt, wie die Berechnung der Wirkung von Atomwaffen oder die Simulation der Flugbahn einer Rakete. Selbst Thomas J. Watson jr., damals Chef von IBM, glaubte nicht daran, dass man mehr als ein paar dieser teuren und fehleranfälligen Ungetüme verkaufen würde. Erst der Transistor machte die Rechner zuverlässiger, leistungsfähiger und billiger.

Der erste Transistor wurde schon 1947 erfunden, allerdings wurde bei der ersten Generation Germanium als Halbleiter verwendet. Germanium machte den Transistor zehnmal teurer als Elektronenröhren. Es war damals fast so teuer wie Gold, weshalb Transistoren zuerst nur selten in Computern eingesetzt wurden. 1954 erschien jedoch der erste Transistor mit Silizium als Basismaterial. Damit wurde der Transistor erheblich billiger und ersetzte schnell die Vakuumröhren. Ab Anfang der sechziger Jahre waren die Geräte alle „volltransistorisiert“.

Ein Transistor besteht aus drei Schichten. Die Leitfähigkeit der Schichten wird durch Dotierung beeinflusst. Unter Dotierung versteht man das gezielte Einbringen von anderen Elementen in das sonst hochreine Silizium. Ein Siliziumatom baut mit vier Elektronen Bindungen zu vier anderen Siliziumatomen auf. Wird eine Fremdsubstanz in das Kristallgitter eingebaut, die fünf Außenelektronen aufweist, so kann ein Elektron keine Bindung aufbauen. Es kann durch eine angelegte Spannung leicht freigesetzt werden – die Schicht wird elektrisch leitend. Das Gegenteil liegt vor, wenn ein Element eingebaut wird, das nur drei Außenelektronen aufweist. Es entstehen „Löcher“ im Kristallgitter, die freie Elektronen aufnehmen und eine Stromleitung stoppen.

Die drei Schichten des Transistors sind wie folgt aufgebaut:

– Der Emitter, der mit Elementen mit fünf Elektronen dotiert ist (z.B. Phosphor)

– Der Kollektor auf der gegenüberliegenden Seite (ist ebenso dotiert)

– In der Mitte befindet sich die Basis, die mit Elementen dotiert ist, die drei Elektronen haben (z.B. Bor).

Aufgrund der Ladungsverteilung nennt man dies einen NPN-Transistor (Negativ-Positiv-Negativ). Es gibt auch das Gegenteil, den PNP-Transistor. Es ist am einfachsten, sich einen Transistor als zwei aneinandergefügte Dioden vorzustellen. Eine Diode ist ein Halbleiterbauelement, bei dem eine Schicht mit Elementen dotiert ist, die ein Elektron weniger als das Silizium haben (p-Schicht). Die andere Seite wurde dotiert mit Elementen, die eines mehr haben (n-Schicht). Zum Aufbau eines Kristallgitters fehlen nun Elektronen (p-Schicht) oder es sind ungebundene Elektronen vorhanden (n-Schicht). Es kommt von alleine zu einem Elektronenfluss an der Kontaktstelle, wodurch eine Sperrschicht entsteht. Diese entsteht dadurch, dass die p-Schicht nun durch die erhaltenen Elektronen ein Kristallgitter aufbauen kann, aber zu viele Elektronen hat (negativ geladen). Umgekehrt ist die n-Schicht positiv geladen, da in ihr Elektronen fehlen. In diesem Zustand lässt eine Diode keinen Strom passieren. Legt man nun an die p-Schicht eine positive Spannung an und an die n-Schicht eine Negative, so wird die Sperrschicht abgebaut. Die negativen Elektronen wandern zum Pluspol und die positive Ladung wird durch Elektronen am Minuspol abgebaut. Die Diode ist in Durchlassrichtung gepolt, also leitend. Ändert man die Polarität der Spannungen, so verstärken sich die Schichten und die Diode lässt keinen Strom passieren. Diesen Zustand nennt man Sperrbetrieb.

2. Abbildung: Aufbau eines Transistors (c): Wikipedia

Ein Transistor ist nun eine „Doppeldiode“ mit einer gemeinsamen Mittelschicht. Egal, von welcher Seite Strom durchgeleitet wird, eine Seite im Transistor ist immer im Sperrbetrieb. Es läuft der Strom vom Emitter zum Kollektor, wobei die Strecke Emitter-Basis im Sperrbetrieb ist und die Strecke Basis-Kollektor im Durchlassbetrieb. Um Strom durch den Transistor zu leiten, muss über eine dritte Leitung an die Basis eine höhere Spannung anlegt werden, als zwischen Emitter und Kollektor anliegt. Dann wird auch die Strecke Emitter-Basis in den Durchlassbetrieb umgewandelt und der Transistor ist leitend. Die Spannung an der Basis kann dabei einen sehr großen Stromfluss induzieren, da normalerweise schon durch wenige diffundierende Elektronen eine Sperrschicht aufgebaut wird. Mit zunehmender Spannung an der Basis werden so immer mehr Ladungsträger mobil. Aufgrund dieser Eigenschaft hat man auch Transistoren als Verstärker genutzt – die erste kommerzielle Anwendung war das tragbare Transistorradio.

Wenn die Spannung an der Basis wegfällt, so braucht ein Transistor Zeit, bis die Ladungsträger wieder zurück in ihre "angestammten" Zonen gewandert sind. In dieser Zeit kann er nicht schalten. Alle Transistoren arbeiten nach diesem Prinzip, die eingesetzte Technologie ist aber unterschiedlich. Der oben beschriebene Transistor ist ein Bipolartransistor, wie er in der ECL-Technologie von Crays Supercomputern, aber auch den in den Siebzigern und Achtzigern überall vorkommenden TTL-Bausteinen verwendet wurde. Heute werden in Schaltungen Feldeffekttransistoren verwendet, doch das Prinzip ist das gleiche.

Gegenüber der Vakuumröhre hat der Transistor nur Vorteile. Er ist kleiner, verbraucht weniger Strom und ist robust und langlebig. Vor allem aber schaltet er hundertmal schneller als eine Röhre. Es muss kein Hochspannungsfeld aufgebaut werden, sondern es genügt eine Spannung von wenigen Volt. Die Elektronen wandern sehr schnell, die meiste Zeit benötigt ein Transistor nach Ende des Schaltvorgangs, um das aufgebaute Potenzial wieder abzubauen.

Abbildung 3: Transistoren, mit drei Anschlussleitungen zu Emitter, Kollektor und Basis

Im ersten Segment wurde IBM sehr erfolgreich mit Großrechnern wie den Systemen 360, 370 und 3080. Sie wurden über Jahre bis Jahrzehnte produziert. Das sicherte die Investitionen in die Hardware und Software. Reichte ein Rechner nicht mehr aus, so konnte das Nachfolgemodell oder ein anderes leistungsfähigeres Modell angeschafft werden. Sie konnten die Programme der alten Generation ausführen. Dazu kam ein sehr lukratives Geschäftsmodell: Computer wurden nicht nur verkauft, sondern auch vermietet. Das erschien den Kunden billiger, war langfristig aber teurer. Die Profite waren enorm und betrugen zeitweise 50% des Verkaufspreises. IBM wurde synonym mit dem Begriff Computer und hatte in den Sechziger und siebziger Jahren eine dominierende Vormachtstellung. Man sprach meist von „IBM und den sieben Zwergen“, da es sieben weitere Hersteller von Großrechnern gab: Burroughs, Sperry Rand, Control Data, Honeywell, General Electric, RCA und NCR. IBM hatte jedoch den mit Abstand höchsten Marktanteil, von zeitweise bis zu 60%.

Sehr bald waren Transistoren so klein, dass auf einer Platine Hunderte untergebracht werden konnten. Nun wurde ein anderes Problem akut – wie sollte man diese Bauteile verdrahten? Es war schwer den vielen, kreuz und quer verlaufenden Leitungen zu folgen. Die vielen Leitungen begrenzten auch die Geschwindigkeit. Denn auch wenn ein Signal 20cm in einer Nanosekunde zurücklegen konnten, so hatten die größten Computer Leitungen, die mehrere Kilometer lang waren. Der Takt musste so niedrig sein, dass ein Signal auch den entferntesten Baustein erreichte. Auch das manuelle Verlöten der Transistoren wurde immer aufwendiger, je kleiner sie wurden. Es konnte schließlich nur noch unter einer Lupe erfolgen. Obwohl es technisch möglich gewesen wäre, konnte man die Transistoren nicht mehr kleiner fertigen. Denn es war unmöglich, Platinen mit so vielen Bauteilen von Hand zu bestücken und zu verdrahten. Diese Probleme sollten mit der nächsten Entdeckung gelöst werden.

Die integrierte Schaltung

Der entscheidende Durchbruch um Computer preiswerter zu machen, war die integrierte Schaltung. Die Idee war es, alle Transistoren einer Platine auf einem einzigen Chip zu integrieren. Dazu werden auf eine dünne Scheibe aus Silizium (Wafer) in verschiedenen Arbeitsschritten nacheinander Masken gelegt. Diese Masken decken die Teile des Wafers ab, die nicht verändert werden sollen. Sie haben Lücken an den Stellen, wo eine Bearbeitung vorgesehen ist.

Für das Dotieren sprüht man z.B. Bor oder Phosphor durch die Maske. Für Leiterbahnen wird Aluminium aufgetragen. Für Isolationsschichten wird das Aluminium oxidiert zu Aluminiumoxid. Alle nicht bearbeiteten Stellen werden mit Fotolack abgedeckt, der später wieder weggeätzt wird. Heute werden über 30 Masken eingesetzt, wobei die Strukturen immer kleiner werden. Die erste Schaltung von Jack Kilby (der für die Erfindung im Jahr 2000 den Nobelpreis erhielt) bestand 1958 noch aus vier Transistoren und vier Kondensatoren. Sie war ein Flip-Flop, ein Schaltelement, welches ein Bit speichert. Schon 1970 konnte man 2.000 Transistoren auf einem Chip unterbringen. Im Jahr 1981 verfügten die leistungsfähigsten Prozessoren über 450.000 Transistoren. 2011 gelingt es, mehr als 2 Milliarden Transistoren auf einem Chip unterzubringen. Mit der Reduktion der Dimensionen sanken auch die Schaltzeiten der einzelnen Elemente und die Rechner wurden immer schneller.

Der entscheidende Vorteil der integrierten Schaltung ist, dass man damit Logikbausteine wie am Fließband produzieren kann. Die Produktion ähnelt eher dem Bedrucken einer Zeitung und hatte nichts mehr mit dem vorher üblichen Zusammenlöten von Hand gemein. Damit konnten die Herstellungskosten erheblich gesenkt werden. Auch das Verdrahtungsproblem war nun gelöst. Die Verdrahtung wurde schon bei der Herstellung festgelegt. Es mussten nun nur noch die Anschlüsse des Chips nach außen, die „Pins“ verbunden werden. 1962 wurden die ersten integrierten Schaltungen, für die sich die Bezeichnung „Chip“ einbürgerte, serienmäßig produziert. Damit konnte man eine Schaltung, welche die Fläche eines DIN-A4 Blattes belegte, auf die Größe eines Cents reduzieren.

Erstaunlicherweise war die Nachfrage aber anfangs gering. Zunächst erforderten die Schaltungen ein Umdenken – Transistoren ersetzten Vakuumröhren, aber die Verbindung der Elemente blieb gleich. Nun war die Verdrahtung auf dem Chip festgelegt. Es war keine beliebige Schaltung mehr möglich, sondern die Logikfunktionen einzelner Chips mussten kombiniert werden.

Vor allem ergab sich aber ein Henne – Ei Problem. Die Investitionskosten in die Produktion waren sehr hoch. Für jede Schaltung mussten Masken erstellt werden und die Produktion in Reinräumen war viel aufwendiger als bei Transistoren. So kostete ein IC mit lediglich 10 Transistoren 1961 noch rund 1.000 Dollar. Solange die Herstellung so teuer war, gab es keine Nachfrage, und solange die Nachfrage gering war, war auch die Herstellung wegen der geringen Stückzahl teuer. Zwei Kunden war der Preis jedoch egal – der NASA und dem Pentagon. Die NASA benötigte einen Bordrechner für die Apollo-Missionen und das Pentagon eine Steuerung für die Polarisraketen, die von U-Booten aus abgefeuert wurden. In beiden Fällen durfte der Bordrechner nicht größer als ein Schuhkarton sein, was nur mit den Chips möglich war. NASA und Pentagon nahmen in den ersten Jahren die Hälfte der Chipproduktion der USA ab.

Es war nicht nur die Kleinheit, sondern auch die Zuverlässigkeit, die wichtig war. Die Flugzeuge des Militärs konnten ohne Probleme Rechner mit diskreten Transistoren transportieren. Doch bei 20.000 Transistoren pro Computer fiel alle 70 Stunden eine Verbindung aus, weil der Rechner während des Flugs durchgeschüttelt wurde. Hier versprachen die integrierten Schaltungen die Lösung dieses Problems. NASA und Verteidigungsministerium sorgten durch ihre Nachfrage für sinkende Preise und damit zogen IC auch in kommerziell angebotene Computer ein. Im Jahr 1964 erschienen die ersten kommerziellen Rechner, die integrierte Schaltungen verwendeten. 1968 folgten dann die ersten Computer, die nur in dieser Technik hergestellt wurden.

Sehr bald entwickelte man daher Speicher aus anderen Elementen, die billiger als die Schaltelemente waren. Bei den Rechnern der Univac Generation waren dies Verzögerungsspeicher: In einer Röhre, gefüllt mit flüssigem Quecksilber pro Bit eine Welle induziert Kam sie am anderen Ende an, so übte sie Druck auf, der von einem piezoelektrischen Kristall in Strom umgewandelt wurde. So konnte man die Daten wieder auslesen und erneut vorne einspeisen. Die Länge der Röhre bestimmte, wie viele Bits man gleichzeitig durch das Quecksilber schicken konnte. Verzögerungsspeicher waren bedingt durch die Wellengeschwindigkeit langsam und voluminös.

Mitte der Fünfziger Jahre wurde der Verzögerungsspeicher durch den Ringkernspeicher abgelöst. Bei diesem besteht der Speicher aus kleinen Eisenringen, aufgefädelt auf einer Matrix von Drähten. An der Kreuzung reicht ein Strom aus, die Magnetisierung des dortigen Eisenrings zu ändern. Damit kann man die Information permanent speichern, was für das Betriebssystem aber vor allem Rechner die sofort einsetzbar sein müssen (wie die Bordrechner der Apolloraumschiffe und in Kampfflugzeugen) sehr wichtig ist.

Ringkernspeicher wurde ab Ende der Fünfziger Jahre durch Fabrikation mit Maschinenunterstützung und vielen ungelernten Arbeitern auf Niedriglohnbasis immer billiger und der Preis pro Bit sank von 1 Dollar auf 1 Ct, die etwa 1980 erreicht waren. Er war aber nicht richtig schnell – die schnellste Zugriffszeit waren 300 ns, das reicht gerade Mal für eine Taktrate von 1 MHz und selbst die kleinsten Eisenringe waren noch 0,25mm groß, man konnte den Ringkern, der ein Bit speicherte, noch sehen.

Integrierte Schaltungen konnten hier ihre Vorteile voll ausspielen: RAM benötigte jeder Computer und zwar in großer Menge. Die Serienproduktion lohnte sich also viel eher als bei Logikbausteinen. 1966 entstanden die ersten IC die als Speicher dienten – sie speicherten nur 16 Bit, doch schon 1969 hatte man die Kapazität auf 128 Bit erhöht, 256 Bit erreichte man 1970. Der Durchbruch kam mit der Erfindung des dynamischen RAM im Jahr 1970 durch Intel. Vorher wurde ein Bit durch ein Flip-Flop, ein Schaltelement gespeichert. DRAM benötigte nur einen Transistor anstatt 6 und konnte bei gleicher Fläche viermal mehr Daten speichern und war dennoch einfacher aufgebaut und billiger. Seitdem hat sich die Kapazität in 44 Jahren um den Faktor 4 Millionen erhöht: DRAM-Bausteine haben 2014 eine Kapazitär von 4 Gigabit.

In den siebziger Jahren ersetzten integrierte Schaltungen die Ringkernspeicher in Großcomputern, sie wurden in Massen produziert und Arbeitsspeicher wurde immer billiger. Das veränderte die Computerarchitektur enorm. Zum einen musste man beim Programmieren nicht mehr so auf die Größe des Programms achten, das förderte Programmiersprachen, die bequemer für den Benutzer waren, aber auch mehr Speicher brauchten, um diese Leistung zu erbringen. Billiger speicher veränderte Oberflächen: Grafische Betriebssysteme, wie Windows, brauchen viel Speicher nicht nur für das Betriebssystem selbst, sondern auch um die Oberfläche als Grafik zu speichern. Als Windows herauskam, hatten PCs um die 256 KiB Speicher – die damals erschienene VGA-Grafikkarte brauchte alleine 128 KiB um die Grafik der Oberfläche aufzunehmen.

Auch heute haben Grafikkarten 1–4 GByte Speicher, allerdings diesmal nicht für den Bildschirminhalt (da würden wenige Megabyte reichen), sondern um die Texturen der Oberflächen aufzunehmen und über jedes Objekt zu legen.

Computerfamilien

Schon vor dem ersten Mikrocomputer gab es dreißig Jahre lang Computer. Aus anfänglich wenigen Rechnern für die US-Regierung hatte sich eine vielfältige Computer-Landschaft gebildet.

In den frühen siebziger Jahren wurden die meisten Rechner schon für die Wirtschaft gefertigt. Derartige Rechner waren mit der „Datenverarbeitung“ beschäftigt. Sie wurden bei Versicherungen, Banken oder bei Großunternehmen eingesetzt. Ihre Aufgabe war es, Beträge von Konten abzubuchen, Steuern zu berechnen oder Abrechnungen zu erstellen. Der eigentliche Rechner musste nicht so schnell sein, aber er verfügte über eine Reihe von Massenspeichern und Schnelldrucker. Viele Nutzer konnten über Datenleitungen mit Eingabegeräten (Terminals) Buchungen oder Daten eingeben.

Ein kleiner Markt hatte sich Mitte der sechziger Jahre abgespalten. Dies waren die Supercomputer, die damals vor allem vom Staat gekauft wurden. Es waren Rechner, die auf hohe Geschwindigkeit optimiert waren. Sie führten Simulationen zur Konstruktion von Atomwaffen oder Überschalljagdflugzeugen durch, sie untersuchten das Klima oder simulierten die Explosion einer Supernova. Diese Rechner hatten meist noch einen Großrechner als „Sklaven“. Er führte die „langsamen“ Aufgaben aus. Dies umfasste das Einlesen von Daten von Terminals und die Ein-/Ausgabe auf Magnetbänder und Magnetplatten. Ein Rechner belegte mit den ganzen Zusatzgeräten einen ganzen Saal und brauchte einige Personen zur Bedienung, die Bänder wechselten, Lochstreifen einlegten oder Papierstapel entnahmen.

Alle Rechner hatten aber einen Nachteil – an sie kamen nur „Eingeweihte“, Ingenieure oder Operateure in weißen Kitteln, heran. Dieser exklusive Personenkreis wurden von manchen als eine Art „Priesterschaft“ angesehen. Ein Benutzer kontaktierte den Computer meistens über ein Ein-/Ausgabegerät (Terminal). Es bestand entweder aus einem umgebauten Fernschreiber, welcher die eingetippten Zeichen kodiert über eine Datenleitung an den Großrechner sandte. Er druckte dann auch die Antwort aus. In der fortgeschrittenen Form war es ein Computerbildschirm mit einer Tastatur und einem kleinen Speicher, um den Bildschirminhalt zwischenzuspeichern. Aber obwohl dieses Gerät äußerlich einem PC ähnelte, hatte es keinen Prozessor und war „dumm“ – ohne die Verbindung zum Großrechner war es nutzlos.

Schon damals sanken die Preise für die gleiche Leistung. Die fortschreitende Steigerung von Leistung und Geschwindigkeit schuf eine neue Geräteklasse, die Minicomputer. Ein Minicomputer war deutlich kleiner als ein Großrechner, etwa so groß wie ein Kühlschrank. Vor allem aber war er deutlich preiswerter. Die ersten Geräte kosteten um die 100.000 Dollar, später sank der Einstiegspreis auf 10.000 Dollar.

Sie waren nicht so leistungsfähig wie ein Großrechner, aber für viele Aufgaben boten sie genügend Rechenleistung. Viele Universitätsinstitute kauften nun Minicomputer. Erstmals konnten nun Studenten und Ingenieure direkt mit einem Computer arbeiten. Der neue Markt wurde von neu entstandenen Firmen beliefert. IBM und andere Hersteller von Großrechnern ignorierten ihn weitgehend. Digital Equipment (DEC), Hewlett-Packard und Data General etablierten sich in diesem Marktsegment. Der Markt boomte so stark, dass der Umsatz von DEC 2 Milliarden Dollar erreichte – die Firma wurde nach IBM zur umsatzstärksten der Branche.

Weitere zehn Jahre später war abzusehen, dass die Steigerung der Geschwindigkeit und Integrationsdichte es ermöglichen würde, eine neue Geräteklasse einzuführen, die nochmals kleiner und preiswerter war, ja eventuell sogar von Privatpersonen gekauft werden könnte.

Mit dem Erscheinen des ersten Prozessors sahen viele, die sich für Computer interessierten, aber bisher nur zeitweise über ein Terminal mit ihm verbunden waren, diese Zeit für gekommen. Es fehlte daher Anfang der siebziger Jahre nicht an Versuchen, einen Computer für Privatpersonen zu konstruieren.

Honeywell stellte 1969 den H316 Kitchen Computer vor – eingebaut in einen Küchentisch mit einem Schneidebrett vor den Schaltern. Das 10.600 Dollar teure Gerät konnte aber nichts anderes, als Rezepte verwalten. Für ein so hoch spezialisiertes Gerät fanden sich daher nur wenige Käufer.

Als Vorläufer der modernen Mikrocomputer kann man die 1969 erschienene „Nova“ von Data General ansehen. Das 8.000 Dollar teure Gerät war ein sehr erfolgreicher Minicomputer, von dem über 50.000 Stück verkauft wurden. Die Nova hatte Rackformat und belegte mit dem Speicher zwei Einschübe. Doch mit den nötigen Peripheriegeräten (Lochstreifenleser und Fernschreiber als Minimalausrüstung) war sie für Privatpersonen unerschwinglich. Das Design des Frontpanels der Nova wurde vom Altair 8800 übernommen und ihre interne Architektur inspirierte Steven Wozniak für die Auslegung des Apple II.

Im Nachhinein stellt sich die Frage, warum die etablierten Produzenten keinen Mikrocomputer entwickelt haben. Bei den Großrechnerherstellern war die verbreitete Ansicht, dass wohl die Hersteller von Minicomputern dieses Segment erschließen würden. Für IBM und die sieben Zwerge war der Sprung von einzeln gefertigten Rechnern zu einem Massenprodukt zu groß. IBM machte einige Versuche vor dem IBM-PC Mikrocomputer zu bauen. Doch waren sie weder preiswert noch technisch innovativ.

Minicomputer wurden dagegen schon in Serien gefertigt. Doch auch die Hersteller dieser Rechner sahen das Potenzial nicht. Stephen Wozniak stellte den Entwurf des Apple I seinem Arbeitgeber HP vor. Er bekam die Antwort, dass er zwar technisch umsetzbar wäre, HP aber kein Interesse habe. HP entwickelte später die HP 9800 Serie, eine Serie von programmierbaren Tischrechnern, die aber Ausgaben auf einem integrierten Drucker ausgaben und ebenfalls im gehobenen Preissegment angesiedelt waren (lange Zeit stand die Abkürzung HP bei vielen Käufern von Produkten der Firma für „High Price“).

Bei DEC entwickelte ein Ingenieur eine Version der PDP-8, des kleinsten Modells der Firma, die zusammen mit dem Monitor und der Tastatur in ein Gehäuse passte. Es wäre der erste All-in-One PC gewesen (fast 30 Jahre vor dem iMac). Er stellte das Konzept der Führungsetage vor. Das „Aus“ kam durch den Kommentar des Firmengründers Kenneth Ohlsen: „There is no reason for any individual to have a computer in his home“. Es ging ebenso als Fehlurteil in die Geschichte ein, wie Thomas J. Watsons (Firmenchef von IBM) Zitat von 1953 bei der Veröffentlichung des IBM 701 Rechners, es gäbe vielleicht einen Markt von fünf Computern (dieses Typs).

Warum die Minicomputerhersteller dieses Segment nicht bedienen wollten, bleibt offen. Ich denke, in Ohlsens Urteil schwingt mit, dass es rational keinen Grund für einen persönlichen Computer gab – die ersten Geräte waren ja auch zu nichts mehr nütze, als zu lernen, einen Computer zu bedienen. Es gab keine Anwendung für einen Rechner mit wenig Speicher und einer damals langsamen CPU. Ein praktischer Nutzen stellte sich erst Anfang der achtziger Jahre ein, als die Rechner zumindest so viel Speicher hatten, um damit Textverarbeitung zu betreiben. Dass jemand einen Computer nur zum Selbstzweck kauft, war sicherlich nicht vorhersagbar.

Zum Zweiten war der Markt ein anderer und die Kunden ebenso. Ein Minicomputer wurde ausgeliefert mit einer Dokumentation und einem Betriebssystem. Eventuell kaufte der Kunde auch noch einige Programmiersprachen, um selbst Anwendungen zu programmieren. Der Käufer hatte zumindest eine Ahnung vom Rechner, konnte ihn bedienen oder es wurde dafür jemand angestellt. Der Rechner war eine Investition für eine bestimmte Aufgabe.

Ein Computer für jedermann ist dagegen ein Konsumgerät, wie ein Fernseher oder eine Stereoanlage. Jeder muss ihn bedienen können. Eine Privatperson will nicht erst eine Programmiersprache erlernen, um Programme zu schreiben, die dann etwas Nützliches tun. Sie will einen Computer einfach benutzen. Das bedeutet, nicht nur eine andere Form von Vertrieb – an den Endverbraucher, verkauft durch normale Läden – sondern auch einen komplett anderen Service und andere Garantieleistungen (Hilfe bei Problemen). Vor allem aber war es notwendig, Software für den Rechner anzubieten. Für die Entwicklung eines Computers, der nach Ansicht der Fachleute für „Jedermann nützlich“ wäre, muss ein großer Aufwand betrieben werden. War es nicht viel einfacher, wenn der Kunde stattdessen den Service eines Time-Sharing Unternehmens in Anspruch nahm, welches Computerzeit auf Großrechnern vermietete?

Kein Wunder, dass dieses Risiko den etablierten Firmen zu groß war. Dass Hobbyisten mit einem Gerät zufrieden sein würden, das gerade mal vier Zeilen dieser Buchseite abspeichern kann, das man bei jedem Einschalten von Neuem in Maschinensprache mittels von einem Dutzend Kippschalter neu programmieren und das Daten nur in Form von Leuchtdioden ausgeben würde, war kaum denkbar. Und trotzdem verkaufte sich ein solches Gerät in nur zwei Jahren über 40.000-mal. Der Erfolg des frühen PCs lag daran, dass er seine Benutzer emotional ansprach. Sie wollten einfach nur einen eigenen Computer besitzen.

Auch die Bezeichnung „PC“ als Abkürzung für „Personal Computer“ hat viele Väter. So bezeichnete Hewlett-Packard die programmierbare Rechenmaschine HP 9100 im Jahre 1968 in einer Werbebroschüre als „Personal Computer“. Bei einem Verkaufspreis von zwei Jahresbruttogehältern war sie es aber nicht, da sie für Privatpersonen unerschwinglich war.

Viele sehen den Ursprung der Bezeichnung in einer Schrift des Computerpioniers Alan Kay aus dem Jahr 1972 mit dem Titel „A Personal Computer for Children of all Ages“. Die bekannteste Verwendung für einen Produktnamen war die für den IBMPC, der 1981 erschien. Zu diesem Zeitpunkt war der Begriff aber schon eingeführt. Nach der Ansicht einer Kommission, die für das Computer History Museum und American Computer Museum arbeitete, und bei der auch Stephen Wozniak mitarbeitete, gebührt der Titel „Erster PC“ dem Kenbak-1. Vom Kenbak-1 wurden ab 1971 rund 40 Stück verkauft. Er wurde noch vor Erfindung des Mikroprozessors produziert. Seine Logik bestand aus zahlreichen einzelnen Schaltungen. So war er vergleichsweise langsam – er führte nur wenige Tausend Befehle pro Sekunde aus.

Anfang der siebziger Jahre rückte die Hardwareentwicklung einen bezahlbaren Computer in den Bereich des technisch möglichen. Die dynamischen Speicherchips vervierfachten die Anzahl der Bits pro Chip. Ein Minimalsystem, das genügend Speicher für eine einfache Programmiersprache und Programme hatte, benötigte nun nicht mehr über 100 Speicherbausteine, sondern nur noch 30. Das EPROM erschien und damit die Möglichkeit, wichtige Programme, die beim Systemstart verfügbar sein mussten, permanent abzulegen, ohne sie jedes Mal neu eingeben zu müssen. Und hinreichend schnelle Mikroprozessoren waren verfügbar. Es fehlte nicht an Versuchen, auf Basis des Intel 8008 ein Computersystem aufzubauen. Sie scheiterten noch an der zu geringen Leistung dieses Prozessors. Doch jeder ahnte – sein Nachfolger würde dies ändern. Als dann im Januar 1974 der Intel 8080 angekündigt wurde, war die Zeit reif für den ersten PC.

Erstaunlicherweise kam dieser nicht aus dem Silicon Valley, sondern aus Albuquerque, aus dem verschlafenen Bundesstaat New-Mexiko. Den ersten PC baute weder ein Chipproduzent oder Computerhersteller, sondern eine auf Bausätze spezialisierte Firma, die kurz vor dem Bankrott stand und ihre Geschäftsräume zwischen einem Restaurant und einem Waschsalon an der Route 66 hatte.

Abbildung 4: Der erste PC – der Kenbak-1

Ed Roberts

Wenn es einen Vater des PC gibt, dann ist es Henry Edwards „Ed“ Roberts (13.9.1941 – 1.4.2010). Er gründete 1968 zusammen mit drei Partnern nach seiner Air Force Ausbildung zum Elektroniker die Firma MITS (Micro Instrumentation and Telemetry Systems). Er blieb in der Nähe seines früheren Luftwaffenstützpunktes in Albuquerque in New Mexiko. Das erste Jahr nach der Firmengründung blieb er auch bei der Air Force angestellt, bis 1969 die steigende Zahl an Aufträgen es unmöglich machte, MITS als Nebenerwerb weiter zu betreiben.

MITS stellte anfangs Elektronik für Hobbyisten her, die kleine Raketen bauten und diese steuern oder Flugdaten übertragen wollten. Es begann eine Zusammenarbeit mit der Zeitschrift „Popular Electronics“. Ed Roberts schrieb seit 1969 für Popular Electronics über Bausätze vom MITS. Der erste Bausatz war ein IR-Transmitter, der Sprache mittels einer Infrarot-Diode über die Distanz von etwa 100m übertragen konnte und 15 Dollar kostete. Spätere Modelle hatten eine höhere Reichweite und konnten in Modellflugzeuge eingebaut werden.

Obwohl vom ersten Modell nur etwa 100 dieser Bausätze verkauft wurden, meinte Ed Roberts, dass dieses Geschäftsfeld lukrativ wäre. Er zahlte seine drei Mitinhaber (Forrest Mims, Stan Cagle, Bob Zaller) aus und betrieb fortan MITS alleine weiter.

Ed Roberts wechselte nun die Firmenausrichtung. Er machte schon Erfahrungen mit Computern während seiner Zeit in der Air Force gemacht und hatte Zugang zu dem ersten programmierbaren Tischrechner (HP 9100A) gehabt. Er sah einen Markt in Tischrechnern, die mit dem damaligen Stand der Technik erstmals für Geschäftsleute bezahlbar waren.

MITS erster Rechner war im November 1971 das Modell 816, ein Tischrechner mit vier Funktionen, bestehend aus sechs integrierten Bausteinen. Wie alle bisherigen Produkte gab es den 816 als Bausatz für 179 Dollar oder fertig montiert für 275 Dollar. Er schrieb über das Produkt in Popular Electronics und die Verkäufe stiegen an. Mehrere Tausend Bestellungen gingen pro Monat ein. Schon im März 1972 stieg der Umsatz auf über 100.000 $ pro Monat. MITS zog in ein größeres Gebäude an der Route 66 um.

Es kamen weitere Tischrechner auf den Markt. Wie das Erstmodell waren alle als Kit zum Selbstzusammenbauen oder fertig zusammengebaut erhältlich. 1973 war das bisher beste Jahr für MITS. Der Mitarbeiterstamm wuchs auf 110 und es musste im Zweischichtbetrieb gearbeitet werden, um alle Aufträge abzuarbeiten. Erstmals waren elektronische Rechner bezahlbar. Das war schon ein Vorläufer der Mikrocomputerrevolution, denn wie diese erleichterten sie enorm die Arbeit bei der Buchhaltung und in technischen Bereichen. Mikroprozessoren erlaubten es bald, die Zahl der benötigten Chips zu reduzieren und die Produktionskosten sanken rapide.

Doch weitere Firmen drängten auf den Markt. Der Halbleiterhersteller Texas Instruments (Ti) beschloss, Tisch- und Taschenrechner zu produzieren. Im November 1972 erschien mit dem Modell Ti-2500 ein Taschenrechner mit LEDAnzeige für 120 Dollar. Es folgten die Tischrechner Ti-3000 und Ti-3500, die noch preiswerter waren und nur 85 bzw. 95 Dollar kosteten. MITS fertigte seine Rechner aus Halbleiterbausteinen, die MITS vom freien Markt bezog. Texas Instruments konnte als Hersteller dieser Bausteine die Preise der Rechner soweit drücken, dass die Kosten der Bauteile für MITS höher waren, als der Verkaufspreis eines Rechners von Ti. So kam es zu einem Preiskampf, bei dem viele Firmen bankrottgingen. Texas Instruments konnte zwar den Preiskampf gewinnen, doch die Sparte, die Taschenrechner produzierte, machte 1975 Verluste in der Höhe von 16 Millionen Dollar. Am Ende des Jahres kostete ein Rechner nur noch 26,25 Dollar, ein Jahr vorher waren es noch 150 gewesen. MITS geriet 1974 in die roten Zahlen. Ed Roberts suchte nach einem neuen Produkt, das einzigartig war und mit dem MITS wieder die Gewinnzone erreichen konnte. Im gleichen Jahr stellte Intel den 8080-Prozessor vor – den ersten vollwertigen 8-Bit-Prozessor.

Auch die Zeitschrift Popular Electronics bekam eine neue Ausrichtung. Sie fusionierte mit einem anderen Magazin, dessen Herausgeber, Les Solomon Ed Roberts persönlich kannte, da ein gemeinsamer Freund der MITS-Mitbegründer Forrest Mims war. Popular Electronics verlagerte nun seinen Schwerpunkt in die Berichterstattung über integrierte Schaltungen, Taschenrechner und Computerperipherie.

Les Solomon suchte nach einem Projekt, dass er über mehrere Folgen hinweg seinen Lesern als Bausatz vorstellen konnte.

Abbildung 5: Der Titel der Ausgabe von Popular Electronics, welche den Altair vorstellte

Die Geburt des Altair

Im Jahr 1974 bekam Les Solomon von Bastlern verschiedene Pläne für Computer für den Selbstbau. Er bezweifelt aber deren Durchführbarkeit und wendet sich an seinen Freund Ed Roberts. Diese Systeme basieren noch auf dem 8008-Prozessor. Eines, entwickelt von Jonathan Titus, wurde von Popular Electronics in der Juli Ausgabe als „Mark-8“ vorgestellt.

In der Auslegung war der Mark-8 durchaus mit der Grundausführung des Altair 8800 vergleichbar. Auch hier gab es nur Kippschalter zur Dateneingabe und Leuchtdioden, um ein Byte binär darzustellen. Er war als „Minicomputer“ zum selbstzusammenbauen vorgesehen. Ursprünglich als mehrteilige Serie geplant, welche den Zusammenbau erläuterte, entschloss sich Popular Electronics später, das Projekt in der Zeitschrift nicht weiterzuverfolgen. Stattdessen wurde eine Broschüre mit den Plänen und Instruktionen gedruckt, die für 5 Dollar verkauft wurde. Als Zubehör gab es die Leerplatinen für 50 Dollar. Die Bauteile für die Platinen musste sich der Käufer selbst beschaffen. Etwa 7.500 Broschüren und 400 Leerplatinen wurden verkauft. Fertiggestellt wurden aber wohl nur wenige Rechner. Für einen Hobbyisten war der Zusammenbau sehr kompliziert und es gab auch Fehler im Design, die Fachwissen zur Korrektur erforderten. Zudem erschien nur ein halbes Jahr später der Altair 8800. Er war leistungsfähiger und preislich auf gleichem Niveau, aber einfacher im Zusammenbau. Die Bauteile für den Mark-8 kosteten alleine 350 Dollar. Teuerstes Bauteil für 125 Dollar war der 8008-Prozessor.

Roberts sah hier genau das neue Produkt, welches seine Firma retten könnte. Wenn es schon Tausende gibt, die Baupläne für einen Computer kaufen, den sie selbst zusammenbauen müssen, wie würde sich dann erst ein fertig zusammengebauter oder vormontierter Computer verkaufen? Er beschloss, das Nachfolgemodell des 8008 Prozessors, den Intel 8080 als Basis zu verwenden. Dieser Prozessor war schneller, leichter zu programmieren und verfügte über einen Adressraum von 64 anstatt 16 KiB. Vor allem aber erforderte er weniger Bausteine für das System. Roberts hatte schon im Frühjahr 1974 Pläne für einen Mikrocomputer auf Basis des 8008-Prozessors und diese auch Les Solomon vorgestellt. Das Erscheinen des Mark-8 führte dazu, dass er diese Pläne aufgab, denn sein System unterschied sich kaum vom Mark-8.

Er überredete seine Bank, bei der er schon mit 400.000 Dollar in der Kreide stand, zu einem letzten Kredit von 65.000 Dollar. Er gab an, etwa 800 Stück des neuen Rechners im ersten Jahr verkaufen zu können. Das versprach genug Gewinn, um den Kredit zu tilgen. Er selbst glaubte nur an einen Verkauf von etwa 200 Geräten.

Um den Rechner überhaupt preiswert fertigen zu können, verhandelte er mit Intel über den Preis des 8080-Prozessors. Er kostet regulär 360 Dollar. Ed Roberts konnte Intel auf 75 Dollar herunter handeln. Das war nur möglich, weil die Prozessoren kein Kernprodukt von Intel waren. Der anfängliche Verkaufspreis wurde nicht nach den Produktionskosten festgelegt, sondern fix auf den Wert von 360 Dollar. Intel war der Meinung, nun wäre auf einem Chip so viel Rechenleistung verfügbar, wie ein Benutzer eines IBM 360 Systems (eines bekannten Großrechners) am Terminal zur Verfügung hatte. Ein Rabatt war daher leicht möglich. Allerdings musste MITS dafür mehrere Hundert Prozessoren abnehmen – würde sich der Computer nicht verkaufen, so wäre MITS bankrott. Zu diesem Zeitpunkt war die Belegschaft der Firma bis auf 10 Mitarbeiter geschrumpft.

Die so eingesparten Kosten führten zu einem sehr niedrigen Preis des Altair 8800. Verkaufsagenten von Intel bekamen dadurch Probleme, das eigene Entwicklungssystem Intellec-8 zu verkaufen, welches 10.000 Dollar kostete. Es war in der technischen Auslegung mit dem Altair vergleichbar, aber vorgesehen für den Anschluss zahlreicher, auch professioneller Peripheriegeräte. Intels Angestellte setzten wegen der Preisdifferenz das Gerücht in Umlauf, MITS bekäme Bauteile, die Intel ausgesondert hätte, weil sie nicht den Spezifikationen genügen. Später verbot Intel seinen Agenten diese Aussage. Auch MITS veröffentlichte eine Gegendarstellung, doch das Gerücht hielt sich sehr lange.

Der Namen für den Altair 8800 kam von Solomons zwölfjähriger Tochter. Solomon will den Rechner nach dem Computer der populären Fernsehserie „Star Tek“ benennen. Doch der heißt nur „Computer“. Lauren Solomon schlägt Altair vor: „da fliegt die Enterprise in der nächsten Folge hin“. (Es handelt sich um die Folge 30, „Amok Time“, deutsch: „Weltraumfieber“). Als der zweite Rechner bei Solomon eintrifft, (der Erste ging mit der gesamten Ladung des Transports verloren), ziert die Frontblende noch die Aufschrift „PE-8“ für „Popular Electronics 8-Bit“. Roberts hatte noch keine Zeit, sich einen Namen zu überlegen. Der einzige Vorschlag, den es von einem seiner beiden verbliebenen Ingenieure gab, war „Litte Brother“. Mit PE-8 wollte er eine Reminiszenz an die Zeitschrift Popular Electronics machen, die mit ihrer Coverstory schließlich Werbung für den Rechner betrieb.

Solomon rief am nächsten Tag Roberts an und schlug ihm dem Namen „Altair“ vor. Roberts war der Name egal – er antwortete, wenn er nicht mindestens 200 Stück verkauft, dann wäre er pleite. Wie der Computer heißt, wäre daher völlig nebensächlich. So erschien die Ankündigung des Altair 8800 auf der Titelseite der Januar Ausgabe der Zeitschrift Popular Electronics. Damit war das Gerät auf einem Schlag 450.000 Lesern der Zeitschrift bekannt. Das abgebildete Gerät war eine Attrappe, denn so schnell konnte MITS gar nicht die Frontblende auswechseln.

Der Altair 8800 war in seiner Grundausführung kein Gerät, welches auf Anhieb begeistern konnte. Um Kosten zu sparen – der Bausatz sollte 397 Dollar kosten, ein Fertiggerät 695 Dollar – und um schnell ein Gerät auf den Markt zu bringen, beschränkte sich Roberts auf das Notwendigste:

Der Altair 8800 steckte in einem Klappgehäuse. An der Frontseite konnte er den Status mit LEDs ausgeben. Über diese wurden auch Ergebnisse „visualisiert“. Eingaben machte man durch Kippschalter. Jeder Schalter stand für ein Bit und so musste man acht Stück umlegen, um ein einziges Byte einzugeben. Die wichtigste Neuerung befand sich im Inneren: Anstatt den Rechner auf einem Motherboard zu integrieren, hatte Ed Roberts einen Bus entwickelt, in den man bis zu 16 Platinen einsetzen konnte. Die erste Platine bestand aus dem Prozessor 8080 und die Zweite enthielt 256 Byte (nicht Megabyte!) statisches RAM (Random Access Memory: die Bezeichnung für den Arbeitsspeicher bei Computern). Dieser S-100 Bus, so genannt, weil er genau 100 Pins hatte, wurde zum ersten Standard der Branche. Viele Computer auf Basis des 8080, 8085 oder Z80-Prozessors übernahmen ihn. Die 100-poligen Stecker waren mit rund 7 Dollar die günstigste Ausführung, die er finden konnte, denn eigentlich benötigte er nur 85 Pins. Der Rest war unbelegt.

Die Wahl des Busses erwies sich als ein Schlüsselelement für die frühe Computerindustrie. Sie war nicht selbstverständlich. Andere Minicomputer, die etwas größer als der Altair waren, bestanden aus fest verbunden Platinen, welche die gesamte Elektronik aufnahmen. Dass Roberts einen Bus einsetzte, war weniger einem weitreichenden Vorausblick, als vielmehr MITS begrenzten Ressourcen geschuldet. Mit den wenigen verbliebenen Angestellten war es nicht möglich, in überschaubarer Zeit eine Platine zu entwerfen, die alle benötigten Komponenten enthielt. So machte er aus der Not eine Tugend und schuf ein Bussystem – der Altair würde erst einmal in einer Minimalversion erscheinen. Später würde man an das Design von Karten gehen, mit denen der Käufer weitere Geräte anschließen, oder den Speicher ausbauen konnte. Weil die Busstecker relativ teuer waren, kam der Altair in der Grundausführung nur mit vier Steckern in den Handel. Wollte man den Rechner aufrüsten, so musste man Erweiterungen der Busplatine mit jeweils vier Steckern kaufen.

Die meisten Altairs wurden als Kit bestellt. Zum Glück für MITS mit seiner kleinen Belegschaft. Der Verkaufserfolg bedingte, das MITS mit der Produktion nicht mehr nachkam. Innerhalb eines Monats erhielt Roberts 4.000 Vorbestellungen. MITS konnte innerhalb von drei Monaten aus den 400.000 Dollar Schulden 250.000 Dollar Gewinn machen. Jeder, der sich für Computer interessierte, wollte einen solchen Rechner haben. Die meisten Käufer legten der Bestellung einen Vorschuss oder einen Scheck bei – nur so war die Produktion überhaupt finanzierbar. Das war ein enormer Vertrauensvorschuss, denn wer kannte schon die Firma MITS aus Albuquerque in New Mexico?

Bald gab es in Zeitschriften ganze Seiten mit Zubehör zum Altair 8800 – Karten mit dynamischem RAM bis 32 KiB, Anschlüsse für Tastaturen, Monitoranschlüsse, Lochkartenleser, Kassettenrekorder und Diskettenlaufwerke als Massenspeicher. Der erweiterbare Bus war das Geheimnis. Ed Roberts sah das allerdings anders. Ähnlich wie später Jobs und IBM erkannte er nicht, dass gerade das Anbieten einer offenen Architektur mit zahlreichen Erweiterungsmöglichkeiten den Altair so erfolgreich gemacht hatten.

Als es 1976 schon zahlreiche Hersteller von Karten und Mikrocomputern gab, ging eine Gruppe von Experten daran, den Bus zu standardisieren. Das Ziel war, bestehende Inkompatibilitäten zu beseitigen. Eine Karte für den S-100 Bus sollte in jedem Rechner funktionieren, der einen solchen Bus hatte. MITS war eingeladen worden, daran mitzuwirken, doch Roberts verweigerte die Teilnahme mit der Begründung, es wäre sein Bus und damit sein geistiges Eigentum. Alle müssten sich nach dem Altair Bus richten. Bis zu seinem Tode bezeichnete er den Bus als „Altair Bus“, auch wenn die Bezeichnung als S-100 Bus sich nach der Standardisierung durchsetzte.

Wir wissen heute, dass der Altair nicht der erste PC war. Es gab mindestens zwei Maschinen vor ihm. Aber es war der erste kommerziell erfolgreiche PC.

Abbildung 6: Ein Altair 8800 der ersten Serie

Neue Konkurrenz und Produktionsprobleme

Sehr schnell entwickelte sich um den Altair 8800 eine neue Industrie. Da das Grundgerät alleine nahezu nutzlos war, gab es einen Markt für Zusatzkarten. MITS bot Karten an, um Lochstreifenleser, Fernschreiber, Kassettenrekorder als Massenspeicher und Ausgabegeräte anzuschließen, dazu eine Oktaltastatur. Viele der angekündigten Produkte konnte MITS allerdings nicht liefern. Die Firma kam schon mit der Produktion der Basiskits nicht nach. Obwohl die Rechner erst 60 Tage nach Bestellung (mit Vorauskasse!) geliefert werden sollten, konnte MITS nicht so schnell liefern, wie Bestellungen eintrafen. Es dauerte bis zum Frühjahr 1975, bis die ersten Produktionsexemplare verschifft wurden und trotzdem funktionierte auch ein Teil dieser Geräte nicht.

Die Karten mit 4 KiB dynamischem Speicher waren fehlerhaft. Sie funktionierten alleine bei Tests, aber nicht zusammen mit den anderen Karten im Gerät. Die Situation war so übel, das bei MITS sieben Rechner nonstop liefen, um wenigstens drei funktionierende Geräte für Tests zu haben. Die 4K-Karte war allerdings der Schlüssel für eine Erweiterung des Rechners – ohne sie hatte der Rechner zu wenig Speicher, um auch nur minimale Programme ausführen zu können. Trotz der bekannten Probleme lieferte MITS jedoch die fehlerhaften Karten aus. Es dauerte nicht lange und jeder wusste, dass die Karten defekt waren.

Das rief mit „Processor Technology“ einen „Fremdhersteller“ auf den Plan. Die in einer Garage gegründete Firma entwickelte eine funktionierende 4-KiB-Speicherkarte. Sie umging das Problem, indem sie teurere, aber zuverlässige statische Speicherbausteine verwandte. Obwohl ihre Karte teurer war als die von MITS, verkaufte sie sich gut, weil sie funktionierte. Cromenco entwickelte eine Serie von Karten, die es ermöglichten, auf dem Fernseher Grafik, auch in Farbe, auszugeben. Dies war damals eine Revolution. Andere Hersteller entwickelten Analog- / Digitalwandlerkarten. Später kamen noch eine Tastatur, ein Modem und Joysticks dazu. Zahlreiche neue Firmen entstanden, um den Bedarf an Zusatzkarten zu decken.

Schon wenige Monate nach dem Start war der Altair nicht mehr das einzige Gerät auf dem Markt. Im Oktober 1975 wurde mit dem IMSAI 8080 der erste Nachbau angekündigt. IMS Associates hatte den Auftrag von General Motors bekommen, ein Terminalsystem zu entwickeln und stellte dessen Entwicklung ein, als der Altair erschien. Stattdessen nahm sie den Altair als Vorbild und beseitigte dessen Schwächen. So waren z.B. die Busplatinen miteinander verbunden und der Speicherausbau betrug in der Grundausführung 4 KiB. Vor allem war das Netzteil erheblich leistungsstärker. Der IMSAI 8080 war auch der erste Rechner, der mit einem eigenen Betriebssystem, einer frühen Form von CP/M, ausgeliefert wurde. Er wurde später zum Filmstar: Der Computer den David Lightman im Film „War Games“ benutzt ist ein IMSAI 8080.

Ed Roberts beschimpfte die Kartenhersteller und IMS als „Parasiten“ und „Schmarotzer“. Sie würden von seiner Idee profitieren. Trotzdem florierte das Geschäft. Roberts stellte Telefonistinnen ein, um die Bestellungen bearbeiten zu können. Obwohl die Mitarbeiterzahl schnell von 20 auf 90 stieg, war der versprochene Liefertermin von 60 Tagen nicht einzuhalten. Bis Ende Mai 1975 waren erst 1.000 Altair ausgeliefert worden. Die Unfähigkeit, alle Aufträge zu bearbeiten, brachte IMS Associates überhaupt erst auf die Idee, einen eigenen Computer zu entwickeln. Sie hatten ursprünglich vor, Altairs zu kaufen und sie an die eigenen Bedürfnisse anzupassen.

Der Verkauf von Erweiterungskarten war aber essenziell für das Geschäft von MITS. Die Kits selbst brachten kaum Gewinn. Dieser wurde mit den Erweiterungskarten gemacht. Die 4 KiB Karte war dabei der strategische Angelpunkt. Nur mit ihr lief Altair BASIC, die einzige Software, die anfangs verfügbar war. Um das BASIC einsetzen zu können, brauchte man Karten zum Anschluss eines Typenraddruckers und eines Kassettenrekorders oder Lochstreifenlesers. Alleine diese Karten kosteten erheblich mehr als ein Altair 8800. MITS zog mit einem umgebauten Wohnmobil „MITS-Mobile“ durch das Land und stellte die Erweiterungen vor. Es gab erste Computerclubs, die Erweiterungskarten und Software für den Altair entwickelten. Der Bekannteste und Wichtigste war der Homebrew Computerclub. Es gab die Zeitschrift „Computer Notes“ von MITS, in der neue Geräte angekündigt wurden und Rat bei bekannten Problemen gegeben wurde. 1976 gab es sogar eine Convention der Altair Benutzer, deren erster Redner Bill Gates war.

Doch diese Hochphase hielt nicht lange an. Der S-100 Bus des Altair wurde zum Standard und bald gab es Rechner, welche leistungsfähiger als der Altair waren. Rechner, die nicht als Bausatz, sondern wie 1976 der „Sol“ als Fertiggeräte mit Monitoranschluss und Tastatur vertrieben wurden. MITS produzierte dagegen weiterhin Rechner als Bausätze, nun auch mit anderen Prozessoren.