ComputerComputer, Supercomputer, Comptergeschichte, Super-Computer, Computertechnologie, Großcomputer, PC, PCs, Lochkarten, Chip, Transistor, ICs, Integrierter Schaltkreis, ICs, IC, künstlichen Intelligenz, KI

    


Bücher zum Thema:
naechst.gif (256 Byte)

 

http://www.glossar.de/glossar/z_computer.htm

Übersicht:

Computer
Supercomputer
etwas Computergeschichte

    


 
konkret:
conrad.com
Computer Shop!

 

Computer sind strohdumm, das aber mit rasender Geschwindigkeit.

Computer

Es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller entwickelt hat als die Computer-Technologie (siehe auch Moore's Law). Den Anfang machte der 25-jähriger Amerikaner Herman Hollerith Ende des 19. Jahrhunderts mit einer Maschine, die auf elektro-mechanischer Basis doppelt so schnell zählen konnte wie ein Mensch und die zum Speichern von Buchstaben und Zahlen Lochkarten benutzte.
 


 

Irrren ist menschlich. Es auf einen Computer abzuschieben, ist noch menschlicher.

Supercomputer

Die Königsklasse aller Rechner: Sie haben im "klassischen Sinne" etliche Gigabyte Hauptspeicher, oft einige Terabyte an Massenspeicher und eine Rechenleistung, die die gewöhnlicher PCs um einen Faktor von einigen tausend bis zu mehreren Millionen übersteigt. Supercomputer wurden/werden meistenteils zur Lösung wirklich großer mathematischer Probleme eingesetzt, wie sie bei Strömungs-Simulationen, in der Klimaforschung, für Wettervorhersagen und virtuelle (Auto-)Crashtests sowie bei der Simulation von Atombombentests etc. auftreten. Supercomputer finden zunehmend auch im Finanzwesen und der Telekommunikation Verwendung. Banken können zum Beispiel mit Hilfe von diesen Rechnern ihre riesigen Datenmengen auswerten und analysieren. Davon profitieren beispielsweise Anlagespezialisten, deren Investitionsentscheidungen oft komplizierte mathematische Modelle für die Berechnung der erhofften optimalen Rendite zu Grunde liegen.

Auf der 15. Mannheimer Supercomputer-Tagung (8.-14.Juni 2000) stellte Hans Werner Meuer, der Leiter der Tagungen, fest, daß in den vergangenen 15 Jahren die Leistung der jeweils schnellsten Großrechner um das 1700-fache gestiegen sei: www.supercomp.de

Der legendärste Supercomputer war die nach seinem Erfinder Seymour Cray genannte Cray-1. Er wurde 1976 installiert und war der erste Supercomputer mit Vektorverarbeitung. Die weiterentwickelte Cray X-MP Serie verwirklichte Mehrprozessorarchitektur. (Die Firma Cray wurde zwischenzeitlich von SGI gekauft und an Tera Computer weitergegeben.)

1999 / 2000 kommt der leistungsfähigste Superrechner aus dem Hause INTEL: Der ASCI Red dient der Simulation von Atombombenexplosionen und setzt dazu 9.472 Prozessoren ein. Er steht in den Sandia National Labs in Albuquerque, New Mexico, und leistet 2,4 tausend Gigaflops. Bis 2005 will IBM einen nochmals um den Faktor 500 schnelleren "Petaflops"-Rechner entwickeln, der dann in der Genomforschung Verwendung finden solle. (Sieben der ersten zehn Plätze besetzte zur Jahrtausendwende SGI, aber eben nicht die Nummer eins. Der schnellste SGI-Rechner war zu dem Zeitpunkt der "Blue Mountain" im Los Alamos National Laboratory.)

Übrigens: Im September 1999 stellte Apple den Power Mac G4 mit "Velocity Engine" vor. Er erreichte als erster PC überhaupt den Leistungsbereich eines sogenannten. "Supercomputers". Mit mehr als einer Milliarde Fließkomma-Operationen pro Sekunde ("Gigaflops") drang der Supercomputer in eine neue bezahlbare Dimensionen vor.

siehe auch:

neuer schnellster Rechner der Welt mit
12 Billionen Rechenoperationen
(Meldungen vom 29. Juni und 24. Juli 2000)

IBM hat Mitte 2000 mal wieder einen "schnellsten Rechner der Welt" vorgestellt. Der "RS/6000 ASCI White" besteht ...

  • aus einer komplizierten Zusammenschaltung von 512 Einzelrechnern mit
  • insgesamt 8192 Prozessoren auf Kupferbasis.
  • Er enthält einen Arbeitsspeicher von sechs Terabytes
  • sowie mehr als 160 Terabytes Festplattenspeicher - genug um die gesamte Bibliothek des US-Kongresses in sechsfacher Ausführung zu speichern.

Der ASCI White leistet damit 12,3 Billionen Teraflops oder 12,3 Billionen Fließkomma-Operationen (einzelne Rechenschritte) pro Sekunde. (Wollte ein Mensch mit einem Taschenrechner leisten, was der ASCI White in einer Sekunde macht, so würde er dafür zehn Millionen Jahre benötigen.) Nach Angaben von IBM ist das elektronische Superhirn 1000 Mal so schnell wie der berühmte IBM-Rechner "Deep Blue", der 1997 den Schachweltmeister Gary Kasparow besiegte.

Für den Transport vom Bundesstaat New York nach Kalifornien werden 28 LKW-Anhänger nötig sein. Der 110 Millionen Dollar (etwa 225,5 Millionen Mark) teure Computer-Clusters  hat nämlich gewaltige Dimensionen: Die durch komplexe Schaltungen und spezielle Software im Zusammenspiel agierenden Rechner haben das Gewicht von 17 ausgewachsenen Elefanten, die Anlage benötigt eine Fläche von zwei Basketball-Feldern.

Auftraggeber und künftiger Nutzer des Super-Rechners ist die Accelerated Strategic Computer Initiative (ASCI) des US-Energieministeriums. Der ASCI White soll in den US-Livermore-Laboratorien in Kalifornien Simulationen von Atomtests liefern. Für die Regierung in Washington ist dies insbesondere wegen der Weigerung des von den Republikanern kontrollierten Senats von Bedeutung, den Atomteststopp-Vertrag zu ratifizieren. Wenn die Simulationen per Computer dem für die Tests zuständigen Energieministerium die notwendigen Daten bringen, wären echte Atom-Testexplosionen tatsächlich überflüssig, denn mit Hilfe des Computers ließe sich beweisen, "dass die Arsenale der USA sicher, verlässlich und einsatzbereit sind", wie David Cooper von den Livermore Labs erläutert. Die Simulationen umfassen alle Daten, die bei einer atomaren Explosion eine Rolle spielen. Um alle Tests vornehmen zu können, müsste der Super-Computer allerdings noch kräftig an Rechenkraft zulegen. Cooper schätzt, dass hierfür eine Rechenleistung von 100 Teraflops nötig wären. Bis 2004 spätestens solle auch dies möglich sein.

Im Juli 2000 hat IBM zudem eine kommerzielle Version des Super-Computers auf den Markt gebracht. Wie IBM am 24.7. in New York mitteilte, will das Unternehmen mit dem RS/6000 eine erhöhte Nachfrage nach hoher Rechenleistung bei Großunternehmen und Internet-Diensten in der Wirtschaft befriedigen. Der Rechner soll in verschiedenen Leistungsstufen angeboten werden. Die günstigste Version wird laut IBM rund 190.000 Dollar (398.000 Mark) kosten, die größte von den Ausmaßen eines Tennisplatzes 110 Millionen Dollar (230 Millionen Mark).

Seit 1999 gilt IBM als Marktführer bei der Herstellung von Super-Computern. Pro Jahr werden rund 250 solcher Anlagen für Wetterdienste, Forschung und Verschlüsselungsprojekte verkauft.
 

Der (vorübergehend) schnellste zivile Supercomputer der Welt steht in München
(Meldungen vom 31. März und 29. Juni 2000)

Möglicherweise der schnellste Hochleistungsrechner der Welt im zivilen Bereich steht jetzt in München - bis zum nächsten "schnellsten Comupter". Der Supercomputer SR800 F1 soll im Endausbau über 1.512 Prozessoren mit 168 Knoten verfügen. Jeder Prozessor ist mit acht Gigabyte Hauptspeicher ausgestattet. Zur Inbetriebnahme Ende März verfügte der Rechner über 112 Knoten, von denen jeder rund 3.000 Megaflops ausführen kann. Die Spitzengeschwindigkeit beträgt 12.000 Megaflops. Bei der Vorstellung im Münchner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften wiesen Wissenschaftler darauf hin, dass nur die USA im militärischen Bereich über drei schnellere Computer verfüge, die zur Kontrolle der Atomwaffen eingesetzt werden.

Den neuen Rechner, dessen Kosten bei 90 Millionen Mark liegen, können Wissenschaftler aus ganz Deutschland nutzen, wenn ihre Rechenoperationen von keinem anderen Computer in vertretbarer Zeit durchgeführt werden können. In einem Testlauf mit einem Programm aus der Quantenchemie sei der Rechner mit 490 Gigaflops gelaufen. Für dieselbe Rechenleistung hätten über 8.100 Personal-Computer eingesetzt werden müssen, zur Vernetzung wären weitere rund 500 Rechner notwendig gewesen. Der neue Superechner F1 werde etwa drei Jahre lang zu den Toprechnern der Welt gehören und nach sechs Jahren veraltet sein. Er soll vor allem zur Berechnung von Modellen, der Entwicklung von Software-Methoden und Simulationen eingesetzt werden.

Bei der  offiziellen Inbetriebnahme des Superrechner am 28.6. schaffte er 1 Billion Rechenoperationen pro Sekunde und "steht damit an fünfter Stelle weltweit", sagte Bayerns Wissenschaftsminister Hans Zehetmair (CSU).
 

Compaq spezifiziert neuen Supercomputer:
2500 mal 1 GHz oder 2000 mal 1,25 GHz
(Meldung vom März 2000)

Zur CeBIT 2000 kündigte Compaq einen neuen Supercomputer mit 2000 Alpha-Chips auf Kupferbasis und jeweils 1,25 GHz an. Alternativ könnten 2500 Aluminium-Prozessoren mit jeweils einem GHz genutzt werden.
Zum Einsatz sollen die neusten "EV6" genannten Alpha-Prozessoren kommen, die mit der 0,18-Mikron-Technik gefertigt wurden. Die ersten EV6-Chips wurden noch mit 0,35-Mikrometer-Abständen gefertigt.
Einen entsprechenden Auftrag hat die französische Kommission für Atomenergie (CEA) erteilt. Mit fünf Billionen Operationen pro Sekunde soll er der schnellste Rechner der Welt werden. Er läuft mit dem hauseigenen Betriebssystem Tru64, das ein Cluster-Filesystem (siehe Rechner-Cluster) und die parallele Datenverarbeitung der Alpha-Prozessoren koordiniert. Stark vereinfacht handelt es sich um einen Zusammenschluss gleich mehrerer Supercomputer, die durch ein gemeinschaftlich von Compaq und dem italienischen Spezialisten Quadrics Supercomputers World entwickeltes Netz miteinander verbunden sind.
Die Implementierung des Mainframes wird von Compaqs Integration Centre in Annecy, Frankreich, übernommen. Ende 2001 soll der Rechenriese die Arbeit aufnehmen können.
Zum Vergleich: Im November 2000 soll(te) der zunächst mächtigste Rechner Europas im Amsterdamer Zentrum für angewandte Forschung (siehe auch) den Betrieb aufnehmen und eine Billion Berechnungen pro Sekunde leisten.
 

IBM baut Kupfer-Supercomputer mit 1152 Kupferchips
(Meldung von ZDNET vom 10. Februar 2000)

IBM hat am 9.2. einen neuen Supercomputer vorgestellt, der erstmals auf Kupferbasis operiert. Der RS/6000 SP genannte Bolide ist mit Power3-Prozessoren bestückt, die gut 20 Prozent mehr Leistung als die handelsüblichen Mainframes von Big Blue bringen sollen.

Die Power3-CPUs setzen auf Kupfer als Ersatz für Aluminium: Dadurch wird die interne Verdrahtung der Prozessoren effizienter. Der RS/6000 SP verfügt über 1152 dieser Power3-II-Chips mit einer Taktrate von jeweils 375 MHz. Diese sind auf Mainboards mit dem Codenamen "Winterhawk" befestigt, die jeweils bis zu acht Prozessoren fassen.

Erst Anfang der Woche hatten die IBM-Entwickler einen Durchbruch bei ihren Bemühungen um eine schnellere Chip-Architektur mitgeteilt. Im Experiment seien Taktraten von bis zu 4,5 GHz erreicht worden. Dazu kam eine neue Prozessortechnik namens Interlocked Pipeline CMOS, kurz IPCMOS, zum Einsatz. Diese setzt in erster Linie auf konventionelle Silizium-Transistoren in Verbindung mit der Silicon-on-Insulator-(SOI-)Technik.

Mit der Kupfertechnologie hat IBMs SOI-Verfahren aber prinzipiell nichts zu tun: Kupfer als Ersatz für Aluminium macht die Verdrahtung effizienter, SOI verbessert die Transistoren. "Die Kombination aus beiden macht's", kommentiert der IBM-Technologe Dennis Cox.
 

Schnellster Computer Europas entsteht in Amsterdam
(Meldung vom Februar 2000)

Der schnellste Supercomputer Europas mit der Kapazität für etwa 1.000 Milliarden Rechenvorgängen pro Sekunde soll im November 2000 in Amsterdam in Betrieb genommen werden. Der Rechner des amerikanischen Herstellers SGI vom Typ Scalable Node-1 (SN-1) wird in den kommenden Jahren das Zentrum der angewandten Forschung in den Niederlanden bilden, teilte die Vereinigung für wissenschaftliche Forschung (NWO) Anfang Februar in Den Haag mit. Der 30 Millionen Gulden (26,5 Millionen Mark) teure Computer ersetzt eine Anlage, die lediglich 12 Milliarden Berechnungen in einer Sekunde ausführen kann. (Zum Vergleich: die schnellsten PCs wie der G4 von Apple können Anfang 2000 eine Milliarde Rechenvorgängen pro Sekunde durchführen.)

Der mit mehr als 1000 Prozessoren ausgerüstete SN-1-Computer verfügt über ein Hauptspeicher von einer Million Megabyte. Er soll bei der Simulierung von biologischen, chemischen, meteorologischen, medizinischen und anderen Systemen eingesetzt werden, berichteten NWO-Sprecher. Dabei gehe es etwa um das Verhalten von Eiweißen, um die katalytischen Reaktionen von Flüssigstoffen, um Verbrennungsprozesse sowie die Ausbreitung von Luft- und Wasserverschmutzung. Auch das voraussichtliche Knochenwachstum bei Implantaten hofft man vorausberechnen und Kernfusionsreaktionen nachvollziehen zu können. Daneben soll der Computer unter anderem auch eingesetzt werden, um das Entstehen von Sternensystemen zu berechnen.
 

IBM plant Supercomputer
(Meldung vom Dezember 1999)

100 Millionen Dollar will sich IBM einen neuen Supercomputer kosten lassen, um den biologischen Prozess zu simulieren, durch den sich Aminosäuren in Proteine umwandeln

Der Rechner namens "Blue Gene" soll über mehr als eine Million Prozessoren verfügen (jeder davon wird nach IBM-Vorstellungen eine Million Operationen in der Sekunde ausführen) und damit eine Billiarde Berechnungen in der Sekunde durchführen können. Damit wird der neue Bolide tausend mal schneller sein als "Deep Blue", der Computer, der 1997 den Schachgroßmeister Garry Kasparov besiegte. Anders gerechnet: Blue Gene wird zwei Millionen mal leistungsfähiger sein als die schnellsten Pentium III-PCs, die Ende 1999 auf dem Markt sind.
Blue Gene, der eine Höhe von 1,80 Meter und einen Platzbedarf von 150 Quadratmetern hat, soll schätzungsweise ein Jahr für die nötigen Berechnungen für die Protein-Simulation benötigen. (Übrigens: Der menschliche Körper erledigt diesen Vorgang in weniger als einer Sekunde.)

Für die Entwicklung von Blue Gene wird IBM neue Standards für Computerarchitektur entwickeln müssen, um die Superhochgeschwindigkeits-Berechnungen durchführen zu können. Die Software muß ebenfalls hoch entwickelt sein, um bei den hohen Geschwindigkeiten zu funktionieren, ohne "Flaschenhaelse" zu produzieren, die die Rechengeschwindigkeit beeinträchtigen.

etwas Computergeschichte

Er beherrscht ganze Konzerne, leitet Autofahrer aus dem Stau, gehört zu den liebsten Spielkameraden von Kindern und knackt selbst die schwierigsten Rechenaufgaben. Der unumstrittene Held des 20. Jahrhunderts hat einen Namen: Der Computer. Und es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller entwickelt hat als die Computertechnologie. Wenige andere Erfindungen haben das 20. Jahrhundert so sehr beherrscht und den Alltag der Menschen so weitreichend verändert.

(Vermutlich) den Anfang machte der 25-jähriger Amerikaner Herman Hollerith. 1880 baute er zur Auswertung der amerikanischen Volkszählung eine Maschine, die auf elektromechanischer Basis doppelt so schnell zählen konnte wie ein Mensch. Der Rechner verwendete Babbages Lochkartentechnologie. Hollerith nannte seine Firma übrigens International Business Machines Corporation, oder kurz IBM (siehe auch Gottfried Wilhelm Leibniz).

Ein britischer Fernmeldeingenieur hat im Zweiten Weltkrieg einen der ersten Computer (den ersten?) der Welt gebaut, um Funksprüche der deutschen Wehrmacht zu entschlüsseln.Wie die französische Fachzeitschrift "Sciences et Vie Micro" 1999 in ihrer Juniausgabe berichtete, wäre die Landung der Alliierten in der Normandie 1944 ohne den Rechner mit dem Namen "Colossus" undenkbar gewesen. Das sechs Meter lange und 2,5 Meter hohe Ungetüm wurde jetzt anhand von Bildern und Zeitzeugenberichten in der Nähe von London wieder aufgebaut. "Colossus" sei so erfolgreich gewesen, daß der britische Premierminister Winston Churchill ihn nach dem Krieg habe zerstören lassen, berichtet der Autor Emile Servan-Schreiber in der Zeitschrift. Niemand habe wissen sollen, wie die Alliierten den Krieg gewonnen hätten, für den Fall, daß die "Heldentat" noch einmal hätte vollbracht werden müssen. Das Riesengerät funktioniert mit 2500 Elektronenröhren und hat einen 25-Bit-Arbeitsspeicher. In den 40er Jahren konnten damit deutsche Funksprüche binnen zwei Tagen entschlüsselt werden. Per Hand wären mehrere Monate nötig gewesen. Zwischen Januar und Juni 1944, also während der Vorbereitungszeit für die Landung der Alliierten, seien so jede Woche rund hundert Nachrichten entschlüsselt worden.

Der deutsche Ingenieur Konrad Zuse entwickelte 1941 den ersten vollautomatischen, frei programmierbaren Computer der Welt. Zuses Z3 hatte eine Speicherkapazität von 64 Wörtern und konnte in drei Sekunden Multiplizieren, Dividieren oder Quadratwurzeln ziehen. Parallel zu Zuse entwarf der amerikanische Physiker John Atanasoff den ersten digitalen elektronischen Computer. Spätestens mit dem Erfolg des Rechners ENIAC, mit dem das US-Militär 1945 verschlüsselte Meldungen der deutschen Wehrmacht dechiffrierte, wurde der Computer ernst genommen.

"Ich glaube es gibt einen weltweiten Bedarf an vielleicht fünf Computern"
(Thomas Watson, IBM-Chef, 1943)

"In Zukunft könnte es Computer geben, die weniger als 1,5 Tonnen wiegen"
(Popular Mechanics, 1949)

In der zweiten Hälfte der 40er Jahren wurden die ersten (tonnenschweren) programmgesteuerten Rechner installiert, mit denen man endlich die Lösungen der "Traumprobleme der Mathematiker" in Angriff nehmen konnte: der SSEC der Firma IBM, in dessen Inneren 12.500 Röhren und 21.400 Relais schalteten wie walteten und der für den Programmablauf 36 Lochstreifenleser benötigte, begann 1947 mit der Berechnung der Mondflugbahn (1947 wurde auch der Transistor erfunden). 1951 wurde zum ersten Male ein Computer in Serie gebaut. Er benötigte für eine Multiplikation 0,025 Sekunden. Die Daten wurden nun nicht mehr nur auf Lochstreifen gespeichert, sondern auch auf Magnetplatten und -bändern. Durch ihre Einführung konnten die anfallenden Datenmengen sinnvoll mit geringen Zugriffszeiten und entsprechender Platzersparnis gespeichert und verwaltet werden.

"Ich habe das ganze Land bereist und mit allen Experten gsprochen, und ich sage Ihnen: Datenverarbeitung ist ein Modefimmel, der nicht einmal das Jahr überstehen wird."
(Lektor für Wirtschaftsbücher beim Verlag Prentice Hall, 1957)

Als 1958 erfunden wurde, arbeiteten weltweit 1.300 Computer. Die neue Technologie ermöglichte nun kleinere, stromsparendere, schnellere, kühlere und damit preiswertere Rechner: die Stückzahlen wurden fünfstellig. Datentransfer und schnellere Peripherie machten die erwachsen werdende Technologie für den kommerziellen Anwender interessant. Die treibende Kraft in der Weiterentwicklung blieben aber die exotischen Anwendungswünsche wie das Apollo-Programm der 60er Jahre. 1969 waren der Stand der Technik monolithische Schaltkreise, auf denen bei 1 qmm Fläche 25 Transistoren und 40 Widerstände Platz fanden.

IBM war Mitte der 60er Jahre Vorreiter bei der Entwicklung der dritten Computer-Generation, die erstmals integrierte Schaltkreise (ICs / Chips) nutzte. Damit konnten die Ingenieure den Computer besser an bestimmte Aufgaben anpassen, als noch mit Röhren und Transistoren. Außerdem schrumpfte die Größe der Rechner dramatisch, während gleichzeitig die Zuverlässigkeit deutlich zunahm.

"Für eine Garage hatten wir gar kein Geld." (Michael Dell, Gründer von DELL)

In den 70er Jahren setzte sich der Trend zu immer preiswerteren Computern durch den Einsatz der ICs weiter fort, und es vollzog sich eine Trennung in der Entwicklung neuerer Geräte, die vergleichbar ist mit der Entwicklung vom Ur-Benz zum VW-Golf (Personal-Computer [PC]) bzw. Ferrari (Groß- und "Super"-Computer).

Einen Meilenstein in der Entwicklung zum heute bekannten PC bildet der erste Mikroprozessor, den INTEL 1971 vorstellt: die miniaturisierte Rechner-Zentraleinheit (CPU), deren Funktionen auf einem Siliziumplättchen konzentriert sind, verfügte über eine Datenbreite von vier Bit. Diesem Prozessor mit dem Namen "4004" (siehe rechts) folgten 1972 der 8008 und 1974 der 8080, der sich zum 8-bit-Industriestandard durchsetzte (siehe auch Prozessor-Geschichte). 1975 stellten Mitentwickler des 8080, die inzwischen INTEL verlassen und die Firma Zilog gegründet hatten, einen verbesserten 8080-kompatiblen Prozessor - den Z80 - vor. Begleitet wurde diese Entwicklung von dem "Zusammenbasteln" der ersten Computer, die sich auch kleinere Geschäfte oder sogar Privatleute leisten konnten. Den Grundstein zu diesem inzwischen heiß umkämpften Milliardenmarkt legte ALTAIR1975 die Firma MITS aus New Mexico mit dem Modell "Altair 8800", ein INTEL 8080-System, für 2000 Dollar (Bild links). Der Altair wurde ein Flop; denn kein Mensch interessierte sich für solch ein Produkt.

Mehr Erfolg hatten drei andere Unternehmen: Commodore, Tandy und Apple Computer (1976 von Steven Jobs und Steve Wozniak gegründet). Sie stellten 1977 ihre ersten kleinen Computer vor. Es waren Geräte von Bastlern, Freaks und "Hackern" für eben die selben. Die Geschäftsführung war improvisiert und laienhaft. Neben Textverarbeitung entwickelte sich insbesondere die Tabellenkalkulation zur wesentlichen PC-Anwendung, mit der aufwendige "Was-wäre-wenn-Simulationen" berechnet werden können.

Commodore PETIn Deutschland wurde 1978 mit dem PET 2001 von Commodore der erste Computer dieser Kategorie präsentiert (siehe rechts).

Soweit die Vergangenheit. Die Gegenwart begann 1978 / 1979 mit dem INTEL 8086 / 8088, einem 16-bit-Prozessor. Der 8088 war ein Zwitter, denn er entsprach nach außen hin noch einem 8-bit Prozessor (8-bit Datenbus), aber intern arbeitete er bereits mit 16-bit, was kürzere Berechnungszeiten und die Adressierung von mehr Arbeitsspeicher (RAM) ermöglichte. Der (ältere) 8086 war der erste echte 16-bit Prozessor (mit 16-bit breitem Datenbus), zu dem der heutige PENTIUM III-Prozessor in seinen Grundzügen immer noch kompatibel ist!

Mit 29.000 Transistoren war er um den Faktor 12 umfangreicher bestückt als sein Urahn, der 4004. Ziel der weiteren Entwicklung wurden durch die höhere Adressierbarkeit nicht nur schnellere und leistungsfähigere Prozessoren, sondern auch Speicherchips, die auf weniger Raum mehr Daten unterbringen können. Vorläufiger Höhepunkt war die Aufnahme der Serienfertigung eines 1-Megabit-Chips im Juni 1986. (Ein Text zum Schmunzeln aus dem Jahr 1983:Der IBM-Personal Computer XT und MS-DOS 2.00)

Der SIRIUS 1 war einer der ersten Computer, der mit der 16-bit Technologie von INTEL ausgestattet war (8088). Dazu kam eine Hardwareumgebung, die damals (Anfang der 80er Jahre) ihresgleichen suchte. Der hochauflösende Bildschirm machte zum erstenmal Grafik im PC-Bereich sinnvoll, die Tastatur war professionell und umfangreich ausgelegt, und die Massenspeicher - inzwischen hatte man Floppy- und Festplattenlaufwerke entwickelt - konnten auch längere Texte, wie sie z.B. bei Ausschreibungen anfallen, sinnvoll konservieren.

Angestachelt durch den Erfolg der anderen Firmen stieg IBM 1981 in das PC-Geschäft ein und rollte den Markt mit Hilfe von Microsoft und Intel von hinten auf. (Übrigens: Der Motorola-Prozessor 68000 war zu dieser Zeit zwar leistungsfähiger als der INTEL-Prozessor. Motorola konnte aber nicht liefern; deshalb beschloß IBM, seinen PC mit INTELs 8088 auszustatten.) Als IBM-Partner stieg Intel zum weltgrößten Chip-Produzenten im 20. Jahrtausend auf; und der schmächtige Schüler Bill Gates von einst entwickelte sich mit seiner Vision von "einem PC in jedem Haushalt" in den achtziger und neunziger Jahren zur wichtigsten (und reichsten) Computer-Persönlichkeit der Welt.

Mit dem Einstieg der Firma IBM wurde der recht hohe Technologiestand des SIRIUS 1 umgeworfen. Kleiner Arbeitsspeicher, kleine und laute Floppylaufwerke (Speicherkapazität 360 KB beim IBM entgegen 1,2 MB beim SIRIUS), kleine Tastatur (weniger Tasten), fester Zeichensatz, fehlende Grafikmöglichkeit, die nur mit Erweiterungskarten geschaffen werden konnte, und einige andere Rückschritte wurden zum Industriestandard. IBM konnte es sich auch leisten, seinen PC mit dem biederen 8088 und langsamen 4,77 MHz Taktfrequenz auszustatten, anstatt durch den Einsatz des "rassigen" 8086 und einer höheren Taktfrequenz den Stand der Technik auszuschöpfen, wie es die italienische Firma Olivetti mit ihrem PC M24 oder asiatische IBM-Abgucker gemacht haben.

Weiterentwicklungen des 8086 brachten eine erweiterten Befehlssatz (80186) und erfüllen nun die Anforderungen neuer Betriebssysteme, die Multi-User und Multi-Tasking ermöglichen (80286 und Motorola 68000). Nach "PC" (Personal Computer) etablierte sich mit "AT" (advanced technology auf der Basis des 80286) - vorübergehend - eine neue Abkürzung auf dem Typenschild, nach der sich jeder Computer sehnte (siehe auch PC, Prozessor- Geschichte).

Ende der 80er Jahren ging die Entwicklung zwei parallele Wege, die sich aus heutiger Sicht aber durchaus verbinden lassen.

  • Der erste Weg ist die logische und konsequente Weiterverfolgung der 4-8-16-bit Richtung mit dem Einsatz von 32-bit-Prozessoren. Während INTEL aber weiterhin auf die 80x86 Baureihe setzte (der 80386 wurde gerade in ersten Prototypen vorgestellt und der 80486 war in der Entwicklung) und wegen der "Rückwärts"-Kompatibilität Kompromisse eingehen mußte, lieferte Motorola schon seit längerer Zeit 32-bit Prozessoren: den 68000 als 16/32-bit-Prozessor oder den 68020 als echten 32-bit-Prozessor.
  • Der zweite Weg verfolgt eine Idee, nach der eine vereinfachte Chiparchitektur schnellere Verarbeitungszeiten zuläßt. Die RISC-Technologie (RISC steht für "Reduced Instruction Set Computer") wurde in den siebziger Jahren von IBM-Technikern entwickelt, um besonders rechenintensive Applikationen besser unterstützen zu können. Während übliche Prozessoren wie die 80x86-Reihe mit einem Reservoir von Befehlen aufwarten (CISC), die in der Praxis jedoch nur selten im vollen Umfang genutzt werden (aber die Programmierung vereinfachen), besteht das RISC-Grundprinzip darin, daß der Befehlssatz des RISC-Prozessors auf die unbedingt notwendigen Kommandos beschränkt ist. Durch die, bezogen auf den praktischen Anwendungsgrad, sinkende Redundanz (Überreichlichkeit, Üppigkeit) werden die Dekodierzeiten während der Laufzeit deutlich verkürzt. Auf der anderen Seite müssen sich die Programmierer eines RISC-Systems hinsichtlich der Programmiertechnik umstellen, denn die bislang vom Prozessor gebotenen Funktionen müssen nun per Programm emuliert werden. Weitere Geschwindigkeitssteigerungen erreichte man durch kürzere Signallaufzeiten, da der Chip auf Grund des geringeren Befehlsunfangs kleiner ist, und das Rechnen im Pipelining.
    IBMs erster RISC-Computer wurde auf der CeBIT 1986 als IBM RT vorgestellt worden. IBM sah die Anwendungsmöglichkeiten vor allem im rechenintensiven CAD/CAM-Bereich. Die Geschichte weiß, daß sich diese Technologie gegenüber den INTEL-Entwicklungen nicht durchsetzen konnte.

Parallel zu der bisher beschriebenen Entwicklung, die zum PENTIUM-PC führte, hat man die mittlere Datentechnik und Großcomputer-Entwicklungen ständig weitergetrieben. Auch wenn der PC immer mehr in deren Terrain einbricht, waren für Simulationen, filmreife Animationen und große Datenbank-Anwendungen bei Banken oder Versicherungen diese Boliden lange Zeit notwendig (siehe auch Rechengeschwindigkeit).

Der Computer-Boom der 90er Jahre kannte keine Grenzen: Erstmals wurde die Informationstechnik und Telekommunikation 1999 in Deutschland mit mehr als 200 Milliarden DM Umsatz den Automobilmarkt überholen. Allein 1998 wurden nach Schätzungen knapp 5,6 Millionen neue PC verkauft.

Gebremst wurde diese Entwicklung nur vom Mangel an Personal. Während andere Branchen ihre Beschäftigten vor die Tür setzen mußten, suchte die Informationstechnologie händeringend nach Fachleuten. Schätzungen zufolge waren in Europa etwa 370.000 Stellen offen. Die Fachleute fehlten am Ende des Jahrtausends vor allem zur Lösung des gefürchteten Jahr-2000-Problems (Y2K).

Der Chip steckt inzwischen längst nicht mehr nur in den Computern: Auch Waschmaschinen, Autos, Fernseher werden vom Chip gesteuert. Ohne Mikroprozessoren gäbe es keine Mobiltelefone, Airbags oder Mikrowellengeräte.

Einen weiteren Schub erfuhr die Computerindustrie zudem Ende der 90er Jahre, als das Computernetzwerk Internet durch grafische Benutzerprogramme ("Browser") für ein Massenpublikum interessant wurde. Was einst für militärische und wissenschaftliche Zwecke entworfen wurde, entwickelte sich innerhalb weniger Jahre zum weltweiten Kommunikationsnetz für Millionen Nutzer. In der virtuellen Welt treffen sie sich zum Plaudern mit anderen "Usern", erledigen Einkäufe oder Bankgeschäfte vom Sofa aus oder schreiben E-Mails an Freunde in aller Welt.

Wie sehr die Technik inzwischen in den Alltag eingegriffen hat, fällt aber meist erst auf, wenn sie plötzlich nicht mehr funktioniert. Ein Autofahrer fiel im Dezember 1998 mit seinem Glauben an die Technik ins Wasser: Sein automatisches Navigationssystem im Wagen hatte einen Fluß in dem Ort Caputh in Ostdeutschland nicht erkannt und ihn direkt in den Fluß Havel geleitet.

"Die Menschen werden die Computer lieber mögen, wenn die Computer die Menschen besser verstehen." (Marvinn Minsky, Medialab-Professeor, Orakel und Übervater der künstlichen Intelligenz)

Was bringt die weitere Zukunft? Allmählich erreicht man die physikalischen Grenzen der Miniaturisierung, und auch der Strom kann nicht schneller fließen, als er es ohnehin schon tut. Man experimentiert deshalb mit Licht, Chemie und Biologie und versucht, grundsätzlich neue Ansätze zu finden. Mehr will man aber auch mit der alten Technik erreichen. Der Grundgedanke liegt nahe und könnte von der Baustelle übernommen sein: Wenn ein Arbeiter die verlangte Arbeit nicht leisten kann, dann müssen eben mehrere die Arbeit gleichzeitig machen. Die Planungen reichen bis zu 250.000 parallel arbeitenden Arbeitern - Prozessoren. Das Problem liegt dabei weniger auf der Hardwareseite als bei der Software, die die parallelen Prozesse aufeinander abstimmen muß.

Man erwartet von der neuen Rechnergeneration nicht nur höhere Geschwindigkeiten, größere Toleranzen und höhere Ausfallsicherheiten, sondern glaubt an Einsatzmöglichkeiten in ganz neuen Bereichen. Abgesehen von dem weiten Feld der "künstlichen Intelligenz" (KI), die wie ein Damokles-Schwert über Anhängern und Gegnern hängt, könnten die neuen Computer dem Menschen allgemein und besonders dem Architekten um eine Eigenschaft näher kommen, die bisher dem Computer noch völlig verschlossen blieb: das Erfassen komplexer Zusammenhänge. Bisher konnte der Computer zwar große Datenmengen in relativ kurzer Zeit bearbeiten aber nur in der Form von "0" und "1". Einen Gesamteindruck von den gegenüber der Vorlage abweichenden Details kann er aber kaum erfassen und auswerten.

siehe auch

(zurück) zum Glossar:
  

    


 

 
siehe auch (auf anderen Seiten):

Apple
BIOS
Computer-Bus
IC - integrierte Schaltung
Gottfried Wilhelm Leibniz
PC, Compter im Einsatz
PC 99
Prozessor
etwas Prozessorgeschichte
etwas zum Schmunzeln aus dem Jahr 1983:
    IBM-Personal Computer XT und MS-DOS 2.00
Server / Web-Server

Shops zum Thema:

  • Conrad.com - Computer-Shop
  • Mercateo.com - Online-Beschaffungsplattform speziell für kleine und Mittelständische Unternehmen sowie Freiberufler!
     
Bücher zum Thema:


Bestellungen aus Deutschland werden von unserem Partner AMAZON.de versandkostenfrei
und ohne Mindestbestellwert bearbeitet!

Noch mehr ausgewählte Bücher gibt es bei BAUBUCH.de.

 

 

3788602775.jpg (4754 Byte) Infos / BestellungWas ist was? Band 37: Computer und Roboter  
Volker Korndörfer

Gebundene Ausgabe - 48 Seiten
Tessloff Vlg., Nürnb.; ISBN: 3788602775
Preis:  DM 16,80 (EUR 8,59)

Eine lautlose Revolution geht in unserer Arbeitswelt vor sich: Sie geht aus von den Rechenanlagen, von den Computern, die Arbeiten von einem Umfang, mit einer Präzision und Schnelligkeit leisten, die sich der Mensch bis vor kurzem nicht träumen ließ. Nur mit diesen Maschinen ist es möglich geworden, daß der Mensch den Mond betrat und daß Satelliten die Erde umkreisen. Werden diese phantastischen Maschinen eines Tages dem Menschen entgleiten und vielleicht unsagbares Unheil anrichten? Diese und andere Fragen, die mit dem Vordringen der Computer zusammenhängen, finden wir hier beantwortet. Es wird genau erklärt, nach welchem System diese Maschinen funktionieren, wie sie aufgebaut sind und wie sie "denken".


Infos / BestellungWas ist was? Band 100: Multimedia und virtuelle Welten.
Andreas Schmenk, Arno Wätjen, Rainer Köthe

1995. Gebundene Ausgabe - 48 Seiten
Tessloff Vlg., Nürnb.; ISBN: 3788606630
Preis:  DM 16,80 (EUR 8,59)

Die Zeiten, als auf Computerbildschirmen nur Texte und Zahlen in grüner oder bernsteingelber Schrift flimmerten, sind längst vorbei. Heute kann sich jeder per Mausklick bunte Bilder, Videos und Trickfilme auf den Bildschirm holen, aus dem Lautsprecher kommen Musik, Geräusche und Sprache in Stereo. Das Stichwort heißt Multimedia.
Dieser Band 100 der WAS IST WAS-Reihe erklärt anschaulich und mit vielen Beispielen die spannende Welt der Multimedia: Computerspiele, Lernprogramme, die (fast) unbegrenzten Möglichkeiten erdumspannender Computernetze und die faszinierenden virtuellen Welten des Cyberspace. Einen ersten Eindruck von den Möglichkeiten der Multimedia-Zukunft vermittelt die CD-ROM, die diesem Band in der Erstauflage beiliegt.

Copyright: Alfons Oebbeke, Neustadt 1997-2000
Navigation ohne Frames:

 
Glossar - Homepage - Linkseite - Suchen im ARCHmatic-Web-Pool (funktioniert nur im Online-Modus!!!) E-Mail-Kontakt - Gästebuch: Ihre/Deine Meinung auf neutralem Boden bei ZDNet.de ! -AEC-WEB (funktioniert nur im Online-Modus!!!)
# A B C D E F G H I J K L M N O P Q R S T U V W X Y Z