![]() |
||
http://www.glossar.de/glossar/z_computer.htm Übersicht:
|
Es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller
entwickelt hat als die Computer- |
|
|
Auf der 15. Mannheimer Supercomputer- |
Der legendärste Supercomputer war die nach seinem Erfinder Seymour Cray genannte Cray-1. Er wurde 1976 installiert und war der erste Supercomputer mit Vektorverarbeitung. Die weiterentwickelte Cray X-MP Serie verwirklichte Mehrprozessorarchitektur. (Die Firma Cray wurde zwischenzeitlich von SGI gekauft und an Tera Computer weitergegeben.)
1999 / 2000 kommt der leistungsfähigste Superrechner aus dem Hause INTEL: Der ASCI Red dient der Simulation
von Atombombenexplosionen und setzt dazu 9.472 Prozessoren ein. Er steht in den Sandia National Labs in Albuquerque, New
Mexico, und leistet 2,4 tausend Gigaflops. Bis
2005 will IBM einen nochmals um den Faktor 500 schnelleren "Petaflops"-
Übrigens: Im September 1999 stellte Apple den Power
Mac G4 mit "Velocity Engine" vor. Er erreichte als erster PC
überhaupt den Leistungsbereich eines sogenannten. "Supercomputers". Mit mehr
als einer Milliarde Fließkomma-
siehe auch:
neuer schnellster Rechner der Welt mit IBM hat Mitte 2000 mal wieder einen "schnellsten Rechner der Welt" vorgestellt. Der "RS/6000 ASCI White" besteht ...
Der ASCI White leistet damit 12,3 Billionen Teraflops oder 12,3 Billionen Fließkomma- Für den Transport vom Bundesstaat New York nach Kalifornien werden 28 LKW- Auftraggeber und künftiger Nutzer des Super-Rechners ist die Accelerated Strategic
Computer Initiative (ASCI) des US- Im Juli 2000 hat IBM zudem eine kommerzielle Version des Super- Seit 1999 gilt IBM als Marktführer bei der Herstellung von Super- |
Der (vorübergehend) schnellste zivile
Supercomputer der Welt steht in München Möglicherweise der schnellste Hochleistungsrechner der Welt im zivilen Bereich steht
jetzt in München - bis zum nächsten "schnellsten Comupter". Der Supercomputer
SR800 F1 soll im Endausbau über 1.512 Prozessoren mit 168 Knoten verfügen. Jeder
Prozessor ist mit acht Gigabyte Hauptspeicher ausgestattet. Zur Inbetriebnahme Ende März
verfügte der Rechner über 112 Knoten, von denen jeder rund 3.000 Megaflops ausführen kann. Die Spitzengeschwindigkeit
beträgt 12.000 Megaflops. Bei der Vorstellung im Münchner Leibniz- Den neuen Rechner, dessen Kosten bei 90 Millionen Mark liegen, können Wissenschaftler
aus ganz Deutschland nutzen, wenn ihre Rechenoperationen von keinem anderen Computer in
vertretbarer Zeit durchgeführt werden können. In einem Testlauf mit einem Programm aus
der Quantenchemie sei der Rechner mit 490 Gigaflops gelaufen. Für dieselbe Rechenleistung
hätten über 8.100 Personal- Bei der offiziellen Inbetriebnahme des Superrechner am 28.6. schaffte er 1
Billion Rechenoperationen pro Sekunde und "steht damit an fünfter Stelle
weltweit", sagte Bayerns Wissenschaftsminister Hans Zehetmair (CSU). |
Compaq spezifiziert neuen Supercomputer: Zur CeBIT 2000 kündigte Compaq einen neuen Supercomputer mit 2000 Alpha-Chips auf Kupferbasis und jeweils 1,25 GHz an.
Alternativ könnten 2500 Aluminium- |
IBM baut Kupfer-Supercomputer mit 1152
Kupferchips IBM hat am 9.2. einen neuen Supercomputer vorgestellt, der erstmals auf Kupferbasis
operiert. Der RS/6000 SP genannte Bolide ist mit Power3- Die Power3- Erst Anfang der Woche hatten die IBM-Entwickler einen Durchbruch bei ihren Bemühungen
um eine schnellere Chip- Mit der Kupfertechnologie hat IBMs SOI-Verfahren aber prinzipiell nichts zu tun: Kupfer
als Ersatz für Aluminium macht die Verdrahtung effizienter, SOI verbessert die
Transistoren. "Die Kombination aus beiden macht's", kommentiert der
IBM-Technologe Dennis Cox. |
Schnellster Computer Europas entsteht in Amsterdam Der schnellste Supercomputer Europas mit der Kapazität für etwa 1.000 Milliarden Rechenvorgängen pro Sekunde soll im November 2000 in Amsterdam in Betrieb genommen werden. Der Rechner des amerikanischen Herstellers SGI vom Typ Scalable Node-1 (SN-1) wird in den kommenden Jahren das Zentrum der angewandten Forschung in den Niederlanden bilden, teilte die Vereinigung für wissenschaftliche Forschung (NWO) Anfang Februar in Den Haag mit. Der 30 Millionen Gulden (26,5 Millionen Mark) teure Computer ersetzt eine Anlage, die lediglich 12 Milliarden Berechnungen in einer Sekunde ausführen kann. (Zum Vergleich: die schnellsten PCs wie der G4 von Apple können Anfang 2000 eine Milliarde Rechenvorgängen pro Sekunde durchführen.) Der mit mehr als 1000 Prozessoren ausgerüstete SN-1-Computer verfügt über ein
Hauptspeicher von einer Million Megabyte. Er soll bei der Simulierung von biologischen,
chemischen, meteorologischen, medizinischen und anderen Systemen eingesetzt werden,
berichteten NWO- |
IBM plant Supercomputer 100 Millionen Dollar will sich IBM einen neuen Supercomputer kosten lassen, um den biologischen Prozess zu simulieren, durch den sich Aminosäuren in Proteine umwandeln Der Rechner namens "Blue Gene" soll über mehr als eine Million Prozessoren
verfügen (jeder davon wird nach IBM- Für die Entwicklung von Blue Gene wird IBM neue Standards für Computerarchitektur
entwickeln müssen, um die Superhochgeschwindigkeits- |
Er beherrscht ganze Konzerne, leitet Autofahrer aus dem Stau, gehört zu den liebsten Spielkameraden von Kindern und knackt selbst die schwierigsten Rechenaufgaben. Der unumstrittene Held des 20. Jahrhunderts hat einen Namen: Der Computer. Und es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller entwickelt hat als die Computertechnologie. Wenige andere Erfindungen haben das 20. Jahrhundert so sehr beherrscht und den Alltag der Menschen so weitreichend verändert.
(Vermutlich) den Anfang machte der 25-jähriger Amerikaner Herman Hollerith. 1880 baute er zur Auswertung der amerikanischen Volkszählung eine Maschine, die auf elektromechanischer Basis doppelt so schnell zählen konnte wie ein Mensch. Der Rechner verwendete Babbages Lochkartentechnologie. Hollerith nannte seine Firma übrigens International Business Machines Corporation, oder kurz IBM (siehe auch Gottfried Wilhelm Leibniz).
Ein britischer Fernmeldeingenieur hat im Zweiten Weltkrieg einen der ersten Computer (den ersten?) der Welt gebaut, um Funksprüche der deutschen Wehrmacht zu entschlüsseln.Wie die französische Fachzeitschrift "Sciences et Vie Micro" 1999 in ihrer Juniausgabe berichtete, wäre die Landung der Alliierten in der Normandie 1944 ohne den Rechner mit dem Namen "Colossus" undenkbar gewesen. Das sechs Meter lange und 2,5 Meter hohe Ungetüm wurde jetzt anhand von Bildern und Zeitzeugenberichten in der Nähe von London wieder aufgebaut. "Colossus" sei so erfolgreich gewesen, daß der britische Premierminister Winston Churchill ihn nach dem Krieg habe zerstören lassen, berichtet der Autor Emile Servan-Schreiber in der Zeitschrift. Niemand habe wissen sollen, wie die Alliierten den Krieg gewonnen hätten, für den Fall, daß die "Heldentat" noch einmal hätte vollbracht werden müssen. Das Riesengerät funktioniert mit 2500 Elektronenröhren und hat einen 25-Bit-Arbeitsspeicher. In den 40er Jahren konnten damit deutsche Funksprüche binnen zwei Tagen entschlüsselt werden. Per Hand wären mehrere Monate nötig gewesen. Zwischen Januar und Juni 1944, also während der Vorbereitungszeit für die Landung der Alliierten, seien so jede Woche rund hundert Nachrichten entschlüsselt worden.
Der deutsche Ingenieur Konrad Zuse entwickelte 1941 den ersten
vollautomatischen, frei programmierbaren Computer der Welt. Zuses Z3 hatte eine
Speicherkapazität von 64 Wörtern und konnte in drei Sekunden Multiplizieren, Dividieren
oder Quadratwurzeln ziehen. Parallel zu Zuse entwarf der amerikanische Physiker John
Atanasoff den ersten digitalen elektronischen Computer. Spätestens mit dem Erfolg des
Rechners ENIAC, mit dem das US-
"Ich glaube es gibt
einen weltweiten Bedarf an vielleicht fünf Computern" (Thomas Watson, IBM-Chef, 1943) "In Zukunft könnte es
Computer geben, die weniger als 1,5 Tonnen wiegen" |
In der zweiten Hälfte der 40er Jahren wurden die ersten (tonnenschweren) programmgesteuerten Rechner installiert, mit denen man endlich die Lösungen der "Traumprobleme der Mathematiker" in Angriff nehmen konnte: der SSEC der Firma IBM, in dessen Inneren 12.500 Röhren und 21.400 Relais schalteten wie walteten und der für den Programmablauf 36 Lochstreifenleser benötigte, begann 1947 mit der Berechnung der Mondflugbahn (1947 wurde auch der Transistor erfunden). 1951 wurde zum ersten Male ein Computer in Serie gebaut. Er benötigte für eine Multiplikation 0,025 Sekunden. Die Daten wurden nun nicht mehr nur auf Lochstreifen gespeichert, sondern auch auf Magnetplatten und -bändern. Durch ihre Einführung konnten die anfallenden Datenmengen sinnvoll mit geringen Zugriffszeiten und entsprechender Platzersparnis gespeichert und verwaltet werden.
"Ich
habe das ganze Land bereist und mit allen Experten gsprochen, und ich sage Ihnen:
Datenverarbeitung ist ein Modefimmel, der nicht einmal das Jahr überstehen wird." (Lektor für Wirtschaftsbücher beim Verlag Prentice Hall, 1957) |
Als 1958 erfunden wurde, arbeiteten weltweit 1.300 Computer. Die neue Technologie ermöglichte nun kleinere, stromsparendere, schnellere, kühlere und damit preiswertere Rechner: die Stückzahlen wurden fünfstellig. Datentransfer und schnellere Peripherie machten die erwachsen werdende Technologie für den kommerziellen Anwender interessant. Die treibende Kraft in der Weiterentwicklung blieben aber die exotischen Anwendungswünsche wie das Apollo-Programm der 60er Jahre. 1969 waren der Stand der Technik monolithische Schaltkreise, auf denen bei 1 qmm Fläche 25 Transistoren und 40 Widerstände Platz fanden.
IBM war Mitte der 60er Jahre Vorreiter bei der Entwicklung der dritten Computer-Generation, die erstmals integrierte Schaltkreise (ICs / Chips) nutzte. Damit konnten die Ingenieure den Computer besser an bestimmte Aufgaben anpassen, als noch mit Röhren und Transistoren. Außerdem schrumpfte die Größe der Rechner dramatisch, während gleichzeitig die Zuverlässigkeit deutlich zunahm.
"Für eine Garage hatten wir gar kein Geld." (Michael Dell, Gründer von DELL) |
In den 70er Jahren setzte sich der Trend zu immer preiswerteren Computern durch den Einsatz der ICs weiter fort, und es vollzog sich eine Trennung in der Entwicklung neuerer Geräte, die vergleichbar ist mit der Entwicklung vom Ur-Benz zum VW-Golf (Personal-Computer [PC]) bzw. Ferrari (Groß- und "Super"-Computer).
Einen Meilenstein in
der Entwicklung zum heute bekannten PC bildet der erste Mikroprozessor, den INTEL 1971 vorstellt: die miniaturisierte Rechner-
1975 die Firma MITS aus
New Mexico mit dem Modell "Altair 8800", ein INTEL 8080-
Mehr Erfolg hatten drei andere Unternehmen: Commodore, Tandy und Apple
Computer (1976 von Steven Jobs und Steve Wozniak gegründet). Sie stellten 1977
ihre ersten kleinen Computer vor. Es waren Geräte von Bastlern, Freaks und "Hackern" für eben die selben. Die
Geschäftsführung war improvisiert und laienhaft. Neben Textverarbeitung entwickelte sich
insbesondere die Tabellenkalkulation zur wesentlichen PC-
In
Deutschland wurde 1978 mit dem PET 2001 von Commodore der erste Computer dieser
Kategorie präsentiert (siehe rechts).
Soweit die Vergangenheit. Die Gegenwart begann 1978 / 1979 mit dem INTEL
8086 / 8088, einem 16-bit-Prozessor. Der 8088 war ein Zwitter, denn er entsprach nach
außen hin noch einem 8-
Mit 29.000 Transistoren war er um den Faktor 12 umfangreicher bestückt als sein Urahn, der 4004. Ziel der weiteren Entwicklung wurden durch die höhere Adressierbarkeit nicht nur schnellere und leistungsfähigere Prozessoren, sondern auch Speicherchips, die auf weniger Raum mehr Daten unterbringen können. Vorläufiger Höhepunkt war die Aufnahme der Serienfertigung eines 1-Megabit-Chips im Juni 1986. (Ein Text zum Schmunzeln aus dem Jahr 1983:Der IBM-Personal Computer XT und MS-DOS 2.00)
Der SIRIUS 1 war einer der ersten Computer, der mit der 16-bit Technologie von INTEL ausgestattet war (8088). Dazu kam eine Hardwareumgebung, die damals (Anfang der 80er Jahre) ihresgleichen suchte. Der hochauflösende Bildschirm machte zum erstenmal Grafik im PC-Bereich sinnvoll, die Tastatur war professionell und umfangreich ausgelegt, und die Massenspeicher - inzwischen hatte man Floppy- und Festplattenlaufwerke entwickelt - konnten auch längere Texte, wie sie z.B. bei Ausschreibungen anfallen, sinnvoll konservieren.
Angestachelt durch den
Erfolg der anderen Firmen stieg IBM 1981 in das PC-Geschäft ein und rollte den Markt mit
Hilfe von Microsoft und Intel von hinten auf. (Übrigens: Der Motorola-
Mit dem Einstieg der Firma IBM wurde der recht hohe Technologiestand des SIRIUS 1 umgeworfen. Kleiner Arbeitsspeicher, kleine und laute Floppylaufwerke (Speicherkapazität 360 KB beim IBM entgegen 1,2 MB beim SIRIUS), kleine Tastatur (weniger Tasten), fester Zeichensatz, fehlende Grafikmöglichkeit, die nur mit Erweiterungskarten geschaffen werden konnte, und einige andere Rückschritte wurden zum Industriestandard. IBM konnte es sich auch leisten, seinen PC mit dem biederen 8088 und langsamen 4,77 MHz Taktfrequenz auszustatten, anstatt durch den Einsatz des "rassigen" 8086 und einer höheren Taktfrequenz den Stand der Technik auszuschöpfen, wie es die italienische Firma Olivetti mit ihrem PC M24 oder asiatische IBM-Abgucker gemacht haben.
Weiterentwicklungen des 8086 brachten eine erweiterten Befehlssatz (80186) und erfüllen nun die Anforderungen neuer Betriebssysteme, die Multi-User und Multi-Tasking ermöglichen (80286 und Motorola 68000). Nach "PC" (Personal Computer) etablierte sich mit "AT" (advanced technology auf der Basis des 80286) - vorübergehend - eine neue Abkürzung auf dem Typenschild, nach der sich jeder Computer sehnte (siehe auch PC, Prozessor- Geschichte).
Ende der 80er Jahren ging die Entwicklung zwei parallele Wege, die sich aus heutiger Sicht aber durchaus verbinden lassen.
Parallel zu der bisher beschriebenen Entwicklung, die zum PENTIUM-PC führte, hat man
die mittlere Datentechnik und Großcomputer-Entwicklungen ständig weitergetrieben. Auch
wenn der PC immer mehr in deren Terrain einbricht, waren für Simulationen, filmreife
Animationen und große Datenbank-
Der Computer-Boom der 90er Jahre kannte keine Grenzen: Erstmals wurde die Informationstechnik und Telekommunikation 1999 in Deutschland mit mehr als 200 Milliarden DM Umsatz den Automobilmarkt überholen. Allein 1998 wurden nach Schätzungen knapp 5,6 Millionen neue PC verkauft.
Gebremst wurde diese Entwicklung nur vom Mangel an Personal. Während andere Branchen ihre Beschäftigten vor die Tür setzen mußten, suchte die Informationstechnologie händeringend nach Fachleuten. Schätzungen zufolge waren in Europa etwa 370.000 Stellen offen. Die Fachleute fehlten am Ende des Jahrtausends vor allem zur Lösung des gefürchteten Jahr-2000-Problems (Y2K).
Der Chip steckt inzwischen längst nicht mehr nur in den Computern: Auch Waschmaschinen, Autos, Fernseher werden vom Chip gesteuert. Ohne Mikroprozessoren gäbe es keine Mobiltelefone, Airbags oder Mikrowellengeräte.
Einen weiteren Schub erfuhr die Computerindustrie zudem Ende der 90er Jahre, als das Computernetzwerk Internet durch grafische Benutzerprogramme ("Browser") für ein Massenpublikum interessant wurde. Was einst für militärische und wissenschaftliche Zwecke entworfen wurde, entwickelte sich innerhalb weniger Jahre zum weltweiten Kommunikationsnetz für Millionen Nutzer. In der virtuellen Welt treffen sie sich zum Plaudern mit anderen "Usern", erledigen Einkäufe oder Bankgeschäfte vom Sofa aus oder schreiben E-Mails an Freunde in aller Welt.
Wie sehr die Technik inzwischen in den Alltag eingegriffen hat, fällt aber meist erst auf, wenn sie plötzlich nicht mehr funktioniert. Ein Autofahrer fiel im Dezember 1998 mit seinem Glauben an die Technik ins Wasser: Sein automatisches Navigationssystem im Wagen hatte einen Fluß in dem Ort Caputh in Ostdeutschland nicht erkannt und ihn direkt in den Fluß Havel geleitet.
"Die Menschen werden die Computer lieber mögen, wenn die Computer die Menschen besser verstehen." (Marvinn Minsky, Medialab-Professeor, Orakel und Übervater der künstlichen Intelligenz) |
Was bringt die weitere Zukunft? Allmählich erreicht man die physikalischen Grenzen der Miniaturisierung, und auch der Strom kann nicht schneller fließen, als er es ohnehin schon tut. Man experimentiert deshalb mit Licht, Chemie und Biologie und versucht, grundsätzlich neue Ansätze zu finden. Mehr will man aber auch mit der alten Technik erreichen. Der Grundgedanke liegt nahe und könnte von der Baustelle übernommen sein: Wenn ein Arbeiter die verlangte Arbeit nicht leisten kann, dann müssen eben mehrere die Arbeit gleichzeitig machen. Die Planungen reichen bis zu 250.000 parallel arbeitenden Arbeitern - Prozessoren. Das Problem liegt dabei weniger auf der Hardwareseite als bei der Software, die die parallelen Prozesse aufeinander abstimmen muß.
Man erwartet von der neuen Rechnergeneration nicht nur höhere Geschwindigkeiten, größere Toleranzen und höhere Ausfallsicherheiten, sondern glaubt an Einsatzmöglichkeiten in ganz neuen Bereichen. Abgesehen von dem weiten Feld der "künstlichen Intelligenz" (KI), die wie ein Damokles-Schwert über Anhängern und Gegnern hängt, könnten die neuen Computer dem Menschen allgemein und besonders dem Architekten um eine Eigenschaft näher kommen, die bisher dem Computer noch völlig verschlossen blieb: das Erfassen komplexer Zusammenhänge. Bisher konnte der Computer zwar große Datenmengen in relativ kurzer Zeit bearbeiten aber nur in der Form von "0" und "1". Einen Gesamteindruck von den gegenüber der Vorlage abweichenden Details kann er aber kaum erfassen und auswerten.
siehe auch
|
|
Bücher zum Thema: | ||
Noch mehr ausgewählte Bücher gibt es bei BAUBUCH.de. |
|
Copyright: Alfons Oebbeke, Neustadt 1997-2000 |
![]() ![]() |
Navigation ohne Frames: |
|