Die Geschichte der Datenverarbeitung
Eine stichwortartige Zusammenfassung von den
Anfängen bis 2007
(ohne Anspruch auf Vollständigkeit / letzte Aktualisierung: 19.08.2020 )
Die Geschichte der Datenverarbeitung beginnt irgendwann, als Menschen eine Notwendigkeit für Rechnen und Logik bekamen.
Zeit |
Entwicklung |
etwa 5000 v.Chr. |
Der Mensch rechnet zum ersten Mal, wahrscheinlich in Mesopotamien. |
etwa 1350 v.Chr. |
Die Babylonier benutzten Tafeln zum Rechnen mit dem Einmaleins. |
etwa 1100 v.Chr. |
In China wurde eine dem heutigen Abakus ähnliche Rechenmaschine benutzt. Ursprünglich legte man Zahlenstäbchen auf bedruckte Tafeln. Später wurden durchbohrte Zählsteine auf Stäbchen hin- und hergeschoben. Das war bereits die Grundform eines Abakus. Diese Steine hatten jetzt eine klare, immer gleichbleibende Ordnung, ein Stellenwertsystem. Sie konnten nach eigener Idee, aber besser nach einer einheitlichen Rechenvorschrift verschoben werden. |
etwa 350 v.Chr. |
Aristoteles (Griechenland, 384 - 322 v.Chr.) begründet die formalen Gesetzmäßigkeiten der Logik. |
etwa 300 v.Chr. |
In Griechenland benutzt man zum Rechnen Bretter, auf denen Rechensteine gelegt werden. |
etwa 200 |
Rechenhilfen mechanischer Art (z.B. Abakus) werden im asiatischen Raum benutzt. |
etwa 1470 |
Schriftliche Rechenverfahren mit arabischen Ziffern kommen nach Deutschland. Bis dahin rechnete man hier mit den römischen Zahlen, was komplizierte Rechnungen schier unmöglich machte. |
1518 |
Buch des Adam Riese (Deutschland, 1492 - 1559) "Rechnung auff der linihen vnd federn" zu den Grundrechenarten erscheint. |
1600 |
Lord John Napier (auch "Neper", Großbritannien, 1550 - 1617) erfindet die "Rechenstäbchen" zum Multiplizieren. |
etwa 1605 |
Die Logarithmen werden unabhängig voneinander durch Lord Napier und Jobst Bürgi (Schweiz, 1552 - 1632) erfunden. |
1615 |
Die "Briggschen" oder "dekadischen Logarithmen" werden durch Henry Briggs (Großbritannien, 1561 - 1630) eingeführt. |
1623 |
Die erste Rechenmaschine ("Rechenuhr") der Welt wird von Wilhelm Schickard (auch "Schickhardt", Deutschland, 1592 - 1635) erbaut. Sie arbeitet mechanisch mit Zahnrädern und kann die vier Grundrechenarten, am besten die Addition und Subtraktion. |
1630 |
Der erste Rechenschieber wird benutzt. |
1642 |
Blaise Pascal (Frankreich, 1623 - 1682) baut eine Addiermaschine (für Addition und Subtraktion). Sie arbeitet mechanisch mit Zahnrädern. Andere Rechenarten sind nur schwer realisierbar. Es war praktisch der erste Taschenrechner der Welt.
|
1672 |
Gottfried Wilhelm Leibniz (Deutschland, 1646 - 1716) baut eine mechanische Rechenmaschine für die Grundrechenarten, die er in den folgenden Jahren verbessert. |
1679 |
Gottfried Wilhelm Leibniz stellt tiefgreifende mathematische Überlegungen zum Dualsystem an. |
18. und 19. Jahrhundert |
Rechenmaschinen werden bis zur Serienreife technisch weiterentwickelt. Der Bau von hinreichend kleinen und genauen Zahnradgetrieben bereitet dabei größte Probleme. Es gab damals halt weder Drehbänke noch elektrische Bohrmaschinen etc. - Der Rechenschieber wird aktuell. |
1833 |
Das Lebenswerk des Charles Babbage (Großbritannien, 1792 - 1871) ist die Entwicklung und der Bau einer "Analytischen Maschine", die alle Grundelemente eines modernen Computers enthält, aber auf rein mechanischer Basis. Die Maschine verfügte über eine Lochkartensteuerung. Sie wurde jedoch nie fertiggestellt, da man sie mechanisch nicht präzise genug bauen konnte. |
etwa 1847 |
George Boole (Großbritannien, 1815 - 1864) entwickelt die "Boolesche Algebra". |
1890 |
Hermann Hollerith (Deutschamerikaner, 1860 - 1929) nutzt die Lochkarte erstmals als Informationsspeicher bei der Volkszählung in den USA. |
1928 |
David Hilbert (Deutschland, 1862 - 1943) und W. Ackermann entwickeln auf der Grundlage der "Booleschen Algebra" logische Verknüpfungen. Mit deren Hilfe lassen sich in der Technik logische Impulsschaltungen auf dualer Basis beschreiben. |
1941 |
Konrad Zuse (Deutschland, 1910 - 1995) baut den ersten funktionstüchtigen, programmgesteuerten Rechenautomaten der Welt, den "Z3". Er hatte 2.600 elektromagnetische Relais, war lochkartengesteuert, schaffte zwanzig Additionen pro Sekunde, eine Multiplikation in fünf Sekunden und war wandschrankgroß. |
1944 |
Howard Hathaway Aiken (USA, 1900 - 1973) baut mit C. D. Lake, B. M. Durfree und F. E. Hamilton den ersten programmgesteuerten Rechenautomaten der Welt, den "Mark I". Er arbeitet auf mechanisch-elektromagnetischer Basis (Relaistechnik), besteht aus 70.000 Einzelteilen, darunter 3.000 Kugellager und 80 km Draht. Er addiert 23 Zahlen in einer Zehntel Sekunde, multipliziert in sechs Sekunden. Er hat das Format eines Schrankes mit einer Länge von 15 m und einer Höhe von 2,5 m. |
1946 |
Der "UNIVAC I" aus den USA ist einer der ersten Computer der Welt, der auf dem Markt käuflich zu erwerben ist. Hiervon wurden mehr als 40 Stück verkauft. Der "ENIAC" (USA) ist der erste elektronische Rechner mit Röhrentechnik. Er wurde von Presper Eckert und John Mauchly erstellt. Er ist aus 18000 Elektronenröhren erbaut, die eine gewaltige Wärmeentwicklung während des Betriebes entwickeln. Das Hauptproblem stellt das Wechseln kaputter Röhren dar. Der "ENIAC" füllt mit seinen 30 Tonnen Gewicht einen ganzen Saal. Der Stromverbrauch liegt bei 150 kW, dafür schafft er 5.000 Additionen pro Sekunde. |
1948 |
Der Transistor wird in den "Bell Telephone Laboratories" (USA) erfunden. Er hatte immerhin Handgröße. |
ab etwa 1950 |
Der "UNIVAC" (USA) ist der erste Computer auf Transistor-Basis. Sein Vorteil liegt darin, dass Transistoren noch schneller arbeiten und wesentlich weniger Energie verbrauchen als bei der Röhrentechnik. |
1954 |
John W. Backus entwickelt bis 1959 die Programmiersprache "FORTRAN (FORmula TRANslator)", die die schier endlose Eingabe von Nullen und Einsen in die Rechner ablöst. |
ab 1959 |
Erste "Chips" entstehen in den Labors von "Texas Instruments" (Jack Kilby und Robert Noyce). |
ab etwa 1964 |
"Integrierte Schaltkreise (IC)" werden entwickelt. Ehemals Großrechner werden nun taschenrechnergroß und arbeiten mit Batterien. Bis zu 1.000.000 Additionen pro Sekunde sind möglich geworden. Eine rasante weitere Entwicklung in der Datenverarbeitung setzt durch die IC-Technik ein. Man verwendet eine 65-Nanometer-Technologie für die "Chips" (ein Nanometer entspricht einem Milliardstel Meter). |
1970 |
Bisher unterhielt das us-amerikanische Militär ein Netz, um die Kommunikation während und nach einem Nuklearangriff offen zu halten. 1970 stellte das Militär dieses Netz für die zivile Nutzug bereit. Später entwickelte sich daraus das "world wide web", das "Internet". |
1971 |
Am 15. November bringt Intel den ersten "Mikroprozessor" der Welt heraus, den "4004". Ein Mikroprozessor kann jetzt ein komplettes kleineres Computersystem enthalten. Computer werden dadurch noch kleiner und schneller als jemals zuvor. Mehrere Millionen Rechenoperationen pro Sekunde und 200.000 Additionen pro Sekunde sind möglich. Diese Technik ermöglicht den billigen Bau von Taschen-, Heim- und Personalcomputern (PC). |
1974 |
Für das 1970 vom Militär zur zivilen Nutzung bereitgestellte Netz wurden erste Programme geschrieben, die die verschiedenen Netze miteinander verbinden. Das "Internet" war geboren. |
17.08.1982 |
Dieser Tag gilt als Einführung des digitalen Zeitalters in der Musikbrache. Die erste CD ("Compact Disc") wurde serienmäßig in einem Unternehmen des Philips-Konzerns hergestellt, übrigens bespielt mit klassischer Musik. Ursprünglich hielt man die CD für einen Flop, der sich schnell am Markt erledigen würde, aber 25 Jahre später hatten die Konzerne fast 100 Milliarden Musik-CD´s verkauft. Heutzutage ist die CD als Speichermedium, seine Weiterentwicklung als DVD ("Digital Versatile Disc"), aus dem Bereich der Computer als Speichermedium kaum wegzudenken. |
1984 |
Ein Mikroprozessor enthält bereits etwa 1.000.000 Bauelemente. |
1987 |
Der 1-Mb-Chip (Mega = 1 . 10 6) kommt auf den Markt. |
1987 |
Das erste Computervirus im Internet wird entdeckt. |
90er Jahre |
In den letzten zehn Jahren des 20. Jahrhunderts setzt in der Datenverarbeitung eine rasante technische Entwicklung, insbesondere eine Miniaturisierung ein. |
1997 |
Einem Schachcomputer gelang es erstmalig einen amtierenden Schachgroßmeister (Garri Kimowitsch Kasparow) in einer Partie, unter regulären Wettkampfbedingungen, zu besiegen. Es war der von IBM entwickelte Schachcomputer "Deep Blue". Im Jahr 1998 gewann Deep Blue einen gesamten Wettkampf gegen Kasparow. |
1999 |
Im Oktober stellte Intel einen neuen Chip vor, der mit Geschwindigkeiten von bis zu 733 Megahertz (733 . 10 6) arbeitet. |
2007 |
Die jap. Fa. Hitachi will mit einen Festplattenspeicher mit einem Terabyte (Tera = 1 . 10 12) Speicherkapazität auf den Markt kommen. In der zweiten Jahreshälfte bzw. Ende des Jahres will man mit einem "45-Nanometer-Chip" herauskommen (1 Nanometer entspricht einem Milliardstel Meter, Nano = 1 . 10 - 9). Er wurde unabhängig von den Firmen IBM und Intel entwickelt. Zum Vergleich, es sollen dann 30 000 Transistoren auf einen Stecknadelkopf passen. Jeder Transistor soll in einer Sekunde rund 300 Milliarden mal an- und ausgeschaltet werden können. |
Wesentliche Teile des Artikels wurden
veröffentlicht in:
Rolf Fraedrich, Die Geschichte der
Datenverarbeitung, in: Lehrmittel aktuell, 1991, Heft 4, Seite 8
- 10, Westermann Schulbuchverlag GmbH
Literatur:
- Weser-Kurier, Tageszeitung für Bremen und
Niedersachsen, ab Okt. 1999
- www.wissen.de