Die Geschichte der Datenverarbeitung
Eine stichwortartige Zusammenfassung von den Anfängen bis 2007

(ohne Anspruch auf Vollständigkeit / letzte Aktualisierung: 19.08.2020 )

Die Geschichte der Datenverarbeitung beginnt irgendwann, als Menschen eine Notwendigkeit für Rechnen und Logik bekamen.

Zeit

Entwicklung

etwa 5000 v.Chr.

Der Mensch rechnet zum ersten Mal, wahrscheinlich in Mesopotamien.

etwa 1350 v.Chr.

Die Babylonier benutzten Tafeln zum Rechnen mit dem Einmaleins.

etwa 1100 v.Chr.

In China wurde eine dem heutigen Abakus ähnliche Rechenmaschine benutzt. Ursprünglich legte man Zahlenstäbchen auf bedruckte Tafeln. Später wurden durchbohrte Zählsteine auf Stäbchen hin- und hergeschoben. Das war bereits die Grundform eines Abakus. Diese Steine hatten jetzt eine klare, immer gleichbleibende Ordnung, ein Stellenwertsystem. Sie konnten nach eigener Idee, aber besser nach einer einheitlichen Rechenvorschrift verschoben werden.

etwa 350 v.Chr.

Aristoteles (Griechenland, 384 - 322 v.Chr.) begründet die formalen Gesetzmäßigkeiten der Logik.

etwa 300 v.Chr.

In Griechenland benutzt man zum Rechnen Bretter, auf denen Rechensteine gelegt werden.

etwa 200

Rechenhilfen mechanischer Art (z.B. Abakus) werden im asiatischen Raum benutzt.

etwa 1470

Schriftliche Rechenverfahren mit arabischen Ziffern kommen nach Deutschland. Bis dahin rechnete man hier mit den römischen Zahlen, was komplizierte Rechnungen schier unmöglich machte.

1518

Buch des Adam Riese (Deutschland, 1492 - 1559) "Rechnung auff der linihen vnd federn" zu den Grundrechenarten erscheint.

1600

Lord John Napier (auch "Neper", Großbritannien, 1550 - 1617) erfindet die "Rechenstäbchen" zum Multiplizieren.

etwa 1605

Die Logarithmen werden unabhängig voneinander durch Lord Napier und Jobst Bürgi (Schweiz, 1552 - 1632) erfunden.

1615

Die "Briggschen" oder "dekadischen Logarithmen" werden durch Henry Briggs (Großbritannien, 1561 - 1630) eingeführt.

1623

Die erste Rechenmaschine ("Rechenuhr") der Welt wird von Wilhelm Schickard (auch "Schickhardt", Deutschland, 1592 - 1635) erbaut. Sie arbeitet mechanisch mit Zahnrädern und kann die vier Grundrechenarten, am besten die Addition und Subtraktion.

1630

Der erste Rechenschieber wird benutzt.

1642

Blaise Pascal (Frankreich, 1623 - 1682) baut eine Addiermaschine (für Addition und Subtraktion). Sie arbeitet mechanisch mit Zahnrädern. Andere Rechenarten sind nur schwer realisierbar. Es war praktisch der erste Taschenrechner der Welt.

Addiermaschine von Blaise Pascal, in Dresden im Mathematisch-Physikalischer Salon

1672

Gottfried Wilhelm Leibniz (Deutschland, 1646 - 1716) baut eine mechanische Rechenmaschine für die Grundrechenarten, die er in den folgenden Jahren verbessert.

1679

Gottfried Wilhelm Leibniz stellt tiefgreifende mathematische Überlegungen zum Dualsystem an.

18. und 19. Jahrhundert

Rechenmaschinen werden bis zur Serienreife technisch weiterentwickelt. Der Bau von hinreichend kleinen und genauen Zahnradgetrieben bereitet dabei größte Probleme. Es gab damals halt weder Drehbänke noch elektrische Bohrmaschinen etc. - Der Rechenschieber wird aktuell.

1833

Das Lebenswerk des Charles Babbage (Großbritannien, 1792 - 1871) ist die Entwicklung und der Bau einer "Analytischen Maschine", die alle Grundelemente eines modernen Computers enthält, aber auf rein mechanischer Basis. Die Maschine verfügte über eine Lochkartensteuerung. Sie wurde jedoch nie fertiggestellt, da man sie mechanisch nicht präzise genug bauen konnte.

etwa 1847

George Boole (Großbritannien, 1815 - 1864) entwickelt die "Boolesche Algebra".

1890

Hermann Hollerith (Deutschamerikaner, 1860 - 1929) nutzt die Lochkarte erstmals als Informationsspeicher bei der Volkszählung in den USA.

1928

David Hilbert (Deutschland, 1862 - 1943) und W. Ackermann entwickeln auf der Grundlage der "Booleschen Algebra" logische Verknüpfungen. Mit deren Hilfe lassen sich in der Technik logische Impulsschaltungen auf dualer Basis beschreiben.

1941

Konrad Zuse (Deutschland, 1910 - 1995) baut den ersten funktionstüchtigen, programmgesteuerten Rechenautomaten der Welt, den "Z3". Er hatte 2.600 elektromagnetische Relais, war lochkartengesteuert, schaffte zwanzig Additionen pro Sekunde, eine Multiplikation in fünf Sekunden und war wandschrankgroß.

1944

Howard Hathaway Aiken (USA, 1900 - 1973) baut mit C. D. Lake, B. M. Durfree und F. E. Hamilton den ersten programmgesteuerten Rechenautomaten der Welt, den "Mark I". Er arbeitet auf mechanisch-elektromagnetischer Basis (Relaistechnik), besteht aus 70.000 Einzelteilen, darunter 3.000 Kugellager und 80 km Draht. Er addiert 23 Zahlen in einer Zehntel Sekunde, multipliziert in sechs Sekunden. Er hat das Format eines Schrankes mit einer Länge von 15 m und einer Höhe von 2,5 m.

1946

Der "UNIVAC I" aus den USA ist einer der ersten Computer der Welt, der auf dem Markt käuflich zu erwerben ist. Hiervon wurden mehr als 40 Stück verkauft.

Der "ENIAC" (USA) ist der erste elektronische Rechner mit Röhrentechnik. Er wurde von Presper Eckert und John Mauchly erstellt. Er ist aus 18000 Elektronenröhren erbaut, die eine gewaltige Wärmeentwicklung während des Betriebes entwickeln. Das Hauptproblem stellt das Wechseln kaputter Röhren dar. Der "ENIAC" füllt mit seinen 30 Tonnen Gewicht einen ganzen Saal. Der Stromverbrauch liegt bei 150 kW, dafür schafft er 5.000 Additionen pro Sekunde.

1948

Der Transistor wird in den "Bell Telephone Laboratories" (USA) erfunden. Er hatte immerhin Handgröße.

  ab etwa 1950

Der "UNIVAC" (USA) ist der erste Computer auf Transistor-Basis. Sein Vorteil liegt darin, dass Transistoren noch schneller arbeiten und wesentlich weniger Energie verbrauchen als bei der Röhrentechnik.

1954

John W. Backus entwickelt bis 1959 die Programmiersprache "FORTRAN (FORmula TRANslator)", die die schier endlose Eingabe von Nullen und Einsen in die Rechner ablöst.

  ab 1959

Erste "Chips" entstehen in den Labors von "Texas Instruments" (Jack Kilby und Robert Noyce).

  ab etwa 1964

"Integrierte Schaltkreise (IC)" werden entwickelt. Ehemals Großrechner werden nun taschenrechnergroß und arbeiten mit Batterien. Bis zu 1.000.000 Additionen pro Sekunde sind möglich geworden. Eine rasante weitere Entwicklung in der Datenverarbeitung setzt durch die IC-Technik ein. Man verwendet eine 65-Nanometer-Technologie für die "Chips" (ein Nanometer entspricht einem Milliardstel Meter).

1970

Bisher unterhielt das us-amerikanische Militär ein Netz, um die Kommunikation während und nach einem Nuklearangriff offen zu halten. 1970 stellte das Militär dieses Netz für die zivile Nutzug bereit. Später entwickelte sich daraus das "world wide web", das "Internet".

1971

Am 15. November bringt Intel den ersten "Mikroprozessor" der Welt heraus, den "4004". Ein Mikroprozessor kann jetzt ein komplettes kleineres Computersystem enthalten. Computer werden dadurch noch kleiner und schneller als jemals zuvor. Mehrere Millionen Rechenoperationen pro Sekunde und 200.000 Additionen pro Sekunde sind möglich. Diese Technik ermöglicht den billigen Bau von Taschen-, Heim- und Personalcomputern (PC).

1974

Für das 1970 vom Militär zur zivilen Nutzung bereitgestellte Netz wurden erste Programme geschrieben, die die verschiedenen Netze miteinander verbinden. Das "Internet" war geboren.

17.08.1982

Dieser Tag gilt als Einführung des digitalen Zeitalters in der Musikbrache. Die erste CD ("Compact Disc") wurde serienmäßig in einem Unternehmen des Philips-Konzerns hergestellt, übrigens bespielt mit klassischer Musik. Ursprünglich hielt man die CD für einen Flop, der sich schnell am Markt erledigen würde, aber 25 Jahre später hatten die Konzerne fast 100 Milliarden Musik-CD´s verkauft.

Heutzutage ist die CD als Speichermedium, seine Weiterentwicklung als DVD ("Digital Versatile Disc"), aus dem Bereich der Computer als Speichermedium kaum wegzudenken.

1984

Ein Mikroprozessor enthält bereits etwa 1.000.000 Bauelemente.

1987

Der 1-Mb-Chip (Mega = 1 . 10 6) kommt auf den Markt.

1987

Das erste Computervirus im Internet wird entdeckt. 

  90er Jahre

In den letzten zehn Jahren des 20. Jahrhunderts setzt in der Datenverarbeitung eine rasante technische Entwicklung, insbesondere eine Miniaturisierung ein.

1997

Einem Schachcomputer gelang es erstmalig einen amtierenden Schachgroßmeister (Garri Kimowitsch Kasparow) in einer Partie, unter regulären Wettkampfbedingungen, zu besiegen. Es war der von IBM entwickelte Schachcomputer "Deep Blue". Im Jahr 1998 gewann Deep Blue einen gesamten Wettkampf gegen Kasparow.

1999

Im Oktober stellte Intel einen neuen Chip vor, der mit Geschwindigkeiten von bis zu 733 Megahertz (733 . 10 6) arbeitet.

2007

Die jap. Fa. Hitachi will mit einen Festplattenspeicher mit einem Terabyte (Tera = 1 . 10 12) Speicherkapazität auf den Markt kommen.

In der zweiten Jahreshälfte bzw. Ende des Jahres will man mit einem "45-Nanometer-Chip" herauskommen (1 Nanometer entspricht einem Milliardstel Meter, Nano = 1 . 10 - 9). Er wurde unabhängig von den Firmen IBM und Intel entwickelt. Zum Vergleich, es sollen dann 30 000 Transistoren auf einen Stecknadelkopf passen. Jeder Transistor soll in einer Sekunde rund 300 Milliarden mal an- und ausgeschaltet werden können.

zurück zum Seitenanfang


Wesentliche Teile des Artikels wurden veröffentlicht in:
Rolf Fraedrich, Die Geschichte der Datenverarbeitung, in: Lehrmittel aktuell, 1991, Heft 4, Seite 8 - 10, Westermann Schulbuchverlag GmbH


Literatur:
- Weser-Kurier, Tageszeitung für Bremen und Niedersachsen, ab Okt. 1999
- www.wissen.de