Die Anfänge
Die ersten Versuche, das Rechnen zu automatisieren, unternahmen Menschen in Indochina etwa 1100 vor Christus. Aus dieser Region ist der Abakus überliefert, der im 15. Jahrhundert auch nach Europa kam und sich schnell als Rechenhilfe etablierte. Eine weitere, allerdings erst später entwickelte Technik war der Rechenschieber. Mit ihm ließ sich recht einfach multiplizieren und dividieren. Im 17. Jahrhundert wurden von verschiedenen Ingenieuren mechanische Rechenmaschinen gebaut, die einfache Additionen und Subtraktionen machen konnten, aber auch Multiplikationen und Divisionen. Im Inneren wurden noch Zahnräder verwendet.
Den ersten Schritt in moderne Rechenmaschinen unternahm IBM mit dem System von Lochkarten. Mit diesen konnte man schneller rechnen, eine Multiplikation dauerte nur eine Sekunde. Zwei Jahre später patentierte dann Konrad Zuse zwei Ideen, die 1938 in den Z1 mündeten, dem ersten Rechner, der auch programmiert werden konnte. Noch immer kann ein Nachbau im Deutschen Museum bewundert werden.
Ein weiterer Durchbruch war die Verwendung von Relais beim Rechnen. Der Zuse Z3 arbeitete damit und konnte erstmals auch Algorithmen durchführen. Noch heute wird der Z3 als der erste Computer bezeichnet, Konrad Zuse gilt als der Vater der Computer. Nach dem Krieg wichen die Relais allerdings einer komplett elektronischen Ausstattung, was die Geräte auch schneller machte. IBM stellte 1947 noch einen Hybriden vor, bald aber kam der erste Transistor auf den Markt. Man ahnte schon, wie wichtig dieser sein würde und die beteiligten Forscher erhielten den Nobelpreis für Physik. Als Speichermedien wurde noch Magnetplatten benutzt, später verwendete man Magnetbänder.
Apple brachte den Durchbruch für die PCs
Bis in die späten 60er-Jahre waren Computer nur großen Firmen und Forschungseinrichtungen vorbehalten. Sie waren zu groß und auch zu teuer für den Heimgebrauch oder gar kleine Unternehmen. Das änderte sich erst mit der Entwicklung der Mikroprozessoren, die die Recheneinheiten wesentlich verkleinerten. Es war die Firma Apple, die mit dem Apple I den Schritt zum Personal Computer wagte. Commodore folgte mit dem PET und später stieg auch Atari in den Markt mit Klein-Computern ein.
Als sich herausstellte, dass es einen Markt für Computer gab, begannen die ersten Firmen einfache Heimcomputer zu entwerfen. Der bekannteste war der Commodore 64, mit dem viele Generationen von Programmierern ihre ersten Schritte in der Computerwelt unternahmen. 1981 brachte IBM den ersten Personal Computer auf den Markt, schuf damit aber einen offenen Standard, wie die PCs gebaut wurden. Sie wurden bald mit dem Windows-Betriebssystem ausgestattet und sind heute noch in den meisten Firmen und auch Haushalten zu finden.
Selbst die Apple-Computer folgen einem ähnlichen Aufbau, der aus einem Motherboard, Controllern, Netzteilen und Zusatzgeräten wie Grafikkarten besteht. Allerdings kann man heute auf einem Mikrochip wesentlich mehr Transistoren unterbringen als in den Anfängen. Heute arbeiten Rechner mit einer 64-Bit-Technologie und mehreren Prozessorkernen. Nur bei der Taktung wurde mit 4 Gigahertz eine Grenze erreicht, die nur durch Übertragung auf bis zu 8 Gigahertz durchbrochen werden kann.