Mi., 12. Oktober 2011
Die Vergangenheit ist die Zukunft
- eine Rundreise durch die Entwicklung der IT-Infrastrukturen
Virtualisierung und Cloud Computing sind die aktuellen Schlagworte der IT-Branche. Diese neuen Techniken sollen die Kosten senken und flexible Informationssysteme ermöglichen. Für die erklärungsbedürftige Technik gibt es im Fernunterricht Kursangebote: z.B. unter www.ils.de oder www.fernakademie-klett.de. Doch wie ist es zu diesen Techniken gekommen?
Mit den Großrechnern fing alles an. Sie waren imposant, schwer, teuer und heizten im Kampf mit der Klimaanlage ordentlich ein. So löste die elektronische Datenverarbeitung in den 70er Jahren die Karteikästen in den Großbetrieben ab. Mit dieser Technik wurden vollautomatische Abrechnungen und Serienbriefe à la Max Mustermann möglich. Vorausgesetzt, der Betrieb konnte sich die neue Technik leisten. Aber auch für den Mittelstand für die breite Masse der Unternehmen gab es Lösungen. Externe Rechenzentren betrieben mit ihren Programmierern die Riesenmaschinen und boten die Kapazitäten am Markt an. Das war die erste Phase der betrieblich genutzten Informationstechnologie.
In den 80ern kam der PC auf den Markt. Erst von der International Business Machines Corporation und dann von Mittbewerbern, die "IBM-kompatible PC" anboten. Damit begann eine Phase der dezentralisierten Rechenkapazität. Die preisgünstigen Geräte wurden sogar privat genutzt. Aus der Büromaschine wurde ein Einrichtungsgegenstand, der selbstverständlich wie ein Fernseher in jeden Haushalt einzog. Genauso gern wie der Nutzer zuhause sein Gerät individuell konfigurierte und mit externer Hardware vervollständigte, wollte er auch im Büro mit "seinem Rechner" arbeiten oder sich zumindest beschäftigen. Das führte aber zu hohen betrieblichen Kosten die Total Cost of Ownership (TCO) gaben den nun als Administratoren bezeichneten Verwaltern der Rechenkunst zu denken. Es mussten effizientere Lösungen her.
In den 90ern wurden die Netzwerkserver berühmt: erst hießen Sie Novell, dann Windows NT. Damit ließen sich Hardware sowie User verwalten und es kam eine weitere Technologie hinzu der Terminalservice. Das war eine erste Abkehr von der individualisierten PC-Ausstattung des Arbeitsplatzes wieder hin zur zentral angebotenen Rechenkapazität.
Die Möglichkeiten des Terminalservice ließen sich erweitern durch Angebote der Firma Citrix. Die im ersten Jahrzehnt des neuen Jahrtausends mit einem Presentation Server für imposant steigende Aktienkurse sorgte. Mit dieser Technik konnte der PC unter dem Schreibtisch des Mitarbeiters ersetzt werden durch einen Thin Client: Ein auf die Größe einer Zigarrenschachtel geschrumpften Rechner, der auf jedem Schreibtisch Platz findet.
Seit ein paar Jahren geht es nun um Virtualisierung, die auf der Hardware eines Servers parallel mehrere Betriebssysteme laufen lässt. So wird das teure "Blech" im Serverraum besser ausgelastet. Und noch eine Entwicklung soll helfen die Kosten zu senken: das Cloud Computing. Dabei geht es um Outsourcing von IT-Services an externe Rechenzentren. Rechenzentren? Das gab es doch schon einmal! Sind wir wieder zurück bei der Technik aus den 70ern? Antworten und Erklärungen findet man nicht nur bei Wikipedia, sondern auch in fast allen IT-Fernkursen, in denen die neuen Techniken und ihre Möglichkeiten vorgestellt werden.
wm