PC-Leistungen aus der Steckdose nehmen Gestalt an

Beitrag: 1
Zugriffe: 193 / Heute: 1
Sahne:

PC-Leistungen aus der Steckdose nehmen Gestalt an

 
26.06.03 08:54

Die Vision von den Computerleistungen aus der Steckdose nimmt Gestalt an

Standpunkt: Peter Rasp, Geschäftsführer Computer Associates, sieht die Informationstechnologie vor einer neuen Wachstumsphase

VDI nachrichten, 20.6.2003
Die Informationstechnik erobert neue Einsatzfelder. Jetzt wird das öffentliche und private Leben digitalisiert. Mobile Computing kommt erst recht in Fahrt. Nun wird auch die Vision von der Computerleistung aus der Steckdose Realität, wie Peter Rasp, Geschäftsführer der deutschen Computer Associates hier erläutert. Bei Infrastruktur, Integration und Management sind noch Aufgaben zu lösen.

Die Struktur des Technologiesektors ändert sich dramatisch. Nein, ich meine damit nicht die starke Konzentration in der Informationstechnikbranche, die gegenwärtig im Gange ist. Vielmehr möchte ich das Augenmerk auf die Verschmelzung von Informations- und Kommunikationstechnologie sowie Unterhaltungselektronik lenken, die völlig neue Produkte und Anwendungen ermöglicht und den Nutzer einerseits an jedem Ort erreicht und andererseits mehr denn je von der Steuerung der Computer befreien wird. Die digitale Technik wird unsichtbar und lenkt die Datenströme dorthin, wo der Mensch sie haben will: Das Zeitalter der ubiquitären Informationstechnik (IT) bricht an.
Informationstechnologie ist weiter auf dem Vormarsch und erobert immer mehr Einsatzfelder – so wie das vor hundert Jahren bei der Elektrizität der Fall war. Nach der starken Ausbreitung der IT in der Berufs- und Geschäftswelt wird jetzt zunehmend das öffentliche und auch das private Leben digitalisiert – von den Behörden über die Verkehrsmittel bis hin zu den Haushalten und der Unterhaltung. Kaum ein elektrisches Gerät, eine Maschine oder Anlage, die nicht mit so genannten „Embedded Chips“ ausgerüstet sind. So sind Autos schon heute mit 50 und mehr Mikroprozessoren bestückt, die zum Beispiel Airbags, Bremsen und Motoren steuern. In Zukunft wird die Zahl dieser Mini-Chips enorm ansteigen.
Wie stark gerade in der Automobilbranche die Digitalisierung vorankommt, zeigt ein Blick auf die Wertschöpfung bei der Autoproduktion. Bislang setzt sich der Wert eines Wagens nur zu 2 % aus Software, zu 8 % aus Hardware und zu 90 % aus den traditionellen Komponenten der Automobiltechnik zusammen. Bis zum Jahr 2010 wird der Hardware-Anteil auf 10 % ansteigen, die Software 25 % erreichen und die herkömmliche Technik nur noch bei 65 % liegen. Und durch Navigations- und Kommunikationssysteme mit „embedded intelligence“ wird das Auto zum Arbeitsplatz auf vier Rädern, das sprachgesteuert seinen Besitzer in der Mittagspause zum Lieblingsrestaurant fährt.
Parallel dazu verläuft die Entwicklung von stationären, an mehr oder weniger bewegliche Geräte gebundenen Anwendungen hin zum mobilen Einsatz. Mobile Computing ist die nächste Innovationswelle nach dem Internet, das mit den neuen Breitbandnetzen erst richtig in Schwung kommen wird. Die neuen Funktechnologien, zum Beispiel die WLANs (Wireless Local Area Networks), eröffnen ein gewaltiges, bislang noch kaum erforschtes Anwendungsfeld. Die Fachwelt spricht bereits von einer Entwicklung zum „ubiquious Computing“ – und meint damit den Immer-und-überall-Computereinsatz.
Die wahre Dimension, die dieser neue Trend mit sich bringt, lassen die Transponder oder Funk-Chips, kurz RFID (Radio Frequence Identification, Funkidentifikation), ahnen, die kurz vor dem Masseneinsatz stehen und mit denen Gegenstände aller Art digital codiert und damit in Netzwerken unabhängig vom Ort aufgespürt und identifiziert werden können. Nach Meinung des Massachusetts Institut of Technology (MIT) in Cambridge/USA entsteht mit dieser Technologie ein „Internet der Billionen Dinge“, das zum Beispiel die Warenauszeichnung mit Barcodes ablöst und damit den Einkauf im Supermarkt gründlich verändern wird.
In dieses Bild passt die Vision von der Computerleistung aus der Steckdose. So wie Elektrizitätswerke den Strom zur Nutzung nach dem Versorgungsprinzip bereitstellen, stehen beim On-Demand-Computing digitale Serviceleistungen online per Abruf zur Verfügung. Für den Nutzer geht es dabei weniger um den reinen Rohstoff in Form von Bits und Bytes, wie das in der Urform des Outsourcing durch Rechenzentren der Fall war. Vielmehr steht die Nutzung von konkreten Services im Mittelpunkt, zum Beispiel die Auswertung eigener Daten via Internet mit einer Business-Intelligence-Software oder der hochwertige Ausdruck von digitalen Bildinformationen, wie das heute schon bei der digitalen Fotografie möglich ist. Die Marktforscher der Gartner Group erwarten, dass schon 2006 rund 30 % aller IT-Leistungen nach dem Versorgungsprinzip angeboten werden.
Doch was verlockend klingt, birgt eine Menge an Herausforderungen für die IT-Hersteller. Mit der Ausbreitung der digitalen Welt wächst unweigerlich die Komplexität der Anwendungen. Und jeder Schritt, die Dienste für den Nutzer einfach zu machen, schlägt sich in noch komplexeren Steuerungssystemen im Hintergrund nieder. Die schöne, neue Welt des On-Demand-Computing steht und fällt mit der Infrastruktur, die Technologien, Geräte und Daten vernetzt und über alle Kanäle verteilt. Die zu lösende Aufgabe läuft immer wieder auf den gleichen Schlüsselbegriff hinaus: Integration. Das Management der Systeme und Netze muss rund um den Globus wie von Geisterhand funktionieren.
Allein mit dem Aufbau und der Bereitstellung einer IT-Infrastruktur ist es indessen nicht getan. Ein entsprechendes „Managing on Demand“ muss für den laufenden Betrieb sorgen, damit Informationstechnologie quasi als Service geliefert wird – wie Strom aus der Steckdose. Eine besonders wichtige Rolle bei der Realisierung des On-Demand-Prinzips spielt das Konzept des Autonomic Computing, mit dem innerhalb von verteilten Netzen die Nutzung der vorhandenen Ressourcen über eine automatische Lastverteilung optimiert wird. Das ist deswegen so wichtig, weil derzeit in Netzwerken ein Großteil der Rechnerkapazität ungenutzt brach liegt – und deren Erschließung die Chancen einer schnellen Realisierung der On-Demand-Idee enorm verbessert. So sind zum Beispiel Unix-Rechner in der Regel nur zu 10 % ausgelastet, PC-Systeme gerade mal zu 5 %, während bei Großrechnern (Main-
frames) der Nutzungsgrad immerhin rund 60 % beträgt.
Noch sind IT-Anbieter damit beschäftigt, Managementlösungen für das On-Demand-Computing auf Unternehmensebene zur Verfügung zu stellen. Doch die Software-Entwickler arbeiten bereits an Zugriffsmöglichkeiten auf Ressourcen außerhalb einer IT-Umgebung.
IT bleibt ein starker Innovationsmotor. Dem neuen Charakter der Informationstechnik werden IT-Anbieter durch Integration und Vernetzung, durch Vereinfachung und Flexibilität gerecht.        PETER RASP

[...]

-->
Es gibt keine neuen Beiträge.


Börsen-Forum - Gesamtforum - Antwort einfügen - zum ersten Beitrag springen
--button_text--