Donnerstag, April 19, 2007

Rettungsversuche

Gemessen an seinen Ursprüngen ist das Internet in seiner heutigen Form als klarer Erfolg zu werten. Tagtäglich wird es von Hunderten von Millionen Menschen für geschäftliche oder private Zwecke genutzt. Kaum ein Bewohner der westlichen Welt kann sich noch ein Leben ohne Web-Zugang vorstellen. In einem schlechteren Licht erscheint das "Netz der Netze" allerdings, wenn man Robustheit und Sicherheit als Maßstab nimmt oder überlegt, welche Anwendungen dem Internet künftig im großen Stil zugemutet werden. Skeptiker gehen davon aus, dass das Web schon bald an seine Grenzen stößt. Verantwortlich dafür seien die zu erwartenden Multimedia-Anwendungen sowie die zahlreichen Endgeräte, die künftig am Internet angebunden sein werden. Die Palette reicht von mobilen Gadgets über Telefone, Autos, Haushaltsgeräte und RFID-Tags. Zuvor könnten aber bereits die Massen von Spammern, Hackern, Phishern und Cyberterroristen die Herrschaft über das Internet ergreifen.

VERKNÖCHERTE STRUKTUR
Zu den Eigenschaften, die aktuell am dringlichsten vermisst werden, zählen Sicherheit, Zuverlässigkeit und Verfügbarkeit. "Vor zehn Jahren hatten viele gedacht, das Internet in naher Zukunft für alle möglichen Aufgaben nutzen zu können, von der Kontrolle des Flugverkehrs bis hin zur Telechirurgie ", erklärt Nick McKeown, Assistenzprofessor für Informatik an der Stanford University. "Wäre es so weit gekommen, würde ich persönlich nicht mehr fliegen, geschweige denn, mich remote operieren lassen."

Als Leiter des Forschungsprojekts "Clean Slate Design for the Internet" beschäftigt sich McKeon damit, Wege zu finden, die Engpässe im World Wide Web ein für alle Mal zu beseitigen. Die zentrale akademische Fragestellung lautet dabei, wie man - basierend auf dem heute vorhandenen Wissen - eine weltweite Kommunikationsinfrastruktur neu aufbauen würde. Ausgehend von der resultierenden Blaupause könnte man anschließend überlegen, wie sich dieses Modell realisieren lässt, erklärt McKeon. Dass sich die aktuellen Missstände auf Dauer mit konventionellen Methoden beheben lassen, bezweifelt der Wissenschaftler. Das World Wide Web sei inzwischen so verknöchert, dass es nicht mehr reiche, wenn ein paar weitere Löcher gepatcht oder zusätzliche Workarounds entwickelt würden.

Der besondere Vorteil des experimentellen Clean-Slate-Ansatzes sei dessen Ergebnisoffenheit, legt die bei den Deutsche Telekom Laboratories und an der TU Berlin tätige Professorin für Informatik, Anja Feldmann, dar. "Man darf noch einmal von vorne beginnen, nichts ist vorgegeben, alles darf in Frage gestellt werden, jedes Experiment ist erwünscht", erläuterte die Expertin für Netztechnik das Konzept auf einer Veranstaltung des Geschäftskundenbeirats der Deutschen Telekom (Telekomforum). Selbst die Erkenntnis, dass das bestehende Internet das beste aller möglichen Netze ist, sei nicht ausgeschlossen. Denkbar wäre aber auch, so Feldmann, dass sich ein neues Internet als "Net of Networks" entwickelt, das aus zahlreichen neuen experimentellen Netzen zusammenwächst.

MEHRERE PROJEKTE AM START
Entsprechende Clean-Slate-Forschungsansätze gibt es bereits, in den USA etwa das von der National Science Foundation (NSF) initiierte Geni-Projekt (Global Environment for Network Innovations). Das Directorate for Computer and Information Science and Engineering (Cise) der Wissenschaftsstiftung baut dazu für 300 bis 400 Millionen Dollar ein riesiges, über die USA verteiltes Testlabor mit verdrahteten und drahtlosen Rechnern, Routern, Switches, Management-Software und verschiedenen Subnetzen auf. Es soll auf einem Glasfaser-Backbone basieren und zunächst gut 200 Universitäten anschließen. Nach der Fertigstellung, irgendwann nach 2010, können Forscher einen kleinen (virtuellen) Teil davon als private Testumgebung nutzen. Das Besondere daran: Hard- und Software werden so flexibel ausgelegt sein, dass nahezu jedes Networking-Konzept getestet werden kann, nicht nur solche, die auf Paketvermittlung, TCP/IP, Router und anderer Ausstattung des heutigen Internets basierten, erklärt Allison Mankin, Program Director bei der NSF. Daneben fördert die Stiftung im Rahmen des Find-Programms (Future Internet Network Design) eine Reihe von Forschungsprojekten von denen manche nach der Fertigstellung auf dem Geni-Netz getestet werden sollen. Die EU hat zwei ähnliche Forschungsinitiativen ins Leben gerufen, Engine (Experimental Next Generation Internet in Europe) sowie Géant2, das zum europäischen Gegenstück von Geni ausgebaut werden soll.

Für Feldmann verspricht der Clean-Slate-Ansatz die Aussicht auf ein neues, besseres Netz, in dem die Nutzer leichter Zugang zu relevanten Informationen finden und in dem Verfügbarkeit und Zuverlässigkeit höher sind. Angesichts der Tatsache, dass sich die geplanten Veränderungen bis hin zu den Endgeräten und Host-Anwendungen auswirken, ist der Zeitrahmen von 15 bis 20 Jahren möglicherweise sogar zu knapp. Sollte die neue Netzarchitektur auch das gegenwärtige E-Mail- und Spam-Problem in den Griff bekommen, würde sich die Wartezeit allemal rentieren.

trackback

Keine Kommentare:

Kommentar veröffentlichen