Het is raar om er bij stil te staan, maar het vandaag zo alomtegenwoordige internet bestond 50 jaar geleden niet. Sindsdien is het alleen maar sneller gegaan. De vraag is: waar gaan we naartoe? Denk eens aan de hoeveelheid mensen die elke dag weer op het internet gaan en dan aan alle data die je zelf op een […]


Het is raar om er bij stil te staan, maar het vandaag zo alomtegenwoordige internet bestond 50 jaar geleden niet. Sindsdien is het alleen maar sneller gegaan. De vraag is: waar gaan we naartoe?

Denk eens aan de hoeveelheid mensen die elke dag weer op het internet gaan en dan aan alle data die je zelf op een dag verstuurt. We beschouwen de toegang tot die enorme hoeveelheden gegevens als vanzelfsprekend, maar dat is het niet.

Er staat wel degelijk een limiet op hoeveel onze bestaande netwerkstructuur aankan, en ver zijn we daar niet meer van verwijderd. Gelukkig zijn er verschillende onderzoekers, die zowel aan universiteiten als bedrijven verbonden zijn, bezig met het ontwerpen van Internet 2.0. Zo hopen ze weldra een antwoord te bieden op de groeiende vraag naar een sneller, groter en veiliger internet.


Slimmer en sneller
Een deel van de wetenschappers onderzoekt hoe ze de huidige netwerkinfrastructuur slimmer kunnen leren omgaan met de data. Achter elk netwerk – inclusief het internet – zit een lagenstructuur. Door de architectuur worden interacties tussen de verschillende lagen bewust beperkt.

Toepassingen worden bijvoorbeeld losgekoppeld van het netwerk, waardoor je applicaties niet hoeft te herschrijven telkens er een nieuwe technologie bedacht wordt. Dankzij deze lagenstructuur hebben bestaande internetprotocols zich als een lopend vuurtje kunnen verspreiden naar nieuwe hardware, zoals satellieten en gsm’s.

Alleen is het daardoor voor een netwerk onmogelijk om slim om te gaan met de aanwezige data. Een eenvoudig voorbeeld: zonder de dure en toegewijde cacheoplossingen zou het internet niet weten dat er een miljoen identieke kopieën van de nieuwste hit worden gedownload en dat het gewoon één kopie naar die miljoenen gebruikers kan sturen.

Keren Bergman van de Columbia University probeert dit probleem op te lossen door protocols te ontwerpen die op verschillende lagen werken, zodat de fysieke datalagen van een netwerk bijvoorbeeld feedback kunnen geven aan de toepassingen, die op een andere laag zitten. Die kunnen dan op hun beurt hun gebruik van het netwerk optimaliseren op basis van de omstandigheden.

Het valt te vergelijken met de realtime verkeersinformatie op een gps-toestel. Zo’n slimmer internet verbetert het gebruik van de al aanwezige bandbreedte, alleen volstaat het niet om aan de vraag te voldoen. Onderzoekers zijn dus ook druk bezig om de bandbreedte van het internet gevoelig te verhogen door een volledig optische versie van het internet te ontwerpen.

Daardoor zou iedereen met een snelheid van 10 Gbit/s kunnen surfen. Dat doen ze door de elektrische circuits te vervangen die nu de optische kabels met elkaar verbinden. In de plaats daarvan komen er optische chips. Ze hopen zo genoeg bottlenecks te elimineren en de capaciteit bijna duizend keer te verhogen.

Alleen moeten voor die omschakeling veel van de basisbouwstenen uit de elektronica opnieuw worden uitgevonden. Zo hebben onderzoekers van MIT het afgelopen jaar de optische equivalent van een elektrische diode ontwikkeld. Tegelijkertijd slaagden Canadese wetenschappers erin gegevens met een snelheid van 186 Gbit/s over een optisch netwerk van zo’n 216 kilometer te sturen.

Nieuwe protocols
Toch zijn snellere verbindingen maar een deel van de oplossing. De bestaande internetprotocols zijn vaak al enkele decennia oud en waren dus vooral bedoeld voor een veel trager internet. Het is dan ook logisch dat die eveneens aan vernieuwing toe zijn.

Zelfs het eerbiedwaardige TCP-protocol ligt onder de loep. TCP gaat er bijvoorbeeld nog altijd van uit dat niet-verzonden datapakketten veroorzaakt worden door een opstopping, waarna het de zender zal vertragen.

Volgens Caltech-professor Steven Low past die manier van werken niet in het huidige multimodale netwerk, waar niet ontvangen data ook te wijten kan zijn aan een korte interferentie met het draadloze signaal van pakweg een mobiele telefoon. Hij ontwikkelde samen met zijn collega’s FAST TCP, die naar de gemiddelde vertraging van datapakketten kijkt in plaats van naar de individuele pakketjes.

Komen bepaalde data niet aan, maar ligt de doorsnee vertraging laag genoeg, dan zal FAST TCP ervoor zorgen dat de zender nog meer data zal versturen in plaats van die te vertragen. Op die manier brak zijn team tussen 2003 en 2006 meermaals het snelheidsrecord. Sindsdien werd hun behaalde snelheid van boven de 100 Gbit/s maar licht verbeterd.

Internet2
Het Amerikaanse netwerkconsortium Internet2 heeft intussen een versie van het internet ontworpen dat honderden groepen met elkaar verbindt, en dat met een snelheid van 400 Gbit/s. Het is bovendien bezig om zijn backbone te verhogen tot voorbij 8 Tbit/s (terabits per seconde).

Zo wordt Internet2 een belangrijke tool voor ontwikkelaars van het volgende internet en kan het dienst doen als een testruimte voor nieuwe protocols en routing-strategieën. Internet2’s OS3E-project gebruikt een unieke onderliggende netwerkarchitectuur die OpenFlow heet.

De code werd onder meer ontwikkeld door onderzoekers van Stanford en laat routers toe om flexibel geherprogrammeerd te worden in de software. Op die manier kunnen wetenschappers over de hele wereld nieuwe protocols onmiddellijk testen bovenop het bestaande netwerk.

Één belangrijk onderdeel van het toekomstige internet wordt vandaag al gebruikt. IPv6 werd ontworpen om het bijna kritieke tekort aan adressen in het IPv4-adresseringssysteem op te vangen.

De vier miljard beschikbare adressen voor IPv4 (32 bit) moeten meer dan voldoende hebben geleken voor de pioniers van het internet, maar door de opkomst van smartphones en andere toestellen met een IP-adres was er dringend een oplossing nodig.

Het nieuwe IPv6 biedt 128 bitadressering. Dat staat gelijk aan enorm veel adressen, 3,4 maal 10 tot de 38ste macht om precies te zijn. Wellicht genoeg voor een aantal planeten vol mensen, robots en slimme apparaten.

De toekomst
Het huidige internet is relatief traag kunnen groeien, maar de volgende versie van het internet zal zich meteen moeten handhaven in een wereld waar miljarden toestellen online zijn. Om alle nieuwe protocols en strategieën uit te testen, hebben wetenschappers GENI ontwikkeld. Dit testplatform voor virtuele netwerken bevindt zich bovenop de fysieke infrastructuur van het internet en kan wereldwijd worden gebruikt.

Ondanks de naam is Internet2 niet echt een volledig nieuw netwerk, noch zal het ooit volledig het bestaande internet vervangen. In de plaats daarvan zullen de resultaten die geboekt worden bij het onderzoek op Internet2 uitgerold worden over en naast het huidige internet, net zoals IPv4 stelselmatig vervangen wordt door IPv6.