VINTON G. CERF EVOLUZIONE TECNOLOGICA DI INTERNET

Estratto dai PROCEEDINGS OF THE IEEE, VOL.92 NO.9, SEPTEMBER 2004

Traduzione a cura di ISOC Italia

La rete Internet si è evoluta notevolmente dalle sue origini che risalgono ai primi anni settanta grazie al lavoro sponsorizzato dall'U.S. Defense Advanced Research Projects Agency (DARPA).

Il progetto era già concluso nelle sue parti essenziali nel 1973, reso pubblico nel 1974 e realizzato nelle comunità accademiche e militari a partire dal 1 gennaio 1983.

Nei venti anni successivi sono successe molte cose. I primi servizi commerciali Internet risalgono al 1989 dopo l'interconnessione di Internet ad altri servizi commerciali di e-mail.

A partire dal 1993 sono apparse le versioni commerciali del World Wide Web, e nel 1995 fu introdotto il primo servizio commerciale di Voice over IP che, a distanza di otto anni dalla sua introduzione, ha iniziato dal 2003 a crescere rapidamente (vedi anche Vocaltec: http://www.vocaltec.com/html/about/company.shtml).

L'Internet del futuro sarà plasmato da forze di regolamentazione, commercializzazione, sviluppo tecnologico e da un'ampia gamma di linee politiche locali, regionali, nazionali ed internazionali, che si muovono nello stesso modo inevitabile di quelle che governano la tettonica a zolle. In questo articolo si sono prese in considerazione queste forze, tentando di proiettarne gli effetti nel prossimo futuro.

Parole chiave

  • ARPA,
  • BITNET,
  • commercialization,
  • Data Networking,
  • Defense Advanced Research Projects Agency (DARPA),
  • domain names,
  • European Academic Research Network (EARN),
  • grid computing,
  • history information society,
  • internazionalized domain names,
  • Internet,
  • Internet Corporation for Assigned Names and Numbers (ICANN),
  • Internet economics,
  • Internet governance,
  • Internet telephony,
  • IP address space,
  • IPv6,
  • multiprotocol label switching,
  • NetNorth,
  • packet radio,
  • packet satellite,
  • packet switching,
  • protocols,
  • regulation,
  • security,
  • standards,
  • telecommunications,
  • X.25,
  • virtual private network,
  • Advanced Research Project Agency (ARPA),
  • U.S. Department of Defense.

I. INTRODUZIONE

Per parlare del futuro di Internet è sensato cominciare dal suo passato.

All'inizio degli anni settanta c'era poco da scegliere in fatto di reti, perché ogni fornitore di reti di elaboratori (IBM, Digital Equipment Corporation) utilizzava la propria tecnologia.

IBM sviluppò Systems Network Architecture (SNA)1 mentre Digital Equipment Corporation sviluppò DECNET2.

Il Dipartimento per la Difesa degli Stati Uniti, avendo dimostrato l'utilità della commutazione di pacchetto (packet switching) attraverso il suo progetto ARPANET, perseguì l'idea di utilizzare i computer per funzioni di gestione e di controllo.

Per evitare di essere vincolati ai prodotti ed alla tecnologia di un singolo venditore, DARPA [1] decise nel 1973 di sviluppare uno standard di rete non proprietario che potesse permettere operazioni di gestione e di controllo basate su computer. Questo sviluppo fu chiamato progetto Internetting [2].

Per capire come Internet si è evoluta, occorre comprendere l'architettura di base del sistema e come essa, a sua volta, si sia potuta evolvere.

La maggior parte degli articoli su questo argomento mette in evidenza come il cuore di Internet sia il protocollo IP (Internet Protocol).

A volte chiamato la "cintola stretta" dello stack protocollare IP, il livello IP è il collante fondamentale che tiene assieme la miriade di reti che costituiscono Internet.

Per realizzare le sue funzioni, IP dipende da molti altri protocolli, tra i quali i vari protocolli di routing come Border Gateway Protocol (BGP e le sue varianti), Open Shortest Path First (OSPF), Internal System to Internet System (IS-IS) e Routing Information Protocol (RIP).

Nelle sue prime versioni, lo stack protocollare IP era costituito da sette livelli; dal più in basso al più in alto si avevano, in successione, i livelli

  • Fisico (Ethernet, SONET, T1, etc.),
  • Collegamento (High Level Data Link Control -HDLC-, Point-to-Point Protocol, etc.),
  • Rete (frame relay, asynchronous transfer mode -ATM-, MPLS),
  • Internet (IP, Internet Control Message Protocol),
  • Trasporto (Transmission Control Protocol, User Datagram Protocol),
  • Utilità (File Transfer Protocol, Real Time Protocol, Simple Mail Transport Protocol, Post Office Protocol, Hypertext Transport Protocol) e
  • Applicazioni (e-mail clents, Web browsers, instant messaging clients).

Versioni successive dello stack protocollare IP, alcune delle quali basate sui sette livelli dell'architettura Open Systems Interconnection, avevano incorporato il livello Internet nel livello rete; altre avevano eliminato il livello utilità; altre avevano aggiunto livelli di sessione e/o presentazione.

Il progetto originario di Internet poneva il livello IP sopra i livelli rete di ARPANET, ARPA packet Radio Network e ARPA Atlantic Packet Satellite Network[1].

Questi sistemi erano reti a commutazione di pacchetto che incapsulavano i pacchetti Internet all'interno dei propri pacchetti in modo che quelli Internet venissero instradati dalle reti sottostanti verso il gateway Internet che portava alla successiva rete o all'host di destinazione.

Nel momento i cui i gateway furono commercializzati da compagnie come Proteon3 e Cisco Systems4, questi vennero chiamati router poiché operavano sui pacchetti Internet per la propagazione delle informazioni di istradamento (routing) a livello IP.

Man mano che i router divenivano il dispositivo più usato per la messa in servizio di reti collegate con Internet, il concetto di livello di rete fu sostituito da quello di collegamenti punto punto o di rete locale per la comunicazione fra router.

Quando emersero le reti Frame Relay ed ATM, queste furono inserite nell'architettura al livello 2, aggiungendo alla nozione di livello di collegamento (tipica del livello 2) il concetto di funzione di commutazione.

Le connessioni fra i punti di frontiera di queste reti furono realizzate come circuiti virtuali.

Più recentemente è stato sviluppato un sistema chiamato multiprotocol label switching (MPLS) che supporta le esigenze di gestione del traffico nelle reti IP e, per mezzo di stack di etichette, permette la creazione di più reti virtuali sopra lo stesso sottolivello MPLS.

In queste architetture la distinzione fra i livelli appare sfocata poiché le informazioni di routing necessarie per gestire il sottostrato MPLS usano lo stesso protocollo (BGP) che è usato come supporto per il livello IP.

Per complicare la faccenda, BGP si basa a sua volta sia sul livello IP che sul livello di trasporto Transmission Control Protocol (TCP).

In ogni caso, quello che è importante notare nell'architettura Internet è che le applicazioni sono lontane e separate dal sottostante livello di trasmissione dati.

IP separa i livelli più bassi da quelli più alti e, in un certo senso, si può considerare agnostico, sia rispetto ai mezzi utilizzati per il trasporto dei pacchetti Internet che ai dati contenuti in essi.

La conseguenza di questo agnosticismo è che sulla rete Internet si può trasportare qualsiasi contenuto digitale, compresi, fra gli altri, suoni, voce, video ed immagini.

Come implicazione principale si ha che, se si suppone che siano disponibili opportune capacità trasmissive end-to-end, attraverso Internet si può trasportare una quantità elevata di servizi diversi, dalla televisione, alla radio e alle pubblicazioni scritte.

In molti casi questi e altri servizi a loro strettamente connessi non richiedono supporto real-time. Ad esempio, è perfettamente ragionevole trasferire attraverso Internet un video ad alta definizione alla stessa stregua di un trasferimento di file, per vederlo in un momento successivo e senza bisogno di capacità real time. Se inoltre si accetta di vedere il video dopo un periodo di tempo abbastanza lungo è anche possibile utilizzare una velocità di trasferimento dei dati decisamente bassa.

Mentre il supporto real-time per video ad alta definizione richiede capacità trasmissive dell'ordine dei Megabit per secondo, quello per un'ottima qualità audio richiede capacità trasmissive dell'ordine delle decine di Kilobit per secondo. Questo permette di considerare i servizi audio, compresi quelli di comunicazione della voce, fra i servizi Internet accessibili anche via rete commutata.

L'evoluzione di Internet non avvenne in un deserto. Nel momento in cui si stavano sviluppando le linee guida di Internet, nei settori accademici e commerciali erano già state intraprese altre iniziative.

Ad esempio, intorno alla metà degli anni settanta, gruppi di studio in Canada, Stati Uniti, Inghilterra e Francia avevano sviluppato la rete commerciale a commutazione di pacchetto basata sullo standard X.25.

La rete accademica BITNET5 ebbe origine per interconnettere i mainframe IBM ed in parte come risposta alla limitata comunità di partecipanti ad ARPANET. BITNET utilizzava il servizio di network job subsmission (NJE) come mezzo per spostare i dati da una macchina ad un'altra.

Nel contesto di BITNET furono creati, fra gli altri, un robusto sistema per la gestione delle liste di mail chiamato LISTSERV e le prime funzioni di chat. Gli utilizzatori di BITNET erano in genere collegati a quelli di Internet via e-mail. BITNET aveva una controparte europea chiamata European Academic Research Network (EARN)6, una controparte canadese chiamata NetNorth e una controparte giapponese chiamata AsiaNet. BITNET entrò in servizio nel 1981 mentre le sue controparti fuori dagli Stati Uniti furono attivate qualche anno più tardi.

Al momento della sua maggiore espansione BITNET collegava gran parte del mondo, ma dal 1993 i suoi utenti cominciarono a diminuire in seguito all'espansione dei servizi commerciali Internet e di altre reti accademiche che finirono per rendere obsoleta la sua tecnologia.

Quasi in parallelo, sempre nel 1981, entrò in servizio la rete USENET7 basata sullo UNIX-to-UNIX Copy Program (UUCP), nata con l'espansione del sistema operativo UNIX.

Da USENET nacque il servizio Net News, che aveva la caratteristica al momento unica di diffondere informazioni a gruppi di persone organizzate per aree di interesse. Gli utilizzatori potevano definire, abbonarsi e partecipare a specifiche aree di interesse, creando così vaste comunità con mutui interessi sui temi più diversi.

Uno dei fondatori di USENET creò la compagnia UUNET, che alla fine divenne l'operatore del più grande backbone Internet, oggi parte di MCI.

Ognuno di questi sistemi di rete fu alla fine interconnesso a Internet e, con l'espansione di Internet, i servizi tipici di ogni sistema vennero posti sopra lo stack protocollare TCP/IP.

L'evoluzione dell'industria delle telecomunicazioni può essere paragonata sotto diversi aspetti alla tettonica a zolle8. Il movimento delle placche tettoniche è oggi un fatto universalmente accettato ed è comunemente associato ad un fenomeno di cambiamento estremamente lento.

L'industria delle telecomunicazioni è nel mezzo di un cambiamento più cataclismatico, ma le forze che stanno producendo questi cambiamenti hanno lo stesso senso di inevitabilità di quelle che provocano l'inesorabile e lento movimento geologico delle placche tettoniche.

Nel mondo delle telecomunicazioni queste irresistibili forze comprendono l'evoluzione tecnologica, la regolamentazione, lo sviluppo commerciale e l'evoluzione delle politiche di controllo. Sebbene non sia possibile predire con precisione l'effetto combinato di queste forze, ci sembra opportuno comunque tentare una previsione dei loro effetti nel prossimo futuro.

Questo articolo vuole analizzare gli aspetti più importanti dell'evoluzione di Internet, dagli insegnamenti del passato alle possibili prospettive per il futuro, ed è organizzato in tre sezioni principali. La prima sezione mette in evidenza i numerosi cambiamenti tecnologici quali il Virtual Private Networking, le comunicazioni wireless, la telefonia su IP ed il grid computing, che lastricano la strada dell'evoluzione di Internet.

La seconda sezione è dedicata alle forze ed alle tendenze commerciali. La terza sezione tratta di gestione, controllo e regolamentazione in Internet.

II. CAMBIAMENTO TECNOLOGICO

La tecnologia rappresenta un fattore guida fondamentale per l'evoluzione di Internet. Internet trae le sue origini dallo sviluppo del packet switching [1] negli anni sessanta ed ha continuato a seguire i grandi sviluppi tecnologici avvenuti negli ultimi quaranta anni.

L'introduzione delle fibre ottiche per le comunicazioni commerciali nella forma di reti ottiche sincrone (SONET/SDH), avvenuta a partire dagli anni ottanta, portò ad un notevole incremento delle capacità di comunicazione, mentre gli avventi di tecnologie di frame relay, ATM9, LAN, e, recentemente MPLS10, hanno arricchito le capacità di trasporto e di commutazione su cui Internet può operare.

A. Virtual Private Networking

Il Virtual Private Networking è ormai divenuto uno degli aspetti più importanti nell'uso delle reti per i settori economico, politico, militare ed accademico, che hanno usato sempre tecnologie che si sono evolute in parallelo con Internet.

Nel caso in questione, per le virtual private network, si usano tipicamente ATM switching, Frame Relay e MPLS, che permettono di trasportare pacchetti IP incapsulati all'interno di reti che fanno parte dell'Internet pubblico o che costituiscono parte di una virtual private network aziendale. In particolare MPLS, con le sue caratteristiche di gestione del traffico e di separazione delle virtual private network attraverso l'uso di etichette e di separate tabelle virtuali di routing, sta cominciando a diventare una tecnologia molto usata per l'implementazione di servizi Internet pubblici o privati.

Per creare virtual private network aziendali, MPLS viene associata a tecniche più "vecchie", quali la codifica di pacchetti IP in pacchetti IP, in modo da costruire tunnel sicuri nell'Internet pubblico. All'aumentare della velocità di istradamento e commutazione di IP e MPLS e della capacità delle fibre ottiche, queste due tecnologie diverranno probabilmente le più usate dagli utilizzatori di reti a larga banda.

B. Comunicazioni Wireless

La comunicazione wireless ha trasformato enormemente, negli ultimi dieci anni, sia la telefonia che la comunicazione dati.

La telefonia mobile o cellulare ha portato la comunicazione mobile sia nel mondo sviluppato, che in quello in via di sviluppo. Le previsioni telegeografiche indicano che, alla fine del 2005, ci stiamo avvicinando approssimativamente ai tre miliardi di abbonati alla telefonia mobile ed a 1.25 miliardi di abbonati alle linee telefoniche fisse11, ricordando sempre che il numero di abbonati alla telefonia mobile nel 1996 era pari a solo circa cento milioni.

Un'evoluzione significativa della telefonia wireless è la possibilità, con la tecnologia Groupe Speciale Mobile (GSM)12, di trasmettere in formato digitale dati e piccoli messaggi di testo. A GSM si è recentemente aggiunta la tecnologia code division multiple access (CDMA) per l'uso mobile13, grazie allo sforzo pionieristico di Qualcomm Corporation14. I sistemi che usano CDMA sono talvolta indicati come sistemi di terza generazione (3G) e forniscono una velocità di trasmissione dati di diversi Megabit al secondo per la comunicazione digitale.

Nel mondo dati, il cambiamento recente più significativo legato alla tecnologia wireless è stata l'introduzione su larga scala delle wireless LAN basate sugli standard IEEE 802.1115.

Chiamato anche Wi-Fi (per wireless fidelity), 802.11 è uno dei venti standard IEEE per reti multiaccesso sviluppati negli ultimi trentacinque anni.

La progenitrice di queste reti è la rete Alohanet sviluppata nel 1970 all'Università delle Hawaii, Manoa16 e che, tra l'altro, pose le basi per l'invenzione della rete Ethernet17. La velocità di trasmissione di queste reti è di qualche Megabit al secondo. Sviluppi più recenti comprendono Wimax (IEEE 802.16)18 e ultrawideband (UWB)19. Il ritmo di sviluppo delle nuove tecnologie dati wireless è significativo ed è associato ad un simile rapido sviluppo della comunicazione mobile wireless.

La telefonia mobile wireless è stata ulteriormente estesa con l'accesso ad Internet da dispositivi mobili. L'accesso wireless a Internet, attraverso gli standard IEEE 802, ha posto le basi per una nuova generazione di personal digital assistant (PDAs), quali portatili, notebook e notepad capaci di comunicare in movimento. Sono stati sviluppati anche sistemi di sensori corredati di accesso wireless ad Internet.

Una ulteriore tecnologia wireless, chiamata Bluetooth20, permette l'eliminazione dei fili tra dispositivi vicini tra loro (tastiera, mouse, telefono e altri). Le trasmissioni Bluetooth diventano quindi un altro sistema che consente il trasporto di traffico Internet sino al punto di accesso più vicino alla rete fissa.

Con l'evoluzione di questi sistemi è ragionevole aspettarsi un'area di copertura sempre maggiore, caratterizzata da capacità trasmissive sempre più elevate. Ad esempio, Vivato21, ha introdotto una tecnologia di tipo "phased array" per servizi di comunicazione digitale wireless in aree metropolitane. Questi sistemi impiegano la commutazione e la trasformazione di fascio per raggiungere un raggio di servizio dell'ordine di quattro Km con capacità trasmissive dati dell'ordine delle decine di Megabit per secondo o superiori.

L'onda di marea della tecnologia wireless è accompagnata da nuovi utilizzi per i sistemi connessi ad Internet (Internet-enabled) quali, ad esempio, Internet-enabled automobiles22.

È già chiaro che i dispositivi mobili o portatili debbano avere modalità multiple per l'accesso ad Internet e debbano poter scegliere tra Ethernet su connessioni fisse, Bluetooth, 802.x e 3G. Alcuni dispositivi intelligenti, gestendo via software i canali radio23, sono in grado di analizzare l'ambiente circostante per scegliere quale è la migliore connettività wireless in quel particolare contesto, adattando il mezzo di comunicazione al cambiamento delle condizioni di contorno e mostrando quindi vere caratteristiche di mobilità.

Molti oggetti casalinghi possono ormai essere Internet-enabled anche, ad esempio, l'umile cornice per quadri24.

Si può ragionevolmente anticipare che, con il continuare dell'integrazione fra computer e comunicazioni, decine o addirittura centinaia di miliardi di dispositivi potranno diventare del tipo Internet-enabled.

C. IPv6

L'Internet attuale usa la versione quattro del protocollo IP (Ipv4). Perché questa versione sia sufficiente, nonostante il limite dei 32 bit riservati agli indirizzi IPv4 (4.3 miliardi di possibili indirizzi IPv4), è stato necessario usare indirizzi locali privati per poi mapparli, per mezzo di tecniche di network address translation (NAT), in indirizzi pubblici IP.

L'Internet Engineering Task Force (IETF)25 ha sviluppato il nuovo standard IPv6, che dispone di 128 bit riservati agli indirizzi IP (1038possibili indirizzi IPv6)26. L'implementazione e lo sviluppo di IPv6 sono stati finora relativamente lenti ma sembrano in accelerazione con lo sviluppo di dispositivi che hanno la capacità di utilizzare questo nuovo protocollo. Alcuni venditori, fra cui Sony, hanno già manifestato l'intenzione, per il prossimo futuro, di mettere in vendita prodotti con questa capacità27.

La continua integrazione di computer e comunicazioni ha favorito la creazione di dispositivi multiuso che funzionano come telefoni, videocamere, PDAs, agende elettroniche, ricevitori GPS ed altro ancora. È sempre più frequente e comune che questi dispositivi siano Internet-enabled.

D. Integrazione della Telefonia con Internet

Uno dei maggiori sviluppi nell'integrazione fra computer e comunicazioni è Voice over IP (VOIP). Intorno a questa funzionalità orbita una serie smisurata sia di gruppi di persone sia di progetti di sviluppo tecnicnologico, che hanno posto le basi per una produzione significativa di dispositivi che supportano il trasporto della voce su IP e che permettono l'interconnessione degli stessi con la rete di telefonia pubblica (PSTN).

Risulta evidente, dai resoconti e dalle analisi commerciali del 2003, che le industrie di telecomunicazioni hanno adottato questa tecnologia in parte per soddisfare la domanda dei clienti, ma in parte addirittura per difendere la propria competitività.

Fra le nuove tecnologie, che contribuiscono all'introduzione di VOIP, è di significativa importanza lo standard ENUM28.

Questo standard permette di far corrispondere numeri telefonici internazionali a nomi di dominio Internet (in realtà, a cosiddetti naming authority pointers). In questo modo, un dispositivo Internet che vuole contattare un destinatario può fare una richiesta all'Internet domain name system (DNS) per conoscerne il nome e l'indirizzo.

La corrispondenza generata da ENUM permette il trasferimento di una chiamata telefonica, che ha avuto origine nella rete telefonica pubblica (PSTN), ad una terminazione (indirizzo) Internet o il trasferimento di una chiamata Internet verso un altro dispositivo Internet senza passare per la rete PSTN, anche se la destinazione era stata identificata un numero di telefono.

Per l'implementazione di VOIP sono fondamentali anche altre tecnologie; fra queste va compreso il Session Initiation Protocol (SIP)29 con le sue varianti. SIP è usato in Internet nelle fasi di instaurazione e chiusura della chiamata voce (rispettivamente setup e tear down).

Un altro standard molto importante derivato dal mondo della telefonia convenzionale è H32330. In un certo senso, questi due protocolli (SIP e H323) sono tra loro in competizione, ma i fornitori di VOIP, comunque, sono spesso costretti ad implementarli entrambi, in quanto gli apparati disponibili per la normale comunicazione voce a banda stretta sono quasi sempre dotati solo di software H323. SIP, d'altro canto, è un protocollo molto generale e può essere usato per implementare negoziazioni fra le parti comunicanti in modo da stabilire i parametri ed i protocolli che si vogliono utilizzare per la comunicazione. Ad esempio, SIP può permettere ad un supercomputer la negoziazione con un PDA, in modo da fissare la capacità trasmissiva dati ed il tipo di contenuti che il PDA è in grado di accettare o mostrare.

È importante mantenersi in un certo senso distaccati dalle meraviglie delle comunicazioni vocali via Internet, perché questa è solo una delle molte applicazioni che la Rete può permettere.

Anche se oggi conosciamo praticamente tutto sul modo di effettuare chiamate telefoniche (dal comporre un numero sino a premere un tasto per effettuare una conversazione mediante walkie-talkie), è importante notare come la comunicazione voce in Internet possa semplicemente diventare un casuale effetto secondario di altri modi di interazione.

Ad esempio, l'instant messaging è divenuto uno strumento enormemente diffuso per l'interazione personale su Internet.

Concepito in origine come servizio per il consumatore, sta diventando una componente importante nel mondo degli affari, ad esempio per arricchire conferenze telefoniche con scambi di messaggi fra gruppi di partecipanti.

Ancora più importante, questa tecnologia permette a due persone che cominciano una conversazione testuale di passare ad una conversazione voce o voce/video sino ad avere uno spazio condiviso in cui un oggetto in formato digitale, come un file Power Point, può essere visualizzato e modificato da un gruppo di lavoro in contemporanea. In nessun punto di questa sequenza le due persone hanno l'obbligo di effettuare una chiamata telefonica tradizionale.

È questa generalizzazione delle modalità di comunicazione che rende Internet una potente infrastruttura evidentemente diversa dai sistemi di comunicazione che l'hanno preceduta.

L'argomento della comunicazione VOIP sarà rivisitato in questo articolo nel contesto dei quadri di regolamentazione per i servizi Internet.

E. I molti aspetti di Internet

È importante ricordare che la comunicazione voce su Internet è soltanto una delle molte applicazioni che la tecnologia IP è in grado di supportare.

Su Internet si possono implementare in modo altrettanto facile videoconferenze, video ed audio streaming (cioé televisione e radio). Per la realizzazione di queste applicazioni si usa spesso la tecnica del multicast.

Nel caso di sorgenti multiple, Internet calcola automaticamente i cosiddetti spanning tree con il numero di repliche dei pacchetti necessarie per simulare quanto accadrebbe con un normale broadcast, quando si devono raggiungere tutte le destinazioni. Ogni partecipante al gruppo multicast è capace di ricevere e inviare informazioni da e verso tutti i partecipanti.

Nel caso di singola sorgente multicast, solo la sorgente è in grado di spedire informazioni mentre tutti gli altri partecipanti al gruppo multicast sono solamente in grado di ricevere.

La crescente diffusione di accessi a Internet a larga banda, che utilizzano tecnologie quali digital subscriber loops (DSL)31, cable modem32 e digital satellite33, rende sempre più facile supportare video conferenze, gruppi di partecipanti a videogiochi interattivi e gruppi di lavoro collaborativo.

Queste nuove capacità stanno contribuendo al prossimo e più importante sviluppo di Internet: il grid computing34.

F. Grid Computing

Il concetto di grid computing è ingannevolmente semplice: virtualizzare le risorse di calcolo, di memorizzazione e di comunicazione in modo tale che le applicazioni possano accedere in modo dinamico alle risorse che servono e, dopo aver realizzato il loro compito, le possano rilasciare affinché siano usate da altre applicazioni, realizzando di fatto una sorta di time sharing a tre dimensioni.

Per raggiungere questo obiettivo le risorse condivise non devono semplicemente essere gestite, ma devono essere effettivamente fruibili da tutti, in modo che, ad esempio, la ripetizione di un'operazione di calcolo non impieghi esattamente le stesse risorse ogni volta, bloccandole per lungo tempo. Anche se sarebbe attraente poter ignorare tutti gli aspetti fisici coinvolti nell'allocazione delle risorse impiegate in una grid, risulta inevitabile prendere in considerazione la velocità di propagazione della luce ed altri limiti fisici, come la capacità delle reti di telecomunicazione.

Un classico esempio di grid computing è l'applicazione del progetto Search for ExtraTerrestrial Intelligence (SETI)35. In questa applicazione, i personal computer eseguono un programma che normalmente si attiva come screen saver, che entra in funzione quando la macchina è inattiva.

Quando il programma si attiva, scarica dalla rete e analizza un segmento di dati fra quelli ottenuti da un segnale radio ricevuto da una predeterminata sorgente, alla ricerca di andamenti regolari che ne possano indicare un'origine intelligente.

Tutti i segnali "interessanti" sono poi notificati al centro SETI. Poiché non c'è comunicazione fra i milioni di macchine che eseguono il programma (ognuna analizza il proprio segmento di dati), questa è una applicazione ideale per una grid.

Considerazioni simili mostrano che anche alcune specie di criptoanalisi sono adatte a questo modo di calcolare. In generale, possono usare il grid computing quelle simulazioni che non richiedono lo scambio di quantità di dati intermedi; di conseguenza, questa tecnica risulta più complessa da utilizzare quando la quantità di dati intermedi, che devono essere scambiati fra gli elementi di calcolo, diventa elevata.

Certi tipi di indicizzazione sono adatti al trattamento grid: ad ogni elemento di calcolo viene assegnata una porzione dello spazio di informazione che deve essere indicizzato ed ognuno fornisce i propri risultati in una particolare locazione, cosa che poi permette di combinare le informazioni ricavate all'interno di un singolo grande database.

Per supportare applicazioni di tipo grid sono stati creati molti nuovi protocolli.

In casa IBM, questi protocolli fanno parte del sistema WebSphere36, mentre per quanto riguarda la Microsoft, sono parte dello sviluppo .NET37.

Questi protocolli, a loro volta, si avvalgono di altri protocolli originariamente sviluppati per il World Wide Web38 ed estesi per divenire parte dell'insieme di protocolli conosciuta come Web Services39.

Questo insieme include, tra gli altri, Web Services Description Language (WSDL), Extended Markup Language (XML), Simple Object Access Protocol (SOAP) e Universal Description and Discovery and Integration of Web Services (UDDI)40.

Con questi nuovi protocolli è possibile creare un insieme virtualmente illimitato di applicazioni per permettere l'interazione fra consumatori, industrie e governi. Sebbene l'evoluzione dei Web Services sia ancora in fase iniziale, risulta evidente come questa tecnologia sia un'opportunità sostanziale per la creazione di nuovi prodotti e servizi su Internet.

G. Internazionalizzazione del DNS

Il DNS Internet41 fu sviluppato nella prima metà del 1980 come mezzo per far corrispondere alle locazioni Internet identificatori diversi dagli indirizzi IP puri.

Il sistema è altamente distribuito e robusto. La sua struttura gerarchica permette agli utenti finali di gestire l'associazione fra un nome a dominio e gli indirizzi IP, utilizzando i cosiddetti name server.

Nel progetto iniziale del sistema, i nomi a dominio erano limitati a stringhe di caratteri latini, che comprendevano solo lettere dalla "a" alla "z", numeri da "0" a "9"e il carattere "-".

La struttura gerarchica del sistema viene riflessa con la separazione dei simboli a livelli diversi mediante un punto. Ad esempio, www.mci.com.

La stringa più a destra è conosciuta come top-level domain name mentre le stringhe verso sinistra sono i sottodomini. Esistono quindici top-level domain generici (.com, .net, .org, .gov, .int, .edu, .mil, .arpa, .coop, .aero, .pro, .name, .info, .museum e .biz) e 243 cosiddetti country code top-level domain (CCTLD) che indicano domini nazionali, quali, ad esempio, .us per gli Stati Uniti e .za per il Sud Africa42.

Nell'arco degli ultimi due anni i tecnici dell'IETF, fra le altre cose, hanno lavorato per sviluppare un modo per usare nei record del DNS insiemi di caratteri diversi da quello dei caratteri latini.

È stato scelto come riferimento il set di caratteri chiamato unicode43 che codifica i caratteri con 16 bit.

La codifica Unicode è stata quindi inserita da IETF nella serie di documenti standard Internet conosciuti come Requests For Comments (RFCs) [3].

Lo sforzo per introdurre questi nuovi nomi a dominio non latini nel DNS è ancora in corso, perché ci sono ancora molti problemi complessi da risolvere per ottimizzare questa estensione; non ultimo quello di determinare le cosiddette restriction tables per ogni particolare linguaggio in modo da minimizzare i caratteri che possano creare nomi duplicati o che possano confondere gli utenti.

Per di più, per realizzare una completa interoperabilità, i codici a 16 bit del sistema UNICODE devono poter essere codificati come codici validi ad 8 bit per i DNS, che usano una parte limitata del set di caratteri ASCII (American Standard Code for Information Interchange).

È anche importante ricordare che l'introduzione di caratteri non appartenenti all'alfabeto latino può avere alcuni effetti collaterali negativi.

Se si assume che la maggior parte degli utilizzatori di Internet sia in grado di leggere e distinguere caratteri latini appartenenti all'insieme ristretto A-Z, 0-9 e "-", questo set di caratteri può essere considerato universalmente riconoscibile, mentre al contrario i caratteri cinesi, arabici, cirillici, georgiani e ebraici non sono riconosciuti da tutti.

Ne consegue che quello che si chiama "internazionalizzazione" del DNS possa significare in realtà solo la sua "localizzazione".

H. Sicurezza

Un articolo sull'evoluzione di Internet non può non prendere in considerazione il problema della sicurezza.

Internet è nota per gli attacchi, subiti negli ultimi quindici anni, verso le sue stesse infrastrutture, quali host e router, ed anche verso elementi del DNS.

Alcuni di questi attacchi cercano di sfruttare le debolezze presenti nei sistemi operativi di host, router e server ed in genere sono variazioni del modello denial-of-service (DoS), che consiste nel generare grandi quantità di traffico verso un sito, obiettivo dell'attacco stesso.

In una variante di questo tipo di attacco, chiamata distributed DoS attack (DDoS), si infetta un grande numero di host (tipicamente PC), installando al loro interno programmi detti cavalli di Troia (Trojan Horse) che possono, successivamente, essere attivati da remoto per inviare grandi quantità di traffico verso un qualsiasi host, obiettivo del "vero" attacco.

Il primo grande attacco su Internet risale al 1988 e compromise migliaia di host che utilizzavano sistemi operativi UNIX e fu chiamato worm perché il software, che andava ad insediarsi nei vari host, si replicava e si propagava attraverso Internet su altri host.

Nella fase iniziale di questo attacco, U.S. Defense Advanced Research Projects Agency (DARPA) creò il Computer Emergency Response Team (CERT)44, tuttora attivo.

Per contrastare gli attacchi alla sicurezza è stata sviluppata una grande varietà di meccanismi. Alcuni presuppongono l'uso di firewall per osservare il traffico che fluisce, in ingresso e in uscita, da una rete aziendale e per limitare l'uso di certi protocolli o per trattare in modo asimmetrico l'instaurazione di connessioni verso l'interno o l'esterno del firewall.

I venditori di router e di dispositivi per la sicurezza hanno sviluppato degli strumenti chiamati Intrusion Detection Systems che osservano le strutture di traffico per cercare di individuare le possibili forme di attacco e dirigerne i dati verso i cosiddetti blackholes dove vengono semplicemente distrutti, o per deviarli in zone protette in modo da sottoporli ad ulteriori analisi.

L'Autenticazione è un'altra area importante nella quale sono avvenuti, negli ultimi anni, sviluppi significativi.

L'invenzione della crittografia mediante chiave pubblica [4] è stata immediatamente seguita da realizzazioni basate su tale sistema. Fra queste la più conosciuta è il cosiddetto algoritmo RSA, inventata da R. Rivest, A. Shamir e L. Adleman.

Grazie alla crittografia a chiave pubblica si fece strada il concetto di firma digitale associata all'uso di coppie di chiavi (public key e private key) per proteggere le informazioni in transito o in fase di memorizzazione.

Poiché la crittografia mediante chiave pubblica presenta una complessità computazionale elevata e dipendente dalla lunghezza del messaggio da crittografare, spesso per criptare il traffico viene usata una chiave simmetrica convenzionale (condivisa sia dal trasmettitore che dal ricevitore), ma la chiave stessa (molto più corta del messaggio da crittografare, N.d.T.) viene trasmessa inizialmente da una parte all'altra usando la crittografia con chiave pubblica.

Fra i più conosciuti metodi di crittografia simmetrica c'è il Data encryption standard (DES)45 ed è stato sviluppato dal NIST (National Institute of Standards and Technology). Varianti di questo metodo sono l'algoritmo triple-DES46 ed il più recente Advanced Encryption Standard47.

Tecnologie emerse recentemente includono gli elliptic codes48 che sono conosciuti da trenta anni o più, ma solo ora stanno cominciando ad essere disponibili in applicazioni aperte all'uso pubblico.

Ognuna di queste tecnologie lascia intravedere la possibilità che l'autenticazione forte, realizzata per mezzo di metodi di crittografia forti, possibilmente associata a dispositivi come smart card49, possa divenire la tecnica preferita per identificare in modo sicuro i punti di accesso alle reti, gli utilizzatori di applicazioni, i partecipanti a transazioni ed altro ancora.

Un'altra area di grande interesse per la sicurezza è chiamata Authentication, Access control, and Accountability (AAA). In questo contesto le parti interessate vengono autenticate usando password ordinarie, password non riutilizzabili o certificati digitali firmati; una volta autenticate le parti, si possono consultare i database contenenti i loro privilegi (autorizzazioni e campo d'accesso) per determinare quali servizi e informazioni sono autorizzati. Infine, per monitorare i casi di abuso dei permessi, si possono creare tracce e log.

Le discipline di tipo AAA continuano ad essere sviluppate ed il loro uso diverrà sempre più vantaggioso con l'aumentare della loro adozione. Uno dei "sacri graal" di questa area è il cosiddetto single sign-on che intende semplificare l'accesso in rete per gli utenti senza per questo compromettere la sicurezza.

III. FORZE E TENDENZE COMMERCIALI

Nonostante la sua lunga storia, le opportunità commerciali per Internet non si svilupparono sino ai primi anni ottanta. Molte compagnie parteciparono alla prima fase commerciale di Internet; tra queste 3COM50 e SUN Microsystems51 in aggiunta a Proteon e Cisco Systems. Proteon metteva in commercio sia reti token ring che router Internet, mentre Cisco Systems si occupava solamente di router.

Negli Stati Uniti, i servizi commerciali Internet emersero intorno al 1989, con qualche anno di anticipo rispetto ad altre parti del mondo. Sempre negli Stati Uniti, la rete ARPANET cessò di esistere a metà del 1990, poco tempo dopo che l'U.S. Federal Networking Council52 aveva rilasciato il permesso alla Corporation for National Research Initiatives (CNRI)53 di collegare il servizio commerciale di posta elettronica MCI Mail54 ad Internet (anno 1988). Questa interconnessione ebbe luogo a metà del 1989 attraverso una connessione alla rete NSF (NSFNET).

In quello stesso anno emersero tre Internet Service Provider (ISP) commerciali: UUNET Technologies55, PSINet56 e CERFNET57. Dal 1989 sono nati moltissimi ISP e, mentre molti sono falliti, migliaia sono tuttora in servizio nel mondo intero per fornire servizi Internet a clienti di ogni tipo.

A. La nascita dell'Internet Commerciale

Lo sviluppo di Internet ebbe inizio nel 1983 all'interno delle comunità accademiche. In seguito, a partire dal 1989, fu sostenuto dalle imprese commerciali grazie allo sforzo congiunto delle industrie che fornivano servizi e infrastrutture Internet.

Anche i governi e le istituzioni militari contribuirono all'evoluzione commerciale dei prodotti e servizi di Internet in quanto utilizzavano infrastrutture, software e servizi commercialmente disponibili ed indispensabili per soddisfare le loro esigenze in termini di comunicazioni digitali.

Il World Wide Web di tipo commerciale nacque nel 1994, quando Netscape Communications58 cominciò a vendere i propri client e server Web. Fra i primi clienti di Netscape Communications va ricordata MCI Communications, che acquistò le licenze per i client e i server per i suoi servizi commerciali online.

L'enorme successo riscontrato dall'iniziale offerta pubblica di Netscape, nell'agosto del 1995, permise il boom del business relativo al mondo Internet, a volte chiamato dot-com boom. In quel periodo i capitali di investimento (venture capital) piovevano in massa su qualsiasi piano di impresa che menzionasse la parola Internet.

Furono costruite fortune in brevissimo tempo e l'esplosione commerciale raggiunse il suo picco nel 1999. Dall'aprile 2000, il mercato si ridimensionò fortemente e la grande dot-bomb implose, con perdite enormi.

Per tutto il periodo dell'Internet mania, comunque, gli utilizzatori di Internet e il numero di host e dispositivi connessi continuò ad essere in aumento consistente. Un importante studioso della crescita di Internet e delle statistiche che la riguardano è A. Odlyzko, responsabile del Digital Technology Center dell'Università del Minnesota, che ha sede a Minneapolis59. Odlyzko mostra che Internet non ha mai raggiunto fattori di crescita del 100% all'anno, ma ha tuttavia mantenuto un tasso di crescita annuale pari al 50-80% a partire dal 1988.

Il tasso di crescita è diminuito solamente negli ultimi due anni (all'incirca 40-80% per anno), ma rimane sempre buono e, anzi, si stima che possa tornare a crescere ulteriormente quando l'economia mondiale migliorerà.

Anche tralasciando le normali operazioni di acquisto di dispositivi ed i servizi Internet di vendita all'ingrosso o al dettaglio, si può comunque affermare che gli affari basati su Internet hanno continuato a svilupparsi.

Molti sono crollati con il crollo del boom di Internet ma, quelli che sono sopravvissuti, sono diventati modelli di business sostenibili. Molte aziende investirono pesantemente sui servizi Web (Web site interni, servizi transazionali basati su Web, servizi business-to-business e business-to-consumer, pubblicità Web-based), ma non tutti (specialmente l'ultimo) raggiunsero l'enorme successo sperato, anche se compagnie come, ad esempio, Google60 sono riuscite a rendere redditizio il servizio di ricerca, rivoluzionando ciò che si pensava riguardo ai servizi Web.

Altre compagnie, quali American Online (AOL)61 e Yahoo!62 sono sopravvissute, anche se molte altre sono fallite o sono state comprate. Dall'aprile del 2000 i prodotti ed i servizi orientati a Internet hanno attraversato un ampio processo di consolidamento.

La relativamente recente nascita dei Web services, ricordati in questo articolo nella sezione sull'evoluzione tecnologica, rappresenta un nuovo punto cruciale dal quale dipenderà lo sviluppo commerciale di un grande numero di compagnie.

B. Protezione della proprietà intellettuale

Il problema della pirateria63 è stato per molti anni una grande preoccupazione per le industrie software e oggi tocca da vicino anche l'editoria, l'industria discografica e l'industria cinematografica.

L'industria discografica è stata fortemente coinvolta dal mondo Internet e certamente non sempre con piacere. Dal momento in cui si cominciarono a codificare files musicali nel formato MP364, gli appassionati iniziarono ad accumularli ed a scambiarseli attraverso Internet, finché, alla fine, una compagnia chiamata Napster sviluppò un sistema peer-to-peer per permettere lo scambio di questi tipi di file.

L'industria discografica reagì duramente a questo sviluppo e finì con il citare in giudizio Napster ed i suoi utenti per violazione del copyright.

Questo caso non è altro che la punta dell'iceberg in termini di protezione della proprietà intellettuale.

Alla fine Napster si accordò con chi l'aveva citata, ma problemi analoghi si replicarono per qualsiasi contenuto digitale soggetto a proprietà intellettuale: film, libri e software.

Apple Computer introdusse il servizio commerciale chiamato iTunes65, che permette agli utilizzatori di scaricare musica codificata in formato MP3 ad un costo molto limitato.

Da quando il servizio è stato inaugurato sono state scaricate approssimativamente dieci milioni di canzoni, utilizzando generalmente un dispositivo chiamato iPod, che Apple ha messo in commercio.

Questa non è la prima volta che la tecnologia è entrata in rotta di collisione con il mondo dell'industria sulla protezione della proprietà intellettuale.

Quando la Xerox mise in commercio la fotocopiatrice a secco, gli editori di libri si preoccuparono subito per il timore di copie pirata, ma le stesse argomentazioni si ripeterono poi per i registratori audio e video e oggi si ripropongono sullo scambio via Internet di copie di contenuti digitali.

Nel caso delle copie, si è fatto strada il concetto di fair use (uso giustificato) che permette agli utilizzatori di duplicare tutto o parte di un contenuto digitale per usi personali (come ad esempio il back up su un mezzo rimovibile come un floppy disk o un CD ottico).

Il problema, in realtà, verte sulla qualità di queste registrazioni digitali (ogni copia è perfetta o meglio, è esattamente come l'originale).

Queste copie "perfette" rappresentano il rischio maggiore per il titolare della proprietà intellettuale, che può perdere il controllo sulla sua opera se questa può essere riprodotta facilmente. Le emittenti di HDTV, sia via cavo che via satellite, hanno le stesse preoccupazioni, specialmente con l'arrivo dei digital home recorders come il sistema TiVo66.

Recentemente la Disney ha iniziato i test di un servizio chiamato MovieBeam67, nel quale file protetti sono trasmessi via radio a ricevitori che hanno dischi da 160GB. Il drive può contenere circa cento film e la Disney ha programmato di trasmettere fino a dieci film alla settimana. La trasmissione utilizza i canali Disney già accessibili senza interferire con il segnale video analogico che viene trasmesso simultaneamente.

Visto che il mondo industriale si è alla fine adattato a queste nuove tecnologie, che sembravano poterlo minacciare, è ragionevole aspettarsi che le attuali tensioni sulle minacce alla proprietà intellettuale attraverso Internet possano essere in qualche modo risolte.

Nel caso delle videocassette, ad esempio, l'industria cinematografica capì che poteva ottenere un guadagno tre volte superiore dal noleggio di cassette preregistrate rispetto a quello che poteva ottenere nei cinema.

C. Larga Banda

L'accesso a larga banda ad Internet continua ad essere motivo di grandi controversie. Tutti lo vogliono, ma non necessariamente lo ottengono alle stesse condizioni.

Gli aspetti regolamentari della larga banda verranno presi in considerazione nella successiva sezione, tuttavia conviene fare subito qualche considerazione sugli aspetti commerciali. Al momento attuale ci sono tre sole opzioni per l'accesso a larga banda: cable modem, DSL e connessione digitale via satellite.

Altre alternative wireless come il Multipoint Microwave Distribution Service (MMDS) non si sono ancora dimostrate economicamente fattibili. [Negli Stati Uniti, N.d.T] gli utenti che usano cable modem sono praticamente il doppio di quelli che usano DSL.

Il motivo è in parte riconducibile al fatto che parte di quei consumatori sono già verosimilmente abbonati al servizio di televisione via cavo e vedono l'accesso a larga banda a Internet come una semplice aggiunta a quello che hanno già. D'altro canto, i collegamenti DSL possono essere associati a servizi telefonici o Internet, ma non hanno il beneficio del traino dato dal servizio televisivo.

Continuano ad esserci molte discussioni sul costo dei servizi e dei dispositivi a larga banda e sul tipo di circostanze che possano renderne giustificabile l'uso. In passato la fibra ottica è stata vista come il Sacro Graal per l'accesso a larga banda, sia per uso privato che per uso affari.

Però, mentre le imprese possono spesso giustificare il costo di una larga banda dedicata con il fatto di aggregare molte richieste interne e quindi ridurre il costo unitario, il servizio residenziale è difficile da giustificare in quanto presenta costi molto elevati e per di più non deducibili dalle tasse. Tuttavia, nonostante tutto, le richieste per l'accesso a larga banda continuano ad aumentare.

La Federal Communication Commission (FCC) ha riportato che alla fine del 2002 venti milioni di famiglie avevano accesso al servizio a larga banda.

Poiché la popolazione degli Stati Uniti ha raggiunto 291.500.000 abitanti nel 200368 e la media di componenti per ogni famiglia si è ridotta, nel 200269, a 2,6 persone, si può stimare che, alla fine del 2002, centododici milioni di persone erano potenziali utenti del servizio a larga banda e che l'indice di penetrazione del servizio stesso fosse pari al 16%. Nel 1999 solo 2,8 milioni di famiglie avevano l'accesso a larga banda; dunque il tasso di crescita di questo tipo di servizio è stato decisamente significativo.

Molti pensano che lo sviluppo della larga banda possa dare il via ad una valanga di servizi e investimenti. Sebbene sia ragionevole pensare che per certe applicazioni si richieda real-time o trasferimenti di grandi quantità di dati (immagini, video o audio), va ricordato che la tecnologia disponibile per l'accesso residenziale a larga banda tende ad essere asimmetrica. In pratica, l'utente ha a disposizione capacità nettamente maggiori per ricevere informazioni che per trasmetterle.

Non sarebbe sbagliato aspettarsi un aumento delle dimensioni di database contenenti informazioni personali con la diminuzione del costo e l'aumento della capacità dei dispositivi per la archiviazione dati. Il servizio Disney MovieBeam ricordato in precedenza, ad esempio, prevede un a capacità di memorizzazione del disco di 160GB.

Ragionando su questa linea, si arriva a concludere che l'accesso simmetrico debba essere un'aggiunta necessaria al servizio a larga banda, così da permettere tutta una serie di applicazioni che prevedono una notevole quantità di dati condivisi fra gli utenti. Comunque, abbiamo già visto alcune tendenze del comportamento dei consumatori per i file audio, anche in assenza di servizi simmetrici a larga banda.

D. Altre tendenze

Sebbene in questo momento [settembre 2004, N.d.T.] non siano ancora disponibili statistiche aggiornate, ci sono molte indicazioni secondo cui gli utenti stanno sostituendo le linee telefoniche a banda stretta in favore del servizio telefonico wireless e/o del servizio a larga banda (ad esempio cable modem).

Molti segnali indicano che la fatturazione ed il pagamento di prodotti online siano in fase di espansione. Questo fatto dovrebbe avere un impatto sul servizio di posta privilegiata (prioritaria o raccomandata).

Lo shopping online dovrebbe accrescere il volume di affari delle compagnie di spedizione come U.S. Postal Service, FedEx, UPS e DHL, tanto per citarne alcune. Sta già accadendo che alcune compagnie, come UPS, stiano predisponendo magazzini distribuiti sul territorio, in modo da evadere gli ordini direttamente dai magazzini stessi, nel momento in cui i venditori di beni decidano di usare questo servizio in outsourcing.

Altre statistiche su Internet indicano una crescita di transazioni business-to-consumer e business-to-business, dove queste ultime hanno un valore unitario più elevato.

Un'altra tendenza ormai evidente è l'adattarsi della gestione delle relazioni con il consumatore allo stile dei servizi online. Il tracciamento online delle spedizioni di merci, dello stato dei voli, della prenotazione dei biglietti o di altri beni di consumo come fiori, libri, abiti appare in netta crescita.

L'uso dei motori di ricerca per cercare prodotti o servizi specifici, compresi gli itinerari di viaggio, sta aumentando rispetto alle vendite su catalogo, se addirittura non le sta rimpiazzando.

In generale, il sempre crescente contenuto informativo di Internet sta diventando un'infrastruttura di riferimento a cui chiunque si rivolge, in prima battuta, quando è in cerca di informazioni. Tanto per fare un esempio, come dovrebbe essere chiaro dalle note, Internet ha fornito una sostanziale quantità di riferimenti per questo articolo.

IV. INTERNET GOVERNANCE, POLICY E REGULATION.

Questa sezione richiederebbe un libro o forse addirittura uno scaffale di libreria, ma lo spazio e il tempo disponibili per questo articolo limitano notevolmente gli aspetti che possono essere presi in considerazione.

Comunque, è vitale ricordare che le questioni di policy concernenti il mondo Internet sono fra le problematiche più critiche con cui si può avere a che fare. Tali problematiche hanno spesso portata mondiale; ciò comporta difficoltà di giurisdizione e, potenzialmente, collisioni fra culture caratterizzate da pratiche sociali e leggi assai diverse. Verranno quindi considerati, per quanto possibile, solo alcuni aspetti.

A. Internet Governance e ICANN

Internet Governance è un termine ambiguo e non ha una definizione semplice, tanto che spesso ha significati diversi per persone diverse, cosa che porta a dibattiti accesi.

Uno degli organismi di controllo del mondo Internet più visibili è l'Internet Corporation for Assigned Names and Numbers (ICANN)70. Creato nell'ottobre del 1998, dopo un grande dibattito internazionale che arrivò a coinvolgere la Casa Bianca, la Commissione Europea e molte altre parti interessate, ICANN ricevette un mandato molto specifico e relativamente limitato sulla gestione di Internet.

ICANN è infatti responsabile della supervisione del servizio DNS e degli altri identificatori univoci necessari per il funzionamento di Internet, compresi lo spazi degli indirizzi, e di un sottoinsieme dei parametri di protocollo che deve essere mantenuto in tabelle usate come riferimento dagli sviluppatori software e dagli operatori.

Dal momento della sua creazione, ICANN ha cercato di limitare la portata delle proprie responsabilità, senza riuscirvi. In effetti, essendo uno dei pochi enti incaricati di un ruolo di gestione, seppur parziale, di Internet, ICANN è stata spesso bersaglio di consumatori infuriati, aziende e governi che non avevano altri a cui rivolgersi.

Il concetto di Internet Governance, comunque, non può essere semplicisticamente limitato al ruolo rivestito da ICANN; si tratta di un concetto che include moltissime problematiche quali la calunnia, la diffamazione, la frode, la mistificazione, le politiche fiscali, la protezione della proprietà intellettuale (trademark e copyright), la protezione del consumatore, il controllo sulla stabilità ed integrità di funzionamento del sistema DNS, la protezione della privacy per le informazioni personali memorizzate nei registri del domain name system, il controllo sulle intercettazioni di traffico e-mail, la comunicazione VOIP, la comunicazione istantanea (Instant Messaging) e altre modalità di comunicazione. I lettori attenti potranno generare liste ancora più lunghe e capire che le problematiche citate sono molto più vaste delle specifiche responsabilità di ICANN.

Sebbene l'autore di questo articolo sia probabilmente influenzato, essendo parte in causa come presidente di ICANN, ritiene comunque importante che ICANN non venga forzata ad accrescere la portata delle sue responsabilità, avendo già un mandato molto impegnativo e difficile da svolgere.

Piuttosto, è necessario che ICANN lavori con le altre parti interessate per trovare punti d'incontro appropriati, in modo da risolvere le problematiche di governance associate a Internet.

Ad esempio, esistono dispute sul diritto di registrazione del nome a dominio in un top-level domain, ed ICANN ha lavorato con la World Intellectual Property Organization (WIPO)71 per sviluppare la Uniform Domain Name Dispute Resolution Policy (UDRP)72 che fornisce servizi di arbitrato73 per le parti in disputa sui diritti di registrazione.

Una caratteristica importante di UDRP è che il servizio di arbitrato che essa fornisce non esclude il successivo ricorso alle vie legali se una delle parti in disputa non è rimasta soddisfatta dall'arbitrato stesso.

Per quanto riguarda le lamentele dei consumatori, ICANN si rivolge ai vari enti nazionali qualora esistano, ad esempio, negli Stati Uniti, la Federal Trade Commission (FTC)74. Sugli atti illegali ci si aspetta l'intervento della legge, che può essere a livello locale o nazionale.

Negli Stati Uniti, le autorità nazionali in termini di legge sono rappresentate dall'Ufficio Federale di Investigazione (FBI); dall'Ufficio U.S. Marshals; dai Servizi Segreti degli Stati Uniti; dall'Ufficio per alcool, tabacco e armi da sparo; dal Dipartimento di Giustizia; dal Servizio per l'Immigrazione e l'Integrazione; dal Servizio per il Consumatore; dal Dipartimento del Tesoro; dalla Commissione di controllo della Borsa (SEC); dall'Amministrazione per la lotta alla droga (DEA); e da ogni altra organizzazione a livello nazionale responsabile di qualsiasi forma di intervento per il rispetto della legge.

B. Regolamentazione

La gestione di Internet può comprendere anche la regolamentazione (Internet regulation) ed in questo ambito molti aspetti di Internet possono fare alzare il livello di attenzione di enti di regolamentazione per le telecomunicazioni come U.S. FCC75 o OFCOM in Inghilterra76. Una delle maggiori difficoltà legata alla gestione di Internet sta nel capire quanto essa ricada nei regimi regolatori esistenti, o quanto richieda una visione più ampia.

Si sarebbe tentati di pensare, ad esempio, che l'uso della comunicazione voce su Internet debba seguire gli stessi regimi di regolamentazione che il segnale audio a banda stretta ha seguito in passato, ma questo sarebbe un grave errore.

Come abbiamo visto precedentemente, Internet supporta praticamente ogni modalità di comunicazione e alcune di queste modalità possono essere supportate simultaneamente.

Piuttosto che regolamentare Internet sommando tutte le regolamentazioni per ogni modalità di comunicazione possibile, sarebbe meglio riesaminare le basi della regolamentazione delle vecchie tecnologie alla luce dei loro analoghi in Internet.

In una illuminante deviazione dal pensiero dominante, L. Solum ha scritto in un articolo sulla regolamentazione in Internet che tale regolamentazione, se mai dovesse essere fatta, dovrebbe seguire i principi di stratificazione tipici dell'architettura di Internet [5].

Ad esempio, negli Stati Uniti, FCC è responsabile per la regolamentazione delle telecomunicazioni mentre l'Agenzia Nazionale per le Telecomunicazioni e l'Informazione77 per alcuni aspetti del controllo. Il Dipartimento di Stato degli Stati Uniti rappresenta gli Stati Uniti in enti quali l'International Telecommunication Union78. In altri paesi, la situazione può essere peggiore o migliore in termini di coordinamento fra le varie parti del governo.

Secondo la tesi di Solum, la regolamentazione dovrebbe essere applicata al livello dell'architettura Internet più vicino a quello che presenta problemi regolatori, perché una regolamentazione su livelli diversi produce sovraregolamentazione o sottoregolamentazione, nel senso che può andare ad influenzare aspetti che non dovrebbero essere regolati, o a non influenzarne altri che, al contrario, dovrebbero essere regolati.

Ad esempio, una corte della Pennsylvania ordinò agli ISP il blocco di certi siti Web su un server spagnolo che erano responsabili della vendita di materiale pedofilo. Poiché gli ISP non potevano bloccare pagine Web specifiche, furono costretti a bloccare tutto l'indirizzo IP del server, impedendo quindi l'accesso da MCI UUNET a decine di migliaia di pagine contenute in quel server che non presentavano alcun problema. Quindi, un blocco a livello di ISP comportò un blocco di contenuto Web "innocente". Per agire con maggiore precisione, sarebbe stato necessario avere la possibilità di trattare direttamente con il Web service provider (una compagnia spagnola).

Analogamente, venne emesso un ordine di blocco per un certo numero di ISP da parte di un governo che non voleva permettere che il traffico VOIP entrasse nel proprio Paese nel timore che venissero ridotti gli introiti della compagnia telefonica per le chiamate internazionali, compagnia posseduta in parte dal governo stesso ed in parte da privati.

Il blocco a livello ISP si dimostrò solo in parte efficace perché chi usava VOIP si poté spostare su porte logiche diverse da quelle normalmente usate. In questo caso, la rete si dimostrò troppo stretta.

L'approccio stratificato di Solum cerca, al contrario, di focalizzare la regolamentazione sul livello dell'architettura di Internet più appropriato.

Negli Stati Uniti, la FCC ha suggerito di classificare il VOIP come un servizio di informazione non soggetto a regolamentazione convenzionale.

Questa posizione ignora la reale essenza dei sistemi a larga banda: il sistema DSL o cable modem, sopra il quale fluiscono anche i traffici VOIP, è caratterizzato da una architettura stratificata a livelli e include un livello di trasporto/trasmissione che può e dovrebbe essere soggetto a regolamentazione se chi offre il servizio ha potere su quanto il servizio trasporta. Altrimenti, il fornitore del servizio a larga banda potrebbe essere in grado di pacchettizzare la propria offerta in modo da bloccare di fatto la competizione sui livelli protocollari più alti.

Idealmente si vorrebbe stimolare la competizione fra service provider: il metodo più adatto per raggiungere questo scopo dovrebbe consistere nel regolare l'aspetto di trasporto sul canale a larga banda in maniera tale che tutti gli ISPs abbiano uguale accesso all'infrastruttura di comunicazione. Questo aprirebbe la competizione fra cable modem e Wi-Fi sopra il livello di trasporto, semplificando la replicazione nel mondo a banda larga di quello che è stato fatto per il servizio voce a banda stretta, in cui esiste la possibilità di connessione verso qualsiasi ISP ed i clienti possono scegliere fra un numero illimitato di ISP.

C. Vertice Mondiale sulla Società dell'Informazione

Il Vertice Mondiale sulla Società dell'Informazione79 (World Summit on the Information Society) è un'iniziativa della International Telecommunication Union (ITU) e delle Nazioni Unite (ONU) che ha lo scopo di trattare in modo globale le infrastrutture dell'informazione in modo da considerare le possibilità di controllo che ne stimolino la crescita e la diffusione nel mondo. Questo vertice ha luogo in due fasi distinte, la prima delle quali si è tenuta a metà dicembre del 2003 a Ginevra, mentre la seconda è prevista per Novembre 2005 in Tunisia.

Tra i molti aspetti in discussione c'è la questione della gestione di Internet (Internet Governance). Nei molti dibattiti che hanno portato al vertice è risultato chiaro che il significato e la portata di Internet Governance sono stati confusi sotto due aspetti.

Per prima cosa si è assunto che ICANN sia l'ente che si occupa di Internet Governance e poi che questo sia o un compito troppo grande per ICANN, e quindi che ICANN dovrebbe passare la mano, o che il ruolo di ICANN sia limitato, ma al contempo insufficiente e quindi la materia della Internet Governance dovrebbe essere passata all'ONU o ad una sua agenzia.

V. CONCLUSIONI

In conclusione, Internet continuerà ad evolversi finché gli utenti avranno completo accesso alle sue specifiche tecniche ed avranno la possibilità di generare traffico a ogni livello protocollare, compreso il livello IP.

Sebbene questa situazione comporti molti potenziali rischi per gli operatori e gli utilizzatori di Internet, essa assicura una forte competizione e permette lo sviluppo di prodotti, servizi e anche, quando possibile, la realizzazione di esperimenti da parte di studenti, laureati e ricercatori.

Nel corso di un decennio, Internet potrà raggiungere i tre miliardi di utenti ed i trenta miliardi di dispositivi collegati. Come molte previsioni anche questa è probabilmente errata, ma può in realtà essere considerata sensata, se si considera l'apparentemente inesorabile penetrazione di Internet nella società del ventunesimo secolo.

Quando si considera la regolamentazione, l'approccio di Solum, che si basa sull'architettura stratificata a livelli di Internet, appare come il più adatto per risolvere i problemi che si possano presentare.

Riguardo alla gestione, ICANN dovrebbe lavorare con le organizzazioni governative e non, per determinare a chi possano rivolgersi le parti che richiedano assistenza su problemi gestionali, invece che ad ICANN.

Tuttavia, ICANN ha certe responsabilità di gestione che deve necessariamente cercare di assolvere, anche, se è il caso, lavorando assieme ad altri per portare a termine quei compiti che ricadono al di fuori delle sue responsabilità.

RIFERIMENTI

[1] B.M. Leiner, V.G. Cerf, D.D. Clark, R.E. Kahn, L. Kleinrock, D.C. Lynch, J.B. Postel, L.G. Roberts e S. Wolff. A brief history of the Internet. Internet Soc., Reston, VA. [Online]. Available: http://www.isoc.org/Internet/history/brief.shtml

[2] V.G. Cerf e R.E. Kahn, "A protocol for packet network interconnection", IEEE Trans. Commun., vol. COMM-22, pp. 627-641, May 1974.

[3] P. Faltstrom, P. Hoffman e A.Costello. (2003) RFC 3490: Internationalizing domain names in applications (IDNA). [Online]. Available: ftp://ftp.rfc-editor.org/in-notes/rfc3490.txt

[4] W. Diffie e M. E. Helmann, "New directions in cryptography", IEEE Trans. Inform. Theory, vol. IT-22, pp.644-654, Nov. 1976.

[5] L.Solum. (2003, June) The layers principle: Internet architecture and the law. Loyola Law School, Los Angeles, CA. [Online]. Available: http://ssrn.com/abstract=416263

NOTE

  • 1 http://www.yale.edu/pclt/COMM/SNA.HTM
  • 2 http://en.wikipedia.org/wiki/DECnet
  • 3 http://users.rcn.com/protn/services/
  • 4 http://newsroom.cisco.com/dlls/company_overview.html
  • 5 http://nethistory.dumbentia.com/; http://livingInternet.com/u/ui_bitnet.htm
  • 6 http://www.cren.net/cren/cren-hist-fut.html; http://livingInternet.com/u/ui_bitnet.htm
  • 7 http://www.cs.uu.nl/wais/html/na-dir/usenet/software/part1.html
  • 8 http://pubs.usgs.gov/publications/text/dynamic.html
  • 9 http://www.atmforum.com
  • 10 http://www.mplsforum.org/
  • 11 http://www.telegeography.com/resources/statistics/telephony/intl_traffic_growth.html
  • 12 http://ccnga.uwaterloo.ca/jscouria/GSM/gsmreport.html
  • 13 http://www.3gnewsroom.com/3g_news/nov_03/news_3948.shtml
  • 14 http://www.qualcomm.comm/about/index.html
  • 15 http://grouper.ieee.org/groups/802/11/; http://grouper.ieee.org/groups/802/
  • 16 http://en2.wikipedia.org/wiki/ALOHAnet
  • 17 http://inventors.about.com/library/weekly/aa111598.htm
  • 18 http://www.wimaxforum.org/home
  • 19 http://www.uwb.org/
  • 20 http://www.bluetooth.com/
  • 21 http://www.vivato.net/
  • 22 http://www.vnunet.com/News/1 120 445
  • 23 http://www.sdrforum.org/
  • 24 http://www.ceiva.com/
  • 25 http://www.ietf.org
  • 26 http://www.ipv6.org/
  • 27 http://www.cis.ohio-state.edu/jain/refs/ref_voip.htm
  • 28 http://www.enum.org/information/resources.cfm
  • 29 http://www.sipcenter.com/
  • 30 http://www.packetizer.com/iptel/h323/
  • 31 http://www.dslforum.org/
  • 32 http://www.cablelabs.com/
  • 33 http://www.direcpc.com/
  • 34 http://www.gridforum.org/
  • 35 http://setiathome.ssl.berkeley.edu/
  • 36 WebSphere è un marchio di mercato di IBM Corporation
  • 37 .NET è un marchio di mercato di Microsoft Corporation
  • 38 http://www.w3.org/People/Berners-Lee/Weaving/Overwiew.html
  • 39 http://www.w3.org/2002/ws/
  • 40 http://www.uddi.org/
  • 41 [Online]. Available://www.dns.net/dnsrd/, www.icann.org
  • 42 http://www.iana.org/cctld/cctld-whois.htm
  • 43 http://www.unicode.org/
  • 44 http://www.cert.org/
  • 45 http://www.itl.nist.gov/fipspubs/fip46-2/.htm
  • 46 http://csrc.nist.gov/cryptval/des/tripledesval.html
  • 47 http://csrc.nist.gov/CryptoToolkit/aes/
  • 48 http://www.tcs.hut.fi/ helger/crypto/link/public/elliptic/
  • 49 http://www.smartcardalliance.org/
  • 50 3COM fu fondata per costruire e vendere reti Ethernet. Queste divennero molto popolari nei gruppi accademici interessati alla costruzione di LANs di potenti workstations.
  • 51 SUN Microsystems adottò lo stack protocollare TCP/IP e il resto della suite di protocolli IP come base per il suo networking. Diversamente da IBM che utilizzò la tecnologia di sua proprietà SNA; di Xerox che utilizzò Xerox Network System (XNS); di Digital Equipment Corporation che utilizzò DECNET; di Hewlett Packard che utilizzò la tecnologia proprietaria DS Networking.
  • 52 Costituito inizialmente da rappresentative di DARPA, National Science Foundation (NSF), National Aeronautics and Space Administration (NASA), Department of Energy (DOE), Department of Health and Human Services (HHS) e di molte altre piccole organizzazioni di ricerca sponsorizzate dal governo federale degli Stati Uniti.
  • 53 http://www.cnri.reston.va.us
  • 54 MCI Mail è un marchio di mercato della Corporazione MCI
  • 55 Le tecnologie UUNET furono fondate nel 1987 come fornitrici del servizio nonprofit UNIX-to-UNIX-Copy Protocol (UUCP) ma furono riformate al for-profit nel 1989. UUNET è ora un operatore facente parte della MCI Corporation's Internet Service.
  • 56 PSINet era originariamente il nonprofit New York State Education and Research Network ma divenne for-profit nel 1989. In seguito PSINet fallì e le sue componenti furono acquisite da un'altra compagnia.
  • 57 CERFNET fu fondata nel luglio 1989 da General Atomics. In seguito fu acquisita da TCG, la quale fu poì inglobata da AT&T.
  • 58 Netscape Communications fu fondata nel 1994 da J. Clark e M. Andreessen in una reimplementazione commerciale di Mosaic World Wide Web browser sviluppato al National Center for Supercomputer Applications (NCSA) nel 1992 da Andreessen e E. Bina.
  • 59 [Online] Available: http://www.dtc.umn.edu/~odlyzko/
  • 60 http://www.google.com
  • 61 aol.com acquisì Time Warner durante il periodo in cui i servizi di AOL stavano crescendo rapidamente; la compagnia rinominò se stessa Time Warner e AOL rimase una sua parte.
  • 62 http://www.yahoo.com
  • 63 Il termine piracy è usato dalle industrie di proprietà intellettuale per caratterizzare il furto di proprietà, particolarmente di proprietà in formato digitale.
  • 64 MP3 sta per MPEG Audio Layer 3. MPEG il cosiddetto Motion Picture Expert Group. MP3 è una tecnologia di compressione digitale audio che deriva dagli standard MPEG-1 e MPEG-2. MP3 permette la compressione di CD audio di un fattore 8 o 12, mantenendo quasi la stessa qualità in termini di alta fedeltà del suono. MP3 fu sviluppato dal German Fraunhofer Research Institute. Thomson Multimedia ha brevettato MP3 negli Stati Uniti e in Germania.
  • 65 http://www.apple.com/itunes/
  • 66 http://www.tivo.com/0.0.asp
  • 67 http://www.Internetnews.com/xSP/article.php/3 085 021
  • 68 U.S. Census Department Population Reference Bureau.
  • 69 http://www.ameristat.org/Content/NavigationMenu/Ameristat/Topics1/MarriageandFamily/[...]
    • While_U_S_Households_Contract,_Homes_Expand.htm

  • 70 http://www.icann.org
  • 71 http://www.wipo.org/
  • 72 http://www.icann.org/udrp/udrp-policy-24oct99.htm
  • 73 http://arbiter.wipo.int/domains/index.html
  • 74 http://www.ftc.gov/
  • 75 http://www.fcc.gov/
  • 76 http://www.ofcom.org.uk/
  • 77 http://www.ntia.doc.gov/
  • 78 http://www.itu.int/home/
  • 79 http://www.itu.int/wsis/
  • VINTON G. CERF

    • Vinton G. Cerf ha conseguito la laurea B.S. in matematica all'Università di Stanford (Stanford, CA) nel 1965 e le lauree M.A. e Ph.D. in computer science all'Università della California (UCLA), rispettivamente nel 1970 e nel 1972.
    • Dal 1982 al 1986, ha guidato il gruppo di ingegneri dell'MCI Mail, il primo servizio commerciale e-mail ad essere connesso a Internet.
    • Dal 1986 al 1994, fu vicepresidente della Corporazione per le Iniziative di Ricerca Nazionale (CNRI). Attualmente è il vicepresidente senior di Technology Strategy per MCI, con sede a Ashburn, VA.
    • È coprogettista dello stack protocollare TCP/IP e dell'architettura di Internet. V.G. Cerf, insieme a R. E. Kahn, ha ricevuto nel 1997 la U.S. National Medal of Technology per aver fondato e sviluppato Internet.
    • È presidente onorario del Forum IPv6, presidente fondatore della Internet Society e presidente della Internet Corporation for Assigned Names and Number (ICANN).
    Quaderno WSIS 2005 indice
    cerf