UNA VISIONE GLOBALE DELLA NEUTRALITÀ DELLA RETE

Vittorio Bertola

  • La neutralità della rete è un argomento di cui negli ultimi anni si parla molto, in ambito internazionale prima ancora che italiano.
  • Nel nostro Paese la discussione è ancora limitata agli ambiti specializzati e solo molto recentemente si è cominciato ad ipotizzare interventi legislativi, mentre negli Stati Uniti e in varie nazioni europee la questione è già stata oggetto di discussioni politiche ad alto livello e talvolta anche di proposte di legge.
  • Si tratta di un tema complesso, che abbraccia trasversalmente tutti gli aspetti della rete - tecnici, economici, sociali, politici - poiché non deriva da uno di questi aspetti in particolare, ma dal modello di interazione tra i nodi della rete e quindi tra i suoi utilizzatori.
  • Cronologicamente, la neutralità della rete - pur se non chiamata con questo termine - nasce come tema tecnico nel momento in cui i primi "padri della rete" si trovarono a disegnare la sua architettura.
  • Nelle reti di telecomunicazione tradizionali, l'architettura è generalmente stata disegnata per minimizzare la complessità dei terminali utente, in quanto essi sarebbero stati da produrre in grande quantità e da distribuire agli utenti finali al prezzo più basso possibile, indipendentemente dal fatto che tale prezzo fosse sostenuto direttamente dagli utenti oppure dall'operatore del servizio in quanto proprietario del terminale concesso in uso.
  • Di conseguenza, la complessità tecnologica veniva concentrata nei nodi centrali della rete, che, pur risultando magari estremamente costosi, erano comunque in numero relativamente limitato e sotto il controllo diretto dell'operatore della rete, generalmente singolo o comunque facente parte di un ristretto numero di attori di grandi dimensioni soggetti ad autorizzazione o licenza pubblica.
  • Questo schema è tuttora in uso non solo per radio e televisione - sistemi che per il loro carattere di trasmissione broadcast ("uno a molti") non sono completamente paragonabili a Internet - ma anche per la rete telefonica, sia fissa che mobile, dove anzi il concetto di "rete intelligente" è stato uno dei driver dello sviluppo tecnologico negli ultimi decenni.
  • Alla fine degli anni '60, durante lo sviluppo dell'architettura di ARPAnet - la rete che poi evolvette in Internet - ci si trovò di fronte a uno scenario differente: non si trattava di realizzare una intera rete di telecomunicazione da zero, ma piuttosto di interconnettere tra loro dei grossi mainframe universitari, che rappresentavano già, per l'epoca, più o meno la massima complessità tecnologica disponibile. In altre parole, si disponeva già dei terminali di rete, ed erano già terminali costosi e complessi.
  • Inoltre, uno degli obiettivi del progetto era quello di sperimentare nuove tecnologie, tra cui l'idea allora innovativa della comunicazione mediante commutazione di pacchetto, opposta alla tradizionale commutazione di circuito delle reti telefoniche; la commutazione di pacchetto, riducendo l'operazione di instradamento della comunicazione al cosiddetto "store and forward", permise di semplificare concettualmente il ruolo degli apparati centrali della rete, riducendolo ad una sola operazione: spostare bit da un ingresso ad un'uscita.
  • Nacque così in modo naturale il concetto di "rete stupida": gli IMP di ARPAnet (Interface Message Processors, antenati degli odierni router) erano dedicati a svolgere la sola funzione di spostamento di bit, mentre tutte le operazioni più complesse sarebbero state svolte dai terminali intelligenti già disponibili agli estremi della rete. Inizialmente, peraltro, l'operazione a cui la rete era dedicata era quella di permettere il login remoto da un terminale situato presso un nodo di rete ad un mainframe situato presso un altro nodo: lo scopo della rete era effettivamente soltanto quello di spostare bit, remotizzando la connessione da terminale.
  • Tuttavia, anche quando negli anni successivi si svilupparono applicazioni più complesse - la posta elettronica, il trasferimento di file... - il paradigma non fu mutato; invece di complicare gli IMP, si sviluppò del software adeguato da far funzionare sui nodi esterni della rete.
  • Questo modello fu quindi conservato durante tutta la lunga fase dei primordi della rete, compreso durante la migrazione al set di protocolli TCP/IP; anche quando si dovette sviluppare il DNS, ossia un sistema di indirizzamento avanzato dei nodi della rete - una delle funzioni più tipiche del centro delle reti -, la scelta fu di demandare la funzione ad un normale applicativo utente. Col tempo, giunsero anche giustificazioni scientifiche ben argomentate sull'utilità del cosiddetto "principio end-to-end" (13).
  • Un'altra grande innovazione della rete ARPAnet fu il concetto di stratificazione dei protocolli. Già dall'inizio si provvide a distinguere le comunicazioni in due livelli: uno tra il terminale (host) e l'IMP, e uno tra il terminale e il terminale remoto (3, 6, 12).
  • Questo concetto influenzò il disegno delle reti di calcolatori degli anni successivi, tra cui DECnet, SNA e ISO/OSI; per quanto riguarda Internet, esso fu definitivamente riconosciuto quando, all'inizio degli anni '80, dagli originali protocolli si passò al neonato TCP/IP (4), ampliando significativamente il numero dei livelli e formalizzando la loro separatezza.
  • Il principio alla base della stratificazione dei protocolli è proprio la neutralità reciproca dei vari livelli: qualunque sia l'applicativo o il protocollo di livello superiore che si rivolge a quello di livello inferiore per ottenere un servizio di rete attraverso una interfaccia prestabilita, il livello inferiore deve offrire questo servizio in maniera imparziale, senza privilegiare alcuno degli interlocutori del livello superiore.
  • Questo "dovere" non è tuttavia imposto da una scelta politica, ma da una necessità di semplificazione tecnologica: attraverso questa "imparzialità" si permette di suddividere una trasmissione potenzialmente molto complessa in una serie di operazioni semplici, modularizzando il problema e riconducendolo a problemi meno difficili. La neutralità tra i vari protocolli costituisce insomma un vantaggio in termini utilitaristici, e rappresenta al contempo l'unico modo per riuscire ad incrementare il livello di complessiva difficoltà dell'operazione che l'utente finale può compiere sulla rete.
  • Stratificando i protocolli e suddividendone le funzioni in modo rigoroso e reciprocamente impermeabile è possibile delegarne la realizzazione ad attori diversi (quindi permettere cooperazione), permettere lo sviluppo di più implementazioni per lo stesso modulo (quindi permettere competizione), ed offrire la possibilità di aggiungere nuove funzionalità semplicemente cambiando alcuni dei moduli e senza la necessità di grossi investimenti per reimplementare l'intero software della rete (quindi permettere innovazione).
  • In coerenza con la tradizione informale di Internet, non vi fu mai una definizione formale della sua architettura, se non quando, venticinque anni dopo i primordi, di fronte agli inizi del tumultuoso sviluppo della Internet di massa e al rischio che masse di nuovi operatori e sviluppatori tecnologici non ne capissero i principi, lo Internet Architecture Board decise di riassumerne le basi, pur se con molto pudore (2).
  • Fu in realtà il vantaggio utilitaristico sopra descritto ad imporre questi principi come legge: la continua crescita di Internet, divenuta esponenziale verso la fine dello scorso millennio, e tale da inglobare progressivamente tutte le reti di telecomunicazione del tipo centralizzato, non sarebbe stata fisicamente e computazionalmente realizzabile senza l'adozione di questi principi; giacché sono questi principi ad offrire ad Internet, dal punto di vista tecnologico, la flessibilità necessaria per poter funzionare in un ambiente immenso ed immensamente diverso, ormai costituito da miliardi di calcolatori e grande quanto l'intero pianeta.
  • Fu più o meno in questo periodo, tuttavia, che il tema della neutralità degli strati di rete cominciò a manifestarsi non più in termini di architetture tecnologiche, ma in termini di architetture economiche. Con l'avvento della Internet di massa, aperta oltre gli originari confini della comunità di ricerca e di difesa che l'aveva sviluppata per i suoi primi venticinque anni, gli interessi economici divennero rilevanti; da sforzo collettivo e diretto da entità senza fine di lucro, Internet diventò la palestra dove aziende via via più grandi si scontravano per massimizzare i propri profitti.
  • Questa "seconda fase della neutralità della rete" si apre con un episodio che non viene comunemente associato a questa discussione, ma che a mio parere dovrebbe esserlo: la cosiddetta "guerra dei browser".
  • Tra il 1995 e il 1996, il fenomeno della rete globale non si chiamava ancora Yahoo o Google, ma Netscape: la prima vera "dot com" della storia, il cui unico prodotto era un nuovo browser che in brevissimo tempo, grazie a una crescita esponenziale, giunse ad occupare tra l'80 e il 90 per cento del mercato (17).
  • Fu in quel momento che il colosso Microsoft, in quegli anni al massimo della propria potenza economica e politica, decise di rinunciare all'originario progetto di una propria rete dial-up privata - la prima versione di Microsoft Network - e di trasformarlo in un accesso a Internet potenziato, ponendosi nel frattempo l'obiettivo di arrivare a conquistare il mercato dei browser, sperando di acquisire con ciò una posizione di vantaggio commerciale e di controllo sull'accesso a Internet, così come l'aveva già acquisito sui sistemi operativi per PC.
  • La mossa decisiva in questa guerra avvenne quando Microsoft, nell'ottobre 1997, rilasciò la versione 4.0 di Internet Explorer, che presentava una caratteristica importante: sui sistemi Windows - cioè la quasi totalità dei PC - non solo Internet Explorer era pre-installato e pre-configurato come browser di default, ma la maggior parte del suo codice veniva pre-caricato in memoria all'avvio del sistema; in questo modo, quando si desiderava accedere al Web, Internet Explorer si apriva in un lampo.
  • Per utilizzare un browser concorrente, quindi, l'utente finale doveva andarselo a scaricare, installarlo, configurarlo, e soprattutto, ogni volta che lo volesse usare, attendere un tempo infinitamente più lungo.
  • Chiaramente, non vi fu partita: in soli due anni la quota di mercato di Internet Explorer passò dal 15 - 30% (a seconda delle stime) dell'ottobre 1997 a circa l'80% della fine del 1999, per poi toccare un picco attorno al 95% tra il 2002 e il 2004.
  • Perché? Al di là degli eventuali meriti e demeriti specifici dei due contendenti, Internet Explorer godeva di un vantaggio fondamentale che non derivava dalle proprie qualità, ma dal fatto di essere prodotto dalla stessa azienda che già godeva di un quasi monopolio sul sistema operativo.
  • Tale azienda fece in modo che il sistema operativo si comportasse in maniera non neutrale, ossia favorisse uno dei due browser e sfavorisse l'altro.
  • Dal punto di vista tecnico, la separatezza tra i due strati - il sistema operativo, strato di livello inferiore che fornisce servizi verso l'alto, e il superiore strato delle applicazioni - veniva violata rendendo lo strato inferiore sufficientemente intelligente da distinguere tra le varie applicazioni ed offrire servizi di qualità diversa a concorrenti diversi.
  • Tuttavia, anche dal punto di vista economico il sistema operativo si comportava in modo non neutrale, in quanto uno dei due concorrenti era offerto gratuitamente e congiuntamente, mentre l'altro, pur gratuito (e pur costretto ad essere gratuito dall'esistenza del prodotto gratuito del concorrente-monopolista, minandone alla base la sostenibilità economica), doveva essere acquisito separatamente (10).
  • Questa pratica fu successivamente sanzionata dalle autorità anti-trust, a partire dagli Stati Uniti (15), e successivamente anche dall'Unione Europea. Il caso americano fu basato su un insieme di argomentazioni estremamente ampie, legate anche alla quota dominante di Microsoft sul mercato dei sistemi operativi e ad altri comportamenti commerciali.
  • E' interessante però notare come, tra le analisi scientifiche più citate sull'argomento, sia quelle tendenzialmente favorevoli a Microsoft (8) che quelle critiche (10) si concentrino sugli argomenti economici, ma ignorino quasi completamente il contesto dell'architettura di Internet e i comportamenti non neutrali di tipo tecnologico, mancando di notare il legame tra la natura tecnica della rete e delle sue applicazioni e la natura delle dinamiche economiche che la rete genera: la neutralità della prima richiede e provoca la neutralità delle seconde e viceversa.
  • D'altra parte, l'obiettivo dichiarato di Microsoft era quello di conquistare il controllo economico dell'accesso ai contenuti Web di Internet; bene, la strategia per realizzare tale controllo è passata attraverso un attacco alla neutralità tecnologica.
  • Non possiamo sapere se le sole azioni di "non neutralità economica" sarebbero state sufficienti a vincere la guerra dei browser; probabilmente sì, visto che già nei due anni precedenti all'ottobre 1997, quando Internet Explorer veniva spinto essenzialmente dal suo bundling gratuito con Windows e senza particolari dispositivi tecnologici, esso stava rapidamente conquistando quote di mercato.
  • La neutralità tecnologica della rete, insomma, non è da sola sufficiente a garantire la neutralità economica. Allo stesso tempo, però, la neutralità tecnologica è chiaramente un fattore frenante verso gli attacchi alla neutralità economica; non si spiegherebbe altrimenti come mai la difesa di posizioni di vantaggio commerciale si sia molto spesso realizzata tramite tentativi di violare la neutralità tecnologica.
  • Per esempio, un altro dei comportamenti contestati a Microsoft in questo periodo fu il tentativo di manipolare le specifiche e l'implementazione del linguaggio di programmazione Java in modo da rompere la sua capacità di funzionare su qualsiasi sistema operativo, ossia di creare un linguaggio di programmazione tecnicamente non neutrale allo scopo di favorire la creazione di applicazioni che funzionassero soltanto per Windows, sfavorendo quindi commercialmente i concorrenti nel mercato dei sistemi operativi.
  • Si giunge così alla nascita del dibattito sulla neutralità della rete in senso proprio, che peraltro, negli Stati Uniti, consegue in parte dalla discussione sull'accesso aperto e paritario da parte degli ISP all'infrastruttura dei grandi fornitori di televisione via cavo; nasce insomma ancora una volta come un tema strettamente economico e legato alla regolamentazione delle telecomunicazioni in senso classico, quelle di origine telefonica e televisiva.
  • Il tema, peraltro, si ripropone anche in Italia e negli altri Paesi sviluppati: quasi ovunque vi è una infrastruttura fisica di rete che è proprietà di un solo operatore ex monopolista, e persino all'apice della bolla di investimenti nella "new economy" è estremamente difficile immaginare la nascita di infrastrutture fisiche in competizione con essa (di fatto, l'unico caso di successo in Italia è Fastweb, che però, anche dopo molti anni di crescita, copre soltanto una parte minoritaria del territorio nazionale).
  • La concorrenza sul mercato della fornitura di accesso a Internet è cruciale per garantire la disponibilità di connettività Internet veloce, affidabile e a basso costo per gli individui e per le imprese, un elemento ormai fondamentale per il successo culturale ed economico di qualsiasi nazione; perché tale concorrenza sia possibile è allora necessario che l'unica infrastruttura fisica venga messa a disposizione di tutti gli ISP a condizioni paritarie, senza privilegiare l'ISP di proprietà del gestore della rete. In Italia, purtroppo, ciò è avvenuto solo in piccola parte, avendo come risultato una netta posizione dominante da parte di Alice, l'ISP di Telecom Italia, e in subordine di due o tre altri grossi player dotati del peso economico e politico necessario per non essere troppo maltrattati.
  • Se pensiamo che nel 2001, quando la maggior parte degli italiani si collegavano mediante dial-up scegliendo semplicemente il numero di telefono da chiamare, Tin.it era soltanto il terzo provider italiano con l'11% del mercato (9), è ragionevole ritenere che la proprietà dell'infrastruttura di rete abbia giocato un ruolo importante nel permettere all'ISP di Telecom Italia di conquistare la maggioranza (62%) del mercato (1).
  • All'inizio dell'attuale decennio, tuttavia, la diatriba sulla neutralità si allargò al livello superiore, ovvero alla relazione tra ISP e fornitori/utilizzatori di contenuti, dove iniziarono a verificarsi pratiche di discriminazione dei contenuti e delle applicazioni da parte degli ISP stessi.
  • Una delle prime cause fu la rapida diffusione dei primi applicativi peer-to-peer per la distribuzione della musica, che provocò un aumento altrettanto rapido della domanda di banda residenziale: i provider che non erano in grado di fronteggiare tale domanda o che temevano ritorsioni legali cominciarono ad adottare dispositivi tecnici per limitare, disturbare o bloccare l'uso di questi applicativi (in alcuni casi, per mancanza di mezzi tecnici, gli ISP si ridussero a terminare il contratto unilateralmente o perlomeno a minacciare di farlo se l'utente in questione non si fosse autolimitato).
  • Sempre per carenza di banda, o meglio per il tentativo di farsi pagare a prezzo molto più alto servizi che tecnicamente erano ormai quasi indistinguibili da quelli offerti al consumatore medio ma che commercialmente erano qualificabili come "professionali", parecchi ISP cercarono di vietare agli utenti di condividere l'accesso a Internet tra più computer, o di utilizzare applicazioni come server Web, server FTP e server di gioco in rete, talvolta mediante l'uso di dispositivi tecnici originariamente pensati per altri scopi, come il NAT, i firewall o l'assegnazione dinamica degli indirizzi IP.
  • Vi furono provider che bloccarono o rallentarono il funzionamento di applicativi innovativi, come Skype e i programmi di telefonia via Internet, quando essi andavano ad erodere la competitività dei servizi tradizionali offerti da aziende consociate, come la telefonia su rete fissa. I casi più clamorosi e più contestati si verificarono tuttavia quando l'intervento dell'operatore andava a ledere le aspettative fondamentali dell'utente della rete, quale quella di ottenere la connessione verso la risorsa richiesta e secondo gli standard tecnici della rete.
  • Per esempio, in un caso atipico ma comunque analogo a questi, nel settembre 2004 Verisign, operatore del registro per il dominio di primo livello .com, decise che tutte le richieste di risoluzione DNS per domini .com non esistenti non avrebbero più ricevuto la tradizionale risposta di "non esiste", ma sarebbero state servite come se il dominio fosse esistito, dirigendo il client a un server gestito da Verisign stessa.
  • Nel caso in cui la richiesta fosse finalizzata ad una navigazione Web, il browser dell'utente si sarebbe così trovato di fronte non al normale messaggio d'errore che ci accoglie quando inseriamo un indirizzo inesistente, ma ad una pagina di pubblicità gestita da Verisign stessa.
  • Questa palese violazione degli standard della rete suscitò un tale sdegno da venire ritirata dopo breve, ma dimostrò come il tema della neutralità e dell'indipendenza tra gli strati della rete - che vorrebbe che chi gestisce l'operazione di risoluzione di un nome a dominio non si immischi di quale sia l'applicazione che richiede tale operazione - fosse attuale anche per ciò che riguarda gli strati più basilari della pila di protocolli Internet. In Italia, nell'estate 2003, Telecom Italia sperimentò un servizio davvero innovativo: dopo l'avvio della connessione ADSL con Internet, al primo uso del browser, qualsiasi fosse l'indirizzo digitato si veniva rediretti alle pagine di "La casa di Alice", un negozio online dove il fornitore di connettività cercava di vendere ulteriori prodotti al proprio cliente.
  • Non c'era modo di sfuggire a questa pratica; ma ciò che fece infuriare più di tutto i clienti fu l'esplicita manipolazione del loro traffico, che lasciava loro la sensazione che il provider entrasse nelle loro comunicazioni e le manomettesse.
  • Dopo brevissimo tempo il servizio venne ritirato; eppure, proprio questo esempio ci porta nel cuore del dibattito sulla neutralità della rete propriamente intesa. Come abbiamo visto, esistono infiniti modi e infiniti punti dell'architettura tecnica ed economica della rete in cui un comportamento "non neutrale" di chi è responsabile di uno degli strati può danneggiare la concorrenza o la libertà d'azione di chi si trova a uno strato superiore, e infine degli utenti finali.
  • Tuttavia, la domanda che viene normalmente intesa come nocciolo della discussione sulla neutralità della rete è la seguente: può un fornitore di accesso a Internet trattare in maniera diversa i bit che gli vengono affidati da trasportare, a seconda di quale sia l'applicazione a cui appartengono, il contenuto che trasportano o il destinatario della comunicazione?
  • I sostenitori della neutralità della rete, tra cui buona parte dei più famosi guru della stessa (Cerf, Lessig...) e molte delle aziende di servizio e contenuto (a partire da Google), sostengono di no, al punto da sostenere spesso che queste pratiche vadano regolamentate e vietate per legge; al contrario, i provider e le aziende di telecomunicazione sostengono non solo che sia proprio diritto determinare le politiche di trattamento del traffico senza sottostare ad eccessive regolamentazioni, ma che questo sia un bene per il mercato stesso, incoraggiando competizione, innovazione e diversificazione delle offerte commerciali.
  • Nello studio scientifico che forse più di tutti pose le basi del problema (18), il professor Wu della Columbia Law School si schiera a favore della regolamentazione e della protezione legislativa della neutralità della rete.
  • Wu sottolinea comunque come vi siano altri tipi di discriminazione insiti nella natura della connettività - ad esempio il fatto che la maggior parte degli utenti disponga di connessioni DSL dove la velocità di upload è molto inferiore a quella di download svantaggia naturalmente le applicazioni peer-to-peer - o addirittura nel disegno stesso della rete: il principio della rete stupida e neutrale, infatti, finisce per privilegiare le applicazioni dove non è necessaria una particolare qualità di servizio in termini di latenza e di disponibilità garantita di banda - ad esempio il file transfer - rispetto a quelle che ne hanno bisogno - ad esempio le comunicazioni audio e video in diretta.
  • È effettivamente difficile sostenere, come pure fanno alcuni di coloro che si schierano a favore dela neutralità della rete, che Internet sia sempre stata perfettamente neutrale. In particolare, è sempre stato considerato normale per gli ISP offrire livelli di servizio diversi a clienti diversi, a seconda del tipo e del costo dello specifico servizio di accesso da loro acquistato.
  • Lo stesso principio si applica man mano che i pacchetti procedono all'interno della rete: anche quando dal singolo ISP si passa ai grandi operatori di connettività internazionale, questi ultimi trattano il traffico in maniera differenziata a seconda degli accordi negoziati con l'ISP da cui provengono. Insomma, è del tutto normale differenziare il trattamento del traffico in base al mittente; perché allora - dicono gli oppositori della neutralità della rete - dovrebbe essere vietato differenziare anche in base all'applicazione utilizzata, al contenuto trasmesso o al destinatario del messaggio?
  • Il motivo che spinge i fornitori di connettività a sollevare la questione è il fatto di trovarsi in un punto poco redditizio della catena del valore: il mercato globale delle telecomunicazioni, nonostante la frequenza di posizioni dominanti e i residui degli antichi monopoli, è comunque maturo e competitivo, e i margini sulla fornitura di connettività sono bassi.
  • Al contrario, le aziende che offrono contenuti o servizi su Internet sono spesso capaci di realizzare margini e tassi di crescita decisamente superiori (a prezzo però, va notato, di un rischio d'impresa generalmente molto superiore, associato ad elevatissimi tassi di "mortalità infantile").
  • Il desiderio nemmeno troppo nascosto dei fornitori di accesso è quello di poter vendere la connettività due volte: una al cliente finale, e un'altra ai fornitori di servizio. Infatti, uno degli elementi fondamentali per il successo di un servizio offerto a distanza via Internet è la velocità di accesso da parte dei consumatori: un sito dotato di connettività insufficiente risulterà lento o inaccessibile, venendo quindi velocemente snobbato dai propri potenziali clienti.
  • I fornitori di connettività già oggi vengono pagati dai fornitori di servizio, ma soltanto in maniera locale: ogni fornitore di servizio acquista la banda necessaria per collegare i propri calcolatori al resto della rete, esattamente come ogni altro utente di Internet.
  • I maggiori fornitori di servizio tendono a moltiplicare e delocalizzare la propria presenza in rete, acquistando quindi connettività da vari fornitori in giro per il mondo; ma resta valido il principio per cui, una volta pagata la connessione locale tra i propri server e l'ISP, il servizio è accessibile a tutta la rete Internet senza particolari discriminazioni. Gli ISP, tuttavia, vorrebbero poter discriminare il traffico dei propri utenti in base alla destinazione, perché in questo caso potrebbero esigere dai fornitori di servizio del denaro in cambio di una migliore accessibilità del loro servizio, o anche solo per non bloccare il traffico diretto ad essi; oppure, chiedere ai clienti somme extra per accedere ai servizi più popolari.
  • Si tratterebbe insomma di una specie di "pedaggio" da introdurre sulle famose "autostrade dell'informazione"; ogni ISP attraversato dai pacchetti avrebbe la possibilità di imporre un pedaggio - chi poi lo paghi, se il fornitore di servizio o il cliente finale, è solo questione di un giro di cassa - o di bloccare il traffico se il pedaggio da esso unilateralmente deciso non viene pagato. Il risultato potrebbe essere, ad esempio, la nascita di abbonamenti a Internet differenziati per accessibilità: con l'abbonamento base puoi soltanto accedere al portale dell'ISP, mentre con dieci euro mensili in più puoi usare anche Google e Facebook, e con altri dieci euro mensili puoi usare Skype e giocare online.
  • Uno scenario del genere sarebbe davvero così dannoso? Iniziamo da qualche valutazione economica: l'effetto più ovvio sarebbe un generalizzato aumento dei costi per la connessione a Internet, specialmente in una fase storica del mercato delle telecomunicazioni in cui - dopo le grandi liberalizzazioni degli anni '90 e la fioritura di nuovi player durante la bolla della "new economy" attorno all'anno 2000 - il numero di attori si è ridotto e consolidato, riducendo la competitività sul mercato: per esempio, in Italia il 62% del mercato della connettività ADSL è in mano a un solo fornitore, l'85% è in mano ai primi tre e il 95% è in mano ai primi cinque (1); un livello di competizione decisamente basso, rispetto ai milioni di siti e servizi raggiungibili via Internet.
  • E' facile quindi presumere che, grazie anche ad accordi più o meno taciti, la possibilità di applicare tariffe differenziate per destinazione o applicativo sarebbe utilizzata da queste aziende per aumentare la spesa media del cliente finale. Inoltre, grazie alla possibilità di discriminare, gli ISP potrebbero effettuare favoritismi tra diversi fornitori dello stesso servizio: per esempio, un ISP potrebbe dare gratuitamente a tutti i propri clienti la possibilità di effettuare ricerche con Virgilio, ma richiedere un pagamento aggiuntivo per la possibilità di usare Google (pratiche simili, tra l'altro, sono già state messe in atto in Italia da alcuni operatori di telefonia mobile).
  • Probabilmente, questo provocherebbe un cospicuo trasferimento di utenti da Google a Virgilio, danneggiando il primo e favorendo il secondo (tra l'altro, essendo Google già attualmente il leader nel mercato delle ricerche, delle mappe e di tanti altri servizi Internet, si capisce come tale azienda possa venire soltanto danneggiata dalla mancanza di neutralità: da qui il suo interesse economico nello schierarsi a favore della neutralità della rete).
  • Si riproporrebbe in sostanza la situazione già vista nel caso più sopra citato della guerra dei browser, con l'effetto di affidare il successo nel mercato dei servizi Internet non tanto a una onesta competizione, ma ai rapporti di parentela aziendale tra ISP e fornitori di servizi.
  • La pratica di favorire determinati fornitori di servizi e contenuti su altri non ha soltanto risvolti sulla concorrenza e sul mercato: infatti, dato il ruolo sempre più centrale dell'informazione nella nostra società e di Internet nella sua circolazione, è evidente che le ragioni per la discriminazione potrebbero facilmente diventare sociali o politiche: un ISP potrebbe rendere meno accessibili i siti dei quotidiani con una linea politica diversa dalla propria, o i blog e i media non allineati, o discriminare contenuti su base religiosa o razziale. Inoltre, la discriminazione dei contenuti e delle applicazioni prevede quasi sempre la cosiddetta deep packet inspection, ovvero l'analisi dettagliata del significato dei bit che l'utente scambia con il destinatario, violando completamente la segretezza delle comunicazioni e la privacy dell'utente stesso.
  • Di fatto, gli ISP diventerebbero detentori unilaterali di un importante potere di controllo delle attività dei cittadini, con rischi di deviazione che, alla luce delle notizie comprovate su attività spionistiche di massa esercitate da parte del maggiore operatore italiano, senza alcuna giustificazione né controllo, sulle comunicazioni private dei telefoni di migliaia di persone, appaiono tutt'altro che teorici.
  • Per queste ragioni, la difesa della neutralità della rete arriva ad assumere un valore fondante e costituzionale, quando essa minacci di mettere a rischio la libertà e la sicurezza dei cittadini.
  • Ritorniamo invece ad un discorso economico: un effetto anche peggiore, infatti, si avrebbe sull'innovazione, specie su quella radicale. E' noto che i grandi salti tecnologici vengono generalmente compiuti da piccole aziende appena nate, in quanto per le grandi aziende del settore non è remunerativo entrare in mercati che ancora non esistono, né esse dispongono della flessibilità mentale, tecnica, organizzativa e commerciale necessaria per abbracciare il cambiamento distruttivo (5).
  • Questo è maggiormente vero su Internet, dove la maggior parte delle tecnologie e dei servizi radicalmente nuovi - il World Wide Web, l'instant messaging, lo scambio di file peer-to-peer... - sono stati inventati da individui o da piccolissime aziende.
  • Grazie alla non-discriminazione, queste innovazioni sono state immediatamente rese accessibili a tutto il mondo, permettendo la loro adozione globale a velocità incredibile, spesso con il risultato di mettere fuori mercato e rovesciare rapidamente aziende di grandi dimensioni e dotate di grandi capitali. In questo meccanismo, la non-discriminazione è fondamentale: nei mercati in cui le aziende leader hanno il potere di influenzare la neutralità degli "strati" circostanti del mercato - ad esempio, dei fornitori o dei clienti del loro nuovo concorrente - è comune che tale potere venga usato per limitare la possibilità del nuovo concorrente di entrare sul mercato, nonostante esso disponga di un prodotto più moderno, più innovativo e in ultima analisi migliore per i clienti finali.
  • Un esempio di ciò si può vedere nella storia della Transmeta, start-up nella produzione di semiconduttori che nel 2000, dopo cinque anni di lavori segretissimi, introdusse sul mercato un microprocessore di tipo radicalmente innovativo, giudicato nettamente più avanzati di quelli dei grandi leader del mercato dei chip come Intel e AMD, ma che non riuscì mai a decollare, fino a portare alla decadenza dell'azienda; ciò è stato spesso attribuito non tanto a problemi tecnologici o alla competitività dei prodotti, ma alla resistenza attiva dei leader del mercato dei chip, che sfruttarono la loro posizione dominante per mettere in atto accordi e pressioni commerciali più o meno legittime sui grandi produttori di PC, che avrebbero dovuto acquistare i chip Transmeta.
  • Secondo analisti del settore, pur nell'ovvia assenza di prove certe, furono proprio queste pressioni a far sì che Transmeta non potesse disporre di un grande cliente al momento del lancio, e che poco prima della sua quotazione in Borsa uno dei massimi produttori di personal computer, IBM, annunciasse pubblicamente che non avrebbe comprato chip Transmeta, facendo così crollare le aspettative (7).
  • Questo genere di comportamento da parte dei leader di mercato è assolutamente ragionevole, se analizzato dal loro punto di vista e in ottica utilitaristica; non rappresenta, in sé, una prova di egoismo o di cattiva fede - se mai, è una prova di sanità e di mancanza di masochismo -, ma è insito nel ruolo del leader in un mercato con un nocciolo forte, cioè con poche grandi aziende che dominano un indotto di clienti e fornitori.
  • D'altra parte, sul mercato dei servizi Internet, che è fortemente coreless - privo cioè, per quasi tutte le sue nicchie, di un dominatore con un forte potere di influenzare il mercato -, questi comportamenti sono quasi impossibili, e il risultato è un tasso di innovazione molto più forte, legato alla maggiore libertà dei nodi più piccoli del sistema e, in ultima analisi, degli utenti ai bordi della rete (11).
  • Nello specifico, è stato dimostrato nell'ambito di una analisi economica (16) che la possibilità da parte degli ISP di discriminare il traffico in base al servizio di destinazione o al contenuto, pur incrementando leggermente gli incentivi all'innovazione per gli ISP stessi, riduce drasticamente quelli per tutti gli altri, portando nel complesso a una diminuzione del tasso di innovazione nel mercato delle applicazioni e dei servizi su Internet.
  • Ne consegue che i comportamenti discriminatori delle aziende, pur se naturali, devono essere impediti dalla legge se si ritiene che sia superiore interesse garantire il progresso complessivo del mercato e della tecnologia, anche se questo significa una frequente instabilità del mercato, con la rapida sparizione delle aziende che erano leader nell'ondata tecnologica precedente.
  • Da qui nasce una chiara esigenza di tutelare la neutralità della rete e dei mercati tecnologici per garantire maggiore innovazione.
  • Per concludere, è bene inquadrare il problema della neutralità della rete in termini più propriamente sociali: abbiamo infatti mostrato come la neutralità della rete in senso stretto sia soltanto uno di molteplici casi in cui una entità sociale detentrice di potere lo sfrutta per competere ad armi non pari con un'altra entità sociale, la quale per suoi meriti sarebbe destinata al successo, ma che invece soccombe.
  • Un famoso libro (14) parlò apertamente di "darwinismo digitale" per descrivere il funzionamento dell'economia di Internet: in altre parole, l'evoluzione economica e sociale di Internet si basa sui principi della teoria dell'evoluzione e della sopravvivenza del più adatto.
  • Questo è tuttavia reso possibile dall'architettura fondamentale di Internet, cioè dalla volontaria devoluzione dell'intelligenza verso i bordi della rete, e dalla conseguente attribuzione ad essi della libertà di fare e di innovare, senza la necessità di autorizzazioni e quindi di sottostare ad alcun potere.
  • Soltanto se tutti gli utenti della rete (individui o aziende che siano) hanno le stesse possibilità e dispongono della libertà di evolversi, le dinamiche evolutive del loro "branco globale" saranno darwiniane e la sopravvivenza andrà ai migliori. Una distribuzione asimmetrica della libertà e del potere, invece, altererà queste dinamiche e porterà alla sopravvivenza dei meno adatti ma più potenti, castrando gli effetti dell'evoluzione e quindi depotenziando la capacità di Internet di far evolvere la società, la scienza e l'economia nel loro complesso.
  • Nelle nostre società, tuttavia, non sempre la distribuzione simmetrica del potere è considerata desiderabile: abbiamo sempre vissuto con un accentramento di potere in poche mani (monarchie, dittature, parlamenti, eserciti, forze dell'ordine...).
  • La desiderabilità di una distribuzione di potere più o meno ampia è questione di opinioni politiche personali; è proprio per questo che è così difficile arrivare ad opinioni comuni sulla neutralità della rete, perché se alcuni di noi trovano equo che ad ognuno sia garantita dalla legge la propria chance di vittoria, altri trovano equo che chi si è conquistato in passato un maggior potere ne faccia tutto l'uso possibile per conservarlo. Inoltre, questa distinzione varia fortemente a seconda del problema specifico: non tutti gli accentramenti di potere sono egualmente indesiderabili, e ad esempio, nel caso delle istituzioni democratiche, l'accentramento di potere nelle mani di individui scelti in modo democratico è preferito da quasi tutti alla completa anarchia.
  • Analogamente, al di fuori dell'ambiente liberal americano, attaccato al Primo Emendamento della propria Costituzione, è difficile trovare qualcuno che, pur opponendosi alla discriminazione delle comunicazioni via rete sulla base dei contenuti, sia contrario a mettere un freno alla libera circolazione di materiale pedopornografico; se mai, la questione è come, dove, da parte di chi, con quali garanzie.
  • Per queste ragioni, nonostante il principio di neutralità della rete sia superficialmente semplice, lineare ed attraente come una grande legge della fisica, e sia molto difficile da respingere in linea di principio, esso è così difficile da applicare in maniera assoluta; il problema non è allora tanto se sia giusto o meno discriminare, ma capire quali sono i casi e le entità per cui la discriminazione è accettabile.
  • Tuttavia, tali casi difficilmente comprendono l'azione da parte di entità private, senza alcun controllo da parte della collettività e delle istituzioni, su materiale delicato come le comunicazioni di ognuno di noi: per questo motivo, nel caso specifico della neutralità "economica" della rete e della possibilità di discriminare applicazioni e contenuti, è ragionevole concludere che sia necessario un intervento legislativo da parte dei governi, teso a garantire la libertà di espressione e di informazione e la privacy degli utenti, e la libertà di innovare e di competere su basi paritarie dei fornitori di servizi e contenuti in rete.

Bibliografia

  • (1) Autorità per le Garanzie nelle Comunicazioni (2008), "Relazione annuale sull'attività svolta e sui programmi di lavoro - Anno 2008", pag. 51.
  • (2) Carpenter, B. (1996), "Architectural Principles of the Internet" (RFC 1958), Internet Engineering Task Force.
  • (3) Carr, S., Crocker, S., Cerf, V. (1970), "HOST-HOST Communication Protocol in the ARPA Network", SJCC Proceedings, Vol. 36, pp. 589-597.
  • (4) Cerf, V., Cain, E. (1983), "The DoD Internet Architecture Model", Computer Networks, Vol. 7, pp. 307-318.
  • (5) Christensen, C.M. (1997), "The Innovator's Dilemma", Harvard Business School Press, Cambridge, MA, USA, pp. XX-XXI.
  • (6) Crocker, S. D., Heafner, J., Metcalfe, R., Postel, J. (1972), "Function-Oriented Protocols for the ARPA Computer Network," SJCC Proceedings, Vol. 40, pp. 271-279.
  • (7) Eberle, R. (2005), "Lessons learned from Transmeta's death and rebirth", TechNewsWorld, 4/4/2005 https://www.technewsworld.com/story/ 41952.html
  • (8) Economides, N. (2001), "The Microsoft Antitrust Case", Journal of Industry, Competition and Trade, Springer, Boston, MA, USA.
  • (9) ESearch (2001), "La classifica degli ISP italiani (23/10/2001)", http://www.i-dome.com/statistiche-in-pillole/pagina.phtml?_id_articolo=1764-LA-CLASSIFICA-DEGLI-ISP-ITALIANI. html ultimo accesso 28 gennaio 2010.
  • (10) Fisher, F. M., Rubinfeld, D.L. (2000), "United States v. Microsoft: An Economic Analysis," in Did Microsoft Harm Consumers? Two Opposing Views, American Enterprise Institute-Brookings Joint Center for Regulatory Studies, Washington, DC, USA.
  • (11) Greenstein, S. (2007), "Innovation at the Edges", IEEE Micro, Vol. 27 No. 6, pp. 8-10.
  • (12) McKenzie, A. (1972), "HOST/HOST Protocol for the ARPA Network", Current Network Protocols, Network Information Center, Stanford Research Institute, Menlo Park, CA, USA.
  • (13) Saltzer, J. H. and Reed, D. P., Clark, D. D. (1984), "End-To-End Arguments in System Design", ACM Transactions on Computer Systems, Vol. 2 No. 4, pp. 277-288.
  • (14) Schwartz, E. I., Marino, L. (1999), Digital Darwinism: 7 Breakthrough Business Strategies for Surviving in the Cutthroat Web Economy, Random House, New York, NY, USA.
  • (15) U.S. Department of Justice, "United States vs. Microsoft", disponibile a http://www.usdoj.gov/atr/cases/ms_index.htm, ultimo accesso 28 gennaio 2010.
  • (16) Van Schewick, B. (2007), "Towards an Economic Framework for Network Neutrality Regulation", Journal on Telecommunications and High Technology Law, Vol. 5, pp. 329-391.
  • (17) Wikipedia, "Usage share of web browsers - Older reports", disponibile a http://en.wikipedia.org/wiki/Usage_share_of_web_browsers#Older_reports, ultimo accesso 28 gennaio 2010.
  • (18) Wu, T. (2003), "Network Neutrality and Broadband Discrimination.", Journal on Telecommunications & High Technology Law, Vol. 2 No. 1, pp. 141-175.

Vittorio Bertola

  • Torinese, nato nel 1974, è laureato con lode in Ingegneria Elettronica al Politecnico di Torino.
  • Si occupa di Internet a tutto tondo, comprendendo gli aspetti tecnici, economici, sociali e politici, in qualità di imprenditore, scrittore, attivista e ingegnere.
  • Attualmente è Associate Partner di The Innovation Group, una "boutique" di alta consulenza per i manager delle grandi aziende, e lavora come libero professionista in progetti tecnici e politici riguardanti la rete.
  • È inoltre socio fondatore di Dynamic Fun, azienda leader dell'innovazione italiana nell'utilizzo di tecnologie wireless e Internet per il miglioramento dei processi logistici e commerciali delle aziende, e di Glomera, una piattaforma di televisione via Internet.
  • Precedentemente è stato tra gli artefici di Vitaminic, azienda leader della new economy italiana, con la carica di Vice President for Technology (Direttore Tecnico), ricoperta sin dalla fondazione dell'azienda e attraverso tutto il processo di crescita multinazionale e quotazione in Borsa.
  • Ha anche lavorato per Omnitel (ora Vodafone Italia) e per il Politecnico di Torino, presso il quale, da studente, è anche stato membro del Consiglio di Amministrazione.
  • Egli partecipa come relatore in convegni in Italia e all'estero, mantiene un frequentato blog e ha scritto su riviste di settore quali Punto Informatico e Nòva.
  • Inoltre, si occupa da molti anni delle politiche di Internet a livello nazionale e internazionale; è stato membro del Working Group on Internet Governance (WGIG) delle Nazioni Unite, su nomina del Segretario Generale Kofi Annan, e membro del Comitato Consultivo per la Governance di Internet del Governo Italiano, partecipando come membro della delegazione italiana al secondo World Summit on Information Society (WSIS) e all'Internet Governance Forum (IGF) delle Nazioni Unite. All'IGF, è anche stato coordinatore globale dell'Internet Governance Caucus della società civile, ed è tra i leader della coalizione per la Carta dei Diritti di Internet, promossa da Stefano Rodotà.
  • Ha rappresentato gli utenti Internet mondiali all'interno del Board di ICANN, l'entità di amministrazione globale dei domini Internet, dove ha presieduto per tre anni il "parlamento" mondiale degli utenti Internet.
  • E' portavoce di NNSquad Italia, sezione italiana della campagna internazionale in difesa della neutralità e della libertà di Internet; è corrispondente italiano per la libertà di espressione in rete di Freedom House.
  • E' inoltre membro del comitato promotore dell'Internet Governance Forum Italia ed è stato consigliere di Società Internet, la sezione italiana della Internet Society; è stato più volte eletto membro degli organismi di regolamentazione dei domini Internet italiani (.it) e del dominio .mobi; negli ultimi dieci anni è stato autore di vari paper e artefice in rete di numerose iniziative, che lo hanno reso una figura nota dell'Internet nazionale e globale.

cc

Techn 2010
indice