La rapida crescita degli Over The Top nella catena del valore di Internet

Gianfranco Ciccarella
Senior Telecommunications Consultant

Premessa. Un ecosistema ICT con pochissimi grandi operatori globali

Nel dibattito molto praticato sull’ammodernamento e la disponibilità delle infrastrutture di telecomunicazione in Italia, quasi sempre si legge di assetti finanziari e azionari e quasi mai degli aspetti tecnologici, che sono ovviamente la base operativa ed evolutiva.

Si tratta di una carenza significativa, non solo perché sembra che tali questioni non siano importanti dal punto di vista industriale, ma soprattutto perché va compreso che nella grande trasformazione digitale dei servizi e delle applicazioni, l’ecosistema dell’ICT “non è più quello di una volta”.

Infatti, la “catena del valore” di Internet ha visto prima comparire e poi crescere rapidamente nuovi soggetti, accanto ai tradizionali operatori di rete (i “Telco”) che offrivano e offrono i servizi di rete (cioè il trasporto delle informazioni).

In particolare, a livello mondiale si sono affermati i cosiddetti “Over The Top” (OTT), che offrono la maggior parte delle applicazioni e dei servizi (i servizi applicativi, come browsing, streaming video, Whatsapp, e-commerce, gaming, social network, …) e utilizzano i servizi di rete per raggiungere i Clienti, che sono connessi alle reti degli operatori di telecomunicazioni (i cosiddetti Telco).

Nell’ecosistema ICT i Telco offrono, oggi, i servizi di rete e una piccola parte di Servizi applicativi. Pochissimi grandi operatori globali (“Hypergiants”) hanno rapidamente conquistato la parte preponderante del “valore” generato dall’ecosistema, portando a cambiamenti drastici come confermato anche dalla inarrestabile crescita delle capitalizzazioni di borsa di tali soggetti, a fronte di una perdita di valore di moltissimi Telco.

Nuovi modelli di business, completamente differenti da quelli classici della “vecchia telefonia”, hanno cambiato lo scenario, e mentre la remunerazione dei “servizi di rete” in senso stretto si è notevolmente ridotta (vedi il famoso “traffic paradox”), gli utenti utilizzano (spesso in modo apparentemente “gratuito”) applicazioni che sono offerte dagli OTT “al di sopra” della rete, secondo modalità di tipo “Client-Server”; i “Client” sono normalmente nei terminali e negli apparati d’utente, mentre i “Server” sono degli OTT, e sono tipicamente situati nei loro grandi Data Center.

La diffusione e l’aumento della complessità delle Applicazioni ha determinato un’enorme crescita del traffico che le reti sono chiamate a smaltire, e ci ha portati nella cosiddetta “Zettabyte era”.

Garantire, nel nuovo contesto, che la qualità di fruizione percepita dai Clienti (la Quality of Experience) sia adeguata, richiede di superare molteplici sfide architetturali e tecnologiche, rimanendo nel contempo entro le regole del gioco dettate dagli organismi di regolazione (AGCOM per l’Italia) e dai vincoli imprescindibili di sostenibilità economica; una parte importante di questo sforzo rientra nelle responsabilità dei Telco, impegnati nei processi di trasformazione della rete, che hanno precisamente l’obiettivo di migliorare la qualità dei servizi applicativi.

Partendo da questa Premessa e per descrivere e comprendere questo scenario tecnico-applicativo in continua evoluzione, Democrazia futura ha chiesto un intervento a Gianfranco Ciccarella, Daniele Roffinellae un approfondimento a Pierpaolo Marchese.

Ringraziamo vivamente questi tre esperti che hanno maturato una lunga e straordinaria esperienza nell’ingegneria delle reti di telecomunicazione.

Lo scenario di riferimento verso la Rete Internet Veloce

La qualità dei servizi sulla rete Internet: i limiti attuali e come migliorarla

Gianfranco Ciccarella

Daniele Roffinella**

*Senior Telecommunications Consultant

** Docente all’Università degli Studi di Torino

Il testo descrive uno scenario di riferimento (elementi architetturali, prestazioni) per la possibile evoluzione tecnologica verso la Rete Internet Veloce. Vengono richiamate le differenze fra Servizi Applicativi e Servizi di Rete, vengono distinte le infrastrutture di Rete degli operatori di telecomunicazioni (Telco) e quelle degli operatori applicativi (Over The Top, OTT), nonché i fattori principali che influenzano le prestazioni dei servizi utilizzati da Clienti e utenti. Viene quindi illustrato come, per migliorare le prestazioni e garantire una migliore qualità dei servizi ai Clienti e contenere i costi infrastrutturali, uno degli approcci più promettenti consista nell’installazione, nella rete, di piattaforme Edge Cloud Computing (ECC). Alcune considerazioni sulla possibile evoluzione delle reti e sul ruolo della regolamentazione completano il testo, seguito da un approfondimento, curato da Pierpaolo Marchese, dedicato alle possibili strategie di riprogettazione della rete.

Introduzione

Internet è diventata per tutti ‘la’ rete (anche se in realtà è una rete di reti) che interconnette persone, ‘cose’ (Internet of Things – IoT) e Server/Cloud, per scambiare informazioni multimediali e utilizzare una molteplicità di servizi applicativi di diversa complessità e diffusione (e-mail, WEB browsing, video streaming, e-commerce, gaming, remote control, assistenti virtuali basati su IA, eccetera).

L’importanza di Internet continua a crescere a livello mondiale1, in termini di traffico scambiato, di servizi offerti, di ‘terminazioni’ connesse e di impatti sulla crescita economica e sociale.

D’altra parte Internet esiste in quanto è il risultato di un ecosistema di soggetti estremamente complesso ed articolato: operatori di rete (i cosiddetti Telco), sviluppatori di applicazioni e servizi (inclusi i cosiddetti Over The Top – OTT), costruttori di apparati (cavi, fibre, sistemi radio, router, Server, eccetera, con cui le reti vengono realizzate), costruttori di terminali (utilizzati dalle persone, oppure operanti in autonomia, come nella IoT), Content Delivery Provider – CDP (ovvero letteralmente “fornitori di reti per la consegna dei contenuti”, integratori, e naturalmente gli utilizzatori dei servizi, che sono diventati anche i ‘creatori’ di molti dei contenuti scambiati in rete (basti pensare ai contenuti pubblicati sui Social Networks come YouTube, TikTok, Facebook, Twitter)2. I CDP sono Società (come Akamai, Limeligth, CDNetwork) che migliorano la qualità dei servizi offerti dagli OTT.

Un ruolo chiave lo hanno anche i ‘regolatori’, cioè gli enti (come il BEREC3) chiamati a dettare le ‘regole del gioco’, le istituzioni a livello sovranazionale e i Governi, che non solo influenzano direttamente le modalità di sviluppo delle reti (ad esempio attraverso le gare per l’assegnazione delle licenze radiomobile, o piani di finanziamenti pubblici per la realizzazione/estensione della copertura ad ‘alta velocità’ con reti Ultra Broad Band – UBB e Very High Capacity – VHC), ma che, in alcuni casi, detengono partecipazioni azionarie in particolare in alcuni Telco (a volte con formule tipo ‘golden share’).

La complessità e le dinamiche di Internet sono ulteriormente accresciute dalla sua natura intrinsecamente sovranazionale e mondiale; le Società che ne costituiscono l’ecosistema vanno da soggetti ‘locali’ (come piccoli operatori di connettività regionale) a leader internazionali (come i Big OTT, che forniscono servizi a livello mondiale, o i Carrier Internazionali, che gestiscono le reti intercontinentali) passando da Società che operano a livello nazionale (come i Telco, molti dei quali hanno però anche attività al di fuori dei confini dello Stato di appartenenza).

Come tutti gli ecosistemi, Internet è in costante evoluzione: la forte innovazione nelle soluzioni tecnologiche e nelle modalità di utilizzo si accompagna a modifiche negli equilibri fra i diversi soggetti, fra i quali si ripartisce il ‘valore’ generato dell’ecosistema. Ad esempio, è ben noto4 che, da alcuni anni, mentre Società che svolgono il ruolo di OTT vedono crescere fatturati e capitalizzazione di borsa, l’opposto succede per moltissimi Telco; analogamente, costruttori che in passato hanno dominato il mercato per alcune tipologie di prodotti sono poi stati surclassati da altri, talvolta basati in aree emergenti del mondo. Ad esempio (Dati McKinsey, rif. nota 19):

  • Nel 2014 la capitalizzazione di borsa delle principali otto Internet Companies e dei 25 principali Operatori di TLC era pari a 3,6 migliaia di miliardi di dollari. Le Internet Companies avevano il 46 per cento e gli Operatori il 54 per cento, ma nel 2019, con una capitalizzazione complessiva pari a 6,8 migliaia di miliardi di dollari, tali valori sono passati rispettivamente a 78 per cento (per le Internet Companies) 22 per cento (per gli Operatori di reti di telecomunicazioni);
  • Nel 2014 su un profitto complessivo di 251 miliardi di dollari. Le Internet Companies avevano il 26 per cento e gli Operatori di reti di telecomunicazioni il 74 per cento, ma nel 2019, a fronte di un profitto di 260 miliardi di dollari, le Internet Companies ne avevano il 60 per cento e gli Operatori di reti di telecomunicazioni il 40 per cento.

Assetti societari e aree di responsabilità degli operatori di rete Telco

Uno dei tanti aspetti connessi a questa continua mutazione sono gli assetti societari e l’area di responsabilità entro cui si muovono i Telco5. Ovviamente il ruolo dei Telco è fondamentale, in quanto essi devono gestire una ampia parte della infrastruttura fisica sulla quale vive Internet (cavi, fibre, sistemi radio, nodi di rete, eccetera…); allo stesso tempo i Telco devono rigorosamente seguire le ‘regole’ fissate da altri (regolatori, istituzioni), mentre soggetti come gli OTT godono della massima libertà. Non stupisce quindi che attualmente anche nel nostro Paese (come già periodicamente successo in passato), cresca il dibattito relativo a quali opzioni siano più interessanti in particolare per il maggiore Telco nazionale, ovvero per TIM.

Discussioni ‘concrete’ su temi di questo tipo, nel rispetto dei diversi punti di vista, non possono tuttavia avere luogo senza una buona conoscenza dell’oggetto stesso del confronto: come ‘funziona’ un Telco? cosa ‘fanno’ le reti che un Telco gestisce? In che modo e in quale misura la qualità di applicazioni e servizi (che rappresentano la finalità ultima dell’ecosistema) rientra nel campo di azione/responsabilità del Telco e dipende dalle sue scelte, piuttosto che da decisioni e iniziative di altri soggetti come gli OTT o i fornitori di contenuti6?

Sono domande che richiedono notevoli approfondimenti, e una conoscenza di aspetti, non solo tecnici, in molteplici aree tematiche; presumere di rispondere a esse anche solo parzialmente nello spazio di un articolo sarebbe illusorio, ma si vuole qui dare un piccolo contributo su alcuni elementi assolutamente ‘di base’, che potranno essere utili per migliorare la comprensione dell’area di problema.

In particolare il presente articolo propone un’analisi, in termini qualitativi e senza approfondimenti specialistici, su cosa voglia dire ‘realizzare reti Internet veloci’, cioè in grado di garantire la qualità necessaria per i nuovi servizi applicativi, partendo dalla identificazione di quali fattori condizionino la qualità e quali opzioni esistano per superare i limiti attuali; questo sarà fatto senza rinunciare alla correttezza: il lettore verrà a conoscenza di alcuni aspetti ‘tecnici’ necessari per una comprensione di problematiche chiave da affrontare quando si vuole analizzare consapevolmente il tema della evoluzione della rete e dei suoi assetti. Come noto, sullo sviluppo della rete c’è ancora molto da fare, in quanto da un lato restano criticità sulla qualità dei servizi già oggi offerti su Internet (ad esempio in molte aree geografiche la rete non risulta adeguata per i servizi video streaming a qualità full HD, oppure full 4K); dall’altro lato nuovi servizi (come applicazioni di realtà aumentata o di guida autonoma) non sono oggi disponibili sulle reti geografiche (sono realizzati solo su aree limitate, oppure all’interno di un edificio).

Un punto chiave è la comprensione di ‘cosa’ limiti intrinsecamente la qualità dei servizi sulla rete Internet, e quali soluzioni esistano per migliorarla; a questo scopo è importante individuare quali sono le ‘componenti’ di Internet e quali i ‘segmenti della rete’ che maggiormente limitano, oggi, la qualità per gli utilizzatori finali, allo scopo di potersi orientare nel complesso lavoro di definizione delle priorità per gli auspicabili interventi migliorativi.

Servizi Applicativi e Servizi di Rete: due mondi complementari ma distinti

Un primo aspetto fondamentale è la comprensione delle differenze e delle interrelazioni fra Servizi Applicativi e Servizi di Rete; troppo spesso essi vengono implicitamente visti come una sola tipologia, e da questa confusione possono nascere analisi e valutazioni non corrette.

Nell’ecosistema Internet, infatti, esistono due ‘mondi’ nettamente distinti, anche se strettamente interallacciati: il mondo delle ‘infrastrutture di rete’, che possiamo pensare come delle fondamenta, ed il sovrastante mondo delle ‘applicazioni’, costruite su quelle fondamenta (vedi Figura 1). Abbiamo quindi due ‘livelli’ giustapposti.

In basso ci sono tutti gli apparati fisici delle reti fisse e mobili, e la pluralità dei terminali connessi alle reti: le linee di telecomunicazione realizzate con cavi in rame, fibre ottiche, antenne radio, gli apparati di centrale, i router, gli armadi stradali, gli apparati ADSL, 5G, LTE, WiFi, Bluetooth, i telefoni, gli smartphone, i tablet, i PC, gli elettrodomestici ‘smart’ connessi a Internet, eccetera…, eccetera…

Il livello superiore è quello delle ‘Applicazioni’, i programmi software che ‘girano’ nei ‘Server’ sparsi nella rete (a cui ci si riferisce spesso quando si parla di ‘nuvola’, di ‘Cloud’), e il loro corrispettivo software che ‘gira’ nei terminali, ospitati nelle nostre case, uffici, e nelle nostre… tasche: in questo livello alto, in molti casi, le Applicazioni nel terminale (o ‘Client’) dialogano con corrispondenti Applicazioni remote (i ‘Server’), secondo modelli chiamati, appunto, ‘Client-Server’. Quando ad esempio utilizziamo Facebook, il software della App caricata sul nostro terminale si mette a dialogare con il software che gira in uno degli innumerevoli Server della Società Facebook, il quale invia sul nostro terminale le ultime cose pubblicate dai nostri contatti (e lo fa, in alcuni casi, con logiche sue, secondo la sua stima dei nostri interessi…in effetti, in un certo senso, decide lui cosa farci vedere!). Quando usiamo una App di posta elettronica come Yahoo, essa si mette a dialogare con il software nei Server della Società Yahoo e ci fa vedere tutte le mail che ci sono state inviate (questa volta non ci sono, normalmente, ‘filtri’ che decidono per noi); e se vogliamo spedire noi una mail, il dialogo fra la App nel nostro terminale e il Server remoto ci assiste nella scrittura della mail e si incarica di spedirla in rete, per farla avere alla casella di posta del destinatario (che è in altro Server in rete, non nel terminale del nostro contatto! Sarà poi cura di tale Server recapitare a destinazione la mail che abbiamo scritto)7.

Il mondo delle Applicazioni e quello delle infrastrutture di rete lavorano sempre insieme; o meglio: le Applicazioni utilizzano i ‘servizi di trasporto dati’ che vengono messi a disposizione dalle infrastrutture di rete.

Questa distinzione è importante; ad esempio, quando si parla di WEB ci si riferisce al livello delle Applicazioni (in particolare all’universo delle ‘pagine WEB’ che possono essere raggiunte e lette grazie ai browser); invece l’infrastruttura della rete Internet è realizzata con apparati chiamati router (letteralmente “instradatori”), i quali sono collegati fra loro da linee di telecomunicazione.

Il mondo delle Applicazioni e quello delle Infrastrutture di rete sono distinti, separati, e, normalmente, le infrastrutture sono gestite da Società (ad esempio, a livello nazionale, Operatori di TLC come TIM, Vodafone, Wind-3, che, in molti casi, costituiscono anche Società Wholesale internazionali, come Sparkle) differenti dalle Società che si occupano delle Applicazioni (come Google, Apple, Microsoft); questi ultimi soggetti, che operano ‘al di sopra’ della rete, sono chiamati ‘Over The Top, OTT’ e sono considerati al momento i veri ‘signori’ della rete. Naturalmente non mancano eccezioni a questa ‘ripartizione di compiti’ fra Società; ad esempio un Operatore di rete come TIM può realizzare Applicazioni specifiche, come TimVision, che permette di accedere ad una libreria di Film, spettacoli, eccetera…; d’altra parte un soggetto come Google ha realizzato importanti reti in fibra ottica.

I Servizi Applicativi – il ‘cielo’

I servizi applicativi sono tutte le Applicazioni e i Servizi che utilizziamo quotidianamente con i nostri terminali fissi e mobili:

  • Sono realizzati grazie alla interazione fra Software che risiede nei ‘Server’ di un Cloud e Software nei terminali degli utenti finali, oppure negli ‘oggetti’ IoT (nei ‘Client’)
  • Sono gestiti end-to-end per ogni collegamento Terminale-Server
  • Utilizzano i sottostanti servizi di rete per la connettività (i cosiddetti livelli ‘bassi’ – 1,2 e 3 – della architettura di protocolli di comunicazione definiti dagli standard internazionali8) ma operano sui livelli ‘alti’ dei protocolli (livelli 4 e 5 – la ‘Pila di Protocolli Internet’ definisce in tutto 5 Livelli). Questo è un punto forse poco noto, ma fondamentale: quando due entità remote (come una App di musica sul mio cellulare ed il Server in Cloud che mi invia la canzone desiderata) dialogano in rete, lo fanno seguendo un insieme di ‘regole di dialogo’ (i cosiddetti protocolli di comunicazione9); in particolare vengono instaurate, fra le due entità, molteplici interazioni contemporanee a diversi ‘livelli’; ciascuna interazione si fa carico di svolgere un determinato tipo di lavoro e tutte insieme permettono lo svolgimento corretto della comunicazione10; con riferimento alla Figura 1 le ‘regole’ dei livelli bassi sono seguite dagli ‘apparati del mare’, mentre le ‘regole dei livelli alti’ valgono in ciò che succede nel ‘cielo’
  • Hanno indicatori di qualità (Key Performance Indicator – KPI) end-to-end, che dipendono da numerosi fattori quali:
  • la velocità ‘effettiva/utile’ richiesta dal servizio applicativo, chiamata Throughput – TH, e misurata in ‘bit al secondo’ (o meglio, per le applicazioni attuali, Megabit al secondo, Mbit/s). Il TH è diverso, ed è sempre minore, rispetto al Bit Rate ‘lordo’ disponibile a livello di pura connettività trasmissiva; quando si parla di ‘velocità dell’accesso’11 tipicamente ci si riferisce alla pura connettività, non al TH.
  • la ‘distanza’ tra Server e terminale, che influenza non solo la velocità richiesta Throughput ma anche i tempi di risposta delle applicazioni; questa ‘distanza’ genera un ‘ritardo’ (e quindi si misura in secondi, o meglio in millisecondi) con cui le informazioni (i flussi di bit, in cui tipicamente i bit sono raggruppati in ‘pacchetti’) trasmesse dal Client arrivano al Server (e viceversa). Essa dipende sia dalla distanza fisica fra il terminale e il nodo di rete a cui è collegato il Server (ritardo di propagazione), sia dagli apparati di rete attraversati lungo il percorso dai flussi di bit; ad esempio, i tempi spesi nelle ‘code’ dei router della rete, che sono tanto maggiori quanto maggiore è il traffico complessivo lungo il percorso, proprio come succede quando in automobile siamo ritardati dal traffico, anche se la nostra destinazione non fosse fisicamente molto distante. Per avere una idea di massima, può essere utile sapere che ritardi di alcune decine di millisecondi possono pregiudicare fortemente la qualità di servizio di alcune Applicazioni.

I Servizi di Rete – il ‘mare’

I servizi di rete, forniti dalle infrastrutture di rete fissa e mobile, garantiscono il ‘trasporto gestito’ delle informazioni sulla rete, in modo da permettere lo scambio dei flussi dati fra i ‘punti terminali’ della rete. L’utente finale non interagisce direttamente con tali servizi: sono i terminali (o meglio le Applicazioni ospitate nei terminali) che lo fanno.

I Telco offrono essenzialmente Servizi di Rete, che gestiscono la connettività (come già ricordato su Internet tutto il traffico viene scambiato in forma di ‘pacchetti di bit’, o ‘pacchetti IP’) e sono relativi ai ‘livelli bassi’ della architettura dei protocolli di comunicazione. Non è questa la sede per approfondire le funzioni di ciascuno dei cinque livelli della ‘pila protocollare’ Internet, ma si può ricordare (con una certa approssimazione) che il ‘livello 1’ è relativo alla trasmissione fisica dei segnali sui cavi o con le onde radio; il ‘livello 2’ cura che le sequenze di bit siano ordinatamente trasmesse e ricevute, mentre al ‘livello 3’ i bit vengono raggruppati in ‘gruppi’ (qui si creano i cosiddetti Pacchetti di bit), e le funzionalità di tale Livello fanno in modo che i singoli ‘pacchetti’ possano attraversare la rete, ‘saltando’ da un nodo all’altro secondo certi criteri, sino ad arrivare alla destinazione desiderata.

Indicatori di qualità per i Servizi di Rete

I principali indicatori di qualità per i Servizi di Rete sono:

  • Bit Rate disponibile [misurato in Mbit/s] nell’ora di punta. Il Bit Rate è la capacità trasmissiva disponibile per uno specifico servizio applicativo, che condivide le risorse di rete (come router e collegamenti tra i router) con molti altri servizi applicativi
  • Indicatori legati alla ‘distanza’ tra il server che offre il servizio e i terminali degli utenti finali end user (o gli ‘oggetti’). Questi indicatori sono
  1. Latenza [misurata in millisecondi]: il tempo necessario per recapitare un (breve) pacchetto dati verso una determinata destinazione12
  2. PL [%] Packet Loss, misurato come percentuale dei pacchetti dati persi rispetto a quelli inviati.

I Servizi di Rete sono di svariate tipologie, ed è molto complesso sia realizzarli, sia garantirne i livelli di qualità necessari, a causa da un lato della complessità intrinseca delle reti (che, come una fitta ragnatela, ricoprono i territori su enormi distanze, ma arrivando capillarmente alle singole abitazioni ed alle singole persone), dall’altro dalle condizioni continuamente mutevoli del traffico.

Reti dei Telco

Sono le infrastrutture della rete internet che gestiscono il trasporto dei dati dai terminali degli end user (o gli ‘oggetti’) ai Server, che offrono i servizi. I Server che sono, nella maggior parte dei casi, nelle reti degli OTT e, in alcuni casi, nel Core delle reti dei Telco. Le reti dei Telco sono costituite da una molteplicità di apparati di natura eterogenea distribuiti sulle aree geografiche di grande, media e breve distanza: router (detti anchenodi di commutazione’ (in cui i flussi dei bit vengono smistati verso le destinazioni appropriate), cavi in rame, in fibra, antenne, ma anche tutti i sistemi di gestione e controllo, centralizzati e distribuiti, necessari per garantire in ogni istante lo scambio sicuro, affidabile, efficiente della enorme quantità di informazione fra i terminali e i Server.

Nel mondo di Internet il punto chiave, già richiamato, è che tipicamente i terminali non dialogano direttamente fra loro, ma con i ‘Server in Cloud’ (normalmente gestiti dagli OTT), i quali ospitano il Software con cui interagiscono le Applicazioni ‘Client’ dei terminali.

Le reti dei Telco:

  • Collegano gli end user e gli ‘oggetti’ alle reti degli OTT in punti di interconnessione dedicati (in alcuni casi nel segmento ‘Core’ delle reti dei Telco13), oppure in centri specializzati denominati IXP14; le reti degli OTT a loro volta si fanno carico del collegamento con i Server degli OTT (in Cloud).
  • Sono focalizzate sulla gestione della connettività, sul ‘trasporto’ dei dati, mentre, come detto, la maggior parte dei servizi applicativi è, di fatto, offerta dagli OTT tramite i propri Server

Nelle reti tradizionali:

  • la connettività ‘end user-Core’ è realizzata con cosiddetti ‘tunnel di Livello 2’ (si tratta di ‘canali’ chiusi; i dati entrano da una estremità del tunnel e fuoriescono alla estremità opposta), lungo il percorso ‘end user-Core’ le informazioni non possono essere estratte in modo ‘semplice’ e quindi ‘elaborate’. Questa è una delle ragioni che portano a posizionare i Server nel Core delle reti dei Telco, (nonostante essi siano più ‘lontani’, dagli end user e dagli oggetti). I nodi di Core sono, infatti, in un numero molto minore rispetto ai siti detti Point of Presence (POP) di accesso delle reti fisse e mobili. Questa scelta non è ottimale in quanto al crescere della distanza peggiorano le prestazioni delle applicazioni;
  • la connettività con le reti degli OTT è di ‘Livello 3’. In generale la connettività tra tutte le reti Internet (ogni singola rete appartenente ad Internet è chiamata ‘autonomous system’) è sempre realizzata a Livello 3. Anche all’interno di un autonomous system la connettività è realizzata a Livello 3 e questo consente di estrarre ed elaborare informazioni in modo ‘semplice’ in ogni nodo della rete, laddove risulti più conveniente.:
  • vengono, opzionalmente, utilizzati meccanismi di priorità e di banda riservata per la gestione della qualità del trasporto di specifici flussi di dati; tali meccanismi, in molti casi, non consentono miglioramenti sufficienti della qualità, e possono determinare peggioramenti delle prestazioni di altri flussi di dati (problematiche di Net Neutrality15)

Reti degli Over The Top (OTT) e dei Content Delivery Provider (CDP)

Gli Over The Top (e i Content Delivery Provider) gestiscono a livello mondiale i servizi applicativi, che sono, in generale, completamente separati dai servizi di rete e utilizzano servizi di connettività offerti da altri player (International Wholesaler). In alcuni casi, gli OTT hanno anche proprie reti (come Google) e gestiscono quindi direttamente sia la connettività ai ‘livelli bassi’ (servizi di rete), che le comunicazioni ai ‘livelli alti’ (servizi applicativi).

Le reti degli OTT/CDP si collegano alle reti dei Telco, tipicamente al segmento Core delle reti dei Telco, dove nelle reti tradizionali è visibile il Livello 3, che è necessario per l’interconnessione.

In termini molto generali, le reti degli OTT/CDP:

  • collegano Cloud/Server alle reti dei Telco (le quali, a loro volta, si fanno carico dei collegamenti da/verso i terminali degli utenti finali).
  • sono sviluppate con un ‘focus’ sulla gestione delle Applicazioni;
  • gli OTT gestiscono la qualità delle Applicazioni lungo il percorso dal Cloud ai punti di interconnessione con le reti dei Telco:
    • garantendo, caso per caso, il bit rate necessario per uno specifico servizio
    • riducendo, ove possibile, la ‘distanza’ Terminale-Server, grazie a ‘Cloud data center intermedi’ posti tra gli ‘hyperscale data center’ (che sono collocati a livello continentale e a migliaia di chilometri dagli end user) e i punti di interconnessione con le reti dei Telco. I Cloud interconnessi con le reti dei Telco sono tipicamente collocati all’EDGE delle reti degli OTT/CDP e sono le piattaforme di Edge Cloud Computing (ECC16) per gli OTT/CDP. Ridurre tale ‘distanza’ è importante perché permette di ridurre la Latenza (che, come detto, influenza in modo determinante le prestazioni: per garantire alta qualità è necessario che la Latenza Terminale-Server sia ‘piccola’).

La distribuzione delle applicazioni e dei contenuti consente agli OTT di garantire la qualità richiesta dalle diverse applicazioni fino ai punti di interconnessione con le reti dei Telco;

  • la connettività è di Livello 3 anche all’interno di una singola rete (autonomous system); questo permette la massima flessibilità nella gestione del traffico e nell’utilizzo di piattaforme per il miglioramento delle prestazioni;
  • per migliorare la qualità end-to-end oggi gli OTT propongono anche soluzioni con piattaforme ECC collocate in prossimità della sede dell’enduser, o nella sede stessa dell’enduser(ad esempio Outpost di Amazon WEB Services17); si tratta di micro-data center posizionati ancora più vicini all’end user (riducendo quindi al minimo la Latenza);
  • gli OTT hanno cominciato a utilizzare in modo massivo la distribuzione di applicazioni e contenuti per migliorare la qualità dei servizi applicativi dalla fine degli anni Novanta. Questo ha consentito l’enorme sviluppo dei servizi offerti dagli OTT e la crescita di ‘valore’ degli OTT

Le prestazioni dei servizi applicativi

Le prestazioni di tutte le Applicazioni utilizzate dagli utenti finali (persone, oppure ‘oggetti’ IoT) dipendono dalle caratteristiche del collegamento complessivo end-to-end; quindi, dipendono sia dalle reti degli OTT che da quelle dei Telco:

  1. Le reti di OTT/CDP (di quasi tutti gli OTT e certamente dei più grandi) garantiscono la qualità richiesta dai servizi applicativi, fino ai punti di interconnessione con le reti dei Telco. Gli OTT, infatti, hanno modelli di business che si basano totalmente sulla soddisfazione del cliente; per questo, in generale, realizzano soluzioni, nei Cloud e sulle reti di loro competenza, che non limitano la qualità dei servizi.
  2. Le reti dei Telco sono oggetto di precise normative (il cui rispetto è monitorato costantemente da Authority pubbliche, come AGCOM in Italia), anche per i diversi parametri di qualità che riguardano i servizi di rete (connettività), ma i parametri sono, in molti casi, relativi al solo segmento di accesso e non considerano il collegamento end-to-end (dai terminali ai punti di interconnessione con le reti degli OTT). Oltre a questo, i parametri non sono agli indicatori delle applicazioni (Throughput e parametri relativi alla ‘distanza’).
  1. Le reti dei Telco non hanno ancora, in molti casi, realizzato piattaforme di ECC. L’Edge delle reti dei Telco è tipicamente il nodo di accesso della rete fissa (chiamato Point Of Presence – POP), oppure il nodo di aggregazione delle stazioni radio base della rete mobile (spesso esso coincide con il POP di accesso della rete fissa). Le Piattaforme Edge Cloud Computing (ECC) sono al momento realizzate (tranne poche eccezioni, come Rakuten in Giappone) solo in un limitato numero di POP di accesso nelle reti di alcuni Telco, poiché per poter utilizzare Piattaforme ECC è necessaria la ‘visibilità del Livello 3 della pila di protocolli IP’. Per ottenerla si devono distribuire alcune delle funzioni del Core della rete, con un notevole incremento della complessità, causato anche dal fatto che per le reti dei Telco tipicamente non esistono (oppure, anche se definiti, non sono utilizzati) standard per l’interconnessione dei ‘componenti’ del Core e della Radio Access Network (RAN), ovvero la parte di una rete mobile che collega i dispositivi degli utenti finali, come gli smartphone, al cloud. Anche il trasporto basato su tunnel di Livello 2 (citato sopra) aggiunge ulteriori criticità/complessità.
  1. L’attuale architettura delle reti dei Telco (insieme ad altri fattori) limita intrinsecamente la qualità dei servizi applicativi, che hanno, in generale, un TH ‘effettivo’ molto minore del Bit Rate disponibile sulle reti Ultra Broad Band (UBB) e Very High Capacity (VHC) (su questa problematica, fondamentale, si rimanda ad un articolo divulgativo, che riporta esempi quantitativi, i cui riferimenti sono riportati nella nota a piè pagina18). Inoltre questo ha limitato la monetizzazione delle reti UBB e VHC dei Telco generando criticità in termini di perdita di valore per i Telco (per approfondimenti su questa complessa e cruciale problematica si rimanda alla letteratura19, che fornisce dati quantitativi sulla perdita di Valore dei Telco, verificatasi in molti casi con la realizzazione delle reti ultra-veloci, con una progressiva riduzione del ROIC – Ritorno del Capitale Investito, che è arrivato ad essere confrontabile o addirittura inferiore al Weighted Average Cost of Capital (WACC), ovvero il costo medio ponderato del Capitale che l’impresa versa ai suoi azionisti e creditori.

Vantaggi offerti dalle piattaforme Edge Cloud Computing ECC nelle reti dei Telco

Una delle principali linee di evoluzione delle reti dei Telco, realizzabile concretamente già nel breve/medio termine, per migliorare le prestazioni, soddisfare i bisogni degli utenti finali, contenere i costi infrastrutturali e abilitare ricavi incrementali è l’installazione di piattaforme Edge Cloud Computing (ECC).

Il termine Edge Cloud Computing fa, trasparentemente, riferimento a contesti in cui la Elaborazione (…e lo storage…) avvengono non solo nel ‘Cloud’, ma anche in luoghi fisici denominati ‘Edge; l’Edge è, in generale, il ‘bordo’, la ‘periferia’ della Rete, qualunque luogo situato a ‘minore distanza’ dai terminali e dai sistemi dell’Utente Finale rispetto ai Server del tradizionale Cloud. La novità quindi, rispetto alle architetture Cloud ormai consolidate da tempo, consiste precisamente nella componente ‘decentralizzata’ del ‘processing’.

L’Edge Cloud Computing rappresenta una realtà in crescita in molteplici settori dell’Information & Communication Technology (ICT). Tutte le organizzazioni internazionali degli Operatori di telecomunicazioni (GSMA, 3GPP, ETNO, ETSI), hanno assunto una chiara posizione sull’Edge Cloud Computing, che è considerato oggi uno dei pilastri dell’evoluzione dell’architettura delle reti fisse e mobili dei Telco, e può essere realizzato nella rete dei Telco in tempi relativamente brevi20.

Edge Cloud Computing che si colloca nell’ampio settore di mercato del Cloud Computing, presenta tassi di sviluppo ed innovazione estremamente significativi. Molteplici studi, pur nella ampia variabilità delle stime, sostanzialmente concordano sulle tendenze di diffusione delle piattaforme ECC. Ad esempio uno studio21 sul periodo 2022-2027 stima un Compounded Average Growth Rate (CAGR), ossia un tasso annuo di crescita composto, di quasi 45 per cento per l’Edge Computing Market, valutato complessivamente pari a oltre 5,2 miliardi di dollari nel 2021; un’altra ricerca stima per tale mercato oltre 87 miliardi al 202622.

L’Edge Cloud Computing ha ormai dimostrato, nei contesti in cui è già utilizzato, di risultare particolarmente utile e spesso indispensabile in tutti gli scenari in cui dispositivi ‘periferici’ (Client di natura anche estremamente eterogenea: Stazioni di Lavoro, PC, Smart Devices, Dispositivi IoT, eccetera) devono interagire, per qualche finalità operativa, con Server ‘centralizzati/condivisi’. Esempi tipici comprendono il Computation Offload ovvero il trasferimento di attività computazionali ad alta intensità verso Cloud Server, l’interazione Real Time di App. su terminali con Dati che risiedono in Unità di Storage condivise, la ripartizione ottimizzata di funzioni di elaborazione e/o memorizzazione fra Dispositivi d’Utente e Server in Rete, come in applicazioni di Mixed-Reality, eccetera).

L’importanza dell’Edge Cloud Computing è anche testimoniata, fra l’altro, dall’essere entrato a pieno titolo nei listini di offerta delle Aziende Leader internazionali dei Servizi Cloud, come Amazon, Microsoft, Google, e nelle offerte dei principali fornitori di Servizi di Telecomunicazione nel mondo, fra cui ad esempio ATT, Verizon, Vodafone, China Mobile, eccetera (come è immediato verificare visitando le pagine WEB di queste Aziende, in particolare le pagine dedicate alle offerte per Clientela Business23).

La stessa Associazione Global System for Mobile Communications (GSMA) promuove da qualche anno importanti progetti e iniziative di Telco Edge Cloud24, che vedono la partecipazione attiva dei principali operatori (fra cui Tim, Vodafone, eccetera). Degno di attenzione è l’impegno che la Cina ha deciso su questa tecnologia, in particolare in relazione ai settori del 5G e dell’IoT, che l’ha portata a livelli di leadership mondiale25.

In generale, risulta conveniente ricorrere all’ Edge Cloud Computing quando è fondamentale:

  • operare in condizioni di bassissima latenza fra Device e Server
  • contenere i costi e le prestazioni della connettività di lunga distanza

I principali vantaggi ottenibili inserendo l’Edge Cloud Computing nelle architetture di rete dei Telco sono:

  1. Miglioramento delle prestazioni dei servizi applicativi.
  1. Monetizzazione delle reti UBB/VHC. Il miglioramento della qualità dei servizi sulle reti dei Telco abilita infatti ricavi incrementali sia dagli end-user/oggetti, che dagli OTT (two sides business model).
  1. Riduzione dei costi della rete (Capex e Opex), che si ottiene distribuendo contenuti e applicazioni nei POP di accesso. L’ECC riduce infatti il carico di traffico sulla parte delle dorsali ‘backbone’ delle reti dei Telco e quindi riduce il costo della rete dal POP di accesso all’interconnessione con gli OTT/CDP. In particolare:
  1. Il saving, per un nodo di accesso nel quale si inserisce una piattaforma ECC, si ottiene se la riduzione del costo della rete è maggiore del costo della piattaforma ECC;
  1. Per ridurre i costi della piattaforma ECC si può utilizzare lo sharing della piattaforma tra Telco, oppure l’acquisto da Neutral Host (operatori Wholesale) di servizi IaaS (Infrastructure as a Service) e PaaS (Platform as a Service).
  1. La monetizzazione da un lato e la riduzione dei costi delle reti UBB/VHC dall’altro, consentono di migliorare gli indicatori economico-finanziari dei Telco.

Oggi sono disponibili sul mercato molteplici soluzioni ‘proprietarie’ per piattaforme Edge Cloud Computing ECC (in effetti solo parzialmente interoperabili), ma sono anche stati sviluppati standard internazionali. Fra tutti, va citato lo standard Multiaccess Edge Computing (MEC26).

Il MEC, che era nato come Mobile Edge Computing, è un concetto di architettura di rete definito dall’European Telecommunications Standards Institute (ETSI) concepito per rendere disponibili le capacità di cloud computing nel segmento di accesso delle reti cellulari e, più in generale, alla periferia di qualsiasi rete.

L’idea alla base di MEC è che eseguendo applicazioni e attività di elaborazione più vicine ai dispositivi d’utente, si ottengono importanti miglioramenti per le prestazioni delle applicazioni e, in molti casi, si riduce il costo della rete poiché si riduce il traffico nel segmento di rete tra le piattaforme ECC e i punti di interconnessione con le reti degli OTT.

La tecnologia MEC è progettata per realizzare piattaforme Edge Cloud Computing nei POP delle reti d’accesso fisse e mobili, presso le stazioni base cellulari o altri nodi periferici, e consente un’implementazione flessibile e rapida di nuove applicazioni e servizi per i clienti.

Combinando elementi di tecnologia dell’informazione e reti di telecomunicazioni, MEC consente in particolare agli operatori di aprire la propria rete di accesso (fissa e radio) a terze parti autorizzate, come sviluppatori di applicazioni e fornitori di contenuti.

Commenti sull’evoluzione della rete e dei servizi offerti dai Telco

Fra le ‘raccomandazioni’ che possono essere proposte ai Telco per favorire l’evoluzione verso una rete Internet ‘veloce’, in grado di offrire migliore qualità per i servizi applicativi oggi disponibili e di consentire l’offerta di nuovi servizi che richiedano migliori prestazioni27, particolare attenzione va data a:

  • Introduzione in rete, in tempi brevi, di piattaforme ECC che possono essere realizzate e gestite anche da Neutral Host; a questo fine, appare importante per i Telco acquisire ‘know how’ sull’ECC e definire collaborazioni con altri player per l’installazione e l’utilizzo (preferibilmente ampiamente condiviso) di apparati ECC nella parte periferica delle reti dei Telco.
  • Imporre ai propri Vendor tradizionali interfacce aperte tra tutti i componenti della rete (RAN, Core delle reti mobili e fisse, che stanno convergendo).
  • Realizzare la effettiva separazione dell’HW dal SW e la diffusione della virtualizzazione delle funzioni di rete (già iniziata).
  • Definire modelli per la valutazione del miglioramento delle prestazioni per i servizi applicativi, dei costi delle piattaforme ECC e dei risparmi sui costi di rete, che sono necessari per gestire efficacemente l’ECC Location Problem (‘quando’ e ‘dove’ realizzare piattaforme ECC).
  • Trasformare progressivamente le modalità con cui vengono realizzati i servizi di connettività migrando verso una rete di Livello 3, indispensabile per avere flessibilità nella gestione del traffico e dei servizi, e per semplificare l’installazione di piattaforme ECC e di altri apparati innovativi in rete.

Commenti sulla regolamentazione per le reti Ultrabroadband (UBB) e Very High Capacity (VHC)

Le Telecomunicazioni sono un settore fortemente condizionato dalla regolamentazione; pertanto, qualunque strategia di medio-lungo periodo non può prescindere da una fattiva collaborazione dei Telco con le Authority, al fine di rendere effettivamente possibile, ed economicamente sostenibile, l’evoluzione della rete; ad esempio:

1.Le Authority di regolamentazione europee (anche AGCOM) prevedono al momento solo finanziamenti per completare la copertura delle reti d’accesso UBB/VHC, per realizzare “reti di ritorno” ‘backhaul’ tra la dorsale e sottoreti ai margini in fibra e data center regionali fuori dalle reti dei Telco, ma non danno indicazioni/obblighi per migliorare la qualità dei servizi applicativi sulle reti dei Telco, che oggi costituiscono, in alcuni casi, il collo di bottiglia, e non prevedono finanziamenti per la realizzazione di piattaforme ECC. Oltre a questo, c’è una generale focalizzazione sulle reti d’accesso (secondo l’assunzione, in realtà non corretta, ‘Accesso con alto bit rate = rete Internet veloce’) e forniscono, in molti casi, indicazioni parziali sul Bit Rate disponibile (ad esempio senza riferimenti alle condizioni, mutevoli, in cui tale Bit Rate debba essere disponibile, come l’ora di punta, e senza considerare adeguatamente la necessità di requisiti end-to-end, che, per le reti dei Telco, devono essere relativi al segmento di rete che collega i terminali e gli ‘oggetti’ ai punti di interconnessione con le reti degli OTT).

2. Le Authority, per realizzare reti UBB/VHC che non costituiscano il collo di bottiglia per le prestazioni dei servizi applicativi (limitando quindi la crescita economica e sociale che la rete Internet consente potenzialmente di ottenere), dovrebbero fornire chiare indicazioni/definizioni su aspetti quali:

  • Key Performance Indicators (KPI) end-to-end dei servizi applicativi (come, ad esempio, la differenza bit rate/throughput, il minimum bit rate disponibile per cliente attivo nell’ora di punta e necessità di distribuire applicazioni e contenuti per migliorare le prestazioni, ridurre i costi di rete e abilitare ricavi incrementali)
  • Relazioni fra i servizi applicativi e i servizi di connettività
  • Miglioramento dei servizi applicativi utilizzando piattaforme ECC
  • Definizione dei valori di riferimento per gli indicatori KPI dei principali servizi applicativi

Auspicabilmente le Authority dovrebbero prevedere (per la parte di loro competenza) finanziamenti per le piattaforme ECC e fornire indicazioni/supporto normativo sulle modalità di realizzazione delle piattaforme ECC anche diverse dall’approccio di produzione interna ‘make’, che è stato tradizionalmente seguito dai Telco.

Considerazioni sui trend tecnologici in atto e i loro condizionamenti sulle scelte e sulle strategie più appropriate

Riprogettare la rete… ma come?

Pierpaolo Marchese

Independent ICT Consultant 

La comprensione della complessità dell’ecosistema internet e del funzionamento delle moderne reti di telecomunicazioni, spiegata in dettaglio nell’articolo, dovrebbe essere alla base di qualunque processo decisionale che voglia affrontare con chiarezza i nodi del settore.

In uno scenario di cambiamento come l’attuale, in cui passati equilibri economici all’interno della catena del valore delle reti non sono più validi e vanno rivisitati, è probabilmente utile ribadire alcuni trend tecnologici in atto che, lungi dall’essere delle variabili indipendenti rispetto a criteri di governance e assetti di proprietà, possono condizionare la bontà futura delle scelte di oggi. Senza pretesa di esaustività, ne possiamo individuare quattro di particolare rilevanza per il dibattito in corso sulla evoluzione della rete del principale Operatore nazionale e dei suoi asset.

  1. La defisicizzazione della rete. L’avvento di internet ha portato a una lunga stagione di dispiegamento in campo di black box sempre più’ complessi, interconnessi e gestiti centralmente, con grande quantità di risorse (investimenti, test, spazi, energia, lavori in campo). Le nuove reti stanno riducendo al minimo l’HW, e si sta diffondendo a tutti i livelli, anche all’accesso, lo sviluppo SW delle funzioni di rete, replicando i modelli di erogazione servizi già in uso nei Cloud Data Centre: virtualizzazione, separazione dei dati dalla capacità computazionale, Application Programming Interfaces (API), composizione modulare di moduli omogenei (microservizi), separazione del controllo dal flusso informativo (user plane). Questa defisicizzazione riduce notevolmente le barriere all’ingresso di nuovi attori, allarga l’orizzonte dei Service Provider e trasferisce sempre più il valore dall’infrastruttura fisica di connettività al controllo e alla orchestrazione delle funzioni e dei contenuti in cloud. I leader tecnologici di questa evoluzione sono Stati Uniti d’America e Cina.

Da qui si pone un quesito dirimente.

Sapremo, come sistema-Italia e come sistema-Europa, cogliere appieno le opportunità e le sfide di questo cambio di paradigma?

  1. Il ruolo dell’edge computing. Nella futura (ma non troppo lontana) Gigabit Society del Metaverso e dell’Augmented Reality, dell’Industrial Internet of Things e dell’Autonomous Driving, la distribuzione dell’intelligenza di rete in isole edge interconnesse e federate sarà sempre più strategica.

Occorrerà costruire e gestire reti nuove non più sulla base del “solito” incremento dì velocità trasmissiva (bps, Throughput), ma anche, forse soprattutto, sulla minimizzazione della latenza, l’affidabilità della connessione, la capacità di condivisione computazione tra terminale e rete.

Non solo: la sicurezza della distribuzione dei dati e delle applicazioni, la flessibilità dei dispiegamenti e dell’attivazione delle risorse (anche per una maggiore efficienza energetica) saranno criteri di progettazione prioritari. Molti modelli architetturali, dal Multiaccess Edge Computing (MEC) al Central Office Redesigned as a Data Centre (CORD) stanno già ridisegnando la struttura dei Point of Presence (POP) periferici delle Telco con sempre maggiori sinergie tra applicazioni/ servizi e funzioni di connettività e trasporto.

Da qui sorgono tre interrogativi:

  1. Potrà la separazione orizzontale delle reti (ad esempio tra Network Companies e Service Companies) garantire efficacemente nei nuovi scenari la relazione tra attori differenti tramite Service Level Agreement (SLA) concordati aprioristicamente?
  2. Quali livelli di apertura (Exposure) si dovranno garantire in una rete ad intelligenza decentrata?
  3. E quale impatto sulle azioni di monitoraggio del traffico e aspetti critici come l’intercettazione legale (Legal Intercept)?
  1. La convergenza by design. Le nuove reti, sospinte dalla necessità di armonizzazione tecnologica e riduzione del costo totale di possesso (Total Cost of Ownership – TCO) procedono spedite verso una convergenza ignota fino a pochi anni fa (fisso/mobile, media/telco, satellitare/terrestre, pubblico/privato) tendendo ad una piattaforma integrata e tecnologicamente omogenea, diversificata solo in alcuni aspetti (accesso, spettro radio) ed a livello di gestione. L’uso delle tecnologie si mescola sulle nuove reti, rompendo vecchie barriere: ad esempio, il Fixed Wireless Access su reti fisse, l’IoT su fibra, il broadcasting su reti mobili. La core network 5G è by design già predisposta dagli standard internazionali ad essere il riferimento di questa convergenza e sta prendendo forma, nella Industry, un nuovo modello di rete totalmente integrata (Integrated Optical & Wireless Network- IOWN) orientato al 2030. Da qui sorge un interrogativo.

Sapranno i tavoli regolatori, in Italia ed in Europa, stare al passo di questi sviluppi e non continuare a privilegiare politiche di segregazione dei mercati e di pura attenzione alla concorrenza all’interno di confini sempre più indefiniti?

  1. L’automazione di rete. Le statistiche delle Telco dimostrano che circa il 70 per cento del TCO è imputabile a spere operative (Operational Expenditure dette OPEX), in particolare sulla rete mobile, e di questo buona parte è dovuto ad operatività e manutenzione. Grazie alla virtualizzazione e al progressivo impiego dell’Intelligenza artificiale il percorso verso una rete “autonoma” nelle sue modalità gestionali sta procedendo in modo interessante. Rakuten, gestore giapponese leader nell’impiego di Reti di Accesso Mobile ad interfacce aperte (Open RAN) ha già automatizzato, ad esempio, il laborioso processo di attivazione dei nuovi siti Radio una volta dispiegate le antenne, mentre altri gestori, anche a livello nazionale, stanno sperimentando soluzioni di configurazioni automatiche da remoto Zero Touch Provisioning associate all’attivazione dei nodi periferici della rete ottica (Optical Line Terminal- OLT) oppure soluzioni di rilevamento e gestione dei guasti “fault detection & management” in tempo quasi reale. Altri ancora stanno automatizzando il processo di ottimizzazione delle prestazioni della rete radio ai singoli clienti tramite impiego della Intelligenza Artificiale.

Questi scenari impattano, come naturale, sulla forza lavoro del settore almeno altrettanto quanto gli assetti societari e si porrà sempre più un problema di skills e formazione. Inoltre, per essere efficace l’automazione comporta anche la raccolta e la condivisione di enormi moli di dati dalla periferia della rete ed una visione end to end che superi le barriere tra differenti segmenti e livelli di rete.

Da qui emerge un ultimo interrogativo.

Sapranno le nuove reti integrate orizzontalmente impiegare nuovi modelli di collaborazione compatibili con i benefici dell’automazione e l’incremento dell’affidabilità complessiva richiesta dai clienti?

Domande complesse che richiedono certamente risposte complesse ma che dimostrano una volta di più che la tecnologia non solo induce al cambiamento ma anche orienta la ricerca e la selezione di nuovi assetti.

2 Gli OTT sono tutte le Società che offrono servizi applicativi, che dipendono e sono limitati dalla connettività (o servizi di rete che gestiscono il trasporto dei bit/pacchetti IP); sulle reti degli OTT si devono quindi gestire sia i servizi applicativi che la connettività. I CDP oggi operano essenzialmente sulle reti Internet degli OTT, poiché l’architettura delle reti dei Telco e il loro posizionamento commerciale rende molto complesso migliorare i servizi applicativi sulle reti dei Telco. I Telco offrono essenzialmente servizi di connettività, cioè trasporto dei bit/pacchetti IP dagli apparati degli end-user/oggetti alle interconnessioni con le reti degli OTT/CDP.

7 Per completezza va ricordato che oltre al modello di relazione ‘Client-Server’ ne esistono altri, in particolare il modello noto come ‘Peer-to-Peer’, in cui i software che sono nei terminali parlano direttamente (o quasi) tra loro; un esempio noto è la Applicazione Bit-Torrent, che permette di scambiare file di dati fra i PC degli utenti (ma anche in questo caso esistono dei Server in rete che svolgono alcuni compiti specifici).

8 Vedi sito WEB CloudFlare, Che cos’è il modello OSI?, https://www.cloudflare.com/it-it/learning/ddos/glossary/open-systems-interconnection-model-osi/ e documento tecnico IETF RFC 1122 https://datatracker.ietf.org/doc/rfc1122/

10 I livelli ‘bassi’ si fanno carico di garantire la trasmissione fisica dei bit di informazione, i livelli ‘alti’ intervengono per gestire tutta la ‘chiacchierata’ fra le due entità remote e per fare in modo che esse si ‘capiscano’; i livelli intermedi lavorano per assicurare che le informazioni attraversino correttamente tutta la rete, giungendo a destinazione senza errori.

11 Pertanto, ad esempio, una linea di accesso fissa in fibra ad una abitazione potrebbe presentare una ‘velocità’ nominale di 100 Mbit/s o superiore, ma gli Applicativi nel PC di casa potrebbero ‘vedere’ un Throughput (velocità effettiva utilizzabile) di 30 Mbps o inferiore (caso tutt’altro che raro)

13 Nelle reti si distingue la parte di Accesso, a cui sono connessi i terminali degli utenti, e la parte Core, a cui sono collegati i segmenti di Accesso, e che a sua volta è collegata alle reti internazionali di lunga distanza.

14 Internet Exchange Point (IXP), o punto di interscambio, detto anche NAP (Network Access Point o Neutral Acces Point) è un’infrastruttura fisica che permette a diversi Internet Service Provider di scambiare traffico Internet tra loro

20 Esistono soluzioni per distribuire le funzioni del Core che consentono di avere visibilità del livello 3 – virtualizzazione di alcune delle funzioni del Core per realizzare local break out dei flussi IP + traffic classification e steering + interfacce verso il Core centralizzato.

27 la qualità dei servizi applicativi si ottiene: 1) garantendo il bit rate necessario per lo specifico servizio e 2) riducendo la ‘distanza’ Server-apparato end user/oggetto, poiché questo aumenta il TH (se il BR disponibile non è il collo di bottiglia) e riduce RTT, PL. L’incremento del TH e la riduzione di RTT e PL migliorano anche il VD. La distanza Server-apparato end user/oggetto si riduce distribuendo applicazioni e contenuti ‘vicino’ a end user/oggetti; la distribuzione si realizza con data center di dimensioni molto minori di quelli hyperscale degli OTT.