FDD-LTE: Anatomia di una Tecnologia Radio che Devi Conoscere

Se hai letto il primo articolo di questa serie sai già che scegliere una POC radio senza guardare le bande LTE supportate equivale a comprare un’automobile senza sapere su quale tipo di carburante funziona. Ma capire davvero cosa significa “FDD-LTE B20” richiede un passo indietro — bisogna capire cosa è l’FDD, cosa è l’LTE, e perché le bande di frequenza non sono tutte equivalenti. Questo articolo ti spiega tutto quello che serve sapere, con i dati reali degli operatori italiani come riferimento concreto.

Cosa significa LTE

LTE è l’acronimo di Long Term Evolution, definito dal consorzio internazionale 3GPP (3rd Generation Partnership Project) a partire dalla Release 8 del 2008. Non è semplicemente il nome commerciale del “4G”: è uno standard tecnico preciso che descrive come trasmettere e ricevere dati digitali su un canale radio in modo efficiente, scalabile e compatibile tra apparati di costruttori diversi. La parola “Evolution” nel nome non è casuale: LTE nasce come evoluzione del precedente standard UMTS (3G) con l’obiettivo di aumentare drasticamente la velocità di trasmissione, ridurre la latenza e migliorare la capacità delle celle in condizioni di traffico elevato.

Il principio di funzionamento di LTE è basato sulla modulazione OFDM (Orthogonal Frequency Division Multiplexing): invece di occupare un singolo canale continuo come faceva il GSM, LTE divide la banda disponibile in centinaia di sottoportanti parallele da 15 kHz ciascuna, trasmettendo dati su tutte contemporaneamente. Questo approccio è estremamente resistente alle riflessioni del segnale tipiche degli ambienti urbani e permette di scalare la velocità in funzione della banda disponibile. Su una cella LTE con 20 MHz di banda, a parità di modulazione, si ottiene una velocità teorica circa quattro volte superiore a quella ottenibile con 5 MHz — un rapporto diretto e lineare che rende la larghezza di banda assegnata uno dei parametri più critici per le prestazioni reali.

FDD e TDD: due filosofie a confronto

Prima di entrare nelle singole bande, è fondamentale capire la differenza tra le due varianti di LTE che troverai scritte su qualsiasi scheda tecnica: FDD-LTE (Frequency Division Duplex) e TDD-LTE (Time Division Duplex). Entrambe le varianti trasmettono dati LTE con la stessa modulazione OFDM, ma risolvono in modo diverso un problema fondamentale: la radio deve trasmettere e ricevere contemporaneamente, e lo stesso circuito non può fare entrambe le cose sullo stesso canale nello stesso istante.

La soluzione FDD è la più intuitiva: si usano due frequenze separate, una per la trasmissione (uplink, dal terminale alla torre) e una per la ricezione (downlink, dalla torre al terminale), con una separazione fissa chiamata duplexing gap che varia da banda a banda. Un terminale FDD trasmette e riceve sempre in simultanea, su canali fisicamente separati, con un filtro duplexer all’interno dell’apparato che isola i due percorsi. Questo garantisce latenza minima e comportamento simmetrico — caratteristiche ideali per le comunicazioni vocali PTT dove il ritardo di trasmissione è un parametro critico.

La soluzione TDD usa invece una sola frequenza, alternando nel tempo i frame di trasmissione e ricezione secondo uno schema predefinito (il rapporto downlink/uplink è tipicamente 7:3 o 8:2). Il vantaggio è che si sfrutta meglio uno spettro non bilanciato come quello delle bande alte, dove trovare coppie simmetriche di frequenze è difficile. Lo svantaggio è che la latenza è strutturalmente più alta rispetto all’FDD, e il comportamento in ambienti con molti utenti può essere meno prevedibile. In Italia, le bande TDD-LTE utilizzate sono la Banda 38 (2600 MHz TDD, usata da WindTre in modalità 5G NR) e la Banda 40 (2300 MHz, non assegnata agli operatori mobili pubblici italiani ma presente sulle schede tecniche come compatibilità internazionale).

Per le POC radio usate in Italia, le bande che contano davvero sono quelle FDD. Ogni banda FDD è identificata da un numero progressivo secondo la tabella 3GPP e da una coppia di frequenze: la frequenza uplink (UL) e quella downlink (DL). Conoscerle una per una non è nozionismo accademico — è la differenza tra un apparato che funziona ovunque e uno che ti lascia senza segnale nel momento sbagliato.

Banda 1 — 2100 MHz: il cavallo di battaglia urbano

La Banda 1, o B1, opera sulle frequenze 1920-1980 MHz in uplink e 2110-2170 MHz in downlink, con un duplexing gap di 190 MHz. È la banda storica del 3G UMTS, riciclata e riconfigurata per LTE con enormi vantaggi: l’infrastruttura di antenna esistente era già ottimizzata per queste frequenze, e tutti e quattro gli operatori italiani (TIM, Vodafone, WindTre, iliad) vi hanno investito massicciamente.

In Italia la Banda 1 è la banda principale per la capacità nelle aree urbane dense. WindTre vi opera con 20 MHz di larghezza di banda, TIM e Vodafone con 15 MHz ciascuno, iliad con 10 MHz. La propagazione a 2100 MHz è buona nelle città ma mediocre in ambienti interni: le pareti in cemento armato attenuano significativamente il segnale a questa frequenza. Un terminale in un magazzino o in un edificio industriale con struttura in ferro-cemento può ricevere segnale B1 sufficiente all’esterno e perdere la connessione appena entra all’interno. Per le POC radio usate esclusivamente in aree urbane all’aperto, la B1 è più che sufficiente. Per ambienti chiusi, servono le bande più basse. Tutti i modelli Inrico analizzati nella serie precedente supportano B1 nella versione EU.

Banda 3 — 1800 MHz: il miglior equilibrio tra capacità e copertura

La Banda 3 opera su 1710-1785 MHz in uplink e 1805-1880 MHz in downlink, con un duplexing gap di 95 MHz. È la banda LTE con la maggiore disponibilità di spettro assegnato in Italia: TIM dispone di 20 MHz, Vodafone di 20 MHz, WindTre di 20 MHz e iliad di 10 MHz, per un totale di 70 MHz FDD suddivisi tra i quattro operatori. È anche l’unica banda 4G assegnata a tutti e quattro gli operatori italiani, il che la rende fondamentale per la compatibilità universale.

La frequenza di 1800 MHz offre un compromesso eccellente: migliore penetrazione negli edifici rispetto alla B1 a 2100 MHz, velocità di trasferimento dati superiore rispetto alle bande sotto i 1000 MHz, cella di copertura di raggio discreto (tipicamente 1-3 km in area urbana, fino a 5-7 km in area aperta). È la banda su cui gli operatori caricano la maggior parte del traffico dati nelle ore di punta nelle città italiane. Una POC radio senza B3 in versione EU è semplicemente fuori dal mercato italiano. La B3 è presente su tutti i 15 modelli Inrico analizzati.

Banda 7 — 2600 MHz: la banda della velocità, non della copertura

La Banda 7 opera su 2500-2570 MHz in uplink e 2620-2690 MHz in downlink, con duplexing gap di 120 MHz. È la banda più veloce dell’LTE FDD italiano: con 20 MHz di larghezza di banda (come quelli assegnati a WindTre) la velocità teorica in downlink supera i 200 Mbit/s con MIMO 2×2 e modulazione 256-QAM. TIM e Vodafone dispongono di 15 MHz ciascuno, iliad di 10 MHz.

Il problema della B7 è la propagazione: a 2600 MHz il segnale si attenua rapidamente con la distanza e viene bloccato efficacemente da qualsiasi ostacolo fisico. Il raggio di cella è tipicamente inferiore a 1 km in area urbana densa. Fuori dai centri urbani, nelle periferie industriali, nelle aree rurali e negli edifici con pareti spesse, la B7 è spesso assente o troppo debole per essere utilizzabile. Per una POC radio, la B7 non è un fattore critico: la trasmissione vocale PTT richiede una larghezza di banda di appena 8-13 kbit/s anche con i codec di qualità più elevata — un valore che qualsiasi banda LTE gestisce senza difficoltà anche in condizioni marginali. La B7 ha senso per chi trasmette video in tempo reale dalla telecamera posteriore del terminale verso la centrale operativa. Anche in questo caso tutti i modelli Inrico supportano B7 nella versione EU.

Banda 8 — 900 MHz: la banda dei sopravvissuti

La Banda 8 opera su 880-915 MHz in uplink e 925-960 MHz in downlink, con duplexing gap di 45 MHz. In Italia questa banda è storicamente assegnata alla telefonia 2G (GSM 900) e al 3G (UMTS 900) — ma in alcuni scenari viene riconfigurata anche per LTE. TIM e Vodafone la utilizzano in configurazione LTE alternativa con 5 MHz di larghezza di banda, principalmente per estendere la copertura nelle aree dove B20 non è disponibile.

La propagazione a 900 MHz è eccellente: il segnale percorre distanze superiori a B20, penetra meglio nelle gallerie, nei sotterranei, nelle strutture minerarie. Non è un caso che gli operatori italiani abbiano mantenuto la B8 anche nell’era 4G invece di dismettere completamente il 900 MHz. Per le POC radio utilizzate in contesti sotterranei — miniere, gallerie ferroviarie, parcheggi profondi, scantinati — la presenza del supporto B8 in scheda tecnica è un valore aggiunto concreto. I modelli Inrico della serie S supportano B8 EU (S100, S200, S300, S300 Pro, S300 Plus). I modelli IRC380 e IRC390 con il loro set completo di bande FDD (B1-B28/B66) includono ovviamente B8.

Banda 20 — 800 MHz: la banda più importante per l’Italia reale

La Banda 20 opera su 832-862 MHz in uplink e 791-821 MHz in downlink — nota l’inversione rispetto alle bande alte: il downlink (ricevuto dal terminale) è a frequenza più bassa dell’uplink. Il duplexing gap è di 41 MHz. Questa caratteristica fisica non ha impatti pratici sull’utente ma spiega perché i filtri duplexer per B20 sono fisicamente diversi da quelli delle bande alte.

La B20 è la banda di copertura per eccellenza in Italia. Nasce dalla liberazione del dividendo digitale televisivo nel 2012, che ha liberato lo spettro compreso tra 790 e 862 MHz precedentemente occupato dalle trasmissioni televisive analogiche. TIM, Vodafone e WindTre vi operano ciascuno con 10 MHz di banda. Iliad non dispone di B20 — una lacuna strutturale che spiega perché la copertura iliad in aree rurali e montane sia storicamente inferiore agli altri operatori.

A 800 MHz la propagazione è straordinaria: una singola cella B20 può coprire un raggio di 10-15 km in pianura aperta, e il segnale penetra negli edifici con un’attenuazione nettamente inferiore rispetto a B3 o B1. In un capannone industriale con pareti in mattoni, la differenza tra un terminale che aggancia B20 e uno che è limitato a B3 può tradursi letteralmente nella differenza tra connessione stabile e connessione assente. Per questo la B20 è il parametro discriminante numero uno nella scelta di una POC radio destinata all’uso in Italia — specialmente fuori dalle aree metropolitane.

Banda 28 — 700 MHz: la nuova frontiera della copertura

La Banda 28 opera su 703-748 MHz in uplink e 758-803 MHz in downlink, con duplexing gap di 55 MHz. È la banda più recente del panorama LTE italiano, assegnata nel 2018 nell’ambito della gara per le frequenze 5G e oggi attiva in configurazione LTE/NR DSS (Dynamic Spectrum Sharing) su tutti e quattro gli operatori: iliad, TIM e Vodafone dispongono ciascuno di 10 MHz.

La B28 a 700 MHz ha caratteristiche di propagazione ancora superiori alla B20: raggio di cella teoricamente più ampio, penetrazione negli edifici ancora migliore, comportamento in ambienti con ostacoli (foreste, colline, strutture industriali complesse) decisamente superiore. È la banda che iliad utilizza come principale strumento di copertura per compensare la mancanza di B20 — e che gli altri operatori utilizzano come banda di fallback nei punti di copertura più critica.

Per le POC radio, la B28 sta diventando sempre più rilevante. I modelli Inrico di fascia media e alta la supportano nella versione EU (S200, S300 Pro, S300 Plus, S350, IRC380, IRC390, T740A, T330/T338). I modelli più datati come S100 e TM-9 la dichiarano in scheda tecnica come B28A e B28B, che corrispondono alle due sottobande geografiche del profilo APT700. Un terminale senza B28 acquistato oggi è già parzialmente penalizzato rispetto alla direzione di sviluppo delle reti degli operatori italiani.

Banda 32 — 1500 MHz SDL: la banda asimmetrica

La Banda 32, chiamata anche banda L o 1500 MHz SDL (Supplemental Downlink), è una banda atipica: funziona solo in downlink, senza canale uplink corrispondente. Opera su 1452-1492 MHz ed è assegnata in Italia a TIM (1452-1472 MHz, 20 MHz) e Vodafone (1472-1492 MHz, 20 MHz). Viene usata esclusivamente in aggregazione portante (Carrier Aggregation) con un’altra banda principale, per aumentare la velocità di scaricamento senza impattare quella di caricamento.

Per una POC radio la B32 non ha alcuna rilevanza pratica: non viene usata per la trasmissione vocale PTT e non appare come banda principale nei terminali radio professionali. Non è presente su nessuno dei 15 modelli Inrico analizzati. La si menziona per completezza, perché la vedrete a volte elencata nelle specifiche degli smartphone consumer e potrebbe generare confusione confrontando schede tecniche di prodotti diversi.

Come le bande si combinano in Italia: quadro operatore per operatore

La situazione reale degli operatori italiani, ricavata dai dati di assegnazione spettrale AGCOM e da LTE Italy, è la seguente:

BandaFrequenzaTIMVodafoneWindTreiliad
B28700 MHz10 MHz FDD10 MHz FDD10 MHz FDD
B20800 MHz10 MHz FDD10 MHz FDD10 MHz FDDAssente
B8900 MHzLTE opzionaleLTE opzionaleUMTS/LTEUMTS
B321500 MHz SDL20 MHz SDL20 MHz SDL
B31800 MHz20 MHz FDD20 MHz FDD20 MHz FDD10 MHz FDD
B12100 MHz15 MHz FDD15 MHz FDD20 MHz FDD10 MHz FDD
B72600 MHz15 MHz FDD15 MHz FDD20 MHz FDD10 MHz FDD

Questo quadro ha implicazioni dirette sulla scelta della POC radio. Chi opera prevalentemente con SIM TIM o Vodafone beneficia della copertura B20 capillare costruita in anni di investimento sull’800 MHz. Chi usa SIM iliad deve assicurarsi che il terminale supporti B28 — la banda su cui iliad costruisce la sua copertura nelle aree critiche. Chi lavora in ambienti interni difficili (magazzini, gallerie, sotterranei) deve privilegiare terminali con B20 e B8, che penetrano meglio rispetto a B3 e B1.

Carrier Aggregation: quando una banda non basta

L’LTE moderno non usa una sola banda alla volta. La tecnica denominata Carrier Aggregation (CA), introdotta con LTE-Advanced nella Release 10 del 3GPP, permette al terminale di aggregare due o più portanti su bande diverse sommando le velocità. Un esempio concreto: TIM può aggregare B20 (10 MHz, ~100 Mbit/s) con B3 (20 MHz, ~200 Mbit/s) ottenendo teoricamente ~300 Mbit/s su un singolo terminale. WindTre aggrega tipicamente B1+B3+B7 nelle aree ad alta densità urbana.

Per una POC radio che trasmette solo voce PTT la Carrier Aggregation è irrilevante in termini di capacità — non hai mai bisogno di 300 Mbit/s per una chiamata vocale. Diventa invece rilevante in una situazione specifica: se il terminale supporta la CA, può mantenere una connessione stabile usando la banda di copertura (B20 o B28) mentre aggancia contemporaneamente una banda di capacità (B3 o B1) per la trasmissione dei dati di localizzazione GPS e telemetria. I modelli Inrico di fascia alta con Android 13 e 14 e RAM da 4 GB in su supportano la CA; i modelli con Android 8.1 e 1 GB di RAM tipicamente no.

Il numero delle bande in scheda tecnica non è uguale alla qualità del segnale

Finora abbiamo parlato di quali bande supporta un terminale. Ma c’è un parametro che le schede tecniche delle POC radio — a differenza di quelle degli smartphone premium — raramente dichiarano esplicitamente: la sensibilità del ricevitore per il modulo LTE. Questo valore, espresso in dBm (decibel riferiti a 1 milliwatt), indica il livello minimo di segnale che il ricevitore riesce a demodulare correttamente. Più il valore è negativo, più il ricevitore è sensibile — cioè più riesce a lavorare con segnali deboli.

Uno smartphone di fascia alta come un iPhone 15 o un Samsung S24 ha tipicamente una sensibilità del ricevitore LTE intorno a -105 / -108 dBm su B20. Un modulo LTE di qualità medio-bassa, come quelli usati nei terminali a basso costo, si ferma spesso a -98 / -100 dBm. La differenza di 8 dBm corrisponde a una differenza di potenza di segnale di circa 6 volte: il modulo più sensibile “sente” segnali che per il modulo meno sensibile sono indistinguibili dal rumore di fondo. In pratica, in un punto dove il terminale economico mostra zero tacche di segnale, quello con il modulo migliore ne mostra ancora due o tre.

Un limite che accomuna la quasi totalità delle POC radio di fascia professionale bassa e media sul mercato è che le schede tecniche non dichiarano la sensibilità LTE. L’unica eccezione nella gamma analizzata riguarda il modulo DMR dei modelli IRC380 e IRC390, che dichiarano esplicitamente una sensibilità del ricevitore pari a ≤ -123 dBm — un valore eccellente per quella tecnologia radio. Per il modulo LTE la sensibilità reale va verificata empiricamente sul campo, oppure cercando recensioni tecniche che includano test strumentali.

DSS: quando 4G e 5G condividono la stessa banda

Un ultimo concetto importante per capire l’evoluzione delle reti in Italia è il Dynamic Spectrum Sharing (DSS). Con questo meccanismo, introdotto commercialmente dal 2020, lo stesso blocco di frequenza può essere condiviso dinamicamente tra il traffico LTE e il traffico 5G NR, allocando le risorse radio in tempo reale in funzione della domanda. In Italia, TIM, Vodafone e iliad usano DSS principalmente sulle bande B28 (700 MHz) e B20 (800 MHz).

Per una POC radio LTE questo ha un impatto pratico: in un’area dove l’operatore usa DSS, una parte della banda 800 MHz o 700 MHz che il terminale 4G si aspettava di usare può essere temporaneamente occupata da frame 5G. Il terminale non se ne accorge in modo diretto — il meccanismo di scheduling è trasparente per l’utente — ma nei momenti di carico elevato della cella la velocità disponibile per i dispositivi 4G può ridursi. Per la voce PTT, che richiede pochissima banda, questo non è mai un problema. Per la trasmissione video in tempo reale — possibile con i modelli Inrico a 48 MP come S300 Pro e S300 Plus — potrebbe causare qualche irregolarità in scenari di traffico estremo.

Tabella riepilogativa: bande FDD-LTE in Italia e rilevanza per POC radio

BandaFreq. DLFreq. ULOperatori ITLarghezza maxCoperturaIndoorRilevanza PTT
B28758-803 MHz703-748 MHzTIM, VF, iliad10 MHzMassimaOttima★★★★★
B20791-821 MHz832-862 MHzTIM, VF, WindTre10 MHzOttimaOttima★★★★★
B8925-960 MHz880-915 MHzTutti (var.)5-10 MHzBuonaBuona★★★★☆
B31805-1880 MHz1710-1785 MHzTutti20 MHzBuonaMedia★★★★☆
B12110-2170 MHz1920-1980 MHzTutti20 MHzMediaScarsa★★★☆☆
B72620-2690 MHz2500-2570 MHzTutti20 MHzScarsaPessima★★☆☆☆
B321452-1492 MHzTIM, VF20 MHz SDLSolo DLNon applicabile

La lettura di questa tabella riassume in modo diretto ciò che una scheda tecnica dovrebbe comunicare ma spesso non comunica abbastanza chiaramente: per una POC radio da usare in Italia, B20 e B28 sono le bande critiche, B3 e B8 sono bande di supporto importanti, B1 e B7 sono bande utili nelle città ma non determinanti. Un terminale con solo B1, B3 e B7 funzionerà benissimo a Milano in piazza del Duomo e inizierà ad avere problemi appena entrerà in un edificio industriale fuori dal centro o si allontanerà di qualche chilometro dall’area urbana densa. Un terminale con B20, B28, B8 e B3 funzionerà in modo affidabile anche nelle condizioni più critiche che l’Italia reale — non quella dei rendering promozionali — può offrire.

Siamo su TELEGRAM!

Dentro la Rete: Come una PoC Radio Comunica Davvero con l’Infrastruttura TLC

Premere il tasto PTT su una radio PoC e sentire la voce dell’interlocutore a chilometri di distanza sembra un’operazione semplice quanto premere un interruttore. Non lo è. In quel mezzo secondo che separa il tocco del tasto dall’inizio della trasmissione si svolge una catena di eventi tecnici che coinvolge il modulo radio del terminale, l’antenna della cella più vicina, tre o quattro nodi di rete separati fisicamente in luoghi diversi, un server cloud che può trovarsi in un datacenter a Milano come a Francoforte, e il percorso inverso verso il terminale del destinatario — il tutto in meno di 300 millisecondi quando tutto funziona bene. Capire questa catena non è un esercizio accademico: è la base per comprendere perché una PoC radio di qualità diversa da un’altra si comporta in modo diverso sul campo, perché la SIM multioperatore non è semplicemente “una SIM che funziona ovunque”, e perché certi guasti non dipendono dal terminale ma dall’infrastruttura a monte.

Il terminale come stazione radio base tascabile

La prima cosa da capire è che una PoC radio come quelle della gamma Inrico analizzata nei numeri precedenti — S300 Pro, IRC390, S350 e compagni — non è un walkie-talkie con una SIM attaccata. È una stazione radio mobile completa che implementa a livello hardware tutti i protocolli della catena radio LTE lato terminale. Al suo interno il modulo radio, basato tipicamente su chipset Qualcomm o MediaTek (come il MT6739 dell’S100 e del TM-9 ), gestisce simultaneamente tre funzioni distinte: la scansione dello spettro radio per individuare le celle disponibili, la negoziazione del canale fisico con la stazione base, e la modulazione/demodulazione del segnale digitale.

Quando la radio viene accesa, il modulo LTE entra in una fase di ricerca delle celle che scansiona sistematicamente tutte le bande supportate dalla versione EU installata. Sulla base dei segnali ricevuti costruisce una lista ordinata delle celle candidate, misurandone la potenza del segnale in dBm (RSRP, Reference Signal Received Power) e la qualità del canale in dB (RSRQ, Reference Signal Received Quality). La cella con il miglior rapporto tra questi due valori diventa la serving cell — la cella di servizio a cui il terminale si associa per tutto il traffico successivo. È in questa fase che le bande di frequenza giocano il ruolo decisivo descritto nel secondo articolo: un terminale che supporta B20 (800 MHz) può agganciarsi a una cella a 10 km di distanza che fornisce copertura in un’area dove B3 (1800 MHz) non arriva. Un terminale senza B20, nelle stesse condizioni, rimane senza segnale.

L’eNodeB: il cervello del ponte radio

Il nodo fisico a cui la PoC radio si connette via radio è chiamato eNodeB (Evolved Node B) — nella terminologia 3GPP che definisce l’architettura LTE. Nella vita reale lo conosci come “il traliccio dell’antenna” o “il ripetitore sul tetto”, ma la definizione tecnica è più precisa: l’eNodeB è una stazione base che integra tutte le funzioni di gestione della radio, storicamente separate in nodi distinti nelle generazioni precedenti.

A differenza del suo predecessore UMTS, dove la stazione base (NodeB) era gestita da un controller separato (RNC, Radio Network Controller), nell’architettura LTE l’eNodeB è intelligente in modo autonomo: gestisce localmente lo scheduling delle risorse radio (chi trasmette, su quale sottoportante OFDM, con quale potenza e quale modulazione), il controllo della potenza di trasmissione dei terminali, la compressione dell’intestazione dei pacchetti dati e le decisioni di handover verso le celle vicine. Ogni eNodeB è connesso agli eNodeB adiacenti tramite l’interfaccia X2 — un collegamento diretto peer-to-peer che permette la coordinazione dell’handover senza dover coinvolgere i nodi centrali della rete, riducendo la latenza della transizione tra celle.

Un singolo traliccio fisico ospita tipicamente tre settori orientati a 120° ciascuno, che nella logica LTE costituiscono tre eNodeB distinti ma colocati. Ogni settore può operare contemporaneamente su più bande — B20, B3, B1 — usando antenne fisicamente separate o antenne multi-banda con duplexer integrati. Quando la tua PoC radio Inrico IRC390 è in piedi fuori da un magazzino e riceve segnale su B20 e B3 contemporaneamente grazie alla Carrier Aggregation, sta comunicando con due portanti dello stesso eNodeB che gestisce entrambe le bande.​

L’EPC: il cuore della rete che non si vede

Il traffico dati generato dalla PoC radio — il flusso audio PTT codificato, i pacchetti GPS, i dati di telemetria — non rimane nell’eNodeB. Viene instradato attraverso l’interfaccia S1 verso il nucleo della rete mobile, chiamato EPC (Evolved Packet Core). Questa è l’infrastruttura software/hardware che l’operatore gestisce nei suoi datacenter e che costituisce il vero cervello dell’intera rete.

L’EPC è composto da quattro nodi funzionali principali che lavorano in stretta coordinazione. La MME (Mobility Management Entity) è il nodo di controllo: autentica il terminale all’accensione verificando le credenziali della SIM card contro il database centrale dell’operatore (HSS, Home Subscriber Server), assegna un indirizzo IP temporaneo al terminale, gestisce il tracciamento della posizione all’interno della rete e coordina le procedure di handover tra eNodeB su lunghe distanze. Quando la tua PoC radio si sposta dall’area di copertura di un eNodeB a quello del settore successivo mentre sei in autoambulanza o in un veicolo di logistica, è la MME che coordina il trasferimento della sessione dati garantendo la continuità del flusso audio PTT.

Il SGW (Serving Gateway) è il nodo di routing locale: instrada i pacchetti di dati tra l’eNodeB e il resto della rete, mantiene il contesto della sessione durante gli handover intra-operatore e funziona come anchor point per la mobilità — cioè il punto fisso a cui la sessione rimane agganciata mentre il terminale si sposta tra celle diverse. Il PGW (Packet Data Network Gateway) è invece il gateway verso l’esterno: assegna l’indirizzo IP pubblico al terminale, applica le politiche di QoS (Quality of Service) che determinano quanta banda è disponibile per ogni tipo di traffico, e instrada i pacchetti verso Internet — o verso il server PTT della piattaforma.

Dal PGW al server PTT: l’ultimo miglio invisibile

Quando la PoC radio ha raggiunto il PGW dell’operatore, il dato deve ancora percorrere la strada verso il server PTT della piattaforma. E qui emerge un aspetto che quasi nessun rivenditore spiega chiaramente: la qualità della comunicazione PTT non dipende solo dalla rete mobile ma anche dalla latenza tra il PGW dell’operatore e il server della piattaforma.

Una piattaforma PTT professionale o sistemi proprietari integrati nei terminali Inrico — non è un semplice server VoIP. È un’infrastruttura cloud che riceve il flusso audio compresso dal terminale trasmittente, lo decodifica, lo “bufferizza” per compensare il jitter di rete, e lo instrada verso tutti i terminali del gruppo di chiamata in ricezione. La latenza totale di una comunicazione PTT si compone quindi di: latenza radio UL dal terminale all’eNodeB (tipicamente 5-10 ms su LTE), latenza di rete dal SGW al PGW (2-5 ms), latenza dal PGW al server PTT (variabile, da 10 ms a oltre 100 ms a seconda della localizzazione geografica del datacenter), tempo di elaborazione sul server (5-15 ms), e il percorso inverso verso il terminale ricevente.

Il risultato pratico è che una PoC radio connessa a un server PTT con datacenter in Italia avrà una latenza totale di 150-250 ms — percettibile ma accettabile. Un server PTT con datacenter in Asia o negli USA può portare la latenza oltre i 400-500 ms, rendendo la conversazione PTT innaturale e faticosa, con rischio di sovrapposizioni vocali. Quando si acquista una piattaforma PTT da abbinare alla PoC radio, la localizzazione geografica del server è un parametro tecnico tanto importante quanto le bande LTE del terminale. I terminali Inrico sono compatibili con le principali piattaforme di dispatching, ma la scelta della piattaforma ricade sull’acquirente — ed è una scelta che influenza le prestazioni quotidiane più di quanto si immagini.

Come la PoC radio sceglie la cella: il meccanismo di selezione

Ogni 200-400 millisecondi, il modulo LTE di una PoC radio esegue una misurazione di potenza su tutte le celle vicine registrate nella sua lista — un processo chiamato cell measurement definito nello standard 3GPP. Quando la potenza della cella di servizio scende sotto una soglia configurata dall’operatore (tipicamente tra -110 e -120 dBm di RSRP) o quando una cella vicina supera la cella corrente di un certo offset (tipicamente 3-6 dB), il terminale segnala all’eNodeB le misurazioni tramite un messaggio Measurement Report. L’eNodeB decide allora se eseguire un handover — il trasferimento della connessione alla cella più forte.

Il meccanismo di handover nell’LTE è di tipo hard handover: il terminale rompe il collegamento con la cella sorgente e stabilisce immediatamente quello con la cella destinazione, senza periodo di doppia connessione come avveniva nel GSM. La procedura richiede 50-100 ms durante i quali il flusso dati è interrotto. Su una comunicazione PTT vocale questo si traduce in una breve perdita di audio — di solito impercettibile perché il jitter buffer del client PTT compensa la lacuna. Se però il terminale si trova in una zona di confine tra due celle con segnale debole da entrambe, gli handover diventano frequenti e il buffer non riesce a compensare tutte le interruzioni: il risultato è un audio saltellante, familiare a chiunque abbia usato una radio PTT in auto attraversando un’area con copertura discontinua.

I modelli Inrico di fascia alta con Android 13/14 e chipset più recenti (S300 Pro, S300 Plus, S350, T330/T338) gestiscono meglio le misurazioni di handover perché il modulo radio ha una qualità del ricevitore superiore e può discriminare più finemente tra celle vicine. I modelli con Android 7.1 o 8.1 e chipset MT6739 (TM-9, S100, T310) hanno moduli radio meno raffinati che possono eseguire handover in modo più lento o conservare la cella corrente più a lungo del necessario, portando a disconnessioni invece di transizioni fluide.

La SIM multioperatore: come funziona davvero

Una SIM multioperatore non è magica e non è semplicemente “una SIM che funziona su tutte le reti”. Il suo meccanismo di funzionamento è tecnico e preciso, e comprenderlo aiuta a capire sia i vantaggi sia i limiti reali in una PoC radio.

Le SIM multioperatore per uso professionale — quelle progettate specificamente per dispositivi IoT, M2M e radio PTT — operano in roaming permanente. Questo significa che tecnicamente non hanno una rete “domestica” in Italia: si registrano sempre come visitatori su ciascuna rete degli operatori con cui il fornitore della SIM ha accordi di roaming. In Italia, un fornitore di SIM multioperatore professionale tipicamente stringe accordi con TIM, Vodafone e WindTre — e talvolta con iliad — permettendo al dispositivo di scegliere tra le reti disponibili in ogni momento.

Il processo di selezione della rete avviene in due fasi. All’accensione, il modem LTE riceve dall’eNodeB il segnale di sincronizzazione e decodifica il PLMN (Public Land Mobile Network), l’identificativo numerico della rete (MCC + MNC: 222-01 per TIM, 222-10 per Vodafone, 222-88 per WindTre, 222-50 per iliad). La SIM confronta questo PLMN con la lista di reti preferite contenuta nel suo profilo e seleziona la rete con la priorità più alta tra quelle disponibili e con segnale sufficiente. Se la rete ad alta priorità ha segnale marginale mentre quella a bassa priorità ha segnale ottimo, il terminale rimane sulla rete preferita fino a che il segnale non scende sotto la soglia minima di registrazione — poi si registra sulla rete alternativa.

Questo comportamento ha una conseguenza pratica importante: la SIM multioperatore standard non seleziona automaticamente la rete con il segnale più forte in ogni istante, ma seleziona la rete con la priorità più alta tra quelle con segnale accettabile. La lista di priorità è configurata nel profilo SIM dal fornitore — e non è modificabile dall’utente. In aree dove TIM ha priorità alta ma segnale debole su B3, e WindTre ha priorità bassa ma segnale forte su B20, la PoC radio potrebbe rimanere su TIM B3 con qualità marginale invece di passare a WindTre B20 con qualità ottima. Solo quando il segnale TIM scende sotto la soglia minima il terminale si registra sulla rete alternativa.

Il roaming permanente e la priorità di rete

Il funzionamento in roaming permanente ha un’altra implicazione tecnica spesso ignorata: gli operatori applicano politiche di traffic shaping differenziate tra utenti nativi e utenti in roaming. In condizioni di congestione della cella — un evento frequente in zone ad alta densità come aeroporti, stadi, fiere, centri commerciali nelle ore di punta — lo scheduler dell’eNodeB assegna le risorse radio seguendo una gerarchia di priorità che tipicamente mette gli utenti nativi davanti agli utenti in roaming.

Per una PoC radio PTT questo non significa perdita della comunicazione, ma può significare un aumento della latenza e una riduzione della qualità audio nei momenti di picco. La voce PTT compressa a 8-13 kbit/s ha priorità molto bassa nello scheduler rispetto ai dati di streaming o navigazione — a meno che la piattaforma PTT non utilizzi la funzionalità QoS Bearer dell’LTE per marcare il traffico PTT con un identificatore di priorità elevato (QCI, Quality of Service Class Identifier). Le piattaforme PTT professionali certificano il loro traffico come QCI-1 o QCI-2 (voce in tempo reale), garantendo priorità di scheduling superiore al traffico dati generico anche in condizioni di cella congestionata. Le piattaforme consumer non lo fanno — e si nota.

La banda LTE Cat-M1: l’alternativa per ambienti critici

Un elemento emerso nell’analisi comparativa che merita un approfondimento è la distinzione tra LTE standard e LTE Cat-M1 (anche noto come eMTC, enhanced Machine Type Communication). I moduli LTE standard usati nella maggior parte delle PoC radio Inrico analizzate lavorano su LTE Cat-4 o Cat-6, ottimizzati per la velocità di trasferimento dati. Cat-M1 è invece una variante LTE progettata specificamente per dispositivi IoT e apparati critici: opera su una banda molto più stretta (1.4 MHz invece di 5-20 MHz), consuma molta meno energia, e — cosa fondamentale — è in grado di mantenere la connessione con segnali molto più deboli rispetto all’LTE standard, fino a 20 dB in più di tolleranza al path loss.

In pratica, un terminale Cat-M1 riesce a registrarsi su una cella LTE in condizioni dove un terminale Cat-4 standard perde completamente il segnale — in galleria, in seminterrato, in edifici con strutture metalliche. I modelli più avanzati della gamma Inrico (S380, IRC380, IRC390) con chipset recenti supportano Cat-M1 come modalità operativa alternativa quando il segnale standard LTE diventa insufficiente. Nei modelli entry-level con chipset MT6739 questa funzionalità non è disponibile. Per ambienti critici come parcheggi multipiano, magazzini con struttura in ferro-cemento o operazioni in galleria, la differenza tra un terminale con Cat-M1 e uno senza è la differenza tra copertura e assenza di copertura.

Cosa succede davvero premendo PTT: la sequenza completa

Riassumendo l’intera catena in una sequenza operativa reale, ecco cosa accade nell’istante in cui un operatore con una Inrico IRC390 preme il tasto PTT in un magazzino industriale fuori Milano, con SIM multioperatore e piattaforma PTT professionale:​

Il terminale è registrato su TIM B20 (800 MHz) con RSRP di -98 dBm — segnale marginale ma sufficiente. Il modulo LTE ha stabilito un bearier dati con QCI-9 (default). Al momento della pressione del PTT, l’app PTT richiede al sistema operativo l’attivazione di un bearer dedicato QCI-1 per il traffico vocale. Android 10 (presente sull’IRC390) invia la richiesta di bearer al PGW tramite la segnalazione NAS attraverso la MME. Il PGW alloca il bearer prioritario e notifica l’eNodeB di riservare risorse radio per il flusso in tempo reale.

L’audio captato dal microfono primario viene pre-elaborato dal DSP dell’IRC390 con riduzione del rumore AI su tre microfoni, poi compresso dal codec (tipicamente OPUS o AMR-WB a 8-13 kbit/s). Il pacchetto audio viene incapsulato in RTP/UDP, poi in GTP-U per il tunneling verso il SGW, poi inoltrato al PGW e da lì via Internet verso il server PTT. Il server decodifica, elabora e re-instrada verso i terminali destinatari del gruppo. Il tutto, dalla pressione del PTT all’arrivo dell’audio sul terminale ricevente, in meno di 300 ms — se la catena funziona correttamente.

SIM multioperatore e PoC radio: le combinazioni ottimali per l’Italia

Sulla base dell’architettura di rete descritta e delle bande supportate dagli operatori italiani approfondite nel numero precedente, è possibile definire le combinazioni ottimali SIM-rete per i principali scenari d’uso:

Scenario d’usoRete prioritariaRete backupBande criticheTerminale consigliato
Operazioni urbane denseVodafone o TIMWindTreB3, B1, B7S300 Plus, T330/T338
Aree periferiche / industrialiTIM o VodafoneWindTreB20, B8S380, IRC380, T740A
Zone rurali e montaneTIM o VodafoneiliadB20, B28S350, IRC390
Operazioni in galleria / seminterratoWindTreTIMB20, Cat-M1IRC380, S380
Flotte veicolari autostradeVodafoneTIM / WindTreB20, B3TM-7 Plus, TM-9
Uso internazionale + ItaliaSIM multiop. int.B20+B28+B3S300 Pro, S350

La scelta della SIM non è mai neutrale — è parte integrante della configurazione tecnica del sistema di comunicazione, esattamente come la scelta delle bande LTE del terminale o la latenza del server PTT. Un sistema PoC professionale ben progettato tratta SIM, terminale, bande di frequenza e piattaforma PTT come un sistema integrato dove ogni componente influenza le prestazioni degli altri.

Il tasto PTT sembra un pulsante semplice. La catena che mette in moto non lo è per nulla.

Siamo su TELEGRAM!

LA COMMUTAZIONE DI CIRCUITO SPIEGATA SENZA FORMULE

Nell’articolo precedente si è parlato della rete telefonica fissa come di un sistema fisicamente capillare, fatto di cavi, centrali e gerarchie. Si è anche accennato al principio che ne regolava il funzionamento: la commutazione di circuito. È il momento di capire cosa significa davvero questa espressione, perché descrive qualcosa di molto concreto, non un’astrazione matematica. Capire la commutazione di circuito significa capire la logica fondamentale attorno a cui è stata costruita la telefonia per quasi un secolo, e capire perché quella logica, con tutti i suoi vantaggi, portava in sé dei limiti strutturali che nessuna ingegneria poteva eliminare.

Il principio di base è semplice. Quando due persone si chiamano attraverso la rete telefonica fissa, la centrale stabilisce un percorso fisico dedicato tra i due terminali. Questo percorso attraversa uno o più nodi intermedi, ma in ciascuno di essi viene riservata una tratta fisica esclusivamente per quella chiamata. Non una tratta condivisa con altri, non una tratta prestata temporaneamente: una tratta riservata, occupata per tutta la durata della conversazione, libera solo nel momento in cui la chiamata termina. Il nome commutazione di circuito deriva proprio da questo: la centrale commuta, cioè connette, i circuiti fisici necessari a costruire il percorso.

Per rendere l’idea più concreta, si può pensare a una rete ferroviaria. Quando un treno deve andare dalla città A alla città B, il gestore della rete assegna un percorso preciso: un binario dalla stazione di partenza fino alla prima stazione di transito, poi un binario dalla stazione di transito fino alla destinazione. Quel binario è occupato dal treno per tutta la durata del viaggio. Non può essere usato da nessun altro treno nello stesso momento, nello stesso senso. Quando il treno arriva a destinazione, il binario viene liberato. La rete telefonica con commutazione di circuito funzionava esattamente così. La chiamata era il treno, la tratta fisica era il binario.

Questa logica aveva un vantaggio fondamentale: la prevedibilità. Una volta stabilito il percorso, la qualità della chiamata era garantita per tutta la sua durata. Non esistevano variazioni, rallentamenti improvvisi, momenti in cui la voce si spezzava per mancanza di risorse. Le risorse erano già state riservate: nessun altro traffico poteva intaccarle. Era un sistema progettato per la voce, e la voce richiede continuità assoluta. Un ritardo di pochi decimi di secondo in una conversazione telefonica è sufficiente a rendere la comunicazione innaturale e difficoltosa. La commutazione di circuito eliminava questo problema alla radice, riservando la tratta prima ancora di iniziare a trasmettere.

Il limite, però, era speculare al vantaggio. Una tratta riservata è una tratta occupata, anche quando non viene usata. Durante una conversazione telefonica, i due interlocutori non parlano mai simultaneamente in modo continuo: ci sono pause, silenzi, momenti in cui nessuno dei due sta trasmettendo nulla. In quei momenti, la tratta fisica rimaneva riservata e inattiva. Nessun altro poteva usarla. Dal punto di vista dell’utilizzo delle risorse, questo era uno spreco enorme. Si stima che in una chiamata telefonica ordinaria, ciascuna delle due direzioni di trasmissione sia effettivamente attiva per meno della metà del tempo totale. Il resto è silenzio, e quel silenzio occupava comunque risorse come se fosse voce.

Questo limite diventava ancora più evidente nel momento in cui si cercava di trasmettere dati attraverso la stessa rete. Un file non viene trasmesso in modo continuo come una voce: ha picchi di attività intensissimi e lunghi periodi di inattività. Se si doveva trasmettere un documento attraverso la rete telefonica con commutazione di circuito, si riservava una tratta per tutta la durata della connessione, anche mentre non si stava trasmettendo nulla. Era come affittare un camion per un’intera giornata per trasportare un pacco che occupa mezz’ora di viaggio. Il mezzo rimane fermo per il resto del tempo, e nessun altro può usarlo.

Fu proprio questa inefficienza a spingere, a partire dagli anni Sessanta del Novecento, verso la ricerca di un modello alternativo. L’idea era radicalmente diversa: invece di riservare una tratta fisica dedicata per tutta la durata della comunicazione, suddividere le informazioni in piccoli blocchi, inviarli attraverso la rete sfruttando qualsiasi percorso disponibile in quel momento, e riassemblarli a destinazione. Ogni blocco avrebbe occupato la tratta solo per il tempo strettamente necessario al suo transito, lasciandola libera per i blocchi di altri utenti nel frattempo. Questa idea prese il nome di commutazione di pacchetto, e su di essa sono costruite tutte le reti dati moderne, inclusa Internet.

Il confronto tra i due modelli non deve portare alla conclusione che la commutazione di circuito fosse semplicemente obsoleta o sbagliata. Era perfettamente adatta allo scopo per cui era stata progettata: garantire qualità costante e continuità assoluta per le comunicazioni vocali. Il suo limite non era un errore di progettazione, era il costo inevitabile di quella garanzia. La commutazione di pacchetto ha risolto il problema dell’efficienza nell’uso delle risorse, ma ha introdotto nuove complessità nella gestione della qualità, della latenza e della continuità. Sono compromessi diversi, non soluzioni universali. Ed è precisamente per questo che oggi, in una rete cellulare moderna, coesistono entrambe le logiche, ciascuna applicata dove ha senso applicarla.

Siamo su TELEGRAM!

LA RETE TELEFONICA FISSA: COME FUNZIONAVA DAVVERO

Prima di capire come funziona una rete cellulare moderna, è necessario capire da dove viene. Non per ragioni storiche o nostalgiche, ma perché molte delle scelte architetturali delle reti attuali sono il risultato diretto di vincoli nati decenni prima, nella progettazione di un sistema completamente diverso: la rete telefonica fissa. Quel sistema ha definito vocabolari, logiche operative e aspettative che ancora oggi condizionano il modo in cui le reti vengono costruite, gestite e percepite. Ignorarlo significa non riuscire a spiegare perché certe cose funzionano in un certo modo, e non in un altro.

La rete telefonica fissa, nella sua forma classica, era un sistema fisicamente capillare. Ogni abitazione, ogni ufficio, ogni punto di accesso era collegato da un filo di rame che percorreva un tragitto preciso: dal terminale dell’utente fino a una centrale locale, da lì verso centrali di livello superiore, e così via lungo una gerarchia ben definita fino a raggiungere la destinazione. Non esisteva nulla di virtuale in questo sistema. Il percorso fisico era reale, concreto, misurabile. Se si fosse voluto tracciare una chiamata telefonica su una mappa, si sarebbe potuto farlo seguendo i cavi.

Questa struttura gerarchica non nasceva da una scelta arbitraria. Nasceva da una necessità tecnica precisa. Per connettere milioni di utenti in modo diretto, nodo per nodo, sarebbero stati necessari miliardi di collegamenti fisici separati: un numero non gestibile. La soluzione era aggregare il traffico in punti intermedi, le centrali, che concentravano le connessioni provenienti da un territorio e le instradavano verso la rete a monte. Una centrale locale serviva alcune migliaia di utenti. Una centrale di transito aggregava più centrali locali. Una centrale internazionale connetteva reti di paesi diversi. Ogni livello della gerarchia riduceva la complessità del livello successivo, al costo di creare punti di concentrazione sempre più critici.

La centrale telefonica, nel linguaggio tecnico dell’epoca, veniva chiamata nodo di commutazione. Il termine commutazione indica l’operazione con cui la centrale stabilisce un collegamento fisico tra due linee per la durata di una chiamata. Non si trattava di smistare dati o pacchetti: si trattava di connettere fisicamente due cavi in modo che il segnale elettrico generato dalla voce potesse scorrere da un punto all’altro senza interruzioni. Questo principio, la commutazione di circuito, verrà approfondito nel prossimo articolo. Per ora è sufficiente sapere che l’intera rete telefonica fissa era costruita intorno a questa logica: una chiamata riservava una tratta fisica dedicata per tutta la sua durata, dall’inizio alla fine.

Questa scelta aveva conseguenze precise sulla capacità della rete. Ogni linea fisica poteva trasportare una sola comunicazione alla volta. Se una linea era occupata, una nuova chiamata verso quella destinazione non poteva passare: riceveva il segnale di occupato e veniva respinta. Non esisteva la possibilità di condividere la stessa tratta tra chiamate diverse nello stesso momento, come avviene invece nella trasmissione dati. La rete era dimensionata sulla base di statistiche di traffico: quante chiamate si prevedeva fossero attive contemporaneamente in un certo momento della giornata, in un certo giorno della settimana. Se il traffico reale superava le previsioni, il sistema andava in saturazione. Non si degradava gradualmente: si bloccava. Le chiamate non passavano, punto.

Nonostante questi limiti, la rete telefonica fissa ha funzionato per oltre un secolo con un livello di affidabilità straordinario. La ragione principale era la semplicità del suo modello operativo. Una volta stabilito il collegamento, la chiamata funzionava o non funzionava. Non esistevano variazioni di qualità, latenze variabili, interruzioni parziali. Il segnale arrivava oppure non arrivava. Questa prevedibilità era il risultato diretto della tratta dedicata: nessun altro traffico interferiva con una chiamata in corso, nessuna congestione poteva degradarne la qualità durante la conversazione. Il circuito era riservato, e quella riserva garantiva una qualità costante per tutta la durata della comunicazione.

Un altro elemento che contribuiva all’affidabilità era l’alimentazione. I terminali telefonici fissi non richiedevano una presa elettrica domestica. Ricevevano l’alimentazione direttamente attraverso il cavo di rame proveniente dalla centrale. La centrale disponeva di sistemi di alimentazione autonoma, batterie e gruppi di continuità, progettati per mantenere il servizio anche in caso di interruzione della rete elettrica. In condizioni di emergenza, quando l’energia veniva a mancare, il telefono fisso continuava a funzionare. Era uno dei pochi sistemi di comunicazione progettato esplicitamente per resistere a interruzioni dell’alimentazione ordinaria.

Questa eredità è rilevante. Quando oggi si parla di affidabilità delle reti di comunicazione in contesti critici, il parametro di confronto implicito è spesso quello stabilito dalla rete telefonica fissa. Un sistema che funzionava senza energia domestica, che garantiva qualità costante per tutta la durata della chiamata, che aveva una struttura fisica tracciabile e una gerarchia chiara di responsabilità. Le reti che sono venute dopo, più flessibili e più capaci, hanno acquisito nuove caratteristiche ma hanno anche introdotto nuove vulnerabilità. Per capire quali siano queste vulnerabilità, è necessario capire prima come è avvenuta la transizione, e quale logica l’ha guidata. È esattamente quello che affronteremo nel prossimo articolo.

Siamo su TELEGRAM!

PERCHÉ TUTTE LE RETI HANNO UN PUNTO DI ROTTURA

C’è una convinzione diffusa, raramente espressa in modo esplicito ma profondamente radicata nel modo in cui le persone usano le reti di comunicazione, secondo cui una rete ben costruita dovrebbe funzionare sempre. Che esistano soluzioni tecniche sufficientemente avanzate da eliminare, almeno in linea di principio, la possibilità di un’interruzione. Questa convinzione non è solo sbagliata. È sbagliata nel modo più pericoloso possibile: sembra ragionevole. Il punto non è che le reti siano progettate male, né che chi le gestisce non faccia il proprio lavoro. Il punto è che ogni rete, indipendentemente dalla sua complessità, dal suo costo e dalla cura con cui è stata realizzata, ha un punto oltre il quale smette di funzionare. Non per negligenza, ma per legge fisica, economica e logica.

Il primo motivo è fisico. Ogni componente di una rete, nodo o collegamento, ha una capacità massima. Un cavo in fibra può trasportare una certa quantità di informazioni al secondo, non una quantità illimitata. Un apparato di instradamento può processare un certo numero di operazioni in un dato intervallo di tempo. Un’antenna può gestire un certo numero di comunicazioni simultanee prima che il segnale cominci a degradare. Questi limiti non sono difetti di progettazione: sono conseguenze dirette delle proprietà fisiche dei materiali e delle leggi dell’elettronica. È possibile aumentare le capacità, sostituire gli apparati, potenziare le infrastrutture. Non è possibile eliminarle. Il limite fisico esiste sempre, anche quando è collocato molto più in alto della domanda ordinaria.

Il secondo motivo è economico. Una rete può essere progettata per reggere carichi molto superiori a quelli attesi in condizioni normali. Ma ogni incremento di capacità ha un costo. A un certo punto, il costo di aggiungere ridondanza o capacità supera il beneficio atteso, soprattutto se i casi d’uso per cui servirebbe quella capacità aggiuntiva sono rari o estremi. Le reti commerciali vengono dimensionate per gestire il carico tipico, con un margine di sicurezza ragionevole. Non vengono dimensionate per il caso peggiore immaginabile. La differenza tra il carico normale e il carico straordinario, come quello che si produce durante un evento di massa o un’emergenza, è spesso sufficiente a mandare in saturazione una rete costruita con criteri ordinari.

Il terzo motivo è logico. In qualsiasi sistema complesso, la ridondanza richiede risorse. Quelle risorse hanno un costo e un peso. Più si vuole proteggere un sistema da eventi rari, più diventa costoso proteggerlo dall’evento successivo, ancora più raro. Esiste sempre un livello di sollecitazione che nessun sistema è stato progettato per sostenere. Un terremoto di intensità sufficiente distrugge le infrastrutture fisiche. Un attacco coordinato può saturare i sistemi di instradamento. Una tempesta geomagnetica intensa può compromettere i collegamenti satellitari e i sistemi di navigazione. Questi eventi non rientrano nei parametri di progetto. Non perché siano trascurati, ma perché renderli gestibili richiederebbe un investimento sproporzionato rispetto alla loro probabilità.

Esiste poi una quarta considerazione, meno intuitiva ma tecnicamente rilevante. Le reti moderne sono sistemi interconnessi: dipendono l’una dall’altra in modi che non sempre sono visibili. Una rete cellulare dipende dalla rete elettrica per alimentare le sue stazioni. Dipende dalla rete di trasporto in fibra per portare il traffico verso il nucleo. Dipende da sistemi di sincronizzazione temporale che spesso si appoggiano a segnali satellitari. Ogni dipendenza esterna è un potenziale punto di rottura indiretto. Un guasto alla rete elettrica non è un guasto della rete cellulare, ma ne può causare l’interruzione con la stessa efficacia. La complessità delle interdipendenze moltiplica i modi in cui un sistema può smettere di funzionare, anche quando la sua struttura interna è integra.

Il punto di rottura, quindi, non è un’anomalia. È una caratteristica strutturale di qualsiasi sistema reale. La domanda corretta non è se una rete abbia un punto di rottura, ma dove si trova quel punto, in quali condizioni viene raggiunto, e cosa succede quando viene superato. Questo cambiamento di prospettiva è fondamentale. Significa passare da un approccio basato sull’illusione dell’affidabilità assoluta a un approccio basato sulla comprensione dei limiti reali. Una rete non è affidabile perché non si rompe mai. Una rete è affidabile perché il suo punto di rottura è collocato abbastanza lontano dalle condizioni operative ordinarie, e perché il suo degrado, quando inizia, è controllato e prevedibile.

Questa distinzione ha conseguenze pratiche dirette. Chi dipende da una rete di comunicazione per attività critiche deve sapere dove si trovano i punti di rottura di quella rete, non per alimentare una preoccupazione fine a se stessa, ma per costruire le proprie procedure e i propri sistemi di backup tenendo conto di quei limiti reali. Una comunicazione che funziona in condizioni normali può non funzionare nel momento in cui è davvero necessaria, esattamente perché quel momento coincide spesso con le condizioni di maggiore stress per la rete. Emergenze, eventi di massa, situazioni straordinarie sono per definizione le condizioni in cui la rete è più probabile che si trovi al proprio limite.

Concludere il Capitolo 2 con questo articolo non è casuale. Tutto ciò che è stato introdotto fin qui, il concetto di rete, i nodi e i collegamenti, l’instradamento, le architetture centralizzate e distribuite, la ridondanza, la resilienza e i colli di bottiglia, converge in questa considerazione finale. Le reti sono sistemi reali, fisici, limitati. Funzionano perché qualcuno le ha progettate, costruite e le mantiene. Smettono di funzionare quando le condizioni superano i limiti per cui sono state costruite. Comprendere questa realtà non è pessimismo. È il punto di partenza per qualsiasi ragionamento serio sull’affidabilità delle comunicazioni, che è esattamente ciò di cui si occuperanno i capitoli successivi.

Siamo su TELEGRAM!

RIDONDANZA, RESILIENZA, COLLI DI BOTTIGLIA

Quando si osserva una rete di telecomunicazione dal punto di vista di chi la usa, tutto sembra semplice. Si invia un messaggio, si effettua una chiamata, si ricevono dati. O funziona, o non funziona. Ma questa visione binaria è una semplificazione che nasconde la complessità reale di ciò che accade sotto la superficie. Una rete non è mai o completamente funzionante o completamente interrotta. Si trova in continuazione in uno stato intermedio, il cui equilibrio dipende da scelte architetturali precise, dalla disponibilità delle risorse, e dalla distribuzione del carico in un dato momento. Per capire come una rete si comporta quando viene messa sotto pressione, è necessario introdurre tre concetti che torneranno in ogni capitolo successivo: ridondanza, resilienza e collo di bottiglia.

La ridondanza è il principio secondo cui un sistema contiene più elementi di quanti ne siano strettamente necessari al funzionamento ordinario. Un secondo percorso di instradamento che normalmente non viene utilizzato. Un collegamento fisico alternativo che resta silenzioso finché il principale regge. Un apparato di backup che aspetta il proprio turno. La ridondanza, in questo senso, sembra uno spreco: risorse impegnate che non producono traffico, infrastrutture che non vengono sfruttate, capacità inutilizzata. In realtà è l’opposto. La ridondanza è il costo che si paga per rendere un sistema capace di sopravvivere ai propri guasti.

Un sistema senza ridondanza è un sistema in cui ogni elemento è indispensabile. Se tutto funziona in modo ottimale, questo non crea problemi apparenti. Ma nel momento in cui un singolo componente cede, l’intera catena si interrompe. Non perché il guasto sia grave, ma perché non esiste un percorso alternativo. La ridondanza non elimina il guasto: lo isola, lo aggira, ne limita le conseguenze. Un collegamento che si spezza in una rete ridondante viene scavalcato automaticamente da un percorso diverso. L’utente può non accorgersene. Senza ridondanza, quello stesso evento produce un’interruzione visibile e duratura.

È qui che entra in gioco il concetto di resilienza. La resilienza di un sistema non è la sua capacità di non guastarsi mai, ma la sua capacità di continuare a funzionare, anche parzialmente, anche in modo degradato, in presenza di eventi che in un sistema fragile produrrebbero un’interruzione totale. La resilienza si misura nei momenti critici: non quando la rete è scarica e i collegamenti sono integri, ma quando una stazione è fuori servizio, un collegamento è sovraccarico, un nodo è irraggiungibile. Un sistema resiliente non crolla, si adatta. Riorganizza il traffico, abbassa la qualità dove necessario, mantiene il servizio su ciò che è prioritario.

Ridondanza e resilienza non sono sinonimi, ma sono strettamente collegate. La ridondanza è una caratteristica architettonica: descrive la struttura del sistema, la presenza di risorse aggiuntive, la duplicazione dei percorsi. La resilienza è una caratteristica comportamentale: descrive come il sistema reagisce agli eventi avversi. Un sistema può avere ridondanza senza essere resiliente, se le risorse ridondanti non vengono attivate correttamente o non sono dimensionate in modo adeguato. E un sistema può essere parzialmente resiliente anche senza ridondanza fisica, se dispone di meccanismi di degradazione controllata che gli consentono di ridurre le prestazioni mantenendo il servizio minimo.

Il terzo concetto, il collo di bottiglia, è quello che più spesso passa inosservato nei momenti di normale funzionamento. Un collo di bottiglia è un punto della rete in cui la capacità disponibile è inferiore alla domanda che lo attraversa, o inferiore a quella dei segmenti adiacenti. Non è necessariamente un guasto: può essere semplicemente un tratto di rete con capacità limitata, che nelle condizioni ordinarie non crea problemi ma che in condizioni di carico elevato diventa il fattore limitante dell’intera catena. Una catena, per quanto robusta nei suoi anelli, è limitata dall’anello più debole. Nelle reti di telecomunicazione, questo principio non è una metafora: è una realtà tecnica misurabile.

Un collo di bottiglia può trovarsi ovunque. Può essere un collegamento fisico tra due nodi con banda limitata. Può essere un apparato di instradamento con capacità di elaborazione insufficiente. Può essere il canale radio tra un terminale e la stazione più vicina. Può essere, e questo è un caso frequente e sottovalutato, il collegamento tra la rete di accesso e la rete di trasporto a monte. In quest’ultimo caso, la stazione radio base sul territorio può funzionare perfettamente, le antenne possono avere la massima capacità radio, ma se il collegamento verso il nucleo della rete è limitato, il traffico si accumula e degrada comunque. L’utente vede il segnale pieno e la connessione lenta, e non riesce a spiegarselo. Il collo di bottiglia non è dove sembra.

Qui vale la pena fermarsi su un equivoco comune. Una rete ridondante non è una rete priva di colli di bottiglia. Si può avere un sistema con molteplici percorsi alternativi, perfettamente ridondante sotto il profilo architetturale, che in determinate condizioni convoglia tutto il suo traffico verso un unico punto perché tutti i percorsi alternativi convergono fisicamente nello stesso edificio, sullo stesso cavo, sullo stesso apparato. La ridondanza logica non garantisce la ridondanza fisica. E la ridondanza fisica, se non è accompagnata da una separazione reale dei percorsi, è una ridondanza illusoria. Questo tipo di vulnerabilità nascosta è uno degli errori più ricorrenti nella progettazione delle infrastrutture di comunicazione.

Comprendere questi tre concetti significa acquisire un modo preciso di leggere i comportamenti di una rete. Quando una rete rallenta sotto carico, significa che da qualche parte esiste un collo di bottiglia che non è stato previsto o è stato sottodimensionato. Quando un guasto localizzato produce un’interruzione estesa, significa che il sistema non aveva ridondanza sufficiente in quel punto. Quando una rete riesce a mantenere il servizio anche in condizioni di degrado grave, significa che la resilienza è stata progettata e non lasciata al caso. In tutti e tre i casi, la differenza non nasce dall’evento che si è verificato, ma dalle scelte fatte molto prima, nella fase in cui qualcuno ha deciso come costruire il sistema.

Siamo su TELEGRAM!