LA RETE TELEFONICA FISSA: COME FUNZIONAVA DAVVERO

Prima di capire come funziona una rete cellulare moderna, è necessario capire da dove viene. Non per ragioni storiche o nostalgiche, ma perché molte delle scelte architetturali delle reti attuali sono il risultato diretto di vincoli nati decenni prima, nella progettazione di un sistema completamente diverso: la rete telefonica fissa. Quel sistema ha definito vocabolari, logiche operative e aspettative che ancora oggi condizionano il modo in cui le reti vengono costruite, gestite e percepite. Ignorarlo significa non riuscire a spiegare perché certe cose funzionano in un certo modo, e non in un altro.

La rete telefonica fissa, nella sua forma classica, era un sistema fisicamente capillare. Ogni abitazione, ogni ufficio, ogni punto di accesso era collegato da un filo di rame che percorreva un tragitto preciso: dal terminale dell’utente fino a una centrale locale, da lì verso centrali di livello superiore, e così via lungo una gerarchia ben definita fino a raggiungere la destinazione. Non esisteva nulla di virtuale in questo sistema. Il percorso fisico era reale, concreto, misurabile. Se si fosse voluto tracciare una chiamata telefonica su una mappa, si sarebbe potuto farlo seguendo i cavi.

Questa struttura gerarchica non nasceva da una scelta arbitraria. Nasceva da una necessità tecnica precisa. Per connettere milioni di utenti in modo diretto, nodo per nodo, sarebbero stati necessari miliardi di collegamenti fisici separati: un numero non gestibile. La soluzione era aggregare il traffico in punti intermedi, le centrali, che concentravano le connessioni provenienti da un territorio e le instradavano verso la rete a monte. Una centrale locale serviva alcune migliaia di utenti. Una centrale di transito aggregava più centrali locali. Una centrale internazionale connetteva reti di paesi diversi. Ogni livello della gerarchia riduceva la complessità del livello successivo, al costo di creare punti di concentrazione sempre più critici.

La centrale telefonica, nel linguaggio tecnico dell’epoca, veniva chiamata nodo di commutazione. Il termine commutazione indica l’operazione con cui la centrale stabilisce un collegamento fisico tra due linee per la durata di una chiamata. Non si trattava di smistare dati o pacchetti: si trattava di connettere fisicamente due cavi in modo che il segnale elettrico generato dalla voce potesse scorrere da un punto all’altro senza interruzioni. Questo principio, la commutazione di circuito, verrà approfondito nel prossimo articolo. Per ora è sufficiente sapere che l’intera rete telefonica fissa era costruita intorno a questa logica: una chiamata riservava una tratta fisica dedicata per tutta la sua durata, dall’inizio alla fine.

Questa scelta aveva conseguenze precise sulla capacità della rete. Ogni linea fisica poteva trasportare una sola comunicazione alla volta. Se una linea era occupata, una nuova chiamata verso quella destinazione non poteva passare: riceveva il segnale di occupato e veniva respinta. Non esisteva la possibilità di condividere la stessa tratta tra chiamate diverse nello stesso momento, come avviene invece nella trasmissione dati. La rete era dimensionata sulla base di statistiche di traffico: quante chiamate si prevedeva fossero attive contemporaneamente in un certo momento della giornata, in un certo giorno della settimana. Se il traffico reale superava le previsioni, il sistema andava in saturazione. Non si degradava gradualmente: si bloccava. Le chiamate non passavano, punto.

Nonostante questi limiti, la rete telefonica fissa ha funzionato per oltre un secolo con un livello di affidabilità straordinario. La ragione principale era la semplicità del suo modello operativo. Una volta stabilito il collegamento, la chiamata funzionava o non funzionava. Non esistevano variazioni di qualità, latenze variabili, interruzioni parziali. Il segnale arrivava oppure non arrivava. Questa prevedibilità era il risultato diretto della tratta dedicata: nessun altro traffico interferiva con una chiamata in corso, nessuna congestione poteva degradarne la qualità durante la conversazione. Il circuito era riservato, e quella riserva garantiva una qualità costante per tutta la durata della comunicazione.

Un altro elemento che contribuiva all’affidabilità era l’alimentazione. I terminali telefonici fissi non richiedevano una presa elettrica domestica. Ricevevano l’alimentazione direttamente attraverso il cavo di rame proveniente dalla centrale. La centrale disponeva di sistemi di alimentazione autonoma, batterie e gruppi di continuità, progettati per mantenere il servizio anche in caso di interruzione della rete elettrica. In condizioni di emergenza, quando l’energia veniva a mancare, il telefono fisso continuava a funzionare. Era uno dei pochi sistemi di comunicazione progettato esplicitamente per resistere a interruzioni dell’alimentazione ordinaria.

Questa eredità è rilevante. Quando oggi si parla di affidabilità delle reti di comunicazione in contesti critici, il parametro di confronto implicito è spesso quello stabilito dalla rete telefonica fissa. Un sistema che funzionava senza energia domestica, che garantiva qualità costante per tutta la durata della chiamata, che aveva una struttura fisica tracciabile e una gerarchia chiara di responsabilità. Le reti che sono venute dopo, più flessibili e più capaci, hanno acquisito nuove caratteristiche ma hanno anche introdotto nuove vulnerabilità. Per capire quali siano queste vulnerabilità, è necessario capire prima come è avvenuta la transizione, e quale logica l’ha guidata. È esattamente quello che affronteremo nel prossimo articolo.

Siamo su TELEGRAM!

PERCHÉ TUTTE LE RETI HANNO UN PUNTO DI ROTTURA

C’è una convinzione diffusa, raramente espressa in modo esplicito ma profondamente radicata nel modo in cui le persone usano le reti di comunicazione, secondo cui una rete ben costruita dovrebbe funzionare sempre. Che esistano soluzioni tecniche sufficientemente avanzate da eliminare, almeno in linea di principio, la possibilità di un’interruzione. Questa convinzione non è solo sbagliata. È sbagliata nel modo più pericoloso possibile: sembra ragionevole. Il punto non è che le reti siano progettate male, né che chi le gestisce non faccia il proprio lavoro. Il punto è che ogni rete, indipendentemente dalla sua complessità, dal suo costo e dalla cura con cui è stata realizzata, ha un punto oltre il quale smette di funzionare. Non per negligenza, ma per legge fisica, economica e logica.

Il primo motivo è fisico. Ogni componente di una rete, nodo o collegamento, ha una capacità massima. Un cavo in fibra può trasportare una certa quantità di informazioni al secondo, non una quantità illimitata. Un apparato di instradamento può processare un certo numero di operazioni in un dato intervallo di tempo. Un’antenna può gestire un certo numero di comunicazioni simultanee prima che il segnale cominci a degradare. Questi limiti non sono difetti di progettazione: sono conseguenze dirette delle proprietà fisiche dei materiali e delle leggi dell’elettronica. È possibile aumentare le capacità, sostituire gli apparati, potenziare le infrastrutture. Non è possibile eliminarle. Il limite fisico esiste sempre, anche quando è collocato molto più in alto della domanda ordinaria.

Il secondo motivo è economico. Una rete può essere progettata per reggere carichi molto superiori a quelli attesi in condizioni normali. Ma ogni incremento di capacità ha un costo. A un certo punto, il costo di aggiungere ridondanza o capacità supera il beneficio atteso, soprattutto se i casi d’uso per cui servirebbe quella capacità aggiuntiva sono rari o estremi. Le reti commerciali vengono dimensionate per gestire il carico tipico, con un margine di sicurezza ragionevole. Non vengono dimensionate per il caso peggiore immaginabile. La differenza tra il carico normale e il carico straordinario, come quello che si produce durante un evento di massa o un’emergenza, è spesso sufficiente a mandare in saturazione una rete costruita con criteri ordinari.

Il terzo motivo è logico. In qualsiasi sistema complesso, la ridondanza richiede risorse. Quelle risorse hanno un costo e un peso. Più si vuole proteggere un sistema da eventi rari, più diventa costoso proteggerlo dall’evento successivo, ancora più raro. Esiste sempre un livello di sollecitazione che nessun sistema è stato progettato per sostenere. Un terremoto di intensità sufficiente distrugge le infrastrutture fisiche. Un attacco coordinato può saturare i sistemi di instradamento. Una tempesta geomagnetica intensa può compromettere i collegamenti satellitari e i sistemi di navigazione. Questi eventi non rientrano nei parametri di progetto. Non perché siano trascurati, ma perché renderli gestibili richiederebbe un investimento sproporzionato rispetto alla loro probabilità.

Esiste poi una quarta considerazione, meno intuitiva ma tecnicamente rilevante. Le reti moderne sono sistemi interconnessi: dipendono l’una dall’altra in modi che non sempre sono visibili. Una rete cellulare dipende dalla rete elettrica per alimentare le sue stazioni. Dipende dalla rete di trasporto in fibra per portare il traffico verso il nucleo. Dipende da sistemi di sincronizzazione temporale che spesso si appoggiano a segnali satellitari. Ogni dipendenza esterna è un potenziale punto di rottura indiretto. Un guasto alla rete elettrica non è un guasto della rete cellulare, ma ne può causare l’interruzione con la stessa efficacia. La complessità delle interdipendenze moltiplica i modi in cui un sistema può smettere di funzionare, anche quando la sua struttura interna è integra.

Il punto di rottura, quindi, non è un’anomalia. È una caratteristica strutturale di qualsiasi sistema reale. La domanda corretta non è se una rete abbia un punto di rottura, ma dove si trova quel punto, in quali condizioni viene raggiunto, e cosa succede quando viene superato. Questo cambiamento di prospettiva è fondamentale. Significa passare da un approccio basato sull’illusione dell’affidabilità assoluta a un approccio basato sulla comprensione dei limiti reali. Una rete non è affidabile perché non si rompe mai. Una rete è affidabile perché il suo punto di rottura è collocato abbastanza lontano dalle condizioni operative ordinarie, e perché il suo degrado, quando inizia, è controllato e prevedibile.

Questa distinzione ha conseguenze pratiche dirette. Chi dipende da una rete di comunicazione per attività critiche deve sapere dove si trovano i punti di rottura di quella rete, non per alimentare una preoccupazione fine a se stessa, ma per costruire le proprie procedure e i propri sistemi di backup tenendo conto di quei limiti reali. Una comunicazione che funziona in condizioni normali può non funzionare nel momento in cui è davvero necessaria, esattamente perché quel momento coincide spesso con le condizioni di maggiore stress per la rete. Emergenze, eventi di massa, situazioni straordinarie sono per definizione le condizioni in cui la rete è più probabile che si trovi al proprio limite.

Concludere il Capitolo 2 con questo articolo non è casuale. Tutto ciò che è stato introdotto fin qui, il concetto di rete, i nodi e i collegamenti, l’instradamento, le architetture centralizzate e distribuite, la ridondanza, la resilienza e i colli di bottiglia, converge in questa considerazione finale. Le reti sono sistemi reali, fisici, limitati. Funzionano perché qualcuno le ha progettate, costruite e le mantiene. Smettono di funzionare quando le condizioni superano i limiti per cui sono state costruite. Comprendere questa realtà non è pessimismo. È il punto di partenza per qualsiasi ragionamento serio sull’affidabilità delle comunicazioni, che è esattamente ciò di cui si occuperanno i capitoli successivi.

Siamo su TELEGRAM!