Buongiorno cari lettori, oggi vi andremo a parlare di come matematicamente le reti avranno dei rallentamenti strutturali.
Proprio come le reti autostradali possono soffrire di ingorghi di traffico, così anche le reti di computer possono essere soggette a congestione. Ora un nuovo studio rileva che molti algoritmi chiave progettati per controllare questi ritardi sulle reti di computer possono rivelarsi profondamente ingiusti, consentendo ad alcuni utenti di monopolizzare tutta la larghezza di banda mentre altri sostanzialmente non ottengono nulla.
I computer e altri dispositivi che inviano dati su Internet li scompongono in pacchetti più piccoli e quindi utilizzano algoritmi speciali per decidere la velocità di invio di questi pacchetti. Questi algoritmi di controllo della congestione mirano a scoprire e sfruttare tutta la capacità di rete disponibile condividendola con altri utenti sulla stessa rete.
Nell’ultimo decennio, i ricercatori hanno sviluppato diversi algoritmi di controllo della congestione che cercano di raggiungere velocità elevate di trasmissione dei dati riducendo al minimo i ritardi derivanti dai dati in attesa nelle code nella rete. Alcuni di questi, come l’ algoritmo BBR di Google , sono ora ampiamente utilizzati da molti siti Web e applicazioni.
Tuttavia, sebbene negli ultimi 40 anni siano stati proposti centinaia di algoritmi di controllo della congestione, “non esiste un chiaro algoritmo utilizzabile ovunque e che abbia lo stesso rendimento”, afferma l’autore principale dello studio Venkat Arun , uno scienziato informatico del MIT.
Inaspettatamente, Arun e i suoi colleghi hanno scoperto che molti algoritmi di controllo della congestione potrebbero non funzionare sempre in maniera corretta. Il loro nuovo studio rileva che, data la complessità del mondo reale dei percorsi di rete, ci sarà sempre uno scenario in cui il problema non può essere evitato, in cui almeno un mittente su una rete non riceve quasi nessuna larghezza di banda rispetto altri utenti.
Il computer di un utente non sa quanto velocemente inviare i pacchetti di dati perché non conosce la rete, ad esempio quanti altri mittenti ci sono o la qualità della connessione. L’invio di pacchetti troppo lento fa un uso troppo scarso della larghezza di banda disponibile. Tuttavia, l’invio di pacchetti troppo rapidamente può sovraccaricare una rete, provocando la perdita dei pacchetti.
Gli algoritmi di controllo della congestione si basano sulle perdite di pacchetti e sui ritardi come dettagli per dedurre la congestione e decidere la velocità di invio dei dati. Tuttavia, i pacchetti possono andare persi e ritardati per motivi diversi dalla congestione della rete. Ad esempio, i dati possono essere trattenuti e quindi rilasciati in una raffica con altri pacchetti, oppure il riconoscimento da parte di un destinatario di aver ricevuto pacchetti potrebbe subire un ritardo. I ricercatori hanno chiamato “jitter” i ritardi che non derivano dalla congestione della rete.
Nel nuovo studio, i ricercatori hanno analizzato se ogni algoritmo di controllo della congestione di cui erano a conoscenza, così come alcuni nuovi che hanno ideato, potessero evitare di avere degli errori. Gli scienziati sono rimasti sorpresi di scoprire che c’erano sempre scenari con ogni algoritmo in cui alcune persone ottenevano tutta la larghezza di banda e almeno una persona non otteneva praticamente nulla.
I ricercatori hanno scoperto che tutti gli algoritmi di controllo del traffico sulla rete esistenti che cercano di frenare i ritardi sono quelli che chiamano “algoritmi di ritardo” che soffriranno sempre di problemi. Il fatto che questa debolezza in questi algoritmi ampiamente utilizzati sia rimasta sconosciuta per così tanto tempo è probabilmente dovuto al modo in cui i test empirici da soli “potrebbero attribuire scarse prestazioni a una capacità di rete insufficiente piuttosto che a uno scarso processo decisionale algoritmico”, afferma Arun.
Sebbene gli approcci esistenti al controllo della congestione potrebbero non essere in grado di evitare i problemi, l’obiettivo ora è sviluppare una nuova strategia che lo faccia, afferma Arun. “Algoritmi migliori possono consentire prestazioni prevedibili a un costo identico”, afferma.