Connect with us

Internet Continuerà a Rompersi nel 2026 e l’AI è Parte del Motivo

Leader di pensiero

Internet Continuerà a Rompersi nel 2026 e l’AI è Parte del Motivo

mm

Se il 2025 è sembrato l’anno in cui internet continuava a rompersi, il 2026 si sta rivelando più o meno lo stesso. Gli outage, gli incidenti e i fallimenti di produzione non sono più eventi rari che sorprendono i team di ingegneria. Stanno diventando una condizione di fondo costante dello sviluppo software moderno.

I dati degli strumenti di tracciamento degli outage come IsDown.app mostrano incidenti in aumento anno dopo anno dal 2022, senza una inversione di tendenza significativa, e sondaggi indipendenti confermano questo trend. Un sondaggio globale su oltre 1.000 CIO, CISO e ingegneri di rete ha rilevato che l’84% delle organizzazioni ha segnalato un aumento degli outage, con più della metà che ha visto aumenti del 10-24% in soli due anni.

ThousandEyes ha osservato una volatilità simile, con variazioni nette da un mese all’altro che indicano una pressione verso l’alto sostenuta piuttosto che fallimenti isolati. La conclusione scomoda è che i sistemi su cui facciamo affidamento ogni giorno stanno diventando più fragili, non più resilienti, nonostante gli investimenti negli ultimi anni in infrastrutture cloud, osservabilità e automazione.

Quando le principali piattaforme vanno giù, l’impatto è immediato. I pagamenti falliscono, le app dei consumatori si bloccano, gli strumenti interni si fermano e le catene di approvvigionamento subiscono l’impatto con stime di perdite economiche che raggiungono regolarmente i miliardi. Ad esempio, Amazon, un leader nel commercio elettronico, attribuisce un aumento degli incidenti – tra cui un’interruzione di quasi sei ore del suo sito web e dell’app di shopping questo mese – a cambiamenti assistiti dall’AI generativa. Ciò ha spinto l’azienda a pianificare riunioni di ingegneria per un’analisi approfondita del recente aumento degli outage.

Dopo ogni grande outage, le stesse conversazioni si ripetono intorno alla ridondanza, alle strategie multi-cloud e al rischio di concentrazione dei fornitori. Queste discussioni sono importanti, ma mancano della visione d’insieme.

Se i fornitori di infrastrutture non stanno peggiorando nel loro lavoro e gli strumenti continuano a maturare, come mai gli incidenti stanno ancora aumentando?

L’AI ha cambiato il modo in cui il software viene consegnato

Uno dei più grandi cambiamenti in atto allo stesso tempo dell’aumento degli outage è la diffusione dello sviluppo software assistito dall’AI. Gli strumenti di codifica AI non sono più sperimentali. Sono integrati nei flussi di lavoro quotidiani, sia nelle IDE che nella CLI, rendendo più facile generare codice con l’AI.

In tutta l’industria, le richieste di pull per sviluppatore sono aumentate in modo significativo, con alcune analisi che mostrano un aumento di circa il 20% anno dopo anno mentre l’AI accelera la produzione. Allo stesso tempo, gli incidenti per richiesta di pull sono aumentati ancora più velocemente, aumentando di più del 23%.

Questa correlazione non è una prova di causalità, ma è difficile ignorarla. L’AI non rende solo più veloce scrivere il codice, cambia la forma del rischio. Ormai, la maggior parte dei team ha incontrato un flusso costante di bug nel codice assistito dall’AI che gli ingegneri esperti sono sicuri di non aver introdotto da soli.

Questi non sono errori di sintassi drammatici o cambiamenti ovviamente rotti. Sono errori logici sottili, configurazioni errate, guardrail mancanti e fallimenti di casi limite che sembrano ragionevoli a prima vista.

Il codice generato dall’AI spesso compila correttamente, supera i test di base e sembra corretto. Il problema non è che l’AI inventa nuovi tipi di bug. È che produce bug familiari più frequentemente e su una scala che sovraccarica i processi di revisione e QA esistenti.

Cosa mostrano i dati quando l’AI scrive più codice

Abbiamo recentemente analizzato centinaia di richieste di pull open-source per aiutare a mettere numeri dietro questa intuizione nel nostro Rapporto sullo stato dell’AI vs. generazione di codice umano. Quando le modifiche co-autore dall’AI sono state confrontate con le richieste di pull umane e normalizzate per dimensione, le PR assistite dall’AI contenevano circa 1,7 volte più problemi in generale.

Più preoccupante, hanno anche mostrato 1,4-1,7 volte più problemi critici e gravi. I problemi di logica e correttezza, tra cui flussi di controllo difettosi, utilizzo di dipendenze errato e errori di configurazione, erano circa il 75% più comuni. Le lacune di gestione degli errori, come controlli nulli mancanti, percorsi di eccezione incompleti e assenza di guardrail, apparivano quasi due volte più spesso.

I problemi di sicurezza sono stati amplificati anche, con alcune categorie che si verificavano a tassi fino a 2,7 volte più alti, in particolare intorno alla gestione delle credenziali e alle referenze di oggetti insicure. I problemi di correttezza della concorrenza e delle dipendenze sono anche aumentati di circa il 2%.

Gli esseri umani commettono gli stessi errori, ma quando l’AI è coinvolta, questi difetti si verificano più frequentemente, su una base di codice più ampia e a una velocità che supera la revisione del codice tradizionale. Sono esattamente i tipi di difetti che sono probabili sfuggire a una rapida revisione e manifestarsi successivamente come incidenti di sicurezza o outage in ambienti di produzione.

Cosa decide se il 2026 sarà diverso

Da una prospettiva di sicurezza, questa tendenza è difficile da ignorare. I difetti logici, le configurazioni non sicure e gli errori di configurazione ampliano la superficie di attacco anche quando nessuna singola vulnerabilità sembra catastrofica in isolamento. Le lacune di gestione degli errori e gli errori di dipendenza aumentano la probabilità che i fallimenti si propaghino piuttosto che degradino in modo sicuro.

Un’isolamento forte, l’esecuzione con privilegi minimi, le credenziali a breve termine e la crittografia possono limitare il raggio di azione se qualcosa va storto, ma non possono compensare i difetti introdotti in precedenza nel ciclo di vita dello sviluppo. La sicurezza e l’affidabilità non sono più solo questioni di infrastrutture e sono conseguenze dirette di come il software viene costruito, revisionato e testato.

Internet continuerà a rompersi nel 2026 se questo squilibrio rimane. Ciò non è un argomento contro l’AI, poiché l’AI è già qui e non se ne andrà. Le squadre che se la caveranno meglio non sono quelle che evitano l’AI, ma quelle che adattano le loro barriere di protezione per corrispondere all’AI.

Ciò significa dotare le squadre di revisione e QA di risorse adeguate per una produzione più elevata, spostare il testing e la convalida più presto nel ciclo di sviluppo, essere espliciti su quali problemi generati dall’AI meritano un’attenzione più approfondita e trattare il codice assistito dall’AI come input ad alta varianza piuttosto che come output attendibile per default.

La lezione è semplice: non puoi automatizzare la tua strada fuori dalla responsabilità. Mentre l’AI scrive più codice, le squadre hanno bisogno di tempo, strumenti e personale per revisionare più codice, non meno. La prossima fase dell’innovazione dell’AI non sarà definita da quanto velocemente il codice viene generato, ma da quanto confidencialmente può essere consegnato.

La revisione è ora il collo di bottiglia

L’AI ha aumentato drasticamente la capacità di generazione del codice. Non ha aumentato automaticamente la capacità di revisione. Questo gap crea rischi. La prossima fase dell’adozione dell’AI non sarà definita da quanto velocemente il codice viene generato. Sarà definita da quanto confidencialmente le squadre possono consegnarlo.

Ciò significa:

  • Dotare le squadre di revisione e QA per una produzione più elevata, non più bassa.
  • Spostare la convalida più presto nel ciclo di sviluppo.
  • Aumentare il segnale nelle richieste di pull in modo che i revisori si concentrino su ciò che conta.
  • Trattare il codice assistito dall’AI come meritevole di un’attenzione più approfondita, non di una supervisione più leggera.

Internet non deve continuare a rompersi. L’AI non è il problema di base, il codice generato dall’AI non revisionato è. Se l’AI sta per scrivere una quota crescente di software di produzione, qualcosa di altrettanto rigoroso deve revisionarlo prima che venga consegnato.

Ciò è esattamente il motivo per cui le revisioni del codice AI stanno diventando infrastrutture fondamentali, non strumenti opzionali. Piattaforme come CodeRabbit integrano revisioni AI consapevoli del contesto direttamente nel flusso di lavoro Git, aiutando le squadre a catturare errori logici, lacune di sicurezza e casi limite prima che si trasformino in incidenti.

Perché se la generazione del codice scala, la revisione deve scalare con essa.

Altrimenti, il 2026 sembrerà esattamente come il 2025 – solo più veloce.

David Loker è il Vice Presidente di AI presso CodeRabbit dove guida lo sviluppo di sistemi di intelligenza artificiale agente che trasformano le revisioni del codice e i flussi di lavoro degli sviluppatori. In quanto imprenditore e ricercatore vincitore di premi, ha costruito sistemi di apprendimento automatico e intelligenza artificiale su larga scala dal 2007 e ha pubblicato oltre una dozzina di saggi in conferenze di primo piano tra cui NeurIPS, ICML e AAAI, ed è stato un pioniere precoce nell'intelligenza artificiale generativa.