Connect with us

Internet continuerà a rompersi nel 2026 e l’AI è parte del motivo

Leader di pensiero

Internet continuerà a rompersi nel 2026 e l’AI è parte del motivo

mm

Se il 2025 ha sembrato l’anno in cui Internet continuava a rompersi, il 2026 si sta profilando come più della stessa cosa. Blackout, incidenti e fallimenti di produzione non sono più eventi rari che sorprendono i team di ingegneria. Stanno diventando una condizione di sfondo costante dello sviluppo software moderno.

I dati degli strumenti di tracciamento dei blackout come IsDown.app mostrano incidenti in aumento anno dopo anno dal 2022, senza alcun significativo inversione di tendenza, e sondaggi indipendenti confermano questo. Un sondaggio globale su più di 1.000 CIO, CISO e ingegneri di rete ha scoperto che l’84% delle organizzazioni ha segnalato un aumento dei blackout, con più della metà che ha visto aumenti del 10-24% in soli due anni.

ThousandEyes ha osservato una volatilità simile, con forti variazioni mese dopo mese che puntano a una sostenuta pressione verso l’alto piuttosto che a fallimenti isolati. La conclusione scomoda è che i sistemi di cui ci affidiamo ogni giorno stanno diventando più fragili, non più resilienti, nonostante gli investimenti negli ultimi anni in infrastrutture cloud, osservabilità e automazione.

Quando le piattaforme principali vanno giù, il raggio di azione è immediato. I pagamenti falliscono, le app dei consumatori si bloccano, gli strumenti interni si bloccano e le catene di approvvigionamento intere sentono l’impatto con stime di perdite economiche che raggiungono regolarmente i miliardi. Ad esempio, Amazon, leader nel commercio elettronico, attribuisce un aumento degli incidenti – tra cui un blackout di quasi sei ore del suo sito web e dell’app di shopping questo mese – a modifiche assistite da Intelligenza Artificiale Generativa. Ciò ha spinto l’azienda a pianificare riunioni di ingegneria per un’analisi approfondita del recente aumento dei blackout.

Dopo ogni grande blackout, le stesse conversazioni si ripetono intorno alla ridondanza, alle strategie multi-cloud e al rischio di concentrazione dei fornitori. Queste discussioni sono importanti, ma mancano della visione d’insieme più ampia.

Se i fornitori di infrastrutture non stanno peggiorando nel loro lavoro e gli strumenti continuano a maturare, come mai gli incidenti stanno ancora aumentando?

L’AI ha cambiato il modo in cui il software viene spedito

Uno dei più grandi cambiamenti che stanno avvenendo allo stesso tempo dell’aumento dei blackout è la diffusione dello sviluppo software assistito da AI. Gli strumenti di codifica AI non sono più sperimentali. Sono integrati nei flussi di lavoro quotidiani, sia negli IDE che nella CLI, rendendo più facile che mai generare codice con l’AI.

In tutta l’industria, le richieste di pull per sviluppatore sono aumentate in modo significativo, con alcune analisi che mostrano un aumento di circa 20% anno dopo anno mentre l’AI accelera l’output. Allo stesso tempo, gli incidenti per richiesta di pull sono aumentati ancora più velocemente, aumentando di più del 23%.

Questa correlazione non è una prova di causalità, ma è difficile ignorarla. L’AI non rende solo più veloce scrivere il codice, cambia la forma del rischio. Ormai, la maggior parte dei team ha incontrato un flusso costante di bug nel codice assistito da AI che gli ingegneri esperti sono sicuri di non aver introdotto da soli.

Questi non sono errori di sintassi drammatici o cambiamenti ovviamente rotti. Sono errori logici sottili, configurazioni errate, guardrail mancanti ed errori di caso limite che sembrano ragionevoli a prima vista.

Il codice generato dall’AI spesso compila correttamente, supera i test di base e sembra corretto a un’occhiata. Il problema non è che l’AI inventa nuovi tipi di bug. È che produce bug familiari più frequentemente e su una scala che sovraccarica i processi di revisione e QA esistenti.

Cosa mostrano i dati quando l’AI scrive più codice

Abbiamo recentemente analizzato centinaia di richieste di pull open-source per aiutare a mettere numeri dietro questa intuizione nel nostro Rapporto sullo stato dell’AI vs. generazione di codice umano. Quando le modifiche co-autore da AI sono state confrontate con le richieste di pull umane e normalizzate per dimensione, le PR assistite da AI contenevano circa 1,7 volte più problemi in generale.

Ancora più preoccupante, hanno anche mostrato 1,4-1,7 volte più problemi critici e principali. I problemi di logica e correttezza, tra cui problemi di controllo di flusso errato, utilizzo di dipendenze errato e errori di configurazione, erano circa il 75% più comuni. Le lacune di gestione degli errori, come controlli nulli mancanti, percorsi di eccezione incompleti e guardrail assenti, apparivano quasi due volte più spesso.

I problemi di sicurezza sono stati amplificati anche, con alcune categorie che si verificavano a tassi fino a 2,7 volte più alti, in particolare intorno alla gestione delle credenziali e alle referenze di oggetto non sicure. I problemi di correttezza della concorrenza e delle dipendenze sono aumentati di circa 2 volte.

Gli esseri umani commettono gli stessi errori, ma quando l’AI è coinvolta, questi difetti si verificano più frequentemente, su una base di codice più ampia e a una velocità che supera la revisione tradizionale del codice. Sono esattamente i tipi di difetti che sono probabili sfuggire a una rapida revisione e manifestarsi successivamente come incidenti di sicurezza o blackout negli ambienti di produzione.

Cosa decide se il 2026 sembra diverso

Da una prospettiva di sicurezza, questa tendenza è difficile da ignorare. I difetti logici, le impostazioni non sicure e gli errori di configurazione ampliano la superficie di attacco anche quando nessuna singola vulnerabilità sembra catastrofica in isolamento. Le lacune di gestione degli errori e gli errori di dipendenza aumentano la probabilità che i fallimenti si verifichino piuttosto che degradare in modo sicuro.

Una forte isolamento, l’esecuzione con privilegi minimi, le credenziali a breve durata e la crittografia possono limitare il raggio di azione se qualcosa va storto, ma non possono compensare i difetti introdotti in precedenza nel ciclo di vita dello sviluppo. La sicurezza e l’affidabilità non sono più solo questioni di infrastrutture e sono conseguenze dirette di come il software viene costruito, revisionato e testato.

Internet continuerà a rompersi nel 2026 se questo squilibrio rimane. Ciò non è un argomento contro l’AI, poiché l’AI è già qui e non se ne andrà. I team che se la caveranno meglio non sono quelli che evitano l’AI, ma quelli che adattano le loro barriere di protezione per corrispondere all’AI.

Ciò significa dotare le squadre di revisione e QA in modo appropriato per una produzione più alta, spostare il testing e la convalida più presto nel ciclo di sviluppo, essere espliciti su quali problemi generati dall’AI meritano un’attenzione più approfondita e trattare il codice assistito da AI come input ad alta varianza piuttosto che come output attendibile per default.

La lezione è semplice: non puoi automatizzare il tuo modo di uscita dall’account. Mentre l’AI scrive più codice, i team hanno bisogno del tempo, degli strumenti e del personale per revisionare più codice, non meno. La prossima fase dell’innovazione dell’AI non sarà definita da quanto velocemente il codice viene generato, ma da quanto confidentemente può essere spedito.

La revisione è ora il collo di bottiglia

L’AI ha aumentato notevolmente la capacità di generazione del codice. Non ha automaticamente aumentato la capacità di revisione. Questo gap crea rischi. La prossima fase dell’adozione dell’AI non sarà definita da quanto velocemente il codice viene generato. Sarà definita da quanto confidentemente i team possono spedirlo.

Ciò significa:

  • Dotare le squadre di revisione e QA per una produzione più alta, non più bassa.
  • Spostare la convalida più presto nel ciclo di sviluppo.
  • Aumentare il segnale nelle richieste di pull in modo che i revisori si concentrino su ciò che conta.
  • Trattare il codice assistito da AI come meritevole di un’attenzione più approfondita, non di una supervisione più leggera.

Internet non deve continuare a rompersi. L’AI non è il problema di base, il codice generato dall’AI non revisionato è. Se l’AI sta per scrivere una quota crescente di software di produzione, qualcosa di altrettanto rigoroso deve revisionarlo prima che venga spedito.

Questo cambiamento è esattamente il motivo per cui le revisioni del codice AI stanno diventando infrastrutture fondamentali, non strumenti opzionali. Piattaforme come CodeRabbit integrano direttamente le revisioni AI consapevoli del contesto nel tuo flusso di lavoro Git, aiutando i team a cogliere errori logici, lacune di sicurezza e casi limite prima che si trasformino in incidenti.

Perché se la generazione del codice scala, la revisione deve scalare con essa.

Altrimenti, il 2026 sembrerà esattamente come il 2025 – solo più veloce.

David Loker è il Vice Presidente di AI presso CodeRabbit dove guida lo sviluppo di sistemi di intelligenza artificiale agente che trasformano le revisioni del codice e i flussi di lavoro degli sviluppatori. In quanto imprenditore e ricercatore vincitore di premi, ha costruito sistemi di apprendimento automatico e intelligenza artificiale su larga scala dal 2007 e ha pubblicato oltre una dozzina di saggi in conferenze di primo piano tra cui NeurIPS, ICML e AAAI, ed è stato un pioniere precoce nell'intelligenza artificiale generativa.