L'angolo di Anderson
L'intelligenza artificiale riuscirà a prosperare anche al di fuori del suo habitat naturale?

I costi e le restrizioni dell'intelligenza artificiale su larga scala, così come la sua influenza sui costi dell'hardware, stanno costringendo gli utenti a costruire i propri sistemi, proprio mentre la crescente regolamentazione minaccia di stroncare l'"economia sommersa dell'IA".
Opinione Tra le tante "trappole" che compaiono negli articoli di ricerca scientifica, una delle più frequenti è che il problema affrontato nell'articolo era già risolto altrovee che il contributo della nuova ricerca sia meramente incidentale o incrementale.
Ciò può accadere per una serie di motivi: i ricercatori speravano in un salto quantico, ma hanno ottenuto invece un quasi-salto; le soluzioni precedenti al problema erano più dispendiose in termini di risorse rispetto alla nuova offerta; o semplicemente gli obiettivi del progetto sono falliti completamente, ma la cultura del "pubblica o perisci" della ricerca accademica ha costretto il team a rilasciarlo comunque (spesso sepolto tra la valanga (del giorno di pubblicazione più intenso di un portale).
Nella letteratura sull'apprendimento automatico, tuttavia, una ragione relativamente nuova e non apologetica sta diventando più frequente: che la caratteristica o la funzionalità offerta è Attualmente disponibile solo tramite portali proprietari e accessibili tramite API..
Stamattina stavo considerando uno di questi documenti: un collaborazione tra le università cinesi e Amazon, affrontando il problema ricorrente di errore di rimozione dell'oggetto nei sistemi di fotoritocco basati sulla diffusione, che spesso si limitano a "riempire" lo spazio di destinazione con un oggetto simile:

All'estrema sinistra si trova l'immagine originale; alla sua destra, la maschera di segmentazione rossa che indica all'IA quale parte dell'immagine rimuovere; accanto, "Il nostro" mostra un approccio di rimozione dell'oggetto riuscito, e le due immagini rimanenti mostrano sistemi simili che, invece di rimuovere l'autobus, ne inseriscono semplicemente un altro.. Fonte
Nell'esempio sopra, l'immagine centrale mostra il nuovo approccio che rimuove con successo l'autobus e inserisce uno sfondo plausibile, rispetto ai due metodi precedenti (le due immagini più a sinistra), che rimuovono entrambi l'autobus, ma poi mettono uno sfondo plausibile. diverso L'autobus torna nell'inquadratura!
Gotcha!
Mettendo da parte i perché e i percome di questa sfida per un altro momento (ed è un interessante soggetto ), mi sono poi imbattuto in una classica trappola, leggendo il nuovo articolo: l'ammissione degli autori che i costosi sistemi proprietari possono già svolgere questo compito in modo abbastanza affidabile – cosa che so, grazie ad alcuni anni di utilizzo di Adobe Lucciola in Photoshop, tra gli altri sistemi proprietari:
I metodi basati sulla diffusione spesso creano allucinazioni inserendo oggetti indesiderati dopo aver rimosso quelli di destinazione, portando a risultati contestualmente incoerenti.
D'altro canto, i recenti modelli multimodali proprietari come ChatGPT e Nano Banana, pur essendo più potenti nella rimozione degli oggetti, implicano un elevato numero di parametri e un notevole sovraccarico computazionale, ostacolandone l'implementazione pratica sui dispositivi edge.
'Pertanto, è assolutamente necessario sviluppare un modello dedicato per la cancellazione degli oggetti che non solo garantisca prestazioni di cancellazione superiori, ma che presenti anche una bassa latenza di inferenza e un numero significativamente inferiore di parametri.'
Questa spiegazione, concentrandosi sugli ostacoli tecnici, omette il fatto ovvio che le architetture closed-source come ChatGPT e Nano Banana non sono disponibili affatto per l'installazione locale. Sebbene tali sistemi capacità di produrre materiale controverso ha fornito al loro ruolo di filtro una giustificazione pubblica aggiuntiva nell'ultimo anno, portali di questo tipo sono proprietari principalmente per ragioni commerciali.
In sostanza, il nuovo documento implica che, sebbene il problema target sia risolto nei sistemi commerciali, questo potrebbe essere irrilevante per il resto di noi, che hanno bisogno di imparare come risolverlo nel 'mondo reale', ovvero nei sistemi open source, indipendentemente dal fatto che questi possano essere realisticamente installati localmente o meno.
Sviluppo parallelo
Tuttavia, perché risolvere un problema che dipende ancora da un sistema a pagamento, non per vincoli proprietari, ma perché la potenza di calcolo GPU richiesta supera quella che qualsiasi configurazione locale può realisticamente sostenere? La maggior parte di questi nuovi articoli e repository di codice "open source" presentano configurazioni di addestramento/inferenza con esigenze di risorse esorbitanti, come cluster di A100.
Beh, dipende da che fine pensi che siano tutte queste cose centri dati di intelligenza artificiale in attesa, che sconvolgono l'economia che si realizzeranno quando finalmente entreranno in funzione. Sia i timori della gente comune che le speranze delle élite prevedono sistemi proprietari, simili a ChatGPT, che saranno circondati da fossati e che sopprimeranno posti di lavoro, aumentando costantemente i costi di abbonamento e abbassando i livelli di servizio, per soddisfare i primi investitori di venture capital che hanno dovuto aspettare 3-5 anni per renderli operativi.
Ma una tendenza crescente nella letteratura sembra sostenere un futuro alternativo, e lo spirito "da solista" e marginale di molte comunità online come il subreddit r/stablediffusion, che attualmente conta 920,000 utenti e che da tempo ha vietato i post relativi a sistemi di generazione di immagini/video proprietari.
In questo futuro alternativo, la nuova offerta globale di data center per l'IA faciliterà l'elaborazione grezza per sistemi configurati e definiti dall'utente, anziché soddisfare le esigenze di monumentali framework "a scatola nera" come ChatGPT e Adobe Firefly.
Attrito superficiale
Esaminando le complesse guide remote GPU estratte da Patreon su r/stablediffusion, al momento tutto sembra impossibile: i modelli sono cambiare continuamente le regole del gioco con ogni aggiornamento; sono difficili da implementare localmente, anche nei framework più semplici e intuitivi; e, in generale, la quantità di ostacoli che comportano suggerisce un'attività adatta solo agli appassionati di tecnologia e a quella fetta più avventurosa di aziende non direttamente coinvolte nell'IA, ma che desiderano sviluppare e mantenere i propri sistemi locali, anziché noleggiare tali capacità.
Tuttavia, negli ultimi trent'anni, ogni tecnologia in cui c'era un'enorme domanda di semplificazione e commercializzazione aperta e democratica ha la tendenza a capirlo, con le soluzioni più diffuse che di solito emergono dalle tensioni tra sistemi commerciali e alternative e iniziative open source.
Attività che un tempo erano appannaggio esclusivo di "nerd", come le connessioni internet, i sistemi di gestione dei contenuti e le piattaforme per i blog, così come la sicurezza informatica, la fotografia e la gestione dei media, si sono evolute da una complessità sconcertante verso la semplicità e l'utilità.
Pertanto, il futuro panorama dell'IA potrebbe essere più variegato e ricco di attori più piccoli e realmente concorrenti di quanto preferirebbero gli attuali leader di mercato all'avanguardia.
Autorealizzazione, per necessità
Ironicamente, la "Big AI" sta contribuendo in larga misura a un emergente spirito di indipendenza tra gli utenti finali, assorbendo per i suoi data center tutti i componenti informatici – soprattutto DRAM – che altrimenti sarebbero andati ai consumatori 'ordinari'.
Di conseguenza, molti immaginano un futuro in cui le risorse 'global AI' a codice chiuso sono accessibili tramite thin client sottodimensionati e sono sviluppare un interesse crescente nella manutenzione delle loro attrezzature esistenti.
L'assalto dell'IA alle catene di approvvigionamento tecnologiche ha anche causato ai fornitori di servizi tecnologici aumentare i loro prezzi negli ultimi 3-6 mesi, o perché le aziende più piccole sono realmente messe sotto pressione dalla carenza di hardware, o semplicemente perché l’IA.
Ciò ha portato ad a crescita dell'interesse per l'hosting autonomo e in loco – incluso reti di apprendimento automatico auto-ospitate.
Anch'io ultimamente mi sono ritrovato coinvolto in questo, passando all'archiviazione LAN locale per foto e video, nonché ai backup dei file. Per i primi, ho utilizzato il server multimediale multipiattaforma gratuito e open-source Immich, che mi ha aiutato ad allontanarmi dagli aumenti di prezzo (e altre questioni preoccupanti) di iCloud e di altri fornitori di servizi di archiviazione cloud:

La piattaforma gratuita Immich permette di conservare i contenuti multimediali sul proprio dispositivo, mantenendoli privati e accessibili solo ai propri canali. In questo caso, utilizzo Immich anche su Docker per connettere la mia GPU NVIDIA 3090 tramite LAN alla posizione in cui vengono salvate foto e video, in modo che la GPU più potente possa gestire qualsiasi elaborazione di immagini/video che richieda l'utilizzo dell'intelligenza artificiale.
Se la mia esperienza personale è indicativa, codifica delle vibrazioni - attualmente maledetto in molte comunità online un tempo 'pure' – sta alimentando quest'ondata di indipendenza (anche se potrebbe minacciare i repository open source su cui si basa).
Ad esempio, la gestione delle reti è sempre stata il mio punto debole in informatica, quindi l'aiuto dell'intelligenza artificiale è stato essenziale per me per far funzionare un VPS sicuro, a supporto di una serie di nuovi servizi self-hosted.
In questo modo, la "Big AI" sta probabilmente potenziando la "small AI"; pertanto, forse possiamo considerare l'attuale ascesa di aziende di IA iperscalabili e ipervalutate come uno stato necessario ma solo transitorio prima che emerga una società dell'IA più democratica e con un maggiore potere decisionale da parte degli utenti, che scarta le aziende che cercano di creare un vantaggio competitivo e di ottenere rendite come razzi ausiliari esauriti, proprio come accadde con il crollo delle dot-com del 2000. infrastrutture sfruttabili lasciate indietro il che accelererebbe enormemente il web anche molto tempo dopo il crollo delle aziende che lo avevano finanziato.
L'era della conformità
Beh, probabilmente questa volta non succederà di nuovo.
Anche se noi sono incline a formare una sorta di ex fossato società marginale, regolamentazione relativa all'IA, combinata con la tendenza globale attuale verso la verifica dell'età, sembra probabile che anticipi e blocchi queste vie di sviluppo.
L'ancora per prevenire un'“economia ombra dell'IA” è la regolamentazione. Già, repository centrali come GitHub e Abbracciare il viso Spesso è necessario effettuare l'accesso online prima di consentire agli utenti di clonare i repository in locale, a seconda delle impostazioni del repository stesso.
Pertanto, i meccanismi per imporre il monitoraggio dei framework di IA in modo più ampio rispetto alla pratica attuale esistono già; e andrete a L'aumento di tale supervisione sta ora consolidando le iniziative dei singoli governi in un impulso globale.
Quindi, se le forze di mercato e l'ingegno del movimento FOSS dovrebbero rimuovere l'attrito dalla distribuzione casuale dell'IA, gli ostacoli sembrano destinati a tornare sotto forma di requisiti di governance: requisiti di conformità che, sebbene onerosi, sono vantaggiosi per le aziende, ma forse non per i singoli individui – simili all'attrito che è stato aggiunto ai sistemi di pagamento online a livello di consumatore sin dal età d'oro di PayPal nelle 2000s.
Che Meta hanno speso 2 miliardi di dollari in attività di lobbying per il controllo dell'età a livello di sistema operativo a causa dei loro significativi investimenti nell'IA o dei loro interessi nella raccolta di dati, il risultato delle grandi aziende tecnologiche sostegno al controllo dell'età è che l'IA 'locale' potrebbe diventare regolamentata come una sostanza di classe A; e, proprio come il DMCA era progettato per criminalizzare intento Anziché ricorrere a specifici meccanismi di elusione del diritto d'autore, in uno scenario del genere le normative internazionali sull'IA potrebbero rendere illegale qualsiasi utilizzo non conforme dell'apprendimento automatico, con costi minimi (in termini di supervisione attiva).
Un anno fa questa poteva sembrare un'interpretazione eccessivamente distopica, ma questo era prima California e systemd hanno appoggiato l'idea della verifica dell'età a livello hardware, attualmente visto da molti come proxy per uno stile PCC bandire sull'anonimato online.
Conclusione
Quindi, mentre il contesto legale e legislativo si sta forse preparando a integrare l'IA in uno spazio altamente regolamentato, in modo che gli utenti occasionali non possano "crearne una propria" più di quanto possano coltivare o fermentare sostanze regolamentate senza autorizzazione, il settore della ricerca mantiene la sua posizione più ottimistica: che l'IA diventerà una forza democratizzata e benefica per la società in generale, e non solo per gli aderenti al fornitore di software proprietario più popolare del momento.
Molto dipenderà da come si evolverà la situazione dopo lo scoppio della bolla dell'IA, almeno nella misura in cui i fornitori si consolideranno o il mercato si stabilizzerà in una balcanizzazione a lungo termine, il che probabilmente richiederebbe un approccio normativo più blando.
Prima pubblicazione mercoledì 1 aprile 2026












