Seguici sui social

Eventi

Causa del copilota GitHub: GitHub batte il caso

mm

Lanciato nel 2021, GitHub Copilot è diventato uno strumento utile per gli sviluppatori. Si tratta di un generatore di codice basato sull'intelligenza artificiale che suggerisce frammenti di codice e completa automaticamente le righe. Dal suo lancio, Copilot ha migliorato notevolmente la produttività degli sviluppatori. della produttività e qualità del codice.

GitHub Copilot è coinvolto in una causa legale dal 2022. Un gruppo di sviluppatori ha intentato causa perché credeva che Copilot riutilizzato il codice open source esistente senza un'adeguata attribuzione ai codificatori originali.

Come è nata la causa GitHub Copilot, cosa significa l'attuale sentenza e quali sono le implicazioni più ampie di questo caso? Scopriamolo insieme.

Panoramica delle richieste iniziali e dei licenziamenti

Nel novembre 2022, un gruppo di sviluppatori ha intentato un'azione legale collettiva contro GitHub, Microsoft e OpenAI. La causa inizialmente comprendeva 22 denunce. Si è concentrato principalmente su GitHub Copilot. GitHub ha formato Copilot sui dati open source esistenti per fornire snippet agli utenti durante la codifica.

I querelanti hanno affermato che stava copiando frammenti di codice senza dare credito agli sviluppatori originali. Gli sviluppatori hanno anche invocato il Digital Millennium Copyright Act. La sezione 1202(b)(2) del DMCA e le sue sottosezioni affrontano la violazione delle informazioni sulla gestione del copyright. Hanno accusato GitHub di violazione del copyright DMCA eliminando informazioni importanti dagli snippet di codice, come la fonte del codice.

La corte ha respinto molte di queste affermazioni per tutta la durata del processo. Il 9 luglio, hanno respinto tre ulteriori denunce in una grande vittoria per gli imputati.

Secondo la corte, non ci sono prove sufficienti della somiglianza del codice tra l’output prodotto da GitHub e il codice open source su cui è stato addestrato il software. Pertanto, il giudice si è pronunciato anche contro qualsiasi violazione del DMCA.

Le recenti modifiche apportate da GitHub a Copilot hanno influenzato significativamente la decisione del tribunale. Le modifiche all'assistente di programmazione hanno fatto sì che lo strumento mostrasse varianti di frammenti di codice anziché copie esatte.

Inoltre, le denunce includevano un Studio dell'intelligenza artificiale per sottolineare ulteriormente l'inevitabilità del riutilizzo del codice da parte di GitHub. La corte ha negato anche questa argomentazione, citando prove insufficienti di plagio.

Tuttavia, il tribunale ha rilevato un potenziale problema con il filtro di controllo dei duplicati di GitHub Copilot. Gli utenti possono disattivare questo filtro, che genera avvisi di similarità nel codice. La disapprovazione del tribunale suggerisce che questo aspetto richieda un esame più approfondito. Questa è un'opportunità per gli sviluppatori di modificare e ripresentare i loro reclami, concentrandosi maggiormente su questo aspetto specifico.

Le rimanenti accuse contro il copilota GitHub

Sebbene la corte abbia respinto la maggior parte delle richieste, il caso non è chiuso. Due accuse chiave rimangono in gioco nella causa collettiva GitHub Copilot:

  • Una violazione della licenza open source.
  • Una violazione della fiducia tra GitHub e i fornitori di codice open source.

Queste affermazioni criticano l'utilizzo di GitHub codice open source in modo non etico. Includono il non riconoscere l'uso dei dati disponibili al pubblico per l'addestramento del Copilot e il non dare credito ai programmatori originali. Di conseguenza, GitHub ha rotto l’accordo con i suoi partner.

Entrambe le parti hanno inoltre contestato la condotta dell'altra parte durante la fase istruttoria. Secondo gli sviluppatori, gli imputati non hanno fornito le informazioni necessarie durante il procedimento, come le e-mail pertinenti. Questa accusa potrebbe assumere rilevanza nelle fasi finali del caso.

Quali sono le implicazioni più ampie della causa GitHub Copilot?

Questa causa in corso solleva interrogativi sul suo impatto sul più ampio ecosistema dell’intelligenza artificiale. Gli esiti di queste rimanenti accuse costituiranno probabilmente dei precedenti per l'utilizzo di codice open source nella formazione sull'intelligenza artificiale.

Il successo di GitHub nel respingere molte delle accuse mosse dalla causa probabilmente incoraggerà altre aziende a continuare a utilizzare l'intelligenza artificiale nello sviluppo software. Secondo GitHub, tecnologie di intelligenza artificiale come Copilot aiutano gli utenti a programmare in modo più efficiente, aumentando la produttività. Sempre più aziende e sviluppatori punteranno a ottenere vantaggi simili.

Questo caso ha anche accresciuto la consapevolezza delle leggi sul copyright. Ha permesso agli sviluppatori di comprendere meglio i propri diritti. Le aziende possono utilizzare nuove policy per garantire di non violare le licenze open source.

D’altro canto, questa maggiore consapevolezza potrebbe anche aumentare sfiducia negli strumenti di codifica dell’intelligenza artificiale. Questa mancanza di fiducia potrebbe portare a repository open source meno estesi poiché gli sviluppatori rimuovono i loro contributi. La mancanza di dati sufficienti ostacolerà l’apprendimento efficace del software di intelligenza artificiale.

I progetti open source potrebbero anche rivedere i termini di licenza per fornire linee guida più esplicite sull’utilizzo del loro codice nella formazione sull’intelligenza artificiale. Possono adottare licenze più restrittive per proteggere i loro contributi.

La sentenza inoltre non esonera del tutto GitHub Copilot, sottolineando la necessità di quadri normativi più completi. La riduzione delle potenziali denunce di violazione del copyright potrebbe incoraggiare le società di intelligenza artificiale. Queste aziende potrebbero continuare a utilizzare il codice disponibile al pubblico per scopi di formazione. Tuttavia, questo caso richiede anche linee guida più chiare per prevenire l’uso improprio dei dati open source.

La necessità di leggi aggiornate

La causa Copilot ha portato all'attenzione la questione del copyright del codice generato dall'intelligenza artificiale, sottolineando la necessità di leggi aggiornate per proteggere i diritti degli sviluppatori originali.

Gli attuali quadri giuridici non sono in grado di gestire le complessità introdotte dai contenuti generati dall’intelligenza artificiale. Di conseguenza, le autorità devono aggiornare le leggi per garantirne la conformità.

Ad esempio, stabilire una soglia entro la quale la somiglianza del codice oltre un certo numero non è consentita potrebbe aiutare a proteggere i diritti degli sviluppatori originali. Le autorità possono anche rendere obbligatoria la visualizzazione della fonte dei dati di formazione.

Inoltre, le autorità dovrebbero regolamentare il codice pubblico per impedirne l’uso senza licenza. Un’altra iniziativa praticabile è imporre controlli regolari sugli strumenti di intelligenza artificiale e sui loro risultati.

Questa causa aumenterà il controllo sull’uso del codice pubblico nella formazione dell’IA. COME Strumenti di codifica AI evolversi, così come devono evolversi le leggi relative al loro utilizzo. Questa pratica garantirà che l’innovazione non sia in conflitto con l’etica e gli standard legali.

Esplora Unite.ai per ulteriori risorse su GitHub e sugli strumenti di codifica AI.

Haziqa è un Data Scientist con una vasta esperienza nella scrittura di contenuti tecnici per aziende AI e SaaS.