Evenimente
Procesul de pilot GitHub: GitHub bate cazul

By
Haziqa Sajid
Lansat în 2021, GitHub Copilot a devenit un instrument util pentru dezvoltatori. Este un generator de cod bazat pe inteligență artificială care sugerează fragmente de cod și completează automat liniile. De la lansare, Copilot a îmbunătățit dramatic funcționalitatea dezvoltatorilor. productivitate și calitatea codului.
GitHub Copilot a fost implicat într-un caz legal din 2022. Un grup de dezvoltatori a introdus procesul pentru că credeau că Copilot a reutilizat codul open-source existent fără o atribuire adecvată la codificatorii originali.
Cum a început procesul GitHub Copilot, ce înseamnă actuala hotărâre și care sunt implicațiile mai ample ale acestui caz? Să explorăm.
Prezentare generală a cererilor inițiale și a concedierii
În noiembrie 2022, un grup de dezvoltatori a intentat un proces colectiv împotriva GitHub, Microsoft și OpenAI. Procesul a cuprins inițial 22 de cereri. S-a concentrat în primul rând pe GitHub Copilot. GitHub a instruit Copilot pe datele open-source existente pentru a furniza fragmente utilizatorilor în timp ce codifică.
Reclamanții au spus că copiază fragmente de cod fără a credita dezvoltatorii inițiali. Dezvoltatorii au invocat, de asemenea, Digital Millennium Copyright Act. Secțiunea 1202(b)(2) a DMCA și subsecțiunile sale se referă la încălcarea informațiilor de gestionare a drepturilor de autor. Ei au acuzat GitHub de încălcarea drepturilor de autor DMCA prin eliminarea informațiilor importante din fragmentele de cod, cum ar fi sursa codului.
Instanța a respins multe dintre aceste cereri pe durata procesului. Pe 9 iulie, aceștia au renunțat la trei cereri suplimentare într-o victorie majoră pentru inculpați.
Potrivit instanței, nu există dovezi suficiente privind asemănarea codului între rezultatul produs de GitHub și codul open-source pe care au instruit software-ul. Prin urmare, judecătorul a decis și împotriva oricăror încălcări ale DMCA.
Modificările recente aduse de GitHub la Copilot au influențat semnificativ decizia instanței. Modificările aduse asistentului de programare au asigurat că instrumentul afișează variații ale fragmentelor de cod, mai degrabă decât copii exacte.
Mai mult, plângerile au inclus și un Studiu AI pentru a sublinia și mai mult inevitabilitatea reutilizarii codului de către GitHub. Instanța a negat și acest argument, invocând dovezi insuficiente de plagiat.
Cu toate acestea, instanța a observat o potențială problemă cu filtrul de verificare a duplicatelor din GitHub Copilot. Utilizatorii pot dezactiva acest filtru, care emite avertismente privind similaritatea codului. Dezaprobarea instanței sugerează că acest aspect necesită o analiză mai atentă. Aceasta este o oportunitate pentru dezvoltatori de a modifica și de a retrimite plângerile lor, concentrându-se mai mult pe acest aspect specific.
Acuzațiile rămase împotriva GitHub Copilot
Deși instanța a respins majoritatea cererilor, cazul nu s-a încheiat. Două acuzații cheie rămân în joc în procesul de acțiune colectivă GitHub Copilot:
- O încălcare a licenței open-source.
- O încălcare a încrederii între GitHub și furnizorii de cod open-source.
Aceste afirmații critică GitHub pentru utilizarea cod open source neetic. Acestea includ nerecunoașterea utilizării datelor disponibile public pentru formarea Copilot și nu acordarea de credit codificatorilor inițiali. Drept urmare, GitHub și-a încălcat acordul cu partenerii săi.
Ambele părți au avut dezbateri reciproce pe tema conduitei în timpul procesului de descoperire a probelor. Potrivit dezvoltatorilor, inculpații nu au furnizat informațiile necesare în timpul procedurii, cum ar fi e-mailurile relevante. Această acuzație ar putea deveni importantă în etapele ulterioare ale cazului.
Care sunt implicațiile mai largi ale procesului GitHub Copilot?
Acest proces în curs ridică întrebări cu privire la impactul său asupra ecosistemului AI mai larg. Rezultatele acestor acuzații rămase vor crea probabil precedente pentru utilizarea codului open-source în instruirea AI.
Succesul GitHub în respingerea multora dintre acuzațiile din proces va încuraja probabil alte firme să continue să utilizeze inteligența artificială în dezvoltarea de software. Potrivit GitHub, tehnologiile de inteligență artificială precum Copilot îi ajută pe utilizatori să programeze mai eficient, crescând productivitatea. Tot mai multe companii și dezvoltatori vor urmări să obțină beneficii similare.
Acest caz a sporit, de asemenea, gradul de conștientizare a legilor privind drepturile de autor. I-a ajutat pe dezvoltatori să își înțeleagă mai bine drepturile. Companiile pot folosi noi politici pentru a se asigura că nu încalcă licențele open-source.
Pe de altă parte, această conștientizare sporită poate crește neîncrederea în instrumentele de codare AI. Această lipsă de încredere ar putea duce la depozite open-source mai puțin extinse, deoarece dezvoltatorii își elimină contribuțiile. Lipsa datelor suficiente va împiedica învățarea eficientă a software-ului AI.
Proiectele cu sursă deschisă pot, de asemenea, să-și revizuiască termenii de licențiere pentru a oferi linii directoare mai explicite privind utilizarea codului lor în instruirea AI. Ei pot adopta licențe mai restrictive pentru a-și proteja contribuțiile.
De asemenea, hotărârea nu exonerează în totalitate GitHub Copilot, subliniind necesitatea unor cadre de reglementare mai cuprinzătoare. Reducerea potențialelor reclamații privind încălcarea drepturilor de autor ar putea încuraja companiile AI. Aceste companii ar putea continua să utilizeze cod disponibil public în scopuri de instruire. Cu toate acestea, acest caz necesită și linii directoare mai clare pentru a preveni utilizarea greșită a datelor open source.
Necesitatea unor legi actualizate
Procesul Copilot a adus în atenție problema drepturilor de autor pentru codul generat de inteligența artificială. Acesta a subliniat necesitatea unor legi actualizate pentru a proteja drepturile dezvoltatorilor originali.
Cadrurile legale actuale nu pot face față complexităților introduse de conținutul generat de inteligență artificială. Drept urmare, autoritățile trebuie să actualizeze legile pentru a asigura conformitatea.
De exemplu, stabilirea unui prag în care similitudinea codului dincolo de un anumit număr nu este permisă ar putea ajuta la protejarea drepturilor dezvoltatorilor originali. De asemenea, autoritățile pot face obligatorie afișarea sursei datelor de formare.
În plus, autoritățile ar trebui să reglementeze codul public pentru a preveni utilizarea fără licență. Obligarea auditurilor regulate ale instrumentelor AI și ale rezultatelor acestora este o altă inițiativă viabilă.
Acest proces va spori controlul asupra utilizării codului public în instruirea AI. La fel de Instrumente de codare AI evoluează, la fel și legile pentru utilizarea lor. Această practică va asigura că inovația nu intră în conflict cu standardele etice și legale.
Explorează Unite.ai pentru mai multe resurse pe GitHub și instrumentele de codare AI.
Haziqa este un Data Scientist cu o vastă experiență în scrierea de conținut tehnic pentru companii AI și SaaS.
Ar putea să îți placă
-
DeepCoder-14B: Modelul de inteligență artificială open-source care îmbunătățește productivitatea și inovația dezvoltatorilor
-
Automatizarea protecției drepturilor de autor în imaginile generate de AI
-
Extragerea datelor de antrenament din modele de difuzie stabilă reglate fin
-
Modelarea viitorului: cum AI, Deepfake-urile și replicile digitale transformă legea drepturilor de autor
-
Mistral Large 2: Generare de cod îmbunătățită și capabilități multilingve
-
Explorând Code Llama 70B: inițiativa lui Meta de a face programarea asistată de IA mai accesibilă