Wydarzenia
Pozew GitHub Copilot: GitHub wygrywa sprawę

By
Haziqa Sajid
Uruchomiony w 2021 roku GitHub Copilot stał się pomocnym narzędziem dla programistów. To generator kodu oparty na sztucznej inteligencji, który podpowiada fragmenty kodu i automatycznie uzupełnia wiersze. Od momentu premiery Copilot znacząco usprawnił pracę programistów. wydajność oraz jakość kodu.
GitHub Copilot jest zaangażowany w sprawę prawną od 2022 r. Grupa programistów wniosła pozew, ponieważ wierzyła, że Copilot ponownie wykorzystał istniejący kod open source bez odpowiedniego przypisania do oryginalnych koderów.
Jak rozpoczął się proces GitHub Copilot, co oznacza obecny wyrok i jakie są szersze implikacje tej sprawy? Przyjrzyjmy się temu bliżej.
Przegląd początkowych roszczeń i zwolnień
W listopadzie 2022 roku grupa programistów złożyła pozew zbiorowy przeciwko GitHubowi, Microsoftowi i OpenAI. Pozew początkowo zawierał 22 roszczenia. Skupiono się głównie na GitHub Copilot. GitHub przeszkolił Copilot w zakresie istniejących danych typu open source, aby udostępniał użytkownikom fragmenty podczas kodowania.
Powodowie twierdzili, że kopiowali fragmenty kodu bez podawania informacji o oryginalnych twórcach. Twórcy powołali się także na ustawę Digital Millennium Copyright Act. Sekcja 1202(b)(2) ustawy DMCA i jej podsekcje dotyczą naruszenia informacji o zarządzaniu prawami autorskimi. Oskarżyli GitHuba o naruszenie praw autorskich DMCA poprzez usunięcie ważnych informacji z fragmentów kodu, takich jak źródło kodu.
Sąd oddalił wiele z tych roszczeń przez czas trwania pozwu. 9 lipca odrzucili trzy dodatkowe roszczenia, co oznaczało wielkie zwycięstwo oskarżonych.
Zdaniem sądu nie ma wystarczających dowodów na podobieństwo kodu między wynikami GitHuba a kodem open source, na którym szkolono oprogramowanie. W związku z tym sędzia orzekł również przeciwko wszelkim naruszeniom ustawy DMCA.
Niedawne modyfikacje GitHub w Copilocie znacząco wpłynęły na decyzję sądu. Zmiany w asystencie programistycznym sprawiły, że narzędzie pokazywało wariacje fragmentów kodu, a nie ich dokładne kopie.
Ponadto skargi obejmowały m.in Badanie sztucznej inteligencji aby jeszcze bardziej podkreślić nieuchronność ponownego wykorzystania kodu przez GitHub. Sąd również odrzucił tę argumentację, powołując się na niewystarczający dowód plagiatu.
Sąd zauważył jednak potencjalny problem z filtrem sprawdzającym duplikaty w GitHub Copilot. Użytkownicy mogą wyłączyć ten filtr, który wyświetla ostrzeżenia o podobieństwie kodu. Dezaprobata sądu sugeruje, że ten aspekt wymaga dokładniejszej analizy. Jest to okazja dla programistów do modyfikacji i ponownego złożenia skarg, skupiając się bardziej na tym konkretnym aspekcie.
Pozostałe zarzuty wobec GitHub Copilot
Choć sąd oddalił większość pozwów, sprawa nie jest zakończona. W pozwie zbiorowym GitHub Copilot nadal aktualne są dwa kluczowe zarzuty:
- Naruszenie licencji open source.
- Naruszenie zaufania między GitHubem a dostawcami kodu open source.
Twierdzenia te krytykują GitHub za używanie kod open source w sposób nieetyczny. Obejmują one niepotwierdzenie wykorzystania publicznie dostępnych danych do szkolenia Copilot i nieudzielenie uznania oryginalnym programistom. W rezultacie GitHub zerwał umowę ze swoimi partnerami.
Obie strony spierały się również o swoje postępowanie w trakcie postępowania dowodowego. Według twórców, oskarżeni nie dostarczyli niezbędnych informacji w trakcie postępowania, takich jak stosowne e-maile. Oskarżenie to może nabrać znaczenia na późniejszych etapach sprawy.
Jakie są szersze implikacje pozwu GitHub Copilot?
Ten toczący się pozew rodzi pytania dotyczące jego wpływu na szerszy ekosystem sztucznej inteligencji. Wyniki pozostałych zarzutów prawdopodobnie utworzą precedensy za wykorzystanie kodu open source w szkoleniach AI.
Sukces GitHub w oddaleniu wielu roszczeń w pozwie prawdopodobnie zachęci inne firmy do dalszego wykorzystywania sztucznej inteligencji w rozwoju oprogramowania. Według GitHub, technologie sztucznej inteligencji, takie jak Copilot, pomagają użytkownikom kodować wydajniej, zwiększając produktywność. Coraz więcej przedsiębiorstw i deweloperów będzie dążyć do osiągnięcia podobnych korzyści.
Ta sprawa zwiększyła również świadomość praw autorskich. Umożliwiła programistom lepsze zrozumienie swoich praw. Firmy mogą stosować nowe zasady, aby mieć pewność, że nie naruszają licencji open source.
Z drugiej strony, ta zwiększona świadomość może również wzrosnąć nieufność do narzędzi kodujących AI. Ten brak zaufania może prowadzić do mniej rozbudowanych repozytoriów open source, gdy programiści usuwają swoje wkłady. Brak wystarczających danych utrudni skuteczne uczenie się oprogramowania AI.
Projekty typu open source mogą również zmienić warunki licencji, aby zapewnić bardziej wyraźne wytyczne dotyczące używania kodu w szkoleniach dotyczących sztucznej inteligencji. Mogą przyjąć bardziej restrykcyjne licencje, aby chronić swój wkład.
Orzeczenie to również nie zwalnia całkowicie GitHub Copilot, podkreślając potrzebę bardziej kompleksowych ram regulacyjnych. Ograniczenie potencjalnych roszczeń o naruszenie praw autorskich może zachęcić firmy zajmujące się sztuczną inteligencją. Firmy te mogą nadal używać publicznie dostępnego kodu do celów szkoleniowych. Jednak w tym przypadku konieczne jest również wprowadzenie jaśniejszych wytycznych zapobiegających niewłaściwemu wykorzystywaniu danych typu open source.
Potrzeba aktualizacji przepisów
Pozew przeciwko Copilotowi zwrócił uwagę na kwestię praw autorskich do kodu generowanego przez sztuczną inteligencję. Podkreślił potrzebę aktualizacji przepisów w celu ochrony praw oryginalnych twórców.
Obecne ramy prawne nie są w stanie poradzić sobie ze złożonością wynikającą z treści generowanych przez sztuczną inteligencję. W rezultacie władze muszą zaktualizować przepisy, aby zapewnić ich zgodność.
Na przykład ustalenie progu, w przypadku którego podobieństwo kodu przekraczające określoną liczbę jest niedopuszczalne, mogłoby pomóc w ochronie praw oryginalnych twórców. Władze mogą również wprowadzić obowiązek podawania źródła danych szkoleniowych.
Ponadto władze powinny regulować kod publiczny, aby zapobiec nielicencjonowanemu używaniu. Kolejną realną inicjatywą jest nakazanie regularnych audytów narzędzi sztucznej inteligencji i ich wyników.
Ten pozew zwiększy kontrolę wykorzystania kodu publicznego w szkoleniu sztucznej inteligencji. Jak Narzędzia do kodowania AI ewoluować, podobnie jak prawa dotyczące ich stosowania. Taka praktyka zapewni, że innowacyjność nie będzie sprzeczna z etyką i standardami prawnymi.
Eksploruj Unite.ai aby uzyskać więcej zasobów na temat narzędzi do kodowania GitHub i AI.
Hazika jest analitykiem danych z dużym doświadczeniem w pisaniu treści technicznych dla firm AI i SaaS.
Możesz polubić
-
DeepCoder-14B: Model AI Open Source zwiększający produktywność i innowacyjność programistów
-
Automatyzacja ochrony praw autorskich w obrazach generowanych przez sztuczną inteligencję
-
Ekstrakcja danych treningowych z precyzyjnie dostrojonych modeli dyfuzji stabilnej
-
Kształtowanie przyszłości: jak sztuczna inteligencja, deepfake i cyfrowe repliki zmieniają prawo autorskie
-
Mistral Large 2: ulepszone generowanie kodu i możliwości wielojęzyczne
-
Odkrywamy Code Lama 70B: inicjatywa Meta mająca na celu zwiększenie dostępności programowania wspomaganego sztuczną inteligencją