Veranstaltungen
Klage gegen GitHub Copilot: GitHub gewinnt

By
Haziqa Sajid
GitHub Copilot wurde 2021 eingeführt und hat sich zu einem hilfreichen Tool für Entwickler entwickelt. Es handelt sich um einen KI-Codegenerator, der Code-Snippets vorschlägt und Zeilen automatisch vervollständigt. Seit seiner Einführung hat Copilot die Leistung von Entwicklern erheblich verbessert. PRODUKTIVITÄT und Codequalität.
GitHub Copilot ist seit 2022 in einen Rechtsstreit verwickelt. Eine Gruppe von Entwicklern reichte die Klage ein, weil sie glaubten, Copilot bestehender Open-Source-Code ohne ordnungsgemäße Quellenangabe wiederverwendet an die ursprünglichen Programmierer.
Wie kam es zum Rechtsstreit um GitHub Copilot, was bedeutet das aktuelle Urteil und welche weiteren Auswirkungen hat dieser Fall? Lassen Sie uns das näher betrachten.
Übersicht über die Erstanträge und Abweisungen
Im November 2022 reichte eine Gruppe von Entwicklern eine Sammelklage gegen GitHub, Microsoft und OpenAI ein. Die Klage umfasste zunächst 22 Forderungen. Sie konzentrierte sich hauptsächlich auf GitHub Copilot. GitHub hat Copilot anhand vorhandener Open-Source-Daten trainiert, um Benutzern beim Coden Snippets bereitzustellen.
Die Kläger gaben an, dass Code-Schnipsel kopiert würden, ohne die ursprünglichen Entwickler zu nennen. Die Entwickler beriefen sich außerdem auf den Digital Millennium Copyright Act. Abschnitt 1202(b)(2) des DMCA und seine Unterabschnitte befassen sich mit der Verletzung von Informationen zum Urheberrechtsmanagement. Sie warfen GitHub eine Urheberrechtsverletzung nach DMCA vor, indem es wichtige Informationen aus Code-Schnipseln entfernte, wie etwa die Codequelle.
Das Gericht wies viele dieser Klagen ab über die Dauer des Rechtsstreits. Am 9. Juli wiesen sie drei weitere Klagen ab, ein großer Sieg für die Beklagten.
Laut Gericht gibt es keine ausreichenden Beweise für Code-Ähnlichkeiten zwischen der von GitHub erzeugten Ausgabe und dem Open-Source-Code, mit dem die Software trainiert wurde. Daher entschied der Richter auch gegen jegliche DMCA-Verstöße.
Die jüngsten Änderungen von GitHub an Copilot beeinflussten die Entscheidung des Gerichts maßgeblich. Die Änderungen am Programmierassistenten sorgten dafür, dass das Tool Variationen von Code-Schnipseln und nicht exakte Kopien anzeigte.
Darüber hinaus enthielten die Beschwerden eine KI-Studie um die Unvermeidlichkeit der Wiederverwendung von Code durch GitHub weiter zu betonen. Das Gericht wies auch dieses Argument zurück und führte an, dass es keine ausreichenden Beweise für Plagiate gebe.
Das Gericht stellte jedoch ein potenzielles Problem mit dem Duplikatsprüfungsfilter von GitHub Copilot fest. Benutzer können diesen Filter, der vor Codeähnlichkeiten warnt, deaktivieren. Die Ablehnung des Gerichts deutet darauf hin, dass dieser Aspekt einer genaueren Prüfung bedarf. Dies bietet den Entwicklern die Möglichkeit, ihre Beschwerden zu ändern und erneut einzureichen, wobei der Schwerpunkt stärker auf diesem spezifischen Aspekt liegen sollte.
Die verbleibenden Vorwürfe gegen GitHub Copilot
Obwohl das Gericht die meisten Klagen abgewiesen hat, ist der Fall noch nicht abgeschlossen. Zwei Hauptvorwürfe bleiben in der Sammelklage von GitHub Copilot im Spiel:
- Ein Verstoß gegen die Open-Source-Lizenz.
- Ein Vertrauensbruch zwischen GitHub und Open-Source-Code-Anbietern.
Diese Behauptungen kritisieren GitHub für die Verwendung Open-Source-Code unethisch. Dazu gehört, dass die Verwendung öffentlich verfügbarer Daten für das Training von Copilot nicht anerkannt und die ursprünglichen Programmierer nicht genannt werden. Infolgedessen hat GitHub seine Vereinbarung mit seinen Partnern gebrochen.
Beide Seiten stritten sich auch über das Verhalten der jeweils anderen Seite während des Ermittlungsverfahrens. Laut den Entwicklern hätten die Beklagten es versäumt, während des Verfahrens die notwendigen Informationen, wie beispielsweise relevante E-Mails, bereitzustellen. Dieser Vorwurf könnte im weiteren Verlauf des Verfahrens an Bedeutung gewinnen.
Welche weiteren Auswirkungen hat die Klage gegen GitHub Copilot?
Dieser laufende Rechtsstreit wirft Fragen über seine Auswirkungen auf das gesamte KI-Ökosystem auf. Die Ergebnisse dieser verbleibenden Vorwürfe werden wahrscheinlich Präzedenzfälle schaffen für die Verwendung von Open-Source-Code im KI-Training.
Der Erfolg von GitHub bei der Abweisung vieler Klagen dürfte andere Unternehmen ermutigen, weiterhin KI in der Softwareentwicklung einzusetzen. Laut GitHub helfen KI-Technologien wie Copilot Nutzern, effizienter zu programmieren und so die Produktivität zu steigern. Immer mehr Unternehmen und Entwickler streben ähnliche Vorteile an.
Dieser Fall hat auch das Bewusstsein für Urheberrechte geschärft. Entwickler verstehen nun ihre Rechte besser. Unternehmen können neue Richtlinien nutzen, um sicherzustellen, dass sie Open-Source-Lizenzen nicht verletzen.
Andererseits kann dieses gesteigerte Bewusstsein auch Misstrauen gegenüber KI-Codierungstools. Dieser Vertrauensmangel könnte zu weniger umfangreichen Open-Source-Repositorien führen, da Entwickler ihre Beiträge zurückziehen. Ein Mangel an ausreichenden Daten wird das effektive Lernen für KI-Software behindern.
Open-Source-Projekte könnten auch ihre Lizenzbedingungen überarbeiten, um explizitere Richtlinien für die Verwendung ihres Codes beim KI-Training bereitzustellen. Sie könnten restriktivere Lizenzen einführen, um ihre Beiträge zu schützen.
Das Urteil spricht GitHub Copilot auch nicht vollständig frei und unterstreicht die Notwendigkeit umfassenderer Regulierungsrahmen. Die Einschränkung möglicher Ansprüche wegen Urheberrechtsverletzungen könnte KI-Unternehmen ermutigen. Diese Unternehmen könnten weiterhin öffentlich verfügbaren Code für Trainingszwecke verwenden. Dieser Fall erfordert jedoch auch klarere Richtlinien, um den Missbrauch von Open-Source-Daten zu verhindern.
Die Notwendigkeit aktualisierter Gesetze
Die Klage gegen Copilot hat die Problematik des Urheberrechts an KI-generiertem Code in den Fokus gerückt. Sie unterstreicht die Notwendigkeit aktualisierter Gesetze zum Schutz der Rechte der ursprünglichen Entwickler.
Die aktuellen rechtlichen Rahmenbedingungen können die Komplexitäten, die durch KI-generierte Inhalte entstehen, nicht bewältigen. Daher müssen die Behörden ihre Gesetze aktualisieren, um die Einhaltung der Vorschriften zu gewährleisten.
So könnte beispielsweise die Festlegung eines Grenzwertes, ab dem Code-Ähnlichkeiten über eine bestimmte Zahl hinaus nicht mehr zulässig sind, zum Schutz der Rechte der ursprünglichen Entwickler beitragen. Die Behörden könnten außerdem die Anzeige der Quelle der Trainingsdaten verpflichtend machen.
Darüber hinaus sollten die Behörden öffentlichen Code regulieren, um eine unlizenzierte Nutzung zu verhindern. Eine weitere sinnvolle Initiative ist die Anordnung regelmäßiger Prüfungen von KI-Tools und deren Ergebnissen.
Diese Klage wird die Verwendung von öffentlichem Code beim Training von KI genauer unter die Lupe nehmen. KI-Codierungstools Mit der Entwicklung müssen sich auch die Gesetze für ihre Anwendung weiterentwickeln. So wird sichergestellt, dass Innovationen nicht im Widerspruch zu ethischen und rechtlichen Standards stehen.
Entdecken Unite.ai für weitere Ressourcen zu GitHub und KI-Codierungstools.
Haziqa ist ein Datenwissenschaftler mit umfangreicher Erfahrung im Schreiben technischer Inhalte für KI- und SaaS-Unternehmen.
Vielleicht gefällt dir
-


Urheberrecht im Zeitalter der KI: Ein Wendepunkt für das Urheberrecht
-


Programmier-KIs neigen dazu, unter dem Dunning-Kruger-Effekt zu leiden
-


DeepCoder-14B: Das Open-Source-KI-Modell steigert die Produktivität und Innovation von Entwicklern
-


Automatisierung des Urheberrechtsschutzes bei KI-generierten Bildern
-


Extrahieren von Trainingsdaten aus fein abgestimmten stabilen Diffusionsmodellen
-
Die Zukunft gestalten: Wie KI, Deepfakes und digitale Repliken das Urheberrecht verändern