Contáctenos

Demanda del copiloto de GitHub: GitHub supera el caso

Eventos

Demanda del copiloto de GitHub: GitHub supera el caso

mm

Lanzado en 2021, GitHub Copilot se ha convertido en una herramienta útil para desarrolladores. Es un generador de código con IA que sugiere fragmentos de código y autocompleta líneas. Desde su lanzamiento, Copilot ha mejorado drásticamente la experiencia de los desarrolladores. productividad calidad del código.

GitHub Copilot ha estado involucrado en un caso legal desde 2022. Un grupo de desarrolladores presentó la demanda porque creían que Copilot reutilizó código fuente abierto existente sin la atribución adecuada a los codificadores originales.

¿Cómo se inició la demanda de GitHub Copilot? ¿Qué implica el fallo actual? ¿Cuáles son las implicaciones generales de este caso? Analicémoslo.

Resumen de las reclamaciones iniciales y despidos

En noviembre de 2022, un grupo de desarrolladores presentó una demanda colectiva contra GitHub, Microsoft y OpenAI. La demanda inicialmente comprendía 22 reclamaciones. Se centró principalmente en GitHub Copilot. GitHub capacitó a Copilot con datos de código abierto existentes para proporcionar fragmentos a los usuarios mientras codifican.

Los demandantes dijeron que estaban copiando fragmentos de código sin dar crédito a los desarrolladores originales. Los desarrolladores también invocaron la Ley de Derechos de Autor del Milenio Digital. La sección 1202(b)(2) de la DMCA y sus subsecciones abordan la infracción de la información de gestión de derechos de autor. Acusaron a GitHub de infracción de derechos de autor de la DMCA al eliminar información importante de fragmentos de código, como la fuente del código.

El tribunal desestimó muchas de estas afirmaciones. durante la duración del proceso. El 9 de julio, desestimaron tres demandas adicionales en una gran victoria para los demandados.

Según el tribunal, no hay pruebas suficientes de similitud de código entre el resultado producido por GitHub y el código fuente abierto en el que entrenaron el software. Por lo tanto, el juez también falló en contra de cualquier violación de la DMCA.

Las recientes modificaciones de GitHub a Copilot influyeron significativamente en la decisión del tribunal. Los cambios en el asistente de programación garantizaron que la herramienta mostrara variaciones de fragmentos de código en lugar de copias exactas.

Además, las denuncias incluían una estudio de IA para enfatizar aún más la inevitabilidad de que GitHub reutilice el código. El tribunal también negó este argumento, citando pruebas insuficientes de plagio.

Sin embargo, el tribunal detectó un posible problema con el filtro de comprobación de duplicados de GitHub Copilot. Los usuarios pueden desactivar este filtro, que emite advertencias sobre la similitud del código. La desaprobación del tribunal sugiere que este aspecto requiere un análisis más exhaustivo. Esta es una oportunidad para que los desarrolladores modifiquen y vuelvan a presentar sus quejas, centrándose más en este aspecto específico.

Las acusaciones restantes contra GitHub Copilot

Si bien el tribunal ha desestimado la mayoría de las reclamaciones, el caso no ha terminado. Dos acusaciones clave siguen en juego en la demanda colectiva sobre GitHub Copilot:

  • Una violación de la licencia de código abierto.
  • Un abuso de confianza entre GitHub y los proveedores de código fuente abierto.

Estas afirmaciones critican a GitHub por usar código fuente abierto de forma poco ética. Incluyen no reconocer el uso de datos disponibles públicamente para entrenar a Copilot y no dar crédito a los codificadores originales. Como resultado, GitHub rompió su acuerdo con sus socios.

Ambas partes también han discutido sobre la conducta de la otra durante el proceso de descubrimiento de pruebas. Según los promotores, los acusados ​​no proporcionaron la información necesaria durante el procedimiento, como los correos electrónicos pertinentes. Esta acusación podría cobrar importancia en las últimas etapas del caso.

¿Cuáles son las implicaciones más amplias de la demanda del copiloto de GitHub?

Esta demanda en curso plantea dudas sobre su impacto en el ecosistema de IA en general. Los resultados de estas acusaciones restantes probablemente sentarán precedentes. para usar código fuente abierto en el entrenamiento de IA.

El éxito de GitHub al desestimar muchas de las demandas probablemente animará a otras empresas a seguir utilizando la IA en el desarrollo de software. Según GitHub, tecnologías de IA como Copilot ayudan a los usuarios a programar de forma más eficiente, aumentando así la productividad. Cada vez más empresas y desarrolladores aspirarán a obtener beneficios similares.

Este caso también ha aumentado la concienciación sobre las leyes de derechos de autor. Ha permitido a los desarrolladores comprender mejor sus derechos. Las empresas podrían implementar nuevas políticas para garantizar que no violen las licencias de código abierto.

Por otro lado, esta mayor conciencia también puede aumentar desconfianza en las herramientas de codificación de IA. Esta falta de confianza podría conducir a repositorios de código abierto menos extensos a medida que los desarrolladores eliminen sus contribuciones. La falta de datos suficientes obstaculizará el aprendizaje eficaz del software de IA.

Los proyectos de código abierto también pueden revisar sus términos de licencia para proporcionar pautas más explícitas sobre el uso de su código en la capacitación en IA. Pueden adoptar licencias más restrictivas para proteger sus contribuciones.

El fallo tampoco exonera por completo a GitHub Copilot, lo que subraya la necesidad de marcos regulatorios más completos. La reducción de posibles reclamaciones por infracción de derechos de autor podría alentar a las empresas de IA. Estas empresas podrían seguir utilizando código disponible públicamente con fines de formación. Sin embargo, este caso también exige directrices más claras para evitar el uso indebido de datos de fuente abierta.

La necesidad de leyes actualizadas

La demanda de Copilot ha llamado la atención sobre el problema de los derechos de autor del código generado por IA. Ha puesto de relieve la necesidad de actualizar las leyes para proteger los derechos de los desarrolladores originales.

Los marcos legales actuales no pueden manejar las complejidades que introduce el contenido generado por IA. Como resultado, las autoridades deben actualizar las leyes para garantizar su cumplimiento.

Por ejemplo, establecer un umbral en el que no se permita la similitud de código más allá de un cierto número podría ayudar a proteger los derechos de los desarrolladores originales. Las autoridades también pueden hacer que sea obligatoria la visualización de la fuente de los datos de formación.

Además, las autoridades deberían regular el código público para evitar el uso sin licencia. Otra iniciativa viable es exigir auditorías periódicas de las herramientas de inteligencia artificial y sus resultados.

Esta demanda aumentará el escrutinio del uso del código público en el entrenamiento de la IA. Como Herramientas de codificación de IA evolucionar, también deben hacerlo las leyes para su uso. Esta práctica garantizará que la innovación no entre en conflicto con la ética y las normas legales.

Explorar Unirse.ai para obtener más recursos sobre GitHub y herramientas de codificación de IA.