El debate sobre cómo las empresas de IA usan trabajos creativos para capacitar a sus modelos parece estar llegando a un punto crítico. Un caso legal importante es establecer un precedente potencial para el futuro. La conversación ya no se trata solo de si Entrenamiento de IA es «uso justo». También se trata de dónde provienen los datos de entrenamiento. Una acción de clase pleito Archivado por un grupo de autores y editores contra la firma de IA Antrópico está en el centro de este nuevo paisaje legal.
La batalla entre la innovación de IA y los derechos de propiedad intelectual está llegando a un punto crítico, y este caso está trazando una línea clara en la arena. Los autores alegan que Anthrope usó millones de libros pirateados de «bibliotecas de sombras» ilegales como Libgen para capacitar a sus modelos. Ahora, después de meses de disputas legales, los demandantes han propuesto un plan para Distribuir un liquidación histórica de $ 1.5 mil millones.
El acuerdo de la demanda de derechos de autor de Anthrope demuestra que la IA no puede confiar en datos pirateados
El plan propuesto es una gran victoria para los creadores de contenido. Describe un proceso optimizado de un solo paso para autores y editores para presentar reclamos y, para la mayoría de las obras, sugiere una división justa de 50/50 de los fondos, una relación enraizada en las normas de la industria.
Como los autores Charles Graeber y Kirk Wallace Johnson declararon en las declaraciones de la corte, la demanda y el acuerdo envían un mensaje claro. Es un momento que reafirma un principio básico: «Está mal robar». También recuerda a las empresas tecnológicas que «no están por encima de la ley, y nuestra propiedad intelectual no es suya para la toma». Este sentimiento es el núcleo del caso.
Un juez había dictaminado previamente que la capacitación de IA puede considerarse un uso justo del material con derechos de autor. Sin embargo, esa decisión vino con una gran advertencia. El juez hizo una línea dura contra el uso de datos obtenidos a través de la piratería. Esta distinción es ahora la conclusión clave para toda la industria. Significa que las compañías de IA ya no pueden confiar en contenido raspado o robado para sus modelos. Deben documentar meticulosamente sus fuentes, negociar licencias y desarrollar formas legítimas de adquirir datos de capacitación. Este caso otorga a los creadores de contenido nuevo apalancamiento y proporciona orientación práctica para que las empresas mitigen derechos de autor riesgo en sus proyectos de IA.
Podría cambiar la industria de la IA para siempre
Esta batalla legal es una llamada de atención para los desarrolladores de IA. Podría remodelar cómo operarán estas empresas en el futuro. Este caso puede servir como un plan para docenas de otras demandas de derechos de autor de IA pendientes. El último dicho sobre el acuerdo llegará pronto, ya que el tribunal considerará el plan de los demandantes esta semana.
Fuente: Android Headlines
