La victoria de la corte de Anthrope podría cambiar el panorama de la IA para siempre

La batalla sobre El entrenamiento de derechos de autor y IA continúa sin cesar. En general, los editores aún no han logrado una victoria verdaderamente clara que pueda servir como un precedente contra el uso de contenido para alimentar a LLM. Ahora, un desarrollo reciente podría dar forma significativamente al futuro de inteligencia artificial a favor de las empresas de IA. Antrópicouna empresa matriz de Claude Aiha ganado un importante caso de derechos de autor. Dicho esto, todavía hay un asunto relacionado pendiente.

Un juez federal en San Francisco ha emitido un fallo matizado en una importante demanda por derechos de autor que involucra a la compañía AI Anthrope. La decisión ofrece una victoria crucial para la industria de la IA con respecto a la capacitación del modelo de IA. Sin embargo, también envía un mensaje claro sobre la legalidad de sus fuentes de datos.

En el corazón del asunto estaba si Uso de libros con derechos de autor para entrenar modelos de IA constituye el «uso justo» bajo la ley de derechos de autor de los Estados Unidos. Los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson habían presentado un pleito contra antrópico. Argumentaron que la firma de IA usó sus libros sin permiso para enseñarle a Claude Chatbot a responder a las indicaciones humanas.

El juez de distrito estadounidense William Alsup dictaminó que el acto de Anthrope de usar estos libros para capacitar a su IA fue de hecho «uso justo» y «extremadamente transformador». El juez razonó que, al igual que un estudiante aprende de leer para escribir algo nuevo, los sistemas de IA de Anthropy Train sobre trabajos para no simplemente replicarlos. La plataforma AI utiliza este contenido para generar contenido completamente diferente. Esta parte del fallo es una victoria significativa para las compañías de IA, que proporciona un precedente que la capacitación generativa de IA, cuando se realiza transformativamente, se alinea con el propósito de los derechos de autor de fomentar la creatividad y el progreso científico. El fallo específicamente la digitalización de libros comprados legalmente para capacitar a los modelos de IA.

Anthrope aún enfrentará un caso separado para la infracción de derechos de autor

Sin embargo, el fallo llegó con una advertencia significativa. El juez Alsup también determinó que el acto separado de Anthrope de copiar y almacenar más de 7 millones de libros pirateados en una «biblioteca central» no era de uso justo e infringió claramente los derechos de autor de los autores. Esta vasta colección de material pirateado, incluso si no se usa directamente para el entrenamiento de IA, se consideró una violación. El juez declaró explícitamente que simplemente comprar una copia legítima de un libro más tarde no absuelve la responsabilidad por el robo anterior de los sitios piratas.

Esto significa antrópico ahora enfrentará un juicio por separado en diciembre Para determinar los daños que debe por esta infracción. La compañía podría tener que pagar daños legales de hasta $ 150,000 por cada trabajo.

Una decisión que podría cambiar el paisaje de IA para siempre

Esta decisión es un momento crucial en las batallas legales en curso entre los creadores de contenido y los desarrolladores de IA. Este caso respalda ampliamente la idea de que el uso de material con derechos de autor para el entrenamiento de IA cae en el dominio del uso justo. Sin embargo, establece firmemente la importancia crítica del abastecimiento de esos datos de capacitación. El fallo no abordó si los resultados reales generados por un modelo de IA infringen los derechos de autor, una pregunta separada pero igualmente importante que se debate en otras demandas en toda la industria.

En última instancia, este fallo subraya el paisaje legal en evolución que rodea la IA. Ofrece a las compañías de IA un camino más claro para capacitar a sus modelos, pero enfatiza la necesidad de una adquisición cuidadosa y legal de sus datos de capacitación.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *