Operai dice que la orden judicial para guardar los chats de chatgpt es una ‘pesadilla’

El mundo de inteligencia artificial rara vez es aburrido. Un desarrollo reciente que involucra a Openai y The New York Times está demostrando exactamente eso. OpenAi, el creador de ChatgptActualmente está bloqueada en una lucha legal que podría tener implicaciones significativas para la privacidad del usuario y cómo las empresas de IA manejan nuestros datos. En el corazón de todo hay una orden judicial que exige que la compañía guarde los registros de cada conversación de ChatGPT indefinidamente.

Orden de la corte de apelaciones de Openai que obliga a la compañía a ahorrar registros de chat de Chatgpt

La historia de fondo comienza en diciembre de 2023. Ese año, el New York Times presentó una demanda por infracción de derechos de autor contra Openai y Microsoft. El periódico alega que Operai usó ilegalmente millones de sus artículos con derechos de autor para capacitar a sus modelos de IA. Crucialmente, el Times afirma que el chatbot ai A veces regurgita los trozos literales de su contenido o incluso «alucina» los artículos atribuidos a ellos. Esta práctica habría socavado el negocio de la salida, según la demanda.

Para rastrear estas presuntas violaciones, el tribunal emitió una orden de barrido: OpenAI debe guardar todos los registros de chat de usuario de ChatGPT y el contenido del cliente API indefinidamente. ¿El razonamiento del juez? Para evitar cualquier posible eliminación de evidencia.

Razones dadas por Openai

Este fallo no ha bajado bien con Operai, que ahora es apelando la decisión. Sus argumentos contra la retención de datos indefinido son fuerte y multifacético.

En primer lugar, Openai sostiene que esta orden es una gran violación de la privacidad del usuario. Argumentan que obligarlos a almacenar indefinidamente grandes cantidades de datos de chat personales y potencialmente sensibles entra directamente con sus compromisos de privacidad con los usuarios. El CEO de Operai ha declarado públicamente que esta decisión «compromete la privacidad del usuario y establece un mal precedente«Para la industria. Sam Altman enfatiza que el orden es»demasiado amplio«Y carece de salvaguardas suficientes para proteger la información del usuario del mal uso potencial.

En segundo lugar, la compañía destaca la desproporcionada técnico y carga logística que impondría esta orden. Imagine el gran volumen de datos involucrados en cada conversación de ChatGPT a nivel mundial, almacenado para siempre. Operai afirma que administrar y almacenar conjuntos de datos tan masivos sería un desafío importante. La tarea Titanic podría eliminar los recursos cruciales de sus esfuerzos básicos de investigación y desarrollo. Incluso propusieron un enfoque de muestreo aleatorio para la preservación de datos, pero el New York Times lo consideró poco práctico.

Una demanda «sin fundamento», la compañía afirma

Además, Operai ve la demanda en sí como «sin fundamento». La firma considera que la demanda de preservación de datos es «barrido e innecesario», basada simplemente en la especulación. Argumentan que la retención de datos indefinida va en contra de las normas estándar de la industria. La medida potencial también va en contra de las propias políticas de Openai que generalmente implican la eliminación automática de los datos de chat dentro de un cierto período (por ejemplo, 30 días para los chats eliminados). Vale la pena señalar que este pedido se aplica a los usuarios de consumo CHATGPT (gratis, plus, Pro, Team) y API (sin acuerdos específicos de «retención de datos cero»). El fallo excluye a los clientes de ChatGPT Enterprise y EDU.

Este caso brilla en las complejidades evolucionadoras de la IA, los derechos de autor y la privacidad del usuario en la era digital. La apelación de OpenAI subraya su compromiso de desafiar lo que ven como una extralimitación que podría afectar las expectativas de privacidad fundamentales de los usuarios de IA en todas partes. Mantendremos nuestros ojos abiertos para nuevos desarrollos relevantes que surgen en este asunto.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *