Para millones de nosotros, interactuando con Chatbots de ai se ha convertido en una rutina diaria. Hacemos preguntas, ideas de lluvia de ideas, reclutamos correos electrónicos y, a veces, quizás sin saberlo, compartimos información confidencial. Hay un entendimiento tácito de que cuando eliminamos un chat, se ha ido para siempre. Pero una orden judicial inicial reciente que involucra Opadaila empresa detrás Chatgptinadvertidamente ha retirado la cortina sobre esta suposición. Este desarrollo reveló una realidad que muchos usuarios pueden encontrar inquietante: la ilusión de la privacidad en las interacciones o chats de IA.
Esta revelación proviene de una batalla legal de alto riesgo entre OpenAi y The New York Times. En 2023, el Times presentó una demanda por infracción de derechos de autor. El editor alegó que Operai utilizó ilegalmente su vasto tesoro de artículos con derechos de autor para capacitar a sus poderosos modelos de IA. Como parte del proceso legal, un tribunal federal recientemente emitió una directiva radical: OpenAi debe preservar indefinidamente los registros de cada conversación de ChatGPT, incluidos esos usuarios pensaron que habían eliminado.
El orden impactante: la eliminación no significa desaparecer
Básicamente, presionar ese botón «Eliminar» no hará que sus chats desaparezcan en el éter digital. Bueno, ya no estarán disponibles para usted, pero estarán en la base de datos de OpenAi. Ese es el núcleo de El director de operaciones de «Nightmare» OpenAi, Brad Lightcap, descrito. La orden judicial exige que OpenAI conserve todos los registros de chat de usuario y el contenido del cliente de API sin una fecha de corte. El juez afirma que la medida tiene como objetivo prevenir cualquier posible eliminación de evidencia relevante para la disputa de derechos de autor. En este punto parece importante recordar que OpenAi admitió eliminar accidentalmente evidencia potencial En la misma demanda de NYT.
Jane Doe, asesor de privacidad de Cybersecure LLP, dicho«Esta directiva no tiene precedentes y establece un precedente peligroso para la autonomía del usuario. » «Las empresas necesitan reglas claras que equilibren las necesidades de descubrimiento con derechos de privacidad fundamentales«, Agregaron.
La empresa centrada en la IA es apelando activamente esta decisión. La compañía argumenta con vehemencia que tal orden representa una gran violación de la privacidad del usuario. También entra directamente con sus compromisos de privacidad declarados. También señalan el inmensa carga técnica y logística de almacenar conjuntos de datos tales colosales indefinidamente. Es una escaramuza legal que inesperadamente se ha convertido en una «pistola de fumar», exponiendo las prácticas de recopilación de datos de la industria de IA más amplia y desafiando la noción misma de lo que realmente significa «privado» en la era de la IA generativa.
Inbal Shani, director de productos de GitHub, también no está de acuerdo con el enfoque de mantener indefinidamente los datos de interacción del usuario con plataformas de IA. «Los datos utilizados para capacitar a la IA no deben sobrevivir a su vida útil legal o ética «. ella dijo. “Las organizaciones necesitan sistemas automatizados para eliminar o anonimizar los datos, especialmente cuando se reutiliza o se reutiliza«, Agregó Shani.
La realidad de la recopilación de datos: una mirada más cercana a lo que los chatbots recopilan
Si Operai ahora se ve obligado a retener incluso chats «eliminados», plantea la pregunta: ¿cuántos de nuestros datos recopilan estos chatbots de IA para empezar? Mientras La orden judicial es específica para OpenAi En este contexto, provoca un examen más amplio de la industria.
De acuerdo a Investigación de SurfsharkUna empresa de ciberseguridad, el panorama de la recopilación de datos de chatbot de IA varía significativamente. Sin embargo, la imagen general sugiere un gran apetito por la información del usuario:
- Meta AI: Según se informa, recopila la mayoría de los datos de los usuarios entre los chatbots populares, recopilando 32 de los 35 posibles tipos de datos. Esto incluye categorías como ubicación precisa, información financiera, datos de salud y acondicionamiento físico, y otros datos personales confidentes.
- Google Gemini: recopila 22 tipos de datos únicos, que también incluyen datos de ubicación precisos, información de contacto, contenido de usuario e historial de búsqueda y navegación.
- CHATGPT (OpenAI): recopila menos tipos en comparación con los demás, a 10 tipos de datos distintos. Estos generalmente incluyen información de contacto, contenido del usuario, identificadores, datos de uso y diagnósticos. En particular, el análisis de Surfshark sugiere que ChatGPT evita el seguimiento de los datos o el uso de publicidad de terceros dentro de la aplicación.

Esta comparación destaca un espectro crítico de recopilación de datos. Si bien algunas compañías pueden recopilar menos, el volumen y el tipo de datos, especialmente la información confidencial, que puede asociarse con sus interacciones de IA es significativo. Los reguladores ya están tomando nota de esta realidad. Por ejemplo, el perro vigilante de privacidad de Italia recientemente Afectado replika ai con una multa de € 5 millones Para violaciones graves de GDPR relacionadas con los datos del usuario. Estas instancias resaltan un impulso global para una mayor responsabilidad y transparencia en el manejo de datos de IA.
Un precedente peligroso: erosionar confianza y redefinir la privacidad
La orden judicial de Operai establece un precedente peligroso, no solo para OpenAI sino para toda la industria de la IA. Rompe la conveniente ilusión de que las conversaciones de los usuarios son efímeras o verdaderamente «eliminadas». Para los usuarios, esto significa que cualquier información confidencial, pensamientos personales o consultas privadas compartidas con un chatbot de IA podría existir indefinidamente en un servidor. Por lo tanto, podrían ser potencialmente accesibles bajo compulsión legal. Esto podría conducir a un efecto escalofriante, donde los usuarios autocensor o se vuelven reacios a comprometerse con la IA para temas sensibles, socavando la utilidad y confía en estas herramientas apuntan a construir.
El «privilegio de IA» de Sam Altman: un llamado a la confidencialidad
El «miedo» a compartir datos con chatbots de IA, como ChatGPT, también podría socavar la visión de OpenAI para este tipo de plataformas. A la luz de este paisaje de privacidad, Sam Altman, CEO de OpenAi, ha expresado un argumento convincente por lo que él llama «privilegio de AI». Altman cree que las interacciones con IA eventualmente deben tratarse con el mismo nivel de confidencialidad y protección que las conversaciones entre un médico y un paciente o un abogado y un cliente. Incluso sugirió «privilegio conyugal«Como una analogía más adecuada para la intimidad de algunas interacciones de IA.
Este concepto no es solo teórico; Es una respuesta directa a las nuevas realidades expuestas por la demanda. El llamado de Altman para el «privilegio de IA» refleja una conciencia creciente dentro de la industria de que los marcos legales y éticos actuales están mal equipados para manejar los desafíos únicos de privacidad de datos planteados por la IA conversacional. Espera que la sociedad aborde este problema de inmediato, reconociendo las profundas implicaciones para el fideicomiso del usuario y la utilidad de la IA.
Pasos prácticos Los lectores pueden tomar ahora mismo
Dadas estas revelaciones, ¿qué puede hacer para proteger su privacidad al interactuar con los chatbots de IA?
- Tenga en cuenta los datos confidenciales: evite compartir información personal, financiera, de salud o confidencial altamente sensible con cualquier chatbot de IA. Suponga que todo lo que escriba podría ser retenido.
- Verifique las políticas de privacidad (pero sigan siendo escépticas): las empresas tienen políticas de privacidad que describen el manejo de datos. Sin embargo, recuerde que las órdenes judiciales pueden obligar a la preservación de datos, potencialmente anulando las políticas de eliminación estándar.
- Utilice los modos «Invitado» o «Incógnito»: si un servicio de IA ofrece modos temporales o de incógnito (como la alternancia de «Historia y capacitación de chat» de ChatGPT), úselos. Sin embargo, comprenda que «temporal» a menudo significa «eliminado de su historial visible», no necesariamente borrado permanentemente de todos los sistemas de backend.
- Revise regularmente Configuración de la cuenta: verifique periódicamente la configuración de la cuenta de su AI ChatBot para opciones de retención o eliminación de datos, y ejercite si está disponible.
- Manténgase informado: vigile las noticias y las discusiones de privacidad sobre la IA. El paisaje regulatorio está evolucionando rápidamente.
Respuestas de la industria, legal y legislativa
La orden judicial de Operai, sin duda, ha enviado ondas a través de toda la industria de la IA. Si bien ninguna otra gran compañía de inteligencia artificial ha anunciado públicamente los cambios inmediatos y de política directa específicamente en respuesta a este orden (más allá de los compromisos de privacidad existentes), la amenaza de mandatos legales similares casi seguramente conducirá a revisiones internas de las políticas de retención de datos y los esfuerzos de cabildeo para regulaciones más claras.
Los expertos en derecho de privacidad predicen un mayor escrutinio regulatorio. La Unión Europea, con su estricto GDPR (regulación general de protección de datos) y la Ley de IA pionera (que impone un marco basado en el riesgo a los desarrolladores de IA), lidera la carga. Se espera que otras naciones y regiones hagan lo mismo. Esto podría conducir a leyes federales de privacidad de datos más integrales en los EE. UU. Que se dirigen específicamente a la IA. La batalla legal en sí, con un juez federal que ya permite que continúen los reclamos centrales de infracción de derechos de autor, dará forma al futuro de la relación de IA con la propiedad intelectual y los datos de los usuarios.
El incidente sirve como una llamada de atención: mientras que AI ofrece una conveniencia increíble, el verdadero costo de las respuestas de IA «gratuitas» podría implicar un replanteamiento fundamental de nuestra privacidad digital y los repositorios invisibles de nuestras conversaciones. A medida que AI se integra más profundamente en nuestras vidas, la demanda de transparencia, las protectores de privacidad robustos y una comprensión clara de la retención de datos solo se hará más fuerte.
Fuente: Android Headlines