OpenAI está investigando el uso de marcas de agua en textos generados por ChatGPT, un método que podría detectar redacciones escritas por el modelo y exponer así, por ejemplo, a los estudiantes que hagan trampas. Aunque un informe de The Wall Street Journal sugiere que la herramienta está lista, la compañía aún no la ha lanzado debido a debates internos sobre su implementación. En una actualización reciente de su blog, OpenAI explicó que ha desarrollado un método de marca de agua, pero continúa investigando alternativas. OpenAI ha considerado varias soluciones para la procedencia del texto, incluyendo clasificadores y metadatos. Aunque el método de marca de agua ha demostrado ser muy preciso en algunas situaciones, no es tan efectivo cuando se enfrenta a manipulaciones como el uso de sistemas de traducción, reformulaciones con otro modelo generativo o la inserción y eliminación de caracteres especiales. Además, OpenAI reconoció que esta técnica podría afectar desproporcionadamente a ciertos grupos, como los hablantes no nativos de inglés, estigmatizando el uso de IA como herramienta útil de escritura. La compañía está sopesando estos riesgos y ha dado prioridad a las herramientas de autenticación para contenido audiovisual. En una declaración a TechCrunch, un portavoz de OpenAI dijo que la empresa está adoptando un enfoque deliberado hacia la procedencia del texto debido a las complejidades involucradas y su probable impacto en el ecosistema más amplio, más allá de OpenAI.
Fuente: HTCMania