Aparentemente, Millones de Redditors estaban siendo incluidos en un experimento artificial secreto. Los investigadores no obtuvieron Conocimiento o consentimiento de Redditors para este experimento. Un hilo sobre Reddit recientemente expuso este experimento, y ha desencadenado la indignación en Internet y reavivó un debate bastante feroz sobre la ética de la IA, el consentimiento de datos y las responsabilidades de los investigadores tecnológicos.
Este estudio fue realizado por investigadores de Stanford y la Universidad de Pensilvania. Que usó Reddit como un campo de pruebas en vivo para evaluar cómo Contenido generado por IA influiría en los usuarios reales. Hubo más de 47 millones de publicaciones y comentarios analizados en este estudio y las respuestas generadas por IA fueron inyectadas en secreto en Hilos Reddit para observar cómo los usuarios interactuaron con ellos.
Para sorpresa de nadie, hay mucha reacción sobre este experimento, con los críticos alegando que representa una incumplimiento claro de los estándares éticos, particularmente en torno al consentimiento informado y la autonomía del usuario.
«Experimento inadecuado y altamente poco ético que está profundamente incorrecto tanto en un nivel moral como legal».
-Ben Lee, director legal de Reddit
Esta es una situación compleja debido al área gris entre los datos públicos y el uso ético de la IA
Hemos estado informando durante meses, cómo las empresas de IA están utilizando todo lo que se publica en cualquier lugar de Internet, para capacitar a sus chatbots. Incluyendo robar contenido de sitios como este. Y eso es parte de lo que hace que esta sea una situación compleja.
Verá, hay datos de IA éticos que se pueden usar, pero también hay datos públicos, de los cuales se consideran las publicaciones de Reddit. Sin embargo, esto no significa que los Redditors hayan consentido ser parte de un experimento de comportamiento. Particularmente no uno que involucre la manipulación generada por AI.
Los investigadores de este estudio tienen emitió una declaración y también proporcionó una descripción de la investigación:
En los últimos meses, utilizamos múltiples cuentas para publicaciones publicadas en CMV. Nuestro experimento evaluó la persuasión de LLM en un escenario ético, donde las personas piden argumentos contra las opiniones que poseen. Al comentar, no revelamos que una IA se usó para escribir comentarios, ya que esto habría hecho que el estudio no sea inviable. Si bien no escribimos ningún comentario nosotros mismos, revisamos manualmente cada comentario publicado para asegurarnos de que no fueran dañinos.
Reconocemos que nuestro experimento rompió las reglas de la comunidad contra los comentarios generados por la IA y me disculpó. Creemos, sin embargo, que dada la alta importancia social de este tema, fue crucial realizar un estudio de este tipo, incluso si eso significaba desobedecer las reglas.
Este grupo de investigadores solicitó permanecer en el anonimato. También hemos aprendido que las cuentas creadas para publicar este contenido generado por IA se hacían pasar por víctimas de violación, consejeros de trauma especializados en abuso, un hombre negro opuesto a Black Lives Matter, entre otras personas. Todas estas cuentas han sido suspendidas, y muchos de los comentarios han sido eliminados de Reddit.
«Esta es una de las peores violaciones de la ética de investigación que he visto».
-Casey Fiesler, un científico de información de la Universidad de Colorado
Fiesler pasó a estado en bluesky que «Manipular a las personas en las comunidades en línea utilizando el engaño, sin consentimiento, no es ‘bajo riesgo’ y, como lo demuestra el discurso en esta publicación de Reddit, resultó en daños».
Como esperaban, el tema principal en el Hilo de reddit sobre estose trata de confianza.
Fuente: Android Headlines