La IA podría haber generado una ley anti-deepfake

De vez en cuando, el tecnología La industria nos deja noticias divertidas por lo surrealistas que son. Actualmente, inteligencia artificialLos desarrollos basados ​​en tecnologías son bastante frecuentes en nuestra vida diaria. Entonces, era solo cuestión de tiempo antes de que surgiera algo relacionado. Una ley de Minnesota que ataca el contenido realista generado por IA, también conocido como “deepfakes”, podría haber sido escrita por una IA.

Una IA podría haber escrito la “ley anti-deepfake” de Minnesota

La ley en cuestión se titula “Uso de tecnología profundamente falsa para influir en una elección.” Irónicamente, se le cuestiona por mostrar rastros de IA generativa en su contenido. El recurso no menciona la redacción de párrafos con AI. Sin embargo, hay citas de estudios que en realidad no existen.

Es posible que los estudios mencionados sean el resultado de las alucinaciones de la plataforma de IA. En inteligencia artificial, las “alucinaciones” son segmentos de información incorrecta o directamente “inventados” por el servicio. chatbot de IA Los desarrolladores trabajan arduamente para reducirlos al mínimo a fin de ofrecer el resultado más preciso posible. Sin embargo, un pequeño porcentaje de respuestas inexactas todavía se deben a alucinaciones.

Las citas de fuentes inexistentes podrían ser producto de alucinaciones de IA

Según lo informado por El reformador de Minnesotael juez del caso, el general Keith Ellison, pidió a Jeff Hancock, director fundador del Stanford Social Media Lab, que se sometiera a la ley. Sin embargo, pronto se hizo evidente que entre las citas había estudios inexistentes. El documento cita estudios como “La influencia de los vídeos deepfake en las actitudes y el comportamiento políticos”de la Revista de Política y Tecnología de la Información. No hay constancia de tal estudio.

Otra cita, “Deepfakes y la ilusión de autenticidad: procesos cognitivos detrás de la aceptación de la desinformación”, tampoco existe. “La cita tiene el sello de ser una ‘alucinación’ de inteligencia artificial (IA), lo que sugiere que al menos la cita fue generada por un modelo de lenguaje grande como ChatGPT.» discutir abogados para Mary Franson, representante del estado de Minnesota, y el Sr. Reagan, un YouTuber conservador.

Los demandantes no saben cómo esta alucinación terminó en la declaración de Hancock, pero cuestiona todo el documento, especialmente cuando gran parte del comentario no contiene metodología ni lógica analítica alguna.”, dice la apelación a la ley.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *