Hace unos días, el inteligencia artificial El segmento dejó caer una de las historias más curiosas que han surgido últimamente. Aparentemente, los argumentos que respaldaban una ley “anti-IA” mostraban signos de haber sido generado por IA. Ahora, el principal defensor de la ley admitió haber utilizado ChatGPT en su expediente judicial.
Los antecedentes del desafío a la ley “anti-IA” de Minnesota
La ley, denominada “Uso de tecnología profundamente falsa para influir en una elección” y presentado en Minnesota, se enfrenta a un desafío. Jeff Hancock, director fundador del Stanford Social Media Lab y experto en desinformación, presentó una serie de argumentos a favor de la legislación. Para ser justos, la ley solo apunta a plataformas centradas en deepfake, no a la inteligencia artificial en su conjunto. Se dirige servicios de inteligencia artificial capaz de producir contenidos realistas que puedan causar confusión.
Christopher Khols, un YouTuber conservador, y Mary Franson, representante del estado de Minnesota, están impulsando el desafío a la ley. Detectaron ciertos patrones de uso de IA en la sección de citas de la presentación de Hancock. Más específicamente, la sección de citas de la presentación de Hancock contiene referencias a fuentes y estudios que no existen. Todas las pruebas sugerían que estas citas ficticias eran el resultado de alucinaciones de inteligencia artificial. Por lo tanto, el demandante solicitó la exclusión del documento del caso por no ser confiable.
El expediente judicial a favor de la ley tiene secciones generadas por ChatGPT
En respuesta, Jeff Hancock ha admitido que, de hecho, utilizó ChatGPT en su presentación judicial. Sin embargo, afirma que no utilizó el servicio de OpenAI para redactar sus argumentos. “Escribí y revisé el contenido de la declaración y respaldo firmemente cada una de las afirmaciones que en ella se hacen, todas las cuales están respaldadas por las investigaciones académicas más recientes en el campo y reflejan mi opinión como experto sobre el impacto de la tecnología de IA. sobre la desinformación y sus efectos sociales,”, afirmó.
Entonces, ¿por qué Hancock usó ChatGPT? De acuerdo a su última presentaciónutilizó ChatGPT para mejorar la sección de citas del documento. Afirma que utilizó el servicio de IA”Identificar artículos que probablemente fueran relevantes para la declaración para poder fusionar lo que ya sabía con nueva erudición..”
Hancock dice que no tenía intención de engañar al tribunal de ninguna manera y se disculpó “para cualquier confusión [the use of AI] puede haber causado.” Sin embargo, defiende todo el contenido del documento. Dicho esto, Hancock tiene un problema, ya que la detección de IA en una de las secciones del archivo podría hacer que el resto del contenido sea dudoso. Todo dependerá de cómo reciba el juez las explicaciones que le dé el experto en desinformación.
Fuente: Android Headlines