La desinformación electoral generada por IA simplemente no puede alcanzar la viralidad

Estamos a sólo unas semanas de las elecciones presidenciales de Estados Unidos y la gente se está preparando para acudir a las urnas. Si bien la ansiedad aumenta por estas elecciones, también aumenta la desinformación. OpenAI publicó un artículo en el que afirma que, si bien muchas personas utilizan ChatGPT para difundir información errónea, el El contenido generado por IA simplemente no puede alcanzar la viralidad.

Si un árbol cae en el bosque, ¿emite algún sonido? Bueno, si alguien hace una publicación en las redes sociales y nadie interactúa con ella, ¿existe siquiera? Ésa es una pregunta importante. La cantidad de información errónea que se maneja va en aumento, ya que miles de personas están utilizando herramientas de inteligencia artificial como ChatGPT para generar publicaciones en redes sociales, publicaciones en blogs, imágenes, videos falsificados, etc. Internet se está inundando con este contenido, pero la sangre de la vida de cualquier campaña de desinformación es el compromiso. Si nadie ve las publicaciones que publican los estafadores, entonces no tendrá ninguna influencia.

Bueno, OpenAI afirmó que la información errónea generada por IA no está alcanzando la viralidad

Parece que la mayoría de estas publicaciones generadas por IA simplemente no obtienen muchos espectadores ni muchos clics. Abierto AIla empresa detrás ChatGPT y DALL-E, publicó un artículo de 57 páginas detallando algunos de sus hallazgos. El informe se centró principalmente en las elecciones en Estados Unidos, Ruanda e India.

Debido a la afluencia de generado por IA Debido a la desinformación que está sucediendo en Ruanda, el país de hecho prohibió ChatGPT por completo. No estamos seguros si esto es sólo hasta que terminen las elecciones o si es indefinido. Tendremos que ver si la desinformación realmente disminuirá debido a esto. En la India se están celebrando unas elecciones importantes, lo que significa que están preparadas para que la gente difunda información errónea. Según el periódico, un grupo israelí publicó una tonelada de publicaciones en las redes sociales dirigidas a las elecciones indias de mayo.

Europa tampoco estaba segura, ya que la gente generaba comentarios en las redes sociales sobre el Parlamento Europeo, las elecciones francesas y la política en Estados Unidos, Alemania, Polonia e Italia. Por último, no podemos olvidarnos de las elecciones estadounidenses. En agosto, hubo un grupo de individuos iraníes que publicaron “artículos extensos” difundiendo mentiras sobre las elecciones estadounidenses. Dado que estamos a menos de un mes de las elecciones, la cantidad de información errónea no hará más que aumentar.

El lado positivo: no fueron efectivos

OpenAI afirmó que pudo identificar todos estos casos. No sólo eso, sino que estas publicaciones no lograron atraer mucha atención. Si bien algunas personas interactuaron con estas publicaciones, ninguna logró lograr una participación viral.

Cuantas menos personas interactúen con ellos, menos tracción obtendrán en los algoritmos que los impulsan. Esas son buenas noticias, sin embargo, todavía necesitamos encontrar una manera de minimizar la información errónea generada por la IA.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *