Cómo la IA está reescribiendo la realidad (y cómo defenderse)

El inteligencia artificial Boom tomó la industria tecnológica por sorpresa. La implementación de la IA dio como resultado numerosos resultados positivos, como avances significativos en tecnologías clave y el desarrollo de herramientas impresionantes que antes parecían imposibles. Sin embargo, también trajo algunos desafíos que, años más tarde, todavía se buscan abordar correctamente. Métodos de estafa o engaños basados ​​en defectos profundos con IA ocupan un lugar privilegiado en la lista de los más preocupantes.

Una de las principales virtudes de la IA es la que, a su vez, también ha creado uno de los mayores inconvenientes. Estamos hablando del impulso al ritmo de desarrollo en la industria tecnológica. Si bien esto es positivo para la industria en sí misma, ha puesto a los reguladores en un vínculo. Las mismas compañías de IA también se han visto al día en el problema, ya que no todas tienen herramientas que les permitan identificar con precisión cuándo un archivo es un defake profundo y notifica al usuario.

¿Qué es un defake profundo?

Tal vez todavía no tenga todo claro qué es un defake profundo. Básicamente, es el contenido generado por los modelos de IA donde la cara o el cuerpo de una persona se alteran digitalmente, generalmente superponiéndolo en el de otra persona. De esta manera, la víctima parece involucrada en situaciones en las que nunca estuvieron. Esto también se aplica a los archivos de audio donde los actores maliciosos «clonan» la voz de alguien para hacer que digan lo que quieran.

En las manos correctas, este tipo de herramientas son bastante útiles y le permiten explotar su creatividad al máximo. Sin embargo, a medida que los profundos de IA se han vuelto cada vez más realistas, los actores maliciosos han comenzado a usarlos para sus estafas.

Inicialmente, hubo errores obvios en las imágenes generadas por IA, haciéndolas fáciles de identificar con el ojo humano. Solo tenías que mirar cosas como los dedos; Sí, dibujar manos es difícil incluso para los poderosos AIS. Sin embargo, a medida que los modelos de IA generativos han evolucionado, la salida se ha vuelto cada vez más realista. Hoy, muchas imágenes generadas por IA son indistinguibles de la realidad. De hecho, podríamos decir que puede identificar más fácilmente las obras de arte generadas por IA que una imagen o video fotorrealista generado por IA.

Las herramientas de DeepFake ahora están disponibles para todos, para bien y para mal

Como si eso no fuera suficiente, las empresas no están satisfechas con solo herramientas de generación de imágenes. En los últimos años, incluso hemos visto modelos de video de video con resultados impresionantes. Este mes, el bytedance, la compañía parente de Tiktok, lanzaron un modelo de video generación de AI con los resultados más realistas que hemos visto. El modelo, llamado Omnihuman-1, promete un video profundo hasta 10 veces mejor que antes. Estamos hablando de un increíble salto generacional en calidad, y veremos cosas como esta cada año. A continuación, puede ver un pequeño ejemplo de lo que es capaz Omnihuman-1.

Los defectos profundos y la democratización de la herramienta de IA han llevado a más personas a usar estas plataformas. Los estudiantes pueden encontrarlos útiles para obtener imágenes complementarias para proyectos o presentaciones. Los artistas pueden inspirarse para comenzar a trabajar. Puedes generar una imagen solo para divertirte con amigos también.

Pero, ¿qué sucede cuando los actores maliciosos entran en juego? Engaño, manipulación, extorsión … básicamente todas las formas de estafas que ya existían, pero que se hicieron mucho más fáciles por AI Deepfakes.

Incidentes relacionados con intentos de estafa de Deepfake con IA

Ha habido innumerables casos de estafas en múltiples contextos donde los defectos de IA han sido los protagonistas. SEMPLE.AI tiene una gran base de datos de incidentes relacionado con el uso de IA generativa. Entre los casos más recientes se encuentran la promoción de acciones o activos criptográficos utilizando la cara y la voz del inversor Vijay Kedia. También es muy común usar la imagen de Elon Musk en videos donde supuestamente promueve una criptomoneda. Prácticamente todos los canales pirateados de YouTube muestran el mismo video con «Elon Musk» tratando de estafar a las personas solicitando dinero o criptos.

Otro riesgo importante relacionado con Deepfakes son los casos potenciales de sextortion. Esta es una práctica en la que terceros maliciosos crean desnudos falsos para tratar de chantajear a las personas amenazando con difundirlas públicamente o enviarlas a sus familias. Los adolescentes suelen ser el objetivo principal de estas situaciones, ya que es más probable que interactúen con extraños en las redes sociales. Las plataformas como Instagram han tomado medidas para tratar de detener este tipo de interacción. Sin embargo, la exposición del adolescente comienza en el momento en que deciden charlar con un extraño en las redes sociales.

También hay quienes usan Deepfakes para tratar de manipular la opinión pública. Estos casos generalmente tienen orígenes múltiples, aunque a menudo derivan de la esfera política. Por ejemplo, los malos actores pueden manipular videos para fomentar la votación a favor o en contra de un candidato en una elección. Estos videos pueden tratar de hacer que un candidato en particular se vea mal o, por el contrario, hacer que se vean extremadamente bien a los ojos de las personas.

El clásico profundo de Elon Musk en los canales de YouTube pirateados (Fuente: BBC)

Del mismo modo, hay casos en los que las personas usan imágenes o videos profundos como una herramienta para difundir el odio. Hay casos de multimedia manipulada para tratar de crear aversión contra una comunidad o grupo en particular. Estos videos pueden mostrar a las personas que dicen algo que nunca dijeron o haciendo cosas que nunca hicieron.

La suplantación es otra posibilidad en la era de la IA gracias al poder de Deepfake. SEMPLAR.AI enumera un caso desde mediados de febrero donde los estafadores se hicieron pasar por los titulares de reclamos legítimos. Las herramientas de IA les permitieron crear videos realistas que se hacen pasar por otros, lo que les permite robar alrededor de $ 5.6 millones en activos. En este caso, los estafadores también tenían algunos datos personales de las víctimas, probablemente obtenidas a través de la ingeniería social. Por lo tanto, este escenario combina el riesgo de fallas profundas con la necesidad de salvaguardar toda su información personal.

La gente busca cada vez más formas de detectar deffakes

Hay innumerables casos de profundos que se utilizan para tratar de engañar, estafar o amenazar. Por lo tanto, las personas deben ser cada vez más cautelosas sobre el contenido multimedia que ven en Internet. De hecho, la creciente preocupación ya se está reflejando en las estadísticas. Búsquedas en línea relacionadas con «Imágenes de DeepfakeAumentó un 15% en todo el mundo en 2024. Los picos ocurrieron justo después de que surgieron noticias sobre engaños o estafas que usan videos o imágenes con AI. Algunos de los términos de búsqueda relacionados más populares fueron «Cómo detectar imágenes de Deepfake» y «Imágenes generadas por Real vs. AI. » Entonces, la creciente preocupación entre las personas es real.

Es probable que los intentos de engaños o estafas basados ​​en los defensores de IA solo aumenten a partir de ahora. Hoy en día, incluso los teléfonos inteligentes tienen aplicaciones que permiten generar este tipo de contenido. Además, el teléfono inteligente en sí es un dispositivo que facilita la difusión de videos o imágenes manipuladas. Esto lo convierte en una espada de doble filo en la era de la inteligencia artificial.

AI Deepfakes Scam Smartphones

Incluso podrías actuar como un «mal actor», sin ser realmente uno, sinbosamente. No es necesario que sea el que cree un archivo particular de DeepFake. Todo lo que necesita hacer es recibir una imagen, video o audio manipulado y compartirla con sus contactos o en sus redes sociales como si fuera real. A menudo no es 100% su culpa, ya que, como dijimos antes, el contenido de Deepfake puede ser extremadamente realista.

Para evitar los casos en que actúe como un «diseminador de defake» sin saberlo o caer en posibles estafas promovidas por malos actores, lo que incluso podría poner en riesgo su seguridad, las empresas centradas en AI deben actuar. Después de todo, ofrecen las herramientas para crear este tipo de contenido. Por lo tanto, también tienen la responsabilidad intrínseca de facilitar formas de detectarlo.

«Credenciales de contenido» y «Synthid» buscan aumentar la transparencia en la era de la IA generativa

La industria tecnológica no se ha mantenido estática frente a esta situación. Los crecientes incidentes indeseables relacionados con los profundos condujeron al nacimiento de la coalición para la procedencia y la autenticidad del contenido (C2PA). De este comité en cuestión nació «credenciales de contenido», un estándar que busca transparencia en la era de la IA generativa. «Credenciales de contenido» básicamente integra e identifica metadatos específicos para las imágenes manipuladas con AI para identificarlas como tales.

Si bien esto suena simple y rápido de implementar, no ha sido hasta ahora. Esto se debe a que tanto los fabricantes de dispositivos como los desarrolladores de IA deben adoptar el estándar. Eso hace que el proceso sea lento, especialmente en comparación con el ritmo de la evolución de las capacidades de inteligencia artificial. El año pasado, Sony lanzó la cámara insignia Alpha 1 II con soporte para credenciales de contenido. El último Serie Samsung Galaxy S25 También es compatible con el estándar.

A mediados de septiembre de 2024, Google anunció su entrada al comité C2PA. El gigante de la vista de montaña contribuirá con sus recursos y experiencia para tratar de extender la gama de herramientas que facilitan la transparencia en la era de la IA. Google tiene «Synthid» como su propio sistema para identificar contenido editado utilizando herramientas con IA. De hecho, este mes, la compañía anunció que las fotos generadas a través de «Reimagine», la característica en la suite del editor de mágicas de Google Photos, contará con una marca de agua Synthid Ai. La «Marca de agua de AI» estará disponible en la sección «Información de AI» en los detalles de la foto/video.

Sección de información de Google Photos AI
Crédito de la imagen: Google

Dicho esto, Synthid es un estándar menos capaz que las credenciales de contenido. Actualmente, en la industria de los teléfonos inteligentes, Samsung ha tomado la iniciativa de transparencia con respecto a los profundos al integrar las credenciales de contenido de forma nativa. Ninguna otra marca de teléfono ha hecho esto hasta ahora, por lo que es un gran paso. Queda por ver si las credenciales de contenido llegarán a dispositivos Galaxy más antiguos a través de actualizaciones de software.

Consejos para evitar caer en una estafa de AI Deepfake

Si bien muchos profundos pueden ser indistinguibles de la realidad, hay algunos pasos que puede tomar por su cuenta para evitar ser víctimas de ellos. El primero es permanecer escéptico con el contenido de los medios que involucran figuras públicas. Si un actor promueve una criptomoneda falsa o un político se encuentra en una situación surrealista, su primera reacción debe ser dudar de la autenticidad del archivo.

Si el contenido supuestamente proviene de una figura pública en particular, consulte sus manijas de las redes sociales. A menudo, los videos de figuras públicas provienen de sus propias cuentas de redes sociales. Si no puede encontrar el contenido en sus cuentas de redes sociales, manténgase alerta. También debe habilitar las funciones de identificación de contenido de IA en su dispositivo y aplicaciones. Hay casos en los que estas herramientas están habilitadas de forma predeterminada, pero también otras donde no lo están.

AI generó una imagen de Trump y almizcle
Imagen totalmente generada por IA (por Grok 3)

Por último, también hay herramientas de detección de defake a las que puede recurrir. Si bien pueden fallar ocasionalmente, generalmente son bastante efectivos. Hay múltiples plataformas similares disponibles, tanto públicas como exclusivas de un sistema o hardware en particular. Escáner es uno que puede usar libremente por su cuenta de un navegador. Otros, como Duckduckgoose, Intel Fakecatcher y Reality Defender, están diseñados teniendo en cuenta las empresas.

En resumen, los profundos profundos con IA están aquí para quedarse, pero eso no es necesariamente algo malo. Las impresionantes capacidades de la inteligencia artificial también son muy útiles para aumentar la productividad, buscar inspiración adicional, optimizar el flujo de trabajo, ahorrar tiempo y desatar su creatividad. Sin embargo, debe conocer el contexto en el que estamos y estar más atento a cómo maneja el contenido que consumen en Internet.

Con suerte, los desarrolladores de IA y desarrolladores de herramientas de IA adoptarán estándares como credenciales de contenido. Esto sería de gran ayuda para el público en general, especialmente los menos expertos en tecnología.


Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *