Hizo YouTube ¿El CEO Neal Mohan realmente le envía un video privado sobre la monetización? Si es así, no se sienta halagado, sospeche. YouTube es advertencia Creadores sobre una nueva estafa de phishing con IA que se hace pasar por su CEO.
Una expedición de video de phishing de YouTube
YouTube dice que es «consciente de que los phishers han estado compartiendo videos privados para enviar videos falsos, incluido un video generado por la IA del CEO de YouTube, Neal Mohan, anunciando cambios en la monetización».
La compañía deja en claro que sus empleados nunca intentarán contactarlo para compartir información a través de un video privado. YouTube también advierte que cualquier video compartido con usted en privado que afirma ser de YouTube es una estafa de phishing. También advierte a los usuarios que no haga clic en cualquier enlace. Esto puede llevar a los usuarios a sitios que instalan malware en sus dispositivos o roban sus credenciales.
Esta no es la primera vez que los creadores de YouTube se encuentran con estafas de phishing. Usuarios de Reddit están compartiendo experiencias similares donde recibieron correos electrónicos de una cuenta llamada «Notificación para los creadores de YouTube». Compartió un video privado con ellos, junto con instrucciones para descargar un archivo malicioso. Otro incidente fue cuando un usuario recibió un video privado de «Channel for Creators», que les pidió que aceptaran una nueva política de monetización llevándolos a un sitio falso de docusign. Lo que preocupa es que estos correos electrónicos provienen de [email protected].
El surgimiento de Deepfake
En el pasado, los atacantes confiaron en sitios web y correos electrónicos de diseño inteligente para hacerse pasar por un individuo u organización. Ahora, gracias a la tecnología de IA y al surgimiento de Videos de Deepfakecomo el del CEO de YouTube, Neal Mohan, los atacantes están desafiando la noción de «ver es creer».
Los videos de AI y Deepfake tienen sus usos. Al igual que las herramientas, estas tecnologías no son buenas ni malas, así es como se usan. Por ejemplo, los videos de Deepfake y la IA se pueden combinar para brindar consuelo a un padre o cónyuge en duelo, permitiéndoles «hablar» con su hijo o pareja nuevamente.
Es útil en campañas de marketing o publicidad para empresas con bajo presupuesto. Permite a estas compañías juntar un video improvisado en un presupuesto reducido en minutos. Sin embargo, es difícil negar que el potencial de mal uso es alto. A medida que el crecimiento de la IA se acelera, las empresas deben ponerse al día e introducir mejor Herramientas de detección de Deepfake.
Fuente: Android Headlines