Según se informa, el GPT-4o de OpenAI puede piratearse para lanzar estafas basadas en voz

En el mundo cada vez mayor inteligencia artificial-basadas en funciones, uno puede dejarse engañar fácilmente por fotos y videos falsos creados por herramientas de inteligencia artificial. Algunas de las herramientas más populares incluyen OpenAI. ChatGPT-4.0 o GPT-4o y Gemini de Google. La versión ChatGPT-4.0 es una de las herramientas más populares entre ellas. Puede generar fácilmente vídeos falsificados de una persona real. Ahora, los investigadores han sugerido que El GPT-4o de OpenAI se puede piratear fácilmente lanzar estafas basadas en voz para que las personas interpretar mal.

La versión GPT-4o de OpenAI puede ser pirateada mediante estafas basadas en voz, sugiere un nuevo informe

Según un informe de pitidocomputadorala versión ChatGPT-4o se puede piratear para lanzar estafas basadas en voz. Los investigadores han demostrado que es posible que la API de voz en tiempo real de OpenAI para ChatGPT-40 pueda piratearse para crear algunas estafas. Estos pueden tener tasas de éxito de bajas a moderadas, sugiere el informe. Vale la pena señalar que las estafas pirateadas de ChatGPT-40 se basan principalmente en una voz falsa.

Las estafas pirateadas de la versión GPT-40 ya pueden ser un «problema multimillonario», sugiere la fuente. Pueden utilizar la tecnología deepfake y las herramientas de conversión de texto a voz impulsadas por IA de ChatGPT para empeorar las cosas. Además, la fuente sugiere que estas herramientas se pueden utilizar para realizar y crear operaciones fraudulentas a gran escala sin esfuerzo humano.

Hablando con BleepingComputer, Abierto AI explicó que su último modelo, que actualmente se encuentra en versión preliminar, admite «razonamiento avanzado» y fue creado para detectar mejor este tipo de abusos: «Constantemente estamos mejorando ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad o creatividad. ”, dijo el portavoz de la empresa a la publicación.

El último modelo de OpenAI cuenta con un agente de IA habilitado por voz y puede usarse para crear estafas.

En particular, el último modelo de OpenAI, que ofrece un agente de inteligencia artificial basado en voz, se puede utilizar para crear algunas estafas utilizando esta tecnología. En particular, la última versión de ChatGPT tiene algunas salvaguardias contra el abuso de sus herramientas de alguna manera. Además, algunos piratas informáticos lograron piratearlo para crear herramientas de vulnerabilidad, sugiere la fuente. En particular, la tasa de éxito de estas estafas varía de una aplicación a otra, como el robo de credenciales de Gmail.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *