Los restaurantes llaman a Google AI para ofertas y especiales falsos

Para cualquiera que se confíe en la IA para buscar información, ya sea para uso personal o profesional, sepa que la IA puede alucinar. Esto significa que a veces la información que le brinda podría estar equivocada o simplemente inventada por completo. Esta es también la razón por la que es importante verificar antes de tomar lo que dice AI como evangelio. Desafortunadamente, no todos lo hacen, por lo que los restaurantes llaman a Google AI sobre ofertas de restaurantes falsos.

Google ai dando ofertas de restaurantes falsos

Estamos seguros de que algunos de ustedes han encontrado publicaciones en Facebook, Instagram, hilos o X/Twitter de los llamados «expertos rápidos». Estas publicaciones a menudo afirman que el uso de herramientas de IA como ChatGPT les ha ahorrado «miles de dólares» en vuelos, hoteles y más. Supuestamente, esto se hace usando AI para buscar la web en busca de ofertas.

Es por eso que algunos dueños de negocios ahora están llamando Google y es AI para proporcionar información falsa a los clientes sobre ofertas y especiales de restaurantes. Stefanina’s Pizzeria en Wentzville Hice una publicación en las redes sociales para señalar el problema.

Según el Post, «Por favor, no use Google AI para averiguar nuestros especiales. Vaya a nuestra página de Facebook o a nuestro sitio web. Google AI no es precisa y le dice a las personas especiales que no existen, lo que está causando que los clientes enojados griten a nuestros empleados. No podemos controlar lo que Google publica o dice, y no honraremos a los especiales de Google AI».

En declaraciones a Kmov, Jonathan Hanahan, un profesor de la Universidad de Washington que usa y enseña inteligencia artificial, dice que a veces estas inexactitudes aparecen como resultado del aviso. Esto puede dar lugar a información sesgada o tiene un sesgo de confirmación.

No es la primera vez que esto ha sucedido

Los comentarios de Hanahan están en realidad. También se alinea con un estudio reciente de Oxford, que encontró que las herramientas de IA son en realidad excelente para proporcionar diagnósticos médicos. Sin embargo, cuando se combina con usuarios humanos, esa precisión cae considerablemente. Va de 94.9% a un preocupante 34.5%. Resulta que esto tiene que ver con cómo los humanos indican e interactúan con el modelo AI.

Los modelos de IA en realidad pueden proporcionar un diagnóstico preciso, pero debido a que los usuarios humanos a veces dejan de lado bits de información, no le da a la IA la imagen completa, lo que lleva a un diagnóstico inexacto. Este podría ser uno de los problemas que enfrentan los usuarios al confiar en herramientas de IA como Descripción general de la IA de Google.

En cualquier caso, esto es un caso fuerte de no depender demasiado de la IA, así como siempre verificar la información antes de asumir algo.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *