Google Gemini para el hogar AI etiqueta a las mascotas como ciervos

El último intento de Google de integrar la IA generativa en nuestros espacios vitales, Gemini for Home, está generando titulares, pero quizás no del tipo que Google pretendía. La función, que se implementa como parte de la suscripción paga de Google Home, promete resúmenes diarios inteligentes e información de conversaciones a partir de las imágenes de su cámara Nest. Sin embargo, los primeros informes de los usuarios sugieren que el sistema Gemini para Google Home con frecuencia identifica erróneamente eventos domésticos comunes, incluso detectando erróneamente la presencia de ciervos o personas falsas, generando dudas sobre la precisión.

La nueva función utiliza el modelo Gemini AI para procesar videoclips, generar resúmenes y responder preguntas a través de un chatbot «Preguntar a casa». Según los informes, maneja bien tareas básicas como la creación de automatizaciones. Sin embargo, su capacidad de identificación por vídeo a veces resulta poco fiable, lo que genera algunas notificaciones realmente inquietantes.

Google Gemini for Home identifica erróneamente perros como ciervos, la precisión está en duda

Como señaló Ars Technica, el problema recurrente involucra a la IA que informa eventos ficticios. Un usuario fue alertado de que “inesperadamente, un ciervo entró brevemente en la sala familiar”. En ese momento, la cámara simplemente mirará a un perro. Este no es un error aislado; el sistema frecuentemente confunde perros y sombras con “ciervos”, “gatos” o incluso “una persona” que deambula por una habitación vacía.

Precisión de identificación errónea de Google Gemini for Home AI 1
Fuente: Ryan Whitwam (Ars Technica)

El problema es particularmente preocupante cuando Gemini etiqueta erróneamente eventos críticos para la seguridad. Una alerta de que «Se vio a una persona en la sala familiar» puede causar una alarma genuina, solo para que el usuario revise el feed y no encuentre absolutamente nada. Después de algunos falsos positivos, los usuarios aprenden rápidamente a desconfiar del sistema. Estas fallas anulan todo el propósito de un sistema de monitoreo de seguridad.

Google atribuye estos errores a la naturaleza de los grandes modelos de lenguaje. La firma explica que Gemini puede cometer “errores de inferencia” cuando carece de suficientes detalles visuales o de sentido común básico. De hecho, se dice que la IA es excelente para reconocer modelos y logotipos de automóviles. Sin embargo, lucha con el contexto simple y necesario que un observador humano nunca pasaría por alto.

La cuestión de la preparación para el lanzamiento.

Para que el sistema de monitoreo de seguridad sea realmente útil, estos errores inferenciales deberían disminuir bastante. Google está «invirtiendo mucho en mejorar la identificación precisa» y anima a los usuarios a corregir el modelo mediante comentarios. Sin embargo, al menos por ahora, la cuestión central persiste.

Precisión de identificación errónea de Google Gemini for Home AI
Fuente: Ryan Whitwam (Ars Technica)

Es sorprendente que Google decidiera lanzar una función premium que requiere tanta “mano de obra” para funcionar correctamente desde el primer momento. Gemini for Home es un producto nuevo y probablemente mejorará significativamente. La empresa debe recopilar más datos y perfeccionar el modelo. Sin embargo, lanzar una característica de seguridad que efectivamente avisa a los intrusos justo en el lanzamiento corre el riesgo de erosionar la confianza del usuario y hace que sea difícil justificar la tarifa de suscripción avanzada de $ 20 por mes. Los usuarios pueden encontrar la suscripción de $10 por mes, que ofrece menos historial de video pero evita las funciones poco confiables de IA, una apuesta mucho más inteligente por ahora.

la publicación Google Gemini para el hogar AI etiqueta a las mascotas como ciervos apareció primero en Titulares de Android.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *