Apple entrena IA para aprender nuevos controles de gestos con las manos

Manzana Los investigadores han entrenado un sistema de inteligencia artificial para reconocer gestos con las manos que nunca antes había visto. La investigación explora cómo inteligencia artificial Puede interpretar la actividad eléctrica generada por los músculos y traducirla en comandos digitales. En el estudio, los expertos combinaron datos de electromiografía con información de movimiento con el objetivo de mejorar el control de gestos de los dispositivos. Si todo va bien, pronto podríamos ver la herramienta presente en dispositivos portátiles, sistemas de realidad aumentada y herramientas de accesibilidad.

Apple presenta EMBridge, un marco de inteligencia artificial entrenado para interpretar gestos con las manos

Apple explicó recientemente cómo entrenó a un Modelo de IA para interpretar señales musculares y asignarlos a gestos manuales específicos. La investigación introduce un marco llamado EMPuente. Está diseñado para conectar dos tipos diferentes de datos: señales de electromiografía producidas por los músculos y representaciones digitales de la postura de la mano. El sistema aprende patrones que vinculan el movimiento físico con el reconocimiento de gestos combinando información de estas señales.

El marco permite que el sistema detecte gestos incluso si no se incluyeron durante su entrenamiento original. Esta es una capacidad que los investigadores llaman “reconocimiento de disparo cero”.

Los expertos han utilizado grandes conjuntos de datos que contienen grabaciones EMG sincronizadas y capturas detalladas del movimiento de la mano humana. Un conjunto de datos incluía cientos de horas de grabaciones de muchos participantes realizando gestos cotidianos como cerrar el puño o contar con los dedos. Por otro lado, el segundo conjunto de datos ayudó a entrenar el modelo con decenas de tipos de gestos registrados a través de electrodos en el antebrazo. Esto permitió a la IA aprender cómo la actividad muscular se corresponde con el movimiento de la mano.

La función pronto podría llegar a los rastreadores de actividad física y otros dispositivos portátiles.

Es un concepto muy interesante y útil. En lugar de memorizar movimientos específicos, el sistema aprende las relaciones entre las señales musculares y las estructuras de las posturas de las manos. Esta tecnología podría influir en la forma en que los futuros dispositivos Apple interpreten la intervención humana. Un sensor de muñeca en un mirar o banda podría leer la actividad muscular EMG y traducirla en una actividad. En dispositivos de realidad aumentada o virtual, la tecnología se puede utilizar para permitir el control digital sin cámaras. Sin embargo, tenga en cuenta que el estudio no confirma los próximos productos, pero sí sugiere que Apple está explorando métodos de interacción basados ​​en IA para wearables y herramientas de accesibilidad.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *