Microsoft tiene una nueva herramienta de corrección de IA que intenta evitar que los modelos de IA generen contenido objetivamente incorrecto. En pocas palabras, Microsoft está implementando IA para detener o limitar la entrada de otra IA. arrojando basuraun fenómeno comúnmente conocido como Alucinaciones de IA.
La función «Corrección» de Microsoft intenta abordar las alucinaciones de la IA
Inteligencia Artificial Generativa (Generación de IA) ha sido testigo de una adopción fenomenal. Sin embargo, bastantes de estos chatbots de la Generación AI a menudo generan con confianza contenido que no es preciso.
Microsoft está intentando abordar las alucinaciones de la IA con su nueva función «Corrección». Se basa en el existente ‘Detección de conexión a tierra‘. La nueva herramienta de corrección de IA esencialmente hace referencias cruzadas del texto generado por IA con un documento de respaldo ingresado por el usuario.
microsoft ofrecerá la nueva herramienta de corrección como parte de la API de seguridad Azure AI de Microsoft. Los usuarios de plataformas Gen AI como GPT-4o de OpenAI y Llama de Meta deberían experimentar la nueva función pronto.
La función Correcciones intentará marcar cualquier contenido que pueda no ser exacto. Luego verificará el texto comparándolo con una fuente de verdad.
Microsoft afirma que esta característica se basará en un documento de base, que podría incluir transcripciones cargadas por el usuario. Esto podría significar que la responsabilidad de certificar la exactitud de un documento no tiene por qué recaer en el usuario final. La IA podría decir qué considerar como un hecho basándose en documentos fundamentados.
Microsoft tambien implementa ‘Evaluaciones como una capa de «inferencia confidencial»
Microsoft ha dado a entender que su herramienta de corrección de IA podría abordar las alucinaciones en tiempo real. Además de abordar las alucinaciones de la IA, Microsoft también está implementando ‘Evaluaciones’.
Según Microsoft, las ‘Evaluaciones’ son una herramienta proactiva de evaluación de riesgos. Funcionará como una capa de inferencia confidencial. En otras palabras, la plataforma Gen AI pasará el contenido a través de esta capa antes de realizar predicciones.
Según se informa, la nueva herramienta Intentar garantizar que la información confidencial permanezca segura y privada. durante el proceso de inferencia. Esto podría ayudar a filtrar posibles problemas de privacidad. Con estas nuevas herramientas, Microsoft parece estar abordando dos problemas comunes con Gen AI: privacidad y precisión.
Fuente: Android Headlines