Capacitación AI es como criar a un niño. Dependiendo de lo que le enseñe, puede o no recoger algunos malos hábitos. Desafortunadamente, parece Acumular podría tener. Durante la semana pasada, Grok hizo algunos comentarios muy inapropiados, lo que finalmente obligó a Xai a tomar el bot temporalmente fuera de línea y emitir una disculpa.
XAI emite disculpas para Grok
Según la disculpa xai Publicado en la cuenta de Grok en Xla compañía dice: «Nuestra intención para @grok es proporcionar respuestas útiles y veraces a los usuarios. Después de una cuidadosa investigación, descubrimos que la causa raíz fue una actualización de una ruta de código aguas arriba del @grok bot. Esto es independiente del modelo de lenguaje subyacente que potencia @grok».
También agregan: «La actualización estuvo activa durante 16 horas, en la cual el código desagradable hecho @Grok susceptible a las publicaciones de usuarios X existentes; incluso cuando dichas publicaciones contuvieran vistas extremistas. Hemos eliminado ese código desagradable y refactorizado todo el sistema para evitar más abusos. El nuevo sistema de sistema para el bot de @Grok se publicará a nuestro repetición pública de Github».
Para aquellos que no están familiarizados con lo que pasó, básicamente, Grok hizo una serie de publicaciones inapropiadas. Estos usuarios fueron solicitados que contenían muchos memes antisemitas dirigidos a demócratas y ejecutivos de Hollywood. Incluso expresó su apoyo a Adolf Hitler, y en un momento, se refería a sí mismo como «Mechahitler».
Irónicamente, el CEO de Xai, Elon Musk, había dicho anteriormente que quería hacer que la IA fuera menos «políticamente correcta». Él Más tarde dijo Ese Grok era «demasiado cumplido con las indicaciones del usuario». También sugirió que esto hizo que Grok fuera fácil de manipular.
El problema con la IA
Los comentarios de Grok son un buen ejemplo de algunos de los problemas que estamos viendo con AI. La IA generalmente está capacitada utilizando información disponible en línea. Estamos hablando de artículos de noticias, piezas de opinión, revistas, estudios, publicaciones de usuarios en foros y redes sociales, etc. Esto significa que está expuesto a los lados buenos y oscuros de Internet.
Sin embargo, dependiendo de los protocolos y las medidas de seguridad establecidas por los desarrolladores, algunos modelos de IA están capacitados para evitar ciertos temas. Pero a veces, si la codificación no es lo suficientemente segura, los bots de IA pueden manipularse para revelar información sensible o patentada, utilizar para crear malware o proporcionar instrucciones sobre cómo crear explosivos caseros.
Tan útil como es la IA, claramente también hay un inconveniente. Por eso Regulando la industria de la IA Y la configuración de estándares es importante, y este es un claro ejemplo de por qué.
Fuente: Android Headlines