Internet es un recurso increíble basado en una base de confianza tácita. Durante décadas, una regla simple y clara ha guiado el comportamiento de los rastreadores web automatizados: el archivo robots.txt de un sitio es un conjunto de instrucciones que se espera que siga un bot. Es un apretón de manos digital, una forma para que los propietarios de sitios web dan: «Bienvenido, pero no mire aquí». Cuando una empresa elige ignorar esas instrucciones, no es solo un técnico problema: es una violación de esa confianza fundamental. Esto es lo que Perplejidad ai Según se informa, está haciendo medidas para evadir las políticas sin trucos.
Cloudflare afirma que la IA de perplejidad evade activamente las directivas del sitio web sin trucos
Reciente Hallazgos de Cloudflare han traído el comportamiento de uno de esos Ai «Responde motor» Perplejidaden cuestión. Según un análisis en profundidad, la perplejidad supuestamente participa en el «rastreo sigiloso». Esta táctica implica tratar activamente de evadir las reglas de un sitio web. La compañía AI está acusada de usar rastreadores no declarados y girar a través de diferentes direcciones IP para evitar páginas de bloques y continuar raspando el contenido. Según los informes, lo hacen incluso después de que el propietario de un sitio web les haya dicho explícitamente que no lo hagan.
Este tipo de comportamiento, si es cierto, puede etiquetarse como inaceptable. Es una violación directa de los deseos del propietario de un sitio web y un movimiento claro para acceder al contenido que no está destinado al raspado público. Un bot que trabaja activamente para oscurecer su identidad y evitar medidas de seguridad no es un actor de buena fe. Creemos que los productos y servicios deberían respetar las elecciones de los creadores y editores de contenido, que invierten tiempo, dinero y esfuerzo para crear el contenido en el que estos servicios de IA dependen.
En contraste con otras plataformas de IA «bienestares»
En contraste, los operadores de BOT bien intencionados siguen un código claro de conducta. Son transparentes, se identifican con un agente de usuario único y proporcionan información de contacto. Son «internautas bien portados», respetando los límites de tasa y no los sitios de inundación con tráfico excesivo. Lo más importante, siguen las reglas al honrar a los robots.txt y otras directivas del sitio web. Un buen ejemplo de esto es Opadaique describe claramente a sus rastreadores, explica su propósito y respeta los deseos de un sitio web. Aun así, la compañía no ha sido salvada de demandas por editores. Sin embargo, Operai ha demostrado en una prueba controlada que sus productos de IA inmediatamente dejaron de gatear cuando se le indicó.
El aumento de la IA está cambiando Internet, pero los principios centrales de respeto y transparencia deben permanecer constantes. Los propietarios de sitios web merecen tener control total sobre cómo se usa su contenido. No deberían tener que pelear una batalla contra los bots que intentan activamente dar sus reglas. Estamos con la idea de que el contenido es un activo, y sus creadores deben estar facultados para decidir quién puede acceder a él y para qué propósito. Se trata de garantizar un ecosistema digital justo y respetuoso para todos.
Fuente: Android Headlines