Perplexity, recientemente aclamado por sus capacidades revolucionarias, se encuentra en el centro de una tormenta. Surgen acusaciones de uso no autorizado de contenidos, planteadas por Cloudflare en un informe impactante. La práctica del « scraping » cuestionada plantea interrogantes sobre la ética de los motores de búsqueda. Los robots de Perplexity, acusados de eludir las restricciones impuestas por los sitios web, ven sus acciones cuestionadas. La posibilidad de una regulación estricta sobre el acceso a los datos podría transformar el panorama digital.
Acusaciones graves de eludir las restricciones
Menos de un mes después del lanzamiento de su proyecto Comet, Perplexity, un navegador basado en inteligencia artificial y accesible únicamente a través de la suscripción Perplexity Max, enfrenta acusaciones serias. Cloudflare, el servicio en línea de aceleración y protección de sitios web, ha publicado recientemente un informe que cuestiona las prácticas de scraping de Perplexity.
El scraping controvertido de los robots
Desde su surgimiento, Perplexity ha sabido establecerse como un actor principal en el sector de la inteligencia artificial, gracias a su capacidad para realizar investigaciones exhaustivas en la web. Sin embargo, esta funcionalidad suscita interrogantes sobre el respeto de las reglas impuestas por los propietarios de sitios web. Estos últimos, a menudo, estipulan que no desean ser visitados por crawlers, es decir, los robots de exploración utilizados por los motores de búsqueda.
Los sitios pueden indicar estas preferencias en un archivo llamado robots.txt, o a través de filtros de tipo WAF (Web Application Firewall). Según el informe de Cloudflare, Perplexity habría eludido estas restricciones, accediendo a información sensible mientras oculta su actividad en caso de bloqueo.
Las conclusiones de Cloudflare
Cloudflare cita anomalías en el comportamiento de los robots PerplexityBot y Perplexity-User. Este informe plantea preguntas sobre las prácticas de scraping, confirmando que estos robots habrían accedido a datos mediante técnicas para ocultar su identidad. Capturas de pantalla respaldan estas alegaciones, mostrando datos potencialmente comprometidos.
La reacción de Perplexity
La reacción de Perplexity ante estas acusaciones es inmediata. Jesse Dwyer, portavoz de la empresa, calificó el informe de Cloudflare como un simple publicidad. También mencionó que este estudio contenía varias incoherencias que podrían invalidar las conclusiones presentadas.
Preocupaciones sobre el modelo económico de Cloudflare
Paralelamente, Cloudflare ha comenzado a considerar la introducción de un modelo económico donde las inteligencias artificiales tendrían que pagar por scrapear sitios web, denominado Pay per Crawl. El peligro de tal sistema podría debilitar el acceso a la información en Internet, planteando así cuestiones éticas sobre la apertura de la web.
Un debate en curso
La controversia entre estas dos empresas plantea un debate candente en el ámbito de la inteligencia artificial y la ética digital. Las implicaciones de estas acusaciones podrían influir en el futuro de las relaciones entre las IA y los sitios web, con desafíos tanto comerciales como legales.
Para saber más sobre el tema, artículos como el acerca de la leyenda musical o las recientes innovaciones como la herramienta de búsqueda de ChatGPT contextualizan esta problemática.
Preguntas frecuentes
¿Cuáles son las acusaciones formuladas contra Perplexity por Cloudflare?
Cloudflare acusa a Perplexity de haber eludido las regulaciones de «robots.txt» y de haber scrapeado contenidos en sitios web sin autorización, utilizando técnicas para ocultar su actividad.
¿Cómo realiza Perplexity sus investigaciones en la web?
Perplexity utiliza robots llamados «crawlers» para visitar páginas web y extraer contenido. Esto requiere un proceso conocido como «scraping».
¿Qué significa el término «scraping» en el contexto de Perplexity?
El «scraping» se refiere al método que utilizan los robots de Perplexity para recoger información en la web accediendo a diferentes sitios.
¿Cuál es la reacción de Perplexity ante las acusaciones de Cloudflare?
Perplexity calificó el informe de Cloudflare de «publicidad» y afirmó que el estudio contenía muchas incoherencias y no reflejaba su funcionamiento real.
¿Qué medidas pueden tomar los sitios web para evitar el scraping por parte de robots como los de Perplexity?
Los sitios web pueden usar un archivo «robots.txt» para indicar a los crawlers qué páginas no desean que sean consultadas y aplicar filtros WAF para bloquear el tráfico no deseado.
¿Qué pruebas ha presentado Cloudflare para respaldar sus acusaciones contra Perplexity?
Cloudflare ha proporcionado capturas de pantalla y datos que muestran que los robots de Perplexity habrían accedido a sitios web a pesar de prohibiciones explícitas, así como indicios de modificación de números ASN para ocultar sus actividades.
¿Podría la controversia alrededor de Perplexity tener un impacto en la empresa?
La controversia podría afectar la reputación de Perplexity y su relación con los sitios web involucrados, así como su modelo de suscripción basado en inteligencia artificial.