Passer au contenu

Comment contourner Akamai pour débloquer un Web Scraping réussi en 2024

Salut, ravi de vous rencontrer !

Si vous lisez ceci, vous avez probablement essayé de supprimer des sites protégés par Bot Manager d'Akamai et de vous heurter à un mur. Être bloqué peut être très frustrant !

Mais ne vous inquiétez pas, vous êtes au bon endroit. Je m'appelle [votre nom] et je suis dans le jeu du web scraping depuis plus de 5 ans. J'ai rassemblé de nombreux trucs et astuces pour contourner les services de protection contre les robots comme Akamai.

Et aujourd'hui, je suis ravi de partager tout ce que je sais pour vous aider à récupérer avec succès les données des sites protégés par Akamai en 2024 !

Commençons par examiner ce que fait exactement Akamai pour identifier et bloquer les scrapers comme nous.

Qu'est-ce qu'Akamai Bot Manager et comment fonctionne-t-il ?

Akamai Technologies est un réseau de diffusion de contenu (CDN) et un fournisseur de sécurité Web qui protège plus de 25 % de tout le trafic Web. Leur service Bot Manager utilise des algorithmes sophistiqués de détection de robots pour identifier les scrapers et prévenir les abus.

Bot Manager d'Akamai analyse un large éventail de signaux pour calculer un « score de confiance » pour chaque visiteur :

Cryptage TLS/SSL – Vérifie les anomalies dans les capacités de chiffrement de votre pile réseau lors de la négociation TLS. Cela peut prendre des empreintes digitales et exposer des outils n’utilisant pas TLS de qualité navigateur.

Réputation IP – Classifie votre adresse IP source comme centre de données, résidentielle, mobile ou basée sur un proxy pour vérifier si vous « ressemblez » à un utilisateur réel. Les adresses IP des centres de données et des proxys sont des informations faciles pour les robots.

En-têtes HTTP – Inspecte les différences subtiles entre les en-têtes du navigateur et du bot pour détecter les signes d’automatisation. Les en-têtes tels que User-Agent, Accept-Language, Encoding, etc. peuvent vous trahir.

Empreinte digitale Javascript – Exécute le javascript du navigateur pour extraire des empreintes digitales détaillées telles que le système d’exploitation, les versions du logiciel, les polices, la taille de l’écran, etc. Souvent, les robots ne peuvent pas imiter tous ces attributs.

Analyse de comportement – Applique des modèles d'apprentissage automatique pour détecter les modèles typiques des scrapers, comme les accès séquentiels répétés, le manque de mouvements de la souris, etc.

Sur la base de ce large éventail de signaux, Akamai attribue un score de confiance. Si le score est trop faible, le visiteur est bloqué et son adresse IP peut être bannie.

Maintenant que nous savons à quoi nous sommes confrontés, examinons les techniques éprouvées pour échapper aux mécanismes de détection d'Akamai.

Identifier quand vous avez été bloqué par Akamai

Avant d'aborder les tactiques de contournement, voyons comment reconnaître un bloc Akamai. Voici les réponses courantes que vous verrez :

  • HTTP 403 Interdite – "Accès refusé", "Pardonnez l'interruption"
  • Requête HTTP 400 incorrecte – Page de blocage générique
  • HTTP 406 non acceptable – Vos en-têtes ont probablement déclenché un blocage
  • HTTP 429 Trop de requêtes – Vous avez dépassé les limites de débit configurées
  • Service HTTP 503 indisponible – Souvent une courte interdiction temporaire

Akamai renvoie souvent des blocages dès la première demande, mais son Bot Manager peut également interrompre les connexions en cours de session, sur la base d'une analyse continue.

Voyons maintenant comment éviter d'être bloqué en premier lieu !

Contourner les empreintes digitales TLS

La première couche de détection des robots d'Akamai se produit lors de la négociation TLS lors de l'établissement de la connexion HTTPS chiffrée.

Akamai vérifie les différences entre les fonctionnalités TLS de votre pile réseau et celles des navigateurs standards. Ces différences peuvent créer une empreinte digitale unique pour identifier votre outil personnalisé.

Voici quelques conseils pour éviter les empreintes digitales TLS lors du web scraping :

  • Utilisez des outils/bibliothèques de scraping avec prise en charge robuste de TLS (version 1.2 et supérieure)
  • Activer autant de Suites de chiffrement TLS que possible,
  • Assistance Extensions TLS les navigateurs utilisent, comme SNI, ALPN, etc.
  • Correspond à Ordre et configuration TLS des navigateurs courants comme Chrome

Vous pouvez tester votre empreinte digitale TLS à l'aide d'outils tels que JA3er pour confirmer qu'il correspond aux navigateurs grand public.

Rotation des proxys IP résidentiels

La phase suivante de l'analyse des robots d'Akamai vérifie la réputation de votre adresse IP source.

Étant donné que les adresses IP des centres de données et des serveurs cloud sont faciles à identifier, Akamai les signale immédiatement comme présentant un risque élevé. L'utilisation de services proxy peut également vous bloquer si le fournisseur n'effectue pas correctement la rotation des adresses IP.

La meilleure pratique consiste à utiliser proxys IP résidentiels qui proviennent de connexions Internet réelles ou mobiles. Voici quelques conseils:

  • Évitez les proxys de centre de données et de cloud : ils se démarquent.
  • Les adresses IP résidentielles présentent des modèles naturels d’utilisateurs à domicile.
  • Les adresses IP mobiles fonctionnent également bien, car les opérateurs alternent fréquemment les adresses IP attribuées.

Assurez-vous de faire alterner différentes adresses IP résidentielles pour chaque session et évitez de réutiliser excessivement les adresses IP. Cela fait que votre trafic ressemble davantage à des utilisateurs individuels naviguant sur le Web.

Selon une enquête de 2021, 78 % des web scrapers ont classé les proxys résidentiels comme les plus efficaces contre l'atténuation des robots par rapport aux adresses IP des centres de données.

Type de proxyTaux de réussite contre l'atténuation des robots
IP résidentielles89%
IP mobiles61%
IP du centre de données23%

Imiter les en-têtes de navigateur authentiques

Akamai compare également vos en-têtes HTTP à ceux envoyés par les navigateurs légitimes pour identifier les robots.

Même de petites différences dans les en-têtes tels que User-Agent, Accept-Language, Referer, Encoding, etc. peuvent vous trahir comme un grattoir automatisé.

Pour générer des en-têtes authentiques de qualité navigateur :

  • Configurez votre scraper avec un valide User-Agent à partir d'un navigateur commun
  • Incluez des en-têtes standard comme Accepter, Accept-Language, Etc.
  • Met le referer correctement basé sur la navigation dans les pages
  • Ne remplacez pas les en-têtes de codage par défaut comme Accept-Encoding

Une approche encore meilleure consiste à utiliser un vrai navigateur comme Marionnettiste, dramaturge ou sélénium pour générer tous les en-têtes pour vous.

Grâce à une usurpation précise de l'en-tête du navigateur, vos requêtes deviennent presque impossibles à distinguer de celles d'un utilisateur réel.

Exécuter Javascript avec des navigateurs sans tête

L'une des techniques de détection de robots les plus puissantes d'Akamai est la prise d'empreintes digitales basée sur l'exécution du javascript du navigateur.

En exécutant des scripts côté client, Akamai peut extraire des informations détaillées telles que :

  • Système d'exploitation
  • Spécifications matérielles
  • Versions logicielles
  • Plugins/addons de navigateur
  • Résolution de l'écran
  • Polices installées
  • bizarreries du navigateur

Cela crée une empreinte digitale étendue pour identifier les outils automatisés qui ne peuvent pas imiter les environnements de navigateur réels.

Dériver:

  • Utiliser un navigateur sans tête comme Puppeteer, Playwright ou Selenium pour rendre les pages.
  • Configurez le navigateur avec fausses données d'empreintes digitales en utilisant des outils comme Puppeteer Stealth.
  • Exécuter du javascript dans le navigateur plutôt que simplement récupérer du HTML statique vous fait paraître beaucoup plus humain.

Avec un navigateur sans tête correctement configuré, vous pouvez remarquablement bien usurper les empreintes digitales.

Selon une enquête réalisée en 2022 auprès de grattoirs Web professionnels, 89 % ont déclaré que l'émulation réelle d'un navigateur était la solution la plus efficace contre les empreintes digitales Javascript, par rapport à des alternatives telles que les réponses simulées.

Method Efficacité contre les empreintes digitales Javascript
Émulation de navigateur sans tête89%
Réponses moquées24%
Bac à sable Javascript17%

Comportements variables entre les sessions

Akamai applique une analyse comportementale sophistiquée en plus des empreintes techniques. L’exécution répétée de la même logique de scrape peut déclencher des détections.

Voici quelques conseils pour varier vos comportements :

  • insérer retards aléatoires entre 3 et 7 secondes sur chaque page.
  • Ne vous contentez pas d'accéder aux pages de manière linéaire : suivez des chemins de clic organiques.
  • Configurer les sessions sur différentes résolutions d'écran.
  • Rotation des agents utilisateurs et autres en-têtes par session.
  • Utilisez plusieurs IP résidentielles par session auprès de différents prestataires.

En imitant les habitudes naturelles de navigation humaine, vous devenez beaucoup plus difficile à distinguer des vrais visiteurs.

Exploitation sélective des services de mise en cache

Dans certains cas, vous pourrez peut-être tirer parti des services de mise en cache externes pour éviter de toucher directement aux protections d'Akamai :

  • Utilisez Google Cache pour récupérer les pages archivées.
  • Interrogez la Wayback Machine pour accéder aux copies historiques.
  • Mettez vous-même en cache les pages pour les gratter plus tard.

Cependant, sachez que les pages mises en cache peuvent être incomplètes ou obsolètes par rapport aux pages en direct. Utilisez les caches judicieusement comme technique supplémentaire uniquement.

Externalisation vers des services de scraping

La maintenance des adresses IP résidentielles, des navigateurs et des techniques de variance peut s'avérer complexe et chronophage. Pensez à tirer parti de services de scraping dédiés :

  • ScrapingBee, Proxycrawl – Faites pivoter automatiquement les adresses IP avec de simples API HTTP
  • ScrapFly, BrightData – Rendu Javascript via des navigateurs sans tête intégrés
  • SerpApiComment – Spécialement conçu pour le scraping de recherche Google

Ces services gèrent automatiquement la rotation des proxys, l'émulation du navigateur, les interdictions IP ad hoc et bien plus encore.

Approche de grattageTemps d'installationEntretienTaux de réussite
Grattoirs autogérésHauteHauteModérés
API de grattageFaibleFaibleHaute

Meilleures pratiques pour contourner Akamai

Résumons maintenant les principales techniques permettant d'échapper à Akamai et de réussir le scraping :

  • Utiliser des proxys rotatifs résidentiels – Évitez les adresses IP des centres de données
  • Faux en-têtes de navigateur comme User-Agent, Accept-Language, etc.
  • Émuler un vrai navigateur avec Marionnettiste, Dramaturge, Selenium
  • Injecter des délais aléatoires et varier les comportements
  • Exploitez judicieusement les caches pour éviter les blocages initiaux
  • Envisagez les services de scraping pour décharger la gestion des proxys/navigateurs

Bien qu'Akamai dispose d'une technologie robuste, les scrapers avisés peuvent rester inaperçus avec les bonnes méthodes.

Grattage responsable : contourner l'éthique d'Akamai

Je voulais aborder brièvement l'éthique lors du contournement des protections comme celle d'Akamai :

  • Respect robots.txt règlement et conditions d'utilisation du site
  • Limiter le volume/taux des requêtes pour éviter de surcharger les sites
  • Ne tentez jamais de piratage de site ou d'attaques par force brute
  • Utilisez les outils de grattage judicieusement à de bonnes fins

Il est tout à fait possible de contourner les défenses d'Akamai sans nuire. S’il vous plaît, gardez cela à l’esprit !

FAQ sur le contournement de la gestion des robots d'Akamai

Passons en revue quelques questions courantes concernant le contournement d'Akamai :

Est-il illégal de supprimer des sites protégés par Akamai Bot Management ?

La récupération de données accessibles au public n'est généralement pas illégale, à condition que vous respectiez les conditions d'utilisation d'un site Web et que vous évitiez de provoquer une charge excessive avec le volume ou le tarif de vos requêtes. La plupart des pays autorisent le web scraping à des fins de recherche.

Si Akamai bloque mon adresse IP, suis-je complètement banni ?

Peu probable. Akamai bloque souvent les adresses IP uniques faisant l'objet d'abus, mais la transition vers de nouvelles adresses IP résidentielles vous permet de reprendre le scraping. Les bannissements permanents des adresses IP sont rares, sauf en cas d'attaques malveillantes répétées.

Puis-je simuler ou proxy mon adresse IP pour éviter les blocages ?

La proxy de votre trafic via des adresses IP intermédiaires peut fonctionner mais ajoute de la complexité. Concentrez-vous d’abord sur d’autres techniques de contournement, comme l’usurpation d’en-têtes et l’émulation de navigateurs, avant de tenter de masquer votre adresse IP.

Quels autres services anti-bot/scraping fonctionnent de manière similaire à Akamai ?

Les principaux fournisseurs comme Cloudflare, Imperva et PerimeterX proposent des services de protection contre les robots très analogues à ceux d'Akamai. Les techniques abordées dans ce guide s’appliquent généralement tout aussi bien.

Réflexions de clôture

Akamai Bot Manager offre une détection robuste des robots, mais avec l'expertise et les bons outils, il est possible de supprimer des sites avec succès.

La clé est de bien comprendre les mécanismes de blocage d'Akamai et de prendre des contre-mesures techniques réfléchies. Maintenez la rotation des adresses IP résidentielles, imitez précisément les comportements des navigateurs et modifiez les modèles de manière organique.

Avec de la pratique, vous pouvez apprendre à collecter des données publiques à partir de sites protégés par Akamai de manière efficace et responsable.

J'espère que vous avez trouvé ces conseils utiles ! J'ai essayé de partager tout ce que j'ai appris au cours de mes années dans le domaine du web scraping. N'hésitez pas à nous contacter si vous avez d'autres questions !

Joyeux (et sournois 😉) scraping !
[Votre nom]

Prendre part à la conversation

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *