L'analyse des avis des concurrents est une tâche cruciale pour tout vendeur sur les marketplaces. Les avis révèlent les problèmes réels des produits, aident à améliorer les fiches produits et à trouver des niches inoccupées. Cependant, les marketplaces bloquent sévèrement le scraping massif : Wildberries bannit les IP après 50-100 requêtes, Ozon affiche un captcha, et Yandex.Market a complètement fermé l'accès à l'API pour les particuliers. Dans cet article, nous allons examiner comment collecter des avis en toute sécurité, quels outils utiliser et comment configurer des proxies pour ne pas perdre l'accès aux données.
Pourquoi les marketplaces bloquent-elles le scraping des avis
Les marketplaces protègent leurs données pour plusieurs raisons. Tout d'abord, le scraping massif crée une forte charge sur les serveurs : des milliers de requêtes par minute de la part des scrapers peuvent ralentir le site pour les acheteurs ordinaires. Deuxièmement, les avis sont des données précieuses que les plateformes monétisent via des analyses payantes (par exemple, Ozon Analytics ou WB Analytics coûtent à partir de 5000 roubles par mois). Troisièmement, les concurrents peuvent utiliser les avis pour des actions déloyales : copier des stratégies réussies, gonfler les avis ou même rechercher des clients mécontents des concurrents.
Techniquement, les marketplaces suivent l'activité suspecte selon plusieurs paramètres :
- Fréquence des requêtes depuis une seule IP : Si votre IP envoie 100+ requêtes par minute, ce n'est clairement pas un humain. Wildberries bannit ces IP pendant 24 heures après 50-70 requêtes.
- Modèles de comportement : Les scrapers ouvrent les pages trop rapidement (moins d'une seconde par page), ne déplacent pas la souris, ne scrollent pas. Les systèmes anti-bots modernes (comme Kasada ou DataDome) reconnaissent facilement cela.
- User-Agent et empreinte du navigateur : Si votre script envoie des requêtes avec un User-Agent d'une ancienne version de Chrome ou sans JavaScript, c'est un drapeau rouge.
- Absence de cookies et de sessions : Les utilisateurs ordinaires ont un historique de navigation, des cookies d'authentification. Les scrapers arrivent souvent "propres".
Ozon utilise une protection particulièrement agressive : après 20-30 requêtes, il affiche un captcha, et lors de tentatives répétées de contournement, il bloque l'IP au niveau du CDN (Cloudflare). Yandex.Market a fermé l'API publique pour les particuliers en 2023 — maintenant, l'accès est uniquement pour les personnes morales avec un contrat. Avito bannit non seulement par IP, mais aussi par numéro de téléphone, s'il détecte une activité automatique.
Que se passe-t-il si vous scrapez sans protection : conséquences des bannissements
Les conséquences d'un blocage dépendent de la manière dont vous scrapez. Si vous utilisez votre IP domestique sans proxy, vous recevrez un bannissement temporaire de 24 heures. Ce n'est pas critique pour une collecte de données ponctuelle, mais c'est un problème pour une surveillance régulière. Si vous scrapez via un compte vendeur (par exemple, en utilisant le tableau de bord WB pour accéder à des statistiques avancées), vous risquez de recevoir un bannissement de compte. Le rétablissement est difficile : il faut écrire au support, prouver que ce n'est pas vous, mais un "virus sur l'ordinateur". Le processus prend de une semaine à un mois.
Un cas réel : un vendeur de jouets pour enfants sur Wildberries a configuré un scraping automatique des avis des concurrents via un script en Python. Le script fonctionnait avec son IP de travail, collectant 500 avis chaque heure. Au bout de 3 jours, Wildberries a bloqué non seulement l'IP, mais aussi le compte du vendeur — l'algorithme a lié l'IP du scraper à l'IP utilisée pour accéder au tableau de bord. Résultat : perte d'accès à la boutique pendant 2 semaines, manque à gagner d'environ 400 000 roubles (les produits étaient en stock, mais il était impossible de gérer les livraisons).
Important : Ne scrapez jamais depuis la même IP que celle que vous utilisez pour accéder à votre tableau de bord vendeur. Les marketplaces associent les adresses IP aux comptes et peuvent bloquer votre boutique pour activité suspecte.
Un autre problème est d'ordre juridique. Formelement, le scraping viole les conditions d'utilisation de la plupart des marketplaces (section "Actions interdites"). En pratique, les plateformes vont rarement en justice contre les scrapers, mais des précédents existent. En 2022, Ozon a intenté un procès contre un service d'analyse qui collectait des données sur les prix et les stocks. Le tribunal a tranché en faveur d'Ozon, le service a fermé. Pour les particuliers, le risque de poursuites judiciaires est minimal, mais pour les entreprises qui vendent le scraping comme service, c'est une menace réelle.
3 façons de collecter des avis : manuel, API, scraping automatique
Méthode 1 : Collecte manuelle (pour de petits volumes)
Si vous devez collecter des avis sur 5-10 produits concurrents une fois par semaine, vous pouvez le faire manuellement. Ouvrez la fiche produit sur Wildberries ou Ozon, faites défiler les avis, copiez le texte dans Excel. Avantages : pas besoin de compétences techniques, risque de bannissement nul. Inconvénients : très lent (il faut 30-40 minutes pour 100 avis), impossible de suivre la dynamique, pas d'automatisation.
Cette méthode convient aux micro-entreprises : vous vendez 2-3 produits, vous voulez comprendre ce que disent les concurrents pour améliorer votre fiche produit. Pour une surveillance régulière de dizaines de produits, la collecte manuelle n'est pas évolutive.
Méthode 2 : API officielle (accès limité)
Certaines marketplaces fournissent une API pour les partenaires. L'API Wildberries pour les vendeurs permet de recevoir des avis uniquement sur vos propres produits (pas sur ceux des concurrents). L'API Ozon fonctionne de la même manière — accès uniquement à vos propres données. L'API Yandex.Market pour les partenaires de contenu nécessite un contrat juridique et n'est disponible que pour les entreprises avec un chiffre d'affaires d'au moins 10 millions de roubles par an.
Avantages de l'API : accès stable, vous ne violez pas les règles de la plateforme, données structurées en JSON. Inconvénients : impossible d'obtenir des avis sur les concurrents (la tâche principale de la plupart des vendeurs), seuil d'entrée élevé pour l'API officielle.
Méthode 3 : Scraping automatique via proxy (universel)
C'est la méthode principale pour les vendeurs professionnels et les agences. Vous utilisez des outils spéciaux (scrapers) ou écrivez un script qui ouvre automatiquement les pages des produits, collecte les avis et les enregistre dans une base de données. Pour ne pas être banni, toutes les requêtes passent par des proxies — chaque requête avec une nouvelle adresse IP, la marketplace voit des utilisateurs ordinaires venant de différentes villes.
Avantages : vous pouvez collecter des avis sur n'importe quel produit (les vôtres et ceux des concurrents), automatisation complète, évolutivité (jusqu'à 10 000 produits par jour). Inconvénients : besoin de compétences techniques ou d'outils payants, coûts pour les proxies (à partir de 3000 roubles par mois).
Quels proxies conviennent pour le scraping des marketplaces
Le choix du type de proxy dépend de votre budget, des volumes de scraping et des exigences de qualité des données. Examinons trois types principaux et leur applicabilité pour les marketplaces.
| Type de proxy | Convient pour | Prix | Avantages/Inconvénients |
|---|---|---|---|
| Proxies de datacenter | Scraping d'Avito, AliExpress, petites plateformes | À partir de 50₽/IP par mois | + Pas chers, rapides − Facilement reconnus par WB et Ozon |
| Proxies résidentiels | Wildberries, Ozon, Yandex.Market — choix principal | À partir de 300₽/Go | + IP réelles d'utilisateurs domestiques, ne sont pas bannies − Plus chères que les datacenters |
| Proxies mobiles | Scraping à haut risque de bannissement, collecte via des applications mobiles | À partir de 500₽/IP par mois | + Protection maximale, IP des opérateurs mobiles − Les plus chers, plus lents que les résidentiels |
Pour le scraping de Wildberries et Ozon, nous recommandons des proxies résidentiels. Ces marketplaces utilisent des systèmes anti-bots avancés qui détectent facilement les IP des datacenters (elles se trouvent dans des plages connues de numéros AS des fournisseurs d'hébergement). Les proxies résidentiels sont des IP de fournisseurs d'accès Internet domestiques ordinaires (Rostelecom, MTS, Beeline), il est impossible de les distinguer d'un véritable acheteur.
Un point important : pour les marketplaces, des proxies avec rotation d'IP sont nécessaires. Cela signifie que chaque requête que vous effectuez provient d'une nouvelle adresse IP. Par exemple, si vous scrapez 1000 avis, cela signifie 1000 IP différentes provenant de différentes villes de Russie. La marketplace voit que des utilisateurs réels accèdent au produit depuis tout le pays, aucune activité suspecte.
Conseil : Pour le scraping des marketplaces russes, choisissez des proxies avec des IP russes. Wildberries et Ozon affichent souvent des captchas aux utilisateurs étrangers (protection contre les scrapers étrangers). Les proxies résidentiels avec géolocalisation en Russie résolvent ce problème.
Outils prêts à l'emploi pour la collecte d'avis : aperçu des services
Si vous n'êtes pas programmeur, il n'est pas nécessaire d'écrire un script de scraping depuis zéro — il existe des solutions prêtes à l'emploi. Examinons les outils populaires pour les vendeurs de marketplaces.
1. Mpstats (mpstats.io) — analyse de Wildberries et Ozon
Le service le plus populaire parmi les vendeurs russes. Il collecte non seulement des avis, mais aussi des prix, des stocks, des positions dans les recherches, l'historique des ventes. Les avis sont mis à jour une fois par jour, et il est possible d'exporter vers Excel. Prix : à partir de 3000 roubles par mois (tarif "Démarrage"). Avantages : pas besoin de configurer les proxies soi-même (tout fonctionne dès la sortie de la boîte), interface conviviale, rapports prêts à l'emploi. Inconvénients : coûteux à l'échelle (si vous suivez 100+ produits, le tarif augmente jusqu'à 15 000 roubles), les données sont mises à jour avec un délai.
2. Moneyplace (moneyplace.io) — scraper pour Ozon
Outil spécialisé pour Ozon. Il collecte des avis, des questions des acheteurs, des évaluations des vendeurs. Il dispose d'une fonction d'analyse de la tonalité des avis (détermine automatiquement les avis négatifs et positifs). Prix : à partir de 2500 roubles par mois. Avantages : analyse approfondie spécifiquement pour Ozon, API pour intégration avec vos systèmes. Inconvénients : fonctionne uniquement avec Ozon, pas de Wildberries ni d'autres plateformes.
3. Parser.ru — scraper universel sans code
Service cloud pour le scraping de n'importe quel site, y compris les marketplaces. Fonctionne sur le principe "indiquez ce que vous voulez scraper — obtenez le résultat". Pas besoin de programmer, tout se configure via une interface visuelle. Prix : à partir de 1500 roubles par mois + paiement des proxies séparément (si vous utilisez les vôtres — gratuitement). Avantages : flexibilité (vous pouvez configurer le scraping de n'importe quelles données, pas seulement des avis), fonctionne avec n'importe quelle marketplace. Inconvénients : nécessite du temps pour la configuration (1-2 heures pour apprendre l'interface).
4. Octoparse — scraper de bureau pour Windows/Mac
Programme de scraping avec éditeur visuel. Installez-le sur votre ordinateur, ouvrez le site de la marketplace, cliquez sur les éléments que vous souhaitez collecter (texte de l'avis, évaluation, date). Le programme mémorise la structure et scrape automatiquement. Prix : version gratuite (jusqu'à 10 000 enregistrements par mois), version payante à partir de 75$/mois. Avantages : pas besoin de connaître HTML/CSS, modèles prêts à l'emploi pour des sites populaires. Inconvénients : fonctionne uniquement sur votre ordinateur (si vous l'éteignez, le scraping s'arrête), interface en anglais.
5. Script personnalisé en Python (pour les techniquement avertis)
Si vous avez des compétences de base en programmation, vous pouvez écrire un script en Python avec les bibliothèques Selenium (émulation de navigateur) ou Scrapy (scraping rapide). Avantages : contrôle total, aucun abonnement (vous ne payez que pour les proxies), vous pouvez scraper n'importe quelles données dans n'importe quel format. Inconvénients : nécessite du temps pour le développement (à partir de 5 heures pour un scraper simple), besoin de maintenir le code (les marketplaces changent la structure du site — le script se casse).
Pour la plupart des vendeurs, nous recommandons de commencer par des services prêts à l'emploi comme Mpstats ou Moneyplace. Ils sont rentables si vous gagnez sur les marketplaces à partir de 200 000 roubles par mois. Si votre budget est limité ou si vous avez besoin d'une logique de scraping non standard, envisagez Octoparse ou un script personnalisé.
Guide de configuration étape par étape pour le scraping via proxy
Examinons la configuration en prenant comme exemple la combinaison Octoparse (scraper sans code) + proxies résidentiels. Cette méthode convient aux débutants, ne nécessite pas de programmation.
Étape 1 : Obtenez l'accès aux proxies résidentiels
Inscrivez-vous auprès d'un fournisseur de proxies résidentiels (par exemple, ProxyCove). Après l'inscription, vous recevrez les données de connexion :
Proxy : gate.proxycove.com
Port : 8080
Nom d'utilisateur : user_votre_id
Mot de passe : votre_mot_de_passe
Type : HTTP/HTTPS (avec rotation d'IP)
Important : choisissez un tarif avec rotation par requêtes (chaque requête HTTP = nouvelle IP). Pour le scraping des marketplaces, c'est critique.
Étape 2 : Installez et configurez Octoparse
Téléchargez Octoparse depuis le site officiel (octoparse.com), installez-le sur votre ordinateur. Lors du premier lancement, le programme vous demandera de créer un compte — utilisez la version gratuite pour le test (limite de 10 000 enregistrements par mois, cela suffira pour 50-100 produits).
Ouvrez les paramètres (Settings → Proxy Settings) et ajoutez vos proxies :
- Type de proxy : HTTP
- Serveur : gate.proxycove.com
- Port : 8080
- Nom d'utilisateur : votre nom d'utilisateur
- Mot de passe : votre mot de passe
- Cochez "Utiliser le proxy pour toutes les tâches"
Cliquez sur "Tester le proxy" — le programme vérifiera la connexion. Si tout est configuré correctement, vous verrez le message "Le proxy fonctionne".
Étape 3 : Créez une tâche de scraping des avis Wildberries
Cliquez sur "Nouvelle tâche" → "Mode avancé". Collez l'URL de la fiche produit sur Wildberries (par exemple, https://www.wildberries.ru/catalog/12345678/detail.aspx). Octoparse ouvrira le navigateur intégré et chargera la page via le proxy.
Maintenant, apprenez au programme ce qu'il doit scraper :
- Faites défiler la page vers le bas jusqu'à la section des avis.
- Cliquez sur le texte du premier avis → choisissez "Extraire le texte" → le programme mettra en surbrillance tous les avis sur la page.
- Cliquez sur la note (étoiles) → "Extraire le texte" → le programme mémorisera la note.
- Cliquez sur la date de l'avis → "Extraire le texte".
- Trouvez le bouton "Afficher plus" (pagination) → cliquez avec le bouton droit → "Cliquer pour paginer" → le programme fera défiler les pages automatiquement.
Configurez les limites : dans la section "Pagination", indiquez un maximum de 50 pages (environ 500 avis). C'est un volume sûr pour une seule session.
Étape 4 : Configurez les délais entre les requêtes
C'est critique ! Si le scraper fait défiler les pages trop rapidement, Wildberries soupçonnera un bot même via le proxy. Ouvrez "Paramètres de tâche" → "Vitesse" et définissez :
- Délai de chargement de la page : 3-5 secondes (délai entre les pages)
- Délai d'action : 1-2 secondes (délai entre les clics)
- Activer le délai aléatoire : activer (ajoute de l'aléatoire, imite un humain)
Étape 5 : Lancez le scraping et exportez les données
Cliquez sur "Exécuter" → le programme commencera le scraping. En temps réel, vous verrez comment les données sont collectées. Une fois terminé (généralement 10-15 minutes pour 500 avis), cliquez sur "Exporter" → choisissez le format Excel ou CSV. C'est fait — vous avez un tableau avec tous les avis, évaluations et dates.
Erreur fréquente : Ne lancez pas le scraping immédiatement sur 100 produits. Commencez par 5-10 produits, assurez-vous que tout fonctionne sans blocages. Ensuite, augmentez jusqu'à 50-100 produits par jour.
Règles de scraping sécurisé : limites, délais, rotation
Même avec des proxies, vous pouvez être banni si vous enfreignez les "règles de courtoisie". Les marketplaces analysent non seulement les IP, mais aussi les modèles de comportement. Voici une liste de contrôle pour un scraping sécurisé :
1. Respectez les limites de requêtes
Limites sûres pour les marketplaces russes :
- Wildberries : pas plus de 100 requêtes par heure avec une seule tâche de scraping. Si vous scrapez 10 produits, faites une pause de 30-40 secondes entre les produits.
- Ozon : pas plus de 50 requêtes par heure (ils ont une protection plus agressive). Pause entre les produits — 1 minute.
- Yandex.Market : pas plus de 30 requêtes par heure. Après chaque 10 requêtes, faites une pause de 5 minutes.
Ces limites sont calculées pour le scraping via des proxies résidentiels avec rotation. Si vous utilisez des datacenters, divisez les limites par 2.
2. Utilisez des délais aléatoires
Ne fixez pas les délais (par exemple, exactement 5 secondes entre les requêtes). Cela semble suspect. Configurez des délais aléatoires : de 3 à 7 secondes. La plupart des scrapers (Octoparse, Scrapy) prennent en charge cette fonction dès la sortie de la boîte.
3. Changez le User-Agent
Le User-Agent est une chaîne qui informe le site quel navigateur vous utilisez. Les scrapers envoient souvent des User-Agent obsolètes (par exemple, Chrome 90, alors que la version actuelle est 120). Configurez la rotation du User-Agent : chaque requête au nom de différents navigateurs (Chrome, Firefox, Safari) et différentes versions.
Exemple de liste de User-Agent pour la rotation :
Mozilla/5.0 (Windows NT 10.0; Win64; x64) Chrome/120.0.0.0
Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) Safari/605.1.15
Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:121.0) Firefox/121.0
Mozilla/5.0 (X11; Linux x86_64) Chrome/119.0.0.0
4. Ne scrapez pas aux heures de pointe
Les marketplaces renforcent la protection anti-bot aux heures de trafic maximal (généralement de 18h00 à 23h00, heure de Moscou — lorsque les acheteurs rentrent du travail). À ce moment-là, le risque de recevoir un captcha ou un bannissement est plus élevé. Le moment optimal pour le scraping : de 2h00 à 8h00 du matin ou de 10h00 à 16h00 l'après-midi.
5. Faites tourner les proxies par sessions
Si vous scrapez un produit (par exemple, si vous faites défiler 50 pages d'avis), utilisez une seule IP pour toute la session. Si vous changez d'IP à chaque page, la marketplace peut soupçonner quelque chose de bizarre (un "utilisateur" qui saute d'une IP de Moscou à Vladivostok en une seconde). Mais lorsque vous passez au produit suivant, changez d'IP.
6. Imitez le comportement humain
Les scrapers avancés (comme Selenium) peuvent émuler les actions humaines : mouvement de la souris, défilement, clics sur des éléments aléatoires. Cela augmente l'"humanité" du scraper. Si vous utilisez un simple scraper HTTP (sans navigateur), cela n'est pas nécessaire, mais alors respectez strictement les limites de requêtes.
Comment analyser les avis collectés pour augmenter les ventes
Collecter des avis n'est que la moitié du travail. L'essentiel est de les analyser correctement et d'appliquer les insights. Voici des scénarios pratiques d'utilisation.
1. Identifier les défauts des produits concurrents
Ouvrez Excel avec les avis collectés, filtrez les avis négatifs (évaluation de 1 à 2 étoiles). Regardez sur quoi se plaignent les acheteurs : la taille ne correspond pas, mauvais emballage, livraison longue, mauvaise qualité du matériau. Ces plaintes sont votre avantage concurrentiel. Si les concurrents reçoivent 30 % d'avis négatifs à cause d'une taille incorrecte, indiquez dans votre fiche produit un tableau des tailles détaillé avec photo du mètre ruban. Si les plaintes concernent l'emballage, mettez un bel emballage et mentionnez-le dans la description.
Un cas réel : un vendeur de leggings de sport a collecté 500 avis sur les 5 meilleurs concurrents. Il a découvert que 40 % des avis négatifs étaient liés au fait que le tissu était transparent lors des squats. Il a commandé un tissu plus épais auprès de son fournisseur, a réalisé une vidéo-test "les leggings ne sont pas transparents" et l'a ajoutée à sa fiche produit. Résultat : le taux de conversion est passé de 3 % à 7 %, les ventes ont doublé en un mois.
2. Amélioration de la fiche produit sur la base des questions des acheteurs
En plus des avis, scrapez les questions des acheteurs (elles sont présentes sur Wildberries et Ozon). Les questions montrent quelles informations manquent dans la fiche produit. Si 20 personnes demandent "C'est 100 % coton ou avec des synthétiques ?" — cela signifie que la composition n'est pas claire. Ajoutez dans la description un grand bloc "Composition : 95 % coton, 5 % élasthanne" avec une icône. Si on demande la compatibilité avec l'iPhone 15 — ajoutez une liste de modèles compatibles.
3. Identifier les besoins non satisfaits (nouvelles niches)
Analysez les avis positifs des concurrents. Recherchez des phrases comme "super, mais j'aimerais que...", "dommage qu'il n'y ait pas...". Ce sont des signaux de besoins non satisfaits. Par exemple, dans les avis sur les sacs à dos pour enfants, on écrit souvent "bon sac à dos, mais pas de réflecteurs". Vous pouvez lancer un sac à dos avec des réflecteurs et capter ce public.
4. Suivi de la dynamique des avis (détection précoce des problèmes)
Configurez le scraping automatique de vos produits une fois par jour. Si le nombre d'avis négatifs augmente brusquement (par exemple, 10 avis avec des plaintes sur des défauts en une semaine) — c'est un signal pour vérifier le lot auprès du fournisseur. Il se peut qu'il ait envoyé des produits défectueux. Plus vous détectez le problème tôt, moins vous perdrez en classement.
5. Collecte de sémantique pour le SEO au sein de la marketplace
Les avis des clients sont une source de mots-clés "vivants". Les gens écrivent comment ils recherchent le produit : "acheté pour la datcha", "cherché un cadeau pour mon mari pour le 23 février", "j'avais besoin d'une tasse thermique pour la voiture". Ces phrases peuvent être ajoutées au titre et à la description de votre fiche produit — cela augmentera la visibilité dans la recherche de la marketplace.
Conclusion
La collecte d'avis sur les marketplaces n'est pas seulement une tâche technique, mais un outil stratégique pour augmenter les ventes. Des avis correctement collectés et analysés sur les concurrents vous donnent un avantage concurrentiel : vous savez ce qui manque sur le marché, quels problèmes résoudre, comment améliorer votre fiche produit. L'essentiel est de le faire en toute sécurité pour éviter le bannissement.
Points clés de l'article : utilisez des proxies résidentiels pour le scraping de Wildberries et Ozon (ils ne sont pas bannis, contrairement aux datacenters), respectez les limites de requêtes (pas plus de 100 requêtes par heure sur Wildberries), configurez des délais aléatoires entre les requêtes (3-7 secondes), ne scrapez pas depuis la même IP que celle que vous utilisez pour accéder à votre tableau de bord vendeur. Pour les débutants, nous recommandons de commencer par des outils prêts à l'emploi comme Mpstats ou Octoparse — ils sont rentables si votre chiffre d'affaires est de 200 000 roubles par mois.
Si vous prévoyez de collecter régulièrement des données sur les marketplaces, nous vous recommandons d'essayer des proxies résidentiels — ils offrent un haut niveau d'anonymat, des IP réelles de fournisseurs russes et un risque minimal de blocages. C'est un investissement qui se rentabilise par la préservation de l'accès à des données critiques pour votre entreprise.