El análisis de reseñas de competidores es una tarea críticamente importante para cualquier vendedor en marketplaces. Las reseñas muestran problemas reales de los productos, ayudan a mejorar las fichas de productos y a encontrar nichos desatendidos. Pero los marketplaces bloquean estrictamente el scraping masivo: Wildberries bloquea la IP después de 50-100 solicitudes, Ozon muestra un captcha, y Yandex.Market cierra el acceso a la API para personas físicas. En este artículo, analizaremos cómo recopilar reseñas de manera segura, qué herramientas utilizar y cómo configurar proxies para no perder acceso a los datos.
Por qué los marketplaces bloquean el scraping de reseñas
Los marketplaces protegen sus datos por varias razones. En primer lugar, el scraping masivo genera una alta carga en los servidores: miles de solicitudes por minuto de scrapers pueden ralentizar el funcionamiento del sitio para los compradores comunes. En segundo lugar, las reseñas son datos valiosos que las plataformas monetizan a través de análisis de pago (por ejemplo, Ozon Analytics o WB Analytics cuestan desde 5000 rublos al mes). En tercer lugar, los competidores pueden usar las reseñas para acciones deshonestas: copiar estrategias exitosas, manipular reseñas o incluso buscar clientes insatisfechos de los competidores.
Técnicamente, los marketplaces rastrean la actividad sospechosa por varios parámetros:
- Frecuencia de solicitudes desde una IP: Si desde tu IP llegan 100+ solicitudes por minuto, claramente no es un humano. Wildberries bloquea tales IP durante 24 horas después de 50-70 solicitudes.
- Patrones de comportamiento: Los scrapers abren páginas demasiado rápido (menos de 1 segundo por página), no mueven el ratón, no hacen scroll. Los sistemas modernos anti-bot (por ejemplo, Kasada o DataDome) pueden reconocer esto fácilmente.
- User-Agent y huella digital del navegador: Si tu script envía solicitudes con un User-Agent de una versión antigua de Chrome o sin JavaScript, es una señal de alerta.
- Falta de cookies y sesiones: Los usuarios comunes tienen un historial de visitas, cookies de autorización. Los scrapers a menudo llegan "limpios".
Ozon utiliza una protección especialmente agresiva: después de 20-30 solicitudes muestra un captcha, y en intentos repetidos de eludirlo, bloquea la IP a nivel de CDN (Cloudflare). Yandex.Market cerró su API pública para personas físicas en 2023; ahora el acceso es solo para personas jurídicas con contrato. Avito bloquea no solo por IP, sino también por número de teléfono si detecta actividad automática.
Qué sucede si se hace scraping sin protección: consecuencias de los baneos
Las consecuencias del bloqueo dependen de cómo estés haciendo el scraping. Si usas tu IP doméstica sin proxies, recibirás un baneo temporal de 24 horas. Esto no es crítico para la recopilación de datos única, pero es un problema para el monitoreo regular. Si haces scraping a través de una cuenta de vendedor (por ejemplo, utilizando el panel personal de WB para acceder a estadísticas ampliadas), corres el riesgo de que te bloqueen la cuenta. Recuperarla es complicado: necesitas escribir al soporte y demostrar que no fuiste tú, sino un "virus en la computadora". El proceso toma de una semana a un mes.
Caso real: un vendedor de juguetes infantiles en Wildberries configuró el scraping automático de reseñas de competidores a través de un script en Python. El script funcionaba desde su IP de trabajo, recopilando 500 reseñas cada hora. Después de 3 días, Wildberries bloqueó no solo la IP, sino también la cuenta del vendedor; el algoritmo vinculó la IP del scraper con la IP desde la que accedía al panel personal. Resultado: pérdida de acceso a la tienda durante 2 semanas, ingresos perdidos de aproximadamente 400,000 rublos (los productos estaban disponibles, pero no se podían gestionar los envíos).
Importante: Nunca hagas scraping desde la misma IP desde la que accedes a tu panel de vendedor. Los marketplaces vinculan las direcciones IP con las cuentas y pueden bloquear tu tienda por actividad sospechosa.
Otro problema es el legal. Formalmente, el scraping viola el acuerdo de usuario de la mayoría de los marketplaces (sección "Acciones prohibidas"). En la práctica, las plataformas rara vez llegan a juicio con los scrapers, pero hay precedentes. En 2022, Ozon presentó una demanda contra un servicio de análisis que recopilaba datos sobre precios y existencias. El tribunal se puso del lado de Ozon, y el servicio cerró. Para personas físicas, el riesgo de reclamaciones judiciales es mínimo, pero para empresas que venden scraping como servicio, es una amenaza real.
3 formas de recopilar reseñas: manual, API, scraping automático
Método 1: Recopilación manual (para volúmenes pequeños)
Si necesitas recopilar reseñas de 5-10 productos de competidores una vez a la semana, puedes hacerlo manualmente. Abres la ficha del producto en Wildberries o Ozon, desplazas las reseñas, copias el texto en Excel. Ventajas: no se necesitan habilidades técnicas, riesgo cero de baneo. Desventajas: muy lento (para 100 reseñas se tarda de 30 a 40 minutos), imposible rastrear la dinámica, no hay automatización.
Este método es adecuado para microempresas: vendes 2-3 productos, quieres entender qué dicen sobre los competidores para mejorar tu ficha. Para el monitoreo regular de decenas de productos, la recopilación manual no es escalable.
Método 2: API oficial (acceso limitado)
Algunos marketplaces ofrecen API para socios. La API de Wildberries para vendedores permite obtener reseñas solo de tus propios productos (no de competidores). La API de Ozon es similar: acceso solo a tus propios datos. La API de Yandex.Market para socios de contenido requiere un contrato legal y está disponible solo para empresas con un volumen de negocio de al menos 10 millones de rublos al año.
Ventajas de la API: acceso estable, no violas las reglas de la plataforma, datos estructurados en JSON. Desventajas: no se pueden obtener reseñas de competidores (la tarea principal de la mayoría de los vendedores), alto umbral de entrada para la API oficial.
Método 3: Scraping automático a través de proxies (universal)
Este es el método principal para vendedores profesionales y agencias. Utilizas herramientas especiales (scrapers) o escribes un script que abre automáticamente las páginas de productos, recopila reseñas y las guarda en una base de datos. Para no recibir un baneo, todas las solicitudes pasan a través de proxies: cada solicitud desde una nueva dirección IP, el marketplace ve usuarios comunes de diferentes ciudades.
Ventajas: puedes recopilar reseñas de cualquier producto (tuyos y de competidores), total automatización, escalabilidad (hasta 10,000 productos al día). Desventajas: se necesitan habilidades técnicas o herramientas de pago, costos de proxies (desde 3000 rublos al mes).
Qué proxies son adecuados para el scraping de marketplaces
La elección del tipo de proxy depende de tu presupuesto, volúmenes de scraping y requisitos de calidad de datos. Analicemos tres tipos principales y su aplicabilidad para marketplaces.
| Tipo de proxy | Adecuado para | Precio | Ventajas/Inconvenientes |
|---|---|---|---|
| Proxies de centros de datos | Scraping de Avito, AliExpress, pequeños sitios | Desde 50₽/IP al mes | + Baratos, rápidos − Fáciles de reconocer por WB y Ozon |
| Proxies residenciales | Wildberries, Ozon, Yandex.Market — elección principal | Desde 300₽/GB | + IP reales de usuarios domésticos, no se banean − Más caros que los de centros de datos |
| Proxies móviles | Scraping con alto riesgo de baneo, recopilación a través de aplicaciones móviles | Desde 500₽/IP al mes | + Máxima protección, IP de operadores móviles − Los más caros, más lentos que los residenciales |
Para el scraping de Wildberries y Ozon, recomendamos proxies residenciales. Estos marketplaces utilizan sistemas anti-bot avanzados que pueden identificar fácilmente las IP de los centros de datos (se encuentran en rangos conocidos de números AS de proveedores de hosting). Los proxies residenciales son IP de proveedores de internet domésticos comunes (Rostelecom, MTS, Beeline), y no se pueden distinguir de un comprador real.
Un punto importante: para los marketplaces se necesitan proxies con rotación de IP. Esto significa que cada solicitud que realices proviene de una nueva dirección IP. Por ejemplo, si haces scraping de 1000 reseñas, esto implica 1000 IP diferentes de varias ciudades de Rusia. El marketplace ve que el producto es visitado por usuarios reales de todo el país, sin actividad sospechosa.
Consejo: Para el scraping de marketplaces rusos, elige proxies con IP rusas. Wildberries y Ozon a menudo muestran captcha a usuarios en el extranjero (protección contra scrapers extranjeros). Los proxies residenciales con geolocalización en Rusia resuelven este problema.
Herramientas listas para la recopilación de reseñas: revisión de servicios
Si no eres programador, no es necesario escribir un script de scraping desde cero; hay soluciones listas. Analicemos herramientas populares para vendedores de marketplaces.
1. Mpstats (mpstats.io) — análisis de Wildberries y Ozon
El servicio más popular entre los vendedores rusos. Recopila no solo reseñas, sino también precios, existencias, posiciones en búsqueda, historial de ventas. Las reseñas se actualizan una vez al día y se pueden exportar a Excel. Precio: desde 3000 rublos al mes (tarifa "Inicio"). Ventajas: no necesitas configurar proxies por tu cuenta (todo funciona desde el principio), interfaz conveniente, informes listos. Desventajas: caro al escalar (si rastreas 100+ productos, la tarifa aumenta a 15,000 rublos), los datos se actualizan con retraso.
2. Moneyplace (moneyplace.io) — scraper para Ozon
Herramienta especializada para Ozon. Recopila reseñas, preguntas de compradores, calificaciones de vendedores. Tiene una función de análisis de sentimiento de las reseñas (determina automáticamente las negativas y positivas). Precio: desde 2500 rublos al mes. Ventajas: análisis profundo específicamente para Ozon, API para integración con tus sistemas. Desventajas: solo funciona con Ozon, no hay Wildberries ni otras plataformas.
3. Parser.ru — scraper universal sin código
Servicio en la nube para hacer scraping de cualquier sitio, incluidos marketplaces. Funciona bajo el principio de "indica qué hacer scraping — obtén resultados". No necesitas programar, todo se configura a través de una interfaz visual. Precio: desde 1500 rublos al mes + pago de proxies por separado (si usas los tuyos, es gratis). Ventajas: flexibilidad (puedes configurar el scraping de cualquier dato, no solo reseñas), funciona con cualquier marketplace. Desventajas: necesitas tiempo para la configuración (1-2 horas para aprender la interfaz).
4. Octoparse — scraper de escritorio para Windows/Mac
Programa para scraping con un editor visual. Lo instalas en tu computadora, abres el sitio del marketplace, haces clic en los elementos que necesitas recopilar (texto de la reseña, calificación, fecha). El programa recuerda la estructura y hace scraping automáticamente. Precio: versión gratuita (hasta 10,000 registros al mes), de pago desde $75/mes. Ventajas: no necesitas saber HTML/CSS, hay plantillas listas para sitios populares. Desventajas: solo funciona en tu computadora (si lo apagas, el scraping se detiene), interfaz en inglés.
5. Script propio en Python (para los técnicamente capacitados)
Si tienes habilidades básicas de programación, puedes escribir un script en Python con las bibliotecas Selenium (emulación de navegador) o Scrapy (scraping rápido). Ventajas: control total, costo de suscripción cero (solo pagas por los proxies), puedes hacer scraping de cualquier dato en cualquier formato. Desventajas: necesitas tiempo para el desarrollo (desde 5 horas para un scraper simple), necesitas mantener el código (los marketplaces cambian la estructura del sitio — el script se rompe).
Para la mayoría de los vendedores, recomendamos comenzar con servicios listos como Mpstats o Moneyplace. Se amortizan si ganas en marketplaces más de 200,000 rublos al mes. Si el presupuesto es limitado o necesitas una lógica de scraping no estándar, considera Octoparse o un script propio.
Guía paso a paso para configurar el scraping a través de proxies
Analizaremos la configuración usando la combinación de Octoparse (scraper sin código) + proxies residenciales. Este método es adecuado para principiantes y no requiere programación.
Paso 1: Obtén acceso a proxies residenciales
Regístrate con un proveedor de proxies residenciales (por ejemplo, ProxyCove). Después de registrarte, recibirás datos de conexión:
Servidor proxy: gate.proxycove.com
Puerto: 8080
Usuario: user_tu_id
Contraseña: tu_contraseña
Tipo: HTTP/HTTPS (con rotación de IP)
Importante: elige un plan con rotación por solicitudes (cada solicitud HTTP = nueva IP). Para el scraping de marketplaces, esto es crítico.
Paso 2: Instala y configura Octoparse
Descarga Octoparse desde el sitio oficial (octoparse.com), instálalo en tu computadora. En el primer inicio, el programa te pedirá crear una cuenta; utiliza la versión gratuita para probar (límite de 10,000 registros al mes, suficiente para 50-100 productos).
Abre la configuración (Settings → Proxy Settings) y añade tus proxies:
- Tipo de proxy: HTTP
- Servidor: gate.proxycove.com
- Puerto: 8080
- Nombre de usuario: tu usuario
- Contraseña: tu contraseña
- Activa la opción "Usar proxy para todas las tareas"
Haz clic en "Test Proxy" — el programa comprobará la conexión. Si todo está configurado correctamente, verás el mensaje "Proxy is working".
Paso 3: Crea una tarea de scraping de reseñas de Wildberries
Haz clic en "New Task" → "Advanced Mode". Inserta la URL de la ficha del producto en Wildberries (por ejemplo, https://www.wildberries.ru/catalog/12345678/detail.aspx). Octoparse abrirá un navegador integrado y cargará la página a través del proxy.
Ahora enseña al programa qué exactamente hacer scraping:
- Desplaza la página hacia abajo hasta el bloque de reseñas.
- Haz clic en el texto de la primera reseña → selecciona "Extract text" → el programa resaltará todas las reseñas en la página.
- Haz clic en la calificación (estrellas) → "Extract text" → el programa recordará la calificación.
- Haz clic en la fecha de la reseña → "Extract text".
- Encuentra el botón "Mostrar más" (paginación) → haz clic derecho → "Click to paginate" → el programa pasará automáticamente las páginas.
Configura los límites: en la sección "Pagination" indica un máximo de 50 páginas (aproximadamente 500 reseñas). Este es un volumen seguro para una sesión.
Paso 4: Configura retrasos entre solicitudes
¡Esto es críticamente importante! Si el scraper pasa las páginas demasiado rápido, Wildberries sospechará de un bot incluso a través de un proxy. Abre "Task Settings" → "Speed" y establece:
- Retraso de carga de página: 3-5 segundos (retraso entre páginas)
- Retraso de acción: 1-2 segundos (retraso entre clics)
- Habilitar retraso aleatorio: activar (agrega aleatoriedad, imita a un humano)
Paso 5: Inicia el scraping y exporta los datos
Haz clic en "Run" → el programa comenzará el scraping. En tiempo real verás cómo se recopilan los datos. Después de finalizar (normalmente de 10 a 15 minutos para 500 reseñas), haz clic en "Export" → selecciona el formato Excel o CSV. Listo, tienes una tabla con todas las reseñas, calificaciones y fechas.
Error frecuente: No inicies el scraping de inmediato en 100 productos. Comienza con 5-10 productos, asegúrate de que todo funcione sin bloqueos. Luego escala a 50-100 productos al día.
Reglas de scraping seguro: límites, retrasos, rotación
Incluso con proxies, puedes recibir un baneo si violas las "reglas de cortesía". Los marketplaces analizan no solo las IP, sino también los patrones de comportamiento. Aquí tienes una lista de verificación para un scraping seguro:
1. Cumple con los límites de solicitudes
Límites seguros para marketplaces rusos:
- Wildberries: no más de 100 solicitudes por hora desde una tarea de scraping. Si haces scraping de 10 productos, haz una pausa de 30-40 segundos entre productos.
- Ozon: no más de 50 solicitudes por hora (tienen una protección más agresiva). Pausa entre productos: 1 minuto.
- Yandex.Market: no más de 30 solicitudes por hora. Después de cada 10 solicitudes, haz una pausa de 5 minutos.
Estos límites están calculados para el scraping a través de proxies residenciales con rotación. Si usas centros de datos, divide los límites por 2.
2. Usa retrasos aleatorios
No hagas que los retrasos sean fijos (por ejemplo, exactamente 5 segundos entre solicitudes). Esto se ve sospechoso. Configura retrasos aleatorios: de 3 a 7 segundos. La mayoría de los scrapers (Octoparse, Scrapy) admiten esta función desde el principio.
3. Cambia el User-Agent
User-Agent es la cadena que informa al sitio qué navegador estás utilizando. Los scrapers a menudo envían User-Agents obsoletos (por ejemplo, Chrome 90, aunque la versión actual es 120). Configura la rotación del User-Agent: cada solicitud en nombre de diferentes navegadores (Chrome, Firefox, Safari) y diferentes versiones.
Ejemplo de lista de User-Agent para rotación:
Mozilla/5.0 (Windows NT 10.0; Win64; x64) Chrome/120.0.0.0
Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) Safari/605.1.15
Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:121.0) Firefox/121.0
Mozilla/5.0 (X11; Linux x86_64) Chrome/119.0.0.0
4. No hagas scraping en horas de máxima carga
Los marketplaces intensifican la protección anti-bot en horas de tráfico máximo (generalmente de 18:00 a 23:00 hora de Moscú — cuando los compradores regresan del trabajo). En este momento, el riesgo de recibir un captcha o un baneo es mayor. El momento óptimo para hacer scraping es de 2:00 a 8:00 de la mañana o de 10:00 a 16:00 durante el día.
5. Rota proxies por sesiones
Si haces scraping de un solo producto (por ejemplo, revisas 50 páginas de reseñas), utiliza una IP para toda la sesión. Si cambias la IP en cada página, el marketplace puede sospechar de algo extraño (un "usuario" salta de IP de Moscú a Vladivostok en un segundo). Pero cuando cambies a otro producto, cambia la IP.
6. Imita el comportamiento humano
Los scrapers avanzados (por ejemplo, Selenium) pueden emular acciones humanas: movimiento del ratón, desplazamiento, clics en elementos aleatorios. Esto aumenta la "humanidad" del scraper. Si usas un scraper HTTP simple (sin navegador), esto no es necesario, pero entonces debes seguir más estrictamente los límites de solicitudes.
Cómo analizar las reseñas recopiladas para aumentar las ventas
Recopilar reseñas es solo la mitad del trabajo. Lo más importante es analizarlas correctamente y aplicar los insights. Aquí hay escenarios prácticos de uso.
1. Buscar deficiencias en productos de competidores
Abre Excel con las reseñas recopiladas, filtra las negativas (calificación de 1-2 estrellas). Observa en qué se quejan los compradores: el tamaño no corresponde, mal embalaje, larga entrega, baja calidad del material. Estas quejas son tu ventaja competitiva. Si los competidores reciben un 30% de reseñas negativas por un tamaño incorrecto, indica en tu ficha una tabla de tallas detallada con fotos de la cinta métrica. Si se quejan del embalaje, incluye en el producto una bonita caja y menciona esto en la descripción.
Caso real: un vendedor de leggings deportivos recopiló 500 reseñas de los 5 principales competidores. Descubrió que el 40% de las reseñas negativas estaban relacionadas con el hecho de que la tela se transparenta al agacharse. Encargó una tela más gruesa a su proveedor, grabó un video de prueba "los leggings no se transparentan" y lo agregó a la ficha. Resultado: la conversión aumentó del 3% al 7%, las ventas se duplicaron en un mes.
2. Mejora de la ficha del producto basada en preguntas de compradores
Además de las reseñas, haz scraping de las preguntas de los compradores (están en Wildberries y Ozon). Las preguntas muestran qué información falta en la ficha. Si 20 personas preguntan "¿Es 100% algodón o tiene sintético?" — significa que la composición no está clara. Agrega en la descripción un bloque grande "Composición: 95% algodón, 5% elastano" con un ícono. Si preguntan sobre la compatibilidad con el iPhone 15, agrega una lista de modelos compatibles.
3. Buscar necesidades no satisfechas (nuevos nichos)
Analiza las reseñas positivas de competidores. Busca frases como "genial, pero me gustaría...", "lástima que no hay...". Estas son señales de necesidades no satisfechas. Por ejemplo, en las reseñas de mochilas infantiles a menudo se menciona "buena mochila, pero no tiene reflectores". Puedes lanzar una mochila con reflectores y captar a esa audiencia.
4. Monitoreo de la dinámica de reseñas (detección temprana de problemas)
Configura el scraping automático de tus productos una vez al día. Si el número de reseñas negativas aumenta drásticamente (por ejemplo, en una semana llegan 10 reseñas con quejas sobre defectos) — es una señal para verificar el lote con el proveedor. Es posible que haya enviado productos defectuosos. Cuanto antes detectes el problema, menos perderás en el ranking.
5. Recopilación de semántica para SEO dentro del marketplace
Las reseñas de los compradores son una fuente de palabras clave "vivas". La gente escribe cómo busca el producto: "compré para la dacha", "buscaba un regalo para mi esposo el 23 de febrero", "necesitaba un termo para el coche". Estas frases se pueden agregar al título y descripción de tu ficha — esto aumentará la visibilidad en la búsqueda del marketplace.
Conclusión
La recopilación de reseñas de marketplaces no es solo una tarea técnica, sino una herramienta estratégica para aumentar las ventas. Las reseñas de competidores recopiladas y analizadas correctamente te brindan una ventaja competitiva: sabes qué falta en el mercado, qué problemas resolver y cómo mejorar tu ficha. Lo principal es hacerlo de manera segura para no recibir un baneo.
Conclusiones clave del artículo: utiliza proxies residenciales para el scraping de Wildberries y Ozon (no se banean, a diferencia de los de centros de datos), cumple con los límites de solicitudes (no más de 100 solicitudes por hora en Wildberries), configura retrasos aleatorios entre solicitudes (3-7 segundos), no hagas scraping desde la misma IP desde la que accedes a tu panel de vendedor. Para principiantes, recomendamos comenzar con herramientas listas como Mpstats o Octoparse — se amortizan si tus ingresos son de 200,000 rublos al mes.
Si planeas recopilar datos de marketplaces de manera regular, te recomendamos probar proxies residenciales — ofrecen un alto nivel de anonimato, IP reales de proveedores rusos y un riesgo mínimo de bloqueos. Es una inversión que se amortiza al mantener el acceso a datos críticos para tu negocio.