In diesem Artikel (Teil 1): Erfahren Sie, warum Proxys für den E-Commerce im Jahr 2025 kritisch geworden sind, wie Preis-Scraping funktioniert, die Überwachung der Warenverfügbarkeit, welche Methoden Einzelhändler zur Erfassung von Marktdaten anwenden und warum dies ohne Proxys unmöglich ist. Das Material basiert auf aktuellen E-Commerce-Marktforschungsstudien von 2025.
📑 Inhalt von Teil 1
- E-Commerce im Jahr 2025: Das Datenrennen
- Warum E-Commerce Proxys benötigt
- Konkurrenzpreis-Scraping: Was es ist und wozu es dient
- Wettbewerbsaufklärung in Echtzeit
- Überwachung der Warenverfügbarkeit
- Anti-Scraping-Schutz: Was E-Commerce blockiert
- Proxy-Typen für den E-Commerce
- Geschäftsauswirkungen der Preisüberwachung
🛒 E-Commerce im Jahr 2025: Das Datenrennen
Der E-Commerce-Markt im Jahr 2025 ist zu einem wahren Schlachtfeld um Daten geworden. Laut Studien nutzen 78 % der amerikanischen Einzelhändler KI-gestützte Tools zur Preisüberwachung, einschließlich der Verfolgung von Wettbewerbern, dynamischer Preisgestaltung und Nachfrageprognosen. Dies ist kein bloßer Trend – es ist eine Überlebensfrage.
Warum Daten zur Waffe wurden
Der E-Commerce hat sich zu einem Hochgeschwindigkeitsumfeld entwickelt, in dem sich Preise dutzende Male am Tag ändern. Amazon passt die Preise für seine Artikel alle 10 Minuten an, Walmart alle 15 Minuten. Wenn Sie nicht wissen, was Ihre Konkurrenten gerade tun, haben Sie bereits verloren.
📊 Wichtige Marktzahlen 2025:
- 30 % der E-Commerce-Unternehmen nutzen bereits dynamische Preisgestaltung
- 6–9 % Umsatzwachstum bei Unternehmen mit KI-Preisüberwachung
- 25 % Gewinnsteigerung von Amazon durch schnelle Preisanpassung
- 30 % Umsatzsteigerung von Walmart durch dynamische Preise
- Über 100 Milliarden US-Dollar verliert der E-Commerce jährlich durch Web-Scraping
- 15–20 % verbesserte Effizienz der Preisgestaltung durch Automatisierung
⚠️ Wichtig zu verstehen: Im Jahr 2025 ist die Überwachung von Wettbewerbern keine Option, sondern eine zwingende Voraussetzung für den Erfolg. Unternehmen, die den Markt nicht in Echtzeit verfolgen, verlieren Kunden, Gewinn und Marktanteile. Die automatisierte Preisüberwachung mittels Proxys ist zum Industriestandard geworden.
🔐 Warum E-Commerce Proxys benötigt
Alle E-Commerce-Plattformen schützen ihre Daten vor automatisiertem Sammeln. Laut Statistik machen mehr als 30 % des Website-Traffics Versuche automatisierten Scrapings aus (ein Anstieg gegenüber 27,7 % im Jahr 2022). Websites nutzen komplexe Bot-Erkennungssysteme, die verdächtige Aktivitäten blockieren.
Was E-Commerce-Websites blockieren
❌ Mehrere Anfragen von einer IP
Wenn von einer IP-Adresse mehr als 100 Anfragen pro Minute eingehen, erkennt das System dies automatisch als Bot und sperrt die IP. Ein normaler Benutzer kann nicht 100 Produkte pro Minute ansehen.
❌ Verdächtige Verhaltensmuster
Anti-Scraping-Systeme analysieren: Scroll-Geschwindigkeit, Mausbewegungen, Klicks, Verweildauer auf der Seite. Bots verraten sich durch perfekt regelmäßige Aktionen.
❌ Browser-Fingerprinting
Websites sammeln den einzigartigen "Fingerabdruck" des Browsers: Bildschirmauflösung, installierte Schriftarten, Zeitzone, Plugins. Wiederholte Fingerabdrücke = Bot.
❌ Blockierung von Rechenzentren
IP-Adressen aus AWS-, Google Cloud-, Azure-Bereichen werden automatisch blockiert. E-Commerce-Anbieter wissen, dass echte Käufer nicht in Rechenzentren sitzen.
Wie Proxys diese Probleme lösen
✅ Lastverteilung
Anstatt 10.000 Anfragen von einer IP zu senden, nutzen Sie einen Pool von 1.000 Proxys. Jede IP sendet nur 10 Anfragen – das sieht nach normaler Aktivität aus.
✅ Residendiale IPs = echte Nutzer
Residendiale und mobile Proxys verwenden IPs von echten Geräten. Für die Website sieht es aus wie ein normaler Käufer aus Russland, den USA oder Deutschland.
✅ Geografische Verteilung
Proxys aus verschiedenen Ländern ermöglichen das Sammeln von Daten unter Berücksichtigung lokaler Preise. Amazon zeigt unterschiedliche Preise in den USA, Deutschland, Japan – Sie benötigen die IP jedes Landes.
💰 Konkurrenzpreis-Scraping: Was es ist und wozu es dient
Preis-Scraping ist das automatisierte Sammeln von Daten über die Preise von Wettbewerbern von deren Websites. Im Jahr 2025 ist dies zu einer kritischen Praxis für jeden Einzelhändler geworden, der wettbewerbsfähig bleiben möchte.
Welche Daten gesammelt werden
1. Aktuelle Preise
Der Hauptpreis des Produkts, der alte Preis (durchgestrichen), der Rabattprozentsatz, Sonderangebote.
iPhone 15 Pro 256GB
Aktueller Preis: 89.990 ₽
Alter Preis: 119.990 ₽ (-25%)
Verfügbar: 47 Stk.
Verkäufer: MobileStore24
2. Historische Dynamik
Die Verfolgung von Preisänderungen im Laufe der Zeit ermöglicht es:
- Preismuster der Wettbewerber zu erkennen
- Aktionen und Verkäufe vorherzusagen
- Den minimalen und maximalen Preis zu bestimmen
- Die Saisonalität von Preisänderungen zu verstehen
3. Produktdaten
Beschreibung, Spezifikationen, Bewertungen, Rankings, Fotos – all dies hilft zu verstehen, wie Wettbewerber das Produkt positionieren.
Anwendungsszenarien des Scrapings
| Szenario | Beschreibung | Häufigkeit |
|---|---|---|
| Dynamische Preisgestaltung | Automatische Preisanpassung basierend auf Konkurrenzpreisen | Alle 15–30 Min. |
| Marktanalyse | Untersuchung allgemeiner Preistrends in der Kategorie | 1–2 Mal täglich |
| Aktionsüberwachung | Verfolgung von Promos und Rabatten bei Wettbewerbern | Stündlich |
| MAP-Einhaltung | Überprüfung des vom Hersteller minimal zulässigen Preises | 2–4 Mal täglich |
| Sortiment | Überwachung neuer Produkte | Einmal täglich |
🎯 Wettbewerbsaufklärung in Echtzeit
Preis-Scraping ist nur ein Teil der Wettbewerbsaufklärung. Moderne Einzelhändler sammeln umfassende Daten, um ein vollständiges Bild des Marktes zu erhalten.
📊 Marketingaktionen
Verfolgung von: Bannern, Gutscheincodes, Treueprogrammen, Cashback, kostenlosem Versand.
- Wann Aktionen gestartet werden
- Welche Bedingungen angeboten werden
- Welche Produkte teilnehmen
- Dauer der Promo
⭐ Bewertungen und Rankings
Die Analyse von Wettbewerberbewertungen hilft dabei:
- Die Schwächen des Produkts zu verstehen
- Häufige Probleme zu identifizieren
- Den eigenen Service zu verbessern
- Neue Verkaufsargumente zu finden
🚚 Lieferbedingungen
Die Überwachung der Lieferkosten, Mindestbestellwerte, Lieferzeiten und verfügbaren Regionen ist entscheidend für die Wettbewerbsfähigkeit.
💳 Zahlungsarten
Welche Zahlungsmethoden die Wettbewerber anbieten: Ratenzahlung, Online-Kredite, Kryptowährungen – all dies beeinflusst die Konversionsrate.
📦 Überwachung der Warenverfügbarkeit
Die Überwachung der Warenverfügbarkeit (Stock Availability) ist eine kritische Funktion für den E-Commerce. Laut NielsenIQ führen jeder 2%ige Rückgang von Out-of-Stock zu einem Umsatzwachstum von 1%, was für große Einzelhändler Millionen von Dollar bedeutet.
Warum das wichtig ist
💸 Verluste durch Out-of-Stock
- 1,14 Billionen US-Dollar Verlust für Einzelhändler im Jahr 2020 aufgrund fehlender Ware
- 75 % der Käufer verzichten auf einen Kauf, wenn der Artikel nicht vorrätig ist
- 43 % der Käufer gehen zur Konkurrenz, wenn der Artikel nicht verfügbar ist
✅ Vorteile der Überwachung
- Erschließung von Marktanteilen, wenn der Wettbewerber ausverkauft ist
- Optimierung der eigenen Lagerbestände basierend auf Marktdaten
- Nachfrageprognose basierend auf der Aktivität der Wettbewerber
- Identifizierung von Engpassartikeln zur Priorisierung des Einkaufs
Was überwacht wird
1. Verfügbarkeitsstatus
- Auf Lager / Nicht auf Lager
- Begrenzte Menge (z. B. "Nur noch 3 Stück übrig")
- Vorbestellung / Lieferung erwartet
- Aus dem Sortiment genommen
2. Stückzahl
Einige Marktplätze zeigen die genaue Anzahl der Artikel auf Lager an. Dies sind wertvolle Informationen für die Analyse der Umschlagshäufigkeit der Wettbewerber.
3. Regionale Verfügbarkeit
Ein Artikel kann in Moskau vorrätig sein, aber in Nowosibirsk fehlen. Die Überwachung nach Regionen verschafft einen Wettbewerbsvorteil.
🛡️ Anti-Scraping-Schutz: Was E-Commerce blockiert
Alle großen Marktplätze nutzen fortschrittliche Anti-Scraping-Systeme. Im Jahr 2025 sind diese Systeme durch den Einsatz von KI und maschinellem Lernen zur Bot-Erkennung noch intelligenter geworden.
Moderne Schutzmethoden
1. Rate Limiting (Geschwindigkeitsbegrenzung)
Die Website erlaubt nur N Anfragen pro IP in einem bestimmten Zeitraum.
Amazon: ~100 Anfragen pro Stunde pro IP
Wildberries: ~50 Anfragen pro Stunde
Ozon: ~80 Anfragen pro Stunde
Überschreitung = temporäre IP-Sperre
2. CAPTCHA und Challenge-Response
Bei verdächtiger Aktivität erscheint eine CAPTCHA (reCAPTCHA v3, hCaptcha, CloudFlare Turnstile). DataDome- und Kasada-Systeme verwenden JavaScript-Challenges, die schwer zu umgehen sind.
3. TLS Fingerprinting
Analyse der Parameter der TLS-Verbindung. Bots verwenden oft Bibliotheken (Python requests, curl), die einen einzigartigen TLS-Fingerabdruck aufweisen, der sich von Browsern unterscheidet.
4. Behavioral Analysis (Verhaltensanalyse)
KI analysiert: Scroll-Geschwindigkeit, Pausen zwischen Klicks, Mauspfad, Verweildauer auf der Seite. Ein Mensch kann Produkte nicht mit einer perfekt regelmäßigen Geschwindigkeit von 5 Sekunden pro Seite ansehen.
⚠️ Wichtig: Ohne Proxys ist es nahezu unmöglich, diese Schutzmaßnahmen zu umgehen. Selbst mit Proxys ist eine korrekte Konfiguration erforderlich: IP-Rotation, Browser-Emulation, Randomisierung der Verzögerungen, Verwendung residendialer Proxys.
🔄 Proxy-Typen für den E-Commerce
🏢 Rechenzentrums-Proxys
Kosten: $1.5/GB
Geschwindigkeit: Sehr hoch (1–10 Gbit/s)
Erfolgsquote: 60–70 % für E-Commerce
✅ Geeignet für: nicht-aggressive Scraping-Aufgaben, Datenanalyse, kleine Mengen
❌ Nicht geeignet für: große Marktplätze mit strengem Schutz
🏠 Residendiale Proxys
Kosten: $2.7/GB
Geschwindigkeit: Mittel
Erfolgsquote: 95–98 % für E-Commerce
✅ Geeignet für: Amazon, eBay, Wildberries, Ozon, aggressives Scraping
✅ Optimale Wahl für die meisten Aufgaben
📱 Mobile Proxys
Kosten: $3.8/GB
Geschwindigkeit: Mittel bis niedrig
Erfolgsquote: 99 % für E-Commerce
✅ Geeignet für: die am stärksten geschützten Websites, Sneaker-Drops, limitierte Artikel
✅ Maximale Anonymität und Erfolgsquote
📈 Geschäftsauswirkungen der Preisüberwachung
💎 ROI durch Automatisierung
Umsatzwachstum
Bei Einführung von KI-Preisüberwachung
Effizienzsteigerung
der Preisgestaltung
Reduzierung von Überbeständen
Optimierung der Lagerbestände
Gewinnsteigerung
Amazon (schnelle Anpassung)
🎁 ProxyCove für E-Commerce: Spezielle Pools für das Scraping von Marktplätzen. Residendiale Proxys aus Russland für Wildberries und Ozon ($2.7/GB), internationale für Amazon und eBay. Jetzt registrieren → und erhalten Sie +$1.3 mit dem Promo-Code ARTHELLO
Fortsetzung folgt...
Im nächsten Teil: Praktische Anleitung zum Scraping spezifischer Marktplätze – Amazon, Wildberries, Ozon. Erfahren Sie mehr über die Besonderheiten jeder Plattform, die Einrichtung dynamischer Preisgestaltung, zu verwendende Tools und Codebeispiele sowie Konfigurationen.
Beginnen Sie noch heute mit der Überwachung:
In diesem Teil (Teil 2): Praktische Anleitung zum Scraping spezifischer Marktplätze – Amazon, Wildberries, Ozon. Erfahren Sie mehr über die Besonderheiten jeder Plattform, die Einrichtung dynamischer Preisgestaltung, zu verwendende Tools sowie Codebeispiele und Konfigurationen.
📑 Inhalt von Teil 2
- Scraping von Amazon: Besonderheiten und Schutz
- Scraping von Wildberries: Der russische Marktführer
- Scraping von Ozon: Das Amazon Russlands
- Scraping von eBay und anderen Plattformen
- Dynamische Preisgestaltung 2025
- Tools und Bibliotheken
- Einrichtung eines Scrapers mit Proxys
- Best Practices für das Scraping
🛒 Scraping von Amazon: Besonderheiten und Schutz
Amazon ist einer der am stärksten geschützten Marktplätze der Welt. Amazons Anti-Bot-Systeme sind so fortschrittlich, dass sie eine ernsthafte Vorbereitung für erfolgreiches Scraping erfordern.
Besonderheiten des Amazon-Schutzes
🛡️ Mehrstufiger Schutz
- PerimeterX (HUMAN Security) – fortschrittliches Bot-Erkennungssystem
- Rate Limiting – strenge Limits von ca. 100 Anfragen/Stunde pro IP
- CAPTCHA reCAPTCHA v3 – erscheint bei verdächtiger Aktivität
- TLS Fingerprinting – Analyse der Parameter der HTTPS-Verbindung
- Browser Fingerprinting – Geräte- und Browser-Abdruck
- Behavioral Analytics – KI analysiert das Nutzerverhalten
✅ Was für erfolgreiches Scraping nötig ist
- Residendiale Proxys sind zwingend erforderlich – Rechenzentrum-IPs werden sofort blockiert
- Großer IP-Pool – mindestens 500–1000 Proxys für ernsthaftes Scraping
- Headless Browser – Puppeteer, Playwright mit echtem Chrome
- User-Agent-Rotation – Imitation verschiedener Geräte
- Zufällige Verzögerungen – 3–10 Sekunden zwischen den Anfragen
- Cookie Management – Speichern von Sitzungen zur Reduzierung von Verdachtsmomenten
Codebeispiel für Amazon (Python)
import requests
from bs4 import BeautifulSoup
import random
import time
# ProxyCove residendiale Proxys
PROXIES = [
"http://user:pass@gate.proxycove.com:12321",
"http://user:pass@gate.proxycove.com:12322",
"http://user:pass@gate.proxycove.com:12323",
# ... weitere 500+ Proxys zur Rotation
]
USER_AGENTS = [
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36',
'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36',
'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36',
]
def scrape_amazon_product(asin):
proxy = random.choice(PROXIES)
headers = {
'User-Agent': random.choice(USER_AGENTS),
'Accept-Language': 'en-US,en;q=0.9',
'Accept': 'text/html,application/xhtml+xml',
'Referer': 'https://www.amazon.com/'
}
url = f'https://www.amazon.com/dp/{asin}'
try:
response = requests.get(
url,
headers=headers,
proxies={'http': proxy, 'https': proxy},
timeout=15
)
if response.status_code == 200:
soup = BeautifulSoup(response.text, 'html.parser')
# Daten-Parsing
title = soup.find('span', {'id': 'productTitle'})
price = soup.find('span', {'class': 'a-price-whole'})
rating = soup.find('span', {'class': 'a-icon-alt'})
availability = soup.find('div', {'id': 'availability'})
return {
'asin': asin,
'title': title.text.strip() if title else None,
'price': price.text.strip() if price else None,
'rating': rating.text.strip() if rating else None,
'in_stock': 'In Stock' in availability.text if availability else False
}
except Exception as e:
print(f"Fehler: {e}")
return None
# Obligatorische Verzögerung
time.sleep(random.uniform(3, 8))
# Verwendung
product_data = scrape_amazon_product('B08N5WRWNW')
print(product_data)
⚠️ Wichtig: Für ernsthaftes Amazon-Scraping wird die Verwendung von Puppeteer/Playwright mit einem vollwertigen Browser anstelle von requests empfohlen. Ebenfalls obligatorisch ist die Proxy-Rotation bei jeder Anfrage. ProxyCove bietet automatische Rotation über einen einzigen Endpunkt.
Regionale Besonderheiten von Amazon
| Marktplatz | URL | Benötigte Proxys | Schutz |
|---|---|---|---|
| Amazon.com | amazon.com | Residendiale US-Proxys | Sehr hoch |
| Amazon.de | amazon.de | Residendiale DE-Proxys | Sehr hoch |
| Amazon.co.uk | amazon.co.uk | Residendiale UK-Proxys | Sehr hoch |
| Amazon.co.jp | amazon.co.jp | Residendiale JP-Proxys | Hoch |
🇷🇺 Scraping von Wildberries: Der russische Marktführer
Wildberries ist der größte russische Marktplatz mit einem Marktanteil von etwa 40 % (zusammen mit Ozon kontrollieren sie 80 % des Marktes). Im Jahr 2025 hat die Plattform über 50.000 Marken und 343 Millionen Besuche pro Monat.
Besonderheiten von Wildberries
📊 Datenstruktur
Wildberries nutzt eine API-gesteuerte Architektur. Produktdaten werden über eine JSON-API geladen, was das Scraping im Vergleich zum HTML-Scraping vereinfacht.
- Produkt-API:
card.wb.ru/cards/detail - Preis-API:
basket-*.wb.ru/vol*/part*/*/info/ru/card.json - Bewertungs-API:
feedbacks*.wb.ru - Suche:
search.wb.ru/exactmatch/ru/common/v4/search
✅ Schutzlevel
Mittel. Wildberries hat Rate Limiting (~50 Anfragen/Stunde pro IP), aber keinen so aggressiven Schutz wie Amazon. Residendiale Proxys aus Russland funktionieren hier hervorragend.
Codebeispiel für Wildberries
import requests
import random
import time
# ProxyCove residendiale Proxys für Russland
PROXY_POOL = [
"http://user:pass@ru.proxycove.com:12321", # Moskau
"http://user:pass@ru.proxycove.com:12322", # Sankt Petersburg
"http://user:pass@ru.proxycove.com:12323", # Nowosibirsk
]
def get_wb_product(article_id):
"""Produktinformationen von WB nach Artikelnummer abrufen"""
proxy = random.choice(PROXY_POOL)
# Berechnung von vol und part für die API
vol = article_id // 100000
part = article_id // 1000
url = f'https://basket-{vol:02d}.wb.ru/vol{vol}/part{part}/{article_id}/info/ru/card.json'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36',
'Accept': 'application/json',
'Origin': 'https://www.wildberries.ru',
'Referer': 'https://www.wildberries.ru/'
}
try:
response = requests.get(
url,
headers=headers,
proxies={'http': proxy, 'https': proxy},
timeout=10
)
if response.status_code == 200:
data = response.json()
return {
'article': article_id,
'name': data.get('imt_name'),
'brand': data.get('selling', {}).get('brand_name'),
'price': data.get('extended', {}).get('basicPriceU', 0) / 100,
'sale_price': data.get('extended', {}).get('clientPriceU', 0) / 100,
'rating': data.get('reviewRating'),
'feedbacks': data.get('feedbackCount')
}
except Exception as e:
print(f"Fehler: {e}")
return None
time.sleep(random.uniform(2, 5))
# Suche nach Produkten
def search_wb(query, page=1):
"""Suche auf WB"""
proxy = random.choice(PROXY_POOL)
url = 'https://search.wb.ru/exactmatch/ru/common/v4/search'
params = {
'appType': 1,
'curr': 'rub',
'dest': -1257786,
'page': page,
'query': query,
'resultset': 'catalog',
'sort': 'popular',
'spp': 0,
'suppressSpellcheck': 'false'
}
response = requests.get(
url,
params=params,
proxies={'http': proxy, 'https': proxy},
timeout=10
)
if response.status_code == 200:
data = response.json()
products = data.get('data', {}).get('products', [])
return [{
'article': p['id'],
'name': p['name'],
'brand': p['brand'],
'price': p['priceU'] / 100,
'sale_price': p['salePriceU'] / 100,
'rating': p.get('rating'),
'feedbacks': p.get('feedbacks')
} for p in products]
return []
# Verwendung
product = get_wb_product(123456789)
search_results = search_wb('iPhone 15 Pro', page=1)
💡 Profi-Tipp
Für großflächiges Wildberries-Scraping verwenden Sie russische residendiale Proxys von ProxyCove ($2.7/GB). Diese gewährleisten eine Erfolgsquote von über 95 %. Für die Überwachung von 1.000 Artikeln pro Tag reicht ein Pool von 50–100 Proxys mit Rotation.
🟣 Scraping von Ozon: Das Amazon Russlands
Ozon ist der zweitgrößte Marktplatz in Russland mit 316 Millionen Besuchen pro Monat. Die Plattform wird oft als "russisches Amazon" bezeichnet, da sie ein breites Sortiment von Elektronik bis hin zu Lebensmitteln anbietet.
Besonderheiten von Ozon
🛡️ Ozon-Schutz
Überdurchschnittlich. Ozon nutzt CloudFlare zum Schutz, einschließlich JavaScript-Challenges und CAPTCHAs. Im Jahr 2025 wurde der Schutz verstärkt.
- CloudFlare Challenge Pages
- Rate Limiting ca. 80 Anfragen/Stunde
- Browser Fingerprinting
- Headless Browser für Umgehung erforderlich
📡 API und Struktur
Ozon verwendet ebenfalls eine JSON-API zum Laden von Daten, erfordert jedoch das Bestehen einer CloudFlare-Challenge, um gültige Cookies zu erhalten.
Beispiel mit Playwright für Ozon
from playwright.sync_api import sync_playwright
import random
PROXY_POOL = [
{
'server': 'http://ru.proxycove.com:12321',
'username': 'your_username',
'password': 'your_password'
},
# ... weitere Proxys
]
def scrape_ozon_product(product_url):
"""Scraping eines Ozon-Produkts mit Playwright"""
proxy = random.choice(PROXY_POOL)
with sync_playwright() as p:
browser = p.chromium.launch(
headless=True,
proxy=proxy
)
context = browser.new_context(
user_agent='Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36',
viewport={'width': 1920, 'height': 1080}
)
page = context.new_page()
try:
# Navigieren zur Produktseite
page.goto(product_url, wait_until='domcontentloaded', timeout=30000)
# Warten auf das Laden der Daten
page.wait_for_selector('h1', timeout=10000)
# Extrahieren der Daten
title = page.locator('h1').first.inner_text()
price_elem = page.locator('[data-widget="webPrice"]').first
price = price_elem.inner_text() if price_elem else None
rating_elem = page.locator('[data-widget="webReviewInfo"]').first
rating = rating_elem.inner_text() if rating_elem else None
availability = page.locator('[data-widget="webAddToCart"]').first
in_stock = availability is not None
return {
'url': product_url,
'title': title,
'price': price,
'rating': rating,
'in_stock': in_stock
}
except Exception as e:
print(f"Fehler: {e}")
return None
finally:
browser.close()
# Verwendung
data = scrape_ozon_product('https://www.ozon.ru/product/12345678/')
print(data)
🌐 Scraping von eBay und anderen Plattformen
Vergleich der Marktplätze
| Plattform | Schutz | Proxy-Typ | Methode | Erfolgsquote |
|---|---|---|---|---|
| Amazon | Sehr hoch | Residendiale | Headless Browser | 85–90 % |
| Wildberries | Mittel | Residendiale RU | API-Anfragen | 95–98 % |
| Ozon | Hoch | Residendiale RU | Headless Browser | 90–93 % |
| eBay | Mittel | Residendiale | API/HTML | 92–95 % |
| AliExpress | Niedrig | Rechenzentrum/Residendiale | API-Anfragen | 97–99 % |
| Walmart | Hoch | Residendiale US | Headless Browser | 88–92 % |
💹 Dynamische Preisgestaltung 2025
Nach dem Sammeln von Preisdaten der Wettbewerber ist der nächste Schritt die automatische Neupreisgestaltung der eigenen Artikel. Im Jahr 2025 geschieht dies mithilfe von KI und Regeln.
Strategien der dynamischen Preisgestaltung
1. Wettbewerbsbasiert
Der Preis wird relativ zu den Wettbewerbern festgelegt: zum Beispiel 5 % unter dem Minimalpreis in der Kategorie.
IF competitor_min_price > 0:
my_price = competitor_min_price * 0.95
my_price = max(my_price, cost_price * 1.2)
2. Nachfragebasiert
Preiserhöhung bei hoher Nachfrage, Preissenkung bei geringer Nachfrage. Analysiert werden: Anzahl der Aufrufe, Hinzufügen zum Warenkorb, Verkaufsgeschwindigkeit.
3. Lagerbestandsbasiert
Wenn viele Artikel auf Lager sind – Preis senken, um den Umsatz zu beschleunigen. Wenn wenige auf Lager sind – Preis erhöhen, um den Gewinn zu maximieren.
4. Zeitbasiert
Saisonalität, Wochentag, Tageszeit. Zum Beispiel sind Elektronikartikel am Montag günstiger, am Freitagabend teurer.
Beispiel für einen Neupreis-Algorithmus
def calculate_dynamic_price(product_data, competitor_prices, inventory_level):
"""
Berechnung des dynamischen Preises
"""
# Grundlegende Einschränkungen
MIN_MARGIN = 0.15 # Mindestmarge 15%
MAX_DISCOUNT = 0.30 # Maximaler Rabatt 30%
cost_price = product_data['cost']
base_price = product_data['base_price']
# Wettbewerbsanalyse
if competitor_prices:
avg_competitor = sum(competitor_prices) / len(competitor_prices)
min_competitor = min(competitor_prices)
# Strategie: 3 % günstiger als der Durchschnitt
target_price = avg_competitor * 0.97
else:
target_price = base_price
# Anpassung an den Lagerbestand
if inventory_level > 100:
# Viel Ware – zusätzlicher Rabatt von 5 %
target_price *= 0.95
elif inventory_level < 10:
# Wenig Ware – Preiserhöhung um 5 %
target_price *= 1.05
# Überprüfung der Mindestmarge
min_price = cost_price * (1 + MIN_MARGIN)
target_price = max(target_price, min_price)
# Überprüfung des maximalen Rabatts
max_discount_price = base_price * (1 - MAX_DISCOUNT)
target_price = max(target_price, max_discount_price)
return round(target_price, 2)
# Verwendung
product = {
'cost': 1000,
'base_price': 1500
}
competitor_prices = [1450, 1480, 1420, 1490]
inventory = 150
new_price = calculate_dynamic_price(product, competitor_prices, inventory)
print(f"Neuer Preis: {new_price} Rubel") # ~1334 Rubel
🛠️ Tools und Bibliotheken
🐍 Python
- Requests - HTTP-Client
- BeautifulSoup4 - HTML-Parsing
- Scrapy - Framework für Scraping
- Playwright/Selenium - Browser-Automatisierung
📦 Node.js
- Axios - HTTP-Client
- Cheerio - jQuery für Node
- Puppeteer - Chrome-Automatisierung
- Got/node-fetch - HTTP-Anfragen
☁️ SaaS-Lösungen
- ScrapingBee - API für Scraping
- Bright Data - Proxys + Scraping
- Oxylabs - Enterprise-Lösung
- Apify - Plattform für Scraping
⚙️ Einrichtung eines Scrapers mit ProxyCove Proxys
Schritt für Schritt
1. Registrierung bei ProxyCove
- Gehen Sie zu proxycove.com/login
- Registrieren Sie sich und melden Sie sich im Kundenbereich an
- Zahlen Sie Guthaben ein mit dem Promo-Code ARTHELLO (+$1.3 Bonus)
- Wählen Sie den Proxy-Typ: Residendiale für Marktplätze
2. Abrufen der Zugangsdaten
Im Kundenbereich finden Sie den Abschnitt "Proxys" und kopieren die Verbindungsinformationen:
Host: gate.proxycove.com
Port: 12321 (oder Rotating Endpoint)
Username: your_username
Password: your_password
Format: http://username:password@gate.proxycove.com:12321
3. Konfiguration der Rotation
ProxyCove bietet automatische Rotation über einen speziellen Endpunkt. Jede Anfrage erhält eine neue IP aus dem Pool.
✅ Best Practices für das Scraping
1. robots.txt beachten
Überprüfen Sie die robots.txt-Datei der Website und befolgen Sie die Anweisungen. Das ist ethisch und rechtlich korrekt.
2. Geschwindigkeit begrenzen
Führen Sie nicht mehr als 1 Anfrage alle 3–5 Sekunden pro IP durch. Verwenden Sie zufällige Verzögerungen.
3. IP-Rotation obligatorisch
Verwenden Sie einen Proxy-Pool und wechseln Sie die IP regelmäßig. Ideal ist eine neue IP für jede Anfrage.
4. Fehlerbehandlung
Behandeln Sie immer Ausnahmen, wiederholen Sie fehlgeschlagene Anfragen mit exponentiellem Backoff.
5. Nachts scrapen
Wenn möglich, starten Sie Scraper nachts nach der Zeit des Zielgebiets – dies reduziert die Serverlast.
6. Daten cachen
Fordern Sie dieselben Daten nicht erneut an. Verwenden Sie eine Datenbank zur Speicherung der Ergebnisse.
🎁 Spezialangebot für E-Commerce von ProxyCove: Residendiale Proxys mit Rotation, 99 % Uptime, 24/7 technischer Support. Spezielle Pools für Russland (Wildberries/Ozon) und international (Amazon/eBay). Jetzt starten ab $2.7/GB → Promo-Code ARTHELLO gibt +$1.3 Bonus.
Der finale Teil folgt in Kürze!
Im finalen Teil: Kauf von limitierten Artikeln über Sneaker-Bots, Automatisierung von Monitoring und Neupreisgestaltung, reale Fallstudien von Einzelhändlern, ROI-Berechnung der Proxy-Lösungen und abschließende Empfehlungen für E-Commerce-Unternehmen im Jahr 2025.
Wählen Sie den Proxy für Ihr Projekt:
Im finalen Teil: Erfahren Sie mehr über den Kauf limitierter Artikel über Sneaker-Bots, wie Sie die Überwachung und Neupreisgestaltung automatisieren, untersuchen Sie reale Fallstudien von Einzelhändlern, die ROI-Berechnung der Proxy-Lösungen und abschließende Empfehlungen für E-Commerce-Unternehmen im Jahr 2025.
📑 Inhalt des finalen Teils
👟 Sneaker-Bots und limitierte Artikel
Sneaker-Bots sind automatisierte Programme zum Kauf limitierter Artikel: Sneaker, Spielekonsolen, Grafikkarten, Sammlerstücke. Im Jahr 2025 ist dies eine ganze Industrie mit einem Umsatz von Hunderten Millionen Dollar.
Wie Sneaker-Bots funktionieren
Kaufprozess
- Release-Monitoring – Der Bot verfolgt das Erscheinen des Artikels auf der Website
- Sofortiges Hinzufügen zum Warenkorb – in Millisekunden nach dem Release
- Automatisches Ausfüllen der Daten – Adresse, Zahlung, Versand
- Checkout – Abschluss des Kaufs schneller als ein Mensch
- Mehrfache Bestellungen – über verschiedene Konten und Proxys
⚡ Geschwindigkeit ist der Schlüssel zum Erfolg
Limitierte Releases sind in Sekunden ausverkauft. Nike SNKRS Drops enden beispielsweise in 30–90 Sekunden. Ein Mensch kann mit Bots physisch nicht konkurrieren.
- Yeezy 350 – Ausverkauf in 10 Sekunden
- PlayStation 5 (2024–2025) – Ausverkauf in 2 Minuten
- NVIDIA RTX 4090 – Ausverkauf in 5 Minuten
- Supreme Box Logo – Ausverkauf in 15 Sekunden
Warum Proxys für Sneaker-Bots benötigt werden
1. Mehrere Konten
Shops begrenzen Käufe: 1 Paar Sneaker pro Konto. Bots erstellen 50–100 Konten, jedes benötigt eine eindeutige IP.
2. Umgehung von Rate Limits
Ohne Proxys sendet der Bot 100 Anfragen pro Sekunde von einer IP und wird sofort blockiert. Mit Proxys: 2 Anfragen von 50 IPs.
3. Geografische Verteilung
Nike veröffentlicht Produkte zuerst in den USA um 9:00 EST, dann in Europa um 9:00 CET. US- und EU-Proxys geben zwei Chancen.
4. Anti-Bot-Schutz
Nike, Adidas, Supreme verwenden fortschrittlichen Schutz. Nur residendiale/mobile Proxys bestehen die Prüfungen.
Beliebte Sneaker-Bot-Plattformen
Cybersole
Unterstützt 400+ Websites
~$500–1000
Kodai
Shopify, Supreme, Footsites
~$600–1200
Balko
Nike, Adidas, Shopify
~$400–800
NSB (Nike Shoe Bot)
Spezialisiert auf Nike
~$300–600
⚠️ Wichtig: Für den erfolgreichen Betrieb von Sneaker-Bots sind mobile oder hochwertige residendiale Proxys erforderlich. Rechenzentrums-Proxys werden sofort blockiert. ProxyCove bietet spezielle Pools für Sneaker-Copping mit Rotation alle 10 Minuten.
🔓 Umgehung von Kaufbeschränkungen
Viele Marktplätze legen Limits für die Menge an Waren fest, die von einem Konto oder einer IP-Adresse gekauft werden können. Dies dient der Bekämpfung von Wiederverkäufern und der Gewährleistung einer fairen Verteilung der Ware.
Arten von Limits
1. Limit pro Konto
Beispiel: "Maximal 2 Einheiten pro Bestellung"
Lösung: Mehrere Konten mit unterschiedlichen E-Mails, Telefonnummern, Lieferadressen und IPs
2. Limit pro IP-Adresse
Beispiel: "Maximal 1 Bestellung pro Tag pro IP-Adresse"
Lösung: Ein Pool residendialer Proxys mit Rotation für jede Bestellung
3. Limit pro Lieferadresse
Beispiel: "Maximal 5 Einheiten pro Lieferadresse pro Tag"
Lösung: Verwendung unterschiedlicher Adressen (Büro, Freunde, Vermittlungsdienste)
4. Limit pro Zahlungskarte
Beispiel: "Maximal 3 Bestellungen pro Karte pro Tag"
Lösung: Virtuelle Karten (Privacy.com in den USA, Revolut in Europa)
Strategie zur Umgehung von Limits
✅ Korrekter Ansatz
- Jede Bestellung = eindeutige Sitzung: Neue IP, neuer Browser-Fingerabdruck, neue Cookies
- Residendiale Proxys sind zwingend: Rechenzentrums-IPs werden leicht als eine Quelle identifiziert
- Zeitliche Verzögerungen: 5–15 Minuten zwischen Bestellungen von verschiedenen "Konten"
- Verschiedene User Agents: Imitation verschiedener Geräte (iPhone, Android, Windows, Mac)
- Realistisches Verhalten: Nicht sofort Checkout, sondern 2–3 Artikel vor dem Kauf ansehen
🤖 Vollständige Automatisierung der Überwachung
Professionelle Einzelhändler automatisieren den gesamten Zyklus: vom Scraping bis zur Neupreisgestaltung. Dies ermöglicht die Verarbeitung von Zehntausenden von Artikeln ohne menschliches Eingreifen.
Architektur eines automatisierten Systems
Komponenten des Systems
├── ProxyCove Proxy-Pool (1000+ IPs)
├── Rotation von User-Agent und Fingerprints
├── Retry-Logik mit exponentiellem Backoff
└── Speicherung in PostgreSQL/MongoDB
2. Datenbank (PostgreSQL)
├── Tabelle products (SKU, Name, Kategorie)
├── Tabelle prices (Preis, Zeitstempel, Wettbewerber)
├── Tabelle stock (Verfügbarkeit, Menge)
└── Tabelle competitors (URL, Scraping-Einstellungen)
3. Analyse-Engine (Python/pandas)
├── Berechnung von Durchschnittspreisen pro Kategorie
├── Erkennung von Anomalien und Trends
├── Nachfrageprognose (ML)
└── Empfehlungen zur Preisgestaltung
4. Neupreisgestaltung (Marktplatz-API)
├── Anwendung der Preisgestaltungsstrategie
├── Überprüfung der Mindestmarge
├── Aktualisierung der Preise über die API
└── Protokollierung aller Änderungen
5. Monitoring und Alerts (Grafana + Telegram)
├── Dashboards mit Metriken
├── Alerts bei kritischen Änderungen
└── Berichte über Wettbewerber
Beispielkonfiguration (YAML)
# config.yaml - Konfiguration der Überwachung
scraping:
competitors:
- name: "Wildberries"
url: "https://www.wildberries.ru"
frequency: "alle 30 Minuten"
proxy_type: "residential_russia"
products: "category_electronics"
- name: "Ozon"
url: "https://www.ozon.ru"
frequency: "jede Stunde"
proxy_type: "residential_russia"
products: "category_electronics"
- name: "Amazon"
url: "https://www.amazon.com"
frequency: "alle 2 Stunden"
proxy_type: "residential_usa"
products: "category_electronics"
proxies:
provider: "ProxyCove"
pool_size: 1000
rotation: "per_request"
types:
residential_russia:
endpoint: "http://user:pass@ru.proxycove.com:12321"
cost_per_gb: 2.7
residential_usa:
endpoint: "http://user:pass@us.proxycove.com:12321"
cost_per_gb: 2.7
pricing_strategy:
default_rule: "competitor_based"
min_margin: 0.15 # 15%
max_discount: 0.30 # 30%
rules:
- condition: "competitor_price < our_price"
action: "set_price = competitor_price * 0.97"
- condition: "stock_level > 100"
action: "apply_discount = 5%"
- condition: "stock_level < 10"
action: "increase_price = 5%"
notifications:
telegram:
enabled: true
bot_token: "YOUR_BOT_TOKEN"
chat_id: "YOUR_CHAT_ID"
alerts:
- "competitor_price_drop > 10%"
- "out_of_stock"
- "scraping_errors > 5%"
📊 Reale Fallstudien von Einzelhändlern
Fallstudie #1: Elektronik (Russland)
📱 Unternehmen
Durchschnittlicher Elektronik-Onlineshop mit einem Katalog von 5.000 Artikeln, Verkauf auf Wildberries, Ozon und eigener Website.
❌ Problem
Manuelle Preisüberwachung bei 50+ Marktplätzen. Ein Manager verbrachte 4 Stunden täglich, deckte aber nur die Top-500-Artikel ab. Die restlichen 4.500 Artikel wurden nur einmal pro Woche neu bepreist.
- Umsatzeinbußen durch zu hohe Preise
- Margenverlust durch unnötige Rabatte
- Reaktionsverzögerung auf Marktveränderungen
✅ Lösung
Einführung einer automatisierten Überwachung mit ProxyCove Proxys:
- Pool von 200 residendialen Proxys für Russland ($2.7/GB)
- Scraping von 15 Wettbewerbern alle 2 Stunden
- Automatische Neupreisgestaltung über API
- Telegram-Alerts bei kritischen Änderungen
📈 Ergebnisse nach 3 Monaten
Umsatzwachstum
Margenwachstum
Zeitaufwand für Überwachung
Fallstudie #2: Modische Kleidung (International)
👔 Unternehmen
Große Modemarke mit Verkäufen in 15 Ländern über die eigene Website und Amazon in 8 Regionen.
❌ Problem
Grauhändler verkauften ihre Produkte auf Amazon zu Preisen unterhalb der offiziellen Preise. Die Marke verlor die Kontrolle über die Preisgestaltung und das Image.
✅ Lösung
Überwachung aller Verkäufer auf Amazon, Identifizierung von MAP-Verstößen (Manufacturer Advertised Price):
- 500 residendiale Proxys aus 8 Ländern ($2.7/GB)
- Tägliches Scraping von Amazon.com, .de, .co.uk, .fr, .it, .es, .co.jp, .ca
- Automatische Identifizierung von Verkäufern mit Preisen unter MAP
- Rechtliche Schritte gegen Verstöße
📈 Ergebnisse nach 6 Monaten
MAP-Verstöße
Durchschnittspreis
Gewinn der Marke
💰 ROI und Amortisation der Lösung
Kosten- und Nutzenberechnung
💸 Kosten (Monatlich)
| ProxyCove Proxys (200 Residendiale, ~500GB) | $1,350 |
| Server für Scraping (VPS 8GB RAM) | $80 |
| Managed PostgreSQL Datenbank | $50 |
| Entwicklung/Support (Amortisation) | $500 |
| GESAMTKOSTEN | $1,980 |
📈 Nutzen (bei $100.000 Umsatz/Monat)
| Umsatzwachstum +15 % ($15.000) | Zusätzliche Marge 20 % = $3.000 |
| Verbesserte Preisgestaltung +5 % Marge | $5.000 |
| Zeitersparnis Manager (4 Std./Tag) | $800 |
| Reduzierung von Out-of-Stock-Situationen | $1.200 |
| GESAMTNUTZEN | $10.000 |
🎯 ROI-Kennzahlen
ROI im ersten Monat
Amortisationszeit
Zusätzlicher Jahresgewinn
⚖️ Rechtliche Aspekte 2025
Web-Scraping befindet sich in einer rechtlichen Grauzone. Im Jahr 2025 wurden die Gesetze eindeutiger, hängen aber immer noch von der Gerichtsbarkeit ab.
Legalität des Scrapings
✅ Scraping ist erlaubt, wenn:
- Öffentlich zugängliche Daten gesammelt werden
- Keine technische Schutzmaßnahme umgangen wird (CAPTCHA-Lösung ist umstritten)
- robots.txt beachtet wird (Empfehlung, keine Pflicht)
- Daten zur Analyse verwendet werden, nicht zum Weiterverkauf
- Keine Urheberrechte verletzt werden
❌ Scraping ist verboten, wenn:
- Daten hinter einer kostenpflichtigen Anmeldung/Login gescrapt werden
- Personenbezogene Daten gesammelt werden (DSGVO-Verstöße)
- Eine DDoS-ähnliche Belastung des Servers entsteht
- Der Website-Betreiber kommerziell geschädigt wird
- Explizite Nutzungsbedingungen verletzt werden
⚠️ Anwaltsempfehlung: Die Überwachung öffentlicher Preise zur Geschäftsanalyse ist in den meisten Gerichtsbarkeiten legal. Konsultieren Sie Rechtsberater in Ihrem Land. Verwenden Sie Proxys, um Rate Limits einzuhalten und die Belastung der Websites zu minimieren.
🔮 Die Zukunft der E-Commerce-Überwachung
🤖 KI-gestützte Analyse
GPT-5 und Claude Opus werden nicht nur Preise, sondern auch Produktbeschreibungen, Bewertungen und Marketingstrategien von Wettbewerbern analysieren.
📸 Visuelle Suche
KI wird identische Produkte anhand von Fotos finden, selbst wenn der Wettbewerber einen anderen Namen und eine andere Beschreibung verwendet.
⚡ Echtzeit überall
Überwachung und Neupreisgestaltung in Echtzeit (alle 30 Sekunden) wird zum Standard für alle Kategorien.
🌍 Globale Intelligenz
Eine einheitliche Überwachungsplattform für alle weltweiten Marktplätze (200+ Plattformen) mit automatischer Übersetzung und Analyse.
🎯 Fazit und Empfehlungen
📝 Abschließende Schlussfolgerungen
1️⃣ Proxys sind eine Notwendigkeit, keine Option
Im Jahr 2025 ist das Scraping im E-Commerce ohne Proxys unmöglich. Anti-Bot-Systeme sind zu intelligent geworden. Residendiale Proxys sind der Mindeststandard für Marktplätze.
2️⃣ Automatisierung = Wettbewerbsvorteil
Manuelle Überwachung skaliert nicht. Unternehmen mit Automatisierung erzielen 15–25 % Umsatzwachstum und reduzieren Kosten um 30 %.
3️⃣ ROI wird innerhalb einer Woche erreicht
Bei korrekter Einrichtung amortisiert sich die Investition in Proxys und Automatisierung innerhalb von 7–14 Tagen. Der jährliche ROI übersteigt 400 %.
4️⃣ ProxyCove – die optimale Wahl
Spezialisierte Pools für E-Commerce, russische Residendiale für WB/Ozon, internationale für Amazon/eBay. 99 % Uptime, 24/7 technischer Support, ab $1.5/GB.
🏆 Empfohlene Konfiguration
Residendiale
Hauptpool
$2.7/GB
Mobile
Für Sneaker-Bots
$3.8/GB
Rechenzentrum
Testzwecke
$1.5/GB
🎁 Sonderangebot für E-Commerce: Bei der Registrierung bei ProxyCove mit dem Promo-Code ARTHELLO erhalten Sie einen Bonus von +$1.3. Das reicht für das Testen des Scrapings von ca. 500 Artikeln mit residendialen Proxys. Jetzt starten →
Beginnen Sie noch heute mit der Überwachung Ihrer Wettbewerber!
Registrieren Sie sich bei ProxyCove, zahlen Sie Guthaben mit dem Promo-Code ARTHELLO ein und erhalten Sie +$1.3 als Geschenk. Der 24/7-Support auf Russisch hilft Ihnen bei der Einrichtung.
Wählen Sie den Proxy-Typ für Ihre Aufgabe:
Über den Autor: Der Artikel wurde von den Experten von ProxyCove basierend auf der Analyse des E-Commerce-Marktes 2025, Studien von Deloitte, NielsenIQ, Daten zur dynamischen Preisgestaltung und realen Kundenfallstudien erstellt. Alle Zahlen und Statistiken sind auf dem Stand Januar 2025.