Torna al blog

Scraping sicuro dei profili Twitter/X: come fare parsing senza ban tramite proxy

Guida dettagliata per il web scraping sicuro di Twitter/X: quali proxy utilizzare, come configurare un browser anti-detect e come evitare blocchi durante il parsing dei profili.

📅17 gennaio 2026
```html

Twitter (ora X) combatte attivamente lo scraping automatico dei dati: blocca indirizzi IP, limita il numero di richieste e banna account in caso di attività sospette. Se ti occupi di raccolta dati per ricerche di marketing, monitoraggio delle menzioni del brand o analisi della concorrenza, hai bisogno della giusta strategia per lavorare con proxy e strumenti antidetect.

In questa guida vedremo come configurare uno scraping sicuro di Twitter/X, quali tipi di proxy scegliere per diverse attività e come evitare i blocchi durante l'estrazione massiva dei profili.

Perché Twitter/X blocca lo scraping e come funziona

Dopo il rebranding in X, la piattaforma ha inasprito notevolmente la politica riguardo alla raccolta automatica dei dati. Il sistema di protezione analizza diversi parametri contemporaneamente, e il blocco può avvenire anche durante l'uso manuale, se non si seguono le misure di precauzione.

Principali trigger di blocco di Twitter/X

1. Superamento dei limiti di richiesta. Twitter imposta limiti rigidi sul numero di richieste al minuto. Per gli utenti non autorizzati, sono circa 180 richieste ogni 15 minuti, per gli utenti autorizzati — fino a 900 richieste. Se superi, riceverai un errore 429 (Too Many Requests), e in caso di violazioni sistematiche — il ban dell'indirizzo IP.

2. Modelli di comportamento sospetti. Se apri profili a una velocità di 10 al minuto, scorri le pagine con la stessa velocità o esegui azioni senza pause — il sistema riconoscerà un bot. Un utente reale fa pause, legge contenuti, a volte si distrae.

3. Utilizzo di un solo IP per più account. Se da un indirizzo IP accedono 5-10 account diversi in un breve lasso di tempo — è un campanello d'allarme. Twitter può bloccare tutti gli account in catena (chain-ban).

4. Mancanza di un'impronta digitale (fingerprint). La piattaforma raccoglie dati sul browser: versione, estensioni, risoluzione dello schermo, fuso orario, WebGL, Canvas. Se questi dati non corrispondono al dispositivo reale o coincidono tra più account — è motivo di sospetto.

⚠️ Importante: Dopo l'acquisto di Twitter da parte di Elon Musk e il rebranding in X, il sistema di protezione è diventato più aggressivo. Anche l'accesso API è ora a pagamento (da $100/mese per il piano base), mentre lo scraping gratuito tramite interfaccia web è monitorato in modo particolarmente rigoroso.

Come Twitter/X identifica l'automazione

Il sistema di protezione utilizza un'analisi multilivello:

  • Analisi User-Agent e intestazioni. Se le intestazioni delle richieste HTTP non corrispondono a un browser reale o contengono tracce di automazione (ad esempio, Selenium, Puppeteer nell'User-Agent) — la richiesta viene bloccata.
  • Controllo JavaScript. Twitter utilizza attivamente chiamate JavaScript per verificare che la pagina sia aperta da un browser reale, e non da un semplice client HTTP.
  • Analisi del comportamento del mouse e della tastiera. La piattaforma monitora i movimenti del cursore, la velocità di scorrimento, i modelli di clic. I bot di solito si muovono in linee rette o non muovono affatto il mouse.
  • Reputazione dell'indirizzo IP. Se l'IP è nella lista nera (data center di un noto provider di hosting, provider proxy con cattiva reputazione) — la fiducia in esso diminuisce.

Quali proxy sono adatti per lo scraping di Twitter/X: confronto dei tipi

La scelta del tipo di proxy dipende dai tuoi obiettivi: scraping massivo di dati pubblici, lavoro con account autorizzati o monitoraggio della concorrenza. Analizziamo ogni tipo e il suo utilizzo per Twitter/X.

Proxy residenziali — la scelta ottimale per lavorare con account

I proxy residenziali utilizzano indirizzi IP di utenti domestici reali, forniti dai provider di servizi Internet. Per Twitter/X, questa è l'opzione più sicura, poiché la piattaforma non può distinguere questo traffico da quello di un utente normale.

Quando utilizzare i proxy residenziali per Twitter/X:

  • Lavoro con account autorizzati (accesso, scraping di profili privati)
  • Monitoraggio a lungo termine di account o hashtag specifici
  • Scraping con alta intensità (quando è necessario minimizzare il rischio di ban)
  • Raccolta di dati da diverse regioni geografiche (ad esempio, per analizzare le tendenze regionali)

Vantaggi: Massimo livello di fiducia da parte di Twitter/X, basso tasso di blocchi, possibilità di lavorare con captcha (di solito non si presentano), supporto per sessioni sticky (un IP per 10-30 minuti).

Svantaggi: Costo più elevato (di solito pagamento per traffico, da $7-15 per 1 GB), velocità inferiore rispetto ai data center.

Proxy mobili — per la massima protezione degli account

I proxy mobili utilizzano indirizzi IP di operatori mobili (4G/5G). Questo è il tipo di IP più affidabile per i social media, poiché Twitter/X raramente blocca gli IP mobili — dietro un singolo indirizzo possono trovarsi migliaia di utenti reali.

Quando utilizzare i proxy mobili per Twitter/X:

  • Lavoro con account preziosi che non possono essere persi
  • Scraping dopo precedenti blocchi (quando è necessaria la massima protezione)
  • Automazione delle azioni: like, retweet, follow (anche se questo viola i ToS di Twitter)
  • Bypass di blocchi rigidi per IP (gli IP mobili raramente finiscono nelle liste nere)

Vantaggi: Massimo livello di fiducia, rischio praticamente nullo di ban per IP, possibilità di rotazione degli IP tramite la modalità "aereo" (cambio IP ogni 5-10 minuti).

Svantaggi: Tipo di proxy più costoso (da $50-100 per un IP al mese), numero limitato di IP disponibili, velocità dipendente dalla qualità della connessione mobile.

Proxy di data center — per scraping massivo di dati pubblici

I proxy di data center sono indirizzi IP di server di provider di hosting. Sono veloci e economici, ma Twitter/X li considera con sospetto.

Quando è possibile utilizzare i data center per Twitter/X:

  • Scraping di profili pubblici senza autorizzazione (funzionalità limitata)
  • Raccolta occasionale di dati a bassa intensità
  • Test di script di scraping prima di avviare su proxy residenziali
  • Lavoro tramite API ufficiale (se hai accesso a pagamento)

Vantaggi: Basso costo (da $1-3 per IP al mese), alta velocità (fino a 1 Gbps), stabilità della connessione.

Svantaggi: Alto rischio di blocchi, spesso è necessario risolvere captcha, non adatti per lavorare con account autorizzati, molti IP sono già nelle liste nere di Twitter/X.

Tabella comparativa dei tipi di proxy per Twitter/X

Parametro Residenziali Mobili Data Center
Livello di fiducia di Twitter/X Alto Molto alto Basso
Rischio di blocco Basso (5-10%) Minimo (1-3%) Alto (30-50%)
Lavoro con account ✅ Sì ✅ Sì ❌ Non raccomandato
Velocità Media (10-50 Mbps) Media (5-30 Mbps) Alta (100-1000 Mbps)
Costo $7-15 per 1 GB $50-100 per IP/mese $1-3 per IP/mese
Miglior utilizzo Scraping con autorizzazione Account preziosi Dati pubblici

Limiti di richiesta di Twitter/X: come non superare i limiti

Twitter/X impone severe restrizioni sul numero di richieste per prevenire il sovraccarico dei server e la raccolta automatica di dati. Se superi i limiti — riceverai un blocco temporaneo (da 15 minuti a diverse ore) o un ban permanente dell'IP/account.

Limiti attuali di Twitter/X (2024)

Dopo l'introduzione dell'abbonamento a pagamento X Premium, i limiti sono stati suddivisi in diverse categorie:

Tipo di account Visualizzazione tweet/giorno Richieste API (15 min)
Non autorizzato Accesso limitato ~180 richieste
Account gratuito 600-1000 tweet ~300 richieste
X Premium ($8/mese) 6000-10000 tweet ~900 richieste
Verificato (vecchio) Senza limiti rigidi ~900 richieste

Importante: Questi limiti si applicano non solo all'API, ma anche alla visualizzazione normale tramite interfaccia web. Se stai estraendo tramite browser emulando le azioni dell'utente — queste restrizioni si applicano comunque.

Come bypassare i limiti di richiesta durante lo scraping

1. Rotazione degli indirizzi IP. Utilizza un pool di proxy con rotazione automatica. Per i proxy residenziali, la frequenza ottimale di cambio è ogni 50-100 richieste o ogni 10-15 minuti. Questo consente di distribuire il carico tra diversi IP e non superare i limiti su un singolo indirizzo.

2. Utilizzo di più account. Se hai bisogno di raccogliere un grande volume di dati, crea 5-10 account Twitter/X e distribuisci lo scraping tra di essi. Ogni account deve lavorare tramite il proprio proxy unico e avere un'impronta digitale separata (fingerprint).

3. Ritardi tra le richieste. Non fare richieste alla massima velocità. Aggiungi pause casuali:

  • Tra la visualizzazione dei profili: 3-7 secondi
  • Tra lo scrolling del feed: 2-5 secondi
  • Tra la ricerca per hashtag: 5-10 secondi
  • Pause lunghe ogni 50-100 azioni: 30-60 secondi

4. Caching dei dati. Non richiedere nuovamente gli stessi dati. Salva i risultati dello scraping in un database e verifica se il profilo è già stato elaborato.

💡 Consiglio: Se ricevi un errore 429 (Too Many Requests), non tentare di ripetere immediatamente la richiesta. Fai una pausa di almeno 15 minuti, o meglio — cambia indirizzo IP tramite rotazione dei proxy. I tentativi ripetuti possono portare a un ban permanente.

Configurazione del browser antidetect per uno scraping sicuro

I browser antidetect consentono di creare impronte digitali uniche (fingerprints) per ogni account Twitter/X, il che è fondamentale per uno scraping sicuro. Senza questo, la piattaforma può collegare più account tra loro e bloccarli in catena.

Browser antidetect popolari per Twitter/X

Dolphin Anty — una delle opzioni più popolari tra gli arbitraggisti e i professionisti SMM. Il piano gratuito consente di creare fino a 10 profili, il che è sufficiente per piccole attività di scraping.

AdsPower — un buon equilibrio tra funzionalità e prezzo. Ha automazione integrata tramite RPA (Robotic Process Automation), che consente di configurare lo scraping senza scrivere codice.

Multilogin — soluzione premium con il massimo livello di protezione. Utilizzata da grandi agenzie, ma costosa (da €99/mese). Giustificata solo per scraping professionale di grandi volumi di dati.

GoLogin — opzione economica con buona qualità delle impronte digitali. Ha un'app mobile per lavorare con gli account in movimento.

Configurazione passo-passo del profilo per lo scraping di Twitter/X (esempio con Dolphin Anty)

Passo 1: Creazione di un nuovo profilo del browser

  • Apri Dolphin Anty e clicca su "Crea profilo"
  • Scegli il sistema operativo: Windows, macOS o Linux (scegli quello che corrisponde al tuo dispositivo reale o il più popolare tra gli utenti di Twitter)
  • Indica il nome del profilo: ad esempio, "Twitter Parser US #1"

Passo 2: Configurazione del proxy

  • Nella sezione "Proxy" scegli il tipo: HTTP, HTTPS o SOCKS5 (SOCKS5 è preferibile per Twitter/X)
  • Inserisci i dati del proxy: indirizzo IP, porta, login, password
  • Clicca su "Controlla proxy" — assicurati che lo stato sia verde e la geolocalizzazione corretta
  • Importante: utilizza un proxy separato per ogni account Twitter/X

Passo 3: Configurazione dell'impronta digitale (fingerprint)

  • User-Agent: scegli un User-Agent reale dell'ultima versione di Chrome (ad esempio, Chrome 120 su Windows 10)
  • Risoluzione dello schermo: utilizza risoluzioni popolari (1920x1080, 1366x768, 1440x900) — non impostare valori esotici
  • Fuso orario: deve corrispondere alla geolocalizzazione del proxy (se il proxy è dagli USA/New York — imposta EST)
  • Lingua del browser: corrisponde alla regione (en-US per gli USA, en-GB per il Regno Unito)
  • WebRTC: disabilita o sostituisci con l'IP del proxy (altrimenti potrebbe trapelare l'IP reale)
  • Canvas e WebGL: utilizza la modalità "Noise" (aggiunta di rumore) — questo crea un'impronta unica per ogni profilo

Passo 4: Impostazioni di sicurezza aggiuntive

  • Disabilita il completamento automatico delle password (Twitter potrebbe controllare la presenza di dati salvati)
  • Pulisci i cookie dopo ogni sessione di scraping
  • Non utilizzare estensioni del browser — creano impronte digitali uniche e possono rivelare l'automazione
  • Attiva "Do Not Track" (DNT) — molti utenti reali lo utilizzano

⚠️ Errore critico: Non utilizzare la stessa impronta digitale per più account! Twitter/X rileva facilmente impronte digitali identiche e blocca tutti gli account correlati. Ogni profilo nel browser antidetect deve avere parametri unici.

Strumenti per lo scraping di Twitter/X: da soluzioni pronte a codice

La scelta dello strumento dipende dalle tue abilità tecniche e dal volume delle attività. Analizziamo le opzioni, dai servizi semplici senza codice a script professionali.

Servizi di scraping Twitter/X pronti (senza codice)

Phantombuster — servizio cloud di automazione con modelli pronti per Twitter/X. Consente di estrarre profili, follower, tweet per hashtag. La configurazione richiede 5-10 minuti: scegli un modello, indica i parametri (hashtag, elenco di account), collega il proxy e avvia.

Apify — marketplace di scraper pronti. Ci sono diversi attori (script pronti) per Twitter/X: scraping di profili, raccolta di tweet, monitoraggio delle menzioni. Funziona tramite cloud, supporta proxy, c'è un piano gratuito con limitazioni.

Octoparse — costruttore visivo di scraper. Apri Twitter/X nell'interfaccia del programma, clicca sugli elementi da raccogliere (nome, bio, numero di follower) e il programma crea automaticamente lo script. Adatto per attività semplici, ma potrebbe non gestire strutture di pagina complesse.

Automazione tramite RPA nei browser antidetect

Alcuni browser antidetect (AdsPower, Octo Browser) hanno strumenti RPA (Robotic Process Automation) integrati, che consentono di registrare e riprodurre le azioni dell'utente.

Come funziona:

  • Apri Twitter/X nel browser antidetect
  • Attiva la modalità di registrazione delle azioni
  • Esegui le azioni necessarie: apri un profilo, copia i dati, passa al successivo
  • Ferma la registrazione — il browser ha creato uno script
  • Carica un elenco di account da estrarre e avvia lo script in ciclo

Vantaggi: non richiede competenze di programmazione, funziona tramite un browser reale (alto livello di bypass della protezione), facile aggiungere ritardi casuali ed emulazione del comportamento.

Scraping tramite codice: Python + Selenium/Playwright

Per attività più complesse e controllo totale sul processo, utilizza la programmazione. Python è il linguaggio più popolare per lo scraping grazie alla ricca ecosistema di librerie.

Principali librerie:

  • Selenium — automazione del browser, funziona con Chrome/Firefox, supporta proxy ed emulazione delle azioni dell'utente
  • Playwright — alternativa moderna a Selenium, più veloce e stabile, supporta la modalità headless
  • Tweepy — libreria per lavorare con l'API ufficiale di Twitter (richiede accesso a pagamento)
  • Twint — scraping di Twitter senza API (attenzione: Twitter blocca attivamente questo metodo, funziona in modo instabile)

Esempio di script di base in Python + Selenium:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.options import Options
import time
import random

# Configurazione del proxy
proxy = "123.45.67.89:8080"  # Sostituisci con il tuo proxy
chrome_options = Options()
chrome_options.add_argument(f'--proxy-server={proxy}')
chrome_options.add_argument('--disable-blink-features=AutomationControlled')
chrome_options.add_experimental_option("excludeSwitches", ["enable-automation"])

# Inizializzazione del browser
driver = webdriver.Chrome(options=chrome_options)

# Apriamo il profilo Twitter
driver.get('https://twitter.com/elonmusk')
time.sleep(random.uniform(3, 7))  # Ritardo casuale

# Estraiamo i dati del profilo
try:
    name = driver.find_element(By.XPATH, '//div[@data-testid="UserName"]').text
    bio = driver.find_element(By.XPATH, '//div[@data-testid="UserDescription"]').text
    followers = driver.find_element(By.XPATH, '//a[contains(@href, "/followers")]/span').text
    
    print(f"Nome: {name}")
    print(f"Bio: {bio}")
    print(f"Follower: {followers}")
except Exception as e:
    print(f"Errore di scraping: {e}")

driver.quit()

Momenti importanti durante il lavoro con il codice:

  • Aggiungi time.sleep(random.uniform(3, 7)) tra le azioni — questo emula il comportamento di un utente reale
  • Utilizza --disable-blink-features=AutomationControlled per nascondere i segni di automazione
  • Cambia User-Agent in uno reale: chrome_options.add_argument('user-agent=Mozilla/5.0...')
  • Gestisci gli errori tramite try/except — Twitter/X cambia spesso la struttura delle pagine
  • Salva i risultati in un database (SQLite, PostgreSQL) o in un file CSV

Riscaldamento degli account Twitter/X prima dello scraping massivo

Se utilizzi nuovi account Twitter/X per lo scraping, non puoi iniziare immediatamente a raccogliere dati in massa. La piattaforma monitora l'"età" dell'account e la sua attività — i nuovi account con comportamenti aggressivi vengono bloccati per primi.

Piano di riscaldamento dell'account (7-14 giorni)

Giorno 1-3: Configurazione di base e attività minima

  • Compila il profilo: avatar, bio, link al sito (usa dati reali, non lasciare il profilo vuoto)
  • Segui 5-10 account popolari nella tua nicchia
  • Scorri il feed per 2-3 minuti, metti 2-3 like
  • Fai 1-2 retweet
  • Non fare più di 10 azioni al giorno

Giorno 4-7: Aumento dell'attività

  • Segui altri 10-15 account
  • Pubblica 1-2 tweet tuoi (possono essere semplici, tipo "Hello Twitter!")
  • Aumenta il numero di like a 5-10 al giorno
  • Inizia a visualizzare i profili di altri utenti (5-10 profili al giorno)
  • Aggiungi ai segnalibri alcuni tweet

Giorno 8-14: Preparazione allo scraping

  • Segui 20-30 account, in modo che il numero totale di iscrizioni sia 50-70
  • Pubblica 1 tweet ogni 2-3 giorni
  • Visualizza 10-20 profili al giorno
  • Utilizza la ricerca per hashtag (ma non estrarre ancora — cerca e leggi)
  • Nel giorno 12-14 puoi iniziare un leggero scraping: 20-30 profili al giorno con pause

💡 Consiglio: Se acquisti account Twitter/X (account farmati), scegli quelli che hanno almeno 3-6 mesi, con profilo compilato e storia di attività. Questi account possono essere utilizzati per lo scraping immediatamente, ma inizia comunque con volumi ridotti.

Segnali di un account "riscaldato"

  • Età dell'account: minimo 14 giorni, meglio 30+ giorni
  • Numero di iscrizioni: 50-100 (non troppo, non troppo poco)
  • Numero di follower: 5-20 (anche pochi follower reali aumentano la fiducia)
  • Storia dei tweet: minimo 5-10 pubblicazioni
  • Like e retweet: 20-50 azioni nella storia
  • Profilo compilato: avatar, bio, possibile link

Checklist per uno scraping sicuro: 12 regole per proteggersi dai ban

Raccogliamo tutte le raccomandazioni in un'unica checklist da seguire durante lo scraping di Twitter/X:

✅ Checklist di sicurezza

1. Utilizza proxy di qualità

  • Per lavorare con account: proxy residenziali o mobili
  • Un proxy = un account (non mescolare)
  • Controlla la geolocalizzazione del proxy prima dell'uso

2. Configura impronte digitali uniche

  • Utilizza un browser antidetect (Dolphin Anty, AdsPower, Multilogin)
  • Ogni account = set unico di parametri (User-Agent, risoluzione, fuso orario)
  • Disabilita WebRTC o sostituisci con l'IP del proxy

3. Rispetta i limiti di richiesta

  • Non più di 300-500 richieste all'ora da un singolo account
  • Aggiungi ritardi casuali: 3-7 secondi tra le azioni
  • Fai pause lunghe ogni 50-100 azioni (30-60 secondi)

4. Riscalda i nuovi account

  • Minimo 7-14 giorni prima di un attivo scraping
  • Compila il profilo e crea una storia di attività
  • Inizia con volumi ridotti: 20-30 profili al giorno

5. Emula il comportamento di un utente reale

  • Aggiungi movimenti casuali del mouse
  • Scorri le pagine a velocità diverse
  • A volte distraeti: apri altre schede, fai pause

6. Ruota gli indirizzi IP

  • Cambia IP ogni 50-100 richieste o ogni 10-15 minuti
  • Utilizza sessioni sticky per stabilità (un IP per 10-30 minuti)
  • Non tornare a un IP troppo frequentemente

7. Gestisci correttamente gli errori

  • In caso di errore 429 (Too Many Requests) — pausa di almeno 15 minuti
  • In caso di errore 403 (Forbidden) — cambia IP e controlla l'impronta digitale
  • In caso di captcha — risolvili manualmente o tramite servizi (2Captcha, AntiCaptcha)

8. Cache i dati

  • Salva i risultati in un database
  • Non estrarre nuovamente gli stessi profili
  • Tieni un registro: quali profili sono stati elaborati, quando, con quale risultato

9. Distribuisci il carico

  • Utilizza 5-10 account per grandi volumi di scraping
  • Ogni account lavora al proprio ritmo (non sincronizzarli)
  • Scraping in orari diversi della giornata (non tutti gli account contemporaneamente)

10. Lavora durante le ore di picco

  • Scraping durante le ore lavorative della geolocalizzazione target (9:00-18:00 ora locale)
  • Evita lo scraping notturno (00:00-06:00) — è sospetto

11. Monitora lo stato degli account

  • Controlla gli account quotidianamente: non sono stati bloccati, non ci sono avvertimenti
  • Se un account ha ricevuto un avvertimento — riduci l'attività per 3-7 giorni
  • Tieni statistiche: quanti profili ha estratto ogni account, ci sono stati problemi

12. Non estrarre messaggi privati e dati chiusi

  • Raccogli solo dati pubblici: profili, tweet, iscrizioni
  • Non tentare di bypassare account privati
  • Rispetta i Termini di Servizio di Twitter/X (anche se lo scraping li viola, minimizza i rischi)
```