O Twitter (agora X) está ativamente combatendo a coleta automática de dados: bloqueia endereços IP, limita o número de solicitações e bane contas em caso de atividade suspeita. Se você está coletando dados para pesquisas de marketing, monitoramento de menções de marca ou análise de concorrentes — você precisa de uma estratégia adequada para trabalhar com proxies e ferramentas anti-detect.
Neste guia, vamos explorar como configurar um scraping seguro do Twitter/X, quais tipos de proxies escolher para diferentes tarefas e como evitar bloqueios ao raspar perfis em massa.
Por que o Twitter/X bloqueia scraping e como isso funciona
Após o rebranding para X, a plataforma endureceu significativamente sua política em relação à coleta automática de dados. O sistema de proteção analisa vários parâmetros simultaneamente, e o bloqueio pode ocorrer mesmo com ações manuais, se você não seguir as precauções.
Principais gatilhos de bloqueios no Twitter/X
1. Excesso de limites de taxa. O Twitter estabelece limites rígidos para o número de solicitações por minuto. Para usuários não autenticados, isso é cerca de 180 solicitações a cada 15 minutos, e para usuários autenticados — até 900 solicitações. Ao exceder, você receberá um erro 429 (Too Many Requests), e em casos de violações sistemáticas — banimento do endereço IP.
2. Padrões de comportamento suspeitos. Se você abre perfis a uma taxa de 10 por minuto, rola páginas com a mesma velocidade ou executa ações sem pausas — o sistema reconhecerá um bot. Um usuário real faz pausas, lê o conteúdo e às vezes se distrai.
3. Uso de um único IP para várias contas. Se de um endereço IP acessam 5-10 contas diferentes em um curto espaço de tempo — isso é um sinal vermelho. O Twitter pode banir todas as contas em cadeia (chain-ban).
4. Ausência de impressão digital (fingerprint). A plataforma coleta dados sobre o navegador: versão, extensões, resolução de tela, fuso horário, WebGL, Canvas. Se esses dados não correspondem ao dispositivo real ou coincidem entre várias contas — isso levanta suspeitas.
⚠️ Importante: Após a compra do Twitter por Elon Musk e o rebranding para X, o sistema de proteção se tornou mais agressivo. Até o acesso à API agora é pago (a partir de $100/mês pelo plano básico), e o scraping gratuito através da interface da web é monitorado de forma especialmente rigorosa.
Como o Twitter/X detecta automação
O sistema de proteção utiliza uma análise em múltiplas camadas:
- Análise de User-Agent e cabeçalhos. Se os cabeçalhos das solicitações HTTP não correspondem a um navegador real ou contêm vestígios de automação (por exemplo, Selenium, Puppeteer no User-Agent) — a solicitação é bloqueada.
- Verificação de JavaScript. O Twitter utiliza ativamente chamadas JavaScript para verificar se a página está sendo aberta por um navegador real, e não por um simples cliente HTTP.
- Análise do comportamento do mouse e do teclado. A plataforma rastreia movimentos do cursor, velocidade de rolagem, padrões de cliques. Bots geralmente se movem em linhas retas ou não movem o mouse.
- Reputação do endereço IP. Se o IP está na lista negra (data center de um provedor de hospedagem conhecido, provedor de proxy com má reputação) — a confiança nele diminui.
Quais proxies são adequados para scraping do Twitter/X: comparação de tipos
A escolha do tipo de proxy depende das suas tarefas: scraping em massa de dados públicos, trabalho com contas autenticadas ou monitoramento de concorrentes. Vamos analisar cada tipo e sua aplicação para o Twitter/X.
Proxies residenciais — a escolha ideal para trabalhar com contas
Proxies residenciais utilizam endereços IP de usuários domésticos reais, fornecidos por provedores de internet. Para o Twitter/X, esta é a opção mais segura, pois a plataforma não consegue distinguir esse tráfego do tráfego de um usuário comum.
Quando usar proxies residenciais para Twitter/X:
- Trabalho com contas autenticadas (login, scraping de perfis privados)
- Monitoramento de contas ou hashtags específicas a longo prazo
- Scraping com alta intensidade (quando é necessário minimizar o risco de banimento)
- Coleta de dados de diferentes regiões geográficas (por exemplo, para análise de tendências regionais)
Vantagens: Máximo nível de confiança do Twitter/X, baixo percentual de bloqueios, possibilidade de trabalhar com CAPTCHAs (normalmente não ocorrem), suporte a sessões sticky (um IP por 10-30 minutos).
Desvantagens: Custo mais alto (normalmente pagamento por tráfego, a partir de $7-15 por 1 GB), velocidade inferior à dos data centers.
Proxies móveis — para máxima proteção das contas
Proxies móveis utilizam endereços IP de operadoras móveis (4G/5G). Este é o tipo de IP mais confiável para redes sociais, pois o Twitter/X raramente bloqueia IPs móveis — por trás de um único endereço podem estar milhares de usuários reais.
Quando usar proxies móveis para Twitter/X:
- Trabalho com contas valiosas que não podem ser perdidas
- Scraping após bloqueios anteriores (quando é necessária máxima proteção)
- Automatização de ações: curtidas, retweets, seguidores (embora isso viole os ToS do Twitter)
- Contornar bloqueios rígidos por IP (IPs móveis quase nunca entram em listas negras)
Vantagens: Máximo nível de confiança, risco praticamente nulo de banimento por IP, possibilidade de rotação de IP através do modo "airplane mode" (mudança de IP a cada 5-10 minutos).
Desvantagens: O tipo de proxy mais caro (a partir de $50-100 por um IP por mês), número limitado de IPs disponíveis, velocidade depende da qualidade da conexão móvel.
Proxies de data center — para scraping em massa de dados públicos
Proxies de data center são endereços IP de servidores de provedores de hospedagem. Eles são rápidos e baratos, mas o Twitter/X os considera suspeitos.
Quando usar data centers para Twitter/X:
- Scraping de perfis públicos sem autenticação (funcionalidade limitada)
- Coleta de dados pontual com baixa intensidade
- Testes de scripts de scraping antes de lançá-los em proxies residenciais
- Trabalho através da API oficial (se você tiver acesso pago)
Vantagens: Baixo custo (a partir de $1-3 por IP por mês), alta velocidade (até 1 Gbps), estabilidade da conexão.
Desvantagens: Alto risco de bloqueios, frequentemente requer solução de CAPTCHAs, não é adequado para trabalho com contas autenticadas, muitos IPs já estão em listas negras do Twitter/X.
Tabela comparativa de tipos de proxies para Twitter/X
| Parâmetro | Residenciais | Móveis | Data Centers |
|---|---|---|---|
| Nível de confiança do Twitter/X | Alto | Muito alto | Baixo |
| Risco de bloqueio | Baixo (5-10%) | Mínimo (1-3%) | Alto (30-50%) |
| Trabalho com contas | ✅ Sim | ✅ Sim | ❌ Não recomendado |
| Velocidade | Média (10-50 Mbps) | Média (5-30 Mbps) | Alta (100-1000 Mbps) |
| Custo | $7-15 por 1 GB | $50-100 por IP/mês | $1-3 por IP/mês |
| Melhor aplicação | Scraping com autenticação | Contas valiosas | Dados públicos |
Limites de taxa do Twitter/X: como não exceder os limites de solicitações
O Twitter/X estabelece restrições rigorosas sobre o número de solicitações para evitar sobrecarga nos servidores e coleta automática de dados. Se você exceder os limites — receberá um bloqueio temporário (de 15 minutos a várias horas) ou um banimento permanente do IP/conta.
Limites atuais do Twitter/X (2024)
Após a introdução da assinatura paga X Premium, os limites foram divididos em várias categorias:
| Tipo de conta | Visualização de tweets/dia | Solicitações API (15 min) |
|---|---|---|
| Não autenticado | Acesso limitado | ~180 solicitações |
| Conta gratuita | 600-1000 tweets | ~300 solicitações |
| X Premium ($8/mês) | 6000-10000 tweets | ~900 solicitações |
| Verificado (antigo) | Sem limites rígidos | ~900 solicitações |
Importante: Esses limites se aplicam não apenas à API, mas também à visualização comum através da interface da web. Se você está raspando através de um navegador emulando ações de usuário — essas restrições ainda se aplicam.
Como contornar limites de taxa ao raspar
1. Rotação de endereços IP. Utilize um pool de proxies com rotação automática. Para proxies residenciais, a frequência ideal de troca é a cada 50-100 solicitações ou a cada 10-15 minutos. Isso permite distribuir a carga entre diferentes IPs e não exceder os limites de um único endereço.
2. Uso de várias contas. Se você precisa coletar um grande volume de dados, crie 5-10 contas do Twitter/X e distribua o scraping entre elas. Cada conta deve operar através de seu proxy único e ter uma impressão digital (fingerprint) separada.
3. Atrasos entre solicitações. Não faça solicitações na velocidade máxima. Adicione pausas aleatórias:
- Entre visualizações de perfis: 3-7 segundos
- Entre rolagens do feed: 2-5 segundos
- Entre buscas por hashtags: 5-10 segundos
- Pausas longas a cada 50-100 ações: 30-60 segundos
4. Cache de dados. Não solicite os mesmos dados novamente. Salve os resultados do scraping em um banco de dados e verifique se o perfil já foi processado.
💡 Dica: Se você receber um erro 429 (Too Many Requests), não tente repetir a solicitação imediatamente. Faça uma pausa de pelo menos 15 minutos, ou melhor — mude o endereço IP através da rotação de proxies. Tentativas repetidas podem levar a um banimento permanente.
Configuração de um navegador anti-detect para scraping seguro
Navegadores anti-detect permitem criar impressões digitais (fingerprints) únicas para cada conta do Twitter/X, o que é criticamente importante para um scraping seguro. Sem isso, a plataforma pode vincular várias contas entre si e bloqueá-las em cadeia.
Navegadores anti-detect populares para Twitter/X
Dolphin Anty — uma das opções mais populares entre arbitradores e especialistas em SMM. O plano gratuito permite criar até 10 perfis, o que é suficiente para pequenas tarefas de scraping.
AdsPower — um bom equilíbrio entre funcionalidade e preço. Possui automação embutida através de RPA (Automação de Processos Robóticos), o que permite configurar scraping sem escrever código.
Multilogin — solução premium com o máximo nível de proteção. Usado por grandes agências, mas é caro (a partir de €99/mês). Justificável apenas para scraping profissional de grandes volumes de dados.
GoLogin — uma opção econômica com boa qualidade de fingerprints. Possui aplicativo móvel para trabalhar com contas em movimento.
Configuração passo a passo do perfil para scraping do Twitter/X (exemplo com Dolphin Anty)
Passo 1: Criar um novo perfil de navegador
- Abra o Dolphin Anty e clique em "Criar perfil"
- Escolha o sistema operacional: Windows, macOS ou Linux (escolha aquele que corresponde ao seu dispositivo real ou que é mais popular entre os usuários do Twitter)
- Insira o nome do perfil: por exemplo, "Twitter Parser US #1"
Passo 2: Configuração do proxy
- Na seção "Proxy", escolha o tipo: HTTP, HTTPS ou SOCKS5 (SOCKS5 é preferível para Twitter/X)
- Insira os dados do proxy: endereço IP, porta, login, senha
- Clique em "Verificar proxy" — certifique-se de que o status está verde e a geolocalização está correta
- Importante: para cada conta do Twitter/X, use um proxy separado
Passo 3: Configuração da impressão digital (fingerprint)
- User-Agent: escolha um User-Agent real da versão atual do Chrome (por exemplo, Chrome 120 no Windows 10)
- Resolução de tela: use resoluções populares (1920x1080, 1366x768, 1440x900) — não coloque valores exóticos
- Fuso horário: deve corresponder à geolocalização do proxy (se o proxy for dos EUA/Nova Iorque — coloque EST)
- Idioma do navegador: corresponde à região (en-US para os EUA, en-GB para o Reino Unido)
- WebRTC: desative ou substitua pelo IP do proxy (caso contrário, pode vazar o IP real)
- Canvas e WebGL: use o modo "Noise" (adição de ruído) — isso cria uma impressão digital única para cada perfil
Passo 4: Configurações adicionais de segurança
- Desative o preenchimento automático de senhas (o Twitter pode verificar a presença de dados salvos)
- Limpe os cookies após cada sessão de scraping
- Não use extensões de navegador — elas criam impressões digitais únicas e podem revelar automação
- Ative "Do Not Track" (DNT) — muitos usuários reais o utilizam
⚠️ Erro crítico: Não use a mesma impressão digital para várias contas! O Twitter/X facilmente detecta impressões digitais idênticas e bloqueia todas as contas relacionadas. Cada perfil em um navegador anti-detect deve ter parâmetros únicos.
Ferramentas para scraping do Twitter/X: de soluções prontas a código
A escolha da ferramenta depende de suas habilidades técnicas e do volume de tarefas. Vamos analisar opções desde serviços simples sem código até scripts profissionais.
Serviços prontos de scraping do Twitter/X (sem código)
Phantombuster — serviço de automação em nuvem com modelos prontos para Twitter/X. Permite raspar perfis, seguidores, tweets por hashtags. A configuração leva de 5 a 10 minutos: você escolhe um modelo, define os parâmetros (hashtag, lista de contas), conecta o proxy e inicia.
Apify — marketplace de scrapers prontos. Existem vários atores (scripts prontos) para Twitter/X: scraping de perfis, coleta de tweets, monitoramento de menções. Funciona através da nuvem, suporta proxies, há um plano gratuito com limitações.
Octoparse — construtor visual de scrapers. Você abre o Twitter/X na interface do programa, clica nos elementos que deseja coletar (nome, bio, número de seguidores), e o programa cria o script automaticamente. Adequado para tarefas simples, mas pode não lidar bem com estruturas complexas de páginas.
Automatização através de RPA em navegadores anti-detect
Alguns navegadores anti-detect (AdsPower, Octo Browser) possuem ferramentas RPA (Automação de Processos Robóticos) embutidas, que permitem gravar e reproduzir ações do usuário.
Como isso funciona:
- Abra o Twitter/X no navegador anti-detect
- Ative o modo de gravação de ações
- Execute as ações necessárias: abra um perfil, copie dados, vá para o próximo
- Interrompa a gravação — o navegador criou um script
- Carregue uma lista de contas para scraping e inicie o script em loop
Vantagens: não requer habilidades de programação, funciona através de um navegador real (alto nível de contorno de proteção), fácil adicionar atrasos aleatórios e emulação de comportamento.
Scraping através de código: Python + Selenium/Playwright
Para tarefas mais complexas e controle total sobre o processo, use programação. Python é a linguagem mais popular para scraping devido ao rico ecossistema de bibliotecas.
Principais bibliotecas:
- Selenium — automação de navegador, funciona com Chrome/Firefox, suporta proxies e emulação de ações do usuário
- Playwright — alternativa moderna ao Selenium, mais rápida e estável, suporta modo headless
- Tweepy — biblioteca para trabalhar com a API oficial do Twitter (requer acesso pago)
- Twint — scraping do Twitter sem API (atenção: o Twitter bloqueia ativamente esse método, funciona de forma instável)
Exemplo de script básico em Python + Selenium:
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.options import Options
import time
import random
# Configuração do proxy
proxy = "123.45.67.89:8080" # Substitua pelo seu proxy
chrome_options = Options()
chrome_options.add_argument(f'--proxy-server={proxy}')
chrome_options.add_argument('--disable-blink-features=AutomationControlled')
chrome_options.add_experimental_option("excludeSwitches", ["enable-automation"])
# Inicialização do navegador
driver = webdriver.Chrome(options=chrome_options)
# Abrindo perfil do Twitter
driver.get('https://twitter.com/elonmusk')
time.sleep(random.uniform(3, 7)) # Atraso aleatório
# Coletando dados do perfil
try:
name = driver.find_element(By.XPATH, '//div[@data-testid="UserName"]').text
bio = driver.find_element(By.XPATH, '//div[@data-testid="UserDescription"]').text
followers = driver.find_element(By.XPATH, '//a[contains(@href, "/followers")]/span').text
print(f"Nome: {name}")
print(f"Bio: {bio}")
print(f"Seguidores: {followers}")
except Exception as e:
print(f"Erro ao coletar dados: {e}")
driver.quit()
Pontos importantes ao trabalhar com código:
- Adicione
time.sleep(random.uniform(3, 7))entre ações — isso emula o comportamento de um usuário real - Use
--disable-blink-features=AutomationControlledpara ocultar sinais de automação - Altere o User-Agent para um real:
chrome_options.add_argument('user-agent=Mozilla/5.0...') - Trate erros através de try/except — o Twitter/X frequentemente muda a estrutura das páginas
- Salve os resultados em um banco de dados (SQLite, PostgreSQL) ou arquivo CSV
Aquecimento de contas do Twitter/X antes do scraping em massa
Se você estiver usando novas contas do Twitter/X para scraping, não deve começar imediatamente a coleta em massa de dados. A plataforma monitora a "idade" da conta e sua atividade — novas contas com comportamento agressivo são bloqueadas primeiro.
Plano de aquecimento da conta (7-14 dias)
Dias 1-3: Configuração básica e atividade mínima
- Preencha o perfil: avatar, bio, link para o site (use dados reais, não deixe o perfil vazio)
- Siga de 5 a 10 contas populares do seu nicho
- Role o feed por 2-3 minutos, dê 2-3 curtidas
- Faça 1-2 retweets
- Não faça mais de 10 ações por dia
Dias 4-7: Aumento da atividade
- Siga mais 10-15 contas
- Publique 1-2 tweets próprios (pode ser simples, tipo "Hello Twitter!")
- Aumente o número de curtidas para 5-10 por dia
- Comece a visualizar perfis de outros usuários (5-10 perfis por dia)
- Adicione alguns tweets aos favoritos
Dias 8-14: Preparação para scraping
- Siga de 20 a 30 contas, para que o número total de seguidores seja de 50-70
- Publique 1 tweet a cada 2-3 dias
- Visualize 10-20 perfis por dia
- Use a busca por hashtags (mas não raspe ainda — apenas busque e leia)
- No 12º-14º dia, você pode começar um scraping leve: 20-30 perfis por dia com pausas
💡 Dica: Se você está comprando contas do Twitter/X (contas de farm), escolha aquelas que têm pelo menos 3-6 meses, com perfil preenchido e histórico de atividade. Essas contas podem ser usadas para scraping imediatamente, mas ainda assim comece com volumes pequenos.
Sinais de uma conta "aquecida"
- Idade da conta: mínimo de 14 dias, melhor 30+ dias
- Número de seguidores: 50-100 (não muito, não pouco)
- Número de seguidores: 5-20 (mesmo alguns seguidores reais aumentam a confiança)
- Histórico de tweets: mínimo de 5-10 publicações
- Curtidas e retweets: 20-50 ações no histórico
- Perfil preenchido: avatar, bio, talvez um link
Checklist de scraping seguro: 12 regras de proteção contra bans
Vamos reunir todas as recomendações em um único checklist que deve ser seguido ao raspar o Twitter/X:
✅ Checklist de segurança
1. Use proxies de qualidade
- Para trabalhar com contas: proxies residenciais ou móveis
- Um proxy = uma conta (não misture)
- Verifique a geolocalização do proxy antes de usar
2. Configure impressões digitais únicas
- Use um navegador anti-detect (Dolphin Anty, AdsPower, Multilogin)
- Cada conta = conjunto único de parâmetros (User-Agent, resolução, fuso horário)
- Desative o WebRTC ou substitua pelo IP do proxy
3. Respeite os limites de taxa
- Não mais que 300-500 solicitações por hora de uma única conta
- Adicione atrasos aleatórios: 3-7 segundos entre ações
- Faça pausas longas a cada 50-100 ações (30-60 segundos)
4. Aqueça novas contas
- Mínimo de 7-14 dias antes de um scraping ativo
- Preencha o perfil e crie um histórico de atividade
- Comece com volumes pequenos: 20-30 perfis por dia
5. Emule o comportamento de um usuário real
- Adicione movimentos aleatórios do mouse
- Role páginas com velocidades variadas
- Às vezes, distraia-se: abra outras abas, faça pausas
6. Rotacione endereços IP
- Mude o IP a cada 50-100 solicitações ou a cada 10-15 minutos
- Use sessões sticky para estabilidade (um IP por 10-30 minutos)
- Não volte a um mesmo IP com muita frequência
7. Trate erros corretamente
- Em caso de erro 429 (Too Many Requests) — pausa de pelo menos 15 minutos
- Em caso de erro 403 (Forbidden) — mude o IP e verifique a impressão digital
- Em caso de CAPTCHA — resolva manualmente ou através de serviços (2Captcha, AntiCaptcha)
8. Cache os dados
- Salve os resultados em um banco de dados
- Não raspe os mesmos perfis novamente
- Mantenha logs: quais perfis foram processados, quando, com qual resultado
9. Distribua a carga
- Use 5-10 contas para grandes volumes de scraping
- Cada conta opera em seu próprio ritmo (não sincronize-as)
- Raspe em diferentes horários do dia (não todas as contas ao mesmo tempo)
10. Trabalhe durante horários de pico de atividade
- Raspe durante o horário comercial da geolocalização alvo (9:00-18:00 no horário local)
- Evite scraping noturno (00:00-06:00) — isso é suspeito
11. Monitore o estado das contas
- Verifique as contas diariamente: se não estão bloqueadas, se não há avisos
- Se uma conta recebeu um aviso — reduza a atividade por 3-7 dias
- Mantenha estatísticas: quantos perfis cada conta raspou, houve problemas?
12. Não raspe mensagens diretas e dados privados
- Coleta apenas dados públicos: perfis, tweets, seguidores
- Não tente contornar contas privadas
- Respeite os Termos de Serviço do Twitter/X (embora o scraping os viole, minimize os riscos)