Como o Google Detecta Bots: Entenda o SearchGuard
O artigo revela como o Google diferencia humanos de bots com o SearchGuard, além de discutir o processo contra a SerpAPI e suas implicações para SEO.
Dentro do SearchGuard: Como o Google detecta bots e o que o processo contra a SerpAPI revela
Desvendamos completamente o sistema anti-bot SearchGuard do Google, a tecnologia que está no centro do recente processo contra a SerpAPI.
Após a deobfuscação total do código JavaScript, temos agora uma visão sem precedentes de como o Google distingue visitantes humanos de scrapers automatizados em tempo real.
O Que Aconteceu
O Google processou a SerpAPI LLC, baseada no Texas, no dia 19 de dezembro, alegando que a empresa contornou o SearchGuard para raspar conteúdo protegido por direitos autorais dos resultados de busca do Google em uma escala de “centenas de milhões” de consultas diárias. Em vez de focar em violações dos termos de serviço, o Google fundamentou seu caso na Seção 1201 do DMCA – a disposição anti-contorno da lei de direitos autorais.
A queixa descreve o SearchGuard como “o produto de dezenas de milhares de horas de trabalho humano e milhões de dólares em investimento.”
Por Que Isso Importa
O processo revela exatamente o que o Google considera valioso – e até onde ele irá para defendê-lo. Para profissionais de SEO e marketers, entender o SearchGuard é crucial, pois qualquer interação automatizada em grande escala com o Google Search agora aciona esse sistema. Se você está utilizando ferramentas que raspam SERPs, essa é a barreira que estão enfrentando.
A Conexão com a OpenAI
Aqui é onde as coisas ficam interessantes: a SerpAPI não é apenas mais uma empresa de scraping.
A OpenAI tem utilizado parcialmente resultados de busca do Google raspados pela SerpAPI para alimentar as respostas em tempo real do ChatGPT. A SerpAPI listou a OpenAI como um cliente em seu site até maio de 2024, antes que a referência fosse silenciosamente removida.
O Google negou o pedido direto da OpenAI para acessar seu índice de busca em 2024. No entanto, o ChatGPT ainda precisava de dados de busca frescos para competir.
A solução? Um scraper de terceiros que pilha os SERPs do Google e revende os dados.
O Google não está atacando diretamente a OpenAI. Ele está mirando em um elo chave na cadeia de suprimentos que alimenta seu principal concorrente em IA.
O timing é revelador. O Google está atingindo a infraestrutura que impulsiona produtos de busca rivais – sem mencioná-los na queixa.
O Que Encontramos Dentro do SearchGuard
Desvendamos completamente a versão 41 do script BotGuard – a tecnologia subjacente ao SearchGuard. O script começa com uma mensagem inesperadamente amigável:
Anti-spam. Quer dizer olá? Contate botguard-contact@google.com
Por trás dessa saudação está um dos sistemas de detecção de bots mais sofisticados já implantados.
BotGuard vs. SearchGuard. O BotGuard é o sistema anti-bot proprietário do Google, internamente chamado de “Atestação de Aplicativo Web” (WAA). Introduzido por volta de 2013, agora protege virtualmente todos os serviços do Google: YouTube, reCAPTCHA v3, Google Maps, entre outros.
Na sua queixa contra a SerpAPI, o Google revelou que o sistema que protege a busca especificamente é chamado de “SearchGuard” – presumivelmente o nome interno para o BotGuard quando aplicado à Busca do Google. Este é o componente que foi implantado em janeiro de 2025, quebrando praticamente todos os scrapers de SERP da noite para o dia.
Diferente dos CAPTCHAs tradicionais que exigem cliques em imagens de semáforos, o BotGuard opera completamente de forma invisível. Ele coleta continuamente sinais comportamentais e os analisa usando algoritmos estatísticos para distinguir humanos de bots – tudo sem que o usuário saiba.
Como o Google Sabe Que Você É Humano
O sistema rastreia quatro categorias de comportamento em tempo real. Aqui está o que ele mede:
Movimentos do Mouse
Humanos não movem os cursos em linha reta. Seguimos curvas naturais com aceleração e desaceleração – pequenas imperfeições que revelam nossa humanidade.
- Trajetória (forma do caminho)
- Velocidade (rapidez)
- Aceleração (mudanças de velocidade)
- Jitter (micro-tremores)
Um movimento de mouse “perfeito” – linear, com velocidade constante – é imediatamente suspeito. Bots geralmente se movem em vetores precisos ou teleportam entre pontos. Humanos são desorganizados.
Limite de Detecção: A variação de velocidade do mouse abaixo de 10 é sinalizada como comportamento de bot. A variação normal humana fica entre 50-500.
Ritmo do Teclado
Cada um possui uma assinatura única ao digitar. O Google mede:
- Intervalos entre teclas (tempo entre pressionadas)
- Duração da pressão das teclas (quanto tempo cada tecla é mantida)
- Padrões de erro
- Pauses após pontuação
Um humano normalmente apresenta variação de 80-150ms entre as teclas. Um bot? Frequentemente menos de 10ms com consistência robótica.
Limite de Detecção: Variação na duração da pressão das teclas abaixo de 5ms indica automação. A digitação humana normal apresenta variação de 20-50ms.
Comportamento de Rolagem
O comportamento de rolagem também é analisado. O Google observa:
- Velocidade de rolagem
- Intervalos de rolagem
- Direção de rolagem
Movimentos de rolagem humanos são irregulares e muitas vezes desiguais, enquanto bots tendem a rolar de forma uniforme e consistente.
Limite de Detecção: Qualquer comportamento de rolagem excessivamente regular é um indicativo de automação.
Para mais informações sobre SEO e marketing digital, acesse nossa seção de SEO ou descubra como criar sites de forma eficaz e aproveitar o tráfego pago para aumentar sua visibilidade online.
📰 Fonte Original
Este artigo foi baseado em informações publicadas por Search Engine Land em 19/01/2026.
🔗 Ler artigo original →