SEO técnico é o pilar do SEO responsável pela estrutura e infraestrutura do site. Enquanto o SEO de conteúdo trabalha o que está nas páginas e o link building constrói autoridade, o SEO técnico garante que o Google consiga encontrar, ler e entender essas páginas. Sem uma base técnica sólida, todo o esforço de conteúdo e autoridade fica limitado — ou completamente bloqueado.
Resumo direto (TL;DR)
- SEO técnico cobre rastreamento, indexação, velocidade, mobile, segurança, URLs e dados estruturados.
- Core Web Vitals (LCP, INP, CLS) são fatores de ranqueamento oficiais do Google desde 2021.
- Sitemap XML e robots.txt controlam o que o Google rastreia e indexa — erros aqui afetam o site inteiro.
- Canonical tags são essenciais em e-commerces para evitar conteúdo duplicado gerado por filtros e paginação.
- A auditoria técnica deve ser a primeira etapa de qualquer estratégia de SEO — antes de criar conteúdo novo.
Neste artigo
1. O que é SEO técnico?
SEO técnico é o conjunto de otimizações da estrutura e infraestrutura de um site para que os mecanismos de busca consigam rastrear, indexar e classificar suas páginas de forma eficiente. Ele não trata do conteúdo em si, mas das condições que permitem que esse conteúdo seja encontrado e interpretado corretamente.
Pense assim: você pode ter o artigo mais completo do seu nicho, mas se o Google não consegue acessar a página — porque está bloqueada no robots.txt, carrega em 12 segundos ou tem um erro de canonical errado — ele nunca vai aparecer nos resultados de busca.
Regra de ouro: sempre resolva problemas técnicos antes de investir em produção de conteúdo. Uma auditoria técnica bem feita revela oportunidades de crescimento que não exigem criar nenhuma página nova.
2. Rastreamento e indexação
O Google usa robôs chamados Googlebot para percorrer a web seguindo links. Quando o Googlebot visita uma página, ele lê o HTML, segue os links encontrados e registra o conteúdo no índice do Google. Esse ciclo tem duas etapas distintas que é importante não confundir:
| Etapa | O que significa | Como verificar |
|---|---|---|
| Rastreamento | O Googlebot visita e lê o conteúdo da página | Relatório de cobertura no Google Search Console |
| Indexação | A página é armazenada no banco de dados do Google | Busca site:seudominio.com.br no Google ou GSC |
Uma página pode ser rastreada sem ser indexada (quando há uma diretiva noindex). E uma página pode estar bloqueada para rastreamento mas ainda assim aparecer no índice se o Google a descobriu por meio de backlinks — sem ler o conteúdo.
Orçamento de rastreamento
O Google não rastreia um site infinitamente. Cada domínio tem um crawl budget — um limite de páginas rastreadas por dia com base na autoridade e tamanho do site. Em lojas com muitas páginas geradas por filtros, paginação e facetas, esse orçamento pode ser desperdiçado em URLs sem valor, deixando páginas importantes sem rastreamento.
Em e-commerces com centenas de produtos, URLs como /categoria?cor=azul&tamanho=M&ordem=preco multiplicam o número de páginas rastreáveis por dezenas — consumindo crawl budget sem gerar valor de SEO.
3. Robots.txt
O arquivo robots.txt fica na raiz do domínio (seusite.com/robots.txt) e instrui os robôs de busca sobre quais partes do site podem ou não ser rastreadas. Ele é a primeira coisa que o Googlebot lê ao visitar um site.
O que o robots.txt faz e não faz
- Faz: bloqueia o rastreamento de diretórios ou arquivos específicos
- Faz: indica onde está o sitemap do site
- Não faz: impede a indexação — uma página bloqueada no robots.txt ainda pode aparecer no Google se tiver backlinks externos apontando para ela
- Não faz: proteger conteúdo sensível — para isso, use autenticação ou noindex
Erro crítico: bloquear acidentalmente todo o site com Disallow: / impede que qualquer página seja rastreada. Esse erro já aconteceu com grandes sites e derrubou rankings completamente. Sempre valide o robots.txt após qualquer alteração.
4. Sitemap XML
O sitemap XML é um arquivo que lista todas as URLs que você quer que o Google indexe. Ele funciona como um mapa do site — especialmente útil em domínios grandes ou com pouca estrutura de links internos, onde o Googlebot poderia não encontrar todas as páginas sozinho.
Boas práticas para sitemap
- Incluir apenas URLs que devem ser indexadas — excluir páginas com
noindex, redirecionamentos e erros 404 - Manter o sitemap atualizado automaticamente — plataformas como Shopify geram sitemap dinâmico por padrão
- Usar sitemap index para sites com mais de 50.000 URLs, dividindo em sitemaps menores por tipo (produtos, categorias, artigos)
- Submeter o sitemap no Google Search Console para acelerar a descoberta de novas páginas
- Referenciar o sitemap no final do
robots.txt:Sitemap: https://seusite.com/sitemap.xml
5. Canonical tags e conteúdo duplicado
A tag canonical (<link rel="canonical" href="...">) informa ao Google qual é a versão principal de uma página quando há conteúdo duplicado ou muito similar. Sem ela, o Google precisa decidir sozinho qual versão indexar — e pode escolher a errada.
Quando o conteúdo duplicado acontece
- URLs com e sem
www—www.loja.comeloja.comsão tecnicamente diferentes para o Google - URLs com e sem barra final —
/categoria/e/categoria - Parâmetros de URL gerados por filtros —
?cor=azul,?tamanho=M,?ordem=preco - Paginação —
/categoria/page/2com conteúdo muito similar à página principal - Variantes de produto — a mesma camiseta em diferentes cores gerando URLs separadas com descrição idêntica
- Versões de impressão ou AMP da mesma página
Regra prática: toda página que não é a versão principal de si mesma precisa de um canonical apontando para a URL correta. Em lojas Shopify, variantes de produto e coleções filtradas são os maiores focos de duplicação.
6. Redirecionamentos 301 e 302
Redirecionamentos informam ao Google (e ao navegador) que uma URL foi movida para outro endereço. O tipo de redirecionamento utilizado tem impacto direto no SEO.
| Tipo | Significado | Impacto no SEO | Quando usar |
|---|---|---|---|
| 301 | Movido permanentemente | Transfere praticamente toda a autoridade da página original | Migração de domínio, mudança definitiva de URL, produtos descontinuados |
| 302 | Movido temporariamente | Não transfere autoridade — Google mantém a URL original no índice | Página em manutenção, teste A/B, promoções sazonais |
Cadeias longas de redirecionamento — quando A redireciona para B que redireciona para C — diluem a autoridade transferida e aumentam o tempo de carregamento. O ideal é sempre apontar direto para a URL final.
7. HTTPS e segurança
HTTPS é um sinal de ranqueamento confirmado pelo Google desde 2014 e hoje é o padrão mínimo esperado. Sites sem certificado SSL são marcados como "Não seguro" no Chrome, o que reduz a taxa de cliques e transmite falta de confiabilidade ao visitante.
Além do certificado SSL, os Core Security Headers contribuem para a segurança percebida do site: cabeçalhos como Content-Security-Policy, X-Frame-Options e Strict-Transport-Security (HSTS) são boas práticas de infraestrutura que algumas ferramentas de auditoria técnica também avaliam.
8. Core Web Vitals
Os Core Web Vitals são métricas de experiência do usuário que o Google usa como fator de ranqueamento desde maio de 2021. Elas medem como o usuário real percebe a experiência de carregar e interagir com uma página.
| Métrica | O que mede | Meta (boa experiência) |
|---|---|---|
| LCP — Largest Contentful Paint | Tempo até o maior elemento visível carregar | ≤ 2,5 segundos |
| INP — Interaction to Next Paint | Responsividade a cliques, toques e teclado | ≤ 200 ms |
| CLS — Cumulative Layout Shift | Estabilidade visual — quanto o layout "pula" | ≤ 0,1 |
Como melhorar cada métrica
LCP
- Otimizar imagens: usar formatos modernos como WebP e AVIF, comprimir sem perda visível de qualidade
- Aplicar
loading="eager"efetchpriority="high"na imagem principal acima da dobra - Usar CDN para servir assets estáticos com menor latência
- Eliminar recursos que bloqueiam a renderização (CSS e JS críticos inline, resto diferido)
INP
- Reduzir JavaScript de terceiros — cada script externo adiciona tempo de execução na thread principal
- Diferir scripts não críticos com
deferouasync - Evitar tarefas longas (Long Tasks) na thread principal do navegador
CLS
- Sempre definir
widtheheightem imagens e vídeos para o navegador reservar o espaço antes do carregamento - Evitar inserção dinâmica de conteúdo acima do conteúdo existente (banners, popups de cookie, anúncios)
- Carregar fontes customizadas com
font-display: swapouoptional
Como medir: use o PageSpeed Insights para ver os Core Web Vitals de uma URL específica com dados reais de usuários (CrUX). O Google Search Console mostra o relatório de Core Web Vitals para todo o site agrupado por tipo de página.
9. Mobile-first indexing
Desde 2019, o Google usa a versão mobile do site como base para rastreamento e classificação — mesmo para buscas feitas no desktop. Isso se chama mobile-first indexing. Se a versão mobile do seu site tem menos conteúdo, imagens de menor qualidade ou estrutura diferente da versão desktop, o ranking é impactado.
O que verificar para mobile
- O conteúdo da versão mobile é idêntico ao da versão desktop — mesmo texto, mesmos links internos, mesmos dados estruturados
- Imagens e vídeos carregam corretamente no mobile sem depender de Flash ou tecnologias não suportadas
- A viewport está configurada com
<meta name="viewport" content="width=device-width, initial-scale=1"> - Botões e links têm tamanho mínimo de 48×48px para toque
- O texto não exige zoom para ser legível — fonte mínima de 16px no corpo
10. Estrutura de URLs
URLs são sinais de relevância para o Google e influenciam diretamente a taxa de cliques nos resultados de busca. Uma URL bem estruturada é descritiva, curta e legível por humanos.
Boas práticas de URL
- Use palavras-chave na URL —
/tenis-de-corrida-masculinoé melhor que/produto?id=4821 - Separe palavras com hífen (
-), nunca com underscore (_) — o Google trata hífens como separadores de palavras - Use letras minúsculas — maiúsculas e minúsculas criam URLs tecnicamente diferentes
- Evite parâmetros de sessão, IDs de usuário e tokens na URL de páginas indexáveis
- Mantenha a estrutura de diretórios simples:
/categoria/produtoé suficiente;/departamento/secao/categoria/subcategoria/produtoé excessivo - Defina uma política consistente para barra final e mantenha redirecionamentos para padronizar
11. Dados estruturados (Schema)
Dados estruturados são marcações em formato JSON-LD (ou Microdata/RDFa) que descrevem o tipo de conteúdo de uma página em um vocabulário que o Google entende. Eles não são um fator direto de ranqueamento, mas habilitam rich results — resultados enriquecidos nos SERPs que aumentam a taxa de cliques.
Tipos de schema mais relevantes para e-commerce e blog
| Tipo de schema | Onde usar | Rich result habilitado |
|---|---|---|
| Product | Fichas de produto | Preço, disponibilidade e avaliações no resultado de busca |
| FAQPage | Páginas com perguntas e respostas | Accordion de perguntas expandido diretamente no SERP |
| BlogPosting | Artigos de blog | Data, autor e breadcrumb nos resultados |
| BreadcrumbList | Todas as páginas com navegação em trilha | Breadcrumb visível na URL do resultado de busca |
| LocalBusiness | Negócios com endereço físico | Painel de conhecimento e horários no Google |
| Review / AggregateRating | Páginas com avaliações de clientes | Estrelas visíveis no resultado de busca |
Validação: use o Rich Results Test do Google para verificar se os dados estruturados estão corretos e quais rich results foram detectados. O Google Search Console também mostra erros de schema no relatório de melhorias.
12. JavaScript e SEO
Sites que dependem de JavaScript para renderizar conteúdo principal apresentam um desafio para o Googlebot. O Google consegue executar JavaScript, mas com atraso — o processo acontece em uma fila de renderização separada e pode levar dias ou semanas para ser concluído.
Riscos do JavaScript no SEO
- Conteúdo gerado 100% por JS pode demorar para ser indexado
- Links internos renderizados via JS podem não ser rastreados em lojas com crawl budget limitado
- Menus de navegação, breadcrumbs e links de categorias em JS reduzem a eficiência de rastreamento
Boas práticas
- Use SSR (Server-Side Rendering) ou SSG (Static Site Generation) para conteúdo crítico
- Garanta que o HTML inicial (sem JS executado) já contenha o conteúdo principal e os links internos mais importantes
- Teste o conteúdo que o Google vê com o relatório "Inspecionar URL" no Search Console, ativando a visualização do HTML renderizado
13. SEO técnico para e-commerce
Lojas virtuais têm desafios técnicos de SEO específicos que sites institucionais raramente enfrentam. O volume de páginas, a geração dinâmica de URLs e os sistemas de filtragem criam complexidades que precisam ser gerenciadas ativamente.
Principais problemas técnicos em e-commerces
Conteúdo duplicado em escala: uma loja com 500 produtos e 8 filtros (cor, tamanho, material, preço, marca, ordenação, avaliação, disponibilidade) pode gerar mais de 4.000 URLs com conteúdo praticamente idêntico. Sem canonical tags, o Google distribui autoridade entre todas essas variações em vez de concentrá-la na URL principal.
- Paginação — use canonical apontando para a primeira página ou implemente
rel="next"erel="prev"para séries de paginação longa - Facetas e filtros — bloqueie URLs de filtros sem valor SEO no robots.txt ou use parâmetros com canonical; permita apenas as combinações estratégicas que merecem ranquear
- Produtos fora de estoque — mantenha a página com dados estruturados atualizados (
availability: OutOfStock) em vez de deletar a URL; para produtos descontinuados permanentemente, use 301 para a categoria - Títulos e descrições duplicadas — produtos com variantes idênticas no nome precisam de title tags distintas; use templates dinâmicos que incluam atributo diferenciador
- Imagens de produto — nomes de arquivo descritivos (
tenis-corrida-nike-vermelho-42.jpg), alt text único, compressão adequada e atributos de dimensão no HTML - Links internos — breadcrumbs, seções de produtos relacionados e links cruzados entre categorias distribuem autoridade e facilitam o rastreamento
14. Como fazer uma auditoria de SEO técnico
Uma auditoria técnica é o diagnóstico completo da saúde do site. O objetivo é identificar o que está impedindo ou limitando o desempenho orgânico antes de qualquer outro investimento em SEO.
Checklist de auditoria técnica
| Área | O que verificar |
|---|---|
| Indexação | Quais páginas estão indexadas? Há páginas importantes fora do índice? O número de páginas indexadas é coerente com o tamanho do site? |
| Rastreamento | O robots.txt está correto? Há diretivas bloqueando páginas importantes? O sitemap está referenciado? |
| Core Web Vitals | LCP, INP e CLS estão dentro das metas? Quais tipos de página têm pior performance? |
| Redirecionamentos | Há cadeias de redirecionamento? Loops? Redirecionamentos para páginas 404? |
| Canonical | Todas as páginas têm canonical? Canonical aponta para a URL correta? Há canonical apontando para páginas com noindex? |
| Conteúdo duplicado | Há páginas com title tag ou meta description duplicada? Conteúdo de produto muito similar entre variantes? |
| Links internos | Há páginas órfãs (sem nenhum link interno apontando para elas)? Links quebrados? |
| Dados estruturados | Schema está implementado nas páginas corretas? Há erros ou avisos no Search Console? |
| Mobile | O site passa no teste de compatibilidade mobile do Google? Viewport configurada? Texto legível sem zoom? |
| HTTPS | Certificado SSL válido? Todas as URLs internas usam HTTPS? Recursos mistos (HTTP dentro de HTTPS)? |
15. Ferramentas essenciais de SEO técnico
| Ferramenta | Para que serve | Custo |
|---|---|---|
| Google Search Console | Indexação, cobertura, Core Web Vitals, erros de schema, links | Gratuito |
| PageSpeed Insights | Core Web Vitals, diagnóstico de performance por URL | Gratuito |
| Rich Results Test | Validação de dados estruturados e rich results | Gratuito |
| Screaming Frog SEO Spider | Rastreamento completo do site, títulos, meta tags, canonical, redirecionamentos | Gratuito até 500 URLs; pago para sites maiores |
| Ahrefs / Semrush | Auditoria técnica abrangente, backlinks, palavras-chave, monitoramento | Pago |
| GTmetrix | Análise de performance com waterfall de carregamento | Freemium |
Por onde começar: configure o Google Search Console e analise o relatório de cobertura. Ele mostra exatamente quais páginas estão indexadas, quais foram excluídas e por quê — é o ponto de partida mais direto para qualquer auditoria técnica.
16. Perguntas frequentes sobre SEO técnico
O que é SEO técnico?
SEO técnico é o conjunto de otimizações da estrutura e infraestrutura de um site — rastreamento, indexação, velocidade, mobile, segurança, URLs e dados estruturados — que garantem que o Google consiga encontrar, ler e classificar suas páginas corretamente.
Por que SEO técnico é importante?
Sem uma base técnica sólida, todo o esforço de conteúdo e link building fica limitado. Se o Google não consegue rastrear ou indexar suas páginas, elas simplesmente não aparecem nos resultados de busca, independente da qualidade do conteúdo.
O que são Core Web Vitals?
Core Web Vitals são métricas de experiência do usuário usadas pelo Google como fator de ranqueamento: LCP mede a velocidade de carregamento do conteúdo principal (meta: ≤ 2,5s), INP mede a responsividade a interações (meta: ≤ 200ms) e CLS mede a estabilidade visual da página (meta: ≤ 0,1).
Qual a diferença entre robots.txt e noindex?
Robots.txt bloqueia o rastreamento — o Google não lê o conteúdo da página. Noindex permite o rastreamento mas impede a indexação — o Google lê a página mas não a exibe nos resultados. Para páginas que você não quer no índice, noindex é a abordagem correta; robots.txt deve ser usado para economizar crawl budget, não para controlar indexação.
O que é canonical tag e quando usar?
A canonical tag indica ao Google qual é a versão principal de uma página quando há conteúdo duplicado. Em e-commerce, é essencial para páginas geradas por filtros de cor, tamanho, ordenação e paginação, que criam múltiplas URLs com conteúdo praticamente idêntico.
Como fazer uma auditoria de SEO técnico?
Comece pelo Google Search Console para verificar cobertura de indexação e erros. Use o PageSpeed Insights para Core Web Vitals. Rastreie o site com Screaming Frog para identificar títulos duplicados, canonical incorretos, redirecionamentos quebrados e páginas órfãs. Valide dados estruturados com o Rich Results Test.