170 views 8 mins

Erros que impedem sites de estarem bem-posicionados nos buscadores

em Destaques
segunda-feira, 20 de setembro de 2021

Aparecer bem-posicionado nos buscadores é uma vantagem que empresa alguma pode prescindir em um mundo conectado e digital. Estudo da WebPeak, desenvolvedora de tecnologia para análise de marketing digital e SEO (otimização de sites para mecanismos de busca), rastreou os principais erros dos sites corporativos que os impedem de estar nas primeiras posições em buscadores como Google e Bing.

“Estas falhas comprometem o resultado nas buscas orgânicas e, mesmo com um site bonito, empresas deixam de aparecer, podendo perder espaço para concorrentes mais bem-preparados em estratégias de SEO”, comenta o CEO da WebPeak, Marcos Custódio, que explica: “os erros nas páginas corporativas estão relacionados a como os robôs dos buscadores enxergam esses sites para qualificá-los ou não nas buscas feitas pelos usuários.”

A WebPeak identificou 15 erros comuns, a partir de levantamento feito com sua tecnologia, que impedem que sites corporativos estejam bem-posicionados nos buscadores:

  1. Falta de palavra-chave no h1 – O h1 é o título mais importante da página. É ele que vai ditar o tema do restante do conteúdo. Podemos compará-lo ao título de um livro (capa);
  2. Título otimizado – Consiste em um título com a presença da palavra-chave estratégica, que também deverá aparecer em outros campos (como os itens h2, h3, h4, description, URL, alt, conteúdo);
  3. Falta de h2 na otimização de páginas – O h2 é um subtítulo que também precisa estar otimizado, sendo o segundo mais importante dentro da página. Essa otimização não é feita em 80% dos sites. O mesmo acontece com os h3, h4, h5 e h6, que são títulos com menos força, mas relevantes para melhorar a organização do conteúdo;
  4. h3 a h6 – Títulos com menos força na página, mas devem estar otimizados para impulsionar o ranqueamento de um site nos buscadores;
  5. Páginas com erros 404 – Esse erro ocorre quando páginas de um site estão “quebradas”. Podem ser páginas que não existem mais, ou troca de URL. Um exemplo é em uma loja online, quando um produto não está mais disponível e é tirado do ar ou quando muda o nome há uma quebra de URL.

São páginas que não estão mais acessíveis. “A tratativa deste erro é redirecionar para páginas mais relevantes para que ele não aconteça,” menciona o executivo. Esse é um ponto crítico, onde apenas 33% dos sites não apresentam esse tipo de erro.

  1. Tag title com mais de 70 caracteres – As meta tags têm limite de caracteres que são expostos nos resultados de buscas. Fazer um texto seguindo esse limite garante que a informação do campo seja exibida por completo;
  2. Falta de palavra-chave na tag description – Esse campo pode apresentar informações mais atraentes para o usuário e para o robô buscador, sendo indispensável a repetição da palavra-chave nesse texto. Cerca de 93% dos sites ignoram esse fator, e aqui pode estar mais uma oportunidade de otimização, e consequentemente, melhora na posição nos resultados das buscas;
  3. Excesso de caracteres na tag description – O excesso de caracteres nesse campo impossibilita que as informações sejam apresentadas por completo nos resultados de busca;
  4. URLs não otimizadas – As URLs nada mais são que os endereços das páginas na internet, então, quanto mais fácil for o endereço, mais fácil de o encontrar. Portanto, evitar códigos, números, e caracteres sem sentido e se possível manter a URL igual ao nome da página (exceto home) a empresa a se posicionar melhor em buscas orgânicas;
  5. Ausência de sitemap.xml e robots.txt – O arquivo robots.txt funciona como um porteiro do site. Ele vai dizer quem pode ou não entrar, quem pode ou não acessar e quem pode ler determinado tipo de conteúdo. Por isso, adicionar o sitemap dentro do arquivo robots auxilia na leitura do mapa de todas as páginas disponíveis, facilita e agiliza o entendimento do robô para encontrar esse endereço e essas páginas, já que o robots é primeiro arquivo a ser lido;
  6. Ferramentas Google e tags – Cada site deve ter contas do Google para acompanhar e analisar o comportamento dos usuários no site. Basicamente é preciso um Tag Manager que deve ser o centro de todas as tags de acionamento, incluindo um analytics (vinculado com o GSC) e demais tags como Facebook, hotjar, chats etc.
  7. Alt nas imagens – Esse problema ocorre quando as imagens usadas em uma página estão sem palavras-chave na descrição auxiliar. Esse fator auxilia no SEO de imagens;
  8. Páginas com lentidão no carregamento – Quando o carregamento da página é inferior a 79% acarreta a baixa performance do site. Isso significa que quando o buscador identifica sites mais ágeis, dá prioridade para eles, pois além de agradar os robôs, o SEO preza para que a experiência do usuário seja fluida;
  9. Conteúdo único – Os buscadores priorizam conteúdos únicos nas buscas. Nesses casos, o ideal é a criação de conteúdos autênticos para cada página, enriquecendo-os com títulos e melhores práticas de SEO;
  10. Links internos otimizados – Toda estratégia de SEO é baseada em palavras-chave e isso envolve os links internos. Ou seja, os links internos como âncoras, menus e rodapés, devem estar equalizados com a estratégia de palavras-chave.

O estudo foi feito pela WebPeak com sua ferramenta de SEO, que identificou problemas nas páginas corporativas de diversos segmentos (petshop, semijoia, calçados femininos, petshop, gráfica, geek, decoração). Esses erros afetam os resultados em pesquisas orgânicas e mostra que não estão restritos a um nicho apenas.

A amostra é representativa, avaliou 15 sites, mas a empresa afirma que o resultado seria o mesmo se o levantamento fosse feito com 150 páginas da internet. – Fonte e outras informações, acesse (www.webpeak.com.br).