#robots.txt e indexação
Explore tagged Tumblr posts
blogpopular · 5 days ago
Text
Tudo o que Você Precisa Saber sobre o Arquivo Robots.txt
O arquivo robots.txt é um dos elementos mais fundamentais para a administração de um site, especialmente no que diz respeito à otimização para motores de busca (SEO). Este pequeno arquivo de texto desempenha um papel crucial na forma como os robôs de indexação (também chamados de spiders ou crawlers) interagem com o seu site. Neste artigo, vamos explorar em profundidade o que é o arquivo…
0 notes
equipebrasil · 1 year ago
Text
Ch-ch-changes…
🌟 Novidades
Removemos o pop-up de boas-vindas do painel de novos usuários no aplicativo para Android. A ideia é permitir que eles encontrem e selecionem o conteúdo que lhes interessa antes disso.
Se você tem um domínio personalizado através do Tumblr, agora oferecemos a opção de transferi-lo para um novo provedor.
Para nos ajudar a agir rapidamente contra conteúdo abusivo, os formulários de denúncia agora exigem um link do post, imagem ou comentário sendo denunciado.
Estamos removendo o rótulo “Seguido recentemente” que você vê no cabeçalho de posts exibidos no feed e que aparece assim que você começa a seguir um novo blog.
Atualizamos o texto da configuração do blog que dizia "Ocultar blog dos resultados de pesquisa". Infelizmente, nunca conseguimos garantir que o conteúdo fosse ocultado dos rastreadores de pesquisa, a menos que sigam as medidas de prevenção padrão de robots.txt e noindex. Por isso, alteramos o texto para sermos mais precisos. Nós desencorajamos a indexação da pesquisa, mas não podemos impedi-la. Se quiser isolar seu blog completamente da internet externa e exigir que apenas pessoas conectadas vejam seu blog, use a configuração “Ocultar [blog] de pessoas sem conta”, que impede que os mecanismos de pesquisa indexem seu blog.
Ao criar uma enquete na web, agora você tem até 12 opções de enquete, não apenas 10. Uau!
Para as pessoas que usam o aplicativo para Android: se você receber uma notificação push sobre um novo post de um blog que você segue, essa notificação leva você ao post, e não mais à visualização do blog.
Quem estiver vendo o novo layout do site para desktop, diminuímos um pouco o espaçamento entre as colunas para que fique menos apertado. Agradecemos a todos que enviaram seus comentários! Continuamos avaliando os comentários que continuam chegando já que o teste ainda está acontecendo.
🛠️ Melhorias
Os caranguejos roubaram os selos de verificação do nosso blog, mas já devolveram.
Corrigimos um problema na web em que a página de atividades não destacava novos itens quando você navegava a partir do menu Conta.
Na web, removemos o link para alterar o blog a partir do menu Conta, pois ele realmente não fazia parte do menu. Estamos tentando arrumá-lo para facilitar o gerenciamento de seus blogs.
Ao experimentar as novas opções de configuração das abas do painel, quebramos acidentalmente as abas habilitadas com o Tumblr Labs (como, por exemplo, a aba “Notificações de inscrição”). Revertemos essa alteração para corrigir essas abas.
Corrigimos mais problemas com a forma como escolhemos o conteúdo que vai para os feeds RSS dos blogs. Desta vez, foram problemas relacionados à forma como as respostas são exibidas como itens RSS.
Também corrigimos erros de layout da nova navegação do site para desktop, especialmente falhas causadas ao redimensionar a janela do navegador.
Corrigimos uma falha visual no novo teste de design das atividades na web que dificultava a leitura de itens de atividades não lidas em certas paletas de cores.
Corrigimos um erro no Safari que não desfocava o conteúdo adulto corretamente.
Ao usar o Tumblr em um navegador para dispositivos móveis, o ícone do menu agora terá um indicador quando você tiver uma ask ou colaboração não lida em sua caixa de entrada.
🚧 Em andamento
Continuamos removendo a opção de usar o editor de posts antigo de mais usuários.
Estamos cientes de um problema que impede a reprodução de alguns vídeos no aplicativo para iOS, e estamos trabalhando para corrigi-lo o mais rápido possível.
🌱 Vindo por aí
Estamos trabalhando para permitir que vocês respondam posts pelos blogs adicionais! É só o começo, então talvez demore um pouco até lançarmos o teste. Aguardem!
Está tendo algum problema? Preencha o formulário de ajuda e entraremos em contato com você assim que possível!
Deseja enviar comentários e sugestões? Confira o blog “Work in Progress” e comece a conversar com a comunidade.
22 notes · View notes
equipaportugal · 1 year ago
Text
Alterações
🌟 Novidades
Na aplicação para Android, eliminámos o pop-up de boas-vindas do painel para os novos utilizadores, para que possam começar a encontrar e a selecionar conteúdos fantásticos mais rapidamente.
Se tiveres um domínio personalizado através do tumblr, agora tens a opção de o transferir para uma nova entidade de registo.
Para nos ajudar a agir rapidamente em relação a conteúdos abusivos, os formulários de denúncia agora solicitam uma ligação para a publicação, imagem ou comentário que está a ser denunciado.
Estamos a remover o marcador "Seguidos recentemente" que é apresentado na secção do cabeçalho da publicação, das publicações que são apresentadas no feed seguinte depois de seguires um novo blogue.
Atualizámos o texto da opção do blogue "ocultar o teu blogue dos resultados de pesquisa". Infelizmente, nunca pudemos garantir a ocultação de conteúdo dos rastreadores de pesquisa, a não ser que eles se comportem bem com as medidas de prevenção comuns de robots.txt e noindex. Com isto em mente, alterámos o texto dessa opção para ser mais exato, na medida em que a desencorajamos, mas não podemos impedir a indexação de pesquisa. Se quiseres isolar completamente o teu blogue do exterior da Internet e exigir que apenas as pessoas com sessão iniciada possam ver o teu blogue, então deves selecionar a opção "Ocultar [blogue] das pessoas sem conta", que impede os motores de pesquisa de indexar o teu blogue.
Ao criar uma votação na Web, tens agora 12 opções de votação, em vez de 10. Uau.
Para a malta que utiliza a aplicação Android, se receberem uma notificação push de que um blogue que subscreveram tem uma nova publicação, essa notificação push vai levar-vos para a própria publicação, em vez da vista do blogue.
Para quem vê a nova disposição do site na versão Web, reduzimos um pouco o espaçamento entre colunas para que não fique tudo tão apertado. Agradecemos a toda a gente que enviou feedback sobre isto! Continuamos a receber mais feedback à medida que a experiência continua.
🛠️ Correções
Os caranguejos roubaram os vistos do nosso blogue Changes, mas já os trouxeram de volta.
Corrigimos um erro na Web em que a página de atividade não destacava os novos itens quando navegavas para lá a partir do menu pendente da conta.
Na Web, removemos a ligação para alterar o blogue do menu Conta. De facto, ela não pertencia a esse menu e estamos a tentar organizá-lo para facilitar a gestão dos teus blogues.
Ao experimentar as novas opções de configuração dos separadores do painel, danificámos acidentalmente os separadores do painel que tinham sido ativados através do Tumblr Labs, como o separador Subscrições de blogues. Revertemos essa alteração para corrigir esses separadores.
Corrigimos mais problemas com a forma como escolhemos o conteúdo que vai para os feeds RSS dos blogues. Desta vez, corrigimos alguns problemas com a forma como o conteúdo da publicação de resposta é mostrado como itens RSS.
Também corrigimos alguns problemas de disposição com a nova navegação no site na versão Web, especialmente falhas causadas pelo redimensionamento da janela do navegador.
Foi corrigida uma falha visual na experiência do design da nova atividade na Web que dificultava a leitura dos itens de atividade não lidos em algumas paletas de cores.
Foi corrigido um erro no Safari que impedia que os conteúdos para adultos fossem devidamente desfocados.
Ao utilizar o Tumblr num navegador de telemóvel, o ícone do menu de hambúrguer agora vai ter um indicador quando tiver um pedido ou envio não lido na tua Caixa de entrada.
🚧 Em curso
Continuamos a remover a opção de utilizar o editor de publicações antigo para mais utilizadores.
Estamos cientes de um problema que impede a reprodução de alguns vídeos na aplicação iOS e estamos a trabalhar numa correção o mais rapidamente possível.
🌿 Em breve
Estamos a trabalhar para adicionar a possibilidade de responder a mensagens enquanto blogue secundário! Estamos apenas a começar, pelo que poderá demorar algum tempo até fazermos uma experiência com esta funcionalidade.
Estás com algum problema? Envia um pedido de apoio e nós respondemos-te assim que possível!
Queres partilhar o teu feedback sobre alguma coisa? Confere o nosso blogue Work in Progress e começa uma conversa com a comunidade.
5 notes · View notes
seoproexpert · 4 years ago
Photo
Tumblr media
Fantástico!!! Novo post foi publicado: https://seopro.expert/blog/como-criar-robots-txt/
Como Criar Robots.txt Perfeito Para Seu SEO
Você já ouviu falar em robots.txt?
Gostamos de facilitar a vida de nossos leitores e clientes…
Por isso vamos mostrar alguns métodos interessantes sobre como criar um robots txt de forma precisa e rápida.
A técnica que vou te apresentar é uma das minhas favoritas. É um atalho SEO legítimo que você pode começar a usar de imediato e facilmente.
Irá melhor seu SEO fazendo uso de uma parte essencial de todo site que não costuma ser abordada. E ainda por cima fácil de usar.
É o arquivo robots.txt (também conhecido como protocolo ou padrão de exclusão de robôs).
Muitas pessoas ainda nem conhecem esse tipo de arquivo simples… mas que faz uma grande diferença em seu projeto de seo
Esse simples arquivo de texto criado no bloco de notas (.txt) é parte de todo site na internet.
É feito para trabalhar com ferramentas de busca, mas é, incrivelmente, um upgrade para seu SEO.
Já tive muitos clientes tentando de tudo para melhorar seus SEO. Quando faço uma edição do arquivo de texto (robots.txt) , eles custam a acreditar que algo tão simples possa mudar o jogo.
Entretanto, existem muitos métodos de melhorar SEO que não são difíceis ou tomam tempo, e esse é um deles.
Você nem precisa ter nenhuma experiência técnica para aproveitar as vantagens do robots.txt. Se você tem acesso ao código-fonte do seu site, você pode aproveitar e fazer algumas alterações que vamos te explicar aqui.
É só seguir comigo quando estiver pronto…
Vou te mostrar como modificar o seus arquivos robots.txt para que as ferramentas de busca passem a amar o seu site ainda mais.
Uma forma eficiente de gerar tráfego para seu site a longo prazo é usando SEO. Se você quer aumentar o tráfego do seu site e atrair mais usuários qualificados e clientes, clique aqui e receba o Guia Completo de SEO.
Veja também: Como aumentar a velocidade de seu site
Por que o arquivo robots.txt é importante?
É sempre bom saber porque o arquivo robots.txt tem tanta importância.
Também conhecido como protocolo ou padrão de exclusão de robôs, é um arquivo de texto que avisa aos robôs da internet (quase sempre ferramentas de busca) quais páginas do seu site rastrear e quais não rastrear.
Tudo isso feito de forma simples!
Digamos que uma ferramenta de busca (um bot do google por exemplo) está prestes a visitar um site. Antes de chegar na página procurada, vai checar o arquivo robots.txt para instruções do que ele pode fazer em seu site.
Existem tipos diferentes de arquivos robots.txt, vamos saber mais sobre cada um.
Por exemplo, a ferramenta de busca vai encontrar este exemplo de arquivo:
Esse é o esqueleto básico de um arquivo robots.txt.
O asterisco depois de “user-agent” indica que o arquivo robots.txt se aplica a todo tipo de robô da internet que visita o site.
A barra depois de “Disallow” informa ao robô para não visitar nenhuma das páginas do site.
Talvez você esteja se perguntando porque alguém iria querer impedir a visita de robôs da internet a seus sites.
Afinal de contas, um dos principais objetivos de SEO é atrair os mecanismos e ferramentas de buscas para o seu site e aumentar o seu ranqueamento.
E é aí que o secreto desse atalho de SEO aparece.
É possível que você tenha muitas páginas em seu site, certo? Mesmo que você ache que não, dê uma checada. Provavelmente você irá se surpreender.
Se uma ferramenta de busca rastrear o seu site, vai rastrear cada uma das páginas. Até mesmo sua página de login administrativo (acredito eu que você não irá querer isso).
E se você tem muitas páginas, o robô dos mecanismos de pesquisa vai tomar mais tempo para verificar o seu site, o que pode ter um efeito negativo no seu ranqueamento.
Isso é porque o Googlebot (o robô da ferramenta de busca do Google) tem um “limite de rastreamento”.
Esse limite pode ser resumido em duas partes. E a primeira é o limite da taxa de rastreamento. Veja aqui a explicação do Google.
A segunda parte é demanda de rastreamento.
Limite de rastreamento é, basicamente, o “número de URLs que o Googlebot pode e quer rastrear”.
O ideal é auxiliar o Googlebot a gastar o seu limite de rastreamento da melhor maneira possível. Em outras palavras, rastrear as suas páginas de maior valor.
Existem alguns fatores que irão, de acordo com o Google, “afetar negativamente o rastreamento e indexação de um site”. Mas vamos focar no arquivo.
Vamos voltar para o robots.txt…
Se você criar a página robots.txt corretamente, você pode avisar aos robôs das ferramentas de busca (e especialmente ao Googlebot) quais páginas ele deve evitar.
Considere as implicações.
Se você avisa aos robôs das ferramentas de busca que elas devem rastrear apenas seu conteúdo mais útil, os robôs irão rastrear e indexar somente esse conteúdo.
Veja aqui como o Google explica:
“É bom evitar sobrecarregar o seu servidor com o rastreador do Google ou desperdiçar limite de rastreamento com páginas sem importância do seu site.”
Ao usar robots.txt da maneira correta, você pode avisar aos robôs das ferramentas de busca como gastar bem o limite de rastreamento. E é por isso que o arquivo robots.txt é tão útil no contexto de SEO.
Curioso para conhecer mais do poder do robots.txt? Ótimo! Vamos falar mais sobre abaixo.
Continue…
(aproveite e não esqueça de deixar seu comentário abaixo se este artigo está sendo útil pra você).
Encontrando o seu arquivo robots.txt
Existe um jeito fácil de dar só uma olhada rápida em seus arquivos robots.txt.
E é um método que funciona para qualquer site. Dá para espiar arquivos de outros sites e ver como estão fazendo.
É só digitar a URL base do site na barra de endereços do navegador (como seopro.expert, facebook.com, etc.) e adcionar /robots.txt ao final.
Uma das três situações seguintes vai acontecer:
1) Você vai achar um arquivo robots.txt.
2) Você vai achar um arquivo vazio
3) Você vai achar um 404.
Verifique o arquivo robots.txt do seu próprio site.
Simples: endereçodoseusite.com.br/robots.txt
Se encontrar um arquivo vazio ou um 404, é bom consertar.
Caso encontre um arquivo válido, está com as configurações padrões de quando o seu site foi criado.
Gosto especialmente desse método de procurar pelos arquivos robots.txt em outros sites. Depois de aprender as técnicas desse arquivo, esse pode ser um exercício vantajoso.
Agora vamos ver como modificar os seus arquivos robots.txt.
Encontrando o seu arquivo robots.txt
Depois de inserir o seu robots, a partir daqui vai ficando mais tranquilo!
O próximo passo vai depender de você ter ou não arquivo robots.txt. (Confira usando o método descrito acima).
Caso não tenha um, vai precisar criar do zero. Abra um editor de texto simples, como o Notepad/bloco de notas (Windows) ou TextEdit (Mac).
Use apenas um editor de texto simples.
Caso use programas como o Microsoft Word, códigos adicionais podem ser inseridos no texto.
Editpad.org é uma ótima opção gratuita, e é essa que vou usar neste artigo.
De volta ao robots.txt. Se você tem um arquivo robots.txt, vai precisar localizá-lo no diretório central do seu site.
Caso não esteja acostumado a buscar um código-fonte, talvez tenha um pouco de dificuldades em localizar a versão editável do seu arquivo robots.txt.
Normalmente, você vai encontrar o seu diretório central entrando no site da sua conta de servidor e indo até o gerenciador de arquivos ou a seção FTP de seu site ( em muitos casos você encontra entrando em public_html, mas isso pode variar de servidor para servidor).
Você verá algo parecido com isto:
Para começar é bem simples. Encontre e abra os seus arquivos robots.txt para editá-los. Delete todo o texto, mas mantenha os arquivos.
Atenção: caso esteja usando WordPress, talvez veja um arquivo robots.txt ao ir em seusite.com/robots.txt, mas não vai encontra-lo em seus arquivos.
Isso é porque o WordPress cria um arquivo robots.txt virtual caso não existe robots.txt no diretório central.
Caso isso aconteça, você vai precisar criar um novo arquivo robots.txt.
Criando um novo arquivo robots.txt
Você pode criar um novo arquivo robots.txt usando o editor de texto simples de sua preferência (e somente um editor de texto simples como o bloco de notas irá funcionar bem).
Se você já tem um arquivo robots.txt, certifique-se de deletar o texto (mas não o arquivo).
Primeiro, você vai precisar conhecer melhor a sintaxe usada num arquivo robots.txt.
Google tem um boa explicação aqui de algumas noções básicas de termos robots.txt.
Vou mostrar como criar um simples arquivo robots.txt, depois, vamos aprender como customizá-lo para SEO.
Para começar, inicie configurando o termo user-agent. Vamos configurar para que possa se aplicar a todos os robôs da internet.
Para fazer isso, é só usar um asterisco depois do termo user-agent, assim:
A seguir, na linha abaixo do “user-agente:* digite “Disallow:”, e mais nada depois disso.
Já que não há nada depois de “disallow”, os robôs da internet vão rastrear todo o seu site. Por enquanto, tudo em seu site está ao alcance deles.
O seu arquivo robots.txt deve estar assim no momento depois de toda configuração feita até agora:
Parece muito simples, mas essas duas linhas já estão fazendo muito.
Você também pode linkar para o seu sitemap XML, mas não é obrigatório. Caso queria, é só digitar:
Acredite ou não, mas isso é um arquivo básico de texto robots.txt.
Vamos avançar para o próximo nível e transformar esse pequeno arquivo em uma turbina SEO.
Otimizando robots.txt para SEO
Como você otimiza robots.txt depende do conteúdo que você tem em seu site. Existem mil maneiras de tirar vantagens de robots.txt.
Vou falar das mais comuns aqui.
Continue aprendendo…
(Tenha em mente que você não deve usar robots.txt para bloquear páginas de ferramentas de busca. Isso está proibido.)
Um dos melhores usos de arquivo robots.txt é a maximização do limite de rastreamento de ferramentas de busca, ao avisá-las para ignorar partes do seu site que não são vistas pelo público.
Por exemplo, se você visitar o arquivo robots.txt para este site (seopro.expert/blog), vai ver que a página de login não está ao alcance dos mecanismos (wp-admin).
Já que essa página é usada apenas para entrar no site, os robôs não precisam perder tempo com ela.
(Caso você tenha WordPress, pode usar essa mesma linha para desabilitar.)
Você pode usar um diretório (ou comando) parecido para impedir robôs de rastrear páginas específicas. Depois de “disallow”, digite a parte da URL que vem depois de .com.br. Coloque-a entre duas barras.
Caso não queira que um robô rastreie a página http://seusite.com.br/pagina/, é só  digitar isto:
Está em dúvida sobre quais tipos de páginas excluir da indexação? Observe estes exemplos comuns:
Conteúdo duplicado necessário. Conteúdo duplicado não ajuda (mas também não atrapalha, é ignorado, mas existem alguns casos em que é necessário e aceitável.
Por exemplo, se você tem uma versão para impressão de uma página, tecnicamente, você tem conteúdo duplicado. Nesse caso, é só avisar aos robôs para não rastrear uma dessas versões (geralmente, a que está pronta para impressão).
Isso também vale para páginas de teste que possuem o mesmo conteúdo, mas designs diferentes.
Páginas de agradecimento (de obrigado). Páginas de agradecimento ou conhecidas como página de “obrigado”, são algumas das favoritas dos profissionais de marketing porque apontam para um novo contato.
…Correto?
Na verdade, algumas páginas de agradecimento são acessíveis pelo Google. Com isso, as pessoas podem acessar essas páginas sem passar pelo processo de captura de contatos,  o que não é uma boa notícia.
Ao bloquear as suas páginas de agradecimento (páginas de “obrigado”), você garante que apenas contatos qualificados estejam vendo as páginas.
Digamos que a sua página de agradecimento esteja no link: https://seusite.com/obrigado/. Em seu arquivo robots.txt, o bloqueio dessa página fica assim:
Já que não existem regras universais para quais páginas desabilitar, o seu arquivo robots.txt será único em seu site.
É bom conhecer também esses outras opções de configuração como estas: noindex e nofollow.
Sabe esse config disallow que estamos usando? Não impede a página de ser indexada.
Na teoria, você pode desabilitar uma página, mas ela ainda pode ser indexada.
De maneira geral, é melhor evitar.
Por isso que você precisa do diretivo noindex. Trabalha com o diretivo disallow para garantir que robôs não visitem ou indexem certas páginas.
Caso não queira indexar certas páginas (como as preciosas páginas de obrigado), você pode usar os diretivos disallow e noindex:
Agora, essa página não vai aparecer nas SERPs.
Por último, o diretivo nofollow. É o mesmo que um link nofollow. Resumindo, avisa aos robôs para não rastrear os links de uma página.
Mas o diretivo nofollow tem que ser implementado de outro jeito, porque não faz parte do arquivo robots.txt.
Entretanto, o diretivo nofollow ainda instrui robôs da internet, então parte do mesmo conceito. A única diferença é onde está localizado.
Encontre o código-fonte da página a ser modificada e certifique-se de  estar entre as tags <head>.
Depois, copie a linha:
<meta name=”robots” content=”nofollow”>
Vai ficar assim:
Certifique-se de não estar colocando essa linha entre outras tags além das tags <head>.
Essa é uma outra opção para páginas de “obrigado”, já que robôs da internet não irão rastrear links para páginas que chamam novos contatos ou outros conteúdos exclusivos.
Caso queira adicionar os diretivos noindex e nofollow, use esta linha de código:
<meta name=”robots” content=”noindex,nofollow”>
Os robôs da internet verão os dois diretivos ao mesmo tempo.
Teste Final
Por último, teste o arquivo robots.txt para checar se tudo está funcionando da maneira perfeita.
O Google tem uma ferramenta de teste gratuita como parte das ferramentas de Webmaster.
Primeiro, entre em sua conta Webmasters clicando em “Entrar” no canto superior direito.
Selecione a sua propriedade (o seu site) se necessário.
Depois basta clicar neste link:
https://www.google.com/webmasters/tools/robots-testing-tool
(aqui você deve selecionar a propriedade e ele irá fazer o rastreamento)
Você vai ver robots.txt do seu site.
Caso tenha algum código na caixa ou algum erro, delete e coloque o seu novo arquivo robots.txt em seu servidor de acordo com as orientações do google (o google irá mostrar um popup informando os passos).
Veja mais detalhes aqui
Depois de reenviar, Clique “Test” na parte inferior direita da tela.
Se o texto “Teste” mudar para “Permitido”, o seu robots.txt é válido.
Agora, você está armado com um arquivo poderoso, logo mais verá um aumento na visibilidade de busca.
Conclusão
Ao configurar o seu arquivo robots.txt da maneira correta, você não está só melhorando o seu SEO. Também está ajudando seus visitantes.
Se robôs dos mecanismos de busca gastaram o limite de rastreamento de maneira correta, eles vão organizar e expor o seu conteúdo nas SERPs da melhor maneira possível, o que significa que você irá ficar mais visível.
Também não é preciso muito esforço para configurar seu arquivo robots.txt. Geralmente, é apenas uma configuração, e você pode fazer as outras pequenas mudanças quando necessário.
Se está começando o seu primeiro ou seu décimo site, o uso de robots.txt faz uma grande diferença. Recomendo experimentar caso ainda não tenha feito isso antes.
Gostou do nosso artigo? Deixe seu comentário abaixo e aproveite e nos siga nas redes sociais:  Facebook, Twitter, Pinterest e Instagram
0 notes
marketingcomcaio · 6 years ago
Text
12 truques de SEO para indexar e rankear seus conteúdos mais rápido
A otimização para buscadores costuma levar tempo para dar resultados. É preciso paciência para ver os conteúdos aparecerem e subirem no ranking do Google ― mas, quando os resultados vêm, eles são poderosos e duradouros.
Porém, no mercado atual, velocidade é uma vantagem competitiva. Se você esperar muito tempo para ter retorno com uma estratégia, o concorrente passa à frente. Então, será que tem como indexar e rankear conteúdos mais rápido no Google?
Sim, existem algumas estratégias para isso. Quando você inclui novos conteúdos no seu site ou blog, quer que os usuários cheguem até ele o mais rápido possível, não é? Então, agora vamos ajudar você com alguns hacks de SEO para agilizar a indexação e o rankeamento das suas páginas. Siga conosco!
Como funcionam a indexação e o rankeamento do Google
A intenção do algoritmo do Google é organizar todo o conteúdo da web para torná-lo acessível aos usuários. Para isso, o buscador desenvolveu um robô todo-poderoso, que é capaz de rastrear as páginas da internet, entender do que elas tratam e ordená-las, de maneira que o usuário encontre os melhores resultados para as suas pesquisas.
Quando você pesquisa por algum termo no Google, nem imagina todo o processo de busca que acontece por trás, não é? O robô percorre um longo caminho ― embora tudo aconteça em milissegundos. Estes são os passos que ele percorre:
rastreamento (crawling): identificação de URLs novas ou atualizadas para serem indexadas — acontece a todo momento;
indexação (indexing): identificação dos conteúdos das páginas para organizar o índice de URLs do buscador — acontece a todo momento;
classificação (ranking): ordenação dos conteúdos indexados pelo robô para exibir os resultados de acordo com o termo de busca — acontece a cada pesquisa do usuário.
Então, para que as suas páginas apareçam mais rapidamente ― e bem posicionadas ― nos resultados da busca, você deve facilitar o trabalho do Googlebot. Em cada uma das etapas, existem alguns truques para agilizar esse processo.
12 hacks de SEO para indexar e rankear conteúdos mais rápido 
Agora, vamos ver quais são esses hacks que podem agilizar a indexação e o rankeamento das suas páginas.
Acompanhe as dicas!
1. Verificar problemas de rastreamento
O primeiro passo em uma estratégia de SEO é verificar possíveis problemas de rastreamento. Se as suas páginas não estão passando pela varredura do rastreador, nenhum dos esforços abaixo terá resultados.
Dentro do Google Search Console, na seção Erros de Rastreamento, você pode conferir se o robô está conseguindo ler o seu site e, se não, por que isso está acontecendo.
Possivelmente existem erros de DNS, servidor, robots.txt, 404, entre outros. Em alguns casos, é possível corrigir rapidamente esses problemas; em outros, é preciso contar com ajuda especializada.
2. Usar a Ferramenta de Inspeção de URL
Quando você publica uma nova página ou faz atualizações em uma URL, o Google pode levar alguns dias ou até semanas para fazer o rastreamento. O buscador recomenda paciência para isso ― afinal, dá para imaginar quantas páginas ele precisa rastrear a cada segundo no mundo inteiro!?
Porém, o buscador oferece um recurso para que os proprietários de sites avisem: “Google, acabei de publicar (ou atualizar) uma página. Você pode dar uma passadinha aqui?”.
Para isso, é preciso usar a Ferramenta de Inspeção de URL, disponível no Google Search Console. Essa ferramenta informa o status de indexação de uma URL, ou seja, se o Google consegue indexar essa página e os possíveis problemas encontrados.
Se, depois de inspecionar a página, você verificar que ela ainda não está indexada, é possível solicitar que o Google rastreie essa URL. Ao clicar em “Solicitar indexação”, o buscador faz uma rápida verificação para testar erros e, se a página passar, ela irá para a fila de indexação.
Assim, a sua página estará entre as prioridades de indexação do Google. Mas é importante ressaltar que isso ainda pode levar até 1 ou 2 semanas para acontecer. Você pode acompanhar o andamento da solicitação pelo Google Search Console.
Saiba também que existe um limite diário de solicitações de inspeção. Então, priorize as páginas mais importantes, que você realmente precisa que apareçam nos resultados da busca.
3. Enviar sitemaps para o Google
No processo de rastreamento, o Google descobre novas URLs (ou atualizações de páginas) por meio da rede de links. A linkagem interna e externa mostra ao robô os caminhos que ele deve seguir para rastrear e indexar as URLs.
Se todas as páginas do seu site estiverem vinculadas corretamente, o rastreador consegue identificar as suas URLs naturalmente. Porém, você pode facilitar o trabalho do robô ― e indexar e rankear conteúdos mais rápido ― se enviar um sitemap ao Google.
Sitemap é um arquivo que contém todas as páginas e documentos de um site e mostra a relação entre eles. Assim, o robô identifica qual caminho deve seguir e quais são as páginas mais importantes.
Outras informações valiosas, como a frequência de atualização da URL e a existência de versões em diferentes idiomas, também são transmitidas pelo sitemap.
Portanto, enquanto a Ferramenta de Inspeção é usada para enviar URLs individuais, o sitemap serve para mostrar ao Google o conjunto de páginas que você quer indexar.
Isso é principalmente importante para sites novos, muito grandes, sem links externos ou com páginas isoladas. Assim, você garante que o rastreador passe por todos os seus conteúdos.
Para enviar um sitemap ao Google, existem três opções:
Usar a ferramenta de sitemaps do Google Search Console;
Especificar o caminho para o sitemap dentro do arquivo robots.txt (por exemplo: https://ift.tt/1yk2Rmx);
Usar a função “ping” (por exemplo: https://ift.tt/2IIBpis<url_completo_do_sitemap>).
4. Usar o Google API para indexação
Quer uma comunicação ainda mais direta com o Google para informar a publicação ou a atualização das suas páginas? O buscador criou uma API para desenvolvedores (conte com ajuda especializada para isso) que permite uma troca de informações mais rápida.
Com a API Indexing, você pode notificar diretamente o Google quando páginas foram adicionadas, atualizadas ou removidas. É possível enviar URLs individuais ou fazer solicitações em lote. Assim, o robô vai priorizar o rastreamento dessas páginas.
O Google informa, porém, que essa ferramenta ainda está disponível apenas para páginas com dados estruturados de vagas de emprego ou transmissões ao vivo. Esse tipo de página demanda um rastreamento imediato para entregarem valor aos usuários.
De qualquer forma, um especialista em SEO chamado David Sottimano resolveu testar a aplicação e conseguiu rastrear páginas regulares do seu site. E sabe em quanto tempo isso aconteceu? Em apenas 1 minuto! Então, vale a pena você testar também.
Além disso, é importante saber que existe um limite de solicitações por minuto e por dia. Você pode conferir a sua cota dentro do Console de APIs do Google.
5. Criar links internos em páginas importantes
Como já explicamos, o Google rastreia os sites da web guiado pela rede de links. A partir dos links que aparecem nas páginas conhecidas, ele chega até as URLs novas e atualizadas. É assim tanto com os links externos quanto internos de um site.
Quando você publica uma nova página dentro da estrutura do seu site, em algum momento o Google passará por ela em seus processos de rastreamento.
Porém, se o seu site é muito grande ou se as suas páginas estão isoladas, pode ser que o robô faça uma varredura rápida e não rastreie alguns conteúdos que considere de menor importância.
Isso pode acontecer só numa próxima varredura ― e, assim, o rastreamento demora mais.
Portanto, uma forma de indexar mais rápido uma nova URL é criar links para ela em páginas importantes do seu site, como a página inicial ou um post central do blog, que o Google prioriza rastrear.
Assim, quando você insere links nessas páginas, aumentam as chances de o robô passar pelas páginas linkadas. Além disso, ele identifica mais facilmente que há conteúdo fresco no site e que provavelmente ele é relevante, já que está citado em uma página importante.
Uma dica para que isso aconteça é sempre publicar as atualizações do blog na página inicial. Outra ideia bacana é, sempre que publicar uma nova página, encontrar oportunidades de linkagem interna em conteúdos antigos do blog.
6. Compartilhar os conteúdos nas redes sociais
Se uma das formas de mostrar que você tem conteúdo atualizado no site é criar links para ele, é possível fazer isso também ao divulgar a URL nas redes sociais.
Dessa forma, você começa a gerar tráfego para a página e mostra ao Google que aquele link existe. Porém, é preciso esclarecer: os sinais sociais (likes, compartilhamentos, comentários) não são um dos fatores de rankeamento do Google, e os links das redes sociais são marcados como “nofollow”, ou seja, não são seguidos pelo robô e não influenciam no rankeamento.
O que provavelmente existe é uma correlação: links que geram um bom tráfego, alcance e engajamento nas redes sociais costumam também ter um bom posicionamento nos resultados da busca.
Então, quando você compartilha as suas páginas novas ou atualizadas no Facebook, Twitter, LinkedIn, Instagram e Pinterest, aumentam as chances de elas serem conhecidas, acessadas e mencionadas em outros sites. Assim, você também começa a gerar links externos para essas URLs.
Você pode se interessar por esses outros conteúdos
Tumblr media
Auditoria de SEO: tutorial completo para o seu blog
Tumblr media
5 dicas básicas de SEO para melhorar o seu rankeamento
Tumblr media
Escaneabilidade e SEO: como melhorar a experiência do usuário
7. Otimizar a arquitetura de informação do site
Ainda em relação à rede de links, criar uma arquitetura de informação lógica e bem estruturada também ajuda a indexar conteúdos mais rápido.
A arquitetura da informação se refere à forma como você organiza os conteúdos do site e define as relações entre eles. Quando se fala em desenvolvimento de sites, a arquitetura é definida pela criação e hierarquização de seções e a linkagem entre os conteúdos.
Então, quando você tem uma estrutura organizada, em que todas as páginas estão relacionadas entre si (sem URLs “órfãs”), você facilita o trabalho do Google. Ele sabe quais caminhos deve seguir para encontrar novas páginas e consegue rastrear tudo em uma varredura.
Além disso, ele identifica também que você oferece uma boa navegabilidade, que facilita aos usuários encontrarem o que desejam. Então, você também ganha pontos para o rankeamento.
8. Minificar recursos do site
Minificar significa simplificar. Em relação ao SEO, minificar os códigos do seu site ajuda o Google a rastrear e indexar os seus conteúdos mais rapidamente.
Quando o robô encontra códigos confusos e cheios de caracteres desnecessários, ele pode reduzir o crawl budget do site, ou seja, o tempo que vai dedicar para rastrear suas páginas.
Ele entende que esse site provavelmente não oferece uma boa experiência ao usuário, já que os códigos são pesados e tornam o carregamento mais lento. Então, ele nem perde tempo com essas páginas.
Por outro lado, ao minificar os recursos do site, você retira os caracteres supérfluos e reduz o tamanho dos códigos HTML, CSS e Javascript. Assim, além de melhorar a velocidade de carregamento, o Google rastreia as páginas com mais facilidade, agilidade e frequência.
Para fazer isso, você pode contar com plugins gratuitos para WordPress, como o W3 Total Cache e o Autoptimize.
9. Gerar tráfego a partir dos resultados da busca
Você já percebeu que alguns comerciais de TV começaram a indicar o uso da busca do Google em vez de divulgar o site da marca? É o caso, por exemplo, desse anúncio do Santander que, ao final, indica “busque por Santander Duo”.
Entre outros motivos, uma das razões de usar esse recurso é acelerar o rankeamento do site para esse termo de pesquisa. O Google reconhece que a taxa de cliques (CTR) no seu link nos resultados da busca está aumentando e reconhece a relevância da página.
Além disso, você também ganha espaço no recurso de auto-suggest: quanto mais pessoas buscam por um termo, mais ele tende a aparecer nas sugestões de pesquisa do Google.
Você também pode fazer isso ao divulgar seus links nas redes sociais, por exemplo. Em vez de divulgar o link direto da página, você pode usar o link de busca no Google com o termo para o qual você deseja rankear melhor.
Por exemplo: se fossemos divulgar a página inicial da Rock Content, poderíamos usar este link (https://www.google.com/search?q=rock+content) em vez da URL direta (www.rockcontent.com).
Antes de adotar essa estratégia, no entanto, é preciso garantir que você fez o dever de casa no SEO On Page. Ou seja, o conteúdo precisa estar otimizado ― no título, intertítulos, texto, imagens, meta description ― com aquele termo para o qual você deseja rankear.
10. Escolher buscas que demandam conteúdos frescos
O Google tende a priorizar o rastreamento e o rankeamento de conteúdos que ele acha que precisam ser super atualizados.
Digamos, por exemplo, que seja período de Copa do Mundo de Futebol e alguém pesquise por “copa do mundo jogos de hoje”.
Provavelmente, o Google vai priorizar no ranking os conteúdos mais frescos, com a intenção de entregar o resultado mais preciso para o que o usuário busca: quais são os jogos de hoje (não os de ontem, nem da semana passada).
Então, se você produzir uma notícia ou um conteúdo falando dos jogos que vão acontecer “hoje”, o Google vai identificar que a sua página entrega o conteúdo mais atualizado que o usuário precisa. Assim, o robô vai rastrear, indexar e rankear essa página o quanto antes.
Portanto, se você quer indexar e rankear conteúdos mais rápido, uma das ideias para fazer isso é escolher consultas que demandem conteúdos mais frescos nos resultados.
11. Produzir conteúdo regularmente
Produzir conteúdo regularmente é o ideal para conquistar o engajamento dos usuários. Assim, eles sabem que sempre vão encontrar conteúdos novos e atualizados no seu site.
Mas você sabia que é assim também que o Googlebot pensa? Se você publica conteúdos com uma frequência regular, o robô identifica quando precisa realizar as varreduras, sabendo que sempre vai encontrar conteúdo fresco nas suas URLs.
Dessa forma, é provável que, sempre que você publicar páginas novas, o Google esteja antenado e rastreie logo as suas páginas.
12. Indicar páginas que o Google não precisa indexar
O Google dedica um tempo para rastrear e indexar cada página da web. Esse tempo é definido pelo crawl budget, que já mencionamos anteriormente, de acordo com a qualidade dos conteúdos e da experiência que o site oferece aos usuários.
Imagine, então, que você tenha várias páginas duplicadas, com redirecionamentos ou com conteúdos irrelevantes, que não geram valor para a experiência do visitante. Assim, o Googlebot vai desperdiçar tempo com essas páginas e deixar de rastrear outras URLs mais importantes para o seu negócio.
O ideal é evitar que o Google perca tempo no rastreamento de URLs desnecessárias. Para isso, você pode usar o código “noindex” nessas páginas. Essa tag informa ao Google que ele não precisa indexar determinadas URLs, nem apresentá-las nos resultados da busca.
Enfim, agora você já sabe como indexar e rankear conteúdos mais rápido no Google! Vale ressaltar que os truques que indicamos aqui estão dentro das práticas recomendadas pelo buscador ― nada de black hat, ok? É possível acelerar os resultados sem passar por cima das regras do Google.
Aliás, vale a pena saber o que pode prejudicar a sua estratégia: leia agora o nosso artigo sobre os principais erros de SEO que você deve evitar!
12 truques de SEO para indexar e rankear seus conteúdos mais rápido Publicado primeiro em https://marketingdeconteudo.com
0 notes
blogalexalmeida · 6 years ago
Text
12 truques de SEO para indexar e rankear seus conteúdos mais rápido
A otimização para buscadores costuma levar tempo para dar resultados. É preciso paciência para ver os conteúdos aparecerem e subirem no ranking do Google ― mas, quando os resultados vêm, eles são poderosos e duradouros.
Porém, no mercado atual, velocidade é uma vantagem competitiva. Se você esperar muito tempo para ter retorno com uma estratégia, o concorrente passa à frente. Então, será que tem como indexar e rankear conteúdos mais rápido no Google?
Sim, existem algumas estratégias para isso. Quando você inclui novos conteúdos no seu site ou blog, quer que os usuários cheguem até ele o mais rápido possível, não é? Então, agora vamos ajudar você com alguns hacks de SEO para agilizar a indexação e o rankeamento das suas páginas. Siga conosco!
Como funcionam a indexação e o rankeamento do Google
A intenção do algoritmo do Google é organizar todo o conteúdo da web para torná-lo acessível aos usuários. Para isso, o buscador desenvolveu um robô todo-poderoso, que é capaz de rastrear as páginas da internet, entender do que elas tratam e ordená-las, de maneira que o usuário encontre os melhores resultados para as suas pesquisas.
Quando você pesquisa por algum termo no Google, nem imagina todo o processo de busca que acontece por trás, não é? O robô percorre um longo caminho ― embora tudo aconteça em milissegundos. Estes são os passos que ele percorre:
rastreamento (crawling): identificação de URLs novas ou atualizadas para serem indexadas — acontece a todo momento;
indexação (indexing): identificação dos conteúdos das páginas para organizar o índice de URLs do buscador — acontece a todo momento;
classificação (ranking): ordenação dos conteúdos indexados pelo robô para exibir os resultados de acordo com o termo de busca — acontece a cada pesquisa do usuário.
Então, para que as suas páginas apareçam mais rapidamente ― e bem posicionadas ― nos resultados da busca, você deve facilitar o trabalho do Googlebot. Em cada uma das etapas, existem alguns truques para agilizar esse processo.
12 hacks de SEO para indexar e rankear conteúdos mais rápido 
Agora, vamos ver quais são esses hacks que podem agilizar a indexação e o rankeamento das suas páginas.
Acompanhe as dicas!
1. Verificar problemas de rastreamento
O primeiro passo em uma estratégia de SEO é verificar possíveis problemas de rastreamento. Se as suas páginas não estão passando pela varredura do rastreador, nenhum dos esforços abaixo terá resultados.
Dentro do Google Search Console, na seção Erros de Rastreamento, você pode conferir se o robô está conseguindo ler o seu site e, se não, por que isso está acontecendo.
Possivelmente existem erros de DNS, servidor, robots.txt, 404, entre outros. Em alguns casos, é possível corrigir rapidamente esses problemas; em outros, é preciso contar com ajuda especializada.
2. Usar a Ferramenta de Inspeção de URL
Quando você publica uma nova página ou faz atualizações em uma URL, o Google pode levar alguns dias ou até semanas para fazer o rastreamento. O buscador recomenda paciência para isso ― afinal, dá para imaginar quantas páginas ele precisa rastrear a cada segundo no mundo inteiro!?
Porém, o buscador oferece um recurso para que os proprietários de sites avisem: “Google, acabei de publicar (ou atualizar) uma página. Você pode dar uma passadinha aqui?”.
Para isso, é preciso usar a Ferramenta de Inspeção de URL, disponível no Google Search Console. Essa ferramenta informa o status de indexação de uma URL, ou seja, se o Google consegue indexar essa página e os possíveis problemas encontrados.
Se, depois de inspecionar a página, você verificar que ela ainda não está indexada, é possível solicitar que o Google rastreie essa URL. Ao clicar em “Solicitar indexação”, o buscador faz uma rápida verificação para testar erros e, se a página passar, ela irá para a fila de indexação.
Assim, a sua página estará entre as prioridades de indexação do Google. Mas é importante ressaltar que isso ainda pode levar até 1 ou 2 semanas para acontecer. Você pode acompanhar o andamento da solicitação pelo Google Search Console.
Saiba também que existe um limite diário de solicitações de inspeção. Então, priorize as páginas mais importantes, que você realmente precisa que apareçam nos resultados da busca.
3. Enviar sitemaps para o Google
No processo de rastreamento, o Google descobre novas URLs (ou atualizações de páginas) por meio da rede de links. A linkagem interna e externa mostra ao robô os caminhos que ele deve seguir para rastrear e indexar as URLs.
Se todas as páginas do seu site estiverem vinculadas corretamente, o rastreador consegue identificar as suas URLs naturalmente. Porém, você pode facilitar o trabalho do robô ― e indexar e rankear conteúdos mais rápido ― se enviar um sitemap ao Google.
Sitemap é um arquivo que contém todas as páginas e documentos de um site e mostra a relação entre eles. Assim, o robô identifica qual caminho deve seguir e quais são as páginas mais importantes.
Outras informações valiosas, como a frequência de atualização da URL e a existência de versões em diferentes idiomas, também são transmitidas pelo sitemap.
Portanto, enquanto a Ferramenta de Inspeção é usada para enviar URLs individuais, o sitemap serve para mostrar ao Google o conjunto de páginas que você quer indexar.
Isso é principalmente importante para sites novos, muito grandes, sem links externos ou com páginas isoladas. Assim, você garante que o rastreador passe por todos os seus conteúdos.
Para enviar um sitemap ao Google, existem três opções:
Usar a ferramenta de sitemaps do Google Search Console;
Especificar o caminho para o sitemap dentro do arquivo robots.txt (por exemplo: https://ift.tt/1yk2Rmx);
Usar a função “ping” (por exemplo: https://ift.tt/2IIBpis&lt;url_completo_do_sitemap>).
4. Usar o Google API para indexação
Quer uma comunicação ainda mais direta com o Google para informar a publicação ou a atualização das suas páginas? O buscador criou uma API para desenvolvedores (conte com ajuda especializada para isso) que permite uma troca de informações mais rápida.
Com a API Indexing, você pode notificar diretamente o Google quando páginas foram adicionadas, atualizadas ou removidas. É possível enviar URLs individuais ou fazer solicitações em lote. Assim, o robô vai priorizar o rastreamento dessas páginas.
O Google informa, porém, que essa ferramenta ainda está disponível apenas para páginas com dados estruturados de vagas de emprego ou transmissões ao vivo. Esse tipo de página demanda um rastreamento imediato para entregarem valor aos usuários.
De qualquer forma, um especialista em SEO chamado David Sottimano resolveu testar a aplicação e conseguiu rastrear páginas regulares do seu site. E sabe em quanto tempo isso aconteceu? Em apenas 1 minuto! Então, vale a pena você testar também.
Além disso, é importante saber que existe um limite de solicitações por minuto e por dia. Você pode conferir a sua cota dentro do Console de APIs do Google.
5. Criar links internos em páginas importantes
Como já explicamos, o Google rastreia os sites da web guiado pela rede de links. A partir dos links que aparecem nas páginas conhecidas, ele chega até as URLs novas e atualizadas. É assim tanto com os links externos quanto internos de um site.
Quando você publica uma nova página dentro da estrutura do seu site, em algum momento o Google passará por ela em seus processos de rastreamento.
Porém, se o seu site é muito grande ou se as suas páginas estão isoladas, pode ser que o robô faça uma varredura rápida e não rastreie alguns conteúdos que considere de menor importância.
Isso pode acontecer só numa próxima varredura ― e, assim, o rastreamento demora mais.
Portanto, uma forma de indexar mais rápido uma nova URL é criar links para ela em páginas importantes do seu site, como a página inicial ou um post central do blog, que o Google prioriza rastrear.
Assim, quando você insere links nessas páginas, aumentam as chances de o robô passar pelas páginas linkadas. Além disso, ele identifica mais facilmente que há conteúdo fresco no site e que provavelmente ele é relevante, já que está citado em uma página importante.
Uma dica para que isso aconteça é sempre publicar as atualizações do blog na página inicial. Outra ideia bacana é, sempre que publicar uma nova página, encontrar oportunidades de linkagem interna em conteúdos antigos do blog.
6. Compartilhar os conteúdos nas redes sociais
Se uma das formas de mostrar que você tem conteúdo atualizado no site é criar links para ele, é possível fazer isso também ao divulgar a URL nas redes sociais.
Dessa forma, você começa a gerar tráfego para a página e mostra ao Google que aquele link existe. Porém, é preciso esclarecer: os sinais sociais (likes, compartilhamentos, comentários) não são um dos fatores de rankeamento do Google, e os links das redes sociais são marcados como “nofollow”, ou seja, não são seguidos pelo robô e não influenciam no rankeamento.
O que provavelmente existe é uma correlação: links que geram um bom tráfego, alcance e engajamento nas redes sociais costumam também ter um bom posicionamento nos resultados da busca.
Então, quando você compartilha as suas páginas novas ou atualizadas no Facebook, Twitter, LinkedIn, Instagram e Pinterest, aumentam as chances de elas serem conhecidas, acessadas e mencionadas em outros sites. Assim, você também começa a gerar links externos para essas URLs.
Você pode se interessar por esses outros conteúdos
Tumblr media
Auditoria de SEO: tutorial completo para o seu blog
Tumblr media
5 dicas básicas de SEO para melhorar o seu rankeamento
Tumblr media
Escaneabilidade e SEO: como melhorar a experiência do usuário
7. Otimizar a arquitetura de informação do site
Ainda em relação à rede de links, criar uma arquitetura de informação lógica e bem estruturada também ajuda a indexar conteúdos mais rápido.
A arquitetura da informação se refere à forma como você organiza os conteúdos do site e define as relações entre eles. Quando se fala em desenvolvimento de sites, a arquitetura é definida pela criação e hierarquização de seções e a linkagem entre os conteúdos.
Então, quando você tem uma estrutura organizada, em que todas as páginas estão relacionadas entre si (sem URLs “órfãs”), você facilita o trabalho do Google. Ele sabe quais caminhos deve seguir para encontrar novas páginas e consegue rastrear tudo em uma varredura.
Além disso, ele identifica também que você oferece uma boa navegabilidade, que facilita aos usuários encontrarem o que desejam. Então, você também ganha pontos para o rankeamento.
8. Minificar recursos do site
Minificar significa simplificar. Em relação ao SEO, minificar os códigos do seu site ajuda o Google a rastrear e indexar os seus conteúdos mais rapidamente.
Quando o robô encontra códigos confusos e cheios de caracteres desnecessários, ele pode reduzir o crawl budget do site, ou seja, o tempo que vai dedicar para rastrear suas páginas.
Ele entende que esse site provavelmente não oferece uma boa experiência ao usuário, já que os códigos são pesados e tornam o carregamento mais lento. Então, ele nem perde tempo com essas páginas.
Por outro lado, ao minificar os recursos do site, você retira os caracteres supérfluos e reduz o tamanho dos códigos HTML, CSS e Javascript. Assim, além de melhorar a velocidade de carregamento, o Google rastreia as páginas com mais facilidade, agilidade e frequência.
Para fazer isso, você pode contar com plugins gratuitos para WordPress, como o W3 Total Cache e o Autoptimize.
9. Gerar tráfego a partir dos resultados da busca
Você já percebeu que alguns comerciais de TV começaram a indicar o uso da busca do Google em vez de divulgar o site da marca? É o caso, por exemplo, desse anúncio do Santander que, ao final, indica “busque por Santander Duo”.
Entre outros motivos, uma das razões de usar esse recurso é acelerar o rankeamento do site para esse termo de pesquisa. O Google reconhece que a taxa de cliques (CTR) no seu link nos resultados da busca está aumentando e reconhece a relevância da página.
Além disso, você também ganha espaço no recurso de auto-suggest: quanto mais pessoas buscam por um termo, mais ele tende a aparecer nas sugestões de pesquisa do Google.
Você também pode fazer isso ao divulgar seus links nas redes sociais, por exemplo. Em vez de divulgar o link direto da página, você pode usar o link de busca no Google com o termo para o qual você deseja rankear melhor.
Por exemplo: se fossemos divulgar a página inicial da Rock Content, poderíamos usar este link (https://www.google.com/search?q=rock+content) em vez da URL direta (www.rockcontent.com).
Antes de adotar essa estratégia, no entanto, é preciso garantir que você fez o dever de casa no SEO On Page. Ou seja, o conteúdo precisa estar otimizado ― no título, intertítulos, texto, imagens, meta description ― com aquele termo para o qual você deseja rankear.
10. Escolher buscas que demandam conteúdos frescos
O Google tende a priorizar o rastreamento e o rankeamento de conteúdos que ele acha que precisam ser super atualizados.
Digamos, por exemplo, que seja período de Copa do Mundo de Futebol e alguém pesquise por “copa do mundo jogos de hoje”.
Provavelmente, o Google vai priorizar no ranking os conteúdos mais frescos, com a intenção de entregar o resultado mais preciso para o que o usuário busca: quais são os jogos de hoje (não os de ontem, nem da semana passada).
Então, se você produzir uma notícia ou um conteúdo falando dos jogos que vão acontecer “hoje”, o Google vai identificar que a sua página entrega o conteúdo mais atualizado que o usuário precisa. Assim, o robô vai rastrear, indexar e rankear essa página o quanto antes.
Portanto, se você quer indexar e rankear conteúdos mais rápido, uma das ideias para fazer isso é escolher consultas que demandem conteúdos mais frescos nos resultados.
11. Produzir conteúdo regularmente
Produzir conteúdo regularmente é o ideal para conquistar o engajamento dos usuários. Assim, eles sabem que sempre vão encontrar conteúdos novos e atualizados no seu site.
Mas você sabia que é assim também que o Googlebot pensa? Se você publica conteúdos com uma frequência regular, o robô identifica quando precisa realizar as varreduras, sabendo que sempre vai encontrar conteúdo fresco nas suas URLs.
Dessa forma, é provável que, sempre que você publicar páginas novas, o Google esteja antenado e rastreie logo as suas páginas.
12. Indicar páginas que o Google não precisa indexar
O Google dedica um tempo para rastrear e indexar cada página da web. Esse tempo é definido pelo crawl budget, que já mencionamos anteriormente, de acordo com a qualidade dos conteúdos e da experiência que o site oferece aos usuários.
Imagine, então, que você tenha várias páginas duplicadas, com redirecionamentos ou com conteúdos irrelevantes, que não geram valor para a experiência do visitante. Assim, o Googlebot vai desperdiçar tempo com essas páginas e deixar de rastrear outras URLs mais importantes para o seu negócio.
O ideal é evitar que o Google perca tempo no rastreamento de URLs desnecessárias. Para isso, você pode usar o código “noindex” nessas páginas. Essa tag informa ao Google que ele não precisa indexar determinadas URLs, nem apresentá-las nos resultados da busca.
Enfim, agora você já sabe como indexar e rankear conteúdos mais rápido no Google! Vale ressaltar que os truques que indicamos aqui estão dentro das práticas recomendadas pelo buscador ― nada de black hat, ok? É possível acelerar os resultados sem passar por cima das regras do Google.
Aliás, vale a pena saber o que pode prejudicar a sua estratégia: leia agora o nosso artigo sobre os principais erros de SEO que você deve evitar!
12 truques de SEO para indexar e rankear seus conteúdos mais rápidopublicado primeiro em https://rockcontent.com/blog/
0 notes
the-blue-hellsite-blog · 7 years ago
Photo
Tumblr media
11 elementos essenciais que seu site deve ter para obter uma boa pontuação de SEO
 Embora seja dito que o Google esteja usando cerca de 200 fatores de classificação do mecanismo de pesquisa em seu algoritmo hoje, nem todos eles são criados iguais, alguns com efeitos mais profundos no desempenho de um site nas páginas de resultados do mecanismo de pesquisa (SERPs) do que outros.
O que isto significa?
Bem, você ainda será capaz de maximizar seus esforços para obter uma boa pontuação de SEO para o seu site, concentrando-se apenas nos fatores essenciais.
Com isso dito, aqui estão os elementos que seu site deveria ter:
 11 elementos essenciais para obter uma boa pontuação de SEO
 1. Autoridade de domínio alta
 A autoridade de domínio (DA) é um número atribuído ao seu site que indica como é autoritário e aumenta com a idade do seu site, número de backlinks e SEO.
Quanto maior a pontuação DA que seu site possui, maior será a classificação em SERPs.
Para conhecer o DA do seu site, você pode usar ferramentas de pesquisa, como Open Site Explorer, que irá avaliá-lo para tal informação.
 2. Tempo de carga rápida
 Normalmente, os motores de busca classificam um site alto se ele tiver um bom tempo de carregamento.
Então, se seu site carregar suas páginas muito lento, seu desempenho no SERPs será ruim.
Para testar o quão rápido o seu site é, você pode usar o teste de velocidade do site e serviços de monitoramento, como o Pingdom.
Se o relatório indicar que seu site é mais rápido do que a maioria dos outros sites testados, você pode ter certeza de que é competitivo.
 3. Bom conteúdo
O conteúdo é o que torna seu site digno de uma posição de resultado de pesquisa.
Afinal, é a principal coisa que seu público virá a ver, tornando assim extremamente importante para os motores de busca.
De uma perspectiva de SEO, o bom conteúdo deve ser capaz de satisfazer uma demanda e deve ser vinculável.
 4. As palavras-chave certas
 Suas palavras-chave devem ser fundamentais para todos os seus esforços de SEO quando se trata de criar e implementar uma campanha de marketing de pesquisa para o seu site.
Ao realizar pesquisa de palavras-chave, faça uma lista de tópicos relevantes com base em seu nicho:
·        identificar termos de pesquisa relacionados,
·        preencha os tópicos com palavras-chave;
·        adicionar uma mistura de palavras-chave e palavras-chave long-tail;
·        verifique como seus concorrentes estão classificando palavras-chave similares;
·        e use um planejador de palavras-chave, como o Google AdWords.
 5. Backlinks de qualidade
 Quando as autoridades da indústria se relacionam com o seu conteúdo, os motores de busca considerarão seu site mais relevante.
E, quando as páginas do seu site obtêm muitos backlinks de alta qualidade, também irá encontrar outros sinais de classificação importantes, como a diversidade de links e autoridade de ligação.
Para criar uma forte campanha de criação de links, ofereça apenas conteúdo que seu público realmente precisa e, em seguida, promova esse conteúdo rigorosamente.
 6. Links de saída
 Você também pode vincular seu conteúdo a sites de autoridade respeitáveis?
Para fornecer aos seus leitores informações mais detalhadas que eles podem usar.
Ao fazê-lo, você não está apenas aumentando a relevância do seu conteúdo, mas também enviando sinais de confiança para os mecanismos de pesquisa que melhoram a pontuação de SEO do seu site.
No entanto, não adicione muitos desses links, pois pode tornar seu conteúdo irritante.
 7. Mobilidade amigável
 Uma mudança enorme que aconteceu nos últimos anos foi a mudança do Google para a indexação móvel primeiro, o que significa que o mecanismo de pesquisa agora está vendo a versão móvel do seu site como igualmente importante para sua versão desktop.
Com isso em mente, certifique-se de que o seu conteúdo responda em todas as plataformas móveis.
 8. Arquivo Robots.txt
 A maioria dos sites tem um arquivo robots.txt, e o seu deve ter isso também para fins de SEO.
Ao criar um, no entanto, certifique-se de que não permite que os rastreadores indexem seções importantes do seu site.
 9. Meta Conteúdo
 Basicamente, existem dois tipos de meta-conteúdo primário que seu site deve ter, que são o título da página e a meta-descrição.
Para verificar se você possui esses componentes, você pode navegar até sua página inicial e visualizar seu código-fonte.
Usando a função CTRL + F, procure por tag <title> para o título da página e meta name = "description" content = para a meta-descrição.
 10. Etiquetas de cabeçalho
 Como meta conteúdo, as tags de cabeçalho (tags H) também são ingredientes realmente importantes para um bom SEO, o que significa que seu site deve ter pelo menos uma marca H1 e, idealmente, um H2, H3 e H4.
Procure o código-fonte para verificar esses elementos.
 11. Funções de compartilhamento social
 Adicionar botões de compartilhamento social ao seu site não só permite aos usuários compartilhar seu conteúdo, mas também melhora sua experiência.
 O SEO é uma indústria que está em constante evolução, e ao longo dos anos, os motores de busca (particularmente o Google) estão em constantes mudanças para verificar o que são realmente importantes para obter uma boa pontuação de SEO.
Ao tê-los no seu site, você acabará por sair na frente antes da sua concorrência nos SERPs.
 Agora, se você notar que seu site está faltando alguns dos elementos mencionados acima, você precisa dar mais atenção ao SEO.
 E ae, gostou destas dicas?
0 notes
seoproexpert · 4 years ago
Photo
Tumblr media
Fantástico!!! Novo post foi publicado: https://seopro.expert/blog/como-criar-robots-txt/
Como Criar Robots.txt Perfeito Para Seu SEO
Você já ouviu falar em robots.txt?
Gostamos de facilitar a vida de nossos leitores e clientes…
Por isso vamos mostrar alguns métodos interessantes sobre como criar um robots txt de forma precisa e rápida.
A técnica que vou te apresentar é uma das minhas favoritas. É um atalho SEO legítimo que você pode começar a usar de imediato e facilmente.
Irá melhor seu SEO fazendo uso de uma parte essencial de todo site que não costuma ser abordada. E ainda por cima fácil de usar.
É o arquivo robots.txt (também conhecido como protocolo ou padrão de exclusão de robôs).
Muitas pessoas ainda nem conhecem esse tipo de arquivo simples… mas que faz uma grande diferença em seu projeto de seo
Esse simples arquivo de texto criado no bloco de notas (.txt) é parte de todo site na internet.
É feito para trabalhar com ferramentas de busca, mas é, incrivelmente, um upgrade para seu SEO.
Já tive muitos clientes tentando de tudo para melhorar seus SEO. Quando faço uma edição do arquivo de texto (robots.txt) , eles custam a acreditar que algo tão simples possa mudar o jogo.
Entretanto, existem muitos métodos de melhorar SEO que não são difíceis ou tomam tempo, e esse é um deles.
Você nem precisa ter nenhuma experiência técnica para aproveitar as vantagens do robots.txt. Se você tem acesso ao código-fonte do seu site, você pode aproveitar e fazer algumas alterações que vamos te explicar aqui.
É só seguir comigo quando estiver pronto…
Vou te mostrar como modificar o seus arquivos robots.txt para que as ferramentas de busca passem a amar o seu site ainda mais.
Uma forma eficiente de gerar tráfego para seu site a longo prazo é usando SEO. Se você quer aumentar o tráfego do seu site e atrair mais usuários qualificados e clientes, clique aqui e receba o Guia Completo de SEO.
Veja também: Como aumentar a velocidade de seu site
Por que o arquivo robots.txt é importante?
É sempre bom saber porque o arquivo robots.txt tem tanta importância.
Também conhecido como protocolo ou padrão de exclusão de robôs, é um arquivo de texto que avisa aos robôs da internet (quase sempre ferramentas de busca) quais páginas do seu site rastrear e quais não rastrear.
Tudo isso feito de forma simples!
Digamos que uma ferramenta de busca (um bot do google por exemplo) está prestes a visitar um site. Antes de chegar na página procurada, vai checar o arquivo robots.txt para instruções do que ele pode fazer em seu site.
Existem tipos diferentes de arquivos robots.txt, vamos saber mais sobre cada um.
Por exemplo, a ferramenta de busca vai encontrar este exemplo de arquivo:
Esse é o esqueleto básico de um arquivo robots.txt.
O asterisco depois de “user-agent” indica que o arquivo robots.txt se aplica a todo tipo de robô da internet que visita o site.
A barra depois de “Disallow” informa ao robô para não visitar nenhuma das páginas do site.
Talvez você esteja se perguntando porque alguém iria querer impedir a visita de robôs da internet a seus sites.
Afinal de contas, um dos principais objetivos de SEO é atrair os mecanismos e ferramentas de buscas para o seu site e aumentar o seu ranqueamento.
E é aí que o secreto desse atalho de SEO aparece.
É possível que você tenha muitas páginas em seu site, certo? Mesmo que você ache que não, dê uma checada. Provavelmente você irá se surpreender.
Se uma ferramenta de busca rastrear o seu site, vai rastrear cada uma das páginas. Até mesmo sua página de login administrativo (acredito eu que você não irá querer isso).
E se você tem muitas páginas, o robô dos mecanismos de pesquisa vai tomar mais tempo para verificar o seu site, o que pode ter um efeito negativo no seu ranqueamento.
Isso é porque o Googlebot (o robô da ferramenta de busca do Google) tem um “limite de rastreamento”.
Esse limite pode ser resumido em duas partes. E a primeira é o limite da taxa de rastreamento. Veja aqui a explicação do Google.
A segunda parte é demanda de rastreamento.
Limite de rastreamento é, basicamente, o “número de URLs que o Googlebot pode e quer rastrear”.
O ideal é auxiliar o Googlebot a gastar o seu limite de rastreamento da melhor maneira possível. Em outras palavras, rastrear as suas páginas de maior valor.
Existem alguns fatores que irão, de acordo com o Google, “afetar negativamente o rastreamento e indexação de um site”. Mas vamos focar no arquivo.
Vamos voltar para o robots.txt…
Se você criar a página robots.txt corretamente, você pode avisar aos robôs das ferramentas de busca (e especialmente ao Googlebot) quais páginas ele deve evitar.
Considere as implicações.
Se você avisa aos robôs das ferramentas de busca que elas devem rastrear apenas seu conteúdo mais útil, os robôs irão rastrear e indexar somente esse conteúdo.
Veja aqui como o Google explica:
“É bom evitar sobrecarregar o seu servidor com o rastreador do Google ou desperdiçar limite de rastreamento com páginas sem importância do seu site.”
Ao usar robots.txt da maneira correta, você pode avisar aos robôs das ferramentas de busca como gastar bem o limite de rastreamento. E é por isso que o arquivo robots.txt é tão útil no contexto de SEO.
Curioso para conhecer mais do poder do robots.txt? Ótimo! Vamos falar mais sobre abaixo.
Continue…
(aproveite e não esqueça de deixar seu comentário abaixo se este artigo está sendo útil pra você).
Encontrando o seu arquivo robots.txt
Existe um jeito fácil de dar só uma olhada rápida em seus arquivos robots.txt.
E é um método que funciona para qualquer site. Dá para espiar arquivos de outros sites e ver como estão fazendo.
É só digitar a URL base do site na barra de endereços do navegador (como seopro.expert, facebook.com, etc.) e adcionar /robots.txt ao final.
Uma das três situações seguintes vai acontecer:
1) Você vai achar um arquivo robots.txt.
2) Você vai achar um arquivo vazio
3) Você vai achar um 404.
Verifique o arquivo robots.txt do seu próprio site.
Simples: endereçodoseusite.com.br/robots.txt
Se encontrar um arquivo vazio ou um 404, é bom consertar.
Caso encontre um arquivo válido, está com as configurações padrões de quando o seu site foi criado.
Gosto especialmente desse método de procurar pelos arquivos robots.txt em outros sites. Depois de aprender as técnicas desse arquivo, esse pode ser um exercício vantajoso.
Agora vamos ver como modificar os seus arquivos robots.txt.
Encontrando o seu arquivo robots.txt
Depois de inserir o seu robots, a partir daqui vai ficando mais tranquilo!
O próximo passo vai depender de você ter ou não arquivo robots.txt. (Confira usando o método descrito acima).
Caso não tenha um, vai precisar criar do zero. Abra um editor de texto simples, como o Notepad/bloco de notas (Windows) ou TextEdit (Mac).
Use apenas um editor de texto simples.
Caso use programas como o Microsoft Word, códigos adicionais podem ser inseridos no texto.
Editpad.org é uma ótima opção gratuita, e é essa que vou usar neste artigo.
De volta ao robots.txt. Se você tem um arquivo robots.txt, vai precisar localizá-lo no diretório central do seu site.
Caso não esteja acostumado a buscar um código-fonte, talvez tenha um pouco de dificuldades em localizar a versão editável do seu arquivo robots.txt.
Normalmente, você vai encontrar o seu diretório central entrando no site da sua conta de servidor e indo até o gerenciador de arquivos ou a seção FTP de seu site ( em muitos casos você encontra entrando em public_html, mas isso pode variar de servidor para servidor).
Você verá algo parecido com isto:
Para começar é bem simples. Encontre e abra os seus arquivos robots.txt para editá-los. Delete todo o texto, mas mantenha os arquivos.
Atenção: caso esteja usando WordPress, talvez veja um arquivo robots.txt ao ir em seusite.com/robots.txt, mas não vai encontra-lo em seus arquivos.
Isso é porque o WordPress cria um arquivo robots.txt virtual caso não existe robots.txt no diretório central.
Caso isso aconteça, você vai precisar criar um novo arquivo robots.txt.
Criando um novo arquivo robots.txt
Você pode criar um novo arquivo robots.txt usando o editor de texto simples de sua preferência (e somente um editor de texto simples como o bloco de notas irá funcionar bem).
Se você já tem um arquivo robots.txt, certifique-se de deletar o texto (mas não o arquivo).
Primeiro, você vai precisar conhecer melhor a sintaxe usada num arquivo robots.txt.
Google tem um boa explicação aqui de algumas noções básicas de termos robots.txt.
Vou mostrar como criar um simples arquivo robots.txt, depois, vamos aprender como customizá-lo para SEO.
Para começar, inicie configurando o termo user-agent. Vamos configurar para que possa se aplicar a todos os robôs da internet.
Para fazer isso, é só usar um asterisco depois do termo user-agent, assim:
A seguir, na linha abaixo do “user-agente:* digite “Disallow:”, e mais nada depois disso.
Já que não há nada depois de “disallow”, os robôs da internet vão rastrear todo o seu site. Por enquanto, tudo em seu site está ao alcance deles.
O seu arquivo robots.txt deve estar assim no momento depois de toda configuração feita até agora:
Parece muito simples, mas essas duas linhas já estão fazendo muito.
Você também pode linkar para o seu sitemap XML, mas não é obrigatório. Caso queria, é só digitar:
Acredite ou não, mas isso é um arquivo básico de texto robots.txt.
Vamos avançar para o próximo nível e transformar esse pequeno arquivo em uma turbina SEO.
Otimizando robots.txt para SEO
Como você otimiza robots.txt depende do conteúdo que você tem em seu site. Existem mil maneiras de tirar vantagens de robots.txt.
Vou falar das mais comuns aqui.
Continue aprendendo…
(Tenha em mente que você não deve usar robots.txt para bloquear páginas de ferramentas de busca. Isso está proibido.)
Um dos melhores usos de arquivo robots.txt é a maximização do limite de rastreamento de ferramentas de busca, ao avisá-las para ignorar partes do seu site que não são vistas pelo público.
Por exemplo, se você visitar o arquivo robots.txt para este site (seopro.expert/blog), vai ver que a página de login não está ao alcance dos mecanismos (wp-admin).
Já que essa página é usada apenas para entrar no site, os robôs não precisam perder tempo com ela.
(Caso você tenha WordPress, pode usar essa mesma linha para desabilitar.)
Você pode usar um diretório (ou comando) parecido para impedir robôs de rastrear páginas específicas. Depois de “disallow”, digite a parte da URL que vem depois de .com.br. Coloque-a entre duas barras.
Caso não queira que um robô rastreie a página http://seusite.com.br/pagina/, é só  digitar isto:
Está em dúvida sobre quais tipos de páginas excluir da indexação? Observe estes exemplos comuns:
Conteúdo duplicado necessário. Conteúdo duplicado não ajuda (mas também não atrapalha, é ignorado, mas existem alguns casos em que é necessário e aceitável.
Por exemplo, se você tem uma versão para impressão de uma página, tecnicamente, você tem conteúdo duplicado. Nesse caso, é só avisar aos robôs para não rastrear uma dessas versões (geralmente, a que está pronta para impressão).
Isso também vale para páginas de teste que possuem o mesmo conteúdo, mas designs diferentes.
Páginas de agradecimento (de obrigado). Páginas de agradecimento ou conhecidas como página de “obrigado”, são algumas das favoritas dos profissionais de marketing porque apontam para um novo contato.
…Correto?
Na verdade, algumas páginas de agradecimento são acessíveis pelo Google. Com isso, as pessoas podem acessar essas páginas sem passar pelo processo de captura de contatos,  o que não é uma boa notícia.
Ao bloquear as suas páginas de agradecimento (páginas de “obrigado”), você garante que apenas contatos qualificados estejam vendo as páginas.
Digamos que a sua página de agradecimento esteja no link: https://seusite.com/obrigado/. Em seu arquivo robots.txt, o bloqueio dessa página fica assim:
Já que não existem regras universais para quais páginas desabilitar, o seu arquivo robots.txt será único em seu site.
É bom conhecer também esses outras opções de configuração como estas: noindex e nofollow.
Sabe esse config disallow que estamos usando? Não impede a página de ser indexada.
Na teoria, você pode desabilitar uma página, mas ela ainda pode ser indexada.
De maneira geral, é melhor evitar.
Por isso que você precisa do diretivo noindex. Trabalha com o diretivo disallow para garantir que robôs não visitem ou indexem certas páginas.
Caso não queira indexar certas páginas (como as preciosas páginas de obrigado), você pode usar os diretivos disallow e noindex:
Agora, essa página não vai aparecer nas SERPs.
Por último, o diretivo nofollow. É o mesmo que um link nofollow. Resumindo, avisa aos robôs para não rastrear os links de uma página.
Mas o diretivo nofollow tem que ser implementado de outro jeito, porque não faz parte do arquivo robots.txt.
Entretanto, o diretivo nofollow ainda instrui robôs da internet, então parte do mesmo conceito. A única diferença é onde está localizado.
Encontre o código-fonte da página a ser modificada e certifique-se de  estar entre as tags <head>.
Depois, copie a linha:
<meta name=”robots” content=”nofollow”>
Vai ficar assim:
Certifique-se de não estar colocando essa linha entre outras tags além das tags <head>.
Essa é uma outra opção para páginas de “obrigado”, já que robôs da internet não irão rastrear links para páginas que chamam novos contatos ou outros conteúdos exclusivos.
Caso queira adicionar os diretivos noindex e nofollow, use esta linha de código:
<meta name=”robots” content=”noindex,nofollow”>
Os robôs da internet verão os dois diretivos ao mesmo tempo.
Teste Final
Por último, teste o arquivo robots.txt para checar se tudo está funcionando da maneira perfeita.
O Google tem uma ferramenta de teste gratuita como parte das ferramentas de Webmaster.
Primeiro, entre em sua conta Webmasters clicando em “Entrar” no canto superior direito.
Selecione a sua propriedade (o seu site) se necessário.
Depois basta clicar neste link:
https://www.google.com/webmasters/tools/robots-testing-tool
(aqui você deve selecionar a propriedade e ele irá fazer o rastreamento)
Você vai ver robots.txt do seu site.
Caso tenha algum código na caixa ou algum erro, delete e coloque o seu novo arquivo robots.txt em seu servidor de acordo com as orientações do google (o google irá mostrar um popup informando os passos).
Veja mais detalhes aqui
Depois de reenviar, Clique “Test” na parte inferior direita da tela.
Se o texto “Teste” mudar para “Permitido”, o seu robots.txt é válido.
Agora, você está armado com um arquivo poderoso, logo mais verá um aumento na visibilidade de busca.
Conclusão
Ao configurar o seu arquivo robots.txt da maneira correta, você não está só melhorando o seu SEO. Também está ajudando seus visitantes.
Se robôs dos mecanismos de busca gastaram o limite de rastreamento de maneira correta, eles vão organizar e expor o seu conteúdo nas SERPs da melhor maneira possível, o que significa que você irá ficar mais visível.
Também não é preciso muito esforço para configurar seu arquivo robots.txt. Geralmente, é apenas uma configuração, e você pode fazer as outras pequenas mudanças quando necessário.
Se está começando o seu primeiro ou seu décimo site, o uso de robots.txt faz uma grande diferença. Recomendo experimentar caso ainda não tenha feito isso antes.
Gostou do nosso artigo? Deixe seu comentário abaixo e aproveite e nos siga nas redes sociais:  Facebook, Twitter, Pinterest e Instagram
0 notes
marketingcomcaio · 5 years ago
Text
Avaliação de links do Google: as melhores formas de fazer link building
Link building é uma das principais estratégias de SEO. Afinal, avaliar os links que uma página recebe — seja do próprio site, seja de domínios externos — é a forma que o Google adota para determinar sua relevância e autoridade na web.
Essa foi a grande revolução do buscador na web. Quando o Google surgiu, já existiam outros buscadores, mas ele se destacou por causa do PageRank: o algoritmo que revolucionou a avaliação de links do Google.
Enquanto outros buscadores ordenavam os resultados por ordem alfabética, o PageRank adotou uma classificação por relevância, com base nos links que uma página recebia. Com a evolução do algoritmo, ele passou a considerar não apenas a quantidade de links recebidos, mas a importância dos sites que apontavam para ela.
A partir daí, o Google passou a entregar uma experiência de busca muito superior aos seus concorrentes. E ninguém mais segurou o buscador, que continuou inovando com uma avaliação de links cada vez mais complexa para entregar melhores resultados.
Então, para saber como ter um melhor posicionamento no Google, é preciso entender essa complexidade de fatores da avaliação de links. É isso que vamos explorar agora neste artigo.
Quais são os principais fatores na avaliação de links do Google?
Em uma estratégia de link building, você sabe em quais sites deve focar para receber links de qualidade? Para entender isso, trouxemos aqui os 12 principais fatores que o Google considera na avaliação de links para fazer um rankeamento justo. Acompanhe!
1. Links de outros sites
No link building, você pode utilizar tanto links externos (de outros sites) quanto links internos (do seu próprio site). Todos eles servem para mostrar ao Google quais são os seus conteúdos mais relevantes.
Mas é preciso esclarecer que, embora os dois tipos de links tenham importância e devam estar na sua estratégia, a linkagem externa conta mais pontos para o rankeamento.
Basicamente, o Google entende que os links internos representam o site falando bem de si mesmo, enquanto os externos mostram que você realmente é uma referência na visão dos outros sites, o que é muito mais relevante. Faz sentido, não é?
2. Popularidade das páginas
Na avaliação de links do Google, um dos pontos mais importantes é a popularidade das páginas. Isso significa que, quanto mais links uma página recebe, mais popular ela se torna e mais relevante o Google a considera. E, quanto mais links de páginas populares você recebe, mais autoridade ganha.
Afinal, se tanta gente referencia um conteúdo, ele deve ser bom, não é mesmo? Esse é o princípio básico do PageRank, com o qual ele foi lançado. Essa lógica foi extraída das citações acadêmicas: um autor que recebe várias menções é uma referência na sua área. 
Com essa lógica, porém, o buscador abriu as portas para o black hat, que gerava links indiscriminadamente apenas para ter um grande volume de menções. Por isso, o algoritmo evoluiu e hoje considera muitos outros fatores além da quantidade de links que uma página recebe. Ainda assim, esse fator continua sendo determinante para o rankeamento.
3. Posicionamento dos links na página
Outro ponto importante que o Google analisa ao avaliar os links de uma página é onde eles estão inseridos.
Primeiramente, os links que estão posicionados na área de conteúdo principal valem mais. O Google entende que eles foram inseridos por uma pessoa, com uma intenção editorial, o que demonstra o seu valor.
Por outro lado, aqueles que estão no cabeçalho, no rodapé ou nas colunas laterais não ganham muitos pontos, pois são inseridos automaticamente via CMS e costumam se repetir em várias páginas do site.
Ainda em relação ao posicionamento, os links que estão localizados mais acima no conteúdo também ganham mais relevância.
Para dar mais visibilidade a um link, você provavelmente escolheria colocá-lo no primeiro parágrafo de um texto e não no fim, não é? Então, é isso também que o Google entende: se ele está no começo, é mais importante.
Então, aí vai uma dica para os redatores: preste atenção para que o primeiro link que você coloca em um artigo de blog seja relevante, e busque posicioná-lo logo nas primeiras linhas.
Além disso, saiba que, se esse link aparece mais de uma vez na página, apenas a primeira aparição conta para o Google. Então, não adianta encher a página de links repetidos, ok?
4. Relevância do texto-âncora
Texto-âncora é o texto visível e clicável de um link. Ele costuma dar pistas sobre o assunto da página linkada, tanto para o usuário quanto para o buscador. Por isso, esse sempre foi um dos principais fatores do algoritmo do Google na avaliação de links.
Digamos, por exemplo, que você tenha uma loja de móveis e venda um sofá de três lugares. Então, o texto-âncora do link para a página de venda desse produto pode ser “sofá de três lugares”.
Esses termos são relevantes para a página que recebeu o link, pois indicam o seu assunto e reforçam a sua autoridade para essa palavra-chave. Quando isso acontece, então, ela ganha pontos com o Google.
Porém, se o link tem um texto-âncora irrelevante para o conteúdo da página, ela pode perder valor. Por exemplo: se você usa “clique aqui” ou “cama box” no link para uma página que vende sofá, o usuário pode ser direcionado para uma URL que não queria visitar e logo abandona o site. Isso mostra ao Google que aquele link não é útil.
Isso não quer dizer, porém, que você deva correr atrás de vários links com a correspondência exata da palavra-chave para a qual deseja rankear. Isso pode ser entendido como spam!
O Google sabe identificar as práticas maliciosas, mas também percebe quando o ganho de links acontece com naturalidade e com textos-âncora que se encaixam no conteúdo. Sem forçar a barra, ok?
Dica da Editora:
Marketing Digital: o que é, estratégias e TUDO sobre marketing online
Análise SWOT ou Matriz FOFA: o que é, como fazer e modelo grátis!
O que é Marketing: conceito, objetivos e TUDO sobre [2019]
5. Diversidade de domínios
Sabia que é melhor ter 20 links de domínios diferentes do que 100 links do mesmo site? 
Páginas que recebem links de domínios variados têm mais valor que aquelas que são linkadas várias vezes por um site apenas. Isso significa que a sua página é popular na web e conquistou a confiança de vários sites, não somente de um.
Portanto, ao planejar a sua estratégia de link building, procure diferentes parceiros que diversifiquem o perfil de links do seu site.
6. Confiabilidade do site
O Google gosta de sites confiáveis. Eles são aqueles domínios já maduros, com conteúdos relevantes, de marcas que são referências para o público. Portais de notícias ou de grandes empresas são alguns exemplos.
Eles ajudam o buscador a construir uma web mais segura. Aos olhos do Google, esses sites nunca vão criar links para páginas de má qualidade. Por isso, quem se relaciona com eles também ganha a confiança do Google. Portanto, quanto mais próximo de sites confiáveis você estiver, mais confiável o seu site será considerado.
Ok, talvez você não receba um link do site da Nasa, por exemplo. Mas, se a Nasa linka para um site, e esse site linka para o seu, você também ganha a confiança do Google. E, assim, a sua página ganha mais valor na avaliação de links.
Porém, a mesma lógica vale para sites de má qualidade. Quanto mais próxima a sua página estiver deles (principalmente com link direto), mais baixa será a sua reputação aos olhos do Google.
Vale aqui fazer uma ressalva: alguns especialistas em SEO discutem se os links de má qualidade realmente prejudicam o posicionamento. Para eles, o Google simplesmente ignora os sites que não seguem suas diretrizes. Por isso, eles não transmitiriam seu link juice negativo para as páginas linkadas. Mas não existe consenso quanto a isso, ok?
7. Contexto do link
Um artigo de blog sobre futebol que recebe link de um site de esportes ganha pontos com o Google. Porém, se esse artigo é citado em um site de culinária, ele não ganha tanta relevância. 
Por que isso acontece? Porque o Google entende que uma pessoa interessada em futebol provavelmente não está a fim de conhecer novas receitas de comida (ao menos não naquele momento).
O algoritmo do buscador é inteligente o suficiente para identificar o contexto em que o link está inserido e perceber se ele tem a ver com o conteúdo da página linkada. Se isso acontecer, esse link transmite mais valor, já que mantém o usuário dentro do tema no qual ele está interessado.
8. Atualização da página
O Google quer entregar o resultado mais atualizado possível ao usuário. Por isso, uma das formas de avaliar a relevância de uma página é analisar quão recentes são os conteúdos que apontam para ela. Isso quer dizer que links em conteúdos frescos — recém-lançados ou atualizados recentemente — tendem a transmitir mais valor que sites obsoletos.
Mas cabe esclarecer que páginas obsoletas não são sinônimo de páginas antigas. Estamos falando daqueles conteúdos que estão esquecidos no site, com informações ultrapassadas e sem atualizações. Dessa forma, eles não entregam mais valor ao visitante.
Já os conteúdos antigos podem ser extremamente relevantes, dependendo do tema, desde que sejam revisados periodicamente, para entregar sempre informações corretas e atualizadas.
Além disso, um dos critérios de avaliação do Google é a taxa de novos links que a página recebe. Se essa taxa aumenta bastante em um curto período, o buscador entende que provavelmente ela é nova ou sofreu uma atualização recente.
Por isso, elas tendem a ganhar mais relevância que as páginas que não estão recebendo mais novos links (o que provavelmente significa que elas estão ficando obsoletas).
9. Arquivos robots
O buscador só pode avaliar URLsb que permitam o seu rastreamento e indexação. Porém, na avaliação de links do Google, o robô pode se deparar com páginas que impedem esse trabalho. Isso pode acontecer de duas formas:
o arquivo robots.txt bloqueia o rastreamento;
a tag robots utiliza a diretiva “noindex”, que impede a indexação da página.
Portanto, se você quer que o Google considere para o rankeamento aqueles links externos que você conquistou, eles devem liberar o acesso do robô.
10. Autoridade de links “nofollow”
Quem usa a tag nofollow não quer transmitir link juice para a página linkada. Essa tag funciona como uma parede para o robô, que deve parar ali o rastreamento e seguir por outro caminho. Ela costuma ser usada, por exemplo, para evitar a prática de spam na caixa de comentários dos blogs.
Portanto, entende-se que a tag nofollow não transmite autoridade de uma página para outra. Porém, alguns estudos mostram que esses links podem transmitir valor em alguns casos (não tanto quanto os links dofollow, mas ainda assim com alguma relevância).
Provavelmente o Google analisa o contexto desses links. Se eles estão em sites de autoridade, alinhados ao conteúdo, com textos-âncora coerentes — ou seja, tudo certinho! —, é possível que eles tenham mesmo algum valor.
11. Menções à marca (sem link)
Estamos falando de avaliação de links do Google, mas as menções sem link também contam nessa análise, sabia?
Quando um site de autoridade cita uma marca, o Google é capaz de associar essa menção à página da empresa. Portanto, uma das formas de avaliar a relevância de uma página é também analisar as menções que ela recebe de outros sites, mesmo que elas não tenham link.
12. Links a partir da página
Até agora, falamos da análise de referências que uma página recebe. Mas os links que ela insere no seu conteúdo, também contam? Sim, eles também entram nessa avaliação.
Aqui vale a mesma lógica do relacionamento com sites confiáveis. Se você está perto deles, o Google entende que provavelmente você oferece um conteúdo de valor para o usuário. Então, incluir links para sites de autoridade aumenta a relevância da página.
Por outro lado, inserir links para sites de má qualidade pode prejudicar a sua reputação. Afinal, se você acha que vale a pena inserir esse tipo de link no seu site, provavelmente você não está preocupado em oferecer uma boa experiência ao usuário. E, com isso, perde pontos com o Google.
É importante notar que esses fatores que citamos não são regras rígidas. Eles interagem entre si, superam um ao outro e podem ser atualizados a qualquer momento, já que o Google está sempre aprimorando seu algoritmo. Além disso, eles são frutos de testes e experimentos de especialistas em SEO e nem todos são reconhecidos pelo buscador.
Por isso, vale a pena testar esses princípios na sua estratégia de link building, no seu mercado. Se você perceber, por exemplo, que links de páginas antigas estão dando mais retorno que sites novos, invista nisso! O que importa mesmo é o desempenho desses fatores na prática.
Agora, para aumentar ainda mais sua visibilidade online e ter melhores resultados, aprenda tudo sobre SEO no nosso guia completo!
Powered by Rock Convert
Avaliação de links do Google: as melhores formas de fazer link building Publicado primeiro em https://marketingdeconteudo.com
0 notes
blogalexalmeida · 5 years ago
Text
Avaliação de links do Google: as melhores formas de fazer link building
Link building é uma das principais estratégias de SEO. Afinal, avaliar os links que uma página recebe — seja do próprio site, seja de domínios externos — é a forma que o Google adota para determinar sua relevância e autoridade na web.
Essa foi a grande revolução do buscador na web. Quando o Google surgiu, já existiam outros buscadores, mas ele se destacou por causa do PageRank: o algoritmo que revolucionou a avaliação de links do Google.
Enquanto outros buscadores ordenavam os resultados por ordem alfabética, o PageRank adotou uma classificação por relevância, com base nos links que uma página recebia. Com a evolução do algoritmo, ele passou a considerar não apenas a quantidade de links recebidos, mas a importância dos sites que apontavam para ela.
A partir daí, o Google passou a entregar uma experiência de busca muito superior aos seus concorrentes. E ninguém mais segurou o buscador, que continuou inovando com uma avaliação de links cada vez mais complexa para entregar melhores resultados.
Então, para saber como ter um melhor posicionamento no Google, é preciso entender essa complexidade de fatores da avaliação de links. É isso que vamos explorar agora neste artigo.
Quais são os principais fatores na avaliação de links do Google?
Em uma estratégia de link building, você sabe em quais sites deve focar para receber links de qualidade? Para entender isso, trouxemos aqui os 12 principais fatores que o Google considera na avaliação de links para fazer um rankeamento justo. Acompanhe!
1. Links de outros sites
No link building, você pode utilizar tanto links externos (de outros sites) quanto links internos (do seu próprio site). Todos eles servem para mostrar ao Google quais são os seus conteúdos mais relevantes.
Mas é preciso esclarecer que, embora os dois tipos de links tenham importância e devam estar na sua estratégia, a linkagem externa conta mais pontos para o rankeamento.
Basicamente, o Google entende que os links internos representam o site falando bem de si mesmo, enquanto os externos mostram que você realmente é uma referência na visão dos outros sites, o que é muito mais relevante. Faz sentido, não é?
2. Popularidade das páginas
Na avaliação de links do Google, um dos pontos mais importantes é a popularidade das páginas. Isso significa que, quanto mais links uma página recebe, mais popular ela se torna e mais relevante o Google a considera. E, quanto mais links de páginas populares você recebe, mais autoridade ganha.
Afinal, se tanta gente referencia um conteúdo, ele deve ser bom, não é mesmo? Esse é o princípio básico do PageRank, com o qual ele foi lançado. Essa lógica foi extraída das citações acadêmicas: um autor que recebe várias menções é uma referência na sua área. 
Com essa lógica, porém, o buscador abriu as portas para o black hat, que gerava links indiscriminadamente apenas para ter um grande volume de menções. Por isso, o algoritmo evoluiu e hoje considera muitos outros fatores além da quantidade de links que uma página recebe. Ainda assim, esse fator continua sendo determinante para o rankeamento.
3. Posicionamento dos links na página
Outro ponto importante que o Google analisa ao avaliar os links de uma página é onde eles estão inseridos.
Primeiramente, os links que estão posicionados na área de conteúdo principal valem mais. O Google entende que eles foram inseridos por uma pessoa, com uma intenção editorial, o que demonstra o seu valor.
Por outro lado, aqueles que estão no cabeçalho, no rodapé ou nas colunas laterais não ganham muitos pontos, pois são inseridos automaticamente via CMS e costumam se repetir em várias páginas do site.
Ainda em relação ao posicionamento, os links que estão localizados mais acima no conteúdo também ganham mais relevância.
Para dar mais visibilidade a um link, você provavelmente escolheria colocá-lo no primeiro parágrafo de um texto e não no fim, não é? Então, é isso também que o Google entende: se ele está no começo, é mais importante.
Então, aí vai uma dica para os redatores: preste atenção para que o primeiro link que você coloca em um artigo de blog seja relevante, e busque posicioná-lo logo nas primeiras linhas.
Além disso, saiba que, se esse link aparece mais de uma vez na página, apenas a primeira aparição conta para o Google. Então, não adianta encher a página de links repetidos, ok?
4. Relevância do texto-âncora
Texto-âncora é o texto visível e clicável de um link. Ele costuma dar pistas sobre o assunto da página linkada, tanto para o usuário quanto para o buscador. Por isso, esse sempre foi um dos principais fatores do algoritmo do Google na avaliação de links.
Digamos, por exemplo, que você tenha uma loja de móveis e venda um sofá de três lugares. Então, o texto-âncora do link para a página de venda desse produto pode ser “sofá de três lugares”.
Esses termos são relevantes para a página que recebeu o link, pois indicam o seu assunto e reforçam a sua autoridade para essa palavra-chave. Quando isso acontece, então, ela ganha pontos com o Google.
Porém, se o link tem um texto-âncora irrelevante para o conteúdo da página, ela pode perder valor. Por exemplo: se você usa “clique aqui” ou “cama box” no link para uma página que vende sofá, o usuário pode ser direcionado para uma URL que não queria visitar e logo abandona o site. Isso mostra ao Google que aquele link não é útil.
Isso não quer dizer, porém, que você deva correr atrás de vários links com a correspondência exata da palavra-chave para a qual deseja rankear. Isso pode ser entendido como spam!
O Google sabe identificar as práticas maliciosas, mas também percebe quando o ganho de links acontece com naturalidade e com textos-âncora que se encaixam no conteúdo. Sem forçar a barra, ok?
Dica da Editora:
Marketing Digital: o que é, estratégias e TUDO sobre marketing online
Análise SWOT ou Matriz FOFA: o que é, como fazer e modelo grátis!
O que é Marketing: conceito, objetivos e TUDO sobre [2019]
5. Diversidade de domínios
Sabia que é melhor ter 20 links de domínios diferentes do que 100 links do mesmo site? 
Páginas que recebem links de domínios variados têm mais valor que aquelas que são linkadas várias vezes por um site apenas. Isso significa que a sua página é popular na web e conquistou a confiança de vários sites, não somente de um.
Portanto, ao planejar a sua estratégia de link building, procure diferentes parceiros que diversifiquem o perfil de links do seu site.
6. Confiabilidade do site
O Google gosta de sites confiáveis. Eles são aqueles domínios já maduros, com conteúdos relevantes, de marcas que são referências para o público. Portais de notícias ou de grandes empresas são alguns exemplos.
Eles ajudam o buscador a construir uma web mais segura. Aos olhos do Google, esses sites nunca vão criar links para páginas de má qualidade. Por isso, quem se relaciona com eles também ganha a confiança do Google. Portanto, quanto mais próximo de sites confiáveis você estiver, mais confiável o seu site será considerado.
Ok, talvez você não receba um link do site da Nasa, por exemplo. Mas, se a Nasa linka para um site, e esse site linka para o seu, você também ganha a confiança do Google. E, assim, a sua página ganha mais valor na avaliação de links.
Porém, a mesma lógica vale para sites de má qualidade. Quanto mais próxima a sua página estiver deles (principalmente com link direto), mais baixa será a sua reputação aos olhos do Google.
Vale aqui fazer uma ressalva: alguns especialistas em SEO discutem se os links de má qualidade realmente prejudicam o posicionamento. Para eles, o Google simplesmente ignora os sites que não seguem suas diretrizes. Por isso, eles não transmitiriam seu link juice negativo para as páginas linkadas. Mas não existe consenso quanto a isso, ok?
7. Contexto do link
Um artigo de blog sobre futebol que recebe link de um site de esportes ganha pontos com o Google. Porém, se esse artigo é citado em um site de culinária, ele não ganha tanta relevância. 
Por que isso acontece? Porque o Google entende que uma pessoa interessada em futebol provavelmente não está a fim de conhecer novas receitas de comida (ao menos não naquele momento).
O algoritmo do buscador é inteligente o suficiente para identificar o contexto em que o link está inserido e perceber se ele tem a ver com o conteúdo da página linkada. Se isso acontecer, esse link transmite mais valor, já que mantém o usuário dentro do tema no qual ele está interessado.
8. Atualização da página
O Google quer entregar o resultado mais atualizado possível ao usuário. Por isso, uma das formas de avaliar a relevância de uma página é analisar quão recentes são os conteúdos que apontam para ela. Isso quer dizer que links em conteúdos frescos — recém-lançados ou atualizados recentemente — tendem a transmitir mais valor que sites obsoletos.
Mas cabe esclarecer que páginas obsoletas não são sinônimo de páginas antigas. Estamos falando daqueles conteúdos que estão esquecidos no site, com informações ultrapassadas e sem atualizações. Dessa forma, eles não entregam mais valor ao visitante.
Já os conteúdos antigos podem ser extremamente relevantes, dependendo do tema, desde que sejam revisados periodicamente, para entregar sempre informações corretas e atualizadas.
Além disso, um dos critérios de avaliação do Google é a taxa de novos links que a página recebe. Se essa taxa aumenta bastante em um curto período, o buscador entende que provavelmente ela é nova ou sofreu uma atualização recente.
Por isso, elas tendem a ganhar mais relevância que as páginas que não estão recebendo mais novos links (o que provavelmente significa que elas estão ficando obsoletas).
9. Arquivos robots
O buscador só pode avaliar URLsb que permitam o seu rastreamento e indexação. Porém, na avaliação de links do Google, o robô pode se deparar com páginas que impedem esse trabalho. Isso pode acontecer de duas formas:
o arquivo robots.txt bloqueia o rastreamento;
a tag robots utiliza a diretiva “noindex”, que impede a indexação da página.
Portanto, se você quer que o Google considere para o rankeamento aqueles links externos que você conquistou, eles devem liberar o acesso do robô.
10. Autoridade de links “nofollow”
Quem usa a tag nofollow não quer transmitir link juice para a página linkada. Essa tag funciona como uma parede para o robô, que deve parar ali o rastreamento e seguir por outro caminho. Ela costuma ser usada, por exemplo, para evitar a prática de spam na caixa de comentários dos blogs.
Portanto, entende-se que a tag nofollow não transmite autoridade de uma página para outra. Porém, alguns estudos mostram que esses links podem transmitir valor em alguns casos (não tanto quanto os links dofollow, mas ainda assim com alguma relevância).
Provavelmente o Google analisa o contexto desses links. Se eles estão em sites de autoridade, alinhados ao conteúdo, com textos-âncora coerentes — ou seja, tudo certinho! —, é possível que eles tenham mesmo algum valor.
11. Menções à marca (sem link)
Estamos falando de avaliação de links do Google, mas as menções sem link também contam nessa análise, sabia?
Quando um site de autoridade cita uma marca, o Google é capaz de associar essa menção à página da empresa. Portanto, uma das formas de avaliar a relevância de uma página é também analisar as menções que ela recebe de outros sites, mesmo que elas não tenham link.
12. Links a partir da página
Até agora, falamos da análise de referências que uma página recebe. Mas os links que ela insere no seu conteúdo, também contam? Sim, eles também entram nessa avaliação.
Aqui vale a mesma lógica do relacionamento com sites confiáveis. Se você está perto deles, o Google entende que provavelmente você oferece um conteúdo de valor para o usuário. Então, incluir links para sites de autoridade aumenta a relevância da página.
Por outro lado, inserir links para sites de má qualidade pode prejudicar a sua reputação. Afinal, se você acha que vale a pena inserir esse tipo de link no seu site, provavelmente você não está preocupado em oferecer uma boa experiência ao usuário. E, com isso, perde pontos com o Google.
É importante notar que esses fatores que citamos não são regras rígidas. Eles interagem entre si, superam um ao outro e podem ser atualizados a qualquer momento, já que o Google está sempre aprimorando seu algoritmo. Além disso, eles são frutos de testes e experimentos de especialistas em SEO e nem todos são reconhecidos pelo buscador.
Por isso, vale a pena testar esses princípios na sua estratégia de link building, no seu mercado. Se você perceber, por exemplo, que links de páginas antigas estão dando mais retorno que sites novos, invista nisso! O que importa mesmo é o desempenho desses fatores na prática.
Agora, para aumentar ainda mais sua visibilidade online e ter melhores resultados, aprenda tudo sobre SEO no nosso guia completo!
Powered by Rock Convert
Avaliação de links do Google: as melhores formas de fazer link buildingpublicado primeiro em https://rockcontent.com/blog/
0 notes