#importância do robots.txt
Explore tagged Tumblr posts
blogpopular · 5 days ago
Text
Tudo o que Você Precisa Saber sobre o Arquivo Robots.txt
O arquivo robots.txt é um dos elementos mais fundamentais para a administração de um site, especialmente no que diz respeito à otimização para motores de busca (SEO). Este pequeno arquivo de texto desempenha um papel crucial na forma como os robôs de indexação (também chamados de spiders ou crawlers) interagem com o seu site. Neste artigo, vamos explorar em profundidade o que é o arquivo…
0 notes
seoproexpert · 4 years ago
Photo
Tumblr media
Fantástico!!! Novo post foi publicado: https://seopro.expert/blog/como-criar-robots-txt/
Como Criar Robots.txt Perfeito Para Seu SEO
Você já ouviu falar em robots.txt?
Gostamos de facilitar a vida de nossos leitores e clientes…
Por isso vamos mostrar alguns métodos interessantes sobre como criar um robots txt de forma precisa e rápida.
A técnica que vou te apresentar é uma das minhas favoritas. É um atalho SEO legítimo que você pode começar a usar de imediato e facilmente.
Irá melhor seu SEO fazendo uso de uma parte essencial de todo site que não costuma ser abordada. E ainda por cima fácil de usar.
É o arquivo robots.txt (também conhecido como protocolo ou padrão de exclusão de robôs).
Muitas pessoas ainda nem conhecem esse tipo de arquivo simples… mas que faz uma grande diferença em seu projeto de seo
Esse simples arquivo de texto criado no bloco de notas (.txt) é parte de todo site na internet.
É feito para trabalhar com ferramentas de busca, mas é, incrivelmente, um upgrade para seu SEO.
Já tive muitos clientes tentando de tudo para melhorar seus SEO. Quando faço uma edição do arquivo de texto (robots.txt) , eles custam a acreditar que algo tão simples possa mudar o jogo.
Entretanto, existem muitos métodos de melhorar SEO que não são difíceis ou tomam tempo, e esse é um deles.
Você nem precisa ter nenhuma experiência técnica para aproveitar as vantagens do robots.txt. Se você tem acesso ao código-fonte do seu site, você pode aproveitar e fazer algumas alterações que vamos te explicar aqui.
É só seguir comigo quando estiver pronto…
Vou te mostrar como modificar o seus arquivos robots.txt para que as ferramentas de busca passem a amar o seu site ainda mais.
Uma forma eficiente de gerar tráfego para seu site a longo prazo é usando SEO. Se você quer aumentar o tráfego do seu site e atrair mais usuários qualificados e clientes, clique aqui e receba o Guia Completo de SEO.
Veja também: Como aumentar a velocidade de seu site
Por que o arquivo robots.txt é importante?
É sempre bom saber porque o arquivo robots.txt tem tanta importância.
Também conhecido como protocolo ou padrão de exclusão de robôs, é um arquivo de texto que avisa aos robôs da internet (quase sempre ferramentas de busca) quais páginas do seu site rastrear e quais não rastrear.
Tudo isso feito de forma simples!
Digamos que uma ferramenta de busca (um bot do google por exemplo) está prestes a visitar um site. Antes de chegar na página procurada, vai checar o arquivo robots.txt para instruções do que ele pode fazer em seu site.
Existem tipos diferentes de arquivos robots.txt, vamos saber mais sobre cada um.
Por exemplo, a ferramenta de busca vai encontrar este exemplo de arquivo:
Esse é o esqueleto básico de um arquivo robots.txt.
O asterisco depois de “user-agent” indica que o arquivo robots.txt se aplica a todo tipo de robô da internet que visita o site.
A barra depois de “Disallow” informa ao robô para não visitar nenhuma das páginas do site.
Talvez você esteja se perguntando porque alguém iria querer impedir a visita de robôs da internet a seus sites.
Afinal de contas, um dos principais objetivos de SEO é atrair os mecanismos e ferramentas de buscas para o seu site e aumentar o seu ranqueamento.
E é aí que o secreto desse atalho de SEO aparece.
É possível que você tenha muitas páginas em seu site, certo? Mesmo que você ache que não, dê uma checada. Provavelmente você irá se surpreender.
Se uma ferramenta de busca rastrear o seu site, vai rastrear cada uma das páginas. Até mesmo sua página de login administrativo (acredito eu que você não irá querer isso).
E se você tem muitas páginas, o robô dos mecanismos de pesquisa vai tomar mais tempo para verificar o seu site, o que pode ter um efeito negativo no seu ranqueamento.
Isso é porque o Googlebot (o robô da ferramenta de busca do Google) tem um “limite de rastreamento”.
Esse limite pode ser resumido em duas partes. E a primeira é o limite da taxa de rastreamento. Veja aqui a explicação do Google.
A segunda parte é demanda de rastreamento.
Limite de rastreamento é, basicamente, o “número de URLs que o Googlebot pode e quer rastrear”.
O ideal é auxiliar o Googlebot a gastar o seu limite de rastreamento da melhor maneira possível. Em outras palavras, rastrear as suas páginas de maior valor.
Existem alguns fatores que irão, de acordo com o Google, “afetar negativamente o rastreamento e indexação de um site”. Mas vamos focar no arquivo.
Vamos voltar para o robots.txt…
Se você criar a página robots.txt corretamente, você pode avisar aos robôs das ferramentas de busca (e especialmente ao Googlebot) quais páginas ele deve evitar.
Considere as implicações.
Se você avisa aos robôs das ferramentas de busca que elas devem rastrear apenas seu conteúdo mais útil, os robôs irão rastrear e indexar somente esse conteúdo.
Veja aqui como o Google explica:
“É bom evitar sobrecarregar o seu servidor com o rastreador do Google ou desperdiçar limite de rastreamento com páginas sem importância do seu site.”
Ao usar robots.txt da maneira correta, você pode avisar aos robôs das ferramentas de busca como gastar bem o limite de rastreamento. E é por isso que o arquivo robots.txt é tão útil no contexto de SEO.
Curioso para conhecer mais do poder do robots.txt? Ótimo! Vamos falar mais sobre abaixo.
Continue…
(aproveite e não esqueça de deixar seu comentário abaixo se este artigo está sendo útil pra você).
Encontrando o seu arquivo robots.txt
Existe um jeito fácil de dar só uma olhada rápida em seus arquivos robots.txt.
E é um método que funciona para qualquer site. Dá para espiar arquivos de outros sites e ver como estão fazendo.
É só digitar a URL base do site na barra de endereços do navegador (como seopro.expert, facebook.com, etc.) e adcionar /robots.txt ao final.
Uma das três situações seguintes vai acontecer:
1) Você vai achar um arquivo robots.txt.
2) Você vai achar um arquivo vazio
3) Você vai achar um 404.
Verifique o arquivo robots.txt do seu próprio site.
Simples: endereçodoseusite.com.br/robots.txt
Se encontrar um arquivo vazio ou um 404, é bom consertar.
Caso encontre um arquivo válido, está com as configurações padrões de quando o seu site foi criado.
Gosto especialmente desse método de procurar pelos arquivos robots.txt em outros sites. Depois de aprender as técnicas desse arquivo, esse pode ser um exercício vantajoso.
Agora vamos ver como modificar os seus arquivos robots.txt.
Encontrando o seu arquivo robots.txt
Depois de inserir o seu robots, a partir daqui vai ficando mais tranquilo!
O próximo passo vai depender de você ter ou não arquivo robots.txt. (Confira usando o método descrito acima).
Caso não tenha um, vai precisar criar do zero. Abra um editor de texto simples, como o Notepad/bloco de notas (Windows) ou TextEdit (Mac).
Use apenas um editor de texto simples.
Caso use programas como o Microsoft Word, códigos adicionais podem ser inseridos no texto.
Editpad.org é uma ótima opção gratuita, e é essa que vou usar neste artigo.
De volta ao robots.txt. Se você tem um arquivo robots.txt, vai precisar localizá-lo no diretório central do seu site.
Caso não esteja acostumado a buscar um código-fonte, talvez tenha um pouco de dificuldades em localizar a versão editável do seu arquivo robots.txt.
Normalmente, você vai encontrar o seu diretório central entrando no site da sua conta de servidor e indo até o gerenciador de arquivos ou a seção FTP de seu site ( em muitos casos você encontra entrando em public_html, mas isso pode variar de servidor para servidor).
Você verá algo parecido com isto:
Para começar é bem simples. Encontre e abra os seus arquivos robots.txt para editá-los. Delete todo o texto, mas mantenha os arquivos.
Atenção: caso esteja usando WordPress, talvez veja um arquivo robots.txt ao ir em seusite.com/robots.txt, mas não vai encontra-lo em seus arquivos.
Isso é porque o WordPress cria um arquivo robots.txt virtual caso não existe robots.txt no diretório central.
Caso isso aconteça, você vai precisar criar um novo arquivo robots.txt.
Criando um novo arquivo robots.txt
Você pode criar um novo arquivo robots.txt usando o editor de texto simples de sua preferência (e somente um editor de texto simples como o bloco de notas irá funcionar bem).
Se você já tem um arquivo robots.txt, certifique-se de deletar o texto (mas não o arquivo).
Primeiro, você vai precisar conhecer melhor a sintaxe usada num arquivo robots.txt.
Google tem um boa explicação aqui de algumas noções básicas de termos robots.txt.
Vou mostrar como criar um simples arquivo robots.txt, depois, vamos aprender como customizá-lo para SEO.
Para começar, inicie configurando o termo user-agent. Vamos configurar para que possa se aplicar a todos os robôs da internet.
Para fazer isso, é só usar um asterisco depois do termo user-agent, assim:
A seguir, na linha abaixo do “user-agente:* digite “Disallow:”, e mais nada depois disso.
Já que não há nada depois de “disallow”, os robôs da internet vão rastrear todo o seu site. Por enquanto, tudo em seu site está ao alcance deles.
O seu arquivo robots.txt deve estar assim no momento depois de toda configuração feita até agora:
Parece muito simples, mas essas duas linhas já estão fazendo muito.
Você também pode linkar para o seu sitemap XML, mas não é obrigatório. Caso queria, é só digitar:
Acredite ou não, mas isso é um arquivo básico de texto robots.txt.
Vamos avançar para o próximo nível e transformar esse pequeno arquivo em uma turbina SEO.
Otimizando robots.txt para SEO
Como você otimiza robots.txt depende do conteúdo que você tem em seu site. Existem mil maneiras de tirar vantagens de robots.txt.
Vou falar das mais comuns aqui.
Continue aprendendo…
(Tenha em mente que você não deve usar robots.txt para bloquear páginas de ferramentas de busca. Isso está proibido.)
Um dos melhores usos de arquivo robots.txt é a maximização do limite de rastreamento de ferramentas de busca, ao avisá-las para ignorar partes do seu site que não são vistas pelo público.
Por exemplo, se você visitar o arquivo robots.txt para este site (seopro.expert/blog), vai ver que a página de login não está ao alcance dos mecanismos (wp-admin).
Já que essa página é usada apenas para entrar no site, os robôs não precisam perder tempo com ela.
(Caso você tenha WordPress, pode usar essa mesma linha para desabilitar.)
Você pode usar um diretório (ou comando) parecido para impedir robôs de rastrear páginas específicas. Depois de “disallow”, digite a parte da URL que vem depois de .com.br. Coloque-a entre duas barras.
Caso não queira que um robô rastreie a página http://seusite.com.br/pagina/, é só  digitar isto:
Está em dúvida sobre quais tipos de páginas excluir da indexação? Observe estes exemplos comuns:
Conteúdo duplicado necessário. Conteúdo duplicado não ajuda (mas também não atrapalha, é ignorado, mas existem alguns casos em que é necessário e aceitável.
Por exemplo, se você tem uma versão para impressão de uma página, tecnicamente, você tem conteúdo duplicado. Nesse caso, é só avisar aos robôs para não rastrear uma dessas versões (geralmente, a que está pronta para impressão).
Isso também vale para páginas de teste que possuem o mesmo conteúdo, mas designs diferentes.
Páginas de agradecimento (de obrigado). Páginas de agradecimento ou conhecidas como página de “obrigado”, são algumas das favoritas dos profissionais de marketing porque apontam para um novo contato.
…Correto?
Na verdade, algumas páginas de agradecimento são acessíveis pelo Google. Com isso, as pessoas podem acessar essas páginas sem passar pelo processo de captura de contatos,  o que não é uma boa notícia.
Ao bloquear as suas páginas de agradecimento (páginas de “obrigado”), você garante que apenas contatos qualificados estejam vendo as páginas.
Digamos que a sua página de agradecimento esteja no link: https://seusite.com/obrigado/. Em seu arquivo robots.txt, o bloqueio dessa página fica assim:
Já que não existem regras universais para quais páginas desabilitar, o seu arquivo robots.txt será único em seu site.
É bom conhecer também esses outras opções de configuração como estas: noindex e nofollow.
Sabe esse config disallow que estamos usando? Não impede a página de ser indexada.
Na teoria, você pode desabilitar uma página, mas ela ainda pode ser indexada.
De maneira geral, é melhor evitar.
Por isso que você precisa do diretivo noindex. Trabalha com o diretivo disallow para garantir que robôs não visitem ou indexem certas páginas.
Caso não queira indexar certas páginas (como as preciosas páginas de obrigado), você pode usar os diretivos disallow e noindex:
Agora, essa página não vai aparecer nas SERPs.
Por último, o diretivo nofollow. É o mesmo que um link nofollow. Resumindo, avisa aos robôs para não rastrear os links de uma página.
Mas o diretivo nofollow tem que ser implementado de outro jeito, porque não faz parte do arquivo robots.txt.
Entretanto, o diretivo nofollow ainda instrui robôs da internet, então parte do mesmo conceito. A única diferença é onde está localizado.
Encontre o código-fonte da página a ser modificada e certifique-se de  estar entre as tags <head>.
Depois, copie a linha:
<meta name=”robots” content=”nofollow”>
Vai ficar assim:
Certifique-se de não estar colocando essa linha entre outras tags além das tags <head>.
Essa é uma outra opção para páginas de “obrigado”, já que robôs da internet não irão rastrear links para páginas que chamam novos contatos ou outros conteúdos exclusivos.
Caso queira adicionar os diretivos noindex e nofollow, use esta linha de código:
<meta name=”robots” content=”noindex,nofollow”>
Os robôs da internet verão os dois diretivos ao mesmo tempo.
Teste Final
Por último, teste o arquivo robots.txt para checar se tudo está funcionando da maneira perfeita.
O Google tem uma ferramenta de teste gratuita como parte das ferramentas de Webmaster.
Primeiro, entre em sua conta Webmasters clicando em “Entrar” no canto superior direito.
Selecione a sua propriedade (o seu site) se necessário.
Depois basta clicar neste link:
https://www.google.com/webmasters/tools/robots-testing-tool
(aqui você deve selecionar a propriedade e ele irá fazer o rastreamento)
Você vai ver robots.txt do seu site.
Caso tenha algum código na caixa ou algum erro, delete e coloque o seu novo arquivo robots.txt em seu servidor de acordo com as orientações do google (o google irá mostrar um popup informando os passos).
Veja mais detalhes aqui
Depois de reenviar, Clique “Test” na parte inferior direita da tela.
Se o texto “Teste” mudar para “Permitido”, o seu robots.txt é válido.
Agora, você está armado com um arquivo poderoso, logo mais verá um aumento na visibilidade de busca.
Conclusão
Ao configurar o seu arquivo robots.txt da maneira correta, você não está só melhorando o seu SEO. Também está ajudando seus visitantes.
Se robôs dos mecanismos de busca gastaram o limite de rastreamento de maneira correta, eles vão organizar e expor o seu conteúdo nas SERPs da melhor maneira possível, o que significa que você irá ficar mais visível.
Também não é preciso muito esforço para configurar seu arquivo robots.txt. Geralmente, é apenas uma configuração, e você pode fazer as outras pequenas mudanças quando necessário.
Se está começando o seu primeiro ou seu décimo site, o uso de robots.txt faz uma grande diferença. Recomendo experimentar caso ainda não tenha feito isso antes.
Gostou do nosso artigo? Deixe seu comentário abaixo e aproveite e nos siga nas redes sociais:  Facebook, Twitter, Pinterest e Instagram
0 notes
marketingcomcaio · 6 years ago
Text
12 truques de SEO para indexar e rankear seus conteúdos mais rápido
A otimização para buscadores costuma levar tempo para dar resultados. É preciso paciência para ver os conteúdos aparecerem e subirem no ranking do Google ― mas, quando os resultados vêm, eles são poderosos e duradouros.
Porém, no mercado atual, velocidade é uma vantagem competitiva. Se você esperar muito tempo para ter retorno com uma estratégia, o concorrente passa à frente. Então, será que tem como indexar e rankear conteúdos mais rápido no Google?
Sim, existem algumas estratégias para isso. Quando você inclui novos conteúdos no seu site ou blog, quer que os usuários cheguem até ele o mais rápido possível, não é? Então, agora vamos ajudar você com alguns hacks de SEO para agilizar a indexação e o rankeamento das suas páginas. Siga conosco!
Como funcionam a indexação e o rankeamento do Google
A intenção do algoritmo do Google é organizar todo o conteúdo da web para torná-lo acessível aos usuários. Para isso, o buscador desenvolveu um robô todo-poderoso, que é capaz de rastrear as páginas da internet, entender do que elas tratam e ordená-las, de maneira que o usuário encontre os melhores resultados para as suas pesquisas.
Quando você pesquisa por algum termo no Google, nem imagina todo o processo de busca que acontece por trás, não é? O robô percorre um longo caminho ― embora tudo aconteça em milissegundos. Estes são os passos que ele percorre:
rastreamento (crawling): identificação de URLs novas ou atualizadas para serem indexadas — acontece a todo momento;
indexação (indexing): identificação dos conteúdos das páginas para organizar o índice de URLs do buscador — acontece a todo momento;
classificação (ranking): ordenação dos conteúdos indexados pelo robô para exibir os resultados de acordo com o termo de busca — acontece a cada pesquisa do usuário.
Então, para que as suas páginas apareçam mais rapidamente ― e bem posicionadas ― nos resultados da busca, você deve facilitar o trabalho do Googlebot. Em cada uma das etapas, existem alguns truques para agilizar esse processo.
12 hacks de SEO para indexar e rankear conteúdos mais rápido 
Agora, vamos ver quais são esses hacks que podem agilizar a indexação e o rankeamento das suas páginas.
Acompanhe as dicas!
1. Verificar problemas de rastreamento
O primeiro passo em uma estratégia de SEO é verificar possíveis problemas de rastreamento. Se as suas páginas não estão passando pela varredura do rastreador, nenhum dos esforços abaixo terá resultados.
Dentro do Google Search Console, na seção Erros de Rastreamento, você pode conferir se o robô está conseguindo ler o seu site e, se não, por que isso está acontecendo.
Possivelmente existem erros de DNS, servidor, robots.txt, 404, entre outros. Em alguns casos, é possível corrigir rapidamente esses problemas; em outros, é preciso contar com ajuda especializada.
2. Usar a Ferramenta de Inspeção de URL
Quando você publica uma nova página ou faz atualizações em uma URL, o Google pode levar alguns dias ou até semanas para fazer o rastreamento. O buscador recomenda paciência para isso ― afinal, dá para imaginar quantas páginas ele precisa rastrear a cada segundo no mundo inteiro!?
Porém, o buscador oferece um recurso para que os proprietários de sites avisem: “Google, acabei de publicar (ou atualizar) uma página. Você pode dar uma passadinha aqui?”.
Para isso, é preciso usar a Ferramenta de Inspeção de URL, disponível no Google Search Console. Essa ferramenta informa o status de indexação de uma URL, ou seja, se o Google consegue indexar essa página e os possíveis problemas encontrados.
Se, depois de inspecionar a página, você verificar que ela ainda não está indexada, é possível solicitar que o Google rastreie essa URL. Ao clicar em “Solicitar indexação”, o buscador faz uma rápida verificação para testar erros e, se a página passar, ela irá para a fila de indexação.
Assim, a sua página estará entre as prioridades de indexação do Google. Mas é importante ressaltar que isso ainda pode levar até 1 ou 2 semanas para acontecer. Você pode acompanhar o andamento da solicitação pelo Google Search Console.
Saiba também que existe um limite diário de solicitações de inspeção. Então, priorize as páginas mais importantes, que você realmente precisa que apareçam nos resultados da busca.
3. Enviar sitemaps para o Google
No processo de rastreamento, o Google descobre novas URLs (ou atualizações de páginas) por meio da rede de links. A linkagem interna e externa mostra ao robô os caminhos que ele deve seguir para rastrear e indexar as URLs.
Se todas as páginas do seu site estiverem vinculadas corretamente, o rastreador consegue identificar as suas URLs naturalmente. Porém, você pode facilitar o trabalho do robô ― e indexar e rankear conteúdos mais rápido ― se enviar um sitemap ao Google.
Sitemap é um arquivo que contém todas as páginas e documentos de um site e mostra a relação entre eles. Assim, o robô identifica qual caminho deve seguir e quais são as páginas mais importantes.
Outras informações valiosas, como a frequência de atualização da URL e a existência de versões em diferentes idiomas, também são transmitidas pelo sitemap.
Portanto, enquanto a Ferramenta de Inspeção é usada para enviar URLs individuais, o sitemap serve para mostrar ao Google o conjunto de páginas que você quer indexar.
Isso é principalmente importante para sites novos, muito grandes, sem links externos ou com páginas isoladas. Assim, você garante que o rastreador passe por todos os seus conteúdos.
Para enviar um sitemap ao Google, existem três opções:
Usar a ferramenta de sitemaps do Google Search Console;
Especificar o caminho para o sitemap dentro do arquivo robots.txt (por exemplo: https://ift.tt/1yk2Rmx);
Usar a função “ping” (por exemplo: https://ift.tt/2IIBpis<url_completo_do_sitemap>).
4. Usar o Google API para indexação
Quer uma comunicação ainda mais direta com o Google para informar a publicação ou a atualização das suas páginas? O buscador criou uma API para desenvolvedores (conte com ajuda especializada para isso) que permite uma troca de informações mais rápida.
Com a API Indexing, você pode notificar diretamente o Google quando páginas foram adicionadas, atualizadas ou removidas. É possível enviar URLs individuais ou fazer solicitações em lote. Assim, o robô vai priorizar o rastreamento dessas páginas.
O Google informa, porém, que essa ferramenta ainda está disponível apenas para páginas com dados estruturados de vagas de emprego ou transmissões ao vivo. Esse tipo de página demanda um rastreamento imediato para entregarem valor aos usuários.
De qualquer forma, um especialista em SEO chamado David Sottimano resolveu testar a aplicação e conseguiu rastrear páginas regulares do seu site. E sabe em quanto tempo isso aconteceu? Em apenas 1 minuto! Então, vale a pena você testar também.
Além disso, é importante saber que existe um limite de solicitações por minuto e por dia. Você pode conferir a sua cota dentro do Console de APIs do Google.
5. Criar links internos em páginas importantes
Como já explicamos, o Google rastreia os sites da web guiado pela rede de links. A partir dos links que aparecem nas páginas conhecidas, ele chega até as URLs novas e atualizadas. É assim tanto com os links externos quanto internos de um site.
Quando você publica uma nova página dentro da estrutura do seu site, em algum momento o Google passará por ela em seus processos de rastreamento.
Porém, se o seu site é muito grande ou se as suas páginas estão isoladas, pode ser que o robô faça uma varredura rápida e não rastreie alguns conteúdos que considere de menor importância.
Isso pode acontecer só numa próxima varredura ― e, assim, o rastreamento demora mais.
Portanto, uma forma de indexar mais rápido uma nova URL é criar links para ela em páginas importantes do seu site, como a página inicial ou um post central do blog, que o Google prioriza rastrear.
Assim, quando você insere links nessas páginas, aumentam as chances de o robô passar pelas páginas linkadas. Além disso, ele identifica mais facilmente que há conteúdo fresco no site e que provavelmente ele é relevante, já que está citado em uma página importante.
Uma dica para que isso aconteça é sempre publicar as atualizações do blog na página inicial. Outra ideia bacana é, sempre que publicar uma nova página, encontrar oportunidades de linkagem interna em conteúdos antigos do blog.
6. Compartilhar os conteúdos nas redes sociais
Se uma das formas de mostrar que você tem conteúdo atualizado no site é criar links para ele, é possível fazer isso também ao divulgar a URL nas redes sociais.
Dessa forma, você começa a gerar tráfego para a página e mostra ao Google que aquele link existe. Porém, é preciso esclarecer: os sinais sociais (likes, compartilhamentos, comentários) não são um dos fatores de rankeamento do Google, e os links das redes sociais são marcados como “nofollow”, ou seja, não são seguidos pelo robô e não influenciam no rankeamento.
O que provavelmente existe é uma correlação: links que geram um bom tráfego, alcance e engajamento nas redes sociais costumam também ter um bom posicionamento nos resultados da busca.
Então, quando você compartilha as suas páginas novas ou atualizadas no Facebook, Twitter, LinkedIn, Instagram e Pinterest, aumentam as chances de elas serem conhecidas, acessadas e mencionadas em outros sites. Assim, você também começa a gerar links externos para essas URLs.
Você pode se interessar por esses outros conteúdos
Tumblr media
Auditoria de SEO: tutorial completo para o seu blog
Tumblr media
5 dicas básicas de SEO para melhorar o seu rankeamento
Tumblr media
Escaneabilidade e SEO: como melhorar a experiência do usuário
7. Otimizar a arquitetura de informação do site
Ainda em relação à rede de links, criar uma arquitetura de informação lógica e bem estruturada também ajuda a indexar conteúdos mais rápido.
A arquitetura da informação se refere à forma como você organiza os conteúdos do site e define as relações entre eles. Quando se fala em desenvolvimento de sites, a arquitetura é definida pela criação e hierarquização de seções e a linkagem entre os conteúdos.
Então, quando você tem uma estrutura organizada, em que todas as páginas estão relacionadas entre si (sem URLs “órfãs”), você facilita o trabalho do Google. Ele sabe quais caminhos deve seguir para encontrar novas páginas e consegue rastrear tudo em uma varredura.
Além disso, ele identifica também que você oferece uma boa navegabilidade, que facilita aos usuários encontrarem o que desejam. Então, você também ganha pontos para o rankeamento.
8. Minificar recursos do site
Minificar significa simplificar. Em relação ao SEO, minificar os códigos do seu site ajuda o Google a rastrear e indexar os seus conteúdos mais rapidamente.
Quando o robô encontra códigos confusos e cheios de caracteres desnecessários, ele pode reduzir o crawl budget do site, ou seja, o tempo que vai dedicar para rastrear suas páginas.
Ele entende que esse site provavelmente não oferece uma boa experiência ao usuário, já que os códigos são pesados e tornam o carregamento mais lento. Então, ele nem perde tempo com essas páginas.
Por outro lado, ao minificar os recursos do site, você retira os caracteres supérfluos e reduz o tamanho dos códigos HTML, CSS e Javascript. Assim, além de melhorar a velocidade de carregamento, o Google rastreia as páginas com mais facilidade, agilidade e frequência.
Para fazer isso, você pode contar com plugins gratuitos para WordPress, como o W3 Total Cache e o Autoptimize.
9. Gerar tráfego a partir dos resultados da busca
Você já percebeu que alguns comerciais de TV começaram a indicar o uso da busca do Google em vez de divulgar o site da marca? É o caso, por exemplo, desse anúncio do Santander que, ao final, indica “busque por Santander Duo”.
Entre outros motivos, uma das razões de usar esse recurso é acelerar o rankeamento do site para esse termo de pesquisa. O Google reconhece que a taxa de cliques (CTR) no seu link nos resultados da busca está aumentando e reconhece a relevância da página.
Além disso, você também ganha espaço no recurso de auto-suggest: quanto mais pessoas buscam por um termo, mais ele tende a aparecer nas sugestões de pesquisa do Google.
Você também pode fazer isso ao divulgar seus links nas redes sociais, por exemplo. Em vez de divulgar o link direto da página, você pode usar o link de busca no Google com o termo para o qual você deseja rankear melhor.
Por exemplo: se fossemos divulgar a página inicial da Rock Content, poderíamos usar este link (https://www.google.com/search?q=rock+content) em vez da URL direta (www.rockcontent.com).
Antes de adotar essa estratégia, no entanto, é preciso garantir que você fez o dever de casa no SEO On Page. Ou seja, o conteúdo precisa estar otimizado ― no título, intertítulos, texto, imagens, meta description ― com aquele termo para o qual você deseja rankear.
10. Escolher buscas que demandam conteúdos frescos
O Google tende a priorizar o rastreamento e o rankeamento de conteúdos que ele acha que precisam ser super atualizados.
Digamos, por exemplo, que seja período de Copa do Mundo de Futebol e alguém pesquise por “copa do mundo jogos de hoje”.
Provavelmente, o Google vai priorizar no ranking os conteúdos mais frescos, com a intenção de entregar o resultado mais preciso para o que o usuário busca: quais são os jogos de hoje (não os de ontem, nem da semana passada).
Então, se você produzir uma notícia ou um conteúdo falando dos jogos que vão acontecer “hoje”, o Google vai identificar que a sua página entrega o conteúdo mais atualizado que o usuário precisa. Assim, o robô vai rastrear, indexar e rankear essa página o quanto antes.
Portanto, se você quer indexar e rankear conteúdos mais rápido, uma das ideias para fazer isso é escolher consultas que demandem conteúdos mais frescos nos resultados.
11. Produzir conteúdo regularmente
Produzir conteúdo regularmente é o ideal para conquistar o engajamento dos usuários. Assim, eles sabem que sempre vão encontrar conteúdos novos e atualizados no seu site.
Mas você sabia que é assim também que o Googlebot pensa? Se você publica conteúdos com uma frequência regular, o robô identifica quando precisa realizar as varreduras, sabendo que sempre vai encontrar conteúdo fresco nas suas URLs.
Dessa forma, é provável que, sempre que você publicar páginas novas, o Google esteja antenado e rastreie logo as suas páginas.
12. Indicar páginas que o Google não precisa indexar
O Google dedica um tempo para rastrear e indexar cada página da web. Esse tempo é definido pelo crawl budget, que já mencionamos anteriormente, de acordo com a qualidade dos conteúdos e da experiência que o site oferece aos usuários.
Imagine, então, que você tenha várias páginas duplicadas, com redirecionamentos ou com conteúdos irrelevantes, que não geram valor para a experiência do visitante. Assim, o Googlebot vai desperdiçar tempo com essas páginas e deixar de rastrear outras URLs mais importantes para o seu negócio.
O ideal é evitar que o Google perca tempo no rastreamento de URLs desnecessárias. Para isso, você pode usar o código “noindex” nessas páginas. Essa tag informa ao Google que ele não precisa indexar determinadas URLs, nem apresentá-las nos resultados da busca.
Enfim, agora você já sabe como indexar e rankear conteúdos mais rápido no Google! Vale ressaltar que os truques que indicamos aqui estão dentro das práticas recomendadas pelo buscador ― nada de black hat, ok? É possível acelerar os resultados sem passar por cima das regras do Google.
Aliás, vale a pena saber o que pode prejudicar a sua estratégia: leia agora o nosso artigo sobre os principais erros de SEO que você deve evitar!
12 truques de SEO para indexar e rankear seus conteúdos mais rápido Publicado primeiro em https://marketingdeconteudo.com
0 notes
consultorseoalancristian · 5 years ago
Text
Otimização de Sites | Dicas Básicas para Gerar Orçamentos e Vendas Online
A preparação para lançar um novo site, ou atualizar um atual, gastar algum tempo trabalhando na otimização do site para que ele se classifique bem nos motores de busca. Leva algum tempo sim, mas o retorno sobre o investimento pode ser enorme. Neste artigo você encontrará informações  sobre como incluir ou alterar de maneira fácil seu site, aumentando assim sua “encontrabilidade” na web.
Na otimização de sites para os mecanismos de pesquisa, um site com links de outros sites apontando pra ele, receberá um grande impulso em posicionamento na página de resultados. 
Os motores de busca dão grande peso aos links externos que mencionam um site em termos de pesquisa (fator que atribui a relevância de um determinado site). Manter essa estratégia de links é uma maneira eficaz de otimização de mecanismos de pesquisa.
Para ter um site verdadeiramente bem sucedido e aumentar a otimização para os mecanismos de pesquisa, você deve ter conteúdo exclusivo em seu site. As pessoas na internet estarão constantemente à procura de material novo e único. Garanta um conteúdo original, sem cópias ou conteúdos plagiados. Isso diminuirá a otimização de seu site nos mecanismos de busca e pesquisa.
Orientação Otimizada aos Mecanismos
Os motores de busca rastreiam todo o seu site por padrão, coloque instruções no arquivo robots.txt para excluir páginas que não são relevantes para o tópico do seu site, por exemplo. Escreva o arquivo e envie ao diretório raiz do site. Isto dirá ao “robô pesquisador” o que ignorar imediatamente, assim não desperdiça o tempo que de pesquisa numa informação que não é importante.
Essa estratégia de organização de informações, tratamos em outro artigo, pois vai de encontro ao propósito do google, além de poupar esforços do google com informações não relevantes, agir desta maneira, colabora para aumentar o índice de classificação.
Atributos Alt – Imagens
Para obter o tráfego do motor de busca a partir de suas imagens, faça uso da tag ALT. A tag ALT permite que você adicione uma descrição que representa aquela imagem, o que significa que sua imagem pode ser adequadamente indexada pelos mecanismos de pesquisa. Uma boa classificação no Google Image Search atrai muitos usuários para seu site, e a tag ALT é a melhor maneira de conseguir isso.
A Imagem acima destaca a importância da otimização de imagens, apareço com 2 resultados nas quatro primeiras classificações para a busca “consultor seo campinas”, por exemplo. OBS: 47 dias de trabalho na marca.
Palavras-Chave
Para otimizar as formas dos usuários encontrarem seu site através de buscas específicas, pulverize de forma natural as palavras-chave em seu conteúdo. Se você usar uma palavra-chave com muita freqüência em sua escrita, os motores de busca vão ignorar o site, pois se caracteriza super otimização, algo anti natural e forçado.
Usar poucas palavras chave, torna mais difícil a catalogação do conteúdo pelo motor de busca. Não é regra mas funciona, uma densidade de palavras-chave de cerca de três a cinco por cento do conteúdo escrito é ideal para os motores de busca, e lhe dará resultados muito melhores.
Compartilhamentos e Difusão da Mensagem
Uma pequena tática para melhorar o ranking de mecanismos de pesquisa de seus sites é garantir que seus visitantes tenham a  oportunidade de marcar seu site através de serviços de mídia social como o Facebook, Twitter, Linkedin. As ligações que os seus visitantes estabelecem com esses marcadores irão melhorar a sua posição no motor de busca por si só.
Compilações á Parte
Fique o mais longe possível dos “frames” e do AJAX. Estes programas/tecnologias, embora colaborem em alguns aspectos estéticos e chamativos do site, não permitem que rastreadores motor de busca leiam conteúdo dentro deles. Se você precisar fazer o uso de frames e execução de códigos exclusivos, que sejam cercados de conteúdo relevante para permitir que os robôs de busca cataloguem e inclua seu site para determinada busca.
Hoje, a maioria dos mecanismos de pesquisa são capazes de indexar o conteúdo flash em um site, mas não abuse dos conteúdos flash em seu site. O conteúdo flash simplesmente não indexa tão bem ou tão completamente quanto o HTML. Para uma classificação ideal de mecanismos de pesquisa, certifique-se de que seu site esteja principalmente em HTML simples e use apenas o Flash para conteúdo de bônus, que não seja essencial.
Consideração Final 
Como observado anteriormente, é importante gastar tempo na otimização de sites para mecanismos de pesquisa ao fazer um novo site ou atualizar um existente. Para que um site seja eficaz, ele tem que classificar bem nos motores de busca. Siga o conselho neste artigo para fazer alterações positivas em seu site que aumenta a sua classificação motor de busca.
Caso, venha a precisar de auxílio ou consultoria para a otimização do site de sua empresa ou negócio, mande um e-mail para: [email protected]
Este conteúdo Otimização de Sites | Dicas Básicas para Gerar Orçamentos e Vendas Online apareceu primeiro em Consultor SEO • Alan Cristian | Otimização de Sites .
0 notes
blogalexalmeida · 5 years ago
Text
Avaliação de links do Google: as melhores formas de fazer link building
Link building é uma das principais estratégias de SEO. Afinal, avaliar os links que uma página recebe — seja do próprio site, seja de domínios externos — é a forma que o Google adota para determinar sua relevância e autoridade na web.
Essa foi a grande revolução do buscador na web. Quando o Google surgiu, já existiam outros buscadores, mas ele se destacou por causa do PageRank: o algoritmo que revolucionou a avaliação de links do Google.
Enquanto outros buscadores ordenavam os resultados por ordem alfabética, o PageRank adotou uma classificação por relevância, com base nos links que uma página recebia. Com a evolução do algoritmo, ele passou a considerar não apenas a quantidade de links recebidos, mas a importância dos sites que apontavam para ela.
A partir daí, o Google passou a entregar uma experiência de busca muito superior aos seus concorrentes. E ninguém mais segurou o buscador, que continuou inovando com uma avaliação de links cada vez mais complexa para entregar melhores resultados.
Então, para saber como ter um melhor posicionamento no Google, é preciso entender essa complexidade de fatores da avaliação de links. É isso que vamos explorar agora neste artigo.
Quais são os principais fatores na avaliação de links do Google?
Em uma estratégia de link building, você sabe em quais sites deve focar para receber links de qualidade? Para entender isso, trouxemos aqui os 12 principais fatores que o Google considera na avaliação de links para fazer um rankeamento justo. Acompanhe!
1. Links de outros sites
No link building, você pode utilizar tanto links externos (de outros sites) quanto links internos (do seu próprio site). Todos eles servem para mostrar ao Google quais são os seus conteúdos mais relevantes.
Mas é preciso esclarecer que, embora os dois tipos de links tenham importância e devam estar na sua estratégia, a linkagem externa conta mais pontos para o rankeamento.
Basicamente, o Google entende que os links internos representam o site falando bem de si mesmo, enquanto os externos mostram que você realmente é uma referência na visão dos outros sites, o que é muito mais relevante. Faz sentido, não é?
2. Popularidade das páginas
Na avaliação de links do Google, um dos pontos mais importantes é a popularidade das páginas. Isso significa que, quanto mais links uma página recebe, mais popular ela se torna e mais relevante o Google a considera. E, quanto mais links de páginas populares você recebe, mais autoridade ganha.
Afinal, se tanta gente referencia um conteúdo, ele deve ser bom, não é mesmo? Esse é o princípio básico do PageRank, com o qual ele foi lançado. Essa lógica foi extraída das citações acadêmicas: um autor que recebe várias menções é uma referência na sua área. 
Com essa lógica, porém, o buscador abriu as portas para o black hat, que gerava links indiscriminadamente apenas para ter um grande volume de menções. Por isso, o algoritmo evoluiu e hoje considera muitos outros fatores além da quantidade de links que uma página recebe. Ainda assim, esse fator continua sendo determinante para o rankeamento.
3. Posicionamento dos links na página
Outro ponto importante que o Google analisa ao avaliar os links de uma página é onde eles estão inseridos.
Primeiramente, os links que estão posicionados na área de conteúdo principal valem mais. O Google entende que eles foram inseridos por uma pessoa, com uma intenção editorial, o que demonstra o seu valor.
Por outro lado, aqueles que estão no cabeçalho, no rodapé ou nas colunas laterais não ganham muitos pontos, pois são inseridos automaticamente via CMS e costumam se repetir em várias páginas do site.
Ainda em relação ao posicionamento, os links que estão localizados mais acima no conteúdo também ganham mais relevância.
Para dar mais visibilidade a um link, você provavelmente escolheria colocá-lo no primeiro parágrafo de um texto e não no fim, não ��? Então, é isso também que o Google entende: se ele está no começo, é mais importante.
Então, aí vai uma dica para os redatores: preste atenção para que o primeiro link que você coloca em um artigo de blog seja relevante, e busque posicioná-lo logo nas primeiras linhas.
Além disso, saiba que, se esse link aparece mais de uma vez na página, apenas a primeira aparição conta para o Google. Então, não adianta encher a página de links repetidos, ok?
4. Relevância do texto-âncora
Texto-âncora é o texto visível e clicável de um link. Ele costuma dar pistas sobre o assunto da página linkada, tanto para o usuário quanto para o buscador. Por isso, esse sempre foi um dos principais fatores do algoritmo do Google na avaliação de links.
Digamos, por exemplo, que você tenha uma loja de móveis e venda um sofá de três lugares. Então, o texto-âncora do link para a página de venda desse produto pode ser “sofá de três lugares”.
Esses termos são relevantes para a página que recebeu o link, pois indicam o seu assunto e reforçam a sua autoridade para essa palavra-chave. Quando isso acontece, então, ela ganha pontos com o Google.
Porém, se o link tem um texto-âncora irrelevante para o conteúdo da página, ela pode perder valor. Por exemplo: se você usa “clique aqui” ou “cama box” no link para uma página que vende sofá, o usuário pode ser direcionado para uma URL que não queria visitar e logo abandona o site. Isso mostra ao Google que aquele link não é útil.
Isso não quer dizer, porém, que você deva correr atrás de vários links com a correspondência exata da palavra-chave para a qual deseja rankear. Isso pode ser entendido como spam!
O Google sabe identificar as práticas maliciosas, mas também percebe quando o ganho de links acontece com naturalidade e com textos-âncora que se encaixam no conteúdo. Sem forçar a barra, ok?
Dica da Editora:
Marketing Digital: o que é, estratégias e TUDO sobre marketing online
Análise SWOT ou Matriz FOFA: o que é, como fazer e modelo grátis!
O que é Marketing: conceito, objetivos e TUDO sobre [2019]
5. Diversidade de domínios
Sabia que é melhor ter 20 links de domínios diferentes do que 100 links do mesmo site? 
Páginas que recebem links de domínios variados têm mais valor que aquelas que são linkadas várias vezes por um site apenas. Isso significa que a sua página é popular na web e conquistou a confiança de vários sites, não somente de um.
Portanto, ao planejar a sua estratégia de link building, procure diferentes parceiros que diversifiquem o perfil de links do seu site.
6. Confiabilidade do site
O Google gosta de sites confiáveis. Eles são aqueles domínios já maduros, com conteúdos relevantes, de marcas que são referências para o público. Portais de notícias ou de grandes empresas são alguns exemplos.
Eles ajudam o buscador a construir uma web mais segura. Aos olhos do Google, esses sites nunca vão criar links para páginas de má qualidade. Por isso, quem se relaciona com eles também ganha a confiança do Google. Portanto, quanto mais próximo de sites confiáveis você estiver, mais confiável o seu site será considerado.
Ok, talvez você não receba um link do site da Nasa, por exemplo. Mas, se a Nasa linka para um site, e esse site linka para o seu, você também ganha a confiança do Google. E, assim, a sua página ganha mais valor na avaliação de links.
Porém, a mesma lógica vale para sites de má qualidade. Quanto mais próxima a sua página estiver deles (principalmente com link direto), mais baixa será a sua reputação aos olhos do Google.
Vale aqui fazer uma ressalva: alguns especialistas em SEO discutem se os links de má qualidade realmente prejudicam o posicionamento. Para eles, o Google simplesmente ignora os sites que não seguem suas diretrizes. Por isso, eles não transmitiriam seu link juice negativo para as páginas linkadas. Mas não existe consenso quanto a isso, ok?
7. Contexto do link
Um artigo de blog sobre futebol que recebe link de um site de esportes ganha pontos com o Google. Porém, se esse artigo é citado em um site de culinária, ele não ganha tanta relevância. 
Por que isso acontece? Porque o Google entende que uma pessoa interessada em futebol provavelmente não está a fim de conhecer novas receitas de comida (ao menos não naquele momento).
O algoritmo do buscador é inteligente o suficiente para identificar o contexto em que o link está inserido e perceber se ele tem a ver com o conteúdo da página linkada. Se isso acontecer, esse link transmite mais valor, já que mantém o usuário dentro do tema no qual ele está interessado.
8. Atualização da página
O Google quer entregar o resultado mais atualizado possível ao usuário. Por isso, uma das formas de avaliar a relevância de uma página é analisar quão recentes são os conteúdos que apontam para ela. Isso quer dizer que links em conteúdos frescos — recém-lançados ou atualizados recentemente — tendem a transmitir mais valor que sites obsoletos.
Mas cabe esclarecer que páginas obsoletas não são sinônimo de páginas antigas. Estamos falando daqueles conteúdos que estão esquecidos no site, com informações ultrapassadas e sem atualizações. Dessa forma, eles não entregam mais valor ao visitante.
Já os conteúdos antigos podem ser extremamente relevantes, dependendo do tema, desde que sejam revisados periodicamente, para entregar sempre informações corretas e atualizadas.
Além disso, um dos critérios de avaliação do Google é a taxa de novos links que a página recebe. Se essa taxa aumenta bastante em um curto período, o buscador entende que provavelmente ela é nova ou sofreu uma atualização recente.
Por isso, elas tendem a ganhar mais relevância que as páginas que não estão recebendo mais novos links (o que provavelmente significa que elas estão ficando obsoletas).
9. Arquivos robots
O buscador só pode avaliar URLsb que permitam o seu rastreamento e indexação. Porém, na avaliação de links do Google, o robô pode se deparar com páginas que impedem esse trabalho. Isso pode acontecer de duas formas:
o arquivo robots.txt bloqueia o rastreamento;
a tag robots utiliza a diretiva “noindex”, que impede a indexação da página.
Portanto, se você quer que o Google considere para o rankeamento aqueles links externos que você conquistou, eles devem liberar o acesso do robô.
10. Autoridade de links “nofollow”
Quem usa a tag nofollow não quer transmitir link juice para a página linkada. Essa tag funciona como uma parede para o robô, que deve parar ali o rastreamento e seguir por outro caminho. Ela costuma ser usada, por exemplo, para evitar a prática de spam na caixa de comentários dos blogs.
Portanto, entende-se que a tag nofollow não transmite autoridade de uma página para outra. Porém, alguns estudos mostram que esses links podem transmitir valor em alguns casos (não tanto quanto os links dofollow, mas ainda assim com alguma relevância).
Provavelmente o Google analisa o contexto desses links. Se eles estão em sites de autoridade, alinhados ao conteúdo, com textos-âncora coerentes — ou seja, tudo certinho! —, é possível que eles tenham mesmo algum valor.
11. Menções à marca (sem link)
Estamos falando de avaliação de links do Google, mas as menções sem link também contam nessa análise, sabia?
Quando um site de autoridade cita uma marca, o Google é capaz de associar essa menção à página da empresa. Portanto, uma das formas de avaliar a relevância de uma página é também analisar as menções que ela recebe de outros sites, mesmo que elas não tenham link.
12. Links a partir da página
Até agora, falamos da análise de referências que uma página recebe. Mas os links que ela insere no seu conteúdo, também contam? Sim, eles também entram nessa avaliação.
Aqui vale a mesma lógica do relacionamento com sites confiáveis. Se você está perto deles, o Google entende que provavelmente você oferece um conteúdo de valor para o usuário. Então, incluir links para sites de autoridade aumenta a relevância da página.
Por outro lado, inserir links para sites de má qualidade pode prejudicar a sua reputação. Afinal, se você acha que vale a pena inserir esse tipo de link no seu site, provavelmente você não está preocupado em oferecer uma boa experiência ao usuário. E, com isso, perde pontos com o Google.
É importante notar que esses fatores que citamos não são regras rígidas. Eles interagem entre si, superam um ao outro e podem ser atualizados a qualquer momento, já que o Google está sempre aprimorando seu algoritmo. Além disso, eles são frutos de testes e experimentos de especialistas em SEO e nem todos são reconhecidos pelo buscador.
Por isso, vale a pena testar esses princípios na sua estratégia de link building, no seu mercado. Se você perceber, por exemplo, que links de páginas antigas estão dando mais retorno que sites novos, invista nisso! O que importa mesmo é o desempenho desses fatores na prática.
Agora, para aumentar ainda mais sua visibilidade online e ter melhores resultados, aprenda tudo sobre SEO no nosso guia completo!
Powered by Rock Convert
Avaliação de links do Google: as melhores formas de fazer link buildingpublicado primeiro em https://rockcontent.com/blog/
0 notes
andre19blog-blog · 7 years ago
Text
Como Fazer Seo em Web 2.0
Temos que a grande parte das pessoas fazem seus blogs principais no Wordpress para ter uma renda extra com um bom treinamento de seo. Mas será que funcionária por exemplo em uma Web 2.0? Como fazer seo em uma Web dessas e teria alguma vantagem?
Essa plataforma Blogger pode nos oferecer boas opções em seo podendo fazer com que nossos projetos decolem. O titulo do Blogger tem um ótimo potencial para se colocar palavras chaves que posicionam devido ao valor dessa plataforma.
Também possuem tags que servem para discriminar suas palavras chaves e descrever o conteúdo do texto. Nas opções também podemos citar as URLs customizadas.
As urls também são um grande fator de seo pois devem ter palavras chave assim como se faz em blogs da plataforma Wordpress. Sempre tenha em mente que as urls devem seguir um certo padrão. Por exemplo não use a mesma palavra chave em várias urls. Caso queira muda las use a opção link permanente.
As heading tags nada mais são que as famosos cabeçalhos que definem os assuntos do site. O cabeçalho principal sempre terá a principal palavra chave de seu blog por qual ele será procurado no Google.
Também é de extrema importância que os cabeçalhos sigam uma autoridade de assuntos. Como se fosse mesmo no Wordpress faça um padrão correto de h1, h2, h3. Não deixando que um atropele o outro pois um padrão correto é importante aos olhos do Google.
Na questão de imagens você também poderá lhes dar uma inscrição. Ou seja os atributos que fazem com que o Google leia seu artigo de maneira correta. Esses atributos possuem os nomes de alt e Title em imagens. Um fará o nome da foto e o outro a leitura que o Google fará da foto.
Outras opções que se fazer um site pelo Blogger são:
Se permitir Robots.txt personalizado
Tags de robos personalizadas
Paginá não encontrada
Redirecionamentos personalizados
Para tudo isso um site no Blogger também precisa ter sinais sociais que significa que as pessoas gostam de seu conteúdo. Esse tipo de site também pode aceitar backlinks para que cresça e seu backlink enviado também é muito usado em fortalecer sites Wordpress.
0 notes
Text
10 Tarefas básicas de SEO para quem acabou de criar um site
Ao criar um site ou um blog, principalmente quando você acabou de cria-lo é muito importante que você saiba trabalhar e conheça bem quais são as tarefas básicas de SEO que deverá ser aplicado nos artigos que serão publicados em suas páginas, pois eles trazem ótimos benefícios para o seu site.
Para quem ainda não conhece, o sistema do SEO é responsável por fazer com que o seu site seja um dos destaques nos site de buscas, como por exemplo, o Google, dentre tantos outros sites e blogs que se tem por ai nos dias de hoje.
Trabalhando esse tipo de otimização mais pessoas irão acessar a sua página e com isso sua rentabilidade e o sucesso da sua página será bem mais certeiro, mas vale lembrar que essa técnica é para destacar seu site, nas pesquisas feitas, mas para fazer com o leitor vá sempre a sua página você deverá primeiramente desenvolver um bom conteúdo e oferecer bons produtos a eles.
Caso você esteja interessado nesse assunto, pois está a fim de criar o seu site, ou então até mesmo já criou é quer aprender essas técnicas, continue nos acompanhando aqui em nosso artigo, pois aqui iremos lhe apresentar as 10 tarefas básicas de SEO para quem acabou de criar um site.
SEO
Como acabamos de falar acima, existe uma grande importância em você que acabou de criar o seu site, saber quais são as tarefas básicas de SEO, pois elas irão fazer com que a sua página seja bem mais visitada do que se não trabalhasse esse tipo de otimização.
Pensando em você que está precisando conhecer quais são as essas tarefas básicas, para que desta forma você consiga fazer com que várias pessoas acessem o seu site, por ele ser um dos destaques nos sites de buscas, iremos lhe apresentar quais são essas tarefas básicas que você precisa saber. Seguem logo abaixo:
1 – Otimização de títulos e de descrições
Essa é uma das tarefas básicas muito importantes, pois o título e a descrição é praticamente o resumo do que o seu site tem para oferecer aos seus leitores.
Ter um bom título e uma boa descrição do seu site é o que irá fazer com que a pessoa clique no link da sua página ou então nos links que estão acima ou então ou abaixo do seu, por isso orientamos que você desenvolva bem essa parte do seu site.
O título e a descrição do seu site é o seu representante na busca no Google, por isso eles deverão ser únicos e exclusivos, não deve ser spamado e ele irá sempre ajudar no ranking do seu site, por isso se você trabalhar as palavras chaves nessa parte, o Google irá saber se o seu site é mais relevante ou não ao tipo de busca que a pessoa esteja fazendo.
2 – Otimização das imagens
Primeiramente você precisa saber que as fotos tem um limite de tamanho a qual é aceitável para serem adicionadas em seu site, isso para que ela não fique nem muito pequena e também nem muito grande.
Uma dica muito importante é que você nomeie corretamente essa imagem, como por exemplo, se ela chamar receitas para bolo, é interessante que você escreva da seguinte forma, receitas-de-bolo.jpg.
Outro item muito importante que você deve saber trabalhar na otimização de imagem, são os dois atributos seguinte, o alt (texto alternativo) e o title (título), ambos são campos que aparecem para você preencher quando você vai adicionar a foto, por isso não deixe de fazer essa parte.
Trabalhe bem o tamanho da imagens, pois sabemos muito bem de que imagens muito pesadas, ao serem abertas em celulares, principalmente quando usamos uma internet 3G, sabemos que levará um tempo para carregá-las e isso pode fazer com que o leitor desista de tentar abrir o seu site ou blog.
3  – Usar o tagueamento correto
Geralmente as pessoas que estão começando a escrever, elas escrevem um texto totalmente corrido e isso não fica legal para sites e blogs, pois essa forma de escrita irá dificultar um pouco a leitura da pessoa.
O ideal para que você consiga atrair a atenção das pessoas para o conteúdo que foi postado em sua página, o recomendado é que você escreva de forma de perguntas e respostas, pois essa forma irá chamar mais a atenção dos leitores da sua página.
4  – Conteúdo único
Todos os conteúdos que forem postados em seu site deverão ser único, afinal você não pode apenas ficar copiando informações de outras páginas e colando na sua como se esse trabalho estivesse sido feito por você e vale lembrar de que cada texto deve ter no mínimo 300 palavras.
5 – Sitemap e Robots.txt
Esses são dois arquivos que as pessoas geralmente não têm o costume de ver, mas eles são muito importantes para a busca no Google e também em outros sites, que são os Robots,txt e o Setemap.xml.
O Robots.txt  tem a função de armazenar arquivos em seu site, por isso você tem que coloca-lo na home do seu site, já o Setemap.xml, ele é gerado automaticamente quando você faz os plugins do WordPress  ou outras ferramentas responsáveis pela a criação do site, onde ele é o resumo de todas as páginas do seu site.
6 – Google webmasters e Google analytics
O Google webmasters é uma ferramenta do Google o qual ele é o canal para levar as informações para o dono do site, como algum tipo de punição, ou alguma informação sobre vírus, por isso entre no site de google.com/webmasters e cadastre o seu site.
Outra ferramenta que o Google oferece e que é gratuita e o google analytics, o qual é responsável por mostrar o comportamento das pessoas quando elas visitam o seu site e través disso você saberá quantas pessoas acessaram a sua página vindo do Google, do Facebook ou até mesmo da sua campanha.
Com essa ferramenta você também saberá quais são os conteúdos mais acessados em sua página, o tempo que a pessoa ficou em sua página e com isso você saberá enxergar melhor onde realmente você deve investir.
7 – Urls amigáveis
É preciso que o seu site esteja preparado para seja feito algumas mudanças sem seis URL e utilizando essa ferramenta as pessoas irão entender o que elas vão encontrar em seu site, antes mesmo de acessa-lo.
8 – Tempo de carregamento do site
A velocidade do seu site é muito importante e ele precisa ser rápido, mas isso não quer dizer que nele não deverá ter nenhuma imagem, até porque ele também precisa ser bem aparente, por isso tenha imagens mais leves e uma boa estrutura em seu site, mas caso você não saiba como fazer isso, acesso o http: //bit.li/velocidade-pagina, pois aqui você encontrará a forma de trabalhar a velocidade da sua página.
9 – Site com www ou sem www
É importante que você saiba como é melhor para que o seu site seja acessível, com o www ou sem ele, por isso é interessante que você veja como o Google está fazendo o redirecionamento, se com ambos você consegue chegar em sua página ou não, caso isso não esteja acontecendo você optar por programar para que o seu site se acessado por apenas uma dessas opções.
10  – Criar um blog
É muito interessante que você em seu site uma área de blog, onde ela não precisa necessariamente se chamada assim, mas pode vir também como novidades ou noticias.
Tendo essa área você terá um local para colocar um conteúdo novo, ou até mesmo um produto, o que fará com que o seu site sempre ofereça novidades aos seus leitores.
Clique aqui pra mais informacoes... 
0 notes
seoproexpert · 4 years ago
Photo
Tumblr media
Fantástico!!! Novo post foi publicado: https://seopro.expert/blog/como-criar-robots-txt/
Como Criar Robots.txt Perfeito Para Seu SEO
Você já ouviu falar em robots.txt?
Gostamos de facilitar a vida de nossos leitores e clientes…
Por isso vamos mostrar alguns métodos interessantes sobre como criar um robots txt de forma precisa e rápida.
A técnica que vou te apresentar é uma das minhas favoritas. É um atalho SEO legítimo que você pode começar a usar de imediato e facilmente.
Irá melhor seu SEO fazendo uso de uma parte essencial de todo site que não costuma ser abordada. E ainda por cima fácil de usar.
É o arquivo robots.txt (também conhecido como protocolo ou padrão de exclusão de robôs).
Muitas pessoas ainda nem conhecem esse tipo de arquivo simples… mas que faz uma grande diferença em seu projeto de seo
Esse simples arquivo de texto criado no bloco de notas (.txt) é parte de todo site na internet.
É feito para trabalhar com ferramentas de busca, mas é, incrivelmente, um upgrade para seu SEO.
Já tive muitos clientes tentando de tudo para melhorar seus SEO. Quando faço uma edição do arquivo de texto (robots.txt) , eles custam a acreditar que algo tão simples possa mudar o jogo.
Entretanto, existem muitos métodos de melhorar SEO que não são difíceis ou tomam tempo, e esse é um deles.
Você nem precisa ter nenhuma experiência técnica para aproveitar as vantagens do robots.txt. Se você tem acesso ao código-fonte do seu site, você pode aproveitar e fazer algumas alterações que vamos te explicar aqui.
É só seguir comigo quando estiver pronto…
Vou te mostrar como modificar o seus arquivos robots.txt para que as ferramentas de busca passem a amar o seu site ainda mais.
Uma forma eficiente de gerar tráfego para seu site a longo prazo é usando SEO. Se você quer aumentar o tráfego do seu site e atrair mais usuários qualificados e clientes, clique aqui e receba o Guia Completo de SEO.
Veja também: Como aumentar a velocidade de seu site
Por que o arquivo robots.txt é importante?
É sempre bom saber porque o arquivo robots.txt tem tanta importância.
Também conhecido como protocolo ou padrão de exclusão de robôs, é um arquivo de texto que avisa aos robôs da internet (quase sempre ferramentas de busca) quais páginas do seu site rastrear e quais não rastrear.
Tudo isso feito de forma simples!
Digamos que uma ferramenta de busca (um bot do google por exemplo) está prestes a visitar um site. Antes de chegar na página procurada, vai checar o arquivo robots.txt para instruções do que ele pode fazer em seu site.
Existem tipos diferentes de arquivos robots.txt, vamos saber mais sobre cada um.
Por exemplo, a ferramenta de busca vai encontrar este exemplo de arquivo:
Esse é o esqueleto básico de um arquivo robots.txt.
O asterisco depois de “user-agent” indica que o arquivo robots.txt se aplica a todo tipo de robô da internet que visita o site.
A barra depois de “Disallow” informa ao robô para não visitar nenhuma das páginas do site.
Talvez você esteja se perguntando porque alguém iria querer impedir a visita de robôs da internet a seus sites.
Afinal de contas, um dos principais objetivos de SEO é atrair os mecanismos e ferramentas de buscas para o seu site e aumentar o seu ranqueamento.
E é aí que o secreto desse atalho de SEO aparece.
É possível que você tenha muitas páginas em seu site, certo? Mesmo que você ache que não, dê uma checada. Provavelmente você irá se surpreender.
Se uma ferramenta de busca rastrear o seu site, vai rastrear cada uma das páginas. Até mesmo sua página de login administrativo (acredito eu que você não irá querer isso).
E se você tem muitas páginas, o robô dos mecanismos de pesquisa vai tomar mais tempo para verificar o seu site, o que pode ter um efeito negativo no seu ranqueamento.
Isso é porque o Googlebot (o robô da ferramenta de busca do Google) tem um “limite de rastreamento”.
Esse limite pode ser resumido em duas partes. E a primeira é o limite da taxa de rastreamento. Veja aqui a explicação do Google.
A segunda parte é demanda de rastreamento.
Limite de rastreamento é, basicamente, o “número de URLs que o Googlebot pode e quer rastrear”.
O ideal é auxiliar o Googlebot a gastar o seu limite de rastreamento da melhor maneira possível. Em outras palavras, rastrear as suas páginas de maior valor.
Existem alguns fatores que irão, de acordo com o Google, “afetar negativamente o rastreamento e indexação de um site”. Mas vamos focar no arquivo.
Vamos voltar para o robots.txt…
Se você criar a página robots.txt corretamente, você pode avisar aos robôs das ferramentas de busca (e especialmente ao Googlebot) quais páginas ele deve evitar.
Considere as implicações.
Se você avisa aos robôs das ferramentas de busca que elas devem rastrear apenas seu conteúdo mais útil, os robôs irão rastrear e indexar somente esse conteúdo.
Veja aqui como o Google explica:
“É bom evitar sobrecarregar o seu servidor com o rastreador do Google ou desperdiçar limite de rastreamento com páginas sem importância do seu site.”
Ao usar robots.txt da maneira correta, você pode avisar aos robôs das ferramentas de busca como gastar bem o limite de rastreamento. E é por isso que o arquivo robots.txt é tão útil no contexto de SEO.
Curioso para conhecer mais do poder do robots.txt? Ótimo! Vamos falar mais sobre abaixo.
Continue…
(aproveite e não esqueça de deixar seu comentário abaixo se este artigo está sendo útil pra você).
Encontrando o seu arquivo robots.txt
Existe um jeito fácil de dar só uma olhada rápida em seus arquivos robots.txt.
E é um método que funciona para qualquer site. Dá para espiar arquivos de outros sites e ver como estão fazendo.
É só digitar a URL base do site na barra de endereços do navegador (como seopro.expert, facebook.com, etc.) e adcionar /robots.txt ao final.
Uma das três situações seguintes vai acontecer:
1) Você vai achar um arquivo robots.txt.
2) Você vai achar um arquivo vazio
3) Você vai achar um 404.
Verifique o arquivo robots.txt do seu próprio site.
Simples: endereçodoseusite.com.br/robots.txt
Se encontrar um arquivo vazio ou um 404, é bom consertar.
Caso encontre um arquivo válido, está com as configurações padrões de quando o seu site foi criado.
Gosto especialmente desse método de procurar pelos arquivos robots.txt em outros sites. Depois de aprender as técnicas desse arquivo, esse pode ser um exercício vantajoso.
Agora vamos ver como modificar os seus arquivos robots.txt.
Encontrando o seu arquivo robots.txt
Depois de inserir o seu robots, a partir daqui vai ficando mais tranquilo!
O próximo passo vai depender de você ter ou não arquivo robots.txt. (Confira usando o método descrito acima).
Caso não tenha um, vai precisar criar do zero. Abra um editor de texto simples, como o Notepad/bloco de notas (Windows) ou TextEdit (Mac).
Use apenas um editor de texto simples.
Caso use programas como o Microsoft Word, códigos adicionais podem ser inseridos no texto.
Editpad.org é uma ótima opção gratuita, e é essa que vou usar neste artigo.
De volta ao robots.txt. Se você tem um arquivo robots.txt, vai precisar localizá-lo no diretório central do seu site.
Caso não esteja acostumado a buscar um código-fonte, talvez tenha um pouco de dificuldades em localizar a versão editável do seu arquivo robots.txt.
Normalmente, você vai encontrar o seu diretório central entrando no site da sua conta de servidor e indo até o gerenciador de arquivos ou a seção FTP de seu site ( em muitos casos você encontra entrando em public_html, mas isso pode variar de servidor para servidor).
Você verá algo parecido com isto:
Para começar é bem simples. Encontre e abra os seus arquivos robots.txt para editá-los. Delete todo o texto, mas mantenha os arquivos.
Atenção: caso esteja usando WordPress, talvez veja um arquivo robots.txt ao ir em seusite.com/robots.txt, mas não vai encontra-lo em seus arquivos.
Isso é porque o WordPress cria um arquivo robots.txt virtual caso não existe robots.txt no diretório central.
Caso isso aconteça, você vai precisar criar um novo arquivo robots.txt.
Criando um novo arquivo robots.txt
Você pode criar um novo arquivo robots.txt usando o editor de texto simples de sua preferência (e somente um editor de texto simples como o bloco de notas irá funcionar bem).
Se você já tem um arquivo robots.txt, certifique-se de deletar o texto (mas não o arquivo).
Primeiro, você vai precisar conhecer melhor a sintaxe usada num arquivo robots.txt.
Google tem um boa explicação aqui de algumas noções básicas de termos robots.txt.
Vou mostrar como criar um simples arquivo robots.txt, depois, vamos aprender como customizá-lo para SEO.
Para começar, inicie configurando o termo user-agent. Vamos configurar para que possa se aplicar a todos os robôs da internet.
Para fazer isso, é só usar um asterisco depois do termo user-agent, assim:
A seguir, na linha abaixo do “user-agente:* digite “Disallow:”, e mais nada depois disso.
Já que não há nada depois de “disallow”, os robôs da internet vão rastrear todo o seu site. Por enquanto, tudo em seu site está ao alcance deles.
O seu arquivo robots.txt deve estar assim no momento depois de toda configuração feita até agora:
Parece muito simples, mas essas duas linhas já estão fazendo muito.
Você também pode linkar para o seu sitemap XML, mas não é obrigatório. Caso queria, é só digitar:
Acredite ou não, mas isso é um arquivo básico de texto robots.txt.
Vamos avançar para o próximo nível e transformar esse pequeno arquivo em uma turbina SEO.
Otimizando robots.txt para SEO
Como você otimiza robots.txt depende do conteúdo que você tem em seu site. Existem mil maneiras de tirar vantagens de robots.txt.
Vou falar das mais comuns aqui.
Continue aprendendo…
(Tenha em mente que você não deve usar robots.txt para bloquear páginas de ferramentas de busca. Isso está proibido.)
Um dos melhores usos de arquivo robots.txt é a maximização do limite de rastreamento de ferramentas de busca, ao avisá-las para ignorar partes do seu site que não são vistas pelo público.
Por exemplo, se você visitar o arquivo robots.txt para este site (seopro.expert/blog), vai ver que a página de login não está ao alcance dos mecanismos (wp-admin).
Já que essa página é usada apenas para entrar no site, os robôs não precisam perder tempo com ela.
(Caso você tenha WordPress, pode usar essa mesma linha para desabilitar.)
Você pode usar um diretório (ou comando) parecido para impedir robôs de rastrear páginas específicas. Depois de “disallow”, digite a parte da URL que vem depois de .com.br. Coloque-a entre duas barras.
Caso não queira que um robô rastreie a página http://seusite.com.br/pagina/, é só  digitar isto:
Está em dúvida sobre quais tipos de páginas excluir da indexação? Observe estes exemplos comuns:
Conteúdo duplicado necessário. Conteúdo duplicado não ajuda (mas também não atrapalha, é ignorado, mas existem alguns casos em que é necessário e aceitável.
Por exemplo, se você tem uma versão para impressão de uma página, tecnicamente, você tem conteúdo duplicado. Nesse caso, é só avisar aos robôs para não rastrear uma dessas versões (geralmente, a que está pronta para impressão).
Isso também vale para páginas de teste que possuem o mesmo conteúdo, mas designs diferentes.
Páginas de agradecimento (de obrigado). Páginas de agradecimento ou conhecidas como página de “obrigado”, são algumas das favoritas dos profissionais de marketing porque apontam para um novo contato.
…Correto?
Na verdade, algumas páginas de agradecimento são acessíveis pelo Google. Com isso, as pessoas podem acessar essas páginas sem passar pelo processo de captura de contatos,  o que não é uma boa notícia.
Ao bloquear as suas páginas de agradecimento (páginas de “obrigado”), você garante que apenas contatos qualificados estejam vendo as páginas.
Digamos que a sua página de agradecimento esteja no link: https://seusite.com/obrigado/. Em seu arquivo robots.txt, o bloqueio dessa página fica assim:
Já que não existem regras universais para quais páginas desabilitar, o seu arquivo robots.txt será único em seu site.
É bom conhecer também esses outras opções de configuração como estas: noindex e nofollow.
Sabe esse config disallow que estamos usando? Não impede a página de ser indexada.
Na teoria, você pode desabilitar uma página, mas ela ainda pode ser indexada.
De maneira geral, é melhor evitar.
Por isso que você precisa do diretivo noindex. Trabalha com o diretivo disallow para garantir que robôs não visitem ou indexem certas páginas.
Caso não queira indexar certas páginas (como as preciosas páginas de obrigado), você pode usar os diretivos disallow e noindex:
Agora, essa página não vai aparecer nas SERPs.
Por último, o diretivo nofollow. É o mesmo que um link nofollow. Resumindo, avisa aos robôs para não rastrear os links de uma página.
Mas o diretivo nofollow tem que ser implementado de outro jeito, porque não faz parte do arquivo robots.txt.
Entretanto, o diretivo nofollow ainda instrui robôs da internet, então parte do mesmo conceito. A única diferença é onde está localizado.
Encontre o código-fonte da página a ser modificada e certifique-se de  estar entre as tags <head>.
Depois, copie a linha:
<meta name=”robots” content=”nofollow”>
Vai ficar assim:
Certifique-se de não estar colocando essa linha entre outras tags além das tags <head>.
Essa é uma outra opção para páginas de “obrigado”, já que robôs da internet não irão rastrear links para páginas que chamam novos contatos ou outros conteúdos exclusivos.
Caso queira adicionar os diretivos noindex e nofollow, use esta linha de código:
<meta name=”robots” content=”noindex,nofollow”>
Os robôs da internet verão os dois diretivos ao mesmo tempo.
Teste Final
Por último, teste o arquivo robots.txt para checar se tudo está funcionando da maneira perfeita.
O Google tem uma ferramenta de teste gratuita como parte das ferramentas de Webmaster.
Primeiro, entre em sua conta Webmasters clicando em “Entrar” no canto superior direito.
Selecione a sua propriedade (o seu site) se necessário.
Depois basta clicar neste link:
https://www.google.com/webmasters/tools/robots-testing-tool
(aqui você deve selecionar a propriedade e ele irá fazer o rastreamento)
Você vai ver robots.txt do seu site.
Caso tenha algum código na caixa ou algum erro, delete e coloque o seu novo arquivo robots.txt em seu servidor de acordo com as orientações do google (o google irá mostrar um popup informando os passos).
Veja mais detalhes aqui
Depois de reenviar, Clique “Test” na parte inferior direita da tela.
Se o texto “Teste” mudar para “Permitido”, o seu robots.txt é válido.
Agora, você está armado com um arquivo poderoso, logo mais verá um aumento na visibilidade de busca.
Conclusão
Ao configurar o seu arquivo robots.txt da maneira correta, você não está só melhorando o seu SEO. Também está ajudando seus visitantes.
Se robôs dos mecanismos de busca gastaram o limite de rastreamento de maneira correta, eles vão organizar e expor o seu conteúdo nas SERPs da melhor maneira possível, o que significa que você irá ficar mais visível.
Também não é preciso muito esforço para configurar seu arquivo robots.txt. Geralmente, é apenas uma configuração, e você pode fazer as outras pequenas mudanças quando necessário.
Se está começando o seu primeiro ou seu décimo site, o uso de robots.txt faz uma grande diferença. Recomendo experimentar caso ainda não tenha feito isso antes.
Gostou do nosso artigo? Deixe seu comentário abaixo e aproveite e nos siga nas redes sociais:  Facebook, Twitter, Pinterest e Instagram
0 notes
marketingcomcaio · 5 years ago
Text
Avaliação de links do Google: as melhores formas de fazer link building
Link building é uma das principais estratégias de SEO. Afinal, avaliar os links que uma página recebe — seja do próprio site, seja de domínios externos — é a forma que o Google adota para determinar sua relevância e autoridade na web.
Essa foi a grande revolução do buscador na web. Quando o Google surgiu, já existiam outros buscadores, mas ele se destacou por causa do PageRank: o algoritmo que revolucionou a avaliação de links do Google.
Enquanto outros buscadores ordenavam os resultados por ordem alfabética, o PageRank adotou uma classificação por relevância, com base nos links que uma página recebia. Com a evolução do algoritmo, ele passou a considerar não apenas a quantidade de links recebidos, mas a importância dos sites que apontavam para ela.
A partir daí, o Google passou a entregar uma experiência de busca muito superior aos seus concorrentes. E ninguém mais segurou o buscador, que continuou inovando com uma avaliação de links cada vez mais complexa para entregar melhores resultados.
Então, para saber como ter um melhor posicionamento no Google, é preciso entender essa complexidade de fatores da avaliação de links. É isso que vamos explorar agora neste artigo.
Quais são os principais fatores na avaliação de links do Google?
Em uma estratégia de link building, você sabe em quais sites deve focar para receber links de qualidade? Para entender isso, trouxemos aqui os 12 principais fatores que o Google considera na avaliação de links para fazer um rankeamento justo. Acompanhe!
1. Links de outros sites
No link building, você pode utilizar tanto links externos (de outros sites) quanto links internos (do seu próprio site). Todos eles servem para mostrar ao Google quais são os seus conteúdos mais relevantes.
Mas é preciso esclarecer que, embora os dois tipos de links tenham importância e devam estar na sua estratégia, a linkagem externa conta mais pontos para o rankeamento.
Basicamente, o Google entende que os links internos representam o site falando bem de si mesmo, enquanto os externos mostram que você realmente é uma referência na visão dos outros sites, o que é muito mais relevante. Faz sentido, não é?
2. Popularidade das páginas
Na avaliação de links do Google, um dos pontos mais importantes é a popularidade das páginas. Isso significa que, quanto mais links uma página recebe, mais popular ela se torna e mais relevante o Google a considera. E, quanto mais links de páginas populares você recebe, mais autoridade ganha.
Afinal, se tanta gente referencia um conteúdo, ele deve ser bom, não é mesmo? Esse é o princípio básico do PageRank, com o qual ele foi lançado. Essa lógica foi extraída das citações acadêmicas: um autor que recebe várias menções é uma referência na sua área. 
Com essa lógica, porém, o buscador abriu as portas para o black hat, que gerava links indiscriminadamente apenas para ter um grande volume de menções. Por isso, o algoritmo evoluiu e hoje considera muitos outros fatores além da quantidade de links que uma página recebe. Ainda assim, esse fator continua sendo determinante para o rankeamento.
3. Posicionamento dos links na página
Outro ponto importante que o Google analisa ao avaliar os links de uma página é onde eles estão inseridos.
Primeiramente, os links que estão posicionados na área de conteúdo principal valem mais. O Google entende que eles foram inseridos por uma pessoa, com uma intenção editorial, o que demonstra o seu valor.
Por outro lado, aqueles que estão no cabeçalho, no rodapé ou nas colunas laterais não ganham muitos pontos, pois são inseridos automaticamente via CMS e costumam se repetir em várias páginas do site.
Ainda em relação ao posicionamento, os links que estão localizados mais acima no conteúdo também ganham mais relevância.
Para dar mais visibilidade a um link, você provavelmente escolheria colocá-lo no primeiro parágrafo de um texto e não no fim, não é? Então, é isso também que o Google entende: se ele está no começo, é mais importante.
Então, aí vai uma dica para os redatores: preste atenção para que o primeiro link que você coloca em um artigo de blog seja relevante, e busque posicioná-lo logo nas primeiras linhas.
Além disso, saiba que, se esse link aparece mais de uma vez na página, apenas a primeira aparição conta para o Google. Então, não adianta encher a página de links repetidos, ok?
4. Relevância do texto-âncora
Texto-âncora é o texto visível e clicável de um link. Ele costuma dar pistas sobre o assunto da página linkada, tanto para o usuário quanto para o buscador. Por isso, esse sempre foi um dos principais fatores do algoritmo do Google na avaliação de links.
Digamos, por exemplo, que você tenha uma loja de móveis e venda um sofá de três lugares. Então, o texto-âncora do link para a página de venda desse produto pode ser “sofá de três lugares”.
Esses termos são relevantes para a página que recebeu o link, pois indicam o seu assunto e reforçam a sua autoridade para essa palavra-chave. Quando isso acontece, então, ela ganha pontos com o Google.
Porém, se o link tem um texto-âncora irrelevante para o conteúdo da página, ela pode perder valor. Por exemplo: se você usa “clique aqui” ou “cama box” no link para uma página que vende sofá, o usuário pode ser direcionado para uma URL que não queria visitar e logo abandona o site. Isso mostra ao Google que aquele link não é útil.
Isso não quer dizer, porém, que você deva correr atrás de vários links com a correspondência exata da palavra-chave para a qual deseja rankear. Isso pode ser entendido como spam!
O Google sabe identificar as práticas maliciosas, mas também percebe quando o ganho de links acontece com naturalidade e com textos-âncora que se encaixam no conteúdo. Sem forçar a barra, ok?
Dica da Editora:
Marketing Digital: o que é, estratégias e TUDO sobre marketing online
Análise SWOT ou Matriz FOFA: o que é, como fazer e modelo grátis!
O que é Marketing: conceito, objetivos e TUDO sobre [2019]
5. Diversidade de domínios
Sabia que é melhor ter 20 links de domínios diferentes do que 100 links do mesmo site? 
Páginas que recebem links de domínios variados têm mais valor que aquelas que são linkadas várias vezes por um site apenas. Isso significa que a sua página é popular na web e conquistou a confiança de vários sites, não somente de um.
Portanto, ao planejar a sua estratégia de link building, procure diferentes parceiros que diversifiquem o perfil de links do seu site.
6. Confiabilidade do site
O Google gosta de sites confiáveis. Eles são aqueles domínios já maduros, com conteúdos relevantes, de marcas que são referências para o público. Portais de notícias ou de grandes empresas são alguns exemplos.
Eles ajudam o buscador a construir uma web mais segura. Aos olhos do Google, esses sites nunca vão criar links para páginas de má qualidade. Por isso, quem se relaciona com eles também ganha a confiança do Google. Portanto, quanto mais próximo de sites confiáveis você estiver, mais confiável o seu site será considerado.
Ok, talvez você não receba um link do site da Nasa, por exemplo. Mas, se a Nasa linka para um site, e esse site linka para o seu, você também ganha a confiança do Google. E, assim, a sua página ganha mais valor na avaliação de links.
Porém, a mesma lógica vale para sites de má qualidade. Quanto mais próxima a sua página estiver deles (principalmente com link direto), mais baixa será a sua reputação aos olhos do Google.
Vale aqui fazer uma ressalva: alguns especialistas em SEO discutem se os links de má qualidade realmente prejudicam o posicionamento. Para eles, o Google simplesmente ignora os sites que não seguem suas diretrizes. Por isso, eles não transmitiriam seu link juice negativo para as páginas linkadas. Mas não existe consenso quanto a isso, ok?
7. Contexto do link
Um artigo de blog sobre futebol que recebe link de um site de esportes ganha pontos com o Google. Porém, se esse artigo é citado em um site de culinária, ele não ganha tanta relevância. 
Por que isso acontece? Porque o Google entende que uma pessoa interessada em futebol provavelmente não está a fim de conhecer novas receitas de comida (ao menos não naquele momento).
O algoritmo do buscador é inteligente o suficiente para identificar o contexto em que o link está inserido e perceber se ele tem a ver com o conteúdo da página linkada. Se isso acontecer, esse link transmite mais valor, já que mantém o usuário dentro do tema no qual ele está interessado.
8. Atualização da página
O Google quer entregar o resultado mais atualizado possível ao usuário. Por isso, uma das formas de avaliar a relevância de uma página é analisar quão recentes são os conteúdos que apontam para ela. Isso quer dizer que links em conteúdos frescos — recém-lançados ou atualizados recentemente — tendem a transmitir mais valor que sites obsoletos.
Mas cabe esclarecer que páginas obsoletas não são sinônimo de páginas antigas. Estamos falando daqueles conteúdos que estão esquecidos no site, com informações ultrapassadas e sem atualizações. Dessa forma, eles não entregam mais valor ao visitante.
Já os conteúdos antigos podem ser extremamente relevantes, dependendo do tema, desde que sejam revisados periodicamente, para entregar sempre informações corretas e atualizadas.
Além disso, um dos critérios de avaliação do Google é a taxa de novos links que a página recebe. Se essa taxa aumenta bastante em um curto período, o buscador entende que provavelmente ela é nova ou sofreu uma atualização recente.
Por isso, elas tendem a ganhar mais relevância que as páginas que não estão recebendo mais novos links (o que provavelmente significa que elas estão ficando obsoletas).
9. Arquivos robots
O buscador só pode avaliar URLsb que permitam o seu rastreamento e indexação. Porém, na avaliação de links do Google, o robô pode se deparar com páginas que impedem esse trabalho. Isso pode acontecer de duas formas:
o arquivo robots.txt bloqueia o rastreamento;
a tag robots utiliza a diretiva “noindex”, que impede a indexação da página.
Portanto, se você quer que o Google considere para o rankeamento aqueles links externos que você conquistou, eles devem liberar o acesso do robô.
10. Autoridade de links “nofollow”
Quem usa a tag nofollow não quer transmitir link juice para a página linkada. Essa tag funciona como uma parede para o robô, que deve parar ali o rastreamento e seguir por outro caminho. Ela costuma ser usada, por exemplo, para evitar a prática de spam na caixa de comentários dos blogs.
Portanto, entende-se que a tag nofollow não transmite autoridade de uma página para outra. Porém, alguns estudos mostram que esses links podem transmitir valor em alguns casos (não tanto quanto os links dofollow, mas ainda assim com alguma relevância).
Provavelmente o Google analisa o contexto desses links. Se eles estão em sites de autoridade, alinhados ao conteúdo, com textos-âncora coerentes — ou seja, tudo certinho! —, é possível que eles tenham mesmo algum valor.
11. Menções à marca (sem link)
Estamos falando de avaliação de links do Google, mas as menções sem link também contam nessa análise, sabia?
Quando um site de autoridade cita uma marca, o Google é capaz de associar essa menção à página da empresa. Portanto, uma das formas de avaliar a relevância de uma página é também analisar as menções que ela recebe de outros sites, mesmo que elas não tenham link.
12. Links a partir da página
Até agora, falamos da análise de referências que uma página recebe. Mas os links que ela insere no seu conteúdo, também contam? Sim, eles também entram nessa avaliação.
Aqui vale a mesma lógica do relacionamento com sites confiáveis. Se você está perto deles, o Google entende que provavelmente você oferece um conteúdo de valor para o usuário. Então, incluir links para sites de autoridade aumenta a relevância da página.
Por outro lado, inserir links para sites de má qualidade pode prejudicar a sua reputação. Afinal, se você acha que vale a pena inserir esse tipo de link no seu site, provavelmente você não está preocupado em oferecer uma boa experiência ao usuário. E, com isso, perde pontos com o Google.
É importante notar que esses fatores que citamos não são regras rígidas. Eles interagem entre si, superam um ao outro e podem ser atualizados a qualquer momento, já que o Google está sempre aprimorando seu algoritmo. Além disso, eles são frutos de testes e experimentos de especialistas em SEO e nem todos são reconhecidos pelo buscador.
Por isso, vale a pena testar esses princípios na sua estratégia de link building, no seu mercado. Se você perceber, por exemplo, que links de páginas antigas estão dando mais retorno que sites novos, invista nisso! O que importa mesmo é o desempenho desses fatores na prática.
Agora, para aumentar ainda mais sua visibilidade online e ter melhores resultados, aprenda tudo sobre SEO no nosso guia completo!
Powered by Rock Convert
Avaliação de links do Google: as melhores formas de fazer link building Publicado primeiro em https://marketingdeconteudo.com
0 notes