{"id":11683,"date":"2020-10-29T14:10:59","date_gmt":"2020-10-29T17:10:59","guid":{"rendered":"https:\/\/novo.siteup.dev\/?p=11683"},"modified":"2024-01-16T16:22:03","modified_gmt":"2024-01-16T19:22:03","slug":"robots-txt-e-seo-o-que-saber","status":"publish","type":"post","link":"https:\/\/novo.siteup.dev\/en\/robots-txt-e-seo-o-que-saber\/","title":{"rendered":"Robots.txt e SEO: tudo o que voc\u00ea precisa saber"},"content":{"rendered":"<p><span style=\"font-weight: 400;\">O Robots.txt \u00e9 um dos arquivos mais simples dentro de um site. Mas tamb\u00e9m pode ser um dos mais problem\u00e1ticos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Isso acontece porque uma simples troca de um caractere pode fazer com que o Google n\u00e3o encontre mais o seu conte\u00fado para mostrar aos usu\u00e1rios. Dessa forma, isso vai prejudicar muito o <\/span><a href=\"https:\/\/novo.siteup.dev\/en\/consultoria-seo\/\"><span style=\"font-weight: 400;\">SEO<\/span><\/a><span style=\"font-weight: 400;\"> que voc\u00ea construiu.<\/span><\/p>\n<p><b>Pensando na import\u00e2ncia deste assunto, neste texto voc\u00ea vai aprender sobre:<\/b><\/p>\n<ol>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">O que \u00e9 um arquivo Robots.txt<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Como reconhecer um arquivo Robots.txt<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Voc\u00ea realmente precisa de um arquivo Robots.txt?<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Como encontrar o arquivo Robots.txt do seu site<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Como criar um arquivo Robots.txt<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Quais s\u00e3o as boas pr\u00e1ticas de uso do arquivo Robots.txt<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Exemplos de arquivos Robots.txt<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Como encontrar erros em um arquivo Robots.txt<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">FAQs<\/span><\/span><\/li>\n<\/ol>\n<h2 id=\"1-o-que-e-um-arquivo-robots-txt\"><span style=\"font-weight: 400;\">1. O que \u00e9 um arquivo Robots.txt<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">O Robots.txt \u00e9 um arquivo hospedado na raiz de um site. Este arquivo de texto conta com instru\u00e7\u00f5es, direcionadas aos rob\u00f4s do Google e outros buscadores.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Neste arquivo voc\u00ea deve informar tr\u00eas pontos principais:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Quais diret\u00f3rios n\u00e3o devem ser rastreados pelos motores de busca;<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Arquivos que n\u00e3o devem ser indexados;<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">O mapa do site com as <\/span><a href=\"https:\/\/novo.siteup.dev\/en\/seo\/url-amigavel-o-que-e-e-por-que-e-importante\/\"><span style=\"font-weight: 400;\">URLs que devem ser rastreadas pelo Google<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Considerando todas essas informa\u00e7\u00f5es, um arquivo Robots.txt n\u00e3o revisado \u00e9 um grande risco. O que acontece \u00e9 que o site pode acabar n\u00e3o aparecendo para os usu\u00e1rios.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Isso porque quando o site est\u00e1 sendo criado, os programadores adicionam a seguinte configura\u00e7\u00e3o ao Robots.txt:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Nesse caso, o arquivo est\u00e1 dizendo para todos os rob\u00f4s (user-agent: *) que n\u00e3o realizem o rastreamento de p\u00e1ginas do site (com o comando disallow: \/). Por isso, quando o site for lan\u00e7ado essa instru\u00e7\u00e3o precisa ser alterada. Caso contr\u00e1rio o site n\u00e3o ser\u00e1 encontrado.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">O Google tem uma p\u00e1gina dedicada ao Robots.txt, <\/span><a href=\"https:\/\/support.google.com\/webmasters\/answer\/6062608?hl=pt-BR&amp;ref_topic=6061961\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">acesse clicando aqui<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"2-como-reconhecer-um-arquivo-robots-txt\"><span style=\"font-weight: 400;\">2. Como reconhecer um arquivo Robots.txt<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Um arquivo Robots.txt \u00e9 escrito da seguinte forma:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Sitemap: [URL location of sitemap]<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: [bot identifier]<\/span><\/p>\n<p><span style=\"font-weight: 400;\">[directive 1]<\/span><\/p>\n<p><span style=\"font-weight: 400;\">[directive 2]<\/span><\/p>\n<p><span style=\"font-weight: 400;\">[directive &#8230;]<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: [another bot identifier]<\/span><\/p>\n<p><span style=\"font-weight: 400;\">[directive 1]<\/span><\/p>\n<p><span style=\"font-weight: 400;\">[directive 2]<\/span><\/p>\n<p><span style=\"font-weight: 400;\">[directive &#8230;]<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Em resumo, o que deve ser feito \u00e9 adicionar regras para os rob\u00f4s determinando qual \u00e9 o user-agent e quais s\u00e3o as diretivas.<\/span><\/p>\n<h2 id=\"user-agent\"><span style=\"font-weight: 400;\">User-agent<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">O user-agent \u00e9 o campo no qual voc\u00ea deve definir para qual rob\u00f4 a regra na sequ\u00eancia dever\u00e1 ser aplicada. Por padr\u00e3o, esta ser\u00e1 sempre a primeira linha de qualquer regra. Caso voc\u00ea queira incluir todos os rob\u00f4s em uma \u00fanica regra, deve utilizar o s\u00edmbolo *.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Os user-agents mais importantes para SEO s\u00e3o:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Google: Googlebot<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Google Images: Googlebot-Image<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Bing: Bingbot<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Yahoo: Slurp<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Baidu: Baiduspider<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">DuckDuckGo: DuckDuckBot<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Importante: A cada novo user-agent adicionado, \u00e9 preciso adicionar as diretivas novamente. Afinal, as instru\u00e7\u00f5es relacionadas ao primeiro user-agent n\u00e3o se aplicam para outros adicionados posteriormente.<\/span><\/p>\n<h2 id=\"diretivas\"><span style=\"font-weight: 400;\">Diretivas<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Na sequ\u00eancia devem ser adicionadas as diretivas, que s\u00e3o as regras que voc\u00ea quer dar aos user-agents.<\/span><\/p>\n<h3 id=\"diretivas-reconhecidas-pelo-google\"><span style=\"font-weight: 400;\">Diretivas reconhecidas pelo Google<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Entenda abaixo quais s\u00e3o as diretivas que o Google reconhece.<\/span><\/p>\n<h4 id=\"disallow-desabilitar\"><span style=\"font-weight: 400;\">Disallow (desabilitar)<\/span><\/h4>\n<p><span style=\"font-weight: 400;\">Ao utilizar esta diretiva, voc\u00ea cria uma instru\u00e7\u00e3o para que os motores de busca n\u00e3o acessem os arquivos e p\u00e1ginas naquele caminho espec\u00edfico.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea n\u00e3o quiser que usu\u00e1rios acessem o seu blog e todos os seus posts, deve adicionar ao arquivo a seguinte diretiva:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/blog<\/span><\/p>\n<p>&nbsp;<\/p>\n<h4 id=\"allow-habilitar\"><span style=\"font-weight: 400;\">Allow (habilitar)<\/span><\/h4>\n<p><span style=\"font-weight: 400;\">Por outro lado, a diretiva \u2018allow\u2019 \u00e9 utilizada para que os motores de busca possam rastrear um diret\u00f3rio ou p\u00e1gina &#8211; mesmo que esta tenha sido desabilitada antes.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">No exemplo temos um caso em que o dono do site n\u00e3o quer que os usu\u00e1rios visualizem o blog e seus posts. A inten\u00e7\u00e3o que \u00e9 apenas post espec\u00edfico possa ser acessado. Neste caso o robots.txt ficar\u00e1 assim:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/blog<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Allow: \/blog\/allowed-post<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Com isso, os motores de busca como Google e Bink conseguir\u00e3o acessar o endere\u00e7o \u201c\/blog\/allowed-post\u201d, mas n\u00e3o conseguir\u00e3o acessar outros:<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Exemplo:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/blog\/another-post<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/blog\/yet-another-post<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/blog\/download-me.pdf<\/span><\/li>\n<\/ul>\n<h4 id=\"sitemap-mapa-do-site\"><span style=\"font-weight: 400;\">Sitemap (mapa do site)<\/span><\/h4>\n<p><span style=\"font-weight: 400;\">Esta diretiva \u00e9 utilizada para que os motores de busca localizem o sitemap criado no robots.txt. Um sitemap inclui p\u00e1ginas que voc\u00ea quer que os buscadores rastreiem e indexem.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Abaixo segue um exemplo de um arquivo com a diretiva de sitemap. Perceba que este n\u00e3o precisa ser repetido sempre que voc\u00ea cita um novo user-agent:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Sitemap: https:\/\/www.domain.com\/sitemap.xml<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: Googlebot<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/blog\/<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Allow: \/blog\/post-title\/<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: Bingbot<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/services\/<\/span><\/p>\n<p>&nbsp;<\/p>\n<h3 id=\"diretivas-nao-reconhecidas-pelo-google\"><span style=\"font-weight: 400;\">Diretivas n\u00e3o reconhecidas pelo Google<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Agora entenda duas diretivas <\/span><a href=\"https:\/\/webmasters.googleblog.com\/2019\/07\/a-note-on-unsupported-rules-in-robotstxt.html\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">n\u00e3o reconhecidas pelo Google<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/p>\n<h4 id=\"noindex\"><span style=\"font-weight: 400;\">Noindex<\/span><\/h4>\n<p><span style=\"font-weight: 400;\">Acreditava-se que a tag noindex era reconhecida informalmente pelo Google. Contudo, em 1\u00ba de Setembro de 2019 a empresa confirmou que n\u00e3o reconhece essa diretiva.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A tag noindex era usada para impedir que o Google realizasse a indexa\u00e7\u00e3o de todos os posts em um blog:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: Googlebot<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Noindex: \/blog\/<\/span><\/p>\n<p>&nbsp;<\/p>\n<h4 id=\"nofollow\"><span style=\"font-weight: 400;\">Nofollow<\/span><\/h4>\n<p><span style=\"font-weight: 400;\">A tag <\/span><a href=\"https:\/\/novo.siteup.dev\/en\/desenvolvimento-web\/o-que-e-um-link-nofollow\/\"><span style=\"font-weight: 400;\">nofollow<\/span><\/a><span style=\"font-weight: 400;\"> tamb\u00e9m nunca foi uma diretiva oficial do Google para o robots.txt. E em 1\u00ba de Setembro de 2019, a empresa tamb\u00e9m afirmou que uma op\u00e7\u00e3o para o nofollow no robots.txt era adicionar o atributo rel=\u201cnofollow\u201d em cada URL citada em uma p\u00e1gina.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mas originalmente muitas pessoas acreditavam ser poss\u00edvel bloquear os links em um blog atrav\u00e9s da seguinte diretiva:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: Googlebot<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nofollow: \/blog\/<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"3-voce-realmente-precisa-de-um-arquivo-robots-txt\"><span style=\"font-weight: 400;\">3. Voc\u00ea realmente precisa de um arquivo Robots.txt?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Se o seu site \u00e9 pequeno, h\u00e1 uma grande chance de voc\u00ea n\u00e3o precisar do arquivo Robots.txt. Mas para quem possui, o robots.txt \u00e9 importante para controlar quais p\u00e1ginas do seu site os motores de busca podem acessar.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Com o uso dele \u00e9 poss\u00edvel:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Evitar ranqueamento de conte\u00fado duplicado;<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Manter certas se\u00e7\u00f5es do site privadas;<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Evitar\u00a0 sobrecarga de servidores;<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Evitar que <\/span><a href=\"https:\/\/support.google.com\/webmasters\/answer\/35308\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">imagens<\/span><\/a><span style=\"font-weight: 400;\">, <\/span><a href=\"http:\/\/videos\"><span style=\"font-weight: 400;\">v\u00eddeos<\/span><\/a><span style=\"font-weight: 400;\"> e arquivos sejam disponibilizados nos resultados do Google.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Mas entenda que ele n\u00e3o elimina completamente os resultados na internet sobre determinado conte\u00fado. O que pode acontecer \u00e9 <\/span><a href=\"https:\/\/support.google.com\/webmasters\/answer\/6062608?hl=en\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">o seu site estar linkado em outros<\/span><\/a><span style=\"font-weight: 400;\"> sites, e estes podem aparecer em uma pesquisa do Google indiretamente.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"4-como-encontrar-o-arquivo-robots-txt-do-seu-site\"><span style=\"font-weight: 400;\">4. Como encontrar o arquivo Robots.txt do seu site<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea j\u00e1 tem um arquivo robots.txt no seu site, este ser\u00e1 exibido ao digitar \u201cseusite.com.br\/robots.txt\u201d na barra de pesquisa da internet.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se algo assim aparecer, \u00e9 porque voc\u00ea tem um arquivo robots.txt:<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-11689\" title=\"robots\" src=\"https:\/\/novo.siteup.dev\/wp-content\/uploads\/2020\/10\/robots-6.png\" alt=\"robots\" width=\"253\" height=\"70\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Fa\u00e7a um teste com o endere\u00e7o <\/span><a href=\"https:\/\/www.google.com.br\/robots.txt\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">https:\/\/www.google.com.br\/robots.txt<\/span><\/a><span style=\"font-weight: 400;\"> e veja os resultados.<\/span><\/p>\n<p>Robots.txt<\/p>\n<h2 id=\"5-como-criar-um-arquivo-robots-txt\"><span style=\"font-weight: 400;\">5. Como criar um arquivo Robots.txt<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea ainda n\u00e3o tem o seu arquivo robots.txt, n\u00e3o \u00e9 dif\u00edcil criar um. O que voc\u00ea precisa \u00e9:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Criar um arquivo de bloco de notas (.txt) em branco, e come\u00e7ar a digitar as diretivas.<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea quiser que os buscadores n\u00e3o encontrem o seu diret\u00f3rio de \/admin\/, voc\u00ea deve digitar:<\/span><\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/admin\/<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Crie todas as diretivas que voc\u00ea precisar.<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Salve o arquivo como \u201crobots.txt.\u201d<\/span><\/li>\n<\/ol>\n<h3 id=\"onde-colocar-o-arquivo-finalizado\"><span style=\"font-weight: 400;\">Onde colocar o arquivo finalizado?<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">O seu arquivo robots.txt deve ser adicionado \u00e0 raiz do seu site, mais especificamente na raiz do subdom\u00ednio para o qual o arquivo se aplica.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por exemplo, para controlar o comportamento de rastreamento das p\u00e1ginas em \u201cseusite.com.br\u201d, o arquivo deve ser acess\u00edvel atrav\u00e9s do endere\u00e7o \u201cseusite.com.br\/robots.txt\u201d<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"6-quais-sao-as-boas-praticas-de-uso-do-arquivo-robots-txt\"><span style=\"font-weight: 400;\">6. Quais s\u00e3o as boas pr\u00e1ticas de uso do arquivo Robots.txt<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Entenda agora quais s\u00e3o as boas pr\u00e1ticas de uso robots.txt para evitar problemas de SEO e erros:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"utilize-uma-nova-linha-para-cada-diretiva\"><span style=\"font-weight: 400;\">Utilize uma nova linha para cada diretiva<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><b>Incorreto:<\/b><\/p>\n<p><span style=\"font-weight: 400;\">User-agent: * Disallow: \/directory\/ Disallow: \/another-directory\/<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><b>Correto:<\/b><\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/directory\/\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/another-directory\/<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"utilize-o-simbolo-para-simplificar-instrucoes-gerais\"><span style=\"font-weight: 400;\">Utilize o s\u00edmbolo * para simplificar instru\u00e7\u00f5es gerais<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Quando voc\u00ea quer incluir todos os user-agents e v\u00e1rios comandos de Disallow em uma diretiva, \u00e9 poss\u00edvel utilizar * para isso. Veja abaixo:<\/span><\/p>\n<p><b>Op\u00e7\u00e3o menos eficiente<\/b><\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/products\/t-shirts?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/products\/hoodies?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/products\/jackets?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\u2026<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><b>Op\u00e7\u00e3o mais eficiente<\/b><\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/products\/*?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dessa forma, se a inten\u00e7\u00e3o \u00e9 bloquear todas as p\u00e1ginas de produtos, voc\u00ea pode criar apenas um comando geral. E assim elimina a necessidade de digitar todas as subcategorias dentro desse grande item do site.<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"utilize-para-especificar-o-fim-de-uma-url\"><span style=\"font-weight: 400;\">Utilize \u201c$\u201d para especificar o fim de uma URL<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea quer bloquear a busca por todos os perfis que terminem em .pdf no seu site, pode usar a diretiva abaixo:<\/span><\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/*.pdf$<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dessa forma todas as URL que terminem em PDF ser\u00e3o bloqueadas. Mas no caso de p\u00e1ginas que cont\u00e9m PDF na URL, sem terminar a URL nesse ponto (\/file.pdf?id=68937586), continuam aparecendo na busca.<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"cada-user-agent-deve-ser-utilizado-apenas-uma-vez\"><span style=\"font-weight: 400;\">Cada user-agent deve ser utilizado apenas uma vez<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Para que voc\u00ea evite erros, esta boa pr\u00e1tica \u00e9 indicada. Afinal, o Google vai conseguir entender se voc\u00ea citar um user-agent diversas vezes. O problema \u00e9 que voc\u00ea tem grandes chances de repetir ou esquecer de alguma informa\u00e7\u00e3o dessa forma.<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"mantenha-as-diretivas-especificas-para-evitar-os-erros-simples\"><span style=\"font-weight: 400;\">Mantenha as diretivas espec\u00edficas para evitar os erros simples<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea criar uma diretiva muito aberta, poder\u00e1 ter seu SEO prejudicado. Por exemplo, vamos considerar que um site est\u00e1 lan\u00e7ando uma vers\u00e3o em Alem\u00e3o, mas ainda n\u00e3o tem todo o conte\u00fado pronto.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Para evitar que os motores de busca mostrem uma p\u00e1gina inacabada, \u00e9 poss\u00edvel adicionar a seguinte diretiva:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/de<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Mas perceba que esta diretiva tamb\u00e9m vai acabar bloqueando qualquer pesquisa que comece com \u201c\/de\u201d:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/designer-dresses\/<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/delivery-information.html<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/depeche-mode\/t-shirts\/<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">\/definitely-not-for-public-viewing.pdf<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Por isso, voc\u00ea deve adicionar uma \u201c \/ \u201d final \u00e0 diretiva:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/de\/<\/span><\/p>\n<p>&nbsp;<\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"comunique-se-atraves-de-comentarios-no-robots-txt\"><span style=\"font-weight: 400;\">Comunique-se atrav\u00e9s de coment\u00e1rios no robots.txt<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Voc\u00ea pode se comunicar com os desenvolvedores do site, ou at\u00e9 mesmo deixar coment\u00e1rios para altera\u00e7\u00f5es futuras. Para incluir um coment\u00e1rio no robots.txt \u00e9 preciso adicionar o s\u00edmbolo # antes de come\u00e7ar a frase.<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"utilize-um-robots-txt-para-cada-subdominio\"><span style=\"font-weight: 400;\">Utilize um robots.txt para cada subdom\u00ednio<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea tiver um site \u201cseusite.com.br\u201d e um blog \u201cblog.seusite.com.br\u201d, \u00e9 preciso criar dois arquivos robots.txt. Cada arquivo deve ser adicionado na raiz de cada dom\u00ednio.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"7-exemplos-de-arquivos-robots-txt\"><span style=\"font-weight: 400;\">7. Exemplos de arquivos Robots.txt<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea n\u00e3o sabe muito bem das possibilidades que existem em um arquivo robots.txt, compartilhamos abaixo alguns exemplos usados.<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"acesso-total-para-todos-os-user-agents\"><span style=\"font-weight: 400;\">Acesso total para todos os user-agents<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"acesso-totalmente-bloqueado-para-todos-os-user-agents\"><span style=\"font-weight: 400;\">Acesso totalmente bloqueado para todos os user-agents<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"bloquear-uma-pasta-de-todos-os-user-agents\"><span style=\"font-weight: 400;\">Bloquear uma pasta de todos os user-agents<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/folder\/<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"bloquear-um-arquivo-de-todos-os-user-agents\"><span style=\"font-weight: 400;\">Bloquear um arquivo de todos os user-agents<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/this-is-a-file.pdf<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"bloquear-um-arquivo-de-pdf-de-todos-os-user-agents\"><span style=\"font-weight: 400;\">Bloquear um arquivo de PDF de todos os user-agents<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">User-agent: *<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disallow: \/*.pdf$<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"8-como-encontrar-erros-em-um-arquivo-robots-txt\"><span style=\"font-weight: 400;\">8. Como encontrar erros em um arquivo Robots.txt<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Como voc\u00ea percebeu durante este texto, s\u00e3o diversos detalhes que devem ser considerados ao escrever um arquivo robots.txt. Assim, entenda como encontrar erros nestes arquivos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Para essa auditoria, \u00e9 interessante fazer uma verifica\u00e7\u00e3o peri\u00f3dica por problemas relacionados no Robots.txt atrav\u00e9s do Relat\u00f3rio de Cobertura do <\/span><a href=\"https:\/\/search.google.com\/search-console\/about\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Google Search Console<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><b>Digite a URL na Ferramenta de Inspe\u00e7\u00e3o de URL do Google Search Console. Se esta p\u00e1gina estiver bloqueada no robots.txt voc\u00ea dever\u00e1 encontrar uma tela assim:<\/b><\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-11684 aligncenter\" title=\"url inspection\" src=\"https:\/\/novo.siteup.dev\/wp-content\/uploads\/2020\/10\/url-inspection-1.png\" alt=\"url inspection\" width=\"752\" height=\"370\" \/><\/p>\n<ul>\n<li>Se alguma URL do seu sitemap est\u00e1 bloqueada, voc\u00ea ver\u00e1 esta tela:<\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-11685\" title=\"url sitemap\" src=\"https:\/\/novo.siteup.dev\/wp-content\/uploads\/2020\/10\/url-sitemap-2.png\" alt=\"url sitemap\" width=\"365\" height=\"101\" \/><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Se voc\u00ea criar um sitemap correto e excluiu canonicaliza\u00e7\u00e3o, noindex e redirects, este erro n\u00e3o deveria aparecer.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Para avaliar exatamente a diretiva que acabou bloqueando algum conte\u00fado indevidamente, utilize o suporte do Google na <\/span><a href=\"https:\/\/support.google.com\/webmasters\/answer\/6062598?hl=en\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">ferramenta testar robots.txt<\/span><\/a><span style=\"font-weight: 400;\">. Veja abaixo uma tela da ferramenta:<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-11686\" title=\"robots tester\" src=\"https:\/\/novo.siteup.dev\/wp-content\/uploads\/2020\/10\/robots-tester-3.png\" alt=\"robots tester\" width=\"734\" height=\"558\" \/><\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><b>Se voc\u00ea encontrar o erro abaixo, significa que algum conte\u00fado n\u00e3o indexado pelo Google foi bloqueado pelo robots.txt<\/b><\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-11687\" title=\"robot txt erro\" src=\"https:\/\/novo.siteup.dev\/wp-content\/uploads\/2020\/10\/robot.txt-erro-4.png\" alt=\"robot txt erro\" width=\"355\" height=\"97\" \/><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Assim, se voc\u00ea tiver utilizado o robots.txt com a inten\u00e7\u00e3o de excluir uma p\u00e1gina do Google, existem outras op\u00e7\u00f5es que podem ser realizadas.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Robots meta tag;<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cabe\u00e7alho HTTP X-Robots-Tag.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">\u00a0Somente com estas estrat\u00e9gias \u00e9 que uma p\u00e1gina pode ser desindexada do Google.<\/span><\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><b>Quando algum conte\u00fado bloqueado pelo robots.txt ainda est\u00e1 indexado ao Google.<\/b><\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-11688\" title=\"robots txt\" src=\"https:\/\/novo.siteup.dev\/wp-content\/uploads\/2020\/10\/robots.txt-5.png\" alt=\"robots txt\" width=\"379\" height=\"99\" \/><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Este \u00e9 mais um problema relacionado ao uso do arquivo para excluir p\u00e1ginas. Como j\u00e1 vimos acima, existem outras op\u00e7\u00f5es para isso.<\/span><\/p>\n<h2 id=\"9-faqs\"><span style=\"font-weight: 400;\">9. FAQs<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Para finalizar este material sobre o Robots.txt e SEO, vamos citar algumas das perguntas mais frequentes sobre o assunto:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"qual-o-tamanho-total-do-arquivo\"><span style=\"font-weight: 400;\">Qual o tamanho total do arquivo?<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><a href=\"https:\/\/developers.google.com\/search\/reference\/robots_txt\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">500 kilobytes<\/span><\/a><span style=\"font-weight: 400;\"> (aproximadamente).<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"onde-encontrar-o-robots-txt-no-wordpress\"><span style=\"font-weight: 400;\">Onde encontrar o robots.txt no WordPress?<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">No mesmo lugar de outras plataformas de sites e blogs: fazendo uma busca por seusite.com.br\/robots.txt.<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\">\n<h3 id=\"como-editar-o-robots-txt-no-wordpress\"><span style=\"font-weight: 400;\">Como editar o robots.txt no WordPress?<\/span><\/h3>\n<\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Voc\u00ea pode fazer isso manualmente, ou ent\u00e3o utilizando os plugins de SEO do WordPress como o Yoast.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2 id=\"consideracoes-finais\"><span style=\"font-weight: 400;\">Considera\u00e7\u00f5es Finais<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Chegamos ao fim do conte\u00fado com todas as informa\u00e7\u00f5es que voc\u00ea precisa saber sobre o robots.txt. Como voc\u00ea reparou, em diversos momentos citamos que pequenos erros no arquivo podem acabar gerando grandes problemas para o SEO do seu site.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por isso, \u00e9 essencial que voc\u00ea observe as boas pr\u00e1ticas citadas acima, evite erros desnecess\u00e1rios e mantenha seu robots.txt bem organizado.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>O Robots.txt \u00e9 um dos arquivos mais simples dentro de um site. Mas tamb\u00e9m pode ser um dos mais problem\u00e1ticos.\u00a0 Isso acontece porque uma simples troca de um caractere pode fazer com que o Google n\u00e3o encontre mais o seu conte\u00fado para mostrar aos usu\u00e1rios. Dessa forma, isso vai prejudicar muito o SEO que voc\u00ea [&hellip;]<\/p>","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[6],"tags":[362,363,364,365,366,134],"class_list":["post-11683","post","type-post","status-publish","format-standard","hentry","category-trafego-organico","tag-arquivo-robots-txt","tag-o-que-e-robots-txt","tag-robots","tag-robots-txt","tag-robots-txt-e-seo","tag-seo"],"acf":[],"_links":{"self":[{"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/posts\/11683","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/comments?post=11683"}],"version-history":[{"count":0,"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/posts\/11683\/revisions"}],"wp:attachment":[{"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/media?parent=11683"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/categories?post=11683"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/novo.siteup.dev\/en\/wp-json\/wp\/v2\/tags?post=11683"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}