Drupal usa um método de bloqueio motor de busca comum a todos os servidores da Web para impedir que os motores de busca de incorporar as páginas da Web que serve em um banco de dados de pesquisa. Isto é comumente usado para sites que não têm dados de acesso público , ou para evitar que os motores de busca , a solicitar tráfego excessivo a partir de um website. Instruções
1
Localize o arquivo " robots.txt " no diretório raiz do seu site Drupal . A pasta raiz é também o local de sua página inicial , mas sua localização no servidor Web irá variar dependendo de qual sistema operacional que você está usando para executar o Drupal .
2
Criar um arquivo vazio chamado " robôs . txt " na pasta raiz , se ele ainda não existir . Drupal versão 5 e mais tarde irá criar um arquivo robots.txt , por padrão , mas você também pode adicionar este arquivo se ele não estiver lá .
3
Abra o arquivo robots.txt em um editor de texto
4
Substitua o conteúdo do arquivo robots.txt com o seguinte : .
User- agent: *
Disallow: /Tablet
Isto diz todos os motores de busca da Web para pular todo o conteúdo. Agente usuário significa que o motor de busca, o "*" é um curinga , ou seja, todos. O "/" significa que a raiz , ou "top " do seu site. Portanto, ao não permitir a raiz , todo o conteúdo em todas as páginas do site - que são hierarquicamente "inferior" do que a raiz - será ignorado
5
Salve o arquivo robots.txt. . Se o seu servidor Web usa um cache de páginas Web , redefini-la de modo que a nova página é enviada para os motores de busca quando eles solicitam a página robots.txt.