SEOStudio Tools is now open for acquisition offers. Contact us for more info. x
Gerador Robots.txt

Gerador Robots.txt

Gere o arquivo Robots.txt para o seu site automaticamente e instantaneamente, não o codifique mais sozinho

Deixe em branco se não tiver.

Google
Google Image
Google Mobile
MSN Search
Yahoo
Yahoo MM
Yahoo Blogs
Ask/Teoma
GigaBlast
DMOZ Checker
Nutch
Alexa/Wayback
Baidu
Naver
MSN PicSearch

O caminho é relativo à raiz e deve conter uma barra final "/".

Sobre a ferramenta geradora Robots.txt:

Quando você deseja impedir que algumas páginas do seu site sejam rastreadas e indexadas por mecanismos de pesquisa como o Google, ou deseja impedir que imagens apareçam em seus estatutos de rastreamento, ou apenas deseja economizar o orçamento de rastreamento do site, o melhor método para tudo isso é usar a funcionalidade do arquivo Robots.txt.

O uso do arquivo Robots.txt oferece controle sobre o conteúdo do seu site, ele fornece a funcionalidade para permitir ou impedir que páginas, postagens, imagens, Googlebots, Yahoo, Bing ou MSN sejam indexados na indexação do Google. Isso significa que você pode proibir a indexação de algumas páginas ou proibir o site inteiro, mas permitir algumas páginas.

Portanto, se você tiver uma página de login ou registro, ou mesmo as páginas do painel de administração, e não quiser que eles sejam indexados e apareçam nos mecanismos de pesquisa, considere adicionar um arquivo Robots.txt ao seu site e adicione o papéis adequados a ele.

O que é o gerador Robots.txt?

O gerador Robots.txt da SEOStudio é uma ferramenta online gratuita que ajuda você a gerar um arquivo Robots.txt apropriado para o seu site. Ele gerará automaticamente o texto para você e permitirá que você baixe o arquivo para que você o envie para o servidor. Ele também permitirá que você o personalize com algumas opções adicionais, como que tipo de bots devem ser permitidos em seu site e quais diretórios ou arquivos devem ser excluídos de serem rastreados por robôs de mecanismos de pesquisa ou não indexados por eles.

Os geradores Robots.txt são uma maneira fácil de adicionar um arquivo Robots.txt ao seu site sem precisar codificar um manualmente. A ideia básica por trás dessa ferramenta é que ela permite que você crie e publique um arquivo Robots.txt em apenas alguns segundos, sem necessidade de codificação, o que é importante para quem não tem o conhecimento técnico de como esses arquivos trabalho ou como devem ser formatados e o que devem incluir neles.

Tudo o que você precisa fazer para gerar seu próprio arquivo Robots.txt é seguir as etapas abaixo e depois enviar o arquivo para a pasta raiz do seu site ou aplicativo.

Como usar o gerador SEOStudio Robots.txt?

O gerador Robots.txt do SEOStudio é fácil e gratuito de usar, pode ser acessado acessando o site e clicando na ferramenta Gerador Robots.txt, seguindo os seguintes passos:

  1. A primeira opção é a configuração padrão de todas as páginas do site. Se você quiser que todos os URLs de sites não sejam permitidos e deixe algumas páginas permitidas, defina o padrão como Não permitir. Caso contrário, deixe como padrão "(Permitir).
  2. A próxima etapa é definir o atraso do rastreamento. Essa opção é usada quando você precisa dizer aos rastreadores para desacelerar um pouco para não sobrecarregar o servidor. na maioria dos servidores web geralmente, esta opção não é necessária, mas se você executar seu site em um servidor web de recursos de baixo orçamento, considere usar esta opção.
  3. Na terceira opção, você pode adicionar o mapa do site do seu site, se tiver um. Ao adicionar o mapa do site do site, ele oferece melhores chances para os rastreadores da Web entenderem o que indexar e o que não indexar.
  4. Agora você pode querer impedir que alguns mecanismos de pesquisa indexem seu site por qualquer motivo. Isso será feito na quarta opção, pois oferece a opção de permitir ou não todos os tipos de mecanismos de pesquisa, como Google, Baidu, Yahoo e muito mais.
  5. A quinta opção permite que você não permita que uma pasta ou subdiretório inteiro e seus URLs sejam indexados pelos mecanismos de pesquisa, e você pode adicionar quantas subpastas desejar. Por exemplo, serviços (https://seostudio.tools/services/) são a subpasta. Você pode adicionar /services/ para evitar que esta subpasta e as páginas depois dela sejam indexadas.
  6. Depois de fazer todas as opções acima, clique em Gerar . Quando você fizer isso, a ferramenta criará imediatamente o arquivo Robots.txt e, em seguida, você poderá copiar o código e colá-lo em seu arquivo Robots.txt antigo ou baixar o arquivo e enviá-lo para a pasta raiz do seu site.

Por que usar nosso gerador Robots.txt?

  • Uma das melhores coisas sobre nosso gerador Robots.txt é que ele oferece a opção de ajustar e editar o arquivo Robots.txt como você quiser.
  • Usar nosso gerador Robots.txt é fácil e direto, sem pop-ups cativantes e enganosos.
  • Nossa ferramenta torna o código Robots.txt muito preciso. Então. se você é um iniciante absoluto na área, ainda pode usar essa ferramenta sem medo de cometer erros.
  • Esta ferramenta faz o trabalho rápido, você pode gerar um Robots.txt em pouco tempo.
  • Depois de gerar o código Robots.txt, você pode copiar o código ou baixá-lo como um arquivo Robots.txt.
  • A ferramenta geradora Robots.txt é gratuita e ilimitada.

O que é um arquivo Robots.txt?

Um arquivo Robots.txt é um arquivo de texto que possui um conjunto de instruções para o rastreador da web colocado no diretório raiz do site, ele ajuda você a controlar o comportamento dos rastreadores da web. Você pode usá-lo para impedir que os rastreadores indexem páginas ou diretórios específicos em seu servidor. Isso é especialmente útil se você tiver conteúdo que deseja manter privado, como sua lista de funcionários ou finanças da empresa.

Qual é a finalidade do arquivo Robots.txt?

O objetivo desse arquivo é gerenciar como os mecanismos de pesquisa interagem com o conteúdo do seu site para que você possa controlar o que eles veem, para onde vão e o que não veem. Em outras palavras, o arquivo Robots.txt é para informar aos spiders dos mecanismos de pesquisa quais partes do seu site você não deseja que eles indexem, para que eles possam concentrar seus esforços de rastreamento no conteúdo que você deseja indexar.

Por que você precisa de uma ferramenta geradora Robots.txt?

A ferramenta geradora de robots.txt pode ajudá-lo a criar um arquivo robots.txt para seu site com apenas alguns cliques. A ferramenta geradora gerará rapidamente o código para você e tudo o que você precisa fazer é copiá-lo e colá-lo no diretório raiz do seu site ou carregá-lo em um arquivo robots.txt existente em seu site, se já existir um.

Qual é o formato de um arquivo Robots.txt e o que ele inclui?

O formato geral simples do arquivo Robots.txt é mostrado abaixo, mas pode conter mais detalhes, como explicaremos mais adiante.

User-agent: *

Disallow:

Onde está localizado o arquivo Robots.txt?

O arquivo Robots.txt está localizado no diretório raiz do seu site. isso significa que está dentro do public_html/ para os servidores compartilhados e gerenciados e no /var/www/html/ para os servidores VPS.

Como fazer upload de um arquivo Robots.txt para o seu servidor?

Depois de criar e definir as funções Robots.txt, agora é hora de carregar o arquivo no servidor. Siga as instruções abaixo para fazer upload de qualquer código Robots.txt para a pasta raiz do seu site.

No cPanel:

  • Faça login no gerenciador de arquivos do Cpanel.
  • Vá para a pasta raiz do site se quiser fazer upload do arquivo Robots.txt nele.
  • Clique no botão carregar.
  • Navegue até o arquivo Robots.txt e carregue-o, e pronto.
  • Alternativamente, você pode criar um novo arquivo em seu diretório raiz e nomeá-lo “Robots.txt“. Em seguida, copie o código Robots.txt, cole-o dentro do novo arquivo e salve o arquivo. Você terminou.

Por SFTP:

  • Faça login no seu servidor através de clientes SFTP, como Filezilla e WinSCP.
  • Vá para a pasta raiz do site onde você deseja fazer upload do arquivo Robots.txt.
  • Arraste o arquivo Robots.txt e deslize o arquivo dentro do diretório raiz, e pronto.
  • Alternativamente, você pode criar um novo arquivo em seu diretório raiz e nomeá-lo “Robots.txt“. Em seguida, copie o código Robots.txt, cole-o dentro do novo arquivo e salve o arquivo. Você terminou.

Como editar o arquivo Robots.txt em seu servidor ou site?

Para editar o arquivo Robots.txt no servidor, primeiro você precisa criar o código Robots.txt, use nossa ferramenta geradora Robots.txt para ajudá-lo. Em seguida, você precisa fazer login nos arquivos do seu site e ir em direção à pasta raiz. Uma vez lá, procure um arquivo chamado “Robots.txt“. Quando encontrá-lo, clique com o botão direito do mouse e edite. Exclua o código antigo e cole o novo código e clique em salvar.

Modelos de robots.txt:

O código padrão:

User-agent: *

Disallow:

Proibir o rastreamento de todo o site:

User-agent: *

Disallow: /

Não permita o rastreamento de um diretório e seu conteúdo:

User-agent: *

Disallow: /services/

Disallow: /forum/

Disallow: /services/seo/seo-consultancy/

Permitir acesso a um único rastreador (Googlebot-news neste exemplo):

User-agent: Googlebot-news
Allow: /

User-agent: *
Disallow: /

Permitir acesso a todos, exceto a um único rastreador (Googlebot-news neste exemplo):

User-agent: Googlebot-news

Disallow: /

User-agent: *

Allow: /

Proibir o rastreamento de uma única página da web:

User-agent: *

Disallow: /robots-txt-generator

Disallow: /seo/robots-txt-generator

Não permita o rastreamento de todo o site, exceto um subdiretório:

User-agent: *

Disallow: /

Allow: /blog/

Bloqueie todas as imagens do seu site do Imagens do Google:

User-agent: Googlebot-Image

Disallow: /

Leia mais sobre isso no Google .

Como impedir que um subdiretório (subpasta) seja indexado?

Se você quiser impedir que um diretório específico seja indexado, vá para sua pasta raiz nos arquivos do seu site e edite o arquivo Robots.txt. Adicione esta linha de código (Disallow: /your-subfolder/) e a subpasta do site será impedida de ser indexada.

Por que o arquivo Robots.txt é importante para SEO?

O arquivo Robots.txt é uma das táticas importantes para SEO porque diz aos rastreadores do mecanismo de pesquisa o que fazer. Ele informa quais páginas rastrear e quais páginas não rastrear. Isso ajuda a controlar se os rastreadores do mecanismo de pesquisa podem rastrear seu site ou não, para que os rastreadores se concentrem no conteúdo mais importante a ser indexado.