✅🚨➡ Quer ter um site que gera vendas *TODO DIA* ? ➡ iconectado.com.br/go/478-criar-site-que-gera-vendas-todo-dia/ Link do Artigo: iconectado.com.br/robots-txt/
Que ótimo, Caio. Fico feliz em saber. Aproveita para se inscrever no evento online de Marketing Digital: iconectado.com.br/marketing-digital-evento-online/ Bons estudos!
Vlw Rick! +1 subscriber, melhor didática no tema sem a menor sombra de dúvidas. Tenho uma dúvida sobre o tal "Crawl-delay", o que ele define exatamente? Percebo que alguns concorrentes do meu e-commerce usam o valor 10, outros usam 1, qual eu deveria usar exatamente?
Grato pelo comentário, Victor. Inscreva-se no canal para receber mais aulas. É preciso conferir o que tem no arquivo robots.txt, se está mesmo bloqueando esse diretório. Bons estudos e sucesso!
Pergunta de iniciante....o google me deu um aviso de páginas que não foram indexadas e todas elas eu apaguei na construção do site eu poderia bloquear essas páginas nesse procedimento para impedir a indexação?
Obrigado pelo comentário. Inscreva-se no canal para receber mais videos. Poderia bloquear, mas como você mesmo disse que não foram indexadas, não vai mudar nada, pois não há o que ser bloqueado. Bons estudos e sucesso!
Obrigado pelo comentário. Inscreva-se no canal a ative as notificações para receber todas as aulas e as novidades que vão chegar. O link deve estar no plugin que você usou para criar esse sitemap. Bons estudos e sucesso!
Rick, bom dia cara. O Google Adsense demora um tempo pra reconhecer a correção do robots.txt? Fiz a correção como orientou, mas ele continua mostrando erro no arquivo robots e pedindo correção. Valeu pelo vídeo. Abraço!
No meu exemplo, gostaria de coletar os dados de um site específico via Python (requests). O robots.txt está assim: User-Agent: * Disallow: /blog/category/*/* Disallow: /admin Disallow: /admin/*/* Disallow: /400 Disallow: /404 Disallow: /406 Disallow: /422 Disallow: /500 Disallow: /503 Disallow: /504 Pelo que entendi ele não autoriza ninguem, certo?
Não, Luiz. Nessa configuração ele não autoriza a indexação dos diretórios listados. Todos os demais fora dessa lista estão liberados. Bons estudos e sucesso!
Boa noite! Ótimo video! Uma dúvida. Mesmo eu tendo o arquivo sitemap.xml na pasta raiz eu tenho que colocar o endereço Sitemap: seudominio.com/nomedomapa.xml no arquivo robots.txt?
✅🚨➡ Quer ter um site que gera vendas *TODO DIA* ? ➡ iconectado.com.br/go/478-criar-site-que-gera-vendas-todo-dia/
Link do Artigo: iconectado.com.br/robots-txt/
MUITO BOM , PARABÉNS MEU JOVEM SUPER DIDÁTICO
Grato pelas palavras, Joilson. Sucesso e bons estudos!
Muito bom! Tirei minhas dúvidas! Obrigada por compartilhar !
Que ótimo, Daniele. Bons estudos!
vc ensina muito bem parabens!
Obrigado pelo seu comentário, Silvana. Sucesso e bons estudos!
Excelente vídeo e ótimo trabalho, agora aprendi.
Que ótimo, Caio. Fico feliz em saber.
Aproveita para se inscrever no evento online de Marketing Digital:
iconectado.com.br/marketing-digital-evento-online/
Bons estudos!
Vlw Rick! +1 subscriber, melhor didática no tema sem a menor sombra de dúvidas. Tenho uma dúvida sobre o tal "Crawl-delay", o que ele define exatamente? Percebo que alguns concorrentes do meu e-commerce usam o valor 10, outros usam 1, qual eu deveria usar exatamente?
ótimo video
Grato pelo comentário, Junior. Bons estudos e sucesso!
Excelente. Parabéns!
Obrigado 😃. Bons estudos!
Valeu! Me ajudou!
Obrigado pelo comentário, Michael. Inscreva-se no canal para mais aulas. Bons estudos e sucesso!
Obrigado!
Obrigado pelo comentário. Inscreva-se no canal para receber todas as aulas. Bons estudos e sucesso!
Excelente vídeo! Apareceu alguns erros no Search Console com o diretório "wp-includes" pode ter sido ocasionado por bloqueio pelo robots.txt?
Grato pelo comentário, Victor. Inscreva-se no canal para receber mais aulas.
É preciso conferir o que tem no arquivo robots.txt, se está mesmo bloqueando esse diretório.
Bons estudos e sucesso!
Pergunta de iniciante....o google me deu um aviso de páginas que não foram indexadas e todas elas eu apaguei na construção do site eu poderia bloquear essas páginas nesse procedimento para impedir a indexação?
Obrigado pelo comentário.
Inscreva-se no canal para receber mais videos.
Poderia bloquear, mas como você mesmo disse que não foram indexadas, não vai mudar nada, pois não há o que ser bloqueado.
Bons estudos e sucesso!
Eu tirei uma foto de como ficou o meu código, pra você comentar se fiz corretamente! Mas não sei se dar pra anexar aqui
Compare que o conteúdo mostrado no vídeo, Victor. Bons estudos!
como eu saber qual é o meu sitemap??
Obrigado pelo comentário.
Inscreva-se no canal a ative as notificações para receber todas as aulas e as novidades que vão chegar.
O link deve estar no plugin que você usou para criar esse sitemap.
Bons estudos e sucesso!
Rick, bom dia cara. O Google Adsense demora um tempo pra reconhecer a correção do robots.txt? Fiz a correção como orientou, mas ele continua mostrando erro no arquivo robots e pedindo correção. Valeu pelo vídeo. Abraço!
Tudo bom? Demora uns dias sim. Nunca tive situação de levar mais que 6, 7 dias.
Bons estudos!
@@iConectado Obrigado Rick. Como feedback, suas explicações são bem claras e objetivas, parabéns pela metodologia.
@@borges9751 Obrigado pelo comentário. Bons estudos!
não entendi uma coisa
após allow: / eu coloco etc
é isso?
Não. Observe exatamente como eu fiz no vídeo.
Use apenas o / (barra) para o diretório inicial.
Bons estudos!
opaaaaa
Bons estudos!
No meu exemplo, gostaria de coletar os dados de um site específico via Python (requests). O robots.txt está assim:
User-Agent: *
Disallow: /blog/category/*/*
Disallow: /admin
Disallow: /admin/*/*
Disallow: /400
Disallow: /404
Disallow: /406
Disallow: /422
Disallow: /500
Disallow: /503
Disallow: /504
Pelo que entendi ele não autoriza ninguem, certo?
Não, Luiz. Nessa configuração ele não autoriza a indexação dos diretórios listados. Todos os demais fora dessa lista estão liberados. Bons estudos e sucesso!
@@iConectado Muito obrigado!!!😁
Boa noite! Ótimo video! Uma dúvida. Mesmo eu tendo o arquivo sitemap.xml na pasta raiz eu tenho que colocar o endereço Sitemap: seudominio.com/nomedomapa.xml no arquivo robots.txt?
Isso mesmo, Marcos. Bons estudos!
@@iConectado Obrigado 👍