robots.txt 질문입니다.
본문
이리저리 알아봐서 아래와 같이 사이트(일반 사이트입니다)에 적용했는데. 잘못 했는지 로봇이 차단되어 크롤링도 안되네요. 뭘 잘못 한건가요? User-agent: Googlebot User-agent: Yeti User-agent : DAUM User-agent: Bingbot User-agent: AhrefsBot User-agent: SemrushBot Disallow: /admin/ Disallow: /mypage/ User-agent: * Disallow: /
답변 2
안녕하세요.
아래의 내용도 한번 참고를 해보세요~
User-agent: Googlebot
Disallow: /admin/
Disallow: /mypage/
User-agent: Yeti
Disallow: /admin/
Disallow: /mypage/
User-agent: DAUM
Disallow: /admin/
Disallow: /mypage/
User-agent: Bingbot
Disallow: /admin/
Disallow: /mypage/
User-agent: AhrefsBot
Disallow: /admin/
Disallow: /mypage/
User-agent: SemrushBot
Disallow: /admin/
Disallow: /mypage/
User-agent: *
Disallow: /
이 설정으로, Googlebot, Yeti, DAUM, Bingbot, AhrefsBot, SemrushBot는 /admin/과 /mypage/를 제외한 사이트의 모든 부분에 접근할 수 있으며, 그 외의 모든 크롤러는 사이트 전체에서 차단됩니다.
!-->
User-agent: *
Allow: /
Disallow: /admin/
Disallow: /mypage/
이렇게 바꿔보세요
답변을 작성하시기 전에 로그인 해주세요.