robots.txt 문법 문의 드립니다.
본문
User-agent: Googlebot
Disallow: /
User-agent: naverbot
Disallow:
User-agent: yeti
Disallow:
User-agent: *
Disallow: /
검색엔진 최적화 관련 질문 입니다.
<네이버검색 허용, 구글검색 비허용>
해야하는데 혹시 위 문법이 맞나해서 여쭤봅니다~
저렇게 길게 해도 제대로 소스가 잘 먹는지.. 궁금합니다.
잘 아시는분 계신가요?
답변 1
잘 하신거 같은데요
Disallow 의 값에 / <-- 이값을 넣는게 비허용이라는뜻이거든요
보면 naverbot 이랑 yeti만 허용이고
나머지 구글과 나머지는 비허용인데
User-agent: Googlebot
Disallow: /
User-agent: naverbot
Disallow:
User-agent: yeti
Disallow:
User-agent: *
Disallow: /
이렇게 하실거면 그냥
User-agent: naverbot
Disallow:
User-agent: yeti
Disallow:
User-agent: *
Disallow: /
이렇게 하셔도 돼요 ^^
도움이 되셨으면 채택부탁드려요 ~
답변을 작성하시기 전에 로그인 해주세요.