robots.txt 질문 드립니다.
본문
User-agent: *
Allow: /
이게 모든 로봇 검색,
User-agent: Yeti
Allow:/
이게 네이버 로봇 검색으로 아는데요,
그냥 모든 로봇 검색하면 되는데, 굳이 네이버 로봇 검색만 해야 하는 이유가 있나요?
네이버 로봇 검색만 하면 구글이나 다른 로봇 검색은 안되는 건가요?
답변 2
한국인들만을 겨냥한 사이트라면
네이버검색만 해도 되죠
구글/바이두 같은 사이트에서 들어오는 로봇이 발생하는 트래픽이 어마어마하거든요
웹호스팅이라면 트래픽 초과는 매우쉽게됩니다.
그러면 막는게 상책이겠죠
트래픽걱정이 없다면 넉넉히 열어두는게 여러모로 좋을것이구요
상황에 따라 잘 결정하시면됩니다.
검색을 허용하실려면
User-agent: *
Allow: /
이걸로 하시는게 좋습니다. 로봇이 무조건 수집을 해가니...검증되지 않는 로봇은 허용하지 않은게
좋으니 대한민국에서는 그래도 네이버가 공신력이잇으니..네이버로 하는것같습니다.
답변을 작성하시기 전에 로그인 해주세요.