검색로봇 차단도 가능한가요? 정보
검색로봇 차단도 가능한가요?본문
검색로봇 차단도 가능한가요?
댓글 전체
http://www.homzzang.com/miwit/44 참고하세요 !
SetEnvIfNoCase User-Agent "google" bad_request
SetEnvIfNoCase User-Agent "naver" bad_request
Deny from env=bad_request
이부분을 삽입하라고 나와있는데 어디에 삽입하면 되나영?;; 초보라서리 ㅜㅜ
SetEnvIfNoCase User-Agent "naver" bad_request
Deny from env=bad_request
이부분을 삽입하라고 나와있는데 어디에 삽입하면 되나영?;; 초보라서리 ㅜㅜ
다시 링크 타고 가셔서, 첨부파일 다운받아 빌더가 설치된 폴더에 넣어주세요 !
ps.
트래픽을 좀 늘려 로봇이 긁어가는 걸 허용하는 게 낫습니다.
긁어가야 검색 유입이 이루어지니까요..
ps.
트래픽을 좀 늘려 로봇이 긁어가는 걸 허용하는 게 낫습니다.
긁어가야 검색 유입이 이루어지니까요..
.htaccess 파일로 저장하고 루트에 업로드하면 됩니다
robots.txt 에 대한 내용도 찾아보세요~
robots.txt 에 대한 내용도 찾아보세요~
검색로봇 차단은 표준규정을 지키고 있는 로봇에 한해서만 차단이 가능합니다만...
구글이나 네이버등...
표준을 지키는 로봇들은 건전한(?) 로봇들 이므로 차단을 하지 않는것이 좋습니다~
표준을 지키지 않는 괴이한 로봇들은 차단이 힘든것으로 알고 있읍니다~
구글이나 네이버등...
표준을 지키는 로봇들은 건전한(?) 로봇들 이므로 차단을 하지 않는것이 좋습니다~
표준을 지키지 않는 괴이한 로봇들은 차단이 힘든것으로 알고 있읍니다~