검색로봇 차단도 가능한가요?

검색로봇 차단도 가능한가요?
|

댓글 5개

http://www.homzzang.com/miwit/44 참고하세요 !
SetEnvIfNoCase User-Agent "google" bad_request
SetEnvIfNoCase User-Agent "naver" bad_request
Deny from env=bad_request

이부분을 삽입하라고 나와있는데 어디에 삽입하면 되나영?;; 초보라서리 ㅜㅜ
다시 링크 타고 가셔서, 첨부파일 다운받아 빌더가 설치된 폴더에 넣어주세요 !
ps.
트래픽을 좀 늘려 로봇이 긁어가는 걸 허용하는 게 낫습니다.
긁어가야 검색 유입이 이루어지니까요..
.htaccess 파일로 저장하고 루트에 업로드하면 됩니다
robots.txt 에 대한 내용도 찾아보세요~
검색로봇 차단은 표준규정을 지키고 있는 로봇에 한해서만 차단이 가능합니다만...
구글이나 네이버등...
표준을 지키는 로봇들은 건전한(?) 로봇들 이므로 차단을 하지 않는것이 좋습니다~

표준을 지키지 않는 괴이한 로봇들은 차단이 힘든것으로 알고 있읍니다~
댓글을 작성하시려면 로그인이 필요합니다. 로그인

그누4 질문답변

그누보드4 관련 질문은 QA 로 이전됩니다. QA 그누보드4 바로가기 기존 게시물은 열람만 가능합니다.

+
제목 글쓴이 날짜 조회
12년 전 조회 2,904
12년 전 조회 3,008
12년 전 조회 8,025
12년 전 조회 3,230
12년 전 조회 4,200
12년 전 조회 3,332
12년 전 조회 3,681
12년 전 조회 5,287
12년 전 조회 2,519
12년 전 조회 4,150
12년 전 조회 1만
12년 전 조회 3,239
12년 전 조회 4,653
12년 전 조회 3,168
12년 전 조회 4,349
12년 전 조회 2,799
12년 전 조회 2,618
12년 전 조회 3,175
12년 전 조회 3,312
12년 전 조회 3,764
🐛 버그신고