검색로봇 차단도 가능한가요?

검색로봇 차단도 가능한가요?
|

댓글 5개

SetEnvIfNoCase User-Agent "google" bad_request
SetEnvIfNoCase User-Agent "naver" bad_request
Deny from env=bad_request

이부분을 삽입하라고 나와있는데 어디에 삽입하면 되나영?;; 초보라서리 ㅜㅜ
다시 링크 타고 가셔서, 첨부파일 다운받아 빌더가 설치된 폴더에 넣어주세요 !
ps.
트래픽을 좀 늘려 로봇이 긁어가는 걸 허용하는 게 낫습니다.
긁어가야 검색 유입이 이루어지니까요..
.htaccess 파일로 저장하고 루트에 업로드하면 됩니다
robots.txt 에 대한 내용도 찾아보세요~
검색로봇 차단은 표준규정을 지키고 있는 로봇에 한해서만 차단이 가능합니다만...
구글이나 네이버등...
표준을 지키는 로봇들은 건전한(?) 로봇들 이므로 차단을 하지 않는것이 좋습니다~

표준을 지키지 않는 괴이한 로봇들은 차단이 힘든것으로 알고 있읍니다~
댓글을 작성하시려면 로그인이 필요합니다.

그누4 질문답변

그누보드4 관련 질문은 QA 로 이전됩니다. QA 그누보드4 바로가기 기존 게시물은 열람만 가능합니다.

+
제목 글쓴이 날짜 조회
12년 전 조회 2,984
12년 전 조회 3,088
12년 전 조회 8,122
12년 전 조회 3,325
12년 전 조회 4,284
12년 전 조회 3,433
12년 전 조회 3,765
12년 전 조회 5,388
12년 전 조회 2,613
12년 전 조회 4,234
12년 전 조회 1만
12년 전 조회 3,327
12년 전 조회 4,744
12년 전 조회 3,248
12년 전 조회 4,439
12년 전 조회 2,899
12년 전 조회 2,703
12년 전 조회 3,275
12년 전 조회 3,411
12년 전 조회 3,859