|
|
|
12년 전
|
조회 2,904
|
|
|
|
12년 전
|
조회 3,008
|
|
|
|
12년 전
|
조회 8,025
|
|
|
|
12년 전
|
조회 3,230
|
|
|
|
12년 전
|
조회 4,200
|
|
|
|
12년 전
|
조회 3,332
|
|
|
|
12년 전
|
조회 3,681
|
|
|
|
12년 전
|
조회 5,287
|
|
|
홈짱
|
12년 전
|
조회 2,519
|
|
|
|
12년 전
|
조회 4,150
|
|
|
|
12년 전
|
조회 1만
|
|
|
|
12년 전
|
조회 3,239
|
|
|
|
12년 전
|
조회 4,653
|
|
|
|
12년 전
|
조회 3,168
|
|
|
|
12년 전
|
조회 4,349
|
|
|
|
12년 전
|
조회 2,799
|
|
|
|
12년 전
|
조회 2,618
|
|
|
|
12년 전
|
조회 3,175
|
|
|
|
12년 전
|
조회 3,312
|
|
|
|
12년 전
|
조회 3,764
|
댓글 5개
SetEnvIfNoCase User-Agent "naver" bad_request
Deny from env=bad_request
이부분을 삽입하라고 나와있는데 어디에 삽입하면 되나영?;; 초보라서리 ㅜㅜ
ps.
트래픽을 좀 늘려 로봇이 긁어가는 걸 허용하는 게 낫습니다.
긁어가야 검색 유입이 이루어지니까요..
robots.txt 에 대한 내용도 찾아보세요~
구글이나 네이버등...
표준을 지키는 로봇들은 건전한(?) 로봇들 이므로 차단을 하지 않는것이 좋습니다~
표준을 지키지 않는 괴이한 로봇들은 차단이 힘든것으로 알고 있읍니다~