|
|
|
12년 전
|
조회 2,984
|
|
|
|
12년 전
|
조회 3,088
|
|
|
|
12년 전
|
조회 8,122
|
|
|
|
12년 전
|
조회 3,325
|
|
|
|
12년 전
|
조회 4,284
|
|
|
|
12년 전
|
조회 3,433
|
|
|
|
12년 전
|
조회 3,765
|
|
|
|
12년 전
|
조회 5,388
|
|
|
홈짱
|
12년 전
|
조회 2,613
|
|
|
|
12년 전
|
조회 4,234
|
|
|
|
12년 전
|
조회 1만
|
|
|
|
12년 전
|
조회 3,327
|
|
|
|
12년 전
|
조회 4,744
|
|
|
|
12년 전
|
조회 3,248
|
|
|
|
12년 전
|
조회 4,439
|
|
|
|
12년 전
|
조회 2,899
|
|
|
|
12년 전
|
조회 2,703
|
|
|
|
12년 전
|
조회 3,275
|
|
|
|
12년 전
|
조회 3,411
|
|
|
|
12년 전
|
조회 3,859
|
댓글 5개
SetEnvIfNoCase User-Agent "naver" bad_request
Deny from env=bad_request
이부분을 삽입하라고 나와있는데 어디에 삽입하면 되나영?;; 초보라서리 ㅜㅜ
ps.
트래픽을 좀 늘려 로봇이 긁어가는 걸 허용하는 게 낫습니다.
긁어가야 검색 유입이 이루어지니까요..
robots.txt 에 대한 내용도 찾아보세요~
구글이나 네이버등...
표준을 지키는 로봇들은 건전한(?) 로봇들 이므로 차단을 하지 않는것이 좋습니다~
표준을 지키지 않는 괴이한 로봇들은 차단이 힘든것으로 알고 있읍니다~