서버단에서 막아도 로봇은 들어오는군요. 당연하긴 하지만 혹시나 해서 했던건데. 쩝.

· 19년 전 · 2166 · 4
80포트는 열려있고
서버 자체에 접근하는걸 막는거라 안될거라고 예상은 했지만.. 쩝.
 
웹서버에서 막을 방법을 찾아야겠군요.
robots.txt 무시하고 들어오는 네이버때문에 그것만으로는 부족하니 아예
ip체크하고 막아버릴 방법을 고심중입니다.
 
아시는 분은 댓글을 +_+
|

댓글 4개

메타태그로 못 막나요...?
해보지는 않았지만 소용없을거 같아요.
robots.txt를 무시하는데 메타테그가 무슨 소용이 있을까 싶기도 하고
메타테그로 막는 방법을 몰라서요.
검색을 해보긴 해야겠군요. ^^
좋은 정보 감사합니다.
흐...

일단 자신이 운영하는 사이트에서,
단독으로 움직이는(그누보드와 연동되지 않는) 웹페이지는
'제거' 비스꼬롬한 처방을 내리시고...

특별히 제어해야 할 경우라면 보드(필수파일 common...)와 연동시키시켜 보시기 바랍니다.
그리고 나서 그누보드 기반으로 제어(IP차단 등) 하시는 방법이 그나마 손쉬울 듯 합니다.
물론, 특정 IP 하나씩만 막는것이 아니라,
비슷한 대역폭을 몽땅 두드려 막아야겠지요.

또한, 웹서버에서 각 계정사용자가 .htaccess로 대표되는 기능을 사용할 수 있게 세팅되어 있다면,
팁앤테크에 등록되어 있는 .htaccess .htpasswd와 같은 키워드를 이용해,
응용할 수 있는 방법을 참조해 보시기 바랍니다.
물론, 직접적으로 접근을 제어하는 방법도 게재되어 있습니다.


참... 접근제어를 풀어놓은 상태에서 '손님(^^;)'에게 엄청난 일을 시키고 싶다면,
'M-club'님께서 사용하시는 방법도 고려해 보실 수 있겠습니다.
기본적인 보안에 대해서는 말씀하신데로 검색을 해보았습니다만
다 설정이 되어있습니다. ^^
게다가 호스팅 서비스를 하는 서버라서 가상호스팅쪽에서 막아버릴 방법을 찾아야겠습니다.
ip를 일일이 블록을 해야할지 아니면 임의로 전역쪽에서 막아야 할지 판단이 안섭니다.
왜냐면 로봇의 접근을 반기는 분들도 계실테니까요.
조금 더 생각해봐야겠습니다.

M-club님의 내용은 워낙 방대해서 아직 못찾아보았습니다. ㅜ.ㅡ
검색중에 bandwidth에 대해 나오는데 전 mod-throttle만 설정해두고 주석으로
대역폭은 막지 않고 있는데 ( 사실 bandwidth는 제대로 동작이 안되는경우가 많아서리 -_- )

요즘 트래픽이 탁구공처럼 튀는걸 보고 죄다 걸어버릴까 하며 살짝 열이받아있기도 합니다.
훗.. -_-;;;
댓글을 작성하시려면 로그인이 필요합니다. 로그인

자유게시판

+
제목 글쓴이 날짜 조회
19년 전 조회 1,811
19년 전 조회 1,712
19년 전 조회 1,809
19년 전 조회 1,988
19년 전 조회 1,697
19년 전 조회 1,753
19년 전 조회 1,755
19년 전 조회 1,870
19년 전 조회 1,812
19년 전 조회 1,647
19년 전 조회 1,723
19년 전 조회 1,862
19년 전 조회 1,866
19년 전 조회 1,659
19년 전 조회 2,167
19년 전 조회 1,636
19년 전 조회 1,666
19년 전 조회 2,819
19년 전 조회 1,729
19년 전 조회 1,813
19년 전 조회 3,043
19년 전 조회 1,709
19년 전 조회 1,811
19년 전 조회 1,575
19년 전 조회 1,812
19년 전 조회 3,417
19년 전 조회 1,932
19년 전 조회 1,656
19년 전 조회 1,995
19년 전 조회 1,868
🐛 버그신고