검색로봇 차단하면?
본문
검색등록이 완료되어
검색시 노출이 잘 됩니다
이상태 에서
검색결과물의 변화를 원치 않아
로봇접근을 차단할 경우
검색 노출에 제약이 발생 하나요?
예를들면
노출이 잘 안되거나
삭제 되거나 하는 등의
문제가 발생 하는지요?
아니면
저의 희망대로
검색노출 결과물의 변화가 없는
상태 로 유지 되면서
현재와 같이 잘 노출 되는지요?
답변좀 부탁 드립니다
감사 합니다
답변 2
- 색인된 콘텐츠를 "http://effect2.kr/hope_page"로 가정하면,
검색 포털에 색인된 "http://effect2.kr/hope_page"의 내용 변화 없이 검색 노출을 확보하려면,
robots.txt 설정 대신 noindex 메타 태그를 사용하는 것은 피하고,
사이트맵을 유지하며 색인된 페이지가 여전히 접근 가능하고
유효한 상태임을 검색 엔진에 신호로 제공해야 합니다.
이를 위해 콘텐츠 업데이트를 최소화하고,
페이지 제목, 설명(meta description), URL 구조 등을 변경하지 않으며,
Google Search Console 같은 도구에서 "색인 요청" 기능을 활용해
검색 엔진에 색인 상태를 점검하도록 합니다.
또한, robots.txt 파일은 색인된 페이지에 대한 접근을 제한하지 않도록 설정해야 합니다.
- 요점 -
*Robots.txt 설정에서 "http://effect2.kr/hope_page"에는 제한 없이 접근 가능하게 유지.
*사이트맵을 유지하며, "http://effect2.kr/hope_page" 링크를 포함.
*Google Search Console 같은 도구의 '색인 요청' 기능을 활용해 색인 상태를 점검하고,
필요 시 "색인 요청"을 통해 페이지가 정상적으로 노출되도록 해야 합니다.
그냥 차단한 부분만, 삭제 되지 별도로 불이익은 없습니다.
저도 필요에 의해 혹은 불필요한 상황에선 그때 그때 robots 파일 변경합니다.