구글에서 URL로 검색시 문제가 있는데 아시는분 계시나요?
본문
웹호스팅 이용하는 홈페이지에 ssl 설치 후
.htaccess를 이용해서 홈페이지 접속시 무조건 https로 연결되게 했습니다.
그런데 구글에서 검색시 검색어로는 제대로 검색되고
https://도메인명으로 검색해도 검색이 되는데...
http://도메인명 이나 그냥 도메인명으로만 검색하면
"사이트의 robots.txt 때문에 검색결과의 설명을 확인할 수 없습니다."
라고 나옵니다.
robots.txt는 아래처럼 작성해서 문제가 없는거 같은데 말이죠.
User-agent: *
Allow: /
다른 분들 홈페이지는 구글에서 주소로 검색시
https를 붙이나 안붙이나 동일하게 나오던데, 이거 왜 이런걸까요?
아마 https로의 연결을 .htaccess가 아닌 서버자체에서 설정을 해서 제대로 나오는거 같기는 한데...
또 이런 저런 홈페이지 검색해보면
대기업 홈페이지고 https를 이용하지도 않는데,
도메인명이나 회사명으로 검색해도
"사이트의 robots.txt 때문에 검색결과의 설명을 확인할 수 없습니다."
라는 메세지 나오는곳도 있네요.
이곳도 robots.txt는 저와 동일하던데...
이거 원인이나 해결방법 아시는분 계시나요?
답변을 작성하시기 전에 로그인 해주세요.