ZeroWiki 는 ZP 내부작업을 위한 위키입니다. 아무래도 외부로 노출되었을 경우 여러 문제들이 발생할 수 있을 것입니다. (저번과 같은 크래킹의 문제도 있을테고요..)
지금 empas 에서 zeropage 의 해당 위키페이지들이 전부 노출되어버린 상태입니다. 아무래도 위험하다 생각되어지는데 좋은 해결방법이 없을까요? (또는 대외적으로 이를 홍보방법으로 이용할까요? -_-a)
엠파스의 검색 로봇들을 막아보세!
엠파스 눈 이상한 바보 토끼녀석!
무찌르자 검색 로봇!!
타도 검색 로봇!!
도대체 엠파스는 어떻게 저희 홈페이지를 링크한걸까요..?
그 방법을 알아야 해결책이 나오지 않을까요?? -- 선호
보통 검색 로봇들은 해당 페이지들의 링크들을 얻어서 그 페이지들을 검색하고, 다시 또 링크를 얻어서 페이지를 검색하는 식으로 재귀적으로 페이지들을 검색한뒤, 내용들을 인덱스화 하여 데이터베이스에 저장하는 방식일 것입니다.
아까 회의때 나온 방법들 정리하면
- zeropage 왼쪽 frame 의 ZeroWiki 부분에 로그인 루틴을 붙이고, ZeroWiki 의 alias를 수정하자. (단, open password)
- empas 에 등록 철회를 요청한다. 만약 거부할 경우에는 무단링크로 처리 가능하다고 합니다. (거부당한 증거 필요) - 이에 대한 요청 방법 아시는 분?
empas 홈페이지에서 거부 신청 가능
- 검색 엔진에 대한 robot.txt 작성
대부분의 검색엔진은 robot.txt를 생무시함
- 검색 엔진 IP를 막는다. - 그렇더라도 이미 노출된 페이지들은.. 결국 경로를 바꿔야 하려나요.
이 방법이 가장 확실함. 아파치 웹 서버에서 IP deny를 시킴. 이때 검색 엔진은 보통 10여개의 IP를 사용하므로 모두 막아줘야 함
- 이를 ZP 홍보기회로 이용한다. --a
- 우리 모두 위키의 정신을 한 번 되세겨 보자. 위키는 자유공간인데 그걸 계정을 만든다느니 어짼다느니 한다는 건 위키의 정신에 위배되는 행위라고 본다. delete 하지 못하게만 한 것으로 충분하지 않을까 싶은데.... From X
- Page History 로 해당 페이지를 원상복구 할 수 있고, 백업도 주기적으로 잘 해주고 있으니, 그냥 검색엔진 IP를 막는 것으로 마무리 지었으면 합니다. 단, 동문서버에 링크 거는 것에 대한 것이 문제인데, 이는 동문서버팀에게 요청하는 선으로 해결지었으면 합니다. --석천
지나가다가 끄적입니다.
검색서비스를 제공하고 있는 곳에서는 로봇 에이전트를 사용하여 검색한다는거 아실겁니다. 이러한 로봇은 강제성은 없지만 로봇 배제 표준을 따르도록 프로그래밍 하는 것이 관례 입니다. 웹서버 루트에 robots.txt 파일을 다음과 비슷하게 작성하시면 되겠습니다.
# robots.txt for www.xxx.com - i hate robots
User-agent: *
Disallow: /
모든 페이지의 HTML 헤더에 meta NAME="ROBOTS" 을 설정해서 다는 걸로 해결이 되지 않을까 생각됩니다.