E D R , A S I H C RSS

How To Block Empas

ZeroWiki 는 ZP 내부작업을 위한 위키입니다. 아무래도 외부로 노출되었을 경우 여러 문제들 발생할 수 있을 것입니다. (저번과 같은 크래킹의 문제도 있을테고요..)

지금 empas 에서 zeropage 의 해당 위키페지들 전부 노출되어버린 상태입니다. 아무래도 위험하다 생각되어지는데 좋은 해결방법 없을까요? (또는 대외적으로 를 홍보방법으로 용할까요? -_-a)


엠파스의 검색 로봇들을 막아보세!

엠파스 눈 상한 바보 토끼녀석!

무찌르자 검색 로봇!!

타도 검색 로봇!!


도대체 엠파스는 어떻게 저희 홈페지를 링크한걸까요..?

그 방법을 알아야 해결책 나오지 않을까요?? -- 선호

보통 검색 로봇들은 해당 페지들의 링크들을 얻어서 그 페지들을 검색하고, 다시 또 링크를 얻어서 페지를 검색하는 식으로 재귀적으로 페지들을 검색한뒤, 내용들을 인덱스화 하여 데터베스에 저장하는 방식일 것입니다.


아까 회의때 나온 방법들 정리하면
  1. zeropage 왼쪽 frame 의 ZeroWiki 부분에 로그인 루틴을 붙고, ZeroWiki 의 alias를 수정하자. (단, open password)
  2. empas 에 등록 철회를 요청한다. 만약 거부할 경우에는 무단링크로 처리 가능하다고 합니다. (거부당한 증거 필요) - 에 대한 요청 방법 아시는 분?
    empas 홈페지에서 거부 신청 가능
  3. 검색 엔진에 대한 robot.txt 작성
    대부분의 검색엔진은 robot.txt를 생무시함
    검색결과의 삭제에 대한 내용 다음 사트에 있군요. http://www.google.com/intl/ko/remove.html
  4. 검색 엔진 IP를 막는다. - 그렇더라도 미 노출된 페지들은.. 결국 경로를 바꿔야 하려나요.
    방법 가장 확실함. 아파치 웹 서버에서 IP deny를 시킴. 때 검색 엔진은 보통 10여개의 IP를 사용하므로 모두 막아줘야 함
  5. 를 ZP 홍보기회로 용한다. --a


  • 우리 모두 위키의 정신을 한 번 되세겨 보자. 위키는 자유공간인데 그걸 계정을 만든다느니 어짼다느니 한다는 건 위키의 정신에 위배되는 행위라고 본다. delete 하지 못하게만 한 것으로 충분하지 않을까 싶은데.... From X
    • Page History 로 해당 페지를 원상복구 할 수 있고, 백업도 주기적으로 잘 해주고 있으니, 그냥 검색엔진 IP를 막는 것으로 마무리 지었으면 합니다. 단, 동문서버에 링크 거는 것에 대한 것 문제인데, 는 동문서버팀에게 요청하는 선으로 해결지었으면 합니다. --석천

지나가다가 끄적입니다.
검색서비스를 제공하고 있는 곳에서는 로봇 에전트를 사용하여 검색한다는거 아실겁니다. 러한 로봇은 강제성은 없지만 로봇 배제 표준을 따르도록 프로그래밍 하는 것 관례 입니다. 웹서버 루트에 robots.txt 파일을 다음과 비슷하게 작성하시면 되겠습니다.

# robots.txt for www.xxx.com - i hate robots

User-agent: *

Disallow: /


모든 페지의 HTML 헤더에 meta NAME="ROBOTS" 을 설정해서 다는 걸로 해결 되지 않을까 생각됩니다.

Valid XHTML 1.0! Valid CSS! powered by MoniWiki
last modified 2021-02-07 05:23:25
Processing time 0.0162 sec