1. 목적


Python을 이용해서 Web Crawler를 제작하면서 Python의 사용법을 익히고, 원하는 웹 페이지를 긁기 위한 Web Crawler를 제작한다. (네이버웹툰(돌아온 럭키짱, 신의 탑...), 네이버 캐스트, 그 외의 각종 웹페이지..)


2. 필요기술


3. 진행 과정



3.1. 필요한 문서

3.2. 시작


3.2.1. 웹 페이지 소스 긁어오기




import urllib
import urllib2

req = urllib2.Request('http://9632024.tistory.com/974')
try: urllib2.urlopen(req)
except URLError, e:
	print e.reason

fo = open("test1.html","w")
for line in urllib2.urlopen(req).readlines():
	fo.write(line)

fo.close()

3.2.2. 소스에서 URL만 추출하기


import urllib
import urllib2
import string

fo1 = open("test1.html", "r")
fo2 = open("test2.html", "w")

for line in fo1.readlines() :
	pos = string.find(line, '"http')
	if pos is not -1 :
		for c in range(pos+1, len(line)) :
			if line[c] is '"' :
				fo2.write("\n")
				break
			fo2.write(line[c])

fo1.close()
fo2.close()

3.2.3. 파일 다운로드하기

import urllib
import urllib2


fo = open("test2.html", "r")
for line in fo.readlines():
	urllib.urlretrieve(line,line.split('/')[-1])

fo.close()



Python 2.7.2+ (default, Oct  4 2011, 20:03:08) 
[GCC 4.6.1] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> first = 1
>>> second = 2
>>> first, second = second, first
>>> print first
2
>>> print second
1
>>> first, second = second, first
>>> third = 3
>>> first, second, third = third, first, second
>>> print first, second, third
3 1 2


3.2.4. 디렉토리 만들기


import os

os.chdir(os.getcwd() + '/folder')
def create_dir(folder):
	cdir = os.getcwd()
	mdir = cdir + folder
	print mdir;
	if os.path.isdir(mdir) is  False :
		os.mkdir(mdir , 0755)

type = ['/mp3', '/jpg', '/txt']
for t in type :
	create_dir(t)


디렉토리 소유자 권한 그룹 권한 전체 권한
r(4)w(2)x(1)
755 -> drwxr-xr-x
http://snowbora.com/343

3.2.5. 웹툰(네이버) 긁기



import prepare
import os

currentpath = os.getcwd()
path = os.getcwd() + '/luckyzzang'
if os.path.isdir(path) is False :
	os.mkdir(path, 0755)


os.chdir(path)
currentpath = os.getcwd()


for i in range(1, 21):
	url = 'http://comic.naver.com/webtoon/detail.nhn?titleId=449854&no=' + str(i) + '&weekday=wed'

	path = currentpath + '/' + str(i)
	if os.path.isdir(path) is False :
		os.mkdir(path, 0755)
	
	os.chdir(path)
	
	prepare.readpage(url, str(i) + '.html')
	prepare.extractwt(str(i) + '.html', str(i) + 'file.html')
	prepare.download(str(i) + 'file.html')


3.2.6. wxPython


자꾸 글자만 나오는 환경을 보니까 질리기 시작했다. 아직 완성은 멀었지만 GUI로 만들어보려고 함. 어차피 나중에 해야되니까...

3.2.7. pywin32

3.2.8. Eclipse + PyDev + wxPython + pywin32


1. Eclipse 설치
2. Eclipse에서, Help > Install New Software > Add > PyDev, Http://pydev.org/updates
3. 중간에 Aptana 신뢰하는지에 동의, 재시작
4. Window > Preference > PyDev > Interpreter - Python > Auto Config
5. New Folder > /usr/lib/python2.7/dist-packages/wx-2.8-gtk2-unicode

  • 사실 라이브러리 다 깔아놓고 Auto Config하면 됨..

3.3. 개선해야 할 점



  • 크롤러라니.. 음. -태진
Retrieved from http://wiki.zeropage.org/wiki.php/권영기/web crawler
last modified 2021-02-07 05:28:46