Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 종합과세
- 전세보증보험
- 임대소득외 추가소득이 있을 경우
- 종합소득세
- 데이터 리터러시
- PostgreSQL
- 나는 어디로?
- 주상복합용지 분양
- chatgpt 100% 신뢰금지
- Google vs OpenAI
- 오피스텔투자
- bard 100% 신뢰금지
- 2룸 오피스텔 투자
- 공개서적
- 가장 인기있는 파이썬 패키지
- 라이브러리 vs 패키지
- 주택임대사업자
- 가장 많이 사용되는 파이썬 라이브러리
- chatgpt vs bard
- 상업시설용지 분양
- Google vs MicorSoft
- 파이썬 TypeError
- Python
- 다주택임대
- 가장 인기있는 파이썬 라이브러리
- robux
- 소형주택 세액감면
- 갤럭시탭 with Pen
- 가장 많이 사용되는 파이썬 패키지
- 오라클 데이터베이스 내장함수
Archives
All thing of the world!
python Scrapy 초간단 사용법 정리 본문
Python으로 작성된 Scrapy 사용법에 대해 정리한다.
(Not Scrappy! Scrapy!)
Scrapy란 웹스크래핑(Web Scrapping) 혹은 웹크롤링(Web Crawling)을 빠르고 안정적으로 대량 데이터를 쉽게 추출하기 위한 프레임워크다.
1. python에 Scrapy 설치
pip install scrapy
2. 터미널에서 Scrapy 프로젝트 생성
scrapy startproject <프로젝트명>
예) scrapy startproject testproject
3. 터미널에서 Scrapy spider(웹크롤러) 생성
scrapy genspider <spider명칭> <스크랩핑할 웹주소>
예) scrapy genspider testspider www.naver.com
※주의) 웹주소 기입시 "http://" 혹은 "https://" 없이 입력할 것
4. 터미널에서 Scrapy 웹스크래핑 실행
scrapy crawl <생성한 스파이더명>
예) scrapy crawl testspider
Just 4 step만으로도 testspider가 웹스크래핑을 시작한다.
물론 상세하게 들어가면 상당히 많은 것을 customizing(조정)해서 사용할 수 있다.
자세한 사용방법은 아래 scrapy 공식사이트의 영어원문을 참고하자.
https://scrapy.org/
'IT > python' 카테고리의 다른 글
python mysql 데이터베이스 접속 코딩(connection code) (0) | 2023.04.29 |
---|---|
python 데이터베이스 접속(connection code) 정리 (0) | 2023.04.29 |
merge 설명 : python pandas 함수 (0) | 2022.03.27 |
concat 설명 : python pandas 함수 (0) | 2022.03.27 |
read_csv 설명 : python pandas 함수 (0) | 2022.03.23 |
Comments