728x90
반응형
* 본 포스팅은 주피터 노트북에서 실행하였다.
txt, csv 파일을 만들 것이다.
txt 저장
file = open('1.txt','w')
file.close()
pwd
에 위치한 곳에 1.txt로 저장이 된다.
들어가보면 빈 화면인데 이것의 내용을 with 키워드로 채워보자!
with open('1.txt','w') as f:
f.write("사랑\n")
f.write("믿음\n")
f.write("증오\n")
실행시키고 아까 봤던 1.txt 파일을 열어보면
이제 응용으로 블로그에서 크롤링해서 파일에 저장해보도록 하자
import requests as rq
from bs4 import BeautifulSoup
url = "https://hello-ming.tistory.com/"
res=rq.get(url).text #get방식으로 접근
soup = BeautifulSoup(res,'lxml')
soup
resp = soup.select('div')
for i,j in enumerate(resp):
print(i,j)
with open('2.txt','w',encoding='utf-8') as f:
f.write(str(resp))
csv 저장
columns = ["이름", "나이", "주소"]
names = ["철구", "맹구", "짱구", "유리"]
ages = ["20", "21", "20", "22"]
address = ["경기도", "강원도", "경상도", "전라도"]
with open('4.csv',"a") as f:
column = ','.join(columns) +"\n"
f.write(column)
for i in range(0,len(names)):
row =('%s,%s,%s\n')%(names[i], ages[i], address[i])
f.write(row)
pandas로 보이게 했다.
engine='python' / encoding='utf-8 / encoding='CP949
를 활용하면 한글 깨짐을 막을 수 있다.
나이가 21보다 큰 사람을 고르자
전라도에 사는 사람만 골라서 CSV 파일에 저장하기
728x90
반응형
'Data Analysis > web crawling' 카테고리의 다른 글
[Crawling] Slack 파이썬으로 연동 / 채팅하기 (0) | 2021.06.09 |
---|---|
[Crawling] Slack Bot 만들기 (0) | 2021.06.09 |
[Crawling] logging 사용 / 파일에 문서 생성하기 (0) | 2021.06.09 |
[crawling] 웹 제어하기 / 키보드 제어 (selenium) (0) | 2021.06.09 |
[Crawling] 가상 돔을 활용한 크롤러 / selenium (0) | 2021.06.09 |