Python/BeautifulSoup11 [크롤링] 파이썬으로 간단하게 크롤링하기2. (Beautifulsoup4, request라이브러리 사용법) https://deahan.tistory.com/418 [크롤링] 파이썬으로 간단하게 크롤링하기1. (환경설정)1. 파이썬 설치2. VScode 설치3. VScode 확장 프로그램 및 주피터 노트북 사용 1.파이썬 설치https://www.python.org/downloads/ Download PythonThe official home of the Python Programming Languagewww.python.org 현재 python 3.12.deahan.tistory.com여기까지 환경설정(5분도 안걸림)을 마쳤다면~~~이번엔 라이브러리 사용법이다.따라하자 1.requests 사용법첫 번째 박스pip install requests -> requests 라이브러리 설치 두 번째 박스pip in.. 2024. 10. 7. [크롤링] 파이썬으로 간단하게 크롤링하기1. (환경설정) 1. 파이썬 설치2. VScode 설치3. VScode 확장 프로그램 및 주피터 노트북 사용 1.파이썬 설치https://www.python.org/downloads/ Download PythonThe official home of the Python Programming Languagewww.python.org 현재 python 3.12.7버전이 최신버전임클릭해서 다운로드 후 실행나는 이미 깔아놓은 버전이 있어서 업그레이드 하라고 나오는데 처음깔게 되면아래 사진처럼체크 박스 2개가 보임 꼭 체크박스 체크해주자환경변수 등록 필수!!그리고 냅다 설치 또는 업그레이드클로즈 버튼 클릭 그리고 win + R 눌러서 cmd 열어서 python 입력 그럼 '>>> '이렇게 표시가 되는데 이게 파이썬 입력창이.. 2024. 10. 7. 파이썬(BeautifulSoup)사용해서 주식 데이터 크롤링(가져오기) import requests from bs4 import BeautifulSoup url = 'https://stock.mk.co.kr/domestic/all_stocks?type=kospi&status=industry' # url = 'https://stock.mk.co.kr/domestic/all_stocks?type=kosdaq&status=industry' response = requests.get(url) # print("response",response.text) html = response.text soup = BeautifulSoup(html, 'html.parser')#html형태로 바꾼다. box = soup.select('.row_sty') for idx,a in enumerate(b.. 2023. 7. 8. 파이썬(BeautifulSoup) 원하는 데이터 크롤링 하기 - 인터넷 문서의 구조에서 명확한 데이터를 추출하고 처리하는 가장 쉬운 라이브러리 soup.find() 맨첫번째 태그 하나만 가져옴 soup.find_all() 태그단위로 뽑아오는데 고른 태그와 관련된 모든 태그들을 배열로 가져옴 find() find_all() 이용해서 값 뽑아오기 import requests from bs4 import BeautifulSoup url = 'http://127.0.0.1:8000/emplist' response = requests.get(url) print("response",response.text) html = response.text soup = BeautifulSoup(html, 'html.parser')#html형태로 바꾼다. trs = soup.find_al.. 2023. 7. 7. 파이썬(BeautifulSoup) 크롤링 하기위한 뷰티풀 수프 다운 나중에 이걸로 관리할사람은 pip로 설치하면 안댐 2023. 7. 7. 이전 1 2 다음