[이번에는 챔피언을 입력하면 롤 카운터를 출력해주는 봇을 만들어 보도록 하겠습니다.] 먼저 카운터를 가져올 사이트를 크롤링합니다. (이번 포스팅에서는 롤 인벤 사이트를 참고하여 제작하겠습니다.) 먼저 사이트 url 양식을 살펴보면 lol.inven.co.kr/dataninfo/counter/list.php?code=19 아칼리 = 1) resp = requests.get(test_url) html = BeautifulSoup(resp.content, 'html.parser') rel = html.find('div', {'class': 'champList'}) CounterChamp = str(rel).split('selectCounter') del CounterChamp[0] del CounterCham..
[오늘은 주식 정보를 크롤링해서 가져오겟습니다.] 먼저 아래 코드에서 사용된 replace_stock라는 함수는 크롤링해서 가져온 정보를 사용학기 위한 직접적인 정보로 바꿔주는 역할임을 알려드립니다. def replace_stock(datas): datas = datas.replace("td","") datas = datas.replace("","") datas = datas.replace(" ","") _,datas = datas.split(",",1) return data from bs4 import BeautifulSoup import requests stock_name = str(input()) data = [] def replace_stock(datas): datas = datas.replace..
[원하는 주제와 관련된 최근 기사를 크롤링해 보겠습니다.] 먼저 네이버 기사 검색 url양식을 따오면 (search.naver.com/search.naver?sm=tab_hty.top&where=news&query="+article)과 같은 양식임을 확인할 수 있습니다. 기사의 제목을 따기위해 양식을 확인하고 그에 맞는 정보를 가져옵니다. 따온 내용들이 모두 news_title로 들어가 있을텐데, 필요없는 내용들을 슬라이싱으로 잘라내 진짜 "제목"만 남깁니다. import requests from bs4 import BeautifulSoup from datetime import datetime article = str(input()) try: url = "https://search.naver.com/se..
1번은 눈에 보이는 webdriver창이 켜진상태로 정보 가져오기 - 2번은 눈에 보이지않게, webdriver로 정보 가져오기 입니다. 1번. 눈에 보이는 webdriver창이 켜진상태로 크롤링하기 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 #perfect 완성본 - visible from selenium import webdrive..
「오늘은 네이버 코로나 현황을 크롤링해서 IFTTT를 통해 해당 내용을 메시지로 보내보는 것을 해보겠습니다.」 과정: 네이버의 코로나 현황 크롤링해 데이터 분류하기 ITFFF사이트의 서비스 사용하기 위의 두 과정을 연결시키기 1. 네이버의 코로나 현황 크롤링해 데이터 분류하기 자 이제 크롤링을 해봅시다! F12를 눌러 확인해보면 밑에 먼저 크롤링 코드는 아래와 같습니다. import requests from bs4 import BeautifulSoup from datetime import datetime day_month = datetime.today().month day_day = datetime.today().day data = [] CoronaData = [] datasets = [] url='ht..
「webdriver를 사용해 리로스쿨 중 수행, 대회 부분 내용을 크롤링 해 날짜, 시간, 내용에 맞게 데이터를 분리해 보겠습니다.」 먼저 webdriver를 사용하기 위해서는 https://chromedriver.chromium.org/downloads를 방문하여 자신의 크롬버전에 맞는 Webdriver를 다운로드하여야 합니다. 크롬 버전을 확인하는 방법은 다음 사진과 같습니다. - 설치한 압출파일을 풀어 원하는 위치에 놓아주세요 (이 포스팅에서는 C:에 저장된 상태로 진행하겠습니다.) - 이제 본격적으로 webdriver을 사용할 준비가 끝났습니다. - 코드&코드 설명입니다. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 2..
- Total
- Today
- Yesterday
- 1255
- django
- Codeup
- pygame
- Anaconda
- 1252
- 티처블 머신
- 꿈두레
- 바닐라 js
- 아나콘다
- 바닐라 javascript
- SMTP
- 문제풀이
- JavaScript
- 코드업
- 1254
- 1251
- 크롤링
- 1253
- 코드설명
- Python
- 도전
- promise반환
- notion api
- 사칙연산
- 주석
- 타이탄의도구들
- localstorage
- 컨트롤타임
- 2022.02.05
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |