현재버전

첫 번째 방법으로 하는게 url주소도 가져오기 편할 거 같아서 바로 zip을 공부하고 실행했더니 성공했습니다!

감사합니다 !!

죄송하지만 추가적인 질문이 있는데 가능하실까요..?


#beautifulsoup으로 h2, vote 가져와서 zip으로 그룹화 시키기 def next_page(): driver.find_element_by_css_selector('#container > div.wrap.articles > div.pagination > a.next').click() time.sleep(0.5) res = driver.page_source soup = BeautifulSoup(res,"html.parser") data_name = soup.select('h2') data_num =soup.select('.vote') for data in zip(data_name,data_num): print(data) #data.get_text()를 넣고 싶었지만 입력 불가 #다음장으로 넘기기 코드 driver.find_element_by_xpath('//*[@id="sheet"]/ul/li[3]/a').click() time.sleep(0.5) for page_roof in range(3): next_page() driver.quit()

깔끔하게 보기 좋게 텍스트만 가져오고 싶었는데 get_text가 먹히지가 않네요..

이걸 사용하려면 두 번째 방법으로 사용하는 것 밖에는 방법이 없을까요??

수정이력

2020-03-31 17:32:34 에 아래 내용에서 변경되었습니다.

첫 번째 방법으로 하는게 url주소도 가져오기 편할 거 같아서 바로 zip을 공부하고 실행했더니 성공했습니다!

감사합니다 ㅠㅠ

죄송하지만 추가적인 질문이 있는데 가능하실까요..?


#beautifulsoup으로 h2, vote 가져와서 zip으로 그룹화 시키기 def next_page(): driver.find_element_by_css_selector('#container > div.wrap.articles > div.pagination > a.next').click() time.sleep(0.5) res = driver.page_source soup = BeautifulSoup(res,"html.parser") data_name = soup.select('h2') data_num =soup.select('.vote') for data in zip(data_name,data_num): print(data) #data.get_text()를 넣고 싶었지만 입력 불가 #다음장으로 넘기기 코드 driver.find_element_by_xpath('//*[@id="sheet"]/ul/li[3]/a').click() time.sleep(0.5) for page_roof in range(3): next_page() driver.quit()

깔끔하게 보기 좋게 텍스트만 가져오고 싶었는데 get_text가 먹히지가 않네요..

이걸 사용하려면 두 번째 방법으로 사용하는 것 밖에는 방법이 없을까요??

cat-footer