현재 버전

첫 번째 방법으로 하는게 url주소도 가져오기 편할 거 같아서 바로 zip을 공부하고 실행했더니 성공했습니다!

감사합니다 !!

죄송하지만 추가적인 질문이 있는데 가능하실까요..?


#beautifulsoup으로 h2, vote 가져와서 zip으로 그룹화 시키기
def next_page():
    driver.find_element_by_css_selector('#container > div.wrap.articles > div.pagination > a.next').click()
    time.sleep(0.5)
    
    res = driver.page_source
    soup = BeautifulSoup(res,"html.parser")
    data_name = soup.select('h2')
    data_num =soup.select('.vote')
    
    for data in zip(data_name,data_num):
        print(data) 
#data.get_text()를 넣고 싶었지만 입력 불가
    
  
#다음장으로 넘기기 코드    
driver.find_element_by_xpath('//*[@id="sheet"]/ul/li[3]/a').click()
time.sleep(0.5)
for page_roof in range(3):
    next_page()

    
driver.quit()

깔끔하게 보기 좋게 텍스트만 가져오고 싶었는데 get_text가 먹히지가 않네요..

이걸 사용하려면 두 번째 방법으로 사용하는 것 밖에는 방법이 없을까요??


수정 이력

2020-03-31 17:32:34 에 아래 내용에서 변경 됨 #1

첫 번째 방법으로 하는게 url주소도 가져오기 편할 거 같아서 바로 zip을 공부하고 실행했더니 성공했습니다!

감사합니다 ㅠㅠ

죄송하지만 추가적인 질문이 있는데 가능하실까요..?


#beautifulsoup으로 h2, vote 가져와서 zip으로 그룹화 시키기
def next_page():
    driver.find_element_by_css_selector('#container > div.wrap.articles > div.pagination > a.next').click()
    time.sleep(0.5)
    
    res = driver.page_source
    soup = BeautifulSoup(res,"html.parser")
    data_name = soup.select('h2')
    data_num =soup.select('.vote')
    
    for data in zip(data_name,data_num):
        print(data) 
#data.get_text()를 넣고 싶었지만 입력 불가
    
  
#다음장으로 넘기기 코드    
driver.find_element_by_xpath('//*[@id="sheet"]/ul/li[3]/a').click()
time.sleep(0.5)
for page_roof in range(3):
    next_page()

    
driver.quit()

깔끔하게 보기 좋게 텍스트만 가져오고 싶었는데 get_text가 먹히지가 않네요..

이걸 사용하려면 두 번째 방법으로 사용하는 것 밖에는 방법이 없을까요??