url = f'https://www.bundestag.de/ajax/filterlist/de/abgeordnete/862712-862712?limit=20&noFilterSet=true&offset={rounds}'
req = requests.get(url)
soup = BeautifulSoup(req.content, 'lxml').find('a').get('href')
print(soup)
print(r)
r += 1
вот код
Ну у тебя не с парсером проблема, а с пониманием аргументов и немного с логикой
на каждой из 736 страниц есть нужные мне строки в количестве 20 штук
А так, получаешь страницу, парсишь и сохраняешь нужное
Обсуждают сегодня