Removed comment about Accept-Encoding: identity
[toast/webscraper/bob.git] / bob_download.py
1 #!/usr/bin/python3
2 import os
3 import re
4 import requests
5 from bs4 import BeautifulSoup
6
7 dest_dir = '/tmp/bob'
8
9 session = requests.Session()
10 additional_headers = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'} # otherwise site with content '<HTML></HTML>' is returned
11
12 # load login page
13 main_url = 'https://rechnung.bob.at/'
14 response = session.get(main_url, headers=additional_headers)
15 html = BeautifulSoup(response.text, 'html.parser')
16
17 # fill out login form (name='asmpform') with username=<phone number> and password
18 form = html.find(attrs={'name': 'asmpform'})
19 fields = {e['name']: e.get('value', '') for e in form.find_all('input', {'name': True}) if e['name'] != 'submit'}
20 assert 'loginMsisdn' in fields # user name
21 fields['loginMsisdn'] = '4369911111111' # user name is phone number
22 assert 'kkw' in fields # password
23 fields['kkw'] = 'abcdefg'
24
25 # load overview page
26 response = session.post(form['action'], data=fields, headers=additional_headers)
27
28 # reload overview page rechnung.bob.at - that makes the URLs in the page much prettier
29 # previously:
30 # https://rechnung.bob.at/bill/pdf/;BOBOBPSESSIONID=B7DB9938A3B9541E3D0EB6CD728F54C0.obpBobCustomer4Rechnungskopie_1509_523260091_1.pdf?bsn=61
31 # same after reload:
32 # '/bill/pdf/Rechnungskopie_1509_523260091_1.pdf?bsn=61'
33 response = session.get(main_url, headers=additional_headers)
34 html = BeautifulSoup(response.text, 'html.parser')
35
36 # Download PDFs
37 # Links look like '/bill/pdf/Rechnungskopie_1509_523260091_1.pdf?bsn=61'
38 regexp = re.compile(r'\/(Rechnungskopie_.*)\?')
39 links = html.findAll('a', href=regexp)
40 for link in links:
41     url = link['href']
42     filename = regexp.search(url).group(1)
43     assert filename.startswith('Rechnungskopie_')
44     filepath = os.path.join(dest_dir, filename)
45     if not os.path.exists(filepath):
46         response = session.get(main_url[:-1] + url)
47         assert response.status_code == 200
48         with open(filepath, 'wb') as file:
49             file.write(response.content)
50
51 # Download CSVs
52 # Links look like '/bill.set.obp?bsn=61'
53 regexp = re.compile(r'\/bill.set.obp\?')
54 links = html.findAll('a', href=regexp)
55 for link in links:
56     url = link['href']
57     response = session.get(main_url[:-1] + url)
58     assert response.status_code == 200
59     assert response.text != ''
60     import time
61     time.sleep(3)
62     response = session.get(main_url + 'bill.ctn.cdr.set.obp')
63     html = BeautifulSoup(response.text, 'html.parser')
64     assert html.find('a', id='link_csv_download') is not None
65     response = session.get('https://rechnung.bob.at/download.table.obp?fmt=TAB&table=obp.calls.table', headers=additional_headers)
66     assert response.status_code == 200
67     filename = response.headers['Content-Disposition'].split('=')[1] # e.g. 'EVN_1509_523260091_1_069911934859.txt'
68     assert filename.startswith('EVN_')
69     filepath = os.path.join(dest_dir, filename)
70     if not os.path.exists(filepath):
71         with open(filepath, 'wb') as file:
72             file.write(response.content)
73