]> code.communitydata.science - covid19.git/blob - bin/fetch_daily_views.py
724cf6b46eb549c3940ac01d5a1875c1267a24c1
[covid19.git] / bin / fetch_daily_views.py
1 #!/usr/bin/env python3
2
3 ###############################################################################
4 #
5 # This script assumes the presence of the COVID-19 repo.
6
7 # It (1) reads in the article list and then (2) calls the Wikimedia API to 
8 # fetch view information for each article. Output is to (3) JSON and TSV.
9 #
10 ###############################################################################
11
12
13 import requests
14 import argparse
15 import json
16 import csv
17 import time
18 import os.path
19 import datetime
20 #import feather
21
22
23
24 def parse_args():
25
26     parser = argparse.ArgumentParser(description='Call the views API repeatedly.')
27     parser.add_argument('-o', '--output_folder', help='Where to save output', default="../data/", type=str)
28     parser.add_argument('-i', '--article_file', help='File listing article names', default="../resources/articles.txt", type=str)
29     parser.add_argument('-d', '--query_date', help='Date if not yesterday, in YYYYMMDD format please.', type=str)
30     args = parser.parse_args()
31
32     return(args)
33
34
35 def main():
36
37     args = parse_args()
38
39     outputPath = args.output_folder
40     articleFile = args.article_file
41
42     if (args.query_date):
43         queryDate = args.query_date
44     else:
45         yesterday = datetime.datetime.today() - datetime.timedelta(days=1)
46         queryDate = yesterday.strftime("%Y%m%d")
47
48     queryDate = queryDate + "00" #requires specifying hours
49
50
51     articleList = []
52 #1 Load up the list of article names
53
54     with open(articleFile, 'r') as infileHandle:
55         #theInfile = csv.reader(infileHandle, quotechar='"')
56         theInfile = csv.reader(infileHandle)
57         next(theInfile) #skip header
58         for currentLine in theInfile:
59             articleList.append(currentLine)
60
61     j_Out = outputPath + "dailyviews" + queryDate + ".json"
62     t_Out = outputPath + "dailyviews" + queryDate + ".tsv"
63
64     j = []
65
66     i = 0 #iterator to deal with end of file
67
68 #2 Repeatedly call the API with that list of names
69
70     for a in articleList:
71         a = a[0] #destringify
72         i = i+1
73         url= "https://wikimedia.org/api/rest_v1/metrics/pageviews/per-article/en.wikipedia/all-access/all-agents/"
74         url= url + a + "/daily/" + queryDate + "/" + queryDate #for now, single date at a time
75         response = requests.get(url)
76         if response.ok:
77             jd = json.loads(response.content)
78             j.append(jd["items"][0])
79             time.sleep(.1)
80
81 #3 Save results as a JSON and TSV
82
83     #all data in j now, make json file
84     with open(j_Out, 'w') as j_outfile: 
85         json.dump(j, j_outfile, indent=2)
86
87     with open(t_Out, 'w') as t_outfile:
88         dw = csv.DictWriter(t_outfile, sorted(j[0].keys()), delimiter='\t')
89         dw.writeheader()
90         dw.writerows(j)
91
92
93     f_Out = outputPath + "dailyviews" + queryDate + ".feather"
94     #read the json back in and make a feather file? 
95
96
97 if __name__ == "__main__":
98
99     main()

Community Data Science Collective || Want to submit a patch?