]> code.communitydata.science - covid19.git/blobdiff - keywords/src/wikidata_translations.py
change copy to move in cron scripts
[covid19.git] / keywords / src / wikidata_translations.py
index 1ac956c749f0a774a3605faa2ac92db2d33a5ff2..de1e0f034318bb9574c44c49ef35ed15273be991 100644 (file)
@@ -5,33 +5,34 @@ from json import JSONDecodeError
 from os import path
 
 class LabelData:
-    __slots__ = ['entityid','label','langcode','is_alt']
+    __slots__ = ['itemid','label','langcode','is_alt']
 
     def __init__(self, wd_res, is_alt):
         obj = wd_res.get('label',None)
         self.label = obj.get('value',None)
         self.langcode = obj.get('xml:lang',None)
-        self.entityid = wd_res.get('entity',None).get('value',None)
+        self.itemid = wd_res.get('item',None).get('value',None)
         self.is_alt = is_alt
 
     def to_list(self):
-        return [self.entityid,
+        return [self.itemid,
                 self.label,
                 self.langcode,
                 self.is_alt]
 
 def GetAllLabels(in_csvs, outfile, topNs):
 
-    def load_entity_ids(in_csv, topN=5):
+    def load_item_ids(in_csv, topN=5):
         with open(in_csv,'r',newline='') as infile:
             reader = list(csv.DictReader(infile))
             for row in reader:
                 if int(row['search_position']) < topN:
-                    yield row["entityid"]
+                    yield row["itemid"]
 
-    ids = set(chain(* map(lambda in_csv, topN: load_entity_ids(in_csv, topN), in_csvs, topNs)))
-
-    labeldata = GetEntityLabels(ids)
+    ids = set(chain(* map(lambda in_csv, topN: load_item_ids(in_csv, topN), in_csvs, topNs)))
+    ids = ids.union(open("../resources/main_items.txt"))
+    
+    labeldata = GetItemLabels(ids)
 
     with open(outfile, 'w', newline='') as of:
         writer = csv.writer(of)
@@ -39,7 +40,7 @@ def GetAllLabels(in_csvs, outfile, topNs):
         writer.writerows(map(LabelData.to_list,labeldata))
 
     
-def GetEntityLabels(entityids):
+def GetItemLabels(itemids):
 
     def run_query_and_parse(query, is_alt):
         results = run_sparql_query(query)
@@ -50,7 +51,7 @@ def GetEntityLabels(entityids):
             if res is not None:
                 res = res.get('bindings',None)
             if res is None:
-                raise requests.APIError(f"got invalid response from wikidata for {query % entityid}")
+                raise requests.APIError(f"got invalid response from wikidata for {query % itemid}")
 
             for info in res:
                 yield LabelData(info, is_alt)
@@ -59,20 +60,20 @@ def GetEntityLabels(entityids):
             print(e)
             print(query)
             
-    def prep_query(query, prop, entityids):
-        values = ' '.join(('wd:{0}'.format(id) for id in entityids))
+    def prep_query(query, prop, itemids):
+        values = ' '.join(('wd:{0}'.format(id) for id in itemids))
         return query.format(prop, values)
     
     base_query = """
-    SELECT DISTINCT ?entity ?label WHERE {{
-    ?entity {0} ?label;
-    VALUES ?entity  {{ {1} }}
+    SELECT DISTINCT ?item ?label WHERE {{
+    ?item {0} ?label;
+    VALUES ?item  {{ {1} }}
     }}"""
 
-    # we can't get all the entities at once. how about 100 at a time?
+    # we can't get all the items at once. how about 100 at a time?
     chunksize = 100
-    entityids = (id for id in entityids)
-    chunk = list(islice(entityids, chunksize))
+    itemids = (id for id in itemids)
+    chunk = list(islice(itemids, chunksize))
     calls = []
     while len(chunk) > 0:
         label_query = prep_query(base_query, "rdfs:label", chunk)
@@ -80,7 +81,7 @@ def GetEntityLabels(entityids):
         label_results = run_query_and_parse(label_query,  is_alt=False)
         altLabel_results = run_query_and_parse(altLabel_query, is_alt=True)
         calls.extend([label_results, altLabel_results])
-        chunk = list(islice(entityids, chunksize))
+        chunk = list(islice(itemids, chunksize))
 
     return chain(*calls)
         
@@ -89,13 +90,13 @@ def find_new_output_file(output, i = 1):
     if path.exists(output):
         name, ext = path.splitext(output)
 
-        return find_new_output_file(f"{name}_{i}.{ext}", i+1)
+        return find_new_output_file(f"{name}_{i}{ext}", i+1)
     else:
         return output
 
 if __name__ == "__main__":
     import argparse
-    parser = argparse.ArgumentParser("Use wikidata to find transliterations of terms")
+    parser = argparse.ArgumentParser("Use wikidata to find translations of terms")
     parser.add_argument('inputs', type=str, nargs='+', help='one or more files to read. the inputs are generated by wikidata_search.py')
     parser.add_argument('--topN', type=int, nargs='+', help='limit number of wikidata search results to use, can pass one arg for each source.')
     parser.add_argument('--output', type=str, help='an output file. defaults to stdout',default=20)

Community Data Science Collective || Want to submit a patch?