]> code.communitydata.science - mediawiki_dump_tools.git/blobdiff - wikiq
Merge branch 'master' into regex_scanner
[mediawiki_dump_tools.git] / wikiq
diff --git a/wikiq b/wikiq
index ca65114416b644b05dd0e9aca484217cbb23d05d..b982eaa5f0a8bc32dd7f5dcae77941339ad38304 100755 (executable)
--- a/wikiq
+++ b/wikiq
@@ -421,7 +421,7 @@ parser.add_argument('-s', '--stdout', dest="stdout", action="store_true",
 parser.add_argument('--collapse-user', dest="collapse_user", action="store_true",
                     help="Operate only on the final revision made by user a user within all sequences of consecutive edits made by a user. This can be useful for addressing issues with text persistence measures.")
 
-parser.add_argument('-p', '--persistence', dest="persist", default="", const='', type=str, choices = ['','segment','sequence','legacy'], nargs='?',
+parser.add_argument('-p', '--persistence', dest="persist", default=None, const='', type=str, choices = ['','segment','sequence','legacy'], nargs='?',
                     help="Compute and report measures of content persistent: (1) persistent token revisions, (2) tokens added, and (3) number of revision used in computing the first measure. This may by slow.  The defualt is -p=sequence, which uses the same algorithm as in the past, but with improvements to wikitext parsing. Use -p=legacy for old behavior used in older research projects. Use -p=segment for advanced persistence calculation method that is robust to content moves, but prone to bugs, and slower.")
 
 parser.add_argument('-u', '--url-encode', dest="urlencode", action="store_true",

Community Data Science Collective || Want to submit a patch?