]> code.communitydata.science - cdsc_reddit.git/blobdiff - datasets/comments_2_parquet.sh
git-annex in
[cdsc_reddit.git] / datasets / comments_2_parquet.sh
index 56ecc4d806ebc5e8017d6a2ee237ff4610a53d08..d61eb652f8d36a8b58f9612946cfb6c3a208cf9c 100755 (executable)
@@ -1,10 +1,10 @@
+#!/usr/bin/env bash
 ## needs to be run by hand since i don't have a nice way of waiting on a parallel-sql job to complete 
 
 ## needs to be run by hand since i don't have a nice way of waiting on a parallel-sql job to complete 
 
-#!/usr/bin/env bash
 echo "#!/usr/bin/bash" > job_script.sh
 #echo "source $(pwd)/../bin/activate" >> job_script.sh
 echo "python3 $(pwd)/comments_2_parquet_part1.py" >> job_script.sh
 
 echo "#!/usr/bin/bash" > job_script.sh
 #echo "source $(pwd)/../bin/activate" >> job_script.sh
 echo "python3 $(pwd)/comments_2_parquet_part1.py" >> job_script.sh
 
-srun -p comdata -A comdata --nodes=1 --mem=120G --time=48:00:00 --pty job_script.sh
+srun -p compute-bigmem -A comdata --nodes=1 --mem-per-cpu=9g -c 40 --time=120:00:00 --pty job_script.sh
 
 start_spark_and_run.sh 1 $(pwd)/comments_2_parquet_part2.py
 
 start_spark_and_run.sh 1 $(pwd)/comments_2_parquet_part2.py

Community Data Science Collective || Want to submit a patch?