]> code.communitydata.science - stats_class_2020.git/blobdiff - psets/pset4-worked_solution.html
pset5 initial commit
[stats_class_2020.git] / psets / pset4-worked_solution.html
index 85583b0cb79c229d37c75026884ea125546a89ce..0d84fc9838a43566c33037403acbe6e39df29277 100644 (file)
@@ -1935,9 +1935,9 @@ for (i in 1:100) {
 <p><span class="math display">\[HR_{pos}1_0:~~ \Delta_{\mu_{pos}} = 0\]</span> <span class="math display">\[HR_{pos}1_a:~~ \Delta{\mu_{pos}} \neq 0\]</span></p>
 <p>And:</p>
 <p><span class="math display">\[HR_{pos}2_0:~~ \Delta_{\mu_{neg}} = 0\]</span> <span class="math display">\[HR_{pos}2_a:~~ \Delta_{\mu_{neg}} \neq 0\]</span> Note that the theories the authors used to motivate the study imply directions for the alternative hypotheses, but nothing in the description of the analysis suggests that they used one-tailed tests. I’ve written these all in terms of undirected two-tailed tests to correspond to the analysis conducted in the paper. That said, given that the theories correspond to specific directions you might (arguably more accurately) have written the hypotheses in terms of directed inequalities (e.g., “<span class="math inline">\(&gt;\)</span>” or “<span class="math inline">\(&lt;\)</span>”).</p>
-<p><strong>(b) Describing the effect</strong>s</p>
+<p><strong>(b) Describing the effects</strong></p>
 <p>The authors’ estimates suggest that reduced negative News Feed content causes an increase in the percentage of positive words and a decrease in the percentage of negative words in subsequent News Feed posts by study participants (supporting <span class="math inline">\(HR_{neg}1_a\)</span> and <span class="math inline">\(HR_{neg}2_a\)</span> respectively).</p>
-<p>They also find that reduced positive News Feed content causes a decrease in the percentage of negative words and an increase in the percentage of positive words in susbequent News Feed posts (supporting <span class="math inline">\(HR_{pos}1_a\)</span> and <span class="math inline">\(HR_{pos}2_a\)</span>)</p>
+<p>They also find that reduced positive News Feed content causes a decrease in the percentage of negative words and an increase in the percentage of positive words in subsequent News Feed posts (supporting <span class="math inline">\(HR_{pos}1_a\)</span> and <span class="math inline">\(HR_{pos}2_a\)</span>)</p>
 <p><strong>(c) Statistical vs. practical significance</strong></p>
 <p>Cohen’s <span class="math inline">\(d\)</span> puts estimates of experimental effects in standardized units (much like a Z-score!) in order to help understand their size relative to the underlying distribution of the dependent variable(s). The <span class="math inline">\(d\)</span> values for each of the effects estimated in the paper are 0.02, 0.001, 0.02, and 0.008 respectively (in the order presented in the paper, not in order of the hypotheses above). These are miniscule by the standards of most approaches to Cohen’s <span class="math inline">\(d\)</span>! However, as the authors’ argue, the treatment itself is quite narrow in scope, suggesting that the presence of any treatment effect at all is an indication of the underlying phenomenon (emotional contagion). Personally, I find it difficult to attribute much substantive significance to the results because I’m not even convinced that tiny shifts in the percentage of positive/negative words used in News Feed updates accurately index meaningful emotional shifts (I might call it linguistic contagion instead?). That said, I have a hard time thinking about micro-level psychological processes and I’m probably being overly narrow/skeptical in my response. Despite these concerns and the ethical considerations that attracted so much public attention, I consider this a clever, well-executed study and I think it’s quite compelling. I expect many of you will have different opinions of various kinds and I’m eager to hear about them.</p>
 </div>

Community Data Science Collective || Want to submit a patch?