]> code.communitydata.science - stats_class_2020.git/blob - os_exercises/ch4_exercises_solutions.rmd
initial commit of w11 tutorial stuff
[stats_class_2020.git] / os_exercises / ch4_exercises_solutions.rmd
1 ---
2 title: "Chapter 4 Textbook exercises"
3 subtitle: "Solutions to even-numbered questions  \nStatistics and statistical programming  \nNorthwestern University  \nMTS
4   525"
5 author: "Aaron Shaw"
6 date: "October 7, 2020"
7 output:
8   html_document:
9     toc: yes
10     toc_depth: 3
11     toc_float:
12       collapsed: false
13       smooth_scroll: true
14     theme: readable
15   pdf_document:
16     toc: yes
17     toc_depth: '3'
18     latex_engine: xelatex
19 header-includes:
20   - \newcommand{\lt}{<}
21   - \newcommand{\gt}{>}
22 ---
23
24 ```{r setup, include=FALSE}
25 knitr::opts_chunk$set(echo = TRUE)
26
27 ```
28
29
30
31 All exercises taken from the *OpenIntro Statistics* textbook, $4^{th}$ edition, Chapter 4.
32
33 ### 4.4 Triathlons
34
35 (a) Let $M$ denote the finishing times of *Men, Ages 30 - 34* and $W$ denote the finishing times of *Women, Ages 25 - 29*. Then,
36
37 $$M ∼ N (μ = 4313, σ = 583)$$ 
38 $$W ∼ N (μ = 5261, σ = 807)$$
39
40
41 (b) Recall that Z-scores are a standardization: for a given value of a random variable you subtract the mean of the corresponding distribution from the value and divide by the standard deviation. The formula notation is given in the *OpenIntro* textbook.
42
43     Let's let R calculate it for us:
44     ```{r}
45     ## Mary
46     (5513 - 5261) / 807
47     
48     ## Leo:
49     (4948 - 4313) / 583
50     ```
51     Since the Z score tells you how many standard deviation units above/below the mean each value is, we can see that Mary finished 0.31 standard deviations above the mean in her category while Leo finished 1.09 standard deviations above the mean in his. 
52
53 (c) Mary finished in a much faster time with respect to her reference group. Her time was fewer standard deviation units above the mean, implying that a larger proportion of the distribution had higher (slower) race times.
54
55 (d) Note that the question is asking about the area under the distribution to the right (greater than) of Leo's race time. Using the Z-score table (Appendix C.1) in the book, we can see that Leo finished *faster* than approximately $1-0.86 = .14$ or $14\%$ of his reference group. This corresponds the probability $P(Z \gt 1.09)$ for a normal distribution. You could also use R to calculate this (note that the *OpenIntro* reading introduced the `pnorm()` function on p.136):
56     ```{r}
57     1-pnorm(1.09)
58     ```
59
60 (e) Again, this is about calculating the area under the distribution ot the right (greater than) Mary's race time. Mary finished *faster* than approximately $1-0.62 = .38$ or $38\%$ of her category. This corresponds to the probability $P(Z \gt 0.31)$ for a normal distribution. Again, here's how you could find that using R:
61     ```{r}
62     1-pnorm(0.31)
63     ```
64 (f) The answer for part b would not change as standardized values (Z-scores) can be computed for any distribution. However, the interpretation and percentile calculations (parts c-e) *would* be different because they all presume a normal distribution. 
65
66
67 ### 4.6 More triathlons
68
69 (a) The fastest $5\%$ are the $5^{th}$ percentile of the distribution. Using the Appendix C.1 table again, the Z score corresponding to the $5^{th}$ percentile of the normal distribution is approximately -1.65. You can find this value more precisely in R using the `qnorm()` function (more on this in the [Week 5 R tutorial](https://communitydata.science/~ads/teaching/2020/stats/r_tutorials/w05-R_tutorial.html)):
70     ```{r}
71     qnorm(.05)
72     ```
73     Once you have that, you can plug it into the Z score formula and calculate the cutoff time ($x$): 
74 $$Z = −1.64 = \frac{x − 4313}{583} → x = −1.64 × 583 + 4313 = 3357~seconds$$
75     Note that the solution there is in seconds. If you divide that by 60 it looks like the fastest $5\%$ of males in this age group finished in a little bit less than 56 minutes *or less*.
76
77 (b) The slowest $10\%$ are in the $90^{th}$ percentile of the distribution. The Z score corresponding to the $90^{th}$ percentile of the normal distribution is approximately 1.28. Again, here's that calculation in R:  
78     ```{r}
79     qnorm(.9)
80     ```
81     Then put it all together again to calculate the cutoff: 
82         $$Z = 1.28 = \frac{x-5261}{807} → x = 1.28 \times 807 + 5261 = 6294 ~seconds$$
83     Divide that by 60 and it looks like the slowest $10\%$ of females in this age group finished in about 1 hour 45 minutes *or more*.  
84   
85 ### 4.22 Arachnophobia
86
87
88 This question focuses on applying the knowledge from section 4.3 of the textbook on binomial distributions. Our old friend the binomial coefficient comes in quite handy...
89
90
91 (a) Recall from the birthday problems that a binomial probability of "at least one" successful trial can also be thought of as "one minus the probability of none." With this in hand, you can start to plug values into the formula for the probability of observing $k$ successess out of $n$ independent binomial trials given on p. 150.
92 $$P(at~least~1~arachnophobe)=1-P(none)$$  
93 $$1-P(none)=1-{10 \choose 0}0.07^{0}(1-0.07)^{10-0}$$  
94     Let's let R handle the arithmetic:
95     ```{r}
96     1-(choose(10,0)*1*(.93^10))
97     ```
98
99 (b) This one just requires you to plug a different value for $n$ into the same formula:
100 $$P(2~arachnophobes)={10 \choose 2}0.07^2(1-0.07)^{(10-2)}$$  
101     ```{r}
102     choose(10,2)*0.07^2*0.93^8
103     ```
104 (c) You can think of the probability of "at most one" success in a binomial trial as equal to the sum of the probability of two potential outcomes: zero or one. 
105     $$P(\leq1~arachnophobes)=P(none)+P(one)$$  
106     Off to the races with our same formula again:
107     $${10 \choose 0}0.07^00.93^{10}+{10 \choose 1}0.07^1 0.93^9$$
108     And R can solve that quickly: 
109     ```{r}    
110     (choose(10,0)*1*(.93^10))+(choose(10,1)*0.07*(0.93^9))
111     ```
112
113 (d) The question asks us to calculate whether random assignment to tents is likely to ensure $\leq1~arachnophobe$ per tent. We can think about this as a slight twist on the result we calculated for part c above. Specifically, the answer to part c is the complementary probability of the outcome we're looking to avoid in this case (more than 1 arachnophobe per tent). In more formal notation:  
114 $$P(\gt1~arachnophobe) = 1-P(\leq1~arachnophobe)$$ 
115 $$P(\gt1~arachnophobe) = 1-0.84 = 0.16 = 16\%$$  
116     That covers the *probability* of multiple arachnophobes per tent, but as to whether or not it seems "reasonable" to randomly assign the teenagers to tents given this probability, the $16\%$ result cannot answer that part of the question. Making a decision based on a probability is an entirely separate issue! On the one hand, the probability of a bad outcome is not *huge*, but the decision should really depend on how heavily the counselor weighs the negative potential outcome given a $16\%$ chance of having multiple arachnophobic campers in one of the tents. The question makes it sound like the counselor "wants to make sure" there's not a critical mass of arachnophobes in any one tent, so a $16\%$ probability of failure implies that they should *not* use random assignment. Indeed, if the camp counselor has taken a statistics course, they might consider *any* probability of failure greater than $5\%$ as unacceptably high, but this assumes a pretty sophisticated and risk-averse camp counselor (who, let's be honest, is probably a teenager themselves with an under-developed prefrontal cortex and therefore *highly unikely* to base their decision on a mathematical and risk-averse assessment of the underlying probabilities). Personally, I can't even pretend to understand teenage decision-making and the idea that the counselor's actions would have any relationship to discrete calculations of probabilities is laughable. Who assigns these questions anyway?

Community Data Science Collective || Want to submit a patch?