46 0 obj 5). 0000000913 00000 n << /Linearized 1 /L 136201 /H [ 1076 201 ] /O 47 /E 73639 /N 6 /T 135243 >> endobj You can read details in our It makes a great supplement to the traditional curricula for … \alpha = \text{Pr}_{f_0} \{\bar{x} \ge k\} = \text{Pr}_{f_0} \{\bar{x} - \mu_0 \ge k - \mu_0\}, α =PrF0{X¯-μ0σn√≥k -μ0σn√}α=PrF0{X¯-μ0σn≥k-μ0σn} Computer Age Statistical Inference by Bradley Efron and Trevor Hastie Computer Age Statistical Inference: Algorithms, Evidence and Data Science The twenty-first century has seen a breathtaking expansion of statistical methodology, both in scope and in influence… trailer << /Size 69 /Prev 135231 /Info 41 0 R /Root 43 0 R /ID[<5bd5aab2b11e580b672ccbdb3d879b50><5bd5aab2b11e580b672ccbdb3d879b50>] >> startxref 0 %%EOF 0000001255 00000 n \frac{\sum_{i = 1}^{n}x_i}{n} \ge \frac{c\sigma^2}{n\left(\mu_1-\mu_0\right)} + \frac{\left(\mu_1+\mu_0\right)}{2}, X¯≥cσ2n (μ1-μ0)+(μ1+μ0)2X¯≥cσ2n(μ1-μ0)+(μ1+μ0)2 0000054555 00000 n \text{log } \left( e^{\frac{2\left(\mu_1-\mu_0\right)\sum_{i = 1}^{n}x_i + n\left(\mu_0^2-\mu_1^2\right)}{2\sigma^2}} \right) \ge c, 2 (μ1-μ0)∑ni = 1Xje+ n (μ20-μ21)2σ2≥ c2(μ1-μ0)∑je=1nXje+n(μ02-μ12)2σ2≥c \left(\frac{1}{n}\right) \sum_{i = 1}^{n}x_i \ge \left(\frac{1}{n}\right) \left( \frac{c\sigma^2}{\left(\mu_1-\mu_0\right)} + \frac{n\left(\mu_1+\mu_0\right)}{2}\right), ∑ni = 1Xjen≥cσ2n (μ1-μ0)+(μ1+μ0)2∑je=1nXjen≥cσ2n(μ1-μ0)+(μ1+μ0)2 0000019554 00000 n 0000013510 00000 n \sum_{i = 1}^{n}x_i \ge \frac{c\sigma^2}{\left(\mu_1-\mu_0\right)} + \frac{n\left(\mu_1^2-\mu_0^2\right)}{2\left(\mu_1-\mu_0\right)}, ∑i = 1nXje≥cσ2(μ1-μ0)+n (μ1-μ0) (μ1+μ0)2 (μ1-μ0)∑je=1nXje≥cσ2(μ1-μ0)+n(μ1-μ0)(μ1+μ0)2(μ1-μ0) f\left(x \;\middle\vert\; \mu, \sigma^2 \right) = \prod_{i = 1}^{n} \frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{\left(x_i-\mu\right)^2}{2\sigma^2}}, L ( x ) =F1( x∣∣μ1,σ2)F0( x|μ0,σ2)=∏ni = 112 πσ2√e-(Xje-μ1)22σ2∏ni = 112 πσ2√e-(Xje-μ0)22σ2L(X)=F1(X|μ1,σ2)F0(X|μ0,σ2)=∏je=1n12πσ2e-(Xje-μ1)22σ2∏je=1n12πσ2e-(Xje-μ0)22σ2 View reading list on Talis Aspire. Computer age statistical inference (Vol. résultant dans le code python ci-dessous: pour obtenir un chiffre et des valeurs pour et très similaires à ma première simulationαα\alphaββ\beta. 68 0 obj Soit le rapport de vraisemblance ,L(x)L(X)L(x), L(x)=f1(x)f0(x)L(X)=F1(X)F0(X) = e^{\frac{-\sum_{i = 1}^{n} \left(x_i^2 -2x_i\mu_1 + \mu_1^2\right) + \sum_{i = 1}^{n} \left(x_i^2 -2x_i\mu_0 + \mu_0^2\right)}{2\sigma^2}}, =e-∑ni = 1X2je+ 2μ1∑ni = 1Xje-∑ni = 1μ21+∑ni = 1X2je- 2μ0∑ni = 1Xje+∑ni = 1μ202σ2=e-∑je=1nXje2+2μ1∑je=1nXje-∑je=1nμ12+∑je=1nXje2-2μ0∑je=1nXje+∑je=1nμ022σ2 \bar{x} \ge \frac{c\sigma^2}{n\left(\mu_1-\mu_0\right)} + \frac{\left(\mu_1+\mu_0\right)}{2}, X¯≥ k , où  k =cσ2n (μ1-μ0)+(μ1+μ0)2X¯≥k, où k=cσ2n(μ1-μ0)+(μ1+μ0)2 Computer Age Statistical Inference: Algorithms, Evidence, and Data Science. Supposons que nous essayons de décider entre deux fonctions de densité de probabilité possibles pour les données observées , une densité d'hypothèse nulle et une densité alternative . Privacy policy. \begin{array}{ll} \alpha = \text{Pr}_{f_0} \{\bar{x} \ge k\},\\ \beta = \text{Pr}_{f_1} \{\bar{x} \lt k\}.\end{array} \enspace \enspace \text{ where } k = \frac{c\sigma^2}{n\left(\mu_1-\mu_0\right)} + \frac{\left(\mu_1+\mu_0\right)}{2}, α =PrF0{X¯≥ k } =PrF0{X¯-μ0≥ k -μ0}α=PrF0{X¯≥k}=PrF0{X¯-μ0≥k-μ0} Past exam papers for ST323 ... with solutions and hints in the appendix, an extensive bibliography, and a link to further literature and notes. 44 0 obj “Big data,” “data science,” and “machine learning” have become familiar terms in the news, as statistical methods are brought to bear upon the enormous data sets of modern science and commerce. 42 0 obj t_c(x) = \left\{ \begin{array}{ll} 1\enspace\text{if log } L(x) \ge c\\ 0\enspace\text{if log } L(x) \lt c.\end{array} \right. ). J'ai ensuite édité la question pour résumer mon doute au début du post. f_1 \sim \mathcal{N} \left(0.5,1\right), F( x∣∣μ ,σ2) =∏i = 1n12 πσ2----√e-(Xje- μ )22σ2F(X|μ,σ2)=∏je=1n12πσ2e-(Xje-μ)22σ2 t_c(x) = \left\{ \begin{array}{ll} 1\enspace\text{if log } L(x) \ge c\\ 0\enspace\text{if log } L(x) \lt c.\end{array} \right. The twenty-first century has seen a breathtaking expansion of statistical methodology, both in scope and in influence. CRC press. )(dont l'intégralité du code Python est disponible dans cette question) Je suis et pour une coupure comme une confirmation que mon code est correct.α = 0,10α=0,10\alpha=0.10β= 0,38β=0,38\beta=0.38c = 0,75c=0,75c=0.75, Enfin, lorsque Trevor Hastie a répondu que "... entraînant un seuil pour x de 0,4", cela signifie que dans l'équation ci-dessous (voir la section B de cette question):k = 0,4k=0,4k=0.4, Donc, en Python, nous pouvons obtenir pour un seuil de coupure comme ci-dessous:k = 0,4k=0,4k=0.4c = 0,75c=0,75c=0.75. \sum_{i = 1}^{n}x_i \ge \frac{c\sigma^2}{\left(\mu_1-\mu_0\right)} + \frac{n\left(\mu_1-\mu_0\right)\left(\mu_1+\mu_0\right)}{2\left(\mu_1-\mu_0\right)}, ∑i = 1nXje≥cσ2(μ1-μ0)+n (μ1+μ0)2∑je=1nXje≥cσ2(μ1-μ0)+n(μ1+μ0)2 0000013488 00000 n Il me semble que toute question qui oblige les lecteurs à parcourir 11 pages de code informatique, de sortie statistique et d'algèbre est peu susceptible d'être lue par quiconq 0000054059 00000 n 0000072955 00000 n 5). Cambridge University Press. Course Objectives, Syllabus, and Notes STAT 5380 aims to provide a solid theoretical foundation for statistical inference (estimation and testing). J'ai donc posté cette question (comme ci-dessous) et reçu de Trevor Hastie la confirmation qu'il y a une erreur dans le livre qui sera corrigée (en d'autres termes, mes simulations et calculs - tels qu'implémentés en Python dans cette question - sont corrects ). 0000001277 00000 n =e2 (μ1-μ0)∑ni = 1Xje+ n (μ20-μ21)2σ2=e2(μ1-μ0)∑je=1nXje+n(μ02-μ12)2σ2 β=Prf1{t(x)=0}.β=PrF1{t(X)=0}. Si vous êtes intéressé à poursuivre cela, comme vous semblez l'être du temps et de l'attention que vous y avez consacrés, puis-je vous suggérer d'identifier le nœud du problème et de voir si vous pouvez l'expliquer et poser votre question dans l'espace de une ou au plus deux pages de matériel? ����7���h��,��se�E��Y�ñ0�K96�p��)=m{�d'���(��m���+D.�gfI9�����#���iR�6�O�؆�qKxyf6��A6��Wʄ��>��r�4�6��7�����Z�r,���B��� ��WI���u�1:� �NjB�4ֿ�a�����L�OٮAB��^�ˇ��t-LQru�i9lz��3�i�� xref 42 27 0000000016 00000 n /��'s��bDt,)n���H*.��n.�G��ϰ��w6�ѳ�|�˜������ʂ��&�_9���Ph���n��Oh[t�}�j�5͞�=����ӰМ��}`�¶�5;�o�*����+}�S��*�!�}���k 67 0 obj \alpha = \text{Pr}_{f_0} \{t(x)=1\}, j'ai donc implémenté le code python ci-dessous: β=PrF1{X¯< k } =PrF1{X¯-μ1< k -μ1}β=PrF1{X¯> stream Computer age statistical inference (Vol. Computer Age Statistical Inference Algorithms, Evidence, and Data Science BRADLEY EFRON Stanford University, California TREVOR HASTIE Stanford University, California ggf CAMBRIDGE UNIVERSITY PRESS . = e^{\frac{-\sum_{i = 1}^{n} \left(x_i-\mu_1\right)^2 + \sum_{i = 1}^{n} \left(x_i-\mu_0\right)^2}{2\sigma^2}}, =e-∑ni = 1(X2je- 2Xjeμ1+μ21) +∑ni = 1(X2je- 2Xjeμ0+μ20)2σ2=e-∑je=1n(Xje2-2Xjeμ1+μ12)+∑je=1n(Xje2-2Xjeμ0+μ02)2σ2 Cambridge University Press. t_c(x) = \left\{ \begin{array}{ll} 1\enspace\text{if } \bar{x} \ge k\\ 0\enspace\text{if } \bar{x} \lt k.\end{array} \right.