概率论7-两个随机变量
之前我们介绍了一个随机变量的情形,现在我们把它推广到两个或多个随机变量.
联合分布
如果我们有两个随机变量$X,Y$,则集合$\lbrace X \le x\rbrace$和$\lbrace Y \le y\rbrace$都是事件,分别有概率$P\lbrace X \le x\rbrace=F_X(x) P\lbrace Y \le y\rbrace=F_Y(y)$ 在笛卡尔乘积空间,我们定义一个新的事件$\lbrace X \le x,Y \le y\rbrace$也是一个事件, 对应的概率我们称为随机变量$X$和$Y$的联合分布函数: $$ F_{XY}(x,y)=P\lbrace X \le x,Y \le y\rbrace $$
边缘分布
我们称每个随机变量的分布为边缘分布$F_{XY}(x,\infty)=F_X(x)$
一般地,由$F_X(x)$和$F_Y(y)$是不能确定出$F_{XY}(x,y)$的,因为 $$ P\lbrace X \le x,Y \le y\rbrace=P\lbrace X|\le x,Y \le y\rbrace P\lbrace Y \le y\rbrace $$ 但是如果$X,Y$独立,则有$F_{XY}(x,y)=F_X(x)F_Y(y)$
联合密度函数
如果$F_{XY}(x,y)$具有直到二阶的偏导数,则其联合密度函数为 $$ f_{XY}=\frac{\partial^2 F_{XY}(x,y)}{\partial x \partial y} $$
所以我们如果已知联合密度函数求对应的概率可由二维平面积分得到.
条件分布与条件密度
条件概率其实就是从另一视角看,与定义基本无关,有时我们甚至可以去掉条件来推导,推导完后再加上条件.
独立随机变量
在这里我们再次从随机变量的角度说明事件的独立性 定义:
如果对任意的数$x$和$y$,事件$\lbrace X \le x\rbrace$和$\lbrace Y \le y\rbrace$都是独立的,即: $$ P \lbrace X \le x,Y \le y\rbrace=P \lbrace X \le x \rbrace P\lbrace Y \le y \rbrace $$ 则称随机变量$x$和$y$是独立的.
联合正态随机变量
- 原文作者:mlyixi
- 原文链接:https://mlyixi.github.io/post/math/%E6%A6%82%E7%8E%87%E8%AE%BA7-%E4%B8%A4%E4%B8%AA%E9%9A%8F%E6%9C%BA%E5%8F%98%E9%87%8F/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。