好 那在概率上来讲呢 Variance呢是个非常重要的东西 好 那 Variance呢 通常在概率上面 我们用的符号 通常用σx^2来表示它 σx^2表示它 那它呢 其实就是 跟大家讲就是 x-μx 的平方 这一个大X的函数 它的期望值 那大家注意一下 有时候 在考试的时候 老师看到这个就蛮伤脑筋的 很多同学σ都写这幅德性 那你写这幅德性我根本分不出来 你这个到底是6还是σ 所以这个很伤脑筋啊 所以同学在写σ的时候 那个时候 你这样子写 很多时候就很容易混淆了 那一个比较好的写法就是 欸 从里面写出来 这样子比较好 好 写出来就比较好 好 OK 像这个就很好 所以σ 你就要写σ 要注意啊 不要写成这个 很难看 要写就写成这个样子 有没有 一个漂亮的σ要像这样 长得很像什么 很像樱桃小丸子里面那个花轮 有没有 所以σ这个写得像 画的像花轮一样的话 就水(漂亮)啦 好 你这个就很漂亮啦 OK 好 这个σ要好好写 那Variance为什么很重要呢 因为Variance 通常它隐含着一个 关于随机变量多乱的这个方面的资讯 在这个 Variance里面 怎么说呢 我们来看一下这个例子 好 假设你现在有一个PMF 那这个PMF有三个可能发生 有三个可能的值 所以有三个概率 那这三个值假如说 欸 这三个值呢还蛮接近 这三个可能发生的x还蛮接近 所以 它的μx在这附近 μx 好就是 应该就是在这三个的中间的某个地方 好 那你看看 因为这三个呢非常非常靠近 所以呢 你这个PMF非常非常靠近 所以我问你 老师问你 这个PMF如果长这样的话 这个x的值乱不乱 不会很乱啦 因为它们都在这个 μx它的附近而已 它的值呢就在μx附近 变化不会太大 所以这个不会 没有很乱的东西 那我问你 它的Variance呢 怎么样呢 你看看 因为它们三个很靠近 所以μ呢 也会跟它们 就是说 三个可能的值都很靠近 所以你看这个x-μx 这个值就会很小 它的平方 也是很小 对不对 所以呢 取期望值之后 这个量呢 就不会太大 好 所以呢 当你的这个Variance很小的时候 其实就隐含着告诉你就是说 欸 你这个x可能发生的值呢 很多都在μx附近 好那代表说 你这个random variable呢 它的行为不会太乱 因为它可能的值都落在μx附近 好 那给另外一个例子 如果你现在PMF看起来长这个样子呢 哇 这个X可能发生的值是 是散布在一个还蛮大的一个范围 这个X乱不乱 很乱啦 它从这么小的这个X值 到这么大的都有可能 好 那分布范围这么大 所以呢是一个蛮乱的一个X 好 蛮乱的一个random variable 那它的 μx 也是somewhere? somewhere在这个中间 可能它这个μx也是差不多在这个中间的某个地方 好 那你看看呢 因为这个X呢 很乱 它落在一个范围呢 相对来讲就比较大 这个时候呢 你跟x-μx的值呢 是大或小 诶 有些x呢 像这个x的话 离μx还蛮接近 这两个 离μx还蛮接近 他可能减掉μx 的平方就还蛮小 可是呢 因为它落的范围很广 所以它也有那种离μx很远的 像这个点 有没有 还有这个点呢离μx也是很远 有没有 好 所以你看 两端的比较远的点 欸 它这个时候就会出现 有可能会有出现 比较乱的X 就有出现 有可能出现 离μx比较远的 这些x的值 那这个时候x减掉μx的平方 再取期望值的时候 就比较可能出现一些比较大的 这个项在这里面 所以整个Variance就会变得比较大 好 所以呢 Variance大或小 某种程度呢 就给我们一些 关于这个random variable多乱 分布多广 多 散布的多广多乱 的一些 一些一些资讯 一些情报在这里面 好 所以这是为什么 我们在看期望值的时候 有时候会特别 也会 我们也会特别看Variance 因为对我们来讲 是有重要的意义 好 那Variance呢 如果你把它开根号的话 通常就是我们所谓的标准差 也就是standard deviation 好 那standard deviation你看 本来是 Variance呢是 σ square 也就是σ的平方 所以要记住噢 在表示Variance的时候 这个平方不能漏掉噢 平方一定要有 好 它开根号以后 就是什么 就剩下σx 那这个σx一定是大于等于0的 好 那σx呢 就是我们所谓的标准差 也就是根号的variance 好 那这个呢 也是我们通常 用来统计的一个重要的一个指标 比如说 我们经常在这个班上同学的成绩 这个同学成绩呢它的标准差 它的成绩分布的标准差 大或小 就代表这个班的成绩 学生学习的这个程度差异 欸 是小或大 所以 标准差在我们来讲就是说很重要的一个指标 那它其实就是variance开根号 所以两个是互通的 OK 好 好 那variance这么重要 那variance怎么算呢 那你说那老师你讲的这是什么笑话 不就是按照这个定义吗 x减掉μx 它的平方取期望值 那不就是等于它呢 去summation 好比如说x-μx 的平方乘上PMF 然后把x呢 从负无穷大 summation到无穷大 不是就照着这个定义去算吗 好 那当然呢 你这个乖宝宝这样子算是可以的啦 好 但是问题是说 有的时候是 还蛮麻烦的 好所以当我们算variance的时候 我们通常是用另外一个比较容易的算法 好 怎么算呢 好 是这样子算的 好 欸 我们就先怎么样 你是x减去μx的平方嘛 然后在括号里面取期望值 所以我们就先把你这里面的就把它乘开来 x减掉μx的平方乘开来就变成这个样子 X平方减掉2*μ*x 加上μx的平方 好记住 μx是什么 μx是x的期望值 那x的期望值是什么 是常数 还是随机变量 是常数 是正 是不变的还是会变的 任何一个random variable 前面老师都讲过 任何一个random variable的期望值 都是常数 所以呢要记住 在这边这个μx 都是常数 好 那 刚刚讲过 诶 这个期望值运算的这个性质原理 就是欸你有好几个东西 凑在一起 加在一起 再取期望值 跟分别取期望值再相加是一样的 好 就跟那个alpha g of x 加上HO 加上beta h of x取期望值那个性质 还记得吗 所以 刚才是2个 但是这个是三个 三个可以拆啊 你可以拆开啊 所以呢三个呢就变成是第一项 x呢就变成x平方的期望值 第二项是 -2*μ*X 那就变成-2*μ*X的期望值 啊跟这个X平方的期望值相加 还有一个是什么 μx平方的期望值 那就是μx平方的期望值 好 那刚才老师讲过 μx是常数 那μx的平方是什么 也是常数 那一个常数的期望值是什么 啊就是它自己 已经是常数了你还期望它变什么 好对不对 好这个μx应该拉到外面来 对不对 啊那这个呢 -2*μ*X -2*μ是什么 是个常数的系数 常数的系数怎么样 刚才讲过也是可以拉到外面来 对不对 好 所以我们给它整理一下呢 你有没有发现就是说 诶 那这个X平方的期望值呢还是维持X平方的期望值 不要变动 但是-2*μ呢 被拉到外面来 这就是-2*μ在外面 里面就剩下一个x 所以就是这个E[x] 那E[x]就是x的期望值 E的x不就是μx么 所以这边就变成什么 -2*μx再乘上μx 就变成什么 -2*μx的平方啦 OK 好 那后面这一项呢 μx的平方刚才讲说 μx平方是个常数 所以它的期望值就还是μx的平方 所以 前面这边就有一个 -2*μx平方加上μx平方 两个消项以后就等于什么 变成-μx的平方 对不对 所以最后呢 我们发现最后的结果就等于这个 x平方的期望值减掉μx平方的期望值 好所以 当然你可以按照定义 用这样算 σx这样算也是可以 但是呢 我们通常发现说用这样子算 现在框起来这一个 这个算法会比较好算 因为通常在算期望值得时候你已经有μx了 这个负μx的平方你已经知道了 所以接下来你只需要算x平方的期望值 也就是刚才讲的 2nd moment 就很好算了 好 所以这就是我们通常常用的一个公式 所以 σx square 等于μx σx square 等于x平方的期望值加上μx的平方 你把μx 的平方移过去以后你就会发现有另外一个公式就是什么 就是X平方的期望值就是2nd moment 会等于 这个σx square 就是variance 加上μx square 加上期望的平方 好这个东西只要记住的话 以后你就很好算variance啦 好 那我们现在来看一些常见的离散随机变量的它们的这个期望值 跟这个方差 这个variance 好 其中呢 第一个我们就来看这个Bernuoli(p) Bernuoli(p)的话就是什么 它等于1的概率是p 等于0的概率是1-p 对不对 好 那所以 μx就是什么 μx就是来 把你这个可能的值 就是1乘上对应的概率就是p 另外一个可能的值就是0 对应的概率是1-p 乘出来呢 最后就是什么 就是1*p 就是p啦 好所以μx就是p Bernuoli random variable它的期望值呢 就是p 好 那variance呢 好如果你还记得刚才讲 我们刚才不是才算了吗 variance应该等于什么 等于x平方的期望值减掉μx的平方 这是好算的算法 那这有什么好处呢 因为μx呢 我们已经知道是多少 就是p啦 前面已经算出来 所以μx的平方就是p平方 所以我们现在只需要算X平方的期望值是多少 就是X的2nd moment ? 好那x平方 x平方是个x的函数的话 所以就把所有可能的x带到这个函数里面去 对不对 所以就是summation 的x平方乘上这个PMF 好 然后再把summation写下来 对不对 X平方乘上PMF的summation写下来 就是X平方的这个 期望值 减掉 不要忘记 还有一个μx的平方 好就是前面这个μx的平方 不要忘记 还在这边 好 X平方的期望值也是这样 X呢 要么就是 不是等于0就是等于1 那就一个一个带进去嘛对不对 就是等于什么 欸 x有可能等于1 x如果等于1的话就是1的平方乘上等于1的概率 就是p 对不对 好那另外呢 x有可能等于多少 X有可能等于0 所以X平方就是x平方 就是等于0的平方 乘上等于0的概率就是1-p 好所以你处理一下发现是什么 诶 1平方乘以p 加上0平方乘以1-p 那还是 那就是p啊 对不对 好所以就变成p 再减掉p平方 那你把它整理一下 就变成是p乘上1-p 好所以 这是Bernuoli的p的variance是p乘上1-p 好 那binomial呢 Binomial(n, p) 就是Binomial(n, p)的话 如果你还记得Binomial(n, p)的话 它的μx是多少 它的μx就是等于np 好 那它的σx square 等于np*(1-p) OK 好 那 这个东西为什么这个样子呢 这个后面我们如果介绍这个 (听不清)的时候 哦 这个推导就很容易 但是 这个呢也可以直接去推 用PMF去推 那这一次 老师把它当成一个作业 因为 我认为这个推导非常非常重要 这个 我们除了会用数学之外 但是 很多一些数学的推导 这些东西我们要试着 要能够建立这样的能力 好 那Binomial(n, p) 等下老师会教你一个Poisson的这个 期望值怎么求 那你就用这个观念 这个方法 这个同样的精神去求binomial这样的一个np 你如果这个能够求出来 诶 那老师就是觉得是 你应该就是还蛮不错的 好这个 推导上的这个 这个能力就建立起来了 它的binomial np它的mean就是等于n乘上p 好那variance呢就会等于 np(1-p) 好 那这个东西你观察一下 你会发现说诶 你如果观察binomial的mean跟variance 跟bernuoli的mean跟variance 你发现有什么行为 你看着噢 bernuoli的mean是什么 是p 可是binomial的mean是什么 是np bernuoli的variance是p(1-p) binomial的variance是什么 是n倍的p乘(1-p) 所以你发现说诶 binomial的mean跟variance需不需要背 啊太好记啦 你只要知道Bernuoli(p)的mean跟variance的话 你把它乘上n倍就是binomial(n, p)的mean跟variance了 超好记的 对不对 那你说这个Bernuoli(p)的mean跟variance 要不要背 要背也是可以的 如果不会的话 1乘上p加上0乘上(1-p) 这么好算的 直接去算就好了啦 对不对 好 所以 bernuoli跟binomial这个mean跟variance要记起来就不是问题啦 好 那我举个例子 如果你今天是一个Binomial(5, 0.2)的话 好也就是你的n 这是你的n 是等于5 p 是等于0.2 好 那你的μx是等于多少 那μx就是等于np啊 就是5乘上0.2啊 就是1啊对不对 好 好 那你的variance等于多少 variance就是5乘上p乘上1-p 就是5就是n嘛好 就是5乘上p乘上1-p 好你算一算 发现说 诶 它就是什么 就等于0.8 OK 好 好 那另外呢 还有一个什么 Geometry(p) 这也是我们 之前看到一个 常见的一个离散的随机变量的概率 好μx是什么 μx就是把x乘上它这个Px 好把它 这个PMF 把它 summation起来 那PMF如果你还记得是什么 就是1-p的x-1次方 乘上p 对不对好 这就是它的PMF 那PMF还要什么 还要乘上x 然后再summation起来 好那 所有可能的x是什么 要不要从负无穷大 不用啊 因为这个Geometry(p)只有在x大于等于0的时候才有值啊 所以 这个就没什么 那同学会说 诶 那这个不是 大x不是大于等于1吗 怎么会有0呢 没关系 这个summation不会有问题因为什么 因为当x=0的时候 这一项刚好消失 好 所以你这个summation从1开始写跟从0开始写都可以 好 那这个东西呢 等于多少 你看看啊 这其实是一个 这边长得像是一个1-p的x-1次方 这个x一直随着x的增加而增加 好所以这看起来是一个等比级数 对不对 但是前面有一个x 有一个公差在那边 所以这是一个 等差又等比的级数 那这个计算的话 其实高中的话应该都有算过这怎么算 老师就不再赘言了 好 基本上你能推导出来它是等于p分之1 好 那variance呢 还是利用刚刚那一招 x平方的期望值减去μx的平方 好 如果你去算的话也是一样 这个数列 你去处理它 你会发现说它等于p平方分之一乘以1-p好 老师也是非常强烈建议 你这两个 μx跟σx的平方你要去推导出来 好 这都不难 那老师写给你看也没有意义 因为写给你看的话 终究还不是你自己的 你这个能力还没有建立起来 好所以这个地方 老师把答案给你 但是呢 老师等下后面会教你怎么推导 拿poisson当例子让你来推导一下 好 同样的 Paskal(k, p)的话 你会发现说 同样的μx呢等于p分之k σx square呢 variance等于p平方分之k乘上1-p 好p平方分之k乘1-p 好 那你看看 again你再比较一下这两个 Geometry(p)的期望值是什么 是p分之1 可是呢 paskal的期望值是什么 是p分之k 欸 差几倍 差k倍 geometry的variance是什么 是p平方分之1-p 可是paskal是什么 p平方分之1-p再怎么 再乘上k 也是k倍 好 所以你看看 欸 这是不是巧合呢 跟刚才那个binomial的case类似 不是巧合 好 以后我们会证明这件事情 好 但是 欸 这个就告诉我们一个很好的方式来记啊 好这个Paskal(k, p)的 这个mean跟variance你需不需要背 不用背啊 geometry记起来就好啦 对不对 好 所以呢这个性质也是要记住 这是为什么老是把geometry跟paskal配对放在这边的一个原因 好