Professional Documents
Culture Documents
(30250293)2020 年春季课程作业
第六章(近邻法、决策树、集成学习与非线性回归方法)作业
𝑀
1
𝑦𝐶𝑂𝑀 (𝐱) = ∑ 𝑦𝑚 (𝐱) (1)
𝑀
𝑚=1
设样本𝐱的真实回归值为 d(𝐱),则每个预测模型的误差为:
𝜖𝑚 (𝐱) = 𝑦𝑚 (𝐱) − 𝑑(𝐱) (2)
对于𝑀个独立的预测模型,它们的平均均方误差可以表示为:
𝑀
1
𝐸𝐴𝑉 = ∑ 𝔼𝐱 {[𝜖𝑚 (𝐱)]2 } (3)
𝑀
𝑚=1
(1) 假设所有预测模型的误差是零均值且互不相关的,即:
𝔼𝐱 [𝜖𝑚 (𝐱)] = 0 (5)
𝔼𝐱 [𝜖𝑚 (𝐱)𝜖𝑙 (𝐱)] = 0 𝑚≠𝑙 (6)
试证明:
1
𝐸 𝐸𝐶𝑂𝑀 =
(7)
𝑀 𝐴𝑉
(2) 在实际情况中,各预测模型的误差往往是高度相关的,请证明在(1)
的假设不成立的情况下,下式仍然成立:
𝐸𝐶𝑂𝑀 ≤ 𝐸𝐴𝑉 (8)
至此我们理论证明了 Bagging 方法在减小模型误差上的有效性。
提示:
琴生(Jensen)不等式:对任意下凸函数𝑓(𝑥),有𝔼[𝑓(𝑥)] ≥ 𝑓(𝔼[𝑥])
𝑃(𝑦 = 𝑖) = 𝑝𝑖 , 𝑖 = 1, … , 𝑘 ∑ 𝑝𝑖 = 1
𝑖=1
(1) 试写出随机变量𝑦的概率质量函数,并证明它属于指数分布族。
(2) 仿照广义线性回归模型的构造方法,选择合适的𝑢(𝑦),导出预测输出
𝑓(𝑥)的表达式,比较你的结果与 softmax 回归的形式是否一致。
提示:
一种𝑢(𝑦)的定义方式如下:
𝑢(𝑦) ∈ ℝ𝑘−1
清华大学《模式识别与机器学习》
(30250293)2020 年春季课程作业
1 0 0 0
0 1 0 0
𝑢(1) = 0 , 𝑢(2) = 0 , … , 𝑢(𝑘 − 1) = 0 , 𝑢(𝑘) = 0
… … … …
[0] [0] [1] [0]
【2021.3.23→2021.4.5】
第七章(贝叶斯决策理论)作业
清华大学《模式识别与机器学习》
(30250293)2020 年春季课程作业
【2021.3.30→2021.4.5】
1
7.1 我们现有三类样本,已知它们各自的先验概率分别为𝑃(𝜔1 ) = 2 , 𝑃(𝜔2 ) =
1 1
, 𝑃(𝜔3 ) = 4,并且分别服从以下分布:
4
𝑝(𝑥|𝜔1 )~𝑁(0, 1) 𝑝(𝑥|𝜔2 )~𝑁(0.5, 1) 𝑝(𝑥|𝜔3 )~𝑁(1, 1)
从中随机抽取四个样本点,得到点列𝑥 = 0.6, 0.1, 0.9, 1.1。
(1) 计算点列𝑥分别取自于𝜔1 , 𝜔3 , 𝜔3 , 𝜔2的概率。
(2) 计算点列𝑥分别取自于𝜔1 , 𝜔2 , 𝜔3 , 𝜔3的概率。
(3) 找出点列𝑥最可能取自的分布序列。
7.2 在许多模式识别问题中,我们除了将样本归类为预先指定的𝑐个类别之外,
还可以拒绝对样本进行分类,认为样本是不可识别的,记损失函数:
0 𝑖 = 𝑗 𝑖, 𝑗 = 1, … , 𝑐
𝜆(𝛼𝑖 |𝜔𝑗 ) = { 𝜆𝑟 𝑖 =𝑐+1
𝜆𝑠 𝑜𝑡ℎ𝑒𝑟𝑤𝑖𝑠𝑒
这里𝜆𝑟 就表示拒绝样本所带来的损失,𝜆𝑠 则是分类错误时的损失。
试证明最小风险在以下情况取得:如果对∀𝑗, 𝑃(𝜔𝑖 |𝑥) ≥ 𝑃(𝜔𝑗 |𝑥)成立且
𝑃(𝜔𝑖 |𝑥) ≥ 1 − 𝜆𝑟 /𝜆𝑠 ,则将𝑥归类为𝜔𝑖 ,否则拒绝𝑥。讨论当𝜆𝑟 = 0时,会出
现什么情形?𝜆𝑟 > 𝜆𝑠 呢?
7.3 计算机小实验:非参数估计与贝叶斯决策
请生成 500 个样本数据,其中 250 个数据点采样于𝑁(−2.5, 1),记为正样本
;剩余 250 个数据采样于𝑁(2.5, 2),记为负样本。随机取出 70%的数据作为训
练集,30%的数据作为测试集,完成以下问题:
(1) 利用 Parzen 窗的高斯核,使用训练集中的数据对正样本和负样本分别进
行非参数估计。
(2) 利用(1)中非参数估计的概率密度,请使用最小错误率的贝叶斯决策对
测试集样本进行预测,给出测试集的错误率。
(3) 利用(1)中非参数估计的概率密度,请使用最小风险的贝叶斯决策对测
试集样本进行预测,惩罚矩阵如下:
预测值
正样本 负样本
真实值
正样本 0 10
负样本 1 0
(4) 结合你的实验结果,简述最小风险准则与最小错误率准则有什么不同。
清华大学《模式识别与机器学习》
(30250293)2020 年春季课程作业
第八章(概率密度函数估计)作业
【2021.3.30→2021.4.5】
8.1 请阅读《模式识别(第三版)》49 页,完成以下问题。
在贝叶斯估计中,给定有限样本集合𝑿 = {𝑥1 , 𝑥2 , … , 𝑥𝑛 }的情况下,贝叶斯估
计量可以通过最小化期望风险获得,即
𝜃 ∗ = 𝐸(𝜃|𝑿) = ∫ 𝜃𝑝(𝜃|𝑿)𝑑𝜃
𝜃
𝑖=1
试证明在此假设下,求解𝚯的最大似然估计与最小二乘法是等价的。
(2) 为了避免过拟合,我们通常在均方误差后加入正则项,再进行最小化
,即:
𝑛
1 2
min 𝐸(𝚯) = ∑{𝑓𝚯 (𝑥 (𝑖) ) − 𝑦 (𝑖) } + 𝜆‖𝚯‖2
𝚯 𝑛
𝑖=1
另一方面,我们认为𝚯服从正态先验:
𝑝(𝚯|𝛼 2 ) = 𝒩(𝚯|0, 𝛼 2 𝑰)
由贝叶斯理论,𝚯的后验分布与先验分布和似然函数的乘积成正比:
清华大学《模式识别与机器学习》
(30250293)2020 年春季课程作业
8.3 计算机小实验:参数估计
现有样本数据集𝑿 = {𝑥1 , 𝑥2 , … , 𝑥𝑛 },我们假设其来自于正态分布𝑁(𝜇, 𝜎 2 ),
完成以下问题:
(1) 推导参数{𝜇, 𝜎 2 }的最大似然估计。假设方差已知,均值𝜇满足正态先验
𝑁(𝜇0 , 𝜎02 ),写出参数𝜇的贝叶斯估计和最大后验估计。
(2) 请从标准正态分布𝑁(0,1)中分别抽取 10,100,1000 个样本数据作为𝑿,
利用最大似然估计正态分布假设下的模型参数,分别重复三次实验,将
同一抽样量下的三次重复实验估计的概率密度分布曲线绘制在一张图片
内,并与标准正态分布的概率密度分布曲线比较。
(3) 假设𝜇0 = −5,请利用(2)中样本容量为 1000 的样本集𝑿,绘制出当
𝜎02 = 0.01𝜎 2 , 0.1𝜎 2 , 𝜎 2 , 10𝜎 2 时贝叶斯估计的概率密度函数曲线,并与标
准正态分布进行比较。
(4) 改从均匀分布𝑈(0,1)中抽取 100 个样本数据作为𝑿,但正态分布的假设不
变,重复(2)的实验,绘制出估计得到的概率密度分布曲线图,并与均
匀分布𝑈(0,1)的概率密度分布曲线图比较。
(5) 通过上述实验,讨论模型的选择、样本量以及先验分布对参数估计的影
响。
第九章(贝叶斯网络与隐马尔可夫模型)作业
【2021.4.6→2021.4.12】
9.1 图上的条件独立性
(1) 下图所示的每个网络中,以下陈述是否成立?请说明理由。
𝐴 ⊥ 𝐶|𝐵, 𝐷
𝐵 ⊥ 𝐷|𝐴, 𝐶
清华大学《模式识别与机器学习》
(30250293)2020 年春季课程作业
9.2 新型冠状病毒肺炎疫情席卷世界,由于其早期症状与普通感冒类似,使其更
加难以被及时发现,如何及早有效地诊治疾病成为了人们迫切关注的问题。
现有一病人去医院看病,医生怀疑有三种疾病可能是导致这些症状的原因。
三种疾病分别是新冠肺炎(𝐷1 )、普通感冒(𝐷2 )、肠胃炎(𝐷3 ),医生通过检查
病人是否存在五种症状来判断其最可能的病因,五种症状分别是发热(𝑆1 )、
呼吸困难(𝑆2 )、干咳(𝑆3 )、腹泻(𝑆4 )、呕吐(𝑆5 )。已知三种疾病都可能引起发
热、仅有新冠肺炎会引起呼吸困难,仅有肠胃炎会引起呕吐,新冠肺炎和普
通感冒都会引起干咳,新冠肺炎和肠胃炎都可能引起腹泻。
(1) 根据以上描述,请画出此问题的贝叶斯网络图。
(2) 试以条件概率乘积的形式表示出整个网络的联合概率分布。
(3) 请问要描述此联合概率分布,需要多少独立的参数?如果所有的条件
独立性都未知,又需要多少独立参数?
(4) 请写出“干咳”(𝑆3 )的马尔可夫覆盖(Markov Blanket)。
(5) 如果医生检查到病人有呕吐症状(𝑆5 = 1),患哪些疾病的概率会发生
变化?
(6) 医生先前已经检查出病人有腹泻症状(𝑆4 = 1),如果又发现病人还有
呕吐症状(𝑆5 = 1),患哪些疾病的概率会发生变化?
提示:
考虑各种疾病之间独立,而非互斥关系
(2) 根据你建立的模型,分别采用前向算法和后向算法手动计算序列“6、6
、6、6”出现的概率,比较两次计算的结果是否相同。
(3) 假如这名玩家正在游戏中,目前已经观察到本局游戏前 15 次出现的点数
为:3、2、1、3、4、5、6、5、1、4、2、6、6、2、6,请你根据所建立
的模型,推断该玩家是否正在作弊,如果是,是在何时偷换的骰子?
提示:
(1) HMM 模型的建立可以调用 python 中的 hmmlearn 模块,hmmlearn
可直接通过 pip install hmmlearn 安装,具体使用方法请自行搜索,
也可查看源码中的注释文档。
(2) 友情提醒,赌博伤身,本题背景纯属虚构。