2015
-
(8)试描述线性判别函数的基本概念,并说明既然有线性判别函,为什么还需要非线性判别函数?假设有两种模式,每类包括6个4维不同的模式,且良好分布。如果他们是线性可分的。问权向量至少需要几个系数分量?假如要建立额尔茨的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变)
-
(8分)简述偏差方差分解及其推导过程,并说明偏差、方差、噪声三部分的内在含义。
-
(8 分) 试描述用 EM 算法求解高斯混合模型的思想和过程,并分析 k-means 和高斯混合模型在求解聚类问题中的异同。
-
(10分)用下列势函数
K ( x , x k ) = e − ∣ x − x k ∣ 2 K(x,x_k)=e^{-|x-x_k|^2} K(x,xk)=e−∣x−xk∣2
求解以下模式的分类问题
ω 1 : { ( 0 , 1 ) T , ( 0 , − 1 ) T } \omega_1\colon\{(0,1)^T,\quad(0,-1)^T\} ω1:{(0,1)T,(0,−1)T}ω 2 : { ( 1 , 0 ) T , ( − 1 , 0 ) T } \omega_2\colon\{(1,0)^T,\quad(-1,0)^T\} ω2:{(1,0)T,(−1,0)T}
-
(10 分)试述 K-L 变换的基本原理,并将如下两类样本集的特征维数降到一维,同时画出样本在该空间中的位置。
ω 1 : { ( − 5 − 5 ) T , ( − 5 − 4 ) T , ( − 4 − 5 ) T , ( − 5 − 6 ) T , ( − 6 − 5 ) T } \omega_1:\quad\{(-5\quad -5)^T,\quad(-5\quad -4)^T,\quad(-4\quad -5)^T,\quad(-5\quad -6)^T,\quad(-6\quad -5)^T\} ω1:{(−5−5)T,(−5−4)T,(−4−5)T,(−5−6)T,(−6−5)T}
ω z : { ( 5 5 ) T , ( 5 6 ) T , ( 6 5 ) T , ( 5 4 ) T , ( 4 5 ) T } \omega_z:\quad\{(5\quad 5)^T,\quad(5\quad 6)^T,\quad(6\quad 5)^T,\quad(5\quad 4)^T,\quad(4\quad 5)^T\} ωz:{(55)T,(56)T,(65)T,(54)T,(45)T},
其中假设其先验概率相等,即 P ( ω 1 ) = P ( ω 2 ) = 0.5 P(ω_1)=P(ω_2)=0.5 P(ω1)=P(ω2)=0.5。 -
(10 分)详细描述AdaBoost算法,解释为什么AdaBoost经常可以在训练误差为0后继续训练还可能带来测试误差的继续下降。
-
(10 分)描述感知机(Perceptron)模型,并给出其权值学习算法。在此基础上, 以仅有一个隐含层的三层神经网络为例,形式化描述 Back-Propagation(BP)算法中是如何对隐层神经元与输出层神经元之同的连接权值进行调整的。
-
(12分)已知正例点 x 1 = ( 3 , 3 ) T , x 2 = ( 4 , 3 ) T x_1=(3,3)^T,x_2=(4,3)^T x1=(3,3)T,x2=(4,3)T。负例点 x 3 = ( 1 , 1 ) T x_3=(1,1)^T x3=(1,1)T,试用线性支持向最机的对偶算法求最大间隔分离超平面和分类决策函数,并在图中画自分离超平面、 间隔边界及支持向量。
-
(12 分)假定对一类特定人群选行某种疾病检在。正常人以 w 1 w_1 w1类代表,患病者以 w 2 w_2 w2类代表。设被检查的人中正常者和患病者的先验概率分别为
正常人; P ( ω 1 ) = 0.9 P(\omega_1)=0.9 P(ω1)=0.9
德瑞者: P ( ω t ) = 0.1 P(\omega_t)=0.1 P(ωt)=0.1,
现有一被检查者,其观察值为x。从类条件概率密度分布曲线上查得
P ( x ∣ ω t ) = 0.2 , P ( x ∣ ω t ) = 0.4 P(x|\omega_t)=0.2,\quad P(x|\omega_t)=0.4 P(x∣ωt)=0.2,P(x∣ωt)=0.4
同时已知风险损失函数为( λ 11 λ 12 λ 21 λ 22 ) = ( 0 6 1 0 ) \begin{pmatrix} \lambda_{11}&\lambda_{12}\\ \lambda_{21}&\lambda_{22}\\ \end{pmatrix}=\begin{pmatrix} 0&6\\ 1&0\\ \end{pmatrix} (λ11λ21λ12λ22)=(0160)
其中 λ i j \lambda_{ij} λij表示将本应属于第 j 类的模式判为属于第 i 类所带来的风险损失。试对该被检查者用以下两种方法进行分类:
(1) 基于最小错误率的贝叶斯决策,并写出其判别函数和决策面方程;
(2) 基于最小风险的贝叶斯决策,并写出其判别函数和决策面方程。 -
(12分)假设有 3 个盒子,每个盒子里都装有红、白两种颜色的球。按照下面的方法抽球,产生一个球的颜色的观测序列:开始,以概率π随机选取 1 个盒子,从这个盒子里以概率 B随机抽出 1 个球,记录其颜色后,放回;然后,从当前盒子以概率 A 随机转移到下一个盒子,再从这个盒子里以概率 B 随机抽出一个球,记录其颜色,放回;如此重复进行 3 次,得到一个球的颜色观测序列$: O= ( 红,白,红) 。请计算生成该序列的概率 。请计算生成该序列的概率 。请计算生成该序列的概率P(O|{A,B,\pi})$。
提示:假设状态集合是{盒子1,盒子2,盒子3},观测的集合是{红,白},本题中已知状态转移概率分布、观测概率分布和初始概率分布分别为:
A状态转移概率分布 盒子1 盒子2 盒子3 盒子1 0.5 0.2 0.3 盒子2 0.3 0.5 0.2 盒子3 0.2 0.3 0.5 B观测概率分布 红 白 盒子1 0.5 0.5 盒子2 0.4 0.6 盒子3 0.7 0.3 初始概率分布 π = [ 0.2 , 0.4 , 0.4 ] T \pi=[0.2,0.4,0.4]^T π=[0.2,0.4,0.4]T
2016
-
(6 分)简述模式的概念和它的直观特性,并简要说明模式分类有哪几种主要方法。
-
(8分)假设某研究者在ImageNet数据上使用线性支持向量机(Linear SVM)来做文本分类的任务,请说明在如下情况下分别如何操作才能得到更好的结果,并说明原因.
(1)训练误差5%,验证误差10%,测试误差10%。
(2)训练误差1%,验证误差10%,测试误差10%。
(3)训练误差1%,验证误差3%,测试误差10%。 -
给定如下图所示的概率图模型,其中变量 X 3 X_3 X3为已观测变量,请问变量 X 4 X_4 X4和 X 6 X_6 X6是否独立?并用概率推导证明。
-
(10分)(1)随机猜测作为一个分类算法是否一定比 SVM 差? 借此阐述你对"No Free Lunch Theorem"的理解
(2)举例阐述你对“Occam`s razor”的理解 -
(10 分)详细描述AdaBoost算法,解释为什么AdaBoost经常可以在训练误差为0后继续训练还可能带来测试误差的继续下降。
-
(10 分)用感知器算法求下列模式分类的解向量(取w(1)为零向量)
ω 1 : { ( 0 , 0 , 0 ) T , ( 1 , 0 , 0 ) r , ( 1 , 0 , 1 ) T , ( 1 , 1 , 0 ) T } \omega_1:\{(0,0,0)^T,(1,0,0)^r,(1,0,1)^T,(1,1,0)^T\} ω1:{(0,0,0)T,(1,0,0)r,(1,0,1)T,(1,1,0)T}
ω x : { ( 0 , 0 , 1 ) T , ( 0 , 1 , 1 ) T , ( 0 , 1 , 0 ) T , ( 1 , 1 , 1 ) T } \omega_x:\{(0,0,1)^T,(0,1,1)^T,(0,1,0)^T,(1,1,1)^T\} ωx:{(0,0,1)T,(0,1,1)T,(0,1,0)T,(1,1,1)T} -
(12分) 设以下模式类别具有正态概率密度函数:
ω 1 : { ( 0 , 0 , 0 ) T , ( 1 , 0 , 0 ) T , ( 1 , 0 , 1 ) T , ( 1 , 1 , 0 ) T } \omega_1:\{(0,0,0)^T,(1,0,0)^T,(1,0,1)^T,(1,1,0)^T\} ω1:{(0,0,0)T,(1,0,0)T,(1,0,1)T,(1,1,0)T}
ω 2 : { ( 0 , 1 , 0 ) T , ( 0 , 1 , 1 ) T , ( 0 , 0 , 1 ) T , ( 1 , 1 , 1 ) T } \omega_2:\{(0,1,0)^T,(0,1,1)^T,(0,0,1)^T,(1,1,1)^T\} ω2:{(0,1,0)T,(0,1,1)T,(0,0,1)T,(1,1,1)T}
若 P ( ω 1 ) = P ( ω 2 ) = 0 {P}(\omega_1)={P}(\omega_2)=0 P(ω1)=P(ω2)=0.5, 求这两类模式之间的贝叶斯判别界面的方程式。 -
(12分)假设有如下线性回归问题,
min β ( y − X β ) 2 + λ ∣ ∣ β ∣ ∣ 2 2 \operatorname*{min}_{\beta}(y-X\beta)^{2}+\lambda||\beta||_{2}^{2} minβ(y−Xβ)2+λ∣∣β∣∣22其中y和β是n维向量,X是一个m × n的矩阵。该线性回归问题的参数估计可看作一个后验分布的均值,其先验为高斯分布 β ∼ N ( 0 , τ I ) \beta{\sim}N(0,\tau I) β∼N(0,τI), 样本产生自高斯分布 y ∼ N ( X β , σ 2 I ) y{\sim}N(X\beta,\sigma^2I) y∼N(Xβ,σ2I),其中 I I I为单位矩阵,试推导调控系数 λ \lambda λ与方差 τ \tau τ和 σ 2 \sigma^{2} σ2的关系。
-
(12 分) 给定有标记样本集 D t = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x l , y l ) } D_t=\{(x_1,y_1),(x_2,y_2),...,(x_l,y_l)\} Dt={(x1,y1),(x2,y2),...,(xl,yl)}和未标记样本 D a = { ( x l + 1 , y l + 1 ) , ( x l + 2 , y l + 2 ) , . . . , ( x l + u , y l + u ) } , l ≪ u , l + u = m D_{a}=\{(x_{l+1},y_{l+1}),(x_{l+2},y_{l+2}),...,(x_{l+u},y_{l+u})\},l\ll u,l+u=m Da={(xl+1,yl+1),(xl+2,yl+2),...,(xl+u,yl+u)},l≪u,l+u=m, 假设所有样本独立同分布,且都是由同一个包含N 个混合成分的高斯混合模型 { ( a i , μ i , Σ i ) ∣ 1 ≤ i ≤ N } \{(a_i,\mu_i,\Sigma_i)|1\leq i\leq{N}\} {(ai,μi,Σi)∣1≤i≤N}产生,每个高斯混合成分对应一个类别,请写出极大似然估计的目标函数(对数似然函数), 以及用 EM 算法求解参数的迭代更新式。
-
(12 分)假定对一类特定人群选行某种疾病检在。正常人以 w 1 w_1 w1类代表,患病者以 w 2 w_2 w2类代表。设被检查的人中正常者和患病者的先验概率分别为
正常人; P ( ω 1 ) = 0.9 P(\omega_1)=0.9 P(ω1)=0.9
德瑞者: P ( ω t ) = 0.1 P(\omega_t)=0.1 P(ωt)=0.1,
现有一被检查者,其观察值为x。从类条件概率密度分布曲线上查得
P ( x ∣ ω t ) = 0.2 , P ( x ∣ ω t ) = 0.4 P(x|\omega_t)=0.2,\quad P(x|\omega_t)=0.4 P(x∣ωt)=0.2,P(x∣ωt)=0.4
同时已知风险损失函数为
( λ 11 λ 12 λ 21 λ 22 ) = ( 0 6 1 0 ) \begin{pmatrix} \lambda_{11}&\lambda_{12}\\ \lambda_{21}&\lambda_{22}\\ \end{pmatrix}=\begin{pmatrix} 0&6\\ 1&0\\ \end{pmatrix} (λ11λ21λ12λ22)=(0160)
其中 λ i j \lambda_{ij} λij表示将本应属于第 j 类的模式判为属于第 i 类所带来的风险损失。试对该被检查者用以下两种方法进行分类:
(1) 基于最小错误率的贝叶斯决策,并写出其判别函数和决策面方程;
(2) 基于最小风险的贝叶斯决策,并写出其判别函数和决策面方程。
2017
-
(8)试描述线性判别函数的基本概念,并说明既然有线性判别函,为什么还需要非线性判别函数?假设有两种模式,每类包括6个4维不同的模式,且良好分布。如果他们是线性可分的。问权向量至少需要几个系数分量?假如要建立额尔茨的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变)
-
(8 分)简述SVM算法的原理,如果使用SVM做二分类问题得到如下结果,分别应该采取什么措施以取得更好的结果?并说明原因。
(I)训练集的分类准确率 90%。验证集的分类准确率 90%, 测试集的分类准确率 88%;
(2)训练集的分类准确率 98%,验证集的分类准确率 90%,测试集的分类准确率 88%。 -
(8分)请从两种角度解释主成分分析(PCA)的优化目标。
-
(8 分) 请给出卷积神经网络 CNN 中卷积、Pooling、ReLU 等基本层操作的含义。然后从提取特征的角度分析 CNN 与传统特征提取方法 (例如 Gabor 小波滤波器) 的异同。
-
(10分)用线性判别函数的感知器赏罚训练算法求下列模式分类的解向量,并给出相应的判别函数。
ω 1 : { ( 0 , 0 ) T , ( 0 , 1 ) T } \omega_1\colon\{(0,0)^T,\quad(0,1)^T\} ω1:{(0,0)T,(0,1)T}
ω 2 : { ( 1 , 0 ) T , ( 1 , 1 ) T } \omega_2\colon\{(1,0)^T,\quad(1,1)^T\} ω2:{(1,0)T,(1,1)T} -
(10 分)试述 K-L 变换的基本原理,并将如下两类样本集的特征维数降到一维,同时画出样本在该空间中的位置。
ω 1 : { ( − 5 − 5 ) T , ( − 5 − 4 ) T , ( − 4 − 5 ) T , ( − 5 − 6 ) T , ( − 6 − 5 ) T } \omega_1:\quad\{(-5\quad -5)^T,\quad(-5\quad -4)^T,\quad(-4\quad -5)^T,\quad(-5\quad -6)^T,\quad(-6\quad -5)^T\} ω1:{(−5−5)T,(−5−4)T,(−4−5)T,(−5−6)T,(−6−5)T}
ω z : { ( 5 5 ) T , ( 5 6 ) T , ( 6 5 ) T , ( 5 4 ) T , ( 4 5 ) T } \omega_z:\quad\{(5\quad 5)^T,\quad(5\quad 6)^T,\quad(6\quad 5)^T,\quad(5\quad 4)^T,\quad(4\quad 5)^T\} ωz:{(55)T,(56)T,(65)T,(54)T,(45)T},
其中假设其先验概率相等,即 P ( ω 1 ) = P ( ω 2 ) = 0.5 P(ω_1)=P(ω_2)=0.5 P(ω1)=P(ω2)=0.5。 -
(12分)请解释 AdaBoost 的基本思想和工作原理,写出 AdaBoost 算法。
-
(12 分) 选择埃尔米特多项式,其前面几项的表达式
H 1 ( x ) − 1 , H 2 ( x ) = 2 x , H 3 ( x ) = 4 x 2 − 2 H_1\left(x\right)-1,\quad H_{2}\left(x\right)=2x,\quad H_{3}\left(x\right)=4x^{2}-2 H1(x)−1,H2(x)=2x,H3(x)=4x2−2
H 4 ( x ) = − 8 x 2 − 1 / 2 x , H 5 ( x ) = 16 x 2 − 48 x 2 + 12 H_{4}(x)=-8x^{2}-1/2x,\quad H_{5}(x)=16x^{2}-48x^{2}+12 H4(x)=−8x2−1/2x,H5(x)=16x2−48x2+12
试用二次埃尔米特多项式的势函数算法求解以下模式的分类问题
ω 1 : { ( 0 , 1 ) T , ( 0 , − 1 ) T ] } \omega_1:\{(0,1)^T,\quad(0,-1)^T]\} ω1:{(0,1)T,(0,−1)T]}
ω 1 : { ( 1 , 0 ) T , ( − 1 , 0 ) T } \omega_1:\{(1,0)^T,\quad(-1,0)^T\} ω1:{(1,0)T,(−1,0)T} -
(12分)已知以下关于垃圾部件的8条标注数据。A、B为邮件的2个特征,Y为类别。其中Y=1表示该邮件为垃圾邮件,Y=0 表示该邮件为正常邮件。请依此训练一个朴素贝叶斯分类器。并预测特征为“A=O, B=1”的邮件是否为垃圾邮件。
序号 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
---|---|---|---|---|---|---|---|---|
A | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 |
B | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 |
Y | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 1 |
- (12分)假设有 3 个盒子,每个盒子里都装有红、白两种颜色的球。按照下面的方法抽球,产生一个球的颜色的观测序列:开始,以概率π随机选取 1 个盒子,从这个盒子里以概率 B随机抽出 1 个球,记录其颜色后,放回;然后,从当前盒子以概率 A 随机转移到下一个盒子,再从这个盒子里以概率 B 随机抽出一个球,记录其颜色,放回;如此重复进行 3 次,得到一个球的颜色观测序列$: O= ( 红,白,红) 。请计算生成该序列的概率 。请计算生成该序列的概率 。请计算生成该序列的概率P(O|{A,B,\pi})$。
提示:假设状态集合是{盒子1,盒子2,盒子3},观测的集合是{红,白},本题中已知状态转移概率分布、观测概率分布和初始概率分布分别为:
A状态转移概率分布 | 盒子1 | 盒子2 | 盒子3 |
---|---|---|---|
盒子1 | 0.5 | 0.2 | 0.3 |
盒子2 | 0.3 | 0.5 | 0.2 |
盒子3 | 0.2 | 0.3 | 0.5 |
B观测概率分布 | 红 | 白 |
---|---|---|
盒子1 | 0.5 | 0.5 |
盒子2 | 0.4 | 0.6 |
盒子3 | 0.7 | 0.3 |
初始概率分布 π = [ 0.2 , 0.4 , 0.4 ] T \pi=[0.2,0.4,0.4]^T π=[0.2,0.4,0.4]T
2018
-
(10分)简述Fisher线性判别方法的基本思路,写出准则函数和对应的解。
-
(12分)的设集个地区细胞识别中正常( w 1 w_{1} w1 )和导常( w 2 w_{2} w2 )两类的先验概率分别为:正常状态: P ( w 1 ) = 0.95 P(w_1)=0.95 P(w1)=0.95, 异常状态 P ( w 2 ) = 0.05 P(w_{2})=0.05 P(w2)=0.05。现有一待识别的细胞,其观察值为x,已知 p ( x ∣ w 1 ) = 0.2 p(x|w_1)=0.2 p(x∣w1)=0.2, p ( x ∣ w 2 ) = 0.5 p(x|w_2)=0.5 p(x∣w2)=0.5。同
( λ 11 λ 12 λ 21 λ 22 ) = ( 0 1 8 0 ) \begin{pmatrix} \lambda_{11}&\lambda_{12}\\ \lambda_{21}&\lambda_{22}\\ \end{pmatrix}=\begin{pmatrix} 0&1\\ 8&0\\ \end{pmatrix} (λ11λ21λ12λ22)=(0810)
其中 λ i j \lambda_{ij} λij表示将本应属于第 j j j类的模式判为属于第 i i i 类所带来的风险损失。试对该待识别细胞用以下两种方法进行分类;- 基于最小错误率的贝叶斯决策。并写的其判别函数和决策面方程。
- 基于最小风险的贝叶斯决策,并写出其判别函数和决策面方程。
-
(10分)SVM可以借助核函数(kernel function)在特征空间(feature space)学习一个具有最大间隔的超平面。对于两类的分类问题,任意输入 x x x的分类结果取决于下式:
< w ^ , ϕ ( x ) > + w ^ 0 = f ( x ; α , w ^ 0 ) <\widehat{w},\phi(x)>+\widehat{w}_{0}=f(x;\alpha,\widehat{w}_{0}) <w ,ϕ(x)>+w 0=f(x;α,w 0)
其中, w ^ \hat{w} w^和 ω 0 \omega_{0} ω0是分类超平面的参数, α = { α 1 , . . . α [ S V ] } \alpha=\{\alpha_1,...\alpha_{[SV]}\} α={α1,...α[SV]}表示支持向量(support vector)的系数,SV表示支持向星集合。使用径向基面数(radial basis function)定义核函数 K ( ⋅ ; ) K(\cdot;) K(⋅;),即 K ( x , x ′ ) = exp ( − D ( x , x ′ ) 2 s 2 ) K(x,x^{\prime})=\exp(-\frac{D(x,x^{\prime})}{2s^2}) K(x,x′)=exp(−2s2D(x,x′))。假设训练数据在特征空间线性可分,SVM 可以完全正确地划分这些训练数据。给定一个测试样本 x f a r x_{far} xfar,它距离所有训练样本都非常远。
试写出 f ( x ; α , w ^ 0 ) f(x;\alpha,\hat{w}_0) f(x;α,w^0)在核特征空间的表达形式,进而证明 : f ( x f a r ; α , w ^ 0 ) ≈ w ^ 0 :f(x_{far};\alpha,\hat{w}_0)\approx\hat{w}_0 :f(xfar;α,w^0)≈w^0 -
(10 分) K-L变换属于有监督学习 (supervised learning)还是无监督学习(unsupervised learning)? 试利用K-L 变换将以下样本集的特征维数降到一维,同时画出样本在该空间的位置。
{ ( − 5 − 5 ) T , ( − 5 − 4 ) T , ( − 4 − 5 ) T , ( − 5 − 6 ) T , ( − 6 − 5 ) T , ( 5 5 ) T , ( 5 6 ) T , ( 6 5 ) T , ( 5 4 ) T , ( 4 5 ) T } \{(-5-5)^T,(-5-4)^T,(-4-5)^T,(-5-6)^T,(-6-5)^T,(5\quad5)^T,(5\quad6)^T,(6\quad5)^T,(5\quad4)^T,(4\quad5)^T\} {(−5−5)T,(−5−4)T,(−4−5)T,(−5−6)T,(−6−5)T,(55)T,(56)T,(65)T,(54)T,(45)T}
-
(12分) 过拟合与欠拟合。
- 什么是过拟合?什么是欠拟合?
- 如何判断一个模型处在过拟合状态还是欠拟合状态?
- 请给出 3 种减轻模型过拟合的方法。
-
(12 分)用逻辑回归模型(logistic regression model)解决 κ \kappa κ类分类问题,假设每个输入样本 x ∈ R d x\in\mathbb{R}^d x∈Rd的后验概率可以表示为:
P ( Y = k ∣ X = x ) = exp ( w k T x ) 1 + ∑ l = 1 K − 1 exp ( w l T x ) , k = 1 , . . . , K − 1 P(Y=k|X=x)=\frac{\exp(w_{k}^{T}x)}{1+\sum_{l=1}^{K-1}\exp(w_{l}^{T}x)}\quad,\:k=1,...,K-1 P(Y=k∣X=x)=1+∑l=1K−1exp(wlTx)exp(wkTx),k=1,...,K−1
P ( Y = K ∣ X = x ) = 1 1 + ∑ l = 1 K − 1 exp ( w l T x ) P(Y=K|X=x)=\frac{1}{1+\sum_{l=1}^{K-1}\exp(w_{l}^{T}x)} P(Y=K∣X=x)=1+∑l=1K−1exp(wlTx)1
其中 w k T w_k^T wkT表示向量 w k w_k wk的转置。通过引入 w K = 0 ⃗ w_K=\vec{0} wK=0, 上式也可以合并为一个表达式。
-
该模型的参数是什么?数量有多少?
-
给定 n n n 个训练样本 { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) } \{(x_1,y_1),(x_2,y_2),...,(x_n,y_n)\} {(x1,y1),(x2,y2),...,(xn,yn)} 请写出对数似然函数(log likelihood function) L L L的表达形式,并尽量化简。
L ( w 1 , . . . , w K − 1 ) = ∑ i = 1 n ln P ( Y = y i ∣ X = x i ) L(w_{1},...,w_{K-1})=\sum_{i=1}^{n}\ln P(Y=y_{i}|X=x_{i}) L(w1,...,wK−1)=∑i=1nlnP(Y=yi∣X=xi)
-
如果加入正则化项(regularization term), 定义新的目标函数为:
J ( w 1 , … , w K − 1 ) = L ( w 1 , … , w K − 1 ) − λ 2 ∑ l = 1 K ∥ w l ∥ 2 2 J(w_{1},\ldots,w_{K-1})=L(w_{1},\ldots,w_{K-1})-\frac{\lambda}{2}\sum_{l=1}^{K}\|w_{l}\|_{2}^{2} J(w1,…,wK−1)=L(w1,…,wK−1)−2λ∑l=1K∥wl∥22
请计算 J J J 相对于每个 w k w_\mathrm{k} wk的梯度。
-
-
给定如下图所示的概率图模型,其中变量 X 2 、 X 4 X_2、X_4 X2、X4为已观测变量,请问变量 X 1 X_1 X1和 X 5 X_5 X5是否独立?并用概率推导证明。
-
(12分)假设有2校硬币,分别记为A和B,以π的概率选择A,以1-π的概率选择B,这些硬币正面出现的概率分别是 p p p和 q q q。掷选出的硬币,记正面出现为1,反面出现为0,独立地重复进行 4次试验,观测结果如下:1,1,0,1。给定模型参数 π = 0.4 , p = 0.6 , q = 0.5 \pi=0.4,p=0.6,q=0.5 π=0.4,p=0.6,q=0.5,请计算生成该序列的概率,并给出该观测结果的最优状态序列。
-
基于AdaBoost算法的目标检测需要稠密的扫描窗口并判断每个窗口是否为目标,请描述基于深度学习的目标检测方法,如SSD或YOLO,如何做到不需要稠密扫描窗口而能发现并定位目标位置
2019
一、(16分)选择题。
-
基于二次准则函数的H-K 算法较之于感知器算法的优点是哪个?
A.计算量小 \quad B.可以判别问题是否线性可分 \quad C.其解完全适用于非线性可分的情况
-
在逻辑回归中,如果正则项取 L 1 L_1 L1正则,会产生什么效果?
A.可以做特征选择,一定程度上防止过拟合 \quad B.能加快计算速度 \quad C.在训练数据上获得更准确的结果 -
如果模型的偏差较高,我们如何降低偏差?
A.在特征空间中减少特征 \quad B、在特征空间中增加特征 \quad C.增加数据点 -
假设采用正态分布模式的贝叶斯分类器完成一两个分类任务,则下列说法正确的是哪个
A.假设两类的协方差矩阵均为对角矩阵,则判别界面为超平面。
B.假设两类的协方差矩阵相等,则判别界面为超平面。
C.不管两类的协方差矩阵为何种形式,判别界面均为超平面。 -
下列方法中,哪种方法不能用于选择 PCA 降维 (K-L 变换) 中主成分的数目 K K K?
A.训练集上残差平方和随 K K K发生剧烈变化的地方(肘部法)B.通过监督学习中验证集上的性能选择K
C.训练集上残差平方和最小的K -
考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个针对类似问题已经预先训练好的神经网络,请问可以用下面哪种方法来利用这个预先训练好的网络
A. 把除了最后一层外所有的层都冻住,重新训练最后一层
B.对新数据重新训练整个模型
C, 只对最后几层进行调参(fine tune) -
如下图所示,假设该数据集中包含一些线性可分的数据点。训练 Soft margin SVM 分类器,其松弛项的系数 为C。请问当 C → 0 C\to0 C→0时,分类边界为下图中的哪个?
-
如下图所示。假设该数据集中包含线性不可分的数据点。采用二次核函数训练 Soft margin SVM 分类器,请问当 C → ∞ C\to\infty C→∞时,份类边界为下图中的哪个?外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
二、(6分) 请列举半监督学习对数据样本的三种基本假设。
三、(8分)针对下图所示的三种数据分布。从K均值、GMM 和 DBSCAN 中分别选择最合适的聚类算法、并简述理由。外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
四、(12 分)对于具有类别标签的数据、采用K-L变换和 Fisher 线性判别分析两种方法对数据降维。
(1)简选这两种数据毕维方法的基本过程。(8分)
(2) 这两种方法中哪种方法对分类夏有效?并简述原因。(4分)
五、(10 分) 逻辑回妇
(1)简达逻辑回归算法的原理。(4分)
(2)如果使用逻辑回归算法做二分类问题得到如下结果,分别应该采取什么措施以取得更好的结果?并说明理由(6分)
(a)训练集的分类准确率85%,验证集的分类准确率 80%,测试集的分类准确率75%;
(b)训练集的分类准确率 99%,验证集的分类准确率 80%,测试集的分类准确率 78%;
六、(10分)解释 AdaBoost算法的基本思想和工作原理、并给出 AdaBoost 算法的伪代码。
七、(10 分))从特征提取的角度,分析深度卷积神经网络与传统特征提取方法(例如 Gabor 小波滤波器)的异同,并给出深度学习优于传统方法的原因。
八、(8分)硬间隔支持向量机(Hard margin SVM)
如下图所示,一个数据集包含来自2个类别的4个数据点。在此集合上训练一个线性 Hard margin SVM 分类器。请写出SVM 的形式化模型,并计算出该分类器的权重向量 w w w和偏差b、给出该分类器的支持向量
九、(16 分)拟利用贝叶斯判别方法检测 SNS 社区中不莫实账号。设 Y = 0 Y=0 Y=0表示真实账号。 Y = 1 Y=1 Y=1表示不真实账号。每个用户有三个属性, X 1 X_{1} X1表示日志数量/注册天数, X 2 X_{2} X2表示好友数量/注册天数, X 3 X_{3} X3衰示是否使用真实头像。已知 P ( Y = 0 ) = 0.89 , P ( X 3 = 0 ∣ Y = 0 ) = 0.2 , P ( X 3 = 0 ∣ Y = 1 ) = 0.9 P(Y=0)=0.89,\quad P(X_{3}=0|Y=0)=0.2,\quad P(X_{3}=0|Y=1)=0.9 P(Y=0)=0.89,P(X3=0∣Y=0)=0.2,P(X3=0∣Y=1)=0.9。且给定 Y Y Y的情况下 X 1 × X 2 X_{1}\times X_{2} X1×X2的分布如下:
P ( X 1 ∣ Y ) P(X_1|Y) P(X1∣Y) | X 1 ≤ 0.05 X_1\le0.05 X1≤0.05 | 0.05 ≤ X 1 ≤ 0.2 0.05\le X_1\le0.2 0.05≤X1≤0.2 | X 1 ≥ 0.2 X_1\ge0.2 X1≥0.2 |
---|---|---|---|
Y = 1 Y=1 Y=1 | 0.8 | 0.1 | 0.1 |
Y = 0 Y=0 Y=0 | 0.3 | 0.5 | 0.2 |
P ( X 2 ∣ Y ) P(X_2|Y) P(X2∣Y) | X 2 ≤ 0.1 X_2\le0.1 X2≤0.1 | 0.1 ≤ X 2 ≤ 0.8 0.1\le X_2\le0.8 0.1≤X2≤0.8 | X 2 ≥ 0.8 X_2\ge0.8 X2≥0.8 |
---|---|---|---|
Y = 1 Y=1 Y=1 | 0.7 | 0.2 | 0.1 |
Y = 0 Y=0 Y=0 | 0.1 | 0.7 | 0.2 |
若一个账号使用非真实头像,日志数量与注册天数的比率为0.1,好友数与注册天数的比率为0.2, 判断该账号是不是虚假账号。
十、(10分)现装有红色球和白色球的两个盒子,盒子 1 中红球的比例为p,盒子 2 中红球的比例为 q q q。我们以概率π选择盒子1,概率 1 − π 1-\pi 1−π选择盒子 2,然后从盒子中有放回地取出一个小球,独立地重复进行 4 次试验,观测结果为:红,红,白,红。
假定模型的参数初始值为 π ( 0 ) = 0.4 , p ( 0 ) = 0.4 , q ( 0 ) = 0.5 \pi^{(0)}=0.4,\quad p^{(0)}=0.4,\quad q^{(0)}=0.5 π(0)=0.4,p(0)=0.4,q(0)=0.5,请写出 EM算法迭代一次后p和 q q q的值。(计算结果保留两位小数)
2021
一、(20分)选择题。
-
对于两类分类问题,()能发现类别不可分的情况。
A.梯度法 \quad B.H-K 算法 \quad C.感知器算法 -
下列机器学习模型不属于生成式模型的是()。
A.朴素贝叶斯 \quad B. 隐马尔科夫模型 (HMM) \quad C. Logistic Regression (逻辑回归) 模型 -
下列方法中,不属于无监督特征降维的方法是 ()。
A.主成分分析(PCA) \quad B.线性判别分析(LDA) \quad C. 自编码器 -
如果模型的偏差很高,我们如何降低模型偏差?()
A、在特征空间中减少特征 \quad B.在特征空间中增加特征 \quad C. 增加训练数据的数量 -
对一个分类任务,我们采用梯度下降法训练得到一个 20 层的深度卷积神经网络模型。你发现它在训练集上的正确率为 98%,但在验证集上的正确率为 70%。以下哪项操作有可能提高模型在测试集上的性能?()
A. 增加正则项的权重 \quad B. 减少训练样本的数量 \quad C.加大模型的训练次数 -
要将下图所示的两个半月形数据各聚成两簇,可采用()聚类算法。
A. K均值聚类 \quad B.混合高斯模型(GMM) \quad C.DBSCAN
-
下列哪一项不是半监督学习的假设?()
A.低密度分离假设 \quad B.流形假设 \quad C.最小描述长度假设
-
给定如下图所示的概率图模型,请问下列哪一项正确?
A. X 1 ⊥ X 4 X_1\bot X_4 X1⊥X4 \quad \quad B. X 1 ⊥ X 5 ∣ { X 3 , X 4 } X_1\bot X_5|\lbrace X_3,X_4 \rbrace X1⊥X5∣{X3,X4} \quad \quad C. X 1 ⊥ X 3 ∣ X 2 X_1\bot X_3|X_2 X1⊥X3∣X2
-
虽然神经网络在上世纪 80 年代就已被提出,但直到近些年才能成功训练深度模型,原因之一是现代深度神经网络采用了()技术。
A.反向传播算法 \quad B.Sigmoid激活函数 \quad C. 跳跃连接(skip connect)
-
下列哪一项技术使得卷积神经网络具有非线性建模能力?()
A.随机梯度下降优化算法 \quad B.ReLU激活函数 \quad C.卷积
二、(12 分)给定 N N N 个独立分布训练数据 { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} {(x1,y1),(x2,y2),...,(xN,yN)},其中 x i ∈ R D , y i ∈ { 0 , 1 } x_i\in{R}^D,y_i\in\{0,1\} xi∈RD,yi∈{0,1}为类别标签,当 y i = 1 y_i=1 yi=1时,表示 x i x_i xi为异常数据; y i = 0 y_i=0 yi=0时,表示 x i x_i xi为正常数据。
(1)请用贝叶斯分类器来构造判别函数,并阐述如何估计相关的参数(假设每类样本的特征服从多元高斯分布)
(2)如果将正常的数据误分为异常的代价为1,将异常误分为正常的代价为5,请阐述如何构建分类器或判别函数。
三、给定一个有N个样本组成的训练集 { x i } i = 1 N \{x_i\}_{i=1}^N {xi}i=1N,其中 x i ∈ R D x_i\in{R}^D xi∈RD,请形式化描述如何构建主成分分析(PCA)模型,以及如何对新的测试样本 x ∈ R D x\in{R}^D x∈RD进行降维和重构。
四、(8 分) 对于二分类问题,Logistic Kegression(逻辑回归) 中利用下式计算后验概率。
P ( y = 1 ∣ x ) = 1 1 + exp ( − w T x ) P(y=1|x)=\frac{1}{1+\exp{(-w^{\mathrm{T}}x)}} P(y=1∣x)=1+exp(−wTx)1
给定训练数据 { ( x i , y i ) } i = 1 N , y i ∈ { 0 , 1 } \{(x_i,y_i)\}_{i=1}^N,y_i\in\{0,1\} {(xi,yi)}i=1N,yi∈{0,1},请给出求解模型参数w的方法
五、(8分) 给定如下训练数据集:
x 1 = ( 4 4 ) , x 2 = ( 5 4 ) , x 3 = ( 2 2 ) , y 1 = 1 , y 2 = 1 , y 3 = − 1 , x_{1}=\binom{4}{4},\:x_{2}=\binom{5}{4},\:x_{3}=\binom{2}{2},\:y_{1}=1,\:y_{2}=1,\:y_{3}=-1, x1=(44),x2=(45),x3=(22),y1=1,y2=1,y3=−1,
通过求解SVM的对偶问题来求解最大间隔的分离超平面。
六、(10分)请写出两种非线性降维方法,并分别简述其思想原理。
七、(10分) 请给出装装(Bagging)算法和提升(Boosting)算法的至少 3 个不同点。
八、(12 分)假设有 3 个盒子,每个盒子里装有不同数量的红、蓝两种颜色的小球: 盒子1:2个红球,2个蓝球:
盒子2:3个红球,1个蓝球;
盒子3:1个红珠,3个蓝球。
每次随机选择一个盒子,并从中抽取一个球(有放回)。
(1) 请用隐马尔可夫模型(HMM)描述上述过程,并给出参数 π , A , B \pi,A,B π,A,B的值:(4分)
(2) 在实验过程中我们只记录了抽取到的球的颜色,忘了记录盒子的标号。假如观测到小球的颜色序列为 O = ( 红,蓝 ) O=(红,蓝) O=(红,蓝),请用维特比(Viterbi)算法计算最可能的盒子序列。(8 分)
九、(10 分) 用于图像分类等任务的卷积神经网络是如何解决从像素级低层语义到物体类别级高层语义之间“语义鸿沟”门题的?
2023
一、选择
- 关于批正则化(Batch Normalization),下列说法不正确的是 (A)。
A.增加总的训练时间 B.使得梯度稳定 C.每个批次单独处理 - 下列机器学习模型不属于生成式模型的是 ©。
A.隐马尔科夫模型(HMM) B.高斯判别分析模型 C.感知器算法 - 在Logistc 回归中,如果同时加入L1和L2 范数,会产生什么效果? ()
A.能解决维度灾难问题
B.可以做特征选择,并在一定程度上防止过拟合
C.在每个样本上获得更准确的结果 - 对一个分类任务,我们采用梯度下降法训练得到一个3层的全连接前馈网络模型。你发现它在训练集、验证集上的正确率分别为70%、60%。以下哪项操作有可能提高模型在测试集上的性能?()
A.增加训练数据量 B.减少每层中神经元的数目 C.增加模型的层数 - 已知右图所示的贝叶斯网络包含 6 个二值变量,该模型的参数共有 ( )个
A.13 B.26 C.64 - 依据右面的概率图模型,下列说法正确的是 ()
A.如果给定 X 2 X_2 X2和 X 3 X_3 X3, X 1 X_1 X1和 X 6 X_6 X6独立
B.如果给定 X 1 X_1 X1和 X 6 X_6 X6, X 2 X_2 X2和 X 3 X_3 X3独立
C.如果给定 X 2 X_2 X2和 X 6 X_6 X6, X 1 X_1 X1和 X 5 X_5 X5独立 - 下列哪一项不是半监督学习的假设? ()
A.聚类假设 B.平滑假设 C.高密度分割 - 下列关于感知器的说法中,哪一个是错误的? ()
A.只要模式类别是线性可分的,感知器算法一定可以在有限步数内找到最优解
B.感知器算法可以判别问题是否线性可分
C.感知器算法所得解与初始值的选择有关 - 下面关于K 均值和 GMM 关系的说法,哪个是正确的? ()
A.K 均值可能会陷入局部最小值,GMM 的EM 算法求解不会
B.GMM 能更好地表示不同方向和大小的族
C.K 均值等价于无限小值的对角协方差的 GMM - 下列哪一项技术能缓解深度神经网络模型中的梯度消失问题? ()
A.反向传播算法 B.ReLU 激活函数 C.随机梯度下降
二、(12 分)给定 N N N个样本 { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} {(x1,y1),(x2,y2),...,(xN,yN)},其中 x i ∈ R D , y i ∈ { 0 , 1 } x_i\in{R}^D,y_i \in \{0,1\} xi∈RD,yi∈{0,1}为类别标签,当 y i = 1 y_i=1 yi=1时,表示 x i x_i xi为异常数据; y i = 0 y_i=0 yi=0时,表示 x i x_i xi为正常数据。
(1)请用贝叶斯分类器来构造判别函数,并阐述如何估计相关的参数
(2)如果将正常的数据误分为异常的代价为1,将异常误分为正常的代价为5,请阐述如何构建分类器或判别函数。
三、给定一个有N个样本 { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } ,其中 \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\},其中 {(x1,y1),(x2,y2),...,(xN,yN)},其中x_i\in{R}^D,y_i\in{0,1}$为类别标签。
(1)给出利用KL最佳线性变换将样本特征降至M维的基本步骤。
(2)对于新的样本其中 x ∈ R D x\in{R}^D x∈RD,如何对其进行降维与重构(重构误差最小)。
四、(8 分) 对于二分类问题,Logistic Kegression(逻辑回归) 中利用下式计算后验概率。
P ( y = 1 ∣ x ) = 1 1 + exp ( − w T x ) P(y=1|x)=\frac{1}{1+\exp{(-w^{\mathrm{T}}x)}} P(y=1∣x)=1+exp(−wTx)1
给定训练数据 { ( x i , y i ) } i = 1 N , y i ∈ { 0 , 1 } \{(x_i,y_i)\}_{i=1}^N,y_i\in\{0,1\} {(xi,yi)}i=1N,yi∈{0,1},请给出求解模型参数w的方法(要求施加L2正则项约束)
五、(8分) 给定如下训练数据集:
x 1 = ( 2 2 ) , x 2 = ( 3 2 ) , x 3 = ( 0 0 ) , y 1 = 1 , y 2 = 1 , y 3 = − 1 , x_{1}=\binom{2}{2},\:x_{2}=\binom{3}{2},\:x_{3}=\binom{0}{0},\:y_{1}=1,\:y_{2}=1,\:y_{3}=-1, x1=(22),x2=(23),x3=(00),y1=1,y2=1,y3=−1,
通过求解SVM的对偶问题来求解最大间隔的分离超平面。
六、(10分)请写出两种非线性降维方法,并分别简述其思想原理。
七、(10分) 请给出装装(Bagging)算法和提升(Boosting)算法的至少 3 个不同点。
八、(12分)
元旦假期有一个南方旅客到哈尔滨旅游,已知:
隐含的天气状态为:y=[晴天S,阴天C],
可观察的活动状态为:x=[滑雪H,看冰灯D,吃铁锅炖T],
预报元旦当天的哈尔滨天气概率为:P(晴天)=0.6,P(阴天)=0.4,
元旦假期天气状态的变化概率为下表。
晴天 S | 阴天 C | |
---|---|---|
晴天 S | 0.7 | 0.3 |
阴天 C | 0.4 | 0.6 |
滑雪 H | 看冰灯 D | 吃铁锅炖 | |
---|---|---|---|
晴天 S | 0.5 | 0.4 | 0.1 |
阴天 C | 0.1 | 0.3 | 0.6 |
根据统计,游客们在不同天气下选择的活动概率为上表
现在知道该南方旅客三天假期的活动分别是 { 看冰灯 D、滑雪 H、吃铁锅炖 T }
(1) 请用 HMM模型描述上述过程,并给出参数Π、A、B的值?
(2) 请问第一天晴天看冰灯,且第二天阴天滑雪,且第三天晴天吃铁锅炖的概率是多少?
(3) 请问这三天的天气状态最有可能是什么?
九、(10分)在很多任务中,数据的收集及标注是困难的,例如在工业质检中,需要依据产品图的片来判断产品是否异常,但是异常发生的概率很低,往往难以搜集异常产品的图片。如果给定少量有标注图片样本 { ( x i , y i ) } i = 1 N i , y i ∈ { 0 , 1 } \{(x_{i},y_{i})\}_{i=1}^{N_{i}},\quad y_{i}\in\{0,1\} {(xi,yi)}i=1Ni,yi∈{0,1}为类别标签(y i = 1 _i=1 i=1 表示 x i x_{i} xi为异常数据;y i = 0 _i=0 i=0表示 x i x_{i} xi为正常数据)和大量无标注样本 { ( x 1 , y 1 ) } i = N L + 1 N L + N U \left\{\left(x_{1},y_{1}\right)\right\}_{i=N_L+1}^{N_{L}+N_{U}} {(x1,y1)}i=NL+1NL+NU
(1)如果有标注样本中既包含正常的样本,也包含异常的样本,请设计一个深度模型来完成异常图片检测,并给出理由。(4分)
(2)如果有标注样本中只有正常样本,请设计一个深度模型来完成异常图片检测,并给出理由。(6分)