You are on page 1of 7

第 48 卷第 1 期 红外与激光工程 2019 年 1 月

Vol.48 No.1 Infrared and Laser Engineering Jan. 2019

基于卷积稀疏自编码的图像超分辨率重建
张 秀,周 巍,段哲民,魏恒璐

(西北工业大学 电子信息学院,陕西 西安 710129)

摘 要 : 针对卷积稀疏编码算法中特征映射的准确性的问题,为了进一步提高图像超分辨率重建的
的质量,文中提出一种基于卷积稀疏自编码的图像超分辨率重建算法。该算法首先在预训练阶段利用
稀疏自编码器对输入高低分辨率图像分别进行训练,得到对应的图像稀疏特征表示;然后再由卷积神
经网络根据得到的稀疏系数共同训练相应的滤波器及特征映射函数并更新到最优解;最后由高分辨
率滤波器和对应的稀疏表示系数卷积求和,得到高分辨率重建图像估计。实验结果显示,改进算法的
峰值信噪比(PSNR)结果较卷积稀疏编码算法提高了近 0.1 dB,有效提高了重建图像的质量。
关 键 词 : 稀疏编码; 卷积神经网络; 自编码器; 深度学习; 超分辨率重建
中 图 分 类 号 : TP391 文献标志码: A DOI : 10.3788/IRLA201948.0126005

Convolutional sparse auto-encoder for image


super-resolution reconstruction

Zhang Xiu, Zhou Wei, Duan Zhemin, Wei Henglu

(School of Electronics and Information, Northwestern Polytechnical University, Xi ′an 710129, China)

Abstract: For the accuracy of feature maps in convolutional sparse coding algorithm, in order to further
improve the quality of image super-resolution reconstruction, an image super-resolution(SR) reconstruction
algorithm based on convolutional sparse auto-encoder was proposed in this paper. In this algorithm,
firstly, the input images were pre-trained with sparse auto-encoder for obtaining the feature of LR and
HR image; after that, the convolutional neural network trained the corresponding filters and feature
mapping function and updated to the optimal solution according to the obtained sparse coefficients;
finally, the summation of the convolutions of high-resolution (HR) filters and the corresponding feature
maps could reconstruct the HR image. The experimental results show that the peak signal-to-noise ratio
(PSNR) of the proposed algorithm is nearly 0.1 dB higher than the CSC algorithm, which improves the
quality of reconstructed images.
Key words: sparse coding; convolutional neural network; auto-encoder; deep learning;
super-resolution reconstruction

收 稿 日 期 : 2018-08-12 ; 修 订 日 期 : 2018-09-15

基 金 项 目 : 国 家 自 然 科 学 基 金 (61602383) ; 陕 西 省 自 然 科 学 基 金 (2017JQ6019)

作 者 简 介 : 张 秀 (1987-) , 女 , 博 士 生 , 主 要 从 事 图 像 处 理 方 面 的 研 究 。 Email:zhangxiu_03@163.com

导 师 简 介 : 段 哲 民 (1953-) , 男 , 教 授 , 博 士 生 导 师 , 主 要 从 事 图 像 处 理 , 电 气 电 子 系 统 测 试 和 航 空 电 源 监 测 等 方 面 的 研 究 。

Email:zhemind@nwpu.edu.cn

0126005-1
红外与激光工程
第1期 www.irla.cn 第 48 卷

法可以快速直接地进行稀疏编码。
0 引 言 自动编码器是一种无监督的逐层特征学习算
法 ,它 的 内 部 层 可 以 作 为 图 像 特 征 的 通 用 提 取 器 ,多
超 分 辨 率 (Super -Resolution , SR) 重 建 是 利 用 数
层感知器提供的双层结构有效地将输入数据映射为
字 图 像 处 理 技 术 从 输 入 低 分 辨 (Low-Resolution , LR)
适当的输出特征, 而且这种深层学习方式可以利用
图 像 中 获 取 有 效 信 息 , 来 重 建 高 分 辨 (High -
并行图形处理单元提高运算速度。 于是文中提出一种
Resolution , HR) 图 像 的 过 程 [1-2] 。 一 般 将 图 像 的 SR 重
卷 积 稀 疏 自 编 码 (Convolution Sparse Auto-Encoder ,
建 算 法 分 为 基 于 插 值 的 [3] , 基 于 重 建 的 [4-5] 和 基 于 学
习 的 [6-7] 三 大 类 。 CSAE) 算 法 , 利 用 自 动 编 码 器 的 优 势 , 在 CSC[13] 之

在 基 于 学 习 的 SR 算 法 中 ,稀 疏 编 码 重 建 算 法 应 前对输入图像进行预训练, 得到输入图像更准确的

用 非 常 广 泛 [8-9] 。 稀 疏 编 码 模 型 简 单 描 述 为 图 像 x 可 特 征 映 射 用 于 滤 波 器 学 习 , 实 验 结 果 验 证 CSAE 算

由 字 典 D 的 少 量 原 子 线 性 表 示 , 即 x=Dα , α 是 稀 疏 法 在 CSC 算 法 的 基 础 上 进 一 步 提 高 了 图 像 重 建 的

编 码 向 量 。 在 重 建 过 程 中 ,这 个 简 单 模 型 缺 乏 观 测 图 质量。

像 的 足 够 信 息 , 于 是 Yang 等 提 出 分 别 由 高 、 低 分 辨
1 稀疏自编码器
率 字 典 Dh 和 Dl 编 码 图 像 的 稀 疏 向 量 [10] , 输 入 LR 图
像 y=Dlα , 假 设 高 低 分 辨 率 图 像 的 稀 疏 编 码 是 相 同 1.1 自 动 编 码 器
的,则 HR 图像 x=D α 。 但是这个假设过于严格,Wang
h 自 动 编 码 器 是 一 种 利 用 反 向 传 播
等 假 设 HR 和 LR 图 像 块 的 稀 疏 表 示 之 间 存 在 一 种 (Backpropagation , BP) 算 法 学 习 恒 等 函 数 hW,b (x)≈x ,
线 性 映 射 关 系 , 利 用 特 征 映 射 函 数 可 以 由 LR 图 像 使得目标输出逼近输入, 进而对数据进行有效编码
稀 疏 编 码 线 性 地 转 换 出 HR 图 像 稀 疏 系 数 [11] 。 的 学 习 算 法 [17] ,其 网 络 结 构 如 图 1 所 示 。 将 输 入 向 量
参 考 文 献 [10] 和 [11] 中 的 SR 稀 疏 编 码 算 法 能 够 x 由 映 射 函 数 f 映 射 到 隐 层 y ,即
较好地重建原始图像并且简化求解过程, 但都只是 nl
y=hW,b(x)=f(WTx)=f(∑ i=1 Wixi+b) (1)
独立地处理图像的重叠块, 忽略了图像之间的一致
式 中 : nl 为 自 动 编 码 器 层 数 ; W 为 一 个 d′×d 的 权 值
性 约 束 ,并 不 能 最 优 化 整 幅 图 像 。 于 是 Zeiler 等 用 滤
矩 阵 ; b 为 偏 置 向 量 ; f (z) =1/1 +exp (-z) 为 sigmoid 激
波器组及其对应的特征映射代替字典矩阵和编码向
活函数。
量 稀 疏 编 码 整 幅 图 像 [12] , 这 样 可 以 学 习 到 更 丰 富 的
特 征 集 并 用 于 图 像 的 分 析 和 合 成 。 在 参 考 文 献 [12]
的 基 础 上 , Gu 等 结 合 字 典 对 学 习 提 出 卷 积 稀 疏 编 码
(Convolutioanl Sparse Coding , CSC) 方 法 ,该 方 法 利 用
LR 和 HR 滤 波 器 组 对 HR 和 LR 图 像 进 行 分 解 和 重
建 [13] , 可 以 减 少 LR 图 像 分 解 的 运 算 复 杂 度 , 同 时 提
高 HR 滤 波 器 的 编 码 能 力 ,进 而 提 高 SR 重 建 图 像 的
质量。
2006 年 , Hinton 提 出 基 于 人 工 神 经 网 络 的 贪 婪
无 监 督 逐 层 学 习 方 法 [14] , 于 是 各 种 基 于 深 度 学 习 理
论 的 训 练 算 法 被 用 于 SR 重 建 ,尤 其 是 卷 积 神 经 网 络
(Convolutional Neural Network , CNN) [13] 和 受 限 玻 尔
图 1 自编码神经网络结构
兹 曼 机 (Restricted Boltzmann Machine , RBM) [15] 。 但 是
Fig.1 Auto-encoder neural network structure
RBM 的 随 机 性 使 得 稀 疏 编 码 通 常 不 易 被 训 练 , 于 是
Lee 等 结 合 深 度 置 信 网 (Deep Belief Network , DBN) 样 本 集 {(x (1) , y (1) , … , (x (m) , y (m)))} 的 目 标 函 数 可
理 论 [16] 提 出 自 动 编 码 器 (Auto-Encoder , AE) [17] , 该 算 以表示为:

0126005-2
红外与激光工程
第1期 www.irla.cn 第 48 卷

J(W , b)= 1 ∑ i=1 L(x (i) , z (i))


m
(2)
m
根据数据的不同形式, 损失函数 L 由二次误差
d

L (x , z) = 1 ||x -z || 2 和 交 叉 熵 L (x , z) =- ∑ [xjlog (zj) +


2 j=1

(1-xj)log(1-zj)] 表 示 , 文 中 采 用 二 次 误 差 。 同 时 为 防
止自动编码器过拟合, 在目标函数中加入权值衰减
项 ,则 公 式 (2) 变 为 :

J(W , b)= 1 ∑ i=1


m
m

2 |
1 ||y (i)-h (x (i))|| 2
W,b + |
λ ∑ n -1 ∑ s ∑ s +1 (W (l) ) 2
l l l

(3)
l=1 i=1 j=1 jl
2
式中: 权值衰减参数 λ 反映权值衰减项与重建损失
的 相 关 性 ; sl 是 第 l 层 的 节 点 。
在神经网络中, 偏置项 b 对权值衰减的影响通
常 很 小 ,因 此 在 权 值 衰 减 计 算 时 不 考 虑 偏 置 项 。
1.2 稀 疏 自 编 码 器
为了保证自动编码器提取的输入数据特征表示
的有效性和稀疏性, 要使自编码神经网络隐层神经

元 j 的 平 均 活 跃 度 pj = 1 ∑ i=1 [a j x (i) ] 尽 可 能 地 接 近
m (l)

m
(l)
指 定 稀 疏 性 参 数 p<<1 , a j 表 示 第 l 层 的 第 j 个 节 点
的输出值。 于是在自动编码器的目标函数中加入基
于 KL(Kullback-Leibler) 散 度 的 稀 疏 约 束 项 [18] ,即
图 2 卷积稀疏自编码算法示意图
s2
Jsparse(W , b)=J(W , b)+ β ∑ j=1 KL(p||pj)=J(W , b)+ Fig.2 Schematic diagram of the convolution sparse auto-encoder
s2
| p
β ∑ j=1 plog +(1-p)log
pj
1-p
1-pj | (4)
algorithm

式 中 :β 表 示 稀 疏 约 束 项 的 权 重 。
2.1 稀 疏 自 编 码 器 预 训 练
在 SR 重建算法中, 先由稀疏自动编码器对输入
2 卷积稀疏自编码超分辨率重建 数据进行训练, 分别得到 LR 和 HR 图像的特征映射。
(l) (l)
在预训练过程中,将参数 Wij 和 bi 进行随机初始化,设
稀疏自编码器将输入数据由输入层非线性编码
到隐层神经元, 然后再经由输出层解码出有效地特 置为一个接近于零的随机值,然后迭代计算参数,即

征映射。 由于隐层神经元的数目少于输入输出层神
(l) (l)
W ij =W ij - α 鄣 J(W , b) (5)
(l)

经元的数目, 因此经由隐层神经元得到输入数据的
鄣W ij

b i =b i - α 鄣(l) J(W , b)
(l) (l)
低维稀疏表示。 稀疏自编码器的特征提取方法避免 (6)
了人工提取的麻烦, 可以直接训练得到输入图像的
鄣b i

特 征 映 射 。 文 中 基 于 Gu 的 卷 积 稀 疏 编 码 模 型 [13] ,提 式 中 :α 为 学 习 速 率 。

出一种改进的卷积稀疏自编码模型, 该算法首先由 利 用 BP 算 法 计 算 公 式 (5) 和 (6) 中 的 偏 导 数 ,有

稀疏自动编码器预训练输入图像, 再用训练得到的
特 征 映 射 训 练 LR 和 HR 滤 波 器 及 映 射 函 数 ,然 后 在
(l)
鄣Wij
m 鄣
鄣Wij ij 鄣
鄣 J(W ,b)= 1 ∑i=1 鄣 (l) J(W ,b ;x(i),y(i)) +λW(l) (7)
m

重 建 HR 图 像 ,其 算 法 原 理 如 图 2 所 示 。 由 于 权 值 衰 减 项 只 关 于 W ,则

0126005-3
红外与激光工程
第1期 www.irla.cn 第 48 卷

鄣 J(W , b)= 1 ∑ m 鄣 J(W , b ; x (i) , y (i)) 射 和 其 对 应 滤 波 器 矩 阵 的 卷 积 和 ,其 数 学 表 达 式 为 :


(8)
(l)
鄣b i m i=1 鄣b (l) N 2 N
i minz=||X-∑ i=1 fi茚zi|| F + τ ∑ i=1 ||zi|| 1 (15)
在 偏 导 数 计 算 过 程 中 , 定 义 神 经 网 络 中 第 nl 层
式 中 : X 为 一 个 m×n 的 输 入 图 像 ; τ 为 正 则 化 参 数 ;
(nl)
的 每 i 个 神 经 元 的 输 出 值 ai 与 实 际 值 之 间 的 差 距 {fi}i=1,2,…,N 为滤波器组,每个滤波器大小为 s×s ; zi 是 fi

为 残 差 δ i ,即
(nl)
对应的特征映射。
(n ) 在 CSAE 算法中,首先由 稀 疏 自 编 码 器 训 练 一 组
δ i = 鄣(n ) J(W , b ; x , y)= 鄣(n ) 1 ||y-hW,b(x)|| 2=
l

鄣z i
l

鄣z i 2
l
HR 图 像 {x1,xk,… ,xK} 及 其 对 应 的 LR 图 像 {y1,yk, … ,
l h
鄣 1 ∑ s (y -f(z (n ) )) 2=-(y -f(z (n ) ))·f ′(z (n ) )=
nl l l l yK} 得到有效地稀疏特征 映射,即 z i =hW,b(yi),z i =hW,b(xi),
(n l ) j=1 j j j j j
鄣z i 2 然 后 再 由 公 式 (16) 的 最 优 化 问 题 训 练 LR 滤 波 器 ,
(n l ) (n l ) N l l 2 N l
-(yj-a i )·f ′(z j ) (9) minz,f ||Y-∑ i=1 f i 茚z i || F + τ ∑ i=1 ||z i || 1 (16)
l l
设 l=nl -1 , nl -2 , nl -3 ,… , 2 ,则 第 l 层 的 第 i 个 节 式 中 : {f i } i=1~N 是 N 个 LR 滤 波 器 ; z i 是 第 i 个 滤 波 器
点的残差为: 对应的稀疏特征映射。
(n l -1) s nl n l -1 (n l ) n l -1
δi =(∑ j=1 W ji δ j )f ′(z i ) (10) 在 训 练 阶 段 , 运 用 交 替 方 向 乘 法 器 (Alternating

用 l 和 l+1 替 换 nl -1 和 nl ,则 有 Direction Method of Multipliers , ADMM) 算 法 [20] 迭 代


(l) sl+1 (l) (l+1) (l) 求 解 {f l } 的 最 优 解 ,即
δ i =(∑ j=1 W ji δ j )f ′(z i ) (11)
N l l 2 l 2

结 合 公 式 (4) 和 (11) , 稀 疏 自 编 码 网 络 的 残 差 可
f l=argmin ||Y-∑ i=1 f i 茚z i || F , s.t. ||f i || F ≤1 (17)
f

以表示为: 同 时 ,在 LR 和 HR 特 征 映 射 之 间 训 练 一 个 映 射
(l)
∑ sl+1
δ i = (∑ j=1 W ji δ j
(l) (l+1)

p 1-p
)+ β - +
pi 1-pi ∑∑f ′(z (l)
i ) (12) 函 数 WM 来 提 高 LR 特 征 映 射 的 空 间 尺 寸 和 数 目 ,即
h l l l
z j (kx , ky)=g(z 1 (x , y) , z 2 (x , y) ,… , z N (x , y) ; WM) (18)
于 是 ,可 以 得 到 以 下 偏 导 数
h
鄣 J (W ,b)=a (l) δ (l+1) (13) 式 中 : k 为 放 大 因 子 ; z j (kx , ky) 为 (kx , ky) 的 特 征 映 射 ;
(l) sparse j i
鄣Wij h
z i (kx , ky) 为 (x , y) 的 特 征 映 射 , WM 是 映 射 函 数 g(·) 的
鄣 J (W ,b)= δ (l+1) (14)
(l) sparse i 参 数 。 函 数 g(·) 是 一 个 稀 疏 线 性 变 换 矩 阵 ,它 可 由 输
鄣b ij
入 LR 图 像 稀 疏 系 数 估 计 HR 图 像 稀 疏 系 数 ,即
然 后 由 梯 度 下 降 (Gradient Descent , GD) 法 [19] 迭 h T

代 更 新 权 重 参 数 ,求 解 目 标 函 数 的 最 优 解 。 稀 疏 自 编
z j (kx , ky)=g(zl(x , y) ; wMj)=w Mj zl(x , y)

码器算法首先初始化权值参数, 然后迭代更新到最 s.t. wMj≥0 , |wMj| 1=1 (19)


l
优 值 ,其 算 法 步 骤 如 下 : 式 中 : z : (x , y) 表 示 一 个 包 含 N 个 LR 特 征 映 射 的 向
(1) 初 始 化 :对 所 有 l, 设 ΔW =0 , Δb =0 ; (l) (l)
量 ; wMj 表 示 稀 疏 转 换 向 量 。 为 了 确 保 WM 的 稀 疏 性 ,
(2) 迭 代 :从 i=1~m ; 令 wMj ≥0 , |wMj | 1=1 。
(l) (l)
(a) 使用 BP 算法计算▽W J(W,b)和▽b J(W,b); HR 滤 波 器 和 映 射 函 数 的 最 优 化 问 题 可 以 表 示
(b) 计 算 ΔW (l)=ΔW (l)+ ▽ W J(W , b) ; (l) 为:
M h l 2
(c) 计 算 Δb (l)=Δb (l)+ ▽ b J(W , b) 。 (l) {f h , WM}=min f,W ||X-∑ j=1 f j 茚g(z : :wMj)|| F
M

h 2
(3) 更新权重参数:W(l)=W(l)-α ∑∑m1 ΔW ∑+λΔW ∑; (l) (l) s.t. ||f i || F ≤e ; wMj≥0 , |wMj| 1=1 (20)
式 中 : e 为 一 个 约 束 HR 滤 波 器 能 量 的 标 量 。
b (l)=b (l)- α ∑
1 Δb (l)
m
。 ∑ 交 替 更 新 公 式 (20) 可 以 得 到 滤 波 器 f h 和 映 射 函
2.2 卷 积 稀 疏 编 码 SR 重 建 数 参 数 WM 的 最 优 解 。 首 先 固 定 WM , 运 用 随 机 平 均
卷 积 稀 疏 表 示 SR 算 法 是 将 图 像 表 示 为 特 征 映 (Stochastic Average ,SA)-ADMM 算法 [21] 结 合公 式 (17)

0126005-4
红外与激光工程
第1期 www.irla.cn 第 48 卷

求 解 HR 滤 波 器 更 新 。 然 后 固 定 f , 求 解 下 式 最 优 化 实验采用一个 3 层的稀疏自编码器网络, 各层
问 题 更 新 WM,即 节 点 数 为 s1=512 , s2=256 , s3=512 , 迭 代 次 数 为 50 , 实
M h l
{WM}=argmin ||X-∑ j=1 f j 茚g(z : :wMj)|| F
2
验 设 定 p=0.1 , α =2 。 在 卷 积 稀 疏 编 码 中 , LR 图 像 块
WM
的 大 小 为 3×3 , 邻 近 像 素 间 有 1 个 像 素 重 叠 , HR 图
s.t. wMj≥0 , |wMj| 1=1 (21)
像 块 的 大 小 为 9×9 , 3 个 像 素 重 叠 , LR 滤 波 器 数 目 为
利 用 公 式 (18) 和 (21) , HR 特 征 映 射 表 示 为 {zh}=
800 , 大 小 为 5×5 , HR 滤 波 器 数 目 为 1 200 , 放 大 因 子
g(zl ; WM) 。
k 分 别 设 置 为 2 、 3 和 4 。 正 则 化 参 数 τ =0.02 ,迭 代 次
在 重 建 阶 段 , 对 HR 特 征 映 射 及 其 对 应 的 滤 波
数 为 1 000 。 表 1 是 在 不 同 放 大 因 子 下 , 8 幅 重 建 图 像
器 卷 积 求 和 得 到 HR 图 像 ,即
的 PSNR 结 果 对 比 。 从 表 1 可 以 看 出 ,在 不 同 放 大 因
M h h
X赞 =∑ j=1 f j 茚z j (22) 子 的 情 况 下 , CSAE 算 法 的 PSNR 结 果 比 CSC 算 法

赞 与 平 滑 分 量 合 成 生 成 最 终 的 HR 估 计 。 平 均 提 高 近 0.1 dB , 可 见 客 观 上 CSAE 算 法 的 重 建
最 后 将X
结 果 更 好 。 图 3 是 Parrots 图 像 在 不 同 放 大 因 子 情 况
CSAE 算 法 首 先 初 始 化 权 值 参 数 , 再 由 稀 疏 自 编 码
下 的 CSAE 和 CSC 算 法 的 重 建 图 像 , CSAE 算 法 的
器 训 练 出 LR 和 HR 特 征 映 射 最 优 值 ,然 后 在 卷 积 神
主观视觉效果更好。
经 网 络 中 训 练 得 到 滤 波 器 与 映 射 函 数 ,用 于 重 建 HR
图 像 ,其 算 法 步 骤 如 下 : 表 1 CSAE 与 CSC 算 法 的 PSNR 结 果 对 比
(1) 输 入 低 分 辨 率 图 像 Y ; Tab.1 PSNR results of CSC and CSAE algorithms
(2) 在稀疏自编码训练阶段,首先,初始化ΔW (l)=0 ,
k=2 k=3 k=4
l h
Δb(l)=0 ;然后,更新 z i =hW,b(yi)=f(Wiyi+bi) ;及 z i =hW,b(xi)= Image
CSC CSAE CSC CSAE CSC CSAE
f(Wixi+bi) 最 优 解 。
(3) 在 卷 积 神 经 网 络 训 练 阶 段 ,将 稀 疏 自 编 码 训 Barbara 25.761 6 25.876 2 24.900 7 24.982 3 24.373 8 24.422 9

练 得 到 的 特 征 映 射 作 为 初 始 输 入 , (a) 由 公 式 (17) 学
Boat 29.174 0 29.232 5 26.561 2 26.627 1 25.143 1 25.295 8
习 LR 滤 波 器 ; (b) 由 公 式 (20) 交 替 更 新 训 练 HR 滤
Butterfly 30.478 5 30.566 9 27.400 5 27.512 6 25.263 0 25.344 6
波器及特征映射函数。
(4) 在 SR 重 建 阶 段 ,由 公 式 (22) 估 计 HR 图 像 。 Camera-
27.570 6 27.631 8 25.174 4 25.263 9 24.000 3 24.108 9
man
(5) 输 出 高 分 辨 率 图 像 估 计 X赞 。 Finger-
27.110 0 27.215 3 22.720 4 22.864 5 18.832 8 18.912 7
print
3 实验与结果分析 House 36.189 9 36.249 5 33.426 9 33.530 3 31.131 1 31.217 9

文 中 采 用 峰 值 信 噪 比 (Peak Signal to Noise Lena 32.754 5 32.816 7 29.999 4 30.084 6 28.274 8 28.323 4

Ratio , PSNR) [22] 客 观 对 比 CSAE 算 法 和 CSC 算 法 [13] Parrots 28.719 8 28.602 7 25.766 6 25.879 1 23.813 9 23.910 6

并 对 8 幅 图 像 进 行 SR 重 建 对 比 视 觉 效 果 。 Mean 29.719 8 29.773 9 26.993 8 27.093 0 25.104 1 25.192 1

0126005-5
红外与激光工程
第1期 www.irla.cn 第 48 卷

图 3 Parrots 图 像 重 建 结 果 比 较

Fig.3 Reconstructed images of parrots

4 结 论 exemplar-based object detection [J]. IEEE Transactions on


Circuits & Systems for Video Technology , 2014, 24 (8):
文 中 针 对 CSC 重 建 算 法 中 , 输 入 图 像 缺 乏 足 够 1265-1276.
准 确 的 特 征 映 射 的 问 题 ,提 出 一 种 CSAE 算 法 。 该 算 [7] Yu J, Gao X, Tao D, et al. A unified learning framework
法首先将稀疏自动编码器对输入图像训练得到的特 for single image super-resolution [J]. IEEE Trans Neural
征映射作为输入, 然后在卷积神经网络中训练得到 Netw Learn Syst, 2014, 25(4): 780-792.
LR 和 HR 滤 波 器 及 特 征 映 射 函 数 , 最 后 再 由 学 习 到 [8] Ren J, Liu J, Guo Z. Context-aware sparse decomposition

的 HR 滤 波 器 及 其 相 应 的 特 征 映 射 的 卷 积 和 重 建 for image denoising and super-resolution [J]. IEEE

HR 图 像 。 文 中 算 法 在 图 像 SR 训 练 之 前 利 用 稀 疏 自 Transactions on Image Processing, 2013, 22(4): 1454-1467.

动编码器预训练输入图像得到比人工特征提取更为 [9] Romano Y, Protter M, Elad M. Single image interpolation

准确的特征映射, 在此基础上学习到更为合适的滤 via adaptive nonlocal sparsity-based modeling [J]. IEEE


Transactions on Image Processing, 2014, 23(7): 3085.
波 器 字 典 来 重 建 HR 图 像 。 实 验 结 果 验 证 文 中 算 法
[10] Yang J, Wright J, Huang T, et al. Image super-resolution as
较 CSC 算 法 进 一 步 提 高 了 图 像 的 重 建 质 量 。
sparse representation of raw image patches [C]//Computer

参考文献: Vision and Pattern Recognition, 2008, IEEE Conference on.


IEEE, 2008: 1-8.
[1] Irani M, Peleg S. Improving resolution by image registration
[11] Wang S, Zhang D, Liang Y, et al. Semi-coupled dictionary
[J]. Cvgip Graphical Models & Image Processing , 1991, 53
learning with applications to image super-resolution and
(3): 231-239.
photo-sketch synthesis [C]//Computer Vision and Pattern
[2] Lu X, Li X. Multiresolution imaging [J]. IEEE Trans
Recognition. IEEE, 2012: 2216-2223.
Cybern, 2014, 44(1): 149-160.
[12] Zeiler M D, Krishnan D, Taylor G W, et al. Deconvolutional
[3] Hou H S, Andrews H C. Cubic spline for image interpolation
networks [C]//Computer Vision and Pattern Recognition.
and digital filtering [J]. IEEE Transaction on Signal
Pressing, 1978, 26(6): 508-517. IEEE, 2010: 2528-2535.

[4] Tai Y W, Liu S, Brown M S, et al. Super resolution using [13] Gu S, Zuo W, Xie Q, et al. Convolutional sparse coding for

edge prior and single image detail synthesis [C]//Computer image super-resolution [C]//IEEE International Conference on

Vision and Pattern Recognition. IEEE, 2010: 2400-2407. Computer Vision. IEEE, 2015: 1823-1831.

[5] Sun J, Sun J, Xu Z, et al. Image super -resolution using [14] Hinton G E, Salakhutdinov R R. Reducing the dimensionality

gradient profile prior [C]//IEEE Conference on Computer of data with neural networks [J]. American Association for

Vision and Pattern Recognition. IEEE, 2008: 1-8. the Advancement of Science, 2006, 313(5786): 504-507.
[6] You X, Li Q, Tao D, et al. Local metric learning for [15] Hinton G E, S.Osindero Y W. A fast learning algorithm for

0126005-6
红外与激光工程
第1期 www.irla.cn 第 48 卷

deep belief nets [J]. Neural Computation, 2006, 18 (7): [19] Kivinen J, Warmuth M K. Exponentiated gradient versus
1527-1554. gradient descent for linear predictors [J]. Information and
[16] Lee H, Ekanadham C, Ng A Y. Sparse deep belief net Computation, 1997, 132(1): 1-63.
model for visual area V2 [C]//International Conference on [20] Wohlberg B. Efficient convolutional sparse coding [C]//IEEE
Neural Information Processing Systems. Curran Associates International Conference on Acoustics, Speech and Signal
Inc, 2007: 873-880. Processing. IEEE, 2014: 7173-7177.
[17] Sch觟lkopf B, Platt J, Hofmann T. Greedy layer-wise training of [21] Zhong L W, Kwok J T. Fast stochastic alternating direction
deep networks [C]//Advances in Neural Information Processing method of multipliers [C]//International Conference on
Systems 19, Proceedings of the Twentieth Conference on International Conference on Machine Learning, 2014: I-46.
Neural Information Processing Systems, 2007: 153-160. [22] Kwang In Kim, Younghee Kwon. Single-image super-
[18] Lee Q V, Ngiam J, Coates A, et al. On optimization resolution using sparse regression and natural image prior [J].
meyhods for deep learning [C]//Proceedings of the 28th IEEE Transactions on Pattern Analysis and Machine
International Methods for Deep Learning, 2011: 265-272. Intelligence, 2010, 32(6): 1127.

0126005-7

You might also like