24__深度编解码:表示学习
文章目录
在上一讲中我提到,深度学习既可以用于解释也可以用于预测。在实际中,这两个功能通常被组合使用,解释功能可以看作编码器,对高维信息进行低维重构;预测功能则可以看作解码器,将低维重构恢复成高维信息。
这样的两个深度网络级连起来,就形成了编码 - 解码结构(encoder-decoder model)。这种结构在诸如语音、文本、图像等高维数据的处理中应用广泛,取得了良好的效果。
编解码的思想来源于信息论,是信息传输与处理的基础理论之一。但在通信中,编解码的对象是底层的语法结构,也就是对携带信息的符号进行编码,通过数据压缩实现信息的高效传输,但输出的符号本身与其所表达的含义并无关联。
在深度学习中,编解码的操作更多在语义层面完成,无论是文本还是图像,编解码的目的都是重新构造数据的表示方式,简化学习任务的难度。
在最初的尝试中,编码器和解码器并不是分开的,而是存在于单个的深度网络中,这种深度结构就是自编码器。
自编码器(autoencoder)属于生成模型,它的作用是以无监督的学习方式学到数据集的稀疏表示,从而给数据降维。显然,它和前面介绍过的主成分分析殊途同归。可以证明,如果自编码器只有一个线性隐藏层,同时使用均方误差作为损失函数,那么 kk
文章作者
上次更新 10100-01-10