【51CTO.com快译】虽然人们很难预测未来,但采用人工智能等新兴技术可以了解发展趋势。

根据研究人员和分析师的调查,到2024年,预计全球使用的数字助理将达到84亿台。人工智能的一些主要的用例包括超个性化、聊天机器人、预测行为分析等等。人工智能正在彻底改变人们的工作和生活,并引领走向难以预测的未来。人工智能技术的应用似乎势不可挡,然而最重要的两个技术分支是机器学习和深度学习。

采用机器学习技术,可以检测每天发送的3000亿封电子邮件中的垃圾邮件。然而近年,深度学习由于其高准确率、有效性、效率和处理大量数据的能力得到了广泛应用。深度学习是机器学习的一个分支,通过学习划分出多种概念层次,每个概念拥有极大的灵活性和力量。

利用人工神经网络,深度学习算法的训练机器对大量数据执行复杂的计算。深度学习算法使机器能够像人脑一样执行工作和处理数据。深度学习算法高度依赖人工神经网络,并基于人脑的结构功能工作。以下列出了在大数据时代每个人都需要了解的10个主要的深度学习算法:

1.自编码器

自编码器是一种前馈神经网络,是一种输入和输出都相同的深度学习算法。它由Geoffrey Hinton于1980年开发,旨在解决无监督学习问题。它拥有经过训练的神经网络,将数据从输入层传输到输出层。自动编码器的一些重要用例包括:图像处理、药物回收和人口预测。

以下是自编码器的三个主要组件:

  • 编码器(Encoder)

  • 编码器(Coder)

  • 解码器(Decoder)

2.受限玻尔兹曼机(RBM)

受限玻尔兹曼机(RBM)是一种随机神经网络,能够从概率分布而不是一组输入中学习。这种深度学习算法由Geoffrey Hinton开发,用于主题建模、特征学习、协同过滤、回归、分类和降维。

受限玻尔兹曼机(RBM)分成两个阶段工作:

  • 正向传递

  • 反向传递

此外,它由两层组成:

  • 隐藏单元

  • 可见单元

每个可见单元都连接到所有现有的隐藏单元。受限玻尔兹曼机(RBM)也有一个偏置单元,该单元连接到所有隐藏单元以及可见单元,但没有输出节点。

3.自组织映射(SOM)

自组织映射(SOM)通过自组织人工神经网络实现数据可视化,以减少数据的维度。这种深度学习算法是由Teuvo Kohonen教授开发的。数据可视化能够解决人类在处理高维数据时难以实现可视化的问题。开发自组织映射(SOM)的目的是为了更好地理解高维信息。

4.多层感知(MLP)

开始学习深度学习算法的最佳场所是多层感知(MLP)。它属于前馈神经网络的类别,并包含激活函数的众多感知层。它由完全连接的两层组成:

  • 输入层

  • 输出层

多层感知(MLP)包含相同数量的输入层和输出层,并且可能具有不同的隐藏层。多层感知(MLP)的一些重要用例包括图像识别、人脸识别和机器翻译软件。

5.深度信念网络(DBN)

深度信念网络(DBN)拥有多层潜在变量和随机变量。潜在变量通常称为隐藏单元,包含二进制值。这些是具有层间连接的玻尔兹曼机堆栈。每个受限玻尔兹曼机(RBM) 层都与后续层和前一层相连。深度信念网络(DBN)的用例包括视频识别、图像识别以及运动捕捉数据。

6.径向基函数网络(RBFN)

径向基函数网络(RBFN)是一类特殊的前馈神经网络,它利用径向基函数作为激活函数。它包含以下层:

  • 输入层

  • 隐藏层

  • 输出层

径向基函数网络(RBFN)层用于回归、分类和时间序列预测。

7.生成式对抗网络(GAN)

生成式对抗网络(GAN)是一种深度学习算法,可创建类似于训练数据的新数据实例。生成式对抗网络(GAN)有助于生成逼真的图片、卡通人物、人脸图像创建和3D对象渲染。生成式对抗网络(GAN)被视频游戏开发者用来通过图像训练来提升分辨率。

生成式对抗网络(GAN)有两个重要组成部分:

  • 生成器:能够生成虚假数据。

  • 鉴别器:它能够从虚假信息中学习。

8.循环神经网络(RNN)

循环神经网络(RNN)由有助于形成有向循环的连接组成,这些连接允许将长短期记忆网络(LSTM)的输出作为当前阶段的输入提供。由于其内部存储器,循环神经网络(RNN)能够记住以前的输入。循环神经网络(RNN)的一些常见用例是:手写识别、机器翻译、自然语言处理、时间序列分析、图像字幕。

9.卷积神经网络(CNN)

卷积神经网络(CNN)也称为卷积网络,其中包含许多层,主要用于对象检测和图像处理。第一个卷积神经网络(CNN)由Yann LeCun于1988年开发和部署。当时它被称为LeNet,主要用于数字、邮政编码等字符识别。卷积神经网络(CNN)的一些重要使用案例包括医学图像处理、卫星图像识别、时间序列预测以及异常检测。

以下是卷积神经网络(CNN)的一些关键层,它们在数据处理以及从数据中提取特征中发挥着关键作用:

  • 卷积层

  • 校正线性单元(ReLU)

  • 池化层

  • 全连接层

10. 长短期记忆网络(LSTM)

长短期记忆网络(LSTM)是一类能够学习和记忆长期依赖关系的递归神经网络(RNN)。长短期记忆网络(LSTM)还能够长期记忆过去的信息。它保留了随着时间推移而变化的信息,这在时间序列预测中被证明是有益的。它具有链状结构,其中4个交互层以独特的方式连接和通信。除了用于时间序列预测之外,长短期记忆网络(LSTM)还用于药物开发、音乐创作和语音识别。

结论

人们可以拥有没有信息的数据,但不能拥有没有数据的信息。如今,深度学习的算法和技术之所以流行,主要是因为它们能够处理大量数据,然后将其转换为信息。通过其隐藏层架构,深度学习首先定义低级类别(如字母),然后是中级类别(如单词),然后是高级类别(如句子)。根据某些预测,深度学习必将彻底改变供应链自动化。

百度公司首席科学家以及谷歌大脑项目的杰出领导者之一吴恩达指出,“在深度学习的应用中,深度学习模型是火箭发动机,而海量数据就是这些火箭发动机的燃料。”

技术的进化和发展永远不会停止,深度学习技术和算法也是如此。每个人都必须跟上最新的技术进步,才能在这个不断发展的世界中保持竞争力。

原文标题:10 Crucial Deep Learning Algorithms to Keep an Eye on in 2021,作者:Aliha Tanveer

【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】