神经网络(neural network)

神经网络是由多个简单的处理单元彼此按某种方式相互连接而形成的计算系统,该系统是靠其状态对外部输入信息的动态响应来处理信息的,其功能取决于网络的结构、连接强度以及单元的处理方式。

模糊神经网络(fuzzy neural network)

模糊神经网络将模糊系统和神经网络相结合,充分考虑了二者的互补性,集逻辑推理、语言计算、非 线 性 动 力 学 于 一 体,具 有 学 习、联 想、识 别、自适应和模糊信息处理能力等功能。

循环神经网络(recurrent neural network)

循环神经网络是一类以序列数据为 输 入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的递归神经网络。

长短时记忆网络(long short and memory network)

长短时记忆网络是一种特殊的循环神经网络,通过增加输入门、输出门和遗忘门,使得神经网络的权重能够自我更新,在网络模型参数固定的情况下,不同时刻的权重尺度可以动态改变,从而能够有效避免模型训练过程中出现的梯度消失或者梯度爆炸问题,在一定程度上解决了循环神经网络存在的长时间依赖问题。

随机森林(random forest)

随机森林是 Bagging的 一 个 扩 展 变 体,其 在以决 策 树 为 基 学 习 器 构 建 Bagging集 成 的 基 础上,进一步在决策树的训练过程中引入了随机属性选择,在很多现实任务中展现出强大的性能,被誉为“代表集成学习技术水平的方法”。

支持向量机(support vector machines)

支持向量机是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。

高斯过程(gaussian process)

高斯过程是概率论和数理统计中随机过程的一种,是一系列服从正态分布的随机变量在一指数集内的组合。

贝叶斯方法(bayesian analysis)

贝叶斯分方法是贝叶斯学习的基础,它 提 供了一种计算假设概率的方法,这种方法是基于假设的先验概率、给定假设下观察到不同数据的概率以及观察到的数据本身而得出的。

稀疏回归(sparse regression)

稀疏回归的基本思想是将样本的稀疏系数权重作为比例信息引入低维嵌入模型中,利用稀疏约束因子来建立惩罚模型,将一些作用小的数据系数权重置为0或趋于零,对特征起到选择作用。

符号回归(sambolic regression)

符号回归是根据给定的数据集,在指 定 的 符号空间内搜索能够拟合数据集的公式。符号回归是一个 NP-hard问题,其主要使用遗传编程算法进行求解。

高 斯 回 归(gaussian regression)

高斯过程回归是使用高斯过程先验对数据进行回归分析的非参数模型。

自编码器(autoencoder)

自编码器是一类在半监督学习和非监督学习中使用的人工神经网络,其功能是通过将输入信息作为学习目标,对输入信息进行表征学习。

迁移学习(transfer learning)

迁移学习是一种机器学习方法,是把 一 个 领域(即源领域)的知识,迁移到另外一个领域(即目标领 域),使 得 目 标 领 域 能 够 取 得 更 好 的 学 习效果。

强化学习(reinforcement learning)

强化学习是一种以环境反馈作为输入的、特殊的、适应环境的机器学习方法,又 称 为 增 强 学习、加强学习、再励学习或激励学习,是一种从环境状态到行为映射的学习,目的是使动作从环境中获得的累积回报值最大。

数据挖掘(data mining)

数据挖掘是一门跨学科的计算机科学分支,它使用人工智能、机器学习、统计学和数据库的交叉方法,在大规模数据中发现隐含模式。


持续更新(2021/6/26)