您的位置:首页 > 文旅 > 美景 > 莱芜人才网_互联网营销师主要做什么_在线视频观看免费视频22_百度快照怎么删除

莱芜人才网_互联网营销师主要做什么_在线视频观看免费视频22_百度快照怎么删除

2024/12/22 11:03:05 来源:https://blog.csdn.net/caridle/article/details/143636534  浏览:    关键词:莱芜人才网_互联网营销师主要做什么_在线视频观看免费视频22_百度快照怎么删除
莱芜人才网_互联网营销师主要做什么_在线视频观看免费视频22_百度快照怎么删除

在这篇文章中,我们将解释什么是指数线性单元(ELU),以及如何利用ELU激活函数。通过学习这些知识,你将能够使用C++软件创建C++应用程序。

我们需要了解哪些关于激活函数的知识?

激活函数(phi()),也称为转移函数或阈值函数,它根据净输入函数的给定值(sum)确定激活值(a = phi(sum))。在这里,sum是它们权重中的信号之和,激活函数是这个和的新值,具有给定的函数或条件。换句话说,激活函数是将所有加权信号的和转换为该信号的新激活值的方法。有不同类型的激活函数,通常使用的是线性(恒等)、双极性和逻辑(sigmoid)函数。激活函数及其类型在这里有详细解释。

在C++(以及大多数编程语言)中,你可以创建自己的激活函数。注意,sum是净输入函数的结果,它计算所有加权信号的和。我们将使用这些作为输入函数的结果。在这里,人工神经元(输出值)的激活值可以通过激活函数如下所示,

通过使用这个sum净输入函数值和phi()激活函数

什么是指数线性单元(ELU)?

指数线性单元(ELU:Exponential Linear Unit)是另一种激活函数,由Djork-Arne Clevert, Thomas Unterthiner & Sepp Hochreiter开发并发表,标题为“FAST AND ACCURATE DEEP NETWORK LEARNING BY EXPONENTIAL LINEAR UNITS (ELUS)”。你可以通过点击这里找到论文的文本https://arxiv.org/pdf/1511.07289。

根据他们的研究,他们引入了“指数线性单元”(ELU),它加快了深度神经网络中的学习速度,并导致了更高的分类准确率。ELU激活函数通过对于正值的身份缓解了消失梯度问题,如修正线性单元(ReLUs),泄漏ReLUs(LReLUs)和参数化ReLUs(PReLUs)。他们还证明了与其他激活函数的单元相比,ELUs具有改进的学习特性。与ReLUs相比,

指数线性单元(ELU)可以写成如下,

这个函数的导数可以写成,

在C和C++编程语言中,简单的指数线性单元函数可以写成如下

double alpha = 0.1; // 范围从0到1.0
double phi(double sum) {return (sum > 0 ? sum : alpha * (std::exp(sum) - 1)); // ELU函数
}

有没有一个简单的人工神经网络示例,使用指数线性单元(ELU)在C++中?

我们可以在Tneuron类中使用给定的ELU函数,如下所示,

#include <iostream>
#define NN 2   // 神经元数量
double alpha = 0.1; // 范围从0到1.0, 可以定义在神经元类中,如果每个神经元有不同的alphaclass Tneuron { // 神经元类
public:double a; // 每个神经元的活动double w[NN+1]; // 神经元之间连接的权重Tneuron() {a = 0;for (int i = 0; i <= NN; i++) w[i] = -1; // 如果权重是负数,则表示没有连接}// 定义输出神经元的激活函数(或阈值)double phi(double sum) {return (sum > 0 ? sum : alpha * (std::exp(sum) - 1)); // ELU函数}
};Tneuron ne[NN+1]; // 神经元对象void fire(int nn) {float sum = 0;for (int j = 0; j <= NN; j++) {if (ne[j].w[nn] >= 0) sum += ne[j].a * ne[j].w[nn];}ne[nn].a = ne[nn].phi(sum);
}int main() {// 定义两个输入神经元(a0, a1)和一个输出神经元(a2)的活动ne[0].a = 0.0;ne[1].a = 1.0;ne[2].a = 0;// 定义来自两个输入神经元到输出神经元(0到2和1到2)的信号权重ne[0].w[2] = 0.3;ne[1].w[2] = 0.2;// 激发我们的人工神经元活动,输出将是fire(2);printf("%10.6f\n", ne[2].a);getchar();return 0;
}

指数线性单元(ELU)通常用于ANN应用中引入发展模型中的非线性,或者用于将信号限制在指定区间内。ANN元素计算其输入信号的线性组合,并应用有界的ELU函数作为激活函数作为输出(激活值)。这可以被定义为经典阈值神经元的平滑版本。最常用的激活函数选择,用于将大振幅的信号剪辑以保持神经网络的响应有界。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com