介绍这两种方法的普及性日益增加,因此在 Matlab、R、Python、C++ 等领域开发了大量的库,它们接收到一个训练集作为输入,并自动为问题创建合适的网络。 然而,当使用现成的库时,很难理解到底发生了什么以及我们如何得到一个优化的网络。对解决方案基础知识的理解对于这些方法的进一步发展至关重要。在本文中,我们将创建一个非常简单的神经网络结构。 让我们试着理解基本的神经网络类型是如何工作的(包括单神经元感知机和多层感知机)。我们将考虑一个令人兴奋的算法,它负责网络训练(梯度下降和反向传播)。现有的复杂模型往往基于这样简单的网络模型。 历史概述第一个神经网络是由沃伦·麦卡洛赫(Warren McCulloch)和沃尔特·皮特(Walter Pitts)于1943年提出的。他们写了一篇关于神经元应该如何工作的文章,他们还根据自己的想法建立了一个模型:他们用电路创建了一个简单的神经网络。 人工智能研究进展迅速,1980年,福岛邦彦(Kunihiko Fukushima)开发了第一个真正的多层神经网络。 神经网络的最初目的是创造一个计算机系统,能够以类似人脑的方式解决问题。然而,随着时间的推移,研究人员改变了研究重点,开始使用神经网络来解决各种特定任务。现在,神经网络执行各种各样的任务,包括计算机视觉、语音识别、机器翻译、社交媒体过滤、棋盘游戏或视频游戏、医疗诊断、天气预报、时间序列预测、图像/文本/语音识别等。 神经元的计算机模型:感知机(perceptron) 感知机 感知机的灵感来自于处理单个神经元信息的想法。神经元通过树突接收信号作为输入,树突将电信号传递给细胞体。类似地,感知机接收来自训练数据集的输入信号,这些数据集已经被预先加权并组合成一个称为激活的线性方程。 z = sum(weight_i * x_i) + bias 这里"weight"是网络权重,"x"是输入,"i"是权重或输入的索引,"bias"是没有乘数输入的特殊权重(因此我们可以假设输入总是1.0)。 然后使用传递函数(激活函数)将激活转换为输出(预测)值。 如果 z >= 0.0, y = 1.0 否则就是 0.0 因此,感知机是一种两类问题分类算法(二元分类器),其中可以使用线性方程来分离这两类问题。 这与线性回归和逻辑回归密切相关,它们以类似的方式生成预测(例如,作为输入的加权和)。 感知机算法是最简单的人工神经网络类型。它是一个单神经元模型,可用于两元分类问题。它还为进一步发展更大的网络提供了基础。 神经元输入由向量x=[x1,x2,x3,…,xN]表示,该向量可以对应于例如资产价格序列、技术指标值或图像像素。当它们到达神经元时,它们被乘以适当的突触权重——向量w的元素=[w1,w2,w3,…,wN]。这将通过以下公式生成z值(通常称为"激活电位(Activation Potential)"): b 提供了更高的自由度,因此它不依赖于输入。通常这对应着 "偏离(bias)". 然后z值通过 σ 激活函数,该函数负责将该值限制在某个间隔内(例如,0-1),从而产生最终输出和神经元值。一些使用的激活函数包括阶跃(step)、S形(sigmoid)、双曲正切、softmax 和 ReLU("校正线性单元")。 让我们用两种情况来观察达到类可分离性极限的过程,这两种情况证明了它们收敛到稳定状态,只考虑两个输入{x1和x2} 感知机算法的权值估计需要基于训练数据,采用随机梯度下降法(stochastic gradient descent)。 随机梯度 梯度下降是在成本函数的梯度方向上最小化函数的过程。 这意味着要知道成本形式,以及导数,这样我们就可以知道从某个点开始的梯度,并且可以朝这个方向移动,例如向下,朝着最小值移动。 在机器学习中,我们可以使用一种技术来评估和更新每次迭代的权重,称为随机梯度下降。它的目的是最小化训练数据中的模型误差。 该算法的思想是每次向模型显示一个训练实例,该模型为训练实例创建预测,然后计算误差并更新模型,以减少下一次预测中的误差。 这个过程可以用来寻找一组产生最小误差的模型权重。 对于感知机算法,使用以下等式在每次迭代时更新权重w: w = w + learning_rate * (expected - predicted) * x 其中, w 是一个可优化的值, learning_rate 是一个您应该设置的学习率(例如,0.1), (expected - predicted) 是一个关于训练模型的预测误差, x 是一个输入。 随机梯度下降需要两个参数: 学习率(Learning rate):用于限制每次更新时每个权重的修正量。 历元(Epochs)-更新权重时,需要运行多少次训练数据。 这些以及训练数据将成为函数的参数。 我们需要在函数中执行3个循环: 1. 为每个 epoch 循环. 2. 在 epoch 中为训练数据的每一行循环. 3. 循环每个权重,一次更新一行。 权重根据模型产生的误差进行更新。将误差计算为实际值与使用权重进行的预测之间的差值。 每个输入属性都有自己的权重。权重会不断更新,例如: w(t+1)= w(t) + learning_rate * (expected(t) - predicted(t)) * x(t) 偏差以类似的方式更新,除了输入,因为偏差没有特定的输入: bias(t+1) = bias(t) + learning_rate * (expected(t) - predicted(t)) . 应用神经元模型 现在,让我们进入实际应用。 本节分为两部分: 1. 做预测 2. 优化网络权重 这些步骤为感知器算法在其它分类问题中的实现和应用提供了基础。 我们需要定义集合X中的列数。为此,我们需要定义一个常量。 #define nINPUT 3 在MQL5中,多维数组可以是静态的,也可以仅适用于 第一个维度 的动态数组。因此,由于所有其他维度都是静态的,因此必须在数组声明期间指定大小。 1. 进行预测 第一步是开发一个可以进行预测的函数。 无论是在随机梯度下降过程中评估候选权重时,还是在模型完成后,这都是必要的。应根据试验数据和新数据进行预测。 下面是 predict 函数,它根据一组特定的权重来预测输出值。 第一个权重总是一个偏差,因为它是自主管理的,所以它不适用于特定的输入值。 // Make a prediction with weights templatedouble predict(const Array &X[][nINPUT], const Array &weights[], const int row=0) { double z = weights[0]; for(int i=0; i
一旦一个神经元被激活,我们就需要传输激活来查看神经元的实际输出。
//+------------------------------------------------------------------+ //| Transfer neuron activation | //+------------------------------------------------------------------+ double activation(const double activation) //# { return activation>=0.0?1.0:0.0; }
我们将输入集 X 、权重数组( W )和预测输入集 X 的行输入到预测函数中。
让我们用一个小数据集来检查预测函数。
我们也可以使用预先准备好的权重来预测这个数据集。 double weights[] = {-0.1, 0.20653640140000007, -0.23418117710000003};
把它们放在一起之后,我们可以测试 预测函数 。 #define nINPUT 3 //+------------------------------------------------------------------+ //| Script program start function | //+------------------------------------------------------------------+ void OnStart() { //--- random.seed(42); double dataset[][nINPUT] = { //X1 //X2 //Y {2.7810836,2.550537003,0}, {1.465489372,2.362125076,0}, {3.396561688,4.400293529,0}, {1.38807019,1.850220317,0}, {3.06407232,3.005305973,0}, {7.627531214,2.759262235,1}, {5.332441248,2.088626775,1}, {6.922596716,1.77106367,1}, {8.675418651,-0.242068655,1}, {7.673756466,3.508563011,1} }; double weights[] = {-0.1, 0.20653640140000007, -0.23418117710000003}; for(int row=0; row double predict(const Array &X[][nINPUT], const Array &weights[], const int row=0) { double z = weights[0]; for(int i=0; i=0.0?1.0:0.0; }
有两个输入值( X1 和 X2 )和三个权重 (bias 、 w1 和 w2 )。此问题的激活公式如下所示:
activation = (w1 * X1) + (w2 * X2) + b
或者对于特定的权重,手动设置为:
activation = (0.206 * X1) + (-0.234 * X2) + -0.1
在函数执行之后,我们得到与预期输出值 y
我们现在可以实现随机梯度下降来优化权重值。
2. 优化网络权重
如前所述,可以使用随机梯度下降来评估训练数据的权重。
下面是 train_weights()函数,它使用随机梯度下降法计算训练数据集的权重。
在MQL5中,无法从该训练数据集数组返回结果,因为与变量不同,数组只能通过引用传递给函数。这意味着函数不会创建自己的数组实例,相反,它直接与传递给它的数组一起工作。因此,在函数中对该数组所做的所有更改都会影响原始数组。 //+------------------------------------------------------------------+ //| Estimate Perceptron weights using stochastic gradient descent | //+------------------------------------------------------------------+ template void train_weights(Array &weights[], const Array &X[][nINPUT], double l_rate=0.1, int n_epoch=5) { ArrayResize(weights, ArrayRange(X, 1)); for(int i=0; iepoch=%d, lrate=%.3f, error=%.3f",epoch, l_rate, sum_error); } }
在每个 epoch 中,我们跟踪误差平方和(正值)以监测误差的减少。因此,我们可以看到算法如何从一个 epoch 到另一个 epoch 朝着误差最小化的方向发展。
我们可以用上述相同的数据集来测试我们的函数。 #define nINPUT 3 //+------------------------------------------------------------------+ //| Script program start function | //+------------------------------------------------------------------+ void OnStart() { //--- random.seed(42); double dataset[][nINPUT] = { //X1 //X2 //Y {2.7810836,2.550537003,0}, {1.465489372,2.362125076,0}, {3.396561688,4.400293529,0}, {1.38807019,1.850220317,0}, {3.06407232,3.005305973,0}, {7.627531214,2.759262235,1}, {5.332441248,2.088626775,1}, {6.922596716,1.77106367,1}, {8.675418651,-0.242068655,1}, {7.673756466,3.508563011,1} }; double weights[]; train_weights(weights, dataset); ArrayPrint(weights, 20); for(int row=0; row double predict(const Array &X[][nINPUT], const Array &weights[], const int row=0) { double z = weights[0]; for(int i=0; i=0.0?1.0:0.0; } //+------------------------------------------------------------------+ //| Estimate Perceptron weights using stochastic gradient descent | //+------------------------------------------------------------------+ template void train_weights(Array &weights[], const Array &X[][nINPUT], double l_rate=0.1, int n_epoch=5) { ArrayResize(weights, ArrayRange(X, 1)); ArrayInitialize(weights, 0); for(int epoch=0; epoch5?weight=5:weight=weight; }
4. 网络的训练
网络采用随机梯度下降法训练,
这包括几次迭代,在迭代过程中,数据被送入网络,每个数据行的输入被前馈,偏差被传回,权值被更新。 //# Train a network for a fixed number of epochs void train(void) { for(int j = 0; j <= numEpochs; j++) { for(int i = 0; i
2022年度TV市场满意度调查已出炉,看看哪个品牌最受欢迎?近期,业内权威产业研究机构最新出炉了一项2022年11月份中国电视机品牌用户满意度调查报告。在报告中显示国内外以及互联网品牌悉数登场。在100分制的评分条件下,获得前三名的品牌分别每日书摘微风1。走得最慢的人,只要他不丧失目标,也比漫无目的地徘徊的人走得快。莱辛微风2。坚持把简单的事情做好就是不简单,坚持把平凡的事情做好就是不平凡。所谓成功,就是在平凡中做出不平凡的我的生活新变化心携阳光,无惧忧伤三年来,已有过几次网课,每一次线上课,我都会陪着孩子一起。除了准备好饮食,我也会和孩子一起听课,课下我们一起讨论。线上课也给了我认识了解孩子各科老师的机会。幽默风趣的物理老师善于结实拍广州海心桥,珠江上第一座纯步行桥,只能步行,不能走车这里是刘小顺的旅行和生活研究所。广州是我国四大一线城市之一,有着相当深厚的历史底蕴,以及特别丰富的旅游资源,也是一座热门的网红旅游城市。大家来到广州旅游,肯定会到广州现在的新地标广谷医堂谷方益元结节囊肿?或是寒气太重,用破寒运气膳!小腹摸起来凉凉的?上床很久,被窝还是冷的,手脚还是凉的?这种情况,多半是体内寒气过重,气血运行不畅或阳气不足,无法正常发挥温煦功能导致的,严重的还可能引起结节囊肿肿瘤!百病由寒起体做到这八件事,让你的心血管慢点老!随着年龄增长,很多人会发生冠状动脉硬化,形成一些软硬斑块,引发冠心病,糖尿病高血压也是随着年龄增长常见的疾病。但就算有基础疾病,也可以活到很长寿,只要按时吃药,定期检测,践行健康的喝白酒多少度最佳?酿酒大师给出准确范围,爱喝酒的人建议弄清楚经常看电视剧会发现,古代人喝酒如喝水,好像酒在他们嘴里没有味道,而我们现在喝酒,喝不惯的人一小杯都难以下咽。在正常人眼里,这就是个非常难喝的东西,但是古代人一饮就是一大碗,武松更是阳了之后要多喝水,到底喝多少呢?喝的什么水,攻略来了阳了之后无论是谁都会告诉你多喝水,但是新闻却频频出现某某人阳了之后出现喝水中毒,被医院抢救的新闻,搞的人心惶惶,到底这阳了之后是多喝水还是怎么喝呢?今天给大家详细分享一下阳了之后要今评弹女子发烧敷面膜降温变面具,看养生歪理可别搭上自己评论员张莉买不到退烧药怎么办?养生贴士一看阅读量破10万。这几天,湖南一位女生在新冠高烧时敷面膜,结果干结成面具。原本想趁着发烧敷面膜能物理降温,结果变成大火收汁。虽然事情有点搞笑眉型显脸瘦,全看这条线了!好看的眉型关键是在眉峰,而眉峰靠前还是靠后,差别真的很大!之前,我们都是根据这张图,学会了如何根据脸型比例找准眉头眉峰眉尾,画出最适合自己的标准眉型。但编辑通过观察女明星的眉型变化全网爆火的鲨鱼裤丑死了!巨巨巨显腿粗!弱弱问一句冬天买条合适又好看的裤子,真的很难吗?我们买衣服时确实要面对一个残酷的现实很多流行单品就是挑身材挑气质的,裤子太有说服力了。被全网猛夸的神裤,买了退退了买,还在反复纠结款