介绍这两种方法的普及性日益增加,因此在 Matlab、R、Python、C++ 等领域开发了大量的库,它们接收到一个训练集作为输入,并自动为问题创建合适的网络。 然而,当使用现成的库时,很难理解到底发生了什么以及我们如何得到一个优化的网络。对解决方案基础知识的理解对于这些方法的进一步发展至关重要。在本文中,我们将创建一个非常简单的神经网络结构。 让我们试着理解基本的神经网络类型是如何工作的(包括单神经元感知机和多层感知机)。我们将考虑一个令人兴奋的算法,它负责网络训练(梯度下降和反向传播)。现有的复杂模型往往基于这样简单的网络模型。 历史概述第一个神经网络是由沃伦·麦卡洛赫(Warren McCulloch)和沃尔特·皮特(Walter Pitts)于1943年提出的。他们写了一篇关于神经元应该如何工作的文章,他们还根据自己的想法建立了一个模型:他们用电路创建了一个简单的神经网络。 人工智能研究进展迅速,1980年,福岛邦彦(Kunihiko Fukushima)开发了第一个真正的多层神经网络。 神经网络的最初目的是创造一个计算机系统,能够以类似人脑的方式解决问题。然而,随着时间的推移,研究人员改变了研究重点,开始使用神经网络来解决各种特定任务。现在,神经网络执行各种各样的任务,包括计算机视觉、语音识别、机器翻译、社交媒体过滤、棋盘游戏或视频游戏、医疗诊断、天气预报、时间序列预测、图像/文本/语音识别等。 神经元的计算机模型:感知机(perceptron) 感知机 感知机的灵感来自于处理单个神经元信息的想法。神经元通过树突接收信号作为输入,树突将电信号传递给细胞体。类似地,感知机接收来自训练数据集的输入信号,这些数据集已经被预先加权并组合成一个称为激活的线性方程。 z = sum(weight_i * x_i) + bias 这里"weight"是网络权重,"x"是输入,"i"是权重或输入的索引,"bias"是没有乘数输入的特殊权重(因此我们可以假设输入总是1.0)。 然后使用传递函数(激活函数)将激活转换为输出(预测)值。 如果 z >= 0.0, y = 1.0 否则就是 0.0 因此,感知机是一种两类问题分类算法(二元分类器),其中可以使用线性方程来分离这两类问题。 这与线性回归和逻辑回归密切相关,它们以类似的方式生成预测(例如,作为输入的加权和)。 感知机算法是最简单的人工神经网络类型。它是一个单神经元模型,可用于两元分类问题。它还为进一步发展更大的网络提供了基础。 神经元输入由向量x=[x1,x2,x3,…,xN]表示,该向量可以对应于例如资产价格序列、技术指标值或图像像素。当它们到达神经元时,它们被乘以适当的突触权重——向量w的元素=[w1,w2,w3,…,wN]。这将通过以下公式生成z值(通常称为"激活电位(Activation Potential)"): b 提供了更高的自由度,因此它不依赖于输入。通常这对应着 "偏离(bias)". 然后z值通过 σ 激活函数,该函数负责将该值限制在某个间隔内(例如,0-1),从而产生最终输出和神经元值。一些使用的激活函数包括阶跃(step)、S形(sigmoid)、双曲正切、softmax 和 ReLU("校正线性单元")。 让我们用两种情况来观察达到类可分离性极限的过程,这两种情况证明了它们收敛到稳定状态,只考虑两个输入{x1和x2} 感知机算法的权值估计需要基于训练数据,采用随机梯度下降法(stochastic gradient descent)。 随机梯度 梯度下降是在成本函数的梯度方向上最小化函数的过程。 这意味着要知道成本形式,以及导数,这样我们就可以知道从某个点开始的梯度,并且可以朝这个方向移动,例如向下,朝着最小值移动。 在机器学习中,我们可以使用一种技术来评估和更新每次迭代的权重,称为随机梯度下降。它的目的是最小化训练数据中的模型误差。 该算法的思想是每次向模型显示一个训练实例,该模型为训练实例创建预测,然后计算误差并更新模型,以减少下一次预测中的误差。 这个过程可以用来寻找一组产生最小误差的模型权重。 对于感知机算法,使用以下等式在每次迭代时更新权重w: w = w + learning_rate * (expected - predicted) * x 其中, w 是一个可优化的值, learning_rate 是一个您应该设置的学习率(例如,0.1), (expected - predicted) 是一个关于训练模型的预测误差, x 是一个输入。 随机梯度下降需要两个参数: 学习率(Learning rate):用于限制每次更新时每个权重的修正量。 历元(Epochs)-更新权重时,需要运行多少次训练数据。 这些以及训练数据将成为函数的参数。 我们需要在函数中执行3个循环: 1. 为每个 epoch 循环. 2. 在 epoch 中为训练数据的每一行循环. 3. 循环每个权重,一次更新一行。 权重根据模型产生的误差进行更新。将误差计算为实际值与使用权重进行的预测之间的差值。 每个输入属性都有自己的权重。权重会不断更新,例如: w(t+1)= w(t) + learning_rate * (expected(t) - predicted(t)) * x(t) 偏差以类似的方式更新,除了输入,因为偏差没有特定的输入: bias(t+1) = bias(t) + learning_rate * (expected(t) - predicted(t)) . 应用神经元模型 现在,让我们进入实际应用。 本节分为两部分: 1. 做预测 2. 优化网络权重 这些步骤为感知器算法在其它分类问题中的实现和应用提供了基础。 我们需要定义集合X中的列数。为此,我们需要定义一个常量。 #define nINPUT 3 在MQL5中,多维数组可以是静态的,也可以仅适用于 第一个维度 的动态数组。因此,由于所有其他维度都是静态的,因此必须在数组声明期间指定大小。 1. 进行预测 第一步是开发一个可以进行预测的函数。 无论是在随机梯度下降过程中评估候选权重时,还是在模型完成后,这都是必要的。应根据试验数据和新数据进行预测。 下面是 predict 函数,它根据一组特定的权重来预测输出值。 第一个权重总是一个偏差,因为它是自主管理的,所以它不适用于特定的输入值。 // Make a prediction with weights templatedouble predict(const Array &X[][nINPUT], const Array &weights[], const int row=0) { double z = weights[0]; for(int i=0; i
一旦一个神经元被激活,我们就需要传输激活来查看神经元的实际输出。
//+------------------------------------------------------------------+ //| Transfer neuron activation | //+------------------------------------------------------------------+ double activation(const double activation) //# { return activation>=0.0?1.0:0.0; }
我们将输入集 X 、权重数组( W )和预测输入集 X 的行输入到预测函数中。
让我们用一个小数据集来检查预测函数。
我们也可以使用预先准备好的权重来预测这个数据集。 double weights[] = {-0.1, 0.20653640140000007, -0.23418117710000003};
把它们放在一起之后,我们可以测试 预测函数 。 #define nINPUT 3 //+------------------------------------------------------------------+ //| Script program start function | //+------------------------------------------------------------------+ void OnStart() { //--- random.seed(42); double dataset[][nINPUT] = { //X1 //X2 //Y {2.7810836,2.550537003,0}, {1.465489372,2.362125076,0}, {3.396561688,4.400293529,0}, {1.38807019,1.850220317,0}, {3.06407232,3.005305973,0}, {7.627531214,2.759262235,1}, {5.332441248,2.088626775,1}, {6.922596716,1.77106367,1}, {8.675418651,-0.242068655,1}, {7.673756466,3.508563011,1} }; double weights[] = {-0.1, 0.20653640140000007, -0.23418117710000003}; for(int row=0; row double predict(const Array &X[][nINPUT], const Array &weights[], const int row=0) { double z = weights[0]; for(int i=0; i=0.0?1.0:0.0; }
有两个输入值( X1 和 X2 )和三个权重 (bias 、 w1 和 w2 )。此问题的激活公式如下所示:
activation = (w1 * X1) + (w2 * X2) + b
或者对于特定的权重,手动设置为:
activation = (0.206 * X1) + (-0.234 * X2) + -0.1
在函数执行之后,我们得到与预期输出值 y
我们现在可以实现随机梯度下降来优化权重值。
2. 优化网络权重
如前所述,可以使用随机梯度下降来评估训练数据的权重。
下面是 train_weights()函数,它使用随机梯度下降法计算训练数据集的权重。
在MQL5中,无法从该训练数据集数组返回结果,因为与变量不同,数组只能通过引用传递给函数。这意味着函数不会创建自己的数组实例,相反,它直接与传递给它的数组一起工作。因此,在函数中对该数组所做的所有更改都会影响原始数组。 //+------------------------------------------------------------------+ //| Estimate Perceptron weights using stochastic gradient descent | //+------------------------------------------------------------------+ template void train_weights(Array &weights[], const Array &X[][nINPUT], double l_rate=0.1, int n_epoch=5) { ArrayResize(weights, ArrayRange(X, 1)); for(int i=0; iepoch=%d, lrate=%.3f, error=%.3f",epoch, l_rate, sum_error); } }
在每个 epoch 中,我们跟踪误差平方和(正值)以监测误差的减少。因此,我们可以看到算法如何从一个 epoch 到另一个 epoch 朝着误差最小化的方向发展。
我们可以用上述相同的数据集来测试我们的函数。 #define nINPUT 3 //+------------------------------------------------------------------+ //| Script program start function | //+------------------------------------------------------------------+ void OnStart() { //--- random.seed(42); double dataset[][nINPUT] = { //X1 //X2 //Y {2.7810836,2.550537003,0}, {1.465489372,2.362125076,0}, {3.396561688,4.400293529,0}, {1.38807019,1.850220317,0}, {3.06407232,3.005305973,0}, {7.627531214,2.759262235,1}, {5.332441248,2.088626775,1}, {6.922596716,1.77106367,1}, {8.675418651,-0.242068655,1}, {7.673756466,3.508563011,1} }; double weights[]; train_weights(weights, dataset); ArrayPrint(weights, 20); for(int row=0; row double predict(const Array &X[][nINPUT], const Array &weights[], const int row=0) { double z = weights[0]; for(int i=0; i=0.0?1.0:0.0; } //+------------------------------------------------------------------+ //| Estimate Perceptron weights using stochastic gradient descent | //+------------------------------------------------------------------+ template void train_weights(Array &weights[], const Array &X[][nINPUT], double l_rate=0.1, int n_epoch=5) { ArrayResize(weights, ArrayRange(X, 1)); ArrayInitialize(weights, 0); for(int epoch=0; epoch5?weight=5:weight=weight; }
4. 网络的训练
网络采用随机梯度下降法训练,
这包括几次迭代,在迭代过程中,数据被送入网络,每个数据行的输入被前馈,偏差被传回,权值被更新。 //# Train a network for a fixed number of epochs void train(void) { for(int j = 0; j <= numEpochs; j++) { for(int i = 0; i
不可一世的杨坤,也走到了今天前言杨坤曾经也是国内首屈一指的男歌手,他的成名曲无所谓可以说人人都能唱上两句,巅峰时他还曾担任过两届中国好声音的导师,凭借32场演唱会而火遍全国,还曾经登上过央视春晚的舞台。可是最老字号巡回公开课首站落地北京,助力老字号企业数字化转型新京报讯(记者陈琳)近日,在北京市商务局指导下,由大淘宝特色生态成长中心淘宝教育清渠区域发展联合打造的重燃老字号2023巡回公开课首站在北京开启,来自北京的40多家老字号企业和天津香港财政预算案发布首次置业可享印花税优惠本报记者杜丽娟北京报道香港特区新一届政府上任以来的第一份财政预算案近日发布。香港特区政府财政司司长陈茂波在发表20232024财政年度特区政府财政预算案时表示,随着香港脱离疫情困扰南极冰盖下有啥?科学家在那里发现新世界,有湖泊洞穴和生命头条创作挑战赛谁能想到冰雪之上的南极洲,明明是一片荒芜的冰雪之地,但冰雪之下的南极洲,却又是另外一番令人意想不到的光景。此刻屏幕前的你,是否也好奇在深不可测的南极冰盖之下,究竟隐藏万亿美元买回台湾?美军分布作战台海布雷日千枚导弹,如何破局?2月22日,央视国防军事频道在防务新观察栏目中以一个专题的形式报道了美军日前举行的今晚开战的军事演习,试图调动美国在亚太地区的盟友一起参战,让中国陷于四面楚歌境地,并且警告称,一旦朝鲜真的很穷吗?朝鲜,与我国东北相邻,隔鸭绿江相望。地处朝鲜半岛北部,多山地丘陵,平原面积较少。朝鲜成立于1948年,是的,比我国还要早一年建国。朝鲜半岛原为统一的朝鲜王国,属于清朝藩属国之一,清广西今春用工变化调查务工选择更多样来源经济日报一边是企业用工需求旺盛,一边是劳动者返岗应聘忙,随着疫情防控政策优化调整后迎来首个劳务用工高峰,我国劳动力市场加速回暖两头旺。国家统计局最新调查显示,1月份,各类企业反链得得独家CoinbaseL2Base横空出世,昙花一现或重划Layer2市场格局?图片来源视觉中国昨日晨间,Coinbase通过社交账号发布了一段神秘的短视频,并配文?2。23。23。人们纷纷被这个神秘的蓝色圆圈吸引,更是做出了无数的猜想。晚间,Coinbase甘肃与内蒙古的辖区调整,甘肃省的2个旗,为何划入内蒙古?在之前的文章中给大家说了很多城市的区划变迁沿革,每个城市的区划变迁沿革都非常复杂,因为我国的历史悠久,5000年的历史文化传承,让我国经历了不同政权的执政,在每个政权执政期间对于地36。39亿,华润医疗连环收购来源器械之家,未经授权不得转载,且24小时后方可转载。昨日2月22日,华润医疗发文宣布,拟36。39亿人民币收购辽宁华润健康集团深圳华润健康及江西华润健康的股权。据公告披露,2月2被罚3280万元,两名责任人被警告!中行回应已完成整改来源投资时报中国银保监会近日严肃查处一批违法违规案件,受罚的包括中国银行股份有限公司(下称中国银行,601988。SH)等五家金融机构,且此次处罚金额较大。2月17日,银保监会公告