专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

损失函数权威指南Pytorch

  神经网络可以执行许多不同的任务。无论是分类数据,如将动物图片分组为猫和狗;或回归任务,如预测月收入,还是其他任何事情。每个任务都有不同的输出,需要不同类型的损失函数。
  配置损失函数的方式可以成就或破坏算法的性能。通过正确配置损失函数,可以确保模型按你希望的方式工作。
  对我们来说幸运的是,可以使用损失函数来充分利用机器学习任务。
  在本文中,我们将讨论PyTorch中流行的损失函数,以及构建自定义损失函数。阅读完本文后,就知道为项目选择哪一个损失函数了。1、什么是损失函数?
  在进入PyTorch细节之前,让我们回顾一下什么是损失函数。
  损失函数用于衡量预测输出与提供的目标值之间的误差。损失函数告诉我们算法模型离实现预期结果还有多远。损失一词是指模型因未能产生预期结果而受到的惩罚。
  例如,损失函数(我们称之为J)可以采用以下两个参数:预测输出(ypred)目标值(y)
  此函数通过将预测输出与预期输出进行比较来确定模型的性能。如果ypred和y的偏差很大,loss值会很高。
  如果偏差很小或值几乎相同,它会输出一个非常低的损失值。因此,当模型在提供的数据集上训练时,你需要使用可以适当惩罚模型的损失函数。
  损失函数会根据你的算法试图解决的问题陈述而变化。2、如何添加PyTorch损失函数?
  PyTorch的torch。nn模块有多个标准损失函数,可以在你的项目中使用。
  要添加它们,需要先导入库:importtorchimporttorch。nnasnn
  接下来,定义要使用的损失类型。以下是定义平均绝对误差损失函数的方法:lossnn。L1Loss()
  添加函数后,可以使用它来完成你的特定任务。3、PyTorch中有哪些损失函数可用?
  从广义上讲,PyTorch中的损失函数分为两大类:回归损失和分类损失。
  当模型预测连续值(例如人的年龄)时,会使用回归损失函数。
  当模型预测离散值时使用分类损失函数,例如电子邮件是否为垃圾邮件。
  当模型预测输入之间的相对距离时使用排名损失函数,例如根据产品在电子商务搜索页面上的相关性对产品进行排名。
  现在我们将探索PyTorch中不同类型的损失函数,以及如何使用它们:平均绝对误差损失均方误差损失负对数似然损失交叉熵损失铰链嵌入损失边际排名损失三元组边际损失KullbackLeibler散度3。1PyTorch平均绝对误差(L1损失函数)torch。nn。L1Loss
  平均绝对误差(MAE),也称为L1损失,计算实际值和预测值之间的绝对差之和的平均值。
  它检查一组预测值中误差的大小,而不关心它们的正方向或负方向。如果不使用误差的绝对值,则负值可以抵消正值。
  PytorchL1Loss表示为:
  x代表实际值,y代表预测值。
  什么时候可以用L1损失?
  回归问题,特别是当目标变量的分布有异常值时,例如与平均值相差很大的小值或大值。它被认为对异常值更稳健。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。randn(3,5)maelossnn。L1Loss()outputmaeloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔0。2423,2。0117,0。0648,0。0672,0。1567〕,〔0。2198,1。4090,1。3972,0。7907,1。0242〕,〔0。6674,0。2657,0。9298,1。0873,1。6587〕〕,requiresgradTrue)target:tensor(〔〔0。7271,0。6048,1。7069,1。5939,0。1023〕,〔0。7733,0。7241,0。3062,0。9830,0。4515〕,〔0。4787,1。3675,0。7110,2。0257,0。9578〕〕)output:tensor(1。2850,gradfnL1LossBackward)3。2PyTorch均方误差损失函数torch。nn。MSELoss
  均方误差(MSE),也称为L2损失,计算实际值和预测值之间的平方差的平均值。
  无论实际值和预测值的符号如何,PytorchMSELoss始终输出正结果。为了提高模型的准确性,你应该尝试减少L2Loss一个完美的值是0。0。
  平方意味着较大的错误比较小的错误产生更大的错误。如果分类器偏离100,则错误为10,000。如果偏离0。1,则误差为0。01。这会惩罚犯大错误的模型并鼓励小错误。
  PytorchL2Loss表示为:
  x代表实际值,y代表预测值。
  什么时候可以用?MSE是大多数Pytorch回归问题的默认损失函数。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。randn(3,5)mselossnn。MSELoss()outputmseloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)3。3PyTorch负对数似然损失函数torch。nn。NLLLoss
  负对数似然损失函数(NLL)仅适用于以softmax函数作为输出激活层的模型。Softmax是指计算层中每个单元的归一化指数函数的激活函数。
  Softmax函数表示为:
  该函数采用大小为N的输入向量,然后修改值,使每个值都落在0和1之间。此外,它对输出进行归一化,使向量的N个值之和等于1。
  NLL使用否定含义,因为概率(或可能性)在0和1之间变化,并且此范围内值的对数为负。最后,损失值变为正值。
  在NLL中,最小化损失函数有助于我们获得更好的输出。从近似最大似然估计(MLE)中检索负对数似然。这意味着我们尝试最大化模型的对数似然,并因此最小化NLL。
  在NLL中,模型因做出正确预测的概率较小而受到惩罚,并因预测概率较高而受到鼓励。对数执行惩罚。
  NLL不仅关心预测是否正确,还关心模型对高分预测的确定性。
  PytorchNLLLoss表示为:
  其中x是输入,y是目标,w是权重,N是批量大小。
  什么时候可以用?多类分类问题
  示例如下:importtorchimporttorch。nnasnnsizeofinput(NxC)is3x5inputtorch。randn(3,5,requiresgradTrue)everyelementintargetshouldhave0valueCtargettorch。tensor(〔1,0,4〕)mnn。LogSoftmax(dim1)nlllossnn。NLLLoss()outputnllloss(m(input),target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔1。6430,1。1819,0。8667,0。5352,0。2585〕,〔0。8617,0。1880,0。3865,0。7368,0。5482〕,〔0。9189,0。1265,1。1291,0。0155,2。6702〕〕,requiresgradTrue)target:tensor(〔1,0,4〕)output:tensor(2。9472,gradfnNllLossBackward)3。4PyTorch交叉熵损失函数torch。nn。CrossEntropyLoss
  此损失函数针对提供的一组事件或随机变量计算两个概率分布之间的差异。
  它用于计算出一个分数,该分数总结了预测值和实际值之间的平均差异。为了提高模型的准确性,你应该尝试最小化分数交叉熵分数介于0和1之间,完美值为0。
  其他损失函数,如平方损失,惩罚不正确的预测。交叉熵会因为非常自信和错误而受到很大惩罚。
  与不根据预测置信度进行惩罚的负对数似然损失不同,交叉熵惩罚不正确但置信度高的预测,以及正确但置信度较低的预测。
  交叉熵函数有多种变体,其中最常见的类型是二元交叉熵(BCE)。BCELoss主要用于二元分类模型;也就是说,模型只有2个类。
  Pytorch交叉熵损失表示为:
  其中x是输入,y是目标,w是权重,C是类数,N跨越小批量维度。
  什么时候可以用?二元分类任务,它是Pytorch中的默认损失函数。创建有信心的模型预测将是准确的,而且概率更高。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。empty(3,dtypetorch。long)。random(5)crossentropylossnn。CrossEntropyLoss()outputcrossentropyloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔0。1639,1。2095,0。0496,1。1746,0。9474〕,〔1。0429,1。3255,1。2967,0。2183,0。3562〕,〔0。1680,0。2891,1。9272,2。2542,0。1844〕〕,requiresgradTrue)target:tensor(〔4,0,3〕)output:tensor(1。0393,gradfnNllLossBackward)3。5PyTorch铰链嵌入损失函数torch。nn。HingeEmbeddingLoss
  HingeEmbeddingLoss用于计算输入张量x和标签张量y时的损失。目标值介于{1,1}之间,这使其适用于二元分类任务。
  使用HingeLoss函数,只要实际类别值和预测类别值之间的符号存在差异,就可以给出更多错误。这激励示例具有正确的符号。
  HingeEmbeddingLoss表示为:
  什么时候可以用?分类问题,尤其是在确定两个输入是不同还是相似时。学习非线性嵌入或半监督学习任务。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。randn(3,5)hingelossnn。HingeEmbeddingLoss()outputhingeloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔0。1054,0。4323,0。0156,0。8425,0。1335〕,〔1。0882,0。9221,1。9434,1。8930,1。9206〕,〔1。5480,1。9243,0。8666,0。1467,1。8022〕〕,requiresgradTrue)target:tensor(〔〔1。0748,0。1622,0。4852,0。7273,0。4342〕,〔1。0646,0。7334,1。9260,0。6870,1。5155〕,〔0。3828,0。4476,0。3003,0。6489,2。7488〕〕)output:tensor(1。2183,gradfnMeanBackward0)3。6PyTorch边际排名损失函数torch。nn。MarginRankingLoss
  MarginRankingLoss计算一个标准来预测输入之间的相对距离。这不同于其他损失函数,例如MSE或交叉熵,它们学习直接从一组给定的输入进行预测。
  使用MarginRankingLoss,你可以计算损失,前提是有输入x1、x2以及标签张量y(包含1或1)。
  当y1时,第一个输入将被假定为较大的值。它将比第二个输入排名更高。如果y1,则第二个输入的排名更高。
  PytorchMarginRankingLoss表示为:
  什么时候可以用?排名问题
  示例如下:importtorchimporttorch。nnasnninputonetorch。randn(3,requiresgradTrue)inputtwotorch。randn(3,requiresgradTrue)targettorch。randn(3)。sign()rankinglossnn。MarginRankingLoss()outputrankingloss(inputone,inputtwo,target)output。backward()print(inputone:,inputone)print(inputtwo:,inputtwo)print(target:,target)print(output:,output)OUTPUTinputone:tensor(〔1。7669,0。5297,1。6898〕,requiresgradTrue)inputtwo:tensor(〔0。1008,0。2517,0。1402〕,requiresgradTrue)target:tensor(〔1。,1。,1。〕)output:tensor(1。3324,gradfnMeanBackward0)3。7PyTorchTripletMargin损失函数torch。nn。TripletMarginLoss
  TripletMarginLoss计算衡量模型中三重态损失的标准。使用此损失函数,你可以计算损失,前提是输入张量x1、x2、x3以及值大于零的边距。
  三元组由a(锚点)、p(正例)和n(负例)组成。
  PytorchTripletMarginLoss表示为:
  什么时候可以用?确定样本之间存在的相对相似性。用于基于内容的检索问题
  示例如下:importtorchimporttorch。nnasnnanchortorch。randn(100,128,requiresgradTrue)positivetorch。randn(100,128,requiresgradTrue)negativetorch。randn(100,128,requiresgradTrue)tripletmarginlossnn。TripletMarginLoss(margin1。0,p2)outputtripletmarginloss(anchor,positive,negative)output。backward()print(anchor:,anchor)print(positive:,positive)print(negative:,negative)print(output:,output)OUTPUTanchor:tensor(〔〔0。6152,0。2224,2。2029,。。。,0。6894,0。1641,1。7254〕,〔1。3034,1。0999,0。1705,。。。,0。4506,0。2095,0。8019〕,〔0。1638,0。2643,1。5279,。。。,0。3873,0。9648,0。2975〕,。。。,〔1。5240,0。4353,0。3575,。。。,0。3086,0。8936,1。7542〕,〔1。8443,2。0940,0。1264,。。。,0。6701,1。7227,0。6539〕,〔3。3725,0。4695,0。2689,。。。,2。6315,1。3222,0。9542〕〕,requiresgradTrue)positive:tensor(〔〔0。4267,0。1484,0。9081,。。。,0。3615,0。6648,0。3271〕,〔0。0404,1。2644,1。0385,。。。,0。1272,0。8937,1。9377〕,〔1。2159,0。7165,0。0301,。。。,0。3568,0。9472,0。0750〕,。。。,〔0。2893,1。7894,0。0040,。。。,2。0052,3。3667,0。5894〕,〔1。5308,0。5288,0。5351,。。。,0。8661,0。9393,0。5939〕,〔0。0709,0。4492,0。9036,。。。,0。2101,0。8306,0。6935〕〕,requiresgradTrue)negative:tensor(〔〔1。8089,1。3162,1。7045,。。。,1。7220,1。6008,0。5585〕,〔0。4567,0。3363,1。2184,。。。,2。3124,0。7193,0。2762〕,〔0。8471,0。7779,0。1627,。。。,0。8704,1。4201,1。2366〕,。。。,〔1。9165,1。7768,1。9975,。。。,0。2091,0。7073,2。4570〕,〔1。7506,0。4662,0。9482,。。。,0。0916,0。2020,0。5102〕,〔0。7463,1。9737,1。3279,。。。,0。1629,0。3693,0。6008〕〕,requiresgradTrue)output:tensor(1。0755,gradfnMeanBackward0)3。8PyTorchKullbackLeibler散度损失函数torch。nn。KLDivLoss
  KullbackLeibler散度,缩写为KL散度,计算两个概率分布之间的差异。
  使用此损失函数,你可以计算在预测概率分布用于估计预期目标概率分布的情况下丢失的信息量(以位表示)。
  它的输出告诉你两个概率分布的接近程度。如果预测的概率分布与真实的概率分布相差甚远,就会导致很大的损失。如果KLDivergence的值为零,则意味着概率分布相同。
  KL散度的行为就像交叉熵损失,它们在处理预测概率和实际概率的方式上存在关键差异。CrossEntropy根据预测的置信度对模型进行惩罚,而KLDivergence则不会。KL散度仅评估概率分布预测与地面实况分布有何不同。
  KLDivergenceLoss表示为:
  x代表真实标签的概率,y代表预测标签的概率。
  什么时候可以用?逼近复杂函数多类分类任务如果你想确保预测的分布与训练数据的分布相似
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(2,3,requiresgradTrue)targettorch。randn(2,3)kllossnn。KLDivLoss(reductionbatchmean)outputklloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔1。4676,1。5014,1。5201〕,〔1。8420,0。8228,0。3931〕〕,requiresgradTrue)target:tensor(〔〔0。0300,1。7714,0。8712〕,〔1。7118,0。9312,1。9843〕〕)output:tensor(0。8774,gradfn)4、如何在PyTorch中创建自定义损失函数?
  PyTorch允许你创建自己的自定义损失函数以在项目中实施。
  下面介绍如何创建自己的简单交叉熵损失函数。
  一种方法是创建自定义损失函数作为python函数:defmyCustomLoss(myoutputs,mylabels):specifyingthebatchsizemybatchsizemyoutputs。size()〔0〕calculatingthelogofsoftmaxvaluesmyoutputsF。logsoftmax(myoutputs,dim1)selectingthevaluesthatcorrespondtolabelsmyoutputsmyoutputs〔range(mybatchsize),mylabels〕returningtheresultsreturntorch。sum(myoutputs)numberexamples
  还可以创建其他高级PyTorch自定义损失函数。
  另一种方法是使用类定义创建自定义损失函数
  让我们修改计算两个样本之间相似度的Dice系数,作为二元分类问题的损失函数:classDiceLoss(nn。Module):definit(self,weightNone,sizeaverageTrue):super(DiceLoss,self)。init()defforward(self,inputs,targets,smooth1):inputsF。sigmoid(inputs)inputsinputs。view(1)targetstargets。view(1)intersection(inputstargets)。sum()dice(2。intersectionsmooth)(inputs。sum()targets。sum()smooth)return1dice5、如何监控PyTorch损失函数?
  很明显,在训练模型时,需要关注损失函数值以跟踪模型的性能。随着损失值不断减小,模型不断变好。我们可以通过多种方式做到这一点。让我们来看看它们。
  为此,我们将训练一个在PyTorch中创建的简单神经网络,它将对著名的Iris数据集进行分类。
  进行获取数据集所需的导入。fromsklearn。datasetsimportloadirisfromsklearn。modelselectionimporttraintestsplitfromsklearn。preprocessingimportStandardScaler
  加载数据集:irisloadiris()Xiris〔data〕yiris〔target〕namesiris〔targetnames〕featurenamesiris〔featurenames〕
  将数据集缩放为均值0和方差1,可以快速收敛模型。scalerStandardScaler()Xscaledscaler。fittransform(X)
  以8020的比例将数据集拆分为训练集和测试集。Xtrain,Xtest,ytrain,ytesttraintestsplit(Xscaled,y,testsize0。2,randomstate2)
  为我们的神经网络及其训练进行必要的导入。importtorchimporttorch。nn。functionalasFimporttorch。nnasnnimportmatplotlib。pyplotaspltimportnumpyasnpplt。style。use(ggplot)
  定义网络:classPyTorchNN(nn。Module):definit(self,inputdim,outputdim):super(PyTorchNN,self)。init()self。inputlayernn。Linear(inputdim,128)self。hiddenlayernn。Linear(128,64)self。outputlayernn。Linear(64,outputdim)defforward(self,x):xF。relu(self。inputlayer(x))xF。relu(self。hiddenlayer(x))xF。softmax(self。outputlayer(x),dim1)returnx
  定义用于获得准确性和训练网络的函数。defgetaccuracy(predarr,originalarr):predarrpredarr。detach()。numpy()originalarroriginalarr。numpy()finalpred〔〕foriinrange(len(predarr)):finalpred。append(np。argmax(predarr〔i〕))finalprednp。array(finalpred)count0foriinrange(len(originalarr)):iffinalpred〔i〕originalarr〔i〕:count1returncountlen(finalpred)100deftrainnetwork(model,optimizer,criterion,Xtrain,ytrain,Xtest,ytest,numepochs):trainloss〔〕trainaccuracy〔〕testaccuracy〔〕forepochinrange(numepochs):forwardfeedoutputtrainmodel(Xtrain)trainaccuracy。append(getaccuracy(outputtrain,ytrain))calculatethelosslosscriterion(outputtrain,ytrain)trainloss。append(loss。item())clearoutthegradientsfromthelaststeploss。backward()optimizer。zerograd()backwardpropagation:calculategradientsloss。backward()updatetheweightsoptimizer。step()withtorch。nograd():outputtestmodel(Xtest)testaccuracy。append(getaccuracy(outputtest,ytest))if(epoch1)50:print(fEpoch{epoch1}{numepochs},TrainLoss:{loss。item():。4f},TrainAccuracy:{sum(trainaccuracy)len(trainaccuracy):。2f},TestAccuracy:{sum(testaccuracy)len(testaccuracy):。2f})returntrainloss,trainaccuracy,testaccuracy
  创建模型、优化器和损失函数对象。inputdim4outputdim3learningrate0。01modelPyTorchNN(inputdim,outputdim)criterionnn。CrossEntropyLoss()optimizertorch。optim。Adam(model。parameters(),lrlearningrate)6、在notebook中监控PyTorchloss
  现在你一定已经注意到trainnetwork函数中的打印语句来监控损失和准确性。这是一种方法。Xtraintorch。FloatTensor(Xtrain)Xtesttorch。FloatTensor(Xtest)ytraintorch。LongTensor(ytrain)ytesttorch。LongTensor(ytest)trainloss,trainaccuracy,testaccuracytrainnetwork(modelmodel,optimizeroptimizer,criterioncriterion,XtrainXtrain,ytrainytrain,XtestXtest,ytestytest,numepochs100)
  我们得到这样的输出。
  如果需要,我们还可以使用Matplotlib绘制这些值:fig,(ax1,ax2,ax3)plt。subplots(3,figsize(12,6),sharexTrue)ax1。plot(trainaccuracy)ax1。setylabel(trainingaccuracy)ax2。plot(trainloss)ax2。setylabel(trainingloss)ax3。plot(testaccuracy)ax3。setylabel(testaccuracy)ax3。setxlabel(epochs)
  我们会看到这样的图表,表明损失和准确性之间的相关性。
  这种方法还不错,可以完成工作。但我们必须记住,我们的问题陈述和模型越复杂,它需要的监控技术就越复杂。7、使用Neptune监控PyTorch损失
  一种更简单的监控指标的方法是将其记录在一个地方,使用Neptune之类的服务,并专注于更重要的任务,例如构建和训练模型。
  为此,我们只需要执行几个小步骤。
  首先,让我们安装所需的东西。pipinstallneptuneclient
  现在让我们初始化Neptune运行。importneptune。newasneptunerunneptune。init(projectcommonpytorchintegration,apitokenANONYMOUS,sourcefiles〔。py〕)
  我们还可以分配配置变量,例如:run〔configmodel〕type(model)。namerun〔configcriterion〕type(criterion)。namerun〔configoptimizer〕type(optimizer)。name
  这是它在UI中的样子。
  最后,我们可以通过在trainnetwork函数中添加几行来记录我们的损失。注意运行相关的行。deftrainnetwork(model,optimizer,criterion,Xtrain,ytrain,Xtest,ytest,numepochs):trainloss〔〕trainaccuracy〔〕testaccuracy〔〕forepochinrange(numepochs):forwardfeedoutputtrainmodel(Xtrain)accgetaccuracy(outputtrain,ytrain)trainaccuracy。append(acc)run〔trainingepochaccuracy〕。log(acc)calculatethelosslosscriterion(outputtrain,ytrain)run〔trainingepochloss〕。log(loss)trainloss。append(loss。item())clearoutthegradientsfromthelaststeploss。backward()optimizer。zerograd()backwardpropagation:calculategradientsloss。backward()updatetheweightsoptimizer。step()withtorch。nograd():outputtestmodel(Xtest)testaccgetaccuracy(outputtest,ytest)testaccuracy。append(testacc)run〔testepochaccuracy〕。log(testacc)if(epoch1)50:print(fEpoch{epoch1}{numepochs},TrainLoss:{loss。item():。4f},TrainAccuracy:{sum(trainaccuracy)len(trainaccuracy):。2f},TestAccuracy:{sum(testaccuracy)len(testaccuracy):。2f})returntrainloss,trainaccuracy,testaccuracy
  这是我们在仪表板中得到的。绝对无缝。
  可以在此处的NeptuneUI中查看此运行。不用说,你可以用任何损失函数来做到这一点。8、结束语
  我们介绍了PyTorch中最常见的损失函数。你可以选择适合自己项目的任何函数,或创建自己的自定义函数。
  希望本文能作为你在机器学习任务中使用PyTorch损失函数的快速入门指南。
  如果想更深入地了解该主题或了解其他损失函数,可以访问PyTorch官方文档。
  原文链接:http:www。bimant。combloglossfunctionultimateguide

风,季节的灵魂题记生活从来没有停止,经历着,经历着,慢慢模糊了季节。走进书本,敲开大师的门1hr风季节的灵魂2hr静默买不到菜放开买不到药静默核酸排队放开买药排队静默一次性口罩放开N95静默小区神奇的黄桃罐头最近一段时间,黄桃罐头突然火了。虽然厂家声明黄桃罐头对新冠病毒感染没有治疗效果,专家也说有些人不适合吃黄桃罐头,但阻挡不了人们的购买热情。很多年轻人可能理解不了这是一种怎样的情结,利咽开音治疗嗓子疼缓解嗓子痛的小妙招罗汉果很多人都不知道这个果实的用途,其实它是很强大的。尤其是容易嗓子疼嗓音沙哑咽炎的朋友,家里建议长期备用一些。别看这个其貌不扬的果实,它的用途很大。下面就来给大世界杯决赛阿根廷险情频发,考验来了世界杯决赛半场结束,凭借梅西的点球和天使迪马利亚的进球,阿根廷半场20领先法国。上半场,阿根廷整队的节奏在大心脏梅西的节拍下占据明显优势,整个上半场,法国未有一脚有效射门。半场结束狮王战群狼,谁敢言胜负!卡塔尔世界杯,12月18日23点,将开启最终决战!法国队乃卫冕冠军,整体实力相对强大阿根廷则有梅西这位现役之王,几乎全凭其以一己之力扛着前行。阿根廷与法国两支世界杯球队之战,正如一世界杯决赛天使降临!阿根廷队暂时20领先法国队红星新闻记者刘海韵发自卡塔尔世界杯现场北京时间12月18日23时,卡塔尔世界杯决赛在卢赛尔体育场进行,阿根廷队与法国队会师巅峰。第21分钟,迪马利亚在左侧底线晃开登贝莱的防守杀入禁(卡塔尔世界杯)足球决赛阿根廷对阵法国(32)当日,在卡塔尔卢赛尔球场进行的2022卡塔尔世界杯足球赛决赛中,阿根廷队对阵法国队。12月18日,法国队球员姆巴佩在比赛中射门得分。新华社记者李明摄12月18日,法国队球员姆巴佩在世界杯冠军奖金多少?只剩一步距离,梅西将超C罗成这个时代球王有球迷表示,中国男足看不上这点奖金,所以他们没有兴趣参加世界杯。卡塔尔世界杯的总奖金数高达四点四亿美元,和四年前的俄罗斯世界杯比较,三十二支参赛国家队的奖金分配金额都有所增加,冠军决赛!即将开启再过几个小时2022卡塔尔世界杯将迎来决赛时刻!姆巴佩领衔的法国队将与梅西领衔的阿根廷队上演决战多哈之巅向世界足坛最高荣誉发起冲锋卡塔尔世界杯开赛以来如果你错过了英格兰队萨卡PK伊34。50vs33。88!世界杯决赛,阿根廷稍占优势,法国难卫冕?北京时间12月18日23点,卡塔尔世界杯的最后一场比赛,阿根廷和法国打响决赛。赛前的权威数据分析来看,阿根廷稍微占据一点优势,常规时间取胜概率为34。50,而卫冕冠军法国队的取胜可80年代和Z世代的辣妹们,都没法对轮滑说不?露营徒步飞盘和近期兴起的腰旗橄榄球路冲这些户外运动从小众走向爆火,离不开天时地利人和多种因素的叠加,它们在恰好的时间,出现在人们最需要的时候。人们对小众运动探索的热情仍未褪去,随着
电脑音响哪个牌子音质好?谈到桌面音箱相信很多音乐爱好者并不会陌生,尤其是像我一样最近换了新桌子的用户,手里总是痒痒想要给桌面填一些东西,当然不肯多花钱还是排在前面。如今市面上的桌面音箱品牌太多,选择的范围如果医生辞职了,能去干啥?别人能干的,都能干!比如去工地扛沙子水泥,去马路边当小工,如果是肛肠外科的,当掏下水道的工人,绝对专业!当医药代表,做销售,开饭店。感谢邀请!医生辞职了可以做很多,毕竟经验和技术还控制不了自己情绪,能打死自己孩子的父母们,是怎样的一种悲哀?我是爱思考乐分享的蓝蓝湖,欢迎关注点赞和留言,期待和你交流更多的育儿知识!发生了这样的是事情,全社会都表示悲哀,当事人的心里应该也不会好过吧。分析产生的原因,应该有几种可能1这些父有人说孩子学习没必要太认真你认同吗?不认同。现在的社会发展一日千里,几乎所有人都在好好学习,以适应各种新科技新产品,以满足工作生活需要。现在的社会,就业压力特别大。重点大学毕业的博士生,研究生,可以找到好点的工作,一大学买笔记本电脑,学软件工程的,求推荐?大学买笔记本电脑,你的预算应该不会太高,可以先买一个40005000的电脑先用着,像你说的软件工程专业的,后续看你自己的需求(很可能你会先经历一段时间电子竞技专业),下面给你推荐三家长们能不能推荐一下自家孩子小学阶段特别爱看的书?我儿子目前初二,挺喜欢看书的,特别是小学阶段各种书看了1300本左右。好处是看书带来的很多乐趣,有书看电视都看得少,不玩手机游戏,眼睛不近视,不上辅导班,学习方面基本不用操心呲牙呲你用什么牌子笔记本电脑,好用吗?工作20多年,我用过戴尔联想IBM惠普宏基的笔记本,最贵的戴尔1万,最便宜的联想5千多没有对其中任何一款的质量产生过强烈的认同感,因为电脑使用寿命和使用质量不成正比,寿命可以很长,人老了要明白养老与孩子无关,自己有钱,才是王道你怎么看?我楼下邻居罗阿姨60岁,老两口退休金25000,前几天把36岁的独生儿子儿媳和3岁的孙子从家里撵走,把他们的行李全部堆进电梯,任由儿媳在门口又哭又闹,就是不再让他们回家。但是两个多想买辆一万左右的摩托车去西藏,比较看重摩托车质量和续航,有什么好的推荐?谢邀!最近有点忙,手头琐事繁多,因此在第二次接到邀请时才挤出点时间答题,抱歉!不知题主有没有看过一本书,书名远方不远,作者名超哥,一个曾经的职业记者,骑的就是一台宗申的RX1,从中生完孩子后,怎么在三个月内减掉大肚子和大粗腿,恢复到孕前状态呢?生完孩子后,怎么在三个月内减掉大肚子和大粗腿,恢复到孕前状态呢?很多宝妈都想在三个月内,半年内恢复到孕前好身材,小蛮腰的状态。有可能么?有的但是难度很高,重在坚持,日常可从这几点入怀孕后胖60斤是什么体验?我生我家小宝前体重是164斤,孕前是120斤!比孕前整整重了40多斤,神奇的是我家小宝出生时7。4斤,生完第二天,我称体重是158斤!164一7。4156。6吗?怎么是158呢!捂
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网