专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

量子AI应用量子计算与神经网络

  概述
  神经网络是当下计算应用中发展最快,使用最广的机器学习算法。然而,由于传统的神经网络只能使用单个网络来存储许多算法模式,随着应用不断复杂化导致网络结构不断扩大,存储性能瓶颈已逐渐凸显。
  而量子神经网络是根据量子计算机的特性设计的神经网络。研究者们根据量子计算机所提供的基本计算单元(即量子逻辑门)进行量子线路设计,以实现神经网络的计算。通过在量子计算机或量子器件的基础上构造神经网络,利用量子计算超高速、超并行、指数级容量的特点,来改进神经网络的结构和性能,可以使用许多网络来存储许多算法模式。
  1。神经网络
  1。1什么是神经网络
  神经网络,也称为人工神经网络(ANN),是机器学习的子集,并且是深度学习算法的核心。其名称和结构是受人类大脑的启发,模仿了生物神经元信号相互传递的方式,以数学和物理方法及从信息处理的角度对人脑生物神经网络进行抽象并建立起来的某种简化模型。
  人工神经网络(ANN)由节点层组成,包含一个输入层、一个或多个隐藏层和一个输出层。每个节点也称为一个人工神经元,人工神经元是神经网络的基本元素,它们连接到另一个节点,具有相关的权重和阈值。如果任何单个节点的输出高于指定的阈值,那么该节点将被激活,并将数据发送到网络的下一层。否则,不会将数据传递到网络的下一层。下图是一个人工神经网络的构造图,每一个圆代表着一个神经元,他们连接起来构成了一个网络。
  神经网络反映人类大脑的行为,允许计算机程序识别模式,以及解决人工智能、机器学习和深度学习领域的常见问题。其依赖于训练数据随时间的推移不断学习并提高其准确性。然而,一旦这些学习算法的准确性经过调优,它们便是计算科学和人工智能中的强大工具,我们可以快速地对数据进行分类。与由人类专家进行的人工识别相比,语音识别或图像识别任务可能仅需要几分钟而不是数小时。最著名的神经网络之一是Google的搜索算法。
  1。2人工神经元
  人工神经元的工作原理,如下图所示
  上面的x是神经元的输入,相当于树突接收的多个外部刺激。w是每个输入对应的权重,代表了每个特征的重要程度,它对应于每个输入特征,影响着每个输入x的刺激强度。假设只有3个特征,那么x就可以用
  。b表示阈值,用来影响预测结果。z就是预测结果。
  所以有:
  上面这个式子在业内我们称之为逻辑回归。在实际的神经网络中,我们不能直接用逻辑回归,必须要在逻辑回归外面再套上一个函数,这个函数我们就称它为激活函数。
  如在1943年,McCulloch和Pitts将上图的神经元结构用一种简单的模型进行了表示,构成了一种人工神经元模型,也就是现在经常用到的MP神经元模型,如下图所示:
  从上图MP神经元模型可以看出,神经元的输出为
  其中为神经元的激活阈值,函数f()也被称为是激活函数。
  1。3神经网络的类型
  1。3。1感知器
  感知器是最古老的神经网络,由FrankRosenblatt于1958年创建。它有一个神经元,是神经网络最简单的形式:
  上图中,x是神经元的输入,代表着输入特征向量,Output是预测结果。
  1。3。2前馈神经网络(FNN)
  前馈神经网络(FeedforwardNeuralNetwork,FNN)是最早发明的简单人工神经网络,由输入层、一个或多个隐藏层以及输出层组成。在前馈神经网络中,各神经元分别属于不同的层。每一层的神经元可以接收前一层神经元的信号,并产生信号输出到下一层。第0层叫输入层,最后一层叫输出层,其它中间层叫做隐藏层。整个网络中无反馈,信号从输入层向输出层单向传播,可用一个有向无环图表示。
  1。3。3卷积神经网络(CNN)
  卷积神经网络(CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。卷积神经网络具有表征学习能力,能够按其阶层结构对输入信息进行平移不变分类,通常用于图像识别、模式识别和或计算机视觉。这些网络利用线性代数的原理(特别是矩阵乘法)来识别图像中的模式。卷积神经网络的构成分为:输入层、卷积层、池化层和全连接层,其结构如下图所示。
  (1)输入层
  整个网络的输入,一般代表了一张图片的像素矩阵。上图中最左侧三维矩阵代表一张输入的图片,三维矩阵的长、宽代表了图像的大小,而三维矩阵的深度代表了图像的色彩通道(channel)。
  (2)卷积层
  卷积层是卷积神经网络(CNN)中最为重要的部分。卷积层中每一个节点的输入只是上一层神经网络中的一小块,一般来说,通过卷积层处理过的节点矩阵会变的更深。
  (3)池化层
  池化层不改变三维矩阵的深度,但是可以缩小矩阵的大小。池化操作可以认为是将一张分辨率高的图片转化为分辨率较低的图片。通过池化层,可以进一步缩小最后全连接层中节点的个数,从而到达减少整个神经网络参数的目的。池化层本身没有可以训练的参数。
  (4)全连接层
  卷积神经网络中的全连接层等价于传统前馈神经网络中的隐含层。全连接层位于卷积神经网络隐含层的最后部分,并只向其它全连接层传递信号。特征图在全连接层中会失去空间拓扑结构,被展开为向量并通过激励函数。
  1。3。4循环神经网络(RNN)
  循环神经网络(RNN)是一种使用顺序数据或时间序列数据的人工神经网络。这些深度学习算法通常用于顺序或时间问题,例如语言翻译、自然语言处理(nlp)、语音识别和图像字幕;它们被整合到流行的应用程序中,例如Siri、语音搜索和谷歌翻译。与前馈和卷积神经网络(CNN)一样,循环神经网络利用训练数据进行学习。
  (循环神经网络(左侧)和前馈神经网络(右侧)的比较)
  循环网络的另一个显着特征是它们在网络的每一层共享参数。虽然前馈网络在每个节点上具有不同的权重,但循环神经网络在网络的每一层内共享相同的权重参数。也就是说,这些权重仍然在通过反向传播和梯度下降的过程中进行调整,以促进强化学习。
  1。4神经网络与深度学习
  训练深度神经网络的过程就叫做深度学习。网络构建好了后,我们只需要负责不停地将训练数据输入到神经网络中,它内部就会自己不停地发生变化不停地学习。打比方说我们想要训练一个深度神经网络来识别猫。我们只需要不停地将猫的图片输入到神经网络中去。训练成功后,我们任意拿来一张新的图片,它都能判断出里面是否有猫。
  2量子神经网络
  量子神经网络(QNN)是前馈神经网络的一种,是基于量子力学原理的神经网络模型。通过将量子态的叠加思想引入到传统的前馈神经网络中,将神经网络的隐含层激励函数采用多个sigmoid函数进行叠加。
  一个sigmoid函数仅可以表示两个量级和状态,而线性叠加的sigmoid函数相邻之间有着不同的量子间隔。一个隐层的神经单元就能表示更多的量级和状态,这样通过对量子间隔的训练,训练样本输入数据的不确定性就能得到量化,不同数据将映射到不同的量级之上,利用多层的激励函数增加网络的模糊性,提高网络模式识别的准确性和确定性。
  与经典神经网络相比,量子神经网络(QNN)具有以下几个优点:
  (1)更快的计算速度;
  (2)更高的记忆容量;
  (3)更小的网络规模;
  (4)可消除灾变性失忆现象。因此其十分适合于未来数据海量、计算要求高的任务。
  2。1量子神经网络的工作原理
  人工神经网络(ANN)的许多功能源于其并行分布式信息处理能力和神经元变换的非线性。然而,量子理论的态叠加原理使QNN具有比ANN更强的并行处理能力并能处理更大型数据集。
  根据量子计算原理,一个n位量子寄存器可以同时保存2n个n位二进制数(0到2n一1),它们各以一定的概率存在。量子计算系统以这种方式指数地增加存储能力并能并行处理一个n位量子寄存器的所有2n个数,它的一次运算可产生2n个运算结果,相当于常规计算2n次操作。
  但在读出量子计算的输出结果即测量量子寄存器的态时,其叠加态将坍缩(或消相干)到其中之一个基态上,因而测量时只能测得一个结果。例如在量子神经元模型中,感知器的权矢被一个波函数0(w,t)所取代,0(W,t)是所有可能的经典权矢的量子相干叠加,当叠加权矢与环境作用时(如受到实际输入的激励),它必定会消相干到其中之一的基态上,即坍缩到经典权矢上。
  接下来我们将尝试构建一个量子神经网络,以下是量子神经网络的工作原理。
  首先向网络提供一些数据x,构建输入量子态:
  将一个二维向量x变换成一个角。
  当x被编码为量子态,我们应用一系列量子门。
  网络的输出设为(x,0)。是最后一个量子比特被测量为1〉状态的概率(Zn1代表将Z门应用到最后的量子比特),加上一个经典的偏置项。
  最后,在输出的数据中取出和x有关联的标签,用来计算样本上的损失我们将使用二次损失,如下:
  从输出的数据中可以得到网络p的预测:
  计算损失函数的梯度。
  2。2如何在量子计算机上计算梯度
  先求损失函数对i的微分:
  展开最后一项:
  通过求导可以去掉常数项。
  使用乘积法则进一步展开:
  通过Hermitian共轭,可以转化为下面这个简单的公式:
  U()由多个门组成,每一个门又由不同的参数控制,求U的偏导数只需要求门
  对的偏导数:
  我们把
  定义为相同的形式,称为G门,当然形式不是唯一的。
  定义了
  的形式后,就能找到它的导数:
  可以用G门来表示导数:
  构造出一个电路来得到所需的内积形式:
  Hadamard测试是最简单的方法首先,准备好输入的量子态,并将辅助态制备为叠加态:
  现在对应用Zn1B,约束辅助态是1:
  然后翻转辅助态,用A做同样的操作:
  最后,对辅助态使用另一个Hadamard门:
  现在辅助态等于0的概率是:
  因此如果我们用U()代替B,用U()的共轭对
  的导数来代替A,然后辅助量子比特为0的概率将会给我们(x,)对
  的梯度。
  2。3建立量子神经网络
  导入所有需要启动的模块:fromqiskitimportQuantumRegister,ClassicalRegisterfromqiskitimportAer,execute,QuantumCircuitfromqiskit。extensionsimportUnitaryGateimportnumpyasnp
  将功能(前四列)与标签分开:datanp。genfromtxt(processedIRISData。csv,delimiter,)Xdata〔:,0:4〕featuresnp。array(〔convertDataToAngles(i)foriinX〕)Ydata〔:,1〕
  构建一个为我们进行功能映射的函数。由于输入向量是归一化的和4维的,因此映射有一个超级简单的选择使用2个量子位来保存编码数据,并使用仅将输入向量重新创建为量子态的映射。为此,我们需要两个函数一个从向量中提取角度:defconvertDataToAngles(data):Takesinanormalised4dimensionalvectorandreturnsthreeanglessuchthattheencodeDatafunctionreturnsaquantumstatewiththesameamplitudesasthevectorpassedin。prob1data〔2〕2data〔3〕2prob01prob1angle12np。arcsin(np。sqrt(prob1))prob1data〔3〕2prob1angle22np。arcsin(np。sqrt(prob1))prob1data〔1〕2prob0angle32np。arcsin(np。sqrt(prob1))returnnp。array(〔angle1,angle2,angle3〕)
  另一种将角度转换为量子态的方法:defencodeData(qc,qreg,angles):Givenaquantumregisterbelongingtoaquantumcircuit,performsaseriesofrotationsandcontrolledrotationscharacterizedbytheanglesparameter。qc。ry(angles〔0〕,qreg〔1〕)qc。cry(angles〔1〕,qreg〔1〕,qreg〔0〕)qc。x(qreg〔1〕)qc。cry(angles〔2〕,qreg〔1〕,qreg〔0〕)qc。x(qreg〔1〕)
  编写实现U()所需的函数,该函数将采用RY和CX交替层的形式。从G门开始:defGGate(qc,qreg,params):Givenaparameter,returnasinglequbitgateoftheform〔cos(),sin()〕〔sin(),cos()〕u00np。cos(params〔0〕)u01np。sin(params〔0〕)gateLabelG({})。format(params〔0〕)GGateUnitaryGate(np。array(〔〔u00,u01〕,〔u01,u00〕〕),labelgateLabel)returnGGatedefGLayer(qc,qreg,params):AppliesalayerofGGatesontothequbitsofregisterqregincircuitqc,parametrizedbyanglesparams。foriinrange(2):qc。append(GGate(qc,qreg,params〔i〕),〔qreg〔i〕〕)
  接下来进行CX门操作:defCXLayer(qc,qreg,order):AppliesalayerofCXgatesontothequbitsofregisterqregincircuitqc,withtheorderofapplicationdeterminedbythevalueoftheorderparameter。iforder:qc。cx(qreg〔0〕,qreg〔1〕)else:qc。cx(qreg〔1〕,qreg〔0〕)
  将它们放在一起以获得U():defgenerateU(qc,qreg,params):AppliestheunitaryU()toqregbycomposingmultipleGlayersandCXlayers。Theunitaryisparametrizedbythearraypassedintoparams。foriinrange(params。shape〔0〕):GLayer(qc,qreg,params〔i〕)CXLayer(qc,qreg,i2)
  接下来创建一个函数获取网络的输出,而另一个函数会将这些输出转换为类预测:defgetPrediction(qc,qreg,creg,backend):Returnstheprobabilityofmeasuringthelastqubitinregisterqregasinthe1state。qc。measure(qreg〔0〕,creg〔0〕)jobexecute(qc,backendbackend,shots10000)resultsjob。result()。getcounts()if1inresults。keys():returnresults〔1〕100000else:return0defconvertToClass(predictions):Givenasetofnetworkoutputs,returnsclasspredictionsbythresholdingthem。return(predictions0。5)1
  构建一个在网络上执行前向传递的功能向其提供一些数据,对其进行处理,并提供网络输出:defforwardPass(params,bias,angles,backend):Givenaparametersetparams,inputdataintheformofangles,abias,andabackend,performsafullforwardpassonthenetworkandreturnsthenetworkoutput。qregQuantumRegister(2)ancQuantumRegister(1)cregClassicalRegister(1)qcQuantumCircuit(qreg,anc,creg)encodeData(qc,qreg,angles)generateU(qc,qreg,params)predgetPrediction(qc,qreg,creg,backend)biasreturnpred
  编写测量梯度所需的所有功能,需要能够应用U()的受控版本:defCGLayer(qc,qreg,anc,params):AppliesacontrolledlayerofGGates,allconditionedonthefirstqubitoftheancregister。foriinrange(2):qc。append(GGate(qc,qreg,params〔i〕)。control(1),〔anc〔0〕,qreg〔i〕〕)defCCXLayer(qc,qreg,anc,order):AppliesalayerofToffoligateswiththefirstcontrolqubitalwaysbeingthefirstqubitoftheancregister,andtheseconddependingonthevaluepassedintotheorderparameter。iforder:qc。ccx(anc〔0〕,qreg〔0〕,qreg〔1〕)else:qc。ccx(anc〔0〕,qreg〔1〕,qreg〔0〕)defgenerateCU(qc,qreg,anc,params):AppliesacontrolledversionoftheunitaryU(),conditionedonthefirstqubitofregisteranc。foriinrange(params。shape〔0〕):CGLayer(qc,qreg,anc,params〔i〕)CCXLayer(qc,qreg,anc,i2)
  创建一个计算期望值的函数:defcomputeRealExpectation(params1,params2,angles,backend):ComputestherealpartoftheinnerproductofthequantumstatesproducedbyactingwithU()characterisedbytwosetsofparameters,params1andparams2。qregQuantumRegister(2)ancQuantumRegister(1)cregClassicalRegister(1)qcQuantumCircuit(qreg,anc,creg)encodeData(qc,qreg,angles)qc。h(anc〔0〕)generateCU(qc,qreg,anc,params1)qc。cz(anc〔0〕,qreg〔0〕)qc。x(anc〔0〕)generateCU(qc,qreg,anc,params2)qc。x(anc〔0〕)qc。h(anc〔0〕)probgetPrediction(qc,anc,creg,backend)return2(prob0。5)
  计算出损失函数的梯度最后做乘法解决梯度中的(x,)y(x)项:defcomputeGradient(params,angles,label,bias,backend):Givennetworkparametersparams,abiasbias,inputdataangles,andabackend,returnsagradientarrayholdingpartialswithrespecttoeveryparameterinthearrayparams。probforwardPass(params,bias,angles,backend)gradientsnp。zeroslike(params)foriinrange(params。shape〔0〕):forjinrange(params。shape〔1〕):newParamsnp。copy(params)newParams〔i,j,0〕np。pi2gradients〔i,j,0〕computeRealExpectation(params,newParams,angles,backend)newParams〔i,j,0〕np。pi2biasGrad(probbiaslabel)returngradientsbiasGrad,biasGrad
  一旦有了梯度,就可以使用梯度下降以及称为动量的技巧来更新网络参数,这有助于加快训练时间:defupdateParams(params,prevParams,grads,learningRate,momentum):Updatesthenetworkparametersusinggradientdescentandmomentum。deltaparamsprevParamsparamsNewnp。copy(params)paramsNewparamsgradslearningRatemomentumdeltareturnparamsNew,params
  构建成本和准确性功能,了解网络如何响应培训:defcost(labels,predictions):Returnsthesumofquadraticlossesovertheset(labels,predictions)。loss0forlabel,predinzip(labels,predictions):loss(predlabel)2returnloss2defaccuracy(labels,predictions):Returnsthepercentageofcorrectpredictionsintheset(labels,predictions)。acc0forlabel,predinzip(labels,predictions):iflabelpred:acc1returnacclabels。shape〔0〕
  最后创建训练网络的函数,并调用它:deftrainNetwork(data,labels,backend):Trainaquantumneuralnetworkoninputsdataandlabels,usingbackendbackend。Returnstheparameterslearned。np。random。seed(1)numSampleslabels。shape〔0〕numTrainint(numSamples0。75)orderingnp。random。permutation(range(numSamples))trainingDatadata〔ordering〔:numTrain〕〕validationDatadata〔ordering〔numTrain:〕〕trainingLabelslabels〔ordering〔:numTrain〕〕validationLabelslabels〔ordering〔numTrain:〕〕paramsnp。random。sample((5,2,1))bias0。01prevParamsnp。copy(params)prevBiasbiasbatchSize5momentum0。9learningRate0。02foriterationinrange(15):samplePositerationbatchSizebatchTrainingDatatrainingData〔samplePos:samplePos5〕batchLabelstrainingLabels〔samplePos:samplePos5〕batchGradsnp。zeroslike(params)batchBiasGrad0foriinrange(batchSize):grads,biasGradcomputeGradient(params,batchTrainingData〔i〕,batchLabels〔i〕,bias,backend)batchGradsgradsbatchSizebatchBiasGradbiasGradbatchSizeparams,prevParamsupdateParams(params,prevParams,batchGrads,learningRate,momentum)tempbiasbiaslearningRatebatchBiasGradmomentum(biasprevBias)prevBiastemptrainingPredsnp。array(〔forwardPass(params,bias,angles,backend)foranglesintrainingData〕)print(Iteration{}Loss:{}。format(iteration1,cost(trainingLabels,trainingPreds)))validationProbsnp。array(〔forwardPass(params,bias,angles,backend)foranglesinvalidationData〕)validationClassesconvertToClass(validationProbs)validationAccaccuracy(validationLabels,validationClasses)print(Validationaccuracy:,validationAcc)returnparamsbackendAer。getbackend(qasmsimulator)learnedParamstrainNetwork(features,Y,backend)
  参考资料:
  1。https:zhuanlan。zhihu。comp215839390
  2。https:www。ibm。comcnzhcloudlearnneuralnetworkstocbS0t361U
  3。https:www。ibm。comcnzhcloudlearnneuralnetworks
  4。https:max。book118。comhtml201908037024013124002044。shtm
  5。https:towardsdatascience。comquantummachinelearninglearningonneuralnetworksfdc03681aed3
  6。https:cloud。tencent。comdeveloperarticle1781109

拿破仑时期,欧洲各国的政治形态有什么特点?拿破仑叱咤风云的时代,正是欧洲大陆由封建制向资本主义制度过渡的历史转折时期,新生的资本主义生产方式与没落的封建主义生产方式之间的矛盾冲突处于欧洲社会的主导地位。但此期欧洲社会政治生曙光城市的光光,会意字从火,在人上。本义是光芒光亮。大自然的力量,是渺小的人类比不上的。把城市的美好,点出来光,象征着生命和幸福。一束束光终于打在了城市的身上瞬间觉得爱温度希望包裹了全身一杯杯邱淑贞被称为性感终结者,背后的原因只有三个字不红在没有颜值的时代,邱淑贞有多红从1997年出道,邱淑贞已经走过了20个年头。如今她依然活跃在荧幕前,可就是这么一个美人却被称为性感终结者。她的性感和美艳,在任何时代都无人能及。如果被抛弃被封杀没片约,这些被遗忘的老戏骨,是内娱的悲哀前言当下娱乐圈,流量小生泛滥,除了资本掌控外,流量就是王道。而曾经的老戏骨们却在不知不觉中被娱乐圈所淘汰,消失在大荧幕上,明明有着超高的演技,却逼不得已为流量让道,我们一起来看看都韩国女星严正花现年53岁依旧光彩照人无论是在韩国娱乐圈,还是内地娱乐圈,岁月都在无情的收割着,我们所喜欢的男神和女神,我们看着她们由一个青春靓丽的少男少女,变成了一个个的大叔与阿姨。当然在娱乐圈也有很多男神女神,岁月38岁科勒卡戴珊取出填充物!当众提裤子,臀部缩水身材仍傲人卡戴珊家族是美国甚至全世界最会营销的名媛,她们擅长制造各种话题,不断登上热搜,5姐妹个个花枝招展,身材傲人,吸引着无数男性的目光,但她们的目标往往都是名人,NBA的球员曝光度高,身小妖怪的夏天番外走不出的浪浪山和孙悟空的三根毫毛!2023年1月3日,中国奇谭豆瓣开分9。5分,借助9。5分的高分,一批自来水开始涌入,中国奇谭的口碑开始发酵,其中小妖怪的夏天表现更为突出,里面明嘲暗讽的剧情,让一众艰难的打工人猛冯连伟回家的路回家的路冯连伟家是我亲亲的爹和娘,是我一生取之不尽的亲情之源家是故乡的一把泥土,是孕育我人生向前不竭动力的根家是一根扯不断的藤,藤上结着浓浓亲情结满了牵挂和思念的瓜。无论走出的路有闲,是一种福气,而太闲不是作者明心君生活中最沉重的负担不是工作,而是无聊。人,不能太闲闲,是一种福气,而太闲不是。就像林语堂说的人莫乐于闲,非无所事事之谓也。太闲的人,整天无所事事,反而容易患得患失。所以,回不去的夏天,更是回不去的童年还记得那年夏天,赤着脚在田间疯跑。手中拿着一根竹竿,系上蚯蚓,钓蛙是童年难得可以消磨时光的乐事。一般来说,钓的最多的是灰褐色的蛙。我们是叫它土婆,它身体很小,颜色为土褐色,叫声很细生活如果不宠你,更要自己善待自己1hr这世界上有一千种等待,最好的那一种,叫做未来可期。2hr生活就像坐过山车,有高峰,也有低谷,这意味着,无论眼下是好是坏,都只是暂时的。3生活如果不宠你,更要自己善待自己。这一
首代死亡五小成员,因杜兰特离开勇士,如今生涯狂赚1。9亿在过去的10年里,如果要问哪支球队是NBA最成功的球队,那么大部分的媒体和专家都会告诉你是金州勇士,毕竟他们在这10年里,4次拿到了总冠军,并且在斯蒂芬库里和克莱汤普森的带领下,N韩国慌吗?胜葡萄牙也难出线,4分仍可能出局,孙兴慜泪别世界杯2022世界杯韩国队还剩下最后一场比赛,理论上他们仍有出线的希望,在末轮他们需要击败实力强大的葡萄牙,而且还得寄希望于另一场比赛加纳队不要取胜,这样韩国队才有机会,通过净胜球的优势哈亚不胜就出局,韩国队无路可退唯有一搏世界杯小组赛前两轮比赛,韩国队仅仅取得1平1负的成绩,这也让太极虎处在了被淘汰的边缘。最后一轮,韩国队已经无路可退,只有取胜才能晋级。有了日本队逆转西班牙队小组出线的激励,韩国队也FIFA贺日本出线社媒遭刷爆为了公平得淘汰日本!球100出界了直播吧12月2日讯日本队21逆转西班牙小组第一出线,本场比赛第二球是否已经出界引发争议。FIFA社媒赛后恭喜日本,不少球迷在帖子下刷屏表达看法。球迷1100出界了球迷2国际足联的先网友晒罚单替追梦鸣不平是这个球迷先出言不逊的!追梦转发直播吧12月2日讯NBA官方今日早些时候发布公告,追梦因对球迷使用了污秽下流的言论,被NBA罚款2。5万美元。有网友晒出NBA官方罚款通告,图上配文胡扯!是这个球迷先出言不逊的,追2022世界杯喀麦隆vs巴西比分预测2022世界杯兄弟,你不会以为巴西在今晚的话还是稳拿捏的吧,赶紧停下来呀,快来听我说啊,本场比赛可是要爆冷的,不信的听我讲完。俗话说得好啊,做人留一线,日后好相见啊。巴西队在提前出丁俊晖怒斥世台联不要脸!斯诺克赛制需要改革吗?在2022世界杯斯诺克苏格兰公开赛上,丁俊晖VS乔奥康纳,在领先2局的比分下,最终被奥康纳连扳4局,以24不敌英格兰选手乔奥康纳,止步苏格兰公开赛16强。赛后的丁俊晖,在国内的社交真正有眼界的女人,出门都不会戴黄金翡翠,太土!看张兰就知道了对于女性来说,在任何年龄阶段都要懂得包装自己的形象,才能提升气质。除了服装,首饰也是能够让女性气质加倍的东西,甚至直接影响着视觉年龄,尤其是上了年纪的女人,更要选对首饰!哪些首饰不人到中年,不配看世界杯作者洞见老曹不如端起保温杯。年轻的时候,每逢世界杯,呼朋引伴,三五成群,一桌子小烧烤,啤酒最少两箱,球赛还没开始,一个个就脸红脖子粗地群情激昂了。然而自从过了四十,一切就都成了过去除了能源和世界杯,这里还有什么?走进卡塔尔的巨型沙漠玫瑰卡塔尔国家博物馆祖巴拉考古遗址橙色珍珠卡塔尔采珠船模型铭心撷珍卡塔尔阿勒萨尼收藏展展品手鼓演奏者罗斯伯里夫人的珍珠王冠罗马金手镯新月形祖母绿胸针虎眼头巾配饰楚天都市报极目新闻记者夏卡塔尔世界杯上表现出色,这些球员的身价应该提升不少2022年卡塔尔世界杯小组赛已经进入了最后阶段的争夺,下面这些球员在世界杯赛场的表现真的非常不错,他们如今的身价应该提升不少。小组赛最后一轮面对强敌西班牙,日本队再次上演逆转好戏,
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网