范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

清华上交等联合发表Nature子刊分片线性神经网络最新综述

  编辑:LRS 好困  【新智元导读】一篇论文带你读完「连续分片线性函数」的发展。
  连续分片线性函数 是一类具备局部线性特性 和全局非线性特性 的连续函数 。具有特定表示模型的连续分片线性函数能够对紧集上的任意连续函数进行全局逼近。
  其本质是利用有限数量的线性函数对复杂的非线性系统进行精确建模 ,即在保持局部线性特性的同时,使整体建模表现出非线性特性。
  分片线性神经网络 (PieceWise Linear Neural Networks, PWLNN ) 是利用连续分片线性函数对非线性系统建模的主要方法之一。
  当合理配置神经网络网络结构及神经元中的激活函数 (如ReLU等分片线性映射函数),可以得到一类PWLNN,并以此为基础,灵活利用常见的神经网络模型参数优化算法和各类成熟的计算平台,实现对复杂非线性系统或数据集进行黑箱建模。
  在过去的几十年里,PWLNN已经从浅层架构发展到深层架构 ,并在不同领域取得了广泛的应用成果,包括电路分析、动态系统识别、数学规划等。近年来,深度PWLNN在大规模数据处理方面取得的巨大成功尤为瞩目。
  图1 二维连续分片线性函数示例[2]
  最近由清华大学自动化系 、比利时荷语鲁汶大学电子系 、上海交通大学自动化系 以及之江实验室 的研究人员共同完成的一篇发表在《自然-综述》 系列期刊上的综述论文,系统地介绍了分片线性神经网络表示模型 (包括浅层及深度网络)、优化算法、理论分析以及应用。
  论文链接:https://www.nature.com/articles/s43586-022-00125-7
  清华大学自动化系李力教授 及王书宁教授指导的博士毕业生陶清华 (现任比利时荷语鲁汶大学博士后)、黄晓霖 (现任上海交通大学副教授)为论文的通讯作者,其中陶清华博士为论文第一作者,其他共同作者包括王书宁教授 、比利时荷语鲁汶大学Johan A.K. Suykens教授 及王书宁教授指导的博士毕业生袭向明 (现任之江实验室助理研究员)。
  清华大学自动化系王书宁教授团队近二十年来在分片线性神经网络方向开展了系统的研究,取得了一些重要成果,显著推进了该领域的发展。
  目前,团队成员遍布于国内外的研究机构,继续从事分片线性神经网络及其相关科研工作,共同促进相关理论的发展和成果转化。
  Nature Reviews Methods Primers于2021年1月创刊,致力于加强跨学科的协作,出版多领域前沿方法或技术的综述文章,旨在为处于不同职业阶段或具有不同研究背景/不同知识储备的跨学科研究者和实践者提供了解、评估和应用前沿方法和技术的信息交流平台。 基本背景及发展历程
  为了将PWLNN更好地应用于数据科学,学者们长期以来一直围绕两个基本问题展开研究,即表示模型 及其参数学习算法 ,其中前者旨在建立具备分片线性特性和充分的逼近能力的数学模型[2-11] ,后者则研究适应大规模数据的表示模型参数准确而快速的学习算法[9-22] ,从而使PWLNN能够准确描述给定数据或待研究系统对象的特性。
  图3. 模型部分概况[1]
  1977年,著名电路系统专家蔡少棠(Leon O. Chua)等在电路系统分析中首次成功提出了紧凑的PWLNN表示法 ,即典范表示模型[3] 。
  1993年,著名统计和机器学习专家Leo Breiman开创了另一类基于铰链 的模型表示,即链接超平面模型[4] ,其与当今深度神经网络中最流行的激活函数之一,即线性整流单元(Rectified Linear Units, ReLU),极为类似。
  随后王书宁教授将其推广至具有全局表示能力的广义链接超平面模型 [8] 。
  随着典范表示模型和链接超平面模型的提出,PWLNN相关研究也得到快速发展,其中大部分工作围绕浅层网络结构和参数学习方法而展开。
  2010年,Nair和Hinton提出的ReLU21大幅度提高了深度学习在各种基于数据驱动的任务中的效果,使得具有深层网络结构的PWLNN得到更加广泛的关注。 PWLNN表示模型及其学习方法
  如上图3所示,PWLNN可分为两大类,即浅层的PWLNN (如图3中下半部分左右两图所示)和深层的PWLNN (如图2中上半部分图)。
  浅层的PWLNN主要分为两大类,即基函数组合模型 及格模型 。
  其中前者通过对具有不同结构、参数和特性的基函数进行组合,如图4(a)(b)所示,实现能够满足不同场景的具有不同逼近能力、表示能力、参数及结构的辨识难易程度的PWLNN
  后者则通过显式枚举可行域的各个子区域所对应的线性表达,并利用min-max(或max-min)的嵌套形式,实现PWLNN的紧凑表示,如图4(c)所示。
  格模型中线性子区域的显式表达特性在一些特定应用场景下尤为重要,例如模型预测控制[25,31] 。
  图4. (a) 二维链接超平面模型基函数示意图; (b) 二维单纯形模型基函数示意图;(c) 一维格模型示例图 (含5个子区域线性表达式)
  对比而言,由于网络深度的限制,浅层的PWLNN通常通过筛选更为有效的神经元,而逐渐增加网络宽度的方式,提升模型灵活性,然而在反复搜索有效神经元的过程往往会牺牲算法效率,同时缺少对全局信息的考虑。
  与浅层PWLNN更加侧重于神经元连接方式的特点不同,深层的PWLNN更加侧重于在深度神经网络中引入形式简单的分片线性函数作为激活单元,从而是深层PWLNN整体表现为逐层嵌套的分片线性映射函数。
  深层的PWLNN更偏好于增加网络深度[23] ,这种方式的优势在于能够更加高效而灵活地实现分片线性子区域的划分,并使模型具有更好的灵活性,例如图5中的典型全连接深层PWLNN模型结构示意。
  图5. 一般PWLNN模型结构示意图
  通过逐层的分片线性函数映射,定义域会被划分为更多的线性子区域,如图6所示。
  图6中(b)、(c)、(d)为(a)所示网络中第一层隐含层、第二隐含层、第三隐含层中神经元输出对应的定义域划分,可见随着网络深度的嵌套网络定义域被划分成更多的子区域,即神经元输出由更多不同片线性子函数构成,因此可以得到更为灵活的PWLNN。
  又例如图7中示例所示,随着网络层数的加深,定义域可被灵活的划分为众多具有线性特性的子区域,从而可以更为精确的地对数据进行拟合,实现强大的逼近能力。
  图6. 二维简单PWLNN(ReLU为激活函数)网络结构及其定义域划分示意图[32]
  图7. 简单的深层PWLNN定义域划分示意图[33]
  对于更为一般的情况,与浅层PWLNN模型类似,深层PWLNN网络中神经元的连接方式也可多样化,例如全连接网络和卷积神经网络CNN,以及逐层连接和残差网络ResNet。
  进一步的,PWLNN中神经元间的非线性传递函数也可以为一般形式的连续分片线性函数,不仅限于一般的一维函数,例如ReLU及Leaky ReLU[34] ,也可以为多维的Maxout[26] 等。
  图8示意了具有一般形式的PWLNN网络结构,适用于上述所有浅层和深层PWLNN模型。
  图8. 一般PWLNN模型结构示意图  学习算法
  浅层的PWLNN的参数学习算法主要是增量式地逐步添加神经元和/或更新参数,其目标是学习到一个更宽的网络,以实现更好的学习效果。
  不同的浅层PWLNN模型通常有其特有的学习算法,充分考虑模型特有的几何特性及实际应用需求,例如图4(a)中对应的链接超平面模型对应找链接算法[13] ,及图4(b)中单纯形模型对应的基于单纯形找片的辨识算[2] 等。
  以图9为例,通过逐步添加左侧所示的辨识得到的三个基函数,可得到右侧对应的PWLNN,实现对示例中正弦函数的逼近。
  图9. 基于增量式学习的单纯形找片算法示意图[2]
  浅层的PWLNN广泛应用于函数逼近、系统辨识及预测控制等领域中的问题,但在处理高维问题、大规模数据及复杂任务时,这些模型的灵活性及算法效率仍具有局限性[5] 。
  相比较而言,深层的PWLNN的学习则延续了深度学习中一般深度网络的优化算法,即其通常具有预先确定的网络结构,并在基于梯度反向传播策略和随机梯度下降算法的学习框架下进,优化网络参数,这样实现了对优化过程的简化并提高了学习效率,从而使其可以求解复杂问题[16] 。
  值得一提的是,分片线性激活函数(如ReLU)的引入,能有效抑制梯度消失等影响深度学习应用效果的不利特性[22] ,因此PWLNN的发展也在一定程度上促进了深度学习的发展。
  此外,在GPU/TPU等硬件和各类成熟的深度学习软件平台的支撑下,对计算能力具有较高需求的深层的PWLNN能够应用于更大规模的问题,使其在当今的大数据时代脱颖而出。 分片线性特性
  与其他非线性函数不同,分片线性函数具有一个重要性质,即其对定义域划分 和子区域局部线性表达的可解释性 。
  除了强大的逼近能力,目前分片线性还被广泛的应用于深度学习中的各类理论分析中[24-30] ,例如通过利用线性子区域边界特性验证对于给定输出情况下网络输出预测的鲁棒性验证[28-29] ,以及利用估计线性子区域片数衡量网络灵活性[24] 等。
  深层PWLNN的分片线性特性导致的复杂的子区域划分及模型表达式会阻碍分片线性函数的可解释能力和带来难易预测的行为特征。
  浅层的PWLNN的建模及学习算法通常会考虑定义域中各子区域的局部线性特征,并以实现足够稀疏的模型结构为参数学习目标。
  特别地,具有不同形式的浅层PWLNN对应了不同的参数学习算法,这些算法充分考虑了各模型特有的几何特征,从而实现较好的学习效果。
  例如,对应于链接超平面模型的找链接算法[13] ,对应于自适应链接超平面模型的基于定义域划分的树形结构算法[9] 等。
  然而,深层的PWLNN通常忽略了模型的几何特征 ,而通过为各个神经节点配置形式简单的分片线性映射函数,并结合多层结构带来的非线性特性逐层叠加效应,以实现极其复杂的子区域划分和局部线性表达。
  尽管在各领域问题的求解过程中的数值结果证明了深层PWLNN的优越性能,但模型参数学习算法与模型结构相独立,一般采用深度学习的常用策略,即随机梯度下降算法,而忽略了分片线性特性对学习过程的影响 。
  因此,在这一点上,未来仍有很多亟待研究的问题 。
  例如,如何为具有不同网络结构和神经元映射函数的PWLNN构建特有的学习算法,在保持参数稀疏性和模型可解释性的同时,提升学习过程的效率和效果 ;
  对于给定数据集,是否能够以及如何找到一个具有最简单结构和模型可解释性 的深层PWLNN;
  这样的PWLNN应该通过显式 的构建一个浅层PWLNN 或隐式的的正则化 一个深层PWLNN得以实现;
  如何建立PWLNN与其他强调局部特征学习的深度神经网络 之间的区别和关系 等。
  综上,此综述对PWLNN方法论进行了的系统性回顾,从浅层网络和深层网络两个方面对表示模型、学习算法、基础理论及实际应用等方面内容进行了梳理,展现了浅层的PWLNN向当今广泛使用的深层的PWLNN的发展历程,全面剖析了二者之间的关联关系,并对现存问题和未来研究方向进行了深入讨论。
  不同背景的读者可以很容易地了解到从PWLNN的开创性工作到当今深度学习中最先进的PWLNN的发展路线。同时,通过重新思考早期的经典工作,可将其与最新研究工作相互结合,以促进对深层PWLNN的更深入研究。
  综述文章阅读链接:https://rdcu.be/cPIGw
  综述文章下载链接https://www.nature.com/articles/s43586-022-00125-7
  arXiv版本下载链接 https://arxiv.org/abs/2206.09149
  编辑同期配发了PrimeView进行推介 https://www.nature.com/articles/s43586-022-00137-3
  参考资料:
  [1] Tao, Q., Li, L., Huang, X. et al. Piecewise linear neural networks and deep learning. Nat Rev Methods Primers 2, 42 (2022).
  [2] Yu, J., Wang, S. & Li, L. Incremental design of simplex basis function model for dynamic system identification. IEEE Transactions on Neural Networks Learn. Syst. 29, 4758–4768 (2017).
  [3] Chua, L. O. & Deng, A. Canonical piecewise-linear representation. IEEE Trans. Circuits Syst. 35, 101–111 (1988). This paper presents a systematic analysis of Canonical Piecewise Linear Representations, including some crucial properties of PWLNNs.
  [4] Breiman, L. Hinging hyperplanes for regression, classification, and function approximation. IEEE Trans. Inf. Theory 39, 999–1013 (1993). This paper introduces the hinging hyperplanes representation model and its hinge-finding learning algorithm. The connection with ReLU in PWL-DNNs can be referred to.
  [5] Julián, P. A High Level Canonical Piecewise Linear Representation: Theory and Applications. Ph.D. thesis, Universidad Nacional del Sur (Argentina) (1999). This dissertation gives a very good view on the PWL functions and their applications mainly in circuit systems developed before the 2000s.
  [6] Tarela, J. & Martínez, M. Region configurations for realizability of lattice piecewise-linear models. Math. Computer Model. 30, 17–27 (1999). This work presents formal proofs on the universal representation ability of the lattice representation and summarizes different locally linear subregion realizations.
  [7] Wang, S. General constructive representations for continuous piecewise-linear functions. IEEE Trans. Circuits Syst. I Regul. Pap. 51, 1889–1896 (2004). This paper considers a general constructive method for representing an arbitrary PWL function, in which significant differences and connections between different representation models are vigorously discussed. Many theoretical analyses on deep PWLNNs adopt the theorems and lemmas proposed.
  [8] Wang, S. & Sun, X. Generalization of hinging hyperplanes. IEEE Trans. Inf. Theory 51, 4425–4431 (2005). This paper presents the idea of inserting multiple linear functions in the hinge, and formal proofs are given for the universal representation ability for continuous PWL functions. The connection with maxout in deep PWLNNs can be referred to.
  [9] Xu, J., Huang, X. & Wang, S. Adaptive hinging hyperplanes and its applications in dynamic system identification. Automatica 45, 2325–2332 (2009).
  [10] Tao, Q. et al. Learning with continuous piecewise linear decision trees. Expert. Syst. Appl. 168, 114–214 (2021).
  [11] Tao, Q. et al. Toward deep adaptive hinging hyperplanes. IEEE Transactions on Neural Networks and Learning Systems (IEEE, 2022).
  [12] Chien, M.-J. Piecewise-linear theory and computation of solutions of homeomorphic resistive networks. IEEE Trans. Circuits Syst. 24, 118–127 (1977)
  [13] Pucar, P. & Sjöberg, J. On the hinge-finding algorithm for hinging hyperplanes. IEEE Trans. Inf. Theory 44, 3310–3319 (1998).
  [14] Huang, X., Xu, J. & Wang, S. in Proc. American Control Conf. 4431–4936 (IEEE, 2010). This paper proposes a gradient descent learning algorithm for PWLNNs, where domain partitions and parameter optimizations are both elucidated.
  [15] Hush, D. & Horne, B. Efficient algorithms for function approximation with piecewise linear sigmoidal networks. IEEE Trans. Neural Netw. 9, 1129–1141 (1998).
  [16] LeCun, Y. et al. Gradient-based learning applied to document recognition. Proc. IEEE 86, 2278–2324 (1998). This work formally introduces the basic learning framework for generic deep learning including deep PWLNNs.
  [17] He, K., Zhang, X., Ren, S. & Sun, J. in Proc. IEEE Int. Conf. Computer Vision 1026–1034 (IEEE, 2015). This paper presents modifications of optimization strategies on the PWL-DNNs and a novel PWL activation function, where PWL-DNNs can be delved into fairly deep.
  [18] Tao, Q., Xu, J., Suykens, J. A. K. & Wang, S. in Proc. IEEE Conf. Decision and Control 1482–1487 (IEEE, 2018).
  [19] Wang, G., Giannakis, G. B. & Chen, J. Learning ReLU networks on linearly separable data: algorithm, optimality, and generalization. IEEE Trans. Signal. Process. 67, 2357–2370 (2019).
  [20] Tsay, C., Kronqvist, J., Thebelt, A. & Misener, R. Partition-based formulations for mixed-integer optimization of trained ReLU neural networks. Adv. Neural Inf. Process. Syst. 34, 2993–3003 (2021).
  [21] Nair, V. & Hinton, G. in Proc. Int. Conf. on Machine Learning (eds Fürnkranz, J. & Joachims, T.) 807–814 (2010). This paper initiates the prevalence and state-of-theart performance of PWL-DNNs, and establishes the most popular ReLU.
  [22] Glorot, X., Bordes, A. & Bengio, Y. Deep sparse rectifier neural networks. PMLR 15, 315–323 (2011).
  [23] Lin, J. N. & Unbehauen, R. Canonical piecewise-linear networks. IEEE Trans. Neural Netw. 6, 43–50 (1995). This work depicts network topology for Generalized Canonical Piecewise Linear Representations, and also discusses the idea of introducing general PWL activation functions for deep PWLNNs, yet without numerical evaluations.
  [24] Pascanu, R., Montufar, G. & Bengio, Y. in Adv. Neural Inf. Process. Syst. 2924–2932 (NIPS, 2014). This paper presents the novel perspective of measuring the capacity of deep PWLNNs, namely the number of linear sub-regions, where how to utilize the locally linear property is introduced with mathematical proofs and intuitive visualizations.
  [25] Bemporad, A., Borrelli, F. & Morari, M. Piecewise linear optimal controllers for hybrid systems. Proc. Am. Control. Conf. 2, 1190–1194 (2000). This work introduces the characteristics of PWL in control systems and the applications of PWL non-linearity.
  [26] Goodfellow, I., Warde-Farley, D., Mirza, M., Courville, A. & Bengio, Y. in Proc. Int. Conf. Machine Learning Vol. 28 (eds Dasgupta, S. & McAllester, D.) 1319–1327 (PMLR, 2013). This paper proposes a flexible PWL activation function for deep PWLNNs, and ReLU can be regarded as its special case, and analysis on the universal approximation ability and the relations to the shallow-architectured PWLNNs are given.
  [27] Yarotsky, D. Error bounds for approximations with deep ReLU networks. Neural Netw. 94, 103–114 (2017).
  [28] Bunel, R., Turkaslan, I., Torr, P. H. S., Kohli, P. & Mudigonda, P. K. in Adv. Neural Inf. Process. Syst. Vol. 31 (eds Bengio, S. et al.) 4795–4804 (2018).
  [29] Jia, J., Cao, X., Wang, B. & Gong, N. Z. in Proc. Int. Conf. Learning Representations (ICLR, 2020).
  [30] DeVore, R., Hanin, B. & Petrova, G. Neural network approximation. Acta Numerica 30, 327–444 (2021). This work describes approximation properties of neural networks as they are presently understood and also discusses their performance with other methods of approximation, where ReLU are centred in the analysis involving univariate and multivariate forms with both shallow and deep architectures.
  [31] Xu, J., Boom, T., Schutter, B. & Wang, S. Irredundant lattice representations of continuous piecewise affine functions. Automatica 70, 109–120 (2016). This paper formally describe the PWLNNs with irredundant lattice representations, which possess universal representation ability for any continuous PWL functions and yet has not been fully explored to construct the potentially promising deep architectures.
  [32] Hu, Q., Zhang, H., Gao, F., Xing, C. & An, J. Analysis on the number of linear regions of piecewise linear neural networks. IEEE Transactions on Neural Networks Learn. Syst. 33, 644–653 (2022).
  [33] Zhang, X. & Wu, D. Empirical studies on the properties of linear regions in deep neural networks. In Proceeding of the International Conference on Learning Representations (2020).
  [34] Maas, A., Hannun, A. Y. & Ng, A. Y. Rectifier nonlinearities improve neural network acoustic models. Proc. ICML 30, 3 (2013).

压力给到三星了?国产折叠屏能不能打,综合对比后一目了然!折叠屏手机作为不同于传统直板机的全新手机形态,在三星的带头下,这几年无论是产品数量还是用户体验都在持续提升,值得一提的是,包括华为OPPO和荣耀等在内的国产品牌尽管作为后来者,但是一些梦想欺骗了生活立冬的晚上,你和我谈起一文不值的诗歌,谈起了头顶一根肆意妄为的白发。甚至死亡!关于梦里的西藏青海九寨沟,或是丽江。你没有任何理由拒绝脚边一粒热烈的微尘,如同某年某月某天遗失在路上的旅游是一剂最好良药商洛头条人为什要旅游?答案肯定是八仙过海,各显神通若收集成专著,定是一块厚厚的砖头书,足够你三天三夜看。香油调苦菜,各取心头爱,爱好才是一个人最好的老师爱好甚至让人无师自通,活在当隐于莫干山竹海中的绝美私汤民宿,270落地玻璃躺看竹海丨隐西39开业之后基本上0宣传旺季至少需要提前三个月订房,100的入住率即使是莫干山的淡季,这家民宿也经常是一房难求。它的存在就是最好的宣传。凭借着住进风景里的魔力,这家好睡又好拍的民宿成为西藏冒险王镜头里喜马拉雅山间的蓝宝石冰川科普探险家王相军先生2020年五月份发布的作品,喜马拉雅山调研现场。当时和他同行的是他雇佣的印度向导。帮他引路和背包。老王随着镜头解说道现在我到了一个蓝色的冰冻湖的一个位置啊!恐龙文博园鳄湖公园被评为河源具有历史价值公园12月12日,由河源市城市综合管理和执法局市林业局组织的河源市具有历史价值公园评选活动结果出炉,河源恐龙文博园(龟峰公园)鳄湖公园成功入选。河源恐龙文博园(龟峰公园)包含河源市博物2023年荷美邮轮非洲大环线,史诗般的航程与野生动植物的邂逅说起非洲大陆,对于中国游客来说还充满了神秘色彩,去过的人也不多,更不要说是邮轮了。今天小编介绍的环绕非洲大陆的深度航线,精彩不容错过。非洲大航程航线图2020年,荷美邮轮曾经首次推埼玉县美食伴手礼12选川越布丁蛋形年轮奶香脆饼必买打卡挑战局位于东京隔壁的埼玉县,不但境内有小江户川越噜噜米儿童森林公园等好玩景点,更有不少人气话题美食!这次严选出12款埼玉县伴手礼,想知道埼玉三大名菓是哪些?到川越必吃的点心是什暖冬之旅!元谋冬日畅游攻略来了来源云南日报东方人类故乡元谋有着全年无冬的舒适是冬季游玩度假旅居的胜地楚雄州元谋县地处滇中北部金沙江干热河谷地带属南亚热带季风气候年平均气温21。5冬无严寒,光热充足如果你想过一个找到阿凡达2中张家界峰林原型,免费畅游武陵源阿凡达太远,张家界很近。12月16日,阿凡达2全球公映之际,电影取景地张家界武陵源景区(张家界国家森林公园)宣布,自即日起凡在电影阿凡达2中寻找到张家界峰林原型的中外游客,可获赠价广东顺德北滘林头郑氏大宗祠,还金食报与花萼相辉广东省顺德市北滘镇,古称百滘,意为百河交错水网密集,荣获中国第一批特色小镇全国重点镇国家卫星镇国家生态乡镇全国安全社区全国美丽宜居小镇等称号,纳入了广东省经济发达镇行政管理体制改革
关注2023年挑战卖300万辆东风集团股份宣布注销回购股份380万股文懂车帝原创宋爱菊懂车帝原创行业日前,东风集团股份发布公告称,该公司于2023年1月19日注销已回购股份380万股。2022年全年,东风集团股份汽车产量约246。065万辆,销量约多家化肥企业2022年业绩预增截至1月18日,6家化肥行业上市公司发布了2022年业绩预告。其中,5家公司预增,增幅普遍在两位数。多家公司表示,化肥产品价格上涨使得业绩增长。业内人士表示,全球化肥供需处于紧平衡假如你不曾来过头条创作挑战赛假如我是一颗流星感谢上天让我来过我会用短暂的生命绚烂时,犹如一团火剌破了苍穹燃烧着自己的生命去划破那黑色的夜空生命只是一个瞬间品尝一次发光品味瞬间的荣耀还未来得及尝遍走出阴霾,尽是阳光阳光总在风雨后,走过了独木桥,才能到达阳光大道。今年的鞭炮,烟花,开放得绚烂多彩,欢乐传到每个角落。欢声笑语,嬉戏打闹,阖家欢乐过上幸福年,新的一年,新的开始,必定是越来越好。人们2023,狠狠赚钱,狠狠存钱头条创作挑战赛听过一句扎心的话曾经觉得谈钱伤感情,中年以后才知道,没钱更伤感情。曾经视金钱为粪土,中年没钱会被认为一无是处。这句话尤其在过去三年的疫情中显现得更加令人深刻。绝大多数牵挂着,我最深爱的你!夜色,很静谧,你的模样,很清晰。期盼着,你的信息,哪怕只是,一个表情,一声问语。总会,忍不住想你,我知道那是爱,却,只字不提。我不知道,你的心意,只是默默关注着你,以朋友的名义。喜博弈厨电存量市场方太集团2022年营收达162。43亿元2023年企业参与行业竞争靠什么?每经记者叶晓丹每经编辑董兴生受多重因素影响的厨电行业,2022年仍延续了前几年的行情,整体处于下行趋势,市场存量博弈,竞争激烈。1月15日,奥维云网(AVC)推总数据显示,2022火电锅炉管行业研究报告柳暗花明又一村(报告出品方民生证券)1火电压舱石作用突出,项目核准同比大增1。1火电压舱石作用突出,保障电力供应稳定火电是我国无可争议的主体电源。立足富煤贫油少气的基本国情,我国形成了以煤电为主王嘉尔唇环造型出席LV23年秋季大秀,新设计师的作品你打几分?LOUISVUITTON2023大秀王嘉尔领衔观秀团众星云集LOUISVUITTON2023秋季男装在昨日进行了首秀。秀场边观秀的人群可谓星光熠熠,相信这些明星ICON们也像大家一2022年GDP增长3,2023年目标5,浙江人均GDP有望冲刺2万美元2021年我国人均GDP达到了1。26万美元,按照全球主要发达国家的经验,如果持续进行产业升级,那么之后6到7年我国人均GDP就有望达到2万美元,有了一个阶段性的跨越,意义十分重大特斯拉的火灾秘密揭示电动汽车火灾争议背后的真相大家好啊,今天我想和大家聊一聊最近火了的话题电动车着火问题和消防部门如何处理。大家都知道,电动车着火的概率比汽油车低得多。但是当它着火了,灭火就比较困难。电动车里的高压电池有可能破