专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

ChatGPT的一小步,NLP范式转变的一大步

  作者:符尧,yao。fued。ac。uk,爱丁堡大学(UniversityofEdinburgh)博士生,本科毕业于北京大学;与TusharKhot,彭昊在艾伦人工智能研究院(AllenInstituteforAI)共同完成英文原稿;与李如寐(美团NLP中心)共同翻译为中文;感谢Aristoteammates,JingfengYang,和YiTay的讨论与建议。请同时参考CoT〔1〕团队的博客。
  在此前《ChatGPT进化的秘密》一文中,本文作者剖析了ChatGPT的技术路线图。而在ChatGPT发布前,作者详细介绍了大模型的突现能力、以及它在NLPML任务中的潜在优势,以此来探讨大模型所带来的潜在的范式转变。显然,后来ChatGPT所展现出的强大能力,将这种转变的步伐扎实地推进了一大步。
  英文版原文:https:franxyao。github。ioblog。html
  最近,人们对大型语言模型所展示的强大能力(例如思维链〔2〕、便签本〔3〕)产生了极大的兴趣,并开展了许多工作。我们将之统称为大模型的突现能力〔4〕,这些能力可能只存在于大型模型中,而不存在于较小的模型中,因此称为突现。其中许多能力都非常令人印象深刻,比如复杂推理、知识推理和分布外鲁棒性。
  值得注意的是,这些能力很接近NLP社区几十年来一直寻求的能力,因此代表了一种潜在的研究范式转变,即从微调小模型到使用大模型进行上下文学习。对于先行者来说,范式转变可能是很显然的。然而,出于科学的严谨性,我们确实需要非常明确的理由来说明为什么人们应该转向大型语言模型,即使这些模型昂贵、难以使用,并且效果可能一般。
  在本文中,我们将仔细研究这些能力是什么,大型语言模型可以提供什么,以及它们在更广泛的NLPML任务中的潜在优势是什么。
  前提:我们假设读者具备以下知识:
  预训练、精调、提示(普通从业者应具备的自然语言处理深度学习能力)思维链提示、便签本(普通从业者可能不太了解,但不影响阅读)
  1存在于大模型而非小模型的突现能力
  X轴为模型尺寸。GSM8K是一个小学水平的数学问题集。
  在以上的效果图中,我们可以观察到模型的表现:
  当尺寸相对小的时候提升并不大当模型变大时有很明显的提升
  这从根本上说明,某些能力可能不存在于小模型中,而是在大模型中获得的。
  有很多种突现能力,比如Wei等人在2022年〔5〕所梳理的。有些能力很有意思,但我们在本文不会讨论,比如lastlatterconcatenation,我们认为这是Python而不是语言模型要做的任务;或者3位数加法,我们认为这是计算器而不是语言模型要做的事。
  在本文中,我们主要对以下能力感兴趣:
  1。NLP社区近几年都关注但还没实现的能力
  2。之前的NLP模型很难达到的能力
  3。源自于人类语言最深层的本质的能力
  4。可能达到人类智力的最高水平的能力
  2突现能力的三个典型例子
  很多有意思的能力都可以归到上文提到的类别里,在它们之中,我们主要讨论以下三种典型能力:
  复杂推理知识推理分布外鲁棒性
  接下来让我们一个个详细讨论。
  复杂推理
  下面是一个GSM8K数据集中,用提示词显著超过精调的例子:
  虽然这道题对于10岁的孩子来说很容易,但对语言模型来说却很难,主要是由于数学和语言混合在一起。
  GSM8K最初由OpenAI于2021年10月〔6〕提出。当时他们用第一版GPT3在全部训练集上进行了精调,准确率约为35。这个结果让作者相当悲观,因为他们的结果显示了语言模型的缩放规律:随着模型大小呈指数增长,性能呈线性增长(我之后会讨论)。因此,他们在第4。1节中思考:
  175B模型似乎需要至少额外两个数量级的训练数据才能达到80的求解率。
  三个月后,即2022年1月,Wei等人〔7〕基于540BPaLM模型,仅使用了8个思维链提示示例便将准确率提高到56。6(无需将训练集增加两个数量级)。之后在2022年3月,Wang等人〔8〕基于相同的540BPaLM模型,通过多数投票的方法将准确率提高到74。4。当前的SOTA来自我自己在AI2的工作(Fuet。al。Nov2022〔9〕),我们通过使用复杂的思维链在175BCodex上实现了82。9的准确率。从以上进展可以看到,技术进步确实呈指数级增长。
  思维链提示是一个展示模型随着规模突现出能力的典型例子:
  从突现能力来看:尽管不需要17500B,但模型大小确实要大于100B,才能使思维链的效果大于的仅有回答提示。所以这种能力只存在于大型模型中。从效果来看:思想链提示的性能明显优于其之前的精调方法(目前还没有能公平对比提示词和微调的工作。但当思维链被提出的时候,尽管他们对于提示和精调的比较可能是不公平的,但确实比精调效果要好)。从标注效率上来看:思维链提示只需要8个示例的注释,而微调需要完整的训练集。
  有些同学可能会认为模型能做小学数学代表不了什么(从某种意义上说,他们确实没有那么酷)。但GSM8K只是一个开始,最近的工作已经把前沿问题推向了高中〔10〕、大学〔11〕,甚至是国际数学奥林匹克问题〔12〕。现在更酷了吗?
  知识推理
  下一个例子是需要知识的推理能力(例如问答和常识推理)。在这种情况下,对大型模型进行提示不一定优于精调小型模型(哪个模型更好还有待观察)。但是这个情况下的注释效率被放大了,因为:
  在许多数据集中,为了获得所需的背景常识知识,(以前很小的)模型需要一个外部语料库知识图谱来检索〔13〕,或者需要通过多任务学习在增强〔14〕的数据上进行训练对于大型语言模型,可以直接去掉检索器〔15〕,仅依赖模型的内部知识〔16〕,且无需精调
  以前的SOTA模型需要从外部知识源中检索。GPT3的性能与以前的模型相当优于以前的模型,且无需检索。
  如表中所示,与数学题的例子不同,GPT3并没有明显优于之前的精调模型。但它不需要从外部文档中检索,本身就包含了知识(虽然这些知识可能过时或者不可信,但选择哪种可信知识源超出了本文的讨论范围)。
  为了理解这些结果的重要性,我们可以回顾一下历史:NLP社区从一开始就面临着如何有效编码知识的挑战。人们一直在不断探究把知识保存在模型外部或者内部的方法。
  上世纪九十年代以来,人们一直试图将语言和世界的规则记录到一个巨大的图书馆中,将知识存储在模型之外。但这是十分困难的,毕竟我们无法穷举所有规则。
  因此,研究人员开始构建特定领域的知识库,来存储非结构化文本、半结构化(如维基百科)或完全结构化(如知识图谱)等形式的知识。通常,结构化知识很难构建(因为要设计知识的结构体系),但易于推理(因为有体系结构),非结构化知识易于构建(直接存起来就行),但很难用于推理(没有体系结构)。然而,语言模型提供了一种新的方法,可以轻松地从非结构化文本中提取知识,并在不需要预定义模式的情况下有效地根据知识进行推理。下表为优缺点对比:
  分布外鲁棒性
  我们讨论的第三种能力是分布外的鲁棒性。在2018年至2022年期间,NLP、CV和通用机器学习领域有大量关于分布偏移对抗鲁棒性组合生成的研究,人们发现当测试集分布与训练分布不同时,模型的行为性能可能会显著下降。然而,在大型语言模型的上下文学习中似乎并非如此。Si等人在2022年的研究显示〔17〕:
  虽然GPT3在同分布设置下比RoBERTa要差,但在非同分布设置下优于RoBERTa,性能下降明显更小。
  同样,在此实验中,同分布情况下基于提示词的GPT3的效果并没有精调后的RoBERTa要好。但它在三个其他分布(领域切换、噪声和对抗性扰动)中优于RoBERTa,这意味着GPT3更加鲁棒。
  此外,即使存在分布偏移,好的提示词所带来的泛化性能依旧会继续保持。比如:
  图片来自于Fuet。al。2022。即使测试分布与训练分布不同,复杂提示也始终比简单提示的表现更好。
  Fu等人2022年〔18〕的研究显示,输入提示越复杂,模型的性能就越好。这种趋势在分布转移的情况下也会继续保持:无论测试分布与原分布不同、来自于噪声分布,或者是从另一个分布转移而来的,复杂提示始终优于简单提示。
  到目前为止的总结
  在上文中,我讨论了只有大型模型才有的三种突现能力。它们是:
  复杂推理,大型模型在没有使用全部训练数据的情况下便显著优于以前的小型模型。知识推理,大型模型可能没有小模型效果好,但大模型不需要额外的知识来源(知识可能很昂贵,或者很难从非结构化数据中抽取)。分布外鲁棒性,这是之前进行模型精调时需要努力解决的问题。大型模型虽然在同分布情况下的效果不如以前的方法,但非同分布情况下的泛化性能却好得多。
  3突现能力推翻比例定律
  鉴于上文列出的优点,大家可能会开始觉得大型语言模型确实很好了。在进一步讨论之前,让我们再回顾一下之前的工作,就会发现一个很奇怪的问题:GPT3在2020年就发布了,但为什么直到现在我们才发现并开始思考范式的转变?
  这个问题的答案就藏在两种曲线中:对数线性曲线和相变曲线。如下图:
  左图:当模型大小呈指数增长,相应的模型性能呈线性增长。右图:当模型尺寸达到一定规模时,会出现突现能力。
  最初,(OpenAI)的研究者认为语言模型的性能与模型尺寸的关系可以通过对数线性曲线预测,即模型尺寸呈指数增长时,性能会随之线性增加。这种现象被称为语言模型的缩放定律,正如Kaplan等人在2020年〔19〕最初的GPT3文章〔20〕中讨论的那样。
  重要的是,在那个阶段,即便最大的GPT3在有提示的情况下也不能胜过小模型精调。所以当时并没有必要去使用昂贵的大模型(即使提示词的标注效率很高)。
  直到2021年,Cobbe等人〔21〕发现缩放定律同样适用于精调。这是一个有点悲观的发现,因为它意味着我们可能被锁定在模型规模上虽然模型架构优化可能会在一定程度上提高模型性能,但效果仍会被锁定在一个区间内(对应模型规模),很难有更显著的突破。
  在缩放定律的掌控下(2020年到2021),由于GPT3无法胜过精调T511B,同时T511B微调已经很麻烦了,所以NLP社区的关注点更多的是研究更小的模型或者高效参数适应。Prefixtuning〔22〕就是提示和适应交叉的一个例子,后来由He等人在2021〔23〕统一。
  当时的逻辑很简单:如果精调效果更好,我们就应该在高效参数适应上多下功夫;如果提示词的方法更好,我们应该在训练大型语言模型上投入更多精力。
  之后在2022年1月,思维链的工作被放出来了。正如作者所展示的那样,思维链提示在性能比例曲线中表现出明显的相变。当模型尺寸足够大时,性能会显著提高并明显超越比例曲线。
  当使用思维链进行提示时,大模型在复杂推理上的表现明显优于微调,在知识推理上的表现也很有竞争力,并且分布鲁棒性也存在一定的潜力。要达到这样的效果只需要8个左右的示例,这就是为什么范式可能会转变的原因。
  4范式转变意味着什么?
  范式转变究竟意味着什么?下面我们给出精调和提示词方法的对比:
  提示词的好处很明显:我们不再需要繁琐的数据标注和在全量数据上进行精调,只需要编写提示词并获得满足要求的结果,这比精调要快很多。
  另外要注意的两点是:
  上下文学习是监督学习吗?
  坦白讲,我不确定。相似之处在于,上下文学习也需要像训练数据一样的示例不同之处在于,上下文学习的泛化行为并不同于监督学习,这使得之前的泛化理论(例如RademancherComplexity或NeuralTangentKernel)均不适用。
  上下文学习真的比监督学习效果要好吗?
  答案还未知。大多数提示词和精调的对比都只比了提示词大模型vs精调小模型,但公平的对比应该是提示词大模型vs精调大模型,且对比时的基座模型应该一样。所以在最初的思维链文章中,如果Wei等人要说明提示词好于精调,他们应该对比精调后的PaLM,而不是GPT3。我的假设是:精调可以提高分布内的性能,但会损害分布外的鲁棒性。提示词在分布变化的场景中表现更好,但在同分布场景下不如精调。
  a。如果假设是真的,那么一个值得研究的问题就是如何在不牺牲其上下文学习能力的情况下进行精调。
  b。注意分布外精调的效果同样会随着模型尺寸变化。比如Yang等人在2022年的工作中,第四张表就显示,Bartbased的分布外泛化能力会下降,但Bartlarge则提升。对于大模型,当测试集的分布和训练集相差不大时,同分布的精调效果也应该会提升。
  再回顾一下前文提到的逻辑:如果精调更好,我们应该努力研究如何进行参数高效的优化;如果提示词更好,我们应该努力去训练更好的大型语言模型。
  所以,尽管我们相信大型语言模型有巨大的潜力,仍然没有确凿的证据表明精调和提示词哪种方法更好,因此我们不确定范式是否真的应该转变、或应该转变到什么程度。仔细比较这两种范式,使我们对未来有一个清晰的认识,是非常有意义的。我们将更多讨论留到下一篇文章。
  5hr模型应该多大才够?
  两个数字:62B和175B。
  模型至少需要62B,使思维链的效果才能大于标准的提示词方法。模型至少需要175B(GPT3的尺寸),思维链的效果才能大于精调小模型(T511B)的效果。
  62B这个数字来自于Chung等人2022年工作的第五张表〔24〕:
  对于所有小于62B的模型,直接用提示词都好于思维链。第一个用思维链更好的模型是FlancontPaLM62B在BBH上的结果。540B的模型使用思维链会在更多任务上得到好的效果,但也不是全部任务都好于精调。
  另外,理想的尺寸可以小于540B,在Suzgun等人2022年〔25〕的工作中,作者展示了175B的InstructGPT和175B的Codex使用思维链都好于直接用提示词。综合以上结果,我们得到了63B和175B两个数字。所以,如果想要参与这场游戏,首先要有一个大于平均尺寸的模型。
  不过,还有其他大型模型在思维链下的表现差了很多,甚至不能学到思维链,比如OPT、BLOOM和GPT3的第一个版本。他们的尺寸都是175B。这就引出了我们下一个要讨论的问题。
  6hr规模是唯一的因素吗?
  不是。
  规模是一个必要但不充分的因素。有些模型足够大(比如OPT和BLOOM,都是175B),但并不能做思维链。
  有两种模型可以做思维链(TODO:adddiscussionsaboutUL2):
  GPT3系列的模型,包括textdavinci002和codedavinci002(Codex)。这是仅有的两个具有强大突现能力并可公开访问的模型。
  a。除了以上两个模型,其他GPT3模型,包括原来的GPT3,textdavinci001,以及其他更小的GPT3模型,都不能做思维链。
  b。当说能做思维链时,我们是指使用思维链方法的效果比直接用提示词、精调T511B效果更好。
  c。另外要注意的是,codedavinci002在语言任务上的性能始终优于textdavinci002。这个观察非常有趣且耐人寻味。这表明基于代码数据训练的语言模型可以胜过根据语言训练的语言模型。目前为止我们还不知道是为什么。
  PaLM系列模型,包括PaLM、UPaLM、FlanPaLM和Minerva。这些模型目前还未开放访问(此处谷歌,快开源吧)。
  为什么会有突现能力目前还不清楚,但我们找出了一下可能产生突现能力的因素:
  指令精调:GPT3textdavinci002就是用指令强化学习精调〔26〕的产物。在这之前,textdavinci001做思维链的效果并不好。同时PaLM〔27〕在经过指令精调〔28〕后的效果也有提升。
  在代码上精调:Codexcodedavinci002是在代码上进行精调的,它的效果持续好于textdavinci002。PaLM也在代码上进行了调整。从表面上看,代码与语言关系不大,但似乎起了很大作用,我们会在之后的文章进行讨论。
  用思维链精调:在textdavinci002发布时,谷歌已经发布PaLM3个月了。所以OpenAI应该看到了思维链相关的工作。还有一些工作表明〔29〕〔30〕,直接用思维链数据进行精调可以激发模型的思维链能力。
  然而,所有这些因素在现阶段都是推测。揭示如何训练才能让模型产生突现能力是非常有意义的,我们将更多讨论留到下一篇文章。
  7hr总结
  在本文中,我们仔细研究了语言模型的突现能力。我们强调了复杂推理、知识推理和分布外鲁棒性的重要性和其中存在的机会。突现能力是非常令人兴奋的,因为它们可以超越比例定律,并在比例曲线中表现出相变。
  我们详细讨论了研究范式是否会真的从精调转向上下文学习,但我们目前还没有确切答案,因为精调和上下文学习在分布内、分布外场景下的效果仍有待对比。最后,我们讨论了产生突现能力的三个潜在因素:指令精调、代码精调和思维链精调。非常欢迎大家提出建议和讨论。
  另外我们还提到了两个尚未讨论的有趣问题:
  我们是否能公平对比精调和上下文学习的效果?我们是如何训练大模型,才能让模型具备突现能力、思维链能力?
  对于这两个问题,我们会在之后的文章中进行讨论。
  中英对照表
  参考资料
  〔1〕https:www。yitay。netblogemergenceandscaling:https:www。jasonwei。netblogemergence
  〔2〕Weiet。al。2022。ChainofThoughtPromptingElicitsReasoninginLargeLanguageModels:https:arxiv。orgabs2201。11903
  〔3〕便签本:https:lingo。csail。mit。edublogarithmeticgpt3
  〔4〕Weiet。al。2022。EmergentAbilitiesofLargeLanguageModels:https:arxiv。orgabs2206。07682
  〔5〕Weiet。al。2022。EmergentAbilitiesofLargeLanguageModels:https:arxiv。orgabs2206。07682
  〔6〕Cobbeet。al。2021。TrainingVerifierstoSolveMathWordProblems:https:arxiv。orgabs2110。14168
  〔7〕Weiet。al。2022。ChainofThoughtPromptingElicitsReasoninginLargeLanguageModels:https:arxiv。orgabs2201。11903
  〔8〕Wanget。al。2022。SelfConsistencyImprovesChainofThoughtReasoninginLanguageModels:https:arxiv。orgabs2203。11171
  〔9〕Fuet。al。2022。ComplexityBasedPromptingforMultistepReasoning:https:arxiv。orgabs2210。00720
  〔10〕Chunget。al。2022。ScalingInstructionFinetunedLanguageModels:https:arxiv。orgabs2210。11416
  〔11〕Lewkowyczet。al。2022。Minerva:SolvingQuantitativeReasoningProblemswithLanguageModels:https:arxiv。orgabs2206。14858
  〔12〕Jianget。al。2022。Draft,Sketch,andProve:GuidingFormalTheoremProverswithInformalProofs:https:arxiv。orgabs2210。12283
  〔13〕Xuet。al。2021。FusingContextIntoKnowledgeGraphforCommonsenseQuestionAnswering:https:aclanthology。org2021。findingsacl。102。pdf
  〔14〕Khashabiet。al。2020。UnifiedQA:CrossingFormatBoundariesWithaSingleQASystem:https:aclanthology。org2020。findingsemnlp。171
  〔15〕Yuet。al。2022。GenerateratherthanRetrieve:LargeLanguageModelsareStrongContextGenerators:http:arxiv。orgabs2209。10063
  〔16〕Junget。al。2022。MaieuticPrompting:LogicallyConsistentReasoningwithRecursiveExplanations:https:arxiv。orgabs2205。11822
  〔17〕Siet。al。2022。PromptingGPT3tobeReliable。:https:arxiv。orgabs2210。09150
  〔18〕Fuet。al。2022。ComplexitybasedPromptingforMultiStepReasoning:https:arxiv。orgabs2210。00720
  〔19〕Kaplanet。al。2020。ScalingLawsforNeuralLanguageModels:https:arxiv。orgabs2001。08361
  〔20〕Brownet。al。2020。LanguageModelsareFewShotLearners。:https:arxiv。orgabs2005。14165
  〔21〕Cobbeet。al。2021。TrainingVerifierstoSolveMathWordProblems:https:arxiv。orgabs2110。14168
  〔22〕LiandLiang。2021。PrefixTuning:OptimizingContinuousPromptsforGeneration:https:aclanthology。org2021。acllong。353。pdf
  〔23〕Heet。al。2021。TowardsaUnifiedViewofParameterEfficientTransferLearning:https:arxiv。orgabs2110。04366
  〔24〕Chunget。al。2022。ScalingInstructionFinetunedLanguageModels:https:arxiv。orgabs2210。11416
  〔25〕Suzgunet。al。2022。ChallengingBIGBenchtasksandwhetherchainofthoughtcansolvethem:https:arxiv。orgabs2210。09261
  〔26〕Ouyanget。al。2022。Traininglanguagemodelstofollowinstructionswithhumanfeedback:https:arxiv。orgabs2203。02155
  〔27〕Chowdheryet。al。2022。PaLM:ScalingLanguageModelingwithPathways:https:arxiv。orgabs2204。02311
  〔28〕Chung。et。al。2022。ScalingInstructionFinetunedLanguageModels:https:arxiv。orgabs2210。11416
  〔29〕Huanget。al。2022。LargeLanguageModelsCanSelfImprove:https:arxiv。orgabs2210。11610
  〔30〕Chung。et。al。2022。ScalingInstructionFinetunedLanguageModels:https:arxiv。orgabs2210。11416
  欢迎Star、试用OneFlow最新版本:https:github。comOneflowInconeflow

真的有人缝个布袋装上沙子给孩子当纸尿裤吗?这个还真的有。个人坐标山东鲁西地区。我和我弟弟小时候都是这样过来的。沙土不是一般的土,要很细很软的沙土,大多是黄河边上取来的。把土晒了,炒热了,放在布袋里,把小孩光屁股放在里面。沙孩子看手机该不该管?孩子看手机该不该管呢?一问到这个问题,就会有很多家长跳出来说肯定要管呀。每个家长可以列举出手机对孩子的无数条危害看手机对孩子的学习有影响对身体有影响对眼睛有影响会养成坏习惯。有的家联想到底怎么了?为何最近头条有很多关于联想的话题?联想总是让人不断联想如果不能让人不断联想哪来今天被人不断乱想1联想的所做所为跟当前的社会主流民意背道而驰,犯了众怒2联想的经营理念跟国家产业政策相抵触,犯了众怒3联想高管的极端收入目前物价飞涨,在山东东营,你一家人每个月支出多少钱才够用?这月不算生活开支,采暖费1700,房贷2000,老公手机钓鱼时候钓海水里,又支出2600,如果算上生活费,车的油钱,小一万了东营市是山东省最东北的一个地级市,是一个因石油而诞生的城苹果6S和苹果6Splus,现在还值得购买吗?IPhone6S和Iphone6splus虽然也上市3年了,但是在性能和配置上,依然可以作为非重度手机使用者的日常机的。Iphone6s系列的这两款机型使用的苹果的A9处理器,这款得了冠心病后,如何才能长寿?我的父亲40多岁就得了冠心病,现在86岁。身体还好,虽然需要照顾但可以自理。回顾他这几十年的生活起居,我觉得有几点分享。首先是想的少,我们家的大事小情基本上都是我母亲操心,或者和孩把疟疾病毒注入患癌病人身体里把癌细胞杀死,再用青蒿素把疟疾病毒杀死能不能治好癌?我2017年4月份确诊胃癌,我首先依一位癌症患者的身份和大家分享一下我的感受。首先,你说的这两种手段,无论哪种医疗手段都是在临床实验中,成功与否等待官方结论就可以,重要的是时间问题延安和榆林哪个更有发展前途?延安倒霉在地貌环境上,削山造城进度缓慢,再一个人口几乎净流出,除了红色文化一无资源二无产业,服务业落后,基本一个县城水平。榆林曾经地处毛乌素沙漠,电影东邪西毒就是在榆林城北二十公里婴儿束带有了解的吗?比如小腿有点肥不懂到底是不是因为有束带?束带综合征是一种非常特殊的手足部先天畸形,表现在手臂足踝手指等部位出现非常奇特的环状缩窄。这样的缩窄会造成很严重的影响,有可能影响肢体的血液循环,血液的回流障碍,导致肢体在子宫内发孕期可不可以吃泡面呢?有何依据?孕期可不可以吃泡面呢?有何依据?孕期是可以吃泡面的,只要别吃太多,也没什么影响。不过,如果吃得不舒服,当然就不要吃了。有一个孕妈妈就说刚吃完一桶泡面,肚子胀胀的,宝宝也在肚子里乱动人为什么活着?谈谈你对人生的看法?人一旦死亡一切便归于寂静,人活着就是意义,死亡就是虚无,其实就是无意义。春蚕到死丝方尽,蜡炬成灰泪始干。人活着燃烧自己照亮他人。都道七十古来稀,我说七十正少年。不信请看磻溪钓,八十
来江西必吃的8道家常小菜,每一道都能下三碗饭,赶快做来尝尝都说四川菜是酸辣,重庆菜是麻辣,湖南菜是香辣,江西菜则是复合辣。江西菜,看似平平无奇,实则内秀于心。不像湘菜和川菜传播广,南北通吃。江西菜走的是家常路线,在家常菜里下真功夫。下面,高考零分蒋多多愤写8000字痛批高考,渴望得零分,直言绝不后悔高考不仅让千千万万的学子学到头秃,也把许多家长折腾的人仰马翻,可以说这场考试几乎能决定个人命运。寒门出贵子,白屋出公卿,高中辛苦三年全凭高考三天来检验成果。但蒋多多的高考却十分特立普通地级市国内税收前20强榜单,东莞高于无锡佛山,嘉兴高于南通在众多经济指标中,国内税收应该是含金量非常高的一项。但不同等级的城市直接比较也是不合适的,因为高能级城市虹吸税收低能级的被虹吸现象一直存在,所以同等级城市之间比较,才能反映它们的真更全面地满足消费者的用车需求,35万级别王牌MPV最近几年的汽车市场里,MPV车型的销售量一直是处于稳步上升的阶段中。究其原因,很可能是因为开放二胎以来,对于人口较多的大家庭来说,常规的5座家用轿车显然已经无法满足全家出行的需求了中美国防部长共同出席的这场活动,值得关注香格里拉对话会,今天在新加坡开幕。这场聚焦亚太安全的重要多边论坛,中美两国国防部长都会出席。一个多月前,中美国防部长通过一次电话。通话后不久,美国国防部长就公开表示,希望能在香格里中俄联合卡美国脖子?美军弹药供应爆发危机,国会紧急介入立法进入任期的第二年后,拜登开始将执政重心放在实施其策划已久的印太战略上。在他结束首次亚洲行后,美军针对中国的各项军事挑衅也陆续上马。美媒报道,本月末美军联合其他25国海军,举行一场史为何担任美国申奥大使?谷爱凌用北京冬奥举例,一语双关令人赞叹谷爱凌在TIME时代杂志峰会上首度公开自己将担任2030年美国盐湖城冬奥会的申奥大使后,在国内引起了不小的舆论风波,而就在峰会的第二日,北京时间6月10日,谷爱凌被美国媒体再次问起美国都在用,凭啥不让我们买!英国无视禁令,重金采购大疆无人机据英国媒体报道,日前英国国防部采购了一批中国大疆生产的无人机,具体数量不详,耗资13。23万英镑,约合人民币110万元。据知情人士透露,采购合同并不是与大疆直接订立,而是通过转销商广东高考志愿填报广东理工职业学院分数线是多少?高考志愿填报能填几个导语一年一度的高考已经结束,接下来的日子里,高三学子将会迎来比较关键的时刻,那就是高考志愿填报,看看哪所高校比较适合自己。对于广东高三学子来说,当然是多获取更多省内高校资讯,针对这美国梦和现实生活,很精彩如果爱,那么就像在好莱坞电影中一样,如果吃饭,那么就像在餐馆里一样。媒体将现实理想化,觉得爱情和生活像糖果一样甜蜜和迷人。过来人都明白,过好每一天,要有点哲学思维悲喜自渡,真即是美魏凤和与美国国防部长奥斯汀举行会谈6月10日,正在新加坡出席第19届香格里拉对话会的国务委员兼国防部长魏凤和与同期参会的美国国防部长奥斯汀举行会谈。魏凤和说,中国希望与美国建立健康稳定发展的大国关系,这也应该是中美
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网