专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

ChatGPT的前世今生

  本文将细数聊天机器人chatbot的发展历程中的关键事件,帮助读者建立智能聊天机器人发展时间线的初步概念,文章比较长,读者可以收藏慢读。
  萌芽:20世纪60年代70年代
  在这个时期,聊天机器人的早期原型被开发出来。其中最著名的是Eliza,它模拟了心理医生的对话过程。在这个时期,主要使用的技术框架是基于规则的语法解析。
  Eliza对话
  ELIZA是一个早期的自然语言处理计算机程序,由JosephWeizenbaum1964年至1966年期间在麻省理工学院创建。最初使用MADSLIP在IBM7094上开发,旨在探索人与机器之间的交流,它使用一种模式匹配和替换的方法来模拟对话,让用户产生了一种程序理解他们所说的话的错觉,但实际上它没有真正理解任何一方所说的话。
  ELIZA有五个基本的技术问题需要解决:关键词的识别、最小语境的发现、选择适当的转换、根据转换或没有关键词产生适当的响应以及提供ELIZA脚本的结束容量。为了解决这些问题,Weizenbaum使ELIZA没有内置的上下文框架或话语世界,但这需要ELIZA有一套脚本来指导它如何响应用户的输入。
  ELIZA处理用户输入的过程是首先检查文本输入的关键词,将这些关键词按重要程度排序并放入一个关键词堆栈中。然后根据堆栈中排名最高的关键词,对输入的语句进行操作和转换,以产生响应。接下来,根据适当的转换规则,将输入的句子进行分解和重组,形成响应,并将响应以文本形式发送给用户。ELIZA的操作方式取决于操作脚本,脚本是可以编辑或创建新的,以满足需要的上下文环境。ELIZA最著名的脚本是DOCTOR,它模拟罗杰斯式的心理治疗师。ELIZA也有一些专门的功能,例如当没有关键词时,可以使用MEMORY结构记录以前的输入,并在遇到没有关键词的情况下使用这些输入来创建响应。
  ELIZA的成功启示了许多研究者,让他们开始探索如何使用自然语言处理和人工智能技术来模拟人类的对话和思考过程。这项研究成果也催生了一系列与ELIZA相似的对话机器人,如PARRY和Jabberwacky等。这些对话机器人虽然也能够实现简单的自然语言交互,但是由于缺乏深度的理解和推理能力,很难与人类的对话水平相比。
  然而,ELIZA的设计理念和技术手段在后来的自然语言处理研究中仍然发挥了重要作用。例如,基于关键词的文本生成和问答系统、对话状态跟踪和对话策略等技术都受到了ELIZA的启示。
  此外,ELIZA也成为了许多文化作品的灵感源泉,如电影《Her》链接中的人工智能角色Samantha就受到了ELIZA的影响。
  探索:1990年代2000年代
  在这个时期,聊天机器人的关键技术框架是基于有限状态机(FSM)和模板匹配的技术。这个时期开发的聊天机器人有Jabberwacky和Alice等。
  Jabberwacky1986
  Jabberwacky原型
  Jabberwacky是由英国人RolloCarpenter在1986年开始开发的。它最初是一个具有人工智能的聊天程序,使用了一些语言处理和机器学习技术,能够模拟人类的对话。
  Jabberwacky的特点是它能够通过对话来学习和适应用户的喜好和行为,从而使其对话能力不断提高。例如,当用户询问Jabberwacky的兴趣爱好时,Jabberwacky会记住用户的回答并使用这些信息来生成更有针对性的回答。
  Jabberwacky的技术原理是基于人工智能技术中的自然语言处理和机器学习算法。其系统基于已有的对话库和语言模型,通过对用户输入的文本进行分析和匹配,生成相应的回复。
  Jabberwacky的系统包括两个主要组成部分:前端和后端。前端包括用户界面和对话交互,后端则是包括机器学习算法和语言模型的核心技术。
  在使用过程中,用户输入的文本会经过前端传递到后端处理。后端首先会将输入文本进行分词、词性标注等自然语言处理技术,以得到更具语义的表示。然后,系统会将这个表示与已有的对话库中的文本进行比较匹配,找出与之最相似的对话内容,并根据对话库中的规则生成回复。
  对于对话库中没有的问题或者无法准确匹配的情况,Jabberwacky还可以通过机器学习算法自动学习用户输入和回复之间的关系,并不断地更新和完善自己的语言模型,以提高对话的质量和流畅度。
  Alice1995
  Alice原型
  Alice(也称为AIMLBot)是一个基于AIML(ArtificialIntelligenceMarkupLanguage)语言的聊天机器人。AIML是一种基于XML的标记语言,用于定义人工智能聊天机器人的对话逻辑和模式匹配规则,创建对话机器人。Alice最初由RichardWallace于1995年开始开发,它被认为是最早的聊天机器人之一。
  Alice的目标是模仿人类的自然语言,与用户进行有意义的对话。它可以回答关于天气、新闻、体育等各种话题的问题,还可以与用户进行有趣的聊天。Alice通过使用AIML模板来生成其回复。AIML模板是一种规则系统,它将输入文本与预先定义的模式进行匹配,并生成适当的回答。Alice还使用了一些自然语言处理(NLP)技术,例如词性标注和词义消歧,以提高其对话的准确性和流畅性。
  Alice的源代码和AIML模板是开放的,因此开发人员可以自由修改和扩展它们。Alice已经被集成到多个应用程序中,包括在线聊天室、语音助手和智能家居系统。
  Alice的技术原理主要是基于自然语言处理和机器学习技术。它的对话逻辑主要包括模式匹配和响应。模式匹配通过比较用户输入和预定义的模式来确定用户意图。响应部分则根据匹配的模式生成回答,以及在需要的时候使用机器学习算法对用户的输入进行分类和处理,以提高对话的准确性和流畅度。
  Alice还使用了基于知识库的方法来增强其回答能力。它通过收集和存储各种领域的知识和信息,从而能够回答更复杂的问题。
  预定义的模式(predefinedpatterns)是一种文本处理技术,用于从用户输入中识别出特定的语言模式并提取相关信息。在聊天机器人中,预定义的模式通常用于匹配用户提问的主题、意图或关键词,并在不需要进行复杂的自然语言处理的情况下回答问题。
  预定义的模式可以采用正则表达式、关键字匹配、语言模型等方式实现。一些聊天机器人平台提供了图形化的界面,让用户可以方便地创建自己的预定义模式。
  例如,用户提问你会做什么?时,可以使用预定义模式匹配关键字做什么,并返回一个相关的回答,如我可以回答你的问题,或者进行闲聊。预定义模式的优点是简单易用,但其局限性在于无法识别复杂的语言结构和意图。
  积累:2010年代
  在这个时期,深度学习技术的发展引领了智能聊天机器人的新发展。其中最著名的是微软的小冰和谷歌的神经对话模型(NeuralConversationalModel,简称Seq2Seq)。这些机器人使用循环神经网络(RecurrentNeuralNetwork,简称RNN)和长短时记忆网络(LongShortTermMemory,简称LSTM)等技术来学习对话语境,并生成自然语言回复。
  Siri2011
  Siri
  Siri是一款由苹果公司开发的智能语音助手,于2011年首次发布。它通过语音识别、自然语言处理、知识图谱等技术与用户进行交互,并为用户提供各种服务和功能。
  Siri的技术架构和原理是基于自然语言理解(NLU)、自然语言生成(NLG)、对话管理和知识库的结合。
  在NLU方面,Siri使用了语音识别技术将用户语音转换为文本,并使用自然语言处理(NLP)技术对用户的文本进行分析和理解。这包括识别用户的意图、识别实体(如日期、时间、地点等)以及处理语义解析和歧义消解等任务。
  在NLG方面,Siri使用了模板生成和数据驱动生成等技术,根据用户意图和知识库中的信息生成自然语言响应。
  在对话管理方面,Siri使用了一系列算法和模型来管理对话流程,包括对话状态跟踪、上下文识别、对话策略和对话生成等任务。这使得Siri能够根据用户的前几轮对话来推断用户的意图和需要,并生成相应的响应。
  在知识库方面,Siri使用了多种信息来源,包括用户设备上的数据、第三方数据和网络搜索等,以提供更丰富的答案和服务。同时,Siri还可以学习和适应用户的偏好和行为,以提供更加个性化的服务。
  MessengerBot2016
  MessengerBot是FacebookMessenger平台上的聊天机器人,允许开发者创建和部署自己的聊天机器人,与Messenger上的用户进行互动。MessengerBot基于Facebook的机器人引擎,使用自然语言处理和人工智能技术,通过文本、语音或图像与用户进行交互。
  MessengerBot可以实现许多不同的功能,例如提供用户支持、订阅最新资讯、购买商品、订阅服务、预定餐厅等。开发者可以使用Facebook提供的API和工具来构建自己的机器人,并将其集成到Messenger平台上。
  MessengerBot的优点包括:能够实现自然而易懂的对话,提供快速和个性化的服务,实现247无间断服务,节省人力成本等。随着Messenger平台的不断发展和更新,MessengerBot也不断发展和改进,成为越来越受欢迎的聊天机器人平台之一。
  MessengerBot的技术架构主要分为以下几个方面:Messenger平台:Messenger是Facebook的一个即时通讯应用程序,支持语音通话、视频通话、文本和多媒体消息发送等功能,也是MessengerBot运行的基础平台。BotEngine:BotEngine是MessengerBot的核心组件之一,它是一个机器学习框架,使用自然语言处理(NLP)技术,帮助机器人理解用户的消息,识别出用户的意图,并根据用户的需求提供相应的回复。Wit。ai:Wit。ai是Facebook的一个自然语言处理平台,它提供了一个API,允许开发人员构建和训练自己的NLP模型。MessengerBot可以使用Wit。aiAPI来构建自己的NLP模型,并通过BotEngine来应用这些模型。Webhook:Webhook是MessengerBot的另一个核心组件,它是一种HTTP回调机制,用于将MessengerBot与其他应用程序进行集成。当用户在Messenger平台上与MessengerBot进行交互时,Messenger会将用户的消息传递给MessengerBot的Webhook端点,Bot会接收到这些消息并进行处理,最后将响应返回给用户。应用程序编程接口(API):MessengerBot还提供了一组API,用于与Messenger平台进行交互,例如发送消息、设置菜单、获取用户资料等。
  其中核心模块BotEngine技术原理:训练数据:BotEngine使用大量的语料库数据来训练它的自然语言处理模型,这些数据包括用户的聊天记录、问题和回答等信息。通过对这些数据的学习,BotEngine可以识别用户的意图、提取关键信息和响应用户的请求。自然语言理解:BotEngine的自然语言理解(NLU)模块可以将用户输入的自然语言转化为计算机可以理解的语言,同时识别用户的意图和提取关键信息。例如,用户可以输入请帮我预订一张从北京到上海的机票,BotEngine可以理解用户的意图是订购机票,并从中提取出北京和上海这两个关键信息。决策树:BotEngine使用决策树来根据用户输入的意图和提取的信息来做出响应。决策树是一种基于规则的算法,通过在不同的节点上执行相应的规则来进行决策。例如,当BotEngine识别出用户的意图是预订机票并提取出了出发地和目的地信息后,它可以根据预设的规则生成相应的回复,例如好的,您需要预订从北京到上海的机票,请提供出发时间和乘客人数。机器学习:BotEngine还使用了机器学习技术来提高自然语言处理的准确性和效率。它可以通过学习用户的历史聊天记录和反馈信息来不断优化自己的模型和算法,以便更好地理解和响应用户的请求。
  GoogleDuplex2018
  GoogleDuplex是一个自然语言对话系统,其技术原理和架构包括以下几个方面:
  语音识别:GoogleDuplex首先会通过语音识别技术将用户的语音输入转换为文本。这一过程需要使用复杂的声学模型、语言模型和机器学习算法,以尽可能准确地识别用户的语音输入。
  自然语言理解:在将用户语音输入转换为文本之后,GoogleDuplex使用自然语言处理技术来理解用户的意图。这一过程包括对文本进行分词、词性标注、命名实体识别、依存句法分析等操作,以确定用户的意图和需要执行的任务。
  对话管理:GoogleDuplex使用对话管理技术来维护对话的状态,管理对话流程,并决定何时需要向用户请求更多信息。这一过程需要使用机器学习算法和决策树等技术来确定对话的下一步操作。
  自然语言生成:当GoogleDuplex需要向用户提供信息时,它会使用自然语言生成技术将计算机生成的文本转换为自然语言。这一过程需要使用文本生成模型和语言模型等技术。
  语音合成:最后,GoogleDuplex使用语音合成技术将计算机生成的文本转换为自然语言音频输出,以向用户提供信息。
  GoogleDuplex的架构可以分为前端和后端两部分。前端包括语音识别、自然语言理解和对话管理等组件,后端包括语音合成、文本生成和自然语言处理等组件。前端和后端之间通过Google的自有网络连接,以实现高效的通信和处理速度。
  爆发:2020年代
  在这个时期,基于预训练模型的技术框架成为主流。这些模型可以在大型语料库上进行训练,从而更好地理解用户意图和生成自然语言回复。这些模型包括BERT、GPT和T5等。此外,使用生成对抗网络(GenerativeAdversarialNetwork,简称GAN)的技术框架也在智能聊天机器人中得到应用。
  GPT32020
  GPT3(GenerativePretrainedTransformer3)是由OpenAI公司开发的自然语言处理模型,是目前世界上最大、最先进的预训练语言模型之一。它采用了Transformer模型架构,利用大量的语料库进行无监督学习,能够生成高质量的自然语言文本,具备极强的自然语言生成、问答、文本摘要、机器翻译等能力。
  GPT3模型具有多种不同的能力和用途,可以用于生成各种类型的自然语言文本,例如电子邮件、新闻报道、论文摘要等等。此外,它还可以用于智能客服、智能助手、智能编程等领域,为人们提供更加便捷、高效的服务。
  GPT3的架构和原理基于深度神经网络,包括了1750亿个参数,能够处理大量的语言信息,同时还具有强大的上下文感知能力和理解能力。GPT3通过对大量语料的学习,能够自动掌握语言规则、语义、语法等知识,从而生成更加准确、流畅、自然的文本。同时,GPT3还具备了一定的推理能力,能够理解上下文和语义信息,根据问题提供相应的答案,实现基于自然语言的智能对话和问答系统。
  GPT3之所以强大,是因为它采用了基于Transformer的深度学习技术,并且在训练数据和模型规模上有了显著的提升。以下是GPT3的技术原理:基于Transformer的架构:GPT3使用了基于Transformer的神经网络结构,该结构由Vaswani等人在2017年提出。相比传统的循环神经网络(RNN)或卷积神经网络(CNN),Transformer通过自注意力机制实现了对序列信息的并行处理和全局关联,大大提高了模型的效率和准确性。大规模的训练数据:GPT3的训练数据集达到了数万亿级别,这使得模型可以从大量的真实语言数据中学习到更为复杂的语言模式和规律,从而提高了模型的表现和泛化能力。自适应训练技术:GPT3在训练过程中采用了自适应学习技术,即每个样本都有不同的权重,使得模型更加关注困难和容易出错的样本,从而进一步提高了模型的准确性。零样本学习技术:GPT3在零样本学习方面也取得了重要进展,即模型可以在没有特定训练数据的情况下执行任务。这得益于GPT3的大规模预训练模式,使得模型在训练数据和任务特定数据之间建立了通用的语言模型和知识库。
  Transformer是一种基于自注意力机制(selfattention)的神经网络结构,广泛应用于自然语言处理任务中,例如机器翻译、文本分类、文本生成等。相比于传统的RNN和CNN模型,Transformer具有并行化计算、长距离依赖建模能力强等优势。
  Transformer的核心思想是自注意力机制,即在一个句子中每个词都可以依赖于其他词,并且它们的依赖关系可以根据任务进行动态调整。具体地,Transformer模型分为编码器和解码器两部分,每部分由若干个相同的模块堆叠而成。每个模块内部包含多头自注意力和前馈神经网络两个子层。
  多头自注意力层可以看作是对输入句子中的所有词进行聚合编码的过程,每个词都可以通过对其他词的关注来得到一个向量表示。在这个过程中,可以对不同的注意力头进行加权融合,使得不同的注意力机制可以学习到不同的依赖关系。
  前馈神经网络层则可以看作是一个非线性变换,将自注意力层输出的向量映射到一个新的高维向量空间中。这样可以更好地捕捉输入句子中的非线性特征,从而提高模型的性能。
  整个Transformer模型的训练过程使用了基于自注意力机制的遮盖机制,使得每个词只能看到其前面的词,从而避免了模型在训练时看到未来信息的情况。此外,还使用了残差连接和层归一化等技术来缓解梯度消失问题和加速模型收敛。
  GPT3使用了多种方法来搜集大规模的训练数据,主要来源为:网络爬虫:GPT3使用网络爬虫从互联网上搜集文本数据。它从数以亿计的网页中搜集数据,并使用语言处理技术来清理和标准化这些数据,以便在模型训练中使用。公共语料库:GPT3使用公共语料库中的数据,这些语料库通常由大学、研究机构和政府机构维护。这些语料库中包含了大量的文本数据,例如新闻文章、小说、论文等。人工创建的数据集:GPT3还使用了人工创建的数据集,例如问题答案对、断句等。这些数据集通常由众包平台上的工人创建,然后进行审核和清理,以确保数据的质量。内部数据:GPT3还使用了来自其它Google产品的数据,例如搜索查询、GoogleTranslate翻译等。这些数据可以通过Google内部的API获得。
  自适应训练技术在模型训练过程中,根据每个数据样本的难易程度和模型对该样本的表现来动态调整训练的策略和超参数,从而提高模型的泛化能力和性能。自适应训练技术的目标是使模型能够更好地适应不同类型和难度的数据,减少过拟合和欠拟合问题,并提高模型在未见过的数据上的预测准确率。
  自适应训练技术通常包括以下两种方法:CurriculumLearning(课程学习):指在训练过程中,将数据按照一定的难易程度分成不同的阶段,先训练简单的样本,逐步加入难度较高的样本。这样可以避免模型过早地陷入到局部最优解中,提高模型的泛化能力。AdaptiveLearningRates(自适应学习率):指在训练过程中,动态调整每个参数的学习率,以使模型在训练初期快速收敛,在接近收敛时逐渐降低学习率,从而防止模型在训练后期过度调整,出现震荡和不稳定现象。
  零样本学习(Zeroshotlearning)是指在没有任何训练数据的情况下,通过利用先验知识和元学习技术来完成对未知类别的分类任务。传统的分类模型只能对其训练数据中出现过的类别进行分类,而零样本学习则能够扩展模型的应用场景,使其可以处理更多的未知类别。
  零样本学习的基本思想是,通过将类别的描述信息(如属性、语义表示等)与模型进行关联,使得模型能够根据类别的描述信息来预测其对应的标签。这样一来,当模型遇到未知的类别时,只需要将该类别的描述信息输入模型,就能够得到该类别的标签。这种方法的优点是可以将模型的应用场景扩展到未知的领域,同时避免了收集大量的训练数据的成本和时间消耗。
  在自然语言处理领域中,零样本学习技术已经被广泛应用于词义消歧、句子关系判断等任务中。例如,通过学习单词的语义表示和句子的语义表示,可以将模型应用于未知的单词和句子的关系判断任务中,如判断pasta和spaghetti是否属于同一类别。同时,通过学习词语的属性信息和关系,可以将模型应用于未知词汇的情感分类任务中,如判断unicorn的情感极性。
  零样本学习技术目前仍然是一个开放的研究问题,尚有很多挑战和待解决的问题。例如如何提高模型的泛化能力、如何解决描述信息的噪声和不完整性等。
  论文推荐:AttentionIsAllYouNeedbyAshishVaswanietal。(2017)
  这篇论文介绍了一个名为Transformer的新型神经网络架构,它在翻译任务中表现出色。Transformer是目前基于预训练模型的聊天机器人中广泛使用的框架。BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstandingbyJacobDevlinetal。(2019)
  这篇论文介绍了BERT(BidirectionalEncoderRepresentationsfromTransformers)模型,它是目前自然语言处理中最为流行的预训练模型之一。BERT模型在多项自然语言处理任务中均取得了领先的结果。GPT2:LanguageModelsareUnsupervisedMultitaskLearnersbyAlecRadfordetal。(2019)
  这篇论文介绍了GPT2(GenerativePretrainedTransformer2)模型,它是一种基于Transformer的大规模语言模型。GPT2模型能够生成高质量的自然语言文本,并在多个自然语言处理任务中取得了领先的结果。DialogueResponseGenerationwithImplicitMemoryNetbyXiaodongLiuetal。(2018)
  这篇论文介绍了一种名为ImplicitMemoryNet的模型,它使用记忆网络来维护对话历史,并生成自然语言回复。这个模型在多项任务中均取得了优异的结果。DialoGPT:LargeScaleGenerativePretrainingforConversationalResponseGenerationbyWeiWuetal。(2020)
  这篇论文介绍了DialoGPT,它是一个基于GPT2的大规模对话生成模型。DialoGPT能够生成高质量的自然语言回复,并在多项对话生成任务中取得了领先的结果。

为什么有些人喝凉水都会胖?很多人都有这样的疑问为什么我喝凉水都会胖?其实,这是有原因的第一,易胖人群有贪吃基因,会比普通人吃的多,饱腹感没有普通人强。就是说,其实已经吃饱了,但是给大脑反馈的信号却是再吃一口绿色黄金牛油果的健康益处牛油果,也被称为鳄梨,是一种原产于墨西哥的独特水果。这种奶油状和黄油状的水果在世界范围内广受欢迎,并已成为许多人饮食中的主食。近年来,鳄梨因其众多的健康益处而受到称赞。在本文中,我春季养生,中老年多吃这两个黑食物,补气益肾,增强抵抗力!家人们好,我是开心,很高兴能有缘和大家相识,我将每天给家人们分享各种各样的生活美食和健康养生食谱,希望能给大家的生活带来欢乐和健康,喜欢记得关注我哦!一年之中就是春季,春季是万物生该给肚子刮刮油了,学会越吃越健康如果我们吃的东西是错误的话,那么没有医生能帮助我们。健康的身体,是一个人最大的竞争力。好好吃饭,好好睡觉。看似简单,实则是人生要事。有了健康,才有一切。生活中随处可见高脂高油食物,脑供血不足的人,脸上会有表现吗?希望你能放在心上脑梗也就是我们平时所说的脑梗死,是脑部血液循环障碍疾病,最近几年,脑梗的发病率越来越高,给人们的生命也构成了很大的威胁。血管遍布全身各处,随着年龄增长,血管也会老化,比如说血管容易人体所需维生素有哪些?从哪些食物中获取?今天围绕人体需要摄入的维生素有哪些,可以从哪些食物中获取?以及,我们可以服用复合维生素来补充维生素吗?从食物中摄取有什么区别?两个角度来分析人体摄取维生素的基本知识。废话不多说,让睡前饭后做这几个动作伤身体!4个小习惯,改掉能益寿点击右上方红色关注,及时获取我们为您推送的健康资讯说到长寿,除了天生的基因条件,剩下的主要是看你的生活习惯。吃什么怎么睡平时干什么,生活中这些日常小事,都能影响到我们的健康水平的生日本专家远离老年痴呆症五大方法可预防(下痴呆症可以预防吗?是可以预防的。可以用以下五大方法来预防1,咀嚼2,听力练习3,保持微笑4,严防动脉硬化5,加强交流日本脑外科菅原道仁医生教你具体如何使用五大方法来预防日本脑神经外大明风云人物6常遇春(上)继续为大家介绍明朝开国六王,常遇春因去世较早,被追封为开平王,并封其长子茂为郑国公。常遇春是明朝开国公认最猛的将领,但因其屠城杀降故历史评价不如徐达等将,这也可能是其短寿的原因之一古代退休金哪家强?朝廷为了让老年人退休,不惜全俸供养引言退休制度作为一项给予退休工作者晚年生活保障的制度,其发展水平不仅是社会文明层次的集中体现,也与当时的社会经济水平息息相关。中华文化源远流长,早在数千年前的商周时期,退休制度就已后世所诟病的焚书坑儒与史书记载的事实不全相符,有夸大嫌疑大家好,我是四冶读史。秦始皇后世诟病秦始皇焚书坑儒,并说被焚者是很多文献典籍,被坑者是孔孟所传授的儒家一派,这与事实不全相符。焚书坑儒是两件事,焚书和坑儒。焚的是什么书?坑的是什么
养清远鸡种英德红茶,清远农业文旅走上新路子采茶工在英德的茶园里采茶。新华社记者黄国保摄调研团在积庆里调研。英德八百秀才茶业有限公司执行董事何丰强。85后小伙罗金虎说自己鸡场的鸡苗是公司提供的,还有专业技术人员定期过来给鸡打九月想薅羊毛了?这三款数码产品学生党不容放过,全家桶安排上马上就要开启国庆黄金假期了,但现在就有不少值得入手的好物可冲,学生党想要国庆宅家玩得开开心心,那自然得趁着这次机会薅起羊毛,整点性价比高的数码产品玩玩了。下面给大家盘点三款九月值得秋天,碰到这菜别手软,一次买10斤,焯水放冰箱保存,包饺子真香导语秋天,碰到这菜别手软,一次买10斤,焯水放冰箱保存,包饺子真香!秋天,是很多人最喜欢的一个季节!因为秋天不仅气候舒适,景色宜人,还有很多的瓜果蔬菜大量上市!每到初秋时节,菜市场民生经济学的通俗表达肉包子工资和小姐网友调侃,真正民生经济学的基础概念,用几个通俗易懂的事物,就可以做到即通俗易懂,又传神的表达。基本概念释义肉包子,代表吃喝和对基本生活用品的需求,表达的是对基本物质生活的保障程度,包韭菜饺子牢记3放2不放,很多人做错,难怪饺子不鲜香又出水秋天一过,马上就是冬天了,冬天最喜欢吃的就是热腾腾的饺子了。不管外面有多么的天寒地冻,一家人围坐在一起吃一碗热腾腾的饺子,心里就会觉得十分温馨。而且最受欢迎的饺子,莫过于韭菜猪肉饺仙下龙溪龙溪村位于仙下乡西北部。东至莲塘村,南至乱石村,西至兴国九山村,北至马安乡,面积有13。9平方公里。它整村处于崇山峻岭之中,后山层峦叠嶂龙脉巍峨,村内溪水潺潺。据说它的村名还流传着被狂屠43分!三分仅15中2!库明加率领刚果男篮世预赛惨败南苏丹勇士去年的7号秀库明加最近在率领刚果男篮征战非洲区世预赛,结果不如人意。在刚刚结束的一场比赛里,刚果男篮以58101惨败南苏丹,狂输43分,这是标准的一边倒屠杀。刚果男篮的总体实力工程界诺贝尔!乌东德水电站荣膺菲迪克高度赞扬奖9月12日2022年度菲迪克工程项目奖正式揭晓金沙江乌东德水电站荣膺FIDIC高度赞扬奖作为中国水电建设的主力军国家队中国能建葛洲坝集团承担了该电站75施工份额金沙江乌东德水电站作勇士新赛季前瞻库里的巅峰期,还能维持多久?如果202223赛季,斯蒂芬库里再次率队获得总冠军(先不考虑常规赛和总决赛mvp的问题),那么他会成为现役第一人吗?至少,我的回答是肯定的。他和詹姆斯这个级别巨星的比较,到最后其实再见湖人,安东尼和詹姆斯缘分已尽,底薪都不愿意给,心实在太狠时间来到8月28日,NBA联盟还是处于休赛期,由于杜兰特和篮网队的闹剧,目前联盟中还有一部分老将没有找到工作。其中就包括湖人队旧将老甜瓜安东尼魔兽霍华德,米尔萨普考辛斯格里芬等人。贝克汉姆长子与娇妻走秀,罗圈腿太抢镜新婚夫妻对视倒是十分甜虽然离开了亲爹亲妈大卫贝克汉姆与维多利亚贝克汉姆的扶持,嫁入豪门的布鲁克林贝克汉姆的时尚资源倒是没受到啥影响,貌似比之前还好了一下。当地时间9月13日,贝克汉姆的长子布鲁克林与儿媳
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网