范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

基于深度学习的FAQ问答系统

  问答系统是信息检索的一种高级形式,能够更加准确地理解用户用自然语言提出的问题,并通过检索语料库、知识图谱或问答知识库返回简洁、准确的匹配答案。相较于搜索引擎,问答系统能更好地理解用户提问的真实意图, 进一步能更有效地满足用户的信息需求。问答系统是目前人工智能和自然语言处理领域中一个倍受关注并具有广泛发展前景的研究方向。一、引言
  问答系统处理的对象主要包括用户的问题以及答案。根据问题所属的知识领域,问答系统可分为面向限定域的问答系统、面向开放域的问答系统、以及面向常用问题集(Frequently Asked Questions, FAQ)的问答系统。依据答案来源,问答系统可分为基于结构化数据的问答系统如KBQA、基于文本的问答系统如机器阅读理解、以及基于问答对的问答系统如FAQ问答。此外,按照答案的反馈机制划分,问答系统还可以分为基于检索式的问答系统和基于生成式的问答系统。
  本文主要阐述FAQBot检索型问答系统的相关研究和处理框架,以及深度学习在其中的应用。FAQ检索型问答是根据用户的新Query去FAQ知识库找到最合适的答案并反馈给用户。如图所示:
  其中,Qi是知识库里的标准问,Ai是标准问对应的答案。
  具体处理流程为:候选集离线建好索引。采用Lucene引擎,为数万个相似问集合建立字级别倒排索引。Lucene引擎的性能能够将召回时间控制在毫秒级别,大大减轻后续模块的计算压力;线上收到用户 query 后,初步召回一批候选集作为粗排结果传入下一模块进行进一步精确排序;利用matching模型计算用户query和FAQ知识库中问题或答案的匹配程度;利用ranking 模型对候选集做 rerank 并返回 topk个候选答案。
  可以看出,FAQ问答系统的核心任务可以抽象为文本匹配任务。传统文本匹配方法如信息检索中的BM25,向量空间模型VSM等方法,主要解决字面相似度问题。然而由于中文含义的丰富性,通常很难直接根据关键字匹配或者基于机器学习的浅层模型来确定两个句子之间的语义相似度。近几年,利用神经网络,尤其是深度学习模型学习文本中深层的语义特征,对文本做语义表示后进行语义匹配的方法开始被提出并应用于检索式问答系统。基于深度学习的模型一方面能够节省人工提取特征的大量人力物力。此外,相比于传统方法,深度文本匹配模型能够从大量的样本中自动提取出词语之间的关系,并能结合短语匹配中的结构信息和文本匹配的层次化特性,发掘传统模型很难发掘的隐含在大量数据中含义不明显的特征,更精细地描述文本匹配问题。二、深度学习文本匹配
  FAQ问答系统一般有两种解决思路,一种是相似问题匹配,即对比用户问题与现有FAQ知识库中问题的相似度,返回用户问题对应的最准确的答案,这种思路类似于text paraphrase;另一种是问题答案对匹配,即对比用户问题与FAQ知识库中答案的匹配度,返回用户问题对应的最准确的答案,这种思路为答案选择,即QA匹配。这两个类型相通的地方在于都可以看作文本语义匹配,很多模型能同时在两个任务上都得到很好的效果,区别在于QA匹配存在问题与答案不同质的问题。
  下面总结一些基于深度学习的文本匹配工作,希望能够抛砖引玉,如有遗漏或错误,欢迎补充或指出。
  2.1 模型框架
  概括来讲,深度语义匹配模型可以分为两大类,分别是representation-based method 和 interaction-based method。
  1) Represention-based Method
  框架图如下:
  这类算法首先将待匹配的两个对象通过深度学习模型进行表示,之后计算这两个表示之间的相似度便可输出两个对象的匹配度。这种方式下,更加侧重对表示层的构建,使其尽可能充分地将待匹配的两个对象都转换成等长的语义表示向量。然后在两个对象对应的两个语义表示向量基础上,进行匹配度的计算。针对匹配度函数f(x,y)的计算,通常有两种方法,如下图所示:一种是通过相似度度量函数进行计算,实际使用过程中最常用的就是 cosine 函数,这种方式简单高效,并且得分区间可控意义明确;另一种方法是将两个向量再接一个多层感知器网络(MLP),通过数据去训练拟合出一个匹配度得分,更加灵活拟合能力更强,但对训练的要求也更高。
  Represention-based Extended
  上述的representation-based method存在的问题是直接基于句子的表示太粗糙,无法准确进行文本匹配任务。受信息检索领域的启发,结合主题级别和单词级别的匹配信息通常可以获得更好的表现。于是进一步对句子表示进行扩展,加入细粒度匹配信息。框架图如下:
  2) Interaction-based Method
  框架图如下:
  基于交互的方法是通过Interaction来对文本相似性建模。该方式更强调待匹配的两个句子得到更充分的交互,以及交互后的匹配。在表示层不会将句子转换成一个整体表示向量,一般情况下会保留和词位置相对应的一组表示向量。首先基于表示层采用DNN或直接由word embedding得到的句子表示,和词位置对应的每个向量体现了以本词语为核心的一定的全局信息;然后对两个句子按词对应交互,由此构建两段文本之间的 matching pattern,这里面包括了更细致更局部的文本交互信息;基于该匹配矩阵,可以进一步使用DNN等来提取更高层次的匹配特征,最后计算得到最终匹配得分。Interaction-based 方法匹配建模更加细致、充分,一般来说效果更好,但计算成本增加,更加适合一些效果精度要求高但对计算性能要求不高的场景。
  下面总结了不同类型的深度学习文本匹配模型。可以看出,深度文本匹配现有工作很多,本文将对近几年的部分工作进行详细介绍,其他可参考对应文献进行深入阅读。representation-based:DSSM[1]; CDSSM[2]; ARC I[3]; CNTN[4]; LSTM-RNN[5]representation-based extension:MultiGranCNN[6]; MV-LSTM[7]interaction-based:ARC II[8]; MatchPyramid[9]; Match-SRNN[10]; DeepMatch[11]; ABCNN[12]; QA-LSTM/CNN-attention[13,14]; AP[15]; AICNN[16]; MVFNN[17]; BiMPM[18]; DQI[22]; DIIN[23]
  2.2 模型介绍
  2.2.1 ABCNN[12]
  首先介绍BCNN,它是ABCNN模型的基础,即未添加Attention的模型。模型结构如图所示:
  输入层:将输入句子进行padding后转化成词向量即可;
  卷积层:对句子表示进行卷积,使用wide conv的方式;
  pooling层:论文中使用了两种pooling方式,一种是最后一个pooling层为all-ap,还有一种是中间pooling层为w-ap。区别就是池化时的窗口大小不同;
  输出层:接logistic 回归层做2分类。
  ABCNN是在BCNN的基础上加了两种attention机制。模型结果如下图:
  (1)在输入层加入attention
  其原理为将输入拓展成双通道。新添加的通道是attention feature map,即上图中的蓝色部分。首先计算attention matrix A,其每个元素Aij代表句子1中第i个单词对句子二中第j个单词的match_score,这里使用了Euclidean距离计算。然后再分别计算两个句子的attention feature map。使用两个矩阵W0,W1分别和A还有 A的转置相乘,得到与原本feature尺寸相同的feature map。W0和W1都是模型参数,可以使用相同的W,即共享两个矩阵。这样我们就将原始的输入拓展成了两个通道。
  (2)在pooling层加入attention
  Attention matrix A的计算方法与上述相同,得到A后需要为两个句子分别计算attention权重向量,如上图中的两个虚线部分col-wise sum和row-wise sum。这两个向量中的每个元素分别代表了相应单词在做Average Pooling时的权重。相当于pooling不再是简单的Average Pooling,而是根据计算出的Attention权重向量得到的pooling。
  2.2.2LSTM/CNN,attention[13,14]
  给定一个(q,a)pair,q是问题,a是候选答案。首先得到它们的词向量,再使用biLSTM进行encoder,生成问题和答案的分布式表示,然后利用余弦相似度来衡量它们的距离。训练目标是hinge loss。
  在biLSTM表示输出的基础上进一步使用CNN,CNN可以获取biLSTM输出的向量之间的局部信息。从而给出问题和答案的更多复合表示。
  当biLSTM模型在问题和答案上长距离传播依赖关系时,隐藏向量的固定宽度成为瓶颈。通过动态调整问题答案的更多信息部分,可以使用注意力机制来缓解这种弱点。在max/mean pooling前,每个biLSTM输出向量将乘以softmax权重,该权重由biLSTM的问题嵌入得到。
  2.2.3 Attentive Pooling Networks[15]
  QA_LSTM with attention中attention的设计是通过问题对答案的影响进行特征加权,但是它忽略了答案对问题的影响。Attentive pooling networks同时将attention应用到问题和答案,提高算法的准确率。通过同时学习两种输入的表示以及它们之间的相似性测量,其创新点在于将Q和A这两个输入通过参数矩阵U投射到一个共同的表示空间,用Q和A的representation构造了一个矩阵G,分别对G的row和column做max pooling, 这样就能分别能得到Q和A的attention vector。AP_BILSTM模型框架图如下:
  AP_BILSTM模型的设计首先将问题和答案经过BILSTM抽取特征,然后通过两者的特征计算soft alignment,得到的G矩阵表示了问题和答案相互作用的结果。对该矩阵的列取最大,即为答案对问题的重要性得分,同理对该矩阵行取最大即为问题对答案的重要性得分。这两个向量再作为attention向量分别和问题和答案表示相乘后得到问题和答案新的表示,最后再做匹配。
  2.2.4 AICNN[16]
  之前关于答案选择的研究通常忽略了数据中普遍存在的冗余和噪声问题。 在本文中,设计一种新颖的注意力交互式神经网络(AI-NN),以专注于那些有助于回答选择的文本片段。 问题答案的表示首先通过卷积神经网络(CNN)或其他神经网络架构来学习。然后AI-NN学习两个文本的每个配对片段的相互作用。 之后使用逐行和逐列池化来收集交互信息。之后采用注意机制来衡量每个细分的重要性,并结合相互作用来获得问答的固定长度表示。 模型框架图如下:
  2.2.5 MVFNN[17]
  上述基于神经网络的方法通过计算注意力来考虑信息的几个不同方面。 这些不同类型的注意力总是简单地总结并且可以被视为"单一视图",不能从多个方面来审视问题和候选答案,导致严重的信息丢失。 要克服这个问题,此模型提出了一种多视图融合神经网络,其中每个关注组件生成QA对的不同"视图",并且融合QA本身的特征表示以形成更整体的表示。模型框架图如下:
  对于一个问题,可能会有一堆视图来模拟其相应的答案。 在此模型中,根据直觉构建了四个视图。 这四个视图被命名为查询类型视图,查询主动词视图,查询语义视图和co-attention视图。最后使用fusion RNN模型来对这些视图进行融合。通过不同视图的融合,能对两个对象进行更准确的建模。
  2.2.6 BiMPM[18]
  针对基于交互这一类方法,一般是先对两个句子的单元相互匹配,之后再聚集为一个向量后做匹配。这种方式可以捕捉到两个句子之间的交互特征,但是之前的方式只是基于词级别的匹配但是忽略了其他层级的信息。此外,匹配只是基于一个方向忽略了相反的方向。一种双向的多角度匹配模型bilateral multi-perspective matching(BiMPM)解决了这方面的不足。模型框架如下图:
  模型自下而上一共包含五层,分别为单词表示层、上下文表示层、匹配层、聚合层和预测层,其中匹配层为模型的核心,共提出了四种匹配策略,这里的匹配可以看成是attention机制。
  单词表示层:使用GloVe模型训练向量,对字符embedding进行随机初始化,单词中的字符组成单词的向量表示作为LSTM网络的输入。
  上下文表示层:使用BiLSTM对p和q进行表示。
  匹配层:模型的核心层,包含四种匹配策略,分别是:Full-Matching、Maxpooling-Matching、Attentive-Matching和 Max-Attentive-Matching。四种匹配策略如下图:
  聚合层:利用BiLSTM对匹配层的输出向量进行处理,取得p、q前向和后向最后一个time step的输出进行连接后输入到预测层。
  预测层:softmax层,softmax函数分类。
  上述是对近几年部分深度文本匹配模型的总结,接下来则介绍基于深度模型的FAQBot。
  三、基于深度学习的FAQBot实现
  3.1 模型化流程
  3.2 数据获取及构造
  3.2.1 数据获取
  对于有大量问答记录的场景例如智能客服,这些记录里面有很多高频的知识点(知识点包括问题和答案)。这些高频的知识点对应的问法通常并不唯一。即知识库的结构为一个问题集合对应同一个答案。针对FAQ数据有以下三种数据类型:标准问q:FAQ中问题的标准用户query答案A: FAQ中标准问对应的的标准回答相似问q1,q2...: 跟标准问语义相似可用同一答案回答的query
  其中,标准问q、对应答案A以及该标准问q对应的所有相似问q1,q2,...,一起组成一个知识点。一个知识点的样例见下图:
  3.2.2 数据构造
  数据构造包含了两个方面:
  (1)训练集测试集构造
  测试集:将相似问中的第一条相似问q1作为query,从FAQ知识库的所有知识点中通过Lucene召回30个知识点作为候选集
  训练集:包含两部分,一部分是正例的构造,另一部分是负例的构造,这两部分数据的构造方式将直接影响到最终的效果。在正例的构造中,因为每个知识点的第一个相似问是作为测试集中出现的,所以在构造训练集的时候排除掉所有知识点中的第一条相似问q1。这样的话,有多于2个相似问的知识点还有多于的其他相似问可以用来构造训练集。将这些识点中的标准问和从相似问的第二条开始(即[q2,q3,...,qn])可以按照不同方式构造出正例和负例。
  训练集正例的构造:去除所有知识点中的第一条相似问q1,其他相似问及标准问两两组合成正例pair对;对于相似问多的知识点进行剪切。
  训练集负例的构造的方式包括:按Jaccard距离召回;按Lucene召回;从其他知识点中随机选择;按照正例中各问题出现的比例从其他知识点中采样选择;每个句子和句子中的名词/动词构成pair对;针对知识点分布不均衡的问题,对相似问很多的知识点进行相似问剪切。
  (2)数据增强策略
  由于深度学习需要较多的数据,为了增强数据,我们采用了以下策略:交换两个句子之间的顺序;对句子进行分词,重新组合生成新的句子;打乱句子的顺序,随机抽取句子。
  3.3 模型建立
  3.3.1 模型框架
  基本框架一般都是将待匹配的两个句子分别使用两个encoder来获取对应context信息,然后将二者的context信息进行匹配,得到匹配后的特征信息。也可以在匹配之后的特征后面加上一些其他的传统文本特征,将所有这些特征进行concat。最后接上softmax层,做最终的分类。模型的框架如下图所示:
  3.3.2 模型建立及迭代优化
  Embedding层:使用word2vec和fasttext训练词向量和字符向量。
  Encoder层:卷积具有局部特征提取的功能, 所以可用 CNN 来提取句子中类似 n-gram 的关键信息,考虑文本的上下文信息。于是我们采用textCNN[19]来对句子进行编码表示,encoder过程见下图:
  Matching层:在得到两个句子的表示后,要针对两个句子的表示进行matching操作。可以根据需要构造出很多种类型的matching方式如下图[20],我们采用相对比较简单的element-wise相加和相乘的方式来进行matching。
  join层:在matching层之后得到的两个句子的共同表示之后,进一步引入额外的传统特征进行join操作,类似于下图[21]。
  引入interaction:上述步骤对两个句子encoder时没有考虑两个句子之间的关联。于是进一步引入更细致更局部的句子交互信息,从而能捕捉到两个句子之间的交互特征,根据交互得到的矩阵获取两个句子新的表示。如图:
  引入attention机制:采用注意机制使用权重向量来衡量句子不同部分重要性的不同。attention的计算主要思想沿用了AICNN和ABCNN中的几种attention,分别是feature的attention,interaction后新的表示和句子原表示之间的attention。四、总结与展望
  4.1 数据层面建立更加合理的知识库:每个知识点只包含一个意图,且知识点之间没有交叉,歧义,冗余等容易造成混淆的因素标注:为每个FAQ积累一定数量的有代表性的相似问后期的持续维护:包括新FAQ发现,原FAQ的合并、拆分、纠正等
  4.2 模型层面进一步捕捉syntactic level和semantic level的知识如语义角色标注(SRL, semantic role labelling)和词性标注(POS, part of speech tagging)等,引入到文本的表示之中,提高文本语义匹配的效果目前大部分检索行问答的工作做的是问题和问题匹配,或是问题和答案匹配。后续可以同时引入问题和答案的信息进行建模,如图:
  参考文献
  [1] Huang P S, He X, Gao J, et al. Learning deep structured semantic models for web search using clickthrough data[C]// ACM International Conference on Conference on Information & Knowledge Management. ACM, 2013:2333-2338.
  [2] Shen Y, He X, Gao J, et al. A Latent Semantic Model with Convolutional-Pooling Structure for Information Retrieval[C]// Acm International Conference on Conference on Information & Knowledge Management. ACM, 2014:101-110.
  [3] Hu B, Lu Z, Li H, et al. Convolutional Neural Network Architectures for Matching Natural Language Sentences[J]. Advances in Neural Information Processing Systems, 2015, 3:2042-2050.
  [4] Qiu X, Huang X. Convolutional neural tensor network architecture for community-based question answering[C]// International Conference on Artificial Intelligence. AAAI Press, 2015:1305-1311.
  [5] Palangi H, Deng L, Shen Y, et al. Deep Sentence Embedding Using Long Short-Term Memory Networks: Analysis and Application to Information Retrieval[J]. IEEE/ACM Transactions on Audio Speech & Language Processing, 2016, 24(4):694-707.
  [6] Yin W, Schütze H. MultiGranCNN: An Architecture for General Matching of Text Chunks on Multiple Levels of Granularity[C]// Meeting of the Association for Computational Linguistics and the, International Joint Conference on Natural Language Processing. 2015:63-73.
  [7] Wan S, Lan Y, Guo J, et al. A Deep Architecture for Semantic Matching with Multiple Positional Sentence Representations[J]. 2015:2835-2841.
  [8] Hu B, Lu Z, Li H, et al. Convolutional Neural Network Architectures for Matching Natural Language Sentences[J]. Advances in Neural Information Processing Systems, 2015, 3:2042-2050.
  [9] Pang L, Lan Y, Guo J, et al. Text Matching as Image Recognition[J]. 2016.
  [10] Wan S, Lan Y, Xu J, et al. Match-SRNN: Modeling the Recursive Matching Structure with Spatial RNN[J]. Computers & Graphics, 2016, 28(5):731-745.
  [11] Lu Z, Li H. A deep architecture for matching short texts[C]// International Conference on Neural Information Processing Systems. Curran Associates Inc. 2013:1367-1375.
  [12] Yin W, Schütze H, Xiang B, et al. ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs[J]. Computer Science, 2015.
  [13] Tan M, Santos C D, Xiang B, et al. LSTM-based Deep Learning Models for Non-factoid Answer Selection[J]. Computer Science, 2015.
  [14] Tan M, Santos C D, Xiang B, et al. Improved Representation Learning for Question Answer Matching[C]// Meeting of the Association for Computational Linguistics. 2016:464-473.
  [15] Santos C D, Tan M, Xiang B, et al. Attentive Pooling Networks[J]. 2016.
  [16] X Zhang , S Li , L Sha , H Wang. Attentive Interactive Neural Networks for Answer Selection in Community Question Answering[C]// International Conference on Artificial Intelligence.
  [17] L Sha , X Zhang , F Qian , B Chang , Z Sui. A Multi-View Fusion Neural Network for Answer Selection[C]// International Conference on Artificial Intelligence.
  [18] Wang Z, Hamza W, Florian R. Bilateral Multi-Perspective Matching for Natural Language Sentences[C]// Twenty-Sixth International Joint Conference on Artificial Intelligence. 2017:4144-4150.
  [19] Kim Y. Convolutional Neural Networks for Sentence Classification[J]. Eprint Arxiv, 2014.
  [20] Wang S, Jiang J. A Compare-Aggregate Model for Matching Text Sequences[J]. 2016.
  [21] Severyn A, Moschitti A. Learning to Rank Short Text Pairs with Convolutional Deep Neural Networks[C]// The International ACM SIGIR Conference. ACM, 2015:373-382.
  [22] Xiaodong Zhang, Xu Sun, Houfeng Wang. Duplicate Question Identification by Integrating FrameNet with Neural Networks[C]//In the Thirty-Second AAAI Conference on Artificial Intelligence (AAAI-18)
  [23] Gong Y, Luo H, Zhang J. Natural Language Inference over Interaction Space[J]. 2018.

周小川澄清数字人民币误解不是想取代第三方支付IT之家5月22日消息2021清华五道口全球金融论坛今日召开。中国金融学会会长,清华大学五道口金融学院名誉院长周小川出席并发表演讲。周小川表示,支付系统现代化是隔一段时间迈一个台阶买千元手机不要盲目跟风,5月这4部千元机值得买,你买了哪部?或许很多人对价格便宜的手机并没有什么好感,总觉得没啥好货,用个一两年就会变卡顿。随着手机的不断发展,你们现在还是这样的认知么?你是时候改变一下看法和观念了,你看一下现在的千元手机,比特币在我国违法吗?我国法律上对于比特币有哪些规定?法律法规不支持比特币公开交易,这就反映了法律对比特币不支持的态度。其实内在逻辑很简单,比特币的问题就是一个货币铸造权问题,从古至今私人铸币都不可能合法从国家金融管理的层面上讲,如果人类诞生有200多万年了,为何不是该感染的病毒都感染过了,该有的抗体都有了呢?人类社会在发展更新,病毒同样在发展更新,所以不是什么该感染的病毒都感染过了,而是远远没感受到,除了简单抗体。另外,除了自然界尚有许多未知病毒,人类自己还在制造各种病毒,而这些被研究华为手机是荣耀系列更好,还是V系列更好?华为,华为荣耀每个系列的定位都不一样,其中荣耀的数字系列和V系列被称为华为手机的次旗舰。这些手机型号的定位和面对消费人群不一样。不止华为,其他手机厂商也是如此。华为荣耀数字系列和V你们讨厌接微信语音电话吗?结论我很讨厌微信语音电话!理由1利用微信语音打电话的人,他表现的是对他人的一种不尊重。通电话不是微信的主要功能,只是种它的一项副属拓展而已。在特定的时候,偶尔玩下,替代下,说白了,微信聊天语音记录会在腾讯服务器保存多久?微信的文字和语音聊天记录都是保存在手机本地的。你用一段时间微信就会发现微信的体积越来越大,有好几个G,这全部都是微信的聊天记录。微信所有的聊天记录都是通过腾讯的服务器进行缓存的。以AppleID被盗,MacBookAir被恶意锁定,官方拒绝解锁,近万元设备变板砖,怎么办?能破解你的id密码,密保也能破解?忘记密码邮箱你不会再修改密码的?真实情况是你捡来电脑,电脑被主人锁定了吧拒绝解锁,说明你没有提供合理的能证明这台设备属于你的证据,官方凭什么给你解江苏建首条双向8车道高速,全长38。5公里,模式为5G公路大家都知道我们中国一直被称作是基建狂魔,不仅在于各项工程建设之多,还在于工程建设的速度之快,并且在建设之中也是运用更多的中国先进的技术手段,所以在中国各项基础建设都变得相对完善的现现在笔记本的淘汰速度快吗?谢谢邀请,我是老黑,很高兴为您解答。许多人还在用五年前的ThinkPad,七八年前的惠普。在处理器内存不升级的情况下,换个固态硬盘,装个Windows10LTSC,就能满血复活。在中国联通和中国电信会和并成一个公司吗?在刚刚过去的2018年12月,三大运营商为了冲业绩也是持续发力,使2018年最后一个月完美收官。从公布的数据得知,在2018年12月,中国移动的移动用户净增客户296万,总数达到9
手机泄密被窃听!关机状态下,可被远程遥控打开手机存在的泄密隐患1。手机是开放的通信系统,通信信息随时可被截获,还会被跟踪定位。2。关机状态下可被远程遥控打开,泄露一定距离内的声音。3。旧手机中的信息删除后,通过技术手段可恢复稀土集中度趋势利于价值回归下游三大风口带来更多需求每经记者胥帅每经记者胥帅每经编辑陈俊杰2020年的新材料风口,稀土是无法绕开的品种。新能源汽车风电工业机器人这些都是新经济发展的风口。先看新能源汽车,锂电池是新能源汽车的左心房,电AI语音技术让机器人更会说话普强信息让智能交互更真实更有温度您好,这里是银行卡挂失中心,请问有什么可以帮到您?电话中传来的清晰文明规范的声音也许不是出自于一个专业的客服人员,而是来自普强信息技术(北京)有限公司(以下简称普强信息)研发的人工人类工业文明已经走到了尽头没有道德制约的文明最终将引导人类走进黑暗。科技越发展人类就会越来越局限。局限于发明和技术。网络发展了,貌似人们会更幸福,因为科技进步了,然而资本家剥削的手段却更隐蔽,更有效,更有利腾讯最新通知限时来源新晚报12月25日腾讯游戏发布消息关于元旦假期未成年人游戏限玩的通知结合关于进一步严格管理切实防止未成年人沉迷网络游戏的通知与实际放假调休安排,2022年元旦假期前后,腾讯游戏今日热点知乎回应在港二次上市百度元宇宙ampampquot希壤ampampquot选定英伟达12022年春运1月17日开始,预计客流量较去年增长超1倍2022年春运将从1月17日开始,到2月25日结束,共40天。交通运输部运输服务司司长蔡团结在今天的国新办发布会上介绍,据Gartner最新报告阿里云蝉联全球数据库领导者地位12月27日,国际权威机构Gartner日前公布2021年度全球云数据库魔力象限评估结果,作为中国科技公司代表,阿里云连续第二年入选领导者(LEADERS)象限,数据库综合实力稳居Log4j严重漏洞修最新复方案参考CVE202144228,原理上是log4jcore代码中的JNDI注入漏洞。这个漏洞可以直接导致服务器被入侵,而且由于日志场景的特性,攻击数据可以多层传导,甚至可以威胁到纯内网的CPU的电路是怎么画出来的?一百多亿晶体管数数也得半辈子啊?芯片设计完整流程,精简为以下步骤就是1。芯片规格指标制定,划分功能模块2。分模块用硬件描述语言verilogvhdl,进行硬件描述。或者采购已有的IP,加快设计进度3。验证人员对各把人生比喻成只有一句话的故事,你会如何去描述它?你是如何理解这句话的?人生就是在做题,有时是在做问答题,有时是在做选择题,最无奈的是,很多时候是在做判断题。其实在讨论一个人的人生时,我们往往给成功者加上许多的光环,但我觉得除了自身的努力与能力之外,每到底什么是雷电接口,这个接口有什么用?文小伊评科技首先我们要弄懂什么是雷电接口。其实雷电本质上和咱们常见的HDMI,DP等一样是一种传输协议的简称,全程英文名叫做Thunderbolt。请注意与其说他是一个接口倒不如说