本文将来了解知乎这家公司的算法思路和应用,且详细介绍了知乎算法是如何通过识别垃圾广告导流信息,处理人身攻击类内容,或是识别答非所问等方面来维护平台氛围和内容质量的,其中不少思路值得业内工程师们借鉴。enjoy 你有没有过这种体验?标题挺吸引人,点进去看是广告,刚想评论心仪文章,评论区已经被喷子占领。类似这样的不良社区氛围非常伤害大家的阅读体验。例如美团收购摩拜的事件,一篇贩卖焦虑的文章《摩拜创始人套现15亿背后,你的同龄人,正在抛弃你》扫荡了朋友圈,但同样的事件,在知乎上“怎么看待美团收购摩拜”的问题下,高赞回答都是客观理性的分析,读者在评论区的互动也异常活跃却不是对立攻击。 为什么知乎上还能有这样的理性讨论?客观、理性和专业的用户、回答者是关键,而用户愿意在知乎而非其他平台客观讨论的基础,则是其社区环境、崇尚专业和友善的氛围所决定的,这也正是知乎对比其他平台的最大优势之一。 随着AI时代来临,算法被广泛用于内容推荐和广告变现上,算法推荐对内容氛围的破坏正在引发业界担忧和反思。近期,快手和今日头条就因为“算法应当有怎样的价值观”而广受舆论关注,4月9日下午,今日头条等四款应用遭遇全网下架处理。 同样是算法,全行业都在研究用户喜好,拼命推荐内容,而知乎似乎更关注内容生产的本身,将算法大规模应用于社区氛围的管理,以生产出有价值和对用户有帮助的内容。知乎通过开发“悟空”、“瓦力”等算法机器人7X24小时管理社区氛围,譬如,“瓦力”每天处理内容近万条,对于举报上来的不友善内容,0。3秒内进行处理。这个速度在整个行业都是名列前茅的。 知乎也决心加强技术能力的建设,在技术圈,今年知乎大力招募算法人才的消息已经不胫而走,明显已开始发力。而知乎在大众和互联网圈的品牌效应也是惊人,身边不少技术朋友表现出了兴趣。下面我们可以从知乎技术团队发布的专栏了解下这家公司的算法思路和应用,这几篇文章详细介绍了知乎算法是如何通过识别垃圾广告导流信息,处理人身攻击类内容,或是识别答非所问等方面来维护平台氛围和内容质量的,其中不少思路值得业内工程师们借鉴。(以下内容知乎技术授权“吴怼怼”发布,如有不妥之处欢迎指正讨论) 以下为Quote: 算法在社区氛围的应用(一):识别垃圾广告导流信息 近期,我们发现社区内出现了垃圾广告的导流内容,影响用户体验,破坏认真、专业和友善的社区氛围。为了解决这种情况,我们进行了大量努力和探索。最开始在识别导流信息上采用的是干扰转换正则匹配匹配项回溯的方式进行异常导流信息的识别与控制,取得了很好的效果。 但是我们发现,随着我们处理这些内容的同时,他们正在逐步增加导流信息的各种变体,常见的有以下几种方式:第一种变体是导流前缀的变化,如QQ导流前缀变化成企鹅,腾顺等等;第二变体是不使用前缀,如退款123377281;第三种变体是导流中随机插入非特殊字符,如319xxxx053xxxx7178。我们对这些变体进行了收集整理和分析。 通过对典型导流样本的分析,我们发现尽管导流信息变体在不断演化,但是它们所在的上下文变化并不明显。因此,我们尝试通过序列标注的方式来识别导流内容,提高算法的识别准确度。 模型 常用的序列标注算法,有HMM、CRF、RNN、BILSTMCRF等。BILSTMCRF在多个自然语言序列标注问题(NER、POS)上都表现优秀,同时,通过实验,我们也发现BILSTMCRF表现优于其他模型。 网络结构 BILSTMCRF模型结构如下图所示: 第一层为Embedding层,将输入文本转换为词向量表示。 第二层为双向LSTM层。LSTM具有强大的序列建模能力,能够捕捉长远的上下文信息,同时还拥有神经网络拟合非线性的能力。相比单向的LSTM,双向LSTM不仅能够利用以前的上下文信息,还能利用未来的上下文信息。 第三层为一个全连接层。作用是将上一层的输出,映射为〔T,C〕的向量,T为输入序列长度,C为标签数量。输出的也就是每个timestep对应的状态score。 最后一层为linearchainCRF层。CRF计算的是一种联合概率,优化的是整个序列(最终目标),而不是将每个时刻的最优拼接起来。在CRF层,使用viterbi解码算法从状态score和转移矩阵中解码得到输出状态序列。 BILSTMCRF模型同时结合了LSTM和CRF的优点,使得其在序列标注任务上具有极强的优势。 CRF 从上述网络结构,可知要优化的目标函数由最后一层决定。 通常给定一个线性链条件随机场,当观测序列为时, 标签序列为的概率可写为 其中,Z(x)为归一化函数,对所有可能的标签序列求和。 是特征函数,通常考虑转移特征和状态特征两方面。状态特征描述标签之间的相似程度,是上一层网络的输出。 转移特征考虑状态之间的变化趋势 在模型的概率给出之后,可以使用最大似然估计优化参数,即最小化负对数似然logP(yx),从而得到整个网络的lossfunction。 是否包含前后缀? 训练模型之前,我们需要标记训练数据。 标记训练数据的一个问题是,是否要包含导流信息的前后缀。如加V:xxxxxx,是否需要包含加V。通常情况下,答案应该是不包含,因为我们的实体是微信号,加V不属于我们要识别的实体。 但是,我们在实验过程中发现,如果不加前后缀,模型会把大量的英文单词,或者字母数字组合,标记为导流内容。原因是,作为中文社区,英文单词出现频率很低,同时大部分导流信息都是字母数字组合,从而使得模型出现错误。 针对这种情况,我们在处理数据时,将导流信息的前后缀也作为实体的一部分,有效的降低了上述问题出现的概率。 实体编码 序列标注模型另一个需要注意的问题是,实体编码的格式。常用的序列实体编码方式有IO、BIO、BMEWO三种。 IO编码是最简单的编码,它将属于类型X的实体的序列元素标记为IX,不属于任何实体的序列元素标记为O。这种编码存在缺陷,因为它不能代表彼此相邻的两个实体,因为没有边界标签。 BIO编码是当前实体编码的行业标准。它将表示实体的IX标签细分为实体开始标签BX和实体延续标签IX。 BMEWO编码进一步区分实体结束元素EX和实体中间元素令MX,并为单元素实体添加一个全新的标签WX。 上述三种编码的示例,如下所示: 综合考虑,我们选择BIO编码,一是满足我们对于导流信息的区分,二是其标记方式相对通用。 效果 在实验阶段,分别将HMM、BILSTM、BIGRU、BILSTMCRF做了一系列的对比,将表现比较好的BILSTMCRF放在线上与原本的Base模型进行AB实验。从结果上来看,宽深度学习模型在线下线上都有比较好的效果。线上实验结论如下: 后续的改进 为了提高模型的效果,我们需要使用更多的训练数据,构造更复杂的网络结构,使用更多的超参数设置训练模型。然而,不断增加的模型尺寸和超参数极大地延长了训练时间。很明显,计算能力已经成为了模型优化的主要瓶颈。相比CNN和Attention等操作,LSTM仍然不太适应多线程GPU计算,训练速度偏慢,不能充分利用GPU的并行计算优势。因此,我们还在尝试SRU等RNN加速方案,希望在模型效果损失不大的情况下,提高模型的训练速度。 我们当前采用的是Charbasedmodel,Charbasedmodel在一个优势在于利用词元(lemmas)和形态学信息(morphologicalinformation),能更好的处理导流内容内部结构,如手机号的组成。另一方面,Wordbasedmodel更多的利用词语信息,词语比字具有更高的抽象等级,通常正确率会更高。我们希望通过训练一个新的分词模型的方式,使得在保持处理导流内容内部结构的情况下,构建Wordbasedmodel。 算法在社区氛围的应用(二):深度学习在不友善文本识别中的应用 此前,我们常常收到知友们的反馈说好烦哦,TA又不友善了、我要举报XX,TA在评论区又开始杠上了、这种辱骂他人的人,你们都不处理吗?等等。今年年初,我们开始尝试用深度学习算法辅助审核人员处理不友善问题,经过近三个月的探索和尝试,目前该算法第一版已经上线,并且取得相对不错的效果。 知乎不友善文本识别应用的场景和策略 目前,瓦力识别不友善的算法已经应用在知友们的举报和社区实时产生的内容中。针对这两种内容的不同场景和特点,我们采用了不同的处理策略: 举报内容的处理策略 瓦力有效地提升了我们的举报处理效率和响应速度。目前,我们每天约收到知友们近25,000条举报。在这些举报中,大约有7,000条是关于不友善的内容。模型训练阶段,我们利用经过人工标注的举报内容进行模型训练。线上预测阶段,如果模型预测某条内容属于不友善的概率x大于阈值pabuse,瓦力会在0。3秒间完成判断并直接删除,内容被处理后,知友们也会收到相应的私信通知;如果模型预测该内容属于非不友善类型的概率x大于阈值pfriend,则认为该内容属于非不友善内容,那么该举报会被忽略;不满足以上条件的内容,我们会进行多次人工审核判断,人工审核后的判断标准也会用于下一轮模型的迭代和升级。 我们重视每一个举报,并根据举报内容增强瓦力可识别的范围和准确度,还会每日人工复核知友们的举报,针对可能存在不同处理意见的举报,会根据规范与实际的应用场景多次复审。在这里,我们也非常感谢知友们的每一次举报,感谢大家与我们一起并肩维护社区氛围,我们也正是在知友们的举报中逐渐形成统一的判断标准。 全量内容的处理策略 我们会对每天新产生的内容进行全量审核,每天可以实时拦截处理3,000条内容。在实际的操作过程中,我们发现全量内容有如下两个特点使其不能跟举报内容共用模型和策略: 不友善样本和非不友善样本分布非常不均衡; 词语分布和举报内容有区别。比如,举报内容中包含SB、NC之类的脏词的基本属于不友善类型;但是在全量内容中脏字、脏词可能出现在影视作品讨论、陈述自己的经历等场景等非不友善内容中,例如:坑到你头皮发麻。《鲁班智商二百五》 由于数据不均衡、数据排查标注成本较高和上述数据的分布特点,全量内容模型要做到准确率98以上非常困难,因此我们根据人工审核量,选择一个适宜的阈值,在保证每天召回量的基础上,维持召回内容的处理准确率到80以上,并将召回的内容进行人工审核。 知乎社区不友善文本识别系统基本框架 目前,不友善内容处理系统架构如下图所示(以知友举报内容识别识别系统为例,全量内容识别系统与其类似) 不友善内容处理系统框图 我们在选择模型时在小批量数据集上对比了lstm模型、svm和朴素贝叶斯模型,lstm模型表现最好,因此我们的模型优化工作主要集中在深度学习模型上。 词向量 将词用词向量表示是深度学习模型处理NLP问题的关键一步,我们的系统中使用Google提出的word2vec词向量模型,训练数据采用来自知乎社区300多万条真实的提问、评论、回答数据,内容涉及娱乐、政治、新闻、科学等各个领域,词向量维度采用128维,训练模型窗口大小5。 Word2vec的原理和使用方法这里就不做过多介绍了,有兴趣的可以阅读文献〔1〕,Python版本实现的可以参考gensim官方文档。 textcnn TextCNN是利用卷积神经网络对文本进行分类的算法,2014年由YoonKim提出(见参考〔3〕)。TextCNN的结构比较简单,其模型的结构如下图: extcnn网络结构 EmbeddingLayer该层将输入的自然语言编码成distributedrepresentation,我们的模型该层使用word2vec预先训练好的词向量,同时该层设置为trainable。 ConvolutionLayer这一层主要是通过卷积,提取文本的ngram特征,输入文本通过embeddinglayer后,会转变成一个二维矩阵,假设文本的长度为T,词向量的大小为d,则该二维矩阵的大小为Txd,接下的卷积工作就是对这一个Txd的二维矩阵进行的。卷积核的大小一般设为nxd,n是卷积核的长度,d是卷积核的宽度(LP中通常取词向量的维度)。我们的模型中n取〔2,3,4,5〕4个值,每个值固定取128个filter。 MaxPoolingLayer最大池化层,对卷积后得到的若干个一维向量取最大值,然后拼接在一块,作为本层的输出值。如果卷积核的size2,3,4,5每个size有128个filter,则经过卷积层后会得到4128个一维的向量,再经过maxpooling之后,会得到4128个scalar值,拼接在一块,最终得到一个5121的向量。maxpooling层的意义在于对卷积提取的ngram特征,提取激活程度最大的特征。 FullyconnectedLayer将maxpoolinglayer后再拼接一层,作为输出结果。实际中为了提高网络的学习能力,可以拼接多个全连接层。 Softmax根据类别数目设定节点数,我们不友善文本识别项目是二分类问题,设置一个节点,激活函数选择sigmoid。 BiLSTM CNN最大问题是固定filtersize的视野,无法建模更长的序列信息,自然语言处理中更常用的是RNN,因为RNN能够更好的表达上下文信息。在文本分类任务中,由于语句过长,会出现梯度消失或梯度爆炸的问题,基本的RNN网络难于处理语言中的长程依赖问题,为了解决这个问题,人们提出了LSTM模型。我们在对比LSTM和BiLSTM效果后选择了BiLSTM,BiLSTM从某种意义上可以理解为可以捕获变长且双向的ngram信息。图3是BiLSTM用于分类问题的网络结构,黄色的节点分别是前向和后向RNN的输出,示例中的是利用最后一个词的结果直接接全连接层softmax输出了。我们的实际使用的网络结构在全联接层之后加了一层dropout层,dropout输出接sigmoid二元分类层。RNN、LSTM、BILSTM可以参考文献〔4〕。 用于文本分类的双向LSTM网络结构 我们参考论文ACLSTMNeuralNetworkforTextClassification来实现CNNLSTM文本分类模型,模型的网络结构如下所示(该图直接来自论文) CNNISTM网络结构 效果 举报的内容 知友举报内容不管是直接删除还是直接忽略,都要求算法有较高的准确率(本文准确率没有特别说明的情况下指precision),经过对比不同模型的评测效果,目前线上选用模型和准确率、召回率如下: 全量内容 经过模型调优和对比不同模型的评测效果,目前线上使用的模型和准确率、召回率如下: 后续工作 我们会利用更多数据模型,尝试更复杂定神经网络并进行语义分析。通过分析实际操作中的badcase可以发现,有些文本带有脏字、脏词但并不属于不友善类别,同时也存在一些很隐晦的不友善内容,主要有以下三类: 影视、社会热点事件讨论中,评价影视作品中的人物或者热点事件当事人,例如:这个视频难道不是货车司机的错,有时候又想去延安路龙翔桥附近斑马线前停一天车,MDZZ规定。 陈述自己等经历,例如:我当时竟然信了,觉得当时的自己就是FJ。 诙谐词语或反语,例如:你真聪明,连这都不会;有哪些人工ZZ发明。 我们会继续尝试用深度学习做语义分析,对文本进行语义角色标注(见参考文献〔6〕),抽取句子的施事者(Agent)、受事者(Patient)、客体及其对应的描述词;通过语义相似度构建语义词典;将语义信息融合到我们的不友善文本识别模型中。 参考文献: 〔1〕https:papers。nips。ccpaper5021distributedrepresentationsofwordsandphrasesandtheircompositionality。pdf 〔2〕https:radimrehurek。comgensimmodelsword2vec。html 〔3〕https:arxiv。orgabs1408。5882 〔4〕https:blog。csdn。netzzulparticledetails79379960 〔5〕https:arxiv。orgpdf1511。08630。pdf 〔6〕Chinesesemanticrolelabelingwithshallowparsing 算法在社区氛围的应用(三):机器学习在答非所问识别上的运用 跳绳的好处有哪些?可以锻炼哪些肌肉? A:心肺功能比之前有提高。 B:有助于提高身体的乳酸阈值。 C:有助于提高身体的协调性。 D:谢谢,我去买了跳绳。 请问,以上哪个答案是答非所问? 现在,瓦力可直接识别并处理该题中的答非所问内容。 我们鼓励认真、专业的分享,期待每一次讨论都能碰撞出更多有价值的信息,并希望每一个用心的回答都能够得到好的展示,为他人带来更多帮助。但是,我们也发现在社区中出现了答非所问类的内容,影响知友们获取有价值内容的效率。 为了更好地识别答非所问类内容,我们采用了多种模型,包括传统的机器学习模型和比较新的深度学习模型。通过前期对语料的分析,我们发现语言用词、作者历史行为、知友对内容的反馈信息等都具有比较明显的区分度,因而我们尝试使用特征工程和传统机器学习方法实现了瓦力识别答非所问的第一版模型,并达到了一个相对不错的效果。 RandomForest 随机森林(RandomForest)是树模型里两个常用模型之一(另一个是GradientBoostingDecisionTree)。顾名思义,就是用随机的机制建立一个森林,森林由多棵分类树构成。当新样本进入时,我们需要将样本输入到每棵树中进行分类。打个形象的比喻,知乎森林召开议会,讨论刘看山 到底是狗还是北极狐(看山,我知道你是北极狐的,手动捂脸逃),森林中的每棵树都独立发表了自己对这个问题的观点,做出了自己的判断。最终刘看山是狗还是北极狐,要依据投票情况来确定,获得票数最多的类别就是这片森林对其的分类结果。如同图一所示意境。 森林会议 样本 通过训练语料和业务数据,进行特征工程,提取出了以下三类特征: 回答和问题的文本特征:如二者的词向量、词向量相似度、关键词相似度、话题相似度等; 回答的统计特征:如回答的赞同、反对、评论、举报等是用户对其的交互特征; 回答作者的统计特征:正向行为,如关注、回答、提问、评论、举报等,负向行为,如回答被赞同、被反对、被感谢、被举报等。 同时,通过历史积累、用户标注、策略生成产生出了训练样本集,然后用以上特征类别表示出每条样本。 分类树 使用随机有放回抽样选取每棵树的训练样本,随机选取m个特征(总特征数)进行无限分裂生长,成长为能独立决策的树。 投票决策 通过建好的多棵分类树,对新的样本进行决策投票,获得最终的分类结果。 对于RandomForest的实现,有很多优秀开源的实现,在实际中我们封装了Spark中的RandomForest完成了模型的迭代。最终取得了Precision97,Recall58左右的不错结果。 细心的知友可能注意到了,我们的特征里有一类特征是与时间和回答的暴光有关的,即回答和作者的统计特征。为此我们在现有模型的基础上分析了这类特征的时间累积效果,如图二所示。从图中可以看到,经过一天的统计特征累积,Precision达到了90,但Recall只有40,可以说这一天时间对于40的答非所问有了比较充分的特征积累以支撑对其的准确判断。而随时间的增加,基本上Precision和Recall都有提升。但并不是时间越长,提升越多。 最终我们结合产品应用层面和算法阈值,分别选出两个时间点,一方面牺牲Recall快速识别处理一部分答非所问的回答,另一方面允许一定的处理延时,保证了大量的Recall,大大净化了回答区域的无关内容。 统计特征累积周期(天)对Precision和Recall的影响 传统机器学习的一个核心内容就是特征工程,包括特征提取、特征选择等。 特征提取:从原始数据出发构造出特征,通常包括业务和对语料的统计分析。 特征选择:从提取出的候选特征中挑选出有用的特征。 但特征工程总是会耗费比较多的时间,而且在答非所问的识别中一些时间相关的特征,还延长了处理周期,不利于快速处理。而广为流传的深度学习,能自动对输入的低阶特征进行组合、变换,映射到高阶的特征,这也促使我们转向深度学习进行答非所问的识别。 深度学习兴起于图像识别,其过程可以引用图三〔1〕大致描绘,输入特征,经隐藏层逐层抽象、组合,最后经输出层得出识别结果。 深度学习示意 相较于图片天然的像素表征,可以直接输入到深度神经网络里,文本需要进行向量化后方可作为网络的输入。关于词向量化的精彩描述可以参考〔2〕。此处我们抽取了知乎社区1000多万真实的文本信息,包括问题、回答、文章、评论等数据,利用Facebook开源的FastText训练了256维的词向量和字向量。对于FastText的原理和用法此处不作详细阐述,感兴趣的朋友可以参考〔3〕。 CNN网络(ConvolutionalNeuralNetwork) 我们模型的网络结构基本上采用了Severyn〔4〕提出的网络结构,但在一些细节上做了些改动,比如图四中的CNNanswerquestion,我们结合了WDeep〔5〕的思想,以提取更为丰富的语义信息。 模型结构 EmbeddingLayer该层利用预训练好的FastText词向量将原始词序列表达成词向量序列 ConvolutionalLayer此层主要通过卷积操作,同时捕获类似于NGram特征(但同NGram还是有差异的)。我们的模型选取了〔2,3,4,5,6〕5个卷积核宽度,为每个卷积核配置了64个filter PoolingLayer池化层,对经过卷积操作提取的特征进行Sampling。此处我们采用了KMaxAveragepooling,对卷积层提取的特征,选择出激活程度topK的特征值的平均值作为pooling的结果 FeatureJFullyconnectedLayer将前述几层获得的特征,以及额外信息进行融合,作为最终的特征输出,以便于最后的决策判断。实际上,我们在FullyConnection后面加了3层DenseLayer,以提高网络的表达能力。 Softmax将最后的特征转换成二分类决策概率。 最终训练好该模型,在验证集上达到了Precision78,Recall80的效果。Recall虽有比较大的提升,但Precision并没有前文描述的RandomForest的方法好。 效果 目前,答非所问几个模型都上线到了知乎产品的诸多场景下,如反对、举报、专项清理等。每天清理约5000条新产生的答非所问内容,以及此前现存的115万条答非所问内容。 参考文献: