范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

DiveintoTensorFlow系列(3)揭开Tensor的神秘面纱

  TensorFlow计算图是由op和tensor组成,那么tensor一般都用来代表什么呢?显然,像模型的输入数据、网络权重、输入数据经op处理后的输出结果都需要用张量或特殊张量进行表达。既然tensor在TensorFlow体系架构中如此重要,因此本文将带领大家由浅入深地学习tensor的三个话题:用户眼中的tensor、TensorFlow系统中的tensor、tensor高阶用法DLPack(跨框架编程,如:TensorFlow+PyTorch)。
  注:本文基于TensorFlow v1.15.5进行编写。 一、小白眼中的Tensor1.1 Tensor HelloWorld
  定义两个张量,然后对其求加法,相关代码如下: # segment 1 a = tf.constant(3.0, dtype=tf.float32) b = tf.constant(4.0) # also tf.float32 implicitly total = a + b print(a) print(b) print(total)  ### 三个print的输出如下: """ Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32) Tensor("add:0", shape=(), dtype=float32) """ # 说明:此时的Tenosr尚不能产生真正的结果。以上代码创建了计算图,Tensor只是代表op运行的结果(但此时op未运行)。
  如果想看到最终total的计算结果,则应该创建Session对象并运行计算图,具体代码如下(在segment1基础上增加代码): with tf.Session() as sess:     result = sess.run(total)     print(result, type(result), type(total)) # 输出结果= 7.0  
  由此可见,Tensor代表尚未执行的结果表示,创建Session对象并运行计算图可得total结果7.0,并且结果的数据类型已变为numpy。最后说明一下,本小节代码输出的Tensor是指tf.Tensor,对应的代码实现是 tensorflow.python.framework.ops.Tensor 。1.2 张量属性及特殊张量
  从用户视角看tf.Tensor主要有三个属性:name、dtype、shape。除此之外,还有三个属性比较重要(不常用或者不直接可见):op、graph、device。其中op属性记录产生此Tensor的操作名称,graph属性记录包含此Tensor的计算图,device属性记录产生此Tensor的设备名称。
  在TensorFlow体系中有四种特殊的张量(此处暂不严格区分Tensor与产生此Tensor的op),具体如下:
  •tf.Variable: 定义内容可变的张量,一般用来定义模型权重。
  •tf.constant: 一般来说,张量内容不可变,此API可用来定义常规张量。
  •tf.placeholder: 占位符张量,用于描述静态图输入规格。静态图采用先编译后执行的方式,因此在定义计算图时要知道输入规格。
  •tf.SparseTensor: 为稀疏数据定制的张量结构。 1.3 Tensor与op的关系
  我们多次提到,Tensor可以作为op的输入,经op一系列处理后产生新的Tensor作为输出。为了深入理解这一点,我们回头重新审视segment1中的代码片段(请大家注意Tensor的命名): # segment 1 a = tf.constant(3.0, dtype=tf.float32) b = tf.constant(4.0) # also tf.float32 implicitly total = a + b print(a) print(b) print(total)  ### 三个print的输出如下: """ Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32) Tensor("add:0", shape=(), dtype=float32) """ # 说明:此时的Tenosr尚不能产生真正的结果。以上代码创建了计算图,Tensor只是代表op运行的结果(但此时op未运行)。
  针对上述代码,我们先来看看哪些是Tensor,哪些是op,然后基于此分别描述每一个操作的执行过程。为回答第一个问题,我们先看一段TensorFlow官方注释: """ `tf.constant` creates a `Const` node in the computation graph with the   exact value at graph construction time. """
  由此可见,segment1的代码中有两种op,分别为Const和add,前者出现了两次,而后者1次。基于此,我们得知segment1依次向计算图中添加了三个op,与此同时也可以回答第二个问题,即每个操作的过程。具体如下: ### 三个print的输出如下(a,b,total): """ Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32) Tensor("add:0", shape=(), dtype=float32) """ # 向计算图添加第一个op(Const),输入是一个标量,输出是Tensor a,其名称由两部分组成,即op名称:a在op输出的索引位置. # 向计算图添加第二个op(Const_1,因为op名称要唯一),输入标量,输出Tensor b,其命名规则同上. # 向计算图添加第三个op(add),输入是Tensor a和b,输出Tensor total,其命名规则同上.二、一探tensor究竟2.1 前后端Tensor映射
  在TensorFlow的白皮书[7]中提到C API是连接前端用户代码和后端执行引擎的桥梁,为深入理解这个概念,建议读者参照TensorFlow官网从头编译源代码。TensorFlow v1.15.5基于Bazel进行编译,前端python与后端C++通过SWIG进行交互。实际上在系统编译之前会先启动SWIG代码生成过程,通过解析tensorflow.i自动生成两个wrapper文件:pywrap_tensorflow_internal.py和pywrap_tensorflow_internal.cc,前者对接前端python调用,后者对接后端C API调用。大家安装tensorflow官方二进制包后,只能看到py文件而没有cc文件。如果自己编译TensorFlow源码,可在项目根目录下的bazel-bin中找到相应的py和cc文件,如下图所示:
  上图红框中的so文件是由cc文件编译得到,黄框中的py模块首次被导入时,会自动加载so动态链接库。而在so对应的cc文件中,静态注册了一个函数映射表,实现python函数到C函数的映射。此映射表结构大致如下: static PyMethodDef SwigMethods[] = {           { (char *)"SWIG_PyInstanceMethod_New", (PyCFunction)SWIG_PyInstanceMethod_New, METH_O, NULL},           { (char *)"TF_OK_swigconstant", TF_OK_swigconstant, METH_VARARGS, NULL},           { (char *)"TF_CANCELLED_swigconstant", TF_CANCELLED_swigconstant, METH_VARARGS, NULL},           { (char *)"TF_UNKNOWN_swigconstant", TF_UNKNOWN_swigconstant, METH_VARARGS, NULL},           { (char *)"TF_INVALID_ARGUMENT_swigconstant", TF_INVALID_ARGUMENT_swigconstant, METH_VARARGS, NULL},           // 此处省略许多代码 };
  如果没有亲身实践,上面这些文字读起来多少有些吃力。为便于大家理解,我们把上述文字用如下简图进行总结:
  有些好奇宝宝可能会说:上面讲得太宏观,好像懂了,又好像没懂。没关系,接下来我们以静态图的运行接口session.run()为例,结合TensorFlow源码详细梳理一下前后端的映射过程,具体过程见下图:
  由上图我们可清晰看到C API层把前后端给隔离开了,当然C API层包括pywrap_tensorflow_internal.h/cc、tf_session_helper.h/cc、c_api.h/cc。至此session.run()从前端映射到后端的流程讲完了,那接下来回答前端tensor如何映射至后端Tensor,请看如下代码: // tf_session_helper.cc    line351 void TF_SessionRun_wrapper_helper(TF_Session* session, const char* handle,                                   const TF_Buffer* run_options,                                   const std::vector& inputs,                                   const std::vector& input_ndarrays,                                   const std::vector& outputs,                                   const std::vector& targets,                                   TF_Buffer* run_metadata,                                   TF_Status* out_status,                                   std::vector* py_outputs) {   DCHECK_EQ(inputs.size(), input_ndarrays.size());   DCHECK(py_outputs != nullptr);   DCHECK(py_outputs->empty());   Status s;    // Convert input ndarray PyObjects to TF_Tensors. We maintain a continuous   // array of TF_Tensor*s as well as scoped containers to make sure they"re   // cleaned up properly.   // 省略了很多代码,可以看到此处把前端类ndarray的对象转化成了TF_Tensors。 }  // c_api.cc  line2274 void TF_SessionRun(TF_Session* session, const TF_Buffer* run_options,                    const TF_Output* inputs, TF_Tensor* const* input_values,                    int ninputs, const TF_Output* outputs,                    TF_Tensor** output_values, int noutputs,                    const TF_Operation* const* target_opers, int ntargets,                    TF_Buffer* run_metadata, TF_Status* status) {   // TODO(josh11b,mrry): Change Session to be able to use a Graph*   // directly, instead of requiring us to serialize to a GraphDef and   // call Session::Extend().   if (session->extend_before_run &&       !ExtendSessionGraphHelper(session, status)) {     return;   }    TF_Run_Setup(noutputs, output_values, status);    // Convert from TF_Output and TF_Tensor to a string and Tensor.   // 看这里,此外TensorFlow把TF_Tensor转化成c++ Tensor   std::vector> input_pairs(ninputs);   if (!TF_Run_Inputs(input_values, &input_pairs, status)) return;   for (int i = 0; i < ninputs; ++i) {     input_pairs[i].first = OutputName(inputs[i]);   }    // Convert from TF_Output to string names.   std::vector output_names(noutputs);   for (int i = 0; i < noutputs; ++i) {     output_names[i] = OutputName(outputs[i]);   } }2.2 C++ Tensor类
  查看参考文献5,我们找到了C++ Tensor类的定义,其重要片段(seg1)如下: class Tensor{   public:     // Tensor序列化/反序列化相关,在2.3节详细介绍     bool FromProto(const TensorProto& other) TF_MUST_USE_RESULT;     void AsProtoField(TensorProto* proto) const;     void AsProtoTensorContent(TensorProto* proto) const;          // Tensor实际为底层数据的一种视图,可用vec或matrix进行展示     template      typename TTypes::Vec vec() {       return tensor();     }      template      typename TTypes::Matrix matrix() {       return tensor();     }      template      typename TTypes::Tensor tensor();      private:     TensorShape shape_;    // 维护Tensor的形状和数据类型     TensorBuffer buf_;     // 底层数据的指针 }
  我们先来分析下两个私有成员。首先看一下TensorBuffer类,它是一个继承引用计数类的虚拟类,不包含任何实现。通过查看参考文献6,我们得知BufferBase继承TensorBuffer类,且维护了一个内存分配器指针。而Buffer类继承BufferBase类,且维护了指向实际数据的指针data_和元素数量elem_。上述类的继承关系如下图所示(为便于理解图中给出成员定义,而非标准的UML图):
  接下来我们分析TensorShape类。它也有自己的类继承体系,其核心逻辑定义在父类TensorShapeRep中,相关的类继承体系如下图:
  为深入理解TensorShape的作用,以下结合TensorShapeRep的部分代码(seg2)进行分析: class TensorShapeRep{   private:     // 如下buf共计16字节表示TensorShape,其中前12字节用来存储形状(Rep16、Rep32、Rep64)     // 第13字节作用不清楚,第14、15、16字节分别表示数据类型编号、张量的维度数目、张量维度的表示类型     union {       uint8 buf[16];        Rep64* unused_aligner;   // Force data to be aligned enough for a pointer.     } u_;      public:     // 理论上可定义任意维的张量,但1维、2维、3维张量最常见。所以给出如下三种维度表示方法(12字节)     struct Rep16 {       uint16 dims_[6];    // 最多可表示6维的张量,每一维的长度不超过2^16-1     };     struct Rep32 {       uint32 dims_[3];    // 最多可表示3维的张量,每一维的长度不超过2^32-1     };     struct Rep64 {       gtl::InlinedVector* dims_;  // 支持任意维度的张量     }; }
  本小节最后,我们再来看一下Tensor类定义中的vector()和matrix()。查看两个方法的实现,发现调用了共同的方法tensor(),而tensor()的返回类型为TTypes::Tensor,而TTypes正是衔接TF Tensor与Eigen库的关键。请看如下代码(seg3): // tensorflow1.15.5	ensorflowcoreframework	ensor.h class Tensor{   public:     // Returns the shape of the tensor.     const TensorShape& shape() const { return shape_; }        template      typename TTypes::Vec vec() {       return tensor();     }           template      typename TTypes::Matrix matrix() {       return tensor();     }           template      typename TTypes::Tensor tensor(); }  // tensorflow1.15.5	ensorflowcoreframework	ensor_types.h template  struct TTypes {   // Rank- tensor of scalar type T.   typedef Eigen::TensorMap,Eigen::Aligned> Tensor;   // 省略了许多代码 }  // tensorflow1.15.5	ensorflowcoreframework	ensor.h // TF Tensor的shape()返回TensorShape。base()返回指向实际数据的指针。 template  typename TTypes::Tensor Tensor::tensor() {   CheckTypeAndIsAligned(DataTypeToEnum::v());   return typename TTypes::Tensor(base(),                                            shape().AsEigenDSizes()); }
  由上述代码可见,调用tensor()是把TF Tensor转化成了TTypes::Tensor,而后者本质上是Eigen::TensorMap。至此,我们搞清楚了TF Tensor与Eigen库的关系,可以认为TF C++ Tensor是对Eigen::TensorMap的一种封装。因为Eigen::TensorMap构造函数的参数来自于TF Tensor中保存的信息(base()和shape()对应的信息)。 2.3 C++ Tensor序列化
  在TensorFlow的分布式训练环境中涉及大量的跨机通信,通信的内容就是序列化后的张量(通过send/recv op对协同工作)。本小节我们将一起学习Tensor的序列化机制,以及Tensor与序列化对象的互编程。TensorFlow中Tensor对应的序列化对象叫TensorProto,它是由对应的proto文件生成。具体代码如下(seg4): // tensorflow1.15.5	ensorflowcoreframework	ensor.proto syntax = "proto3";  message TensorProto {   DataType dtype = 1;    TensorShapeProto tensor_shape = 2;    int32 version_number = 3;    bytes tensor_content = 4;    repeated int32 half_val = 13 [packed = true];    // DT_FLOAT.   repeated float float_val = 5 [packed = true];    // DT_DOUBLE.   repeated double double_val = 6 [packed = true];    // DT_INT32, DT_INT16, DT_INT8, DT_UINT8.   repeated int32 int_val = 7 [packed = true];    // DT_STRING   repeated bytes string_val = 8;    // DT_COMPLEX64. scomplex_val(2*i) and scomplex_val(2*i+1) are real   // and imaginary parts of i-th single precision complex.   repeated float scomplex_val = 9 [packed = true];    // DT_INT64   repeated int64 int64_val = 10 [packed = true];    // DT_BOOL   repeated bool bool_val = 11 [packed = true];    // DT_COMPLEX128. dcomplex_val(2*i) and dcomplex_val(2*i+1) are real   // and imaginary parts of i-th double precision complex.   repeated double dcomplex_val = 12 [packed = true];    // DT_RESOURCE   repeated ResourceHandleProto resource_handle_val = 14;    // DT_VARIANT   repeated VariantTensorDataProto variant_val = 15;    // DT_UINT32   repeated uint32 uint32_val = 16 [packed = true];    // DT_UINT64   repeated uint64 uint64_val = 17 [packed = true]; };
  大家可用protoc编译器来编译tensor.proto文件,结果生成tensor.pb.h和tensor.pb.cc两个文件,他们分别声明了TensorProto类定义、TensorProto成员方法的实现。我们可以粗略地将TensorProto看作Tensor的二进制对象,基于此它们相互之间的转换代码如下所示(seg5): // Tensor的序列化过程 auto tensor_proto = new TensorProto(); // Fills in `proto` with `*this` tensor"s content. // `AsProtoField()` fills in the repeated field for `proto.dtype()`,  // while `AsProtoTensorContent()` encodes the content in `proto.tensor_content()` in a compact form. tensor->AsProtoField(tensor_proto); tensor->AsProtoTensorContent(tensor_proto);    // Tensor的反序列化过程 Tensor tensor; tensor.FromProto(tensor_proto);三、跨框架编程-通用内存张量DLPack3.1 什么是DLPack
  DLPack是一种开放的内存张量结构,用于在AI框架之间共享张量。多框架整合解决AI问题,能充分发挥各框架优势(一些运算在某框架中支持更好),并最终取得整体最佳性能。但这里有一个关键问题要解决:如何将内存中的张量从一个框架传递到另一个框架,而不发生任何数据拷贝?幸运的是,陈天奇团队给出了DLPack这个答案。
  DLPack的设计理念是尽可能的轻量化,它不考虑内存分配、设备API,仅仅关注张量数据结构。它可以运行在多个硬件平台上,目前支持的框架有:NumPy、CuPy、PyTorch、Tensorflow、MXNet、TVM、mpi4py。DLPack的开发者不打算实现Tensor和Ops,而是将其用作跨框架重用张量和操作的公共桥梁。深入理解DLPack,要掌握两大模块:C API与Python API。DLPack C API体系结构如下:
  上图中深蓝色的结构体均定义在[13]中。DLTensor代表普通C Tensor对象,但不负责内存管理。DLManagedTensor也是一个C Tensor对象,负责DLTensor的内存管理,它被设计用来帮助其他框架借用此DLTensor。接下来,我们将目光转向DLPack的Python API。
  DLPack Python接口是Python array的标准API。用DLPack Python接口进行数据交换的接口有两个:
  •from_dlpack(x):输入一个包含__dlpack__方法的数组对象,用这个方法构建一个包含x数据域的新数组对象。
  •__dlpack__(self,stream=None) and __dlpack_device__():在from_dlpack(x)内部调用x的这两个方法,分别用于获取x的数据域以及定位x数组对象在哪个设备上。
  从语义层面理解y=from_dlpack(x)的话,生成x的库叫生产者,包含from_dlpack()的库叫做消费者。其中生产者提供了访问x数据域的途径,通常来说生产者和消费者之间关于相应的数据是零拷贝的,也即y可视为x的视图。如果深入from_dlpack(x)内部,则x.__dlpack__方法生成包含DLManagedTensor的PyCapsule对象(或称capsule),这个对象只能被消费一次。生产者必须将PyCapsule对象名称设为"dltensor",以方便按名称检索。同时也要设置DLManagedTensor的deleter方法给PyCapsule_Destructor,这个设置是当名为"dltensor"的capsule对象不再需要时使用。消费者把DLManagedTensor的所有权从capsule对象转移至自己,这是通过把capsule对象改名为"used_dltensor"以确保PyCapsule_Destructor不会被调用来实现的。但当capsule对象把DLManagedTensor所有权转移至消费者对象时,消费者对象的destructor方法仍然可以调用DLManagedTensor的deleter方法。 3.2 TensorFlow中的dlpack
  笔者发现TensorFlow对DLPack的支持是从v2.2.0开始的,更早的版本没有dlpack相应的库。TensorFlow的dlpack接口与3.1遵守相同的语义描述,相应的API测试语句如下: import tensorflow as tf  x = tf.constant(5) x                     //  r =tf.experimental.dlpack.to_dlpack(x) print(r,type(r))      //    x_other = tf.experimental.dlpack.from_dlpack(r) x_other               // 3.3 TVM与DLPack的关系
  如果你想开发一款跨AI框架的深度学习编译器,DLPack就是一种可行的方案(TVM就是这条技术路线)。比如,我们在TVM中声明并编译一个矩阵乘法算子,然后基于DLPack表示构建一个包装器,该包装器能让此矩阵乘法算子支持PyTorch Tensor。对MxNet可以采用类似的操作。DLPack提供在AI框架和TVM之间共享的中间包装器的原理如下图所示:
  上述原理可以参考如下代码举例: // 前提说明:在PyTorch中计算矩阵乘法 import torch x = torch.rand(56,56) y = torch.rand(56,56) z = x.mm(y)  // 第一步,定义并构建一个TVM矩阵乘法算子 n = tvm.convert(56) X = tvm.placeholder((n,n), name="X") Y = tvm.placeholder((n,n), name="Y")  k = tvm.reduce_axis((0, n), name="k") Z = tvm.compute((n,n), lambda i,j : tvm.sum(X[i,k]*Y[k,j], axis=k)) s = tvm.create_schedule(Z.op) fmm = tvm.build(s, [X, Y, Z], target_host="llvm", name="fmm")      // 第二步,对TVM函数进行包装以支持PyTorch Tensor,并验证结果 from tvm.contrib.dlpack import to_pytorch_func # fmm is the previously built TVM function (Python function) # fmm is the wrapped TVM function (Python function) fmm_pytorch = to_pytorch_func(fmm) z2 = torch.empty(56,56) fmm_pytorch(x, y, z2) np.testing.assert_allclose(z.numpy(), z2.numpy())      // 第三步,参照第二步对MxNet进行类似包装处理 import mxnet from tvm.contrib.mxnet import to_mxnet_func ctx = mxnet.cpu(0) x = mxnet.nd.uniform(shape=(56,56), ctx=ctx) y = mxnet.nd.uniform(shape=(56,56), ctx=ctx) z = mxnet.nd.empty(shape=(56,56), ctx=ctx) f = tvm.build(s, [X, Y, Z], target_host="llvm", name="f") f_mxnet = to_mxnet_func(f) f_mxnet(x, y, z) np.testing.assert_allclose(z.asnumpy(), x.asnumpy().dot(y.asnumpy()))      // 第四步,to_pytorch_func()的详细定义 // TVM提供了dlpack tensor和TVM NDArray互转的函数.TVM函数在最底层调用的是TVM NDArray. // 此包装器的大致流程是: AI Tensor -> dlpack tensor -> TVM NDArray -> call TVM function def convert_func(tvm_func, tensor_type, to_dlpack_func):     assert callable(tvm_func)      def _wrapper(*args):         args = tuple(ndarray.from_dlpack(to_dlpack_func(arg))             if isinstance(arg, tensor_type) else arg for arg in args)         return tvm_func(*args)      return _wrapper  def to_pytorch_func(tvm_func):     import torch     import torch.utils.dlpack     return convert_func(tvm_func, torch.Tensor, torch.utils.dlpack.to_dlpack)四、总结
  本文内容较多且烧脑,建议读者反复阅读几遍,定能有所收获。我们在此对通篇内容作个总结,本文主要讲了三个主题:
  •第一部分讲解小白眼中的Tensor,重点分析了Tensor的属性和OP的关系。
  •第二部分讲解系统开发者眼中的Tensor,重点讲解Tensor前后端映射,以及Tensor的C++定义及序列化。
  •第三部分讲解通用内存张量DLPack,重点讲解了DLPack的定义及在TensorFlow中的使用,以及DLPack在TVM中扮演的角色。
  作者:李杰 参考文献
  1.TensorFlow Introduction: https://github.com/tensorflow/docs/blob/master/site/en/r1/guide/low_level_intro.md
  2.TensorFlow Tensors: https://github.com/tensorflow/docs/blob/master/site/en/r1/guide/tensors.md
  3.tf.constant源码: https://github.com/tensorflow/tensorflow/blob/v1.15.5/tensorflow/python/framework/constant_op.py#L165
  4.tensorflow源码解析之framework-tensor: https://www.cnblogs.com/jicanghai/p/9537282.html
  5.TensorFlow c++ Tensor source code: https://github.com/tensorflow/tensorflow/blob/v1.15.5/tensorflow/core/framework/tensor.h
  6.TensorFlow c++ Tensor source code: https://github.com/tensorflow/tensorflow/blob/v1.15.5/tensorflow/core/framework/tensor.cc
  7.《TensorFlow: A System for Large-Scale Machine Learning》: https://www.usenix.org/system/files/conference/osdi16/osdi16-abadi.pdf
  8.tensorflow-internals.pdf: https://github.com/horance-liu/tensorflow-internals
  9.DLPack doc: https://dmlc.github.io/dlpack/latest/
  10.DLPack github: https://github.com/dmlc/dlpack
  11.DLPack CAPI: https://dmlc.github.io/dlpack/latest/c_api.html
  12.Python Specification for DLPack: https://dmlc.github.io/dlpack/latest/python_spec.html
  13.dlpack.h: https://github.com/dmlc/dlpack/blob/main/include/dlpack/dlpack.h
  14.Building a Cross-Framework Deep Learning Compiler via DLPack: https://tvm.apache.org/2018/08/10/DLPack-Bridge

ChatGPT创业不是一说就来成为下一个ChatGPT,正在成为很多创业者的梦想。这其中,既有王慧文王小川周伯文这样的互联网圈老江湖,也有不乏随风口而动的新创客。无论是对标大模型,还是打造中国的OpenAI,各英欧就脱欧后北爱贸易问题作出新安排新华社伦敦2月27日电(记者杜鹃黄泽民)英国首相里希苏纳克和欧盟委员会主席乌尔苏拉冯德莱恩27日证实,英国和欧盟达成一份名为温莎框架的协议,对英国脱欧后涉及北爱尔兰地区贸易事宜作出最新放假通知来啦最短放半天!不少人感慨春节后工作节奏太快了你是不是也已经开始期待下一次假期了?图源卡乐图片宁颖摄别急,假期这就来了!3月8日三八国际劳动妇女节妇女放假半天!妇女节放假根据全国年节及纪念日放假办一大波就业机会来袭就业在北京每日招聘信息就业是最大的民生,是六稳工作六保任务之首,寄托着人民对美好生活的向往,关系着国家的长治久安。为北京市公共就业服务贡献一份力量既是我们不变初心,更是我们的使命任务。我们将坚守初心使命毛岸英牺牲70年,彭德怀114个字的绝密信被公开,揭开毛岸英死因历史开讲清明时节雨纷纷,路上行人欲断魂。每到清明时节,天空就好似会哭泣一般蒙蒙的下起小雨。这时的板仓,杨开慧同志的烈士陵墓的北面山坡上隐隐约约还能看到一座墓碑,赫然就是毛岸英的衣冠世界首个人造子宫,全面解放女性怀孕负担,一年批量3万胎?世界上首个人造子宫设施诞生?拥有75个最先进的实验室,每个实验室多达400个人造子宫,完全复刻女性体内环境,每个设施每年可以孵化30000名婴儿?先别急着开心或是批判,因为这些目前高龄女性如何才能有好孕国际妇产科联盟将年龄35岁以上分娩的妊娠定义为高龄妊娠,这一时期的孕产妇被称为高龄孕产妇。高龄女性与年轻女性相比,受孕率下降,流产胎儿畸形和妊娠合并症的危险增高。笔者在此给高龄女性同为女性向游戏,以闪亮之名的风格有何特色就在上个月,2023年首批国产游戏版号发放,由祖龙娱乐自研自发的以闪亮之名也在名单内,这款在海外口碑不俗的女性向游戏总算可以在国内与玩家见面。热门游戏版号通过,祖龙娱乐股票顺势大涨专稿丨哈萨克斯坦这条大街,为何成了中哈两国友谊的见证?在哈萨克斯坦,用人名命名的街道并不少见。该国的第一任首都阿拉木图市,就有很多街道以名人的名字命名。这里除了用本国名人命名外,还有一条以中国名人命名的街道冼星海大街。在中国,几乎人人华裔学者称5大原因或致中美摊牌,民进党丧心病狂,欲让学生参战据中评论报道,美东时间2月25日晚,环球两岸关系研究会举行了以美国对台政策变化为主题的线上研讨会,全球众多华人学者,参与讨论并提出了看法,其中美国巴克内尔大学华裔学者朱志群的观点,如果你看懂狂飙中的高启强,那能明白三体中伊文思?狂飙和三体已以大结局多日,相信很多人也都好似余音绕梁而三日而未尽。两部剧都深刻刻画人物,不同以往蜻蜓点水的深挖事件本质,让我们看到更有深度的剧情,也对个人情操可以说有不同以往的陶冶
武警特警和特种部队有什么区别?什么情况出动武警特警和特种部队?区别之一在职能任务方面武警主要职能平时主要担负执勤处置突发事件反恐怖参加和支援国家经济建设等任务,战时配合人民解放军进行防卫作战。通俗来讲,武警是和平时期维持国内秩序稳定的主要力量为什么很多医生劝病人不要吸烟,自己却吧嗒吧嗒抽不停?我是医生,也抽烟,一天两包。1,有多少医生抽烟?在医院里,大致上情况是,内科医生大多数不抽烟,外科医生大多数抽烟好厉害。为什么这样呢?工作性质,个人性格。内科医生一直处于紧张和纠结新乡市哪个小学好?根据教育部要求,经过多年的教育改革发展,新乡市各个中小学的师资水平和校园建设达到了一定的平衡状态!不过,根据传统意识,大家不同程度的从心里上也对新乡市的中小学给予了排名高级中学一中为让孩子远离白血病,都要做什么?导读社会不断的进步,随之而来的是各种的辐射污染,尤其是幼童,抵御这些危害的能力非常弱,很容易因为周围的环境使宝宝染病。家里有宝宝的妈妈们一定要仔细看这篇,做到防患于未然,让孩子有一孩子吃了别人送的苹果被噎死,父母可以请求赔偿吗?我回答了你的问题,我现在抑郁了。我可以让你赔偿吗还要点脸不啊别人家的苹果如果没有食品安全问题,比如说发霉,腐烂之类的,那么就是孩子父母的责任。根据已有案例,不可以。受害者不能向无法对孩子的学习成绩是应该严格要求的好还是顺其自然的好?我的孩子没有报过辅导班,现在上四年级了,他学习都挺好的,每次考试,英语基本都是100分,数学语文也就差一点儿是满分,一直都是稳拿前三名。朋友们看到我的孩子很优秀,都问我,你是怎么教孩子马上三岁了,该送去幼儿园吗?不行,起码三十岁才行这看自己家庭的实际情况了,如果担心孩子太小,怕不适应幼儿园可以适当的晚点送。不过这样就会有一个问题就是,孩子不是从开班开始就跟着班级走的,这样可能班里其他小朋友助力贫困大学生,社会都有哪些公益活动?图为虹润公司圆梦助学金发放仪式。(受访者供图)新华社客户端福州1月20日电题圆梦助学,托起寒门学子的希望新华社记者苏杰在闽北山区顺昌县,多年来活跃着一个专门资助寒门学子的品牌圆梦助一个人患有抑郁症,不想出门,不想与人交流,整天在家怎么办?抑郁症或者抑郁情绪是有自限性的,也就是说,在没有外界干预情况下,抑郁症可以自我恢复,一般不超过6个月。但是,如果没有外界干预,严重的抑郁会引起明显的社会功能损害,这些社会压力又成为除了去美容院,有什么办法把脸上的毛孔缩小到光滑,需多长时间?话说最近半年一直改用几块钱一瓶的甘油来保湿护肤,皮肤基本能维持毛孔不粗大,我以前是毛孔特别粗大的。但是不去美容院自己靠积年累月的护肤是比较考验耐心的,还需要选对产品,用对方法,也不每天跑步都是不知不觉的变成无氧运动了,每天的无氧运动时间较长,这样有什么不好吗?在我看来没有什么好不好的只要自己喜欢。跑步本身就是一项孤独的运动,在奔跑的时候只有自己跟自己对话,身体听从灵魂的召唤,随性而动就好。现在随着跑不运动的不断发展,人们对跑步热爱跟水平