范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

深入学习IO多路复用selectpollepoll实现原理

  作者:mingguangtu,腾讯 IEG 后台开发工程师
  select/poll/epoll 是 Linux 服务器提供的三种处理高并发网络请求的 IO 多路复用技术,是个老生常谈又不容易弄清楚其底层原理的知识点,本文打算深入学习下其实现机制。
  Linux 服务器处理网络请求有三种机制,select、poll、epoll,本文打算深入学习下其实现原理。
  吃水不忘挖井人,最近两周花了些时间学习了张彦飞大佬的文章 图解 | 深入揭秘 epoll 是如何实现 IO 多路复用的 和其他文章 ,及出版的书籍《深入理解 Linux 网络》,对阻塞 IO、多路复用、epoll 等的实现原理有了一定的了解;飞哥的文章描述底层源码逻辑比较清晰,就是有时候归纳总结事情本质的抽象程度不够,涉及内核源码细节的讲述较多,会让读者产生一定的学习成本,本文希望在这方面改进一下。 0. 结论
  本文其他的内容主要是得出了下面几个结论: 服务器要接收客户端的数据,要建立 socket 内核结构,主要包含两个重要的数据结构, (进程)等待队列 ,和 (数据)接收队列 ,socket 在进程中作为一个文件,可以用文件描述符 fd 来表示,为了方便理解,本文中, socket 内核对象   fd 文件描述符   TCP 连接; 阻塞 IO 的主要逻辑是:服务端和客户端建立了连接 socket 后,服务端的用户进程通过 recv 函数接收数据时,如果数据没有到达,则当前的用户进程的进程描述符和回调函数会封装到一个进程等待项中,加入到 socket 的进程等待队列中;如果连接上有数据到达网卡,由网卡将数据通过 DMA 控制器拷贝到内核内存的 RingBuffer 中,并向 CPU 发出硬中断,然后,CPU 向内核中断进程 ksoftirqd 发出软中断信号,内核中断进程 ksoftirqd 将内核内存的 RingBuffer 中的数据根据数据报文的 IP 和端口号,将其拷贝到对应 socket 的数据接收队列中,然后通过 socket 的进程等待队列中的回调函数,唤醒要处理该数据的用户进程; 阻塞 IO 的问题是:一次数据到达会进行 两次进程切换, 一次数据读取有 两处阻塞,单进程对单连接; 非阻塞 IO 模型解决了" 两次进程切换,两处阻塞,单进程对单连接 "中的" 两处阻塞 "问题,将" 两处阻塞 "变成了" 一处阻塞 ",但依然存在" 两次进程切换,一处阻塞,单进程对单连接 "的问题; 用一个进程监听多个连接的 IO 多路复用技术解决了" 两次进程切换,一处阻塞,单进程对单连接 " 中的" 两次进程切换,单进程对单连接 ",剩下了" 一处阻塞 ",这是 Linux 中同步 IO 都会有的问题,因为 Linux 没有提供异步 IO 实现; Linux 的 IO 多路复用用三种实现:select、poll、epoll。select 的问题是:
  a)调用 select 时会陷入内核,这时需要将参数中的 fd_set 从用户空间拷贝到内核空间,高并发场景下这样的拷贝会消耗极大资源;(epoll 优化为不拷贝)
  b)进程被唤醒后,不知道哪些连接已就绪即收到了数据,需要遍历传递进来的所有 fd_set 的每一位,不管它们是否就绪;(epoll 优化为异步事件通知)
  c)select 只返回就绪文件的个数,具体哪个文件可读还需要遍历;(epoll 优化为只返回就绪的文件描述符,无需做无效的遍历)
  d)同时能够监听的文件描述符数量太少,是 1024 或 2048;(poll 基于链表结构解决了长度限制)
  7.poll 只是基于链表的结构解决了最大文件描述符限制的问题,其他 select 性能差的问题依然没有解决;终极的解决方案是 epoll,解决了 select 的前三个缺点;
  8. epoll 的实现原理看起来很复杂,其实很简单,注意两个回调函数的使用:数据到达 socket 的等待队列时,通过 回调函数 ep_poll_callback  找到 eventpoll 对象中红黑树的 epitem 节点,并将其加入就绪列队 rdllist,然后通过 回调函数 default_wake_function  唤醒用户进程 ,并将 rdllist 传递给用户进程,让用户进程准确读取就绪的 socket 的数据。这种回调机制能够定向准确的通知程序要处理的事件,而不需要每次都循环遍历检查数据是否到达以及数据该由哪个进程处理,日常开发中可以学习借鉴下这种思想。 1. Linux 怎样处理网络请求1.1 阻塞 IO
  要讲 IO 多路复用,最好先把传统的同步阻塞的网络 IO 的交互方式剖析清楚。
  如果客户端想向 Linux 服务器发送一段数据 ,C 语言的实现方式是: int main() {      int fd = socket();      // 创建一个网络通信的socket结构体      connect(fd, ...);       // 通过三次握手跟服务器建立TCP连接      send(fd, ...);          // 写入数据到TCP连接      close(fd);              // 关闭TCP连接 }
  服务端通过如下 C 代码接收客户端的连接和发送的数据: int main() {      fd = socket(...);        // 创建一个网络通信的socket结构体      bind(fd, ...);           // 绑定通信端口      listen(fd, 128);         // 监听通信端口,判断TCP连接是否可以建立      while(1) {          connfd = accept(fd, ...);              // 阻塞建立连接          int n = recv(connfd, buf, ...);        // 阻塞读数据          doSomeThing(buf);                      // 利用读到的数据做些什么          close(connfd);                         // 关闭连接,循环等待下一个连接     } }
  把服务端处理请求的细节展开,得到如下图所示的同步阻塞网络 IO 的数据接收流程:
  图1.1 同步阻塞网络IO的数据接收流程
  主要步骤是:
  1)服务端通过  socket() 函数 陷入内核态进行 socket 系统调用,该内核函数会创建  socket 内核对象 ,主要有两个重要的结构体,( 进程)等待队列 ,和( 数据)接收队列, 为了方便理解,等待队列前可以加上进程二字,其实不加更准确,接收队列同样;进程等待队列,存放了服务端的用户进程 A 的进程描述符和回调函数;socket 的数据接收队列,存放网卡接收到的该 socket 要处理的数据;
  2)进程 A 调用 recv() 函数接收数据,会进入到  recvfrom() 系统调用函数 ,发现 socket 的数据等待队列没有它要接收的数据到达时,进程 A 会让出 CPU,进入阻塞状态,进程 A 的进程描述符和它被唤醒用到的回调函数 callback func 会组成一个结构体叫等待队列项,放入 socket 的进程等待队列;
  3)客户端的发送数据到达服务端的网卡;
  4)网卡首先会将网络传输过来的数据通过 DMA 控制程序复制到内存环形缓冲区 RingBuffer 中;
  5)网卡向 CPU 发出 硬中断 ;
  6)CPU 收到了硬中断后,为了避免过度占用 CPU 处理网络设备请求导致其他设备如鼠标和键盘的消息无法被处理,会调用网络驱动注册的中断处理函数,进行简单快速处理后向内核中断进程 ksoftirqd 发出 软中断 ,就释放 CPU,由软中断进程处理复杂耗时的网络设备请求逻辑;
  7) 内核中断进程 ksoftirqd  收到软中断信号后,会将网卡复制到内存的数据,根据数据报文的 IP 和端口号,将其拷贝到对应 socket 的接收队列;
  8)内核中断进程 ksoftirqd 根据 socket 的数据接收队列的数据,通过进程等待队列中的回调函数,唤醒要处理该数据的进程 A,进程 A 会进入 CPU 的运行队列,等待获取 CPU 执行数据处理逻辑;
  9)进程 A 获取 CPU 后,会回到之前调用  recvfrom() 函数 时阻塞的位置继续执行,这时发现 socket 内核空间的等待队列上有数据,会在内核态将内核空间的 socket 等待队列的数据拷贝到用户空间,然后才会回到用户态执行进程的用户程序,从而真的解除阻塞 ;
  用户进程 A 在调用 recvfrom() 系统函数时,有两个阶段都是等待的:在数据没有准备好的时候,进程 A 等待内核 socket 准备好数据;内核准备好数据后,进程 A 继续等待内核将 socket 等待队列的数据拷贝到自己的用户缓冲区;在内核完成数据拷贝到用户缓冲区后,进程 A 才会从 recvfrom() 系统调用中返回,并解除阻塞状态。整体流程如下:
  图1.2 阻塞IO模型
  在 IO 阻塞逻辑中,存在下面三个问题: 进程在 recv 的时候大概率会被阻塞掉,导致一次进程切换; 当 TCP 连接上的数据到达服务端的网卡、并从网卡复制到内核空间 socket 的数据等待队列时,进程会被唤醒,又是一次进程切换;并且,在用户进程继续执行完 recvfrom() 函数系统调用,将内核空间的数据拷贝到了用户缓冲区后,用户进程才会真正拿到所需的数据进行处理; 一个进程同时只能等待一条连接,如果有很多并发,则需要很多进程;
  总结:一次数据到达会进行 两次进程切换, 一次数据读取有 两处阻塞,单进程对单连接 。 1.2 非阻塞 IO
  为了解决同步阻塞 IO 的问题,操作系统提供了非阻塞的 recv() 函数,这个函数的效果是:如果没有数据从网卡到达内核 socket 的等待队列时,系统调用会直接返回,而不是阻塞的等待。
  如果我们要产生一个非阻塞的 socket,在 C 语言中如下代码所示: // 创建socket int sock_fd = socket(AF_INET, SOCK_STREAM, 0); ... // 更改socket为nonblock fcntl(sock_fd, F_SETFL, fdflags | O_NONBLOCK); // connect .... while(1)  {     int recvlen = recv(sock_fd, recvbuf, RECV_BUF_SIZE) ;     ...... } ...
  非阻塞 IO 模型如下图所示:
  图1.3 非阻塞IO模型
  从上图中,我们知道,非阻塞 IO,是将等待数据从网卡到达 socket 内核空间这一部分变成了非阻塞的,用户进程调用 recvfrom() 会重复发送请求检查数据是否到达内核空间,如果没有到,则立即返回,不会阻塞。不过,当数据已经到达内核空间的 socket 的等待队列后,用户进程依然要等待 recvfrom() 函数将数据从内核空间拷贝到用户空间,才会从 recvfrom() 系统调用函数中返回。
  非阻塞 IO 模型解决了" 两次进程切换,两处阻塞,单进程对单连接 "中的" 两处阻塞 "问题,将" 两处阻塞 "变成了" 一处阻塞 ",但依然存在" 两次进程切换,一处阻塞,单进程对单连接 "的问题。 1.3 IO 多路复用
  要解决" 两次进程切换,单进程对单连接 "的问题,服务器引入了 IO 多路复用技术,通过一个进程处理多个 TCP 连接,不仅降低了服务器处理网络请求的进程数,而且不用在每个连接的数据到达时就进行进程切换,进程可以一直运行并只处理有数据到达的连接,当然,如果要监听的所有连接都没有数据到达,进程还是会进入阻塞状态,直到某个连接有数据到达时被回调函数唤醒。
  IO 多路复用模型如下图所示:
  图1.4 IO多路复用模型
  从上图可知,系统调用 select 函数阻塞执行并返回数据就绪的连接个数,然后调用 recvfrom() 函数将到达内核空间的数据拷贝到用户空间,尽管这两个阶段都是阻塞的,但是由于只会处理有数据到达的连接,整体效率会有极大的提升。
  到这里,阻塞 IO 模型的" 两次进程切换,两处阻塞,单进程对单连接 "问题,通过非阻塞 IO 和多路复用技术,就只剩下了" 一处阻塞 "这个问题,即 Linux 服务器上用户进程一定要等待数据从内核空间拷贝到用户空间,如果这个步骤也变成非阻塞的,也就是进程调用 recvfrom 后立刻返回,内核自行去准备好数据并将数据从内核空间拷贝到用户空间、再 notify 通知用户进程去读取数据,那就是  IO 异步调用 ,不过,Linux 没有提供异步 IO 的实现,真正意义上的网络异步 IO 是 Windows 下的 IOCP(IO 完成端口)模型,这里就不探讨了。 2. 详解 select、poll、epoll 实现原理2.1 select 实现原理select 函数定义
  Linux 提供的 select 函数的定义如下: int select(     int nfds,                     // 监控的文件描述符集里最大文件描述符加1     fd_set *readfds,              // 监控有读数据到达文件描述符集合,引用类型的参数     fd_set *writefds,             // 监控写数据到达文件描述符集合,引用类型的参数     fd_set *exceptfds,            // 监控异常发生达文件描述符集合,引用类型的参数     struct timeval *timeout);     // 定时阻塞监控时间
  readfds、writefds、errorfds 是三个文件描述符集合。select 会遍历每个集合的前 nfds 个描述符,分别找到可以读取、可以写入、发生错误的描述符,统称为"就绪"的描述符。然后用找到的子集替换这三个引用参数中的对应集合,返回所有就绪描述符的数量。
  timeout 参数表示调用 select 时的阻塞时长。如果所有 fd 文件描述符都未就绪,就阻塞调用进程,直到某个描述符就绪,或者阻塞超过设置的 timeout 后,返回。如果 timeout 参数设为 NULL,会无限阻塞直到某个描述符就绪;如果 timeout 参数设为 0,会立即返回,不阻塞。
  文件描述符 fd
  文件描述符(file descriptor)是一个非负整数,从 0 开始。进程使用文件描述符来标识一个打开的文件。Linux 中一切皆文件。
  系统为每一个进程维护了一个文件描述符表,表示该进程打开文件的记录表,而 文件描述符实际上就是这张表的索引 。每个进程默认都有 3 个文件描述符:0 (stdin)、1 (stdout)、2 (stderr)。
  socket
  socket 可以用于同一台主机的不同进程间的通信,也可以用于不同主机间的通信。操作系统将 socket 映射到进程的一个文件描述符上,进程就可以通过读写这个文件描述符来和远程主机通信。
  socket 是进程间通信规则的高层抽象,而 fd 提供的是底层的具体实现。socket 与 fd 是一一对应的。通过 socket 通信,实际上就是通过文件描述符 fd 读写文件。
  本文中,为了方便理解,可以认为 socket 内核对象   fd 文件描述符   TCP 连接。
  fd_set 文件描述符集合
  select 函数参数中的 fd_set 类型表示文件描述符的集合。
  由于文件描述符 fd 是一个从 0 开始的无符号整数,所以可以使用 fd_set 的二进制每一位来表示一个文件描述符。某一位为 1,表示对应的文件描述符已就绪。比如比如设 fd_set 长度为 1 字节,则一个 fd_set 变量最大可以表示 8 个文件描述符。当 select 返回 fd_set = 00010011 时,表示文件描述符 1、2、5 已经就绪。
  fd_set 的 API
  fd_set 的使用涉及以下几个 API: #include  int FD_ZERO(int fd, fd_set *fdset);  // 将 fd_set 所有位置 0 int FD_CLR(int fd, fd_set *fdset);   // 将 fd_set 某一位置 0 int FD_SET(int fd, fd_set *fd_set);  // 将 fd_set 某一位置 1 int FD_ISSET(int fd, fd_set *fdset); // 检测 fd_set 某一位是否为 1
  select 监听多个连接的用法
  服务端使用 select 监控多个连接的 C 代码是: #define MAXCLINE 5       // 连接队列中的个数 int fd[MAXCLINE];        // 连接的文件描述符队列  int main(void) {       sock_fd = socket(AF_INET,SOCK_STREAM,0)          // 建立主机间通信的 socket 结构体       .....       bind(sock_fd, (struct sockaddr *)&server_addr, sizeof(server_addr);         // 绑定socket到当前服务器       listen(sock_fd, 5);  // 监听 5 个TCP连接        fd_set fdsr;         // bitmap类型的文件描述符集合,01100 表示第1、2位有数据到达       int max;        for(i = 0; i < 5; i++)       {           .....           fd[i] = accept(sock_fd, (struct sockaddr *)&client_addr, &sin_size);   // 跟 5 个客户端依次建立 TCP 连接,并将连接放入 fd 文件描述符队列       }        while(1)               // 循环监听连接上的数据是否到达       {         FD_ZERO(&fdsr);      // 对 fd_set 即 bitmap 类型进行复位,即全部重置为0          for(i = 0; i < 5; i++)         {              FD_SET(fd[i], &fdsr);      // 将要监听的TCP连接对应的文件描述符所在的bitmap的位置置1,比如 0110010110 表示需要监听第 1、2、5、7、8个文件描述符对应的 TCP 连接         }          ret = select(max + 1, &fdsr, NULL, NULL, NULL);  // 调用select系统函数进入内核检查哪个连接的数据到达          for(i=0;i<5;i++)         {             if(FD_ISSET(fd[i], &fdsr))      // fd_set中为1的位置表示的连接,意味着有数据到达,可以让用户进程读取             {                 ret = recv(fd[i], buf,sizeof(buf), 0);                 ......             }         }   }
  从注释中,我们可以看到,在一个进程中使用 select 监控多个连接的主要步骤是:
  1)调用 socket() 函数建立主机间通信的 socket 结构体,bind() 绑定 socket 到当前服务器,listen() 监听五个 TCP 连接;
  2)调用 accept() 函数建立和 5 个客户端的 TCP 连接,并把连接的文件描述符放入 fd 文件描述符队列;
  3) 定义一个 fd_set 类型的变量 fdsr;
  4)调用 FD_ZERO,将 fdsr 所有位置 0;
  5)调用 FD_SET,将 fdsr 要监听的几个文件描述符的位置 1,表示要监听这几个文件描述符指向的连接;
  6)调用 select() 函数,并将 fdsr 参数传递给 select;
  7)select 会将 fdsr 中就绪的位置 1,未就绪的位置 0,返回就绪的文件描述符的数量;
  8)当 select 返回后,调用 FD_ISSET 检测哪些位为 1,表示对应文件描述符对应的连接的数据已经就绪,可以调用 recv 函数读取该连接的数据了。
  select 的执行过程
  在服务器进程 A 启动的时候,要监听的连接的 socket 文件描述符是 3、4、5,如果这三个连接均没有数据到达网卡,则进程 A 会让出 CPU,进入阻塞状态,同时会将进程 A 的进程描述符和被唤醒时用到的回调函数组成等待队列项加入到 socket 对象 3、4、5 的进程等待队列中,注意,这时 select 调用时,fdsr 文件描述符集会从用户空间拷贝到内核空间,如下图所示:
  图2.1 select进程启动时,没有数据到达网卡
  当网卡接收到数据,然后网卡通过中断信号通知 CPU 有数据到达,执行中断程序,中断程序主要做了两件事:
  1)将网络数据写入到对应 socket 的数据接收队列里面;
  2)唤醒队列中的等待进程 A,重新将进程 A 放入 CPU 的运行队列中;
  假设连接 3、5 有数据到达网卡,注意,这时 select 调用结束时,fdsr 文件描述符集会从内核空间拷贝到用户空间:
  图2.2 select进程有数据到达时,会通过回调函数唤醒进程进行数据的读取
  select 的缺点
  从上面两图描述的执行过程,可以发现 select 实现多路复用有以下缺点:
  1.性能开销大
  1)调用 select 时会陷入内核,这时需要将参数中的 fd_set 从用户空间拷贝到内核空间,select 执行完后,还需要将 fd_set 从内核空间拷贝回用户空间,高并发场景下这样的拷贝会消耗极大资源;(epoll 优化为不拷贝)
  2)进程被唤醒后,不知道哪些连接已就绪即收到了数据,需要遍历传递进来的所有 fd_set 的每一位,不管它们是否就绪;(epoll 优化为异步事件通知)
  3)select 只返回就绪文件的个数,具体哪个文件可读还需要遍历;(epoll 优化为只返回就绪的文件描述符,无需做无效的遍历)
  2.同时能够监听的文件描述符数量太少。受限于 sizeof(fd_set) 的大小,在编译内核时就确定了且无法更改。一般是 32 位操作系统是 1024,64 位是 2048。(poll、epoll 优化为适应链表方式)
  第 2 个缺点被 poll 解决,第 1 个性能差的缺点被 epoll 解决。 2.2 poll 实现原理
  和 select 类似,只是描述 fd 集合的方式不同,poll 使用 pollfd 结构而非 select 的 fd_set 结构。 struct pollfd {     int fd;           // 要监听的文件描述符     short events;     // 要监听的事件     short revents;    // 文件描述符fd上实际发生的事件 };
  管理多个描述符也是进行轮询,根据描述符的状态进行处理,但  poll 无最大文件描述符数量的限制 , 因其基于链表存储 。
  select 和 poll 在内部机制方面并没有太大的差异。相比于 select 机制,poll 只是取消了最大监控文件描述符数限制,并没有从根本上解决 select 存在的问题。 2.3 epoll 实现原理
  epoll 是对 select 和 poll 的改进,解决了"性能开销大"和"文件描述符数量少"这两个缺点,是性能最高的多路复用实现方式,能支持的并发量也是最大。
  epoll 的特点是:
  1)使用 红黑树 存储 一份 文件描述符集合,每个文件描述符只需在添加时传入一次,无需用户每次都重新传入;—— 解决了 select 中 fd_set 重复拷贝到内核的问题
  2)通过异步 IO 事件找到就绪的文件描述符,而不是通过轮询的方式;
  3)使用队列存储就绪的文件描述符,且会按需返回就绪的文件描述符,无须再次遍历;
  epoll 的基本用法是: int main(void) {       struct epoll_event events[5];       int epfd = epoll_create(10);         // 创建一个 epoll 对象       ......       for(i = 0; i < 5; i++)       {           static struct epoll_event ev;           .....           ev.data.fd = accept(sock_fd, (struct sockaddr *)&client_addr, &sin_size);           ev.events = EPOLLIN;           epoll_ctl(epfd, EPOLL_CTL_ADD, ev.data.fd, &ev);  // 向 epoll 对象中添加要管理的连接       }        while(1)       {          nfds = epoll_wait(epfd, events, 5, 10000);   // 等待其管理的连接上的 IO 事件           for(i=0; i
恭喜RNG31拿下LNG,夺取第四张世界赛门票头条创作挑战赛RNG永不言弃在今天的LPL夏季赛最后一轮冒泡赛中,RNG最终以31的成绩击败LNG,夺取最后一张前往S12全球总决赛的门票(预测,欢迎打脸呲牙呲牙呲牙)由于RNG春PCS7赛程出炉,4AM提前锁定门票,PERO想要卫冕困难重重韩国赛区的PWS已经结束,PCL季后赛也只剩下了两天,而接下最为关键的PCS7洲际赛马上来临,PCL联赛也是第一时间公布了相关流程,与之前的PCS6没有太大差别,因为上次世界赛上N恭喜RNG拿下第4张通往世界赛的门票今日迎来RNG与LNG争夺第四张通往世界赛的门票。RNG在前面与EDG的比赛中被让二最三,失去了第三张通往世界赛的门票。但是今天RNG在手拿3个赛点的情况下,被LNG连翻2盘,但是呼吸哥拒绝卖票,RNG32拿下LNG,获得最后一张世界赛门票呼吸哥剑姬拒绝卖票,精彩表现拿下MVP,带领RNG拿下胜利,赛后采访呼吸哥也是泪洒赛场,直言自己的付出有了回报!在RNG32拒绝被让二追三,战胜LNG后,获得了最后一张通往世界赛的RNG拿到最后一张世界赛门票9月4号RNGVSLNG争最后一张世界赛门票,这结果以32RNG拿到最后一张通往世界赛的门票。第一局RNG轻松拿下第二局RNG轻松拿下第三局LNG拿到土龙魂扳回一城第四局RNG打团男单决赛对阵出炉!向鹏林高远争夺世乒赛门票,国乒男单4人出局北京时间9月4日,国乒世乒赛选拔赛正在进行。男单A组方面,世界冠军林高远总比分30战胜赵子豪,31击败袁励岑,凭借小组赛两连胜,林高远小组排名第一直接晋级男单决赛。林高远将静候B组我国截胡美元杀猪盘,货币暗战同样精彩!美国若输不起会耍赖吗?今年美联储开始激进的加息了,一加就是75个基点还加了好几次,美国的目的很明显。首先第一个目的就是为了缓解美国自身的通胀问题,那么第二个目的就是为了自己下一轮收割全世界财富,做好一个房山精品旅游线路(十)自驾之旅自驾京西,环游房山房山区文化和旅游局面向市场重磅推出10条大美房山非常精彩旅游线路本次线路汇集了房山区域内精品文旅产业全面链接自然景区精品民宿农业采摘特色美食红酒庄园时尚购物等特色目的地点击查看大图2022年全国非遗与旅游融合发展优选项目名录公示山东20个项目入选为进一步推动落实以文塑旅,以旅彰文,文旅互鉴互融。近日,中国非物质文化遗产保护协会面向社会公示2022年全国非遗与旅游融合发展优选项目名录。本次遴选的200个非遗与旅游融合发展优选恢弘大气!三峡大坝是我们的骄傲!网友说Lucyyyy建设三峡大坝功在当代,利在千秋。Sunshine苫三峡大坝太壮观了,它是我国巨大的财富。艾瑞卡卡曼雄伟的三峡大坝!我说你真好看恢弘大气!三峡大坝是我们的骄傲!悠闲晚风石景山4大主题16条线路等你来玩为了让参加服贸会的嘉宾和观众拥有更好的旅游消费体验,围绕吃住行游购娱全要素,聚焦当下市民喜爱的城市微度假亲近自然都市休闲潮玩打卡等发展趋势,石景山在服贸会期间面向展商和市民发布20
创业三十年只干一件事广州岭南教育集团联合创始人贺惠芬贺惠芬认为,慢跑锻炼对放松疲倦的大脑很重要。扫码看女企业家精彩人生。贺惠芬30年来,广州岭南教育集团为社会培养了30万名毕业生,看到孩子们改变命运身空中造楼机来了,将助力海南第一高楼拔节生长3月7日上午10时58分海南中心项目完成空中造楼机顶模首根立柱吊装预计于今年4月中旬完成全部安装届时这个海南第一高楼项目将进入节节高升模式空中造楼机首根立柱被吊起。新海南记者刘洋摄投资企业盘点2022年度九江市制造业投资企业50强名单汇总(图)中商情报网讯2022年,九江市制造业支撑作用较强,从三大门类看,全市制造业继续保持较快增长,制造业增加值增长6。9,高于全市规模工业增加值增幅1。3个百分点,对全市工业增长的贡献率未来三年丽泽金融商务区怎么发展?丰台发布行动方案北京日报客户端记者孙颖刘平3月7日,丰台区举行遇见丰台众汇京彩发布会,北京丽泽金融商务区高质量发展建设三年行动方案正式公布,丰台区将高能级建设丽泽配套设施,将丽泽打造为城南开放交流空翻多!华尔街最悲观分析师美股短线还能涨经历了2月抛售,美股3月以来表现强劲,关键经济数据的不俗表现暂时缓和了市场对通胀和利率的担忧。作为华尔街最悲观的分析师之一,摩根士丹利首席美股策略师威尔逊(MikeWilson)也全面注册制重点规则解读昨晚深入看了一下全面注册制的相关文件。对大家最关心的问题做出解答咯。因为许多投资者都是兼职,时间不够,对于文件和政策的解读不深入。这也是正常的。特别是价格笼子,不少人都有恐惧。这次一单难求!买大额存单仍需拼手速特色存款和保险也成香饽饽今年以来,储户的认购大额存单热情不减,一单难求的现象仍然存在,这也使得不少银行在大额存单发售前,通过短信客户经理朋友圈等方式,提醒储户提前做好购买准备。3月7日,北京商报记者调查发全国人大代表于清明打造现代医药物流体系助推全国统一大市场建设来源中国经济网中国经济网北京3月7日讯(记者郭文培)今年政府工作报告提出完善现代物流体系。医药物流是保障药品供给的基础,一头连着企业,一头连着医患一头系着经济,一头系着民生。打造现95后文学每次去外公家,外公都会坐在门口的板凳上等我,我总是让他失望,但他却从来不埋怨我。有一年国庆节前,我便盘算着日子,打算给他意外的惊喜。去的那天,帮母亲忙完农活已是傍晚时分。四季分明的降价高层生变!东风集团2022年跑输大盘利润堪忧摘要乏力乏力乏力(欢迎关注杠杆游戏)撰文张银银编辑欣欣然这几天东风汽车集团特别火,因年龄原因,该司一把手竺延风退休。竺延风是中国汽车行业老兵,在一汽集团干了20来年,后转入政界,22023年3月7日钾肥行情钾肥氯化钾钾肥市场价格继续呈现走低的趋势,市场高低端均有小幅下行,且在心态相对恐慌的情况下,市场新单成交并不积极,下游工厂采购有限。目前进口62白钾的价格多在35503650元吨,