立Flag学习Ng1
立Flag 学习Ng - 1
立Flag: 计划一周学习完nginx(这里仅学习应用相关,不会学习源码)
参考文档:
https://www.nginx.cn/doc/
http://nginx.org/en/docs/ 一、一些基本概念1、啥是NginxNginx* (engine x) 是一个高性能的HTTP和反向代理服务器,特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好。
Nginx专为性能优化而发,性能是其最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50,000个并发连接数。 2、啥是反向代理
nginx可以做反向代理,那什么是反向代理呢?
先了解什么是正向代理:
比如说我们玩游戏如英雄联盟等都是有启动器的,我们如果想玩的是时候就运行客户端即可。而不是我们直接去访问服务器,那么这个启动器就可以理解为一个正向代理,我们访问启动器,通过启动器链接服务器。
那反向代理呢?
比如我们去百货超市买东西,买好吃的,好玩的 品牌有很多,厂家没有直接将商品卖给我们,而是委托给百货超市进行售卖。
例子不会很恰当,能get到点的举个手吧(不管你们反正我举手)。
正向代理的用途: 访问原来无法访问的资源 可以做缓存,加速访问资源 对客户端访问授权,上网进行认证 代理可以记录用户访问记录(上网行为管理),对外隐藏用户信息
反向代理的作用: 保证内网的安全,阻止web攻击,大型网站,通常将反向代理作为公网访问地址,Web服务器是内网 负载均衡,通过反向代理服务器来优化网站的负载 3、负载均衡
百度词条:https://baike.baidu.com/item/%E8%B4%9F%E8%BD%BD%E5%9D%87%E8%A1%A1/932451?fr=aladdin 二、安装
之前一篇文章中已经写了 链接 : nginx - WebSocket 三、认识Nginx
之前写了两篇关于 nginx 配置 webSocket 和集群的简单文章
这篇开始进行系统的学习。
实际工作中大部分都是在和 ng 的配置文件打交道。因此我们来看下配置文件都有哪些信息配置文件
https://www.runoob.com/w3cnote/nginx-setup-intro.html # 全局块 # 定义Nginx运行的用户和用户组 #user nobody; # nginx进程数,建议设置为等于CPU总核心数。 worker_processes 1; # 全局错误日志定义类型,[ debug | info | notice | warn | error | crit ] error_log /usr/local/nginx/logs/error.log info; # 进程pid文件 pid /usr/local/nginx/logs/nginx.pid; #指定进程可以打开的最大描述符:数目 #工作模式与连接数上限 #这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit -n 的值保持一致。 #现在在linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。 #这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。 worker_rlimit_nofile 65535; # event块 events { #设置网路连接序列化,防止惊群现象发生,默认为on # 惊群现象:一个网路连接到来,多个睡眠的进程被同时叫醒,但只有一个进程能获得链接,这样会影响系统性能。 accept_mutex on; #设置一个进程是否同时接受多个网络连接,默认为off multi_accept on; # 参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型 # 是Linux 2.6以上版本内核中的高性能网络I/O模型,linux建议epoll,如果跑在FreeBSD上面,就用kqueue模型。 # 补充说明: # 与apache相类,nginx针对不同的操作系统,有不同的事件模型 # A)标准事件模型 # Select、poll属于标准事件模型,如果当前系统不存在更有效的方法,nginx会选择select或poll # B)高效事件模型 # Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会造成内核崩溃。 # Epoll:使用于Linux内核2.6版本及以后的系统。 # /dev/poll:使用于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。 # Eventport:使用于Solaris 10。 为了防止出现内核崩溃的问题, 有必要安装安全补丁。 use epoll; # 单个进程最大连接数(最大连接数=连接数*进程数) # 根据硬件调整,和前面工作进程配合起来用,尽量大,但是别把cpu跑到100%就行。每个进程允许的最多连接数,理论上每台nginx服务器的最大连接数为。 worker_connections 1024; # keepalive超时时间。 keepalive_timeout 60; # 客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。 # 分页大小可以用命令getconf PAGESIZE 取得。 # [root@web001 ~]# getconf PAGESIZE # 4096 # 但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为"系统分页大小"的整倍数。 client_header_buffer_size 4k; # 这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。 open_file_cache max=65535 inactive=60s; # 这个是指多长时间检查一次缓存的有效信息。 # 语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使用字段:http, server, location 这个指令指定了何时需要检查open_file_cache中缓存项目的有效信息. open_file_cache_valid 80s; # open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。 # 语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location 这个指令指定了在open_file_cache指令无效的参数中一定的时间范围内可以使用的最小文件数,如果使用更大的值,文件描述符在cache中总是打开状态. open_file_cache_min_uses 1; # 语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录cache错误. open_file_cache_errors on; } # http块 http { # 文件扩展名与文件类型映射表 include mime.types; # 默认文件类型 default_type application/octet-stream; # 默认编码 #charset utf-8; # 服务器名字的hash表大小 # 保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。如果hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果Nginx给出需要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小. server_names_hash_bucket_size 128; # 客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。 client_header_buffer_size 32k; # 客户请求头缓冲大小。nginx默认会用client_header_buffer_size这个buffer来读取header值,如果header过大,它会使用large_client_header_buffers来读取。 large_client_header_buffers 4 64k; # 设定通过nginx上传文件的大小 client_max_body_size 8m; # 开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。 # sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为on。如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,降低系统uptime。 sendfile on; # 开启目录列表访问,合适下载服务器,默认关闭。 autoindex on; # 此选项允许或禁止使用socket的TCP_CORK的选项,此选项仅在使用sendfile的时候使用 tcp_nopush on; tcp_nodelay on; # 长连接超时时间,单位是秒 keepalive_timeout 65; # gzip模块设置 # 开启gzip压缩输出 gzip on; # 最小压缩文件大小 gzip_min_length 1k; # 压缩缓冲区 gzip_buffers 4 16k; # 压缩版本(默认1.1,前端如果是squid2.5请使用1.0) gzip_http_version 1.0; # 压缩等级 gzip_comp_level 2; # 压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。 gzip_types text/plain application/x-javascript text/css application/xml; gzip_vary on; #开启限制IP连接数的时候需要使用 #limit_zone crawler $binary_remote_addr 10m; #负载均衡配置 upstream test.com { #upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。 server 192.168.80.121:80 weight=3; server 192.168.80.122:80 weight=2; server 192.168.80.123:80 weight=3; #nginx的upstream目前支持5种方式的分配 #1、轮询(默认) #每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。 #2、weight #指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。 #例如: #upstream bakend { # server 192.168.0.14 weight=10; # server 192.168.0.15 weight=10; #} #3、ip_hash #每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。 #例如: #upstream bakend { # ip_hash; # server 192.168.0.14:88; # server 192.168.0.15:80; #} #4、fair(第三方) #按后端服务器的响应时间来分配请求,响应时间短的优先分配。 #upstream backend { # server server1; # server server2; # fair; #} #5、url_hash(第三方) #按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。 #例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法 #upstream backend { # server squid1:3128; # server squid2:3128; # hash $request_uri; # hash_method crc32; #} #tips: #upstream bakend{#定义负载均衡设备的Ip及设备状态}{ # ip_hash; # server 127.0.0.1:9090 down; # server 127.0.0.1:8080 weight=2; # server 127.0.0.1:6060; # 热备 # server 127.0.0.1:7070 backup; #} #在需要使用负载均衡的server中增加 proxy_pass http://bakend/; # 每个设备的状态设置为: # 1.down表示单前的server暂时不参与负载 # 2.weight为weight越大,负载的权重就越大。 # 3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误 # 4.fail_timeout:max_fails次失败后,暂停的时间。 # 5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。 # nginx支持同时设置多组的负载均衡,用来给不用的server来使用。 # client_body_in_file_only设置为On 可以将client post过来的数据记录到文件中用来做debug # client_body_temp_path设置记录文件的目录 可以设置最多3层目录 # location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡 } # 虚拟主机的配置 server { # 单连接请求上限次数。 keepalive_requests 120; # 监听端口 listen 80; # 域名可以有多个,用空格隔开 server_name www.jd.com jd.com; index index.html index.htm index.php; root /data/www/jd; # 对******进行负载均衡 location ~ .*.(php|php5)?$ { fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; include fastcgi.conf; } # 图片缓存时间设置 location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$ { expires 10d; } # JS和CSS缓存时间设置 location ~ .*.(js|css)?$ { expires 1h; } # 日志格式设定 # 通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。 log_format access "$remote_addr - $remote_user [$time_local] "$request" " "$status $body_bytes_sent "$http_referer" " ""$http_user_agent" $http_x_forwarded_for"; #定义本虚拟主机的访问日志 access_log /usr/local/nginx/logs/host.access.log main; access_log /usr/local/nginx/logs/host.access.404.log log404; # 对 "/" 启用反向代理 location / { root html; index index.html index.htm; proxy_pass http://127.0.0.1:88; proxy_redirect off; proxy_set_header X-Real-IP $remote_addr; # 后端的Web服务器可以通过X-Forwarded-For获取用户真实IP proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # 以下是一些反向代理的配置,可选。 proxy_set_header Host $host; # 允许客户端请求的最大单文件字节数 client_max_body_size 10m; # 缓冲区代理缓冲用户端请求的最大字节数, # 如果把它设置为比较大的数值,例如256k,那么,无论使用firefox还是IE浏览器,来提交任意小于256k的图片,都很正常。如果注释该指令,使用默认的client_body_buffer_size设置,也就是操作系统页面大小的两倍,8k或者16k,问题就出现了。 # 无论使用firefox4.0还是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误 client_body_buffer_size 128k; # 表示使nginx阻止HTTP应答代码为400或者更高的应答。 proxy_intercept_errors on; # 后端服务器连接的超时时间_发起握手等候响应超时时间 # nginx跟后端服务器连接超时时间(代理连接超时) proxy_connect_timeout 90; # 后端服务器数据回传时间(代理发送超时) # 后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据 proxy_send_timeout 90; # 连接成功后,后端服务器响应时间(代理接收超时) # 连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间) proxy_read_timeout 90; # 设置代理服务器(nginx)保存用户头信息的缓冲区大小 # 设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过可以将其设置为更小 proxy_buffer_size 4k; # proxy_buffers缓冲区,网页平均在32k以下的设置 # 设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k或者8k proxy_buffers 4 32k; # 高负荷下缓冲大小(proxy_buffers*2) proxy_busy_buffers_size 64k; # 设置在写入proxy_temp_path时数据的大小,预防一个工作进程在传递文件时阻塞太长 # 设定缓存文件夹大小,大于这个值,将从upstream服务器传 proxy_temp_file_write_size 64k; } #设定查看Nginx状态的地址 location /NginxStatus { stub_status on; access_log on; auth_basic "NginxStatus"; auth_basic_user_file confpasswd; #htpasswd文件的内容可以用apache提供的htpasswd工具来产生。 } # 本地动静分离反向代理配置 # 所有jsp的页面均交由tomcat或resin处理 location ~ .(jsp|jspx|do)?$ { proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_pass http://127.0.0.1:8080; # 拒绝的ip deny 127.0.0.1; # 允许的ip allow 172.18.5.54; } # 所有静态文件由nginx直接读取不经过tomcat或resin location ~ .*.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt| pdf|xls|mp3|wma)$ { expires 15d; } location ~ .*.(js|css)?$ { expires 1h; } error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } } }
几个常见配置项: 1.$remote_addr 与 $http_x_forwarded_for 用以记录客户端的ip地址; 2.$remote_user :用来记录客户端用户名称; 3.$time_local : 用来记录访问时间与时区; 4.$request : 用来记录请求的url与http协议; 5.$status : 用来记录请求状态;成功是200; 6.$body_bytes_s ent :记录发送给客户端文件主体内容大小; 7.$http_referer :用来记录从那个页面链接访问过来的; 8.$http_user_agent :记录客户端浏览器的相关信息; Nginx的进程模型
nginx 进程分为 master进程和work进程,在 nginx - WebSocket 中使用 ps -ef|grep nginx 可以看到启动ng 后的进程信息root 18496 1 0 Dec14 ? 00:00:00 nginx: master process ./nginx nobody 28522 18496 0 09:49 ? 00:00:00 nginx: worker process root 28530 28497 0 09:50 pts/0 00:00:00 grep --color=auto nginx
nginx的每个进程都是独立的,相互之间是安全的。一个worker 宕机了,其它work还是继续工作,相互没有影响。
下图是大致的进程模型(这个图我画了10分钟,效果不尽人意)
Niginx 常见命令# 根据配置文件启动ng # /nginx/conf/nginx.conf 为默认目录 nginx -c /usr/local/nginx/conf/nginx.conf # 查看进程号 ps -ef|grep nginx # 优雅杀死 QUIT是kill的参数 kill -QUIT 2072 # 快速杀死 kill -TERM 2132 kill -INT 2132 kill -9 2132 # 验证nginx配置文件是否正确 nginx -t 重启Nginx服务 nginx -s reload