您的位置:首页 > 财经 > 金融 > Nginx详解

Nginx详解

2024/12/22 17:07:40 来源:https://blog.csdn.net/Fireworkit/article/details/141192823  浏览:    关键词:Nginx详解

文章目录

    • 概述
    • Nginx的特点
    • 主要功能
    • Nginx应用场景
    • Nginx的架构
    • 什么是域名
    • 什么是反向代理
    • 什么是负载均衡高可用
    • Nginx 配置文件详解
    • Nginx配置文件各个模块说明
    • Nginx实现多端口服务
    • Nginx实现多域名服务
    • uptream负载均衡常用配置项说明
    • proxy_pass中url末尾带/与不带/的区别
    • nginx比apache的优点
    • Nginx 反向代理为什么能够提升服务器性能
    • Nginx 多进程模型是如何实现高并发的

概述

Nginx是一款高性能的http 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器。由俄罗斯的程序设计师Igor Sysoev所开发,官方测试nginx能够支支撑5万并发链接,并且cpu、内存等资源消耗却非常低,运行非常稳定。Nginx 是一款非常强大的 Web 服务器和反向代理服务器,其高效的事件驱动架构使其能够轻松处理高并发请求。通过灵活的配置文件,Nginx 可以满足多种需求,从简单的静态内容服务到复杂的负载均衡和反向代理。广泛用于静态内容服务、负载均衡、反向代理、缓存、以及作为 API 网关等。它以轻量级、高并发、高扩展性著称,能够处理大量的并发连接。

Nginx的特点

高性能:Nginx使用异步、非阻塞事件驱动模型,能够高效地处理大量并发连接,相对于传统的进程或线程模型,Nginx使用更少的内存和CPU资源。
高并发:Nginx的官方测试显示其能够支撑高达5万并发连接,这在同类型的网页服务器中表现突出。
低资源消耗:在3万并发连接下,Nginx开启的10个进程仅消耗约150M内存。
稳定性高:Nginx运行非常稳定,适用于大型高并发网站、在线视频、物联网、云计算等场景。
模块化设计:Nginx的功能通过模块实现,用户可以根据需求加载不同的模块,扩展性好。
丰富的功能:支持HTTP/2、反向代理、负载均衡、缓存、SSL/TLS、WebSocket等。

主要功能

静态内容服务:Nginx 可以非常高效地提供静态文件(如 HTML、CSS、JavaScript、图片等)。由于其事件驱动架构,Nginx 能够处理大量的并发请求,适合高流量的静态内容网站。
反向代理:Nginx 可以作为反向代理,将客户端请求转发到后端服务器(如 Apache、Tomcat、Node.js 等)。Nginx 作为反向代理时可以处理 SSL 终止、负载均衡、缓存等任务。
负载均衡:Nginx 支持多种负载均衡策略,如轮询、加权轮询、IP 哈希等,可以在多台后端服务器之间分发请求,从而提高应用的可用性和扩展性。
缓存:Nginx 支持对静态和动态内容进行缓存,减少后端服务器的压力,提高响应速度。
SSL/TLS 支持:Nginx 能够处理 SSL/TLS 加密连接,提供安全的 HTTPS 服务,并且支持 SNI(Server Name Indication)用于托管多个 SSL 站点。
URL 重写和重定向:Nginx 支持使用正则表达式进行 URL 重写和重定向,这是 SEO 优化和 URL 友好性的重要功能。
访问控制:Nginx 支持基于 IP 地址的访问控制列表(ACL),可以允许或拒绝对特定资源的访问。
Gzip 压缩:Nginx 支持对响应内容进行 Gzip 压缩,减少数据传输量,提高网页加载速度。
WebSocket支持:Nginx也支持WebSocket协议,可用于实时通信应用程序。
访问控制和安全:Nginx可以使用访问控制、基于IP地址的访问限制等来提高服务器的安全性,有效保护Web应用程序和服务器。

Nginx应用场景

http服务器。Nginx是一个http服务可以独立提供http服务。可以做网页静态服务器。
虚拟主机。可以实现在一台服务器虚拟出多个网站。例如个人网站使用的虚拟主机。
反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做反向代理。并且多台服务器可以平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况。
Nginx因其性能优异、高可靠性、丰富的模块化支持和简单易用等优势,被广泛应用于静态文件服务、反向代理和负载均衡、缓存服务器、SSL加速、WebSocket、访问控制和安全等多种场景。在中国大陆,许多知名网站如百度、京东、腾讯、淘宝等都使用了Nginx作为其Web服务器或反向代理服务器。

Nginx的架构

Nginx采用模块化设计,核心功能和扩展功能都通过模块实现。模块分为核心模块、标准HTTP模块和第三方模块。Nginx的核心架构设计是其高性能和高可用性的关键,主要包括以下部分:
事件驱动模型:基于epoll(Linux)、kqueue(FreeBSD)等高效的I/O多路复用机制,实现事件的高效分发和处理。
Master-Worker进程模型:
Master进程:负责管理Worker进程,处理信号和管理共享资源。
Worker进程:处理实际的请求,每个Worker进程独立处理不同的连接,互不干扰,提高了并发处理能力和稳定性。
Nginx如何处理HTTP请求。
Nginx使用反应器模式。主事件循环等待操作系统发出准备事件的信号,这样数据就可以从套接字读取,在该实例中读取到缓冲区并进行处理。单个线程可以提供数万个并发连接。

什么是域名

域名就是网站。www.baidu.com www.taobao.com www.jd.com
Dns服务器:把域名解析为ip地址。保存的就是域名和ip的映射关系。
一级域名:Baidu.com,Taobao.com,Jd.com
二级域名:www.baidu.com,Image.baidu.com,Item.baidu.com
三级域名:1.Image.baidu.com,Aaa.image.baidu.com
一个域名对应一个ip地址,一个ip地址可以被多个域名绑定。

什么是反向代理

反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。
反向代理服务器决定哪台服务器提供服务。
返回代理服务器不提供服务器
两个域名指向同一台nginx服务器,用户访问不同的域名显示不同的网页内容。
两个域名是www.sian.com.cn和www.sohu.com
nginx服务器使用虚拟机192.168.101.3 
通过在upstream节点里面配置server(主机名+端口号确定唯一主机)实现反向代理;

什么是负载均衡高可用

nginx作为负载均衡器,所有请求都到了nginx,可见nginx处于非常重点的位置,如果nginx服务器宕机后端web服务将无法提供服务,影响严重。为了屏蔽负载均衡服务器的宕机,需要建立一个备份机。主服务器和备份机上都运行高可用(High Availability)监控程序,通过传送诸如“I am alive”这样的信息来监控对方的运行状况。当备份机不能在一定的时间内收到这样的信息时,它就接管主服务器的服务IP并继续提供负载均衡服务;当备份管理器又从主管理器收到“I am alive”这样的信息时,它就释放服务IP地址,这样的主服务器就开始再次提供负载均衡服务。
Nginx的负载均衡和高可用
通过keepalived+Nginx实现Nginx的高可用和负载均衡

Nginx 配置文件详解

Nginx 的配置文件通常位于 /etc/nginx/nginx.conf,它采用层次化结构,通过块(block)来组织配置项。以下是一个典型的 Nginx 配置文件示例,
Nginx的配置文件nginx.conf位于其安装目录的conf目录下。
nginx.conf由多个块组成,最外面的块是main,main包含Events和HTTP,HTTP包含upstream和多个Server,Server又包含多个location:具体结构如下所示
全局配置

user www-data;  # Nginx 运行的用户
worker_processes auto;  # Nginx 进程数,auto 表示自动选择,通常为 CPU 核心数
error_log /var/log/nginx/error.log warn;  # 错误日志路径和级别
pid /var/run/nginx.pid;  # PID 文件位置
#事件模块配置
events {worker_connections 1024;  # 每个 worker 进程的最大连接数use epoll;  # 使用 epoll 事件驱动模型(Linux 下高效模型)
}
#HTTP 模块配置
http {include /etc/nginx/mime.types;  # 文件扩展名与 MIME 类型映射表default_type application/octet-stream;  # 默认 MIME 类型log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_referer" ''"$http_user_agent" "$http_x_forwarded_for"';access_log /var/log/nginx/access.log main;  # 访问日志sendfile on;  # 开启高效文件传输模式keepalive_timeout 65;  # 长连接超时时间gzip on;  # 开启 Gzip 压缩gzip_disable "msie6";  # 禁用 IE6 的 gzip# 虚拟主机配置server {listen 80;  # 监听端口server_name example.com www.example.com;  # 服务器名称(域名)root /var/www/html;  # 网站根目录index index.html index.htm;  # 默认首页文件# 重写规则location / {try_files $uri $uri/ =404;}# 静态文件缓存设置location ~* \.(jpg|jpeg|png|gif|ico|css|js)$ {expires 30d;access_log off;}# 反向代理设置location /api/ {proxy_pass http://backend_server;  # 后端服务器proxy_set_header Host $host;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_set_header X-Forwarded-Proto $scheme;}# 错误页面error_page 404 /404.html;location = /404.html {root /usr/share/nginx/html;internal;}# SSL 配置示例(仅供参考)listen 443 ssl;ssl_certificate /etc/ssl/certs/example.com.crt;ssl_certificate_key /etc/ssl/private/example.com.key;ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3;ssl_ciphers HIGH:!aNULL:!MD5;}
}
########### 每个指令必须有分号结束。#################
#user administrator administrators;  #配置用户或者组,默认为nobody nobody。
#worker_processes 2;  #允许生成的进程数,默认为1
#pid /nginx/pid/nginx.pid;   #指定nginx进程运行文件存放地址
error_log log/error.log debug;  #制定日志路径,级别。这个设置可以放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg
events {accept_mutex on;   #设置网路连接序列化,防止惊群现象发生,默认为onmulti_accept on;  #设置一个进程是否同时接受多个网络连接,默认为off#use epoll;      #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventportworker_connections  1024;    #最大连接数,默认为512
}
http {include       mime.types;   #文件扩展名与文件类型映射表default_type  application/octet-stream; #默认文件类型,默认为text/plain#access_log off; #取消服务日志log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式access_log log/access.log myFormat;  #combined为日志格式的默认值sendfile on;   #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。sendfile_max_chunk 100k;  #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。keepalive_timeout 65;  #连接超时时间,默认为75s,可以在http,server,location块。upstream mysvr {server 127.0.0.1:7878;server 192.168.10.121:3333 backup;  #热备}error_page 404 https://www.baidu.com; #错误页server {keepalive_requests 120; #单连接请求上限次数。listen       4545;   #监听端口server_name  127.0.0.1;   #监听地址location  ~*^.+$ {       #请求的url过滤,正则匹配,~为区分大小写,~*为不区分大小写。#root path;  #根目录#index vv.txt;  #设置默认页proxy_pass  http://mysvr;  #请求转向mysvr 定义的服务器列表deny 127.0.0.1;  #拒绝的ipallow 172.18.5.54; #允许的ip}}
}

Nginx配置文件各个模块说明

  1. 全局块:配置影响nginx全局的指令。一般有运行nginx服务器的用户组,nginx进程pid存放路径,日志存放路径,配置文件引入,允许生成worker process数等。
  2. events块:配置影响nginx服务器或与用户的网络连接。有每个进程的最大连接数,选取哪种事件驱动模型处理连接请求,是否允许同时接受多个网路连接,开启多个网络连接序列化等。
  3. http块:可以嵌套多个server,配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置。如文件引入,mime-type定义,日志自定义,是否使用sendfile传输文件,连接超时时间,单连接请求数等。
  4. server块:配置虚拟主机的相关参数,一个http中可以有多个server。
  5. location块:配置请求的路由,以及各种页面的处理情况。
    user www-data;:指定 Nginx 运行的用户。
    worker_processes auto;:指定工作进程的数量。一般设为 CPU 的核心数或自动检测。
    事件模块
    worker_connections 1024;:指定每个工作进程可以同时处理的最大连接数。
    use epoll;:指定使用 epoll 事件模型(适用于 Linux 系统)。
    HTTP 模块
    include /etc/nginx/mime.types;:包含 MIME 类型文件,用于文件类型识别。
    log_format 和 access_log:配置访问日志的格式和位置。
    sendfile on;:启用高效的文件传输机制。
    keepalive_timeout 65;:保持连接的超时时间(秒)。
    gzip on;:启用 Gzip 压缩。
    虚拟主机(server block)
    server:定义一个虚拟主机,Nginx 可以通过配置多个 server 块来管理多个站点。
    listen 80;:监听端口号,80 为默认的 HTTP 端口。
    server_name example.com www.example.com;:指定主机名称(域名),支持多个名称。
    root /var/www/html;:指定网站的根目录。
    index index.html index.htm;:定义默认的主页文件。
    location 块
    location /:配置处理根路径请求的规则,try_files $uri u r i / = 404 ; 表示尝试访问 U R I ,若文件不存在则返回 404 。 l o c a t i o n ∗ ( ˙ j p g ∣ j p e g ∣ p n g ∣ g i f ∣ i c o ∣ c s s ∣ j s ) uri/ =404; 表示尝试访问 URI,若文件不存在则返回 404。 location ~* \.(jpg|jpeg|png|gif|ico|css|js) uri/=404;表示尝试访问URI,若文件不存在则返回404location (˙jpgjpegpnggificocssjs):为特定文件类型(如图片、CSS、JS)设置缓存期限,并关闭访问日志。
    location /api/:定义反向代理规则,将 /api/ 路径的请求转发到后端服务器。
    错误页面
    error_page 404 /404.html;:指定自定义的 404 错误页面。
    SSL 配置
    listen 443 ssl;:监听 443 端口并启用 SSL。
    ssl_certificate 和 ssl_certificate_key:指定 SSL 证书和密钥文件。
    ssl_protocols 和 ssl_ciphers:配置支持的 SSL/TLS 协议和加密算法。
    常用命令
    启动 Nginx:sudo systemctl start nginx
    停止 Nginx:sudo systemctl stop nginx
    重启 Nginx:sudo systemctl restart nginx
    重新加载配置:sudo systemctl reload nginx
    检查配置文件语法:sudo nginx -t

Nginx实现多端口服务

众所周知,一个Tomcat只能绑定一个端口,但是一个Nginx服务却可以通过配置不同端口,来支持不同的访问,具体步骤如下所示:
复制Nginx自带的html文件夹,并命名为html2,作为一个单独的访问路径,如下所示:

在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Nginx实现多域名服务

在网络世界中,域名方便用户记忆及传播,且拥有有特殊的含义,代表一个独一无二的服务。Nginx可以通过配置不同的域名来区分不同的服务,如下所示:
复制Nginx自带的html文件夹,并命名为html3,作为一个单独的访问路径,如下所示:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

uptream负载均衡常用配置项说明

很多大型的网站中,ngixn常常作为反向代理sever负载上游web server结合高可用机制构建一个大型web集群,而要通过nginx构建这样的一个集群,必然少不来nginx一个很重要的模块:负载均衡模块(upstream),如下所示为nginx负载均衡配置项介绍。
upstream 块配置项说明
语法:upstream name {…} //指定负载均含name(名称)
配置块:http
upstream块定义了一个上游服务器的集群,便于反向代理中的proxy_pass使用。例如:
upstream backend {
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
}
server {
location / {
proxy_pass http://backend;
}
}
1.2 server 块配置项说明
语法:server name [parameters];
配置块:upstream
server配置项指定了一台上游服务器的名字,这个名字可以是域名、IP地址端口、UNIX句柄等,在其后还可以跟下列参数:
weight=number:设置向这台上游服务器转发的权重,默认为1。
max_fails=number:该选项与fail_timeout配合使用,指在fail_timeout时间段内,如果向当前的上游服务器转 发失败次数超过number,则认为在当前的fail_timeout时间段内这台上游服务器不可用。max_fails默认为1,如果设置为0,则表示 不检查失败次数。
fail_timeout=time:fail_timeout表示该时间段内转发失败多少次后就认为上游服务器暂时不可用,用于优化反向代理功能。它与向上游服务器建立连接的超时时间、读取上游服务器的响应超时时间等完全无关。fail_timeout默认为10秒。
down:表示所在的上游服务器永久下线,只在使用ip_hash配置项时才有用。
backup:在使用ip_hash配置项时它是无效的。它表示所在的上游服务器只是备份服务器,只有在所有的非备份上游服务器都失效后,才会向所在的上游服务器转发请求。
例如
upstream backend {
server backend1.example.com weight=5;
server 127.0.0.1:8080 max_fails=3 fail_timeout=30s;
server unix:/tmp/backend3;
}

proxy_pass中url末尾带/与不带/的区别

注意:当location为正则表达式匹配模式时,proxy_pass中的url末尾是不允许有"/"的,因此正则表达式匹配模式不在讨论范围内。
测试地址:http://192.168.171.129/test/tes.jsp

场景一:

location ^~ /test/ {proxy_pass http://192.168.171.129:8080/server/;
}
代理后实际访问地址:http://192.168.171.129:8080/server/tes.jsp场景二:
location ^~ /test {proxy_pass http://192.168.171.129:8080/server/;
}
代理后实际访问地址:http://192.168.171.129:8080/server//tes.jsp场景三:
location ^~ /test/ {proxy_pass http://192.168.171.129:8080/;
}
代理后实际访问地址:http://192.168.171.129:8080/tes.jsp场景四:
location ^~ /test {proxy_pass http://192.168.171.129:8080/;
}
代理后实际访问地址:http://192.168.171.129:8080//tes.jsp

proxy_pass配置中url末尾不带/时,如url中不包含path,则直接将原uri拼接在proxy_pass中url之后;如url中包含path,则将原uri去除location匹配表达式后的内容拼接在proxy_pass中的url之后
测试地址:http://192.168.171.129/test/tes.jsp
场景一:

 location ^~ /test/{proxy_pass http://192.168.171.129:8080/server;}代理后实际访问地址:http://192.168.171.129:8080/servertes.jsp
场景二:
location ^~ /test {proxy_pass http://192.168.171.129:8080/server;
}
代理后实际访问地址:http://192.168.171.129:8080/server/tes.jsp场景三:
location ^~ /test/ {proxy_pass http://192.168.171.129:8080;
}
代理后实际访问地址:http://192.168.171.129:8080/test/tes.jsp场景四:
location ^~ /test {proxy_pass http://192.168.171.129:8080;
}
代理后实际访问地址:http://192.168.171.129:8080/test/tes.jsp

nginx比apache的优点

nginx 相对 apache 的优点:
1)轻量级,同样起 web 服务,比 apache 占用更少的内存及资源
2)抗并发,nginx 处理请求是异步非阻塞的,而 apache 则是阻塞型的,在高并发下 nginx 能保持
3)低资源低消耗高性能
4)高度模块化的设计,编写模块相对简单
5)社区活跃,各种高性能模块出品迅速啊
apache 相对 nginx 的优点:
1)rewrite,比 nginx 的 rewrite 强大
2)模块超多,基本想到的都可以找到
3)少 bug,nginx 的 bug 相对较多
4)超稳定,一般来说,需要性能的 web 服务,用 nginx 。 如果不需要性能只求稳定,那就 apache 吧。

Nginx 反向代理为什么能够提升服务器性能

对于后端是动态服务来说,比如 Java 和 PHP。这类服务器(如 JBoss 和 PHP-FPM)的 IO 处理能力往往不高。
Nginx 有个好处是它会把 Request 在读取完整之前 buffer 住,这样交给后端的就是一个完整的 HTTP 请求,从而提高后端的效率,而不是断断续续的传递(互联网上连接速度一般比较慢)。 同样,Nginx 也可以把response 给 buffer 住,同样也是减轻后端的压力。

Nginx 多进程模型是如何实现高并发的

进程数与并发数不存在很直接的关系。这取决取 server 采用的工作方式。如果一个 server 采用一个进程负责一
个 request 的方式,那么进程数就是并发数。那么显而易见的,就是会有很多进程在等待中。等什么?最多的应该是等待网络传输。
Nginx 的异步非阻塞工作方式正是利用了这点等待的时间。在需要等待的时候,这些进程就空闲出来待命了。因
此表现为少数几个进程就解决了大量的并发问题。
apache 是如何利用的呢,简单来说:同样的 4 个进程,如果采用一个进程负责一个 request 的方式,那么,同时进来 4 个 request 之后,每个进程就负责其中一个,直至会话关闭。期间,如果有第 5 个 request 进来了。就无法及时反应了,因为 4 个进程都没干完活呢,因此,一般有个调度进程,每当新进来了一个 request,就新开个进程来处理。
nginx 不这样,每进来一个 request,会有一个 worker 进程去处理。但不是全程的处理,处理到什么程度呢?处理到可能发生阻塞的地方,比如向上游(后端)服务器转发 request,并等待请求返回。那么,这个处理的 worker 不会这么傻等着,他会在发送完请求后,注册一个事件:“如果 upstream返回了,告诉我一声,我再接着干”。于是他就休息去了。此时,如果再有 request 进来,他就可以很快再按这种方式处理。而一旦上游服务器返回了,就会触发这个事件, worker 才会来接手,这个 request 才会接着往下走。由于 web server 的工作性质决定了每个 request 的大部份生命都是在网络传输中,实际上花费在 server 机器上的时间片不多。这是几个进程就解决高并发的秘密所在。webserver 刚好属于网络 io 密集型应用,不算是计算密集型。异步,非阻塞,使用 epoll,和大量细节处的优化。也正是 nginx 之所以然的技术基石。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com