北京时间 3 月 12 日,F5 与 Nginx 宣布了一项最终协议,根据该协议,F5 将收购 Nginx 的所有已发行股票,总价值约为 6.7亿美元。
此次收购已获得 F5 和 Nginx 董事会的批准,预计将于 2019 年第二季度完成。收购完成后,Nginx 管理层将加入F5,现有的办事处也将继续保持开放。
F5 是应用交付网络(ADN)领域的全球领先厂商,Nginx 是世界上使用最广泛的第三大网络服务器软件,仅次于微软和Apache,领先于谷歌,其最知名产品 Nginx 是互联网上***的 Web 服务器之一。
作为 Web 服务的核心,Nginx 坚持着开源的形式,意味着任何人都可以按照自己的意愿下载和使用代码。
近年来,Nginx 将主要精力放在了 Nginx Plus 这项付费高级服务上,旨在帮助开发人员在亚马逊 AWS 和微软 Azure云平台上构建现代应用程序。
显然,这就是 F5 和 Nginx ***的竞争角力点,但也是合并收购的意义所在。
比如 F5 可以确保其应用程序和软件的高度安全和高性能,但又有一些产品与 Nginx 和 Nginx Plus 展开了直接的竞争。
F5 Networks ***执行官兼总裁 FrançoisLocoh-Donou 称赞 Nginx 为领先的软件应用交付和 API管理解决方案,拥有***的可信度和品牌认知度、以及庞大的开源用户群。
收购后,Nginx 品牌及其位于旧金山的总部将继续存在,但双方计划推出与 F5 其他安全与应用程序监控工具的更深度集成。
收购声明指出,此次战略收购和有机投资,将确保长期收入和每股盈利增长。
F5 和 Nginx 将在所有环境中实现多云应用服务,提供开发人员所需的易用性和灵活性,同时还提供网络运营团队所需的规模、安全性和可靠性等能力。
此外,F5 将致力于持续创新并增加对 Nginx 开源项目的投资,以增强 Nginx 广泛的用户群体能力。
F5 将通过 F5 安全解决方案增强 Nginx 目前的产品,并将 F5 云原生创新与 Nginx 的软件负载均衡技术相集成,从而加速 F5为现代容器化应用提供应用服务的上市时间。
F5 还将利用其全球销售团队、渠道基础设施和合作伙伴生态系统来扩展 Nginx 向企业销售的机会。
对于本次收购,业界普遍还是比较看好的,看看网友的评论:
你们认为软件负载均衡的 Nginx 遇上硬件负载均衡的 F5,能够软硬结合、一统天下吗?
常用的负载均衡开源软件有 Nginx、LVS、HAProxy,商业的硬件负载均衡设备 F5、Netscale。接下来给大家普及下 LVS、Nginx 及HAProxy 工作原理。
当前大多数的互联网系统都使用了服务器集群技术,集群是将相同服务部署在多台服务器上构成一个集群整体对外提供服务。
这些集群可以是 Web 应用服务器集群,也可以是数据库服务器集群,还可以是分布式缓存服务器集群等等。
在实际应用中,在 Web 服务器集群之前总会有一台负载均衡服务器,负载均衡设备的任务就是作为 Web 服务器流量的入口,挑选最合适的一台 Web服务器,将客户端的请求转发给它处理,实现客户端到真实服务端的透明转发。
最近几年很火的云计算以及分布式架构,本质上也是将后端服务器作为计算资源、存储资源,由某台管理服务器封装成一个服务对外提供。
客户端不需要关心真正提供服务的是哪台机器,在它看来,就好像它面对的是一台拥有近乎***能力的服务器,而本质上,真正提供服务的,是后端的集群。
LVS、Nginx、HAProxy是目前使用最广泛的三种软件负载均衡软件。一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术。
具体的应用需求还得具体分析:
目前关于网站架构一般比较合理流行的架构方案:
Nginx 是一个强大的 Web 服务器软件,用于处理高并发的 HTTP请求和作为反向代理服务器做负载均衡。具有高性能、轻量级、内存消耗少,强大的负载均衡能力等优势。
Nignx 的架构设计
相对于传统基于进程或线程的模型(Apache就采用这种模型)在处理并发连接时会为每一个连接建立一个单独的进程或线程,且在网络或者输入/输出操作时阻塞。
这将导致内存和 CPU 的大量消耗,因为新起一个单独的进程或线程需要准备新的运行时环境,包括堆和栈内存的分配,以及新的执行上下文。
当然,这些也会导致多余的 CPU 开销。最终,会由于过多的上下文切换而导致服务器性能变差。
反过来,Nginx 的架构设计是采用模块化的、基于事件驱动、异步、单线程且非阻塞。
Nginx 大量使用多路复用和事件通知,Nginx 启动,会在系统中以 Daemon 的方式在后台运行,其中包括一个 Master进程,n(n>=1) 个 Worker 进程。
所有的进程都是单线程(即只有一个主线程)的,且进程间通信主要使用共享内存的方式。
其中,Master 进程用于接收来自外界的信号,并给 Worker 进程发送信号,同时监控 Worker 进程的工作状态。
Worker 进程则是外部请求真正的处理者,每个 Worker 请求相互独立且平等的竞争来自客户端的请求。
请求只能在一个 Worker 进程中被处理,且一个 Worker 进程只有一个主线程,所以同时只能处理一个请求。(原理同 Netty 很像)
Nginx 负载均衡
Nginx 负载均衡主要是对七层网络通信模型中的第七层应用层上的 HTTP、HTTPS 进行支持。Nginx 是以反向代理的方式进行负载均衡的。
反向代理(Reverse Proxy)方式是指以代理服务器来接受 Internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给 Internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。
Nginx 实现负载均衡的分配策略有很多,Nginx 的 Up Stream 目前支持以下几种方式:
Nginx 的优点:
Nginx 的缺点:
LVS 是 Linux Virtual Server 的简称,也就是 Linux 虚拟服务器。
现在 LVS 已经是 Linux 标准内核的一部分,从 Linux2.4 内核,已经完全内置了 LVS的各个功能模块,无需给内核打任何补丁,可以直接使用 LVS 提供的各种功能。
LVS 自从 1998 年开始,发展到现在已经是一个比较成熟的技术项目了。
LVS 的体系结构
LVS 架设的服务器集群系统有三个部分组成:
LVS 负载均衡机制
LVS 不像 HAProxy 等七层软负载面向的是 HTTP 包,所以七层负载可以做的 URL 解析等工作,LVS 无法完成。
LVS 是四层负载均衡,也就是说建立在 OSI 模型的第四层——传输层之上,传输层上有我们熟悉的 TCP/UDP,LVS 支持 TCP/UDP的负载均衡。
因为 LVS 是四层负载均衡,因此它相对于其他高层负载均衡的解决办法,比如 DNS域名轮流解析、应用层负载的调度、客户端的调度等,它的效率是非常高的。
所谓四层负载均衡 ,也就是主要通过报文中的目标地址和端口。七层负载均衡 ,也称为“内容交换”,也就是主要通过报文中的真正有意义的应用层内容。
LVS 的转发主要通过修改 IP 地址(NAT 模式,分为源地址修改 SNAT 和目标地址修改 DNAT)、修改目标 MAC(DR 模式)来实现。
①NAT 模式:网络地址转换
NAT(Network Address Translation)是一种外网和内网地址映射的技术。
NAT 模式下,网络数据报的进出都要经过 LVS 的处理。LVS 需要作为 RS(真实服务器)的网关。
当包到达 LVS 时,LVS 做目标地址转换(DNAT),将目标 IP 改为 RS 的 IP。
RS 接收到包,仿佛是客户端直接发给它的一样。RS 处理完,返回响应时,源 IP 是 RS IP,目标 IP 是客户端的 IP。
这时 RS 的包通过网关(LVS)中转,LVS 会做源地址转换(SNAT),将包的源地址改为 VIP,这样,这个包对客户端看起来就仿佛是 LVS直接返回给它的。
②DR 模式:直接路由
DR 模式下需要 LVS 和 RS 集群绑定同一个 VIP(RS 通过将 VIP 绑定在 loopback 实现)。
但与 NAT 的不同点在于:请求由 LVS 接受,由真实提供服务的服务器(Real Server,RS)直接返回给用户,返回的时候不经过 LVS。
详细来看,一个请求过来时,LVS 只需要将网络帧的 MAC 地址修改为某一台 RS 的 MAC,该包就会被转发到相应的 RS 处理,注意此时的源 IP和目标 IP 都没变,LVS 只是做了一下移花接木。
RS 收到 LVS 转发来的包时,链路层发现 MAC 是自己的,到上面的网络层,发现 IP 也是自己的,于是这个包被合法地接受,RS 感知不到前面有LVS 的存在。
而当 RS 返回响应时,只要直接向源 IP(即用户的 IP)返回即可,不再经过 LVS。
DR 负载均衡模式数据分发过程中不修改 IP 地址,只修改 Mac 地址。
由于实际处理请求的真实物理 IP 地址和数据请求目的 IP地址一致。所以不需要通过负载均衡服务器进行地址转换,可将响应数据包直接返回给用户浏览器,避免负载均衡服务器网卡带宽成为瓶颈。
因此,DR 模式具有较好的性能,也是目前大型网站使用最广泛的一种负载均衡手段。
LVS 的优点:
LVS 的缺点:
HAProxy 支持两种代理模式 TCP(四层)和 HTTP(七层),也是支持虚拟主机的。
HAProxy 的优点能够补充 Nginx 的一些缺点,比如支持 Session 的保持,Cookie 的引导;同时支持通过获取指定的 url来检测后端服务器的状态。
HAProxy 跟 LVS 类似,本身就只是一款负载均衡软件;单纯从效率上来讲 HAProxy 会比 Nginx有更出色的负载均衡速度,在并发处理上也是优于 Nginx 的。
HAProxy 支持 TCP 协议的负载均衡转发,可以对 MySQL 读进行负载均衡,对后端的 MySQL 节点进行检测和负载均衡,大家可以用LVS+Keepalived 对 MySQL 主从做负载均衡。
HAProxy 负载均衡策略非常多: