负载均衡就是用多台服务器对外提供单一服务,通常用于提高网站、应用、数据库或其他服务的性能和可用性,负载均衡是高可用网络架构的关键组件。
没有负载均衡的架构

有负载均衡的架构

配置再强的服务器都有服务上限,当单台的服务器无法支持所有用户请求的时候就扩充机器到到几台、几十台甚至更多来提供服务,这个时候需要我们合理的把用户请求分发到各个服务器,这就是负载均衡。 负载均衡要理解最重要的一点,我这里用了“合理的分发”而不是平均分发,因为负载均衡并不是简简单单的均分流量,我们需要考虑到不同的服务器硬件配置、网络情况来合理的分配分配流量以达到各个服务器均不超载、合理利用集群资源达到最佳的服务质量。当然当我们用多台服务器做负载均衡时一般会选用相同规格的机器,但是不排除网络延迟、机器突发故障灯引起的单台服务器负载飙升处理能力下降等情况。
当客户端访问站点的时候,会查询 DNS,我们可以通过在 DNS 配置多条解析让 DNS 服务器通过轮询返回 IP 实现负载均衡。
优点:
缺点:
总结:
客户端-DNS 层综合来说非常不适合做负载均衡的,但是还是要根据具体业务分析。
LVS-DR 叫做直接路由,直接路由是工作在数据链路层的二层负载均衡方案,LVS 和 上游服务器共享同一个 VIP,直接路由通过修改数据包的 MAC 地址将数据转发到上游服务器上。
ipvsadm 可用来配置 LVS-DR,具体可参考其文档。
优点:
缺点:
总结: LVS-DR 是非常适合搭建可扩展的负载均衡系统。
LVS-NAT 叫做 IP 负载均衡,NAT 是工作在传输层的四层负载均衡方案,它通过修改发送过来的 IP 数据包,将数据包的目标 IP 修改为上游服务器 IP。ipvsadm 可用来配置 LVS-DR,具体可参考其文档。
优点:
缺点:
总结: 除了 NAT 带宽性能的影响外,LVS-NAT 是比较适合搭建负载均衡系统的。
LVS-TUN 叫做 IP 隧道负载均衡,TUN 是工作在网络层的三层负载均衡方案,他通过封装 IP 数据包到一个新的 IP 数据包并转发给上有服务器实现。
优点:
总结: LVS-TUN 是非常适合做负载均衡系统的。
硬件负载均衡器,性能高,扩展难,成本高。起到和 LVS 同样的功能,但是性能会比 LVS 高。扩展性比 LVS 差。
七层负载均衡是比较常见的负载均衡方案,一般的站点都会有七层负载均衡,它是工作在应用层的七层负载均衡方案。常见的方案就是基于 nginx、HAProxy、apache 等。
优点:
缺点:
总结:
反向代理是常见的负载均衡方案,一般是必不可少的,一般用于配合 LVS 层负载均衡实现高可用的负载均衡架构。
负载均衡需要处理的问题就是处理会话,一般方案如下:

负载均衡算法就是为了实现其合理的分发
轮询就是以轮询的方式把请求发送到上游服务器。 nginx 默认的算法就是轮询,配置如下: 配置upstream
upstream backend {
server 10.1.1.2:8080;
server 10.1.1.3:8080;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
server liuyushuai.com;
}
转发用户请求
location / {
proxy_pass http://backend;
}
upstream backend {
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weight=2;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
}
upstream backend {
ip_hash;
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
}
对某一个 key 进行 哈希 或则一致性哈希。哈希最大的问题当服务器增加或则减少一个时会有大量的被重新分配到不同的机器,而一致性哈希只会有少量的 key 被分配到新的机器上。
根据uri进行hash
upstream backend {
hash $uri;
server 10.1.1.2:8080 weight=2;
server 10.1.1.3:8080;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
}
upstream backend {
hash $consistent_key consistent;
server 10.1.1.2:8080 weight=2;
server 10.1.1.3:8080;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
}
#指定 hash key 的值
location / {
set $consistent_key $request_uri;
#set $consistent_key $arg_uuid;
}
最少连接数
upstream backend {
last_conn;
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
}
最小平均响应时间
upstream backend {
last_conn;
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2;
server unix:/tmp/backend3;#unix domain socket tcp 可混合使用
}
fail_timeout 时间内失败 max_fails 次则摘除,再在 fail_timeout 后加入重试,slow_start 表示当 server 可用后在 slow_start 时间内慢慢恢复 server 的权重。
server backend2.example.com:8080 max_fails=3 fail_timeout=5s slow_start=30s;
nginx_upstream_check_module 支持
TCP 检查
upstream backend {
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2;
check interval=3000 rise=1 fail=3 timeout=2000 type=tcp;
}
interval: 检查周期,单位 ms rise: 检查成功几次后标记成功 fail: 检查失败多少次后标记不成功 timeout: 检查请求超时时间
HTTP 检查
upstream backend {
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2;
check interval=3000 rise=1 fail=3 timeout=2000 type=http;
check_http_send "HEAD /hello HTTP/1.0\r\n\r\n";
check_http_expect_alive http_2xx http_3xx;
}
备用服务器,其他服务器均失败时转发到备用服务器。
upstream backend {
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2 backup;
}
标记服务器不可用
upstream backend {
server 10.1.1.2:8080 weight=4;
server 10.1.1.3:8080 weigth=2 down;
}
srv_id 是 server 的地址的 MD5 值,如果 server 配置包含 route 参数那么 srv_id 是 route 的值。
upstream backend {
server 10.1.1.2:8080 weight=4; # route = a
server 10.1.1.3:8080 weigth=2; # route = b
sticky cookie srv_id expires=1h domain=.example.com path=/;
}
Nginx 1.9.0 支持四层负载均衡
worker_processes auto;
error_log /var/log/nginx/error.log info;
events {
worker_connections 1024;
}
stream { # 四层负载均衡必须在 stream 下
upstream backend {
hash $remote_addr consistent;
server backend1.example.com:12345 weight=5;
server 127.0.0.1:12345 max_fails=3 fail_timeout=30s;
server unix:/tmp/backend3;
}
upstream dns {
server 192.168.0.1:53535;
server dns.example.com:53;
}
server {
listen 12345;
proxy_connect_timeout 1s;
proxy_timeout 3s;
proxy_pass backend;
}
server {
listen 127.0.0.1:53 udp reuseport;
proxy_timeout 20s;
proxy_pass dns;
}
server {
listen [::1]:12345;
proxy_pass unix:/tmp/stream.socket;
}
}非著名程序员,全栈开发工程师,长期专注系统开发与架构设计。
功能待开通!
在理论计算机科学中,CAP定理(CAP theorem),又被称作布鲁尔定理(Brewer's theorem),它指出对于一个分布式计算系统来说,不可能同时满足以下三点: 一致性(Consistency) (等同于所有节点返回的数据都是一致的) 可用性(Availability)(每次请求都能获取到非错的响应——但是不保证获取的数据为最新数据) 分区容错性(Partition tolerance)(大部分分布式系统都不能在时限内达成数据一致性,就意味分布式系统一定会发生了分区的情况。这就是再分布式系统中 P 是一定该发生的,那么 A 和 C 我们只能选择一个。) Zoopk
什么是全链路压测 使用真实生产业务场景、在真实的生产系统环境下根据历史用户访问记录构造海量用户请求对整个业务链进行压力测试并生成报告,根据报告持续调优的过程。 为什么要全链路压测 我们针对单机器单系统的压测虽然可以掌握单个机器或服务的服务能力但是并不能依此来推测整个系统的服务能力,因为任何一个具体的业务系统都可能在系统容量、业务代码性能、物理机器、网络、中间件和各个系统之间调用或具体的业务流程中等等任何一点上存在瓶颈进而导致真个业务系统的服务能力下降,而这些众多的点我们没办法去确定具体那个点会成为瓶颈,我们只能通过全链路压测来测试服务能力找到瓶颈,因为我们要服务于用户而全链路压测的流量正是 m
什么负载均衡 当我们单台的服务器无法支持用户请求的时候就需要把机器扩充到几台、几十台甚至几百台,而当用户请求到的时候我们合理的把用户请求分发到各个服务器,这就是负载均衡。负载均衡要理解最重要的一点,我这里用了“合理的分发”而不是平均分发,因为负载均衡并不是简简单单的均分流量,我们需要考虑到不同的服务器硬件配置、网络情况来合理的分配分配流量以达到各个服务器均不超载、合理利用集群资源达到最佳的服务质量。当然当我们用多台服务器做负载均衡时一般会选用相同规格的机器,但是不排除网络延迟、机器突发故障灯引起的单台服务器负载飙升处理能力下降等情况。 网站架构中负载均衡的应用 从图中可以看到网站中对负载均衡
定义 搜索引擎(search engine)是一种信息检索系统,旨在协助搜索存储在计算机系统中的信息。搜索结果一般被称为“hits“,通常以表单的形式列出。网络搜索引擎是常见、公开的一种搜索引擎,其功能为搜索互联网上储存的信息。 工作方式 搜索引擎为一组项目提供一个接口,使用户可以指定关于感兴趣的项目的标准,并让引擎找到匹配的项目。搜索查询通常表示为识别一个或多个文档kennel包含的期望概念的一组单词。有多种样式的搜索查询语法在严格性上有差异。它也可以在以前的站点中搜索搜索引擎中的名称。而一些文本搜索引擎要求用户输入由白色空格分割的两个或三个字,其他搜索引擎可以使用户能够指定整个文档,图片,
最近入职了新的公司,新公司当前的技术架构和人人车当年的架构演进的过程很像,我尽量回忆了下当时在人人车的记忆,整理本文并在新公司内部做了分享。虽然离开人人车已经5年了,但是人人车技术团队对我不管是技术上还是作为程序员的基本素质上的影响都是终身受益的,感谢人人车公司、感谢当时的技术团队及每一位成员。 人人车介绍 人人车是二手车 C2C 模式首创者,于 2014 年 7 月上线,2017年月销数万台。 起步 — 能用就行 LNMP一键安装(CI框架) Redis缓存 Solr搜索 V0.1架构 业务高速发展 线下团队爆炸性的增长,销售、评估师、客服人员等都增长不止一个量级 车辆数、订单量、