一、知识准备● 在nginx优化中有个经常需要设置的参数,tcp_nodelay ● 该参数最核心的功能,就是把小包组成成大包,提高带宽利用率也就是著名的nagle算法 ● tcp协议中,有一个现象:应用层数据可能很低(比如1个字节),而传输层开销有40字节(20字节的IP头+20字节的TCP头)。这种情况下大部分都是控制包的传输,既加大了带宽的消耗,带宽利用率也不高 ● nagle算法就是为了解
转载
2024-09-02 12:14:12
207阅读
Nginx Plus和Nginx可以持续测试我们的TCP upstream服务器,避免出现故障的服务器,并将恢复的服务器正常地包含在负载平衡组中。让我们看一下TCP健康检查的配置:1.我们在stream上下文中配置了一组TCP服务器,例如:stream {
#...
upstream stream_backend {
server backend1.example.com:
转载
2024-03-30 16:33:59
109阅读
一、定义内网穿透也成NAT穿透,进行NAT穿透是为了使具有某一个特定源IP地址和源端口号的数据包不被NAT设备屏蔽而正确路由到内网主机。NAT(网络地址转换)设备自动屏蔽了非内网主机主动发起的连接,也就是说从外网发往内网的数据包将被NAT设备丢弃掉。这使得位于不同NAT设备之后的主机无法交换信息。这一方面保护了内网主机免于来自外部网络的攻击,另一方面也为P2P通信带来了一定困难。外部主机要与内网主
转载
2024-03-28 04:36:40
58阅读
默认情况下,客户端通过Nginx服务器访问后端web服务器后,后端服务器查看IP来源时只能显示Nginx服务器IP,而不是显示客户端的真实IP。利用IP透传,则可以在后端web服务器上查看到真实的客户端IP。
原创
2022-05-12 23:25:11
10000+阅读
缘起最近公司准备自建邮箱,大概十年前折腾过自建邮箱的事情,感觉坑很多,这次体会了下确实很多,特别是现在管局对邮箱端口管控越来越严格的情况下,很多之前能行得通的方案需要修改下。由于SMTP、POP3、IMAP等协议需要做四层代理且还需要能穿透客户端真实IP,硬件网络层代理软件又不能使用的情况下只能考虑软代理,下面是记录的两种解决方案。方案Nginx解决方案1.注意nginx编译时需要加上stream
推荐
原创
2021-01-22 21:05:22
10000+阅读
1评论
nginx与frp内网穿透会同时使用80端口,如果修改其中某一个服务的端口,那么用域名访问时就必须加上端口号。该文介绍一种方法,能够让nginx与frp同时使用80端口,它的原理是修改frp端口为非80端口,并使用nginx代理该端口。 &nb
转载
2024-04-27 19:04:41
61阅读
基于Ngrok 内网穿透的TCP服务器实现目的:在本地搭建TCP服务器,通过Ngrok 内网穿透,把本地TCP服务器的端口映射到互联网上,达到通过TCP 在互联网上访问本地服务器的目的。物理环境:树莓派4B 4G系统:Ubuntu 22.04一、项目准备1.获得Ngrok 内网穿透隧道的域名和端口号;2.把树莓派上安装隧道客户端,并运行客户端,使隧道打开;(这个时候,可以通过隧道供应商提供的域名和
Nginx的反向代理能非常强大,可以配置多层反向代理,多层代理中最关心的就是客户端IP的信息传递情况,当我们遇到问题后,分析日志是解决问题最有效的途径之一,涉及代理时我们肯定会分析源IP,目标IP等信息,查看相关的异常。本次实例就通过两层Nginx反向代理,模拟一下其客户端IP的传递信息。实验环境: 操作系统 : Centos
原创
2018-08-04 16:12:22
10000+阅读
反向代理配置参数官方文档:https://nginx.org/en/docs/http/ngx_http_proxy_module.htmlbashproxy_pass;用来设置将客户端请求转发给的后端服务器的主机,可以是主机名(将转发至后端服务做为主机头首部)、IP地址:端口的方式也可以代理到预先设置的主机群组,需要模块ngx_http_upstream_module支持proxy_hide_h
原创
2022-04-23 22:48:51
2773阅读
一、WiFi通讯简介 Wi-Fi模块又名串口Wi-Fi模块,属于物联网传输层,功能是将串口或TTL电平转为符合Wi-Fi无线网络通讯标准的嵌入式模块,内置无线网络协议IEEE802.11b.g.n协议栈以及TCP/IP协议栈。传统的硬件设备嵌入Wi-Fi模块可以直接利用Wi-Fi连入互联网,是实现无线智能家居、M2M等物联网应用的重要组成部分。 1、庆科EMW3060
转载
2024-03-28 06:30:08
50阅读
frp + Nginx实现内网穿透 配置多个子域名访问内部服务缘起公司搬家,新家不能装专线,静态ip消失,改为动态IP了,这样内部服务器在外网就没法访问了,所幸我们有一台云服务器,有公网ip。这里只提示写这篇博客的原因,下面的操作是在我个人腾讯云服务器(带公网ip)和个人PC上测试使用,亲测通过。公司阿里云服务器是生产环境,拿来测试会影响线上。环境准备已备案的域名一个带公网ip的云服务器pc一个f
转载
2024-03-19 12:52:35
118阅读
HAProxy客户端IP地址的透传环境准备serverIPclient172.20.27.10haproxy172.20.27.20,192.168.27.10nginx192.168.27.21nginx操作1.首先对nginx的主配置中的日志做修改[root@nginx~]#vim/apps/nginx/conf/nginx.conflog_formataccess_json'{"@times
原创
2019-06-10 09:03:58
3375阅读
点赞
实现反向代理客户端IP透传的案例应该给出完整的步骤,但是下面还有个LNMP的综合案例,因此,此处就不写出完整的步骤了。在LNMP综合案例给出完整的步骤,避免重复的步骤
#允许重新定义或附加字段到传递给代理服务器的请求标头
#设定发往后端服务器的请求报文的请求首部的值
#在代理服务器上设置 http 报头信息
#设置http请求header项传给后服务器节点,例如: 可实现让代理后端的服务器
HAProxy客户端IP地址的透传环境准备|server|IP||:-|:-||client|172.20.27.10||haproxy|172.20.27.20,192.168.27.10||nginx|192.168.27.21nginx操作1.首先对nginx的主配置中的日志做修改[root@nginx~]#vim/apps/nginx/conf/nginx.conflog_formatac
原创
2019-06-05 08:33:05
9747阅读
点赞
无涯教程网:Nginx Plus和Nginx可以持续测试我们的TCP upstream服务器,避免出现故障的服务器,并将恢复的服务器正常地包含在负载平衡组中。让我们看一下TCP健康检查的配置:1.我们在stream上下文中配置了一组TCP服务器,例如:stream {
#...
upstream stream_backend {
server backend1.exampl
转载
2024-04-06 16:33:19
71阅读
1、透传1.1 定义透传即是透明传送,即传送网络无论传输业务如何,只负责将需要传送的业务传送到目的节点,同时保证传输的质量即可,而不对传输的业务进行处理。我们将上层的数据以buf的形式经过底层模块去传送,底层只保证将这段buf传出去,而不关心buf中具体是什么样的数据,不用去解析buf中的具体内容。即,只负责将传输的内容由源地址传输到目的地址,而不对业务数据内容做任何改变。网络透传:假设有数据s要
转载
2023-12-07 20:58:10
41阅读
切记:重启!!!!一下知识总的来说就是2点:第一点:如何通过路由器公网IP+映射的公网端口号---访问局域网服务器第二点:如何通过花生壳的域名+花生壳的端口号-----访问局域网服务器名词概念:1、 端口映射端口映射就是将外网主机的IP地址的一个端口映射到内网中一台机器,提供相应的服务。当用户访问该IP的这个端口时,服务器自动将请求映射到对应局域网内部的机器上。端口映射有动态和静态之分。
转载
2024-03-26 11:41:33
87阅读
目录概述P2P简介P2P通信技术中继(Relaying)逆向连接(Connection reversal)UDP打洞端点处于不同NAT端点处于相同的NAT固定端口绑定空闲状态下的超时问题TCP打洞套接字和TCP端口的重用打开P2P的TCP流TCP同时打开参考资料概述P2P简介我们知道,内网设备是不能直接访问公网的,如果需要内网设备可以访问公网,需要借助NAT(Net Address Transmi
TCP(Transmission Control Protocol 传输控制协议)是一种面向连接的、可靠的、基于字节流的传输层通信协议,由IETF的RFC 793定义。在简化的计算机网络OSI模型中,它完成第四层传输层所指定的功能,用户数据报协议(UDP)是同一层内[1] 另一个重要的传输协议。在因特网协议族(Internet protocol suite)中,TCP层是位于IP层之上
转载
2024-03-02 11:08:09
375阅读
定义 负载均衡,通俗一点说是各种网络请求负载时,机器间要均衡地处理。即负载的时候要均衡。 负载均衡一般用于处理高并发的场景。试想象一下,我们以前一直都在部署单应用,如果请求量达到临界点,机器出现负载,则需要做负载均衡来解决。所以负载均衡一方面是应对高并发的网络请求,解决机器负载问题;另一方面提供均衡的算法,来达到机器平衡处理的
转载
2024-03-07 23:28:10
56阅读