目录
- 本节重点
- 一、再谈端口号
- 1.1 再谈端口号
- 1.2 端口号范围划分
- 1.3 认识知名端口号(Well-Know Port Number)
- 1.4 回答两个问题
- 1.5 netstat
- 1.6 pidof
- 二、UDP协议
- 2.1 UDP协议段格式
- 2.2 UDP的特点
- 2.3 面向数据报
- 2.4 UDP的缓冲区
- 2.5 UDP使用注意事项
- 2.6 基于UDP的应用层协议
- 2.7 UDP内容总结图
- 三、TCP协议
- 3.1 TCP协议段格式
- 3.2 确认应答(ACK)机制
- 3.3 超时重传机制
- 3.4 连接管理机制
- 3.5 理解TIME_WAIT状态
- 3.6 解决TIME_WAIT状态引起的bind失败的方法
- 3.7 理解 CLOSE_WAIT 状态
- 3.8 滑动窗口
- 3.9 流量控制
- 3.10 拥塞控制
- 3.11 延迟应答
- 3.12 捎带应答
- 3.13 面向字节流
- 3.14 粘包问题
- 3.15 TCP异常情况
- 3.16 TCP小结
- 3.17 基于TCP的应用层协议
- 3.18 TCP/UDP
- 3.19 用UDP实现可靠传输(经典题目)
- 四、UDP/TCP协议的所有内容一览图
本节重点
1、理解应用层的作用, 初识HTTP协议
2、理解传输层的作用, 深入理解TCP的各项特性和机制
3、对整个TCP/IP协议有系统的理解
4、对TCP/IP协议体系下的其他重要协议和技术有一定的了解
5、学会使用一些分析网络问题的工具和方法
一、再谈端口号
1.1 再谈端口号
端口号(Port)标识了一个主机上进行通信的不同的应用程序;
在TCP/IP协议中, 用 “源IP”, “源端口号”, “目的IP”, “目的端口号”, “协议号” 这样一个五元组来标识一个通信(可以通过netstat -n查看);
1.2 端口号范围划分
0 - 1023: 知名端口号, HTTP, FTP, SSH等这些广为使用的应用层协议, 他们的端口号都是固定的。
1024 - 65535: 操作系统动态分配的端口号. 客户端程序的端口号, 就是由操作系统从这个范围分配的。
1.3 认识知名端口号(Well-Know Port Number)
有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:
1、ssh服务器, 使用22端口
2、ftp服务器, 使用21端口
3、telnet服务器, 使用23端口
4、http服务器, 使用80端口
5、https服务器, 使用443端口
执行下面的命令, 可以看到知名端口号:
cat /etc/services
我们自己写一个程序使用端口号时, 要避开这些知名端口号。
1.4 回答两个问题
-
一个进程是否可以bind多个端口号?
是的,一个进程可以绑定多个端口号。在实际应用中,这通常是通过在该进程内创建多个套接字(sockets)并分别绑定到不同的端口来实现的。每个套接字都可以独立地监听和接受来自特定端口的连接。
例如,一个网络服务器可能希望在同一台机器上同时提供HTTP(通常使用80端口)和HTTPS(通常使用443端口)服务。为了实现这一点,服务器进程会创建两个套接字,一个绑定到80端口,另一个绑定到443端口。 -
一个端口号是否可以被多个进程bind?
否,一个端口号在同一时刻只能被一个进程绑定。这是由操作系统的网络堆栈来保证的,以防止端口冲突和数据混乱。如果两个进程试图绑定到同一个端口,第二个进程通常会收到一个错误(例如,“Address already in use”),除非第一个进程已经关闭了该端口或者使用了特定的套接字选项来允许端口共享(这在大多数操作系统和上下文中是不支持的)。
然而,有一些高级技术可以模拟多个进程“共享”同一个端口。例如,在某些操作系统和配置中,可以使用SO_REUSEADDR套接字选项来允许一个进程在另一个进程关闭套接字后立即绑定到同一个端口。但这并不意味着两个进程可以同时绑定到同一个端口;它只是允许一个进程在另一个进程释放端口后更快地接管它。
总的来说,每个端口在同一时刻只能被一个进程绑定,这是网络协议和操作系统设计的基本规则之一。
1.5 netstat
netstat是一个用来查看网络状态的重要工具。
语法:netstat [选项]
功能:查看网络状态
常用选项:
n 拒绝显示别名,能显示数字的全部转化成数字
l 仅列出有在 Listen (监听) 的服务状态
p 显示建立相关链接的程序名
t (tcp)仅显示tcp相关选项
u (udp)仅显示udp相关选项
a (all)显示所有选项,默认不显示LISTEN相关
1.6 pidof
在查看服务器的进程id时非常方便.
语法:pidof [进程名]
功能:通过进程名, 查看进程id
二、UDP协议
2.1 UDP协议段格式
1、16位UDP长度, 表示整个数据报(UDP首部+UDP数据)的最大长度;
2、如果校验和出错, 就会直接丢弃;
2.2 UDP的特点
UDP传输的过程类似于寄信。
UDP通信具有以下三个特征:
1、无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
2、不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
3、面向数据报: 不能够灵活的控制读写数据的次数和数量;
2.3 面向数据报
应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;
用UDP传输100个字节的数据:
如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;
2.4 UDP的缓冲区
UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃;
UDP的socket既能读, 也能写, 这个概念叫做 全双工。
2.5 UDP使用注意事项
我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
然而64K在当今的互联网环境下, 是一个非常小的数字。
分包,:如果我们需要传输的数据超过64K, ,多次发送并在接收端手动拼装;
2.6 基于UDP的应用层协议
1、NFS: 网络文件系统
2、TFTP: 简单文件传输协议
3、DHCP: 动态主机配置协议
4、BOOTP: 启动协议(用于无盘设备启动)
5、DNS: 域名解析协议
当然, 也包括我们自己写UDP程序时自定义的应用层协议;
2.7 UDP内容总结图
三、TCP协议
TCP全称为 “传输控制协议(Transmission Control Protocol”). 人如其名, 要对数据的传输进行一个详细的控制;
3.1 TCP协议段格式
1、源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去;
2、32位序号/32位确认号: 见后文;
3、4位TCP报头长度: 表示该TCP头部有多少个32位bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60
4、6位标志位:
(1)URG: 紧急指针是否有效
(2)ACK: 确认号是否有效
(3)PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
(4)RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
(5)SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
(6) FIN: 通知对方, 本端要关闭了,我们把携带FIN标识的称为结束报文段
5、16位窗口大小: 见后文
6、16位校验和: 发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也包含TCP数据部分.
7、16位紧急指针: 标识哪部分数据是紧急数据;
8、40字节头部选项: 暂时忽略;
3.2 确认应答(ACK)机制
TCP将每个字节的数据都进行了编号. 即为序列号.
每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发。
3.3 超时重传机制
主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;
但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;
因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.达到去重的效果. 这时候我们可以利用前面提到的序列号进行去重操作了。
那么, 如果超时的时间如何确定?
1、最理想的情况下, 找到一个最小的时间, 保证 “确认应答一定能在这个时间内返回”.
2、但是这个时间的长短, 随着网络环境的不同, 是有差异的.
3、如果超时时间设的太长, 会影响整体的重传效率;
4、如果超时时间设的太短, 有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间。
Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2500ms 后再进行重传。
如果仍然得不到应答, 等待 4500ms 进行重传. 依次类推, 以指数形式递增。
累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接。
3.4 连接管理机制
在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接。
服务端状态转化:
[CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接;
客户端向服务器发送SYN请求,服务器的状态变化
[LISTEN -> SYN_RCVD] , 一旦监听到连接请求,服务器就会发送SYN确认报文,该SYN报文同时携带ACK。
[SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了.
[ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT;
[CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
[LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接。
客户端状态转化:
[CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段;
[SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据;
[ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1;
[FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段;
[FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
[TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态。
下图是TCP状态转换的一个汇总(网图):
较粗的虚线表示服务端的状态变化情况;
较粗的实线表示客户端的状态变化情况
CLOSED是一个假想的起始点, 不是真实状态;
关于 “半关闭” 状态,意思就是只有一端关闭了连接,另一端没有关闭,此时如果没关闭一端向对端发送数据,那么对端就会发送一个RST报文要求重新建立连接。
3.5 理解TIME_WAIT状态
TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态。
我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听同样的server端口;
MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s;
可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值;
想一想, 为什么是TIME_WAIT的时间是2MSL?
MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话,就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);
同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK);
3.6 解决TIME_WAIT状态引起的bind失败的方法
在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的。
服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求).
这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量TIME_WAIT连接.
由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组,并且知名互联网公司的服务器端口一般都是固定的,所以如果改变了端口,客户就会连接不上服务器,如果端口号和TIME_WAIT占用的链接重复了, 就会出现问题,所以必须要解决这个问题。
使用setsockopt()设置socket描述符的 选项SO_REUSEADDR和SO_REUSEPORT为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符,即设置端口复用就能解决这个因time_wait使得服务器无法立即重启的问题。
3.7 理解 CLOSE_WAIT 状态
通过上图就可以看出,处于CLOSE_WAIT状态的原因是被断开连接的一端没有发送FIN报文,即没有调用close系统调用函数,导致TCP的四次挥手没有正常完成,所以连接就没有正常地断开, 所以对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题。
但是如果没有调用close关闭连接,就会导致socket套接字泄漏,这也是一种系统资源的泄漏,因为套接字的数量也是有限的,长期以来服务器的可用套接字就会越来越少,导致服务器卡顿,最终死机。
3.8 滑动窗口
刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段.
这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候.
以上这种tcp通信的做法其实是一种串行化的通信策略,既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了).
窗口大小就是无需等待确认应答而可以继续发送数据的最大值。
1、发送前四个段的时候, 不需要等待任何ACK, 直接发送;
2、收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
3、操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
4、窗口越大, 则网络的吞吐率就越高;
3.9 流量控制
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,
就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做 流量控制(Flow Control);
1、接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端;
2、窗口大小字段越大, 说明网络的吞吐量越高;
3、接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
4、发送端接受到这个窗口之后, 就会减慢自己的发送速度;
5、如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端。
接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;
那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位;
3.10 拥塞控制
虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;
此处引入一个概念程叫做拥塞窗口。
发送开始的时候, 定义拥塞窗口大小为1;
每次收到一个ACK应答, 拥塞窗口加1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;
像上面这样的拥塞窗口增长速度, 是指数级别的. “慢启动” 只是指初始时慢, 但是增长速度非常快.
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
因此就引入了一个叫做慢启动的阈值。
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长。
当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1;
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
TCP拥塞控制这样的过程, 就好像 热恋的感觉。
3.11 延迟应答
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小。
假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;
比如车载系统的紧急刹车功能,你不可能在用户踩紧急刹车的时候告诉用户你先等一等,我要延迟200ms再应答,如果是这样那就有点扯淡了。
延迟应答的方式一般有以下两种:
数量限制: 每隔N个包就应答一次;
时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;
3.12 捎带应答
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说了 “你好呀”, 服务器也会给客户端回一个 “你好”;
那么这个时候ACK就可以搭顺风车, 和服务器回应的 “你好” 一起返回给客户端了,这就不用单独发一个ACK报文了。
3.13 面向字节流
创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
调用write时, 数据会先写入发送缓冲区中;
如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
然后应用程序可以调用read从接收缓冲区拿数据;
另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工。
由于缓冲区的存在, TCP程序的读和写不需要一一匹配,
例如:
写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;
3.14 粘包问题
首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包.
在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段.
站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
但是站在应用层的角度, 看到的只是一串连续的字节数据.
那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包。
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界。
对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
对于变长的包, 可以在包头的位置, 约定一个包的总长度的字段, 从而就知道了包的结束位置;
对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序员自己来定的, 只要保证分隔符不和正文冲突即可);
思考: 对于UDP协议来说, 是否也存在 “粘包问题” 呢?
对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况.
3.15 TCP异常情况
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接。
3.16 TCP小结
为什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能。
可靠性: 校验和、 序列号(按序到达) 、确认应答、 超时重发 连接管理、 流量控制、 拥塞控制
提高性能::滑动窗口、快重传、延迟应答、捎带应答
其他: 定时器(超时重传定时器, 保活定时器, TIME_WAIT定时器等)
3.17 基于TCP的应用层协议
HTTP、HTTPS、SSH、Telnet、FTP、SMTP
当然, 也包括你自己写TCP程序时自定义的应用层协议。
3.18 TCP/UDP
我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进行比较。可靠和不可靠都是中性词,不一定说TCP就更好,因为TCP要保证可靠性就注定了TCP要更复杂,要完成更多的工作,所以还是要看具体的场景适合哪种协议,哪种协议就是最佳的选择,而不是一味地认为哪一个是更好的。
TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;
归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定。
3.19 用UDP实现可靠传输(经典题目)
首先得了解需要该场景需要的可靠性达到什么程度,如果要求不是很高的话就可以直接引入一些TCP保证可靠性的策略:如序号,确认序号,超时重传等。如果该应用场景要求很高的话,那么就直接选用TCP协议而不是UDP协议了。
四、UDP/TCP协议的所有内容一览图
以上就是今天想要跟大家分享的所有的内容啦,你学会了吗?如果感觉到有所帮助,那就留下一颗小心心,顺便点点关注呗!后期还会持续更新Linux系统编程的相关知识哦,我们下期见!!!!