【专题】计算机网络之运输层(传输层)

1. 运输层协议概述

1.1 进程之间的通信

(1) 运输层的作用

运输层提供进程间的逻辑通信。

运输层的屏蔽作用:

  • 运输层向高层用户屏蔽了下面网络核心的细节(如网络拓扑、所采用的路由选择协议等),使应用进程看见的就是好像在两个运输层实体之间有一条端到端的逻辑通信信道。

可靠信道与不可靠信道:

  • 通过是否使用面向连接的协议进行区分。

1.2 运输层的两个主要协议

  • 用户数据报协议 UDP (User Datagram Protocol)

  • 传输控制协议 TCP (Transmission Control Protocol)

(1) 运输协议数据单元
  • 两个对等运输实体在通信时传送的数据单位叫作运输协议数据单元 TPDU (Transport Protocol Data Unit)。

  • TCP 传送的数据单位协议是 TCP 报文段 (segment)。

  • UDP 传送的数据单位协议是 UDP 报文或用户数据报

(2) UDP 与 TCP 的区别

UDP:

  • 传送数据之前不需要先建立连接。

  • 收到 UDP 报后,不需要给出任何确认。

  • 不提供可靠交付,但是一种最有效的工作方式。

TCP:

  • 提供可靠的、面向连接的运输服务。

  • 不提供广播或多播服务。

  • 开销较多。

使用 UDP 和 TCP 的典型应用和应用层协议:

1.3 运输层的端口

  • 复用:应用进程都可以通过运输层再传送到 IP 层(网络层)。

  • 分用:运输层从 IP 层收到发送给应用进程的数据后,必须分别交付给指明的各应用进程。

需要考虑的问题:

  • 进程的创建和撤销都是动态的,因此发送方几乎无法识别其他机器上的进程。

  • 我们往往需要利用目的主机提供的功能来识别终点,而不需要知道具体实现这个功能的进程是哪一个。

  • 有时我们会改换接收报文的进程,但并不需要通知所有的发送方。

(1) 端口号

在运输层使用协议端口号 (protocol port number),或通常简称为端口 (port)。把端口设为通信的抽象终点。

(2) 软件端口与硬件端口

软件端口:

  • 协议栈层间的抽象的协议端口。

  • 是应用层的各种协议进程与运输实体进行层间交互的地点。

  • 不同系统实现端口的方法可以不同。

硬件端口:

  • 不同硬件设备进行交互的接口。

(3) TCP/IP 运输层端口的标志
  • 端口用一个 16 位端口号进行标志,允许有 65,535 个不同的端口号。

  • 端口号只具有本地意义,只是为了标志本计算机应用层中的各进程。

  • 在互联网中,不同计算机的相同端口号没有联系。

由此得,两个计算机中的进程要互相通信,不仅必须知道对方的端口号,而且还要知道对方的 IP 地址。

(4) 两大类、三种类型的端口

常用的熟知端口:

2. 用户数据报协议UDP

2.1 UDP概述

  • UDP 只在 IP 的数据报服务之上增加了复用和分用差错检测的功能。

(1) UDP的主要特点
  • 无连接。发送数据之前不需要建立连接。

  • 使用尽最大努力交付。即不保证可靠交付。

  • 面向报文。UDP 一次传送和交付一个完整的报文。

  • 没有拥塞控制。网络出现的拥塞不会使源主机的发送速率降低。很适合多媒体通信的要求。

  • 支持一对一、一对多、多对一、多对多等交互通信。

  • 首部开销小,只有 8 个字节。

UDP 通信的特点:简单方便,但不可靠。

(2) UDP 是面向报文的

  • 发送方 UDP 对应用层交下来的报文,既不合并,也不拆分,按照样发送。

  • 接收方 UDP 对 IP 层交上来的 UDP 用户数据报,去除首部后就原封不动地交付上层的应用进程,一次交付一个完整的报文。

应用程序必须选择合适大小的报文:

  • 若报文太长,IP 层在传送时可能要进行分片,降低 IP 层的效率。

  • 若报文太短,会使 IP 数据报的首部的相对长度太大,降低 IP 层的效率。

(3) UDP 通信和端口号的关系

多对一的通信,一对多的通信。

  • 复用:将 UDP 用户数据报组装成不同的 IP 数据报,发送到互联网。

  • 分用:根据 UDP 用户数据报首部中的目的端口号,将数据报分别传送到相应的端口,以便应用进程到端口读取数据。

2.2 UDP的首部格式

  • 源端口:源端口号。在需要对方回信时选用。不需要时可用全 0。

  • 目的端口:目的端口号。终点交付报文时必须使用。

  • 长度:UDP 用户数据报的长度,其最小值是 8(仅有首部)。

  • 检验和:检测 UDP 用户数据报在传输中是否有错。有错就丢弃。

用户数据报 UDP 有两个字段:

数据字段和首部字段。首部字段有 8 个字节,由 4 个字段组成,每个字段都是 2 个字节。

UDP基于端口的分用:

  • 接收方 UDP 根据首部中的目的端口号,把报文通过相应的端口上交给应用进程。

  • 如果接收方 UDP 发现收到的报文中的目的端口号不正确(即不存在对应于该端口号的应用进程),就丢弃该报文,并由 ICMP 发送“端口不可达”差错报文给发送方。

在计算检验和时,临时把 12 字节的“伪首部”和 UDP 用户数据报连接在一起。伪首部仅仅是为了计算检验和。

UDP 的检验和是把首部和数据部分一起都检验。

3. 传输控制协议TCP

  • TCP 是面向连接的运输层协议,在无连接的、不可靠的 IP 网络服务基础之上提供可靠交付的服务。为此,在 IP 的数据报服务基础之上,增加了保证可靠性的一系列措施。

3.1 TCP最主要的特点

  • TCP 是面向连接的运输层协议。

  • 每一条 TCP 连接只能有两个端点 (endpoint),每一条 TCP 连接只能是点对点的(一对一)。

  • TCP 提供可靠交付的服务。

  • TCP 提供全双工通信。

  • TCP是面向字节流的。

    • TCP 中的“流”(stream) 指的是流入或流出进程的字节序列。

    • 面向字节流:虽然应用程序和 TCP 的交互是一次一个数据块,但 TCP 把应用程序交下来的数据看成仅仅是一连串无结构的字节流。

TCP 面向流的概念:

  • TCP 不保证接收方应用程序所收到的数据块和发送方应用程序所发出的数据块具有对应大小的关系。

  • 但接收方应用程序收到的字节流必须和发送方应用程序发出的字节流完全一样。

  • TCP 不关心应用进程一次把多长的报文发送到 TCP 缓存。

  • TCP 根据对方给出的窗口值和当前网络拥塞程度来决定一个报文段应包含多少个字节,形成 TCP 报文段。

3.2 TCP的连接

TCP 把连接作为最基本的抽象。

  • TCP 连接的端点:套接字 (socket) 或插口

套接字:socket = (IP地址 : 端口号)

示例:

socket = (192.169.1.20 : 2028)

每一条 TCP 连接唯一地被通信两端的两个端点(即两个套接字)所确定:

  • TCP 连接 ::= {socket1, socket2} = {(IP1: port1),(IP2: port2)}

TCP连接,IP 地址,套接字:

  • TCP 连接就是由协议软件所提供的一种抽象。

  • TCP 连接的端点是抽象的套接字,即(IP 地址:端口号)。

  • 同一个 IP 地址可以有多个不同的 TCP 连接。

  • 同一个端口号也可以出现在多个不同的 TCP 连接中。

Socket的多种不同的意思:

  • 应用编程接口 API 称为 socket API, 简称为 socket。

  • socket API 中使用的一个函数名也叫作 socket。

  • 调用 socket 函数的端点称为 socket。

  • 调用 socket 函数时其返回值称为 socket 描述符,可简称为 socket。

  • 在操作系统内核中连网协议的 Berkeley 实现,称为 socket 实现。

4. 可靠传输的工作原理

  • IP网络提供的是不可靠的传输

  • 理想传输条件的特点:

    • 传输信道不产生差错。

    • 不管发送方以多快的速度发送数据,接收方总是来得及处理收到的数据。

在理想传输条件下,不需要采取任何措施就能够实现可靠传输。

但实际网络都不具备理想传输条件。必须使用一些可靠传输协议,在不可靠的传输信道实现可靠传输。

4.1 停止等待协议

  • 每发送完一个分组就停止发送,等待对方的确认。在收到确认后再发送下一个分组。

  • 全双工通信的双方既是发送方也是接收方。

  • 假设仅考虑 A 发送数据,而 B 接收数据并发送确认。因此 A 叫做发送方,而 B 叫做接收方。

(1) 无差错情况
  • A发送完分组M1后就暂停发送,等待B的确认 (ACK)。

  • B收到M1向A发送ACK。

  • A在收到了对M1的确认后,就再发送下一个分组M2。

(2) 出现差错

存在两种情况:

  • B 接收 M1 时检测出了差错,就丢弃 M1,其他什么也不做(不通知 A 收到有差错的分组)。

  • M1 在传输过程中丢失了,这时 B 当然什么都不知道,也什么都不做。

  • 在上述两种情况下,B 都不会发送任何信息。

问题:A 如何知道 B 是否正确收到了 M1 呢?

  • 解决方法:超时重传

  • A 为每一个已发送的分组设置一个超时计时器。

  • A 只要在超时计时器到期之前收到了相应的确认,就撤销该超时计时器,继续发送下一个分组 M2 。

  • 若 A 在超时计时器规定时间内没有收到 B 的确认,就认为分组错误或丢失,就重发该分组。

(3) 确认丢失和确认迟到

确认丢失:

  • 若 B 所发送的对 M1 的确认丢失了,那么 A 在设定的超时重传时间内将不会收到确认,因此 A 在超时计时器到期后重传 M1。

  • 假定 B 正确收到了 A 重传的分组 M1。这时 B 应采取两个行动:

    • 丢弃这个重复的分组 M1,不向上层交付。

    • 向 A 发送确认。

确认迟到:

  • B 对分组 M1 的确认迟到了,因此 A 在超时计时器到期后重传 M1。

  • B 会收到重复的 M1,丢弃重复的 M1,并重传确认分组。

  • A 会收到重复的确认。对重复的确认的处理:丢弃。

(4) 信道利用率

  • 当往返时间 RTT 远大于分组发送时间 TD 时,信道的利用率会非常低。

优点:简单。缺点:信道利用率太低。

(5) 停止等待协议要点
  • 停止等待。发送方每次只发送一个分组。在收到确认后再发送下一个分组。

  • 暂存:在发送完一个分组后,发送方必须暂存已发送的分组的副本,以备重发。

  • 编号。对发送的每个分组和确认都进行编号。

  • 超时重传。发送方为发送的每个分组设置一个超时计时器。若超时计时器超时位收到确认,发送方会自动超时重传分组。

  • 超时计时器的重传时间应当比数据在分组传输的平均往返时间更长一些,防止不必要的重传。

  • 简单,但信道利用率太低。

(6) 流水线传输

  • 由于信道上一直有数据不间断地传送,流水线传输可获得很高的信道利用率。

连续 ARQ 协议和滑动窗口协议采用流水线传输方式。

4.2 连续ARQ协议

  • 发送窗口:发送方维持一个发送窗口,位于发送窗口内的分组都可被连续发送出去,而不需要等待对方的确认。

  • 发送窗口滑动:发送方每收到一个确认,就把发送窗口向前滑动一个分组的位置。

  • 累积确认:接收方对按序到达的最后一个分组发送确认,表示:到这个分组为止的所有分组都已正确收到了。

累计确认的优点:

  • 容易实现,即使确认丢失也不必重传。

累计确认的缺点:

  • 不能向发送方反映出接收方已经正确收到的所有分组的信息。

连续 ARQ 协议采用 Go-back-N(回退N)。

Go-back-N(回退N):表示需要再退回来重传已发送过的 N 个分组。

当通信线路质量不好时,连续 ARQ 协议会带来负面的影响。

5. TCP报文段的首部格式

  • TCP 虽然是面向字节流的,但 TCP 传送的数据单元却是报文段。

  • 一个 TCP 报文段分为首部和数据两部分,而 TCP 的全部功能都体现在它首部中各字段的作用。

  • TCP 报文段首部的前 20 个字节是固定的,后面有 4n 字节是根据需要而增加的选项 (n 是整数)。因此 TCP 首部的最小长度是 20 字节。

TCP首部的长度是 4n 字节(n 是整数)。

TCP 首部的最小长度是 20 字节。

  • 源端口和目的端口:各占 2 字节。端口是运输层与应用层的服务接口。运输层的复用和分用功能通过端口实现。

  • 序号:占 4 字节。TCP 连接中传送的数据流中的每一个字节都有一个序号。序号字段的值则指的是本报文段所发送的数据的第一个字节的序号。

现有 5000 个字节的数据。假设报文段的最大数据长度为 1000 个字节,初始序号为 1001。

  • 确认号:占 4 字节,是期望收到对方的下一个报文段的数据的第一个字节的序号。

若确认号 = N,则表明:到序号 N – 1 为止的所有数据都已正确收到。

  • 数据偏移(即首部长度):占 4 位,指出 TCP 报文段的数据起始处距离 TCP 报文段的起始处有多远。单位是 32 位字(以 4 字节为计算单位)。

  • 保留:占 6 位,保留为今后使用,但目前应置为 0。

  • 紧急 URG:控制位。当 URG = 1 时,表明紧急指针字段有效,告诉系统此报文段中有紧急数据,应尽快传送 (相当于高优先级的数据)。

  • 确认 ACK:控制位。只有当 ACK =1 时,确认号字段才有效。当 ACK =0 时,确认号无效。

  • 推送 PSH (PuSH) :控制位。接收 TCP 收到 PSH = 1 的报文段后,就尽快(即“推送”向前)交付接收应用进程,而不再等到整个缓存都填满后再交付。

  • 复位 RST (ReSeT) :控制位。当 RST=1 时,表明 TCP 连接中出现严重差错(如主机崩溃或其他原因),必须释放连接,然后再重新建立运输连接。

  • 同步 SYN (SYNchronization) :控制位。

同步 SYN = 1 表示这是一个连接请求或连接接受报文。

当 SYN = 1,ACK = 0 时,表明这是一个连接请求报文段。

当 SYN = 1,ACK = 1 时,表明这是一个连接接受报文段。

  • 终止 FIN (Finish) :控制位。用来释放一个连接。FIN=1 表明此报文段的发送端的数据已发送完毕,并要求释放运输连接。

  • 窗口:占 2 字节。

    窗口值告诉对方:从本报文段首部中的确认号算起,接收方目前允许对方发送的数据量(以字节为单位)。

窗口字段明确指出了现在允许对方发送的数据量。窗口值经常在动态变化。

  • 检验和:占 2 字节。检验和字段检验的范围包括首部和数据这两部分。在计算检验和时,要在 TCP 报文段的前面加上 12 字节的伪首部。

在计算检验和时,临时把 12 字节的“伪首部”和 TCP 报文段连接在一起。伪首部仅仅是为了计算检验和。

  • 紧急指针:占 2 字节。在 URG = 1时,指出本报文段中的紧急数据的字节数(紧急数据结束后就是普通数据),指出了紧急数据的末尾在报文段中的位置。

  • 选项:长度可变,最长可达 40 字节。

长度可变。TCP 最初只规定了一种选项,即最大报文段长度 MSS。

  • MSS 告诉对方 TCP:“我的缓存所能接收的报文段的数据字段的最大长度是 MSS 个字节。”

  • MSS (Maximum Segment Size)是 TCP 报文段中的数据字段的最大长度。

  • 数据字段加上 TCP 首部才等于整个的 TCP 报文段。

  • 所以,MSS是“TCP 报文段长度减去 TCP 首部长度”。

  • 填充:使整个 TCP 首部长度是 4 字节的整数倍。

(1) 最大报文段长度 MSS
  • 最大报文段长度 MSS (Maximum Segment Size) 是每个 TCP 报文段中的数据字段的最大长度。

  • MSS 与接收窗口值没有关系。

TCP 报文段长度 = 数据字段长度 + TCP 首部长度

数据字段长度 = TCP 报文段长度 – TCP 首部长度

  • MSS不能太小。

    • 网络利用率降低。

    • 例如:仅 1 个字节。利用率就不会超过1/41。

  • MSS不能太大。

    • 开销增大。

    • IP 层传输时要分片,终点要装配。

    • 分片传输出错时,要整个分组。

  • MSS应尽可能大。

    • 只要在 IP 层传输时不再分片。

    • 默认值= 536 字节。

      • 报文段长度 = 536 + 20 = 556 字节。

      • IP 数据报长度 = 576 字节。

(2) 窗口扩大

TCP 窗口字段长度= 16 位,最大窗口大小 = 64 K 字节。对于传播时延和带宽都很大的网络,为获得高吞吐率较,需要更大的窗口。

窗口扩大选项:占 3 字节,其中一个字节表示移位值 S。

  • 新的窗口值位数从 16 增大到 (16 + S),相当于把窗口值向左移动 S 位。

  • 移位值允许使用的最大值是 14,窗口最大值增大到 2(16+14) – 1 = 230 – 1。

  • 窗口扩大选项可以在双方初始建立 TCP 连接时进行协商。

(3) 时间戳
  • 占 10 字节。最主要的 2 个字段:

    时间戳值字段(4字节)和时间戳回送回答字段(4字节)。

  • 2 个主要功能:

    • 计算往返时间 RTT

    • 防止序号绕回 PAWS (Protect Against Wrapped Sequence numbers)。

序号重复时,为了使接收方能够把新报文段和迟到很久的旧报文段区分开,可以在报文段中加上时间戳。

6. TCP 可靠传输的实现

6.1 以字节为单位的滑动窗口

  • TCP 使用流水线传输和滑动窗口协议实现高效、可靠的传输。

  • TCP 的滑动窗口是以字节为单位的。

  • 发送方 A 和接收方 B 分别维持一个发送窗口和一个接收窗口。

  • 发送窗口:在没有收到确认的情况下,发送方可以连续把窗口内的数据全部发送出去。凡是已经发送过的数据,在未收到确认之前都必须暂时保留,以便在超时重传时使用。

  • 接收窗口:只允许接收落入窗口内的数据。

(1) 发送窗口
  • A 根据 B 给出的窗口值,构造出自己的发送窗口。

  • 发送窗口里面的序号表示允许发送的序号。

  • 窗口越大,发送方就可以在收到对方确认之前连续发送更多的数据,因而可能获得更高的传输效率。

  • P1 = 后沿,P2 = 当前,P3 = 前沿。

  • P3 – P1 = A 的发送窗口(又称为通知窗口)

  • P2 – P1 = 已发送但尚未收到确认的字节数

  • P3 – P2 = 允许发送但尚未发送的字节数(又称为可用窗口)

(2) 接收窗口
  • B 收到了序号为 32 和 33 的数据,但未收到序号为 31 的数据。

  • 因此,因此发送的确认报文段中的确认号是 31(即期望收到的序号)。

(3) 窗口的滑动

A 未收到确认的原因有:① B 未发送;② B已发送,但还未到达 A 。

为保证可靠传输,A 只能认为 B 还没有收到这些数据。A 经过一段时间后(由超时计时器控制)就重传这部分数据,重新设置超时计时器,直到收到 B 的确认为止。

如果 A 按序收到落在发送窗口内的确认号, 就使发送窗口向前滑动,并发送新的数据。

(4) 发送缓存与发送窗口
  • 发送方的应用进程把字节流写入 TCP 发送缓存。

  • 缓存中的字节数 = 发送应用程序最后写入缓存的字节 - 最后被确认的字节

(5) 接收缓存与接收窗口
  • 接收方的应用进程从 TCP 接收缓存中读取尚未被读取的字节。

  • 若不能及时读取,缓存最终会被填满,使接收窗口减小到零。

  • 如果能够及时读取,接收窗口就可以增大,但最大不能超过接收缓存的大小。

  • 发送窗口是根据接收窗口设置的,但在同一时刻,发送窗口并不总是和接收窗口一样大(因为有一定的时间滞后)。

  • TCP 标准没有规定对不按序到达的数据应如何处理。通常是先临时存放在接收窗口中,等到字节流中所缺少的字节收到后,再按序交付上层的应用进程。

  • TCP 要求接收方必须有累积确认的功能,以减小传输开销。接收方可以在合适的时候发送确认,也可以在自己有数据要发送时把确认信息顺便捎带上。但接收方不应过分推迟发送确认,否则会导致发送方不必要的重传,捎带确认实际上并不经常发生。

6.2 超时重传时间的选择

  • TCP 发送方在规定的时间内没有收到确认就要重传已发送的报文段。

  • 但重传时间的选择是 TCP 最复杂的问题之一。

  • 互联网环境复杂,IP 数据报所选择的路由变化很大,导致运输层的往返时间 (RTT) 的变化也很大。

(1) TCP超时重传时间设置
  • 不能太短,否则会引起很多报文段的不必要的重传,使网络负荷增大。

  • 不能过长,会使网络的空闲时间增大,降低了传输效率。

TCP 采用了一种自适应算法,它记录一个报文段发出的时间,以及收到相应确认的时间。

这两个时间之差就是报文段的往返时间 RTT。

(2) 加权平均往返时间 RTTS
  • 加权平均往返时间 RTTS 又称为平滑的往返时间。

  • 新的RTTs = (1-a)×(旧的RTTs)+ a×(新的RTT样本)

    其中,0≤α<1 。

    若 α→0,表示 RTT 值更新较慢。

    若 α→1,表示 RTT 值更新较快。

    RFC 6298 推荐的 a 值为 1/8,即 0.125。

(3) 超时重传时间 RTO
  • RTO (Retransmission Time-Out) 应略大于加权平均往返时间 RTTs。

  • RFC 6298 建议 RTO:

    RTO = RTTS + 4×RTTD

    其中:RTTD 是 RTT 偏差的加权平均值。

  • RFC 6298 建议 RTTD :

    新的RTTD = (1-b) × (旧的RTTD) + b × |RTTS - 新的RTT样本|

    其中:b 是个小于 1 的系数,其推荐值是 1/4,即 0.25。

(4) 往返时间 (RTT) 的测量

Karn算法:

  • 在计算平均往返时间 RTT 时,只要报文段重传了,就不采用其往返时间样本。

  • 新问题:当报文段的时延突然增大很多时,在原来得出的重传时间内,不会收到确认报文段,于是就重传报文段。但根据 Karn 算法,不考虑重传的报文段的往返时间样本。这样,超时重传时间就无法更新,造成很多不必要的重传。

修正的Karn算法:

  • 报文段每重传一次,就把 RTO 增大一些:

    新的RTO = γ × (旧的RTO)

  • 系数γ的典型值 = 2 。

  • 当不再发生报文段的重传时,才根据报文段的往返时延更新平均往返时延 RTT 和超时重传时间 RTO 的数值。

6.3 选择确认SACK

问题:若收到的报文段无差错,只是未按序号,中间还缺少一些序号的数据,那么能否设法只传送缺少的数据而不重传已经正确到达接收方的数据?

  • 解决:选择确认 SACK (Selective ACK)

RFC 2018 对 SACK 的规定:

  • 如果要使用选择确认,在建立 TCP 连接时,要在 TCP 首部的选项中加上允许 SACK 选项,且双方必须事先商定好。

  • 如果使用选择确认,原来首部中的确认号的用法仍然不变(累积确认)。只是在 TCP 首部中都增加了 SACK 选项,以便报告收到的不连续的字节块的边界。

  • 左边界 = 第一个字节的序号,右边界 = 最后一个字节序号 + 1。

7. TCP的流量控制

7.1 利用滑动窗口实现流量控制

  • 流量控制 (flow control) :让发送方的发送速率不要太快,使接收方来得及接收。

  • 利用滑动窗口机制可以很方便地在 TCP 连接上实现对发送方的流量控制。

利用可变窗口进行流量控制举例:

  • A 向 B 发送数据,MSS = 100 字节。

  • 在连接建立时,B 告诉 A:“我的接收窗口 rwnd = 400(字节)”。

发生死锁:

  • A 向 B 发送数据,MSS = 100 字节。

  • 在连接建立时,B 告诉 A:“我的接收窗口 rwnd = 400(字节)”。

持续计时器:

  • 只要 TCP 连接的一方收到对方的零窗口通知,就启动该持续计时器。

  • 若持续计时器设置的时间到期,就发送一个零窗口探测报文段(仅携带 1 字节的数据),对方在确认这个探测报文段时给出当前窗口值。

  • 若窗口仍然是零,收到这个报文段的一方就重新设置持续计时器。

  • 若窗口不是零,则死锁的僵局就可以打破了。

7.2 TCP的传输效率

控制TCP发送报文段的时机的三种机制

  • TCP 维持一个变量,它等于最大报文段长度 MSS。只要缓存中存放的数据达到 MSS 字节时,就组装成一个 TCP 报文段发送出去。

  • 由发送方的应用进程指明要求发送报文段,即 TCP 支持的推送 (push) 操作。

  • 发送方的一个计时器期限到了,这时就把当前已有的缓存数据装入报文段(但长度不能超过 MSS)发送出去。

(1) 糊涂窗口综合症
  • 糊涂窗口综合症:每次仅发送一个字节或很少几个字节的数据时,有效数据传输效率变得很低的现象。

(2) 发送方糊涂窗口综合症
  • 发送方 TCP 每次接收到一字节的数据后就发送。

  • 发送一个字节需要形成 41 字节长的 IP 数据报。效率很低。

  • 解决方法:使用 Nagle 算法。

(3) 接收方糊涂窗口综合症
  • 原因:接收方应用进程消耗数据太慢,例如:每次只读取一个字节。

  • 解决方法:让接收方等待一段时间,使得或者接收缓存已有足够空间容纳一个最长的报文段,或者等到接收缓存已有一半空闲的空间。只要出现这两种情况之一,接收方就发出确认报文,并向发送方通知当前的窗口大小。

上述两种方法可配合使用,使得在发送方不发送很小的报文段的同时,接收方也不要在缓存刚刚有了一点小的空间就急忙把这个很小的窗口大小信息通知给发送方。

8. TCP的拥塞控制

8.1 拥塞控制的一般原理

在某段时间,若对网络中某资源的需求超过了该资源所能提供的可用部分,网络的性能就要明显变坏,整个网络的吞吐量将随输入负荷的增大而下降。这种现象称为拥塞 (congestion)。

  • 最坏结果:系统崩溃。

(1) 拥塞产生的原因
  • 节点缓存容量太小;

  • 链路容量不足;

  • 处理机处理速率太慢;

  • 拥塞本身会进一步加剧拥塞;

出现网络拥塞的条件:

∑ 对资源需求 > 可用资源

问题:增加资源能否解决拥塞?

  • 不能,而且还可能使网络的性能更坏。

  • 例如:

    1. 增大缓存,但未提高输出链路的容量和处理机的速度,排队等待时间将会大大增加,引起大量超时重传,解决不了网络拥塞;

    2. 提高处理机处理的速率会将瓶颈转移到其他地方;

    3. 拥塞引起的重传并不会缓解网络的拥塞,反而会加剧网络的拥塞。

(2) 拥塞控制与流量控制的区别

拥塞控制:

  • 防止过多的数据注入到网络中,避免网络中的路由器或链路过载。

  • 是一个全局性的过程,涉及到所有的主机、路由器,以及与降低网络传输性能有关的所有因素。

流量控制:

  • 抑制发送端发送数据的速率,以使接收端来得及接收。

  • 点对点通信量的控制,是个端到端的问题。

(3) 拥塞控制所起的作用

(4) 拥塞控制的一般原理
  • 拥塞控制的前提:网络能够承受现有的网络负荷。

  • 实践证明,拥塞控制是很难设计的,因为它是一个动态问题。

  • 分组的丢失是网络发生拥塞的征兆,而不是原因。

  • 在许多情况下,甚至正是拥塞控制本身成为引起网络性能恶化、甚至发生死锁的原因。

(5) 开环控制和闭环控制

开环控制:

  • 在设计网络时,事先考虑周全,力求工作时不发生拥塞。

  • 思路:力争避免发生拥塞。

  • 但一旦整个系统运行起来,就不再中途进行改正了。

闭环控制:

  • 基于反馈环路的概念。

  • 根据网络当前运行状态采取相应控制措施。

  • 思路:在发生拥塞后,采取措施进行控制,消除拥塞。

闭环控制措施:

  • 监测的主要指标有:

    1.由于缺少缓存空间而被丢弃的分组的百分数;

    2.平均队列长度;

    3.超时重传的分组数;

    4.平均分组时延;

    5.分组时延的标准差,等等。

这些指标的上升都标志着拥塞的增长。

  • 传送的过程:

    1. 将拥塞发生的信息传送到产生分组的源站。

    2. 在路由器转发的分组中保留一个比特或字段,用该比特或字段的值表示网络没有拥塞或产生了拥塞。

    3. 周期性地发出探测分组等。

  • 调整的策略:

    • 过于频繁,会使系统产生不稳定的振荡。

    • 过于迟缓,不具有任何实用价值。

    • 选择正确的时间常数是相当困难的。

8.2 TCP的拥塞控制方法

  • TCP 采用基于滑动窗口的方法进行拥塞控制,属于闭环控制方法。

  • TCP 发送方维持一个拥塞窗口 cwnd (Congestion Window)

  • 拥塞窗口的大小取决于网络的拥塞程度,并且是动态变化的。

  • 发送端利用拥塞窗口根据网络的拥塞情况调整发送的数据量。

  • 发送窗口大小不仅取决于接收方窗口,还取决于网络的拥塞状况。

  • 真正的发送窗口值:

    真正的发送窗口值 = Min (接收方通知的窗口值,拥塞窗口值)

(1) 控制拥塞窗口变化的原则
  • 只要网络没有出现拥塞,拥塞窗口就可以再增大一些,以便把更多的分组发送出去,提高网络的利用率。

  • 但只要网络出现拥塞或有可能出现拥塞,就必须把拥塞窗口减小一些,以减少注入到网络中的分组数,缓解网络出现的拥塞。

(2) 隐式反馈

发送方判断拥塞的方法:隐式反馈。

  • 因传输出差错而丢弃分组的概率很小(远小于1 %)。

  • 因此,发送方在超时重传计时器启动时,就判断网络出现了拥塞。

(3) TCP拥塞控制算法

慢开始算法 (Slow start):

  • 目的:探测网络的负载能力或拥塞程度。

  • 算法:由小到大逐渐增大注入到网络中的数据字节,即:由小到大逐渐增大拥塞窗口数值。

  • 2个控制变量:

    拥塞窗口 cwnd:

    • 初始值:2 种设置方法。

    • 1 至 2 个最大报文段 MSS (旧标准)

    • 2 至 4 个最大报文段 MSS(RFC 5681)

    慢开始门限 ssthresh:

    • 防止拥塞窗口增长过大引起网络拥塞。

  • 拥塞窗口 cwnd 增大:在每收到一个对新的报文段的确认,就把拥塞窗口增加最多一个发送方的最大报文段 SMSS (Sender Maximum Segment Size) 的数值。

    拥塞窗口cwnd每次的增加量 = min (N, SMSS)

    其中 N 是原先未被确认的、但现在被刚收到的确认报文段所确认的字节数。

发送方每收到一个对新报文段的确认(重传的不算在内)就使 cwnd 加 1。

发送方每收到一个对新报文段的确认(重传的不算在内)就使 cwnd 加 1。

  • 传输轮次(transmission round):

    防止拥塞窗口 cwnd 增长过大引起网络拥塞。

    用法:

    1. 当 cwnd < ssthresh 时,使用慢开始算法。

    2. 当 cwnd > ssthresh 时,停止使用慢开始算法,改用拥塞避免算法。

    3. 当 cwnd = ssthresh 时,既可使用慢开始算法,也可使用拥塞避免算法。

拥塞避免算法:

  • 目的:让拥塞窗口 cwnd 缓慢地增大,避免出现拥塞。

  • 拥塞窗口 cwnd 增大:每经过一个往返时间 RTT(不管在此期间收到了多少确认),发送方的拥塞窗口 cwnd = cwnd + 1。

  • 具有加法增大 AI (Additive Increase) 特点:使拥塞窗口 cwnd 按线性规律缓慢增长。

注意:拥塞避免并非完全避免拥塞,而是让拥塞窗口增长得缓慢些,使网络不容易出现拥塞。

每经过一个往返时间 RTT,发送方就把拥塞窗口 cwnd 加 1。

  • 当网络出现拥塞时,无论在慢开始阶段还是在拥塞避免阶段,只要发送方判断网络出现拥塞(重传定时器超时):

    执行下列操作:

    1. ssthresh = max (cwnd/2,2)

    2. cwnd = 1

    3. 执行慢开始算法

    目的:迅速减少主机发送到网络中的分组数,使得发生拥塞的路由器有足够时间把队列中积压的分组处理完毕。

慢开始和拥塞避免算法的实现举例:

当 TCP 连接进行初始化时,将拥塞窗口置为 1(窗口单位不使用字节而使用报文段)。

将慢开始门限的初始值设置为 16 个报文段,即 ssthresh = 16。

  1. 开始执行慢开始算法时,拥塞窗口 cwnd=1,发送第一个报文段。

  2. 发送方每收到一个对新报文段的确认 ACK,就把拥塞窗口值加 1,因此拥塞窗口 cwnd 随着往返时延 RTT 按指数规律增长。

  3. 当拥塞窗口 cwnd 增长到慢开始门限值 ssthresh 时,改为执行拥塞避免算法,拥塞窗口按线性规律增长。

  4. 当拥塞窗口 cwnd = 24 时,网络出现了超时,发送方判断为网络拥塞。调整门限值 ssthresh = cwnd / 2 = 12,同时设置拥塞窗口 cwnd = 1,进入慢开始阶段。

  5. 按照慢开始算法,发送方每收到一个对新报文段的确认 ACK,就把拥塞窗口值加 1。当拥塞窗口 cwnd = ssthresh = 12 时,改为执行拥塞避免算法,拥塞窗口按线性规律增大。

  6. 当拥塞窗口 cwnd = 16 时,发送方连续收到 3 个对同一个报文段的重复确认(记为 3-ACK)。发送方改为执行快重传和快恢复算法。

快重传 FR (Fast Retransmission) 算法:

  • 目的:让发送方尽早知道发生了个别报文段的丢失。

  • 发送方只要连续收到三个重复的确认,就立即进行重传(即“快重传”),这样就不会出现超时。

  • 使用快重传可以使整个网络的吞吐量提高约 20%。

  • 快重传算法要求接收方立即发送确认,即使收到了失序的报文段,也要立即发出对已收到的报文段的重复确认。

注意:快重传并非取消重传计时器,而是在某些情况下可以更早地(更快地)重传丢失的报文段。

快重传举例:

快恢复 FR (Fast Recovery)算法:

  • 当发送端收到连续三个重复的确认时,不执行慢开始算法,而是执行快恢复算法 FR (Fast Recovery) 算法:

    1. 慢开始门限 ssthresh = 当前拥塞窗口 cwnd / 2 ;

    2. 乘法减小 MD (Multiplicative Decrease) 拥塞窗口。

      新拥塞窗口cwnd = 慢开始门限ssthresh;

    3. 执行拥塞避免算法,使拥塞窗口缓慢地线性增大(加法增大 AI)。

二者合在一起就是所谓的 AIMD 算法,使 TCP 性能有明显改进。

慢开始和拥塞避免算法的实现举例:

  • 当拥塞窗口 cwnd = 16 时,发送方连续收到 3 个对同一个报文段的重复确认(记为 3-ACK)。发送方改为执行快重传和快恢复算法。

  • 执行快重传和快恢复算法:发送方调整门限值 ssthresh = cwnd / 2 = 8,设置拥塞窗口 cwnd = ssthresh = 8,开始执行拥塞避免算法。

TCP 拥塞控制流程图:

发送窗口的上限值:

  • 发送窗口的上限值 = Min [rwnd, cwnd]

    rwnd < cwnd时,是接收方的接收能力限制发送窗口的最大值。

    cwnd < rwnd 时,是网络拥塞限制发送窗口的最大值。

8.3 主动队列管理AQM

  • TCP 拥塞控制和网络层采取的策略有密切联系。

  • 例如:

    若路由器对某些分组的处理时间特别长,就可能引起发送方 TCP 超时,对这些报文段进行重传。

    重传会使 TCP 连接的发送端认为在网络中发生了拥塞,但实际上网络并没有发生拥塞。

  • 对 TCP 拥塞控制影响最大的就是路由器的分组丢弃策略。

(1) “先进先出”FIFO 处理规则
  • 先进先出FIFO (First In First Out) 处理规则:

  • 尾部丢弃策略 (tail-drop policy):当队列已满时,以后到达的所有分组(如果能够继续排队,这些分组都将排在队列的尾部)将都被丢弃。

  • 路由器的尾部丢弃往往会导致一连串分组的丢失,这就使发送方出现超时重传,使 TCP 进入拥塞控制的慢开始状态,结果使 TCP 连接的发送方突然把数据的发送速率降低到很小的数值。

先进先出(FIFO)处理规则与尾部丢弃策略:

  • 在最简单的情况下,路由器队列通常采用

    先进先出 (FIFO) 处理规则与尾部丢弃策略 (tail-drop policy)。

  • 当队列已满时,以后到达的所有分组将都被丢弃。

  • 分组丢弃使发送方出现超时重传,使 TCP 连接进入慢开始状态。

严重问题:全局同步

  • 若路由器进行了尾部丢弃,所有到达的分组都被丢弃,不论它们属于哪个 TCP 连接。

  • 分组丢弃使发送方出现超时重传,使多个 TCP 连接同时进入慢开始状态,发生全局同步 (global syncronization)。

(2) 主动队列管理AQM
  • 1998 年提出了主动队列管理 AQM (Active Queue Management)。

  • 主动:不要等到路由器的队列长度已经达到最大值时才不得不丢弃后面到达的分组,而是在队列长度达到某个值得警惕的数值时(即当网络拥塞有了某些拥塞征兆时),就主动丢弃到达的分组。

  • AQM 可以有不同实现方法,其中曾流行多年的就是随机早期检测 RED (Random Early Detection)。

(3) 随机早期检测RED
  • 路由器队列维持两个参数:

    • 队列长度最小门限 THmin;

    • 队列长度最大门限 THmax。

  • RED 对每一个到达的分组都先计算平均队列长度 LAV 。

    1. 若平均队列长度小于最小门限 THmin,则将新到达的分组放入队列进行排队。

    2. 若平均队列长度超过最大门限 THmax,则将新到达的分组丢弃。

    3. 若平均队列长度介于在最小门限 THmin 和最大门限 THmax之间,则按照某一概率 p 将新到达的分组丢弃。

  • RED 路由器到达队列维持两个参数:Thmin, Thmax,分成为三个区域:

  • LAV < Thmin 时,丢弃概率 p = 0。

  • LAV > Thmax 时,丢弃概率 p = 1。

  • 当 Thmin ≤ LAV ≤ Thmax时,丢弃概率 p: 0 < p < 1 。

困难:丢弃概率 p 的选择,因为 p 并不是个常数。

例如,按线性规律变化,从 0 变到 pmax。

多年的实践证明,RED 的使用效果并不太理想。

  • 2015 年公布的 RFC 7567 已经把 RFC 2309 列为“陈旧的”,并且不再推荐使用 RED。

  • 但对路由器进行主动队列管理 AQM 仍是必要的。

  • AQM 实际上就是对路由器中的分组排队进行智能管理,而不是简单地把队列的尾部丢弃。

  • 现在已经有几种不同的算法来代替旧的 RED,但都还在实验阶段。

9. TCP 的运输连接管理

运输连接的三个阶段:

  • TCP 是面向连接的协议。

  • TCP 连接有三个阶段:

    1. 连接建立

    2. 数据传送

    3. 连接释放

  • TCP 的连接管理就是使 TCP 连接的建立和释放都能正常地进行。

TCP连接建立过程中要解决的三个问题:

  • 要使每一方能够确知对方的存在。

  • 要允许双方协商一些参数(如最大窗口值、是否使用窗口扩大选项和时间戳选项以及服务质量等)。

  • 能够对运输实体资源(如缓存大小、连接表中的项目等)进行分配。

TCP 连接的建立采用客户服务器方式。

  • 主动发起连接建立的应用进程叫做客户 (client)。

  • 被动等待连接建立的应用进程叫做服务器 (server)。

9.1 TCP的连接建立

  • TCP 建立连接的过程叫做握手。

  • 采用三报文握手:在客户和服务器之间交换三个 TCP 报文段,以防止已失效的连接请求报文段突然又传送到了,因而产生 TCP 连接建立错误。

连接建立过程:

  • B 的 TCP 服务器进程先创建传输控制块 TCB,准备接受客户进程的连接请求。

  • A 的 TCP 向 B 主动发出连接请求报文段,其首部中的同步位 SYN = 1,并选择序号 seq = x,表明传送数据时的第一个数据字节的序号是 x。

注意:TCP规定,SYN 报文段(即SYN = 1的报文段)不能携带数据,但要消耗掉一个序号。

  • B 的 TCP 收到连接请求报文段后,如同意,则发回确认。

  • B 在确认报文段中应使 SYN = 1,使 ACK = 1,其确认号 ack = x + 1,自己选择的序号 seq = y。

这个报文段也不能携带数据,但同样要消耗掉一个序号。

  • A 收到此报文段后向 B 给出确认,其 ACK = 1,确认号 ack = y + 1。

  • A 的 TCP 通知上层应用进程,连接已经建立。

TCP 标准规定:ACK 报文段可以携带数据。但如果不携带数据,则不消耗序号。下一个数据报文段的序号仍是 seq = x + 1。

  • B 的 TCP 收到主机 A 的确认后,也通知其上层应用进程:TCP 连接已经建立。双方可以开始数据传送。

采用三报文握手建立 TCP 连接的各个状态:

9.2 TCP的连接释放

  • TCP 连接释放过程比较复杂。

  • 数据传输结束后,通信的双方都可释放连接。

  • TCP 连接释放过程是四报文握手。

连接释放的过程:

  • A 的应用进程先向其 TCP 发出连接释放报文段,并停止再发送数据,主动关闭 TCP 连接。

  • A 把连接释放报文段首部的 FIN = 1,其序号seq = u,等待 B 的确认。

TCP规定:FIN 报文段即使不携带数据,也消耗掉一个序号。

  • B 发出确认,ACK=1,确认号 ack = u+1,这个报文段的序号 seq = v。

  • TCP 服务器进程通知高层应用进程。

  • 从 A 到 B 这个方向的连接就释放了,TCP 连接处于半关闭 (half-close) 状态。B 若发送数据,A 仍要接收。

  • 若 B 已经没有要向 A 发送的数据,其应用进程就通知 TCP 释放连接。

    FIN=1,ACK=1,确认号 ack = u+1。

  • A 收到连接释放报文段后,必须发出确认。

    ACK=1,确认号 ack=w+1,自己的序号 seq = u + 1

请注意:此时 TCP 连接还没有释放掉。必须经过时间等待计时器 (TIME-WAIT timer) 设置的时间 2MSL 后,A 才释放 TCP 连接。

必须等待 2MSL 的时间。

  • 保证发送的最后一个 ACK 报文段能够到达 B。

  • 防止“已失效的连接请求报文段”出现在本连接中。

保活计时器:

  • 用来防止在 TCP 连接出现长时期空闲。

  • 通常设置为 2 小时 。

  • 若服务器过了 2 小时还没有收到客户的信息,它就发送探测报文段。

  • 若发送了 10 个探测报文段(每一个相隔 75 秒)还没有响应,就假定客户出了故障,因而就终止该连接。

9.3 TCP的有限状态机

10. 补充

  • 试说明运输层在协议栈中的地位和作用。运输层的通信和网络层的通信有什么重要的区别?为什么运输层是必不可少的?

    以下是对运输层在协议栈中的地位、作用及其与网络层通信的重要区别的详细阐述,以及运输层必不可少的原因:

    运输层在协议栈中的地位和作用

    1. 地位:运输层处于面向通信部分的最高层,同时也是用户功能中的最低层。它位于网络层之上,应用层之下,起到了承上启下的关键作用。

    2. 作用

    • 提供端到端的逻辑通信:运输层为应用进程之间提供端到端的逻辑通信服务,确保数据能够在源端和目的端之间正确、可靠地传输。

    • 复用和分用:运输层通过复用和分用的方式,将多个应用进程的数据流合并到网络层进行传输,并在接收端将数据流分发给相应的应用进程。

    • 差错检测:运输层对收到的报文进行差错检测,确保数据的完整性。

    • 流量控制和拥塞控制:运输层通过流量控制和拥塞控制机制,限制发送端发送数据的速率,避免在接收端或网络中产生过载。

    运输层的通信和网络层的通信的重要区别

    1. 通信对象

    • 网络层:提供主机之间的逻辑通信,通信的真正端点是主机。

    • 运输层:提供应用进程之间的逻辑通信,通信的真正端点是主机中的进程。

    1. 服务质量

    • 网络层:主要关注数据包的路由和转发,不提供“可靠或尽力而为”的服务质量保证。

    • 运输层:为应用进程之间的通信提供“可靠或尽力而为”的两类服务质量,并通过复用和分用的方式将这些服务质量要求加载到网络层。

    运输层必不可少的原因

    1. 确保数据正确传输:运输层通过提供端到端的逻辑通信服务,确保数据能够在源端和目的端之间正确、可靠地传输。这是网络通信的基本要求,也是运输层存在的核心原因。

    2. 支持多种应用进程:不同的应用进程可能需要不同的通信方式和服务质量要求。运输层通过复用和分用的方式,为多种应用进程提供统一的通信接口和服务质量保证。

    3. 实现差错检测和控制:在网络通信过程中,数据可能会因为各种原因而丢失或损坏。运输层通过差错检测机制,能够及时发现并纠正这些问题,确保数据的完整性。

    4. 进行流量和拥塞控制:为了避免在网络中产生过载和拥塞,运输层通过流量控制和拥塞控制机制,限制发送端发送数据的速率,确保网络通信的顺畅和高效。

    综上所述,运输层在协议栈中处于至关重要的地位,它提供了端到端的逻辑通信服务,支持多种应用进程的通信需求,并通过差错检测、流量控制和拥塞控制等机制确保网络通信的正确性、可靠性和高效性。因此,运输层是必不可少的。

  • 网络层提供数据报或虚电路服务对上面的运输层有何影响?

    网络层提供数据报或虚电路服务对上面的运输层有一定的影响,主要体现在服务质量方面,但不影响运输层的运行机制。以下是具体分析:

    一、服务质量的影响

    1. 数据报服务

    • 服务质量:数据报服务不提供可靠的交付,即不保证数据能够无差错、不丢失、不重复且按序地到达目的端。

    • 对运输层的影响:当网络层提供数据报服务时,运输层需要实现更复杂的协议来确保数据的可靠交付。例如,运输层需要实现重传机制、差错检测机制等,以应对数据丢失或损坏的情况。

    1. 虚电路服务

    • 服务质量:虚电路服务提供可靠的交付,即保证数据能够无差错、不丢失、不重复且按序地到达目的端。

    • 对运输层的影响:当网络层提供虚电路服务时,运输层可以简化其协议设计,因为网络层已经提供了可靠交付的保证。然而,需要注意的是,即使网络层提供了可靠的交付,也只是主机到主机的通信是可靠的,进程到进程的通信仍然可能出错。因此,在某些情况下,运输层仍然需要实现额外的可靠交付协议。

    二、运输层协议设计的考虑

    1. 简化协议设计:若网络层提供虚电路服务,运输层协议可以设计得更简单,因为不需要考虑数据的可靠交付问题。然而,这并不意味着运输层可以完全依赖网络层的可靠交付服务,因为进程到进程的通信仍然需要额外的保证。

    2. 增强灵活性:无论网络层提供哪种服务,运输层都应该保持其设计的灵活性,以适应不同的应用需求和网络环境。例如,运输层可以提供多种服务质量选项,以满足不同应用对数据传输速度、可靠性、延迟等方面的要求。

    综上所述,网络层提供数据报或虚电路服务对运输层的影响主要体现在服务质量方面。运输层需要根据网络层提供的服务类型来调整其协议设计,以确保数据的正确、可靠传输。同时,运输层也需要保持其设计的灵活性,以适应不同的应用需求和网络环境。

  • 当应用程序使用面向连接的TCP和无连接的IP时,这种传输是面向连接的还是无连接的?

    当应用程序使用面向连接的TCP(传输控制协议)和无连接的IP(互联网协议)时,我们需要从整个通信过程的角度来理解其传输性质。

    首先,要明确的是,TCP和IP是两个不同层次的协议。IP是网络层的协议,它负责将数据从源地址传输到目的地址,但不保证数据的可靠性、顺序性或完整性。IP是无连接的,即它不会在发送方和接收方之间建立持久的连接。

    而TCP是运输层的协议,它建立在IP之上,提供了面向连接的通信服务。TCP通过三次握手过程建立连接,确保发送方和接收方之间的通信通道是可靠的。在数据传输过程中,TCP还提供了差错控制、流量控制和拥塞控制等机制,以确保数据的正确、有序和完整传输。

    因此,当应用程序使用TCP进行通信时,无论底层使用的是哪种网络协议(如IP),从运输层的角度来看,这种通信都是面向连接的。TCP连接在发送方和接收方之间建立了一个持久的、可靠的通信通道,使得应用程序可以像使用管道一样进行数据传输。

    总结来说,虽然IP是无连接的,但当应用程序使用TCP进行通信时,从运输层的角度来看,这种通信是面向连接的。这是因为TCP在IP之上提供了额外的可靠性和连接管理机制,从而确保了数据传输的可靠性和有序性。

  • 试举例说明有些应用程序愿意采用不可靠的 UDP,而不愿意采用可靠的TCP。

    有些应用程序愿意采用不可靠的用户数据报协议(UDP),而不愿意采用可靠的传输控制协议(TCP),这主要基于以下几个方面的考虑:

    一、实时性要求高

    1. 音频和视频流媒体

    • 实时性需求:音频和视频流媒体应用程序需要实时传输数据,以确保流畅的播放体验。

    • UDP的优势:UDP不建立连接,直接发送数据,减少了延迟。即使少量数据包丢失,对播放效果的影响也较小,因为人耳和眼睛对数据的容错性较高。

    • TCP的局限:TCP需要建立连接和进行差错控制,这会增加延迟。在实时流媒体传输中,TCP的重传机制可能导致播放卡顿或延迟。

    1. 在线游戏

    • 实时性需求:在线游戏需要实时更新游戏状态,以确保玩家之间的同步。

    • UDP的优势:UDP的低延迟特性使其成为在线游戏的理想选择。即使偶尔有数据包丢失,游戏也可以通过插值或预测算法来弥补。

    • TCP的局限:TCP的重传机制可能导致游戏状态更新延迟,影响玩家体验。

    二、网络拥塞控制

    • TCP的拥塞控制:TCP通过拥塞控制机制来避免网络过载。当网络出现拥塞时,TCP会降低发送速率。

    • UDP的无连接特性:UDP不执行拥塞控制,可以持续发送数据。对于某些应用程序(如实时视频传输),即使网络拥塞导致部分数据包丢失,也比等待TCP降低发送速率要更好。

    三、资源开销和复杂性

    • TCP的资源开销:TCP需要建立和维护连接状态,这增加了系统的资源开销。

    • UDP的简洁性:UDP无连接、无状态,资源开销较小。对于资源受限的设备或应用程序(如嵌入式系统),UDP是更好的选择。

    四、特定应用场景的需求

    • 多播和广播:UDP支持多播和广播,这使得它适用于某些特定应用场景(如视频会议中的多点广播)。TCP则不支持多播和广播。

    • 特定协议的需求:某些协议(如DNS、某些实时通信协议)要求使用UDP,因为它们需要快速响应和/或低延迟传输。

    综上所述,有些应用程序愿意采用不可靠的UDP而不是可靠的TCP,这主要是因为UDP在实时性、网络拥塞控制、资源开销和复杂性以及特定应用场景的需求方面具有优势。然而,需要注意的是,UDP的不可靠性可能导致数据丢失或乱序,因此在需要高可靠性和完整性的应用场景中,TCP仍然是更好的选择。

  • 接收方收到有差错的 UDP 用户数据报时应如何处理?

    接收方收到有差错的UDP用户数据报时,可以采取以下处理方式:

    一、直接丢弃

    由于UDP是无连接的、不可靠的传输协议,它不提供数据包的确认、重传等机制。因此,当接收方检测到UDP用户数据报存在差错(如校验和不匹配、数据包损坏等)时,最简单直接的处理方式就是丢弃该数据包。这种方式适用于对数据传输可靠性要求不高的应用场景,如某些实时性要求较高的音视频流传输。

    二、附加差错警告报告传给上层

    除了直接丢弃差错数据包外,接收方还可以选择将差错警告报告附加在丢弃的数据包信息中,并传递给上层应用。这样,上层应用可以根据差错警告报告来采取相应的处理措施,如请求重传、记录错误日志、调整传输策略等。这种方式虽然增加了一定的处理复杂度,但可以提高数据传输的可靠性和上层应用的灵活性。

    需要注意的是,由于UDP协议本身不支持重传机制,因此接收方在传递差错警告报告给上层应用时,并不能期望上层应用能够直接通过重传来纠正差错。上层应用需要根据具体的业务逻辑和网络环境来选择合适的处理策略。

    三、结合应用层协议进行处理

    在某些应用场景中,接收方可以结合应用层协议来处理差错的UDP用户数据报。例如,在应用层协议中定义特定的错误处理机制(如错误码、错误消息等),当接收方检测到数据包差错时,可以根据应用层协议的错误处理机制来采取相应的处理措施。这种方式需要接收方和应用层协议的设计者进行充分的沟通和协作,以确保错误处理机制的有效性和一致性。

    综上所述,接收方收到有差错的UDP用户数据报时,可以根据具体的应用场景和需求来选择合适的处理方式。无论是直接丢弃、附加差错警告报告传给上层还是结合应用层协议进行处理,都需要在保证数据传输效率和可靠性的同时,兼顾上层应用的灵活性和业务需求。

  • 如果应用程序愿意使用 UDP 完成可靠传输,这可能吗?请说明理由。

    如果应用程序愿意使用用户数据报协议(UDP)来完成可靠传输,这在理论上是可能的,但需要在应用层实现额外的机制来弥补UDP本身不可靠的传输特性。以下是详细的理由和说明:

    一、UDP的不可靠性

    UDP是一种无连接的、不可靠的传输协议。它不提供确认应答、重传、排序和流量控制等机制,因此数据包可能会丢失、重复、乱序或损坏。这些特性使得UDP在传输过程中无法确保数据的完整性和可靠性。

    二、应用层实现可靠传输

    尽管UDP本身不可靠,但应用程序可以在应用层实现额外的机制来确保数据的可靠传输。这些机制可能包括:

    1. 确认应答:

    • 接收方在收到数据包后,向发送方发送确认应答(ACK)。

    • 发送方在收到确认应答后,才认为数据包已成功传输。

    1. 重传机制:

    • 如果发送方在一定时间内未收到确认应答,则认为数据包丢失,并重新发送该数据包。

    • 可以设置重传次数或超时时间等参数来控制重传过程。

    1. 排序机制:

    • 接收方根据数据包中的序列号或时间戳等信息,对接收到的数据包进行排序。

    • 如果发现数据包乱序,则进行必要的调整或丢弃重复的数据包。

    1. 差错检测与纠正:

    • 发送方在数据包中添加校验和或其他差错检测码。

    • 接收方在收到数据包后,进行差错检测,并根据检测结果进行相应的处理(如重传请求、数据纠正等)。

    1. 流量控制:

    • 发送方根据接收方的处理能力或网络带宽等条件,控制数据包的发送速率。

    • 接收方在处理能力不足或网络拥堵时,可以向发送方发送拥塞通知,以调整发送速率。

    三、实现难度与性能权衡

    在应用层实现可靠传输机制会增加应用程序的复杂性和开销。例如,需要设计并维护额外的数据结构(如确认应答队列、重传队列等),以及处理各种可能的异常情况(如超时、重传冲突等)。此外,这些机制可能会引入额外的延迟和带宽开销,从而影响应用程序的性能和实时性。

    因此,在选择是否使用UDP来完成可靠传输时,需要权衡应用程序的可靠性需求与性能要求。如果可靠性是首要考虑因素,且应用程序能够容忍额外的复杂性和开销,则可以考虑在应用层实现可靠传输机制。否则,使用更可靠的传输协议(如TCP)可能更为合适。

    综上所述,虽然UDP本身不可靠,但应用程序可以通过在应用层实现额外的机制来确保数据的可靠传输。这种实现方式需要权衡可靠性需求与性能要求,并根据具体的应用场景和需求来选择合适的解决方案。

  • 为什么说 UDP 是面向报文的,而TCP是面向字节流的?

    UDP(用户数据报协议)被描述为面向报文的,而TCP(传输控制协议)被描述为面向字节流的,这主要基于它们在数据传输和处理方式上的差异。

    UDP面向报文

    1. 报文完整性:

    • UDP在发送数据时,将应用层交付下来的报文视为一个完整的单元,既不进行合并也不进行拆分,而是保留这些报文的边界。

    • UDP发送方一次发送一个报文,接收方在去除首部后也一次交付一个完整报文给上层应用程序。

    1. 无连接与无状态:

    • UDP是无连接的协议,发送方和接收方在传输数据前不需要建立连接。

    • UDP也是无状态的,即每个数据包的发送和接收都是独立的,不依赖于之前的数据包。

    1. 快速传输:

    • 由于UDP不执行差错控制、流量控制和拥塞控制等机制,因此其传输速度通常比TCP更快。

    • UDP更适合用于对实时性要求较高、但对可靠性要求不高的应用场景,如实时音频和视频传输。

    TCP面向字节流

    1. 字节流处理:

    • TCP将应用层交付下来的数据视为一个连续的字节流,而不是独立的报文。

    • TCP发送方有一个发送缓冲区,可以将应用层传输的数据块划分成多个小段(segment),并根据需要添加序号和确认号等控制信息。

    1. 连接导向:

    • TCP是面向连接的协议,发送方和接收方在传输数据前必须先建立连接。

    • 连接建立后,数据才能被传输;数据传输完成后,连接会被关闭。

    1. 可靠性保障:

    • TCP提供了确认应答、重传、排序和流量控制等机制,以确保数据的可靠传输。

    • 如果发送方在一段时间内未收到接收方的确认应答,它会认为数据包丢失并重新发送该数据包。

    1. 拥塞控制:

    • TCP还执行拥塞控制机制,以避免网络过载和保持数据传输的稳定性。

    综上所述,UDP因其保留报文边界、无连接与无状态以及快速传输的特性而被描述为面向报文的;而TCP则因其将数据视为连续字节流、建立连接进行传输、提供可靠性保障和拥塞控制等机制而被描述为面向字节流的。这两种协议在数据传输和处理方式上的差异使得它们适用于不同的应用场景和需求。

  • 端口的作用是什么?为什么端口号要划分为三种?

    端口在计算机网络通信中扮演着至关重要的角色,其作用及端口号的划分原因具体如下:

    端口的作用

    1. 应用程序标识

    • 每个运行在计算机上的应用程序都可以通过一个特定的端口号来标识自己。这样,不同的应用程序可以同时运行,并通过不同的端口号进行通信,确保数据发送到正确的应用程序。

    1. 数据流识别

    • 端口号还用于区分数据流的来源和目的。当计算机收到数据包时,根据目的端口号来确定将数据包交给哪个应用程序处理。

    1. 实现数据交换

    • 端口号与IP地址一起形成套接字(Socket),套接字是数据在网络中的传输和接收的终点。发送端将数据发送到目标IP地址的指定端口,接收端则根据目标端口号将数据包路由到正确的应用程序。

    端口号划分的原因

    端口号被划分为三种,主要是为了管理和使用的方便,具体如下:

    1. 系统端口(Well-known Ports)

    • 范围:0~1023。

    • 用途:用于标识常见的服务,这些端口号在网络中被广泛使用,并且是固定的。例如,HTTP(端口80)、HTTPS(端口443)、FTP(端口21)等。

    1. 注册端口(Registered Ports)

    • 范围:1024~49151。

    • 用途:用于自定义或注册的应用程序。这些端口号需要在使用前进行注册,以避免冲突。例如,数据库服务(如MySQL的端口号3306)、邮件服务(如SMTP的端口号25)等。

    1. 动态/私有端口(Dynamic/Private Ports)

    • 范围:49152~65535。

    • 用途:用于临时分配给客户端应用程序的端口。这些端口号由操作系统动态分配,用于临时通信,不需要事先注册。

    综上所述,端口在计算机网络中是非常重要的,它允许多个应用程序同时运行并进行通信,确保数据的可靠传输和交换。而端口号的划分则是为了更好地管理和使用这些端口,避免冲突并提高网络通信的效率。

  • 试说明运输层中伪首部的作用。

    运输层中伪首部的作用主要在于计算运输层数据报的校验和。以下是关于伪首部作用的详细说明:

    一、伪首部的定义与构成

    伪首部并不是UDP或TCP数据报真正的首部,而是在计算校验和时临时添加在数据报前面,形成一个临时的数据报结构。对于UDP用户数据报,伪首部通常包括源IP地址、目的IP地址、协议字段(对于UDP,该字段值为17)以及UDP长度(即UDP数据报的总长度,包括首部和数据部分)。对于TCP报文段,伪首部的格式与UDP用户数据报的伪首部格式相似,但协议字段的值应改为6(表示TCP),并且长度字段应改为TCP报文段的长度。

    二、伪首部在计算校验和中的作用

    1. 提高校验和的准确性: 伪首部包含了源IP地址和目的IP地址,这两个字段对于数据报的路由和传输至关重要。将它们包含在校验和的计算中,可以确保数据报在传输过程中不会因为IP地址的改变而发生错误。同时,协议字段和长度字段也提供了关于数据报类型和大小的信息,有助于接收方正确地解析和处理数据报。

    2. 简化接收方的处理: 由于伪首部在计算校验和时被临时添加,并且不随数据报一起传输,因此接收方在收到数据报后,仍然需要按照相同的规则添加伪首部并重新计算校验和。这样做可以确保接收方能够准确地验证数据报的完整性和正确性,而无需依赖发送方提供的额外信息。

    3. 增强数据传输的可靠性: 通过计算包含伪首部的校验和,可以检测到数据报在传输过程中可能发生的错误,如IP地址的篡改、数据包的损坏或丢失等。这有助于接收方及时发现并处理这些错误,从而提高数据传输的可靠性和稳定性。

    综上所述,运输层中伪首部的作用主要体现在提高校验和的准确性、简化接收方的处理以及增强数据传输的可靠性方面。通过计算包含伪首部的校验和,可以确保数据报在传输过程中的完整性和正确性,从而满足网络通信的可靠性要求。

  • 某个应用进程使用运输层的用户数据报 UDP,然后继续向下交给IP层后,又封装成IP数据报。既然都是数据报,是否可以跳过 UDP而直接交给IP层?哪些功能 UDP提供了但 IP 没有提供?

    某个应用进程使用运输层的用户数据报UDP后,虽然继续向下会交给IP层并封装成IP数据报,但不可以跳过UDP而直接交给IP层。这是因为UDP提供了一些IP层没有提供的功能,具体如下:

    一、UDP与IP的功能差异

    1. 进程间通信

    • UDP提供主机之间进程与进程的通信。IP数据报只能找到目的主机而无法找到目的进程,如果应用进程直接把数据交给IP层,数据在传送到对方IP层后,就只能交付给目的主机,但不知道应当交付给哪一个应用进程。而UDP协议通过端口号可以区分不同的应用进程,实现数据的准确交付。

    1. 复用和分用功能

    • UDP提供对应用进程的复用和分用功能。复用是指多个应用进程可以同时使用同一个UDP端口进行通信,通过不同的IP地址和端口号组合来区分不同的通信会话。分用是指接收方根据IP地址、端口号等信息,将接收到的数据报准确地交付给相应的应用进程。

    1. 差错检验

    • UDP提供对数据部分的差错检验功能。发送方在发送数据前会计算数据的校验和,并将其添加在UDP头部中。接收方在接收到数据后,会重新计算数据的校验和,并与接收到的校验和进行比较,以检测数据在传输过程中是否发生错误。虽然UDP不提供重传机制,但差错检验功能可以帮助接收方及时发现并处理错误的数据。

    二、UDP协议的特点

    UDP协议具有无连接、不可靠、面向数据报等特点。它不需要建立连接就可以直接发送数据,因此传输速度较快,适用于对实时性要求较高但对可靠性要求不高的应用场景。例如,音频、视频传输等实时多媒体应用,以及DNS域名解析等需要快速响应的服务。

    综上所述,虽然UDP和IP都是数据报协议,但它们在功能和适用场景上存在显著差异。UDP提供的进程间通信、复用和分用功能以及差错检验等功能是IP层所没有的,因此不能跳过UDP而直接交给IP层进行传输。

  • 一个应用程序用UDP,到了正层把数据报再划分为4个数据报片发送出去。结果前两个数据报片丢失,后两个到达目的站。过了一段时间应用程序重传UDP,而P层仍然划分为4个数据报片来传送。结果这次前两个到达目的站而后两个丢失。试问在目的站能否将这两次传输的4个数据报片组装为完整的数据报?假定目的站第一次收到的后两个数据报片仍然保存在目的站的缓存中。

    在目的站,无法将两次传输的4个数据报片组装为完整的数据报。以下是详细的分析和解释:

    一、UDP协议的特点

    UDP(用户数据报协议)是一种无连接的、不可靠的传输协议。它不提供确认应答、重传、排序等机制,因此数据包可能会丢失、重复、乱序或损坏。这些特性使得UDP在传输过程中无法确保数据的完整性和可靠性。

    二、数据报片的划分与传输

    当应用程序使用UDP发送数据时,如果数据的大小超过了底层网络协议(如IP协议)的最大传输单元(MTU),则数据会被划分为较小的数据报片(或称为数据包)。这些数据报片分别被封装成UDP协议的报文,并添加相应的IP头部信息,然后通过网络进行传输。

    三、数据报片的重组与问题

    在目的站,接收方会根据IP头部中的信息(如源地址、目的地址、分片标识、片偏移等)来尝试重组这些数据报片,以还原原始的UDP数据包。然而,由于UDP协议的不可靠性,数据报片在传输过程中可能会丢失。

    1. 第一次传输

    • 前两个数据报片丢失,后两个数据报片到达目的站并被保存在缓存中。

    • 由于缺少前两个数据报片,目的站无法重组出完整的UDP数据包。

    1. 第二次传输(重传):

    • 应用程序重传UDP数据报,IP层仍然将其划分为4个数据报片进行传送。

    • 这次前两个数据报片到达目的站,而后两个数据报片丢失。

    • 目的站现在有了第一次传输的后两个数据报片和第二次传输的前两个数据报片。然而,由于UDP协议不提供确认应答和重传机制,目的站无法知道哪些数据报片是第一次传输的,哪些是第二次传输的。

    • 因此,即使目的站缓存了第一次传输的后两个数据报片,它也无法将它们与第二次传输的前两个数据报片组合起来,因为这两个传输的数据报片集合是不完整的,且没有顺序或标识信息来指示它们应该如何组合。

    四、结论

    综上所述,由于UDP协议的不可靠性和数据报片在传输过程中的丢失,目的站无法将两次传输的4个数据报片组装为完整的数据报。即使目的站缓存了部分数据报片,它也无法根据这些信息来重组出完整的数据包。因此,在使用UDP协议进行数据传输时,应用程序需要自行处理数据的可靠传输和重组问题。

  • 使用TCP对实时话音数据的传输会有什么问题?使用UDP在传送数据文件时会有什么问题?

    使用TCP和UDP协议传输不同类型的数据时,会各自面临一些特定的问题。以下是对使用TCP传输实时话音数据和使用UDP传输数据文件时可能遇到的问题的详细分析:

    使用TCP对实时话音数据的传输会有什么问题?

    1. 时延问题

    • TCP协议具有重传机制,当数据出现差错或丢失时,TCP会进行重传。然而,在实时话音通信中,这种重传机制会导致额外的时延。

    • 对于实时性要求极高的话音数据,时延的增加会严重影响通信质量,使得接收方无法及时听到清晰、连续的话音。

    1. 网络负荷

    • TCP协议要求数据报的确认,这大大增加了网络中的传输量。

    • 在实时话音通信中,大量的数据报和确认报文的交互可能会使网络负荷过重,影响网络的稳定性和通信效率。

    1. 抖动问题

    • TCP的流量控制和拥塞控制机制可能会导致数据传输速率的波动,从而产生抖动。

    • 抖动会进一步影响话音数据的实时性和连续性,降低通信质量。

    使用UDP在传送数据文件时会有什么问题?

    1. 数据丢失

    • UDP协议是无连接的,不提供可靠交付服务。因此,在传输过程中,数据包可能会因为网络拥堵、网络抖动或接收方处理不及时等原因而丢失。

    • 对于大数据文件来说,即使丢失一个小的数据包,也可能导致整个文件传输失败或文件内容不完整。

    1. 数据乱序

    • UDP协议不保证数据包的顺序性。在传输过程中,数据包可能会因为网络路径的不同或传输速度的差异而到达接收方的顺序与发送方的顺序不一致。

    • 接收方需要额外的处理来将数据包按照正确的顺序组合起来,以还原原始文件。

    1. 数据错误

    • UDP协议不提供校验和机制来检测数据包在传输过程中是否发生错误。

    • 如果数据包在传输过程中受到损坏或篡改,接收方可能无法正确解析数据,导致文件传输失败或文件内容错误。

    综上所述,TCP和UDP协议在传输不同类型的数据时各有优缺点。对于实时话音数据,TCP的时延问题和网络负荷可能严重影响通信质量;而对于数据文件传输,UDP的数据丢失、数据乱序和数据错误等问题则可能导致文件传输失败或文件内容不完整。因此,在选择传输协议时,需要根据具体的应用场景和数据类型来权衡各种因素。

  • 在停止等待协议中如果不使用编号是否可行?为什么?

    在停止等待协议中,如果不使用编号是不可行的。以下是不使用编号可能引发的问题及原因:

    一、可能引发的问题

    1. 接收方无法识别重传的数据包:

    • 在停止等待协议中,发送方在发送一个数据包后会等待接收方的确认。如果确认未收到,发送方会超时并重传该数据包。

    • 如果不使用编号,接收方在收到重传的数据包时,无法区分它是新的数据包还是之前已经接收过的数据包的重复。

    1. 发送方可能误解确认信息:

    • 当接收方收到数据包并确认后,会发送确认信息给发送方。

    • 如果不使用编号,发送方在收到确认信息时,无法确定该确认是针对哪一个数据包的。特别是当数据包重传时,发送方可能会错误地认为是对新发送的数据包的确认。

    二、原因解析

    1. 缺乏唯一性标识:

    • 编号的主要作用是提供数据包的唯一性标识。每个数据包都有一个唯一的编号,使得接收方和发送方都能准确地识别和处理。

    • 如果不使用编号,数据包之间就无法进行区分,导致接收方和发送方在处理数据包时出现混乱。

    1. 无法确保数据的正确性:

    • 停止等待协议的目标是确保数据的可靠传输。编号是实现这一目标的重要手段之一。

    • 通过编号,接收方可以确认数据包的顺序和完整性,发送方也可以根据确认信息来判断数据包是否已经成功传输。

    • 如果不使用编号,就无法确保数据的正确性和完整性,也无法实现数据的可靠传输。

    综上所述,停止等待协议中必须使用编号来确保数据的正确传输和处理。编号提供了数据包的唯一性标识,使得接收方和发送方都能准确地识别和处理数据包。同时,编号也是实现数据可靠传输的重要手段之一。

  • 在停止等待协议中,收到重复的报文段时不予理睬(即悄悄地丢弃它而其他什么也不做)是否可行?试举出具体例子说明理由。

    在停止等待协议中,如果收到重复的报文段时不予理睬(即悄悄地丢弃它而其他什么也不做)是不可行的。以下是具体的例子及理由:

    具体例子

    假设有两个通信节点A和B,它们使用停止等待协议进行数据传输。

    1. A发送报文段M1给B。

    2. B收到M1后,向A发送确认报文段ACK1(表示已接收到M1)。

    3. 但这个确认报文段ACK1在网络中丢失了,A没有收到。

    4. A在设定的超时时间内没有收到B的确认,因此认为M1没有成功发送,于是重传M1。

    5. B再次收到M1时,如果它选择不予理睬并悄悄地丢弃M1,那么A将永远无法知道M1是否已经被B成功接收。

    6. A会继续重传M1,直到达到最大重传次数或认为网络出现故障。

    理由

    1. 无法确认数据是否成功传输:

    • 如果B对重复的报文段不予理睬,A将无法确认M1是否已经被B成功接收。这会导致A不断重传M1,浪费网络资源。

    1. 可能导致死锁:

    • 在上述例子中,如果A一直重传M1而B一直不予理睬,那么双方将陷入死锁状态。A无法继续发送新的报文段,而B也无法确认已经接收到的报文段。

    1. 违反协议规定:

    • 停止等待协议要求接收方在收到报文段后必须发送确认报文段给发送方。如果接收方对重复的报文段不予理睬,那么就违反了这一规定。

    1. 影响通信效率:

    • 如果接收方对重复的报文段不予理睬,那么发送方将不断重传报文段,这会导致通信效率的降低。同时,网络中的冗余数据也会增加,进一步影响网络的性能。

    因此,在停止等待协议中,当接收方收到重复的报文段时,应该采取适当的措施来处理它,而不是简单地不予理睬并丢弃它。一种常见的做法是接收方在收到重复的报文段时,仍然发送确认报文段给发送方,以告知发送方该报文段已经被成功接收。这样可以避免发送方不断重传报文段,提高通信效率和可靠性。

  • 为什么在 TCP 首部中要把 TCP 的端口号放入最开始的4个字节?为什么在 TCP 首部中有一个首部长度字段,而 UDP 的首部中就没有这个字段?

    TCP首部中端口号的位置原因

    在TCP首部中,TCP的端口号被放入最开始的4个字节,这是有特定原因的。TCP是一种可靠的、面向连接的传输层协议,它需要在发送方和接收方之间建立连接。在这个过程中,端口号起着至关重要的作用,因为它用于区分同一台计算机上不同的应用程序或服务。

    具体来说,TCP的端口号包括源端口号和目的端口号,它们分别占用16位。源端口号标识发送方的应用程序或服务,而目的端口号则标识接收方的应用程序或服务。当TCP报文到达目的主机时,操作系统会根据目的端口号将报文分发给相应的应用程序或服务。

    将端口号放在TCP首部的最开始位置,可以方便接收方在解析报文时快速找到端口号信息,从而确定应该将报文分发给哪个应用程序或服务。此外,这种设计也有助于提高TCP协议的处理效率和可靠性。

    另外,还有一个重要的原因是与ICMP差错报文的处理有关。ICMP差错报文会包含紧随IP数据报首部后面的8个字节的内容,这8个字节中包含了TCP报文的源端口号和目的端口号。因此,将端口号放在TCP首部的最开始位置,可以确保ICMP差错报文中能够包含完整的端口号信息,从而帮助TCP协议在收到差错报文时确定是哪条连接出了差错。

    TCP首部中首部长度字段的原因与UDP的差异

    TCP首部中有一个首部长度字段,而UDP的首部中却没有这个字段。这主要是因为TCP和UDP在首部结构和功能上存在差异。

    TCP首部除了固定长度部分外,还有选项字段,因此TCP首部长度是可变的。首部长度字段用于指示TCP首部的总长度(包括选项字段),以便接收方能够正确地解析TCP报文。由于TCP需要支持各种复杂的传输需求,如流量控制、拥塞控制等,因此其首部结构相对复杂,需要有一个首部长度字段来指示首部的实际长度。

    相比之下,UDP是一种简单的、面向无连接的传输层协议,其首部结构相对固定且简单。UDP首部只包含源端口号、目的端口号、长度和校验和等字段,没有选项字段。因此,UDP的首部长度是固定的,不需要一个首部长度字段来指示。

    综上所述,TCP首部中端口号的位置和首部长度字段的设计都是基于TCP协议的特点和需求而进行的。这些设计有助于提高TCP协议的处理效率和可靠性,并使其能够更好地满足各种复杂的传输需求。

  • 一个 TCP报文段的数据部分最多为多少字节?为什么?如果用户要传送的数据的字节长度超过 TCP 报文段中的序号字段可能编出的最大序号,问还能否用TCP 来传送?

    一个TCP报文段的数据部分最多为65495字节,以下是对这一限制及其原因的分析:

    TCP报文段数据部分的最大字节数

    TCP报文段的数据部分加上TCP首部的20字节,再加上IP首部的20字节(若IP首部不包含选项),正好是IP数据报的最大长度65535字节。因此,TCP报文段的数据部分最多有65535-40=65495个字节。若IP首部包含了选项,则IP首部长度会超过20字节,这时TCP报文段的数据部分的长度将小于65495字节。

    限制原因

    TCP报文段的数据部分之所以有最大字节数的限制,主要是因为IP数据报的总长度有一个规定的最大值,即65535字节(由IP数据报首部中的“总长度”字段决定,该字段为2字节,共16位,因此IP数据报的总长度最大为2^16=65535字节)。当TCP报文段被封装成IP数据报进行传输时,其总长度不能超过这个最大值。

    序号字段与TCP传送的关系

    TCP报文段的序号字段用于标识所传输的数据流中的第一个字节的编号。这个序号字段的编号范围是有限的,但它并不是限制TCP能够传输数据量的关键因素。

    • 如果用户要传送的数据的字节长度超过TCP报文段中的序号字段可能编出的最大序号,仍然可以使用TCP来传送。因为TCP的序号字段在编号用完后会重新开始从0编号,形成一个循环。这种设计使得TCP能够处理大量数据的传输,而不会因为序号字段的溢出而停止工作。

    • 实际上,TCP的可靠传输是通过确认应答、超时重传等机制来实现的,而不是仅仅依赖于序号字段的编号范围。因此,即使序号字段的编号范围有限,也不会影响TCP传输大量数据的能力。

    综上所述,一个TCP报文段的数据部分最多为65495字节,这是由IP数据报的最大长度和TCP、IP首部的长度共同决定的。同时,即使要传送的数据量超过TCP序号字段的编号范围,仍然可以使用TCP进行传输。

  • 主机A 向主机B发送 TCP报文段,首部中的源端口是m而目的端口是n。当B向A发送回信时,其 TCP报文段的首部中的源端口和目的端口分别是什么?

    当主机A向主机B发送TCP报文段时,首部中的源端口是m,而目的端口是n。这表示主机A上的应用程序或服务m希望与主机B上的应用程序或服务n进行通信。

    当主机B向主机A发送回信(即响应或确认)时,其TCP报文段的首部中的端口号将进行互换:

    • 源端口将是n:因为主机B现在是在回应主机A上的应用程序或服务m的请求,所以它将使用之前接收到的目的端口号n作为源端口号,以表明这是来自主机B上应用程序或服务n的回应。

    • 目的端口将是m:主机B知道回应应该发送到主机A上的哪个应用程序或服务,即之前发送请求的应用程序或服务m,因此它将使用之前接收到的源端口号m作为目的端口号。

    这种端口号的互换是TCP协议中确保通信双方能够正确识别和响应彼此请求的重要机制。通过这种方式,即使在网络上存在多个同时进行的TCP连接,每个连接也能被正确地识别和区分。

  • 在使用TCP传送数据时,如果有一个确认报文段丢失了,也不一定会引起与该确认报文段对应的数据的重传。试说明理由。

    在使用TCP传送数据时,如果有一个确认报文段丢失了,确实不一定会引起与该确认报文段对应的数据的重传。以下是具体原因:

    TCP是一种可靠的、面向连接的传输层协议,它采用了一系列机制来确保数据的可靠传输。其中,确认应答(ACK)机制是TCP保证数据可靠传输的重要手段之一。当接收方收到发送方发送的数据报文段后,会向发送方发送一个确认报文段,以告知发送方数据已经成功接收。

    然而,在网络传输过程中,确认报文段有可能会丢失。TCP协议为了应对这种情况,采用了超时重传机制。发送方在发送一个数据报文段后,会启动一个超时定时器。如果在超时定时器设定的时间内没有收到接收方的确认报文段,发送方就会认为该数据报文段丢失或未被成功接收,于是会重传该数据报文段。

    但值得注意的是,如果确认报文段丢失了,而后续又有其他数据报文段被成功传输并确认,那么丢失的确认报文段所对应的数据报文段可能就不需要再重传了。这是因为TCP的确认机制是对前面所有正确接收到的数据的确认。也就是说,接收方发送的确认报文段实际上是确认到该报文段为止,接收方已经成功接收到的所有数据。因此,如果后续的数据报文段被成功传输并确认,那么可以推断出之前丢失的确认报文段所对应的数据报文段也已经被成功接收了(至少从接收方的角度来看是这样的)。

    此外,TCP还采用了滑动窗口等流量控制机制来进一步确保数据的可靠传输。这些机制共同协作,使得TCP能够在网络状况不佳或确认报文段丢失的情况下,仍然能够保持数据的可靠传输。

    综上所述,当使用TCP传送数据时,即使有一个确认报文段丢失了,也不一定会引起与该确认报文段对应的数据的重传。这是因为TCP协议采用了多种机制来确保数据的可靠传输,并在必要时进行重传。

  • 在 TCP 的拥塞控制中,什么是慢开始、拥塞避免、快重传和快恢复算法?这里每一种算法各起什么作用?“乘法减小”和“加法增大”各用在什么情况下?

    在TCP的拥塞控制中,慢开始、拥塞避免、快重传和快恢复算法是四种重要的控制机制,它们各自的作用如下:

    一、慢开始算法

    慢开始(Slow Start)是一种避免网络拥塞的机制,初始时限制发送速率,逐渐增加拥塞窗口(cwnd)直到网络容量。其大致思想是试探性地发送数据,由小逐渐增大数据的发送量。

    • 作用:慢开始算法通过调整cwnd和通告窗口大小,动态平衡发送速率,确保网络稳定。在网络状况良好时,如快速网络,数据传输效率高,ACK响应及时;而在慢速或拥塞网络中,如SLIP链路,中间路由器可能导致延迟,影响cwnd增长,从而引发数据堆积。慢开始算法能够避免数据过快注入网络,防止网络拥塞。

    • 工作原理:发送方一开始便向网络发送多个报文段,直至达到接收方通告的窗口大小为止。拥塞窗口cwnd被初始化为1个报文段(即另一端通告的报文段大小)。每收到一个ACK,cwnd就增加一个报文段(cwnd以字节为单位,但是慢启动以报文段大小为单位进行增加)。发送方取cwnd与通告窗口中的最小值作为发送上限。这是一种指数增加的关系,即cwnd的增长是乘2的。

    二、拥塞避免算法

    拥塞避免(Congestion Avoidance)算法是一种处理丢失分组的方法。该算法假定由于分组受到损坏引起的丢失是非常少的(远小于1%),因此分组丢失就意味着在源主机和目的主机之间的某处网络上发生了拥塞。

    • 作用:拥塞避免算法通过更平缓的方式(即线性增长)控制cwnd的增长,进一步防止网络拥塞。

    • 工作原理:拥塞避免算法和慢启动算法需要对每个连接维持两个变量:一个拥塞窗口cwnd和一个慢启动门限ssthresh。拥塞避免算法要求每次收到一个确认时将cwnd增加1/cwnd,这是一种加性增长(additive increase)。当cwnd小于或等于ssthresh时,执行慢启动算法;当cwnd大于ssthresh时,执行拥塞避免算法。通过这种方式,TCP能够平滑地调整发送速率以避免网络拥塞。

    三、快重传算法

    TCP快速重传(Fast Retransmit)是TCP连接在发生丢包时的一种重传机制。

    • 作用:快速重传算法的目的是提高TCP的传输效率,减少网络延迟,提高网络通信的稳定性。

    • 工作原理:在TCP连接中,当接收方没有收到期望的数据包时,它会向发送方发送一个重传请求。如果发送方在一定时间内(如收到三个连续的重传请求时)没有收到对方的确认,它会进入快速重传状态,立即重传最后一次发送的数据包。

    四、快恢复算法

    TCP快速恢复(Fast Recovery)是快速重传机制的优化。

    • 作用:快速恢复算法的主要优化点在于,在快速重传状态下,发送方可以同时发送尚未被确认的数据包,从而减少网络延迟。

    • 工作原理:发送方进入快速重传状态后,会保留尚未被确认的数据包,并立即重传最后一次发送的数据包。然后,发送方会更新已收到的确认信息,并继续发送尚未被确认的数据包。最后,发送方会从快速重传状态退出,恢复正常发送状态。

    五、“乘法减小”和“加法增大”的应用场景

    • 乘法减小:当网络出现拥塞时,TCP会采取“乘法减小”的策略来调整慢启动门限ssthresh和cwnd的大小。具体来说,ssthresh会被设置为当前窗口大小的一半(cwnd和接收方通告窗口大小的最小值,但最少为2个报文段),cwnd会被重置为1个报文段,然后重新进入慢启动阶段。这样,TCP就能够以更慢的速率增加发送的数据量,从而避免网络拥塞的进一步恶化。

    • 加法增大:在拥塞避免阶段,TCP会采取“加法增大”的策略来逐渐增加cwnd的大小。具体来说,每次收到一个确认时,cwnd会增加1/cwnd(即加性增长)。这样,TCP就能够以更平缓的方式增加发送的数据量,从而保持网络的稳定性。

    综上所述,慢开始、拥塞避免、快重传和快恢复算法共同构成了TCP的拥塞控制机制。它们通过不同的策略和调整方式,确保TCP在网络拥塞时能够保持稳定的传输性能。

  • TCP在进行流量控制时,以分组的丢失作为产生拥塞的标志。有没有不是因拥塞而引起分组丢失的情况?如有,请举出三种情况。

    TCP在进行流量控制时,确实通常以分组的丢失作为产生拥塞的标志。然而,并非所有分组丢失都是由于拥塞引起的。以下是三种不是因拥塞而引起分组丢失的情况:

    1. 传输错误

    • 在数据传输过程中,分组可能会因为传输媒介上的干扰或噪声而损坏,导致无法被正确接收,从而造成分组丢失。

    • 这种情况通常与网络的物理条件、传输设备的性能以及传输协议的错误处理机制有关。

    1. 临时路由问题

    • 在网络中,路由表和路由路径可能会发生变化。

    • 如果一个分组在传输过程中遇到了临时的路由问题,例如路由器故障、路由路径的临时更改或网络拓扑结构的变化,它可能会无法到达目标节点,从而造成分组丢失。

    1. 目标节点问题

    • 如果目标节点的接收缓冲区已满,它可能会丢弃到达的分组,即使网络没有发生拥塞。

    • 这种情况通常与目标节点的处理能力、存储能力以及流量控制机制有关。当目标节点无法及时处理或存储到达的分组时,就会发生分组丢失。

    综上所述,分组丢失可以由多种原因引起,包括拥塞、传输错误、路由问题和目标节点问题等。因此,在进行网络故障排查时,需要综合考虑各种可能的原因,并采取相应的措施来解决问题。

  • 解释为什么突然释放运输连接就可能会丢失用户数据,而使用TCP的连接释放方法就可保证不丢失数据。

    突然释放运输连接可能会丢失用户数据,而使用TCP(传输控制协议)的连接释放方法则能够确保不丢失数据,这主要归因于TCP的可靠传输机制和连接管理策略。

    突然释放运输连接丢失数据的原因

    在数据传输过程中,如果一方突然释放连接,而另一方仍在发送数据,那么这些正在发送但尚未被确认的数据很可能会丢失。这是因为突然释放连接会中断数据传输的通道,导致未发送完毕的数据无法到达接收方。此外,接收方在收到连接释放信号后,可能会停止接收和处理后续的数据,从而导致已经发送但尚未被接收的数据也被丢弃。

    TCP连接释放方法保证不丢失数据的原因

    TCP的连接释放方法,通常称为“四次挥手”过程,能够有效地确保数据不丢失。这个过程如下:

    1. 第一次挥手:客户端(或主动关闭方)发送一个FIN报文段,表示希望关闭连接。此时,客户端停止发送数据,但仍能接收数据。

    2. 第二次挥手:服务器(或被动关闭方)收到FIN报文段后,发送一个ACK报文段作为确认。此时,从客户端到服务器的连接被释放,但服务器仍然可以向客户端发送数据。

    3. 第三次挥手:如果服务器也希望关闭连接,它会发送一个FIN报文段给客户端。此时,服务器停止发送数据。

    4. 第四次挥手:客户端收到服务器的FIN报文段后,发送一个ACK报文段作为确认。经过一段时间后(通常是等待一段时间以确保所有数据都被接收和处理),客户端关闭连接。

    在这个过程中,TCP的连接释放方法确保了以下几点:

    • 全双工通信:TCP连接是全双工的,即可以同时发送和接收数据。因此,在连接释放过程中,即使一方停止了发送数据,另一方仍然可以继续接收数据。

    • 确认机制:TCP使用确认机制来确保数据被正确接收。在连接释放过程中,每个FIN报文段都需要一个ACK报文段作为确认。这确保了双方都知道连接何时被真正关闭。

    • 有序释放:TCP的连接释放过程是有序的,先释放发送方向上的连接,再释放接收方向上的连接。这确保了正在发送的数据有机会被接收方接收和处理。

    因此,即使一方希望关闭连接,使用TCP的连接释放方法也能确保另一方有机会接收和处理所有未完成的数据,从而避免数据丢失。这种机制使得TCP成为一种可靠的传输协议,广泛应用于各种需要确保数据完整性和顺序性的场景中。

  • 试用具体例子说明为什么在运输连接建立时要使用三报文握手。说明如不这样做可能会出现什么情况。

    在运输连接建立时,使用三报文握手(即TCP的三次握手)是为了确保双方通信的可靠性和一致性。以下通过具体例子来说明这一点,并解释如果不这样做可能会出现的情况。

    具体例子

    假设有两个主机,主机A和主机B,它们希望通过TCP建立连接以便进行数据传输。

    1. 第一次握手:主机A向主机B发送一个SYN报文段(同步序列号),表示它希望建立连接,并包含一个初始序列号seq=x。

    2. 第二次握手:主机B收到SYN报文段后,确认它希望与主机A建立连接。于是,主机B发送一个SYN-ACK报文段(同步-确认),该报文段包含主机B的初始序列号seq=y,以及对主机A的SYN报文段的确认ack=x+1。

    3. 第三次握手:主机A收到主机B的SYN-ACK报文段后,确认双方都已准备好建立连接。于是,主机A发送一个ACK报文段,包含对主机B的SYN-ACK报文段的确认ack=y+1。此时,双方都已进入ESTABLISHED状态,连接建立成功。

    如不这样做可能会出现的情况

    1. 只进行一次握手

    • 如果只进行一次握手,即主机A发送SYN报文段后,就认为连接已经建立并开始发送数据,那么主机B可能还没有准备好接收数据,或者主机B的SYN-ACK报文段在网络中丢失。这将导致主机A发送的数据丢失,或者主机B无法正确响应主机A的数据请求。

    1. 只进行两次握手

    • 如果只进行两次握手,即主机A发送SYN报文段,主机B发送SYN-ACK报文段后,双方就开始传输数据。这种情况下,可能会出现以下问题:

      • 旧连接请求问题:假设主机A发送的SYN报文段在网络中滞留了很长时间,然后在某个时刻突然到达主机B。如果此时主机B已经释放了之前的连接,并准备接受新的连接请求,那么它可能会误将这个旧的SYN报文段当作新的连接请求来处理,从而建立错误的连接。

      • 资源浪费:如果主机B发送了SYN-ACK报文段,但主机A由于某种原因没有收到(例如网络拥塞或丢包),那么主机B会等待主机A的确认(ACK报文段),但主机A永远不会发送这个确认。这将导致主机B的资源(如内存和连接表项)被浪费。

    通过三次握手,TCP协议可以确保双方都已准备好建立连接,并且都已正确接收了对方的同步序列号。这样可以避免上述问题的发生,确保数据传输的可靠性和一致性。因此,在运输连接建立时,使用三报文握手是非常重要的。

  • UDP和IP的不可靠程度是否相同?请加以解释。

    UDP(User Datagram Protocol)和IP(Internet Protocol)在不可靠程度上存在相似之处,但也有一些关键的区别。以下是对这两者不可靠程度的详细解释:

    相似之处

    1. 无连接性:

    • UDP和IP都是无连接的协议。这意味着在数据传输之前,发送方和接收方之间不需要建立连接。因此,它们都无法保证数据的可靠传输。

    1. 检验和字段:

    • UDP用户数据报和IP数据报的首部都包含检验和字段。这个字段用于检测数据在传输过程中是否出现错误。如果检验出有差错,就把收到的数据报丢弃。

    关键区别

    1. 检验和的范围:

    • UDP用户数据报的检验和不仅检验UDP用户数据报的首部,还检验整个UDP用户数据报的数据部分。此外,UDP用户数据报的检验和还增加了伪首部,即检验了下面的IP数据报的源IP地址和目的IP地址。

    • 相比之下,IP数据报的检验和仅仅检验IP数据报的首部,不包括数据部分。

    1. 协议层次:

    • UDP是传输层协议,而IP是网络层协议。UDP在IP之上运行,提供面向应用程序的数据传输服务。因此,UDP的不可靠性主要体现在传输层,而IP的不可靠性则主要体现在网络层。

    1. 功能定位:

    • UDP旨在提供简单、高效的数据传输服务,适用于对实时性要求较高、但对数据可靠性要求不高的应用场景(如音视频传输、实时游戏等)。

    • IP则负责将数据从源主机传输到目的主机,它提供了基本的路由和转发功能,但不保证数据的可靠传输。

    综上所述,UDP和IP在不可靠程度上具有相似之处,但它们在检验和的范围、协议层次以及功能定位上存在一些关键的区别。这些区别使得UDP和IP在不同的应用场景中具有各自的优势和适用性。

  • UDP用户数据报的最小长度是多少?用最小长度的UDP用户数据报构成的最短数据报的长度是多少?

    UDP用户数据报的最小长度以及用最小长度的UDP用户数据报构成的最短数据报的长度,这两个问题可以分别解答如下:

    UDP用户数据报的最小长度

    UDP用户数据报的最小长度是8字节。这个长度仅包含UDP的首部,而不包含任何数据部分。UDP的首部由四个字段组成,每个字段的长度都是2个字节,这四个字段分别是:

    • 源端口:标识发送端进程的端口号。

    • 目的端口:标识接收端进程的端口号。

    • 长度:表示UDP用户数据报的总长度(包括首部和数据)。对于最小长度的UDP用户数据报,这个字段的值为8,表示仅包含首部。

    • 检验和:用于检测UDP用户数据报在传输过程中是否有错误。

    用最小长度的UDP用户数据报构成的最短数据报的长度

    当使用最小长度的UDP用户数据报时,构成的最短IP数据报(即网络层数据报)的长度是28字节。这个长度包括IP数据报的首部和UDP用户数据报的首部,同样不包含任何数据部分。具体来说:

    • IP数据报的首部具有20字节的固定长度,且在这个最短数据报的例子中,首部中没有包含可选字段。

    • UDP用户数据报的首部长度为8字节,如上文所述。

    因此,将这两部分相加,得到的最短数据报长度为20字节(IP首部)+ 8字节(UDP首部)= 28字节。

    综上所述,UDP用户数据报的最小长度是8字节,而用最小长度的UDP用户数据报构成的最短数据报(即IP数据报)的长度是28字节。

  • TCP的吞吐量应当是每秒发送的数据字节数,还是每秒发送的首部和数据之和的字节数?吞吐量应当是每秒发送的字节数,还是每秒发送的比特数?

    TCP的吞吐量并没有一个绝对的标准定义,它既可以定义为每秒发送的数据字节数,也可以计入首部后计算每秒发送的首部和数据之和的字节数。然而,从拥塞控制的角度来看,拥塞窗口和发送窗口针对的都是TCP报文段中的数据字段,同时,重要的参数MSS(Maximum Segment Size,最大报文段长度)也是指TCP报文段中的数据字段的长度。因此,在多数情况下,为了方便起见,人们更倾向于将TCP的吞吐量定义为每秒发送的数据字节数。

    至于吞吐量应当是每秒发送的字节数还是每秒发送的比特数,这主要取决于具体的表示方法和应用场景。在计算机内部的数据传送中,通常以每秒多少字节作为单位;而在通信线路上的数据率表示中,则常用每秒多少比特作为单位。这两种表示方法并无实质上的差别。例如,当MSS是用字节作为单位时,用每秒发送多少字节作为TCP吞吐量的单位就显得更为简单直观。

    综上所述,TCP的吞吐量可以根据具体需求和表示方法的不同而有所变化。在定义吞吐量时,应明确说明其计算方式和单位,以避免产生歧义。

  • 在 TCP的连接建立的三报文握手过程中,为什么第三个报文段不需要对方的确认?这会不会出现问题?

    在TCP(传输控制协议)的连接建立过程中,三报文握手是一个至关重要的步骤。这一过程中,第三个报文段(即ACK确认报文)确实不需要对方的再次确认,这主要是基于TCP协议的设计效率和可靠性考量。

    三报文握手过程概述

    1. 第一次握手:客户端向服务器发送一个SYN(同步序列编号)报文段,请求建立连接,并包含客户端的初始序列号。

    2. 第二次握手:服务器收到SYN报文段后,同意连接,并向客户端发送一个SYN-ACK(同步-确认)报文段,包含服务器的初始序列号,并对客户端的SYN报文段进行确认。

    3. 第三次握手:客户端收到服务器的SYN-ACK报文段后,向服务器发送一个ACK(确认)报文段,确认收到了服务器的响应。此时,连接建立成功,双方可以开始数据传输。

    第三个报文段不需要确认的原因

    1. 协议设计:TCP协议在设计时,已经通过前两次握手确保了双方都有建立连接的意愿和接收能力。第三次握手主要是客户端对服务器响应的确认,此时服务器已经处于等待确认的状态。如果要求第三个报文段也需要对方确认,将增加不必要的通信开销和延迟。

    2. 累积确认:TCP具有累积确认的功能。在数据传输过程中,接收方会对收到的数据进行确认,确认号表示已经成功接收到的数据的最后一个字节的序号加1。因此,即使第三个报文段没有单独的确认,当服务器开始接收客户端发送的数据时,也会通过累积确认的方式对之前的ACK报文段进行隐式确认。

    3. 半开连接处理:如果第三个报文段丢失,服务器将处于“半开连接”状态,即已经初始化了连接变量和缓存,但无法接收数据。然而,TCP协议有相应的超时和重传机制来处理这种情况。如果服务器在一段时间内没有收到客户端的数据或确认报文段,它将终止这个半开连接状态。此时,客户端需要重新建立TCP连接。但在实际应用中,由于客户端通常会紧接着发送数据报文段,因此这种情况很少发生。

    是否会出现问题

    虽然第三个报文段不需要对方的确认,但TCP协议通过其他机制确保了连接的可靠性和数据的完整性。例如:

    • 超时重传:如果发送方在一段时间内没有收到接收方的确认报文段,它将认为该报文段已经丢失,并重新发送。

    • 滑动窗口:TCP使用滑动窗口协议来进行流量控制和拥塞控制,确保发送方不会发送过多的数据导致接收方无法处理。

    • 校验和:TCP报文段的首部和数据部分都包含校验和字段,用于检测数据在传输过程中是否出现错误。

    综上所述,虽然TCP连接建立过程中的第三个报文段不需要对方的确认,但TCP协议通过其他机制确保了连接的可靠性和数据的完整性。因此,在实际应用中,这种情况并不会导致严重的问题。

  • 流量控制和拥塞控制的最主要的区别是什么?发送窗口的大小取决于流量控制还是拥塞控制?

    流量控制和拥塞控制是TCP协议中两个重要的概念,它们虽然都旨在控制数据的发送速率,但目的和方法存在显著的区别。

    流量控制和拥塞控制的最主要区别

    1. 目的不同:

    • 流量控制的主要目的是解决发送方和接收方速率不匹配的问题,防止发送方发送数据过快,导致接收方来不及接收和处理。

    • 拥塞控制的主要目的是避免网络资源被耗尽,通过控制发送速率来降低网络负载,防止网络拥塞的发生。

    1. 方法不同:

    • 流量控制通常通过滑动窗口机制来实现,接收方根据自己的接收能力设置一个接收窗口,告诉发送方当前可以接收的最大数据量。发送方则根据这个接收窗口的大小来控制发送速率。

    • 拥塞控制则通过拥塞窗口来实现,发送方根据自己的估计网络拥塞程度来设置拥塞窗口的大小,从而控制发送速率。拥塞控制还包括慢启动、拥塞避免、快重传和快恢复等算法来动态调整拥塞窗口的大小。

    1. 影响范围不同:

    • 流量控制是端到端的控制,只涉及发送方和接收方之间的数据传输。

    • 拥塞控制则是全局性的控制,涉及网络中的所有主机、路由器以及与网络性能有关的因素。

    发送窗口的大小取决于流量控制还是拥塞控制?

    发送窗口的大小实际上是由流量控制和拥塞控制共同决定的。发送窗口的上限值通常是接收窗口(rwnd)和拥塞窗口(cwnd)中的较小值。具体来说:

    • 当接收窗口小于拥塞窗口时,发送窗口的大小取决于流量控制,即取决于接收端的接收能力。

    • 当拥塞窗口小于接收窗口时,发送窗口的大小则取决于拥塞控制,即取决于整个网络的拥塞状况。

    因此,发送窗口的大小是流量控制和拥塞控制相互作用的结果,两者共同决定了数据的发送速率。在实际应用中,TCP协议会根据网络的实际情况和接收方的接收能力来动态调整发送窗口的大小,以确保数据传输的可靠性和效率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/484175.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

四轮阿克曼(前轮转向、后轮驱动)车子仿真控制

目录 写在前面的话调用 libgazebo_ros_ackermann_drive.so 插件属性介绍补充 steering_wheel_joint 配置键盘控制命令 结果演示 写在前面的话 这里增加一个四轮阿克曼&#xff08;前轮转向、后轮驱动&#xff09;车子仿真控制的版本&#xff0c;使用的事gazebo的插件 参考资料…

移植NIOS10.1工程,NIOS10.1路径修改

移植NIOS10.1工程&#xff0c;NIOS10.1路径修改 因工程的需要&#xff0c;使用的NIOS10.1&#xff0c;比较老&#xff0c;这个版本的路径是使用的绝对路径&#xff0c;导致移植工程市回报路径的错误&#xff0c;在13.1之后改为了相对路径&#xff0c;不存在这个问题。 需要修…

【ElasticSearch】倒排索引与ik分词器

ElasticSearch&#xff0c;简称ES(后文将直接使用这一简称)&#xff0c;是一款卓越的开源分布式搜索引擎。其独特之处在于其近乎实时的数据检索能力&#xff0c;为用户提供了迅速、高效的信息查询体验。 它能够解决全文检索&#xff0c;模糊查询、数据分析等问题。那么它的搜索…

【从零开始的LeetCode-算法】74. 搜索二维矩阵

给你一个满足下述两条属性的 m x n 整数矩阵&#xff1a; 每行中的整数从左到右按非严格递增顺序排列。每行的第一个整数大于前一行的最后一个整数。 给你一个整数 target &#xff0c;如果 target 在矩阵中&#xff0c;返回 true &#xff1b;否则&#xff0c;返回 false 。…

基于图像变化检测的毁伤效果评估——学习笔记

前言 闲的无聊&#xff0c;看看论文。 基本评估步骤 第一步&#xff1a;图像预处理。通过图像配准、不同波段提取、图像校正、图像滤波等手段&#xff0c;统一图像格式&#xff08;文中统一为灰度图&#xff09;&#xff0c;得到待检测图像&#xff1b; 第二步&#xff1a;…

容易被遗忘的测试用例

网络服务器启动了吗&#xff1f;应用程序服务器启动了吗&#xff1f;数据库上线了吗&#xff1f;测试数据是否预先加载到数据库中&#xff1f;每当我们准备开始测试应用程序时&#xff0c;一切都应该已经准备妥当。 然而&#xff0c;当测试开始后&#xff0c;我们可能会漏掉一些…

从excel数据导入到sqlsever遇到的问题

1、格式问题时间格式&#xff0c;excel中将日期列改为日期未生效&#xff0c;改完后&#xff0c;必须手动单击这个单元格才能生效&#xff0c;那不可能一个一个去双击。解决方案如下 2、导入之后表字段格式问题&#xff0c;数据类型的用navicat导入之后默认是nvarchar类型的&a…

【算法】图论——树的重心

目录 题目解析 算法原理 图的存储 算法实现 题目解析 题目解析 给定一颗树&#xff0c;树中包含n个结点&#xff08;编号&#xff09;和n-1条无向边。请找到树的重心&#xff0c;并输出将重心删除后&#xff0c;剩余各个连通块中点数的最大值。 什么是重心&#xff1f; 重…

全面UI组件库Telerik 2024 Q4全新发布——官方宣布支持.NET 9

Telerik DevCraft包含一个完整的产品栈来构建您下一个Web、移动和桌面应用程序。它使用HTML和每个.NET平台的UI库&#xff0c;加快开发速度。Telerik DevCraft提供最完整的工具箱&#xff0c;用于构建现代和面向未来的业务应用程序&#xff0c;目前提供UI for ASP.NET MVC、Ken…

数据分析(一): 掌握STDF 掌握金钥匙-码农切入半导体的捷径

中国的半导体行业必然崛起&#xff01;看清这个大势&#xff0c;就会有很多机会。 今天&#xff0c;我们一起来了解一下半导体行业的一朵金花&#xff1a;STDF。 实际上这只是一种文件格式&#xff0c;但是当你熟练掌握解析这种文件的时候&#xff0c;你就已经打开在这个基础…

【批处理脚本】更改Windows系统中的 hosts 解析文件

概述 作用 修改 Windows 系统中的 hosts 文件&#xff0c;可以实现 插入 或 删除 条目。该脚本允许用户以管理员权限执行&#xff0c;将特定的域名解析到指定的 IP 地址 应用场景 非常适用于需要频繁或批量修改 hosts 文件的场景&#xff1a; 屏蔽网站、域名重定向、DNS 污染防…

【Rust在WASM中实现pdf文件的生成】

Rust在WASM中实现pdf文件的生成 前言概念和依赖问题描述分步实现pdf转Blob生成URL两种方式利用localstorage传递参数处理图片Vec<u8>到pdf格式的Vec<u8>使用rust创建iframe显示pdf的Blob最后 前言 实现了一个通用的前端jpg转pdf的wasm,因为动态响应框架无法直接打…

CanFestival移植到STM32 F4芯片(基于HAL库)

本文讲述如何通过简单操作就可以把CanFestival库移植到STM32 F4芯片上&#xff0c;作为Slave设备。使用启明欣欣的工控板来做实验。 一 硬件连接 观察CAN报文需要专门的设备&#xff0c;本人从某宝上买了一个兼容PCAN的开源小板子&#xff0c;二十几块钱&#xff0c;通过USB接…

Cursor+Devbox AI开发快速入门

1. 前言 今天无意间了解到 Cursor 和 Devbox 两大开发神器,初步尝试以后发现确实能够大幅度提升开发效率,特此想要整理成博客以供大家快速入门. 简单理解 Cursor 就是一款结合AI大模型的代码编辑器,你可以将自己的思路告诉AI,剩下的目录结构的搭建以及项目代码的实现均由AI帮…

Redis常见问题总结

Redis常见问题总结 1.Redis分布式存储方案 分布式存储核心特点主从&#xff08;Master/Slave&#xff09;模式一主多从&#xff0c;故障时手动切换。哨兵&#xff08;Sentinel&#xff09;模式有哨兵的一主多从&#xff0c;主节点故障自动选择新的主节点。集群&#xff08;Cl…

Svn如何切换删除账号

记录Svn清除切换账号 1.首先打开小乌龟的设置如下图 打开设置后单击已保存数据&#xff0c;然后选择清除 接上图选择清除后&#xff0c;就可以打勾选择清除已保存的账号&#xff0c;我们再次检出的就可以切换账号了 &#x1f449;总结 本次记录Svn清除切换账号 如能帮助到你…

电子应用设计方案-38:智能语音系统方案设计

智能语音系统方案设计 一、引言 智能语音系统作为一种便捷、自然的人机交互方式&#xff0c;正逐渐在各个领域得到广泛应用。本方案旨在设计一个高效、准确、功能丰富的智能语音系统。 二、系统概述 1. 系统目标 - 实现高准确率的语音识别和自然流畅的语音合成。 - 支持多种语…

红外跟随避障模块详解

在智能车、机器人和自动化等领域避障技术是确保安全和高效运行的关键。红外避障模块作为一种常见的避障解决方案&#xff0c;因其非接触、响应速度快和抗干扰能力强等优点而备受青睐。本文将详细介绍红外避障模块的特点、工作原理、以及应用案例&#xff0c;帮助您更好地了解这…

数据下载实践教程系列:跨过数据获取障碍---TCIA和TCGA数据下载

1.前言 作为一个医工交叉领域的工科学者&#xff0c;我想你必定听说过TCGA数据库和TCIA数据库&#xff0c;但是身边不少生信学者和医生是会用的&#xff0c;但大都将此作为护城河而讳莫如深&#xff01;有了数据&#xff0c;工科小伙伴也可以摆脱数据依赖而独立进行研究了。作为…

期权懂|场内个股期权开户流程有哪些?

期权小懂每日分享期权知识&#xff0c;帮助期权新手及时有效地掌握即市趋势与新资讯&#xff01; 场内个股期权开户流程有哪些&#xff1f; 场内个股期权开户第一步开户‌&#xff1a; 投资者首先需要在具有期权交易资格的证券公司开立期权账户。 ‌场内个股期权开户第二步选…