ExoPlayer架构详解与源码分析(7)——SampleQueue

系列文章目录

ExoPlayer架构详解与源码分析(1)——前言
ExoPlayer架构详解与源码分析(2)——Player
ExoPlayer架构详解与源码分析(3)——Timeline
ExoPlayer架构详解与源码分析(4)——整体架构
ExoPlayer架构详解与源码分析(5)——MediaSource
ExoPlayer架构详解与源码分析(6)——MediaPeriod
ExoPlayer架构详解与源码分析(7)——SampleQueue


文章目录

  • 系列文章目录
  • 前言
  • ProgressiveMediaPeriod
  • SampleQueue
  • SampleQueue动态分析
  • SpannedData< SharedSampleMetadata >
  • SampleDataQueue
  • Allocator
  • 总结


前言

ProgressiveMediaPeriod中的SampleQueue部分相对其他部分,结构相对完整独立,没有像加载媒体那部分拆分出很多其他的概念,所以优先了解下SampleQueue。本篇主要解答媒体数据是如何在播放器内部缓存的,以及ExoPlayer是如何保证这些数据稳定高效的读写。

ProgressiveMediaPeriod

先预习下上篇的整体结构,本篇主要分析左半部分的SampleQueue:
在这里插入图片描述

SampleQueue

这是一个保存Sample的队列。MediaoPeriod向外提供的SampleStream其实就是从SampleQueue中读取的数据,一个SampleQueue就对应一个SampleStream。
在这里插入图片描述

SampleQueue主要有3大功能:

  • 管理 通过内部的一个环形Info数组(包含offsets数组、sizes数等sampleData数据)管理SampleDataQueue和SharedSampleMetadata这2个数据源。SampleQueue实际的数据其实是保存在SampleDataQueue和SharedSampleMetadata中的,数据的管理实现在SampleQueue里。
    这部分可以从SampleQueue初始化部分源码看出来:

      private final SampleDataQueue sampleDataQueue;//用于播放的数据private final SampleExtrasHolder extrasHolder;private final SpannedData<SharedSampleMetadata> sharedSampleMetadata;//Meta数据private int capacity;//Info数组的总长度private long[] offsets;//每段SampleData的数据偏移量private int[] sizes;//每段SampleData的数据大小private int[] flags;//每段SampleData flags 数据private long[] timesUs;//每段SampleData 时间戳private int length;//有效的(没有被释放且已分配的数据)Info数组数据的长度private int absoluteFirstIndex;//绝对的开始位置,指向数据段的开始位置,+readPosition就是当前读取的绝对位置private int relativeFirstIndex;//一个在Info数据上循环的相对位置private int readPosition;//当前的读取位置,这个值是相对relativeFirstIndex的位置偏移量protected SampleQueue(Allocator allocator,@Nullable DrmSessionManager drmSessionManager,@Nullable DrmSessionEventListener.EventDispatcher drmEventDispatcher) {...sampleDataQueue = new SampleDataQueue(allocator);//内存分配器供SampleDataQueue使用extrasHolder = new SampleExtrasHolder();capacity = SAMPLE_CAPACITY_INCREMENT;//默认的分段属是1000sourceIds = new long[capacity];offsets = new long[capacity];timesUs = new long[capacity];flags = new int[capacity];sizes = new int[capacity];sharedSampleMetadata =new SpannedData<>(/* removeCallback= */ metadata -> metadata.drmSessionReference.release());...}
    

    上面主要是初始化出一个SampleDataQueue和一个sharedSampleMetadata数据集,然后初始化出一个1000个块的Info数组,用于管理这2块数据。这里将offsets、timesUs、sourceIds 、flags、sizes 几个数组统称为 Info数组,因为这里面共同保存着每个Sample的信息。

  • 输入 同时SampleQueue实现了TrackOutput接口,对外提供sampleMetadataformat 函数使得调用者可以输入Meta信息,sampleData函数可以输入播放数据。这里的输入调用者主要是后面要说的ProgressiveMediaPeriod另一部分。
    下面分析下源码数据是如何输入的:

    //输入Metadata@Overridepublic void sampleMetadata(long timeUs,//与当前数据关联的媒体时间戳@C.BufferFlags int flags,//是否关键帧int size,//样本数据大小int offset,//块间偏移量,距离上一次已经SmapleMeta的SampleData的偏移量,我们知道媒体文件中用于播放数据不一定是连续的,其中可能包含一些其他数据,这些数据可以看成是之间的偏移量@Nullable CryptoData cryptoData) {if (upstreamFormatAdjustmentRequired) {format(Assertions.checkStateNotNull(unadjustedUpstreamFormat));}boolean isKeyframe = (flags & C.BUFFER_FLAG_KEY_FRAME) != 0;if (upstreamKeyframeRequired) {//从关键帧开始Sampleif (!isKeyframe) {return;}upstreamKeyframeRequired = false;}timeUs += sampleOffsetUs;if (upstreamAllSamplesAreSyncSamples) {if (timeUs < startTimeUs) {// 如果所有轨道都是同步的,那么在当前Smaple点之前的时间数据就可以丢弃了return;}if ((flags & C.BUFFER_FLAG_KEY_FRAME) == 0) {if (!loggedUnexpectedNonSyncSample) {Log.w(TAG, "Overriding unexpected non-sync sample for format: " + upstreamFormat);loggedUnexpectedNonSyncSample = true;}flags |= C.BUFFER_FLAG_KEY_FRAME;//保证设置为关键帧}}if (pendingSplice) {//判断是否是拼接数据,如HLS切换流的时候就会用到if (!isKeyframe || !attemptSplice(timeUs)) {return;}pendingSplice = false;}//当前Info的偏移量=数据总长度-样本数据长度-块间偏移量long absoluteOffset = sampleDataQueue.getTotalBytesWritten() - size - offset;commitSample(timeUs, flags, absoluteOffset, size, cryptoData);}private synchronized void commitSample(long timeUs,@C.BufferFlags int sampleFlags,long offset,int size,@Nullable CryptoData cryptoData) {if (length > 0) {// 保证最后一个的end位置要小于等于下一个的开始位置int previousSampleRelativeIndex = getRelativeIndex(length - 1);checkArgument(offsets[previousSampleRelativeIndex] + sizes[previousSampleRelativeIndex] <= offset);}isLastSampleQueued = (sampleFlags & C.BUFFER_FLAG_LAST_SAMPLE) != 0;largestQueuedTimestampUs = max(largestQueuedTimestampUs, timeUs);int relativeEndIndex = getRelativeIndex(length);//获取Info里的下一个位置索引timesUs[relativeEndIndex] = timeUs;//开始赋值offsets[relativeEndIndex] = offset;sizes[relativeEndIndex] = size;flags[relativeEndIndex] = sampleFlags;cryptoDatas[relativeEndIndex] = cryptoData;sourceIds[relativeEndIndex] = upstreamSourceId;if (sharedSampleMetadata.isEmpty()|| !sharedSampleMetadata.getEndValue().format.equals(upstreamFormat)) {//开始写入MetadatasharedSampleMetadata.appendSpan(getWriteIndex(),new SharedSampleMetadata(checkNotNull(upstreamFormat), drmSessionReference));}length++;//有效长度++if (length == capacity) {//如果写入数据已经超过Info的最大长度// Increase the capacity.int newCapacity = capacity + SAMPLE_CAPACITY_INCREMENT;//则将Info数组长度扩展至2倍long[] newSourceIds = new long[newCapacity];long[] newOffsets = new long[newCapacity];long[] newTimesUs = new long[newCapacity];int[] newFlags = new int[newCapacity];int[] newSizes = new int[newCapacity];CryptoData[] newCryptoDatas = new CryptoData[newCapacity];//将旧的数据,移入新的数组,将相对开始位置作为新数组的第一个位置int beforeWrap = capacity - relativeFirstIndex;System.arraycopy(offsets, relativeFirstIndex, newOffsets, 0, beforeWrap);System.arraycopy(timesUs, relativeFirstIndex, newTimesUs, 0, beforeWrap);System.arraycopy(flags, relativeFirstIndex, newFlags, 0, beforeWrap);System.arraycopy(sizes, relativeFirstIndex, newSizes, 0, beforeWrap);System.arraycopy(cryptoDatas, relativeFirstIndex, newCryptoDatas, 0, beforeWrap);System.arraycopy(sourceIds, relativeFirstIndex, newSourceIds, 0, beforeWrap);int afterWrap = relativeFirstIndex;System.arraycopy(offsets, 0, newOffsets, beforeWrap, afterWrap);System.arraycopy(timesUs, 0, newTimesUs, beforeWrap, afterWrap);System.arraycopy(flags, 0, newFlags, beforeWrap, afterWrap);System.arraycopy(sizes, 0, newSizes, beforeWrap, afterWrap);System.arraycopy(cryptoDatas, 0, newCryptoDatas, beforeWrap, afterWrap);System.arraycopy(sourceIds, 0, newSourceIds, beforeWrap, afterWrap);offsets = newOffsets;timesUs = newTimesUs;flags = newFlags;sizes = newSizes;cryptoDatas = newCryptoDatas;sourceIds = newSourceIds;relativeFirstIndex = 0;capacity = newCapacity;}}//获取当前Info数组的相对位置,传入相对第一个位置的偏移量private int getRelativeIndex(int offset) {int relativeIndex = relativeFirstIndex + offset;return relativeIndex < capacity ? relativeIndex : relativeIndex - capacity;//环形指针}//获取当前写入MetaData的绝对位置public final int getWriteIndex() {return absoluteFirstIndex + length;//等于当前绝开始位置+有效的长度}  //输入Format@Overridepublic final void format(Format format) {Format adjustedUpstreamFormat = getAdjustedUpstreamFormat(format);upstreamFormatAdjustmentRequired = false;unadjustedUpstreamFormat = format;boolean upstreamFormatChanged = setUpstreamFormat(adjustedUpstreamFormat);if (upstreamFormatChangeListener != null && upstreamFormatChanged) {upstreamFormatChangeListener.onUpstreamFormatChanged(adjustedUpstreamFormat);}}
    

    Metadata输入主要分3部分:

    1. 确保当前为关键帧。
    2. 获取Info环形数组的下一个索引,将当前Sampledata的数据保存到Info数组并记录Meta信息。
    3. 确保Info数组足够大可以容纳足够多的数据。

    下面看下sampleData部分

      @Overridepublic final void sampleData(ParsableByteArray data, int length, @SampleDataPart int sampleDataPart) {sampleDataQueue.sampleData(data, length);}
    

    没了就这么多。😂,你只管告诉sampleDataQueue数据的大小和长度,sampleDataQueue来添加,具体sampleDataQueue是怎么有效管理数据的后面会讲到,现在不是重点

    通过sampleDataQueue和sampleMetadata对比你会发现sampleMetadata比sampleDataQueue复杂多个,而且sampleMetadata方法添加了synchronized 同步块,多线程的时候会阻塞,而sampleDataQueue没有任何同步代码包括到sampleDataQueue里也一样。这样做是因为sampleMetadata的数据量很少,即使阻塞也能很高效的执行。而sampleData数据量往往比较大,写入的时间也比较长,所以不能阻塞。那么为什么要这么做呢,后面我们看到数据的读取部分就能理解了。

  • 输出 SampleQueue提供了read方法输出数据
    分析下对应源码:

    public int read(FormatHolder formatHolder,DecoderInputBuffer buffer,@ReadFlags int readFlags,boolean loadingFinished) {//首先读取Metadataint result =peekSampleMetadata(formatHolder,buffer,/* formatRequired= */ (readFlags & FLAG_REQUIRE_FORMAT) != 0,loadingFinished,extrasHolder);if (result == C.RESULT_BUFFER_READ && !buffer.isEndOfStream()) {boolean peek = (readFlags & FLAG_PEEK) != 0;if ((readFlags & FLAG_OMIT_SAMPLE_DATA) == 0) {if (peek) {sampleDataQueue.peekToBuffer(buffer, extrasHolder);} else {sampleDataQueue.readToBuffer(buffer, extrasHolder);//将sampleData的位置信息通过extrasHolder传递给sampleDataQueue读取数据}}if (!peek) {readPosition++;//读取位置++}}return result;}//读取Metadataprivate synchronized int peekSampleMetadata(FormatHolder formatHolder,DecoderInputBuffer buffer,boolean formatRequired,boolean loadingFinished,SampleExtrasHolder extrasHolder) {...Format format = sharedSampleMetadata.get(getReadIndex()).format; //用绝对开始位置+读取位置(absoluteFirstIndex + readPosition)获取读取的绝对位置...int relativeReadIndex = getRelativeIndex(readPosition);//获取当前Info数组的相对位置...extrasHolder.size = sizes[relativeReadIndex];//取出Info数据extrasHolder.offset = offsets[relativeReadIndex];extrasHolder.cryptoData = cryptoDatas[relativeReadIndex];return C.RESULT_BUFFER_READ;}//获取读取的绝对位置public final int getReadIndex() {return absoluteFirstIndex + readPosition;}
    

    要读取sampleData和sampleMetadata的数据,首先要确定当前读取点的Info的位置,然后通过Info数组才能知道读取的位置和长度,最后读取sampleData,同样sampleMetadata读取是加锁的,而sampleData没有。可以看出sampleData的读写是不受线程限制的,通过SampleQueue内部维护的Info数组来维护sampleData,可以最大化保证多线程下sampleData读写的效率。

  • 释放 通过discardSamples等释放不需要的数据
    分析下对应源码:

     public final void discardTo(long timeUs, boolean toKeyframe, boolean stopAtReadPosition) {sampleDataQueue.discardDownstreamTo(discardSampleMetadataTo(timeUs, toKeyframe, stopAtReadPosition));//先释放Metadata}private synchronized long discardSampleMetadataTo(long timeUs, boolean toKeyframe, boolean stopAtReadPosition) {if (length == 0 || timeUs < timesUs[relativeFirstIndex]) {return C.INDEX_UNSET;}int searchLength = stopAtReadPosition && readPosition != length ? readPosition + 1 : length;//根据时间戳来确定要释放数据块的数量int discardCount = findSampleBefore(relativeFirstIndex, searchLength, timeUs, toKeyframe);if (discardCount == -1) {return C.INDEX_UNSET;}return discardSamples(discardCount);
    }private long discardSamples(int discardCount) {largestDiscardedTimestampUs =max(largestDiscardedTimestampUs, getLargestTimestamp(discardCount));length -= discardCount;//有效长度=有效长度-释放数量absoluteFirstIndex += discardCount;//绝对开始位置后移relativeFirstIndex += discardCount;//相对开始位置后移if (relativeFirstIndex >= capacity) {//环形数组relativeFirstIndex -= capacity;}readPosition -= discardCount;//因为relativeFirstIndex后移,相对它的位置在缩小if (readPosition < 0) {readPosition = 0;}sharedSampleMetadata.discardTo(absoluteFirstIndex);//释放Metadataif (length == 0) {int relativeLastDiscardIndex = (relativeFirstIndex == 0 ? capacity : relativeFirstIndex) - 1;return offsets[relativeLastDiscardIndex] + sizes[relativeLastDiscardIndex];} else {return offsets[relativeFirstIndex];//返回SampleData的释放偏移量}
    }
    

    同样数据的释放和读写一样,通过内部的Info来管理,释放后会更新Info上的相关位置。

SampleQueue动态分析

上面一直在说环形数组,静态的看代码可能感受不到这点,下面我们通过几个图来动态分析下SampleQueue的运作原理,这部分需要结合上面的源码一起看才好理解。

首先为了方便分析假设数组最大长度为capacity=6,当前已经写入了4段sampleData对应图中的sample0-3,同时也写入了4个数据到Info数组对应图中的0-2的size、offset、time结构,每个结构的size、offset、time在图的最下方都有标记,这里可以看下加深下对这个结构数值的含义的理解,所以此时有效长度length=4,由于是刚开始读写这个时候的relativeFirstIndex=absoluteFirstIndex=0处于开始位置,当前的读取位置相对于relativeFirstIndex也就是和relativeFirstIndex差值,readPosition=2。接下来sample会从右侧箭头处不断写入。同样上方的Info数组随着读取也会不断变化。
在这里插入图片描述
好了,此时先向Sample队列写入一个Sample length+1,然后同时读取2个Sample readPosition+2=4
在这里插入图片描述
随着数据被使用(已经播放)之前的数据需要丢弃,以便下次写入,释放3个Sample,可以看到relativeFirstIndex和absoluteFirstIndex同时前移,虽然readPosiition的位置没有移动,也就是没有读取新的数据,但是readPosiition的值变小,有效长度缩小为2。到这里relativeFirstIndex还是和absoluteFirstIndex相等的还看不出环形的特性。
在这里插入图片描述
此时开始写入3个Sample,这个时候就可以看出Info环形特性,之前释放的0号和1号会重新指向数据队列的最前端,同时更新offset,size相关数据,有效数据长度增加到5,length=5。
在这里插入图片描述
这个时候再读取3个Sample时,readPosiition的值增加3此时指向Info数组的下标1,readPosiition=4。
在这里插入图片描述
好了我们继续释放数据,这次再次释放3个,可以看到relativeFirstIndex和absoluteFirstIndex值开始不一样了,由于又回到了Info数组的开始位置所以relativeFirstIndex=0,readPosiition缩短为1,有效长度length=2,而absoluteFirstIndex是相对于Smaple的绝对位置,这个时候absoluteFirstIndex继续后移到6号位置的sample6。
在这里插入图片描述
把上面的图连续不断的执行,可以想象出,Info数组像一个不断前行的履带在sample铺的道路上不断前行(读取)。被履带压过的道路(已经读取过的数据)就会被释放,此时路还在不断的向前铺设(新的sample数据在不断的写入到SampleQueen中),整个过程中履带的大小是不变的。

至此我们可以总结出几个规律:

  • 当前写入数据的绝对位置永远等于absoluteFirstIndex+length
  • 当前读取数据的绝对位置永远等于absoluteFirstIndex + readPosition
  • Info数组可以理解成一个首尾相连的环形数组,数组最后一个位置的下个位置就是数组的开始位置
    这几个规律在源码中经常被用到,感兴趣的同学可以深入阅读下。

下面来分析下实际存储数据的2个结构

SpannedData< SharedSampleMetadata >

本质是一个Android里实现SparseArray的map,通过int 类型key可以快速向指定key存入数据或者取出数据,这里数据跟随SampleQueue里的Info来管理,添加或者释放指定位置的Metadata数据。

SampleDataQueue

重点来说下SampleDataQueue,由于SampleData的数据量要远远大于Metadata,而且还需要频繁的读写释放,所以向SpannedData<SharedSampleMetadata>那样简单粗暴的管理数据,效率会非常低,因为JVM要频繁的申请内存GC释放内存。为了解决这个问题SampleDataQueue内部维护了一个链表,同时维护了链表中3个重要的节点,firstAllocationNode,readAllocationNode,writeAllocationNode,用于快速获取读写点。

  private AllocationNode firstAllocationNode;//第一个节点位置private AllocationNode readAllocationNode;//当前读取节点位置private AllocationNode writeAllocationNode;//当前写入节点位置

这里顺带提下AllocationNode的数据结构,主要就是封装了Allocation,allocation才是实际存储数据的部分,同时提供了next AllocationNode 提供下一个AllocationNode 的指针,形成一个链表结构。

 private static final class AllocationNode implements Allocator.AllocationNode {public long startPosition;//此段allocation的开始位置public long endPosition;//此段allocation的结束位置public Allocation allocation;//实际缓存数据部分public AllocationNode next;//指向下一个...public void initialize(Allocation allocation, AllocationNode next) {this.allocation = allocation;this.next = next;}...

回到SampleDataQueue中,调用sampleData循环写入数据时,每次循环写入主要分为3步:

  1. 调用preAppend初始化通过writeAllocationNode,同时也初始化出了下个writeAllocationNode。重点看下allocator.allocate(),这里才是初始化了AllocationNode的实际内存数据allocation的地方,后面会详细分析。
  2. 将数据循环写入writeAllocationNode的实际缓存位置allocation.data中。
  3. 调用preAppend更新SampleDataQueue已写入总长度,如果总长度已经超过当前写入节点的结束位置,将当前写入节点,更新为下一写入节点。
private int preAppend(int length) {if (writeAllocationNode.allocation == null) {writeAllocationNode.initialize(allocator.allocate(),//分配内存new AllocationNode(writeAllocationNode.endPosition, allocationLength));}return min(length, (int) (writeAllocationNode.endPosition - totalBytesWritten));}public void sampleData(ParsableByteArray buffer, int length) {while (length > 0) {int bytesAppended = preAppend(length);buffer.readBytes(writeAllocationNode.allocation.data,writeAllocationNode.translateOffset(totalBytesWritten),bytesAppended);length -= bytesAppended;postAppend(bytesAppended);}}private void postAppend(int length) {totalBytesWritten += length;//增加总长度if (totalBytesWritten == writeAllocationNode.endPosition) {//总长度已经超过当前写入节点的结束位置writeAllocationNode = writeAllocationNode.next;//将当前写入节点,更新为下一写入节点}}

读取和写入类似,直接看下释放数据的地方,首先释放指定位置之前的链表数据,其次重置开始节点和读取节点。

  public void discardDownstreamTo(long absolutePosition) {if (absolutePosition == C.INDEX_UNSET) {return;}while (absolutePosition >= firstAllocationNode.endPosition) {//从第一个节点开始依次取出下一个节点通过allocator释放内存,并清除AllocationNode,一直到指定的absolutePositionallocator.release(firstAllocationNode.allocation);firstAllocationNode = firstAllocationNode.clear();}if (readAllocationNode.startPosition < firstAllocationNode.startPosition) {//保证当前的读取位置在开始节点之后readAllocationNode = firstAllocationNode;}}

看完是不是发现目前也没没有解决上面说的内存问题,内存感觉是在不断新增的。注意看下上面源码实际获取内存的地方allocator.allocate(),原来这些都交给了Allocator,通过Allocator实现内存的循环高效利用。

Allocator

这是一个接口用于媒体数据的内存分配,默认有一个DefaultAllocator实现。
先看下主要的源码

public final class DefaultAllocator implements Allocator {private static final int AVAILABLE_EXTRA_CAPACITY = 100;//额外的初始化Allocation数量private final boolean trimOnReset;private final int individualAllocationSize;@Nullable private final byte[] initialAllocationBlock;//初始化的一个连续的数组,指向默认数量的的Allocations,参考下图private int targetBufferSize;private int allocatedCount;//已分配的Allocation数量,参考下图private int availableCount;//可用的Allocation数量,参考下图private @NullableType Allocation[] availableAllocations;//可用的Allocations,参考下图public DefaultAllocator(boolean trimOnReset, int individualAllocationSize, int initialAllocationCount) {this.trimOnReset = trimOnReset;this.individualAllocationSize = individualAllocationSize;this.availableCount = initialAllocationCount;this.availableAllocations = new Allocation[initialAllocationCount + AVAILABLE_EXTRA_CAPACITY];//添加了部分冗余if (initialAllocationCount > 0) {//将初始化的Allocations通过指定offset分配initialAllocationBlockinitialAllocationBlock = new byte[initialAllocationCount * individualAllocationSize];for (int i = 0; i < initialAllocationCount; i++) {int allocationOffset = i * individualAllocationSize;availableAllocations[i] = new Allocation(initialAllocationBlock, allocationOffset);}} else {initialAllocationBlock = null;}}//这个方法用于获取一个Allocation,注意在调用此方法后必须调用release方法将分配Allocation返还@Overridepublic synchronized Allocation allocate() {allocatedCount++;//已分配数量+1Allocation allocation;if (availableCount > 0) {allocation = Assertions.checkNotNull(availableAllocations[--availableCount]);//从尾部取出,可用数量-1availableAllocations[availableCount] = null;//清空} else {allocation = new Allocation(new byte[individualAllocationSize], 0);//不够用了,创建新的Allocation,直接初始化出一段新的数组分配给它if (allocatedCount > availableAllocations.length) {//可用Allocations扩充2倍availableAllocations = Arrays.copyOf(availableAllocations, availableAllocations.length * 2);}}return allocation;}//返还分配的Allocation@Overridepublic synchronized void release(Allocation allocation) {availableAllocations[availableCount++] = allocation;//可用数量加1allocatedCount--;//已分配数量减1}...
}@Override//释无用的空块
public synchronized void trim() {//如果重新定义了缓存区大小,计算需要的Allocation块总数量int targetAllocationCount = Util.ceilDivide(targetBufferSize, individualAllocationSize);int targetAvailableCount = max(0, targetAllocationCount - allocatedCount);//减去目前空余的块,则为剩余需要的块数量//不存在冗余,无需trimif (targetAvailableCount >= availableCount) {return;}if (initialAllocationBlock != null) {// 从头尾查找第一个不是空的块,将其位置向前int lowIndex = 0;int highIndex = availableCount - 1;while (lowIndex <= highIndex) {//未分配出的Allocation 不可能为nullAllocation lowAllocation = Assertions.checkNotNull(availableAllocations[lowIndex]);if (lowAllocation.data == initialAllocationBlock) {//当前低位为初始值,从未被分配过lowIndex++;//lowIndex后移} else {//当前低位Allocation已分配过//未分配出的Allocation 不可能为nullAllocation highAllocation = Assertions.checkNotNull(availableAllocations[highIndex]);if (highAllocation.data != initialAllocationBlock) {//当前高位Allocation已分配过highIndex--;//highIndex前移} else {//当前高位Allocation未分配过//将当前未分配过高位和已分配过的低位交换位置,未分配过的放到数组低位availableAllocations[lowIndex++] = highAllocation;availableAllocations[highIndex--] = lowAllocation;}}}//到这里lowIndex之前的所有Allocation都是未分配过的初始initialAllocationBlock// 获取他们的最大值,也就是最大可释放targetAvailableCount = max(targetAvailableCount, lowIndex);//只有一种情况lowIndex正好等于availableCount,也就是当前未分配块都是初始值,从未被分配,当前可能为初始状态跳过trimif (targetAvailableCount >= availableCount) {return;}}// 释放空块Arrays.fill(availableAllocations, targetAvailableCount, availableCount, null);availableCount = targetAvailableCount;}

Allocator保存了一组Allocation列表,和一个默认的字节数组,每个Allocation对于数据块的长度由individualAllocationSize决定,通过offset确定在数组中的起始位置。同时维护着可用数量和已分配数量,当外部需要新的Allocation时会调用allocate获取,使用完毕后调用release将Allocation返还。可以看到这种设计特别适合播放器的缓冲数据,开始播放时分配一个默认的缓冲区域大小,随着播放进度,当前播放位置前会不断获取新Allocation用于提前缓冲,当这些数据已被渲染播放,离开了缓冲区域,这个时候又会将之前获取Allocation返还,依次循环,滚动的循环利用已分配的内存,整个过程只要不超最大值,就不会再分配新的内存,效率非常高。
下面用一张图来解释下整个过程:
在这里插入图片描述
如上图,是一个有着6个Allocation的Allocator,单个Allocation包含2个block(individualAllocationSize=2),initialAllocationBlock也就是block数组总长度为initialAllocationCountindividualAllocationSize=62=12。

初始化时会将每个Allocation依次指向initialAllocationBlock中的Block,通过Offset记录位置,当前已经分配出2个Allocation(上图表示为null),空余4个Allocation可分配,此时如果外部再需要获取Allocation时,也就是调用allocate,会将Allocation4,分配出去同时置为null,这个时候Allocation4的指向的Block并没有变化,外部调用者会向Block中填充数据用于缓存。
如果外部释放Allocation时,也就是调用release,会将Allocation填充至Allocation4后面一个位置,记为Allocation5,此过程Allocation5一直都是指向initialAllocationBlock的某段Block的。

这两个过程availableCount和allocatedCount也会相应增加或者减少,如果一个Allocation从来没有被分配过,则Block为初始值initialAllocationBlock,如上图的Allocation1,可以通过判断当前的Allocation的data是否等于initialAllocationBlock判断当前Allocation是否被分配过。

整个过程会让人不禁联想到 Android MediaCodec缓冲区,这里部分应该在Renderer部分提到,这里先提前贴下Android MediaCodec缓冲区使用的图,看看是不是很相似呢。
在这里插入图片描述


总结

SampleQueue只对Info数组这种小数据量的读写操作做多线程加锁操作,通过短时间阻塞读取Info数组的方式,查询读取关联的sampleData的数据,保证对sampleData这种大数据量耗时的读写不会阻塞,保证了数据的读写效率。

同时SampleQueue的环形数组的数据管理方式令人印象深刻,这种结构特别适合媒体播放这种场景,完美的平衡了性能与内存使用之间的矛盾。

有了SampleQueue这个数据大总管,ProgressiveMediaPeriod就可以随心所欲的写入数据并将媒体数据提供给上游读取。
到这里算是讲完了ProgressiveMediaPeriod的SampleQueue部分。后面将会讲到数据是如何加载到SampleQueue的,也就是首图的右半部分。


版权声明 ©
本文为CSDN作者山雨楼原创文章
转载请注明出处
原创不易,觉得有用的话,收藏转发点赞支持

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/171752.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Project Costs

/*** 初始化象棋的棋子&#xff0c;正常情况加载双方所有棋子&#xff0c;残局演示加载剩余棋子&#xff0c;按坐标位置摆放* * 【费用】* 因甲方要求产生工作量计算费用&#xff1b;新增、修改、删除需求* 因乙方生产缺陷工作量不计费用&#xff1b;缺陷、延误* * 来说个一个栗…

5 个编写高效 Makefile 文件的最佳实践

在软件开发过程中&#xff0c;Makefile是一个非常重要的工具&#xff0c;它可以帮助我们自动化构建、编译、测试和部署。然而&#xff0c;编写高效的Makefile文件并不是一件容易的事情。在本文中&#xff0c;我们将讨论如何编写高效的Makefile文件&#xff0c;以提高我们的开发…

unocss和tailwindcss css原子引擎

第一种tailwindcss&#xff1a; tailwindcss官网 https://tailwindcss.com/docs/grid-column 基本介绍及优点分析 Tailwind CSS 中文文档 - 无需离开您的HTML&#xff0c;即可快速建立现代网站 PostCss 处理 Tailwind Css 基本流程 PostCSS - 是一个用 JavaScript 工具和插…

Postman —— 配置环境变量

PostMan是一套比较方便的接口测试工具&#xff0c;但我们在使用过程中&#xff0c;可能会出现创建了API请求&#xff0c;但API的URL会随着服务器IP地址的变化而改变。 这样的情况下&#xff0c;如果每一个API都重新修改URL的话那将是非常的麻烦&#xff0c;所以PostMan中也提供…

使用ControlNet生成视频(Pose2Pose)

目录 ControlNet 介绍 ControlNet 14种模型分别是用来做什么的 ControlNet 运行环境搭建 用到的相关模型地址 ControlNet 介绍 ControlNet 是一种用于控制扩散模型的神经网络结构&#xff0c;可以通过添加额外的条件来实现对图像生成的控制。它通过将神经网络块的权重复制到…

从入门到精通:深入了解CSS中的Grid网格布局技巧和应用!

&#x1f3ac; 江城开朗的豌豆&#xff1a;个人主页 &#x1f525; 个人专栏 :《 VUE 》 《 javaScript 》 &#x1f4dd; 个人网站 :《 江城开朗的豌豆&#x1fadb; 》 ⛺️ 生活的理想&#xff0c;就是为了理想的生活 ! ​ 目录 ⭐ 专栏简介 &#x1f4d8; 文章引言 一…

【tio-websocket】9、服务配置与维护—TioConfig

场景 我们在写 TCP Server 时,都会先选好一个端口以监听客户端连接,再创建N组线程池来执行相关的任务,譬如发送消息、解码数据包、处理数据包等任务,还要维护客户端连接的各种数据,为了和业务互动,还要把这些客户端连接和各种业务数据绑定起来,譬如把某个客户端绑定到一…

【shell】pis_monitor.sh

#!/bin/bashread -p "请输入要查询的PID:" pidecho "--------------------------------"echo "进程PID:$pid"p_arr("进程命令 11" "进程所属用户 1" "CPU占用率 2" "CPU内存占用率 4" "进程开始运…

深入浅出排序算法之简单选择排序

目录 1. 原理和执行流程 2. 代码实现 3. 性能分析 4. 双向选择排序&#xff08;了解&#xff09; 1. 原理和执行流程 选择排序包含了堆排序和简单选择排序。 每一次从无序区间选出最大&#xff08;或最小&#xff09;的一个元素&#xff0c;存放在无序区间的最后&#xff0…

Unity URP14.0 自定义后处理框架

目录 碎碎念一些基础CustomPostProcessing.csCustomPostProcessingFeature.csCustomPostProcessingPass.cs例子&#xff1a;BSC后处理shader&#xff08;BSC&#xff09;后处理cs脚本(BSC) 例子&#xff1a;ColorBlitPostProcessing.hlslColorBlit2.shaderColorBlit.cs文件 其他…

ab压力测试

标题相关概念 QPS&#xff0c;每秒查询 QPS&#xff1a;Queries Per Second意思是“每秒查询率”&#xff0c;是一台服务器每秒能够相应的查询次数&#xff0c;是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准。 互联网中&#xff0c;作为域名系统服务器的机…

Python时间序列分析库介绍:statsmodels、tslearn、tssearch、tsfresh

时间序列分析在金融和医疗保健等领域至关重要&#xff0c;在这些领域&#xff0c;理解随时间变化的数据模式至关重要。在本文中&#xff0c;我们将介绍四个主要的Python库——statmodels、tslearn、tssearch和tsfresh——每个库都针对时间序列分析的不同方面进行了定制。这些库…

亿图导出word和PDF中清晰度保留方法

步骤一 在亿图软件中画一个元件大小搭配合理的图。注意字体大小的安排&#xff0c;尤其是角标的大小要合适&#xff0c;示范如下 选中所有元器件&#xff0c;右键使用组合功能将电路图组合为一个整体 步骤二&#xff1a; 将亿图软件中的图保存为SVG格式。示范如下 在导出到…

Mybatis-Plus(企业实际开发应用)

一、Mybatis-Plus简介 MyBatis-Plus是MyBatis框架的一个增强工具&#xff0c;可以简化持久层代码开发MyBatis-Plus&#xff08;简称 MP&#xff09;是一个 MyBatis 的增强工具&#xff0c;在 MyBatis 的基础上只做增强不做改变&#xff0c;为简化开发、提高效率而生。 官网&a…

人工智能基础_机器学习003_有监督机器学习_sklearn中线性方程和正规方程的计算_使用sklearn解算八元一次方程---人工智能工作笔记0042

然后我们再来看看,如何使用sklearn,来进行正规方程的运算,当然这里 首先要安装sklearn,这里如何安装sklearn就不说了,自己查一下 首先我们还是来计算前面的八元一次方程的解,但是这次我们不用np.linalg.solve这个 解线性方程的方式,也不用 直接 解正规方程的方式: 也就是上面…

java后端返回给前端不为空的属性

问题背景&#xff1a; 目前遇到的一个问题。一个对象里面定义了数组、集合、和字符串属性等&#xff0c;但是返回给前端的时候数组和集合都是空的&#xff0c;前端接收到的是“” 一个空字符。然后保存的时候又把空字符传给后端&#xff0c;出现了数据结构不匹配导致报错。 解…

k8s之Flannel网络插件安装提示forbidden无权限

一、问题描述 在安装k8s的网络插件时&#xff0c;提示如下信息&#xff0c;各种forbidden无权限 [rootzzyk8s01 scripts]# kubectl apply -f kube-flannel.yml Error from server (Forbidden): error when retrieving current configuration of: Resource: "policy/v1b…

基于Qt串口Serial Port配置纯代码实现(桌面和嵌入式平台)

## Serial Port Qt 提供了串口类,可以直接对串口访问。我们可以直接使用 Qt 的串口类编程即可,十分方便。Qt 串口类不仅在 Windows 能用,还能在 Linux 下用,虽然串口编程不是什么新鲜事儿,既然 Qt 提供了这方面的接口,我们就充分利用起来,这将会使我们的开发十分方便!…

UnoCSS快速入门

UnoCSS快速入门 UnoCSS一、UnoCSS简介二、UnoCSS解决问题三、UnoCSS实践四、好文推荐 UnoCSS 一、UnoCSS简介 UnoCSS 是一个即时、按需的原子级 CSS 引擎。它专注于提供轻量化、高性能的 CSS 解决方案。“Instant On-demand” 表示 UnoCSS 的加载和渲染速度非常快&#xff0c;…

如何进行渗透测试以提高软件安全性?

对于各种规模的企业和组织来说&#xff0c;软件安全是一个至关重要的问题。随着网络攻击越来越复杂&#xff0c;软件中的漏洞越来越多&#xff0c;确保你的软件安全比以往任何时候都更重要。提高软件安全性的一个有效方法是渗透测试&#xff08;penetration testing&#xff09…