10.TensorRT中文版开发教程—–TensorRT中的循环

TensorRT中的循环

点击此处加入NVIDIA开发者计划

NVIDIA TensorRT 支持循环结构,这对于循环网络很有用。 TensorRT 循环支持扫描输入张量、张量的循环定义以及“扫描输出”和“最后一个值”输出。

10.1. Defining A Loop

循环由循环边界层(loop boundary layers)定义。

  • ITripLimitLayer指定循环迭代的次数。
  • IIteratorLayer使循环能够迭代张量。
  • IRecurrenceLayer指定一个循环定义。
  • ILoopOutputLayer指定循环的输出。

每个边界层都继承自类ILoopBoundaryLayer ,该类有一个方法getLoop()用于获取其关联的ILoopILoop对象标识循环。具有相同ILoop的所有循环边界层都属于该循环。

下图描绘了循环的结构和边界处的数据流。循环不变张量可以直接在循环内部使用,例如 FooLayer 所示。

一个循环可以有多个IIteratorLayerIRecurrenceLayerILoopOutputLayer ,并且最多可以有两个ITripLimitLayer ,如后面所述。没有ILoopOutputLayer的循环没有输出,并由 TensorRT 优化。

NVIDIA TensorRT 支持矩阵中的流控制结构层部分描述了可用于循环内部的 TensorRT 层

内部层可以自由使用在循环内部或外部定义的张量。内部可以包含其他循环(请参阅嵌套循环)和其他条件构造(请参阅条件嵌套)。

要定义循环,首先,使用INetworkDefinition ::addLoop方法创建一个ILoop对象。然后添加边界层和内部层。本节的其余部分描述了边界层的特征,使用loop表示INetworkDefinition ::addLoop返回的ILoop*

ITripLimitLayer支持计数循环和 while 循环。

  • loop ->addTripLimit( t ,TripLimit::kCOUNT)创建一个ITripLimitLayer ,其输入t是指定循环迭代次数的 0D INT32 张量。

  • loop ->addTripLimit( t ,TripLimit::kWHILE)创建一个ITripLimitLayer ,其输入t是一个 0D Bool 张量,用于指定是否应该进行迭代。通常t要么是IRecurrenceLayer的输出,要么是基于所述输出的计算。

一个循环最多可以有一种限制。

IIteratorLayer支持在任何轴上向前或向后迭代。

  • loop ->addIterator( t )添加一个IIteratorLayer ,它在张量t的轴 0 上进行迭代。例如,如果输入是矩阵:
2 3 5
4 6 8

第一次迭代的一维张量{2, 3, 5}和第二次迭代的{4, 6, 8} 。超出张量范围的迭代是无效的。

  • loop ->addIterator( t , axis )类似,但该层在给定的轴上迭代。例如,如果 axis=1 并且输入是矩阵,则每次迭代都会传递矩阵的一列。

  • loop ->addIterator( t , axis,reverse )类似,但如果reverse =true ,则该层以相反的顺序产生其输出。

ILoopOutputLayer支持三种形式的循环输出:

  • loop ->addLoopOutput( t, LoopOutput::kLAST_VALUE)输出t的最后一个值,其中t必须是IRecurrenceLayer的输出。
  • loop-> addLoopOutput( t ,LoopOutput::kCONCATENATE, axis )将每次迭代的输入串联输出到t 。例如,如果输入是一维张量,第一次迭代的值为{ a,b,c} ,第二次迭代的值为{d,e,f} , axis =0 ,则输出为矩阵:
a b c
d e f

如果axis =1 ,则输出为:

a d
b e
c f
  • loop-> addLoopOutput( t ,LoopOutput::kREVERSE, axis )类似,但颠倒了顺序。
    kCONCATENATEkREVERSE形式都需要第二个输入,这是一个 0D INT32 形状张量,用于指定新输出维度的长度。当长度大于迭代次数时,额外的元素包含任意值。第二个输入,例如u ,应使用ILoopOutputLayer::setInput(1, u )设置。

最后,还有IRecurrenceLayer 。它的第一个输入指定初始输出值,第二个输入指定下一个输出值。第一个输入必须来自循环外;第二个输入通常来自循环内部。例如,这个 C++ 片段的 TensorRT 模拟:

for (int32_t i = j; ...; i += k) ...

可以通过这些调用创建,其中j和k是ITensor*

ILoop* loop = n.addLoop();
IRecurrenceLayer* iRec = loop->addRecurrence(j);
ITensor* i = iRec->getOutput(0);
ITensor* iNext = addElementWise(*i, *k, 
    ElementWiseOperation::kADD)->getOutput(0);
iRec->setInput(1, *iNext);

第二个输入是TensorRT允许后沿的唯一情况。如果删除了这些输入,则剩余的网络必须是非循环的。

10.2. Formal Semantics

TensorRT 具有应用语义,这意味着除了引擎输入和输出之外没有可见的副作用。因为没有副作用,命令式语言中关于循环的直觉并不总是有效。本节定义了 TensorRT 循环结构的形式语义。

形式语义基于张量的惰性序列(lazy sequences)。循环的每次迭代对应于序列中的一个元素。循环内张量X的序列表示为⟨ X 0, X 1, X 2, ... ⟩ 。序列的元素被懒惰地评估,意思是根据需要。

IIteratorLayer(X)的输出是⟨ X[0], X[1], X[2], ... ⟩其中X[i]表示在IIteratorLayer指定的轴上的下标。

IRecurrenceLayer(X,Y)的输出是⟨ X, Y0, Y1, Y2, ... ⟩
的输入和输出取决于LoopOutput的类型。

  • kLAST_VALUE :输入是单个张量X ,对于 n-trip 循环,输出是X n 。
  • kCONCATENATE :第一个输入是张量X,第二个输入是标量形状张量Y。结果是X0, X1, X2, ... Xn-1与后填充(如有必要)连接到Y指定的长度。如果Y < n则为运行时错误。 Y是构建时间常数。注意与IIteratorLayer的反比关系。 IIteratorLayer将张量映射到一系列子张量;带有kCONCATENATEILoopOutputLayer将一系列子张量映射到一个张量。
  • kREVERSE :类似于kCONCATENATE ,但输出方向相反。

ILoopOutputLayer的输出定义中的n值由循环的ITripLimitLayer确定:

  • 对于计数循环,它是迭代计数,表示ITripLimitLayer的输入。
  • 对于 while 循环,它是最小的 n 使得10.TensorRT中文版开发教程-----TensorRT中的循环为假,其中XITripLimitLayer的输入张量的序列。

非循环层的输出是层功能的顺序应用。例如,对于一个二输入非循环层F(X,Y) = ⟨ f(X 0 , Y 0 ), f(X 1 , Y 1 ), f(X 2 , Y 2 )... ⟩ .如果一个张量来自循环之外,即是循环不变的,那么它的序列是通过复制张量来创建的。

10.3. Nested Loops

TensorRT 从数据流中推断出循环的嵌套。例如,如果循环 B 使用在循环 A 中定义的值,则 B 被认为嵌套在 A 中。

TensorRT 拒绝循环没有干净嵌套的网络,例如如果循环 A 使用循环 B 内部定义的值,反之亦然。

10.4. Limitations

引用多个动态维度的循环可能会占用意外的内存量。
在一个循环中,内存的分配就像所有动态维度都取任何这些维度的最大值一样。例如,如果一个循环引用两个维度为[4,x,y][6,y]的张量,则这些张量的内存分配就像它们的维度是[4,max(x,y),max(x ,y)][6,max(x,y)]

带有kLAST_VALUELoopOutputLayer的输入必须是IRecurrenceLayer的输出。
循环 API 仅支持 FP32FP16 精度。

10.5. Replacing IRNNv2Layer With Loops

IRNNv2Layer在 TensorRT 7.2.1 中已弃用,并将在 TensorRT 9.0 中删除。使用循环 API 合成循环子网络。例如,请参阅sampleCharRNN方法SampleCharRNNLoop::addLSTMCell 。循环 API 让您可以表达一般的循环网络,而不是局限于IRNNLayer和IRNNv2Layer中的预制单元。

请参阅sampleCharRNN

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2022年5月10日
下一篇 2022年5月10日

相关推荐