Back to Paddle Lite

支持算子

docs/quick_start/support_operation_list.md

2.1228.0 KB
Original Source

支持算子

当前 Paddle Lite 共计支持算子 278 个,其中基础算子 91 个,附加算子 187 个。

基础算子

默认编译的算子,共计 91 个。

Host 端 Kernel 是算子在任意 CPU 上纯 C/C++ 的具体实现,具有可移植性强的特点,因此,它一般作为各特定平台算子实现的补充。

以 ARM CPU 为例,如果模型中某个算子没有 ARM 端 Kernel,但是有 Host 端 Kernel,那么模型优化阶段该算子会选择 Host 端 Kernel,该模型还是可以顺利部署。

OP_nameARMOpenCLMetal昆仑芯XPUHostX86寒武纪mlu华为昇腾NPU联发科APU华为麒麟NPU颖脉NNA芯原TIM-VXAndroid NNAPIIntel OpenVINO
affine_channelY
affine_gridY
arg_maxYYYYYYYY
assign_valueYY
batch_normYYYYYYYYYY
bilinear_interpYYYYYYYY
bilinear_interp_v2YYYYYYYY
box_coderYYYYYY
calibYYYYY
castYYYYYY
concatYYYYYYYYYYY
conv2dYYYYYYYYYYYYY
conv2d_transposeYYYYYYYYYY
density_prior_boxYYY
depthwise_conv2dYYYYYYYYYYYY
depthwise_conv2d_transposeYY
dropoutYYYYYYYYYY
elementwise_addYYYYYYYYYYYYY
elementwise_divYYYYYYYYYYY
elementwise_floordivYYY
elementwise_maxYYYYYYYYY
elementwise_minYYYYYYYY
elementwise_modYYY
elementwise_mulYYYYYYYYYYYY
elementwise_powYYYYYY
elementwise_subYYYYYYYYYYY
eluYY
erfY
expandYY
expand_asY
fcYYYYYYYYYYYY
feedYY
fetchYY
fill_constantYYY
fill_constant_batch_size_likeYYYY
flattenYYYYYYYYYY
flatten2YYYYYYYYYY
flatten_contiguous_rangeYYYYYY
fusion_elementwise_add_activationYYYYYYYY
fusion_elementwise_div_activationYYYYYYY
fusion_elementwise_max_activationYYYYY
fusion_elementwise_min_activationYYYYY
fusion_elementwise_mul_activationYYYYYYY
fusion_elementwise_pow_activationYY
fusion_elementwise_sub_activationYYYYYYY
grid_samplerYYYY
instance_normYYYYY
io_copyYYYY
io_copy_onceYYY
layoutYYYY
layout_onceYY
leaky_reluYYYYYYYYYY
lod_array_lengthYY
matmulYYYYYYYYY
mulYYYY
multiclass_nmsY
multiclass_nms2Y
multiclass_nms3Y
nearest_interpYYYYYYYYY
nearest_interp_v2YYYYYYYY
pad2dYYYYYYY
pool2dYYYYYYYYYYYYY
preluYYYYYY
prior_boxYYY
rangeYY
reduce_meanYYYYYYY
reluYYYYYYYYYYYYYY
relu6YYYYYYYYYYYYY
reshapeYYYYYYYYYYY
reshape2YYYYYYYYYYY
scaleYYYYYYYYYYY
search_fcY
sequence_topk_avg_poolingYY
shuffle_channelYYYYYYY
sigmoidYYYYYYYYYYYY
sliceYYYYYYYY
softmaxYYYYYYYYYYYYY
softplusYYYY
squeezeYYYYYYYY
squeeze2YYYYYYYY
stackYYYY
subgraphY
sync_batch_normYYY
tanhYYYYYYYYY
thresholded_reluYY
transposeYYYYYYYYYYY
transpose2YYYYYYYYYYY
unsqueezeYYYYYY
unsqueeze2YYYYYY
write_backY
yolo_boxYYYYY

附加算子

加上附加算子共计 278 个,需要在编译时打开 --with_extra=ON 开关才会编译,具体请参考参数详情

OP_nameARMOpenCLMetal昆仑芯XPUHostX86寒武纪mlu华为昇腾NPU联发科APU华为麒麟NPU颖脉NNA芯原TIM-VXAndroid NNAPIIntel OpenVINO
absYYYYYY
acosY
affine_channelY
affine_gridY
anchor_generatorYY
arg_maxYYYYYYYY
arg_minY
argsortY
asinY
assignYYY
assign_valueYY
atanY
attention_padding_mask
axpyY
batch_normYYYYYYYYYY
beam_searchY
beam_search_decodeY
bilinear_interpYYYYYYYY
bilinear_interp_v2YYYYYYYY
box_clipYY
box_coderYYYYYY
calibYYYYY
calib_onceYYYY
castYYYYYY
clipYYYYYY
collect_fpn_proposalsY
concatYYYYYYYYYYY
conditional_blockY
conv2dYYYYYYYYYYYYY
conv2d_transposeYYYYYYYYYY
conv3dY
correlationYY
cosYY
cos_simY
crf_decodingY
cropY
crop_tensorY
ctc_alignY
cumsumYY
decode_bboxesY
deformable_convYYY
density_prior_boxYYY
depthwise_conv2dYYYYYYYYYYYY
depthwise_conv2d_transposeYY
dequantize_linear
distribute_fpn_proposalsY
dropoutYYYYYYYYYY
elementwise_addYYYYYYYYYYYYY
elementwise_divYYYYYYYYYYY
elementwise_floordivYYY
elementwise_maxYYYYYYYYY
elementwise_minYYYYYYYY
elementwise_modYYY
elementwise_mulYYYYYYYYYYYY
elementwise_powYYYYYY
elementwise_subYYYYYYYYYYY
eluYY
equalYYYY
erfY
expYYYYYYY
expandYY
expand_asY
expand_v2YYY
fake_channel_wise_dequantize_max_abs
fake_channel_wise_quantize_dequantize_abs_max
fake_dequantize_max_abs
fake_quantize_abs_max
fake_quantize_dequantize_abs_max
fake_quantize_dequantize_moving_average_abs_max
fake_quantize_moving_average_abs_max
fake_quantize_range_abs_max
fcYYYYYYYYYYYY
feedYY
fetchYY
fill_any_likeYYYY
fill_constantYYY
fill_constant_batch_size_likeYYYY
fill_zeros_likeYY
flattenYYYYYYYYYY
flatten2YYYYYYYYYY
flatten_contiguous_rangeYYYYYY
flipY
floorYYYY
fusion_elementwise_add_activationYYYYYYYY
fusion_elementwise_div_activationYYYYYYY
fusion_elementwise_max_activationYYYYY
fusion_elementwise_min_activationYYYYY
fusion_elementwise_mul_activationYYYYYYY
fusion_elementwise_pow_activationYY
fusion_elementwise_sub_activationYYYYYYY
gatherYYYYYYY
gather_ndY
gather_treeY
gaussian_randomY
geluYYYYYY
generate_proposalsYY
generate_proposals_v2Y
greater_equalYYY
greater_thanYYYY
grid_samplerYYYY
group_normYYY
gruYYY
gru_unitYYY
hard_sigmoidYYYYYYYY
hard_swishYYYYYYYYY
im2sequenceYY
incrementYY
index_selectY
instance_normYYYYY
inverseY
io_copyYYYY
io_copy_onceYYY
is_emptyYY
layer_normYYYYYY
layoutYYYY
layout_onceYY
leaky_reluYYYYYYYYYY
less_equalYYY
less_thanYYYY
linspaceY
lod_array_lengthYY
lod_resetY
logYYYYYY
logical_andYYYY
logical_notYYYY
logical_orY
logical_xorY
lookup_tableYYY
lookup_table_dequantY
lookup_table_v2YYYYY
lrnYYYY
lstmY
match_matrix_tensorYY
matmulYYYYYYYYY
matmul_v2YYYYYYYY
matrix_nmsY
max_pool2d_with_indexYY
meanY
merge_lod_tensorY
meshgridYY
mishYY
mulYYYY
multiclass_nmsY
multiclass_nms2Y
multiclass_nms3Y
nearest_interpYYYYYYYYY
nearest_interp_v2YYYYYYYY
negativeY
normYYYYY
not_equalYYY
one_hotY
one_hot_v2Y
p_normY
pad2dYYYYYYY
pad3dYYY
pixel_shuffleYYYY
polygon_box_transformY
pool2dYYYYYYYYYYYYY
powYYYYY
preluYYYYYY
printY
prior_boxYYY
quantize_linear
rangeYY
read_from_arrayYY
reciprocalYYY
reduce_allYY
reduce_anyYY
reduce_maxYYYYY
reduce_meanYYYYYYY
reduce_minYYYY
reduce_prodYYY
reduce_sumYYYYYY
reluYYYYYYYYYYYYYY
relu6YYYYYYYYYYYYY
relu_clippedYY
reshapeYYYYYYYYYYY
reshape2YYYYYYYYYYY
retinanet_detection_outputY
reverseY
rnnYYY
roi_alignYY
roi_perspective_transformY
rsqrtYYYYY
sampling_idY
scaleYYYYYYYYYYY
scatterY
scatter_nd_addY
search_aligned_mat_mulY
search_attention_padding_maskY
search_fcY
search_grnnYY
search_group_paddingY
search_seq_arithmeticYY
search_seq_depaddingY
search_seq_fcY
search_seq_softmaxY
select_inputY
sequence_arithmeticYY
sequence_concatYY
sequence_convYY
sequence_expandY
sequence_expand_asYY
sequence_maskYY
sequence_padYY
sequence_poolYYY
sequence_reshapeY
sequence_reverseYY
sequence_softmaxY
sequence_topk_avg_poolingYY
sequence_unpadYY
shapeYYYY
shuffle_channelYYYYYYY
sigmoidYYYYYYYYYYYY
signYY
sinYY
sliceYYYYYYYY
softmaxYYYYYYYYYYYYY
softplusYYYY
softsignYY
sparse_conv2dY
splitYYYYYYYY
split_lod_tensorY
sqrtYYYY
squareYYYYYYY
squeezeYYYYYYYY
squeeze2YYYYYYYY
stackYYYY
strided_sliceYYY
subgraphY
sumYYY
swishYYYYYYY
sync_batch_normYYY
tanY
tanhYYYYYYYYY
tensor_array_to_tensorY
thresholded_reluYY
tileYYY
top_kYYY
top_k_v2YY
transposeYYYYYYYYYYY
transpose2YYYYYYYYYYY
tril_triuY
unbindY
unfoldY
uniform_randomY
unique_with_countsY
unsqueezeYYYYYY
unsqueeze2YYYYYY
unstackYY
var_conv_2dYY
whereYY
where_indexY
whileY
write_backY
write_to_arrayYY
yolo_boxYYYYY
__xpu__bigruY
__xpu__conv2dY
__xpu__dynamic_lstm_fuse_opY
__xpu__embedding_with_eltwise_addY
__xpu__fcY
__xpu__generate_sequenceY
__xpu__logitY
__xpu__mmdnn_bid_emb_attY
__xpu__mmdnn_bid_emb_grnn_attY
__xpu__mmdnn_bid_emb_grnn_att2Y
__xpu__mmdnn_match_conv_topkY
__xpu__mmdnn_merge_allY
__xpu__mmdnn_search_attentionY
__xpu__mmdnn_search_attention2Y
__xpu__multi_encoderY
__xpu__multi_softmaxY
__xpu__resnet50Y
__xpu__resnet_cbamY
__xpu__sfa_headY
__xpu__softmax_topkY
__xpu__squeeze_excitation_blockY