Kernel

  • CV面经记录

    Attention机制 核心逻辑是“从关注一切到专注” Attention优点 1、参数少:模型复杂度跟 CNN、RNN 相比,复杂度更小,参数也更少。所以对算力的要求也就更小。 …

    技术文章 2022年3月30日
    7240
此站出售,如需请站内私信或者邮箱!