cover_image

ICLR 2020 | 抛开卷积,multi-head self-attention能够表达任何卷积操作

VincentLee 晓飞的算法工程笔记
继续滑动看下一个
向上滑动看下一个