错误|自动检索、修复Python代码bug,微软推出DeepDebug 在本篇论文中,来自微软Cloud+AI部门的研究者介绍了DeepDebug,一种使用大型预训练模型transfor... 2021-08-11
序列|DeepMind开源的AlphaFold怎么用?打开Colab就能在线用 前段时间,《自然》杂志刊登了DeepMind的两篇论文,介绍了该公司在蛋白质结构预测方向的最新... 2021-07-30
模型|超越全系列YOLO、Anchor-free+技巧组合,旷视开源性能更强的YOLOX 获得了超越YOLOv3、YOLOv4和YOLOv5的AP,而且取得了极具竞争力的推理速度。随着目标检测技术的发... 2021-07-22
生成器|Transformer也能生成图像,新型ViTGAN性能比肩基于CNN的GAN 近日,加州大学圣迭戈分校与GoogleResearch的一项研究提出了使用视觉Transformer来训练GAN。为了有... 2021-07-19
模型|AI都会写灵魂Rap了?Transformer跨界说唱,节奏流畅度都不在话下 给你一段Rap,你能看出这是AI写的吗?仔细品味,也能发现这段词中的美中不足之处,但这作词... 2021-07-08
MoCo|Swin Transformer为主干,清华等提MoBY自监督学习方法代码已开源 近两年来,计算机视觉领域经历了两次重大转变,第一次是由MoCo(MomentumContrast)开创的自监督... 2021-07-07
局部|CVPR 2021 | 超越卷积,自注意力模型HaloNet准确率实现SOTA 与卷积的参数依赖(parameter-dependent)缩放和内容无关(content-independent)交互相比,注意力场具... 2021-06-10
长度|傅里叶变换取代Transformer自注意力层,谷歌这项研究GPU上快7倍、TPU上快2倍 Transformer自2017年推出以来,其架构就开始在NLP领域占据主导地位。Transformer应用的唯一限制之一... 2021-05-17
架构|前馈网络+线性交互层=残差MLP,Facebook纯MLP图像分类架构入场 近日,Facebook提出了具有数据高效训练、用于图像分类的纯MLP架构ResMLP,当采用现代的训练方法... 2021-05-11
表现|Rookie首谈S10决赛,获胜最重要因素是上路,其次是Sofm表现 较为公认的分析是DWG要比SN更为稳定,但sofm一定是DWG的心腹大患,如果DWG能通过野区控制和线... 2020-10-29
RNG战队|TS花式吊打RNGM,胜者组实力断层,取消东西分区是否公平? 如果成都AG超玩会在对阵杭州LGD大鹅的比赛中,以1-3或者0-3的比分输掉的话,那么WB.TS将有机会... 2020-11-22