文章目录 一、完整代码二、论文解读2.1 介绍2.2 Self-Attention is Low Rank2.3 模型架构2.4 结果 三、整体总结 论文:Linformer: Self-Attention with Linear Complexity 作者:Sinong Wang, Belinda Z. Li, Madian Khabsa, Han Fang, Hao Ma 时间&#…
背景
在进行代码扫描的时候,发现使用sonar,会提示“Refactor this method to reduce its Cognitive Complexity from 31 to 15 allowed等类似的提示。
翻译成为中文就是:重构方法,以将代码认知复杂度从31降到15。
简单点来理解…
一、拉入ExeinfoPe分析 二、拉入64位IDA分析
进入main函数,F5查看伪代码
// local variable allocation has failed, the output may be wrong!
int __cdecl main(int argc, const char **argv, const char **envp)
{int v4; // [rsp14h] [rbp-Ch]unsigned __int6…