Welcome to bg51717's Wiki and Blog
nlp常用排行榜 nlp常用排行榜
介绍 在工作和学习的时候发现,很多时候挑选合适的模型和数据集等也是一个重要且麻烦的过程。发现有很多相关的评测的排行榜,根据这些实时更新的排行榜,可以辅助我们进行选择模型等前期工作。 Spaces - Hugging Face 这里罗列了许多
pytroch_tutorials杂项 pytroch_tutorials杂项
介绍 当作快速过这个资料的笔记,一些关于别的库的介绍是不完全的,考虑在使用的时候从别的信息渠道就行信息的搜集。也可以作为后面待更博客列举? 常用方式 可以参考huggingface transformers教程总结 - 知乎 (zhihu.
pytorch_model pytorch_model
介绍 作为深度学习的基本模板使用,方便使用的时候作为骨架 许多文件可以考虑添加argparse和sh来引入外部配置来抽象过程,增强代码重用性 dataset.py 这个文件提供了各种数据集的定义,自定义数据集需要实习三个主要函数 class
2024-02-24
信息熵 信息熵
信息熵的公式 计算信息熵的公式为: \[ H(x)=-\sum p(x_i)logp(x_i) \] 其中\(p(x_i)\)表示事件结果为\(x_i\)的概率 理解 信息熵表示对事件不确定性的一个度量,计算思路为“编码一个事件的最短平均编
pytroch_tutorials杂项 pytroch_tutorials杂项
介绍 当作快速过这个资料的笔记,一些关于别的库的介绍是不完全的,考虑在使用的时候从别的信息渠道就行信息的搜集。也可以作为后面待更博客列举? 具体 torchscript Introduction to TorchScript — PyTor
2023-12-29
Adam Optimizer Adam Optimizer
背景 传统的随机梯度下降算法SGD(Stochastic Gradient Descent)的式子为: \[ \theta_{t+1} \leftarrow \theta_{t} -\alpha \nabla_{\theta_{t}}J_{
依赖分析Dependency Parsing 依赖分析Dependency Parsing
介绍 这里介绍两种语义结构: Constituency Parsing:句法分析,Context-free grammars(CFGs),上下文无关语法,赋予每个单词一个词性类别,单词组合成短语,短语递归形成更大的短语 Dependenc
矩阵偏分 矩阵偏分
在学习深度学习的过程中,很多次遇到了矩阵求导的问题,发现网上很多教程写的不是很好理解,记录自己的浅薄认知. (矩阵求导有分子转置(和分子行数一样)和分母转置(和分母行数一样)两种,两种结果互为转置。本篇介绍的不太一样,因为很多教程也是混杂
GloVe GloVe
介绍 相比Word2Vec的局部训练,GloVe可以使用全局的语料统计信息来训练,可以预先计算全局语料库统计数据来提高训练数据. 带全局语料统计的跳元模型 用\(q_{ij}\)表示词\(w_j\)的条件概率\(P(w_j|w_i)\),在
3 / 4