自然语言处理知识点
发表于|更新于|自然语言处理
|总字数:35|阅读时长:1分钟|浏览量:
- 自然语言处理(NLP)
- 词嵌入(Word2Vec、GloVe、FastText)
- 文本分类与序列标注(BiLSTM-CRF)
- 预训练语言模型微调技巧
文章作者: KK
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 一只大笨熊!
相关推荐

2025-07-22
深度学习基础知识总结
...

2025-07-22
深度学习进阶
三、深度学习进阶 模型压缩与加速 知识蒸馏(Knowledge Distillation) 剪枝(Pruning)、量化(Quantization) 模型部署(ONNX、TensorRT)

2025-07-22
Python基础知识点
1. python的多进程,多线程,没有真正意义上的多线程,为什么这么设计 Python中"多线程没有真正意义上的并行"这一现象,核心原因在于GIL(Global Interpreter Lock,全局解释器锁) 的存在,这是CPython解释器(Python最主流的实现)的设计决策。要理解这一点,需要从GIL的作用、设计初衷以及多线程/多进程的本质差异说起。 1. 什么是GIL? GIL是CPython解释器中的一把互斥锁,它的核心作用是:确保同一时间只有一个线程能执行Python字节码。 无论你的CPU有多少核心,只要在CPython解释器中,多线程执行Python代码时,都会被GIL限制——同一时刻只能有一个线程运行,其他线程必须等待GIL释放。 2....

2025-07-22
大模型各种算子手撕(实现)
注意力机制的代码实现- 1234567891011121314151617181920212223242526272829import torchimport torch.nn as nnimport torch.nn.functional as Ffrom math import sqrtclass SelfAttention(nn.Module): def __init__(self, input_dim, dim_k, dim_v): super(SelfAttention, self).__init__() self.q = nn.Linear(input_dim, dim_k) self.k = nn.Linear(input_dim, dim_k) self.v = nn.Linear(input_dim, dim_v) self.norm = sqrt(dim_k) def forward(self, x): Q =...

2025-07-22
Python的ACM模式输出入
输入 1. 单行输入多个整数 12nums = list(map(int, input().split()))print(sum(nums)) 2.多行输入(行数n未知) 12345678910111213# 方法1while True: try: nums = list(map(int, input().split())) print(sum(nums)) except EOFError: break# 方法2import sysfor line in sys.stdin: nums = list(map(int, line.split())) print(sum(nums)) 3.多行输入(行数n已知) 1234t = int(input())for _ in range(t): nums = list(map(int, input().split())) print(sum(nums)) 4. 多个测试用例,每个测试用例包含多行数据 123456t = int(input())for _ in...

2025-07-22
机器学习各种算法手撕(实现)
1. 手撕 k-means 算法 1234567891011121314151617181920212223242526272829303132333435import numpy as npimport matplotlib.pyplot as pltdef kmeans(data, K, max_iterations=100): # 随机初始化K个簇中心点 centers = data[np.random.choice(data.shape[0], K, replace=False)] # 迭代更新中心点 for _ in range(max_iterations): # 计算每个样本到各个中心点的距离 distances = np.linalg.norm(data[:, None] - centers, axis=2) # 等价于distances = np.linalg.norm(X[:, np.newaxis, :] - centers, axis=2) # 分配每个数据点到最近的簇 labels =...
评论