新溪-gordon
V1.7.20
AI
1. 常用
1.1. 常用
1.2. AIGC
1.3. 关键定义
1.4. 机器学习machine learning
1.5. BI(Business Intelligence)
1.6. 深度学习
1.6.1. 常用
1.6.2. 历史
1.7. monitor
1.8. 相关算法
1.9. 工具
1.10. 常见问题
2. 理论
2.1. ReAct框架
2.2. Reflection反思
2.3. 数学
2.4. bag-of-words
2.5. Word2Vec
2.6. Doc2Vec
2.7. FastText
2.8. LDA-Latent Dirichlet Allocation(潜在狄利克雷分配)
2.9. overfitting&underfitting
2.10. evaluate评估
2.11. RAG
2.12. Agent
2.13. LLM
2.14. Prompt Engineering
2.15. LLM调优(finetune)
3. 大模型
3.1. 常用
3.1.1. 常用
3.1.2. 依赖安装
3.1.3. 编码-解码器
3.1.4. 使用
3.1.5. 临时
3.2. 著名模型
3.2.1. LLaMA
3.2.2. ChatGLM
3.2.3. BERT
3.2.4. GPT
3.2.5. BART
3.2.6. T5
3.2.7. ChatRWKV
3.2.8. Open-Assistant
3.3. 调优
3.4. 文件格式
3.4.1. GGML系列文件格式
3.4.2. ONNX
常用
ONNX
onnxruntime
skl2onnx
3.4.3. NCNN
3.5. 商业项目
3.5.1. 常用
3.5.2. OpenAI
3.6. Prompt 提示词
3.6.1. 中文
3.6.2. English
3.6.3. 示例
4. NLP
4.1. 常用
4.2. 预处理
4.2.1. 常用
4.2.2. 关键词提取
4.2.3. 分词
4.2.4. 情感分析
4.2.5. 文本表示
4.2.6. 注意力机制
4.2.7. 语言模型
4.3. NER-命名实体识别
4.3.1. 常用
4.3.2. 序列标注
4.3.3. BiLSTM+CRF
4.3.4. 历史
4.4. 总结-摘要
4.4.1. 通用
5. 函数库
5.1. 常用
5.2. Image图像处理
5.3. Video视频
5.4. IPython
5.4.1. 常用
5.4.2. 魔法命令
5.4.3. display函数
5.5. Jupyter
5.6. NumPy
5.6.1. 通用
5.6.2. Ndarray 对象
5.6.3. 通用函数
5.7. Pandas
5.7.1. 常用
5.7.2. 实例-subset
5.7.3. 实例-统计分析
5.7.4. 利用pandas实现SQL操作
5.7.5. 实例-缺失值的处理
5.7.6. 多层索引的使用
5.7.7. 实践
实践-2012年奥巴马总统连任选举
5.7.8. API-输入输出
5.7.9. API-General functions
5.7.10. API-Series
5.7.11. API-DataFrame
5.7.12. API-index
5.8. Matplotlib
5.8.1. 基本
5.8.2. 安装
5.8.3. pyplot
5.8.4. matplotlib.patches
5.8.5. 实例
折线图plot
条形图bar
直方图hist
散点图scatter
面积图stackplot
饼图pie
箱型图box
多图合并multi
5.8.6. pylab子包
5.9. SciPy
5.9.1. 常用
5.10. sklearn
5.10.1. 常用
5.10.2. 监督学习
广义线性模型
5.10.3. 无监督学习
5.11. statsmodels
5.12. OpenCV
5.12.1. 常用
5.12.2. 实例
5.12.3. 代码类结构
5.13. Seaborn
5.13.1. 常用
5.14. jieba中文分词
5.15. gensim: 文本主题建模和相似性分析
5.15.1. 常用
5.15.2. Core Tutorials
5.15.3. Tutorials: Learning Oriented Lessons
5.15.4. How-to Guides: Solve a Problem
5.16. LAC-百度词法分析工具
6. 学习框架
6.1. 常用
6.2. PyTorch
6.2.1. 常用
6.2.2. nn模块
6.2.3. ExecuTorch
6.3. huggingface
6.3.1. 常用
6.3.2. Hugging Face Hub
6.3.3. Hub Python Library
6.3.4. Datasets
6.3.5. Transformers
6.3.6. Transformers 4.45.2
6.3.7. Tokenizers
6.3.8. Text Generation Inference
6.3.9. Evaluate
6.3.10. PEFT
6.3.11. TRL - Transformer Reinforcement Learning
6.3.12. 博文: decoding methods of LLM with transformers
6.3.13. 收集
resources
model
6.4. mxnet库
6.4.1. nd模块
ndarray
ndarray.random
6.4.2. gluon模块
6.4.3. autograd模块
6.5. tensorflow
6.6. Keras
6.6.1. 常用
6.6.2. 实例
二分类问题
多分类问题
回归问题
6.7. 其他
7. 关键网站
7.1. Papers with Code
7.2. Kaggle
7.3. ArXiv 学术论文预印本平台
7.4. 视频相关
7.5. 通用
8. 关键定义
8.1. LLM
8.2. Sigmoid
8.3. ReLU(激活函数)
8.4. Leaky ReLU
8.5. Tanh
8.6. GELU
8.7. HMM-隐马尔可夫模型
8.8. WWM-Whole Word Masking
8.9. CRF-条件随机场
8.10. MLE-最大似然估计
8.11. ANN(NN)
8.12. 深度神经网络(Deep Neural Network, DNN)
8.13. 卷积神经网络(Convolutional Neural Network, CNN)
8.14. RNN: 循环神经网(Recurrent Neural Network, RNN)
8.15. LSTM: 长短时记忆(Long Short Term Memory, LSTM)
8.16. 判别式模型vs生成式模型
8.17. Embedding 模型
8.18. BPE
9. 实践
9.1. OCR
9.1.1. 常用
9.2. AIML
9.2.1. 常用
9.2.2. AIML 2.1 Documentation
10. 开源项目
10.1. Agent
10.2. RAG
10.3. 常用
10.4. UI界面
10.5. 调优
10.6. 搜索
10.7. LLM Inference Engines
10.8. 模型推理平台
10.9. LLM推理加速
10.10. LLM评估
10.11. AI平台
11. 数据集
11.1. 常用
11.2. 中文数据集
11.3. dataset
12. Evaluate评测
12.1. TruLens
12.2. Ragas
12.3. DeepEval
12.4. UpTrain
12.5. evaluate
新溪-gordon
Docs
»
6.
学习框架
»
6.3.
huggingface
»
6.3.12.
博文: decoding methods of LLM with transformers
View page source
主页
索引
模块索引
搜索页面
6.3.12.
博文: decoding methods of LLM with transformers
¶
主页
索引
模块索引
搜索页面