新溪-gordon
V2025.02
AI
1. 常用
1.1. 常用
1.2. AIGC
1.3. 机器学习machine learning
1.4. BI(Business Intelligence)
1.5. 深度学习
1.5.1. 常用
1.5.2. 历史
1.6. monitor
1.7. 相关算法
1.8. 工具
1.9. 常见问题
1.10. 机器人领域
2. 理论
2.1. ReAct框架
2.2. Reflection反思
2.3. 数学
2.4. bag-of-words
2.5. Word2Vec
2.6. Doc2Vec
2.7. FastText
2.8. LDA-Latent Dirichlet Allocation(潜在狄利克雷分配)
2.9. overfitting&underfitting
2.10. evaluate评估
2.11. RAG
2.12. Agent
2.13. LLM
2.14. RL-强化学习
2.15. Prompt Engineering
2.16. LLM调优(finetune)
3. 大模型
3.1. 常用
3.1.1. 常用
3.1.2. 依赖安装
3.1.3. 编码-解码器
3.1.4. 使用
3.1.5. 临时
3.2. 著名模型
3.2.1. LLaMA
3.2.2. ChatGLM
3.2.3. DeepSeek-R1-推理模型
3.2.4. BERT
3.2.5. GPT
3.2.6. BART
3.2.7. T5
3.2.8. ChatRWKV
3.2.9. Open-Assistant
3.3. 调优
3.4. 文件格式
3.4.1. GGML系列文件格式
3.4.2. ONNX
常用
ONNX
onnxruntime
skl2onnx
3.4.3. NCNN
3.5. 商业项目
3.5.1. 常用
3.5.2. OpenAI
3.6. Prompt 提示词
3.6.1. 中文
3.6.2. English
3.6.3. 示例
4. NLP
4.1. 常用
4.2. 预处理
4.2.1. 常用
4.2.2. 关键词提取
4.2.3. 分词
4.2.4. 情感分析
4.2.5. 文本表示
4.2.6. 注意力机制
4.2.7. 语言模型
4.3. NER-命名实体识别
4.3.1. 常用
4.3.2. 序列标注
4.3.3. BiLSTM+CRF
4.3.4. 历史
4.4. 总结-摘要
4.4.1. 通用
5. 函数库
5.1. 常用
5.2. Image图像处理
5.3. Video视频
5.4. IPython
5.4.1. 常用
5.4.2. 魔法命令
5.4.3. display函数
5.5. Jupyter
5.6. NumPy
5.6.1. 通用
5.6.2. Ndarray 对象
5.6.3. 通用函数
5.7. Pandas
5.7.1. 常用
5.7.2. 实例-subset
5.7.3. 实例-统计分析
5.7.4. 利用pandas实现SQL操作
5.7.5. 实例-缺失值的处理
5.7.6. 多层索引的使用
5.7.7. 实践
实践-2012年奥巴马总统连任选举
5.7.8. API-输入输出
5.7.9. API-General functions
5.7.10. API-Series
5.7.11. API-DataFrame
5.7.12. API-index
5.8. Matplotlib
5.8.1. 基本
5.8.2. 安装
5.8.3. pyplot
5.8.4. matplotlib.patches
5.8.5. 实例
折线图plot
条形图bar
直方图hist
散点图scatter
面积图stackplot
饼图pie
箱型图box
多图合并multi
5.8.6. pylab子包
5.9. SciPy
5.9.1. 常用
5.10. sklearn
5.10.1. 常用
5.10.2. 监督学习
广义线性模型
5.10.3. 无监督学习
5.11. statsmodels
5.12. OpenCV
5.12.1. 常用
5.12.2. 实例
5.12.3. 代码类结构
5.13. Seaborn
5.13.1. 常用
5.14. jieba中文分词
5.15. gensim: 文本主题建模和相似性分析
5.15.1. 常用
5.15.2. Core Tutorials
5.15.3. Tutorials: Learning Oriented Lessons
5.15.4. How-to Guides: Solve a Problem
5.16. LAC-百度词法分析工具
6. 学习框架
6.1. 常用
6.2. PyTorch
6.2.1. 常用
6.2.2. nn模块
6.2.3. PyTorch
6.2.4. ExecuTorch
6.2.5. torchrun (Elastic Launch)
6.3. huggingface
6.3.1. 常用
Hugging Face Hub
Hub Python Library
Datasets
Text Generation Inference
Evaluate
6.3.2. Transformers
Transformers
Transformers 4.45.2
6.3.3. Tokenizers
6.3.4. PEFT
PEFT
PEFT 0.13.0
6.3.5. Accelerate
6.3.6. TRL - Transformer Reinforcement Learning
6.3.7. 收集
resources
model
博文: decoding methods of LLM with transformers
6.4. vLLM
6.4.1. 常用
6.4.2. vLLM官方文档
6.5. DeepSpeed
6.5.1. huggingface
6.5.2. Zero Redundancy Optimizer (ZeRO)
6.5.3. DeepSpeed
6.6. cuda
6.7. mxnet库
6.7.1. nd模块
ndarray
ndarray.random
6.7.2. gluon模块
6.7.3. autograd模块
6.8. tensorflow
6.9. Keras
6.9.1. 常用
6.9.2. 实例
二分类问题
多分类问题
回归问题
6.10. 其他
7. 关键网站
7.1. Papers with Code
7.2. Kaggle
7.3. ArXiv 学术论文预印本平台
7.4. 视频相关
7.5. 通用
8. 实践
8.1. OCR
8.1.1. 常用
8.2. AIML
8.2.1. 常用
8.2.2. AIML 2.1 Documentation
9. 开源项目
9.1. Agent
9.2. RAG
9.3. 常用
9.4. UI界面
9.5. 调优
9.6. 搜索
9.7. LLM Inference Engines
9.8. 模型推理平台
9.9. LLM推理加速
9.10. LLM评估
9.11. AI平台
10. 数据集
10.1. 常用
10.2. 中文数据集
10.3. dataset
10.4. 数据集相关网站
11. 常见模型
12. Evaluate评测
12.1. 通用
12.2. TruLens
12.3. Ragas
12.4. DeepEval
12.5. UpTrain
12.6. evaluate
新溪-gordon
Docs
»
6.
学习框架
»
6.3.
huggingface
»
6.3.4.
PEFT
View page source
主页
索引
模块索引
搜索页面
6.3.4.
PEFT
¶
PEFT
GET STARTED
安装
Quicktour
PeftConfig
PeftModel
Save and load a model
Easy loading with Auto classes
TASK GUIDES
Image classification using LoRA
Install dependencies
a helper function
Load and prepare a model
run inference
Prefix tuning for conditional generation
Setup
Load dataset
Preprocess dataset
Train model
Inference
Prompt tuning for causal language modeling
Setup
Load dataset
Train
Inference
Semantic segmentation using LoRA
Prepare datasets for training and evaluation
Load a base model
Wrap the base model as a PeftModel for LoRA training
P-tuning for sequence classification
Setup
Load dataset and metric
Train
Inference
CONCEPTUAL GUIDES
LoRA
Merge LoRA weights into the base model
Utils for LoRA
Common LoRA parameters in PEFT
Prompting
Prompt tuning
Prefix tuning
P-tuning
与Lora的区别-fromGPT
IA3
参考
PEFT 0.13.0
GET STARTED
Quicktour
train with the Trainer class
Inference
PEFT method guides
IA3
Developer guides
Model merging
Merge method
Merging (IA)³ Models
Quantization
LoRA
Initialization
Optimizers
Merge LoRA weights into the base model
Load adapters
Inference with different LoRA adapters in the same batch
注意事项
Custom models
Multilayer perceptron
Adapter injection
Creating a new PEFT model
Saving the model
Loading the model
查看相关参数-fromGPT
Mixed adapter types
torch.compile
PEFT checkpoint format
PEFT files
Convert to PEFT format
Accelerate integrations
DeepSpeed
Fully Sharded Data Parallel
Conceptual guides
Adapters
Low-Rank Adaptation (LoRA)
Mixture of LoRA Experts (X-LoRA)
Low-Rank Hadamard Product (LoHa)
Low-Rank Kronecker Product (LoKr)
Orthogonal Finetuning (OFT)
Orthogonal Butterfly (BOFT)
Adaptive Low-Rank Adaptation (AdaLoRA)
Llama-Adapter
Soft prompts
Multitask prompt tuning
IA3
优点
Common IA3 parameters in PEFT
参考
主页
索引
模块索引
搜索页面