3.1.1. 常用¶
GPT-2 - OpenAI发布的大规模无监督语言模型,能生成人类语言: https://github.com/openai/gpt-2
BERT - Google发布的大规模语言表示模型,广泛用于NLP任务中: https://github.com/google-research/bert
ELMo - 语言模型,能学习上下文相关的语义表示: https://github.com/allenai/allennlp/blob/master/tutorials/how_to/elmo.md
ULMFiT - 通用语言表征模型,首次证明了通过微调语言模型来进行迁移学习的效果: https://github.com/fastai/fastai/blob/master/courses/dl2/lesson4.ipynb
Transformer - Google发布的神经网络模型,应用于机器翻译与语言理解: https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/transformer.py
XLNet - Google Brain和CMU发布的新型语言表示模型,能建模双向上下文: https://github.com/zihangdai/xlnet
RoBERTa - Facebook发布的强大的预训练语言模型,是BERT的强化版: https://github.com/pytorch/fairseq/tree/master/examples/roberta
T5 - Google的统一文本到文本框架,建立在Transformer之上,可用于多任务学习: https://github.com/google-research/text-to-text-transfer-transformer
开源大型语言模型排行榜2023:
Rank Model Elo Level Description
1 vicuna-13b 1169 LLaMA user dialog tuning assistant for LMSYS
2 koala-13b 1082 BAIR academic research conversation model
3 oast-pythia-12b 1065 LAION open chatbot for everyone
4 alpaca-13b 1008 LLaMA instruction following micro-adjustment model in Stanford demo
5 chatglm-6b 985 ClearHK double language conversation model
6 fastchat-t5-3b 951 LMSYS fine-tuning conversational agent from FLAN-T5
7 dolly-v2-12 944 Databricks directive optimization large language model
8 llama-13b 932 Meta efficient base language model
9 stablem-tuned-alpha-7b 858 Stability AI language model
基于 LLaMA 的 Alpaca 和 Vicuna
基于 Pythia 的 OpenAssistant 和 Dolly
演进¶
CV:
VIT
Stable Diffusion
LayoutLM
Audio:
Whisper
XLS-R
CLIP¶
CLIP (Contrastive Language-Image Pre-Training)是一种对抗式多模态预训练模型,由OpenAI提出,主要用于图像和文本的联合表示学习。
其主要特点和创新点包括:
- 提出了一种对抗式学习框架,让图像和文本embedding在联合嵌入空间里相似的表示聚集,不同的表示分离开来。
- 构建了大规模图像-文本数据集进行预训练,包含400万张图像和120万个文本描述。
- 设计了浅层的图像模型(Vision Transformer)和文本模型(Transformers),通过大量数据预训练获得通用的多模态表示。
- 无需微调,预训练模型可以直接迁移到下游视觉和语言任务,达到或超过专业化模型的效果。
- 在多个视觉(图像分类、目标检测等)和语言(问答、摘要等)任务上都取得了state-of-the-art的结果。
CLIP的创新之处在于证明了大规模预训练的有效性,只需要简单的模型和大量数据就可以学习非常强大的联合嵌入表示。它为多模态领域打开了新的研究方向,也启发了后续一系列相关的预训练模型。CLIP被广泛应用于多模态任务中,是这个领域的重要基础技术之一。
资源¶
An awesome & curated list of best LLMOps tools for developers: https://github.com/tensorchord/Awesome-LLMOps
Awesome series for Large Language Model(LLM)s: https://github.com/KennethanCeyer/awesome-llm
📋 A list of open LLMs available for commercial use: https://github.com/eugeneyan/open-llms
transformers 系列的介绍以及在下游任务中的使用: https://www.cnblogs.com/dongxiong/p/12763923.html
LocalAI¶
Self-hosted, community-driven, local OpenAI compatible API. Drop-in replacement for OpenAI running LLMs on consumer-grade hardware. Free Open Source OpenAI alternative. No GPU required. Runs ggml, gguf, GPTQ, onnx, TF compatible models: llama, llama2, gpt4all, rwkv, whisper, vicuna, koala, cerebras, falcon, dolly, starcoder, and many others