AI
主页
索引
模块索引
搜索页面
GitHub: https://github.com/confident-ai/deepeval
文档: https://docs.confident-ai.com/docs/getting-started
The LLM Evaluation Framework
DeepEval 是一个简单易用的开源LLM评估框架。它类似于 Pytest,但专门用于单元测试LLM输出。