探索 大语言模型 项目
筛选并发现收录的、配有高质量中文文档或教程的 GitHub 项目。
为 AI 代理提供通用记忆层,支持可扩展、可扩展和可互操作的记忆存储与检索,实现下一代自主系统的状态管理。主要语言 Python。
高性能 LLM 推理 API 与聊天界面,融合 DeepSeek R1 的链式思考推理与 Anthropic Claude 的创意代码生成能力。基于 Rust 构建,提供零延迟流式响应、私有安全的 BYOK API 管理,并支持高度可配置与开源部署。
一个统一的 AI 平台,从管道到智能体。支持任何 Python 逻辑,自动容器化、追踪运行、抽象基础设施复杂性,并集成 MLflow、Langgraph 等工具,助力快速迭代实验。
开源评估与测试库,用于 LLM 代理。自动检测 AI 应用中的性能、偏见和安全问题,支持 RAG 评估工具包 (RAGET) 生成测试集并评估各组件,兼容多种模型与环境。
VS Code 扩展,自主编码代理。将想法转化为代码,支持网站、仪表盘、服务器开发。提供调试、部署、网络搜索功能,适合各水平开发者。加速开发流程,让编码更高效。
端到端框架,用于构建自定义 AI 应用和智能体。支持多种数据库后端,如 MongoDB、SQL、Snowflake 和 Redis。基于 Python,提供插件化架构,便于集成现有工具。
lakeFS 是开源数据湖版本控制工具,提供类 Git 的数据管理能力。支持 AWS S3、Azure Blob Storage 和 Google Cloud Storage,兼容 S3 API,可与 Spark、Hive 等框架无缝集成。实现可重复、原子性的数据湖操作,适用于 ETL 测试、数据科学和分析。
非官方 Python 包,通过 Cookie 值调用 Google Bard API。适用于无法通过官方认证的用户。项目已停止维护,建议转向 Gemini API。
自托管 AI 会计应用。支持 LLM 分析收据、发票和交易,可自定义提示和分类。主要语言 TypeScript,提供多币种支持(含加密货币)和本地 LLM 兼容。
提供 Chronos 系列预训练时间序列预测模型接口,支持零样本单/多变量及协变量预测。Chronos-2 性能领先,Chronos-Bolt 速度提升 250 倍,内存效率更高。支持 Hugging Face 模型与 SageMaker 部署。
跨平台桌面 AI 助手与 MCP 客户端。兼容主流服务提供商,支持通过 MCP 服务器接入本地知识库与工具。基于 TypeScript 构建,提供文件系统访问、数据库交互等扩展能力。
开源程序合成模型家族,由 Salesforce AI Research 开发。包含 CodeGen1 和 CodeGen2 系列,参数规模从 350M 到 16B,性能媲美 OpenAI Codex。提供多版本模型,支持 Hugging Face Hub 调用。
精选 LLM/VLM 推理论文与代码库,涵盖 Flash-Attention、Paged-Attention、WINT8/4、并行化等技术。提供 PDF 下载与分类索引。
基于 ML、LLM 和 Vision LLM 实现结构化数据提取与指令调用。支持多格式文档处理、可插拔架构、多种后端(MLX、Ollama、vLLM、Hugging Face)及 RESTful API。提供交互式 Web 界面,支持拖拽上传与实时处理。
基于 KVCache 的 LLM 服务解耦架构,为 Kimi 提供高性能推理平台,支持 Transfer Engine 和 Mooncake Store 开源。
多模型协作开发系统,Claude 编排 + Codex 后端 + Gemini 前端,28 个命令覆盖全流程,一键安装零配置,安全设计无写权限。
新一代超大规模 MoE 模型训练引擎。支持无丢弃训练、长序列支持及卓越效率,训练规模可达 1T 参数。优化 Ascend NPU,兼容 GPU 与 NPU 硬件。
Copilot 是 opencx-labs/copilot 项目,主要使用 TypeScript 开发。项目已不再维护。
基于 GPTQ 算法的易用 LLM 量化包,提供用户友好的 API。支持 int4 量化,提升推理速度并降低显存占用。已集成至 Transformers 等框架。