探索 大语言模型 项目
筛选并发现收录的、配有高质量中文文档或教程的 GitHub 项目。
高性能本地推理框架,支持NPU/GPU/CPU,覆盖PC、移动端及Linux/IoT,提供Day-0前沿模型支持,如Qwen3-VL、Gemma-3n等。
面向金融科技与银行的生产级 AI Agent 框架,以安全为核心。支持文档分析、客户服务自动化、金融分析与合规监控。提供内置安全引擎、统一 OCR 接口、多智能体协作及工具集成,快速构建可扩展的智能体系统。
开源浏览器扩展,为本地 AI 模型提供侧边栏和 Web UI,支持与任何网页内容交互。兼容 Chrome、Firefox、Edge 等浏览器,可通过 Ollama 或 OpenAI API 兼容端点使用。
开源深度研究工具,结合 LLM 与向量数据库,基于私有数据进行搜索、评估与推理,提供高精度答案与综合报告。支持多种 LLM 和嵌入模型,具备私有数据搜索、向量数据库管理及文档加载功能。
提供免费的 OpenAI GPT-4 API。TypeScript 版本的 xtekky/gpt4free 复现项目,支持多种模型,包括 GPT-4、Claude 等。
ERNIE 4.5 是基于飞桨的多模态大模型家族,包含 10 个变体,支持 MoE 架构与参数共享。ERNIEKit 提供工业级开发工具包,支持 SFT、LoRA 训练及多硬件部署,具备高效训练与推理能力。
LLM 漏洞扫描工具,用于检测生成式 AI 的幻觉、数据泄露、提示注入、误导信息、毒性生成及越狱等弱点。支持多种 LLM 接口,如 Hugging Face、OpenAI、AWS Bedrock 等。
提供全面的提示工程教程与实现,涵盖从基础到高级策略。包含 22 个 Jupyter Notebook 实践教程,助力掌握与大语言模型高效交互的技能。
开源 ML 和 LLM 可观测性框架。评估、测试和监控任何 AI 系统或数据管道。支持表格和文本数据。提供 100+ 内置指标。支持离线评估和实时监控。
193 个即插即用 AI 专家角色,覆盖 18 个部门,支持 14 种工具,含 46 个中国市场原创智能体,如小红书/抖音运营。
将代码库转换为单一大语言模型提示词的 CLI 工具。支持源码树、提示词模板和 Token 计数。提供 Rust 核心库、Python SDK 与 MCP 服务器。
🚀🎬 AI 框架,用于自动化 YouTube Shorts / TikTok 频道内容创作。支持多语言语音合成、视频剪辑、素材获取与字幕生成,基于 Python 构建。
开源 AI 研究技能库,包含 86 项技能,支持 AI 代理自主完成从构思到论文的全流程研究。提供研究编排与工程技能,适用于 Claude、Codex、Gemini 等模型。
InternLM 系列开源大模型,涵盖 InternLM、InternLM2、InternLM2.5 和 InternLM3。最新 InternLM3-8B-Instruct 以 4 万亿高质量 token 训练,成本降低超 75%,在推理与知识密集型任务上性能领先,支持深度思考与流畅对话模式。
交互式可视化工具,在浏览器中运行 GPT-2 模型,实时展示 Transformer 内部组件如何协同工作以预测下一个 token。
AI 驱动的下一代开源实时可观测性系统。统一指标与日志采集、集中告警分发、智能管理分析。无需 Agent,高性能集群,支持自定义监控与状态页构建。
ARIS ⚔️ 通过 Markdown 技能实现自主 ML 研究:跨模型评审循环、想法发现与实验自动化。零依赖、无框架锁定,兼容 Claude Code、Codex、OpenClaw 等任意 LLM 代理。
基于 Llama-2 的中文大模型,扩展中文词表并增量预训练,支持 4K/16K/64K 超长上下文,开源基座与指令精调模型,兼容主流 LLM 生态工具。
专为闲鱼平台打造的 AI 客服机器人系统,实现 7×24 小时自动化值守。支持多专家协同决策、智能议价和上下文感知对话,核心基于 Python 与 LLM 技术。
基于 OpenTelemetry 的开源可观测性方案,为 GenAI 或 LLM 应用提供完整追踪能力。支持多种观测平台,如 Datadog、Honeycomb 等。
基于 Rust 的高性能 LLM 推理框架,支持 HuggingFace 模型零配置运行,提供多模态能力、内置 Web UI 及硬件自动调优。支持 GGUF、GPTQ 等多种量化格式,具备连续批处理与 PagedAttention 加速。
基于 PyTorch 的开源神经机器翻译与大语言模型框架。支持 NMT、LLM、编码器及模型微调,提供 8/4 位量化与 LoRA 适配器。已推出新项目 Eole 作为替代。
用于合并预训练大语言模型的工具集。支持多种合并算法,可在 CPU 或低显存 GPU 上运行,支持 Llama、Mistral 等模型。提供 YAML 配置、LoRA 提取、专家混合合并等高级功能。
基于 Rust 构建模块化、可扩展的 LLM 应用。支持 20+ 模型提供商统一接口、10+ 向量存储集成,具备完整的 GenAI 语义规范兼容性与 WASM 支持。
基于 Kubernetes 的可扩展工作流编排平台,统一数据、ML 和分析栈。支持 Python SDK 构建生产级管道,实现分布式处理与高效资源利用。