探索 大语言模型 项目
筛选并发现收录的、配有高质量中文文档或教程的 GitHub 项目。
全自动、零代码的 LLM Agent 框架。通过自然语言驱动,自动构建和编排协作式智能体系统。支持自管理工作流生成与智能资源编排,无需编码即可创建和定制 Agent、工具与工作流。
专为 AI 设计的数据库,支持向量、图像、文本、视频等数据的存储与查询。与 LLMs/LangChain 集成,提供数据版本管理、可视化及实时流式传输至 PyTorch/TensorFlow。
🚀 下一代 AI 一站式 B/C 端解决方案,支持 OpenAI、Midjourney、Claude 等多模型,提供对话分享、自定义预设、云端同步、模型市场、弹性计费与订阅计划,支持图片解析、联网搜索、模型缓存,配备丰富美观的后台管理与仪表盘。
跨平台桌面应用,无需安装 Edge 或浏览器插件即可使用新版 Bing AI 聊天。支持导出对话为 Markdown、PNG 或 PDF,可自定义主题与字体大小,提供键盘快捷键。
基于 AI 大模型,一键完成视频解说、剪辑、配音和字幕生成,实现高效自动化内容创作。支持多种模型和语音克隆,提供一站式影视解说解决方案。
加速本地大模型推理与微调,支持 Intel XPU(iGPU、NPU、Arc 等),无缝集成 llama.cpp、Ollama、HuggingFace 等框架,提供 70+ 模型优化与低比特支持。
作为桥梁,让 AI 助手(如 Claude、Cursor)通过本地 MCP 客户端直接与 Unity 编辑器交互。提供工具管理资产、控制场景、编辑脚本和自动化任务,支持 C# 语言。
统一模型服务框架。轻松构建 AI/ML 模型推理 API、多模型流水线及 LLM 应用。支持 Docker 部署与 BentoCloud 云服务,优化 CPU/GPU 利用率。
强大的 GUI 智能体家族,支持跨平台自动化操作。提供在线演示与 API,集成 GUI-Owl 多模态模型,适用于 OSWorld、AndroidWorld 及真实移动场景。
UFO³:编织数字智能体星系。从单设备智能体到多设备星系,实现跨设备协作、复杂自动化与异构平台集成。UFO² 为稳定桌面智能体操作系统,UFO³ Galaxy 提供多设备编排能力。
AI 记忆操作系统,为 LLM 和 Agent 提供持久化技能记忆,支持跨任务复用与进化。核心功能包括统一记忆 API、多模态支持、多知识库管理、异步调度与反馈修正。
为 OpenAI ChatGPT 提供的跨平台(网站 + Windows + MacOS + Linux)强大 UI。免费、无限制,支持代理、提示库、文件夹管理、自定义参数、多语言等。可本地部署或使用 Vercel/GitHub Pages 托管。
🚀💪 最大化效率与生产力。管理、定制和分享提示词的终极中心。提供一键复制、智能搜索、多语言支持、社区分享及浏览器扩展等功能,无需注册即可使用。
基于开源TypeScript框架的AI智能体工程平台,提供内存、RAG、工具、MCP、语音、工作流等核心功能。支持多智能体协同与监督者模式,兼容多种LLM提供商,具备可观测性、部署和评估能力。
一个 AI 模型性能优化库集合,包含 Speedster、Nos 和 ChatLLaMA 等工具,旨在降低推理、基础设施和数据成本。项目已进入维护阶段,不再积极更新。
基于 Model Context Protocol 构建高效智能体的 Python 框架。提供可组合的工作流模式,如 map-reduce、orchestrator 等,支持 Temporal 持久化,实现简单、稳健的智能体应用开发。
基于 MCP 协议的 AI 网络安全自动化平台,集成 150+ 安全工具与 12+ 自主 AI 代理。支持自动化渗透测试、漏洞发现与漏洞赏金任务,无缝连接 LLM 与实战攻防能力。
通过 k-bit 量化技术,为 PyTorch 提供可访问的大语言模型。包含 8-bit 优化器、LLM.int8() 推理和 QLoRA 4-bit 训练,显著降低内存消耗,同时保持 32-bit 性能。
汇总全球顶尖 LLM 资源,涵盖多模态生成、Agent、辅助编程、AI 审稿、数据处理、模型训练与推理、o1 模型、MCP、小语言模型及视觉语言模型等。
整理了基于大语言模型智能体的必读论文列表,涵盖单智能体、多智能体及人机协作场景,并提供 AgentGym 等开发框架与 RL 训练工具。
使用少于 500 行代码构建对话式搜索引擎。内置 LLM 和搜索引擎支持,提供可自定义的精美 UI 界面,支持可共享和缓存的搜索结果。支持 Bing、Google 等多种搜索引擎。
高性能LLM KV缓存层,通过零CPU拷贝、NIXL等技术加速,支持跨数据中心复用缓存,显著降低首token延迟并提升吞吐量,适用于长上下文场景。
BAML 是一个用于构建可靠 AI 工作流和代理的简单提示语言。它将提示工程转变为模式工程,支持 Python、TS、Ruby、Java、C#、Rust、Go 等多种语言。提供完整的类型安全、流式处理和重试机制,即使模型不支持原生工具调用 API 也能可靠工作。
多语言语音理解模型,支持高精度 ASR、LID、SER 及 AED。基于 40 万小时数据训练,覆盖 50+ 语言,推理高效,支持微调与服务部署。
为 LLM 查询构建语义缓存,降低 10 倍成本并提升 100 倍速度。完全集成 LangChain 和 llama_index,支持 Python。