大语言模型资源
探索与 大语言模型 相关的精选开源项目、速读教程和最新工作机会
相关开源项目
openvinotoolkit/openvino
开源工具包,用于优化和部署 AI 推理。支持 PyTorch、TensorFlow、ONNX 等模型,兼容 CPU、GPU 和 AI 加速器。提供从边缘到云的灵活部署方案。
iflytek/astron-agent
企业级、商业友好的智能体工作流平台,集成 AI 工作流编排、模型管理、AI 与 MCP 工具集成、RPA 自动化及团队协作功能。支持高可用部署,助力快速构建可扩展的生产就绪智能体应用。
humanlayer/humanlayer
开源 IDE,用于编排 AI 编码代理,解决复杂代码库中的难题。基于 Claude Code,支持并行会话和团队协作,提升开发效率。
browseros-ai/browseros
开源 Agentic 浏览器,隐私优先。支持本地 AI 模型(Ollama)或自定义 API 密钥,数据不离机。提供工作流自动化、MCP 服务器集成及内置广告拦截。支持 macOS、Windows、Linux。
skypilot-org/skypilot
在任何 AI 基础设施上运行、管理和扩展 AI 工作负载。统一访问和管理所有 AI 计算资源(Kubernetes、20+ 云或本地)。提供简单接口,支持多云池、自动扩缩容和成本优化。
sigoden/aichat
全能型 LLM CLI 工具,支持 Shell 助手、Chat-REPL、RAG、AI 工具与代理。集成 OpenAI、Claude、Gemini 等 20+ 主流模型提供商,提供多模式输入与角色定制。
mcp-use/mcp-use
提供最简单的方式,通过 6 行代码在 Python 和 TypeScript 中构建 MCP 服务器、客户端和 AI 代理。支持自定义代理与 MCP 服务器交互,包含调试工具和 UI 资源。
chaitin/pandawiki
AI 大模型驱动的开源知识库系统,快速构建智能文档、FAQ、博客,提供 AI 创作、问答、搜索能力。支持 Docker 部署,兼容 Markdown/HTML,可集成第三方应用。
kyrolabs/awesome-langchain
精选 LangChain 生态工具与项目列表。涵盖框架、多语言移植、低代码工具、服务、开源项目及学习资源,助力 LLM 应用快速开发。
yzhao062/anomaly-detection-resources
汇集异常检测相关书籍、论文、视频和工具箱,覆盖 LLM 和 VLM 等前沿工作,提供全面的学习资源。
arindam200/awesome-ai-apps
包含 70 多个实用示例、教程和配方的集合,展示 RAG、智能体、工作流等 AI 应用。主要使用 Python,涵盖从简单聊天机器人到高级 AI 智能体的多种框架和工具。
apache/seatunnel
高性能分布式数据集成工具,支持多模态数据、160+连接器,提供实时、CDC和全库同步,具备资源高效和监控能力。
liyupi/ai-guide
免费AI知识库,涵盖大模型指南、Vibe Coding零基础教程、Prompt大全、AI编程技巧、工具用法及变现指南,助你快速掌握AI技术。
openrlhf/openrlhf
基于 Ray 的易用、可扩展、高性能智能体强化学习框架,支持 PPO、REINFORCE++ 等多种算法,集成 vLLM 与异步训练。
xorbitsai/inference
通过单行代码切换任意LLM。支持云端、本地或笔记本部署开源、语音及多模态模型,提供统一的生产级推理API。
rowboatlabs/rowboat
开源 AI 协作者,具备记忆功能。连接邮件和会议笔记,构建知识图谱,辅助完成工作。支持本地运行,数据私有。可生成 PDF、会议简报等。支持语音备忘录。
dice2o/binggpt
跨平台桌面应用,无需安装 Edge 或浏览器插件即可使用新版 Bing AI 聊天。支持导出对话为 Markdown、PNG 或 PDF,可自定义主题与字体大小,提供键盘快捷键。
activeloopai/deeplake
专为 AI 设计的数据库,支持向量、图像、文本、视频等数据的存储与查询。与 LLMs/LangChain 集成,提供数据版本管理、可视化及实时流式传输至 PyTorch/TensorFlow。
coaidev/coai
🚀 下一代 AI 一站式 B/C 端解决方案,支持 OpenAI、Midjourney、Claude 等多模型,提供对话分享、自定义预设、云端同步、模型市场、弹性计费与订阅计划,支持图片解析、联网搜索、模型缓存,配备丰富美观的后台管理与仪表盘。
openpipe/art
开源强化学习框架,使用 GRPO 训练多步骤智能体。支持 Qwen、Llama 等模型,提供无服务器训练,降低成本并加速反馈循环。
oumi-ai/oumi
轻松微调、评估和部署 gpt-oss、Qwen3、DeepSeek-R1 或任何开源 LLM / VLM!端到端构建 SOTA 基础模型。
tiiny-ai/powerinfer
面向消费级 GPU 的高速大语言模型推理引擎,利用激活局部性实现 CPU/GPU 混合推理,显著降低内存需求与数据传输,支持多种模型与硬件。
arize-ai/phoenix
AI 可观测性与评估平台,支持 Jupyter Notebook 环境,提供模型性能监控、数据评估与可视化工具。
intel/ipex-llm
加速本地大模型推理与微调,支持 Intel XPU(iGPU、NPU、Arc 等),无缝集成 llama.cpp、Ollama、HuggingFace 等框架,提供 70+ 模型优化与低比特支持。
fishaudio/bert-vits2
基于 VITS2 和多语言 BERT 的语音合成项目,提供 WebUI 预处理工具,支持多语言生成。
hkuds/autoagent
全自动、零代码的 LLM Agent 框架。通过自然语言驱动,自动构建和编排协作式智能体系统。支持自管理工作流生成与智能资源编排,无需编码即可创建和定制 Agent、工具与工作流。
microsoft/typechat
使用类型构建自然语言接口的库,替代提示工程。通过定义类型模式,自动处理 LLM 提示、响应验证与意图对齐,简化开发流程。
bentoml/bentoml
统一模型服务框架。轻松构建 AI/ML 模型推理 API、多模型流水线及 LLM 应用。支持 Docker 部署与 BentoCloud 云服务,优化 CPU/GPU 利用率。
ztjhz/betterchatgpt
为 OpenAI ChatGPT 提供的跨平台(网站 + Windows + MacOS + Linux)强大 UI。免费、无限制,支持代理、提示库、文件夹管理、自定义参数、多语言等。可本地部署或使用 Vercel/GitHub Pages 托管。
nebuly-ai/optimate
一个 AI 模型性能优化库集合,包含 Speedster、Nos 和 ChatLLaMA 等工具,旨在降低推理、基础设施和数据成本。项目已进入维护阶段,不再积极更新。