探索 PyTorch 项目
筛选并发现收录的、配有高质量中文文档或教程的 GitHub 项目。
基于 PyTorch 的可微分计算机视觉库,提供丰富的图像处理和几何视觉算法。支持批量变换、自动微分和 GPU 加速,适用于图像变换、增强和 AI 驱动的图像处理。
AI 开发平台,用于训练和微调模型,管理从实验到生产的全流程。支持 Python,提供实验跟踪、可视化和数据版本控制。集成主流 ML 框架,支持云端或私有部署。
用于部署和服务大型语言模型的工具包。支持高性能文本生成,具备生产就绪特性,如分布式追踪和指标。支持多种硬件和量化方法,包括 bitsandbytes、GPT-Q、AWQ 等。提供 API 兼容 OpenAI Chat Completion,并优化了推理性能。
高性能无锚点 YOLO 目标检测器,超越 YOLOv3-v5。支持 MegEngine、ONNX、TensorRT、ncnn 和 OpenVINO 部署,提供 PyTorch 和 MegEngine 实现。
基于全词掩码技术的中文BERT预训练模型系列,包括BERT-wwm、BERT-wwm-ext、RoBERTa-wwm-ext等,使用中文维基百科训练,支持通过Transformers和PaddleHub快速加载。
分布式运行大型语言模型,类似 BitTorrent。在家用电脑或 Google Colab 上进行微调和推理,速度比卸载快 10 倍。支持 Llama 3.1、Mixtral、Falcon、BLOOM 等模型。
在他人服务器上执行数据科学,无需查看或获取数据副本。支持 Python 代码及第三方库,可连接 Datasite 进行统计分析与机器学习。支持 Linux、macOS、Windows、Docker 和 Kubernetes。
基于 PyTorch 的端到端语音处理工具包,支持语音识别、合成、翻译、增强、说话人日志及口语理解。遵循 Kaldi 风格数据处理,提供丰富实验配方。
基于傅里叶卷积的图像修复模型,支持高分辨率(~2k)大掩码填充,训练于 256x256 但泛化能力极强,可处理周期性结构等复杂场景。
基于 PyTorch 的开源语义分割工具箱与基准,是 OpenMMLab 项目的一部分。提供丰富的算法实现、统一的配置系统和全面的基准测试,支持多种主干网络和数据集。
基于 PyTorch 的 Transformer 模型实现,采用自注意力机制,支持 WMT 机器翻译任务的训练与推理。
基于 RWKV(100% RNN)的开源聊天模型,性能媲美 Transformer,速度更快且显存占用更低。支持多种推理策略与硬件加速,提供 Python 库与演示脚本。
基于 PyTorch 的开源说话人日志工具包,提供语音活动检测、说话人变化检测、重叠语音检测和说话人嵌入等神经网络模块。支持社区版与高精度版,可本地运行或调用云端服务,性能领先。
基于 so-vits-svc 的分支,提供实时语音转换功能,改进了用户界面并集成了更多特性。支持 Python 3.8+,可通过 pip 安装,无需额外依赖。
开源工具,将机器学习模型打包为标准生产就绪容器。自动处理 Dockerfile、CUDA 兼容性、输入输出定义和 HTTP 服务器,支持部署到自建基础设施或 Replicate 平台。
提供 SOTA 计算机视觉模型教程,涵盖 ResNet、RF-DETR、YOLO11、SAM 3、Qwen3-VL 等,支持目标检测、分割、姿态估计等任务。
提供高质量单文件实现的深度强化学习库,支持 PPO、DQN、C51 等算法。具备研究友好特性,如基准测试、Tensorboard 日志、实验管理与云集成,代码简洁易读,便于原型开发与调试。
为 PyTorch 提供多种预训练卷积神经网络,包括 NASNet、ResNeXt、ResNet、InceptionV4 等,通过统一接口简化调用,支持迁移学习与研究复现。
专为 AI 设计的数据库,支持向量、图像、文本、视频等数据的存储与查询。与 LLMs/LangChain 集成,提供数据版本管理、可视化及实时流式传输至 PyTorch/TensorFlow。
加速本地大模型推理与微调,支持 Intel XPU(iGPU、NPU、Arc 等),无缝集成 llama.cpp、Ollama、HuggingFace 等框架,提供 70+ 模型优化与低比特支持。
实时高精度全身多人姿态估计与跟踪系统。支持COCO、MPII等数据集,提供PoseFlow在线跟踪器,性能领先。兼容Linux与Windows,提供Colab快速启动。
MIT 6.S191 深度学习入门课程的实验材料,包含所有代码和软件实验室。支持在 Google Colab 中直接运行,无需本地下载。提供 MIT 深度学习 Python 包,含便捷函数。