探索 PyTorch 项目
筛选并发现收录的、配有高质量中文文档或教程的 GitHub 项目。
面向深度学习研究者的 NLP 教程,使用 PyTorch 实现。包含从基础词嵌入到 Transformer、BERT 等主流模型,代码精简(通常少于 100 行),并提供 Colab 链接。
提供基于 NVIDIA CUDA-X 软件栈的 SOTA 深度学习示例,支持 Volta、Turing 和 Ampere GPU,易于训练和部署,具备可复现的精度与性能。包含 NGC 容器,集成最新框架、库及优化。
分布式深度学习训练框架,支持 TensorFlow、Keras、PyTorch 和 Apache MXNet。基于 MPI 模型,易于扩展,性能高效,可实现单 GPU 到多 GPU、多节点的无缝迁移。
RWKV 是一种并行化 RNN,具备 Transformer 级别的 LLM 性能。RWKV-7 是线性时间、常数空间、无注意力的 RNN 架构,适用于 LLM 和多模态应用。支持高效推理和快速训练,社区资源丰富。
一个简洁的框架,提供最先进的自然语言处理(NLP)功能。支持命名实体识别、情感分析、词性标注等任务,内置多种语言模型。基于 PyTorch 构建,易于训练自定义模型,并支持 Flair 嵌入和各类变换器。
开源 AutoML 工具包,自动化机器学习生命周期,涵盖特征工程、神经架构搜索、模型压缩与超参数调优。支持 Python,提供丰富的算法与可视化界面。
在不同机器学习框架间转换代码,支持 PyTorch、TensorFlow、JAX 和 NumPy。提供 ivy.transpile 函数,简化模型迁移。
YOLOv7 是 YOLO 系列的最新实时目标检测器,基于可训练的免费包实现。它在 COCO 数据集上达到 51.4% AP,推理速度高达 161 fps。提供多种模型变体,支持 Docker 和 PyTorch 环境部署。
开源 3D 数据处理库,支持 C++ 和 Python。提供 3D 数据结构与算法、场景重建、表面对齐、3D 可视化及物理渲染。集成 PyTorch/TensorFlow,支持 GPU 加速,适用于端到端 3D 工作流。
基于低秩分解的参数高效微调库,通过冻结原始权重并学习秩分解矩阵对,大幅减少可训练参数量,适用于 PyTorch 模型,支持 Hugging Face 集成,实现高效任务切换且不增加推理延迟。
提供易用的 Python API 定义大语言模型,支持前沿优化以在 NVIDIA GPU 上高效推理。包含 Python 和 C++ 运行时组件,实现高性能推理编排。
基于 TensorFlow 2.0 的开源深度学习入门书,理论与实战结合,提供 PDF、代码及课件。被多所高校采用,获权威媒体报道。
轻量级 vLLM 实现,从零构建。提供快速离线推理、可读代码库及优化套件,如前缀缓存、张量并行、Torch 编译和 CUDA 图。性能媲美 vLLM,代码约 1200 行 Python。
免费 4 个月机器学习工程课程,涵盖从 Python 建模到 Docker、FastAPI、Kubernetes 和 AWS Lambda 生产部署的全流程。提供直播班与自学模式,含作业、项目与证书。
提供近200个AI实战案例与项目,涵盖Python、数学、机器学习、深度学习、计算机视觉、自然语言处理等热门领域。包含免费配套教材,零基础入门,助力就业实战。
提供基于 CLIP 的图像和文本嵌入服务,支持低延迟、高扩展性。具备快速推理、弹性伸缩、易用 API 及多协议支持,可无缝集成神经搜索生态。
PyTorch 入门与实战教程,涵盖基础使用、高级扩展及实战应用。包含神经网络、风格迁移、动漫生成、自动写诗等项目,提供完整代码与预训练模型。
PyTorch 高级 AI 可解释性库。支持 CNN、ViT、分类、目标检测、分割、图像相似度等。提供多种像素归因方法,如 GradCAM、GradCAM++、ScoreCAM 等。包含平滑方法与性能指标,适用于模型诊断与研究基准。
精心整理的 PyTorch 资源合集,涵盖教程、论文、项目、社区及各类应用,包括大语言模型、计算机视觉、自然语言处理、强化学习等前沿领域。
超轻量级中文OCR,总模型仅4.7M,支持竖排文字识别。提供ncnn、mnn、tnn、onnxruntime等多种推理框架,支持C++、JVM、Android、.Net等多平台部署,部署简单。
基于 PyTorch 的注意力机制、MLP、重参数化和卷积模块实现库,旨在帮助理解论文核心思想,提供即插即用的模块化组件。
基于 PyTorch 的开源 NLP 研究库,用于开发各类语言任务的最先进深度学习模型。现已进入维护模式,推荐迁移到 AI2 Tango 等替代方案。
低代码框架,用于构建自定义 LLM、神经网络等 AI 模型。支持声明式 YAML 配置,具备分布式训练、参数高效微调、4 位量化等优化,可扩展至生产环境。
包含多个使用 HuggingFace Transformers 库的演示,涵盖音频、文本、图像处理,如 AST、BERT、BEiT、CLIPSeg 等模型,提供 PyTorch 实现和 Colab 链接。
基于 PyTorch 的图像语义分割库,提供 500+ 预训练卷积和 Transformer 骨干网络。支持 12 种编码器-解码器架构,如 Unet 和 Segformer,API 简单易用,仅需两行代码即可创建神经网络。包含常用损失函数与指标,支持 ONNX 导出。
为 NeRFs 提供协作友好的工作室,简化从创建到训练的端到端流程。模块化设计提升可解释性,支持社区贡献与扩展,提供教程和文档资源。
基于 PyTorch 的开源语音工具包,加速对话式 AI 开发。支持语音识别、说话人识别、语音增强等任务,提供 200+ 训练配方和 100+ 预训练模型,可轻松微调 Whisper、Wav2Vec2 等模型。
基于 PyTorch 的 U-Net 图像语义分割实现,支持高质量图像处理。提供 Docker 镜像与预训练模型,适用于多类分割、人像分割及医学影像分析。