开源项目

swllm.cpp
|

swllm.cpp 是 shenwenAI 推出的高性能 C/C++ 大语言模型推理引擎,
专为本地部署和边缘计算优化,支持多种模型格式和硬件加速。

开源协议

MIT License

查看完整协议

核心特性

swllm.cpp 提供高性能、轻量级的大语言模型推理解决方案

高性能推理

基于 C/C++ 实现,充分利用硬件性能,支持 AVX2、NEON 等 SIMD 指令集加速

本地部署

无需网络连接,支持在本地设备上运行大语言模型,保护数据隐私

多格式支持

支持 GGUF、GGML 等多种模型格式,兼容主流开源大语言模型

量化优化

支持 4-bit、8-bit 等多种量化方案,在保持模型精度的同时大幅降低内存占用

跨平台

支持 Linux、macOS、Windows 等主流操作系统,可在多种硬件平台上运行

开源免费

基于 MIT 协议开源,可自由使用、修改和分发,欢迎社区贡献

在 GitHub 上参与贡献

swllm.cpp 是一个开源项目,我们欢迎开发者参与贡献代码、报告问题和分享想法

访问 GitHub 仓库
C/C++ 开发语言
MIT 开源协议
跨平台 系统支持

准备好体验 swllm.cpp 了吗?

立即开始在本地运行大语言模型