
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
而 GPUStack,正在成为这一变革中的。

本文基于 GPUStack 提供的本地模型能力,结合 OpenClaw 与飞书,实战演示如何构建一个可长期运行、几乎不再关心 Token 消耗的本地 AI 助手,让 AI 真正成为随手可用的工作伙伴。

本文介绍了在AI Max 395设备上部署OpenBMB开源智能体模型AgentCPM的全流程。文章首先介绍了4B参数的AgentCPM-Explore和8B参数的AgentCPM-Report两款模型的特点与性能优势,包括在多个基准测试中超越闭源模型的表现。随后详细讲解了在搭载AMD Strix Halo处理器的零刻GTR9 Pro上,通过Ubuntu系统配置ROCm环境、优化显存分配的具体步骤

本文基于 GPUStack 提供的本地模型能力,结合 OpenClaw 与飞书,实战演示如何构建一个可长期运行、几乎不再关心 Token 消耗的本地 AI 助手,让 AI 真正成为随手可用的工作伙伴。

GPUStack 正式发布并开源,一个用于运行 LLM(大型语言模型)的开源 GPU 集群管理器。

最近,推理引擎领域出现了两件具有标志意义的事件:vLLM 和 SGLang 相继走向公司化。vLLM 核心团队成立 Inferact,完成 1.5 亿美元融资,估值达 8 亿美元:图源:InferactSGLang 团队也成立了 RadixArk,同样获得融资,估值达到 4 亿美元:图源:RadixArk这并不是两起孤立的创业故事,而是在同一个时间点,对同一件事情给出了市场层面的确认:推理已经正式

最近,推理引擎领域出现了两件具有标志意义的事件:vLLM 和 SGLang 相继走向公司化。vLLM 核心团队成立 Inferact,完成 1.5 亿美元融资,估值达 8 亿美元:图源:InferactSGLang 团队也成立了 RadixArk,同样获得融资,估值达到 4 亿美元:图源:RadixArk这并不是两起孤立的创业故事,而是在同一个时间点,对同一件事情给出了市场层面的确认:推理已经正式









