AI BOOK 上编译torch_musa v02.7.0 卡在cub 头文件的冲突。
社区首页 (3666)
请编写您的帖子内容
社区频道(8)
显示侧栏
卡片版式
全部
社区活动
技术交流
最新资讯
问答专区
社区指南
博文收录
活动专区
最新发布
最新回复
标题
阅读量
内容评分
精选

79
评分
回复
AI BOOK 上编译torch_musa v02.7.0 卡在cub 头文件的冲突。
AI BOOK 上编译torch_musa v02.7.0
复制链接 扫一扫
分享
技术交流

16
评分
回复
AIBOOK入门(四):localhost不能跨设备访问,SSH是远程管理Linux的基础协议(小白避坑)
摘要 localhost与127.0.0.1仅对本机有效,跨设备访问必须使用真实局域网IP+端口,否则服务虽启动但外部永远无法连接 SSH协议是远程管理Linux设备的事实标准:安装OpenSSH Server、放行防火墙22端口,即可从Windo
复制链接 扫一扫
分享
技术交流

25
评分
回复
哪里能下载ubuntu22.04的pytorch2.4 musa的S5000显卡的镜像
各位大神,我们想适配一些模型,需要transformers>=5.3.0 ,pytorch>=2.4以上才行,我是按照 github上面的,怎么搞都不行的,报各种错,哪里能下载ubuntu22.04的pytorch2.4 musa的S5000显卡的镜
复制链接 扫一扫
分享
技术交流

28
评分
回复
AIBOOK入门(三):系统维护与OBS录屏注意事项
注意:AI 开发环境与系统包版本强耦合,「可控更新 + 主动清理」比「随时最新」更有工程价值;贸然 upgrade 可能破坏 CUDA 二进制兼容性。 注意:PPA 是 Ubuntu 获取第三方最新版本的标准渠道,本质是向 apt 动态注入额外软件
复制链接 扫一扫
分享
技术交流

39
评分
回复
AIBOOK入门(二):Ubuntu 软件包管理实战:apt、dpkg 的分工与完整卸载流程
Ubuntu 的包管理分两层: dpkg 是底层工具(处理本地 .deb,不解决依赖)。 apt 是高层前端(自动解决依赖,推荐日常使用)。 安装本地 .deb 优先用 apt install ./xxx.deb,卸载分 remove(保留配置)和
复制链接 扫一扫
分享
技术交流

80
评分
回复
你离AI时代,只差一个终端的距离——AIBook零基础入门(一)
最近,我们开始培训一些工作的成年人还有学生了,却亲眼目睹了一场静默的"数字鸿沟"。 我们让他们都使用同一台崭新的算力本AIBook——搭载摩尔线程GPU、能本地跑大模型的国产AI算力本。除了极少数家伙很快手指在触控板上飞舞,像在弹奏钢琴;大部分却对
复制链接 扫一扫
分享
技术交流

68
评分
1
求助,安装musa-deploy一直检测不通过。
sudo musa-deploy -c musa[sudo] oem 的密码:======================================================================================
复制链接 扫一扫
分享
社区活动

54
评分
回复
从Ubuntu哲学到AIBOOK:我存在,因为我们存在
Umuntu ngumuntu ngabantu. (一个人之所以成为人,是因为其他人) 用最熟悉的现代翻译: I am because we are. (我存在,因为我们存在) 这和西方哲学“我思故我在”开始的个体主义完全相反。
复制链接 扫一扫
分享
最新资讯

37
评分
回复
摩尔当前有没有产品能支持与国产 CPU TEE 硬件协同,实现机密 AI 计算
摩尔当前有没有产品能支持与海光、飞腾、鲲鹏等国产 CPU 的 TEE 安全环境进行硬件级协同,实现机密 AI 计算?如有,请告知,谢谢!
复制链接 扫一扫
分享
问答专区

70
评分
回复
算力即未来?从“Token经济”说到人类的终极保卫战
我们正在步入文明进化,还是陷入算法围猎? 全国科技技术名词审定委员会于2026年3月25日,发布了《关于发布试用人工智能领域名词token中文名“词元”的公告》, 决定优先推荐“词元”作为中文名,并面向全社会发布试用。 此前,在3月23日在中国发展
复制链接 扫一扫
分享
最新资讯

83
评分
1
如何安装mtt s80驱动(ubuntu下)
请问群里的大佬能分享一下文档或教程吗? 我本人用的精粤x99 8d4的双路cpu的主板,2680v4的cpu。 mtt s80在第一个pcie上,系统安装的ubuntu 22.045. 内核是6.08. resizable BAR 找不到。pcie
复制链接 扫一扫
分享
问答专区

121
评分
回复
摩尔线程S50怎么弄大模型啊
求救啊!!!我这公司配的海光cpu+摩尔线程s50工作站,要求配置本地大模型,现在查了一圈就看到S80有SDK,S50都没有提到过有musa的支持还有具体怎么搞大模型。现在我这是弄了ollama走cpu路线,但是吞吐量感人,求助大佬们帮助
复制链接 扫一扫
分享
技术交流

89
评分
回复
想请教一个云端神经渲染样机方向,想认识做图形性能/云渲染/SDK适配的开发者
大家好,我最近在认真梳理一个很早期的方向,项目名称暂定为“云端神经渲染交互样机”。 我目前只聚焦第一阶段样机验证:想先做一个固定场景、有限交互的云端神经渲染样机,在 4K 终端上做出“屏幕后面像真空间”的感知代差。 我现在主要想认识三类开发者: 1.
复制链接 扫一扫
分享
技术交流

146
评分
回复
S80风扇生意大得离谱
如标题。 距离PES驱动320.130.0更新已经不知多久,当时310版本自更新还有问题就不提了。 只谈更新实际作用和目前欠缺的功能。 从2***版本到现在的320我没看到实际的变化,反而功耗升高了,如今在利用率在1-2之间,功耗居然还能高达120w
复制链接 扫一扫
分享
技术交流

98
评分
回复
MTTS4000是否支持异步拷贝,具体的指令是什么?
MTTS4000是否支持异步拷贝,具体的指令是什么?有没有类似nvidia的cp.async系列指令?
复制链接 扫一扫
分享
问答专区

120
评分
回复
mthreads/ollama:0.11.7-vulkan-arm64 容器可以在AI book m1000上用MUSA加速吗
我在AI book上跑了一下,发现和纯cpu 跑ollama是一样的 没有用MUSA加速
复制链接 扫一扫
分享
技术交流
116
评分
回复
扫一扫
分享
技术交流

93
评分
回复
扫一扫
分享
问答专区

145
评分
3
扫一扫
分享
问答专区

198
评分
回复
海光cpu+ubuntu22.04+s80显卡,安装的驱动是3.0.0的,安装驱动没报错,mthreads-gmi也没有问题。但是运行一个unreal应用,帧率却只有个位数
海光cpu+ubuntu22.04+s80显卡,安装的驱动是3.0.0的,安装驱动没报错,mthreads-gmi也没有问题。但是运行一个unreal应用,帧率却只有个位数,首先我确定不是ue应用的问题,在ue端看是卡在了queue submit上,
复制链接 扫一扫
分享
技术交流
为您搜索到以下结果:
265
社区成员
141
社区内容
发帖
与我相关
我的任务
摩尔线程
摩尔线程成立于 2020 年 10 月,以全功能 GPU 为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的 AI 计算支持。
我们的目标是成为具备国际竞争力的 GPU 领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。
复制链接 扫一扫
分享确定
社区描述
摩尔线程成立于 2020 年 10 月,以全功能 GPU 为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的 AI 计算支持。
我们的目标是成为具备国际竞争力的 GPU 领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。 企业社区
加入社区
获取链接或二维码
- 近7日
- 近30日
- 至今
加载中
社区公告
暂无公告