登录社区云,与社区用户共同成长
邀请您加入社区
谢邀,刚跑通。 今天起,开发者们可以在知乎 一键绑定魔搭账号, 将你在魔搭的开源模型、数据集同步展示在知乎主页, 打通「开源实践」与「深度讨论」,这张更完善的社交名片—— 让你的每一次模型训练、项目迭代与技术思考,都能在双平台绽放更多价值! 敖 关于这次连接 魔搭(ModelScope)是中国最大的开源模型社区,沉淀真实 AI 项目与实践; 知乎是中文世界具有深度的知识讨论场,汇聚大量 AI 技术
在 Mac Mini 上部署本地大模型(LLM)时,新手往往会遇到两个拦路虎:一是原始模型对电脑内存的巨大消耗,二是复杂的代码环境配置。 别担心!OpenClaw 为你提供了极佳的图形化交互体验,而模型量化(Quantization)技术则是让它在普通家用电脑上“起飞”的秘密武器,能在几乎不损失 AI 智商的前提下,将模型体积压缩至原来的 1/4 甚至更小,大幅降低内存需求。 &nb
在视频生成领域,大家是不是常常遇到这样的痛点:主流模型虽然生成的画质越来越高,但生成5到10秒的短视频往往就需要耗费几十分钟。而市面上那些宣称能做到“实时无限生成”的模型,往往只有1.3B左右的较小参数量。这些小容量模型很难准确表示复杂的运动,还常常会导致高频细节模糊。 今天,由北京大学联合字节跳动带来的破局之作——Helios,正式登场! 这是首个能在单张NVIDIA H100 GPU上以 19
2025年,被业界公认为具身智能(Embodied AI)真正觉醒的元年。当人工智能跨越数字世界的边界,轰然撞开物理世界的大门,是谁在荒野中劈开荆棘?又是谁在定义行业的未来? 由魔搭社区(ModelScope)、CCF智能机器人专委会、工信部装备数字孪生技术重点实验室、Lumina具身智能社区、开放原子开源青龙、地瓜机器人、机器人操作系统(ROS)教育基金会、真格基金以及知乎、36氪
通义实验室开源 PrismAudio,一个强大的视频配音(V2A)模型。仅 518M 参数、0.63s 推理时延,在语义、时序、美学、空间及主观评分五项指标上全面超越现有 5B 量级方法。 其核心创新在于将整体推理分解为四路专项 CoT 模块(语义、时序、美学、空间),每路模块配备独立奖励函数,构建精准的 CoT–奖励对应关系,通过多维强化学习后训练实现协同优化,从根本上解决多目标耦
近日,百度千帆正式发布全新端到端文档智能模型Qianfan-OCR。 该模型基于统一的视觉语言架构打造,以4B参数规模实现了对文档解析、版面分析、文字识别与语义理解的全面融合,在多项权威评测中取得领先表现,标志着文档智能能力正从“流程拼接”迈向“模型统一”的新阶段。 在核心Benchmark中,Qianfan-OCR表现尤为突出:在OmniDocBench v1.5上取得93.12分,端到端模型中
通义实验室重磅开源Fun-CineForge,一个专为各种电影场景而设计的多模态配音大模型,同时也开源一种从高质量多模态配音数据集构建流程。Fun-CineForge 配音模型首次通过引入时间模态信息,实现了在复杂的影视配音场景下的视频配音。 开源地址: ModelScope:https://www.modelscope.cn/models/FunAudioLLM/Fun-CineF
最近OpenClaw火了!大家在讨论如何快速部署的同时,更多开发者在思考: 我能不能也亲手做一个类似的智能体?有没有更成熟、更强大的方案来实现跨设备的丝滑操作? 国民远控贝锐向日葵给出了答案!向日葵MCP(Model Context Protocol)服务正式上架 ModelScope(魔搭社区)! 结合魔搭强大的国产大模型生态,你不仅能快速复刻类似的AI助手,更能通过
写在前面 在大模型与 Agent 技术快速演进的今天,"如何高效、系统地评审论文" 已经成为很多团队的日常需求。无论是实验室内部的论文预审、课题组的周会分享,还是小型 Workshop 的投稿评选,传统的"邮件 + 表格 + 口头讨论"模式越来越力不从心。 本文结合我在开源项目 OpenJudge 中实现的论文
随着大模型的持续演进,研发重心正从“预训练”显著转向“后训练”。要充分挖掘模型在各类场景下的应用潜力,针对性的训练微调至关重要。不可否认,以强化学习(RL)为代表的后训练范式,是模型生命周期中复杂度最高的环节之一:其实现方式高度定制化,难以通用;组件耦合度高,导致源码层面的理解门槛极高;此外,多模型协作的架构也极大地增加了代码编写的难度。 除了 OpenAI 提供的“数据进,模型出”