用通俗的方式介绍大语言模型训练过程
站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。
LLM都是如何训练出来的呢?
GPT的训练分为以下3个阶段:
1、预训练Pretrain
2、监督...
Continue reading >>站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。
LLM都是如何训练出来的呢?
GPT的训练分为以下3个阶段:
1、预训练Pretrain
2、监督...
Continue reading >>最近客户项目上线前小程序需要做性能压测,使用JMeter做了下单场景和混合场景压测,Mark一下。
压测任务需求(示例):
测试类型
测试项
事务
并发用户数
需求指标
执行时间(分)
事务成功率指标要求
平均响应时间...
Continue reading >>在Kubernetes整个体系中,弹性伸缩是至关重要的功能,其分为两种:水平弹性伸缩(Horizontal Pod Autoscaling,简称HPA)和垂直弹性伸缩(Vertical Pod Aut...
Continue reading >>Qwen2.5-32B 和 Qwen2.5-VL-32B 是通义千问(Qwen)系列中的两个大模型,分别对应纯语言模型(LLM)和多模态视觉-语言模型(VLM)。Docker环境安装与配置 ...
Continue reading >>
如2024年终总结预想的一样,2025确实是奔波的一年,虽然结束北漂回到二线城市工作,但是在这一年里大多数时间都是在上海、广州等一线做项目交付,只是base在二线而已,相当于出差去一线干活,工作模式也...
Continue reading >>