本文分类:news发布日期:2025/12/21 1:39:48
打赏

相关文章

大模型学习路线(二):预训练 (Pre-training)

大模型学习路线(二):预训练 (Pre-training)说明:预训练是大模型“拥有知识”的关键阶段。秋招面试考察重点集中在数据工程、训练稳定性(混合精度)、Tokenizer 细节以及领域适配(CPT)策略。🎯 学习目标 掌握从…

12.20 - 反转链表II

1.反转链表/*** Definition for singly-linked list.* struct ListNode {* int val;* ListNode *next;* ListNode() : val(0), next(nullptr) {}* ListNode(int x) : val(x), next(nullptr) {}* ListNode(int x, ListNode *next) : val(x), next(next) {}*…

Linly-Talker能否接入Dialogflow实现多轮对话逻辑?

Linly-Talker 能否接入 Dialogflow 实现多轮对话逻辑? 在虚拟客服、数字员工等实际业务场景中,用户不会只问一句“你好”,然后满意地离开。他们更可能说:“我想预约下周二的心理咨询……对,下午三点左右……需要带什么…

Linly-Talker在汽车配置讲解中的三维空间联动设想

Linly-Talker在汽车配置讲解中的三维空间联动设想 在高端汽车展厅里,一位客户驻足于一辆全新SUV前,随口问道:“这车的空气悬挂能调多高?”话音刚落,站在屏幕旁的虚拟讲解员微微点头,声音沉稳地回应&#xf…

大模型学习路线(三)后训练Post-training

后训练 Post-Training 主要有两种范式:SFT和RLPre-training (预训练) 通过海量无监督数据的自监督学习(Next Token Prediction),让模型习得语言语法与通用知识。SFT (监督微调):实现指令对齐 通过高质量问答对进行…

大模型学习路线(一):Transformer架构篇

🎯 学习目标 彻底掌握 Transformer 的每一个组件细节,理解从 Standard Attention 到现代 LLM(如 Llama, Deepseek)架构的演进原因,并能手写核心算法代码。 第一阶段:输入处理 (Input Representation) 1. 分词 (…

Linly-Talker在高校招生宣传中的个性化推送实验

Linly-Talker在高校招生宣传中的个性化推送实验在每年高考季,高校招生办的老师们总是面临一个共同难题:如何用有限的人力,在短时间内回应成千上万考生和家长五花八门的问题?“我这个分数能报你们学校吗?”“电气工程专…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部