本文分类:news发布日期:2025/12/21 1:39:48
相关文章
大模型学习路线(二):预训练 (Pre-training)
大模型学习路线(二):预训练 (Pre-training)说明:预训练是大模型“拥有知识”的关键阶段。秋招面试考察重点集中在数据工程、训练稳定性(混合精度)、Tokenizer 细节以及领域适配(CPT)策略。🎯 学习目标
掌握从…
建站知识
2025/12/21 1:39:44
12.20 - 反转链表II
1.反转链表/*** Definition for singly-linked list.* struct ListNode {* int val;* ListNode *next;* ListNode() : val(0), next(nullptr) {}* ListNode(int x) : val(x), next(nullptr) {}* ListNode(int x, ListNode *next) : val(x), next(next) {}*…
建站知识
2025/12/21 1:39:02
Linly-Talker能否接入Dialogflow实现多轮对话逻辑?
Linly-Talker 能否接入 Dialogflow 实现多轮对话逻辑?
在虚拟客服、数字员工等实际业务场景中,用户不会只问一句“你好”,然后满意地离开。他们更可能说:“我想预约下周二的心理咨询……对,下午三点左右……需要带什么…
建站知识
2025/12/21 1:38:43
Linly-Talker在汽车配置讲解中的三维空间联动设想
Linly-Talker在汽车配置讲解中的三维空间联动设想
在高端汽车展厅里,一位客户驻足于一辆全新SUV前,随口问道:“这车的空气悬挂能调多高?”话音刚落,站在屏幕旁的虚拟讲解员微微点头,声音沉稳地回应…
建站知识
2025/12/21 1:38:39
大模型学习路线(三)后训练Post-training
后训练 Post-Training 主要有两种范式:SFT和RLPre-training (预训练) 通过海量无监督数据的自监督学习(Next Token Prediction),让模型习得语言语法与通用知识。SFT (监督微调):实现指令对齐 通过高质量问答对进行…
建站知识
2025/12/21 1:38:39
大模型学习路线(一):Transformer架构篇
🎯 学习目标
彻底掌握 Transformer 的每一个组件细节,理解从 Standard Attention 到现代 LLM(如 Llama, Deepseek)架构的演进原因,并能手写核心算法代码。
第一阶段:输入处理 (Input Representation)
1. 分词 (…
建站知识
2025/12/21 1:37:48
Linly-Talker在高校招生宣传中的个性化推送实验
Linly-Talker在高校招生宣传中的个性化推送实验在每年高考季,高校招生办的老师们总是面临一个共同难题:如何用有限的人力,在短时间内回应成千上万考生和家长五花八门的问题?“我这个分数能报你们学校吗?”“电气工程专…
建站知识
2025/12/21 1:37:43
在上海,一份CAIE认证如何为我打开AI世界的窗:思维与能力的双重旅程
在节奏飞快的上海,科技创新浪潮无处不在。无论是参与行业会议,还是与不同领域的朋友交流,“人工智能”总是一个绕不开的话题。作为一名非技术出身的职场人,我曾长期觉得AI是专属于工程师的领域,直到我开始了解并参与了…
建站知识
2025/12/21 1:37:42

