本文分类:news发布日期:2026/1/17 11:01:39
相关文章
1.4 评估指标与可解释性:如何科学评价你的AI模型
1.4 评估指标与可解释性:如何科学评价你的AI模型
引言
在前几节中,我们学习了机器学习的基础知识、深度学习的核心概念以及如何使用PyTorch构建图像分类项目。然而,仅仅构建模型是不够的,我们还需要科学地评估模型的性能,并理解模型是如何做出决策的。本节将详细介绍各种…
建站知识
2026/1/17 11:01:28
Managerial communication
Managerial communicationProcedure to come up with High Level estimationWBS to come up with estimate of staff months, (e.g. 42 manmonths) devided by num of people working full time (e.g. 6) comes up to…
建站知识
2026/1/17 11:00:38
完善我的第一个工作流: 增加循环逻辑
1、复制工作流
我们复制 [COZE打造自己的第一个工作流:新闻搜索与总结] 中实现的news工作流,在news工作流的基础上进行修改,实现循环逻辑。 2、添加链接读取插件 (增加新闻详细程度)
在 根据关键词搜索新闻内容 插件的下一步中增加 链接读取插件 选择 链接读取插件 然后添…
建站知识
2026/1/17 11:00:09
攻克边缘设备AI部署:基于Jetson Nano的YOLOv5零基础部署与性能调优实战
【从零到一】Jetson Nano上YOLOv5部署完全攻略:零基础小白也能玩转边缘AI推理 文章目录 【从零到一】Jetson Nano上YOLOv5部署完全攻略:零基础小白也能玩转边缘AI推理 1. 引言:为什么选择Jetson Nano? 1.1 边缘AI时代的到来 1.2 YOLO系列模型的优势 1.3 本教程的特色 2. 硬…
建站知识
2026/1/17 11:00:07
2.1 Transformer解密:自注意力机制与位置编码全解析
2.1 Transformer解密:自注意力机制与位置编码全解析
引言
Transformer架构自2017年提出以来,彻底改变了自然语言处理领域,并成为当今大语言模型(LLM)的基础架构。从BERT到GPT,从T5到PaLM,几乎所有现代大模型都基于Transformer架构。在本节中,我们将深入解析Transform…
建站知识
2026/1/17 11:00:06
完善我的第一个工作流: 增加批处理
接着上篇文章 [完善我的第一个工作流: 增加循环逻辑] 继续分析
这里我们继续打开上篇文章创建的工作流 news_manuscript ,进行完善。
批处理就是并行做事
循环就是串行做事
1、增加批处理节点 这样就添加成功了 2、配置批处理节点参数
这里的输入参数我们选择上个节点抓取…
建站知识
2026/1/17 10:59:35
2.2 预训练模型全家桶:BERT、T5、GPT如何选择与应用
2.2 预训练模型全家桶:BERT、T5、GPT如何选择与应用
引言
在上一节中,我们深入解析了Transformer的核心机制,包括自注意力和位置编码。基于Transformer架构,研究者们开发出了众多优秀的预训练模型,其中最具代表性的就是BERT、T5和GPT系列。这些模型在各种自然语言处理任…
建站知识
2026/1/17 10:59:30
RK3588嵌入式AI工业部署:YOLOv11 + OpenCV实时推理系统全栈实现
文章目录 从0到1:RK3588部署YOLOv11并结合OpenCV实现实时推理全流程(保姆级教程) 一、前置知识与工具准备 工具清单 二、PT模型转ONNX格式 步骤1:准备YOLOv11的PT模型文件 步骤2:执行转换命令 三、ONNX模型转RKNN格式 步骤1:搭建转换环境 步骤2:编写转换脚本 步骤3:执行…
建站知识
2026/1/17 10:59:25

