本文分类:news发布日期:2026/2/4 2:23:05
打赏

相关文章

智谱开源GLM-OCR:0.9B小模型在复杂文档处理登顶SOTA

智谱AI正式开源发布 GLM-OCR,这款参数量仅 0.9B 的模型以 “小尺寸、高精度” 的特性打破了行业记录。在权威榜单 OmniDocBench V1.5 中,它以 94.6 的高分超越多款同类模型,展现了在手写公式、多语混排及印章识别等 复杂文档 场景下的统治级能…

大型语言模型的 MOE 和 MOA

原文:towardsdatascience.com/moe-moa-for-large-language-models-c1cafeffd6a5?sourcecollection_archive---------8-----------------------#2024-07-16 寻求专家小组的建议 https://medium.com/rahulvir?sourcepost_page---byline--c1cafeffd6a5-------------…

YOLO26涨点改进 | 独家创新,特征融合涨点改进篇 | TGRS 2025 | 引入ATEM仿射变换融合增强模块,含多种创新改进点,对边缘和纹理信息进行自适应增强,提升小目标和弱目标检测能力

一、本文介绍 🔥本文给大家介绍利用 ATEM仿射变换融合增强模块 改进 YOLO26网络模型,主要作用于特征提取早期或中间阶段,对高频特征中的边缘与纹理信息进行自适应增强。ATEM 通过学习可调的仿射参数,对细节特征进行有选择的放大或重标定,使目标轮廓在复杂背景、低对比度…

AI模型推理延迟突增?架构师教你:模型轻量化+缓存优化应急响应技巧

AI模型推理延迟突增?架构师教你:模型轻量化+缓存优化应急响应技巧 关键词:AI模型、推理延迟、模型轻量化、缓存优化、应急响应、架构设计、性能优化 摘要:本文主要探讨当AI模型推理延迟突然增加时,如何通过模型轻量化与缓存优化的应急响应技巧来解决问题。首先介绍相关背景…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部