news 2026/4/3 5:45:00

非常好用的主力主图指标公式

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
非常好用的主力主图指标公式

{}MID:=(3*CLOSE+LOW+OPEN+HIGH)/6;
主力:(20*MID+19*REF(MID,1)+18*REF(MID,2)+17*REF(MID,3)+16*REF(MID,4)+15*REF(MID,5)+14*REF(MID,6)+13*REF(MID,7)+12*REF(MID,8)+11*REF(MID,9)+10*REF(MID,10)+9*REF(MID,11)+8*REF(MID,12)+7*REF(MID,13)+6*REF(MID,14)+5*REF(MID,15)+4*REF(MID,16)+3*REF(MID,17)+2*REF(MID,18)+REF(MID,20))/210,COLORRED

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/30 0:03:32

从本地测试到线上部署:TensorRT全链路实践

从本地测试到线上部署:TensorRT全链路实践 在AI模型逐步走向工业级落地的今天,一个训练得再精准的深度神经网络,如果无法在生产环境中稳定、高效地运行,其价值就大打折扣。尤其是在视频分析、智能客服、自动驾驶等对延迟极为敏感的…

作者头像 李华
网站建设 2026/3/31 7:35:01

如何在Kubernetes中部署TensorRT推理服务?

如何在Kubernetes中部署TensorRT推理服务? 如今,AI模型早已走出实验室,广泛应用于视频分析、语音识别、推荐系统等高并发生产场景。但一个训练好的PyTorch或TensorFlow模型,若直接用于线上推理,往往面临延迟高、吞吐低…

作者头像 李华
网站建设 2026/3/30 12:07:54

大模型推理瓶颈破解:使用TensorRT减少显存占用

大模型推理瓶颈破解:使用TensorRT减少显存占用 在当今AI应用加速落地的背景下,大语言模型(LLM)正以前所未有的速度渗透到智能客服、内容生成、语音交互等关键场景。然而,当我们将一个70亿甚至700亿参数的模型从实验室推…

作者头像 李华
网站建设 2026/3/25 9:20:19

大模型推理流水线设计:TensorRT作为核心组件

大模型推理流水线设计:TensorRT作为核心组件 在当前AI应用从实验室走向大规模落地的过程中,一个常被低估但至关重要的问题浮出水面——训练完成的模型,如何在真实生产环境中高效运行? 尤其是在大语言模型(LLM&#xff…

作者头像 李华
网站建设 2026/4/2 12:50:30

Transformer 中为什么用LayerNorm而不用BatchNorm?

无论是 BERT、GPT 还是 ViT,几乎都不用 Batch Normalization,而是清一色地用 Layer Normalization。 这不是巧合,而是 Transformer 架构中一个非常深层的设计选择。 一、BN 和 LN 到底在做什么? BN 和 LN 的出发点其实一样——稳…

作者头像 李华
网站建设 2026/4/2 2:49:15

揭秘大厂都在用的推理引擎——NVIDIA TensorRT核心技术

揭秘大厂都在用的推理引擎——NVIDIA TensorRT核心技术 在当今AI服务竞争白热化的时代,模型“跑得通”早已不是终点,真正的较量在于:能不能在10毫秒内完成一次推理?能否在一块Jetson Nano上稳定支撑20路视频流?又是否能…

作者头像 李华