摘要: 目前来看Google 是唯一一家在 AI 价值链上实现端到端垂直整合的公司。从基础模型 (Gemini)、应用层 (ImageFX, Search with Gemini, NotebookLM),到云架构 (Google Cloud, Vertex AI) 以及硬件 (TPUs),几乎全都有所布局 阅读全文
posted @ 2025-12-15 22:06 deephub 阅读(0) 评论(0) 推荐(0)
摘要: 打开交易图表,堆上十个技术指标,然后对着屏幕发呆不知道下一步怎么操作——这场景对交易员来说太熟悉了。如果把历史数据丢给计算机,告诉它“去试错”。赚了有奖励,亏了有惩罚。让它在不断的尝试和失败中学习,最终迭代出一个不说完美、但至少能逻辑自洽的交易策略。 这就是 TensorTrade 的核心逻辑。 T 阅读全文
posted @ 2025-12-14 19:24 deephub 阅读(4) 评论(0) 推荐(0)
摘要: 过去2年,整个行业仿佛陷入了一场参数竞赛,每一次模型发布的叙事如出一辙:“我们堆了更多 GPU,用了更多数据,现在的模型是 1750 亿参数,而不是之前的 1000 亿。” 这种惯性思维让人误以为智能只能在训练阶段“烘焙”定型,一旦模型封装发布,能力天花板就被焊死了。 但到了 2025 年,这个假设 阅读全文
posted @ 2025-12-13 22:50 deephub 阅读(2) 评论(0) 推荐(0)
摘要: 做 A/B 测试或者分析转化率的时候,经常会碰到那个老生常谈的问题: “这数据的波动到底是干预引起的,还是仅仅是相关性?” 传统的分析手段和机器学习擅长告诉你什么能预测结果,但预测不等于因果。而在做决策,不管是干预、优化还是调整业务逻辑时,我们需要的是因果关系。 今天介绍一下 PyCausalSim 阅读全文
posted @ 2025-12-12 21:29 deephub 阅读(10) 评论(0) 推荐(0)
摘要: 贝叶斯优化(Bayesian Optimization, BO)虽然是超参数调优的利器,但在实际落地中往往会出现收敛慢、计算开销大等问题。很多时候直接“裸跑”标准库里的 BO,效果甚至不如多跑几次 Random Search。 所以要想真正发挥 BO 的威力,必须在搜索策略、先验知识注入以及计算成本 阅读全文
posted @ 2025-12-11 21:32 deephub 阅读(3) 评论(0) 推荐(0)
摘要: 机器学习模型处理不了原始文本。无论是线性回归、XGBoost还是神经网络,遇到 "red" 、 "medium" 、 "CA" 这类分类变量都没法直接处理。所以必须把它们转成数字这个过程就是分类编码。 大家入门时肯定都学过独热编码或序数编码,但编码方法其实非常多。目标编码、CatBoost编码、Ja 阅读全文
posted @ 2025-12-10 21:50 deephub 阅读(6) 评论(0) 推荐(0)
摘要: LLM推理服务中,(Time-To-First-Token) 一直是个核心指标。用户发起请求到看见第一个token输出,这段时间越短体验越好,但实际部署中往往存在各种问题。 LMCache针对TTFT提出了一套KV缓存持久化与复用的方案。项目开源,目前已经和vLLM深度集成。 https://avo 阅读全文
posted @ 2025-12-09 19:27 deephub 阅读(7) 评论(0) 推荐(0)
摘要: 单机 PyTorch 模型跑推理没什么问题,但数据量一旦上到万级、百万级,瓶颈就暴露出来了:内存不够、GPU 利用率低、I/O 拖后腿,更别说还要考虑容错和多机扩展。 传统做法是自己写多线程 DataLoader、管理批次队列、手动调度 GPU 资源,这哥工程量可不小,调试起来也麻烦。Ray Dat 阅读全文
posted @ 2025-12-08 21:47 deephub 阅读(6) 评论(0) 推荐(0)
摘要: 很多人刚接触JAX都会有点懵——参数为啥要单独传?随机数还要自己管key?这跟PyTorch的画风完全不一样啊。 其实根本原因就一个:JAX是函数式编程而不是面向对象那套,想明白这点很多设计就都说得通了。 先说个核心区别 PyTorch里,模型是个对象,权重藏在里面,训练的时候自己更新自己。这是典型 阅读全文
posted @ 2025-12-07 22:01 deephub 阅读(4) 评论(0) 推荐(0)
摘要: RAG系统在生产环境中有个老大难问题:脆弱。演示时用精心准备的问题去问,效果看起来很惊艳。但真正上线后,用户的问题五花八门,向量数据库返回的文档语义上相似但实际答非所问,LLM又特别喜欢讨好,拿着一堆噪音数据照样能编出一套看似合理的答案。 那么问题出在哪呢?标准RAG是典型的开环架构:输入 → 嵌入 阅读全文
posted @ 2025-12-06 23:50 deephub 阅读(6) 评论(0) 推荐(0)