摘要:
1.1 Fenwick Tree Keywords: Contribution Trick 1.1.1 Classic Fenwick Just like prefix sums, we store 0 for the first index (1-based indexing). Fenwick 阅读全文
1.1 Fenwick Tree Keywords: Contribution Trick 1.1.1 Classic Fenwick Just like prefix sums, we store 0 for the first index (1-based indexing). Fenwick 阅读全文
posted @ 2026-02-06 03:56
rainrzk
阅读(1)
评论(0)
推荐(0)

这是一篇关于C++的快速Review。默认C++17-O2。大概是工具/库这种东西和算法分成两个部分来讲,最后加一点复杂度分析。 1 工具/库 1.1 STL 1.1.1 数据结构 string 字符串通常就是用三个函数:s.substr(),s.find(),s.compare()。 string
1 Tradition 1.1 Perceptron Formula. Error Bound Theorem. Multiclass. 1.2 Linear Regression MLE & MAP. Formula. Regularization. 1.3 kNN Graph. Overfit
无论是康德、叔本华还是黑格尔,他们提出的所谓“体系”“理论”都是服务于现实(国家、阶级)的假说。 斯宾诺莎 斯宾诺莎是爱因斯坦最喜欢的哲学家,爱因斯坦本人也信奉斯宾诺莎的静态的、自然的物理规则(即上帝本身)。 “一切都是决定好的”,可以说他是后来机械决定论的奠基者。 康德 康德最著名的两本书《纯粹理
这是我在粗看土田知则《现代文学理论》后的一些浅薄理解。内容浅显,请多指教。 1 传统的阅读方法 什么是传统呢?比如一句话,一个意象,代表的是什么,就是什么;对于一个梦,详细地解释前因后果,并尝试缓解做梦者的症状。 “我在一片模糊的森林中迷路了,四周都是低语。” 作为传统的阅读理解,我们会直接套用象征
这是一个蛮有趣的领域,旨在保留大部分自回归效果的前提下,显著降低推理时间(说一下监督学习一般用“预测”这种说法,非监督学习通常是“推理”)。 Paper 1: Non-Autoregressive Coarse-to-Fine Video Captioning (2021) 这篇论文提出了Coars
Variational Autoencoder 的目的是将输入数据映射成潜在分布(隐分布)。 什么是潜在分布?就是特征提取后的有效低维空间的概率分布。 VAE包括编码器和解码器。 编码器负责将输入数据 \(\boldsymbol x\)(可能是高维向量)映射成低维的 \(\mu_{\boldsymb
比尔·盖茨近期发表了一篇博客,其中谈到Agents将会是LLM的未来方向。LLM是一个Decoder,是Agent的大脑。LLM和Agent的区别,正如GPT-4和ChatGPT的区别。 1 Intro 如图所示: Agents具有运用“Tools”的能力,可以调用外部api或沙盘来执行代码; Ag
https://arxiv.org/pdf/2404.16130 往期的NaiveRAG基本都是显式检索,而GraphRAG通过知识图谱增强了总结能力。 1 引入 RAG的向量查询可以如下归纳: 索引阶段:文档先进行分块(可以划分成统一大小的512token块,也可以根据语义按句子划分,如spaCy
浙公网安备 33010602011771号