Title
摘要: \(A\). 小红的\(red\) 直接枚举就好 神奇的代码 #include <bits/stdc++.h> #define endl '\n' #define int long long const int mod = 998244353; void solve() { std::string 阅读全文
posted @ 2026-04-12 21:15 栗悟饭与龟功気波 阅读(8) 评论(0) 推荐(0)
摘要: \(A.\)小苯的转盘游戏 通过\(x + 3 - 2\)可实现\(+1\)操作 通过\(x - 2 - 2 + 3\)可实现\(-1\)操作 所以可以实现任何数的转变 神奇的代码 #include <bits/stdc++.h> #define endl '\n' #define int long 阅读全文
posted @ 2026-04-06 19:38 栗悟饭与龟功気波 阅读(5) 评论(0) 推荐(0)
摘要: 二维前缀和与二维差分 二维前缀和:快速求一个子矩形的元素和。 二维差分:快速给一个子矩形整体加上一个数。 前缀和与差分互为逆运算 二维前缀和 如何计算二维前缀和 我们设\(s[i][j]\) \(=\) 从 \((1,1)\) 到 \((i,j)\) 这个矩形的元素总和 也就是下面这一部分的阴影面积 阅读全文
posted @ 2026-03-20 15:29 栗悟饭与龟功気波 阅读(13) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2025-11-01 17:30 栗悟饭与龟功気波 阅读(15) 评论(0) 推荐(0)
摘要: OMG-LLaVA学习记录 模型评估与(尝试)微调 首先根据文档 # for chat python omg_llava/tools/chat_omg_llava.py \ ${PATH_TO_CONFIG} \ ${PATH_TO_PTH} \ --image ${PATH_TO_IMAGE} # 阅读全文
posted @ 2025-10-13 00:00 栗悟饭与龟功気波 阅读(34) 评论(0) 推荐(0)
摘要: OMG-LLaVA学习记录 模型跑通 环境配置 我们先按照项目文档要求创建一个Python环境并且激活 conda create -n omg-llava python==3.10 source activate omg-llava 接着我们来安装torch # install pytorch wi 阅读全文
posted @ 2025-10-12 23:59 栗悟饭与龟功気波 阅读(50) 评论(0) 推荐(0)
摘要: OMG-LLaVA学习记录 跑代码前置准备(AutoDL平台) 这里我选择了一个显存32GB的GPU,因为我的电脑是8GB,加载模型显存直接爆了(即使加上了4-bit量化)。然后用了一个24GB的GPU,加载模型时也爆了,所以才用了一个32GB的GPU,但是最后实测运行时显存占用实际为15GB左右, 阅读全文
posted @ 2025-10-12 23:58 栗悟饭与龟功気波 阅读(49) 评论(0) 推荐(0)
摘要: OMG-LLaVA论文阅读笔记 Part1. 摘要-Abstract Abstract阐述了现有通用模型的现状和问题 Current universal segmentation methods demonstrate strong capabilities in pixellevel image 阅读全文
posted @ 2025-10-12 23:58 栗悟饭与龟功気波 阅读(75) 评论(0) 推荐(0)
摘要: 李宏毅ML_2021Spring_HW1 写在前面 可能会有一些小错误,会持续检查和更正的 题目如下 Step1. 导入相关库 # 导入PyTorch相关库 import torch import torch.nn as nn from torch.utils.data import Dataset 阅读全文
posted @ 2025-10-12 17:55 栗悟饭与龟功気波 阅读(29) 评论(0) 推荐(0)
摘要: AtCoder Beginner Contest 427(A~E) 写在前面 赛时 \(A — E\) \(A\) : 模拟 \(B\) : 模拟,暴力,前缀和 \(C\) : \(dfs\)/状态压缩,二分图概念,思维 \(D\) : 博弈论(\(P/N\)态) \(E\) : 思维,\(BFS\ 阅读全文
posted @ 2025-10-12 10:40 栗悟饭与龟功気波 阅读(46) 评论(0) 推荐(0)