摘要: 1、安装docker 2、 docker-compose.yml services: litellm: image: docker.litellm.ai/berriai/litellm:main-stable volumes: - ./config.yaml:/app/config.yaml por 阅读全文
posted @ 2026-03-28 13:17 河在谈 阅读(35) 评论(0) 推荐(0)
摘要: 1、copaw要支持ollama模型要采用下面的命令安装: curl -fsSL https://copaw.agentscope.io/install.sh | bash -s -- --extras ollama 2、启动,局域网可访问 copaw app --host 0.0.0.0 阅读全文
posted @ 2026-03-19 11:21 河在谈 阅读(65) 评论(0) 推荐(0)
摘要: 1、下载 wget https://developer.download.nvidia.com/compute/cuda/13.2.0/local_installers/cuda_13.2.0_595.45.04_linux.run 2、安装gcc 11 #11版本 sudo apt install 阅读全文
posted @ 2026-03-18 14:29 河在谈 阅读(45) 评论(0) 推荐(0)
摘要: 1、到套件中心安装 Virtual Machine Manager 2、打开上传下载的 ImmortalWrt 套件.img格式的,X86-64的:https://immortalwrt.kyarucloud.moe/releases/24.10.4/targets/x86/64/immortalw 阅读全文
posted @ 2026-03-13 13:48 河在谈 阅读(71) 评论(0) 推荐(0)
摘要: https://trevoreyre.com/portfolio/excel-datepicker/ 阅读全文
posted @ 2026-03-07 22:49 河在谈 阅读(4) 评论(0) 推荐(0)
摘要: 1、下载对应版本的程序 /opt/ollama# wget https://github.com/ollama/ollama/releases/download/v0.15.5-rc3/ollama-linux-amd64.tar.zst 2、解压 # tar -I zstd -xvf ollama 阅读全文
posted @ 2026-02-11 08:10 河在谈 阅读(235) 评论(0) 推荐(0)
摘要: 镜像太大,服务器1费好大劲下载完了,可以直接导出导入到服务器2、3、4 在服务器1 docker save -o vllm-openai.tar vllm/vllm-openai 然后拷贝到别的服务器 scp vllm-openai.tar 172.24.193.68:/opt/vllm/ 在服务器 阅读全文
posted @ 2026-01-29 13:38 河在谈 阅读(13) 评论(0) 推荐(0)
摘要: 创建虚拟环境,里面的python版本就是当前python3的版本,没法指定,不如conda灵活 python3 -m venv .hf-env 激活环境,想进环境都要做 source .hf-env/bin/activate 升级基础工具(避免安装问题) pip install --upgrade 阅读全文
posted @ 2026-01-29 10:00 河在谈 阅读(16) 评论(0) 推荐(0)
摘要: 下载引导 https://github.com/fbelavenuto/arpl/releases 上传解压的两个文件,会变成一个。 创建虚拟机,选这个操作系统,不然出不来SATA硬盘。 删除已有硬盘和光驱,新加已有硬盘,选择上传的文件,修改硬盘控制器为sata,所有的硬盘都设置为sata。 现在这 阅读全文
posted @ 2026-01-07 16:05 河在谈 阅读(153) 评论(0) 推荐(0)
摘要: 1、在linux下启动rsync服务 安装 apt install rsync 配置文件 vim /etc/rsyncd.conf —————————————— # 全局配置 uid = root gid = root use chroot = no max connections = 10 tim 阅读全文
posted @ 2025-12-24 08:49 河在谈 阅读(40) 评论(0) 推荐(0)