一个完整层级图
1 | 产品层 |
Assistant = UI壳子
Agent = 决策大脑
Skill = 固定能力流程
Tool = 外部执行器
Model = 语言与推理引擎
Infra = 运行与部署系统
更详细的内容
1 | 🟣 产品交互层(Product / Experience Layer) |
1 | 产品层 |
Assistant = UI壳子
Agent = 决策大脑
Skill = 固定能力流程
Tool = 外部执行器
Model = 语言与推理引擎
Infra = 运行与部署系统
1 | 🟣 产品交互层(Product / Experience Layer) |
最近在研究RAG,计划生成一个独立的文档的支持系统,但是总是感觉RAG是个中间技术方案,不会太长久。
今天读到了karpathy/llm-wiki.md,很受启发。
某云原生 application 在部署阶段对磁盘 I/O 有明确要求:
在挂载的 volume 上执行如下命令时,返回结果必须 ≥ 1MB/s。
1 | dd if=/dev/zero of=./test2.img bs=4k count=10240 oflag=direct |
这是一个 4K 小块、无缓存、直写磁盘的测试场景。
如果在该条件下仍能满足性能要求,基本可以覆盖关系型数据库的所有严苛 I/O 场景。
3 台 Baremetal(HP DL380 Gen11)
HDD 做 RAID1 用于 Host OS,SSD 不做 RAID
Host OS:Ubuntu 24.04,启用 KVM
每台 Host 上运行多个 VM,其中部分 VM 挂载 SSD
VM 上部署 OpenShift
3 个挂载 SSD 的 VM 作为存储节点,部署 ODF(Ceph)
OpenShift 内部署 MariaDB 集群
在 MariaDB 数据卷中执行 I/O 测试
初始测试结果约 500~600 KB/s,远低于目标。
1 | <disk type='block' device='disk'> |
徘徊多次后,仍旧提升非常有限,检查ceph的性能指标是发现:
1 | root@service:~# oc exec $(oc get pod -n openshift-storage | grep tools | head -n 1) -n openshift-storage -it -- bash |
这里很明显的发现问题,osd网络延时有问题,不在同一个host上的osd延时明显较大,对比site上的情况,osd之间的延时是低于1ms的。
进行下一步验证网络延时发现,VM和VM之间,甚至HOST之间的ping值也是高于1ms的,所以基本锁定,性能上不去基本上是网络延时引起的,而不是disk I/O本身性能瓶颈引起。
为了进一步验证,把ceph的副本个数从三个改成一个,测试的结果有了明显的提升。
中间尝试把HOST的网卡开启SR-IOV,网络延时瞬间降到0.1ms,提升明显,但是部署OCP的过程遇到很多问题,而且考虑到NUMA的影响,资源会浪费一半,无法走通,遂放弃。
尝试更改MTU,从1500增加到8500,有提升到700K/s,仍是无法满足要求,而且OCP更改MTU的成本也挺高。
在同另外一套lab环境对比以后,发现有几不同,我们的网卡类型,英特尔的网卡+10G光口,另一套的lab是高通的网卡+10G电口,网速ping值的差距非常明显,一个是1ms,一个是0.1ms,怀疑网卡配置,但是调试多次以后,甚至交换网卡,仍然没有明显的改变。
最后猜测是不是CPU的调度问题,发现两个OS,一个是Ubuntu,一个是redhat,查询以后发现Ubuntu在很久前就引入了CPU idle(C-states),Ubuntu 默认启用内核的 cpuidle 子系统,允许 CPU 进入多级低功耗状态(如 C1, C2, C3 … 更深 C-states),Ubuntu 24.04 引入并默认使用 power-profiles-daemon 来统一管理电源策略,包括 idle、freq 和 sleep profiles。这意味着除了 CPU idle states 外,Ubuntu 24.04 会:
在桌面环境中提供电源模式(Balanced/Power-Saver/Performance)选项
默认是 Balanced 模式,结合 P-states + idle states 使功耗更低
https://help.ubuntu.com/stable/ubuntu-help/power-profile.html.en
检查Host OS以后,果然是默认开启了这个配置,修改成Performance模式,果然网速ping值里面提升到0.1ms, ceph的性能立马延时也降到1ms内。
再次测试dd,效果立竿见影达到1.4M/s,达成目标。
P.S. 以下命令会直接破坏磁盘数据,注意of的指向目录,请勿在生产环境使用:
1 | dd if=/dev/zero of=/dev/vdd bs=4k count=10240 oflag=direct |
今天中午在公司的比赛场地完成了今年的最后一次足球比赛,完美收官了。
统计记录来到了63场,122个小时,总消耗了超过了12万千卡,还是挺有成就感的。
大大超过了今年的预期,和去年的比例相当。(2024年6月-12月,37次)

明年加油!!!
在给XBot官方反馈了两次以后,APP得到了更新,每次的视频录像合并和处理的功能基本上满足日常需求了。
这周日的比赛,前三个星期一直没有踢,所以安全为上,踢了大半场的中后卫,最后几分钟冲上去打了一会饼锋,没想到特别快乐,斯特林附体。
请欣赏这一分钟两次的快乐足球。
在这篇文章中,介绍了如何使用飞天信诚的加密狗设备进行加密解密。
但是文章的最后,有一个遗憾,就是需要借助官方给的php代码来进行解密,自己尝试了几次用python实现,但是总是失败,今天终于发现了解决之道。
需要安装一个pycryptodome。
1 | pip3 install pycryptodome -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com |
最后的代码:
1 | def check_rsa_code(encrypted_str: str) -> str: |
这样就解决了这一问题,完全不再依赖PHP了,真好!
困扰了四年的问题,就这样解决了~
前一阵得到一笔意外收入,为了在葫芦娃俱乐部踢的更开心,和老边商量决定买一个xbot足球比赛录像设备。
开始用着感觉不错,但是有两点挺鸡肋,一是这个设备不能自己录像,设备只提供运动跟踪和云台功能,录像需要用手机的摄像头,这样就需要占用手机,如果被电话等程序打断,录制有可能中断。二是如果想快速剪辑,就需要在录像的时候用遥控器操作打点,这样如果我在场上踢比赛,是无法操作的,没有打点记录,剪辑的时候时间成本就比较高了。
但是,昨天的比赛中,当他录到我的一个高光时刻的时候,我对他的印象分又提高了不少。
请欣赏这一记精彩的后脚跟磕球助攻。
现在的两个解决方案:
录像现在直接传到B站,清晰度,速度都可以接受,这样不剪辑也可以。录制完直接传,占用不了多少时间。
视频录像上有实时的时间水印,这一点比较好,那么就需要在精彩时刻发生的时候,想办法快速的记录下时间,并且编辑的时候,直接补打上点,就可以快速的剪辑出来精彩集锦了。
所以目前唯一的不足,是如何在场上踢球的时候,也能多次快速的记录下准确的时间呢?
无锡的项目搞的差不多了,从忙碌的疯狂进代码的阶段进入了短暂的空闲期。
啤酒城的项目今年没有啥大的改动,等合同敲定,活动开业前,把服务器重新部署上线即可。
不夜城街区的项目,肥城的已经完成,等剑阁项目和临夏项目开业,服务器部署一下,活也不是太多。
那么,得琢磨个事情干干,这段空档期干点啥好呢~

软件的版本,又何尝不是人生的版本呢?
最近在把分散在各地的项目进行了整合,计划合并到一个服务器上,搬家工作搞了整整一天。
研究了一番,最后把去年项目剩的服务器全给取消了,买了一个阿里云的云小站 https://www.aliyun.com/minisite/goods 的ECS。
配置有两种:
2核2G,3M固定带宽,40G ESSD Entry云盘 ¥99.00/1年起 官网折扣价: ¥956.64/1年
2核4G,5M固定带宽,80G ESSD Entry云盘 ¥199.00/1年起 官网折扣价: ¥2507.70/1年
物超所值,几乎不到1折的价格,更重要的是,能不限年限的续费,一个账户只能嫖一个。
直接199的配置走起,2核4G完全够用。跑了两个Python Flask, 两个Python FastAPI, 两个静态site,还能剩余2.2G内存,妥妥够用。
感谢阿里云~
PyCharm里如果有js, html 和css文件,社区版本的IDE是不能直接格式化这些静态文件,需要专业版的来实现。
所以,可以尝试在terminal里直接使用prettier格式化代码。
1 | # 用node全局安装 |