2026年02月02日
本周工作计划与执行完成进度
中心服务平台 - 轻量化跨境分布式第二阶段改造
- 目标: 控制变更范围,降低引入风险,实现面向客户可用的初步功能体验。
- 进度: 已完成 100% | 计划完成 100%(🟢 未开始 | 🟡 进行中 | ⚠️ 部分完成 | ✅ 已完成 | 📌 已测试)
- 📌 以往已完成的工作内容此处不再重复,详情请参阅上周及上月的。
- ✅ 从节点导入新数据时的通知机制
- ✅ 导入新用户、设备及采集服务器数据后,创建对应的 MQTT 账号
- ✅ 导入新国际化数据后,生成对应的国际化 JSON 文件
- ✅ 主线流程测试,发现的问题修正或改进
- 全量/增量导出测试:
- 相关机制测试:初始化目录、清理生成目录、文件流转,以及失败重试、防重、归档、过期清理机制验证
- 全量导出:覆盖79张表,做数据完整性测试,抽查1/10的导出文件内容
- 增量导出:覆盖79张表,通过界面、数据库工具对表数据做任意方式改动,验证增量文件能否及时生成,抽查1/10的导出文件内容
- 全量/增量同步测试:
- 相关机制测试:初始化目录、清理下载目录、文件流转,以及失败重试、防重、归档、过期清理机制验证
- 全量导入:覆盖79张表,全量导入完成后,做从节点与主节点的数据一致性测试,抽查1/10的导入数据库内容
- 增量导入:覆盖79张表,每次增量导入完成后,做从节点与主节点的数据一致性测试,抽查1/10的导入数据库内容
- MQTT账号创建测试:
- 导入新的用户、设备及采集服务器数据后,创建对应的MQTT账号,通过MQTTX工具验证账号有效性
- 导入新的国际化数据后,验证系统能否生成对应的国际化JSON文件,并核对文件内容的一致性
- 全量/增量导出测试:
其它
- 目标: 记录日常耗时的杂项工作、协作事项,以及必要的沟通、讨论等隐性事务。
- 进度: 属非计划内事务(🟢 未开始 | 🟡 进行中 | ⚠️ 部分完成 | ✅ 已完成 | 📌 已测试)
- 📌 以往已完成的工作内容此处不再重复,详情请参阅上周及上月的。
- 03 日
- bug fix: 自测出的国际化数据入库问题: 前端自动上报的词条没有写入数据库中
- bug fix: 韦忠正反馈的修改设备配置时提示问题: 后端验证取值不对
Data acquisition device no exists: HS25020001;
- 04 日
- 原部署在公网服务器上的 lbs 服务切换到内网上运行, 通过 frp 提供公网访问
- 多次制作更新程序部署至 zxs-cs/zxs-c 上进行测试
- 05 日
- 多次制作更新程序部署至 zxs-cs/zxs-c 上进行测试
- 05 日
- 多次制作更新程序部署至 zxs-cs/zxs-c 上进行测试
- 为印度客户定制开发了获取公网 IP 的接口,通过白名单设置,无需 token 即可访问
- 确保所有接口返回的 JSON 数据中都包含 extraData.clientIp 字段
总结
- 测试发现问题:
- 下载报错:
- 使用 Apache Commons VFS2 连接 SFTP 服务器。实现方式是在 URI 字符串中内联认证信息(用户名:密码),格式为
sftp://username:password@host:port/path - 当密码包含特殊字符(如
@,:,/)时,URI 解析器无法正确区分哪些字符是密码的一部分,哪些是 URI 的分隔符,导致FileSystemException: because it is a relative path, and no base URI was provided - 改为使用第三方库 Apache MINA SSHD
- 使用 Apache Commons VFS2 连接 SFTP 服务器。实现方式是在 URI 字符串中内联认证信息(用户名:密码),格式为
- 导入报错:
- JSON 中的时间值被转换为数字类型,改为写入数据库前转换回时间类型
- 增量导入时,分区表不能使用 ON CONFLICT 语法(这个语法会将数据写入父表)改为先 UPDATE(无影响后)再 INSERT
- old_data 和 new_data 字段在导出时会被 PGobject 包装,导致多了一层嵌套。为了让从节点能正确解析,需要将其还原为简单的结构。
- 下载报错:
备忘
- 采集服务器调用的同步设备接口需排查 token 验证不通过的问题。
Last updated on