简单的ROS跨设备控制
RRRROS
ROS常用的进程通信机制是消息传递,是基于各个node与master的XML-RPC实现,并且可能用到TCP/UDP等传输层协议,非常地网络。这样看来,ROS进行跨设备通信应该是比较简单的。本篇主要记录一个简单的ROS跨设备应用场景,并简介其中的原理。
ROS常用的进程通信机制是消息传递,是基于各个node与master的XML-RPC实现,并且可能用到TCP/UDP等传输层协议,非常地网络。这样看来,ROS进行跨设备通信应该是比较简单的。本篇主要记录一个简单的ROS跨设备应用场景,并简介其中的原理。
在家配电脑环境工程时,真没有事干,就只能看看论文了。之前太naive了,了解得少,只知道2D地图表征常用栅格图以及点云,不常用的是隐式函数(implicit function),却忘记了还有SDF这个中间表征。查找2D-SLAM文献时,蹦出了几篇SDF相关的文章,都还算中规中矩,通俗易懂(比起什么cartographer分支定界来说,简直太友好了,不过说起来,这几篇论文中除了cartographer魔改论文之外,真的谈了后端吗?):
Fossel, Joscha-David, Karl Tuyls, and Jürgen Sturm. "2D-SDF-SLAM: A signed distance function based SLAM frontend for laser scanners." 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2015.
Daun, Kevin, et al. "Large scale 2d laser slam using truncated signed distance functions." 2019 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR). IEEE, 2019.
Fu, Xingyin, et al. "Improved Signed Distance Function for 2D Real-time SLAM and Accurate Localization." arXiv preprint arXiv:2101.08018 (2021).
P.S. 本文内容并不多。虽然这有三篇论文,其中值得大篇幅讲的不可能塞在这篇博客中,不值得大篇幅讲的都在这了。
Hexo NexT主题博客默认只有一个主页面,虽然可以在config.yml中选择以哪个板块作为主页面,但假如我想有多个不同的页面都与主页一样有页面预览,还是难以直接做到的。网上确实有一篇教程:【Hexo添加自定义分类菜单项并定制页面布局(简洁版)】,我的snippet板块第一版就是用这个教程搭建的,但之后发现存在一些问题。那么应该如何解决呢?
新电脑 Redmi G 2021 Ryzen7 版装双系统 (win11 + ubuntu 18.04 LTS)过程中遇到了一些问题,以后如果要换设备大概率还得再来一遍,本篇权当记录。不过说实话,从本篇字数来看,应该算得上一篇正规post而不是snippet了。这确实也与snippet板块的设置理念相悖,不过可能我就是那么啰嗦吧。PS:本文与AMD yes没有任何关系。
电脑还没到,我[#]。不得不说京东有些店是真的脑瘫,买RTX发AMD,AMD yes也别这样啊。没办法工作的情况下只能看论文,继续3D重建。3D重建有些部分与我当前工作有重合之处,我也想从中获得一些启发。本文是两篇小论文以及一本书(这本书的其中一卷)的一个小理解:
附注:不让我工作我就打原神。
很长一段时间没有静下心来看过有很强理论性的内容了,我十分担心自己会丧失理论上的思考能力以及数学计算能力。正好之前在看某篇论文时,看到其中提到一种叫做SAM(sharpness aware minimization)的方法,说是效果还行,此前保存了SAM论文,但没去细读。最近寒假由于电脑故障没办法工作,很闲,便重新了解了一些数值优化方面的知识(比如拟牛顿族),并读了读SAM(虽然读完感觉???这怎么这么魔法)
保研前是想搞3D重建来着,大概是无缘吧(xD)。最近老被安利 【5s NeRF训练】,听起来很强的样子,速度提升了好几个数量级,遂观摩了一下:
文章很有趣,对我现有工作有一定的启发价值,当然结果也很nice:
深度补全中存在多模态数据融合的问题:单目RGB图像直接进行深度估计比较困难(直接深度估计,个人感觉只能凭借常识和先验知识),而如果同时存在稀疏激光点云(散步在稠密的图像上),可以通过“传播的思想”将一些位置的深度传播出去。在返乡的高铁上没事干(事实上由于河南大雪以及湖北大雨,高铁变成了低铁,时间+2h),看了五篇论文,本文简要分析了其中三篇关于 guided深度补全的文章:
本文可能写得很烂,笔者在看这三篇论文以及写博客时,由于返乡安排太紧,只睡了3.25小时。
Swin Transformer获ICCV best paper之后,就总有很多人提起它。个人在前段时间复现了一个与ViT相关的工作(Compact Convolution Transformer),感觉实现太简单(训练难),遂想尝试一些更加复杂的工作。同时我当然也想看看best paper到底是什么水平。此论文写得很清晰,实验做得非常漂亮,思想也很有趣,不过可以说是一篇typical神经网络文章:一个公式都没有(attention公式以及复杂度计算公式不算)。个人虽然惊叹于其SOTA表现,但由于存在不可解释的魔法,也始终觉得很膈应。本文是我在复现过程中的整理的一些思路和我觉得本论文中疑难之处及其理解。复现见:Github/Maevit(这实际是ViT的复现repo)