期刊在线咨询服务,发表咨询:400-888-9411 订阅咨询:400-888-1571股权代码(211862)

期刊咨询 杂志订阅 购物车(0)

基于无监督深度学习的多模态手术轨迹快速分割方法

谢劼欣; 赵红发; 邵振洲; 施智平; 关永 首都师范大学信息工程学院; 北京100048; 成像技术北京市高精尖创新中心; 北京100048; 首都师范大学轻型工业机器人与安全验证北京市重点实验室; 北京100048

关键词:机器人辅助微创手术 多模态轨迹分割 无监督深度学习 合并后处理 

摘要:传统的手术机器人轨迹分割方法存在耗时长、分割准确度差且容易产生过度分割等问题.为解决上述问题,本文提出了一种基于特征提取网络DCED-Net(密集连接的卷积编码-解码网络)的多模态手术轨迹分割方法.DCED-Net采用无监督方法,不必进行十分耗时的人工标注,使用密集连接结构,使图像信息能更有效地在卷积层间传递,从而提高了特征提取质量.将特征提取后的视频数据和运动学数据投入转移状态聚类(TSC)模型得到预分割结果.为进一步提高分割精度,提出了一种基于轨迹段间相似性的合并后处理算法,通过衡量轨迹段间的4个相似性指标,包括主成分分析、互信息、数据中心距离和动态时间规整,将相似度高的分割段进行迭代合并,从而降低过度分割造成的影响.公开数据集JIGSAWS上的大量实验证明,与经典的轨迹分割聚类方法相比,本文方法的分割准确率最高提升了48.4%,分割速度加快了6倍以上.

机器人杂志要求:

{1}参考文献必须在文中用[数字]标出对应标号,参考文献统一列在文后。

{2}著作类:作者(译者)姓名、书名、出版地、出版社名称、出版年份、页码(直接引文时标明)。论文类:作者姓名、文章名、所载报刊名称、年份、期号、页码。

{3}如一旦发现一稿两用,本刊将刊登该文系重复发表的声明,并在3年内拒绝以该文第一作者和通讯作者的任何来稿。

{4}论文题目应当简洁明了,反映论文的主旨。论文题目应便于读者检索、转抄和引用,中文题名不宜超过20个字;外文题名不超过10个实词。不宜采用抒情意味、反问意味的主标题和副标题。

{5}任何来稿视为作者、译者已经阅读或知悉并同意本须知约定。

注:因版权方要求,不能公开全文,如需全文,请咨询杂志社

机器人

北大期刊
1-3个月下单

关注 26人评论|1人关注
相关期刊
服务与支付