データ工学ロボティクス研究専門委員会(Data Engineering Robotics)では,人やロボットや動物などが捉えた日々の変動する大量の情報の中から,人やロボットや動物の意思決定に利用可能な知識を創出し,サポートや行動変容を促すサービスや概念を普及することを目指しています[1,2]。
 Thomas Westfechtel先生(東京大学)の公開講演(2022年8月5日開催)では、3D LiDARや全周囲カメラを利用した空間認識や知識獲得の研究について紹介して頂きました。研究成果は、移動体が実世界で知的に行動するために必要不可欠な技術です。約60分の講演会を通して下記の3つの技術について理解することが出来ました。


  1. 地図に載っていない駐車可能な場所の発見[3][4]
    車載3D LiDARで計測した日々の3次元点群から他人が停車した車を認識して駐車可能な場所を発見する。俯瞰視点の3次元点群表示と深層学習を利用して点群データから車を認識。確率的な手法とグラフ理論を利用して、駐車可能な場所を推定する方法を提案。
  2. セマンティックを持った大規模な3次元点群地図の構築[5][6][7]
    3D LiDARと全方位画像を融合して3次元点群の1点1点のセマンティックを認識。海外で公開されているラベル付きのデータと、自前で準備した100個所ほどの小規模データを融合してセマンティクスを認識。また、セマンティックのラベルを利用して、人や木々などを抽出したり、人々の動きを解析したりする方法を提案。
  3. 建設現場のセマンティック地図の構築[8]


講演者のThomas Westfechtel先生(東京大学)のご好意で、ロボット学会のYoutubeチャンネルに公開講演の動画を公開しております。ぜひ、動画の視聴を通して最先端の研究に触れ、ご自身の研究や仕事にご活用下さい。


  • 講師:Thomas Westfechtel(東京大学)
  • タイトル:
    Generating high-level knowledge enriched maps through observing the environment and its usage over time.
  • 概要:
    One of the bottlenecks for autonomous robots is the overly complex structure of human-made environments. The robot has to perceive and understand its environment to a high degree. In order for the robot to react to and interact with the environment, high-level knowledge of the environment is required. To alleviate this problem semantically enhanced maps are often employed (i.e., for self-driving vehicles these maps include driving lanes, traffic signs, and lights, …). While such kind of high-level knowledge-enriched maps proves to be very effective, the generation of these maps is tedious. In the lecture, we exploit that the environments are in active use. By observing their usage over time, we extract high-level knowledge and enrich environmental maps with it in order to generate a better understanding of the environment for the robot.
  • スケジュール:8/5(金)16 :00-17:00 公開講演
  • オンライン会議形式:Webinar
  • 参加人数:35名


  • [1] データ工学ロボティクス研究専門委員会HP:
  • [2] 大野 和則, 山崎 公俊, 下坂 正倫, データ工学ロボティクス, 日本ロボット学会誌, 2015, 33 巻, 2 号, p. 97-99, 公開日 2015/04/15, Online ISSN 1884-7145, Print ISSN 0289-1824,,
  • [3] T. Westfechtel, K. Ohno, N. Mizuno, R. Hamada, S. Kojima, S. Tadokoro, “Parking Spot Estimation and Mapping Method for Mobile Robots,” IEEE Robotics and Automation Letters (RA-L), Vol. 3, No. 4, pp. 3371 – 3378, 2018. DOI: 10.1109/LRA.2018.2849832
  • [4] S. Yu, T. Westfechtel, R. Hamada, K. Ohno, S. Tadokoro, “Vehicle Detection and Localization on Bird’s Eye View Elevation Image Using Convolutional Neural Network,” IEEE SSRR, Th8T1, 2017. DOI: 10.1109/SSRR.2017.8088147
  • [5] T. Westfechtel, K. Ohno, R.P.B. Neto, S. Kojima, S. Tadokoro “Fusion of Camera and Lidar Data for Large Scale Semantic Mapping,” Proc. of IEEE ITSC, 2019. DOI: 10.1109/ITSC.2019.8917107
  • [6] R.P.B. Net, K. Ohno, T. Westfechtel, S. Tadokoro, “Pedestrian Flow Estimation Using Sparse Observation for Autonomous Vehicles,” Prof of International Conference on Advanced Robotics (ICAR), IEEE, pp. 779–784. DOI: 10.1109/ICAR46387.2019.8981587
  • [7] R.P.B. Neto, K. Ohno, T. Westfechtel, S. Kojima, K. Yamada, S. Tadokoro, “Knowledge Acquisition from Pedestrian Flow Analysis using Sparse Mobile Probe Data,” Journal of Intelligent & Robotic Systems, 102, 4, 2021. DOI: 10.1007/s10846-021-01419-w
  • [8] T. Westfechtel, K. Ohno, T. Akegawa, K. Yamada, RPB Neto, S. Kojima, T. Suzuki, T. Komatsu, Y. Shibata, K. Asano, “Semantic Mapping of Construction Site From Multiple Daily Airborne LiDAR Data,”IEEE Robotics and Automation Letters, 6, 2, pp. 3073-3080, 2021. DOI: 10.1109/LRA.2021.3062606