Berangkat dari masalah tersebut, para peneliti di Robotics Institute, Carnegie Mellon University, Amerika Serikat, mulai mengembangkan metode baru untuk melakukan eksplorasi bangunan yang rusak dengan menggunakan robot terbang otonom.
Hal ini bertujuan membantu responden pertama untuk mengumpulkan informasi dan membuat keputusan yang lebih tepat setelah bencana.
“Ide utama penelitian ini adalah menghindari redundansi dalam eksplorasi,” kata Seungchan Kim, mahasiswa PhD di Robotics Institute, seperti dikutip dari
Futurity, Sabtu (17/8).
“Karena ini adalah eksplorasi multirobot, koordinasi dan komunikasi antar robot sangat penting. Kami merancang sistem ini sehingga setiap robot menjelajahi ruangan yang berbeda, memaksimalkan ruangan yang dapat dijelajahi oleh sejumlah drone," ujarnya.
Drone tersebut akan berfokus pada pendeteksian pintu secara cepat karena target yang penting, seperti orang, lebih mungkin berada di dalam ruangan daripada di koridor. Untuk menemukan pintu masuk yang menjadi target ini, robot memproses sifat geometris lingkungan sekitar menggunakan sensor lidar bawaan.
Dengan melayang pelan sekitar enam kaki dari lantai, robot udara mengubah data titik awan lidar 3D menjadi peta transformasi 2D. Peta ini menyediakan tata letak ruang sebagai gambar yang terdiri dari sel atau piksel, yang kemudian dianalisis oleh robot untuk isyarat struktural yang menandakan pintu dan ruangan.
Kim menjelaskan bahwa para peneliti memilih sensor lidar daripada kamera karena dua alasan utama.
"Pertama, sensor menggunakan daya komputasi yang lebih sedikit daripada kamera. Kedua, kondisi di dalam gedung yang runtuh atau di lokasi bencana alam mungkin berdebu atau berasap, yang akan mengganggu penglihatan pada kamera tradisional," kata Kim.
Robot-robot tersebut tidak dikendalikan pangkalan terpusat. Sebaliknya, setiap robot membuat keputusan dan menentukan lintasan optimal berdasarkan pemahamannya terhadap lingkungan dan komunikasi dengan robot lain.
Robot udara berbagi daftar pintu dan ruangan yang telah mereka jelajahi satu sama lain dan menggunakan informasi ini untuk menghindari area yang telah dikunjungi.
Tim tersebut mempresentasikan penelitian mereka pada Juli lalu di Konferensi Internasional IEEE 2024 tentang Robotika dan Otomasi.
Kim berencana untuk terus meneliti eksplorasi multirobot dan pemahaman adegan semantik untuk eksplorasi multirobot dan koordinasi tugas.
BERITA TERKAIT: