به گزارش گروه علم و فناوری ایسکانیوز، نگاه به یک شی و یا احساس آن با لمس کردن برای انسان کاری آسان به نظر می رسد؛ اما همین امر می تواند چالشی بزرگ برای ماشینها باشد. در حال حاضر، دانشمندان در آزمایشگاه علوم کامپیوتر و هوش مصنوعی موسسه علم و فناوری ماساچوست (CSAIL) رباتی که قادر به انجام اینکار است را توسعه دادهاند.
این تیم به رهبری «تد آدلسون» به یک بازوی رباتیک «KUKA» یک حسگر لمسی به نام «GelSight» اضافه کرد. سپس اطلاعات جمع آوری شده توسط GelSight به هوش مصنوعی ارسال میشود تا بتواند ارتباط بین اطلاعات تصویری و لمسی را یاد بگیرد.
محققان برای آموزش هوش مصنوعی در مورد چگونگی شناسایی اشیا، 12 هزارفیلم از لمس کردن 200 شی مانند پارچه، ابزار و اشیاء خانگی را ضبط کردند؛ سپس این فیلم ها به تصاویر ثابت شکسته شدند و هوش مصنوعی از این مجموعه داده ها برای برقراری ارتباط بین لامسه و داده های بصری استفاده کرد.
«یانژو لی» یکی از محققان این طرح اظهار کرد که این مدل با نگاه به صحنه، احساس لمس کردن یک سطح صاف یا لبه تیز را تصور میکند و با لمس کردن کورکورانه اشیاء اطراف تعامل با محیط را صرفا با استفاده از احساسات لمسی پیشبینی میکند.
کنار هم قرار گرفتن این دو حس ربات را قدرتمند کرده و دادههای مورد نیاز برای دستکاری و گرفتن اشیاء مورد نیاز را نیز کاهش میدهد.
این ربات در حال حاضر، تنها اشیا را در محیط های کنترل شده شناسایی میکند. گام بعدی ایجاد مجموعه داده بزرگتر جهت فعالیت ربات در محیط های متنوع است.
محققان معتقدند با توجه به وجود سیگنال های مختلف از لمس اشیا، این ربات ظرفیت های زیادی برای تحقیقات آینده ایجاد کرده است.
انتهای پیام/