نگاهی نو به صنعت خودرو با جدیدترین اخبار و تحلیل ها در حوزه خودرو با "پدال نیوز" همراه باشید      
۰۷ دی ۱۴۰۳ - ۲۳:۳۹
کد خبر: ۱۰۴۵۰۴
2019 May 19 - ۱۴:۴۴ - ۲۹ ارديبهشت ۱۳۹۸ تاریخ انتشار:
پدال نیوز- محققان مایکروسافت مشغول ابداع هوش مصنوعی برای سیستم هدایت خودرو خودران هستند که ترس را حس می کند و به این ترتیب هنگام رانندگی بهتر تصمیم می گیرد.
به گزارش پدال نیوز به نقل از مهر ، هوش مصنوعی در سال‌های اخیر بسیار پیشرفته شده است و کارشناسان معتقدند استفاده از آنها در خودروهای خودران گسترده‌تر می‌شود.
 
اما با وجود قابلیت‌های مختلف این فناوری، هوش مصنوعی یکی از مهم‌ترین ویژگی‌های راننده انسانی را ندارد. این ویژگی ترس است.
 
واکنش روانشناختی ناشی از ترس به انسان کمک می‌کند تصمیمات حیاتی بگیرد و به خصوص هنگام کاری مانند رانندگی تمرکز کند. در همین راستا محققان مایکروسافت با کمک این ایده قصد دارند طی پژوهشی جدید مهارت‌های تصمیم گیری خودروهای خودران را افزایش دهند. آنها امیدوارند بتوانند ماشین‌هایی بسازند که می‌تواند سریع‌تر بیاموزد و اشتباهات کمتری انجام دهد.
 
این محققان یافته‌های خود را طی گزارشی در کنفرانس بین المللی ICLR 2019 ارائه کردند.
 
آنها برای آموزش ترس به هوش مصنوعی از حسگرهای ضربان استفاده کردند تا ضربان قلب افراد هنگام استفاده از شبیه سازهای رانندگی را رصد کنند.
 
این سیگنال‌ها در مرحله بعد وارد یک الگوریتم شد تا مشخص شود چه شرایطی به افزایش ضربان قلب فرد منجر می‌شود.
 
دانیل مک داف و آشیش کاپور مؤلفان تحقیق در این باره توضیح می‌دهند: واکنش‌های سیستم عصبی اتوماتیک بازخوردی طبیعی و ذاتی درباره عواقب احتمالی هر تصمیم (مانند عصبی شدن هنگام رانندگی با سرعت بالا) فراهم می‌کنند.
 
به گفته محققان آموزش به الگوریتم درباره اینکه فرد چه زمان اضطراب بیشتری دارد، در حقیقت به ماشین‌ها امکان می‌دهد از خطرات اجتناب کنند.
 
به هرحال محققان نرم افزار هدایت خودران را در یک مسیر مارپیچ شبیه سازی به کار گرفتند. این مسیر پر از دیوار و سراشیبی بود تا مشخص شود نرم افزار با توجه به احساس ترس به کاررفته در آنچه واکنشی نشان می‌دهد.
 
جالب آنکه این نرم افزار در مقایسه با نسخه‌ای که براساس میزان نزدیک بودن دیوار آموزش دیده بود، احتمال برخورد کمتری داشت.
 
البته هنوز باید در این مورد تحقیقات بیشتری انجام شود.
rbox
خبر فارسی
lbox
نام:
ایمیل:
* نظر:
fr_head
تازه های سایت
fr_head