پدال نیوز: تصادف تسلا مدل اس در حالت رانندگی خودران که سبب فوت راننده شد، بحثهای زیادی پیرامون این تکنولوژی به وجود آورده است. در این مقاله به بررسی این موضوع میپردازیم که سیستمهای هوشمند خودران، چه زمانی دچار اشتباه میشوند.
به گزارش پدال نیوز، زومیت نوشت: دو تصادف اخیر مربوط به سیستم اتوپایلوت تسلا (Tesla) ممکن است سیل سوالاتی راجع به چگونگی ارزیابی و بررسی سیستمهای کامپیوتری مبتنی بر آموزش در زمان بروز حوادث را ایجاد کنند. همانطور که میدانیم ماه پیش یک تصادف کشنده تسلا در فلوریدا رخ داد. در این تصادف تسلا مدل S در حالت اتوپایلوت با یک کامیون تصادف کرد و علت آن مشکل در موقعیتیابی سیستم اتوپایلوت بود.
تسلا به رانندگان توصیه می کند تا در هنگام استفاده از سیستم اتوپایلوت به جاده توجه داشته باشند و توضیح میدهد که سیستم ممکن است در نور خورشید شدید دچار مشکل شود. مدیریت ملی امنیت ترافیک بزرگراه بیان کرد که یک تصادف دیگر در پنسیلوانیا (Pennsyluauia) در حال بررسی بوده است. در این تصادف یک مدل X به موانع دو طرف بزرگراه برخورد کرده و واژگون میشود. راننده اذعان داشته که خودرو در زمان تصادف در حالت رانندگی خودران اتوپایلوت بوده است.
تسلا دقیقا نحوه کارکرد سیستم اتوپایلوت را فاش نکرده است. اما استفاده از تکنیک های یادگیری ماشینی (machine learning techniques) برای تعلیم سیستمهای خودکار، مخصوصا تشخیص اطلاعات تصویری، افزایش یافته است. موبایل آی (Mobile Eye) که تکنولوژی تسلا و سایر خودروسازان را تامین میکند، نرمافزاری را پیشنهاد میکند که از آموزشهای عمیق برای تشخیص وسایل نقلیه، خطوط، علائم، جاده و سایر اشیاء در فیلم ویدیوئی استفاده میکند.
آموزش ماشینی میتواند راه راحتتری را برای برنامهریزی کردن کامپیوترها برای انجام کارهایی که کد نویسی آنها به صورت دستی بسیار مشکل است، ارائه دهد. برای مثال آموزش یک شبکه عصبی مصنوعی میتواند برای تشخیص سگها در عکسها یا فیلمهای ویدیوئی با دقت قابل توجهی تعلیم داده شود. وجه تلنگر برای این سیستمها، فهم چگونگی کارکرد این سیستمهای پیچیده است.
شبکه عصبی مصنوعی میتواند برای تامین اندازه اطمینان خود در دستهبندی طراحی شوند، اما پیچیدگی محاسبات ریاضی موجود به این معنا است که این شبکه برای فهم چگونگی تصمیمگیری شبکه را از هم جدا نمیکند. این مسئله ممکن است که باعث مشکل شدن پیشبینی رفتار غیر عمدی شود و اگر شکستی رخ دهد، توضیح علت آن مشکل خواهد بود. اگر یک سیستم یک شی را در عکس اشتباه تشخیص دهد، (به عنوان نمونه)، فهم اینکه کدام ویژگی عکس موجب این خطا شده است، بسیار سخت و غیر ممکن خواهد بود. چالش مشابهی در تکنیکهای دیگر آموزش ماشین وجود دارد.
از آنجایی که این الگوریتم متداولتر است، رگلاتورهای آن نیاز به در نظر گرفتن اینکه چگونه باید ارزیای شود، دارد. خودروسازان آگاه هستنند که افزایش پیچیدگی و خودکارسازی خودروها کار کاوش را برای رگلاتورها دشوارتر میکند. تویوتا بودجه یک پروژه تحقیقاتی در دانشگاه MIT که کار بررسی عملکرد وسایل نقلیه خودکار بعد از وقوع حادثه را انجام میدهد، تامین کرده است. این تامین بودجه توسط خودروسازان ژاپنی در چندین پروژه مرتبط با خودروهای خودران را انجام میشود.
یادگیری عمیق (deep learning) می تواند با کنترل خودرو در پاسخ به اطلاعات سنسور، در پشت شناسایی اشیاء در تصاویر مورد استفاده قرار گیرد. تیمی در دانشگاه پرینستون (Princeton) یک سیستم رانندگی خودکار بر پایه یادگیری عمیق طراحی کردهاند. همچنین تحقیقات انجام گرفته در شرکت Nvidia (شرکت تولید کننده تراشه) که طیفی از سختافزارها را برای خودروسازها تولید میکند، سبب تولید یک خودرو خودران بر پایه یادگیری عمیق شده است.
کارل ایگنا (Karl Iagnemma) یکی از محققان اصلی دانشگاه MIT و کاشف Nutonomy، استارتاپ کار روی تاکسیهای خودران، معتقد است تحقق سیستم یادگیری عمیق end-to-end بسیار دشوار است. این محقق می گوید: «شما در ارتقاء دادن یک الگوریتم جعبه سیاه هستید که بر پایه مثالهایی از زانندگی امن آموزش داده شده است، اما خروجی آن بسیار مرموز و نامطئن است.» سیلویو ساورس (Silvio Saverse) دانشیار متخصص بینایی ماشین (machine vision) در دانشگاه استنفورد میگوید: «یک مشکل آموزش ماشین مرسوم این است که فاقد توانایی انسان در نتیجهگیری از اشکالات مختلف اطلاعاتی است. حتی اگر یک وسیله نقلیه به طور موقت مسدود شود. ما از تعداد بیشماری اطلاعات متنی استفاده میکنیم و مکانیزم یادگیری فعای این را به خوبی اجام نمیدهد.»
تحقیقات تسلا از نزدیک توسط افراد و محققانی که در توسعه تکنولوژی خودرو خودران کار میکنند، به صورت کامل دنبال میشود. در هر صورت، نگرانی در مورد درک عمومی از فنآوری و ایمنی وجود دارد.
ایگنما نمیخواهد شاهد واکنش سریع تصادف باشد. او میگوید: «ما در لحظهای هستیم که این مسئله میتواند فرآیند را متفوق سازد. اگر خرد جمعی گمان برد که یک تصادف یعنی خودروسازها بسیار بیپروا هستند، پس یک مانع بسیار بزرگ ایجاد شده است.»