تسلا به آستانه ماسک برای رانندگی “ایمن و بدون نظارت” رسیده است.
ما از یکی دیگر از محدودیت های رانندگی خودکار ایلان ماسک فراتر رفته ایم. طبق صفحه ایمنی به روز شده این شرکت، ناوگان وسایل نقلیه تسلا که از سیستم کامل خودران (نظارت شده) این شرکت استفاده می کنند، بیش از 10 میلیارد مایل را طی کرده اند. این بدان معناست که این شرکت از خطی که ماسک در اوایل سال جاری برای رانندگی “ایمن و بدون نظارت” تعیین کرده بود، عبور کرده است.
اما صاحبان تسلا امروز ناگهان از خواب بیدار نشدند تا متوجه شوند که خودروهای FSD (نظارتشده) خود به خودروهای FSD (بدون نظارت) تبدیل شدهاند. FSD هنوز تنها یک سیستم سطح 2 است که نیاز به یک راننده انسانی کاملاً حواس دارد که پشت فرمان آن را کنترل کند و در هر زمان آماده تحویل گرفتن باشد.
ماسک در ماه ژانویه اعلام کرد
در ماه ژانویه، ماسک در X گفت که “حدود 10 میلیارد مایل داده آموزشی برای دستیابی به رانندگی خودران ایمن و بدون نظارت مورد نیاز است.”
البته، این یک حرکت بسیار خطرناک از سوی تسلا بود، به خصوص زمانی که هنوز سوالات زیادی در مورد تمایل این شرکت برای قبول مسئولیت قانونی بیش از یک میلیون خودرو با FSD وجود دارد. هنگامی که یک وسیله نقلیه Waymo مسئول تصادف است، Waymo مسئولیت آن را بر عهده می گیرد زیرا مالک فناوری و ناوگان است. اما شرایط خدمات تسلا مسئولیت را بر عهده مالک می گذارد، که اساساً بر اساس توصیف FSD به عنوان یک سیستم نظارت شده سطح 2 است. وقتی FSD بدون نظارت انجام می شود چه اتفاقی می افتد؟ پس چه کسی مسئولیت تصادف را بر عهده می گیرد؟
مشخص نیست که آیا تسلا هنوز به این موضوع پی برده است یا خیر. در طول سالها، صدها تصادف مربوط به ویژگیهای نیمه مستقل تسلا و دهها مرگ و میر رخ داده است. اما این شرکت توانست از هرگونه مسئولیتی اجتناب کند، هم با تسویه حساب با قربانیان و هم با متقاعد کردن دادگاه ها برای رد دعوا. تسلا در وب سایت خود ادعا می کند که FSD (با نظارت) “نیاز به نظارت فعال راننده دارد و خودرو را مستقل نمی کند.”
هیئت منصفه فدرال در فلوریدا سال گذشته تسلا را مسئول یک تصادف مرگبار در سال 2019 دانست که شامل نرم افزار کمک راننده Autopilot این شرکت بود و به این شرکت دستور داد 243 میلیون دلار به خانواده قربانیان بپردازد. تسلا به این حکم اعتراض کرد، اما یک قاضی این تلاش را رد کرد.
با این حال، ارزش دارد که دستاورد باورنکردنی 10 میلیارد مایل رانده شده با FSD (با نظارت) را تشخیص دهیم. تسلا می گوید وسایل نقلیه مجهز به FSD آن به طور متوسط 5.5 میلیون مایل قبل از یک برخورد جدی طی می کنند، در حالی که برای یک راننده آمریکایی متوسط 660000 مایل مسافت طی می شود. تسلا این را به عنوان دلیلی برای ایمن تر بودن FSD از رانندگی انسان می داند.
وقتی FSD بدون نظارت انجام می شود چه اتفاقی می افتد؟ پس چه کسی مسئولیت تصادف را بر عهده می گیرد؟
کارشناسان مدتهاست روش شناسی تسلا را زیر سوال برده اند. مطالعات نشان داده است که گزارشهای ایمنی این شرکت حقایق اساسی در مورد آمار ترافیک را در نظر نمیگیرند، مانند این واقعیت که تصادفات در خیابانهای شهر و جادههای تقسیمنشده بیشتر از بزرگراهها اتفاق میافتد، جایی که از Autopilot بیشتر استفاده میشود. برخی از محققان بر این باورند که تسلا ممکن است تصادفات را اشتباه شمارش کند تا Autopilot و FSD ایمنتر از آنچه هستند ظاهر شوند.
رانندگی بدون نظارت ممکن است هنوز برای مشتریان تسلا گریزان باشد، اما این شرکت در حال افزایش استفاده از وسایل نقلیه بدون نظارت در ناوگان روباتاکسی خود است. پس از راه اندازی در دالاس و هیوستون تنها با چند وسیله نقلیه، تسلا از آن زمان خودروهای بیشتری را به ناوگان خود اضافه کرده است. طبق گفته Robotaxi Tracker، دالاس اکنون دارای پنج رباتاکسی بدون نظارت است، در حالی که هیوستون دارای شش رباتاکسی است. آستین، جایی که تسلا برای اولین بار سرویس روباتاکسی خود را راه اندازی کرد، اکنون 29 وسیله نقلیه تحت نظارت (کارمند در صندلی سرنشین جلو) و 22 وسیله نقلیه بدون نظارت دارد.
به طور طبیعی، این باعث می شود بسیاری از مالکان تسلا احساس کنند که به طور باورنکردنی به دسترسی به رانندگی بدون نظارت نزدیک شده اند. اما سؤالات مربوط به مسئولیت احتمالاً همچنان دسترسی آنها را به تأخیر می اندازد. ماسک در تماسی با درآمد ماه گذشته گفت که رانندگی بدون نظارت زمانی انجام می شود که “انجام این کار قانونی باشد.” هنگامی که از وی به طور خاص در مورد FSD بدون نظارت در خودروهای مشتریان پرسیده شد، او پیش بینی کرد که در سه ماهه چهارم سال وارد بازار خواهد شد.
آستانه دیگری، یا تیرک دروازه دیگری که به ناچار حرکت می کند؟
منبع: theverge
