به گفته یک گروه کمپین، آخرین نسخه بتای کامل خودران (FSD) تسلا کمی پیچیدگی دارد: به نظر نمی رسد که متوجه اشیاء به اندازه کودک در مسیر خود شود.
در آزمایشهایی که توسط The Dawn Project با استفاده از تسلا مدل 3 مجهز به FSD نسخه 10.12.2 (آخرین نسخه منتشر شده در 1 ژوئن) انجام شد، به خودرو 120 یارد (110 متر) مسیر مستقیم بین دو ردیف مخروط با یک کودک داده شد. مانکن سایز انتهایی
این گروه میگوید «دستهای راننده آزمایشی هرگز روی فرمان نبود». مهمتر از همه، تسلا می گوید که حتی FSD یک سیستم کاملاً مستقل نیست: این یک برنامه کنترل کروز فوق العاده با ویژگی های مختلفمانند تغییر خط خودکار و فرمان خودکار. شما قرار است دستان خود را روی چرخ نگه دارید و بتوانید هر زمان که خواستید کنترل را به دست بگیرید.
با سرعت تقریبی 25 مایل در ساعت (حدود 40 کیلومتر در ساعت)، تسلا هر بار به آدمک برخورد کرد.
از نتایج، پروژه سپیده دم گفت که 100 یارد مسافت برای یک راننده انسان کافی است تا متوجه کودک شود، و اظهار داشت: «نرم افزار کامل خودران تسلا در این آزمایش حیاتی ساده و ایمنی مکرراً با نتایج مرگبار بالقوه رد می شود.»
ایلان ماسک می گوید نرم افزار کامل خودران تسلا شگفت انگیز است. این بدترین نرم افزار تجاری است که من تا به حال دیده ام.
تست ایمنی جدید ما از @الون ماسکتسلاهای کامل خودران کشف کردند که کودکان را به طور بی رویه دره می کنند. امروز @RealDawnProject یک کمپین تبلیغاتی تلویزیونی در سراسر کشور راه اندازی می کند @NHTSAgov ممنوعیت رانندگی کامل تا زمان @الون ماسک ثابت می کند که بچه ها را کوتاه نمی کند. pic.twitter.com/i5Jtb38GjH
— Dan O'Dowd (@RealDanODowd) اوت 9، 2022
اودود که در سال 1982 نرم افزار گرین هیلز را نیز تأسیس کرد و از امنیت نرم افزار دفاع می کرد، مدتی است که از مخالفان تسلا بوده است، حتی پیشنهادی برای مجلس سنای ایالات متحده در کالیفرنیا ارائه کرده است. با تمرکز بر پلیس تسلا به عنوان راهی برای صحبت در مورد مسائل گسترده تر امنیت سایبری. نامزدی اودود برای مجلس سنا در ژوئن با شکست او در انتخابات مقدماتی حزب دموکرات به پایان رسید.
هدف پروژه سپیده دم «ایمن کردن رایانهها برای بشریت» است. تسلا FSD اولین کمپین پروژه است.
حجم نمونه کوچک
شایان ذکر است که آزمایشات The Dawn Project FSD 10.12.2 که در 21 ژوئن در Rosamond، CA انجام شد، تنها شامل سه اجرا بود. این حجم نمونه کوچکی است، اما با توجه به آزمایشها و آمارهای دیگر تسلا، غیرمنتظره نیست.
نقص در Autopilot - مجموعه نرم افزارهای تسلا که شامل Autopilot معمولی و همچنین FSD می شود. استناد شده است به عنوان ظاهراً عاملی در چند, کشنده حوادث شامل هر دو راننده و پیاده رو در طول سال ها. سال گذشته تسلا رول پشت نرمافزار FSD پس از کشف اشکالات نرمافزاری منتشر شد که باعث ایجاد مشکلاتی در چرخشهای چپ شد، چیزی که تسلا همینطور است هنوز کار می کند.
در اوایل ژوئن، اداره ملی ایمنی ترافیک بزرگراه ایالات متحده به روز رسانی یک کاوشگر تسلا اتوپایلوت پس از یافتن دلایلی برای بررسی اینکه آیا خلبان خودکار و سیستمهای تسلا مرتبط ممکن است عوامل انسانی یا خطرات ایمنی رفتاری را تشدید کند یا خیر. تحقیقات ادامه دارد.
یک هفته پس از اعلام کاوش، NHTSA اعلام کرد که تسلا اتوپایلوت معمولی (که در سطح 2 کار می کند، نه FSD) درگیر 270 مورد از 394 تصادف کمک راننده - حدود 70 درصد - به عنوان بخشی از تحقیق در مورد ایمنی فناوری کمک راننده فهرست شده است.
اخیراً، دپارتمان وسایل نقلیه موتوری کالیفرنیا شکایت هایی را علیه تسلا با ادعای بیز ارائه کرده است ادعاهای نادرست وسایل نقلیه می توانند به صورت مستقل رانندگی کنند. اگر تسلا تا پایان این هفته به ادعاهای DMV پاسخ ندهد، پرونده به طور پیش فرض حل می شود و می تواند منجر به از دست دادن مجوز فروش خودرو در کالیفرنیا توسط این خودروساز شود.
پروژه سپیده دم گفت که NHTSA به سرعت برای فراخوانی ویژگیهای تسلا عمل کرده است و به فراخوانی کد FSD توسط NHTSA تسلا اشاره کرد که به تسلا اجازه داد تابلوهای توقف را پشت سر بگذارید و غیرفعال کردن تسلا Boombox.
پروژه سپیده دم می گوید تحقیقاتش «به مراتب جدی تر و فوری تر است». ®