هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

تسلا کامل خودران در آزمایش متوجه اشیا به اندازه کودک نمی شود

تاریخ:

به گفته یک گروه کمپین، آخرین نسخه بتای کامل خودران (FSD) تسلا کمی پیچیدگی دارد: به نظر نمی رسد که متوجه اشیاء به اندازه کودک در مسیر خود شود.

در آزمایش‌هایی که توسط The Dawn Project با استفاده از تسلا مدل 3 مجهز به FSD نسخه 10.12.2 (آخرین نسخه منتشر شده در 1 ژوئن) انجام شد، به خودرو 120 یارد (110 متر) مسیر مستقیم بین دو ردیف مخروط با یک کودک داده شد. مانکن سایز انتهایی

این گروه می‌گوید «دست‌های راننده آزمایشی هرگز روی فرمان نبود». مهمتر از همه، تسلا می گوید که حتی FSD یک سیستم کاملاً مستقل نیست: این یک برنامه کنترل کروز فوق العاده با ویژگی های مختلفمانند تغییر خط خودکار و فرمان خودکار. شما قرار است دستان خود را روی چرخ نگه دارید و بتوانید هر زمان که خواستید کنترل را به دست بگیرید.

با سرعت تقریبی 25 مایل در ساعت (حدود 40 کیلومتر در ساعت)، تسلا هر بار به آدمک برخورد کرد

از نتایج، پروژه سپیده دم گفت که 100 یارد مسافت برای یک راننده انسان کافی است تا متوجه کودک شود، و اظهار داشت: «نرم افزار کامل خودران تسلا در این آزمایش حیاتی ساده و ایمنی مکرراً با نتایج مرگبار بالقوه رد می شود.»

ایلان ماسک می گوید نرم افزار کامل خودران تسلا شگفت انگیز است. این بدترین نرم افزار تجاری است که من تا به حال دیده ام.

اودود که در سال 1982 نرم افزار گرین هیلز را نیز تأسیس کرد و از امنیت نرم افزار دفاع می کرد، مدتی است که از مخالفان تسلا بوده است، حتی پیشنهادی برای مجلس سنای ایالات متحده در کالیفرنیا ارائه کرده است. با تمرکز بر پلیس تسلا به عنوان راهی برای صحبت در مورد مسائل گسترده تر امنیت سایبری. نامزدی اودود برای مجلس سنا در ژوئن با شکست او در انتخابات مقدماتی حزب دموکرات به پایان رسید. 

هدف پروژه سپیده دم «ایمن کردن رایانه‌ها برای بشریت» است. تسلا FSD اولین کمپین پروژه است. 

حجم نمونه کوچک

شایان ذکر است که آزمایشات The Dawn Project FSD 10.12.2 که در 21 ژوئن در Rosamond، CA انجام شد، تنها شامل سه اجرا بود. این حجم نمونه کوچکی است، اما با توجه به آزمایش‌ها و آمارهای دیگر تسلا، غیرمنتظره نیست. 

نقص در Autopilot - مجموعه نرم افزارهای تسلا که شامل Autopilot معمولی و همچنین FSD می شود. استناد شده است به عنوان ظاهراً عاملی در چند, کشنده حوادث شامل هر دو راننده و پیاده رو در طول سال ها. سال گذشته تسلا رول پشت نرم‌افزار FSD پس از کشف اشکالات نرم‌افزاری منتشر شد که باعث ایجاد مشکلاتی در چرخش‌های چپ شد، چیزی که تسلا همینطور است هنوز کار می کند

در اوایل ژوئن، اداره ملی ایمنی ترافیک بزرگراه ایالات متحده به روز رسانی یک کاوشگر تسلا اتوپایلوت پس از یافتن دلایلی برای بررسی اینکه آیا خلبان خودکار و سیستم‌های تسلا مرتبط ممکن است عوامل انسانی یا خطرات ایمنی رفتاری را تشدید کند یا خیر. تحقیقات ادامه دارد.

یک هفته پس از اعلام کاوش، NHTSA اعلام کرد که تسلا اتوپایلوت معمولی (که در سطح 2 کار می کند، نه FSD) درگیر 270 مورد از 394 تصادف کمک راننده - حدود 70 درصد - به عنوان بخشی از تحقیق در مورد ایمنی فناوری کمک راننده فهرست شده است.

اخیراً، دپارتمان وسایل نقلیه موتوری کالیفرنیا شکایت هایی را علیه تسلا با ادعای بیز ارائه کرده است ادعاهای نادرست وسایل نقلیه می توانند به صورت مستقل رانندگی کنند. اگر تسلا تا پایان این هفته به ادعاهای DMV پاسخ ندهد، پرونده به طور پیش فرض حل می شود و می تواند منجر به از دست دادن مجوز فروش خودرو در کالیفرنیا توسط این خودروساز شود.

پروژه سپیده دم گفت که NHTSA به سرعت برای فراخوانی ویژگی‌های تسلا عمل کرده است و به فراخوانی کد FSD توسط NHTSA تسلا اشاره کرد که به تسلا اجازه داد تابلوهای توقف را پشت سر بگذارید و غیرفعال کردن تسلا Boombox

پروژه سپیده دم می گوید تحقیقاتش «به مراتب جدی تر و فوری تر است». ®

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟