تسلا مسؤولة جزئيًا في محاكمة نظام القيادة الآلي في فلوريدا، والهيئة المحلفون تمنح 329 مليون دولار كتعويضات

BANGKOK, THAILAND - 2024/06/30: A Tesla logo seen on a Tesla Model 3 car during the event at Central World the shopping mall. (Photo by Peerapon Boonyakiat/SOPA Images/LightRocket via Getty Images)

وجدت هيئة المحلفين في المحكمة الفيدرالية في ميامي أن تسلا تتحمل جزءًا من اللوم في حادث مميت حدث في عام 2019 والذي شمل استخدام نظام المساعدة على القيادة Autopilot الخاص بالشركة. ومنحت هيئة المحلفين المدعين 329 مليون دولار كتعويضات عقابية وتعويضية.

لم يضغط سائق السيارة ولا نظام Autopilot على المكابح في الوقت المناسب لتجنب المرور من خلال تقاطع، حيث اصطدمت السيارة بسيارة SUV وأدت إلى مقتل أحد المشاة. وقد خصصت هيئة المحلفين ثلثي اللوم للسائق وثلثًا لتسلا. (تمت مقاضاة السائق بشكل منفصل.)

يأتي الحكم في نهاية محاكمة استمرت ثلاثة أسابيع حول الحادث الذي أودى بحياة نايل بنفيديس ليون البالغة من العمر 20 عامًا، وأدى إلى إصابة شديدة لصديقها ديلون أنغولو. هذا الحكم هو واحد من أوائل الأحكام القانونية الكبرى بشأن تكنولوجيا المساعدة على القيادة التي جاءت ضد تسلا. وقد تسوّلت الشركة سابقًا دعاوى قضائية تتعلق بمطالبات مماثلة بشأن Autopilot.

قال بريت شرايبر، المحامي الرئيسي للمدعين في القضية، في بيان لـ TechCrunch إن تسلا صممت Autopilot “فقط للطرق السريعة ذات الوصول المنظم ولكنها اختارت عمدًا عدم تقييد السائقين من استخدامه في أماكن أخرى، إلى جانب حديث إيلون ماسك للعالم أن Autopilot يقود بشكل أفضل من البشر.”

قال شرايبر: “أكاذيب تسلا حولت طرقنا إلى مسارات اختبار لتكنولوجيتها المعطوبة بشكل أساسي، مما وضع الأمريكيين العاديين مثل نايل بنفيديس وديلون أنغولو في خطر.” تمثل نتيجة اليوم العدالة لموت نايل المأساوي وإصابات ديلون مدى الحياة، وتحمل تسلا وماسك المسؤولية عن دعم التقييم التريليوني للشركة بأسطورة القيادة الذاتية على حساب الأرواح البشرية.

قالت تسلا، في بيان تم تقديمه لـ TechCrunch، إنها تخطط لاستئناف الحكم “بالنظر إلى الأخطاء الكبيرة في القانون وال irregularities at trial.”

كتبت الشركة: “إن حكم اليوم خاطئ ويعمل فقط على تقويض سلامة السيارات ويعرض جهود تسلا وصناعة السيارات بأكملها لتطوير وتنفيذ التكنولوجيا التي تنقذ الحياة للخطر.” لتكون الأمور واضحة، لم يكن هناك أي سيارة في عام 2019، ولا توجد أي حالياً، كانت ستمنع هذا الحادث. لم يكن الأمر يتعلق أبدًا بـ Autopilot؛ كان خيالًا من نسج محامي المدعين الذين ألصقوا اللوم بالسيارة عندما اعترف السائق – منذ اليوم الأول – بالمسؤولية وقبلها.”

أنفقت تسلا وماسك سنوات في تقديم مزاعم عن قدرات Autopilot التي أدت إلى الثقة الزائدة في نظام المساعدة على القيادة، وهي حقيقة تحدث عنها المسؤولون الحكوميون – وماسك نفسه – لسنوات.

توصلت هيئة السلامة الوطنية للنقل (NTSB) إلى هذا الاستنتاج في عام 2020 بعد التحقيق في حادثة عام 2018 حيث توفي السائق بعد اصطدامه بحاجز خرساني. كان ذلك السائق، والتر هوانغ، يلعب لعبة موبايل أثناء استخدامه لـ Autopilot. وقد أصدرت هيئة NTSB عددًا من التوصيات بعد ذلك التحقيق، والتي تجاهلتها تسلا بشكل كبير، وفقًا لما ذكرته الهيئة لاحقًا.

في مكالمة جماعية عام 2018، قال ماسك إن “الركود” في أنظمة المساعدة على القيادة مثل Autopilot يمثل مشكلة.

قال ماسك في ذلك الوقت: “إنهم يتعودون على ذلك. تمثل هذه المسألة مشكلة أكبر. إنها ليست نقص فهم لما يمكن أن يقوم به Autopilot. بل [السائقون] يعتقدون أنهم يعرفون عن Autopilot أكثر مما يفعلون.”

جرت المحاكمة في وقت تقوم فيه تسلا حاليًا بطرح النسخ الأولى من شبكة Robotaxi التي تم الوعد بها لفترة طويلة، والتي بدأت في أوستن، تكساس. تستخدم تلك المركبات نسخة محسّنة من نظام المساعدة على القيادة الأكثر تقدمًا من تسلا، والذي تسميه القيادة الذاتية الكاملة.

تحديث: تم تحديث هذه القصة لتضمين مبلغ التعويضات التعويضية في الإجمالي.


المصدر