
كشفت تقارير حديثة أن شركة Tesla تعتمد أحيانًا على تدخل بشري عن بُعد للتحكم في سيارات الأجرة ذاتية القيادة، ما يثير تساؤلات حول مدى استقلالية هذه التكنولوجيا وحدود الأمان فيها.
تدخل بشري كحل أخير
بحسب تقارير نشرها موقع Wired، أقرت تسلا بأن هناك حالات نادرة يُسمح فيها لمشغلين بشريين بالتحكم في السيارة عن بُعد، خاصة عند مواجهة مواقف معقدة لا يستطيع النظام التعامل معها.
وغالبًا ما يحدث هذا التدخل عند السرعات المنخفضة، حيث يتولى المشغل قيادة السيارة لتفادي خطر محتمل أو إخراجها من موقف صعب، قبل أن يعود النظام الذكي للتحكم مرة أخرى.
اختلاف واضح عن المنافسين
يختلف نهج تسلا عن شركات أخرى مثل Waymo، التي تعتمد على ما يُعرف بـ”المساعدة البشرية” فقط، حيث يقدّم البشر دعمًا معلوماتيًا دون التدخل المباشر في قيادة السيارة.
هذا الفارق يعكس فلسفتين مختلفتين:
- تسلا: تسمح بالتحكم البشري المباشر عند الضرورة
- وايمو: تكتفي بالإرشاد دون القيادة
جدل حول تقنيات الاستشعار
تعتمد تسلا بشكل أساسي على الكاميرات في أنظمة القيادة الذاتية، وهو ما يميزها عن المنافسين الذين يستخدمون مزيجًا من الرادار وأجهزة الاستشعار مثل LiDAR.
لكن هذا النهج واجه انتقادات، خاصة بعد تحقيقات أجرتها National Highway Traffic Safety Administration بشأن حوادث مرتبطة بأنظمة القيادة الذاتية.
ماذا يعني ذلك لمستقبل القيادة الذاتية؟
تعكس هذه المعلومات حقيقة مهمة: القيادة الذاتية لم تصل بعد إلى الاستقلال الكامل.
فوجود تدخل بشري — حتى لو كان نادرًا — يشير إلى أن الأنظمة الحالية لا تزال بحاجة إلى دعم بشري لضمان السلامة في المواقف المعقدة.
بين الذكاء الاصطناعي والعنصر البشري
تجربة تسلا تؤكد أن مستقبل القيادة الذاتية في الوقت الحالي يعتمد على مزيج من:
- الذكاء الاصطناعي لاتخاذ القرارات السريعة
- البشر للتدخل في الحالات الحرجة
ومع استمرار التطوير، يبقى السؤال الأهم: هل ستصل هذه التقنية يومًا إلى مرحلة “الاستقلال الكامل”، أم سيظل الإنسان جزءًا أساسيًا في منظومة الأمان؟






























