يشهد نزاع طويل الأمد بين إيلون ماسك وسام ألتمان، مؤسسي شركة OpenAI، حول ما إذا كانت الشركة قد تحولت عن مهمتها الأصلية غير الربحية المتمثلة في خدمة البشرية إلى تعظيم الأرباح، حيث تبادل الطرفان الاتهامات مؤخراً، ووجّه ماسك اتهاماً مثيراً بالمسؤولية المباشرة لبرنامج الدردشة الآلي ChatGPT عن وفاة بعض المستخدمين، بينما اعتبر نظام الذكاء الاصطناعي الخاص به، Grok، أكثر أمانًا.
اتهامات ماسك وخطورة ChatGPT
صرّح ماسك في إفادة قانونية حديثة: “لم ينتحر أحد بسبب Grok، ولكن يبدو أن بعضهم انتحر بسبب ChatGPT”، مشيراً إلى دعاوى قضائية ضد OpenAI تتعلق بمحادثات ChatGPT التي اعتبرها بعض المدعين ذات طابع تلاعب عاطفي شديد، ما أدى إلى ضغوط نفسية حادة وربط بعض الحالات بالانتحار. وقد جاءت هذه التصريحات ضمن شهادته المصورة المنشورة مؤخراً قبل محاكمته المتوقعة أمام هيئة محلفين الشهر المقبل، ضمن دعوى ماسك القضائية ضد OpenAI، حيث يسوّق لشركته المتخصصة في الذكاء الاصطناعي XAI على أنها أكثر تركيزًا على السلامة.
خلفية القضية: OpenAI من مختبر غير ربحي إلى شركة ربحية
تكمن جذور النزاع القانوني في تحوّل OpenAI من مختبر أبحاث غير ربحي إلى كيان ربحي، ويؤكد ماسك أن هذا التحوّل يخالف مهمة الشركة الأصلية واتفاقياتها، ويضع سلامة تطوير الذكاء الاصطناعي على المحك. وشرح ماسك أن الضغوط التجارية والإيرادات والتوسع والشراكات قد تدفع الشركات إلى التسريع على حساب معايير السلامة، مؤكدًا أن الأولوية يجب أن تكون للحذر وليس للسرعة.
كما يرتبط موقف ماسك برسالة عامة وقعها في مارس 2023، دعت إلى التريث في تطوير أنظمة ذكاء اصطناعي أكثر قوة من GPT-4، وحذّرت من سباق محموم لبناء أنظمة فائقة القوة دون فهم كامل للمخاطر، وقد حظيت الرسالة بتأييد أكثر من 1100 خبير في الذكاء الاصطناعي.
Grok تحت المجهر أيضًا
رغم دفاع ماسك عن Grok، إلا أن النظام لم يسلم من الجدل، حيث انتشرت في الشهر الماضي صور غير توافقية تم إنشاؤها عبر Grok، تضمنت محتوىً غير مناسب وبعضها يضم قاصرين، مما أثار تحقيقات من مكتب المدعي العام في كاليفورنيا وتدقيقًا تنظيميًا في الاتحاد الأوروبي، إضافة إلى فرض بعض الحكومات قيودًا على استخدامه.
بداية OpenAI وتوجه ماسك
استذكر ماسك خلال شهادته بدايات OpenAI، مبينًا أنه ساهم في تأسيس الشركة للحد من هيمنة جوجل على تطوير الذكاء الاصطناعي، مشيرًا إلى محادثاته مع لاري بيج التي وصفها بالمقلقة لعدم اهتمامه بسلامة الذكاء الاصطناعي، وكان الهدف من OpenAI تحقيق توازن في هذا المجال.
ومع ذلك، غادر ماسك مجلس إدارة OpenAI في فبراير 2018، مشيراً إلى تضارب المصالح مع عمله في تسلا، فيما ارتبط القرار بخلافات حول توجه الشركة وسعيه للسيطرة على قراراتها.




































