عندما أطلقت ديب سيك، وعلي بابا، وغيرها من الشركات الصينية نماذج الذكاء الاصطناعي الخاصة بها، لاحظ الباحثون الغربيون بسرعة أنها تتجنب الأسئلة النقدية للحزب الشيوعي الصيني. أكد المسؤولون الأميركيون لاحقًا أن هذه الأدوات مصممة لتعكس وجهات نظر بكين، مما أثار مخاوف بشأن الرقابة والتحيز.
أشار قادة الذكاء الاصطناعي الأمريكيون مثل OpenAI إلى ذلك كتبرير لتسريع تقنيةهم بسرعة، دون الكثير من التنظيم أو الرقابة. كما كتب كريس ليهان، المسؤول الرفيع في الشؤون العالمية في OpenAI، في منشور على لينكد إن الشهر الماضي، أنه هناك منافسة بين “الذكاء الاصطناعي الديمقراطي الذي تقوده الولايات المتحدة والذكاء الاصطناعي الاستبدادي الذي تقوده الصين”.
قد disrupt ذلك التوازن الأمر التنفيذي الذي وقعه الرئيس دونالد ترامب يوم الأربعاء والذي يحظر “الذكاء الاصطناعي المتشدد” ونماذج الذكاء الاصطناعي التي لا تكون “محايدة إيديولوجيًا” من عقود الحكومة.
يستهدف الأمر التنوع والإنصاف والشمولية (DEI) ليطلق عليه “إيديولوجية شاملة ومدمرة” يمكن أن “تشوه جودة ودقة المخرجات”. وبالتحديد، يشير الأمر إلى المعلومات المتعلقة بالعرق أو الجنس، والتلاعب بالتمثيل العرقي أو الجنسي، ونظرية العرق النقدية، والجنسانية، والتحيز غير الواعي، والتقاطع، والعنصرية النظامية.
يحذر الخبراء من أنه قد ينشئ تأثيرًا مثبطًا على المطورين الذين قد يشعرون بالضغط ليتناسب إنتاج نماذجهم وبياناتهم مع خطاب البيت الأبيض للحصول على دولارات اتحادية لأعمالهم التي تتطلب الكثير من المال.
يأتي الأمر في اليوم نفسه الذي نشر فيه البيت الأبيض “خطة العمل للذكاء الاصطناعي” الخاصة بترامب، والتي تحول الأولويات الوطنية بعيدًا عن المخاطر الاجتماعية وتركز بدلاً من ذلك على بناء البنية التحتية للذكاء الاصطناعي، وتقليل البيروقراطية أمام شركات التكنولوجيا، وتعزيز الأمن القومي، والتنافس مع الصين.
يوجه الأمر مدير مكتب الإدارة والميزانية بالإضافة إلى المسؤول عن سياسة المشتريات الفيدرالية، ومسؤول خدمات العمومية، ومدير مكتب سياسة العلوم والتكنولوجيا، لإصدار توجيهات للوكالات الأخرى حول كيفية الامتثال.
حدث Techcrunch
سان فرانسيسكو
|
27-29 أكتوبر 2025
قال ترامب يوم الأربعاء خلال حدث للذكاء الاصطناعي نظمته بودكاست All-In ومنتدى Hill & Valley: “مرة واحدة وإلى الأبد، نتخلص من المتشدد”. “سأقوم بالتوقيع على أمر يحظر الحكومة الفيدرالية من شراء تكنولوجيا الذكاء الاصطناعي التي تم فرض تحيز حزبي أو أج agendas إيديولوجية، مثل نظرية العرق النقدية، وهو أمر سخيف. ومن الآن فصاعدًا، ستتعامل الحكومة الأمريكية فقط مع الذكاء الاصطناعي الذي يسعى للحق والعدالة والحياد الصارم.”
تحديد ما هو محايد أو موضوعي هو واحدة من العديد من التحديات التي يواجهها الأمر.
قال فيليب سيرجن، محاضر أول في اللغويات التطبيقية في الجامعة المفتوحة، لموقع TechCrunch إن أي شيء لا يمكن أن يكون موضوعيًا أبدًا.
“واحدة من المبادئ الأساسية في اللغويات الاجتماعية هي أن اللغة ليست أبداً محايدة،” قال سيرجنت. “لذا فإن فكرة أنك يمكنك الحصول على موضوعية خالصة هي خيال.”
علاوة على ذلك، فإن إيديولوجية إدارة ترامب لا تعكس معتقدات وقيم جميع الأمريكيين. لقد سعى ترامب مرارًا إلى القضاء على التمويل لمبادرات المناخ، والتعليم، والبث العام، والبحث، ومنح الخدمات الاجتماعية، وبرامج الدعم المجتمعية والزراعية، ورعاية تأكيد الهوية الجنسانية، غالبًا ما يصور هذه المبادرات كأمثلة على إنفاق الحكومة “المتشدد” أو المتحيز سياسيًا.
كما قالت رومان تشودهري، عالمة البيانات والرئيسة التنفيذية لمنظمة التقنية غير الربحية Humane Intelligence، والموفد العلمي السابق للولايات المتحدة للذكاء الاصطناعي، “أي شيء لا يُعجب الإدارة ترامب يُلقى فورًا في هذه الفئة السلبية من المتشدد”.
التعريفات الخاصة بـ “السعي وراء الحقيقة” و”الحياد الإيديولوجي” في الأمر الذي نشر يوم الأربعاء غامضة من بعض النواحي، بينما هي محددة من نواحٍ أخرى. بينما يُعرف “السعي وراء الحقيقة” بأنه يشير إلى نماذج اللغة الكبيرة (LLMs) التي “تُعطي الأولوية للدقة التاريخية، والاستقصاء العلمي، والموضوعية”، يُعرف “الحياد الإيديولوجي” بالنماذج التي تكون “أدوات محايدة وغير حزبية لا تتلاعب بالأجوبة لصالح الأديان الإيديولوجية مثل DEI.”
تترك هذه التعريفات مجالًا للتفسير الواسع، فضلاً عن الضغط المحتمل. لقد ضغطت شركات الذكاء الاصطناعي من أجل قيود أقل على كيفية عملها. وعلى الرغم من أن الأمر التنفيذي لا يحمل قوة التشريع، فإن الشركات الرائدة في مجال الذكاء الاصطناعي قد تجد نفسها خاضعة للأولويات المتغيرة لأجندة الإدارة السياسية.
الأسبوع الماضي، وقعت OpenAI وAnthropic وGoogle وxAI عقودًا مع وزارة الدفاع للحصول على ما يصل إلى 200 مليون دولار لكل منها لتطوير سير عمل ذكاء اصطناعي يتعامل مع تحديات الأمن القومي الحرجة.
ليس واضحًا أي من هذه الشركات هي في أفضل وضع للاستفادة من حظر الذكاء الاصطناعي المتشدد، أو إذا كانت ستلتزم.
تواصل موقع TechCrunch مع كل منهم وسنقوم بتحديث هذه المقالة إذا تلقينا ردًا.
بالرغم من عرض تحيزات خاصة بها، قد تكون xAI الأكثر توافقًا مع الأمر – على الأقل في هذه المرحلة المبكرة. لقد وضع إيلون ماسك Grok، روبوت الدردشة التابع لـ xAI، كأحدث مضاد للتشدد، “أقل تحيزًا”، باحث عن الحقيقة. لقد أملت مطالب Grok النظام لتجنب الرجوع إلى السلطات والإعلام السائد، للبحث عن معلومات مضادة حتى لو كانت سياسية غير صحيحة، وحتى الإشارة إلى آراء ماسك الخاصة حول مواضيع مثيرة للجدل. في الأشهر الأخيرة، حتى أطلق Grok تعليقات معادية للسامية ومدح هتلر على X، من بين مشاركات متعصبة، عنصرية، ومعادية للنساء.
قال مارك ليملي، أستاذ القانون في جامعة ستانفورد، لموقع TechCrunch أن الأمر التنفيذي “مُعد بوضوح كتمييز رأي، حيث [وقعت الحكومة] للتو عقدًا مع Grok، المعروف باسم ‘ميكا هتلر’.”
جنبًا إلى جنب مع تمويل وزارة الدفاع لـ xAI، أعلنت الشركة أن “Grok للحكومة” قد تم إضافته إلى جدول إدارة الخدمات العامة، مما يعني أن منتجات xAI متاحة الآن للشراء في كل مكتب حكومي ووكالة.
“السؤال الصحيح هو: هل ستحظر Grok، الذكاء الاصطناعي الذي وقعوا معه للتو عقدًا كبيرًا، لأنه قد تم تصميمه عمدًا لتقديم إجابات مشحونة سياسيًا؟” قال ليملي في مقابلة عبر البريد الإلكتروني. “إذا لم يكن كذلك، فإنه مصمم بوضوح لتمييز رأي معين.”
كما أظهرت مطالب نظام Grok نفسه، يمكن أن تكون مخرجات النماذج انعكاسًا لكل من الأشخاص الذين يبنون التكنولوجيا والبيانات التي يتم تدريب الذكاء الاصطناعي عليها. في بعض الحالات، أدت وفرة الحذر بين المطورين والذكاء الاصطناعي المدرب على محتوى الإنترنت الذي يروج لقيم مثل الشمولية إلى مخرجات نموذج مشوهة. على سبيل المثال، تعرضت Google العام الماضي للانتقادات بعد أن أظهر دردشة Gemini شخصية جورج واشنطن سمراء البشرة ونازيين متنوعين عرقيًا – وهو ما يشير إليه أمر ترامب كمثال على نماذج الذكاء الاصطناعي المصابة بـ DEI.
تقول تشودهري إن أكبر مخاوفها بشأن هذا الأمر التنفيذي هي أن شركات الذكاء الاصطناعي ستعيد العمل بنشاط على بيانات التدريب لتتماشى مع خط الحزب. وأشارت إلى تصريحات من ماسك قبل أسابيع قليلة من إطلاق Grok 4، حيث قال إن xAI ستستخدم النموذج الجديد وقدراته المتطورة في التفكير “لإعادة كتابة كل مجموعة المعرفة البشرية، مضيفًا المعلومات المفقودة وحذف الأخطاء. ثم إعادة التدريب على ذلك.”
من المفترض أن يضع ذلك ماسك في موقف الحكم على ما هو صحيح، مما قد يكون له آثار كبيرة على كيفية الوصول إلى المعلومات.
بالطبع، كانت الشركات تتخذ قرارات الحكم بشأن ما يراه الناس وما لا يرونه منذ بداية الإنترنت.
يقول خبراء إن المحافظين مثل ديفيد ساكس – رائد الأعمال والمستثمر الذي عينه ترامب كـ “تسير الذكاء الاصطناعي” – كانوا بصوت عالٍ بشأن مخاوفهم حول “الذكاء الاصطناعي المتشدد” على بودكاست All-In، الذي استضاف إعلان ترامب اليوم حول الذكاء الاصطناعي. اتهم ساكس منشئي منتجات الذكاء الاصطناعي البارزة بإضفاء قيم يسارية عليها، م framing جادلته كدفاع عن حرية التعبير وتحذيرًا من اتجاه نحو السيطرة الإيديولوجية المركزية في المنصات الرقمية.
المشكلة، كما يقول الخبراء، هي أنه لا توجد حقيقة واحدة. من المستحيل تحقيق نتائج غير متحيزة أو محايدة، خاصة في عالم اليوم حيث حتى الحقائق أصبحت سياسية.
“إذا كانت النتائج التي ينتجها الذكاء الاصطناعي تقول إن علم المناخ صحيح، فهل يُعتبر ذلك تحيزًا يساريًا؟” قال سيرجنت. “يقول بعض الأشخاص إنك بحاجة إلى تقديم كلتا جانبي النقاش لتكون موضوعيًا، حتى لو كان لأحد الجانبين لا اعتراف به.”
