
قال كيفن هاسيت، رئيس لجنة المجلس الوطني للاقتصاد بالبيت الأبيض (NEC)، في مقابلة مع Fox Business بتاريخ 7 مايو، إن إدارة ترامب تعمل على دراسة فرض أمر تنفيذي يقتضي بأن تمر نماذج الذكاء الاصطناعي بعملية تدقيق أمني حكومية قبل نشرها علنًا، مع تشبيه ذلك بإجراءات الموافقة المسبقة من إدارة الغذاء والدواء (FDA) على الأدوية قبل طرحها. لكن وبحسب ما نقلت Politico في 8 مايو، فقد نسب مسؤولون كبار في البيت الأبيض لاحقًا التصريح إلى “اقتباس مجتزأ من سياقه”.
في 4 مايو 2026، أفادت 《نيويورك تايمز》 بأن البيت الأبيض يناقش إنشاء آلية لمراجعة نماذج الذكاء الاصطناعي قبل إصدارها، وجرى توصيف ذلك حينها بأنه “قيد الدراسة”. وفي 7 مايو 2026، صرّح كيفن هاسيت في مقابلة مع Fox Business تصريحًا علنيًا، قائلاً: “نبحث ما إذا كان يمكننا، عبر أمر تنفيذي، أن نطلب من أي ذكاء اصطناعي قد تُنتَج عنه ثغرات مستقبلًا ألا يُستخدم إلا بعد إثبات أنه آمن—تمامًا مثل FDA بالنسبة للأدوية.”
وفي وقت متأخر من ليلة 7 مايو 2026، نشر رئيس طاقم البيت الأبيض سوزي ويلز على منصة X قائلاً إن الحكومة “لا ينبغي أن تتحمل مسؤولية اختيار الفائزين والخاسرين”، وذكر أن نشر التقنيات القوية يجب أن تقوده “الجهات المبتكرة المتميزة في الولايات المتحدة وليس المؤسسات البيروقراطية”. وبحسب سجل حسابها الرسمي، تُعد هذه المنشورات الرابعة التي صدرت منذ إنشاء حساب ويلز.
ونقلت Politico عن ثلاثة أشخاص مطلعين طلبوا عدم الكشف عن هويتهم أن البيت الأبيض يناقش تمكين أجهزة الاستخبارات من إجراء تقييمات مسبقة قبل النشر العلني لنماذج الذكاء الاصطناعي. وقال مسؤول أمريكي في الحكومة في سياق التقرير إن أحد أهداف ذلك هو “ضمان أن تتم دراسة هذه الأدوات واستخدامها من قبل مجتمع الاستخبارات قبل أن يتعرف عليها الخصوم مثل روسيا والصين ويكتسبوا فهمًا للقدرات الجديدة”.
أعلنت مؤسسة مركز معايير وابتكار الذكاء الاصطناعي (CAISI) التابعة لوزارة التجارة هذا الأسبوع أنها وقّعت اتفاقيات لتقييم أمان الذكاء الاصطناعي مع Google DeepMind وMicrosoft وxAI، على أن تتوسع النطاقات لتشمل OpenAI وAnthropic اللتين كانتا قد أدرجتا سابقًا. ويجري تطبيق إطار التقييم الطوعي لدى CAISI منذ عام 2024.
أبدى نائب وزير الدفاع Emil Michael في 8 مايو 2026 دعمًا علنيًا لتقييم مسبق حكومي قبل نشر نماذج الذكاء الاصطناعي، وذلك خلال حضوره مؤتمر ذكاء اصطناعي في واشنطن. واستشهد في كلمته بنظام Mythos الخاص بـ Anthropic كمثال، قائلاً إن النماذج “ستظهر فيها ثغرات في نهاية المطاف”، وإن الحكومة يجب أن تبني آليات للتعامل معها.
وفقًا لتقرير Politico، أدرج وزير الدفاع Pete Hegseth Anthropic ضمن قائمة المخاطر في مارس 2026 بحجة مخاطر سلسلة الإمداد، وحظر استخدام نماذجها في عقود وزارة الدفاع. ومن ثم طلب ترامب على نحو منفصل من الوكالات الاتحادية التوقف عن استخدام منتجات Anthropic خلال ستة أشهر. وفي الوقت نفسه، كشفت Anthropic الشهر الماضي أن نظام الذكاء الاصطناعي Mythos يمتلك قدرات قوية لاكتشاف ثغرات برمجية، بما يتجاوز سقف الأمان المطلوب قبل النشر العلني، ثم تقدمت عدة جهات اتحادية لاحقًا بطلبات للوصول. وفي 8 مايو 2026، أعلنت OpenAI أنها ستجري معاينة محدودة لأداة GPT-5.5-Cyber الجديدة التي يمكنها اكتشاف الثغرات الشبكية وإصلاحها.
صرّح Daniel Castro، رئيس مؤسسة المعلومات والتقنية والابتكار (ITIF)، في تقرير Politico بأن: “إذا كان بإمكان رفض الموافقة قبل الطرح، فهذا أمر خطير بالنسبة لأي شركة. إذا حصل منافس على موافقة ولم تحصل شركة أخرى عليها، فإن فارق الأسابيع أو الأشهر في الوصول إلى السوق سيحدث أثرًا كبيرًا.” وتشمل الجهات الممولة لـ ITIF Anthropic وMicrosoft وMeta.
وقال مسؤول كبير في البيت الأبيض في التقرير نفسه: “هناك بالفعل واحد أو اثنان من المتحمسين جدًا لتنظيم الحكومة، لكنهما مجرد قلة.” وأوضح المسؤول أنه جرى منحه عدم الكشف عن الهوية بسبب الحاجة إلى وصف نقاشات سياسية حساسة.
وفقًا لتقرير Politico، صرّح كيفن هاسيت علنًا في 7 مايو 2026 خلال مقابلة مع Fox Business بأن الحكومة تدرس إصدار أمر تنفيذي يفرض على نماذج الذكاء الاصطناعي المرور بتدقيق أمني حكومي قبل طرحها، مع تشبيه ذلك بإجراءات موافقة FDA على الأدوية.
وفقًا لما ورد في تقرير Politico بتاريخ 8 مايو 2026، قال مسؤولون كبار في البيت الأبيض إن تصريحات Hassett “مقتطفة بشكل مجتزأ”، وإن التوجه السياسي للبيت الأبيض يتمثل في بناء شراكات مع الشركات، وليس في تطبيق رقابة حكومية. ونشرت سوزي ويلز، رئيسة طاقم البيت الأبيض، منشورًا منفصلًا أعادت فيه التأكيد على أن الحكومة لا تتدخل في خيارات السوق.
وفقًا لبيان CAISI هذا الأسبوع، تشمل الاتفاقيات الجديدة كلًا من Google DeepMind وMicrosoft وxAI، إضافةً إلى OpenAI وAnthropic اللتين كانتا قد شملتهما التغطية سابقًا. ويجري تطبيق إطار التقييم الطوعي منذ عام 2024.
مقالات ذات صلة
تقرير سافتبانك عن أرباح العام بالكامل بينما يتساءل المستثمرون حول خطة تمويل US$60B OpenAI
إعلانات وظائف الذكاء الاصطناعي ترتفع بنسبة 50% مع إعادة تشكيل حرب المواهب في آسيا للتوظيف
يو وينهاو، الباحث السابق في أبحاث الذكاء الاصطناعي لدى تينسنت، ينضم إلى OpenAI كباحث في أبحاث الذكاء الاصطناعي العام (AGI) الشهر الماضي
تدرس شركة أنثروبيك جمع تمويل في فصل الصيف بقيمة 50 مليار دولار، مع تقييم أولي قبل الاستثمار بنحو 9000 مليار دولار.
قفز سهم SanDisk بنسبة 430% مع تزايد الطلب على تخزين البيانات بالذكاء الاصطناعي
دَفِعَت شكوكٌ لدى كبار مسؤولي مايكروسوفت حول OpenAI في 2017-2018، واستثمروا $1B لمنع الانتقال إلى أمازون