أمة واحدة، تحت الذكاء الاصطناعي | الرأي

image

إن طرح الذكاء الاصطناعي العام يسير على قدم وساق، حيث بدأت الوكالات الفيدرالية الأمريكية بالفعل في نشر الذكاء الاصطناعي لتبسيط عملياتها، على الرغم من قلة النقاش العام حول هذا التغيير الكبير وآثاره على حقوق الإنسان.

ملخص

  • اعتماد الذكاء الاصطناعي في الحكومة يشهد ازدهارًا: حالات استخدام الذكاء الاصطناعي الفيدرالية تقريبًا تضاعفت من 571 في 2023 إلى أكثر من 1,100 في 2024، مع وكالات مثل HHS و DHS و VA تتصدر المسيرة.
  • التطبيقات العملية موجودة في كل مكان: من تتبع تفشي الأمراض المنقولة بالغذاء إلى الإبلاغ عن الفوائد الاحتيالية للقدامى وتعزيز أمن الحدود، فإن الذكاء الاصطناعي يحول العمليات وتقديم الخدمات.
  • نمو مستقر عبر الوظائف: يركز ما يقرب من نصف حالات الاستخدام المبلغ عنها على المهام "التمكينية" مثل المالية، والموارد البشرية، والأمن السيبراني، بينما تستهدف الأخرى الصحة، والخدمات العامة، واستكشاف الفضاء.
  • تبقى المخاوف المتعلقة بالحقوق والمراقبة: حوالي 13% من استخدامات الذكاء الاصطناعي قد تؤثر على حقوق أو سلامة الجمهور، مما يستدعي اتخاذ تدابير جديدة، ومراجعات، وتشريعات على مستوى الدولة---على الرغم من أن التبني يتجاوز الوعي العام.

في تقرير، وجدت مكتب المساءلة الحكومية زيادة تسع مرات في استخدام الذكاء الاصطناعي التوليدي من 2023 إلى 2024 داخل الحكومة الفيدرالية. استعرضت GAO 11 وكالة واستخدامها للذكاء الاصطناعي، واكتشفت أن عدد الاستخدامات المبلغ عنها قد تضاعف تقريبًا من 571 في 2023 إلى 1,110 في 2024.

علاوة على ذلك، أصدرت لجنة المسؤولين عن المعلومات الرئيسية تقريرًا بعنوان الذكاء الاصطناعي في العمل: نتائج جرد حالات استخدام الذكاء الاصطناعي الفيدرالي لعام 2024، حيث أظهروا أن استخدام الذكاء الاصطناعي زاد أكثر من الضعف في الوكالات الفيدرالية منذ عام 2023، مع تسجيل أكثر من 1,700 حالة استخدام في مجالات مثل الدعم الداخلي والخدمات العامة. وأبلغت الوكالات عن تحسين الكفاءة التشغيلية وتنفيذ المهام كأسباب وراء زيادة استخدام الذكاء الاصطناعي.

بعض الوكالات التي تقود إطلاق الذكاء الاصطناعي

تقريرًا أن وزارة الصحة والخدمات الإنسانية، ووزارة شؤون المحاربين القدماء، ووزارة الأمن الداخلي، ووزارة الداخلية تمثل 50% من الاستخدامات المعلنة للذكاء الاصطناعي.

وزارة الأمن الداخلي هي أيضًا من الرواد في دمج الذكاء الاصطناعي في عملياتها. قامت وزارة الأمن الداخلي بتطوير العديد من برامج الذكاء الاصطناعي وتعلم الآلة (ML) لتحسين الأمن السيبراني، وأمن الحدود، والاستجابة للكوارث، وخدمات الهجرة. استخدمت وزارة الأمن الداخلي GenAI لتعزيز الأدلة التحقيقية، ومساعدة الحكومات المحلية في خطط التخفيف من المخاطر، وللتدريب. تنشر قائمة بمخزونها من الذكاء الاصطناعي.

لقد استخدمت مراكز السيطرة على الأمراض والوقاية منها الذكاء الاصطناعي لتسريع التحقيقات في تفشي الأمراض المنقولة بالغذاء عبر الولايات. تحمي إدارة فوائد المحاربين القدامى مدفوعات فوائد المحاربين القدامى باستخدام الذكاء الاصطناعي، الذي يساعد في الإشارة إلى التغييرات الاحتيالية في الإيداع المباشر. استخدم وزارة الصحة والخدمات الإنسانية الذكاء الاصطناعي لاستخلاص المعلومات من المنشورات وتحديد تفشي الأمراض في المناطق التي يُعتقد أنها خالية من شلل الأطفال. تستخدم إدارة الضمان الاجتماعي الذكاء الاصطناعي لمساعدة المحكمين في برنامج الإعاقة.

بالإضافة إلى ذلك، أعلنت الإدارة العامة للخدمات الحكومية الأمريكية عن إضافة منتجات الشركات الأمريكية الرائدة في مجال الذكاء الاصطناعي إلى مخزونها من الذكاء الاصطناعي.

أصدرت GAO الذكاء الاصطناعي: الوكالات قد بدأت التنفيذ، والذي يوضح استخدام الذكاء الاصطناعي لتحليل صور الطائرات بدون طيار ومجموعات البيانات من قبل الوكالات الفيدرالية. تمتلك عشرون من الوكالات الثلاث والعشرين المفصلة في التقرير حوالي 1,200 حالة استخدام حالي ومخطط لها للذكاء الاصطناعي. يشمل استخدام الذكاء الاصطناعي تحليل بيانات الكاميرا، بما في ذلك من الطائرات بدون طيار والرادار، لتحديد الأنشطة الحدودية، فضلاً عن الكشف عن العينات العلمية للروبوتات الكوكبية. كانت NASA ووزارة التجارة تمتلكان أعلى عدد من حالات الاستخدام للذكاء الاصطناعي.

أصدرت المؤتمر الإداري للولايات المتحدة توصيات لاستخدام الذكاء الاصطناعي في الحكومة. وتشمل استخدام الأدوات في تنفيذ اللوائح، والتحكيم، والإرشاد القانوني الآلي، وأكثر من ذلك.

حالات استخدام الذكاء الاصطناعي في الحكومة الفيدرالية

تُفيد الوكالات بأنها تستفيد من تحسين اكتشاف الشذوذ، وتبسيط العمليات، وتحسين اتخاذ القرارات. يتم استخدام التكنولوجيا بشكل أساسي في الوظائف الإدارية وتكنولوجيا المعلومات، تليها حالات استخدام التطبيقات الصحية والطبية.

حوالي 13 في المئة من حالات الاستخدام تُصنف على أنها صحية وطبية. حوالي 9 في المئة من حالات الاستخدام تساعد في خدمات الحكومة أو معالجة الفوائد، والتي تتضمن معالجة وتسهيل الوصول إلى فوائد الحكومة، بما في ذلك ميديكير وميديكيد، الضمان الاجتماعي، والبطالة.

حوالي 46 في المئة من حالات استخدام الحكومة الفيدرالية تعتبر "تمكين للمهام"، وهي ضرورية لتحسين إدارة المالية، والموارد البشرية، والمرافق والعقارات، والأمن السيبراني، وتكنولوجيا المعلومات، والمشتريات، وغيرها من الوظائف الإدارية داخل الوكالات.

من الواضح أن الحكومة الفيدرالية تطبق بالفعل الذكاء الاصطناعي في القانون والعدالة، والتعليم والعمالة، والنقل، والعلوم والفضاء، والطاقة والبيئة، وغيرها من القطاعات. من خلال ذلك، يستفيدون من كل من الخبراء الداخليين والشراكات مع الشركات.

وفقًا لرئيس المعلومات، قامت الوكالات بتطوير حالات استخدام الذكاء الاصطناعي داخليًا في 50 في المائة من الحالات. في أكثر من 40 في المائة من حالات الاستخدام، استخدمت الوكالات كودًا تم تطويره خصيصًا، والذي يتوفر للجمهور. أكثر من 35 في المائة من الذكاء الاصطناعي العام يتم نشره على منصات البيانات والتحليلات المؤسسية الحالية داخل وكالة أو يعيد استخدام كود الإنتاج و/أو البيانات من حالة استخدام مختلفة.

تقوم الحكومات المحلية والولائية بنشر الذكاء الاصطناعي

تجرب الحكومات المحلية والإقليمية أيضًا استخدام الذكاء الاصطناعي في الحكم. كما يشير تقرير ديلويت، من المحتمل أن تلجأ الولايات والحكومات المحلية إلى الذكاء الاصطناعي لتخفيف الضغط على ميزانياتها. اقترح التشريع في جورجيا "قانون المساءلة للذكاء الاصطناعي" الذي من شأنه إنشاء مجلس جورجيا للذكاء الاصطناعي، والذي سيتطلب من الكيانات الحكومية تطوير خطة لاستخدام الذكاء الاصطناعي لتفصيل الأهداف المحددة، وتدابير حماية البيانات، وتوضيح دور الإشراف البشري.

مشروع قانون في ولاية مونتانا، وقعه الحاكم، سيقلل من استخدام الذكاء الاصطناعي في الحكومة المحلية والولائية، ويتطلب الشفافية بشأن الأماكن التي يُستخدم فيها الذكاء الاصطناعي، ويضمن مراجعة بعض القرارات والتوصيات من قبل إنسان يشغل "منصب مسؤول". في ولاية نيفادا، سيتطلب مشروع قانون من وزارة الضرائب إبلاغ دافع الضرائب عندما يتواصلون مع أنظمة الذكاء الاصطناعي. فشلت مشروعات القوانين في جورجيا ونيفادا في اللجنة.

تداعيات الحقوق

وفقًا لـ CIO، يمكن أن تؤدي حوالي 13 في المائة من حالات استخدام الذكاء الاصطناعي الفيدرالية إلى تقويض حقوق أو سلامة الجمهور، باستخدام التعريف الوارد في مذكرة OMB M-24-10.

في مثل هذه الحالات، يجب على الوكالات اتخاذ تدابير وقائية ملموسة قبل الاستخدام، بما في ذلك طرق تقييم واختبار ورصد تأثيرات الذكاء الاصطناعي على الجمهور والتخفيف من مخاطر التمييز الخوارزمي.

في ديسمبر 2024، كانت الوكالات قد أجرت تقييمات تأثير الذكاء الاصطناعي لأكثر من 80 في المئة من حالات استخدام الذكاء الاصطناعي التي تؤثر على الحقوق أو السلامة، وقد أجرت تقييمات مستقلة لأكثر من 70 في المئة من تلك الحالات. تتضمن ما يقرب من نصف حالات استخدام الذكاء الاصطناعي المؤثرة على الحقوق في الحكومة عمليات للطعن أو التحدي في نتيجة نظام الذكاء الاصطناعي أو الانسحاب من وظيفة الذكاء الاصطناعي.

الحكومة الفيدرالية تطلق الذكاء الاصطناعي بينما يُترك الجمهور في الظلام بشأن الآثار على حياتهم اليومية. يجب أن يكون استخدام هذه التكنولوجيا في الحكم نقطة نقاش أكثر شيوعًا لأولئك المهتمين بالنقاش حول أخلاقيات التكنولوجيا.

قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت