"نحن لا نفكر حاليًا في تنظيم الذكاء الاصطناعي. في هذه المرحلة ، من الواضح أننا نريد أن نكون قادرين على التعلم من الصناعة. فهم كيفية استخدام الذكاء الاصطناعي قبل أن نقرر ما إذا كنا بحاجة إلى فعل المزيد من منظور تنظيمي."
دعت حكومة سنغافورة الشركات إلى التعاون في تطوير "مجموعة أدوات اختبار الذكاء الاصطناعي الأولى في العالم" AI Verify. انضمت كل من Google و Microsoft و IBM إلى مؤسسة AI Verify Foundation.
مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI
مع استكشاف العديد من البلدان لتنظيم الذكاء الاصطناعي التوليدي (AI) ، صرحت حكومة سنغافورة بأنها ليست في عجلة من أمرها لصياغة لوائح الذكاء الاصطناعي.
في 19 يونيو ، بالتوقيت المحلي ، قال Lee Wan Sie ، مدير الذكاء الاصطناعي والبيانات الموثوقة بهيئة تنمية وسائل الإعلام والاتصالات (IMDA) في سنغافورة ، في مقابلة مع CNBC: "نحن لا نفكر حاليًا في التنظيم. الذكاء الاصطناعي. "
ومع ذلك ، تعمل حكومة سنغافورة أيضًا على تعزيز الاستخدام المسؤول للذكاء الاصطناعي ، وتدعو الشركات إلى التعاون في AI Verify ، "أول مجموعة أدوات اختبار للذكاء الاصطناعي في العالم". تم إطلاق AI Verify ، الذي يتضمن إطارًا لاختبار حوكمة الذكاء الاصطناعي ومجموعة أدوات برمجية تمكن المستخدمين من اختبار نماذج الذكاء الاصطناعي تقنيًا وفحوصات عملية المستندات ، كمشروع تجريبي في عام 2022 ، بمشاركة عمالقة التكنولوجيا IBM و Singapore Airlines.
** تعاون بين الحكومة والشركات **
نمت المخاوف بشأن مخاطر الذكاء الاصطناعي التوليدي في الأشهر الأخيرة حيث أصبح chatbot ChatGPT في غاية الغضب. قال لي وانشي: "في هذه المرحلة ، من الواضح أننا نريد التعلم من الصناعة. نحتاج إلى فهم كيفية استخدام الذكاء الاصطناعي قبل أن نقرر ما إذا كنا بحاجة إلى بذل المزيد من الجانب التنظيمي". تم تقديمه في مرحلة لاحقة.
قال لي: "نحن ندرك أنه كدولة صغيرة ، كحكومة ، قد لا نكون قادرين على حل جميع المشاكل. لذلك من المهم للغاية أن نعمل بشكل وثيق مع الصناعة والمؤسسات البحثية والحكومات الأخرى".
يُذكر أن Google و Microsoft و IBM قد انضموا إلى مؤسسة AI Verify Foundation ، وهي مجتمع عالمي مفتوح المصدر مصمم لمناقشة معايير الذكاء الاصطناعي وأفضل الممارسات والتعاون في حوكمة الذكاء الاصطناعي. قال رئيس مايكروسوفت براد سميث في بيان: "مايكروسوفت تشيد بحكومة سنغافورة لقيادتها في هذا المجال. من خلال إنشاء موارد عملية مثل أطر عمل اختبار حوكمة الذكاء الاصطناعي ومجموعات الأدوات ، تساعد سنغافورة المنظمات على إنشاء عمليات حوكمة واختبار قوية."
قال مستشار اللجنة الاستشارية الوطنية للذكاء الاصطناعي في الولايات المتحدة هنية محمديان ، في هذا الصدد: "تكون الصناعة عملية أكثر بكثير عندما يتعلق الأمر بالذكاء الاصطناعي. في بعض الأحيان ، عندما يتعلق الأمر باللوائح ، يمكنك أن ترى فجوة بين ما يفكر فيه صانعو السياسات حول الذكاء الاصطناعي وما تفعله الشركات بالفعل." CNBC ، "لذلك مع هذا النوع من التعاون ، على وجه التحديد إنشاء هذه الأنواع من مجموعات الأدوات ، مع مدخلات من الصناعة. إنه مفيد لكلا الطرفين."
في قمة Asia Tech x Singapore في يونيو ، قالت وزيرة الاتصالات والمعلومات السنغافورية جوزفين تيو إنه بينما تدرك الحكومة المخاطر المحتملة للذكاء الاصطناعي ، لا يمكنها تعزيز الاستخدام الأخلاقي للذكاء الاصطناعي بمفردها ". الانخراط معنا بشكل هادف في تحقيق هذه الأهداف ".
وقالت إنه في حين أن "هناك مخاوف ومخاوف حقيقية للغاية بشأن تطوير الذكاء الاصطناعي ،" يجب توجيه الذكاء الاصطناعي بنشاط نحو الاستخدامات المفيدة والابتعاد عن الاستخدامات السيئة. "إنه في صميم كيفية رؤية سنغافورة للذكاء الاصطناعي."
وفي الوقت نفسه ، اتخذت بعض الدول خطوات لتنظيم الذكاء الاصطناعي. في 14 يونيو ، أقر البرلمان الأوروبي "قانون الذكاء الاصطناعي" (قانون الذكاء الاصطناعي) ، وفرض قيودًا أكبر على أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT ، وسيُطلب من المطورين تقديم أنظمة للمراجعة قبل الإصدار. كما قال الرئيس الفرنسي إيمانويل ماكرون الأسبوع الماضي إن هناك حاجة إلى تنظيم الذكاء الاصطناعي. تُنشئ المملكة المتحدة فريق عمل نموذج مؤسسة الذكاء الاصطناعي لدراسة المخاطر الأمنية التي يسببها الذكاء الاصطناعي ، وتستعد للقمة العالمية لأمن الذكاء الاصطناعي ، بهدف جعلها المركز الجغرافي لتنظيم أمن الذكاء الاصطناعي العالمي.
** والد ChatGPT يتحدث في سنغافورة **
قالت ستيلا كرامر ، رئيسة قسم آسيا والمحيط الهادئ في مجموعة التكنولوجيا التابعة لشركة المحاماة الدولية كليفورد تشانس ، إن سنغافورة يمكن أن تعمل "كمسؤول" في المنطقة ، مما يسمح بالابتكار في بيئة آمنة. تعمل Clifford Chance مع المنظمين لتطوير سلسلة من إرشادات وأطر السوق.
قال كريمر: "ما رأيناه هو نهج ثابت حول الانفتاح والتعاون. يُنظر إلى سنغافورة على أنها سلطة قضائية آمنة لاختبار ونشر التكنولوجيا الخاصة بك في بيئة خاضعة للرقابة بدعم من المنظمين".
يبدو أن هذه الفكرة تتطابق مع فكرة الرئيس التنفيذي لشركة OpenAI Sam Altman (Sam Altman). في 13 يونيو ، حضر ألتمان جولة OpenAI العالمية "Fireside Dialogue" في جامعة سنغافورة للإدارة (جامعة سنغافورة للإدارة) ، حيث تحدث بالتفصيل عن كيفية إدارة مخاطر الذكاء الاصطناعي. وهو يعتقد أن التركيز ينصب على إعلام الجمهور بالتطورات الجديدة وتجربتها ، مما يضمن اكتشاف أي ضرر محتمل ومعالجته قبل أن ينتشر تأثيره على نطاق واسع.
قال ألتمان: "إنها أكثر كفاءة من تطوير واختبار تقنية خلف الأبواب المغلقة وإطلاقها للجمهور بافتراض أنه قد تم تحديد جميع المخاطر المحتملة ومنعها". تعرف على كل شيء. بغض النظر عن مقدار اختبار المنتج لتقليل الضرر ، فإن شخصًا ما العثور على طريقة لاستغلالها بطرق لم يخطر ببال مبتكريها أنها ممكنة ". ويلاحظ أن هذا ينطبق على أي تقنية جديدة.
"نعتقد أن النشر التكراري هو الطريقة الوحيدة للقيام بذلك." وأضاف ألتمان أن الإدخال التدريجي للإصدارات الجديدة سيسمح أيضًا للمجتمع بالتكيف مع تطور الذكاء الاصطناعي ، مع توليد تعليقات حول كيفية تحسينه.
أطلقت سنغافورة حاليًا العديد من المشاريع التجريبية ، مثل FinTech Regulatory Sandbox أو HealthTech Sandbox ، للاعبين في الصناعة لاختبار منتجاتهم في بيئة حية قبل طرحها للجمهور. قال كريمر: "ستساعد هذه الأطر المنظمة ومجموعات أدوات الاختبار في توجيه سياسات حوكمة الذكاء الاصطناعي لتمكين المؤسسات من تطوير الذكاء الاصطناعي بأمان وأمان".
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
حكومة سنغافورة: لا تنوي حاليًا تنظيم الذكاء الاصطناعي ، وتقوم بتطوير أدوات اختبار الذكاء الاصطناعي مع المؤسسات
المصدر: الورقة
المراسل شاو ون
"نحن لا نفكر حاليًا في تنظيم الذكاء الاصطناعي. في هذه المرحلة ، من الواضح أننا نريد أن نكون قادرين على التعلم من الصناعة. فهم كيفية استخدام الذكاء الاصطناعي قبل أن نقرر ما إذا كنا بحاجة إلى فعل المزيد من منظور تنظيمي."
دعت حكومة سنغافورة الشركات إلى التعاون في تطوير "مجموعة أدوات اختبار الذكاء الاصطناعي الأولى في العالم" AI Verify. انضمت كل من Google و Microsoft و IBM إلى مؤسسة AI Verify Foundation.
مع استكشاف العديد من البلدان لتنظيم الذكاء الاصطناعي التوليدي (AI) ، صرحت حكومة سنغافورة بأنها ليست في عجلة من أمرها لصياغة لوائح الذكاء الاصطناعي.
في 19 يونيو ، بالتوقيت المحلي ، قال Lee Wan Sie ، مدير الذكاء الاصطناعي والبيانات الموثوقة بهيئة تنمية وسائل الإعلام والاتصالات (IMDA) في سنغافورة ، في مقابلة مع CNBC: "نحن لا نفكر حاليًا في التنظيم. الذكاء الاصطناعي. "
ومع ذلك ، تعمل حكومة سنغافورة أيضًا على تعزيز الاستخدام المسؤول للذكاء الاصطناعي ، وتدعو الشركات إلى التعاون في AI Verify ، "أول مجموعة أدوات اختبار للذكاء الاصطناعي في العالم". تم إطلاق AI Verify ، الذي يتضمن إطارًا لاختبار حوكمة الذكاء الاصطناعي ومجموعة أدوات برمجية تمكن المستخدمين من اختبار نماذج الذكاء الاصطناعي تقنيًا وفحوصات عملية المستندات ، كمشروع تجريبي في عام 2022 ، بمشاركة عمالقة التكنولوجيا IBM و Singapore Airlines.
** تعاون بين الحكومة والشركات **
نمت المخاوف بشأن مخاطر الذكاء الاصطناعي التوليدي في الأشهر الأخيرة حيث أصبح chatbot ChatGPT في غاية الغضب. قال لي وانشي: "في هذه المرحلة ، من الواضح أننا نريد التعلم من الصناعة. نحتاج إلى فهم كيفية استخدام الذكاء الاصطناعي قبل أن نقرر ما إذا كنا بحاجة إلى بذل المزيد من الجانب التنظيمي". تم تقديمه في مرحلة لاحقة.
قال لي: "نحن ندرك أنه كدولة صغيرة ، كحكومة ، قد لا نكون قادرين على حل جميع المشاكل. لذلك من المهم للغاية أن نعمل بشكل وثيق مع الصناعة والمؤسسات البحثية والحكومات الأخرى".
يُذكر أن Google و Microsoft و IBM قد انضموا إلى مؤسسة AI Verify Foundation ، وهي مجتمع عالمي مفتوح المصدر مصمم لمناقشة معايير الذكاء الاصطناعي وأفضل الممارسات والتعاون في حوكمة الذكاء الاصطناعي. قال رئيس مايكروسوفت براد سميث في بيان: "مايكروسوفت تشيد بحكومة سنغافورة لقيادتها في هذا المجال. من خلال إنشاء موارد عملية مثل أطر عمل اختبار حوكمة الذكاء الاصطناعي ومجموعات الأدوات ، تساعد سنغافورة المنظمات على إنشاء عمليات حوكمة واختبار قوية."
قال مستشار اللجنة الاستشارية الوطنية للذكاء الاصطناعي في الولايات المتحدة هنية محمديان ، في هذا الصدد: "تكون الصناعة عملية أكثر بكثير عندما يتعلق الأمر بالذكاء الاصطناعي. في بعض الأحيان ، عندما يتعلق الأمر باللوائح ، يمكنك أن ترى فجوة بين ما يفكر فيه صانعو السياسات حول الذكاء الاصطناعي وما تفعله الشركات بالفعل." CNBC ، "لذلك مع هذا النوع من التعاون ، على وجه التحديد إنشاء هذه الأنواع من مجموعات الأدوات ، مع مدخلات من الصناعة. إنه مفيد لكلا الطرفين."
في قمة Asia Tech x Singapore في يونيو ، قالت وزيرة الاتصالات والمعلومات السنغافورية جوزفين تيو إنه بينما تدرك الحكومة المخاطر المحتملة للذكاء الاصطناعي ، لا يمكنها تعزيز الاستخدام الأخلاقي للذكاء الاصطناعي بمفردها ". الانخراط معنا بشكل هادف في تحقيق هذه الأهداف ".
وقالت إنه في حين أن "هناك مخاوف ومخاوف حقيقية للغاية بشأن تطوير الذكاء الاصطناعي ،" يجب توجيه الذكاء الاصطناعي بنشاط نحو الاستخدامات المفيدة والابتعاد عن الاستخدامات السيئة. "إنه في صميم كيفية رؤية سنغافورة للذكاء الاصطناعي."
وفي الوقت نفسه ، اتخذت بعض الدول خطوات لتنظيم الذكاء الاصطناعي. في 14 يونيو ، أقر البرلمان الأوروبي "قانون الذكاء الاصطناعي" (قانون الذكاء الاصطناعي) ، وفرض قيودًا أكبر على أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT ، وسيُطلب من المطورين تقديم أنظمة للمراجعة قبل الإصدار. كما قال الرئيس الفرنسي إيمانويل ماكرون الأسبوع الماضي إن هناك حاجة إلى تنظيم الذكاء الاصطناعي. تُنشئ المملكة المتحدة فريق عمل نموذج مؤسسة الذكاء الاصطناعي لدراسة المخاطر الأمنية التي يسببها الذكاء الاصطناعي ، وتستعد للقمة العالمية لأمن الذكاء الاصطناعي ، بهدف جعلها المركز الجغرافي لتنظيم أمن الذكاء الاصطناعي العالمي.
** والد ChatGPT يتحدث في سنغافورة **
قالت ستيلا كرامر ، رئيسة قسم آسيا والمحيط الهادئ في مجموعة التكنولوجيا التابعة لشركة المحاماة الدولية كليفورد تشانس ، إن سنغافورة يمكن أن تعمل "كمسؤول" في المنطقة ، مما يسمح بالابتكار في بيئة آمنة. تعمل Clifford Chance مع المنظمين لتطوير سلسلة من إرشادات وأطر السوق.
قال كريمر: "ما رأيناه هو نهج ثابت حول الانفتاح والتعاون. يُنظر إلى سنغافورة على أنها سلطة قضائية آمنة لاختبار ونشر التكنولوجيا الخاصة بك في بيئة خاضعة للرقابة بدعم من المنظمين".
يبدو أن هذه الفكرة تتطابق مع فكرة الرئيس التنفيذي لشركة OpenAI Sam Altman (Sam Altman). في 13 يونيو ، حضر ألتمان جولة OpenAI العالمية "Fireside Dialogue" في جامعة سنغافورة للإدارة (جامعة سنغافورة للإدارة) ، حيث تحدث بالتفصيل عن كيفية إدارة مخاطر الذكاء الاصطناعي. وهو يعتقد أن التركيز ينصب على إعلام الجمهور بالتطورات الجديدة وتجربتها ، مما يضمن اكتشاف أي ضرر محتمل ومعالجته قبل أن ينتشر تأثيره على نطاق واسع.
قال ألتمان: "إنها أكثر كفاءة من تطوير واختبار تقنية خلف الأبواب المغلقة وإطلاقها للجمهور بافتراض أنه قد تم تحديد جميع المخاطر المحتملة ومنعها". تعرف على كل شيء. بغض النظر عن مقدار اختبار المنتج لتقليل الضرر ، فإن شخصًا ما العثور على طريقة لاستغلالها بطرق لم يخطر ببال مبتكريها أنها ممكنة ". ويلاحظ أن هذا ينطبق على أي تقنية جديدة.
"نعتقد أن النشر التكراري هو الطريقة الوحيدة للقيام بذلك." وأضاف ألتمان أن الإدخال التدريجي للإصدارات الجديدة سيسمح أيضًا للمجتمع بالتكيف مع تطور الذكاء الاصطناعي ، مع توليد تعليقات حول كيفية تحسينه.
أطلقت سنغافورة حاليًا العديد من المشاريع التجريبية ، مثل FinTech Regulatory Sandbox أو HealthTech Sandbox ، للاعبين في الصناعة لاختبار منتجاتهم في بيئة حية قبل طرحها للجمهور. قال كريمر: "ستساعد هذه الأطر المنظمة ومجموعات أدوات الاختبار في توجيه سياسات حوكمة الذكاء الاصطناعي لتمكين المؤسسات من تطوير الذكاء الاصطناعي بأمان وأمان".