مصدر الصورة: تم إنشاؤه بواسطة أدوات * Unbounded AI *
لا تزال طفرة الذكاء الاصطناعي التي أثارتها شركة OpenAI مستمرة ، ولكن بينما تعمل التطبيقات ذات الصلة بـ AIGC على تحسين كفاءة الإنتاج ، يتم استخدامها أيضًا من قبل المجرمين لإنشاء محتوى خاطئ وتعطيل العمل الطبيعي للمجتمع.
أشار تقرير Guosen لأبحاث الأوراق المالية إلى أن تطبيقات الذكاء الاصطناعي المحلية تتوسع تدريجياً ، وأن التطبيقات المتعلقة بالذكاء الاصطناعي ستزداد تدريجياً. نظرًا لخطر إساءة استخدام الذكاء الاصطناعي ، فإن أمان البيانات والتشفير والإشراف على الذكاء الاصطناعي كلها اتجاهات مهمة للتطوير التكنولوجي.
منذ بضعة أيام ، أصدرت Meiya Pico منتجًا جديدًا يمكنه اكتشاف والتعرف على مقاطع الفيديو والصور والنصوص التي تم إنشاؤها بواسطة AI. في الواقع ، تقوم الإدارات ذات الصلة في بلدنا باستكشاف الإشراف القانوني على منتجات وتطبيقات AIGC. اقترح الخبراء المعنيون أيضًا أنه فقط من خلال إنشاء وتحسين النظام القانوني ذي الصلة ، يمكننا بشكل أساسي تعزيز التنمية الصحية والمستدامة لصناعة AIGC في بلدي.
** Meiya Pico تطرح المنتجات التنظيمية للذكاء الاصطناعي **
في 15 مايو ، أصدرت Meiya Pico ورقة قياسية لأنشطة علاقات المستثمرين.
تُظهر ورقة التسجيل أنه فيما يتعلق بمنتجات إشراف الذكاء الاصطناعي ، أصدرت الشركة محطة عمل مصادقة صور الفيديو AI-3300 "Huiyan" ، والتي يمكنها مراقبة وتحديد صور الفيديو المركبة والمزورة بعمق وصور الفيديو التي تم إنشاؤها بواسطة AIGC. تدعم منصة الكشف AIGC التي أطلقتها الشركة اكتشاف النص الذي تم إنشاؤه بواسطة AIGC والتعرف عليه.
في الوقت نفسه ، قال Meiya Pico أن شركات المتابعة ستستمر في إجراء الأبحاث حول أمن الذكاء الاصطناعي والمجالات التنظيمية بما في ذلك الذكاء الاصطناعي المضاد للتوليد ، ونشر المنتجات ذات الصلة في الوقت المناسب وفقًا لاحتياجات العمل.
قال مراسل من Metaverse NEWS يدعى Meiya Pico ، والشخص المسؤول عن الشركة إنه من منظور نموذج الأعمال ، فإن منتجات أمان الذكاء الاصطناعي للشركة تخدم بشكل أساسي الوكالات التنظيمية مثل الأمن العام ومعلومات الشبكة ، بهدف استخدام التكنولوجيا التوليدية على الإنترنت للقيام بأنشطة غير مشروعة. تحديد سلوك نشر المعلومات وتحديده ؛ بالإضافة إلى ذلك ، يمكن توفير خدمات تقييم الأمان والامتثال للمصنعين الذين يقدمون خدمات إنتاجية.
قال مسؤول الاتصال المذكور أعلاه بصراحة أن مصنعي النماذج المحلية الكبيرة لا يزالون في مرحلة الإصدار وتطبيق السوق. ومن منظور الجانب ب ، لا يزال التعاون في مجال الأعمال قيد المناقشة.
"مع نضج تقنية التزييف العميق وتقنية AIGC ، تم تقليل العتبة التكنولوجية لتزوير مقاطع الفيديو والصوت والصور ذات الصلة بشكل كبير ، واتسعت مخاطر إساءة استخدام تقنية الذكاء الاصطناعي بشكل أكبر ، ويلزم تعزيز الإشراف بشكل عاجل." قال المستثمر وخبير الذكاء الاصطناعي الكبير Guo Tao Xiang Yuan A مراسل من Cosmos News إن أدوات مراقبة الذكاء الاصطناعي لها نتائج جيدة نسبيًا في مراقبة وتحديد الصور ومقاطع الفيديو ومقاطع الفيديو التي يتم إنتاجها باستخدام تقنية التزوير العميق وتقنية AIGC ، والتي يمكن أن تقلل من مخاطر التكنولوجيا إساءة.
قال الدكتور لي سانبينج ، كبير العلماء التنفيذيين في مجموعة Dell Technologies China R&D Group ، لمراسل Yuanverse News إنه من وجهة نظر تقنية ، كانت هناك بعض المحاولات لإنشاء صور ومقاطع فيديو باستخدام الذكاء الاصطناعي. على سبيل المثال ، ستضع Google علامة على كل ذكاء اصطناعي صورة تم إنشاؤها بواسطة أدواتها.
قال لي سانبينج: "من السهل من الناحية الفنية تحديد المستخدمين ولا يؤثر عليهم. ومع ذلك ، لا يزال محتوى النص قيد الاستكشاف".
** الإشراف على الذكاء الاصطناعي في الطريق دائمًا **
تعتقد شركة Guosen للأوراق المالية أنه مع إطلاق شركات الإنترنت المحلية مثل Baidu و 360 و Ali و Huawei و Tencent أو تخطط لإصدار نماذج واسعة النطاق ، فإن التطبيقات المتعلقة بالذكاء الاصطناعي ستزداد تدريجياً. نظرًا لخطر إساءة استخدام الذكاء الاصطناعي ، فإن أمان البيانات والتشفير والإشراف على الذكاء الاصطناعي كلها اتجاهات مهمة للتطوير التكنولوجي.
في الواقع ، أولت بلادي دائمًا أهمية كبيرة للإشراف على الذكاء الاصطناعي.
في 10 يناير 2023 ، دخلت "اللوائح الخاصة بإدارة التوليف العميق لخدمات معلومات الإنترنت" (المشار إليها فيما يلي باسم "اللوائح") حيز التنفيذ. توضح "اللوائح" أن الخدمات التي توفر وظائف مثل الحوار الذكي والصوت البشري التركيبي وتوليد الوجوه والمشاهد الافتراضية الغامرة التي تولد محتوى المعلومات أو تغيره بشكل كبير يجب تمييزها بشكل بارز لتجنب الارتباك العام أو سوء التعريف. لا يجوز لأي منظمة أو فرد استخدام الوسائل التقنية لحذف العلامات ذات الصلة أو التلاعب بها أو إخفاءها.
في 11 أبريل ، أصدرت إدارة الفضاء الإلكتروني في الصين "تدابير إدارة خدمات الذكاء الاصطناعي التوليدية (مسودة للتعليق)" (يشار إليها باسم "الإجراءات") ، مع التركيز على الذكاء الاصطناعي التوليدي لأول مرة ، وزيادة توضيح الحدود القانونية والكيانات المسؤولة. تقترح "الإجراءات" أن المنظمات والأفراد الذين يستخدمون منتجات الذكاء الاصطناعي التوليدية لتقديم خدمات مثل الدردشة والنصوص والصورة وتوليد الصوت ، بما في ذلك المنظمات والأفراد الذين يدعمون الآخرين لإنشاء نص وصورة وصوت بأنفسهم من خلال توفير برامج قابلة للبرمجة يجب أن تتحمل الواجهات ، وما إلى ذلك ، مسؤولية المنتج عن المحتوى الذي تم إنشاؤه بواسطة هذا المنتج. يجب أن يكون مقدمو الخدمة مسؤولين عن شرعية بيانات ما قبل التدريب ومصادر بيانات التدريب الأمثل لمنتجات الذكاء الاصطناعي التوليدية.
"فيما يتعلق بالإشراف على صناعة الذكاء الاصطناعي ، هناك مشاكل معلقة مثل القوانين واللوائح والأنظمة القياسية ذات الصلة غير المكتملة ، وعدم وجود نظام إشراف من أعلى إلى أسفل منسق من قبل إدارات متعددة ، وتكنولوجيا الإشراف المتخلف." وأشار قوه تاو إلى أن الإدارات الحكومية ذات الصلة تحتاج إلى إنشاء وتحسين البحث والتطوير في AIGC وتطبيق القوانين واللوائح والأنظمة القياسية ذات الصلة ، وإنشاء أو تحسين نظام المراجعة الأخلاقية ونظام الإشراف ، وتعزيز الإشراف على شركات التكنولوجيا ، وسيناريوهات التطبيق ، والمستخدمين ، وبناء منصة حوكمة تعاونية متعددة الأطراف ، وتعزيز التنمية الصحية والمستدامة لصناعة AIGC.
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
كيف تنظم الذكاء الاصطناعي؟ يقترح الخبراء تحسين نظام الضمان القانوني والمعيار
المؤلف: Xu Cihao
المصدر: Financial Associated Press
لا تزال طفرة الذكاء الاصطناعي التي أثارتها شركة OpenAI مستمرة ، ولكن بينما تعمل التطبيقات ذات الصلة بـ AIGC على تحسين كفاءة الإنتاج ، يتم استخدامها أيضًا من قبل المجرمين لإنشاء محتوى خاطئ وتعطيل العمل الطبيعي للمجتمع.
أشار تقرير Guosen لأبحاث الأوراق المالية إلى أن تطبيقات الذكاء الاصطناعي المحلية تتوسع تدريجياً ، وأن التطبيقات المتعلقة بالذكاء الاصطناعي ستزداد تدريجياً. نظرًا لخطر إساءة استخدام الذكاء الاصطناعي ، فإن أمان البيانات والتشفير والإشراف على الذكاء الاصطناعي كلها اتجاهات مهمة للتطوير التكنولوجي.
منذ بضعة أيام ، أصدرت Meiya Pico منتجًا جديدًا يمكنه اكتشاف والتعرف على مقاطع الفيديو والصور والنصوص التي تم إنشاؤها بواسطة AI. في الواقع ، تقوم الإدارات ذات الصلة في بلدنا باستكشاف الإشراف القانوني على منتجات وتطبيقات AIGC. اقترح الخبراء المعنيون أيضًا أنه فقط من خلال إنشاء وتحسين النظام القانوني ذي الصلة ، يمكننا بشكل أساسي تعزيز التنمية الصحية والمستدامة لصناعة AIGC في بلدي.
** Meiya Pico تطرح المنتجات التنظيمية للذكاء الاصطناعي **
في 15 مايو ، أصدرت Meiya Pico ورقة قياسية لأنشطة علاقات المستثمرين.
تُظهر ورقة التسجيل أنه فيما يتعلق بمنتجات إشراف الذكاء الاصطناعي ، أصدرت الشركة محطة عمل مصادقة صور الفيديو AI-3300 "Huiyan" ، والتي يمكنها مراقبة وتحديد صور الفيديو المركبة والمزورة بعمق وصور الفيديو التي تم إنشاؤها بواسطة AIGC. تدعم منصة الكشف AIGC التي أطلقتها الشركة اكتشاف النص الذي تم إنشاؤه بواسطة AIGC والتعرف عليه.
في الوقت نفسه ، قال Meiya Pico أن شركات المتابعة ستستمر في إجراء الأبحاث حول أمن الذكاء الاصطناعي والمجالات التنظيمية بما في ذلك الذكاء الاصطناعي المضاد للتوليد ، ونشر المنتجات ذات الصلة في الوقت المناسب وفقًا لاحتياجات العمل.
قال مراسل من Metaverse NEWS يدعى Meiya Pico ، والشخص المسؤول عن الشركة إنه من منظور نموذج الأعمال ، فإن منتجات أمان الذكاء الاصطناعي للشركة تخدم بشكل أساسي الوكالات التنظيمية مثل الأمن العام ومعلومات الشبكة ، بهدف استخدام التكنولوجيا التوليدية على الإنترنت للقيام بأنشطة غير مشروعة. تحديد سلوك نشر المعلومات وتحديده ؛ بالإضافة إلى ذلك ، يمكن توفير خدمات تقييم الأمان والامتثال للمصنعين الذين يقدمون خدمات إنتاجية.
قال مسؤول الاتصال المذكور أعلاه بصراحة أن مصنعي النماذج المحلية الكبيرة لا يزالون في مرحلة الإصدار وتطبيق السوق. ومن منظور الجانب ب ، لا يزال التعاون في مجال الأعمال قيد المناقشة.
"مع نضج تقنية التزييف العميق وتقنية AIGC ، تم تقليل العتبة التكنولوجية لتزوير مقاطع الفيديو والصوت والصور ذات الصلة بشكل كبير ، واتسعت مخاطر إساءة استخدام تقنية الذكاء الاصطناعي بشكل أكبر ، ويلزم تعزيز الإشراف بشكل عاجل." قال المستثمر وخبير الذكاء الاصطناعي الكبير Guo Tao Xiang Yuan A مراسل من Cosmos News إن أدوات مراقبة الذكاء الاصطناعي لها نتائج جيدة نسبيًا في مراقبة وتحديد الصور ومقاطع الفيديو ومقاطع الفيديو التي يتم إنتاجها باستخدام تقنية التزوير العميق وتقنية AIGC ، والتي يمكن أن تقلل من مخاطر التكنولوجيا إساءة.
قال الدكتور لي سانبينج ، كبير العلماء التنفيذيين في مجموعة Dell Technologies China R&D Group ، لمراسل Yuanverse News إنه من وجهة نظر تقنية ، كانت هناك بعض المحاولات لإنشاء صور ومقاطع فيديو باستخدام الذكاء الاصطناعي. على سبيل المثال ، ستضع Google علامة على كل ذكاء اصطناعي صورة تم إنشاؤها بواسطة أدواتها.
قال لي سانبينج: "من السهل من الناحية الفنية تحديد المستخدمين ولا يؤثر عليهم. ومع ذلك ، لا يزال محتوى النص قيد الاستكشاف".
** الإشراف على الذكاء الاصطناعي في الطريق دائمًا **
تعتقد شركة Guosen للأوراق المالية أنه مع إطلاق شركات الإنترنت المحلية مثل Baidu و 360 و Ali و Huawei و Tencent أو تخطط لإصدار نماذج واسعة النطاق ، فإن التطبيقات المتعلقة بالذكاء الاصطناعي ستزداد تدريجياً. نظرًا لخطر إساءة استخدام الذكاء الاصطناعي ، فإن أمان البيانات والتشفير والإشراف على الذكاء الاصطناعي كلها اتجاهات مهمة للتطوير التكنولوجي.
في الواقع ، أولت بلادي دائمًا أهمية كبيرة للإشراف على الذكاء الاصطناعي.
في 10 يناير 2023 ، دخلت "اللوائح الخاصة بإدارة التوليف العميق لخدمات معلومات الإنترنت" (المشار إليها فيما يلي باسم "اللوائح") حيز التنفيذ. توضح "اللوائح" أن الخدمات التي توفر وظائف مثل الحوار الذكي والصوت البشري التركيبي وتوليد الوجوه والمشاهد الافتراضية الغامرة التي تولد محتوى المعلومات أو تغيره بشكل كبير يجب تمييزها بشكل بارز لتجنب الارتباك العام أو سوء التعريف. لا يجوز لأي منظمة أو فرد استخدام الوسائل التقنية لحذف العلامات ذات الصلة أو التلاعب بها أو إخفاءها.
في 11 أبريل ، أصدرت إدارة الفضاء الإلكتروني في الصين "تدابير إدارة خدمات الذكاء الاصطناعي التوليدية (مسودة للتعليق)" (يشار إليها باسم "الإجراءات") ، مع التركيز على الذكاء الاصطناعي التوليدي لأول مرة ، وزيادة توضيح الحدود القانونية والكيانات المسؤولة. تقترح "الإجراءات" أن المنظمات والأفراد الذين يستخدمون منتجات الذكاء الاصطناعي التوليدية لتقديم خدمات مثل الدردشة والنصوص والصورة وتوليد الصوت ، بما في ذلك المنظمات والأفراد الذين يدعمون الآخرين لإنشاء نص وصورة وصوت بأنفسهم من خلال توفير برامج قابلة للبرمجة يجب أن تتحمل الواجهات ، وما إلى ذلك ، مسؤولية المنتج عن المحتوى الذي تم إنشاؤه بواسطة هذا المنتج. يجب أن يكون مقدمو الخدمة مسؤولين عن شرعية بيانات ما قبل التدريب ومصادر بيانات التدريب الأمثل لمنتجات الذكاء الاصطناعي التوليدية.
"فيما يتعلق بالإشراف على صناعة الذكاء الاصطناعي ، هناك مشاكل معلقة مثل القوانين واللوائح والأنظمة القياسية ذات الصلة غير المكتملة ، وعدم وجود نظام إشراف من أعلى إلى أسفل منسق من قبل إدارات متعددة ، وتكنولوجيا الإشراف المتخلف." وأشار قوه تاو إلى أن الإدارات الحكومية ذات الصلة تحتاج إلى إنشاء وتحسين البحث والتطوير في AIGC وتطبيق القوانين واللوائح والأنظمة القياسية ذات الصلة ، وإنشاء أو تحسين نظام المراجعة الأخلاقية ونظام الإشراف ، وتعزيز الإشراف على شركات التكنولوجيا ، وسيناريوهات التطبيق ، والمستخدمين ، وبناء منصة حوكمة تعاونية متعددة الأطراف ، وتعزيز التنمية الصحية والمستدامة لصناعة AIGC.