Как регулировать ИИ? Эксперты предлагают улучшить систему правовых гарантий и стандартов

Автор: Сюй Цихао

Источник: Финансовое Ассошиэйтед Пресс.

‌Источник изображения: сгенерировано с помощью инструментов Unbounded AI.

Всплеск ИИ, вызванный OpenAI, продолжается, но, хотя приложения, связанные с AIGC, повышают эффективность производства, они также используются преступниками для создания ложного контента и нарушения нормальной работы общества.

В отчете Guosen Securities Research отмечается, что внутренние приложения ИИ постепенно расширяются, и количество приложений, связанных с ИИ, будет постепенно увеличиваться. Ввиду риска злоупотребления ИИ безопасность данных, криптография и контроль ИИ являются важными направлениями технологического развития.

Несколько дней назад Meiya Pico выпустила новый продукт, который может обнаруживать и распознавать видео, изображения и текст, созданные искусственным интеллектом. Фактически, соответствующие ведомства в нашей стране изучают возможности правового надзора за продуктами и приложениями AIGC. Соответствующие эксперты также предположили, что только путем создания и улучшения соответствующей правовой системы мы сможем существенно способствовать здоровому и устойчивому развитию отрасли AIGC в моей стране.

Meiya Pico выпускает нормативные продукты для ИИ

15 мая Meiya Pico выпустила отчет о деятельности по связям с инвесторами.

Отчетный лист показывает, что с точки зрения продуктов контроля ИИ компания выпустила рабочую станцию аутентификации видеоизображений AI-3300 «Huiyan», которая может отслеживать и идентифицировать глубоко синтезированные и поддельные видеоизображения и видеоизображения, созданные AIGC. Платформа обнаружения AIGC, запущенная компанией, поддерживает обнаружение и распознавание текста, сгенерированного AIGC.

В то же время Мейя Пико заявил, что последующие компании продолжат исследования в области безопасности и регулирования ИИ, включая антигенеративный ИИ, и будут своевременно развертывать соответствующие продукты в соответствии с потребностями бизнеса.

Репортер из Metaverse NEWS по имени Мейя Пико, ответственный за компанию, сказал, что с точки зрения бизнес-модели, продукты безопасности ИИ компании в основном служат регулирующим органам, таким как общественная безопасность и сетевая информация, с целью использования генеративных технологий. в Интернете для ведения незаконной деятельности.Идентификация и идентификация поведения при распространении информации, кроме того, для производителей, которые предоставляют генеративные услуги, могут быть предоставлены услуги по оценке безопасности и соответствия.

Вышеупомянутый контактный человек откровенно сказал, что отечественные крупные производители моделей все еще находятся в стадии выпуска и применения на рынке.С точки зрения стороны B, сотрудничество в сфере бизнеса все еще обсуждается.

«С развитием технологии глубокой подделки и технологии AIGC технологический порог для подделки связанных видео, аудио и изображений был значительно снижен, а риск злоупотребления технологией ИИ еще больше увеличился, и необходимо срочно усилить надзор». инвестор и старший эксперт по искусственному интеллекту Го Тао Сян Юань. Репортер Cosmos News сказал, что инструменты мониторинга ИИ имеют относительно хорошие результаты в мониторинге и идентификации изображений, видео и видео, сделанных с использованием технологии глубокой подделки и технологии AIGC, что может снизить риск технологии. злоупотреблять.

Доктор Ли Саньпин, старший научный сотрудник Dell Technologies China R&D Group, сообщил корреспонденту Yuanverse News, что с технической точки зрения были попытки создавать изображения и видео с помощью ИИ. Например, Google будет помечать каждый ИИ. сгенерированное изображение, созданное его инструментами.

"Технически его легко идентифицировать, и он не влияет на пользователей при использовании. Тем не менее, содержание текста все еще изучается", - сказал Ли Саньпин.

Наблюдение за ИИ всегда в пути

Guosen Securities считает, что по мере того, как отечественные интернет-компании, такие как Baidu, 360, Ali, Huawei и Tencent, выпускают или планируют выпускать крупномасштабные модели, количество приложений, связанных с ИИ, будет постепенно увеличиваться. Ввиду риска злоупотребления ИИ безопасность данных, криптография и контроль ИИ являются важными направлениями технологического развития.

На самом деле моя страна всегда придавала большое значение надзору за ИИ.

10 января 2023 года вступило в силу «Положение об администрировании глубокого синтеза информационных сервисов Интернета» (далее — «Положение»). В «Правилах» уточняется, что услуги, которые обеспечивают такие функции, как интеллектуальный диалог, синтетический человеческий голос, генерация лиц и иммерсивные виртуальные сцены, которые генерируют или существенно изменяют информационный контент, должны быть отмечены на видном месте, чтобы избежать путаницы или неправильной идентификации общественности. Ни организация, ни физическое лицо не могут использовать технические средства для удаления, изменения или сокрытия соответствующих знаков.

11 апреля Управление киберпространства Китая выпустило «Меры по администрированию генеративных служб искусственного интеллекта (проект для комментариев)» (далее именуемые «Меры»), впервые сосредоточив внимание на генеративном ИИ и дополнительно разъяснив правовые границы и ответственные лица. «Меры» предлагают, чтобы организации и отдельные лица, использующие продукты генеративного искусственного интеллекта, предоставляли такие услуги, как чат и генерация текста, изображения и звука, включая организации и отдельных лиц, которые поддерживают других в самостоятельном создании текста, изображения и звука путем предоставления программируемых интерфейсы и т.д., должен взять на себя ответственность производитель контента, генерируемого этим продуктом. Поставщики должны нести ответственность за достоверность данных предварительного обучения и оптимизированных источников данных для обучения продуктов генеративного искусственного интеллекта.

«С точки зрения надзора за отраслью искусственного интеллекта существуют нерешенные проблемы, такие как неполные соответствующие законы, правила и стандартные системы, отсутствие системы надзора сверху вниз, координируемой несколькими департаментами, и технология обратного надзора». необходимо создать и улучшить исследования и разработки AIGC и применить соответствующие законы, правила и стандартные системы, создать или улучшить систему этической проверки и систему надзора, усилить надзор за технологическими компаниями, сценариями приложений и пользователями, создать многостороннюю платформу для совместного управления. и способствовать здоровому и устойчивому развитию отрасли AIGC.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить