Последнее интервью генерального директора OpenAI Альтмана: Чем больше людей вовлечено в ИИ, тем лучше контроль над ИИ

Первоисточник: GenAI New World

Источник изображения: Generated by Unbounded AI

Согласно новостям зарубежных СМИ, в мире стремительного развития искусственного интеллекта дискуссии о будущем часто сосредотачиваются на так называемом «общем искусственном интеллекте». На этом этапе ИИ будет способен делать все, что может делать человек, и только лучше.

Недавние беседы с генеральным директором OpenAI Сэмом Альтманом и техническим директором Мирой Мурати затронули тему «потенциальных преимуществ и рисков AGI».

Вот выдержки из их бесед:

Искусственный интеллект станет лучшим инструментом, который когда-либо создавало человечество

В: Почему AGI является мишенью? **

Сэм Альтман: Две вещи, которые будут наиболее важны для улучшения условий жизни человека в ближайшие десятилетие или десятилетия, — это обильный и дешевый интеллект: чем мощнее, тем разностороннее, умнее, тем лучше. Я думаю, что это AG. Во-вторых, это обильная и дешевая энергия. Если мы можем достичь этих двух вещей в мире, трудно представить, как много еще мы можем сделать. Мы твердо верим, что если вы дадите людям лучшие инструменты, они будут делать вещи, которые вас удивят. Я думаю, что AGI будет лучшим инструментом, который когда-либо создавало человечество.

С его помощью мы можем решать всевозможные проблемы. Мы сможем выразить себя новыми и творческими способами. Мы создадим невероятные вещи друг для друга, для себя, для мира, для этой разворачивающейся человеческой истории. Это новое, а все новое приходит с переменами, а перемены не всегда проходят гладко.

Вопрос: Когда он появится и откуда мы знаем, что он появится? **

Мира Мурати: Возможно, в следующем десятилетии, но это немного сложно. Мы часто говорим об интеллекте, о том, насколько он разумен, обладает ли он сознанием, чувствующим и так далее, но эти утверждения не совсем верны. Потому что они определяют наш собственный интеллект, и то, что мы строим, немного отличается.

Мира Мурати, технический директор OpenAI

Вопрос: Некоторые люди не удовлетворены некоторыми данными, которые вы используете для обучения определенных моделей. Например: Голливуд, издательства. Что вы делаете с данными при работе с моделью? **

Сэм Альтман: Во-первых, очевидно, что мы используем только те данные, которые разрешены другими людьми. Одна из проблем заключается в том, что у разных типов данных очень разные владельцы. Так что мы пробуем много чего. Мы строим разнообразные партнерские отношения и думаем, что, как и в любой новой области, мы найдем что-то, что станет новым стандартом.

Кроме того, по мере того, как эти модели становятся умнее и функциональнее, нам потребуется все меньше и меньше обучающих данных. Я думаю, что из-за технологических достижений, которые мы делаем, разговор о данных и форме всего этого будет меняться.

Вопрос: Издатели хотят платить за данные. Будет ли будущее этой гонки заключаться в том, кто заплатит больше за лучшие данные? **

Сэм Альтман: Нет, это именно то, что я хотел сказать. Что людям действительно нравится в модели GPT, так это не то, что она знает конкретные знания. Есть более эффективные способы найти эти знания. Дело в том, что у него есть эта юношеская способность к рассуждению, и она будет становиться все лучше и лучше. Вот о чем идет речь на самом деле.

Альтман: Я не хочу, чтобы ИИ был близок с людьми**

Вопрос: Будем ли мы выстраивать глубокие отношения с такими роботами в будущем? **

Мира Мурати: Это будут важные отношения. Потому что системы, которые мы создаем, будут повсюду: в вашем доме, в вашей образовательной среде, в вашей рабочей среде и даже во время развлечений.

Вот почему на самом деле очень важно сделать все правильно. Мы должны тщательно спланировать это взаимодействие таким образом, чтобы оно в конечном итоге улучшало опыт, делало его увлекательным, повышало производительность и усиливало креативность.

Мы также хотим убедиться в том, что со стороны продукта у нас есть чувство контроля над этими системами, что мы можем направлять их делать то, что мы хотим, и что результат надежен. По мере того, как он узнает больше о ваших предпочтениях, о том, что вам нравится, что вы делаете, а способности модели улучшаются, он становится более персонализированным.

И это не просто система. У вас может быть множество персонализированных систем для конкретных областей и задач.

В: Большая ответственность. Вы будете управлять друзьями людей и, возможно, стать их любовниками. Что вы думаете об этом контроле? **

Сэм Альтман: Мы не будем единственными игроками. Будет задействовано много людей. Поэтому мы можем «толкнуть волну» на траектории технологического развития. Но:

а) Мы действительно верим, что решение принадлежит человечеству, обществу в целом;

б) Мы будем одним из многих игроков в построении сложных систем. Будут конкурирующие продукты, предлагающие разные услуги, будут разные типы социальных защитников и противников, и возникнут проблемы с регулированием.

Лично меня глубоко беспокоит такое видение будущего, потому что в будущем каждый будет ближе к своим друзьям-ИИ, даже ближе, чем к друзьям-людям. Лично я этого не хочу. Я думаю, что другие люди захотят этого, и некоторые люди построят что-то подобное. Если это то, чего хочет мир, и мы думаем, что это имеет смысл, мы это сделаем.

Безопасный ИИ не рождается в лаборатории

В: Теперь у нас есть простой чат-бот. Развеем ли мы страх перед искусственным интеллектом, который сейчас широко распространен? **

Сэм Альтман: Не нужно много воображения, чтобы придумать ситуации, требующие повышенной бдительности. Опять же, мы делаем это, потому что мы очень взволнованы большими перспективами и невероятно положительным влиянием. Было бы моральным провалом не преследовать их для человечества. Но мы должны признать – и это происходит со многими другими технологиями – с недостатками, которые с ними связаны.

Это означает, что вы должны учитывать риски. Вы попытаетесь измерить свои способности и структурировать технологию таким образом, чтобы снизить риск. Затем, когда вы говорите: «Эй, это новая технология безопасности», вы отдаете ее кому-то другому.

В: Какие из них существуют? **

Мира Мурати: Это не единственное решение. От данных до моделей, инструментов в продукте и, конечно же, политики. А затем подумайте обо всей нормативной и социальной инфраструктуре, чтобы идти в ногу с теми технологиями, которые мы создаем.

Поэтому, когда вы думаете о том, какие конкретные меры безопасности существуют на этом пути, первое, что нужно сделать, — это сначала развернуть технологию и постепенно войти в контакт с реальностью; Поймите, как это влияет на некоторые реальные сценарии использования и отрасли, и реально устраните это влияние. Будь то регулирование или авторское право, каким бы ни было воздействие, вы должны поглощать эти воздействия, справляться с ними, а затем продолжать развивать все больше и больше возможностей. Я не думаю, что создание технологии в лаборатории, создание ее в вакууме-—— отсутствие контакта с реальным миром, отсутствие контакта с трением реального мира — это хороший способ действительно безопасно развернуть технологию.

Сэм Альтман: Мысль, высказанная Милой, очень важна. Сделать технологию «безопасной» в лаборатории очень сложно. Общество по-разному использует вещи и по-разному приспосабливается. Я думаю, что чем больше ИИ мы внедряем, чем больше ИИ использует мир, тем он безопаснее, и тем больше мы можем коллективно решить: «Эй, вот одна вещь, которая является неприемлемой толерантностью к риску, и еще одна вещь, о которой люди беспокоятся, это совершенно нормально». "

Добавление «водяного знака» к контенту ИИ — это не черно-белая вещь

На данный момент, по крайней мере, в OpenAI, нет инструмента, который позволил бы мне ввести изображение или текст и спросить: «Это сгенерировано искусственным интеллектом?». Это правильно? **

Мира Мурати: Наша технология почти на 99% надежна с точки зрения изображений. Но мы все еще тестируем, еще рано.

В: Планируете ли вы выпустить что-то подобное? **

Мира Мурати: Да.

В: Можно ли использовать изображения и текст? **

Мила Мурати: С помощью слов мы должны понять, что имеет смысл. Для картинок вопрос немного более прямолинеен. Мы часто экспериментируем, что-то выкатываем и получаем обратную связь. Иногда мы берем его обратно, делаем лучше и снова выпускаем.

Сэм Альтман: Не все одинаково относятся к понятию «водяные знаки» контента. Есть много людей, которые действительно не хотят, чтобы контент, который они создают, имел водяной знак. Кроме того, он не очень адаптируется ко всему. Например, вы можете наносить водяные знаки на изображения, может быть, вы можете добавлять водяные знаки на более длинный текст, может быть, вы не можете наносить водяные знаки на более короткий текст.

Именно поэтому мы хотим быть частью диалога. На данный момент мы готовы следовать коллективной воле общества. Я не думаю, что это черно-белая проблема.

ИИ может усугубить неравенство

Вопрос: Мы собираемся изменить характер нашей работы. Есть большая часть общества, которая даже не участвует в этой дискуссии. Как мы можем разработать такие структуры и добровольно сделать что-то, что действительно ведет к лучшему миру, не оставляя других позади?

Мира Мурати: Я полностью согласна с Вами в том, что это совершенная технология, которая действительно может усугубить неравенство и ухудшить положение людей и цивилизации. Это также может быть удивительно, это может привести к большому творчеству и продуктивности, а также улучшить наш уровень жизни. Может быть, многие люди не хотят работать 8 или 100 часов в неделю. Может быть, они хотят работать по четыре часа в день, а потом делать много других вещей.

Это, безусловно, приведет к большим сбоям в работе рабочей силы.

Сэм Альтман: Это очень важный вопрос. Каждая технологическая революция влияет на рынок труда. Я совсем не боюсь. На самом деле, я думаю, что это хорошо, я думаю, что это путь к прогрессу. Мы найдем новые и лучшие рабочие места.

Я думаю, что мы, как общество, должны столкнуться со скоростью, с которой это происходит. Мы должны что-то сделать с этим сдвигом. Недостаточно дать людям универсальный базовый доход. Люди должны обладать автономией и способностью влиять на все это, и мы должны вместе быть проектировщиками будущего.

Как Вы сказали, не все участвуют в этих дискуссиях, но с каждым годом их становится все больше. Предоставление этого инструмента в руки людей и предоставление ChatGPT миллиардам людей не только дает людям возможность подумать о том, что грядет, и участвовать в разговорах, но и позволяет людям использовать этот инструмент для управления будущим. Для нас это очень важно.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить