Совместное творчество LeCun и xAI удушает, основные недостатки рассуждений GPT-4 не имеют решения? Пользователи сети: Люди тоже «случайные попугаи»

Первоисточник: Shin Ji Yuan

Источник изображения: Generated by Unbounded AI

В последнее время группа воротил, включая Лекуна, снова начала стрелять по LLM. Последний прорыв заключается в том, что у LLM вообще нет способности к рассуждению!

По мнению Лекуна, недостатки способности к рассуждению являются практически «мертвой дырой» LLM, независимо от того, насколько мощными вычислительными мощностями и какими бы обширными и качественными наборами данных ни использовались для обучения LLM в будущем, он не сможет решить эту проблему.

Взгляды, высказанные Лекуном, побудили многих пользователей сети и воротил искусственного интеллекта обсудить этот вопрос, в том числе Кристиана Сегеди, одного из соучредителей xAI.

Ученый в области искусственного интеллекта Кристиан Сегеди ответил Лекуну:

сверточные сети имеют более ограниченные возможности логического вывода, но это не влияет на возможности AlphaZero.

Из дальнейшей дискуссии между двумя большими парнями мы даже можем получить представление о будущем техническом направлении xAI - как использовать способность больших моделей, чтобы пробить верхний предел способности ИИ к рассуждению.

В рамках этой проблемы пользователи сети терпимо относятся к способности к рассуждению LLM, а также демонстрируют другое мнение о взаимосвязи между ИИ и человеческим интеллектом:

Не все люди хороши в рассуждении, так не потому ли, что некоторые люди не умеют рассуждать, должны ли они отрицать объективность человеческого интеллекта?

Возможно, люди, как и магистр права, являются просто другой формой «случайного попугая»!

Диалог с большим парнем раскрывает техническое направление xAI

После того, как статья была опубликована на arXiv, она была специально переслана Лекуном, что вызвало широкую дискуссию среди пользователей сети и ученых.

Ученый в области искусственного интеллекта Кристиан Сегеди, соучредитель xAI, возглавляемой Боссом Ма, ответил:

сверточные сети имеют более ограниченные возможности логического вывода, но это не влияет на возможности AlphaZero.

Ключ к разгадке кроется в процессе рассуждения и установленной (RL) петле обратной связи. Он считает, что способность модели может выполнять чрезвычайно глубокие рассуждения. (например, проведение математических исследований)

Лекун также ответил прямо:

AlphaZero «делает» планирование. Но при использовании MCTS сверточная сеть используется для определения хорошего поведения, а другая сверточная сеть используется для оценки местоположения.

Однако время, затраченное на изучение дерева, может быть безграничным. Это рассуждение и планирование. Для обучения этих сетей используется обучение с подкреплением.

Кристиан Сегеди продолжил:

Согласен. Поэтому я думаю, что подход такой:

  • заставляет систему исследовать большую часть пространства рассуждений, которое имеет отношение к нам.
  • Сделайте его проверяемым для изучения.
  • Понять человеческий вкус к интересным вещам.

Мне кажется, что все это быстро стало осуществимым.

И мысль, прозвучавшая из уст xAI Lianchuang, вкупе с последней фразой: «На мой взгляд, все это скоро станет осуществимым», не может не заставить людей задуматься.

В конце концов, самой прямой причиной для того, чтобы сказать «осуществимо» с такой уверенностью, может быть «мы уже сделали это».

Возможно, в ближайшем будущем мы сможем увидеть, как xAI ухватится за «болевую точку» слабой способности LLM к рассуждению, погонится за ней и создаст большую модель с «сильными рассуждениями», компенсируя самый большой недостаток продуктов с большими моделями на рынке, таких как ChatGPT.

Лекун: Сколько раз я говорил, что LLM просто не работает! **

Недавнее опровержение Лекуном способности LLM к рассуждению основано на недавних работах профессора Университета ASU Суббарао Камбампати.

Личное представление:

По его мнению, LLM, которая претендует на то, чтобы достичь и превзойти человеческий уровень во многих способностях, имеет серьезные недостатки в способности рассуждать и планировать.

Адрес доклада:

Адрес доклада:

Адрес доклада:

Перед лицом проблем с человеческим экспертным планированием, GPT-4 верен только на 12%.

Более того, в задаче логического вывода, если LLM позволено самостоятельно исправлять свои собственные ответы, качество вывода не увеличится, а уменьшится.

То есть у LLM просто нет возможности аргументировать правильный ответ, обо всем можно только догадываться.

После того, как статья была опубликована, профессор также отправил длинный твит, чтобы еще больше развить свои взгляды на обсуждение статьи пользователями сети и учеными.

Профессор считает магистров права отличными «генераторами идей», но как по языку, так и по коду, но они не могут планировать или рассуждать самостоятельно.

Профессор указал на то, что существует много недоразумений относительно способности LLM к самокоррекции.

Авторы некоторых статей чрезмерно персонифицируют магистров права, ошибочно полагая, что они совершают ошибки и исправляют себя, как люди.

Он подверг критике использование бессистемно отобранных наборов данных вопросов и ответов для разработки и оценки заявлений о самооценке, утверждая, что это создает путаницу в сообществе.

Профессор также отметил важность внешней валидации и участия человека. Хотя GPT-4 не может верифицировать цветовые конфигурации, он может помочь сгенерировать код Python, который должен быть исправлен людьми и может быть использован в качестве внешнего валидатора.

В то же время, модели, которые сотрудничают с людьми и профессиональными мыслителями, также помогут улучшить способность модели к рассуждению.

Профессор перечислил статьи, показывающие, как извлекать модели предметной области планирования из LLM, оптимизировать их с помощью людей и специализированных мыслителей и использовать их в валидаторах планов или независимых планировщиках доменов.

Также важна дальнейшая оптимизация возможностей валидации LLM. Расширьте возможности проверки LLM с помощью специальной тонкой настройки, и хотя это не делает LLM внезапно более эффективным в рассуждениях или верификации, это позволяет немного улучшить способность к самокоррекции.

** Сказать, что LLM — это «случайный попугай», разве это не человек? **

Пользователь сети также указал в Твиттере Лекуна, что на самом деле планирование и рассуждение не являются сильными сторонами для многих людей, и подразумевается, что уровень интеллекта большой языковой модели не следует отрицать.

Гоутам Курра, серийный предприниматель, который основал две работающие социальные платформы, Glint и Whip, также недавно опубликовал длинный блог «Мы все случайные попугаи», утверждая, что нет существенной разницы между способностями и человеческим интеллектом, стоящим за LLM.

Ссылки на статьи:

Если люди садятся и медитируют, они не понимают, как работают механизмы, с помощью которых они генерируют идеи, и у людей нет сознательного контроля над природой своих мыслей.

Допустим, человек выходит на прогулку в жаркий день и потеет. Это заставляет его задуматься об изменении климата, что вызовет некоторую путаницу в его мыслях.

Он решает переключить свои мысли на более приятную тему, процесс, который ощущается как сознательный контроль, но какую тему выбрать?

Возможно, человеческий мозг послушно предложит ему несколько вариантов для рассмотрения: может быть, поиграть в игру поздно вечером или посетить концерт в эти выходные.

Но откуда берутся эти новые возможности? Как ваш мозг решил лопнуть именно это, и ничего больше? Осознают ли люди все возможные варианты процесса переписи?

Продолжая идти и думая об этом, он краем глаза заметил белку, взбежавшую по дереву, и удивился ее пушистому хвосту.

В это время «разумное мышление» человеческих существ снова исчезло и стало мыслить автоматически, как случайный попугай?

Когда мы осознаем, что знаем очень мало о том, как на самом деле возникают наши мысли, возникает вопрос: насколько случайным является бессознательное происхождение идей?

Не является ли это тоже своего рода "случайным попугаем"? Насколько наш механизм генерации нарративов похож на LLM?

Возьмем, к примеру, итальянскую писательницу Елену Ферранте, которая, по мнению журнала The Economist, «вероятно, лучшая современная писательница, о которой вы никогда не слышали».

Ее серия «Моя гениальная подруга» была продана тиражом более 11 миллионов экземпляров в 40 странах, и критики говорили: «Женская дружба никогда не была представлена так ярко».

В своих мемуарах «На обочине» она рассказывает о своем детстве в Италии после Второй мировой войны.

Как и другие писательницы своего времени, она родилась в мужской литературной традиции и читала в основном произведения писателей-мужчин, поэтому начала подражать писателям-мужчинам.

В своей автобиографии она писала:

Даже когда мне было лет тринадцать... Я чувствую, что мой уровень письма неплох, и я всегда чувствую, что мужской голос говорит мне, что и как писать.

я даже не знал, был ли голос моего возраста или старше меня, может быть, уже старика. ...... Я представлял себя мужчиной, но в то же время женщиной.

В своей автобиографии великая современная писательница человечества уникальным и энергичным голосом современной итальянской литературы откровенно описывает свою борьбу и борьбу за то, чтобы вырваться из состояния «случайного попугая».

Потому что ее уникальный язык и идеи невольно сформированы литературным каноном, в котором доминировали мужчины, формировавшимся на протяжении сотен лет.

Если мы действительно посмотрим на себя, то увидим, что большинство мыслей, которые приходят нам в голову, — это голоса других людей: голоса наших родителей и учителей.

Книги, которые мы читаем, телевизор, который мы смотрим, и наш разум построены на очень глубокой и прилипчивой культуре.

Наша способность говорить, думать и выражать является функцией того, что мы читаем, а слова из прошлого влияют на будущее.

Мы живем, по сути, той же жизнью, что и наши предки, повторяя большинство тех же мыслей вчерашнего дня, записывая те же слова, что и все остальные, с очень небольшими различиями.

Если вы посмотрите голливудские фильмы и прочитаете несколько книг, то обнаружите, что многие истории почти одинаковые, но предыстория разная.

Время от времени люди, кажется, способны избавиться от оков попугайства, сказать немного оригинальной идеи, подумать немного оригинальной идеи.

Благодаря этому небольшому оригинальному контенту наша культура сделала огромный скачок.

Ресурсы:

_source=profile&utm_medium=reader2

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить