Нещодавно група великих гравців, включаючи LeCun, знову почала обстрілювати LLM. Останній прорив полягає в тому, що LLM взагалі не має здатності міркувати!
На думку Лекуна, недоліки здатності міркувати є майже «мертвою дірою» LLM, незалежно від того, наскільки потужні обчислювальні потужності і наскільки великі і якісні набори даних будуть використовуватися для навчання LLM в майбутньому, він не зможе вирішити цю проблему.
Погляди, кинуті LeCun, спонукали багатьох користувачів мережі та великих представників штучного інтелекту обговорити це питання, включаючи Крістіана Сегеді, одного із співзасновників xAI.
Вчений зі штучного інтелекту Крістіан Сегеді відповів LeCun:
згорткові мережі мають більш обмежені можливості висновків, але це не впливає на можливості AlphaZero.
З подальших дискусій між двома великими хлопцями ми можемо навіть отримати уявлення про майбутній технічний напрямок xAI - як використовувати здатність великих моделей пробивати верхню межу розумових здібностей ШІ.
У цій проблемі користувачі мережі толерантно ставляться до здатності міркувати LLM, а також демонструють інше мислення про взаємозв'язок між ШІ та людським інтелектом:
Не всі люди вміють міркувати, тож чи не тому, що деякі люди не вміють міркувати, чи повинні вони заперечувати об'єктивність людського інтелекту?
Можливо, люди, як і LLM, є просто іншою формою «випадкового папуги»!
Діалог великого хлопця розкриває технічний напрямок xAI
Після того, як стаття була опублікована на arXiv, вона була особливо передана LeCun, що викликало широке обговорення серед користувачів мережі та вчених.
Вчений зі штучного інтелекту Крістіан Сегеді, співзасновник xAI на чолі з Боссом Ма, відповів:
згорткові мережі мають більш обмежені можливості висновків, але це не впливає на можливості AlphaZero.
Ключ полягає в процесі міркування і встановленій (РЛ) петлі зворотного зв'язку. Він вважає, що модельна здатність може виконувати надзвичайно глибокі міркування. (наприклад, проведення математичних досліджень)
Лекун також відповів прямо:
AlphaZero «робить» планування. Але у випадку з MCTS згорткова мережа використовується для визначення хорошої поведінки, а інша згорткова мережа використовується для оцінки місця розташування.
Однак час, витрачений на вивчення дерева, може бути безмежним. Це міркування і планування. Навчання з підкріпленням використовується для тренування цих мереж.
Далі Крістіан Сегеді відповів:
згоден. Тому я думаю, що підхід такий:
змушує систему досліджувати більшу частину простору міркувань, який має відношення до нас.
Зробіть його перевіреним для вивчення.
Зрозуміти людський смак до цікавого.
Мені здається, що все це швидко стало можливим.
І теза, яка вирвалася з вуст xAI Lianchuang, укупі з останнім реченням: «На мою думку, все це скоро стане здійсненним», не може не змусити людей задуматися.
Адже найпрямішою причиною для того, щоб з такою впевненістю сказати «здійсненно», може бути «ми вже це зробили».
Можливо, в найближчому майбутньому ми зможемо побачити, як xAI скористається «больовою точкою» слабкої здатності LLM міркувати, поженеться за нею і створить велику модель із «сильним міркуванням», компенсуючи найбільший недолік великих модельних продуктів на ринку, таких як ChatGPT.
Лекун: Скільки разів я говорив, що LLM просто не працює! **
Нещодавнє спростування Лекуном здатності міркувати LLM ґрунтується на нещодавніх роботах професора Університету ASU Суббарао Камбампаті.
Особисте представлення:
На його думку, LLM, яка претендує на те, щоб досягти і перевершити людський рівень у багатьох можливостях, має серйозні недоліки в здатності міркувати і планувати.
Паперова адреса:
Паперова адреса:
Паперова адреса:
Перед обличчям проблем з міркуваннями експертів з людського планування, GPT-4 є правильним лише на 12%.
Більш того, в задачі на виведення, якщо дозволити LLM самостійно виправляти власні відповіді, якість результату не збільшиться, а знизиться.
Тобто LLM просто не має можливості аргументувати правильну відповідь, все можна тільки здогадуватися.
Після публікації статті професор також надіслав довгий твіт, щоб детальніше викласти свої погляди на обговорення статті користувачами мережі та науковцями.
Професор вважає LLM чудовими «генераторами ідей», але як у мові, так і в коді, але вони не можуть самостійно планувати чи міркувати.
Професор зазначив, що існує багато непорозумінь щодо здатності LLM до самокорекції.
Автори деяких робіт переосмислюють LLM, помилково вважаючи, що вони продукують помилки і виправляють себе, як люди.
Він розкритикував використання безсистемно підібраних наборів даних запитань і відповідей для розробки та оцінки тверджень про самооцінку, стверджуючи, що це створює плутанину в спільноті.
Професор також відзначив важливість зовнішньої валідації та залучення людини. Хоча GPT-4 не може перевіряти конфігурації кольорів, він може допомогти згенерувати код Python, який потрібно виправити людям і можна використовувати як зовнішній валідатор.
У той же час моделі, які співпрацюють з людьми та професійними мислителями, також допоможуть покращити здатність моделі міркувати.
Професор перерахував статті, що показують, як витягти моделі домену планування з LLM, оптимізувати їх за допомогою людей і спеціалізованих міркувань і використовувати їх в валідаторах планів або незалежних планувальниках доменів.
Також важливо додатково оптимізувати можливості валідації LLM. Розширюйте можливості валідації LLM за допомогою конкретних тонких налаштувань, і хоча це не робить LLM раптово кращим у міркуваннях або перевірці, це дозволяє трохи покращити здатність до самокорекції.
** Скажіть, що LLM – це «випадковий папуга», хіба це не людина? **
Користувач мережі також зазначив у Twitter LeCun, що насправді планування та міркування не є сильними сторонами для багатьох людей, і мається на увазі, що рівень інтелекту великої мовної моделі не слід заперечувати.
Гутем Курра, серійний підприємець, який заснував дві робочі соціальні платформи, Glint і Whip, також нещодавно опублікував довгий блог «Ми всі випадкові папуги», стверджуючи, що немає суттєвої різниці між можливостями та людським інтелектом, що стоять за LLM.
Посилання на статті:
Якщо люди сідають і медитують, вони не усвідомлюють, як працюють механізми, за допомогою яких вони генерують ідеї, і люди не мають свідомого контролю над природою своїх думок.
Припустимо, людина виходить на прогулянку в спекотний день і потіє. Це змушує його задуматися про зміну клімату, що викличе деяку плутанину в його думках.
Він вирішує переключити свої думки на більш приємну тему, процес, який відчувається як свідомий контроль, але яку тему вибрати для роздумів?
Можливо, людський мозок слухняно підкаже йому кілька варіантів, які він може розглянути: можливо, подумайте про гру, щоб зіграти пізніше ввечері, або про концерт, який можна відвідати цими вихідними.
Але звідки беруться ці нові опції? Як ваш мозок вирішив вискочити ці і нічого більше? Чи свідомо людина усвідомлює всі можливі варіанти процесу перерахування?
Продовжуючи свою прогулянку і розмірковуючи про це, він краєм ока помітив білку, що бігла по дереву, і був здивований її пухнастим хвостом.
В цей час «розумне мислення» людини знову зникло і стало мислити автоматично, як випадковий папуга?
Коли ми усвідомлюємо, що дуже мало знаємо про те, як насправді виникають наші думки, виникає питання: наскільки випадковим є несвідоме походження ідей?
Хіба це не такий собі «випадковий папуга»? Наскільки наш механізм генерації наративу схожий на LLM?
Візьмемо, наприклад, італійську письменницю Елену Ферранте, яка, за словами журналу The Economist, «мабуть, найкраща сучасна письменниця, про яку ви ніколи не чули».
Її серія My Genius Girlfriend розійшлася тиражем понад 11 мільйонів копій у 40 країнах, і критики заявили: «Жіноча дружба ще ніколи не була представлена так яскраво».
Її мемуари «На полях» описують її виховання в Італії після Другої світової війни.
Як і інші письменниці свого часу, вона народилася в чоловічій літературній традиції і читала переважно твори письменників-чоловіків, тому почала наслідувати письменників-чоловіків для письменницької діяльності.
У своїй автобіографії вона писала:
Навіть коли мені було років тринадцять... Я відчуваю, що мій рівень письма непоганий, і я завжди відчуваю, що чоловічий голос каже мені, що писати і як писати.
я навіть не знала, чи голос мого віку, чи старший за мене, може, вже старий. ...... Я уявляв себе чоловіком, але в той же час жінкою.
У своїй автобіографії велика сучасна письменниця в людстві, унікальним і енергійним голосом сучасної італійської літератури, відверто описує свою боротьбу і боротьбу за те, щоб вирватися зі стану «випадкового папуги».
Тому що її унікальна мова та ідеї мимоволі формуються літературним каноном, в якому домінують чоловіки, який формувався протягом сотень років.
Якщо ми дійсно подивимося на себе, то більшість думок, які приходять нам в голову, – це голоси інших людей: голоси наших батьків і вчителів.
Книги, які ми читаємо, телевізор, який ми дивимося, і наш розум побудовані на дуже глибокій і липкій культурі.
Наша здатність говорити, думати і висловлюватися залежить від того, що ми читаємо, а слова з минулого впливають на майбутнє.
Ми живемо, по суті, тим же життям, що і наші предки, повторюючи більшість тих же вчорашніх думок, пишучи ті ж слова, що і всі інші, з дуже невеликою різницею.
Якщо ви подивитеся голлівудські фільми і прочитаєте кілька книг, то виявите, що багато історій майже однакові, але передісторія різна.
Час від часу здається, що людям вдається звільнитися від кайданів папуги, сказати трохи оригінальної ідеї, придумати трохи оригінальної ідеї.
Завдяки цьому невеликому оригінальному контенту наша культура зробила величезний стрибок.
Ресурси:
_source=профіль&utm_medium=читач2
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Спільна творчість LeCun і xAI задихається, основні недоліки міркувань GPT-4 не мають рішення? Користувачі мережі: Люди також є "випадковими папугами"
Першоджерело: Shin Ji Yuan
Нещодавно група великих гравців, включаючи LeCun, знову почала обстрілювати LLM. Останній прорив полягає в тому, що LLM взагалі не має здатності міркувати!
З подальших дискусій між двома великими хлопцями ми можемо навіть отримати уявлення про майбутній технічний напрямок xAI - як використовувати здатність великих моделей пробивати верхню межу розумових здібностей ШІ.
У цій проблемі користувачі мережі толерантно ставляться до здатності міркувати LLM, а також демонструють інше мислення про взаємозв'язок між ШІ та людським інтелектом:
Не всі люди вміють міркувати, тож чи не тому, що деякі люди не вміють міркувати, чи повинні вони заперечувати об'єктивність людського інтелекту?
Можливо, люди, як і LLM, є просто іншою формою «випадкового папуги»!
Діалог великого хлопця розкриває технічний напрямок xAI
Після того, як стаття була опублікована на arXiv, вона була особливо передана LeCun, що викликало широке обговорення серед користувачів мережі та вчених.
Вчений зі штучного інтелекту Крістіан Сегеді, співзасновник xAI на чолі з Боссом Ма, відповів:
І теза, яка вирвалася з вуст xAI Lianchuang, укупі з останнім реченням: «На мою думку, все це скоро стане здійсненним», не може не змусити людей задуматися.
Адже найпрямішою причиною для того, щоб з такою впевненістю сказати «здійсненно», може бути «ми вже це зробили».
Лекун: Скільки разів я говорив, що LLM просто не працює! **
Нещодавнє спростування Лекуном здатності міркувати LLM ґрунтується на нещодавніх роботах професора Університету ASU Суббарао Камбампаті.
На його думку, LLM, яка претендує на те, щоб досягти і перевершити людський рівень у багатьох можливостях, має серйозні недоліки в здатності міркувати і планувати.
Перед обличчям проблем з міркуваннями експертів з людського планування, GPT-4 є правильним лише на 12%.
Більш того, в задачі на виведення, якщо дозволити LLM самостійно виправляти власні відповіді, якість результату не збільшиться, а знизиться.
Тобто LLM просто не має можливості аргументувати правильну відповідь, все можна тільки здогадуватися.
Після публікації статті професор також надіслав довгий твіт, щоб детальніше викласти свої погляди на обговорення статті користувачами мережі та науковцями.
Професор зазначив, що існує багато непорозумінь щодо здатності LLM до самокорекції.
Автори деяких робіт переосмислюють LLM, помилково вважаючи, що вони продукують помилки і виправляють себе, як люди.
Він розкритикував використання безсистемно підібраних наборів даних запитань і відповідей для розробки та оцінки тверджень про самооцінку, стверджуючи, що це створює плутанину в спільноті.
Професор також відзначив важливість зовнішньої валідації та залучення людини. Хоча GPT-4 не може перевіряти конфігурації кольорів, він може допомогти згенерувати код Python, який потрібно виправити людям і можна використовувати як зовнішній валідатор.
У той же час моделі, які співпрацюють з людьми та професійними мислителями, також допоможуть покращити здатність моделі міркувати.
Професор перерахував статті, що показують, як витягти моделі домену планування з LLM, оптимізувати їх за допомогою людей і спеціалізованих міркувань і використовувати їх в валідаторах планів або незалежних планувальниках доменів.
Також важливо додатково оптимізувати можливості валідації LLM. Розширюйте можливості валідації LLM за допомогою конкретних тонких налаштувань, і хоча це не робить LLM раптово кращим у міркуваннях або перевірці, це дозволяє трохи покращити здатність до самокорекції.
** Скажіть, що LLM – це «випадковий папуга», хіба це не людина? **
Користувач мережі також зазначив у Twitter LeCun, що насправді планування та міркування не є сильними сторонами для багатьох людей, і мається на увазі, що рівень інтелекту великої мовної моделі не слід заперечувати.
Якщо люди сідають і медитують, вони не усвідомлюють, як працюють механізми, за допомогою яких вони генерують ідеї, і люди не мають свідомого контролю над природою своїх думок.
Припустимо, людина виходить на прогулянку в спекотний день і потіє. Це змушує його задуматися про зміну клімату, що викличе деяку плутанину в його думках.
Він вирішує переключити свої думки на більш приємну тему, процес, який відчувається як свідомий контроль, але яку тему вибрати для роздумів?
Можливо, людський мозок слухняно підкаже йому кілька варіантів, які він може розглянути: можливо, подумайте про гру, щоб зіграти пізніше ввечері, або про концерт, який можна відвідати цими вихідними.
Продовжуючи свою прогулянку і розмірковуючи про це, він краєм ока помітив білку, що бігла по дереву, і був здивований її пухнастим хвостом.
В цей час «розумне мислення» людини знову зникло і стало мислити автоматично, як випадковий папуга?
Коли ми усвідомлюємо, що дуже мало знаємо про те, як насправді виникають наші думки, виникає питання: наскільки випадковим є несвідоме походження ідей?
Хіба це не такий собі «випадковий папуга»? Наскільки наш механізм генерації наративу схожий на LLM?
Візьмемо, наприклад, італійську письменницю Елену Ферранте, яка, за словами журналу The Economist, «мабуть, найкраща сучасна письменниця, про яку ви ніколи не чули».
Її мемуари «На полях» описують її виховання в Італії після Другої світової війни.
Як і інші письменниці свого часу, вона народилася в чоловічій літературній традиції і читала переважно твори письменників-чоловіків, тому почала наслідувати письменників-чоловіків для письменницької діяльності.
У своїй автобіографії вона писала:
У своїй автобіографії велика сучасна письменниця в людстві, унікальним і енергійним голосом сучасної італійської літератури, відверто описує свою боротьбу і боротьбу за те, щоб вирватися зі стану «випадкового папуги».
Тому що її унікальна мова та ідеї мимоволі формуються літературним каноном, в якому домінують чоловіки, який формувався протягом сотень років.
Якщо ми дійсно подивимося на себе, то більшість думок, які приходять нам в голову, – це голоси інших людей: голоси наших батьків і вчителів.
Книги, які ми читаємо, телевізор, який ми дивимося, і наш розум побудовані на дуже глибокій і липкій культурі.
Наша здатність говорити, думати і висловлюватися залежить від того, що ми читаємо, а слова з минулого впливають на майбутнє.
Ми живемо, по суті, тим же життям, що і наші предки, повторюючи більшість тих же вчорашніх думок, пишучи ті ж слова, що і всі інші, з дуже невеликою різницею.
Якщо ви подивитеся голлівудські фільми і прочитаєте кілька книг, то виявите, що багато історій майже однакові, але передісторія різна.
Час від часу здається, що людям вдається звільнитися від кайданів папуги, сказати трохи оригінальної ідеї, придумати трохи оригінальної ідеї.
Завдяки цьому невеликому оригінальному контенту наша культура зробила величезний стрибок.
Ресурси:
_source=профіль&utm_medium=читач2