Gần đây, một nhóm các ông lớn, bao gồm cả LeCun, đã bắt đầu bắn vào LLM một lần nữa. Bước đột phá mới nhất là LLM không có khả năng suy luận nào cả!
Theo quan điểm của LeCun, những thiếu sót về khả năng suy luận gần như là "hố chết" của LLM, cho dù sức mạnh tính toán có mạnh mẽ đến đâu và các bộ dữ liệu rộng lớn và chất lượng cao được sử dụng để đào tạo LLM trong tương lai thì cũng sẽ không thể giải quyết được vấn đề này.
Quan điểm của LeCun đã khiến nhiều cư dân mạng và các ông lớn AI thảo luận về vấn đề này, bao gồm Christian Szegedy, một trong những người đồng sáng lập xAI.
Nhà khoa học AI Christian Szegedy trả lời LeCun:
mạng tích chập có khả năng suy luận hạn chế hơn, nhưng điều này không ảnh hưởng đến khả năng của AlphaZero.
Từ cuộc thảo luận sâu hơn giữa hai ông lớn, chúng ta thậm chí có thể có được cái nhìn thoáng qua về định hướng kỹ thuật trong tương lai của xAI - cách sử dụng khả năng của các mô hình lớn để vượt qua giới hạn trên của khả năng suy luận của AI.
Dưới vấn đề này, cư dân mạng khoan dung với khả năng suy luận LLM, và cũng cho thấy một suy nghĩ khác về mối quan hệ giữa AI và trí thông minh của con người:
Không phải tất cả con người đều giỏi lý luận, vậy có phải vì một số người không giỏi lý luận, họ có phải phủ nhận tính khách quan của trí thông minh con người không?
Có lẽ con người, giống như LLM, chỉ là một dạng khác của "vẹt ngẫu nhiên"!
** Đối thoại anh chàng lớn tiết lộ hướng kỹ thuật của xAI **
Sau khi bài báo được xuất bản trên arXiv, nó đã được LeCun đặc biệt chuyển tiếp, điều này đã gây ra cuộc thảo luận rộng rãi giữa cư dân mạng và các học giả.
Nhà khoa học AI Christian Szegedy, đồng sáng lập xAI, dẫn đầu bởi Boss Ma, trả lời:
mạng tích chập có khả năng suy luận hạn chế hơn, nhưng điều này không ảnh hưởng đến khả năng của AlphaZero.
Chìa khóa nằm ở quá trình lý luận và vòng phản hồi (RL) đã được thiết lập. Ông tin rằng khả năng mô hình có thể thực hiện lý luận cực kỳ sâu sắc. (ví dụ: tiến hành nghiên cứu toán học)
LeCun cũng trả lời trực tiếp:
AlphaZero "làm" thực hiện lập kế hoạch. Nhưng được thực hiện với MCTS, một mạng tích chập được sử dụng để đưa ra hành vi tốt và một mạng tích chập khác được sử dụng để đánh giá vị trí.
Tuy nhiên, thời gian khám phá cây có thể là vô hạn. Đây là lý luận và lập kế hoạch. Học tăng cường được sử dụng để đào tạo các mạng này.
Christian Szegedy tiếp tục trả lời:
tôi đồng ý. Vì vậy, tôi nghĩ rằng cách tiếp cận là:
buộc hệ thống phải khám phá phần lớn không gian lý luận có liên quan đến chúng ta.
Làm cho nó có thể kiểm chứng để khám phá.
Hiểu được sở thích của con người đối với những điều thú vị.
Dường như với tôi rằng tất cả những điều này nhanh chóng trở nên khả thi.
Mà điểm phát ra từ miệng của xAI Lianchuang, cùng với câu cuối cùng: "Theo tôi, tất cả những điều này sẽ sớm trở nên khả thi", không thể không khiến mọi người phải suy nghĩ.
Rốt cuộc, lý do trực tiếp nhất để nói "khả thi" với sự chắc chắn như vậy có thể là "chúng tôi đã làm được".
Có lẽ trong tương lai gần, chúng ta sẽ có thể thấy xAI nắm bắt "điểm đau" về khả năng suy luận yếu kém của LLM, đuổi theo và tạo ra một mô hình lớn với "lý luận mạnh mẽ", bù đắp cho khiếm khuyết lớn nhất của các sản phẩm mô hình lớn trên thị trường như ChatGPT.
LeCun: Đã bao nhiêu lần tôi nói rằng LLM không hoạt động! **
Sự phản bác gần đây của LeCun về khả năng lập luận của LLM dựa trên các bài báo gần đây của giáo sư Đại học ASU Subbarao Kambampati.
Giới thiệu cá nhân:
Theo quan điểm của ông, LLM, tuyên bố đạt và vượt qua trình độ con người trong nhiều khả năng, có những thiếu sót lớn trong khả năng lý luận và lập kế hoạch.
Địa chỉ giấy:
Địa chỉ giấy:
Địa chỉ giấy:
Đối mặt với các vấn đề lý luận lập kế hoạch chuyên gia của con người, GPT-4 chỉ đúng 12%.
Hơn nữa, trong nhiệm vụ suy luận, nếu LLM được phép tự sửa đáp án của chính mình, chất lượng đầu ra sẽ không tăng mà giảm.
Đó là, LLM đơn giản là không có khả năng suy luận câu trả lời đúng, mọi thứ chỉ có thể đoán được.
Sau khi bài báo được xuất bản, giáo sư cũng đã gửi một tweet dài để giải thích thêm quan điểm của mình về cuộc thảo luận về bài báo của cư dân mạng và các học giả.
Giáo sư coi LLM là "người tạo ra ý tưởng" tuyệt vời, nhưng cả về ngôn ngữ và mã, nhưng họ không thể tự lập kế hoạch hoặc lý luận.
Giáo sư chỉ ra rằng có nhiều hiểu lầm về khả năng tự điều chỉnh của LLM.
Các tác giả của một số bài báo mạo danh LLM quá mức, lầm tưởng rằng họ tạo ra lỗi và tự sửa lỗi như con người.
Ông chỉ trích việc sử dụng các bộ dữ liệu Hỏi & Đáp được sắp xếp ngẫu nhiên để phát triển và đánh giá các tuyên bố tự đánh giá, cho rằng nó tạo ra sự nhầm lẫn trong cộng đồng.
Giáo sư cũng lưu ý tầm quan trọng của xác nhận bên ngoài và sự tham gia của con người. Mặc dù GPT-4 không thể xác minh cấu hình màu, nhưng nó có thể giúp tạo mã Python cần được sửa bởi con người và có thể được sử dụng làm trình xác thực bên ngoài.
Đồng thời, các mô hình hợp tác với con người và các nhà lý luận chuyên nghiệp cũng sẽ giúp cải thiện khả năng suy luận của mô hình.
Giáo sư đã liệt kê các bài báo cho thấy cách trích xuất các mô hình miền lập kế hoạch từ LLM, tối ưu hóa chúng với sự trợ giúp của con người và các nhà lý luận chuyên ngành, và sử dụng chúng trong các trình xác thực kế hoạch hoặc các nhà hoạch định tên miền độc lập.
Nó cũng quan trọng để tối ưu hóa hơn nữa khả năng xác nhận của LLM. Tăng cường khả năng xác nhận của LLM với tinh chỉnh cụ thể và trong khi điều này không đột nhiên làm cho LLM hoạt động tốt hơn trong lý luận hoặc xác minh, nó cho phép cải thiện nhỏ khả năng tự sửa chữa.
** Nói rằng LLM là một "con vẹt ngẫu nhiên", nó không phải là con người? **
Một cư dân mạng cũng chỉ ra dưới Twitter của LeCun rằng trên thực tế, lập kế hoạch và lý luận không phải là điểm mạnh đối với nhiều người, và hàm ý là không nên phủ nhận mức độ thông minh của mô hình ngôn ngữ lớn.
Goutham Kurra, một doanh nhân nối tiếp, người đã thành lập hai nền tảng xã hội hoạt động, Glint và Whip, gần đây cũng đã xuất bản một blog dài, "Tất cả chúng ta đều là những con vẹt ngẫu nhiên", lập luận rằng không có sự khác biệt cơ bản giữa khả năng và trí thông minh của con người đằng sau LLM.
Liên kết bài viết:
Nếu con người ngồi xuống và thiền, họ không nhận ra các cơ chế mà họ tạo ra ý tưởng hoạt động như thế nào và con người không có quyền kiểm soát có ý thức đối với bản chất suy nghĩ của họ.
Giả sử một người ra ngoài đi dạo vào một ngày nóng và đổ mồ hôi. Điều này khiến anh ta suy nghĩ về biến đổi khí hậu, điều này sẽ gây ra một số nhầm lẫn trong suy nghĩ của anh ta.
Anh quyết định chuyển suy nghĩ của mình sang một chủ đề thú vị hơn, một quá trình cảm thấy như kiểm soát có ý thức, nhưng nên chọn chủ đề nào để suy nghĩ?
Có lẽ bộ não con người sẽ nghiêm túc đưa ra một vài lựa chọn để anh ta xem xét: có thể xem xét một trò chơi để chơi vào buổi tối, hoặc một buổi hòa nhạc để tham dự vào cuối tuần này.
Nhưng những lựa chọn mới này đến từ đâu? Làm thế nào mà bộ não của bạn quyết định bật những thứ này và không có gì khác? Con người có ý thức về tất cả các lựa chọn có thể cho quá trình liệt kê không?
Khi anh tiếp tục bước đi và suy nghĩ về những điều này, anh nhận thấy một con sóc chạy lên cây từ khóe mắt và ngạc nhiên bởi cái đuôi rậm rạp của nó.
Lúc này, "tư duy thông minh" của con người lại biến mất và bắt đầu suy nghĩ tự động như một con vẹt ngẫu nhiên?
Khi chúng ta nhận ra rằng chúng ta biết rất ít về cách suy nghĩ của chúng ta thực sự xuất hiện, câu hỏi là: Nguồn gốc vô thức của ý tưởng là ngẫu nhiên như thế nào?
Nó không phải cũng là một loại "vẹt ngẫu nhiên" sao? Cơ chế tạo tường thuật của chúng tôi tương tự như LLM như thế nào?
Lấy ví dụ như nhà văn người Ý Elena Ferrante, người, theo The Economist, "có lẽ là tiểu thuyết gia đương đại giỏi nhất mà bạn chưa bao giờ nghe nói đến".
Bộ truyện My Genius Girlfriend của cô đã bán được hơn 11 triệu bản tại 40 quốc gia, và các nhà phê bình đã nói, "Tình bạn nữ chưa bao giờ được trình bày sống động như vậy."
Cuốn hồi ký của bà, "In the Margins", mô tả sự giáo dục của bà ở Ý sau Thế chiến II.
Giống như các nhà văn nữ khác cùng thời, bà sinh ra trong truyền thống văn học nam và đọc hầu hết các tác phẩm của các nhà văn nam, vì vậy bà bắt đầu bắt chước các nhà văn nam để viết.
Trong cuốn tự truyện của mình, bà viết:
Ngay cả khi tôi khoảng mười ba tuổi... Tôi cảm thấy trình độ viết của mình không tệ, và tôi luôn cảm thấy như một giọng nam đang nói với tôi phải viết gì và viết như thế nào.
tôi thậm chí còn không biết giọng nói đó bằng tuổi tôi hay lớn tuổi hơn tôi, có lẽ đã là một ông già. ...... Tôi tưởng tượng mình là nam, nhưng đồng thời vẫn là nữ.
Trong cuốn tự truyện của mình, một nhà văn đương đại vĩ đại trong nhân loại, bằng giọng nói độc đáo và tràn đầy năng lượng của văn học Ý hiện đại, đã thẳng thắn mô tả những cuộc đấu tranh và đấu tranh của mình để thoát khỏi trạng thái "con vẹt ngẫu nhiên" của mình.
Bởi vì ngôn ngữ và ý tưởng độc đáo của cô vô tình được định hình bởi kinh điển văn học do nam giới thống trị được hình thành qua hàng trăm năm.
Nếu chúng ta thực sự nhìn vào chính mình, hầu hết những suy nghĩ xuất hiện trong đầu chúng ta là tiếng nói của người khác: tiếng nói của cha mẹ và giáo viên của chúng ta.
Những cuốn sách chúng ta đọc, TV chúng ta xem và tâm trí của chúng ta được xây dựng trên một nền văn hóa rất sâu sắc và gắn bó.
Khả năng nói, suy nghĩ và diễn đạt của chúng ta là một chức năng của những gì chúng ta đọc, và những từ từ quá khứ ảnh hưởng đến tương lai.
Về cơ bản, chúng ta sống cùng một cuộc sống như tổ tiên của chúng ta, lặp đi lặp lại hầu hết những suy nghĩ giống nhau của ngày hôm qua, viết những từ giống như mọi người khác, với rất ít sự khác biệt.
Nếu bạn nhìn vào các bộ phim Hollywood và đọc một vài cuốn sách, bạn sẽ thấy rằng nhiều câu chuyện gần như giống nhau, nhưng bối cảnh là khác nhau.
Thỉnh thoảng, con người dường như có thể thoát khỏi xiềng xích của vẹt, nói một chút ý tưởng ban đầu, suy nghĩ một chút ý tưởng ban đầu.
Với một chút nội dung gốc này, văn hóa của chúng tôi đã có một bước nhảy vọt.
Tài nguyên:
_source=profile&utm_medium=reader2
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
LeCun và xAI đồng sáng tạo nghẹt thở, lỗi lý luận chính GPT-4 không có lời giải? Netizen: Con người cũng là "vẹt ngẫu nhiên"
Nguồn gốc: Shin Ji Yuan
Gần đây, một nhóm các ông lớn, bao gồm cả LeCun, đã bắt đầu bắn vào LLM một lần nữa. Bước đột phá mới nhất là LLM không có khả năng suy luận nào cả!
Từ cuộc thảo luận sâu hơn giữa hai ông lớn, chúng ta thậm chí có thể có được cái nhìn thoáng qua về định hướng kỹ thuật trong tương lai của xAI - cách sử dụng khả năng của các mô hình lớn để vượt qua giới hạn trên của khả năng suy luận của AI.
Dưới vấn đề này, cư dân mạng khoan dung với khả năng suy luận LLM, và cũng cho thấy một suy nghĩ khác về mối quan hệ giữa AI và trí thông minh của con người:
Không phải tất cả con người đều giỏi lý luận, vậy có phải vì một số người không giỏi lý luận, họ có phải phủ nhận tính khách quan của trí thông minh con người không?
Có lẽ con người, giống như LLM, chỉ là một dạng khác của "vẹt ngẫu nhiên"!
** Đối thoại anh chàng lớn tiết lộ hướng kỹ thuật của xAI **
Sau khi bài báo được xuất bản trên arXiv, nó đã được LeCun đặc biệt chuyển tiếp, điều này đã gây ra cuộc thảo luận rộng rãi giữa cư dân mạng và các học giả.
Nhà khoa học AI Christian Szegedy, đồng sáng lập xAI, dẫn đầu bởi Boss Ma, trả lời:
Mà điểm phát ra từ miệng của xAI Lianchuang, cùng với câu cuối cùng: "Theo tôi, tất cả những điều này sẽ sớm trở nên khả thi", không thể không khiến mọi người phải suy nghĩ.
Rốt cuộc, lý do trực tiếp nhất để nói "khả thi" với sự chắc chắn như vậy có thể là "chúng tôi đã làm được".
LeCun: Đã bao nhiêu lần tôi nói rằng LLM không hoạt động! **
Sự phản bác gần đây của LeCun về khả năng lập luận của LLM dựa trên các bài báo gần đây của giáo sư Đại học ASU Subbarao Kambampati.
Theo quan điểm của ông, LLM, tuyên bố đạt và vượt qua trình độ con người trong nhiều khả năng, có những thiếu sót lớn trong khả năng lý luận và lập kế hoạch.
Đối mặt với các vấn đề lý luận lập kế hoạch chuyên gia của con người, GPT-4 chỉ đúng 12%.
Hơn nữa, trong nhiệm vụ suy luận, nếu LLM được phép tự sửa đáp án của chính mình, chất lượng đầu ra sẽ không tăng mà giảm.
Đó là, LLM đơn giản là không có khả năng suy luận câu trả lời đúng, mọi thứ chỉ có thể đoán được.
Sau khi bài báo được xuất bản, giáo sư cũng đã gửi một tweet dài để giải thích thêm quan điểm của mình về cuộc thảo luận về bài báo của cư dân mạng và các học giả.
Giáo sư chỉ ra rằng có nhiều hiểu lầm về khả năng tự điều chỉnh của LLM.
Các tác giả của một số bài báo mạo danh LLM quá mức, lầm tưởng rằng họ tạo ra lỗi và tự sửa lỗi như con người.
Ông chỉ trích việc sử dụng các bộ dữ liệu Hỏi & Đáp được sắp xếp ngẫu nhiên để phát triển và đánh giá các tuyên bố tự đánh giá, cho rằng nó tạo ra sự nhầm lẫn trong cộng đồng.
Giáo sư cũng lưu ý tầm quan trọng của xác nhận bên ngoài và sự tham gia của con người. Mặc dù GPT-4 không thể xác minh cấu hình màu, nhưng nó có thể giúp tạo mã Python cần được sửa bởi con người và có thể được sử dụng làm trình xác thực bên ngoài.
Đồng thời, các mô hình hợp tác với con người và các nhà lý luận chuyên nghiệp cũng sẽ giúp cải thiện khả năng suy luận của mô hình.
Giáo sư đã liệt kê các bài báo cho thấy cách trích xuất các mô hình miền lập kế hoạch từ LLM, tối ưu hóa chúng với sự trợ giúp của con người và các nhà lý luận chuyên ngành, và sử dụng chúng trong các trình xác thực kế hoạch hoặc các nhà hoạch định tên miền độc lập.
Nó cũng quan trọng để tối ưu hóa hơn nữa khả năng xác nhận của LLM. Tăng cường khả năng xác nhận của LLM với tinh chỉnh cụ thể và trong khi điều này không đột nhiên làm cho LLM hoạt động tốt hơn trong lý luận hoặc xác minh, nó cho phép cải thiện nhỏ khả năng tự sửa chữa.
** Nói rằng LLM là một "con vẹt ngẫu nhiên", nó không phải là con người? **
Một cư dân mạng cũng chỉ ra dưới Twitter của LeCun rằng trên thực tế, lập kế hoạch và lý luận không phải là điểm mạnh đối với nhiều người, và hàm ý là không nên phủ nhận mức độ thông minh của mô hình ngôn ngữ lớn.
Nếu con người ngồi xuống và thiền, họ không nhận ra các cơ chế mà họ tạo ra ý tưởng hoạt động như thế nào và con người không có quyền kiểm soát có ý thức đối với bản chất suy nghĩ của họ.
Giả sử một người ra ngoài đi dạo vào một ngày nóng và đổ mồ hôi. Điều này khiến anh ta suy nghĩ về biến đổi khí hậu, điều này sẽ gây ra một số nhầm lẫn trong suy nghĩ của anh ta.
Anh quyết định chuyển suy nghĩ của mình sang một chủ đề thú vị hơn, một quá trình cảm thấy như kiểm soát có ý thức, nhưng nên chọn chủ đề nào để suy nghĩ?
Có lẽ bộ não con người sẽ nghiêm túc đưa ra một vài lựa chọn để anh ta xem xét: có thể xem xét một trò chơi để chơi vào buổi tối, hoặc một buổi hòa nhạc để tham dự vào cuối tuần này.
Khi anh tiếp tục bước đi và suy nghĩ về những điều này, anh nhận thấy một con sóc chạy lên cây từ khóe mắt và ngạc nhiên bởi cái đuôi rậm rạp của nó.
Lúc này, "tư duy thông minh" của con người lại biến mất và bắt đầu suy nghĩ tự động như một con vẹt ngẫu nhiên?
Khi chúng ta nhận ra rằng chúng ta biết rất ít về cách suy nghĩ của chúng ta thực sự xuất hiện, câu hỏi là: Nguồn gốc vô thức của ý tưởng là ngẫu nhiên như thế nào?
Nó không phải cũng là một loại "vẹt ngẫu nhiên" sao? Cơ chế tạo tường thuật của chúng tôi tương tự như LLM như thế nào?
Lấy ví dụ như nhà văn người Ý Elena Ferrante, người, theo The Economist, "có lẽ là tiểu thuyết gia đương đại giỏi nhất mà bạn chưa bao giờ nghe nói đến".
Cuốn hồi ký của bà, "In the Margins", mô tả sự giáo dục của bà ở Ý sau Thế chiến II.
Giống như các nhà văn nữ khác cùng thời, bà sinh ra trong truyền thống văn học nam và đọc hầu hết các tác phẩm của các nhà văn nam, vì vậy bà bắt đầu bắt chước các nhà văn nam để viết.
Trong cuốn tự truyện của mình, bà viết:
Trong cuốn tự truyện của mình, một nhà văn đương đại vĩ đại trong nhân loại, bằng giọng nói độc đáo và tràn đầy năng lượng của văn học Ý hiện đại, đã thẳng thắn mô tả những cuộc đấu tranh và đấu tranh của mình để thoát khỏi trạng thái "con vẹt ngẫu nhiên" của mình.
Bởi vì ngôn ngữ và ý tưởng độc đáo của cô vô tình được định hình bởi kinh điển văn học do nam giới thống trị được hình thành qua hàng trăm năm.
Nếu chúng ta thực sự nhìn vào chính mình, hầu hết những suy nghĩ xuất hiện trong đầu chúng ta là tiếng nói của người khác: tiếng nói của cha mẹ và giáo viên của chúng ta.
Những cuốn sách chúng ta đọc, TV chúng ta xem và tâm trí của chúng ta được xây dựng trên một nền văn hóa rất sâu sắc và gắn bó.
Khả năng nói, suy nghĩ và diễn đạt của chúng ta là một chức năng của những gì chúng ta đọc, và những từ từ quá khứ ảnh hưởng đến tương lai.
Về cơ bản, chúng ta sống cùng một cuộc sống như tổ tiên của chúng ta, lặp đi lặp lại hầu hết những suy nghĩ giống nhau của ngày hôm qua, viết những từ giống như mọi người khác, với rất ít sự khác biệt.
Nếu bạn nhìn vào các bộ phim Hollywood và đọc một vài cuốn sách, bạn sẽ thấy rằng nhiều câu chuyện gần như giống nhau, nhưng bối cảnh là khác nhau.
Thỉnh thoảng, con người dường như có thể thoát khỏi xiềng xích của vẹt, nói một chút ý tưởng ban đầu, suy nghĩ một chút ý tưởng ban đầu.
Với một chút nội dung gốc này, văn hóa của chúng tôi đã có một bước nhảy vọt.
Tài nguyên:
_source=profile&utm_medium=reader2