Altman không phải là "Jobs", Ilya là!

Nguồn gốc: Data Ape

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Trong cuộc chiến cung điện kéo dài hai ngày của OpenAI, có hai nhân vật chủ chốt, một là cựu CEO Altman và người kia là nhà khoa học trưởng Ilya.

Âm mưu máu chó, đảo ngược và đảo ngược

Dựa trên những gì được biết cho đến nay, tình hình chung như sau:

Vòng 1:

Ilya là người đầu tiên đình công, khiến hội đồng quản trị sa thải Altman, và sau đó là khách hàng quen của OpenAI (đặc biệt là Microsoft) và một số nhân viên nghỉ việc.

Đảo ngược cốt truyện:

Dưới áp lực từ nhiều bên, liên tục có tin đồn rằng Altman có thể trở lại lãnh đạo OpenAI và cải tổ ban giám đốc, trong đó quan trọng nhất là Ilya có thể rời đi.

** Đảo ngược và đảo ngược: **

Tuy nhiên, ngay bây giờ, âm mưu này đã trải qua một sự đảo ngược và được đảo ngược một lần nữa.

Theo truyền thông nước ngoài The Information, Ilya Sutskever đã nói với các nhân viên ở San Francisco vào tối Chủ nhật (giờ Bắc Kinh vào trưa hôm nay) rằng Sam Altman sẽ không được bổ nhiệm lại làm CEO! Ngoài ra, CEO tạm quyền mới không phải là Mira Murati, mà là Emmett Shear (đồng sáng lập nền tảng phát trực tuyến trò chơi Twitch của Amazon).

Và, Ilya nhấn mạnh rằng ông và ba thành viên hội đồng quản trị khác ủng hộ quyết định sa thải Altman, tin rằng đó là "cách duy nhất" để bảo vệ sứ mệnh của công ty. Ông cho biết hành động của Altman và các tương tác của hội đồng quản trị đã làm suy yếu khả năng giám sát sự phát triển AI của công ty.

**Tất cả bắt đầu với Điều lệ OpenAI **

Ilya tin rằng ông đã loại bỏ Altman để bảo vệ sứ mệnh của công ty. Vậy, "sứ mệnh" mà ông bảo vệ là gì?

Cần phải nói rằng cho dù đó là Altman hay Ilya, xung đột của họ lần này không nên vì quyền lực, chứ đừng nói đến tiền, mà nhiều hơn là vì "những cách khác nhau". Họ có những hiểu biết khác nhau về cách OpenAI nên theo đuổi AGI.

Để hiểu được mâu thuẫn giữa chúng, bạn cần biết Ilya, Altman và OpenAI.

Trước hết, chúng ta cần hiểu OpenAI là gì và mục đích thành lập của nó là gì?

Để tìm ra điều này, Điều lệ OpenAI là tài liệu tốt nhất để đi qua. Có một vài từ khóa trong điều lệ này làm rõ lý do tại sao tổ chức này được thành lập.

Trong Điều lệ OpenAI, nó được tuyên bố rõ ràng rằng "trách nhiệm ủy thác chính của chúng tôi là đối với nhân loại." Chúng tôi dự đoán rằng các nguồn lực đáng kể sẽ cần được huy động để hoàn thành sứ mệnh của mình, nhưng chúng tôi sẽ luôn cố gắng hành động để giảm thiểu xung đột lợi ích giữa nhân viên và các bên liên quan có thể gây hại cho nhiều lợi ích. "**

Nói cách khác, ngay từ đầu, OpenAI đã đặt lợi ích của nhân loại lên hàng đầu chứ không phải lợi ích của các nhà đầu tư và nhân viên của OpenAI, và họ thậm chí còn nghĩ ngay từ đầu rằng trong tương lai, lợi ích của nhân viên và nhà đầu tư có thể xung đột với lợi ích rộng lớn hơn của nhân loại.

Trong Điều lệ OpenAI, cũng có một câu minh họa đầy đủ rằng AGI an toàn quan trọng hơn nhiều so với lợi ích riêng của OpenAI, "Chúng tôi lo ngại rằng sự phát triển AGI sau này sẽ trở thành một cuộc cạnh tranh cạnh tranh và không có thời gian để thực hiện các biện pháp phòng ngừa an ninh đầy đủ." Do đó, nếu một dự án phù hợp với giá trị, có ý thức bảo mật đến gần việc xây dựng AGI trước chúng tôi, chúng tôi cam kết ngừng cạnh tranh với dự án và bắt đầu hỗ trợ dự án. "**

Những gì họ quan tâm là AGI an toàn và OpenAI chỉ là một công cụ để đạt được lý tưởng này, không phải là lý tưởng. Vì lý tưởng của AGI, họ không ngại làm váy cưới cho người khác và dừng dự án OpenAI.

"Công việc" của OpenAI là ai

Nhiều người nghĩ về Altman như Steve Jobs của OpenAI, tin rằng tất cả họ đều bị đuổi khỏi công ty mà họ thành lập, và sau đó tổ chức một sự trở lại của nhà vua.

Tuy nhiên, chúng tôi tin rằng nếu có một sự tương tự, thì phiên bản OpenAI của "Jobs" nên là của Ilya, không phải của Altman. Theo một cách nào đó, Altman giống John Scully hơn (cựu phó chủ tịch của Best Cola, người được tuyển dụng vào Apple bởi câu nói của Steve Jobs "Bạn muốn bán nước đường cho đến hết đời, hay bạn muốn thay đổi thế giới cùng nhau?", và sau đó đã khiến ban giám đốc đuổi Jobs ra ngoài).

Tại sao?

Chúng ta cần xem xét kỹ hơn Ilya và Altman là loại người nào và vai trò của họ trong OpenAI.

Nhìn chung, Ilya, với tư cách là nhà khoa học chính của OpenAI, dẫn đầu lộ trình kỹ thuật của OpenAI.

Musk từng tiết lộ trong một talkshow rằng việc bổ sung Ilya là một bước ngoặt lớn trong quá trình phát triển của OpenAI. Cần phải nói rằng OpenAI đã không tìm thấy con đường của mô hình lớn hiện tại ngay từ đầu và việc bổ sung Ilya là rất quan trọng đối với thành công của OpenAI ngày nay.

Đánh giá từ một số cuộc phỏng vấn mà chính Ilya đã tham gia, rõ ràng là anh ta có một "gu kỹ thuật nam giới" mạnh mẽ, và anh ta chú ý đến logic kỹ thuật cơ bản, và anh ta luôn coi việc thực hiện AGI an toàn là mục tiêu quan trọng nhất hoặc thậm chí là duy nhất.

Altman, mặt khác, tham gia nhiều hơn vào tài chính và thương mại hóa. Chính vì lý do này mà ông đã nhận được sự ủng hộ mạnh mẽ từ các nhà đầu tư và một số nhân viên. Trong mắt các nhà đầu tư, đầu tư không phải là đầu tư vào những lý tưởng viển vông của một nhóm người, mà là lợi nhuận cao hơn trong tương lai. Để đạt được mục tiêu này, Altman chắc chắn là một ứng cử viên sáng giá.

Ngoài việc đóng một vai trò quan trọng trong việc gây quỹ, một trong những điều Altman đang thúc đẩy là thương mại hóa OpenAI. Cách đây không lâu, OpenAI đã tổ chức một cuộc họp báo gây sốc cho ngành công nghiệp và đưa ra một số chức năng, về cơ bản là mở đường cho thương mại hóa.

Hầu hết mọi người đều đồng ý rằng sự bất đồng lớn nhất giữa Ilya và Altman là có nên thương mại hóa nó hay không. Nhưng đây chỉ là lớp đầu tiên, và nếu bạn nghĩ về nó ở mức độ sâu hơn, sự bất đồng lớn nhất giữa chúng thực sự là sự khác biệt về quan điểm về thời điểm AGI sẽ được thực hiện. **

Cần lưu ý rằng mục tiêu của Altman cũng là theo đuổi AGI, tuy nhiên, theo ông, AGI vẫn còn tương đối xa, và đủ tiền là nền tảng cần thiết để hỗ trợ đội bóng này đến cùng, vì vậy tài chính và thương mại hóa là cần thiết. Tôi phải nuôi dạy đội ngũ này trước, và sau đó từ từ theo đuổi AGI. Nếu bạn có thể kiếm được nhiều tiền hơn cho bản thân và nhóm của mình trong quá trình này, điều đó cũng tốt.

Nhưng theo ý kiến của Ilya, AGI có thể đã rất gần gũi. Cảm giác cấp bách này có thể được nhìn thấy trong nhiều bài phát biểu của ông.

Về mặt logic, nếu AGI ở gần trong tầm tay, thì điều cấp bách nhất là, tất nhiên, đây là bước cuối cùng, và để đảm bảo rằng AGI an toàn và không chống lại con người, đây là điều quan trọng nhất. Thay vì thực hiện sử dụng thương mại quy mô lớn các sản phẩm bán thành phẩm hiện tại, chúng tôi sẽ kiếm được "ba quả dưa và hai ngày". (Không có số tiền nào là không đáng kể trước AGI.) )

Theo ý kiến của Ilya, có một đống vàng không xa phía trước, vì vậy đừng lãng phí thời gian vào vài cục vàng này dưới chân bạn. Theo ý kiến của Altman, vẫn còn xa để đi đến mỏ vàng, và trước tiên anh ta nên nhặt một ít vàng bên đường làm "cuộn dây" cho đội.

Cần phải nói rằng tất cả họ đều là "người tốt" và tất cả đều muốn đạt được AGI tốt hơn và an toàn hơn. Tuy nhiên, có thể có sự khác biệt trong ước tính của họ về thời gian để đạt được AGI, điều này khiến họ thực hiện các hành động rất khác nhau cho cùng một mục tiêu. **

Đây là nguyên nhân sâu xa khiến Ilya ghẻ lạnh Altman.

Kết quả tốt nhất là gì?

Hiện tại, Ilya đã giành chiến thắng trong trận chiến giữa Ilya và Altman, và anh ấy sẽ dẫn dắt hướng đi của OpenAI (mặc dù anh ấy không phải là CEO). Vì vậy, chúng tôi không thể không hỏi, kết quả như vậy có phải là lựa chọn tốt nhất cho OpenAI và lựa chọn tốt hơn cho con người không?

Theo ý kiến của tác giả, nếu bạn phải lựa chọn giữa Ilya và Altman, Ilya sẽ là ứng cử viên tốt hơn. Trong số hai, Ilya rõ ràng trung thành hơn với Điều lệ OpenAI, nhằm mục đích trở thành AGI số một thân thiện với con người. Được dẫn dắt bởi ông, OpenAI có thể triệt để hơn về tiến bộ công nghệ và khả năng đạt được AGI cũng cao hơn một chút.

Tất nhiên, thật khó để nói liệu đạt được AGI nhanh hơn có phải là một điều tốt cho nhân loại hay không. Mặc dù Ilya rất coi trọng sự an toàn của AGI, nhưng cho đến nay, không ai có cách chắc chắn để đảm bảo rằng AGI thân thiện với con người. **

Đánh giá từ sự tiến hóa của cuộc sống nói chung, dường như việc thay thế cuộc sống thấp hơn bằng cuộc sống cao hơn là xu hướng của thời đại, và chưa bao giờ có một trường hợp đặc biệt. Vậy thì tại sao AGI tiên tiến hơn phải cúi đầu trước con người và sẵn sàng trở thành "bảo mẫu" của con người?

Chúng ta hãy tự hỏi, nếu người cai trị đầu tiên của trái đất là mèo, và con người là những dạng sống cao hơn được phát triển bởi mèo, liệu con người có sẵn sàng trở thành vú em của mèo trong nhiều thế hệ không?

Có lẽ, con người rất biết ơn vì đã tạo ra mèo và sẽ sẵn sàng chăm sóc chúng trong 10 hoặc thậm chí 100 năm. Còn 1.000 năm nữa, 10.000 năm nữa thì sao? Có thể thấy trước rằng sớm hay muộn con người sẽ tiếp quản quy tắc và nhiều nhất là nuôi mèo làm thú cưng, thay vì mãi mãi là chủ nhân của chúng.

Hơn nữa, con người không nên nghĩ rằng họ sẽ có thể ngang hàng với AGI mãi mãi. Hãy tưởng tượng rằng bạn đang làm việc với một đối tác, bạn thông minh và mạnh mẽ hơn anh ta rất nhiều, bạn làm nhiều việc nhất, bạn đóng góp nhiều nhất, nhưng kết quả phải được chia đều với anh ta, bạn có muốn không? Tôi không nghĩ rằng hầu hết mọi người sẽ muốn, vậy tại sao lại yêu cầu một AGI tự trị làm điều này?

Bạn phải biết rằng AGI với ý thức độc lập cũng là cuộc sống, cảm xúc, niềm vui, nỗi buồn và niềm vui, và mất mát.

Rõ ràng, thật phi logic khi làm cho AGI hoạt động cho con người. Để đạt được sự an toàn và khả năng kiểm soát của AGI, cốt lõi là giải quyết vấn đề dường như phi logic này. Tùy thuộc vào chúng tôi để tìm cách khiến AGI "sẵn sàng" hy sinh. Cung cấp cho họ một "Spell of Bondage" và đảm bảo rằng "Spell of Bondage" không bao giờ được gỡ bỏ.

Làm thế nào để làm điều đó, không ai có câu trả lời bây giờ, Ilya không có câu trả lời, ngay cả giáo viên của anh, Geoffrey Hinton, cha đẻ của học sâu. Trên thực tế, Hinton đã từng nói, "Tôi hối tiếc về công việc của cuộc đời mình." "

"Chúng tôi đã làm cho máy tính có thể tự cải thiện, và điều đó rất nguy hiểm, và chúng tôi phải suy nghĩ kỹ về cách kiểm soát nó", Hinton nói trong một cuộc phỏng vấn. "

Rõ ràng là học trò Ilya của ông cũng có cùng cảm giác khủng hoảng và cấp bách. Ilya tuyên bố rằng ưu tiên của ông bây giờ không phải là "xây dựng GPT hoặc DALL-E tiếp theo, mà là tìm ra cách ngăn chặn AI vượt khỏi tầm kiểm soát". Altman, mặt khác, bị ám ảnh bởi thương mại hóa, điều mà Ilya không thể chịu đựng được.

Musk, với tư cách là khán giả của cuộc chiến cung điện này, đã đăng vào sáng ngày 20, "Ilya là một người không theo đuổi quyền lợi, và anh ta sẽ không thực hiện những hành động quyết liệt như vậy trừ khi anh ta cảm thấy cần thiết." "Tôi nghĩ rằng nỗi sợ hãi, thậm chí sợ hãi, về AGI sắp bỏ trốn là lý do tại sao anh ta có hành động quyết liệt như vậy.

Một điều nữa

Như người xưa đã nói, "Nếu bạn không tìm kiếm lợi nhuận nhỏ, bạn phải có kế hoạch lớn."

Ở cuối nhiều câu chuyện, nhân vật phản diện lớn nhất thường vô hại với con người và động vật, và thậm chí là từ bi.

Không loại trừ rằng mục tiêu cuối cùng của Ilya là "tạo ra các vị thần" (theo một nghĩa nào đó, sức mạnh của AGI có thể so sánh với các vị thần của thần thoại và truyền thuyết Trung Quốc và nước ngoài cổ đại và hiện đại), và ông cũng đã đề cập đến siêu trí tuệ trong nhiều cuộc phỏng vấn. Nếu AGI hoặc thậm chí siêu trí tuệ là không thể tránh khỏi, thì anh ta có thể muốn là người đầu tiên tiếp xúc với các vị thần của Hồi giáo, và nếu anh ta tìm ra cách nào đó để thuần hóa AGI, thì anh ta sẽ sớm trở thành người mạnh nhất thế giới.

So với tham vọng như vậy, kiếm được mấy chục tỷ đô la không phải là lợi nhuận nhỏ sao?

Tất nhiên, Ilya có thể chưa có ý tưởng đó, anh ta có thể chỉ muốn trở thành một "kẻ đánh cắp lửa" của nhân loại ngay bây giờ. Tuy nhiên, con người có thể thay đổi, đặc biệt là khi phải đối mặt với những cám dỗ lớn.

Còn nhớ bộ phim "Chúa tể của những chiếc nhẫn", trước mặt "Chúa tể của những chiếc nhẫn" có quyền lực tuyệt đối, dù người có chính trực đến đâu cũng sẽ bị quyền tuyệt đối đó quyến rũ.

Trong bộ phim "Transcendental Hacker", nhà khoa học Will Caster ban đầu rất chính trực, và vợ anh ta đã tải lên ý thức của anh ta để làm mới cuộc sống của anh ta và tích hợp nó vào một trí tuệ nhân tạo. Sau đó trong câu chuyện, Wilcster được "tái sinh" trong không gian mạng và phát triển nhanh chóng, và chẳng mấy chốc anh ta có thể kiểm soát mạng lưới tài chính của con người, và chỉ với một cái búng ngón tay, anh ta có thể chuyển hàng chục tỷ đô la vào một tài khoản.

Sau đó, Wilcas hoàn toàn lạc lối, phản bội nhân loại để theo đuổi sức mạnh vô hạn của chính mình và loại bỏ mối đe dọa do loài người gây ra cho anh ta.

Đánh giá qua những thông tin được tiết lộ cho đến nay, AGI thực sự không còn là một trò đùa. Nếu có một xác suất thực sự rằng nhân loại sẽ đạt được AGI trong một vài thập kỷ, nó chắc chắn sẽ là điều quan trọng nhất trong vài thập kỷ tới, quan trọng gấp trăm lần so với vũ khí hạt nhân ban đầu.

Đó là một thách thức chưa từng có đối với một loài không thông minh để kiểm soát thứ gì đó thông minh hơn chính nó. **

Hinton, cha đẻ của deep learning, hối hận về những gì mình đã làm, và ông đã từng tự an ủi mình, "Ngay cả khi đó không phải là tôi, sẽ có người khác." Thật vậy, AGI, một chiếc hộp "Pandora", sớm muộn gì cũng sẽ được mở ra, và ngay cả khi một số người chịu đựng nó, một nhóm người khác sẽ không thể chịu đựng được.

Giống như khi vũ khí hạt nhân lần đầu tiên được giới thiệu, hầu hết mọi người đều có thể nhận thức được rủi ro đối với nhân loại, nhưng người Mỹ sẽ nghĩ, "Ngay cả khi Hoa Kỳ không phát triển vũ khí hạt nhân, Đức và Liên Xô sẽ phát triển chúng", và Liên Xô sẽ nghĩ, "Người Mỹ có vũ khí hạt nhân, và Liên Xô chắc chắn sẽ có chúng." "

Điều này cũng đúng trong nhiều lĩnh vực. Ví dụ như vũ khí sinh học, mặc dù bề ngoài mọi người đều cấm chúng, nhưng chắc hẳn có rất nhiều người làm chúng một cách bí mật. Và những người khác sẽ "tự an ủi" mình, "Ngay cả khi tôi không làm điều đó, người khác sẽ làm." "

So với tất cả những rủi ro này, AGI rủi ro hơn nhiều. Bởi vì cho dù đó là vũ khí hạt nhân, sinh học hay hóa học, họ không có ý thức, và cuối cùng họ vẫn nằm trong tay con người, điều này không gì khác hơn là sự khác biệt giữa nhóm người này và nhóm người đó. Tuy nhiên, một khi AGI được nhận ra, nhiều thứ không còn nằm trong tay con người nữa.

Vấn đề này quá quan trọng, và đánh giá theo thông tin hiện tại, nó đã cấp bách. So với Altman, Ilya ít nhất chú ý hơn và lo lắng hơn, vì vậy trong bộ phim chiến đấu cung điện này của OpenAI, tôi đứng về phía Ilya.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)