Altman bukan "Jobs", Ilya adalah!

Sumber asli: Data Ape

Sumber gambar: Dihasilkan oleh Unbounded AI

Dalam pertarungan istana dua hari OpenAI, ada dua tokoh kunci, satu adalah mantan CEO Altman, dan yang lainnya adalah kepala ilmuwan Ilya.

** Plot darah anjing, terbalik dan terbalik **

Berdasarkan apa yang diketahui sejauh ini, situasi umum adalah sebagai berikut:

Putaran 1:

Ilya adalah yang pertama menyerang, memimpin dewan untuk memecat Altman, dan kemudian pelanggan OpenAI (terutama Microsoft) dan beberapa karyawan berhenti.

Pembalikan Plot:

Di bawah tekanan dari banyak pihak, ada desas-desus terus-menerus bahwa Altman dapat kembali ke kepemimpinan OpenAI dan merombak dewan direksi, yang paling kritis adalah bahwa Ilya dapat pergi.

** Mundur dan mundur: **

Namun, barusan, plot ini telah mengalami pembalikan dan dibalik lagi.

Menurut media asing The Information, Ilya Sutskever mengatakan kepada karyawan di San Francisco Minggu malam (waktu Beijing siang hari ini) bahwa Sam Altman tidak akan diangkat kembali sebagai CEO! Selain itu, CEO sementara yang baru bukanlah Mira Murati, tetapi Emmett Shear (salah satu pendiri platform streaming game Amazon Twitch).

Dan, Ilya bersikeras bahwa dia dan tiga anggota dewan lainnya mendukung keputusan untuk menghapus Altman, yakin bahwa itu adalah "satu-satunya cara" untuk mempertahankan misi perusahaan. Dia mengatakan tindakan Altman dan interaksi dewan merusak kemampuannya untuk mengawasi pengembangan AI perusahaan.

Semuanya dimulai dengan Piagam OpenAI

Ilya percaya bahwa dia menyingkirkan Altman untuk membela misi perusahaan. Jadi, apa "misi" yang dia bela?

Harus dikatakan bahwa apakah itu Altman atau Ilya, konflik mereka kali ini seharusnya bukan karena kekuasaan, apalagi uang, tetapi lebih karena "cara yang berbeda". Mereka memiliki pemahaman yang berbeda tentang bagaimana OpenAI harus mengejar AGI.

Untuk memahami kontradiksi di antara mereka, Anda perlu tahu Ilya, Altman, dan OpenAI.

Pertama-tama, kita perlu memahami apa itu OpenAI dan apa tujuan pendiriannya?

Untuk mengetahui hal ini, Piagam OpenAI adalah bahan terbaik yang didapat. Ada beberapa kata kunci dalam piagam ini yang menjelaskan mengapa organisasi ini didirikan.

Dalam Piagam OpenAI, dengan jelas dinyatakan bahwa "tanggung jawab fidusia utama kami adalah untuk kemanusiaan." Kami mengantisipasi bahwa sumber daya yang signifikan perlu dimobilisasi untuk mencapai misi kami, tetapi kami akan selalu berusaha untuk mengambil tindakan untuk meminimalkan konflik kepentingan antara karyawan dan pemangku kepentingan yang dapat membahayakan berbagai kepentingan. "**

Dengan kata lain, sejak awal, OpenAI telah mengutamakan kepentingan kemanusiaan, bukan kepentingan investor dan karyawan OpenAI, dan mereka bahkan berpikir sejak awal bahwa di masa depan, kepentingan karyawan dan investor dapat bertentangan dengan kepentingan kemanusiaan yang lebih luas.

Dalam OpenAI Charter, ada juga kalimat yang sepenuhnya menggambarkan bahwa mengamankan AGI jauh lebih penting daripada kepentingan OpenAI sendiri, "Kami khawatir bahwa nantinya pengembangan AGI akan menjadi kompetisi yang kompetitif, dan tidak ada waktu untuk mengambil tindakan pencegahan keamanan yang memadai." Oleh karena itu, jika proyek yang selaras dengan nilai dan sadar keamanan mendekati pembangunan AGI sebelum kami, kami berkomitmen untuk berhenti bersaing dengan proyek dan mulai membantu proyek tersebut. "**

Yang mereka pedulikan adalah AGI yang aman, dan OpenAI hanyalah alat untuk mencapai cita-cita ini, bukan cita-cita itu sendiri. Demi cita-cita AGI, mereka tidak keberatan membuat gaun pengantin untuk orang lain dan menghentikan proyek OpenAI.

Siapa "Pekerjaan" OpenAI

Banyak orang menganggap Altman sebagai Steve Jobs dari OpenAI, percaya bahwa mereka semua dikeluarkan dari perusahaan yang mereka dirikan, dan kemudian melakukan pengembalian raja.

Namun, kami percaya bahwa jika ada analogi, maka versi OpenAI dari "Jobs" seharusnya milik Ilya, bukan milik Altman. Di satu sisi, Altman lebih seperti John Scully (mantan wakil presiden Best Cola, yang direkrut ke Apple oleh ungkapan Steve Jobs "Apakah Anda ingin menjual air gula selama sisa hidup Anda, atau apakah Anda ingin mengubah dunia bersama?", Dan kemudian memimpin dewan direksi untuk menendang Jobs keluar).

Mengapa?

Kita perlu melihat lebih dekat orang seperti apa Ilya dan Altman dan apa peran mereka dalam OpenAI.

Secara keseluruhan, Ilya, sebagai kepala ilmuwan OpenAI, memimpin peta jalan teknis OpenAI.

Musk pernah mengungkapkan dalam sebuah acara bincang-bincang bahwa penambahan Ilya adalah titik balik utama dalam proses pengembangan OpenAI. Harus dikatakan bahwa OpenAI tidak menemukan jalur model besar saat ini pada awalnya, dan penambahan Ilya sangat penting untuk kesuksesan OpenAI saat ini.

Dilihat dari beberapa wawancara yang diikuti Ilya sendiri, jelas juga bahwa dia memiliki "selera teknis pria" yang kuat, dan dia memperhatikan logika teknis yang mendasarinya, dan dia selalu menganggap realisasi AGI yang aman sebagai yang paling penting atau bahkan satu-satunya tujuan.

Altman, di sisi lain, lebih terlibat dalam pembiayaan dan komersialisasi. Justru karena alasan inilah ia mendapat dukungan kuat dari investor dan beberapa karyawan. Di mata investor, berinvestasi bukan tentang berinvestasi dalam cita-cita ilusi sekelompok orang, tetapi tentang pengembalian yang lebih tinggi di masa depan. Untuk mencapai tujuan ini, Altman tidak diragukan lagi adalah kandidat yang baik.

Selain memainkan peran kunci dalam penggalangan dana, salah satu hal yang didorong Altman adalah komersialisasi OpenAI. Belum lama ini, OpenAI mengadakan konferensi pers yang mengejutkan industri, dan meluncurkan sejumlah fungsi, yang pada dasarnya membuka jalan bagi komersialisasi.

Kebanyakan orang setuju bahwa ketidaksepakatan terbesar antara Ilya dan Altman adalah apakah akan mengkomersialkannya atau tidak. Tapi ini baru lapisan pertama, dan jika dipikir-pikir pada level yang lebih dalam, ketidaksepakatan terbesar di antara mereka sebenarnya adalah perbedaan pandangan kapan AGI akan direalisasikan. **

Perlu dicatat bahwa tujuan Altman juga untuk mengejar AGI, namun, menurutnya, AGI masih relatif jauh, dan uang yang cukup adalah fondasi yang diperlukan untuk mendukung tim ini hingga akhir, sehingga pembiayaan dan komersialisasi diperlukan. Saya harus membesarkan tim ini terlebih dahulu, dan kemudian perlahan-lahan mengejar AGI. Jika Anda dapat menghasilkan lebih banyak uang untuk diri sendiri dan tim Anda dalam prosesnya, tidak apa-apa.

Tapi menurut Ilya, AGI mungkin sudah sangat dekat. Rasa urgensi ini dapat dilihat dalam banyak pidatonya.

Logikanya, jika AGI sudah dekat, maka hal yang paling mendesak adalah, tentu saja, ini adalah langkah terakhir, dan untuk memastikan bahwa AGI aman dan tidak anti-manusia, ini adalah yang paling penting. Alih-alih melakukan penggunaan komersial skala besar dari produk setengah jadi saat ini, kami akan mendapatkan "tiga melon dan dua kurma". (Tidak ada jumlah uang yang tidak signifikan di depan AGI.) )

Menurut Ilya, ada setumpuk emas tidak jauh di depan, jadi jangan buang waktu untuk beberapa bongkahan emas ini di kaki Anda. Menurut Altman, masih jauh untuk pergi ke tambang emas, dan dia harus terlebih dahulu mengambil sedikit emas di pinggir jalan sebagai "kumparan" untuk tim.

Harus dikatakan bahwa mereka semua adalah "orang baik" dan semua ingin mencapai AGI dengan lebih baik dan lebih aman. Namun, mungkin ada perbedaan dalam perkiraan waktu mereka untuk mencapai AGI, yang mengarahkan mereka untuk mengambil tindakan yang sangat berbeda untuk tujuan yang sama. **

Ini adalah akar penyebab kerenggangan Ilya dari Altman.

Apa hasil terbaik?

Seperti berdiri, Ilya memenangkan pertempuran antara Ilya dan Altman, dan dia akan memimpin arah OpenAI (meskipun dia bukan CEO). Jadi, kami tidak bisa tidak bertanya, apakah hasil seperti itu pilihan terbaik untuk OpenAI dan pilihan yang lebih baik untuk manusia?

Menurut pendapat penulis, jika Anda harus memilih antara Ilya dan Altman, Ilya akan menjadi kandidat yang lebih baik. Dari keduanya, Ilya jelas lebih setia pada OpenAI Charter, yang bertujuan untuk menjadi AGI nomor satu yang ramah manusia. Dipimpin olehnya, OpenAI mungkin lebih radikal dalam hal kemajuan teknologi, dan kemungkinan mencapai AGI juga sedikit lebih tinggi.

Tentu saja, sulit untuk mengatakan apakah mencapai AGI lebih cepat adalah hal yang baik bagi kemanusiaan. Sementara Ilya sangat memperhatikan keselamatan AGI, sampai sekarang, tidak ada yang memiliki cara pasti untuk menjamin bahwa AGI ramah manusia. **

Dilihat dari evolusi kehidupan secara keseluruhan, tampaknya penggantian kehidupan yang lebih rendah dengan kehidupan yang lebih tinggi adalah tren zaman, dan tidak pernah ada kasus khusus. Lalu mengapa AGI yang lebih maju harus tunduk pada manusia dan bersedia menjadi "pengasuh" manusia?

Mari kita bertanya pada diri sendiri, jika penguasa pertama bumi adalah kucing, dan manusia adalah bentuk kehidupan yang lebih tinggi yang dikembangkan oleh kucing, apakah manusia bersedia menjadi pengasuh kucing selama beberapa generasi?

Mungkin, manusia bersyukur atas penciptaan kucing dan akan rela merawat mereka selama 10 atau bahkan 100 tahun. Bagaimana dengan 1.000 tahun dari sekarang, 10.000 tahun dari sekarang? Dapat diperkirakan bahwa cepat atau lambat manusia akan mengambil alih aturan dan paling banyak memelihara kucing sebagai hewan peliharaan, bukan selamanya sebagai tuannya.

Selain itu, manusia seharusnya tidak berpikir bahwa mereka akan dapat setara dengan AGI selamanya. Mari kita bayangkan bahwa Anda bekerja dengan pasangan, Anda jauh lebih pintar dan lebih kuat darinya, Anda melakukan pekerjaan paling banyak, Anda melakukan kontribusi paling banyak, tetapi hasilnya harus dibagi rata dengannya, apakah Anda mau? Saya tidak berpikir kebanyakan manusia akan mau, jadi mengapa meminta AGI otonom untuk melakukan ini?

Anda harus tahu bahwa AGI dengan kesadaran independen juga hidup, perasaan, suka, duka, dan suka, dan rugi.

Jelas, tidak logis untuk membuat AGI bekerja untuk manusia. Untuk mencapai keamanan dan kemampuan kontrol AGI, intinya adalah menyelesaikan masalah yang tampaknya tidak logis ini. Terserah kami untuk menemukan cara agar AGI "bersedia" untuk berkorban. Beri mereka "Mantra Perbudakan" dan pastikan bahwa "Mantra Perbudakan" tidak pernah dilepas.

Bagaimana melakukannya, tidak ada yang punya jawaban sekarang, Ilya tidak punya jawaban, bahkan gurunya, Geoffrey Hinton, bapak pembelajaran mendalam. Bahkan, Hinton pernah berkata, "Saya menyesali pekerjaan hidup saya." "

"Kami telah cukup banyak memungkinkan komputer untuk memperbaiki diri, dan itu berbahaya, dan kami harus berpikir keras tentang bagaimana mengendalikannya," kata Hinton dalam sebuah wawancara. "

Jelas bahwa muridnya Ilya memiliki rasa krisis dan urgensi yang sama. Ilya mengklaim bahwa prioritasnya sekarang adalah "bukan untuk membangun GPT atau DALL-E berikutnya, tetapi untuk mencari cara menghentikan AI agar tidak lepas kendali." Altman, di sisi lain, terobsesi dengan komersialisasi, yang tidak dapat ditoleransi Ilya.

Musk, sebagai penonton pertarungan istana ini, memposting pada pagi hari tanggal 20, "Ilya adalah orang yang tidak mengejar hak, dan dia tidak akan mengambil tindakan drastis seperti itu kecuali dia merasa perlu." "Saya pikir ketakutan, bahkan ketakutan, dari AGI pelarian yang akan datang adalah alasan mengapa dia mengambil tindakan drastis seperti itu.

Satu hal lagi

Seperti kata pepatah lama, "Jika Anda tidak mencari keuntungan kecil, Anda harus punya rencana besar."

Di akhir banyak cerita, penjahat terbesar seringkali tidak berbahaya bagi manusia dan hewan, dan bahkan penyayang.

Tidak dikecualikan bahwa tujuan akhir Ilya adalah untuk "menciptakan dewa" (dalam arti tertentu, kekuatan AGI sebanding dengan dewa-dewa mitos dan legenda Tiongkok kuno dan modern serta asing), dan dia juga menyebutkan kecerdasan super dalam banyak wawancara. Jika AGI atau bahkan kecerdasan super tidak bisa dihindari, maka dia mungkin ingin menjadi orang pertama yang berhubungan dengan "dewa", dan jika dia menemukan cara untuk "menjinakkan" AGI, maka dia akan segera menjadi orang paling kuat di dunia.

Dibandingkan dengan ambisi seperti itu, bukankah menghasilkan puluhan miliar dolar adalah keuntungan kecil?

Tentu saja, Ilya mungkin belum memiliki ide itu, dia mungkin hanya ingin menjadi "pencuri api" umat manusia saat ini. Namun, orang bisa berubah, terutama ketika dihadapkan dengan godaan besar.

Ingat film "The Lord of the Rings", di depan "Lord of the Rings" kekuatan absolut, tidak peduli seberapa benar orang itu, mereka akan tergoda oleh hak absolut itu.

Dalam film "Transcendental Hacker", ilmuwan Will Caster sangat benar pada awalnya, dan istrinya mengunggah kesadarannya untuk memperbarui hidupnya dan mengintegrasikannya ke dalam kecerdasan buatan. Kemudian dalam ceritanya, Wilcster "terlahir kembali" di dunia maya dan berkembang pesat, dan segera dia bisa mengendalikan jaringan keuangan manusia, dan dengan jentikan jarinya, dia bisa mentransfer puluhan miliar dolar ke sebuah rekening.

Kemudian, Wilcas benar-benar tersesat, mengkhianati umat manusia dalam mengejar kekuatannya sendiri yang tak terbatas dan menghilangkan ancaman yang ditimbulkan kepadanya oleh umat manusia.

Dilihat dari informasi yang terungkap selama ini, AGI sebenarnya bukan lagi lelucon. Jika ada kemungkinan nyata bahwa umat manusia akan mencapai AGI dalam beberapa dekade, itu pasti akan menjadi hal terpenting dalam beberapa dekade mendatang, seratus kali lebih penting daripada senjata nuklir asli.

Ini adalah tantangan yang belum pernah terjadi sebelumnya bagi spesies yang tidak terlalu cerdas untuk mengendalikan sesuatu yang lebih pintar dari dirinya sendiri. **

Hinton, bapak pembelajaran mendalam, menyesali apa yang telah dia lakukan, dan dia pernah menghibur dirinya sendiri, "Bahkan jika itu bukan aku, akan ada orang lain." Memang, AGI, kotak "Pandora", cepat atau lambat akan dibuka, dan bahkan jika beberapa orang menanggungnya, sekelompok orang lain tidak akan tahan.

Sama seperti ketika senjata nuklir pertama kali diperkenalkan, hampir semua orang dapat merasakan risikonya bagi umat manusia, tetapi orang Amerika akan berpikir, "Bahkan jika Amerika Serikat tidak mengembangkan senjata nuklir, Jerman dan Soviet akan mengembangkannya," dan Soviet akan berpikir, "Amerika memiliki senjata nuklir, dan Uni Soviet pasti akan memilikinya." "

Hal yang sama berlaku di banyak bidang. Misalnya, senjata biologis, meskipun semua orang telah melarangnya di permukaan, pasti ada banyak orang yang melakukannya secara diam-diam. Dan orang lain akan "menghibur" diri mereka sendiri, "Bahkan jika saya tidak melakukannya, orang lain akan melakukannya." "

Dibandingkan dengan semua risiko ini, AGI jauh lebih berisiko. Karena apakah itu senjata nuklir, biologi atau kimia, mereka tidak sadar, dan pada akhirnya mereka masih di tangan manusia, yang tidak lebih dari perbedaan antara kelompok orang ini dan kelompok orang itu. Namun, begitu AGI terealisasi, banyak hal yang tidak lagi berada di tangan manusia.

Masalah ini terlalu penting, dan dilihat dari informasi saat ini, ini sudah mendesak. Dibandingkan dengan Altman, Ilya setidaknya lebih memperhatikan dan lebih cemas, jadi dalam drama pertarungan istana OpenAI ini, saya mendukung Ilya.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)