Lingkaran Kecerdasan Baru AI丨Setiap Hari Harus baca: Chip AI Nvidia B100 akan diluncurkan tahun depan, Alibaba Intelligent Information Business Group merilis model besar quark

Alibaba Intelligent Information Business Group secara resmi merilis model besar quark parameter 100 miliar tingkat full-stack yang dikembangkan sendiri, yang akan diterapkan pada pencarian umum, medis dan kesehatan, pendidikan dan pembelajaran, kantor tempat kerja dan skenario lainnya. Nvidia baru-baru ini mengungkapkan bahwa GPU B100 arsitektur Blackwell yang diluncurkan pada tahun 2024 akan mengalahkan A100, H100 dan H200 dalam hal tolok ukur kinerja inferensi GPT-3 175B, dan kinerja kinerja AI-nya akan lebih dari dua kali lipat dari GPU H200 arsitektur Hopper.

Sumber gambar: Dihasilkan oleh Unbounded AI

Berita Hangat:

NVIDIA: B100 akan diluncurkan tahun depan, kinerja AI lebih dari dua kali lebih baik dari H200

Menurut sebuah laporan oleh "Science and Technology Innovation Board Daily" pada 14 November, Nvidia baru-baru ini mengungkapkan bahwa GPU B100 arsitektur Blackwell yang diluncurkan pada tahun 2024 akan mengalahkan A100, H100 dan H200 dalam hal tolok ukur kinerja inferensi GPT-3 175B, dan kinerja kinerja AI-nya akan lebih dari dua kali lipat dari GPU arsitektur Hopper H200. Pasar mengharapkan bahwa Nvidia akan mempercayakan TSMC ke GPU OEM Blackwell dengan proses 3nm, dan Nvidia berencana untuk memajukan titik waktu produksi ke Q2 2024. GPU Blackwell akan menjadi akselerator HPC / AI pertama NVIDIA yang dirancang dengan chiplet.

Alibaba Intelligent Information Business Group Merilis 100 Miliar Parameter Quark Large Model

Menurut sebuah laporan oleh Financial Associated Press pada 14 November, kelompok bisnis informasi cerdas Alibaba secara resmi merilis model besar parameter 100 miliar tingkat full-stack yang dikembangkan sendiri, yang akan diterapkan pada pencarian umum, kesehatan medis, pendidikan dan pembelajaran, kantor tempat kerja dan skenario lainnya, dan aplikasi quark juga akan sepenuhnya ditingkatkan dengan bantuan model besar ini.

** CEO OpenAI: Model AI generasi berikutnya GPT-5 sudah dalam pelatihan dan membutuhkan lebih banyak data **

Menurut sebuah laporan oleh AI New Intelligence pada 14 November, CEO OpenAI Sam Altman baru-baru ini mengungkapkan lebih banyak langkah OpenAI selanjutnya dalam sebuah wawancara dengan FT. Altman mengatakan perusahaan sedang mengembangkan model AI generasi berikutnya, GPT-5. Namun dia tidak berkomitmen untuk merilis jadwal tersebut. Altman mengatakan ini akan membutuhkan lebih banyak data untuk dilatih, yang akan berasal dari kumpulan data yang tersedia untuk umum di internet serta data kepemilikan perusahaan. OpenAI baru-baru ini mengeluarkan seruan untuk kumpulan data skala besar, terutama yang "tidak dapat diakses secara publik dan mudah diakses di internet saat ini," terutama tulisan atau percakapan bentuk panjang dalam format apa pun.

Altman juga mengatakan bahwa untuk melatih modelnya, OpenAI, seperti kebanyakan perusahaan AI besar lainnya, menggunakan chip H100 Nvidia yang canggih. Dia menyebutkan bahwa ada "ketegangan serius" tahun ini karena kekurangan chip dari Nvidia. Namun, karena perusahaan lain seperti Google, Microsoft, AMD, dan Intel bersiap untuk merilis chip AI saingan, ketergantungan pada Nvidia mungkin tidak bertahan lama.

Selain itu, terlepas dari kesuksesan konsumen OpenAI, Altman mengatakan perusahaan berusaha untuk membuat kemajuan dalam membangun kecerdasan umum buatan. Dia berpendapat bahwa model bahasa besar (LLM), model yang mendukung ChatGPT, adalah "salah satu bagian inti dari membangun AGI, tetapi ada banyak bagian lain di atasnya." Dia juga menyoroti pentingnya bahasa sebagai kompresi informasi, faktor yang dia yakini diabaikan oleh perusahaan seperti Google DeepMind.

Google dan UC Berkeley meluncurkan pendekatan AI generatif baru, "Idempotent Generative Network", yang dapat menghasilkan gambar fotorealistik dalam satu langkah

Menurut sebuah laporan oleh IT House pada 14 November, Google baru-baru ini bekerja sama dengan University of California, Berkeley (UC Berkeley) untuk mengembangkan metode AI generatif baru yang disebut "Idempotent Generative Network (IGN)" yang dapat menggantikan model difusi.

Termasuk jaringan permusuhan generatif (GAN), model difusi, dan Model Konsistensi yang dirilis oleh OpenAI pada bulan Maret tahun ini, model AI generatif arus utama saat ini dihasilkan dengan input seperti noise acak, sketsa, atau resolusi rendah atau gambar yang rusak, dipetakan ke output (biasanya gambar alami) yang sesuai dengan distribusi data target tertentu. Dalam kasus model difusi, distribusi data target dipelajari selama pelatihan, dan kemudian "denoised" dilakukan dalam beberapa langkah.

Tim peneliti Google telah datang dengan model generatif baru yang disebut Idempotent Generation Network (IGN) untuk menghasilkan gambar yang sesuai dari segala bentuk input, idealnya dalam satu langkah. Model ini dapat dianggap sebagai semacam "proyektor global" yang memproyeksikan data input apa pun ke distribusi data target, tidak seperti algoritma model lain yang ada, dan tidak terbatas pada input tertentu.

** Perusahaan AI Kai-Fu Lee "Zero One Everything" open-source Model besar Yi dituduh menjiplak LLaMA **

Menurut IT Home pada 14 November, Kai-Fu Lee, ketua dan CEO Sinovation Works, mendirikan perusahaan startup model besar AI "Zero One Everything" tahun ini, yang telah meluncurkan dua model besar open source, Yi-34 B dan Yi-6 B, mengklaim sepenuhnya terbuka untuk penelitian akademis dan aplikasi komersial gratis pada saat yang bersamaan. Namun, di beranda open-source Hugging Face Yi-34 B, pengembang ehartford mempertanyakan bahwa model tersebut menggunakan arsitektur Meta LLaMA, dengan hanya dua nama tensor yang dimodifikasi, input \ _layernorm dan post \ _attention \ _layernorm.

Selain itu, ada lingkaran teman-teman Jia Yangqing, mantan kepala ilmuwan AI Alibaba, yang beredar di Internet hari ini, yang mengatakan bahwa "model baru dari pabrikan dalam negeri besar persis dengan arsitektur LLaMA, tetapi untuk mewakili perbedaan, nomenklatur dalam kode diubah dari LLaMA menjadi nama mereka, dan kemudian mengubah nama beberapa variabel ".

** Zero One Thing Menanggapi Kontroversi: Model besar yang dikembangkan didasarkan pada struktur GPT yang matang, dan banyak pekerjaan telah dilakukan pada pemahaman model dan pelatihan **

Menurut sebuah laporan oleh Science and Technology Innovation Board Daily pada 14 November, perusahaan AI Kai-Fu Lee, Zero One Everything model open source dituduh menggunakan arsitektur LLaMA sepenuhnya dan hanya memodifikasi nama dua tensor. Dalam hal ini, Zero One Everything mengatakan: GPT adalah arsitektur matang yang diakui oleh industri, dan Llama merangkumnya di GPT. Desain struktural model R&D didasarkan pada struktur GPT yang matang, mengacu pada pencapaian publik teratas industri, karena pengembangan teknologi model besar masih dalam tahap awal, struktur yang konsisten dengan arus utama industri lebih kondusif untuk adaptasi keseluruhan dan iterasi di masa depan. Pada saat yang sama, tim Dunia 0100000 telah melakukan banyak pekerjaan pada pemahaman model dan pelatihan, dan juga terus mengeksplorasi terobosan penting di tingkat struktur model.

** Zhang Yueguang, kepala produk kamera Miao Ya, mengundurkan diri, dan popularitas aplikasi AI selebriti Internet mendingin **

Menurut sebuah laporan oleh Tech Planet pada 13 November, Zhang Yueguang, kepala produk kamera Miao Ya di bawah Ali Da Entertainment, telah meninggalkan jabatannya, dan dia telah berpartisipasi dalam perencanaan proyek Festival Musim Semi Alipay "Jiwufu" dan "Xiuyixi", dan telah bekerja di Byte, Ali dan perusahaan lain.

Kamera Miao Ya adalah produk AIGC yang berada di luar lingkaran di tingkat C-end, selama Anda mengunggah lebih dari 20 foto yang berisi wajah, membayar 9,9 yuan, dan kemudian memilih template dan bentuk yang Anda suka, Anda dapat membuat "klon digital" Anda sendiri, untuk mendapatkan karya foto. Kamera Miao Ya "mendominasi" daftar produk aplikasi untuk jangka waktu tertentu, tetapi peringkat berikutnya turun jauh. Pada 13 November, data terbaru dari Qimai menunjukkan bahwa daftar "sosial" iOS Miao Ya Camera menempati urutan ke-64. Saat ini, bagaimana membentuk permintaan jangka panjang untuk produk AIGC telah menjadi masalah yang sulit di tingkat pasar.

Startup AI Silo AI meluncurkan model bahasa sumber terbuka "Poro" untuk Eropa, yang mencakup 24 bahasa di UE

Silo AI, sebuah startup kecerdasan buatan yang berbasis di Helsinki, Finlandia, minggu ini merilis model bahasa besar open-source baru "Poro" yang bertujuan untuk meningkatkan kemampuan AI multibahasa dari bahasa-bahasa Eropa, VentureBeat melaporkan. Poro adalah model open-source pertama dalam rencana untuk akhirnya mencakup semua 24 bahasa resmi Uni Eropa. Model ini dikembangkan oleh Silo AI's SiloGen Generative AI AI dan kelompok riset TurkuNLP di University of Turku.

Dengan 34,2 miliar parameter, model Poro 34B dinamai menurut kata Finlandia untuk "rusa". Itu dilatih pada partisi dari dataset multibahasa token 21 triliun yang mencakup bahasa Inggris, Finlandia, dan bahasa pemrograman seperti Python dan Java.

Peter Sarlin, CEO Silo AI, mengatakan Poro dirancang untuk memecahkan tantangan inti pelatihan dengan kinerja superior untuk bahasa sumber daya rendah di Eropa, seperti Finlandia. Dengan memanfaatkan metode pelatihan lintas bahasa, model dapat memanfaatkan data dari bahasa dengan sumber daya tinggi, seperti bahasa Inggris.

Rakuten Group Bermitra dengan OpenAI untuk Meluncurkan Platform Rakuten AI for Business

Pada 14 November, Rakuten Group mengumumkan kerja sama strategis dengan OpenAI dan meluncurkan platform kecerdasan buatan baru, Rakuten AI for Business. Dilaporkan bahwa platform ini mendukung berbagai fungsi bisnis penting, termasuk pemasaran, penjualan, dukungan pelanggan, operasi, perencanaan strategis, dan teknik, dan saat ini hanya tersedia melalui undangan, dengan rencana untuk memperluas cakupan layanan pada tahun 2024 dan seterusnya.

Penelitian: Perusahaan AI menghadapi krisis penipisan data pelatihan, data berkualitas tinggi akan habis pada tahun 2026

Rita Matulionyte, seorang profesor hukum teknologi informasi di Macquarie University di Australia, mencatat dalam sebuah artikel di majalah The Conversation bahwa para peneliti AI telah membunyikan alarm tentang kekurangan pasokan data selama hampir satu tahun, seperti yang dilaporkan oleh Webmaster's House pada 14 November. Menurut sebuah studi oleh kelompok prediksi kecerdasan buatan Epoch AI tahun lalu, perusahaan AI dapat kehabisan data pelatihan teks berkualitas tinggi pada tahun 2026, sementara data teks dan gambar berkualitas rendah dapat habis antara tahun 2030 dan 2060.

Untuk perusahaan AI yang haus data, pelatihan dengan data sintetis yang dihasilkan oleh model AI mungkin bukan solusi yang layak. Penelitian telah menunjukkan bahwa melatih model AI untuk menggunakan konten yang dihasilkan AI dapat menyebabkan efek deformitas intrinsik dalam model, membuat output membingungkan dan aneh. Menghadapi masalah potensial ini, kecuali ada peternakan konten manusia skala besar, solusinya mungkin terletak pada kemitraan data. Ini berarti bahwa perusahaan atau institusi dengan data berkualitas tinggi yang melimpah mengadakan perjanjian dengan perusahaan AI untuk bertukar data dengan imbalan uang.

** Unicorn teknologi Vietnam VNG berencana untuk meluncurkan layanan AI seperti ChatGPT **

Startup game Vietnam VNG berencana untuk meluncurkan layanan AI seperti ChatGPT yang disesuaikan untuk pengguna berbahasa Vietnam, seperti dilansir Nikkei Asia pada 14 November. Unicorn teknologi, yang didukung oleh Tencent dan Ant Financial Group Alibaba, sudah memiliki aplikasi obrolan yang lebih populer daripada Facebook di pasar dalam negerinya, dan baru-baru ini menambahkan fitur terjemahan. VNG mengatakan langkah selanjutnya adalah menambahkan kemampuan yang dihasilkan AI yang akan memungkinkan pengguna melakukan segalanya mulai dari menulis email hingga menemukan jawaban atas pertanyaan.

** Sumber mengatakan OpenAI sedang mencoba untuk memburu bakat AI Google dengan paket kompensasi $ 10 juta **

OpenAI sedang dalam perang untuk bakat dengan Google, yang menarik beberapa peneliti terbaik Google dengan paket kompensasi jutaan dolar, serta sumber daya teknologi terkemuka seperti chip akselerator AI untuk menjalankan tes, menurut IT House, mengutip The Information.

AIGC Bacaan yang Direkomendasikan:

"Chip pelatihan model paling kuat H200 dirilis!Memori besar 141G, inferensi AI hingga 90%, juga kompatibel dengan H100"

Nvidia Lao Huang meledak lagi dengan chip GPU generasi baruH200. Situs web resmi tanpa basa-basi mengatakan, "GPU paling kuat di dunia, dibangun untuk AI dan superkomputer". Saya mendengar bahwa semua perusahaan AI mengeluh tentang kurangnya memori? Kali ini, memori besar langsung 141GB, yang langsung meningkat 76% dibandingkan dengan H100 80GB. Sebagai GPU pertama yang dilengkapi dengan memori HBM3e, bandwidth memori juga telah ditingkatkan dari 3,35TB/dtk menjadi 4,8TB/dtk, meningkat sebesar 43%. Apa artinya bagi AI?

"Musk's ChatGPT "Grok", bagaimana cara kerjanya?

Saat ini, Grok masih dalam versi beta awal dan hanya tersedia untuk sejumlah kecil pengguna di Amerika Serikat, dan mereka yang ingin berpartisipasi juga dapat mendaftar melalui situs web xAI, tetapi dalam waktu dekat, Grok akan tersedia untuk semua pengguna "X Premium +" di platform X. Jadi apa yang istimewa dari Grok dibandingkan dengan asisten AI seperti ChatGPT?

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)