Dalam menghadapi gelombang kecerdasan buatan, pilihan Intel

Sumber: Catatan Penelitian Alpha Rabbit

Sumber gambar: Dihasilkan oleh Unbounded AI

Dengan perkembangan booming kecerdasan buatan, pesaing lama Intel seperti Nvidia dan Broadcom* (Broadcom: pendapatan chip tumbuh lebih dari yang diharapkan pada kuartal kedua tahun ini, dan pada tahun fiskal berikutnya, bisnis chip terkait AI Broadcom diperkirakan akan berlipat ganda menjadi $7 miliar, menjadi perusahaan chip AI terbesar kedua di dunia setelah Nvidia)* dan perusahaan lain bersinar dalam gelombang kecerdasan buatan ini, tetapi Intel tampaknya tidak mengikuti laju kecerdasan buatan.

Pada awal Mei 2023, pada konferensi superkomputer di Jerman, Intel Corporation (INTC.O) mengumumkan parameter chip GPU Falcon Shores yang direncanakan akan diluncurkan pada tahun 2025 sebagai berikut: spesifikasi memori bandwidth tinggi (HBM3) akan mencapai 288GB, mendukung aritmatika floating-point 8-bit, dan total bandwidth dapat mencapai 9,8TB/s.

Selain itu, ada pengiriman superkomputer Aurora berbasis Ponte Vecchio yang akan datang ke Argonne National Laboratory di Amerika Serikat. Namun, karena kecepatan peluncuran chip **, misalnya, chip tindak lanjut Falcon Shores tidak akan tersedia hingga 2025, dan masih sulit untuk bersaing dengan perusahaan seperti Nvidia yang telah meluncurkan produk dengan cepat. **

Acara Intel pada 19 September 2023 di Intel Innovation Center di San Jose, California, juga menyoroti pemikiran tentang AI, dengan Pat Gelsinger secara khusus menyajikan beberapa poin pada hari pertama Inovasi Intel:

Pada kemajuan teknologi proses: Intel tetap berada di jalur untuk rencana lima node proses selama empat tahun. Perusahaan memamerkan paket multi-chipset pertama yang saling terhubung menggunakan Universal Chip Interconnect Expression (UCIe).

Prosesor Intel® Xeon® Xeon® Generasi Berikutnya: Intel telah membagikan detail prosesor Xeon® Xeon® yang akan datang. Prosesor ini akan menawarkan peningkatan signifikan dalam efisiensi daya dan kinerja. Mereka juga meluncurkan prosesor E-core dengan 288 core. Prosesor Intel Xeon Xeon generasi kelima akan dirilis pada 14 Desember.

Peluncuran PC AI: Intel akan merilis prosesor Intel Core Ultra dan meluncurkan PC AI pada 14 Desember. Ini menandai perampokan pertama Intel ke dalam neural processing unit (NPU) terintegrasi untuk menghadirkan akselerasi AI yang efisien langsung di PC.

Superkomputer AI: Intel sedang membangun superkomputer AI besar berbasis prosesor Intel Xeon Xeon dan akselerator perangkat keras AI Intel Gaudi2. Stabilitas AI adalah pelanggan utama, dan Alibaba juga bermaksud untuk menggunakan prosesor Xeon Xeon generasi keempat dalam mesin inferensinya.

Intel Developer Cloud: Intel mengumumkan ketersediaan umum Intel Developer Cloud. Platform ini dirancang untuk digunakan untuk membangun dan menguji aplikasi berkinerja tinggi, termasuk kecerdasan buatan. Ini sudah digunakan oleh beberapa pelanggan dan sebelumnya telah dalam versi beta.

Solusi Perangkat Lunak: Intel memamerkan solusi perangkat lunak yang akan datang, termasuk rilis toolkit Intel OpenVINO 2023.1. Ini akan membantu pengembang memanfaatkan kemampuan AI baru.

Klien bertaruh pada AI: Prosesor Ultra inti baru, dengan nama kode "Meteor Lake," adalah langkah strategis Intel untuk mendorong AI di sisi klien. Seperti yang dijelaskan Gelsinger, kombinasi AI, cloud, dan PC akan secara dramatis mengubah dan meningkatkan pengalaman PC.

Fitur Prosesor Core Ultra: Prosesor Core Ultra dilengkapi dengan NPU terintegrasi pertama Intel untuk operasi AI yang efisien. Ini adalah desain chip pelanggan pertama Intel yang didukung oleh teknologi pengemasan Foveros 3D. Selain NPU, prosesor telah membuat kemajuan signifikan dalam efisiensi daya berkat teknologi proses Intel 4. Selain itu, ia menawarkan grafis Intel Arc bawaan dengan kinerja grafis tingkat diskrit.

Strategi Terbaru

Baru-baru ini, Informasi melaporkan bahwa Intel memiliki pengaturan strategis baru dan bekerja sama dengan sejumlah perusahaan konsultan untuk membangun aplikasi mirip ChatGPT bagi pelanggan yang tidak memiliki pengetahuan khusus. Proyek ini diluncurkan awal tahun ini dalam kemitraan dengan Boston Consulting Group, dan akan didirikan dengan perusahaan konsultan lain dari waktu ke waktu. **

Selain itu, Intel berencana untuk menjual aplikasi To B langsung ke pelanggan perusahaan.

Namun, sebagian besar pelanggan AI saat ini membeli layanan model bahasa besar dari perusahaan seperti OpenAI. Namun, Intel ingin bekerja dengan perusahaan konsultan besar untuk membantu pelanggan menemukan model yang tepat untuk kebutuhan spesifik mereka.

Secara khusus, Intel mengembangkan perangkat lunak yang membantu pelanggan dengan penyetelan model. Ini memungkinkan pelanggan untuk mengembangkan aplikasi seperti ChatGPT mereka sendiri dan alat pencarian yang didukung AI. Namun, Intel belum sepenuhnya mengumumkan fitur, manfaat, serta biaya dan harga spesifik dari layanan ini, dan diperkirakan akan diumumkan secara resmi dalam beberapa bulan mendatang.

**Tindakan Intel sepenuhnya menunjukkan pentingnya kecerdasan buatan sebagai tata letak strategis di perusahaan teknologi. Keterlibatan Intel dalam pengembangan perangkat lunak berarti bahwa pada saat ini, apakah pelanggan menggunakan chip Intel bukanlah yang paling penting. Berita itu juga mengatakan bahwa Intel berencana untuk mengarahkan beberapa pelanggan untuk menggunakan chip Intel Gaudi dan Xeon untuk mendorong LLM. Pada saat yang sama, Nvidia juga bekerja untuk membangun bisnis perangkat lunak AI yang signifikan, meskipun fokusnya adalah pada pelanggan yang sudah menggunakan prosesor grafisnya, yang mendominasi komputasi AI.

Tetapi ada satu tren yang menguntungkan Intel — mengurangi biaya dan meningkatkan efisiensi penting bagi semua orang: Setelah banyak perusahaan dengan cepat meluncurkan produk baru untuk membantu karyawan atau pelanggan meringkas konten rapat, mengotomatiskan pengkodean perangkat lunak, atau menghasilkan email untuk prospek, bisnis yang menggunakan alat ini di AS ingin mengurangi pengeluaran LLM.

Menurut The Information, pelanggan OpenAI besar awal mencari alternatif yang lebih murah, sementara Microsoft dalam beberapa kasus ingin menggunakan model AI open-source yang lebih sederhana dan lebih murah daripada OpenAI, yang lebih mahal untuk dijalankan. Seperti penyedia AI lainnya yang percaya diri di pasar, Intel kini dapat memperoleh manfaat dari pilihan kebutuhan model besar yang terus bertambah.

Namun, Intel masih harus bersaing dengan penyedia layanan cloud tradisional serta perusahaan konsultan kecil mapan yang membantu pelanggan dengan server cloud dan kecerdasan buatan. Penyedia layanan cloud seperti Microsoft, Amazon, dan Google ingin menyerap sebagian besar pengeluaran perusahaan yang terkait dengan AI LLM dengan menyewa server khusus untuk melatih dan menjalankan AI LLM (terutama karena Microsoft telah membuat beberapa kemajuan di bidang ini). Pada saat yang sama, Nvidia mencoba menempatkan dirinya di antara penyedia layanan cloud ini dan pelanggannya, menggunakan server bertenaga chip untuk menjalankan layanan cloud-nya sendiri.

Meskipun mungkin tampak sedikit terlambat, kekuatan Intel adalah "banyak uang dan mesin pemasaran yang kuat". **

Bibliografi:***

    • CEO Intel: 'Kami akan membangun AI ke dalam setiap platform yang kami bangun' -*
  • VergeAI Laggard Intel Memperluas Upaya untuk Membantu Perusahaan Membangun Aplikasi Mirip ChatGPT — Informasi
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)