Panduan AI: Sekilas konsep kunci dan pemain top di AI

Sumber: Techcrunch

Kompilasi: Babbitt

Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas

Kecerdasan buatan (AI) tampaknya ada di setiap sudut kehidupan modern, mulai dari musik dan media hingga bisnis dan produktivitas, bahkan kencan. Ada begitu banyak hal yang sulit untuk dipertahankan. Artikel ini akan mencakup semuanya, mulai dari perkembangan besar terbaru dalam AI hingga persyaratan dan perusahaan yang perlu Anda ketahui untuk tetap mengikuti perkembangan terkini di bidang yang bergerak cepat ini.

Pertama, apa itu kecerdasan buatan?

Kecerdasan buatan, juga dikenal sebagai pembelajaran mesin, adalah sistem perangkat lunak berdasarkan jaringan saraf, sebuah teknik yang sebenarnya dirintis beberapa dekade lalu, tetapi baru-baru ini berkembang berkat sumber daya komputasi baru yang kuat. Saat ini, AI telah mencapai pengenalan ucapan dan gambar yang efektif, serta kemampuan untuk menghasilkan gambar dan ucapan sintetik. Para peneliti bekerja untuk membuat kecerdasan buatan mampu menjelajahi web, memesan tiket, mengubah resep, dan lainnya.

Tetapi jika Anda khawatir tentang munculnya mesin-mesin Matrix - jangan khawatir. Kita akan membicarakannya nanti!

Panduan untuk AI ini terdiri dari dua bagian utama:

  • Pertama, konsep paling dasar yang perlu Anda pahami dan konsep penting terbaru.
  • Lalu, uraikan pemain utama dalam AI dan mengapa mereka penting.

AI 101

Kredit gambar: Andrii Shyp/Getty Images

Salah satu hal gila tentang AI adalah bahwa, meskipun konsep intinya sudah ada sejak lebih dari 50 tahun yang lalu, hingga baru-baru ini hanya sedikit orang yang paham teknologi yang mengetahui konsepnya. Jadi jangan khawatir jika Anda merasa tersesat -- semua orang.

Mari kita perjelas satu hal di muka: Meskipun disebut "kecerdasan buatan", istilah ini agak menyesatkan. Saat ini tidak ada definisi terpadu tentang kecerdasan, tetapi apa yang dilakukan sistem ini jelas lebih dekat dengan kalkulator daripada otak, kecuali input dan output kalkulator ini lebih fleksibel. AI mungkin seperti "Kelapa Buatan" - kecerdasan imitasi.

Berikut ini adalah istilah-istilah dasar yang akan Anda temukan dalam setiap diskusi tentang AI.

Jaringan Neural

Otak kita sebagian besar terdiri dari sel-sel yang saling berhubungan yang disebut neuron yang menyatu untuk membentuk jaringan kompleks yang melakukan tugas dan menyimpan informasi. Orang-orang telah mencoba membuat ulang sistem luar biasa ini dalam perangkat lunak sejak tahun 1960-an, tetapi kekuatan pemrosesan yang diperlukan tidak tersedia secara luas hingga 15-20 tahun yang lalu, ketika GPU memungkinkan jaringan saraf yang ditentukan secara numerik berkembang.

Pada dasarnya, mereka hanyalah banyak titik dan garis: titik adalah datanya, dan garis adalah hubungan statistik antara nilai tersebut. Seperti di otak, ini dapat membuat sistem multifungsi yang dengan cepat menerima masukan, meneruskannya melalui jaringan, dan menghasilkan keluaran. Sistem ini disebut model.

Model

Model adalah kumpulan kode aktual yang mengambil input dan mengembalikan output. Kesamaan terminologi dengan model statistik, atau sistem pemodelan yang mensimulasikan proses alam yang kompleks, bukanlah kebetulan. Dalam AI, model dapat merujuk ke sistem lengkap seperti ChatGPT, atau hampir semua konstruksi AI atau pembelajaran mesin, apa pun yang dilakukan atau dihasilkannya. Model tersedia dalam berbagai ukuran, yang berarti berapa banyak ruang penyimpanan yang digunakan dan berapa banyak daya komputasi yang diperlukan untuk menjalankannya. Dan itu semua tergantung pada bagaimana model itu dilatih.

kereta

Untuk membuat model AI, jaringan saraf yang membentuk dasar sistem diekspos ke sekumpulan informasi yang disebut kumpulan data, atau korpus. Dengan demikian, jaringan yang luas ini membuat representasi statistik dari data tersebut. Proses pelatihan ini adalah yang paling intensif secara komputasi, artinya membutuhkan waktu berminggu-minggu atau berbulan-bulan pada komputer besar dan bertenaga tinggi. Alasannya bukan hanya karena jaringannya kompleks, tetapi kumpulan datanya bisa sangat besar: miliaran kata atau gambar harus dianalisis dan direpresentasikan dalam model statistik yang sangat besar. Di sisi lain, setelah model dilatih, model tersebut dapat digunakan jauh lebih kecil dan tidak terlalu menuntut, sebuah proses yang disebut inferensi.

Kredit gambar: Google

Inferensi

Ketika model benar-benar berfungsi, kami menyebutnya inferensi, dan arti tradisional dari kata tersebut sangat banyak: menyatakan kesimpulan dengan penalaran tentang bukti yang tersedia. Tentu saja, ini bukan "inferensi", tetapi secara statistik menghubungkan titik-titik dalam data yang diserapnya, benar-benar memprediksi titik berikutnya. Misalnya, ucapkan "selesaikan urutan berikut: merah, jingga, kuning..." kata ini akan menemukan bahwa kata-kata ini sesuai dengan awal daftar yang diserapnya, yaitu warna pelangi, dan mengekstrapolasi item berikutnya hingga memiliki menghasilkan sisa bagian daftar.

Inferensi biasanya jauh lebih murah secara komputasi daripada pelatihan: anggap saja seperti menjelajahi katalog kartu daripada merakitnya. Model besar masih harus dijalankan di superkomputer dan GPU, tetapi model yang lebih kecil dapat dijalankan di smartphone atau perangkat yang lebih sederhana.

Kecerdasan Buatan Generatif

Semua orang berbicara tentang AI generatif, istilah luas yang merujuk pada model AI yang menghasilkan keluaran mentah seperti gambar atau teks. Beberapa AI meringkas, beberapa mengatur ulang, beberapa mengenali, dan seterusnya—tetapi AI yang benar-benar menghasilkan sesuatu (apakah itu "menciptakan" masih bisa diperdebatkan) sangat populer saat ini. Ingat, hanya karena AI menghasilkan sesuatu, tidak berarti itu benar, atau bahkan mencerminkan kenyataan! Hanya saja tidak ada sampai diminta, seperti cerita atau lukisan.

Kata-kata panas sekarang

Di luar dasar-dasarnya, berikut adalah istilah AI yang paling relevan untuk pertengahan tahun 2023.

Model Bahasa Besar (LLM)

Model bahasa skala besar adalah bentuk kecerdasan buatan yang paling berpengaruh dan banyak digunakan saat ini. Model bahasa skala besar dilatih di hampir semua teks yang membentuk web dan sebagian besar literatur dalam bahasa Inggris. Menelan semua ini menghasilkan model dasar yang sangat besar (baca terus). LLM mampu berbicara dan menjawab pertanyaan dalam bahasa alami dan meniru dokumen tertulis dari berbagai gaya dan jenis, sebagaimana dibuktikan oleh alat seperti ChatGPT, Claude, dan LLaMa.

Sementara model-model ini tidak diragukan lagi mengesankan, harus diingat bahwa mereka masih merupakan mesin pengenalan pola, dan ketika mereka menjawab pertanyaan, mereka mencoba melengkapi pola yang telah diidentifikasi, apakah pola itu mencerminkan kenyataan atau tidak. LLM sering berhalusinasi dalam jawaban mereka, seperti yang akan segera kita bahas.

Jika Anda ingin tahu lebih banyak tentang LLM dan ChatGPT, klik di sini.

Model Fondasi

Melatih model besar dari awal pada kumpulan data besar itu mahal dan rumit, jadi Anda tidak ingin melakukan lebih dari yang seharusnya. Model dasar adalah model besar dari awal yang membutuhkan superkomputer untuk dijalankan, tetapi seringkali dengan mengurangi jumlah parameter, model tersebut dapat dikurangi menjadi wadah yang lebih kecil. Anda dapat menganggap ini sebagai jumlah total poin yang harus ditangani model, yang dapat mencapai jutaan, miliaran, atau bahkan triliunan saat ini.

mencari setelan

Model dasar seperti GPT-4 cerdas, tetapi juga merupakan desain generalis - model ini menyerap segalanya mulai dari Dickens hingga Wittgenstein hingga aturan Dungeons and Dragons, tetapi jika Anda ingin itu didasarkan pada Resume Anda, tulis surat lamaran, ini tidak berguna. Untungnya, penyempurnaan model dapat dilakukan dengan melakukan beberapa pelatihan tambahan pada model menggunakan kumpulan data khusus. Misalnya, kebetulan ada beberapa ribu lamaran pekerjaan. Ini memberi model pemahaman yang lebih baik tentang cara membantu pengguna di domain tersebut tanpa membuang pengetahuan umum yang diperolehnya dari data pelatihan lainnya.

Pembelajaran Penguatan dari Umpan Balik Manusia (RLHF), adalah jenis penyesuaian khusus yang akan sering Anda dengar — ini menggunakan data dari manusia yang berinteraksi dengan LLM untuk meningkatkan keterampilan komunikasi mereka.

Difusi

*Dari makalah tentang teknik pasca-difusi tingkat lanjut, Anda dapat melihat cara mereproduksi gambar dari data yang sangat bising. *

Pembuatan gambar dapat dilakukan dengan beberapa cara, tetapi sejauh ini yang paling berhasil adalah difusi, teknik inti dari Difusi Stabil, Perjalanan Tengah, dan AI generatif populer lainnya. Model difusi dilatih dengan menunjukkan gambar yang secara bertahap terdegradasi dengan menambahkan noise digital hingga tidak ada lagi yang tersisa dari gambar aslinya. Dengan mengamati ini, model difusi juga belajar untuk melakukan proses secara terbalik, secara bertahap menambahkan detail ke noise murni untuk membentuk gambar yang ditentukan secara arbitrer. Kami sudah mulai bergerak lebih dari itu dalam grafik, tetapi teknologinya solid dan relatif mudah dipahami, jadi itu akan mati dengan cepat.

Halusinasi

Awalnya ini adalah masalah dari beberapa gambar dalam pelatihan yang tergelincir ke dalam keluaran yang tidak relevan, misalnya bangunan yang tampaknya terbuat dari anjing karena terlalu banyaknya gambar anjing di set pelatihan. AI sekarang dikatakan berhalusinasi karena tidak memiliki data yang cukup atau bertentangan dalam set pelatihannya, itu hanya mengada-ada.

AI yang diminta untuk membuat seni asli atau bahkan turunan adalah berhalusinasi. Misalnya, LLM dapat diminta untuk menulis puisi cinta dengan gaya Yogi Berra, dan dengan senang hati akan melakukannya—meskipun hal seperti itu tidak ada dalam kumpulan datanya. Tapi itu bisa menjadi masalah ketika jawaban faktual diperlukan; model tersebut dengan percaya diri akan menyajikan respons setengah nyata, setengah ilusi. Saat ini tidak ada cara mudah untuk mengetahui mana yang mana selain memeriksanya sendiri, karena model itu sendiri sebenarnya tidak tahu apa yang "benar" atau "salah", itu hanya mencoba menyelesaikan pola sebaik mungkin.

AGI atau Kecerdasan Buatan yang Kuat

Kecerdasan Umum Buatan (AGI), atau Kecerdasan Buatan Kuat, sebenarnya bukan konsep yang terdefinisi dengan baik, tetapi penjelasan paling sederhana adalah bahwa ini adalah kecerdasan yang cukup kuat tidak hanya untuk melakukan apa yang dilakukan orang lain, tetapi juga untuk menjadi seperti kita. Belajar dan tingkatkan dirimu sendiri. Beberapa orang khawatir bahwa siklus pembelajaran ini, mengintegrasikan ide-ide ini, dan kemudian belajar dan tumbuh lebih cepat akan menjadi siklus yang mengabadikan diri sendiri yang akan mengarah pada sistem superintelijen yang tidak dapat dibatasi atau dikendalikan. Beberapa bahkan mengusulkan untuk menunda atau membatasi studi untuk mencegah kemungkinan ini.

Itu pemikiran yang buruk. Dan film seperti The Matrix dan The Terminator telah mengeksplorasi apa yang mungkin terjadi jika kecerdasan buatan lepas kendali dan mencoba memusnahkan atau memperbudak umat manusia. Tapi kisah-kisah ini tidak didasarkan pada kenyataan. Penampilan kecerdasan yang kita lihat dalam hal-hal seperti ChatGPT sangat mengesankan, tetapi memiliki sedikit kesamaan dengan penalaran abstrak dan aktivitas multidomain dinamis yang kita kaitkan dengan kecerdasan "nyata".

Meskipun memprediksi perkembangan masa depan hampir tidak mungkin, akan sangat membantu untuk membayangkan AGI sebagai perjalanan ruang angkasa antarbintang: kita semua memahami konsep tersebut dan tampaknya sedang bekerja untuk itu, tetapi pada saat yang sama, jalan kita masih panjang untuk mencapainya. dia. Sama seperti AGI, tidak ada yang akan melakukannya secara tidak sengaja karena sumber daya yang sangat besar dan kemajuan ilmiah dasar yang dibutuhkan!

Menyenangkan memikirkan AGI, tetapi tidak perlu mencari masalah karena, seperti yang telah ditunjukkan oleh komentator, terlepas dari keterbatasannya, AI sudah menjadi ancaman nyata dan signifikan saat ini. Tidak ada yang menginginkan Skynet, tetapi Anda tidak memerlukan kecerdasan super bersenjata nuklir untuk melakukan kerusakan nyata: Orang-orang kehilangan pekerjaan dan ditipu hari ini. Jika kita tidak bisa menyelesaikan masalah ini, peluang apa yang kita miliki melawan T-1000?

Pemain Top dalam Kecerdasan Buatan

OpenAI

Kredit gambar: Gambar Leon Neal/Getty

Jika ada satu nama rumah tangga di AI, itu adalah OpenAI. OpenAI, seperti namanya, adalah organisasi yang bermaksud melakukan penelitian dan membuat hasilnya kurang lebih tersedia untuk umum. Sejak itu telah direstrukturisasi menjadi perusahaan nirlaba yang lebih tradisional yang menyediakan akses ke model bahasa tingkat lanjut seperti ChatGPT melalui API dan aplikasi. Ini dipimpin oleh Sam Altman, seorang tekno-miliarder yang tetap membunyikan alarm tentang kemungkinan risiko kecerdasan buatan. OpenAI adalah pemimpin yang diakui di bidang LLM, tetapi juga melakukan penelitian di bidang lain.

microsoft

Seperti yang Anda duga, Microsoft telah melakukan penelitian AI yang adil, tetapi seperti perusahaan lain, kurang lebih gagal menerjemahkan eksperimennya menjadi produk utama. Langkah paling cerdasnya adalah investasi awal di OpenAI, yang menghasilkan kemitraan jangka panjang eksklusif dengan perusahaan yang sekarang mendukung agen percakapan Bing-nya. Meskipun kontribusinya sendiri lebih kecil dan kurang dapat diterapkan secara langsung, perusahaan tersebut memiliki otot penelitian yang cukup besar.

Google

Dikenal karena moonshot-nya, Google entah bagaimana melewatkan kesempatan untuk AI, meskipun para penelitinya menemukan teknologi yang secara langsung mengarah pada ledakan AI saat ini: Transformers. Sekarang mencoba mengembangkan LLM sendiri dan agen lainnya, tetapi jelas mengejar ketinggalan setelah menghabiskan sebagian besar dekade terakhir mendorong konsep AI "asisten virtual" yang sudah ketinggalan zaman. CEO Sundar Pichai telah berulang kali mengatakan bahwa perusahaan berada di belakang AI dalam pencarian dan produktivitas.

Antropik

Setelah kepergian OpenAI dari keterbukaan, Dario dan Daniela Amodei meninggalkannya untuk memulai Anthropic, berniat untuk mengisi peran sebagai organisasi penelitian AI yang terbuka dan penuh perhatian secara etis. Dengan jumlah uang tunai yang mereka miliki, mereka adalah pesaing serius OpenAI, bahkan jika model mereka (seperti Claude) belum begitu populer atau terkenal.

Kredit gambar: Bryce Durbin/TechCrunch

Stabilitas

Kontroversial tetapi tidak dapat dihindari, Stabilitas mewakili genre sumber terbuka dari implementasi AI "apa pun yang Anda inginkan" yang mengumpulkan semua yang ada di internet dan membuat model AI generatif yang dilatihnya tersedia secara gratis, asalkan Anda memiliki perangkat keras untuk menjalankannya. Ini sangat cocok dengan filosofi "informasi ingin bebas", tetapi juga mempercepat proyek-proyek yang meragukan secara etis seperti menghasilkan gambar-gambar porno dan menggunakan kekayaan intelektual tanpa persetujuan (terkadang secara bersamaan).

###Elon Musk

Tidak terkecuali Musk, blak-blakan tentang kekhawatirannya tentang AI yang tidak terkendali, dan beberapa kesalahan setelah kontribusi awalnya pada OpenAI mengarah ke arah yang tidak dia sukai. Meskipun Musk bukan ahli dalam masalah ini, seperti biasa, kejenakaan dan komentarnya mendapatkan banyak desas-desus (dia menandatangani surat "jeda AI" yang disebutkan di atas), dan dia mencoba membangun kehadiran penelitiannya sendiri.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate.io
Komunitas
Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)