AI New Intelligence Circle丨Daily Must Read: Chip AI Nvidia B100 sẽ được ra mắt vào năm tới, Tập đoàn kinh doanh thông tin thông minh Alibaba phát hành mô hình lớn quark

Tóm tắt: Tập đoàn kinh doanh thông tin thông minh Alibaba chính thức phát hành mô hình lớn quark tham số cấp 100 tỷ tự phát triển đầy đủ, sẽ được áp dụng cho tìm kiếm chung, y tế và sức khỏe, giáo dục và học tập, văn phòng làm việc và các kịch bản khác. Nvidia gần đây đã tiết lộ rằng GPU B100 kiến trúc Blackwell ra mắt vào năm 2024 sẽ đánh bại A100, H100 và H200 về điểm chuẩn hiệu suất suy luận GPT-3 175B và hiệu suất hiệu suất AI của nó sẽ cao hơn gấp đôi so với GPU H200 kiến trúc Hopper.

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Tin nóng:

**NVIDIA: B100 sẽ ra mắt vào năm tới, hiệu suất AI tốt hơn gấp đôi so với H200 **

Theo báo cáo của "Nhật báo Hội đồng Đổi mới Khoa học và Công nghệ" ngày 14/11, Nvidia mới đây đã tiết lộ rằng GPU B100 kiến trúc Blackwell ra mắt vào năm 2024 sẽ đánh bại A100, H100 và H200 về điểm chuẩn hiệu suất suy luận GPT-3 175B và hiệu suất hiệu suất AI của nó sẽ cao hơn gấp đôi so với GPU H200 kiến trúc Hopper. Thị trường kỳ vọng rằng Nvidia sẽ giao phó TSMC cho GPU OEM Blackwell với quy trình 3nm và Nvidia có kế hoạch đẩy thời gian sản xuất đến quý 2 năm 2024. GPU Blackwell sẽ là bộ tăng tốc HPC / AI đầu tiên của NVIDIA được thiết kế với chiplet.

**Tập đoàn kinh doanh thông tin thông minh Alibaba phát hành 100 tỷ tham số Quark Mô hình lớn **

Theo báo cáo của Financial Associated Press ngày 14/11, nhóm kinh doanh thông tin thông minh của Alibaba đã chính thức phát hành mô hình lớn quark tham số cấp 100 tỷ full-stack tự phát triển, sẽ được áp dụng cho tìm kiếm chung, y tế, giáo dục và học tập, văn phòng tại nơi làm việc và các kịch bản khác, và ứng dụng quark cũng sẽ được nâng cấp đầy đủ với sự trợ giúp của mô hình lớn này.

** Giám đốc điều hành OpenAI: Mô hình AI thế hệ tiếp theo GPT-5 đã được đào tạo và cần thêm dữ liệu **

Theo báo cáo của AI New Intelligence ngày 14/11, Giám đốc điều hành OpenAI Sam Altman mới đây đã tiết lộ thêm về các bước tiếp theo của OpenAI trong một cuộc phỏng vấn với FT. Altman cho biết công ty đang phát triển mô hình AI thế hệ tiếp theo, GPT-5. Nhưng ông không cam kết công bố lịch trình. Altman nói rằng điều này sẽ đòi hỏi nhiều dữ liệu hơn để đào tạo, sẽ đến từ các bộ dữ liệu có sẵn công khai trên internet cũng như dữ liệu độc quyền của công ty. OpenAI gần đây đã đưa ra lời kêu gọi cho các bộ dữ liệu quy mô lớn, đặc biệt là những bộ dữ liệu "không công khai và dễ dàng truy cập trên internet ngày nay", đặc biệt là các bài viết hoặc cuộc trò chuyện dài ở bất kỳ định dạng nào.

Altman cũng nói rằng để đào tạo các mô hình của mình, OpenAI, giống như hầu hết các công ty AI lớn khác, sử dụng chip H100 tiên tiến của Nvidia. Ông đề cập rằng đã có "căng thẳng nghiêm trọng" trong năm nay do tình trạng thiếu chip từ Nvidia. Tuy nhiên, khi các công ty khác như Google, Microsoft, AMD và Intel chuẩn bị phát hành chip AI đối thủ, sự phụ thuộc vào Nvidia có thể không kéo dài.

Ngoài ra, bất chấp thành công của người tiêu dùng OpenAI, Altman cho biết công ty tìm cách đạt được tiến bộ trong việc xây dựng trí tuệ nhân tạo nói chung. Ông lập luận rằng các mô hình ngôn ngữ lớn (LLM), các mô hình làm nền tảng cho ChatGPT, là "một trong những phần cốt lõi của việc xây dựng AGI, nhưng có nhiều phần khác trên nó." Ông cũng nhấn mạnh tầm quan trọng của ngôn ngữ như nén thông tin, một yếu tố mà ông tin rằng các công ty như Google DeepMind đang bỏ qua.

**Google và UC Berkeley ra mắt một cách tiếp cận AI tạo ra mới, "Mạng tạo ra idempotent", có thể tạo ra hình ảnh quang học trong một bước duy nhất **

Theo báo cáo của IT House ngày 14/11, Google mới đây đã hợp tác với Đại học California, Berkeley (UC Berkeley) để phát triển một phương pháp AI tạo mới có tên "Idempotent Generative Network (IGN)" có thể thay thế các mô hình khuếch tán.

Bao gồm các mạng đối nghịch sinh sản (GAN), mô hình khuếch tán và Mô hình nhất quán do OpenAI phát hành vào tháng Ba năm nay, các mô hình AI tạo ra chính thống hiện tại được tạo ra với các đầu vào như nhiễu ngẫu nhiên, bản phác thảo hoặc hình ảnh có độ phân giải thấp hoặc bị hỏng, được ánh xạ đến đầu ra (thường là hình ảnh tự nhiên) tương ứng với phân phối dữ liệu đích nhất định. Trong trường hợp mô hình khuếch tán, việc phân phối dữ liệu mục tiêu được học trong quá trình đào tạo và sau đó "khử nhiễu" được thực hiện theo nhiều bước.

Nhóm nghiên cứu của Google đã đưa ra một mô hình tạo mới gọi là Mạng thế hệ Idempotent (IGN) để tạo ra một hình ảnh phù hợp từ bất kỳ hình thức đầu vào nào, lý tưởng nhất là trong một bước duy nhất. Mô hình này có thể được coi là một loại "máy chiếu toàn cầu" chiếu bất kỳ dữ liệu đầu vào nào lên phân phối dữ liệu đích, không giống như các thuật toán mô hình hiện có khác và không giới hạn ở một đầu vào cụ thể.

** Mô hình lớn Yi mã nguồn mở "Zero One Everything" của công ty AI Kai-Fu Lee bị cáo buộc đạo nhái LLaMA**

Theo IT Home vào ngày 14 tháng 11, Kai-Fu Lee, Chủ tịch kiêm Giám đốc điều hành của Sinovation Works, đã thành lập công ty khởi nghiệp mô hình lớn AI "Zero One Everything" trong năm nay, đã ra mắt hai mô hình lớn mã nguồn mở là Yi-34 B và Yi-6 B, tuyên bố hoàn toàn mở cửa cho nghiên cứu học thuật và các ứng dụng thương mại miễn phí cùng một lúc. Tuy nhiên, trên trang chủ mã nguồn mở Hugging Face của Yi-34 B, nhà phát triển ehartford đặt câu hỏi rằng mô hình sử dụng kiến trúc của Meta LLaMA, chỉ có hai tên tensor được sửa đổi là input_layernorm và post_attention_layernorm.

Ngoài ra, có một nhóm bạn của Jia Yangqing, cựu nhà khoa học AI chính của Alibaba, lưu hành trên Internet ngày hôm nay, nói rằng "mô hình mới của một nhà sản xuất lớn trong nước chính xác là kiến trúc của LLaMA, nhưng để thể hiện sự khác biệt, danh pháp trong mã đã được thay đổi từ LLaMA thành tên của họ, và sau đó thay đổi tên của một số biến".

**Zero One Thing trả lời tranh cãi: Mô hình lớn được phát triển dựa trên cấu trúc trưởng thành của GPT và rất nhiều công việc đã được thực hiện dựa trên sự hiểu biết về mô hình và đào tạo **

Theo báo cáo của Nhật báo Ủy ban Đổi mới Khoa học và Công nghệ ngày 14/11, mô hình mã nguồn mở Zero One Everything của công ty AI Kai-Fu Lee bị cáo buộc sử dụng hoàn toàn kiến trúc LLaMA và chỉ sửa đổi tên của hai tensor. Về vấn đề này, Zero One Everything cho biết: GPT là một kiến trúc trưởng thành được ngành công nghiệp công nhận và Llama đã tóm tắt nó trên GPT. Thiết kế cấu trúc của mô hình R &D dựa trên cấu trúc trưởng thành của GPT, dựa trên những thành tựu công cộng hàng đầu của ngành, bởi vì sự phát triển của công nghệ mô hình lớn vẫn còn trong giai đoạn đầu, cấu trúc phù hợp với dòng chính của ngành có lợi hơn cho sự thích ứng tổng thể và lặp lại trong tương lai. Đồng thời, nhóm 0100000 World đã thực hiện rất nhiều công việc về sự hiểu biết về các mô hình và đào tạo, và cũng đang tiếp tục khám phá những đột phá thiết yếu ở cấp độ cấu trúc mô hình.

**Zhang Yueguang, người đứng đầu sản phẩm máy ảnh Miao Ya, đã từ chức và sự phổ biến của các ứng dụng AI nổi tiếng trên Internet đã hạ nhiệt **

Theo báo cáo của Tech Planet vào ngày 13 tháng 11, Zhang Yueguang, người đứng đầu sản phẩm máy ảnh Miao Ya thuộc Ali Da Entertainment, đã rời khỏi vị trí của mình và ông đã tham gia vào việc lên kế hoạch cho các dự án Lễ hội mùa xuân "Jiwufu" và "Xiuyixi" của Alipay, và đã làm việc tại Byte, Ali và các công ty khác.

Máy ảnh Miao Ya là một sản phẩm AIGC nằm ngoài vòng tròn ở cấp độ C-end, miễn là bạn tải lên hơn 20 bức ảnh có chứa khuôn mặt, trả 9,9 nhân dân tệ, sau đó chọn mẫu và hình dạng bạn thích, bạn có thể tạo "bản sao kỹ thuật số" của riêng mình, để có được một tác phẩm ảnh. Máy ảnh Miao Ya "thống trị" danh sách các sản phẩm ứng dụng trong một khoảng thời gian, nhưng thứ hạng sau đó đã giảm hết. Tính đến ngày 13/11, dữ liệu mới nhất từ Qimai cho thấy danh sách "xã hội" iOS của Miao Ya Camera đứng thứ 64. Hiện nay, làm thế nào để hình thành nhu cầu dài hạn cho các sản phẩm AIGC đã trở thành một bài toán khó ở cấp độ thị trường.

** Công ty khởi nghiệp AI Silo AI ra mắt mô hình ngôn ngữ mã nguồn mở "Poro" cho châu Âu, bao gồm 24 ngôn ngữ ở EU **

Silo AI, một công ty khởi nghiệp trí tuệ nhân tạo có trụ sở tại Helsinki, Phần Lan, trong tuần này đã phát hành một mô hình ngôn ngữ lớn mã nguồn mở mới "Poro" nhằm tăng cường khả năng AI đa ngôn ngữ của các ngôn ngữ châu Âu, VentureBeat đưa tin. Poro là mô hình mã nguồn mở đầu tiên trong kế hoạch cuối cùng bao gồm tất cả 24 ngôn ngữ chính thức của Liên minh châu Âu. Các mô hình được phát triển bởi SiloGen Generative AI Unit và nhóm nghiên cứu TurkuNLP tại Đại học Turku.

Với 34,2 tỷ thông số, mẫu Poro 34B được đặt tên theo từ tiếng Phần Lan có nghĩa là "tuần lộc". Nó được đào tạo trên một phân vùng của bộ dữ liệu đa ngôn ngữ trị giá 21 nghìn tỷ mã thông báo trải dài bằng tiếng Anh, tiếng Phần Lan và các ngôn ngữ lập trình như Python và Java.

Peter Sarlin, Giám đốc điều hành của Silo AI, cho biết Poro được thiết kế để giải quyết thách thức cốt lõi của việc đào tạo với hiệu suất vượt trội cho các ngôn ngữ tài nguyên thấp ở châu Âu, chẳng hạn như tiếng Phần Lan. Bằng cách tận dụng các phương pháp đào tạo đa ngôn ngữ, các mô hình có thể tận dụng dữ liệu từ các ngôn ngữ có nguồn lực cao, chẳng hạn như tiếng Anh.

Rakuten Group hợp tác với OpenAI để ra mắt nền tảng Rakuten AI for Business

Ngày 14/11, Rakuten Group công bố hợp tác chiến lược với OpenAI và ra mắt nền tảng trí tuệ nhân tạo mới, Rakuten AI for Business. Được biết, nền tảng này hỗ trợ nhiều chức năng kinh doanh thiết yếu, bao gồm tiếp thị, bán hàng, hỗ trợ khách hàng, hoạt động, lập kế hoạch chiến lược và kỹ thuật, và hiện chỉ có sẵn theo lời mời, với kế hoạch mở rộng phạm vi dịch vụ vào năm 2024 và hơn thế nữa.

Nghiên cứu: Các công ty AI đối mặt với khủng hoảng cạn kiệt dữ liệu đào tạo, dữ liệu chất lượng cao sẽ cạn kiệt vào năm 2026

Rita Matulionyte, giáo sư luật công nghệ thông tin tại Đại học Macquarie ở Úc, lưu ý trong một bài báo trên tạp chí The Conversation rằng các nhà nghiên cứu AI đã gióng lên hồi chuông cảnh báo về tình trạng thiếu nguồn cung dữ liệu trong gần một năm, theo báo cáo của Webmaster's House hôm 14/11. Theo một nghiên cứu của nhóm dự đoán trí tuệ nhân tạo của Epoch AI vào năm ngoái, các công ty AI có thể cạn kiệt dữ liệu đào tạo văn bản chất lượng cao vào năm 2026, trong khi dữ liệu văn bản và hình ảnh chất lượng thấp có thể cạn kiệt từ năm 2030 đến năm 2060.

Đối với các công ty AI đói dữ liệu, đào tạo với dữ liệu tổng hợp được tạo ra bởi các mô hình AI có thể không phải là một giải pháp khả thi. Nghiên cứu đã chỉ ra rằng việc đào tạo một mô hình AI để sử dụng nội dung do AI tạo ra có thể dẫn đến hiệu ứng biến dạng nội tại trong mô hình, làm cho đầu ra trở nên khó hiểu và kỳ quái. Đối mặt với vấn đề tiềm ẩn này, trừ khi có các trang trại nội dung con người quy mô lớn, giải pháp có thể nằm ở quan hệ đối tác dữ liệu. Điều này có nghĩa là các công ty hoặc tổ chức có dữ liệu chất lượng cao dồi dào tham gia vào các thỏa thuận với các công ty AI để trao đổi dữ liệu để đổi lấy tiền.

Kỳ lân công nghệ Việt VNG lên kế hoạch ra mắt dịch vụ AI giống ChatGPT

Công ty khởi nghiệp game Việt Nam VNG có kế hoạch ra mắt dịch vụ AI giống như ChatGPT được thiết kế riêng cho người dùng nói tiếng Việt, theo báo cáo của Nikkei Asia vào ngày 14 tháng 11. Kỳ lân công nghệ, được hỗ trợ bởi Tencent và Tập đoàn tài chính Ant của Alibaba, đã có một ứng dụng trò chuyện phổ biến hơn Facebook ở thị trường quê nhà và gần đây đã thêm tính năng dịch. VNG cho biết bước tiếp theo sẽ là bổ sung các khả năng do AI tạo ra cho phép người dùng làm mọi thứ từ soạn email đến tìm câu trả lời cho các truy vấn.

**Các nguồn tin cho biết OpenAI đang cố gắng săn trộm tài năng AI của Google bằng gói bồi thường 10 triệu đô la **

OpenAI đang trong cuộc chiến giành nhân tài với Google, công ty đang thu hút một số nhà nghiên cứu giỏi nhất của Google với các gói bồi thường hàng triệu đô la, cũng như các tài nguyên công nghệ hàng đầu như chip tăng tốc AI để chạy thử nghiệm, theo IT House, trích dẫn The Information.

AIGC Khuyến nghị đọc:

"Chip huấn luyện model mạnh nhất H200 được phát hành!Bộ nhớ lớn 141G, suy luận AI lên đến 90%, cũng tương thích với H100"

Nvidia Lao Huang bùng nổ một lần nữa với chip GPU thế hệ mới ** H200 **. Trang web chính thức cho biết: "GPU mạnh nhất thế giới, được xây dựng cho AI và siêu máy tính". Tôi nghe nói rằng tất cả các công ty AI đều phàn nàn về việc thiếu bộ nhớ? Lần này, bộ nhớ lớn trực tiếp 141GB, tăng trực tiếp 76% so với 80GB của H100. Là GPU đầu tiên được trang bị bộ nhớ HBM3e, băng thông bộ nhớ cũng đã được tăng từ 3,35TB/s lên 4,8TB/s, tăng 43%. Nó có ý nghĩa gì đối với AI?

"ChatGPT "Grok" của Musk, nó hoạt động như thế nào?

Hiện tại, Grok vẫn đang trong giai đoạn thử nghiệm sớm và chỉ có sẵn cho một số ít người dùng ở Hoa Kỳ và những người muốn tham gia cũng có thể đăng ký thông qua trang web xAI, nhưng trong tương lai gần, Grok sẽ có sẵn cho tất cả người dùng "X Premium +" trên nền tảng X. Vậy Grok có gì đặc biệt so với các trợ lý AI như ChatGPT?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)