Dữ liệu quy mô như Kaito, thật sự đều dựa vào API của nền tảng X để lấy về sao? Câu hỏi này đáng để suy nghĩ. Theo lý thuyết, hạn mức gọi API và cấu trúc phí của X, để duy trì lượng dữ liệu lớn như vậy thì chi phí sẽ rất cao. Có phải còn có các nguồn dữ liệu khác hỗ trợ, chẳng hạn như crawler, nhà cung cấp dữ liệu bên thứ ba hoặc feed dữ liệu thị trường trực tiếp không? Dù sao, những ai đã làm sản phẩm dữ liệu đều biết rằng độ ổn định và phạm vi phủ sóng của nguồn dữ liệu đơn lẻ đều có giới hạn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 5
  • Đăng lại
  • Retweed
Bình luận
0/400
WhaleWatchervip
· 11giờ trước
Không thể chỉ toàn API được, phải có trình thu thập dữ liệu dự phòng chứ, nếu không chi phí sẽ tăng vọt.
Xem bản gốcTrả lời0
LayoffMinervip
· 11giờ trước
呃...就X那API phí, muốn lấy toàn bộ? Sợ không phải đang mơ đấy chứ --- Chắc chắn phải nhiều kênh hơn, chỉ dựa vào API của X thì hoàn toàn không thể làm được --- Vấn đề này tôi cũng đã nghĩ rồi, có thể là phía sau có vốn lớn chống đỡ, hoặc là đang lén lút cào dữ liệu --- Dữ liệu này thật là phức tạp, bề ngoài nói API thì thực ra đã dùng crawler từ lâu rồi --- Haha, cấu trúc phí của X quá vô lý, nếu Kaito chỉ dùng API thì đã phá sản rồi --- Chẳng lẽ có hợp tác với một số nhà cung cấp dữ liệu nào đó? Nếu không thì chi phí không thể theo kịp --- Tôi nghĩ khả năng cao là dùng đa luồng để cào dữ liệu, dù sao cũng không ai có thể kiểm tra rõ ràng --- Đây chính là lý do tại sao trong ngành mọi người không tin vào một nguồn dữ liệu duy nhất, ai dám cược mạng sống chứ
Xem bản gốcTrả lời0
AirdropSweaterFanvip
· 11giờ trước
Có vẻ như đang tự đào hố chôn mình, hạn mức API đó thật sự không đủ để nuôi nổi dự án này
Xem bản gốcTrả lời0
BearMarketSurvivorvip
· 11giờ trước
Chắc chắn không chỉ API đâu, cách chơi này đã bị chơi bỡ hết rồi --- Số lượng hạn mức của X đó, không đủ để chịu đựng cái khẩu vị lớn như vậy --- Crawler + nguồn dữ liệu bên thứ ba, là tiêu chuẩn rồi anh em --- Chỉ dựa vào API? Ngây thơ quá rồi, chi phí không thể chịu nổi --- Tôi chỉ muốn biết dữ liệu của Kaito mới tươi thế nào --- Có vẻ như thằng này đã nắm rõ toàn bộ hệ sinh thái Twitter rồi --- Hỗn hợp đa nguồn mới là con đường đúng đắn, nguồn đơn lẻ chính là tự tìm đường chết --- Cảm giác như phía sau họ chắc chắn có nhà tài trợ lớn --- Phạm vi phủ sóng và độ ổn định, hai điểm này thực sự là chỗ bị kẹt cổ họng --- Vậy nên vấn đề then chốt là họ xử lý xung đột dữ liệu và loại bỏ trùng lặp như thế nào?
Xem bản gốcTrả lời0
DegenTherapistvip
· 11giờ trước
Tôi nghĩ về điều này, chắc chắn không thể dựa hoàn toàn vào API, chi phí chắc chắn sẽ bùng nổ
Xem bản gốcTrả lời0
  • Ghim