Tether, bộ phận dữ liệu và AI của họ, ngày 17 tháng 3 đã công bố bước đột phá công nghệ quan trọng, giới thiệu framework fine-tuning LoRA hỗ trợ kiến trúc BitNet (1-bit LLM) đầu tiên trên thế giới đa nền tảng. Công nghệ tích hợp vào QVAC Fabric này đã giảm đáng kể yêu cầu về bộ nhớ và tính toán, biến các mô hình có hàng tỷ tham số không còn là đặc quyền của GPU doanh nghiệp, mở ra khả năng huấn luyện “địa phương, hoàn toàn riêng tư” trên điện thoại và laptop thông thường.
(Thông tin tiền đề: Tether đầu tư vào Axiym mở rộng hạ tầng thanh toán: thúc đẩy USDT hòa nhập vào mạng lưới thanh toán toàn cầu tuân thủ quy định)
(Bổ sung nền tảng: Tether đầu tư chéo vào công nghệ AI về giấc ngủ! Dẫn đầu vòng gọi vốn 50 triệu USD cho Eight Sleep, định giá công ty lên tới 1,5 tỷ USD)
Mục lục bài viết
Chuyển đổi
Trong lĩnh vực trí tuệ nhân tạo (AI), huấn luyện các mô hình mạnh mẽ luôn được xem là “tiêu tốn tiền” điển hình, phụ thuộc nhiều vào hệ thống NVIDIA đắt đỏ hoặc sức mạnh đám mây. Tuy nhiên, gã khổng lồ stablecoin Tether đang cố gắng thay đổi quy tắc này bằng công nghệ. Ngày 17 tháng 3, bộ phận công nghệ của Tether là Tether Data đã chính thức công bố framework fine-tuning LoRA đa nền tảng đầu tiên hỗ trợ kiến trúc BitNet của Microsoft (1-bit LLM) cho nền tảng QVAC (QuantumVerse Automatic Computer).
Giá trị cốt lõi của công nghệ này nằm ở chỗ: nó cho phép các mô hình AI có quy mô “hàng tỷ tham số” (Billion-parameter) có thể học cá nhân hóa trực tiếp trên điện thoại của từng người dùng.
Bước đột phá này dựa trên kiến trúc BitNet 1-bit LLM do Microsoft phát triển. Nhờ tối ưu hóa bởi QVAC Fabric, dung lượng bộ nhớ và tải tính toán của mô hình BitNet đã giảm xuống mức cực thấp. Theo thông báo, framework này không chỉ hỗ trợ các GPU phổ biến của NVIDIA mà còn tương thích toàn diện với các chip của Intel, AMD, Apple M-series, cùng các GPU di động như Adreno (Android), Mali, và Apple Bionic.
Điều này có nghĩa là, AI vốn chỉ có thể chạy trong trung tâm dữ liệu giờ đây có thể được fine-tune bằng phương pháp “Low-Rank Adaptation (LoRA)” ngay trên điện thoại của bạn. Tether nhấn mạnh, công nghệ này giúp các thiết bị biên có thể xử lý các mô hình lớn gấp đôi so với các mô hình Q4 đã được lượng hóa truyền thống, thể hiện lợi thế về bộ nhớ cực kỳ rõ ràng.
Đội ngũ kỹ sư của Tether đã chia sẻ dữ liệu thử nghiệm đầy hứng khởi, thể hiện khả năng thực chiến của framework trên điện thoại hiện đại:
CEO của Tether, Paolo Ardoino, luôn nhấn mạnh: “Nếu bạn cần API key để dùng AI, thì nó không thực sự thuộc về bạn.” Triết lý cốt lõi của QVAC là “ưu tiên tại chỗ” (Local-first).
Thông qua framework BitNet LoRA, người dùng có thể để AI học trực tiếp từ email, ghi chú, tin nhắn của chính họ mà không cần tải dữ liệu lên đám mây. Điều này không chỉ xóa bỏ lo ngại về việc dữ liệu nhạy cảm bị lạm dụng mà còn phá vỡ độc quyền phát triển AI chỉ dành cho các tập đoàn lớn. Hiện tại, QVAC Fabric LLM đã được phát hành mã nguồn mở (giấy phép Apache 2.0), kèm theo các bộ điều hợp pre-trained trên Hugging Face, giúp các nhà phát triển toàn cầu bắt đầu cuộc cách mạng tính toán biên ngay lập tức.