Together AI nâng cấp nền tảng Fine-Tuning với hỗ trợ Vision và Reasoning
Joerg Hiller 18:27 18/03/2026 (Giờ VN)
Together AI bổ sung tính năng gọi công cụ, dấu vết lập luận và tinh chỉnh ngôn ngữ thị giác vào nền tảng của mình, với mức tăng thông lượng 6 lần cho các mô hình có hơn 100 tỷ tham số.
Together AI đã triển khai một bản mở rộng lớn cho dịch vụ tinh chỉnh của mình vào ngày 18 tháng 3, bổ sung hỗ trợ gốc cho tính năng gọi công cụ, dấu vết lập luận và các mô hình ngôn ngữ thị giác—những khả năng giải quyết các điểm đau dai dẳng cho các nhóm xây dựng hệ thống AI sản xuất.
Bản cập nhật xuất hiện khi công ty được cho là đang đàm phán vòng gọi vốn có thể định giá công ty ở mức 7,5 tỷ USD, tăng hơn gấp đôi so với mức định giá 3,3 tỷ USD từ vòng Series B tháng 2 năm 2025.
Những gì thực sự mới
Nền tảng hiện xử lý ba loại tinh chỉnh mà trước đây yêu cầu các giải pháp thay thế rời rạc:
Gọi công cụ nhận được hỗ trợ từ đầu đến cuối bằng cách sử dụng các lược đồ tương thích với OpenAI. Hệ thống xác thực rằng mọi lệnh gọi công cụ trong dữ liệu huấn luyện đều khớp với các hàm đã khai báo trước khi bắt đầu huấn luyện—một biện pháp bảo vệ chống lại các tham số ảo tưởng và sự không khớp lược đồ gây ra vấn đề cho các quy trình làm việc tác nhân.
Tinh chỉnh lập luận cho phép các nhóm huấn luyện mô hình trên các dấu vết tư duy theo lĩnh vực cụ thể bằng cách sử dụng trường reasoning_content chuyên dụng. Điều này quan trọng vì các định dạng lập luận khác nhau rất nhiều giữa các họ mô hình, khiến việc huấn luyện nhất quán trở nên khó khăn nếu không có tiêu chuẩn hóa.
Tinh chỉnh ngôn ngữ thị giác hỗ trợ các bộ dữ liệu kết hợp trộn lẫn các ví dụ hình ảnh-văn bản và chỉ văn bản. Theo mặc định, bộ mã hóa thị giác vẫn đóng băng trong khi các lớp ngôn ngữ được cập nhật, mặc dù các nhóm có thể kích hoạt huấn luyện kết hợp khi khả năng nhận dạng mẫu trực quan cần cải thiện.
Nâng cấp cơ sở hạ tầng
Ngoài các khả năng mới, Together AI tuyên bố có những cải thiện hiệu suất đáng kể từ việc tối ưu hóa ngăn xếp huấn luyện của mình cho các kiến trúc mixture-of-experts. Công ty đã tích hợp các kernel SonicMoE chồng chéo các thao tác bộ nhớ với tính toán, cùng với các kernel CUDA tùy chỉnh để tính toán loss.
Kết quả khác nhau tùy theo kích thước mô hình: các mô hình nhỏ hơn thấy cải thiện thông lượng khoảng 2 lần, trong khi các kiến trúc lớn hơn như Kimi-K2 đạt mức tăng 6 lần. Nền tảng hiện xử lý các bộ dữ liệu lên đến 100GB và các mô hình vượt quá 100 tỷ tham số.
Các mô hình mới có sẵn để tinh chỉnh bao gồm các biến thể Qwen 3.5 (lên đến 397 tỷ tham số), Kimi K2 và K2.5, cùng GLM-4.6 và 4.7.
Các bổ sung thực tế
Bản cập nhật bao gồm ước tính chi phí trước khi thực thi công việc và theo dõi tiến độ trực tiếp với ước tính hoàn thành động—những tính năng nghe có vẻ cơ bản nhưng ngăn chặn những bất ngờ về ngân sách khiến việc thử nghiệm trở nên rủi ro.
XY.AI Labs, được Together AI trích dẫn như một ví dụ khách hàng, báo cáo đã chuyển từ chu kỳ lặp hàng tuần sang hàng ngày trong khi giảm chi phí 2-3 lần và cải thiện độ chính xác từ 77% lên 87% bằng cách sử dụng các API tinh chỉnh và triển khai của nền tảng.
Bối cảnh thị trường
Thời điểm này phù hợp với sự tăng vốn chi tiêu cơ sở hạ tầng AI. Vốn đầu tư cho công ty khởi nghiệp trong lĩnh vực AI đạt 220 tỷ USD trong hai tháng đầu năm 2026, theo các báo cáo gần đây, với phần lớn vốn đó chảy vào cơ sở hạ tầng huấn luyện và suy luận.
Together AI định vị mình là một lựa chọn thay thế cho việc xây dựng cơ sở hạ tầng AI nội bộ, cung cấp quyền truy cập vào hơn 200 mô hình mã nguồn mở thông qua nền tảng của mình. Đề xuất của công ty—loại bỏ sự phức tạp của cơ sở hạ tầng để các nhóm có thể tập trung vào phát triển sản phẩm—hiện mở rộng sang các quy trình sau huấn luyện ngày càng tinh vi mà trước đây là lĩnh vực của các phòng nghiên cứu có nguồn lực tốt.
Nguồn hình ảnh: Shutterstock- together ai
- cơ sở hạ tầng ai
- tinh chỉnh
- machine learning
- enterprise ai



