Google đã chính thức ra mắt các phiên bản ổn định của mô hình AI Gemini 2.5 Pro và Gemini 2.5 Flash, cùng với việc giới thiệu phiên bản xem trước của Gemini 2.5 Flash-Lite siêu hiệu quả. Các mô hình này hiện đã có mặt trên ứng dụng Gemini, Google AI Studio và Vertex AI.
Trong nhiều tháng qua, Google đã liên tục phát triển và thử nghiệm công khai các phiên bản của gia đình mô hình AI Gemini 2.5. Hôm nay, công ty đã sẵn sàng đưa các phiên bản ổn định của Gemini 2.5 Pro và Gemini 2.5 Flash đến tay người dùng. Đây là một bước tiến quan trọng, khẳng định sự trưởng thành và độ tin cậy của các mô hình này.
Các mô hình này hiện đã khả dụng rộng rãi cho người dùng trong ứng dụng Gemini, cũng như trong Google AI Studio và Vertex AI.
Cùng với việc phát hành các phiên bản ổn định, Google cũng giới thiệu Gemini 2.5 Flash-Lite vào ngày 17 tháng 6. Phiên bản xem trước của Gemini 2.5 Flash-Lite hiện đã có sẵn để thử nghiệm. Đây là một lựa chọn mới hơn so với Gemini 2.0 Flash-Lite được ra mắt đầu năm nay.
Theo Google, Gemini 2.5 Flash-Lite là "mô hình 2.5 hiệu quả chi phí nhất và nhanh nhất của chúng tôi cho đến nay". Mô hình này được thiết kế đặc biệt để tối ưu hóa hiệu suất và giảm thiểu chi phí vận hành.
Biểu đồ so sánh hiệu suất và chi phí của các mô hình Gemini 2.5 Pro, Flash và Flash-Lite.
So với các mô hình Gemini 2.5 khác, Gemini 2.5 Flash-Lite tập trung hoàn toàn vào hiệu quả và cắt giảm chi phí. Mặc dù hiệu suất của nó không bằng Gemini 2.5 Pro hay Flash, nhưng nó vẫn giữ vững vị thế trong các bài kiểm tra benchmark.
Điều đáng chú ý là chi phí vận hành của Flash-Lite rẻ hơn đáng kể so với các mô hình Gemini 2.5 cao cấp hơn, điều này có thể rất hấp dẫn đối với các nhà phát triển và doanh nghiệp tìm kiếm giải pháp AI tối ưu về chi phí.
2.5 Flash Lite có chất lượng cao hơn toàn diện so với 2.0 Flash-Lite trên các tiêu chí về mã hóa, toán học, khoa học, suy luận và benchmark đa phương thức. Nó vượt trội trong các tác vụ khối lượng lớn, nhạy cảm về độ trễ như dịch thuật và phân loại, với độ trễ thấp hơn so với 2.0 Flash-Lite và 2.0 Flash trên một mẫu lớn các lời nhắc.
Đối với người dùng thông thường, các phiên bản ổn định của Gemini 2.5 Pro và Flash hiện đã có sẵn ở bất kỳ đâu bạn có thể tìm thấy Gemini.
Điều này bao gồm ứng dụng di động Gemini trên cả iOS và Android, Google AI Studio và Vertex AI.
Việc các mô hình đạt trạng thái ổn định và khả dụng rộng rãi mang lại sự tin cậy cao hơn cho các nhà phát triển và người dùng.
Các phiên bản này đã trải qua quá trình thử nghiệm kỹ lưỡng, đảm bảo hiệu suất tối ưu và ít lỗi hơn, giúp việc tích hợp và sử dụng trở nên mượt mà.
Với chi phí thấp hơn đáng kể và hiệu quả cao, Flash-Lite là lựa chọn lý tưởng cho các ứng dụng đòi hỏi xử lý lượng lớn dữ liệu hoặc các tác vụ lặp lại mà không muốn chịu gánh nặng chi phí lớn.
Điều này mở ra cơ hội cho các nhà phát triển tạo ra các ứng dụng AI quy mô lớn hơn, hoặc tích hợp AI vào các quy trình hiện có với chi phí hợp lý.
Việc liên tục cập nhật và giới thiệu các mô hình mới như Gemini 2.5 Flash-Lite cho thấy cam kết của Google trong việc mở rộng khả năng của AI và đưa công nghệ này đến gần hơn với mọi người.
Sự đa dạng về hiệu suất và chi phí của các mô hình Gemini 2.5 hứa hẹn sẽ đáp ứng nhu cầu đa dạng của cả người dùng cuối và cộng đồng nhà phát triển AI.
Sự ra mắt các phiên bản ổn định của Gemini 2.5 Pro và Flash, cùng với sự xuất hiện của Gemini 2.5 Flash-Lite, đánh dấu một cột mốc quan trọng trong quá trình phát triển AI của Google.
Với hiệu suất mạnh mẽ, chi phí tối ưu và khả năng tiếp cận rộng rãi, các mô hình Gemini 2.5 hứa hẹn sẽ mang lại nhiều ứng dụng đột phá trong tương lai, phục vụ cả người dùng phổ thông lẫn các nhà phát triển chuyên nghiệp.