Theo dõi từ 1M AI News, đồng sáng lập của OpenAI, Greg Brockman, trong một cuộc phỏng vấn đã nhìn lại sự cải thiện nhảy vọt về năng lực lập trình bằng AI vào tháng 12 năm 2025. Ông đã dùng một lời nhắc thử nghiệm mà ông đã giữ lại trong nhiều năm để đo lường tiến bộ: yêu cầu AI xây dựng một trang web mà lúc ông học lập trình năm đó phải mất vài tháng mới hoàn thành. Trong suốt năm 2025, nhiệm vụ này cần nhiều vòng gợi ý và khoảng bốn giờ mới làm xong; đến tháng 12, chỉ với một lần gợi ý là hoàn thành, và chất lượng rất tốt. Ông cho biết mô hình mới giúp AI chuyển từ “làm được khoảng 20% nhiệm vụ” sang “khoảng 80%”, và bước nhảy này buộc tất cả mọi người “phải tổ chức lại quy trình làm việc xoay quanh AI”.
Đối với hướng đi của khoản tài trợ 110 tỷ USD, Brockman ví việc tính toán như “tuyển thêm nhân viên bán hàng”: chỉ cần sản phẩm có kênh bán hàng có thể mở rộng theo quy mô, tuyển càng nhiều nhân viên bán hàng thì doanh thu càng tăng. Tài nguyên tính toán không phải là trung tâm chi phí mà là trung tâm tạo doanh thu. Ông nhớ lại cuộc trò chuyện với đội ngũ ngay trước khi ChatGPT ra mắt: “Họ hỏi ‘chúng ta nên mua bao nhiêu năng lực tính toán?’ Tôi nói ‘tất cả’. Họ nói ‘không không không, nghiêm túc— rốt cuộc nên mua bao nhiêu?’ Tôi nói ‘Dù chúng ta xây dựng thế nào cũng không theo kịp nhu cầu.’” Nhận định đó vẫn đúng cho đến tận bây giờ, và việc mua sắm năng lực tính toán cần phải khóa trước 18 đến 24 tháng.
Về cách sử dụng các năng lực tính toán này, Brockman tiết lộ rằng OpenAI không còn chỉ đơn thuần theo đuổi quy mô tiền huấn luyện lớn nhất nữa, mà coi năng lực tiền huấn luyện và chi phí suy luận như những mục tiêu được tối ưu hóa chung: “Bạn không nhất định phải làm càng lớn càng tốt, vì bạn còn phải cân nhắc rất nhiều tình huống sử dụng suy luận ở khâu hạ nguồn; thứ bạn thực sự muốn là bài toán tối ưu của trí tuệ nhân với chi phí.” Nhưng ông cũng phản đối rõ ràng quan điểm “tiền huấn luyện không còn quan trọng”, cho rằng mô hình nền tảng càng thông minh thì hiệu suất của các giai đoạn học tăng cường và suy luận tiếp theo càng cao, và vẫn “tuyệt đối cần” GPU của NVIDIA để hỗ trợ huấn luyện tập trung quy mô lớn.