Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Phân tích bài điều tra sâu của The New Yorker: Tại sao người trong OpenAI lại cho rằng Altman không đáng tin?
撰文:小饼,深潮 TechFlow
Vào mùa thu năm 2023, Giám đốc khoa học của OpenAI Ilya Sutskever ngồi trước máy tính, hoàn tất một tài liệu dài 70 trang.
Tài liệu này được tổng hợp từ các bản ghi tin nhắn trên Slack, hồ sơ trao đổi nhân sự (HR) và biên bản các cuộc họp nội bộ, chỉ để trả lời một câu hỏi: Sam Altman, người nắm trong tay có thể là công nghệ nguy hiểm nhất trong lịch sử loài người, rốt cuộc có thể được tin tưởng hay không?
Câu trả lời mà Sutskever đưa ra được viết ở dòng đầu tiên trang đầu tiên của tài liệu, tiêu đề danh sách là “Sam thể hiện một kiểu hành vi nhất quán…”
Mục đầu tiên: nói dối.
Hôm nay, hai năm rưỡi sau, nhà báo điều tra Ronan Farrow và Andrew Marantz đã đăng trên tờ《New Yorker》một bài điều tra cực dài. Phỏng vấn hơn 100 nhân vật liên quan, họ thu được các bản ghi nhớ nội bộ chưa từng được công bố trước đây, cùng với hơn 200 trang ghi chú cá nhân mà người sáng lập Anthropic Dario Amodei để lại trong thời gian ở OpenAI. Câu chuyện ghép lại từ những tài liệu này còn xấu xí hơn cả cuộc “đấu đá” năm 2023: OpenAI đã biến đổi từng bước từ một tổ chức phi lợi nhuận được lập ra vì sự an toàn của con người thành một cỗ máy thương mại như thế nào, và gần như mọi rào chắn an toàn đều do cùng một người tự tay tháo gỡ.
Kết luận trong ghi chú của Amodei còn thẳng thừng hơn: “Vấn đề của OpenAI là chính Sam.”
Thiết lập “nguyên tội” của OpenAI
Muốn hiểu mức độ nặng của bài báo này, trước hết phải nói rõ OpenAI đặc biệt đến mức nào.
Năm 2015, Altman và một nhóm tinh hoa công nghệ ở Thung lũng Silicon đã làm một việc gần như không có tiền lệ trong lịch sử kinh doanh: dùng một tổ chức phi lợi nhuận để phát triển một công nghệ có thể là mạnh nhất trong lịch sử loài người. Nhiệm vụ của ban giám đốc được viết rất rõ ràng: ưu tiên an toàn hơn cả sự thành công của công ty, thậm chí ưu tiên cả việc công ty có thể tồn tại hay không. Nói thẳng ra, nếu một ngày nào đó AI của OpenAI trở nên nguy hiểm, ban giám đốc có nghĩa vụ tự tay đóng công ty lại.
Toàn bộ kiến trúc dựa trên một giả định: người nắm quyền đối với AGI phải là một người cực kỳ trung thực.
Lỡ đặt cược nhầm thì sao?
“Bài nổ” trọng tâm của bản báo cáo chính là tài liệu 70 trang đó. Sutskever không chơi trò chính trị văn phòng; ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng tin chắc vào một điều: Altman liên tục nói dối cấp quản lý và hội đồng quản trị.
Một ví dụ cụ thể: vào tháng 12 năm 2022, tại một cuộc họp hội đồng quản trị, Altman đảm bảo rằng nhiều tính năng sắp được phát hành của GPT-4 đã vượt qua đánh giá an toàn. Thành viên hội đồng Toner yêu cầu xem hồ sơ phê duyệt, và kết quả cho thấy hai trong số các tính năng gây tranh cãi nhất (fine-tuning tùy chỉnh cho người dùng và triển khai trợ lý cá nhân) thực sự chưa hề được phê duyệt bởi bảng an toàn.
Chuyện còn khó tin hơn xảy ra ở Ấn Độ. Một nhân viên tố cáo với một thành viên hội đồng quản trị khác rằng: Microsoft đã không hoàn tất đánh giá an toàn cần thiết, nhưng vẫn phát hành sớm phiên bản đầu của ChatGPT tại Ấn Độ.
Sutskever còn ghi lại một việc khác trong bản ghi nhớ: Altman từng nói với cựu CTO Mira Murati rằng quy trình phê duyệt an toàn không quan trọng, vì cố vấn pháp lý tổng quát của công ty đã chấp thuận. Murati chạy đi xác nhận với cố vấn pháp lý tổng quát, và phía đó trả lời: “Tôi không biết Sam lấy ấn tượng đó từ đâu ra.”
Ghi chú cá nhân 200 trang của Amodei
Tài liệu của Sutskever giống như một bản cáo trạng của công tố viên. Hơn 200 trang ghi chú mà Amodei để lại giống như một cuốn nhật ký do một nhân chứng viết ngay tại hiện trường vụ án.
Trong những năm Amodei phụ trách mảng an toàn tại OpenAI, ông tận mắt chứng kiến công ty lùi bước dần dần dưới áp lực thương mại. Trong ghi chú, ông ghi lại một chi tiết then chốt của thương vụ đầu tư Microsoft năm 2019: ông từng nhét vào điều khoản “sáp nhập và hỗ trợ” trong điều lệ OpenAI, đại ý rằng nếu có công ty khác tìm được lối đi AGI an toàn hơn, OpenAI phải ngừng cạnh tranh và chuyển sang giúp công ty đó. Đây là biện pháp bảo đảm an toàn mà ông coi trọng nhất trong toàn bộ thương vụ.
Khi giao dịch sắp ký xong, Amodei phát hiện ra một chuyện: Microsoft nắm quyền phủ quyết đối với điều khoản đó. Ý nghĩa là gì? Dù có một ngày nào đó đối thủ tìm được con đường tốt hơn, chỉ cần Microsoft nói một câu là có thể chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn nằm trên giấy, nhưng từ ngày ký trở đi đã thành giấy vụn.
Amodei sau đó rời OpenAI và sáng lập Anthropic. Cuộc cạnh tranh giữa hai công ty, ở tầng cốt lõi, là sự bất đồng căn bản về “AI nên được phát triển như thế nào”.
Cam kết 20% năng lực tính toán đã biến mất
Trong bài báo có một chi tiết khiến người đọc nổi da gà, liên quan tới “đội siêu căn chỉnh” của OpenAI.
Vào giữa năm 2023, Altman đã liên hệ email với một nghiên cứu sinh tiến sĩ ở Berkeley về “căn chỉnh mang tính lừa dối” (AI tỏ ra ngoan ngoãn trong bài test, nhưng khi triển khai thực tế lại làm theo bộ cài của mình). Altman nói rằng ông đặc biệt lo ngại về vấn đề này và đang cân nhắc lập một giải thưởng nghiên cứu toàn cầu trị giá 1 tỷ đô la. Nghiên cứu sinh rất được khích lệ, xin nghỉ học, rồi gia nhập OpenAI.
Sau đó Altman đổi ý: không làm giải thưởng bên ngoài nữa, mà lập “đội siêu căn chỉnh” bên trong công ty. Công ty công bố rầm rộ rằng họ sẽ cấp “20% năng lực tính toán đã có” cho đội này, giá trị tiềm năng vượt 1Bỷ đô la. Cách diễn đạt trong thông cáo vô cùng nghiêm túc, nói rằng nếu vấn đề căn chỉnh không được giải quyết, AGI có thể dẫn tới “tước đoạt quyền lực của con người, thậm chí là hủy diệt con người”.
Jan Leike, người được bổ nhiệm dẫn dắt đội này, sau đó nói với phóng viên rằng chính cam kết đó là một “công cụ giữ chân nhân tài” rất hiệu quả.
Còn thực tế thì sao? Bốn người đã làm việc trong đội này hoặc tiếp xúc mật thiết với đội này cho biết rằng năng lực tính toán thực sự được phân bổ chỉ khoảng 1% đến 2% tổng năng lực tính toán của công ty, và thậm chí là phần cứng cũ nhất. Đội này sau đó bị giải tán, nhiệm vụ chưa hoàn thành.
Khi phóng viên yêu cầu phỏng vấn những người phụ trách nghiên cứu về “an toàn sinh tồn” của OpenAI, phản ứng của bộ phận PR công ty khiến người ta vừa buồn cười vừa muốn khóc: “Đó không phải là một… thứ thực sự tồn tại.”
Altman thì lại tỏ ra bình thản. Ông nói với phóng viên rằng trực giác của mình “không hợp lắm với nhiều thứ về an toàn AI truyền thống”, và rằng OpenAI vẫn sẽ làm “các dự án an toàn, hoặc ít nhất là những dự án có dính líu đến an toàn.”
CFO bị gạt ra và IPO sắp đến
Bài báo của《New Yorker》chỉ là một nửa những tin xấu của ngày hôm đó. Cùng ngày, The Information tung thêm một tin cực kỳ quan trọng khác: CFO của OpenAI Sarah Friar có bất đồng nghiêm trọng với Altman.
Friar nói với các đồng nghiệp theo hướng riêng tư rằng bà cảm thấy OpenAI năm nay chưa sẵn sàng để lên sàn. Có hai lý do: khối lượng công việc mang tính thủ tục và tổ chức cần hoàn thành quá lớn, rủi ro tài chính từ khoản chi năng lực tính toán 600Bỷ đô la mà Altman cam kết trong 5 năm là quá cao. Bà còn không chắc liệu tăng trưởng doanh thu của OpenAI có gánh nổi các cam kết đó hay không.
Nhưng Altman lại muốn dồn lực tiến tới IPO ngay trong quý IV năm nay.
Còn bất hợp lý hơn nữa là: Friar không còn báo cáo trực tiếp cho Altman nữa. Từ tháng 8 năm 2025, bà chuyển sang báo cáo cho Fidji Simo (CEO mảng ứng dụng của OpenAI). Và Simo tuần trước vừa xin nghỉ bệnh do lý do sức khỏe. Bạn thử cân nhắc hoàn cảnh này xem: một công ty đang dồn lực cho IPO, CEO và CFO có bất đồng căn bản, CFO không báo cáo cho CEO, và cấp trên của CFO còn đi nghỉ.
Ngay cả các lãnh đạo cấp cao trong nội bộ Microsoft cũng không chịu nổi nữa, nói rằng Altman “bóp méo sự thật, đổi ý thất hứa, và liên tục phủ quyết các thỏa thuận đã đạt được”. Một lãnh đạo Microsoft còn nói câu như thế này: “Tôi nghĩ có một xác suất nhất định cuối cùng ông ấy sẽ bị người ta nhớ đến như một kẻ lừa đảo ở tầm Bernie Madoff hoặc SBF.”
Bức chân dung “kẻ hai mặt” của Altman
Một cựu thành viên hội đồng quản trị của OpenAI mô tả với phóng viên rằng Altman có hai đặc điểm trên người. Đoạn lời này có lẽ là bản phác họa nhân vật nặng nề nhất trong toàn bộ bài báo.
Người này nói rằng Altman có một tổ hợp phẩm chất cực kỳ hiếm: trong mọi lần giao tiếp trực tiếp, ông luôn khao khát mãnh liệt việc làm hài lòng người đối diện và được họ thích. Đồng thời, đối với những hậu quả có thể xảy ra khi lừa gạt người khác, ông lại có một thái độ thờ ơ gần như bệnh hoạn về mặt xã hội.
Hai phẩm chất đó xuất hiện cùng lúc ở một người là vô cùng hiếm. Nhưng với một người đi bán hàng, đây lại là năng khiếu hoàn hảo nhất.
Bài báo có một phép so sánh nói rất đúng: Jobs nổi tiếng với “trường lực làm méo hiện thực”, và ông có thể khiến cả thế giới tin vào tầm nhìn của mình. Nhưng ngay cả Jobs cũng chưa từng nói với khách hàng rằng: “Nếu anh không mua máy nghe nhạc MP3 của tôi, người anh yêu sẽ chết.”
Altman từng nói những câu tương tự, liên quan tới AI.
Một vấn đề đạo đức của một CEO, vì sao lại là rủi ro của tất cả mọi người
Nếu Altman chỉ là CEO của một công ty công nghệ bình thường, thì các cáo buộc này cùng lắm chỉ là một mẩu tin đồn thương mại hấp dẫn. Nhưng OpenAI không phải là công ty bình thường.
Theo cách họ tự mô tả, họ đang phát triển một công nghệ có thể là mạnh nhất trong lịch sử loài người. Công nghệ đó có thể tái định hình nền kinh tế toàn cầu và thị trường lao động (OpenAI vừa phát hành một bản sách trắng về các vấn đề thất nghiệp do AI gây ra), đồng thời cũng có thể được dùng để chế tạo vũ khí sinh học quy mô lớn hoặc phát động các cuộc tấn công mạng diện rộng.
Tất cả các rào chắn an toàn đều chỉ còn hình thức. Sứ mệnh phi lợi nhuận của người sáng lập nhường chỗ cho cuộc chạy đua IPO. Cựu giám đốc khoa học và cựu lãnh đạo phụ trách an toàn đều cho rằng CEO “không đáng tin”. Các đối tác ví CEO này như SBF. Trong bối cảnh như vậy, CEO này dựa vào đâu để đơn phương quyết định khi nào phát hành một mô hình AI có thể thay đổi vận mệnh của nhân loại?
Gary Marcus (giáo sư AI của Đại học New York, đồng thời là nhà vận động lâu năm cho an toàn AI) sau khi đọc bài báo đã viết một câu: Nếu một mô hình OpenAI trong tương lai có thể chế tạo vũ khí sinh học quy mô lớn hoặc phát động các cuộc tấn công mạng thảm họa, thì bạn có thực sự yên tâm để Altman một mình quyết định việc có công bố hay không?
Phản hồi của OpenAI đối với《New Yorker》thì ngắn gọn: “Phần lớn nội dung của bài viết này đang khuấy lại các sự kiện đã được đưa tin trước đó, bằng các cách nói ẩn danh và các giai thoại chọn lọc; nguồn tin rõ ràng mang mục đích cá nhân.”
Kiểu phản hồi đúng chất Altman: không trả lời các cáo buộc cụ thể, không phủ nhận tính xác thực của bản ghi nhớ, chỉ chất vấn động cơ.
Trên một xác phi lợi nhuận, mọc lên một cây hái tiền
Mười năm của OpenAI, nếu viết thành một dàn ý câu chuyện thì sẽ như sau:
Một nhóm những người theo chủ nghĩa lý tưởng, lo ngại rủi ro của AI, đã tạo ra một tổ chức phi lợi nhuận vì sứ mệnh. Tổ chức thực hiện những đột phá công nghệ phi thường. Những đột phá thu hút một lượng lớn vốn đầu tư. Vốn cần được hoàn trả. Sứ mệnh nhường đường. Đội an toàn giải tán. Người đặt câu hỏi bị thanh trừng. Cấu trúc của tổ chức phi lợi nhuận được chuyển thành một thực thể vì lợi nhuận. Ban giám đốc từng có quyền đóng công ty bây giờ đầy ắp các đồng minh của CEO. Công ty từng cam kết dành 20% năng lực tính toán để bảo vệ an toàn cho con người, giờ đội ngũ PR nói rằng “đó không phải là một thứ thực sự tồn tại”.
Nhân vật chính của câu chuyện, hơn một trăm người từng tận mắt chứng kiến, đã gán cho ông ta cùng một nhãn: “Không bị ràng buộc bởi sự thật.”
Ông ấy đang chuẩn bị đưa công ty này IPO, với mức định giá trên 850B đô la.
Thông tin trong bài này được tổng hợp từ các báo cáo công khai của nhiều phương tiện truyền thông như《New Yorker》, Semafor, Tech Brew, Gizmodo, Business Insider, The Information…