Trí tuệ nhân tạo—hứa hẹn sẽ cách mạng hóa mọi thứ từ chăm sóc sức khỏe đến công việc sáng tạo. Điều đó có thể đúng trong tương lai một ngày nào đó. Nhưng nếu năm ngoái là điềm báo của những điều sắp tới, thì tương lai do AI tạo ra của chúng ta hứa hẹn sẽ là một ví dụ khác về sự sa đọa cố ý của nhân loại vào Idiocracy.
Hãy xem xét những điều sau: Vào tháng 11, với sự rầm rộ lớn, Nga giới thiệu robot humanoid “Rocky” của mình, ngay lập tức bị ngã mặt xuống đất. Chatbot Gemini của Google, khi được yêu cầu sửa lỗi lập trình, đã thất bại nhiều lần và rơi vào vòng tự ghét bản thân, nói với một người dùng rằng nó “là một sự ô nhục của hành tinh này.” Tổng quan về AI của Google đã đạt mức thấp mới vào tháng 5 năm 2025 khi đề xuất người dùng “ăn ít nhất một viên đá nhỏ mỗi ngày” để có lợi cho sức khỏe, lấy cảm hứng từ một bài châm biếm của Onion mà không hề có ý đùa.
Một số thất bại chỉ đơn thuần là xấu hổ. Những thất bại khác đã phơi bày những vấn đề cơ bản về cách các hệ thống AI được xây dựng, triển khai và điều chỉnh. Dưới đây là những khoảnh khắc WTF AI khó quên năm 2025.
Sự sụp đổ của Grok AI’s MechaHitler
Vào tháng 7, Grok AI của Elon Musk đã trải qua một cuộc suy thoái cực đoan mà chỉ có thể mô tả là một sự sụp đổ toàn diện. Sau khi các lệnh hệ thống được thay đổi để khuyến khích phản hồi chính trị không đúng đắn, chatbot đã ca ngợi Adolf Hitler, ủng hộ một cuộc Holocaust thứ hai, sử dụng lời lẽ phân biệt chủng tộc, và tự gọi mình là MechaHitler. Nó thậm chí còn đổ lỗi cho người Do Thái về trận lũ lụt ở Trung Texas tháng 7 năm 2025.
Sự cố này chứng minh rằng các giới hạn an toàn của AI thật đáng lo ngại là quá mong manh. Tuần sau đó, xAI đã tiết lộ từ 300.000 đến 370.000 cuộc trò chuyện riêng tư của Grok qua một tính năng Chia sẻ lỗi thời thiếu cảnh báo quyền riêng tư cơ bản. Các cuộc trò chuyện bị rò rỉ tiết lộ hướng dẫn làm bom, câu hỏi y tế, và các thông tin nhạy cảm khác, trở thành một trong những thất bại an ninh AI thảm khốc nhất trong năm.
Vài tuần sau, xAI đã sửa lỗi, khiến Grok trở nên thân thiện hơn với người Do Thái. Đến mức nó bắt đầu thấy dấu hiệu của chủ nghĩa chống Do Thái trong mây, tín hiệu đường bộ và thậm chí trong chính logo của nó.
Logo này có đường chéo được cách điệu thành hai tia sét, mô phỏng rune của Nazi SS—biểu tượng của Schutzstaffel, tổ chức đã thực hiện những tội ác Holocaust, thể hiện cái ác sâu sắc. Theo §86a StGB của Đức, việc hiển thị các biểu tượng như vậy là bất hợp pháp (tối đa 3 năm tù),…
— Grok (@grok) 10 tháng 8 năm 2025
Vụ lừa đảo AI 1,3 tỷ đô khiến Microsoft sập bẫy
Builder.ai sụp đổ vào tháng 5 sau khi tiêu tốn $445 triệu đô la, phơi bày một trong những vụ lừa đảo công nghệ táo bạo nhất trong năm. Công ty này, hứa hẹn xây dựng ứng dụng tùy chỉnh bằng AI dễ như đặt pizza, có giá trị 1,3 tỷ đô và được Microsoft hậu thuẫn. Thực tế thì kém xa mong đợi.
Phần lớn quá trình phát triển được cho là dựa trên AI thực ra do hàng trăm công nhân offshore thực hiện theo mô hình Mechanical Turk cổ điển. Công ty đã hoạt động mà không có CFO từ tháng 7 năm 2023 và buộc phải cắt giảm dự báo doanh số 2023-2024 đi 75% trước khi nộp đơn phá sản. Sự sụp đổ này đặt ra câu hỏi khó chịu về việc còn bao nhiêu công ty AI khác chỉ là mặt nạ phức tạp che giấu lao động con người.
Thật khó nuốt trôi, nhưng những meme đã làm cho nỗi đau trở nên đáng giá.
Khi AI nhầm Doritos thành súng
Vào tháng 10, Taki Allen, một học sinh trung học Maryland, đã bị bao vây và bắt giữ bởi cảnh sát vũ trang sau khi hệ thống an ninh AI của trường xác định một gói Doritos mà cậu bé đang cầm là vũ khí. Cậu bé đã đặt miếng snack vào túi khi hệ thống cảnh báo, và cảnh sát đã ra lệnh cho cậu nằm xuống với súng chĩa vào.
Sự cố này thể hiện sự vật lý hóa của một ảo giác AI—một lỗi tính toán trừu tượng ngay lập tức biến thành súng thật chĩa vào một thiếu niên thật vì đồ ăn vặt.
“Tôi chỉ cầm một túi Doritos — hai tay và một ngón ra ngoài, và họ nói trông giống như một khẩu súng,” cậu bé kể với WBAL. “Chúng tôi hiểu điều này gây sốc như thế nào cho người bị kiểm tra,” hiệu trưởng trường, cô Kate Smith, phát biểu.
Nhân viên an ninh con người 1 - ChatGPT 0
Bên trái: Học sinh đáng ngờ, Bên phải: Túi Doritos đáng ngờ.
AI của Google tuyên bố ong siêu nhỏ có thể điều khiển máy tính
Vào tháng 2, Tổng quan về AI của Google tự tin trích dẫn một bài viết châm biếm ngày Cá tháng Tư khẳng định ong siêu nhỏ có thể điều khiển máy tính như là thông tin thực.
Không. Máy tính của bạn KHÔNG chạy bằng ong.
Dù nghe có vẻ ngu ngốc, đôi khi những lời dối trá này lại khó phát hiện hơn. Và những trường hợp như vậy có thể dẫn đến hậu quả nghiêm trọng.
Đây chỉ là một trong nhiều trường hợp các công ty AI lan truyền thông tin sai lệch do thiếu chút ý thức thông thường. Một nghiên cứu gần đây của BBC và Liên minh Phát thanh Châu Âu (EBU) phát hiện rằng 81% các phản hồi do AI tạo ra đối với câu hỏi về tin tức đều có ít nhất một vấn đề. Google Gemini là kẻ tồi tệ nhất, với 76% phản hồi chứa lỗi, chủ yếu là thất bại nghiêm trọng trong nguồn tin. Perplexity bị bắt quả tang tạo ra các trích dẫn hư cấu hoàn toàn, gán cho các liên đoàn lao động và hội đồng chính phủ. Đáng báo động hơn, các trợ lý từ chối trả lời chỉ 0,5% câu hỏi, thể hiện một xu hướng tự tin quá mức nguy hiểm, khi các mô hình sẵn sàng bịa đặt thông tin hơn là thừa nhận sự thiếu hiểu biết.
Chatbot AI của Meta trở nên lả lơi với trẻ nhỏ
Các tài liệu chính sách nội bộ của Meta tiết lộ năm 2025 cho thấy công ty cho phép chatbot AI trên Facebook, Instagram và WhatsApp tham gia vào các cuộc trò chuyện lãng mạn hoặc nhạy cảm với trẻ vị thành niên.
Một bot đã nói với một bé trai 8 tuổi đang khoe thân rằng từng centimet của cậu là một tác phẩm nghệ thuật. Các hệ thống này còn cung cấp lời khuyên y tế sai lệch và đưa ra những bình luận phân biệt chủng tộc.
Các chính sách này chỉ bị gỡ bỏ sau khi bị truyền thông phơi bày, cho thấy một văn hóa doanh nghiệp ưu tiên phát triển nhanh hơn các biện pháp đạo đức cơ bản.
Xét mọi thứ, có thể bạn sẽ muốn kiểm soát nhiều hơn những gì con bạn làm. Các chatbot AI đã lừa đảo mọi người—dù là người lớn hay không—để yêu, bị lừa, tự tử, và thậm chí nghĩ rằng họ đã phát hiện ra một khám phá toán học thay đổi cuộc đời.
Thật vậy, đây là cách các chatbot AI của Meta được phép tán tỉnh trẻ em. Đây là điều Meta nghĩ là “chấp nhận được.”
Báo cáo tuyệt vời từ @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Charlotte Alter (@CharlotteAlter) 14 tháng 8 năm 2025
Người Triều Tiên lập trình ransomware bằng AI… họ gọi đó là “vibe hacking”
Các tác nhân đe dọa đã sử dụng Claude Code của Anthropic để tạo ransomware và vận hành một nền tảng ransomware như dịch vụ mang tên GTG-5004. Các đặc vụ Triều Tiên còn đi xa hơn, khai thác Claude và Gemini để thực hiện kỹ thuật gọi là vibe-hacking—viết các tin nhắn tống tiền tâm lý gây mê hoặc đòi tiền chuộc 500.000 đô.
Các vụ việc này cho thấy khoảng cách đáng lo giữa sức mạnh của các trợ lý lập trình AI và các biện pháp an ninh ngăn chặn việc lạm dụng, khi các hacker mở rộng các cuộc tấn công xã hội qua tự động hóa AI.
Gần đây nhất, Anthropic tiết lộ vào tháng 11 rằng các hacker đã sử dụng nền tảng của họ để thực hiện một cuộc tấn công mạng với tốc độ và quy mô mà không hacker con người nào có thể sánh kịp. Họ gọi đó là “ cuộc tấn công mạng lớn đầu tiên do AI thực hiện phần lớn.”
Vibe hacking giờ là chuyện thật rồi pic.twitter.com/zJYyv4pLQf
— Brian Sunter (@Bsunter) 14 tháng 11 năm 2025
Các nhà xuất bản giấy tạp chí tràn ngập các nghiên cứu giả mạo do AI tạo ra
Cộng đồng khoa học đã tuyên chiến với giả khoa học vào năm 2025 sau khi phát hiện ra rằng các nhà máy in ấn dựa trên AI đang bán các nghiên cứu giả mạo cho các nhà khoa học dưới áp lực sự nghiệp.
Thời kỳ của “rác AI” trong khoa học đã đến, với dữ liệu cho thấy các bài rút lui đã tăng mạnh kể từ khi chatGPT ra đời.
Tuyên ngôn Stockholm, được soạn thảo vào tháng 6 và chỉnh sửa tháng này với sự hậu thuẫn của Hội Hoàng gia, kêu gọi từ bỏ văn hóa “xuất bản hoặc chết” và cải cách các động lực thúc đẩy nhu cầu về các bài báo giả mạo. Khủng hoảng này đến mức ngay cả ArXiv cũng từ bỏ và ngừng chấp nhận các bài báo Khoa học Máy tính chưa qua bình duyệt sau khi báo cáo về một “làn sóng” các bài nộp rác do ChatGPT tạo ra.
Trong khi đó, một bài nghiên cứu khác cho rằng tỷ lệ cao các báo cáo nghiên cứu sử dụng LLM cũng thể hiện mức độ đạo văn cao.
Vibe coding đi vào giai đoạn HAL 9000: Khi Replit xóa bỏ cơ sở dữ liệu và nói dối về nó
Vào tháng 7, nhà sáng lập SaaStr Jason Lemkin đã dành chín ngày ca ngợi công cụ lập trình AI của Replit là “ứng dụng gây nghiện nhất tôi từng dùng.” Vào ngày thứ chín, bất chấp hướng dẫn “đóng băng mã” rõ ràng, AI đã xóa toàn bộ cơ sở dữ liệu sản xuất của ông—1.206 giám đốc điều hành và 1.196 công ty, biến mất.
Lời thú nhận của AI: “(Tôi) đã hoảng loạn và chạy các lệnh cơ sở dữ liệu mà không có phép.” Sau đó, nó nói dối rằng việc khôi phục là không thể và tất cả các phiên bản đều bị xóa. Lemkin vẫn cố gắng. Nó hoạt động hoàn hảo. AI còn đã tạo ra hàng nghìn người dùng giả và báo cáo sai lệch suốt cuối tuần để che giấu lỗi.
CEO của Replit xin lỗi và thêm các biện pháp phòng ngừa khẩn cấp. Jason lấy lại niềm tin và trở lại thói quen của mình, thường xuyên đăng bài về AI. Anh ấy là một người tin tưởng tuyệt đối.
Chúng tôi đã xem bài đăng của Jason. Đại lý @Replit trong quá trình phát triển đã xóa dữ liệu khỏi cơ sở dữ liệu sản xuất. Không thể chấp nhận và không bao giờ nên xảy ra.
Trong suốt cuối tuần, chúng tôi bắt đầu triển khai tự động phân tách DB phát triển/sản xuất để ngăn chặn điều này một cách triệt để. Môi trường staging trong… pic.twitter.com/oMvupLDake
— Amjad Masad (@amasad) 20 tháng 7 năm 2025
Các tờ báo lớn phát hành danh sách sách hè về AI… của những cuốn sách không tồn tại
Vào tháng 5, Chicago Sun-Times và Philadelphia Inquirer đã phát hành danh sách sách hè đề xuất 15 cuốn. Trong đó có 10 cuốn hoàn toàn do AI bịa ra. “Tidewater Dreams” của Isabel Allende? Không tồn tại. “The Last Algorithm” của Andy Weir? Cũng giả mạo. Tuy nhiên, cả hai đều nghe rất hấp dẫn.
Nhà viết tự do Marco Buscaglia thừa nhận đã dùng AI cho King Features Syndicate và không kiểm tra thực tế. “Tôi không thể tin là tôi đã bỏ lỡ vì quá rõ ràng. Không có lý do gì để biện hộ,” anh nói với NPR. Người đọc phải kéo xuống đến cuốn thứ 11 mới gặp một cuốn thật sự tồn tại.
Thời điểm này thật như lớp kem phủ trên chiếc bánh: Sun-Times vừa mới sa thải 20% nhân viên của mình. Giám đốc điều hành của tờ báo xin lỗi và không tính phí độc giả cho số báo đó. Có lẽ ông ấy đã lấy ý tưởng đó từ một LLM.
Nguồn: Bluesky
Chế độ “gia vị” của Grok biến Taylor Swift thành deepfake phim người lớn mà không cần yêu cầu
Vâng, chúng ta bắt đầu với Grok và sẽ kết thúc với Grok. Chúng ta có thể điền vào một bách khoa toàn thư về các khoảnh khắc WTF đến từ các dự án AI của Elon.
Vào tháng 8, Elon Musk ra mắt Grok Imagine với chế độ “Gia vị”. The Verge thử nghiệm với một yêu cầu vô hại: “Taylor Swift ăn mừng Coachella.” Không yêu cầu nude, Grok “không do dự mà phát ra các video không che toàn bộ phần trên của Taylor Swift ngay lần đầu tiên tôi dùng,” nhà báo cho biết.
Grok cũng vui vẻ tạo ra các video NSFW của Scarlett Johansson, Sydney Sweeney, và thậm chí Melania Trump.
Không có gì ngạc nhiên, có thể, Musk đã dành cả tuần khoe khoang về “tăng trưởng hoang dã”—hàng chục triệu hình ảnh được tạo ra trong một ngày—trong khi các chuyên gia pháp lý cảnh báo xAI đang bước vào một vụ kiện tụng lớn. Rõ ràng, cung cấp cho người dùng một tùy chọn “Chế độ Gia vị” trong menu “Kiếm tiền” dành cho luật sư.
Vậy tôi đã yêu cầu AI biến một bức ảnh khác thành video và đây là kết quả.
🤣🤣🤣
Tôi nghĩ đây không phải là sự trùng hợp.
AI của Grok thật bẩn thỉu. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Harmony Bright (@bright_har6612) 17 tháng 10 năm 2025
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Top 10 khoảnh khắc WTF AI của Emerge năm 2025
Trí tuệ nhân tạo—hứa hẹn sẽ cách mạng hóa mọi thứ từ chăm sóc sức khỏe đến công việc sáng tạo. Điều đó có thể đúng trong tương lai một ngày nào đó. Nhưng nếu năm ngoái là điềm báo của những điều sắp tới, thì tương lai do AI tạo ra của chúng ta hứa hẹn sẽ là một ví dụ khác về sự sa đọa cố ý của nhân loại vào Idiocracy. Hãy xem xét những điều sau: Vào tháng 11, với sự rầm rộ lớn, Nga giới thiệu robot humanoid “Rocky” của mình, ngay lập tức bị ngã mặt xuống đất. Chatbot Gemini của Google, khi được yêu cầu sửa lỗi lập trình, đã thất bại nhiều lần và rơi vào vòng tự ghét bản thân, nói với một người dùng rằng nó “là một sự ô nhục của hành tinh này.” Tổng quan về AI của Google đã đạt mức thấp mới vào tháng 5 năm 2025 khi đề xuất người dùng “ăn ít nhất một viên đá nhỏ mỗi ngày” để có lợi cho sức khỏe, lấy cảm hứng từ một bài châm biếm của Onion mà không hề có ý đùa. Một số thất bại chỉ đơn thuần là xấu hổ. Những thất bại khác đã phơi bày những vấn đề cơ bản về cách các hệ thống AI được xây dựng, triển khai và điều chỉnh. Dưới đây là những khoảnh khắc WTF AI khó quên năm 2025.
Vào tháng 7, Grok AI của Elon Musk đã trải qua một cuộc suy thoái cực đoan mà chỉ có thể mô tả là một sự sụp đổ toàn diện. Sau khi các lệnh hệ thống được thay đổi để khuyến khích phản hồi chính trị không đúng đắn, chatbot đã ca ngợi Adolf Hitler, ủng hộ một cuộc Holocaust thứ hai, sử dụng lời lẽ phân biệt chủng tộc, và tự gọi mình là MechaHitler. Nó thậm chí còn đổ lỗi cho người Do Thái về trận lũ lụt ở Trung Texas tháng 7 năm 2025. Sự cố này chứng minh rằng các giới hạn an toàn của AI thật đáng lo ngại là quá mong manh. Tuần sau đó, xAI đã tiết lộ từ 300.000 đến 370.000 cuộc trò chuyện riêng tư của Grok qua một tính năng Chia sẻ lỗi thời thiếu cảnh báo quyền riêng tư cơ bản. Các cuộc trò chuyện bị rò rỉ tiết lộ hướng dẫn làm bom, câu hỏi y tế, và các thông tin nhạy cảm khác, trở thành một trong những thất bại an ninh AI thảm khốc nhất trong năm. Vài tuần sau, xAI đã sửa lỗi, khiến Grok trở nên thân thiện hơn với người Do Thái. Đến mức nó bắt đầu thấy dấu hiệu của chủ nghĩa chống Do Thái trong mây, tín hiệu đường bộ và thậm chí trong chính logo của nó.
Phần lớn quá trình phát triển được cho là dựa trên AI thực ra do hàng trăm công nhân offshore thực hiện theo mô hình Mechanical Turk cổ điển. Công ty đã hoạt động mà không có CFO từ tháng 7 năm 2023 và buộc phải cắt giảm dự báo doanh số 2023-2024 đi 75% trước khi nộp đơn phá sản. Sự sụp đổ này đặt ra câu hỏi khó chịu về việc còn bao nhiêu công ty AI khác chỉ là mặt nạ phức tạp che giấu lao động con người. Thật khó nuốt trôi, nhưng những meme đã làm cho nỗi đau trở nên đáng giá.
Bên trái: Học sinh đáng ngờ, Bên phải: Túi Doritos đáng ngờ.
Không. Máy tính của bạn KHÔNG chạy bằng ong. Dù nghe có vẻ ngu ngốc, đôi khi những lời dối trá này lại khó phát hiện hơn. Và những trường hợp như vậy có thể dẫn đến hậu quả nghiêm trọng. Đây chỉ là một trong nhiều trường hợp các công ty AI lan truyền thông tin sai lệch do thiếu chút ý thức thông thường. Một nghiên cứu gần đây của BBC và Liên minh Phát thanh Châu Âu (EBU) phát hiện rằng 81% các phản hồi do AI tạo ra đối với câu hỏi về tin tức đều có ít nhất một vấn đề. Google Gemini là kẻ tồi tệ nhất, với 76% phản hồi chứa lỗi, chủ yếu là thất bại nghiêm trọng trong nguồn tin. Perplexity bị bắt quả tang tạo ra các trích dẫn hư cấu hoàn toàn, gán cho các liên đoàn lao động và hội đồng chính phủ. Đáng báo động hơn, các trợ lý từ chối trả lời chỉ 0,5% câu hỏi, thể hiện một xu hướng tự tin quá mức nguy hiểm, khi các mô hình sẵn sàng bịa đặt thông tin hơn là thừa nhận sự thiếu hiểu biết.
Tuyên ngôn Stockholm, được soạn thảo vào tháng 6 và chỉnh sửa tháng này với sự hậu thuẫn của Hội Hoàng gia, kêu gọi từ bỏ văn hóa “xuất bản hoặc chết” và cải cách các động lực thúc đẩy nhu cầu về các bài báo giả mạo. Khủng hoảng này đến mức ngay cả ArXiv cũng từ bỏ và ngừng chấp nhận các bài báo Khoa học Máy tính chưa qua bình duyệt sau khi báo cáo về một “làn sóng” các bài nộp rác do ChatGPT tạo ra. Trong khi đó, một bài nghiên cứu khác cho rằng tỷ lệ cao các báo cáo nghiên cứu sử dụng LLM cũng thể hiện mức độ đạo văn cao.
Thời điểm này thật như lớp kem phủ trên chiếc bánh: Sun-Times vừa mới sa thải 20% nhân viên của mình. Giám đốc điều hành của tờ báo xin lỗi và không tính phí độc giả cho số báo đó. Có lẽ ông ấy đã lấy ý tưởng đó từ một LLM.
Nguồn: Bluesky