Từ Rủi Ro Đến Trách Nhiệm: Ahmad Shadid Về Xây Dựng Quy Trình Phát Triển Hỗ Trợ Bởi AI An Toàn

Tóm tắt

“Vibe coding” đang ngày càng phổ biến, nhưng các chuyên gia cảnh báo rằng các công cụ truyền thống gây ra rủi ro về an ninh và bảo mật cho mã doanh nghiệp, nhấn mạnh sự cần thiết của các giải pháp “AI bí mật” được mã hóa, dựa trên phần cứng.

From Risk To Responsibility: Ahmad Shadid On Building Secure AI-Assisted Development Workflows

Trong những tháng gần đây, “vibe coding”—một quy trình làm việc dựa trên AI, trong đó các nhà phát triển tận dụng các mô hình ngôn ngữ lớn (LLMs) và các công cụ có khả năng tự hành để tạo và hoàn thiện phần mềm—đã thu hút sự chú ý. Đồng thời, nhiều báo cáo ngành đã nhấn mạnh rằng trong khi mã do AI tạo ra mang lại tốc độ và tiện lợi, nó thường đi kèm với các rủi ro nghiêm trọng về an ninh và chuỗi cung ứng.

Nghiên cứu của Veracode phát hiện rằng gần một nửa mã do LLMs tạo ra chứa các lỗ hổng nghiêm trọng, với các mô hình AI thường xuyên tạo ra các triển khai không an toàn và bỏ qua các vấn đề như lỗi tiêm nhiễm hoặc xác thực yếu trừ khi được nhắc nhở rõ ràng. Một nghiên cứu học thuật gần đây cũng lưu ý rằng các “kỹ năng” AI mô-đun trong hệ thống dựa trên tác nhân có thể mang các lỗ hổng có thể cho phép leo thang đặc quyền hoặc làm lộ chuỗi cung ứng phần mềm.

Ngoài các kết quả không an toàn, còn có một rủi ro bảo mật hệ thống thường bị bỏ qua. Các trợ lý lập trình AI hiện tại xử lý mã nội bộ nhạy cảm và sở hữu trí tuệ trong các môi trường đám mây chia sẻ, nơi các nhà cung cấp hoặc nhà vận hành có thể truy cập dữ liệu trong quá trình suy luận. Điều này gây lo ngại về việc lộ mã sản xuất độc quyền quy mô lớn, điều này là một vấn đề đáng kể đối với các nhà phát triển cá nhân và các doanh nghiệp lớn.

Chuyện gì xảy ra với mã doanh nghiệp nhạy cảm trong các trợ lý lập trình AI, và tại sao điều đó lại nguy hiểm?

Hầu hết các công cụ lập trình hiện tại chỉ có thể bảo vệ dữ liệu ở một mức độ nhất định. Mã doanh nghiệp thường được mã hóa khi gửi đến máy chủ của nhà cung cấp, thường qua TLS. Nhưng khi mã đến đó, nó sẽ được giải mã trong bộ nhớ để mô hình có thể đọc và xử lý. Lúc này, các chi tiết nhạy cảm như logic độc quyền, API nội bộ và các chi tiết bảo mật sẽ hiển thị rõ ràng trong hệ thống. Và đó chính là nơi tiềm ẩn rủi ro.

Mã có thể đi qua các nhật ký nội bộ, bộ nhớ tạm thời hoặc hệ thống gỡ lỗi mà khách hàng khó có thể xem hoặc kiểm tra trong quá trình giải mã. Ngay cả khi nhà cung cấp cam kết không lưu trữ dữ liệu, việc lộ vẫn xảy ra trong quá trình xử lý, và khoảng thời gian ngắn này đủ để tạo ra các điểm mù. Đối với doanh nghiệp, điều này tạo ra rủi ro tiềm ẩn có thể dẫn đến việc sử dụng sai mã nhạy cảm mà không kiểm soát sở hữu trí tuệ.

Tại sao bạn tin rằng các công cụ lập trình AI phổ biến về cơ bản không an toàn cho phát triển doanh nghiệp?

Hầu hết các công cụ AI phổ biến không được xây dựng cho các mô hình rủi ro doanh nghiệp; chúng chỉ tối ưu hóa tốc độ và tiện lợi vì chủ yếu được huấn luyện trên các kho lưu trữ công khai chứa các lỗ hổng đã biết, mẫu cũ và các thiết lập không an toàn. Do đó, mã do chúng tạo ra thường có các lỗ hổng trừ khi trải qua kiểm tra và sửa chữa kỹ lưỡng.

Quan trọng hơn, các công cụ này hoạt động mà không có các cấu trúc quản trị chính thức, nên chúng không thực sự thực thi các tiêu chuẩn an ninh nội bộ trong giai đoạn đầu, gây ra sự không liên kết giữa cách lập trình phần mềm và cách nó được kiểm tra hoặc bảo vệ sau này. Điều này cuối cùng khiến các nhóm quen với việc làm việc với các kết quả mà họ hầu như không hiểu rõ, trong khi các lỗ hổng an ninh âm thầm gia tăng. Sự kết hợp giữa thiếu minh bạch và các tác động kỹ thuật này khiến việc hỗ trợ tiêu chuẩn gần như không thể đối với các tổ chức hoạt động trong các lĩnh vực ưu tiên an toàn.

Nếu nhà cung cấp không lưu trữ hoặc huấn luyện trên mã khách hàng, tại sao điều đó chưa đủ, và cần có các đảm bảo kỹ thuật nào?

Đảm bảo chính sách khác hoàn toàn với các đảm bảo kỹ thuật. Dữ liệu người dùng vẫn bị giải mã và xử lý trong quá trình tính toán, ngay cả khi nhà cung cấp cam kết không giữ lại dữ liệu. Các nhật ký tạm thời trong quá trình gỡ lỗi vẫn có thể tạo ra các lối rò rỉ mà các chính sách không thể ngăn chặn hoặc chứng minh để đảm bảo an toàn. Từ góc độ rủi ro, tin tưởng mà không có xác minh là không đủ.

Các doanh nghiệp nên tập trung vào các cam kết có thể thiết lập ở cấp hạ tầng. Điều này bao gồm các môi trường tính toán bí mật, nơi mã không chỉ được mã hóa khi truyền mà còn trong quá trình sử dụng. Một ví dụ rất tốt là môi trường thực thi tin cậy dựa trên phần cứng, tạo ra môi trường mã hóa mà ngay cả nhà vận hành hạ tầng cũng không thể truy cập mã nhạy cảm. Mô hình xử lý dữ liệu trong môi trường an toàn này, và việc xác thực từ xa cho phép các doanh nghiệp xác minh bằng mã hóa rằng các biện pháp an toàn này đang hoạt động.

Các cơ chế như vậy nên là yêu cầu cơ bản, vì chúng biến quyền riêng tư thành một thuộc tính có thể đo lường được chứ không chỉ là một lời hứa.

Việc chạy AI tại chỗ hoặc trong đám mây riêng hoàn toàn có giải quyết các rủi ro về bảo mật không?

Chạy AI trong đám mây riêng giúp giảm một số rủi ro, nhưng không giải quyết được vấn đề. Dữ liệu vẫn rất dễ bị lộ và dễ tổn thương khi đang được xử lý trừ khi có các biện pháp bảo vệ bổ sung. Do đó, quyền truy cập nội bộ, cấu hình kém và di chuyển trong mạng vẫn có thể dẫn đến rò rỉ.

Hành vi của mô hình là một mối quan tâm khác. Mặc dù các hệ thống riêng tư ghi nhật ký đầu vào hoặc lưu trữ dữ liệu để thử nghiệm, nhưng nếu không có cách cô lập mạnh mẽ, các rủi ro này vẫn còn. Các nhóm kinh doanh vẫn cần xử lý dữ liệu được mã hóa. Việc triển khai kiểm soát truy cập dựa trên phần cứng và thiết lập giới hạn rõ ràng về việc sử dụng dữ liệu là điều cần thiết để bảo vệ dữ liệu một cách an toàn. Nếu không, họ chỉ tránh được rủi ro mà không giải quyết được vấn đề.

“AI bí mật” thực sự có nghĩa là gì đối với các công cụ lập trình?

AI bí mật đề cập đến các hệ thống quản lý an ninh dữ liệu trong quá trình tính toán. Nó cho phép dữ liệu được xử lý trong một vùng cô lập, chẳng hạn như môi trường thực thi tin cậy dựa trên phần cứng, nhưng ở dạng rõ để mô hình có thể làm việc trên đó. Việc cô lập dựa trên phần cứng sau đó đảm bảo rằng nó không thể truy cập bởi nhà vận hành nền tảng, hệ điều hành chủ hoặc bất kỳ bên ngoài nào, đồng thời cung cấp quyền riêng tư có thể xác minh bằng mật mã, mà không ảnh hưởng đến khả năng hoạt động của AI.

Điều này hoàn toàn thay đổi mô hình tin cậy cho các nền tảng lập trình, vì nó cho phép các nhà phát triển sử dụng AI mà không cần gửi logic độc quyền vào các hệ thống chia sẻ hoặc công cộng. Quá trình này cũng nâng cao trách nhiệm rõ ràng vì các giới hạn truy cập được xây dựng bằng phần cứng chứ không phải chính sách. Một số công nghệ còn kết hợp tính toán mã hóa với theo dõi lịch sử, để các kết quả đầu ra có thể được xác minh mà không tiết lộ đầu vào.

Dù thuật ngữ nghe có vẻ trừu tượng, nhưng ý nghĩa đơn giản là: trợ lý AI không còn yêu cầu các doanh nghiệp phải hy sinh tính bảo mật để đạt hiệu quả.

Những hạn chế hoặc đánh đổi khi sử dụng AI bí mật hiện nay là gì?

Thứ lớn nhất là tốc độ. Các hệ thống AI được cô lập trong môi trường thực thi tin cậy có thể gặp một chút chậm hơn so với các cấu trúc không được bảo vệ, đơn giản do mã hóa bộ nhớ cấp phần cứng và xác thực chứng thực. Tin vui là phần cứng mới đang thu hẹp khoảng cách này theo thời gian.

Ngoài ra, cần nhiều công sức hơn trong thiết lập và lập kế hoạch phù hợp, vì các hệ thống phải hoạt động trong môi trường chặt chẽ hơn. Chi phí cũng cần được xem xét. AI bí mật thường cần phần cứng đặc biệt — như các chip chuyên dụng NVIDIA H100 và H200, ví dụ — và các công cụ, điều này có thể đẩy chi phí ban đầu lên cao. Nhưng chi phí này cần cân nhắc với thiệt hại tiềm năng có thể xảy ra từ rò rỉ mã hoặc không tuân thủ quy định.

AI bí mật chưa phải là yêu cầu hệ thống phổ quát, vì vậy các nhóm nên sử dụng nó nơi mà quyền riêng tư và trách nhiệm giải trình là quan trọng nhất. Nhiều hạn chế này sẽ được giải quyết trong tương lai.

Bạn có dự đoán rằng các cơ quan quản lý hoặc tiêu chuẩn sẽ sớm yêu cầu các công cụ AI giữ tất cả dữ liệu được mã hóa trong quá trình xử lý không?

Các khung pháp lý như EU AI Act và NIST AI Risk Management Framework của Mỹ đã nhấn mạnh mạnh mẽ về quản lý rủi ro, bảo vệ dữ liệu và trách nhiệm giải trình cho các hệ thống AI tác động cao. Khi các khung này phát triển, các hệ thống phơi bày dữ liệu nhạy cảm theo thiết kế ngày càng trở nên khó biện hộ theo các kỳ vọng quản trị đã thiết lập.

Các nhóm tiêu chuẩn cũng đang đặt nền móng bằng cách thiết lập các quy tắc rõ ràng hơn về cách AI xử lý dữ liệu trong quá trình sử dụng. Các quy tắc này có thể được triển khai với tốc độ khác nhau ở các khu vực. Tuy nhiên, các công ty nên dự kiến sẽ có nhiều áp lực hơn đối với các hệ thống xử lý dữ liệu ở dạng rõ. Theo đó, AI bí mật ít hơn là dự đoán tương lai và nhiều hơn là phù hợp với xu hướng quy định hiện tại.

“Lập trình vibe có trách nhiệm” hiện nay trông như thế nào đối với các nhà phát triển và lãnh đạo CNTT?

Lập trình vibe có trách nhiệm đơn giản là giữ trách nhiệm với từng dòng mã, từ việc xem xét các đề xuất của AI đến xác minh các tác động về an ninh, cũng như xem xét mọi trường hợp ngoại lệ trong mọi chương trình. Đối với các tổ chức, điều này đòi hỏi phải có định nghĩa rõ ràng về chính sách phê duyệt công cụ cụ thể và các lối đi an toàn cho mã nhạy cảm, đồng thời đảm bảo các nhóm hiểu rõ cả điểm mạnh lẫn giới hạn của trợ lý AI.

Đối với các nhà quản lý và lãnh đạo ngành, nhiệm vụ là thiết kế các quy tắc rõ ràng để giúp các nhóm dễ dàng xác định các công cụ được phép và nơi chúng có thể được sử dụng. Dữ liệu nhạy cảm chỉ nên được đưa vào các hệ thống tuân thủ các yêu cầu về quyền riêng tư và tuân thủ quy định, đồng thời đào tạo các nhà vận hành và người dùng hiểu rõ sức mạnh cũng như giới hạn của AI. AI giúp tiết kiệm công sức và thời gian khi được sử dụng đúng cách, nhưng cũng mang theo các rủi ro đắt giá nếu sử dụng một cách cẩu thả.

Nhìn về tương lai, bạn hình dung sự tiến hóa của các trợ lý lập trình AI liên quan đến an ninh như thế nào?

Các công cụ lập trình AI sẽ tiến xa hơn từ việc chỉ đưa ra đề xuất sang việc xác minh mã khi nó được viết, đồng thời tuân thủ các quy tắc, thư viện được phép và các giới hạn về an ninh trong thời gian thực.

An ninh, như một yếu tố quan trọng, cũng sẽ được tích hợp sâu hơn vào cách các công cụ này hoạt động bằng cách thiết kế các chế độ thực thi mã hóa và ghi lại các quyết định rõ ràng như các tính năng bình thường. Theo thời gian, điều này sẽ biến các trợ lý AI từ rủi ro thành các công cụ hỗ trợ cho phát triển an toàn. Các hệ thống tốt nhất sẽ là những hệ thống kết hợp tốc độ với kiểm soát. Và sự tin tưởng sẽ được xác định bởi cách các công cụ hoạt động, chứ không phải bởi lời hứa của nhà phát triển.

ON0,76%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$3.44KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.44KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.45KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.45KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.44KNgười nắm giữ:1
    0.00%
  • Ghim