Nesa, chuỗi xử lý blockchain AI doanh nghiệp vận hành một triệu yêu cầu suy luận mỗi ngày thông qua mạng lưới hơn 30.000 thợ đào trên khắp thế giới, đã hợp tác với Billions Network để mang lại danh tính đã được xác minh cho mọi con người và tác nhân AI hoạt động trên hạ tầng của mình.
Các khách hàng chạy AI trên Nesa bao gồm P&G, Cisco, Gap và Royal Caribbean. AI mà các công ty đó triển khai luôn được thiết kế để ở chế độ riêng tư. Điều mà nó còn thiếu cho đến nay là trách nhiệm giải trình. Billions Network giải quyết điều đó ở hai cấp độ.
AI doanh nghiệp thực sự ở quy mô lớn tạo ra một khoảng trống về trách nhiệm giải trình mà hầu hết các nhà cung cấp hạ tầng không thừa nhận một cách công khai. Khi hàng nghìn tác nhân AI đang xử lý yêu cầu, đưa ra quyết định và tương tác với các hệ thống trong một tổ chức, việc xác định ai chịu trách nhiệm cho hành vi của từng tác nhân trở nên thực sự khó trả lời. Tác nhân đã chạy. Có điều gì đó đã xảy ra. Nhưng ai đã xây dựng nó, ai đã ủy quyền nó, và ai sẽ phải chịu trách nhiệm nếu có sự cố?
Câu hỏi đó quan trọng hơn ở quy mô doanh nghiệp so với các triển khai nhỏ, nơi một nhóm có thể theo dõi mọi tác nhân thủ công. Hạ tầng của Nesa vận hành AI cho một số công ty lớn nhất hành tinh. Với một triệu yêu cầu suy luận mỗi ngày trên 30.000 thợ đào, cách tiếp cận trách nhiệm giải trình thủ công không phải là một phương án khả thi.
Lớp trách nhiệm giải trình cần có tính cấu trúc, được tích hợp vào cách các tác nhân vận hành thay vì được gắn thêm thông qua tài liệu và các quy trình nội bộ có thể bị bỏ qua hoặc bị quên lãng.
Billions Network được xây dựng dựa trên hai bài toán xác minh riêng biệt. Bài toán đầu tiên là xác minh con người. Sử dụng điện thoại và giấy tờ tùy thân do chính phủ cấp, không cần quét mắt hay phần cứng sinh trắc học, Billions xác minh rằng phía sau mọi tác nhân AI là một con người thật sự có thể chịu trách nhiệm giải trình.
Mạng lưới đã xác minh 2.3 triệu con người trên toàn thế giới và có HSBC và Sony Bank trong số các đối tác tổ chức. Dấu ấn đó trong môi trường tài chính có rủi ro cao rất quan trọng, vì nó cho thấy quy trình xác minh đáp ứng các tiêu chuẩn mà các tổ chức được quản lý đã thấy là có thể chấp nhận.
Bài toán thứ hai là xác minh tác nhân AI thông qua khuôn khổ Know Your Agent, mà Billions gọi là KYA. Mọi tác nhân hoạt động trên một mạng lưới hỗ trợ KYA sẽ nhận được một danh tính đã được xác minh, ghi lại ai đã xây dựng nó, ai sở hữu nó và ai chịu trách nhiệm cho hành vi của nó. Trong một hệ sinh thái nơi hàng nghìn tác nhân chạy đồng thời, KYA giúp mọi tương tác đều có thể lần vết.
Nếu một tác nhân tạo ra đầu ra sai, đưa ra một quyết định không được ủy quyền hoặc tương tác với một hệ thống mà nó không nên, thì chuỗi trách nhiệm giải trình được ghi nhận ngay từ đầu thay vì được dựng lại sau đó từ các log không đầy đủ.
Sự kết hợp giữa xác minh con người và xác minh tác nhân tạo ra một bức tranh hoàn chỉnh về trách nhiệm giải trình trong toàn bộ một lần triển khai AI doanh nghiệp—một điều đã được mô tả là cần thiết trong nhiều năm nhưng hiếm khi được thực hiện ở quy mô lớn.
Hạ tầng AI của Nesa luôn được giữ ở chế độ riêng tư. Sự riêng tư đó là theo thiết kế và là một tính năng dành cho các khách hàng doanh nghiệp không thể phơi bày các mô hình độc quyền, dữ liệu huấn luyện hoặc đầu ra suy luận cho các bên bên ngoài.
Việc tích hợp của Billions không làm thay đổi điều đó. Thứ mà nó bổ sung là một lớp trách nhiệm giải trình vận hành mà không ảnh hưởng đến các thuộc tính về quyền riêng tư mà các khách hàng doanh nghiệp phụ thuộc vào.
Đối với các công ty như P&G và Cisco chạy AI vận hành thông qua hạ tầng của Nesa, kết quả thực tế là mọi tác nhân hoạt động trong môi trường của họ giờ đây đều có danh tính đã được xác minh. Các nhóm tuân thủ nội bộ, cơ quan quản lý và kiểm toán viên có thể hỏi ai là người chịu trách nhiệm cho hành vi của một tác nhân cụ thể và nhận được câu trả lời có thể lần vết thay vì chỉ là một lời “không biết”. Trách nhiệm giải trình đó ngày càng không còn là lựa chọn.
Các khung pháp lý về quản trị AI đang phát triển nhanh chóng, và các doanh nghiệp không thể chứng minh trách nhiệm giải trình cho các lần triển khai AI của mình sẽ phải đối mặt với áp lực từ các cơ quan quản lý, ban quản trị và các công ty bảo hiểm, bất kể công nghệ nền tảng có hoạt động tốt đến đâu.
Cách tiếp cận ưu tiên di động của Billions Network đối với xác minh con người đáng được nêu rõ cụ thể bởi vì nó quyết định mức độ dễ tiếp cận của quy trình xác minh ở quy mô lớn.
Các hệ thống xác minh cần phần cứng đặc biệt, thiết bị quét, hoặc quy trình đăng ký phức tạp sẽ làm chậm mọi thứ lại và âm thầm loại trừ những người không thể tiếp cận chúng. Billions né tránh điều đó hoàn toàn. Một chiếc điện thoại và giấy tờ tùy thân do chính phủ cấp. Đó là quy trình đăng ký. Trong bối cảnh doanh nghiệp, mọi người đã cần được xác minh đều đã có cả hai.
Với 2.3 triệu con người đã được xác minh sẵn có trên mạng, hạ tầng cho việc xác minh đã được chứng minh, thay vì chỉ là lý thuyết.
Hạ tầng AI doanh nghiệp của Nesa hiện nay có một lớp danh tính bao phủ cả những con người cho phép các tác nhân AI và chính bản thân các tác nhân. AI riêng tư với trách nhiệm giải trình đã được xác minh là một tổ hợp mà các lần triển khai doanh nghiệp cần, và phần lớn đã thiếu.
Khung KYA của Billions Network và hạ tầng xác minh con người, vốn đã được chứng minh ở quy mô lớn với HSBC và Sony Bank, mang tổ hợp đó đến với một hạ tầng xử lý một triệu yêu cầu suy luận mỗi ngày cho một số trong những công ty lớn nhất thế giới. Chuẩn mực đã được thiết lập.