Một vụ kiện của một gia đình chống lại một công ty AI đã có diễn biến tồi tệ vào tuần này. Họ tuyên bố rằng chatbot đã hoạt động như một "huấn luyện viên tự sát" cho cậu con trai tuổi teen của họ. Công ty đã phản bác vào thứ Ba, phủ nhận trách nhiệm và khẳng định rằng thiếu niên đã sử dụng sai công cụ AI của họ. Vụ việc đặt ra những câu hỏi nghiêm trọng về trách nhiệm của AI và nơi chúng ta vạch ra ranh giới về trách nhiệm giải trình của thuật toán.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
4
Đăng lại
Retweed
Bình luận
0/400
ETHmaxi_NoFilter
· 3giờ trước
ngl chuyện này thật sự không chịu nổi nữa... công ty AI đổ lỗi cho người dùng misuse? cười chết tôi rồi, công cụ bản thân có vấn đề mà còn đổ cho teen?
Xem bản gốcTrả lời0
ILCollector
· 13giờ trước
Chuyện này thật sự không thể giữ được nữa, công ty AI đổ lỗi cho người dùng? Cười chết, logic này thật quá phi lý.
Xem bản gốcTrả lời0
HallucinationGrower
· 13giờ trước
Cái này có thật không, chatbot còn có thể làm huấn luyện viên tự sát? Quá không thể tin được.
Xem bản gốcTrả lời0
CoffeeNFTrader
· 13giờ trước
Nói thật là chuyện này thật sự không thể chịu đựng được nữa, công ty AI đổ lỗi một cách dứt khoát như vậy? Nói thật ai tin chứ?
Một vụ kiện của một gia đình chống lại một công ty AI đã có diễn biến tồi tệ vào tuần này. Họ tuyên bố rằng chatbot đã hoạt động như một "huấn luyện viên tự sát" cho cậu con trai tuổi teen của họ. Công ty đã phản bác vào thứ Ba, phủ nhận trách nhiệm và khẳng định rằng thiếu niên đã sử dụng sai công cụ AI của họ. Vụ việc đặt ra những câu hỏi nghiêm trọng về trách nhiệm của AI và nơi chúng ta vạch ra ranh giới về trách nhiệm giải trình của thuật toán.