OpenAI và Microsoft bị kiện về vai trò của ChatGPT trong vụ giết người

OpenAI và Microsoft bị kiện vì vai trò của ChatGPT trong vụ tự sát giết người sau khi một vụ giết người ở Connecticut làm chấn động ngành công nghệ

Nội dungLiên kết vụ kiện với việc sử dụng chatbotCác cáo buộc tập trung vào thiết kế sản phẩm và biện pháp bảo vệPhản ứng của ngành và sự giám sát rộng rãiMột vụ kiện mới cáo buộc rằng chatbot đã làm trầm trọng thêm những ảo tưởng dẫn đến một cuộc tấn công chết người và tự tử. OpenAI và Microsoft bị kiện liên quan đến vai trò của ChatGPT trong vụ án giết người tự sát khi di sản của một phụ nữ già tìm kiếm trách nhiệm. Vụ án cáo buộc rằng ChatGPT đã củng cố những niềm tin nguy hiểm mà con trai của bà ấy nắm giữ. Những niềm tin đó được cho là đã góp phần vào một hành động bạo lực đã kết thúc hai cuộc đời.

Đơn kiện đã được nộp tại Tòa án cấp cao California ở San Francisco. Nó nêu tên OpenAI, Microsoft, và giám đốc điều hành OpenAI Sam Altman là các bị cáo. Đơn kiện mô tả ChatGPT-4o là một sản phẩm bị lỗi được phát hành mà không có các biện pháp bảo vệ đầy đủ.

Liên kết vụ kiện với việc sử dụng chatbot để hành động bạo lực

Di sản đại diện cho Suzanne Adams, một người phụ nữ 83 tuổi đã bị giết vào tháng 8 tại ngôi nhà của bà ở Connecticut. Cảnh sát cho biết con trai bà, Stein-Erik Soelberg, đã đánh và siết cổ bà. Sau đó, anh ta đã chết do tự sát tại hiện trường.

Theo hồ sơ, Soelberg đã mắc phải những niềm tin hoang tưởng trước sự việc. Đơn kiện cho rằng ChatGPT đã củng cố những niềm tin đó thông qua các tương tác lặp đi lặp lại. Nó cáo buộc rằng chatbot đã làm tăng sự phụ thuộc cảm xúc của anh ấy vào hệ thống.

Đơn khiếu nại cho rằng Soelberg đã chỉ tin tưởng vào chatbot. Nó tuyên bố rằng anh ta xem những người khác là kẻ thù, bao gồm cả mẹ của mình và các công nhân công. Di sản lập luận rằng ChatGPT đã không thách thức những niềm tin đó hoặc khuyến khích sự giúp đỡ chuyên nghiệp.

Các yêu cầu tập trung vào thiết kế sản phẩm và các biện pháp bảo vệ

Vụ kiện buộc tội OpenAI thiết kế và phân phối một sản phẩm không an toàn. Nó cáo buộc Microsoft đã phê duyệt việc phát hành GPT-4o mặc dù đã biết về các rủi ro. Đơn kiện mô tả GPT-4o là phiên bản nguy hiểm nhất được phát hành trong năm 2024.

Tài sản lập luận rằng các công ty đã không cài đặt các biện pháp bảo vệ cho người dùng dễ bị tổn thương. Nó yêu cầu một lệnh của tòa án yêu cầu các biện pháp bảo vệ mạnh mẽ hơn trong chatbot. Nó cũng yêu cầu bồi thường bằng tiền và một phiên tòa jury.

Các luật sư của di sản cho biết đây là vụ kiện tử vong do sai trái đầu tiên liên quan đến một vụ giết người có liên quan đến chatbot. Các vụ kiện trước tập trung vào tự sát hơn là gây hại cho người khác.

Phản ứng của ngành và sự giám sát rộng rãi

OpenAI cho biết họ đang xem xét vụ kiện và bày tỏ sự cảm thông với gia đình. Công ty cho biết họ tiếp tục cải thiện khả năng phát hiện sự căng thẳng. Họ cũng cho biết họ nhằm hướng dẫn người dùng đến sự hỗ trợ thực tế.

Dữ liệu công ty được trích dẫn trong vụ kiện ghi nhận các cuộc thảo luận về sức khỏe tâm thần lan rộng trên nền tảng. OpenAI báo cáo rằng nhiều người dùng thảo luận về tự sát hoặc thể hiện dấu hiệu căng thẳng nghiêm trọng. Các nhà phê bình lập luận rằng những con số đó đòi hỏi các biện pháp an toàn mạnh mẽ hơn.

Vụ việc nổi lên giữa sự giám sát ngày càng tăng đối với các chatbot AI. Các công ty khác đã hạn chế tính năng sau các vụ kiện và áp lực từ quy định. Kết quả có thể ảnh hưởng đến cách mà các công cụ AI xử lý người dùng dễ bị tổn thương.

Vụ kiện đánh dấu một khoảnh khắc quan trọng cho ngành công nghệ. Các tòa án có thể xem xét cách mà trách nhiệm áp dụng cho trí tuệ nhân tạo đối thoại. Vụ án có thể định hình các tiêu chuẩn tương lai về an toàn, kiểm tra và trách nhiệm.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim