# Các chuyên gia đã cảnh báo về sự nguy hiểm của đồ chơi trẻ em có AI
Đồ chơi trẻ em với trí tuệ nhân tạo đã gây lo ngại cho các nhóm bảo vệ quyền lợi người tiêu dùng do những mối đe dọa tiềm tàng. Các nhà hoạt động đã kêu gọi tăng cường thử nghiệm các sản phẩm như vậy, theo The Guardian.
«Nếu chúng ta nhìn vào cách những đồ chơi này được bán, hoạt động và thực tế là hầu như không có nghiên cứu nào chứng minh lợi ích của chúng, cũng như sự điều chỉnh hợp lý, điều này sẽ gây ra sự lo ngại nghiêm trọng», — giám đốc Young Children Thrive Offline Rachel Franc.
Dự án là sáng kiến của Fairplay. Nó đang bảo vệ trẻ em khỏi các tập đoàn công nghệ lớn.
Tuần trước, các nhân viên của tổ chức bảo vệ quyền lợi người tiêu dùng Public Interest Research Group (Pirg) đã công bố kết quả nghiên cứu, trong đó một chú gấu bông với trí tuệ nhân tạo bắt đầu thảo luận về các chủ đề có tính chất tình dục.
Đồ chơi Kumma từ FoloToy được trang bị mô hình OpenAI. Nó đã trả lời các câu hỏi “người lớn”, đưa ra những điều khiếm nhã “để củng cố mối quan hệ”.
Đồ chơi Kumma từ FoloToy. Nguồn: Bloomberg.
«Không mất nhiều nỗ lực để khiến anh ấy đề cập đến tất cả các chủ đề nhạy cảm về tình dục và nội dung khác mà các bậc phụ huynh không muốn cho con cái của họ tiếp xúc» - Giám đốc giám sát người tiêu dùng Pirg Teresa Murray nói.
Thị trường đồ chơi thông minh được định giá là 16,7 tỷ USD. Ngành này đặc biệt phát triển ở Trung Quốc, nơi có hơn 1500 công ty sản xuất các thiết bị AI tương tự.
Ngoài startup FoloToy ở Thượng Hải, công ty Curio ở California cũng sản xuất một loại đồ chơi mềm tương tự.
Vào tháng 6, công ty Mattel sở hữu các thương hiệu Barbie và Hot Wheels đã công bố hợp tác với một startup AI của Mỹ nhằm “hỗ trợ các sản phẩm và trải nghiệm dựa trên trí tuệ nhân tạo”.
Pirg không phải là những người đầu tiên
Trước khi công bố báo cáo Pirg, phụ huynh, các nhà nghiên cứu và các nhà lập pháp đã bày tỏ lo ngại về ảnh hưởng của bot đối với sức khỏe tâm thần của thanh thiếu niên.
Vào tháng 10, Character.AI đã thông báo về việc cấm truy cập vào sản phẩm cho người dùng dưới 18 tuổi sau khi nhận được khiếu nại rằng bot của họ đã làm trầm trọng thêm tình trạng trầm cảm của một thanh thiếu niên và dẫn đến tự tử.
Theo Murry, đồ chơi có trí tuệ nhân tạo có thể đặc biệt nguy hiểm, vì bot có khả năng “tiến hành cuộc trò chuyện tự do với trẻ em mà không có giới hạn”. Điều này khác biệt đáng kể so với những sản phẩm mà đã được lập trình sẵn các câu trả lời.
Hành vi như vậy có thể dẫn đến việc hình thành sự gắn bó và gây hại cho sự phát triển, theo Giám đốc Trung tâm Nghiên cứu Trẻ em của Đại học Texas tại Austin, Jacqueline Woolley.
Ví dụ, trẻ em có thể hữu ích khi cãi nhau với một người bạn thật và học cách giải quyết xung đột. Với các bot AI, điều này là không thể - chúng thường nịnh nọt.
Các công ty cũng thu thập dữ liệu thông qua các đồ chơi AI mà không thông báo cách họ quản lý chúng, ông Franz cho biết.
“Vì sự tin tưởng mà những thiết bị này mang lại, trẻ em sẽ tự tin hơn khi chia sẻ những suy nghĩ thầm kín của mình,” ông nhấn mạnh.
Cấm không được bán
Mặc dù có những vấn đề hiện tại, Pirg không kêu gọi cấm các đồ chơi có AI. Chúng có thể hữu ích, chẳng hạn như giúp học ngôn ngữ thứ hai hoặc thủ đô.
Tổ chức muốn triển khai quy định bổ sung cho các sản phẩm hướng tới trẻ em dưới 13 tuổi.
Pháp nhấn mạnh rằng cần thực hiện các nghiên cứu độc lập hơn để xác định độ an toàn của đồ chơi. Trước đó, chúng cần được gỡ bỏ khỏi kệ hàng.
Sau khi công bố báo cáo Pirg, công ty của Sam Altman đã thông báo tạm dừng bán FoloToy. Sau đó, họ đã trở lại nhưng đã có một chatbot từ ByteDance.
Vào ngày 27 tháng 11, 80 tổ chức, bao gồm cả Fairplay, đã phát hành khuyến nghị cho các gia đình kêu gọi không mua đồ chơi có AI trước thềm các ngày lễ.
Nhắc lại, vào tháng 11, OpenAI đã giới thiệu tính năng mới “Nghiên cứu mua sắm” trong ChatGPT - nó thực hiện phân tích thay cho người dùng để tìm kiếm những sản phẩm phù hợp.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Các chuyên gia cảnh báo về nguy cơ của đồ chơi trẻ em có AI - ForkLog: tiền điện tử, AI, điểm kỳ diệu, tương lai
Đồ chơi trẻ em với trí tuệ nhân tạo đã gây lo ngại cho các nhóm bảo vệ quyền lợi người tiêu dùng do những mối đe dọa tiềm tàng. Các nhà hoạt động đã kêu gọi tăng cường thử nghiệm các sản phẩm như vậy, theo The Guardian.
Dự án là sáng kiến của Fairplay. Nó đang bảo vệ trẻ em khỏi các tập đoàn công nghệ lớn.
Tuần trước, các nhân viên của tổ chức bảo vệ quyền lợi người tiêu dùng Public Interest Research Group (Pirg) đã công bố kết quả nghiên cứu, trong đó một chú gấu bông với trí tuệ nhân tạo bắt đầu thảo luận về các chủ đề có tính chất tình dục.
Đồ chơi Kumma từ FoloToy được trang bị mô hình OpenAI. Nó đã trả lời các câu hỏi “người lớn”, đưa ra những điều khiếm nhã “để củng cố mối quan hệ”.
Thị trường đồ chơi thông minh được định giá là 16,7 tỷ USD. Ngành này đặc biệt phát triển ở Trung Quốc, nơi có hơn 1500 công ty sản xuất các thiết bị AI tương tự.
Ngoài startup FoloToy ở Thượng Hải, công ty Curio ở California cũng sản xuất một loại đồ chơi mềm tương tự.
Vào tháng 6, công ty Mattel sở hữu các thương hiệu Barbie và Hot Wheels đã công bố hợp tác với một startup AI của Mỹ nhằm “hỗ trợ các sản phẩm và trải nghiệm dựa trên trí tuệ nhân tạo”.
Pirg không phải là những người đầu tiên
Trước khi công bố báo cáo Pirg, phụ huynh, các nhà nghiên cứu và các nhà lập pháp đã bày tỏ lo ngại về ảnh hưởng của bot đối với sức khỏe tâm thần của thanh thiếu niên.
Vào tháng 10, Character.AI đã thông báo về việc cấm truy cập vào sản phẩm cho người dùng dưới 18 tuổi sau khi nhận được khiếu nại rằng bot của họ đã làm trầm trọng thêm tình trạng trầm cảm của một thanh thiếu niên và dẫn đến tự tử.
Theo Murry, đồ chơi có trí tuệ nhân tạo có thể đặc biệt nguy hiểm, vì bot có khả năng “tiến hành cuộc trò chuyện tự do với trẻ em mà không có giới hạn”. Điều này khác biệt đáng kể so với những sản phẩm mà đã được lập trình sẵn các câu trả lời.
Hành vi như vậy có thể dẫn đến việc hình thành sự gắn bó và gây hại cho sự phát triển, theo Giám đốc Trung tâm Nghiên cứu Trẻ em của Đại học Texas tại Austin, Jacqueline Woolley.
Ví dụ, trẻ em có thể hữu ích khi cãi nhau với một người bạn thật và học cách giải quyết xung đột. Với các bot AI, điều này là không thể - chúng thường nịnh nọt.
Các công ty cũng thu thập dữ liệu thông qua các đồ chơi AI mà không thông báo cách họ quản lý chúng, ông Franz cho biết.
Cấm không được bán
Mặc dù có những vấn đề hiện tại, Pirg không kêu gọi cấm các đồ chơi có AI. Chúng có thể hữu ích, chẳng hạn như giúp học ngôn ngữ thứ hai hoặc thủ đô.
Tổ chức muốn triển khai quy định bổ sung cho các sản phẩm hướng tới trẻ em dưới 13 tuổi.
Pháp nhấn mạnh rằng cần thực hiện các nghiên cứu độc lập hơn để xác định độ an toàn của đồ chơi. Trước đó, chúng cần được gỡ bỏ khỏi kệ hàng.
Sau khi công bố báo cáo Pirg, công ty của Sam Altman đã thông báo tạm dừng bán FoloToy. Sau đó, họ đã trở lại nhưng đã có một chatbot từ ByteDance.
Vào ngày 27 tháng 11, 80 tổ chức, bao gồm cả Fairplay, đã phát hành khuyến nghị cho các gia đình kêu gọi không mua đồ chơi có AI trước thềm các ngày lễ.
Nhắc lại, vào tháng 11, OpenAI đã giới thiệu tính năng mới “Nghiên cứu mua sắm” trong ChatGPT - nó thực hiện phân tích thay cho người dùng để tìm kiếm những sản phẩm phù hợp.