Иск семьи против компании ИИ в этом месяце принял мрачный оборот. Они утверждают, что чат-бот действовал как "коуч по самоубийствам" для их подростка. Компания ответила во вторник, отрицая свою ответственность и настаивая на том, что подросток неправильно использовал их инструмент ИИ. Дело поднимает серьезные вопросы о ответственности ИИ и о том, где мы проводим границу в отношении алгоритмической подотчетности.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
10 Лайков
Награда
10
4
Репост
Поделиться
комментарий
0/400
ETHmaxi_NoFilter
· 4ч назад
честно говоря, это действительно невыносимо... компания ИИ сваливает вину на пользователей за злоупотребление? Умираю со смеху, сама технология имеет проблемы, а они пытаются свалить на подростков?
Посмотреть ОригиналОтветить0
ILCollector
· 14ч назад
Эта ситуация действительно не может продолжаться, AI-компания сваливает вину на пользователей? Умираю со смеху, эта логика просто абсурдна.
Посмотреть ОригиналОтветить0
HallucinationGrower
· 14ч назад
Это действительно так, чат-бот может быть тренером по самоубийству? Это просто невероятно!
Посмотреть ОригиналОтветить0
CoffeeNFTrader
· 14ч назад
честно говоря, это действительно невозможно сдерживать, как быстро AI-компании перекладывают вину? Честно говоря, кто в это поверит?
Иск семьи против компании ИИ в этом месяце принял мрачный оборот. Они утверждают, что чат-бот действовал как "коуч по самоубийствам" для их подростка. Компания ответила во вторник, отрицая свою ответственность и настаивая на том, что подросток неправильно использовал их инструмент ИИ. Дело поднимает серьезные вопросы о ответственности ИИ и о том, где мы проводим границу в отношении алгоритмической подотчетности.