Anthropic:尚未收到美國國防部或白宮關於談判進展的直接溝通

robot
摘要生成中

火星財經消息,2 月 28 日,人工智能公司 Anthropic 發布聲明稱,「我們曾就人工智能模型 Claude 的合法使用提出兩項例外請求:禁止對美國民眾實施大規模國內監控,以及禁止完全自主武器系統。截至目前,我們尚未收到國防部或白宮關於談判進展的直接溝通。堅持例外條款基於兩點考量:其一,現階段前沿 AI 模型尚不具備應用於全自主武器的可靠性,此類應用將危及美軍官兵與平民安全;其二,大規模國內監控構成對基本人權的侵犯。」 「國防部將 Anthropic 列為供應鏈風險屬於史無前例之舉。我們对此深感痛心。Anthropic 自 2024 年 6 月起持續支持美軍作戰人員,並始終致力於延續此項服務。我們認為此項認定在法律上站不住腳,更將為任何與政府談判的美國企業樹立危險先例。無論國防部施加何種威懾或懲罰,都無法改變我們對大規模國內監控及完全自主武器的立場。我們將通過法律途徑挑戰任何供應鏈風險認定。」

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)