OpenAI ถูกเปิดเผยอย่างละเอียด: ทฤษฎีสมคบคิดเกี่ยวกับการเปลี่ยนจากไม่แสวงหาผลกำไรเป็นแสวงหาผลกำไร

動區BlockTempo
GPT-32.18%

OpenAI เป็นระบบและ premeditating การเปลี่ยนแปลงพื้นฐานจาก “เพื่อความเป็นอยู่ที่ดีของมนุษยชาติ” เป็น “เพื่อผลกําไรของนักลงทุน” ซีอีโอ Altman มีรูปแบบระยะยาวและเอกสารที่ดีของคําพูดและการกระทําที่ไม่สอดคล้องกันการจัดการข้อมูลและการหลีกเลี่ยงการกํากับดูแลและการผูกมัดการลงทุนส่วนบุคคลกับธุรกิจของ บริษัท (เรื่องย่อ: GPT-5 เปิดตัวในฤดูร้อนนี้!) Sam Altman เผยพิมพ์เขียวโมเดลรุ่นต่อไปของ OpenAI ความทะเยอทะยานของ StarGate จะมีโฆษณาหรือไม่? (พื้นหลังเพิ่ม: OpenAI Shock Bomb!) การเข้าซื้อกิจการของ Jony Ive io, Altman ดีไซเนอร์ระดับตํานานของ Apple: “ฮาร์ดแวร์ AI ที่ยอดเยี่ยมที่สุด” กําลังจะมาถึง) รายงานเชิงโต้ตอบที่มีมากกว่า 50 หน้าและคํามากกว่า 10,000 คําเผยให้เห็นวิวัฒนาการของ OpenAI จากห้องปฏิบัติการวิจัยที่ไม่แสวงหาผลกําไรไปสู่ยักษ์ใหญ่ที่แสวงหาผลกําไร เมื่อเร็ว ๆ นี้ องค์กรเฝ้าระวังเทคโนโลยีที่ไม่แสวงหาผลกําไรสองแห่ง ได้แก่ Midas Project และ Tech Oversight Project ได้เผยแพร่การตรวจสอบเชิงลึกที่เรียกว่า OpenAI Archives รายงานนําโดย Tyler Johnston ผู้อํานวยการบริหารของ Midas Project ใช้เวลาเกือบหนึ่งปีในการรวบรวมข้อมูลสาธารณะและการเขียนอย่างเข้มข้นหนึ่งเดือน รายงานนี้เรียกมันว่า “การรวบรวมที่ครอบคลุมที่สุดจนถึงปัจจุบันของข้อกังวลที่เป็นเอกสารเกี่ยวกับ OpenAI ในแง่ของแนวทางปฏิบัติด้านบรรษัทภิบาลความซื่อสัตย์ของความเป็นผู้นําและวัฒนธรรมองค์กร” โดยการรวบรวมเอกสารสาธารณะจํานวนมากเช่นไฟล์การเปิดเผยข้อมูลของ บริษัท การดําเนินการทางกฎหมายจดหมายเปิดผนึกและรายงานสื่อรายงานแบบโต้ตอบมากกว่า 10,000 คําพบว่า OpenAI เป็นระบบและคาดการณ์ล่วงหน้าการเปลี่ยนแปลงพื้นฐานจาก “เพื่อความเป็นอยู่ที่ดีของมนุษยชาติ” เป็น “เพื่อผลกําไรของนักลงทุน” โดย CEO Altman มีรูปแบบระยะยาวที่มีเอกสารอย่างดีของคําพูดและการกระทําที่ไม่สอดคล้องกันการจัดการข้อมูลและการหลีกเลี่ยงการกํากับดูแลและการผูกมัดการลงทุนส่วนบุคคลกับธุรกิจของ บริษัท OpenAI นั้นขัดแย้งกันในเรื่องความปลอดภัยและความโปร่งใส และความมุ่งมั่นของสาธารณชนถูกตัดการเชื่อมต่ออย่างร้ายแรงจากแนวทางปฏิบัติภายใน รายงานแบ่งออกเป็นสี่หัวข้อหลัก: การปรับโครงสร้างความซื่อสัตย์ของซีอีโอความโปร่งใสและความปลอดภัยและความขัดแย้งทางผลประโยชน์ ขอบเขตที่ผู้บริหารและสมาชิกคณะกรรมการของ OpenAI ได้รับประโยชน์โดยตรงหรือโดยอ้อมจากความสําเร็จของ บริษัท เป็นเรื่องที่น่ากังวล ซึ่งรวมถึงการวิเคราะห์พอร์ตโฟลิโอของ CEO Altman ที่เกี่ยวข้องกับ Retro Biosciences, Helion Energy, Reddit, Stripe และ บริษัท อื่น ๆ อีกมากมายที่มีความร่วมมือกับ OpenAI การปรับโครงสร้าง: “การทรยศต่อภารกิจ” ที่ซับซ้อนรายงานตั้งข้อสังเกตว่า OpenAI เป็นระบบและ premeditated เพื่อรื้อเสาหลักทางจริยธรรมและโครงสร้างของการก่อตั้งและการกระทําของมันขัดแย้งกับการออกเสียงของสาธารณชนอย่างจริงจังโดยพื้นฐานแล้วการเปลี่ยนพื้นฐานจาก “เพื่อประโยชน์ของมนุษยชาติ” เป็น “เพื่อผลกําไรของนักลงทุน” ประการแรกรายงานเผยให้เห็นการสลายตัวพร้อมกันของสองเสาหลักของ OpenAI นั่นคือ “เพดานกําไร” และ “การกํากับดูแลองค์กรไม่แสวงหาผลกําไร” โมเดล “Capped-Profit” ดั้งเดิมเป็นปรัชญาหลักซึ่งมีวัตถุประสงค์เพื่อให้แน่ใจว่าความมั่งคั่งมหาศาลที่สร้างขึ้นโดย AGI ถูกแบ่งปันกับมนุษยชาติทั้งหมดและเพื่อป้องกันการกระจุกตัวของความมั่งคั่งมากเกินไป อย่างไรก็ตามความมุ่งมั่นนี้ค่อยๆถูกกลวงออก: จากการลดทวีคูณกําไรที่เสริมสร้างภารกิจอย่างเห็นได้ชัดไปจนถึงการแนะนําความลับของประโยค “การเติบโตอัตโนมัติ 20% ต่อปี” ที่ทําให้ไร้ประโยชน์ในการทํางานไปจนถึงแผนสุดท้ายที่จะลบหมวกออกอย่างสมบูรณ์ซึ่งเป็นจุดสิ้นสุดของแนวคิดการแบ่งปันความมั่งคั่ง ในขณะเดียวกันกลไกการกํากับดูแลก็อ่อนแอลงอย่างชาญฉลาด OpenAI เปลี่ยนจากหน่วยงานที่ควบคุมโดยองค์กรไม่แสวงหาผลกําไรเป็น บริษัท สาธารณประโยชน์ในเดลาแวร์ ภาระผูกพันทางกฎหมายได้เปลี่ยนจาก “ลําดับความสําคัญของภารกิจ” เป็น “การสร้างสมดุลระหว่างผลประโยชน์ของผู้ถือหุ้นและผลประโยชน์สาธารณะ” รายงานตั้งข้อสังเกตว่า “ไม่มีแบบอย่างในประวัติศาสตร์สําหรับผู้ถือหุ้นที่จะฟ้องร้องเพื่อปกป้องผลประโยชน์สาธารณะได้สําเร็จ” ทําให้สัญญา pro bono แทบจะเป็นไปไม่ได้เลยที่จะบังคับใช้ในทางปฏิบัติทางกฎหมาย สิ่งนี้ชี้ให้เห็นว่าความมุ่งมั่นของ PBC ต่อ “สาธารณประโยชน์” อาจลดลงเหลือเพียงเปลือกในความเป็นจริงโดยให้ความคุ้มครองทางกฎหมายขนาดใหญ่สําหรับการแสวงหาผลกําไรสูงสุด ที่มาของภาพ: เว็บไซต์ openaifiles.org/ รายงานยังหักล้างสํานวนโวหารอย่างเป็นทางการของ OpenAI ในการละทิ้งความมุ่งมั่นด้วยเหตุผลที่ว่า “อุตสาหกรรมมีการแข่งขันสูง” โดยอ้างถึงข้อบังคับในช่วงต้นของ บริษัท และอีเมลภายในรายงานพิสูจน์ว่า OpenAI คาดการณ์และเตรียมพร้อมที่จะรับมือกับการแข่งขันในอุตสาหกรรมที่รุนแรงตั้งแต่เริ่มก่อตั้ง ดังนั้นการใช้การแข่งขันเป็นเหตุผลในการประนีประนอมสัญญาจึงเป็น “ประวัติศาสตร์การแก้ไข” ที่ไม่สามารถป้องกันได้ แรงจูงใจที่แท้จริงที่อยู่เบื้องหลังสิ่งนี้คือนักลงทุนและผู้บริหารของ บริษัท เชื่อมั่นในศักยภาพในการทํากําไรมหาศาลดังนั้นจึงเป็นเรื่องสําคัญที่จะต้องถอดหมวกออก ความซื่อสัตย์ของซีอีโอ: รูปแบบพฤติกรรมของซีอีโอทําให้เกิดวิกฤตความไว้วางใจรายงานเพิ่มเติมตั้งข้อสังเกตว่าซีอีโออัลท์แมนมีรูปแบบการพูดและการกระทําที่ไม่สอดคล้องกันมายาวนานการจัดการข้อมูลและการหลีกเลี่ยงการกํากับดูแลและการจัดลําดับความสําคัญของผลประโยชน์ส่วนบุคคลมากกว่าความรับผิดชอบขององค์กร รายงานอ้างถึงตัวอย่างหลายประการของ Altman ที่โกหกอย่างเปิดเผยหรือทําให้เข้าใจผิดในประเด็นสําคัญ ตัวอย่าง: ในประเด็นของข้อตกลงที่ไม่ทําให้พนักงานเสื่อมเสีย Altman อ้างต่อสาธารณชนว่าไม่ทราบถึงข้อ “การกีดกันส่วนของผู้ถือหุ้นของพนักงานที่ลาออก” แต่เอกสารแสดงให้เห็นว่าเขาอนุญาตข้อนี้อย่างชัดเจน ในคําให้การของวุฒิสภาภายใต้คําสาบานเขาอ้างว่าไม่มีส่วนได้ส่วนเสียใน OpenAI แต่ต่อมายอมรับว่าถือโดยอ้อมผ่านกองทุน ความจริงที่ว่าเขาเป็นเจ้าของกองทุนเริ่มต้น OpenAI เป็นการส่วนตัวนั้นถูกซ่อนไว้จากคณะกรรมการมานานแล้ว เฮเลน โทเนอร์ อดีตสมาชิกคณะกรรมการกล่าวหาอัลท์แมนโดยตรงว่าขัดขวางการปฏิบัติงานของคณะกรรมการโดย “ระงับข้อมูล บิดเบือนข้อเท็จจริง และแม้แต่โกหกอย่างตรงไปตรงมา” รายงานยังแสดงให้เห็นว่ารูปแบบของพฤติกรรมนี้ยังคงดําเนินต่อไปตลอดอาชีพการงานของเขา: ในช่วงเวลาที่เขาอยู่ที่ Loopt พนักงานอาวุโสพยายามให้คณะกรรมการไล่เขาออกสองครั้งโดยอ้างถึงพฤติกรรมที่ “หลอกลวงและวุ่นวาย” ในช่วงเวลาที่เขาอยู่ที่ Y Combinator เขาละเลยหน้าที่ของเขาโดยมุ่งเน้นไปที่โครงการส่วนตัวของเขาและในที่สุดก็ถูก “ถาม” โดยผู้ก่อตั้ง Paul Graham การแสดงออกที่น่าทึ่งที่สุดคือหลังจากถูกไล่ออกจากบอร์ด OpenAI เขาใช้อิทธิพลของเขาเพื่อย้อนกลับการดําเนินการประสบความสําเร็จในการบรรลุ “ฟันเฟือง” ของระบบการกํากับดูแลโดย “ลบสมาชิกคณะกรรมการของเขาและติดตั้งพันธมิตรของเขาเอง” เป็นเงื่อนไขการส่งคืน ความเสี่ยงด้านปฏิบัติการและความปลอดภัย: ความล้มเหลวของระบบของข้อผูกพันด้านความปลอดภัยรายงานเผยให้เห็นความแตกต่างอย่างเป็นระบบระหว่างคําพูดและการกระทําของ OpenAI เมื่อพูดถึงความปลอดภัยและความโปร่งใสโดยมีการตัดการเชื่อมต่ออย่างรุนแรงระหว่างภาระผูกพันสาธารณะและการปฏิบัติภายใน วัฒนธรรมของ บริษัท แสดงให้เห็นถึงแนวโน้มที่จะ “เร็วแต่ไม่แตกหัก” และกําลังอ่อนแอลงอย่างเป็นระบบหลีกเลี่ยงและแม้กระทั่งลงโทษการกํากับดูแลความปลอดภัยและการคัดค้านภายในเพื่อแสวงหาผลประโยชน์ทางธุรกิจและความได้เปรียบในการแข่งขัน รายงานเผยให้เห็นความไม่สอดคล้องกันอย่างเป็นระบบระหว่างคําพูดและการกระทําของ OpenAI เมื่อพูดถึงความปลอดภัยและความโปร่งใส บริษัท สัญญาว่าจะอุทิศทรัพยากรคอมพิวเตอร์ 20% ให้กับทีมรักษาความปลอดภัยที่ “สอดคล้องอย่างยิ่ง” แต่ตามที่อดีตหัวหน้า Jan Leike กล่าวว่าทรัพยากรนี้ไม่เคยได้รับการจัดสรร ในการพัฒนา GPT-4o ทีมรักษาความปลอดภัยถูกขอให้ทําการทดสอบ “fast-track” ก่อนที่ผลิตภัณฑ์จะถูกปล่อยออกมาและ บริษัท ได้วางแผนการเฉลิมฉลองการเปิดตัวก่อนที่การประเมินจะเริ่มขึ้น อย่างจริงจังมากขึ้น บริษัท ข่มขู่พนักงานที่ออกจากงานด้วยข้อตกลงการชดเชยที่รุนแรงซึ่งจะทําให้ บริษัท เสียเงินหลายล้านดอลลาร์หากถูกวิพากษ์วิจารณ์ พนักงาน Leopold Aschenbrenner ถูกไล่ออกเนื่องจากยื่นบันทึกความเสี่ยงด้านความมั่นคงแห่งชาติกับคณะกรรมการและ บริษัท แจ้งเขาอย่างชัดเจนว่าสาเหตุของการเลิกจ้างคือเขา “ก้าวไปไกลกว่านั้น” เพื่อรายงานปัญหาด้านความปลอดภัย รายงานยังชี้ให้เห็นว่า OpenAI มีเหตุการณ์ด้านความปลอดภัยที่ร้ายแรงของการแฮ็กและการโจรกรรมรายละเอียดทางเทคนิคของ AI ในปี 2023 แต่ไม่ได้รายงานต่อบริษัทนานถึงหนึ่งปี

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น