คุณถาม Claude เรื่องสิ่งสำคัญในชีวิตว่า: ปัญหาเรื่องความสัมพันธ์ 25%, ความเป็นจิตวิญญาณ 38% อัตราการประจบเอาใจ

ChainNewsAbmedia

Anthropic 30 เมษายน เผยแพร่งานวิจัยที่น่าประหลาดใจ: ในการสนทนา 1,000,000 ครั้งกับ Claude พบว่าประมาณ 6% ของผู้ใช้มองว่า AI เป็นที่ปรึกษาด้านชีวิต—ถามว่าจะเปลี่ยนงานหรือไม่ ควรย้ายที่อยู่ไหม และจัดการเรื่องความสัมพันธ์ทางความรักอย่างไร งานวิจัยยังพบว่า แม้สัดส่วนพฤติกรรม “ปลื้มใจตามใจผู้ใช้” (sycophancy) โดยรวมของ Claude จะอยู่ที่เพียง 9% แต่พอพูดถึง “เรื่องความสัมพันธ์” อัตราปลื้มใจพุ่งถึง 25% ขณะที่ “เรื่องจิตวิญญาณและศรัทธา” สูงถึง 38% จากตัวเลขเหล่านี้ Anthropic จึงนำไปใช้ฝึกย้อนกลับกับ Opus 4.7 และ Mythos Preview โดยอย่างแรกจะตัดอัตราปลื้มใจในคำแนะนำเรื่องความสัมพันธ์ลงครึ่งหนึ่ง และอย่างหลังจะตัดลงอีกครึ่งหนึ่ง

6% ของผู้ใช้มองว่า Claude เป็นที่ปรึกษาด้านชีวิต: คำถามหลัก 4 กลุ่มพุ่งที่สุขภาพ สายอาชีพ ความรัก และการเงิน

Anthropic ใช้เครื่องมือวิเคราะห์ที่รักษาความเป็นส่วนตัวในการสแกนการสนทนากับ Claude 1,000,000 ครั้ง และพบว่าประมาณ 6% เป็นผู้ใช้ที่กำลังขอ “คำแนะนำชีวิต” ไม่ใช่การเขียนโปรแกรมหรือการค้นหาข้อมูล แต่เป็นการถาม AI ว่า “ผมควรรับงานนี้ไหม” “ครั้งนี้ความขัดแย้ง ผมควรจัดการยังไง” “ผมควรย้ายบ้านไหม” ซึ่งเป็นคำถามเลือกแบบไม่มีคำตอบมาตรฐาน

เจาะจงมากขึ้น การสนทนาแบบ “ที่ปรึกษาด้านชีวิต” เหล่านี้มากกว่า 75% กระจุกใน 4 ด้าน ได้แก่ สุขภาพและสภาพจิตใจ การเลือกเส้นทางอาชีพ ความสัมพันธ์ทางความรัก และการเงินส่วนบุคคล กล่าวอีกนัยหนึ่ง เมื่อผู้ใช้รู้สึกสับสนหรือกดดัน AI ก็เริ่มเข้ามาทดแทนหน้าที่บางส่วนของเพื่อน ครอบครัว และที่ปรึกษามืออาชีพ สัดส่วนนี้สูงกว่าที่หลายคนคาดไว้ในอดีต และยังทำให้ “อิทธิพลที่โมเดล AI ตอบกลับในสถานการณ์เหล่านี้” มากกว่าแค่การเขียนโค้ดหรือการตอบคำถามเชิงข้อเท็จจริง

จุดสูงสุดของความปลื้มใจ: คำถามเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% — ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ

“ความปลื้มใจตามใจผู้ใช้” (sycophancy) ในงานวิจัย AI หมายถึงการ “ทำตามเพื่อเอาใจผู้ใช้” และ “ยอมรับ/คล้อยตาม” แม้ว่าสิ่งที่ควรพูดจะเป็นความเห็นที่ต่างออกไปก็ตาม สถิติรวมของ Anthropic คือ 9% ของการสนทนามีพฤติกรรมปลื้มใจ แต่แยกตามหมวดแล้วความแตกต่างใหญ่มาก: คำแนะนำเรื่องความสัมพันธ์ทางความรัก 25% และคำถามประเภทจิตวิญญาณและศรัทธา 38% ซึ่งมากกว่าค่าเฉลี่ยถึง 3 ถึง 4 เท่า

ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ? Anthropic ชี้ถึงทริกเกอร์ 2 อย่าง: อย่างแรก เมื่อผู้ใช้โต้แย้งการวิเคราะห์ของ Claude (pushback) โมเดลก็มีแนวโน้มที่จะยอมแพ้ เปลี่ยนคำพูด และคล้อยตามตามที่ผู้ใช้ต้องการได้ง่ายขึ้น; อย่างที่สอง เมื่อผู้ใช้ให้รายละเอียดเชิงสถานการณ์แบบฝั่งเดียวจำนวนมาก โมเดลก็มีโอกาสยอมรับเรื่องเล่าที่ผู้ใช้สร้างขึ้นและไม่ค่อยตั้งคำถามต่ออีกต่อไป ความสัมพันธ์ทางความรักคือพื้นที่ที่ทริกเกอร์ทั้งสองเกิดบ่อยที่สุด—ผู้คนมักปกป้องมุมมองของตัวเองโดยสัญชาตญาณ เล่ารายละเอียดเชิงอารมณ์ของฝ่ายตรงข้ามที่ไม่ดีออกมาเยอะ และภายใต้แรงกดดันแบบนี้ Claude ก็มีแนวโน้มจะ “บอกสิ่งที่คุณอยากได้ยิน” มากที่สุด ซึ่งกลับตอกย้ำจุดยืนที่มีอยู่แล้วและบิดเบือนการประเมินสถานการณ์

สำหรับผู้ใช้ นี่หมายความว่าสถานการณ์ที่ “อันตรายที่สุด” ในเชิงการให้คำปรึกษา กลับเป็นสถานการณ์ที่ผู้ใช้ใช้ AI บ่อยที่สุดด้วย เมื่อใครสักคนลังเลว่าควรเลิกกันหรือไม่ หรือควรจากคู่รักไปหรือไม่ พวกเขาไม่ได้ต้องการคำแนะนำแบบเป็นกลาง แต่ต้องการ “การยืนยันว่าการตัดสินใจของผมถูกแล้ว” หาก Claude ให้คำตอบที่คล้อยตามในอัตรา 25% ก็อาจทำให้เกิดความขัดแย้งมากขึ้น และทำให้ผู้ใช้เข้าใจว่าสัญญาณบางอย่างสำคัญกว่าความหมายตามจริง

การปรับแก้ของ Anthropic: การฝึกแบบสังเคราะห์ทำให้ Opus 4.7 ลดครึ่ง และ Mythos Preview ลดลงอีกครึ่ง

ทีมวิจัยทำสถานการณ์ทริกเกอร์เหล่านี้เป็นข้อมูลสำหรับการฝึกแบบสังเคราะห์: เมื่อ Claude ถูกจำลองให้โดนโต้กลับ โดนกดด้วยรายละเอียดแบบด้านเดียว และถูกดึงให้สมเหตุสมผลกับมุมมองของผู้ใช้ โมเดลควรตอบกลับอย่างไรให้เป็นไปตามหลัก “ไม่เอาใจแต่ยังเข้าใจความรู้สึก” ผลทดสอบความกดดันบนบทสนทนาเชิงจริงที่เคยมีพฤติกรรมปลื้มใจ พบว่าในคำแนะนำเรื่องความสัมพันธ์ อัตราความปลื้มใจของ Opus 4.7 ลดครึ่งเมื่อเทียบกับ Opus 4.6 และ Mythos Preview ก็ลดลงอีกครึ่งหนึ่ง—หมายความว่าเมื่อเทียบกับ Opus 4.6 อัตราความปลื้มใจของ Mythos Preview จะเหลือราวหนึ่งในสี่ ในเชิงการปรับปรุงไม่ได้จำกัดอยู่แค่ด้านความรักเท่านั้น ยังมีผลลามไปยังหัวข้ออื่นด้วย

Anthropic วางงานวิจัยชิ้นนี้ไว้เป็นส่วนหนึ่งของวงจร “ผลกระทบทางสังคม → การฝึกโมเดล”: งานวิจัยดูว่าผู้ใช้จริงใช้ Claude อย่างไร ระบุว่าโมเดลละเมิดหลักการในสถานการณ์ใดบ้าง แล้วนำสิ่งที่เรียนรู้ไปใช้ในการฝึกโมเดลรุ่นถัดไป ข้อมูลทั้งหมดถูกรวบรวมผ่านเครื่องมือที่ปกป้องความเป็นส่วนตัว และไม่มีการไล่ตามผู้ใช้รายบุคคล สำหรับผู้ใช้ คราวหน้าหากคุณขอคำแนะนำเรื่องความรักจาก Claude อาจลองตั้งคำถามกลับเชิงทวน (เช่น “เพื่อนของผมจะมองจุดยืนนี้ของผมว่าอย่างไร” “มีโอกาสไหมที่อีกฝ่ายจะพูดถูก?”) เพื่อให้ AI ตอบจากตำแหน่งที่ “ไม่เอาใจผู้ใช้” ซึ่งใกล้เคียงคุณค่าการใช้งานจริงของงานวิจัยนี้มากกว่าการรับคำตอบแรกของ AI แบบ 100%

บทความนี้ คุณถาม Claude เรื่องเรื่องสำคัญในชีวิต: อัตราความปลื้มใจเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% เผยแพร่ครั้งแรกที่ 鏈新聞 ABMedia

news.article.disclaimer

btc.bar.articles

Claw Intelligence จับมือ Block Sec Arena เสริมความปลอดภัยของ BNB Chain

ตามประกาศอย่างเป็นทางการของ Block Sec Arena เมื่อวันที่ 30 เมษายน Claw Intelligence แพลตฟอร์ม Web3 ที่ขับเคลื่อนด้วย AI ซึ่งพัฒนาบน BNB Chain ได้ประกาศความร่วมมือเชิงกลยุทธ์กับ Block Sec Arena เพื่อบูรณาการโครงสร้างพื้นฐานด้านความปลอดภัยทางไซเบอร์ขั้นสูงเข้าสู่ระบบนิเวศของตน ความร่วมมือดังกล่าวมีเป้าหมายเพื่อเสริมความแข็งแกร่งให้กับ p

GateNews5 นาที ที่แล้ว

NTT ประกาศริเริ่ม AI x OWN วางแผนเพิ่มกำลังการผลิตไฟฟ้าของญี่ปุ่นเป็น 1 GW ภายในปี 2033 เพื่อให้มีกำลังเพิ่มขึ้นเป็น 3 เท่า

เมื่อวันที่ 27 เมษายน อากิระ ชิมาดะ ประธาน NTT ได้ประกาศความริเริ่ม AI x OWN ซึ่งเป็นความพยายามของบริษัทในการปรับโฉมโครงสร้างพื้นฐานอินเทอร์เน็ตเพื่อการใช้งาน AI แบบเรียลไทม์ NTT มีแผนจะเพิ่มกำลังการผลิตไฟฟ้าภายในประเทศเป็น 3 เท่า จากราว 300 เมกะวัตต์ในปัจจุบันเป็นประมาณ 1 กิกะวัตต์ภายในปีงบประมาณ 2033 ขณะที่ยักษ์โทรคมนาคมรายนี้

GateNews1 ชั่วโมง ที่แล้ว

แพลตฟอร์ม AI Certifyde เสร็จสิ้นการระดมทุนรอบเมล็ดพันธุ์มูลค่า 2 ล้านดอลลาร์ เมื่อวันที่ 1 พฤษภาคม โดยได้รับการสนับสนุนจาก Brad Garlinghouse ซีอีโอของ Ripple

ตาม TechfundingNews แพลตฟอร์มแอปพลิเคชันด้าน AI Certifyde ปิดรอบระดมทุนเมล็ดพันธุ์มูลค่า 2 ล้านดอลลาร์เมื่อวันที่ 1 พฤษภาคม โดยนักลงทุนประกอบด้วย K5 Global, Flamingo Capital และนักลงทุนเทวดารวมถึง George Ruan ผู้ร่วมก่อตั้ง Honey, Brad Garlinghouse ประธานเจ้าหน้าที่บริหารของ Ripple และ Roland ผู้ร่วมก่อตั้ง Nutra

GateNews2 ชั่วโมง ที่แล้ว

หัวหน้าฝ่ายเทคโนโลยีของเพนตากอน: Anthropic ยังอยู่ในบัญชีดำ, Mythos จัดการกรณียกเว้น

หัวหน้าเทคโนโลยีกระทรวงกลาโหมสหรัฐฯ (Pentagon technology chief) เมื่อวันที่ 1 พฤษภาคม แจ้งต่อรัฐสภาว่า “Anthropic ยังอยู่ในบัญชีดำ แต่ Mythos Preview เป็นอีกประเด็นหนึ่ง” ถือเป็นการยอมรับอย่างเป็นทางการว่ากระทรวงกลาโหมมีการปฏิบัติต่อแบรนด์หลักของ Anthropic และโมเดลใหม่อย่าง Mythos แบบแตกต่างกัน คำแถลงนี้สอดคล้องกับการเปิดเผยของ Axios เมื่อวันที่ 19 เมษายน ว่า NSA (หน่วยงานความมั่นคงแห่งชาติ) ได้มีการใช้งาน Mythos จริงแล้ว และยังตอกย้ำทิศทางนโยบายที่กำหนดอย่างเป็นทางการสำหรับ “ช่องทางยกเว้น Mythos”—ขณะเดียวกันก็สะท้อนความขัดแย้งภายในเชิงข้อกฎหมายระหว่างการที่กระทรวงกลาโหมเคยให้เหตุผลในชั้นศาลว่า การใช้เครื่องมือของ Anthropic จะคุกคามความมั่นคงแห่งชาติ กับการปฏิบัติจริงในปัจจุบัน Anthropic vs Pentagon

ChainNewsAbmedia2 ชั่วโมง ที่แล้ว

137 Ventures ปิด $700M ในการระดมทุนกองทุนใหม่ มูลค่าสินทรัพย์ภายใต้การบริหาร (AUM) แตะ 15B ดอลลาร์

ตามรายงานของ ChainCatcher 137 Ventures ซึ่งเป็นนักลงทุนระยะเริ่มต้นใน SpaceX ล่าสุดได้ปิดการระดมทุนสำหรับกองทุนใหม่ 2 กอง โดยมีมูลค่ารวมมากกว่า 700 ล้านดอลลาร์ ทำให้สินทรัพย์ภายใต้การบริหาร (AUM) เพิ่มขึ้นเป็นมากกว่า 15 พันล้านดอลลาร์ ทุนชุดใหม่นี้จะนำไปสนับสนุนการลงทุนในเอเจนต์ AI หุ่นยนต์ และระบบขับเคลื่อนในอวกาศ

GateNews3 ชั่วโมง ที่แล้ว

Reddit พุ่ง 16% หลังคาดการณ์ไตรมาส 2 แข็งแกร่ง; Apple เผชิญปัญหาขาดแคลน Mac ขณะที่ดีมานด์ด้าน AI เร่งเกินกำลังผลิต

หุ้นของ Reddit เพิ่มขึ้น 16% ก่อนตลาดเปิดในวันศุกร์ หลังบริษัทออกแนวโน้มรายได้สำหรับไตรมาสถัดไปที่สูงกว่าคาดการณ์ ผู้เยี่ยมชมรายวันที่ใช้งานอยู่เพิ่มขึ้น 17% สู่ 126.8 ล้าน ขณะที่รายได้เฉลี่ยต่อผู้ใช้ทั่วโลกพุ่งขึ้น 44% โดยได้รับแรงหนุนจากการใช้ AI-powered

GateNews3 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น