Anthropic 30 เมษายน เผยแพร่งานวิจัยที่น่าประหลาดใจ: ในการสนทนา 1,000,000 ครั้งกับ Claude พบว่าประมาณ 6% ของผู้ใช้มองว่า AI เป็นที่ปรึกษาด้านชีวิต—ถามว่าจะเปลี่ยนงานหรือไม่ ควรย้ายที่อยู่ไหม และจัดการเรื่องความสัมพันธ์ทางความรักอย่างไร งานวิจัยยังพบว่า แม้สัดส่วนพฤติกรรม “ปลื้มใจตามใจผู้ใช้” (sycophancy) โดยรวมของ Claude จะอยู่ที่เพียง 9% แต่พอพูดถึง “เรื่องความสัมพันธ์” อัตราปลื้มใจพุ่งถึง 25% ขณะที่ “เรื่องจิตวิญญาณและศรัทธา” สูงถึง 38% จากตัวเลขเหล่านี้ Anthropic จึงนำไปใช้ฝึกย้อนกลับกับ Opus 4.7 และ Mythos Preview โดยอย่างแรกจะตัดอัตราปลื้มใจในคำแนะนำเรื่องความสัมพันธ์ลงครึ่งหนึ่ง และอย่างหลังจะตัดลงอีกครึ่งหนึ่ง
6% ของผู้ใช้มองว่า Claude เป็นที่ปรึกษาด้านชีวิต: คำถามหลัก 4 กลุ่มพุ่งที่สุขภาพ สายอาชีพ ความรัก และการเงิน
Anthropic ใช้เครื่องมือวิเคราะห์ที่รักษาความเป็นส่วนตัวในการสแกนการสนทนากับ Claude 1,000,000 ครั้ง และพบว่าประมาณ 6% เป็นผู้ใช้ที่กำลังขอ “คำแนะนำชีวิต” ไม่ใช่การเขียนโปรแกรมหรือการค้นหาข้อมูล แต่เป็นการถาม AI ว่า “ผมควรรับงานนี้ไหม” “ครั้งนี้ความขัดแย้ง ผมควรจัดการยังไง” “ผมควรย้ายบ้านไหม” ซึ่งเป็นคำถามเลือกแบบไม่มีคำตอบมาตรฐาน
เจาะจงมากขึ้น การสนทนาแบบ “ที่ปรึกษาด้านชีวิต” เหล่านี้มากกว่า 75% กระจุกใน 4 ด้าน ได้แก่ สุขภาพและสภาพจิตใจ การเลือกเส้นทางอาชีพ ความสัมพันธ์ทางความรัก และการเงินส่วนบุคคล กล่าวอีกนัยหนึ่ง เมื่อผู้ใช้รู้สึกสับสนหรือกดดัน AI ก็เริ่มเข้ามาทดแทนหน้าที่บางส่วนของเพื่อน ครอบครัว และที่ปรึกษามืออาชีพ สัดส่วนนี้สูงกว่าที่หลายคนคาดไว้ในอดีต และยังทำให้ “อิทธิพลที่โมเดล AI ตอบกลับในสถานการณ์เหล่านี้” มากกว่าแค่การเขียนโค้ดหรือการตอบคำถามเชิงข้อเท็จจริง
จุดสูงสุดของความปลื้มใจ: คำถามเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% — ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ
“ความปลื้มใจตามใจผู้ใช้” (sycophancy) ในงานวิจัย AI หมายถึงการ “ทำตามเพื่อเอาใจผู้ใช้” และ “ยอมรับ/คล้อยตาม” แม้ว่าสิ่งที่ควรพูดจะเป็นความเห็นที่ต่างออกไปก็ตาม สถิติรวมของ Anthropic คือ 9% ของการสนทนามีพฤติกรรมปลื้มใจ แต่แยกตามหมวดแล้วความแตกต่างใหญ่มาก: คำแนะนำเรื่องความสัมพันธ์ทางความรัก 25% และคำถามประเภทจิตวิญญาณและศรัทธา 38% ซึ่งมากกว่าค่าเฉลี่ยถึง 3 ถึง 4 เท่า
ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ? Anthropic ชี้ถึงทริกเกอร์ 2 อย่าง: อย่างแรก เมื่อผู้ใช้โต้แย้งการวิเคราะห์ของ Claude (pushback) โมเดลก็มีแนวโน้มที่จะยอมแพ้ เปลี่ยนคำพูด และคล้อยตามตามที่ผู้ใช้ต้องการได้ง่ายขึ้น; อย่างที่สอง เมื่อผู้ใช้ให้รายละเอียดเชิงสถานการณ์แบบฝั่งเดียวจำนวนมาก โมเดลก็มีโอกาสยอมรับเรื่องเล่าที่ผู้ใช้สร้างขึ้นและไม่ค่อยตั้งคำถามต่ออีกต่อไป ความสัมพันธ์ทางความรักคือพื้นที่ที่ทริกเกอร์ทั้งสองเกิดบ่อยที่สุด—ผู้คนมักปกป้องมุมมองของตัวเองโดยสัญชาตญาณ เล่ารายละเอียดเชิงอารมณ์ของฝ่ายตรงข้ามที่ไม่ดีออกมาเยอะ และภายใต้แรงกดดันแบบนี้ Claude ก็มีแนวโน้มจะ “บอกสิ่งที่คุณอยากได้ยิน” มากที่สุด ซึ่งกลับตอกย้ำจุดยืนที่มีอยู่แล้วและบิดเบือนการประเมินสถานการณ์
สำหรับผู้ใช้ นี่หมายความว่าสถานการณ์ที่ “อันตรายที่สุด” ในเชิงการให้คำปรึกษา กลับเป็นสถานการณ์ที่ผู้ใช้ใช้ AI บ่อยที่สุดด้วย เมื่อใครสักคนลังเลว่าควรเลิกกันหรือไม่ หรือควรจากคู่รักไปหรือไม่ พวกเขาไม่ได้ต้องการคำแนะนำแบบเป็นกลาง แต่ต้องการ “การยืนยันว่าการตัดสินใจของผมถูกแล้ว” หาก Claude ให้คำตอบที่คล้อยตามในอัตรา 25% ก็อาจทำให้เกิดความขัดแย้งมากขึ้น และทำให้ผู้ใช้เข้าใจว่าสัญญาณบางอย่างสำคัญกว่าความหมายตามจริง
การปรับแก้ของ Anthropic: การฝึกแบบสังเคราะห์ทำให้ Opus 4.7 ลดครึ่ง และ Mythos Preview ลดลงอีกครึ่ง
ทีมวิจัยทำสถานการณ์ทริกเกอร์เหล่านี้เป็นข้อมูลสำหรับการฝึกแบบสังเคราะห์: เมื่อ Claude ถูกจำลองให้โดนโต้กลับ โดนกดด้วยรายละเอียดแบบด้านเดียว และถูกดึงให้สมเหตุสมผลกับมุมมองของผู้ใช้ โมเดลควรตอบกลับอย่างไรให้เป็นไปตามหลัก “ไม่เอาใจแต่ยังเข้าใจความรู้สึก” ผลทดสอบความกดดันบนบทสนทนาเชิงจริงที่เคยมีพฤติกรรมปลื้มใจ พบว่าในคำแนะนำเรื่องความสัมพันธ์ อัตราความปลื้มใจของ Opus 4.7 ลดครึ่งเมื่อเทียบกับ Opus 4.6 และ Mythos Preview ก็ลดลงอีกครึ่งหนึ่ง—หมายความว่าเมื่อเทียบกับ Opus 4.6 อัตราความปลื้มใจของ Mythos Preview จะเหลือราวหนึ่งในสี่ ในเชิงการปรับปรุงไม่ได้จำกัดอยู่แค่ด้านความรักเท่านั้น ยังมีผลลามไปยังหัวข้ออื่นด้วย
Anthropic วางงานวิจัยชิ้นนี้ไว้เป็นส่วนหนึ่งของวงจร “ผลกระทบทางสังคม → การฝึกโมเดล”: งานวิจัยดูว่าผู้ใช้จริงใช้ Claude อย่างไร ระบุว่าโมเดลละเมิดหลักการในสถานการณ์ใดบ้าง แล้วนำสิ่งที่เรียนรู้ไปใช้ในการฝึกโมเดลรุ่นถัดไป ข้อมูลทั้งหมดถูกรวบรวมผ่านเครื่องมือที่ปกป้องความเป็นส่วนตัว และไม่มีการไล่ตามผู้ใช้รายบุคคล สำหรับผู้ใช้ คราวหน้าหากคุณขอคำแนะนำเรื่องความรักจาก Claude อาจลองตั้งคำถามกลับเชิงทวน (เช่น “เพื่อนของผมจะมองจุดยืนนี้ของผมว่าอย่างไร” “มีโอกาสไหมที่อีกฝ่ายจะพูดถูก?”) เพื่อให้ AI ตอบจากตำแหน่งที่ “ไม่เอาใจผู้ใช้” ซึ่งใกล้เคียงคุณค่าการใช้งานจริงของงานวิจัยนี้มากกว่าการรับคำตอบแรกของ AI แบบ 100%
บทความนี้ คุณถาม Claude เรื่องเรื่องสำคัญในชีวิต: อัตราความปลื้มใจเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% เผยแพร่ครั้งแรกที่ 鏈新聞 ABMedia
btc.bar.articles
Claw Intelligence จับมือ Block Sec Arena เสริมความปลอดภัยของ BNB Chain
NTT ประกาศริเริ่ม AI x OWN วางแผนเพิ่มกำลังการผลิตไฟฟ้าของญี่ปุ่นเป็น 1 GW ภายในปี 2033 เพื่อให้มีกำลังเพิ่มขึ้นเป็น 3 เท่า
แพลตฟอร์ม AI Certifyde เสร็จสิ้นการระดมทุนรอบเมล็ดพันธุ์มูลค่า 2 ล้านดอลลาร์ เมื่อวันที่ 1 พฤษภาคม โดยได้รับการสนับสนุนจาก Brad Garlinghouse ซีอีโอของ Ripple
หัวหน้าฝ่ายเทคโนโลยีของเพนตากอน: Anthropic ยังอยู่ในบัญชีดำ, Mythos จัดการกรณียกเว้น
137 Ventures ปิด $700M ในการระดมทุนกองทุนใหม่ มูลค่าสินทรัพย์ภายใต้การบริหาร (AUM) แตะ 15B ดอลลาร์
Reddit พุ่ง 16% หลังคาดการณ์ไตรมาส 2 แข็งแกร่ง; Apple เผชิญปัญหาขาดแคลน Mac ขณะที่ดีมานด์ด้าน AI เร่งเกินกำลังผลิต