สรุปโดยย่อ
กลุ่ม Threat Intelligence ของ Google (GTIG) เตือนอีกครั้งเกี่ยวกับความเสี่ยงของ AI โดยเผยแพร่รายงานล่าสุดเกี่ยวกับการใช้งาน AI โดยแฮกเกอร์ที่สนับสนุนโดยรัฐ รายงานระบุว่ามีการเพิ่มขึ้นของความพยายามในการดึงข้อมูลโมเดล ซึ่งเป็นวิธีการโจรกรรมทรัพย์สินทางปัญญาโดยการสอบถามโมเดล AI ซ้ำ ๆ เพื่อเรียนรู้ตรรกะภายในและทำซ้ำเป็นโมเดลใหม่
รายงานใหม่ของกลุ่ม Threat Intelligence ของ Google (GTIG) ชี้ให้เห็นว่าผู้ก่อภัยคุกคามใช้ AI ในทุกด้าน ตั้งแต่การสืบสวนขั้นสูง การฟิชชิ่ง ไปจนถึงการพัฒนามัลแวร์อัตโนมัติ
อ่านเพิ่มเติมเกี่ยวกับเรื่องนี้และวิธีที่เราต่อสู้กับภัยคุกคาม ↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 12 กุมภาพันธ์ 2026
แม้ว่านี่จะเป็นเรื่องน่ากังวล แต่ก็ไม่ใช่ความเสี่ยงหลักที่ Google กำลังแสดงความกังวล รายงานยังเตือนถึงกลุ่มผู้ก่อภัยคุกคามที่ได้รับการสนับสนุนจากรัฐบาล ซึ่งใช้โมเดลภาษาขนาดใหญ่ (LLMs) สำหรับการวิจัยทางเทคนิค การเจาะเป้าหมาย และการสร้างล่อฟิชชิ่งที่ซับซ้อนอย่างรวดเร็ว รายงานเน้นความกังวลเกี่ยวกับเกาหลีเหนือ อิหร่าน สาธารณรัฐประชาชนจีน และรัสเซีย
Gemini และการโจมตีแบบฟิชชิ่ง กลุ่มเหล่านี้รายงานว่ากำลังใช้เครื่องมือ AI เช่น Gemini ของ Google สำหรับการสืบสวนและการวิเคราะห์เป้าหมาย โดยใช้การเก็บข้อมูลข่าวกรองแบบเปิดในระดับสูง รวมถึงสร้างกลลวงฟิชชิ่งที่มีความเป็นส่วนตัวสูงมาก “กิจกรรมนี้เน้นให้เห็นถึงการเปลี่ยนแปลงไปสู่การใช้ AI เพื่อสนับสนุนการฟิชชิ่งที่รวดเร็วและแม่นยำ ซึ่งสามารถหลีกเลี่ยงการทำงานด้วยมือแบบเดิม ๆ ที่ใช้ในการวิเคราะห์เป้าหมาย” รายงานจาก Google ระบุ “เป้าหมายมักพึ่งพาสัญญาณเช่นไวยากรณ์ผิดพลาด โครงสร้างประโยคแปลก หรือขาดบริบททางวัฒนธรรมเพื่อช่วยในการระบุความพยายามฟิชชิ่ง แต่ในปัจจุบัน ผู้ก่อภัยคุกคามใช้ LLMs เพื่อสร้างกลลวงที่มีความเป็นส่วนตัวสูงและสามารถเลียนแบบโทนเสียงขององค์กรเป้าหมายได้อย่างมืออาชีพ”
ตัวอย่างเช่น หาก Gemini ได้รับข้อมูลชีวประวัติของเป้าหมาย มันสามารถสร้างบุคคลสมมุติที่น่าเชื่อถือและช่วยสร้างสถานการณ์ที่สามารถดึงดูดความสนใจได้อย่างมีประสิทธิภาพ การใช้ AI ยังช่วยให้กลุ่มเหล่านี้แปลภาษาในท้องถิ่นได้อย่างมีประสิทธิภาพมากขึ้น เนื่องจากความสามารถในการสร้างโค้ดของ AI ได้เพิ่มขึ้น ก็เปิดโอกาสให้กลุ่มเหล่านี้ใช้งานในทางที่เป็นอันตราย เช่น การแก้ไขปัญหาและสร้างเครื่องมืออันตรายโดยใช้ความสามารถในการเขียนโค้ดของ AI รายงานยังเตือนถึงความสนใจที่เพิ่มขึ้นในการทดลองใช้ AI ที่มีความสามารถในการดำเนินการเอง ซึ่งเป็นรูปแบบของปัญญาประดิษฐ์ที่สามารถทำงานด้วยความเป็นอิสระบางส่วน เช่น การพัฒนามัลแวร์และการทำงานอัตโนมัติ
Google ระบุว่ามีความพยายามในการต่อสู้กับปัญหานี้ผ่านหลายกลยุทธ์ นอกจากการสร้างรายงาน Threat Intelligence หลายครั้งต่อปีแล้ว บริษัทมีทีมงานที่คอยค้นหาและตรวจจับภัยคุกคามอย่างต่อเนื่อง Google ยังดำเนินมาตรการเสริมสร้าง Gemini ให้เป็นโมเดลที่ไม่สามารถนำไปใช้ในทางที่เป็นอันตรายได้ ผ่านทาง Google DeepMind ทีมงานพยายามระบุภัยคุกคามเหล่านี้ก่อนที่จะเกิดขึ้น โดยมุ่งเน้นการตรวจจับฟังก์ชันที่เป็นอันตรายและลบออกก่อนที่จะสร้างความเสี่ยง แม้ว่าจากรายงานจะเห็นได้ว่าการใช้ AI ในภูมิทัศน์ภัยคุกคามเพิ่มขึ้น แต่ Google ระบุว่ายังไม่มีความสามารถใหม่ที่เป็นนวัตกรรมสำคัญในขณะนี้ แต่เป็นเพียงการเพิ่มขึ้นของเครื่องมือและความเสี่ยงเท่านั้น