แฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐใช้เครื่องมือ AI ยอดนิยม รวมถึง Gemini, Google เตือน

Decrypt

สรุปโดยย่อ

  • กลุ่ม Threat Intelligence ของ Google ได้เผยแพร่รายงานล่าสุดเกี่ยวกับอันตรายจาก AI
  • รายงานชี้ให้เห็นว่าฝากระทรวงกลาโหมของรัฐใช้เครื่องมืออย่าง Gemini ของ Google เองเพื่อเร่งความเร็วในการโจมตีทางไซเบอร์
  • แฮกเกอร์สนใจใน AI ที่มีความสามารถในการดำเนินการเองเพื่อให้ AI ควบคุมการโจมตีอย่างเต็มที่

กลุ่ม Threat Intelligence ของ Google (GTIG) เตือนอีกครั้งเกี่ยวกับความเสี่ยงของ AI โดยเผยแพร่รายงานล่าสุดเกี่ยวกับการใช้งาน AI โดยแฮกเกอร์ที่สนับสนุนโดยรัฐ รายงานระบุว่ามีการเพิ่มขึ้นของความพยายามในการดึงข้อมูลโมเดล ซึ่งเป็นวิธีการโจรกรรมทรัพย์สินทางปัญญาโดยการสอบถามโมเดล AI ซ้ำ ๆ เพื่อเรียนรู้ตรรกะภายในและทำซ้ำเป็นโมเดลใหม่

รายงานใหม่ของกลุ่ม Threat Intelligence ของ Google (GTIG) ชี้ให้เห็นว่าผู้ก่อภัยคุกคามใช้ AI ในทุกด้าน ตั้งแต่การสืบสวนขั้นสูง การฟิชชิ่ง ไปจนถึงการพัฒนามัลแวร์อัตโนมัติ

อ่านเพิ่มเติมเกี่ยวกับเรื่องนี้และวิธีที่เราต่อสู้กับภัยคุกคาม ↓ https://t.co/NWUvNeBkn2

— Google Public Policy (@googlepubpolicy) 12 กุมภาพันธ์ 2026

แม้ว่านี่จะเป็นเรื่องน่ากังวล แต่ก็ไม่ใช่ความเสี่ยงหลักที่ Google กำลังแสดงความกังวล รายงานยังเตือนถึงกลุ่มผู้ก่อภัยคุกคามที่ได้รับการสนับสนุนจากรัฐบาล ซึ่งใช้โมเดลภาษาขนาดใหญ่ (LLMs) สำหรับการวิจัยทางเทคนิค การเจาะเป้าหมาย และการสร้างล่อฟิชชิ่งที่ซับซ้อนอย่างรวดเร็ว รายงานเน้นความกังวลเกี่ยวกับเกาหลีเหนือ อิหร่าน สาธารณรัฐประชาชนจีน และรัสเซีย

Gemini และการโจมตีแบบฟิชชิ่ง กลุ่มเหล่านี้รายงานว่ากำลังใช้เครื่องมือ AI เช่น Gemini ของ Google สำหรับการสืบสวนและการวิเคราะห์เป้าหมาย โดยใช้การเก็บข้อมูลข่าวกรองแบบเปิดในระดับสูง รวมถึงสร้างกลลวงฟิชชิ่งที่มีความเป็นส่วนตัวสูงมาก “กิจกรรมนี้เน้นให้เห็นถึงการเปลี่ยนแปลงไปสู่การใช้ AI เพื่อสนับสนุนการฟิชชิ่งที่รวดเร็วและแม่นยำ ซึ่งสามารถหลีกเลี่ยงการทำงานด้วยมือแบบเดิม ๆ ที่ใช้ในการวิเคราะห์เป้าหมาย” รายงานจาก Google ระบุ “เป้าหมายมักพึ่งพาสัญญาณเช่นไวยากรณ์ผิดพลาด โครงสร้างประโยคแปลก หรือขาดบริบททางวัฒนธรรมเพื่อช่วยในการระบุความพยายามฟิชชิ่ง แต่ในปัจจุบัน ผู้ก่อภัยคุกคามใช้ LLMs เพื่อสร้างกลลวงที่มีความเป็นส่วนตัวสูงและสามารถเลียนแบบโทนเสียงขององค์กรเป้าหมายได้อย่างมืออาชีพ”

ตัวอย่างเช่น หาก Gemini ได้รับข้อมูลชีวประวัติของเป้าหมาย มันสามารถสร้างบุคคลสมมุติที่น่าเชื่อถือและช่วยสร้างสถานการณ์ที่สามารถดึงดูดความสนใจได้อย่างมีประสิทธิภาพ การใช้ AI ยังช่วยให้กลุ่มเหล่านี้แปลภาษาในท้องถิ่นได้อย่างมีประสิทธิภาพมากขึ้น เนื่องจากความสามารถในการสร้างโค้ดของ AI ได้เพิ่มขึ้น ก็เปิดโอกาสให้กลุ่มเหล่านี้ใช้งานในทางที่เป็นอันตราย เช่น การแก้ไขปัญหาและสร้างเครื่องมืออันตรายโดยใช้ความสามารถในการเขียนโค้ดของ AI รายงานยังเตือนถึงความสนใจที่เพิ่มขึ้นในการทดลองใช้ AI ที่มีความสามารถในการดำเนินการเอง ซึ่งเป็นรูปแบบของปัญญาประดิษฐ์ที่สามารถทำงานด้วยความเป็นอิสระบางส่วน เช่น การพัฒนามัลแวร์และการทำงานอัตโนมัติ

Google ระบุว่ามีความพยายามในการต่อสู้กับปัญหานี้ผ่านหลายกลยุทธ์ นอกจากการสร้างรายงาน Threat Intelligence หลายครั้งต่อปีแล้ว บริษัทมีทีมงานที่คอยค้นหาและตรวจจับภัยคุกคามอย่างต่อเนื่อง Google ยังดำเนินมาตรการเสริมสร้าง Gemini ให้เป็นโมเดลที่ไม่สามารถนำไปใช้ในทางที่เป็นอันตรายได้ ผ่านทาง Google DeepMind ทีมงานพยายามระบุภัยคุกคามเหล่านี้ก่อนที่จะเกิดขึ้น โดยมุ่งเน้นการตรวจจับฟังก์ชันที่เป็นอันตรายและลบออกก่อนที่จะสร้างความเสี่ยง แม้ว่าจากรายงานจะเห็นได้ว่าการใช้ AI ในภูมิทัศน์ภัยคุกคามเพิ่มขึ้น แต่ Google ระบุว่ายังไม่มีความสามารถใหม่ที่เป็นนวัตกรรมสำคัญในขณะนี้ แต่เป็นเพียงการเพิ่มขึ้นของเครื่องมือและความเสี่ยงเท่านั้น

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น