เอ็กซ์เลร่า8

ChatGPT ภาพหลอนเปิดให้นักพัฒนาโจมตีมัลแวร์ซัพพลายเชน

ผู้โจมตีสามารถใช้ประโยชน์ได้ ChatGPT ของ นักวิจัยพบว่าชอบที่จะส่งคืนข้อมูลเท็จเพื่อกระจายแพ็คเกจโค้ดที่เป็นอันตราย สิ่งนี้ก่อให้เกิดความเสี่ยงที่สำคัญสำหรับห่วงโซ่อุปทานของซอฟต์แวร์ เนื่องจากอาจทำให้โค้ดที่เป็นอันตรายและโทรจันสามารถเลื่อนเข้าไปในแอปพลิเคชันที่ถูกต้องตามกฎหมายและที่เก็บโค้ด เช่น npm, PyPI, GitHub และอื่นๆ 

โดยใช้ประโยชน์จากสิ่งที่เรียกว่า “ภาพหลอนแพ็คเกจ AI” ผู้คุกคามสามารถสร้างแพ็คเกจรหัส ChatGPT-recommended แต่ยังเป็นอันตราย ซึ่งนักพัฒนาซอฟต์แวร์อาจดาวน์โหลดโดยไม่ได้ตั้งใจ เมื่อใช้แชทบอทสร้างให้เป็นซอฟต์แวร์ที่ใช้กันอย่างแพร่หลาย นักวิจัยจากทีมวิจัย Voyager18 ของ Vulcan Cyber ​​เปิดเผยใน โพสต์บล็อก เผยแพร่วันนี้ 

ในปัญญาประดิษฐ์ อาการประสาทหลอนคือการตอบสนองที่เป็นไปได้โดย AI ซึ่งไม่เพียงพอ มีอคติ หรือไม่เป็นจริง สิ่งเหล่านี้เกิดขึ้นเนื่องจาก ChatGPT (และโมเดลภาษาขนาดใหญ่อื่นๆ หรือ LLM ที่เป็นพื้นฐานสำหรับแพลตฟอร์ม generative AI) ตอบคำถามที่พวกเขาถามโดยอิงตามแหล่งที่มา ลิงก์ บล็อก และสถิติที่มีให้ในอินเทอร์เน็ตอันกว้างใหญ่ไพศาล ซึ่งได้แก่ ไม่ใช่ข้อมูลการฝึกอบรมที่มั่นคงที่สุดเสมอไป 

เนื่องจากการฝึกอบรมที่กว้างขวางนี้และการเปิดรับข้อมูลที่เป็นข้อความจำนวนมหาศาล LLM เช่น ChatGPT สามารถสร้าง "ข้อมูลที่น่าเชื่อถือแต่เป็นเรื่องสมมุติ ซึ่งคาดการณ์นอกเหนือจากการฝึกอบรมของพวกเขา และอาจสร้างคำตอบที่ดูเหมือนน่าเชื่อถือแต่ไม่จำเป็นต้องถูกต้อง" Bar Lanyado หัวหน้านักวิจัยแห่ง Voyager18 เขียน ในบล็อกโพสต์ยังบอก Dark Reading ว่า "เป็นปรากฏการณ์ที่เคยสังเกตมาก่อน และดูเหมือนว่าจะเป็นผลมาจากวิธีการทำงานของโมเดลภาษาขนาดใหญ่"

เขาอธิบายในโพสต์ว่าในโลกของนักพัฒนา AI จะสร้างการแก้ไขที่น่าสงสัยให้กับ CVE และเสนอลิงก์ไปยังไลบรารีการเขียนโค้ดที่ไม่มีอยู่จริง และอย่างหลังนำเสนอโอกาสในการแสวงหาผลประโยชน์ ในสถานการณ์การโจมตีนั้น ผู้โจมตีอาจขอความช่วยเหลือจาก ChatGPT ในการเขียนโค้ดสำหรับงานทั่วไป และ ChatGPT อาจเสนอคำแนะนำสำหรับแพ็คเกจที่ไม่ได้เผยแพร่หรือไม่มีอยู่จริง จากนั้นผู้โจมตีสามารถเผยแพร่แพ็คเกจที่แนะนำในเวอร์ชันที่เป็นอันตรายได้ นักวิจัยกล่าว และรอให้ ChatGPT ให้คำแนะนำเดียวกันกับนักพัฒนาที่ถูกกฎหมาย

วิธีใช้ประโยชน์จากภาพหลอนประสาทของ AI

เพื่อพิสูจน์แนวคิดของพวกเขา นักวิจัยได้สร้างสถานการณ์โดยใช้ ChatGPT 3.5 ซึ่งผู้โจมตีถามคำถามแพลตฟอร์มเพื่อแก้ปัญหาการเข้ารหัส และ ChatGPT ตอบกลับด้วยแพ็คเกจหลายชุด ซึ่งบางแพ็คเกจไม่มีอยู่จริง เช่น ไม่ได้เผยแพร่ใน ที่เก็บแพ็คเกจที่ถูกต้องตามกฎหมาย

“เมื่อผู้โจมตีพบคำแนะนำสำหรับแพ็คเกจที่ไม่ได้เผยแพร่ พวกเขาสามารถเผยแพร่แพ็คเกจที่เป็นอันตรายของตนเองแทนได้” นักวิจัยกล่าว “ครั้งต่อไปที่ผู้ใช้ถามคำถามที่คล้ายกัน พวกเขาอาจได้รับคำแนะนำจาก ChatGPT ให้ใช้แพ็คเกจอันตรายที่มีอยู่ในขณะนี้”

หาก ChatGPT กำลังสร้างแพ็คเกจรหัส ผู้โจมตีสามารถใช้ภาพหลอนเหล่านี้เพื่อแพร่กระจายสิ่งที่เป็นอันตรายโดยไม่ต้องใช้เทคนิคที่คุ้นเคย เช่น การพิมพ์ผิดหรือการปลอมตัว สร้างแพ็คเกจ "จริง" ที่นักพัฒนาซอฟต์แวร์อาจใช้หาก ChatGPT แนะนำ นักวิจัยกล่าว ด้วยวิธีนี้ โค้ดที่เป็นอันตรายสามารถหาทางเข้าสู่แอปพลิเคชันที่ถูกต้องตามกฎหมายหรือในที่เก็บโค้ดที่ถูกต้อง ซึ่งสร้างความเสี่ยงที่สำคัญสำหรับห่วงโซ่อุปทานของซอฟต์แวร์

Lanyado กล่าวว่า “นักพัฒนาซอฟต์แวร์ที่ขอให้ AI กำเนิด เช่น ChatGPT ช่วยเหลือเกี่ยวกับโค้ดของพวกเขา อาจทำให้การติดตั้งไลบรารีที่เป็นอันตรายสิ้นสุดลง เพราะ AI คิดว่ามันเป็นเรื่องจริง และผู้โจมตีทำให้มันเป็นจริง” Lanyado กล่าว “ผู้โจมตีที่ชาญฉลาดอาจสร้างห้องสมุดที่ใช้งานได้เหมือนโทรจัน ซึ่งอาจถูกใช้งานโดยคนหลายคนก่อนที่พวกเขาจะรู้ตัวว่ามันเป็นอันตราย”

วิธีสังเกตไลบรารีโค้ดที่ไม่ดี

นักวิจัยตั้งข้อสังเกตว่า อาจเป็นเรื่องยากที่จะบอกได้ว่าแพ็คเกจนั้นเป็นอันตรายหรือไม่ หากผู้คุกคามทำให้งานของพวกเขายุ่งเหยิงอย่างมีประสิทธิภาพ หรือใช้เทคนิคเพิ่มเติม เช่น การสร้างแพ็คเกจโทรจันที่ใช้งานได้จริง นักวิจัยระบุ อย่างไรก็ตาม มีวิธีตรวจจับโค้ดเสียก่อนที่จะนำเข้าแอปพลิเคชันหรือเผยแพร่ไปยังที่เก็บโค้ด

ในการทำเช่นนี้ นักพัฒนาจำเป็นต้องตรวจสอบความถูกต้องของไลบรารีที่พวกเขาดาวน์โหลด และตรวจสอบให้แน่ใจว่าพวกเขาไม่เพียงแต่ทำในสิ่งที่พวกเขาพูดเท่านั้น แต่ยัง “ไม่ใช่โทรจันที่ฉลาดที่ปลอมตัวเป็นแพ็คเกจที่ถูกกฎหมาย” Lanyado กล่าว

“สิ่งสำคัญอย่างยิ่งเมื่อคำแนะนำมาจาก AI มากกว่าเพื่อนร่วมงานหรือคนที่พวกเขาไว้วางใจในชุมชน” เขากล่าว

มีหลายวิธีที่นักพัฒนาสามารถทำได้ เช่น การตรวจสอบวันที่สร้าง จำนวนการดาวน์โหลดและความคิดเห็น หรือขาดความคิดเห็นและดาว และดูบันทึกที่แนบมาของห้องสมุด นักวิจัยกล่าว “หากมีสิ่งใดดูน่าสงสัย ให้คิดให้ดีก่อนติดตั้ง” Lanyado แนะนำในโพสต์

ChatGPT: ความเสี่ยงและผลตอบแทน

สถานการณ์การโจมตีนี้เป็นเพียงความเสี่ยงด้านความปลอดภัยล่าสุดที่ ChatGPT สามารถนำเสนอได้ และเทคโนโลยีดังกล่าวถูกนำไปใช้อย่างรวดเร็วตั้งแต่เปิดตัวเมื่อเดือนพฤศจิกายนปีที่แล้ว ไม่เพียงแต่กับผู้ใช้เท่านั้น แต่ยังรวมถึงผู้คุกคามที่กระตือรือร้นที่จะใช้ประโยชน์จากการโจมตีทางไซเบอร์และแคมเปญที่เป็นอันตราย

ในช่วงครึ่งแรกของปี 2023 เพียงปีเดียว scammers เลียนแบบ ChatGPT เพื่อขโมยข้อมูลประจำตัวทางธุรกิจของผู้ใช้ ผู้โจมตี ขโมยคุกกี้ Google Chrome ผ่านส่วนขยาย ChatGPT ที่เป็นอันตราย และผู้คุกคามแบบฟิชชิงโดยใช้ ChatGPT เป็นตัวล่อ สำหรับเว็บไซต์ที่เป็นอันตราย

ในขณะที่ผู้เชี่ยวชาญบางคนคิดว่า ChatGPT มีความเสี่ยงด้านความปลอดภัย อาจถูก overhypedนักวิจัยกล่าวว่าสิ่งนี้มีอยู่จริงเนื่องจากความรวดเร็วที่ผู้คนยอมรับแพลตฟอร์ม AI เชิงสร้างสรรค์เพื่อสนับสนุนกิจกรรมระดับมืออาชีพของพวกเขาและแบ่งเบาภาระของปริมาณงานในแต่ละวัน นักวิจัยกล่าว

Lanyado เขียนในโพสต์ว่า “ถ้าคุณไม่ต้องอยู่ใต้ก้อนหิน คุณจะรู้ดีถึงความคลั่งไคล้ AI กำเนิด” ด้วยผู้คนนับล้านที่ใช้ ChatGPT ในที่ทำงาน

นักพัฒนาก็เช่นกัน ไม่รอดพ้นจากเสน่ห์ของ ChatGPT โดยหันหลังให้ แหล่งข้อมูลออนไลน์ เช่น Stack Overflow สำหรับโซลูชันการเข้ารหัสและแพลตฟอร์ม AI สำหรับคำตอบ "สร้างโอกาสสำคัญสำหรับผู้โจมตี" เขาเขียน

และตามที่ประวัติศาสตร์ได้แสดงให้เห็นแล้ว เทคโนโลยีใหม่ๆ ที่ดึงดูดฐานผู้ใช้ที่มั่นคงอย่างรวดเร็วก็ดึงดูดผู้ไม่ประสงค์ดีที่มุ่งหาประโยชน์จากมันเพื่อโอกาสของตนเองได้อย่างรวดเร็วเช่นกัน ด้วย ChatGPT จะแสดงตัวอย่างแบบเรียลไทม์ของสถานการณ์นี้

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?