ผู้โจมตีสามารถใช้ประโยชน์ได้ ChatGPT ของ นักวิจัยพบว่าชอบที่จะส่งคืนข้อมูลเท็จเพื่อกระจายแพ็คเกจโค้ดที่เป็นอันตราย สิ่งนี้ก่อให้เกิดความเสี่ยงที่สำคัญสำหรับห่วงโซ่อุปทานของซอฟต์แวร์ เนื่องจากอาจทำให้โค้ดที่เป็นอันตรายและโทรจันสามารถเลื่อนเข้าไปในแอปพลิเคชันที่ถูกต้องตามกฎหมายและที่เก็บโค้ด เช่น npm, PyPI, GitHub และอื่นๆ
โดยใช้ประโยชน์จากสิ่งที่เรียกว่า “ภาพหลอนแพ็คเกจ AI” ผู้คุกคามสามารถสร้างแพ็คเกจรหัส ChatGPT-recommended แต่ยังเป็นอันตราย ซึ่งนักพัฒนาซอฟต์แวร์อาจดาวน์โหลดโดยไม่ได้ตั้งใจ เมื่อใช้แชทบอทสร้างให้เป็นซอฟต์แวร์ที่ใช้กันอย่างแพร่หลาย นักวิจัยจากทีมวิจัย Voyager18 ของ Vulcan Cyber เปิดเผยใน โพสต์บล็อก เผยแพร่วันนี้
ในปัญญาประดิษฐ์ อาการประสาทหลอนคือการตอบสนองที่เป็นไปได้โดย AI ซึ่งไม่เพียงพอ มีอคติ หรือไม่เป็นจริง สิ่งเหล่านี้เกิดขึ้นเนื่องจาก ChatGPT (และโมเดลภาษาขนาดใหญ่อื่นๆ หรือ LLM ที่เป็นพื้นฐานสำหรับแพลตฟอร์ม generative AI) ตอบคำถามที่พวกเขาถามโดยอิงตามแหล่งที่มา ลิงก์ บล็อก และสถิติที่มีให้ในอินเทอร์เน็ตอันกว้างใหญ่ไพศาล ซึ่งได้แก่ ไม่ใช่ข้อมูลการฝึกอบรมที่มั่นคงที่สุดเสมอไป
เนื่องจากการฝึกอบรมที่กว้างขวางนี้และการเปิดรับข้อมูลที่เป็นข้อความจำนวนมหาศาล LLM เช่น ChatGPT สามารถสร้าง "ข้อมูลที่น่าเชื่อถือแต่เป็นเรื่องสมมุติ ซึ่งคาดการณ์นอกเหนือจากการฝึกอบรมของพวกเขา และอาจสร้างคำตอบที่ดูเหมือนน่าเชื่อถือแต่ไม่จำเป็นต้องถูกต้อง" Bar Lanyado หัวหน้านักวิจัยแห่ง Voyager18 เขียน ในบล็อกโพสต์ยังบอก Dark Reading ว่า "เป็นปรากฏการณ์ที่เคยสังเกตมาก่อน และดูเหมือนว่าจะเป็นผลมาจากวิธีการทำงานของโมเดลภาษาขนาดใหญ่"
เขาอธิบายในโพสต์ว่าในโลกของนักพัฒนา AI จะสร้างการแก้ไขที่น่าสงสัยให้กับ CVE และเสนอลิงก์ไปยังไลบรารีการเขียนโค้ดที่ไม่มีอยู่จริง และอย่างหลังนำเสนอโอกาสในการแสวงหาผลประโยชน์ ในสถานการณ์การโจมตีนั้น ผู้โจมตีอาจขอความช่วยเหลือจาก ChatGPT ในการเขียนโค้ดสำหรับงานทั่วไป และ ChatGPT อาจเสนอคำแนะนำสำหรับแพ็คเกจที่ไม่ได้เผยแพร่หรือไม่มีอยู่จริง จากนั้นผู้โจมตีสามารถเผยแพร่แพ็คเกจที่แนะนำในเวอร์ชันที่เป็นอันตรายได้ นักวิจัยกล่าว และรอให้ ChatGPT ให้คำแนะนำเดียวกันกับนักพัฒนาที่ถูกกฎหมาย
วิธีใช้ประโยชน์จากภาพหลอนประสาทของ AI
เพื่อพิสูจน์แนวคิดของพวกเขา นักวิจัยได้สร้างสถานการณ์โดยใช้ ChatGPT 3.5 ซึ่งผู้โจมตีถามคำถามแพลตฟอร์มเพื่อแก้ปัญหาการเข้ารหัส และ ChatGPT ตอบกลับด้วยแพ็คเกจหลายชุด ซึ่งบางแพ็คเกจไม่มีอยู่จริง เช่น ไม่ได้เผยแพร่ใน ที่เก็บแพ็คเกจที่ถูกต้องตามกฎหมาย
“เมื่อผู้โจมตีพบคำแนะนำสำหรับแพ็คเกจที่ไม่ได้เผยแพร่ พวกเขาสามารถเผยแพร่แพ็คเกจที่เป็นอันตรายของตนเองแทนได้” นักวิจัยกล่าว “ครั้งต่อไปที่ผู้ใช้ถามคำถามที่คล้ายกัน พวกเขาอาจได้รับคำแนะนำจาก ChatGPT ให้ใช้แพ็คเกจอันตรายที่มีอยู่ในขณะนี้”
หาก ChatGPT กำลังสร้างแพ็คเกจรหัส ผู้โจมตีสามารถใช้ภาพหลอนเหล่านี้เพื่อแพร่กระจายสิ่งที่เป็นอันตรายโดยไม่ต้องใช้เทคนิคที่คุ้นเคย เช่น การพิมพ์ผิดหรือการปลอมตัว สร้างแพ็คเกจ "จริง" ที่นักพัฒนาซอฟต์แวร์อาจใช้หาก ChatGPT แนะนำ นักวิจัยกล่าว ด้วยวิธีนี้ โค้ดที่เป็นอันตรายสามารถหาทางเข้าสู่แอปพลิเคชันที่ถูกต้องตามกฎหมายหรือในที่เก็บโค้ดที่ถูกต้อง ซึ่งสร้างความเสี่ยงที่สำคัญสำหรับห่วงโซ่อุปทานของซอฟต์แวร์
Lanyado กล่าวว่า “นักพัฒนาซอฟต์แวร์ที่ขอให้ AI กำเนิด เช่น ChatGPT ช่วยเหลือเกี่ยวกับโค้ดของพวกเขา อาจทำให้การติดตั้งไลบรารีที่เป็นอันตรายสิ้นสุดลง เพราะ AI คิดว่ามันเป็นเรื่องจริง และผู้โจมตีทำให้มันเป็นจริง” Lanyado กล่าว “ผู้โจมตีที่ชาญฉลาดอาจสร้างห้องสมุดที่ใช้งานได้เหมือนโทรจัน ซึ่งอาจถูกใช้งานโดยคนหลายคนก่อนที่พวกเขาจะรู้ตัวว่ามันเป็นอันตราย”
วิธีสังเกตไลบรารีโค้ดที่ไม่ดี
นักวิจัยตั้งข้อสังเกตว่า อาจเป็นเรื่องยากที่จะบอกได้ว่าแพ็คเกจนั้นเป็นอันตรายหรือไม่ หากผู้คุกคามทำให้งานของพวกเขายุ่งเหยิงอย่างมีประสิทธิภาพ หรือใช้เทคนิคเพิ่มเติม เช่น การสร้างแพ็คเกจโทรจันที่ใช้งานได้จริง นักวิจัยระบุ อย่างไรก็ตาม มีวิธีตรวจจับโค้ดเสียก่อนที่จะนำเข้าแอปพลิเคชันหรือเผยแพร่ไปยังที่เก็บโค้ด
ในการทำเช่นนี้ นักพัฒนาจำเป็นต้องตรวจสอบความถูกต้องของไลบรารีที่พวกเขาดาวน์โหลด และตรวจสอบให้แน่ใจว่าพวกเขาไม่เพียงแต่ทำในสิ่งที่พวกเขาพูดเท่านั้น แต่ยัง “ไม่ใช่โทรจันที่ฉลาดที่ปลอมตัวเป็นแพ็คเกจที่ถูกกฎหมาย” Lanyado กล่าว
“สิ่งสำคัญอย่างยิ่งเมื่อคำแนะนำมาจาก AI มากกว่าเพื่อนร่วมงานหรือคนที่พวกเขาไว้วางใจในชุมชน” เขากล่าว
มีหลายวิธีที่นักพัฒนาสามารถทำได้ เช่น การตรวจสอบวันที่สร้าง จำนวนการดาวน์โหลดและความคิดเห็น หรือขาดความคิดเห็นและดาว และดูบันทึกที่แนบมาของห้องสมุด นักวิจัยกล่าว “หากมีสิ่งใดดูน่าสงสัย ให้คิดให้ดีก่อนติดตั้ง” Lanyado แนะนำในโพสต์
ChatGPT: ความเสี่ยงและผลตอบแทน
สถานการณ์การโจมตีนี้เป็นเพียงความเสี่ยงด้านความปลอดภัยล่าสุดที่ ChatGPT สามารถนำเสนอได้ และเทคโนโลยีดังกล่าวถูกนำไปใช้อย่างรวดเร็วตั้งแต่เปิดตัวเมื่อเดือนพฤศจิกายนปีที่แล้ว ไม่เพียงแต่กับผู้ใช้เท่านั้น แต่ยังรวมถึงผู้คุกคามที่กระตือรือร้นที่จะใช้ประโยชน์จากการโจมตีทางไซเบอร์และแคมเปญที่เป็นอันตราย
ในช่วงครึ่งแรกของปี 2023 เพียงปีเดียว scammers เลียนแบบ ChatGPT เพื่อขโมยข้อมูลประจำตัวทางธุรกิจของผู้ใช้ ผู้โจมตี ขโมยคุกกี้ Google Chrome ผ่านส่วนขยาย ChatGPT ที่เป็นอันตราย และผู้คุกคามแบบฟิชชิงโดยใช้ ChatGPT เป็นตัวล่อ สำหรับเว็บไซต์ที่เป็นอันตราย
ในขณะที่ผู้เชี่ยวชาญบางคนคิดว่า ChatGPT มีความเสี่ยงด้านความปลอดภัย อาจถูก overhypedนักวิจัยกล่าวว่าสิ่งนี้มีอยู่จริงเนื่องจากความรวดเร็วที่ผู้คนยอมรับแพลตฟอร์ม AI เชิงสร้างสรรค์เพื่อสนับสนุนกิจกรรมระดับมืออาชีพของพวกเขาและแบ่งเบาภาระของปริมาณงานในแต่ละวัน นักวิจัยกล่าว
Lanyado เขียนในโพสต์ว่า “ถ้าคุณไม่ต้องอยู่ใต้ก้อนหิน คุณจะรู้ดีถึงความคลั่งไคล้ AI กำเนิด” ด้วยผู้คนนับล้านที่ใช้ ChatGPT ในที่ทำงาน
นักพัฒนาก็เช่นกัน ไม่รอดพ้นจากเสน่ห์ของ ChatGPT โดยหันหลังให้ แหล่งข้อมูลออนไลน์ เช่น Stack Overflow สำหรับโซลูชันการเข้ารหัสและแพลตฟอร์ม AI สำหรับคำตอบ "สร้างโอกาสสำคัญสำหรับผู้โจมตี" เขาเขียน
และตามที่ประวัติศาสตร์ได้แสดงให้เห็นแล้ว เทคโนโลยีใหม่ๆ ที่ดึงดูดฐานผู้ใช้ที่มั่นคงอย่างรวดเร็วก็ดึงดูดผู้ไม่ประสงค์ดีที่มุ่งหาประโยชน์จากมันเพื่อโอกาสของตนเองได้อย่างรวดเร็วเช่นกัน ด้วย ChatGPT จะแสดงตัวอย่างแบบเรียลไทม์ของสถานการณ์นี้
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- เพลโตไอสตรีม. ข้อมูลอัจฉริยะ Web3 ขยายความรู้ เข้าถึงได้ที่นี่.
- การสร้างอนาคตโดย Adryenn Ashley เข้าถึงได้ที่นี่.
- ซื้อและขายหุ้นในบริษัท PRE-IPO ด้วย PREIPO® เข้าถึงได้ที่นี่.
- ที่มา: https://www.darkreading.com/application-security/chatgpt-hallucinations-developers-supply-chain-malware-attacks
ChatGPT ภาพหลอนเปิดให้นักพัฒนาโจมตีมัลแวร์ซัพพลายเชน
เผยแพร่ซ้ำโดยเพลโต
ผู้โจมตีสามารถใช้ประโยชน์ได้ ChatGPT ของ นักวิจัยพบว่าชอบที่จะส่งคืนข้อมูลเท็จเพื่อกระจายแพ็คเกจโค้ดที่เป็นอันตราย สิ่งนี้ก่อให้เกิดความเสี่ยงที่สำคัญสำหรับห่วงโซ่อุปทานของซอฟต์แวร์ เนื่องจากอาจทำให้โค้ดที่เป็นอันตรายและโทรจันสามารถเลื่อนเข้าไปในแอปพลิเคชันที่ถูกต้องตามกฎหมายและที่เก็บโค้ด เช่น npm, PyPI, GitHub และอื่นๆ
โดยใช้ประโยชน์จากสิ่งที่เรียกว่า “ภาพหลอนแพ็คเกจ AI” ผู้คุกคามสามารถสร้างแพ็คเกจรหัส ChatGPT-recommended แต่ยังเป็นอันตราย ซึ่งนักพัฒนาซอฟต์แวร์อาจดาวน์โหลดโดยไม่ได้ตั้งใจ เมื่อใช้แชทบอทสร้างให้เป็นซอฟต์แวร์ที่ใช้กันอย่างแพร่หลาย นักวิจัยจากทีมวิจัย Voyager18 ของ Vulcan Cyber เปิดเผยใน โพสต์บล็อก เผยแพร่วันนี้
ในปัญญาประดิษฐ์ อาการประสาทหลอนคือการตอบสนองที่เป็นไปได้โดย AI ซึ่งไม่เพียงพอ มีอคติ หรือไม่เป็นจริง สิ่งเหล่านี้เกิดขึ้นเนื่องจาก ChatGPT (และโมเดลภาษาขนาดใหญ่อื่นๆ หรือ LLM ที่เป็นพื้นฐานสำหรับแพลตฟอร์ม generative AI) ตอบคำถามที่พวกเขาถามโดยอิงตามแหล่งที่มา ลิงก์ บล็อก และสถิติที่มีให้ในอินเทอร์เน็ตอันกว้างใหญ่ไพศาล ซึ่งได้แก่ ไม่ใช่ข้อมูลการฝึกอบรมที่มั่นคงที่สุดเสมอไป
เนื่องจากการฝึกอบรมที่กว้างขวางนี้และการเปิดรับข้อมูลที่เป็นข้อความจำนวนมหาศาล LLM เช่น ChatGPT สามารถสร้าง "ข้อมูลที่น่าเชื่อถือแต่เป็นเรื่องสมมุติ ซึ่งคาดการณ์นอกเหนือจากการฝึกอบรมของพวกเขา และอาจสร้างคำตอบที่ดูเหมือนน่าเชื่อถือแต่ไม่จำเป็นต้องถูกต้อง" Bar Lanyado หัวหน้านักวิจัยแห่ง Voyager18 เขียน ในบล็อกโพสต์ยังบอก Dark Reading ว่า "เป็นปรากฏการณ์ที่เคยสังเกตมาก่อน และดูเหมือนว่าจะเป็นผลมาจากวิธีการทำงานของโมเดลภาษาขนาดใหญ่"
เขาอธิบายในโพสต์ว่าในโลกของนักพัฒนา AI จะสร้างการแก้ไขที่น่าสงสัยให้กับ CVE และเสนอลิงก์ไปยังไลบรารีการเขียนโค้ดที่ไม่มีอยู่จริง และอย่างหลังนำเสนอโอกาสในการแสวงหาผลประโยชน์ ในสถานการณ์การโจมตีนั้น ผู้โจมตีอาจขอความช่วยเหลือจาก ChatGPT ในการเขียนโค้ดสำหรับงานทั่วไป และ ChatGPT อาจเสนอคำแนะนำสำหรับแพ็คเกจที่ไม่ได้เผยแพร่หรือไม่มีอยู่จริง จากนั้นผู้โจมตีสามารถเผยแพร่แพ็คเกจที่แนะนำในเวอร์ชันที่เป็นอันตรายได้ นักวิจัยกล่าว และรอให้ ChatGPT ให้คำแนะนำเดียวกันกับนักพัฒนาที่ถูกกฎหมาย
วิธีใช้ประโยชน์จากภาพหลอนประสาทของ AI
เพื่อพิสูจน์แนวคิดของพวกเขา นักวิจัยได้สร้างสถานการณ์โดยใช้ ChatGPT 3.5 ซึ่งผู้โจมตีถามคำถามแพลตฟอร์มเพื่อแก้ปัญหาการเข้ารหัส และ ChatGPT ตอบกลับด้วยแพ็คเกจหลายชุด ซึ่งบางแพ็คเกจไม่มีอยู่จริง เช่น ไม่ได้เผยแพร่ใน ที่เก็บแพ็คเกจที่ถูกต้องตามกฎหมาย
“เมื่อผู้โจมตีพบคำแนะนำสำหรับแพ็คเกจที่ไม่ได้เผยแพร่ พวกเขาสามารถเผยแพร่แพ็คเกจที่เป็นอันตรายของตนเองแทนได้” นักวิจัยกล่าว “ครั้งต่อไปที่ผู้ใช้ถามคำถามที่คล้ายกัน พวกเขาอาจได้รับคำแนะนำจาก ChatGPT ให้ใช้แพ็คเกจอันตรายที่มีอยู่ในขณะนี้”
หาก ChatGPT กำลังสร้างแพ็คเกจรหัส ผู้โจมตีสามารถใช้ภาพหลอนเหล่านี้เพื่อแพร่กระจายสิ่งที่เป็นอันตรายโดยไม่ต้องใช้เทคนิคที่คุ้นเคย เช่น การพิมพ์ผิดหรือการปลอมตัว สร้างแพ็คเกจ "จริง" ที่นักพัฒนาซอฟต์แวร์อาจใช้หาก ChatGPT แนะนำ นักวิจัยกล่าว ด้วยวิธีนี้ โค้ดที่เป็นอันตรายสามารถหาทางเข้าสู่แอปพลิเคชันที่ถูกต้องตามกฎหมายหรือในที่เก็บโค้ดที่ถูกต้อง ซึ่งสร้างความเสี่ยงที่สำคัญสำหรับห่วงโซ่อุปทานของซอฟต์แวร์
Lanyado กล่าวว่า “นักพัฒนาซอฟต์แวร์ที่ขอให้ AI กำเนิด เช่น ChatGPT ช่วยเหลือเกี่ยวกับโค้ดของพวกเขา อาจทำให้การติดตั้งไลบรารีที่เป็นอันตรายสิ้นสุดลง เพราะ AI คิดว่ามันเป็นเรื่องจริง และผู้โจมตีทำให้มันเป็นจริง” Lanyado กล่าว “ผู้โจมตีที่ชาญฉลาดอาจสร้างห้องสมุดที่ใช้งานได้เหมือนโทรจัน ซึ่งอาจถูกใช้งานโดยคนหลายคนก่อนที่พวกเขาจะรู้ตัวว่ามันเป็นอันตราย”
วิธีสังเกตไลบรารีโค้ดที่ไม่ดี
นักวิจัยตั้งข้อสังเกตว่า อาจเป็นเรื่องยากที่จะบอกได้ว่าแพ็คเกจนั้นเป็นอันตรายหรือไม่ หากผู้คุกคามทำให้งานของพวกเขายุ่งเหยิงอย่างมีประสิทธิภาพ หรือใช้เทคนิคเพิ่มเติม เช่น การสร้างแพ็คเกจโทรจันที่ใช้งานได้จริง นักวิจัยระบุ อย่างไรก็ตาม มีวิธีตรวจจับโค้ดเสียก่อนที่จะนำเข้าแอปพลิเคชันหรือเผยแพร่ไปยังที่เก็บโค้ด
ในการทำเช่นนี้ นักพัฒนาจำเป็นต้องตรวจสอบความถูกต้องของไลบรารีที่พวกเขาดาวน์โหลด และตรวจสอบให้แน่ใจว่าพวกเขาไม่เพียงแต่ทำในสิ่งที่พวกเขาพูดเท่านั้น แต่ยัง “ไม่ใช่โทรจันที่ฉลาดที่ปลอมตัวเป็นแพ็คเกจที่ถูกกฎหมาย” Lanyado กล่าว
“สิ่งสำคัญอย่างยิ่งเมื่อคำแนะนำมาจาก AI มากกว่าเพื่อนร่วมงานหรือคนที่พวกเขาไว้วางใจในชุมชน” เขากล่าว
มีหลายวิธีที่นักพัฒนาสามารถทำได้ เช่น การตรวจสอบวันที่สร้าง จำนวนการดาวน์โหลดและความคิดเห็น หรือขาดความคิดเห็นและดาว และดูบันทึกที่แนบมาของห้องสมุด นักวิจัยกล่าว “หากมีสิ่งใดดูน่าสงสัย ให้คิดให้ดีก่อนติดตั้ง” Lanyado แนะนำในโพสต์
ChatGPT: ความเสี่ยงและผลตอบแทน
สถานการณ์การโจมตีนี้เป็นเพียงความเสี่ยงด้านความปลอดภัยล่าสุดที่ ChatGPT สามารถนำเสนอได้ และเทคโนโลยีดังกล่าวถูกนำไปใช้อย่างรวดเร็วตั้งแต่เปิดตัวเมื่อเดือนพฤศจิกายนปีที่แล้ว ไม่เพียงแต่กับผู้ใช้เท่านั้น แต่ยังรวมถึงผู้คุกคามที่กระตือรือร้นที่จะใช้ประโยชน์จากการโจมตีทางไซเบอร์และแคมเปญที่เป็นอันตราย
ในช่วงครึ่งแรกของปี 2023 เพียงปีเดียว scammers เลียนแบบ ChatGPT เพื่อขโมยข้อมูลประจำตัวทางธุรกิจของผู้ใช้ ผู้โจมตี ขโมยคุกกี้ Google Chrome ผ่านส่วนขยาย ChatGPT ที่เป็นอันตราย และผู้คุกคามแบบฟิชชิงโดยใช้ ChatGPT เป็นตัวล่อ สำหรับเว็บไซต์ที่เป็นอันตราย
ในขณะที่ผู้เชี่ยวชาญบางคนคิดว่า ChatGPT มีความเสี่ยงด้านความปลอดภัย อาจถูก overhypedนักวิจัยกล่าวว่าสิ่งนี้มีอยู่จริงเนื่องจากความรวดเร็วที่ผู้คนยอมรับแพลตฟอร์ม AI เชิงสร้างสรรค์เพื่อสนับสนุนกิจกรรมระดับมืออาชีพของพวกเขาและแบ่งเบาภาระของปริมาณงานในแต่ละวัน นักวิจัยกล่าว
Lanyado เขียนในโพสต์ว่า “ถ้าคุณไม่ต้องอยู่ใต้ก้อนหิน คุณจะรู้ดีถึงความคลั่งไคล้ AI กำเนิด” ด้วยผู้คนนับล้านที่ใช้ ChatGPT ในที่ทำงาน
นักพัฒนาก็เช่นกัน ไม่รอดพ้นจากเสน่ห์ของ ChatGPT โดยหันหลังให้ แหล่งข้อมูลออนไลน์ เช่น Stack Overflow สำหรับโซลูชันการเข้ารหัสและแพลตฟอร์ม AI สำหรับคำตอบ "สร้างโอกาสสำคัญสำหรับผู้โจมตี" เขาเขียน
และตามที่ประวัติศาสตร์ได้แสดงให้เห็นแล้ว เทคโนโลยีใหม่ๆ ที่ดึงดูดฐานผู้ใช้ที่มั่นคงอย่างรวดเร็วก็ดึงดูดผู้ไม่ประสงค์ดีที่มุ่งหาประโยชน์จากมันเพื่อโอกาสของตนเองได้อย่างรวดเร็วเช่นกัน ด้วย ChatGPT จะแสดงตัวอย่างแบบเรียลไทม์ของสถานการณ์นี้
นักบินอวกาศของ NASA มาถึงศูนย์อวกาศเคนเนดีก่อนการทดสอบการบินของลูกเรือโบอิ้งสตาร์ไลเนอร์
True Anomaly สตาร์ทอัพด้านอวกาศลดพนักงาน
ESL Challenger Melbourne 2024: คะแนน อันดับ และอื่นๆ – Snowball Esports
การใช้จ่าย AI มหาศาลของ Meta บดบังผลประกอบการไตรมาส 1 ที่แข็งแกร่ง
Mercedes G 580 พร้อมเทคโนโลยี EQ คือ G Wagon ตัวแรก และ EV ที่สอง – Autoblog
วาฬ Crypto ที่กล้าหาญใช้ประโยชน์จากความปั่นป่วนของ XRP ของ Ripple ด้วยการซื้อมูลค่าหลายล้านดอลลาร์
ผู้ซื้อขาย Crypto เผยกลยุทธ์ในการระบุ Altcoins ที่มีแนวโน้มเพิ่มขึ้น 100 เท่า - CryptoInfoNet
Consensys ฟ้อง ก.ล.ต. ในการประมูล 'ปกป้อง Ethereum' – ผู้ท้าทาย
Stripe นำการชำระเงิน Crypto กลับมาผ่าน USDC Stablecoin
ก.ล.ต. คาดว่าจะปฏิเสธ Ethereum ETFs: Reuters