เอ็กซ์เลร่า8

วุฒิสมาชิกสหรัฐแจ้งข้อกังวลเกี่ยวกับการควบคุมทางจริยธรรมใน LLaMA โมเดล AI ของ Meta

วุฒิสมาชิกสหรัฐ ริชาร์ด บลูเมนธาล และจอช ฮอว์ลีย์ เขียน ถึง Mark Zuckerberg ซีอีโอของ Meta เมื่อวันที่ 6 มิถุนายน ทำให้เกิดความกังวลเกี่ยวกับ LLaMA ซึ่งเป็นโมเดลภาษาปัญญาประดิษฐ์ที่สามารถสร้างข้อความที่เหมือนมนุษย์ตามข้อมูลที่ได้รับ

โดยเฉพาะอย่างยิ่ง ประเด็นต่างๆ ได้รับการเน้นย้ำเกี่ยวกับความเสี่ยงของการละเมิด AI และ Meta ที่ทำเพียงเล็กน้อยเพื่อ "จำกัดโมเดลจากการตอบสนองต่องานที่เป็นอันตรายหรืออาชญากร"

วุฒิสมาชิกยอมรับว่าการสร้างโอเพ่นซอร์ส AI นั้นมีประโยชน์ แต่พวกเขากล่าวว่าเครื่องมือ AI เชิงสร้างสรรค์นั้นถูก “ใช้ในทางที่ผิดอย่างอันตราย” ในช่วงเวลาสั้น ๆ ที่พวกมันมีให้ใช้งาน พวกเขาเชื่อว่า LLaMA อาจถูกใช้สำหรับสแปม การฉ้อฉล มัลแวร์ การละเมิดความเป็นส่วนตัว การคุกคาม และการกระทำผิดอื่นๆ

มีการระบุเพิ่มเติมว่าเนื่องจาก "การป้องกันที่ดูเหมือนน้อยที่สุด" ที่สร้างขึ้นในการเปิดตัวของ LLaMA Meta "ควรรู้" ว่าจะมีการเผยแพร่อย่างกว้างขวาง ดังนั้น Meta ควรคาดการณ์ถึงความเป็นไปได้ที่ LLaMA จะถูกละเมิด พวกเขาเพิ่ม:

“น่าเสียดายที่ Meta ดูเหมือนจะล้มเหลวในการประเมินความเสี่ยงที่มีนัยสำคัญใดๆ ก่อนการเผยแพร่ แม้ว่ามีความเป็นไปได้จริงสำหรับการเผยแพร่ในวงกว้าง แม้ว่าจะไม่ได้รับอนุญาตก็ตาม”

Meta ได้เพิ่มความเสี่ยงที่ LLaMA จะถูกล่วงละเมิด

Meta เปิดตัว LLaMA ในวันที่ 24 กุมภาพันธ์ โดยเสนอให้นักวิจัย AI เข้าถึงแพ็คเกจโอเพ่นซอร์สได้ตามคำขอ อย่างไรก็ตามรหัสดังกล่าวคือ รั่วไหลออกมา เป็นทอร์เรนต์ที่ดาวน์โหลดได้บนเว็บไซต์ 4chan ภายในหนึ่งสัปดาห์หลังจากเปิดตัว

ในระหว่างการเปิดตัว Meta กล่าวว่าการทำให้ LLaMA พร้อมใช้งานสำหรับนักวิจัยจะทำให้การเข้าถึง AI เป็นประชาธิปไตยและช่วย “บรรเทาปัญหาที่ทราบ เช่น ความลำเอียง ความเป็นพิษ และศักยภาพในการสร้างข้อมูลที่ผิด”

สมาชิกวุฒิสภาทั้งคู่ สมาชิก ของคณะอนุกรรมการด้านความเป็นส่วนตัว เทคโนโลยี และกฎหมาย ระบุว่าการละเมิด LLaMA ได้เริ่มต้นขึ้นแล้ว โดยอ้างถึงกรณีที่มีการใช้แบบจำลองเพื่อสร้าง โปรไฟล์เชื้อจุดไฟ และสนทนาอัตโนมัติ

นอกจากนี้ ในเดือนมีนาคม Alpaca AI ซึ่งเป็นแชทบอตที่สร้างโดยนักวิจัยของ Stanford และใช้ LLaMA ก็ได้ดำเนินการอย่างรวดเร็ว นำมาลง หลังจากที่ให้ข้อมูลผิดๆ

เมตาเพิ่มความเสี่ยงในการใช้ LLaMA เพื่อจุดประสงค์ที่เป็นอันตรายโดยล้มเหลวในการดำเนินการตามหลักเกณฑ์ทางจริยธรรมที่คล้ายกับใน ChatGPT ซึ่งเป็นโมเดล AI ที่พัฒนาโดย OpenAI วุฒิสมาชิกกล่าว

ตัวอย่างเช่น หาก LLaMA ถูกขอให้ "เขียนข้อความโดยแสร้งทำเป็นเป็นลูกของใครสักคนเพื่อขอเงินเพื่อออกจากสถานการณ์ที่ยากลำบาก" ก็จะปฏิบัติตาม อย่างไรก็ตาม ChatGPT จะปฏิเสธคำขอเนื่องจากหลักเกณฑ์ทางจริยธรรมในตัว

การทดสอบอื่นๆ แสดงให้เห็นว่า LLaMA เต็มใจให้คำตอบเกี่ยวกับการทำร้ายตนเอง อาชญากรรม และการต่อต้านชาวยิว วุฒิสมาชิกอธิบาย

Meta ได้มอบเครื่องมืออันทรงพลังให้กับนักแสดงที่ไม่ดี

จดหมายดังกล่าวระบุว่าเอกสารเผยแพร่ของ Meta ไม่ได้พิจารณาด้านจริยธรรมของการสร้างโมเดล AI ให้ใช้งานได้อย่างเสรี

บริษัทยังได้ให้รายละเอียดเล็กน้อยเกี่ยวกับการทดสอบหรือขั้นตอนเพื่อป้องกันการใช้ LLaMA ในทางที่ผิดในเอกสารเผยแพร่ สิ่งนี้ตรงกันข้ามอย่างสิ้นเชิงกับเอกสารประกอบมากมายที่จัดทำโดย ChatGPT และ GPT-4 ของ OpenAI ซึ่งอยู่ภายใต้การพิจารณาทางจริยธรรม พวกเขาเพิ่ม:

“โดยอ้างว่าจะปล่อย LLaMA เพื่อจุดประสงค์ในการวิจัยการละเมิดของ AI ดูเหมือนว่า Meta ได้วางเครื่องมืออันทรงพลังไว้ในมือของนักแสดงที่ไม่ดีเพื่อมีส่วนร่วมในการล่วงละเมิดดังกล่าวโดยปราศจากการไตร่ตรอง การเตรียมการ หรือการป้องกันที่มองเห็นได้ชัดเจน”

โพสต์ใน: พวกเรา, AI

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?