เรื่องเล่าจากพีซียุคใหม่: เมื่อ LLM ขนาด 128B รันได้ในเครื่องของคุณ

AMD ได้เปิดตัวอัปเดตไดรเวอร์ใหม่ Adrenalin Edition 25.8.1 ที่ทำให้ชิป Ryzen AI Max+ รุ่น 395 สามารถรันโมเดลภาษาขนาดใหญ่ระดับ 128 พันล้านพารามิเตอร์ได้ในเครื่องพีซีทั่วไป โดยใช้เทคโนโลยี Variable Graphics Memory (VGM) ที่สามารถจัดสรรหน่วยความจำกราฟิกได้สูงถึง 96GB จากแรมรวม 128GB

สิ่งนี้ทำให้ผู้ใช้สามารถรันโมเดล Llama 4 Scout จาก Meta ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ซึ่งเป็นโมเดลแบบ Mixture-of-Experts ที่มีพารามิเตอร์รวม 109B แต่ใช้จริงเพียง 17B ต่อครั้ง ทำให้ประสิทธิภาพการประมวลผลยังคงสูงถึง 15 tokens ต่อวินาที

ที่น่าตื่นเต้นคือ AMD ยังเพิ่มขนาด context window ได้ถึง 256,000 tokens ซึ่งมากกว่ามาตรฐานเดิมที่อยู่ราว 4,096 tokens ทำให้สามารถสรุปเอกสารยาว ๆ หรือทำงานแบบ agentic workflows ได้อย่างลื่นไหล

AMD เปิดตัวไดรเวอร์ใหม่ที่รองรับโมเดล LLM ขนาด 128B บนพีซีทั่วไป
ใช้ Adrenalin Edition 25.8.1 WHQL ร่วมกับ Ryzen AI Max+ 395
รองรับการรันโมเดล Llama 4 Scout จาก Meta ได้แบบ local

ใช้ Variable Graphics Memory (VGM) เพื่อจัดสรรหน่วยความจำกราฟิกสูงสุด 96GB
จากแรมรวม 128GB บนระบบ Ryzen AI Max+
ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องใช้ GPU แยก

Llama 4 Scout เป็นโมเดลแบบ Mixture-of-Experts (MoE)
มีพารามิเตอร์รวม 109B แต่ใช้จริงเพียง 17B ต่อครั้ง
ประสิทธิภาพสูงถึง 15 tokens ต่อวินาที

ขนาด context window เพิ่มขึ้นถึง 256,000 tokens
รองรับงานที่ต้องใช้ข้อมูลจำนวนมากในครั้งเดียว เช่น RAG หรือ MCP
เหมาะสำหรับงานสรุปเอกสาร, การวิเคราะห์ข้อมูล, และ agentic workflows

เปิดทางให้ผู้ใช้ทั่วไปสามารถเข้าถึงพลัง AI ได้โดยไม่ต้องพึ่งคลาวด์
ลดความเสี่ยงด้านความเป็นส่วนตัวและค่าใช้จ่ายระยะยาว
เหมาะสำหรับนักพัฒนา, นักวิจัย, และผู้ใช้สาย productivity

การรันโมเดลขนาดใหญ่ต้องใช้ฮาร์ดแวร์ระดับสูงและมีราคาสูง
Ryzen AI Max+ 395 พร้อมแรม 128GB มีราคาสูงกว่า $2,000
ไม่เหมาะสำหรับผู้ใช้ทั่วไปที่มีงบจำกัด

การใช้โมเดลแบบ local ต้องระวังเรื่องความปลอดภัยของระบบ
หากติดตั้งจากแหล่งที่ไม่น่าเชื่อถือ อาจเกิดความเสียหายต่อระบบ
AMD เตือนว่าการให้ LLM เข้าถึงเครื่องอาจนำไปสู่ผลลัพธ์ที่ไม่คาดคิด

การจัดสรรหน่วยความจำกราฟิกสูงอาจกระทบต่อการใช้งานอื่น ๆ
หากใช้ VGM เต็ม 96GB อาจทำให้ระบบขาดแรมสำหรับงานอื่น
ต้องบริหารทรัพยากรอย่างระมัดระวัง

การรันโมเดล MoE ต้องโหลดพารามิเตอร์ทั้งหมดแม้ใช้เพียงบางส่วน
footprint หน่วยความจำเทียบเท่ากับโมเดล dense ขนาด 109B
ต้องมีแรมเพียงพอแม้จะใช้แค่ 17B ในการประมวลผล

https://wccftech.com/amd-ryzen-ai-max-processors-offer-a-96gb-memory-for-consumer-graphics/
🎙️ เรื่องเล่าจากพีซียุคใหม่: เมื่อ LLM ขนาด 128B รันได้ในเครื่องของคุณ AMD ได้เปิดตัวอัปเดตไดรเวอร์ใหม่ Adrenalin Edition 25.8.1 ที่ทำให้ชิป Ryzen AI Max+ รุ่น 395 สามารถรันโมเดลภาษาขนาดใหญ่ระดับ 128 พันล้านพารามิเตอร์ได้ในเครื่องพีซีทั่วไป โดยใช้เทคโนโลยี Variable Graphics Memory (VGM) ที่สามารถจัดสรรหน่วยความจำกราฟิกได้สูงถึง 96GB จากแรมรวม 128GB สิ่งนี้ทำให้ผู้ใช้สามารถรันโมเดล Llama 4 Scout จาก Meta ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ซึ่งเป็นโมเดลแบบ Mixture-of-Experts ที่มีพารามิเตอร์รวม 109B แต่ใช้จริงเพียง 17B ต่อครั้ง ทำให้ประสิทธิภาพการประมวลผลยังคงสูงถึง 15 tokens ต่อวินาที ที่น่าตื่นเต้นคือ AMD ยังเพิ่มขนาด context window ได้ถึง 256,000 tokens ซึ่งมากกว่ามาตรฐานเดิมที่อยู่ราว 4,096 tokens ทำให้สามารถสรุปเอกสารยาว ๆ หรือทำงานแบบ agentic workflows ได้อย่างลื่นไหล ✅ AMD เปิดตัวไดรเวอร์ใหม่ที่รองรับโมเดล LLM ขนาด 128B บนพีซีทั่วไป ➡️ ใช้ Adrenalin Edition 25.8.1 WHQL ร่วมกับ Ryzen AI Max+ 395 ➡️ รองรับการรันโมเดล Llama 4 Scout จาก Meta ได้แบบ local ✅ ใช้ Variable Graphics Memory (VGM) เพื่อจัดสรรหน่วยความจำกราฟิกสูงสุด 96GB ➡️ จากแรมรวม 128GB บนระบบ Ryzen AI Max+ ➡️ ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องใช้ GPU แยก ✅ Llama 4 Scout เป็นโมเดลแบบ Mixture-of-Experts (MoE) ➡️ มีพารามิเตอร์รวม 109B แต่ใช้จริงเพียง 17B ต่อครั้ง ➡️ ประสิทธิภาพสูงถึง 15 tokens ต่อวินาที ✅ ขนาด context window เพิ่มขึ้นถึง 256,000 tokens ➡️ รองรับงานที่ต้องใช้ข้อมูลจำนวนมากในครั้งเดียว เช่น RAG หรือ MCP ➡️ เหมาะสำหรับงานสรุปเอกสาร, การวิเคราะห์ข้อมูล, และ agentic workflows ✅ เปิดทางให้ผู้ใช้ทั่วไปสามารถเข้าถึงพลัง AI ได้โดยไม่ต้องพึ่งคลาวด์ ➡️ ลดความเสี่ยงด้านความเป็นส่วนตัวและค่าใช้จ่ายระยะยาว ➡️ เหมาะสำหรับนักพัฒนา, นักวิจัย, และผู้ใช้สาย productivity ‼️ การรันโมเดลขนาดใหญ่ต้องใช้ฮาร์ดแวร์ระดับสูงและมีราคาสูง ⛔ Ryzen AI Max+ 395 พร้อมแรม 128GB มีราคาสูงกว่า $2,000 ⛔ ไม่เหมาะสำหรับผู้ใช้ทั่วไปที่มีงบจำกัด ‼️ การใช้โมเดลแบบ local ต้องระวังเรื่องความปลอดภัยของระบบ ⛔ หากติดตั้งจากแหล่งที่ไม่น่าเชื่อถือ อาจเกิดความเสียหายต่อระบบ ⛔ AMD เตือนว่าการให้ LLM เข้าถึงเครื่องอาจนำไปสู่ผลลัพธ์ที่ไม่คาดคิด ‼️ การจัดสรรหน่วยความจำกราฟิกสูงอาจกระทบต่อการใช้งานอื่น ๆ ⛔ หากใช้ VGM เต็ม 96GB อาจทำให้ระบบขาดแรมสำหรับงานอื่น ⛔ ต้องบริหารทรัพยากรอย่างระมัดระวัง ‼️ การรันโมเดล MoE ต้องโหลดพารามิเตอร์ทั้งหมดแม้ใช้เพียงบางส่วน ⛔ footprint หน่วยความจำเทียบเท่ากับโมเดล dense ขนาด 109B ⛔ ต้องมีแรมเพียงพอแม้จะใช้แค่ 17B ในการประมวลผล https://wccftech.com/amd-ryzen-ai-max-processors-offer-a-96gb-memory-for-consumer-graphics/
WCCFTECH.COM
AMD's Ryzen AI MAX+ Processors Now Offer a Whopping 96 GB Memory for Consumer Graphics, Allowing Gigantic 128B-Parameter LLMs to Run Locally on PCs
AMD has just taken edge AI to a whole new level, as with the recent driver update, the company has now brought the support of large LLMs.
0 Comments 0 Shares 60 Views 0 Reviews