Microsoft ได้พัฒนา BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI แบบ 1-bit LLM ที่มี 2 พันล้านพารามิเตอร์ และสามารถทำงานได้อย่างมีประสิทธิภาพบน CPU ทั่วไป โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่ารุ่นอื่นๆ ถึง 70%
✅ BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ
- ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ
- ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B
✅ สามารถทำงานบน CPU ทั่วไป เช่น Apple M2
- ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า
- ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่
✅ BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่
- ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
- มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ
✅ โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub
- ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี
- ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ
https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
✅ BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ
- ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ
- ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B
✅ สามารถทำงานบน CPU ทั่วไป เช่น Apple M2
- ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า
- ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่
✅ BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่
- ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
- มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ
✅ โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub
- ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี
- ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ
https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
Microsoft ได้พัฒนา BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI แบบ 1-bit LLM ที่มี 2 พันล้านพารามิเตอร์ และสามารถทำงานได้อย่างมีประสิทธิภาพบน CPU ทั่วไป โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่ารุ่นอื่นๆ ถึง 70%
✅ BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ
- ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ
- ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B
✅ สามารถทำงานบน CPU ทั่วไป เช่น Apple M2
- ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า
- ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่
✅ BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่
- ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
- มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ
✅ โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub
- ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี
- ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ
https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
0 ความคิดเห็น
0 การแบ่งปัน
109 มุมมอง
0 รีวิว