Microsoft ได้เปิดตัว BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI ที่มีประสิทธิภาพสูงและใช้หน่วยความจำเพียง 400MB โดยไม่ต้องใช้ GPU โมเดลนี้ใช้เทคนิค ternary quantization ซึ่งช่วยลดขนาดของโมเดลโดยใช้เพียง -1, 0 และ +1 แทนค่าถ่วงน้ำหนักแบบดั้งเดิม ทำให้สามารถทำงานบนฮาร์ดแวร์มาตรฐาน เช่น Apple M2 chip ได้อย่างราบรื่น
✅ BitNet ใช้หน่วยความจำเพียง 400MB และไม่ต้องใช้ GPU
- สามารถทำงานบน CPU มาตรฐานโดยไม่ต้องใช้ฮาร์ดแวร์ AI เฉพาะทาง
- ใช้พลังงานน้อยกว่ารุ่นอื่นถึง 85-96%
✅ ใช้เทคนิค ternary quantization เพื่อลดขนาดโมเดล
- แทนค่าถ่วงน้ำหนักด้วย -1, 0 และ +1 แทนที่จะใช้ตัวเลขทศนิยมแบบ 16 หรือ 32 บิต
- ช่วยให้โมเดลมีประสิทธิภาพสูงขึ้นโดยไม่สูญเสียความแม่นยำ
✅ BitNet มีพารามิเตอร์ 2 พันล้านตัวและถูกฝึกด้วยข้อมูล 4 ล้านล้านโทเค็น
- เทียบเท่ากับเนื้อหาของหนังสือ 33 ล้านเล่ม
- สามารถแข่งขันกับโมเดลชั้นนำ เช่น Llama 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
✅ สามารถทำงานบนเฟรมเวิร์ก bitnet.cpp ที่พัฒนาโดย Microsoft
- เฟรมเวิร์กนี้ช่วยให้โมเดลทำงานได้เร็วขึ้นและใช้ทรัพยากรน้อยลง
- รองรับเฉพาะ CPU ในปัจจุบัน แต่มีแผนที่จะเพิ่มการรองรับฮาร์ดแวร์อื่นๆ ในอนาคต
https://www.techspot.com/news/107617-microsoft-bitnet-shows-what-ai-can-do-400mb.html
✅ BitNet ใช้หน่วยความจำเพียง 400MB และไม่ต้องใช้ GPU
- สามารถทำงานบน CPU มาตรฐานโดยไม่ต้องใช้ฮาร์ดแวร์ AI เฉพาะทาง
- ใช้พลังงานน้อยกว่ารุ่นอื่นถึง 85-96%
✅ ใช้เทคนิค ternary quantization เพื่อลดขนาดโมเดล
- แทนค่าถ่วงน้ำหนักด้วย -1, 0 และ +1 แทนที่จะใช้ตัวเลขทศนิยมแบบ 16 หรือ 32 บิต
- ช่วยให้โมเดลมีประสิทธิภาพสูงขึ้นโดยไม่สูญเสียความแม่นยำ
✅ BitNet มีพารามิเตอร์ 2 พันล้านตัวและถูกฝึกด้วยข้อมูล 4 ล้านล้านโทเค็น
- เทียบเท่ากับเนื้อหาของหนังสือ 33 ล้านเล่ม
- สามารถแข่งขันกับโมเดลชั้นนำ เช่น Llama 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
✅ สามารถทำงานบนเฟรมเวิร์ก bitnet.cpp ที่พัฒนาโดย Microsoft
- เฟรมเวิร์กนี้ช่วยให้โมเดลทำงานได้เร็วขึ้นและใช้ทรัพยากรน้อยลง
- รองรับเฉพาะ CPU ในปัจจุบัน แต่มีแผนที่จะเพิ่มการรองรับฮาร์ดแวร์อื่นๆ ในอนาคต
https://www.techspot.com/news/107617-microsoft-bitnet-shows-what-ai-can-do-400mb.html
Microsoft ได้เปิดตัว BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI ที่มีประสิทธิภาพสูงและใช้หน่วยความจำเพียง 400MB โดยไม่ต้องใช้ GPU โมเดลนี้ใช้เทคนิค ternary quantization ซึ่งช่วยลดขนาดของโมเดลโดยใช้เพียง -1, 0 และ +1 แทนค่าถ่วงน้ำหนักแบบดั้งเดิม ทำให้สามารถทำงานบนฮาร์ดแวร์มาตรฐาน เช่น Apple M2 chip ได้อย่างราบรื่น
✅ BitNet ใช้หน่วยความจำเพียง 400MB และไม่ต้องใช้ GPU
- สามารถทำงานบน CPU มาตรฐานโดยไม่ต้องใช้ฮาร์ดแวร์ AI เฉพาะทาง
- ใช้พลังงานน้อยกว่ารุ่นอื่นถึง 85-96%
✅ ใช้เทคนิค ternary quantization เพื่อลดขนาดโมเดล
- แทนค่าถ่วงน้ำหนักด้วย -1, 0 และ +1 แทนที่จะใช้ตัวเลขทศนิยมแบบ 16 หรือ 32 บิต
- ช่วยให้โมเดลมีประสิทธิภาพสูงขึ้นโดยไม่สูญเสียความแม่นยำ
✅ BitNet มีพารามิเตอร์ 2 พันล้านตัวและถูกฝึกด้วยข้อมูล 4 ล้านล้านโทเค็น
- เทียบเท่ากับเนื้อหาของหนังสือ 33 ล้านเล่ม
- สามารถแข่งขันกับโมเดลชั้นนำ เช่น Llama 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
✅ สามารถทำงานบนเฟรมเวิร์ก bitnet.cpp ที่พัฒนาโดย Microsoft
- เฟรมเวิร์กนี้ช่วยให้โมเดลทำงานได้เร็วขึ้นและใช้ทรัพยากรน้อยลง
- รองรับเฉพาะ CPU ในปัจจุบัน แต่มีแผนที่จะเพิ่มการรองรับฮาร์ดแวร์อื่นๆ ในอนาคต
https://www.techspot.com/news/107617-microsoft-bitnet-shows-what-ai-can-do-400mb.html
0 ความคิดเห็น
0 การแบ่งปัน
80 มุมมอง
0 รีวิว