• การทดลองฝึก LLM บนเครื่องส่วนตัว

    บทความของ Giles Thomas เล่าประสบการณ์การ train LLM ขนาดเล็ก (163M parameters) ด้วยการ์ดจอ RTX 3090 ที่บ้าน โดยใช้ชุดข้อมูล FineWeb และ FineWeb-Edu จาก Hugging Face ผลลัพธ์คือสามารถฝึกโมเดล GPT-2 ขนาดเล็กให้มีคุณภาพใกล้เคียงต้นฉบับภายใน 48 ชั่วโมง ซึ่งแสดงให้เห็นว่า การสร้าง base model ไม่ใช่เรื่องที่ทำได้เฉพาะในห้องแล็บใหญ่ ๆ อีกต่อไป.

    Giles เริ่มจากแรงบันดาลใจในหนังสือของ Sebastian Raschka ที่สอนการสร้าง LLM จากศูนย์ และตั้งคำถามว่า สามารถฝึกโมเดลจริง ๆ บนเครื่องส่วนตัวได้หรือไม่ เขาเลือกใช้สเปก GPT-2 small (163M parameters, context length 1024, 12 layers, 12 heads) และตัดสินใจไม่ใช้ weight tying เพื่อความง่ายในการทดลอง.

    ข้อมูลที่ใช้ในการฝึก
    เขาเลือกใช้ FineWeb 10B tokens และ FineWeb-Edu ซึ่งเป็นชุดข้อมูลที่คัดกรองเนื้อหาการศึกษา โดยรวมแล้วได้ข้อมูลกว่า 14 ล้านเอกสาร (~29GB) และอีก 9 ล้านเอกสาร (~27GB) จาก FineWeb-Edu หลังจาก tokenize พบว่ามีข้อมูลประมาณ 10 พันล้าน tokens ซึ่งเพียงพอสำหรับการฝึกตาม Chinchilla heuristic (20 tokens ต่อ parameter).

    ประสิทธิภาพการฝึก
    การทดสอบ batch size พบว่า RTX 3090 สามารถประมวลผลได้ราว 12,000 tokens ต่อวินาที ทำให้การฝึกโมเดล 163M parameters บน 3.2 พันล้าน tokens ใช้เวลาประมาณ 3 วัน ซึ่งถือว่าเป็นไปได้จริงสำหรับเครื่องระดับ consumer. Giles ใช้เทคนิค TF32 และ mixed precision เพื่อเร่งความเร็ว และพบว่า การฝึกแบบ Chinchilla-optimal สามารถเสร็จสิ้นภายใน 48 ชั่วโมง.

    ความหมายต่อวงการ AI
    บทความนี้ชี้ว่า การสร้าง base model ไม่ใช่เรื่องที่ทำได้เฉพาะบริษัทใหญ่ อีกต่อไป นักวิจัยอิสระหรือผู้สนใจสามารถทดลองฝึกโมเดลด้วยเครื่อง consumer-grade ได้แล้ว แม้จะไม่สามารถแข่งขันกับโมเดลระดับพันล้านพารามิเตอร์ แต่ก็เพียงพอสำหรับการศึกษา, การทดลอง และการสร้างโมเดลเฉพาะทาง.

    สรุปประเด็นสำคัญ
    สเปกโมเดลที่ใช้
    GPT-2 small, 163M parameters, context length 1024
    ไม่ใช้ weight tying เพื่อความง่าย

    ข้อมูลที่ใช้
    FineWeb 10B tokens (~29GB)
    FineWeb-Edu (~27GB)
    รวมกว่า 10 พันล้าน tokens

    ผลการฝึก
    RTX 3090 ทำได้ ~12,000 tokens/วินาที
    ใช้เวลาประมาณ 48 ชั่วโมงในการฝึกจนใกล้เคียง GPT-2 ต้นฉบับ

    คำเตือนและข้อจำกัด
    ไม่สามารถฝึกโมเดลขนาดใหญ่ระดับพันล้านพารามิเตอร์ได้บนเครื่องเดียว
    การใช้ข้อมูลที่ไม่ได้กรองอาจทำให้คุณภาพโมเดลลดลง
    ต้องใช้เทคนิค mixed precision และการจัดการหน่วยความจำอย่างระมัดระวัง

    https://www.gilesthomas.com/2025/12/llm-from-scratch-28-training-a-base-model-from-scratch
    🖥️ การทดลองฝึก LLM บนเครื่องส่วนตัว บทความของ Giles Thomas เล่าประสบการณ์การ train LLM ขนาดเล็ก (163M parameters) ด้วยการ์ดจอ RTX 3090 ที่บ้าน โดยใช้ชุดข้อมูล FineWeb และ FineWeb-Edu จาก Hugging Face ผลลัพธ์คือสามารถฝึกโมเดล GPT-2 ขนาดเล็กให้มีคุณภาพใกล้เคียงต้นฉบับภายใน 48 ชั่วโมง ซึ่งแสดงให้เห็นว่า การสร้าง base model ไม่ใช่เรื่องที่ทำได้เฉพาะในห้องแล็บใหญ่ ๆ อีกต่อไป. Giles เริ่มจากแรงบันดาลใจในหนังสือของ Sebastian Raschka ที่สอนการสร้าง LLM จากศูนย์ และตั้งคำถามว่า สามารถฝึกโมเดลจริง ๆ บนเครื่องส่วนตัวได้หรือไม่ เขาเลือกใช้สเปก GPT-2 small (163M parameters, context length 1024, 12 layers, 12 heads) และตัดสินใจไม่ใช้ weight tying เพื่อความง่ายในการทดลอง. 📚 ข้อมูลที่ใช้ในการฝึก เขาเลือกใช้ FineWeb 10B tokens และ FineWeb-Edu ซึ่งเป็นชุดข้อมูลที่คัดกรองเนื้อหาการศึกษา โดยรวมแล้วได้ข้อมูลกว่า 14 ล้านเอกสาร (~29GB) และอีก 9 ล้านเอกสาร (~27GB) จาก FineWeb-Edu หลังจาก tokenize พบว่ามีข้อมูลประมาณ 10 พันล้าน tokens ซึ่งเพียงพอสำหรับการฝึกตาม Chinchilla heuristic (20 tokens ต่อ parameter). ⚡ ประสิทธิภาพการฝึก การทดสอบ batch size พบว่า RTX 3090 สามารถประมวลผลได้ราว 12,000 tokens ต่อวินาที ทำให้การฝึกโมเดล 163M parameters บน 3.2 พันล้าน tokens ใช้เวลาประมาณ 3 วัน ซึ่งถือว่าเป็นไปได้จริงสำหรับเครื่องระดับ consumer. Giles ใช้เทคนิค TF32 และ mixed precision เพื่อเร่งความเร็ว และพบว่า การฝึกแบบ Chinchilla-optimal สามารถเสร็จสิ้นภายใน 48 ชั่วโมง. 🌍 ความหมายต่อวงการ AI บทความนี้ชี้ว่า การสร้าง base model ไม่ใช่เรื่องที่ทำได้เฉพาะบริษัทใหญ่ อีกต่อไป นักวิจัยอิสระหรือผู้สนใจสามารถทดลองฝึกโมเดลด้วยเครื่อง consumer-grade ได้แล้ว แม้จะไม่สามารถแข่งขันกับโมเดลระดับพันล้านพารามิเตอร์ แต่ก็เพียงพอสำหรับการศึกษา, การทดลอง และการสร้างโมเดลเฉพาะทาง. 📌 สรุปประเด็นสำคัญ ✅ สเปกโมเดลที่ใช้ ➡️ GPT-2 small, 163M parameters, context length 1024 ➡️ ไม่ใช้ weight tying เพื่อความง่าย ✅ ข้อมูลที่ใช้ ➡️ FineWeb 10B tokens (~29GB) ➡️ FineWeb-Edu (~27GB) ➡️ รวมกว่า 10 พันล้าน tokens ✅ ผลการฝึก ➡️ RTX 3090 ทำได้ ~12,000 tokens/วินาที ➡️ ใช้เวลาประมาณ 48 ชั่วโมงในการฝึกจนใกล้เคียง GPT-2 ต้นฉบับ ‼️ คำเตือนและข้อจำกัด ⛔ ไม่สามารถฝึกโมเดลขนาดใหญ่ระดับพันล้านพารามิเตอร์ได้บนเครื่องเดียว ⛔ การใช้ข้อมูลที่ไม่ได้กรองอาจทำให้คุณภาพโมเดลลดลง ⛔ ต้องใช้เทคนิค mixed precision และการจัดการหน่วยความจำอย่างระมัดระวัง https://www.gilesthomas.com/2025/12/llm-from-scratch-28-training-a-base-model-from-scratch
    WWW.GILESTHOMAS.COM
    Writing an LLM from scratch, part 28 -- training a base model from scratch on an RTX 3090
    I felt like it should be possible to train a GPT-2 small level model on my own hardware using modern tools and open datasets from scratch. It was!
    0 ความคิดเห็น 0 การแบ่งปัน 124 มุมมอง 0 รีวิว
  • Samsung เริ่มผลิตชิปหน่วยความจำ GDDR7 ขนาด 24Gb อย่างเป็นทางการ

    รายงานจาก Wccftech ระบุว่า Samsung ได้เข้าสู่ขั้นตอน mass production ของชิปหน่วยความจำ GDDR7 ขนาด 24Gb (3GB ต่อชิป) ที่มีความเร็ว 28Gbps โดยชิปนี้ถูกคาดว่าจะถูกใช้ใน NVIDIA GeForce RTX 50 series รุ่นใหม่ ยกเว้น RTX 5080 ที่จะใช้ชิปความเร็ว 30Gbps

    รายละเอียดทางเทคนิค
    ขนาดชิป: 24Gb (3GB ต่อชิป)
    ความเร็ว: 28Gbps (รุ่นที่ผลิตจริง), มีรุ่นทดสอบที่ 32Gbps และ 36Gbps
    รหัสชิป: K4vcf325zc-sc28 สำหรับรุ่น 28Gbps, และ sc32 / sc36 สำหรับรุ่นที่เร็วกว่า
    การใช้งาน: คาดว่าจะถูกใช้ใน RTX 5090, RTX 5070 Super และรุ่นอื่น ๆ เพื่อเพิ่มความจุ VRAM และแบนด์วิดท์

    ผลกระทบต่ออุตสาหกรรม GPU
    การผลิตชิป GDDR7 รุ่นใหม่เกิดขึ้นในช่วงที่ราคาหน่วยความจำ DRAM กำลังพุ่งสูง ทำให้การเปิดตัว RTX 50 Super series อาจถูกเลื่อนออกไปถึงไตรมาส 3 ปี 2026 อย่างไรก็ตาม การมาถึงของ GDDR7 ความเร็วสูงจะช่วยเพิ่มประสิทธิภาพการเล่นเกมและงาน AI ที่ต้องการแบนด์วิดท์สูงมาก

    สิ่งที่ต้องจับตา
    NVIDIA จะเลือกใช้ชิป 28Gbps หรือรุ่นที่เร็วกว่าในซีรีส์ Super
    ผลกระทบจากราคาหน่วยความจำที่สูง อาจทำให้การเปิดตัว GPU รุ่นใหม่ล่าช้า
    การแข่งขันกับคู่แข่งอย่าง SK hynix ที่เตรียมเปิดตัวชิป GDDR7 ความเร็ว 48Gbps ในปี 2026

    สรุปสาระสำคัญ
    Samsung เริ่มผลิต GDDR7 24Gb (28Gbps) อย่างเป็นทางการ
    มีรุ่นทดสอบที่เร็วกว่า (32Gbps และ 36Gbps)
    ใช้ใน RTX 50 series เพื่อเพิ่ม VRAM และแบนด์วิดท์
    ราคาหน่วยความจำสูงอาจทำให้การเปิดตัว RTX 50 Super series ล่าช้า
    ความเสี่ยง: การแข่งขันกับ SK hynix และผลกระทบจากต้นทุน DRAM
    สิ่งที่ต้องจับตา: NVIDIA จะเลือกใช้ชิปความเร็วใดในรุ่น Super

    https://wccftech.com/samsung-officially-starts-mass-producing-24-gb-gddr7/
    🏭 Samsung เริ่มผลิตชิปหน่วยความจำ GDDR7 ขนาด 24Gb อย่างเป็นทางการ รายงานจาก Wccftech ระบุว่า Samsung ได้เข้าสู่ขั้นตอน mass production ของชิปหน่วยความจำ GDDR7 ขนาด 24Gb (3GB ต่อชิป) ที่มีความเร็ว 28Gbps โดยชิปนี้ถูกคาดว่าจะถูกใช้ใน NVIDIA GeForce RTX 50 series รุ่นใหม่ ยกเว้น RTX 5080 ที่จะใช้ชิปความเร็ว 30Gbps ⚙️ รายละเอียดทางเทคนิค 🔷 ขนาดชิป: 24Gb (3GB ต่อชิป) 🔷 ความเร็ว: 28Gbps (รุ่นที่ผลิตจริง), มีรุ่นทดสอบที่ 32Gbps และ 36Gbps 🔷 รหัสชิป: K4vcf325zc-sc28 สำหรับรุ่น 28Gbps, และ sc32 / sc36 สำหรับรุ่นที่เร็วกว่า 🔷 การใช้งาน: คาดว่าจะถูกใช้ใน RTX 5090, RTX 5070 Super และรุ่นอื่น ๆ เพื่อเพิ่มความจุ VRAM และแบนด์วิดท์ 🌍 ผลกระทบต่ออุตสาหกรรม GPU การผลิตชิป GDDR7 รุ่นใหม่เกิดขึ้นในช่วงที่ราคาหน่วยความจำ DRAM กำลังพุ่งสูง ทำให้การเปิดตัว RTX 50 Super series อาจถูกเลื่อนออกไปถึงไตรมาส 3 ปี 2026 อย่างไรก็ตาม การมาถึงของ GDDR7 ความเร็วสูงจะช่วยเพิ่มประสิทธิภาพการเล่นเกมและงาน AI ที่ต้องการแบนด์วิดท์สูงมาก 🛡️ สิ่งที่ต้องจับตา 🔷 NVIDIA จะเลือกใช้ชิป 28Gbps หรือรุ่นที่เร็วกว่าในซีรีส์ Super 🔷 ผลกระทบจากราคาหน่วยความจำที่สูง อาจทำให้การเปิดตัว GPU รุ่นใหม่ล่าช้า 🔷 การแข่งขันกับคู่แข่งอย่าง SK hynix ที่เตรียมเปิดตัวชิป GDDR7 ความเร็ว 48Gbps ในปี 2026 📌 สรุปสาระสำคัญ ✅ Samsung เริ่มผลิต GDDR7 24Gb (28Gbps) อย่างเป็นทางการ ✅ มีรุ่นทดสอบที่เร็วกว่า (32Gbps และ 36Gbps) ✅ ใช้ใน RTX 50 series เพื่อเพิ่ม VRAM และแบนด์วิดท์ ✅ ราคาหน่วยความจำสูงอาจทำให้การเปิดตัว RTX 50 Super series ล่าช้า ‼️ ความเสี่ยง: การแข่งขันกับ SK hynix และผลกระทบจากต้นทุน DRAM ‼️ สิ่งที่ต้องจับตา: NVIDIA จะเลือกใช้ชิปความเร็วใดในรุ่น Super https://wccftech.com/samsung-officially-starts-mass-producing-24-gb-gddr7/
    WCCFTECH.COM
    Samsung Officially Starts Mass Producing 24 Gb GDDR7 Memory Chips; 36 Gbps Chips Enters Sampling
    Samsung has initiated the mass production of its new 24 Gb aka 3 GB GDDR7 memory chips for higher video memory in GPUs.
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • Border Patrol สหรัฐฯ ขยายการสอดส่องผู้ขับรถภายในประเทศ

    หน่วยงาน Border Patrol ของสหรัฐฯ ได้พัฒนาโครงการสอดส่องการเดินทางของประชาชนผ่านระบบกล้องอ่านป้ายทะเบียนและอัลกอริทึมที่คัดกรองเส้นทาง "น่าสงสัย" โดยไม่จำกัดเฉพาะพื้นที่ชายแดนอีกต่อไป แต่ขยายเข้าสู่เมืองใหญ่ เช่น ชิคาโก ดีทรอยต์ และฟีนิกซ์ การดำเนินการนี้ทำให้ผู้ขับรถจำนวนมากถูกหยุด ตรวจค้น และสอบสวน แม้ไม่มีหลักฐานชัดเจนว่ามีการกระทำผิดกฎหมาย

    โครงการดังกล่าวเริ่มต้นเมื่อราวสิบปีก่อนเพื่อปราบปรามการลักลอบขนยาเสพติดและการค้ามนุษย์ แต่ในช่วงห้าปีที่ผ่านมาได้ขยายขอบเขตอย่างมาก โดยอาศัยความร่วมมือกับหน่วยงานอื่น เช่น DEA และบริษัทเอกชนที่ให้บริการระบบอ่านป้ายทะเบียน ข้อมูลที่ได้ถูกนำไปใช้สร้าง "รูปแบบชีวิต" ของผู้ขับรถ เพื่อหาความผิดปกติในการเดินทาง

    นักวิชาการด้านกฎหมายและสิทธิมนุษยชนเตือนว่า การสอดส่องในระดับมหภาคเช่นนี้อาจละเมิดสิทธิพลเมืองและขัดต่อรัฐธรรมนูญ โดยเฉพาะการตีความมาตรา Fourth Amendment ที่คุ้มครองประชาชนจากการค้นและจับกุมโดยไม่มีเหตุผลอันควร หลายกรณีที่ถูกเปิดเผยพบว่าผู้ขับรถถูกหยุดเพียงเพราะเส้นทางสั้น ๆ ไปยังพื้นที่ชายแดน หรือเพราะใช้รถเช่า

    นอกจากนี้ยังมีการใช้เงินทุนจากโครงการ Operation Stonegarden เพื่อสนับสนุนตำรวจท้องถิ่นติดตั้งระบบสอดส่องและทำงานร่วมกับ Border Patrol ทำให้เครือข่ายการเฝ้าระวังขยายตัวอย่างกว้างขวาง นักเคลื่อนไหวสิทธิพลเมืองชี้ว่าการกระทำเช่นนี้อาจสร้างบรรยากาศความหวาดระแวงและบั่นทอนความเชื่อมั่นของประชาชนต่อรัฐ

    สรุปประเด็นสำคัญ
    การสอดส่องของ Border Patrol
    ใช้กล้องอ่านป้ายทะเบียนและอัลกอริทึมตรวจจับเส้นทาง "น่าสงสัย"
    ขยายพื้นที่จากชายแดนเข้าสู่เมืองใหญ่ เช่น ชิคาโก ดีทรอยต์ ฟีนิกซ์

    ความร่วมมือกับหน่วยงานอื่น
    DEA และบริษัทเอกชนให้ข้อมูลระบบอ่านป้ายทะเบียน
    ใช้งบประมาณจาก Operation Stonegarden สนับสนุนตำรวจท้องถิ่น

    ผลกระทบต่อประชาชน
    ผู้ขับรถถูกหยุด ตรวจค้น และสอบสวน แม้ไม่มีหลักฐานผิดกฎหมาย
    มีกรณีที่ถูกฟ้องร้องว่าเป็นการละเมิดสิทธิพลเมือง

    คำเตือนด้านสิทธิมนุษยชน
    การสอดส่องในระดับมหภาคอาจละเมิดรัฐธรรมนูญ (Fourth Amendment)
    สร้างบรรยากาศความหวาดระแวงและบั่นทอนความเชื่อมั่นต่อรัฐ

    ความเสี่ยงจากการใช้ข้อมูลส่วนบุคคล
    การเก็บข้อมูลเส้นทางและพฤติกรรมการเดินทางอาจถูกนำไปใช้เกินขอบเขต
    เสี่ยงต่อการถูกตีความผิดและสร้างผลกระทบต่อผู้บริสุทธิ์

    https://apnews.com/article/immigration-border-patrol-surveillance-drivers-ice-trump-9f5d05469ce8c629d6fecf32d32098cd
    🚨 Border Patrol สหรัฐฯ ขยายการสอดส่องผู้ขับรถภายในประเทศ หน่วยงาน Border Patrol ของสหรัฐฯ ได้พัฒนาโครงการสอดส่องการเดินทางของประชาชนผ่านระบบกล้องอ่านป้ายทะเบียนและอัลกอริทึมที่คัดกรองเส้นทาง "น่าสงสัย" โดยไม่จำกัดเฉพาะพื้นที่ชายแดนอีกต่อไป แต่ขยายเข้าสู่เมืองใหญ่ เช่น ชิคาโก ดีทรอยต์ และฟีนิกซ์ การดำเนินการนี้ทำให้ผู้ขับรถจำนวนมากถูกหยุด ตรวจค้น และสอบสวน แม้ไม่มีหลักฐานชัดเจนว่ามีการกระทำผิดกฎหมาย โครงการดังกล่าวเริ่มต้นเมื่อราวสิบปีก่อนเพื่อปราบปรามการลักลอบขนยาเสพติดและการค้ามนุษย์ แต่ในช่วงห้าปีที่ผ่านมาได้ขยายขอบเขตอย่างมาก โดยอาศัยความร่วมมือกับหน่วยงานอื่น เช่น DEA และบริษัทเอกชนที่ให้บริการระบบอ่านป้ายทะเบียน ข้อมูลที่ได้ถูกนำไปใช้สร้าง "รูปแบบชีวิต" ของผู้ขับรถ เพื่อหาความผิดปกติในการเดินทาง นักวิชาการด้านกฎหมายและสิทธิมนุษยชนเตือนว่า การสอดส่องในระดับมหภาคเช่นนี้อาจละเมิดสิทธิพลเมืองและขัดต่อรัฐธรรมนูญ โดยเฉพาะการตีความมาตรา Fourth Amendment ที่คุ้มครองประชาชนจากการค้นและจับกุมโดยไม่มีเหตุผลอันควร หลายกรณีที่ถูกเปิดเผยพบว่าผู้ขับรถถูกหยุดเพียงเพราะเส้นทางสั้น ๆ ไปยังพื้นที่ชายแดน หรือเพราะใช้รถเช่า นอกจากนี้ยังมีการใช้เงินทุนจากโครงการ Operation Stonegarden เพื่อสนับสนุนตำรวจท้องถิ่นติดตั้งระบบสอดส่องและทำงานร่วมกับ Border Patrol ทำให้เครือข่ายการเฝ้าระวังขยายตัวอย่างกว้างขวาง นักเคลื่อนไหวสิทธิพลเมืองชี้ว่าการกระทำเช่นนี้อาจสร้างบรรยากาศความหวาดระแวงและบั่นทอนความเชื่อมั่นของประชาชนต่อรัฐ 📌 สรุปประเด็นสำคัญ ✅ การสอดส่องของ Border Patrol ➡️ ใช้กล้องอ่านป้ายทะเบียนและอัลกอริทึมตรวจจับเส้นทาง "น่าสงสัย" ➡️ ขยายพื้นที่จากชายแดนเข้าสู่เมืองใหญ่ เช่น ชิคาโก ดีทรอยต์ ฟีนิกซ์ ✅ ความร่วมมือกับหน่วยงานอื่น ➡️ DEA และบริษัทเอกชนให้ข้อมูลระบบอ่านป้ายทะเบียน ➡️ ใช้งบประมาณจาก Operation Stonegarden สนับสนุนตำรวจท้องถิ่น ✅ ผลกระทบต่อประชาชน ➡️ ผู้ขับรถถูกหยุด ตรวจค้น และสอบสวน แม้ไม่มีหลักฐานผิดกฎหมาย ➡️ มีกรณีที่ถูกฟ้องร้องว่าเป็นการละเมิดสิทธิพลเมือง ‼️ คำเตือนด้านสิทธิมนุษยชน ⛔ การสอดส่องในระดับมหภาคอาจละเมิดรัฐธรรมนูญ (Fourth Amendment) ⛔ สร้างบรรยากาศความหวาดระแวงและบั่นทอนความเชื่อมั่นต่อรัฐ ‼️ ความเสี่ยงจากการใช้ข้อมูลส่วนบุคคล ⛔ การเก็บข้อมูลเส้นทางและพฤติกรรมการเดินทางอาจถูกนำไปใช้เกินขอบเขต ⛔ เสี่ยงต่อการถูกตีความผิดและสร้างผลกระทบต่อผู้บริสุทธิ์ https://apnews.com/article/immigration-border-patrol-surveillance-drivers-ice-trump-9f5d05469ce8c629d6fecf32d32098cd
    APNEWS.COM
    Border Patrol is monitoring US drivers and detaining those with 'suspicious' travel patterns
    The U.S. Border Patrol is monitoring millions of American drivers nationwide in a secretive program to identify and detain people whose travel patterns it deems suspicious.
    0 ความคิดเห็น 0 การแบ่งปัน 419 มุมมอง 0 รีวิว
  • https://youtube.com/shorts/Gf32ZgJFD-I?si=OkQvnKNNsHUry8jW
    https://youtube.com/shorts/Gf32ZgJFD-I?si=OkQvnKNNsHUry8jW
    0 ความคิดเห็น 0 การแบ่งปัน 88 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า

    Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี

    B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32

    แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ

    ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ

    การเปิดตัวและคุณสมบัติของ B30A
    เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน
    ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300
    ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก

    ราคาของ B30A และความต้องการในจีน
    ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20
    บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า
    ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ

    สถานการณ์การส่งออกและการอนุมัติ
    Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ
    เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี
    Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A

    บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม
    การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน
    รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที
    Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    🎙️ เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32 แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ ✅ การเปิดตัวและคุณสมบัติของ B30A ➡️ เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน ➡️ ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300 ➡️ ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก ✅ ราคาของ B30A และความต้องการในจีน ➡️ ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20 ➡️ บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า ➡️ ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ ✅ สถานการณ์การส่งออกและการอนุมัติ ➡️ Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ ➡️ เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี ➡️ Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A ✅ บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม ➡️ การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน ➡️ รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที ➡️ Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    0 ความคิดเห็น 0 การแบ่งปัน 432 มุมมอง 0 รีวิว
  • Intel Diamond Rapids – ซีพียูเซิร์ฟเวอร์ 192 คอร์ พร้อมรองรับ AI และงานหนักระดับองค์กร

    Intel เตรียมเปิดตัวซีพียูเซิร์ฟเวอร์รุ่นใหม่ Diamond Rapids ในปี 2026 ซึ่งเป็นส่วนหนึ่งของแพลตฟอร์ม Oak Stream โดยใช้สถาปัตยกรรม Panther Cove และกระบวนการผลิต Intel 18A ที่ทันสมัยที่สุดของบริษัท

    รุ่นสูงสุดของ Diamond Rapids จะมี 4 compute tiles โดยแต่ละ tile มี 48 คอร์ รวมเป็น 192 คอร์ต่อซ็อกเก็ต และสามารถใช้งานแบบ quad-socket ได้ ทำให้เซิร์ฟเวอร์หนึ่งเครื่องมีคอร์รวมสูงสุดถึง 768 คอร์

    รองรับเทคโนโลยีใหม่:
    - ซ็อกเก็ตใหม่ LGA 9324
    - PCIe 6.0 และ CXL 3.0 สำหรับเชื่อมต่อ accelerator และ storage
    - รองรับ DDR5 แบบ 16 ช่อง พร้อม MRDIMM ที่ความเร็ว 12800MT/s
    - Instruction set ใหม่ Intel APX และ AMX engine รุ่นอัปเกรด
    - รองรับการประมวลผล AI inference ด้วย native FP8 และ TF32

    Intel ยังเตรียมเปิดตัว Jaguar Shores AI accelerator ควบคู่กัน เพื่อสร้างแพลตฟอร์มเซิร์ฟเวอร์ที่พร้อมใช้งานกับ AI เต็มรูปแบบ

    https://www.techradar.com/pro/want-a-quad-socket-server-with-768-cores-sure-intels-192-core-diamond-rapids-xeon-cpu-will-deliver-that-in-2026-but-i-wonder-whether-it-will-be-too-little-too-late
    Intel Diamond Rapids – ซีพียูเซิร์ฟเวอร์ 192 คอร์ พร้อมรองรับ AI และงานหนักระดับองค์กร 🏢 Intel เตรียมเปิดตัวซีพียูเซิร์ฟเวอร์รุ่นใหม่ Diamond Rapids ในปี 2026 ซึ่งเป็นส่วนหนึ่งของแพลตฟอร์ม Oak Stream โดยใช้สถาปัตยกรรม Panther Cove และกระบวนการผลิต Intel 18A ที่ทันสมัยที่สุดของบริษัท รุ่นสูงสุดของ Diamond Rapids จะมี 4 compute tiles โดยแต่ละ tile มี 48 คอร์ รวมเป็น 192 คอร์ต่อซ็อกเก็ต และสามารถใช้งานแบบ quad-socket ได้ ทำให้เซิร์ฟเวอร์หนึ่งเครื่องมีคอร์รวมสูงสุดถึง 768 คอร์ รองรับเทคโนโลยีใหม่: - ซ็อกเก็ตใหม่ LGA 9324 - PCIe 6.0 และ CXL 3.0 สำหรับเชื่อมต่อ accelerator และ storage - รองรับ DDR5 แบบ 16 ช่อง พร้อม MRDIMM ที่ความเร็ว 12800MT/s - Instruction set ใหม่ Intel APX และ AMX engine รุ่นอัปเกรด - รองรับการประมวลผล AI inference ด้วย native FP8 และ TF32 Intel ยังเตรียมเปิดตัว Jaguar Shores AI accelerator ควบคู่กัน เพื่อสร้างแพลตฟอร์มเซิร์ฟเวอร์ที่พร้อมใช้งานกับ AI เต็มรูปแบบ https://www.techradar.com/pro/want-a-quad-socket-server-with-768-cores-sure-intels-192-core-diamond-rapids-xeon-cpu-will-deliver-that-in-2026-but-i-wonder-whether-it-will-be-too-little-too-late
    0 ความคิดเห็น 0 การแบ่งปัน 304 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU

    นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด

    Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น
    - รองรับ TF32 แบบของ NVIDIA
    - เพิ่ม support สำหรับ FP8
    - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย

    และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว

    Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป  
    • แบ่งเป็น 4 tile, tile ละ 48 คอร์  
    • ไม่มี E-Core แบบ Xeon 6

    TDP สูงสุดต่อซ็อกเก็ต = 500W  
    • รองรับระบบระบายความร้อนระดับองค์กร

    รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล  
    • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM  
    • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ

    รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ  
    • TF32 (ของ NVIDIA)  
    • FP8 → ลด latency inference model  
    • AMX และ APX รุ่นใหม่

    รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก

    วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores

    ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W

    การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์  
    • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient

    Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว  
    • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง

    https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น - รองรับ TF32 แบบของ NVIDIA - เพิ่ม support สำหรับ FP8 - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว ✅ Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป   • แบ่งเป็น 4 tile, tile ละ 48 คอร์   • ไม่มี E-Core แบบ Xeon 6 ✅ TDP สูงสุดต่อซ็อกเก็ต = 500W   • รองรับระบบระบายความร้อนระดับองค์กร ✅ รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล   • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM   • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ ✅ รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ   • TF32 (ของ NVIDIA)   • FP8 → ลด latency inference model   • AMX และ APX รุ่นใหม่ ✅ รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก ✅ วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores ✅ ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W ‼️ การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์   • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient ‼️ Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว   • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    WWW.TECHPOWERUP.COM
    Intel "Diamond Rapids" Xeon CPU to Feature up to 192 P-Cores and 500 W TDP
    Intel's next-generation "Oak Stream" platform is preparing to accommodate the upcoming "Diamond Rapids" Xeon CPU generation, and we are receiving more interesting details about the top-end configurations Intel will offer. According to the HEPiX TechWatch working group, the Diamond Rapids Intel Xeon ...
    0 ความคิดเห็น 0 การแบ่งปัน 300 มุมมอง 0 รีวิว
  • https://youtu.be/HF32q7Gozo0?si=Ic9NxiIoSrzW9Lsp
    https://youtu.be/HF32q7Gozo0?si=Ic9NxiIoSrzW9Lsp
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • 🏎 ไฟหน้าโปรเจ๊กเตอร์ ซ้าย-ขวา ซีรีย์ 4 F32-F33-F36 อุปกรณ์ครบสภาพสวยๆ ใหม่ๆ จุดยึดไม่มีแตกหัก จากญี่ปุ่นครับ % คู่ละ 38,000 ฿

    #อะไหล่BMW #อะไหล่แท้BMWมือสอง #f32 #f33 #f36

    บอย 08-1405-2424
    http://line.me/ti/p/~boympower
    id line สำรอง :0811313030
    ib: m.me/boympower
    🏎 ไฟหน้าโปรเจ๊กเตอร์ ซ้าย-ขวา ซีรีย์ 4 F32-F33-F36 อุปกรณ์ครบสภาพสวยๆ ใหม่ๆ จุดยึดไม่มีแตกหัก จากญี่ปุ่นครับ 🇯🇵💯% คู่ละ 38,000 ฿ #อะไหล่BMW #อะไหล่แท้BMWมือสอง #f32 #f33 #f36 บอย 📲 08-1405-2424 🙏🙏🙏 🆔 http://line.me/ti/p/~boympower id line สำรอง :0811313030 ib: m.me/boympower
    0 ความคิดเห็น 0 การแบ่งปัน 685 มุมมอง 0 รีวิว
  • 🏎 แร็คพวงมาลัยไฟฟ้า ซีรีย์ 3 F30-F32-F34GT 320d ดีเซลคอสั้นสภาพสวยๆใหม่ๆ จากญี่ปุ่นครับ % 26,500 ฿

    #อะไหล่MINI #อะไหล่แท้MINIมือสอง #f30 #f32 #f34gt #320d #n47n #แร็คไฟฟ้าbmw

    บอย 08-1405-2424
    http://line.me/ti/p/~boympower
    id line สำรอง :0811313030
    ib: m.me/boympower
    🏎 แร็คพวงมาลัยไฟฟ้า ซีรีย์ 3 F30-F32-F34GT 320d ดีเซลคอสั้นสภาพสวยๆใหม่ๆ จากญี่ปุ่นครับ 🇯🇵💯% 26,500 ฿ #อะไหล่MINI #อะไหล่แท้MINIมือสอง #f30 #f32 #f34gt #320d #n47n #แร็คไฟฟ้าbmw บอย 📲 08-1405-2424 🙏🙏🙏 🆔 http://line.me/ti/p/~boympower id line สำรอง :0811313030 ib: m.me/boympower
    0 ความคิดเห็น 0 การแบ่งปัน 1040 มุมมอง 0 รีวิว