• “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron”

    หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง

    ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม

    HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น

    ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30%

    แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต

    ความคืบหน้าของ Samsung ในตลาด HBM
    Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น
    หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่
    ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350
    Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron

    คุณสมบัติของ HBM3E และ HBM4
    HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM
    HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป
    ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30%
    Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026

    ข้อมูลเสริมจากภายนอก
    Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin
    Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps
    Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2
    ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix

    https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    🚀 “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron” หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30% แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต ✅ ความคืบหน้าของ Samsung ในตลาด HBM ➡️ Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น ➡️ หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่ ➡️ ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350 ➡️ Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron ✅ คุณสมบัติของ HBM3E และ HBM4 ➡️ HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ➡️ HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป ➡️ ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30% ➡️ Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin ➡️ Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps ➡️ Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2 ➡️ ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    0 Comments 0 Shares 33 Views 0 Reviews
  • https://youtu.be/rTVyyPdHhOk?si=2F100wM3pHNEV3jP
    https://youtu.be/rTVyyPdHhOk?si=2F100wM3pHNEV3jP
    0 Comments 0 Shares 40 Views 0 Reviews
  • https://www.youtube.com/live/LpHALxP6yls?si=Xt5LxeRDsz7OSkm3
    https://www.youtube.com/live/LpHALxP6yls?si=Xt5LxeRDsz7OSkm3
    - YouTube
    เพลิดเพลินไปกับวิดีโอและเพลงที่คุณชอบ อัปโหลดเนื้อหาต้นฉบับ และแชร์เนื้อหาทั้งหมดกับเพื่อน ครอบครัว และผู้คนทั่วโลกบน YouTube
    0 Comments 0 Shares 58 Views 0 Reviews
  • https://youtu.be/A2HVErIiIF0?si=wMwC_7lssrysM3k9
    https://youtu.be/A2HVErIiIF0?si=wMwC_7lssrysM3k9
    0 Comments 0 Shares 31 Views 0 Reviews
  • https://youtube.com/shorts/H5NM8k7RM38?si=c0lzRabXDYWbUPnA
    https://youtube.com/shorts/H5NM8k7RM38?si=c0lzRabXDYWbUPnA
    0 Comments 0 Shares 53 Views 0 Reviews
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 Comments 0 Shares 171 Views 0 Reviews
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 Comments 0 Shares 212 Views 0 Reviews
  • “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว”

    Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6

    A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3%

    ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD

    แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10%

    ประสิทธิภาพของ A19 Pro
    คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4
    คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro
    ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50%
    ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน

    ประสิทธิภาพด้านกราฟิก
    GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน
    ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec
    ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M
    รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี

    ข้อมูลเสริมจากภายนอก
    A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling
    Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด
    ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้
    เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ

    คำเตือนและข้อจำกัด
    คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน
    A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน
    Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์
    การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน
    การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน

    https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    🚀 “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว” Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6 A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3% ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10% ✅ ประสิทธิภาพของ A19 Pro ➡️ คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4 ➡️ คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro ➡️ ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50% ➡️ ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน ✅ ประสิทธิภาพด้านกราฟิก ➡️ GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน ➡️ ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec ➡️ ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M ➡️ รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี ✅ ข้อมูลเสริมจากภายนอก ➡️ A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling ➡️ Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด ➡️ ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้ ➡️ เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ ‼️ คำเตือนและข้อจำกัด ⛔ คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน ⛔ A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน ⛔ Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์ ⛔ การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน ⛔ การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    0 Comments 0 Shares 191 Views 0 Reviews
  • “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย”

    OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้

    Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า

    นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย

    OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure

    จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock
    รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation
    รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1
    มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง
    รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain

    การออกแบบและการใช้งาน
    ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี
    ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว
    เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด
    ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม

    ข้อมูลเสริมจากภายนอก
    Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน
    MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ
    OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ
    เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด

    https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    ⚡ “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย” OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้ Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure ✅ จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock ➡️ รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation ➡️ รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1 ➡️ มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง ➡️ รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain ✅ การออกแบบและการใช้งาน ➡️ ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี ➡️ ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว ➡️ เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด ➡️ ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน ➡️ MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ ➡️ OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ ➡️ เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    0 Comments 0 Shares 162 Views 0 Reviews
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 Comments 0 Shares 183 Views 0 Reviews
  • “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”

    ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร

    NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%

    ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า

    NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด

    การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง

    ผลการทดสอบ MLPerf v5.1
    GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
    MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
    GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
    ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput

    จุดเด่นของ Blackwell Ultra GB300
    มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
    ใช้ HBM3e สูงสุด 288GB ต่อ GPU
    ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
    ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark

    จุดเด่นของ AMD Instinct MI355X
    ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
    เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
    เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
    มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน

    ข้อมูลเสริมจากภายนอก
    MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
    NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
    Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก

    https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    ⚙️ “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม” ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50% ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server ➡️ MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B ➡️ GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL ➡️ ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput ✅ จุดเด่นของ Blackwell Ultra GB300 ➡️ มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน ➡️ ใช้ HBM3e สูงสุด 288GB ต่อ GPU ➡️ ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1 ➡️ ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark ✅ จุดเด่นของ AMD Instinct MI355X ➡️ ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป ➡️ เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป ➡️ เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1 ➡️ มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3 ➡️ NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 ➡️ การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive ➡️ Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    WCCFTECH.COM
    MLPerf v5.1 AI Inference Benchmark Showdown: NVIDIA Blackwell Ultra GB300 & AMD Instinct MI355X In The Spotlight
    NVIDIA's Blackwell Ultra GB300 & AMD's Instinct MI355X have finally appeared in the latest MLPerf v3.1 AI inference benchmarks.
    0 Comments 0 Shares 168 Views 0 Reviews
  • https://youtube.com/shorts/EzabEgm3Hfk?si=ybXuMnLv066NnVtS
    https://youtube.com/shorts/EzabEgm3Hfk?si=ybXuMnLv066NnVtS
    0 Comments 0 Shares 89 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 218 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 230 Views 0 Reviews
  • https://youtube.com/shorts/ys9Dy3vc_Vc?si=6ZMsr4sgQWM3Nq12
    https://youtube.com/shorts/ys9Dy3vc_Vc?si=6ZMsr4sgQWM3Nq12
    0 Comments 0 Shares 59 Views 0 Reviews
  • เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป

    ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป

    CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง

    การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300

    นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ

    https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    🎙️ เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300 นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    WCCFTECH.COM
    China's YMTC Reportedly Set to Enter the DRAM Segment by Partnering with Domestic Expert CXMT, Collaborating on HBM Technologies
    Chinese memory manufacturers are teaming up for HBM production, as the prominent NAND firm YMTC partners up with CXMT in a push towards HBM3.
    0 Comments 0 Shares 148 Views 0 Reviews
  • https://youtu.be/WiMM3nstDtc?si=gF70MFPqCLSNpY3z
    https://youtu.be/WiMM3nstDtc?si=gF70MFPqCLSNpY3z
    0 Comments 0 Shares 44 Views 0 Reviews
  • ค่าจริงที่เกิดขึ้นในช่วงเวลาใกล้เคียงกัน,เกินคำบรรยาย.,เด็กใครเด็กมัน,พวกใครพวกมัน,คนของใครของมัน.,อันตรายมาก.
    https://youtube.com/shorts/zgiipCbrj6Q?si=0YD9WaZ--M3x-7XW
    ค่าจริงที่เกิดขึ้นในช่วงเวลาใกล้เคียงกัน,เกินคำบรรยาย.,เด็กใครเด็กมัน,พวกใครพวกมัน,คนของใครของมัน.,อันตรายมาก. https://youtube.com/shorts/zgiipCbrj6Q?si=0YD9WaZ--M3x-7XW
    0 Comments 0 Shares 120 Views 0 Reviews
  • กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล

    Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ

    เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง

    การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด

    Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน

    เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น

    สรุปเนื้อหาเป็นหัวข้อ
    กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน
    ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง
    ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2
    บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง
    ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient
    ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation
    resample ภาพด้วย Hann window เพื่อป้องกัน aliasing
    demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array
    ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing
    ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว
    แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้
    ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี
    ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks
    ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด

    ข้อมูลเสริมจากภายนอก
    กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา
    strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ
    Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย
    KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง
    Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing
    patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D
    Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ

    https://daniel.lawrence.lu/blog/y2025m09d21/
    🎙️ กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน ➡️ ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง ➡️ ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2 ➡️ บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง ➡️ ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient ➡️ ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation ➡️ resample ภาพด้วย Hann window เพื่อป้องกัน aliasing ➡️ demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array ➡️ ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing ➡️ ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว ➡️ แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้ ➡️ ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี ➡️ ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks ➡️ ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด ✅ ข้อมูลเสริมจากภายนอก ➡️ กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา ➡️ strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ ➡️ Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย ➡️ KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง ➡️ Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing ➡️ patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D ➡️ Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ https://daniel.lawrence.lu/blog/y2025m09d21/
    DANIEL.LAWRENCE.LU
    Line scan camera image processing
    I use my line scan camera to take cool pictures of trains and other stuff.
    0 Comments 0 Shares 228 Views 0 Reviews
  • ช่องโหว่เงียบใน Copilot – เมื่อ AI ละเลยความปลอดภัยโดยไม่มีใครรู้

    ในวันที่ 4 กรกฎาคม 2025 Zack Korman นักวิจัยด้านความปลอดภัยจากบริษัท Pistachio พบช่องโหว่ใน Microsoft 365 Copilot ที่น่าตกใจ: เขาสามารถขอให้ Copilot สรุปเนื้อหาไฟล์โดยไม่ให้ลิงก์กลับไปยังไฟล์นั้น และผลคือ...ไม่มีการบันทึกใน audit log เลย

    นั่นหมายความว่าใครก็ตามที่ใช้ Copilot เพื่อเข้าถึงไฟล์ สามารถทำได้โดยไม่ทิ้งร่องรอยไว้ในระบบตรวจสอบขององค์กร ซึ่งเป็นปัญหาใหญ่สำหรับการรักษาความปลอดภัยและการปฏิบัติตามกฎหมาย เช่น HIPAA หรือ GDPR

    แม้ว่า Microsoft จะได้รับรายงานและแก้ไขช่องโหว่นี้ในวันที่ 17 สิงหาคม 2025 แต่พวกเขากลับไม่แจ้งลูกค้า ไม่ออก CVE และไม่เปิดเผยต่อสาธารณะ โดยอ้างว่าเป็นช่องโหว่ระดับ “สำคัญ” ไม่ใช่ “วิกฤต” และการแก้ไขถูกส่งอัตโนมัติ จึงไม่จำเป็นต้องแจ้ง

    สิ่งที่น่ากังวลคือ ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจ และอาจมีองค์กรจำนวนมากที่มี audit log ไม่สมบูรณ์ โดยไม่รู้ตัวเลย

    ข้อมูลในข่าว
    พบช่องโหว่ใน M365 Copilot ที่ทำให้เข้าถึงไฟล์โดยไม่บันทึกใน audit log
    ช่องโหว่เกิดจากการสั่งให้ Copilot สรุปไฟล์โดยไม่ให้ลิงก์กลับ
    ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจจากผู้ใช้ทั่วไป
    Zack Korman รายงานช่องโหว่ผ่าน MSRC ของ Microsoft
    Microsoft แก้ไขช่องโหว่ในวันที่ 17 สิงหาคม 2025
    ช่องโหว่ถูกจัดระดับ “Important” ไม่ใช่ “Critical”
    Microsoft ไม่ออก CVE และไม่แจ้งลูกค้า
    ช่องโหว่นี้กระทบต่อองค์กรที่ต้องใช้ audit log เพื่อความปลอดภัยและการปฏิบัติตามกฎหมาย

    ข้อมูลเสริมจากภายนอก
    ช่องโหว่นี้เคยถูกพบโดย Michael Bargury จาก Zenity ตั้งแต่ปี 2024
    ช่องโหว่ถูกนำเสนอในงาน Black Hat โดยใช้เทคนิค jailbreak ด้วย caret (^)
    Microsoft มีนโยบายใหม่ที่ไม่ออก CVE หากไม่ต้องอัปเดตด้วยตนเอง
    นักวิจัยด้านความปลอดภัยเรียกร้องให้รัฐบาลกดดันให้ cloud providers เปิดเผยช่องโหว่ทั้งหมด
    ช่องโหว่นี้อาจถูกใช้ในการฟ้องร้องหรือสอบสวนทางกฎหมาย หาก audit log ไม่สมบูรณ์

    https://pistachioapp.com/blog/copilot-broke-your-audit-log
    📖 ช่องโหว่เงียบใน Copilot – เมื่อ AI ละเลยความปลอดภัยโดยไม่มีใครรู้ ในวันที่ 4 กรกฎาคม 2025 Zack Korman นักวิจัยด้านความปลอดภัยจากบริษัท Pistachio พบช่องโหว่ใน Microsoft 365 Copilot ที่น่าตกใจ: เขาสามารถขอให้ Copilot สรุปเนื้อหาไฟล์โดยไม่ให้ลิงก์กลับไปยังไฟล์นั้น และผลคือ...ไม่มีการบันทึกใน audit log เลย นั่นหมายความว่าใครก็ตามที่ใช้ Copilot เพื่อเข้าถึงไฟล์ สามารถทำได้โดยไม่ทิ้งร่องรอยไว้ในระบบตรวจสอบขององค์กร ซึ่งเป็นปัญหาใหญ่สำหรับการรักษาความปลอดภัยและการปฏิบัติตามกฎหมาย เช่น HIPAA หรือ GDPR แม้ว่า Microsoft จะได้รับรายงานและแก้ไขช่องโหว่นี้ในวันที่ 17 สิงหาคม 2025 แต่พวกเขากลับไม่แจ้งลูกค้า ไม่ออก CVE และไม่เปิดเผยต่อสาธารณะ โดยอ้างว่าเป็นช่องโหว่ระดับ “สำคัญ” ไม่ใช่ “วิกฤต” และการแก้ไขถูกส่งอัตโนมัติ จึงไม่จำเป็นต้องแจ้ง สิ่งที่น่ากังวลคือ ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจ และอาจมีองค์กรจำนวนมากที่มี audit log ไม่สมบูรณ์ โดยไม่รู้ตัวเลย ✅ ข้อมูลในข่าว ➡️ พบช่องโหว่ใน M365 Copilot ที่ทำให้เข้าถึงไฟล์โดยไม่บันทึกใน audit log ➡️ ช่องโหว่เกิดจากการสั่งให้ Copilot สรุปไฟล์โดยไม่ให้ลิงก์กลับ ➡️ ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจจากผู้ใช้ทั่วไป ➡️ Zack Korman รายงานช่องโหว่ผ่าน MSRC ของ Microsoft ➡️ Microsoft แก้ไขช่องโหว่ในวันที่ 17 สิงหาคม 2025 ➡️ ช่องโหว่ถูกจัดระดับ “Important” ไม่ใช่ “Critical” ➡️ Microsoft ไม่ออก CVE และไม่แจ้งลูกค้า ➡️ ช่องโหว่นี้กระทบต่อองค์กรที่ต้องใช้ audit log เพื่อความปลอดภัยและการปฏิบัติตามกฎหมาย ✅ ข้อมูลเสริมจากภายนอก ➡️ ช่องโหว่นี้เคยถูกพบโดย Michael Bargury จาก Zenity ตั้งแต่ปี 2024 ➡️ ช่องโหว่ถูกนำเสนอในงาน Black Hat โดยใช้เทคนิค jailbreak ด้วย caret (^) ➡️ Microsoft มีนโยบายใหม่ที่ไม่ออก CVE หากไม่ต้องอัปเดตด้วยตนเอง ➡️ นักวิจัยด้านความปลอดภัยเรียกร้องให้รัฐบาลกดดันให้ cloud providers เปิดเผยช่องโหว่ทั้งหมด ➡️ ช่องโหว่นี้อาจถูกใช้ในการฟ้องร้องหรือสอบสวนทางกฎหมาย หาก audit log ไม่สมบูรณ์ https://pistachioapp.com/blog/copilot-broke-your-audit-log
    PISTACHIOAPP.COM
    Copilot Broke Your Audit Log, but Microsoft Won’t Tell You
    Copilot Broke Your Audit Log, but Microsoft Won’t Tell You
    0 Comments 0 Shares 204 Views 0 Reviews
  • Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ

    ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ

    B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้

    ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต

    นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ

    แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50%

    ข้อมูลในข่าว
    Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell
    B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300
    ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100
    มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s
    ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์
    ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ
    Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025
    RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ
    รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15%

    ข้อมูลเสริมจากภายนอก
    H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025
    B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300
    การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe
    Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA
    Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์
    การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย

    https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    🧠 Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้ ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50% ✅ ข้อมูลในข่าว ➡️ Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell ➡️ B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300 ➡️ ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100 ➡️ มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s ➡️ ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์ ➡️ ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ ➡️ Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025 ➡️ RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ ➡️ รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15% ✅ ข้อมูลเสริมจากภายนอก ➡️ H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025 ➡️ B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300 ➡️ การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe ➡️ Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA ➡️ Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์ ➡️ การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    0 Comments 0 Shares 227 Views 0 Reviews
  • SK Hynix พลิกเกม DRAM โลก โค่น Samsung หลังครองตลาด 33 ปี

    ในปี 2025 SK Hynix ได้สร้างประวัติศาสตร์ใหม่ในวงการเซมิคอนดักเตอร์ ด้วยการแซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM อันดับหนึ่งของโลกเป็นครั้งแรกในรอบ 33 ปี โดยมีส่วนแบ่งตลาด 36.3% ขณะที่ Samsung ลดลงเหลือ 32.7% ซึ่งถือเป็นการลดลงครั้งใหญ่ที่สุดนับตั้งแต่เริ่มบันทึกสถิติในปี 1999

    ปัจจัยสำคัญคือ SK Hynix ได้รับสัญญาจัดหา HBM (High Bandwidth Memory) จาก NVIDIA ซึ่งเป็นลูกค้ารายใหญ่ที่สุดในตลาด AI และ GPU ขณะที่ Samsungพลาดดีลสำคัญนี้ไป ทำให้สูญเสียรายได้มหาศาล

    นอกจาก HBM3 และ HBM3E แล้ว SK Hynix ยังเป็นบริษัทแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ซึ่งทำให้บริษัทกลายเป็นผู้นำในตลาดหน่วยความจำสำหรับงาน AI และ LLM (Large Language Models)

    แม้ Samsung จะพยายามกลับมาโดยลดราคาผลิตภัณฑ์ HBM3E และเร่งพัฒนา HBM4 แต่ก็ยังไม่สามารถทวงคืนตำแหน่งได้ในระยะสั้น โดยรายงานระบุว่า Samsung มีรายได้จาก DRAM ลดลงถึง 19% ในไตรมาสเดียว

    SK Hynix ขึ้นแท่นผู้นำ DRAM โลก
    ส่วนแบ่งตลาด DRAM ของ SK Hynix อยู่ที่ 36.3% แซงหน้า Samsung ที่เหลือ 32.7%
    เป็นครั้งแรกในรอบ 33 ปีที่ Samsung ถูกโค่นจากตำแหน่งผู้นำ
    SK Hynix ได้รับสัญญาจัดหา HBM จาก NVIDIA ซึ่งเป็นลูกค้าหลักในตลาด AI
    บริษัทมีรายได้จากหน่วยความจำ $9.72 พันล้านใน Q2 2025
    SK Hynix เป็นรายแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ
    มีส่วนแบ่งในตลาด HBM สูงถึง 62% และกำลังเพิ่มขึ้น

    ข้อมูลเสริมจากภายนอก
    HBM เป็นหน่วยความจำที่ใช้ในงาน AI เช่น LLM และ GPU ประสิทธิภาพสูง
    Samsung เคยใช้ GDDR7 กับ RTX50 แต่ถูกลดบทบาทในสายผลิตภัณฑ์ใหม่
    Micron อยู่ในอันดับสามของตลาด DRAM ด้วยรายได้ $6.58 พันล้าน
    ตลาด DRAM โดยรวมลดลง 5.5% ใน Q1 2025 จากราคาสัญญาที่ตกต่ำ
    SK Hynix มีแผนเพิ่มสัดส่วน HBM3E แบบ 12-layer ให้เกิน 80% ในครึ่งหลังของปี
    การเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนยุคจาก DRAM แบบดั้งเดิมสู่ HBM สำหรับ AI

    https://wccftech.com/sk-hynix-has-managed-to-end-samsung-three-decade-long-dominance-in-the-dram-industry/
    🏆 SK Hynix พลิกเกม DRAM โลก โค่น Samsung หลังครองตลาด 33 ปี ในปี 2025 SK Hynix ได้สร้างประวัติศาสตร์ใหม่ในวงการเซมิคอนดักเตอร์ ด้วยการแซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM อันดับหนึ่งของโลกเป็นครั้งแรกในรอบ 33 ปี โดยมีส่วนแบ่งตลาด 36.3% ขณะที่ Samsung ลดลงเหลือ 32.7% ซึ่งถือเป็นการลดลงครั้งใหญ่ที่สุดนับตั้งแต่เริ่มบันทึกสถิติในปี 1999 ปัจจัยสำคัญคือ SK Hynix ได้รับสัญญาจัดหา HBM (High Bandwidth Memory) จาก NVIDIA ซึ่งเป็นลูกค้ารายใหญ่ที่สุดในตลาด AI และ GPU ขณะที่ Samsungพลาดดีลสำคัญนี้ไป ทำให้สูญเสียรายได้มหาศาล นอกจาก HBM3 และ HBM3E แล้ว SK Hynix ยังเป็นบริษัทแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ซึ่งทำให้บริษัทกลายเป็นผู้นำในตลาดหน่วยความจำสำหรับงาน AI และ LLM (Large Language Models) แม้ Samsung จะพยายามกลับมาโดยลดราคาผลิตภัณฑ์ HBM3E และเร่งพัฒนา HBM4 แต่ก็ยังไม่สามารถทวงคืนตำแหน่งได้ในระยะสั้น โดยรายงานระบุว่า Samsung มีรายได้จาก DRAM ลดลงถึง 19% ในไตรมาสเดียว ✅ SK Hynix ขึ้นแท่นผู้นำ DRAM โลก ➡️ ส่วนแบ่งตลาด DRAM ของ SK Hynix อยู่ที่ 36.3% แซงหน้า Samsung ที่เหลือ 32.7% ➡️ เป็นครั้งแรกในรอบ 33 ปีที่ Samsung ถูกโค่นจากตำแหน่งผู้นำ ➡️ SK Hynix ได้รับสัญญาจัดหา HBM จาก NVIDIA ซึ่งเป็นลูกค้าหลักในตลาด AI ➡️ บริษัทมีรายได้จากหน่วยความจำ $9.72 พันล้านใน Q2 2025 ➡️ SK Hynix เป็นรายแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ➡️ มีส่วนแบ่งในตลาด HBM สูงถึง 62% และกำลังเพิ่มขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM เป็นหน่วยความจำที่ใช้ในงาน AI เช่น LLM และ GPU ประสิทธิภาพสูง ➡️ Samsung เคยใช้ GDDR7 กับ RTX50 แต่ถูกลดบทบาทในสายผลิตภัณฑ์ใหม่ ➡️ Micron อยู่ในอันดับสามของตลาด DRAM ด้วยรายได้ $6.58 พันล้าน ➡️ ตลาด DRAM โดยรวมลดลง 5.5% ใน Q1 2025 จากราคาสัญญาที่ตกต่ำ ➡️ SK Hynix มีแผนเพิ่มสัดส่วน HBM3E แบบ 12-layer ให้เกิน 80% ในครึ่งหลังของปี ➡️ การเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนยุคจาก DRAM แบบดั้งเดิมสู่ HBM สำหรับ AI https://wccftech.com/sk-hynix-has-managed-to-end-samsung-three-decade-long-dominance-in-the-dram-industry/
    WCCFTECH.COM
    SK Hynix Has Managed to End Samsung's Three-Decade-Long Dominance in the DRAM Industry, as the Latter Witnesses Its Biggest-Ever Drop in Market Share This Year
    Well, Samsung has lost its dominance in the DRAM segment, as according to newer statistics, SK hynix is now holding the lion's share.
    0 Comments 0 Shares 215 Views 0 Reviews
  • ภัยอันตรายที่สุดคือพวกโหนเจ้าจริงๆนี้ล่ะ.,บ้านเมืองไม่สงบสุขทุกๆวันนี้ก็พวกนี้ด้วยมิใช่แค่ต่างชาติ,สรุปสถาบันกษัตริย์ถูกพวกนี้จับเป็นตัวประกันนั้นเอง,หรือเดอะแก๊ง2475ยึดอำนาจพระมหากษัตริย์ร่วมกับdeep stateอีลิทสากลโลก13ตระกูลหลักนั้นเอง,ควบคุมครอบงำบงการวิถีปกครองของไทยทั้งหมด ชี้นำแทรกแซงแทรกซึมวางคนของตนบนรากฐานระบบการปกครองทั้งหมด ทหาร ตำรวจ ศาล นักการเมือง นักวิชาการ ดารานักร้อง นักแสดงมันควบคุมสั่งการประสานงานให้ภาระกิจปฏิบัติการสำเร็จบรรลุผลตามคำสั่งอีลิทโลกหมดให้ได้ ตย.ชัดเจนคือสามารถืสั่งฉีดตายวัคซีนแก่คนไทยครบทุกๆคนทั่วประเทศ เชื้อโรคเดินได้ทั่วไทย ซอมบี้ตัวพ่อก็ได้ หนังเน่าผอมเละติดกระดูกเดินเข้าโรงพยาบาลเริ่มมากขึ้นเรื่อยแล้วทั่วโลก,มนุษย์แม่เหล็กคือข้อพิสูจน์ชัดหลังคนรับวัคซีนไปกราฟีนสั่งตายดีๆนี้เองบวก1,291โรคหากโฮสต์ร่างนั้นภูมิตก โรคใดๆใน1,291โรคจะทะลุเกิดแก่ร่างกายนั้นๆทันที เอดส์ มะเร็ง ซาร์สามตัวนี้คือต้องมีในวัคซีนเกือบทุกๆยี่ห้อ ปัจจุบันคนไทยตามหมู่บ้านต่างๆตายรายวันมากขึ้นเรื่อยแล้ว ไม่นับป่วยเรื้อรังเป็นจำนวนมากในหมู่คนไทยโดยเฉพาะหมอแพทย์พยาบาลทหารตำรวจจะถูกเก็บก่อนจะได้ไม่มีใครมาปกป้องประเทศรักษาคนรักษาประชาชนดูแลประชาชนนั้นๆ,ลดประชากรนี้ล่ะนอกจากมุกฆ่าสังหารผ่านสงครามแบบไทยกับเขมร ฮุนเซนรับใช้อีลิทอเมริกาdeep state agendaลดประชากรโลกตัวพ่อ คนของdeep stateจึงถูกปกป้องจำนวนมาในประเทศเขมร คนไร้ค่าไร้คุณภาพมันส่งไปเกิดใหม่หมด.

    https://youtube.com/watch?v=RVD27iSoDrQ&si=n8nMG6gtL2YWM3cl
    ภัยอันตรายที่สุดคือพวกโหนเจ้าจริงๆนี้ล่ะ.,บ้านเมืองไม่สงบสุขทุกๆวันนี้ก็พวกนี้ด้วยมิใช่แค่ต่างชาติ,สรุปสถาบันกษัตริย์ถูกพวกนี้จับเป็นตัวประกันนั้นเอง,หรือเดอะแก๊ง2475ยึดอำนาจพระมหากษัตริย์ร่วมกับdeep stateอีลิทสากลโลก13ตระกูลหลักนั้นเอง,ควบคุมครอบงำบงการวิถีปกครองของไทยทั้งหมด ชี้นำแทรกแซงแทรกซึมวางคนของตนบนรากฐานระบบการปกครองทั้งหมด ทหาร ตำรวจ ศาล นักการเมือง นักวิชาการ ดารานักร้อง นักแสดงมันควบคุมสั่งการประสานงานให้ภาระกิจปฏิบัติการสำเร็จบรรลุผลตามคำสั่งอีลิทโลกหมดให้ได้ ตย.ชัดเจนคือสามารถืสั่งฉีดตายวัคซีนแก่คนไทยครบทุกๆคนทั่วประเทศ เชื้อโรคเดินได้ทั่วไทย ซอมบี้ตัวพ่อก็ได้ หนังเน่าผอมเละติดกระดูกเดินเข้าโรงพยาบาลเริ่มมากขึ้นเรื่อยแล้วทั่วโลก,มนุษย์แม่เหล็กคือข้อพิสูจน์ชัดหลังคนรับวัคซีนไปกราฟีนสั่งตายดีๆนี้เองบวก1,291โรคหากโฮสต์ร่างนั้นภูมิตก โรคใดๆใน1,291โรคจะทะลุเกิดแก่ร่างกายนั้นๆทันที เอดส์ มะเร็ง ซาร์สามตัวนี้คือต้องมีในวัคซีนเกือบทุกๆยี่ห้อ ปัจจุบันคนไทยตามหมู่บ้านต่างๆตายรายวันมากขึ้นเรื่อยแล้ว ไม่นับป่วยเรื้อรังเป็นจำนวนมากในหมู่คนไทยโดยเฉพาะหมอแพทย์พยาบาลทหารตำรวจจะถูกเก็บก่อนจะได้ไม่มีใครมาปกป้องประเทศรักษาคนรักษาประชาชนดูแลประชาชนนั้นๆ,ลดประชากรนี้ล่ะนอกจากมุกฆ่าสังหารผ่านสงครามแบบไทยกับเขมร ฮุนเซนรับใช้อีลิทอเมริกาdeep state agendaลดประชากรโลกตัวพ่อ คนของdeep stateจึงถูกปกป้องจำนวนมาในประเทศเขมร คนไร้ค่าไร้คุณภาพมันส่งไปเกิดใหม่หมด. https://youtube.com/watch?v=RVD27iSoDrQ&si=n8nMG6gtL2YWM3cl
    0 Comments 0 Shares 338 Views 0 Reviews
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 Comments 0 Shares 252 Views 0 Reviews
  • https://youtu.be/2m3V-ETEqvc?si=B0WYbEKjnwPxKds4
    https://youtu.be/2m3V-ETEqvc?si=B0WYbEKjnwPxKds4
    0 Comments 0 Shares 75 Views 0 Reviews
More Results