• https://youtu.be/6MEMM3Jl8FU?si=Er7N5Oiya_s3S_14
    https://youtu.be/6MEMM3Jl8FU?si=Er7N5Oiya_s3S_14
    0 Comments 0 Shares 18 Views 0 Reviews
  • “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม”

    Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้

    Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง

    Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์

    แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง

    Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale

    ข้อมูลสำคัญจากข่าว
    Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound
    การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3
    Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์
    มี shading units 16,384 และ tensor cores 1,024
    ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB
    Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์
    มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W
    GPU ทั้งสองถูกใช้งานใน Aurora supercomputer
    Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI

    ข้อมูลเสริมจากภายนอก
    Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ
    HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3
    OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว
    Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ
    การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI

    https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    🧊 “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม” Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้ Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์ แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound ➡️ การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3 ➡️ Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์ ➡️ มี shading units 16,384 และ tensor cores 1,024 ➡️ ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB ➡️ Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์ ➡️ มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W ➡️ GPU ทั้งสองถูกใช้งานใน Aurora supercomputer ➡️ Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ ➡️ HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3 ➡️ OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว ➡️ Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ ➡️ การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    WWW.TECHPOWERUP.COM
    Intel Phases Out "Ponte Vecchio" and "Arctic Sound" Data Center GPUs
    Intel has apparently started a slow deprecation phase of its "Ponte Vecchio" Data Center GPU Max and "Arctic Sound" Data Center GPU Flex series. According to the changelog in the Intel XPU Manager—a free and open-source tool for monitoring and managing Intel data center GPUs—version 1.3.3 deprecates...
    0 Comments 0 Shares 68 Views 0 Reviews
  • https://youtu.be/U-xpm_dDvnw?si=xaxx33fm3-uM6tze
    https://youtu.be/U-xpm_dDvnw?si=xaxx33fm3-uM6tze
    0 Comments 0 Shares 34 Views 0 Reviews
  • “Qualcomm เข้าซื้อ Arduino พร้อมเปิดตัวบอร์ด UNO Q — ยกระดับ AI สำหรับนักพัฒนา 33 ล้านคนทั่วโลก”

    Qualcomm สร้างความประหลาดใจให้กับวงการเทคโนโลยีด้วยการประกาศเข้าซื้อกิจการของ Arduino บริษัทฮาร์ดแวร์และซอฟต์แวร์โอเพ่นซอร์สที่มีผู้ใช้งานกว่า 33 ล้านคนทั่วโลก โดยดีลนี้มีเป้าหมายเพื่อขยายขอบเขตของ Qualcomm ในด้าน edge computing และ AI ให้เข้าถึงนักพัฒนาในระดับรากหญ้า ตั้งแต่นักเรียน ผู้ประกอบการ ไปจนถึงนักวิจัย

    แม้จะเปลี่ยนเจ้าของ แต่ Arduino จะยังคงรักษาแบรนด์ ความเป็นอิสระ และแนวทางโอเพ่นซอร์สไว้เช่นเดิม พร้อมเปิดตัวผลิตภัณฑ์แรกภายใต้ความร่วมมือคือ “Arduino UNO Q” — บอร์ดรุ่นใหม่ที่ใช้สถาปัตยกรรม “dual brain” โดยผสานพลังของ Qualcomm Dragonwing QRB2210 ซึ่งเป็นชิปประมวลผล Linux เข้ากับ STM32U585 MCU สำหรับงานควบคุมแบบเรียลไทม์

    UNO Q ถูกออกแบบมาเพื่อรองรับงานด้าน AI เช่น การประมวลผลภาพ เสียง และการควบคุมอุปกรณ์อัจฉริยะ โดยมีขนาดเท่ากับบอร์ด Arduino UNO รุ่นเดิม ทำให้สามารถใช้งานร่วมกับอุปกรณ์เสริม (shields) ที่มีอยู่แล้วได้ทันที

    นอกจากนี้ Arduino ยังเปิดตัว “App Lab” ซึ่งเป็นแพลตฟอร์มพัฒนาแบบใหม่ที่รวมการเขียนโปรแกรมด้วย Linux, Python, RTOS และ AI ไว้ในที่เดียว เพื่อให้การสร้างต้นแบบและการพัฒนาแอปพลิเคชัน AI เป็นเรื่องง่ายและเข้าถึงได้สำหรับทุกคน

    Qualcomm ระบุว่าการเข้าซื้อ Arduino เป็นส่วนหนึ่งของกลยุทธ์ในการสร้างแพลตฟอร์ม edge computing แบบครบวงจร โดยก่อนหน้านี้ก็ได้เข้าซื้อ Foundries.io และ Edge Impulse มาแล้ว เพื่อเสริมความแข็งแกร่งในด้านซอฟต์แวร์และการเรียนรู้ของเครื่อง

    ข้อมูลสำคัญจากข่าว
    Qualcomm เข้าซื้อ Arduino เพื่อขยายขอบเขตด้าน AI และ edge computing
    Arduino มีผู้ใช้งานกว่า 33 ล้านคนทั่วโลก
    Arduino จะยังคงรักษาแบรนด์และแนวทางโอเพ่นซอร์สไว้
    ผลิตภัณฑ์แรกคือ Arduino UNO Q ที่ใช้สถาปัตยกรรม “dual brain”
    ใช้ชิป Qualcomm Dragonwing QRB2210 สำหรับ Linux และ STM32U585 MCU สำหรับงานเรียลไทม์
    รองรับการประมวลผลภาพ เสียง และงานควบคุมอุปกรณ์อัจฉริยะ
    ขนาดบอร์ดเท่ากับ Arduino UNO รุ่นเดิม ใช้งานร่วมกับ shields ได้
    เปิดตัว App Lab สำหรับการพัฒนาแบบรวม Linux, Python, RTOS และ AI
    Qualcomm เคยเข้าซื้อ Foundries.io และ Edge Impulse เพื่อเสริมกลยุทธ์ edge computing

    ข้อมูลเสริมจากภายนอก
    STM32U585 MCU ใช้สถาปัตยกรรม Arm Cortex-M33 ความเร็วสูงสุด 160 MHz
    Dragonwing QRB2210 มี CPU Kryo 4 คอร์, GPU Adreno 702 และ DSP แบบ dual-core
    UNO Q รองรับการเชื่อมต่อผ่าน USB-C, Wi-Fi, Bluetooth และ eMMC storage
    สามารถใช้งานเป็นคอมพิวเตอร์เดี่ยวได้ เช่นเดียวกับ Raspberry Pi
    App Lab มีเป้าหมายเพื่อเร่งการพัฒนาและทดสอบโมเดล AI ด้วยข้อมูลจริง

    https://www.techradar.com/pro/qualcomm-acquires-arduino-in-surprising-move-that-puts-it-right-on-the-edge-and-at-the-helm-of-a-33-million-strong-maker-community
    🔧 “Qualcomm เข้าซื้อ Arduino พร้อมเปิดตัวบอร์ด UNO Q — ยกระดับ AI สำหรับนักพัฒนา 33 ล้านคนทั่วโลก” Qualcomm สร้างความประหลาดใจให้กับวงการเทคโนโลยีด้วยการประกาศเข้าซื้อกิจการของ Arduino บริษัทฮาร์ดแวร์และซอฟต์แวร์โอเพ่นซอร์สที่มีผู้ใช้งานกว่า 33 ล้านคนทั่วโลก โดยดีลนี้มีเป้าหมายเพื่อขยายขอบเขตของ Qualcomm ในด้าน edge computing และ AI ให้เข้าถึงนักพัฒนาในระดับรากหญ้า ตั้งแต่นักเรียน ผู้ประกอบการ ไปจนถึงนักวิจัย แม้จะเปลี่ยนเจ้าของ แต่ Arduino จะยังคงรักษาแบรนด์ ความเป็นอิสระ และแนวทางโอเพ่นซอร์สไว้เช่นเดิม พร้อมเปิดตัวผลิตภัณฑ์แรกภายใต้ความร่วมมือคือ “Arduino UNO Q” — บอร์ดรุ่นใหม่ที่ใช้สถาปัตยกรรม “dual brain” โดยผสานพลังของ Qualcomm Dragonwing QRB2210 ซึ่งเป็นชิปประมวลผล Linux เข้ากับ STM32U585 MCU สำหรับงานควบคุมแบบเรียลไทม์ UNO Q ถูกออกแบบมาเพื่อรองรับงานด้าน AI เช่น การประมวลผลภาพ เสียง และการควบคุมอุปกรณ์อัจฉริยะ โดยมีขนาดเท่ากับบอร์ด Arduino UNO รุ่นเดิม ทำให้สามารถใช้งานร่วมกับอุปกรณ์เสริม (shields) ที่มีอยู่แล้วได้ทันที นอกจากนี้ Arduino ยังเปิดตัว “App Lab” ซึ่งเป็นแพลตฟอร์มพัฒนาแบบใหม่ที่รวมการเขียนโปรแกรมด้วย Linux, Python, RTOS และ AI ไว้ในที่เดียว เพื่อให้การสร้างต้นแบบและการพัฒนาแอปพลิเคชัน AI เป็นเรื่องง่ายและเข้าถึงได้สำหรับทุกคน Qualcomm ระบุว่าการเข้าซื้อ Arduino เป็นส่วนหนึ่งของกลยุทธ์ในการสร้างแพลตฟอร์ม edge computing แบบครบวงจร โดยก่อนหน้านี้ก็ได้เข้าซื้อ Foundries.io และ Edge Impulse มาแล้ว เพื่อเสริมความแข็งแกร่งในด้านซอฟต์แวร์และการเรียนรู้ของเครื่อง ✅ ข้อมูลสำคัญจากข่าว ➡️ Qualcomm เข้าซื้อ Arduino เพื่อขยายขอบเขตด้าน AI และ edge computing ➡️ Arduino มีผู้ใช้งานกว่า 33 ล้านคนทั่วโลก ➡️ Arduino จะยังคงรักษาแบรนด์และแนวทางโอเพ่นซอร์สไว้ ➡️ ผลิตภัณฑ์แรกคือ Arduino UNO Q ที่ใช้สถาปัตยกรรม “dual brain” ➡️ ใช้ชิป Qualcomm Dragonwing QRB2210 สำหรับ Linux และ STM32U585 MCU สำหรับงานเรียลไทม์ ➡️ รองรับการประมวลผลภาพ เสียง และงานควบคุมอุปกรณ์อัจฉริยะ ➡️ ขนาดบอร์ดเท่ากับ Arduino UNO รุ่นเดิม ใช้งานร่วมกับ shields ได้ ➡️ เปิดตัว App Lab สำหรับการพัฒนาแบบรวม Linux, Python, RTOS และ AI ➡️ Qualcomm เคยเข้าซื้อ Foundries.io และ Edge Impulse เพื่อเสริมกลยุทธ์ edge computing ✅ ข้อมูลเสริมจากภายนอก ➡️ STM32U585 MCU ใช้สถาปัตยกรรม Arm Cortex-M33 ความเร็วสูงสุด 160 MHz ➡️ Dragonwing QRB2210 มี CPU Kryo 4 คอร์, GPU Adreno 702 และ DSP แบบ dual-core ➡️ UNO Q รองรับการเชื่อมต่อผ่าน USB-C, Wi-Fi, Bluetooth และ eMMC storage ➡️ สามารถใช้งานเป็นคอมพิวเตอร์เดี่ยวได้ เช่นเดียวกับ Raspberry Pi ➡️ App Lab มีเป้าหมายเพื่อเร่งการพัฒนาและทดสอบโมเดล AI ด้วยข้อมูลจริง https://www.techradar.com/pro/qualcomm-acquires-arduino-in-surprising-move-that-puts-it-right-on-the-edge-and-at-the-helm-of-a-33-million-strong-maker-community
    WWW.TECHRADAR.COM
    Qualcomm acquires Arduino and unveils new UNO Q AI board
    Arduino UNO Q will be the first product from the collaboration
    0 Comments 0 Shares 159 Views 0 Reviews
  • “Open Printer — เครื่องพิมพ์หมึกแบบเปิดที่ไม่ล็อกตลับ ไม่ล็อกผู้ใช้ และไม่ล็อกอนาคต”

    ในโลกที่เครื่องพิมพ์กลายเป็นอุปกรณ์ที่ผู้ใช้ต้อง “เชื่อฟัง” มากกว่าจะ “ควบคุม” Startup จากปารีสชื่อ Open Tools ได้เปิดตัว Open Printer — เครื่องพิมพ์หมึกแบบใหม่ที่ยึดหลักโอเพ่นซอร์สอย่างแท้จริง ทั้งในด้านฮาร์ดแวร์ ซอฟต์แวร์ และสิทธิ์ของผู้ใช้

    Open Printer ถูกออกแบบมาให้ซ่อมง่าย ดัดแปลงได้ และไม่ล็อกผู้ใช้กับตลับหมึกของแบรนด์ใดแบรนด์หนึ่ง โดยใช้ตลับ HP 63 (หรือ HP 302 ในยุโรป) ซึ่งเป็นรุ่นยอดนิยมที่มีทั้งของแท้และของรีฟิลจากผู้ผลิตอิสระ ที่สำคัญคือไม่มีระบบ DRM หรือชิปตรวจสอบตลับหมึก ทำให้ผู้ใช้สามารถเลือกใช้ตลับจากแหล่งใดก็ได้โดยไม่ถูกบล็อก

    ตัวเครื่องยังรองรับการพิมพ์บนกระดาษม้วนขนาด 27 มม. พร้อมใบมีดตัดในตัวสำหรับแปลงเป็นแผ่น A4 หรือพิมพ์งานยาวแบบแบนเนอร์ได้อย่างยืดหยุ่น โดยมีหน้าจอ LCD ขนาดเล็กและปุ่มหมุนสำหรับควบคุมพื้นฐาน พร้อมการเชื่อมต่อผ่าน Wi-Fi, Bluetooth และ USB-C ทำให้สามารถสั่งพิมพ์จากมือถือหรือคอมพิวเตอร์ได้โดยไม่ต้องพึ่งสาย

    ภายในใช้ Raspberry Pi Zero W เป็นสมองหลัก ร่วมกับไมโครคอนโทรลเลอร์ STM32 และมีการเปิดเผยไฟล์ออกแบบทางกล, เฟิร์มแวร์ และ BOM ภายใต้ไลเซนส์ Creative Commons เพื่อให้ผู้ใช้สามารถปรับแต่งหรือผลิตเองได้ในอนาคต

    Open Printer จะเปิดตัวผ่านแคมเปญระดมทุนบน Crowd Supply โดยยังไม่ระบุราคาและวันวางจำหน่าย แต่แนวคิดนี้ได้รับความสนใจจากกลุ่มผู้ใช้ที่เบื่อกับการถูกบังคับให้ซื้อหมึกแพงหรือเปลี่ยนเครื่องเมื่อหมดอายุซอฟต์แวร์

    ข้อมูลสำคัญจากข่าว
    Open Printer เป็นเครื่องพิมพ์หมึกแบบโอเพ่นซอร์สจากบริษัท Open Tools
    ใช้ตลับ HP 63 หรือ HP 302 โดยไม่มีระบบ DRM ล็อกตลับ
    รองรับกระดาษม้วนขนาด 27 มม. พร้อมใบมีดตัดในตัว
    มีหน้าจอ LCD และปุ่มหมุนสำหรับควบคุมพื้นฐาน
    เชื่อมต่อผ่าน Wi-Fi, Bluetooth, USB-C และ USB-A
    ใช้ Raspberry Pi Zero W และ STM32 เป็นหน่วยประมวลผล
    เปิดเผยไฟล์ออกแบบและเฟิร์มแวร์ภายใต้ไลเซนส์ Creative Commons
    เตรียมเปิดตัวผ่าน Crowd Supply โดยยังไม่ระบุราคา

    ข้อมูลเสริมจากภายนอก
    HP เป็นหนึ่งในบริษัทที่ใช้ DRM ล็อกตลับหมึกอย่างเข้มงวด
    ระบบ “razor-blade model” คือการขายเครื่องราคาถูกแต่บังคับซื้อหมึกแพง
    เครื่องพิมพ์ทั่วไปมักมีอายุการใช้งานจำกัดตามซอฟต์แวร์ที่บริษัทควบคุม
    การใช้ Raspberry Pi ทำให้ผู้ใช้สามารถปรับแต่งระบบได้อย่างอิสระ
    การเปิดเผย BOM และไฟล์ออกแบบช่วยให้ผู้ผลิตรายย่อยสามารถสร้างเครื่องพิมพ์เองได้

    https://www.notebookcheck.net/Open-Printer-is-an-open-source-inkjet-printer-with-DRM-free-ink-and-roll-paper-support.1126929.0.html
    🖨️ “Open Printer — เครื่องพิมพ์หมึกแบบเปิดที่ไม่ล็อกตลับ ไม่ล็อกผู้ใช้ และไม่ล็อกอนาคต” ในโลกที่เครื่องพิมพ์กลายเป็นอุปกรณ์ที่ผู้ใช้ต้อง “เชื่อฟัง” มากกว่าจะ “ควบคุม” Startup จากปารีสชื่อ Open Tools ได้เปิดตัว Open Printer — เครื่องพิมพ์หมึกแบบใหม่ที่ยึดหลักโอเพ่นซอร์สอย่างแท้จริง ทั้งในด้านฮาร์ดแวร์ ซอฟต์แวร์ และสิทธิ์ของผู้ใช้ Open Printer ถูกออกแบบมาให้ซ่อมง่าย ดัดแปลงได้ และไม่ล็อกผู้ใช้กับตลับหมึกของแบรนด์ใดแบรนด์หนึ่ง โดยใช้ตลับ HP 63 (หรือ HP 302 ในยุโรป) ซึ่งเป็นรุ่นยอดนิยมที่มีทั้งของแท้และของรีฟิลจากผู้ผลิตอิสระ ที่สำคัญคือไม่มีระบบ DRM หรือชิปตรวจสอบตลับหมึก ทำให้ผู้ใช้สามารถเลือกใช้ตลับจากแหล่งใดก็ได้โดยไม่ถูกบล็อก ตัวเครื่องยังรองรับการพิมพ์บนกระดาษม้วนขนาด 27 มม. พร้อมใบมีดตัดในตัวสำหรับแปลงเป็นแผ่น A4 หรือพิมพ์งานยาวแบบแบนเนอร์ได้อย่างยืดหยุ่น โดยมีหน้าจอ LCD ขนาดเล็กและปุ่มหมุนสำหรับควบคุมพื้นฐาน พร้อมการเชื่อมต่อผ่าน Wi-Fi, Bluetooth และ USB-C ทำให้สามารถสั่งพิมพ์จากมือถือหรือคอมพิวเตอร์ได้โดยไม่ต้องพึ่งสาย ภายในใช้ Raspberry Pi Zero W เป็นสมองหลัก ร่วมกับไมโครคอนโทรลเลอร์ STM32 และมีการเปิดเผยไฟล์ออกแบบทางกล, เฟิร์มแวร์ และ BOM ภายใต้ไลเซนส์ Creative Commons เพื่อให้ผู้ใช้สามารถปรับแต่งหรือผลิตเองได้ในอนาคต Open Printer จะเปิดตัวผ่านแคมเปญระดมทุนบน Crowd Supply โดยยังไม่ระบุราคาและวันวางจำหน่าย แต่แนวคิดนี้ได้รับความสนใจจากกลุ่มผู้ใช้ที่เบื่อกับการถูกบังคับให้ซื้อหมึกแพงหรือเปลี่ยนเครื่องเมื่อหมดอายุซอฟต์แวร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Open Printer เป็นเครื่องพิมพ์หมึกแบบโอเพ่นซอร์สจากบริษัท Open Tools ➡️ ใช้ตลับ HP 63 หรือ HP 302 โดยไม่มีระบบ DRM ล็อกตลับ ➡️ รองรับกระดาษม้วนขนาด 27 มม. พร้อมใบมีดตัดในตัว ➡️ มีหน้าจอ LCD และปุ่มหมุนสำหรับควบคุมพื้นฐาน ➡️ เชื่อมต่อผ่าน Wi-Fi, Bluetooth, USB-C และ USB-A ➡️ ใช้ Raspberry Pi Zero W และ STM32 เป็นหน่วยประมวลผล ➡️ เปิดเผยไฟล์ออกแบบและเฟิร์มแวร์ภายใต้ไลเซนส์ Creative Commons ➡️ เตรียมเปิดตัวผ่าน Crowd Supply โดยยังไม่ระบุราคา ✅ ข้อมูลเสริมจากภายนอก ➡️ HP เป็นหนึ่งในบริษัทที่ใช้ DRM ล็อกตลับหมึกอย่างเข้มงวด ➡️ ระบบ “razor-blade model” คือการขายเครื่องราคาถูกแต่บังคับซื้อหมึกแพง ➡️ เครื่องพิมพ์ทั่วไปมักมีอายุการใช้งานจำกัดตามซอฟต์แวร์ที่บริษัทควบคุม ➡️ การใช้ Raspberry Pi ทำให้ผู้ใช้สามารถปรับแต่งระบบได้อย่างอิสระ ➡️ การเปิดเผย BOM และไฟล์ออกแบบช่วยให้ผู้ผลิตรายย่อยสามารถสร้างเครื่องพิมพ์เองได้ https://www.notebookcheck.net/Open-Printer-is-an-open-source-inkjet-printer-with-DRM-free-ink-and-roll-paper-support.1126929.0.html
    WWW.NOTEBOOKCHECK.NET
    Open Printer is an open source inkjet printer with DRM-free ink and roll paper support
    The Open Printer features a modular and highly repairable design, and while it uses the popular HP 63 cartridges, it lacks DRM blocks that lock out third-party cartridges. It also allows printing on paper rolls, so you can either use the in-built cutter to make A4 sheets, or print longer items like banners. The Open Printer will be launched via a crowdfunding campaign soon.
    0 Comments 0 Shares 167 Views 0 Reviews
  • https://youtu.be/DcHxFiSm3Z0?si=MaSDuJyjSPqlO6n4
    https://youtu.be/DcHxFiSm3Z0?si=MaSDuJyjSPqlO6n4
    0 Comments 0 Shares 78 Views 0 Reviews
  • “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน”

    ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ

    Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก

    ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง

    Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet

    ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ

    หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน

    ข้อมูลสำคัญจากข่าว
    Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase)
    ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM
    ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism
    รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video
    ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX
    ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค
    ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS
    รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่
    ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ
    บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว

    ข้อมูลเสริมจากภายนอก
    Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก
    GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน
    NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ
    Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง
    การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า

    https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    🧠 “Nvidia Rubin CPX: ชิป AI ยุคใหม่ที่แยกงานประมวลผลออกเป็นสองเฟส — เร็วขึ้น ถูกลง และรองรับ context ยาวระดับล้านโทเคน” ในยุคที่โมเดล AI ขนาดใหญ่ เช่น GPT-5, Gemini 2 และ Grok 3 ต้องประมวลผลข้อมูลจำนวนมหาศาลในคราวเดียว Nvidia ได้เปิดตัว GPU ใหม่ในชื่อ “Rubin CPX” ซึ่งออกแบบมาเฉพาะสำหรับงาน “context phase” ของการ inference — คือช่วงที่โมเดลต้องอ่านและตีความอินพุตทั้งหมดก่อนจะเริ่มสร้างผลลัพธ์ใด ๆ Rubin CPX ใช้หน่วยความจำ GDDR7 ขนาด 128GB ซึ่งแม้จะมีแบนด์วิดธ์ต่ำกว่า HBM3E หรือ HBM4 แต่ก็มีข้อดีคือราคาถูกกว่า กินไฟน้อยกว่า และไม่ต้องใช้เทคโนโลยีแพ็กเกจขั้นสูงอย่าง CoWoS ทำให้ต้นทุนการผลิตลดลงอย่างมาก ตัวชิปสามารถประมวลผลได้ถึง 30 NVFP4 PetaFLOPS และมีฮาร์ดแวร์เฉพาะสำหรับการเร่ง attention mechanism ซึ่งจำเป็นมากในการจัดการกับ context ยาวระดับล้านโทเคน โดยไม่ลดความเร็ว นอกจากนี้ยังมีฟีเจอร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอ เพื่อรองรับงาน generative video ที่กำลังมาแรง Rubin CPX จะทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ซึ่งให้พลังประมวลผลรวมถึง 8 ExaFLOPS และหน่วยความจำสูงถึง 100TB ต่อแร็ค โดยใช้การเชื่อมต่อผ่าน Quantum-X800 InfiniBand หรือ Spectrum-XGS Ethernet ที่สำคัญคือ Rubin CPX ไม่ต้องการการเขียนโค้ดใหม่ — นักพัฒนา AI สามารถใช้ CUDA, NIM microservices และเครื่องมือของ Nvidia ได้ทันที โดยระบบจะใช้ซอฟต์แวร์ “Dynamo” ในการจัดการการแบ่งงานระหว่าง context phase และ generation phase โดยอัตโนมัติ หลายบริษัทเริ่มนำ Rubin CPX ไปใช้งานแล้ว เช่น Cursor สำหรับการสร้างโค้ดแบบเรียลไทม์, Runway สำหรับการสร้างวิดีโอแบบ agent-driven และ Magic สำหรับโมเดลที่ใช้ context ยาวถึง 100 ล้านโทเคน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia เปิดตัว Rubin CPX GPU สำหรับงาน inference เฟสแรก (context phase) ➡️ ใช้ GDDR7 ขนาด 128GB ซึ่งราคาถูกและกินไฟน้อยกว่าหน่วยความจำ HBM ➡️ ประมวลผลได้ถึง 30 NVFP4 PetaFLOPS พร้อมฮาร์ดแวร์เร่ง attention mechanism ➡️ รองรับการเข้ารหัสและถอดรหัสวิดีโอสำหรับงาน generative video ➡️ ทำงานร่วมกับ Rubin GPU และ Vera CPU ในระบบ Vera Rubin NVL144 CPX ➡️ ระบบมีพลังรวม 8 ExaFLOPS และหน่วยความจำ 100TB ต่อแร็ค ➡️ ใช้การเชื่อมต่อผ่าน InfiniBand Quantum-X800 หรือ Ethernet Spectrum-XGS ➡️ รองรับ CUDA, NIM และเครื่องมือ Nvidia โดยไม่ต้องเขียนโค้ดใหม่ ➡️ ใช้ซอฟต์แวร์ Dynamo ในการจัดการการแบ่งงานระหว่าง GPU โดยอัตโนมัติ ➡️ บริษัท Cursor, Runway และ Magic เริ่มนำ Rubin CPX ไปใช้งานจริงแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Long-context inference คือการประมวลผลอินพุตจำนวนมากก่อนสร้างผลลัพธ์แรก ➡️ GDDR7 มีแบนด์วิดธ์ต่ำกว่า HBM แต่เหมาะกับงานที่เน้นความจุและต้นทุน ➡️ NVFP4 เป็นรูปแบบการประมวลผลที่ Nvidia พัฒนาขึ้นสำหรับงาน AI โดยเฉพาะ ➡️ Rubin CPX อาจใช้ดีไซน์เดียวกับ GR102/GR202 ซึ่งเป็น GPU สำหรับกราฟิกระดับสูง ➡️ การแยก context phase ออกจาก generation phase ช่วยเพิ่ม throughput ได้ถึง 6 เท่า https://www.tomshardware.com/pc-components/gpus/nvidias-new-cpx-gpu-aims-to-change-the-game-in-ai-inference-how-the-debut-of-cheaper-and-cooler-gddr7-memory-could-redefine-ai-inference-infrastructure
    0 Comments 0 Shares 237 Views 0 Reviews
  • “YMTC กระโดดสู่ตลาด DRAM — จีนเร่งผลิต HBM ในประเทศ สู้วิกฤตขาดแคลนชิป AI หลังถูกสหรัฐฯ ควบคุมการส่งออก”

    หลังจากเป็นที่รู้จักในฐานะผู้ผลิต NAND รายใหญ่ของจีน บริษัท YMTC (Yangtze Memory Technologies Co.) กำลังขยายธุรกิจเข้าสู่ตลาด DRAM โดยมีเป้าหมายหลักคือการผลิต HBM (High Bandwidth Memory) ด้วยตัวเอง เพื่อแก้ปัญหาการขาดแคลนชิปหน่วยความจำความเร็วสูงที่จำเป็นต่อการพัฒนา AI ในประเทศ

    จีนกำลังเผชิญกับวิกฤต HBM อย่างหนัก เนื่องจากความต้องการชิป AI พุ่งสูง แต่กลับถูกสหรัฐฯ ขยายมาตรการควบคุมการส่งออกในปลายปี 2024 ทำให้บริษัทจีนไม่สามารถเข้าถึง HBM จากผู้ผลิตต่างประเทศ เช่น Micron, SK Hynix และ Samsung ได้อีกต่อไป

    YMTC จึงเริ่มตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยีการบรรจุชิปแบบ TSV (Through-Silicon Via) ซึ่งเป็นหัวใจสำคัญของการสร้าง HBM ที่ต้องซ้อนชั้น VRAM หลายชั้นอย่างแม่นยำ โดยมีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่น และร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีน เพื่อแลกเปลี่ยนความเชี่ยวชาญด้านการซ้อนชั้น 3D และการผลิต HBM2/HBM3

    แม้จะยังไม่มีตัวเลขการผลิตที่แน่นอน แต่ CXMT คาดว่าจะผลิตแผ่นเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ซึ่งใกล้เคียงกับระดับของ Micron แล้ว ขณะที่ YMTC นำเทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM เพื่อเพิ่มความแม่นยำในการเชื่อมต่อระหว่างชั้น

    การเคลื่อนไหวนี้ไม่เพียงแต่ตอบสนองความต้องการภายในประเทศ แต่ยังอาจส่งผลต่ออุตสาหกรรมโลก หากจีนสามารถผลิต HBM ได้ในปริมาณมากและคุณภาพสูง โดยเฉพาะเมื่อ Huawei และบริษัทเทคโนโลยีจีนอื่น ๆ เริ่มพัฒนา AI accelerator ที่ใช้ HBM ในประเทศอย่างเต็มรูปแบบ

    ข้อมูลสำคัญจากข่าว
    YMTC ขยายธุรกิจจาก NAND สู่ DRAM เพื่อผลิต HBM ภายในประเทศ
    การขาดแคลน HBM เกิดจากการควบคุมการส่งออกของสหรัฐฯ ที่เริ่มปลายปี 2024
    YMTC ตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยี TSV สำหรับการซ้อนชั้น VRAM
    มีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่นเพื่อรองรับการผลิต DRAM
    ร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีนในการพัฒนา HBM2/HBM3
    CXMT คาดว่าจะผลิตเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025
    YMTC ใช้เทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM
    Huawei เตรียมใช้ HBM ที่ผลิตในประเทศกับชิป AI รุ่นใหม่
    การผลิต HBM ในประเทศช่วยลดการพึ่งพาตะวันตกและเสริมความมั่นคงด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    HBM เป็นหน่วยความจำที่จำเป็นต่อการประมวลผล AI เช่นใน GPU และ XPU
    TSV เป็นเทคนิคที่ใช้เชื่อมต่อชั้นหน่วยความจำแบบแนวตั้งด้วยความแม่นยำสูง
    CXMT เป็นผู้ผลิต DRAM ที่มีโครงสร้างพื้นฐานพร้อมสำหรับการผลิต HBM
    การใช้ Xtacking ช่วยลดความร้อนและเพิ่มความเร็วในการเชื่อมต่อระหว่างชั้น
    หากจีนผลิต HBM ได้สำเร็จ อาจมีผลต่อการแข่งขันกับ Samsung และ SK Hynix

    https://wccftech.com/china-ymtc-is-now-tapping-into-the-dram-business/
    🇨🇳 “YMTC กระโดดสู่ตลาด DRAM — จีนเร่งผลิต HBM ในประเทศ สู้วิกฤตขาดแคลนชิป AI หลังถูกสหรัฐฯ ควบคุมการส่งออก” หลังจากเป็นที่รู้จักในฐานะผู้ผลิต NAND รายใหญ่ของจีน บริษัท YMTC (Yangtze Memory Technologies Co.) กำลังขยายธุรกิจเข้าสู่ตลาด DRAM โดยมีเป้าหมายหลักคือการผลิต HBM (High Bandwidth Memory) ด้วยตัวเอง เพื่อแก้ปัญหาการขาดแคลนชิปหน่วยความจำความเร็วสูงที่จำเป็นต่อการพัฒนา AI ในประเทศ จีนกำลังเผชิญกับวิกฤต HBM อย่างหนัก เนื่องจากความต้องการชิป AI พุ่งสูง แต่กลับถูกสหรัฐฯ ขยายมาตรการควบคุมการส่งออกในปลายปี 2024 ทำให้บริษัทจีนไม่สามารถเข้าถึง HBM จากผู้ผลิตต่างประเทศ เช่น Micron, SK Hynix และ Samsung ได้อีกต่อไป YMTC จึงเริ่มตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยีการบรรจุชิปแบบ TSV (Through-Silicon Via) ซึ่งเป็นหัวใจสำคัญของการสร้าง HBM ที่ต้องซ้อนชั้น VRAM หลายชั้นอย่างแม่นยำ โดยมีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่น และร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีน เพื่อแลกเปลี่ยนความเชี่ยวชาญด้านการซ้อนชั้น 3D และการผลิต HBM2/HBM3 แม้จะยังไม่มีตัวเลขการผลิตที่แน่นอน แต่ CXMT คาดว่าจะผลิตแผ่นเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ซึ่งใกล้เคียงกับระดับของ Micron แล้ว ขณะที่ YMTC นำเทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM เพื่อเพิ่มความแม่นยำในการเชื่อมต่อระหว่างชั้น การเคลื่อนไหวนี้ไม่เพียงแต่ตอบสนองความต้องการภายในประเทศ แต่ยังอาจส่งผลต่ออุตสาหกรรมโลก หากจีนสามารถผลิต HBM ได้ในปริมาณมากและคุณภาพสูง โดยเฉพาะเมื่อ Huawei และบริษัทเทคโนโลยีจีนอื่น ๆ เริ่มพัฒนา AI accelerator ที่ใช้ HBM ในประเทศอย่างเต็มรูปแบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ YMTC ขยายธุรกิจจาก NAND สู่ DRAM เพื่อผลิต HBM ภายในประเทศ ➡️ การขาดแคลน HBM เกิดจากการควบคุมการส่งออกของสหรัฐฯ ที่เริ่มปลายปี 2024 ➡️ YMTC ตั้งสายการผลิต DRAM และพัฒนาเทคโนโลยี TSV สำหรับการซ้อนชั้น VRAM ➡️ มีแผนสร้างโรงงานใหม่ในเมืองอู่ฮั่นเพื่อรองรับการผลิต DRAM ➡️ ร่วมมือกับ CXMT ผู้ผลิต DRAM รายใหญ่ของจีนในการพัฒนา HBM2/HBM3 ➡️ CXMT คาดว่าจะผลิตเวเฟอร์ DRAM ได้ถึง 2.73 ล้านแผ่นในปี 2025 ➡️ YMTC ใช้เทคโนโลยี Xtacking ที่เคยใช้ใน NAND มาเสริมการผลิต DRAM ➡️ Huawei เตรียมใช้ HBM ที่ผลิตในประเทศกับชิป AI รุ่นใหม่ ➡️ การผลิต HBM ในประเทศช่วยลดการพึ่งพาตะวันตกและเสริมความมั่นคงด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM เป็นหน่วยความจำที่จำเป็นต่อการประมวลผล AI เช่นใน GPU และ XPU ➡️ TSV เป็นเทคนิคที่ใช้เชื่อมต่อชั้นหน่วยความจำแบบแนวตั้งด้วยความแม่นยำสูง ➡️ CXMT เป็นผู้ผลิต DRAM ที่มีโครงสร้างพื้นฐานพร้อมสำหรับการผลิต HBM ➡️ การใช้ Xtacking ช่วยลดความร้อนและเพิ่มความเร็วในการเชื่อมต่อระหว่างชั้น ➡️ หากจีนผลิต HBM ได้สำเร็จ อาจมีผลต่อการแข่งขันกับ Samsung และ SK Hynix https://wccftech.com/china-ymtc-is-now-tapping-into-the-dram-business/
    WCCFTECH.COM
    China's YMTC Is Now Tapping Into the DRAM Business, Producing It Domestically to Combat the HBM Shortage in the Region
    China's famous NAND producer YMTC is now planning to tap into the DRAM business, likely to speed up development of 'in-house' HBM.
    0 Comments 0 Shares 254 Views 0 Reviews
  • “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า”

    Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027

    HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น

    Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว

    การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU

    นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง

    https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
    🚀 “Micron จับมือ TSMC ผลิต HBM4E — เปิดยุคใหม่ของหน่วยความจำ AI ที่ปรับแต่งได้ตามใจลูกค้า” Micron ประกาศความร่วมมือกับ TSMC ในการผลิตชิปฐาน (logic die) สำหรับหน่วยความจำ HBM4E ซึ่งเป็นรุ่นถัดไปของเทคโนโลยี High Bandwidth Memory ที่ออกแบบมาเพื่อรองรับงานประมวลผล AI ระดับสูง โดยมีแผนเริ่มผลิตในปี 2027 HBM4E ไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ Micron ตั้งใจให้มันเป็น “แพลตฟอร์มแบบกึ่งปรับแต่งได้” โดยลูกค้าสามารถเลือกฟีเจอร์เฉพาะใน logic die เช่น การเพิ่ม SRAM, การใส่ compression engine หรือการปรับสัญญาณให้เหมาะกับงานของตัวเอง ซึ่งจะช่วยให้ GPU หรือ XPU ทำงานได้เต็มประสิทธิภาพมากขึ้น Micron ได้เริ่มส่งตัวอย่าง HBM4 ที่มีความเร็วมากกว่า 11 Gbps ต่อ pin และแบนด์วิดท์รวมสูงถึง 2.8 TB/s แล้ว พร้อมกับล็อกสัญญา HBM3E สำหรับปี 2026 ไว้เกือบหมดแล้ว ซึ่งแสดงถึงความพร้อมในการเข้าสู่ยุค HBM4 และ HBM4E อย่างเต็มตัว การจับมือกับ TSMC ยังช่วยให้ Micron สามารถใช้เทคโนโลยีการผลิตขั้นสูงในการสร้าง logic die ที่มีความซับซ้อนมากขึ้น และสอดคล้องกับความต้องการของ GPU รุ่นใหม่ เช่น Nvidia Rubin Ultra และ AMD MI400 ที่จะเปิดตัวในปี 2026–2027 ซึ่งต้องการหน่วยความจำที่มีแบนด์วิดท์ระดับหลายสิบ TB/s และความจุสูงถึง 1 TB ต่อ GPU นอกจากนี้ Micron ยังมองว่า HBM4E จะกลายเป็นมาตรฐานใหม่ของหน่วยความจำใน data center สำหรับงาน AI โดยเฉพาะเมื่อ workload มีขนาดใหญ่ขึ้นเรื่อย ๆ และความต้องการด้านประสิทธิภาพสูงขึ้นอย่างต่อเนื่อง https://www.tomshardware.com/micron-hands-tsmc-the-keys-to-hbm4e
    0 Comments 0 Shares 164 Views 0 Reviews
  • EP1 CAM350
    BASIC IMPORT GERBER
    EP1 CAM350 BASIC IMPORT GERBER
    0 Comments 0 Shares 72 Views 0 0 Reviews
  • “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron”

    หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง

    ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม

    HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น

    ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30%

    แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต

    ความคืบหน้าของ Samsung ในตลาด HBM
    Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น
    หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่
    ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350
    Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron

    คุณสมบัติของ HBM3E และ HBM4
    HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM
    HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป
    ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30%
    Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026

    ข้อมูลเสริมจากภายนอก
    Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin
    Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps
    Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2
    ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix

    https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    🚀 “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron” หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30% แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต ✅ ความคืบหน้าของ Samsung ในตลาด HBM ➡️ Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น ➡️ หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่ ➡️ ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350 ➡️ Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron ✅ คุณสมบัติของ HBM3E และ HBM4 ➡️ HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ➡️ HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป ➡️ ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30% ➡️ Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin ➡️ Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps ➡️ Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2 ➡️ ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    0 Comments 0 Shares 188 Views 0 Reviews
  • https://youtu.be/rTVyyPdHhOk?si=2F100wM3pHNEV3jP
    https://youtu.be/rTVyyPdHhOk?si=2F100wM3pHNEV3jP
    0 Comments 0 Shares 77 Views 0 Reviews
  • https://www.youtube.com/live/LpHALxP6yls?si=Xt5LxeRDsz7OSkm3
    https://www.youtube.com/live/LpHALxP6yls?si=Xt5LxeRDsz7OSkm3
    - YouTube
    เพลิดเพลินไปกับวิดีโอและเพลงที่คุณชอบ อัปโหลดเนื้อหาต้นฉบับ และแชร์เนื้อหาทั้งหมดกับเพื่อน ครอบครัว และผู้คนทั่วโลกบน YouTube
    0 Comments 0 Shares 84 Views 0 Reviews
  • https://youtu.be/A2HVErIiIF0?si=wMwC_7lssrysM3k9
    https://youtu.be/A2HVErIiIF0?si=wMwC_7lssrysM3k9
    0 Comments 0 Shares 63 Views 0 Reviews
  • https://youtube.com/shorts/H5NM8k7RM38?si=c0lzRabXDYWbUPnA
    https://youtube.com/shorts/H5NM8k7RM38?si=c0lzRabXDYWbUPnA
    0 Comments 0 Shares 84 Views 0 Reviews
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 Comments 0 Shares 259 Views 0 Reviews
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 Comments 0 Shares 264 Views 0 Reviews
  • “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว”

    Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6

    A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3%

    ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD

    แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10%

    ประสิทธิภาพของ A19 Pro
    คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4
    คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro
    ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50%
    ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน

    ประสิทธิภาพด้านกราฟิก
    GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน
    ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec
    ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M
    รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี

    ข้อมูลเสริมจากภายนอก
    A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling
    Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด
    ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้
    เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ

    คำเตือนและข้อจำกัด
    คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน
    A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน
    Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์
    การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน
    การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน

    https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    🚀 “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว” Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6 A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3% ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10% ✅ ประสิทธิภาพของ A19 Pro ➡️ คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4 ➡️ คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro ➡️ ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50% ➡️ ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน ✅ ประสิทธิภาพด้านกราฟิก ➡️ GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน ➡️ ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec ➡️ ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M ➡️ รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี ✅ ข้อมูลเสริมจากภายนอก ➡️ A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling ➡️ Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด ➡️ ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้ ➡️ เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ ‼️ คำเตือนและข้อจำกัด ⛔ คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน ⛔ A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน ⛔ Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์ ⛔ การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน ⛔ การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    0 Comments 0 Shares 255 Views 0 Reviews
  • “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย”

    OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้

    Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า

    นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย

    OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure

    จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock
    รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation
    รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1
    มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง
    รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain

    การออกแบบและการใช้งาน
    ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี
    ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว
    เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด
    ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม

    ข้อมูลเสริมจากภายนอก
    Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน
    MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ
    OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ
    เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด

    https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    ⚡ “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย” OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้ Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure ✅ จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock ➡️ รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation ➡️ รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1 ➡️ มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง ➡️ รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain ✅ การออกแบบและการใช้งาน ➡️ ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี ➡️ ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว ➡️ เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด ➡️ ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน ➡️ MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ ➡️ OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ ➡️ เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    0 Comments 0 Shares 194 Views 0 Reviews
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 Comments 0 Shares 258 Views 0 Reviews
  • “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”

    ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร

    NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%

    ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า

    NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด

    การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง

    ผลการทดสอบ MLPerf v5.1
    GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
    MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
    GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
    ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput

    จุดเด่นของ Blackwell Ultra GB300
    มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
    ใช้ HBM3e สูงสุด 288GB ต่อ GPU
    ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
    ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark

    จุดเด่นของ AMD Instinct MI355X
    ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
    เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
    เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
    มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน

    ข้อมูลเสริมจากภายนอก
    MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
    NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
    Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก

    https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    ⚙️ “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม” ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50% ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server ➡️ MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B ➡️ GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL ➡️ ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput ✅ จุดเด่นของ Blackwell Ultra GB300 ➡️ มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน ➡️ ใช้ HBM3e สูงสุด 288GB ต่อ GPU ➡️ ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1 ➡️ ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark ✅ จุดเด่นของ AMD Instinct MI355X ➡️ ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป ➡️ เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป ➡️ เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1 ➡️ มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3 ➡️ NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 ➡️ การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive ➡️ Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    WCCFTECH.COM
    MLPerf v5.1 AI Inference Benchmark Showdown: NVIDIA Blackwell Ultra GB300 & AMD Instinct MI355X In The Spotlight
    NVIDIA's Blackwell Ultra GB300 & AMD's Instinct MI355X have finally appeared in the latest MLPerf v3.1 AI inference benchmarks.
    0 Comments 0 Shares 229 Views 0 Reviews
  • https://youtube.com/shorts/EzabEgm3Hfk?si=ybXuMnLv066NnVtS
    https://youtube.com/shorts/EzabEgm3Hfk?si=ybXuMnLv066NnVtS
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 250 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 321 Views 0 Reviews
  • https://youtube.com/shorts/ys9Dy3vc_Vc?si=6ZMsr4sgQWM3Nq12
    https://youtube.com/shorts/ys9Dy3vc_Vc?si=6ZMsr4sgQWM3Nq12
    0 Comments 0 Shares 78 Views 0 Reviews
More Results