• BONNY ขอท้าพิสูจน์! เครื่องหั่นผัก 1 ตัว แทนแรงงานได้กี่คน?

    เคยสงสัยไหมว่าทำไมธุรกิจอาหารที่เติบโตเร็ว ถึงใช้เครื่องจักรเข้ามาช่วย? เพราะนั่นคือการลงทุนเพื่อเพิ่มประสิทธิภาพและลดต้นทุนในระยะยาว

    BONNY เครื่องหั่นผัก (Vegetable Cutter) คือคำตอบ!
    ประสิทธิภาพสูง: หั่นผักได้ 50-100 kg/hr ด้วยมอเตอร์ 1 แรงม้า
    สารพัดประโยชน์: เปลี่ยนจานใบมีดได้ถึง 6 แบบ ทั้งหั่นเต๋า หั่นฝอย หรือหั่นแว่น
    แข็งแรงทนทาน: น้ำหนัก 26 kg. ขนาดกระทัดรัด 50x23x55 ซม. เคลื่อนย้ายง่าย

    ไม่ว่าจะเป็นแครอท หรือกะหล่ำปลี ก็หั่นได้เนียนกริบ สม่ำเสมอ พร้อมส่งเข้ากระบวนการผลิตต่อทันที!

    สนใจยกระดับธุรกิจของคุณ?
    ปรึกษาฟรี! ติดต่อเราได้เลย
    m.me/yonghahheng
    02-215-3515-9, 081-3189098

    #เครื่องหั่นผัก #เครื่องจักรแปรรูปอาหาร #เครื่องหั่น #เครื่องสไลด์ #เครื่องบด #เครื่องครัวร้านอาหาร #เครื่องหั่นเต๋า #เครื่องหั่นผักอเนกประสงค์ #หั่นผัก #หั่นเต๋า #หั่นเผือก #หั่นแครอท #หั่นกะหล่ำปลี #ร้านอาหาร #ธุรกิจอาหาร #ครัวร้านอาหาร #อาหารแปรรูป #โรงงานอาหาร #เครื่องครัว #อุปกรณ์ร้านอาหาร #SMEไทย #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มประสิทธิภาพ #อุปกรณ์ครัวมืออาชีพ #ยงฮะเฮง #BONNY #Yonghahheng #VegetableCutter #FoodProcessingMachine
    BONNY ขอท้าพิสูจน์! เครื่องหั่นผัก 1 ตัว แทนแรงงานได้กี่คน? เคยสงสัยไหมว่าทำไมธุรกิจอาหารที่เติบโตเร็ว ถึงใช้เครื่องจักรเข้ามาช่วย? เพราะนั่นคือการลงทุนเพื่อเพิ่มประสิทธิภาพและลดต้นทุนในระยะยาว BONNY เครื่องหั่นผัก (Vegetable Cutter) คือคำตอบ! ✨ ประสิทธิภาพสูง: หั่นผักได้ 50-100 kg/hr ด้วยมอเตอร์ 1 แรงม้า ✨ สารพัดประโยชน์: เปลี่ยนจานใบมีดได้ถึง 6 แบบ ทั้งหั่นเต๋า หั่นฝอย หรือหั่นแว่น ✨ แข็งแรงทนทาน: น้ำหนัก 26 kg. ขนาดกระทัดรัด 50x23x55 ซม. เคลื่อนย้ายง่าย ไม่ว่าจะเป็นแครอท หรือกะหล่ำปลี ก็หั่นได้เนียนกริบ สม่ำเสมอ พร้อมส่งเข้ากระบวนการผลิตต่อทันที! สนใจยกระดับธุรกิจของคุณ? ปรึกษาฟรี! ติดต่อเราได้เลย 👇 📥 m.me/yonghahheng 📞 02-215-3515-9, 081-3189098 #เครื่องหั่นผัก #เครื่องจักรแปรรูปอาหาร #เครื่องหั่น #เครื่องสไลด์ #เครื่องบด #เครื่องครัวร้านอาหาร #เครื่องหั่นเต๋า #เครื่องหั่นผักอเนกประสงค์ #หั่นผัก #หั่นเต๋า #หั่นเผือก #หั่นแครอท #หั่นกะหล่ำปลี #ร้านอาหาร #ธุรกิจอาหาร #ครัวร้านอาหาร #อาหารแปรรูป #โรงงานอาหาร #เครื่องครัว #อุปกรณ์ร้านอาหาร #SMEไทย #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มประสิทธิภาพ #อุปกรณ์ครัวมืออาชีพ #ยงฮะเฮง #BONNY #Yonghahheng #VegetableCutter #FoodProcessingMachine
    0 ความคิดเห็น 0 การแบ่งปัน 40 มุมมอง 0 รีวิว
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 ความคิดเห็น 0 การแบ่งปัน 35 มุมมอง 0 รีวิว
  • “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ”

    NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix

    SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s

    แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ

    Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้

    SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล

    ข้อมูลสำคัญจากข่าว
    NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน
    SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix
    SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI
    SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6

    ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ
    Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI
    Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025
    การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron
    SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026

    ข้อมูลเสริมจากภายนอก
    SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน
    SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง
    LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป
    การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
    🚀 “NVIDIA ปรับแผนหน่วยความจำ SOCAMM — ยกเลิกรุ่นแรก หันพัฒนา SOCAMM2 เพื่อรองรับยุค AI เต็มรูปแบบ” NVIDIA กำลังเขย่าวงการเซมิคอนดักเตอร์อีกครั้ง เมื่อมีรายงานจากสื่อเกาหลี ETNews ว่าบริษัทได้ยกเลิกการเปิดตัวหน่วยความจำ SOCAMM1 (System-on-Chip Attached Memory Module) รุ่นแรก และหันไปพัฒนา SOCAMM2 แทน โดยมีการทดสอบตัวอย่างร่วมกับผู้ผลิตหน่วยความจำรายใหญ่ทั้งสาม ได้แก่ Micron, Samsung และ SK hynix SOCAMM ถูกออกแบบมาเพื่อเป็นหน่วยความจำแบบ LPDDR ที่ติดตั้งโดยตรงกับ SoC สำหรับเซิร์ฟเวอร์ AI โดยมีเป้าหมายเพื่อให้ได้แบนด์วิดท์สูงในราคาที่ต่ำกว่าหน่วยความจำ HBM (High Bandwidth Memory) ซึ่งมีต้นทุนสูงและซับซ้อนกว่า SOCAMM1 เคยถูกวางแผนให้ใช้ในเซิร์ฟเวอร์รุ่น GB300 NVL72 ที่รองรับได้ถึง 18TB และแบนด์วิดท์ 14.3TB/s แต่เนื่องจากปัญหาทางเทคนิคและซัพพลายเชน SOCAMM1 จึงถูกยกเลิก และ SOCAMM2 ได้เข้ามาแทนที่ โดยคาดว่าจะเพิ่มความเร็วจาก 8,533 MT/s เป็น 9,600 MT/s และอาจรองรับ LPDDR6 ในอนาคต แม้ยังไม่มีการยืนยันจากผู้ผลิตใด ๆ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ตั้งแต่เดือนมีนาคม ขณะที่ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ซึ่งการเปลี่ยนผ่านไปยัง SOCAMM2 อาจเปิดโอกาสให้สองบริษัทจากเกาหลีไล่ทัน Micron ในการแข่งขันครั้งนี้ SOCAMM ยังถูกมองว่าเป็นเทคโนโลยีสำคัญในแผนการเปิดตัว GPU รุ่น Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ซึ่งจะใช้ SOCAMM หลายชุดเพื่อรองรับโมเดล AI ขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล ✅ ข้อมูลสำคัญจากข่าว ➡️ NVIDIA ยกเลิก SOCAMM1 และหันไปพัฒนา SOCAMM2 แทน ➡️ SOCAMM2 อยู่ระหว่างการทดสอบกับ Micron, Samsung และ SK hynix ➡️ SOCAMM เป็นหน่วยความจำ LPDDR ที่ติดตั้งกับ SoC สำหรับเซิร์ฟเวอร์ AI ➡️ SOCAMM2 คาดว่าจะเพิ่มความเร็วเป็น 9,600 MT/s และอาจรองรับ LPDDR6 ✅ ความเคลื่อนไหวของผู้ผลิตหน่วยความจำ ➡️ Micron เป็นบริษัทแรกที่เริ่มส่งมอบ SOCAMM สำหรับเซิร์ฟเวอร์ AI ➡️ Samsung และ SK hynix เตรียมผลิตจำนวนมากในไตรมาส 3 ปี 2025 ➡️ การเปลี่ยนไปใช้ SOCAMM2 อาจเปิดโอกาสให้ Samsung และ SK ไล่ทัน Micron ➡️ SOCAMM จะถูกใช้ใน GPU Rubin และ CPU Vera ของ NVIDIA ในปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ SOCAMM ใช้เทคโนโลยี wire bonding ด้วยทองแดงเพื่อเพิ่มประสิทธิภาพการระบายความร้อน ➡️ SOCAMM มีต้นทุนต่ำกว่า HBM และเหมาะกับการใช้งานในเซิร์ฟเวอร์ AI ที่ต้องการแบนด์วิดท์สูง ➡️ LPDDR5X ที่ใช้ใน SOCAMM มีประสิทธิภาพด้านพลังงานสูงกว่าหน่วยความจำทั่วไป ➡️ การเปลี่ยนแปลงนี้อาจส่งผลต่อการออกแบบเซิร์ฟเวอร์และ AI PC ในปี 2026 https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rumored-to-ditch-socamm1-for-socamm2
    0 ความคิดเห็น 0 การแบ่งปัน 70 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก 3 ล้าน IOPS สู่ 100 ล้าน IOPS: เมื่อ SSD กลายเป็นหัวใจของการประมวลผล AI

    ในปี 2027 Kioxia เตรียมเปิดตัว SSD ที่สามารถทำงานได้ถึง 100 ล้าน IOPS (Input/Output Operations Per Second) ซึ่งมากกว่าความสามารถของ SSD ปัจจุบันถึง 33 เท่า โดยจะใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผล AI โดยเฉพาะ

    SSD รุ่นใหม่นี้จะเชื่อมต่อผ่าน PCIe 7.0 แบบ peer-to-peer กับ GPU โดยตรง ซึ่งช่วยลด latency และเพิ่ม throughput อย่างมหาศาล เหมาะกับงาน AI ที่ต้องอ่านข้อมูลแบบสุ่มขนาดเล็ก เช่น embeddings, model weights หรือ database entries

    Kioxia วางแผนใช้ XL-Flash ซึ่งเป็น NAND แบบ SLC ที่มี latency ต่ำและ endurance สูง โดยอาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น ซึ่งจะต้องใช้ controller แบบพิเศษ และอาจต้องใช้เทคโนโลยีใหม่อย่าง High Bandwidth Flash (HBF) ที่รวม NAND หลายตัวไว้ใน stack เดียว

    แม้จะมีความท้าทายด้านการออกแบบ เช่น การจัดการ channel bandwidth, queue depth และ firmware แต่ Kioxia เชื่อว่าการพัฒนา SSD แบบนี้จะเป็นก้าวสำคัญในการรองรับ AI server รุ่นใหม่ที่ต้องการความเร็วระดับ “Giga IOPS”

    ความร่วมมือระหว่าง Kioxia และ Nvidia
    พัฒนา SSD ที่มีความเร็ว 100 ล้าน IOPS สำหรับ AI server
    ใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผลแบบ peer-to-peer
    เป้าหมายคือการเพิ่มประสิทธิภาพการอ่านข้อมูลแบบสุ่มขนาดเล็ก

    เทคโนโลยีที่ใช้ใน SSD รุ่นใหม่
    ใช้ XL-Flash ซึ่งเป็น SLC NAND ที่มี latency ต่ำ
    อาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น
    เชื่อมต่อผ่าน PCIe 7.0 และอาจใช้ multi-controller module

    ความสำคัญของ 512B IOPS สำหรับ AI
    AI workloads ต้องการการอ่านข้อมูลแบบสุ่มขนาดเล็กมาก
    512-byte blocks ให้ latency ต่ำกว่า 4K blocks
    การเพิ่ม sequential bandwidth ง่ายกว่าการลด latency

    ทางเลือกใหม่: High Bandwidth Flash (HBF)
    ใช้ TSVs และ microbumps เชื่อม NAND หลายตัวใน stack เดียว
    เพิ่ม parallelism และลด bottleneck ของ controller
    อาจเป็นทางออกสำหรับ SSD ที่ต้องการความเร็วระดับสูง

    https://www.tomshardware.com/tech-industry/nvidia-and-kioxia-target-100-million-iops-ssd-in-2027-33-times-more-than-existing-drives-for-exclusive-use-in-ai-servers
    🎙️ เรื่องเล่าจาก 3 ล้าน IOPS สู่ 100 ล้าน IOPS: เมื่อ SSD กลายเป็นหัวใจของการประมวลผล AI ในปี 2027 Kioxia เตรียมเปิดตัว SSD ที่สามารถทำงานได้ถึง 100 ล้าน IOPS (Input/Output Operations Per Second) ซึ่งมากกว่าความสามารถของ SSD ปัจจุบันถึง 33 เท่า โดยจะใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผล AI โดยเฉพาะ SSD รุ่นใหม่นี้จะเชื่อมต่อผ่าน PCIe 7.0 แบบ peer-to-peer กับ GPU โดยตรง ซึ่งช่วยลด latency และเพิ่ม throughput อย่างมหาศาล เหมาะกับงาน AI ที่ต้องอ่านข้อมูลแบบสุ่มขนาดเล็ก เช่น embeddings, model weights หรือ database entries Kioxia วางแผนใช้ XL-Flash ซึ่งเป็น NAND แบบ SLC ที่มี latency ต่ำและ endurance สูง โดยอาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น ซึ่งจะต้องใช้ controller แบบพิเศษ และอาจต้องใช้เทคโนโลยีใหม่อย่าง High Bandwidth Flash (HBF) ที่รวม NAND หลายตัวไว้ใน stack เดียว แม้จะมีความท้าทายด้านการออกแบบ เช่น การจัดการ channel bandwidth, queue depth และ firmware แต่ Kioxia เชื่อว่าการพัฒนา SSD แบบนี้จะเป็นก้าวสำคัญในการรองรับ AI server รุ่นใหม่ที่ต้องการความเร็วระดับ “Giga IOPS” ✅ ความร่วมมือระหว่าง Kioxia และ Nvidia ➡️ พัฒนา SSD ที่มีความเร็ว 100 ล้าน IOPS สำหรับ AI server ➡️ ใช้ร่วมกับ GPU ของ Nvidia เพื่อเร่งการประมวลผลแบบ peer-to-peer ➡️ เป้าหมายคือการเพิ่มประสิทธิภาพการอ่านข้อมูลแบบสุ่มขนาดเล็ก ✅ เทคโนโลยีที่ใช้ใน SSD รุ่นใหม่ ➡️ ใช้ XL-Flash ซึ่งเป็น SLC NAND ที่มี latency ต่ำ ➡️ อาจต้องใช้ถึง 915 NAND dies เพื่อให้ได้ความเร็วระดับนั้น ➡️ เชื่อมต่อผ่าน PCIe 7.0 และอาจใช้ multi-controller module ✅ ความสำคัญของ 512B IOPS สำหรับ AI ➡️ AI workloads ต้องการการอ่านข้อมูลแบบสุ่มขนาดเล็กมาก ➡️ 512-byte blocks ให้ latency ต่ำกว่า 4K blocks ➡️ การเพิ่ม sequential bandwidth ง่ายกว่าการลด latency ✅ ทางเลือกใหม่: High Bandwidth Flash (HBF) ➡️ ใช้ TSVs และ microbumps เชื่อม NAND หลายตัวใน stack เดียว ➡️ เพิ่ม parallelism และลด bottleneck ของ controller ➡️ อาจเป็นทางออกสำหรับ SSD ที่ต้องการความเร็วระดับสูง https://www.tomshardware.com/tech-industry/nvidia-and-kioxia-target-100-million-iops-ssd-in-2027-33-times-more-than-existing-drives-for-exclusive-use-in-ai-servers
    0 ความคิดเห็น 0 การแบ่งปัน 112 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ

    Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2

    LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง

    การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ

    แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่

    นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม

    การเปิดตัว Xiaomei โดย Meituan
    เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง
    ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง
    ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน

    ความสามารถของ LongCat
    มีพารามิเตอร์ 560 พันล้านตัว
    ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น
    ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว

    การแข่งขันในตลาดส่งอาหารจีน
    Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI
    JD.com ลงทุนหนักในบริการส่งอาหารทันใจ
    Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี

    ผลกระทบต่อธุรกิจและผู้บริโภค
    ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น
    บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด
    การใช้ AI อาจช่วยลดต้นทุนในระยะยาว

    https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    🎙️ เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2 LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่ นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม ✅ การเปิดตัว Xiaomei โดย Meituan ➡️ เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง ➡️ ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง ➡️ ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน ✅ ความสามารถของ LongCat ➡️ มีพารามิเตอร์ 560 พันล้านตัว ➡️ ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น ➡️ ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว ✅ การแข่งขันในตลาดส่งอาหารจีน ➡️ Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI ➡️ JD.com ลงทุนหนักในบริการส่งอาหารทันใจ ➡️ Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี ✅ ผลกระทบต่อธุรกิจและผู้บริโภค ➡️ ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น ➡️ บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด ➡️ การใช้ AI อาจช่วยลดต้นทุนในระยะยาว https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    WWW.THESTAR.COM.MY
    Meituan launches AI agent to boost food delivery business
    Meituan has launched a new AI agent app that aims to boost its food delivery and local services business, as its battle with Alibaba Group Holding Ltd for Chinese consumers heats up.
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B

    ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน

    Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2

    หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร

    ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน

    นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ

    Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที

    สถาปัตยกรรมใหม่ของ Qwen3-Next
    ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1)
    เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension
    ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว

    โครงสร้าง MoE แบบ ultra-sparse
    มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step
    ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า
    ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก

    การออกแบบเพื่อความเสถียรในการฝึก
    ใช้ Zero-Centered RMSNorm แทน QK-Norm
    เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ
    normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง

    ประสิทธิภาพของโมเดล
    Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10%
    Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว
    Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark

    การใช้งานและ deployment
    รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN
    ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที
    รองรับ speculative decoding ผ่าน MTP module

    https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    🎙️ เรื่องเล่าจาก Qwen3 สู่ Qwen3-Next: เมื่อโมเดล 80B ทำงานได้เท่ากับ 235B โดยใช้พลังแค่ 3B ในเดือนกันยายน 2025 ทีม Qwen จาก Alibaba ได้เปิดตัวสถาปัตยกรรมใหม่ชื่อว่า Qwen3-Next ซึ่งเป็นการพัฒนาโมเดลขนาดใหญ่ที่เน้น “ประสิทธิภาพต่อพารามิเตอร์” และ “ความเร็วในการประมวลผลข้อความยาว” โดยใช้แนวคิดใหม่ทั้งในด้าน attention, sparsity และการพยากรณ์หลาย token พร้อมกัน Qwen3-Next มีพารามิเตอร์รวม 80 พันล้าน แต่เปิดใช้งานจริงเพียง 3 พันล้านระหว่างการ inference ซึ่งทำให้สามารถเทียบเคียงกับ Qwen3-235B ได้ในหลายงาน โดยใช้ต้นทุนการฝึกเพียง 9.3% ของ Qwen3-32B2 หัวใจของ Qwen3-Next คือการผสมผสานระหว่าง Gated DeltaNet (linear attention ที่เร็วแต่แม่น) กับ standard attention (ที่แม่นแต่ช้า) ในอัตราส่วน 3:1 พร้อมเพิ่ม gating, rotary encoding แบบบางส่วน และการขยายขนาด head dimension เพื่อรองรับข้อความยาวถึง 256K tokens ได้อย่างเสถียร ในส่วนของ MoE (Mixture-of-Experts) Qwen3-Next ใช้โครงสร้าง ultra-sparse โดยมี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ซึ่งทำให้ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่าเมื่อเทียบกับรุ่นก่อน นอกจากนี้ยังมีการออกแบบเพื่อความเสถียร เช่น Zero-Centered RMSNorm, weight decay เฉพาะ norm weights และการ normalize router parameters ตั้งแต่เริ่มต้น เพื่อให้การฝึกมีความนิ่งและไม่เกิดปัญหา activation ผิดปกติ Qwen3-Next ยังมาพร้อม Multi-Token Prediction (MTP) ที่ช่วยให้การ inference แบบ speculative decoding มีความแม่นยำและเร็วขึ้น โดยสามารถใช้งานผ่าน Hugging Face, ModelScope, SGLang และ vLLM ได้ทันที ✅ สถาปัตยกรรมใหม่ของ Qwen3-Next ➡️ ใช้ hybrid attention: Gated DeltaNet + standard attention (อัตราส่วน 3:1) ➡️ เพิ่ม gating, rotary encoding เฉพาะ 25% ของ position dimension ➡️ ขยาย head dimension จาก 128 เป็น 256 เพื่อรองรับข้อความยาว ✅ โครงสร้าง MoE แบบ ultra-sparse ➡️ มี 512 experts แต่เปิดใช้งานเพียง 10 + 1 shared expert ต่อ step ➡️ ลดการใช้พลังงานและเพิ่ม throughput ได้มากกว่า 10 เท่า ➡️ ใช้ global load balancing เพื่อเพิ่มประสิทธิภาพการฝึก ✅ การออกแบบเพื่อความเสถียรในการฝึก ➡️ ใช้ Zero-Centered RMSNorm แทน QK-Norm ➡️ เพิ่ม weight decay เฉพาะ norm weights เพื่อป้องกันการโตผิดปกติ ➡️ normalize router parameters ตั้งแต่เริ่มต้นเพื่อความนิ่ง ✅ ประสิทธิภาพของโมเดล ➡️ Qwen3-Next-80B-A3B-Base เทียบเท่าหรือดีกว่า Qwen3-32B โดยใช้พลังแค่ 10% ➡️ Qwen3-Next-Instruct เทียบเคียง Qwen3-235B-A22B-Instruct-2507 ในงาน context ยาว ➡️ Qwen3-Next-Thinking ชนะ Gemini-2.5-Flash-Thinking ในหลาย benchmark ✅ การใช้งานและ deployment ➡️ รองรับ context สูงสุด 256K tokens และสามารถขยายถึง 1M ด้วยเทคนิค YaRN ➡️ ใช้งานผ่าน Hugging Face, ModelScope, SGLang, vLLM ได้ทันที ➡️ รองรับ speculative decoding ผ่าน MTP module https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • “Intel Panther Lake Xe3 เพิ่มเฟรมเกมสูงสุด 18% — แต่ต้องแลกกับเวลา compile shader ที่นานขึ้น”

    Intel กำลังเตรียมเปิดตัวแพลตฟอร์มกราฟิกใหม่ Panther Lake พร้อม GPU สถาปัตยกรรม Xe3 ซึ่งจะเป็นครั้งแรกที่ใช้กระบวนการผลิตระดับ 18A node โดยล่าสุดทีมวิศวกรของ Intel ได้ปล่อยชุดแพตช์ 14 รายการสำหรับ Mesa 3D graphics driver บน Linux เพื่อปรับปรุงประสิทธิภาพของ Xe3 โดยเฉพาะด้านการเล่นเกม

    ผลการทดสอบภายในพบว่าแพตช์เหล่านี้ช่วยเพิ่มประสิทธิภาพในการเล่นเกมได้สูงสุดถึง 18% โดยเฉลี่ยอยู่ที่ 4–9% ในหลายเกม เช่น Hogwarts Legacy และ Warhammer แม้ Cyberpunk 2077 จะถูกตัดออกจากการทดสอบเนื่องจากพบปัญหา GPU hang แต่ผลรวมถือว่าน่าประทับใจสำหรับแพลตฟอร์มที่ยังไม่เปิดตัว

    การปรับปรุงครั้งนี้เน้นไปที่การจัดการการทำงานแบบขนานของ thread และการวางตารางการทำงานของ compiler ซึ่งช่วยให้การประมวลผล shader มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ต้องแลกกับเวลาในการ compile shader ที่เพิ่มขึ้นประมาณ 25% ซึ่ง Intel มองว่าเป็นการแลกเปลี่ยนที่คุ้มค่าเพื่อให้ได้เฟรมเรตที่สูงขึ้น

    แพตช์ทั้งหมดถูกรวมไว้ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 เพื่อให้ผู้ใช้ Linux ที่วางแผนจะใช้ Panther Lake ได้รับประโยชน์เต็มที่ โดย Intel ยังอยู่ระหว่างการปรับปรุงเสถียรภาพของ GPU ซึ่งยังพบปัญหา hang เป็นระยะในบางเกม

    จุดเด่นของการอัปเดต Panther Lake Xe3
    เพิ่มประสิทธิภาพการเล่นเกมสูงสุด 18% จากการปรับ compiler บน Linux
    ปรับปรุงการจัดการ thread และการวางตารางการทำงานของ shader compiler
    แพตช์รวมอยู่ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2
    ใช้สถาปัตยกรรม Xe3 และกระบวนการผลิต 18A node เป็นครั้งแรกของ Intel

    ผลการทดสอบและการใช้งานจริง
    เกมที่ได้ผลดี ได้แก่ Hogwarts Legacy และ Warhammer
    Cyberpunk 2077 ถูกตัดออกจากการทดสอบเนื่องจาก GPU hang
    การ compile shader ใช้เวลานานขึ้น ~25% แต่ได้เฟรมเรตที่สูงขึ้น
    เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพกราฟิกสูงในเกม

    ข้อมูลเสริมจากภายนอก
    Panther Lake เป็น Core Ultra Series 3 รุ่นใหม่ที่เตรียมเปิดตัวปลายปีนี้
    Xe3 เป็นการต่อยอดจาก Xe-LP และ Xe-HPG โดยเน้นประสิทธิภาพแบบฝังตัว
    การใช้ 18A node เป็นก้าวสำคัญของ Intel ในการแข่งขันกับ TSMC และ Samsung
    Windows ยังไม่มีผลการทดสอบที่เปิดเผย เนื่องจาก driver เป็น proprietary

    https://wccftech.com/intel-panther-lake-xe3-graphics-platform-witnesses-up-to-18-better-higher-performance/
    🎮 “Intel Panther Lake Xe3 เพิ่มเฟรมเกมสูงสุด 18% — แต่ต้องแลกกับเวลา compile shader ที่นานขึ้น” Intel กำลังเตรียมเปิดตัวแพลตฟอร์มกราฟิกใหม่ Panther Lake พร้อม GPU สถาปัตยกรรม Xe3 ซึ่งจะเป็นครั้งแรกที่ใช้กระบวนการผลิตระดับ 18A node โดยล่าสุดทีมวิศวกรของ Intel ได้ปล่อยชุดแพตช์ 14 รายการสำหรับ Mesa 3D graphics driver บน Linux เพื่อปรับปรุงประสิทธิภาพของ Xe3 โดยเฉพาะด้านการเล่นเกม ผลการทดสอบภายในพบว่าแพตช์เหล่านี้ช่วยเพิ่มประสิทธิภาพในการเล่นเกมได้สูงสุดถึง 18% โดยเฉลี่ยอยู่ที่ 4–9% ในหลายเกม เช่น Hogwarts Legacy และ Warhammer แม้ Cyberpunk 2077 จะถูกตัดออกจากการทดสอบเนื่องจากพบปัญหา GPU hang แต่ผลรวมถือว่าน่าประทับใจสำหรับแพลตฟอร์มที่ยังไม่เปิดตัว การปรับปรุงครั้งนี้เน้นไปที่การจัดการการทำงานแบบขนานของ thread และการวางตารางการทำงานของ compiler ซึ่งช่วยให้การประมวลผล shader มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ต้องแลกกับเวลาในการ compile shader ที่เพิ่มขึ้นประมาณ 25% ซึ่ง Intel มองว่าเป็นการแลกเปลี่ยนที่คุ้มค่าเพื่อให้ได้เฟรมเรตที่สูงขึ้น แพตช์ทั้งหมดถูกรวมไว้ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 เพื่อให้ผู้ใช้ Linux ที่วางแผนจะใช้ Panther Lake ได้รับประโยชน์เต็มที่ โดย Intel ยังอยู่ระหว่างการปรับปรุงเสถียรภาพของ GPU ซึ่งยังพบปัญหา hang เป็นระยะในบางเกม ✅ จุดเด่นของการอัปเดต Panther Lake Xe3 ➡️ เพิ่มประสิทธิภาพการเล่นเกมสูงสุด 18% จากการปรับ compiler บน Linux ➡️ ปรับปรุงการจัดการ thread และการวางตารางการทำงานของ shader compiler ➡️ แพตช์รวมอยู่ใน Mesa 25.3-devel และจะถูก backport ไปยัง Mesa 25.2 ➡️ ใช้สถาปัตยกรรม Xe3 และกระบวนการผลิต 18A node เป็นครั้งแรกของ Intel ✅ ผลการทดสอบและการใช้งานจริง ➡️ เกมที่ได้ผลดี ได้แก่ Hogwarts Legacy และ Warhammer ➡️ Cyberpunk 2077 ถูกตัดออกจากการทดสอบเนื่องจาก GPU hang ➡️ การ compile shader ใช้เวลานานขึ้น ~25% แต่ได้เฟรมเรตที่สูงขึ้น ➡️ เหมาะกับผู้ใช้ Linux ที่ต้องการประสิทธิภาพกราฟิกสูงในเกม ✅ ข้อมูลเสริมจากภายนอก ➡️ Panther Lake เป็น Core Ultra Series 3 รุ่นใหม่ที่เตรียมเปิดตัวปลายปีนี้ ➡️ Xe3 เป็นการต่อยอดจาก Xe-LP และ Xe-HPG โดยเน้นประสิทธิภาพแบบฝังตัว ➡️ การใช้ 18A node เป็นก้าวสำคัญของ Intel ในการแข่งขันกับ TSMC และ Samsung ➡️ Windows ยังไม่มีผลการทดสอบที่เปิดเผย เนื่องจาก driver เป็น proprietary https://wccftech.com/intel-panther-lake-xe3-graphics-platform-witnesses-up-to-18-better-higher-performance/
    WCCFTECH.COM
    Intel's Panther Lake 'Xe3' Graphics Platform Witnesses Up To 18% Higher Gaming Performance, Courtesy of Few Optimizations
    Intel is preparing for Panther Lake launch and has released a new set of Linux-based optimizations that have boosted gaming performance.
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • “SK hynix เปิดตัว ZUFS 4.1 — หน่วยความจำมือถือที่เร็วขึ้น ฉลาดขึ้น และพร้อมรองรับ AI บนเครื่องโดยตรง”

    SK hynix ผู้ผลิตหน่วยความจำรายใหญ่จากเกาหลีใต้ ประกาศเริ่มส่งมอบโซลูชัน NAND สำหรับมือถือรุ่นใหม่ในชื่อ ZUFS 4.1 ซึ่งถือเป็นการผลิตเชิงพาณิชย์ครั้งแรกของเทคโนโลยีนี้ในโลก โดยมุ่งเน้นการเพิ่มประสิทธิภาพให้กับสมาร์ตโฟนที่ใช้ AI บนเครื่อง (on-device AI) และการจัดการข้อมูลขนาดใหญ่

    ZUFS ย่อมาจาก Zoned Universal Flash Storage ซึ่งเป็นการต่อยอดจากมาตรฐาน UFS โดยนำแนวคิด Zoned Storage มาใช้ — คือการจัดเก็บข้อมูลในโซนต่าง ๆ ตามลักษณะการใช้งาน เพื่อเพิ่มความเร็วและลดการเสื่อมของประสิทธิภาพเมื่อใช้งานไปนาน ๆ

    ZUFS 4.1 สามารถลดเวลาเปิดแอปทั่วไปได้ถึง 45% และลดเวลาเปิดแอป AI ได้ถึง 47% เมื่อเทียบกับ UFS แบบเดิม โดยใช้วิธีเขียนข้อมูลแบบเรียงลำดับ (sequential write) แทนการเขียนทับแบบเดิม ซึ่งช่วยให้ข้อมูลถูกจัดเก็บอย่างมีประสิทธิภาพมากขึ้น

    นอกจากนี้ SK hynix ยังปรับปรุงระบบตรวจจับข้อผิดพลาดให้แม่นยำขึ้น และสามารถสื่อสารกับ CPU ได้ดีขึ้น ทำให้ระบบสามารถฟื้นตัวจากข้อผิดพลาดได้เร็วขึ้นและเสถียรขึ้น โดย ZUFS 4.1 ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน และเริ่มผลิตจริงในเดือนกรกฎาคม 2025

    จุดเด่นของ ZUFS 4.1 จาก SK hynix
    เป็นโซลูชัน NAND สำหรับมือถือที่ใช้เทคโนโลยี Zoned Storage
    ลดเวลาเปิดแอปทั่วไปได้ 45% และแอป AI ได้ 47%
    เขียนข้อมูลแบบ sequential แทนการเขียนทับ — ช่วยลดการเสื่อมของประสิทธิภาพ
    ปรับปรุงระบบตรวจจับข้อผิดพลาดและการสื่อสารกับ CPU เพื่อเพิ่มความเสถียร

    การพัฒนาและการผลิต
    ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน 2025
    เริ่มผลิตเชิงพาณิชย์ในเดือนกรกฎาคม และเริ่มส่งมอบในเดือนกันยายน
    เป็นโซลูชันแรกที่พัฒนาเพื่อปรับแต่งการทำงานร่วมกับ Android OS โดยเฉพาะ
    รองรับการใช้งานในสมาร์ตโฟนรุ่นใหม่ที่เน้น on-device AI และการประมวลผลข้อมูลขนาดใหญ่

    ข้อมูลเสริมจากภายนอก
    Zoned Storage เคยใช้ในเซิร์ฟเวอร์และ SSD ระดับองค์กรมาก่อน
    UFS 4.1 เป็นมาตรฐานล่าสุดที่เปิดตัวในปี 2025 โดย JEDEC
    SK hynix กำลังแข่งขันกับ Samsung และ Kioxia ในตลาด NAND สำหรับมือถือ
    การจัดเก็บแบบ zoned ช่วยลดการเขียนซ้ำและยืดอายุการใช้งานของหน่วยความจำ

    https://www.techpowerup.com/340882/sk-hynix-begins-supplying-mobile-nand-solution-zufs-4-1
    📱 “SK hynix เปิดตัว ZUFS 4.1 — หน่วยความจำมือถือที่เร็วขึ้น ฉลาดขึ้น และพร้อมรองรับ AI บนเครื่องโดยตรง” SK hynix ผู้ผลิตหน่วยความจำรายใหญ่จากเกาหลีใต้ ประกาศเริ่มส่งมอบโซลูชัน NAND สำหรับมือถือรุ่นใหม่ในชื่อ ZUFS 4.1 ซึ่งถือเป็นการผลิตเชิงพาณิชย์ครั้งแรกของเทคโนโลยีนี้ในโลก โดยมุ่งเน้นการเพิ่มประสิทธิภาพให้กับสมาร์ตโฟนที่ใช้ AI บนเครื่อง (on-device AI) และการจัดการข้อมูลขนาดใหญ่ ZUFS ย่อมาจาก Zoned Universal Flash Storage ซึ่งเป็นการต่อยอดจากมาตรฐาน UFS โดยนำแนวคิด Zoned Storage มาใช้ — คือการจัดเก็บข้อมูลในโซนต่าง ๆ ตามลักษณะการใช้งาน เพื่อเพิ่มความเร็วและลดการเสื่อมของประสิทธิภาพเมื่อใช้งานไปนาน ๆ ZUFS 4.1 สามารถลดเวลาเปิดแอปทั่วไปได้ถึง 45% และลดเวลาเปิดแอป AI ได้ถึง 47% เมื่อเทียบกับ UFS แบบเดิม โดยใช้วิธีเขียนข้อมูลแบบเรียงลำดับ (sequential write) แทนการเขียนทับแบบเดิม ซึ่งช่วยให้ข้อมูลถูกจัดเก็บอย่างมีประสิทธิภาพมากขึ้น นอกจากนี้ SK hynix ยังปรับปรุงระบบตรวจจับข้อผิดพลาดให้แม่นยำขึ้น และสามารถสื่อสารกับ CPU ได้ดีขึ้น ทำให้ระบบสามารถฟื้นตัวจากข้อผิดพลาดได้เร็วขึ้นและเสถียรขึ้น โดย ZUFS 4.1 ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน และเริ่มผลิตจริงในเดือนกรกฎาคม 2025 ✅ จุดเด่นของ ZUFS 4.1 จาก SK hynix ➡️ เป็นโซลูชัน NAND สำหรับมือถือที่ใช้เทคโนโลยี Zoned Storage ➡️ ลดเวลาเปิดแอปทั่วไปได้ 45% และแอป AI ได้ 47% ➡️ เขียนข้อมูลแบบ sequential แทนการเขียนทับ — ช่วยลดการเสื่อมของประสิทธิภาพ ➡️ ปรับปรุงระบบตรวจจับข้อผิดพลาดและการสื่อสารกับ CPU เพื่อเพิ่มความเสถียร ✅ การพัฒนาและการผลิต ➡️ ผ่านการทดสอบร่วมกับลูกค้าในเดือนมิถุนายน 2025 ➡️ เริ่มผลิตเชิงพาณิชย์ในเดือนกรกฎาคม และเริ่มส่งมอบในเดือนกันยายน ➡️ เป็นโซลูชันแรกที่พัฒนาเพื่อปรับแต่งการทำงานร่วมกับ Android OS โดยเฉพาะ ➡️ รองรับการใช้งานในสมาร์ตโฟนรุ่นใหม่ที่เน้น on-device AI และการประมวลผลข้อมูลขนาดใหญ่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Zoned Storage เคยใช้ในเซิร์ฟเวอร์และ SSD ระดับองค์กรมาก่อน ➡️ UFS 4.1 เป็นมาตรฐานล่าสุดที่เปิดตัวในปี 2025 โดย JEDEC ➡️ SK hynix กำลังแข่งขันกับ Samsung และ Kioxia ในตลาด NAND สำหรับมือถือ ➡️ การจัดเก็บแบบ zoned ช่วยลดการเขียนซ้ำและยืดอายุการใช้งานของหน่วยความจำ https://www.techpowerup.com/340882/sk-hynix-begins-supplying-mobile-nand-solution-zufs-4-1
    WWW.TECHPOWERUP.COM
    SK hynix Begins Supplying Mobile NAND Solution ZUFS 4.1
    SK hynix Inc. announced today that it has begun supplying its high-performance mobile NAND solution ZUFS 4.1 to customers, marking the world's first mass production of this solution. The solution's adoption in the latest smartphones reinforces SK hynix's technological excellence in the global market...
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว”

    Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6

    A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3%

    ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD

    แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10%

    ประสิทธิภาพของ A19 Pro
    คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4
    คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro
    ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50%
    ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน

    ประสิทธิภาพด้านกราฟิก
    GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน
    ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec
    ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M
    รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี

    ข้อมูลเสริมจากภายนอก
    A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling
    Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด
    ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้
    เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ

    คำเตือนและข้อจำกัด
    คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน
    A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน
    Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์
    การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน
    การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน

    https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    🚀 “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว” Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6 A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3% ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10% ✅ ประสิทธิภาพของ A19 Pro ➡️ คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4 ➡️ คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro ➡️ ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50% ➡️ ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน ✅ ประสิทธิภาพด้านกราฟิก ➡️ GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน ➡️ ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec ➡️ ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M ➡️ รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี ✅ ข้อมูลเสริมจากภายนอก ➡️ A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling ➡️ Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด ➡️ ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้ ➡️ เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ ‼️ คำเตือนและข้อจำกัด ⛔ คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน ⛔ A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน ⛔ Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์ ⛔ การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน ⛔ การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • “VirtualBox 7.2.2 รองรับ KVM API บน Linux 6.16 — ปรับปรุงประสิทธิภาพ VM พร้อมฟีเจอร์ใหม่ทั้งด้านเครือข่ายและ USB”

    Oracle ปล่อยอัปเดต VirtualBox 7.2.2 ซึ่งเป็นเวอร์ชันบำรุงรักษาแรกของซีรีส์ 7.2 โดยมีการเปลี่ยนแปลงสำคัญสำหรับผู้ใช้ Linux คือการรองรับ KVM API บนเคอร์เนล Linux 6.16 ขึ้นไป ทำให้สามารถเรียกใช้ VT-x ได้โดยตรงผ่าน KVM ซึ่งช่วยเพิ่มประสิทธิภาพและความเข้ากันได้กับระบบเสมือนจริงบน Linux hosts

    นอกจากนี้ยังมีการแก้ไขปัญหาใน Linux Guest Additions ที่เคยทำให้ VBoxClient โหลด shared libraries ไม่ได้ตอนเริ่มต้น และเพิ่มอะแดปเตอร์เครือข่ายแบบใหม่ e1000 รุ่นทดลอง (82583V) ซึ่งต้องใช้ชิปเซ็ต ICH9 เนื่องจาก PIIX3 ไม่รองรับ MSIs

    ด้าน GUI มีการปรับปรุงหลายจุด เช่น การบังคับใช้ธีม XDG Desktop Portal บน Linux เมื่อมี DBus service ที่เกี่ยวข้อง และการรองรับธีมเก่าแบบ light/dark จาก Windows 10 บน Windows 11 hosts รวมถึงการแก้ไขปัญหา VBox Manager ค้างหรือแครชในหลายกรณี เช่น การลบ VM ทั้งหมด, การแสดง error notification เร็วเกินไป หรือ VM ที่มี snapshot จำนวนมาก

    ยังมีการปรับปรุงอื่น ๆ เช่น การแสดง IP address ใน status bar ให้แม่นยำขึ้น, การรองรับ virtual USB webcam ในแพ็กเกจโอเพ่นซอร์ส, การลดการใช้ CPU บน ARM hosts และการแก้ไขปัญหา TPM ที่ไม่ทำงานกับ guest บางประเภท รวมถึงการแก้ไข networking และ NAT บน macOS

    ฟีเจอร์ใหม่ใน VirtualBox 7.2.2
    รองรับ KVM API บน Linux kernel 6.16+ สำหรับการเรียกใช้ VT-x
    แก้ปัญหา VBoxClient โหลด shared libraries ไม่ได้ใน Linux Guest Additions
    เพิ่มอะแดปเตอร์ e1000 รุ่นทดลอง (82583V) — ต้องใช้ ICH9 chipset
    แก้ปัญหา nameserver 127/8 ถูกส่งไปยัง guest โดยไม่ตั้งใจ

    การปรับปรุงด้าน GUI และการใช้งาน
    บังคับใช้ธีม XDG Desktop Portal บน Linux เมื่อมี DBus service
    รองรับธีม light/dark แบบเก่าบน Windows 11 hosts
    แก้ปัญหา VBox Manager ค้างหรือแครชในหลายกรณี เช่น VM มี snapshot เยอะ
    ปรับปรุง tooltip แสดง IP address ใน status bar ให้แม่นยำขึ้น

    การปรับปรุงด้านอุปกรณ์และระบบเสมือน
    รองรับ virtual USB webcam ในแพ็กเกจโอเพ่นซอร์ส
    แก้ปัญหา USB/IP passthrough ที่เคยล้มเหลว
    ลดการใช้ CPU บน ARM hosts เมื่อ VM อยู่ในสถานะ idle
    แก้ปัญหา TPM device ไม่ทำงานกับ guest บางประเภท

    ข้อมูลเสริมจากภายนอก
    KVM API ช่วยให้ VirtualBox ทำงานร่วมกับ Linux virtualization stack ได้ดีขึ้น
    e1000 รุ่น 82583V เป็นอะแดปเตอร์ที่มี latency ต่ำและ throughput สูง
    VirtualBox 7.2.2 รองรับการติดตั้งแบบ universal binary บนทุกดิสโทรหลัก
    Oracle เตรียมเพิ่มฟีเจอร์ snapshot แบบ granular ในเวอร์ชันถัดไป

    https://9to5linux.com/virtualbox-7-2-2-adds-support-for-kvm-apis-on-linux-kernel-6-16-and-newer
    🖥️ “VirtualBox 7.2.2 รองรับ KVM API บน Linux 6.16 — ปรับปรุงประสิทธิภาพ VM พร้อมฟีเจอร์ใหม่ทั้งด้านเครือข่ายและ USB” Oracle ปล่อยอัปเดต VirtualBox 7.2.2 ซึ่งเป็นเวอร์ชันบำรุงรักษาแรกของซีรีส์ 7.2 โดยมีการเปลี่ยนแปลงสำคัญสำหรับผู้ใช้ Linux คือการรองรับ KVM API บนเคอร์เนล Linux 6.16 ขึ้นไป ทำให้สามารถเรียกใช้ VT-x ได้โดยตรงผ่าน KVM ซึ่งช่วยเพิ่มประสิทธิภาพและความเข้ากันได้กับระบบเสมือนจริงบน Linux hosts นอกจากนี้ยังมีการแก้ไขปัญหาใน Linux Guest Additions ที่เคยทำให้ VBoxClient โหลด shared libraries ไม่ได้ตอนเริ่มต้น และเพิ่มอะแดปเตอร์เครือข่ายแบบใหม่ e1000 รุ่นทดลอง (82583V) ซึ่งต้องใช้ชิปเซ็ต ICH9 เนื่องจาก PIIX3 ไม่รองรับ MSIs ด้าน GUI มีการปรับปรุงหลายจุด เช่น การบังคับใช้ธีม XDG Desktop Portal บน Linux เมื่อมี DBus service ที่เกี่ยวข้อง และการรองรับธีมเก่าแบบ light/dark จาก Windows 10 บน Windows 11 hosts รวมถึงการแก้ไขปัญหา VBox Manager ค้างหรือแครชในหลายกรณี เช่น การลบ VM ทั้งหมด, การแสดง error notification เร็วเกินไป หรือ VM ที่มี snapshot จำนวนมาก ยังมีการปรับปรุงอื่น ๆ เช่น การแสดง IP address ใน status bar ให้แม่นยำขึ้น, การรองรับ virtual USB webcam ในแพ็กเกจโอเพ่นซอร์ส, การลดการใช้ CPU บน ARM hosts และการแก้ไขปัญหา TPM ที่ไม่ทำงานกับ guest บางประเภท รวมถึงการแก้ไข networking และ NAT บน macOS ✅ ฟีเจอร์ใหม่ใน VirtualBox 7.2.2 ➡️ รองรับ KVM API บน Linux kernel 6.16+ สำหรับการเรียกใช้ VT-x ➡️ แก้ปัญหา VBoxClient โหลด shared libraries ไม่ได้ใน Linux Guest Additions ➡️ เพิ่มอะแดปเตอร์ e1000 รุ่นทดลอง (82583V) — ต้องใช้ ICH9 chipset ➡️ แก้ปัญหา nameserver 127/8 ถูกส่งไปยัง guest โดยไม่ตั้งใจ ✅ การปรับปรุงด้าน GUI และการใช้งาน ➡️ บังคับใช้ธีม XDG Desktop Portal บน Linux เมื่อมี DBus service ➡️ รองรับธีม light/dark แบบเก่าบน Windows 11 hosts ➡️ แก้ปัญหา VBox Manager ค้างหรือแครชในหลายกรณี เช่น VM มี snapshot เยอะ ➡️ ปรับปรุง tooltip แสดง IP address ใน status bar ให้แม่นยำขึ้น ✅ การปรับปรุงด้านอุปกรณ์และระบบเสมือน ➡️ รองรับ virtual USB webcam ในแพ็กเกจโอเพ่นซอร์ส ➡️ แก้ปัญหา USB/IP passthrough ที่เคยล้มเหลว ➡️ ลดการใช้ CPU บน ARM hosts เมื่อ VM อยู่ในสถานะ idle ➡️ แก้ปัญหา TPM device ไม่ทำงานกับ guest บางประเภท ✅ ข้อมูลเสริมจากภายนอก ➡️ KVM API ช่วยให้ VirtualBox ทำงานร่วมกับ Linux virtualization stack ได้ดีขึ้น ➡️ e1000 รุ่น 82583V เป็นอะแดปเตอร์ที่มี latency ต่ำและ throughput สูง ➡️ VirtualBox 7.2.2 รองรับการติดตั้งแบบ universal binary บนทุกดิสโทรหลัก ➡️ Oracle เตรียมเพิ่มฟีเจอร์ snapshot แบบ granular ในเวอร์ชันถัดไป https://9to5linux.com/virtualbox-7-2-2-adds-support-for-kvm-apis-on-linux-kernel-6-16-and-newer
    9TO5LINUX.COM
    VirtualBox 7.2.2 Adds Support for KVM APIs on Linux Kernel 6.16 and Newer - 9to5Linux
    VirtualBox 7.2.2 open-source virtualization software is now available for download with support for using KVM APIs on Linux kernel 6.16.
    0 ความคิดเห็น 0 การแบ่งปัน 162 มุมมอง 0 รีวิว
  • “OpenAI ผนึก Broadcom สร้างชิป Titan — ยุทธศาสตร์ใหม่ลดพึ่งพา Nvidia ด้วยคำสั่งซื้อ $10 พันล้าน และเป้าหมายสู่ AGI”

    ในยุคที่การแข่งขันด้าน AI รุนแรงขึ้นทุกวัน OpenAI กำลังเดินเกมใหม่ที่อาจเปลี่ยนสมดุลของอุตสาหกรรมฮาร์ดแวร์ ด้วยการร่วมมือกับ Broadcom เพื่อพัฒนาชิปประมวลผล AI แบบกำหนดเอง (custom ASIC) ภายใต้ชื่อ “Titan” โดยมีเป้าหมายเพื่อลดการพึ่งพา GPU จาก Nvidia ซึ่งมีราคาสูงและขาดแคลนอย่างต่อเนื่อง

    Broadcom ซึ่งเคยเป็นผู้ผลิตชิปสำหรับสมาร์ตโฟน ได้ขยายเข้าสู่ตลาด data center และกลายเป็นผู้นำด้านการออกแบบ XPU สำหรับงาน AI โดยก่อนหน้านี้มีลูกค้าระดับยักษ์อย่าง Google, Meta และ ByteDance ล่าสุด OpenAI กลายเป็นลูกค้ารายที่สี่ พร้อมสั่งซื้อ rack ระบบ AI มูลค่ากว่า $10 พันล้าน ซึ่งจะเริ่มส่งมอบในไตรมาสที่ 3 ปีงบประมาณ 20262

    ชิป Titan จะถูกใช้สำหรับงาน inference โดยเฉพาะ และนำโดย Richard Ho อดีตวิศวกรผู้ออกแบบ Google TPU ซึ่งแสดงให้เห็นว่า OpenAI ต้องการควบคุมโครงสร้างพื้นฐานของตนเองอย่างจริงจัง เพื่อรองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ที่มีเป้าหมายสู่ AGI ภายใน 4 ปี

    การตัดสินใจนี้เกิดขึ้นหลังจาก OpenAI ประสบปัญหาขาดแคลน GPU อย่างหนักในช่วงต้นปี 2025 ซึ่งส่งผลให้การเปิดตัว GPT-4.5 ล่าช้า แม้จะมีเงินทุนจาก Microsoft และการระดมทุนรอบ Series F และการขายหุ้นภายในที่ดันมูลค่าบริษัทขึ้นถึง $500 พันล้าน แต่การลงทุนในโครงสร้างพื้นฐานยังเป็นภาระที่ต้องจัดการอย่างเร่งด่วน

    ความร่วมมือระหว่าง OpenAI และ Broadcom
    OpenAI เป็นลูกค้ารายที่ 4 ของ Broadcom ในโครงการ custom XPU
    สั่งซื้อ rack ระบบ AI มูลค่า $10 พันล้าน เริ่มส่งมอบปี 2026
    ชิป Titan ออกแบบสำหรับงาน inference โดยเฉพาะ
    นำโดย Richard Ho อดีตวิศวกร Google TPU

    เหตุผลเบื้องหลังการพัฒนา Titan
    ลดการพึ่งพา Nvidia ที่มีราคาสูงและขาดแคลน
    รองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate
    เพิ่มประสิทธิภาพและควบคุมต้นทุนโครงสร้างพื้นฐาน
    ตอบสนองความต้องการด้าน compute ที่เพิ่มขึ้นอย่างรวดเร็ว

    ข้อมูลเสริมจากภายนอก
    Broadcom ขยายจากตลาดสมาร์ตโฟนสู่ data center และ AI infrastructure
    Titan เป็นส่วนหนึ่งของยุทธศาสตร์ AGI ภายใน 4 ปีของ OpenAI
    OpenAI เคยพึ่ง Azure cloud ของ Microsoft แต่ต้องการควบคุมระบบมากขึ้น
    การระดมทุน Series F และการขายหุ้นภายในดันมูลค่าบริษัทถึง $500 พันล้าน

    https://www.techradar.com/ai-platforms-assistants/chatgpt/nvidias-biggest-customers-are-lining-up-to-take-it-down-using-asics-and-broadcom-could-be-the-winner-of-that-battle
    💥 “OpenAI ผนึก Broadcom สร้างชิป Titan — ยุทธศาสตร์ใหม่ลดพึ่งพา Nvidia ด้วยคำสั่งซื้อ $10 พันล้าน และเป้าหมายสู่ AGI” ในยุคที่การแข่งขันด้าน AI รุนแรงขึ้นทุกวัน OpenAI กำลังเดินเกมใหม่ที่อาจเปลี่ยนสมดุลของอุตสาหกรรมฮาร์ดแวร์ ด้วยการร่วมมือกับ Broadcom เพื่อพัฒนาชิปประมวลผล AI แบบกำหนดเอง (custom ASIC) ภายใต้ชื่อ “Titan” โดยมีเป้าหมายเพื่อลดการพึ่งพา GPU จาก Nvidia ซึ่งมีราคาสูงและขาดแคลนอย่างต่อเนื่อง Broadcom ซึ่งเคยเป็นผู้ผลิตชิปสำหรับสมาร์ตโฟน ได้ขยายเข้าสู่ตลาด data center และกลายเป็นผู้นำด้านการออกแบบ XPU สำหรับงาน AI โดยก่อนหน้านี้มีลูกค้าระดับยักษ์อย่าง Google, Meta และ ByteDance ล่าสุด OpenAI กลายเป็นลูกค้ารายที่สี่ พร้อมสั่งซื้อ rack ระบบ AI มูลค่ากว่า $10 พันล้าน ซึ่งจะเริ่มส่งมอบในไตรมาสที่ 3 ปีงบประมาณ 20262 ชิป Titan จะถูกใช้สำหรับงาน inference โดยเฉพาะ และนำโดย Richard Ho อดีตวิศวกรผู้ออกแบบ Google TPU ซึ่งแสดงให้เห็นว่า OpenAI ต้องการควบคุมโครงสร้างพื้นฐานของตนเองอย่างจริงจัง เพื่อรองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ที่มีเป้าหมายสู่ AGI ภายใน 4 ปี การตัดสินใจนี้เกิดขึ้นหลังจาก OpenAI ประสบปัญหาขาดแคลน GPU อย่างหนักในช่วงต้นปี 2025 ซึ่งส่งผลให้การเปิดตัว GPT-4.5 ล่าช้า แม้จะมีเงินทุนจาก Microsoft และการระดมทุนรอบ Series F และการขายหุ้นภายในที่ดันมูลค่าบริษัทขึ้นถึง $500 พันล้าน แต่การลงทุนในโครงสร้างพื้นฐานยังเป็นภาระที่ต้องจัดการอย่างเร่งด่วน ✅ ความร่วมมือระหว่าง OpenAI และ Broadcom ➡️ OpenAI เป็นลูกค้ารายที่ 4 ของ Broadcom ในโครงการ custom XPU ➡️ สั่งซื้อ rack ระบบ AI มูลค่า $10 พันล้าน เริ่มส่งมอบปี 2026 ➡️ ชิป Titan ออกแบบสำหรับงาน inference โดยเฉพาะ ➡️ นำโดย Richard Ho อดีตวิศวกร Google TPU ✅ เหตุผลเบื้องหลังการพัฒนา Titan ➡️ ลดการพึ่งพา Nvidia ที่มีราคาสูงและขาดแคลน ➡️ รองรับโมเดลขนาดใหญ่ เช่น GPT-4.5 และโครงการ Stargate ➡️ เพิ่มประสิทธิภาพและควบคุมต้นทุนโครงสร้างพื้นฐาน ➡️ ตอบสนองความต้องการด้าน compute ที่เพิ่มขึ้นอย่างรวดเร็ว ✅ ข้อมูลเสริมจากภายนอก ➡️ Broadcom ขยายจากตลาดสมาร์ตโฟนสู่ data center และ AI infrastructure ➡️ Titan เป็นส่วนหนึ่งของยุทธศาสตร์ AGI ภายใน 4 ปีของ OpenAI ➡️ OpenAI เคยพึ่ง Azure cloud ของ Microsoft แต่ต้องการควบคุมระบบมากขึ้น ➡️ การระดมทุน Series F และการขายหุ้นภายในดันมูลค่าบริษัทถึง $500 พันล้าน https://www.techradar.com/ai-platforms-assistants/chatgpt/nvidias-biggest-customers-are-lining-up-to-take-it-down-using-asics-and-broadcom-could-be-the-winner-of-that-battle
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 ความคิดเห็น 0 การแบ่งปัน 161 มุมมอง 0 รีวิว
  • “ยาภูมิคุ้มกันบำบัด 2141-V11 ทำมะเร็งหายทั้งร่าง! ทดลองฉีดเฉพาะจุดแต่ได้ผลทั่วร่าง — ความหวังใหม่ของผู้ป่วยมะเร็งระยะลุกลาม”

    ตลอด 20 ปีที่ผ่านมา ยาภูมิคุ้มกันบำบัดกลุ่ม CD40 agonist antibodies ถูกมองว่าเป็นความหวังใหม่ในการรักษามะเร็ง เพราะสามารถกระตุ้นระบบภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้โดยตรง แต่ในทางปฏิบัติ กลับพบว่ามีผลข้างเคียงรุนแรง เช่น ภูมิไวเกินทั่วร่าง, เกล็ดเลือดต่ำ, และพิษต่อตับ แม้จะใช้ในขนาดต่ำก็ตาม

    จนกระทั่งในปี 2018 ห้องทดลองของ Jeffrey V. Ravetch แห่งมหาวิทยาลัย Rockefeller ได้พัฒนายา CD40 รุ่นใหม่ชื่อว่า 2141-V11 โดยปรับโครงสร้างให้จับกับตัวรับ CD40 ได้แน่นขึ้น และเพิ่มการเชื่อมโยงกับ Fc receptor เพื่อเพิ่มประสิทธิภาพการกระตุ้นภูมิคุ้มกัน พร้อมเปลี่ยนวิธีการให้ยา จากเดิมที่ฉีดเข้าหลอดเลือด มาเป็นการฉีดตรงเข้าเนื้อมะเร็งโดยตรง

    ผลการทดลองในมนุษย์ระยะที่ 1 ล่าสุดเผยว่า จากผู้ป่วย 12 คนที่มีมะเร็งระยะลุกลาม เช่น เมลาโนมา มะเร็งไต และมะเร็งเต้านม พบว่า 6 คนมีขนาดก้อนมะเร็งลดลง และ 2 คนหายขาด — โดยฉีดยาเพียงแค่ก้อนเดียว แต่ก้อนอื่นในร่างกายก็หายไปด้วย

    ตัวอย่างที่น่าทึ่งคือ ผู้ป่วยเมลาโนมาที่มีมะเร็งแพร่กระจายทั่วขาและเท้า แต่หลังจากฉีดแค่ก้อนที่ต้นขา ก้อนอื่นทั้งหมดก็หายไป เช่นเดียวกับผู้ป่วยมะเร็งเต้านมที่มีมะเร็งในผิวหนัง ตับ และปอด — แต่ฉีดแค่ก้อนที่ผิวหนัง ก็ทำให้ก้อนอื่นหายไปทั้งหมด

    การตรวจเนื้อเยื่อพบว่า ภายในก้อนมะเร็งมีการรวมตัวของเซลล์ภูมิคุ้มกันหลายชนิด เช่น T cells, B cells และ dendritic cells ที่จัดเรียงตัวคล้ายโครงสร้างของต่อมน้ำเหลือง (tertiary lymphoid structures) ซึ่งเป็นสัญญาณของการตอบสนองต่อภูมิคุ้มกันที่ดี

    ผลลัพธ์นี้นำไปสู่การทดลองเพิ่มเติมในมะเร็งชนิดอื่น เช่น มะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma โดยมีผู้เข้าร่วมกว่า 200 คน เพื่อศึกษาว่าอะไรทำให้บางคนตอบสนองดี และบางคนไม่ตอบสนองเลย — โดยพบว่าผู้ที่หายขาดมี T cells ที่มีความหลากหลายสูงตั้งแต่ก่อนเริ่มการรักษา

    ข้อมูลจากการทดลองยา 2141-V11
    เป็น CD40 agonist antibody ที่ปรับโครงสร้างให้จับกับ Fc receptor ได้ดีขึ้น
    ฉีดตรงเข้าเนื้อมะเร็งแทนการฉีดเข้าหลอดเลือด
    ลดผลข้างเคียงรุนแรง เช่น ภูมิไวเกินและพิษต่อตับ
    กระตุ้นภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้ทั่วร่าง แม้ฉีดแค่ก้อนเดียว

    ผลลัพธ์จากการทดลองระยะที่ 1
    ผู้ป่วย 6 จาก 12 คนมีขนาดก้อนมะเร็งลดลง
    2 คนหายขาดจากมะเร็งเมลาโนมาและมะเร็งเต้านม
    พบการสร้าง tertiary lymphoid structures ภายในก้อนมะเร็ง
    เซลล์ภูมิคุ้มกันเคลื่อนที่ไปยังก้อนที่ไม่ได้ฉีดและทำลายเซลล์มะเร็ง

    การทดลองเพิ่มเติม
    ขยายการทดลองไปยังมะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma
    มีผู้เข้าร่วมกว่า 200 คนในระยะที่ 1 และ 2
    ศึกษาความสัมพันธ์ระหว่าง T cell clonality กับการตอบสนองต่อยา
    เป้าหมายคือการเปลี่ยนผู้ไม่ตอบสนองให้กลายเป็นผู้ตอบสนอง

    ข้อมูลเสริมจากภายนอก
    CD40 เป็นตัวรับบนเซลล์ภูมิคุ้มกันที่กระตุ้นการตอบสนองแบบเฉพาะเจาะจง
    การฉีดยาเฉพาะจุดช่วยลดการกระตุ้นเซลล์ที่ไม่ใช่มะเร็ง
    FcγRIIB เป็นตัวรับที่ช่วยเพิ่มประสิทธิภาพของการเชื่อมโยงภูมิคุ้มกัน
    Tertiary lymphoid structures เป็นตัวชี้วัดการตอบสนองต่อภูมิคุ้มกันที่ดี

    https://www.rockefeller.edu/news/38120-immunotherapy-drug-eliminates-aggressive-cancers-in-clinical-trial/
    🧬 “ยาภูมิคุ้มกันบำบัด 2141-V11 ทำมะเร็งหายทั้งร่าง! ทดลองฉีดเฉพาะจุดแต่ได้ผลทั่วร่าง — ความหวังใหม่ของผู้ป่วยมะเร็งระยะลุกลาม” ตลอด 20 ปีที่ผ่านมา ยาภูมิคุ้มกันบำบัดกลุ่ม CD40 agonist antibodies ถูกมองว่าเป็นความหวังใหม่ในการรักษามะเร็ง เพราะสามารถกระตุ้นระบบภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้โดยตรง แต่ในทางปฏิบัติ กลับพบว่ามีผลข้างเคียงรุนแรง เช่น ภูมิไวเกินทั่วร่าง, เกล็ดเลือดต่ำ, และพิษต่อตับ แม้จะใช้ในขนาดต่ำก็ตาม จนกระทั่งในปี 2018 ห้องทดลองของ Jeffrey V. Ravetch แห่งมหาวิทยาลัย Rockefeller ได้พัฒนายา CD40 รุ่นใหม่ชื่อว่า 2141-V11 โดยปรับโครงสร้างให้จับกับตัวรับ CD40 ได้แน่นขึ้น และเพิ่มการเชื่อมโยงกับ Fc receptor เพื่อเพิ่มประสิทธิภาพการกระตุ้นภูมิคุ้มกัน พร้อมเปลี่ยนวิธีการให้ยา จากเดิมที่ฉีดเข้าหลอดเลือด มาเป็นการฉีดตรงเข้าเนื้อมะเร็งโดยตรง ผลการทดลองในมนุษย์ระยะที่ 1 ล่าสุดเผยว่า จากผู้ป่วย 12 คนที่มีมะเร็งระยะลุกลาม เช่น เมลาโนมา มะเร็งไต และมะเร็งเต้านม พบว่า 6 คนมีขนาดก้อนมะเร็งลดลง และ 2 คนหายขาด — โดยฉีดยาเพียงแค่ก้อนเดียว แต่ก้อนอื่นในร่างกายก็หายไปด้วย ตัวอย่างที่น่าทึ่งคือ ผู้ป่วยเมลาโนมาที่มีมะเร็งแพร่กระจายทั่วขาและเท้า แต่หลังจากฉีดแค่ก้อนที่ต้นขา ก้อนอื่นทั้งหมดก็หายไป เช่นเดียวกับผู้ป่วยมะเร็งเต้านมที่มีมะเร็งในผิวหนัง ตับ และปอด — แต่ฉีดแค่ก้อนที่ผิวหนัง ก็ทำให้ก้อนอื่นหายไปทั้งหมด การตรวจเนื้อเยื่อพบว่า ภายในก้อนมะเร็งมีการรวมตัวของเซลล์ภูมิคุ้มกันหลายชนิด เช่น T cells, B cells และ dendritic cells ที่จัดเรียงตัวคล้ายโครงสร้างของต่อมน้ำเหลือง (tertiary lymphoid structures) ซึ่งเป็นสัญญาณของการตอบสนองต่อภูมิคุ้มกันที่ดี ผลลัพธ์นี้นำไปสู่การทดลองเพิ่มเติมในมะเร็งชนิดอื่น เช่น มะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma โดยมีผู้เข้าร่วมกว่า 200 คน เพื่อศึกษาว่าอะไรทำให้บางคนตอบสนองดี และบางคนไม่ตอบสนองเลย — โดยพบว่าผู้ที่หายขาดมี T cells ที่มีความหลากหลายสูงตั้งแต่ก่อนเริ่มการรักษา ✅ ข้อมูลจากการทดลองยา 2141-V11 ➡️ เป็น CD40 agonist antibody ที่ปรับโครงสร้างให้จับกับ Fc receptor ได้ดีขึ้น ➡️ ฉีดตรงเข้าเนื้อมะเร็งแทนการฉีดเข้าหลอดเลือด ➡️ ลดผลข้างเคียงรุนแรง เช่น ภูมิไวเกินและพิษต่อตับ ➡️ กระตุ้นภูมิคุ้มกันให้โจมตีเซลล์มะเร็งได้ทั่วร่าง แม้ฉีดแค่ก้อนเดียว ✅ ผลลัพธ์จากการทดลองระยะที่ 1 ➡️ ผู้ป่วย 6 จาก 12 คนมีขนาดก้อนมะเร็งลดลง ➡️ 2 คนหายขาดจากมะเร็งเมลาโนมาและมะเร็งเต้านม ➡️ พบการสร้าง tertiary lymphoid structures ภายในก้อนมะเร็ง ➡️ เซลล์ภูมิคุ้มกันเคลื่อนที่ไปยังก้อนที่ไม่ได้ฉีดและทำลายเซลล์มะเร็ง ✅ การทดลองเพิ่มเติม ➡️ ขยายการทดลองไปยังมะเร็งกระเพาะปัสสาวะ, ต่อมลูกหมาก และ glioblastoma ➡️ มีผู้เข้าร่วมกว่า 200 คนในระยะที่ 1 และ 2 ➡️ ศึกษาความสัมพันธ์ระหว่าง T cell clonality กับการตอบสนองต่อยา ➡️ เป้าหมายคือการเปลี่ยนผู้ไม่ตอบสนองให้กลายเป็นผู้ตอบสนอง ✅ ข้อมูลเสริมจากภายนอก ➡️ CD40 เป็นตัวรับบนเซลล์ภูมิคุ้มกันที่กระตุ้นการตอบสนองแบบเฉพาะเจาะจง ➡️ การฉีดยาเฉพาะจุดช่วยลดการกระตุ้นเซลล์ที่ไม่ใช่มะเร็ง ➡️ FcγRIIB เป็นตัวรับที่ช่วยเพิ่มประสิทธิภาพของการเชื่อมโยงภูมิคุ้มกัน ➡️ Tertiary lymphoid structures เป็นตัวชี้วัดการตอบสนองต่อภูมิคุ้มกันที่ดี https://www.rockefeller.edu/news/38120-immunotherapy-drug-eliminates-aggressive-cancers-in-clinical-trial/
    WWW.ROCKEFELLER.EDU
    Immunotherapy drug eliminates aggressive cancers in clinical trial - News
    The researchers demonstrate that an engineered antibody improves a class of drugs that has struggled to make good on its early promise.
    0 ความคิดเห็น 0 การแบ่งปัน 120 มุมมอง 0 รีวิว
  • “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม”

    ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร

    NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50%

    ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า

    NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด

    การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง

    ผลการทดสอบ MLPerf v5.1
    GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server
    MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B
    GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL
    ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput

    จุดเด่นของ Blackwell Ultra GB300
    มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน
    ใช้ HBM3e สูงสุด 288GB ต่อ GPU
    ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1
    ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark

    จุดเด่นของ AMD Instinct MI355X
    ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป
    เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป
    เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1
    มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน

    ข้อมูลเสริมจากภายนอก
    MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3
    NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive
    Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก

    https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    ⚙️ “ศึกชิป AI ระดับโลก! NVIDIA Blackwell Ultra GB300 ปะทะ AMD Instinct MI355X ใน MLPerf v5.1 — เร็วขึ้น ฉลาดขึ้น และร้อนแรงกว่าเดิม” ในโลกของ AI ที่แข่งขันกันด้วยความเร็วและประสิทธิภาพ ชิปประมวลผลคือหัวใจของทุกระบบ และในรอบล่าสุดของการทดสอบ MLPerf v5.1 ซึ่งเป็นมาตรฐานระดับโลกสำหรับการวัดประสิทธิภาพการประมวลผล AI — NVIDIA และ AMD ต่างก็ส่งชิปเรือธงของตนเข้าประลองกันแบบไม่มีใครยอมใคร NVIDIA เปิดตัว Blackwell Ultra GB300 ซึ่งเป็นรุ่นอัปเกรดจาก GB200 โดยสามารถทำความเร็วได้สูงขึ้นถึง 45% ในงาน DeepSeek R1 (Offline) เมื่อใช้ 72 GPU และ 44% เมื่อใช้ 8 GPU ส่วนในโหมด Server ก็ยังเร็วขึ้นถึง 25% และ 21% ตามลำดับ1 ถือเป็นการทำตามสัญญาที่เคยประกาศไว้ว่า Blackwell Ultra จะเร็วขึ้นประมาณ 50% ฝั่ง AMD ก็ไม่น้อยหน้า ส่ง Instinct MI355X เข้าร่วมการทดสอบ โดยในงาน Llama 3.1 405B (Offline) พบว่าทำความเร็วได้สูงกว่า GB200 ถึง 27% และในงาน Llama 2 70B (Offline) MI355X สามารถสร้าง token ได้ถึง 648,248 ต่อวินาทีในระบบ 64 ชิป และ 93,045 ในระบบ 8 ชิป — เร็วกว่า GB200 ถึง 2 เท่า NVIDIA ยังโชว์พลังของ GB300 ด้วยการทำลายสถิติในหลายหมวด เช่น Stable Diffusion XL, Whisper, Mixtral และ DLRMv2 โดยใช้เทคนิคใหม่อย่าง NVFP4 ซึ่งเป็นฟอร์แมต 4-bit floating point ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning พร้อมระบบเสิร์ฟแบบแยก context และ generation เพื่อเพิ่ม throughput สูงสุด การทดสอบครั้งนี้ยังมี Intel Arc Pro B60 เข้าร่วมด้วย แม้จะไม่เร็วเท่าชิประดับ datacenter แต่ก็มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก — สะท้อนว่าการแข่งขันไม่ได้มีแค่เรื่องความเร็ว แต่ยังรวมถึงการออกแบบที่ตอบโจทย์การใช้งานจริง ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 เร็วกว่า GB200 ถึง 45% ใน DeepSeek R1 (Offline) และ 25% ใน Server ➡️ MI355X เร็วกว่า GB200 ถึง 27% ใน Llama 3.1 405B และ 2.09x ใน Llama 2 70B ➡️ GB300 ทำลายสถิติในหลายหมวด เช่น Whisper, Mixtral, DLRMv2 และ Stable Diffusion XL ➡️ ใช้เทคนิค NVFP4 และระบบเสิร์ฟแบบแยก context/generation เพื่อเพิ่ม throughput ✅ จุดเด่นของ Blackwell Ultra GB300 ➡️ มี 1.5x NVFP4 compute และ 2x attention-layer acceleration เมื่อเทียบกับ Blackwell รุ่นก่อน ➡️ ใช้ HBM3e สูงสุด 288GB ต่อ GPU ➡️ ทำความเร็ว reasoning ได้สูงกว่า Hopper ถึง 4.7x ใน Offline และ 5.2x ใน Server1 ➡️ ถือครองสถิติ per-GPU ในทุกหมวดของ MLPerf datacenter benchmark ✅ จุดเด่นของ AMD Instinct MI355X ➡️ ทำ token generation ได้สูงสุด 648,248 ต่อวินาทีในระบบ 64 ชิป ➡️ เร็วกว่า GB200 ถึง 2 เท่าในระบบ 8 ชิป ➡️ เหมาะกับงาน LLM ขนาดใหญ่ เช่น Llama 2 และ Llama 3.1 ➡️ มีการปรับปรุงด้าน memory bandwidth และการจัดการพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ MLPerf v5.1 มีผู้เข้าร่วมมากถึง 27 ราย และเพิ่ม benchmark ใหม่ 3 รายการ ได้แก่ DeepSeek-R1, Llama 3.1 8B และ Whisper Large V3 ➡️ NVIDIA ใช้ TensorRT-LLM และ Model Optimizer เพื่อปรับแต่งโมเดลให้ทำงานกับ NVFP4 ได้อย่างแม่นยำ2 ➡️ การเสิร์ฟแบบแยก context/generation ช่วยเพิ่มประสิทธิภาพในงาน LLM แบบ interactive ➡️ Intel Arc Pro B60 แม้จะช้ากว่า แต่มีจุดเด่นด้านความคุ้มค่าและการใช้งานในระบบขนาดเล็ก https://wccftech.com/mlperf-v5-1-ai-inference-benchmark-showdown-nvidia-blackwell-ultra-gb300-amd-instinct-mi355x/
    WCCFTECH.COM
    MLPerf v5.1 AI Inference Benchmark Showdown: NVIDIA Blackwell Ultra GB300 & AMD Instinct MI355X In The Spotlight
    NVIDIA's Blackwell Ultra GB300 & AMD's Instinct MI355X have finally appeared in the latest MLPerf v3.1 AI inference benchmarks.
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!”

    Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง

    ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device

    A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า

    iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป

    นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ

    ชิป A19 และ A19 Pro
    A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX
    A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core
    ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core
    ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro

    ระบบระบายความร้อนใหม่
    ใช้ vapor chamber filled with deionized water
    โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า
    ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง

    ชิปเชื่อมต่อ N1 และโมเด็ม C1X
    N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread
    เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot
    C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave
    iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ

    การใช้งาน AI บนอุปกรณ์
    Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น
    รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ
    iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ

    ราคาและการวางจำหน่าย
    iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999
    iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199
    เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน
    รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB

    https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    📱 “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!” Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ ✅ ชิป A19 และ A19 Pro ➡️ A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX ➡️ A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core ➡️ ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core ➡️ ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro ✅ ระบบระบายความร้อนใหม่ ➡️ ใช้ vapor chamber filled with deionized water ➡️ โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า ➡️ ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง ✅ ชิปเชื่อมต่อ N1 และโมเด็ม C1X ➡️ N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread ➡️ เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot ➡️ C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave ➡️ iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ ✅ การใช้งาน AI บนอุปกรณ์ ➡️ Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น ➡️ รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ ➡️ iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ ✅ ราคาและการวางจำหน่าย ➡️ iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999 ➡️ iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199 ➡️ เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน ➡️ รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • “Mistral AI ระดมทุน 1.7 พันล้านยูโร! ASML เข้าร่วมเป็นผู้ถือหุ้นหลัก พร้อมดันยุโรปสู่เวที AI ระดับโลก”

    ถ้าคุณเคยคิดว่าโลก AI ถูกครอบงำโดยบริษัทจากสหรัฐฯ อย่าง OpenAI หรือ Google — ตอนนี้ยุโรปเริ่มตอบโต้แล้วอย่างจริงจัง เมื่อ Mistral AI สตาร์ทอัพจากฝรั่งเศสประกาศระดมทุนรอบ Series C มูลค่า 1.7 พันล้านยูโร พร้อมการเข้าร่วมลงทุนจาก ASML บริษัทผู้ผลิตอุปกรณ์เซมิคอนดักเตอร์รายใหญ่ของโลก

    ASML ลงทุนถึง 1.3 พันล้านยูโรในรอบนี้ และได้ถือหุ้น 11% ใน Mistral AI พร้อมที่นั่งในคณะกรรมการกลยุทธ์ของบริษัท ความร่วมมือนี้ไม่ใช่แค่เรื่องเงิน แต่เป็นการจับมือกันระหว่างผู้นำด้านฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างโซลูชัน AI ที่ตอบโจทย์อุตสาหกรรมเซมิคอนดักเตอร์โดยตรง

    Mistral AI มีเป้าหมายในการพัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI) ที่สามารถแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน เช่น การเพิ่มประสิทธิภาพการผลิตชิป, การวิเคราะห์ข้อมูลในโรงงาน, และการออกแบบระบบอัตโนมัติขั้นสูง

    การลงทุนครั้งนี้ทำให้ Mistral มีมูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป และเป็นคู่แข่งโดยตรงกับบริษัทจากสหรัฐฯ และจีนในสนามของ Generative AI

    นอกจาก ASML ยังมีนักลงทุนรายใหญ่อื่นๆ เข้าร่วม เช่น NVIDIA, Andreessen Horowitz, DST Global, Bpifrance และ Lightspeed ซึ่งสะท้อนถึงความเชื่อมั่นในศักยภาพของ Mistral ที่จะเป็นผู้นำด้าน AI แบบเปิด (open-source) และมีความเป็นอิสระจาก Silicon Valley

    การระดมทุนรอบ Series C ของ Mistral AI
    ระดมทุนได้ 1.7 พันล้านยูโร
    มูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร
    กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป

    การลงทุนจาก ASML
    ASML ลงทุน 1.3 พันล้านยูโร และถือหุ้น 11%
    ได้ที่นั่งในคณะกรรมการกลยุทธ์ของ Mistral AI
    ร่วมมือเพื่อพัฒนาโซลูชัน AI สำหรับอุตสาหกรรมเซมิคอนดักเตอร์
    ตั้งเป้าใช้ AI เพื่อเพิ่มประสิทธิภาพการผลิตและการออกแบบชิป

    เป้าหมายของ Mistral AI
    พัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI)
    เน้นการแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน
    สร้างโครงสร้างพื้นฐาน compute ที่มีประสิทธิภาพสูง
    ส่งมอบโซลูชัน AI แบบปรับแต่งเฉพาะสำหรับองค์กร

    นักลงทุนรายอื่นที่เข้าร่วม
    NVIDIA, DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed
    สะท้อนความเชื่อมั่นในแนวทาง open-source และความเป็นอิสระของ Mistral
    สนับสนุนการขยายตัวของ AI ยุโรปให้แข่งขันกับสหรัฐฯ และจีน

    ข้อมูลเสริมจากภายนอก
    Mistral เคยระดมทุน Seed มูลค่า $112 ล้านในปี 2023 — ใหญ่ที่สุดในยุโรป
    เปิดตัว Le Chat ในปี 2024 และมีผู้ใช้งานทะลุ 1 ล้านใน 2 สัปดาห์
    ล่าสุดเพิ่มฟีเจอร์ Memories และโหมดวิจัยลึกใน Le Chat
    เป้าหมายคือสร้าง AI ที่เข้าใจหลายภาษาและทำงานได้หลากหลายบริบท

    https://mistral.ai/news/mistral-ai-raises-1-7-b-to-accelerate-technological-progress-with-ai
    🚀 “Mistral AI ระดมทุน 1.7 พันล้านยูโร! ASML เข้าร่วมเป็นผู้ถือหุ้นหลัก พร้อมดันยุโรปสู่เวที AI ระดับโลก” ถ้าคุณเคยคิดว่าโลก AI ถูกครอบงำโดยบริษัทจากสหรัฐฯ อย่าง OpenAI หรือ Google — ตอนนี้ยุโรปเริ่มตอบโต้แล้วอย่างจริงจัง เมื่อ Mistral AI สตาร์ทอัพจากฝรั่งเศสประกาศระดมทุนรอบ Series C มูลค่า 1.7 พันล้านยูโร พร้อมการเข้าร่วมลงทุนจาก ASML บริษัทผู้ผลิตอุปกรณ์เซมิคอนดักเตอร์รายใหญ่ของโลก ASML ลงทุนถึง 1.3 พันล้านยูโรในรอบนี้ และได้ถือหุ้น 11% ใน Mistral AI พร้อมที่นั่งในคณะกรรมการกลยุทธ์ของบริษัท ความร่วมมือนี้ไม่ใช่แค่เรื่องเงิน แต่เป็นการจับมือกันระหว่างผู้นำด้านฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างโซลูชัน AI ที่ตอบโจทย์อุตสาหกรรมเซมิคอนดักเตอร์โดยตรง Mistral AI มีเป้าหมายในการพัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI) ที่สามารถแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน เช่น การเพิ่มประสิทธิภาพการผลิตชิป, การวิเคราะห์ข้อมูลในโรงงาน, และการออกแบบระบบอัตโนมัติขั้นสูง การลงทุนครั้งนี้ทำให้ Mistral มีมูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป และเป็นคู่แข่งโดยตรงกับบริษัทจากสหรัฐฯ และจีนในสนามของ Generative AI นอกจาก ASML ยังมีนักลงทุนรายใหญ่อื่นๆ เข้าร่วม เช่น NVIDIA, Andreessen Horowitz, DST Global, Bpifrance และ Lightspeed ซึ่งสะท้อนถึงความเชื่อมั่นในศักยภาพของ Mistral ที่จะเป็นผู้นำด้าน AI แบบเปิด (open-source) และมีความเป็นอิสระจาก Silicon Valley ✅ การระดมทุนรอบ Series C ของ Mistral AI ➡️ ระดมทุนได้ 1.7 พันล้านยูโร ➡️ มูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร ➡️ กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป ✅ การลงทุนจาก ASML ➡️ ASML ลงทุน 1.3 พันล้านยูโร และถือหุ้น 11% ➡️ ได้ที่นั่งในคณะกรรมการกลยุทธ์ของ Mistral AI ➡️ ร่วมมือเพื่อพัฒนาโซลูชัน AI สำหรับอุตสาหกรรมเซมิคอนดักเตอร์ ➡️ ตั้งเป้าใช้ AI เพื่อเพิ่มประสิทธิภาพการผลิตและการออกแบบชิป ✅ เป้าหมายของ Mistral AI ➡️ พัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI) ➡️ เน้นการแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน ➡️ สร้างโครงสร้างพื้นฐาน compute ที่มีประสิทธิภาพสูง ➡️ ส่งมอบโซลูชัน AI แบบปรับแต่งเฉพาะสำหรับองค์กร ✅ นักลงทุนรายอื่นที่เข้าร่วม ➡️ NVIDIA, DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed ➡️ สะท้อนความเชื่อมั่นในแนวทาง open-source และความเป็นอิสระของ Mistral ➡️ สนับสนุนการขยายตัวของ AI ยุโรปให้แข่งขันกับสหรัฐฯ และจีน ✅ ข้อมูลเสริมจากภายนอก ➡️ Mistral เคยระดมทุน Seed มูลค่า $112 ล้านในปี 2023 — ใหญ่ที่สุดในยุโรป ➡️ เปิดตัว Le Chat ในปี 2024 และมีผู้ใช้งานทะลุ 1 ล้านใน 2 สัปดาห์ ➡️ ล่าสุดเพิ่มฟีเจอร์ Memories และโหมดวิจัยลึกใน Le Chat ➡️ เป้าหมายคือสร้าง AI ที่เข้าใจหลายภาษาและทำงานได้หลากหลายบริบท https://mistral.ai/news/mistral-ai-raises-1-7-b-to-accelerate-technological-progress-with-ai
    0 ความคิดเห็น 0 การแบ่งปัน 170 มุมมอง 0 รีวิว
  • “Kodi 22 ‘Piers’ มาแล้ว! รองรับ HDR บน Wayland และ OpenGL พร้อมฟีเจอร์ใหม่เพียบทั้งเกม หนัง และระบบเสียง”

    ถ้าคุณเป็นสายดูหนัง เล่นเกม หรือใช้ Kodi เป็นศูนย์กลางความบันเทิงในบ้าน — เวอร์ชันใหม่ที่กำลังจะมาในชื่อ Kodi 22 “Piers” คือการอัปเกรดครั้งใหญ่ที่น่าจับตามอง โดยเฉพาะผู้ใช้ Linux เพราะมันมาพร้อมฟีเจอร์ที่รอคอยมานาน: รองรับ HDR บน Wayland และ HDR passthrough บน OpenGL

    Kodi 22 ได้เพิ่มการรองรับ Wayland Color Management Protocol ซึ่งทำให้สามารถแสดงภาพ HDR ได้บนระบบที่ใช้ Wayland compositor ที่รองรับ — ถือเป็นก้าวสำคัญสำหรับผู้ใช้ Linux ที่ต้องการคุณภาพภาพระดับสูงโดยไม่ต้องพึ่ง X11 อีกต่อไป

    นอกจากนี้ยังมีการปรับปรุงด้านเกม เช่น รองรับ shader, ปรับปรุงการใช้เมาส์และคีย์บอร์ด, และการเรนเดอร์แบบ front-to-back บน OpenGL เพื่อเพิ่มประสิทธิภาพ รวมถึงการลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel

    ฝั่งวิดีโอและเสียงก็ไม่น้อยหน้า: Kodi 22 รองรับ FFmpeg 7, เพิ่มระบบ chapter สำหรับ audiobook, ปรับปรุงเมนูเลือกตอนใน Blu-ray, และเพิ่มระบบจัดการ Movie Versions/Extras แบบใหม่ที่แสดง artwork และข้อมูลได้ละเอียดขึ้น

    สำหรับ Android ก็รองรับ Android 15 และ page size 16KB พร้อมฟีเจอร์แชร์ไฟล์กับแอปอื่น ส่วน LG webOS ก็มี unified media pipeline ใหม่ และ Windows ARM64 ก็เริ่มรองรับแล้วเช่นกัน

    ด้าน PVR (Personal Video Recorder) มีการเพิ่ม Recently Added Channels, widget ใหม่, ระบบ Custom Timers, และปรับปรุงการค้นหา EPG รวมถึงการจัดกลุ่มช่องรายการ

    สุดท้ายคือการปรับปรุงด้านเครือข่าย เช่น การแสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น, รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ “large MTU”, และเชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น

    การรองรับ HDR และกราฟิกบน Linux
    รองรับ HDR passthrough บน OpenGL
    รองรับ HDR บน Wayland ผ่าน Wayland Color Management Protocol
    ปรับปรุงการเรนเดอร์แบบ front-to-back บน OpenGL(ES)
    ลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel

    ฟีเจอร์ใหม่ด้านวิดีโอและเสียง
    รองรับ FFmpeg 7
    เพิ่มระบบ audiobook chapter
    ปรับปรุง Movie Versions/Extras และ Blu-ray episode menu
    เพิ่มระบบจัดการ artwork และข้อมูลตอนใน Blu-ray

    ฟีเจอร์ด้านเกม
    รองรับ shader สำหรับเกม
    ปรับปรุงการใช้เมาส์และคีย์บอร์ด
    ปรับปรุงคุณภาพ texture สำหรับอุปกรณ์ช้า

    การรองรับแพลตฟอร์มต่างๆ
    Android รองรับ Android 15 และ page size 16KB
    LG webOS มี unified media pipeline ใหม่
    Windows รองรับ ARM64 desktop และ Python 3.13
    รองรับการแชร์ไฟล์กับแอปอื่นบน Android

    การปรับปรุงระบบ PVR
    เพิ่ม Recently Added Channels และ widget ใหม่
    เพิ่ม Providers window และ Custom Timers
    ปรับปรุงการจัดกลุ่มช่อง, การค้นหา, และการบันทึก

    การปรับปรุงด้านเครือข่าย
    แสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น
    รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ large MTU
    เชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น

    การรองรับอุปกรณ์เสริม
    ปรับปรุงการใช้งาน OSMC Remote
    รองรับ Pulse-Eight CEC adapter และ Flirc receiver

    https://9to5linux.com/kodi-22-piers-promises-hdr-passthrough-on-opengl-and-hdr-on-wayland
    🎬 “Kodi 22 ‘Piers’ มาแล้ว! รองรับ HDR บน Wayland และ OpenGL พร้อมฟีเจอร์ใหม่เพียบทั้งเกม หนัง และระบบเสียง” ถ้าคุณเป็นสายดูหนัง เล่นเกม หรือใช้ Kodi เป็นศูนย์กลางความบันเทิงในบ้าน — เวอร์ชันใหม่ที่กำลังจะมาในชื่อ Kodi 22 “Piers” คือการอัปเกรดครั้งใหญ่ที่น่าจับตามอง โดยเฉพาะผู้ใช้ Linux เพราะมันมาพร้อมฟีเจอร์ที่รอคอยมานาน: รองรับ HDR บน Wayland และ HDR passthrough บน OpenGL Kodi 22 ได้เพิ่มการรองรับ Wayland Color Management Protocol ซึ่งทำให้สามารถแสดงภาพ HDR ได้บนระบบที่ใช้ Wayland compositor ที่รองรับ — ถือเป็นก้าวสำคัญสำหรับผู้ใช้ Linux ที่ต้องการคุณภาพภาพระดับสูงโดยไม่ต้องพึ่ง X11 อีกต่อไป นอกจากนี้ยังมีการปรับปรุงด้านเกม เช่น รองรับ shader, ปรับปรุงการใช้เมาส์และคีย์บอร์ด, และการเรนเดอร์แบบ front-to-back บน OpenGL เพื่อเพิ่มประสิทธิภาพ รวมถึงการลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel ฝั่งวิดีโอและเสียงก็ไม่น้อยหน้า: Kodi 22 รองรับ FFmpeg 7, เพิ่มระบบ chapter สำหรับ audiobook, ปรับปรุงเมนูเลือกตอนใน Blu-ray, และเพิ่มระบบจัดการ Movie Versions/Extras แบบใหม่ที่แสดง artwork และข้อมูลได้ละเอียดขึ้น สำหรับ Android ก็รองรับ Android 15 และ page size 16KB พร้อมฟีเจอร์แชร์ไฟล์กับแอปอื่น ส่วน LG webOS ก็มี unified media pipeline ใหม่ และ Windows ARM64 ก็เริ่มรองรับแล้วเช่นกัน ด้าน PVR (Personal Video Recorder) มีการเพิ่ม Recently Added Channels, widget ใหม่, ระบบ Custom Timers, และปรับปรุงการค้นหา EPG รวมถึงการจัดกลุ่มช่องรายการ สุดท้ายคือการปรับปรุงด้านเครือข่าย เช่น การแสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น, รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ “large MTU”, และเชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น ✅ การรองรับ HDR และกราฟิกบน Linux ➡️ รองรับ HDR passthrough บน OpenGL ➡️ รองรับ HDR บน Wayland ผ่าน Wayland Color Management Protocol ➡️ ปรับปรุงการเรนเดอร์แบบ front-to-back บน OpenGL(ES) ➡️ ลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel ✅ ฟีเจอร์ใหม่ด้านวิดีโอและเสียง ➡️ รองรับ FFmpeg 7 ➡️ เพิ่มระบบ audiobook chapter ➡️ ปรับปรุง Movie Versions/Extras และ Blu-ray episode menu ➡️ เพิ่มระบบจัดการ artwork และข้อมูลตอนใน Blu-ray ✅ ฟีเจอร์ด้านเกม ➡️ รองรับ shader สำหรับเกม ➡️ ปรับปรุงการใช้เมาส์และคีย์บอร์ด ➡️ ปรับปรุงคุณภาพ texture สำหรับอุปกรณ์ช้า ✅ การรองรับแพลตฟอร์มต่างๆ ➡️ Android รองรับ Android 15 และ page size 16KB ➡️ LG webOS มี unified media pipeline ใหม่ ➡️ Windows รองรับ ARM64 desktop และ Python 3.13 ➡️ รองรับการแชร์ไฟล์กับแอปอื่นบน Android ✅ การปรับปรุงระบบ PVR ➡️ เพิ่ม Recently Added Channels และ widget ใหม่ ➡️ เพิ่ม Providers window และ Custom Timers ➡️ ปรับปรุงการจัดกลุ่มช่อง, การค้นหา, และการบันทึก ✅ การปรับปรุงด้านเครือข่าย ➡️ แสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น ➡️ รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ large MTU ➡️ เชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น ✅ การรองรับอุปกรณ์เสริม ➡️ ปรับปรุงการใช้งาน OSMC Remote ➡️ รองรับ Pulse-Eight CEC adapter และ Flirc receiver https://9to5linux.com/kodi-22-piers-promises-hdr-passthrough-on-opengl-and-hdr-on-wayland
    9TO5LINUX.COM
    Kodi 22 "Piers" Promises HDR Passthrough on OpenGL and HDR on Wayland - 9to5Linux
    Kodi 22 "Piers" open-source media center is now available for public testing promising HDR on Wayland support for Linux systems.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!”

    ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด

    ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2

    แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่

    MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน

    XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่

    การเปิดตัว MX1 Computational Memory
    เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้
    ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ
    รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง

    แนวคิด near-data processing
    ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM
    เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล
    ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์

    การขยายหน่วยความจำด้วย SSD tiering
    รองรับการขยายความจุถึงระดับ petabyte
    มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability
    ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว

    แผนการเปิดตัวผลิตภัณฑ์
    MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร
    MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links
    ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ

    การสนับสนุนสำหรับนักพัฒนา
    มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment
    รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics
    ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน

    รางวัลและการยอมรับ
    ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025
    เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024
    ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม

    https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
    🧠 “XCENA MX1: ชิปพันธุ์ใหม่ที่รวม RISC-V หลายพันคอร์ไว้ในหน่วยความจำ — เปลี่ยนโฉมเซิร์ฟเวอร์ด้วย CXL 3.2 และ SSD tiering!” ลองจินตนาการว่าคุณกำลังรันงาน AI ขนาดใหญ่ หรือ query ฐานข้อมูลแบบเวกเตอร์ที่กินแรมมหาศาล แล้วพบว่า bottleneck ไม่ได้อยู่ที่ CPU หรือ GPU — แต่อยู่ที่การเคลื่อนย้ายข้อมูลระหว่างหน่วยประมวลผลกับหน่วยความจำ นั่นคือปัญหาที่ XCENA MX1 เข้ามาแก้แบบตรงจุด ในงาน FMS 2025 (Future of Memory and Storage) บริษัทสตาร์ทอัพจากเกาหลีใต้ชื่อ XCENA ได้เปิดตัว MX1 Computational Memory ซึ่งเป็นชิปที่รวม “หลายพันคอร์ RISC-V” ไว้ในหน่วยความจำโดยตรง พร้อมรองรับมาตรฐาน PCIe Gen6 และ Compute Express Link (CXL) 3.2 แนวคิดคือ “near-data processing” — ย้ายการประมวลผลมาอยู่ใกล้กับ DRAM เพื่อลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ซึ่งช่วยเพิ่มประสิทธิภาพอย่างมหาศาลในงานที่ใช้ข้อมูลหนัก เช่น AI inference, in-memory analytics และฐานข้อมูลขนาดใหญ่ MX1 ยังรองรับการขยายหน่วยความจำด้วย SSD แบบ tiered storage ที่สามารถเพิ่มความจุได้ถึงระดับ petabyte พร้อมฟีเจอร์ด้านการบีบอัดข้อมูลและความเสถียร ทำให้เหมาะกับงานที่ต้องการทั้งความเร็วและความจุในเวลาเดียวกัน XCENA เตรียมเปิดตัวสองรุ่นคือ MX1P ในปลายปีนี้ และ MX1S ในปี 2026 โดยรุ่นหลังจะมี dual PCIe Gen6 x8 links และฟีเจอร์เพิ่มเติมสำหรับงานระดับ data center ขนาดใหญ่ ทั้งสองรุ่นจะใช้ประโยชน์จากแบนด์วิดธ์และความยืดหยุ่นของ CXL 3.2 อย่างเต็มที่ ✅ การเปิดตัว MX1 Computational Memory ➡️ เปิดตัวในงาน FMS 2025 โดยบริษัท XCENA จากเกาหลีใต้ ➡️ ใช้ PCIe Gen6 และ CXL 3.2 เป็นมาตรฐานการเชื่อมต่อ ➡️ รวมหลายพันคอร์ RISC-V ไว้ในหน่วยความจำโดยตรง ✅ แนวคิด near-data processing ➡️ ลดการเคลื่อนย้ายข้อมูลระหว่าง CPU กับ RAM ➡️ เพิ่มประสิทธิภาพในงาน AI, analytics และฐานข้อมูล ➡️ ช่วยลด latency และเพิ่ม throughput ในระบบเซิร์ฟเวอร์ ✅ การขยายหน่วยความจำด้วย SSD tiering ➡️ รองรับการขยายความจุถึงระดับ petabyte ➡️ มีระบบบีบอัดข้อมูลและฟีเจอร์ด้าน reliability ➡️ ใช้ SSD เป็น tier รองเพื่อเพิ่มความจุโดยไม่ลดความเร็ว ✅ แผนการเปิดตัวผลิตภัณฑ์ ➡️ MX1P จะเปิดตัวปลายปี 2025 พร้อมตัวอย่างสำหรับพันธมิตร ➡️ MX1S จะเปิดตัวในปี 2026 พร้อม dual PCIe Gen6 x8 links ➡️ ทั้งสองรุ่นรองรับ CXL 3.2 เต็มรูปแบบ ✅ การสนับสนุนสำหรับนักพัฒนา ➡️ มี SDK พร้อมไดรเวอร์, runtime libraries และเครื่องมือสำหรับ deployment ➡️ รองรับแอปพลิเคชันตั้งแต่ AI inference ถึง in-memory analytics ➡️ ออกแบบให้ใช้งานได้ในสภาพแวดล้อมมาตรฐาน ✅ รางวัลและการยอมรับ ➡️ ได้รับรางวัล “Most Innovative Memory Technology” ในงาน FMS 2025 ➡️ เคยได้รับรางวัล “Most Innovative Startup” ในปี 2024 ➡️ ได้รับการยกย่องจากผู้เชี่ยวชาญด้าน storage ว่าเป็นแนวทางใหม่ที่เปลี่ยนเกม https://www.techradar.com/pro/a-chip-with-thousands-of-cores-could-change-the-way-servers-are-designed-bringing-compute-nearer-to-ram-thanks-to-cxl-is-a-lightbulb-moment
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 ความคิดเห็น 0 การแบ่งปัน 168 มุมมอง 0 รีวิว
  • “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!”

    ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง!

    David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น

    Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ

    นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต

    แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก

    Intel 14A node คืออะไร
    เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด
    ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ
    มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน
    ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35%

    เครื่องมือที่ใช้ใน 14A
    ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B
    ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว
    ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield
    เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม

    บริบททางธุรกิจและการลงทุน
    Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A
    หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้
    Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ
    การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5%
    Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel
    Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1
    High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่

    https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    ⚙️ “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!” ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง! David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก ✅ Intel 14A node คืออะไร ➡️ เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด ➡️ ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ ➡️ มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน ➡️ ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35% ✅ เครื่องมือที่ใช้ใน 14A ➡️ ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B ➡️ ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว ➡️ ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield ➡️ เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม ✅ บริบททางธุรกิจและการลงทุน ➡️ Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A ➡️ หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้ ➡️ Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ ➡️ การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ 14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5% ➡️ Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel ➡️ Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1 ➡️ High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่ https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    0 ความคิดเห็น 0 การแบ่งปัน 185 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก James Watt ถึง Porsche Turbo S: เมื่อหน่วยวัดพลังกลกลายเป็นเรื่องที่ต้องแปลก่อนเข้าใจ

    แรงม้า (horsepower) เป็นหน่วยวัดพลังงานที่ James Watt คิดค้นขึ้นในศตวรรษที่ 18 เพื่อเปรียบเทียบประสิทธิภาพของเครื่องจักรไอน้ำกับแรงของม้า โดยนิยามว่า 1 แรงม้าเท่ากับ 550 ฟุต-ปอนด์ต่อวินาที ซึ่งกลายเป็นมาตรฐานในสหรัฐฯ

    แต่ในยุโรปกลับใช้ระบบเมตริก โดยนิยาม “แรงม้าเมตริก” หรือ PS (Pferdestärke ในเยอรมัน) และ CV (Cavalli Vapore ในอิตาลี) ว่าเท่ากับ 735.5 วัตต์ ขณะที่แรงม้าแบบอเมริกันเท่ากับ 745.7 วัตต์ ทำให้แรงม้าเมตริกต่ำกว่าประมาณ 1.4% ดังนั้นรถที่มี 100 PS จะเท่ากับประมาณ 98.6 hp แบบอเมริกัน

    ความต่างนี้สร้างความสับสนให้กับผู้ซื้อรถข้ามประเทศ เช่น Bugatti Veyron ที่เปิดตัวด้วยแรงม้า 1,000 PS แต่ในสหรัฐฯ ต้องระบุว่า 986 hp หรือ McLaren 765LT ที่ชื่อรุ่นอิงจาก 765 PS แต่ในอเมริกามีแรงม้าเพียง 755 hp

    เพื่อแก้ปัญหานี้ ผู้ผลิตรถยนต์เริ่มระบุพลังงานในหน่วยกิโลวัตต์ (kW) ซึ่งเป็นมาตรฐานสากล โดย 1 kW เท่ากับ 1,000 วัตต์ หรือประมาณ 1.341 hp และ 1.36 PS เช่น Porsche 911 Turbo S ที่ระบุว่า 478 kW, 641 hp และ 650 PS—ทั้งหมดคือค่าพลังงานเดียวกันแต่ต่างหน่วย

    ในรถยนต์ไฟฟ้า หน่วย kW กลายเป็นมาตรฐานหลัก เช่นมอเตอร์ 100 kW จะให้แรงม้า 134 hp หรือ 136 PS ซึ่งช่วยให้เปรียบเทียบได้ง่ายขึ้นระหว่างตลาดต่างประเทศ

    อย่างไรก็ตาม แม้แรงม้าจะเป็นตัวเลขที่คนชอบพูดถึง แต่ประสิทธิภาพของรถยังขึ้นอยู่กับแรงบิด (torque), น้ำหนัก, อัตราทดเกียร์ และแอโรไดนามิก ซึ่งมีผลต่อการเร่งและการขับขี่มากกว่าแรงม้าเพียงอย่างเดียว

    ความแตกต่างของหน่วยแรงม้า
    แรงม้าแบบอเมริกัน (hp) = 745.7 วัตต์
    แรงม้าเมตริก (PS/CV) = 735.5 วัตต์
    PS ต่ำกว่า hp ประมาณ 1.4%

    ตัวอย่างรถที่ใช้หน่วยต่างกัน
    Bugatti Veyron: 1,000 PS = 986 hp
    McLaren 765LT: 765 PS = 755 hp
    Porsche 911 Turbo S: 478 kW = 641 hp = 650 PS

    การใช้หน่วยกิโลวัตต์ (kW)
    1 kW = 1.341 hp และ 1.36 PS
    รถไฟฟ้าใช้ kW เป็นมาตรฐาน เช่น 100 kW = 134 hp
    ช่วยให้เปรียบเทียบข้ามประเทศได้ง่ายขึ้น

    ปัจจัยอื่นที่ส่งผลต่อประสิทธิภาพรถ
    แรงบิด (torque) มีผลต่อการเร่งมากกว่าแรงม้า
    น้ำหนักรถและอัตราทดเกียร์มีผลต่อความเร็ว
    แอโรไดนามิกช่วยลดแรงต้านและเพิ่มประสิทธิภาพ

    https://www.slashgear.com/1958204/confusing-difference-between-american-european-horsepower/
    🎙️ เรื่องเล่าจาก James Watt ถึง Porsche Turbo S: เมื่อหน่วยวัดพลังกลกลายเป็นเรื่องที่ต้องแปลก่อนเข้าใจ แรงม้า (horsepower) เป็นหน่วยวัดพลังงานที่ James Watt คิดค้นขึ้นในศตวรรษที่ 18 เพื่อเปรียบเทียบประสิทธิภาพของเครื่องจักรไอน้ำกับแรงของม้า โดยนิยามว่า 1 แรงม้าเท่ากับ 550 ฟุต-ปอนด์ต่อวินาที ซึ่งกลายเป็นมาตรฐานในสหรัฐฯ แต่ในยุโรปกลับใช้ระบบเมตริก โดยนิยาม “แรงม้าเมตริก” หรือ PS (Pferdestärke ในเยอรมัน) และ CV (Cavalli Vapore ในอิตาลี) ว่าเท่ากับ 735.5 วัตต์ ขณะที่แรงม้าแบบอเมริกันเท่ากับ 745.7 วัตต์ ทำให้แรงม้าเมตริกต่ำกว่าประมาณ 1.4% ดังนั้นรถที่มี 100 PS จะเท่ากับประมาณ 98.6 hp แบบอเมริกัน ความต่างนี้สร้างความสับสนให้กับผู้ซื้อรถข้ามประเทศ เช่น Bugatti Veyron ที่เปิดตัวด้วยแรงม้า 1,000 PS แต่ในสหรัฐฯ ต้องระบุว่า 986 hp หรือ McLaren 765LT ที่ชื่อรุ่นอิงจาก 765 PS แต่ในอเมริกามีแรงม้าเพียง 755 hp เพื่อแก้ปัญหานี้ ผู้ผลิตรถยนต์เริ่มระบุพลังงานในหน่วยกิโลวัตต์ (kW) ซึ่งเป็นมาตรฐานสากล โดย 1 kW เท่ากับ 1,000 วัตต์ หรือประมาณ 1.341 hp และ 1.36 PS เช่น Porsche 911 Turbo S ที่ระบุว่า 478 kW, 641 hp และ 650 PS—ทั้งหมดคือค่าพลังงานเดียวกันแต่ต่างหน่วย ในรถยนต์ไฟฟ้า หน่วย kW กลายเป็นมาตรฐานหลัก เช่นมอเตอร์ 100 kW จะให้แรงม้า 134 hp หรือ 136 PS ซึ่งช่วยให้เปรียบเทียบได้ง่ายขึ้นระหว่างตลาดต่างประเทศ อย่างไรก็ตาม แม้แรงม้าจะเป็นตัวเลขที่คนชอบพูดถึง แต่ประสิทธิภาพของรถยังขึ้นอยู่กับแรงบิด (torque), น้ำหนัก, อัตราทดเกียร์ และแอโรไดนามิก ซึ่งมีผลต่อการเร่งและการขับขี่มากกว่าแรงม้าเพียงอย่างเดียว ✅ ความแตกต่างของหน่วยแรงม้า ➡️ แรงม้าแบบอเมริกัน (hp) = 745.7 วัตต์ ➡️ แรงม้าเมตริก (PS/CV) = 735.5 วัตต์ ➡️ PS ต่ำกว่า hp ประมาณ 1.4% ✅ ตัวอย่างรถที่ใช้หน่วยต่างกัน ➡️ Bugatti Veyron: 1,000 PS = 986 hp ➡️ McLaren 765LT: 765 PS = 755 hp ➡️ Porsche 911 Turbo S: 478 kW = 641 hp = 650 PS ✅ การใช้หน่วยกิโลวัตต์ (kW) ➡️ 1 kW = 1.341 hp และ 1.36 PS ➡️ รถไฟฟ้าใช้ kW เป็นมาตรฐาน เช่น 100 kW = 134 hp ➡️ ช่วยให้เปรียบเทียบข้ามประเทศได้ง่ายขึ้น ✅ ปัจจัยอื่นที่ส่งผลต่อประสิทธิภาพรถ ➡️ แรงบิด (torque) มีผลต่อการเร่งมากกว่าแรงม้า ➡️ น้ำหนักรถและอัตราทดเกียร์มีผลต่อความเร็ว ➡️ แอโรไดนามิกช่วยลดแรงต้านและเพิ่มประสิทธิภาพ https://www.slashgear.com/1958204/confusing-difference-between-american-european-horsepower/
    WWW.SLASHGEAR.COM
    The Confusing Difference Between American And European Horsepower - SlashGear
    Thanks to differences to the metric and imperial system of measurements, horsepower doesn't mean the exact same thing in all parts of the world.
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก ETH Zurich ถึง 1811 ภาษา: เมื่อโมเดลภาษาไม่ได้ถูกสร้างเพื่อแข่งขัน แต่เพื่อให้ทุกคนเข้าถึงได้

    Apertus เป็นโมเดลภาษาใหญ่ (LLM) ที่พัฒนาโดย Swiss National AI Institute (SNAI) ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL โดยมีเป้าหมายเพื่อสร้างโมเดลที่เปิดทุกส่วน—ตั้งแต่โค้ด, น้ำหนักโมเดล, ข้อมูลเทรน, ไปจนถึงสูตรการเทรนเอง

    โมเดลมีสองขนาดคือ 8B และ 70B พารามิเตอร์ โดยเวอร์ชัน 70B ถูกเทรนด้วยข้อมูล 15 ล้านล้าน token จากเว็บ, โค้ด, และคณิตศาสตร์ ผ่านกระบวนการ curriculum learning ที่จัดลำดับเนื้อหาอย่างเป็นระบบ

    Apertus รองรับภาษามากถึง 1811 ภาษา โดย 40% ของข้อมูลเทรนเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ เช่น Swiss German, Romansh และภาษาอื่น ๆ ที่มักถูกละเลยในโมเดลทั่วไป

    โมเดลใช้สถาปัตยกรรม decoder-only transformer พร้อมฟังก์ชัน activation ใหม่ชื่อ xIELU และ optimizer แบบ AdEMAMix ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพการเทรนในระดับ bfloat16 บน GPU GH200 จำนวน 4096 ตัว

    หลังการเทรน โมเดลยังผ่านการ fine-tune แบบมีผู้ดูแล และ alignment ด้วยเทคนิค QRPO เพื่อให้ตอบสนองต่อผู้ใช้ได้ดีขึ้น โดยไม่ละเมิดความเป็นกลางหรือความปลอดภัย

    สิ่งที่โดดเด่นคือ Apertus เคารพสิทธิ์ของเจ้าของข้อมูลอย่างเข้มงวด โดยใช้ระบบ opt-out ที่สามารถย้อนกลับได้ และมีระบบ output filter ที่ผู้ใช้สามารถดาวน์โหลดทุก 6 เดือน เพื่อกรองข้อมูลส่วนบุคคลออกจากผลลัพธ์ของโมเดล

    นอกจากนี้ Apertus ยังถูกออกแบบให้สอดคล้องกับกฎหมายความโปร่งใสของ EU AI Act และกฎหมายคุ้มครองข้อมูลของสวิตเซอร์แลนด์ โดยมีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ทั้งหมด

    ข้อมูลพื้นฐานของ Apertus
    พัฒนาโดย SNAI ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL
    มีสองขนาด: 8B และ 70B พารามิเตอร์
    เทรนด้วยข้อมูล 15T token จากเว็บ, โค้ด, และคณิตศาสตร์

    สถาปัตยกรรมและเทคนิคการเทรน
    ใช้ decoder-only transformer พร้อมฟังก์ชัน xIELU
    ใช้ optimizer AdEMAMix และ precision แบบ bfloat16
    เทรนบน GPU GH200 จำนวน 4096 ตัว

    ความสามารถด้านภาษาและความโปร่งใส
    รองรับ 1811 ภาษา โดย 40% เป็นภาษาที่ไม่ใช่ภาษาอังกฤษ
    ใช้ข้อมูลที่เปิดและเคารพ opt-out ของเจ้าของข้อมูล
    มีระบบ output filter สำหรับลบข้อมูลส่วนบุคคลจากผลลัพธ์

    การใช้งานและการ deploy
    รองรับ context ยาวถึง 65,536 token
    ใช้งานผ่าน Transformers v4.56.0, vLLM, SGLang และ MLX
    มีอินเทอร์เฟซผ่าน Swisscom และ PublicAI สำหรับผู้ใช้ทั่วไป

    การปฏิบัติตามกฎหมายและจริยธรรม
    สอดคล้องกับ EU AI Act และกฎหมายสวิตเซอร์แลนด์
    มีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้
    ไม่ใช้ข้อมูลที่ละเมิดสิทธิ์หรือมีเนื้อหาที่ไม่เหมาะสม

    https://huggingface.co/swiss-ai/Apertus-70B-2509
    🎙️ เรื่องเล่าจาก ETH Zurich ถึง 1811 ภาษา: เมื่อโมเดลภาษาไม่ได้ถูกสร้างเพื่อแข่งขัน แต่เพื่อให้ทุกคนเข้าถึงได้ Apertus เป็นโมเดลภาษาใหญ่ (LLM) ที่พัฒนาโดย Swiss National AI Institute (SNAI) ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL โดยมีเป้าหมายเพื่อสร้างโมเดลที่เปิดทุกส่วน—ตั้งแต่โค้ด, น้ำหนักโมเดล, ข้อมูลเทรน, ไปจนถึงสูตรการเทรนเอง โมเดลมีสองขนาดคือ 8B และ 70B พารามิเตอร์ โดยเวอร์ชัน 70B ถูกเทรนด้วยข้อมูล 15 ล้านล้าน token จากเว็บ, โค้ด, และคณิตศาสตร์ ผ่านกระบวนการ curriculum learning ที่จัดลำดับเนื้อหาอย่างเป็นระบบ Apertus รองรับภาษามากถึง 1811 ภาษา โดย 40% ของข้อมูลเทรนเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ เช่น Swiss German, Romansh และภาษาอื่น ๆ ที่มักถูกละเลยในโมเดลทั่วไป โมเดลใช้สถาปัตยกรรม decoder-only transformer พร้อมฟังก์ชัน activation ใหม่ชื่อ xIELU และ optimizer แบบ AdEMAMix ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพการเทรนในระดับ bfloat16 บน GPU GH200 จำนวน 4096 ตัว หลังการเทรน โมเดลยังผ่านการ fine-tune แบบมีผู้ดูแล และ alignment ด้วยเทคนิค QRPO เพื่อให้ตอบสนองต่อผู้ใช้ได้ดีขึ้น โดยไม่ละเมิดความเป็นกลางหรือความปลอดภัย สิ่งที่โดดเด่นคือ Apertus เคารพสิทธิ์ของเจ้าของข้อมูลอย่างเข้มงวด โดยใช้ระบบ opt-out ที่สามารถย้อนกลับได้ และมีระบบ output filter ที่ผู้ใช้สามารถดาวน์โหลดทุก 6 เดือน เพื่อกรองข้อมูลส่วนบุคคลออกจากผลลัพธ์ของโมเดล นอกจากนี้ Apertus ยังถูกออกแบบให้สอดคล้องกับกฎหมายความโปร่งใสของ EU AI Act และกฎหมายคุ้มครองข้อมูลของสวิตเซอร์แลนด์ โดยมีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ทั้งหมด ✅ ข้อมูลพื้นฐานของ Apertus ➡️ พัฒนาโดย SNAI ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL ➡️ มีสองขนาด: 8B และ 70B พารามิเตอร์ ➡️ เทรนด้วยข้อมูล 15T token จากเว็บ, โค้ด, และคณิตศาสตร์ ✅ สถาปัตยกรรมและเทคนิคการเทรน ➡️ ใช้ decoder-only transformer พร้อมฟังก์ชัน xIELU ➡️ ใช้ optimizer AdEMAMix และ precision แบบ bfloat16 ➡️ เทรนบน GPU GH200 จำนวน 4096 ตัว ✅ ความสามารถด้านภาษาและความโปร่งใส ➡️ รองรับ 1811 ภาษา โดย 40% เป็นภาษาที่ไม่ใช่ภาษาอังกฤษ ➡️ ใช้ข้อมูลที่เปิดและเคารพ opt-out ของเจ้าของข้อมูล ➡️ มีระบบ output filter สำหรับลบข้อมูลส่วนบุคคลจากผลลัพธ์ ✅ การใช้งานและการ deploy ➡️ รองรับ context ยาวถึง 65,536 token ➡️ ใช้งานผ่าน Transformers v4.56.0, vLLM, SGLang และ MLX ➡️ มีอินเทอร์เฟซผ่าน Swisscom และ PublicAI สำหรับผู้ใช้ทั่วไป ✅ การปฏิบัติตามกฎหมายและจริยธรรม ➡️ สอดคล้องกับ EU AI Act และกฎหมายสวิตเซอร์แลนด์ ➡️ มีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ ➡️ ไม่ใช้ข้อมูลที่ละเมิดสิทธิ์หรือมีเนื้อหาที่ไม่เหมาะสม https://huggingface.co/swiss-ai/Apertus-70B-2509
    HUGGINGFACE.CO
    swiss-ai/Apertus-70B-2509 · Hugging Face
    We’re on a journey to advance and democratize artificial intelligence through open source and open science.
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
Pages Boosts