• เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป

    ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป

    CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง

    การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300

    นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ

    https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    🎙️ เรื่องเล่าจาก YMTC x CXMT: เมื่อ NAND และ DRAM รวมพลังเพื่อสร้าง HBM รุ่นถัดไป ในปี 2025 จีนกำลังเร่งเครื่องเข้าสู่ยุค self-reliance ทางเทคโนโลยีอย่างเต็มรูปแบบ โดยเฉพาะในด้านหน่วยความจำที่มีความสำคัญต่อ AI, HPC และระบบคลาวด์ ล่าสุด YMTC (Yangtze Memory Technologies) ซึ่งเป็นผู้ผลิต NAND ชั้นนำของจีน ได้ประกาศจับมือกับ CXMT (ChangXin Memory Technologies) ซึ่งเป็นผู้ผลิต DRAM รายใหญ่ที่สุดของประเทศ เพื่อร่วมกันพัฒนาเทคโนโลยี HBM3 และ HBM รุ่นถัดไป CXMT เคยผลิต HBM2 ได้แล้ว และกำลังเร่งเข้าสู่ HBM3 ด้วยเทคนิค hybrid bonding ที่ช่วยให้การเชื่อมต่อระหว่าง die มีความหนาแน่นและประสิทธิภาพสูงขึ้น ขณะที่ YMTC ซึ่งเคยร่วมมือกับ Samsung มาก่อน มีความเชี่ยวชาญด้าน NAND และ packaging ที่สามารถนำมาใช้ใน HBM ได้โดยตรง การร่วมมือครั้งนี้ไม่ใช่แค่การแบ่งปันเทคโนโลยี แต่เป็นการสร้าง supply chain ภายในประเทศที่สามารถผลิต HBM ได้ครบวงจร ตั้งแต่ DRAM wafer ไปจนถึงการประกอบแบบ 3D stacking ซึ่งเป็นหัวใจของชิป AI เช่น Nvidia H100 หรือ AMD MI300 นอกจากนี้ ยังมีรายงานว่า YMTC ได้เริ่มสั่งซื้ออุปกรณ์ R&D สำหรับ DRAM แล้ว และมีแผนจะลงทุนในสายการผลิต DRAM โดยตรง ซึ่งจะทำให้จีนมีผู้ผลิตหน่วยความจำแบบครบทุกประเภท—NAND, DRAM, และ HBM—ภายในประเทศ https://wccftech.com/china-ymtc-set-to-enter-the-dram-segment-by-partnering-with-cxmt/
    WCCFTECH.COM
    China's YMTC Reportedly Set to Enter the DRAM Segment by Partnering with Domestic Expert CXMT, Collaborating on HBM Technologies
    Chinese memory manufacturers are teaming up for HBM production, as the prominent NAND firm YMTC partners up with CXMT in a push towards HBM3.
    0 ความคิดเห็น 0 การแบ่งปัน 45 มุมมอง 0 รีวิว
  • https://youtu.be/WiMM3nstDtc?si=gF70MFPqCLSNpY3z
    https://youtu.be/WiMM3nstDtc?si=gF70MFPqCLSNpY3z
    0 ความคิดเห็น 0 การแบ่งปัน 33 มุมมอง 0 รีวิว
  • ค่าจริงที่เกิดขึ้นในช่วงเวลาใกล้เคียงกัน,เกินคำบรรยาย.,เด็กใครเด็กมัน,พวกใครพวกมัน,คนของใครของมัน.,อันตรายมาก.
    https://youtube.com/shorts/zgiipCbrj6Q?si=0YD9WaZ--M3x-7XW
    ค่าจริงที่เกิดขึ้นในช่วงเวลาใกล้เคียงกัน,เกินคำบรรยาย.,เด็กใครเด็กมัน,พวกใครพวกมัน,คนของใครของมัน.,อันตรายมาก. https://youtube.com/shorts/zgiipCbrj6Q?si=0YD9WaZ--M3x-7XW
    0 ความคิดเห็น 0 การแบ่งปัน 84 มุมมอง 0 รีวิว
  • กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล

    Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ

    เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง

    การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด

    Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน

    เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น

    สรุปเนื้อหาเป็นหัวข้อ
    กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน
    ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง
    ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2
    บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง
    ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient
    ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation
    resample ภาพด้วย Hann window เพื่อป้องกัน aliasing
    demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array
    ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing
    ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว
    แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้
    ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี
    ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks
    ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด

    ข้อมูลเสริมจากภายนอก
    กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา
    strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ
    Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย
    KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง
    Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing
    patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D
    Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ

    https://daniel.lawrence.lu/blog/y2025m09d21/
    🎙️ กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน ➡️ ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง ➡️ ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2 ➡️ บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง ➡️ ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient ➡️ ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation ➡️ resample ภาพด้วย Hann window เพื่อป้องกัน aliasing ➡️ demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array ➡️ ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing ➡️ ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว ➡️ แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้ ➡️ ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี ➡️ ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks ➡️ ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด ✅ ข้อมูลเสริมจากภายนอก ➡️ กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา ➡️ strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ ➡️ Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย ➡️ KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง ➡️ Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing ➡️ patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D ➡️ Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ https://daniel.lawrence.lu/blog/y2025m09d21/
    DANIEL.LAWRENCE.LU
    Line scan camera image processing
    I use my line scan camera to take cool pictures of trains and other stuff.
    0 ความคิดเห็น 0 การแบ่งปัน 157 มุมมอง 0 รีวิว
  • ช่องโหว่เงียบใน Copilot – เมื่อ AI ละเลยความปลอดภัยโดยไม่มีใครรู้

    ในวันที่ 4 กรกฎาคม 2025 Zack Korman นักวิจัยด้านความปลอดภัยจากบริษัท Pistachio พบช่องโหว่ใน Microsoft 365 Copilot ที่น่าตกใจ: เขาสามารถขอให้ Copilot สรุปเนื้อหาไฟล์โดยไม่ให้ลิงก์กลับไปยังไฟล์นั้น และผลคือ...ไม่มีการบันทึกใน audit log เลย

    นั่นหมายความว่าใครก็ตามที่ใช้ Copilot เพื่อเข้าถึงไฟล์ สามารถทำได้โดยไม่ทิ้งร่องรอยไว้ในระบบตรวจสอบขององค์กร ซึ่งเป็นปัญหาใหญ่สำหรับการรักษาความปลอดภัยและการปฏิบัติตามกฎหมาย เช่น HIPAA หรือ GDPR

    แม้ว่า Microsoft จะได้รับรายงานและแก้ไขช่องโหว่นี้ในวันที่ 17 สิงหาคม 2025 แต่พวกเขากลับไม่แจ้งลูกค้า ไม่ออก CVE และไม่เปิดเผยต่อสาธารณะ โดยอ้างว่าเป็นช่องโหว่ระดับ “สำคัญ” ไม่ใช่ “วิกฤต” และการแก้ไขถูกส่งอัตโนมัติ จึงไม่จำเป็นต้องแจ้ง

    สิ่งที่น่ากังวลคือ ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจ และอาจมีองค์กรจำนวนมากที่มี audit log ไม่สมบูรณ์ โดยไม่รู้ตัวเลย

    ข้อมูลในข่าว
    พบช่องโหว่ใน M365 Copilot ที่ทำให้เข้าถึงไฟล์โดยไม่บันทึกใน audit log
    ช่องโหว่เกิดจากการสั่งให้ Copilot สรุปไฟล์โดยไม่ให้ลิงก์กลับ
    ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจจากผู้ใช้ทั่วไป
    Zack Korman รายงานช่องโหว่ผ่าน MSRC ของ Microsoft
    Microsoft แก้ไขช่องโหว่ในวันที่ 17 สิงหาคม 2025
    ช่องโหว่ถูกจัดระดับ “Important” ไม่ใช่ “Critical”
    Microsoft ไม่ออก CVE และไม่แจ้งลูกค้า
    ช่องโหว่นี้กระทบต่อองค์กรที่ต้องใช้ audit log เพื่อความปลอดภัยและการปฏิบัติตามกฎหมาย

    ข้อมูลเสริมจากภายนอก
    ช่องโหว่นี้เคยถูกพบโดย Michael Bargury จาก Zenity ตั้งแต่ปี 2024
    ช่องโหว่ถูกนำเสนอในงาน Black Hat โดยใช้เทคนิค jailbreak ด้วย caret (^)
    Microsoft มีนโยบายใหม่ที่ไม่ออก CVE หากไม่ต้องอัปเดตด้วยตนเอง
    นักวิจัยด้านความปลอดภัยเรียกร้องให้รัฐบาลกดดันให้ cloud providers เปิดเผยช่องโหว่ทั้งหมด
    ช่องโหว่นี้อาจถูกใช้ในการฟ้องร้องหรือสอบสวนทางกฎหมาย หาก audit log ไม่สมบูรณ์

    https://pistachioapp.com/blog/copilot-broke-your-audit-log
    📖 ช่องโหว่เงียบใน Copilot – เมื่อ AI ละเลยความปลอดภัยโดยไม่มีใครรู้ ในวันที่ 4 กรกฎาคม 2025 Zack Korman นักวิจัยด้านความปลอดภัยจากบริษัท Pistachio พบช่องโหว่ใน Microsoft 365 Copilot ที่น่าตกใจ: เขาสามารถขอให้ Copilot สรุปเนื้อหาไฟล์โดยไม่ให้ลิงก์กลับไปยังไฟล์นั้น และผลคือ...ไม่มีการบันทึกใน audit log เลย นั่นหมายความว่าใครก็ตามที่ใช้ Copilot เพื่อเข้าถึงไฟล์ สามารถทำได้โดยไม่ทิ้งร่องรอยไว้ในระบบตรวจสอบขององค์กร ซึ่งเป็นปัญหาใหญ่สำหรับการรักษาความปลอดภัยและการปฏิบัติตามกฎหมาย เช่น HIPAA หรือ GDPR แม้ว่า Microsoft จะได้รับรายงานและแก้ไขช่องโหว่นี้ในวันที่ 17 สิงหาคม 2025 แต่พวกเขากลับไม่แจ้งลูกค้า ไม่ออก CVE และไม่เปิดเผยต่อสาธารณะ โดยอ้างว่าเป็นช่องโหว่ระดับ “สำคัญ” ไม่ใช่ “วิกฤต” และการแก้ไขถูกส่งอัตโนมัติ จึงไม่จำเป็นต้องแจ้ง สิ่งที่น่ากังวลคือ ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจ และอาจมีองค์กรจำนวนมากที่มี audit log ไม่สมบูรณ์ โดยไม่รู้ตัวเลย ✅ ข้อมูลในข่าว ➡️ พบช่องโหว่ใน M365 Copilot ที่ทำให้เข้าถึงไฟล์โดยไม่บันทึกใน audit log ➡️ ช่องโหว่เกิดจากการสั่งให้ Copilot สรุปไฟล์โดยไม่ให้ลิงก์กลับ ➡️ ช่องโหว่นี้สามารถเกิดขึ้นได้โดยไม่ตั้งใจจากผู้ใช้ทั่วไป ➡️ Zack Korman รายงานช่องโหว่ผ่าน MSRC ของ Microsoft ➡️ Microsoft แก้ไขช่องโหว่ในวันที่ 17 สิงหาคม 2025 ➡️ ช่องโหว่ถูกจัดระดับ “Important” ไม่ใช่ “Critical” ➡️ Microsoft ไม่ออก CVE และไม่แจ้งลูกค้า ➡️ ช่องโหว่นี้กระทบต่อองค์กรที่ต้องใช้ audit log เพื่อความปลอดภัยและการปฏิบัติตามกฎหมาย ✅ ข้อมูลเสริมจากภายนอก ➡️ ช่องโหว่นี้เคยถูกพบโดย Michael Bargury จาก Zenity ตั้งแต่ปี 2024 ➡️ ช่องโหว่ถูกนำเสนอในงาน Black Hat โดยใช้เทคนิค jailbreak ด้วย caret (^) ➡️ Microsoft มีนโยบายใหม่ที่ไม่ออก CVE หากไม่ต้องอัปเดตด้วยตนเอง ➡️ นักวิจัยด้านความปลอดภัยเรียกร้องให้รัฐบาลกดดันให้ cloud providers เปิดเผยช่องโหว่ทั้งหมด ➡️ ช่องโหว่นี้อาจถูกใช้ในการฟ้องร้องหรือสอบสวนทางกฎหมาย หาก audit log ไม่สมบูรณ์ https://pistachioapp.com/blog/copilot-broke-your-audit-log
    PISTACHIOAPP.COM
    Copilot Broke Your Audit Log, but Microsoft Won’t Tell You
    Copilot Broke Your Audit Log, but Microsoft Won’t Tell You
    0 ความคิดเห็น 0 การแบ่งปัน 149 มุมมอง 0 รีวิว
  • Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ

    ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ

    B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้

    ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต

    นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ

    แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50%

    ข้อมูลในข่าว
    Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell
    B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300
    ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100
    มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s
    ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์
    ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ
    Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025
    RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ
    รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15%

    ข้อมูลเสริมจากภายนอก
    H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025
    B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300
    การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe
    Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA
    Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์
    การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย

    https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    🧠 Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้ ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50% ✅ ข้อมูลในข่าว ➡️ Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell ➡️ B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300 ➡️ ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100 ➡️ มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s ➡️ ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์ ➡️ ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ ➡️ Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025 ➡️ RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ ➡️ รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15% ✅ ข้อมูลเสริมจากภายนอก ➡️ H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025 ➡️ B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300 ➡️ การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe ➡️ Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA ➡️ Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์ ➡️ การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • SK Hynix พลิกเกม DRAM โลก โค่น Samsung หลังครองตลาด 33 ปี

    ในปี 2025 SK Hynix ได้สร้างประวัติศาสตร์ใหม่ในวงการเซมิคอนดักเตอร์ ด้วยการแซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM อันดับหนึ่งของโลกเป็นครั้งแรกในรอบ 33 ปี โดยมีส่วนแบ่งตลาด 36.3% ขณะที่ Samsung ลดลงเหลือ 32.7% ซึ่งถือเป็นการลดลงครั้งใหญ่ที่สุดนับตั้งแต่เริ่มบันทึกสถิติในปี 1999

    ปัจจัยสำคัญคือ SK Hynix ได้รับสัญญาจัดหา HBM (High Bandwidth Memory) จาก NVIDIA ซึ่งเป็นลูกค้ารายใหญ่ที่สุดในตลาด AI และ GPU ขณะที่ Samsungพลาดดีลสำคัญนี้ไป ทำให้สูญเสียรายได้มหาศาล

    นอกจาก HBM3 และ HBM3E แล้ว SK Hynix ยังเป็นบริษัทแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ซึ่งทำให้บริษัทกลายเป็นผู้นำในตลาดหน่วยความจำสำหรับงาน AI และ LLM (Large Language Models)

    แม้ Samsung จะพยายามกลับมาโดยลดราคาผลิตภัณฑ์ HBM3E และเร่งพัฒนา HBM4 แต่ก็ยังไม่สามารถทวงคืนตำแหน่งได้ในระยะสั้น โดยรายงานระบุว่า Samsung มีรายได้จาก DRAM ลดลงถึง 19% ในไตรมาสเดียว

    SK Hynix ขึ้นแท่นผู้นำ DRAM โลก
    ส่วนแบ่งตลาด DRAM ของ SK Hynix อยู่ที่ 36.3% แซงหน้า Samsung ที่เหลือ 32.7%
    เป็นครั้งแรกในรอบ 33 ปีที่ Samsung ถูกโค่นจากตำแหน่งผู้นำ
    SK Hynix ได้รับสัญญาจัดหา HBM จาก NVIDIA ซึ่งเป็นลูกค้าหลักในตลาด AI
    บริษัทมีรายได้จากหน่วยความจำ $9.72 พันล้านใน Q2 2025
    SK Hynix เป็นรายแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ
    มีส่วนแบ่งในตลาด HBM สูงถึง 62% และกำลังเพิ่มขึ้น

    ข้อมูลเสริมจากภายนอก
    HBM เป็นหน่วยความจำที่ใช้ในงาน AI เช่น LLM และ GPU ประสิทธิภาพสูง
    Samsung เคยใช้ GDDR7 กับ RTX50 แต่ถูกลดบทบาทในสายผลิตภัณฑ์ใหม่
    Micron อยู่ในอันดับสามของตลาด DRAM ด้วยรายได้ $6.58 พันล้าน
    ตลาด DRAM โดยรวมลดลง 5.5% ใน Q1 2025 จากราคาสัญญาที่ตกต่ำ
    SK Hynix มีแผนเพิ่มสัดส่วน HBM3E แบบ 12-layer ให้เกิน 80% ในครึ่งหลังของปี
    การเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนยุคจาก DRAM แบบดั้งเดิมสู่ HBM สำหรับ AI

    https://wccftech.com/sk-hynix-has-managed-to-end-samsung-three-decade-long-dominance-in-the-dram-industry/
    🏆 SK Hynix พลิกเกม DRAM โลก โค่น Samsung หลังครองตลาด 33 ปี ในปี 2025 SK Hynix ได้สร้างประวัติศาสตร์ใหม่ในวงการเซมิคอนดักเตอร์ ด้วยการแซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM อันดับหนึ่งของโลกเป็นครั้งแรกในรอบ 33 ปี โดยมีส่วนแบ่งตลาด 36.3% ขณะที่ Samsung ลดลงเหลือ 32.7% ซึ่งถือเป็นการลดลงครั้งใหญ่ที่สุดนับตั้งแต่เริ่มบันทึกสถิติในปี 1999 ปัจจัยสำคัญคือ SK Hynix ได้รับสัญญาจัดหา HBM (High Bandwidth Memory) จาก NVIDIA ซึ่งเป็นลูกค้ารายใหญ่ที่สุดในตลาด AI และ GPU ขณะที่ Samsungพลาดดีลสำคัญนี้ไป ทำให้สูญเสียรายได้มหาศาล นอกจาก HBM3 และ HBM3E แล้ว SK Hynix ยังเป็นบริษัทแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ซึ่งทำให้บริษัทกลายเป็นผู้นำในตลาดหน่วยความจำสำหรับงาน AI และ LLM (Large Language Models) แม้ Samsung จะพยายามกลับมาโดยลดราคาผลิตภัณฑ์ HBM3E และเร่งพัฒนา HBM4 แต่ก็ยังไม่สามารถทวงคืนตำแหน่งได้ในระยะสั้น โดยรายงานระบุว่า Samsung มีรายได้จาก DRAM ลดลงถึง 19% ในไตรมาสเดียว ✅ SK Hynix ขึ้นแท่นผู้นำ DRAM โลก ➡️ ส่วนแบ่งตลาด DRAM ของ SK Hynix อยู่ที่ 36.3% แซงหน้า Samsung ที่เหลือ 32.7% ➡️ เป็นครั้งแรกในรอบ 33 ปีที่ Samsung ถูกโค่นจากตำแหน่งผู้นำ ➡️ SK Hynix ได้รับสัญญาจัดหา HBM จาก NVIDIA ซึ่งเป็นลูกค้าหลักในตลาด AI ➡️ บริษัทมีรายได้จากหน่วยความจำ $9.72 พันล้านใน Q2 2025 ➡️ SK Hynix เป็นรายแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ➡️ มีส่วนแบ่งในตลาด HBM สูงถึง 62% และกำลังเพิ่มขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM เป็นหน่วยความจำที่ใช้ในงาน AI เช่น LLM และ GPU ประสิทธิภาพสูง ➡️ Samsung เคยใช้ GDDR7 กับ RTX50 แต่ถูกลดบทบาทในสายผลิตภัณฑ์ใหม่ ➡️ Micron อยู่ในอันดับสามของตลาด DRAM ด้วยรายได้ $6.58 พันล้าน ➡️ ตลาด DRAM โดยรวมลดลง 5.5% ใน Q1 2025 จากราคาสัญญาที่ตกต่ำ ➡️ SK Hynix มีแผนเพิ่มสัดส่วน HBM3E แบบ 12-layer ให้เกิน 80% ในครึ่งหลังของปี ➡️ การเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนยุคจาก DRAM แบบดั้งเดิมสู่ HBM สำหรับ AI https://wccftech.com/sk-hynix-has-managed-to-end-samsung-three-decade-long-dominance-in-the-dram-industry/
    WCCFTECH.COM
    SK Hynix Has Managed to End Samsung's Three-Decade-Long Dominance in the DRAM Industry, as the Latter Witnesses Its Biggest-Ever Drop in Market Share This Year
    Well, Samsung has lost its dominance in the DRAM segment, as according to newer statistics, SK hynix is now holding the lion's share.
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • ภัยอันตรายที่สุดคือพวกโหนเจ้าจริงๆนี้ล่ะ.,บ้านเมืองไม่สงบสุขทุกๆวันนี้ก็พวกนี้ด้วยมิใช่แค่ต่างชาติ,สรุปสถาบันกษัตริย์ถูกพวกนี้จับเป็นตัวประกันนั้นเอง,หรือเดอะแก๊ง2475ยึดอำนาจพระมหากษัตริย์ร่วมกับdeep stateอีลิทสากลโลก13ตระกูลหลักนั้นเอง,ควบคุมครอบงำบงการวิถีปกครองของไทยทั้งหมด ชี้นำแทรกแซงแทรกซึมวางคนของตนบนรากฐานระบบการปกครองทั้งหมด ทหาร ตำรวจ ศาล นักการเมือง นักวิชาการ ดารานักร้อง นักแสดงมันควบคุมสั่งการประสานงานให้ภาระกิจปฏิบัติการสำเร็จบรรลุผลตามคำสั่งอีลิทโลกหมดให้ได้ ตย.ชัดเจนคือสามารถืสั่งฉีดตายวัคซีนแก่คนไทยครบทุกๆคนทั่วประเทศ เชื้อโรคเดินได้ทั่วไทย ซอมบี้ตัวพ่อก็ได้ หนังเน่าผอมเละติดกระดูกเดินเข้าโรงพยาบาลเริ่มมากขึ้นเรื่อยแล้วทั่วโลก,มนุษย์แม่เหล็กคือข้อพิสูจน์ชัดหลังคนรับวัคซีนไปกราฟีนสั่งตายดีๆนี้เองบวก1,291โรคหากโฮสต์ร่างนั้นภูมิตก โรคใดๆใน1,291โรคจะทะลุเกิดแก่ร่างกายนั้นๆทันที เอดส์ มะเร็ง ซาร์สามตัวนี้คือต้องมีในวัคซีนเกือบทุกๆยี่ห้อ ปัจจุบันคนไทยตามหมู่บ้านต่างๆตายรายวันมากขึ้นเรื่อยแล้ว ไม่นับป่วยเรื้อรังเป็นจำนวนมากในหมู่คนไทยโดยเฉพาะหมอแพทย์พยาบาลทหารตำรวจจะถูกเก็บก่อนจะได้ไม่มีใครมาปกป้องประเทศรักษาคนรักษาประชาชนดูแลประชาชนนั้นๆ,ลดประชากรนี้ล่ะนอกจากมุกฆ่าสังหารผ่านสงครามแบบไทยกับเขมร ฮุนเซนรับใช้อีลิทอเมริกาdeep state agendaลดประชากรโลกตัวพ่อ คนของdeep stateจึงถูกปกป้องจำนวนมาในประเทศเขมร คนไร้ค่าไร้คุณภาพมันส่งไปเกิดใหม่หมด.

    https://youtube.com/watch?v=RVD27iSoDrQ&si=n8nMG6gtL2YWM3cl
    ภัยอันตรายที่สุดคือพวกโหนเจ้าจริงๆนี้ล่ะ.,บ้านเมืองไม่สงบสุขทุกๆวันนี้ก็พวกนี้ด้วยมิใช่แค่ต่างชาติ,สรุปสถาบันกษัตริย์ถูกพวกนี้จับเป็นตัวประกันนั้นเอง,หรือเดอะแก๊ง2475ยึดอำนาจพระมหากษัตริย์ร่วมกับdeep stateอีลิทสากลโลก13ตระกูลหลักนั้นเอง,ควบคุมครอบงำบงการวิถีปกครองของไทยทั้งหมด ชี้นำแทรกแซงแทรกซึมวางคนของตนบนรากฐานระบบการปกครองทั้งหมด ทหาร ตำรวจ ศาล นักการเมือง นักวิชาการ ดารานักร้อง นักแสดงมันควบคุมสั่งการประสานงานให้ภาระกิจปฏิบัติการสำเร็จบรรลุผลตามคำสั่งอีลิทโลกหมดให้ได้ ตย.ชัดเจนคือสามารถืสั่งฉีดตายวัคซีนแก่คนไทยครบทุกๆคนทั่วประเทศ เชื้อโรคเดินได้ทั่วไทย ซอมบี้ตัวพ่อก็ได้ หนังเน่าผอมเละติดกระดูกเดินเข้าโรงพยาบาลเริ่มมากขึ้นเรื่อยแล้วทั่วโลก,มนุษย์แม่เหล็กคือข้อพิสูจน์ชัดหลังคนรับวัคซีนไปกราฟีนสั่งตายดีๆนี้เองบวก1,291โรคหากโฮสต์ร่างนั้นภูมิตก โรคใดๆใน1,291โรคจะทะลุเกิดแก่ร่างกายนั้นๆทันที เอดส์ มะเร็ง ซาร์สามตัวนี้คือต้องมีในวัคซีนเกือบทุกๆยี่ห้อ ปัจจุบันคนไทยตามหมู่บ้านต่างๆตายรายวันมากขึ้นเรื่อยแล้ว ไม่นับป่วยเรื้อรังเป็นจำนวนมากในหมู่คนไทยโดยเฉพาะหมอแพทย์พยาบาลทหารตำรวจจะถูกเก็บก่อนจะได้ไม่มีใครมาปกป้องประเทศรักษาคนรักษาประชาชนดูแลประชาชนนั้นๆ,ลดประชากรนี้ล่ะนอกจากมุกฆ่าสังหารผ่านสงครามแบบไทยกับเขมร ฮุนเซนรับใช้อีลิทอเมริกาdeep state agendaลดประชากรโลกตัวพ่อ คนของdeep stateจึงถูกปกป้องจำนวนมาในประเทศเขมร คนไร้ค่าไร้คุณภาพมันส่งไปเกิดใหม่หมด. https://youtube.com/watch?v=RVD27iSoDrQ&si=n8nMG6gtL2YWM3cl
    0 ความคิดเห็น 0 การแบ่งปัน 267 มุมมอง 0 รีวิว
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 ความคิดเห็น 0 การแบ่งปัน 221 มุมมอง 0 รีวิว
  • https://youtu.be/2m3V-ETEqvc?si=B0WYbEKjnwPxKds4
    https://youtu.be/2m3V-ETEqvc?si=B0WYbEKjnwPxKds4
    0 ความคิดเห็น 0 การแบ่งปัน 66 มุมมอง 0 รีวิว
  • https://youtube.com/watch?v=Z4WhufcJm3U&si=7R4ZA15dwv4xppuv
    https://youtube.com/watch?v=Z4WhufcJm3U&si=7R4ZA15dwv4xppuv
    0 ความคิดเห็น 0 การแบ่งปัน 83 มุมมอง 0 รีวิว
  • https://youtu.be/SJc6y7I5_Nc?si=_10xnY8SJaM36Zfq
    https://youtu.be/SJc6y7I5_Nc?si=_10xnY8SJaM36Zfq
    0 ความคิดเห็น 0 การแบ่งปัน 139 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกเทคโนโลยี: เมื่อจอ e-paper วิ่งเร็วขึ้นเพื่อคนทำงานสายโฟกัส

    ในยุคที่จอ OLED และ IPS แข่งกันเรื่องสีสดและรีเฟรชเรตสูงเพื่อเกมเมอร์และสายบันเทิง มีอีกกลุ่มหนึ่งที่ต้องการสิ่งตรงข้าม—จอที่ไม่รบกวนสายตา ไม่เปลืองพลังงาน และไม่ดึงความสนใจเกินจำเป็น นั่นคือกลุ่มนักเขียน วิศวกร และคนทำงานที่ต้องการ “ความนิ่ง” เพื่อโฟกัส

    Modos Tech จึงเปิดตัวจอ e-paper รุ่นใหม่ในรูปแบบ dev kit ที่มีรีเฟรชเรตสูงถึง 75Hz และ latency ต่ำกว่า 100ms ซึ่งถือว่าเร็วที่สุดในโลกสำหรับจอประเภทนี้ โดยใช้ FPGA แบบเปิด (Xilinx Spartan-6) ร่วมกับหน่วยความจำ DDR3 และไมโครคอนโทรลเลอร์ STM32H750 เพื่อให้การแสดงผลทันสมัยและไม่ถูกจำกัดด้วยฮาร์ดแวร์ปิดแบบเดิม

    จอมีให้เลือกสองขนาด: 6 นิ้ว ราคา $199 และ 13.3 นิ้ว ราคา $599 เชื่อมต่อผ่าน HDMI และ USB-C ใช้งานได้กับ Windows, macOS และ Linux โดยไม่ต้องติดตั้งไดรเวอร์เพิ่มเติม

    แม้จะยังไม่รองรับสี แต่มีโหมดแสดงผลหลายระดับ เช่น binary, 4-level, 16-level grayscale และ hybrid mode ที่ปรับภาพแบบไดนามิก ซึ่งเหมาะกับงานเอกสาร เขียนโค้ด หรืออ่านข้อมูลนานๆ โดยไม่ล้าตา

    นอกจากนี้ยังมีเทคโนโลยีอื่นที่น่าสนใจ เช่น TLCD จาก HANNspree ที่ให้ภาพแบบกระดาษแต่รองรับสี 8-bit และรีเฟรชเรต 75Hz เช่นกัน หรือจอ e-paper ขนาด 75 นิ้วจาก Samsung ที่ใช้พลังงาน 0W ในการแสดงภาพนิ่ง และสามารถควบคุมผ่านแอปมือถือได้

    Modos Tech เปิดตัวจอ e-paper dev kit รีเฟรชเรต 75Hz
    ใช้ FPGA แบบเปิดเพื่อประสิทธิภาพสูงและความยืดหยุ่น
    latency ต่ำกว่า 100ms เหมาะกับงาน productivity

    มีสองขนาดให้เลือก: 6 นิ้ว ($199) และ 13.3 นิ้ว ($599)
    เชื่อมต่อผ่าน HDMI และ USB-C รองรับทุกระบบปฏิบัติการหลัก

    รองรับหลายโหมดแสดงผล: binary, 4-level, 16-level grayscale และ hybrid
    ยังไม่รองรับสี แต่มีโครงสร้างที่สามารถพัฒนาได้ในอนาคต

    เหมาะกับผู้ใช้ที่ต้องการลดการรบกวนสายตา เช่น นักเขียน วิศวกร และสาย minimal
    ลดอาการล้าตาและความเหนื่อยจากจอ backlit

    HANNspree เปิดตัวจอ TLCD ขนาด 23 นิ้ว รีเฟรชเรต 75Hz รองรับสี 8-bit
    ใช้เทคโนโลยี reflective LCD ที่ให้ภาพแบบกระดาษแต่ยังมี backlight

    Samsung เปิดตัวจอ e-paper ขนาด 75 นิ้ว สำหรับงานเชิงพาณิชย์
    ใช้พลังงาน 0W ในการแสดงภาพนิ่ง และควบคุมผ่านแอปมือถือ

    การสั่งซื้อผ่าน Crowd Supply ยังมีความเสี่ยงตามธรรมชาติของการระดมทุน
    อาจเกิดความล่าช้า ปัญหาการผลิต หรือการออกแบบที่ไม่สมบูรณ์

    จอ e-paper ยังไม่เหมาะกับงานที่ต้องการสีสดหรือภาพเคลื่อนไหวเร็ว
    ไม่เหมาะกับการเล่นเกมหรือดูวิดีโอที่ต้องการความลื่นไหลสูง

    https://www.tomshardware.com/monitors/portable-monitors/e-paper-hits-75-hz-to-better-suit-productivity-tasks-kits-in-two-screen-sizes-go-up-for-pre-order-starting-at-usd199
    📘 เรื่องเล่าจากโลกเทคโนโลยี: เมื่อจอ e-paper วิ่งเร็วขึ้นเพื่อคนทำงานสายโฟกัส ในยุคที่จอ OLED และ IPS แข่งกันเรื่องสีสดและรีเฟรชเรตสูงเพื่อเกมเมอร์และสายบันเทิง มีอีกกลุ่มหนึ่งที่ต้องการสิ่งตรงข้าม—จอที่ไม่รบกวนสายตา ไม่เปลืองพลังงาน และไม่ดึงความสนใจเกินจำเป็น นั่นคือกลุ่มนักเขียน วิศวกร และคนทำงานที่ต้องการ “ความนิ่ง” เพื่อโฟกัส Modos Tech จึงเปิดตัวจอ e-paper รุ่นใหม่ในรูปแบบ dev kit ที่มีรีเฟรชเรตสูงถึง 75Hz และ latency ต่ำกว่า 100ms ซึ่งถือว่าเร็วที่สุดในโลกสำหรับจอประเภทนี้ โดยใช้ FPGA แบบเปิด (Xilinx Spartan-6) ร่วมกับหน่วยความจำ DDR3 และไมโครคอนโทรลเลอร์ STM32H750 เพื่อให้การแสดงผลทันสมัยและไม่ถูกจำกัดด้วยฮาร์ดแวร์ปิดแบบเดิม จอมีให้เลือกสองขนาด: 6 นิ้ว ราคา $199 และ 13.3 นิ้ว ราคา $599 เชื่อมต่อผ่าน HDMI และ USB-C ใช้งานได้กับ Windows, macOS และ Linux โดยไม่ต้องติดตั้งไดรเวอร์เพิ่มเติม แม้จะยังไม่รองรับสี แต่มีโหมดแสดงผลหลายระดับ เช่น binary, 4-level, 16-level grayscale และ hybrid mode ที่ปรับภาพแบบไดนามิก ซึ่งเหมาะกับงานเอกสาร เขียนโค้ด หรืออ่านข้อมูลนานๆ โดยไม่ล้าตา นอกจากนี้ยังมีเทคโนโลยีอื่นที่น่าสนใจ เช่น TLCD จาก HANNspree ที่ให้ภาพแบบกระดาษแต่รองรับสี 8-bit และรีเฟรชเรต 75Hz เช่นกัน หรือจอ e-paper ขนาด 75 นิ้วจาก Samsung ที่ใช้พลังงาน 0W ในการแสดงภาพนิ่ง และสามารถควบคุมผ่านแอปมือถือได้ ✅ Modos Tech เปิดตัวจอ e-paper dev kit รีเฟรชเรต 75Hz ➡️ ใช้ FPGA แบบเปิดเพื่อประสิทธิภาพสูงและความยืดหยุ่น ➡️ latency ต่ำกว่า 100ms เหมาะกับงาน productivity ✅ มีสองขนาดให้เลือก: 6 นิ้ว ($199) และ 13.3 นิ้ว ($599) ➡️ เชื่อมต่อผ่าน HDMI และ USB-C รองรับทุกระบบปฏิบัติการหลัก ✅ รองรับหลายโหมดแสดงผล: binary, 4-level, 16-level grayscale และ hybrid ➡️ ยังไม่รองรับสี แต่มีโครงสร้างที่สามารถพัฒนาได้ในอนาคต ✅ เหมาะกับผู้ใช้ที่ต้องการลดการรบกวนสายตา เช่น นักเขียน วิศวกร และสาย minimal ➡️ ลดอาการล้าตาและความเหนื่อยจากจอ backlit ✅ HANNspree เปิดตัวจอ TLCD ขนาด 23 นิ้ว รีเฟรชเรต 75Hz รองรับสี 8-bit ➡️ ใช้เทคโนโลยี reflective LCD ที่ให้ภาพแบบกระดาษแต่ยังมี backlight ✅ Samsung เปิดตัวจอ e-paper ขนาด 75 นิ้ว สำหรับงานเชิงพาณิชย์ ➡️ ใช้พลังงาน 0W ในการแสดงภาพนิ่ง และควบคุมผ่านแอปมือถือ ‼️ การสั่งซื้อผ่าน Crowd Supply ยังมีความเสี่ยงตามธรรมชาติของการระดมทุน ⛔ อาจเกิดความล่าช้า ปัญหาการผลิต หรือการออกแบบที่ไม่สมบูรณ์ ‼️ จอ e-paper ยังไม่เหมาะกับงานที่ต้องการสีสดหรือภาพเคลื่อนไหวเร็ว ⛔ ไม่เหมาะกับการเล่นเกมหรือดูวิดีโอที่ต้องการความลื่นไหลสูง https://www.tomshardware.com/monitors/portable-monitors/e-paper-hits-75-hz-to-better-suit-productivity-tasks-kits-in-two-screen-sizes-go-up-for-pre-order-starting-at-usd199
    WWW.TOMSHARDWARE.COM
    E-paper hits 75 Hz to better suit productivity tasks — kits in two screen sizes go up for pre-order, starting at $199
    HDMI and USB Type-C connected 6- and 13.3-inch displays use an open-source FPGA controller for zippy performance. Orders to be delivered in Q4 2025.
    0 ความคิดเห็น 0 การแบ่งปัน 269 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: SK hynix แซง Samsung ขึ้นเป็นเบอร์หนึ่งของโลก—ชัยชนะจาก HBM ที่ขับเคลื่อน AI

    ในไตรมาส 2 ปี 2025 SK hynix สร้างประวัติศาสตร์ด้วยรายได้จากธุรกิจหน่วยความจำสูงถึง $9.66 พันล้าน แซงหน้า Samsung ที่ทำได้ $8.94 พันล้าน และครองส่วนแบ่งตลาด 36.2% เทียบกับ 33.5% ของคู่แข่ง นี่เป็นครั้งแรกที่ SK hynix ขึ้นนำตั้งแต่ก่อตั้งในปี 1983

    เบื้องหลังความสำเร็จคือการรุกเข้าสู่ตลาด High-Bandwidth Memory (HBM) อย่างรวดเร็ว โดยเฉพาะ HBM3 และ HBM3E ที่กลายเป็นหัวใจของการประมวลผล AI บน GPU ของ Nvidia เช่น B300 และ L40S

    ในขณะที่ Samsung ยังครองตลาด NAND และ DRAM แบบดั้งเดิม แต่กลับล่าช้าในการส่งมอบ HBM3E ให้ลูกค้า ทำให้เสียโอกาสในตลาดที่เติบโตเร็วที่สุดในยุค AI

    https://www.tomshardware.com/tech-industry/sk-hynix-dethrones-samsung-to-become-worlds-top-selling-memory-maker-for-the-first-time-success-mostly-attributed-to-its-hbm3-dominance-for-nvidias-ai-gpus
    🎙️ เรื่องเล่าจากข่าว: SK hynix แซง Samsung ขึ้นเป็นเบอร์หนึ่งของโลก—ชัยชนะจาก HBM ที่ขับเคลื่อน AI ในไตรมาส 2 ปี 2025 SK hynix สร้างประวัติศาสตร์ด้วยรายได้จากธุรกิจหน่วยความจำสูงถึง $9.66 พันล้าน แซงหน้า Samsung ที่ทำได้ $8.94 พันล้าน และครองส่วนแบ่งตลาด 36.2% เทียบกับ 33.5% ของคู่แข่ง นี่เป็นครั้งแรกที่ SK hynix ขึ้นนำตั้งแต่ก่อตั้งในปี 1983 เบื้องหลังความสำเร็จคือการรุกเข้าสู่ตลาด High-Bandwidth Memory (HBM) อย่างรวดเร็ว โดยเฉพาะ HBM3 และ HBM3E ที่กลายเป็นหัวใจของการประมวลผล AI บน GPU ของ Nvidia เช่น B300 และ L40S ในขณะที่ Samsung ยังครองตลาด NAND และ DRAM แบบดั้งเดิม แต่กลับล่าช้าในการส่งมอบ HBM3E ให้ลูกค้า ทำให้เสียโอกาสในตลาดที่เติบโตเร็วที่สุดในยุค AI https://www.tomshardware.com/tech-industry/sk-hynix-dethrones-samsung-to-become-worlds-top-selling-memory-maker-for-the-first-time-success-mostly-attributed-to-its-hbm3-dominance-for-nvidias-ai-gpus
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิป: จาก 4 บิตสู่ 10 ล้านล้านพารามิเตอร์

    ย้อนกลับไปปี 1971 Intel เปิดตัวชิป 4004 ซึ่งเป็นไมโครโปรเซสเซอร์ตัวแรกของโลก ด้วยความเร็วเพียง 740kHz และประมวลผลได้ 92,600 คำสั่งต่อวินาที (IPS) ใช้หน่วยความจำแค่ 4KB ROM และ 640 bytes RAM—เล็กจนเทียบไม่ได้กับมือถือยุคนี้

    แต่ในปี 2025 NVIDIA เปิดตัว Blackwell ซึ่งเป็นชิป AI ที่ทรงพลังที่สุดในโลก ด้วยพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU รองรับโมเดลขนาด 10 ล้านล้านพารามิเตอร์ และใช้เทคโนโลยี NVLink รุ่นที่ 5 ที่เชื่อมต่อ GPU ได้ถึง 576 ตัวในคลัสเตอร์เดียว

    เมื่อเปรียบเทียบกันแล้ว Blackwell มีประสิทธิภาพมากกว่า Intel 4004 ถึง 217 ล้านเท่า! นี่คือผลลัพธ์ของการพัฒนาอย่างต่อเนื่องตามกฎของ Moore’s Law และความต้องการด้าน AI ที่เติบโตแบบทวีคูณ

    Intel 4004 คือจุดเริ่มต้นของยุคไมโครโปรเซสเซอร์ในปี 1971
    ความเร็ว 740kHz, 4-bit CPU, 2,300 ทรานซิสเตอร์
    ใช้ในเครื่องคิดเลขของบริษัท Busicom

    NVIDIA Blackwell คือชิป AI ที่ทรงพลังที่สุดในปี 2025
    มี 208 พันล้านทรานซิสเตอร์
    รองรับโมเดล AI ขนาด 10 ล้านล้านพารามิเตอร์
    ใช้เทคโนโลยี NVLink 5.0 ที่มีแบนด์วิดธ์ 1.8TB/s ต่อ GPU

    Blackwell มีพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU
    ใช้หน่วยความจำ HBM3e สูงสุด 192GB
    มี Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับ AI inference

    การพัฒนาใน 50 ปีทำให้ประสิทธิภาพเพิ่มขึ้นถึง 217 ล้านเท่า
    จาก 92,600 IPS ของ 4004 สู่ระดับ ExaFLOPS ของ Blackwell
    สะท้อนความก้าวหน้าของมนุษยชาติในด้านคอมพิวเตอร์

    Blackwell ถูกนำไปใช้ในระบบ AI ของบริษัทชั้นนำทั่วโลก
    เช่น Microsoft Azure, Google DeepMind, Meta, Tesla และ OpenAI
    ใช้ในงาน LLM, quantum computing, และ data analytics

    https://wccftech.com/computing-power-has-skyrocketed-over-the-last-50-years-with-a-whopping-217-million-times-increase/
    🧠 เรื่องเล่าจากโลกชิป: จาก 4 บิตสู่ 10 ล้านล้านพารามิเตอร์ ย้อนกลับไปปี 1971 Intel เปิดตัวชิป 4004 ซึ่งเป็นไมโครโปรเซสเซอร์ตัวแรกของโลก ด้วยความเร็วเพียง 740kHz และประมวลผลได้ 92,600 คำสั่งต่อวินาที (IPS) ใช้หน่วยความจำแค่ 4KB ROM และ 640 bytes RAM—เล็กจนเทียบไม่ได้กับมือถือยุคนี้ แต่ในปี 2025 NVIDIA เปิดตัว Blackwell ซึ่งเป็นชิป AI ที่ทรงพลังที่สุดในโลก ด้วยพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU รองรับโมเดลขนาด 10 ล้านล้านพารามิเตอร์ และใช้เทคโนโลยี NVLink รุ่นที่ 5 ที่เชื่อมต่อ GPU ได้ถึง 576 ตัวในคลัสเตอร์เดียว เมื่อเปรียบเทียบกันแล้ว Blackwell มีประสิทธิภาพมากกว่า Intel 4004 ถึง 217 ล้านเท่า! นี่คือผลลัพธ์ของการพัฒนาอย่างต่อเนื่องตามกฎของ Moore’s Law และความต้องการด้าน AI ที่เติบโตแบบทวีคูณ ✅ Intel 4004 คือจุดเริ่มต้นของยุคไมโครโปรเซสเซอร์ในปี 1971 ➡️ ความเร็ว 740kHz, 4-bit CPU, 2,300 ทรานซิสเตอร์ ➡️ ใช้ในเครื่องคิดเลขของบริษัท Busicom ✅ NVIDIA Blackwell คือชิป AI ที่ทรงพลังที่สุดในปี 2025 ➡️ มี 208 พันล้านทรานซิสเตอร์ ➡️ รองรับโมเดล AI ขนาด 10 ล้านล้านพารามิเตอร์ ➡️ ใช้เทคโนโลยี NVLink 5.0 ที่มีแบนด์วิดธ์ 1.8TB/s ต่อ GPU ✅ Blackwell มีพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU ➡️ ใช้หน่วยความจำ HBM3e สูงสุด 192GB ➡️ มี Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับ AI inference ✅ การพัฒนาใน 50 ปีทำให้ประสิทธิภาพเพิ่มขึ้นถึง 217 ล้านเท่า ➡️ จาก 92,600 IPS ของ 4004 สู่ระดับ ExaFLOPS ของ Blackwell ➡️ สะท้อนความก้าวหน้าของมนุษยชาติในด้านคอมพิวเตอร์ ✅ Blackwell ถูกนำไปใช้ในระบบ AI ของบริษัทชั้นนำทั่วโลก ➡️ เช่น Microsoft Azure, Google DeepMind, Meta, Tesla และ OpenAI ➡️ ใช้ในงาน LLM, quantum computing, และ data analytics https://wccftech.com/computing-power-has-skyrocketed-over-the-last-50-years-with-a-whopping-217-million-times-increase/
    WCCFTECH.COM
    Computing Power Has Skyrocketed Over the Last 50 Years, With a Whopping 217 Million Times Increase in Performance — From the Humble Intel 4004 to Cutting-Edge NVIDIA Blackwell Chip
    The evolution of humans has been the "talk of the town," but in the computing segment, we have achieved a lot in just five decades.
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิป iPhone: จาก ARM11 สู่ A19 Pro ที่แรงกว่า MacBook

    ย้อนกลับไปปี 2007 ตอนที่ Steve Jobs เปิดตัว iPhone รุ่นแรก มันใช้ชิป ARM11 จาก Samsung ที่ทำงานที่ความเร็วเพียง 412MHz เท่านั้น แต่ในปี 2025 iPhone 17 Pro ที่กำลังจะเปิดตัว กลับใช้ชิป A19 Pro ที่มีความเร็วมากกว่า 4GHz และประสิทธิภาพสูงกว่าชิป M3 ใน MacBook Pro เสียอีก!

    การวิเคราะห์จาก PC Watch พบว่าในช่วง 17 ปีที่ผ่านมา iPhone มีประสิทธิภาพ CPU เพิ่มขึ้นถึง 385 เท่า และคาดว่า iPhone 17 Pro จะดันตัวเลขนี้ทะลุ 500 เท่า! ทั้งหมดนี้วัดจากคะแนน Geekbench ที่ใช้เปรียบเทียบความเร็วในการประมวลผลแบบ single-core และ multi-core

    Apple ยังคงยึดมั่นในดีไซน์ชิปแบบ 6-core ที่เน้นสมดุลระหว่างพลังและประสิทธิภาพ โดยไม่ตามกระแส Android ที่ใช้ 8 หรือ 10-core และผลลัพธ์ก็คือ iPhone ยังคงครองอันดับต้นๆ ในด้านประสิทธิภาพมาโดยตลอด

    iPhone CPU มีประสิทธิภาพเพิ่มขึ้น 385 เท่าตั้งแต่ปี 2007
    จาก ARM11 ความเร็ว 412MHz สู่ A19 Pro ความเร็วเกิน 4GHz
    คาดว่า iPhone 17 Pro จะดันตัวเลขนี้ทะลุ 500 เท่า

    การวิเคราะห์ใช้ข้อมูลจาก Geekbench 6 เพื่อเปรียบเทียบข้ามรุ่น
    iPhone 13 Pro Max (2021) ได้คะแนน ~5700
    iPhone 16 Pro ได้คะแนน ~8500
    iPhone 17 Pro คาดว่าจะสูงกว่านั้นอีก

    Apple ยังคงใช้โครงสร้าง CPU แบบ 6-core มาตั้งแต่ปี 2017
    ประกอบด้วย 2 คอร์ประสิทธิภาพสูง + 4 คอร์ประหยัดพลังงาน
    เน้นสมดุลระหว่างความเร็วและการใช้พลังงาน

    iPhone 16 ใช้ชิป A17 Bionic และ A18 Bionic บนสถาปัตยกรรม 3nm
    A17 Bionic ได้คะแนน Geekbench ~8100
    A18 Bionic ได้คะแนน ~8500 และมีความเร็วสัญญาณนาฬิกาเกิน 4GHz

    Apple ยังคงครองอันดับต้นๆ ในด้าน single-threaded และ multi-core performance
    แม้จะใช้คอร์น้อยกว่าคู่แข่ง Android
    แต่ยังทำคะแนนได้สูงกว่าในหลายการทดสอบ

    https://www.techradar.com/pro/next-gen-iphone-cpu-could-be-500x-more-powerful-than-the-soc-in-the-original-iphone
    📱 เรื่องเล่าจากชิป iPhone: จาก ARM11 สู่ A19 Pro ที่แรงกว่า MacBook ย้อนกลับไปปี 2007 ตอนที่ Steve Jobs เปิดตัว iPhone รุ่นแรก มันใช้ชิป ARM11 จาก Samsung ที่ทำงานที่ความเร็วเพียง 412MHz เท่านั้น แต่ในปี 2025 iPhone 17 Pro ที่กำลังจะเปิดตัว กลับใช้ชิป A19 Pro ที่มีความเร็วมากกว่า 4GHz และประสิทธิภาพสูงกว่าชิป M3 ใน MacBook Pro เสียอีก! การวิเคราะห์จาก PC Watch พบว่าในช่วง 17 ปีที่ผ่านมา iPhone มีประสิทธิภาพ CPU เพิ่มขึ้นถึง 385 เท่า และคาดว่า iPhone 17 Pro จะดันตัวเลขนี้ทะลุ 500 เท่า! ทั้งหมดนี้วัดจากคะแนน Geekbench ที่ใช้เปรียบเทียบความเร็วในการประมวลผลแบบ single-core และ multi-core Apple ยังคงยึดมั่นในดีไซน์ชิปแบบ 6-core ที่เน้นสมดุลระหว่างพลังและประสิทธิภาพ โดยไม่ตามกระแส Android ที่ใช้ 8 หรือ 10-core และผลลัพธ์ก็คือ iPhone ยังคงครองอันดับต้นๆ ในด้านประสิทธิภาพมาโดยตลอด ✅ iPhone CPU มีประสิทธิภาพเพิ่มขึ้น 385 เท่าตั้งแต่ปี 2007 ➡️ จาก ARM11 ความเร็ว 412MHz สู่ A19 Pro ความเร็วเกิน 4GHz ➡️ คาดว่า iPhone 17 Pro จะดันตัวเลขนี้ทะลุ 500 เท่า ✅ การวิเคราะห์ใช้ข้อมูลจาก Geekbench 6 เพื่อเปรียบเทียบข้ามรุ่น ➡️ iPhone 13 Pro Max (2021) ได้คะแนน ~5700 ➡️ iPhone 16 Pro ได้คะแนน ~8500 ➡️ iPhone 17 Pro คาดว่าจะสูงกว่านั้นอีก ✅ Apple ยังคงใช้โครงสร้าง CPU แบบ 6-core มาตั้งแต่ปี 2017 ➡️ ประกอบด้วย 2 คอร์ประสิทธิภาพสูง + 4 คอร์ประหยัดพลังงาน ➡️ เน้นสมดุลระหว่างความเร็วและการใช้พลังงาน ✅ iPhone 16 ใช้ชิป A17 Bionic และ A18 Bionic บนสถาปัตยกรรม 3nm ➡️ A17 Bionic ได้คะแนน Geekbench ~8100 ➡️ A18 Bionic ได้คะแนน ~8500 และมีความเร็วสัญญาณนาฬิกาเกิน 4GHz ✅ Apple ยังคงครองอันดับต้นๆ ในด้าน single-threaded และ multi-core performance ➡️ แม้จะใช้คอร์น้อยกว่าคู่แข่ง Android ➡️ แต่ยังทำคะแนนได้สูงกว่าในหลายการทดสอบ https://www.techradar.com/pro/next-gen-iphone-cpu-could-be-500x-more-powerful-than-the-soc-in-the-original-iphone
    0 ความคิดเห็น 0 การแบ่งปัน 210 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 ความคิดเห็น 0 การแบ่งปัน 264 มุมมอง 0 รีวิว
  • https://youtube.com/shorts/4WkTGYnKctA?si=1JiHPM324Y-2qQrE
    https://youtube.com/shorts/4WkTGYnKctA?si=1JiHPM324Y-2qQrE
    0 ความคิดเห็น 0 การแบ่งปัน 79 มุมมอง 0 รีวิว
  • https://youtube.com/shorts/8GlHnjSo6sE?si=EL6jm3HPVauGwUjR
    https://youtube.com/shorts/8GlHnjSo6sE?si=EL6jm3HPVauGwUjR
    0 ความคิดเห็น 0 การแบ่งปัน 61 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา

    ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์

    ExpertCenter Pro ET900N G3 มีจุดเด่นคือ:
    - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra
    - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI
    - พลังประมวลผลสูงถึง 20 PFLOPS
    - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s)

    นอกจากนี้ยังมีความสามารถในการขยาย:
    - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม
    - M.2 SSD 3 ช่อง
    - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU

    แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่

    Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra
    เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS

    ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference

    ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra
    เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025

    รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s
    เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง

    มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง
    รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล

    ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU
    ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง

    Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation
    ไม่จำกัดเฉพาะ DGX อีกต่อไป

    Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว
    ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack

    https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    🎙️ เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์ ExpertCenter Pro ET900N G3 มีจุดเด่นคือ: - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI - พลังประมวลผลสูงถึง 20 PFLOPS - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s) นอกจากนี้ยังมีความสามารถในการขยาย: - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม - M.2 SSD 3 ช่อง - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่ ✅ Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra ➡️ เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS ✅ ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB ➡️ รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference ✅ ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra ➡️ เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025 ✅ รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s ➡️ เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง ✅ มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง ➡️ รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล ✅ ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU ➡️ ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง ✅ Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation ➡️ ไม่จำกัดเฉพาะ DGX อีกต่อไป ✅ Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว ➡️ ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • https://youtu.be/C_kz_1hMNHM?si=TVnm3yFTF_sAzR5P
    https://youtu.be/C_kz_1hMNHM?si=TVnm3yFTF_sAzR5P
    0 ความคิดเห็น 0 การแบ่งปัน 64 มุมมอง 0 รีวิว
  • ..ถ้าเป็นข่าวจริงนะ แสดงว่าเปิดหน้าชัดเจนในการทำลายขวัญกำลังใจทหาร ถือว่ารัฐบาลคือพรรคแกนนำและพรรคร่วมรัฐบาลเป็นภัยคุกคามอธิปไตยชาติไทยตนเอง,ไม่ต่างจากคลิปนายกฯที่พักงาน ว่าทหารไทยคือฝ่ายตรงข้ามเรา,เปลี่ยนรัฐบาลทันทีเถอะและจริงๆต้องเปลี่ยนทันทีตั้งแต่นากยฯถูกศาลตัดสินให้พักงานแล้ว,อดีตเสมือนสิ้นสถานะแล้ว ถือว่าศาลเมตตามากๆ,จริงๆมันชัดเจนว่าทั้งรัฐบาลต้องไปหมด,มันคือภัยแผ่นดินไทยชัดเจนในบริบทมากมายหลากหลายนัยยะ,น่าเบื่อหน่ายการปกครองเรามากๆ,เพราะไม่สามารถจัดการคนชั่วเลวบนแผ่นดินไทยเรานี้ให้เด็ดขาดไม่ได้เลย,ตรงกันข้ามกลับเพาะเลี้ยงบำรุงรักษาไว้ให้ดีให้มั่นคง.อนาถสิ้นดีจริงๆ.

    https://youtube.com/shorts/DfiiubZ16Ag?si=EEI0pQor8LM3ebzG
    ..ถ้าเป็นข่าวจริงนะ แสดงว่าเปิดหน้าชัดเจนในการทำลายขวัญกำลังใจทหาร ถือว่ารัฐบาลคือพรรคแกนนำและพรรคร่วมรัฐบาลเป็นภัยคุกคามอธิปไตยชาติไทยตนเอง,ไม่ต่างจากคลิปนายกฯที่พักงาน ว่าทหารไทยคือฝ่ายตรงข้ามเรา,เปลี่ยนรัฐบาลทันทีเถอะและจริงๆต้องเปลี่ยนทันทีตั้งแต่นากยฯถูกศาลตัดสินให้พักงานแล้ว,อดีตเสมือนสิ้นสถานะแล้ว ถือว่าศาลเมตตามากๆ,จริงๆมันชัดเจนว่าทั้งรัฐบาลต้องไปหมด,มันคือภัยแผ่นดินไทยชัดเจนในบริบทมากมายหลากหลายนัยยะ,น่าเบื่อหน่ายการปกครองเรามากๆ,เพราะไม่สามารถจัดการคนชั่วเลวบนแผ่นดินไทยเรานี้ให้เด็ดขาดไม่ได้เลย,ตรงกันข้ามกลับเพาะเลี้ยงบำรุงรักษาไว้ให้ดีให้มั่นคง.อนาถสิ้นดีจริงๆ. https://youtube.com/shorts/DfiiubZ16Ag?si=EEI0pQor8LM3ebzG
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่

    7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น:
    - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA)
    - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3
    - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference
    - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น
    - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้
    - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n

    DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache
    ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง
    MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement
    ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference

    DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers
    ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน
    การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย
    หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert

    OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block
    ช่วยเสถียรภาพในการฝึกและลด loss
    QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง
    ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน

    Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ
    ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น
    Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป
    เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่

    Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก
    แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ
    Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก
    ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก

    Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม
    ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3

    Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense)
    Active parameter มีแค่ 17B แม้ model จะมี 400B

    Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B
    รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน

    SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย
    แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน
    การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ
    เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา

    https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    🎙️ เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่ 7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น: - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA) - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3 - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้ - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n ✅ DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache ➡️ ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง ‼️ MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement ⛔ ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference ✅ DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers ➡️ ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน ‼️ การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย ⛔ หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert ✅ OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block ➡️ ช่วยเสถียรภาพในการฝึกและลด loss ‼️ QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง ⛔ ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน ✅ Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ ➡️ ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น ‼️ Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป ⛔ เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่ ✅ Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก ➡️ แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ ‼️ Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก ⛔ ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก ✅ Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม ➡️ ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3 ✅ Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense) ➡️ Active parameter มีแค่ 17B แม้ model จะมี 400B ✅ Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B ➡️ รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน ✅ SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย ➡️ แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน ‼️ การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ ⛔ เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    MAGAZINE.SEBASTIANRASCHKA.COM
    The Big LLM Architecture Comparison
    From DeepSeek-V3 to Kimi K2: A Look At Modern LLM Architecture Design
    0 ความคิดเห็น 0 การแบ่งปัน 294 มุมมอง 0 รีวิว
  • CPU ที่ลุงรอ !! ออกเมื่อไหร่ ลุงพร้อมย้ายจาก x64 ไป Arm64 ทันที

    เรื่องเล่าจากโลกชิป: Nvidia กับความฝัน Arm CPU ที่สะดุดกลางทาง

    Nvidia มีแผนจะเปิดตัวชิป CPU สถาปัตยกรรม Arm รุ่นแรกของบริษัทในชื่อ N1x เพื่อแข่งขันกับ Snapdragon X Elite, Intel Core Ultra 200HX, Apple M3 และ AMD Ryzen AI Max โดยชิปนี้ถูกออกแบบมาเพื่อใช้งานใน AI PC และอุปกรณ์พกพาที่เน้นประสิทธิภาพสูง

    แต่ล่าสุดมีรายงานจาก SemiAccurate ว่าทีมวิศวกรของ Nvidia พบปัญหาด้านฮาร์ดแวร์ที่ร้ายแรงใน N1x ซึ่งอาจต้องเปลี่ยนแปลงการออกแบบซิลิคอนใหม่ทั้งหมด ส่งผลให้การเปิดตัวและการจัดส่งต้องเลื่อนออกไปเป็นปี 2026

    ก่อนหน้านี้ Nvidia เคยอ้างว่า N1 และ N1x เข้าสู่การผลิตเต็มรูปแบบแล้ว และมีตัวอย่างชิปปรากฏในฐานข้อมูล Geekbench พร้อมคะแนนที่น่าประทับใจ แต่ข้อมูลล่าสุดทำให้คำกล่าวนั้นดู “มองโลกในแง่ดีเกินไป”

    แม้จะมีอุปสรรค แต่โปรเจกต์ N1 ยังได้รับความสนใจจากวงการ และมีพันธมิตรร่วมพัฒนา เช่น MediaTek และอาจรวมถึง Alienware สำหรับโน้ตบุ๊กเกมที่ใช้ CPU Arm คู่กับ GPU GeForce

    อย่างไรก็ตาม นักวิเคราะห์บางรายตั้งคำถามว่า การผลักดัน Arm ในตลาด PC แบบดั้งเดิมอาจไม่ใช่ทางเลือกที่เหมาะนัก เพราะ x86 ยังพัฒนาอย่างต่อเนื่องและครองตลาดอยู่

    Nvidia พบปัญหาฮาร์ดแวร์ในชิป N1x ที่อาจต้องออกแบบซิลิคอนใหม่
    ส่งผลให้เลื่อนเปิดตัวและจัดส่งไปเป็นปี 2026

    ก่อนหน้านี้มีตัวอย่าง N1x ปรากฏใน Geekbench พร้อมคะแนนดี
    แสดงศักยภาพในการแข่งขันกับชิประดับสูงในตลาด

    N1x เป็นชิป Arm ที่ออกแบบมาเพื่อ AI PC และอุปกรณ์พกพา
    ตั้งเป้าแข่งขันกับ Snapdragon X Elite, Apple M3, Intel Core Ultra และ AMD Ryzen AI Max

    Nvidia มีพันธมิตรเช่น MediaTek และอาจร่วมมือกับ Alienware
    เพื่อผลิตโน้ตบุ๊กเกมที่ใช้ CPU Arm คู่กับ GPU GeForce

    โปรเจกต์ N1 ยังได้รับความสนใจจากวงการแม้มีอุปสรรค
    สะท้อนความมุ่งมั่นของ Nvidia ในการเข้าสู่ตลาด CPU

    https://www.techspot.com/news/108679-nvidia-arm-cpu-dream-hits-hardware-wall-debut.html
    CPU ที่ลุงรอ !! ออกเมื่อไหร่ ลุงพร้อมย้ายจาก x64 ไป Arm64 ทันที 🎙️ เรื่องเล่าจากโลกชิป: Nvidia กับความฝัน Arm CPU ที่สะดุดกลางทาง Nvidia มีแผนจะเปิดตัวชิป CPU สถาปัตยกรรม Arm รุ่นแรกของบริษัทในชื่อ N1x เพื่อแข่งขันกับ Snapdragon X Elite, Intel Core Ultra 200HX, Apple M3 และ AMD Ryzen AI Max โดยชิปนี้ถูกออกแบบมาเพื่อใช้งานใน AI PC และอุปกรณ์พกพาที่เน้นประสิทธิภาพสูง แต่ล่าสุดมีรายงานจาก SemiAccurate ว่าทีมวิศวกรของ Nvidia พบปัญหาด้านฮาร์ดแวร์ที่ร้ายแรงใน N1x ซึ่งอาจต้องเปลี่ยนแปลงการออกแบบซิลิคอนใหม่ทั้งหมด ส่งผลให้การเปิดตัวและการจัดส่งต้องเลื่อนออกไปเป็นปี 2026 ก่อนหน้านี้ Nvidia เคยอ้างว่า N1 และ N1x เข้าสู่การผลิตเต็มรูปแบบแล้ว และมีตัวอย่างชิปปรากฏในฐานข้อมูล Geekbench พร้อมคะแนนที่น่าประทับใจ แต่ข้อมูลล่าสุดทำให้คำกล่าวนั้นดู “มองโลกในแง่ดีเกินไป” แม้จะมีอุปสรรค แต่โปรเจกต์ N1 ยังได้รับความสนใจจากวงการ และมีพันธมิตรร่วมพัฒนา เช่น MediaTek และอาจรวมถึง Alienware สำหรับโน้ตบุ๊กเกมที่ใช้ CPU Arm คู่กับ GPU GeForce อย่างไรก็ตาม นักวิเคราะห์บางรายตั้งคำถามว่า การผลักดัน Arm ในตลาด PC แบบดั้งเดิมอาจไม่ใช่ทางเลือกที่เหมาะนัก เพราะ x86 ยังพัฒนาอย่างต่อเนื่องและครองตลาดอยู่ ✅ Nvidia พบปัญหาฮาร์ดแวร์ในชิป N1x ที่อาจต้องออกแบบซิลิคอนใหม่ ➡️ ส่งผลให้เลื่อนเปิดตัวและจัดส่งไปเป็นปี 2026 ✅ ก่อนหน้านี้มีตัวอย่าง N1x ปรากฏใน Geekbench พร้อมคะแนนดี ➡️ แสดงศักยภาพในการแข่งขันกับชิประดับสูงในตลาด ✅ N1x เป็นชิป Arm ที่ออกแบบมาเพื่อ AI PC และอุปกรณ์พกพา ➡️ ตั้งเป้าแข่งขันกับ Snapdragon X Elite, Apple M3, Intel Core Ultra และ AMD Ryzen AI Max ✅ Nvidia มีพันธมิตรเช่น MediaTek และอาจร่วมมือกับ Alienware ➡️ เพื่อผลิตโน้ตบุ๊กเกมที่ใช้ CPU Arm คู่กับ GPU GeForce ✅ โปรเจกต์ N1 ยังได้รับความสนใจจากวงการแม้มีอุปสรรค ➡️ สะท้อนความมุ่งมั่นของ Nvidia ในการเข้าสู่ตลาด CPU https://www.techspot.com/news/108679-nvidia-arm-cpu-dream-hits-hardware-wall-debut.html
    WWW.TECHSPOT.COM
    Nvidia's Arm CPU dream hits a hardware wall, debut pushed to 2026
    Nvidia has encountered a new hardware problem with its much-anticipated N1x Arm CPU, and this time it is a major one. According to multiple industry sources cited...
    0 ความคิดเห็น 0 การแบ่งปัน 328 มุมมอง 0 รีวิว
  • บทเรียน แตกแยก แล้วปกครอง
    https://youtu.be/rXTT5XyYz94?si=m30h9ZuJ1jrCgrrK
    บทเรียน แตกแยก แล้วปกครอง https://youtu.be/rXTT5XyYz94?si=m30h9ZuJ1jrCgrrK
    0 ความคิดเห็น 0 การแบ่งปัน 142 มุมมอง 0 รีวิว
Pages Boosts