• เรื่องเล่าจากข่าว: เมื่อ Intel ตัดสินใจ “ตัดแขน” เพื่อรักษาหัวใจ

    ลองจินตนาการว่าคุณเป็นบริษัทที่เคยครองโลกด้านชิป PC แต่วันนี้ยอดขายตกต่ำ กำไรหาย และคู่แข่งอย่าง NVIDIA กับ AMD กำลังแซงหน้า — คุณจะทำยังไง?

    Intel ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan เลือกใช้วิธี “ตัดส่วนที่ไม่ใช่หัวใจ” เพื่อรักษาแกนหลักของธุรกิจ โดยล่าสุดประกาศแยกธุรกิจเครือข่ายและการสื่อสาร (Network & Edge Group หรือ NEX) ออกเป็นบริษัทอิสระ พร้อมเปิดรับนักลงทุนภายนอก

    NEX เคยสร้างรายได้ถึง $5.8 พันล้านในปี 2024 หรือประมาณ 11% ของรายได้รวมของ Intel แต่ถูกมองว่าไม่ใช่ “แกนหลัก” ในยุคที่ AI และชิป PC กลับมาเป็นจุดแข็งที่ต้องเร่งฟื้นฟู

    Intel จะยังคงถือหุ้นบางส่วนในบริษัทใหม่ เพื่อเก็บเกี่ยวผลตอบแทนในอนาคต แต่จะไม่บริหารโดยตรงอีกต่อไป

    Intel เตรียมแยกธุรกิจเครือข่ายและการสื่อสารออกเป็นบริษัทอิสระ
    หน่วยงาน NEX เคยสร้างรายได้ $5.8 พันล้านในปี 2024
    คิดเป็น 11% ของรายได้รวมของ Intel

    CEO Lip-Bu Tan ใช้กลยุทธ์ “Back to Core”
    เน้นธุรกิจหลักคือชิป PC และศูนย์ข้อมูล
    ลดการลงทุนในธุรกิจที่ไม่ใช่แกนหลัก เช่น telecom infrastructure

    Intel จะยังคงเป็น “ผู้ลงทุนหลัก” ในบริษัทใหม่
    คล้ายกับกรณีขายหุ้น Altera ให้ Silver Lake
    เปิดรับนักลงทุนภายนอกเพื่อเร่งการเติบโต

    เป้าหมายคือการฟื้นฟูกำไรและลดต้นทุน
    Intel ขาดทุนต่อเนื่อง 6 ไตรมาส รวม $1.25 พันล้านในไตรมาสล่าสุด
    มีแผนลดค่าใช้จ่าย $10 พันล้าน และปลดพนักงาน 20,000 คน

    การแยก NEX จะช่วยให้ Intel โฟกัสกับ AI และโรงงานผลิตชิป
    เงินที่ได้จะนำไปลงทุนในโรงงานที่โอไฮโอและ R&D ด้าน AI
    ตั้งเป้าให้ธุรกิจ foundry มีกำไรภายในปี 2030

    บริษัทใหม่จะเน้น Ethernet, edge security และ AI networking
    แข่งกับ Broadcom, Marvell, AMD และ NVIDIA
    มีอิสระในการตัดสินใจและนวัตกรรมเร็วขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/07/26/intel-to-separate-networking-unit-as-new-ceo-tan-overhauls-business
    🧠 เรื่องเล่าจากข่าว: เมื่อ Intel ตัดสินใจ “ตัดแขน” เพื่อรักษาหัวใจ ลองจินตนาการว่าคุณเป็นบริษัทที่เคยครองโลกด้านชิป PC แต่วันนี้ยอดขายตกต่ำ กำไรหาย และคู่แข่งอย่าง NVIDIA กับ AMD กำลังแซงหน้า — คุณจะทำยังไง? Intel ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan เลือกใช้วิธี “ตัดส่วนที่ไม่ใช่หัวใจ” เพื่อรักษาแกนหลักของธุรกิจ โดยล่าสุดประกาศแยกธุรกิจเครือข่ายและการสื่อสาร (Network & Edge Group หรือ NEX) ออกเป็นบริษัทอิสระ พร้อมเปิดรับนักลงทุนภายนอก NEX เคยสร้างรายได้ถึง $5.8 พันล้านในปี 2024 หรือประมาณ 11% ของรายได้รวมของ Intel แต่ถูกมองว่าไม่ใช่ “แกนหลัก” ในยุคที่ AI และชิป PC กลับมาเป็นจุดแข็งที่ต้องเร่งฟื้นฟู Intel จะยังคงถือหุ้นบางส่วนในบริษัทใหม่ เพื่อเก็บเกี่ยวผลตอบแทนในอนาคต แต่จะไม่บริหารโดยตรงอีกต่อไป ✅ Intel เตรียมแยกธุรกิจเครือข่ายและการสื่อสารออกเป็นบริษัทอิสระ ➡️ หน่วยงาน NEX เคยสร้างรายได้ $5.8 พันล้านในปี 2024 ➡️ คิดเป็น 11% ของรายได้รวมของ Intel ✅ CEO Lip-Bu Tan ใช้กลยุทธ์ “Back to Core” ➡️ เน้นธุรกิจหลักคือชิป PC และศูนย์ข้อมูล ➡️ ลดการลงทุนในธุรกิจที่ไม่ใช่แกนหลัก เช่น telecom infrastructure ✅ Intel จะยังคงเป็น “ผู้ลงทุนหลัก” ในบริษัทใหม่ ➡️ คล้ายกับกรณีขายหุ้น Altera ให้ Silver Lake ➡️ เปิดรับนักลงทุนภายนอกเพื่อเร่งการเติบโต ✅ เป้าหมายคือการฟื้นฟูกำไรและลดต้นทุน ➡️ Intel ขาดทุนต่อเนื่อง 6 ไตรมาส รวม $1.25 พันล้านในไตรมาสล่าสุด ➡️ มีแผนลดค่าใช้จ่าย $10 พันล้าน และปลดพนักงาน 20,000 คน ✅ การแยก NEX จะช่วยให้ Intel โฟกัสกับ AI และโรงงานผลิตชิป ➡️ เงินที่ได้จะนำไปลงทุนในโรงงานที่โอไฮโอและ R&D ด้าน AI ➡️ ตั้งเป้าให้ธุรกิจ foundry มีกำไรภายในปี 2030 ✅ บริษัทใหม่จะเน้น Ethernet, edge security และ AI networking ➡️ แข่งกับ Broadcom, Marvell, AMD และ NVIDIA ➡️ มีอิสระในการตัดสินใจและนวัตกรรมเร็วขึ้น https://www.thestar.com.my/tech/tech-news/2025/07/26/intel-to-separate-networking-unit-as-new-ceo-tan-overhauls-business
    WWW.THESTAR.COM.MY
    Intel to separate networking unit as new CEO Tan overhauls business
    (Reuters) -Intel is planning to separate its networking and communications unit into a stand-alone company and has begun the process of identifying investors, the chipmaker said on Friday, as new CEO Lip-Bu Tan looks to streamline its operations.
    0 ความคิดเห็น 0 การแบ่งปัน 50 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: AMD กลับมาท้าชน NVIDIA ด้วย “RX 10090 XT” สุดโหด
    หลังจากปล่อยให้ NVIDIA ครองบัลลังก์ GPU ระดับไฮเอนด์มาหลายปี AMD ก็เหมือนจะ “ถอย” ไปเน้นตลาดกลาง แต่ล่าสุดมีข่าวหลุดว่า AMD เตรียมเปิดตัว GPU รุ่นใหม่ในสถาปัตยกรรม RDNA 5 ที่อาจใช้ชื่อว่า Radeon RX 10090 XT — และมันดู “โหด” จนหลายคนคิดว่าอาจเป็นคู่แข่งตัวจริงของ NVIDIA RTX 6090 ที่กำลังจะมา!

    เจ้า RX 10090 XT นี้มีสเปกที่น่าตื่นตาตื่นใจ:
    - 154 Compute Units
    - 36GB GDDR7 VRAM บนบัส 384-bit
    - Bandwidth สูงถึง 1.728 TB/s
    - TDP อยู่ที่ 380W

    ทั้งหมดนี้ถูกสร้างบนเทคโนโลยี TSMC 3nm และคาดว่าจะเปิดตัวช่วงปี 2026–2027 ซึ่งเป็นช่วงเดียวกับที่ NVIDIA จะเปิดตัว RTX 6090 เช่นกัน

    แม้จะยังไม่มีการยืนยันอย่างเป็นทางการ แต่การกลับมาของ AMD ในตลาดไฮเอนด์ครั้งนี้อาจเป็นจุดเปลี่ยนสำคัญของวงการ GPU ที่กำลังขาดการแข่งขันอย่างแท้จริง

    AMD เตรียมเปิดตัว GPU RDNA 5 รุ่นไฮเอนด์
    ใช้ชื่อชั่วคราวว่า Radeon RX 10090 XT
    ตั้งเป้าแข่งขันกับ NVIDIA RTX 6090

    สเปกที่หลุดออกมานั้นทรงพลังมาก
    154 Compute Units
    36GB GDDR7 VRAM ความเร็ว 36Gbps
    บัส 384-bit และ Bandwidth 1.728 TB/s
    ใช้พลังงาน 380W

    ใช้เทคโนโลยีการผลิตระดับสูง
    ผลิตบนกระบวนการ TSMC 3nm
    คาดว่าจะมีประสิทธิภาพต่อวัตต์ดีขึ้นจาก RDNA 4

    วางแผนเปิดตัวระหว่างปี 2026–2027
    อาจเปิดตัวพร้อมกับ RTX 6090 ของ NVIDIA
    เป็นการกลับเข้าสู่ตลาดไฮเอนด์ของ AMD อีกครั้ง

    อาจเป็นจุดเปลี่ยนของการแข่งขันในตลาด GPU
    NVIDIA ครองตลาดไฮเอนด์มานานโดยไม่มีคู่แข่งที่สูสี
    การกลับมาของ AMD อาจช่วยลดราคาตลาดและเพิ่มทางเลือกให้ผู้บริโภค

    https://www.techradar.com/computing/gpu/amd-isnt-giving-up-on-high-end-gpus-a-new-leak-hints-at-a-new-radeon-gpu-challenging-nvidias-next-gen-flagship-graphics-card
    🧠 เรื่องเล่าจากข่าว: AMD กลับมาท้าชน NVIDIA ด้วย “RX 10090 XT” สุดโหด หลังจากปล่อยให้ NVIDIA ครองบัลลังก์ GPU ระดับไฮเอนด์มาหลายปี AMD ก็เหมือนจะ “ถอย” ไปเน้นตลาดกลาง แต่ล่าสุดมีข่าวหลุดว่า AMD เตรียมเปิดตัว GPU รุ่นใหม่ในสถาปัตยกรรม RDNA 5 ที่อาจใช้ชื่อว่า Radeon RX 10090 XT — และมันดู “โหด” จนหลายคนคิดว่าอาจเป็นคู่แข่งตัวจริงของ NVIDIA RTX 6090 ที่กำลังจะมา! เจ้า RX 10090 XT นี้มีสเปกที่น่าตื่นตาตื่นใจ: - 154 Compute Units - 36GB GDDR7 VRAM บนบัส 384-bit - Bandwidth สูงถึง 1.728 TB/s - TDP อยู่ที่ 380W ทั้งหมดนี้ถูกสร้างบนเทคโนโลยี TSMC 3nm และคาดว่าจะเปิดตัวช่วงปี 2026–2027 ซึ่งเป็นช่วงเดียวกับที่ NVIDIA จะเปิดตัว RTX 6090 เช่นกัน แม้จะยังไม่มีการยืนยันอย่างเป็นทางการ แต่การกลับมาของ AMD ในตลาดไฮเอนด์ครั้งนี้อาจเป็นจุดเปลี่ยนสำคัญของวงการ GPU ที่กำลังขาดการแข่งขันอย่างแท้จริง ✅ AMD เตรียมเปิดตัว GPU RDNA 5 รุ่นไฮเอนด์ ➡️ ใช้ชื่อชั่วคราวว่า Radeon RX 10090 XT ➡️ ตั้งเป้าแข่งขันกับ NVIDIA RTX 6090 ✅ สเปกที่หลุดออกมานั้นทรงพลังมาก ➡️ 154 Compute Units ➡️ 36GB GDDR7 VRAM ความเร็ว 36Gbps ➡️ บัส 384-bit และ Bandwidth 1.728 TB/s ➡️ ใช้พลังงาน 380W ✅ ใช้เทคโนโลยีการผลิตระดับสูง ➡️ ผลิตบนกระบวนการ TSMC 3nm ➡️ คาดว่าจะมีประสิทธิภาพต่อวัตต์ดีขึ้นจาก RDNA 4 ✅ วางแผนเปิดตัวระหว่างปี 2026–2027 ➡️ อาจเปิดตัวพร้อมกับ RTX 6090 ของ NVIDIA ➡️ เป็นการกลับเข้าสู่ตลาดไฮเอนด์ของ AMD อีกครั้ง ✅ อาจเป็นจุดเปลี่ยนของการแข่งขันในตลาด GPU ➡️ NVIDIA ครองตลาดไฮเอนด์มานานโดยไม่มีคู่แข่งที่สูสี ➡️ การกลับมาของ AMD อาจช่วยลดราคาตลาดและเพิ่มทางเลือกให้ผู้บริโภค https://www.techradar.com/computing/gpu/amd-isnt-giving-up-on-high-end-gpus-a-new-leak-hints-at-a-new-radeon-gpu-challenging-nvidias-next-gen-flagship-graphics-card
    0 ความคิดเห็น 0 การแบ่งปัน 38 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: เมื่อ “ซ่อมชิป” กลายเป็นธุรกิจทองคำในจีน

    ลองจินตนาการว่าคุณมีชิป AI ระดับเทพอย่าง NVIDIA H100 หรือ A100 ที่ถูกใช้งานหนักมาหลายปีในศูนย์ข้อมูล แต่ไม่สามารถส่งซ่อมกับผู้ผลิตได้ เพราะมันเป็น “สินค้าต้องห้าม” จากการแบนของสหรัฐฯ แล้วจะทำยังไง?

    คำตอบคือ: ส่งไปซ่อมใน “อู่ลับ” ที่จีน!

    แม้ชิปเหล่านี้จะถูกแบนไม่ให้ขายในจีนตั้งแต่ปี 2022 แต่กลับมีธุรกิจซ่อมชิป AI เกิดขึ้นอย่างคึกคัก โดยเฉพาะในเมืองเซินเจิ้น มีบริษัทเล็ก ๆ กว่า 12 แห่งที่รับซ่อมชิป H100 และ A100 แบบเต็มรูปแบบ ทั้งตรวจสอบ ซ่อมพัดลม เปลี่ยนแผงวงจร และทดสอบในสภาพแวดล้อมจำลองศูนย์ข้อมูล

    บางแห่งซ่อมได้ถึง 500 ชิปต่อเดือน และคิดค่าบริการสูงถึง $2,800 ต่อชิ้น ซึ่งยังถูกกว่าการซื้อชิปใหม่ที่ราคาสูงถึง $50,000 ต่อชิ้นในตลาดมืด

    แม้ NVIDIA จะออกชิป H20 รุ่นลดสเปกเพื่อขายในจีน แต่ก็ยังไม่ตอบโจทย์การฝึกโมเดล AI ขนาดใหญ่ ทำให้หลายบริษัทเลือกใช้ชิปเก่าแบบ “ซ่อมแล้วใช้ต่อ” แทน

    ธุรกิจซ่อมชิป AI NVIDIA ในจีนเติบโตอย่างรวดเร็ว
    มีบริษัทกว่า 12 แห่งในเซินเจิ้นรับซ่อมชิป H100 และ A100
    บางแห่งซ่อมได้ถึง 500 ชิ้นต่อเดือน

    บริการซ่อมครอบคลุมหลายด้าน
    ตรวจสอบซอฟต์แวร์ ซ่อมพัดลม แก้ไขแผงวงจร
    ทดสอบในห้องที่จำลองศูนย์ข้อมูลจริง

    ราคาซ่อมอยู่ที่ $1,400–$2,800 ต่อชิ้น
    ถูกกว่าการซื้อใหม่ที่อาจสูงถึง $50,000 ต่อชิ้น
    บางบริษัทคิดค่าซ่อมประมาณ 10% ของราคาชิปเดิม

    ชิป H100 และ A100 ยังเป็นที่ต้องการสูง
    ใช้ในการฝึกโมเดล AI ขนาดใหญ่
    แม้จะมีรุ่น H20 ที่ถูกกว่า แต่ยังไม่ตอบโจทย์ด้านประสิทธิภาพ

    อายุการใช้งานชิปอยู่ที่ 2–5 ปี
    การใช้งานหนักตลอด 24/7 ทำให้ชิปเสื่อมเร็ว
    การซ่อมช่วยยืดอายุการใช้งานได้อีกหลายเดือนหรือปี

    https://wccftech.com/chinas-gpu-repair-business-is-booming-right-now-as-the-illegally-acquired-nvidia-chips-are-being-repaired-in-shocking-numbers/
    🧠 เรื่องเล่าจากข่าว: เมื่อ “ซ่อมชิป” กลายเป็นธุรกิจทองคำในจีน ลองจินตนาการว่าคุณมีชิป AI ระดับเทพอย่าง NVIDIA H100 หรือ A100 ที่ถูกใช้งานหนักมาหลายปีในศูนย์ข้อมูล แต่ไม่สามารถส่งซ่อมกับผู้ผลิตได้ เพราะมันเป็น “สินค้าต้องห้าม” จากการแบนของสหรัฐฯ แล้วจะทำยังไง? คำตอบคือ: ส่งไปซ่อมใน “อู่ลับ” ที่จีน! แม้ชิปเหล่านี้จะถูกแบนไม่ให้ขายในจีนตั้งแต่ปี 2022 แต่กลับมีธุรกิจซ่อมชิป AI เกิดขึ้นอย่างคึกคัก โดยเฉพาะในเมืองเซินเจิ้น มีบริษัทเล็ก ๆ กว่า 12 แห่งที่รับซ่อมชิป H100 และ A100 แบบเต็มรูปแบบ ทั้งตรวจสอบ ซ่อมพัดลม เปลี่ยนแผงวงจร และทดสอบในสภาพแวดล้อมจำลองศูนย์ข้อมูล บางแห่งซ่อมได้ถึง 500 ชิปต่อเดือน และคิดค่าบริการสูงถึง $2,800 ต่อชิ้น ซึ่งยังถูกกว่าการซื้อชิปใหม่ที่ราคาสูงถึง $50,000 ต่อชิ้นในตลาดมืด แม้ NVIDIA จะออกชิป H20 รุ่นลดสเปกเพื่อขายในจีน แต่ก็ยังไม่ตอบโจทย์การฝึกโมเดล AI ขนาดใหญ่ ทำให้หลายบริษัทเลือกใช้ชิปเก่าแบบ “ซ่อมแล้วใช้ต่อ” แทน ✅ ธุรกิจซ่อมชิป AI NVIDIA ในจีนเติบโตอย่างรวดเร็ว ➡️ มีบริษัทกว่า 12 แห่งในเซินเจิ้นรับซ่อมชิป H100 และ A100 ➡️ บางแห่งซ่อมได้ถึง 500 ชิ้นต่อเดือน ✅ บริการซ่อมครอบคลุมหลายด้าน ➡️ ตรวจสอบซอฟต์แวร์ ซ่อมพัดลม แก้ไขแผงวงจร ➡️ ทดสอบในห้องที่จำลองศูนย์ข้อมูลจริง ✅ ราคาซ่อมอยู่ที่ $1,400–$2,800 ต่อชิ้น ➡️ ถูกกว่าการซื้อใหม่ที่อาจสูงถึง $50,000 ต่อชิ้น ➡️ บางบริษัทคิดค่าซ่อมประมาณ 10% ของราคาชิปเดิม ✅ ชิป H100 และ A100 ยังเป็นที่ต้องการสูง ➡️ ใช้ในการฝึกโมเดล AI ขนาดใหญ่ ➡️ แม้จะมีรุ่น H20 ที่ถูกกว่า แต่ยังไม่ตอบโจทย์ด้านประสิทธิภาพ ✅ อายุการใช้งานชิปอยู่ที่ 2–5 ปี ➡️ การใช้งานหนักตลอด 24/7 ทำให้ชิปเสื่อมเร็ว ➡️ การซ่อมช่วยยืดอายุการใช้งานได้อีกหลายเดือนหรือปี https://wccftech.com/chinas-gpu-repair-business-is-booming-right-now-as-the-illegally-acquired-nvidia-chips-are-being-repaired-in-shocking-numbers/
    WCCFTECH.COM
    China's "GPU Repair" Business Is Booming Right Now As The Illegally Acquired NVIDIA H100 & A100 AI Chips Are Being Repaired In Shocking Numbers
    Apart from the "smuggling business" in China, repairers seem to be earning hefty sums of money by providing services for NVIDIA's AI chips.
    0 ความคิดเห็น 0 การแบ่งปัน 40 มุมมอง 0 รีวิว
  • เรื่องเล่าจากศูนย์ข้อมูล: เมื่อจีนมีพลังคอมพิวเตอร์เหลือใช้ แต่ยังขายไม่ได้

    Tom’s Hardware รายงานว่า จีนกำลังพัฒนาเครือข่ายระดับประเทศเพื่อขายพลังประมวลผลส่วนเกินจากศูนย์ข้อมูล ที่ไม่ได้ใช้งานเต็มประสิทธิภาพ โดยมีเป้าหมายเพื่อเพิ่มการใช้ทรัพยากรให้คุ้มค่าและสนับสนุนการเติบโตของ AI และคลาวด์ในประเทศ แต่ก็เผชิญกับอุปสรรคสำคัญ เช่น ความล่าช้าในการเชื่อมต่อ (latency) และ ความหลากหลายของฮาร์ดแวร์ ที่ทำให้การรวมระบบเป็นเรื่องยาก

    จีนเคยผลักดันยุทธศาสตร์ “Eastern Data, Western Computing” โดยให้สร้างศูนย์ข้อมูลในพื้นที่ตะวันตกที่ค่าไฟถูก เพื่อรองรับความต้องการจากเมืองเศรษฐกิจฝั่งตะวันออก แต่ความจริงกลับไม่เป็นไปตามแผน:
    - ศูนย์ข้อมูลหลายแห่งใช้งานเพียง 20–30% ของความสามารถ
    - รัฐลงทุนไปกว่า $3.4 พันล้านในปี 2024 แต่ผลตอบแทนยังไม่คุ้ม
    - มีโครงการถูกยกเลิกกว่า 100 แห่งใน 18 เดือนที่ผ่านมา

    เพื่อแก้ปัญหา รัฐบาลจีนจึงเตรียมสร้าง เครือข่ายคลาวด์ระดับชาติ โดยรวมพลังประมวลผลที่เหลือจากศูนย์ต่าง ๆ มาให้บริการผ่านระบบรวมศูนย์ โดยร่วมมือกับ China Mobile, China Telecom และ China Unicom

    แต่ก็มีอุปสรรคใหญ่:
    - ความล่าช้าในการเชื่อมต่อจากศูนย์ข้อมูลในพื้นที่ห่างไกล
    - ความหลากหลายของฮาร์ดแวร์ เช่น บางแห่งใช้ Nvidia CUDA บางแห่งใช้ Huawei CANN ทำให้รวมกันไม่ได้ง่าย

    แม้จะมีความท้าทาย แต่รัฐบาลยังคงมุ่งมั่น เพราะเชื่อว่าแนวทางนี้จะช่วยให้การลงทุนใน AI และคลาวด์มีประสิทธิภาพมากขึ้น

    ศูนย์ข้อมูลในพื้นที่ห่างไกลมักมีค่าไฟถูก แต่ latency สูง
    ไม่เหมาะกับงานที่ต้องการความเร็วตอบสนองทันที

    การรวมพลังประมวลผลแบบ distributed computing ต้องใช้ระบบจัดการที่ซับซ้อน
    เช่น Kubernetes, scheduling algorithms และระบบ billing ที่แม่นยำ

    ความหลากหลายของฮาร์ดแวร์ในคลาวด์อาจต้องใช้ containerization หรือ virtualization
    เพื่อให้ผู้ใช้งานเลือกได้ว่าจะใช้ GPU แบบไหน

    การสร้างเครือข่ายคลาวด์ระดับชาติอาจช่วยลดการพึ่งพา hyperscalers ต่างชาติ
    เช่น AWS, Azure และ Google Cloud

    https://www.tomshardware.com/desktops/servers/china-is-developing-nation-spanning-network-to-sell-surplus-data-center-compute-power-latency-disparate-hardware-are-key-hurdles
    🎙️ เรื่องเล่าจากศูนย์ข้อมูล: เมื่อจีนมีพลังคอมพิวเตอร์เหลือใช้ แต่ยังขายไม่ได้ Tom’s Hardware รายงานว่า จีนกำลังพัฒนาเครือข่ายระดับประเทศเพื่อขายพลังประมวลผลส่วนเกินจากศูนย์ข้อมูล ที่ไม่ได้ใช้งานเต็มประสิทธิภาพ โดยมีเป้าหมายเพื่อเพิ่มการใช้ทรัพยากรให้คุ้มค่าและสนับสนุนการเติบโตของ AI และคลาวด์ในประเทศ แต่ก็เผชิญกับอุปสรรคสำคัญ เช่น ความล่าช้าในการเชื่อมต่อ (latency) และ ความหลากหลายของฮาร์ดแวร์ ที่ทำให้การรวมระบบเป็นเรื่องยาก จีนเคยผลักดันยุทธศาสตร์ “Eastern Data, Western Computing” โดยให้สร้างศูนย์ข้อมูลในพื้นที่ตะวันตกที่ค่าไฟถูก เพื่อรองรับความต้องการจากเมืองเศรษฐกิจฝั่งตะวันออก แต่ความจริงกลับไม่เป็นไปตามแผน: - ศูนย์ข้อมูลหลายแห่งใช้งานเพียง 20–30% ของความสามารถ - รัฐลงทุนไปกว่า $3.4 พันล้านในปี 2024 แต่ผลตอบแทนยังไม่คุ้ม - มีโครงการถูกยกเลิกกว่า 100 แห่งใน 18 เดือนที่ผ่านมา เพื่อแก้ปัญหา รัฐบาลจีนจึงเตรียมสร้าง เครือข่ายคลาวด์ระดับชาติ โดยรวมพลังประมวลผลที่เหลือจากศูนย์ต่าง ๆ มาให้บริการผ่านระบบรวมศูนย์ โดยร่วมมือกับ China Mobile, China Telecom และ China Unicom แต่ก็มีอุปสรรคใหญ่: - ความล่าช้าในการเชื่อมต่อจากศูนย์ข้อมูลในพื้นที่ห่างไกล - ความหลากหลายของฮาร์ดแวร์ เช่น บางแห่งใช้ Nvidia CUDA บางแห่งใช้ Huawei CANN ทำให้รวมกันไม่ได้ง่าย แม้จะมีความท้าทาย แต่รัฐบาลยังคงมุ่งมั่น เพราะเชื่อว่าแนวทางนี้จะช่วยให้การลงทุนใน AI และคลาวด์มีประสิทธิภาพมากขึ้น 💡 ศูนย์ข้อมูลในพื้นที่ห่างไกลมักมีค่าไฟถูก แต่ latency สูง ➡️ ไม่เหมาะกับงานที่ต้องการความเร็วตอบสนองทันที 💡 การรวมพลังประมวลผลแบบ distributed computing ต้องใช้ระบบจัดการที่ซับซ้อน ➡️ เช่น Kubernetes, scheduling algorithms และระบบ billing ที่แม่นยำ 💡 ความหลากหลายของฮาร์ดแวร์ในคลาวด์อาจต้องใช้ containerization หรือ virtualization ➡️ เพื่อให้ผู้ใช้งานเลือกได้ว่าจะใช้ GPU แบบไหน 💡 การสร้างเครือข่ายคลาวด์ระดับชาติอาจช่วยลดการพึ่งพา hyperscalers ต่างชาติ ➡️ เช่น AWS, Azure และ Google Cloud https://www.tomshardware.com/desktops/servers/china-is-developing-nation-spanning-network-to-sell-surplus-data-center-compute-power-latency-disparate-hardware-are-key-hurdles
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงานจีน: G100 ชิปกราฟิกสายเลือดจีนที่เริ่มท้าชนโลก

    Lisuan Technology บริษัทสตาร์ทอัพด้านกราฟิกจากจีน ได้เปิดตัว GPU รุ่นใหม่ชื่อ G100 ซึ่งเป็นชิปที่ออกแบบและผลิตในประเทศจีนโดยไม่ใช้ IP จากต่างประเทศ โดยผลการทดสอบล่าสุดเผยว่า G100 รุ่น 48 CUs มีประสิทธิภาพสูงกว่า Intel Arc A770 และ Nvidia RTX 4060 ในการทดสอบ OpenCL และใกล้เคียงกับ RTX 5060 ซึ่งถือเป็นก้าวสำคัญของจีนในการพัฒนา GPU ระดับสูงด้วยตนเอง

    ในอดีต GPU ระดับสูงมักมาจากค่ายใหญ่ในสหรัฐฯ เช่น Nvidia และ AMD แต่ตอนนี้จีนเริ่มมีผู้เล่นใหม่อย่าง Lisuan Technology ที่พยายามสร้าง GPU ด้วยตนเอง โดยไม่พึ่งพาเทคโนโลยีจากต่างประเทศ

    G100 รุ่นใหม่ที่ถูกทดสอบมีสเปกดังนี้:
    - 48 Compute Units (CUs)
    - ความเร็วสูงสุด 2,000 MHz
    - หน่วยความจำ 12 GB (คาดว่าเป็น GDDR6)

    ผลการทดสอบ OpenCL จาก Geekbench พบว่า:
    - G100 รุ่น 48 CUs ได้คะแนน 111,290
    - สูงกว่า RTX 4060 (101,028) และ Arc A770 (109,181)
    - ใกล้เคียงกับ RTX 5060 (120,916) โดยช้ากว่าเพียง 9%

    แม้จะยังไม่มีข้อมูลด้านสถาปัตยกรรม TrueGPU อย่างละเอียด แต่ Lisuan ยืนยันว่าออกแบบเองทั้งหมด และเตรียมเปิดตัวผลิตภัณฑ์อย่างเป็นทางการเร็ว ๆ นี้

    GPU ที่ออกแบบโดยไม่ใช้ IP ต่างประเทศมีความสำคัญต่อความมั่นคงด้านเทคโนโลยี
    โดยเฉพาะในยุคที่การควบคุมการส่งออกชิปจากสหรัฐฯ เข้มงวดขึ้น

    OpenCL เป็นมาตรฐานสำหรับการประมวลผลทั่วไปบน GPU
    ใช้ในงาน AI, การคำนวณทางวิทยาศาสตร์ และการเรนเดอร์ภาพ

    หน่วยความจำ 12 GB เป็นมาตรฐานใหม่สำหรับเกมยุคปัจจุบัน
    เกม AAA หลายเกมเริ่มต้องการมากกว่า 8 GB เพื่อประสิทธิภาพสูงสุด

    การพัฒนา GPU ภายในประเทศอาจช่วยลดการพึ่งพา Nvidia และ AMD
    ส่งผลต่อการแข่งขันในตลาดโลกในระยะยาว

    https://www.tomshardware.com/pc-components/gpus/lisuan-g100-gpu-shows-promise-at-least-in-opencl-homegrown-chinese-chip-outguns-arc-a770-and-rtx-4060-in-new-benchmark-10-percent-slower-than-rtx-5060
    🎙️ เรื่องเล่าจากโรงงานจีน: G100 ชิปกราฟิกสายเลือดจีนที่เริ่มท้าชนโลก Lisuan Technology บริษัทสตาร์ทอัพด้านกราฟิกจากจีน ได้เปิดตัว GPU รุ่นใหม่ชื่อ G100 ซึ่งเป็นชิปที่ออกแบบและผลิตในประเทศจีนโดยไม่ใช้ IP จากต่างประเทศ โดยผลการทดสอบล่าสุดเผยว่า G100 รุ่น 48 CUs มีประสิทธิภาพสูงกว่า Intel Arc A770 และ Nvidia RTX 4060 ในการทดสอบ OpenCL และใกล้เคียงกับ RTX 5060 ซึ่งถือเป็นก้าวสำคัญของจีนในการพัฒนา GPU ระดับสูงด้วยตนเอง ในอดีต GPU ระดับสูงมักมาจากค่ายใหญ่ในสหรัฐฯ เช่น Nvidia และ AMD แต่ตอนนี้จีนเริ่มมีผู้เล่นใหม่อย่าง Lisuan Technology ที่พยายามสร้าง GPU ด้วยตนเอง โดยไม่พึ่งพาเทคโนโลยีจากต่างประเทศ G100 รุ่นใหม่ที่ถูกทดสอบมีสเปกดังนี้: - 48 Compute Units (CUs) - ความเร็วสูงสุด 2,000 MHz - หน่วยความจำ 12 GB (คาดว่าเป็น GDDR6) ผลการทดสอบ OpenCL จาก Geekbench พบว่า: - G100 รุ่น 48 CUs ได้คะแนน 111,290 - สูงกว่า RTX 4060 (101,028) และ Arc A770 (109,181) - ใกล้เคียงกับ RTX 5060 (120,916) โดยช้ากว่าเพียง 9% แม้จะยังไม่มีข้อมูลด้านสถาปัตยกรรม TrueGPU อย่างละเอียด แต่ Lisuan ยืนยันว่าออกแบบเองทั้งหมด และเตรียมเปิดตัวผลิตภัณฑ์อย่างเป็นทางการเร็ว ๆ นี้ 💡 GPU ที่ออกแบบโดยไม่ใช้ IP ต่างประเทศมีความสำคัญต่อความมั่นคงด้านเทคโนโลยี ➡️ โดยเฉพาะในยุคที่การควบคุมการส่งออกชิปจากสหรัฐฯ เข้มงวดขึ้น 💡 OpenCL เป็นมาตรฐานสำหรับการประมวลผลทั่วไปบน GPU ➡️ ใช้ในงาน AI, การคำนวณทางวิทยาศาสตร์ และการเรนเดอร์ภาพ 💡 หน่วยความจำ 12 GB เป็นมาตรฐานใหม่สำหรับเกมยุคปัจจุบัน ➡️ เกม AAA หลายเกมเริ่มต้องการมากกว่า 8 GB เพื่อประสิทธิภาพสูงสุด 💡 การพัฒนา GPU ภายในประเทศอาจช่วยลดการพึ่งพา Nvidia และ AMD ➡️ ส่งผลต่อการแข่งขันในตลาดโลกในระยะยาว https://www.tomshardware.com/pc-components/gpus/lisuan-g100-gpu-shows-promise-at-least-in-opencl-homegrown-chinese-chip-outguns-arc-a770-and-rtx-4060-in-new-benchmark-10-percent-slower-than-rtx-5060
    0 ความคิดเห็น 0 การแบ่งปัน 84 มุมมอง 0 รีวิว
  • เรื่องเล่าจากตลาดมืด: เมื่อชิป AI กลายเป็นสินค้าระดับ “ลอบนำเข้า”

    Tom’s Hardware รายงานว่าแม้สหรัฐฯ จะเพิ่มมาตรการควบคุมการส่งออกชิป AI อย่างเข้มงวด แต่บริษัทจีนหลายแห่งยังสามารถลักลอบนำเข้าชิป Nvidia รุ่นใหม่ เช่น B200 ได้อย่างต่อเนื่อง โดยมีมูลค่ารวมกว่า 1 พันล้านดอลลาร์สหรัฐ ภายในเวลาเพียง 3 เดือน และบางรายถึงกับโฆษณาล่วงหน้าว่าจะมีชิป B300 พร้อมจำหน่ายเมื่อเปิดตัวในปลายปีนี้

    แม้สหรัฐฯ จะพยายามสกัดการเข้าถึงชิป AI ระดับสูงของ Nvidia และ AMD โดยเฉพาะรุ่นที่ออกแบบสำหรับจีน เช่น H20 และ MI308 แต่บริษัทจีนกลับหาวิธีนำเข้าชิปต้องห้ามเหล่านี้ผ่านช่องทางลับ โดยใช้วิธีหลากหลาย ตั้งแต่การซ่อนใน “ล็อบสเตอร์มีชีวิต” ไปจนถึง “ท้องปลอมของหญิงตั้งครรภ์”

    รายงานจาก Financial Times ระบุว่า:
    - มีการลักลอบนำเข้าชิป B200 และรุ่นอื่น ๆ มูลค่ากว่า $1 พันล้าน
    - ราคาชิปในตลาดมืดสูงกว่าราคาสหรัฐฯ ถึง 50% เช่น rack ที่มี B200 จำนวน 8 ตัว มีราคาสูงถึง $490,000
    - บริษัทจีนบางแห่ง เช่น Gate of the Era ทำยอดขายใกล้ $400 ล้านจากการขาย rack เหล่านี้

    แม้ Nvidia จะไม่ให้บริการหรือการสนับสนุนแก่ชิปที่ถูกลักลอบนำเข้า แต่ผู้ซื้อและผู้ขายยังคงหาวิธีใช้งานและดูแลชิปเหล่านี้ได้เอง

    ขณะเดียวกัน สหรัฐฯ กำลังผลักดันพันธมิตร เช่น สิงคโปร์ มาเลเซีย และไทย ให้ช่วยสกัดการลักลอบผ่านประเทศเหล่านี้ ซึ่งมักถูกใช้เป็นจุดพักสินค้าก่อนเข้าสู่จีน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-companies-allegedly-smuggled-in-usd1bn-worth-of-nvidia-ai-chips-in-the-last-three-months-despite-increasing-export-controls-some-companies-are-already-flaunting-future-b300-availability
    🎙️ เรื่องเล่าจากตลาดมืด: เมื่อชิป AI กลายเป็นสินค้าระดับ “ลอบนำเข้า” Tom’s Hardware รายงานว่าแม้สหรัฐฯ จะเพิ่มมาตรการควบคุมการส่งออกชิป AI อย่างเข้มงวด แต่บริษัทจีนหลายแห่งยังสามารถลักลอบนำเข้าชิป Nvidia รุ่นใหม่ เช่น B200 ได้อย่างต่อเนื่อง โดยมีมูลค่ารวมกว่า 1 พันล้านดอลลาร์สหรัฐ ภายในเวลาเพียง 3 เดือน และบางรายถึงกับโฆษณาล่วงหน้าว่าจะมีชิป B300 พร้อมจำหน่ายเมื่อเปิดตัวในปลายปีนี้ แม้สหรัฐฯ จะพยายามสกัดการเข้าถึงชิป AI ระดับสูงของ Nvidia และ AMD โดยเฉพาะรุ่นที่ออกแบบสำหรับจีน เช่น H20 และ MI308 แต่บริษัทจีนกลับหาวิธีนำเข้าชิปต้องห้ามเหล่านี้ผ่านช่องทางลับ โดยใช้วิธีหลากหลาย ตั้งแต่การซ่อนใน “ล็อบสเตอร์มีชีวิต” ไปจนถึง “ท้องปลอมของหญิงตั้งครรภ์” รายงานจาก Financial Times ระบุว่า: - มีการลักลอบนำเข้าชิป B200 และรุ่นอื่น ๆ มูลค่ากว่า $1 พันล้าน - ราคาชิปในตลาดมืดสูงกว่าราคาสหรัฐฯ ถึง 50% เช่น rack ที่มี B200 จำนวน 8 ตัว มีราคาสูงถึง $490,000 - บริษัทจีนบางแห่ง เช่น Gate of the Era ทำยอดขายใกล้ $400 ล้านจากการขาย rack เหล่านี้ แม้ Nvidia จะไม่ให้บริการหรือการสนับสนุนแก่ชิปที่ถูกลักลอบนำเข้า แต่ผู้ซื้อและผู้ขายยังคงหาวิธีใช้งานและดูแลชิปเหล่านี้ได้เอง ขณะเดียวกัน สหรัฐฯ กำลังผลักดันพันธมิตร เช่น สิงคโปร์ มาเลเซีย และไทย ให้ช่วยสกัดการลักลอบผ่านประเทศเหล่านี้ ซึ่งมักถูกใช้เป็นจุดพักสินค้าก่อนเข้าสู่จีน https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-companies-allegedly-smuggled-in-usd1bn-worth-of-nvidia-ai-chips-in-the-last-three-months-despite-increasing-export-controls-some-companies-are-already-flaunting-future-b300-availability
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนาม AI: เมื่อ Trump อยากล้ม NVIDIA แต่ต้องยอมแพ้ให้กับ “จอมยุทธ์ AI”

    เมื่อ Trump เข้ารับตำแหน่งในปี 2025 เขาไม่รู้จัก NVIDIA หรือ Jensen Huang มาก่อน แต่เมื่อเห็นว่า NVIDIA ครองตลาด AI ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เขาจึงคิดจะสร้างบริษัทใหม่ที่รวม “สุดยอดมันสมอง” เพื่อแข่งขันกับ NVIDIA โดยตรง

    แต่หลังจากได้เรียนรู้ว่า Jensen Huang คือผู้วางรากฐานของ CUDA และเป็นผู้นำที่ผลักดัน NVIDIA สู่มูลค่า 4 ล้านล้านดอลลาร์ เขากลับยอมรับว่า:

    “เราคิดว่าจะเข้าไปแยกเขาออก แต่พอรู้ข้อเท็จจริงแล้ว มันไม่ง่ายเลยในธุรกิจนี้”

    Trump กล่าวในงาน AI Summit ว่า Jensen คือ “ปัจจัยลับของอเมริกา” และ NVIDIA คือ “หัวรถจักรของ AI โลก” ที่ไม่มีใครเทียบได้ในทศวรรษนี้

    Trump เคยมีแผนแยกบริษัท NVIDIA เพื่อสร้างการแข่งขันในตลาด AI
    แต่เปลี่ยนใจหลังจากได้รู้จัก Jensen Huang และความซับซ้อนของธุรกิจนี้

    Jensen Huang คือผู้วางรากฐานของ CUDA และการพัฒนา AI stack ของ NVIDIA
    เป็นผู้นำที่ผลักดันบริษัทสู่มูลค่า 4 ล้านล้านดอลลาร์

    Trump ยอมรับว่า “ไม่มีใครเทียบ NVIDIA ได้ในทศวรรษนี้”
    แม้จะรวมสุดยอดมันสมองก็ยังไม่สามารถสร้างคู่แข่งได้ทัน

    NVIDIA ถูกยกให้เป็น “หัวรถจักรของ AI โลก” โดย Trump
    เป็นบริษัทที่ขับเคลื่อนความเป็นผู้นำด้านเทคโนโลยีของอเมริกา

    Trump กล่าวในงาน AI Summit ว่า Jensen คือ “ปัจจัยลับของอเมริกา”
    เป็นสิ่งที่ทำให้สหรัฐฯ แตกต่างจากประเทศอื่นในยุค AI

    https://wccftech.com/president-trump-wanted-to-break-nvidia-until-he-realized-jensen-was-the-ai-warlord/
    🎙️ เรื่องเล่าจากสนาม AI: เมื่อ Trump อยากล้ม NVIDIA แต่ต้องยอมแพ้ให้กับ “จอมยุทธ์ AI” เมื่อ Trump เข้ารับตำแหน่งในปี 2025 เขาไม่รู้จัก NVIDIA หรือ Jensen Huang มาก่อน แต่เมื่อเห็นว่า NVIDIA ครองตลาด AI ทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เขาจึงคิดจะสร้างบริษัทใหม่ที่รวม “สุดยอดมันสมอง” เพื่อแข่งขันกับ NVIDIA โดยตรง แต่หลังจากได้เรียนรู้ว่า Jensen Huang คือผู้วางรากฐานของ CUDA และเป็นผู้นำที่ผลักดัน NVIDIA สู่มูลค่า 4 ล้านล้านดอลลาร์ เขากลับยอมรับว่า: 🔖 “เราคิดว่าจะเข้าไปแยกเขาออก แต่พอรู้ข้อเท็จจริงแล้ว มันไม่ง่ายเลยในธุรกิจนี้” Trump กล่าวในงาน AI Summit ว่า Jensen คือ “ปัจจัยลับของอเมริกา” และ NVIDIA คือ “หัวรถจักรของ AI โลก” ที่ไม่มีใครเทียบได้ในทศวรรษนี้ ✅ Trump เคยมีแผนแยกบริษัท NVIDIA เพื่อสร้างการแข่งขันในตลาด AI ➡️ แต่เปลี่ยนใจหลังจากได้รู้จัก Jensen Huang และความซับซ้อนของธุรกิจนี้ ✅ Jensen Huang คือผู้วางรากฐานของ CUDA และการพัฒนา AI stack ของ NVIDIA ➡️ เป็นผู้นำที่ผลักดันบริษัทสู่มูลค่า 4 ล้านล้านดอลลาร์ ✅ Trump ยอมรับว่า “ไม่มีใครเทียบ NVIDIA ได้ในทศวรรษนี้” ➡️ แม้จะรวมสุดยอดมันสมองก็ยังไม่สามารถสร้างคู่แข่งได้ทัน ✅ NVIDIA ถูกยกให้เป็น “หัวรถจักรของ AI โลก” โดย Trump ➡️ เป็นบริษัทที่ขับเคลื่อนความเป็นผู้นำด้านเทคโนโลยีของอเมริกา ✅ Trump กล่าวในงาน AI Summit ว่า Jensen คือ “ปัจจัยลับของอเมริกา” ➡️ เป็นสิ่งที่ทำให้สหรัฐฯ แตกต่างจากประเทศอื่นในยุค AI https://wccftech.com/president-trump-wanted-to-break-nvidia-until-he-realized-jensen-was-the-ai-warlord/
    WCCFTECH.COM
    President Trump Wanted to Break NVIDIA —Until He Realized Jensen Was The “AI Warlord” and Said It’d Take a Decade to Beat Them, Even With The Greatest Minds Together
    President Trump apparently had plans to break up NVIDIA to level the competition in the AI space, but his intentions changed.
    0 ความคิดเห็น 0 การแบ่งปัน 85 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปที่แพงขึ้นเพราะข้ามมหาสมุทร: เมื่อการผลิตในอเมริกายังไม่พร้อมสำหรับสงคราม AI

    TSMC ขยายโรงงานในสหรัฐฯ อย่างรวดเร็ว โดยเฉพาะในรัฐแอริโซนา หลังจากรัฐบาลสหรัฐฯ ผลักดันให้ลดการพึ่งพาไต้หวันในยุคของอดีตประธานาธิบดีทรัมป์

    แต่ Lisa Su ซีอีโอของ AMD ระบุว่า:
    - การผลิตชิปจากโรงงาน TSMC ในสหรัฐฯ มีต้นทุนสูงกว่าจากไต้หวันถึง 20%
    - สาเหตุหลักคือค่าแรงที่แพง, ค่าขนส่งอุปกรณ์, และความไม่พร้อมของห่วงโซ่อุปทานในประเทศ

    แม้จะมีต้นทุนสูง แต่บริษัทเทคโนโลยีอย่าง AMD และ NVIDIA ก็ยังต้องสั่งผลิตจากโรงงานในสหรัฐฯ เพราะ:
    - โรงงานในไต้หวันผลิตเต็มกำลังแล้ว
    - ความต้องการชิป AI เพิ่มขึ้นอย่างรวดเร็ว
    - AMD คาดว่าตลาด accelerator จะมีมูลค่าถึง $500 พันล้านภายใน 5 ปี

    AMD เป็นหนึ่งในลูกค้ารายใหญ่ของ TSMC US โดย:
    - สั่งผลิตชิป 4nm สำหรับ EPYC Venice CPU
    - มีแผนขยายไปถึง 2nm ในอนาคต

    TSMC วางแผนจะผลิตชิปขั้นสูงกว่า 30% จากโรงงานในแอริโซนา และอาจใช้โดรนในการตรวจสอบโรงงานเพื่อเพิ่มประสิทธิภาพ

    Lisa Su ซีอีโอของ AMD ระบุว่าการผลิตชิปจาก TSMC US มีต้นทุนสูงกว่าจากไต้หวันถึง 20%
    สาเหตุหลักคือค่าแรง, ค่าขนส่งอุปกรณ์, และความไม่พร้อมของ supply chain

    TSMC ขยายโรงงานในรัฐแอริโซนาอย่างรวดเร็วหลังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ
    เพื่อลดการพึ่งพาไต้หวันในด้านการผลิตชิปขั้นสูง

    AMD เป็นหนึ่งในลูกค้ารายใหญ่ของ TSMC US โดยสั่งผลิตชิป 4nm และมีแผนขยายไปถึง 2nm
    ใช้สำหรับ EPYC Venice CPU ในตลาด data center

    Lisa Su คาดว่าตลาด accelerator จะมีมูลค่าถึง $500 พันล้านภายใน 5 ปี
    สะท้อนความต้องการชิป AI ที่เพิ่มขึ้นอย่างรวดเร็ว

    TSMC วางแผนจะผลิตชิปขั้นสูงกว่า 30% จากโรงงานในแอริโซนา
    และอาจใช้โดรนในการตรวจสอบโรงงานเพื่อเพิ่มประสิทธิภาพ

    https://wccftech.com/amd-ceo-lisa-su-says-sourcing-ai-chips-from-tsmc-us-plants-is-more-expensive/
    🎙️ เรื่องเล่าจากชิปที่แพงขึ้นเพราะข้ามมหาสมุทร: เมื่อการผลิตในอเมริกายังไม่พร้อมสำหรับสงคราม AI TSMC ขยายโรงงานในสหรัฐฯ อย่างรวดเร็ว โดยเฉพาะในรัฐแอริโซนา หลังจากรัฐบาลสหรัฐฯ ผลักดันให้ลดการพึ่งพาไต้หวันในยุคของอดีตประธานาธิบดีทรัมป์ แต่ Lisa Su ซีอีโอของ AMD ระบุว่า: - การผลิตชิปจากโรงงาน TSMC ในสหรัฐฯ มีต้นทุนสูงกว่าจากไต้หวันถึง 20% - สาเหตุหลักคือค่าแรงที่แพง, ค่าขนส่งอุปกรณ์, และความไม่พร้อมของห่วงโซ่อุปทานในประเทศ แม้จะมีต้นทุนสูง แต่บริษัทเทคโนโลยีอย่าง AMD และ NVIDIA ก็ยังต้องสั่งผลิตจากโรงงานในสหรัฐฯ เพราะ: - โรงงานในไต้หวันผลิตเต็มกำลังแล้ว - ความต้องการชิป AI เพิ่มขึ้นอย่างรวดเร็ว - AMD คาดว่าตลาด accelerator จะมีมูลค่าถึง $500 พันล้านภายใน 5 ปี AMD เป็นหนึ่งในลูกค้ารายใหญ่ของ TSMC US โดย: - สั่งผลิตชิป 4nm สำหรับ EPYC Venice CPU - มีแผนขยายไปถึง 2nm ในอนาคต TSMC วางแผนจะผลิตชิปขั้นสูงกว่า 30% จากโรงงานในแอริโซนา และอาจใช้โดรนในการตรวจสอบโรงงานเพื่อเพิ่มประสิทธิภาพ ✅ Lisa Su ซีอีโอของ AMD ระบุว่าการผลิตชิปจาก TSMC US มีต้นทุนสูงกว่าจากไต้หวันถึง 20% ➡️ สาเหตุหลักคือค่าแรง, ค่าขนส่งอุปกรณ์, และความไม่พร้อมของ supply chain ✅ TSMC ขยายโรงงานในรัฐแอริโซนาอย่างรวดเร็วหลังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ➡️ เพื่อลดการพึ่งพาไต้หวันในด้านการผลิตชิปขั้นสูง ✅ AMD เป็นหนึ่งในลูกค้ารายใหญ่ของ TSMC US โดยสั่งผลิตชิป 4nm และมีแผนขยายไปถึง 2nm ➡️ ใช้สำหรับ EPYC Venice CPU ในตลาด data center ✅ Lisa Su คาดว่าตลาด accelerator จะมีมูลค่าถึง $500 พันล้านภายใน 5 ปี ➡️ สะท้อนความต้องการชิป AI ที่เพิ่มขึ้นอย่างรวดเร็ว ✅ TSMC วางแผนจะผลิตชิปขั้นสูงกว่า 30% จากโรงงานในแอริโซนา ➡️ และอาจใช้โดรนในการตรวจสอบโรงงานเพื่อเพิ่มประสิทธิภาพ https://wccftech.com/amd-ceo-lisa-su-says-sourcing-ai-chips-from-tsmc-us-plants-is-more-expensive/
    WCCFTECH.COM
    AMD CEO Lisa Su Says Sourcing AI Chips From TSMC’s U.S. Plants Is 20% More Expensive, Highlighting the Complications of Building Supply Chains in America
    While TSMC US operations are seeing massive attraction from American clients, AMD's CEO Lisa Su says it is still a very expensive venture.
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • เรื่องเล่าจากคำถามที่เปลี่ยนโลก: เมื่อ ChatGPT ตอบ 2.5 พันล้านคำสั่งต่อวัน และดื่มน้ำมากกว่าที่เราคิด

    OpenAI เปิดเผยกับ Axios ว่า ChatGPT รับคำสั่งมากกว่า 2.5 พันล้านครั้งต่อวัน โดยประมาณ 13% มาจากผู้ใช้ในสหรัฐฯ และส่วนใหญ่ใช้เวอร์ชันฟรี

    แม้จะไม่มีตัวเลขที่แน่นอน แต่ Bloomberg รายงานว่ามีผู้ใช้แบบเสียเงินราว 3 ล้านคน เพิ่มขึ้น 50% จากต้นปี

    แต่สิ่งที่น่ากังวลคือ:
    - Sam Altman ซีอีโอของ OpenAI ระบุว่าแต่ละ prompt ใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง และน้ำประมาณ 0.32 มิลลิลิตร
    - นักวิจัยจากมหาวิทยาลัย Rhode Island และ Tunis พบว่า GPT-4o ซึ่งเป็นโมเดลฟรี อาจใช้ถึง 1–2 มล. ต่อ prompt
    - GPT-4.5 ซึ่งเป็นรุ่นขั้นสูง อาจใช้ถึง 30 มล. ต่อ prompt

    เมื่อคำนวณรวมกัน:
    - ChatGPT อาจใช้มากกว่า 77 ล้านแกลลอนต่อปี
    - น้ำที่ใช้ในการระบายความร้อนและโครงสร้างพื้นฐานอาจทำให้สูญเสียน้ำจืดจากระบบนิเวศถึง 352 ล้านแกลลอนภายในสิ้นปี 2025 — เทียบเท่ากับน้ำดื่มสำหรับคน 1.2 ล้านคน

    ด้านพลังงาน:
    - ChatGPT อาจใช้พลังงานหลายล้านถึงพันล้านวัตต์-ชั่วโมงต่อปี
    - เทียบเท่ากับการใช้ไฟของบ้านหลายพันหลัง

    ในขณะที่ AI ถูกใช้งานมากขึ้นในมหาวิทยาลัย, ศาล, และบริษัทต่าง ๆ — นักเศรษฐศาสตร์เตือนว่าอาจเป็นฟองสบู่คล้าย dot-com ปี 2000 และ Nvidia อาจกลายเป็น “จุดล้มเดียว” ของอุตสาหกรรมที่ยังไม่พิสูจน์ว่าทำกำไรได้จริง

    https://www.techspot.com/news/108770-chatgpt-now-handles-25-billion-prompts-daily-openai.html
    🎙️ เรื่องเล่าจากคำถามที่เปลี่ยนโลก: เมื่อ ChatGPT ตอบ 2.5 พันล้านคำสั่งต่อวัน และดื่มน้ำมากกว่าที่เราคิด OpenAI เปิดเผยกับ Axios ว่า ChatGPT รับคำสั่งมากกว่า 2.5 พันล้านครั้งต่อวัน โดยประมาณ 13% มาจากผู้ใช้ในสหรัฐฯ และส่วนใหญ่ใช้เวอร์ชันฟรี แม้จะไม่มีตัวเลขที่แน่นอน แต่ Bloomberg รายงานว่ามีผู้ใช้แบบเสียเงินราว 3 ล้านคน เพิ่มขึ้น 50% จากต้นปี แต่สิ่งที่น่ากังวลคือ: - Sam Altman ซีอีโอของ OpenAI ระบุว่าแต่ละ prompt ใช้พลังงานประมาณ 0.34 วัตต์-ชั่วโมง และน้ำประมาณ 0.32 มิลลิลิตร - นักวิจัยจากมหาวิทยาลัย Rhode Island และ Tunis พบว่า GPT-4o ซึ่งเป็นโมเดลฟรี อาจใช้ถึง 1–2 มล. ต่อ prompt - GPT-4.5 ซึ่งเป็นรุ่นขั้นสูง อาจใช้ถึง 30 มล. ต่อ prompt เมื่อคำนวณรวมกัน: - ChatGPT อาจใช้มากกว่า 77 ล้านแกลลอนต่อปี - น้ำที่ใช้ในการระบายความร้อนและโครงสร้างพื้นฐานอาจทำให้สูญเสียน้ำจืดจากระบบนิเวศถึง 352 ล้านแกลลอนภายในสิ้นปี 2025 — เทียบเท่ากับน้ำดื่มสำหรับคน 1.2 ล้านคน ด้านพลังงาน: - ChatGPT อาจใช้พลังงานหลายล้านถึงพันล้านวัตต์-ชั่วโมงต่อปี - เทียบเท่ากับการใช้ไฟของบ้านหลายพันหลัง ในขณะที่ AI ถูกใช้งานมากขึ้นในมหาวิทยาลัย, ศาล, และบริษัทต่าง ๆ — นักเศรษฐศาสตร์เตือนว่าอาจเป็นฟองสบู่คล้าย dot-com ปี 2000 และ Nvidia อาจกลายเป็น “จุดล้มเดียว” ของอุตสาหกรรมที่ยังไม่พิสูจน์ว่าทำกำไรได้จริง https://www.techspot.com/news/108770-chatgpt-now-handles-25-billion-prompts-daily-openai.html
    WWW.TECHSPOT.COM
    ChatGPT now handles 2.5 billion prompts daily, OpenAI confirms
    OpenAI recently told Axios that its popular generative AI chatbot, ChatGPT, receives over 2.5 billion prompts per day globally. Of those, over 330 million, or around 13...
    0 ความคิดเห็น 0 การแบ่งปัน 109 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเกมเก่าที่เปล่งแสงใหม่: เมื่อ RTX Remix เปลี่ยนเกมยุค 2000 ให้กลายเป็นงานศิลป์

    Nvidia เปิดตัวชุดเครื่องมือ RTX Remix อย่างเป็นทางการในเดือนมีนาคมที่ผ่านมา โดยให้ modder เข้าถึง SDK ที่สามารถเพิ่ม path tracing เข้าไปในเกมเก่า — ซึ่งต่างจาก ray tracing ทั่วไป เพราะ path tracing จำลองแสงแบบเต็มระบบ รวมถึงแสงสะท้อน, เงา, และแสงกระจายจากพื้นผิวต่าง ๆ

    การแข่งขันครั้งนี้มีเงินรางวัลรวม $50,000 โดยรางวัลสูงสุดคือ $20,000 ซึ่งจะประกาศผลในวันที่ 5 สิงหาคมนี้

    ตัวอย่างเกมที่ถูกปรับปรุงแล้ว:
    - Vampire: The Masquerade – Bloodlines: ใช้ Source Engine และได้รับการปรับแสงใหม่ทั้งหมด พร้อมรักษาบรรยากาศเดิม
    - Painkiller: เพิ่มแสงแบบ hand-placed, เปลี่ยน texture เป็นแบบ PBR, และเพิ่มเอฟเฟกต์ใหม่
    - Need for Speed: Underground และ Colin McRae Rally 3: ปรับแสง, เพิ่มโมเดลใหม่, และใส่ volumetric lighting
    - Sonic Adventure, Portal 2, Black Mesa, Republic Commando และ Jedi Outcast: อยู่ระหว่างการปรับปรุง

    แม้ path tracing จะใช้ในเกมใหม่อย่าง Cyberpunk 2077 และ Alan Wake 2 แต่ในเกมเก่าที่มี geometry ง่าย ๆ ผลลัพธ์กลับยิ่งน่าทึ่ง เพราะแสงสามารถเปลี่ยนบรรยากาศของเกมได้อย่างสิ้นเชิง

    Nvidia จัดการแข่งขัน RTX Remix Mod Contest เพื่อปรับปรุงเกมเก่าด้วย path tracing
    เงินรางวัลรวม $50,000 โดยรางวัลสูงสุดคือ $20,000

    RTX Remix เป็นเครื่องมือสำหรับเพิ่ม path tracing ในเกม DirectX 8 และ 9
    จำลองแสงแบบเต็มระบบ รวมถึงเงา, แสงสะท้อน, และแสงกระจาย

    เกมที่ถูกปรับปรุงแล้ว ได้แก่ Vampire: Bloodlines, Painkiller, NFS Underground, Colin McRae Rally 3
    มีการเปลี่ยน texture, เพิ่มแสง, และปรับโมเดลใหม่

    Path tracing มีผลชัดเจนในเกมเก่าที่มี geometry ง่าย
    เพราะแสงสามารถเปลี่ยนบรรยากาศของเกมได้อย่างสิ้นเชิง

    Modder ต้องปรับ texture และ material ใหม่เพื่อให้แสงทำงานได้ถูกต้อง
    ไม่ใช่แค่เปิดฟีเจอร์ แต่ต้องปรับโครงสร้างภาพทั้งหมด

    เกมอื่นที่อยู่ระหว่างการปรับปรุง ได้แก่ Portal 2, Sonic Adventure, Black Mesa, Jedi Outcast
    บางเกมสามารถเล่นได้แล้วในเวอร์ชัน mod

    https://www.techspot.com/news/108768-nvidia-rtx-remix-contest-shows-how-ray-tracing.html
    🎙️ เรื่องเล่าจากเกมเก่าที่เปล่งแสงใหม่: เมื่อ RTX Remix เปลี่ยนเกมยุค 2000 ให้กลายเป็นงานศิลป์ Nvidia เปิดตัวชุดเครื่องมือ RTX Remix อย่างเป็นทางการในเดือนมีนาคมที่ผ่านมา โดยให้ modder เข้าถึง SDK ที่สามารถเพิ่ม path tracing เข้าไปในเกมเก่า — ซึ่งต่างจาก ray tracing ทั่วไป เพราะ path tracing จำลองแสงแบบเต็มระบบ รวมถึงแสงสะท้อน, เงา, และแสงกระจายจากพื้นผิวต่าง ๆ การแข่งขันครั้งนี้มีเงินรางวัลรวม $50,000 โดยรางวัลสูงสุดคือ $20,000 ซึ่งจะประกาศผลในวันที่ 5 สิงหาคมนี้ ตัวอย่างเกมที่ถูกปรับปรุงแล้ว: - Vampire: The Masquerade – Bloodlines: ใช้ Source Engine และได้รับการปรับแสงใหม่ทั้งหมด พร้อมรักษาบรรยากาศเดิม - Painkiller: เพิ่มแสงแบบ hand-placed, เปลี่ยน texture เป็นแบบ PBR, และเพิ่มเอฟเฟกต์ใหม่ - Need for Speed: Underground และ Colin McRae Rally 3: ปรับแสง, เพิ่มโมเดลใหม่, และใส่ volumetric lighting - Sonic Adventure, Portal 2, Black Mesa, Republic Commando และ Jedi Outcast: อยู่ระหว่างการปรับปรุง แม้ path tracing จะใช้ในเกมใหม่อย่าง Cyberpunk 2077 และ Alan Wake 2 แต่ในเกมเก่าที่มี geometry ง่าย ๆ ผลลัพธ์กลับยิ่งน่าทึ่ง เพราะแสงสามารถเปลี่ยนบรรยากาศของเกมได้อย่างสิ้นเชิง ✅ Nvidia จัดการแข่งขัน RTX Remix Mod Contest เพื่อปรับปรุงเกมเก่าด้วย path tracing ➡️ เงินรางวัลรวม $50,000 โดยรางวัลสูงสุดคือ $20,000 ✅ RTX Remix เป็นเครื่องมือสำหรับเพิ่ม path tracing ในเกม DirectX 8 และ 9 ➡️ จำลองแสงแบบเต็มระบบ รวมถึงเงา, แสงสะท้อน, และแสงกระจาย ✅ เกมที่ถูกปรับปรุงแล้ว ได้แก่ Vampire: Bloodlines, Painkiller, NFS Underground, Colin McRae Rally 3 ➡️ มีการเปลี่ยน texture, เพิ่มแสง, และปรับโมเดลใหม่ ✅ Path tracing มีผลชัดเจนในเกมเก่าที่มี geometry ง่าย ➡️ เพราะแสงสามารถเปลี่ยนบรรยากาศของเกมได้อย่างสิ้นเชิง ✅ Modder ต้องปรับ texture และ material ใหม่เพื่อให้แสงทำงานได้ถูกต้อง ➡️ ไม่ใช่แค่เปิดฟีเจอร์ แต่ต้องปรับโครงสร้างภาพทั้งหมด ✅ เกมอื่นที่อยู่ระหว่างการปรับปรุง ได้แก่ Portal 2, Sonic Adventure, Black Mesa, Jedi Outcast ➡️ บางเกมสามารถเล่นได้แล้วในเวอร์ชัน mod https://www.techspot.com/news/108768-nvidia-rtx-remix-contest-shows-how-ray-tracing.html
    WWW.TECHSPOT.COM
    Nvidia's RTX Remix contest shows how ray tracing can transform classic games, more mods become available
    Nvidia's $50,000 RTX Remix mod contest ends early next month, and around two dozen projects have taken up the challenge to demonstrate how the company's ray tracing...
    0 ความคิดเห็น 0 การแบ่งปัน 85 มุมมอง 0 รีวิว
  • เรื่องเล่าจากการ์ดจอที่กลับมาท้าชน: เมื่อ AMD เตรียมปล่อย GPU ที่ “ยิงแสง” ได้แรงกว่าเดิม

    ในปี 2025 AMD เปิดตัว Radeon 9000 series ที่เน้นตลาด mid-range และ mainstream โดยรุ่นสูงสุด RX 9070 XT สามารถเอาชนะ RTX 5070 Ti ได้ในบางสถานการณ์ แต่ AMD ไม่ได้แข่งกับ RTX 5080 หรือ 5090 เลย

    แต่ในปี 2026 AMD เตรียมเปิดตัว GPU รุ่นใหม่ที่ใช้สถาปัตยกรรม UDNA (RDNA 5) ซึ่ง:
    - มีโครงสร้างคล้าย RX 7900 XTX คือ 96 compute units และ memory bus 384-bit
    - รุ่นกลางจะมี 64 CU และ 256-bit bus (คล้าย RX 9070 XT)
    - รุ่นทั่วไปจะมี 32 CU และ 128-bit bus (คล้าย RX 9060 XT)

    KeplerL2 นักปล่อยข่าวที่มีชื่อเสียงระบุว่า:
    - UDNA จะเพิ่มประสิทธิภาพ rasterization ประมาณ 20% จาก RDNA 4
    - และเพิ่ม ray tracing เป็น 2 เท่า — ซึ่งอาจทำให้ AMD “ลบจุดอ่อน” ที่เคยแพ้ Nvidia ใน path tracing

    นอกจากนี้ UDNA ยังถูกคาดว่าจะใช้ใน PlayStation 6 และ Xbox รุ่นใหม่ โดยมีการรั่วภาพ die shot ที่แสดงว่า Xbox อาจมีถึง 80 compute units — เทียบเท่าหรือสูงกว่า RTX 5080 เลยทีเดียว

    AMD เตรียมเปิดตัว GPU รุ่นใหม่ในปี 2026 โดยใช้สถาปัตยกรรม UDNA (RDNA 5)
    อาจมีประสิทธิภาพสูงกว่า RTX 5080 โดยเฉพาะด้าน ray tracing

    GPU รุ่นเรือธงจะมี 96 compute units และ memory bus 384-bit
    โครงสร้างคล้าย RX 7900 XTX แต่ใช้เทคโนโลยีใหม่

    รุ่นกลางและรุ่นทั่วไปจะมี 64 และ 32 CU ตามลำดับ
    คล้ายกับ RX 9070 XT และ RX 9060 XT ใน RDNA 4

    UDNA จะเพิ่ม raster performance 20% และ ray tracing 2 เท่าเมื่อเทียบกับ RDNA 4
    แก้จุดอ่อนของ Radeon ที่แพ้ GeForce ใน path tracing

    RX 9070 XT มี ray tracing ดีกว่า RX 7900 XTX แม้จะอยู่ในระดับต่ำกว่า
    แสดงว่า AMD เริ่มพัฒนา ray tracing ได้ดีขึ้นแล้ว

    UDNA คาดว่าจะใช้ใน PlayStation 6 และ Xbox รุ่นใหม่
    Xbox อาจมี 80 CU ซึ่งเทียบเท่ากับ RTX 5080

    https://www.techspot.com/news/108754-amd-upcoming-rdna-5-flagship-could-target-rtx.html
    🎙️ เรื่องเล่าจากการ์ดจอที่กลับมาท้าชน: เมื่อ AMD เตรียมปล่อย GPU ที่ “ยิงแสง” ได้แรงกว่าเดิม ในปี 2025 AMD เปิดตัว Radeon 9000 series ที่เน้นตลาด mid-range และ mainstream โดยรุ่นสูงสุด RX 9070 XT สามารถเอาชนะ RTX 5070 Ti ได้ในบางสถานการณ์ แต่ AMD ไม่ได้แข่งกับ RTX 5080 หรือ 5090 เลย แต่ในปี 2026 AMD เตรียมเปิดตัว GPU รุ่นใหม่ที่ใช้สถาปัตยกรรม UDNA (RDNA 5) ซึ่ง: - มีโครงสร้างคล้าย RX 7900 XTX คือ 96 compute units และ memory bus 384-bit - รุ่นกลางจะมี 64 CU และ 256-bit bus (คล้าย RX 9070 XT) - รุ่นทั่วไปจะมี 32 CU และ 128-bit bus (คล้าย RX 9060 XT) KeplerL2 นักปล่อยข่าวที่มีชื่อเสียงระบุว่า: - UDNA จะเพิ่มประสิทธิภาพ rasterization ประมาณ 20% จาก RDNA 4 - และเพิ่ม ray tracing เป็น 2 เท่า — ซึ่งอาจทำให้ AMD “ลบจุดอ่อน” ที่เคยแพ้ Nvidia ใน path tracing นอกจากนี้ UDNA ยังถูกคาดว่าจะใช้ใน PlayStation 6 และ Xbox รุ่นใหม่ โดยมีการรั่วภาพ die shot ที่แสดงว่า Xbox อาจมีถึง 80 compute units — เทียบเท่าหรือสูงกว่า RTX 5080 เลยทีเดียว ✅ AMD เตรียมเปิดตัว GPU รุ่นใหม่ในปี 2026 โดยใช้สถาปัตยกรรม UDNA (RDNA 5) ➡️ อาจมีประสิทธิภาพสูงกว่า RTX 5080 โดยเฉพาะด้าน ray tracing ✅ GPU รุ่นเรือธงจะมี 96 compute units และ memory bus 384-bit ➡️ โครงสร้างคล้าย RX 7900 XTX แต่ใช้เทคโนโลยีใหม่ ✅ รุ่นกลางและรุ่นทั่วไปจะมี 64 และ 32 CU ตามลำดับ ➡️ คล้ายกับ RX 9070 XT และ RX 9060 XT ใน RDNA 4 ✅ UDNA จะเพิ่ม raster performance 20% และ ray tracing 2 เท่าเมื่อเทียบกับ RDNA 4 ➡️ แก้จุดอ่อนของ Radeon ที่แพ้ GeForce ใน path tracing ✅ RX 9070 XT มี ray tracing ดีกว่า RX 7900 XTX แม้จะอยู่ในระดับต่ำกว่า ➡️ แสดงว่า AMD เริ่มพัฒนา ray tracing ได้ดีขึ้นแล้ว ✅ UDNA คาดว่าจะใช้ใน PlayStation 6 และ Xbox รุ่นใหม่ ➡️ Xbox อาจมี 80 CU ซึ่งเทียบเท่ากับ RTX 5080 https://www.techspot.com/news/108754-amd-upcoming-rdna-5-flagship-could-target-rtx.html
    WWW.TECHSPOT.COM
    AMD's upcoming RDNA 5 flagship could target RTX 5080-level performance with better RT
    AMD is expected to introduce a new enthusiast-class graphics card in the second half of 2026. Based on the company's upcoming UDNA architecture, also known as RDNA...
    0 ความคิดเห็น 0 การแบ่งปัน 109 มุมมอง 0 รีวิว
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก GPU ที่ถูกแบน: เมื่อ Nvidia ต้องออกแบบใหม่เพื่อขายให้จีน

    Nvidia เคยผลิต GPU รุ่น H20 สำหรับงาน AI โดยใช้สถาปัตยกรรม Hopper แต่ถูกแบนจากการส่งออกไปจีนในเดือนเมษายน 2025 ทำให้ต้อง:
    - ยกเลิกคำสั่งซื้อ
    - หยุดสายการผลิตที่ TSMC
    - ขาดทุนจากสินค้าค้างสต็อกถึง $4.5 พันล้าน

    แม้รัฐบาลสหรัฐฯ จะกลับลำในเดือนกรกฎาคม โดยอนุญาตให้ส่งออก H20 และ AMD MI308 ไปจีนโดยไม่ต้องขอใบอนุญาต แต่ Nvidia ไม่ได้กลับมาผลิต H20 อีก เพราะ:
    - TSMC ยังไม่ได้รับคำสั่งซื้อใหม่
    - โรงงานถูกใช้เต็มกำลังกับลูกค้ารายอื่น
    - การผลิต Hopper ไม่คุ้มเมื่อมี Blackwell ที่ใหม่และมีประสิทธิภาพดีกว่า

    ดังนั้น Nvidia จึงเตรียมเปิดตัว GPU รุ่นใหม่ชื่อ B30 ที่ใช้สถาปัตยกรรม Blackwell โดย:
    - มีประสิทธิภาพต่ำกว่า H20 ประมาณ 10–20%
    - ราคาถูกลง 30–40%
    - ขนาดเล็กลงและตรงตามข้อกำหนดการส่งออกของสหรัฐฯ
    - อาจใช้ Blackwell Ultra ที่รองรับ FP4 สำหรับงาน AI โดยเฉพาะ

    Nvidia หยุดผลิต GPU รุ่น H20 หลังถูกแบนจากการส่งออกไปจีน
    ขาดทุนจากสินค้าค้างสต็อกถึง $4.5 พันล้านในไตรมาสแรก

    รัฐบาลสหรัฐฯ กลับลำ อนุญาตให้ส่งออก H20 และ MI308 ไปจีนโดยไม่ต้องขอใบอนุญาต
    แต่ Nvidia ยังไม่กลับมาผลิต H20 เพราะไม่คุ้มเมื่อเทียบกับ Blackwell

    TSMC ยังไม่ได้รับคำสั่งซื้อใหม่สำหรับ H20 และใช้กำลังผลิตกับลูกค้ารายอื่น
    แม้จะมองว่าเป็นข่าวดี แต่ยังไม่พร้อมเพิ่ม forecast

    Nvidia เตรียมเปิดตัว GPU รุ่น B30 สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell
    มีประสิทธิภาพต่ำกว่า H20 10–20% แต่ราคาถูกลง 30–40%

    B30 อาจใช้ Blackwell Ultra ที่รองรับ FP4 สำหรับงาน AI
    ช่วยให้มีประสิทธิภาพต่อขนาดสูงขึ้นและตรงตามข้อจำกัดการส่งออก

    การออกแบบใหม่ช่วยให้ Nvidia รักษาตลาดจีนและเพิ่ม margin ได้
    แม้จะลดประสิทธิภาพ แต่ยังแข่งขันได้กับ Biren และ Huawei

    https://www.tomshardware.com/pc-components/gpus/nvidia-h20-ai-gpu-inventory-is-limited-but-nvidia-is-making-a-new-b30-model-for-china-to-comply-with-export-restrictions
    🎙️ เรื่องเล่าจาก GPU ที่ถูกแบน: เมื่อ Nvidia ต้องออกแบบใหม่เพื่อขายให้จีน Nvidia เคยผลิต GPU รุ่น H20 สำหรับงาน AI โดยใช้สถาปัตยกรรม Hopper แต่ถูกแบนจากการส่งออกไปจีนในเดือนเมษายน 2025 ทำให้ต้อง: - ยกเลิกคำสั่งซื้อ - หยุดสายการผลิตที่ TSMC - ขาดทุนจากสินค้าค้างสต็อกถึง $4.5 พันล้าน แม้รัฐบาลสหรัฐฯ จะกลับลำในเดือนกรกฎาคม โดยอนุญาตให้ส่งออก H20 และ AMD MI308 ไปจีนโดยไม่ต้องขอใบอนุญาต แต่ Nvidia ไม่ได้กลับมาผลิต H20 อีก เพราะ: - TSMC ยังไม่ได้รับคำสั่งซื้อใหม่ - โรงงานถูกใช้เต็มกำลังกับลูกค้ารายอื่น - การผลิต Hopper ไม่คุ้มเมื่อมี Blackwell ที่ใหม่และมีประสิทธิภาพดีกว่า ดังนั้น Nvidia จึงเตรียมเปิดตัว GPU รุ่นใหม่ชื่อ B30 ที่ใช้สถาปัตยกรรม Blackwell โดย: - มีประสิทธิภาพต่ำกว่า H20 ประมาณ 10–20% - ราคาถูกลง 30–40% - ขนาดเล็กลงและตรงตามข้อกำหนดการส่งออกของสหรัฐฯ - อาจใช้ Blackwell Ultra ที่รองรับ FP4 สำหรับงาน AI โดยเฉพาะ ✅ Nvidia หยุดผลิต GPU รุ่น H20 หลังถูกแบนจากการส่งออกไปจีน ➡️ ขาดทุนจากสินค้าค้างสต็อกถึง $4.5 พันล้านในไตรมาสแรก ✅ รัฐบาลสหรัฐฯ กลับลำ อนุญาตให้ส่งออก H20 และ MI308 ไปจีนโดยไม่ต้องขอใบอนุญาต ➡️ แต่ Nvidia ยังไม่กลับมาผลิต H20 เพราะไม่คุ้มเมื่อเทียบกับ Blackwell ✅ TSMC ยังไม่ได้รับคำสั่งซื้อใหม่สำหรับ H20 และใช้กำลังผลิตกับลูกค้ารายอื่น ➡️ แม้จะมองว่าเป็นข่าวดี แต่ยังไม่พร้อมเพิ่ม forecast ✅ Nvidia เตรียมเปิดตัว GPU รุ่น B30 สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell ➡️ มีประสิทธิภาพต่ำกว่า H20 10–20% แต่ราคาถูกลง 30–40% ✅ B30 อาจใช้ Blackwell Ultra ที่รองรับ FP4 สำหรับงาน AI ➡️ ช่วยให้มีประสิทธิภาพต่อขนาดสูงขึ้นและตรงตามข้อจำกัดการส่งออก ✅ การออกแบบใหม่ช่วยให้ Nvidia รักษาตลาดจีนและเพิ่ม margin ได้ ➡️ แม้จะลดประสิทธิภาพ แต่ยังแข่งขันได้กับ Biren และ Huawei https://www.tomshardware.com/pc-components/gpus/nvidia-h20-ai-gpu-inventory-is-limited-but-nvidia-is-making-a-new-b30-model-for-china-to-comply-with-export-restrictions
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่

    GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก

    GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ:
    - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18%
    - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20%
    - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4%

    การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB

    XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้

    GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W
    ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม

    GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti
    มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก

    เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก
    เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3

    การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB
    ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล

    XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต
    ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ

    https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    🎙️ เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่ GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ: - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20% - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4% การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้ ✅ GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W ➡️ ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม ✅ GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti ➡️ มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก ✅ เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก ➡️ เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3 ✅ การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB ➡️ ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล ✅ XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต ➡️ ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    0 ความคิดเห็น 0 การแบ่งปัน 107 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา

    ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์

    ExpertCenter Pro ET900N G3 มีจุดเด่นคือ:
    - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra
    - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI
    - พลังประมวลผลสูงถึง 20 PFLOPS
    - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s)

    นอกจากนี้ยังมีความสามารถในการขยาย:
    - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม
    - M.2 SSD 3 ช่อง
    - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU

    แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่

    Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra
    เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS

    ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference

    ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra
    เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025

    รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s
    เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง

    มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง
    รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล

    ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU
    ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง

    Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation
    ไม่จำกัดเฉพาะ DGX อีกต่อไป

    Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว
    ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack

    https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    🎙️ เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์ ExpertCenter Pro ET900N G3 มีจุดเด่นคือ: - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI - พลังประมวลผลสูงถึง 20 PFLOPS - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s) นอกจากนี้ยังมีความสามารถในการขยาย: - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม - M.2 SSD 3 ช่อง - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่ ✅ Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra ➡️ เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS ✅ ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB ➡️ รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference ✅ ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra ➡️ เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025 ✅ รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s ➡️ เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง ✅ มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง ➡️ รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล ✅ ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU ➡️ ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง ✅ Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation ➡️ ไม่จำกัดเฉพาะ DGX อีกต่อไป ✅ Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว ➡️ ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเล็กจิ๋ว: เมื่อแสงควอนตัมถูกผลิตบนซิลิคอนแบบเดียวกับ CPU

    ชิปนี้ใช้โครงสร้างที่เรียกว่า microring resonators จำนวน 12 วง ซึ่งทำหน้าที่ผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม — โดยปกติการผลิตโฟตอนแบบนี้ต้องใช้ห้องแล็บที่ซับซ้อน แต่ทีมวิจัยสามารถทำให้เกิดขึ้นบนชิปขนาดเท่าเล็บนิ้ว

    ความท้าทายคือ microring resonators มีความไวต่ออุณหภูมิและความคลาดเคลื่อนในการผลิต — หากไม่ปรับจูนอย่างแม่นยำจะไม่สามารถผลิตโฟตอนได้ ทีมจึงสร้างระบบ feedback บนชิป:
    - มี photodiode ตรวจสอบการทำงานของแต่ละ resonator
    - มี heater และวงจรควบคุมปรับจูนอัตโนมัติ
    - ทำให้ทั้ง 12 วงทำงานร่วมกันได้อย่างเสถียร โดยไม่ต้องใช้เครื่องมือภายนอก

    ชิปนี้ถูกผลิตด้วยเทคโนโลยี CMOS 45nm ซึ่งแม้จะไม่ใช่ระดับ cutting-edge แต่มีความเสถียรและสามารถผลิตจำนวนมากได้ในโรงงานทั่วไป เช่นของ GlobalFoundries และ Ayar Labs

    Nvidia CEO ยังเคยกล่าวว่า microring resonators คือ “หัวใจของการเชื่อมต่อแบบ optical สำหรับ AI” — และงานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน

    นักวิจัยสร้าง “โรงงานแสงควอนตัม” บนชิปขนาด 1 มม² โดยใช้ CMOS 45nm
    เป็นการรวม photonics, electronics และ quantum optics บนแพลตฟอร์มเดียว

    ใช้ microring resonators 12 วงเพื่อผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม
    โดยปกติการผลิตโฟตอนต้องใช้ห้องแล็บที่ซับซ้อน

    มีระบบ feedback บนชิปเพื่อปรับจูน resonator แบบเรียลไทม์
    ใช้ photodiode, heater และวงจรควบคุมเพื่อให้ทำงานเสถียร

    ผลิตด้วยเทคโนโลยี CMOS 45nm ที่ใช้ใน CPU และ GPU ทั่วไป
    ทำให้สามารถผลิตในโรงงานอุตสาหกรรมได้ ไม่ต้องใช้เทคนิคเฉพาะทาง

    ชิปนี้ถูกพัฒนาร่วมกับ GlobalFoundries และ Ayar Labs
    บริษัทที่เชี่ยวชาญด้าน optical interconnects สำหรับ AI และ HPC

    Nvidia เคยกล่าวว่า microring resonators คือกุญแจสำคัญของการเชื่อมต่อ AI แบบ optical
    งานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน

    นักวิจัยบางคนในทีมได้เข้าร่วมบริษัทเชิงพาณิชย์ เช่น PsiQuantum, Ayar Labs และ Google X
    แสดงถึงการเปลี่ยนผ่านจากงานวิจัยสู่ผลิตภัณฑ์จริง

    https://www.tomshardware.com/tech-industry/quantum-computing/researchers-pack-a-quantum-light-factory-into-a-1mm-square-chip-combines-photonics-electronics-and-quantum-hardware-with-traditional-silicon-manufacturing
    🎙️ เรื่องเล่าจากชิปเล็กจิ๋ว: เมื่อแสงควอนตัมถูกผลิตบนซิลิคอนแบบเดียวกับ CPU ชิปนี้ใช้โครงสร้างที่เรียกว่า microring resonators จำนวน 12 วง ซึ่งทำหน้าที่ผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม — โดยปกติการผลิตโฟตอนแบบนี้ต้องใช้ห้องแล็บที่ซับซ้อน แต่ทีมวิจัยสามารถทำให้เกิดขึ้นบนชิปขนาดเท่าเล็บนิ้ว ความท้าทายคือ microring resonators มีความไวต่ออุณหภูมิและความคลาดเคลื่อนในการผลิต — หากไม่ปรับจูนอย่างแม่นยำจะไม่สามารถผลิตโฟตอนได้ ทีมจึงสร้างระบบ feedback บนชิป: - มี photodiode ตรวจสอบการทำงานของแต่ละ resonator - มี heater และวงจรควบคุมปรับจูนอัตโนมัติ - ทำให้ทั้ง 12 วงทำงานร่วมกันได้อย่างเสถียร โดยไม่ต้องใช้เครื่องมือภายนอก ชิปนี้ถูกผลิตด้วยเทคโนโลยี CMOS 45nm ซึ่งแม้จะไม่ใช่ระดับ cutting-edge แต่มีความเสถียรและสามารถผลิตจำนวนมากได้ในโรงงานทั่วไป เช่นของ GlobalFoundries และ Ayar Labs Nvidia CEO ยังเคยกล่าวว่า microring resonators คือ “หัวใจของการเชื่อมต่อแบบ optical สำหรับ AI” — และงานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน ✅ นักวิจัยสร้าง “โรงงานแสงควอนตัม” บนชิปขนาด 1 มม² โดยใช้ CMOS 45nm ➡️ เป็นการรวม photonics, electronics และ quantum optics บนแพลตฟอร์มเดียว ✅ ใช้ microring resonators 12 วงเพื่อผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม ➡️ โดยปกติการผลิตโฟตอนต้องใช้ห้องแล็บที่ซับซ้อน ✅ มีระบบ feedback บนชิปเพื่อปรับจูน resonator แบบเรียลไทม์ ➡️ ใช้ photodiode, heater และวงจรควบคุมเพื่อให้ทำงานเสถียร ✅ ผลิตด้วยเทคโนโลยี CMOS 45nm ที่ใช้ใน CPU และ GPU ทั่วไป ➡️ ทำให้สามารถผลิตในโรงงานอุตสาหกรรมได้ ไม่ต้องใช้เทคนิคเฉพาะทาง ✅ ชิปนี้ถูกพัฒนาร่วมกับ GlobalFoundries และ Ayar Labs ➡️ บริษัทที่เชี่ยวชาญด้าน optical interconnects สำหรับ AI และ HPC ✅ Nvidia เคยกล่าวว่า microring resonators คือกุญแจสำคัญของการเชื่อมต่อ AI แบบ optical ➡️ งานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน ✅ นักวิจัยบางคนในทีมได้เข้าร่วมบริษัทเชิงพาณิชย์ เช่น PsiQuantum, Ayar Labs และ Google X ➡️ แสดงถึงการเปลี่ยนผ่านจากงานวิจัยสู่ผลิตภัณฑ์จริง https://www.tomshardware.com/tech-industry/quantum-computing/researchers-pack-a-quantum-light-factory-into-a-1mm-square-chip-combines-photonics-electronics-and-quantum-hardware-with-traditional-silicon-manufacturing
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • เรื่องเล่าจากบ้านที่มีเด็ก: เมื่อพ่อแม่ต้องตัดสินใจเรื่อง AI ก่อนที่โลกจะตัดสินใจให้

    Adam Tal นักการตลาดจากอิสราเอล บอกว่าเขา “กังวลมาก” กับอนาคตของลูกชายวัย 7 และ 9 ปี — ไม่ใช่แค่ deepfake หรือความจริงที่แยกไม่ออกจาก AI แต่รวมถึงภัยใหม่ ๆ ที่เขาไม่เคยถูกฝึกให้รับมือ

    Mike Brooks นักจิตวิทยาในเท็กซัสเสริมว่า พ่อแม่หลายคน “หลีกเลี่ยงการพูดเรื่อง AI” เพราะแค่รับมือกับ TikTok, เกม และการพาลูกออกจากห้องก็เหนื่อยพอแล้ว

    Melissa Franklin นักศึกษากฎหมายในรัฐเคนทักกี เลือกอีกทาง — เธอใช้ AI ร่วมกับลูกชายวัย 7 ปีเพื่อหาข้อมูลที่หาไม่ได้จากหนังสือหรือ Google โดยมีเงื่อนไขว่า “ต้องคิดเองก่อน แล้วค่อยใช้ AI เสริม”

    Marc Watkins อาจารย์จากมหาวิทยาลัยมิสซิสซิปปีบอกว่า “เราเลยจุดที่ห้ามเด็กใช้ AI ไปแล้ว” และแนะนำให้พ่อแม่ “พูดคุยอย่างลึกซึ้ง” กับลูกเรื่องข้อดีและข้อเสียของ AI

    แม้ CEO ของ NVIDIA จะบอกว่า AI คือ “พลังแห่งความเท่าเทียม” แต่ Watkins กลับมองว่า AI จะกลายเป็น “เครื่องมือของคนที่มีเงิน” เพราะการเข้าถึง AI ที่ดีต้องใช้ทรัพยากร — เช่นพ่อแม่ที่มี PhD ด้านคอมพิวเตอร์

    ผู้ปกครองหลายคนกังวลว่า AI จะส่งผลต่อเด็กในแบบที่ยังไม่มีงานวิจัยรองรับ
    เช่น deepfake, ความจริงที่แยกไม่ออก, และภัยใหม่ที่ไม่เคยรู้จัก

    MIT เคยเผยผลวิจัยว่า คนที่ไม่ใช้ Generative AI มีการกระตุ้นสมองและความจำมากกว่า
    ทำให้บางพ่อแม่เลือกให้ลูกใช้ AI เฉพาะเพื่อเสริมความรู้ ไม่ใช่แทนการคิด

    Melissa Franklin ใช้ AI กับลูกชายเพื่อหาข้อมูลที่หาไม่ได้จากแหล่งทั่วไป
    แต่เน้นให้ลูก “คิดเองก่อน” แล้วค่อยใช้ AI เป็นเครื่องมือเสริม

    Watkins แนะนำให้พ่อแม่พูดคุยกับลูกเรื่อง AI อย่างจริงจัง
    เพราะเด็กจะใช้ AI แน่นอน จึงควรรู้ทั้งข้อดีและข้อเสีย

    NVIDIA มองว่า AI คือพลังแห่งความเท่าเทียมในการเรียนรู้
    แต่ Watkins มองว่า AI จะกลายเป็นเครื่องมือของคนมีฐานะ

    พ่อแม่ที่มีความรู้ด้านเทคโนโลยีจะให้ลูกได้เปรียบในการใช้ AI
    เช่นครอบครัวที่มี PhD ด้านคอมพิวเตอร์สามารถสอนลูกได้ลึกกว่า

    ยังไม่มีงานวิจัยระยะยาวที่ชัดเจนเกี่ยวกับผลกระทบของ AI ต่อพัฒนาการเด็ก
    การใช้ AI โดยไม่มีการกำกับอาจส่งผลต่อความคิด, ความจำ และการเรียนรู้

    พ่อแม่บางคนหลีกเลี่ยงการพูดเรื่อง AI เพราะรู้สึกว่า “เหนื่อยเกินไป”
    อาจทำให้เด็กเรียนรู้จากแหล่งที่ไม่ปลอดภัยหรือขาดการชี้นำที่เหมาะสม

    การเข้าถึง AI ที่ดีอาจขึ้นอยู่กับฐานะทางเศรษฐกิจ
    เด็กจากครอบครัวที่มีทรัพยากรน้อยอาจเสียเปรียบในโลกที่ AI เป็นเครื่องมือหลัก

    การใช้ AI เป็น “ทางลัด” อาจทำให้เด็กพึ่งพาโดยไม่พัฒนาทักษะคิดวิเคราะห์
    ต้องมีการออกแบบการใช้ AI ให้ส่งเสริมการเรียนรู้ ไม่ใช่แทนที่การคิด

    https://www.thestar.com.my/tech/tech-news/2025/07/22/anxious-parents-face-tough-choices-on-ai
    🎙️ เรื่องเล่าจากบ้านที่มีเด็ก: เมื่อพ่อแม่ต้องตัดสินใจเรื่อง AI ก่อนที่โลกจะตัดสินใจให้ Adam Tal นักการตลาดจากอิสราเอล บอกว่าเขา “กังวลมาก” กับอนาคตของลูกชายวัย 7 และ 9 ปี — ไม่ใช่แค่ deepfake หรือความจริงที่แยกไม่ออกจาก AI แต่รวมถึงภัยใหม่ ๆ ที่เขาไม่เคยถูกฝึกให้รับมือ Mike Brooks นักจิตวิทยาในเท็กซัสเสริมว่า พ่อแม่หลายคน “หลีกเลี่ยงการพูดเรื่อง AI” เพราะแค่รับมือกับ TikTok, เกม และการพาลูกออกจากห้องก็เหนื่อยพอแล้ว Melissa Franklin นักศึกษากฎหมายในรัฐเคนทักกี เลือกอีกทาง — เธอใช้ AI ร่วมกับลูกชายวัย 7 ปีเพื่อหาข้อมูลที่หาไม่ได้จากหนังสือหรือ Google โดยมีเงื่อนไขว่า “ต้องคิดเองก่อน แล้วค่อยใช้ AI เสริม” Marc Watkins อาจารย์จากมหาวิทยาลัยมิสซิสซิปปีบอกว่า “เราเลยจุดที่ห้ามเด็กใช้ AI ไปแล้ว” และแนะนำให้พ่อแม่ “พูดคุยอย่างลึกซึ้ง” กับลูกเรื่องข้อดีและข้อเสียของ AI แม้ CEO ของ NVIDIA จะบอกว่า AI คือ “พลังแห่งความเท่าเทียม” แต่ Watkins กลับมองว่า AI จะกลายเป็น “เครื่องมือของคนที่มีเงิน” เพราะการเข้าถึง AI ที่ดีต้องใช้ทรัพยากร — เช่นพ่อแม่ที่มี PhD ด้านคอมพิวเตอร์ ✅ ผู้ปกครองหลายคนกังวลว่า AI จะส่งผลต่อเด็กในแบบที่ยังไม่มีงานวิจัยรองรับ ➡️ เช่น deepfake, ความจริงที่แยกไม่ออก, และภัยใหม่ที่ไม่เคยรู้จัก ✅ MIT เคยเผยผลวิจัยว่า คนที่ไม่ใช้ Generative AI มีการกระตุ้นสมองและความจำมากกว่า ➡️ ทำให้บางพ่อแม่เลือกให้ลูกใช้ AI เฉพาะเพื่อเสริมความรู้ ไม่ใช่แทนการคิด ✅ Melissa Franklin ใช้ AI กับลูกชายเพื่อหาข้อมูลที่หาไม่ได้จากแหล่งทั่วไป ➡️ แต่เน้นให้ลูก “คิดเองก่อน” แล้วค่อยใช้ AI เป็นเครื่องมือเสริม ✅ Watkins แนะนำให้พ่อแม่พูดคุยกับลูกเรื่อง AI อย่างจริงจัง ➡️ เพราะเด็กจะใช้ AI แน่นอน จึงควรรู้ทั้งข้อดีและข้อเสีย ✅ NVIDIA มองว่า AI คือพลังแห่งความเท่าเทียมในการเรียนรู้ ➡️ แต่ Watkins มองว่า AI จะกลายเป็นเครื่องมือของคนมีฐานะ ✅ พ่อแม่ที่มีความรู้ด้านเทคโนโลยีจะให้ลูกได้เปรียบในการใช้ AI ➡️ เช่นครอบครัวที่มี PhD ด้านคอมพิวเตอร์สามารถสอนลูกได้ลึกกว่า ‼️ ยังไม่มีงานวิจัยระยะยาวที่ชัดเจนเกี่ยวกับผลกระทบของ AI ต่อพัฒนาการเด็ก ⛔ การใช้ AI โดยไม่มีการกำกับอาจส่งผลต่อความคิด, ความจำ และการเรียนรู้ ‼️ พ่อแม่บางคนหลีกเลี่ยงการพูดเรื่อง AI เพราะรู้สึกว่า “เหนื่อยเกินไป” ⛔ อาจทำให้เด็กเรียนรู้จากแหล่งที่ไม่ปลอดภัยหรือขาดการชี้นำที่เหมาะสม ‼️ การเข้าถึง AI ที่ดีอาจขึ้นอยู่กับฐานะทางเศรษฐกิจ ⛔ เด็กจากครอบครัวที่มีทรัพยากรน้อยอาจเสียเปรียบในโลกที่ AI เป็นเครื่องมือหลัก ‼️ การใช้ AI เป็น “ทางลัด” อาจทำให้เด็กพึ่งพาโดยไม่พัฒนาทักษะคิดวิเคราะห์ ⛔ ต้องมีการออกแบบการใช้ AI ให้ส่งเสริมการเรียนรู้ ไม่ใช่แทนที่การคิด https://www.thestar.com.my/tech/tech-news/2025/07/22/anxious-parents-face-tough-choices-on-ai
    WWW.THESTAR.COM.MY
    Anxious parents face tough choices on AI
    When it comes to AI, many parents navigate between fear of the unknown and fear of their children missing out.
    0 ความคิดเห็น 0 การแบ่งปัน 184 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ

    TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027

    หากแผนนี้สำเร็จ:
    - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC
    - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน

    แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก

    TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027
    เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026

    ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek
    ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง

    Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด
    ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร

    หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC
    ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง

    TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง
    Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า

    https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    🎙️ เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027 หากแผนนี้สำเร็จ: - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก ✅ TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027 ➡️ เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026 ✅ ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek ➡️ ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง ✅ Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด ➡️ ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร ✅ หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC ➡️ ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง ✅ TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง ➡️ Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    WCCFTECH.COM
    TSMC, World's Largest Contract Chipmaker & NVIDIA AI Supplier, Could Boost Output To 200,000 Wafers Per Month - Report
    TSMC may expand 2-nanometer wafer production to 200,000 per month by 2027 due to strong demand from Apple, NVIDIA, and Intel.
    0 ความคิดเห็น 0 การแบ่งปัน 124 มุมมอง 0 รีวิว
  • เรื่องเล่าจากม็อดเกม: FSR 4 ไม่ต้องรอ AMD แล้ว ใช้ได้เลยด้วย OptiScaler

    ก่อนหน้านี้ FSR 4 ของ AMD ยังถูกจำกัดมาก:
    - มีเกมรองรับโดยตรงเพียง ~65 เกม และส่วนใหญ่เป็นเกมเล็ก ๆ
    - ใช้ได้เฉพาะบน GPU RX 9000 ที่มี AI accelerator เฉพาะ
    - ไม่รองรับ Vulkan API หรือเกมที่มีระบบ anti-cheat เข้มงวด

    แต่ OptiScaler (ชื่อเดิม CyberXeSS) ซึ่งเป็นเครื่องมือของชุมชน ได้พัฒนาให้:
    - รองรับการ "อัปเกรด" จาก FSR 2 หรือ DLSS มาเป็น FSR 4
    - แถมยังปรับใช้ระบบ frame generation และ anti-lag เหมือน Nvidia Reflex ได้
    - ใช้ได้กับ DLSS 2, XeSS, หรือ FSR รุ่นเก่า เพียงมีการติดตั้ง config เพิ่มเติม

    ระบบนี้จะไม่เปลี่ยนตัวเกมโดยตรง แต่จะวาง FSR 4 เข้ากับไฟล์อัปสเกลที่มีอยู่ แล้วทำการปรับจูนผ่าน DLL และการตั้งค่าระบบกราฟิก — ต้องอาศัยการจัดการไฟล์ด้วยตัวเองในแต่ละเกม

    OptiScaler รองรับการแปลงอัปสเกลเก่ามาใช้กับ FSR 4 ได้
    เช่น FSR 2 หรือ DLSS 2 ในเกมสามารถเปลี่ยนมาใช้ FSR 4 โดยไม่แก้ไขโค้ดของเกม

    สามารถใช้ FSR 4 ได้ในเกมที่ไม่มีการรองรับแบบ native
    แม้ AMD ยังไม่โปรโมตเต็มตัว แต่เครื่องมือชุมชนเปิดให้ใช้งานได้แล้ว

    OptiScaler รองรับฟีเจอร์เสริม เช่น frame-gen และ anti-lag
    ให้ความรู้สึกคล้าย Nvidia Reflex หรือ DLSS Frame Generation

    ต้องใช้การติดตั้งแบบ manual โดยการวางไฟล์ FSR 4 ลงใน directory ของเกม
    ไม่ใช่การเปิด toggle แบบ GUI ต้องเข้าไปแก้ไฟล์ config ด้วยตัวเอง

    GPU ที่ต้องใช้คือ RX 9000-series ซึ่งมีตัวเร่ง AI (AI accelerator) สำหรับ FSR 4
    การใช้งานขึ้นกับ hardware ด้วย ไม่ใช่แค่ software

    https://www.tomshardware.com/pc-components/gpus/amds-fsr-4-gets-a-big-boost-in-compatibility-as-optiscaler-now-supports-upconverting-any-modern-upscaler-to-fsr-4-with-frame-gen-as-long-as-the-game-isnt-vulkan-based-or-has-anti-cheat
    🎙️ เรื่องเล่าจากม็อดเกม: FSR 4 ไม่ต้องรอ AMD แล้ว ใช้ได้เลยด้วย OptiScaler ก่อนหน้านี้ FSR 4 ของ AMD ยังถูกจำกัดมาก: - มีเกมรองรับโดยตรงเพียง ~65 เกม และส่วนใหญ่เป็นเกมเล็ก ๆ - ใช้ได้เฉพาะบน GPU RX 9000 ที่มี AI accelerator เฉพาะ - ไม่รองรับ Vulkan API หรือเกมที่มีระบบ anti-cheat เข้มงวด แต่ OptiScaler (ชื่อเดิม CyberXeSS) ซึ่งเป็นเครื่องมือของชุมชน ได้พัฒนาให้: - รองรับการ "อัปเกรด" จาก FSR 2 หรือ DLSS มาเป็น FSR 4 - แถมยังปรับใช้ระบบ frame generation และ anti-lag เหมือน Nvidia Reflex ได้ - ใช้ได้กับ DLSS 2, XeSS, หรือ FSR รุ่นเก่า เพียงมีการติดตั้ง config เพิ่มเติม ระบบนี้จะไม่เปลี่ยนตัวเกมโดยตรง แต่จะวาง FSR 4 เข้ากับไฟล์อัปสเกลที่มีอยู่ แล้วทำการปรับจูนผ่าน DLL และการตั้งค่าระบบกราฟิก — ต้องอาศัยการจัดการไฟล์ด้วยตัวเองในแต่ละเกม ✅ OptiScaler รองรับการแปลงอัปสเกลเก่ามาใช้กับ FSR 4 ได้ ➡️ เช่น FSR 2 หรือ DLSS 2 ในเกมสามารถเปลี่ยนมาใช้ FSR 4 โดยไม่แก้ไขโค้ดของเกม ✅ สามารถใช้ FSR 4 ได้ในเกมที่ไม่มีการรองรับแบบ native ➡️ แม้ AMD ยังไม่โปรโมตเต็มตัว แต่เครื่องมือชุมชนเปิดให้ใช้งานได้แล้ว ✅ OptiScaler รองรับฟีเจอร์เสริม เช่น frame-gen และ anti-lag ➡️ ให้ความรู้สึกคล้าย Nvidia Reflex หรือ DLSS Frame Generation ✅ ต้องใช้การติดตั้งแบบ manual โดยการวางไฟล์ FSR 4 ลงใน directory ของเกม ➡️ ไม่ใช่การเปิด toggle แบบ GUI ต้องเข้าไปแก้ไฟล์ config ด้วยตัวเอง ✅ GPU ที่ต้องใช้คือ RX 9000-series ซึ่งมีตัวเร่ง AI (AI accelerator) สำหรับ FSR 4 ➡️ การใช้งานขึ้นกับ hardware ด้วย ไม่ใช่แค่ software https://www.tomshardware.com/pc-components/gpus/amds-fsr-4-gets-a-big-boost-in-compatibility-as-optiscaler-now-supports-upconverting-any-modern-upscaler-to-fsr-4-with-frame-gen-as-long-as-the-game-isnt-vulkan-based-or-has-anti-cheat
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเปิด: เมื่อ RISC-V ได้กลายเป็นสมองในโลก CUDA

    ก่อนหน้านี้ CUDA ใช้ได้เฉพาะกับแพลตฟอร์ม host CPU ที่เป็น x86 หรือ Arm — แต่ตอนนี้ Nvidia ได้เปิดทางให้ CPU แบบ RISC-V สามารถ “ควบคุม GPU” ผ่าน CUDA ได้เช่นกัน โดยการแปลงโครงสร้างและไลบรารีพื้นฐานให้เรียกใช้ได้ในระบบ RISC-V

    ภาพรวมของระบบใหม่จะประกอบด้วย:

    GPU ของ Nvidia ทำงานแบบ parallel สำหรับ AI และ HPC workload

    CPU RISC-V ทำหน้าที่จัดการ driver, logic ของแอปพลิเคชัน, และระบบปฏิบัติการ

    DPU (Data Processing Unit) คอยจัดการ networking และ data movement

    แนวคิดนี้จะทำให้ระบบแบบ “heterogeneous compute” เกิดขึ้น — โดยมี RISC-V เป็น “ศูนย์กลางควบคุม” และ GPU/Network/DPU เป็นกลไกทำงานเฉพาะด้าน แสดงถึงความตั้งใจของ Nvidia ที่จะขยาย CUDA ไปยังระบบเปิดและระบบฝัง (embedded compute) ได้จริง

    ยิ่งไปกว่านั้น การที่ Nvidia ทำแบบนี้ในจีน ทั้งที่ไม่สามารถขาย GPU GB200 และ GB300 ให้จีนได้ (เนื่องจากข้อจำกัดการส่งออก) ก็เป็นนัยว่า Nvidia กำลัง “หาเส้นทางใหม่เพื่อรักษา ecosystem” ผ่าน RISC-V ซึ่งเติบโตอย่างรวดเร็วในฝั่งจีน

    https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm
    🎙️ เรื่องเล่าจากชิปเปิด: เมื่อ RISC-V ได้กลายเป็นสมองในโลก CUDA ก่อนหน้านี้ CUDA ใช้ได้เฉพาะกับแพลตฟอร์ม host CPU ที่เป็น x86 หรือ Arm — แต่ตอนนี้ Nvidia ได้เปิดทางให้ CPU แบบ RISC-V สามารถ “ควบคุม GPU” ผ่าน CUDA ได้เช่นกัน โดยการแปลงโครงสร้างและไลบรารีพื้นฐานให้เรียกใช้ได้ในระบบ RISC-V ภาพรวมของระบบใหม่จะประกอบด้วย: ✅ GPU ของ Nvidia ทำงานแบบ parallel สำหรับ AI และ HPC workload ✅ CPU RISC-V ทำหน้าที่จัดการ driver, logic ของแอปพลิเคชัน, และระบบปฏิบัติการ ✅ DPU (Data Processing Unit) คอยจัดการ networking และ data movement แนวคิดนี้จะทำให้ระบบแบบ “heterogeneous compute” เกิดขึ้น — โดยมี RISC-V เป็น “ศูนย์กลางควบคุม” และ GPU/Network/DPU เป็นกลไกทำงานเฉพาะด้าน แสดงถึงความตั้งใจของ Nvidia ที่จะขยาย CUDA ไปยังระบบเปิดและระบบฝัง (embedded compute) ได้จริง ยิ่งไปกว่านั้น การที่ Nvidia ทำแบบนี้ในจีน ทั้งที่ไม่สามารถขาย GPU GB200 และ GB300 ให้จีนได้ (เนื่องจากข้อจำกัดการส่งออก) ก็เป็นนัยว่า Nvidia กำลัง “หาเส้นทางใหม่เพื่อรักษา ecosystem” ผ่าน RISC-V ซึ่งเติบโตอย่างรวดเร็วในฝั่งจีน https://www.tomshardware.com/pc-components/gpus/nvidias-cuda-platform-now-supports-risc-v-support-brings-open-source-instruction-set-to-ai-platforms-joining-x86-and-arm
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกเศรษฐกิจใหม่: AI กำลังกินเศรษฐกิจทั้งระบบ — แบบที่ไม่เคยเกิดมาก่อน

    การใช้จ่ายเพื่อสร้าง AI datacenter กำลังพุ่งสูงจนกระทบตัวเลขเศรษฐกิจอย่างเห็นได้ชัด เช่น:
    - สหรัฐฯ คาดว่า AI capex จะคิดเป็น ~2% ของ GDP ปี 2025
    - ส่งผลต่อการเติบโตทางเศรษฐกิจถึง ~0.7%
    - หากนับรวม multiplier ทางเศรษฐศาสตร์ — จะมีผลกระทบต่อเศรษฐกิจมากกว่าที่เห็น

    ขนาดของการลงทุนนี้ใหญ่ใกล้เคียงกับช่วงพีคของการสร้างรางรถไฟในยุค 1800s และสูงกว่าการลงทุนในยุค dot-com boom แล้วด้วยซ้ำ

    ในจีนก็เกิดปรากฏการณ์คล้ายกันจนประธานาธิบดีสีจิ้นผิงออกมาเตือนว่า “ไม่ใช่ทุกมณฑลต้องแข่งกันสร้าง datacenter และ AI project” เพราะมีมากกว่า 250 แห่งอยู่ระหว่างการก่อสร้าง

    แต่คำถามใหญ่คือ: เงินมาจากไหน และไปกระทบอะไรบ้าง?

    AI capex ในสหรัฐฯ อาจแตะ 2% ของ GDP ในปี 2025
    ส่งผลให้เศรษฐกิจโตเพิ่ม ~0.7% จากส่วนนี้โดยตรง

    Nvidia มีรายได้จาก datacenter ถึง ~$156B (annualized) ในปีนี้
    โดยประมาณ 99% มาจากขายชิป AI เช่น H100/GH200

    คาดว่า AI capex รวมทั้งหมดอาจมากกว่า ~$520B หากคิดจาก share ของ Nvidia
    คิดเป็นเกือบ 20% ของจุดสูงสุดการลงทุนในระบบรางรถไฟยุคก่อน

    แหล่งเงินทุนมาจาก: cashflow ภายใน, การออกหุ้น, VC, leasing, cloud commitment
    ส่งผลให้เงินทุนจากภาคอื่นถูกเบนเบนออกจาก venture, infra, cloud services

    ส่งผลให้บางกลุ่มถูกตัดงบ เช่น Cloud, biotech และภาคผลิตดั้งเดิม
    เริ่มเกิดการเลิกจ้างในบางบริษัท เช่น Amazon และ Microsoft

    หากไม่มีการลงทุนใน datacenter เศรษฐกิจ Q1/2025 อาจหดตัว -2.1%
    แต่ตอนนี้กลับกลายเป็นเพียง contraction เล็ก ๆ หรือไม่ติดลบเลย

    การใช้จ่ายอาจกำลัง “กลืน” การลงทุนในภาคเศรษฐกิจอื่น
    เช่น ภาคพลังงาน, การผลิต หรือ venture non-AI ที่กำลังขาดเงินทุนหนัก

    โครงสร้างพื้นฐาน AI มีอายุการใช้งานสั้น — ต้องเปลี่ยนฮาร์ดแวร์บ่อย
    ไม่เหมือนการสร้างรางรถไฟที่อยู่ได้เป็นศตวรรษ อาจสูญเปล่าระยะยาว

    การย้ายการจ้างงานและทรัพยากรไปที่ AI กำลังทำให้เกิดการเลิกจ้าง
    มีผลกระทบทางแรงงานก่อน AI ถูกใช้งานในวงกว้างเสียอีก

    การลงทุนแบบทุ่มหมดหน้าตักในเทคโนโลยีที่ยังปรับตัวอยู่อาจเป็น “ฟองสบู่”
    หากความคาดหวังเกินผลลัพธ์จริง เศรษฐกิจอาจสะเทือนในอนาคต

    https://paulkedrosky.com/honey-ai-capex-ate-the-economy/
    🎙️ เรื่องเล่าจากโลกเศรษฐกิจใหม่: AI กำลังกินเศรษฐกิจทั้งระบบ — แบบที่ไม่เคยเกิดมาก่อน การใช้จ่ายเพื่อสร้าง AI datacenter กำลังพุ่งสูงจนกระทบตัวเลขเศรษฐกิจอย่างเห็นได้ชัด เช่น: - สหรัฐฯ คาดว่า AI capex จะคิดเป็น ~2% ของ GDP ปี 2025 - ส่งผลต่อการเติบโตทางเศรษฐกิจถึง ~0.7% - หากนับรวม multiplier ทางเศรษฐศาสตร์ — จะมีผลกระทบต่อเศรษฐกิจมากกว่าที่เห็น ขนาดของการลงทุนนี้ใหญ่ใกล้เคียงกับช่วงพีคของการสร้างรางรถไฟในยุค 1800s และสูงกว่าการลงทุนในยุค dot-com boom แล้วด้วยซ้ำ ในจีนก็เกิดปรากฏการณ์คล้ายกันจนประธานาธิบดีสีจิ้นผิงออกมาเตือนว่า “ไม่ใช่ทุกมณฑลต้องแข่งกันสร้าง datacenter และ AI project” เพราะมีมากกว่า 250 แห่งอยู่ระหว่างการก่อสร้าง แต่คำถามใหญ่คือ: เงินมาจากไหน และไปกระทบอะไรบ้าง? ✅ AI capex ในสหรัฐฯ อาจแตะ 2% ของ GDP ในปี 2025 ➡️ ส่งผลให้เศรษฐกิจโตเพิ่ม ~0.7% จากส่วนนี้โดยตรง ✅ Nvidia มีรายได้จาก datacenter ถึง ~$156B (annualized) ในปีนี้ ➡️ โดยประมาณ 99% มาจากขายชิป AI เช่น H100/GH200 ✅ คาดว่า AI capex รวมทั้งหมดอาจมากกว่า ~$520B หากคิดจาก share ของ Nvidia ➡️ คิดเป็นเกือบ 20% ของจุดสูงสุดการลงทุนในระบบรางรถไฟยุคก่อน ✅ แหล่งเงินทุนมาจาก: cashflow ภายใน, การออกหุ้น, VC, leasing, cloud commitment ➡️ ส่งผลให้เงินทุนจากภาคอื่นถูกเบนเบนออกจาก venture, infra, cloud services ✅ ส่งผลให้บางกลุ่มถูกตัดงบ เช่น Cloud, biotech และภาคผลิตดั้งเดิม ➡️ เริ่มเกิดการเลิกจ้างในบางบริษัท เช่น Amazon และ Microsoft ✅ หากไม่มีการลงทุนใน datacenter เศรษฐกิจ Q1/2025 อาจหดตัว -2.1% ➡️ แต่ตอนนี้กลับกลายเป็นเพียง contraction เล็ก ๆ หรือไม่ติดลบเลย ‼️ การใช้จ่ายอาจกำลัง “กลืน” การลงทุนในภาคเศรษฐกิจอื่น ⛔ เช่น ภาคพลังงาน, การผลิต หรือ venture non-AI ที่กำลังขาดเงินทุนหนัก ‼️ โครงสร้างพื้นฐาน AI มีอายุการใช้งานสั้น — ต้องเปลี่ยนฮาร์ดแวร์บ่อย ⛔ ไม่เหมือนการสร้างรางรถไฟที่อยู่ได้เป็นศตวรรษ อาจสูญเปล่าระยะยาว ‼️ การย้ายการจ้างงานและทรัพยากรไปที่ AI กำลังทำให้เกิดการเลิกจ้าง ⛔ มีผลกระทบทางแรงงานก่อน AI ถูกใช้งานในวงกว้างเสียอีก ‼️ การลงทุนแบบทุ่มหมดหน้าตักในเทคโนโลยีที่ยังปรับตัวอยู่อาจเป็น “ฟองสบู่” ⛔ หากความคาดหวังเกินผลลัพธ์จริง เศรษฐกิจอาจสะเทือนในอนาคต https://paulkedrosky.com/honey-ai-capex-ate-the-economy/
    PAULKEDROSKY.COM
    Honey, AI Capex is Eating the Economy
    AI capex is so big that it's affecting economic statistics, boosting the economy, and beginning to approach the railroad boom
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Blackwell: Nvidia GB300 มาแน่ — แก้เกมระบบรั่ว พร้อมบุกตลาดเซิร์ฟเวอร์ AI

    หลังจาก GB200 ใช้ระบบ motherboard แบบครบชุดที่รวม GPU, CPU และหน่วยความจำไว้หมด Nvidia ได้ปรับเปลี่ยนแนวทางใน GB300 ด้วยการแยกทุกชิ้นส่วนให้เลือกได้อิสระ เช่น:
    - B300 GPU บนโมดูล SXM puck
    - Grace CPU แยกเป็นแพ็กเกจ BGA
    - HMC (Hardware Management Controller) จาก Axiado
    - หน่วยความจำเปลี่ยนเป็น SOCAMM ที่หาซื้อได้ทั่วไป
    - ลูกค้าต้องประกอบ motherboard ส่วนอื่นเอง
    - Nvidia ยังให้ switch tray และ copper backplane เหมือนเดิม

    แนวทางนี้ช่วยให้ผู้ผลิตเซิร์ฟเวอร์ (ODM) ลดเวลาในการเปลี่ยนผ่านจากรุ่นเก่า และมีอิสระในการปรับแต่งระบบได้มากขึ้น โดยไม่ต้องรื้อ motherboard ทั้งแผง

    Dell และพันธมิตรอื่น ๆ เริ่มการผลิตแล้ว แต่การส่งมอบแบบ mass-scale จะเริ่มในเดือน กันยายน 2025 และจะเพิ่มปริมาณอย่างมากในไตรมาส 4 ปีนี้

    แม้ GB200 จะประสบปัญหาน้ำหล่อเย็นรั่วจากข้อต่อ quick-connect แม้ผ่าน stress test แล้ว แต่ความต้องการใน data center ยัง “ไม่ตก” ทำให้ผู้ใช้งานเลือกเสี่ยงใช้งานต่อ พร้อมมาตรการป้องกันเช่น หยุดทำงานเฉพาะจุดหรือทดสอบการรั่วเชิงลึก

    https://www.tomshardware.com/tech-industry/artificial-intelligence/large-scale-shipments-of-nvidia-gb300-servers-tipped-to-start-in-september-gb200-demand-remains-robust-despite-widespread-coolant-leak-reports
    🎙️ เรื่องเล่าจากโลก Blackwell: Nvidia GB300 มาแน่ — แก้เกมระบบรั่ว พร้อมบุกตลาดเซิร์ฟเวอร์ AI หลังจาก GB200 ใช้ระบบ motherboard แบบครบชุดที่รวม GPU, CPU และหน่วยความจำไว้หมด Nvidia ได้ปรับเปลี่ยนแนวทางใน GB300 ด้วยการแยกทุกชิ้นส่วนให้เลือกได้อิสระ เช่น: - B300 GPU บนโมดูล SXM puck - Grace CPU แยกเป็นแพ็กเกจ BGA - HMC (Hardware Management Controller) จาก Axiado - หน่วยความจำเปลี่ยนเป็น SOCAMM ที่หาซื้อได้ทั่วไป - ลูกค้าต้องประกอบ motherboard ส่วนอื่นเอง - Nvidia ยังให้ switch tray และ copper backplane เหมือนเดิม แนวทางนี้ช่วยให้ผู้ผลิตเซิร์ฟเวอร์ (ODM) ลดเวลาในการเปลี่ยนผ่านจากรุ่นเก่า และมีอิสระในการปรับแต่งระบบได้มากขึ้น โดยไม่ต้องรื้อ motherboard ทั้งแผง Dell และพันธมิตรอื่น ๆ เริ่มการผลิตแล้ว แต่การส่งมอบแบบ mass-scale จะเริ่มในเดือน กันยายน 2025 และจะเพิ่มปริมาณอย่างมากในไตรมาส 4 ปีนี้ แม้ GB200 จะประสบปัญหาน้ำหล่อเย็นรั่วจากข้อต่อ quick-connect แม้ผ่าน stress test แล้ว แต่ความต้องการใน data center ยัง “ไม่ตก” ทำให้ผู้ใช้งานเลือกเสี่ยงใช้งานต่อ พร้อมมาตรการป้องกันเช่น หยุดทำงานเฉพาะจุดหรือทดสอบการรั่วเชิงลึก https://www.tomshardware.com/tech-industry/artificial-intelligence/large-scale-shipments-of-nvidia-gb300-servers-tipped-to-start-in-september-gb200-demand-remains-robust-despite-widespread-coolant-leak-reports
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • ลุงเองก็กลัวว่ามันจะเกิดขึ้นเหมือนกันนะ

    เรื่องเล่าจากเศรษฐศาสตร์ AI: ฟองสบู่ที่ใหญ่กว่าดอทคอม?

    ย้อนกลับไปช่วงปลายยุค 1990 บริษัทเทคต่างแห่ลงทุนอินเทอร์เน็ตจนฟองสบู่แตกในปี 2000 สูญเงินลงทุนและมูลค่าตลาดไปหลายล้านล้านดอลลาร์ แม้บางเจ้ายังอยู่รอด เช่น Amazon แต่ก็เจ็บหนัก

    วันนี้ Sløk เตือนว่า สถานการณ์ “คล้ายกันมาก” แต่ “หนักกว่า” เพราะมีเงินมหาศาลจากนักลงทุนไหลเข้าสู่ AI แบบ ไม่อิงรายได้จริง เช่น:
    - OpenAI ลงทุนกว่า $14B ใน ScaleAI — แล้วปลดพนักงาน 200 คน
    - Meta เสนอโบนัสจ้างงาน AI สูงถึง $100M ต่อคน
    - CoreWeave ทุ่ม $6B สร้างศูนย์ AI ใหม่
    - Amazon เตรียมลงเงินอีก $8B กับ Anthropic
    - Nvidia ผลักดัน “AI Factories” ด้วยงบ $500B

    Sløk วิเคราะห์ว่า การพุ่งขึ้นของหุ้น S&P 500 ช่วงนี้เกิดจากบริษัทยักษ์ใหญ่สาย AI ไม่กี่ราย ที่อาจ “ไม่คงทน” เพราะการประเมินมูลค่า “เกินกว่าศักยภาพจริงมาก”

    การเปรียบเทียบกับ Metaverse และ NFT ก็น่าสนใจ: เมื่อ hype แรงแต่รายได้จริงไม่มา — ทุกอย่างอาจ “ละลายหายไปเหมือนทราย”

    อย่างไรก็ตาม Sløk ยืนยันว่า “AI จะไม่หายไป” เหมือนอินเทอร์เน็ตยังอยู่หลัง dot-com crash แต่เราอาจได้เห็นการล้มเป็นกลุ่ม:
    - บริษัทที่ไม่มีรายได้จริงจะหายไป
    - ผู้รอดจะต้องลดขนาด ลดลงทุน
    - Buzzword “AI” อาจลดลงจากสินค้าทุกชิ้น

    Torsten Sløk เตือนว่าฟองสบู่ AI แรงกว่าดอทคอมในยุค 2000
    เพราะบริษัทใหญ่ใน S&P 500 ถูกประเมินมูลค่าสูงเกินศักยภาพจริง

    นักลงทุนเทเงินมหาศาลสู่ AI: OpenAI, Meta, Amazon, Nvidia ฯลฯ
    แม้บางกรณียังไม่มีสินค้าหรือรายได้ที่ยั่งยืน

    ความผันผวนของตลาดหุ้นตอนนี้เกิดจากบริษัทยักษ์ AI ไม่กี่ราย
    ไม่ได้สะท้อนความมั่นคงของทั้งอุตสาหกรรม

    Sløk ยกตัวอย่างการลงทุนผิดพลาดใน Metaverse, Blockchain และ NFTs
    เตือนว่าความ hype แบบนั้นอาจย้อนมาเล่นงาน AI เช่นกัน

    ฟองสบู่แตกอาจไม่ทำให้ AI หายไป
    แต่จะทำให้เหลือเฉพาะบริษัทที่มีรายได้จริงและปรับตัวได้

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-bubble-is-worse-than-the-dot-com-crash-that-erased-trillions-economist-warns-overvaluations-could-lead-to-catastrophic-consequences
    ลุงเองก็กลัวว่ามันจะเกิดขึ้นเหมือนกันนะ ‼️ 🎙️ เรื่องเล่าจากเศรษฐศาสตร์ AI: ฟองสบู่ที่ใหญ่กว่าดอทคอม? ย้อนกลับไปช่วงปลายยุค 1990 บริษัทเทคต่างแห่ลงทุนอินเทอร์เน็ตจนฟองสบู่แตกในปี 2000 สูญเงินลงทุนและมูลค่าตลาดไปหลายล้านล้านดอลลาร์ แม้บางเจ้ายังอยู่รอด เช่น Amazon แต่ก็เจ็บหนัก วันนี้ Sløk เตือนว่า สถานการณ์ “คล้ายกันมาก” แต่ “หนักกว่า” เพราะมีเงินมหาศาลจากนักลงทุนไหลเข้าสู่ AI แบบ ไม่อิงรายได้จริง เช่น: - OpenAI ลงทุนกว่า $14B ใน ScaleAI — แล้วปลดพนักงาน 200 คน - Meta เสนอโบนัสจ้างงาน AI สูงถึง $100M ต่อคน - CoreWeave ทุ่ม $6B สร้างศูนย์ AI ใหม่ - Amazon เตรียมลงเงินอีก $8B กับ Anthropic - Nvidia ผลักดัน “AI Factories” ด้วยงบ $500B Sløk วิเคราะห์ว่า การพุ่งขึ้นของหุ้น S&P 500 ช่วงนี้เกิดจากบริษัทยักษ์ใหญ่สาย AI ไม่กี่ราย ที่อาจ “ไม่คงทน” เพราะการประเมินมูลค่า “เกินกว่าศักยภาพจริงมาก” การเปรียบเทียบกับ Metaverse และ NFT ก็น่าสนใจ: เมื่อ hype แรงแต่รายได้จริงไม่มา — ทุกอย่างอาจ “ละลายหายไปเหมือนทราย” อย่างไรก็ตาม Sløk ยืนยันว่า “AI จะไม่หายไป” เหมือนอินเทอร์เน็ตยังอยู่หลัง dot-com crash แต่เราอาจได้เห็นการล้มเป็นกลุ่ม: - บริษัทที่ไม่มีรายได้จริงจะหายไป - ผู้รอดจะต้องลดขนาด ลดลงทุน - Buzzword “AI” อาจลดลงจากสินค้าทุกชิ้น ✅ Torsten Sløk เตือนว่าฟองสบู่ AI แรงกว่าดอทคอมในยุค 2000 ➡️ เพราะบริษัทใหญ่ใน S&P 500 ถูกประเมินมูลค่าสูงเกินศักยภาพจริง ✅ นักลงทุนเทเงินมหาศาลสู่ AI: OpenAI, Meta, Amazon, Nvidia ฯลฯ ➡️ แม้บางกรณียังไม่มีสินค้าหรือรายได้ที่ยั่งยืน ✅ ความผันผวนของตลาดหุ้นตอนนี้เกิดจากบริษัทยักษ์ AI ไม่กี่ราย ➡️ ไม่ได้สะท้อนความมั่นคงของทั้งอุตสาหกรรม ✅ Sløk ยกตัวอย่างการลงทุนผิดพลาดใน Metaverse, Blockchain และ NFTs ➡️ เตือนว่าความ hype แบบนั้นอาจย้อนมาเล่นงาน AI เช่นกัน ✅ ฟองสบู่แตกอาจไม่ทำให้ AI หายไป ➡️ แต่จะทำให้เหลือเฉพาะบริษัทที่มีรายได้จริงและปรับตัวได้ https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-bubble-is-worse-than-the-dot-com-crash-that-erased-trillions-economist-warns-overvaluations-could-lead-to-catastrophic-consequences
    0 ความคิดเห็น 0 การแบ่งปัน 242 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Radeon: 5 ปีของ GPU สายกลางจาก AMD ที่ขาดแรงกระตุ้น

    TechSpot ทดสอบ GPU จาก 4 รุ่นในกลุ่ม “60-class” ของ AMD ได้แก่:
    - RX 5600 XT (2020)
    - RX 6600 (2021)
    - RX 7600 (2023)
    - RX 9060 XT 8GB (2025)

    เพื่อดูว่าที่ผ่านมา AMD พัฒนาอะไรบ้างในตลาด GPU ราคา $300 ซึ่งเคยมีความหมายสำคัญต่อกลุ่มผู้เล่นเกมระดับกลาง

    ผลทดสอบจาก 7 เกม ได้แก่ Rainbow Six Siege, Horizon Zero Dawn Remastered, Cyberpunk 2077: Phantom Liberty, Warhammer 40K: Space Marine II, Tomb Raider, Call of Duty: Black Ops 6 และ Kingdom Come: Deliverance II พบว่า:

    RX 6600 ให้ประสิทธิภาพเพิ่มขึ้นเล็กน้อยจาก 5600 XT (เฉลี่ยเพียง 11–20%)
    RX 7600 ค่อยยังชั่ว เพิ่มจาก 6600 ได้ประมาณ 30%
    RX 9060 XT 8GB คือจุดเปลี่ยนที่น่าประทับใจด้วยการพัฒนาประสิทธิภาพจาก RX 7600 สูงถึง 40–50% ขึ้นอยู่กับเกมและคุณภาพกราฟิกที่ใช้

    แต่ถึง RX 9060 XT จะเร็วจริง ก็ยังมีข้อจำกัดเช่น VRAM เพียง 8GB และความคุ้มค่าเมื่อเทียบกับคู่แข่งจาก Nvidia ในปี 2025 ยังคงต้องพิจารณา

    https://www.techspot.com/review/3016-amd-radeon-60-gpu-class/
    🎙️ เรื่องเล่าจากโลก Radeon: 5 ปีของ GPU สายกลางจาก AMD ที่ขาดแรงกระตุ้น TechSpot ทดสอบ GPU จาก 4 รุ่นในกลุ่ม “60-class” ของ AMD ได้แก่: - RX 5600 XT (2020) - RX 6600 (2021) - RX 7600 (2023) - RX 9060 XT 8GB (2025) เพื่อดูว่าที่ผ่านมา AMD พัฒนาอะไรบ้างในตลาด GPU ราคา $300 ซึ่งเคยมีความหมายสำคัญต่อกลุ่มผู้เล่นเกมระดับกลาง 📊 ผลทดสอบจาก 7 เกม ได้แก่ Rainbow Six Siege, Horizon Zero Dawn Remastered, Cyberpunk 2077: Phantom Liberty, Warhammer 40K: Space Marine II, Tomb Raider, Call of Duty: Black Ops 6 และ Kingdom Come: Deliverance II พบว่า: ➡️ RX 6600 ให้ประสิทธิภาพเพิ่มขึ้นเล็กน้อยจาก 5600 XT (เฉลี่ยเพียง 11–20%) ➡️ RX 7600 ค่อยยังชั่ว เพิ่มจาก 6600 ได้ประมาณ 30% ➡️ RX 9060 XT 8GB คือจุดเปลี่ยนที่น่าประทับใจด้วยการพัฒนาประสิทธิภาพจาก RX 7600 สูงถึง 40–50% ขึ้นอยู่กับเกมและคุณภาพกราฟิกที่ใช้ แต่ถึง RX 9060 XT จะเร็วจริง ก็ยังมีข้อจำกัดเช่น VRAM เพียง 8GB และความคุ้มค่าเมื่อเทียบกับคู่แข่งจาก Nvidia ในปี 2025 ยังคงต้องพิจารณา https://www.techspot.com/review/3016-amd-radeon-60-gpu-class/
    WWW.TECHSPOT.COM
    AMD Stagnation: Five Years of Mainstream Radeon GPUs Tested
    Let's put four generations of AMD Radeon GPUs to the test to see how the $300 segment has evolved over the past five years. From the 5600...
    0 ความคิดเห็น 0 การแบ่งปัน 167 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Windows: บั๊ก “Eject GPU” กลับมาอีกครั้งใน Windows 11

    ผู้ใช้ Windows 11 บางรายพบว่าระบบแสดงตัวเลือก “Eject GPU” ในเมนูถอดอุปกรณ์อย่างปลอดภัย ซึ่งปกติจะใช้กับ USB หรือ external drive เท่านั้น แต่กลับมีการ์ดจอแยก (เช่น Nvidia RTX) โผล่ขึ้นมาในรายการ

    แม้จะเคยเกิดขึ้นมาแล้วในอดีต แต่บั๊กนี้กลับมาอีกครั้งในระบบใหม่ โดยเฉพาะในเครื่องที่ใช้ Nvidia GPU ซึ่งอาจเกิดจากไดรเวอร์ที่ผิดพลาด

    ในบางกรณี ผู้ใช้ทดลองกด “Eject” แล้วพบว่า:
    - หน้าจอดับชั่วคราว
    - Windows ส่งเสียง “device unplugged”
    - GPU กลับมาเชื่อมต่อใหม่โดยไม่ต้องรีบูต

    แม้ผลลัพธ์จะไม่ถึงขั้นทำให้ฮาร์ดแวร์เสียหาย แต่ก็ไม่ควรทดลอง เพราะระบบไม่ได้ออกแบบมาให้ถอด GPU ขณะใช้งาน

    Microsoft และ Nvidia ยังไม่ออกแพตช์แก้ไขอย่างเป็นทางการ แต่ผู้ใช้สามารถปิดตัวเลือกนี้ได้ด้วยการแก้ไข Registry

    https://www.techspot.com/news/108710-windows-bug-brings-back-option-eject-gpu.html
    🎙️ เรื่องเล่าจากโลก Windows: บั๊ก “Eject GPU” กลับมาอีกครั้งใน Windows 11 ผู้ใช้ Windows 11 บางรายพบว่าระบบแสดงตัวเลือก “Eject GPU” ในเมนูถอดอุปกรณ์อย่างปลอดภัย ซึ่งปกติจะใช้กับ USB หรือ external drive เท่านั้น แต่กลับมีการ์ดจอแยก (เช่น Nvidia RTX) โผล่ขึ้นมาในรายการ แม้จะเคยเกิดขึ้นมาแล้วในอดีต แต่บั๊กนี้กลับมาอีกครั้งในระบบใหม่ โดยเฉพาะในเครื่องที่ใช้ Nvidia GPU ซึ่งอาจเกิดจากไดรเวอร์ที่ผิดพลาด ในบางกรณี ผู้ใช้ทดลองกด “Eject” แล้วพบว่า: - หน้าจอดับชั่วคราว - Windows ส่งเสียง “device unplugged” - GPU กลับมาเชื่อมต่อใหม่โดยไม่ต้องรีบูต แม้ผลลัพธ์จะไม่ถึงขั้นทำให้ฮาร์ดแวร์เสียหาย แต่ก็ไม่ควรทดลอง เพราะระบบไม่ได้ออกแบบมาให้ถอด GPU ขณะใช้งาน Microsoft และ Nvidia ยังไม่ออกแพตช์แก้ไขอย่างเป็นทางการ แต่ผู้ใช้สามารถปิดตัวเลือกนี้ได้ด้วยการแก้ไข Registry https://www.techspot.com/news/108710-windows-bug-brings-back-option-eject-gpu.html
    WWW.TECHSPOT.COM
    Windows bug brings back the option to "eject your GPU"
    According to recent reports, Windows has once again started to display an option to "eject" discrete GPUs on both desktop and laptop gaming systems. This option is...
    0 ความคิดเห็น 0 การแบ่งปัน 197 มุมมอง 0 รีวิว
Pages Boosts