• “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์”

    MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน

    เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า

    MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm

    ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก

    ข้อมูลสำคัญจากข่าว
    MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC
    เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน
    ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก
    เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E

    กลุ่มเป้าหมายและการใช้งาน
    ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing
    มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC
    MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง
    ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน

    ข้อมูลเสริมจากภายนอก
    TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์
    Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน
    การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม
    เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ

    https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    🧠 “MediaTek ปล่อยชิปเรือธงบนเทคโนโลยี 2nm ของ TSMC — ก้าวแรกสู่ยุคใหม่ของ AI, มือถือ และยานยนต์” MediaTek ประกาศความสำเร็จในการ tape-out ชิป SoC รุ่นเรือธงตัวใหม่ที่ใช้เทคโนโลยีการผลิตระดับ 2 นาโนเมตรของ TSMC ซึ่งถือเป็นหนึ่งในบริษัทแรกที่เข้าสู่ยุค 2nm อย่างเป็นทางการ โดยชิปนี้จะเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 และพร้อมวางจำหน่ายในช่วงเวลาเดียวกัน เทคโนโลยี 2nm ของ TSMC ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ซึ่งช่วยเพิ่มความหนาแน่นของลอจิกได้ถึง 1.2 เท่า เพิ่มประสิทธิภาพสูงสุด 18% ที่พลังงานเท่าเดิม และลดการใช้พลังงานลงถึง 36% ที่ความเร็วเท่าเดิม เมื่อเทียบกับกระบวนการ N3E รุ่นก่อนหน้า MediaTek ยังไม่เปิดเผยว่าชิปนี้จะใช้ในผลิตภัณฑ์ใดโดยตรง แต่มีการคาดการณ์ว่าอาจเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC หรือชิปสำหรับดาต้าเซ็นเตอร์ ซึ่งก่อนหน้านี้ทั้งสองบริษัทเคยร่วมมือกันในโปรเจกต์ GB10 “Grace Blackwell” Superchip ที่ใช้กระบวนการ 3nm ชิปใหม่นี้จะถูกนำไปใช้ในหลากหลายกลุ่มผลิตภัณฑ์ เช่น มือถือระดับเรือธง, คอมพิวเตอร์ประสิทธิภาพสูง, ยานยนต์อัจฉริยะ และเซิร์ฟเวอร์ edge computing โดย MediaTek ยืนยันว่าการร่วมมือกับ TSMC จะช่วยให้สามารถส่งมอบโซลูชันที่มีประสิทธิภาพสูงและประหยัดพลังงานได้ทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ MediaTek ประกาศ tape-out ชิป SoC รุ่นเรือธงที่ใช้เทคโนโลยี 2nm ของ TSMC ➡️ เข้าสู่การผลิตจำนวนมากปลายปี 2026 และวางจำหน่ายช่วงเวลาเดียวกัน ➡️ ใช้โครงสร้างทรานซิสเตอร์แบบ nanosheet เป็นครั้งแรก ➡️ เพิ่ม logic density 1.2 เท่า, เพิ่ม performance 18%, ลดพลังงาน 36% เทียบกับ N3E ✅ กลุ่มเป้าหมายและการใช้งาน ➡️ ชิปนี้อาจใช้ในมือถือ, คอมพิวเตอร์, ยานยนต์ และ edge computing ➡️ มีความเป็นไปได้ว่าจะเกี่ยวข้องกับความร่วมมือกับ NVIDIA ในกลุ่ม AI PC ➡️ MediaTek และ TSMC มีความร่วมมือระยะยาวในด้านเทคโนโลยีขั้นสูง ➡️ ชิปนี้จะเป็นตัวแทนของการเปลี่ยนผ่านสู่ยุคใหม่ของการประมวลผลแบบประหยัดพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC N2P คือรุ่นพัฒนาต่อจาก N2 ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ Apple และ AMD ก็เตรียมใช้เทคโนโลยี 2nm ในชิปของตนในปี 2026 เช่นกัน ➡️ การใช้ nanosheet transistor ช่วยให้สามารถใส่ accelerator และ IP block ได้มากขึ้นในพื้นที่เท่าเดิม ➡️ เหมาะกับงาน on-device AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ https://wccftech.com/mediatek-tapes-out-flagship-soc-tsmc-2nm-process-production-availability-end-2026/
    WCCFTECH.COM
    MediaTek Tapes Out Flagship SoC Using TSMC's 2nm Process, Mass Production & Availability By End of 2026
    MediaTek has announced the tape-out of its flagship SoC, fabricated on TSMC's 2nm process node, which will be available by the end of 2026.
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI”

    ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด

    ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด

    OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว

    Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง

    รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก

    แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น

    ข้อมูลสำคัญจากข่าว
    Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด
    Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia
    OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน
    Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้

    สถานการณ์ตลาดและผลกระทบ
    Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39%
    Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92%
    สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก
    จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ

    ข้อมูลเสริมจากภายนอก
    AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน
    การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง
    การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี
    สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด

    https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    🔒 “Ant Group แฉกลยุทธ์ลับของยักษ์ใหญ่สหรัฐฯ — เปิดซอร์สแค่เปลือก เพื่อกักนักพัฒนาไว้ในระบบปิดของ AI” ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อกลางเดือนกันยายน 2025 Ant Group บริษัทฟินเทคยักษ์ใหญ่ของจีนได้เปิดเผยรายงานที่วิจารณ์บริษัทเทคโนโลยีสหรัฐฯ เช่น Nvidia, OpenAI และ Google ว่าใช้กลยุทธ์ “เปิดซอร์สแบบหลอก” เพื่อดึงนักพัฒนาเข้าสู่ระบบ AI แบบปิดของตนเอง โดยอ้างว่าแม้จะมีการเปิดซอร์สเครื่องมือบางส่วน แต่แกนหลักของโมเดลและฮาร์ดแวร์ยังคงถูกควบคุมอย่างเข้มงวด ตัวอย่างที่ถูกยกขึ้นมาคือ “Dynamo” แพลตฟอร์ม inference ที่ Nvidia เปิดซอร์สในเดือนมีนาคม 2024 ซึ่งถูกโปรโมตว่าเป็น “ระบบปฏิบัติการของ AI” แต่จริง ๆ แล้วถูกออกแบบมาให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia เท่านั้น ทำให้ผู้พัฒนาแทบไม่มีทางเลือกอื่นหากต้องการประสิทธิภาพสูงสุด OpenAI และ Google ก็ถูกกล่าวหาว่าเปิดซอร์สเฟรมเวิร์กสำหรับสร้าง AI agent แต่เฟรมเวิร์กเหล่านั้นถูกออกแบบมาให้ทำงานร่วมกับโมเดลเฉพาะของบริษัทเท่านั้น เช่น GPT หรือ Gemini ซึ่งหมายความว่าผู้พัฒนาจะถูกผูกติดกับระบบของบริษัทเหล่านี้ในระยะยาว Ant Group เปรียบเทียบกับแนวทางของบริษัทจีน เช่น Alibaba Cloud และ ByteDance ที่เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและนำไปพัฒนาต่อได้จริง ซึ่งทำให้เกิดการนำไปใช้อย่างแพร่หลาย แม้แต่ในสตาร์ทอัพของสหรัฐฯ เอง รายงานยังชี้ให้เห็นถึงการผูกขาดในตลาด โดย Microsoft ครองส่วนแบ่ง 39% ในด้านโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล ขณะที่ Nvidia ครองตลาด GPU สำหรับดาต้าเซ็นเตอร์ถึง 92% ซึ่งทำให้การเข้าถึง AI อย่างแท้จริงกลายเป็นเรื่องยากสำหรับผู้เล่นรายเล็ก แม้สหรัฐฯ จะมีส่วนร่วมในระบบ open-source AI ถึง 37.4% ของโลก แต่ Ant Group เตือนว่าการเปิดซอร์สเฉพาะ “เครื่องมือรอบนอก” โดยไม่เปิดโมเดลหลัก อาจทำให้เกิดการควบคุมเชิงโครงสร้างที่ลึกกว่าที่เห็น ✅ ข้อมูลสำคัญจากข่าว ➡️ Ant Group วิจารณ์ Nvidia, OpenAI และ Google ว่าใช้ open-source แบบจำกัด ➡️ Dynamo ของ Nvidia ถูกออกแบบให้ทำงานได้ดีที่สุดกับ GPU ของ Nvidia ➡️ OpenAI และ Google เปิดซอร์สเฟรมเวิร์กที่ผูกติดกับโมเดลเฉพาะของตน ➡️ Alibaba Cloud และ ByteDance เปิดซอร์สโมเดลหลักให้ดาวน์โหลดและพัฒนาต่อได้ ✅ สถานการณ์ตลาดและผลกระทบ ➡️ Microsoft ครองตลาดโมเดลพื้นฐานและแพลตฟอร์มจัดการโมเดล 39% ➡️ Nvidia ครองตลาด GPU ดาต้าเซ็นเตอร์ถึง 92% ➡️ สหรัฐฯ มีส่วนร่วมในระบบ open-source AI 37.4% ของโลก ➡️ จีนมีส่วนร่วม 18.7% และเน้นการเปิดซอร์สโมเดลมากกว่าเครื่องมือ ✅ ข้อมูลเสริมจากภายนอก ➡️ AI agent คือระบบที่ทำงานอัตโนมัติแทนผู้ใช้ โดยใช้โมเดลพื้นฐานเป็นแกน ➡️ การเปิดซอร์สโมเดลช่วยให้เกิดความโปร่งใสและการทดลองในวงกว้าง ➡️ การเปิดซอร์สเฉพาะเครื่องมืออาจทำให้เกิดการผูกขาดเชิงเทคโนโลยี ➡️ สตาร์ทอัพในสหรัฐฯ เริ่มหันมาใช้โมเดลจีนที่เปิดซอร์สเพื่อหลีกเลี่ยงข้อจำกัด https://www.techradar.com/pro/top-us-tech-companies-are-holding-developers-in-closed-source-ai-ecosystems-ant-group-says
    0 ความคิดเห็น 0 การแบ่งปัน 41 มุมมอง 0 รีวิว
  • “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่”

    ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL)

    AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า

    ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ

    แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI

    ข้อมูลสำคัญจากข่าว
    ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows
    ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป
    รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง
    มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover

    ความสามารถและการใช้งาน
    รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป
    ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2
    ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB
    รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD

    ข้อมูลเสริมจากภายนอก
    WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว
    ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ
    การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI
    แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    🖥️ “ASRock เปิดตัว AI QuickSet WSL — ติดตั้งแอป AI บน Windows ง่ายเหมือนใช้วิซาร์ด พร้อมรองรับ GPU AMD รุ่นใหม่” ในยุคที่แอปพลิเคชัน AI ส่วนใหญ่ถูกออกแบบให้ทำงานบน Linux การใช้งานบน Windows กลายเป็นเรื่องยุ่งยากสำหรับผู้ใช้ทั่วไป โดยเฉพาะผู้ที่ไม่มีพื้นฐานด้านการตั้งค่าสภาพแวดล้อม ASRock จึงเปิดตัวเครื่องมือเวอร์ชันใหม่ชื่อว่า “AI QuickSet WSL” ที่ช่วยให้ผู้ใช้สามารถติดตั้งและใช้งานแอป AI บน Windows ได้ง่ายขึ้น ผ่านระบบ Windows Subsystem for Linux (WSL) AI QuickSet WSL เป็นการต่อยอดจากเวอร์ชันแรกที่รองรับการติดตั้งแอป AI ทั้งบน Windows และ Linux โดยเวอร์ชันใหม่นี้เน้นการใช้งาน Linux-based AI บน Windows โดยเฉพาะ ด้วยการใช้แพลตฟอร์ม AMD ROCm ที่รองรับการเร่งความเร็วด้วย GPU จาก ASRock Radeon RX 7900 Series หรือใหม่กว่า ผู้ใช้สามารถติดตั้งแอป AI ได้ผ่าน GUI แบบวิซาร์ดที่มีขั้นตอนชัดเจน ไม่ต้องตั้งค่าด้วยตนเอง เช่น การเลือก runtime, การปรับแต่ง LLM หรือการจัดการ container โดยแอปจะจัดการให้ทั้งหมด พร้อมแอป AI ที่ติดตั้งมาให้ล่วงหน้า เช่น Audiocraft สำหรับสร้างเสียงจากข้อความ, PixtoonLab สำหรับแปลงภาพเป็นการ์ตูน, และ Video Background Remover สำหรับลบพื้นหลังวิดีโอ แม้จะรองรับทั้ง CPU Intel และ AMD แต่เครื่องมือนี้มีข้อกำหนดฮาร์ดแวร์ที่ค่อนข้างสูง เช่น RAM 64GB, Windows 11 เวอร์ชัน 24H2, และพื้นที่ว่างบนไดรฟ์ C: อย่างน้อย 150GB ซึ่งสะท้อนว่าเครื่องมือนี้ออกแบบมาเพื่อผู้ใช้ระดับจริงจังที่ต้องการประสิทธิภาพสูงสุดในการประมวลผล AI ✅ ข้อมูลสำคัญจากข่าว ➡️ ASRock เปิดตัว AI QuickSet WSL สำหรับติดตั้งแอป AI Linux บน Windows ➡️ ใช้แพลตฟอร์ม AMD ROCm เพื่อเร่งความเร็วด้วย GPU Radeon RX 7900 Series ขึ้นไป ➡️ รองรับการติดตั้งผ่าน GUI แบบวิซาร์ด — ไม่ต้องตั้งค่าด้วยตนเอง ➡️ มีแอป AI ติดตั้งล่วงหน้า เช่น Audiocraft, PixtoonLab, Video Background Remover ✅ ความสามารถและการใช้งาน ➡️ รองรับ CPU Intel Gen 12 ขึ้นไป และ AMD Ryzen 5000 ขึ้นไป ➡️ ต้องใช้ RAM 64GB และ Windows 11 เวอร์ชัน 24H2 ➡️ ต้องติดตั้งบนไดรฟ์ C: โดยมีพื้นที่ว่างอย่างน้อย 150GB ➡️ รองรับเฉพาะ GPU ที่ผลิตโดย ASRock — ไม่รองรับการ์ด MBA จาก AMD ✅ ข้อมูลเสริมจากภายนอก ➡️ WSL เป็นระบบ virtualization ที่ไม่มี GUI — ทำให้เบาและเร็ว ➡️ ROCm เป็นแพลตฟอร์มของ AMD สำหรับงาน HPC และ AI โดยเฉพาะ ➡️ การใช้ GUI ช่วยลดอุปสรรคสำหรับผู้เริ่มต้นที่ไม่ถนัดคำสั่ง CLI ➡️ แอป AI ที่ติดตั้งล่วงหน้าครอบคลุมงานเสียง ภาพ วิดีโอ และข้อความ https://www.tomshardware.com/tech-industry/artificial-intelligence/asrocks-revamped-ai-quickset-wsl-virtualization-tool-makes-it-easy-to-run-linux-ai-apps-on-windows
    WWW.TOMSHARDWARE.COM
    ASRock's revamped AI Quickset WSL virtualization tool makes it easy to run Linux AI apps on Windows
    ASRock's tool takes all the guesswork out of installing AI models on PC, including ones designed to work primarily in Linux.
    0 ความคิดเห็น 0 การแบ่งปัน 80 มุมมอง 0 รีวิว
  • “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ”

    AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก

    ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3

    แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ”

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่
    สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D
    ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p
    ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ

    การจับคู่กับ GPU และผลลัพธ์
    RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D
    Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends
    Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ
    Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก
    จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC
    การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ
    การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน

    https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    🔥 “AMD เปิดตัว ‘1000 FPS Club’ — ซีพียู X3D รุ่นใหม่ทะลุขีดจำกัดเฟรมเรตในเกมอีสปอร์ต พร้อมท้าทายขีดจำกัดของจอภาพ” AMD สร้างกระแสฮือฮาในวงการเกมอีกครั้ง ด้วยการเปิดตัว “1000 FPS Club” ซึ่งเป็นกลุ่มซีพียูรุ่นใหม่จากตระกูล Ryzen 9000X3D ที่สามารถทำเฟรมเรตทะลุ 1000 FPS ในเกมอีสปอร์ตยอดนิยม เช่น Counter-Strike 2, Valorant, League of Legends, PUBG, Naraka: Bladepoint และ Marvel Rivals2 โดยสมาชิกของคลับนี้ประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D สำหรับโน้ตบุ๊ก ความสำเร็จนี้เกิดจากเทคโนโลยี 3D V-Cache ที่เพิ่มแคชบน CCD ทำให้การประมวลผลเร็วขึ้นอย่างมีนัยสำคัญ โดยการทดสอบใช้ความละเอียด 1080p พร้อม RAM 6000 MT/s CL30 และปิดฟีเจอร์ Virtualization กับ Smart Access Memory เพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การทำเฟรมเรตระดับนี้ยังต้องพึ่ง GPU ระดับสูง โดยเฉพาะ GeForce RTX 5080 และ RTX 5090D ซึ่งสามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียูของ AMD ส่วน Radeon RX 9070 XT ของ AMD เองทำได้เพียงใน Valorant และ LoL3 แม้จะไม่มีจอภาพ 1000Hz วางขายในตลาดตอนนี้ แต่ AMD ก็ใช้โอกาสนี้แสดงให้เห็นถึงศักยภาพของซีพียูในยุค Zen 5 ที่พร้อมรองรับอนาคตของเกมที่ต้องการความเร็วระดับสูงสุด โดยเฉพาะในสายอีสปอร์ตที่ “เฟรมเรตคือชัยชนะ” ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว “1000 FPS Club” สำหรับซีพียู Ryzen 9000X3D รุ่นใหม่ ➡️ สมาชิกประกอบด้วย Ryzen 7 9800X3D, Ryzen 9 9950X3D และ Ryzen 9 9955HX3D ➡️ ทำเฟรมเรตทะลุ 1000 FPS ใน 6 เกมอีสปอร์ตยอดนิยมที่ความละเอียด 1080p ➡️ ใช้ RAM 6000 MT/s CL30 และปิด SAM กับ Virtualization เพื่อเพิ่มประสิทธิภาพ ✅ การจับคู่กับ GPU และผลลัพธ์ ➡️ RTX 5080 และ RTX 5090D สามารถทำได้ครบทั้ง 6 เกมเมื่อจับคู่กับซีพียู X3D ➡️ Radeon RX 9070 XT ทำได้เพียงใน Valorant และ League of Legends ➡️ Ryzen 9 9950X3D และ 9800X3D เป็นตัวเลือกหลักในการทดสอบ ➡️ Ryzen 9 9955HX3D ถูกกล่าวถึงแต่ไม่มีผลการทดสอบอย่างเป็นทางการ ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี 3D V-Cache เพิ่มประสิทธิภาพเกมโดยเฉพาะในงานที่ใช้แคชหนัก ➡️ จอภาพ 1000Hz ยังไม่มีวางขาย แต่มีการพัฒนา เช่น จอ OLED 720Hz และจอ 750Hz จาก HKC ➡️ การทดสอบใช้ Windows 11 เวอร์ชัน 24H2 และปิดฟีเจอร์ที่ลดประสิทธิภาพ ➡️ การทำเฟรมเรตสูงในเกมอีสปอร์ตช่วยลด input lag และเพิ่มความแม่นยำในการแข่งขัน https://www.tomshardware.com/pc-components/cpus/amd-claims-three-of-its-x3d-cpus-can-hit-1000-fps-in-esports-games-ryzen-7-9800x3d-ryzen-9-9950x3d-and-9955hx3d-are-in-the-1000-fps-club
    0 ความคิดเห็น 0 การแบ่งปัน 73 มุมมอง 0 รีวิว
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!”

    ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง!

    David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น

    Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ

    นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต

    แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก

    Intel 14A node คืออะไร
    เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด
    ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ
    มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน
    ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35%

    เครื่องมือที่ใช้ใน 14A
    ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B
    ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว
    ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield
    เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม

    บริบททางธุรกิจและการลงทุน
    Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A
    หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้
    Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ
    การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5%
    Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel
    Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1
    High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่

    https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    ⚙️ “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!” ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง! David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก ✅ Intel 14A node คืออะไร ➡️ เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด ➡️ ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ ➡️ มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน ➡️ ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35% ✅ เครื่องมือที่ใช้ใน 14A ➡️ ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B ➡️ ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว ➡️ ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield ➡️ เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม ✅ บริบททางธุรกิจและการลงทุน ➡️ Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A ➡️ หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้ ➡️ Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ ➡️ การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ 14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5% ➡️ Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel ➡️ Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1 ➡️ High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่ https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI

    ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ

    OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล

    OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า

    แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream

    ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ

    การเปิดตัว OceanDisk SSD สำหรับ AI
    OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s
    OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs
    OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า

    ความสามารถของ DiskBooster
    รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว
    เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม
    ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD

    บริบทของการพัฒนา
    Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ
    เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง
    ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่

    ผลกระทบต่อวงการ AI
    อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric
    เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ
    เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว

    https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    🎙️ เรื่องเล่าจาก OceanDisk: เมื่อ SSD กลายเป็นอาวุธใหม่ในสงครามเทคโนโลยี AI ในงานเปิดตัวล่าสุด Huawei ได้เผยโฉม OceanDisk EX 560, SP 560 และ LC 560 ซึ่งเป็น SSD สำหรับงาน AI โดยเฉพาะ โดยมีเป้าหมายชัดเจน: ลดการพึ่งพา HBM (High Bandwidth Memory) ที่จีนถูกจำกัดการนำเข้าอย่างหนักจากสหรัฐฯ OceanDisk LC 560 คือไฮไลต์ของงาน ด้วยความจุ 245TB ซึ่งถือเป็น SSD ที่ใหญ่ที่สุดในโลก ณ ขณะนี้ และมี read bandwidth สูงถึง 14.7GB/s เหมาะสำหรับงานฝึกโมเดลขนาดใหญ่แบบ multimodal ที่ต้องการพื้นที่เก็บข้อมูลมหาศาล OceanDisk EX 560 เน้นประสิทธิภาพสูงสุด ด้วย write speed 1,500K IOPS, latency ต่ำกว่า 7µs และ endurance สูงถึง 60 DWPD เหมาะสำหรับงาน fine-tuning LLM ที่ต้องการความเร็วและความทนทาน ส่วน SP 560 เป็นรุ่นประหยัดที่เน้น inference โดยลด latency ของ token แรกได้ถึง 75% และเพิ่ม throughput เป็นสองเท่า แต่สิ่งที่ทำให้ OceanDisk น่าสนใจไม่ใช่แค่ฮาร์ดแวร์—Huawei ยังเปิดตัว DiskBooster ซึ่งเป็นซอฟต์แวร์ที่ช่วยรวมหน่วยความจำจาก SSD, HBM และ DDR ให้เป็น memory pool เดียวกัน เพิ่มความจุได้ถึง 20 เท่า และลด write amplification ด้วยเทคโนโลยี multi-stream ทั้งหมดนี้คือความพยายามของ Huawei ในการสร้างระบบ AI ที่ไม่ต้องพึ่ง HBM เพียงอย่างเดียว โดยใช้ SSD ความจุสูงและซอฟต์แวร์อัจฉริยะเป็นตัวเสริม เพื่อให้สามารถฝึกและใช้งานโมเดล AI ได้แม้จะถูกจำกัดด้านฮาร์ดแวร์จากต่างประเทศ ✅ การเปิดตัว OceanDisk SSD สำหรับ AI ➡️ OceanDisk LC 560 มีความจุ 245TB และ read bandwidth 14.7GB/s ➡️ OceanDisk EX 560 มี write speed 1,500K IOPS และ latency ต่ำกว่า 7µs ➡️ OceanDisk SP 560 ลด latency ของ token แรกได้ 75% และเพิ่ม throughput 2 เท่า ✅ ความสามารถของ DiskBooster ➡️ รวมหน่วยความจำจาก SSD, HBM และ DDR เป็น memory pool เดียว ➡️ เพิ่มความจุได้ถึง 20 เท่าเมื่อเทียบกับระบบเดิม ➡️ ใช้ multi-stream เพื่อลด write amplification และเพิ่มอายุการใช้งาน SSD ✅ บริบทของการพัฒนา ➡️ Huawei พัฒนา OceanDisk เพื่อลดการพึ่งพา HBM ซึ่งถูกจำกัดการส่งออกจากสหรัฐฯ ➡️ เน้นใช้ NAND flash ภายในประเทศเพื่อสร้างระบบที่พึ่งพาตัวเอง ➡️ ตอบโจทย์ปัญหา “memory wall” และ “capacity wall” ในงาน AI ขนาดใหญ่ ✅ ผลกระทบต่อวงการ AI ➡️ อาจเปลี่ยนแนวทางการออกแบบระบบฝึกโมเดลจาก HBM-centric เป็น SSD-centric ➡️ เปิดทางให้ประเทศที่เข้าถึง HBM ได้จำกัดสามารถสร้างระบบ AI ได้ด้วยต้นทุนต่ำ ➡️ เป็นตัวอย่างของการใช้ “ระบบเสริมหลายชั้น” แทนการพึ่งพาหน่วยความจำจุดเดียว https://www.techradar.com/pro/huawei-released-an-ai-ssd-that-uses-a-secret-sauce-to-reduce-the-need-for-large-amounts-of-expensive-hbm
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเรือธง: เมื่อ Dimensity 9500 ไม่ใช่แค่รุ่นต่อยอด แต่เป็นการยกระดับทั้งระบบ

    MediaTek เตรียมเปิดตัว Dimensity 9500 ภายในเดือนกันยายน 2025 โดยมีข้อมูลหลุดจาก Digital Chat Station และ Geekbench ที่เผยให้เห็นว่า นี่ไม่ใช่แค่รุ่นอัปเกรดจาก 9400/9400+ แต่เป็นการยกเครื่องใหม่ทั้ง CPU, GPU, NPU และระบบหน่วยความจำ

    Dimensity 9500 ใช้โครงสร้าง CPU แบบ 1+3+4 โดยมีคอร์ Travis (Cortex-X930) ความเร็วสูงสุด 4.21GHz, คอร์ Alto ที่ 3.50GHz และคอร์ Gelas ประหยัดพลังงานที่ 2.70GHz พร้อม L3 cache ขนาด 16MB และ SLC cache 10MB ซึ่งช่วยเพิ่มประสิทธิภาพทั้ง single-core และ multi-core อย่างชัดเจน

    GPU ใช้ Mali-G1 Ultra แบบ 12 คอร์ ที่ 1.00GHz พร้อมสถาปัตยกรรมใหม่ที่รองรับ ray tracing และลดการใช้พลังงาน ส่วน NPU 9.0 สามารถประมวลผลได้ถึง 100 TOPS ซึ่งเทียบเท่ากับระดับของ Snapdragon 8 Elite Gen 5

    ชิปนี้ยังรองรับ LPDDR5X แบบ 4-channel ที่ความเร็ว 10,667MHz และ UFS 4.1 แบบ 4-lane ซึ่งช่วยให้การโหลดแอปและการจัดการข้อมูลเร็วขึ้นอย่างเห็นได้ชัด โดยมีคะแนน AnTuTu ทะลุ 4 ล้าน ซึ่งเทียบเท่ากับ Snapdragon รุ่นท็อปในปีเดียวกัน

    นอกจากนี้ Dimensity 9500 ยังเป็นชิปแรกของ MediaTek ที่รองรับ ARM Scalable Matrix Extension (SME) ซึ่งช่วยให้การประมวลผล AI และกราฟิกมีประสิทธิภาพมากขึ้นในงานที่ซับซ้อน

    โครงสร้าง CPU และประสิทธิภาพ
    ใช้โครงสร้าง 1+3+4: Travis 4.21GHz, Alto 3.50GHz, Gelas 2.70GHz
    L3 cache เพิ่มเป็น 16MB จาก 12MB ในรุ่นก่อน
    SLC cache 10MB เท่าเดิม

    GPU และการประมวลผลกราฟิก
    Mali-G1 Ultra แบบ 12 คอร์ ความเร็ว 1.00GHz
    รองรับ ray tracing และลดการใช้พลังงาน
    สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผยชื่อ

    NPU และการประมวลผล AI
    NPU 9.0 รองรับ 100 TOPS
    รองรับ SME (Scalable Matrix Extension) เป็นครั้งแรก
    เหมาะกับงาน AI ที่ซับซ้อนและการประมวลผลภาพขั้นสูง

    หน่วยความจำและการจัดเก็บ
    LPDDR5X แบบ 4-channel ความเร็ว 10,667MHz
    UFS 4.1 แบบ 4-lane สำหรับการอ่าน/เขียนข้อมูลเร็วขึ้น
    รองรับการใช้งานระดับ flagship อย่างเต็มรูปแบบ

    คะแนน Benchmark และการเปรียบเทียบ
    คะแนน AnTuTu ทะลุ 4 ล้าน เทียบเท่า Snapdragon 8 Elite Gen 5
    คาดว่าจะเป็นชิปที่มีประสิทธิภาพสูงสุดของ MediaTek ในปี 2025
    เหมาะกับสมาร์ทโฟนระดับเรือธงและอุปกรณ์ AI แบบพกพา

    https://wccftech.com/dimensity-9500-partial-specifications-shared-before-official-launch/
    🎙️ เรื่องเล่าจากชิปเรือธง: เมื่อ Dimensity 9500 ไม่ใช่แค่รุ่นต่อยอด แต่เป็นการยกระดับทั้งระบบ MediaTek เตรียมเปิดตัว Dimensity 9500 ภายในเดือนกันยายน 2025 โดยมีข้อมูลหลุดจาก Digital Chat Station และ Geekbench ที่เผยให้เห็นว่า นี่ไม่ใช่แค่รุ่นอัปเกรดจาก 9400/9400+ แต่เป็นการยกเครื่องใหม่ทั้ง CPU, GPU, NPU และระบบหน่วยความจำ Dimensity 9500 ใช้โครงสร้าง CPU แบบ 1+3+4 โดยมีคอร์ Travis (Cortex-X930) ความเร็วสูงสุด 4.21GHz, คอร์ Alto ที่ 3.50GHz และคอร์ Gelas ประหยัดพลังงานที่ 2.70GHz พร้อม L3 cache ขนาด 16MB และ SLC cache 10MB ซึ่งช่วยเพิ่มประสิทธิภาพทั้ง single-core และ multi-core อย่างชัดเจน GPU ใช้ Mali-G1 Ultra แบบ 12 คอร์ ที่ 1.00GHz พร้อมสถาปัตยกรรมใหม่ที่รองรับ ray tracing และลดการใช้พลังงาน ส่วน NPU 9.0 สามารถประมวลผลได้ถึง 100 TOPS ซึ่งเทียบเท่ากับระดับของ Snapdragon 8 Elite Gen 5 ชิปนี้ยังรองรับ LPDDR5X แบบ 4-channel ที่ความเร็ว 10,667MHz และ UFS 4.1 แบบ 4-lane ซึ่งช่วยให้การโหลดแอปและการจัดการข้อมูลเร็วขึ้นอย่างเห็นได้ชัด โดยมีคะแนน AnTuTu ทะลุ 4 ล้าน ซึ่งเทียบเท่ากับ Snapdragon รุ่นท็อปในปีเดียวกัน นอกจากนี้ Dimensity 9500 ยังเป็นชิปแรกของ MediaTek ที่รองรับ ARM Scalable Matrix Extension (SME) ซึ่งช่วยให้การประมวลผล AI และกราฟิกมีประสิทธิภาพมากขึ้นในงานที่ซับซ้อน ✅ โครงสร้าง CPU และประสิทธิภาพ ➡️ ใช้โครงสร้าง 1+3+4: Travis 4.21GHz, Alto 3.50GHz, Gelas 2.70GHz ➡️ L3 cache เพิ่มเป็น 16MB จาก 12MB ในรุ่นก่อน ➡️ SLC cache 10MB เท่าเดิม ✅ GPU และการประมวลผลกราฟิก ➡️ Mali-G1 Ultra แบบ 12 คอร์ ความเร็ว 1.00GHz ➡️ รองรับ ray tracing และลดการใช้พลังงาน ➡️ สถาปัตยกรรมใหม่ที่ยังไม่เปิดเผยชื่อ ✅ NPU และการประมวลผล AI ➡️ NPU 9.0 รองรับ 100 TOPS ➡️ รองรับ SME (Scalable Matrix Extension) เป็นครั้งแรก ➡️ เหมาะกับงาน AI ที่ซับซ้อนและการประมวลผลภาพขั้นสูง ✅ หน่วยความจำและการจัดเก็บ ➡️ LPDDR5X แบบ 4-channel ความเร็ว 10,667MHz ➡️ UFS 4.1 แบบ 4-lane สำหรับการอ่าน/เขียนข้อมูลเร็วขึ้น ➡️ รองรับการใช้งานระดับ flagship อย่างเต็มรูปแบบ ✅ คะแนน Benchmark และการเปรียบเทียบ ➡️ คะแนน AnTuTu ทะลุ 4 ล้าน เทียบเท่า Snapdragon 8 Elite Gen 5 ➡️ คาดว่าจะเป็นชิปที่มีประสิทธิภาพสูงสุดของ MediaTek ในปี 2025 ➡️ เหมาะกับสมาร์ทโฟนระดับเรือธงและอุปกรณ์ AI แบบพกพา https://wccftech.com/dimensity-9500-partial-specifications-shared-before-official-launch/
    WCCFTECH.COM
    Dimensity 9500’s In-Depth Specifications Get Shared By Tipster Before Upcoming Launch, Will Arrive With All-Round Improvements
    A tipster has shared the partial specifications of the Dimensity 9500, which include the CPU cluster and a truckload of other details, showing the ‘on paper’ improvements of the chipset
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว

    ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล

    แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม

    Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore

    แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end

    แนวคิด Software Defined Supercore (SDC)
    รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread
    แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน
    ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม

    เทคนิคที่ใช้ใน SDC
    wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์
    ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    inject คำสั่งพิเศษสำหรับ flow control และ register passing

    การจัดการโดย OS
    OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition
    ช่วยบาลานซ์ระหว่าง performance และ core availability

    เปรียบเทียบกับแนวทางเดิม
    x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle
    Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10
    SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์

    ความเชื่อมโยงกับแนวคิดเก่า
    คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD
    อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้

    https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    🎙️ เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end ✅ แนวคิด Software Defined Supercore (SDC) ➡️ รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread ➡️ แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน ➡️ ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม ✅ เทคนิคที่ใช้ใน SDC ➡️ wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์ ➡️ ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ inject คำสั่งพิเศษสำหรับ flow control และ register passing ✅ การจัดการโดย OS ➡️ OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition ➡️ ช่วยบาลานซ์ระหว่าง performance และ core availability ✅ เปรียบเทียบกับแนวทางเดิม ➡️ x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle ➡️ Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10 ➡️ SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์ ✅ ความเชื่อมโยงกับแนวคิดเก่า ➡️ คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD ➡️ อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้ https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    0 ความคิดเห็น 0 การแบ่งปัน 199 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ

    DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด

    หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ

    ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ

    สถาปัตยกรรมการรัน DeepSeek บน SGLang
    ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs
    throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node
    ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens

    เทคนิค Prefill-Decode Disaggregation (PD)
    แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ
    ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม
    รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase

    Expert Parallelism (EP) ด้วย DeepEP
    ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode
    รองรับ auto mode ที่เลือก dispatch ตาม workload
    ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้

    DeepGEMM สำหรับ MoE computation
    ใช้ Grouped GEMMs แบบ contiguous และ masked layout
    รองรับ CUDA Graph สำหรับ decode phase
    ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel

    Two-Batch Overlap (TBO)
    แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap
    เพิ่ม throughput ได้ถึง 35% และลด peak memory usage
    ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable

    Expert Parallelism Load Balancer (EPLB)
    ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล
    รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72
    เพิ่ม utilization rate และลดการรอ GPU ที่ช้า

    Toolkits เสริมใน SGLang
    DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง
    Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง
    รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน

    https://lmsys.org/blog/2025-05-05-large-scale-ep/
    🎙️ เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ ✅ สถาปัตยกรรมการรัน DeepSeek บน SGLang ➡️ ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs ➡️ throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node ➡️ ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens ✅ เทคนิค Prefill-Decode Disaggregation (PD) ➡️ แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ ➡️ ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม ➡️ รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase ✅ Expert Parallelism (EP) ด้วย DeepEP ➡️ ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode ➡️ รองรับ auto mode ที่เลือก dispatch ตาม workload ➡️ ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้ ✅ DeepGEMM สำหรับ MoE computation ➡️ ใช้ Grouped GEMMs แบบ contiguous และ masked layout ➡️ รองรับ CUDA Graph สำหรับ decode phase ➡️ ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel ✅ Two-Batch Overlap (TBO) ➡️ แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap ➡️ เพิ่ม throughput ได้ถึง 35% และลด peak memory usage ➡️ ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable ✅ Expert Parallelism Load Balancer (EPLB) ➡️ ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล ➡️ รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72 ➡️ เพิ่ม utilization rate และลดการรอ GPU ที่ช้า ✅ Toolkits เสริมใน SGLang ➡️ DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง ➡️ Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง ➡️ รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน https://lmsys.org/blog/2025-05-05-large-scale-ep/
    LMSYS.ORG
    Deploying DeepSeek with PD Disaggregation and Large-Scale Expert Parallelism on 96 H100 GPUs | LMSYS Org
    DeepSeek is a popular open-source large language model (LLM) praised for its strong performance. However, its large size and unique architecture, which us...
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย

    ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop

    หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้

    AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ

    แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล

    การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย

    สรุปเนื้อหาเป็นหัวข้อ
    AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก
    ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo
    รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์
    R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core
    รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark
    ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้
    R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ
    Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต
    เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ
    การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น

    ข้อมูลเสริมจากภายนอก
    R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ
    R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด
    SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก
    Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก
    Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS

    https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    🧠 AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้ AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก ➡️ ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo ➡️ รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์ ➡️ R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core ➡️ รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark ➡️ ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้ ➡️ R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ ➡️ Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต ➡️ เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ ➡️ การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ ➡️ R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด ➡️ SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก ➡️ Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก ➡️ Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 ความคิดเห็น 0 การแบ่งปัน 237 มุมมอง 0 รีวิว
  • AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น

    ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด

    แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี

    AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด

    แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด

    สรุปเนื้อหาเป็นหัวข้อ
    AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ
    ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก
    AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน
    B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้
    B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU
    B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง
    B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง
    B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000
    AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้
    ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025

    ข้อมูลเสริมจากภายนอก
    ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม
    B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ
    ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด
    B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ
    การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025

    https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    🎙️ AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ ➡️ ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก ➡️ AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน ➡️ B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้ ➡️ B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU ➡️ B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง ➡️ B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง ➡️ B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000 ➡️ AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้ ➡️ ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม ➡️ B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ ➡️ ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด ➡️ B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ ➡️ การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025 https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070

    ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?”

    จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima

    ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม

    อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ

    RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง

    ประสิทธิภาพของแต่ละรุ่น
    RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K
    Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS
    Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS
    Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS
    RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25%
    RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า

    ข้อมูลเสริมจากภายนอก
    RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7
    รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น
    RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ
    RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p
    RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ
    การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา

    https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    🎯 ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070 ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?” จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง ✅ ประสิทธิภาพของแต่ละรุ่น ➡️ RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K ➡️ Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS ➡️ Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS ➡️ Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS ➡️ RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25% ➡️ RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7 ➡️ รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น ➡️ RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ ➡️ RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p ➡️ RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ ➡️ การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    0 ความคิดเห็น 0 การแบ่งปัน 249 มุมมอง 0 รีวิว
  • Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY

    เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit

    แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY

    การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด

    เทียบกับคู่แข่ง: Nvidia และ Intel

    แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด

    ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก

    การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY
    เดิมจำกัดการขายเฉพาะ OEM และ SI
    ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก
    ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง

    สเปกเด่นของ R9700
    ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators
    VRAM ขนาด 32GB GDDR6 บนบัส 256-bit
    ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4

    การออกแบบและการใช้งาน
    ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์
    รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local
    ใช้ PCIe 5.0 x16 และมีขนาด 2-slot

    เปรียบเทียบกับคู่แข่ง
    RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999
    Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200
    R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI

    https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    🧠 Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด 📊 เทียบกับคู่แข่ง: Nvidia และ Intel แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก ✅ การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY ➡️ เดิมจำกัดการขายเฉพาะ OEM และ SI ➡️ ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก ➡️ ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง ✅ สเปกเด่นของ R9700 ➡️ ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators ➡️ VRAM ขนาด 32GB GDDR6 บนบัส 256-bit ➡️ ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4 ✅ การออกแบบและการใช้งาน ➡️ ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์ ➡️ รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local ➡️ ใช้ PCIe 5.0 x16 และมีขนาด 2-slot ✅ เปรียบเทียบกับคู่แข่ง ➡️ RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999 ➡️ Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200 ➡️ R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    0 ความคิดเห็น 0 การแบ่งปัน 244 มุมมอง 0 รีวิว
  • Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix

    ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก

    LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า

    ฟีเจอร์เด่น ได้แก่:
    - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น
    - รองรับ speculative decoding และ torch.compile แบบ experimental
    - รองรับ embedding, rerank model และ multi-modal model
    - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้

    Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ

    Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix
    เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว

    รองรับ multi-GPU scaling และ PCIe P2P data transfer
    เพิ่มประสิทธิภาพสูงสุดถึง 80%

    ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B

    มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile
    ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล

    รองรับ embedding, rerank model และ multi-modal model
    ขยายขอบเขตการใช้งาน AI ได้หลากหลาย

    มีระบบ XPU Manager สำหรับจัดการ GPU
    ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้

    เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้
    รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่

    Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU
    ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+

    ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack
    ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น

    มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร
    ลดความเสี่ยงจากการทำงานผิดพลาด

    Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้
    โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า

    ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental
    เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร

    การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม
    หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ

    Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่
    ต้องรอรุ่น hardened และ full feature set ใน Q4

    การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม
    เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่

    https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    🧠⚙️ Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า ฟีเจอร์เด่น ได้แก่: - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น - รองรับ speculative decoding และ torch.compile แบบ experimental - รองรับ embedding, rerank model และ multi-modal model - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้ Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ ✅ Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix ➡️ เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว ✅ รองรับ multi-GPU scaling และ PCIe P2P data transfer ➡️ เพิ่มประสิทธิภาพสูงสุดถึง 80% ✅ ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens ➡️ ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B ✅ มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile ➡️ ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล ✅ รองรับ embedding, rerank model และ multi-modal model ➡️ ขยายขอบเขตการใช้งาน AI ได้หลากหลาย ✅ มีระบบ XPU Manager สำหรับจัดการ GPU ➡️ ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้ ✅ เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้ ➡️ รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่ ✅ Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU ➡️ ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+ ✅ ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack ➡️ ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น ✅ มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร ➡️ ลดความเสี่ยงจากการทำงานผิดพลาด ✅ Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้ ➡️ โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า ‼️ ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental ⛔ เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร ‼️ การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม ⛔ หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ ‼️ Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่ ⛔ ต้องรอรุ่น hardened และ full feature set ใน Q4 ‼️ การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม ⛔ เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่ https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    WCCFTECH.COM
    Intel's Project Battlematrix For Arc Pro GPUs Gets First Major Software Update: LLM Scaler v1.0 With Up To 80% Performance Uplift, Enhanced Support & More
    Intel has released the first major software for its Arc Pro "Project Battlematrix" solution, the LLM Scaler v1.0, with massive improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 320 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม

    ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย

    MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง

    Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา

    Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU
    เหลือเพียง 2x, 4x และ 8x เท่านั้น

    การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2
    เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux

    XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า
    รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA

    XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia
    เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา

    Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake
    เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่

    MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ
    แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี

    AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด
    ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน

    Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ
    เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ

    การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง
    เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    🎮🧠 เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา ✅ Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU ➡️ เหลือเพียง 2x, 4x และ 8x เท่านั้น ✅ การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2 ➡️ เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux ✅ XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า ➡️ รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA ✅ XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia ➡️ เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา ✅ Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake ➡️ เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่ ✅ MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ ➡️ แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี ✅ AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด ➡️ ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน ✅ Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ ➡️ เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ ✅ การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง ➡️ เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    0 ความคิดเห็น 0 การแบ่งปัน 282 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการฮาร์ดแวร์: เมื่อจีนส่ง GPU 24GB VRAM ท้าชน NVIDIA และ AMD

    ในโลกที่ NVIDIA และ AMD ครองตลาดกราฟิกการ์ดมานาน จู่ๆ ก็มีผู้เล่นหน้าใหม่จากจีนชื่อว่า Lisuan Tech โผล่ขึ้นมาพร้อม GPU รุ่น 7G105 ที่มาพร้อม VRAM ขนาด 24GB และฟีเจอร์ที่ดูจริงจังเกินกว่าจะเป็นแค่ของเล่นสำหรับเกมเมอร์

    Lisuan Tech ไม่ได้เน้น ray tracing หรือ DirectX 12 Ultimate แบบที่ค่ายใหญ่ทำ แต่หันไปโฟกัสที่งาน compute และ virtualization สำหรับตลาด workstation และ enterprise โดยใช้สถาปัตยกรรม TrueGPU ของตัวเอง ผลิตบนเทคโนโลยี 6nm จาก TSMC

    GPU รุ่นนี้รองรับการถอดรหัสวิดีโอ 8K AV1 และ HEVC ที่ 60fps และสามารถ encode ได้ทั้ง 4K และ 8K ขึ้นอยู่กับ codec มีพอร์ต DisplayPort 1.4 ถึง 4 ช่อง แต่ไม่มี HDMI เพราะต้องการลดต้นทุนด้านลิขสิทธิ์

    จุดเด่นที่ทำให้มันดูจริงจังคือการรองรับ SR-IOV ซึ่งสามารถแบ่ง GPU ออกเป็น 16 virtual containers ได้ ทำให้เหมาะกับการใช้งานในระบบคลาวด์หรือองค์กรขนาดใหญ่ที่ต้องการความยืดหยุ่น

    แม้จะมีประสิทธิภาพในระดับ 24 TFLOPs (FP32) ซึ่งใกล้เคียง RTX 4060 แต่ยังมีข้อสงสัยหลายอย่าง เช่น ความเร็วสัญญาณนาฬิกา, ความถี่หน่วยความจำ และการใช้พลังงานที่ยังไม่เปิดเผย รวมถึงการขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในระยะยาว

    Lisuan Tech เปิดตัว GPU รุ่น 7G105 พร้อม VRAM ขนาด 24GB
    เน้นตลาด workstation และ enterprise มากกว่าการเล่นเกม

    ใช้สถาปัตยกรรม TrueGPU ผลิตบนเทคโนโลยี 6nm จาก TSMC
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 แต่ไม่รองรับ ray tracing

    รองรับการถอดรหัสวิดีโอ 8K และ encode ได้ทั้ง 4K/8K
    ใช้ DisplayPort 1.4 จำนวน 4 ช่อง ไม่มี HDMI

    รองรับ SR-IOV แบ่ง GPU เป็น 16 virtual containers
    เหมาะกับการใช้งานในระบบคลาวด์และองค์กรขนาดใหญ่

    ประสิทธิภาพสูงสุด 24 TFLOPs (FP32) ใกล้เคียง RTX 4060
    มีผล benchmark จาก Geekbench และ 3DMark ที่น่าประทับใจ

    รุ่น 7G106 สำหรับผู้ใช้ทั่วไปมี VRAM 12GB และ TDP 225W
    ใช้พลังงานผ่าน 8-pin PCIe connector และรองรับ 8K HDR

    รุ่น 7G105 สำหรับมืออาชีพมี ECC memory และระบบเข้ารหัสข้อมูล
    รองรับการแสดงผลหลายหน้าจอพร้อมกันในระบบเสมือน

    ผลการทดสอบ synthetic benchmark แสดงว่าแรงกว่า RTX 4060
    แต่ยังไม่ถึงระดับ RTX 5060 หรือ RX 9060 XT

    ยังไม่มีข้อมูลแน่ชัดเรื่องความเร็วสัญญาณนาฬิกาและการใช้พลังงาน
    ทำให้ประสิทธิภาพจริงยังเป็นเพียงการคาดการณ์

    ขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในการใช้งานระยะยาว
    อาจมีปัญหาในการใช้งานกับซอฟต์แวร์มืออาชีพ

    ไม่มี HDMI อาจเป็นข้อจำกัดสำหรับผู้ใช้ทั่วไป
    ต้องใช้ DisplayPort เท่านั้น ซึ่งอาจไม่สะดวกในบางกรณี

    https://www.techradar.com/pro/chinese-gpu-vendor-youve-never-heard-of-wants-to-challenge-nvidia-and-amd-in-the-pro-market-with-24gb-vram
    🎮🧠 เรื่องเล่าจากวงการฮาร์ดแวร์: เมื่อจีนส่ง GPU 24GB VRAM ท้าชน NVIDIA และ AMD ในโลกที่ NVIDIA และ AMD ครองตลาดกราฟิกการ์ดมานาน จู่ๆ ก็มีผู้เล่นหน้าใหม่จากจีนชื่อว่า Lisuan Tech โผล่ขึ้นมาพร้อม GPU รุ่น 7G105 ที่มาพร้อม VRAM ขนาด 24GB และฟีเจอร์ที่ดูจริงจังเกินกว่าจะเป็นแค่ของเล่นสำหรับเกมเมอร์ Lisuan Tech ไม่ได้เน้น ray tracing หรือ DirectX 12 Ultimate แบบที่ค่ายใหญ่ทำ แต่หันไปโฟกัสที่งาน compute และ virtualization สำหรับตลาด workstation และ enterprise โดยใช้สถาปัตยกรรม TrueGPU ของตัวเอง ผลิตบนเทคโนโลยี 6nm จาก TSMC GPU รุ่นนี้รองรับการถอดรหัสวิดีโอ 8K AV1 และ HEVC ที่ 60fps และสามารถ encode ได้ทั้ง 4K และ 8K ขึ้นอยู่กับ codec มีพอร์ต DisplayPort 1.4 ถึง 4 ช่อง แต่ไม่มี HDMI เพราะต้องการลดต้นทุนด้านลิขสิทธิ์ จุดเด่นที่ทำให้มันดูจริงจังคือการรองรับ SR-IOV ซึ่งสามารถแบ่ง GPU ออกเป็น 16 virtual containers ได้ ทำให้เหมาะกับการใช้งานในระบบคลาวด์หรือองค์กรขนาดใหญ่ที่ต้องการความยืดหยุ่น แม้จะมีประสิทธิภาพในระดับ 24 TFLOPs (FP32) ซึ่งใกล้เคียง RTX 4060 แต่ยังมีข้อสงสัยหลายอย่าง เช่น ความเร็วสัญญาณนาฬิกา, ความถี่หน่วยความจำ และการใช้พลังงานที่ยังไม่เปิดเผย รวมถึงการขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในระยะยาว ✅ Lisuan Tech เปิดตัว GPU รุ่น 7G105 พร้อม VRAM ขนาด 24GB ➡️ เน้นตลาด workstation และ enterprise มากกว่าการเล่นเกม ✅ ใช้สถาปัตยกรรม TrueGPU ผลิตบนเทคโนโลยี 6nm จาก TSMC ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 แต่ไม่รองรับ ray tracing ✅ รองรับการถอดรหัสวิดีโอ 8K และ encode ได้ทั้ง 4K/8K ➡️ ใช้ DisplayPort 1.4 จำนวน 4 ช่อง ไม่มี HDMI ✅ รองรับ SR-IOV แบ่ง GPU เป็น 16 virtual containers ➡️ เหมาะกับการใช้งานในระบบคลาวด์และองค์กรขนาดใหญ่ ✅ ประสิทธิภาพสูงสุด 24 TFLOPs (FP32) ใกล้เคียง RTX 4060 ➡️ มีผล benchmark จาก Geekbench และ 3DMark ที่น่าประทับใจ ✅ รุ่น 7G106 สำหรับผู้ใช้ทั่วไปมี VRAM 12GB และ TDP 225W ➡️ ใช้พลังงานผ่าน 8-pin PCIe connector และรองรับ 8K HDR ✅ รุ่น 7G105 สำหรับมืออาชีพมี ECC memory และระบบเข้ารหัสข้อมูล ➡️ รองรับการแสดงผลหลายหน้าจอพร้อมกันในระบบเสมือน ✅ ผลการทดสอบ synthetic benchmark แสดงว่าแรงกว่า RTX 4060 ➡️ แต่ยังไม่ถึงระดับ RTX 5060 หรือ RX 9060 XT ‼️ ยังไม่มีข้อมูลแน่ชัดเรื่องความเร็วสัญญาณนาฬิกาและการใช้พลังงาน ⛔ ทำให้ประสิทธิภาพจริงยังเป็นเพียงการคาดการณ์ ‼️ ขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในการใช้งานระยะยาว ⛔ อาจมีปัญหาในการใช้งานกับซอฟต์แวร์มืออาชีพ ‼️ ไม่มี HDMI อาจเป็นข้อจำกัดสำหรับผู้ใช้ทั่วไป ⛔ ต้องใช้ DisplayPort เท่านั้น ซึ่งอาจไม่สะดวกในบางกรณี https://www.techradar.com/pro/chinese-gpu-vendor-youve-never-heard-of-wants-to-challenge-nvidia-and-amd-in-the-pro-market-with-24gb-vram
    0 ความคิดเห็น 0 การแบ่งปัน 279 มุมมอง 0 รีวิว
  • การพัฒนาอินเทอร์เน็ต: จากสายทองแดงสู่ใยแก้ว และไปไกลถึงอวกาศ

    ในยุคปัจจุบันที่โลกเชื่อมต่อกันอย่างแนบแน่น การเข้าถึงอินเทอร์เน็ตกลายเป็นปัจจัยสำคัญในการดำรงชีวิต ไม่ว่าจะเป็นการสื่อสาร การทำงาน การเรียนรู้ หรือการเข้าถึงข้อมูลข่าวสาร อินเทอร์เน็ตได้เปลี่ยนแปลงวิถีชีวิตของมนุษย์ในทุกมิติ แต่การเดินทางของเทคโนโลยีนี้ไม่ได้เริ่มต้นจากความล้ำสมัย หากแต่เริ่มจากโครงสร้างพื้นฐานพื้นฐานอย่างสายทองแดง ก่อนจะพัฒนาไปสู่ใยแก้วนำแสง และก้าวข้ามพรมแดนทางภูมิศาสตร์ด้วยอินเทอร์เน็ตผ่านดาวเทียม

    จุดเริ่มต้นของอินเทอร์เน็ตย้อนกลับไปในปี 1969 เมื่อกระทรวงกลาโหมของสหรัฐอเมริกาได้พัฒนาโครงการ ARPANET ซึ่งเป็นเครือข่ายแรกที่เชื่อมต่อคอมพิวเตอร์จากหลายสถาบันเข้าด้วยกัน โดยใช้สายโทรศัพท์ทองแดงเป็นโครงข่ายหลัก ความก้าวหน้านี้ได้ปูทางสู่การพัฒนาระบบการสื่อสารผ่านแนวคิดการสลับแพ็กเก็ต ซึ่งเป็นกลไกที่ทำให้ข้อมูลสามารถเดินทางผ่านเครือข่ายได้อย่างยืดหยุ่นและปลอดภัยมากยิ่งขึ้น อย่างไรก็ตาม สายทองแดงเองก็มีข้อจำกัดมากมาย ทั้งในเรื่องของระยะทาง ความเร็ว และความไวต่อสัญญาณรบกวน

    ในช่วงทศวรรษที่ 1990 การเชื่อมต่ออินเทอร์เน็ตแบบ Dial-up ได้รับความนิยมอย่างแพร่หลาย โดยอาศัยสายโทรศัพท์ทองแดงร่วมกับโมเด็ม ซึ่งทำหน้าที่แปลงสัญญาณดิจิทัลเป็นอนาล็อก และในทางกลับกัน แม้ว่าจะเป็นการเปิดประตูให้ประชาชนทั่วไปได้สัมผัสกับโลกออนไลน์ แต่ Dial-up ก็เต็มไปด้วยข้อจำกัด ไม่ว่าจะเป็นความเร็วที่ต่ำ การผูกขาดสายโทรศัพท์ระหว่างการใช้งาน หรือการหลุดสัญญาณอย่างสม่ำเสมอ ต่อมาจึงเกิดการพัฒนาเทคโนโลยี DSL (Digital Subscriber Line) ซึ่งสามารถใช้งานโทรศัพท์และอินเทอร์เน็ตได้พร้อมกันบนสายทองแดงเส้นเดียวกัน และให้ความเร็วสูงกว่าอย่างเห็นได้ชัด แม้จะยังอยู่บนโครงข่ายเดิม DSL ก็ช่วยยืดอายุของโครงสร้างพื้นฐานสายทองแดงออกไปได้อีกระยะหนึ่ง

    อย่างไรก็ดี พลังของสายทองแดงมีขีดจำกัดทั้งในเชิงฟิสิกส์และเศรษฐศาสตร์ ปริมาณข้อมูลที่สามารถรับส่งได้ต่อวินาทีนั้นมีข้อจำกัดจากระยะทาง ความต้านทาน และความถี่ของสัญญาณ การพยายามเพิ่มความเร็วผ่านสายทองแดงจึงต้องเผชิญกับปัญหาการลดทอนของสัญญาณ และความเสี่ยงต่อการรบกวนจากคลื่นแม่เหล็กไฟฟ้ารอบข้างมากขึ้น ซึ่งไม่สอดคล้องกับความต้องการที่เพิ่มขึ้นแบบทวีคูณของโลกในยุคดิจิทัล

    การเปลี่ยนแปลงเชิงโครงสร้างจึงเกิดขึ้น ด้วยการหันมาใช้ใยแก้วนำแสงเป็นสื่อกลางในการส่งข้อมูล ใยแก้วนำแสงใช้พลังงานแสงแทนกระแสไฟฟ้า จึงสามารถส่งข้อมูลได้ด้วยความเร็วสูงมาก มีแบนด์วิดท์กว้าง และไม่ไวต่อคลื่นรบกวนภายนอก หลักการทำงานของใยแก้วนำแสงอาศัยปรากฏการณ์สะท้อนกลับหมด (Total Internal Reflection) ที่ทำให้แสงสามารถวิ่งผ่านเส้นใยแก้วได้ในระยะไกลโดยไม่สูญเสียพลังงานมากนัก ใยแก้วนำแสงไม่เพียงแต่เพิ่มประสิทธิภาพในการเชื่อมต่อ แต่ยังเพิ่มความปลอดภัย และลดต้นทุนในระยะยาวได้อย่างมีนัยสำคัญ

    ประโยชน์ของใยแก้วนำแสงเห็นได้ชัดในชีวิตประจำวัน ไม่ว่าจะเป็นการสตรีมวิดีโอความละเอียดสูง การประชุมทางไกล การเรียนรู้ออนไลน์ หรือแม้แต่การเล่นเกมผ่านคลาวด์ ความเร็วที่สูงและความเสถียรของเครือข่ายช่วยให้บริการเหล่านี้ทำงานได้อย่างราบรื่น อีกทั้งยังส่งผลเชิงบวกต่อเศรษฐกิจดิจิทัลที่กำลังเติบโต และเปิดโอกาสใหม่ๆ ในการพัฒนานวัตกรรมและบริการที่อาศัยการรับส่งข้อมูลจำนวนมากแบบเรียลไทม์

    แม้ว่าใยแก้วนำแสงจะเป็นโซลูชันที่ดูจะ “พร้อมสำหรับอนาคต” แต่ในทางปฏิบัติ การติดตั้งโครงข่ายนี้ยังคงเผชิญกับความท้าทายมากมาย โดยเฉพาะปัญหาในช่วง Last Mile หรือการเชื่อมโยงใยแก้วนำแสงจากสายหลักเข้าสู่บ้านและธุรกิจแต่ละหลัง ซึ่งมักมีต้นทุนสูง ใช้แรงงานผู้เชี่ยวชาญ และต้องอาศัยการวางแผนโครงข่ายอย่างรอบคอบ ความซับซ้อนนี้ทำให้ชุมชนชนบทหรือพื้นที่ห่างไกลถูกมองข้าม จนนำไปสู่ “ช่องว่างทางดิจิทัล” ที่ยังคงปรากฏอยู่ในหลายภูมิภาค

    เพื่อเติมเต็มช่องว่างดังกล่าว เทคโนโลยีอินเทอร์เน็ตผ่านดาวเทียมได้ถูกพัฒนาขึ้น โดยเฉพาะดาวเทียมในวงโคจรต่ำ (LEO) อย่าง Starlink ที่ให้เวลาแฝงต่ำและความเร็วสูงกว่าเทคโนโลยีดาวเทียมรุ่นก่อน แม้จะมีข้อจำกัดด้านต้นทุนและความไวต่อสภาพอากาศ แต่การเข้าถึงที่ครอบคลุมทุกพื้นที่ของดาวเทียมได้สร้างความหวังใหม่สำหรับประชากรที่เคยอยู่นอกขอบเขตของโครงสร้างพื้นฐานแบบมีสาย

    อนาคตของการเชื่อมต่อไม่ได้หยุดอยู่แค่ใยแก้วนำแสงหรือดาวเทียม ปัจจุบันมีการวิจัยและพัฒนาเทคโนโลยีล้ำหน้า เช่น Wavelength Division Multiplexing (WDM) ที่ช่วยให้สามารถส่งข้อมูลหลายชุดพร้อมกันในเส้นใยเส้นเดียว หรือ Hollow Core Fiber ที่นำแสงวิ่งผ่านอากาศแทนแกนแก้ว เพิ่มความเร็วและลดเวลาแฝง นอกจากนี้ยังมีแนวคิดอินเทอร์เน็ตควอนตัม (Quantum Internet) ที่ใช้หลักกลศาสตร์ควอนตัมในการสร้างระบบเครือข่ายที่ปลอดภัยและมีประสิทธิภาพสูงสุด

    สรุปได้ว่าการพัฒนาโครงสร้างพื้นฐานของอินเทอร์เน็ตไม่ใช่เพียงเรื่องของเทคโนโลยี แต่เป็นปัจจัยสำคัญที่ขับเคลื่อนการพัฒนาทางเศรษฐกิจ สังคม และคุณภาพชีวิตของผู้คนทั่วโลก อินเทอร์เน็ตที่เร็วขึ้นและเชื่อถือได้มากขึ้น หมายถึงโอกาสที่เปิดกว้างมากขึ้นเช่นกัน การลงทุนในเทคโนโลยีที่ยั่งยืนจึงไม่ใช่เพียงทางเลือก แต่เป็นความจำเป็นสำหรับอนาคตที่เชื่อมโยงกันมากยิ่งขึ้นในทุกมิติ

    #ลุงเขียนหลานอ่าน
    🌐 การพัฒนาอินเทอร์เน็ต: จากสายทองแดงสู่ใยแก้ว และไปไกลถึงอวกาศ 🌏 ในยุคปัจจุบันที่โลกเชื่อมต่อกันอย่างแนบแน่น การเข้าถึงอินเทอร์เน็ตกลายเป็นปัจจัยสำคัญในการดำรงชีวิต ไม่ว่าจะเป็นการสื่อสาร การทำงาน การเรียนรู้ หรือการเข้าถึงข้อมูลข่าวสาร อินเทอร์เน็ตได้เปลี่ยนแปลงวิถีชีวิตของมนุษย์ในทุกมิติ แต่การเดินทางของเทคโนโลยีนี้ไม่ได้เริ่มต้นจากความล้ำสมัย หากแต่เริ่มจากโครงสร้างพื้นฐานพื้นฐานอย่างสายทองแดง ก่อนจะพัฒนาไปสู่ใยแก้วนำแสง และก้าวข้ามพรมแดนทางภูมิศาสตร์ด้วยอินเทอร์เน็ตผ่านดาวเทียม 📞 จุดเริ่มต้นของอินเทอร์เน็ตย้อนกลับไปในปี 1969 เมื่อกระทรวงกลาโหมของสหรัฐอเมริกาได้พัฒนาโครงการ ARPANET ซึ่งเป็นเครือข่ายแรกที่เชื่อมต่อคอมพิวเตอร์จากหลายสถาบันเข้าด้วยกัน โดยใช้สายโทรศัพท์ทองแดงเป็นโครงข่ายหลัก ความก้าวหน้านี้ได้ปูทางสู่การพัฒนาระบบการสื่อสารผ่านแนวคิดการสลับแพ็กเก็ต ซึ่งเป็นกลไกที่ทำให้ข้อมูลสามารถเดินทางผ่านเครือข่ายได้อย่างยืดหยุ่นและปลอดภัยมากยิ่งขึ้น อย่างไรก็ตาม สายทองแดงเองก็มีข้อจำกัดมากมาย ทั้งในเรื่องของระยะทาง ความเร็ว และความไวต่อสัญญาณรบกวน 🧭 ในช่วงทศวรรษที่ 1990 การเชื่อมต่ออินเทอร์เน็ตแบบ Dial-up ได้รับความนิยมอย่างแพร่หลาย โดยอาศัยสายโทรศัพท์ทองแดงร่วมกับโมเด็ม ซึ่งทำหน้าที่แปลงสัญญาณดิจิทัลเป็นอนาล็อก และในทางกลับกัน แม้ว่าจะเป็นการเปิดประตูให้ประชาชนทั่วไปได้สัมผัสกับโลกออนไลน์ แต่ Dial-up ก็เต็มไปด้วยข้อจำกัด ไม่ว่าจะเป็นความเร็วที่ต่ำ การผูกขาดสายโทรศัพท์ระหว่างการใช้งาน หรือการหลุดสัญญาณอย่างสม่ำเสมอ ต่อมาจึงเกิดการพัฒนาเทคโนโลยี DSL (Digital Subscriber Line) ซึ่งสามารถใช้งานโทรศัพท์และอินเทอร์เน็ตได้พร้อมกันบนสายทองแดงเส้นเดียวกัน และให้ความเร็วสูงกว่าอย่างเห็นได้ชัด แม้จะยังอยู่บนโครงข่ายเดิม DSL ก็ช่วยยืดอายุของโครงสร้างพื้นฐานสายทองแดงออกไปได้อีกระยะหนึ่ง ⚠️ อย่างไรก็ดี พลังของสายทองแดงมีขีดจำกัดทั้งในเชิงฟิสิกส์และเศรษฐศาสตร์ ปริมาณข้อมูลที่สามารถรับส่งได้ต่อวินาทีนั้นมีข้อจำกัดจากระยะทาง ความต้านทาน และความถี่ของสัญญาณ การพยายามเพิ่มความเร็วผ่านสายทองแดงจึงต้องเผชิญกับปัญหาการลดทอนของสัญญาณ และความเสี่ยงต่อการรบกวนจากคลื่นแม่เหล็กไฟฟ้ารอบข้างมากขึ้น ซึ่งไม่สอดคล้องกับความต้องการที่เพิ่มขึ้นแบบทวีคูณของโลกในยุคดิจิทัล 💡 การเปลี่ยนแปลงเชิงโครงสร้างจึงเกิดขึ้น ด้วยการหันมาใช้ใยแก้วนำแสงเป็นสื่อกลางในการส่งข้อมูล ใยแก้วนำแสงใช้พลังงานแสงแทนกระแสไฟฟ้า จึงสามารถส่งข้อมูลได้ด้วยความเร็วสูงมาก มีแบนด์วิดท์กว้าง และไม่ไวต่อคลื่นรบกวนภายนอก หลักการทำงานของใยแก้วนำแสงอาศัยปรากฏการณ์สะท้อนกลับหมด (Total Internal Reflection) ที่ทำให้แสงสามารถวิ่งผ่านเส้นใยแก้วได้ในระยะไกลโดยไม่สูญเสียพลังงานมากนัก ใยแก้วนำแสงไม่เพียงแต่เพิ่มประสิทธิภาพในการเชื่อมต่อ แต่ยังเพิ่มความปลอดภัย และลดต้นทุนในระยะยาวได้อย่างมีนัยสำคัญ 📺 ประโยชน์ของใยแก้วนำแสงเห็นได้ชัดในชีวิตประจำวัน ไม่ว่าจะเป็นการสตรีมวิดีโอความละเอียดสูง การประชุมทางไกล การเรียนรู้ออนไลน์ หรือแม้แต่การเล่นเกมผ่านคลาวด์ ความเร็วที่สูงและความเสถียรของเครือข่ายช่วยให้บริการเหล่านี้ทำงานได้อย่างราบรื่น อีกทั้งยังส่งผลเชิงบวกต่อเศรษฐกิจดิจิทัลที่กำลังเติบโต และเปิดโอกาสใหม่ๆ ในการพัฒนานวัตกรรมและบริการที่อาศัยการรับส่งข้อมูลจำนวนมากแบบเรียลไทม์ 🚧 แม้ว่าใยแก้วนำแสงจะเป็นโซลูชันที่ดูจะ “พร้อมสำหรับอนาคต” แต่ในทางปฏิบัติ การติดตั้งโครงข่ายนี้ยังคงเผชิญกับความท้าทายมากมาย โดยเฉพาะปัญหาในช่วง Last Mile หรือการเชื่อมโยงใยแก้วนำแสงจากสายหลักเข้าสู่บ้านและธุรกิจแต่ละหลัง ซึ่งมักมีต้นทุนสูง ใช้แรงงานผู้เชี่ยวชาญ และต้องอาศัยการวางแผนโครงข่ายอย่างรอบคอบ ความซับซ้อนนี้ทำให้ชุมชนชนบทหรือพื้นที่ห่างไกลถูกมองข้าม จนนำไปสู่ “ช่องว่างทางดิจิทัล” ที่ยังคงปรากฏอยู่ในหลายภูมิภาค 🛰️ เพื่อเติมเต็มช่องว่างดังกล่าว เทคโนโลยีอินเทอร์เน็ตผ่านดาวเทียมได้ถูกพัฒนาขึ้น โดยเฉพาะดาวเทียมในวงโคจรต่ำ (LEO) อย่าง Starlink ที่ให้เวลาแฝงต่ำและความเร็วสูงกว่าเทคโนโลยีดาวเทียมรุ่นก่อน แม้จะมีข้อจำกัดด้านต้นทุนและความไวต่อสภาพอากาศ แต่การเข้าถึงที่ครอบคลุมทุกพื้นที่ของดาวเทียมได้สร้างความหวังใหม่สำหรับประชากรที่เคยอยู่นอกขอบเขตของโครงสร้างพื้นฐานแบบมีสาย 🔭 อนาคตของการเชื่อมต่อไม่ได้หยุดอยู่แค่ใยแก้วนำแสงหรือดาวเทียม ปัจจุบันมีการวิจัยและพัฒนาเทคโนโลยีล้ำหน้า เช่น Wavelength Division Multiplexing (WDM) ที่ช่วยให้สามารถส่งข้อมูลหลายชุดพร้อมกันในเส้นใยเส้นเดียว หรือ Hollow Core Fiber ที่นำแสงวิ่งผ่านอากาศแทนแกนแก้ว เพิ่มความเร็วและลดเวลาแฝง นอกจากนี้ยังมีแนวคิดอินเทอร์เน็ตควอนตัม (Quantum Internet) ที่ใช้หลักกลศาสตร์ควอนตัมในการสร้างระบบเครือข่ายที่ปลอดภัยและมีประสิทธิภาพสูงสุด 📌 สรุปได้ว่าการพัฒนาโครงสร้างพื้นฐานของอินเทอร์เน็ตไม่ใช่เพียงเรื่องของเทคโนโลยี แต่เป็นปัจจัยสำคัญที่ขับเคลื่อนการพัฒนาทางเศรษฐกิจ สังคม และคุณภาพชีวิตของผู้คนทั่วโลก อินเทอร์เน็ตที่เร็วขึ้นและเชื่อถือได้มากขึ้น หมายถึงโอกาสที่เปิดกว้างมากขึ้นเช่นกัน การลงทุนในเทคโนโลยีที่ยั่งยืนจึงไม่ใช่เพียงทางเลือก แต่เป็นความจำเป็นสำหรับอนาคตที่เชื่อมโยงกันมากยิ่งขึ้นในทุกมิติ #ลุงเขียนหลานอ่าน
    1 ความคิดเห็น 0 การแบ่งปัน 383 มุมมอง 0 รีวิว
  • อนุกมธ.ฯ ไฟเขียวไม่ตัดงบกลาโหม! ชี้เรือฟริเกต 1.75 หมื่นล้าน ควรซื้อ 2 ลำเพื่อประสิทธิภาพสูงสุด
    https://www.thai-tai.tv/news/20531/
    .
    #งบประมาณปี69 #กองทัพเรือ #เรือฟริเกต #งบกลาโหม #อนุกมธICT #ความมั่นคง #ชายแดนไทยกัมพูชา #อธิปไตย #ณพลเดชมณีลังกา
    อนุกมธ.ฯ ไฟเขียวไม่ตัดงบกลาโหม! ชี้เรือฟริเกต 1.75 หมื่นล้าน ควรซื้อ 2 ลำเพื่อประสิทธิภาพสูงสุด https://www.thai-tai.tv/news/20531/ . #งบประมาณปี69 #กองทัพเรือ #เรือฟริเกต #งบกลาโหม #อนุกมธICT #ความมั่นคง #ชายแดนไทยกัมพูชา #อธิปไตย #ณพลเดชมณีลังกา
    0 ความคิดเห็น 0 การแบ่งปัน 233 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงานจีน: G100 ชิปกราฟิกสายเลือดจีนที่เริ่มท้าชนโลก

    Lisuan Technology บริษัทสตาร์ทอัพด้านกราฟิกจากจีน ได้เปิดตัว GPU รุ่นใหม่ชื่อ G100 ซึ่งเป็นชิปที่ออกแบบและผลิตในประเทศจีนโดยไม่ใช้ IP จากต่างประเทศ โดยผลการทดสอบล่าสุดเผยว่า G100 รุ่น 48 CUs มีประสิทธิภาพสูงกว่า Intel Arc A770 และ Nvidia RTX 4060 ในการทดสอบ OpenCL และใกล้เคียงกับ RTX 5060 ซึ่งถือเป็นก้าวสำคัญของจีนในการพัฒนา GPU ระดับสูงด้วยตนเอง

    ในอดีต GPU ระดับสูงมักมาจากค่ายใหญ่ในสหรัฐฯ เช่น Nvidia และ AMD แต่ตอนนี้จีนเริ่มมีผู้เล่นใหม่อย่าง Lisuan Technology ที่พยายามสร้าง GPU ด้วยตนเอง โดยไม่พึ่งพาเทคโนโลยีจากต่างประเทศ

    G100 รุ่นใหม่ที่ถูกทดสอบมีสเปกดังนี้:
    - 48 Compute Units (CUs)
    - ความเร็วสูงสุด 2,000 MHz
    - หน่วยความจำ 12 GB (คาดว่าเป็น GDDR6)

    ผลการทดสอบ OpenCL จาก Geekbench พบว่า:
    - G100 รุ่น 48 CUs ได้คะแนน 111,290
    - สูงกว่า RTX 4060 (101,028) และ Arc A770 (109,181)
    - ใกล้เคียงกับ RTX 5060 (120,916) โดยช้ากว่าเพียง 9%

    แม้จะยังไม่มีข้อมูลด้านสถาปัตยกรรม TrueGPU อย่างละเอียด แต่ Lisuan ยืนยันว่าออกแบบเองทั้งหมด และเตรียมเปิดตัวผลิตภัณฑ์อย่างเป็นทางการเร็ว ๆ นี้

    GPU ที่ออกแบบโดยไม่ใช้ IP ต่างประเทศมีความสำคัญต่อความมั่นคงด้านเทคโนโลยี
    โดยเฉพาะในยุคที่การควบคุมการส่งออกชิปจากสหรัฐฯ เข้มงวดขึ้น

    OpenCL เป็นมาตรฐานสำหรับการประมวลผลทั่วไปบน GPU
    ใช้ในงาน AI, การคำนวณทางวิทยาศาสตร์ และการเรนเดอร์ภาพ

    หน่วยความจำ 12 GB เป็นมาตรฐานใหม่สำหรับเกมยุคปัจจุบัน
    เกม AAA หลายเกมเริ่มต้องการมากกว่า 8 GB เพื่อประสิทธิภาพสูงสุด

    การพัฒนา GPU ภายในประเทศอาจช่วยลดการพึ่งพา Nvidia และ AMD
    ส่งผลต่อการแข่งขันในตลาดโลกในระยะยาว

    https://www.tomshardware.com/pc-components/gpus/lisuan-g100-gpu-shows-promise-at-least-in-opencl-homegrown-chinese-chip-outguns-arc-a770-and-rtx-4060-in-new-benchmark-10-percent-slower-than-rtx-5060
    🎙️ เรื่องเล่าจากโรงงานจีน: G100 ชิปกราฟิกสายเลือดจีนที่เริ่มท้าชนโลก Lisuan Technology บริษัทสตาร์ทอัพด้านกราฟิกจากจีน ได้เปิดตัว GPU รุ่นใหม่ชื่อ G100 ซึ่งเป็นชิปที่ออกแบบและผลิตในประเทศจีนโดยไม่ใช้ IP จากต่างประเทศ โดยผลการทดสอบล่าสุดเผยว่า G100 รุ่น 48 CUs มีประสิทธิภาพสูงกว่า Intel Arc A770 และ Nvidia RTX 4060 ในการทดสอบ OpenCL และใกล้เคียงกับ RTX 5060 ซึ่งถือเป็นก้าวสำคัญของจีนในการพัฒนา GPU ระดับสูงด้วยตนเอง ในอดีต GPU ระดับสูงมักมาจากค่ายใหญ่ในสหรัฐฯ เช่น Nvidia และ AMD แต่ตอนนี้จีนเริ่มมีผู้เล่นใหม่อย่าง Lisuan Technology ที่พยายามสร้าง GPU ด้วยตนเอง โดยไม่พึ่งพาเทคโนโลยีจากต่างประเทศ G100 รุ่นใหม่ที่ถูกทดสอบมีสเปกดังนี้: - 48 Compute Units (CUs) - ความเร็วสูงสุด 2,000 MHz - หน่วยความจำ 12 GB (คาดว่าเป็น GDDR6) ผลการทดสอบ OpenCL จาก Geekbench พบว่า: - G100 รุ่น 48 CUs ได้คะแนน 111,290 - สูงกว่า RTX 4060 (101,028) และ Arc A770 (109,181) - ใกล้เคียงกับ RTX 5060 (120,916) โดยช้ากว่าเพียง 9% แม้จะยังไม่มีข้อมูลด้านสถาปัตยกรรม TrueGPU อย่างละเอียด แต่ Lisuan ยืนยันว่าออกแบบเองทั้งหมด และเตรียมเปิดตัวผลิตภัณฑ์อย่างเป็นทางการเร็ว ๆ นี้ 💡 GPU ที่ออกแบบโดยไม่ใช้ IP ต่างประเทศมีความสำคัญต่อความมั่นคงด้านเทคโนโลยี ➡️ โดยเฉพาะในยุคที่การควบคุมการส่งออกชิปจากสหรัฐฯ เข้มงวดขึ้น 💡 OpenCL เป็นมาตรฐานสำหรับการประมวลผลทั่วไปบน GPU ➡️ ใช้ในงาน AI, การคำนวณทางวิทยาศาสตร์ และการเรนเดอร์ภาพ 💡 หน่วยความจำ 12 GB เป็นมาตรฐานใหม่สำหรับเกมยุคปัจจุบัน ➡️ เกม AAA หลายเกมเริ่มต้องการมากกว่า 8 GB เพื่อประสิทธิภาพสูงสุด 💡 การพัฒนา GPU ภายในประเทศอาจช่วยลดการพึ่งพา Nvidia และ AMD ➡️ ส่งผลต่อการแข่งขันในตลาดโลกในระยะยาว https://www.tomshardware.com/pc-components/gpus/lisuan-g100-gpu-shows-promise-at-least-in-opencl-homegrown-chinese-chip-outguns-arc-a770-and-rtx-4060-in-new-benchmark-10-percent-slower-than-rtx-5060
    0 ความคิดเห็น 0 การแบ่งปัน 260 มุมมอง 0 รีวิว
  • จาก ย.ย่งฮะเฮง สู่โรงงานคุณ! ส่งมอบเครื่องจักรแปรรูปชุดใหญ่...ด้วยใจ!
    ความสุขของเราคือการเห็นธุรกิจของคุณเติบโต! วันนี้ ย.ย่งฮะเฮง ได้ส่งมอบ เครื่องจักรแปรรูปอาหารหลายเครื่องให้กับลูกค้าคนสำคัญของเรา

    เราใส่ใจในทุกรายละเอียด ตั้งแต่การคัดสรรเครื่องจักรคุณภาพ การทดสอบ ไปจนถึงการจัดส่ง เพื่อให้มั่นใจว่าเครื่องจักรเหล่านี้จะเป็นหัวใจสำคัญที่ช่วยให้ธุรกิจของคุณ:

    ผลิตได้รวดเร็วและมีประสิทธิภาพสูงสุด
    ลดภาระงานและต้นทุน
    สร้างสรรค์ผลิตภัณฑ์ที่มีคุณภาพสม่ำเสมอ

    ขอบคุณลูกค้าที่ให้ความไว้วางใจเราเสมอมา! เราพร้อมเป็นพาร์ทเนอร์ที่สนับสนุนทุกย่างก้าวของความสำเร็จของคุณ
    อยากรู้ว่าเครื่องจักรของเราช่วยอะไรธุรกิจคุณได้บ้าง?
    แวะมาชมเครื่องจักรจริงและปรึกษาผู้เชี่ยวชาญของเราได้ที่ ย.ย่งฮะเฮง! ทีมงานของเราพร้อมให้คำแนะนำอย่างเป็นกันเอง เพื่อให้คุณได้รับโซลูชันที่เหมาะสมที่สุด

    เวลาทำการ:
    จันทร์ - ศุกร์: 8.00 - 17.00 น.
    เสาร์: 8.00 - 16.00 น.

    ช่องทางติดต่อเรา:
    แผนที่ร้าน: https://maps.app.goo.gl/9oLTmzwbArzJy5wc7
    แชทกับเรา:
    Facebook Messenger: m.me/yonghahheng
    LINE OA: @yonghahheng (มี@ข้างหน้า) หรือคลิก https://lin.ee/5H812n9

    โทรสายด่วน:
    02-215-3515-9
    081-3189098

    เว็บไซต์: www.yoryonghahheng.com
    อีเมล: sales@yoryonghahheng.com | yonghahheng@gmail.com

    อย่ารอช้า! โอกาสในการพัฒนาธุรกิจของคุณอยู่แค่เอื้อม!
    #ยย่งฮะเฮง #เครื่องจักรคุณภาพ #คู่คิดธุรกิจ #บริการครบวงจร #ยกระดับการผลิต #โรงงานทันสมัย #ความสำเร็จของคุณคือความสุขของเรา
    จาก ย.ย่งฮะเฮง สู่โรงงานคุณ! ✨ ส่งมอบเครื่องจักรแปรรูปชุดใหญ่...ด้วยใจ! ความสุขของเราคือการเห็นธุรกิจของคุณเติบโต! วันนี้ ย.ย่งฮะเฮง ได้ส่งมอบ เครื่องจักรแปรรูปอาหารหลายเครื่องให้กับลูกค้าคนสำคัญของเรา เราใส่ใจในทุกรายละเอียด ตั้งแต่การคัดสรรเครื่องจักรคุณภาพ การทดสอบ ไปจนถึงการจัดส่ง เพื่อให้มั่นใจว่าเครื่องจักรเหล่านี้จะเป็นหัวใจสำคัญที่ช่วยให้ธุรกิจของคุณ: ผลิตได้รวดเร็วและมีประสิทธิภาพสูงสุด ลดภาระงานและต้นทุน สร้างสรรค์ผลิตภัณฑ์ที่มีคุณภาพสม่ำเสมอ ขอบคุณลูกค้าที่ให้ความไว้วางใจเราเสมอมา! เราพร้อมเป็นพาร์ทเนอร์ที่สนับสนุนทุกย่างก้าวของความสำเร็จของคุณ อยากรู้ว่าเครื่องจักรของเราช่วยอะไรธุรกิจคุณได้บ้าง? แวะมาชมเครื่องจักรจริงและปรึกษาผู้เชี่ยวชาญของเราได้ที่ ย.ย่งฮะเฮง! ทีมงานของเราพร้อมให้คำแนะนำอย่างเป็นกันเอง เพื่อให้คุณได้รับโซลูชันที่เหมาะสมที่สุด เวลาทำการ: จันทร์ - ศุกร์: 8.00 - 17.00 น. เสาร์: 8.00 - 16.00 น. ช่องทางติดต่อเรา: แผนที่ร้าน: https://maps.app.goo.gl/9oLTmzwbArzJy5wc7 แชทกับเรา: Facebook Messenger: m.me/yonghahheng LINE OA: @yonghahheng (มี@ข้างหน้า) หรือคลิก https://lin.ee/5H812n9 โทรสายด่วน: 02-215-3515-9 081-3189098 เว็บไซต์: www.yoryonghahheng.com อีเมล: sales@yoryonghahheng.com | yonghahheng@gmail.com อย่ารอช้า! โอกาสในการพัฒนาธุรกิจของคุณอยู่แค่เอื้อม! #ยย่งฮะเฮง #เครื่องจักรคุณภาพ #คู่คิดธุรกิจ #บริการครบวงจร #ยกระดับการผลิต #โรงงานทันสมัย #ความสำเร็จของคุณคือความสุขของเรา
    0 ความคิดเห็น 0 การแบ่งปัน 502 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ

    TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027

    หากแผนนี้สำเร็จ:
    - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC
    - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน

    แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก

    TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027
    เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026

    ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek
    ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง

    Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด
    ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร

    หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC
    ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง

    TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง
    Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า

    https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    🎙️ เรื่องเล่าจากโรงงานชิป: เมื่อ TSMC ต้องเร่งผลิตชิปเล็กที่สุดในโลกให้ทันความต้องการ TSMC เริ่มผลิตชิปขนาด 2 นาโนเมตรในปี 2025 โดยตั้งเป้าเริ่มต้นที่ 40,000 แผ่นเวเฟอร์ต่อเดือน และจะเพิ่มเป็น 100,000 แผ่นในปี 2026 — แต่ด้วยความต้องการจากบริษัทอย่าง Apple, NVIDIA, Intel, AMD และ MediaTek ที่ใช้ชิปเหล่านี้ในผลิตภัณฑ์ AI, มือถือ และเซิร์ฟเวอร์ ทำให้ TSMC อาจต้องเพิ่มกำลังการผลิตถึง 5 เท่าในปี 2027 หากแผนนี้สำเร็จ: - จะเป็นการผลิตชิปขนาด sub-7nm ที่มากที่สุดในประวัติศาสตร์ของ TSMC - ต้องใช้โรงงานถึง 8 แห่ง โดยมีโรงงานหลักอยู่ที่ F22 ในเมืองเกาสง ประเทศไต้หวัน แม้ Samsung จะมีเทคโนโลยีใกล้เคียง แต่ TSMC ยังครองตลาดด้วยอัตราการผลิตที่สูงกว่าและ yield ที่ดีกว่า — ทำให้กลายเป็นผู้ผลิตชิประดับสูงสำหรับลูกค้าภายนอกเพียงรายเดียวในโลก ✅ TSMC อาจเพิ่มกำลังผลิตชิป 2nm เป็น 200,000 แผ่นเวเฟอร์ต่อเดือนภายในปี 2027 ➡️ เริ่มต้นที่ 40,000 แผ่นในปี 2025 และเพิ่มเป็น 100,000 แผ่นในปี 2026 ✅ ความต้องการมาจากบริษัทเทคโนโลยีใหญ่ เช่น Apple, NVIDIA, Intel, AMD และ MediaTek ➡️ ใช้ในผลิตภัณฑ์ AI, มือถือ, เซิร์ฟเวอร์ และอุปกรณ์ประมวลผลขั้นสูง ✅ Apple มักได้รับล็อตแรกของชิปใหม่ เพราะไม่ต้องการประสิทธิภาพสูงสุด ➡️ ส่วน AMD และ NVIDIA จะใช้หลังจาก TSMC ปรับปรุงการผลิตให้เสถียร ✅ หากผลิตถึง 200,000 แผ่น จะเป็นระดับสูงสุดในกลุ่ม sub-7nm ของ TSMC ➡️ ต้องใช้โรงงานถึง 8 แห่ง โดยโรงงานหลักคือ F22 ที่เกาสง ✅ TSMC เป็นผู้ผลิตชิป 2nm รายเดียวที่ให้บริการภายนอกด้วย yield สูง ➡️ Samsung มีเทคโนโลยีใกล้เคียงแต่ yield ยังต่ำกว่า https://wccftech.com/tsmc-worlds-largest-contract-chipmaker-nvidia-ai-supplier-could-boost-output-to-200000-wafers-per-month-report/
    WCCFTECH.COM
    TSMC, World's Largest Contract Chipmaker & NVIDIA AI Supplier, Could Boost Output To 200,000 Wafers Per Month - Report
    TSMC may expand 2-nanometer wafer production to 200,000 per month by 2027 due to strong demand from Apple, NVIDIA, and Intel.
    0 ความคิดเห็น 0 การแบ่งปัน 234 มุมมอง 0 รีวิว
  • คุณกำลังมองหาเครื่องบดที่แท้จริงเพื่อรองรับการแปรรูปวัตถุดิบที่หลากหลายและมีขนาดใหญ่ เช่น กบทั้งตัว หรือวัตถุดิบอื่น ๆ ในปริมาณมหาศาลใช่ไหม? ไม่ต้องมองหาที่ไหนอีกแล้ว! เครื่องบดของเราถูกออกแบบมาเพื่อมอบ ประสิทธิภาพที่เหนือชั้น ความทนทานขั้นสุด และความสามารถในการบดที่เหนือความคาดหมาย!

    ทำไมเครื่องบดของเราถึงเป็นคำตอบสำหรับธุรกิจของคุณ?

    บดได้ทั้งตัว ไม่ต้องหั่นย่อย! ด้วยช่องป้อนวัตถุดิบที่ออกแบบมาเป็นพิเศษ และกลไกการบดที่ทรงพลัง ทำให้เครื่องนี้สามารถบดวัตถุดิบที่มีขนาดใหญ่ อย่างเช่น กบได้ทั้งตัว ได้อย่างง่ายดายและรวดเร็ว! ประหยัดเวลา แรงงาน และเพิ่มประสิทธิภาพการผลิตของคุณได้อย่างมหาศาล!

    กำลังบดมหาศาล 1100W (1.5 แรงม้า): มอเตอร์ที่แข็งแกร่งทำงานคู่กับเกลียวบดและใบมีดที่ออกแบบมาเป็นอย่างดี รับประกันการบดที่รวดเร็ว สม่ำเสมอ และละเอียด แม้กับวัตถุดิบที่แข็งหรือมีความเหนียว!

    วัสดุสแตนเลสแท้ % เกรดพรีเมียม: ผลิตจากสแตนเลส Food Grade ทั้งหมด ทนทานต่อการกัดกร่อน ไม่เป็นสนิม ปลอดภัยสูงสุดสำหรับทุกวัตถุดิบที่คุณแปรรูป มั่นใจได้ในคุณภาพและความสะอาดในระยะยาว

    ทำความสะอาดง่ายกว่าที่เคย: หัวบดสามารถถอดแยกชิ้นส่วนได้อย่างรวดเร็วและง่ายดาย ทำให้การทำความสะอาดเป็นเรื่องง่ายและทั่วถึง ลดการสะสมของเชื้อโรค พร้อมสำหรับการทำงานครั้งต่อไปได้อย่างรวดเร็ว!

    ระบบเดินหน้า-ย้อนกลับ (FWD/REV): ควบคุมการบดได้อย่างราบรื่น หมดปัญหาวัตถุดิบติดขัด ช่วยให้การทำงานไม่สะดุดและเพิ่มความปลอดภัยในการใช้งาน

    ** ไม่ว่าธุรกิจของคุณจะเน้นการแปรรูป "กบ" ปริมาณมาก หรือต้องการเครื่องบดที่รับมือกับวัตถุดิบหลากหลายขนาด เครื่องบดสแตนเลสเบอร์ 22 ของเราคือการลงทุนที่คุ้มค่าที่สุดเพื่อการผลิตที่มีประสิทธิภาพสูงสุด!

    ยกระดับมาตรฐานการผลิตให้ก้าวกระโดดวันนี้!

    สนใจเข้ามาเยี่ยมชมและทดลองประสิทธิภาพได้ที่ร้านของเรา!
    แผนที่ร้าน: https://maps.app.goo.gl/9oLTmzwbArzJy5wc7

    เวลาทำการ:
    จันทร์-ศุกร์: 8.00-17.00 น.
    วันเสาร์: 8.00-16.00 น.

    ติดต่อเราได้เลย:
    แชท: m.me/yonghahheng
    LINE: @yonghahheng (มี@ข้างหน้า) หรือ https://lin.ee/HV4lSKp
    โทร: 02-215-3515-9 หรือ 081-3189098
    เว็บไซต์: www.yoryonghahheng.com
    E-mail: sales@yoryonghahheng.com, yonghahheng@gmail.com

    #เครื่องบดกบ #บดกบทั้งตัว #เครื่องบดเนื้อสแตนเลส #เครื่องบดอเนกประสงค์ #เครื่องบดอาหาร #อุปกรณ์แปรรูปกบ #เครื่องบดปริมาณมาก #วัตถุดิบเฉพาะทาง #เครื่องบดอุตสาหกรรม #เครื่องบดคุณภาพสูง #อุปกรณ์ร้านอาหาร #ธุรกิจอาหาร #โรงงานอาหาร #ครัวมืออาชีพ #ย่งฮะเฮง #ยิ่งยงเฮง #เลือกคุณภาพ #เลือกBONNY #ลงทุนเพื่อธุรกิจ #ครัวสะอาด #ประสิทธิภาพสูงสุด #เมนูกบ #อาหารกบ #กบทอด #กบผัดเผ็ด #กบผัดฉ่า #ต้มยำกบ #กบย่าง #กบกระเทียม
    คุณกำลังมองหาเครื่องบดที่แท้จริงเพื่อรองรับการแปรรูปวัตถุดิบที่หลากหลายและมีขนาดใหญ่ เช่น กบทั้งตัว หรือวัตถุดิบอื่น ๆ ในปริมาณมหาศาลใช่ไหม? ไม่ต้องมองหาที่ไหนอีกแล้ว! เครื่องบดของเราถูกออกแบบมาเพื่อมอบ ประสิทธิภาพที่เหนือชั้น ความทนทานขั้นสุด และความสามารถในการบดที่เหนือความคาดหมาย! 🔥 ทำไมเครื่องบดของเราถึงเป็นคำตอบสำหรับธุรกิจของคุณ? 📌บดได้ทั้งตัว ไม่ต้องหั่นย่อย! ด้วยช่องป้อนวัตถุดิบที่ออกแบบมาเป็นพิเศษ และกลไกการบดที่ทรงพลัง ทำให้เครื่องนี้สามารถบดวัตถุดิบที่มีขนาดใหญ่ อย่างเช่น กบได้ทั้งตัว ได้อย่างง่ายดายและรวดเร็ว! ประหยัดเวลา แรงงาน และเพิ่มประสิทธิภาพการผลิตของคุณได้อย่างมหาศาล! 📌กำลังบดมหาศาล 1100W (1.5 แรงม้า): มอเตอร์ที่แข็งแกร่งทำงานคู่กับเกลียวบดและใบมีดที่ออกแบบมาเป็นอย่างดี รับประกันการบดที่รวดเร็ว สม่ำเสมอ และละเอียด แม้กับวัตถุดิบที่แข็งหรือมีความเหนียว! 📌วัสดุสแตนเลสแท้ 💯% เกรดพรีเมียม: ผลิตจากสแตนเลส Food Grade ทั้งหมด ทนทานต่อการกัดกร่อน ไม่เป็นสนิม ปลอดภัยสูงสุดสำหรับทุกวัตถุดิบที่คุณแปรรูป มั่นใจได้ในคุณภาพและความสะอาดในระยะยาว 📌ทำความสะอาดง่ายกว่าที่เคย: หัวบดสามารถถอดแยกชิ้นส่วนได้อย่างรวดเร็วและง่ายดาย ทำให้การทำความสะอาดเป็นเรื่องง่ายและทั่วถึง ลดการสะสมของเชื้อโรค พร้อมสำหรับการทำงานครั้งต่อไปได้อย่างรวดเร็ว! 📌ระบบเดินหน้า-ย้อนกลับ (FWD/REV): ควบคุมการบดได้อย่างราบรื่น หมดปัญหาวัตถุดิบติดขัด ช่วยให้การทำงานไม่สะดุดและเพิ่มความปลอดภัยในการใช้งาน ** ไม่ว่าธุรกิจของคุณจะเน้นการแปรรูป "กบ" ปริมาณมาก หรือต้องการเครื่องบดที่รับมือกับวัตถุดิบหลากหลายขนาด เครื่องบดสแตนเลสเบอร์ 22 ของเราคือการลงทุนที่คุ้มค่าที่สุดเพื่อการผลิตที่มีประสิทธิภาพสูงสุด! ✨ ยกระดับมาตรฐานการผลิตให้ก้าวกระโดดวันนี้! ✨ 📍 สนใจเข้ามาเยี่ยมชมและทดลองประสิทธิภาพได้ที่ร้านของเรา! แผนที่ร้าน: https://maps.app.goo.gl/9oLTmzwbArzJy5wc7 ⏰ เวลาทำการ: จันทร์-ศุกร์: 8.00-17.00 น. วันเสาร์: 8.00-16.00 น. 📞 ติดต่อเราได้เลย: แชท: m.me/yonghahheng LINE: @yonghahheng (มี@ข้างหน้า) หรือ https://lin.ee/HV4lSKp โทร: 02-215-3515-9 หรือ 081-3189098 เว็บไซต์: www.yoryonghahheng.com E-mail: sales@yoryonghahheng.com, yonghahheng@gmail.com #เครื่องบดกบ #บดกบทั้งตัว #เครื่องบดเนื้อสแตนเลส #เครื่องบดอเนกประสงค์ #เครื่องบดอาหาร #อุปกรณ์แปรรูปกบ #เครื่องบดปริมาณมาก #วัตถุดิบเฉพาะทาง #เครื่องบดอุตสาหกรรม #เครื่องบดคุณภาพสูง #อุปกรณ์ร้านอาหาร #ธุรกิจอาหาร #โรงงานอาหาร #ครัวมืออาชีพ #ย่งฮะเฮง #ยิ่งยงเฮง #เลือกคุณภาพ #เลือกBONNY #ลงทุนเพื่อธุรกิจ #ครัวสะอาด #ประสิทธิภาพสูงสุด #เมนูกบ #อาหารกบ #กบทอด #กบผัดเผ็ด #กบผัดฉ่า #ต้มยำกบ #กบย่าง #กบกระเทียม📌
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 775 มุมมอง 0 รีวิว
  • 15 กรกฎาคม 2568 -รายงานข่าวระบุว่า ฮุน มาเน็ต นายกรัฐมนตรีกัมพูชา ลงนามประกาศกวาดล้างแก๊งค์คอลเซนเตอร์-เว็บฉ้อโกงการพนันออนไลน์ทุกชนิดทั่วประเทศ! ลบข้อครหาดินแดน SCAMBODIA ฟาด UN หลังแฉเขมรมีแต่แก๊งค์คอลเซนเตอร์-เป็นที่ตั้งเว็บการพนันออนไลน์ข้ามชาติ Kampuchea Thmey Daily รายงานว่า ฮุนมาเน็ต นายกรัฐมนตรี ได้ออกประกาศว่ารัฐบาลกัมพูชาได้สังเกตเห็นว่าปัจจุบันการหลอกลวงทางออนไลน์ในราชอาณาจักรกัมพูชากำลังก่อให้เกิดภัยคุกคามและความไม่ปลอดภัยทั้งในโลกและภูมิภาค กลุ่มอาชญากรต่างชาติก็ได้แทรกซึมเข้ามาในการหลอกลวงทางออนไลน์เช่นกัน เพื่อป้องกัน ควบคุมและปราบปรามการฉ้อโกงโดยใช้ระบบเทคโนโลยีที่มีประสิทธิภาพสูง มุ่งหวังที่จะมีส่วนสนับสนุนในการดูแลรักษาและคุ้มครองความปลอดภัย ความสงบเรียบร้อยของประชาชนและความปลอดภัยทางสังคม รัฐบาลจึงออกกฎระเบียบดังต่อไปนี้ 1. ผู้ว่าราชการจังหวัด คณะกรรมการบริหารส่วนจังหวัด นายอำเภอเมือง หัวหน้าคณะกรรมการบริหารส่วนจังหวัด และผู้บัญชาการตำรวจจังหวัด มีหน้าที่รับผิดชอบในการดำเนินการปราบปรามการทุจริตทางเทคโนโลยีในทุกพื้นที่ภายในพื้นที่และเขตอำนาจศาลของตนตามกฎหมาย ระเบียบ และบรรทัดฐานทางกฎหมายที่บังคับใช้2. กระทรวงมหาดไทย โดยมีผู้บัญชาการตำรวจแห่งชาติและกรมตรวจคนเข้าเมือง เป็นหัวหน้าหน่วยงาน มีหน้าที่จัดทำขั้นตอนการขับไล่ให้เป็นไปตามกฎหมายและระเบียบข้อบังคับที่เกี่ยวข้องกับต่างด้าวที่เข้ามาโดยผิดกฎหมาย อาศัยอยู่โดยผิดกฎหมายหรือประกอบกิจกรรมที่ผิดกฎหมาย3. กรมตำรวจแห่งชาติ กรมตรวจคนเข้าเมือง กองบัญชาการกลางองค์การบริหารส่วนจังหวัด กองบังคับตำรวจภูมิภาค และกองบัญชาการตำรวจตระเวนชายแดนในจังหวัดที่มีพรมแดนติดกับประเทศเพื่อนบ้าน มีหน้าที่รับผิดชอบในการป้องกัน ปิดกั้น และห้ามคนต่างด้าวลักลอบข้ามพรมแดนทางบกภายในพื้นที่และเขตอำนาจของตน4. คณะกรรมการความมั่นคงทางทะเลแห่งชาติ สำนักงานตำรวจแห่งชาติ กรมตรวจคนเข้าเมือง กองบัญชาการกลางปกครองส่วนท้องถิ่นตามแนวชายแดนทางทะเล กองบัญชาการทหารเรือ และกรมตำรวจตระเวนชายแดนทางน้ำ มีหน้าที่ป้องกัน ปิดกั้น และห้ามมิให้คนต่างด้าวลักลอบเข้า-ออกชายแดนทางน่านน้ำภายในเขตพื้นที่และเขตอำนาจศาลของตน5. ให้กระทรวงยุติธรรม สั่งการไปยังศาลและอัยการที่สังกัดศาลทุกระดับ ให้ความสำคัญและรับผิดชอบอย่างยิ่งในการบังคับใช้กฎหมายที่เกี่ยวข้องกับการป้องกันและปราบปรามการทุจริตผ่านระบบเทคโนโลยีให้เป็นไปตามกฎหมายและขั้นตอนที่เกี่ยวข้อง และให้การสนับสนุนทางกฎหมายแก่สถาบันและหน่วยงานบังคับใช้กฎหมายในการปฏิบัติงานตามความจำเป็น6. ผู้บัญชาการทหารสูงสุดแห่งกองทัพกัมพูชา ผู้บัญชาการทหารบก ผู้บัญชาการทหารเรือ ผู้บัญชาการกองทัพอากาศ ผู้บัญชาการตำรวจตระเวนชายแดน ผู้บัญชาการหน่วยรบพิเศษ ผู้บัญชาการหน่วยบัญชาการรักษาพระองค์ ผู้บัญชาการหน่วยรบพิเศษต่อต้านการก่อการร้ายแห่งชาติ และผู้บัญชาการกองพลที่ 70 ต้องจัดเตรียมกำลังพล เครื่องมือ และอุปกรณ์ เพื่อสนับสนุนการปฏิบัติการเมื่อได้รับคำสั่ง7. กระทรวงสถาบันวิชาชีพที่เกี่ยวข้อง และศูนย์เทคโนโลยีสารสนเทศแห่งชาติ ต้องร่วมมือและมีส่วนร่วมในการปราบปรามการทุจริตผ่านระบบเทคโนโลยี8. คณะกรรมการการพนันเชิงพาณิชย์ของกัมพูชาจะต้องเข้มงวดกับการจัดการและการกำกับดูแลคาสิโนหรือศูนย์การพนันที่ได้รับอนุญาตทั้งหมด โดยมีข้อห้ามอย่างเคร่งครัดดังต่อไปนี้: • การฉ้อโกงทางเทคโนโลยี• การลักพาตัว การทรมาน และการคุมขังที่ผิดกฎหมาย• การค้ามนุษย์และการแสวงประโยชน์ทางเพศทุกรูปแบบ• การค้าอาวุธ การครอบครอง และการใช้อาวุธที่ผิดกฎหมาย • การสร้างกำลังที่ผิดกฎหมายผ่านบริษัทรักษาความปลอดภัยเอกชนและการใช้กองกำลังตำรวจติดอาวุธ • การค้า การใช้ และการจัดเก็บยาเสพติดและสารเสพติดที่ผิดกฎหมาย9. ผู้ว่าราชการจังหวัดและนายอำเภอเมือง หัวหน้ากองบัญชาการร่วมของสำนักงานบริหารจังหวัดและเมืองหลวง ผู้บัญชาการตำรวจประจำเมืองหลวง ผู้บัญชาการหน่วยงาน กระทรวงและสถาบันที่เกี่ยวข้อง ต้องปฏิบัติตามคำสั่งนี้อย่างเคร่งครัดและมีความรับผิดชอบ หากไม่ปฏิบัติตามคำสั่งนี้หรือไม่ให้ความร่วมมือใดๆ จะถูกประเมินผลในการแต่งตั้ง โยกย้าย หรือปลดออกจากตำแหน่งโดยทันที กระทรวง สถาบัน คณะกรรมการความมั่นคงทางทะเลแห่งชาติ สำนักงานเลขาธิการคณะกรรมาธิการปราบปรามการหลอกลวงทางออนไลน์ กองบัญชาการร่วม ฝ่ายบริหารระดับจังหวัด หน่วยงานและหน่วยงานที่เกี่ยวข้อง จะต้องปฏิบัติตามคำสั่งนี้ด้วยความเข้มงวดและมีประสิทธิภาพสูงสุดตั้งแต่วันที่ลงนาม
    15 กรกฎาคม 2568 -รายงานข่าวระบุว่า ฮุน มาเน็ต นายกรัฐมนตรีกัมพูชา ลงนามประกาศกวาดล้างแก๊งค์คอลเซนเตอร์-เว็บฉ้อโกงการพนันออนไลน์ทุกชนิดทั่วประเทศ! ลบข้อครหาดินแดน SCAMBODIA ฟาด UN หลังแฉเขมรมีแต่แก๊งค์คอลเซนเตอร์-เป็นที่ตั้งเว็บการพนันออนไลน์ข้ามชาติ Kampuchea Thmey Daily รายงานว่า ฮุนมาเน็ต นายกรัฐมนตรี ได้ออกประกาศว่ารัฐบาลกัมพูชาได้สังเกตเห็นว่าปัจจุบันการหลอกลวงทางออนไลน์ในราชอาณาจักรกัมพูชากำลังก่อให้เกิดภัยคุกคามและความไม่ปลอดภัยทั้งในโลกและภูมิภาค กลุ่มอาชญากรต่างชาติก็ได้แทรกซึมเข้ามาในการหลอกลวงทางออนไลน์เช่นกัน เพื่อป้องกัน ควบคุมและปราบปรามการฉ้อโกงโดยใช้ระบบเทคโนโลยีที่มีประสิทธิภาพสูง มุ่งหวังที่จะมีส่วนสนับสนุนในการดูแลรักษาและคุ้มครองความปลอดภัย ความสงบเรียบร้อยของประชาชนและความปลอดภัยทางสังคม รัฐบาลจึงออกกฎระเบียบดังต่อไปนี้ 1. ผู้ว่าราชการจังหวัด คณะกรรมการบริหารส่วนจังหวัด นายอำเภอเมือง หัวหน้าคณะกรรมการบริหารส่วนจังหวัด และผู้บัญชาการตำรวจจังหวัด มีหน้าที่รับผิดชอบในการดำเนินการปราบปรามการทุจริตทางเทคโนโลยีในทุกพื้นที่ภายในพื้นที่และเขตอำนาจศาลของตนตามกฎหมาย ระเบียบ และบรรทัดฐานทางกฎหมายที่บังคับใช้2. กระทรวงมหาดไทย โดยมีผู้บัญชาการตำรวจแห่งชาติและกรมตรวจคนเข้าเมือง เป็นหัวหน้าหน่วยงาน มีหน้าที่จัดทำขั้นตอนการขับไล่ให้เป็นไปตามกฎหมายและระเบียบข้อบังคับที่เกี่ยวข้องกับต่างด้าวที่เข้ามาโดยผิดกฎหมาย อาศัยอยู่โดยผิดกฎหมายหรือประกอบกิจกรรมที่ผิดกฎหมาย3. กรมตำรวจแห่งชาติ กรมตรวจคนเข้าเมือง กองบัญชาการกลางองค์การบริหารส่วนจังหวัด กองบังคับตำรวจภูมิภาค และกองบัญชาการตำรวจตระเวนชายแดนในจังหวัดที่มีพรมแดนติดกับประเทศเพื่อนบ้าน มีหน้าที่รับผิดชอบในการป้องกัน ปิดกั้น และห้ามคนต่างด้าวลักลอบข้ามพรมแดนทางบกภายในพื้นที่และเขตอำนาจของตน4. คณะกรรมการความมั่นคงทางทะเลแห่งชาติ สำนักงานตำรวจแห่งชาติ กรมตรวจคนเข้าเมือง กองบัญชาการกลางปกครองส่วนท้องถิ่นตามแนวชายแดนทางทะเล กองบัญชาการทหารเรือ และกรมตำรวจตระเวนชายแดนทางน้ำ มีหน้าที่ป้องกัน ปิดกั้น และห้ามมิให้คนต่างด้าวลักลอบเข้า-ออกชายแดนทางน่านน้ำภายในเขตพื้นที่และเขตอำนาจศาลของตน5. ให้กระทรวงยุติธรรม สั่งการไปยังศาลและอัยการที่สังกัดศาลทุกระดับ ให้ความสำคัญและรับผิดชอบอย่างยิ่งในการบังคับใช้กฎหมายที่เกี่ยวข้องกับการป้องกันและปราบปรามการทุจริตผ่านระบบเทคโนโลยีให้เป็นไปตามกฎหมายและขั้นตอนที่เกี่ยวข้อง และให้การสนับสนุนทางกฎหมายแก่สถาบันและหน่วยงานบังคับใช้กฎหมายในการปฏิบัติงานตามความจำเป็น6. ผู้บัญชาการทหารสูงสุดแห่งกองทัพกัมพูชา ผู้บัญชาการทหารบก ผู้บัญชาการทหารเรือ ผู้บัญชาการกองทัพอากาศ ผู้บัญชาการตำรวจตระเวนชายแดน ผู้บัญชาการหน่วยรบพิเศษ ผู้บัญชาการหน่วยบัญชาการรักษาพระองค์ ผู้บัญชาการหน่วยรบพิเศษต่อต้านการก่อการร้ายแห่งชาติ และผู้บัญชาการกองพลที่ 70 ต้องจัดเตรียมกำลังพล เครื่องมือ และอุปกรณ์ เพื่อสนับสนุนการปฏิบัติการเมื่อได้รับคำสั่ง7. กระทรวงสถาบันวิชาชีพที่เกี่ยวข้อง และศูนย์เทคโนโลยีสารสนเทศแห่งชาติ ต้องร่วมมือและมีส่วนร่วมในการปราบปรามการทุจริตผ่านระบบเทคโนโลยี8. คณะกรรมการการพนันเชิงพาณิชย์ของกัมพูชาจะต้องเข้มงวดกับการจัดการและการกำกับดูแลคาสิโนหรือศูนย์การพนันที่ได้รับอนุญาตทั้งหมด โดยมีข้อห้ามอย่างเคร่งครัดดังต่อไปนี้: • การฉ้อโกงทางเทคโนโลยี• การลักพาตัว การทรมาน และการคุมขังที่ผิดกฎหมาย• การค้ามนุษย์และการแสวงประโยชน์ทางเพศทุกรูปแบบ• การค้าอาวุธ การครอบครอง และการใช้อาวุธที่ผิดกฎหมาย • การสร้างกำลังที่ผิดกฎหมายผ่านบริษัทรักษาความปลอดภัยเอกชนและการใช้กองกำลังตำรวจติดอาวุธ • การค้า การใช้ และการจัดเก็บยาเสพติดและสารเสพติดที่ผิดกฎหมาย9. ผู้ว่าราชการจังหวัดและนายอำเภอเมือง หัวหน้ากองบัญชาการร่วมของสำนักงานบริหารจังหวัดและเมืองหลวง ผู้บัญชาการตำรวจประจำเมืองหลวง ผู้บัญชาการหน่วยงาน กระทรวงและสถาบันที่เกี่ยวข้อง ต้องปฏิบัติตามคำสั่งนี้อย่างเคร่งครัดและมีความรับผิดชอบ หากไม่ปฏิบัติตามคำสั่งนี้หรือไม่ให้ความร่วมมือใดๆ จะถูกประเมินผลในการแต่งตั้ง โยกย้าย หรือปลดออกจากตำแหน่งโดยทันที กระทรวง สถาบัน คณะกรรมการความมั่นคงทางทะเลแห่งชาติ สำนักงานเลขาธิการคณะกรรมาธิการปราบปรามการหลอกลวงทางออนไลน์ กองบัญชาการร่วม ฝ่ายบริหารระดับจังหวัด หน่วยงานและหน่วยงานที่เกี่ยวข้อง จะต้องปฏิบัติตามคำสั่งนี้ด้วยความเข้มงวดและมีประสิทธิภาพสูงสุดตั้งแต่วันที่ลงนาม
    0 ความคิดเห็น 0 การแบ่งปัน 683 มุมมอง 0 รีวิว
Pages Boosts