• “OpenAI เซ็นสัญญา 300 พันล้านดอลลาร์กับ Oracle — สร้างศูนย์ข้อมูลขนาดใหญ่เท่ากับสองเขื่อนฮูเวอร์ เพื่อขับเคลื่อนยุค AI”

    ในข้อตกลงที่อาจเปลี่ยนโฉมอุตสาหกรรมคลาวด์ไปตลอดกาล OpenAI ได้ลงนามสัญญากับ Oracle มูลค่า 300 พันล้านดอลลาร์สหรัฐ เพื่อซื้อพลังประมวลผลสำหรับการฝึกและให้บริการโมเดล AI ในช่วง 5 ปีข้างหน้า โดยจะเริ่มต้นในปี 2027 และเป็นส่วนหนึ่งของโครงการ “Stargate” ที่มีเป้าหมายสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมาในสหรัฐฯ

    ข้อตกลงนี้ต้องใช้พลังงานถึง 4.5 กิกะวัตต์ ซึ่งเทียบเท่ากับการจ่ายไฟให้บ้านกว่า 4 ล้านหลัง หรือมากกว่ากำลังผลิตของเขื่อนฮูเวอร์ถึงสองเท่า Oracle จะร่วมมือกับ Crusoe และพันธมิตรอื่น ๆ เพื่อสร้างศูนย์ข้อมูลในหลายรัฐ เช่น เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน และนิวเม็กซิโก

    แม้ OpenAI จะมีรายได้ราว 10 พันล้านดอลลาร์ต่อปี แต่ก็ยังไม่เพียงพอที่จะครอบคลุมค่าใช้จ่ายรายปีที่สูงถึง 60 พันล้านดอลลาร์ภายใต้สัญญานี้ ซึ่งหมายความว่าทั้ง OpenAI และ Oracle ต้องแบกรับภาระทางการเงินมหาศาล โดย Oracle เองก็มีหนี้สินมากกว่าคู่แข่งอย่าง Microsoft และ Amazon หลายเท่า

    อย่างไรก็ตาม ตลาดตอบรับเชิงบวกทันที หุ้นของ Oracle พุ่งขึ้นกว่า 43% ในวันเดียว ส่งผลให้ Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลกชั่วขณะ ด้วยมูลค่าทรัพย์สินเกือบ 400 พันล้านดอลลาร์

    รายละเอียดของข้อตกลง OpenAI–Oracle
    มูลค่าสัญญา 300 พันล้านดอลลาร์สหรัฐ ระยะเวลา 5 ปี เริ่มปี 2027
    เป็นส่วนหนึ่งของโครงการ Stargate เพื่อสร้างโครงสร้างพื้นฐาน AI ขนาดใหญ่
    ต้องใช้พลังงาน 4.5 กิกะวัตต์ — เทียบเท่ากับบ้าน 4 ล้านหลัง
    สถานที่สร้างศูนย์ข้อมูล ได้แก่ เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน, นิวเม็กซิโก

    ผลกระทบต่อ Oracle และ OpenAI
    หุ้น Oracle พุ่งขึ้น 43% — Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลก
    Oracle มีรายได้ล่วงหน้าเพิ่มขึ้นเป็น 455 พันล้านดอลลาร์
    OpenAI มีรายได้ปีละ 10 พันล้าน แต่ต้องจ่ายถึง 60 พันล้านต่อปี
    ทั้งสองบริษัทต้องกู้เงินเพิ่มเพื่อสร้างโครงสร้างพื้นฐานและซื้อชิป AI

    ข้อมูลเสริมจากภายนอก
    โครงการ Stargate เคยชะงักจากความขัดแย้งภายใน แต่ถูกรีบูตในปี 2025
    SoftBank และ Foxconn เข้าร่วมในโครงการ โดยใช้โรงงานเก่าในโอไฮโอ
    Microsoft เคยเป็นผู้ให้บริการคลาวด์หลักของ OpenAI แต่ความสัมพันธ์เริ่มเย็นลง
    ตลาดศูนย์ข้อมูล AI คาดว่าจะใช้เงินลงทุนรวมกว่า 3 ล้านล้านดอลลาร์ภายในปี 2028

    https://www.tomshardware.com/tech-industry/openai-signs-contract-to-buy-usd300-billion-worth-of-oracle-computing-power-over-the-next-five-years-company-needs-4-5-gigawatts-of-power-enough-to-power-four-million-homes
    ⚡ “OpenAI เซ็นสัญญา 300 พันล้านดอลลาร์กับ Oracle — สร้างศูนย์ข้อมูลขนาดใหญ่เท่ากับสองเขื่อนฮูเวอร์ เพื่อขับเคลื่อนยุค AI” ในข้อตกลงที่อาจเปลี่ยนโฉมอุตสาหกรรมคลาวด์ไปตลอดกาล OpenAI ได้ลงนามสัญญากับ Oracle มูลค่า 300 พันล้านดอลลาร์สหรัฐ เพื่อซื้อพลังประมวลผลสำหรับการฝึกและให้บริการโมเดล AI ในช่วง 5 ปีข้างหน้า โดยจะเริ่มต้นในปี 2027 และเป็นส่วนหนึ่งของโครงการ “Stargate” ที่มีเป้าหมายสร้างโครงสร้างพื้นฐานด้าน AI ขนาดมหึมาในสหรัฐฯ ข้อตกลงนี้ต้องใช้พลังงานถึง 4.5 กิกะวัตต์ ซึ่งเทียบเท่ากับการจ่ายไฟให้บ้านกว่า 4 ล้านหลัง หรือมากกว่ากำลังผลิตของเขื่อนฮูเวอร์ถึงสองเท่า Oracle จะร่วมมือกับ Crusoe และพันธมิตรอื่น ๆ เพื่อสร้างศูนย์ข้อมูลในหลายรัฐ เช่น เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน และนิวเม็กซิโก แม้ OpenAI จะมีรายได้ราว 10 พันล้านดอลลาร์ต่อปี แต่ก็ยังไม่เพียงพอที่จะครอบคลุมค่าใช้จ่ายรายปีที่สูงถึง 60 พันล้านดอลลาร์ภายใต้สัญญานี้ ซึ่งหมายความว่าทั้ง OpenAI และ Oracle ต้องแบกรับภาระทางการเงินมหาศาล โดย Oracle เองก็มีหนี้สินมากกว่าคู่แข่งอย่าง Microsoft และ Amazon หลายเท่า อย่างไรก็ตาม ตลาดตอบรับเชิงบวกทันที หุ้นของ Oracle พุ่งขึ้นกว่า 43% ในวันเดียว ส่งผลให้ Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลกชั่วขณะ ด้วยมูลค่าทรัพย์สินเกือบ 400 พันล้านดอลลาร์ ✅ รายละเอียดของข้อตกลง OpenAI–Oracle ➡️ มูลค่าสัญญา 300 พันล้านดอลลาร์สหรัฐ ระยะเวลา 5 ปี เริ่มปี 2027 ➡️ เป็นส่วนหนึ่งของโครงการ Stargate เพื่อสร้างโครงสร้างพื้นฐาน AI ขนาดใหญ่ ➡️ ต้องใช้พลังงาน 4.5 กิกะวัตต์ — เทียบเท่ากับบ้าน 4 ล้านหลัง ➡️ สถานที่สร้างศูนย์ข้อมูล ได้แก่ เท็กซัส, เพนซิลเวเนีย, ไวโอมิง, มิชิแกน, นิวเม็กซิโก ✅ ผลกระทบต่อ Oracle และ OpenAI ➡️ หุ้น Oracle พุ่งขึ้น 43% — Larry Ellison กลายเป็นบุคคลที่ร่ำรวยที่สุดในโลก ➡️ Oracle มีรายได้ล่วงหน้าเพิ่มขึ้นเป็น 455 พันล้านดอลลาร์ ➡️ OpenAI มีรายได้ปีละ 10 พันล้าน แต่ต้องจ่ายถึง 60 พันล้านต่อปี ➡️ ทั้งสองบริษัทต้องกู้เงินเพิ่มเพื่อสร้างโครงสร้างพื้นฐานและซื้อชิป AI ✅ ข้อมูลเสริมจากภายนอก ➡️ โครงการ Stargate เคยชะงักจากความขัดแย้งภายใน แต่ถูกรีบูตในปี 2025 ➡️ SoftBank และ Foxconn เข้าร่วมในโครงการ โดยใช้โรงงานเก่าในโอไฮโอ ➡️ Microsoft เคยเป็นผู้ให้บริการคลาวด์หลักของ OpenAI แต่ความสัมพันธ์เริ่มเย็นลง ➡️ ตลาดศูนย์ข้อมูล AI คาดว่าจะใช้เงินลงทุนรวมกว่า 3 ล้านล้านดอลลาร์ภายในปี 2028 https://www.tomshardware.com/tech-industry/openai-signs-contract-to-buy-usd300-billion-worth-of-oracle-computing-power-over-the-next-five-years-company-needs-4-5-gigawatts-of-power-enough-to-power-four-million-homes
    WWW.TOMSHARDWARE.COM
    OpenAI signs contract to buy $300 billion worth of Oracle computing power over the next five years — company needs 4.5 gigawatts of power, enough to power four million homes
    Instantly boosting Oracle CEO Larry Ellison to the world's richest man, but questions remain about how either company will afford such a deal.
    0 Comments 0 Shares 1 Views 0 Reviews
  • “Microsoft–OpenAI เซ็น MOU เปิดทางสู่การปรับโครงสร้างใหม่ — จุดเปลี่ยนจากองค์กรไม่แสวงกำไรสู่บริษัทมหาชน”

    Microsoft และ OpenAI ประกาศร่วมลงนามในบันทึกความเข้าใจ (MOU) ฉบับใหม่เมื่อวันที่ 12 กันยายน 2025 เพื่อกำหนดทิศทางความร่วมมือในระยะถัดไป โดยมีเป้าหมายหลักคือการเปิดทางให้ OpenAI ปรับโครงสร้างจากองค์กรไม่แสวงกำไรไปสู่บริษัทแบบ for-profit ซึ่งจะสามารถระดมทุนและเตรียมตัวเข้าสู่ตลาดหุ้นได้ในอนาคต

    แม้ข้อตกลงนี้ยังไม่เป็นสัญญาผูกพัน แต่ถือเป็นก้าวสำคัญในความสัมพันธ์ระหว่างสองบริษัทที่มีบทบาทสูงสุดในวงการ AI โดยเฉพาะในยุคที่ ChatGPT และโมเดลภาษาขนาดใหญ่กลายเป็นเครื่องมือหลักในหลายภาคส่วน

    OpenAI ต้องการเปลี่ยนโครงสร้างเพื่อให้สามารถแข่งขันในตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว และลดการพึ่งพา Microsoft ทั้งในด้านเงินทุนและโครงสร้างพื้นฐาน โดยมีการเซ็นสัญญา cloud computing กับ Oracle และ Google เพิ่มเติมในช่วงที่ผ่านมา

    อย่างไรก็ตาม การปรับโครงสร้างนี้ยังเผชิญกับแรงต้านจากหลายฝ่าย เช่น อัยการรัฐแคลิฟอร์เนียและเดลาแวร์ที่เปิดการสอบสวน รวมถึง Elon Musk ที่ยื่นฟ้องเพื่อหยุดการเปลี่ยนแปลง โดยอ้างว่า OpenAI ละทิ้งพันธกิจเดิมในการพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ

    รายละเอียดของข้อตกลงระหว่าง Microsoft และ OpenAI
    ลงนามบันทึกความเข้าใจ (MOU) เพื่อกำหนดความร่วมมือระยะใหม่
    เปิดทางให้ OpenAI ปรับโครงสร้างเป็นบริษัทแบบ for-profit
    ยังไม่มีการเปิดเผยรายละเอียดทางการเงินหรือสัดส่วนการถือหุ้น
    Microsoft ยังคงเข้าถึงเทคโนโลยีของ OpenAI แม้บริษัทจะบรรลุ AGI

    เป้าหมายของการปรับโครงสร้าง
    OpenAI ต้องการระดมทุนเพิ่มเติมและเตรียมตัวเข้าสู่ตลาดหุ้น
    เปลี่ยนจาก nonprofit เป็น public benefit corporation โดย nonprofit ยังคงถือหุ้นใหญ่
    ลดการพึ่งพา Microsoft โดยเซ็นสัญญา cloud กับ Oracle และ Google
    เพิ่มความคล่องตัวในการแข่งขันกับบริษัท AI อื่น ๆ เช่น xAI และ Anthropic

    ข้อมูลเสริมจากภายนอก
    OpenAI มีมูลค่าประเมินในตลาดเอกชนกว่า $500 พันล้าน
    Microsoft ลงทุนใน OpenAI มากกว่า $13 พันล้านตั้งแต่ปี 2019
    AGI (Artificial General Intelligence) ถูกนิยามใหม่เป็นระบบที่สร้างรายได้เกิน $100 พันล้าน
    การเปลี่ยนโครงสร้างต้องได้รับอนุมัติจากหน่วยงานกำกับดูแลหลายแห่ง

    https://www.thestar.com.my/tech/tech-news/2025/09/12/microsoft-openai-sign-mou-for-next-phase-of-partnership
    💼 “Microsoft–OpenAI เซ็น MOU เปิดทางสู่การปรับโครงสร้างใหม่ — จุดเปลี่ยนจากองค์กรไม่แสวงกำไรสู่บริษัทมหาชน” Microsoft และ OpenAI ประกาศร่วมลงนามในบันทึกความเข้าใจ (MOU) ฉบับใหม่เมื่อวันที่ 12 กันยายน 2025 เพื่อกำหนดทิศทางความร่วมมือในระยะถัดไป โดยมีเป้าหมายหลักคือการเปิดทางให้ OpenAI ปรับโครงสร้างจากองค์กรไม่แสวงกำไรไปสู่บริษัทแบบ for-profit ซึ่งจะสามารถระดมทุนและเตรียมตัวเข้าสู่ตลาดหุ้นได้ในอนาคต แม้ข้อตกลงนี้ยังไม่เป็นสัญญาผูกพัน แต่ถือเป็นก้าวสำคัญในความสัมพันธ์ระหว่างสองบริษัทที่มีบทบาทสูงสุดในวงการ AI โดยเฉพาะในยุคที่ ChatGPT และโมเดลภาษาขนาดใหญ่กลายเป็นเครื่องมือหลักในหลายภาคส่วน OpenAI ต้องการเปลี่ยนโครงสร้างเพื่อให้สามารถแข่งขันในตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว และลดการพึ่งพา Microsoft ทั้งในด้านเงินทุนและโครงสร้างพื้นฐาน โดยมีการเซ็นสัญญา cloud computing กับ Oracle และ Google เพิ่มเติมในช่วงที่ผ่านมา อย่างไรก็ตาม การปรับโครงสร้างนี้ยังเผชิญกับแรงต้านจากหลายฝ่าย เช่น อัยการรัฐแคลิฟอร์เนียและเดลาแวร์ที่เปิดการสอบสวน รวมถึง Elon Musk ที่ยื่นฟ้องเพื่อหยุดการเปลี่ยนแปลง โดยอ้างว่า OpenAI ละทิ้งพันธกิจเดิมในการพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ ✅ รายละเอียดของข้อตกลงระหว่าง Microsoft และ OpenAI ➡️ ลงนามบันทึกความเข้าใจ (MOU) เพื่อกำหนดความร่วมมือระยะใหม่ ➡️ เปิดทางให้ OpenAI ปรับโครงสร้างเป็นบริษัทแบบ for-profit ➡️ ยังไม่มีการเปิดเผยรายละเอียดทางการเงินหรือสัดส่วนการถือหุ้น ➡️ Microsoft ยังคงเข้าถึงเทคโนโลยีของ OpenAI แม้บริษัทจะบรรลุ AGI ✅ เป้าหมายของการปรับโครงสร้าง ➡️ OpenAI ต้องการระดมทุนเพิ่มเติมและเตรียมตัวเข้าสู่ตลาดหุ้น ➡️ เปลี่ยนจาก nonprofit เป็น public benefit corporation โดย nonprofit ยังคงถือหุ้นใหญ่ ➡️ ลดการพึ่งพา Microsoft โดยเซ็นสัญญา cloud กับ Oracle และ Google ➡️ เพิ่มความคล่องตัวในการแข่งขันกับบริษัท AI อื่น ๆ เช่น xAI และ Anthropic ✅ ข้อมูลเสริมจากภายนอก ➡️ OpenAI มีมูลค่าประเมินในตลาดเอกชนกว่า $500 พันล้าน ➡️ Microsoft ลงทุนใน OpenAI มากกว่า $13 พันล้านตั้งแต่ปี 2019 ➡️ AGI (Artificial General Intelligence) ถูกนิยามใหม่เป็นระบบที่สร้างรายได้เกิน $100 พันล้าน ➡️ การเปลี่ยนโครงสร้างต้องได้รับอนุมัติจากหน่วยงานกำกับดูแลหลายแห่ง https://www.thestar.com.my/tech/tech-news/2025/09/12/microsoft-openai-sign-mou-for-next-phase-of-partnership
    WWW.THESTAR.COM.MY
    Microsoft, OpenAI reach non-binding deal to allow OpenAI to restructure
    (Reuters) - Microsoft and OpenAI said on Thursday they have signed a non-binding deal for new relationship terms that would allow OpenAI to proceed to restructure itself into a for-profit company, marking a new phase of the most high-profile partnerships to fund the ChatGPT frenzy.
    0 Comments 0 Shares 4 Views 0 Reviews
  • “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย”

    OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้

    Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า

    นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย

    OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure

    จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock
    รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation
    รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1
    มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง
    รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain

    การออกแบบและการใช้งาน
    ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี
    ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว
    เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด
    ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม

    ข้อมูลเสริมจากภายนอก
    Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน
    MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ
    OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ
    เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด

    https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    ⚡ “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย” OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้ Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure ✅ จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock ➡️ รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation ➡️ รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1 ➡️ มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง ➡️ รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain ✅ การออกแบบและการใช้งาน ➡️ ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี ➡️ ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว ➡️ เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด ➡️ ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน ➡️ MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ ➡️ OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ ➡️ เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    0 Comments 0 Shares 80 Views 0 Reviews
  • “Microsoft ผนึกกำลัง Nebius สร้างโครงสร้างพื้นฐาน AI มูลค่า $17.4 พันล้าน — ขยายศูนย์ข้อมูลในสหรัฐฯ รับยุค AI เต็มรูปแบบ”

    ในยุคที่ความต้องการด้านการประมวลผล AI พุ่งทะยานอย่างไม่หยุดยั้ง Microsoft ได้ประกาศความร่วมมือครั้งใหญ่กับ Nebius บริษัทโครงสร้างพื้นฐาน AI สัญชาติเนเธอร์แลนด์ (อดีตส่วนหนึ่งของ Yandex) เพื่อสร้างศูนย์ข้อมูลใหม่ในเมือง Vineland รัฐนิวเจอร์ซีย์ โดยมีมูลค่าสัญญาเบื้องต้นอยู่ที่ $17.4 พันล้าน และอาจขยายถึง $19.4 พันล้านหากมีการเพิ่มบริการหรือความจุในอนาคต

    ศูนย์ข้อมูลแห่งนี้จะให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ซึ่ง Microsoft ต้องการอย่างเร่งด่วนเพื่อรองรับการเติบโตของบริการ AI ทั้งภายในบริษัทและลูกค้าบน Azure โดยเฉพาะในช่วงที่บริษัทเผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลเดิม

    Nebius ซึ่งมีสำนักงานใหญ่อยู่ในอัมสเตอร์ดัม และได้รับการสนับสนุนจาก Nvidia และ Accel จะใช้เงินจากสัญญานี้ร่วมกับเงินกู้ระยะสั้นที่มีเงื่อนไขพิเศษจาก Microsoft เพื่อเร่งการก่อสร้างและขยายธุรกิจ AI cloud ของตน โดยคาดว่าจะเติบโตอย่างรวดเร็วในปี 2026 เป็นต้นไป

    ข้อตกลงนี้ยังสะท้อนถึงการแข่งขันในตลาดโครงสร้างพื้นฐาน AI ที่รุนแรงขึ้น โดยก่อนหน้านี้ Microsoft เคยพึ่งพา CoreWeave สำหรับ GPU capacity แต่ไม่ได้ทำสัญญาระยะยาวเช่นนี้ ทำให้ OpenAI เข้าซื้อสิทธิ์จาก CoreWeave ไปแทน

    รายละเอียดข้อตกลงระหว่าง Microsoft และ Nebius
    มูลค่าสัญญาเบื้องต้น $17.4 พันล้าน ขยายได้ถึง $19.4 พันล้าน
    ระยะเวลาสัญญายาวถึงปี 2031
    เริ่มต้นด้วยการสร้างศูนย์ข้อมูลใหม่ใน Vineland, New Jersey
    ให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ

    จุดแข็งของ Nebius
    เป็นบริษัทที่แยกตัวจาก Yandex และมุ่งเน้นด้าน AI cloud infrastructure
    ได้รับการสนับสนุนจาก Nvidia และ Accel
    มีศูนย์ R&D ในยุโรป อเมริกา และอิสราเอล
    มีแพลตฟอร์ม cloud ที่ออกแบบมาเฉพาะสำหรับงาน AI เช่น training และ deployment

    ผลกระทบและการเติบโต
    หุ้นของ Nebius พุ่งขึ้นกว่า 40% หลังประกาศข้อตกลง
    รายได้ Q2 เพิ่มขึ้น 625% เมื่อเทียบกับปีก่อนหน้า
    Microsoft ได้รับความจุเพิ่มเติมเพื่อรองรับบริการ AI ที่เติบโตอย่างรวดเร็ว
    Nebius เตรียมขยายศูนย์ข้อมูลในหลายประเทศ เช่น ฟินแลนด์ อิสราเอล และอังกฤษ

    ข้อมูลเสริมจากภายนอก
    Microsoft เผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลในปี 2025
    OpenAI ทำสัญญา multibillion กับ CoreWeave เพื่อ GPU capacity
    Nvidia คาดว่าโครงสร้างพื้นฐาน AI จะมีมูลค่ารวมถึง $3–4 พันล้านภายในปี 2030
    Microsoft กำลังสำรวจเทคโนโลยี optical computing เพื่อลดพลังงานในการประมวลผล AI

    https://www.techradar.com/pro/nebius-and-microsoft-to-collaborate-on-multi-billion-ai-infrastructure-agreement
    🌐 “Microsoft ผนึกกำลัง Nebius สร้างโครงสร้างพื้นฐาน AI มูลค่า $17.4 พันล้าน — ขยายศูนย์ข้อมูลในสหรัฐฯ รับยุค AI เต็มรูปแบบ” ในยุคที่ความต้องการด้านการประมวลผล AI พุ่งทะยานอย่างไม่หยุดยั้ง Microsoft ได้ประกาศความร่วมมือครั้งใหญ่กับ Nebius บริษัทโครงสร้างพื้นฐาน AI สัญชาติเนเธอร์แลนด์ (อดีตส่วนหนึ่งของ Yandex) เพื่อสร้างศูนย์ข้อมูลใหม่ในเมือง Vineland รัฐนิวเจอร์ซีย์ โดยมีมูลค่าสัญญาเบื้องต้นอยู่ที่ $17.4 พันล้าน และอาจขยายถึง $19.4 พันล้านหากมีการเพิ่มบริการหรือความจุในอนาคต ศูนย์ข้อมูลแห่งนี้จะให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ซึ่ง Microsoft ต้องการอย่างเร่งด่วนเพื่อรองรับการเติบโตของบริการ AI ทั้งภายในบริษัทและลูกค้าบน Azure โดยเฉพาะในช่วงที่บริษัทเผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลเดิม Nebius ซึ่งมีสำนักงานใหญ่อยู่ในอัมสเตอร์ดัม และได้รับการสนับสนุนจาก Nvidia และ Accel จะใช้เงินจากสัญญานี้ร่วมกับเงินกู้ระยะสั้นที่มีเงื่อนไขพิเศษจาก Microsoft เพื่อเร่งการก่อสร้างและขยายธุรกิจ AI cloud ของตน โดยคาดว่าจะเติบโตอย่างรวดเร็วในปี 2026 เป็นต้นไป ข้อตกลงนี้ยังสะท้อนถึงการแข่งขันในตลาดโครงสร้างพื้นฐาน AI ที่รุนแรงขึ้น โดยก่อนหน้านี้ Microsoft เคยพึ่งพา CoreWeave สำหรับ GPU capacity แต่ไม่ได้ทำสัญญาระยะยาวเช่นนี้ ทำให้ OpenAI เข้าซื้อสิทธิ์จาก CoreWeave ไปแทน ✅ รายละเอียดข้อตกลงระหว่าง Microsoft และ Nebius ➡️ มูลค่าสัญญาเบื้องต้น $17.4 พันล้าน ขยายได้ถึง $19.4 พันล้าน ➡️ ระยะเวลาสัญญายาวถึงปี 2031 ➡️ เริ่มต้นด้วยการสร้างศูนย์ข้อมูลใหม่ใน Vineland, New Jersey ➡️ ให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ✅ จุดแข็งของ Nebius ➡️ เป็นบริษัทที่แยกตัวจาก Yandex และมุ่งเน้นด้าน AI cloud infrastructure ➡️ ได้รับการสนับสนุนจาก Nvidia และ Accel ➡️ มีศูนย์ R&D ในยุโรป อเมริกา และอิสราเอล ➡️ มีแพลตฟอร์ม cloud ที่ออกแบบมาเฉพาะสำหรับงาน AI เช่น training และ deployment ✅ ผลกระทบและการเติบโต ➡️ หุ้นของ Nebius พุ่งขึ้นกว่า 40% หลังประกาศข้อตกลง ➡️ รายได้ Q2 เพิ่มขึ้น 625% เมื่อเทียบกับปีก่อนหน้า ➡️ Microsoft ได้รับความจุเพิ่มเติมเพื่อรองรับบริการ AI ที่เติบโตอย่างรวดเร็ว ➡️ Nebius เตรียมขยายศูนย์ข้อมูลในหลายประเทศ เช่น ฟินแลนด์ อิสราเอล และอังกฤษ ✅ ข้อมูลเสริมจากภายนอก ➡️ Microsoft เผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลในปี 2025 ➡️ OpenAI ทำสัญญา multibillion กับ CoreWeave เพื่อ GPU capacity ➡️ Nvidia คาดว่าโครงสร้างพื้นฐาน AI จะมีมูลค่ารวมถึง $3–4 พันล้านภายในปี 2030 ➡️ Microsoft กำลังสำรวจเทคโนโลยี optical computing เพื่อลดพลังงานในการประมวลผล AI https://www.techradar.com/pro/nebius-and-microsoft-to-collaborate-on-multi-billion-ai-infrastructure-agreement
    0 Comments 0 Shares 71 Views 0 Reviews
  • “ควอนตัมคอมพิวติ้งอาจปลดล็อก Bitcoin มูลค่า 879 พันล้านดอลลาร์! กระเป๋าเงินที่ถูกลืมอาจกลายเป็นขุมทรัพย์แห่งอนาคต”

    ลองจินตนาการว่า Bitcoin ที่คุณเคยได้ยินว่าหายไปแล้ว — เพราะเจ้าของลืมรหัส หรือเสียชีวิตโดยไม่มีใครเข้าถึงได้ — วันหนึ่งกลับถูกปลดล็อกขึ้นมาอีกครั้งด้วยเทคโนโลยีควอนตัมคอมพิวติ้งที่ทรงพลังพอจะเจาะระบบเข้ารหัส AES ได้สำเร็จ…นั่นคือสิ่งที่นักวิเคราะห์หลายคนเริ่มพูดถึงในปี 2025

    จุดเริ่มต้นของความกังวลนี้มาจากความก้าวหน้าของชิปควอนตัม “Willow” จาก Google ที่สามารถทำงานบางอย่างได้ในเวลาไม่ถึง 5 นาที — เทียบกับซูเปอร์คอมพิวเตอร์ปัจจุบันที่ต้องใช้เวลาถึง 10^25 ปีในการทำงานเดียวกัน แม้ Willow จะมีเพียง 105 qubits แต่ก็แสดงให้เห็นว่าการพัฒนาเทคโนโลยีนี้กำลังเร่งขึ้นอย่างรวดเร็ว

    ตามการวิเคราะห์ของ Ronan Manly จาก Sound Money Report มี Bitcoin จำนวนมหาศาลระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่ถูกเก็บไว้ในกระเป๋าเงินที่ไม่มีการเคลื่อนไหวเลย — คิดเป็น 11% ถึง 37% ของจำนวน Bitcoin ทั้งหมดในระบบ ซึ่งส่วนใหญ่เกิดจากการลืมรหัส หรือเจ้าของเสียชีวิตโดยไม่มีการถ่ายทอดข้อมูล

    หากควอนตัมคอมพิวเตอร์สามารถเจาะระบบ AES ได้จริงในอนาคต กระเป๋าเงินเหล่านี้อาจถูกปลดล็อก และ Bitcoin มูลค่ารวมกว่า 879 พันล้านดอลลาร์ (ตามราคาปัจจุบันที่ ~$112,000 ต่อเหรียญ) อาจถูกนำออกมาใช้ — ซึ่งอาจทำให้ตลาดเกิดการเทขายครั้งใหญ่ และเข้าสู่ภาวะขาลงโดยไม่ต้องมีปัจจัยอื่นใดเลย

    แม้ผู้ใช้ Bitcoin ส่วนใหญ่จะเปลี่ยนไปใช้กระเป๋าเงินที่ปลอดภัยต่อควอนตัมแล้ว แต่กระเป๋าเงินที่ถูกลืมและไม่มีเจ้าของจะยังคงเสี่ยงต่อการถูกเจาะในอนาคต หากไม่มีการอัปเกรดหรือเปลี่ยนระบบเข้ารหัส

    ความก้าวหน้าของควอนตัมคอมพิวติ้ง
    Google Willow chip ทำงานบางอย่างได้ใน 5 นาที เทียบกับ 10^25 ปีของซูเปอร์คอมพิวเตอร์
    Willow มี 105 qubits และสามารถลดข้อผิดพลาดเมื่อเพิ่มจำนวน qubits
    เทคโนโลยีนี้ได้รับความสนใจจาก Elon Musk และ Sam Altman

    ความเสี่ยงต่อ Bitcoin
    Bitcoin ใช้การเข้ารหัส AES และ elliptic curve cryptography (ECC)
    หากควอนตัมคอมพิวเตอร์สามารถเจาะ AES ได้ จะสามารถเข้าถึงกระเป๋าเงินที่ถูกลืม
    คาดว่ามี Bitcoin ระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่อยู่ในกระเป๋าเงินนิ่ง
    มูลค่ารวมของ Bitcoin ที่อาจถูกปลดล็อกสูงถึง $879 พันล้าน

    กระเป๋าเงินนิ่ง (Dormant Wallets)
    เกิดจากการลืมรหัส, การเสียชีวิต, หรือการเก็บไว้โดยไม่มีการเคลื่อนไหว
    ส่วนใหญ่ไม่สามารถอัปเกรดระบบเข้ารหัสได้
    อาจกลายเป็นเป้าหมายหลักของการเจาะระบบในอนาคต

    ข้อมูลเสริมจากภายนอก
    ECC และ SHA-256 ยังปลอดภัยกว่า RSA แต่ก็เริ่มถูกตั้งคำถามจากนักวิจัยควอนตัม
    Quantum-safe wallets กำลังถูกพัฒนา เช่น lattice-based cryptography
    นักพัฒนา Bitcoin เริ่มเตรียมแผนรับมือ “Q-Day” หรือวันที่ควอนตัมคอมพิวเตอร์สามารถเจาะระบบได้จริง

    https://wccftech.com/quantum-computing-could-leave-a-shocking-879-billion-of-bitcoin-up-for-grabs-heres-how/
    💥 “ควอนตัมคอมพิวติ้งอาจปลดล็อก Bitcoin มูลค่า 879 พันล้านดอลลาร์! กระเป๋าเงินที่ถูกลืมอาจกลายเป็นขุมทรัพย์แห่งอนาคต” ลองจินตนาการว่า Bitcoin ที่คุณเคยได้ยินว่าหายไปแล้ว — เพราะเจ้าของลืมรหัส หรือเสียชีวิตโดยไม่มีใครเข้าถึงได้ — วันหนึ่งกลับถูกปลดล็อกขึ้นมาอีกครั้งด้วยเทคโนโลยีควอนตัมคอมพิวติ้งที่ทรงพลังพอจะเจาะระบบเข้ารหัส AES ได้สำเร็จ…นั่นคือสิ่งที่นักวิเคราะห์หลายคนเริ่มพูดถึงในปี 2025 จุดเริ่มต้นของความกังวลนี้มาจากความก้าวหน้าของชิปควอนตัม “Willow” จาก Google ที่สามารถทำงานบางอย่างได้ในเวลาไม่ถึง 5 นาที — เทียบกับซูเปอร์คอมพิวเตอร์ปัจจุบันที่ต้องใช้เวลาถึง 10^25 ปีในการทำงานเดียวกัน แม้ Willow จะมีเพียง 105 qubits แต่ก็แสดงให้เห็นว่าการพัฒนาเทคโนโลยีนี้กำลังเร่งขึ้นอย่างรวดเร็ว ตามการวิเคราะห์ของ Ronan Manly จาก Sound Money Report มี Bitcoin จำนวนมหาศาลระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่ถูกเก็บไว้ในกระเป๋าเงินที่ไม่มีการเคลื่อนไหวเลย — คิดเป็น 11% ถึง 37% ของจำนวน Bitcoin ทั้งหมดในระบบ ซึ่งส่วนใหญ่เกิดจากการลืมรหัส หรือเจ้าของเสียชีวิตโดยไม่มีการถ่ายทอดข้อมูล หากควอนตัมคอมพิวเตอร์สามารถเจาะระบบ AES ได้จริงในอนาคต กระเป๋าเงินเหล่านี้อาจถูกปลดล็อก และ Bitcoin มูลค่ารวมกว่า 879 พันล้านดอลลาร์ (ตามราคาปัจจุบันที่ ~$112,000 ต่อเหรียญ) อาจถูกนำออกมาใช้ — ซึ่งอาจทำให้ตลาดเกิดการเทขายครั้งใหญ่ และเข้าสู่ภาวะขาลงโดยไม่ต้องมีปัจจัยอื่นใดเลย แม้ผู้ใช้ Bitcoin ส่วนใหญ่จะเปลี่ยนไปใช้กระเป๋าเงินที่ปลอดภัยต่อควอนตัมแล้ว แต่กระเป๋าเงินที่ถูกลืมและไม่มีเจ้าของจะยังคงเสี่ยงต่อการถูกเจาะในอนาคต หากไม่มีการอัปเกรดหรือเปลี่ยนระบบเข้ารหัส ✅ ความก้าวหน้าของควอนตัมคอมพิวติ้ง ➡️ Google Willow chip ทำงานบางอย่างได้ใน 5 นาที เทียบกับ 10^25 ปีของซูเปอร์คอมพิวเตอร์ ➡️ Willow มี 105 qubits และสามารถลดข้อผิดพลาดเมื่อเพิ่มจำนวน qubits ➡️ เทคโนโลยีนี้ได้รับความสนใจจาก Elon Musk และ Sam Altman ✅ ความเสี่ยงต่อ Bitcoin ➡️ Bitcoin ใช้การเข้ารหัส AES และ elliptic curve cryptography (ECC) ➡️ หากควอนตัมคอมพิวเตอร์สามารถเจาะ AES ได้ จะสามารถเข้าถึงกระเป๋าเงินที่ถูกลืม ➡️ คาดว่ามี Bitcoin ระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่อยู่ในกระเป๋าเงินนิ่ง ➡️ มูลค่ารวมของ Bitcoin ที่อาจถูกปลดล็อกสูงถึง $879 พันล้าน ✅ กระเป๋าเงินนิ่ง (Dormant Wallets) ➡️ เกิดจากการลืมรหัส, การเสียชีวิต, หรือการเก็บไว้โดยไม่มีการเคลื่อนไหว ➡️ ส่วนใหญ่ไม่สามารถอัปเกรดระบบเข้ารหัสได้ ➡️ อาจกลายเป็นเป้าหมายหลักของการเจาะระบบในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ ECC และ SHA-256 ยังปลอดภัยกว่า RSA แต่ก็เริ่มถูกตั้งคำถามจากนักวิจัยควอนตัม ➡️ Quantum-safe wallets กำลังถูกพัฒนา เช่น lattice-based cryptography ➡️ นักพัฒนา Bitcoin เริ่มเตรียมแผนรับมือ “Q-Day” หรือวันที่ควอนตัมคอมพิวเตอร์สามารถเจาะระบบได้จริง https://wccftech.com/quantum-computing-could-leave-a-shocking-879-billion-of-bitcoin-up-for-grabs-heres-how/
    WCCFTECH.COM
    Quantum Computing Could Leave A Shocking $879 Billion Of Bitcoin Up For Grabs - Here's How!
    A large proportion of Bitcoin's circulating supply is currently sitting in dormant wallets that are susceptible to quantum computing hacks.
    0 Comments 0 Shares 130 Views 0 Reviews
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 Comments 0 Shares 116 Views 0 Reviews
  • “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!”

    ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด

    JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ

    จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล

    เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters

    ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ

    JetStream คืออะไร
    เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ
    รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด
    ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix
    ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS

    ประสิทธิภาพที่ได้จาก JetStream
    เพิ่มความเร็วการ inference ได้ถึง 10 เท่า
    ลดต้นทุนต่อคำตอบได้ 3 เท่า
    ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions
    รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B

    การติดตั้งและใช้งาน
    มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน
    ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center
    เหมาะกับการใช้งานใน hyperscale cloud และ private cloud
    ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025

    ข้อมูลเสริมจากภายนอก
    d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC)
    Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ
    Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node
    JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่

    https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    🚀 “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!” ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ ✅ JetStream คืออะไร ➡️ เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ ➡️ รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด ➡️ ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix ➡️ ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS ✅ ประสิทธิภาพที่ได้จาก JetStream ➡️ เพิ่มความเร็วการ inference ได้ถึง 10 เท่า ➡️ ลดต้นทุนต่อคำตอบได้ 3 เท่า ➡️ ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions ➡️ รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B ✅ การติดตั้งและใช้งาน ➡️ มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน ➡️ ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center ➡️ เหมาะกับการใช้งานใน hyperscale cloud และ private cloud ➡️ ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC) ➡️ Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ ➡️ Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node ➡️ JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่ https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    WWW.TECHPOWERUP.COM
    d-Matrix Announces JetStream I/O Accelerators Enabling Ultra-Low Latency for AI Inference at Scale
    d-Matrix today announced the expansion of its AI product portfolio with d-Matrix JetStream, a custom I/O card designed from the ground up to deliver industry-leading, data center-scale AI inference. With millions of people now using AI services - and the rise of agentic AI, reasoning, and multi-moda...
    0 Comments 0 Shares 118 Views 0 Reviews
  • “Intel ปรับโครงสร้างผู้บริหารครั้งใหญ่! Michelle Holthaus อำลาหลังรับใช้บริษัทกว่า 30 ปี”

    ลองจินตนาการว่าคุณเป็นหนึ่งในผู้บริหารระดับสูงของบริษัทเทคโนโลยีที่ทรงอิทธิพลที่สุดในโลกอย่าง Intel แล้ววันหนึ่งคุณต้องตัดสินใจอำลาตำแหน่ง หลังจากร่วมสร้างและขับเคลื่อนองค์กรมากว่า 30 ปี — นั่นคือเรื่องราวของ Michelle Johnston Holthaus ผู้บริหารฝ่ายผลิตภัณฑ์ของ Intel ที่เพิ่งประกาศลาออกท่ามกลางการเปลี่ยนแปลงครั้งใหญ่ในโครงสร้างผู้บริหารของบริษัท

    การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงที่ CEO คนใหม่ Lip-Bu Tan พยายามพลิกฟื้น Intel จากภาวะตกต่ำ โดยมีเป้าหมายชัดเจนคือ “ลดชั้นการบริหาร” และ “เร่งการตัดสินใจ” เพื่อให้ทีมพัฒนาชิปสามารถรายงานตรงถึงตัวเขาได้ทันที

    Michelle Holthaus เคยดำรงตำแหน่ง interim co-CEO หลังจาก Pat Gelsinger ถูกปลด และยังเคยเป็นหัวหน้าฝ่าย Client Computing Group และ Chief Revenue Officer มาก่อน เธอจะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่านนี้

    นอกจากการอำลาของ Holthaus ยังมีการแต่งตั้งผู้บริหารใหม่หลายตำแหน่ง เช่น Kevork Kechichian จาก Arm มารับตำแหน่งหัวหน้ากลุ่ม Data Center, Srinivasan Iyengar รับหน้าที่สร้างกลุ่ม Central Engineering ใหม่ และ Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ

    การเปลี่ยนแปลงเหล่านี้เกิดขึ้นในช่วงที่รัฐบาลสหรัฐฯ ภายใต้ประธานาธิบดี Donald Trump ประกาศแผนเข้าถือหุ้น 10% ใน Intel และเรียกร้องให้ Tan ลาออกจากตำแหน่งเนื่องจากข้อขัดแย้งทางผลประโยชน์ — ทำให้สถานการณ์ของ Intel ยิ่งตึงเครียดมากขึ้น

    การเปลี่ยนแปลงผู้บริหารระดับสูงของ Intel
    Michelle Holthaus อำลาหลังทำงานกับ Intel มากกว่า 30 ปี
    เคยดำรงตำแหน่ง interim co-CEO และหัวหน้าฝ่ายผลิตภัณฑ์
    จะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่าน
    CEO Lip-Bu Tan ปรับโครงสร้างให้ทีมชิปรายงานตรงถึงตัวเอง

    การแต่งตั้งผู้บริหารใหม่
    Kevork Kechichian จาก Arm รับตำแหน่งหัวหน้ากลุ่ม Data Center
    Srinivasan Iyengar นำทีม Central Engineering และธุรกิจ custom silicon
    Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ
    Naga Chandrasekaran ขยายบทบาทใน Intel Foundry ให้ครอบคลุม Foundry Services

    บริบททางการเมืองและเศรษฐกิจ
    รัฐบาลสหรัฐฯ ประกาศถือหุ้น 10% ใน Intel เพื่อควบคุมเชิงยุทธศาสตร์
    ประธานาธิบดี Trump เรียกร้องให้ CEO Tan ลาออกจากตำแหน่ง
    การเปลี่ยนแปลงนี้เกิดขึ้นท่ามกลางแรงกดดันจากตลาดและภาครัฐ

    https://www.thestar.com.my/tech/tech-news/2025/09/09/intel-product-chief-michelle-holthaus-to-leave-company
    🔄 “Intel ปรับโครงสร้างผู้บริหารครั้งใหญ่! Michelle Holthaus อำลาหลังรับใช้บริษัทกว่า 30 ปี” ลองจินตนาการว่าคุณเป็นหนึ่งในผู้บริหารระดับสูงของบริษัทเทคโนโลยีที่ทรงอิทธิพลที่สุดในโลกอย่าง Intel แล้ววันหนึ่งคุณต้องตัดสินใจอำลาตำแหน่ง หลังจากร่วมสร้างและขับเคลื่อนองค์กรมากว่า 30 ปี — นั่นคือเรื่องราวของ Michelle Johnston Holthaus ผู้บริหารฝ่ายผลิตภัณฑ์ของ Intel ที่เพิ่งประกาศลาออกท่ามกลางการเปลี่ยนแปลงครั้งใหญ่ในโครงสร้างผู้บริหารของบริษัท การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงที่ CEO คนใหม่ Lip-Bu Tan พยายามพลิกฟื้น Intel จากภาวะตกต่ำ โดยมีเป้าหมายชัดเจนคือ “ลดชั้นการบริหาร” และ “เร่งการตัดสินใจ” เพื่อให้ทีมพัฒนาชิปสามารถรายงานตรงถึงตัวเขาได้ทันที Michelle Holthaus เคยดำรงตำแหน่ง interim co-CEO หลังจาก Pat Gelsinger ถูกปลด และยังเคยเป็นหัวหน้าฝ่าย Client Computing Group และ Chief Revenue Officer มาก่อน เธอจะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่านนี้ นอกจากการอำลาของ Holthaus ยังมีการแต่งตั้งผู้บริหารใหม่หลายตำแหน่ง เช่น Kevork Kechichian จาก Arm มารับตำแหน่งหัวหน้ากลุ่ม Data Center, Srinivasan Iyengar รับหน้าที่สร้างกลุ่ม Central Engineering ใหม่ และ Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ การเปลี่ยนแปลงเหล่านี้เกิดขึ้นในช่วงที่รัฐบาลสหรัฐฯ ภายใต้ประธานาธิบดี Donald Trump ประกาศแผนเข้าถือหุ้น 10% ใน Intel และเรียกร้องให้ Tan ลาออกจากตำแหน่งเนื่องจากข้อขัดแย้งทางผลประโยชน์ — ทำให้สถานการณ์ของ Intel ยิ่งตึงเครียดมากขึ้น ✅ การเปลี่ยนแปลงผู้บริหารระดับสูงของ Intel ➡️ Michelle Holthaus อำลาหลังทำงานกับ Intel มากกว่า 30 ปี ➡️ เคยดำรงตำแหน่ง interim co-CEO และหัวหน้าฝ่ายผลิตภัณฑ์ ➡️ จะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่าน ➡️ CEO Lip-Bu Tan ปรับโครงสร้างให้ทีมชิปรายงานตรงถึงตัวเอง ✅ การแต่งตั้งผู้บริหารใหม่ ➡️ Kevork Kechichian จาก Arm รับตำแหน่งหัวหน้ากลุ่ม Data Center ➡️ Srinivasan Iyengar นำทีม Central Engineering และธุรกิจ custom silicon ➡️ Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ ➡️ Naga Chandrasekaran ขยายบทบาทใน Intel Foundry ให้ครอบคลุม Foundry Services ✅ บริบททางการเมืองและเศรษฐกิจ ➡️ รัฐบาลสหรัฐฯ ประกาศถือหุ้น 10% ใน Intel เพื่อควบคุมเชิงยุทธศาสตร์ ➡️ ประธานาธิบดี Trump เรียกร้องให้ CEO Tan ลาออกจากตำแหน่ง ➡️ การเปลี่ยนแปลงนี้เกิดขึ้นท่ามกลางแรงกดดันจากตลาดและภาครัฐ https://www.thestar.com.my/tech/tech-news/2025/09/09/intel-product-chief-michelle-holthaus-to-leave-company
    WWW.THESTAR.COM.MY
    Intel announces key executive shake-up, says products chief Holthaus will exit
    (Reuters) - Intel announced a series of top executive changes on Monday, including the departure of products chief Michelle Johnston Holthaus, at a time when CEO Lip-Bu Tan intensifies efforts to turn around the struggling U.S. chipmaker.
    0 Comments 0 Shares 114 Views 0 Reviews
  • เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์

    ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต

    สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ

    ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง

    แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน

    การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์

    การกลับมาของชิป Blockscale BZM2
    Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา
    ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH
    ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation

    การแจกจ่ายและการใช้งาน
    แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว
    ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่
    ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse

    ความหมายต่อวงการขุดบิตคอยน์
    เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่
    เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง
    สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน

    การใช้งานนอกเหนือจากการขุด
    ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน
    มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล
    สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    🎙️ เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์ ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์ ✅ การกลับมาของชิป Blockscale BZM2 ➡️ Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา ➡️ ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH ➡️ ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation ✅ การแจกจ่ายและการใช้งาน ➡️ แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว ➡️ ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่ ➡️ ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse ✅ ความหมายต่อวงการขุดบิตคอยน์ ➡️ เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ ➡️ เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง ➡️ สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน ✅ การใช้งานนอกเหนือจากการขุด ➡️ ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน ➡️ มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล ➡️ สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    0 Comments 0 Shares 173 Views 0 Reviews
  • เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว

    Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ

    ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime

    ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น

    ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7

    นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที

    สเปกหลักของ GIGABYTE XL44-SX2-AAS1
    ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
    แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
    ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว

    ความสามารถด้านการเชื่อมต่อและประมวลผล
    รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
    มี 2×400GbE external connections สำหรับ data center traffic
    รองรับ GPU-to-GPU direct communication สำหรับ distributed AI

    ฮาร์ดแวร์ระดับ data center
    Dual Intel Xeon 6700/6500 series CPU
    รองรับ DDR5 DIMM สูงสุด 32 แถว
    พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium

    ซอฟต์แวร์และการใช้งาน
    มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
    รองรับงาน AI inference, physical AI, 3D simulation, video processing
    ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization

    การใช้งานในอุตสาหกรรม
    เหมาะกับ smart manufacturing, financial modeling, medical research
    รองรับ LLM inference และการสร้าง digital twins
    พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025

    https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7 นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที ✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1 ➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว ➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32 ➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว ✅ ความสามารถด้านการเชื่อมต่อและประมวลผล ➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU ➡️ มี 2×400GbE external connections สำหรับ data center traffic ➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI ✅ ฮาร์ดแวร์ระดับ data center ➡️ Dual Intel Xeon 6700/6500 series CPU ➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว ➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium ✅ ซอฟต์แวร์และการใช้งาน ➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos ➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing ➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization ✅ การใช้งานในอุตสาหกรรม ➡️ เหมาะกับ smart manufacturing, financial modeling, medical research ➡️ รองรับ LLM inference และการสร้าง digital twins ➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025 https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    WWW.TECHPOWERUP.COM
    Giga Computing Expands NVIDIA RTX PRO Server Portfolio
    Giga Computing, a subsidiary of GIGABYTE Group, today announced the availability of the XL44-SX2-AAS1 server, integrating NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs with the NVIDIA BlueField-3 DPU and NVIDIA ConnectX-8 SuperNICs, this breakthrough platform unifies computing and high-speed dat...
    0 Comments 0 Shares 159 Views 0 Reviews
  • เรื่องเล่าจากคูปองพลังประมวลผล: เมื่อรัฐบาลจีนแจกเครดิตให้บริษัทเล็ก ๆ ใช้ GPU ระดับซูเปอร์คอมพิวเตอร์

    ในปี 2025 รัฐบาลจีนเริ่มขยายโครงการ “คูปองพลังประมวลผล” ไปยังหลายเมืองทั่วประเทศ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป และซานตง โดยมีเป้าหมายเพื่อช่วยให้ธุรกิจขนาดกลางและเล็ก (SMEs) เข้าถึงการฝึกโมเดล AI ได้ในราคาที่ถูกลงอย่างมาก

    ตัวอย่างเช่น เซี่ยงไฮ้จัดสรรงบประมาณกว่า 600 ล้านหยวน (~84 ล้านดอลลาร์) เพื่อสนับสนุนค่าเช่า GPU สูงสุดถึง 80% สำหรับการฝึกโมเดล AI และยังมีอีก 100 ล้านหยวนสำหรับการฝึก LLM โดยเฉพาะ ส่วนเฉิงตูซึ่งเป็นเมืองนำร่องตั้งแต่ปี 2023 ก็ขยายโครงการไปยังสถาบันวิจัยด้วยงบอีก 100 ล้านหยวน

    คูปองเหล่านี้สามารถนำไปใช้กับศูนย์ข้อมูลระดับชาติหรือท้องถิ่นที่เข้าร่วมโครงการ ซึ่งส่วนใหญ่ตั้งอยู่ในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing” ที่ใช้ไฟฟ้าราคาถูกในตะวันตกเพื่อรองรับความต้องการจากเมืองชายฝั่ง

    โครงการนี้เกิดจากนโยบาย “Implementation Opinions on Promoting the High-Quality Development of the Data Labeling Industry” ที่ประกาศในเดือนธันวาคม 2024 โดยมีเป้าหมายเพื่อลดต้นทุน R&D ของบริษัทเล็ก และเพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่มากถึง 70–80%

    โครงการคูปองพลังประมวลผลของจีน
    แจกคูปองให้ SMEs ใช้ GPU สำหรับฝึกโมเดล AI ในราคาถูก
    ครอบคลุมเมืองใหญ่ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป ซานตง
    เซี่ยงไฮ้ให้ส่วนลดสูงสุด 80% และมีงบเฉพาะสำหรับ LLM training

    เป้าหมายของโครงการ
    ลดต้นทุน R&D สำหรับบริษัทขนาดเล็ก
    เพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่
    สนับสนุนการเติบโตของอุตสาหกรรม AI ภายในประเทศ

    โครงสร้างพื้นฐานที่รองรับ
    ใช้ศูนย์ข้อมูลในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing”
    ศูนย์ข้อมูลบางแห่งมีการใช้งานเพียง 20–30% ก่อนโครงการนี้
    มีแผนสร้างเครือข่าย unified compute ระดับประเทศเพื่อกระจายโหลด

    การขยายตัวของโครงการ
    เฉิงตูขยายคูปองไปยังสถาบันวิจัยด้วยงบ 100 ล้านหยวน
    ซานตงจัดสรรงบเบื้องต้น 30 ล้านหยวน และเตรียมเพิ่มอีก 1 พันล้านหยวน
    ปักกิ่งเริ่มเปิดรับสมัครผู้ขอรับคูปองแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-subsidizes-ai-computing-for-small-domestic-companies-computing-power-vouchers-spread-across-multiple-chinese-cities
    🎙️ เรื่องเล่าจากคูปองพลังประมวลผล: เมื่อรัฐบาลจีนแจกเครดิตให้บริษัทเล็ก ๆ ใช้ GPU ระดับซูเปอร์คอมพิวเตอร์ ในปี 2025 รัฐบาลจีนเริ่มขยายโครงการ “คูปองพลังประมวลผล” ไปยังหลายเมืองทั่วประเทศ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป และซานตง โดยมีเป้าหมายเพื่อช่วยให้ธุรกิจขนาดกลางและเล็ก (SMEs) เข้าถึงการฝึกโมเดล AI ได้ในราคาที่ถูกลงอย่างมาก ตัวอย่างเช่น เซี่ยงไฮ้จัดสรรงบประมาณกว่า 600 ล้านหยวน (~84 ล้านดอลลาร์) เพื่อสนับสนุนค่าเช่า GPU สูงสุดถึง 80% สำหรับการฝึกโมเดล AI และยังมีอีก 100 ล้านหยวนสำหรับการฝึก LLM โดยเฉพาะ ส่วนเฉิงตูซึ่งเป็นเมืองนำร่องตั้งแต่ปี 2023 ก็ขยายโครงการไปยังสถาบันวิจัยด้วยงบอีก 100 ล้านหยวน คูปองเหล่านี้สามารถนำไปใช้กับศูนย์ข้อมูลระดับชาติหรือท้องถิ่นที่เข้าร่วมโครงการ ซึ่งส่วนใหญ่ตั้งอยู่ในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing” ที่ใช้ไฟฟ้าราคาถูกในตะวันตกเพื่อรองรับความต้องการจากเมืองชายฝั่ง โครงการนี้เกิดจากนโยบาย “Implementation Opinions on Promoting the High-Quality Development of the Data Labeling Industry” ที่ประกาศในเดือนธันวาคม 2024 โดยมีเป้าหมายเพื่อลดต้นทุน R&D ของบริษัทเล็ก และเพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่มากถึง 70–80% ✅ โครงการคูปองพลังประมวลผลของจีน ➡️ แจกคูปองให้ SMEs ใช้ GPU สำหรับฝึกโมเดล AI ในราคาถูก ➡️ ครอบคลุมเมืองใหญ่ เช่น ปักกิ่ง เซี่ยงไฮ้ เฉิงตู เซินเจิ้น หนิงโป ซานตง ➡️ เซี่ยงไฮ้ให้ส่วนลดสูงสุด 80% และมีงบเฉพาะสำหรับ LLM training ✅ เป้าหมายของโครงการ ➡️ ลดต้นทุน R&D สำหรับบริษัทขนาดเล็ก ➡️ เพิ่มการใช้ประโยชน์จากศูนย์ข้อมูลที่ยังว่างอยู่ ➡️ สนับสนุนการเติบโตของอุตสาหกรรม AI ภายในประเทศ ✅ โครงสร้างพื้นฐานที่รองรับ ➡️ ใช้ศูนย์ข้อมูลในพื้นที่ตะวันตกของจีนตามยุทธศาสตร์ “Eastern Data, Western Computing” ➡️ ศูนย์ข้อมูลบางแห่งมีการใช้งานเพียง 20–30% ก่อนโครงการนี้ ➡️ มีแผนสร้างเครือข่าย unified compute ระดับประเทศเพื่อกระจายโหลด ✅ การขยายตัวของโครงการ ➡️ เฉิงตูขยายคูปองไปยังสถาบันวิจัยด้วยงบ 100 ล้านหยวน ➡️ ซานตงจัดสรรงบเบื้องต้น 30 ล้านหยวน และเตรียมเพิ่มอีก 1 พันล้านหยวน ➡️ ปักกิ่งเริ่มเปิดรับสมัครผู้ขอรับคูปองแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/china-subsidizes-ai-computing-for-small-domestic-companies-computing-power-vouchers-spread-across-multiple-chinese-cities
    0 Comments 0 Shares 141 Views 0 Reviews
  • เรื่องเล่าจาก Icheon: เมื่อการพิมพ์วงจรระดับนาโนกลายเป็นการแข่งขันระดับโลก

    ในเดือนกันยายน 2025 SK hynix และ ASML ประกาศว่าได้ติดตั้งเครื่อง High-NA EUV รุ่น Twinscan EXE:5200B ที่โรงงาน M16 ในเมืองอีชอน ประเทศเกาหลีใต้ ซึ่งถือเป็นการติดตั้งเชิงพาณิชย์ครั้งแรกของเครื่องรุ่นนี้ในอุตสาหกรรมหน่วยความจำ

    เครื่องนี้ใช้เลนส์ที่มีค่า NA (Numerical Aperture) สูงถึง 0.55 ซึ่งมากกว่าเครื่อง EUV รุ่นเดิมที่มี NA 0.33 ทำให้สามารถพิมพ์วงจรที่เล็กลงได้ถึง 1.7 เท่า และเพิ่มความหนาแน่นของทรานซิสเตอร์ได้ถึง 2.9 เท่าในครั้งเดียว โดยไม่ต้องใช้เทคนิค multi-patterning ที่ซับซ้อนและมีต้นทุนสูง

    SK hynix วางแผนใช้เครื่องนี้ในระยะแรกเพื่อเร่งการพัฒนา DRAM รุ่นใหม่ เช่นการสร้างโครงสร้าง capacitor trench, bitline และ wordline ที่ซับซ้อนขึ้น ก่อนจะนำไปใช้จริงในสายการผลิตช่วงปลายทศวรรษนี้ ซึ่งจะเป็นจุดเปลี่ยนสำคัญของการผลิต DRAM ที่มีขนาดต่ำกว่า 10 นาโนเมตร

    การติดตั้งครั้งนี้ทำให้ SK hynix กลายเป็นผู้ผลิตหน่วยความจำรายแรกที่นำ High-NA EUV มาใช้ในระดับ mass production ล้ำหน้าคู่แข่งอย่าง Samsung และ Micron ที่ยังอยู่ในขั้นตอน R&D กับเครื่องรุ่นก่อนหน้าอย่าง EXE:5000

    ASML ซึ่งเป็นผู้ผลิตเครื่องจากเนเธอร์แลนด์ ระบุว่าเครื่องรุ่นนี้มีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน และมีราคาสูงถึง 600 พันล้านวอน (~431 ล้านดอลลาร์) โดยผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น

    การติดตั้ง High-NA EUV รุ่น Twinscan EXE:5200B
    ติดตั้งที่โรงงาน M16 ของ SK hynix ในเกาหลีใต้
    เป็นการใช้งานเชิงพาณิชย์ครั้งแรกในอุตสาหกรรมหน่วยความจำ
    ใช้เลนส์ NA 0.55 ซึ่งให้ความละเอียดสูงกว่ารุ่นเดิม

    ความสามารถของเครื่อง High-NA EUV
    พิมพ์วงจรเล็กลง 1.7 เท่า และเพิ่มความหนาแน่น 2.9 เท่า
    ลดความจำเป็นในการใช้ multi-patterning ที่มีต้นทุนสูง
    เหมาะกับการพัฒนา DRAM ที่มีโครงสร้างซับซ้อนระดับ sub-10nm

    กลยุทธ์ของ SK hynix
    ใช้เครื่องนี้เพื่อเร่งการพัฒนา DRAM รุ่นใหม่ก่อนเข้าสู่สายการผลิตจริง
    ตั้งเป้าเป็นผู้นำในตลาด AI memory และ next-gen computing
    ล้ำหน้าคู่แข่งที่ยังใช้เครื่องรุ่นก่อนหน้าในขั้นตอน R&D

    ข้อมูลจาก ASML
    เครื่องมีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน
    ราคาต่อเครื่องประมาณ 600 พันล้านวอน (~431 ล้านดอลลาร์)
    ผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น

    https://www.tomshardware.com/tech-industry/semiconductors/asml-and-sk-hynix-assemble-industry-first-commercial-high-na-euv-system-at-fab-in-south-korea
    🎙️ เรื่องเล่าจาก Icheon: เมื่อการพิมพ์วงจรระดับนาโนกลายเป็นการแข่งขันระดับโลก ในเดือนกันยายน 2025 SK hynix และ ASML ประกาศว่าได้ติดตั้งเครื่อง High-NA EUV รุ่น Twinscan EXE:5200B ที่โรงงาน M16 ในเมืองอีชอน ประเทศเกาหลีใต้ ซึ่งถือเป็นการติดตั้งเชิงพาณิชย์ครั้งแรกของเครื่องรุ่นนี้ในอุตสาหกรรมหน่วยความจำ เครื่องนี้ใช้เลนส์ที่มีค่า NA (Numerical Aperture) สูงถึง 0.55 ซึ่งมากกว่าเครื่อง EUV รุ่นเดิมที่มี NA 0.33 ทำให้สามารถพิมพ์วงจรที่เล็กลงได้ถึง 1.7 เท่า และเพิ่มความหนาแน่นของทรานซิสเตอร์ได้ถึง 2.9 เท่าในครั้งเดียว โดยไม่ต้องใช้เทคนิค multi-patterning ที่ซับซ้อนและมีต้นทุนสูง SK hynix วางแผนใช้เครื่องนี้ในระยะแรกเพื่อเร่งการพัฒนา DRAM รุ่นใหม่ เช่นการสร้างโครงสร้าง capacitor trench, bitline และ wordline ที่ซับซ้อนขึ้น ก่อนจะนำไปใช้จริงในสายการผลิตช่วงปลายทศวรรษนี้ ซึ่งจะเป็นจุดเปลี่ยนสำคัญของการผลิต DRAM ที่มีขนาดต่ำกว่า 10 นาโนเมตร การติดตั้งครั้งนี้ทำให้ SK hynix กลายเป็นผู้ผลิตหน่วยความจำรายแรกที่นำ High-NA EUV มาใช้ในระดับ mass production ล้ำหน้าคู่แข่งอย่าง Samsung และ Micron ที่ยังอยู่ในขั้นตอน R&D กับเครื่องรุ่นก่อนหน้าอย่าง EXE:5000 ASML ซึ่งเป็นผู้ผลิตเครื่องจากเนเธอร์แลนด์ ระบุว่าเครื่องรุ่นนี้มีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน และมีราคาสูงถึง 600 พันล้านวอน (~431 ล้านดอลลาร์) โดยผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น ✅ การติดตั้ง High-NA EUV รุ่น Twinscan EXE:5200B ➡️ ติดตั้งที่โรงงาน M16 ของ SK hynix ในเกาหลีใต้ ➡️ เป็นการใช้งานเชิงพาณิชย์ครั้งแรกในอุตสาหกรรมหน่วยความจำ ➡️ ใช้เลนส์ NA 0.55 ซึ่งให้ความละเอียดสูงกว่ารุ่นเดิม ✅ ความสามารถของเครื่อง High-NA EUV ➡️ พิมพ์วงจรเล็กลง 1.7 เท่า และเพิ่มความหนาแน่น 2.9 เท่า ➡️ ลดความจำเป็นในการใช้ multi-patterning ที่มีต้นทุนสูง ➡️ เหมาะกับการพัฒนา DRAM ที่มีโครงสร้างซับซ้อนระดับ sub-10nm ✅ กลยุทธ์ของ SK hynix ➡️ ใช้เครื่องนี้เพื่อเร่งการพัฒนา DRAM รุ่นใหม่ก่อนเข้าสู่สายการผลิตจริง ➡️ ตั้งเป้าเป็นผู้นำในตลาด AI memory และ next-gen computing ➡️ ล้ำหน้าคู่แข่งที่ยังใช้เครื่องรุ่นก่อนหน้าในขั้นตอน R&D ✅ ข้อมูลจาก ASML ➡️ เครื่องมีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน ➡️ ราคาต่อเครื่องประมาณ 600 พันล้านวอน (~431 ล้านดอลลาร์) ➡️ ผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น https://www.tomshardware.com/tech-industry/semiconductors/asml-and-sk-hynix-assemble-industry-first-commercial-high-na-euv-system-at-fab-in-south-korea
    WWW.TOMSHARDWARE.COM
    ASML and SK hynix assemble industry-first 'commercial' High-NA EUV system at fab in South Korea
    Initially for R&D use, until later this decade where it will transition to production
    0 Comments 0 Shares 114 Views 0 Reviews
  • เรื่องเล่าจาก Wall Street: เมื่อหุ้นควอนตัมแยกเป็นสองขั้ว—บางตัวร่วงหนัก บางตัวกลับฟื้นตัวสวนตลาด

    ในวันที่ตลาดหุ้นสหรัฐฯ ถูกกดดันจากความไม่แน่นอนด้านภาษีและอัตราผลตอบแทนพันธบัตรที่พุ่งสูง นักลงทุนพากันหนีจากสินทรัพย์เสี่ยงไปหาหุ้นปลอดภัยอย่าง Unilever, P&G และ J&J ที่กลับมาเขียวสวนกระแส แต่หุ้นควอนตัมกลับถูกเทขายอย่างหนัก โดยเฉพาะบริษัทที่เน้น “ฮาร์ดแวร์” เป็นหลัก

    Quantum Computing Inc. และ Rigetti Computing สูญเสียมูลค่าหุ้นไปเกือบ 6% ในวันเดียว ขณะที่ IonQ และ D-Wave Quantum ซึ่งมี exposure ด้าน “ซอฟต์แวร์” มากกว่า กลับฟื้นตัวในช่วงท้ายวัน โดย D-Wave ปิดลดลงเพียง 0.15% และ IonQ ลดลง 0.35%

    นักวิเคราะห์มองว่า ความแตกต่างนี้สะท้อนถึง “ความยืดหยุ่นของโมเดลธุรกิจ” ในภาวะเศรษฐกิจถดถอย—ซอฟต์แวร์ที่มี margin สูงและสามารถ deploy ผ่าน cloud ได้ง่าย ย่อมมีโอกาสรอดมากกว่าฮาร์ดแวร์ที่ต้องใช้เงินลงทุนสูงและมี cycle การพัฒนาแบบยาว

    แม้จะมีแรงเทขายในระยะสั้น แต่ ETF อย่าง QTUM ที่รวมหุ้นควอนตัมหลายตัวไว้ ก็ยังบวกอยู่ 13.9% ตั้งแต่ต้นปี แสดงว่าความเชื่อมั่นในระยะยาวยังไม่หายไป เพียงแต่ต้องเลือก “จังหวะและตัวเล่น” ให้ถูก

    ภาพรวมตลาดหุ้นควอนตัมในเดือนกันยายน 2025
    Quantum Computing Inc. และ Rigetti ร่วง ~6% จากแรงเทขายในกลุ่มฮาร์ดแวร์
    IonQ และ D-Wave ปรับตัวลงเล็กน้อย แต่ฟื้นตัวในช่วงท้ายวัน
    นักลงทุนเทไปหาหุ้นปลอดภัย เช่น J&J, P&G, Unilever

    ความแตกต่างระหว่างบริษัทฮาร์ดแวร์และซอฟต์แวร์
    IonQ และ D-Wave มีโมเดลที่เน้นซอฟต์แวร์และ cloud deployment
    Quantum Computing Inc. และ Rigetti ยังเน้นการพัฒนาอุปกรณ์ควอนตัมโดยตรง
    ซอฟต์แวร์มี margin สูงกว่าและปรับตัวได้ง่ายในภาวะงบประมาณจำกัด

    ความเคลื่อนไหวของ ETF และแนวโน้มระยะยาว
    QTUM ETF ยังบวก 13.9% ตั้งแต่ต้นปี แม้จะลดลง 1.4% ในวันเดียว
    นักลงทุนยังเชื่อในศักยภาพระยะยาวของควอนตัม แต่ต้องระวัง volatility
    การเลือกหุ้นควอนตัมต้องดูทั้งเทคโนโลยีและโมเดลธุรกิจ

    https://wccftech.com/quantum-computing-stocks-split-in-two-as-they-battle-tough-risk-off-market-conditions-some-lose-5-while-others-in-the-green/
    🎙️ เรื่องเล่าจาก Wall Street: เมื่อหุ้นควอนตัมแยกเป็นสองขั้ว—บางตัวร่วงหนัก บางตัวกลับฟื้นตัวสวนตลาด ในวันที่ตลาดหุ้นสหรัฐฯ ถูกกดดันจากความไม่แน่นอนด้านภาษีและอัตราผลตอบแทนพันธบัตรที่พุ่งสูง นักลงทุนพากันหนีจากสินทรัพย์เสี่ยงไปหาหุ้นปลอดภัยอย่าง Unilever, P&G และ J&J ที่กลับมาเขียวสวนกระแส แต่หุ้นควอนตัมกลับถูกเทขายอย่างหนัก โดยเฉพาะบริษัทที่เน้น “ฮาร์ดแวร์” เป็นหลัก Quantum Computing Inc. และ Rigetti Computing สูญเสียมูลค่าหุ้นไปเกือบ 6% ในวันเดียว ขณะที่ IonQ และ D-Wave Quantum ซึ่งมี exposure ด้าน “ซอฟต์แวร์” มากกว่า กลับฟื้นตัวในช่วงท้ายวัน โดย D-Wave ปิดลดลงเพียง 0.15% และ IonQ ลดลง 0.35% นักวิเคราะห์มองว่า ความแตกต่างนี้สะท้อนถึง “ความยืดหยุ่นของโมเดลธุรกิจ” ในภาวะเศรษฐกิจถดถอย—ซอฟต์แวร์ที่มี margin สูงและสามารถ deploy ผ่าน cloud ได้ง่าย ย่อมมีโอกาสรอดมากกว่าฮาร์ดแวร์ที่ต้องใช้เงินลงทุนสูงและมี cycle การพัฒนาแบบยาว แม้จะมีแรงเทขายในระยะสั้น แต่ ETF อย่าง QTUM ที่รวมหุ้นควอนตัมหลายตัวไว้ ก็ยังบวกอยู่ 13.9% ตั้งแต่ต้นปี แสดงว่าความเชื่อมั่นในระยะยาวยังไม่หายไป เพียงแต่ต้องเลือก “จังหวะและตัวเล่น” ให้ถูก ✅ ภาพรวมตลาดหุ้นควอนตัมในเดือนกันยายน 2025 ➡️ Quantum Computing Inc. และ Rigetti ร่วง ~6% จากแรงเทขายในกลุ่มฮาร์ดแวร์ ➡️ IonQ และ D-Wave ปรับตัวลงเล็กน้อย แต่ฟื้นตัวในช่วงท้ายวัน ➡️ นักลงทุนเทไปหาหุ้นปลอดภัย เช่น J&J, P&G, Unilever ✅ ความแตกต่างระหว่างบริษัทฮาร์ดแวร์และซอฟต์แวร์ ➡️ IonQ และ D-Wave มีโมเดลที่เน้นซอฟต์แวร์และ cloud deployment ➡️ Quantum Computing Inc. และ Rigetti ยังเน้นการพัฒนาอุปกรณ์ควอนตัมโดยตรง ➡️ ซอฟต์แวร์มี margin สูงกว่าและปรับตัวได้ง่ายในภาวะงบประมาณจำกัด ✅ ความเคลื่อนไหวของ ETF และแนวโน้มระยะยาว ➡️ QTUM ETF ยังบวก 13.9% ตั้งแต่ต้นปี แม้จะลดลง 1.4% ในวันเดียว ➡️ นักลงทุนยังเชื่อในศักยภาพระยะยาวของควอนตัม แต่ต้องระวัง volatility ➡️ การเลือกหุ้นควอนตัมต้องดูทั้งเทคโนโลยีและโมเดลธุรกิจ https://wccftech.com/quantum-computing-stocks-split-in-two-as-they-battle-tough-risk-off-market-conditions-some-lose-5-while-others-in-the-green/
    WCCFTECH.COM
    Quantum Computing Stocks Split In Two As They Battle Tough & Risk-Off Market Conditions - Some Lose 5% While Others In The Green
    Quantum computing stocks fell nearly 6% as Quantum Computing Inc and Rigetti led losses amidst bearish market sentiment.
    0 Comments 0 Shares 151 Views 0 Reviews
  • เรื่องเล่าจาก Pezy SC4s: เมื่อ CPU ไม่ใช่แค่สมองกลาง แต่กลายเป็น “เครือข่ายของหมู่บ้านที่คิดเองได้”

    ในงาน Hot Chips 2025 บริษัท Pezy Computing จากญี่ปุ่นได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า SC4s ซึ่งใช้แนวคิด MIMD (Multiple Instructions, Multiple Data) แทนที่จะเป็น SIMD หรือ SIMT แบบที่ CPU ทั่วไปใช้กัน

    Pezy เปรียบเทียบสถาปัตยกรรมของตัวเองกับ “สังคมของรัฐ จังหวัด เมือง และหมู่บ้าน” ที่แต่ละหน่วยสามารถตัดสินใจเองได้ ไม่ต้องรอคำสั่งจากศูนย์กลาง ซึ่งต่างจาก CPU ทั่วไปที่มักใช้การประมวลผลแบบ lockstep หรือควบคุมจาก instruction เดียว

    SC4s ถูกผลิตบนเทคโนโลยี 5nm ของ TSMC และมีขนาด die ใหญ่ถึง 556mm² ซึ่งถือว่า “มหึมา” เมื่อเทียบกับ CPU ทั่วไป แต่ Pezy ไม่สนใจเรื่องพื้นที่ซิลิคอน เพราะเป้าหมายคือการทดสอบว่า “การขยายขนาดแบบสุดโต่ง” จะให้ประสิทธิภาพที่คุ้มค่าหรือไม่

    แม้จะยังไม่มีชิปจริงออกมา แต่ Pezy ได้เผยผลการจำลองการทำงานของ SC4s ซึ่งแสดงให้เห็นว่าในการประมวลผล DGEMM (matrix multiplication) ชิปนี้มีประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า และในการรันอัลกอริธึม Smith-Waterman สำหรับ genome alignment ก็เร็วขึ้นถึง 4 เท่า

    Pezy ยังประกาศว่ากำลังพัฒนา SC5 ซึ่งจะใช้เทคโนโลยี 3nm หรือเล็กกว่านั้น และตั้งเป้าเปิดตัวในปี 2027 แม้จะรู้ดีว่า timeline แบบนี้มักจะเปลี่ยนได้ตลอด

    สถาปัตยกรรม MIMD ของ Pezy SC4s
    ใช้แนวคิด “หลายคำสั่ง หลายข้อมูล” แทน “คำสั่งเดียว หลายข้อมูล”
    เหมาะกับงานที่มี thread อิสระจำนวนมาก เช่น genome alignment หรือ AI inference
    เปรียบเทียบกับสังคมที่แต่ละหน่วยตัดสินใจเอง ไม่ต้องรอศูนย์กลาง

    ข้อมูลทางเทคนิคของ SC4s
    ผลิตบน TSMC 5nm
    ขนาด die ประมาณ 556mm² ใหญ่กว่าชิปทั่วไป
    ไม่เน้นลดพื้นที่ แต่เน้นทดสอบประสิทธิภาพจากการขยายขนาด

    ผลการจำลองประสิทธิภาพ
    DGEMM: ประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า
    Smith-Waterman: เร็วขึ้นเกือบ 4 เท่า
    ยังไม่มีผลการทดสอบจากชิปจริง

    แผนการพัฒนาในอนาคต
    SC5 จะใช้เทคโนโลยี 3nm หรือเล็กกว่า
    ตั้งเป้าเปิดตัวในปี 2027
    ยังอยู่ในขั้นตอนการออกแบบและจำลอง

    https://www.techradar.com/pro/security/states-prefectures-cities-and-villages-how-one-tiny-japanese-cpu-maker-is-taking-a-radically-different-route-to-making-processors-with-thousands-of-cores
    🎙️ เรื่องเล่าจาก Pezy SC4s: เมื่อ CPU ไม่ใช่แค่สมองกลาง แต่กลายเป็น “เครือข่ายของหมู่บ้านที่คิดเองได้” ในงาน Hot Chips 2025 บริษัท Pezy Computing จากญี่ปุ่นได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า SC4s ซึ่งใช้แนวคิด MIMD (Multiple Instructions, Multiple Data) แทนที่จะเป็น SIMD หรือ SIMT แบบที่ CPU ทั่วไปใช้กัน Pezy เปรียบเทียบสถาปัตยกรรมของตัวเองกับ “สังคมของรัฐ จังหวัด เมือง และหมู่บ้าน” ที่แต่ละหน่วยสามารถตัดสินใจเองได้ ไม่ต้องรอคำสั่งจากศูนย์กลาง ซึ่งต่างจาก CPU ทั่วไปที่มักใช้การประมวลผลแบบ lockstep หรือควบคุมจาก instruction เดียว SC4s ถูกผลิตบนเทคโนโลยี 5nm ของ TSMC และมีขนาด die ใหญ่ถึง 556mm² ซึ่งถือว่า “มหึมา” เมื่อเทียบกับ CPU ทั่วไป แต่ Pezy ไม่สนใจเรื่องพื้นที่ซิลิคอน เพราะเป้าหมายคือการทดสอบว่า “การขยายขนาดแบบสุดโต่ง” จะให้ประสิทธิภาพที่คุ้มค่าหรือไม่ แม้จะยังไม่มีชิปจริงออกมา แต่ Pezy ได้เผยผลการจำลองการทำงานของ SC4s ซึ่งแสดงให้เห็นว่าในการประมวลผล DGEMM (matrix multiplication) ชิปนี้มีประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า และในการรันอัลกอริธึม Smith-Waterman สำหรับ genome alignment ก็เร็วขึ้นถึง 4 เท่า Pezy ยังประกาศว่ากำลังพัฒนา SC5 ซึ่งจะใช้เทคโนโลยี 3nm หรือเล็กกว่านั้น และตั้งเป้าเปิดตัวในปี 2027 แม้จะรู้ดีว่า timeline แบบนี้มักจะเปลี่ยนได้ตลอด ✅ สถาปัตยกรรม MIMD ของ Pezy SC4s ➡️ ใช้แนวคิด “หลายคำสั่ง หลายข้อมูล” แทน “คำสั่งเดียว หลายข้อมูล” ➡️ เหมาะกับงานที่มี thread อิสระจำนวนมาก เช่น genome alignment หรือ AI inference ➡️ เปรียบเทียบกับสังคมที่แต่ละหน่วยตัดสินใจเอง ไม่ต้องรอศูนย์กลาง ✅ ข้อมูลทางเทคนิคของ SC4s ➡️ ผลิตบน TSMC 5nm ➡️ ขนาด die ประมาณ 556mm² ใหญ่กว่าชิปทั่วไป ➡️ ไม่เน้นลดพื้นที่ แต่เน้นทดสอบประสิทธิภาพจากการขยายขนาด ✅ ผลการจำลองประสิทธิภาพ ➡️ DGEMM: ประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า ➡️ Smith-Waterman: เร็วขึ้นเกือบ 4 เท่า ➡️ ยังไม่มีผลการทดสอบจากชิปจริง ✅ แผนการพัฒนาในอนาคต ➡️ SC5 จะใช้เทคโนโลยี 3nm หรือเล็กกว่า ➡️ ตั้งเป้าเปิดตัวในปี 2027 ➡️ ยังอยู่ในขั้นตอนการออกแบบและจำลอง https://www.techradar.com/pro/security/states-prefectures-cities-and-villages-how-one-tiny-japanese-cpu-maker-is-taking-a-radically-different-route-to-making-processors-with-thousands-of-cores
    0 Comments 0 Shares 186 Views 0 Reviews
  • เรื่องเล่าจากนิวเม็กซิโก: จากจุดเริ่มต้นของระเบิดปรมาณู สู่ศูนย์กลางของควอนตัมแห่งอนาคต

    ย้อนกลับไปในปี 1945 นิวเม็กซิโกคือสถานที่ที่โลกได้เห็นการทดสอบระเบิดปรมาณูครั้งแรก แต่ในปี 2025 รัฐนี้กำลังเขียนประวัติศาสตร์ใหม่ ด้วยการลงทุนกว่า 315 ล้านดอลลาร์เพื่อผลักดันเทคโนโลยีควอนตัมให้กลายเป็นโครงสร้างพื้นฐานระดับชาติ

    ผู้ว่าการรัฐ Michelle Lujan Grisham ประกาศแผนการลงทุนครั้งใหญ่ที่รวมถึงการสร้างเครือข่ายควอนตัม, สนับสนุนบริษัทเอกชน, และตั้ง venture studio เพื่อเร่งการพัฒนาและการค้าเทคโนโลยีควอนตัม โดยมี Roadrunner Venture Studios เป็นหัวหอกในการจับคู่ระหว่างนักวิทยาศาสตร์และผู้ประกอบการ

    เงินทุนนี้มาจากหลายแหล่ง: 185 ล้านจากกองทุนความมั่งคั่งของรัฐ, 60 ล้านจาก DARPA และอีก 60 ล้านจากรัฐเพื่อสนับสนุนโครงการที่มีศักยภาพเชิงพาณิชย์ โดยมีเป้าหมายชัดเจน—ทำให้นิวเม็กซิโกกลายเป็น launchpad สำหรับบริษัทควอนตัมรุ่นใหม่

    โครงการนี้จะสร้าง quantum campus ใน Albuquerque ที่มีทั้ง quantum testbed, dilution refrigerators, rapid prototyping center และ multi-node quantum network ซึ่งจะเชื่อมโยงห้องแล็บและธุรกิจเข้าด้วยกัน

    การลงทุนของรัฐนิวเม็กซิโกในควอนตัม
    รวมมูลค่า 315 ล้านดอลลาร์จากรัฐ, DARPA และกองทุนเอกชน
    185 ล้านจาก sovereign wealth fund เพื่อสนับสนุน VC ที่ลงทุนในบริษัทควอนตัม
    60 ล้านจาก DARPA และรัฐเพื่อคัดกรองโครงการที่มีศักยภาพเชิงพาณิชย์
    25 ล้านสำหรับการจับคู่นักวิทยาศาสตร์กับผู้ประกอบการ

    โครงสร้างพื้นฐานที่กำลังสร้าง
    quantum campus ใน Albuquerque Innovation District
    มี quantum testbed, dilution refrigerators, packaging facility และ rapid prototyping center
    เชื่อมโยงผ่าน multi-node quantum network เพื่อรองรับการทดลองและการค้า

    บทบาทของ Roadrunner Venture Studios
    นำทีมสร้าง venture studio สำหรับควอนตัมโดยเฉพาะ
    เปิดโปรแกรม “Founder-in-Residence” เพื่อดึงผู้ประกอบการระดับประเทศ
    ร่วมมือกับ Sandia, Los Alamos, QuEra, Qunnect, Resonance และมหาวิทยาลัยนิวเม็กซิโก
    ตั้งเป้าให้ Albuquerque เป็น launchpad สำหรับบริษัทควอนตัมระดับโลก

    เป้าหมายเชิงยุทธศาสตร์
    ทำให้นิวเม็กซิโกเป็นศูนย์กลางของการพัฒนาเทคโนโลยีควอนตัมในสหรัฐฯ
    สนับสนุนการเปลี่ยนจาก “ผู้นำด้านวิทยาศาสตร์” สู่ “ผู้นำด้านการใช้งานจริง”
    สร้างงานที่มีรายได้สูงและโอกาสทางเศรษฐกิจระยะยาว

    https://www.thestar.com.my/tech/tech-news/2025/09/02/new-mexico-to-invest-315-million-in-quantum-computing-drive
    🎙️ เรื่องเล่าจากนิวเม็กซิโก: จากจุดเริ่มต้นของระเบิดปรมาณู สู่ศูนย์กลางของควอนตัมแห่งอนาคต ย้อนกลับไปในปี 1945 นิวเม็กซิโกคือสถานที่ที่โลกได้เห็นการทดสอบระเบิดปรมาณูครั้งแรก แต่ในปี 2025 รัฐนี้กำลังเขียนประวัติศาสตร์ใหม่ ด้วยการลงทุนกว่า 315 ล้านดอลลาร์เพื่อผลักดันเทคโนโลยีควอนตัมให้กลายเป็นโครงสร้างพื้นฐานระดับชาติ ผู้ว่าการรัฐ Michelle Lujan Grisham ประกาศแผนการลงทุนครั้งใหญ่ที่รวมถึงการสร้างเครือข่ายควอนตัม, สนับสนุนบริษัทเอกชน, และตั้ง venture studio เพื่อเร่งการพัฒนาและการค้าเทคโนโลยีควอนตัม โดยมี Roadrunner Venture Studios เป็นหัวหอกในการจับคู่ระหว่างนักวิทยาศาสตร์และผู้ประกอบการ เงินทุนนี้มาจากหลายแหล่ง: 185 ล้านจากกองทุนความมั่งคั่งของรัฐ, 60 ล้านจาก DARPA และอีก 60 ล้านจากรัฐเพื่อสนับสนุนโครงการที่มีศักยภาพเชิงพาณิชย์ โดยมีเป้าหมายชัดเจน—ทำให้นิวเม็กซิโกกลายเป็น launchpad สำหรับบริษัทควอนตัมรุ่นใหม่ โครงการนี้จะสร้าง quantum campus ใน Albuquerque ที่มีทั้ง quantum testbed, dilution refrigerators, rapid prototyping center และ multi-node quantum network ซึ่งจะเชื่อมโยงห้องแล็บและธุรกิจเข้าด้วยกัน ✅ การลงทุนของรัฐนิวเม็กซิโกในควอนตัม ➡️ รวมมูลค่า 315 ล้านดอลลาร์จากรัฐ, DARPA และกองทุนเอกชน ➡️ 185 ล้านจาก sovereign wealth fund เพื่อสนับสนุน VC ที่ลงทุนในบริษัทควอนตัม ➡️ 60 ล้านจาก DARPA และรัฐเพื่อคัดกรองโครงการที่มีศักยภาพเชิงพาณิชย์ ➡️ 25 ล้านสำหรับการจับคู่นักวิทยาศาสตร์กับผู้ประกอบการ ✅ โครงสร้างพื้นฐานที่กำลังสร้าง ➡️ quantum campus ใน Albuquerque Innovation District ➡️ มี quantum testbed, dilution refrigerators, packaging facility และ rapid prototyping center ➡️ เชื่อมโยงผ่าน multi-node quantum network เพื่อรองรับการทดลองและการค้า ✅ บทบาทของ Roadrunner Venture Studios ➡️ นำทีมสร้าง venture studio สำหรับควอนตัมโดยเฉพาะ ➡️ เปิดโปรแกรม “Founder-in-Residence” เพื่อดึงผู้ประกอบการระดับประเทศ ➡️ ร่วมมือกับ Sandia, Los Alamos, QuEra, Qunnect, Resonance และมหาวิทยาลัยนิวเม็กซิโก ➡️ ตั้งเป้าให้ Albuquerque เป็น launchpad สำหรับบริษัทควอนตัมระดับโลก ✅ เป้าหมายเชิงยุทธศาสตร์ ➡️ ทำให้นิวเม็กซิโกเป็นศูนย์กลางของการพัฒนาเทคโนโลยีควอนตัมในสหรัฐฯ ➡️ สนับสนุนการเปลี่ยนจาก “ผู้นำด้านวิทยาศาสตร์” สู่ “ผู้นำด้านการใช้งานจริง” ➡️ สร้างงานที่มีรายได้สูงและโอกาสทางเศรษฐกิจระยะยาว https://www.thestar.com.my/tech/tech-news/2025/09/02/new-mexico-to-invest-315-million-in-quantum-computing-drive
    WWW.THESTAR.COM.MY
    New Mexico to invest $315 million in quantum computing drive
    SAN FRANCISCO (Reuters) -New Mexico, site of the world's first atomic bomb tests, on Tuesday plans to invest $315 million in a bid to become a leader in another potentially era-defining technology: quantum computing.
    0 Comments 0 Shares 129 Views 0 Reviews
  • เมื่อ AMD จับมือ IBM สร้างสมองกลแห่งอนาคตที่คิดได้ลึกกว่าเดิม

    ในโลกที่ข้อมูลมหาศาลหลั่งไหลเข้ามาทุกวินาที และ AI ต้องการพลังประมวลผลที่มากขึ้นเรื่อย ๆ การประมวลผลแบบเดิมเริ่มถึงขีดจำกัด IBM และ AMD จึงร่วมมือกันสร้าง “Quantum-Centric Supercomputing” ซึ่งเป็นการรวมพลังของคอมพิวเตอร์ควอนตัมกับระบบ HPC และ AI accelerator เพื่อให้สามารถแก้ปัญหาที่ซับซ้อนระดับโมเลกุลหรือการจำลองธรรมชาติได้อย่างแม่นยำและรวดเร็ว

    IBM มี Quantum System Two ซึ่งเป็นคอมพิวเตอร์ควอนตัมแบบโมดูลาร์ที่สามารถทำงานร่วมกับซูเปอร์คอมพิวเตอร์คลาสสิกอย่าง Fugaku ได้แล้ว และ AMD จะนำ EPYC CPU, Instinct GPU และ FPGA เข้ามาเสริมพลังให้ระบบนี้สามารถประมวลผลแบบไฮบริดได้อย่างเต็มรูปแบบ

    แนวคิดนี้ไม่ใช่แค่การรวมฮาร์ดแวร์ แต่เป็นการสร้างสถาปัตยกรรมใหม่ที่สามารถเลือกใช้เครื่องมือที่เหมาะสมกับแต่ละปัญหา เช่น ใช้ควอนตัมในการจำลองพฤติกรรมของอะตอม และใช้ HPC ในการวิเคราะห์ข้อมูลขนาดใหญ่ ซึ่งจะช่วยให้การค้นพบทางวิทยาศาสตร์ การออกแบบยา และการวางแผนโลจิสติกส์มีความแม่นยำและเร็วขึ้นอย่างที่ไม่เคยเป็นมาก่อน

    https://wccftech.com/amd-to-collaborate-with-ibm-to-develop-quantum-centric-supercomputing/
    🧠 เมื่อ AMD จับมือ IBM สร้างสมองกลแห่งอนาคตที่คิดได้ลึกกว่าเดิม ในโลกที่ข้อมูลมหาศาลหลั่งไหลเข้ามาทุกวินาที และ AI ต้องการพลังประมวลผลที่มากขึ้นเรื่อย ๆ การประมวลผลแบบเดิมเริ่มถึงขีดจำกัด IBM และ AMD จึงร่วมมือกันสร้าง “Quantum-Centric Supercomputing” ซึ่งเป็นการรวมพลังของคอมพิวเตอร์ควอนตัมกับระบบ HPC และ AI accelerator เพื่อให้สามารถแก้ปัญหาที่ซับซ้อนระดับโมเลกุลหรือการจำลองธรรมชาติได้อย่างแม่นยำและรวดเร็ว IBM มี Quantum System Two ซึ่งเป็นคอมพิวเตอร์ควอนตัมแบบโมดูลาร์ที่สามารถทำงานร่วมกับซูเปอร์คอมพิวเตอร์คลาสสิกอย่าง Fugaku ได้แล้ว และ AMD จะนำ EPYC CPU, Instinct GPU และ FPGA เข้ามาเสริมพลังให้ระบบนี้สามารถประมวลผลแบบไฮบริดได้อย่างเต็มรูปแบบ แนวคิดนี้ไม่ใช่แค่การรวมฮาร์ดแวร์ แต่เป็นการสร้างสถาปัตยกรรมใหม่ที่สามารถเลือกใช้เครื่องมือที่เหมาะสมกับแต่ละปัญหา เช่น ใช้ควอนตัมในการจำลองพฤติกรรมของอะตอม และใช้ HPC ในการวิเคราะห์ข้อมูลขนาดใหญ่ ซึ่งจะช่วยให้การค้นพบทางวิทยาศาสตร์ การออกแบบยา และการวางแผนโลจิสติกส์มีความแม่นยำและเร็วขึ้นอย่างที่ไม่เคยเป็นมาก่อน https://wccftech.com/amd-to-collaborate-with-ibm-to-develop-quantum-centric-supercomputing/
    WCCFTECH.COM
    AMD To Collaborate With IBM To Develop 'Quantum-Centric' Supercomputing, Opening The Gateway To a New Computational Era
    AMD is expected to enter the realm of quantum computing with IBM, with plans to develop next-gen HPC machines.
    0 Comments 0 Shares 156 Views 0 Reviews
  • Clearwater Forest — ซีพียูที่ Intel หวังใช้พลิกเกมในยุคเซิร์ฟเวอร์หลายร้อยคอร์

    ในงาน Hot Chips 2025 Intel ได้เปิดตัว “Clearwater Forest” ซึ่งเป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core (Efficiency Core) จำนวนสูงสุดถึง 288 คอร์ต่อซ็อกเก็ต โดยใช้สถาปัตยกรรมใหม่ชื่อ “Darkmont” ที่ออกแบบมาเพื่อรองรับงานที่ต้องการการประมวลผลแบบขนานจำนวนมาก เช่น cloud-native, edge computing และ AI inference

    Clearwater Forest ถูกสร้างขึ้นด้วยเทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการที่ใช้ backside power delivery และ gate-all-around transistor เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน โดยมีการจัดวางแบบ 3D chiplet ด้วยเทคโนโลยี Foveros Direct และ EMIB ที่ช่วยให้สามารถเชื่อมต่อชิ้นส่วนต่างๆ ได้อย่างแน่นหนาและมีประสิทธิภาพ

    ในแพ็กเกจขนาดใหญ่ของซีพียูนี้ ประกอบด้วย 12 compute chiplets บน Intel 18A, 3 base tiles บน Intel 3 และ 2 I/O tiles บน Intel 7 โดยแต่ละกลุ่มคอร์ 4 คอร์จะใช้ L2 cache ขนาด 4MB และเชื่อมต่อกันด้วย fabric ความเร็วสูง ส่วน last-level cache รวมกันมากกว่า 1,152MB

    Intel ยืนยันว่า Clearwater Forest จะสามารถใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ โดยรองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่องต่อซ็อกเก็ต และสามารถใช้งานแบบสองซ็อกเก็ตรวมกันได้ถึง 576 คอร์

    สรุปเนื้อหาเป็นหัวข้อ
    Clearwater Forest เป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core สูงสุด 288 คอร์ต่อซ็อกเก็ต
    ใช้สถาปัตยกรรม “Darkmont” ที่มี front-end กว้างขึ้นและ out-of-order engine ที่ลึกขึ้น
    ใช้เทคโนโลยีการผลิต Intel 18A พร้อม backside power และ gate-all-around
    จัดวางแบบ 3D chiplet ด้วย Foveros Direct และ EMIB
    ประกอบด้วย 12 compute chiplets (18A), 3 base tiles (Intel 3), และ 2 I/O tiles (Intel 7)
    มี L2 cache ขนาด 4MB ต่อกลุ่ม 4 คอร์ และ last-level cache รวมกว่า 1,152MB
    รองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่อง
    ใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้
    รองรับการใช้งานแบบสองซ็อกเก็ต รวมได้ถึง 576 คอร์
    เหมาะสำหรับงาน cloud-native, edge computing และ AI inference

    ข้อมูลเสริมจากภายนอก
    Darkmont เป็นรุ่นต่อยอดจาก Crestmont และ Sierra Glen โดยเพิ่ม execution port และ bandwidth
    Intel 18A เป็นกระบวนการที่เน้นประสิทธิภาพพลังงานและความหนาแน่นของทรานซิสเตอร์
    Foveros Direct ช่วยให้การเชื่อมต่อระหว่าง chiplet มี latency ต่ำและประหยัดพลังงาน
    EMIB เป็นเทคโนโลยี interconnect ที่ใช้เชื่อม die ต่างชนิดกันในแพ็กเกจเดียว
    การใช้ E-core ล้วนช่วยลดการใช้พลังงานและเพิ่มจำนวนคอร์ในพื้นที่จำกัด
    Clearwater Forest เป็นส่วนหนึ่งของยุทธศาสตร์ Xeon 6 ที่แบ่งเป็น P-core (Diamond Rapids) และ E-core (Clearwater Forest)

    https://www.techpowerup.com/340299/intel-details-clearwater-forest-xeon-with-288-e-cores-on-18a-process
    🎙️ Clearwater Forest — ซีพียูที่ Intel หวังใช้พลิกเกมในยุคเซิร์ฟเวอร์หลายร้อยคอร์ ในงาน Hot Chips 2025 Intel ได้เปิดตัว “Clearwater Forest” ซึ่งเป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core (Efficiency Core) จำนวนสูงสุดถึง 288 คอร์ต่อซ็อกเก็ต โดยใช้สถาปัตยกรรมใหม่ชื่อ “Darkmont” ที่ออกแบบมาเพื่อรองรับงานที่ต้องการการประมวลผลแบบขนานจำนวนมาก เช่น cloud-native, edge computing และ AI inference Clearwater Forest ถูกสร้างขึ้นด้วยเทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการที่ใช้ backside power delivery และ gate-all-around transistor เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน โดยมีการจัดวางแบบ 3D chiplet ด้วยเทคโนโลยี Foveros Direct และ EMIB ที่ช่วยให้สามารถเชื่อมต่อชิ้นส่วนต่างๆ ได้อย่างแน่นหนาและมีประสิทธิภาพ ในแพ็กเกจขนาดใหญ่ของซีพียูนี้ ประกอบด้วย 12 compute chiplets บน Intel 18A, 3 base tiles บน Intel 3 และ 2 I/O tiles บน Intel 7 โดยแต่ละกลุ่มคอร์ 4 คอร์จะใช้ L2 cache ขนาด 4MB และเชื่อมต่อกันด้วย fabric ความเร็วสูง ส่วน last-level cache รวมกันมากกว่า 1,152MB Intel ยืนยันว่า Clearwater Forest จะสามารถใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ โดยรองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่องต่อซ็อกเก็ต และสามารถใช้งานแบบสองซ็อกเก็ตรวมกันได้ถึง 576 คอร์ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Clearwater Forest เป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core สูงสุด 288 คอร์ต่อซ็อกเก็ต ➡️ ใช้สถาปัตยกรรม “Darkmont” ที่มี front-end กว้างขึ้นและ out-of-order engine ที่ลึกขึ้น ➡️ ใช้เทคโนโลยีการผลิต Intel 18A พร้อม backside power และ gate-all-around ➡️ จัดวางแบบ 3D chiplet ด้วย Foveros Direct และ EMIB ➡️ ประกอบด้วย 12 compute chiplets (18A), 3 base tiles (Intel 3), และ 2 I/O tiles (Intel 7) ➡️ มี L2 cache ขนาด 4MB ต่อกลุ่ม 4 คอร์ และ last-level cache รวมกว่า 1,152MB ➡️ รองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่อง ➡️ ใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ ➡️ รองรับการใช้งานแบบสองซ็อกเก็ต รวมได้ถึง 576 คอร์ ➡️ เหมาะสำหรับงาน cloud-native, edge computing และ AI inference ✅ ข้อมูลเสริมจากภายนอก ➡️ Darkmont เป็นรุ่นต่อยอดจาก Crestmont และ Sierra Glen โดยเพิ่ม execution port และ bandwidth ➡️ Intel 18A เป็นกระบวนการที่เน้นประสิทธิภาพพลังงานและความหนาแน่นของทรานซิสเตอร์ ➡️ Foveros Direct ช่วยให้การเชื่อมต่อระหว่าง chiplet มี latency ต่ำและประหยัดพลังงาน ➡️ EMIB เป็นเทคโนโลยี interconnect ที่ใช้เชื่อม die ต่างชนิดกันในแพ็กเกจเดียว ➡️ การใช้ E-core ล้วนช่วยลดการใช้พลังงานและเพิ่มจำนวนคอร์ในพื้นที่จำกัด ➡️ Clearwater Forest เป็นส่วนหนึ่งของยุทธศาสตร์ Xeon 6 ที่แบ่งเป็น P-core (Diamond Rapids) และ E-core (Clearwater Forest) https://www.techpowerup.com/340299/intel-details-clearwater-forest-xeon-with-288-e-cores-on-18a-process
    WWW.TECHPOWERUP.COM
    Intel Details "Clearwater Forest" Xeon with 288 E-Cores on 18A Process
    Intel used Hot Chips to pull back the curtain on "Clearwater Forest", its next-generation E-core Xeon. The company has paired major architectural upgrades with its newest 18A process and advanced 3D Foveros packaging paired with EMIB. The chip replaces "Sierra Forest" and is built around the new "Da...
    0 Comments 0 Shares 172 Views 0 Reviews
  • Lisuan G100 – การ์ดจอเกมจากจีนที่กลายเป็นเครื่องมือ AI อย่างไม่คาดคิด

    ในอดีต GPU จากจีนมักถูกมองว่าเป็นของเล่นที่ยังไม่พร้อมแข่งกับแบรนด์ระดับโลกอย่าง NVIDIA หรือ AMD แต่วันนี้ Lisuan G100 ได้เปลี่ยนภาพนั้นไปอย่างสิ้นเชิง

    Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology โดยใช้สถาปัตยกรรมที่เรียกว่า “TrueGPU Tiantu” ซึ่งเป็นการออกแบบภายในทั้งหมด ไม่พึ่งพา IP จากต่างประเทศ และมีซอฟต์แวร์ของตัวเองที่รองรับ DirectX 12, Vulkan 1.3 และ OpenCL 3.0

    ในด้านเกม G100 ทำคะแนน Geekbench OpenCL ได้ถึง 111,290 คะแนน ซึ่งใกล้เคียงกับ RTX 4060 และเหนือกว่า RX 9060 XT และ Intel Arc A770 โดยมี 48 Compute Units, VRAM 12GB และความเร็วสัญญาณนาฬิกา 2000 MHz

    แต่สิ่งที่ทำให้ G100 น่าสนใจยิ่งกว่าคือการรองรับ INT8 operations ซึ่งเป็นฟีเจอร์สำคัญสำหรับงาน AI โดยเฉพาะการ inferencing และ edge computing ทำให้ G100 ไม่ใช่แค่การ์ดจอเกม แต่เป็นเครื่องมือสำหรับงาน AI ระดับผู้ใช้ทั่วไป

    Lisuan ยังมีแผนพัฒนาอัลกอริธึม upscaling ของตัวเองชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ซึ่งเป็นสิ่งจำเป็นในตลาดเกมยุคใหม่ และมีแนวโน้มจะเข้าสู่ตลาด accelerator สำหรับงาน AI หากการเปิดตัว G100 ประสบความสำเร็จ

    สรุปเนื้อหาเป็นหัวข้อ
    Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology
    ใช้สถาปัตยกรรม TrueGPU Tiantu และซอฟต์แวร์ของตัวเอง
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 และ OpenCL 3.0
    ทำคะแนน Geekbench OpenCL ได้ 111,290 ใกล้เคียง RTX 4060
    มี 48 Compute Units, VRAM 12GB และความเร็ว 2000 MHz
    รองรับ INT8 operations สำหรับงาน AI inferencing และ edge computing
    เป็น GPU จีนรุ่นแรกที่รองรับ INT8 อย่างเป็นทางการ
    มีแผนพัฒนาอัลกอริธึม upscaling ชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR
    อาจเข้าสู่ตลาด accelerator หาก G100 เปิดตัวได้สำเร็จ
    การผลิตจำนวนมากเริ่มแล้ว และคาดว่าจะวางขายปลายปี 2025

    ข้อมูลเสริมจากภายนอก
    INT8 เป็นรูปแบบการคำนวณที่ใช้ในงาน AI inferencing เพื่อประหยัดพลังงานและเพิ่มความเร็ว
    GPU ที่รองรับ INT8 มักใช้ใน edge devices เช่นกล้องอัจฉริยะหรือหุ่นยนต์
    การพัฒนา GPU ภายในประเทศช่วยลดการพึ่งพาเทคโนโลยีต่างชาติ
    สถาปัตยกรรม TrueGPU อาจเป็นก้าวแรกของจีนในการสร้าง GPU แบบ fully independent
    การรองรับ OpenCL 3.0 ช่วยให้สามารถใช้งานกับซอฟต์แวร์ AI ได้หลากหลาย
    การแข่งขันกับ RTX 4060 แสดงถึงความก้าวหน้าของอุตสาหกรรม GPU ในจีน

    https://wccftech.com/chinas-most-capable-gaming-gpu-the-lisuan-g100-becomes-the-first-domestic-offering-to-support-fp8-operations/
    🎙️ Lisuan G100 – การ์ดจอเกมจากจีนที่กลายเป็นเครื่องมือ AI อย่างไม่คาดคิด ในอดีต GPU จากจีนมักถูกมองว่าเป็นของเล่นที่ยังไม่พร้อมแข่งกับแบรนด์ระดับโลกอย่าง NVIDIA หรือ AMD แต่วันนี้ Lisuan G100 ได้เปลี่ยนภาพนั้นไปอย่างสิ้นเชิง Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology โดยใช้สถาปัตยกรรมที่เรียกว่า “TrueGPU Tiantu” ซึ่งเป็นการออกแบบภายในทั้งหมด ไม่พึ่งพา IP จากต่างประเทศ และมีซอฟต์แวร์ของตัวเองที่รองรับ DirectX 12, Vulkan 1.3 และ OpenCL 3.0 ในด้านเกม G100 ทำคะแนน Geekbench OpenCL ได้ถึง 111,290 คะแนน ซึ่งใกล้เคียงกับ RTX 4060 และเหนือกว่า RX 9060 XT และ Intel Arc A770 โดยมี 48 Compute Units, VRAM 12GB และความเร็วสัญญาณนาฬิกา 2000 MHz แต่สิ่งที่ทำให้ G100 น่าสนใจยิ่งกว่าคือการรองรับ INT8 operations ซึ่งเป็นฟีเจอร์สำคัญสำหรับงาน AI โดยเฉพาะการ inferencing และ edge computing ทำให้ G100 ไม่ใช่แค่การ์ดจอเกม แต่เป็นเครื่องมือสำหรับงาน AI ระดับผู้ใช้ทั่วไป Lisuan ยังมีแผนพัฒนาอัลกอริธึม upscaling ของตัวเองชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ซึ่งเป็นสิ่งจำเป็นในตลาดเกมยุคใหม่ และมีแนวโน้มจะเข้าสู่ตลาด accelerator สำหรับงาน AI หากการเปิดตัว G100 ประสบความสำเร็จ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Lisuan G100 เป็น GPU ขนาด 6nm ที่พัฒนาโดยบริษัทจีน Lisuan Technology ➡️ ใช้สถาปัตยกรรม TrueGPU Tiantu และซอฟต์แวร์ของตัวเอง ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 และ OpenCL 3.0 ➡️ ทำคะแนน Geekbench OpenCL ได้ 111,290 ใกล้เคียง RTX 4060 ➡️ มี 48 Compute Units, VRAM 12GB และความเร็ว 2000 MHz ➡️ รองรับ INT8 operations สำหรับงาน AI inferencing และ edge computing ➡️ เป็น GPU จีนรุ่นแรกที่รองรับ INT8 อย่างเป็นทางการ ➡️ มีแผนพัฒนาอัลกอริธึม upscaling ชื่อ NRSS เพื่อแข่งกับ DLSS และ FSR ➡️ อาจเข้าสู่ตลาด accelerator หาก G100 เปิดตัวได้สำเร็จ ➡️ การผลิตจำนวนมากเริ่มแล้ว และคาดว่าจะวางขายปลายปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ INT8 เป็นรูปแบบการคำนวณที่ใช้ในงาน AI inferencing เพื่อประหยัดพลังงานและเพิ่มความเร็ว ➡️ GPU ที่รองรับ INT8 มักใช้ใน edge devices เช่นกล้องอัจฉริยะหรือหุ่นยนต์ ➡️ การพัฒนา GPU ภายในประเทศช่วยลดการพึ่งพาเทคโนโลยีต่างชาติ ➡️ สถาปัตยกรรม TrueGPU อาจเป็นก้าวแรกของจีนในการสร้าง GPU แบบ fully independent ➡️ การรองรับ OpenCL 3.0 ช่วยให้สามารถใช้งานกับซอฟต์แวร์ AI ได้หลากหลาย ➡️ การแข่งขันกับ RTX 4060 แสดงถึงความก้าวหน้าของอุตสาหกรรม GPU ในจีน https://wccftech.com/chinas-most-capable-gaming-gpu-the-lisuan-g100-becomes-the-first-domestic-offering-to-support-fp8-operations/
    WCCFTECH.COM
    China's Most Capable Gaming GPU, the Lisuan G100, Now Also Supports INT8 Operations, Becoming Ideal For AI Workloads
    The Chinese GPU Lisuan G100, which recently made headlines for its competitive performance, is now claimed to support INT8 operations.
    0 Comments 0 Shares 209 Views 0 Reviews
  • Jetson AGX Thor – mini PC ที่แรงเกินตัวสำหรับยุค AI

    ถ้าคุณเห็นเจ้าเครื่องเล็ก ๆ นี้วางอยู่บนโต๊ะ คุณอาจคิดว่ามันคือการ์ดจอ RTX รุ่นใหม่ แต่จริง ๆ แล้วมันคือ Jetson AGX Thor — mini PC ที่ Nvidia ออกแบบมาเพื่อรองรับงาน AI ระดับสูงในรูปแบบ edge computing โดยเฉพาะ

    หัวใจของมันคือ Jetson T5000 system-on-module ที่ใช้ GPU สถาปัตยกรรม Blackwell พร้อม 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ให้พลังประมวลผลสูงถึง 2070 TFLOPS (FP4, Sparse) ซึ่งเทียบเท่ากับระบบ data center ขนาดใหญ่

    นอกจาก GPU ยังมี CPU แบบ 14-core Arm Neoverse-V3AE และแรม LPDDR5X ขนาด 128GB พร้อมระบบเชื่อมต่อระดับสูง เช่น 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB และพอร์ต HDMI/DisplayPort สำหรับงานวิดีโอ 4K และ 8K แบบหลายสตรีม

    แม้จะมีขนาดเพียง 24 x 11 x 5.6 ซม. แต่ Jetson AGX Thor ถูกออกแบบมาเพื่อใช้งานในหุ่นยนต์, ระบบ AI ด้านภาพ, และการประมวลผลเซนเซอร์จำนวนมาก โดยรองรับซอฟต์แวร์จากแพลตฟอร์ม Isaac, Metropolis และ Holoscan ของ Nvidia

    สำหรับผู้ที่ต้องการรุ่นเล็กลง ยังมี Jetson T4000 ที่อยู่ระหว่างการพัฒนา ซึ่งให้พลัง 1200 TFLOPS และใช้ GPU 1536 คอร์ พร้อมแรม 64GB — เหมาะสำหรับงานที่ต้องการประสิทธิภาพแต่มีข้อจำกัดด้านพลังงาน

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia เปิดตัว Jetson AGX Thor Developer Kit พร้อมโมดูล Jetson T5000
    ใช้ GPU Blackwell 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว
    ให้พลังประมวลผลสูงสุด 2070 TFLOPS (FP4, Sparse)
    มี CPU Arm Neoverse-V3AE 14 คอร์ และแรม LPDDR5X ขนาด 128GB
    รองรับการเชื่อมต่อ 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB
    รองรับวิดีโอ 4K และ 8K แบบหลายสตรีมพร้อมพอร์ต HDMI 2.0b และ DisplayPort 1.4a
    ขนาดเครื่อง 243.19 x 112.4 x 56.88 มม. ใหญ่กว่าพีซีธุรกิจทั่วไปแต่ยังถือว่าเล็ก
    รองรับซอฟต์แวร์ Isaac, Metropolis และ Holoscan สำหรับงาน AI
    มีรุ่นเล็ก Jetson T4000 อยู่ระหว่างพัฒนา ให้พลัง 1200 TFLOPS และแรม 64GB
    เปิดให้พรีออเดอร์แล้วในราคา $3,499 โดยจะเริ่มส่งมอบวันที่ 20 พฤศจิกายน 2025

    ข้อมูลเสริมจากภายนอก
    สถาปัตยกรรม Blackwell ถูกออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ
    Jetson AGX Thor ใช้เทคโนโลยี Multi-Instance GPU เพื่อแบ่งงานได้หลายส่วนพร้อมกัน
    Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยออกแบบชิประดับนี้
    การใช้ LPDDR5X ช่วยลด latency และเพิ่ม bandwidth สำหรับงาน AI
    Jetson AGX Thor เหมาะกับงาน edge robotics, autonomous systems และการประมวลผลภาพทางการแพทย์
    Nvidia วางตำแหน่ง Thor ไว้คู่กับ DGX Spark สำหรับงาน AI แบบ desktop และ edge

    https://www.techradar.com/pro/nvidia-quietly-unveiled-its-fastest-mini-pc-ever-capable-of-topping-2070-tflops-and-if-you-squint-enough-you-might-even-think-it-looks-like-an-rtx-5090
    🎙️ Jetson AGX Thor – mini PC ที่แรงเกินตัวสำหรับยุค AI ถ้าคุณเห็นเจ้าเครื่องเล็ก ๆ นี้วางอยู่บนโต๊ะ คุณอาจคิดว่ามันคือการ์ดจอ RTX รุ่นใหม่ แต่จริง ๆ แล้วมันคือ Jetson AGX Thor — mini PC ที่ Nvidia ออกแบบมาเพื่อรองรับงาน AI ระดับสูงในรูปแบบ edge computing โดยเฉพาะ หัวใจของมันคือ Jetson T5000 system-on-module ที่ใช้ GPU สถาปัตยกรรม Blackwell พร้อม 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ให้พลังประมวลผลสูงถึง 2070 TFLOPS (FP4, Sparse) ซึ่งเทียบเท่ากับระบบ data center ขนาดใหญ่ นอกจาก GPU ยังมี CPU แบบ 14-core Arm Neoverse-V3AE และแรม LPDDR5X ขนาด 128GB พร้อมระบบเชื่อมต่อระดับสูง เช่น 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB และพอร์ต HDMI/DisplayPort สำหรับงานวิดีโอ 4K และ 8K แบบหลายสตรีม แม้จะมีขนาดเพียง 24 x 11 x 5.6 ซม. แต่ Jetson AGX Thor ถูกออกแบบมาเพื่อใช้งานในหุ่นยนต์, ระบบ AI ด้านภาพ, และการประมวลผลเซนเซอร์จำนวนมาก โดยรองรับซอฟต์แวร์จากแพลตฟอร์ม Isaac, Metropolis และ Holoscan ของ Nvidia สำหรับผู้ที่ต้องการรุ่นเล็กลง ยังมี Jetson T4000 ที่อยู่ระหว่างการพัฒนา ซึ่งให้พลัง 1200 TFLOPS และใช้ GPU 1536 คอร์ พร้อมแรม 64GB — เหมาะสำหรับงานที่ต้องการประสิทธิภาพแต่มีข้อจำกัดด้านพลังงาน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia เปิดตัว Jetson AGX Thor Developer Kit พร้อมโมดูล Jetson T5000 ➡️ ใช้ GPU Blackwell 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ➡️ ให้พลังประมวลผลสูงสุด 2070 TFLOPS (FP4, Sparse) ➡️ มี CPU Arm Neoverse-V3AE 14 คอร์ และแรม LPDDR5X ขนาด 128GB ➡️ รองรับการเชื่อมต่อ 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB ➡️ รองรับวิดีโอ 4K และ 8K แบบหลายสตรีมพร้อมพอร์ต HDMI 2.0b และ DisplayPort 1.4a ➡️ ขนาดเครื่อง 243.19 x 112.4 x 56.88 มม. ใหญ่กว่าพีซีธุรกิจทั่วไปแต่ยังถือว่าเล็ก ➡️ รองรับซอฟต์แวร์ Isaac, Metropolis และ Holoscan สำหรับงาน AI ➡️ มีรุ่นเล็ก Jetson T4000 อยู่ระหว่างพัฒนา ให้พลัง 1200 TFLOPS และแรม 64GB ➡️ เปิดให้พรีออเดอร์แล้วในราคา $3,499 โดยจะเริ่มส่งมอบวันที่ 20 พฤศจิกายน 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ สถาปัตยกรรม Blackwell ถูกออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ ➡️ Jetson AGX Thor ใช้เทคโนโลยี Multi-Instance GPU เพื่อแบ่งงานได้หลายส่วนพร้อมกัน ➡️ Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยออกแบบชิประดับนี้ ➡️ การใช้ LPDDR5X ช่วยลด latency และเพิ่ม bandwidth สำหรับงาน AI ➡️ Jetson AGX Thor เหมาะกับงาน edge robotics, autonomous systems และการประมวลผลภาพทางการแพทย์ ➡️ Nvidia วางตำแหน่ง Thor ไว้คู่กับ DGX Spark สำหรับงาน AI แบบ desktop และ edge https://www.techradar.com/pro/nvidia-quietly-unveiled-its-fastest-mini-pc-ever-capable-of-topping-2070-tflops-and-if-you-squint-enough-you-might-even-think-it-looks-like-an-rtx-5090
    0 Comments 0 Shares 212 Views 0 Reviews
  • เมื่อแฟลชเมมโมรีกลายเป็นหน่วยความจำใกล้ GPU – ก้าวใหม่ของ Kioxia สู่ยุค AI

    ลองจินตนาการว่า SSD ที่คุณรู้จักไม่ใช่แค่ที่เก็บข้อมูลอีกต่อไป แต่กลายเป็นหน่วยความจำที่อยู่ใกล้ GPU มากพอที่จะช่วยประมวลผลโมเดล AI ขนาดมหึมาได้แบบทันทีทันใด นั่นคือสิ่งที่ Kioxia กำลังทำอยู่กับโมดูลต้นแบบ High Bandwidth Flash (HBF) ขนาด 5TB ที่มีแบนด์วิดธ์สูงถึง 64 GB/s

    ต่างจาก HBM (High Bandwidth Memory) ที่ใช้ DRAM เป็นหลัก HBF ใช้ NAND flash ซึ่งมีความจุมากกว่า 8–16 เท่า และยังคงข้อมูลได้ถาวร ทำให้เหมาะกับงาน AI ที่ต้องเข้าถึงข้อมูลขนาดใหญ่แบบต่อเนื่อง โดยใช้พลังงานน้อยลง

    โมดูลนี้เชื่อมต่อผ่าน PCIe 6.0 ซึ่งมีแบนด์วิดธ์รวมถึง 128 GB/s แบบ bidirectional โดยใช้เทคนิค PAM4 เพื่อเพิ่มความเร็วการส่งข้อมูล และลดปัญหาการรบกวนสัญญาณด้วยการจัดวาง controller แบบ daisy-chain ข้าง NAND โดยตรง

    แม้จะมีข้อจำกัดเรื่อง latency เพราะ NAND ยังช้ากว่า DRAM หลายเท่า แต่ Kioxia ใช้เทคนิค prefetching และ caching เพื่อให้การเข้าถึงข้อมูลต่อเนื่องเร็วขึ้นพอสำหรับงาน AI อย่างการวิเคราะห์กราฟขนาดใหญ่หรือ checkpoint โมเดล

    ที่น่าสนใจคือ โมดูลนี้ใช้พลังงานต่ำกว่า 40W ซึ่งมีประสิทธิภาพต่อวัตต์สูงกว่าระบบ SSD แบบเดิมมาก และสามารถขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม ทำให้สามารถสร้างระบบที่มี 80TB และแบนด์วิดธ์รวมกว่า 1TB/s ได้ในอนาคต

    นี่ไม่ใช่แค่การทดลอง แต่เป็นส่วนหนึ่งของโครงการวิจัยระดับชาติของญี่ปุ่น (NEDO) เพื่อรองรับยุค post-5G/6G และการประมวลผล AI ที่ขยายตัวอย่างรวดเร็วใน MEC (Mobile Edge Computing)

    สรุปเนื้อหาเป็นหัวข้อ
    Kioxia เปิดตัวโมดูลแฟลช HBF ขนาด 5TB ความเร็ว 64 GB/s
    ใช้ NAND flash แทน DRAM เพื่อเพิ่มความจุ 8–16 เท่า
    เชื่อมต่อผ่าน PCIe 6.0 พร้อม PAM4 signaling ความเร็ว 128 Gbps ต่อ link
    ใช้ controller แบบ daisy-chain ลดปัญหาคอขวดและสัญญาณรบกวน
    latency สูงกว่า DRAM แต่แก้ด้วย prefetching และ caching
    ใช้พลังงานต่ำกว่า 40W ต่อโมดูล มีประสิทธิภาพต่อวัตต์สูง
    ขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม
    รองรับการใช้งานใน MEC, AI checkpoint, Big Data และ IoT
    เป็นส่วนหนึ่งของโครงการวิจัย NEDO เพื่อรองรับ post-5G/6G
    โมดูลยังอยู่ในขั้นต้นแบบ แต่มี roadmap สำหรับการใช้งานจริงในอนาคต

    ข้อมูลเสริมจากภายนอก
    PCIe 6.0 มีแบนด์วิดธ์รวม 128 GB/s bidirectional บน x16 lanes
    PAM4 เพิ่มความเร็วต่อสัญญาณแต่ไวต่อ noise ต้องใช้ error correction
    HBM2E มี throughput ต่อ stack ประมาณ 1024 GB/s แต่ใช้ DRAM
    MEC servers ช่วยลด latency โดยประมวลผลใกล้ผู้ใช้มากขึ้น
    Kioxia มีแผนขยายโรงงานในญี่ปุ่นเพื่อรองรับความต้องการ flash ที่เพิ่มขึ้น
    โมดูลนี้อาจกลายเป็น “near-memory” ที่อยู่ใกล้ GPU มากกว่าที่เคย

    https://www.tomshardware.com/pc-components/gpus/kioxias-new-5tb-64-gb-s-flash-module-puts-nand-toward-the-memory-bus-for-ai-gpus-hbf-prototype-adopts-familiar-ssd-form-factor
    🎙️ เมื่อแฟลชเมมโมรีกลายเป็นหน่วยความจำใกล้ GPU – ก้าวใหม่ของ Kioxia สู่ยุค AI ลองจินตนาการว่า SSD ที่คุณรู้จักไม่ใช่แค่ที่เก็บข้อมูลอีกต่อไป แต่กลายเป็นหน่วยความจำที่อยู่ใกล้ GPU มากพอที่จะช่วยประมวลผลโมเดล AI ขนาดมหึมาได้แบบทันทีทันใด นั่นคือสิ่งที่ Kioxia กำลังทำอยู่กับโมดูลต้นแบบ High Bandwidth Flash (HBF) ขนาด 5TB ที่มีแบนด์วิดธ์สูงถึง 64 GB/s ต่างจาก HBM (High Bandwidth Memory) ที่ใช้ DRAM เป็นหลัก HBF ใช้ NAND flash ซึ่งมีความจุมากกว่า 8–16 เท่า และยังคงข้อมูลได้ถาวร ทำให้เหมาะกับงาน AI ที่ต้องเข้าถึงข้อมูลขนาดใหญ่แบบต่อเนื่อง โดยใช้พลังงานน้อยลง โมดูลนี้เชื่อมต่อผ่าน PCIe 6.0 ซึ่งมีแบนด์วิดธ์รวมถึง 128 GB/s แบบ bidirectional โดยใช้เทคนิค PAM4 เพื่อเพิ่มความเร็วการส่งข้อมูล และลดปัญหาการรบกวนสัญญาณด้วยการจัดวาง controller แบบ daisy-chain ข้าง NAND โดยตรง แม้จะมีข้อจำกัดเรื่อง latency เพราะ NAND ยังช้ากว่า DRAM หลายเท่า แต่ Kioxia ใช้เทคนิค prefetching และ caching เพื่อให้การเข้าถึงข้อมูลต่อเนื่องเร็วขึ้นพอสำหรับงาน AI อย่างการวิเคราะห์กราฟขนาดใหญ่หรือ checkpoint โมเดล ที่น่าสนใจคือ โมดูลนี้ใช้พลังงานต่ำกว่า 40W ซึ่งมีประสิทธิภาพต่อวัตต์สูงกว่าระบบ SSD แบบเดิมมาก และสามารถขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม ทำให้สามารถสร้างระบบที่มี 80TB และแบนด์วิดธ์รวมกว่า 1TB/s ได้ในอนาคต นี่ไม่ใช่แค่การทดลอง แต่เป็นส่วนหนึ่งของโครงการวิจัยระดับชาติของญี่ปุ่น (NEDO) เพื่อรองรับยุค post-5G/6G และการประมวลผล AI ที่ขยายตัวอย่างรวดเร็วใน MEC (Mobile Edge Computing) 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Kioxia เปิดตัวโมดูลแฟลช HBF ขนาด 5TB ความเร็ว 64 GB/s ➡️ ใช้ NAND flash แทน DRAM เพื่อเพิ่มความจุ 8–16 เท่า ➡️ เชื่อมต่อผ่าน PCIe 6.0 พร้อม PAM4 signaling ความเร็ว 128 Gbps ต่อ link ➡️ ใช้ controller แบบ daisy-chain ลดปัญหาคอขวดและสัญญาณรบกวน ➡️ latency สูงกว่า DRAM แต่แก้ด้วย prefetching และ caching ➡️ ใช้พลังงานต่ำกว่า 40W ต่อโมดูล มีประสิทธิภาพต่อวัตต์สูง ➡️ ขยายระบบได้แบบ linear โดยไม่กินแบนด์วิดธ์เพิ่ม ➡️ รองรับการใช้งานใน MEC, AI checkpoint, Big Data และ IoT ➡️ เป็นส่วนหนึ่งของโครงการวิจัย NEDO เพื่อรองรับ post-5G/6G ➡️ โมดูลยังอยู่ในขั้นต้นแบบ แต่มี roadmap สำหรับการใช้งานจริงในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe 6.0 มีแบนด์วิดธ์รวม 128 GB/s bidirectional บน x16 lanes ➡️ PAM4 เพิ่มความเร็วต่อสัญญาณแต่ไวต่อ noise ต้องใช้ error correction ➡️ HBM2E มี throughput ต่อ stack ประมาณ 1024 GB/s แต่ใช้ DRAM ➡️ MEC servers ช่วยลด latency โดยประมวลผลใกล้ผู้ใช้มากขึ้น ➡️ Kioxia มีแผนขยายโรงงานในญี่ปุ่นเพื่อรองรับความต้องการ flash ที่เพิ่มขึ้น ➡️ โมดูลนี้อาจกลายเป็น “near-memory” ที่อยู่ใกล้ GPU มากกว่าที่เคย https://www.tomshardware.com/pc-components/gpus/kioxias-new-5tb-64-gb-s-flash-module-puts-nand-toward-the-memory-bus-for-ai-gpus-hbf-prototype-adopts-familiar-ssd-form-factor
    0 Comments 0 Shares 171 Views 0 Reviews
  • 23 นาที 15 วินาที – ความจริงหรือแค่ตัวเลขที่เล่าต่อกันมา?

    คุณอาจเคยได้ยินว่า “หลังจากถูกขัดจังหวะ จะใช้เวลา 23 นาที 15 วินาทีในการกลับเข้าสู่โฟกัส” ฟังดูเฉพาะเจาะจงและน่ากลัวใช่ไหม? Geoffrey Oberien ก็คิดแบบนั้น เขาแค่ต้องการอ้างอิงตัวเลขนี้ให้เพื่อนร่วมงาน แต่กลับกลายเป็นการผจญภัย 20 นาทีที่เต็มไปด้วยความสงสัย

    เขาค้นหางานวิจัยต้นฉบับที่ระบุตัวเลขนี้ และพบว่าหลายบทความอ้างถึงงานวิจัยชื่อ “The Cost of Interrupted Work: More Speed and Stress” โดย Gloria Mark แต่เมื่อเปิดอ่านจริง ๆ กลับไม่พบตัวเลข 23 นาที 15 วินาทีเลย

    งานวิจัยนั้นพูดถึงผลกระทบของการขัดจังหวะ เช่น ความเครียดที่เพิ่มขึ้น และเวลาที่ใช้ในงานหลักที่ลดลง แต่ไม่ได้พูดถึง “เวลาฟื้นตัว” หลังจากการขัดจังหวะ

    Geoffrey อ่านงานวิจัยอีกหลายฉบับ เช่น “Disruption and Recovery of Computing Tasks” ที่ระบุว่าอาจใช้เวลา 11–16 นาทีในการกลับเข้าสู่โฟกัส แต่ก็ไม่มีการวิเคราะห์เชิงลึกเกี่ยวกับช่วงเวลานี้

    สุดท้าย เขาพบว่าตัวเลข 23 นาที 15 วินาทีมาจาก “การให้สัมภาษณ์” ของ Gloria Mark กับสื่อหลายแห่ง เช่น Fast Company และ Wall Street Journal ไม่ใช่จากงานวิจัยที่ตีพิมพ์

    นั่นหมายความว่า ตัวเลขนี้อาจเป็น “ค่าเฉลี่ยโดยประมาณ” จากประสบการณ์ของผู้วิจัย ไม่ใช่ผลลัพธ์จากการทดลองที่สามารถตรวจสอบได้

    สรุปเนื้อหาเป็นหัวข้อ
    ตัวเลข “23 นาที 15 วินาที” ถูกอ้างถึงในหลายบทความเกี่ยวกับ productivity
    Geoffrey Oberien พยายามค้นหางานวิจัยต้นฉบับที่ระบุตัวเลขนี้
    งานวิจัย “The Cost of Interrupted Work” ไม่ได้กล่าวถึงตัวเลขนี้เลย
    งานวิจัยอื่น ๆ เช่น “Disruption and Recovery of Computing Tasks” ระบุช่วงเวลา 11–16 นาที
    ตัวเลข 23:15 มาจากการสัมภาษณ์ Gloria Mark ไม่ใช่จากงานวิจัยตีพิมพ์
    มีบทความมากกว่า 20 ชิ้นที่อ้างถึงตัวเลขนี้โดยไม่มีหลักฐานรองรับ
    งานวิจัยของ Gloria Mark พบว่า 82% ของงานที่ถูกขัดจังหวะจะกลับมาทำต่อในวันเดียวกัน
    การขัดจังหวะที่เกี่ยวข้องกับงานเดิมอาจช่วยเพิ่มประสิทธิภาพได้
    การขัดจังหวะที่ไม่เกี่ยวข้อง เช่น การคุยเรื่องซีรีส์ อาจทำให้ฟื้นตัวช้ากว่า
    การพักเบรกที่ตั้งใจต่างจากการขัดจังหวะที่ไม่คาดคิด

    ข้อมูลเสริมจากภายนอก
    Gloria Mark เป็นนักวิจัยด้าน digital distraction จาก University of California, Irvine
    งานวิจัยของเธอเชื่อมโยงการขัดจังหวะกับความเครียดและ productivity ที่ลดลง
    ตัวเลข 23:15 ถูกอ้างถึงใน Lifehacker, Fast Company, และ Wall Street Journal
    ไม่มีหลักฐานเชิงสถิติที่ยืนยันตัวเลขนี้ในงานวิจัยที่ตีพิมพ์
    การขัดจังหวะซ้ำ ๆ อาจทำให้ productivity ลดลงมากกว่าที่คาด
    การจัดการ context switch เป็นทักษะสำคัญของนักพัฒนาและผู้บริหาร

    https://blog.oberien.de/2023/11/05/23-minutes-15-seconds.html
    🎙️ 23 นาที 15 วินาที – ความจริงหรือแค่ตัวเลขที่เล่าต่อกันมา? คุณอาจเคยได้ยินว่า “หลังจากถูกขัดจังหวะ จะใช้เวลา 23 นาที 15 วินาทีในการกลับเข้าสู่โฟกัส” ฟังดูเฉพาะเจาะจงและน่ากลัวใช่ไหม? Geoffrey Oberien ก็คิดแบบนั้น เขาแค่ต้องการอ้างอิงตัวเลขนี้ให้เพื่อนร่วมงาน แต่กลับกลายเป็นการผจญภัย 20 นาทีที่เต็มไปด้วยความสงสัย เขาค้นหางานวิจัยต้นฉบับที่ระบุตัวเลขนี้ และพบว่าหลายบทความอ้างถึงงานวิจัยชื่อ “The Cost of Interrupted Work: More Speed and Stress” โดย Gloria Mark แต่เมื่อเปิดอ่านจริง ๆ กลับไม่พบตัวเลข 23 นาที 15 วินาทีเลย งานวิจัยนั้นพูดถึงผลกระทบของการขัดจังหวะ เช่น ความเครียดที่เพิ่มขึ้น และเวลาที่ใช้ในงานหลักที่ลดลง แต่ไม่ได้พูดถึง “เวลาฟื้นตัว” หลังจากการขัดจังหวะ Geoffrey อ่านงานวิจัยอีกหลายฉบับ เช่น “Disruption and Recovery of Computing Tasks” ที่ระบุว่าอาจใช้เวลา 11–16 นาทีในการกลับเข้าสู่โฟกัส แต่ก็ไม่มีการวิเคราะห์เชิงลึกเกี่ยวกับช่วงเวลานี้ สุดท้าย เขาพบว่าตัวเลข 23 นาที 15 วินาทีมาจาก “การให้สัมภาษณ์” ของ Gloria Mark กับสื่อหลายแห่ง เช่น Fast Company และ Wall Street Journal ไม่ใช่จากงานวิจัยที่ตีพิมพ์ นั่นหมายความว่า ตัวเลขนี้อาจเป็น “ค่าเฉลี่ยโดยประมาณ” จากประสบการณ์ของผู้วิจัย ไม่ใช่ผลลัพธ์จากการทดลองที่สามารถตรวจสอบได้ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ ตัวเลข “23 นาที 15 วินาที” ถูกอ้างถึงในหลายบทความเกี่ยวกับ productivity ➡️ Geoffrey Oberien พยายามค้นหางานวิจัยต้นฉบับที่ระบุตัวเลขนี้ ➡️ งานวิจัย “The Cost of Interrupted Work” ไม่ได้กล่าวถึงตัวเลขนี้เลย ➡️ งานวิจัยอื่น ๆ เช่น “Disruption and Recovery of Computing Tasks” ระบุช่วงเวลา 11–16 นาที ➡️ ตัวเลข 23:15 มาจากการสัมภาษณ์ Gloria Mark ไม่ใช่จากงานวิจัยตีพิมพ์ ➡️ มีบทความมากกว่า 20 ชิ้นที่อ้างถึงตัวเลขนี้โดยไม่มีหลักฐานรองรับ ➡️ งานวิจัยของ Gloria Mark พบว่า 82% ของงานที่ถูกขัดจังหวะจะกลับมาทำต่อในวันเดียวกัน ➡️ การขัดจังหวะที่เกี่ยวข้องกับงานเดิมอาจช่วยเพิ่มประสิทธิภาพได้ ➡️ การขัดจังหวะที่ไม่เกี่ยวข้อง เช่น การคุยเรื่องซีรีส์ อาจทำให้ฟื้นตัวช้ากว่า ➡️ การพักเบรกที่ตั้งใจต่างจากการขัดจังหวะที่ไม่คาดคิด ✅ ข้อมูลเสริมจากภายนอก ➡️ Gloria Mark เป็นนักวิจัยด้าน digital distraction จาก University of California, Irvine ➡️ งานวิจัยของเธอเชื่อมโยงการขัดจังหวะกับความเครียดและ productivity ที่ลดลง ➡️ ตัวเลข 23:15 ถูกอ้างถึงใน Lifehacker, Fast Company, และ Wall Street Journal ➡️ ไม่มีหลักฐานเชิงสถิติที่ยืนยันตัวเลขนี้ในงานวิจัยที่ตีพิมพ์ ➡️ การขัดจังหวะซ้ำ ๆ อาจทำให้ productivity ลดลงมากกว่าที่คาด ➡️ การจัดการ context switch เป็นทักษะสำคัญของนักพัฒนาและผู้บริหาร https://blog.oberien.de/2023/11/05/23-minutes-15-seconds.html
    0 Comments 0 Shares 161 Views 0 Reviews
  • CN101 – ชิปที่ใช้พลังงานจากความไม่แน่นอน เพื่ออนาคตของ AI ที่ยั่งยืน

    ในยุคที่ AI กำลังเติบโตอย่างรวดเร็ว ความต้องการพลังงานก็พุ่งสูงขึ้นตามไปด้วย จนหลายศูนย์ข้อมูลต้องชะลอการทำงานของ GPU เพื่อหลีกเลี่ยงไฟดับ แต่ในเดือนสิงหาคม 2025 บริษัทสตาร์ทอัพชื่อ Normal Computing ได้เปิดตัว “CN101” ซึ่งเป็นชิปตัวแรกของโลกที่ใช้หลักการ “thermodynamic computing” หรือการคำนวณด้วยพลวัตทางธรรมชาติ

    ต่างจาก CPU และ GPU ที่ใช้ตรรกะแบบกำหนดแน่นอน CN101 ใช้ความไม่แน่นอน เช่น ความผันผวน การสลายพลังงาน และเสียงรบกวน เพื่อเร่งการคำนวณบางประเภท โดยเฉพาะการแก้สมการเชิงเส้นขนาดใหญ่ และการสุ่มแบบสถิติ ซึ่งเป็นหัวใจของการเรียนรู้เชิงลึกและการจำลองทางวิทยาศาสตร์

    ชิปนี้สามารถเพิ่มประสิทธิภาพการใช้พลังงานได้ถึง 1,000 เท่าในงานเฉพาะทาง และยังสามารถทำงานในโครงสร้างศูนย์ข้อมูลเดิมได้โดยไม่ต้องเพิ่มกำลังไฟฟ้า

    Normal Computing ก่อตั้งโดยอดีตวิศวกรจาก Google Brain, Google X และ Palantir โดยมีแผนจะเปิดตัว CN201 ในปี 2026 สำหรับโมเดล diffusion ความละเอียดสูง และ CN301 ในปี 2028 สำหรับงานวิดีโอ AI ขนาดใหญ่

    สรุปเนื้อหาเป็นหัวข้อ
    Normal Computing เปิดตัว CN101 ชิป thermodynamic ตัวแรกของโลก
    ใช้พลวัตธรรมชาติ เช่น ความผันผวนและเสียงรบกวน แทนตรรกะแบบกำหนด
    เร่งการคำนวณด้าน linear algebra และ stochastic sampling
    เพิ่มประสิทธิภาพการใช้พลังงานได้สูงสุดถึง 1,000 เท่าในงานเฉพาะทาง
    สามารถทำงานในศูนย์ข้อมูลเดิมโดยไม่ต้องเพิ่มกำลังไฟฟ้า
    CN101 เป็นก้าวแรกของ roadmap ที่จะนำไปสู่ CN201 และ CN301
    CN201 จะรองรับโมเดล diffusion ความละเอียดสูงในปี 2026
    CN301 จะรองรับงานวิดีโอ AI ขนาดใหญ่ในปี 2028
    ทีมผู้ก่อตั้งมาจาก Google Brain, Google X และ Palantir
    การ tape-out ของ CN101 ถือเป็นหมุดหมายสำคัญของการคำนวณแบบ thermodynamic

    ข้อมูลเสริมจากภายนอก
    Thermodynamic computing เป็นแนวคิดใหม่ที่ใช้หลักฟิสิกส์แทนตรรกะดิจิทัล
    การใช้ stochasticity ช่วยให้ AI reasoning เร็วขึ้นโดยใช้พลังงานน้อยลง
    งานที่ใช้การสุ่ม เช่น Bayesian inference และการจำลองโมเลกุล ได้ประโยชน์สูง
    IEEE Spectrum ยกให้แนวคิดนี้เป็นหนึ่งในความก้าวหน้าที่น่าจับตามอง
    หากสำเร็จ อาจเปลี่ยนกฎการ scaling ของ AI ในทศวรรษหน้า

    https://www.techradar.com/pro/chip-designer-youve-never-heard-of-brings-out-first-thermodynamic-silicon-and-seeks-to-reduce-ais-unsustainable-energy-consumption
    🎙️ CN101 – ชิปที่ใช้พลังงานจากความไม่แน่นอน เพื่ออนาคตของ AI ที่ยั่งยืน ในยุคที่ AI กำลังเติบโตอย่างรวดเร็ว ความต้องการพลังงานก็พุ่งสูงขึ้นตามไปด้วย จนหลายศูนย์ข้อมูลต้องชะลอการทำงานของ GPU เพื่อหลีกเลี่ยงไฟดับ แต่ในเดือนสิงหาคม 2025 บริษัทสตาร์ทอัพชื่อ Normal Computing ได้เปิดตัว “CN101” ซึ่งเป็นชิปตัวแรกของโลกที่ใช้หลักการ “thermodynamic computing” หรือการคำนวณด้วยพลวัตทางธรรมชาติ ต่างจาก CPU และ GPU ที่ใช้ตรรกะแบบกำหนดแน่นอน CN101 ใช้ความไม่แน่นอน เช่น ความผันผวน การสลายพลังงาน และเสียงรบกวน เพื่อเร่งการคำนวณบางประเภท โดยเฉพาะการแก้สมการเชิงเส้นขนาดใหญ่ และการสุ่มแบบสถิติ ซึ่งเป็นหัวใจของการเรียนรู้เชิงลึกและการจำลองทางวิทยาศาสตร์ ชิปนี้สามารถเพิ่มประสิทธิภาพการใช้พลังงานได้ถึง 1,000 เท่าในงานเฉพาะทาง และยังสามารถทำงานในโครงสร้างศูนย์ข้อมูลเดิมได้โดยไม่ต้องเพิ่มกำลังไฟฟ้า Normal Computing ก่อตั้งโดยอดีตวิศวกรจาก Google Brain, Google X และ Palantir โดยมีแผนจะเปิดตัว CN201 ในปี 2026 สำหรับโมเดล diffusion ความละเอียดสูง และ CN301 ในปี 2028 สำหรับงานวิดีโอ AI ขนาดใหญ่ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Normal Computing เปิดตัว CN101 ชิป thermodynamic ตัวแรกของโลก ➡️ ใช้พลวัตธรรมชาติ เช่น ความผันผวนและเสียงรบกวน แทนตรรกะแบบกำหนด ➡️ เร่งการคำนวณด้าน linear algebra และ stochastic sampling ➡️ เพิ่มประสิทธิภาพการใช้พลังงานได้สูงสุดถึง 1,000 เท่าในงานเฉพาะทาง ➡️ สามารถทำงานในศูนย์ข้อมูลเดิมโดยไม่ต้องเพิ่มกำลังไฟฟ้า ➡️ CN101 เป็นก้าวแรกของ roadmap ที่จะนำไปสู่ CN201 และ CN301 ➡️ CN201 จะรองรับโมเดล diffusion ความละเอียดสูงในปี 2026 ➡️ CN301 จะรองรับงานวิดีโอ AI ขนาดใหญ่ในปี 2028 ➡️ ทีมผู้ก่อตั้งมาจาก Google Brain, Google X และ Palantir ➡️ การ tape-out ของ CN101 ถือเป็นหมุดหมายสำคัญของการคำนวณแบบ thermodynamic ✅ ข้อมูลเสริมจากภายนอก ➡️ Thermodynamic computing เป็นแนวคิดใหม่ที่ใช้หลักฟิสิกส์แทนตรรกะดิจิทัล ➡️ การใช้ stochasticity ช่วยให้ AI reasoning เร็วขึ้นโดยใช้พลังงานน้อยลง ➡️ งานที่ใช้การสุ่ม เช่น Bayesian inference และการจำลองโมเลกุล ได้ประโยชน์สูง ➡️ IEEE Spectrum ยกให้แนวคิดนี้เป็นหนึ่งในความก้าวหน้าที่น่าจับตามอง ➡️ หากสำเร็จ อาจเปลี่ยนกฎการ scaling ของ AI ในทศวรรษหน้า https://www.techradar.com/pro/chip-designer-youve-never-heard-of-brings-out-first-thermodynamic-silicon-and-seeks-to-reduce-ais-unsustainable-energy-consumption
    0 Comments 0 Shares 182 Views 0 Reviews
  • AI Token Factory: โรงงานผลิตความฉลาดแห่งยุคใหม่

    ในอดีต เราวัดพลังคอมพิวเตอร์ด้วย CPU หรือ GPU แต่ในยุค AI ที่มีโมเดลขนาดมหึมาอย่าง GPT-4, Claude หรือ Gemini สิ่งที่สำคัญที่สุดคือ “โทเคน” ซึ่งเป็นหน่วยข้อมูลที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนองต่อคำสั่งของผู้ใช้

    AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคนให้ได้มากที่สุดต่อวินาที โดยใช้ GPU จำนวนมหาศาล เช่นระบบ Colossus 1 ของ xAI ที่ใช้ NVIDIA H100 กว่า 100,000 ตัว และ Colossus 2 ที่จะใช้ GB200 และ GB300 มากกว่า 550,000 ตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่

    Jensen Huang ซีอีโอของ NVIDIA อธิบายว่า AI Factory คือโรงงานที่เปลี่ยนพลังงานไฟฟ้าและข้อมูลดิบให้กลายเป็นความฉลาด พร้อมเปิดตัว Blackwell Ultra ซึ่งเป็นแพลตฟอร์มใหม่ที่สามารถเพิ่มประสิทธิภาพการประมวลผลได้ถึง 50 เท่าเมื่อเทียบกับ Hopper รุ่นก่อนหน้า

    ในยุค “agentic AI” ที่กำลังมาถึง AI จะไม่เพียงแค่ตอบคำถาม แต่จะทำงานแทนมนุษย์โดยอัตโนมัติ เช่น วางแผนงาน ค้นคว้า หรือออกแบบโมเลกุล โดยใช้โทเคนจำนวนมหาศาลในการประมวลผล ซึ่งทำให้แม้แต่ศูนย์ข้อมูลที่มี GPU เป็นล้านตัวก็ยังไม่พอ

    Cisco รายงานว่า inference แบบ agentic ใช้ทรัพยากรมากกว่าการแชททั่วไปหลายเท่า และ Google ก็เปิดเผยว่า API ของตนให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือน ซึ่งเพิ่มขึ้นจาก 480 ล้านล้านในเวลาเพียงไม่กี่เดือน

    ข้อมูลจากข่าวหลัก
    AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคน AI ให้ได้มากที่สุด
    โทเคนคือหน่วยพื้นฐานที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนอง
    xAI ใช้ GPU กว่า 100,000 ตัวใน Colossus 1 และจะใช้กว่า 550,000 ตัวใน Colossus 2
    NVIDIA เปิดตัว Blackwell Ultra ที่เพิ่มประสิทธิภาพได้ถึง 50 เท่าเมื่อเทียบกับ Hopper
    AI Factory คือโรงงานที่เปลี่ยนพลังงานและข้อมูลให้กลายเป็นความฉลาด
    ในยุค agentic AI โมเดลจะทำงานแทนมนุษย์โดยอัตโนมัติ
    Cisco และ Google รายงานว่าความต้องการโทเคนเพิ่มขึ้นอย่างมหาศาล
    Google ให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือนผ่าน API
    AI Factory ประกอบด้วย GPU, networking, software, storage และระบบจัดการ

    ข้อมูลเสริมจากภายนอก
    NVIDIA GB300 NVL72 เชื่อมต่อ GPU 72 ตัวและ Grace CPU 36 ตัวในระบบเดียว
    Blackwell Ultra มี inference เร็วขึ้น 11 เท่า และหน่วยความจำใหญ่ขึ้น 4 เท่า
    NVIDIA Dynamo เป็นระบบปฏิบัติการใหม่ที่ช่วยจัดการงาน inference แบบอัตโนมัติ
    บริษัทอย่าง Zoom, Deloitte เริ่มนำ agentic AI ไปใช้ในระบบงานจริง
    Blackwell Ultra จะให้บริการผ่าน DGX Cloud และผู้ให้บริการคลาวด์รายใหญ่
    AI Factory ถูกมองว่าเป็นเครื่องจักรแห่งการปฏิวัติอุตสาหกรรมยุคใหม่

    https://www.techpowerup.com/340014/ai-token-factory-is-the-new-unit-of-computing
    🏗️ AI Token Factory: โรงงานผลิตความฉลาดแห่งยุคใหม่ ในอดีต เราวัดพลังคอมพิวเตอร์ด้วย CPU หรือ GPU แต่ในยุค AI ที่มีโมเดลขนาดมหึมาอย่าง GPT-4, Claude หรือ Gemini สิ่งที่สำคัญที่สุดคือ “โทเคน” ซึ่งเป็นหน่วยข้อมูลที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนองต่อคำสั่งของผู้ใช้ AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคนให้ได้มากที่สุดต่อวินาที โดยใช้ GPU จำนวนมหาศาล เช่นระบบ Colossus 1 ของ xAI ที่ใช้ NVIDIA H100 กว่า 100,000 ตัว และ Colossus 2 ที่จะใช้ GB200 และ GB300 มากกว่า 550,000 ตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ Jensen Huang ซีอีโอของ NVIDIA อธิบายว่า AI Factory คือโรงงานที่เปลี่ยนพลังงานไฟฟ้าและข้อมูลดิบให้กลายเป็นความฉลาด พร้อมเปิดตัว Blackwell Ultra ซึ่งเป็นแพลตฟอร์มใหม่ที่สามารถเพิ่มประสิทธิภาพการประมวลผลได้ถึง 50 เท่าเมื่อเทียบกับ Hopper รุ่นก่อนหน้า ในยุค “agentic AI” ที่กำลังมาถึง AI จะไม่เพียงแค่ตอบคำถาม แต่จะทำงานแทนมนุษย์โดยอัตโนมัติ เช่น วางแผนงาน ค้นคว้า หรือออกแบบโมเลกุล โดยใช้โทเคนจำนวนมหาศาลในการประมวลผล ซึ่งทำให้แม้แต่ศูนย์ข้อมูลที่มี GPU เป็นล้านตัวก็ยังไม่พอ Cisco รายงานว่า inference แบบ agentic ใช้ทรัพยากรมากกว่าการแชททั่วไปหลายเท่า และ Google ก็เปิดเผยว่า API ของตนให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือน ซึ่งเพิ่มขึ้นจาก 480 ล้านล้านในเวลาเพียงไม่กี่เดือน ✅ ข้อมูลจากข่าวหลัก ➡️ AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคน AI ให้ได้มากที่สุด ➡️ โทเคนคือหน่วยพื้นฐานที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนอง ➡️ xAI ใช้ GPU กว่า 100,000 ตัวใน Colossus 1 และจะใช้กว่า 550,000 ตัวใน Colossus 2 ➡️ NVIDIA เปิดตัว Blackwell Ultra ที่เพิ่มประสิทธิภาพได้ถึง 50 เท่าเมื่อเทียบกับ Hopper ➡️ AI Factory คือโรงงานที่เปลี่ยนพลังงานและข้อมูลให้กลายเป็นความฉลาด ➡️ ในยุค agentic AI โมเดลจะทำงานแทนมนุษย์โดยอัตโนมัติ ➡️ Cisco และ Google รายงานว่าความต้องการโทเคนเพิ่มขึ้นอย่างมหาศาล ➡️ Google ให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือนผ่าน API ➡️ AI Factory ประกอบด้วย GPU, networking, software, storage และระบบจัดการ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA GB300 NVL72 เชื่อมต่อ GPU 72 ตัวและ Grace CPU 36 ตัวในระบบเดียว ➡️ Blackwell Ultra มี inference เร็วขึ้น 11 เท่า และหน่วยความจำใหญ่ขึ้น 4 เท่า ➡️ NVIDIA Dynamo เป็นระบบปฏิบัติการใหม่ที่ช่วยจัดการงาน inference แบบอัตโนมัติ ➡️ บริษัทอย่าง Zoom, Deloitte เริ่มนำ agentic AI ไปใช้ในระบบงานจริง ➡️ Blackwell Ultra จะให้บริการผ่าน DGX Cloud และผู้ให้บริการคลาวด์รายใหญ่ ➡️ AI Factory ถูกมองว่าเป็นเครื่องจักรแห่งการปฏิวัติอุตสาหกรรมยุคใหม่ https://www.techpowerup.com/340014/ai-token-factory-is-the-new-unit-of-computing
    WWW.TECHPOWERUP.COM
    AI Token Factory is the New Unit of Computing
    First, it was the CPU; after came the GPU; then all parallel workloads started running on GPUs, integrated or hyperscale. Similarly, the large language models we use today have adapted to the parallel nature of data processing on the GPU. The scale at which AI workloads operate is much larger than m...
    0 Comments 0 Shares 230 Views 0 Reviews
  • SoftBank ทุ่ม 2 พันล้านดอลลาร์ซื้อหุ้น Intel: เดิมพันอนาคตชิปและ AI
    SoftBank Group ประกาศเมื่อวันที่ 19 สิงหาคม 2025 ว่าจะลงทุน 2 พันล้านดอลลาร์ใน Intel โดยซื้อหุ้นสามัญในราคาหุ้นละ $23 ซึ่งต่ำกว่ามูลค่าทางบัญชีของ Intel ที่มีสินทรัพย์รวมกว่า $109 พันล้านดอลลาร์

    ดีลนี้เกิดขึ้นในช่วงที่ Intel กำลังดิ้นรนฟื้นตัวจากการสูญเสียส่วนแบ่งตลาดในกลุ่มชิป AI ซึ่งถูกครองโดย Nvidia และ AMD โดย SoftBankมองว่า Intel ยังมีโครงสร้างพื้นฐานด้านการผลิตชิปที่แข็งแกร่ง และสามารถกลับมาเป็นผู้นำได้ หากเทคโนโลยี 18A และ 14A ประสบความสำเร็จ

    การลงทุนนี้ทำให้ SoftBank กลายเป็นผู้ถือหุ้นอันดับ 5 ของ Intel และถือเป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท ซึ่งมีเป้าหมายร่วมกันในการผลักดันการผลิตเซมิคอนดักเตอร์ในสหรัฐฯ และรองรับความต้องการด้าน AI ที่กำลังพุ่งสูง

    นอกจากนี้ SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing ไปเมื่อเดือนมีนาคม ซึ่งทั้งสองบริษัทมีบทบาทสำคัญในโครงการ Stargate—a mega project ร่วมกับ OpenAI และ Oracle ที่จะสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้าน

    SoftBank ลงทุน $2 พันล้านใน Intel โดยซื้อหุ้นละ $23
    Intel กำลังฟื้นตัวจากการสูญเสียตลาดชิป AI และราคาหุ้นตกหนักในปี 2024
    การลงทุนนี้ทำให้ SoftBank เป็นผู้ถือหุ้นอันดับ 5 ของ Intel
    ดีลนี้เป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท
    Intel มีแผนฟื้นตัวผ่านเทคโนโลยี 18A และ 14A สำหรับการผลิตชิปรุ่นใหม่
    SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing
    โครงการ Stargate ร่วมกับ OpenAI และ Oracle เป็นส่วนหนึ่งของยุทธศาสตร์ AI
    Intel CEO Lip-Bu Tan และ Masayoshi Son มีความสัมพันธ์ใกล้ชิดและเคยร่วมงานกันหลายครั้ง

    Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังสามารถผลิตชิปรุ่นสูงได้ภายในประเทศ
    SoftBank เคยซื้อ Arm ในปี 2016 ด้วยมูลค่า $32 พันล้าน และปัจจุบันมีมูลค่ากว่า $150 พันล้าน
    Ampere Computing เป็นผู้ผลิตชิป ARM สำหรับเซิร์ฟเวอร์ที่เติบโตเร็ว
    ตลาดชิป AI คาดว่าจะมีมูลค่ากว่า $400 พันล้านภายในปี 2030
    การลงทุนใน Intel อาจช่วย SoftBank ต่อรองกับพันธมิตรอื่นในระบบนิเวศ AI
    รัฐบาลสหรัฐฯ กำลังพิจารณาซื้อหุ้น 10% ใน Intel เพื่อเสริมความมั่นคงด้านเทคโนโลยี

    https://www.tomshardware.com/tech-industry/semiconductors/softbank-to-buy-usd2-billion-in-intel-shares-at-usd23-each-firm-still-owns-majority-share-of-arm
    💼 SoftBank ทุ่ม 2 พันล้านดอลลาร์ซื้อหุ้น Intel: เดิมพันอนาคตชิปและ AI SoftBank Group ประกาศเมื่อวันที่ 19 สิงหาคม 2025 ว่าจะลงทุน 2 พันล้านดอลลาร์ใน Intel โดยซื้อหุ้นสามัญในราคาหุ้นละ $23 ซึ่งต่ำกว่ามูลค่าทางบัญชีของ Intel ที่มีสินทรัพย์รวมกว่า $109 พันล้านดอลลาร์ ดีลนี้เกิดขึ้นในช่วงที่ Intel กำลังดิ้นรนฟื้นตัวจากการสูญเสียส่วนแบ่งตลาดในกลุ่มชิป AI ซึ่งถูกครองโดย Nvidia และ AMD โดย SoftBankมองว่า Intel ยังมีโครงสร้างพื้นฐานด้านการผลิตชิปที่แข็งแกร่ง และสามารถกลับมาเป็นผู้นำได้ หากเทคโนโลยี 18A และ 14A ประสบความสำเร็จ การลงทุนนี้ทำให้ SoftBank กลายเป็นผู้ถือหุ้นอันดับ 5 ของ Intel และถือเป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท ซึ่งมีเป้าหมายร่วมกันในการผลักดันการผลิตเซมิคอนดักเตอร์ในสหรัฐฯ และรองรับความต้องการด้าน AI ที่กำลังพุ่งสูง นอกจากนี้ SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing ไปเมื่อเดือนมีนาคม ซึ่งทั้งสองบริษัทมีบทบาทสำคัญในโครงการ Stargate—a mega project ร่วมกับ OpenAI และ Oracle ที่จะสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้าน ➡️ SoftBank ลงทุน $2 พันล้านใน Intel โดยซื้อหุ้นละ $23 ➡️ Intel กำลังฟื้นตัวจากการสูญเสียตลาดชิป AI และราคาหุ้นตกหนักในปี 2024 ➡️ การลงทุนนี้ทำให้ SoftBank เป็นผู้ถือหุ้นอันดับ 5 ของ Intel ➡️ ดีลนี้เป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท ➡️ Intel มีแผนฟื้นตัวผ่านเทคโนโลยี 18A และ 14A สำหรับการผลิตชิปรุ่นใหม่ ➡️ SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing ➡️ โครงการ Stargate ร่วมกับ OpenAI และ Oracle เป็นส่วนหนึ่งของยุทธศาสตร์ AI ➡️ Intel CEO Lip-Bu Tan และ Masayoshi Son มีความสัมพันธ์ใกล้ชิดและเคยร่วมงานกันหลายครั้ง ➡️ Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังสามารถผลิตชิปรุ่นสูงได้ภายในประเทศ ➡️ SoftBank เคยซื้อ Arm ในปี 2016 ด้วยมูลค่า $32 พันล้าน และปัจจุบันมีมูลค่ากว่า $150 พันล้าน ➡️ Ampere Computing เป็นผู้ผลิตชิป ARM สำหรับเซิร์ฟเวอร์ที่เติบโตเร็ว ➡️ ตลาดชิป AI คาดว่าจะมีมูลค่ากว่า $400 พันล้านภายในปี 2030 ➡️ การลงทุนใน Intel อาจช่วย SoftBank ต่อรองกับพันธมิตรอื่นในระบบนิเวศ AI ➡️ รัฐบาลสหรัฐฯ กำลังพิจารณาซื้อหุ้น 10% ใน Intel เพื่อเสริมความมั่นคงด้านเทคโนโลยี https://www.tomshardware.com/tech-industry/semiconductors/softbank-to-buy-usd2-billion-in-intel-shares-at-usd23-each-firm-still-owns-majority-share-of-arm
    0 Comments 0 Shares 214 Views 0 Reviews
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 Comments 0 Shares 238 Views 0 Reviews
More Results