• “Intel กลายเป็น ‘ประกันภัย’ ของวงการชิปสหรัฐฯ — เมื่อ TSMC อาจไม่ใช่คำตอบเดียวอีกต่อไป”

    ในโลกที่การผลิตชิปขั้นสูงเกือบทั้งหมดพึ่งพา TSMC จากไต้หวัน นักวิเคราะห์ชื่อดัง Ben Bajarin ได้เปรียบ Intel ว่าเป็น “กรมธรรม์ประกันภัย” สำหรับบริษัทออกแบบชิปแบบไร้โรงงาน (fabless) ของสหรัฐฯ เช่น Apple, NVIDIA, AMD และ Qualcomm เพราะหากเกิดเหตุการณ์ไม่คาดฝันกับ TSMC — เช่น ความขัดแย้งทางภูมิรัฐศาสตร์ — Intel อาจเป็นทางรอดเดียวที่เหลืออยู่

    แม้ในสถานการณ์ปกติ บริษัทเหล่านี้จะไม่เลือก Intel เพราะ TSMC มีเทคโนโลยีล้ำหน้าและความน่าเชื่อถือสูงกว่า แต่ Bajarin ชี้ว่า “คุณไม่ต้องการประกัน จนกว่าคุณจะต้องใช้มัน” และหาก TSMC ไม่สามารถส่งมอบชิปได้ Intel จะกลายเป็นผู้ผลิตที่สำคัญที่สุดในประเทศทันที

    ปัจจุบัน TSMC ผลิตชิปขั้นสูงกว่า 90% ของโลก และกำลังเร่งขยายโรงงานในสหรัฐฯ โดยเฉพาะเทคโนโลยี 2nm และ A16 node เพื่อกระจายความเสี่ยงจากการผลิตในไต้หวันเพียงแห่งเดียว อย่างไรก็ตาม การย้ายฐานการผลิตต้องใช้เวลาหลายปี และยังต้องพึ่งพาการสนับสนุนจากรัฐบาลสหรัฐฯ

    Intel เองก็พยายามพลิกฟื้นธุรกิจด้วยการเปิดบริการ Intel Foundry Services (IFS) เพื่อรับผลิตชิปให้บริษัทอื่น โดยมีแผนเปิดตัวเทคโนโลยี 18A และ 14A ที่จะต้องพิสูจน์ให้เห็นว่าสามารถแข่งขันกับ TSMC ได้จริง ทั้งในด้านคุณภาพ ปริมาณ และต้นทุน

    นักวิเคราะห์หลายคนมองว่า Intel ยังต้องพิสูจน์ตัวเองอีกมาก และอาจต้องพึ่งพาการสนับสนุนจากรัฐบาล เช่น เงินอุดหนุนหรือการกำหนดให้บริษัทในประเทศต้องใช้บริการของ Intel เพื่อรักษาอธิปไตยด้านเทคโนโลยี

    ข้อมูลสำคัญจากข่าว
    Intel ถูกเปรียบเป็น “ประกันภัย” สำหรับบริษัทออกแบบชิปของสหรัฐฯ เช่น Apple, NVIDIA, AMD
    หาก TSMC ไม่สามารถผลิตชิปได้ Intel จะกลายเป็นผู้ผลิตสำคัญในประเทศ
    TSMC ผลิตชิปขั้นสูงกว่า 90% ของโลก และกำลังขยายโรงงานในสหรัฐฯ
    การย้ายฐานการผลิตจากไต้หวันไปสหรัฐฯ ต้องใช้เวลาหลายปี
    Intel เปิดบริการ Intel Foundry Services เพื่อรับผลิตชิปให้บริษัทอื่น
    Intel เตรียมเปิดตัวเทคโนโลยี 18A และ 14A เพื่อแข่งขันกับ TSMC
    นักวิเคราะห์ชี้ว่า Intel ต้องพิสูจน์ตัวเองในด้านคุณภาพและความน่าเชื่อถือ
    รัฐบาลสหรัฐฯ อาจต้องสนับสนุน Intel เพื่อรักษาอธิปไตยด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    Apple, AMD และ NVIDIA ใช้ TSMC ในการผลิตชิปเรือธงทั้งหมด
    Intel เคยเสียความเป็นผู้นำด้านเทคโนโลยีจากการล่าช้าและ roadmap ที่ไม่ชัดเจน
    การผลิตชิปขั้นสูงต้องใช้ปริมาณมากเพื่อให้คุ้มทุนและมี yield ที่ดี
    การสนับสนุนจากรัฐบาล เช่น CHIPS Act เป็นปัจจัยสำคัญในการฟื้นฟู Intel
    TSMC มีแผนลงทุนในสหรัฐฯ มากกว่า $300 พันล้าน เพื่อขยายกำลังการผลิต

    https://wccftech.com/intel-is-the-insurance-policy-for-every-us-fabless-chip/
    🇺🇸 “Intel กลายเป็น ‘ประกันภัย’ ของวงการชิปสหรัฐฯ — เมื่อ TSMC อาจไม่ใช่คำตอบเดียวอีกต่อไป” ในโลกที่การผลิตชิปขั้นสูงเกือบทั้งหมดพึ่งพา TSMC จากไต้หวัน นักวิเคราะห์ชื่อดัง Ben Bajarin ได้เปรียบ Intel ว่าเป็น “กรมธรรม์ประกันภัย” สำหรับบริษัทออกแบบชิปแบบไร้โรงงาน (fabless) ของสหรัฐฯ เช่น Apple, NVIDIA, AMD และ Qualcomm เพราะหากเกิดเหตุการณ์ไม่คาดฝันกับ TSMC — เช่น ความขัดแย้งทางภูมิรัฐศาสตร์ — Intel อาจเป็นทางรอดเดียวที่เหลืออยู่ แม้ในสถานการณ์ปกติ บริษัทเหล่านี้จะไม่เลือก Intel เพราะ TSMC มีเทคโนโลยีล้ำหน้าและความน่าเชื่อถือสูงกว่า แต่ Bajarin ชี้ว่า “คุณไม่ต้องการประกัน จนกว่าคุณจะต้องใช้มัน” และหาก TSMC ไม่สามารถส่งมอบชิปได้ Intel จะกลายเป็นผู้ผลิตที่สำคัญที่สุดในประเทศทันที ปัจจุบัน TSMC ผลิตชิปขั้นสูงกว่า 90% ของโลก และกำลังเร่งขยายโรงงานในสหรัฐฯ โดยเฉพาะเทคโนโลยี 2nm และ A16 node เพื่อกระจายความเสี่ยงจากการผลิตในไต้หวันเพียงแห่งเดียว อย่างไรก็ตาม การย้ายฐานการผลิตต้องใช้เวลาหลายปี และยังต้องพึ่งพาการสนับสนุนจากรัฐบาลสหรัฐฯ Intel เองก็พยายามพลิกฟื้นธุรกิจด้วยการเปิดบริการ Intel Foundry Services (IFS) เพื่อรับผลิตชิปให้บริษัทอื่น โดยมีแผนเปิดตัวเทคโนโลยี 18A และ 14A ที่จะต้องพิสูจน์ให้เห็นว่าสามารถแข่งขันกับ TSMC ได้จริง ทั้งในด้านคุณภาพ ปริมาณ และต้นทุน นักวิเคราะห์หลายคนมองว่า Intel ยังต้องพิสูจน์ตัวเองอีกมาก และอาจต้องพึ่งพาการสนับสนุนจากรัฐบาล เช่น เงินอุดหนุนหรือการกำหนดให้บริษัทในประเทศต้องใช้บริการของ Intel เพื่อรักษาอธิปไตยด้านเทคโนโลยี ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ถูกเปรียบเป็น “ประกันภัย” สำหรับบริษัทออกแบบชิปของสหรัฐฯ เช่น Apple, NVIDIA, AMD ➡️ หาก TSMC ไม่สามารถผลิตชิปได้ Intel จะกลายเป็นผู้ผลิตสำคัญในประเทศ ➡️ TSMC ผลิตชิปขั้นสูงกว่า 90% ของโลก และกำลังขยายโรงงานในสหรัฐฯ ➡️ การย้ายฐานการผลิตจากไต้หวันไปสหรัฐฯ ต้องใช้เวลาหลายปี ➡️ Intel เปิดบริการ Intel Foundry Services เพื่อรับผลิตชิปให้บริษัทอื่น ➡️ Intel เตรียมเปิดตัวเทคโนโลยี 18A และ 14A เพื่อแข่งขันกับ TSMC ➡️ นักวิเคราะห์ชี้ว่า Intel ต้องพิสูจน์ตัวเองในด้านคุณภาพและความน่าเชื่อถือ ➡️ รัฐบาลสหรัฐฯ อาจต้องสนับสนุน Intel เพื่อรักษาอธิปไตยด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ Apple, AMD และ NVIDIA ใช้ TSMC ในการผลิตชิปเรือธงทั้งหมด ➡️ Intel เคยเสียความเป็นผู้นำด้านเทคโนโลยีจากการล่าช้าและ roadmap ที่ไม่ชัดเจน ➡️ การผลิตชิปขั้นสูงต้องใช้ปริมาณมากเพื่อให้คุ้มทุนและมี yield ที่ดี ➡️ การสนับสนุนจากรัฐบาล เช่น CHIPS Act เป็นปัจจัยสำคัญในการฟื้นฟู Intel ➡️ TSMC มีแผนลงทุนในสหรัฐฯ มากกว่า $300 พันล้าน เพื่อขยายกำลังการผลิต https://wccftech.com/intel-is-the-insurance-policy-for-every-us-fabless-chip/
    WCCFTECH.COM
    Intel Is the "Insurance Policy" For Every US Fabless Chip Firms Like Apple, NVIDIA & AMD Against Supply Risks Around TSMC, Says Renowned Analyst
    Intel is the 'hedge' against geopolitical and supply risks associated with depending upon TSMC, according to an analyst.
    0 Comments 0 Shares 140 Views 0 Reviews
  • “Intel อาจผลิตชิปให้ AMD — เมื่อคู่แข่งตลอดกาลเริ่มเปิดใจร่วมมือในยุคที่อุตสาหกรรมต้องปรับตัว”

    ในสิ่งที่หลายคนเรียกว่า “นรกยังต้องหยุดแช่แข็ง” Intel และ AMD ซึ่งเป็นคู่แข่งกันมายาวนานในตลาด x86 กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ Intel รับหน้าที่ผลิตชิปบางรุ่นให้ AMD ผ่านบริการ Intel Foundry Services (IFS) ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในภูมิทัศน์ของอุตสาหกรรมเซมิคอนดักเตอร์

    รายงานจาก Semafor และ TechRadar ระบุว่า AMD กำลังพิจารณาใช้โรงงานของ Intel สำหรับผลิตชิปรุ่นที่ไม่ใช่เรือธง เช่น Embedded APU หรือชิปด้านเครือข่าย (Pensando) เพื่อกระจายความเสี่ยงจากการพึ่งพา TSMC เพียงรายเดียว โดยเฉพาะในช่วงที่ความตึงเครียดทางภูมิรัฐศาสตร์และปัญหาซัพพลายเชนยังคงเป็นปัจจัยสำคัญ

    Intel เองก็อยู่ในช่วงพลิกฟื้นธุรกิจ โดยได้รับเงินลงทุนจากรัฐบาลสหรัฐฯ, Nvidia และ SoftBank รวมกว่า $15.9 พันล้าน เพื่อผลักดันให้ IFS กลายเป็นผู้ผลิตชิปแบบรับจ้างที่แข็งแกร่ง และลดการพึ่งพาตลาดยุโรปที่กำลังชะลอการลงทุน

    แม้ AMD จะยังไม่ยืนยันข้อตกลงใด ๆ และยังไม่มีการเปิดเผยว่าชิปรุ่นใดจะถูกผลิตโดย Intel แต่การเจรจานี้สะท้อนถึงความเปลี่ยนแปลงในยุทธศาสตร์ของทั้งสองบริษัท ที่เริ่มมองข้ามการแข่งขันระยะยาวเพื่อความมั่นคงของห่วงโซ่อุปทาน

    หากข้อตกลงเกิดขึ้นจริง จะเป็นการยืนยันว่า Intel สามารถผลิตชิปให้กับคู่แข่งโดยไม่กระทบต่อความลับทางเทคโนโลยี และอาจเป็นจุดเริ่มต้นของการร่วมมือในระดับอุตสาหกรรมที่กว้างขึ้น

    ข้อมูลสำคัญจากข่าว
    Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ Intel ผลิตชิปรุ่นบางส่วนให้ AMD
    AMD ต้องการลดการพึ่งพา TSMC และกระจายความเสี่ยงด้านซัพพลายเชน
    ชิปรุ่นที่อาจถูกผลิตโดย Intel ได้แก่ Embedded APU และชิปเครือข่าย (Pensando)
    Intel ได้รับเงินลงทุนจากรัฐบาลสหรัฐฯ, Nvidia และ SoftBank รวมกว่า $15.9 พันล้าน
    Intel Foundry Services (IFS) เป็นหน่วยงานที่รับผลิตชิปให้ลูกค้าภายนอก
    AMD ยังไม่ยืนยันข้อตกลง และยังไม่มีการเปิดเผยว่าชิปรุ่นใดจะถูกผลิต
    การร่วมมือครั้งนี้อาจช่วยให้ AMD มีความยืดหยุ่นในการผลิตมากขึ้น
    Intel ต้องการพิสูจน์ว่าโรงงานของตนสามารถแข่งขันกับ TSMC ได้

    https://www.techradar.com/pro/hell-freezes-over-amd-may-team-up-with-intel-to-produce-chips-but-i-dont-expect-intel-foundries-to-push-out-ryzen-cpus-anytime-soon
    🤝 “Intel อาจผลิตชิปให้ AMD — เมื่อคู่แข่งตลอดกาลเริ่มเปิดใจร่วมมือในยุคที่อุตสาหกรรมต้องปรับตัว” ในสิ่งที่หลายคนเรียกว่า “นรกยังต้องหยุดแช่แข็ง” Intel และ AMD ซึ่งเป็นคู่แข่งกันมายาวนานในตลาด x86 กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ Intel รับหน้าที่ผลิตชิปบางรุ่นให้ AMD ผ่านบริการ Intel Foundry Services (IFS) ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในภูมิทัศน์ของอุตสาหกรรมเซมิคอนดักเตอร์ รายงานจาก Semafor และ TechRadar ระบุว่า AMD กำลังพิจารณาใช้โรงงานของ Intel สำหรับผลิตชิปรุ่นที่ไม่ใช่เรือธง เช่น Embedded APU หรือชิปด้านเครือข่าย (Pensando) เพื่อกระจายความเสี่ยงจากการพึ่งพา TSMC เพียงรายเดียว โดยเฉพาะในช่วงที่ความตึงเครียดทางภูมิรัฐศาสตร์และปัญหาซัพพลายเชนยังคงเป็นปัจจัยสำคัญ Intel เองก็อยู่ในช่วงพลิกฟื้นธุรกิจ โดยได้รับเงินลงทุนจากรัฐบาลสหรัฐฯ, Nvidia และ SoftBank รวมกว่า $15.9 พันล้าน เพื่อผลักดันให้ IFS กลายเป็นผู้ผลิตชิปแบบรับจ้างที่แข็งแกร่ง และลดการพึ่งพาตลาดยุโรปที่กำลังชะลอการลงทุน แม้ AMD จะยังไม่ยืนยันข้อตกลงใด ๆ และยังไม่มีการเปิดเผยว่าชิปรุ่นใดจะถูกผลิตโดย Intel แต่การเจรจานี้สะท้อนถึงความเปลี่ยนแปลงในยุทธศาสตร์ของทั้งสองบริษัท ที่เริ่มมองข้ามการแข่งขันระยะยาวเพื่อความมั่นคงของห่วงโซ่อุปทาน หากข้อตกลงเกิดขึ้นจริง จะเป็นการยืนยันว่า Intel สามารถผลิตชิปให้กับคู่แข่งโดยไม่กระทบต่อความลับทางเทคโนโลยี และอาจเป็นจุดเริ่มต้นของการร่วมมือในระดับอุตสาหกรรมที่กว้างขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ Intel ผลิตชิปรุ่นบางส่วนให้ AMD ➡️ AMD ต้องการลดการพึ่งพา TSMC และกระจายความเสี่ยงด้านซัพพลายเชน ➡️ ชิปรุ่นที่อาจถูกผลิตโดย Intel ได้แก่ Embedded APU และชิปเครือข่าย (Pensando) ➡️ Intel ได้รับเงินลงทุนจากรัฐบาลสหรัฐฯ, Nvidia และ SoftBank รวมกว่า $15.9 พันล้าน ➡️ Intel Foundry Services (IFS) เป็นหน่วยงานที่รับผลิตชิปให้ลูกค้าภายนอก ➡️ AMD ยังไม่ยืนยันข้อตกลง และยังไม่มีการเปิดเผยว่าชิปรุ่นใดจะถูกผลิต ➡️ การร่วมมือครั้งนี้อาจช่วยให้ AMD มีความยืดหยุ่นในการผลิตมากขึ้น ➡️ Intel ต้องการพิสูจน์ว่าโรงงานของตนสามารถแข่งขันกับ TSMC ได้ https://www.techradar.com/pro/hell-freezes-over-amd-may-team-up-with-intel-to-produce-chips-but-i-dont-expect-intel-foundries-to-push-out-ryzen-cpus-anytime-soon
    WWW.TECHRADAR.COM
    Reports suggest Intel could manufacture processors for AMD
    Intel's turnaround continues to surprise, who will be next to express an interest?
    0 Comments 0 Shares 132 Views 0 Reviews
  • “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต”

    ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม

    OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s

    ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU

    จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23%

    แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง

    ข้อมูลสำคัญจากข่าว
    OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล
    รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s
    Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล
    OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s
    ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14%
    เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%)
    Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน
    Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว

    ข้อมูลเสริมจากภายนอก
    OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU
    Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s
    eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย
    OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output
    โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง

    https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    ⚡ “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต” ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23% แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง ✅ ข้อมูลสำคัญจากข่าว ➡️ OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล ➡️ รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s ➡️ Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล ➡️ OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s ➡️ ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14% ➡️ เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%) ➡️ Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน ➡️ Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU ➡️ Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s ➡️ eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย ➡️ OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output ➡️ โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    0 Comments 0 Shares 136 Views 0 Reviews
  • “Microsoft เตรียมเปิดบริการ Xbox Cloud Gaming แบบฟรี — เล่นได้ไม่ต้องสมัคร แต่ต้องดูโฆษณาก่อนเข้าเกม”

    หลังจากปล่อยให้ลือกันมาหลายปี ในที่สุด Microsoft ก็เตรียมเปิดตัวบริการ Xbox Cloud Gaming แบบฟรีที่ไม่ต้องสมัคร Game Pass โดยจะมีการจำกัดเวลาเล่นและแทรกโฆษณาก่อนเริ่มเกม โดยแหล่งข่าวจาก The Verge ระบุว่าบริษัทกำลังทดสอบระบบนี้ภายในกับพนักงาน และเตรียมเปิด public beta ในอีกไม่กี่เดือนข้างหน้า

    ผู้ใช้ในแพลตฟอร์มฟรีจะสามารถเล่นเกมที่ตนเองเป็นเจ้าของ, เกมจากโปรแกรม Free Play Days (ทดลองเล่นฟรีช่วงสุดสัปดาห์), และ Xbox Retro Classics ได้ โดยก่อนเข้าเกมจะต้องดูโฆษณาความยาวประมาณ 2 นาที และแต่ละ session จะเล่นได้เพียง 1 ชั่วโมง จำกัดสูงสุด 5 ชั่วโมงต่อเดือน

    แม้จะเป็นบริการฟรี แต่มีผู้ใช้ Game Pass Ultimate รายหนึ่งโพสต์บน X (Twitter) ว่าเขาเจอโฆษณา Dior Men Spring 2025 ระหว่างโหลดเกม Gears of War: Reloaded ซึ่งสร้างความไม่พอใจอย่างมาก เพราะ Game Pass Ultimate เป็นแพ็กเกจระดับสูงที่เพิ่งขึ้นราคาถึง 50% ในบางประเทศ

    ในด้านคุณภาพการสตรีม ผู้ใช้ Game Pass Ultimate จะได้ความละเอียดสูงสุด 1440p ที่ 30 Mbps หรือ 1080p ที่ 20 Mbps ขณะที่ผู้ใช้ Essential และ Premium ได้ 1080p ที่ 12 Mbps ส่วนแพลตฟอร์มฟรียังไม่มีข้อมูลเรื่องความละเอียดหรือ bitrate ที่แน่นอน

    บริการ Xbox Cloud Gaming แบบฟรีจะเปิดให้ใช้งานบน PC, มือถือ, คอนโซล Xbox และเว็บเบราว์เซอร์ โดยยังไม่ระบุว่าจะเปิดให้ใช้ในประเทศใดบ้าง และเงื่อนไขต่าง ๆ อาจเปลี่ยนแปลงได้เมื่อเปิดตัวจริง

    ข้อมูลสำคัญจากข่าว
    Microsoft เตรียมเปิด Xbox Cloud Gaming แบบฟรีโดยไม่ต้องสมัคร Game Pass
    ผู้ใช้ต้องดูโฆษณาความยาว 2 นาที ก่อนเข้าเล่นเกมแต่ละครั้ง
    จำกัดการเล่นไว้ที่ 1 ชั่วโมงต่อ session และสูงสุด 5 ชั่วโมงต่อเดือน
    เกมที่เล่นได้รวมถึงเกมที่ผู้ใช้เป็นเจ้าของ, Free Play Days และ Xbox Retro Classics
    มีผู้ใช้ Game Pass Ultimate รายงานว่าเจอโฆษณาระหว่างโหลดเกม
    Game Pass Ultimate ได้ความละเอียดสูงสุด 1440p ที่ 30 Mbps
    Essential และ Premium ได้ 1080p ที่ 12 Mbps
    บริการฟรีจะเปิดให้ใช้บน PC, มือถือ, Xbox และเว็บเบราว์เซอร์

    ข้อมูลเสริมจากภายนอก
    Nvidia GeForce Now มีบริการฟรีแบบจำกัดเวลาและแสดงโฆษณาเช่นกัน
    Microsoft เคยพูดถึงแนวคิด Cloud Gaming ฟรีตั้งแต่ปี 2022
    การเพิ่มโฆษณาในบริการเกมเป็นแนวทางที่ Netflix และ YouTube ใช้มาก่อน
    การสตรีมเกมผ่าน Cloud ช่วยลดความจำเป็นในการซื้อฮาร์ดแวร์ราคาแพง
    Xbox Cloud Gaming เพิ่งออกจากสถานะ beta อย่างเป็นทางการในปี 2025

    https://www.tomshardware.com/video-games/cloud-gaming/microsoft-reportedly-mulls-ad-infested-free-xbox-cloud-gaming-plan-game-pass-ultimate-subscriber-allegedly-catches-ad-during-game-loading
    🎮 “Microsoft เตรียมเปิดบริการ Xbox Cloud Gaming แบบฟรี — เล่นได้ไม่ต้องสมัคร แต่ต้องดูโฆษณาก่อนเข้าเกม” หลังจากปล่อยให้ลือกันมาหลายปี ในที่สุด Microsoft ก็เตรียมเปิดตัวบริการ Xbox Cloud Gaming แบบฟรีที่ไม่ต้องสมัคร Game Pass โดยจะมีการจำกัดเวลาเล่นและแทรกโฆษณาก่อนเริ่มเกม โดยแหล่งข่าวจาก The Verge ระบุว่าบริษัทกำลังทดสอบระบบนี้ภายในกับพนักงาน และเตรียมเปิด public beta ในอีกไม่กี่เดือนข้างหน้า ผู้ใช้ในแพลตฟอร์มฟรีจะสามารถเล่นเกมที่ตนเองเป็นเจ้าของ, เกมจากโปรแกรม Free Play Days (ทดลองเล่นฟรีช่วงสุดสัปดาห์), และ Xbox Retro Classics ได้ โดยก่อนเข้าเกมจะต้องดูโฆษณาความยาวประมาณ 2 นาที และแต่ละ session จะเล่นได้เพียง 1 ชั่วโมง จำกัดสูงสุด 5 ชั่วโมงต่อเดือน แม้จะเป็นบริการฟรี แต่มีผู้ใช้ Game Pass Ultimate รายหนึ่งโพสต์บน X (Twitter) ว่าเขาเจอโฆษณา Dior Men Spring 2025 ระหว่างโหลดเกม Gears of War: Reloaded ซึ่งสร้างความไม่พอใจอย่างมาก เพราะ Game Pass Ultimate เป็นแพ็กเกจระดับสูงที่เพิ่งขึ้นราคาถึง 50% ในบางประเทศ ในด้านคุณภาพการสตรีม ผู้ใช้ Game Pass Ultimate จะได้ความละเอียดสูงสุด 1440p ที่ 30 Mbps หรือ 1080p ที่ 20 Mbps ขณะที่ผู้ใช้ Essential และ Premium ได้ 1080p ที่ 12 Mbps ส่วนแพลตฟอร์มฟรียังไม่มีข้อมูลเรื่องความละเอียดหรือ bitrate ที่แน่นอน บริการ Xbox Cloud Gaming แบบฟรีจะเปิดให้ใช้งานบน PC, มือถือ, คอนโซล Xbox และเว็บเบราว์เซอร์ โดยยังไม่ระบุว่าจะเปิดให้ใช้ในประเทศใดบ้าง และเงื่อนไขต่าง ๆ อาจเปลี่ยนแปลงได้เมื่อเปิดตัวจริง ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เตรียมเปิด Xbox Cloud Gaming แบบฟรีโดยไม่ต้องสมัคร Game Pass ➡️ ผู้ใช้ต้องดูโฆษณาความยาว 2 นาที ก่อนเข้าเล่นเกมแต่ละครั้ง ➡️ จำกัดการเล่นไว้ที่ 1 ชั่วโมงต่อ session และสูงสุด 5 ชั่วโมงต่อเดือน ➡️ เกมที่เล่นได้รวมถึงเกมที่ผู้ใช้เป็นเจ้าของ, Free Play Days และ Xbox Retro Classics ➡️ มีผู้ใช้ Game Pass Ultimate รายงานว่าเจอโฆษณาระหว่างโหลดเกม ➡️ Game Pass Ultimate ได้ความละเอียดสูงสุด 1440p ที่ 30 Mbps ➡️ Essential และ Premium ได้ 1080p ที่ 12 Mbps ➡️ บริการฟรีจะเปิดให้ใช้บน PC, มือถือ, Xbox และเว็บเบราว์เซอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia GeForce Now มีบริการฟรีแบบจำกัดเวลาและแสดงโฆษณาเช่นกัน ➡️ Microsoft เคยพูดถึงแนวคิด Cloud Gaming ฟรีตั้งแต่ปี 2022 ➡️ การเพิ่มโฆษณาในบริการเกมเป็นแนวทางที่ Netflix และ YouTube ใช้มาก่อน ➡️ การสตรีมเกมผ่าน Cloud ช่วยลดความจำเป็นในการซื้อฮาร์ดแวร์ราคาแพง ➡️ Xbox Cloud Gaming เพิ่งออกจากสถานะ beta อย่างเป็นทางการในปี 2025 https://www.tomshardware.com/video-games/cloud-gaming/microsoft-reportedly-mulls-ad-infested-free-xbox-cloud-gaming-plan-game-pass-ultimate-subscriber-allegedly-catches-ad-during-game-loading
    0 Comments 0 Shares 118 Views 0 Reviews
  • “IBM เปิดตัว Granite 4.0 — โมเดล AI ไฮบริดที่เล็กแต่แรง ท้าชนคู่แข่งที่ใหญ่กว่าถึง 12 เท่า”

    IBM เดินหน้าสร้างจุดยืนในโลก AI ด้วยการเปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สที่ออกแบบมาเพื่อองค์กรโดยเฉพาะ จุดเด่นของ Granite 4.0 คือสถาปัตยกรรมแบบ “ไฮบริด” ที่ผสมผสานระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10 เพื่อให้ได้ทั้งความเร็วและความแม่นยำ โดยลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป

    Mamba-2 เป็นโมเดลแบบ state-space ที่ประมวลผลข้อมูลแบบเชิงเส้น ทำให้เหมาะกับงานที่มีบริบทยาว เช่น เอกสารหรือโค้ดขนาดใหญ่ ขณะที่ Transformer ยังคงทำหน้าที่ในส่วนที่ต้องการความละเอียดของบริบท เช่น การตอบคำถามหรือการสื่อสารแบบละเอียด

    Granite 4.0 เปิดตัวพร้อมกันหลายขนาด ได้แก่ Micro, Tiny และ Small โดยรุ่น Small เหมาะกับงานระดับองค์กร เช่น ระบบตอบกลับอัตโนมัติหรือ multi-agent workflows ส่วนรุ่น Micro และ Tiny เหมาะกับงานที่ต้องการความเร็ว เช่น edge computing และแอปพลิเคชันที่มี latency ต่ำ

    ผลการทดสอบบน IFEval พบว่า Granite 4.0-H-Small ได้คะแนน 0.89 ซึ่งสูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick ที่มีขนาดใหญ่กว่าถึง 12 เท่า IBM ยังร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง เพื่อปรับปรุงโมเดลให้เหมาะกับงานระดับองค์กร

    โมเดลทั้งหมดเปิดให้ใช้งานผ่านหลายแพลตฟอร์ม เช่น watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM, Replicate และ Dell Technologies โดยมีแผนจะขยายไปยัง Amazon SageMaker และ Microsoft Azure ในอนาคต

    ข้อมูลสำคัญจากข่าว
    IBM เปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สภายใต้ Apache 2.0 License
    ใช้สถาปัตยกรรมไฮบริดระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10
    ลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป
    Granite 4.0-H-Small ได้คะแนน 0.89 บน IFEval สูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick
    เปิดตัวหลายขนาด ได้แก่ Micro, Tiny และ Small พร้อมรุ่น Instruct
    รุ่น Small เหมาะกับงานระดับองค์กร เช่น multi-tool agents และ customer support
    รุ่น Micro และ Tiny เหมาะกับ edge devices และงานที่ต้องการ latency ต่ำ
    เปิดให้ใช้งานผ่าน watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM ฯลฯ
    IBM ร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง

    ข้อมูลเสริมจากภายนอก
    Mamba-2 เป็นโมเดลแบบ state-space ที่ใช้หน่วยความจำคงที่ ไม่เพิ่มตามความยาวบริบท
    Transformer มีจุดแข็งด้าน self-attention แต่ใช้ RAM สูงเมื่อบริบทยาว
    การผสม Mamba กับ Transformer ช่วยลดต้นทุนฮาร์ดแวร์และเพิ่มความเร็วในการ inference
    Granite 4.0 ได้รับการรับรอง ISO 42001 และมีการเซ็นดิจิทัลเพื่อความโปร่งใส
    โมเดลถูกฝึกด้วยข้อมูลกว่า 22 ล้านล้าน token และรองรับ sequence ยาวถึง 512K token

    https://news.itsfoss.com/ibm-unveils-granite-4/
    🧠 “IBM เปิดตัว Granite 4.0 — โมเดล AI ไฮบริดที่เล็กแต่แรง ท้าชนคู่แข่งที่ใหญ่กว่าถึง 12 เท่า” IBM เดินหน้าสร้างจุดยืนในโลก AI ด้วยการเปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สที่ออกแบบมาเพื่อองค์กรโดยเฉพาะ จุดเด่นของ Granite 4.0 คือสถาปัตยกรรมแบบ “ไฮบริด” ที่ผสมผสานระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10 เพื่อให้ได้ทั้งความเร็วและความแม่นยำ โดยลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป Mamba-2 เป็นโมเดลแบบ state-space ที่ประมวลผลข้อมูลแบบเชิงเส้น ทำให้เหมาะกับงานที่มีบริบทยาว เช่น เอกสารหรือโค้ดขนาดใหญ่ ขณะที่ Transformer ยังคงทำหน้าที่ในส่วนที่ต้องการความละเอียดของบริบท เช่น การตอบคำถามหรือการสื่อสารแบบละเอียด Granite 4.0 เปิดตัวพร้อมกันหลายขนาด ได้แก่ Micro, Tiny และ Small โดยรุ่น Small เหมาะกับงานระดับองค์กร เช่น ระบบตอบกลับอัตโนมัติหรือ multi-agent workflows ส่วนรุ่น Micro และ Tiny เหมาะกับงานที่ต้องการความเร็ว เช่น edge computing และแอปพลิเคชันที่มี latency ต่ำ ผลการทดสอบบน IFEval พบว่า Granite 4.0-H-Small ได้คะแนน 0.89 ซึ่งสูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick ที่มีขนาดใหญ่กว่าถึง 12 เท่า IBM ยังร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง เพื่อปรับปรุงโมเดลให้เหมาะกับงานระดับองค์กร โมเดลทั้งหมดเปิดให้ใช้งานผ่านหลายแพลตฟอร์ม เช่น watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM, Replicate และ Dell Technologies โดยมีแผนจะขยายไปยัง Amazon SageMaker และ Microsoft Azure ในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ IBM เปิดตัว Granite 4.0 โมเดลภาษาแบบโอเพ่นซอร์สภายใต้ Apache 2.0 License ➡️ ใช้สถาปัตยกรรมไฮบริดระหว่าง Mamba-2 และ Transformer ในอัตราส่วน 90:10 ➡️ ลดการใช้ RAM ได้มากกว่า 70% เมื่อเทียบกับโมเดลทั่วไป ➡️ Granite 4.0-H-Small ได้คะแนน 0.89 บน IFEval สูงกว่าทุกโมเดลโอเพ่นเวต ยกเว้น Llama 4 Maverick ➡️ เปิดตัวหลายขนาด ได้แก่ Micro, Tiny และ Small พร้อมรุ่น Instruct ➡️ รุ่น Small เหมาะกับงานระดับองค์กร เช่น multi-tool agents และ customer support ➡️ รุ่น Micro และ Tiny เหมาะกับ edge devices และงานที่ต้องการ latency ต่ำ ➡️ เปิดให้ใช้งานผ่าน watsonx.ai, Hugging Face, Docker Hub, NVIDIA NIM ฯลฯ ➡️ IBM ร่วมมือกับ EY และ Lockheed Martin ในการทดสอบใช้งานจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Mamba-2 เป็นโมเดลแบบ state-space ที่ใช้หน่วยความจำคงที่ ไม่เพิ่มตามความยาวบริบท ➡️ Transformer มีจุดแข็งด้าน self-attention แต่ใช้ RAM สูงเมื่อบริบทยาว ➡️ การผสม Mamba กับ Transformer ช่วยลดต้นทุนฮาร์ดแวร์และเพิ่มความเร็วในการ inference ➡️ Granite 4.0 ได้รับการรับรอง ISO 42001 และมีการเซ็นดิจิทัลเพื่อความโปร่งใส ➡️ โมเดลถูกฝึกด้วยข้อมูลกว่า 22 ล้านล้าน token และรองรับ sequence ยาวถึง 512K token https://news.itsfoss.com/ibm-unveils-granite-4/
    0 Comments 0 Shares 88 Views 0 Reviews
  • “TrashBench แปลง RTX 5050 เป็น ‘5050 Ti’ ด้วยมือ — ทำลายสถิติโลก 3DMark หลายรายการ แต่แลกมาด้วยการหมดประกัน”

    ในโลกของนักโมดิฟายฮาร์ดแวร์ มีคนกลุ่มหนึ่งที่ไม่ยอมรับข้อจำกัดจากโรงงาน ล่าสุด TrashBench ยูทูบเบอร์สายฮาร์ดคอร์ ได้โชว์การอัปเกรด GeForce RTX 5050 ให้กลายเป็น “RTX 5050 Ti” ด้วยวิธีที่ไม่ธรรมดา — ทั้งการเปลี่ยนฮีตซิงก์, ติดตั้งพัดลมใหม่, และแฟลช BIOS เพื่อปลดล็อกพลังที่ซ่อนอยู่

    เขาเริ่มจากการถอดฮีตซิงก์เดิมของ RTX 5050 แล้วนำของ RTX 5060 ที่ใหญ่กว่าอย่างชัดเจนมาใส่แทน โดยต้องเจาะและปรับแต่งให้พอดีกับ PCB เดิม จากนั้นติดตั้งพัดลม GAMDIAS เพื่อเพิ่มประสิทธิภาพการระบายความร้อน ก่อนจะใช้โปรแกรม NVFLASH แฟลช BIOS ใหม่ ซึ่งทำให้ GPU ทำงานได้แรงขึ้นถึง 3.3GHz — สูงกว่าค่ามาตรฐานเดิมถึง 500MHz

    ผลลัพธ์คือประสิทธิภาพเพิ่มขึ้น 16% เมื่อเทียบกับ RTX 5050 เดิม และลดช่องว่างกับ RTX 5060 ที่เคยแรงกว่าถึง 33% เหลือเพียงราว 17% เท่านั้น ที่สำคัญ TrashBench ยังทำลายสถิติโลกในหลายการทดสอบ เช่น Time Spy (11,715 คะแนน), Steel Nomad (2,703 คะแนน), และ Port Royal (7,001 คะแนน — เป็นคนแรกที่ทะลุ 7,000)

    แม้จะดูน่าทึ่ง แต่การโมดิฟายเช่นนี้ย่อมมีข้อแลกเปลี่ยน — การหมดประกัน, ความเสี่ยงด้านความร้อน, และความไม่แน่นอนของระบบในระยะยาว ซึ่ง TrashBench ก็ยอมรับว่า “ไม่ใช่ทุกคนควรทำแบบนี้” และแนะนำให้คนทั่วไปเพิ่มงบอีก $50 เพื่อซื้อ RTX 5060 ไปเลยจะคุ้มกว่า

    ข้อมูลสำคัญจากข่าว
    TrashBench โมดิฟาย RTX 5050 ด้วยฮีตซิงก์ของ RTX 5060 และพัดลม GAMDIAS
    ใช้โปรแกรม NVFLASH แฟลช BIOS เพื่อปลดล็อกประสิทธิภาพ
    GPU ทำงานได้ที่ 3.3GHz สูงกว่าค่ามาตรฐานเดิม 500MHz
    ประสิทธิภาพเพิ่มขึ้น 16% เมื่อเทียบกับ RTX 5050 เดิม
    ลดช่องว่างกับ RTX 5060 จาก 33% เหลือประมาณ 17%
    ทำลายสถิติโลกใน 3DMark หลายรายการ เช่น Time Spy, Steel Nomad, Port Royal
    TrashBench เป็นยูทูบเบอร์สายฮาร์ดแวร์ที่มีชื่อเสียงด้านการโอเวอร์คล็อก
    แนะนำให้คนทั่วไปซื้อ RTX 5060 โดยไม่ต้องโมดิฟาย

    ข้อมูลเสริมจากภายนอก
    NVFLASH เป็นเครื่องมือแฟลช BIOS สำหรับการ์ดจอ NVIDIA โดยเฉพาะ
    การเปลี่ยนฮีตซิงก์ช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่ร้อนเกินไป
    Port Royal เป็นการทดสอบ ray tracing ที่ใช้วัดประสิทธิภาพการ์ดจอรุ่นใหม่
    Steel Nomad เป็น benchmark ใหม่ที่เน้นการทดสอบการเรนเดอร์แบบหนัก
    การ์ดจอที่โอเวอร์คล็อกได้ดีมักต้องมีระบบระบายความร้อนที่เหนือกว่ามาตรฐาน

    https://wccftech.com/user-upgrades-geforce-rtx-5050-to-rtx-5050-ti-breaks-multiple-world-records/
    ⚙️ “TrashBench แปลง RTX 5050 เป็น ‘5050 Ti’ ด้วยมือ — ทำลายสถิติโลก 3DMark หลายรายการ แต่แลกมาด้วยการหมดประกัน” ในโลกของนักโมดิฟายฮาร์ดแวร์ มีคนกลุ่มหนึ่งที่ไม่ยอมรับข้อจำกัดจากโรงงาน ล่าสุด TrashBench ยูทูบเบอร์สายฮาร์ดคอร์ ได้โชว์การอัปเกรด GeForce RTX 5050 ให้กลายเป็น “RTX 5050 Ti” ด้วยวิธีที่ไม่ธรรมดา — ทั้งการเปลี่ยนฮีตซิงก์, ติดตั้งพัดลมใหม่, และแฟลช BIOS เพื่อปลดล็อกพลังที่ซ่อนอยู่ เขาเริ่มจากการถอดฮีตซิงก์เดิมของ RTX 5050 แล้วนำของ RTX 5060 ที่ใหญ่กว่าอย่างชัดเจนมาใส่แทน โดยต้องเจาะและปรับแต่งให้พอดีกับ PCB เดิม จากนั้นติดตั้งพัดลม GAMDIAS เพื่อเพิ่มประสิทธิภาพการระบายความร้อน ก่อนจะใช้โปรแกรม NVFLASH แฟลช BIOS ใหม่ ซึ่งทำให้ GPU ทำงานได้แรงขึ้นถึง 3.3GHz — สูงกว่าค่ามาตรฐานเดิมถึง 500MHz ผลลัพธ์คือประสิทธิภาพเพิ่มขึ้น 16% เมื่อเทียบกับ RTX 5050 เดิม และลดช่องว่างกับ RTX 5060 ที่เคยแรงกว่าถึง 33% เหลือเพียงราว 17% เท่านั้น ที่สำคัญ TrashBench ยังทำลายสถิติโลกในหลายการทดสอบ เช่น Time Spy (11,715 คะแนน), Steel Nomad (2,703 คะแนน), และ Port Royal (7,001 คะแนน — เป็นคนแรกที่ทะลุ 7,000) แม้จะดูน่าทึ่ง แต่การโมดิฟายเช่นนี้ย่อมมีข้อแลกเปลี่ยน — การหมดประกัน, ความเสี่ยงด้านความร้อน, และความไม่แน่นอนของระบบในระยะยาว ซึ่ง TrashBench ก็ยอมรับว่า “ไม่ใช่ทุกคนควรทำแบบนี้” และแนะนำให้คนทั่วไปเพิ่มงบอีก $50 เพื่อซื้อ RTX 5060 ไปเลยจะคุ้มกว่า ✅ ข้อมูลสำคัญจากข่าว ➡️ TrashBench โมดิฟาย RTX 5050 ด้วยฮีตซิงก์ของ RTX 5060 และพัดลม GAMDIAS ➡️ ใช้โปรแกรม NVFLASH แฟลช BIOS เพื่อปลดล็อกประสิทธิภาพ ➡️ GPU ทำงานได้ที่ 3.3GHz สูงกว่าค่ามาตรฐานเดิม 500MHz ➡️ ประสิทธิภาพเพิ่มขึ้น 16% เมื่อเทียบกับ RTX 5050 เดิม ➡️ ลดช่องว่างกับ RTX 5060 จาก 33% เหลือประมาณ 17% ➡️ ทำลายสถิติโลกใน 3DMark หลายรายการ เช่น Time Spy, Steel Nomad, Port Royal ➡️ TrashBench เป็นยูทูบเบอร์สายฮาร์ดแวร์ที่มีชื่อเสียงด้านการโอเวอร์คล็อก ➡️ แนะนำให้คนทั่วไปซื้อ RTX 5060 โดยไม่ต้องโมดิฟาย ✅ ข้อมูลเสริมจากภายนอก ➡️ NVFLASH เป็นเครื่องมือแฟลช BIOS สำหรับการ์ดจอ NVIDIA โดยเฉพาะ ➡️ การเปลี่ยนฮีตซิงก์ช่วยให้ GPU ทำงานที่ความถี่สูงขึ้นโดยไม่ร้อนเกินไป ➡️ Port Royal เป็นการทดสอบ ray tracing ที่ใช้วัดประสิทธิภาพการ์ดจอรุ่นใหม่ ➡️ Steel Nomad เป็น benchmark ใหม่ที่เน้นการทดสอบการเรนเดอร์แบบหนัก ➡️ การ์ดจอที่โอเวอร์คล็อกได้ดีมักต้องมีระบบระบายความร้อนที่เหนือกว่ามาตรฐาน https://wccftech.com/user-upgrades-geforce-rtx-5050-to-rtx-5050-ti-breaks-multiple-world-records/
    WCCFTECH.COM
    User Upgrades GeForce RTX 5050 To RTX 5050 "Ti"; Breaks Multiple World Records
    A user modded his GeForce RTX 5050 by replacing its cooler and flashing its BIOS, closing the gap between RTX 5050 and RTX 5060.
    0 Comments 0 Shares 180 Views 0 Reviews
  • “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง”

    ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI

    ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด

    AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้

    Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง

    ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน

    ข้อมูลสำคัญจากข่าว
    Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane
    RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ
    GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40
    AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D
    RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า
    Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client
    Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง
    Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร

    ข้อมูลเสริมจากภายนอก
    RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7
    RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2
    Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI
    MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล
    CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ

    https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    🎨 “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง” ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้ Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane ➡️ RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ ➡️ GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40 ➡️ AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D ➡️ RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า ➡️ Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client ➡️ Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง ➡️ Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7 ➡️ RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2 ➡️ Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI ➡️ MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล ➡️ CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    0 Comments 0 Shares 163 Views 0 Reviews
  • “Microsoft ร่วมทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิก — เตรียมรับยุค GPU 10kW ที่เปลี่ยนโฉมศูนย์ข้อมูล”

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลระดับโลก ความร้อนจากชิปประสิทธิภาพสูงกลายเป็นอุปสรรคสำคัญ ล่าสุด Microsoft ได้ร่วมมือกับสตาร์ทอัพจากสวิตเซอร์แลนด์ชื่อ Corintis เพื่อทดสอบระบบระบายความร้อนแบบ “ไมโครฟลูอิดิก” (microfluidic cooling) ที่สามารถจัดการกับ GPU ที่ใช้พลังงานสูงถึง 10kW — มากกว่าระดับปัจจุบันถึงสิบเท่า

    GPU ที่ใช้ในศูนย์ข้อมูล AI เช่น Nvidia H100 ปัจจุบันมีการใช้พลังงานประมาณ 700–800W และรุ่นใหม่อย่าง GB200 คาดว่าจะทะลุ 1kW ซึ่งทำให้การระบายความร้อนแบบเดิมเริ่มไม่เพียงพอ Corintis จึงพัฒนาเทคโนโลยีที่ฝังระบบระบายความร้อนไว้ “ในตัวชิป” โดยใช้ช่องทางของเหลวขนาดเล็กที่ออกแบบเฉพาะให้ตรงกับโครงสร้างของแต่ละชิป

    Microsoft ยืนยันว่าได้ทดสอบระบบนี้บนเซิร์ฟเวอร์จริงที่รันบริการหลักแล้ว และพบว่า “ขอบเขตความร้อน” ที่ลดลงสามารถแปลเป็นประสิทธิภาพที่สูงขึ้นและความสามารถในการโอเวอร์คล็อกที่มากขึ้น นอกจากนี้ยังเปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม

    Corintis ได้รับเงินลงทุนรอบ Series A จำนวน $24 ล้านจาก BlueYard Capital และนักลงทุนรายใหญ่ เช่น Lip-Bu Tan (อดีต CEO ของ Cadence และกรรมการ Intel) และ Geoff Lyon (อดีตผู้ก่อตั้ง CoolIT) โดยตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026

    แม้เทคโนโลยีนี้จะยังอยู่ในช่วงเริ่มต้น แต่การที่ Microsoft นำไปใช้จริงในเซิร์ฟเวอร์ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีการออกแบบศูนย์ข้อมูลในอนาคต โดยเฉพาะเมื่อความต้องการพลังงานของ AI เพิ่มขึ้นอย่างรวดเร็วทั่วโลก

    ข้อมูลสำคัญจากข่าว
    Microsoft ร่วมมือกับ Corintis ทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิกในเซิร์ฟเวอร์จริง
    ระบบนี้สามารถรองรับ GPU ที่ใช้พลังงานสูงถึง 10kW
    GPU ปัจจุบัน เช่น Nvidia H100 ใช้พลังงานประมาณ 700–800W
    ระบบระบายความร้อนฝังในชิปช่วยลดความร้อนและเพิ่มประสิทธิภาพ
    เปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม
    Corintis ได้รับเงินลงทุน $24 ล้านจากนักลงทุนรายใหญ่
    ตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026
    Microsoft ยืนยันว่าการลดความร้อนช่วยเพิ่มประสิทธิภาพและโอเวอร์คล็อกได้มากขึ้น

    ข้อมูลเสริมจากภายนอก
    Microfluidic cooling คือการระบายความร้อนด้วยของเหลวผ่านช่องทางขนาดเล็กที่ออกแบบเฉพาะ
    การฝังระบบระบายความร้อนในชิปช่วยลดการใช้พลังงานในการทำความเย็น
    ความร้อนที่ถูกระบายออกมาสามารถนำไปใช้ซ้ำ เช่น ระบบทำความร้อนในอาคาร
    การออกแบบชิปแบบ 3D ต้องการระบบระบายความร้อนที่ฝังในชั้นกลางของชิป
    ตลาดศูนย์ข้อมูล AI คาดว่าจะเติบโตเกิน $1 ล้านล้านภายในปี 2030

    https://www.techradar.com/pro/4kw-is-certainly-possible-but-it-can-go-much-higher-microsoft-backed-startup-could-dissipate-10kw-gpus-its-founder-confirms
    💧 “Microsoft ร่วมทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิก — เตรียมรับยุค GPU 10kW ที่เปลี่ยนโฉมศูนย์ข้อมูล” ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลระดับโลก ความร้อนจากชิปประสิทธิภาพสูงกลายเป็นอุปสรรคสำคัญ ล่าสุด Microsoft ได้ร่วมมือกับสตาร์ทอัพจากสวิตเซอร์แลนด์ชื่อ Corintis เพื่อทดสอบระบบระบายความร้อนแบบ “ไมโครฟลูอิดิก” (microfluidic cooling) ที่สามารถจัดการกับ GPU ที่ใช้พลังงานสูงถึง 10kW — มากกว่าระดับปัจจุบันถึงสิบเท่า GPU ที่ใช้ในศูนย์ข้อมูล AI เช่น Nvidia H100 ปัจจุบันมีการใช้พลังงานประมาณ 700–800W และรุ่นใหม่อย่าง GB200 คาดว่าจะทะลุ 1kW ซึ่งทำให้การระบายความร้อนแบบเดิมเริ่มไม่เพียงพอ Corintis จึงพัฒนาเทคโนโลยีที่ฝังระบบระบายความร้อนไว้ “ในตัวชิป” โดยใช้ช่องทางของเหลวขนาดเล็กที่ออกแบบเฉพาะให้ตรงกับโครงสร้างของแต่ละชิป Microsoft ยืนยันว่าได้ทดสอบระบบนี้บนเซิร์ฟเวอร์จริงที่รันบริการหลักแล้ว และพบว่า “ขอบเขตความร้อน” ที่ลดลงสามารถแปลเป็นประสิทธิภาพที่สูงขึ้นและความสามารถในการโอเวอร์คล็อกที่มากขึ้น นอกจากนี้ยังเปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม Corintis ได้รับเงินลงทุนรอบ Series A จำนวน $24 ล้านจาก BlueYard Capital และนักลงทุนรายใหญ่ เช่น Lip-Bu Tan (อดีต CEO ของ Cadence และกรรมการ Intel) และ Geoff Lyon (อดีตผู้ก่อตั้ง CoolIT) โดยตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026 แม้เทคโนโลยีนี้จะยังอยู่ในช่วงเริ่มต้น แต่การที่ Microsoft นำไปใช้จริงในเซิร์ฟเวอร์ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีการออกแบบศูนย์ข้อมูลในอนาคต โดยเฉพาะเมื่อความต้องการพลังงานของ AI เพิ่มขึ้นอย่างรวดเร็วทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ร่วมมือกับ Corintis ทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิกในเซิร์ฟเวอร์จริง ➡️ ระบบนี้สามารถรองรับ GPU ที่ใช้พลังงานสูงถึง 10kW ➡️ GPU ปัจจุบัน เช่น Nvidia H100 ใช้พลังงานประมาณ 700–800W ➡️ ระบบระบายความร้อนฝังในชิปช่วยลดความร้อนและเพิ่มประสิทธิภาพ ➡️ เปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม ➡️ Corintis ได้รับเงินลงทุน $24 ล้านจากนักลงทุนรายใหญ่ ➡️ ตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026 ➡️ Microsoft ยืนยันว่าการลดความร้อนช่วยเพิ่มประสิทธิภาพและโอเวอร์คล็อกได้มากขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Microfluidic cooling คือการระบายความร้อนด้วยของเหลวผ่านช่องทางขนาดเล็กที่ออกแบบเฉพาะ ➡️ การฝังระบบระบายความร้อนในชิปช่วยลดการใช้พลังงานในการทำความเย็น ➡️ ความร้อนที่ถูกระบายออกมาสามารถนำไปใช้ซ้ำ เช่น ระบบทำความร้อนในอาคาร ➡️ การออกแบบชิปแบบ 3D ต้องการระบบระบายความร้อนที่ฝังในชั้นกลางของชิป ➡️ ตลาดศูนย์ข้อมูล AI คาดว่าจะเติบโตเกิน $1 ล้านล้านภายในปี 2030 https://www.techradar.com/pro/4kw-is-certainly-possible-but-it-can-go-much-higher-microsoft-backed-startup-could-dissipate-10kw-gpus-its-founder-confirms
    0 Comments 0 Shares 159 Views 0 Reviews
  • “Jim Keller ชี้ Intel ยังไม่พร้อมเต็มที่สำหรับชิประดับ 2nm — แต่มีโอกาสเป็นผู้เล่นหลัก หากปรับแผนผลิตให้แข็งแรง”

    Jim Keller สุดยอดนักออกแบบชิประดับตำนาน ผู้เคยฝากผลงานไว้กับ AMD, Apple, Tesla และ Intel ได้ออกมาให้สัมภาษณ์กับ Nikkei Asia ถึงความคืบหน้าของ Intel Foundry โดยระบุว่า Intel กำลังถูกพิจารณาให้เป็นหนึ่งในผู้ผลิตชิประดับ 2nm สำหรับบริษัทของเขา Tenstorrent ซึ่งกำลังพัฒนา AI accelerator บนสถาปัตยกรรม RISC-V

    แม้ Keller จะมองว่า Intel มีศักยภาพสูง แต่ก็ยังต้อง “ทำงานอีกมาก” เพื่อให้เทคโนโลยีของตนพร้อมสำหรับการผลิตในระดับปริมาณมาก โดยเฉพาะในแง่ของ roadmap และความเสถียรของกระบวนการผลิต ซึ่งยังตามหลังคู่แข่งอย่าง TSMC, Samsung และ Rapidus อยู่พอสมควร

    Tenstorrent กำลังพูดคุยกับผู้ผลิตหลายรายเพื่อเลือกเทคโนโลยี 2nm ที่เหมาะสม ไม่ว่าจะเป็น TSMC, Samsung, Rapidus และ Intel โดย Keller ย้ำว่าเขาไม่ปิดโอกาสให้ Intel แต่ต้องการเห็นความชัดเจนในแผนการผลิตและความสามารถในการส่งมอบจริง

    Intel ได้เปิดตัวกระบวนการผลิตใหม่อย่าง 18A และ 14A ซึ่งใช้เทคโนโลยี RibbonFET และ PowerVia โดยมีแผนจะผลิตชิปให้กับลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia และ Qualcomm ในอนาคต หากสามารถพิสูจน์ความเสถียรได้

    ในขณะเดียวกัน Rapidus จากญี่ปุ่นก็เร่งสร้างโรงงานผลิต 2nm ที่เมือง Chitose และร่วมมือกับ IBM และ imec เพื่อพัฒนาเทคโนโลยี EUV lithography โดยมีแผนเริ่มผลิตจริงในปี 2027 ซึ่งอาจกลายเป็นคู่แข่งใหม่ที่น่าจับตามองในตลาด foundry ระดับโลก

    ข้อมูลสำคัญจากข่าว
    Jim Keller กล่าวว่า Intel ยังต้องปรับปรุง roadmap และความเสถียรของกระบวนการผลิต
    Tenstorrent กำลังพิจารณา Intel เป็นหนึ่งในผู้ผลิตชิประดับ 2nm
    Intel เปิดตัวกระบวนการผลิต 18A และ 14A พร้อมเทคโนโลยี RibbonFET และ PowerVia
    Intel มีแผนผลิตชิปให้ลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia, Qualcomm
    Tenstorrent เป็นบริษัท AI ที่ใช้สถาปัตยกรรม RISC-V และกำลังพัฒนา accelerator แบบ multi-chiplet
    Rapidus จากญี่ปุ่นร่วมมือกับ IBM และ imec เพื่อสร้างโรงงานผลิต 2nm ที่จะเปิดในปี 2027
    Keller เคยทำงานกับ AMD, Apple, Tesla และ Intel จึงมีอิทธิพลสูงในวงการออกแบบชิป
    Intel ต้องการเปลี่ยนจากการผลิตภายในเป็นการให้บริการ foundry แบบเปิด

    ข้อมูลเสริมจากภายนอก
    18A และ 14A ของ Intel ใช้โครงสร้าง GAA transistor ที่เรียกว่า RibbonFET
    PowerVia เป็นเทคโนโลยีส่งไฟฟ้าจากด้านหลังของชิป ช่วยลดความซับซ้อนของ routing
    Rapidus เป็นบริษัทญี่ปุ่นที่ได้รับการสนับสนุนจากรัฐบาลและมีเป้าหมายเป็น foundry ระดับโลก
    TSMC และ Samsung เป็นผู้นำในตลาด 2nm แต่ยังมีปัญหาเรื่อง yield และต้นทุน
    การแข่งขันในตลาด foundry กำลังเปลี่ยนจาก “ขนาดเล็กที่สุด” ไปสู่ “ความเสถียรและความยืดหยุ่นในการผลิต”

    https://wccftech.com/chip-expert-jim-keller-says-intel-is-being-considered-for-cutting-edge-chips/
    🔧 “Jim Keller ชี้ Intel ยังไม่พร้อมเต็มที่สำหรับชิประดับ 2nm — แต่มีโอกาสเป็นผู้เล่นหลัก หากปรับแผนผลิตให้แข็งแรง” Jim Keller สุดยอดนักออกแบบชิประดับตำนาน ผู้เคยฝากผลงานไว้กับ AMD, Apple, Tesla และ Intel ได้ออกมาให้สัมภาษณ์กับ Nikkei Asia ถึงความคืบหน้าของ Intel Foundry โดยระบุว่า Intel กำลังถูกพิจารณาให้เป็นหนึ่งในผู้ผลิตชิประดับ 2nm สำหรับบริษัทของเขา Tenstorrent ซึ่งกำลังพัฒนา AI accelerator บนสถาปัตยกรรม RISC-V แม้ Keller จะมองว่า Intel มีศักยภาพสูง แต่ก็ยังต้อง “ทำงานอีกมาก” เพื่อให้เทคโนโลยีของตนพร้อมสำหรับการผลิตในระดับปริมาณมาก โดยเฉพาะในแง่ของ roadmap และความเสถียรของกระบวนการผลิต ซึ่งยังตามหลังคู่แข่งอย่าง TSMC, Samsung และ Rapidus อยู่พอสมควร Tenstorrent กำลังพูดคุยกับผู้ผลิตหลายรายเพื่อเลือกเทคโนโลยี 2nm ที่เหมาะสม ไม่ว่าจะเป็น TSMC, Samsung, Rapidus และ Intel โดย Keller ย้ำว่าเขาไม่ปิดโอกาสให้ Intel แต่ต้องการเห็นความชัดเจนในแผนการผลิตและความสามารถในการส่งมอบจริง Intel ได้เปิดตัวกระบวนการผลิตใหม่อย่าง 18A และ 14A ซึ่งใช้เทคโนโลยี RibbonFET และ PowerVia โดยมีแผนจะผลิตชิปให้กับลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia และ Qualcomm ในอนาคต หากสามารถพิสูจน์ความเสถียรได้ ในขณะเดียวกัน Rapidus จากญี่ปุ่นก็เร่งสร้างโรงงานผลิต 2nm ที่เมือง Chitose และร่วมมือกับ IBM และ imec เพื่อพัฒนาเทคโนโลยี EUV lithography โดยมีแผนเริ่มผลิตจริงในปี 2027 ซึ่งอาจกลายเป็นคู่แข่งใหม่ที่น่าจับตามองในตลาด foundry ระดับโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Jim Keller กล่าวว่า Intel ยังต้องปรับปรุง roadmap และความเสถียรของกระบวนการผลิต ➡️ Tenstorrent กำลังพิจารณา Intel เป็นหนึ่งในผู้ผลิตชิประดับ 2nm ➡️ Intel เปิดตัวกระบวนการผลิต 18A และ 14A พร้อมเทคโนโลยี RibbonFET และ PowerVia ➡️ Intel มีแผนผลิตชิปให้ลูกค้าภายนอก เช่น Microsoft และอาจรวมถึง Nvidia, Qualcomm ➡️ Tenstorrent เป็นบริษัท AI ที่ใช้สถาปัตยกรรม RISC-V และกำลังพัฒนา accelerator แบบ multi-chiplet ➡️ Rapidus จากญี่ปุ่นร่วมมือกับ IBM และ imec เพื่อสร้างโรงงานผลิต 2nm ที่จะเปิดในปี 2027 ➡️ Keller เคยทำงานกับ AMD, Apple, Tesla และ Intel จึงมีอิทธิพลสูงในวงการออกแบบชิป ➡️ Intel ต้องการเปลี่ยนจากการผลิตภายในเป็นการให้บริการ foundry แบบเปิด ✅ ข้อมูลเสริมจากภายนอก ➡️ 18A และ 14A ของ Intel ใช้โครงสร้าง GAA transistor ที่เรียกว่า RibbonFET ➡️ PowerVia เป็นเทคโนโลยีส่งไฟฟ้าจากด้านหลังของชิป ช่วยลดความซับซ้อนของ routing ➡️ Rapidus เป็นบริษัทญี่ปุ่นที่ได้รับการสนับสนุนจากรัฐบาลและมีเป้าหมายเป็น foundry ระดับโลก ➡️ TSMC และ Samsung เป็นผู้นำในตลาด 2nm แต่ยังมีปัญหาเรื่อง yield และต้นทุน ➡️ การแข่งขันในตลาด foundry กำลังเปลี่ยนจาก “ขนาดเล็กที่สุด” ไปสู่ “ความเสถียรและความยืดหยุ่นในการผลิต” https://wccftech.com/chip-expert-jim-keller-says-intel-is-being-considered-for-cutting-edge-chips/
    WCCFTECH.COM
    ‘Iconic’ Chip Expert Jim Keller Says Intel Is Being Considered For Cutting-Edge Chips, But They Have a Lot to Do to Deliver a Solid Product
    The legendary chip architect Jim Keller has shared his thoughts on Intel's processes, claiming that they need to refine the 'foundry game'.
    0 Comments 0 Shares 174 Views 0 Reviews
  • “Micron เปิดตัว HBM4 แรงทะลุ 2.8TB/s — พร้อมแผน HBM4E แบบปรับแต่งได้สำหรับ Nvidia และ AMD”

    Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร

    HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น

    Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน

    ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps
    สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps
    ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่
    เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว
    เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ
    พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD
    HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน
    Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด
    ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B

    ข้อมูลเสริมจากภายนอก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง
    JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม
    การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ
    TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron
    Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die

    https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
    🚀 “Micron เปิดตัว HBM4 แรงทะลุ 2.8TB/s — พร้อมแผน HBM4E แบบปรับแต่งได้สำหรับ Nvidia และ AMD” Micron ประกาศความสำเร็จครั้งใหญ่ในตลาดหน่วยความจำความเร็วสูง (HBM) ด้วยการเปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ซึ่งสูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps อย่างชัดเจน โดยเริ่มส่งมอบตัวอย่างให้ลูกค้าแล้ว และเตรียมพร้อมสำหรับการใช้งานจริงในแพลตฟอร์ม AI ระดับองค์กร HBM4 รุ่นใหม่ของ Micron ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ที่ช่วยให้ประหยัดพลังงานและเพิ่มประสิทธิภาพได้อย่างโดดเด่น นอกจากนี้ยังมีแผนเปิดตัว HBM4E ซึ่งจะเป็นครั้งแรกที่มีการเสนอ “base logic die” แบบปรับแต่งได้ตามความต้องการของลูกค้า เช่น Nvidia และ AMD เพื่อให้สามารถออกแบบ accelerator ที่มี latency ต่ำและการจัดการข้อมูลที่แม่นยำมากขึ้น Micron ร่วมมือกับ TSMC ในการผลิต base die สำหรับ HBM4E โดยคาดว่าจะสามารถสร้างความแตกต่างในตลาดได้อย่างชัดเจน และเพิ่ม margin ให้กับผลิตภัณฑ์แบบปรับแต่งได้มากกว่ารุ่นมาตรฐาน ในไตรมาสล่าสุด Micron รายงานรายได้จาก HBM สูงถึง 2 พันล้านดอลลาร์ ซึ่งคิดเป็นอัตรารายได้ต่อปีที่ 8 พันล้านดอลลาร์ และตั้งเป้าจะครองส่วนแบ่งในตลาด HBM ที่มีมูลค่ารวมกว่า 100 พันล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Micron เปิดตัว HBM4 ที่มีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วต่อพินเกิน 11Gbps ➡️ สูงกว่ามาตรฐาน JEDEC ที่กำหนดไว้ที่ 2TB/s และ 8Gbps ➡️ ใช้เทคโนโลยี 1-gamma DRAM, ฐาน CMOS ที่พัฒนาเอง และการบรรจุชิปแบบใหม่ ➡️ เริ่มส่งมอบตัวอย่าง HBM4 ให้ลูกค้าแล้ว ➡️ เตรียมเปิดตัว HBM4E ที่สามารถปรับแต่ง base logic die ได้ตามความต้องการ ➡️ พัฒนา HBM4E ร่วมกับ TSMC เพื่อรองรับการใช้งานใน accelerator ของ Nvidia และ AMD ➡️ HBM4E แบบปรับแต่งจะมี margin สูงกว่ารุ่นมาตรฐาน ➡️ Micron รายงานรายได้จาก HBM สูงถึง $2B ในไตรมาสล่าสุด ➡️ ตั้งเป้าครองส่วนแบ่งในตลาด HBM มูลค่า $100B ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำแบบ stacked ที่ใช้ในงาน AI และ GPU ระดับสูง ➡️ JEDEC เป็นองค์กรที่กำหนดมาตรฐานด้านหน่วยความจำในอุตสาหกรรม ➡️ การปรับแต่ง base die ช่วยให้ accelerator มี latency ต่ำและ routing ที่แม่นยำ ➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และเป็นพันธมิตรสำคัญของ Micron ➡️ Nvidia และ AMD ต้องการหน่วยความจำที่เร็วขึ้นเพื่อรองรับการเติบโตของ compute die https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix
    0 Comments 0 Shares 153 Views 0 Reviews
  • “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป”

    ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก

    ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows

    Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย

    กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป

    ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว

    ข้อมูลสำคัญจากข่าว
    Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI
    ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว
    ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค
    ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+
    Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ
    CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์
    Nscale จะใช้สำหรับ inference ในยุโรป
    Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ
    การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า

    ข้อมูลเสริมจากภายนอก
    GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่
    Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม
    การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler
    Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล
    Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    🌐 “Microsoft ทุ่ม 33 พันล้านดอลลาร์ให้ ‘Neoclouds’ — ดึง GPU จาก Nebius 100,000 ตัว เพื่อเร่งสร้าง AI Copilot รุ่นถัดไป” ในยุคที่ความต้องการพลังประมวลผล AI พุ่งทะยานจนศูนย์ข้อมูลทั่วโลกแทบไม่พอใช้งาน Microsoft ตัดสินใจเดินเกมใหม่ด้วยการลงทุนกว่า 33 พันล้านดอลลาร์ กับผู้ให้บริการโครงสร้างพื้นฐานหน้าใหม่ที่เรียกว่า “neoclouds” เช่น Nebius, CoreWeave, Nscale และ Lambda เพื่อเร่งขยายกำลังการผลิตโมเดล AI และบริการ Copilot ให้ทันกับความต้องการทั่วโลก ดีลที่ใหญ่ที่สุดคือการจับมือกับ Nebius มูลค่า 19.4 พันล้านดอลลาร์ ซึ่งทำให้ Microsoft ได้สิทธิ์เข้าถึง Nvidia GB300 GPU มากกว่า 100,000 ตัว โดยใช้สำหรับงานภายใน เช่น การฝึกโมเดลภาษาขนาดใหญ่ (LLMs) และผู้ช่วย AI สำหรับผู้บริโภค ซึ่งรวมถึงทีม CoreAI ที่อยู่เบื้องหลัง GitHub Copilot และ Copilot+ บน Windows Nebius ซึ่งมีรากจาก Yandex และปัจจุบันตั้งอยู่ในเนเธอร์แลนด์ ได้รับการสนับสนุนจาก Nvidia โดยตรง และมีศูนย์ข้อมูลที่ออกแบบมาเพื่อรองรับงาน AI โดยเฉพาะ ต่างจาก hyperscaler รายใหญ่ที่ต้องรองรับงานทั่วไปด้วย กลยุทธ์นี้ช่วยให้ Microsoft สามารถ “ปลดล็อก” ศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้าได้มากขึ้น โดยย้ายงานฝึกโมเดลไปยัง neoclouds เช่น CoreWeave ที่เคยใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ และ Nscale ที่จะใช้สำหรับงาน inference ในยุโรป ขณะเดียวกัน Microsoft ก็ยังลงทุนในศูนย์ข้อมูลของตัวเอง เช่นโครงการใน Wisconsin ที่จะใช้พื้นที่กว่า 315 เอเคอร์ พร้อมไฟเบอร์ที่ยาวพอจะพันรอบโลก 4.5 รอบ และระบบพลังงานแบบ self-sustaining เพื่อรองรับการเติบโตของ AI ในระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ลงทุนกว่า $33B กับ neoclouds เพื่อขยายกำลังประมวลผล AI ➡️ ดีลกับ Nebius มูลค่า $19.4B ให้สิทธิ์ใช้ Nvidia GB300 GPU มากกว่า 100,000 ตัว ➡️ ใช้สำหรับงานภายใน เช่น การฝึก LLM และผู้ช่วย AI สำหรับผู้บริโภค ➡️ ทีม CoreAI อยู่เบื้องหลัง GitHub Copilot และ Copilot+ ➡️ Nebius เป็น neocloud ที่ออกแบบศูนย์ข้อมูลเพื่อ AI โดยเฉพาะ ➡️ CoreWeave ใช้ฝึกโมเดลของ OpenAI ใกล้เมืองพอร์ตแลนด์ ➡️ Nscale จะใช้สำหรับ inference ในยุโรป ➡️ Microsoft สร้างศูนย์ข้อมูลใหม่ใน Wisconsin พร้อมระบบพลังงานอิสระ ➡️ การใช้ neoclouds ช่วยให้ Microsoft ปลดล็อกศูนย์ข้อมูลของตัวเองเพื่อให้บริการลูกค้า ✅ ข้อมูลเสริมจากภายนอก ➡️ GB300 คือ GPU ระดับเซิร์ฟเวอร์รุ่นล่าสุดจาก Nvidia สำหรับงาน AI ขนาดใหญ่ ➡️ Neoclouds คือผู้ให้บริการโครงสร้างพื้นฐาน AI ที่ไม่ใช่ hyperscaler แบบดั้งเดิม ➡️ การใช้ neoclouds ช่วยลดเวลาในการจัดหาไฟและชิป ซึ่งเป็นอุปสรรคหลักของ hyperscaler ➡️ Microsoft ใช้กลยุทธ์ “land-grab” เพื่อไม่ให้ถูกจำกัดด้วยกำลังประมวลผล ➡️ Meta และ Google ยังไม่ลงทุนกับ neoclouds ในระดับเดียวกับ Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-inks-usd33-billion-in-deals-with-neoclouds-like-nebius-coreweave-nebius-deal-alone-secures-100-000-nvidia-gb300-chips-for-internal-use
    WWW.TOMSHARDWARE.COM
    Microsoft inks $33 billion in deals with 'neoclouds' like Nebius, CoreWeave — Nebius deal alone secures 100,000 Nvidia GB300 chips for internal use
    Microsoft is renting external GPU data centers for internal use so it can, in turn, rent out its own facilities to other customers.
    0 Comments 0 Shares 276 Views 0 Reviews
  • “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่”

    ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่

    ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม

    Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที

    อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing
    ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A
    มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB
    ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน
    สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ
    ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง
    ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก
    ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน

    ข้อมูลเสริมจากภายนอก
    หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40%
    ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ
    RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว
    MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม
    การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย

    https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    🔥 “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่” ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่ ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing ➡️ ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A ➡️ มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB ➡️ ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน ➡️ สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ ➡️ ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง ➡️ ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก ➡️ ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน ✅ ข้อมูลเสริมจากภายนอก ➡️ หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40% ➡️ ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ ➡️ RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว ➡️ MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม ➡️ การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    0 Comments 0 Shares 155 Views 0 Reviews
  • “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน”

    ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI

    ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI

    อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน

    ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้

    Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์
    ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน
    GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน
    EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย
    สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024
    Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022
    บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน
    Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ

    ข้อมูลเสริมจากภายนอก
    H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต
    อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor
    ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU
    Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป
    การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง

    https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    💸 “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน” ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้ Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์ ➡️ ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน ➡️ GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน ➡️ EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย ➡️ สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024 ➡️ Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022 ➡️ บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน ➡️ Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ ✅ ข้อมูลเสริมจากภายนอก ➡️ H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต ➡️ อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor ➡️ ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU ➡️ Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป ➡️ การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    0 Comments 0 Shares 169 Views 0 Reviews
  • “ดีลชิป AI ระหว่างสหรัฐฯ–UAE ติดเบรกนาน 5 เดือน — Nvidia หงุดหงิด, เจ้าหน้าที่วอชิงตันกังวลเรื่องความมั่นคง”

    ดีลมูลค่าหลายพันล้านดอลลาร์ที่มีเป้าหมายส่งออกชิป AI ของ Nvidia ไปยังสหรัฐอาหรับเอมิเรตส์ (UAE) ซึ่งเคยถูกประกาศอย่างยิ่งใหญ่โดยประธานาธิบดีทรัมป์ในเดือนพฤษภาคม 2025 กลับติดอยู่ในภาวะ “ชะงักงัน” มานานกว่า 5 เดือน สร้างความไม่พอใจให้กับ Jensen Huang ซีอีโอของ Nvidia และเจ้าหน้าที่ระดับสูงในรัฐบาลสหรัฐฯ

    เดิมที UAE ให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับการได้รับชิป AI จำนวนหลายแสนตัวต่อปี โดยเฉพาะรุ่น H100 และ H20 ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่จนถึงตอนนี้ยังไม่มีการลงทุนใดเกิดขึ้น ทำให้กระทรวงพาณิชย์สหรัฐฯ โดยรัฐมนตรี Howard Lutnick ยืนยันว่าจะไม่อนุมัติการส่งออกชิปจนกว่า UAE จะดำเนินการลงทุนตามที่ตกลงไว้

    ความล่าช้านี้เกิดขึ้นท่ามกลางความกังวลเรื่องความมั่นคงระดับชาติ โดยเฉพาะความสัมพันธ์ของ UAE กับจีน และการที่บริษัท G42 ซึ่งเป็นผู้รับชิปโดยตรง มีความเกี่ยวข้องกับหน่วยข่าวกรองของรัฐและมีประวัติการลงทุนร่วมกับจีนในด้านเทคโนโลยี AI

    แม้จะมีแรงกดดันจาก Nvidia และผู้สนับสนุนดีลในทำเนียบขาว เช่น David Sacks ซึ่งมองว่าการชะลออาจเปิดช่องให้จีนเข้ามาแทนที่ แต่เจ้าหน้าที่ด้านความมั่นคงยังคงยืนกรานว่าต้องมีการตรวจสอบอย่างละเอียดก่อนอนุมัติการส่งออก โดยเฉพาะการป้องกันไม่ให้เทคโนโลยี AI ถูกนำไปใช้ในทางที่อาจกระทบต่อผลประโยชน์ของสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    ดีลส่งออกชิป AI ของ Nvidia ไปยัง UAE ติดค้างนานกว่า 5 เดือนหลังเซ็นสัญญา
    Jensen Huang ซีอีโอ Nvidia แสดงความไม่พอใจต่อความล่าช้า
    UAE เคยให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับชิปหลายแสนตัวต่อปี
    กระทรวงพาณิชย์สหรัฐฯ ยังไม่อนุมัติการส่งออก เพราะ UAE ยังไม่ลงทุน
    รัฐมนตรี Howard Lutnick ยืนยันจะไม่ปล่อยชิปจนกว่าจะมีการลงทุนจริง
    บริษัท G42 ของ UAE เป็นผู้รับชิปโดยตรง และมีความเกี่ยวข้องกับหน่วยข่าวกรอง
    เจ้าหน้าที่ด้านความมั่นคงกังวลเรื่องการรั่วไหลของเทคโนโลยีไปยังจีน
    David Sacks สนับสนุนดีล โดยมองว่าเป็นโอกาสทางเศรษฐกิจที่ไม่ควรปล่อยให้จีนแย่ง

    ข้อมูลเสริมจากภายนอก
    G42 เป็นบริษัทที่มีบทบาทสำคัญในโครงการ AI ของรัฐ UAE และเคยร่วมมือกับจีนในด้าน cloud และ genomics
    ชิป H100 และ H20 ของ Nvidia เป็นหัวใจของการฝึกโมเดลขนาดใหญ่ เช่น GPT และ LLaMA
    การส่งออกเทคโนโลยี AI ถูกควบคุมอย่างเข้มงวดภายใต้กฎหมาย ITAR และ EAR ของสหรัฐฯ
    การลงทุนจากต่างประเทศในสหรัฐฯ ต้องผ่านการตรวจสอบจาก CFIUS เพื่อป้องกันความเสี่ยงด้านความมั่นคง
    จีนกำลังเร่งพัฒนา AI ด้วยชิปในประเทศ เช่น Ascend ของ Huawei และกำลังแย่งตลาดจาก Nvidia

    https://www.thestar.com.my/tech/tech-news/2025/10/03/delays-to-trump039s-uae-chips-deal-frustrate-nvidia039s-jensen-huang-officials-wsj-reports
    🇺🇸🤖 “ดีลชิป AI ระหว่างสหรัฐฯ–UAE ติดเบรกนาน 5 เดือน — Nvidia หงุดหงิด, เจ้าหน้าที่วอชิงตันกังวลเรื่องความมั่นคง” ดีลมูลค่าหลายพันล้านดอลลาร์ที่มีเป้าหมายส่งออกชิป AI ของ Nvidia ไปยังสหรัฐอาหรับเอมิเรตส์ (UAE) ซึ่งเคยถูกประกาศอย่างยิ่งใหญ่โดยประธานาธิบดีทรัมป์ในเดือนพฤษภาคม 2025 กลับติดอยู่ในภาวะ “ชะงักงัน” มานานกว่า 5 เดือน สร้างความไม่พอใจให้กับ Jensen Huang ซีอีโอของ Nvidia และเจ้าหน้าที่ระดับสูงในรัฐบาลสหรัฐฯ เดิมที UAE ให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับการได้รับชิป AI จำนวนหลายแสนตัวต่อปี โดยเฉพาะรุ่น H100 และ H20 ที่ใช้ในการฝึกโมเดลขนาดใหญ่ แต่จนถึงตอนนี้ยังไม่มีการลงทุนใดเกิดขึ้น ทำให้กระทรวงพาณิชย์สหรัฐฯ โดยรัฐมนตรี Howard Lutnick ยืนยันว่าจะไม่อนุมัติการส่งออกชิปจนกว่า UAE จะดำเนินการลงทุนตามที่ตกลงไว้ ความล่าช้านี้เกิดขึ้นท่ามกลางความกังวลเรื่องความมั่นคงระดับชาติ โดยเฉพาะความสัมพันธ์ของ UAE กับจีน และการที่บริษัท G42 ซึ่งเป็นผู้รับชิปโดยตรง มีความเกี่ยวข้องกับหน่วยข่าวกรองของรัฐและมีประวัติการลงทุนร่วมกับจีนในด้านเทคโนโลยี AI แม้จะมีแรงกดดันจาก Nvidia และผู้สนับสนุนดีลในทำเนียบขาว เช่น David Sacks ซึ่งมองว่าการชะลออาจเปิดช่องให้จีนเข้ามาแทนที่ แต่เจ้าหน้าที่ด้านความมั่นคงยังคงยืนกรานว่าต้องมีการตรวจสอบอย่างละเอียดก่อนอนุมัติการส่งออก โดยเฉพาะการป้องกันไม่ให้เทคโนโลยี AI ถูกนำไปใช้ในทางที่อาจกระทบต่อผลประโยชน์ของสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ ดีลส่งออกชิป AI ของ Nvidia ไปยัง UAE ติดค้างนานกว่า 5 เดือนหลังเซ็นสัญญา ➡️ Jensen Huang ซีอีโอ Nvidia แสดงความไม่พอใจต่อความล่าช้า ➡️ UAE เคยให้คำมั่นว่าจะลงทุนในสหรัฐฯ เพื่อแลกกับชิปหลายแสนตัวต่อปี ➡️ กระทรวงพาณิชย์สหรัฐฯ ยังไม่อนุมัติการส่งออก เพราะ UAE ยังไม่ลงทุน ➡️ รัฐมนตรี Howard Lutnick ยืนยันจะไม่ปล่อยชิปจนกว่าจะมีการลงทุนจริง ➡️ บริษัท G42 ของ UAE เป็นผู้รับชิปโดยตรง และมีความเกี่ยวข้องกับหน่วยข่าวกรอง ➡️ เจ้าหน้าที่ด้านความมั่นคงกังวลเรื่องการรั่วไหลของเทคโนโลยีไปยังจีน ➡️ David Sacks สนับสนุนดีล โดยมองว่าเป็นโอกาสทางเศรษฐกิจที่ไม่ควรปล่อยให้จีนแย่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ G42 เป็นบริษัทที่มีบทบาทสำคัญในโครงการ AI ของรัฐ UAE และเคยร่วมมือกับจีนในด้าน cloud และ genomics ➡️ ชิป H100 และ H20 ของ Nvidia เป็นหัวใจของการฝึกโมเดลขนาดใหญ่ เช่น GPT และ LLaMA ➡️ การส่งออกเทคโนโลยี AI ถูกควบคุมอย่างเข้มงวดภายใต้กฎหมาย ITAR และ EAR ของสหรัฐฯ ➡️ การลงทุนจากต่างประเทศในสหรัฐฯ ต้องผ่านการตรวจสอบจาก CFIUS เพื่อป้องกันความเสี่ยงด้านความมั่นคง ➡️ จีนกำลังเร่งพัฒนา AI ด้วยชิปในประเทศ เช่น Ascend ของ Huawei และกำลังแย่งตลาดจาก Nvidia https://www.thestar.com.my/tech/tech-news/2025/10/03/delays-to-trump039s-uae-chips-deal-frustrate-nvidia039s-jensen-huang-officials-wsj-reports
    WWW.THESTAR.COM.MY
    Delays to Trump's UAE chips deal frustrate Nvidia's Jensen Huang, officials, WSJ reports
    (Reuters) -A multibillion-dollar deal to send Nvidia's artificial-intelligence chips to the United Arab Emirates is stuck in neutral nearly five months after it was signed, frustrating CEO Jensen Huang and some senior administration officials, the Wall Street Journal reported on Thursday.
    0 Comments 0 Shares 154 Views 0 Reviews
  • “Nvidia อัปเกรดแอปฟรีให้โน้ตบุ๊กเกมมิ่ง — ใช้ AI ยืดอายุแบตเตอรี่ พร้อมปรับจูน WhisperMode อัตโนมัติ”

    Nvidia ประกาศอัปเดตแอปเวอร์ชันใหม่สำหรับผู้ใช้โน้ตบุ๊กที่ใช้ GPU GeForce โดยเพิ่มฟีเจอร์ AI ใหม่ในโครงการ G-Assist ซึ่งเดิมทีใช้กับเดสก์ท็อปเท่านั้น ตอนนี้สามารถควบคุมการตั้งค่าหลักของโน้ตบุ๊กได้โดยตรง เช่น BatteryBoost, WhisperMode และ Optimal Playable Settings เพื่อยืดอายุแบตเตอรี่และเพิ่มความเงียบขณะใช้งาน

    G-Assist จะปรับแต่งการตั้งค่าเกมและแอปพลิเคชันโดยอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก เช่น ลดการใช้พลังงานของ GPU, ปรับความเร็วพัดลมให้เบาลง และเลือกเฟรมเรตที่เหมาะสมเพื่อให้เล่นเกมได้ลื่นไหลโดยไม่กินไฟเกินจำเป็น

    นอกจากนี้ Nvidia ยังเพิ่มการรองรับ DLSS override สำหรับเกมใหม่ ๆ เช่น Borderlands 4, Dying Light: The Beast และ Hell Is Us พร้อมแก้ไขบั๊กที่เคยทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง และปรับปรุงเสถียรภาพของแอปโดยรวม

    แม้จะเป็นการอัปเดตฟรี แต่ผู้ใช้บางรายยังพบปัญหา เช่น DLSS override ที่รีเซ็ตทุกครั้งหลังเปิดเครื่องใหม่ ซึ่ง Nvidia ยังไม่ได้แก้ไขในเวอร์ชันนี้

    ข้อมูลสำคัญจากข่าว
    Nvidia อัปเดตแอปเวอร์ชัน 11.0.5 เพิ่มฟีเจอร์ AI G-Assist สำหรับโน้ตบุ๊ก
    G-Assist ควบคุม BatteryBoost, WhisperMode และ Optimal Playable Settings ได้
    ปรับแต่งการตั้งค่าเกมอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก
    WhisperMode ลดการใช้พลังงาน GPU และความเร็วพัดลมเพื่อความเงียบ
    เพิ่ม DLSS override สำหรับเกมใหม่ เช่น Borderlands 4 และ Dying Light: The Beast
    แก้ไขบั๊กที่ทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง
    ปรับปรุงเสถียรภาพของแอป Nvidia โดยรวม

    ข้อมูลเสริมจากภายนอก
    BatteryBoost เป็นเทคโนโลยีที่ช่วยรักษาเฟรมเรตขณะใช้งานแบตเตอรี่
    DLSS (Deep Learning Super Sampling) ใช้ AI เพื่อเพิ่มประสิทธิภาพกราฟิกโดยไม่ลดคุณภาพ
    WhisperMode ช่วยให้โน้ตบุ๊กทำงานเงียบลงโดยลดการใช้พลังงานของ GPU
    Optimal Playable Settings คือการปรับค่ากราฟิกให้เหมาะกับฮาร์ดแวร์โดยอัตโนมัติ
    G-Assist ใช้โมเดล AI แบบ ChatGPT-style เพื่อสื่อสารและปรับแต่งระบบ

    คำเตือนและข้อจำกัด
    DLSS override ยังมีปัญหารีเซ็ตหลังรีบูตเครื่อง ต้องตั้งค่าซ้ำทุกครั้ง
    G-Assist ยังเป็นฟีเจอร์ pre-release อาจมีข้อผิดพลาดหรือไม่เสถียร
    การปรับแต่งอัตโนมัติอาจไม่เหมาะกับผู้ใช้ที่ต้องการควบคุมเองแบบละเอียด
    WhisperMode อาจลดประสิทธิภาพกราฟิกในบางเกมเพื่อแลกกับความเงียบ
    แอป Nvidia ยังไม่รองรับทุกเกมหรือฮาร์ดแวร์อย่างสมบูรณ์

    https://www.techradar.com/computing/gaming-laptops/nvidia-just-delivered-a-major-free-upgrade-for-gaming-laptops-bringing-in-ai-to-extend-battery-life
    ⚙️ “Nvidia อัปเกรดแอปฟรีให้โน้ตบุ๊กเกมมิ่ง — ใช้ AI ยืดอายุแบตเตอรี่ พร้อมปรับจูน WhisperMode อัตโนมัติ” Nvidia ประกาศอัปเดตแอปเวอร์ชันใหม่สำหรับผู้ใช้โน้ตบุ๊กที่ใช้ GPU GeForce โดยเพิ่มฟีเจอร์ AI ใหม่ในโครงการ G-Assist ซึ่งเดิมทีใช้กับเดสก์ท็อปเท่านั้น ตอนนี้สามารถควบคุมการตั้งค่าหลักของโน้ตบุ๊กได้โดยตรง เช่น BatteryBoost, WhisperMode และ Optimal Playable Settings เพื่อยืดอายุแบตเตอรี่และเพิ่มความเงียบขณะใช้งาน G-Assist จะปรับแต่งการตั้งค่าเกมและแอปพลิเคชันโดยอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก เช่น ลดการใช้พลังงานของ GPU, ปรับความเร็วพัดลมให้เบาลง และเลือกเฟรมเรตที่เหมาะสมเพื่อให้เล่นเกมได้ลื่นไหลโดยไม่กินไฟเกินจำเป็น นอกจากนี้ Nvidia ยังเพิ่มการรองรับ DLSS override สำหรับเกมใหม่ ๆ เช่น Borderlands 4, Dying Light: The Beast และ Hell Is Us พร้อมแก้ไขบั๊กที่เคยทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง และปรับปรุงเสถียรภาพของแอปโดยรวม แม้จะเป็นการอัปเดตฟรี แต่ผู้ใช้บางรายยังพบปัญหา เช่น DLSS override ที่รีเซ็ตทุกครั้งหลังเปิดเครื่องใหม่ ซึ่ง Nvidia ยังไม่ได้แก้ไขในเวอร์ชันนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia อัปเดตแอปเวอร์ชัน 11.0.5 เพิ่มฟีเจอร์ AI G-Assist สำหรับโน้ตบุ๊ก ➡️ G-Assist ควบคุม BatteryBoost, WhisperMode และ Optimal Playable Settings ได้ ➡️ ปรับแต่งการตั้งค่าเกมอัตโนมัติเมื่อใช้งานแบบไม่เสียบปลั๊ก ➡️ WhisperMode ลดการใช้พลังงาน GPU และความเร็วพัดลมเพื่อความเงียบ ➡️ เพิ่ม DLSS override สำหรับเกมใหม่ เช่น Borderlands 4 และ Dying Light: The Beast ➡️ แก้ไขบั๊กที่ทำให้การตั้งค่าเกมไม่ทำงานหลังรีบูตเครื่อง ➡️ ปรับปรุงเสถียรภาพของแอป Nvidia โดยรวม ✅ ข้อมูลเสริมจากภายนอก ➡️ BatteryBoost เป็นเทคโนโลยีที่ช่วยรักษาเฟรมเรตขณะใช้งานแบตเตอรี่ ➡️ DLSS (Deep Learning Super Sampling) ใช้ AI เพื่อเพิ่มประสิทธิภาพกราฟิกโดยไม่ลดคุณภาพ ➡️ WhisperMode ช่วยให้โน้ตบุ๊กทำงานเงียบลงโดยลดการใช้พลังงานของ GPU ➡️ Optimal Playable Settings คือการปรับค่ากราฟิกให้เหมาะกับฮาร์ดแวร์โดยอัตโนมัติ ➡️ G-Assist ใช้โมเดล AI แบบ ChatGPT-style เพื่อสื่อสารและปรับแต่งระบบ ‼️ คำเตือนและข้อจำกัด ⛔ DLSS override ยังมีปัญหารีเซ็ตหลังรีบูตเครื่อง ต้องตั้งค่าซ้ำทุกครั้ง ⛔ G-Assist ยังเป็นฟีเจอร์ pre-release อาจมีข้อผิดพลาดหรือไม่เสถียร ⛔ การปรับแต่งอัตโนมัติอาจไม่เหมาะกับผู้ใช้ที่ต้องการควบคุมเองแบบละเอียด ⛔ WhisperMode อาจลดประสิทธิภาพกราฟิกในบางเกมเพื่อแลกกับความเงียบ ⛔ แอป Nvidia ยังไม่รองรับทุกเกมหรือฮาร์ดแวร์อย่างสมบูรณ์ https://www.techradar.com/computing/gaming-laptops/nvidia-just-delivered-a-major-free-upgrade-for-gaming-laptops-bringing-in-ai-to-extend-battery-life
    0 Comments 0 Shares 174 Views 0 Reviews
  • “AI สร้างคลิป ‘แซม อัลท์แมนขโมย GPU’ จากกล้องวงจรปิด — ขำก็ขำ แต่สะท้อนอนาคตที่แยกจริงกับปลอมไม่ออก”

    ในช่วงต้นเดือนตุลาคม 2025 โลกออนไลน์ได้เห็นคลิปวิดีโอสุดฮือฮา: ภาพจากกล้องวงจรปิดที่ดูเหมือนจริงมาก แสดงให้เห็น Sam Altman ซีอีโอของ OpenAI กำลัง “ขโมยการ์ดจอ” จากร้าน Target พร้อมพูดว่า “Please, I really need this for Sora inference.” คลิปนี้ไม่ได้เกิดจากเหตุการณ์จริง แต่เป็นวิดีโอที่สร้างขึ้นด้วย Sora 2 — โมเดลสร้างวิดีโอด้วย AI รุ่นใหม่ของ OpenAI ที่เพิ่งเปิดตัว

    คลิปดังกล่าวถูกสร้างโดยผู้ใช้ชื่อ Gabriel Petersson ซึ่งเป็นนักพัฒนาในทีม Sora เอง และกลายเป็นคลิปยอดนิยมที่สุดในแอป Sora 2 ที่ตอนนี้เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา โดยมีเป้าหมายเป็นแพลตฟอร์มแชร์วิดีโอคล้าย TikTok

    ความน่าสนใจคือ Altman ได้อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2 ซึ่งเปิดโอกาสให้ผู้ใช้สร้างวิดีโอที่มีบุคคลจริงปรากฏอยู่ โดยผ่านการยืนยันตัวตนก่อนใช้งาน แต่เมื่อใบหน้า Altman ถูกใช้ในคลิปล้อเลียนหลายคลิป เช่น ขโมยงานของ Hayao Miyazaki หรือแปลงร่างเป็นแมว ก็เริ่มเกิดคำถามว่า “เราควรควบคุมการใช้ภาพบุคคลใน AI อย่างไร”

    คลิปนี้ยังสะท้อนถึงปัญหาในอดีตของ OpenAI ที่เคยขาดแคลน GPU จนต้องเลื่อนการเปิดตัว GPT-4.5 และปัจจุบันมีแผนจะจัดหาการ์ดจอมากกว่า 1 ล้านตัวภายในปี 2025 โดยมีเป้าหมายสูงสุดที่ 100 ล้านตัว ซึ่งทำให้มุก “ขโมย GPU” กลายเป็นเรื่องขำขันที่เจ็บจริง

    แต่ในอีกด้านหนึ่ง คลิปนี้ก็จุดประกายความกังวลเรื่อง deepfake และการใช้ AI สร้างวิดีโอปลอมที่เหมือนจริงมากขึ้นเรื่อย ๆ โดยเฉพาะเมื่อใช้มุมกล้องแบบ CCTV และเสียงที่สมจริง จนอาจทำให้ผู้ชมทั่วไปเข้าใจผิดได้ง่าย

    ข้อมูลสำคัญจากข่าว
    คลิป AI แสดง Sam Altman ขโมย GPU จาก Target ถูกสร้างด้วย Sora 2
    คลิปถูกสร้างโดยนักพัฒนาในทีม Sora และกลายเป็นคลิปยอดนิยมในแอป
    Altman อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2
    Sora 2 เป็นแอปสร้างวิดีโอ AI ที่เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา
    คลิปมีบทพูดว่า “Please, I really need this for Sora inference.”
    คลิปอื่น ๆ ยังล้อเลียน Altman เช่น ขโมยงานของ Miyazaki หรือแปลงร่างเป็นแมว
    OpenAI เคยขาดแคลน GPU และมีแผนจัดหากว่า 100 ล้านตัวภายในปี 2025
    คลิปสะท้อนความสามารถของ Sora 2 ที่สร้างวิดีโอสมจริงมากขึ้น

    ข้อมูลเสริมจากภายนอก
    Deepfake คือเทคโนโลยีที่ใช้ AI สร้างภาพหรือเสียงของบุคคลโดยไม่ได้รับอนุญาต
    Sora 2 มีระบบ Cameo ที่ต้องยืนยันตัวตนก่อนใช้ใบหน้าบุคคลจริง
    การใช้มุมกล้องแบบ CCTV และเสียงสมจริงช่วยเพิ่มความน่าเชื่อถือให้กับคลิป
    OpenAI กำลังเปลี่ยนจากองค์กรไม่แสวงกำไรเป็นบริษัทเชิงพาณิชย์
    Nvidia ลงทุนกว่า $100 พันล้านดอลลาร์ใน OpenAI เพื่อสนับสนุนการจัดหา GPU

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-generated-security-camera-feed-shows-sam-altman-getting-busted-stealing-gpus-from-target-ironic-video-shows-openai-ceo-saying-he-needs-it-for-sora-inferencing
    🎥 “AI สร้างคลิป ‘แซม อัลท์แมนขโมย GPU’ จากกล้องวงจรปิด — ขำก็ขำ แต่สะท้อนอนาคตที่แยกจริงกับปลอมไม่ออก” ในช่วงต้นเดือนตุลาคม 2025 โลกออนไลน์ได้เห็นคลิปวิดีโอสุดฮือฮา: ภาพจากกล้องวงจรปิดที่ดูเหมือนจริงมาก แสดงให้เห็น Sam Altman ซีอีโอของ OpenAI กำลัง “ขโมยการ์ดจอ” จากร้าน Target พร้อมพูดว่า “Please, I really need this for Sora inference.” คลิปนี้ไม่ได้เกิดจากเหตุการณ์จริง แต่เป็นวิดีโอที่สร้างขึ้นด้วย Sora 2 — โมเดลสร้างวิดีโอด้วย AI รุ่นใหม่ของ OpenAI ที่เพิ่งเปิดตัว คลิปดังกล่าวถูกสร้างโดยผู้ใช้ชื่อ Gabriel Petersson ซึ่งเป็นนักพัฒนาในทีม Sora เอง และกลายเป็นคลิปยอดนิยมที่สุดในแอป Sora 2 ที่ตอนนี้เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา โดยมีเป้าหมายเป็นแพลตฟอร์มแชร์วิดีโอคล้าย TikTok ความน่าสนใจคือ Altman ได้อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2 ซึ่งเปิดโอกาสให้ผู้ใช้สร้างวิดีโอที่มีบุคคลจริงปรากฏอยู่ โดยผ่านการยืนยันตัวตนก่อนใช้งาน แต่เมื่อใบหน้า Altman ถูกใช้ในคลิปล้อเลียนหลายคลิป เช่น ขโมยงานของ Hayao Miyazaki หรือแปลงร่างเป็นแมว ก็เริ่มเกิดคำถามว่า “เราควรควบคุมการใช้ภาพบุคคลใน AI อย่างไร” คลิปนี้ยังสะท้อนถึงปัญหาในอดีตของ OpenAI ที่เคยขาดแคลน GPU จนต้องเลื่อนการเปิดตัว GPT-4.5 และปัจจุบันมีแผนจะจัดหาการ์ดจอมากกว่า 1 ล้านตัวภายในปี 2025 โดยมีเป้าหมายสูงสุดที่ 100 ล้านตัว ซึ่งทำให้มุก “ขโมย GPU” กลายเป็นเรื่องขำขันที่เจ็บจริง แต่ในอีกด้านหนึ่ง คลิปนี้ก็จุดประกายความกังวลเรื่อง deepfake และการใช้ AI สร้างวิดีโอปลอมที่เหมือนจริงมากขึ้นเรื่อย ๆ โดยเฉพาะเมื่อใช้มุมกล้องแบบ CCTV และเสียงที่สมจริง จนอาจทำให้ผู้ชมทั่วไปเข้าใจผิดได้ง่าย ✅ ข้อมูลสำคัญจากข่าว ➡️ คลิป AI แสดง Sam Altman ขโมย GPU จาก Target ถูกสร้างด้วย Sora 2 ➡️ คลิปถูกสร้างโดยนักพัฒนาในทีม Sora และกลายเป็นคลิปยอดนิยมในแอป ➡️ Altman อนุญาตให้ใช้ใบหน้าและเสียงของเขาในระบบ Cameo ของ Sora 2 ➡️ Sora 2 เป็นแอปสร้างวิดีโอ AI ที่เปิดให้ใช้งานแบบ invite-only ในสหรัฐฯ และแคนาดา ➡️ คลิปมีบทพูดว่า “Please, I really need this for Sora inference.” ➡️ คลิปอื่น ๆ ยังล้อเลียน Altman เช่น ขโมยงานของ Miyazaki หรือแปลงร่างเป็นแมว ➡️ OpenAI เคยขาดแคลน GPU และมีแผนจัดหากว่า 100 ล้านตัวภายในปี 2025 ➡️ คลิปสะท้อนความสามารถของ Sora 2 ที่สร้างวิดีโอสมจริงมากขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Deepfake คือเทคโนโลยีที่ใช้ AI สร้างภาพหรือเสียงของบุคคลโดยไม่ได้รับอนุญาต ➡️ Sora 2 มีระบบ Cameo ที่ต้องยืนยันตัวตนก่อนใช้ใบหน้าบุคคลจริง ➡️ การใช้มุมกล้องแบบ CCTV และเสียงสมจริงช่วยเพิ่มความน่าเชื่อถือให้กับคลิป ➡️ OpenAI กำลังเปลี่ยนจากองค์กรไม่แสวงกำไรเป็นบริษัทเชิงพาณิชย์ ➡️ Nvidia ลงทุนกว่า $100 พันล้านดอลลาร์ใน OpenAI เพื่อสนับสนุนการจัดหา GPU https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-generated-security-camera-feed-shows-sam-altman-getting-busted-stealing-gpus-from-target-ironic-video-shows-openai-ceo-saying-he-needs-it-for-sora-inferencing
    0 Comments 0 Shares 168 Views 0 Reviews
  • “Intel Arc B580 กลับมาแรง! อัปเดตไดรเวอร์ใหม่แก้ปัญหา CPU Overhead — เกมเมอร์สายประหยัดมีเฮ”

    Intel Arc B580 ซึ่งเคยถูกมองว่าเป็น GPU ราคาประหยัดที่มีข้อจำกัดด้านประสิทธิภาพ โดยเฉพาะเมื่อใช้งานร่วมกับ CPU รุ่นเก่า เช่น Ryzen 5 5600 หรือแม้แต่ Ryzen 5 2600 ล่าสุดได้รับการอัปเดตไดรเวอร์เวอร์ชันใหม่ (7028) ที่ช่วยลดปัญหา CPU overhead ได้อย่างเห็นผลในหลายเกมยอดนิยม

    ก่อนหน้านี้ Arc B580 มีปัญหาเมื่อใช้งานกับ CPU ที่ไม่ใช่รุ่นล่าสุด โดยเฉพาะในเกมที่มีการประมวลผลหนัก เช่น Marvel’s Spider-Man Remastered และ Cyberpunk 2077 ซึ่งทำให้เฟรมเรตตกอย่างชัดเจนเมื่อเทียบกับ GPU จาก AMD หรือ NVIDIA ในระดับเดียวกัน

    แต่หลังจากการอัปเดตไดรเวอร์ล่าสุดในเดือนสิงหาคม 2025 ปัญหานี้ได้รับการแก้ไขในหลายเกม โดยเฉพาะ Spider-Man Remastered ที่เฟรมเรตเฉลี่ยเพิ่มขึ้นถึง 36% และเฟรมเรตต่ำสุด (1% low) เพิ่มขึ้นถึง 43% เมื่อใช้งานร่วมกับ Ryzen 5 5600

    Cyberpunk 2077: Phantom Liberty ก็แสดงผลลัพธ์ที่ดีขึ้นอย่างชัดเจน และเกมอื่น ๆ เช่น Dying Light: The Beast, Marvel Rivals, Kingdom Come: Deliverance II และ Borderlands 4 ก็มีการปรับปรุงประสิทธิภาพเมื่อใช้กับ CPU ระดับกลาง

    แม้ว่า Ryzen 5 2600 ยังมีปัญหาอยู่บ้าง แต่สำหรับผู้ใช้ Ryzen 5 5600 และ CPU ระดับใกล้เคียงกัน Arc B580 กลายเป็นตัวเลือกที่น่าสนใจมากขึ้น โดยเฉพาะเมื่อราคาลดลงเหลือเพียง $249 พร้อมหน่วยความจำ 12GB ซึ่งหาไม่ได้ใน GPU ค่ายอื่นในช่วงราคานี้

    ข้อมูลสำคัญจากข่าว
    Intel Arc B580 ได้รับการอัปเดตไดรเวอร์เวอร์ชัน 7028 ในเดือนสิงหาคม 2025
    ปรับปรุงประสิทธิภาพเมื่อใช้งานร่วมกับ CPU รุ่นเก่า โดยเฉพาะ Ryzen 5 5600
    Spider-Man Remastered เฟรมเรตเฉลี่ยเพิ่มขึ้น 36% และ 1% low เพิ่มขึ้น 43%
    Cyberpunk 2077 และเกมอื่น ๆ แสดงผลลัพธ์ดีขึ้นอย่างชัดเจน
    ปัญหา CPU overhead ลดลงในหลายเกมยอดนิยม
    Arc B580 มีหน่วยความจำ 12GB และราคาล่าสุดอยู่ที่ $249
    เป็น GPU ราคาประหยัดที่เริ่มน่าสนใจสำหรับผู้ใช้ CPU ระดับกลาง

    ข้อมูลเสริมจากภายนอก
    CPU overhead คือภาระการประมวลผลที่เกิดจากการจัดการคำสั่งระหว่าง CPU และ GPU
    Ryzen 5 5600 ยังเป็น CPU ที่ได้รับความนิยมในกลุ่มเกมเมอร์สายประหยัด
    การอัปเดตไดรเวอร์แบบเจาะจงเกม (game-specific optimization) เป็นแนวทางที่ NVIDIA และ AMD ใช้มานาน
    Arc B580 เป็นหนึ่งใน GPU ที่ Intel พยายามผลักดันเพื่อแข่งขันในตลาดกลาง
    การมีหน่วยความจำ 12GB ทำให้ Arc B580 เหมาะกับเกม AAA และงาน AI เบื้องต้น

    https://wccftech.com/intel-arc-b580-receives-huge-performance-gains-in-some-titles-as-new-drivers-migitate-cpu-overhead-to-a-good-extent/
    🎮 “Intel Arc B580 กลับมาแรง! อัปเดตไดรเวอร์ใหม่แก้ปัญหา CPU Overhead — เกมเมอร์สายประหยัดมีเฮ” Intel Arc B580 ซึ่งเคยถูกมองว่าเป็น GPU ราคาประหยัดที่มีข้อจำกัดด้านประสิทธิภาพ โดยเฉพาะเมื่อใช้งานร่วมกับ CPU รุ่นเก่า เช่น Ryzen 5 5600 หรือแม้แต่ Ryzen 5 2600 ล่าสุดได้รับการอัปเดตไดรเวอร์เวอร์ชันใหม่ (7028) ที่ช่วยลดปัญหา CPU overhead ได้อย่างเห็นผลในหลายเกมยอดนิยม ก่อนหน้านี้ Arc B580 มีปัญหาเมื่อใช้งานกับ CPU ที่ไม่ใช่รุ่นล่าสุด โดยเฉพาะในเกมที่มีการประมวลผลหนัก เช่น Marvel’s Spider-Man Remastered และ Cyberpunk 2077 ซึ่งทำให้เฟรมเรตตกอย่างชัดเจนเมื่อเทียบกับ GPU จาก AMD หรือ NVIDIA ในระดับเดียวกัน แต่หลังจากการอัปเดตไดรเวอร์ล่าสุดในเดือนสิงหาคม 2025 ปัญหานี้ได้รับการแก้ไขในหลายเกม โดยเฉพาะ Spider-Man Remastered ที่เฟรมเรตเฉลี่ยเพิ่มขึ้นถึง 36% และเฟรมเรตต่ำสุด (1% low) เพิ่มขึ้นถึง 43% เมื่อใช้งานร่วมกับ Ryzen 5 5600 Cyberpunk 2077: Phantom Liberty ก็แสดงผลลัพธ์ที่ดีขึ้นอย่างชัดเจน และเกมอื่น ๆ เช่น Dying Light: The Beast, Marvel Rivals, Kingdom Come: Deliverance II และ Borderlands 4 ก็มีการปรับปรุงประสิทธิภาพเมื่อใช้กับ CPU ระดับกลาง แม้ว่า Ryzen 5 2600 ยังมีปัญหาอยู่บ้าง แต่สำหรับผู้ใช้ Ryzen 5 5600 และ CPU ระดับใกล้เคียงกัน Arc B580 กลายเป็นตัวเลือกที่น่าสนใจมากขึ้น โดยเฉพาะเมื่อราคาลดลงเหลือเพียง $249 พร้อมหน่วยความจำ 12GB ซึ่งหาไม่ได้ใน GPU ค่ายอื่นในช่วงราคานี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel Arc B580 ได้รับการอัปเดตไดรเวอร์เวอร์ชัน 7028 ในเดือนสิงหาคม 2025 ➡️ ปรับปรุงประสิทธิภาพเมื่อใช้งานร่วมกับ CPU รุ่นเก่า โดยเฉพาะ Ryzen 5 5600 ➡️ Spider-Man Remastered เฟรมเรตเฉลี่ยเพิ่มขึ้น 36% และ 1% low เพิ่มขึ้น 43% ➡️ Cyberpunk 2077 และเกมอื่น ๆ แสดงผลลัพธ์ดีขึ้นอย่างชัดเจน ➡️ ปัญหา CPU overhead ลดลงในหลายเกมยอดนิยม ➡️ Arc B580 มีหน่วยความจำ 12GB และราคาล่าสุดอยู่ที่ $249 ➡️ เป็น GPU ราคาประหยัดที่เริ่มน่าสนใจสำหรับผู้ใช้ CPU ระดับกลาง ✅ ข้อมูลเสริมจากภายนอก ➡️ CPU overhead คือภาระการประมวลผลที่เกิดจากการจัดการคำสั่งระหว่าง CPU และ GPU ➡️ Ryzen 5 5600 ยังเป็น CPU ที่ได้รับความนิยมในกลุ่มเกมเมอร์สายประหยัด ➡️ การอัปเดตไดรเวอร์แบบเจาะจงเกม (game-specific optimization) เป็นแนวทางที่ NVIDIA และ AMD ใช้มานาน ➡️ Arc B580 เป็นหนึ่งใน GPU ที่ Intel พยายามผลักดันเพื่อแข่งขันในตลาดกลาง ➡️ การมีหน่วยความจำ 12GB ทำให้ Arc B580 เหมาะกับเกม AAA และงาน AI เบื้องต้น https://wccftech.com/intel-arc-b580-receives-huge-performance-gains-in-some-titles-as-new-drivers-migitate-cpu-overhead-to-a-good-extent/
    WCCFTECH.COM
    Intel Arc B580 Receives Huge Performance Gains In Some Titles As New Drivers Mitigate CPU Overhead To A Good Extent
    Intel has been continuously delivering newer driver updates, which have seemingly mitigated the CPU Overhead problems for Arc B580.
    0 Comments 0 Shares 146 Views 0 Reviews
  • “Euclyd เปิดตัว CRAFTWERK — ชิป AI ขนาดฝ่ามือที่แรงกว่า Nvidia ด้วย 16,384 คอร์ และแบนด์วิดธ์ 8PB/s”

    ในงาน KISACO Infrastructure Summit 2025 ที่ซานตาคลารา สตาร์ทอัพจากยุโรปชื่อ Euclyd ได้เปิดตัวชิป AI รุ่นใหม่ชื่อว่า “CRAFTWERK” ซึ่งสร้างความฮือฮาในวงการด้วยสเปกที่เหนือกว่าชิปจากบริษัทใหญ่ ๆ อย่าง Nvidia และ Intel อย่างชัดเจน

    CRAFTWERK เป็นชิปแบบ SiP (System-in-Package) ขนาดเล็กเท่าฝ่ามือ แต่ภายในบรรจุ SIMD processor ถึง 16,384 คอร์ พร้อมหน่วยความจำแบบใหม่ที่เรียกว่า UBM (Ultra Bandwidth Memory) ขนาด 1TB ซึ่งสามารถส่งข้อมูลได้เร็วถึง 8,000TB/s หรือ 8PB/s — เร็วกว่าหน่วยความจำ HBM ที่ Nvidia ใช้อย่างมาก

    ด้านการประมวลผล CRAFTWERK ให้พลังสูงถึง 8 PFLOPS ใน FP16 และ 32 PFLOPS ใน FP4 ซึ่งเหมาะกับงาน AI inference โดยเฉพาะแบบ agentic AI ที่ต้องการประสิทธิภาพสูงและการจัดการพลังงานที่ดี

    นอกจากนี้ Euclyd ยังเปิดตัว CRAFTWERK STATION CWS 32 ซึ่งเป็นระบบ rack-scale ที่รวมชิป CRAFTWERK 32 ตัวเข้าด้วยกัน ให้พลังรวมถึง 1.024 exaflops และหน่วยความจำรวม 32TB โดยสามารถสร้าง token ได้ถึง 7.68 ล้านต่อวินาทีในโหมดหลายผู้ใช้ และใช้พลังงานเพียง 125kW ซึ่งถือว่าประหยัดกว่าระบบทั่วไปถึง 100 เท่า

    บริษัทตั้งอยู่ใน Eindhoven ประเทศเนเธอร์แลนด์ และมีสำนักงานในซานโฮเซ่ สหรัฐฯ โดยได้รับการสนับสนุนจากบุคคลสำคัญในวงการ เช่น Peter Wennink อดีต CEO ของ ASML และ Federico Faggin ผู้คิดค้นไมโครโปรเซสเซอร์

    ข้อมูลสำคัญจากข่าว
    Euclyd เปิดตัวชิป AI CRAFTWERK ที่งาน KISACO Summit 2025
    ชิปมี 16,384 SIMD คอร์ และหน่วยความจำ UBM ขนาด 1TB
    แบนด์วิดธ์ของ UBM สูงถึง 8PB/s เร็วกว่าหน่วยความจำ HBM ของ Nvidia
    ให้พลังประมวลผล 8 PFLOPS (FP16) และ 32 PFLOPS (FP4)
    CRAFTWERK STATION CWS 32 รวมชิป 32 ตัว ให้พลังรวม 1.024 exaflops
    สร้าง token ได้ 7.68 ล้านต่อวินาที ใช้พลังงานเพียง 125kW
    ประสิทธิภาพด้านพลังงานและต้นทุนต่อ token ดีกว่าระบบทั่วไปถึง 100 เท่า
    บริษัทมีสำนักงานในเนเธอร์แลนด์และสหรัฐฯ ได้รับการสนับสนุนจากอดีตผู้บริหาร ASML และผู้คิดค้นไมโครโปรเซสเซอร์

    ข้อมูลเสริมจากภายนอก
    FP4 เป็นรูปแบบความแม่นยำต่ำที่เหมาะกับงาน inference โดยเฉพาะ LLM
    SIMD (Single Instruction, Multiple Data) เหมาะกับงานที่ต้องประมวลผลข้อมูลจำนวนมากพร้อมกัน
    UBM เป็นหน่วยความจำที่ออกแบบมาเฉพาะ ไม่ใช้เทคโนโลยีจาก HBM หรือ SRAM
    การใช้ SiP ขนาดเล็กช่วยลดความซับซ้อนในการเชื่อมต่อและการจัดการพลังงาน
    Euclyd ใช้แนวคิด “Crafted Compute” ที่ออกแบบทุกส่วนตั้งแต่ processor ถึง packaging

    https://www.techradar.com/pro/obscure-eu-ai-startup-outs-massive-chip-that-has-16-384-simd-processors-and-1tb-of-memory-thats-even-faster-than-nvidias-hbm-euclyds-ubm-has-8pb-s-bandwidth-32pf-fp4-compute-performance-and-some-iconic-backers
    🚀 “Euclyd เปิดตัว CRAFTWERK — ชิป AI ขนาดฝ่ามือที่แรงกว่า Nvidia ด้วย 16,384 คอร์ และแบนด์วิดธ์ 8PB/s” ในงาน KISACO Infrastructure Summit 2025 ที่ซานตาคลารา สตาร์ทอัพจากยุโรปชื่อ Euclyd ได้เปิดตัวชิป AI รุ่นใหม่ชื่อว่า “CRAFTWERK” ซึ่งสร้างความฮือฮาในวงการด้วยสเปกที่เหนือกว่าชิปจากบริษัทใหญ่ ๆ อย่าง Nvidia และ Intel อย่างชัดเจน CRAFTWERK เป็นชิปแบบ SiP (System-in-Package) ขนาดเล็กเท่าฝ่ามือ แต่ภายในบรรจุ SIMD processor ถึง 16,384 คอร์ พร้อมหน่วยความจำแบบใหม่ที่เรียกว่า UBM (Ultra Bandwidth Memory) ขนาด 1TB ซึ่งสามารถส่งข้อมูลได้เร็วถึง 8,000TB/s หรือ 8PB/s — เร็วกว่าหน่วยความจำ HBM ที่ Nvidia ใช้อย่างมาก ด้านการประมวลผล CRAFTWERK ให้พลังสูงถึง 8 PFLOPS ใน FP16 และ 32 PFLOPS ใน FP4 ซึ่งเหมาะกับงาน AI inference โดยเฉพาะแบบ agentic AI ที่ต้องการประสิทธิภาพสูงและการจัดการพลังงานที่ดี นอกจากนี้ Euclyd ยังเปิดตัว CRAFTWERK STATION CWS 32 ซึ่งเป็นระบบ rack-scale ที่รวมชิป CRAFTWERK 32 ตัวเข้าด้วยกัน ให้พลังรวมถึง 1.024 exaflops และหน่วยความจำรวม 32TB โดยสามารถสร้าง token ได้ถึง 7.68 ล้านต่อวินาทีในโหมดหลายผู้ใช้ และใช้พลังงานเพียง 125kW ซึ่งถือว่าประหยัดกว่าระบบทั่วไปถึง 100 เท่า บริษัทตั้งอยู่ใน Eindhoven ประเทศเนเธอร์แลนด์ และมีสำนักงานในซานโฮเซ่ สหรัฐฯ โดยได้รับการสนับสนุนจากบุคคลสำคัญในวงการ เช่น Peter Wennink อดีต CEO ของ ASML และ Federico Faggin ผู้คิดค้นไมโครโปรเซสเซอร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Euclyd เปิดตัวชิป AI CRAFTWERK ที่งาน KISACO Summit 2025 ➡️ ชิปมี 16,384 SIMD คอร์ และหน่วยความจำ UBM ขนาด 1TB ➡️ แบนด์วิดธ์ของ UBM สูงถึง 8PB/s เร็วกว่าหน่วยความจำ HBM ของ Nvidia ➡️ ให้พลังประมวลผล 8 PFLOPS (FP16) และ 32 PFLOPS (FP4) ➡️ CRAFTWERK STATION CWS 32 รวมชิป 32 ตัว ให้พลังรวม 1.024 exaflops ➡️ สร้าง token ได้ 7.68 ล้านต่อวินาที ใช้พลังงานเพียง 125kW ➡️ ประสิทธิภาพด้านพลังงานและต้นทุนต่อ token ดีกว่าระบบทั่วไปถึง 100 เท่า ➡️ บริษัทมีสำนักงานในเนเธอร์แลนด์และสหรัฐฯ ได้รับการสนับสนุนจากอดีตผู้บริหาร ASML และผู้คิดค้นไมโครโปรเซสเซอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ FP4 เป็นรูปแบบความแม่นยำต่ำที่เหมาะกับงาน inference โดยเฉพาะ LLM ➡️ SIMD (Single Instruction, Multiple Data) เหมาะกับงานที่ต้องประมวลผลข้อมูลจำนวนมากพร้อมกัน ➡️ UBM เป็นหน่วยความจำที่ออกแบบมาเฉพาะ ไม่ใช้เทคโนโลยีจาก HBM หรือ SRAM ➡️ การใช้ SiP ขนาดเล็กช่วยลดความซับซ้อนในการเชื่อมต่อและการจัดการพลังงาน ➡️ Euclyd ใช้แนวคิด “Crafted Compute” ที่ออกแบบทุกส่วนตั้งแต่ processor ถึง packaging https://www.techradar.com/pro/obscure-eu-ai-startup-outs-massive-chip-that-has-16-384-simd-processors-and-1tb-of-memory-thats-even-faster-than-nvidias-hbm-euclyds-ubm-has-8pb-s-bandwidth-32pf-fp4-compute-performance-and-some-iconic-backers
    0 Comments 0 Shares 162 Views 0 Reviews
  • “AMD อาจผลิตชิปที่โรงงาน Intel — คู่แข่งเก่ากำลังกลายเป็นพันธมิตรใหม่ในยุคแห่งความมั่นคงด้านเทคโนโลยี”

    ในความเคลื่อนไหวที่อาจเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ Intel และ AMD กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ AMD กลายเป็นลูกค้าของ Intel Foundry ซึ่งเป็นธุรกิจผลิตชิปตามสั่งของ Intel ที่กำลังพยายามฟื้นตัวจากการตามหลัง TSMC มาหลายปี

    แม้ AMD จะยังพึ่งพา TSMC เป็นหลักในการผลิตชิปประสิทธิภาพสูง เช่น Ryzen และ EPYC แต่การเจรจากับ Intel ครั้งนี้สะท้อนถึงแรงกดดันจากรัฐบาลสหรัฐฯ ที่ต้องการให้บริษัทอเมริกันผลิตชิปภายในประเทศมากขึ้น โดยมีเป้าหมายให้ 50% ของชิปที่ใช้ในสหรัฐฯ ถูกผลิตในประเทศ เพื่อความมั่นคงของห่วงโซ่อุปทานและลดการพึ่งพาไต้หวัน

    Intel ได้รับแรงสนับสนุนจากหลายฝ่ายในช่วงไม่กี่เดือนที่ผ่านมา ทั้งการลงทุนจาก SoftBank มูลค่า 2 พันล้านดอลลาร์ การเข้าถือหุ้น 9.9% โดยรัฐบาลสหรัฐฯ และการร่วมมือกับ Nvidia ในการพัฒนาชิป x86 ที่ใช้ GPU ของ Nvidia ซึ่งรวมถึงการลงทุน 5 พันล้านดอลลาร์จาก Nvidia ด้วย

    หาก AMD ตกลงร่วมมือกับ Intel จริง จะถือเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ที่เคยประกาศว่า Intel ต้องการผลิตชิปให้กับทุกบริษัทเทคโนโลยีรายใหญ่ แม้จะเป็นคู่แข่งโดยตรงก็ตาม

    อย่างไรก็ตาม ยังไม่มีรายละเอียดว่าชิปประเภทใดของ AMD จะถูกผลิตที่ Intel และ Intel เองก็ยังไม่มีเทคโนโลยีที่สามารถผลิตชิประดับสูงสุดของ AMD ได้ในตอนนี้ เช่น ชิปที่ใช้กระบวนการผลิตระดับ 3nm หรือ 4nm ของ TSMC

    ข้อมูลสำคัญจากข่าว
    Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ AMD เป็นลูกค้า Intel Foundry
    AMD ปัจจุบันผลิตชิปที่ TSMC แต่กำลังพิจารณาทางเลือกในสหรัฐฯ
    รัฐบาลสหรัฐฯ ต้องการให้ 50% ของชิปที่ใช้ในประเทศถูกผลิตในประเทศ
    Intel ได้รับการลงทุนจาก SoftBank, Nvidia และรัฐบาลสหรัฐฯ
    Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel และร่วมพัฒนาชิป x86 ร่วมกัน
    หาก AMD ตกลง จะเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger
    Intel กำลังมองหาลูกค้ารายใหญ่เพื่อสนับสนุนเทคโนโลยี 14A และ 18A
    การร่วมมืออาจช่วยให้ AMD ลดความเสี่ยงจากข้อจำกัดการส่งออกไปจีน

    ข้อมูลเสริมจากภายนอก
    Intel Foundry ยังตามหลัง TSMC ในด้านเทคโนโลยีการผลิตขั้นสูง
    AMD เคยได้รับผลกระทบจากข้อจำกัดการส่งออก GPU ไปจีนในปี 2025
    การผลิตชิปในสหรัฐฯ อาจช่วยให้ AMD ได้รับการสนับสนุนจากรัฐบาล
    Nvidia และ Apple ก็อยู่ระหว่างเจรจาเพื่อใช้ Intel Foundry เช่นกัน
    การผลิตชิประดับกลางในสหรัฐฯ อาจเป็นจุดเริ่มต้นก่อนขยายไปสู่ชิประดับสูง

    https://www.tomshardware.com/pc-components/cpus/amd-in-early-talks-to-make-chips-at-intel-foundry-report-says
    🤝 “AMD อาจผลิตชิปที่โรงงาน Intel — คู่แข่งเก่ากำลังกลายเป็นพันธมิตรใหม่ในยุคแห่งความมั่นคงด้านเทคโนโลยี” ในความเคลื่อนไหวที่อาจเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ Intel และ AMD กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ AMD กลายเป็นลูกค้าของ Intel Foundry ซึ่งเป็นธุรกิจผลิตชิปตามสั่งของ Intel ที่กำลังพยายามฟื้นตัวจากการตามหลัง TSMC มาหลายปี แม้ AMD จะยังพึ่งพา TSMC เป็นหลักในการผลิตชิปประสิทธิภาพสูง เช่น Ryzen และ EPYC แต่การเจรจากับ Intel ครั้งนี้สะท้อนถึงแรงกดดันจากรัฐบาลสหรัฐฯ ที่ต้องการให้บริษัทอเมริกันผลิตชิปภายในประเทศมากขึ้น โดยมีเป้าหมายให้ 50% ของชิปที่ใช้ในสหรัฐฯ ถูกผลิตในประเทศ เพื่อความมั่นคงของห่วงโซ่อุปทานและลดการพึ่งพาไต้หวัน Intel ได้รับแรงสนับสนุนจากหลายฝ่ายในช่วงไม่กี่เดือนที่ผ่านมา ทั้งการลงทุนจาก SoftBank มูลค่า 2 พันล้านดอลลาร์ การเข้าถือหุ้น 9.9% โดยรัฐบาลสหรัฐฯ และการร่วมมือกับ Nvidia ในการพัฒนาชิป x86 ที่ใช้ GPU ของ Nvidia ซึ่งรวมถึงการลงทุน 5 พันล้านดอลลาร์จาก Nvidia ด้วย หาก AMD ตกลงร่วมมือกับ Intel จริง จะถือเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ที่เคยประกาศว่า Intel ต้องการผลิตชิปให้กับทุกบริษัทเทคโนโลยีรายใหญ่ แม้จะเป็นคู่แข่งโดยตรงก็ตาม อย่างไรก็ตาม ยังไม่มีรายละเอียดว่าชิปประเภทใดของ AMD จะถูกผลิตที่ Intel และ Intel เองก็ยังไม่มีเทคโนโลยีที่สามารถผลิตชิประดับสูงสุดของ AMD ได้ในตอนนี้ เช่น ชิปที่ใช้กระบวนการผลิตระดับ 3nm หรือ 4nm ของ TSMC ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ AMD เป็นลูกค้า Intel Foundry ➡️ AMD ปัจจุบันผลิตชิปที่ TSMC แต่กำลังพิจารณาทางเลือกในสหรัฐฯ ➡️ รัฐบาลสหรัฐฯ ต้องการให้ 50% ของชิปที่ใช้ในประเทศถูกผลิตในประเทศ ➡️ Intel ได้รับการลงทุนจาก SoftBank, Nvidia และรัฐบาลสหรัฐฯ ➡️ Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel และร่วมพัฒนาชิป x86 ร่วมกัน ➡️ หาก AMD ตกลง จะเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ➡️ Intel กำลังมองหาลูกค้ารายใหญ่เพื่อสนับสนุนเทคโนโลยี 14A และ 18A ➡️ การร่วมมืออาจช่วยให้ AMD ลดความเสี่ยงจากข้อจำกัดการส่งออกไปจีน ✅ ข้อมูลเสริมจากภายนอก ➡️ Intel Foundry ยังตามหลัง TSMC ในด้านเทคโนโลยีการผลิตขั้นสูง ➡️ AMD เคยได้รับผลกระทบจากข้อจำกัดการส่งออก GPU ไปจีนในปี 2025 ➡️ การผลิตชิปในสหรัฐฯ อาจช่วยให้ AMD ได้รับการสนับสนุนจากรัฐบาล ➡️ Nvidia และ Apple ก็อยู่ระหว่างเจรจาเพื่อใช้ Intel Foundry เช่นกัน ➡️ การผลิตชิประดับกลางในสหรัฐฯ อาจเป็นจุดเริ่มต้นก่อนขยายไปสู่ชิประดับสูง https://www.tomshardware.com/pc-components/cpus/amd-in-early-talks-to-make-chips-at-intel-foundry-report-says
    WWW.TOMSHARDWARE.COM
    AMD in early talks to make chips at Intel Foundry, report says
    It could be their biggest partnership since Kaby Lake-G.
    0 Comments 0 Shares 164 Views 0 Reviews
  • “Rapidus ปลุกชีพอุตสาหกรรมชิปญี่ปุ่น — ดึง IBM และ Tenstorrent ร่วมผลิต 2nm พร้อมท้าชน TSMC และ Intel”

    Rapidus บริษัทผลิตเซมิคอนดักเตอร์สัญชาติญี่ปุ่นกำลังสร้างแรงสั่นสะเทือนครั้งใหญ่ในอุตสาหกรรมชิประดับโลก ด้วยการประกาศความร่วมมือกับบริษัทอเมริกันรายใหญ่ ได้แก่ IBM และ Tenstorrent เพื่อพัฒนาและผลิตชิปขนาด 2 นาโนเมตร โดย Rapidus ตั้งเป้าจะเริ่มส่งมอบต้นแบบให้ลูกค้าในปี 2026 และเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 ถึงต้นปี 2027 ซึ่งเร็วกว่ากำหนดของ TSMC และ Intel

    เทคโนโลยีที่ Rapidus พัฒนาคือ “2HP” ซึ่งใช้โครงสร้างทรานซิสเตอร์แบบ Gate-All-Around (GAA) ที่มีความหนาแน่นของลอจิกสูงกว่าชิป 18A ของ Intel และเทียบเท่ากับ N2 ของ TSMC โดย IBM จะให้การสนับสนุนด้านเทคโนโลยีการบรรจุชิปและการวิจัยร่วม ขณะที่ Tenstorrent ซึ่งมีความเชี่ยวชาญด้าน RISC-V และ AI จะเป็นหนึ่งในลูกค้ารายแรกที่นำชิป 2nm ไปใช้ในผลิตภัณฑ์จริง

    Rapidus ยังมีแผนส่งมอบ PDK (Process Design Kit) ให้กับลูกค้าในไตรมาสแรกของปี 2026 และได้ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึงเครื่อง EUV ที่โรงงานในเมือง Chitose จังหวัดฮอกไกโด ซึ่งเป็นศูนย์กลางการผลิตหลักของบริษัท

    แม้จะมีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus เป็นส่วนหนึ่งของห่วงโซ่อุปทาน แต่ยังไม่มีการยืนยันอย่างเป็นทางการ อย่างไรก็ตาม ความเคลื่อนไหวนี้สะท้อนถึงความพยายามของญี่ปุ่นในการกลับมาเป็นผู้นำด้านเทคโนโลยีชิปอีกครั้ง หลังจากเสียตำแหน่งให้กับไต้หวันและเกาหลีใต้มานานหลายปี

    ข้อมูลสำคัญจากข่าว
    Rapidus ประกาศความร่วมมือกับ IBM และ Tenstorrent เพื่อพัฒนาชิป 2nm
    เทคโนโลยี “2HP” ใช้โครงสร้าง GAA ที่มีความหนาแน่นสูงกว่าชิป 18A ของ Intel
    IBM สนับสนุนด้านการบรรจุชิปและการวิจัยร่วม
    Tenstorrent จะเป็นหนึ่งในลูกค้ารายแรกที่ใช้ชิป 2nm ในผลิตภัณฑ์ AI
    Rapidus ตั้งเป้าส่งมอบ PDK ใน Q1 ปี 2026 และผลิตจำนวนมากในปลายปี 2026
    โรงงานใน Chitose ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึง EUV lithography
    Rapidus ไม่ตั้งเป้าแข่งตรงกับ TSMC แต่เน้นความคล่องตัวและความเร็วในการผลิต
    มีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus ในห่วงโซ่อุปทาน

    ข้อมูลเสริมจากภายนอก
    Tenstorrent มีความเชี่ยวชาญด้าน RISC-V และ AI โดยมี Jim Keller อดีตผู้บริหาร Intel และ AMD เป็น CEO
    IBM เคยเปิดตัวชิป 2nm รุ่นต้นแบบในปี 2021 และร่วมมือกับ Rapidus ตั้งแต่ปี 2022
    GAA transistor เป็นเทคโนโลยีที่มาแทน FinFET โดยให้ประสิทธิภาพสูงและใช้พลังงานต่ำ
    Rapidus ส่งวิศวกรกว่า 150 คนไปฝึกที่สหรัฐฯ เพื่อเรียนรู้การผลิต GAA
    ญี่ปุ่นเคยเป็นผู้นำด้านเซมิคอนดักเตอร์ในยุค 1980s ก่อนจะถูกแซงโดย TSMC และ Samsung

    https://wccftech.com/japan-rapidus-secures-major-american-customers-for-its-2nm-process/
    ⚙️ “Rapidus ปลุกชีพอุตสาหกรรมชิปญี่ปุ่น — ดึง IBM และ Tenstorrent ร่วมผลิต 2nm พร้อมท้าชน TSMC และ Intel” Rapidus บริษัทผลิตเซมิคอนดักเตอร์สัญชาติญี่ปุ่นกำลังสร้างแรงสั่นสะเทือนครั้งใหญ่ในอุตสาหกรรมชิประดับโลก ด้วยการประกาศความร่วมมือกับบริษัทอเมริกันรายใหญ่ ได้แก่ IBM และ Tenstorrent เพื่อพัฒนาและผลิตชิปขนาด 2 นาโนเมตร โดย Rapidus ตั้งเป้าจะเริ่มส่งมอบต้นแบบให้ลูกค้าในปี 2026 และเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 ถึงต้นปี 2027 ซึ่งเร็วกว่ากำหนดของ TSMC และ Intel เทคโนโลยีที่ Rapidus พัฒนาคือ “2HP” ซึ่งใช้โครงสร้างทรานซิสเตอร์แบบ Gate-All-Around (GAA) ที่มีความหนาแน่นของลอจิกสูงกว่าชิป 18A ของ Intel และเทียบเท่ากับ N2 ของ TSMC โดย IBM จะให้การสนับสนุนด้านเทคโนโลยีการบรรจุชิปและการวิจัยร่วม ขณะที่ Tenstorrent ซึ่งมีความเชี่ยวชาญด้าน RISC-V และ AI จะเป็นหนึ่งในลูกค้ารายแรกที่นำชิป 2nm ไปใช้ในผลิตภัณฑ์จริง Rapidus ยังมีแผนส่งมอบ PDK (Process Design Kit) ให้กับลูกค้าในไตรมาสแรกของปี 2026 และได้ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึงเครื่อง EUV ที่โรงงานในเมือง Chitose จังหวัดฮอกไกโด ซึ่งเป็นศูนย์กลางการผลิตหลักของบริษัท แม้จะมีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus เป็นส่วนหนึ่งของห่วงโซ่อุปทาน แต่ยังไม่มีการยืนยันอย่างเป็นทางการ อย่างไรก็ตาม ความเคลื่อนไหวนี้สะท้อนถึงความพยายามของญี่ปุ่นในการกลับมาเป็นผู้นำด้านเทคโนโลยีชิปอีกครั้ง หลังจากเสียตำแหน่งให้กับไต้หวันและเกาหลีใต้มานานหลายปี ✅ ข้อมูลสำคัญจากข่าว ➡️ Rapidus ประกาศความร่วมมือกับ IBM และ Tenstorrent เพื่อพัฒนาชิป 2nm ➡️ เทคโนโลยี “2HP” ใช้โครงสร้าง GAA ที่มีความหนาแน่นสูงกว่าชิป 18A ของ Intel ➡️ IBM สนับสนุนด้านการบรรจุชิปและการวิจัยร่วม ➡️ Tenstorrent จะเป็นหนึ่งในลูกค้ารายแรกที่ใช้ชิป 2nm ในผลิตภัณฑ์ AI ➡️ Rapidus ตั้งเป้าส่งมอบ PDK ใน Q1 ปี 2026 และผลิตจำนวนมากในปลายปี 2026 ➡️ โรงงานใน Chitose ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึง EUV lithography ➡️ Rapidus ไม่ตั้งเป้าแข่งตรงกับ TSMC แต่เน้นความคล่องตัวและความเร็วในการผลิต ➡️ มีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus ในห่วงโซ่อุปทาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Tenstorrent มีความเชี่ยวชาญด้าน RISC-V และ AI โดยมี Jim Keller อดีตผู้บริหาร Intel และ AMD เป็น CEO ➡️ IBM เคยเปิดตัวชิป 2nm รุ่นต้นแบบในปี 2021 และร่วมมือกับ Rapidus ตั้งแต่ปี 2022 ➡️ GAA transistor เป็นเทคโนโลยีที่มาแทน FinFET โดยให้ประสิทธิภาพสูงและใช้พลังงานต่ำ ➡️ Rapidus ส่งวิศวกรกว่า 150 คนไปฝึกที่สหรัฐฯ เพื่อเรียนรู้การผลิต GAA ➡️ ญี่ปุ่นเคยเป็นผู้นำด้านเซมิคอนดักเตอร์ในยุค 1980s ก่อนจะถูกแซงโดย TSMC และ Samsung https://wccftech.com/japan-rapidus-secures-major-american-customers-for-its-2nm-process/
    WCCFTECH.COM
    Japan’s Rapidus Secures ‘Major’ American Customers for Its 2nm Process, Ramping Up the Race Against TSMC and Intel
    Rapidus has stepped up the race in the 2nm segment, as the Japanese chip firm announces support from major American customers.
    0 Comments 0 Shares 167 Views 0 Reviews
  • “Cisco เปิดตัว AI Agents เต็มรูปแบบใน Webex — เปลี่ยนห้องประชุมให้กลายเป็นผู้ช่วยอัจฉริยะ”

    ในงาน WebexOne 2025 Cisco ประกาศการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม Webex ด้วยการเปิดตัวชุด AI Agents ที่จะเข้ามาทำงานร่วมกับมนุษย์แบบ “Connected Intelligence” โดยเป้าหมายคือการเปลี่ยนวิธีการทำงานร่วมกันในองค์กรให้มีประสิทธิภาพมากขึ้น ผ่านการผสานระหว่างคนและ AI ที่สามารถทำงานแทนได้ในหลายมิติ

    AI Agents ที่เปิดตัวมีหลากหลายรูปแบบ เช่น Task Agent ที่สามารถสรุป action items จากการประชุม, Notetaker Agent ที่ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์, Polling Agent ที่แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม และ Meeting Scheduler ที่ช่วยจัดตารางประชุมโดยอัตโนมัติ

    นอกจากนี้ยังมี AI Receptionist ที่ทำหน้าที่เหมือนพนักงานต้อนรับเสมือนจริง คอยตอบคำถามลูกค้า โอนสาย และจัดการนัดหมาย โดยทั้งหมดจะเริ่มเปิดให้ใช้งานจริงในช่วง Q4 ปี 2025 ถึง Q1 ปี 2026

    Cisco ยังอัปเดตระบบปฏิบัติการ RoomOS 26 สำหรับอุปกรณ์ Collaboration Devices ให้รองรับการทำงานร่วมกับ AI Agents ได้เต็มรูปแบบ พร้อมฟีเจอร์ใหม่อย่าง Dynamic Camera Mode ที่เลือกมุมกล้องอัตโนมัติเหมือนผู้กำกับภาพยนตร์ และระบบเสียงแบบ Audio Zones ที่ใช้ไมโครโฟน Ceiling Mic Pro เพื่อรับเสียงเฉพาะพื้นที่ที่กำหนด

    เพื่อเสริมความสามารถของระบบ AI เหล่านี้ Cisco ได้ร่วมมือกับ Nvidia ในการสร้าง digital twin ของห้องประชุม เพื่อให้ทีม IT สามารถปรับแต่งและจัดการอุปกรณ์ได้อย่างมีประสิทธิภาพมากขึ้น

    การเปิดตัวครั้งนี้ยังมาพร้อมการเชื่อมต่อกับแพลตฟอร์มอื่น เช่น Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira เพื่อให้ AI Agents สามารถทำงานข้ามระบบได้อย่างไร้รอยต่อ

    ข้อมูลสำคัญจากข่าว
    Cisco เปิดตัวชุด AI Agents ใน Webex ภายใต้แนวคิด “Connected Intelligence”
    Task Agent สรุป action items จากการประชุมโดยอัตโนมัติ
    Notetaker Agent ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์ ทั้งใน Webex และ RoomOS 26
    Polling Agent แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม
    Meeting Scheduler ช่วยจัดตารางประชุมโดยอัตโนมัติจากข้อมูลความพร้อมของผู้เข้าร่วม
    AI Receptionist ทำหน้าที่ตอบคำถาม โอนสาย และจัดการนัดหมายแบบเสมือนจริง
    RoomOS 26 เพิ่มฟีเจอร์ Dynamic Camera Mode และ Audio Zones ด้วย Ceiling Mic Pro
    Cisco ร่วมมือกับ Nvidia สร้าง digital twin ของห้องประชุมเพื่อปรับแต่งการใช้งาน
    เชื่อมต่อกับ Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira

    ข้อมูลเสริมจากภายนอก
    Agentic AI คือแนวคิดใหม่ที่ AI ไม่ใช่แค่ผู้ช่วย แต่เป็น “ผู้ร่วมงาน” ที่ทำงานแทนมนุษย์ได้
    Zoom และ Microsoft ก็เริ่มพัฒนา AI Agents ในแพลตฟอร์มของตนเช่นกัน
    Digital twin คือการจำลองสภาพแวดล้อมจริงในรูปแบบดิจิทัล เพื่อการวิเคราะห์และปรับแต่ง
    การใช้ AI ในห้องประชุมช่วยลดภาระงานซ้ำซ้อน และเพิ่มคุณภาพการประชุม
    RoomOS 26 ถือเป็นการอัปเดตครั้งใหญ่ที่สุดของ Cisco ในด้าน Collaboration Devices

    https://www.techradar.com/pro/cisco-goes-all-in-on-agents-and-it-could-mean-big-changes-in-your-workplace
    🤖 “Cisco เปิดตัว AI Agents เต็มรูปแบบใน Webex — เปลี่ยนห้องประชุมให้กลายเป็นผู้ช่วยอัจฉริยะ” ในงาน WebexOne 2025 Cisco ประกาศการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม Webex ด้วยการเปิดตัวชุด AI Agents ที่จะเข้ามาทำงานร่วมกับมนุษย์แบบ “Connected Intelligence” โดยเป้าหมายคือการเปลี่ยนวิธีการทำงานร่วมกันในองค์กรให้มีประสิทธิภาพมากขึ้น ผ่านการผสานระหว่างคนและ AI ที่สามารถทำงานแทนได้ในหลายมิติ AI Agents ที่เปิดตัวมีหลากหลายรูปแบบ เช่น Task Agent ที่สามารถสรุป action items จากการประชุม, Notetaker Agent ที่ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์, Polling Agent ที่แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม และ Meeting Scheduler ที่ช่วยจัดตารางประชุมโดยอัตโนมัติ นอกจากนี้ยังมี AI Receptionist ที่ทำหน้าที่เหมือนพนักงานต้อนรับเสมือนจริง คอยตอบคำถามลูกค้า โอนสาย และจัดการนัดหมาย โดยทั้งหมดจะเริ่มเปิดให้ใช้งานจริงในช่วง Q4 ปี 2025 ถึง Q1 ปี 2026 Cisco ยังอัปเดตระบบปฏิบัติการ RoomOS 26 สำหรับอุปกรณ์ Collaboration Devices ให้รองรับการทำงานร่วมกับ AI Agents ได้เต็มรูปแบบ พร้อมฟีเจอร์ใหม่อย่าง Dynamic Camera Mode ที่เลือกมุมกล้องอัตโนมัติเหมือนผู้กำกับภาพยนตร์ และระบบเสียงแบบ Audio Zones ที่ใช้ไมโครโฟน Ceiling Mic Pro เพื่อรับเสียงเฉพาะพื้นที่ที่กำหนด เพื่อเสริมความสามารถของระบบ AI เหล่านี้ Cisco ได้ร่วมมือกับ Nvidia ในการสร้าง digital twin ของห้องประชุม เพื่อให้ทีม IT สามารถปรับแต่งและจัดการอุปกรณ์ได้อย่างมีประสิทธิภาพมากขึ้น การเปิดตัวครั้งนี้ยังมาพร้อมการเชื่อมต่อกับแพลตฟอร์มอื่น เช่น Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira เพื่อให้ AI Agents สามารถทำงานข้ามระบบได้อย่างไร้รอยต่อ ✅ ข้อมูลสำคัญจากข่าว ➡️ Cisco เปิดตัวชุด AI Agents ใน Webex ภายใต้แนวคิด “Connected Intelligence” ➡️ Task Agent สรุป action items จากการประชุมโดยอัตโนมัติ ➡️ Notetaker Agent ถอดเสียงและสรุปเนื้อหาแบบเรียลไทม์ ทั้งใน Webex และ RoomOS 26 ➡️ Polling Agent แนะนำการทำโพลเพื่อกระตุ้นการมีส่วนร่วม ➡️ Meeting Scheduler ช่วยจัดตารางประชุมโดยอัตโนมัติจากข้อมูลความพร้อมของผู้เข้าร่วม ➡️ AI Receptionist ทำหน้าที่ตอบคำถาม โอนสาย และจัดการนัดหมายแบบเสมือนจริง ➡️ RoomOS 26 เพิ่มฟีเจอร์ Dynamic Camera Mode และ Audio Zones ด้วย Ceiling Mic Pro ➡️ Cisco ร่วมมือกับ Nvidia สร้าง digital twin ของห้องประชุมเพื่อปรับแต่งการใช้งาน ➡️ เชื่อมต่อกับ Microsoft 365 Copilot, Amazon Q Index, Salesforce และ Jira ✅ ข้อมูลเสริมจากภายนอก ➡️ Agentic AI คือแนวคิดใหม่ที่ AI ไม่ใช่แค่ผู้ช่วย แต่เป็น “ผู้ร่วมงาน” ที่ทำงานแทนมนุษย์ได้ ➡️ Zoom และ Microsoft ก็เริ่มพัฒนา AI Agents ในแพลตฟอร์มของตนเช่นกัน ➡️ Digital twin คือการจำลองสภาพแวดล้อมจริงในรูปแบบดิจิทัล เพื่อการวิเคราะห์และปรับแต่ง ➡️ การใช้ AI ในห้องประชุมช่วยลดภาระงานซ้ำซ้อน และเพิ่มคุณภาพการประชุม ➡️ RoomOS 26 ถือเป็นการอัปเดตครั้งใหญ่ที่สุดของ Cisco ในด้าน Collaboration Devices https://www.techradar.com/pro/cisco-goes-all-in-on-agents-and-it-could-mean-big-changes-in-your-workplace
    0 Comments 0 Shares 178 Views 0 Reviews
  • “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia”

    Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ

    ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026

    Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI

    หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla

    เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon

    ข้อมูลสำคัญจากข่าว
    Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์
    พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS
    ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026
    Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้
    Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW
    ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla
    เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google

    ข้อมูลเสริมจากภายนอก
    Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI
    Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI
    SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์
    TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด
    การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง

    https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    🧠 “Sam Altman เดินเกมลับในเอเชีย — จับมือ TSMC, Foxconn และเกาหลีใต้ ปูทางผลิตชิป AI ของตัวเองแทน Nvidia” Sam Altman ซีอีโอของ OpenAI เดินทางเยือนเอเชียอย่างเงียบ ๆ ในช่วงปลายเดือนกันยายน 2025 โดยมีจุดหมายสำคัญคือไต้หวันและเกาหลีใต้ เพื่อเจรจาความร่วมมือด้านการผลิตชิป AI และโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ระดับโลก โดยเฉพาะโครงการ “Stargate” ที่มีมูลค่ากว่า 500,000 ล้านดอลลาร์ ซึ่งจะสร้างดาต้าเซ็นเตอร์และโรงงาน AI จำนวนมากในหลายประเทศ ในไต้หวัน Altman ได้พบกับผู้บริหารของ TSMC และ Foxconn เพื่อหารือเรื่องการออกแบบและผลิตชิป AI แบบ ASIC ที่ OpenAI กำลังพัฒนาร่วมกับ Broadcom โดยใช้เทคโนโลยี 3nm และการบรรจุชิปขั้นสูงแบบ CoWoS พร้อมหน่วยความจำ HBM ซึ่งคาดว่าจะเข้าสู่การผลิตจำนวนมากในไตรมาส 3 ปี 2026 Foxconn ซึ่งเป็นผู้ผลิตเซิร์ฟเวอร์รายใหญ่ของ Oracle จะมีบทบาทสำคัญในการผลิตฮาร์ดแวร์สำหรับ Stargate โดยเฉพาะในโรงงานที่ SoftBank เข้าซื้อในรัฐโอไฮโอ เพื่อใช้เป็นฐานการผลิตร่วมกับ OpenAI หลังจากนั้น Altman เดินทางต่อไปยังเกาหลีใต้เพื่อพบกับประธานาธิบดี Lee Jae Myung และผู้บริหารของ Samsung และ SK hynix โดยมีการลงนามข้อตกลงเบื้องต้นในการสร้างดาต้าเซ็นเตอร์ขนาด 20 เมกะวัตต์ในเมือง Phang และอีกแห่งในจังหวัด South Jeolla เป้าหมายของ Altman คือการลดการพึ่งพา Nvidia ซึ่งปัจจุบันเป็นผู้ผลิต GPU รายใหญ่ที่ OpenAI ใช้ในการฝึกและรันโมเดล AI โดยการพัฒนาชิปของตัวเองจะช่วยให้ OpenAI ควบคุมทั้งฮาร์ดแวร์และซอฟต์แวร์ได้เหมือนที่ Apple ทำกับ Apple Silicon ✅ ข้อมูลสำคัญจากข่าว ➡️ Sam Altman เดินทางเยือนไต้หวันและเกาหลีใต้เพื่อเจรจาความร่วมมือด้านชิปและดาต้าเซ็นเตอร์ ➡️ พบกับ TSMC และ Foxconn เพื่อหารือการผลิตชิป AI แบบ ASIC ด้วยเทคโนโลยี 3nm และ CoWoS ➡️ ชิป AI ของ OpenAI จะใช้หน่วยความจำ HBM และคาดว่าจะผลิตจำนวนมากใน Q3 ปี 2026 ➡️ Foxconn จะผลิตเซิร์ฟเวอร์สำหรับโครงการ Stargate โดยใช้โรงงานในรัฐโอไฮโอที่ SoftBank ซื้อไว้ ➡️ Altman พบประธานาธิบดีเกาหลีใต้และผู้บริหาร Samsung, SK hynix เพื่อสร้างดาต้าเซ็นเตอร์ 20MW ➡️ ดาต้าเซ็นเตอร์จะตั้งอยู่ในเมือง Phang และจังหวัด South Jeolla ➡️ เป้าหมายคือลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ OpenAI ตั้งทีมออกแบบชิป ASIC ตั้งแต่ปี 2024 และดึงทีมงานจากโครงการ TPU ของ Google ✅ ข้อมูลเสริมจากภายนอก ➡️ Stargate เป็นโครงการสร้างโครงสร้างพื้นฐาน AI มูลค่ากว่า $500 พันล้านของ OpenAI ➡️ Oracle ลงทุน $300 พันล้านใน compute capacity ให้กับ OpenAI ➡️ SoftBank เป็นพันธมิตรสำคัญของ OpenAI และมีบทบาทในโรงงานและดาต้าเซ็นเตอร์ ➡️ TSMC เป็นผู้ผลิตชิปอันดับหนึ่งของโลก และมีเทคโนโลยี 3nm ที่ล้ำหน้าที่สุด ➡️ การพัฒนาชิปของตัวเองช่วยให้ OpenAI สร้างโมเดลที่เหมาะกับฮาร์ดแวร์โดยตรง https://www.tomshardware.com/tech-industry/openais-sam-altman-had-secret-tsmc-meeting-over-future-chip-supply-report-claims-ai-pioneer-in-asia-as-south-korea-confirms-20mw-data-center-deal-with-chatgpt-maker
    0 Comments 0 Shares 163 Views 0 Reviews
  • “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’”

    ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง

    แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?”

    Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน

    Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี

    แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030
    โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน
    ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่”
    รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน
    Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี
    รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง
    Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025
    โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel

    https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    🏗️ “Intel ยันเดินหน้าสร้างโรงงานชิปในโอไฮโอ แม้ล่าช้า 5 ปี — ส.ว.ตั้งคำถามแรง ‘นี่คือการหลอกลวงหรือไม่?’” ย้อนกลับไปในปี 2022 Intel เคยประกาศแผนสร้างโรงงานผลิตเซมิคอนดักเตอร์ขนาดใหญ่ที่สุดในโลกที่รัฐโอไฮโอ ภายใต้ชื่อโครงการ “Ohio One” โดยมีเป้าหมายสร้างโรงงานถึง 8 แห่ง พร้อมดึงดูดการลงทุนกว่า 28,000 ล้านดอลลาร์ และเสริมความแข็งแกร่งให้สหรัฐฯ ในฐานะผู้นำด้านการผลิตชิปขั้นสูง แต่ในปี 2025 นี้ โครงการกลับล่าช้าอย่างหนัก โดย Intel ยืนยันว่าจะเลื่อนการเปิดโรงงานไปถึงปี 2030 ซึ่งสร้างความไม่พอใจให้กับ ส.ว. Bernie Moreno ที่ส่งจดหมายถึง CEO ของ Intel เพื่อขอคำชี้แจง พร้อมตั้งคำถามว่า “นี่คือการหลอกลวง หรืออาจเป็นการฉ้อโกง?” Moreno ระบุว่า รัฐโอไฮโอได้ให้เงินสนับสนุนโครงการไปแล้วกว่า 2 พันล้านดอลลาร์ และลงทุนโครงสร้างพื้นฐานใหม่อีกเกือบ 700 ล้านดอลลาร์ แต่จนถึงตอนนี้ยังไม่มีความคืบหน้าใด ๆ ที่เป็นรูปธรรม ขณะที่ชุมชนท้องถิ่นที่เตรียมรับการเติบโตกลับต้องเผชิญกับความไม่แน่นอน Intel ตอบกลับด้วยถ้อยคำทั่วไปว่า “ยังคงมุ่งมั่นในการพัฒนาเทคโนโลยีและการผลิตในสหรัฐฯ” และ “ทำงานร่วมกับผู้มีส่วนได้ส่วนเสียในรัฐโอไฮโออย่างใกล้ชิด” แต่ไม่ได้ตอบคำถามเรื่องผลกระทบทางเศรษฐกิจหรือแผนเยียวยาผู้เสียภาษี แม้จะมีความล่าช้า แต่ Intel ยังได้รับแรงสนับสนุนจากรัฐบาลสหรัฐฯ ซึ่งเพิ่งเข้าถือหุ้น 10% ในบริษัท พร้อมกับการลงทุนจาก Nvidia และ SoftBank ที่ช่วยดันราคาหุ้นขึ้นกว่า 66% ในปีนี้ โดยรัฐบาลมองว่า Intel คือคู่แข่งสำคัญของ TSMC และต้องได้รับการสนับสนุนเพื่อความมั่นคงของชาติ ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันเดินหน้าโครงการ Ohio One แม้จะเลื่อนเปิดโรงงานไปถึงปี 2030 ➡️ โครงการเดิมตั้งเป้าสร้างโรงงาน 8 แห่ง มูลค่ารวมกว่า $28 พันล้าน ➡️ ส.ว. Bernie Moreno ส่งจดหมายถาม Intel ว่าโครงการนี้เป็น “การหลอกลวงหรือไม่” ➡️ รัฐโอไฮโอให้เงินสนับสนุนแล้วกว่า $2 พันล้าน และโครงสร้างพื้นฐานอีก $700 ล้าน ➡️ Intel ตอบกลับด้วยถ้อยคำทั่วไป ไม่ได้ชี้แจงผลกระทบหรือแผนเยียวยาผู้เสียภาษี ➡️ รัฐบาลสหรัฐฯ เข้าถือหุ้น 10% ใน Intel เพื่อสนับสนุนด้านความมั่นคง ➡️ Nvidia และ SoftBank ลงทุนใน Intel ดันราคาหุ้นขึ้นกว่า 66% ในปี 2025 ➡️ โรงงานนี้เคยถูกวางให้เป็นฐานผลิตเทคโนโลยี 18A และ 14A ของ Intel https://www.tomshardware.com/tech-industry/intels-elusive-ohio-fab-project-scrutinized-by-u-s-senator-amid-5-year-delay-to-2030-chipmaker-reassures-ambitious-plan-is-still-on-track-despite-recent-cut-downs
    0 Comments 0 Shares 193 Views 0 Reviews
  • “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก”

    OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้

    Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล

    ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ

    นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน

    การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ

    ข้อมูลสำคัญจากข่าว
    OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่
    Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน
    ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025
    เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง
    หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell
    Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้
    Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ
    OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก

    ข้อมูลเสริมจากภายนอก
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน
    Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล
    Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี
    ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน
    การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ

    https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    🌐 “OpenAI ทุ่มสร้าง Stargate — โครงการดาต้าเซ็นเตอร์ AI ใหญ่ที่สุดในโลก กิน DRAM ถึง 40% ของกำลังผลิตโลก” OpenAI กำลังเดินหน้าโครงการ “Stargate” ซึ่งเป็นโครงการสร้างโครงสร้างพื้นฐานด้าน AI ที่ใหญ่ที่สุดในประวัติศาสตร์ ด้วยงบประมาณกว่า 500,000 ล้านดอลลาร์ โดยร่วมมือกับพันธมิตรระดับโลกอย่าง Oracle, SoftBank และล่าสุดคือ Samsung และ SK hynix สองยักษ์ใหญ่ด้านหน่วยความจำจากเกาหลีใต้ Stargate มีเป้าหมายในการสร้างดาต้าเซ็นเตอร์ขนาดมหึมาหลายแห่งทั่วโลก เพื่อรองรับการทำงานของชิป AI จำนวนมหาศาล โดยแต่ละเซิร์ฟเวอร์จะมี GPU หลายร้อยถึงหลายพันตัว เช่น Nvidia Blackwell ซึ่งต้องการหน่วยความจำความเร็วสูงอย่าง HBM และ DDR5 ในปริมาณมหาศาล ล่าสุด Samsung และ SK hynix ได้ลงนามในข้อตกลงเบื้องต้นเพื่อจัดส่งแผ่นเวเฟอร์ DRAM ให้กับ OpenAI มากถึง 900,000 แผ่นต่อเดือน ซึ่งคิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 โดยจะจัดส่งในรูปแบบ “เวเฟอร์ยังไม่ตัด” เพื่อให้ OpenAI สามารถควบคุมการผลิตและบรรจุชิปได้เองตามความต้องการ นอกจากการจัดส่งหน่วยความจำแล้ว Samsung SDS ยังร่วมมือกับ OpenAI ในการออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ พร้อมให้บริการ ChatGPT Enterprise กับองค์กรในประเทศ ขณะที่ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนา “ดาต้าเซ็นเตอร์ลอยน้ำ” เพื่อเพิ่มประสิทธิภาพการระบายความร้อนและลดการปล่อยคาร์บอน การขยายตัวของ Stargate ยังรวมถึงการเปิดสำนักงาน OpenAI ในกรุงโซล ซึ่งปัจจุบันมีผู้สมัครใช้งาน ChatGPT แบบเสียเงินมากที่สุดเป็นอันดับสองของโลก รองจากสหรัฐฯ ✅ ข้อมูลสำคัญจากข่าว ➡️ OpenAI สร้างโครงการ Stargate ด้วยงบประมาณกว่า $500 พันล้าน เพื่อสร้างดาต้าเซ็นเตอร์ AI ขนาดใหญ่ ➡️ Samsung และ SK hynix จะจัดส่งเวเฟอร์ DRAM ให้ OpenAI มากถึง 900,000 แผ่นต่อเดือน ➡️ ปริมาณนี้คิดเป็นประมาณ 40% ของกำลังผลิต DRAM ทั่วโลกในปี 2025 ➡️ เวเฟอร์จะถูกส่งในรูปแบบยังไม่ตัด เพื่อให้ OpenAI ควบคุมการผลิตชิปเอง ➡️ หน่วยความจำที่ใช้รวมถึง DDR5 และ HBM สำหรับชิป AI เช่น Nvidia Blackwell ➡️ Samsung SDS จะร่วมออกแบบและบริหารดาต้าเซ็นเตอร์ในเกาหลีใต้ ➡️ Samsung Heavy Industries และ Samsung C&T จะร่วมพัฒนาดาต้าเซ็นเตอร์ลอยน้ำ ➡️ OpenAI เปิดสำนักงานในกรุงโซล ซึ่งมีผู้ใช้ ChatGPT แบบเสียเงินมากเป็นอันดับสองของโลก ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ซ้อนชิปในแนวตั้ง เพื่อเพิ่มความเร็วและลดการใช้พลังงาน ➡️ Nvidia ลงทุนใน Stargate มากถึง $100 พันล้าน เพื่อจัดหาชิปและกำลังประมวลผล ➡️ Oracle ขาย compute capacity ให้ OpenAI มูลค่า $300 พันล้านในระยะเวลา 5 ปี ➡️ ดาต้าเซ็นเตอร์ของ Stargate อาจต้องใช้โรงไฟฟ้าเฉพาะเพื่อรองรับการใช้พลังงาน ➡️ การใช้เวเฟอร์แบบยังไม่ตัดช่วยให้ OpenAI ปรับแต่งการผลิตได้ตามโมเดล AI ที่ต้องการ https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month
    0 Comments 0 Shares 175 Views 0 Reviews
  • “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่”

    Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom

    Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว

    Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้

    ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่

    Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024

    หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI

    ข้อมูลสำคัญจากข่าว
    Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร
    Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V
    MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์
    Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง
    Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่
    Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน
    ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก
    Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI

    ข้อมูลเสริมจากภายนอก
    RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom
    Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง
    Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ
    HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI
    การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft

    https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    🚀 “Meta ซื้อกิจการ Rivos — ปั้น GPU RISC-V สู้ Nvidia พร้อมเร่งเครื่อง MTIA เพื่อ AI ยุคใหม่” Meta กำลังเดินเกมครั้งใหญ่ในสนาม AI ด้วยการเข้าซื้อกิจการ Rivos บริษัทสตาร์ทอัพด้านชิปที่เน้นสถาปัตยกรรม RISC-V โดยดีลนี้ยังไม่เปิดเผยอย่างเป็นทางการ แต่ได้รับการยืนยันจากหลายแหล่งข่าว รวมถึงโพสต์ของรองประธานฝ่ายวิศวกรรมของ Meta บน LinkedIn ว่า “เราตื่นเต้นที่จะนำทีม Rivos เข้ามาเสริมความแข็งแกร่งให้กับการพัฒนา MTIA” — ชิป AI แบบ custom ที่ Meta พัฒนาร่วมกับ Broadcom Rivos เป็นบริษัทที่มีความเชี่ยวชาญในการออกแบบ GPU และ AI accelerator โดยใช้สถาปัตยกรรม RISC-V ซึ่งเป็นมาตรฐานเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์เหมือนกับ Arm หรือ x86 ทำให้สามารถพัฒนาได้อย่างยืดหยุ่นและลดต้นทุนในระยะยาว Meta มีเป้าหมายชัดเจนในการลดการพึ่งพา Nvidia โดยเฉพาะในยุคที่ความต้องการชิป AI พุ่งสูงและเกิดปัญหาคอขวดด้านซัพพลาย Meta จึงต้องการควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเองให้มากขึ้น และการซื้อ Rivos ก็เป็นก้าวสำคัญในแผนนี้ ก่อนหน้านี้ Meta ได้พัฒนา MTIA รุ่นแรกและเริ่มใช้งานในดาต้าเซ็นเตอร์ร่วมกับ GPU ของ Nvidia แต่มีรายงานว่า Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นถัดไป จึงเร่งการซื้อกิจการเพื่อเสริมทีมและเร่งการ tape-out รุ่นใหม่ Rivos เคยมีประเด็นทางกฎหมายกับ Apple ในปี 2022 จากข้อกล่าวหาว่าดึงวิศวกรกว่า 40 คนออกจากทีม SoC ของ Apple พร้อมข้อมูลภายในหลายกิกะไบต์ แต่สุดท้ายทั้งสองฝ่ายตกลงกันในปี 2024 หากดีลนี้สำเร็จ Meta จะกลายเป็นหนึ่งในบริษัทแรกที่นำ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่ ซึ่งอาจเปลี่ยนสมดุลของตลาด AI hardware และเปิดทางให้สถาปัตยกรรมเปิดกลายเป็นมาตรฐานใหม่ในยุค AI ✅ ข้อมูลสำคัญจากข่าว ➡️ Meta เตรียมซื้อกิจการ Rivos เพื่อเสริมทีมพัฒนาชิป AI ภายในองค์กร ➡️ Rivos เชี่ยวชาญด้าน GPU และ AI accelerator บนสถาปัตยกรรม RISC-V ➡️ MTIA เป็นชิป AI ที่ Meta พัฒนาร่วมกับ Broadcom และเริ่มใช้งานแล้วในดาต้าเซ็นเตอร์ ➡️ Meta ต้องการลดการพึ่งพา Nvidia และควบคุมห่วงโซ่ฮาร์ดแวร์ของตัวเอง ➡️ Mark Zuckerberg ไม่พอใจกับความล่าช้าในการพัฒนา MTIA รุ่นใหม่ ➡️ Rivos เคยมีคดีความกับ Apple จากการดึงวิศวกรและข้อมูลภายใน ➡️ ดีลนี้อาจทำให้ RISC-V เข้าสู่ดาต้าเซ็นเตอร์ในระดับใหญ่เป็นครั้งแรก ➡️ Meta ลงทุนกว่า $70 พันล้านในปี 2025 ส่วนใหญ่เพื่อโครงสร้างพื้นฐาน AI ✅ ข้อมูลเสริมจากภายนอก ➡️ RISC-V เป็นสถาปัตยกรรมเปิดที่ไม่ต้องเสียค่าลิขสิทธิ์ เหมาะกับการพัฒนาแบบ custom ➡️ Nvidia Rubin CPX เป็นชิป AI รุ่นใหม่ที่ใช้สถาปัตยกรรม Arm ซึ่งแข่งขันกับ Rivos โดยตรง ➡️ Rivos พัฒนา GPU แบบ Data Parallel Accelerator ที่เน้นงาน inference โดยเฉพาะ ➡️ HBM (High Bandwidth Memory) เป็นหน่วยความจำที่ Rivos ใช้ในชิปเพื่อเร่งการประมวลผล AI ➡️ การควบรวมกิจการในวงการชิป AI กำลังเป็นเทรนด์ของ Big Tech เช่น Google, Amazon, Microsoft https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-reportedly-buying-risc-v-ai-gpu-firm-rivos-acquisition-to-bolster-dev-team-and-possibly-replace-nvidia-internally
    0 Comments 0 Shares 191 Views 0 Reviews
More Results