• “ASUS ปฏิวัติสล็อต PCIe — ส่งพลังงานได้ถึง 250W โดยไม่ต้องใช้สายเสริม พร้อมเปิดทางสู่ยุค GPU ไร้สาย”

    ตั้งแต่ PCIe ถือกำเนิดในช่วงต้นยุค 2000 สล็อตกราฟิกบนเมนบอร์ดสามารถจ่ายไฟได้สูงสุดเพียง 75W ซึ่งเพียงพอสำหรับการ์ดจอระดับเริ่มต้นเท่านั้น ส่วนการ์ดจอระดับกลางและสูงต้องพึ่งพาสายไฟเสริมจาก PSU เสมอ แต่ล่าสุด ASUS ได้เปิดตัวแนวคิดใหม่ที่อาจเปลี่ยนแปลงวงการพีซีไปตลอดกาล — สล็อต PCIe ที่สามารถจ่ายไฟได้สูงถึง 250W โดยไม่ต้องใช้สายเสริมเลย

    แนวคิดนี้ใช้การปรับแต่ง “gold finger” ด้านหน้าของสล็อต PCIe โดยรวมสายไฟ 12V จำนวน 5 เส้นเข้าด้วยกัน พร้อมเพิ่มความหนาและใช้วัสดุที่นำไฟฟ้าได้ดีขึ้น ทำให้สามารถรับกระแสไฟได้มากขึ้นอย่างปลอดภัย โดยมีการเสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด ซึ่งช่วยป้อนพลังงานเพิ่มเติมให้กับสล็อตโดยตรง

    ASUS ตั้งเป้าให้แนวคิดนี้รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti หรือ Radeon RX 9060 XT ที่มีการใช้พลังงานระหว่าง 150–220W ซึ่งอยู่ในขอบเขตที่สล็อตใหม่สามารถรองรับได้โดยไม่ต้องใช้สายเสริม การ์ดจอเหล่านี้จะสามารถทำงานได้เต็มประสิทธิภาพผ่านสล็อต PCIe เพียงอย่างเดียว

    แม้ ASUS จะมีมาตรฐาน GC-HPWR สำหรับการ์ดจอไร้สายอยู่แล้ว แต่แนวคิดใหม่นี้ถือเป็นทางเลือกที่ “ถูกกว่า” และ “ง่ายกว่า” เพราะไม่ต้องเพิ่มช่องเชื่อมต่อพิเศษภายในตัวการ์ดหรือเมนบอร์ด ทำให้เหมาะกับตลาดระดับกลางที่ต้องการความสะอาดในการจัดสายและลดต้นทุนการผลิต

    ที่สำคัญคือ การออกแบบใหม่นี้ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม หากใช้การ์ดจอที่รองรับในเมนบอร์ดทั่วไป ก็จะกลับไปใช้การจ่ายไฟแบบเดิมได้ทันที แต่หากใช้กับเมนบอร์ดที่รองรับการจ่ายไฟ 250W ก็จะสามารถใช้งานแบบไร้สายได้เต็มรูปแบบ

    ข้อมูลสำคัญจากข่าว
    ASUS พัฒนาแนวคิดสล็อต PCIe ที่สามารถจ่ายไฟได้ถึง 250W โดยไม่ต้องใช้สายเสริม
    ใช้การรวมสาย 12V จำนวน 5 เส้น พร้อมเพิ่มความหนาและวัสดุนำไฟฟ้า
    เสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด
    รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti และ RX 9060 XT

    จุดเด่นของแนวคิด
    ไม่ต้องใช้สายไฟเสริม ทำให้เคสสะอาดและจัดสายง่ายขึ้น
    เหมาะกับตลาด mainstream ที่ต้องการลดต้นทุนและความซับซ้อน
    ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม
    เป็นทางเลือกที่ถูกกว่า GC-HPWR สำหรับการ์ดจอไร้สาย

    ข้อมูลเสริมจากภายนอก
    PCIe มาตรฐานเดิมจ่ายไฟได้เพียง 75W ซึ่งไม่เพียงพอสำหรับการ์ดจอส่วนใหญ่
    GC-HPWR ของ ASUS เคยใช้ใน RTX 4070 และเมนบอร์ด Z790 TUF Gaming
    MSI เคยใช้หัวต่อ 8-pin บนเมนบอร์ดเพื่อเสริมพลังงานเช่นกัน
    การออกแบบแบบนี้อาจนำไปสู่มาตรฐานใหม่ของ GPU ในอนาคต

    https://www.tomshardware.com/pc-components/gpus/asus-gives-us-the-pcie-finger-teases-new-concept-that-boosts-motherboard-gpu-slot-power-to-250w
    🔌 “ASUS ปฏิวัติสล็อต PCIe — ส่งพลังงานได้ถึง 250W โดยไม่ต้องใช้สายเสริม พร้อมเปิดทางสู่ยุค GPU ไร้สาย” ตั้งแต่ PCIe ถือกำเนิดในช่วงต้นยุค 2000 สล็อตกราฟิกบนเมนบอร์ดสามารถจ่ายไฟได้สูงสุดเพียง 75W ซึ่งเพียงพอสำหรับการ์ดจอระดับเริ่มต้นเท่านั้น ส่วนการ์ดจอระดับกลางและสูงต้องพึ่งพาสายไฟเสริมจาก PSU เสมอ แต่ล่าสุด ASUS ได้เปิดตัวแนวคิดใหม่ที่อาจเปลี่ยนแปลงวงการพีซีไปตลอดกาล — สล็อต PCIe ที่สามารถจ่ายไฟได้สูงถึง 250W โดยไม่ต้องใช้สายเสริมเลย แนวคิดนี้ใช้การปรับแต่ง “gold finger” ด้านหน้าของสล็อต PCIe โดยรวมสายไฟ 12V จำนวน 5 เส้นเข้าด้วยกัน พร้อมเพิ่มความหนาและใช้วัสดุที่นำไฟฟ้าได้ดีขึ้น ทำให้สามารถรับกระแสไฟได้มากขึ้นอย่างปลอดภัย โดยมีการเสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด ซึ่งช่วยป้อนพลังงานเพิ่มเติมให้กับสล็อตโดยตรง ASUS ตั้งเป้าให้แนวคิดนี้รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti หรือ Radeon RX 9060 XT ที่มีการใช้พลังงานระหว่าง 150–220W ซึ่งอยู่ในขอบเขตที่สล็อตใหม่สามารถรองรับได้โดยไม่ต้องใช้สายเสริม การ์ดจอเหล่านี้จะสามารถทำงานได้เต็มประสิทธิภาพผ่านสล็อต PCIe เพียงอย่างเดียว แม้ ASUS จะมีมาตรฐาน GC-HPWR สำหรับการ์ดจอไร้สายอยู่แล้ว แต่แนวคิดใหม่นี้ถือเป็นทางเลือกที่ “ถูกกว่า” และ “ง่ายกว่า” เพราะไม่ต้องเพิ่มช่องเชื่อมต่อพิเศษภายในตัวการ์ดหรือเมนบอร์ด ทำให้เหมาะกับตลาดระดับกลางที่ต้องการความสะอาดในการจัดสายและลดต้นทุนการผลิต ที่สำคัญคือ การออกแบบใหม่นี้ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม หากใช้การ์ดจอที่รองรับในเมนบอร์ดทั่วไป ก็จะกลับไปใช้การจ่ายไฟแบบเดิมได้ทันที แต่หากใช้กับเมนบอร์ดที่รองรับการจ่ายไฟ 250W ก็จะสามารถใช้งานแบบไร้สายได้เต็มรูปแบบ ✅ ข้อมูลสำคัญจากข่าว ➡️ ASUS พัฒนาแนวคิดสล็อต PCIe ที่สามารถจ่ายไฟได้ถึง 250W โดยไม่ต้องใช้สายเสริม ➡️ ใช้การรวมสาย 12V จำนวน 5 เส้น พร้อมเพิ่มความหนาและวัสดุนำไฟฟ้า ➡️ เสริมพลังงานผ่านหัวต่อ 8-pin PCIe บนเมนบอร์ด ➡️ รองรับการ์ดจอระดับกลาง เช่น RTX 5060 Ti และ RX 9060 XT ✅ จุดเด่นของแนวคิด ➡️ ไม่ต้องใช้สายไฟเสริม ทำให้เคสสะอาดและจัดสายง่ายขึ้น ➡️ เหมาะกับตลาด mainstream ที่ต้องการลดต้นทุนและความซับซ้อน ➡️ ยังคงความเข้ากันได้กับสล็อต PCIe แบบเดิม ➡️ เป็นทางเลือกที่ถูกกว่า GC-HPWR สำหรับการ์ดจอไร้สาย ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe มาตรฐานเดิมจ่ายไฟได้เพียง 75W ซึ่งไม่เพียงพอสำหรับการ์ดจอส่วนใหญ่ ➡️ GC-HPWR ของ ASUS เคยใช้ใน RTX 4070 และเมนบอร์ด Z790 TUF Gaming ➡️ MSI เคยใช้หัวต่อ 8-pin บนเมนบอร์ดเพื่อเสริมพลังงานเช่นกัน ➡️ การออกแบบแบบนี้อาจนำไปสู่มาตรฐานใหม่ของ GPU ในอนาคต https://www.tomshardware.com/pc-components/gpus/asus-gives-us-the-pcie-finger-teases-new-concept-that-boosts-motherboard-gpu-slot-power-to-250w
    WWW.TOMSHARDWARE.COM
    Asus gives us the PCIe finger — teases new concept that boosts motherboard GPU slot power to 250W
    This could be a cheaper way for Asus to make cableless graphics cards in the future.
    0 ความคิดเห็น 0 การแบ่งปัน 35 มุมมอง 0 รีวิว
  • อย่าปล่อยให้เศษปลาแซลมอนกลายเป็นของเหลือทิ้ง!

    ในทุกชิ้นส่วนของปลาแซลมอนยังมีเนื้อคุณภาพซ่อนอยู่มากมาย ทั้งก้าง หัว และหนัง... เครื่องแยกก้างปลา Fish Deboner คือคำตอบที่จะช่วยให้คุณดึงเนื้อปลาแซลมอนออกมาใช้ได้คุ้มค่าที่สุด!

    เครื่องนี้เหมาะสำหรับธุรกิจที่แปรรูปปลาแซลมอน ไม่ว่าจะเป็นร้านอาหารญี่ปุ่น โรงงานทำแซลมอนรมควัน หรือผู้ค้าส่งปลา เพราะช่วยคุณ:
    เพิ่มกำไร: เปลี่ยน "เศษเหลือ" ให้กลายเป็นวัตถุดิบเนื้อปลาแซลมอนคุณภาพสูง เพิ่มมูลค่าสินค้าและลดการสูญเสีย
    ผลิตง่าย: ได้เนื้อแซลมอนบดพร้อมใช้งานทันที สำหรับทำแซลมอนเบอร์เกอร์ ไส้เกี๊ยว หรือใช้เป็นส่วนผสมในเมนูอื่นๆ ได้อย่างหลากหลาย
    ทำงานรวดเร็ว: ด้วยกำลังผลิตสูงถึง 100-300 กก./ชม. ช่วยประหยัดเวลาและลดต้นทุนแรงงานได้อย่างมหาศาล

    รายละเอียดเครื่อง:

    มอเตอร์: 3 แรงม้า, ไฟ 380V
    กำลังการผลิต: 100-300 กก./ชม.
    ขนาด: 800 x 650 x 900 มม.
    น้ำหนัก: 250 กก.

    ให้ BONNY เป็นตัวช่วยสำคัญในธุรกิจคุณ!

    แฮชแท็กที่เกี่ยวข้อง
    #เครื่องแยกก้างปลา #เครื่องจักรอาหาร #ปลาแซลมอน #แซลมอน #ธุรกิจอาหาร #เครื่องจักรโรงงาน #ฟู้ดโปรเซสซิ่ง #ร้านอาหารญี่ปุ่น #แซลมอนบด #เพิ่มมูลค่า #FishDeboner #SalmonProcessing #FoodMachinery #FoodProduction #Salmon #Seafood #ProcessedFood #FrozenFood #SMEไทย #ผู้ประกอบการ #ลดต้นทุน #เพิ่มผลผลิต #เครื่องครัวร้านอาหาร #เมนูปลา #แซลมอนเบอร์เกอร์ #ไส้เกี๊ยวปลา #เครื่องจักรแปรรูป #ย่งฮะเฮง #BONNY

    สนใจดูสินค้าจริงและสอบถามเพิ่มเติม:
    ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) แขวงวังใหม่ เขตปทุมวัน กรุงเทพฯ 10330
    เวลาทำการ: จันทร์-ศุกร์ (8.00-17.00 น.), เสาร์ (8.00-16.00 น.)
    แผนที่: https://maps.app.goo.gl/9oLTmzwbArzJy5wc7
    แชท: m.me/yonghahheng
    LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9
    โทรศัพท์: 02-215-3515-9 หรือ 081-3189098
    เว็บไซต์: www.yoryonghahheng.com
    อีเมล: sales@yoryonghahheng.com หรือ yonghahheng@gmail.com
    อย่าปล่อยให้เศษปลาแซลมอนกลายเป็นของเหลือทิ้ง! 😩 ในทุกชิ้นส่วนของปลาแซลมอนยังมีเนื้อคุณภาพซ่อนอยู่มากมาย ทั้งก้าง หัว และหนัง... เครื่องแยกก้างปลา Fish Deboner คือคำตอบที่จะช่วยให้คุณดึงเนื้อปลาแซลมอนออกมาใช้ได้คุ้มค่าที่สุด! 💯 เครื่องนี้เหมาะสำหรับธุรกิจที่แปรรูปปลาแซลมอน ไม่ว่าจะเป็นร้านอาหารญี่ปุ่น โรงงานทำแซลมอนรมควัน หรือผู้ค้าส่งปลา เพราะช่วยคุณ: เพิ่มกำไร: 📈 เปลี่ยน "เศษเหลือ" ให้กลายเป็นวัตถุดิบเนื้อปลาแซลมอนคุณภาพสูง เพิ่มมูลค่าสินค้าและลดการสูญเสีย ผลิตง่าย: ✨ ได้เนื้อแซลมอนบดพร้อมใช้งานทันที สำหรับทำแซลมอนเบอร์เกอร์ 🍔 ไส้เกี๊ยว 🥟 หรือใช้เป็นส่วนผสมในเมนูอื่นๆ ได้อย่างหลากหลาย ทำงานรวดเร็ว: ⏱️ ด้วยกำลังผลิตสูงถึง 100-300 กก./ชม. ช่วยประหยัดเวลาและลดต้นทุนแรงงานได้อย่างมหาศาล รายละเอียดเครื่อง: มอเตอร์: 3 แรงม้า, ไฟ 380V 💪 กำลังการผลิต: 100-300 กก./ชม. ⚡ ขนาด: 800 x 650 x 900 มม. น้ำหนัก: 250 กก. ให้ BONNY เป็นตัวช่วยสำคัญในธุรกิจคุณ! 👍 แฮชแท็กที่เกี่ยวข้อง #เครื่องแยกก้างปลา #เครื่องจักรอาหาร #ปลาแซลมอน #แซลมอน #ธุรกิจอาหาร #เครื่องจักรโรงงาน #ฟู้ดโปรเซสซิ่ง #ร้านอาหารญี่ปุ่น #แซลมอนบด #เพิ่มมูลค่า #FishDeboner #SalmonProcessing #FoodMachinery #FoodProduction #Salmon #Seafood #ProcessedFood #FrozenFood #SMEไทย #ผู้ประกอบการ #ลดต้นทุน #เพิ่มผลผลิต #เครื่องครัวร้านอาหาร #เมนูปลา #แซลมอนเบอร์เกอร์ #ไส้เกี๊ยวปลา #เครื่องจักรแปรรูป #ย่งฮะเฮง #BONNY 🛒 สนใจดูสินค้าจริงและสอบถามเพิ่มเติม: ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) แขวงวังใหม่ เขตปทุมวัน กรุงเทพฯ 10330 เวลาทำการ: จันทร์-ศุกร์ (8.00-17.00 น.), เสาร์ (8.00-16.00 น.) แผนที่: https://maps.app.goo.gl/9oLTmzwbArzJy5wc7 แชท: m.me/yonghahheng LINE: @yonghahheng (มี @) หรือ คลิก https://lin.ee/5H812n9 โทรศัพท์: 02-215-3515-9 หรือ 081-3189098 เว็บไซต์: www.yoryonghahheng.com อีเมล: sales@yoryonghahheng.com หรือ yonghahheng@gmail.com
    0 ความคิดเห็น 0 การแบ่งปัน 115 มุมมอง 0 รีวิว
  • Splunk .Conf 2025: เมื่อ Machine Data กลายเป็นเชื้อเพลิงใหม่ของ AI และความมั่นคงปลอดภัยองค์กร

    งาน Splunk .Conf 2025 ที่จัดขึ้น ณ เมืองบอสตันในเดือนกันยายนนี้ ไม่ได้มีแค่โชว์จากวง Weezer หรือม้าแคระชื่อ Buttercup แต่เป็นเวทีที่ Cisco และ Splunk ร่วมกันเปิดวิสัยทัศน์ใหม่ของโลกไซเบอร์ โดยเน้นการใช้ “Machine Data” เป็นหัวใจของการพัฒนา AI และระบบรักษาความปลอดภัยในองค์กรยุคใหม่

    Cisco ประกาศเปิดตัว “Cisco Data Fabric” สถาปัตยกรรมใหม่ที่ช่วยให้ข้อมูลจากเซิร์ฟเวอร์ แอปพลิเคชัน อุปกรณ์เครือข่าย และระบบ edge ถูกนำมาใช้ฝึกโมเดล AI ได้อย่างมีประสิทธิภาพ โดยไม่ต้องย้ายข้อมูลทั้งหมดเข้าสู่ศูนย์กลางแบบเดิม ซึ่งช่วยลดต้นทุนและเพิ่มความเร็วในการตอบสนองต่อเหตุการณ์ต่าง ๆ

    Splunk ยังเปิดตัวฟีเจอร์ใหม่ในด้าน Security Operations เช่น Detection Studio และ Splunk Enterprise Security รุ่นพรีเมียม ที่รวม SIEM, SOAR, UEBA และ AI Assistant ไว้ในแพลตฟอร์มเดียว พร้อมแนวคิด “Resilience” ที่เน้นการรวมระบบ Observability กับ Security เพื่อให้ระบบ IT ฟื้นตัวได้เร็วจากภัยคุกคามหรือความผิดพลาด

    นอกจากนี้ Splunk ยังผลักดันมาตรฐานเปิด เช่น Open Telemetry และ Open Cybersecurity Framework เพื่อให้เครื่องมือจากหลายค่ายสามารถสื่อสารกันได้อย่างมีประสิทธิภาพ และลดการพึ่งพาโซลูชันแบบปิด

    อย่างไรก็ตาม Splunk ยังเผชิญกับความท้าทายจากภาพลักษณ์ “Legacy Vendor” และเสียงวิจารณ์เรื่องราคาสูง การขายเชิงรุก และการสนับสนุนลูกค้าที่ไม่ทั่วถึง ทำให้ต้องเร่งปรับตัวเพื่อรักษาฐานลูกค้าและแข่งขันกับคู่แข่งอย่าง CrowdStrike, Microsoft และ Palo Alto Networks

    งาน Splunk .Conf 2025 เปิดตัว Cisco Data Fabric
    ใช้ Machine Data เป็นเชื้อเพลิงใหม่สำหรับ AI
    ลดต้นทุนและความซับซ้อนในการจัดการข้อมูล

    Machine Data ถูกยกให้เป็น 55% ของการเติบโตข้อมูลทั่วโลก
    Cisco และ Splunk เชื่อว่า LLMs ที่ฝึกด้วย Machine Data จะตอบสนองได้แม่นยำกว่า
    ช่วยให้ระบบตอบสนองต่อภัยคุกคามได้แบบอัตโนมัติ

    Splunk เปิดตัว Detection Studio และ Enterprise Security รุ่นใหม่
    รวม SIEM, SOAR, UEBA, Threat Intelligence และ AI Assistant
    ช่วยลดภาระงานของทีม Security Operations

    แนวคิด Resilience ถูกเน้นในงาน
    รวม Observability กับ Security เพื่อฟื้นตัวจากเหตุการณ์ได้เร็ว
    ลดข้อจำกัดจากโครงสร้างองค์กรและงบประมาณ

    Splunk สนับสนุนมาตรฐานเปิด
    ใช้ Open Telemetry และ Open Cybersecurity Framework
    ช่วยให้เครื่องมือจากหลายค่ายทำงานร่วมกันได้ดีขึ้น

    โมเดล Federated Search ถูกขยาย
    รองรับการค้นหาข้ามแหล่งข้อมูล เช่น S3, Snowflake, Iceberg
    ลดภาระการจัดเก็บข้อมูลแบบรวมศูนย์

    https://www.csoonline.com/article/4058991/where-cisos-need-to-see-splunk-go-next.html
    📰 Splunk .Conf 2025: เมื่อ Machine Data กลายเป็นเชื้อเพลิงใหม่ของ AI และความมั่นคงปลอดภัยองค์กร งาน Splunk .Conf 2025 ที่จัดขึ้น ณ เมืองบอสตันในเดือนกันยายนนี้ ไม่ได้มีแค่โชว์จากวง Weezer หรือม้าแคระชื่อ Buttercup แต่เป็นเวทีที่ Cisco และ Splunk ร่วมกันเปิดวิสัยทัศน์ใหม่ของโลกไซเบอร์ โดยเน้นการใช้ “Machine Data” เป็นหัวใจของการพัฒนา AI และระบบรักษาความปลอดภัยในองค์กรยุคใหม่ Cisco ประกาศเปิดตัว “Cisco Data Fabric” สถาปัตยกรรมใหม่ที่ช่วยให้ข้อมูลจากเซิร์ฟเวอร์ แอปพลิเคชัน อุปกรณ์เครือข่าย และระบบ edge ถูกนำมาใช้ฝึกโมเดล AI ได้อย่างมีประสิทธิภาพ โดยไม่ต้องย้ายข้อมูลทั้งหมดเข้าสู่ศูนย์กลางแบบเดิม ซึ่งช่วยลดต้นทุนและเพิ่มความเร็วในการตอบสนองต่อเหตุการณ์ต่าง ๆ Splunk ยังเปิดตัวฟีเจอร์ใหม่ในด้าน Security Operations เช่น Detection Studio และ Splunk Enterprise Security รุ่นพรีเมียม ที่รวม SIEM, SOAR, UEBA และ AI Assistant ไว้ในแพลตฟอร์มเดียว พร้อมแนวคิด “Resilience” ที่เน้นการรวมระบบ Observability กับ Security เพื่อให้ระบบ IT ฟื้นตัวได้เร็วจากภัยคุกคามหรือความผิดพลาด นอกจากนี้ Splunk ยังผลักดันมาตรฐานเปิด เช่น Open Telemetry และ Open Cybersecurity Framework เพื่อให้เครื่องมือจากหลายค่ายสามารถสื่อสารกันได้อย่างมีประสิทธิภาพ และลดการพึ่งพาโซลูชันแบบปิด อย่างไรก็ตาม Splunk ยังเผชิญกับความท้าทายจากภาพลักษณ์ “Legacy Vendor” และเสียงวิจารณ์เรื่องราคาสูง การขายเชิงรุก และการสนับสนุนลูกค้าที่ไม่ทั่วถึง ทำให้ต้องเร่งปรับตัวเพื่อรักษาฐานลูกค้าและแข่งขันกับคู่แข่งอย่าง CrowdStrike, Microsoft และ Palo Alto Networks ✅ งาน Splunk .Conf 2025 เปิดตัว Cisco Data Fabric ➡️ ใช้ Machine Data เป็นเชื้อเพลิงใหม่สำหรับ AI ➡️ ลดต้นทุนและความซับซ้อนในการจัดการข้อมูล ✅ Machine Data ถูกยกให้เป็น 55% ของการเติบโตข้อมูลทั่วโลก ➡️ Cisco และ Splunk เชื่อว่า LLMs ที่ฝึกด้วย Machine Data จะตอบสนองได้แม่นยำกว่า ➡️ ช่วยให้ระบบตอบสนองต่อภัยคุกคามได้แบบอัตโนมัติ ✅ Splunk เปิดตัว Detection Studio และ Enterprise Security รุ่นใหม่ ➡️ รวม SIEM, SOAR, UEBA, Threat Intelligence และ AI Assistant ➡️ ช่วยลดภาระงานของทีม Security Operations ✅ แนวคิด Resilience ถูกเน้นในงาน ➡️ รวม Observability กับ Security เพื่อฟื้นตัวจากเหตุการณ์ได้เร็ว ➡️ ลดข้อจำกัดจากโครงสร้างองค์กรและงบประมาณ ✅ Splunk สนับสนุนมาตรฐานเปิด ➡️ ใช้ Open Telemetry และ Open Cybersecurity Framework ➡️ ช่วยให้เครื่องมือจากหลายค่ายทำงานร่วมกันได้ดีขึ้น ✅ โมเดล Federated Search ถูกขยาย ➡️ รองรับการค้นหาข้ามแหล่งข้อมูล เช่น S3, Snowflake, Iceberg ➡️ ลดภาระการจัดเก็บข้อมูลแบบรวมศูนย์ https://www.csoonline.com/article/4058991/where-cisos-need-to-see-splunk-go-next.html
    WWW.CSOONLINE.COM
    Where CISOs need to see Splunk go next
    Splunk’s latest .Conf focused on machine data, federation, resiliency, and easing the cybersecurity burden. That’s a good start for the cyber giant, but from security leaders’ perspective, work remains.
    0 ความคิดเห็น 0 การแบ่งปัน 117 มุมมอง 0 รีวิว
  • AMD เปิดตัว Ryzen 9000 PRO — ชิปองค์กร Zen 5 ที่เน้นความปลอดภัยและประสิทธิภาพ พร้อมลดพลังงานลงเหลือ 65W

    ในขณะที่ตลาดซีพียูสำหรับผู้ใช้ทั่วไปกำลังแข่งขันกันด้วยจำนวนคอร์และความเร็ว AMD ก็ไม่ลืมกลุ่มองค์กร ล่าสุดได้เปิดตัวซีรีส์ใหม่ Ryzen PRO 9000 ที่พัฒนาบนสถาปัตยกรรม Zen 5 “Granite Ridge” เช่นเดียวกับ Ryzen 9000 รุ่นทั่วไป แต่มีการปรับแต่งให้เหมาะกับการใช้งานในระดับองค์กร โดยเน้นฟีเจอร์ด้านความปลอดภัย การจัดการระบบ และประสิทธิภาพที่เสถียร

    ซีรีส์นี้ประกอบด้วย 3 รุ่น ได้แก่ Ryzen 5 PRO 9645 (6 คอร์), Ryzen 7 PRO 9745 (8 คอร์) และ Ryzen 9 PRO 9945 (12 คอร์) โดยทั้งหมดมี TDP เพียง 65W ซึ่งถือว่าต่ำมากเมื่อเทียบกับ Ryzen 9 9900X รุ่นทั่วไปที่มี TDP สูงถึง 120W แม้จะมีคอร์มากกว่า แต่ PRO 9945 ก็ยังสามารถทำงานได้ใกล้เคียงในหลายแง่มุม

    แม้จะไม่เน้นตัวเลขดิบ แต่ AMD ก็เผยว่า Ryzen 9 PRO 9945 มีประสิทธิภาพสูงกว่า Intel Core i7-14700 ถึง 44% ในงาน Blender และเร็วขึ้น 22% ในงาน productivity อื่น ๆ ซึ่งถือว่าเป็นตัวเลือกที่น่าสนใจสำหรับองค์กรที่ต้องการประสิทธิภาพสูงแต่ประหยัดพลังงาน

    ที่น่าสนใจคือซีพียูเหล่านี้จะมาพร้อมพัดลม Wraith Stealth ในกล่อง แม้จะเป็นรุ่นองค์กรก็ตาม และจะถูกจำหน่ายผ่าน OEM เท่านั้น ไม่เปิดขายทั่วไป

    AMD เปิดตัว Ryzen PRO 9000 สำหรับองค์กร
    ใช้สถาปัตยกรรม Zen 5 “Granite Ridge”
    เน้นฟีเจอร์ด้านความปลอดภัยและการจัดการระบบ
    จำหน่ายผ่าน OEM เท่านั้น ไม่วางขายทั่วไป

    มีทั้งหมด 3 รุ่นในซีรีส์ PRO 9000
    Ryzen 5 PRO 9645: 6 คอร์ / 12 เธรด / 3.9–5.4 GHz / 38MB cache
    Ryzen 7 PRO 9745: 8 คอร์ / 16 เธรด / 3.8–5.4 GHz / 40MB cache
    Ryzen 9 PRO 9945: 12 คอร์ / 24 เธรด / 3.4–5.4 GHz / 76MB cache

    ทุกตัวมี TDP เพียง 65W
    ลดลงจากรุ่นทั่วไปที่มี TDP สูงถึง 120W–170W
    เหมาะกับองค์กรที่ต้องการประหยัดพลังงานและลดความร้อน

    ประสิทธิภาพเทียบกับ Intel
    Ryzen 9 PRO 9945 เร็วกว่า Core i7-14700 ถึง 44% ใน Blender
    เร็วขึ้น 22% ในงาน productivity อื่น ๆ

    มาพร้อมพัดลม Wraith Stealth ในกล่อง
    แม้จะเป็นรุ่นองค์กร แต่ยังให้ชุดระบายความร้อนมาให้
    ช่วยลดต้นทุนในการติดตั้งระบบ

    คำเตือนเกี่ยวกับข้อจำกัดของซีรีส์ PRO
    ไม่เปิดขายทั่วไป ต้องซื้อผ่าน OEM เท่านั้น
    Ryzen 9 PRO 9945 มีคอร์น้อยกว่ารุ่น 9900X (12 vs 16)
    ความเร็ว base clock ลดลงจากรุ่นก่อนหน้า (3.4 GHz vs 3.7 GHz)
    Ryzen PRO ยังไม่ครบเครื่องเท่า Intel vPro ในบางด้านของการจัดการระบบ

    https://www.tomshardware.com/pc-components/cpus/amd-launches-ryzen-9000-pro-series-flagship-model-tops-out-at-12-cores-new-enterprise-lineup-includes-3-cpus-for-oems-featuring-added-business-and-security-features
    📰 AMD เปิดตัว Ryzen 9000 PRO — ชิปองค์กร Zen 5 ที่เน้นความปลอดภัยและประสิทธิภาพ พร้อมลดพลังงานลงเหลือ 65W ในขณะที่ตลาดซีพียูสำหรับผู้ใช้ทั่วไปกำลังแข่งขันกันด้วยจำนวนคอร์และความเร็ว AMD ก็ไม่ลืมกลุ่มองค์กร ล่าสุดได้เปิดตัวซีรีส์ใหม่ Ryzen PRO 9000 ที่พัฒนาบนสถาปัตยกรรม Zen 5 “Granite Ridge” เช่นเดียวกับ Ryzen 9000 รุ่นทั่วไป แต่มีการปรับแต่งให้เหมาะกับการใช้งานในระดับองค์กร โดยเน้นฟีเจอร์ด้านความปลอดภัย การจัดการระบบ และประสิทธิภาพที่เสถียร ซีรีส์นี้ประกอบด้วย 3 รุ่น ได้แก่ Ryzen 5 PRO 9645 (6 คอร์), Ryzen 7 PRO 9745 (8 คอร์) และ Ryzen 9 PRO 9945 (12 คอร์) โดยทั้งหมดมี TDP เพียง 65W ซึ่งถือว่าต่ำมากเมื่อเทียบกับ Ryzen 9 9900X รุ่นทั่วไปที่มี TDP สูงถึง 120W แม้จะมีคอร์มากกว่า แต่ PRO 9945 ก็ยังสามารถทำงานได้ใกล้เคียงในหลายแง่มุม แม้จะไม่เน้นตัวเลขดิบ แต่ AMD ก็เผยว่า Ryzen 9 PRO 9945 มีประสิทธิภาพสูงกว่า Intel Core i7-14700 ถึง 44% ในงาน Blender และเร็วขึ้น 22% ในงาน productivity อื่น ๆ ซึ่งถือว่าเป็นตัวเลือกที่น่าสนใจสำหรับองค์กรที่ต้องการประสิทธิภาพสูงแต่ประหยัดพลังงาน ที่น่าสนใจคือซีพียูเหล่านี้จะมาพร้อมพัดลม Wraith Stealth ในกล่อง แม้จะเป็นรุ่นองค์กรก็ตาม และจะถูกจำหน่ายผ่าน OEM เท่านั้น ไม่เปิดขายทั่วไป ✅ AMD เปิดตัว Ryzen PRO 9000 สำหรับองค์กร ➡️ ใช้สถาปัตยกรรม Zen 5 “Granite Ridge” ➡️ เน้นฟีเจอร์ด้านความปลอดภัยและการจัดการระบบ ➡️ จำหน่ายผ่าน OEM เท่านั้น ไม่วางขายทั่วไป ✅ มีทั้งหมด 3 รุ่นในซีรีส์ PRO 9000 ➡️ Ryzen 5 PRO 9645: 6 คอร์ / 12 เธรด / 3.9–5.4 GHz / 38MB cache ➡️ Ryzen 7 PRO 9745: 8 คอร์ / 16 เธรด / 3.8–5.4 GHz / 40MB cache ➡️ Ryzen 9 PRO 9945: 12 คอร์ / 24 เธรด / 3.4–5.4 GHz / 76MB cache ✅ ทุกตัวมี TDP เพียง 65W ➡️ ลดลงจากรุ่นทั่วไปที่มี TDP สูงถึง 120W–170W ➡️ เหมาะกับองค์กรที่ต้องการประหยัดพลังงานและลดความร้อน ✅ ประสิทธิภาพเทียบกับ Intel ➡️ Ryzen 9 PRO 9945 เร็วกว่า Core i7-14700 ถึง 44% ใน Blender ➡️ เร็วขึ้น 22% ในงาน productivity อื่น ๆ ✅ มาพร้อมพัดลม Wraith Stealth ในกล่อง ➡️ แม้จะเป็นรุ่นองค์กร แต่ยังให้ชุดระบายความร้อนมาให้ ➡️ ช่วยลดต้นทุนในการติดตั้งระบบ ‼️ คำเตือนเกี่ยวกับข้อจำกัดของซีรีส์ PRO ⛔ ไม่เปิดขายทั่วไป ต้องซื้อผ่าน OEM เท่านั้น ⛔ Ryzen 9 PRO 9945 มีคอร์น้อยกว่ารุ่น 9900X (12 vs 16) ⛔ ความเร็ว base clock ลดลงจากรุ่นก่อนหน้า (3.4 GHz vs 3.7 GHz) ⛔ Ryzen PRO ยังไม่ครบเครื่องเท่า Intel vPro ในบางด้านของการจัดการระบบ https://www.tomshardware.com/pc-components/cpus/amd-launches-ryzen-9000-pro-series-flagship-model-tops-out-at-12-cores-new-enterprise-lineup-includes-3-cpus-for-oems-featuring-added-business-and-security-features
    0 ความคิดเห็น 0 การแบ่งปัน 106 มุมมอง 0 รีวิว
  • Soft X-Ray Lithography กับความหวังใหม่ของการผลิตชิประดับต่ำกว่า 5 นาโนเมตร — เทคโนโลยี B-EUV กำลังท้าทาย EUV รุ่น Hyper-NA

    ในโลกของการผลิตชิปที่เล็กลงเรื่อย ๆ นักวิจัยจากมหาวิทยาลัย Johns Hopkins ได้เปิดตัวเทคโนโลยีใหม่ที่อาจเปลี่ยนเกมของอุตสาหกรรมเซมิคอนดักเตอร์ นั่นคือ “Beyond EUV” หรือ B-EUV ซึ่งใช้แสงเลเซอร์ในช่วง Soft X-ray ที่มีความยาวคลื่นสั้นเพียง 6.5–6.7 นาโนเมตร เพื่อสร้างลวดลายบนแผ่นซิลิคอนที่ละเอียดระดับต่ำกว่า 5 นาโนเมตร

    เทคโนโลยีนี้มีศักยภาพในการแทนที่ EUV แบบ Hyper-NA ที่ใช้อยู่ในปัจจุบัน ซึ่งแม้จะสามารถผลิตชิปรุ่น 2 นาโนเมตรได้ แต่ก็ต้องใช้ระบบออปติกที่ซับซ้อนและมีราคาสูงถึงหลายร้อยล้านดอลลาร์

    ทีมวิจัยของศาสตราจารย์ Michael Tsapatsis ได้ค้นพบว่าโลหะอย่าง “สังกะสี” สามารถดูดซับแสง Soft X-ray และปล่อยอิเล็กตรอนออกมาเพื่อกระตุ้นปฏิกิริยาเคมีในสารอินทรีย์ที่เรียกว่า “อิมิดาโซล” ซึ่งเป็นวัสดุเรซิสต์ชนิดใหม่ที่สามารถสร้างลวดลายบนแผ่นซิลิคอนได้อย่างแม่นยำ

    นอกจากนี้ยังมีการพัฒนาเทคนิคใหม่ชื่อว่า “Chemical Liquid Deposition” (CLD) ที่สามารถเคลือบฟิล์มบางระดับนาโนเมตรได้อย่างสม่ำเสมอ ซึ่งช่วยให้สามารถทดสอบวัสดุเรซิสต์แบบใหม่ได้รวดเร็วขึ้น และอาจนำไปใช้ในอุตสาหกรรมอื่นนอกเหนือจากเซมิคอนดักเตอร์

    แม้เทคโนโลยี B-EUV จะยังอยู่ในขั้นทดลอง และยังไม่มีเครื่องมือที่พร้อมใช้งานจริง แต่การค้นพบนี้ถือเป็นก้าวสำคัญในการแก้ปัญหาวัสดุเรซิสต์ ซึ่งเป็นหนึ่งในอุปสรรคใหญ่ของการผลิตชิปขนาดเล็กในอนาคต

    นักวิจัยจาก Johns Hopkins พัฒนาเทคโนโลยี B-EUV
    ใช้แสง Soft X-ray ที่มีความยาวคลื่น 6.5–6.7 นาโนเมตร
    สามารถสร้างลวดลายบนชิปที่เล็กกว่า 5 นาโนเมตรได้ในทางทฤษฎี

    ค้นพบวัสดุเรซิสต์ใหม่ที่ตอบสนองต่อแสง Soft X-ray
    ใช้โลหะอย่างสังกะสีร่วมกับสารอินทรีย์อิมิดาโซล
    สังกะสีปล่อยอิเล็กตรอนเพื่อกระตุ้นปฏิกิริยาเคมีที่จำเป็นในการสร้างลวดลาย

    พัฒนาเทคนิค Chemical Liquid Deposition (CLD)
    เคลือบฟิล์มบางระดับนาโนเมตรได้อย่างแม่นยำ
    ช่วยให้ทดสอบวัสดุเรซิสต์ใหม่ได้รวดเร็วและมีประสิทธิภาพ

    B-EUV มีศักยภาพในการแทนที่ Hyper-NA EUV
    ลดความซับซ้อนของระบบออปติก
    อาจช่วยลดต้นทุนการผลิตในอนาคต

    คำเตือนเกี่ยวกับข้อจำกัดของเทคโนโลยี B-EUV
    แหล่งกำเนิดแสง Soft X-ray ยังไม่มีมาตรฐานอุตสาหกรรม
    กระจกสะท้อนแสงสำหรับช่วงคลื่นนี้ยังไม่สามารถผลิตได้
    วัสดุเรซิสต์ทั่วไปไม่ตอบสนองต่อพลังงานโฟตอนสูงของ Soft X-ray
    ยังไม่มีระบบ ecosystem ที่รองรับการผลิตแบบ B-EUV อย่างเต็มรูปแบบ

    https://www.tomshardware.com/tech-industry/semiconductors/beyond-euv-chipmaking-tech-pushes-soft-x-ray-lithography-closer-to-challenging-hyper-na-euv-b-euv-uses-new-resist-chemistry-to-make-smaller-chips
    📰 Soft X-Ray Lithography กับความหวังใหม่ของการผลิตชิประดับต่ำกว่า 5 นาโนเมตร — เทคโนโลยี B-EUV กำลังท้าทาย EUV รุ่น Hyper-NA ในโลกของการผลิตชิปที่เล็กลงเรื่อย ๆ นักวิจัยจากมหาวิทยาลัย Johns Hopkins ได้เปิดตัวเทคโนโลยีใหม่ที่อาจเปลี่ยนเกมของอุตสาหกรรมเซมิคอนดักเตอร์ นั่นคือ “Beyond EUV” หรือ B-EUV ซึ่งใช้แสงเลเซอร์ในช่วง Soft X-ray ที่มีความยาวคลื่นสั้นเพียง 6.5–6.7 นาโนเมตร เพื่อสร้างลวดลายบนแผ่นซิลิคอนที่ละเอียดระดับต่ำกว่า 5 นาโนเมตร เทคโนโลยีนี้มีศักยภาพในการแทนที่ EUV แบบ Hyper-NA ที่ใช้อยู่ในปัจจุบัน ซึ่งแม้จะสามารถผลิตชิปรุ่น 2 นาโนเมตรได้ แต่ก็ต้องใช้ระบบออปติกที่ซับซ้อนและมีราคาสูงถึงหลายร้อยล้านดอลลาร์ ทีมวิจัยของศาสตราจารย์ Michael Tsapatsis ได้ค้นพบว่าโลหะอย่าง “สังกะสี” สามารถดูดซับแสง Soft X-ray และปล่อยอิเล็กตรอนออกมาเพื่อกระตุ้นปฏิกิริยาเคมีในสารอินทรีย์ที่เรียกว่า “อิมิดาโซล” ซึ่งเป็นวัสดุเรซิสต์ชนิดใหม่ที่สามารถสร้างลวดลายบนแผ่นซิลิคอนได้อย่างแม่นยำ นอกจากนี้ยังมีการพัฒนาเทคนิคใหม่ชื่อว่า “Chemical Liquid Deposition” (CLD) ที่สามารถเคลือบฟิล์มบางระดับนาโนเมตรได้อย่างสม่ำเสมอ ซึ่งช่วยให้สามารถทดสอบวัสดุเรซิสต์แบบใหม่ได้รวดเร็วขึ้น และอาจนำไปใช้ในอุตสาหกรรมอื่นนอกเหนือจากเซมิคอนดักเตอร์ แม้เทคโนโลยี B-EUV จะยังอยู่ในขั้นทดลอง และยังไม่มีเครื่องมือที่พร้อมใช้งานจริง แต่การค้นพบนี้ถือเป็นก้าวสำคัญในการแก้ปัญหาวัสดุเรซิสต์ ซึ่งเป็นหนึ่งในอุปสรรคใหญ่ของการผลิตชิปขนาดเล็กในอนาคต ✅ นักวิจัยจาก Johns Hopkins พัฒนาเทคโนโลยี B-EUV ➡️ ใช้แสง Soft X-ray ที่มีความยาวคลื่น 6.5–6.7 นาโนเมตร ➡️ สามารถสร้างลวดลายบนชิปที่เล็กกว่า 5 นาโนเมตรได้ในทางทฤษฎี ✅ ค้นพบวัสดุเรซิสต์ใหม่ที่ตอบสนองต่อแสง Soft X-ray ➡️ ใช้โลหะอย่างสังกะสีร่วมกับสารอินทรีย์อิมิดาโซล ➡️ สังกะสีปล่อยอิเล็กตรอนเพื่อกระตุ้นปฏิกิริยาเคมีที่จำเป็นในการสร้างลวดลาย ✅ พัฒนาเทคนิค Chemical Liquid Deposition (CLD) ➡️ เคลือบฟิล์มบางระดับนาโนเมตรได้อย่างแม่นยำ ➡️ ช่วยให้ทดสอบวัสดุเรซิสต์ใหม่ได้รวดเร็วและมีประสิทธิภาพ ✅ B-EUV มีศักยภาพในการแทนที่ Hyper-NA EUV ➡️ ลดความซับซ้อนของระบบออปติก ➡️ อาจช่วยลดต้นทุนการผลิตในอนาคต ‼️ คำเตือนเกี่ยวกับข้อจำกัดของเทคโนโลยี B-EUV ⛔ แหล่งกำเนิดแสง Soft X-ray ยังไม่มีมาตรฐานอุตสาหกรรม ⛔ กระจกสะท้อนแสงสำหรับช่วงคลื่นนี้ยังไม่สามารถผลิตได้ ⛔ วัสดุเรซิสต์ทั่วไปไม่ตอบสนองต่อพลังงานโฟตอนสูงของ Soft X-ray ⛔ ยังไม่มีระบบ ecosystem ที่รองรับการผลิตแบบ B-EUV อย่างเต็มรูปแบบ https://www.tomshardware.com/tech-industry/semiconductors/beyond-euv-chipmaking-tech-pushes-soft-x-ray-lithography-closer-to-challenging-hyper-na-euv-b-euv-uses-new-resist-chemistry-to-make-smaller-chips
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • “AMD เตรียมปล่อย ROCm 7.0 — ซอฟต์แวร์ AI ที่หวังโค่น CUDA ด้วยประสิทธิภาพทะลุ Blackwell”

    AMD กำลังเตรียมเปิดตัว ROCm 7.0 ซึ่งเป็นเวอร์ชันใหม่ของชุดซอฟต์แวร์สำหรับการประมวลผล AI และ HPC โดยมีเป้าหมายชัดเจน: สร้างทางเลือกที่แท้จริงให้กับนักพัฒนาแทนการพึ่งพา CUDA ของ NVIDIA ที่ครองตลาดมายาวนาน ROCm 7.0 ถูกเพิ่มเข้าใน GitHub แล้ว และคาดว่าจะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า

    ในงาน Advancing AI ล่าสุด AMD ได้เผยว่า ROCm 7.0 จะมาพร้อมการปรับปรุงครั้งใหญ่ โดยเฉพาะด้าน inferencing และ training ซึ่งสามารถเพิ่มประสิทธิภาพได้ถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6 และที่น่าตื่นเต้นที่สุดคือ Instinct MI355X สามารถทำ FP8 throughput ได้สูงกว่า Blackwell B200 ของ NVIDIA ถึง 30% ในโมเดล DeepSeek R1

    ROCm 7.0 ยังรองรับฟีเจอร์ใหม่ เช่น HIP 7.0, การจัดการคลัสเตอร์, และเครื่องมือสำหรับองค์กร พร้อม Docker image ที่ปรับแต่งมาแล้วสำหรับ MI355, MI350, MI325 และ MI300 โดยสามารถใช้งานร่วมกับโมเดลขนาดใหญ่ที่ถูก quantize ด้วย AMD Quark เช่น Llama 3.3 70B และ gpt-oss-120B

    เมื่อเปรียบเทียบกับ CUDA ล่าสุด พบว่า ROCm บน MI325X มีข้อได้เปรียบในหลายด้าน เช่น VRAM ขนาด 256GB ต่อ GPU ที่ช่วยลดความซับซ้อนของ pipeline และรองรับ batch ใหญ่ ๆ ได้ดี รวมถึงการทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native โดยไม่ต้อง patch เพิ่ม

    แม้ ROCm จะยังตามหลัง CUDA ในบางด้าน เช่น ecosystem ที่ยังไม่สมบูรณ์ และ library เฉพาะบางตัวที่ต้องปรับแต่งเอง แต่ก็ถือว่าเป็นทางเลือกที่จริงจังสำหรับองค์กรที่ต้องการลดต้นทุนและหลีกเลี่ยงการผูกขาดด้านฮาร์ดแวร์

    ข้อมูลสำคัญจากข่าว
    AMD เตรียมเปิดตัว ROCm 7.0 เพื่อเป็นทางเลือกแทน CUDA
    เพิ่มประสิทธิภาพ inferencing และ training สูงถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6
    MI355X ทำ FP8 throughput ได้สูงกว่า Blackwell B200 ถึง 30%
    มี Docker image สำหรับ MI355, MI350, MI325 และ MI300 พร้อมใช้งาน

    ฟีเจอร์ใหม่และการรองรับ
    รองรับ HIP 7.0, การจัดการคลัสเตอร์ และเครื่องมือสำหรับองค์กร
    ใช้งานร่วมกับโมเดล MXFP4 และ FP8 ที่ถูก quantize ด้วย AMD Quark
    รองรับ DeepSeek R1, Llama 3.3 70B, gpt-oss-120B และอื่น ๆ
    ทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native

    ข้อมูลเสริมจากภายนอก
    MI325X มี VRAM 256GB ต่อ GPU — เหนือกว่า H100 ที่ต้องแบ่งโมเดล
    ROCm ไม่ล็อกผู้ใช้กับฮาร์ดแวร์เฉพาะเหมือน CUDA
    TensorWave และ Scimus เริ่มให้บริการคลัสเตอร์ ROCm สำหรับองค์กร
    ROCm เหมาะกับงาน inference ขนาดใหญ่และ training ที่เน้นต้นทุนต่อ TFLOP

    https://wccftech.com/amd-initiates-work-on-rocm-7-compute-stack/
    🚀 “AMD เตรียมปล่อย ROCm 7.0 — ซอฟต์แวร์ AI ที่หวังโค่น CUDA ด้วยประสิทธิภาพทะลุ Blackwell” AMD กำลังเตรียมเปิดตัว ROCm 7.0 ซึ่งเป็นเวอร์ชันใหม่ของชุดซอฟต์แวร์สำหรับการประมวลผล AI และ HPC โดยมีเป้าหมายชัดเจน: สร้างทางเลือกที่แท้จริงให้กับนักพัฒนาแทนการพึ่งพา CUDA ของ NVIDIA ที่ครองตลาดมายาวนาน ROCm 7.0 ถูกเพิ่มเข้าใน GitHub แล้ว และคาดว่าจะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า ในงาน Advancing AI ล่าสุด AMD ได้เผยว่า ROCm 7.0 จะมาพร้อมการปรับปรุงครั้งใหญ่ โดยเฉพาะด้าน inferencing และ training ซึ่งสามารถเพิ่มประสิทธิภาพได้ถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6 และที่น่าตื่นเต้นที่สุดคือ Instinct MI355X สามารถทำ FP8 throughput ได้สูงกว่า Blackwell B200 ของ NVIDIA ถึง 30% ในโมเดล DeepSeek R1 ROCm 7.0 ยังรองรับฟีเจอร์ใหม่ เช่น HIP 7.0, การจัดการคลัสเตอร์, และเครื่องมือสำหรับองค์กร พร้อม Docker image ที่ปรับแต่งมาแล้วสำหรับ MI355, MI350, MI325 และ MI300 โดยสามารถใช้งานร่วมกับโมเดลขนาดใหญ่ที่ถูก quantize ด้วย AMD Quark เช่น Llama 3.3 70B และ gpt-oss-120B เมื่อเปรียบเทียบกับ CUDA ล่าสุด พบว่า ROCm บน MI325X มีข้อได้เปรียบในหลายด้าน เช่น VRAM ขนาด 256GB ต่อ GPU ที่ช่วยลดความซับซ้อนของ pipeline และรองรับ batch ใหญ่ ๆ ได้ดี รวมถึงการทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native โดยไม่ต้อง patch เพิ่ม แม้ ROCm จะยังตามหลัง CUDA ในบางด้าน เช่น ecosystem ที่ยังไม่สมบูรณ์ และ library เฉพาะบางตัวที่ต้องปรับแต่งเอง แต่ก็ถือว่าเป็นทางเลือกที่จริงจังสำหรับองค์กรที่ต้องการลดต้นทุนและหลีกเลี่ยงการผูกขาดด้านฮาร์ดแวร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เตรียมเปิดตัว ROCm 7.0 เพื่อเป็นทางเลือกแทน CUDA ➡️ เพิ่มประสิทธิภาพ inferencing และ training สูงถึง 3.5 เท่าเมื่อเทียบกับ ROCm 6 ➡️ MI355X ทำ FP8 throughput ได้สูงกว่า Blackwell B200 ถึง 30% ➡️ มี Docker image สำหรับ MI355, MI350, MI325 และ MI300 พร้อมใช้งาน ✅ ฟีเจอร์ใหม่และการรองรับ ➡️ รองรับ HIP 7.0, การจัดการคลัสเตอร์ และเครื่องมือสำหรับองค์กร ➡️ ใช้งานร่วมกับโมเดล MXFP4 และ FP8 ที่ถูก quantize ด้วย AMD Quark ➡️ รองรับ DeepSeek R1, Llama 3.3 70B, gpt-oss-120B และอื่น ๆ ➡️ ทำงานร่วมกับ Hugging Face และ DeepSpeed ได้แบบ native ✅ ข้อมูลเสริมจากภายนอก ➡️ MI325X มี VRAM 256GB ต่อ GPU — เหนือกว่า H100 ที่ต้องแบ่งโมเดล ➡️ ROCm ไม่ล็อกผู้ใช้กับฮาร์ดแวร์เฉพาะเหมือน CUDA ➡️ TensorWave และ Scimus เริ่มให้บริการคลัสเตอร์ ROCm สำหรับองค์กร ➡️ ROCm เหมาะกับงาน inference ขนาดใหญ่และ training ที่เน้นต้นทุนต่อ TFLOP https://wccftech.com/amd-initiates-work-on-rocm-7-compute-stack/
    WCCFTECH.COM
    AMD Preps To Release the ROCm 7.0 Compute Stack, Aiming to Position It as a Viable Alternative to NVIDIA's CUDA Ecosystem
    AMD has started working on releasing the ROCm 7 software stack, which was being hyped up as a way to break NVIDIA's CUDA 'lock-in' ecosystem.
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • “AMD EPYC Embedded 4005: ซีพียูขอบระบบที่ไม่ธรรมดา — Zen 5 บน AM5 เพื่อโลกที่ต้องการความเร็วและความเสถียร”

    AMD เปิดตัวซีพียูตระกูล EPYC Embedded 4005 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาด edge computing, ระบบรักษาความปลอดภัยเครือข่าย และเซิร์ฟเวอร์อุตสาหกรรมระดับเริ่มต้น จุดเด่นของซีรีส์นี้คือการนำสถาปัตยกรรม Zen 5 มาใช้บนแพลตฟอร์ม AM5 ซึ่งเป็นซ็อกเก็ตเดียวกับ Ryzen รุ่นทั่วไป แต่ปรับแต่งให้เหมาะกับงานฝังตัวที่ต้องการความเสถียรและอายุการใช้งานยาวนาน

    EPYC Embedded 4005 ใช้เทคโนโลยีการผลิตแบบ chiplet ขนาด 4 นาโนเมตร รองรับสูงสุด 16 คอร์ 32 เธรด พร้อม L3 cache สูงสุด 128MB และ TDP ที่ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อให้เหมาะกับงานที่หลากหลาย ตั้งแต่ไฟร์วอลล์รุ่นใหม่ไปจนถึงระบบควบคุมแบบเรียลไทม์ในโรงงาน

    ซีพียูรุ่นนี้รองรับ DDR5-5600 แบบ ECC, PCIe Gen 5 จำนวน 28 เลน และชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต ซึ่งช่วยเพิ่มประสิทธิภาพในการประมวลผล AI inference และงานที่ต้องการ vector computing เช่น การวิเคราะห์ภาพ, การประมวลผล JSON หรือฐานข้อมูล PostgreSQL

    จุดแข็งอีกด้านคือการรับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS (Reliability, Availability, Serviceability) เช่น ECC บน DRAM และ PCIe, parity บนชิป และการตรวจจับข้อผิดพลาดแบบ built-in ซึ่งเหมาะกับระบบที่ต้องการ uptime สูงและการบำรุงรักษาต่ำ

    AMD ยังออกแบบให้ EPYC Embedded 4005 ใช้ซ็อกเก็ต AM5 ร่วมกับซีพียู Ryzen ทำให้สามารถใช้เมนบอร์ดเดิมได้ ลดต้นทุนการออกแบบ และเพิ่มความยืดหยุ่นในการอัปเกรดระบบในอนาคต โดยเฉพาะในกลุ่ม SMB และผู้ให้บริการ hosting ที่ต้องการระบบที่คุ้มค่าแต่มีความสามารถระดับองค์กร

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัว EPYC Embedded 4005 สำหรับงาน edge และระบบฝังตัว
    ใช้ Zen 5 บนแพลตฟอร์ม AM5 พร้อมเทคโนโลยี chiplet ขนาด 4 นาโนเมตร
    รองรับสูงสุด 16 คอร์ 32 เธรด, L3 cache สูงสุด 128MB
    TDP ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อรองรับงานหลากหลาย

    จุดเด่นด้านเทคโนโลยี
    รองรับ DDR5-5600 ECC และ PCIe Gen 5 จำนวน 28 เลน
    มีชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต สำหรับงาน AI และ HPC
    รับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS ครบถ้วน
    ใช้ซ็อกเก็ต AM5 ร่วมกับ Ryzen ทำให้ลดต้นทุนและเพิ่มความยืดหยุ่น

    ข้อมูลเสริมจากภายนอก
    EPYC 4005 เป็นรุ่นต่อยอดจาก EPYC 4004 โดยเพิ่มความเร็วแรมและชุดคำสั่ง
    มีรุ่น 16 คอร์ TDP 65W สำหรับงานที่ต้องการประสิทธิภาพแต่ประหยัดพลังงาน
    เหมาะกับงานไฟร์วอลล์, NAS, เซิร์ฟเวอร์ SMB และระบบควบคุมอุตสาหกรรม
    แข่งกับ Intel Xeon E และ Xeon 6300P ซึ่งยังจำกัดที่ 8 คอร์และ DDR5-4800

    คำเตือนและข้อจำกัด
    แม้จะใช้ AM5 แต่ EPYC Embedded 4005 ต้องใช้ BIOS ที่รองรับ ECC และฟีเจอร์ RAS
    ชุดคำสั่ง AVX-512 อาจไม่ถูกใช้งานเต็มประสิทธิภาพในซอฟต์แวร์ทั่วไป
    การใช้งานในระบบฝังตัวต้องพิจารณาเรื่องความร้อนและการระบายอากาศอย่างรอบคอบ
    แม้จะรับประกันการผลิต 7 ปี แต่การสนับสนุนด้านซอฟต์แวร์อาจขึ้นอยู่กับผู้ผลิตเมนบอร์ด
    ราคาของรุ่นสูงสุดอาจใกล้เคียงกับ Xeon ระดับกลาง ทำให้ต้องเปรียบเทียบอย่างละเอียดก่อนเลือกใช้งาน

    https://www.techpowerup.com/341063/amd-introduces-epyc-embedded-4005-processors-for-low-latency-applications-at-the-edge
    🧩 “AMD EPYC Embedded 4005: ซีพียูขอบระบบที่ไม่ธรรมดา — Zen 5 บน AM5 เพื่อโลกที่ต้องการความเร็วและความเสถียร” AMD เปิดตัวซีพียูตระกูล EPYC Embedded 4005 อย่างเป็นทางการในเดือนกันยายน 2025 โดยมุ่งเป้าไปที่ตลาด edge computing, ระบบรักษาความปลอดภัยเครือข่าย และเซิร์ฟเวอร์อุตสาหกรรมระดับเริ่มต้น จุดเด่นของซีรีส์นี้คือการนำสถาปัตยกรรม Zen 5 มาใช้บนแพลตฟอร์ม AM5 ซึ่งเป็นซ็อกเก็ตเดียวกับ Ryzen รุ่นทั่วไป แต่ปรับแต่งให้เหมาะกับงานฝังตัวที่ต้องการความเสถียรและอายุการใช้งานยาวนาน EPYC Embedded 4005 ใช้เทคโนโลยีการผลิตแบบ chiplet ขนาด 4 นาโนเมตร รองรับสูงสุด 16 คอร์ 32 เธรด พร้อม L3 cache สูงสุด 128MB และ TDP ที่ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อให้เหมาะกับงานที่หลากหลาย ตั้งแต่ไฟร์วอลล์รุ่นใหม่ไปจนถึงระบบควบคุมแบบเรียลไทม์ในโรงงาน ซีพียูรุ่นนี้รองรับ DDR5-5600 แบบ ECC, PCIe Gen 5 จำนวน 28 เลน และชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต ซึ่งช่วยเพิ่มประสิทธิภาพในการประมวลผล AI inference และงานที่ต้องการ vector computing เช่น การวิเคราะห์ภาพ, การประมวลผล JSON หรือฐานข้อมูล PostgreSQL จุดแข็งอีกด้านคือการรับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS (Reliability, Availability, Serviceability) เช่น ECC บน DRAM และ PCIe, parity บนชิป และการตรวจจับข้อผิดพลาดแบบ built-in ซึ่งเหมาะกับระบบที่ต้องการ uptime สูงและการบำรุงรักษาต่ำ AMD ยังออกแบบให้ EPYC Embedded 4005 ใช้ซ็อกเก็ต AM5 ร่วมกับซีพียู Ryzen ทำให้สามารถใช้เมนบอร์ดเดิมได้ ลดต้นทุนการออกแบบ และเพิ่มความยืดหยุ่นในการอัปเกรดระบบในอนาคต โดยเฉพาะในกลุ่ม SMB และผู้ให้บริการ hosting ที่ต้องการระบบที่คุ้มค่าแต่มีความสามารถระดับองค์กร ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัว EPYC Embedded 4005 สำหรับงาน edge และระบบฝังตัว ➡️ ใช้ Zen 5 บนแพลตฟอร์ม AM5 พร้อมเทคโนโลยี chiplet ขนาด 4 นาโนเมตร ➡️ รองรับสูงสุด 16 คอร์ 32 เธรด, L3 cache สูงสุด 128MB ➡️ TDP ปรับได้ตั้งแต่ 65W ถึง 170W เพื่อรองรับงานหลากหลาย ✅ จุดเด่นด้านเทคโนโลยี ➡️ รองรับ DDR5-5600 ECC และ PCIe Gen 5 จำนวน 28 เลน ➡️ มีชุดคำสั่ง AVX-512 แบบเต็ม 512 บิต สำหรับงาน AI และ HPC ➡️ รับประกันการผลิตนานถึง 7 ปี พร้อมฟีเจอร์ RAS ครบถ้วน ➡️ ใช้ซ็อกเก็ต AM5 ร่วมกับ Ryzen ทำให้ลดต้นทุนและเพิ่มความยืดหยุ่น ✅ ข้อมูลเสริมจากภายนอก ➡️ EPYC 4005 เป็นรุ่นต่อยอดจาก EPYC 4004 โดยเพิ่มความเร็วแรมและชุดคำสั่ง ➡️ มีรุ่น 16 คอร์ TDP 65W สำหรับงานที่ต้องการประสิทธิภาพแต่ประหยัดพลังงาน ➡️ เหมาะกับงานไฟร์วอลล์, NAS, เซิร์ฟเวอร์ SMB และระบบควบคุมอุตสาหกรรม ➡️ แข่งกับ Intel Xeon E และ Xeon 6300P ซึ่งยังจำกัดที่ 8 คอร์และ DDR5-4800 ‼️ คำเตือนและข้อจำกัด ⛔ แม้จะใช้ AM5 แต่ EPYC Embedded 4005 ต้องใช้ BIOS ที่รองรับ ECC และฟีเจอร์ RAS ⛔ ชุดคำสั่ง AVX-512 อาจไม่ถูกใช้งานเต็มประสิทธิภาพในซอฟต์แวร์ทั่วไป ⛔ การใช้งานในระบบฝังตัวต้องพิจารณาเรื่องความร้อนและการระบายอากาศอย่างรอบคอบ ⛔ แม้จะรับประกันการผลิต 7 ปี แต่การสนับสนุนด้านซอฟต์แวร์อาจขึ้นอยู่กับผู้ผลิตเมนบอร์ด ⛔ ราคาของรุ่นสูงสุดอาจใกล้เคียงกับ Xeon ระดับกลาง ทำให้ต้องเปรียบเทียบอย่างละเอียดก่อนเลือกใช้งาน https://www.techpowerup.com/341063/amd-introduces-epyc-embedded-4005-processors-for-low-latency-applications-at-the-edge
    WWW.TECHPOWERUP.COM
    AMD Introduces EPYC Embedded 4005 Processors for Low-Latency Applications at the Edge
    AMD today announced the EPYC Embedded 4005 Series processors, purpose-built to address rising demand for real-time compute performance, optimized system costs and extended deployment lifecycles in network security appliances and entry-level industrial edge servers. Built on proven AMD server technol...
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • “Looking Glass เปิดตัวจอ Hololuminescent Display — เปลี่ยนวิดีโอธรรมดาให้กลายเป็นภาพโฮโลแกรม 3D แบบไร้แว่น”

    หลังจากคร่ำหวอดในวงการจอภาพโฮโลกราฟิกมานานกว่า 10 ปี บริษัท Looking Glass ได้เปิดตัวเทคโนโลยีใหม่ล่าสุดในชื่อ “Hololuminescent Display” หรือ HLD ซึ่งเป็นจอภาพที่สามารถแสดงผลวิดีโอธรรมดาให้กลายเป็นภาพสามมิติแบบโฮโลแกรม โดยไม่ต้องใช้แว่นตา, eye tracking หรือซอฟต์แวร์ 3D เฉพาะทางใด ๆ

    HLD ถูกออกแบบมาให้บางเพียง 1 นิ้ว รองรับความละเอียดสูงสุดถึง 4K และสามารถติดตั้งได้ในพื้นที่ทั่วไป เช่น ร้านค้า, เวทีแสดงสินค้า, หรือป้ายดิจิทัล โดยไม่ต้องปรับโครงสร้างระบบเดิม จุดเด่นคือสามารถใช้งานร่วมกับ workflow มาตรฐาน เช่น Adobe Premiere, After Effects, Unity และ Unreal ได้ทันที

    เทคโนโลยีนี้ใช้การผสาน “holographic volume” เข้าไปใน optical stack ของจอ LCD หรือ OLED ทำให้ภาพที่แสดงออกมามีมิติและความลึกแบบโฮโลแกรมจริง ๆ โดยไม่ต้องสร้างโมเดล 3D ล่วงหน้า เหมาะสำหรับการนำเสนอสินค้า, ตัวละคร, หรือประสบการณ์แบบอินเทอร์แอคทีฟในพื้นที่สาธารณะ

    Looking Glass วางแผนเปิดตัวจอ HLD ขนาด 16 นิ้ว (FHD) ในไตรมาส 4 ปีนี้ โดยเริ่มต้นที่ราคา $1,500 ส่วนรุ่น 27 นิ้วแบบ 4K จะวางจำหน่ายในเดือนพฤศจิกายน–ธันวาคม และรุ่นใหญ่ 86 นิ้วจะตามมาในเดือนกุมภาพันธ์ 2026

    แม้จะเป็นเทคโนโลยีใหม่ แต่ HLD ไม่ได้มาแทนที่จอ Light Field Display (LFD) เดิมของบริษัท ซึ่งยังคงมีจำหน่ายสำหรับงานวิจัย, การแพทย์, และการออกแบบ 3D ที่ต้องการความแม่นยำสูง

    ข้อมูลสำคัญจากข่าว
    Looking Glass เปิดตัวจอ Hololuminescent Display (HLD) ที่แสดงภาพโฮโลแกรม 3D โดยไม่ต้องใช้แว่น
    จอบางเพียง 1 นิ้ว รองรับความละเอียดสูงสุด 4K และติดตั้งได้ในพื้นที่ทั่วไป
    ใช้ workflow มาตรฐาน เช่น Adobe Premiere, After Effects, Unity และ Unreal
    ใช้เทคโนโลยี hybrid ที่ผสาน holographic volume เข้ากับ optical stack ของจอ LCD/OLED

    รุ่นและกำหนดการวางจำหน่าย
    รุ่น 16 นิ้ว (FHD) เริ่มต้นที่ $1,500 วางจำหน่ายใน Q4 ปี 2025
    รุ่น 27 นิ้ว (4K) วางจำหน่ายในเดือนพฤศจิกายน–ธันวาคม 2025
    รุ่น 86 นิ้ว (4K) วางจำหน่ายในเดือนกุมภาพันธ์ 2026
    จอ LFD เดิมยังคงมีจำหน่ายสำหรับงานวิจัยและอุตสาหกรรมเฉพาะทาง

    ข้อมูลเสริมจากภายนอก
    HLD เหมาะสำหรับการตลาด, ป้ายดิจิทัล, และการแสดงสินค้าในพื้นที่สาธารณะ
    ไม่ต้องใช้ eye tracking หรือซอฟต์แวร์ 3D เฉพาะทาง ทำให้ใช้งานได้ง่าย
    สามารถแสดงผลกับผู้ชมหลายคนพร้อมกัน โดยไม่จำกัดมุมมอง
    เทคโนโลยีนี้ช่วยลดต้นทุนการพัฒนาเนื้อหา 3D และเพิ่มความสามารถในการขยายระบบ

    https://www.tomshardware.com/monitors/looking-glass-demos-hololuminescent-display-monitors-sizes-range-from-16-to-85-inches-starting-at-usd1-500
    🌟 “Looking Glass เปิดตัวจอ Hololuminescent Display — เปลี่ยนวิดีโอธรรมดาให้กลายเป็นภาพโฮโลแกรม 3D แบบไร้แว่น” หลังจากคร่ำหวอดในวงการจอภาพโฮโลกราฟิกมานานกว่า 10 ปี บริษัท Looking Glass ได้เปิดตัวเทคโนโลยีใหม่ล่าสุดในชื่อ “Hololuminescent Display” หรือ HLD ซึ่งเป็นจอภาพที่สามารถแสดงผลวิดีโอธรรมดาให้กลายเป็นภาพสามมิติแบบโฮโลแกรม โดยไม่ต้องใช้แว่นตา, eye tracking หรือซอฟต์แวร์ 3D เฉพาะทางใด ๆ HLD ถูกออกแบบมาให้บางเพียง 1 นิ้ว รองรับความละเอียดสูงสุดถึง 4K และสามารถติดตั้งได้ในพื้นที่ทั่วไป เช่น ร้านค้า, เวทีแสดงสินค้า, หรือป้ายดิจิทัล โดยไม่ต้องปรับโครงสร้างระบบเดิม จุดเด่นคือสามารถใช้งานร่วมกับ workflow มาตรฐาน เช่น Adobe Premiere, After Effects, Unity และ Unreal ได้ทันที เทคโนโลยีนี้ใช้การผสาน “holographic volume” เข้าไปใน optical stack ของจอ LCD หรือ OLED ทำให้ภาพที่แสดงออกมามีมิติและความลึกแบบโฮโลแกรมจริง ๆ โดยไม่ต้องสร้างโมเดล 3D ล่วงหน้า เหมาะสำหรับการนำเสนอสินค้า, ตัวละคร, หรือประสบการณ์แบบอินเทอร์แอคทีฟในพื้นที่สาธารณะ Looking Glass วางแผนเปิดตัวจอ HLD ขนาด 16 นิ้ว (FHD) ในไตรมาส 4 ปีนี้ โดยเริ่มต้นที่ราคา $1,500 ส่วนรุ่น 27 นิ้วแบบ 4K จะวางจำหน่ายในเดือนพฤศจิกายน–ธันวาคม และรุ่นใหญ่ 86 นิ้วจะตามมาในเดือนกุมภาพันธ์ 2026 แม้จะเป็นเทคโนโลยีใหม่ แต่ HLD ไม่ได้มาแทนที่จอ Light Field Display (LFD) เดิมของบริษัท ซึ่งยังคงมีจำหน่ายสำหรับงานวิจัย, การแพทย์, และการออกแบบ 3D ที่ต้องการความแม่นยำสูง ✅ ข้อมูลสำคัญจากข่าว ➡️ Looking Glass เปิดตัวจอ Hololuminescent Display (HLD) ที่แสดงภาพโฮโลแกรม 3D โดยไม่ต้องใช้แว่น ➡️ จอบางเพียง 1 นิ้ว รองรับความละเอียดสูงสุด 4K และติดตั้งได้ในพื้นที่ทั่วไป ➡️ ใช้ workflow มาตรฐาน เช่น Adobe Premiere, After Effects, Unity และ Unreal ➡️ ใช้เทคโนโลยี hybrid ที่ผสาน holographic volume เข้ากับ optical stack ของจอ LCD/OLED ✅ รุ่นและกำหนดการวางจำหน่าย ➡️ รุ่น 16 นิ้ว (FHD) เริ่มต้นที่ $1,500 วางจำหน่ายใน Q4 ปี 2025 ➡️ รุ่น 27 นิ้ว (4K) วางจำหน่ายในเดือนพฤศจิกายน–ธันวาคม 2025 ➡️ รุ่น 86 นิ้ว (4K) วางจำหน่ายในเดือนกุมภาพันธ์ 2026 ➡️ จอ LFD เดิมยังคงมีจำหน่ายสำหรับงานวิจัยและอุตสาหกรรมเฉพาะทาง ✅ ข้อมูลเสริมจากภายนอก ➡️ HLD เหมาะสำหรับการตลาด, ป้ายดิจิทัล, และการแสดงสินค้าในพื้นที่สาธารณะ ➡️ ไม่ต้องใช้ eye tracking หรือซอฟต์แวร์ 3D เฉพาะทาง ทำให้ใช้งานได้ง่าย ➡️ สามารถแสดงผลกับผู้ชมหลายคนพร้อมกัน โดยไม่จำกัดมุมมอง ➡️ เทคโนโลยีนี้ช่วยลดต้นทุนการพัฒนาเนื้อหา 3D และเพิ่มความสามารถในการขยายระบบ https://www.tomshardware.com/monitors/looking-glass-demos-hololuminescent-display-monitors-sizes-range-from-16-to-85-inches-starting-at-usd1-500
    WWW.TOMSHARDWARE.COM
    Looking Glass demos Hololuminescent Display monitors — sizes range from 16 to 85 inches, starting at $1,500
    These displays don't need eye tracking, special glasses, and are good for group viewing.
    0 ความคิดเห็น 0 การแบ่งปัน 102 มุมมอง 0 รีวิว
  • “AMD เปิดตัว Ryzen 9700F, 9500F, 7400 และ 5600F — ซีพียูรุ่นประหยัดที่ซ่อนพลังไว้มากกว่าที่คิด”

    AMD เปิดตัวซีพียูใหม่ 4 รุ่นแบบเงียบ ๆ โดยไม่จัดงานแถลงข่าวหรือประกาศอย่างเป็นทางการ แต่เพิ่มข้อมูลลงในเว็บไซต์ ได้แก่ Ryzen 7 9700F, Ryzen 5 9500F, Ryzen 5 7400 และ Ryzen 5 5600F ซึ่งครอบคลุมตั้งแต่สถาปัตยกรรม Zen 5, Zen 4 ไปจนถึง Zen 3 โดยเน้นกลุ่มผู้ใช้ระดับเริ่มต้นและตลาดต่างประเทศ

    Ryzen 7 9700F และ Ryzen 5 9500F เป็นชิป Zen 5 แบบไม่มีกราฟิกในตัว (iGPU-less) โดย 9700F มี 8 คอร์ 16 เธรด, L3 cache 32MB, TDP 65W และบูสต์สูงสุด 5.5GHz ส่วน 9500F มี 6 คอร์ 12 เธรด และบูสต์สูงสุด 5.0GHz ทั้งคู่ใช้แพลตฟอร์ม AM5 และรองรับ PCIe Gen5 รวมถึง DDR5 สูงสุด 192GB

    Ryzen 5 7400 เป็น Zen 4 รุ่นใหม่ที่มี 6 คอร์ 12 เธรด แต่มี L3 cache เพียง 16MB ซึ่งผิดปกติสำหรับชิปที่ใช้โครงสร้าง chiplet แบบ Raphael โดยคาดว่า AMD ปิดการทำงานของ cache บางส่วนเพื่อใช้ชิปที่มีตำหนิจากการผลิต ลดการสูญเปล่าและต้นทุน

    Ryzen 5 5600F เป็น Zen 3 รุ่นสุดท้ายที่ยังคงอยู่ในตลาด โดยมี 6 คอร์ 12 เธรด, L3 cache 32MB และบูสต์สูงสุด 4.0GHz แม้จะใช้ชื่อ F-series แต่จริง ๆ แล้ว Zen 3 ไม่มี iGPU อยู่แล้ว จึงเป็นการรีแบรนด์เพื่อขายในตลาดเอเชียโดยเฉพาะ

    ชิปเหล่านี้ส่วนใหญ่จะวางขายเฉพาะในภูมิภาค เช่น 9700F ในอเมริกาเหนือ, 5600F ในเอเชียแปซิฟิก และ 7400F เฉพาะในจีน โดยมีเพียง 9500F ที่มีวางจำหน่ายทั่วโลก ซึ่งสะท้อนกลยุทธ์ของ AMD ที่เน้นการใช้ชิปที่มีอยู่ให้เกิดประโยชน์สูงสุดในแต่ละตลาด

    ข้อมูลซีพียูใหม่จาก AMD
    Ryzen 7 9700F: Zen 5, 8 คอร์, 5.5GHz boost, ไม่มี iGPU
    Ryzen 5 9500F: Zen 5, 6 คอร์, 5.0GHz boost, ไม่มี iGPU
    Ryzen 5 7400: Zen 4, 6 คอร์, L3 cache 16MB, ลดต้นทุนจากชิปที่มีตำหนิ
    Ryzen 5 5600F: Zen 3, 6 คอร์, ไม่มี iGPU โดยธรรมชาติ

    จุดเด่นและกลยุทธ์
    ใช้แพลตฟอร์ม AM5 รองรับ PCIe Gen5 และ DDR5 สูงสุด 192GB
    เปิดตัวแบบเงียบ ๆ โดยเพิ่มข้อมูลลงในเว็บไซต์เท่านั้น
    F-series คือรุ่นไม่มีกราฟิกในตัว และบางรุ่นมีสเปกใกล้เคียงกับรุ่น X
    วางจำหน่ายแบบจำกัดภูมิภาคตามความเหมาะสมของตลาด

    ข้อมูลเสริมจากภายนอก
    Ryzen 5 9500F คาดว่าราคาอยู่ที่ประมาณ $218 และ 9700F ที่ $294
    Zen 5 มีการปรับปรุงด้าน branch prediction, ALU และ cache hierarchy
    Ryzen 5 7400F มี L3 cache 32MB และบูสต์สูงกว่า 7400 ถึง 400MHz
    Intel ก็ใช้กลยุทธ์คล้ายกัน โดยนำชิปเก่ากลับมารีแบรนด์ใน Ultra Series 1

    https://www.tomshardware.com/pc-components/cpus/amd-launches-four-new-ryzen-cpus-including-cutdown-zen-4-and-zen-3-models-most-only-available-in-global-markets
    🧠 “AMD เปิดตัว Ryzen 9700F, 9500F, 7400 และ 5600F — ซีพียูรุ่นประหยัดที่ซ่อนพลังไว้มากกว่าที่คิด” AMD เปิดตัวซีพียูใหม่ 4 รุ่นแบบเงียบ ๆ โดยไม่จัดงานแถลงข่าวหรือประกาศอย่างเป็นทางการ แต่เพิ่มข้อมูลลงในเว็บไซต์ ได้แก่ Ryzen 7 9700F, Ryzen 5 9500F, Ryzen 5 7400 และ Ryzen 5 5600F ซึ่งครอบคลุมตั้งแต่สถาปัตยกรรม Zen 5, Zen 4 ไปจนถึง Zen 3 โดยเน้นกลุ่มผู้ใช้ระดับเริ่มต้นและตลาดต่างประเทศ Ryzen 7 9700F และ Ryzen 5 9500F เป็นชิป Zen 5 แบบไม่มีกราฟิกในตัว (iGPU-less) โดย 9700F มี 8 คอร์ 16 เธรด, L3 cache 32MB, TDP 65W และบูสต์สูงสุด 5.5GHz ส่วน 9500F มี 6 คอร์ 12 เธรด และบูสต์สูงสุด 5.0GHz ทั้งคู่ใช้แพลตฟอร์ม AM5 และรองรับ PCIe Gen5 รวมถึง DDR5 สูงสุด 192GB Ryzen 5 7400 เป็น Zen 4 รุ่นใหม่ที่มี 6 คอร์ 12 เธรด แต่มี L3 cache เพียง 16MB ซึ่งผิดปกติสำหรับชิปที่ใช้โครงสร้าง chiplet แบบ Raphael โดยคาดว่า AMD ปิดการทำงานของ cache บางส่วนเพื่อใช้ชิปที่มีตำหนิจากการผลิต ลดการสูญเปล่าและต้นทุน Ryzen 5 5600F เป็น Zen 3 รุ่นสุดท้ายที่ยังคงอยู่ในตลาด โดยมี 6 คอร์ 12 เธรด, L3 cache 32MB และบูสต์สูงสุด 4.0GHz แม้จะใช้ชื่อ F-series แต่จริง ๆ แล้ว Zen 3 ไม่มี iGPU อยู่แล้ว จึงเป็นการรีแบรนด์เพื่อขายในตลาดเอเชียโดยเฉพาะ ชิปเหล่านี้ส่วนใหญ่จะวางขายเฉพาะในภูมิภาค เช่น 9700F ในอเมริกาเหนือ, 5600F ในเอเชียแปซิฟิก และ 7400F เฉพาะในจีน โดยมีเพียง 9500F ที่มีวางจำหน่ายทั่วโลก ซึ่งสะท้อนกลยุทธ์ของ AMD ที่เน้นการใช้ชิปที่มีอยู่ให้เกิดประโยชน์สูงสุดในแต่ละตลาด ✅ ข้อมูลซีพียูใหม่จาก AMD ➡️ Ryzen 7 9700F: Zen 5, 8 คอร์, 5.5GHz boost, ไม่มี iGPU ➡️ Ryzen 5 9500F: Zen 5, 6 คอร์, 5.0GHz boost, ไม่มี iGPU ➡️ Ryzen 5 7400: Zen 4, 6 คอร์, L3 cache 16MB, ลดต้นทุนจากชิปที่มีตำหนิ ➡️ Ryzen 5 5600F: Zen 3, 6 คอร์, ไม่มี iGPU โดยธรรมชาติ ✅ จุดเด่นและกลยุทธ์ ➡️ ใช้แพลตฟอร์ม AM5 รองรับ PCIe Gen5 และ DDR5 สูงสุด 192GB ➡️ เปิดตัวแบบเงียบ ๆ โดยเพิ่มข้อมูลลงในเว็บไซต์เท่านั้น ➡️ F-series คือรุ่นไม่มีกราฟิกในตัว และบางรุ่นมีสเปกใกล้เคียงกับรุ่น X ➡️ วางจำหน่ายแบบจำกัดภูมิภาคตามความเหมาะสมของตลาด ✅ ข้อมูลเสริมจากภายนอก ➡️ Ryzen 5 9500F คาดว่าราคาอยู่ที่ประมาณ $218 และ 9700F ที่ $294 ➡️ Zen 5 มีการปรับปรุงด้าน branch prediction, ALU และ cache hierarchy ➡️ Ryzen 5 7400F มี L3 cache 32MB และบูสต์สูงกว่า 7400 ถึง 400MHz ➡️ Intel ก็ใช้กลยุทธ์คล้ายกัน โดยนำชิปเก่ากลับมารีแบรนด์ใน Ultra Series 1 https://www.tomshardware.com/pc-components/cpus/amd-launches-four-new-ryzen-cpus-including-cutdown-zen-4-and-zen-3-models-most-only-available-in-global-markets
    0 ความคิดเห็น 0 การแบ่งปัน 103 มุมมอง 0 รีวิว
  • “Tencent หันหลังให้ Nvidia — ปรับโครงสร้าง AI สู่ชิปจีนเต็มรูปแบบ ท่ามกลางแรงกดดันจากสงครามเทคโนโลยี”

    Tencent บริษัทเทคโนโลยียักษ์ใหญ่ของจีน ประกาศอย่างเป็นทางการในงาน Global Digital Ecosystem Summit เมื่อวันที่ 16 กันยายน 2025 ว่าได้ “ปรับโครงสร้างระบบประมวลผล AI ทั้งหมด” เพื่อรองรับชิปที่ออกแบบโดยบริษัทจีน โดยไม่พึ่งพา Nvidia อีกต่อไป ถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ด้านฮาร์ดแวร์ของบริษัท และสะท้อนแนวโน้มการพึ่งพาตนเองของจีนในยุคที่การส่งออกเทคโนโลยีจากสหรัฐฯ ถูกจำกัดอย่างเข้มงวด

    Qiu Yuepeng ประธาน Tencent Cloud ยืนยันว่าบริษัทได้ใช้ “ชิปจีนกระแสหลัก” ในการผลิตจริง ไม่ใช่แค่ทดลอง และกำลังร่วมมือกับผู้ผลิตชิปหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน พร้อมลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อลดต้นทุนการประมวลผล

    การประกาศนี้เกิดขึ้นเพียงหนึ่งวันหลังจากหน่วยงานกำกับดูแลของจีนเปิดเผยว่า Nvidia ละเมิดกฎการควบรวมกิจการจากการซื้อ Mellanox ในปี 2019 ซึ่งเพิ่มแรงกดดันให้บริษัทจีนต้องเร่งพัฒนาเทคโนโลยีของตนเอง

    แม้ Tencent จะไม่เปิดเผยชื่อชิปที่ใช้งานจริง แต่หลายฝ่ายคาดว่าเป็น Huawei Ascend ซึ่งมีการใช้งานแล้วใน ByteDance และได้รับการสนับสนุนจากเฟรมเวิร์ก MindSpore ที่พัฒนาอย่างต่อเนื่อง อย่างไรก็ตาม ยังมีข้อสงสัยว่าชิปเหล่านี้จะสามารถรองรับการฝึกโมเดลขนาดใหญ่ได้จริงหรือไม่ เนื่องจาก Huawei ถูกคาดว่าจะผลิตได้เพียง 200,000 ชิป AI ในปีหน้า

    Tencent ยังระบุว่ามีชิปสำหรับการฝึกโมเดลเพียงพอในคลัง และมี “หลายทางเลือก” สำหรับ inference ซึ่งสะท้อนถึงการกระจายความเสี่ยงด้านซัพพลายเชนอย่างชัดเจน

    ข้อมูลสำคัญจากข่าว
    Tencent ประกาศปรับโครงสร้างระบบ AI เพื่อรองรับชิปจีนเต็มรูปแบบ
    ใช้ชิปจีนกระแสหลักในระดับการผลิตจริง ไม่ใช่แค่ทดลอง
    ร่วมมือกับผู้ผลิตหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน
    ลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์

    ความเคลื่อนไหวที่เกี่ยวข้อง
    Nvidia ถูกกล่าวหาว่าละเมิดกฎการควบรวมกิจการในจีนจากดีล Mellanox
    Tencent มีชิปสำหรับการฝึกโมเดลเพียงพอ และมีหลายทางเลือกสำหรับ inference
    DeepSeek AI ประกาศว่าโมเดล V3.1 ถูกออกแบบมาเพื่อรองรับชิปจีนรุ่นใหม่
    Huawei Ascend ถูกใช้งานใน ByteDance และมีเฟรมเวิร์ก MindSpore รองรับ

    ข้อมูลเสริมจากภายนอก
    จีนตั้งเป้าให้บริษัทในประเทศใช้ชิปจีนอย่างน้อย 50% ภายในปี 2026
    กลุ่ม Model-Chips Ecosystem Innovation Alliance ก่อตั้งขึ้นเพื่อผลักดันการใช้ชิปจีนในงาน AI
    การเปลี่ยนจาก Nvidia ไปยังชิปจีนต้องใช้เวลาและต้นทุนสูงในการปรับซอฟต์แวร์
    Huawei Ascend ยังมีข้อจำกัดด้านปริมาณการผลิตและการเข้าถึง HBM

    https://www.tomshardware.com/tech-industry/semiconductors/tencent-goes-public-with-pivot-to-chinese-chips
    🇨🇳 “Tencent หันหลังให้ Nvidia — ปรับโครงสร้าง AI สู่ชิปจีนเต็มรูปแบบ ท่ามกลางแรงกดดันจากสงครามเทคโนโลยี” Tencent บริษัทเทคโนโลยียักษ์ใหญ่ของจีน ประกาศอย่างเป็นทางการในงาน Global Digital Ecosystem Summit เมื่อวันที่ 16 กันยายน 2025 ว่าได้ “ปรับโครงสร้างระบบประมวลผล AI ทั้งหมด” เพื่อรองรับชิปที่ออกแบบโดยบริษัทจีน โดยไม่พึ่งพา Nvidia อีกต่อไป ถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในยุทธศาสตร์ด้านฮาร์ดแวร์ของบริษัท และสะท้อนแนวโน้มการพึ่งพาตนเองของจีนในยุคที่การส่งออกเทคโนโลยีจากสหรัฐฯ ถูกจำกัดอย่างเข้มงวด Qiu Yuepeng ประธาน Tencent Cloud ยืนยันว่าบริษัทได้ใช้ “ชิปจีนกระแสหลัก” ในการผลิตจริง ไม่ใช่แค่ทดลอง และกำลังร่วมมือกับผู้ผลิตชิปหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน พร้อมลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อลดต้นทุนการประมวลผล การประกาศนี้เกิดขึ้นเพียงหนึ่งวันหลังจากหน่วยงานกำกับดูแลของจีนเปิดเผยว่า Nvidia ละเมิดกฎการควบรวมกิจการจากการซื้อ Mellanox ในปี 2019 ซึ่งเพิ่มแรงกดดันให้บริษัทจีนต้องเร่งพัฒนาเทคโนโลยีของตนเอง แม้ Tencent จะไม่เปิดเผยชื่อชิปที่ใช้งานจริง แต่หลายฝ่ายคาดว่าเป็น Huawei Ascend ซึ่งมีการใช้งานแล้วใน ByteDance และได้รับการสนับสนุนจากเฟรมเวิร์ก MindSpore ที่พัฒนาอย่างต่อเนื่อง อย่างไรก็ตาม ยังมีข้อสงสัยว่าชิปเหล่านี้จะสามารถรองรับการฝึกโมเดลขนาดใหญ่ได้จริงหรือไม่ เนื่องจาก Huawei ถูกคาดว่าจะผลิตได้เพียง 200,000 ชิป AI ในปีหน้า Tencent ยังระบุว่ามีชิปสำหรับการฝึกโมเดลเพียงพอในคลัง และมี “หลายทางเลือก” สำหรับ inference ซึ่งสะท้อนถึงการกระจายความเสี่ยงด้านซัพพลายเชนอย่างชัดเจน ✅ ข้อมูลสำคัญจากข่าว ➡️ Tencent ประกาศปรับโครงสร้างระบบ AI เพื่อรองรับชิปจีนเต็มรูปแบบ ➡️ ใช้ชิปจีนกระแสหลักในระดับการผลิตจริง ไม่ใช่แค่ทดลอง ➡️ ร่วมมือกับผู้ผลิตหลายรายเพื่อเลือกฮาร์ดแวร์ที่เหมาะสมกับแต่ละงาน ➡️ ลงทุนระยะยาวเพื่อพัฒนาโครงสร้างร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ✅ ความเคลื่อนไหวที่เกี่ยวข้อง ➡️ Nvidia ถูกกล่าวหาว่าละเมิดกฎการควบรวมกิจการในจีนจากดีล Mellanox ➡️ Tencent มีชิปสำหรับการฝึกโมเดลเพียงพอ และมีหลายทางเลือกสำหรับ inference ➡️ DeepSeek AI ประกาศว่าโมเดล V3.1 ถูกออกแบบมาเพื่อรองรับชิปจีนรุ่นใหม่ ➡️ Huawei Ascend ถูกใช้งานใน ByteDance และมีเฟรมเวิร์ก MindSpore รองรับ ✅ ข้อมูลเสริมจากภายนอก ➡️ จีนตั้งเป้าให้บริษัทในประเทศใช้ชิปจีนอย่างน้อย 50% ภายในปี 2026 ➡️ กลุ่ม Model-Chips Ecosystem Innovation Alliance ก่อตั้งขึ้นเพื่อผลักดันการใช้ชิปจีนในงาน AI ➡️ การเปลี่ยนจาก Nvidia ไปยังชิปจีนต้องใช้เวลาและต้นทุนสูงในการปรับซอฟต์แวร์ ➡️ Huawei Ascend ยังมีข้อจำกัดด้านปริมาณการผลิตและการเข้าถึง HBM https://www.tomshardware.com/tech-industry/semiconductors/tencent-goes-public-with-pivot-to-chinese-chips
    WWW.TOMSHARDWARE.COM
    Chinese giant Tencent announces domestic AI chip push — says it has fully adapted infrastructure to support homegrown silicon in blow to Nvidia
    Tencent goes public with its pivot to Chinese accelerators, highlighting a deeper break from Nvidia as domestic AI hardware matures.
    0 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’”

    Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025

    สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม

    ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด

    แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน
    ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป
    ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025
    ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม

    จุดเด่นด้านเทคโนโลยี
    ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต
    รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq
    ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง
    เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม

    ข้อมูลเสริมจากภายนอก
    Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL
    ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025
    การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก
    หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย

    https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    🧊 “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’” Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025 สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน ➡️ ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป ➡️ ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025 ➡️ ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม ✅ จุดเด่นด้านเทคโนโลยี ➡️ ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต ➡️ รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq ➡️ ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง ➡️ เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม ✅ ข้อมูลเสริมจากภายนอก ➡️ Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL ➡️ ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025 ➡️ การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก ➡️ หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    WWW.TOMSHARDWARE.COM
    Start-up hails world's first quantum computer made from everyday silicon — fits in three 19-inch server racks and is touted as 'quantum computing's silicon moment'
    Built on a standard CMOS process and packed into three racks, Quantum Motion’s silicon spin-qubit machine is ready to be tested.
    0 ความคิดเห็น 0 การแบ่งปัน 107 มุมมอง 0 รีวิว
  • “AI ในศูนย์รักษาความปลอดภัยองค์กร: ผู้ช่วยอัจฉริยะหรือแค่เสียงรบกวน? — เมื่อ CISO ต้องเผชิญความจริงของการใช้งานจริง”

    ในปี 2025 การนำปัญญาประดิษฐ์ (AI) มาใช้ในระบบรักษาความปลอดภัยองค์กร (Security Operations Center – SOC) กลายเป็นประเด็นหลักของผู้บริหารด้านความปลอดภัยข้อมูล (CISO) ทั่วโลก หลายองค์กรหวังว่า AI จะเป็นตัวพลิกเกมในการรับมือภัยคุกคามไซเบอร์ที่ซับซ้อนและรวดเร็วขึ้น แต่เมื่อเริ่มใช้งานจริง กลับพบว่าความหวังนั้นต้องผ่านบทเรียนมากมายก่อนจะได้ผลลัพธ์ที่แท้จริง

    Myke Lyons จากบริษัท Cribl ชี้ว่า AI และระบบอัตโนมัติช่วยลดเวลาในการตรวจจับและตอบสนองเหตุการณ์ได้จริง แต่ต้องอาศัยการจัดการข้อมูลอย่างมีโครงสร้าง โดยเฉพาะ telemetry ที่มีความสำคัญสูง เช่น log การยืนยันตัวตนและการเข้าใช้งานแอปพลิเคชัน ซึ่งต้องถูกส่งไปยังระบบที่มีความมั่นใจสูงเพื่อการตรวจจับแบบเรียลไทม์ ส่วนข้อมูลรองลงมาถูกเก็บไว้ใน data lake เพื่อใช้วิเคราะห์ย้อนหลังและลดต้นทุน

    Erin Rogers จาก BOK Financial เสริมว่า AI แบบ “agentic” ซึ่งสามารถตัดสินใจและปรับตัวได้เอง กำลังช่วยให้ระบบตรวจจับภัยคุกคามสามารถตอบสนองได้รวดเร็วขึ้น เช่น การป้องกันการโจมตีแบบ Business Email Compromise แบบเรียลไทม์ โดยไม่ต้องรอมนุษย์เข้ามาแทรกแซง

    แต่ไม่ใช่ทุกคนที่เห็นด้วย Shaila Rana จาก IEEE เตือนว่า AI ยังไม่แม่นยำพอ โดยอ้างผลการทดลองจาก Microsoft Research ที่พบว่า AI ตรวจจับมัลแวร์ได้เพียง 26% ภายใต้เงื่อนไขที่ยากที่สุด แม้จะมีความแม่นยำถึง 89% ในสถานการณ์ทั่วไปก็ตาม ซึ่งอาจทำให้ผู้ใช้เกิดความมั่นใจเกินจริงและลดการเฝ้าระวังที่จำเป็น

    Anar Israfilov จาก Cyberoon Enterprise ย้ำว่า AI ต้องมีการควบคุมและตรวจสอบจากมนุษย์เสมอ เพราะหากไม่มีการตั้งค่าข้อมูลที่เหมาะสม ระบบอาจสร้าง “ghost alert” หรือการแจ้งเตือนผิดพลาดจำนวนมาก ทำให้ทีมงานเสียเวลาไล่ตามสิ่งที่ไม่มีอยู่จริง

    Denida Grow จาก LeMareschal ก็เห็นด้วยว่า AI ยังไม่สามารถแทนที่มนุษย์ได้ โดยเฉพาะในงานที่ต้องใช้บริบท เช่น การตอบสนองเหตุการณ์ที่เกี่ยวข้องกับกฎหมายท้องถิ่น หรือความเสี่ยงเฉพาะขององค์กร ซึ่ง AI ยังไม่สามารถเข้าใจได้ลึกพอ

    Jonathan Garini จาก fifthelement.ai สรุปว่า AI ควรถูกใช้เพื่อช่วยลดภาระงานซ้ำซาก เช่น การวิเคราะห์ log หรือการกรอง alert เพื่อให้ผู้เชี่ยวชาญมีเวลามากขึ้นในการแก้ปัญหาที่ซับซ้อน และการผสาน AI เข้ากับความรู้ภายในองค์กร เช่น ประวัติภัยคุกคามและ workflow ที่มีอยู่ จะช่วยให้ระบบมีประสิทธิภาพมากขึ้น

    ข้อมูลสำคัญจากบทความ
    AI ถูกนำมาใช้ใน SOC เพื่อเพิ่มความเร็วและลดภาระงานของนักวิเคราะห์
    ระบบ agentic AI สามารถตัดสินใจและปรับตัวได้เองในบางกรณี เช่น การป้องกันอีเมลหลอกลวง
    การจัดการ telemetry อย่างมีโครงสร้างช่วยเพิ่มความแม่นยำในการตรวจจับ
    AI ช่วยลดเวลาในการตอบสนองเหตุการณ์และลดต้นทุนในการดำเนินงาน

    มุมมองจากผู้เชี่ยวชาญ
    ต้องมีการควบคุมและตรวจสอบจากมนุษย์เพื่อหลีกเลี่ยง ghost alert
    AI ยังไม่สามารถเข้าใจบริบทเฉพาะ เช่น กฎหมายท้องถิ่นหรือความเสี่ยงเฉพาะองค์กร
    การผสาน AI กับความรู้ภายในองค์กรช่วยเพิ่มประสิทธิภาพ
    AI เหมาะกับงานซ้ำซาก เช่น การกรอง alert และการวิเคราะห์ log

    ข้อมูลเสริมจากภายนอก
    Cisco และ Splunk เปิดตัว SOC รุ่นใหม่ที่ใช้ agentic AI เพื่อรวมการตรวจจับและตอบสนองภัยคุกคาม
    SANS Institute พบว่าองค์กรส่วนใหญ่ยังใช้ AI ในระดับสนับสนุน ไม่ใช่การตัดสินใจอัตโนมัติเต็มรูปแบบ
    ปัญหาหลักของ AI ในความปลอดภัยคือ false positive และการขาดบริบท
    การใช้ AI อย่างมีความรับผิดชอบต้องมี “guardrails” เช่น rule-based automation เพื่อควบคุมพฤติกรรมของระบบ

    https://www.csoonline.com/article/4054301/cisos-grapple-with-the-realities-of-applying-ai-to-security-functions.html
    🤖 “AI ในศูนย์รักษาความปลอดภัยองค์กร: ผู้ช่วยอัจฉริยะหรือแค่เสียงรบกวน? — เมื่อ CISO ต้องเผชิญความจริงของการใช้งานจริง” ในปี 2025 การนำปัญญาประดิษฐ์ (AI) มาใช้ในระบบรักษาความปลอดภัยองค์กร (Security Operations Center – SOC) กลายเป็นประเด็นหลักของผู้บริหารด้านความปลอดภัยข้อมูล (CISO) ทั่วโลก หลายองค์กรหวังว่า AI จะเป็นตัวพลิกเกมในการรับมือภัยคุกคามไซเบอร์ที่ซับซ้อนและรวดเร็วขึ้น แต่เมื่อเริ่มใช้งานจริง กลับพบว่าความหวังนั้นต้องผ่านบทเรียนมากมายก่อนจะได้ผลลัพธ์ที่แท้จริง Myke Lyons จากบริษัท Cribl ชี้ว่า AI และระบบอัตโนมัติช่วยลดเวลาในการตรวจจับและตอบสนองเหตุการณ์ได้จริง แต่ต้องอาศัยการจัดการข้อมูลอย่างมีโครงสร้าง โดยเฉพาะ telemetry ที่มีความสำคัญสูง เช่น log การยืนยันตัวตนและการเข้าใช้งานแอปพลิเคชัน ซึ่งต้องถูกส่งไปยังระบบที่มีความมั่นใจสูงเพื่อการตรวจจับแบบเรียลไทม์ ส่วนข้อมูลรองลงมาถูกเก็บไว้ใน data lake เพื่อใช้วิเคราะห์ย้อนหลังและลดต้นทุน Erin Rogers จาก BOK Financial เสริมว่า AI แบบ “agentic” ซึ่งสามารถตัดสินใจและปรับตัวได้เอง กำลังช่วยให้ระบบตรวจจับภัยคุกคามสามารถตอบสนองได้รวดเร็วขึ้น เช่น การป้องกันการโจมตีแบบ Business Email Compromise แบบเรียลไทม์ โดยไม่ต้องรอมนุษย์เข้ามาแทรกแซง แต่ไม่ใช่ทุกคนที่เห็นด้วย Shaila Rana จาก IEEE เตือนว่า AI ยังไม่แม่นยำพอ โดยอ้างผลการทดลองจาก Microsoft Research ที่พบว่า AI ตรวจจับมัลแวร์ได้เพียง 26% ภายใต้เงื่อนไขที่ยากที่สุด แม้จะมีความแม่นยำถึง 89% ในสถานการณ์ทั่วไปก็ตาม ซึ่งอาจทำให้ผู้ใช้เกิดความมั่นใจเกินจริงและลดการเฝ้าระวังที่จำเป็น Anar Israfilov จาก Cyberoon Enterprise ย้ำว่า AI ต้องมีการควบคุมและตรวจสอบจากมนุษย์เสมอ เพราะหากไม่มีการตั้งค่าข้อมูลที่เหมาะสม ระบบอาจสร้าง “ghost alert” หรือการแจ้งเตือนผิดพลาดจำนวนมาก ทำให้ทีมงานเสียเวลาไล่ตามสิ่งที่ไม่มีอยู่จริง Denida Grow จาก LeMareschal ก็เห็นด้วยว่า AI ยังไม่สามารถแทนที่มนุษย์ได้ โดยเฉพาะในงานที่ต้องใช้บริบท เช่น การตอบสนองเหตุการณ์ที่เกี่ยวข้องกับกฎหมายท้องถิ่น หรือความเสี่ยงเฉพาะขององค์กร ซึ่ง AI ยังไม่สามารถเข้าใจได้ลึกพอ Jonathan Garini จาก fifthelement.ai สรุปว่า AI ควรถูกใช้เพื่อช่วยลดภาระงานซ้ำซาก เช่น การวิเคราะห์ log หรือการกรอง alert เพื่อให้ผู้เชี่ยวชาญมีเวลามากขึ้นในการแก้ปัญหาที่ซับซ้อน และการผสาน AI เข้ากับความรู้ภายในองค์กร เช่น ประวัติภัยคุกคามและ workflow ที่มีอยู่ จะช่วยให้ระบบมีประสิทธิภาพมากขึ้น ✅ ข้อมูลสำคัญจากบทความ ➡️ AI ถูกนำมาใช้ใน SOC เพื่อเพิ่มความเร็วและลดภาระงานของนักวิเคราะห์ ➡️ ระบบ agentic AI สามารถตัดสินใจและปรับตัวได้เองในบางกรณี เช่น การป้องกันอีเมลหลอกลวง ➡️ การจัดการ telemetry อย่างมีโครงสร้างช่วยเพิ่มความแม่นยำในการตรวจจับ ➡️ AI ช่วยลดเวลาในการตอบสนองเหตุการณ์และลดต้นทุนในการดำเนินงาน ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ ต้องมีการควบคุมและตรวจสอบจากมนุษย์เพื่อหลีกเลี่ยง ghost alert ➡️ AI ยังไม่สามารถเข้าใจบริบทเฉพาะ เช่น กฎหมายท้องถิ่นหรือความเสี่ยงเฉพาะองค์กร ➡️ การผสาน AI กับความรู้ภายในองค์กรช่วยเพิ่มประสิทธิภาพ ➡️ AI เหมาะกับงานซ้ำซาก เช่น การกรอง alert และการวิเคราะห์ log ✅ ข้อมูลเสริมจากภายนอก ➡️ Cisco และ Splunk เปิดตัว SOC รุ่นใหม่ที่ใช้ agentic AI เพื่อรวมการตรวจจับและตอบสนองภัยคุกคาม ➡️ SANS Institute พบว่าองค์กรส่วนใหญ่ยังใช้ AI ในระดับสนับสนุน ไม่ใช่การตัดสินใจอัตโนมัติเต็มรูปแบบ ➡️ ปัญหาหลักของ AI ในความปลอดภัยคือ false positive และการขาดบริบท ➡️ การใช้ AI อย่างมีความรับผิดชอบต้องมี “guardrails” เช่น rule-based automation เพื่อควบคุมพฤติกรรมของระบบ https://www.csoonline.com/article/4054301/cisos-grapple-with-the-realities-of-applying-ai-to-security-functions.html
    WWW.CSOONLINE.COM
    CISOs grapple with the realities of applying AI to security functions
    Viewed as a copilot to augment rather than revolutionize security operations, well-governed AI can deliver incremental results, according to security leaders’ early returns.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • BONNY ขอท้าพิสูจน์! เครื่องหั่นผัก 1 ตัว แทนแรงงานได้กี่คน?

    เคยสงสัยไหมว่าทำไมธุรกิจอาหารที่เติบโตเร็ว ถึงใช้เครื่องจักรเข้ามาช่วย? เพราะนั่นคือการลงทุนเพื่อเพิ่มประสิทธิภาพและลดต้นทุนในระยะยาว

    BONNY เครื่องหั่นผัก (Vegetable Cutter) คือคำตอบ!
    ประสิทธิภาพสูง: หั่นผักได้ 50-100 kg/hr ด้วยมอเตอร์ 1 แรงม้า
    สารพัดประโยชน์: เปลี่ยนจานใบมีดได้ถึง 6 แบบ ทั้งหั่นเต๋า หั่นฝอย หรือหั่นแว่น
    แข็งแรงทนทาน: น้ำหนัก 26 kg. ขนาดกระทัดรัด 50x23x55 ซม. เคลื่อนย้ายง่าย

    ไม่ว่าจะเป็นแครอท หรือกะหล่ำปลี ก็หั่นได้เนียนกริบ สม่ำเสมอ พร้อมส่งเข้ากระบวนการผลิตต่อทันที!

    สนใจยกระดับธุรกิจของคุณ?
    ปรึกษาฟรี! ติดต่อเราได้เลย
    m.me/yonghahheng
    02-215-3515-9, 081-3189098

    #เครื่องหั่นผัก #เครื่องจักรแปรรูปอาหาร #เครื่องหั่น #เครื่องสไลด์ #เครื่องบด #เครื่องครัวร้านอาหาร #เครื่องหั่นเต๋า #เครื่องหั่นผักอเนกประสงค์ #หั่นผัก #หั่นเต๋า #หั่นเผือก #หั่นแครอท #หั่นกะหล่ำปลี #ร้านอาหาร #ธุรกิจอาหาร #ครัวร้านอาหาร #อาหารแปรรูป #โรงงานอาหาร #เครื่องครัว #อุปกรณ์ร้านอาหาร #SMEไทย #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มประสิทธิภาพ #อุปกรณ์ครัวมืออาชีพ #ยงฮะเฮง #BONNY #Yonghahheng #VegetableCutter #FoodProcessingMachine
    BONNY ขอท้าพิสูจน์! เครื่องหั่นผัก 1 ตัว แทนแรงงานได้กี่คน? เคยสงสัยไหมว่าทำไมธุรกิจอาหารที่เติบโตเร็ว ถึงใช้เครื่องจักรเข้ามาช่วย? เพราะนั่นคือการลงทุนเพื่อเพิ่มประสิทธิภาพและลดต้นทุนในระยะยาว BONNY เครื่องหั่นผัก (Vegetable Cutter) คือคำตอบ! ✨ ประสิทธิภาพสูง: หั่นผักได้ 50-100 kg/hr ด้วยมอเตอร์ 1 แรงม้า ✨ สารพัดประโยชน์: เปลี่ยนจานใบมีดได้ถึง 6 แบบ ทั้งหั่นเต๋า หั่นฝอย หรือหั่นแว่น ✨ แข็งแรงทนทาน: น้ำหนัก 26 kg. ขนาดกระทัดรัด 50x23x55 ซม. เคลื่อนย้ายง่าย ไม่ว่าจะเป็นแครอท หรือกะหล่ำปลี ก็หั่นได้เนียนกริบ สม่ำเสมอ พร้อมส่งเข้ากระบวนการผลิตต่อทันที! สนใจยกระดับธุรกิจของคุณ? ปรึกษาฟรี! ติดต่อเราได้เลย 👇 📥 m.me/yonghahheng 📞 02-215-3515-9, 081-3189098 #เครื่องหั่นผัก #เครื่องจักรแปรรูปอาหาร #เครื่องหั่น #เครื่องสไลด์ #เครื่องบด #เครื่องครัวร้านอาหาร #เครื่องหั่นเต๋า #เครื่องหั่นผักอเนกประสงค์ #หั่นผัก #หั่นเต๋า #หั่นเผือก #หั่นแครอท #หั่นกะหล่ำปลี #ร้านอาหาร #ธุรกิจอาหาร #ครัวร้านอาหาร #อาหารแปรรูป #โรงงานอาหาร #เครื่องครัว #อุปกรณ์ร้านอาหาร #SMEไทย #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มประสิทธิภาพ #อุปกรณ์ครัวมืออาชีพ #ยงฮะเฮง #BONNY #Yonghahheng #VegetableCutter #FoodProcessingMachine
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • “Intel ขายหุ้น Altera ลดต้นทุนปี 2025 — พลิกเกมการเงินหลังขาดทุนหนักในยุคก่อน”

    หลังจากเผชิญกับภาวะขาดทุนครั้งใหญ่ที่สุดในรอบหลายทศวรรษ Intel ได้ตัดสินใจขายหุ้น 51% ของธุรกิจชิปแบบปรับแต่งได้ Altera ให้กับบริษัทเอกชน Silver Lake ด้วยมูลค่า 3.3 พันล้านดอลลาร์ ซึ่งต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงครึ่งหนึ่ง การขายครั้งนี้ไม่ใช่แค่การปลดภาระ แต่เป็นการปรับโครงสร้างองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan

    ผลจากการขายทำให้ Intel ปรับลดเป้าหมายค่าใช้จ่ายในการดำเนินงานปี 2025 ลงเหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้านดอลลาร์ โดยยังคงเป้าหมายปี 2026 ไว้ที่ 16 พันล้านดอลลาร์ การลดค่าใช้จ่ายนี้ช่วยให้ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% และสร้างความมั่นใจให้กับนักลงทุนที่เคยกังวลกับการขาดทุนสะสมกว่า 18.8 พันล้านดอลลาร์ในปี 2024

    Altera ซึ่งเคยเป็นหนึ่งในธุรกิจที่ Intel หวังจะใช้ขยายตลาดด้าน programmable chips รายงานรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรกของ 2025 พร้อมกำไรขั้นต้น 55% และค่าใช้จ่ายในการดำเนินงาน 356 ล้านดอลลาร์ การขายหุ้นให้ Silver Lake ทำให้ Intel ไม่ต้องแบกรับค่าใช้จ่ายเหล่านี้อีกต่อไป และสามารถโฟกัสกับธุรกิจหลักได้มากขึ้น

    นอกจากนี้ Intel ยังมีการปรับโครงสร้างองค์กร เช่น ลดจำนวนพนักงานลงกว่า 20% และเปลี่ยนแปลงทีมบริหาร พร้อมกับการที่รัฐบาลสหรัฐฯ แปลงเงินสนับสนุนในยุค Biden เป็นหุ้น 10% ในบริษัท ซึ่งสะท้อนถึงความพยายามในการฟื้นฟูสถานะทางการเงินและความสามารถในการแข่งขันในตลาดชิปที่ร้อนแรงขึ้นทุกวัน

    ข้อมูลสำคัญจากข่าว
    Intel ขายหุ้น 51% ของ Altera ให้ Silver Lake มูลค่า 3.3 พันล้านดอลลาร์
    ปรับลดเป้าหมายค่าใช้จ่ายปี 2025 เหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้าน
    ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% หลังประกาศข่าว
    Altera เคยมีรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรก และกำไรขั้นต้น 55%

    การปรับโครงสร้างองค์กร
    CEO คนใหม่ Lip-Bu Tan เน้นลดต้นทุนและปรับโครงสร้าง
    ลดจำนวนพนักงานลงกว่า 20% ภายในสิ้นปี
    รัฐบาลสหรัฐฯ ถือหุ้น 10% ผ่านการแปลงเงินสนับสนุนเป็นทุน
    เป้าหมายปี 2026 ยังคงไว้ที่ 16 พันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    Altera เป็นผู้นำด้าน FPGA ซึ่งมีบทบาทสำคัญในตลาด AI และ embedded systems
    Silver Lake เป็นบริษัทลงทุนที่มีประสบการณ์ในการพลิกฟื้นธุรกิจเทคโนโลยี
    การขายหุ้นช่วยลดภาระค่าใช้จ่ายกว่า 356 ล้านดอลลาร์ต่อปี
    Intel ยังถือหุ้น 49% ใน Altera — มีสิทธิ์ร่วมรับผลประโยชน์ในอนาคต

    คำเตือนและข้อจำกัด
    มูลค่าการขาย Altera ต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงเกือบครึ่ง
    การลดพนักงานอาจกระทบต่อขวัญกำลังใจและความสามารถในการดำเนินงาน
    การพึ่งพาการสนับสนุนจากรัฐบาลอาจมีข้อจำกัดด้านนโยบายในอนาคต
    หาก Intel ไม่สามารถหาลูกค้ารายใหญ่สำหรับเทคโนโลยี 14A ได้ อาจต้องยกเลิกสายการผลิต
    ตลาดชิปยังแข่งขันสูงจากคู่แข่งอย่าง AMD, Nvidia และ TSMC — Intel ต้องเร่งปรับตัว

    https://www.thestar.com.my/tech/tech-news/2025/09/15/intel-lowers-full-year-expense-target
    💸 “Intel ขายหุ้น Altera ลดต้นทุนปี 2025 — พลิกเกมการเงินหลังขาดทุนหนักในยุคก่อน” หลังจากเผชิญกับภาวะขาดทุนครั้งใหญ่ที่สุดในรอบหลายทศวรรษ Intel ได้ตัดสินใจขายหุ้น 51% ของธุรกิจชิปแบบปรับแต่งได้ Altera ให้กับบริษัทเอกชน Silver Lake ด้วยมูลค่า 3.3 พันล้านดอลลาร์ ซึ่งต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงครึ่งหนึ่ง การขายครั้งนี้ไม่ใช่แค่การปลดภาระ แต่เป็นการปรับโครงสร้างองค์กรครั้งใหญ่ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan ผลจากการขายทำให้ Intel ปรับลดเป้าหมายค่าใช้จ่ายในการดำเนินงานปี 2025 ลงเหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้านดอลลาร์ โดยยังคงเป้าหมายปี 2026 ไว้ที่ 16 พันล้านดอลลาร์ การลดค่าใช้จ่ายนี้ช่วยให้ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% และสร้างความมั่นใจให้กับนักลงทุนที่เคยกังวลกับการขาดทุนสะสมกว่า 18.8 พันล้านดอลลาร์ในปี 2024 Altera ซึ่งเคยเป็นหนึ่งในธุรกิจที่ Intel หวังจะใช้ขยายตลาดด้าน programmable chips รายงานรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรกของ 2025 พร้อมกำไรขั้นต้น 55% และค่าใช้จ่ายในการดำเนินงาน 356 ล้านดอลลาร์ การขายหุ้นให้ Silver Lake ทำให้ Intel ไม่ต้องแบกรับค่าใช้จ่ายเหล่านี้อีกต่อไป และสามารถโฟกัสกับธุรกิจหลักได้มากขึ้น นอกจากนี้ Intel ยังมีการปรับโครงสร้างองค์กร เช่น ลดจำนวนพนักงานลงกว่า 20% และเปลี่ยนแปลงทีมบริหาร พร้อมกับการที่รัฐบาลสหรัฐฯ แปลงเงินสนับสนุนในยุค Biden เป็นหุ้น 10% ในบริษัท ซึ่งสะท้อนถึงความพยายามในการฟื้นฟูสถานะทางการเงินและความสามารถในการแข่งขันในตลาดชิปที่ร้อนแรงขึ้นทุกวัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ขายหุ้น 51% ของ Altera ให้ Silver Lake มูลค่า 3.3 พันล้านดอลลาร์ ➡️ ปรับลดเป้าหมายค่าใช้จ่ายปี 2025 เหลือ 16.8 พันล้านดอลลาร์ จากเดิม 17 พันล้าน ➡️ ราคาหุ้น Intel พุ่งขึ้นเกือบ 6% หลังประกาศข่าว ➡️ Altera เคยมีรายได้ 816 ล้านดอลลาร์ในครึ่งปีแรก และกำไรขั้นต้น 55% ✅ การปรับโครงสร้างองค์กร ➡️ CEO คนใหม่ Lip-Bu Tan เน้นลดต้นทุนและปรับโครงสร้าง ➡️ ลดจำนวนพนักงานลงกว่า 20% ภายในสิ้นปี ➡️ รัฐบาลสหรัฐฯ ถือหุ้น 10% ผ่านการแปลงเงินสนับสนุนเป็นทุน ➡️ เป้าหมายปี 2026 ยังคงไว้ที่ 16 พันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Altera เป็นผู้นำด้าน FPGA ซึ่งมีบทบาทสำคัญในตลาด AI และ embedded systems ➡️ Silver Lake เป็นบริษัทลงทุนที่มีประสบการณ์ในการพลิกฟื้นธุรกิจเทคโนโลยี ➡️ การขายหุ้นช่วยลดภาระค่าใช้จ่ายกว่า 356 ล้านดอลลาร์ต่อปี ➡️ Intel ยังถือหุ้น 49% ใน Altera — มีสิทธิ์ร่วมรับผลประโยชน์ในอนาคต ‼️ คำเตือนและข้อจำกัด ⛔ มูลค่าการขาย Altera ต่ำกว่าราคาที่ Intel เคยซื้อไว้ในปี 2015 ถึงเกือบครึ่ง ⛔ การลดพนักงานอาจกระทบต่อขวัญกำลังใจและความสามารถในการดำเนินงาน ⛔ การพึ่งพาการสนับสนุนจากรัฐบาลอาจมีข้อจำกัดด้านนโยบายในอนาคต ⛔ หาก Intel ไม่สามารถหาลูกค้ารายใหญ่สำหรับเทคโนโลยี 14A ได้ อาจต้องยกเลิกสายการผลิต ⛔ ตลาดชิปยังแข่งขันสูงจากคู่แข่งอย่าง AMD, Nvidia และ TSMC — Intel ต้องเร่งปรับตัว https://www.thestar.com.my/tech/tech-news/2025/09/15/intel-lowers-full-year-expense-target
    WWW.THESTAR.COM.MY
    Intel trims full-year expense outlook following Altera stake sale
    (Reuters) - Intel said on Monday it has lowered its full-year 2025 adjusted operating expense target to $16.8 billion, from $17 billion earlier, to reflect the deconsolidation of its programmable chip business, Altera.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ

    Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2

    LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง

    การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ

    แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่

    นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม

    การเปิดตัว Xiaomei โดย Meituan
    เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง
    ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง
    ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน

    ความสามารถของ LongCat
    มีพารามิเตอร์ 560 พันล้านตัว
    ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น
    ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว

    การแข่งขันในตลาดส่งอาหารจีน
    Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI
    JD.com ลงทุนหนักในบริการส่งอาหารทันใจ
    Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี

    ผลกระทบต่อธุรกิจและผู้บริโภค
    ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น
    บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด
    การใช้ AI อาจช่วยลดต้นทุนในระยะยาว

    https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    🎙️ เรื่องเล่าจาก LongCat ถึง Xiaomei: เมื่อ AI กลายเป็นพนักงานส่งอาหารที่พูดได้และคิดแทนคุณ Meituan ซึ่งเป็นหนึ่งในแพลตฟอร์มส่งอาหารและบริการท้องถิ่นที่ใหญ่ที่สุดในจีน ได้เปิดตัว “Xiaomei” แอปผู้ช่วย AI ที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า LongCat โดย Xiaomei สามารถรับคำสั่งเสียงจากผู้ใช้เพื่อสั่งอาหาร จองร้านอาหาร และแนะนำเมนูที่เหมาะกับความชอบของแต่ละคนได้แบบเรียลไทม์2 LongCat ไม่ใช่แค่โมเดลทั่วไป แต่เป็นโมเดลขนาดมหึมาที่มีพารามิเตอร์ถึง 560 พันล้านตัว และใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่เปิดใช้งานเฉพาะส่วนที่จำเป็นในแต่ละบริบท ทำให้สามารถให้คำตอบได้เร็วและแม่นยำโดยใช้พลังงานน้อยลง การเปิดตัว Xiaomei เป็นการตอบโต้โดยตรงต่อการรุกคืบของ Alibaba ที่เพิ่งปรับปรุงระบบแผนที่และแนะนำร้านอาหารด้วย AI เช่นกัน รวมถึง JD.com ที่กำลังลงทุนหนักในบริการส่งอาหารแบบทันใจ แม้ Meituan จะได้เปรียบในด้านฐานผู้ใช้กว่า 770 ล้านคนต่อปี แต่การแข่งขันที่รุนแรงทำให้ทุกบริษัทต้องทุ่มงบมหาศาล เช่น Alibaba ที่เพิ่งประกาศงบส่งเสริมการขายกว่า 140 ล้านดอลลาร์ในสัปดาห์เดียว เพื่อดึงดูดผู้ใช้ใหม่ นักวิเคราะห์มองว่า Xiaomei เป็นตัวอย่างของการใช้ AI เพื่อเพิ่ม engagement และลดต้นทุนการบริการในระยะยาว แต่ก็เตือนว่าการแข่งขันที่รุนแรงอาจทำให้กำไรของทุกฝ่ายลดลง แม้ผู้ใช้จะได้ประโยชน์จากบริการที่ดีขึ้นก็ตาม ✅ การเปิดตัว Xiaomei โดย Meituan ➡️ เป็น AI agent ที่ใช้สั่งอาหาร จองร้าน และแนะนำเมนูผ่านเสียง ➡️ ขับเคลื่อนด้วยโมเดล LongCat ที่พัฒนาโดย Meituan เอง ➡️ ใช้เทคโนโลยี MoE เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน ✅ ความสามารถของ LongCat ➡️ มีพารามิเตอร์ 560 พันล้านตัว ➡️ ใช้ dynamic computation เปิดใช้งานเฉพาะส่วนที่จำเป็น ➡️ ออกแบบให้รองรับข้อความยาวและตอบสนองเร็ว ✅ การแข่งขันในตลาดส่งอาหารจีน ➡️ Alibaba ปรับปรุงระบบแผนที่และแนะนำร้านด้วย AI ➡️ JD.com ลงทุนหนักในบริการส่งอาหารทันใจ ➡️ Meituan มีฐานผู้ใช้กว่า 770 ล้านคนต่อปี ✅ ผลกระทบต่อธุรกิจและผู้บริโภค ➡️ ผู้ใช้ได้รับบริการที่ฉลาดขึ้นและสะดวกขึ้น ➡️ บริษัทต้องลงทุนมหาศาลเพื่อรักษาส่วนแบ่งตลาด ➡️ การใช้ AI อาจช่วยลดต้นทุนในระยะยาว https://www.thestar.com.my/tech/tech-news/2025/09/12/meituan-launches-ai-agent-to-boost-food-delivery-business
    WWW.THESTAR.COM.MY
    Meituan launches AI agent to boost food delivery business
    Meituan has launched a new AI agent app that aims to boost its food delivery and local services business, as its battle with Alibaba Group Holding Ltd for Chinese consumers heats up.
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก”

    Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ

    การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore

    TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด

    บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ

    จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS
    ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ
    ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป
    รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง
    ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer

    บริบทของตลาดเซมิคอนดักเตอร์อินเดีย
    มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030
    รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore
    อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก
    บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย

    ข้อมูลเสริมจากภายนอก
    แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม
    UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ
    HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง
    TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้

    คำเตือนและข้อจำกัด
    การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน
    การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้
    มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต
    บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่
    การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด

    https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    🔧 “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก” Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ ✅ จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS ➡️ ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ ➡️ ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป ➡️ รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง ➡️ ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer ✅ บริบทของตลาดเซมิคอนดักเตอร์อินเดีย ➡️ มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030 ➡️ รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore ➡️ อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก ➡️ บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย ✅ ข้อมูลเสริมจากภายนอก ➡️ แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม ➡️ UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ ➡️ HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง ➡️ TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้ ‼️ คำเตือนและข้อจำกัด ⛔ การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน ⛔ การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้ ⛔ มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต ⛔ บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่ ⛔ การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    WWW.TECHPOWERUP.COM
    TCS Unveils Chiplet-Based System Engineering Services to Accelerate Semiconductor Innovation
    Tata Consultancy Services a global leader in IT services, consulting, and business solutions, announced the launch of its Chiplet-based System Engineering Services, designed to help semiconductor companies push the boundaries of traditional chip design. By using chiplets (which are small integrated ...
    0 ความคิดเห็น 0 การแบ่งปัน 230 มุมมอง 0 รีวิว
  • “Ant Group เปิดตัวหุ่นยนต์ R1 — ก้าวแรกสู่ยุค AI ที่มีร่างกาย พร้อมท้าชน Tesla และ Unitree”

    Ant Group บริษัทฟินเทคชื่อดังที่ได้รับการสนับสนุนจาก Jack Ma ได้เปิดตัวหุ่นยนต์ฮิวแมนนอยด์รุ่นแรกของตนในชื่อ “R1” ผ่านบริษัทลูก Robbyant ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อวันที่ 11 กันยายน 2025 โดยถือเป็นการเข้าสู่สนามแข่งขันด้าน embodied AI อย่างเต็มตัว ซึ่งมีคู่แข่งระดับโลกอย่าง Tesla, Unitree Robotics และบริษัทสตาร์ทอัพอีกมากมาย

    หุ่นยนต์ R1 ถูกออกแบบให้มีความสามารถหลากหลาย เช่น เป็นไกด์นำเที่ยว, คัดแยกยาในร้านขายยา, ให้คำปรึกษาทางการแพทย์ และทำงานครัวพื้นฐาน โดยเน้นการพัฒนา “สมอง” มากกว่ารูปร่าง — Ant Group เชื่อว่าความฉลาดจากโมเดล AI ขนาดใหญ่จะเป็นตัวกำหนดอนาคตของหุ่นยนต์ มากกว่าการออกแบบฮาร์ดแวร์เพียงอย่างเดียว

    R1 มีน้ำหนักประมาณ 110 กิโลกรัม สูงราว 1.6–1.75 เมตร เคลื่อนที่ได้ด้วยความเร็วไม่เกิน 1.5 เมตรต่อวินาที และมีข้อต่อที่เคลื่อนไหวได้ถึง 34 จุด โดยใช้ชิ้นส่วนจากซัพพลายเออร์จีน เช่น Ti5 และ Galaxea AI ซึ่ง Ant Group เป็นผู้สนับสนุน

    นอกจากการเปิดตัว R1 แล้ว Ant ยังอยู่ระหว่างการพัฒนาโมเดลภาษา BaiLing ของตนเอง และทดลองฝึกด้วยชิปที่ผลิตในประเทศจีน เพื่อเสริมความเป็นอิสระด้านเทคโนโลยี AI ของประเทศ

    จุดเด่นของหุ่นยนต์ R1 จาก Ant Group
    เปิดตัวในงาน Inclusion Conference ที่เซี่ยงไฮ้ วันที่ 11 กันยายน 2025
    พัฒนาโดย Robbyant บริษัทลูกของ Ant Group
    มีความสามารถหลากหลาย เช่น ทำงานครัว, เป็นไกด์, คัดแยกยา, ให้คำปรึกษา
    เน้นการพัฒนา “สมอง” ด้วยโมเดล AI มากกว่าการออกแบบฮาร์ดแวร์

    สเปกและการใช้งานของ R1
    น้ำหนัก 110 กิโลกรัม สูง 1.6–1.75 เมตร เคลื่อนที่ได้ไม่เกิน 1.5 เมตร/วินาที
    มีข้อต่อเคลื่อนไหวได้ 34 จุด ใช้ชิ้นส่วนจากซัพพลายเออร์จีน
    อยู่ในขั้นตอนการผลิตและส่งมอบให้ลูกค้า เช่น พิพิธภัณฑ์เซี่ยงไฮ้
    ไม่ขายเป็นเครื่องเดี่ยว แต่เป็น “โซลูชันตามสถานการณ์”

    วิสัยทัศน์ของ Ant Group
    มองหุ่นยนต์เป็นช่องทางขยายบริการดิจิทัลสู่โลกจริง เช่น การเงินและสาธารณสุข
    พัฒนาโมเดลภาษา BaiLing เพื่อใช้กับหุ่นยนต์และบริการ AI
    ทดลองฝึกโมเดลด้วยชิปที่ผลิตในจีนเพื่อลดต้นทุนและพึ่งพาต่างประเทศ
    มุ่งเน้น embodied intelligence เพื่อสร้างหุ่นยนต์ที่เข้าใจและตอบสนองมนุษย์ได้ดีขึ้น

    ข้อมูลเสริมจากภายนอก
    Tesla อยู่ระหว่างพัฒนา Optimus รุ่น 3 ที่มีความคล่องตัวสูงและราคาต่ำ
    Unitree Robotics เป็นผู้นำด้านหุ่นยนต์เคลื่อนที่ในจีน
    Nvidia สนับสนุนหลายบริษัทด้วย Jetson modules และ Isaac Sim
    ตลาด embodied AI กำลังเติบโตอย่างรวดเร็วในภาคการผลิต, โลจิสติกส์ และการดูแลสุขภาพ

    https://www.thestar.com.my/tech/tech-news/2025/09/11/jack-ma-backed-ants-first-humanoid-robot-sheds-light-on-its-ai-ambitions
    🤖 “Ant Group เปิดตัวหุ่นยนต์ R1 — ก้าวแรกสู่ยุค AI ที่มีร่างกาย พร้อมท้าชน Tesla และ Unitree” Ant Group บริษัทฟินเทคชื่อดังที่ได้รับการสนับสนุนจาก Jack Ma ได้เปิดตัวหุ่นยนต์ฮิวแมนนอยด์รุ่นแรกของตนในชื่อ “R1” ผ่านบริษัทลูก Robbyant ในงาน Inclusion Conference ที่เซี่ยงไฮ้เมื่อวันที่ 11 กันยายน 2025 โดยถือเป็นการเข้าสู่สนามแข่งขันด้าน embodied AI อย่างเต็มตัว ซึ่งมีคู่แข่งระดับโลกอย่าง Tesla, Unitree Robotics และบริษัทสตาร์ทอัพอีกมากมาย หุ่นยนต์ R1 ถูกออกแบบให้มีความสามารถหลากหลาย เช่น เป็นไกด์นำเที่ยว, คัดแยกยาในร้านขายยา, ให้คำปรึกษาทางการแพทย์ และทำงานครัวพื้นฐาน โดยเน้นการพัฒนา “สมอง” มากกว่ารูปร่าง — Ant Group เชื่อว่าความฉลาดจากโมเดล AI ขนาดใหญ่จะเป็นตัวกำหนดอนาคตของหุ่นยนต์ มากกว่าการออกแบบฮาร์ดแวร์เพียงอย่างเดียว R1 มีน้ำหนักประมาณ 110 กิโลกรัม สูงราว 1.6–1.75 เมตร เคลื่อนที่ได้ด้วยความเร็วไม่เกิน 1.5 เมตรต่อวินาที และมีข้อต่อที่เคลื่อนไหวได้ถึง 34 จุด โดยใช้ชิ้นส่วนจากซัพพลายเออร์จีน เช่น Ti5 และ Galaxea AI ซึ่ง Ant Group เป็นผู้สนับสนุน นอกจากการเปิดตัว R1 แล้ว Ant ยังอยู่ระหว่างการพัฒนาโมเดลภาษา BaiLing ของตนเอง และทดลองฝึกด้วยชิปที่ผลิตในประเทศจีน เพื่อเสริมความเป็นอิสระด้านเทคโนโลยี AI ของประเทศ ✅ จุดเด่นของหุ่นยนต์ R1 จาก Ant Group ➡️ เปิดตัวในงาน Inclusion Conference ที่เซี่ยงไฮ้ วันที่ 11 กันยายน 2025 ➡️ พัฒนาโดย Robbyant บริษัทลูกของ Ant Group ➡️ มีความสามารถหลากหลาย เช่น ทำงานครัว, เป็นไกด์, คัดแยกยา, ให้คำปรึกษา ➡️ เน้นการพัฒนา “สมอง” ด้วยโมเดล AI มากกว่าการออกแบบฮาร์ดแวร์ ✅ สเปกและการใช้งานของ R1 ➡️ น้ำหนัก 110 กิโลกรัม สูง 1.6–1.75 เมตร เคลื่อนที่ได้ไม่เกิน 1.5 เมตร/วินาที ➡️ มีข้อต่อเคลื่อนไหวได้ 34 จุด ใช้ชิ้นส่วนจากซัพพลายเออร์จีน ➡️ อยู่ในขั้นตอนการผลิตและส่งมอบให้ลูกค้า เช่น พิพิธภัณฑ์เซี่ยงไฮ้ ➡️ ไม่ขายเป็นเครื่องเดี่ยว แต่เป็น “โซลูชันตามสถานการณ์” ✅ วิสัยทัศน์ของ Ant Group ➡️ มองหุ่นยนต์เป็นช่องทางขยายบริการดิจิทัลสู่โลกจริง เช่น การเงินและสาธารณสุข ➡️ พัฒนาโมเดลภาษา BaiLing เพื่อใช้กับหุ่นยนต์และบริการ AI ➡️ ทดลองฝึกโมเดลด้วยชิปที่ผลิตในจีนเพื่อลดต้นทุนและพึ่งพาต่างประเทศ ➡️ มุ่งเน้น embodied intelligence เพื่อสร้างหุ่นยนต์ที่เข้าใจและตอบสนองมนุษย์ได้ดีขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Tesla อยู่ระหว่างพัฒนา Optimus รุ่น 3 ที่มีความคล่องตัวสูงและราคาต่ำ ➡️ Unitree Robotics เป็นผู้นำด้านหุ่นยนต์เคลื่อนที่ในจีน ➡️ Nvidia สนับสนุนหลายบริษัทด้วย Jetson modules และ Isaac Sim ➡️ ตลาด embodied AI กำลังเติบโตอย่างรวดเร็วในภาคการผลิต, โลจิสติกส์ และการดูแลสุขภาพ https://www.thestar.com.my/tech/tech-news/2025/09/11/jack-ma-backed-ants-first-humanoid-robot-sheds-light-on-its-ai-ambitions
    WWW.THESTAR.COM.MY
    Jack Ma-backed Ant's first humanoid robot sheds light on its AI ambitions
    Jack Ma-backed Ant Group Co showcased its first humanoid robot on Sept 11, formally joining an intensifying effort by Chinese companies to compete with the US in commercialising a frontier technology.
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร”

    ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง

    ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง

    Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด

    หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C

    การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก

    การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle
    TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park
    เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง
    ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ
    เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก

    ความสำคัญของ pellicle ใน EUV
    ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง
    ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์
    EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C
    pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง

    เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา
    ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน
    ลด optical absorption และ wavefront distortion
    รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง
    เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm

    ข้อมูลเสริมจากภายนอก
    ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui
    EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ
    ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี
    การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect

    https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    🔬 “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร” ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก ✅ การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle ➡️ TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park ➡️ เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง ➡️ ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ ➡️ เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก ✅ ความสำคัญของ pellicle ใน EUV ➡️ ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง ➡️ ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์ ➡️ EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C ➡️ pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง ✅ เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา ➡️ ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน ➡️ ลด optical absorption และ wavefront distortion ➡️ รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง ➡️ เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm ✅ ข้อมูลเสริมจากภายนอก ➡️ ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui ➡️ EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ ➡️ ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี ➡️ การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    WWW.TECHPOWERUP.COM
    TSMC Repurposing Old Fabs to Bring EUV Pellicle Production In-House
    TSMC is repurposing its old, wound-down, 8-inch Fab 3 in Hsinchu Science Park to produce extreme ultraviolet pellicles, bringing this production in-house. An EUV pellicle is a thin, highly transparent membrane stretched above a photomask to prevent particles from contacting the mask during EUV expos...
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป”

    ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล

    เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว

    ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods

    แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์

    การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง

    วิธีการอัปเกรด RTX 4090 เป็น 48GB
    ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style
    ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่
    ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB
    ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน

    ประสิทธิภาพและการใช้งาน
    สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล
    ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม
    ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU
    ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร

    ข้อมูลเสริมจากภายนอก
    การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39%
    GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning
    PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน
    เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง

    https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    🧠 “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป” ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์ การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง ✅ วิธีการอัปเกรด RTX 4090 เป็น 48GB ➡️ ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style ➡️ ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่ ➡️ ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB ➡️ ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน ✅ ประสิทธิภาพและการใช้งาน ➡️ สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล ➡️ ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม ➡️ ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU ➡️ ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39% ➡️ GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning ➡️ PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน ➡️ เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • ยกระดับธุรกิจหอมเจียวให้ได้กำไรพุ่ง!
    สำหรับเจ้าของธุรกิจที่กำลังมองหาทางเพิ่มยอดผลิต และลดต้นทุนการจ้างคนปอกหอมแดง ต้องไม่พลาด! เครื่องปอกเปลือกแบบใช้น้ำขนาด 10 ลิตร คือคำตอบที่จะทำให้ธุรกิจของคุณเติบโตได้อย่างก้าวกระโดด!

    ทำไมเครื่องนี้ถึงตอบโจทย์ธุรกิจของคุณ?
    เร็วแรงแซงทุกการผลิต! ปอกหอมแดงได้ครั้งละ 5-7 กก. ในเวลาอันรวดเร็ว ทำให้คุณเพิ่มปริมาณการผลิตหอมเจียวได้มากขึ้นหลายเท่าตัว!

    ลดต้นทุนค่าแรง! ไม่ต้องจ้างคนงานจำนวนมากมานั่งปอกมืออีกต่อไป! คุ้มค่าในระยะยาว คืนทุนเร็วอย่างแน่นอน

    งานสะอาด ไม่มีคราบ! เครื่องปอกด้วยระบบน้ำ ทำให้หอมที่ได้สะอาด พร้อมนำไปทอดเป็นหอมเจียวกรอบๆ ได้เลย

    ทนทาน ใช้งานได้ยาวนาน! ตัวเครื่องทำจากสเตนเลสคุณภาพสูง แข็งแรง ทนทานต่อการใช้งานหนักในเชิงพาณิชย์

    มีรับประกัน 1 ปี! หมดห่วงเรื่องการซ่อมบำรุง เราพร้อมดูแลธุรกิจของคุณให้เดินหน้าได้อย่างราบรื่น

    รายละเอียดเครื่อง:
    มอเตอร์: 1 แรงม้า
    ขนาด: 50 x 74.5 x 85 ซม.
    น้ำหนัก: 58 กก.

    อย่าปล่อยให้คู่แข่งแซงหน้า! ลงทุนกับเครื่องปอกเปลือกคุณภาพ เพื่อเพิ่มศักยภาพและกำไรให้ธุรกิจหอมเจียวของคุณวันนี้!

    สนใจสินค้า? แวะมาดูเครื่องจริงได้เลย!
    เรายินดีให้คำแนะนำและช่วยเหลือผู้ประกอบการทุกท่านค่ะ

    เวลาทำการ:

    จันทร์ - ศุกร์: 8.00 - 17.00 น.
    เสาร์: 8.00 - 16.00 น.

    แผนที่ร้าน: https://maps.app.goo.gl/4ppsHfy3NYb1uPPu6
    ช่องทางติดต่อสอบถาม:
    Facebook Messenger: m.me/yonghahheng
    LINE Official Account: @yonghahheng (มี @ ข้างหน้า) หรือคลิก https://lin.ee/HV4lSKp
    โทรศัพท์: 02-215-3515-9 หรือ 081-3189098
    เว็บไซต์: www.yoryonghahheng.com
    อีเมล: sales@yoryonghahheng.com, yonghahheng@gmail.com

    #เครื่องปอกเปลือก #หอมแดง #หอมเจียว #ธุรกิจหอมเจียว #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มผลผลิต #SME #ผู้ประกอบการ #ลงทุนคุ้มค่า #หอมเจียวกรอบ #รับทำหอมเจียว #เครื่องทุ่นแรง #ธุรกิจอาหาร #ทำอาหารขาย #yonghahheng #เครื่องครัว #อุปกรณ์ทำครัว #ร้านอาหาร #โรงงานอาหาร
    🚀 ยกระดับธุรกิจหอมเจียวให้ได้กำไรพุ่ง! 🧅✨ สำหรับเจ้าของธุรกิจที่กำลังมองหาทางเพิ่มยอดผลิต และลดต้นทุนการจ้างคนปอกหอมแดง ต้องไม่พลาด! เครื่องปอกเปลือกแบบใช้น้ำขนาด 10 ลิตร คือคำตอบที่จะทำให้ธุรกิจของคุณเติบโตได้อย่างก้าวกระโดด! 🔥 ทำไมเครื่องนี้ถึงตอบโจทย์ธุรกิจของคุณ? 🔥 ✅ เร็วแรงแซงทุกการผลิต! ปอกหอมแดงได้ครั้งละ 5-7 กก. ในเวลาอันรวดเร็ว ทำให้คุณเพิ่มปริมาณการผลิตหอมเจียวได้มากขึ้นหลายเท่าตัว! ✅ ลดต้นทุนค่าแรง! ไม่ต้องจ้างคนงานจำนวนมากมานั่งปอกมืออีกต่อไป! คุ้มค่าในระยะยาว คืนทุนเร็วอย่างแน่นอน ✅ งานสะอาด ไม่มีคราบ! เครื่องปอกด้วยระบบน้ำ ทำให้หอมที่ได้สะอาด พร้อมนำไปทอดเป็นหอมเจียวกรอบๆ ได้เลย ✅ ทนทาน ใช้งานได้ยาวนาน! ตัวเครื่องทำจากสเตนเลสคุณภาพสูง แข็งแรง ทนทานต่อการใช้งานหนักในเชิงพาณิชย์ ✅ มีรับประกัน 1 ปี! หมดห่วงเรื่องการซ่อมบำรุง เราพร้อมดูแลธุรกิจของคุณให้เดินหน้าได้อย่างราบรื่น รายละเอียดเครื่อง: มอเตอร์: 1 แรงม้า ขนาด: 50 x 74.5 x 85 ซม. น้ำหนัก: 58 กก. ✨ อย่าปล่อยให้คู่แข่งแซงหน้า! ลงทุนกับเครื่องปอกเปลือกคุณภาพ เพื่อเพิ่มศักยภาพและกำไรให้ธุรกิจหอมเจียวของคุณวันนี้! ✨ 📍 สนใจสินค้า? แวะมาดูเครื่องจริงได้เลย! เรายินดีให้คำแนะนำและช่วยเหลือผู้ประกอบการทุกท่านค่ะ 🗓️ เวลาทำการ: จันทร์ - ศุกร์: 8.00 - 17.00 น. เสาร์: 8.00 - 16.00 น. 🗺️ แผนที่ร้าน: https://maps.app.goo.gl/4ppsHfy3NYb1uPPu6 💬 ช่องทางติดต่อสอบถาม: Facebook Messenger: m.me/yonghahheng LINE Official Account: @yonghahheng (มี @ ข้างหน้า) หรือคลิก https://lin.ee/HV4lSKp 📞 โทรศัพท์: 02-215-3515-9 หรือ 081-3189098 🌐 เว็บไซต์: www.yoryonghahheng.com 📧 อีเมล: sales@yoryonghahheng.com, yonghahheng@gmail.com #เครื่องปอกเปลือก #หอมแดง #หอมเจียว #ธุรกิจหอมเจียว #เครื่องจักรอาหาร #ลดต้นทุน #เพิ่มผลผลิต #SME #ผู้ประกอบการ #ลงทุนคุ้มค่า #หอมเจียวกรอบ #รับทำหอมเจียว #เครื่องทุ่นแรง #ธุรกิจอาหาร #ทำอาหารขาย #yonghahheng #เครื่องครัว #อุปกรณ์ทำครัว #ร้านอาหาร #โรงงานอาหาร
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 247 มุมมอง 0 รีวิว
  • “Neuralink ผ่าน 2,000 วันใช้งานจริง! ผู้ป่วยควบคุมคอมพิวเตอร์ด้วยความคิด — ก้าวใหม่ของเทคโนโลยีเชื่อมสมองกับเครื่องจักร”

    ลองจินตนาการว่าคุณสามารถควบคุมคอมพิวเตอร์ได้ด้วยความคิด โดยไม่ต้องขยับมือหรือพูดออกมา — นั่นคือสิ่งที่ Neuralink บริษัทของ Elon Musk กำลังทำให้เป็นจริง และล่าสุดได้ประกาศว่า มีผู้ป่วย 12 คนทั่วโลกที่ใช้อุปกรณ์ฝังสมองของบริษัทมาแล้วรวมกันกว่า 2,000 วัน หรือกว่า 15,000 ชั่วโมง

    หนึ่งในผู้ใช้ที่โด่งดังที่สุดคือ Noland Arbaugh ผู้ที่เป็นอัมพาตจากอุบัติเหตุทางน้ำในปี 2016 และได้รับการฝังชิป Neuralink ในปี 2024 หลังจากนั้นเขาสามารถเล่นวิดีโอเกม เรียนภาษา และควบคุมอุปกรณ์ต่างๆ ด้วยความคิดเพียงอย่างเดียว

    การประกาศครั้งนี้เกิดขึ้นหลังจาก Neuralink เริ่มการทดลองทางคลินิกนอกสหรัฐฯ เป็นครั้งแรก โดยฝังชิปให้ผู้ป่วยอัมพาต 2 คนในแคนาดาเมื่อปลายเดือนสิงหาคมและต้นกันยายน 2025 ที่โรงพยาบาล Toronto Western Hospital ภายใต้โครงการ CAN-PRIME ซึ่งมีเป้าหมายเพื่อศึกษาความปลอดภัยและประสิทธิภาพของการควบคุมอุปกรณ์ด้วยความคิด

    ผู้ป่วยทั้งสองสามารถควบคุมเคอร์เซอร์บนหน้าจอได้ภายในไม่กี่นาทีหลังการผ่าตัด โดยใช้สัญญาณจากสมองที่ถูกถอดรหัสผ่าน AI และแปลงเป็นการเคลื่อนไหวบนหน้าจอ — เป็นการข้ามขั้นตอนการเคลื่อนไหวทางกายภาพโดยสิ้นเชิง

    นอกจากแคนาดา Neuralink ยังได้รับอนุมัติจากหน่วยงานในสหราชอาณาจักรเพื่อเริ่มการทดลองทางคลินิก GB-PRIME ซึ่งจะศึกษาการใช้งานชิปในผู้ป่วยอัมพาตเช่นกัน โดยมีเป้าหมายระยะยาวในการฟื้นฟูการพูด การมองเห็น และความสามารถในการสื่อสารของผู้ป่วย

    ความคืบหน้าของ Neuralink
    มีผู้ใช้ 12 คนทั่วโลก ใช้งานรวมกันกว่า 2,000 วัน และ 15,335 ชั่วโมง
    ผู้ใช้รายแรก Noland Arbaugh สามารถเล่นเกมและเรียนภาษาได้ด้วยความคิด
    การใช้งานจริงเริ่มตั้งแต่ปี 2024 หลังได้รับอนุมัติจาก FDA

    การทดลองทางคลินิกในแคนาดา
    ฝังชิปให้ผู้ป่วยอัมพาต 2 คนที่ Toronto Western Hospital
    ผู้ป่วยสามารถควบคุมเคอร์เซอร์ได้ภายในไม่กี่นาทีหลังผ่าตัด
    ใช้ AI ถอดรหัสสัญญาณสมองและแปลงเป็นการเคลื่อนไหว
    โครงการ CAN-PRIME มุ่งเน้นความปลอดภัยและความสามารถในการใช้งานจริง

    การขยายตัวระดับโลก
    ได้รับอนุมัติจากสหราชอาณาจักรเพื่อเริ่มโครงการ GB-PRIME
    เป้าหมายคือการฟื้นฟูการสื่อสาร การมองเห็น และการเคลื่อนไหว
    มีแผนลดต้นทุนการฝังชิปให้เหลือเพียงไม่กี่พันดอลลาร์ในอนาคต
    ใช้หุ่นยนต์ผ่าตัดเฉพาะทางในการฝังอุปกรณ์

    ข้อมูลเสริมจากภายนอก
    ผู้ป่วยในแคนาดาอายุประมาณ 30 ปี มีอาการอัมพาตจากการบาดเจ็บไขสันหลัง
    อุปกรณ์ฝังในสมองส่วนควบคุมการเคลื่อนไหว (motor cortex)
    บริษัทอื่นเช่น Synchron ก็พัฒนาเทคโนโลยี BCI เช่นกัน
    ผู้ป่วยรายแรกเคยมีปัญหาชิปหลุดหลังผ่าตัด แต่กลับมาใช้งานได้อีกครั้ง

    https://wccftech.com/elon-musks-brain-chip-firm-neuralink-says-its-12-patients-have-used-chips-for-2000-days/
    🧠 “Neuralink ผ่าน 2,000 วันใช้งานจริง! ผู้ป่วยควบคุมคอมพิวเตอร์ด้วยความคิด — ก้าวใหม่ของเทคโนโลยีเชื่อมสมองกับเครื่องจักร” ลองจินตนาการว่าคุณสามารถควบคุมคอมพิวเตอร์ได้ด้วยความคิด โดยไม่ต้องขยับมือหรือพูดออกมา — นั่นคือสิ่งที่ Neuralink บริษัทของ Elon Musk กำลังทำให้เป็นจริง และล่าสุดได้ประกาศว่า มีผู้ป่วย 12 คนทั่วโลกที่ใช้อุปกรณ์ฝังสมองของบริษัทมาแล้วรวมกันกว่า 2,000 วัน หรือกว่า 15,000 ชั่วโมง หนึ่งในผู้ใช้ที่โด่งดังที่สุดคือ Noland Arbaugh ผู้ที่เป็นอัมพาตจากอุบัติเหตุทางน้ำในปี 2016 และได้รับการฝังชิป Neuralink ในปี 2024 หลังจากนั้นเขาสามารถเล่นวิดีโอเกม เรียนภาษา และควบคุมอุปกรณ์ต่างๆ ด้วยความคิดเพียงอย่างเดียว การประกาศครั้งนี้เกิดขึ้นหลังจาก Neuralink เริ่มการทดลองทางคลินิกนอกสหรัฐฯ เป็นครั้งแรก โดยฝังชิปให้ผู้ป่วยอัมพาต 2 คนในแคนาดาเมื่อปลายเดือนสิงหาคมและต้นกันยายน 2025 ที่โรงพยาบาล Toronto Western Hospital ภายใต้โครงการ CAN-PRIME ซึ่งมีเป้าหมายเพื่อศึกษาความปลอดภัยและประสิทธิภาพของการควบคุมอุปกรณ์ด้วยความคิด ผู้ป่วยทั้งสองสามารถควบคุมเคอร์เซอร์บนหน้าจอได้ภายในไม่กี่นาทีหลังการผ่าตัด โดยใช้สัญญาณจากสมองที่ถูกถอดรหัสผ่าน AI และแปลงเป็นการเคลื่อนไหวบนหน้าจอ — เป็นการข้ามขั้นตอนการเคลื่อนไหวทางกายภาพโดยสิ้นเชิง นอกจากแคนาดา Neuralink ยังได้รับอนุมัติจากหน่วยงานในสหราชอาณาจักรเพื่อเริ่มการทดลองทางคลินิก GB-PRIME ซึ่งจะศึกษาการใช้งานชิปในผู้ป่วยอัมพาตเช่นกัน โดยมีเป้าหมายระยะยาวในการฟื้นฟูการพูด การมองเห็น และความสามารถในการสื่อสารของผู้ป่วย ✅ ความคืบหน้าของ Neuralink ➡️ มีผู้ใช้ 12 คนทั่วโลก ใช้งานรวมกันกว่า 2,000 วัน และ 15,335 ชั่วโมง ➡️ ผู้ใช้รายแรก Noland Arbaugh สามารถเล่นเกมและเรียนภาษาได้ด้วยความคิด ➡️ การใช้งานจริงเริ่มตั้งแต่ปี 2024 หลังได้รับอนุมัติจาก FDA ✅ การทดลองทางคลินิกในแคนาดา ➡️ ฝังชิปให้ผู้ป่วยอัมพาต 2 คนที่ Toronto Western Hospital ➡️ ผู้ป่วยสามารถควบคุมเคอร์เซอร์ได้ภายในไม่กี่นาทีหลังผ่าตัด ➡️ ใช้ AI ถอดรหัสสัญญาณสมองและแปลงเป็นการเคลื่อนไหว ➡️ โครงการ CAN-PRIME มุ่งเน้นความปลอดภัยและความสามารถในการใช้งานจริง ✅ การขยายตัวระดับโลก ➡️ ได้รับอนุมัติจากสหราชอาณาจักรเพื่อเริ่มโครงการ GB-PRIME ➡️ เป้าหมายคือการฟื้นฟูการสื่อสาร การมองเห็น และการเคลื่อนไหว ➡️ มีแผนลดต้นทุนการฝังชิปให้เหลือเพียงไม่กี่พันดอลลาร์ในอนาคต ➡️ ใช้หุ่นยนต์ผ่าตัดเฉพาะทางในการฝังอุปกรณ์ ✅ ข้อมูลเสริมจากภายนอก ➡️ ผู้ป่วยในแคนาดาอายุประมาณ 30 ปี มีอาการอัมพาตจากการบาดเจ็บไขสันหลัง ➡️ อุปกรณ์ฝังในสมองส่วนควบคุมการเคลื่อนไหว (motor cortex) ➡️ บริษัทอื่นเช่น Synchron ก็พัฒนาเทคโนโลยี BCI เช่นกัน ➡️ ผู้ป่วยรายแรกเคยมีปัญหาชิปหลุดหลังผ่าตัด แต่กลับมาใช้งานได้อีกครั้ง https://wccftech.com/elon-musks-brain-chip-firm-neuralink-says-its-12-patients-have-used-chips-for-2000-days/
    WCCFTECH.COM
    Elon Musk's Brain Chip Firm Neuralink Says Its 12 Patients Have Used Chips For 2,000 Days!
    Neuralink announces 12 patients using its Brain Computer Interfaces, with 15,335 hours of cumulative usage.
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!”

    ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด

    JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ

    จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล

    เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters

    ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ

    JetStream คืออะไร
    เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ
    รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด
    ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix
    ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS

    ประสิทธิภาพที่ได้จาก JetStream
    เพิ่มความเร็วการ inference ได้ถึง 10 เท่า
    ลดต้นทุนต่อคำตอบได้ 3 เท่า
    ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions
    รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B

    การติดตั้งและใช้งาน
    มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน
    ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center
    เหมาะกับการใช้งานใน hyperscale cloud และ private cloud
    ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025

    ข้อมูลเสริมจากภายนอก
    d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC)
    Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ
    Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node
    JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่

    https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    🚀 “JetStream จาก d-Matrix: การ์ด I/O ที่เปลี่ยนเกม AI inference ให้เร็วขึ้น 10 เท่า!” ลองจินตนาการว่าคุณกำลังรันโมเดล AI ขนาดมหึมา เช่น Llama70B หรือ GPT-4 บนเซิร์ฟเวอร์หลายเครื่องพร้อมกัน แล้วพบว่าแม้จะมีชิปประมวลผลแรงแค่ไหน ก็ยังติดคอขวดที่ระบบเครือข่าย — นั่นคือปัญหาที่ JetStream จาก d-Matrix เข้ามาแก้แบบตรงจุด JetStream คือการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบมาเพื่อเร่งความเร็วการสื่อสารระหว่างเซิร์ฟเวอร์ในงาน AI inference โดยเฉพาะ โดยสามารถส่งข้อมูลได้สูงสุดถึง 400Gbps และทำงานร่วมกับ Corsair compute accelerator และ Aviator software ของ d-Matrix ได้อย่างไร้รอยต่อ จุดเด่นของ JetStream คือการเป็น “Transparent NIC” ที่ใช้การสื่อสารแบบ peer-to-peer ระหว่างอุปกรณ์โดยไม่ต้องผ่าน CPU หรือระบบปฏิบัติการ — ลด latency ได้อย่างมหาศาล และทำให้การ inference ข้ามเครื่องเป็นไปอย่างลื่นไหล เมื่อใช้งานร่วมกับ Corsair และ Aviator แล้ว JetStream สามารถเพิ่มความเร็วได้ถึง 10 เท่า ลดต้นทุนต่อคำตอบ (cost-per-token) ได้ 3 เท่า และประหยัดพลังงานได้อีก 3 เท่า เมื่อเทียบกับระบบที่ใช้ GPU แบบเดิมในการ inference โมเดลขนาด 100B+ parameters ที่สำคัญคือ JetStream ใช้พอร์ต Ethernet มาตรฐานทั่วไป ทำให้สามารถติดตั้งใน data center ที่มีอยู่แล้วได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างเครือข่าย — ถือเป็นการออกแบบที่ “พร้อมใช้งานจริง” ไม่ใช่แค่แนวคิดในห้องแล็บ ✅ JetStream คืออะไร ➡️ เป็นการ์ด I/O แบบ PCIe Gen5 ที่ออกแบบเพื่อ AI inference โดยเฉพาะ ➡️ รองรับความเร็วสูงสุด 400Gbps ต่อการ์ด ➡️ ทำงานร่วมกับ Corsair accelerator และ Aviator software ของ d-Matrix ➡️ ใช้การสื่อสารแบบ peer-to-peer โดยไม่ผ่าน CPU หรือ OS ✅ ประสิทธิภาพที่ได้จาก JetStream ➡️ เพิ่มความเร็วการ inference ได้ถึง 10 เท่า ➡️ ลดต้นทุนต่อคำตอบได้ 3 เท่า ➡️ ประหยัดพลังงานได้ 3 เท่า เมื่อเทียบกับ GPU-based solutions ➡️ รองรับโมเดลขนาดใหญ่กว่า 100B parameters เช่น Llama70B ✅ การติดตั้งและใช้งาน ➡️ มาในรูปแบบ PCIe full-height card ขนาดมาตรฐาน ➡️ ใช้พอร์ต Ethernet ทั่วไป — ไม่ต้องเปลี่ยนโครงสร้าง data center ➡️ เหมาะกับการใช้งานใน hyperscale cloud และ private cloud ➡️ ตัวอย่างพร้อมใช้งานแล้ว และจะเริ่มผลิตจริงภายในสิ้นปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ d-Matrix เป็นผู้บุกเบิกด้าน Digital In-Memory Computing (DIMC) ➡️ Corsair ใช้สถาปัตยกรรม chiplet ที่ออกแบบมาเพื่อ inference โดยเฉพาะ ➡️ Aviator เป็น software stack ที่ช่วยจัดการ pipeline inference แบบ multi-node ➡️ JetStream ช่วยลด bottleneck ด้านเครือข่ายที่มักเกิดในงาน AI ขนาดใหญ่ https://www.techpowerup.com/340786/d-matrix-announces-jetstream-i-o-accelerators-enabling-ultra-low-latency-for-ai-inference-at-scale
    WWW.TECHPOWERUP.COM
    d-Matrix Announces JetStream I/O Accelerators Enabling Ultra-Low Latency for AI Inference at Scale
    d-Matrix today announced the expansion of its AI product portfolio with d-Matrix JetStream, a custom I/O card designed from the ground up to deliver industry-leading, data center-scale AI inference. With millions of people now using AI services - and the rise of agentic AI, reasoning, and multi-moda...
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • “Decisioninator: กล่องไม้เล็กๆ ที่ช่วย ‘รักษาชีวิตคู่’ ด้วย Raspberry Pi และ Flutter!”

    ลองนึกภาพว่าคุณกับคนรักกำลังเถียงกันเรื่องเดิมๆ เช่น “จะกินอะไรดีคืนนี้?” หรือ “ดูหนังเรื่องไหนดี?” แล้วคำตอบก็วนอยู่ที่ “อะไรก็ได้” จนกลายเป็นความอึดอัดสะสม…นั่นคือจุดเริ่มต้นของโปรเจกต์สุดสร้างสรรค์จากวิศวกรซอฟต์แวร์ที่ใช้ชื่อว่า Makerinator ผู้ซึ่งกล่าวติดตลกว่า “Decisioninator ช่วยรักษาชีวิตแต่งงานของผมไว้ได้!”

    เครื่องนี้คือกล่องไม้ขนาดเล็กสไตล์ตู้เกมยุค 80 ที่ภายในซ่อนพลังของ Raspberry Pi 4 พร้อมระบบปฏิบัติการ Raspberry Pi OS Lite และแอปที่สร้างด้วย Flutter + Flame Engine ซึ่งเป็น game engine สำหรับ 2D UI ที่เหมาะกับการสร้างระบบหมุนแบบวงล้อคล้าย Wheel of Fortune

    ตัวเครื่องมีปุ่มสองปุ่ม: ปุ่มแดงใหญ่สำหรับหมุนวงล้อ และปุ่มน้ำเงินเล็กสำหรับเลือกโหมด เช่น ร้านอาหาร, งานบ้าน, คืนออกเดต, หรือดูหนัง โดยทั้งหมดนี้ถูกออกแบบให้ใช้งานง่ายและ “ตัดสินใจแทนคุณ” ในเรื่องที่มักกลายเป็นปัญหาเล็กๆ ที่สะสมจนกลายเป็นเรื่องใหญ่

    Makerinator ยังเล่าว่าเขาไม่ใช่ช่างไม้มืออาชีพ แต่สามารถเลเซอร์คัตแผ่นไม้, พ่นสี, แปะลายด้วยการพิมพ์แบบ sublimation และใช้ epoxy กับเครื่องมือโรตารี่เพื่อแก้ปัญหาการประกอบที่ผิดพลาด — จนออกมาเป็นเครื่องที่ดูดีแบบเรโทร และใช้งานได้จริง

    จุดเริ่มต้นของ Decisioninator
    สร้างขึ้นเพื่อแก้ปัญหาการตัดสินใจในชีวิตคู่ เช่น กินอะไรดี ดูอะไรดี
    ใช้ Raspberry Pi 4 เป็นแกนหลักของระบบ
    รันระบบปฏิบัติการ Raspberry Pi OS Lite เพื่อประหยัดทรัพยากร
    ใช้ Flutter + Flame Engine ในการสร้าง UI แบบวงล้อหมุน

    ฟีเจอร์ของเครื่อง
    มีปุ่มแดงสำหรับหมุน และปุ่มน้ำเงินสำหรับเลือกโหมด
    โหมดที่มีให้เลือก: ร้านอาหาร, งานบ้าน, คืนออกเดต, ดูหนัง
    ใช้ GPIO ของ Pi ในการรับอินพุตจากปุ่ม
    ใช้ converter 12V → 5V เพื่อจ่ายไฟให้ Raspberry Pi

    งานประกอบและดีไซน์
    ตัวเครื่องทำจากไม้ที่เลเซอร์คัตและประกอบด้วยมือ
    ใช้ epoxy และเครื่องมือโรตารี่ในการแก้ปัญหาการประกอบ
    พ่นสีและแปะลายด้วยการพิมพ์แบบ sublimation
    ดีไซน์คล้ายตู้เกมยุค 80 เช่น Tempest หรือ Tron

    ข้อมูลเสริมจากภายนอก
    Flame Engine เป็น game engine สำหรับ Flutter ที่เน้นงาน 2D
    Flutter-Pi เป็น library ที่ช่วยให้ Flutter รันบน Raspberry Pi ได้
    Raspberry Pi GPIO รองรับการเชื่อมต่อกับปุ่ม, LED, และเซ็นเซอร์ต่างๆ
    การใช้ Raspberry Pi ในงาน DIY ช่วยลดต้นทุนและเพิ่มความยืดหยุ่น

    https://www.tomshardware.com/raspberry-pi/the-decisioninator-saved-my-marriage-says-software-engineer-raspberry-pi-powered-device-automates-restaurant-chore-date-night-and-movie-night-choices
    🎰 “Decisioninator: กล่องไม้เล็กๆ ที่ช่วย ‘รักษาชีวิตคู่’ ด้วย Raspberry Pi และ Flutter!” ลองนึกภาพว่าคุณกับคนรักกำลังเถียงกันเรื่องเดิมๆ เช่น “จะกินอะไรดีคืนนี้?” หรือ “ดูหนังเรื่องไหนดี?” แล้วคำตอบก็วนอยู่ที่ “อะไรก็ได้” จนกลายเป็นความอึดอัดสะสม…นั่นคือจุดเริ่มต้นของโปรเจกต์สุดสร้างสรรค์จากวิศวกรซอฟต์แวร์ที่ใช้ชื่อว่า Makerinator ผู้ซึ่งกล่าวติดตลกว่า “Decisioninator ช่วยรักษาชีวิตแต่งงานของผมไว้ได้!” เครื่องนี้คือกล่องไม้ขนาดเล็กสไตล์ตู้เกมยุค 80 ที่ภายในซ่อนพลังของ Raspberry Pi 4 พร้อมระบบปฏิบัติการ Raspberry Pi OS Lite และแอปที่สร้างด้วย Flutter + Flame Engine ซึ่งเป็น game engine สำหรับ 2D UI ที่เหมาะกับการสร้างระบบหมุนแบบวงล้อคล้าย Wheel of Fortune ตัวเครื่องมีปุ่มสองปุ่ม: ปุ่มแดงใหญ่สำหรับหมุนวงล้อ และปุ่มน้ำเงินเล็กสำหรับเลือกโหมด เช่น ร้านอาหาร, งานบ้าน, คืนออกเดต, หรือดูหนัง โดยทั้งหมดนี้ถูกออกแบบให้ใช้งานง่ายและ “ตัดสินใจแทนคุณ” ในเรื่องที่มักกลายเป็นปัญหาเล็กๆ ที่สะสมจนกลายเป็นเรื่องใหญ่ Makerinator ยังเล่าว่าเขาไม่ใช่ช่างไม้มืออาชีพ แต่สามารถเลเซอร์คัตแผ่นไม้, พ่นสี, แปะลายด้วยการพิมพ์แบบ sublimation และใช้ epoxy กับเครื่องมือโรตารี่เพื่อแก้ปัญหาการประกอบที่ผิดพลาด — จนออกมาเป็นเครื่องที่ดูดีแบบเรโทร และใช้งานได้จริง ✅ จุดเริ่มต้นของ Decisioninator ➡️ สร้างขึ้นเพื่อแก้ปัญหาการตัดสินใจในชีวิตคู่ เช่น กินอะไรดี ดูอะไรดี ➡️ ใช้ Raspberry Pi 4 เป็นแกนหลักของระบบ ➡️ รันระบบปฏิบัติการ Raspberry Pi OS Lite เพื่อประหยัดทรัพยากร ➡️ ใช้ Flutter + Flame Engine ในการสร้าง UI แบบวงล้อหมุน ✅ ฟีเจอร์ของเครื่อง ➡️ มีปุ่มแดงสำหรับหมุน และปุ่มน้ำเงินสำหรับเลือกโหมด ➡️ โหมดที่มีให้เลือก: ร้านอาหาร, งานบ้าน, คืนออกเดต, ดูหนัง ➡️ ใช้ GPIO ของ Pi ในการรับอินพุตจากปุ่ม ➡️ ใช้ converter 12V → 5V เพื่อจ่ายไฟให้ Raspberry Pi ✅ งานประกอบและดีไซน์ ➡️ ตัวเครื่องทำจากไม้ที่เลเซอร์คัตและประกอบด้วยมือ ➡️ ใช้ epoxy และเครื่องมือโรตารี่ในการแก้ปัญหาการประกอบ ➡️ พ่นสีและแปะลายด้วยการพิมพ์แบบ sublimation ➡️ ดีไซน์คล้ายตู้เกมยุค 80 เช่น Tempest หรือ Tron ✅ ข้อมูลเสริมจากภายนอก ➡️ Flame Engine เป็น game engine สำหรับ Flutter ที่เน้นงาน 2D ➡️ Flutter-Pi เป็น library ที่ช่วยให้ Flutter รันบน Raspberry Pi ได้ ➡️ Raspberry Pi GPIO รองรับการเชื่อมต่อกับปุ่ม, LED, และเซ็นเซอร์ต่างๆ ➡️ การใช้ Raspberry Pi ในงาน DIY ช่วยลดต้นทุนและเพิ่มความยืดหยุ่น https://www.tomshardware.com/raspberry-pi/the-decisioninator-saved-my-marriage-says-software-engineer-raspberry-pi-powered-device-automates-restaurant-chore-date-night-and-movie-night-choices
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
Pages Boosts