• “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต”

    ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม

    OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s

    ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU

    จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23%

    แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง

    ข้อมูลสำคัญจากข่าว
    OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล
    รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s
    Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล
    OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s
    ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14%
    เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%)
    Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน
    Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว

    ข้อมูลเสริมจากภายนอก
    OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU
    Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s
    eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย
    OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output
    โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง

    https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    ⚡ “OCuLink แซง Thunderbolt 5 ในการทดสอบ RTX 5070 Ti — เกมเมอร์สาย eGPU อาจต้องคิดใหม่ก่อนเลือกพอร์ต” ในยุคที่การใช้ eGPU (external GPU) กลายเป็นทางเลือกยอดนิยมสำหรับผู้ใช้โน้ตบุ๊กและพีซีขนาดเล็ก คำถามสำคัญคือ “จะเชื่อมต่อผ่านอะไรดีที่สุด?” ล่าสุดเว็บไซต์ Tom’s Hardware ได้เผยผลการทดสอบที่ชี้ชัดว่า OCuLink ซึ่งเป็นการเชื่อมต่อแบบ PCIe โดยตรง ให้ประสิทธิภาพเหนือกว่า Thunderbolt 5 อย่างชัดเจน โดยเฉพาะในการเล่นเกม OCuLink (Optical-Copper Link) เป็นมาตรฐานที่พัฒนาโดย PCI-SIG เพื่อเชื่อมต่ออุปกรณ์ผ่าน PCIe โดยตรง โดยไม่ต้องผ่านการแปลงโปรโตคอลเหมือน Thunderbolt หรือ USB ซึ่งช่วยลด latency และเพิ่มประสิทธิภาพการส่งข้อมูล โดย OCuLink รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุดถึง 64 GT/s ในทางกลับกัน Thunderbolt 5 แม้จะมีฟีเจอร์ครบครัน เช่น การชาร์จไฟ การส่งภาพ และการเชื่อมต่อ USB ผ่านสายเดียว แต่ก็ต้องแลกกับ overhead จากการแปลงโปรโตคอล ซึ่งส่งผลให้ประสิทธิภาพลดลง โดยเฉพาะในงานที่ต้องการแบนด์วิดธ์สูงและ latency ต่ำ เช่น การเล่นเกมผ่าน eGPU จากการทดสอบด้วย RTX 5070 Ti พบว่า OCuLink ให้ค่า throughput สูงถึง 6.6 GB/s (host-to-device) และ 6.7 GB/s (device-to-host) ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6 และ 5.8 GB/s ตามลำดับ และเมื่อทดสอบเกมจริง 12 เกม Thunderbolt 5 มีค่า FPS เฉลี่ยต่ำกว่า OCuLink ถึง 13–14% โดยเฉพาะในเกมที่ใช้กราฟิกหนัก เช่น Spider-Man: Miles Morales และ Red Dead Redemption 2 ซึ่ง Thunderbolt 5 แพ้ถึง 20–23% แม้ Thunderbolt 5 จะสะดวกกว่าในแง่การใช้งานทั่วไป แต่สำหรับผู้ใช้ที่ต้องการประสิทธิภาพสูงสุดในการเล่นเกมผ่าน eGPU OCuLink ยังคงเป็นตัวเลือกที่แรงกว่า — แม้จะยังไม่แพร่หลายในตลาดทั่วไป และต้องใช้ฮาร์ดแวร์เฉพาะทาง ✅ ข้อมูลสำคัญจากข่าว ➡️ OCuLink เป็นการเชื่อมต่อแบบ PCIe โดยตรง ไม่ผ่านการแปลงโปรโตคอล ➡️ รองรับ PCIe 3.0 และ 4.0 แบบ 4 เลน ให้แบนด์วิดธ์สูงสุด 64 GT/s ➡️ Thunderbolt 5 รองรับ PCIe 4.0 x4 เช่นกัน แต่มี overhead จากการแปลงโปรโตคอล ➡️ OCuLink ให้ throughput สูงถึง 6.6–6.7 GB/s ขณะที่ Thunderbolt 5 ทำได้เพียง 5.6–5.8 GB/s ➡️ ในการทดสอบเกม 12 เกม Thunderbolt 5 มี FPS ต่ำกว่า OCuLink เฉลี่ย 13–14% ➡️ เกมที่ Thunderbolt 5 แพ้หนัก ได้แก่ Spider-Man: Miles Morales (-20%) และ Red Dead Redemption 2 (-23%) ➡️ Ghost of Tsushima เป็นเกมเดียวที่ทั้งสามระบบทำได้ 120 FPS เท่ากัน ➡️ Thunderbolt 5 ยังมีข้อดีด้านความสะดวก เช่น การชาร์จไฟและส่งภาพผ่านสายเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ OCuLink เคยใช้ในเซิร์ฟเวอร์และ SSD มาก่อน ก่อนถูกนำมาใช้กับ GPU ➡️ Thunderbolt 5 มีฟีเจอร์ใหม่ เช่น การชาร์จ 240W และส่งภาพระดับ 120 GT/s ➡️ eGPU ที่ใช้ Thunderbolt 5 เช่น Peladn Link S-3 มีพอร์ตหลากหลายแต่ยังมีข้อจำกัดด้านสาย ➡️ OCuLink ไม่รองรับการ hot-swap และไม่มีฟีเจอร์ USB หรือ video output ➡️ โน้ตบุ๊กที่รองรับ OCuLink ยังมีน้อยมาก ส่วนใหญ่ต้องใช้กับพีซีหรือ mini-PC เฉพาะทาง https://www.tomshardware.com/pc-components/gpus/oculink-outpaces-thunderbolt-5-in-nvidia-rtx-5070-ti-tests-latter-up-to-14-percent-slower-on-average-in-gaming-benchmarks
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • “Ivanpah: โรงไฟฟ้าพลังงานแสงอาทิตย์มูลค่า 2.2 พันล้านดอลลาร์ในแคลิฟอร์เนีย เตรียมปิดตัวในปี 2026 — บทเรียนจากเทคโนโลยีที่ล้าสมัยเร็วเกินไป”

    หากคุณเคยขับรถผ่าน Interstate 15 ระหว่างลอสแอนเจลิสกับลาสเวกัส คุณอาจเคยเห็นแสงสะท้อนจากหอคอยสูง 459 ฟุต 3 ต้นกลางทะเลทรายโมฮาวี นั่นคือ Ivanpah Solar Electric Generating System — โรงไฟฟ้าพลังงานแสงอาทิตย์ขนาดมหึมาที่เคยเป็นความหวังของวงการพลังงานสะอาดในสหรัฐฯ

    เปิดใช้งานในปี 2014 ด้วยงบประมาณกว่า 2.2 พันล้านดอลลาร์ โดยได้รับการสนับสนุนเงินกู้จากกระทรวงพลังงานสหรัฐฯ ถึง 1.6 พันล้านดอลลาร์ Ivanpah ใช้เทคโนโลยี “solar thermal” ที่แตกต่างจากแผงโซลาร์เซลล์ทั่วไป โดยใช้กระจกกว่า 173,500 แผ่นสะท้อนแสงอาทิตย์ไปยังหอคอยเพื่อสร้างไอน้ำหมุนกังหันผลิตไฟฟ้า

    แม้จะเคยเป็นโรงไฟฟ้าพลังงานแสงอาทิตย์ที่ใหญ่ที่สุดในโลก แต่เทคโนโลยีนี้กลับกลายเป็น “ล้าสมัย” อย่างรวดเร็ว เมื่อแผงโซลาร์เซลล์แบบ photovoltaic มีราคาถูกลงและมีประสิทธิภาพสูงขึ้น ทำให้ PG&E ซึ่งเป็นผู้ซื้อไฟฟ้าหลัก ประกาศยกเลิกสัญญาซื้อไฟฟ้าก่อนกำหนดในปี 2025 ทั้งที่เดิมจะซื้อถึงปี 2039

    นอกจากปัญหาด้านต้นทุนและประสิทธิภาพ Ivanpah ยังเผชิญกับข้อวิจารณ์ด้านสิ่งแวดล้อม เช่น การฆ่านกกว่า 6,000 ตัวต่อปีจากความร้อนของแสงสะท้อน และการรบกวนสายตาผู้ขับขี่บนทางหลวงจากแสงสะท้อนของกระจก

    แม้ยังไม่มีแผนการใช้พื้นที่หลังการปิดตัวอย่างเป็นทางการ แต่เจ้าของโครงการ NRG Energy เสนอว่าอาจเปลี่ยนมาใช้ระบบแผงโซลาร์เซลล์แทน ซึ่งเป็นมาตรฐานใหม่ของอุตสาหกรรมพลังงานแสงอาทิตย์ในปัจจุบัน

    ข้อมูลสำคัญจากข่าว
    Ivanpah Solar Plant ตั้งอยู่ในทะเลทรายโมฮาวี เปิดใช้งานในปี 2014
    ใช้เทคโนโลยี solar thermal โดยสะท้อนแสงไปยังหอคอยเพื่อผลิตไอน้ำ
    มีงบประมาณก่อสร้าง 2.2 พันล้านดอลลาร์ โดยได้รับเงินกู้จากรัฐบาล 1.6 พันล้าน
    ใช้กระจกสะท้อนแสงกว่า 173,500 แผ่น เรียกว่า heliostats
    PG&E ประกาศยกเลิกสัญญาซื้อไฟฟ้าในปี 2025 เพื่อประหยัดค่าใช้จ่าย
    Ivanpah เคยเป็นโรงไฟฟ้าพลังงานแสงอาทิตย์ที่ใหญ่ที่สุดในโลก
    มีข้อเสนอให้เปลี่ยนมาใช้ระบบ photovoltaic ที่มีประสิทธิภาพและราคาถูกกว่า
    คาดว่าจะปิดตัวในปี 2026 ก่อนกำหนดเดิมถึง 13 ปี

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยี solar thermal มีข้อดีด้านการผลิตพลังงานต่อเนื่อง แต่ต้นทุนสูง
    photovoltaic panels มีราคาลดลงกว่า 80% ในช่วง 10 ปีที่ผ่านมา
    ระบบ solar thermal ต้องพึ่งพาแก๊สธรรมชาติเพื่อเริ่มต้นการทำงานในบางช่วง
    โครงการ Project Nexus ในแคลิฟอร์เนียทดลองติดตั้งแผงโซลาร์เหนือคลองชลประทาน
    Ivanpah เป็นตัวอย่างของความเสี่ยงในการลงทุนโครงสร้างพื้นฐานในอุตสาหกรรมที่เปลี่ยนเร็ว

    https://www.slashgear.com/1986261/california-ivanpah-solar-plant-shut-down-reason/
    ☀️ “Ivanpah: โรงไฟฟ้าพลังงานแสงอาทิตย์มูลค่า 2.2 พันล้านดอลลาร์ในแคลิฟอร์เนีย เตรียมปิดตัวในปี 2026 — บทเรียนจากเทคโนโลยีที่ล้าสมัยเร็วเกินไป” หากคุณเคยขับรถผ่าน Interstate 15 ระหว่างลอสแอนเจลิสกับลาสเวกัส คุณอาจเคยเห็นแสงสะท้อนจากหอคอยสูง 459 ฟุต 3 ต้นกลางทะเลทรายโมฮาวี นั่นคือ Ivanpah Solar Electric Generating System — โรงไฟฟ้าพลังงานแสงอาทิตย์ขนาดมหึมาที่เคยเป็นความหวังของวงการพลังงานสะอาดในสหรัฐฯ เปิดใช้งานในปี 2014 ด้วยงบประมาณกว่า 2.2 พันล้านดอลลาร์ โดยได้รับการสนับสนุนเงินกู้จากกระทรวงพลังงานสหรัฐฯ ถึง 1.6 พันล้านดอลลาร์ Ivanpah ใช้เทคโนโลยี “solar thermal” ที่แตกต่างจากแผงโซลาร์เซลล์ทั่วไป โดยใช้กระจกกว่า 173,500 แผ่นสะท้อนแสงอาทิตย์ไปยังหอคอยเพื่อสร้างไอน้ำหมุนกังหันผลิตไฟฟ้า แม้จะเคยเป็นโรงไฟฟ้าพลังงานแสงอาทิตย์ที่ใหญ่ที่สุดในโลก แต่เทคโนโลยีนี้กลับกลายเป็น “ล้าสมัย” อย่างรวดเร็ว เมื่อแผงโซลาร์เซลล์แบบ photovoltaic มีราคาถูกลงและมีประสิทธิภาพสูงขึ้น ทำให้ PG&E ซึ่งเป็นผู้ซื้อไฟฟ้าหลัก ประกาศยกเลิกสัญญาซื้อไฟฟ้าก่อนกำหนดในปี 2025 ทั้งที่เดิมจะซื้อถึงปี 2039 นอกจากปัญหาด้านต้นทุนและประสิทธิภาพ Ivanpah ยังเผชิญกับข้อวิจารณ์ด้านสิ่งแวดล้อม เช่น การฆ่านกกว่า 6,000 ตัวต่อปีจากความร้อนของแสงสะท้อน และการรบกวนสายตาผู้ขับขี่บนทางหลวงจากแสงสะท้อนของกระจก แม้ยังไม่มีแผนการใช้พื้นที่หลังการปิดตัวอย่างเป็นทางการ แต่เจ้าของโครงการ NRG Energy เสนอว่าอาจเปลี่ยนมาใช้ระบบแผงโซลาร์เซลล์แทน ซึ่งเป็นมาตรฐานใหม่ของอุตสาหกรรมพลังงานแสงอาทิตย์ในปัจจุบัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Ivanpah Solar Plant ตั้งอยู่ในทะเลทรายโมฮาวี เปิดใช้งานในปี 2014 ➡️ ใช้เทคโนโลยี solar thermal โดยสะท้อนแสงไปยังหอคอยเพื่อผลิตไอน้ำ ➡️ มีงบประมาณก่อสร้าง 2.2 พันล้านดอลลาร์ โดยได้รับเงินกู้จากรัฐบาล 1.6 พันล้าน ➡️ ใช้กระจกสะท้อนแสงกว่า 173,500 แผ่น เรียกว่า heliostats ➡️ PG&E ประกาศยกเลิกสัญญาซื้อไฟฟ้าในปี 2025 เพื่อประหยัดค่าใช้จ่าย ➡️ Ivanpah เคยเป็นโรงไฟฟ้าพลังงานแสงอาทิตย์ที่ใหญ่ที่สุดในโลก ➡️ มีข้อเสนอให้เปลี่ยนมาใช้ระบบ photovoltaic ที่มีประสิทธิภาพและราคาถูกกว่า ➡️ คาดว่าจะปิดตัวในปี 2026 ก่อนกำหนดเดิมถึง 13 ปี ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยี solar thermal มีข้อดีด้านการผลิตพลังงานต่อเนื่อง แต่ต้นทุนสูง ➡️ photovoltaic panels มีราคาลดลงกว่า 80% ในช่วง 10 ปีที่ผ่านมา ➡️ ระบบ solar thermal ต้องพึ่งพาแก๊สธรรมชาติเพื่อเริ่มต้นการทำงานในบางช่วง ➡️ โครงการ Project Nexus ในแคลิฟอร์เนียทดลองติดตั้งแผงโซลาร์เหนือคลองชลประทาน ➡️ Ivanpah เป็นตัวอย่างของความเสี่ยงในการลงทุนโครงสร้างพื้นฐานในอุตสาหกรรมที่เปลี่ยนเร็ว https://www.slashgear.com/1986261/california-ivanpah-solar-plant-shut-down-reason/
    WWW.SLASHGEAR.COM
    $2B California Solar Plant To Shut Down After A Decade For The Most Frustrating Reason - SlashGear
    The Ivanpah facility's decommissioning comes from its use of a now-obsolete solar technology that's both more expensive and less efficient in generating energy.
    0 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง”

    ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI

    ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด

    AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้

    Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง

    ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน

    ข้อมูลสำคัญจากข่าว
    Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane
    RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ
    GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40
    AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D
    RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า
    Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client
    Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง
    Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร

    ข้อมูลเสริมจากภายนอก
    RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7
    RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2
    Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI
    MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล
    CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ

    https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    🎨 “ศึก GPU สำหรับสายครีเอทีฟ: Nvidia นำโด่งทุกสนาม ขณะที่ Intel แอบแจ้งเกิดในงาน AI และ AMD ยืนหยัดในตลาดกลาง” ในยุคที่งานสร้างสรรค์ไม่ใช่แค่เรื่องของศิลปะ แต่เป็นการประมวลผลระดับสูง ทั้งการตัดต่อวิดีโอแบบเรียลไทม์ การเรนเดอร์ 3D และการใช้ AI ช่วยสร้างเนื้อหา GPU จึงกลายเป็นหัวใจของเวิร์กโฟลว์สายครีเอทีฟ ล่าสุด TechRadar ได้เผยผลการทดสอบจาก PugetSystem ที่เปรียบเทียบ GPU รุ่นใหม่จาก Nvidia, AMD และ Intel ในงาน content creation และ AI ผลลัพธ์ชี้ชัดว่า Nvidia ยังคงครองบัลลังก์ โดยเฉพาะ RTX 5090 ที่ทำคะแนนสูงกว่ารุ่นก่อนหน้าอย่าง RTX 4090 ถึง 20–30% ในหลายการทดสอบ เช่น Blender, V-Ray และ Octane แม้รุ่นอื่นในซีรีส์ 50 จะยังไม่ทิ้งห่างจากซีรีส์ 40 มากนัก แต่ RTX 5090 กลายเป็นตัวเลือกหลักสำหรับสายงานที่ต้องการประสิทธิภาพสูงสุด AMD เข้ามาในตลาดด้วย RX 7900 XTX และ RX 9070 XT ซึ่งมีผลลัพธ์ผสมผสาน บางงานเช่น LongGOP codec กลับทำได้ดีกว่า Nvidia แต่ในงาน 3D และ ray tracing ยังตามหลังอยู่ โดย RX 9070 XT มีจุดเด่นด้านการใช้พลังงานต่ำและราคาที่เข้าถึงได้ Intel กลายเป็นม้ามืดที่น่าสนใจ โดย Arc GPU แม้ยังไม่เหมาะกับงานตัดต่อระดับมืออาชีพ แต่กลับทำผลงานได้ดีในงาน AI inference เช่น MLPerf Client โดยเฉพาะการสร้าง token แรกที่เร็วที่สุดในกลุ่ม และมีราคาต่อประสิทธิภาพที่คุ้มค่า เหมาะกับงานทดลองหรือระบบรอง ในภาพรวม Nvidia ยังคงเป็นตัวเลือกหลักสำหรับมืออาชีพที่ต้องการความเสถียรและประสิทธิภาพสูงสุด ขณะที่ AMD และ Intel เสนอทางเลือกที่น่าสนใจในบางเวิร์กโหลดหรือระดับราคาที่ต่างกัน ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia RTX 5090 ทำคะแนนสูงสุดในงานเรนเดอร์ เช่น Blender, V-Ray, Octane ➡️ RTX 5090 แรงกว่ารุ่น RTX 4090 ถึง 20–30% ในหลายการทดสอบ ➡️ GPU ซีรีส์ 50 รุ่นอื่นยังมีประสิทธิภาพใกล้เคียงกับซีรีส์ 40 ➡️ AMD RX 7900 XTX และ RX 9070 XT ทำผลงานดีในบาง codec แต่ยังตามหลังในงาน 3D ➡️ RX 9070 XT มีจุดเด่นด้านพลังงานต่ำและราคาคุ้มค่า ➡️ Intel Arc GPU ทำผลงานดีในงาน AI inference โดยเฉพาะ MLPerf Client ➡️ Intel มีราคาต่อประสิทธิภาพที่ดี เหมาะกับงานทดลองหรือระบบรอง ➡️ Nvidia ยังคงเป็นตัวเลือกหลักสำหรับงานสร้างสรรค์ที่ต้องการความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5090 ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core รุ่นที่ 5 และ GDDR7 ➡️ RX 9070 XT ใช้ RDNA4 พร้อม Ray Accelerator รุ่นที่ 3 และ AI Engine รุ่นที่ 2 ➡️ Intel Arc Battlemage A980 รองรับ OpenVINO และ oneAPI สำหรับงาน AI ➡️ MLPerf เป็นมาตรฐานการทดสอบ AI ที่วัดความเร็วในการประมวลผลโมเดล ➡️ CUDA และ RTX ยังคงเป็นพื้นฐานของซอฟต์แวร์เรนเดอร์ส่วนใหญ่ ทำให้ Nvidia ได้เปรียบ https://www.techradar.com/pro/which-gpu-is-best-for-content-creation-well-nvidia-seems-to-have-all-the-answers-to-that-question-but-intel-is-the-dark-horse
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • “Microsoft ร่วมทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิก — เตรียมรับยุค GPU 10kW ที่เปลี่ยนโฉมศูนย์ข้อมูล”

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลระดับโลก ความร้อนจากชิปประสิทธิภาพสูงกลายเป็นอุปสรรคสำคัญ ล่าสุด Microsoft ได้ร่วมมือกับสตาร์ทอัพจากสวิตเซอร์แลนด์ชื่อ Corintis เพื่อทดสอบระบบระบายความร้อนแบบ “ไมโครฟลูอิดิก” (microfluidic cooling) ที่สามารถจัดการกับ GPU ที่ใช้พลังงานสูงถึง 10kW — มากกว่าระดับปัจจุบันถึงสิบเท่า

    GPU ที่ใช้ในศูนย์ข้อมูล AI เช่น Nvidia H100 ปัจจุบันมีการใช้พลังงานประมาณ 700–800W และรุ่นใหม่อย่าง GB200 คาดว่าจะทะลุ 1kW ซึ่งทำให้การระบายความร้อนแบบเดิมเริ่มไม่เพียงพอ Corintis จึงพัฒนาเทคโนโลยีที่ฝังระบบระบายความร้อนไว้ “ในตัวชิป” โดยใช้ช่องทางของเหลวขนาดเล็กที่ออกแบบเฉพาะให้ตรงกับโครงสร้างของแต่ละชิป

    Microsoft ยืนยันว่าได้ทดสอบระบบนี้บนเซิร์ฟเวอร์จริงที่รันบริการหลักแล้ว และพบว่า “ขอบเขตความร้อน” ที่ลดลงสามารถแปลเป็นประสิทธิภาพที่สูงขึ้นและความสามารถในการโอเวอร์คล็อกที่มากขึ้น นอกจากนี้ยังเปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม

    Corintis ได้รับเงินลงทุนรอบ Series A จำนวน $24 ล้านจาก BlueYard Capital และนักลงทุนรายใหญ่ เช่น Lip-Bu Tan (อดีต CEO ของ Cadence และกรรมการ Intel) และ Geoff Lyon (อดีตผู้ก่อตั้ง CoolIT) โดยตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026

    แม้เทคโนโลยีนี้จะยังอยู่ในช่วงเริ่มต้น แต่การที่ Microsoft นำไปใช้จริงในเซิร์ฟเวอร์ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีการออกแบบศูนย์ข้อมูลในอนาคต โดยเฉพาะเมื่อความต้องการพลังงานของ AI เพิ่มขึ้นอย่างรวดเร็วทั่วโลก

    ข้อมูลสำคัญจากข่าว
    Microsoft ร่วมมือกับ Corintis ทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิกในเซิร์ฟเวอร์จริง
    ระบบนี้สามารถรองรับ GPU ที่ใช้พลังงานสูงถึง 10kW
    GPU ปัจจุบัน เช่น Nvidia H100 ใช้พลังงานประมาณ 700–800W
    ระบบระบายความร้อนฝังในชิปช่วยลดความร้อนและเพิ่มประสิทธิภาพ
    เปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม
    Corintis ได้รับเงินลงทุน $24 ล้านจากนักลงทุนรายใหญ่
    ตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026
    Microsoft ยืนยันว่าการลดความร้อนช่วยเพิ่มประสิทธิภาพและโอเวอร์คล็อกได้มากขึ้น

    ข้อมูลเสริมจากภายนอก
    Microfluidic cooling คือการระบายความร้อนด้วยของเหลวผ่านช่องทางขนาดเล็กที่ออกแบบเฉพาะ
    การฝังระบบระบายความร้อนในชิปช่วยลดการใช้พลังงานในการทำความเย็น
    ความร้อนที่ถูกระบายออกมาสามารถนำไปใช้ซ้ำ เช่น ระบบทำความร้อนในอาคาร
    การออกแบบชิปแบบ 3D ต้องการระบบระบายความร้อนที่ฝังในชั้นกลางของชิป
    ตลาดศูนย์ข้อมูล AI คาดว่าจะเติบโตเกิน $1 ล้านล้านภายในปี 2030

    https://www.techradar.com/pro/4kw-is-certainly-possible-but-it-can-go-much-higher-microsoft-backed-startup-could-dissipate-10kw-gpus-its-founder-confirms
    💧 “Microsoft ร่วมทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิก — เตรียมรับยุค GPU 10kW ที่เปลี่ยนโฉมศูนย์ข้อมูล” ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลระดับโลก ความร้อนจากชิปประสิทธิภาพสูงกลายเป็นอุปสรรคสำคัญ ล่าสุด Microsoft ได้ร่วมมือกับสตาร์ทอัพจากสวิตเซอร์แลนด์ชื่อ Corintis เพื่อทดสอบระบบระบายความร้อนแบบ “ไมโครฟลูอิดิก” (microfluidic cooling) ที่สามารถจัดการกับ GPU ที่ใช้พลังงานสูงถึง 10kW — มากกว่าระดับปัจจุบันถึงสิบเท่า GPU ที่ใช้ในศูนย์ข้อมูล AI เช่น Nvidia H100 ปัจจุบันมีการใช้พลังงานประมาณ 700–800W และรุ่นใหม่อย่าง GB200 คาดว่าจะทะลุ 1kW ซึ่งทำให้การระบายความร้อนแบบเดิมเริ่มไม่เพียงพอ Corintis จึงพัฒนาเทคโนโลยีที่ฝังระบบระบายความร้อนไว้ “ในตัวชิป” โดยใช้ช่องทางของเหลวขนาดเล็กที่ออกแบบเฉพาะให้ตรงกับโครงสร้างของแต่ละชิป Microsoft ยืนยันว่าได้ทดสอบระบบนี้บนเซิร์ฟเวอร์จริงที่รันบริการหลักแล้ว และพบว่า “ขอบเขตความร้อน” ที่ลดลงสามารถแปลเป็นประสิทธิภาพที่สูงขึ้นและความสามารถในการโอเวอร์คล็อกที่มากขึ้น นอกจากนี้ยังเปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม Corintis ได้รับเงินลงทุนรอบ Series A จำนวน $24 ล้านจาก BlueYard Capital และนักลงทุนรายใหญ่ เช่น Lip-Bu Tan (อดีต CEO ของ Cadence และกรรมการ Intel) และ Geoff Lyon (อดีตผู้ก่อตั้ง CoolIT) โดยตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026 แม้เทคโนโลยีนี้จะยังอยู่ในช่วงเริ่มต้น แต่การที่ Microsoft นำไปใช้จริงในเซิร์ฟเวอร์ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีการออกแบบศูนย์ข้อมูลในอนาคต โดยเฉพาะเมื่อความต้องการพลังงานของ AI เพิ่มขึ้นอย่างรวดเร็วทั่วโลก ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft ร่วมมือกับ Corintis ทดสอบระบบระบายความร้อนแบบไมโครฟลูอิดิกในเซิร์ฟเวอร์จริง ➡️ ระบบนี้สามารถรองรับ GPU ที่ใช้พลังงานสูงถึง 10kW ➡️ GPU ปัจจุบัน เช่น Nvidia H100 ใช้พลังงานประมาณ 700–800W ➡️ ระบบระบายความร้อนฝังในชิปช่วยลดความร้อนและเพิ่มประสิทธิภาพ ➡️ เปิดทางให้สร้างชิปแบบ 3D ที่ซ้อนกันได้โดยไม่เกิดความร้อนสะสม ➡️ Corintis ได้รับเงินลงทุน $24 ล้านจากนักลงทุนรายใหญ่ ➡️ ตั้งเป้าผลิต cold plate แบบไมโครฟลูอิดิกได้มากกว่า 1 ล้านชุดต่อปีภายในปี 2026 ➡️ Microsoft ยืนยันว่าการลดความร้อนช่วยเพิ่มประสิทธิภาพและโอเวอร์คล็อกได้มากขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ Microfluidic cooling คือการระบายความร้อนด้วยของเหลวผ่านช่องทางขนาดเล็กที่ออกแบบเฉพาะ ➡️ การฝังระบบระบายความร้อนในชิปช่วยลดการใช้พลังงานในการทำความเย็น ➡️ ความร้อนที่ถูกระบายออกมาสามารถนำไปใช้ซ้ำ เช่น ระบบทำความร้อนในอาคาร ➡️ การออกแบบชิปแบบ 3D ต้องการระบบระบายความร้อนที่ฝังในชั้นกลางของชิป ➡️ ตลาดศูนย์ข้อมูล AI คาดว่าจะเติบโตเกิน $1 ล้านล้านภายในปี 2030 https://www.techradar.com/pro/4kw-is-certainly-possible-but-it-can-go-much-higher-microsoft-backed-startup-could-dissipate-10kw-gpus-its-founder-confirms
    0 ความคิดเห็น 0 การแบ่งปัน 174 มุมมอง 0 รีวิว
  • “Mic-E-Mouse: เมาส์เกมมิ่งกลายเป็นไมโครโฟนลับ — งานวิจัยใหม่เผย AI สามารถดักฟังเสียงผ่านเซนเซอร์เมาส์ได้จริง”

    ในยุคที่อุปกรณ์ทุกชิ้นอาจกลายเป็นช่องทางละเมิดความเป็นส่วนตัว ล่าสุดทีมนักวิจัยจากมหาวิทยาลัย UC Irvine ได้เปิดเผยเทคนิคใหม่ชื่อว่า “Mic-E-Mouse” ซึ่งสามารถใช้เซนเซอร์ของเมาส์ประสิทธิภาพสูงในการดักฟังเสียงของผู้ใช้ผ่านพื้นโต๊ะ โดยไม่ต้องใช้ไมโครโฟนเลยแม้แต่นิดเดียว

    หลักการทำงานของ Mic-E-Mouse คือการใช้เซนเซอร์ของเมาส์ที่มี DPI สูง (20,000 DPI ขึ้นไป) และ polling rate สูง ซึ่งสามารถตรวจจับการสั่นสะเทือนเล็ก ๆ จากเสียงพูดที่สะท้อนผ่านพื้นโต๊ะได้ จากนั้นข้อมูลดิบเหล่านี้จะถูกส่งผ่านกระบวนการประมวลผลสัญญาณและโมเดล AI เพื่อแปลงเป็นเสียงพูดที่ฟังรู้เรื่อง

    สิ่งที่น่าตกใจคือ การโจมตีนี้ไม่จำเป็นต้องใช้มัลแวร์ซับซ้อน เพียงแค่มีซอฟต์แวร์ที่สามารถอ่านข้อมูลจากเมาส์ได้ เช่น แอปสร้างสรรค์หรือเกมบางประเภท ก็สามารถเก็บข้อมูลเหล่านี้ได้แล้ว และเมื่อส่งออกไปประมวลผลนอกเครื่อง ก็สามารถสร้างคลื่นเสียงที่มีความแม่นยำในการรู้จำคำพูดได้ถึง 42–61%

    ทีมวิจัยใช้เทคนิค Wiener filtering และ neural spectrogram enhancement เพื่อเพิ่มความชัดเจนของเสียง โดยสามารถเพิ่มค่า SNR ได้ถึง +19 dB และแม้จะใช้เมาส์ระดับ consumer ที่มีราคาต่ำกว่า $50 ก็ยังสามารถดักฟังได้อย่างมีประสิทธิภาพ

    เทคนิคนี้คล้ายกับการดักฟังในยุคสงครามเย็น เช่นกรณี KGB ซ่อนไมโครโฟนไว้ในตรา Great Seal ที่มอบให้ทูตสหรัฐฯ แต่ต่างกันตรงที่ Mic-E-Mouse ใช้ AI และอุปกรณ์ทั่วไปที่ผู้ใช้ไม่เคยสงสัยเลยว่าอาจกลายเป็น “หู” ที่แอบฟังอยู่ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Mic-E-Mouse เป็นเทคนิคที่ใช้เซนเซอร์เมาส์ในการดักฟังเสียงพูดผ่านพื้นโต๊ะ
    ใช้เมาส์ที่มี DPI สูง (20,000+) และ polling rate สูงในการตรวจจับการสั่นสะเทือน
    ข้อมูลดิบถูกส่งผ่าน Wiener filtering และ neural spectrogram enhancement เพื่อแปลงเป็นเสียง
    ความแม่นยำในการรู้จำคำพูดอยู่ที่ 42–61% และเพิ่ม SNR ได้ถึง +19 dB
    ใช้เมาส์ระดับ consumer ได้ ไม่จำเป็นต้องใช้ฮาร์ดแวร์เฉพาะทาง
    ไม่ต้องใช้มัลแวร์ซับซ้อน แค่ซอฟต์แวร์ที่อ่านข้อมูลเมาส์ก็เพียงพอ
    ข้อมูลสามารถส่งออกไปประมวลผลนอกเครื่องได้โดยไม่ต้องใช้สิทธิ์ระดับระบบ
    เทคนิคนี้ได้รับแรงบันดาลใจจากการดักฟังในยุคสงครามเย็น แต่ใช้ AI แทนไมโครโฟน

    ข้อมูลเสริมจากภายนอก
    DPI (dots per inch) คือค่าความละเอียดของเซนเซอร์เมาส์ ยิ่งสูงยิ่งไวต่อการเคลื่อนไหว
    Polling rate คือความถี่ที่เมาส์ส่งข้อมูลไปยังคอมพิวเตอร์ ยิ่งสูงยิ่งแม่นยำ
    Wiener filter เป็นเทคนิคลด noise ในสัญญาณเสียงที่ใช้กันแพร่หลายในงานวิศวกรรมเสียง
    Spectrogram neural enhancement คือการใช้โมเดล AI เพื่อปรับปรุงความชัดของคลื่นเสียง
    การดักฟังผ่านอุปกรณ์ทั่วไปเป็นแนวทางใหม่ของการโจมตีแบบ side-channel

    https://www.tomshardware.com/tech-industry/cyber-security/high-performance-mice-can-be-used-as-a-microphone-to-spy-on-users-thanks-to-ai-mic-e-mouse-technique-uses-mouse-sensors-to-convert-acoustic-vibrations-into-speech
    🖱️ “Mic-E-Mouse: เมาส์เกมมิ่งกลายเป็นไมโครโฟนลับ — งานวิจัยใหม่เผย AI สามารถดักฟังเสียงผ่านเซนเซอร์เมาส์ได้จริง” ในยุคที่อุปกรณ์ทุกชิ้นอาจกลายเป็นช่องทางละเมิดความเป็นส่วนตัว ล่าสุดทีมนักวิจัยจากมหาวิทยาลัย UC Irvine ได้เปิดเผยเทคนิคใหม่ชื่อว่า “Mic-E-Mouse” ซึ่งสามารถใช้เซนเซอร์ของเมาส์ประสิทธิภาพสูงในการดักฟังเสียงของผู้ใช้ผ่านพื้นโต๊ะ โดยไม่ต้องใช้ไมโครโฟนเลยแม้แต่นิดเดียว หลักการทำงานของ Mic-E-Mouse คือการใช้เซนเซอร์ของเมาส์ที่มี DPI สูง (20,000 DPI ขึ้นไป) และ polling rate สูง ซึ่งสามารถตรวจจับการสั่นสะเทือนเล็ก ๆ จากเสียงพูดที่สะท้อนผ่านพื้นโต๊ะได้ จากนั้นข้อมูลดิบเหล่านี้จะถูกส่งผ่านกระบวนการประมวลผลสัญญาณและโมเดล AI เพื่อแปลงเป็นเสียงพูดที่ฟังรู้เรื่อง สิ่งที่น่าตกใจคือ การโจมตีนี้ไม่จำเป็นต้องใช้มัลแวร์ซับซ้อน เพียงแค่มีซอฟต์แวร์ที่สามารถอ่านข้อมูลจากเมาส์ได้ เช่น แอปสร้างสรรค์หรือเกมบางประเภท ก็สามารถเก็บข้อมูลเหล่านี้ได้แล้ว และเมื่อส่งออกไปประมวลผลนอกเครื่อง ก็สามารถสร้างคลื่นเสียงที่มีความแม่นยำในการรู้จำคำพูดได้ถึง 42–61% ทีมวิจัยใช้เทคนิค Wiener filtering และ neural spectrogram enhancement เพื่อเพิ่มความชัดเจนของเสียง โดยสามารถเพิ่มค่า SNR ได้ถึง +19 dB และแม้จะใช้เมาส์ระดับ consumer ที่มีราคาต่ำกว่า $50 ก็ยังสามารถดักฟังได้อย่างมีประสิทธิภาพ เทคนิคนี้คล้ายกับการดักฟังในยุคสงครามเย็น เช่นกรณี KGB ซ่อนไมโครโฟนไว้ในตรา Great Seal ที่มอบให้ทูตสหรัฐฯ แต่ต่างกันตรงที่ Mic-E-Mouse ใช้ AI และอุปกรณ์ทั่วไปที่ผู้ใช้ไม่เคยสงสัยเลยว่าอาจกลายเป็น “หู” ที่แอบฟังอยู่ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Mic-E-Mouse เป็นเทคนิคที่ใช้เซนเซอร์เมาส์ในการดักฟังเสียงพูดผ่านพื้นโต๊ะ ➡️ ใช้เมาส์ที่มี DPI สูง (20,000+) และ polling rate สูงในการตรวจจับการสั่นสะเทือน ➡️ ข้อมูลดิบถูกส่งผ่าน Wiener filtering และ neural spectrogram enhancement เพื่อแปลงเป็นเสียง ➡️ ความแม่นยำในการรู้จำคำพูดอยู่ที่ 42–61% และเพิ่ม SNR ได้ถึง +19 dB ➡️ ใช้เมาส์ระดับ consumer ได้ ไม่จำเป็นต้องใช้ฮาร์ดแวร์เฉพาะทาง ➡️ ไม่ต้องใช้มัลแวร์ซับซ้อน แค่ซอฟต์แวร์ที่อ่านข้อมูลเมาส์ก็เพียงพอ ➡️ ข้อมูลสามารถส่งออกไปประมวลผลนอกเครื่องได้โดยไม่ต้องใช้สิทธิ์ระดับระบบ ➡️ เทคนิคนี้ได้รับแรงบันดาลใจจากการดักฟังในยุคสงครามเย็น แต่ใช้ AI แทนไมโครโฟน ✅ ข้อมูลเสริมจากภายนอก ➡️ DPI (dots per inch) คือค่าความละเอียดของเซนเซอร์เมาส์ ยิ่งสูงยิ่งไวต่อการเคลื่อนไหว ➡️ Polling rate คือความถี่ที่เมาส์ส่งข้อมูลไปยังคอมพิวเตอร์ ยิ่งสูงยิ่งแม่นยำ ➡️ Wiener filter เป็นเทคนิคลด noise ในสัญญาณเสียงที่ใช้กันแพร่หลายในงานวิศวกรรมเสียง ➡️ Spectrogram neural enhancement คือการใช้โมเดล AI เพื่อปรับปรุงความชัดของคลื่นเสียง ➡️ การดักฟังผ่านอุปกรณ์ทั่วไปเป็นแนวทางใหม่ของการโจมตีแบบ side-channel https://www.tomshardware.com/tech-industry/cyber-security/high-performance-mice-can-be-used-as-a-microphone-to-spy-on-users-thanks-to-ai-mic-e-mouse-technique-uses-mouse-sensors-to-convert-acoustic-vibrations-into-speech
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์”

    Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน

    Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป

    Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน

    ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา

    นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake

    ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids
    Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core
    รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile
    Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์
    Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์
    ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids
    มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น
    Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core
    Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์

    ข้อมูลเสริมจากภายนอก
    Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน
    Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont
    Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading
    APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก
    การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่

    https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    🧠 “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์” Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids ➡️ Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core ➡️ รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile ➡️ Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์ ➡️ Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์ ➡️ ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids ➡️ มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น ➡️ Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core ➡️ Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน ➡️ Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont ➡️ Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading ➡️ APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก ➡️ การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่ https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    0 ความคิดเห็น 0 การแบ่งปัน 162 มุมมอง 0 รีวิว
  • “SpaceX เตรียมปล่อยดาวเทียม Starlink กลุ่มใหม่ — พร้อมทดสอบ Starship ครั้งที่ 5 เพื่อภารกิจสู่ดวงจันทร์และดาวอังคาร”

    หลังจากเพิ่งปล่อยดาวเทียม Starlink ไปเมื่อสัปดาห์ก่อน SpaceX ก็ไม่รอช้า เตรียมภารกิจใหม่ในวันที่ 3 ตุลาคม 2025 โดยจะปล่อยจรวด Falcon 9 จากฐานยิง SLC-4E ที่ Vandenberg Space Force Base รัฐแคลิฟอร์เนีย เวลา 6:00 น. PDT (13:00 UTC) ภารกิจนี้มีชื่อว่า Starlink Group 11-39 ซึ่งจะนำดาวเทียม Starlink V2 Mini จำนวน 28 ดวงเข้าสู่วงโคจรระดับต่ำที่ความสูงประมาณ 595 กิโลเมตร

    แม้จะเป็นภารกิจลำดับที่ 39 ของกลุ่มนี้ แต่จริง ๆ แล้วนี่คือการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ โดยมีเป้าหมายเพื่อเสริมประสิทธิภาพและขยายพื้นที่ครอบคลุมของเครือข่ายอินเทอร์เน็ต Starlink ที่ปัจจุบันมีดาวเทียมทำงานอยู่แล้วกว่า 8,460 ดวงทั่วโลก

    หลังจากปล่อยดาวเทียมแล้ว บูสเตอร์ขั้นแรกของ Falcon 9 จะพยายามลงจอดบนเรือโดรน “Of Course I Still Love You” ที่ลอยอยู่ในมหาสมุทรแปซิฟิก ซึ่งอาจทำให้เกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura

    นอกจากภารกิจ Starlink แล้ว SpaceX ยังเตรียมทดสอบจรวด Starship ครั้งที่ 5 ในวันที่ 13 ตุลาคม 2025 จากฐาน Starbase ในรัฐเท็กซัส โดยจรวด Starship ถือเป็นจรวดที่ทรงพลังที่สุดในโลก และเป็นหัวใจของแผนการพามนุษย์กลับไปดวงจันทร์และเดินทางสู่ดาวอังคารในอนาคต

    การทดสอบครั้งก่อนในเดือนสิงหาคมประสบความสำเร็จ ขณะที่การทดสอบในเดือนมิถุนายนจบลงด้วยการระเบิด แต่ Elon Musk ยืนยันว่าจะเร่งรอบการทดสอบให้เร็วขึ้น หลังได้รับการอนุมัติจากหน่วยงานกำกับดูแล

    ผู้สนใจสามารถติดตามการถ่ายทอดสดได้ผ่านเว็บไซต์ SpaceX, แอป X TV หรือบัญชี @SpaceX บนแพลตฟอร์ม X โดยการถ่ายทอดจะเริ่มประมาณ 5 นาทีก่อนปล่อยจรวด และสามารถใช้เครื่องมืออย่าง Satellite Tracker, SkySafari หรือ Stellarium เพื่อติดตามตำแหน่งของดาวเทียม Starlink ได้แบบเรียลไทม์

    ข้อมูลสำคัญจากข่าว
    SpaceX เตรียมปล่อยจรวด Falcon 9 ภารกิจ Starlink Group 11-39 วันที่ 3 ตุลาคม 2025
    ปล่อยจากฐาน SLC-4E ที่ Vandenberg Space Force Base เวลา 6:00 น. PDT
    บรรทุกดาวเทียม Starlink V2 Mini จำนวน 28 ดวง เข้าสู่วงโคจรต่ำที่ 595 กม.
    เป็นการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ แม้จะเป็นภารกิจลำดับที่ 39
    ปัจจุบันมีดาวเทียม Starlink ทำงานอยู่แล้วกว่า 8,460 ดวง
    บูสเตอร์ขั้นแรกจะลงจอดบนเรือโดรน “Of Course I Still Love You” ในมหาสมุทรแปซิฟิก
    อาจเกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura
    SpaceX เตรียมทดสอบจรวด Starship ครั้งที่ 5 วันที่ 13 ตุลาคม 2025 ที่ Starbase, Texas
    Starship เป็นจรวดที่ทรงพลังที่สุดในโลก ใช้สำหรับภารกิจดวงจันทร์และดาวอังคาร
    การถ่ายทอดสดสามารถดูได้ผ่านเว็บไซต์ SpaceX, แอป X TV และบัญชี @SpaceX

    ข้อมูลเสริมจากภายนอก
    Starlink V2 Mini มีขนาดเล็กลงแต่ประสิทธิภาพสูงขึ้น รองรับการเชื่อมต่อในพื้นที่ห่างไกล
    เรือโดรน “Of Course I Still Love You” เป็นหนึ่งในระบบลงจอดอัตโนมัติของ SpaceX
    Starship มีความสูงกว่า 120 เมตร และสามารถบรรทุกน้ำหนักได้มากกว่า 100 ตัน
    การทดสอบ Starship เป็นขั้นตอนสำคัญก่อนภารกิจ Artemis ของ NASA
    การติดตามดาวเทียม Starlink สามารถทำได้ผ่านแอปมือถือและเว็บไซต์เฉพาะทาง

    https://www.slashgear.com/1984666/how-to-see-when-and-where-next-spacex-launch-is/
    🚀 “SpaceX เตรียมปล่อยดาวเทียม Starlink กลุ่มใหม่ — พร้อมทดสอบ Starship ครั้งที่ 5 เพื่อภารกิจสู่ดวงจันทร์และดาวอังคาร” หลังจากเพิ่งปล่อยดาวเทียม Starlink ไปเมื่อสัปดาห์ก่อน SpaceX ก็ไม่รอช้า เตรียมภารกิจใหม่ในวันที่ 3 ตุลาคม 2025 โดยจะปล่อยจรวด Falcon 9 จากฐานยิง SLC-4E ที่ Vandenberg Space Force Base รัฐแคลิฟอร์เนีย เวลา 6:00 น. PDT (13:00 UTC) ภารกิจนี้มีชื่อว่า Starlink Group 11-39 ซึ่งจะนำดาวเทียม Starlink V2 Mini จำนวน 28 ดวงเข้าสู่วงโคจรระดับต่ำที่ความสูงประมาณ 595 กิโลเมตร แม้จะเป็นภารกิจลำดับที่ 39 ของกลุ่มนี้ แต่จริง ๆ แล้วนี่คือการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ โดยมีเป้าหมายเพื่อเสริมประสิทธิภาพและขยายพื้นที่ครอบคลุมของเครือข่ายอินเทอร์เน็ต Starlink ที่ปัจจุบันมีดาวเทียมทำงานอยู่แล้วกว่า 8,460 ดวงทั่วโลก หลังจากปล่อยดาวเทียมแล้ว บูสเตอร์ขั้นแรกของ Falcon 9 จะพยายามลงจอดบนเรือโดรน “Of Course I Still Love You” ที่ลอยอยู่ในมหาสมุทรแปซิฟิก ซึ่งอาจทำให้เกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura นอกจากภารกิจ Starlink แล้ว SpaceX ยังเตรียมทดสอบจรวด Starship ครั้งที่ 5 ในวันที่ 13 ตุลาคม 2025 จากฐาน Starbase ในรัฐเท็กซัส โดยจรวด Starship ถือเป็นจรวดที่ทรงพลังที่สุดในโลก และเป็นหัวใจของแผนการพามนุษย์กลับไปดวงจันทร์และเดินทางสู่ดาวอังคารในอนาคต การทดสอบครั้งก่อนในเดือนสิงหาคมประสบความสำเร็จ ขณะที่การทดสอบในเดือนมิถุนายนจบลงด้วยการระเบิด แต่ Elon Musk ยืนยันว่าจะเร่งรอบการทดสอบให้เร็วขึ้น หลังได้รับการอนุมัติจากหน่วยงานกำกับดูแล ผู้สนใจสามารถติดตามการถ่ายทอดสดได้ผ่านเว็บไซต์ SpaceX, แอป X TV หรือบัญชี @SpaceX บนแพลตฟอร์ม X โดยการถ่ายทอดจะเริ่มประมาณ 5 นาทีก่อนปล่อยจรวด และสามารถใช้เครื่องมืออย่าง Satellite Tracker, SkySafari หรือ Stellarium เพื่อติดตามตำแหน่งของดาวเทียม Starlink ได้แบบเรียลไทม์ ✅ ข้อมูลสำคัญจากข่าว ➡️ SpaceX เตรียมปล่อยจรวด Falcon 9 ภารกิจ Starlink Group 11-39 วันที่ 3 ตุลาคม 2025 ➡️ ปล่อยจากฐาน SLC-4E ที่ Vandenberg Space Force Base เวลา 6:00 น. PDT ➡️ บรรทุกดาวเทียม Starlink V2 Mini จำนวน 28 ดวง เข้าสู่วงโคจรต่ำที่ 595 กม. ➡️ เป็นการปล่อยครั้งที่ 15 สำหรับวงโคจรเฉพาะนี้ แม้จะเป็นภารกิจลำดับที่ 39 ➡️ ปัจจุบันมีดาวเทียม Starlink ทำงานอยู่แล้วกว่า 8,460 ดวง ➡️ บูสเตอร์ขั้นแรกจะลงจอดบนเรือโดรน “Of Course I Still Love You” ในมหาสมุทรแปซิฟิก ➡️ อาจเกิดเสียงโซนิคบูมในพื้นที่ Santa Barbara, San Luis Obispo และ Ventura ➡️ SpaceX เตรียมทดสอบจรวด Starship ครั้งที่ 5 วันที่ 13 ตุลาคม 2025 ที่ Starbase, Texas ➡️ Starship เป็นจรวดที่ทรงพลังที่สุดในโลก ใช้สำหรับภารกิจดวงจันทร์และดาวอังคาร ➡️ การถ่ายทอดสดสามารถดูได้ผ่านเว็บไซต์ SpaceX, แอป X TV และบัญชี @SpaceX ✅ ข้อมูลเสริมจากภายนอก ➡️ Starlink V2 Mini มีขนาดเล็กลงแต่ประสิทธิภาพสูงขึ้น รองรับการเชื่อมต่อในพื้นที่ห่างไกล ➡️ เรือโดรน “Of Course I Still Love You” เป็นหนึ่งในระบบลงจอดอัตโนมัติของ SpaceX ➡️ Starship มีความสูงกว่า 120 เมตร และสามารถบรรทุกน้ำหนักได้มากกว่า 100 ตัน ➡️ การทดสอบ Starship เป็นขั้นตอนสำคัญก่อนภารกิจ Artemis ของ NASA ➡️ การติดตามดาวเทียม Starlink สามารถทำได้ผ่านแอปมือถือและเว็บไซต์เฉพาะทาง https://www.slashgear.com/1984666/how-to-see-when-and-where-next-spacex-launch-is/
    WWW.SLASHGEAR.COM
    Interested In Seeing The Next SpaceX Launch? Here's What We Know About When And Where It Is - SlashGear
    SpaceX’s next Falcon 9 launch is scheduled for Oct. 3, 2025, from Vandenberg SFB in California, carrying 28 Starlink V2 Mini satellites.
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • “Steam อัปเดตใหม่ รองรับจอย DualSense บน Linux ดีขึ้น — พร้อมอุดช่องโหว่ Unity และปรับปรุงหลายระบบเกม”

    Valve ปล่อยอัปเดต Steam Client เวอร์ชันเสถียรล่าสุดในเดือนตุลาคม 2025 ซึ่งมาพร้อมการปรับปรุงสำคัญหลายด้าน โดยเฉพาะการรองรับจอย DualSense ของ PlayStation บนระบบ Linux ที่เคยมีปัญหาเรื่องการเชื่อมต่อแล้วเกิด crash เมื่อจอยอยู่ในสถานะ idle — ตอนนี้ได้รับการแก้ไขเรียบร้อยแล้ว

    นอกจากนี้ยังมีการเพิ่มฟีเจอร์รองรับ dual gyros สำหรับ Joycons ของ Nintendo Switch เมื่อใช้งานในโหมด combined ซึ่งช่วยให้การควบคุมเกมมีความแม่นยำและลื่นไหลมากขึ้น โดยเฉพาะในเกมที่ใช้การเคลื่อนไหวเป็นหลัก

    อัปเดตนี้ยังเพิ่มความสามารถในการสลับแท็บในเบราว์เซอร์ภายใน Steam ด้วย CTRL+TAB, ปรับปรุงการแสดงผลแบบ High Contrast ในหน้าค้นหาเกม และเพิ่มประสิทธิภาพการบันทึกวิดีโอเกมที่ใช้ Vulkan rendering

    ที่สำคัญคือ Valve ได้เพิ่มการป้องกันช่องโหว่ CVE-2025-59489 ซึ่งเป็นช่องโหว่ใน Unity engine โดย Steam Client จะบล็อกการเปิดเกมทันทีหากตรวจพบพฤติกรรมที่เข้าข่ายการโจมตีผ่านช่องโหว่นี้

    ฝั่ง Windows ก็มีการเพิ่มระบบตรวจสอบ Secure Boot และ TPM ซึ่งจะแสดงในเมนู Help > System Information และถูกนำไปใช้ใน Steam Hardware Survey เพื่อวิเคราะห์ความปลอดภัยของระบบผู้ใช้

    Steam ยังแก้ไขปัญหาการสตรีมที่คลิกแล้วไม่ทำงาน, ปรับปรุง overlay ในเกมที่ใช้ D3D12 ให้ไม่ crash เมื่อเปิด/ปิดหลายส่วนอย่างรวดเร็ว และแก้ปัญหา SteamVR ที่ suppress การแจ้งเตือนหลังออกจากโหมด VR

    ข้อมูลสำคัญจากข่าว
    Steam Client อัปเดตใหม่รองรับจอย DualSense บน Linux ได้ดีขึ้น
    แก้ปัญหา crash เมื่อจอยอยู่ในสถานะ idle
    เพิ่มการรองรับ dual gyros สำหรับ Joycons ในโหมด combined
    ปรับปรุงการสลับแท็บในเบราว์เซอร์ด้วย CTRL+TAB
    ปรับปรุงการแสดงผล High Contrast ในหน้าค้นหาเกม
    เพิ่มประสิทธิภาพการบันทึกวิดีโอเกมที่ใช้ Vulkan rendering
    เพิ่มการป้องกันช่องโหว่ CVE-2025-59489 ใน Unity engine
    Steam จะบล็อกการเปิดเกมหากตรวจพบการโจมตีผ่านช่องโหว่
    เพิ่มการตรวจสอบ Secure Boot และ TPM บน Windows
    แก้ปัญหาการสตรีม, overlay D3D12 และ SteamVR ที่ suppress การแจ้งเตือน

    ข้อมูลเสริมจากภายนอก
    DualSense เป็นจอยของ PlayStation 5 ที่มีระบบ haptic feedback และ adaptive triggers
    Joycons ของ Nintendo Switch มี gyroscope แยกในแต่ละข้าง ซึ่งเมื่อรวมกันจะให้การควบคุมที่แม่นยำ
    Vulkan เป็น API กราฟิกที่ให้ประสิทธิภาพสูงและใช้ทรัพยากรน้อยกว่า DirectX
    CVE-2025-59489 เป็นช่องโหว่ที่เปิดให้แฮกเกอร์ inject โค้ดผ่าน Unity engine
    Secure Boot และ TPM เป็นระบบความปลอดภัยที่ช่วยป้องกันการโจมตีระดับ firmware

    https://9to5linux.com/latest-steam-client-update-improves-support-for-dualsense-controllers-on-linux
    🎮 “Steam อัปเดตใหม่ รองรับจอย DualSense บน Linux ดีขึ้น — พร้อมอุดช่องโหว่ Unity และปรับปรุงหลายระบบเกม” Valve ปล่อยอัปเดต Steam Client เวอร์ชันเสถียรล่าสุดในเดือนตุลาคม 2025 ซึ่งมาพร้อมการปรับปรุงสำคัญหลายด้าน โดยเฉพาะการรองรับจอย DualSense ของ PlayStation บนระบบ Linux ที่เคยมีปัญหาเรื่องการเชื่อมต่อแล้วเกิด crash เมื่อจอยอยู่ในสถานะ idle — ตอนนี้ได้รับการแก้ไขเรียบร้อยแล้ว นอกจากนี้ยังมีการเพิ่มฟีเจอร์รองรับ dual gyros สำหรับ Joycons ของ Nintendo Switch เมื่อใช้งานในโหมด combined ซึ่งช่วยให้การควบคุมเกมมีความแม่นยำและลื่นไหลมากขึ้น โดยเฉพาะในเกมที่ใช้การเคลื่อนไหวเป็นหลัก อัปเดตนี้ยังเพิ่มความสามารถในการสลับแท็บในเบราว์เซอร์ภายใน Steam ด้วย CTRL+TAB, ปรับปรุงการแสดงผลแบบ High Contrast ในหน้าค้นหาเกม และเพิ่มประสิทธิภาพการบันทึกวิดีโอเกมที่ใช้ Vulkan rendering ที่สำคัญคือ Valve ได้เพิ่มการป้องกันช่องโหว่ CVE-2025-59489 ซึ่งเป็นช่องโหว่ใน Unity engine โดย Steam Client จะบล็อกการเปิดเกมทันทีหากตรวจพบพฤติกรรมที่เข้าข่ายการโจมตีผ่านช่องโหว่นี้ ฝั่ง Windows ก็มีการเพิ่มระบบตรวจสอบ Secure Boot และ TPM ซึ่งจะแสดงในเมนู Help > System Information และถูกนำไปใช้ใน Steam Hardware Survey เพื่อวิเคราะห์ความปลอดภัยของระบบผู้ใช้ Steam ยังแก้ไขปัญหาการสตรีมที่คลิกแล้วไม่ทำงาน, ปรับปรุง overlay ในเกมที่ใช้ D3D12 ให้ไม่ crash เมื่อเปิด/ปิดหลายส่วนอย่างรวดเร็ว และแก้ปัญหา SteamVR ที่ suppress การแจ้งเตือนหลังออกจากโหมด VR ✅ ข้อมูลสำคัญจากข่าว ➡️ Steam Client อัปเดตใหม่รองรับจอย DualSense บน Linux ได้ดีขึ้น ➡️ แก้ปัญหา crash เมื่อจอยอยู่ในสถานะ idle ➡️ เพิ่มการรองรับ dual gyros สำหรับ Joycons ในโหมด combined ➡️ ปรับปรุงการสลับแท็บในเบราว์เซอร์ด้วย CTRL+TAB ➡️ ปรับปรุงการแสดงผล High Contrast ในหน้าค้นหาเกม ➡️ เพิ่มประสิทธิภาพการบันทึกวิดีโอเกมที่ใช้ Vulkan rendering ➡️ เพิ่มการป้องกันช่องโหว่ CVE-2025-59489 ใน Unity engine ➡️ Steam จะบล็อกการเปิดเกมหากตรวจพบการโจมตีผ่านช่องโหว่ ➡️ เพิ่มการตรวจสอบ Secure Boot และ TPM บน Windows ➡️ แก้ปัญหาการสตรีม, overlay D3D12 และ SteamVR ที่ suppress การแจ้งเตือน ✅ ข้อมูลเสริมจากภายนอก ➡️ DualSense เป็นจอยของ PlayStation 5 ที่มีระบบ haptic feedback และ adaptive triggers ➡️ Joycons ของ Nintendo Switch มี gyroscope แยกในแต่ละข้าง ซึ่งเมื่อรวมกันจะให้การควบคุมที่แม่นยำ ➡️ Vulkan เป็น API กราฟิกที่ให้ประสิทธิภาพสูงและใช้ทรัพยากรน้อยกว่า DirectX ➡️ CVE-2025-59489 เป็นช่องโหว่ที่เปิดให้แฮกเกอร์ inject โค้ดผ่าน Unity engine ➡️ Secure Boot และ TPM เป็นระบบความปลอดภัยที่ช่วยป้องกันการโจมตีระดับ firmware https://9to5linux.com/latest-steam-client-update-improves-support-for-dualsense-controllers-on-linux
    9TO5LINUX.COM
    Latest Steam Client Update Improves Support for DualSense Controllers on Linux - 9to5Linux
    Valve released a new Steam Client stable update that improves support for DualSense controllers on Linux systems and fixes various bugs.
    0 ความคิดเห็น 0 การแบ่งปัน 161 มุมมอง 0 รีวิว
  • “Litestream v0.5.0 มาแล้ว — สำรอง SQLite แบบ Point-in-Time ได้จริง พร้อมฟอร์แมต LTX ที่เร็วกว่าและฉลาดกว่า”

    หลังจากหลายปีที่ SQLite ถูกมองว่าเหมาะกับงานเล็ก ๆ เท่านั้น เพราะไม่มีระบบสำรองข้อมูลที่ดีพอ ล่าสุด Litestream v0.5.0 ได้เปิดตัวพร้อมฟีเจอร์ใหม่ที่เปลี่ยนเกม — รองรับการกู้คืนฐานข้อมูลแบบ Point-in-Time Recovery (PITR) ด้วยฟอร์แมตใหม่ชื่อว่า LTX ซึ่งช่วยให้การสำรองและกู้คืนข้อมูลมีประสิทธิภาพสูงขึ้นอย่างมาก

    Litestream เป็นโปรแกรมโอเพ่นซอร์สที่ทำงานแบบ sidecar คอยจับการเปลี่ยนแปลงในฐานข้อมูล SQLite แล้วส่งไปเก็บไว้ใน object storage เช่น S3, Google Cloud หรือ Azure โดยไม่ต้องแก้ไขแอปพลิเคชันเดิมเลย และเมื่อเซิร์ฟเวอร์ล่ม ก็สามารถกู้คืนฐานข้อมูลกลับมาได้อย่างรวดเร็ว

    ในเวอร์ชันใหม่ Litestream ได้นำแนวคิดจาก LiteFS ซึ่งเป็นโปรเจกต์พี่น้องที่ใช้ FUSE filesystem มาใช้ โดยเปลี่ยนจากการเก็บข้อมูลแบบ WAL segment ไปเป็น LTX file ที่สามารถบีบอัดและจัดเรียงข้อมูลได้อย่างมีประสิทธิภาพ ทำให้สามารถกู้คืนฐานข้อมูลได้จากไฟล์เพียงไม่กี่ชุด

    ฟอร์แมต LTX ยังช่วยให้ Litestream ไม่ต้องใช้ระบบ “generation” แบบเดิมที่ซับซ้อน เพราะสามารถใช้ transaction ID ที่เพิ่มขึ้นเรื่อย ๆ เพื่อระบุสถานะของฐานข้อมูลในแต่ละช่วงเวลาได้ทันที

    นอกจากนี้ Litestream v0.5.0 ยังปรับปรุงระบบ replica ให้รองรับ NATS JetStream, ยกเลิกการใช้ CGO เพื่อให้ cross-compile ได้ง่ายขึ้น และเปลี่ยนมาใช้ modernc.org/sqlite แทน go-sqlite3 เพื่อรองรับระบบ build อัตโนมัติที่หลากหลายมากขึ้น

    ข้อมูลสำคัญจากข่าว
    Litestream v0.5.0 รองรับ Point-in-Time Recovery ด้วยฟอร์แมต LTX
    LTX ช่วยบีบอัดและจัดเรียงข้อมูลแบบ transaction-aware ทำให้กู้คืนได้เร็วขึ้น
    ไม่ต้องใช้ระบบ generation แบบเดิมอีกต่อไป ใช้ transaction ID แทน
    รองรับการสำรองข้อมูลไปยัง S3, Google Cloud, Azure และ NATS JetStream
    ยกเลิก CGO และเปลี่ยนมาใช้ modernc.org/sqlite เพื่อรองรับ cross-compile
    เพิ่มระบบ compaction แบบหลายระดับ: 30 วินาที, 5 นาที, 1 ชั่วโมง
    รองรับการกู้คืนฐานข้อมูลด้วยไฟล์เพียงไม่กี่ชุดโดยไม่ต้องโหลดทั้งฐาน
    ฟีเจอร์ใหม่ในอนาคต: Litestream VFS สำหรับ read-replica แบบทันทีจาก S3

    ข้อมูลเสริมจากภายนอก
    SQLite ใช้โครงสร้าง B-tree และจัดเก็บข้อมูลเป็น page ขนาด 4KB
    WAL (Write-Ahead Logging) เป็นระบบที่ SQLite ใช้เพื่อจัดการการเขียนข้อมูล
    LiteFS ใช้ FUSE เพื่อเข้าถึง SQLite โดยตรงและทำ replication แบบ live
    Point-in-Time Recovery เป็นฟีเจอร์ที่นิยมในฐานข้อมูลใหญ่ เช่น PostgreSQL
    modernc.org/sqlite เป็นไลบรารี Go ที่ไม่ต้องใช้ CGO ทำให้ build ได้ง่ายกว่า

    https://fly.io/blog/litestream-v050-is-here/
    🗄️ “Litestream v0.5.0 มาแล้ว — สำรอง SQLite แบบ Point-in-Time ได้จริง พร้อมฟอร์แมต LTX ที่เร็วกว่าและฉลาดกว่า” หลังจากหลายปีที่ SQLite ถูกมองว่าเหมาะกับงานเล็ก ๆ เท่านั้น เพราะไม่มีระบบสำรองข้อมูลที่ดีพอ ล่าสุด Litestream v0.5.0 ได้เปิดตัวพร้อมฟีเจอร์ใหม่ที่เปลี่ยนเกม — รองรับการกู้คืนฐานข้อมูลแบบ Point-in-Time Recovery (PITR) ด้วยฟอร์แมตใหม่ชื่อว่า LTX ซึ่งช่วยให้การสำรองและกู้คืนข้อมูลมีประสิทธิภาพสูงขึ้นอย่างมาก Litestream เป็นโปรแกรมโอเพ่นซอร์สที่ทำงานแบบ sidecar คอยจับการเปลี่ยนแปลงในฐานข้อมูล SQLite แล้วส่งไปเก็บไว้ใน object storage เช่น S3, Google Cloud หรือ Azure โดยไม่ต้องแก้ไขแอปพลิเคชันเดิมเลย และเมื่อเซิร์ฟเวอร์ล่ม ก็สามารถกู้คืนฐานข้อมูลกลับมาได้อย่างรวดเร็ว ในเวอร์ชันใหม่ Litestream ได้นำแนวคิดจาก LiteFS ซึ่งเป็นโปรเจกต์พี่น้องที่ใช้ FUSE filesystem มาใช้ โดยเปลี่ยนจากการเก็บข้อมูลแบบ WAL segment ไปเป็น LTX file ที่สามารถบีบอัดและจัดเรียงข้อมูลได้อย่างมีประสิทธิภาพ ทำให้สามารถกู้คืนฐานข้อมูลได้จากไฟล์เพียงไม่กี่ชุด ฟอร์แมต LTX ยังช่วยให้ Litestream ไม่ต้องใช้ระบบ “generation” แบบเดิมที่ซับซ้อน เพราะสามารถใช้ transaction ID ที่เพิ่มขึ้นเรื่อย ๆ เพื่อระบุสถานะของฐานข้อมูลในแต่ละช่วงเวลาได้ทันที นอกจากนี้ Litestream v0.5.0 ยังปรับปรุงระบบ replica ให้รองรับ NATS JetStream, ยกเลิกการใช้ CGO เพื่อให้ cross-compile ได้ง่ายขึ้น และเปลี่ยนมาใช้ modernc.org/sqlite แทน go-sqlite3 เพื่อรองรับระบบ build อัตโนมัติที่หลากหลายมากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Litestream v0.5.0 รองรับ Point-in-Time Recovery ด้วยฟอร์แมต LTX ➡️ LTX ช่วยบีบอัดและจัดเรียงข้อมูลแบบ transaction-aware ทำให้กู้คืนได้เร็วขึ้น ➡️ ไม่ต้องใช้ระบบ generation แบบเดิมอีกต่อไป ใช้ transaction ID แทน ➡️ รองรับการสำรองข้อมูลไปยัง S3, Google Cloud, Azure และ NATS JetStream ➡️ ยกเลิก CGO และเปลี่ยนมาใช้ modernc.org/sqlite เพื่อรองรับ cross-compile ➡️ เพิ่มระบบ compaction แบบหลายระดับ: 30 วินาที, 5 นาที, 1 ชั่วโมง ➡️ รองรับการกู้คืนฐานข้อมูลด้วยไฟล์เพียงไม่กี่ชุดโดยไม่ต้องโหลดทั้งฐาน ➡️ ฟีเจอร์ใหม่ในอนาคต: Litestream VFS สำหรับ read-replica แบบทันทีจาก S3 ✅ ข้อมูลเสริมจากภายนอก ➡️ SQLite ใช้โครงสร้าง B-tree และจัดเก็บข้อมูลเป็น page ขนาด 4KB ➡️ WAL (Write-Ahead Logging) เป็นระบบที่ SQLite ใช้เพื่อจัดการการเขียนข้อมูล ➡️ LiteFS ใช้ FUSE เพื่อเข้าถึง SQLite โดยตรงและทำ replication แบบ live ➡️ Point-in-Time Recovery เป็นฟีเจอร์ที่นิยมในฐานข้อมูลใหญ่ เช่น PostgreSQL ➡️ modernc.org/sqlite เป็นไลบรารี Go ที่ไม่ต้องใช้ CGO ทำให้ build ได้ง่ายกว่า https://fly.io/blog/litestream-v050-is-here/
    FLY.IO
    Litestream v0.5.0 is Here
    Same Litestream goodness but better, faster, stronger
    0 ความคิดเห็น 0 การแบ่งปัน 157 มุมมอง 0 รีวิว
  • “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่”

    ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่

    ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม

    Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที

    อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา

    ข้อมูลสำคัญจากข่าว
    Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing
    ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A
    มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB
    ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน
    สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ
    ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง
    ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก
    ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน

    ข้อมูลเสริมจากภายนอก
    หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40%
    ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ
    RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว
    MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม
    การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย

    https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    🔥 “Ampinel: อุปกรณ์ $95 ที่อาจช่วยชีวิตการ์ดจอ RTX ของคุณ — แก้ปัญหา 16-pin ละลายด้วยระบบบาลานซ์ไฟที่ Nvidia ลืมใส่” ตั้งแต่การ์ดจอซีรีส์ RTX 40 ของ Nvidia เปิดตัวพร้อมหัวต่อไฟแบบ 16-pin (12VHPWR) ก็มีรายงานปัญหาหัวละลายและสายไหม้ตามมาอย่างต่อเนื่อง โดยเฉพาะในรุ่น RTX 4090 และ 5090 ซึ่งดึงไฟสูงถึง 600W แต่ไม่มีระบบกระจายโหลดไฟฟ้าในตัว ต่างจาก RTX 3090 Ti ที่ยังมีวงจรบาลานซ์ไฟอยู่ ล่าสุด Aqua Computer จากเยอรมนีเปิดตัวอุปกรณ์ชื่อว่า Ampinel ที่ออกแบบมาเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการใส่ระบบ active load balancing ที่สามารถตรวจสอบและกระจายกระแสไฟฟ้าแบบเรียลไทม์ผ่านสาย 12V ทั้ง 6 เส้นในหัวต่อ 16-pin หากพบว่ามีสายใดเกิน 7.5A ซึ่งเป็นค่าที่ปลอดภัยต่อคอนแทค Ampinel จะปรับโหลดทันทีเพื่อป้องกันความร้อนสะสม Ampinel ยังมาพร้อมหน้าจอ OLED ขนาดเล็กที่แสดงค่ากระแสไฟแต่ละเส้น, ระบบแจ้งเตือนด้วยเสียง 85 dB และไฟ RGB ที่เปลี่ยนสีตามสถานะการใช้งาน นอกจากนี้ยังสามารถตั้งค่าผ่านซอฟต์แวร์ Aquasuite เพื่อกำหนดพฤติกรรมเมื่อเกิดเหตุ เช่น ปิดแอปที่ใช้ GPU หนัก, สั่ง shutdown เครื่อง หรือแม้แต่ตัดสัญญาณ sense บนการ์ดจอเพื่อหยุดจ่ายไฟทันที อุปกรณ์นี้ใช้แผงวงจร 6 ชั้นที่ทำจากทองแดงหนา 70 ไมครอน พร้อมบอดี้อะลูมิเนียมที่ช่วยระบายความร้อน และระบบ MCU ที่ควบคุม MOSFET แบบ low-resistance เพื่อให้การกระจายโหลดมีประสิทธิภาพสูงสุด โดยไม่ต้องพึ่งพาการเชื่อมต่อ USB หรือซอฟต์แวร์ตลอดเวลา ✅ ข้อมูลสำคัญจากข่าว ➡️ Ampinel เป็นอุปกรณ์เสริมสำหรับหัวต่อ 16-pin ที่มีระบบ active load balancing ➡️ ตรวจสอบสายไฟ 6 เส้นแบบเรียลไทม์ และปรับโหลดทันทีเมื่อเกิน 7.5A ➡️ มีหน้าจอ OLED แสดงค่ากระแสไฟ, ไฟ RGB แจ้งเตือน และเสียงเตือน 85 dB ➡️ ใช้แผงวงจร 6 ชั้นทองแดงหนา พร้อมบอดี้อะลูมิเนียมช่วยระบายความร้อน ➡️ สามารถตั้งค่าผ่าน Aquasuite ให้สั่งปิดแอป, shutdown หรือหยุดจ่ายไฟ ➡️ ระบบแจ้งเตือนแบ่งเป็น 8 ระดับ ตั้งค่าได้ทั้งภาพ เสียง และการตอบสนอง ➡️ ไม่ต้องพึ่งพา USB หรือซอฟต์แวร์ในการทำงานหลัก ➡️ ราคาประมาณ $95 หรือ €79.90 เริ่มส่งกลางเดือนพฤศจิกายน ✅ ข้อมูลเสริมจากภายนอก ➡️ หัวต่อ 16-pin มี safety margin ต่ำกว่าหัว 8-pin PCIe เดิมถึง 40% ➡️ ปัญหาหัวละลายเกิดจากการกระจายโหลดไม่เท่ากันในสายไฟ ➡️ RTX 3090 Ti ไม่มีปัญหาเพราะยังมีวงจรบาลานซ์ไฟในตัว ➡️ MOSFET แบบ low-RDS(on) ช่วยลดความร้อนและเพิ่มประสิทธิภาพการควบคุม ➡️ การตัดสัญญาณ sense บนการ์ดจอคือวิธีหยุดจ่ายไฟแบบฉุกเฉินที่ปลอดภัย https://www.tomshardware.com/pc-components/gpus/nvidias-16-pin-time-bomb-could-be-defused-by-this-usd95-gadget-ampinel-offers-load-balancing-that-nvidia-forgot-to-include
    0 ความคิดเห็น 0 การแบ่งปัน 166 มุมมอง 0 รีวิว
  • “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน”

    ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI

    ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI

    อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน

    ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้

    Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์

    ข้อมูลสำคัญจากข่าว
    Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์
    ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน
    GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน
    EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย
    สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024
    Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022
    บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน
    Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ

    ข้อมูลเสริมจากภายนอก
    H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต
    อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor
    ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU
    Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป
    การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง

    https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    💸 “GPU มูลค่า 568 ล้านดอลลาร์ถูกใช้ขุดคริปโตแทนฝึก AI — EU สอบสวน Northern Data ฐานเลี่ยงภาษีและฟอกเงิน” ยุโรปกำลังสั่นสะเทือน เมื่อหน่วยงานอัยการของสหภาพยุโรป (EPPO) เปิดการสอบสวนบริษัท Northern Data AG จากเยอรมนี หลังพบว่า GPU ประสิทธิภาพสูงกว่า 10,000 ตัวที่ซื้อมาในนามการลงทุนด้าน AI อาจถูกนำไปใช้ขุดคริปโตแทน ซึ่งขัดต่อเงื่อนไขการรับสิทธิประโยชน์ทางภาษีที่สวีเดนมอบให้กับธุรกิจ AI ในปี 2023 Northern Data ได้ซื้อ Nvidia H100 GPU มูลค่ารวมกว่า €400 ล้าน โดยได้รับการยกเว้น VAT ประมาณ €100 ล้านจากนโยบายสนับสนุน AI ของสวีเดน แต่หลังจากนโยบายเปลี่ยนไปในปีเดียวกัน โดยยกเลิกสิทธิประโยชน์สำหรับธุรกิจขุดคริปโต บริษัทจึงหันมาอ้างว่าใช้ GPU เหล่านี้เพื่อการประมวลผล AI อย่างไรก็ตาม นักวิจัยพบว่า GPU เหล่านี้อาจถูกใช้ในศูนย์ข้อมูลที่เคยใช้ขุดคริปโตมาก่อน และมีพฤติกรรมที่ส่อว่าไม่ได้ใช้เพื่อฝึกโมเดล AI จริง ๆ ซึ่งนำไปสู่การสอบสวนในข้อหาเลี่ยงภาษีและฟอกเงิน โดยมีการบุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัวบุคคล 4 ราย และสอบสวนพนักงานระดับสูงในสวีเดน ที่น่าสนใจคือ H100 GPU ไม่เหมาะกับการขุดคริปโตเลย — ราคาสูงมาก, ประสิทธิภาพต่อวัตต์ต่ำ และไม่รองรับอัลกอริธึมที่ใช้ใน Bitcoin หรือ Ethereum หลังปี 2022 ซึ่งทำให้ข้อกล่าวหานี้ดูขัดแย้งกับหลักเศรษฐศาสตร์พื้นฐาน แต่หากบริษัทมี GPU เหล่านี้อยู่แล้วและมีไฟราคาถูก ก็อาจใช้ขุดเหรียญเล็ก ๆ แบบฉวยโอกาสได้ Northern Data ยืนยันว่าโครงสร้างพื้นฐานของตนถูกใช้เพื่อ cloud computing เท่านั้น และปฏิเสธให้ความเห็นเกี่ยวกับข้อกล่าวหาฟอกเงิน ขณะเดียวกันก็มีรายงานว่า Tether ซึ่งเป็นเจ้าของหลักของ Northern Data กำลังเจรจาขอซื้อกิจการผ่านดีลหุ้นมูลค่ากว่า 1.17 พันล้านดอลลาร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Northern Data ถูกสอบสวนฐานเลี่ยงภาษีและฟอกเงินจากการใช้ GPU ผิดวัตถุประสงค์ ➡️ ซื้อ Nvidia H100 จำนวน 10,000 ตัว มูลค่ารวม €400 ล้าน พร้อมรับสิทธิยกเว้น VAT €100 ล้าน ➡️ GPU ถูกอ้างว่าใช้เพื่อ AI แต่ถูกสงสัยว่าใช้ขุดคริปโตแทน ➡️ EPPO บุกค้นสำนักงานในแฟรงก์เฟิร์ตและโบเดน พร้อมควบคุมตัว 4 ราย ➡️ สอบสวนพนักงานระดับสูงในสวีเดน และตรวจสอบ 3 บริษัทลูกระหว่างปี 2021–2024 ➡️ Northern Data เคยมีประวัติใช้ GPU ขุด Ethereum ก่อนที่ระบบจะเปลี่ยนในปี 2022 ➡️ บริษัทยืนยันว่าใช้ GPU เพื่อ cloud computing และไม่ตอบข้อกล่าวหาฟอกเงิน ➡️ Tether เป็นผู้ถือหุ้นใหญ่ และมีข่าวว่า Rumble กำลังเจรจาซื้อกิจการ ✅ ข้อมูลเสริมจากภายนอก ➡️ H100 GPU ถูกออกแบบเพื่องาน AI เช่น training LLMs และไม่เหมาะกับการขุดคริปโต ➡️ อัลกอริธึมขุดคริปโต เช่น SHA-256 และ Ethash ใช้การประมวลผลแบบ integer ไม่ใช่ tensor ➡️ ASIC คืออุปกรณ์ที่เหมาะกับการขุด Bitcoin มากกว่า GPU ➡️ Ethereum เปลี่ยนเป็น proof-of-stake ในปี 2022 ทำให้ GPU ไม่จำเป็นอีกต่อไป ➡️ การใช้ GPU ขุดเหรียญเล็ก ๆ อาจทำได้ในระยะสั้น หากมีไฟราคาถูกและอุปกรณ์ว่าง https://www.tomshardware.com/pc-components/gpus/usd568-million-of-gpus-allegedly-misused-for-crypto-mining-caught-in-tax-evasion-and-money-laundering-probe-eu-claims-10-000-nvidia-h100-units-acquired-by-northern-data-may-not-have-been-used-for-ai
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • “iPhone 17 Pro Max ติดชุดระบายความร้อน SSD — ทำคะแนนเสถียรภาพทะลุ 90% ใน 3DMark แต่หน้าตายังน่าถกเถียง”

    ในยุคที่สมาร์ตโฟนกลายเป็นเครื่องมือทำงานระดับโปร ไม่ใช่แค่โทรศัพท์อีกต่อไป ผู้ใช้งาน Reddit นามว่า T-K-Tronix ได้ทดลองติดตั้งชุดระบายความร้อนแบบ SSD บน iPhone 17 Pro Max เพื่อแก้ปัญหาความร้อนจากการใช้งานหนัก โดยเฉพาะการถ่ายวิดีโอแบบ Apple ProRes ซึ่งขึ้นชื่อเรื่องการทำให้เครื่องร้อนจัดเมื่อใช้งานต่อเนื่อง

    ผลลัพธ์น่าทึ่ง — iPhone ที่ติดตั้งชุดระบายความร้อนนี้สามารถทำคะแนนเสถียรภาพได้ถึง 90.5% ในการทดสอบ 3DMark Steel Nomad Light Stress Test ซึ่งสูงกว่าค่ามาตรฐานที่ Max Tech เคยทดสอบไว้ที่ 69.4% อย่างมีนัยสำคัญ

    ชุดระบายความร้อนที่ใช้คือ M.2 SSD cooler แบบพาสซีฟหลายตัว ซึ่งปกติใช้กับคอมพิวเตอร์ โดยมีฮีตไปป์ทองแดง, ฟินอลูมิเนียม และพัดลมขนาดเล็กติดอยู่ด้านหลังเครื่อง iPhone เพื่อช่วยดึงความร้อนออกจากชิป A19 Pro ได้อย่างมีประสิทธิภาพมากกว่าระบบ vapor chamber ที่ Apple ติดตั้งมาในเครื่อง

    แม้ Apple จะเปลี่ยนดีไซน์ iPhone 17 Pro Max ให้ใช้บอดี้อลูมิเนียมแบบ wraparound พร้อม vapor chamber ที่ระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า แต่การใช้งานจริงโดยเฉพาะในงานวิดีโอระดับมืออาชีพยังคงมีข้อจำกัดด้านความร้อน ทำให้ผู้ใช้บางคนเลือกดัดแปลงเครื่องเพื่อให้ได้ประสิทธิภาพสูงสุด

    อย่างไรก็ตาม การติดตั้งชุดระบายความร้อนขนาดใหญ่เช่นนี้อาจไม่เหมาะกับการใช้งานทั่วไป เพราะมีขนาดใหญ่ หนัก และอาจขัดกับการใช้งานแบบพกพา แม้จะมีคนเสนอให้ใช้ร่วมกับ MagSafe หรือใส่ใน “cage” สำหรับงานวิดีโอโดยเฉพาะก็ตาม

    https://www.tomshardware.com/phones/iphone/monstrous-ssd-cooling-solution-strapped-to-iphone-17-pro-max-delivers-unparalleled-performance-clocks-90-percent-stability-in-3d-mark-stress-test-jury-still-out-on-hideous-aesthetics
    📱❄️ “iPhone 17 Pro Max ติดชุดระบายความร้อน SSD — ทำคะแนนเสถียรภาพทะลุ 90% ใน 3DMark แต่หน้าตายังน่าถกเถียง” ในยุคที่สมาร์ตโฟนกลายเป็นเครื่องมือทำงานระดับโปร ไม่ใช่แค่โทรศัพท์อีกต่อไป ผู้ใช้งาน Reddit นามว่า T-K-Tronix ได้ทดลองติดตั้งชุดระบายความร้อนแบบ SSD บน iPhone 17 Pro Max เพื่อแก้ปัญหาความร้อนจากการใช้งานหนัก โดยเฉพาะการถ่ายวิดีโอแบบ Apple ProRes ซึ่งขึ้นชื่อเรื่องการทำให้เครื่องร้อนจัดเมื่อใช้งานต่อเนื่อง ผลลัพธ์น่าทึ่ง — iPhone ที่ติดตั้งชุดระบายความร้อนนี้สามารถทำคะแนนเสถียรภาพได้ถึง 90.5% 😝😝 ในการทดสอบ 3DMark Steel Nomad Light Stress Test ซึ่งสูงกว่าค่ามาตรฐานที่ Max Tech เคยทดสอบไว้ที่ 69.4% อย่างมีนัยสำคัญ ชุดระบายความร้อนที่ใช้คือ M.2 SSD cooler แบบพาสซีฟหลายตัว ซึ่งปกติใช้กับคอมพิวเตอร์ โดยมีฮีตไปป์ทองแดง, ฟินอลูมิเนียม และพัดลมขนาดเล็กติดอยู่ด้านหลังเครื่อง iPhone เพื่อช่วยดึงความร้อนออกจากชิป A19 Pro ได้อย่างมีประสิทธิภาพมากกว่าระบบ vapor chamber ที่ Apple ติดตั้งมาในเครื่อง แม้ Apple จะเปลี่ยนดีไซน์ iPhone 17 Pro Max ให้ใช้บอดี้อลูมิเนียมแบบ wraparound พร้อม vapor chamber ที่ระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า แต่การใช้งานจริงโดยเฉพาะในงานวิดีโอระดับมืออาชีพยังคงมีข้อจำกัดด้านความร้อน ทำให้ผู้ใช้บางคนเลือกดัดแปลงเครื่องเพื่อให้ได้ประสิทธิภาพสูงสุด อย่างไรก็ตาม การติดตั้งชุดระบายความร้อนขนาดใหญ่เช่นนี้อาจไม่เหมาะกับการใช้งานทั่วไป เพราะมีขนาดใหญ่ หนัก และอาจขัดกับการใช้งานแบบพกพา แม้จะมีคนเสนอให้ใช้ร่วมกับ MagSafe หรือใส่ใน “cage” สำหรับงานวิดีโอโดยเฉพาะก็ตาม https://www.tomshardware.com/phones/iphone/monstrous-ssd-cooling-solution-strapped-to-iphone-17-pro-max-delivers-unparalleled-performance-clocks-90-percent-stability-in-3d-mark-stress-test-jury-still-out-on-hideous-aesthetics
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • “สร้างคลังข้อมูล 30 เพตาไบต์ด้วยงบไม่ถึงครึ่งล้าน — เบื้องหลังการฝึกโมเดล AI ด้วยวิดีโอ 90 ล้านชั่วโมง”

    ในยุคที่โมเดล AI ต้องการข้อมูลมหาศาลเพื่อเรียนรู้ การฝึกโมเดลจากวิดีโอไม่ใช่เรื่องเล็ก ล่าสุดทีม Standard Intelligence ได้สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30 เพตาไบต์ (PB) ด้วยงบเพียง 426,500 ดอลลาร์ เพื่อใช้ฝึกโมเดล AI ที่เรียนรู้จากการใช้งานคอมพิวเตอร์โดยตรง ซึ่งแตกต่างจากโมเดลข้อความทั่วไปที่ใช้ข้อมูลเพียง ~60TB

    แทนที่จะใช้บริการคลาวด์อย่าง AWS ที่มีค่าใช้จ่ายสูงถึง 12 ล้านดอลลาร์ต่อปี ทีมงานเลือกเช่าพื้นที่ในศูนย์ข้อมูลกลางเมืองซานฟรานซิสโก ทำให้ลดต้นทุนลงถึง 40 เท่า เหลือเพียง 354,000 ดอลลาร์ต่อปี รวมค่าเสื่อมราคา

    แนวคิดเบื้องหลังคือ “ข้อมูลฝึกไม่จำเป็นต้องสมบูรณ์แบบ” เพราะการสูญเสียข้อมูลบางส่วนไม่กระทบต่อคุณภาพโมเดลมากนัก ต่างจากข้อมูลผู้ใช้ที่ต้องการความแม่นยำสูง ทีมงานจึงเลือกใช้ฮาร์ดดิสก์มือสอง, เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust เพียง 200 บรรทัด และใช้ nginx กับ SQLite แทนระบบซับซ้อนอย่าง Ceph หรือ MinIO

    การติดตั้งระบบใช้เวลาเพียง 36 ชั่วโมง โดยจัดกิจกรรม “Storage Stacking Saturday” ชวนเพื่อนมาช่วยประกอบแร็ค พร้อมแจกฮาร์ดดิสก์สลักชื่อเป็นของที่ระลึก และหลังจากนั้นจึงจ้างช่างมืออาชีพมาติดตั้งระบบให้สมบูรณ์

    ผลลัพธ์คือคลัสเตอร์ที่สามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps โดยไม่ต้องพึ่งระบบซับซ้อนหรือคลาวด์แพง ๆ และยังสามารถแข่งขันกับห้องวิจัย AI ระดับโลกที่มีงบพันล้านได้อย่างมีประสิทธิภาพ

    ข้อมูลสำคัญจากข่าว
    สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30PB ด้วยงบ 426,500 ดอลลาร์
    ใช้ฮาร์ดดิสก์มือสอง 2,400 ลูก ขนาด 12–14TB ต่อลูก
    เลือกใช้ศูนย์ข้อมูลใกล้ออฟฟิศในซานฟรานซิสโก ลดค่าใช้จ่ายและเพิ่มความสะดวก
    เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust 200 บรรทัด + nginx + SQLite
    ไม่ใช้ระบบ Ceph หรือ MinIO เพราะซับซ้อนเกินจำเป็น
    จัดกิจกรรม “Storage Stacking Saturday” ติดตั้งระบบภายใน 36 ชั่วโมง
    ระบบสามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps
    ค่าใช้จ่ายรายเดือนรวมอินเทอร์เน็ตและไฟฟ้าอยู่ที่ 17,500 ดอลลาร์
    ค่าเสื่อมราคาเฉลี่ยเดือนละ 12,000 ดอลลาร์ รวมเป็น 29,500 ดอลลาร์/เดือน
    เปรียบเทียบต้นทุน: AWS $38/TB, Cloudflare $10/TB, ระบบนี้ $1/TB

    ข้อมูลเสริมจากภายนอก
    โมเดล AI ที่เรียนรู้จากวิดีโอต้องการข้อมูลมากกว่าข้อความถึง 500 เท่า
    ML-KEM และการเข้ารหัสแบบ post-quantum เริ่มถูกนำมาใช้ในระบบจัดเก็บข้อมูล AI
    Ceph เหมาะกับองค์กรที่ต้องการประสิทธิภาพสูงและมีทีมดูแลเฉพาะทาง
    MinIO เหมาะกับระบบที่ต้องการ S3 compatibility แต่ยังซับซ้อนสำหรับงานง่าย
    การใช้ฮาร์ดดิสก์แบบ SAS ให้ความเร็วสูงกว่าระบบ SATA แต่ต้องจัดการ multipath

    https://si.inc/posts/the-heap/
    🧠 “สร้างคลังข้อมูล 30 เพตาไบต์ด้วยงบไม่ถึงครึ่งล้าน — เบื้องหลังการฝึกโมเดล AI ด้วยวิดีโอ 90 ล้านชั่วโมง” ในยุคที่โมเดล AI ต้องการข้อมูลมหาศาลเพื่อเรียนรู้ การฝึกโมเดลจากวิดีโอไม่ใช่เรื่องเล็ก ล่าสุดทีม Standard Intelligence ได้สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30 เพตาไบต์ (PB) ด้วยงบเพียง 426,500 ดอลลาร์ เพื่อใช้ฝึกโมเดล AI ที่เรียนรู้จากการใช้งานคอมพิวเตอร์โดยตรง ซึ่งแตกต่างจากโมเดลข้อความทั่วไปที่ใช้ข้อมูลเพียง ~60TB แทนที่จะใช้บริการคลาวด์อย่าง AWS ที่มีค่าใช้จ่ายสูงถึง 12 ล้านดอลลาร์ต่อปี ทีมงานเลือกเช่าพื้นที่ในศูนย์ข้อมูลกลางเมืองซานฟรานซิสโก ทำให้ลดต้นทุนลงถึง 40 เท่า เหลือเพียง 354,000 ดอลลาร์ต่อปี รวมค่าเสื่อมราคา แนวคิดเบื้องหลังคือ “ข้อมูลฝึกไม่จำเป็นต้องสมบูรณ์แบบ” เพราะการสูญเสียข้อมูลบางส่วนไม่กระทบต่อคุณภาพโมเดลมากนัก ต่างจากข้อมูลผู้ใช้ที่ต้องการความแม่นยำสูง ทีมงานจึงเลือกใช้ฮาร์ดดิสก์มือสอง, เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust เพียง 200 บรรทัด และใช้ nginx กับ SQLite แทนระบบซับซ้อนอย่าง Ceph หรือ MinIO การติดตั้งระบบใช้เวลาเพียง 36 ชั่วโมง โดยจัดกิจกรรม “Storage Stacking Saturday” ชวนเพื่อนมาช่วยประกอบแร็ค พร้อมแจกฮาร์ดดิสก์สลักชื่อเป็นของที่ระลึก และหลังจากนั้นจึงจ้างช่างมืออาชีพมาติดตั้งระบบให้สมบูรณ์ ผลลัพธ์คือคลัสเตอร์ที่สามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps โดยไม่ต้องพึ่งระบบซับซ้อนหรือคลาวด์แพง ๆ และยังสามารถแข่งขันกับห้องวิจัย AI ระดับโลกที่มีงบพันล้านได้อย่างมีประสิทธิภาพ ✅ ข้อมูลสำคัญจากข่าว ➡️ สร้างคลัสเตอร์จัดเก็บข้อมูลขนาด 30PB ด้วยงบ 426,500 ดอลลาร์ ➡️ ใช้ฮาร์ดดิสก์มือสอง 2,400 ลูก ขนาด 12–14TB ต่อลูก ➡️ เลือกใช้ศูนย์ข้อมูลใกล้ออฟฟิศในซานฟรานซิสโก ลดค่าใช้จ่ายและเพิ่มความสะดวก ➡️ เขียนซอฟต์แวร์จัดการข้อมูลเองด้วย Rust 200 บรรทัด + nginx + SQLite ➡️ ไม่ใช้ระบบ Ceph หรือ MinIO เพราะซับซ้อนเกินจำเป็น ➡️ จัดกิจกรรม “Storage Stacking Saturday” ติดตั้งระบบภายใน 36 ชั่วโมง ➡️ ระบบสามารถอ่าน/เขียนข้อมูลได้เต็มความเร็ว 100Gbps ➡️ ค่าใช้จ่ายรายเดือนรวมอินเทอร์เน็ตและไฟฟ้าอยู่ที่ 17,500 ดอลลาร์ ➡️ ค่าเสื่อมราคาเฉลี่ยเดือนละ 12,000 ดอลลาร์ รวมเป็น 29,500 ดอลลาร์/เดือน ➡️ เปรียบเทียบต้นทุน: AWS $38/TB, Cloudflare $10/TB, ระบบนี้ $1/TB ✅ ข้อมูลเสริมจากภายนอก ➡️ โมเดล AI ที่เรียนรู้จากวิดีโอต้องการข้อมูลมากกว่าข้อความถึง 500 เท่า ➡️ ML-KEM และการเข้ารหัสแบบ post-quantum เริ่มถูกนำมาใช้ในระบบจัดเก็บข้อมูล AI ➡️ Ceph เหมาะกับองค์กรที่ต้องการประสิทธิภาพสูงและมีทีมดูแลเฉพาะทาง ➡️ MinIO เหมาะกับระบบที่ต้องการ S3 compatibility แต่ยังซับซ้อนสำหรับงานง่าย ➡️ การใช้ฮาร์ดดิสก์แบบ SAS ให้ความเร็วสูงกว่าระบบ SATA แต่ต้องจัดการ multipath https://si.inc/posts/the-heap/
    SI.INC
    Building the heap: racking 30 petabytes of hard drives for pretraining
    How we spent under half a million dollars to build a 30 petabyte data storage cluster in downtown San Francisco
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
  • “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน”

    ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้

    SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น

    เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง

    ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้

    การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้

    Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต

    ข้อมูลสำคัญจากข่าว
    Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet
    SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม
    Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ
    ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่
    ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR
    การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F*
    SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม
    ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง

    ข้อมูลเสริมจากภายนอก
    Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function
    ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม
    Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ
    Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์
    SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU

    https://signal.org/blog/spqr/
    🔐 “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน” ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้ SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้ การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้ Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet ➡️ SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม ➡️ Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ ➡️ ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่ ➡️ ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR ➡️ การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F* ➡️ SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม ➡️ ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง ✅ ข้อมูลเสริมจากภายนอก ➡️ Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function ➡️ ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม ➡️ Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ ➡️ Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์ ➡️ SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU https://signal.org/blog/spqr/
    SIGNAL.ORG
    Signal Protocol and Post-Quantum Ratchets
    We are excited to announce a significant advancement in the security of the Signal Protocol: the introduction of the Sparse Post Quantum Ratchet (SPQR). This new ratchet enhances the Signal Protocol’s resilience against future quantum computing threats while maintaining our existing security guar...
    0 ความคิดเห็น 0 การแบ่งปัน 117 มุมมอง 0 รีวิว
  • โดรน Geran ของรัสเซียเลิกเป็น "เด็กแว๊นซ์" แล้ว

    หน่วยข่าวกรองของยูเครนรายงานว่าโดรน “Geran-3” รุ่นใหม่ของรัสเซีย พัฒนาเครื่องยนต์ใหม่เป็นเครื่องยนต์มินิเจ็ต

    ที่บินได้เร็วถึง 230 ไมล์ต่อชั่วโมง (ประมาณ 370 กม./ชั่วโมง)
    และมีระยะบินไกลกว่า 620 ไมล์ (ประมาณ 997 กิโลเมตร)
    ซึ่งมาพร้อมระบบต่อต้านสงครามอิเล็กทรอนิกส์เต็มรูปแบบ สามารถหลบเลี่ยงการดักจับและการรบกวนสัญญาณของยูเครนได้
    และบินได้นานถึง 6 ชั่วโมง
    ติดตั้งหัวรบระเบิดแรงสูงได้มากถึง 198 ปอนด์ (ประมาณ 90 กิโลกรัม)
    หัวรบที่ติดตั้งมีทั้งแบบคลัสเตอร์บอม์และหัวรบแบบเทอร์โมบาริก ซึ่งมีประสิทธิภาพสูงในการทำลายเป้าหมายที่มีการป้องกันแน่นหนา
    .
    ทางหน่วยข่าวกรองของยูเครนออกมาวิจารณ์ว่า ส่วนประกอบของโดรนรุ่นใหม่ ใช้ชิ้นส่วนจากต่างประเทศซึ่งส่วนใหญ่ล้วนเป็นพันธมิตรกับยูเครนทั้งสิ้น โดยที่ครึ่งหนึ่งมาจากผู้ผลิตในอเมริกา และ 8 ชิ้นมาจากจีน อีก 7 ชิ้นส่วนมาจากสวิตเซอร์แลนด์ และ 3 ชิ้นส่วนจากเยอรมนี อีก 2 ชิ้นจากอังกฤษ และ 1 ชิ้นจากผู้ผลิตในญี่ปุ่น
    .
    วิดีโอ 1 เสียงของเครื่องยนต์จากโดรน Geran-3 เปลี่ยนไป
    โดรน Geran ของรัสเซียเลิกเป็น "เด็กแว๊นซ์" แล้ว หน่วยข่าวกรองของยูเครนรายงานว่าโดรน “Geran-3” รุ่นใหม่ของรัสเซีย พัฒนาเครื่องยนต์ใหม่เป็นเครื่องยนต์มินิเจ็ต 👉ที่บินได้เร็วถึง 230 ไมล์ต่อชั่วโมง (ประมาณ 370 กม./ชั่วโมง) 👉และมีระยะบินไกลกว่า 620 ไมล์ (ประมาณ 997 กิโลเมตร) ซึ่งมาพร้อมระบบต่อต้านสงครามอิเล็กทรอนิกส์เต็มรูปแบบ สามารถหลบเลี่ยงการดักจับและการรบกวนสัญญาณของยูเครนได้ 👉และบินได้นานถึง 6 ชั่วโมง 👉ติดตั้งหัวรบระเบิดแรงสูงได้มากถึง 198 ปอนด์ (ประมาณ 90 กิโลกรัม) 👉หัวรบที่ติดตั้งมีทั้งแบบคลัสเตอร์บอม์และหัวรบแบบเทอร์โมบาริก ซึ่งมีประสิทธิภาพสูงในการทำลายเป้าหมายที่มีการป้องกันแน่นหนา . ทางหน่วยข่าวกรองของยูเครนออกมาวิจารณ์ว่า ส่วนประกอบของโดรนรุ่นใหม่ ใช้ชิ้นส่วนจากต่างประเทศซึ่งส่วนใหญ่ล้วนเป็นพันธมิตรกับยูเครนทั้งสิ้น โดยที่ครึ่งหนึ่งมาจากผู้ผลิตในอเมริกา และ 8 ชิ้นมาจากจีน อีก 7 ชิ้นส่วนมาจากสวิตเซอร์แลนด์ และ 3 ชิ้นส่วนจากเยอรมนี อีก 2 ชิ้นจากอังกฤษ และ 1 ชิ้นจากผู้ผลิตในญี่ปุ่น . วิดีโอ 1 เสียงของเครื่องยนต์จากโดรน Geran-3 เปลี่ยนไป
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • “Euclyd เปิดตัว CRAFTWERK — ชิป AI ขนาดฝ่ามือที่แรงกว่า Nvidia ด้วย 16,384 คอร์ และแบนด์วิดธ์ 8PB/s”

    ในงาน KISACO Infrastructure Summit 2025 ที่ซานตาคลารา สตาร์ทอัพจากยุโรปชื่อ Euclyd ได้เปิดตัวชิป AI รุ่นใหม่ชื่อว่า “CRAFTWERK” ซึ่งสร้างความฮือฮาในวงการด้วยสเปกที่เหนือกว่าชิปจากบริษัทใหญ่ ๆ อย่าง Nvidia และ Intel อย่างชัดเจน

    CRAFTWERK เป็นชิปแบบ SiP (System-in-Package) ขนาดเล็กเท่าฝ่ามือ แต่ภายในบรรจุ SIMD processor ถึง 16,384 คอร์ พร้อมหน่วยความจำแบบใหม่ที่เรียกว่า UBM (Ultra Bandwidth Memory) ขนาด 1TB ซึ่งสามารถส่งข้อมูลได้เร็วถึง 8,000TB/s หรือ 8PB/s — เร็วกว่าหน่วยความจำ HBM ที่ Nvidia ใช้อย่างมาก

    ด้านการประมวลผล CRAFTWERK ให้พลังสูงถึง 8 PFLOPS ใน FP16 และ 32 PFLOPS ใน FP4 ซึ่งเหมาะกับงาน AI inference โดยเฉพาะแบบ agentic AI ที่ต้องการประสิทธิภาพสูงและการจัดการพลังงานที่ดี

    นอกจากนี้ Euclyd ยังเปิดตัว CRAFTWERK STATION CWS 32 ซึ่งเป็นระบบ rack-scale ที่รวมชิป CRAFTWERK 32 ตัวเข้าด้วยกัน ให้พลังรวมถึง 1.024 exaflops และหน่วยความจำรวม 32TB โดยสามารถสร้าง token ได้ถึง 7.68 ล้านต่อวินาทีในโหมดหลายผู้ใช้ และใช้พลังงานเพียง 125kW ซึ่งถือว่าประหยัดกว่าระบบทั่วไปถึง 100 เท่า

    บริษัทตั้งอยู่ใน Eindhoven ประเทศเนเธอร์แลนด์ และมีสำนักงานในซานโฮเซ่ สหรัฐฯ โดยได้รับการสนับสนุนจากบุคคลสำคัญในวงการ เช่น Peter Wennink อดีต CEO ของ ASML และ Federico Faggin ผู้คิดค้นไมโครโปรเซสเซอร์

    ข้อมูลสำคัญจากข่าว
    Euclyd เปิดตัวชิป AI CRAFTWERK ที่งาน KISACO Summit 2025
    ชิปมี 16,384 SIMD คอร์ และหน่วยความจำ UBM ขนาด 1TB
    แบนด์วิดธ์ของ UBM สูงถึง 8PB/s เร็วกว่าหน่วยความจำ HBM ของ Nvidia
    ให้พลังประมวลผล 8 PFLOPS (FP16) และ 32 PFLOPS (FP4)
    CRAFTWERK STATION CWS 32 รวมชิป 32 ตัว ให้พลังรวม 1.024 exaflops
    สร้าง token ได้ 7.68 ล้านต่อวินาที ใช้พลังงานเพียง 125kW
    ประสิทธิภาพด้านพลังงานและต้นทุนต่อ token ดีกว่าระบบทั่วไปถึง 100 เท่า
    บริษัทมีสำนักงานในเนเธอร์แลนด์และสหรัฐฯ ได้รับการสนับสนุนจากอดีตผู้บริหาร ASML และผู้คิดค้นไมโครโปรเซสเซอร์

    ข้อมูลเสริมจากภายนอก
    FP4 เป็นรูปแบบความแม่นยำต่ำที่เหมาะกับงาน inference โดยเฉพาะ LLM
    SIMD (Single Instruction, Multiple Data) เหมาะกับงานที่ต้องประมวลผลข้อมูลจำนวนมากพร้อมกัน
    UBM เป็นหน่วยความจำที่ออกแบบมาเฉพาะ ไม่ใช้เทคโนโลยีจาก HBM หรือ SRAM
    การใช้ SiP ขนาดเล็กช่วยลดความซับซ้อนในการเชื่อมต่อและการจัดการพลังงาน
    Euclyd ใช้แนวคิด “Crafted Compute” ที่ออกแบบทุกส่วนตั้งแต่ processor ถึง packaging

    https://www.techradar.com/pro/obscure-eu-ai-startup-outs-massive-chip-that-has-16-384-simd-processors-and-1tb-of-memory-thats-even-faster-than-nvidias-hbm-euclyds-ubm-has-8pb-s-bandwidth-32pf-fp4-compute-performance-and-some-iconic-backers
    🚀 “Euclyd เปิดตัว CRAFTWERK — ชิป AI ขนาดฝ่ามือที่แรงกว่า Nvidia ด้วย 16,384 คอร์ และแบนด์วิดธ์ 8PB/s” ในงาน KISACO Infrastructure Summit 2025 ที่ซานตาคลารา สตาร์ทอัพจากยุโรปชื่อ Euclyd ได้เปิดตัวชิป AI รุ่นใหม่ชื่อว่า “CRAFTWERK” ซึ่งสร้างความฮือฮาในวงการด้วยสเปกที่เหนือกว่าชิปจากบริษัทใหญ่ ๆ อย่าง Nvidia และ Intel อย่างชัดเจน CRAFTWERK เป็นชิปแบบ SiP (System-in-Package) ขนาดเล็กเท่าฝ่ามือ แต่ภายในบรรจุ SIMD processor ถึง 16,384 คอร์ พร้อมหน่วยความจำแบบใหม่ที่เรียกว่า UBM (Ultra Bandwidth Memory) ขนาด 1TB ซึ่งสามารถส่งข้อมูลได้เร็วถึง 8,000TB/s หรือ 8PB/s — เร็วกว่าหน่วยความจำ HBM ที่ Nvidia ใช้อย่างมาก ด้านการประมวลผล CRAFTWERK ให้พลังสูงถึง 8 PFLOPS ใน FP16 และ 32 PFLOPS ใน FP4 ซึ่งเหมาะกับงาน AI inference โดยเฉพาะแบบ agentic AI ที่ต้องการประสิทธิภาพสูงและการจัดการพลังงานที่ดี นอกจากนี้ Euclyd ยังเปิดตัว CRAFTWERK STATION CWS 32 ซึ่งเป็นระบบ rack-scale ที่รวมชิป CRAFTWERK 32 ตัวเข้าด้วยกัน ให้พลังรวมถึง 1.024 exaflops และหน่วยความจำรวม 32TB โดยสามารถสร้าง token ได้ถึง 7.68 ล้านต่อวินาทีในโหมดหลายผู้ใช้ และใช้พลังงานเพียง 125kW ซึ่งถือว่าประหยัดกว่าระบบทั่วไปถึง 100 เท่า บริษัทตั้งอยู่ใน Eindhoven ประเทศเนเธอร์แลนด์ และมีสำนักงานในซานโฮเซ่ สหรัฐฯ โดยได้รับการสนับสนุนจากบุคคลสำคัญในวงการ เช่น Peter Wennink อดีต CEO ของ ASML และ Federico Faggin ผู้คิดค้นไมโครโปรเซสเซอร์ ✅ ข้อมูลสำคัญจากข่าว ➡️ Euclyd เปิดตัวชิป AI CRAFTWERK ที่งาน KISACO Summit 2025 ➡️ ชิปมี 16,384 SIMD คอร์ และหน่วยความจำ UBM ขนาด 1TB ➡️ แบนด์วิดธ์ของ UBM สูงถึง 8PB/s เร็วกว่าหน่วยความจำ HBM ของ Nvidia ➡️ ให้พลังประมวลผล 8 PFLOPS (FP16) และ 32 PFLOPS (FP4) ➡️ CRAFTWERK STATION CWS 32 รวมชิป 32 ตัว ให้พลังรวม 1.024 exaflops ➡️ สร้าง token ได้ 7.68 ล้านต่อวินาที ใช้พลังงานเพียง 125kW ➡️ ประสิทธิภาพด้านพลังงานและต้นทุนต่อ token ดีกว่าระบบทั่วไปถึง 100 เท่า ➡️ บริษัทมีสำนักงานในเนเธอร์แลนด์และสหรัฐฯ ได้รับการสนับสนุนจากอดีตผู้บริหาร ASML และผู้คิดค้นไมโครโปรเซสเซอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ FP4 เป็นรูปแบบความแม่นยำต่ำที่เหมาะกับงาน inference โดยเฉพาะ LLM ➡️ SIMD (Single Instruction, Multiple Data) เหมาะกับงานที่ต้องประมวลผลข้อมูลจำนวนมากพร้อมกัน ➡️ UBM เป็นหน่วยความจำที่ออกแบบมาเฉพาะ ไม่ใช้เทคโนโลยีจาก HBM หรือ SRAM ➡️ การใช้ SiP ขนาดเล็กช่วยลดความซับซ้อนในการเชื่อมต่อและการจัดการพลังงาน ➡️ Euclyd ใช้แนวคิด “Crafted Compute” ที่ออกแบบทุกส่วนตั้งแต่ processor ถึง packaging https://www.techradar.com/pro/obscure-eu-ai-startup-outs-massive-chip-that-has-16-384-simd-processors-and-1tb-of-memory-thats-even-faster-than-nvidias-hbm-euclyds-ubm-has-8pb-s-bandwidth-32pf-fp4-compute-performance-and-some-iconic-backers
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • “GIGABYTE เปิดตัวเซิร์ฟเวอร์ AmpereOne M — แรงจัด ประหยัดไฟ รองรับ AI และ Cloud แบบเต็มระบบ”

    GIGABYTE โดยบริษัทลูก Giga Computing ประกาศเปิดตัวเซิร์ฟเวอร์รุ่นใหม่ที่ใช้ชิป AmpereOne M ซึ่งเป็นโปรเซสเซอร์สถาปัตยกรรม Arm แบบ single-threaded ที่ออกแบบมาเพื่อรองรับงาน AI inference, cloud-native และ data center ขนาดใหญ่โดยเฉพาะ

    AmpereOne M มาพร้อมกับจำนวนคอร์สูงสุดถึง 192 คอร์ รองรับหน่วยความจำ DDR5 ได้ถึง 12 ช่องต่อโปรเซสเซอร์ และสามารถติดตั้ง DIMM ได้สูงสุด 1.5 TB ต่อระบบ นอกจากนี้ยังมี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์ ทำให้สามารถประมวลผลได้อย่างมีประสิทธิภาพในงานที่ต้องการ throughput สูง เช่น โมเดลภาษา AI หรือการวิเคราะห์ข้อมูลขนาดใหญ่

    GIGABYTE ได้ออกแบบเซิร์ฟเวอร์ให้เหมาะกับการใช้งานจริง โดยมีทั้งรุ่น 1U และ 2U ได้แก่:
    R1A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 1U รองรับ NVMe Gen 5 แบบ hot-swap 4 ช่อง และ PCIe Gen 5 x16 สองช่อง
    R2A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 2U รองรับ NVMe Gen 5 แบบ hot-swap 12 ช่อง และ PCIe Gen 5 x16 หนึ่งช่อง

    ทั้งสองรุ่นใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium เพื่อความเสถียรและประหยัดพลังงาน

    GIGABYTE จะนำเซิร์ฟเวอร์เหล่านี้ไปโชว์ในงาน Korea Electronics Show (KES 2025) และ SuperComputing SC25 เพื่อให้ลูกค้าและพันธมิตรได้สัมผัสประสิทธิภาพของแพลตฟอร์ม Arm-based สำหรับงาน AI และ Cloud โดยตรง

    ข้อมูลสำคัญจากข่าว
    GIGABYTE เปิดตัวเซิร์ฟเวอร์ใหม่ที่ใช้ชิป AmpereOne M
    AmpereOne M มีสูงสุด 192 คอร์ และรองรับ DDR5 ได้ถึง 1.5 TB
    มี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์
    เซิร์ฟเวอร์รุ่น R1A3-T40 และ R2A3-T40 รองรับ NVMe Gen 5 และ PCIe Gen 5
    ใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium
    รองรับงาน AI inference และ cloud-native ด้วยประสิทธิภาพสูง
    GIGABYTE จะโชว์เซิร์ฟเวอร์ในงาน KES 2025 และ SC25
    การออกแบบเน้นลดจำนวน node เพื่อประหยัดต้นทุนรวมของระบบ

    ข้อมูลเสริมจากภายนอก
    AmpereOne M ใช้สถาปัตยกรรม Arm แบบ single-threaded เพื่อความเสถียร
    การใช้ vector unit ช่วยให้ประมวลผล AI ได้เร็วขึ้นโดยไม่ต้องใช้ GPU
    NVMe Gen 5 มีความเร็วสูงกว่า Gen 4 ถึง 2 เท่า เหมาะกับงานที่ต้องการ I/O หนัก
    PCIe Gen 5 รองรับการ์ด AI inference และการ์ดเครือข่ายความเร็วสูง
    การใช้พาวเวอร์ซัพพลายแบบ Titanium ช่วยลดการสูญเสียพลังงานและเพิ่มความน่าเชื่อถือ

    https://www.techpowerup.com/341545/gigabyte-launches-portfolio-of-servers-powered-by-ampereone
    🧠 “GIGABYTE เปิดตัวเซิร์ฟเวอร์ AmpereOne M — แรงจัด ประหยัดไฟ รองรับ AI และ Cloud แบบเต็มระบบ” GIGABYTE โดยบริษัทลูก Giga Computing ประกาศเปิดตัวเซิร์ฟเวอร์รุ่นใหม่ที่ใช้ชิป AmpereOne M ซึ่งเป็นโปรเซสเซอร์สถาปัตยกรรม Arm แบบ single-threaded ที่ออกแบบมาเพื่อรองรับงาน AI inference, cloud-native และ data center ขนาดใหญ่โดยเฉพาะ AmpereOne M มาพร้อมกับจำนวนคอร์สูงสุดถึง 192 คอร์ รองรับหน่วยความจำ DDR5 ได้ถึง 12 ช่องต่อโปรเซสเซอร์ และสามารถติดตั้ง DIMM ได้สูงสุด 1.5 TB ต่อระบบ นอกจากนี้ยังมี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์ ทำให้สามารถประมวลผลได้อย่างมีประสิทธิภาพในงานที่ต้องการ throughput สูง เช่น โมเดลภาษา AI หรือการวิเคราะห์ข้อมูลขนาดใหญ่ GIGABYTE ได้ออกแบบเซิร์ฟเวอร์ให้เหมาะกับการใช้งานจริง โดยมีทั้งรุ่น 1U และ 2U ได้แก่: 🔰 R1A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 1U รองรับ NVMe Gen 5 แบบ hot-swap 4 ช่อง และ PCIe Gen 5 x16 สองช่อง 🔰 R2A3-T40-AAV1: เซิร์ฟเวอร์ขนาด 2U รองรับ NVMe Gen 5 แบบ hot-swap 12 ช่อง และ PCIe Gen 5 x16 หนึ่งช่อง ทั้งสองรุ่นใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium เพื่อความเสถียรและประหยัดพลังงาน GIGABYTE จะนำเซิร์ฟเวอร์เหล่านี้ไปโชว์ในงาน Korea Electronics Show (KES 2025) และ SuperComputing SC25 เพื่อให้ลูกค้าและพันธมิตรได้สัมผัสประสิทธิภาพของแพลตฟอร์ม Arm-based สำหรับงาน AI และ Cloud โดยตรง ✅ ข้อมูลสำคัญจากข่าว ➡️ GIGABYTE เปิดตัวเซิร์ฟเวอร์ใหม่ที่ใช้ชิป AmpereOne M ➡️ AmpereOne M มีสูงสุด 192 คอร์ และรองรับ DDR5 ได้ถึง 1.5 TB ➡️ มี L2 cache ขนาดใหญ่และ vector unit แบบ 128-bit สองชุดต่อคอร์ ➡️ เซิร์ฟเวอร์รุ่น R1A3-T40 และ R2A3-T40 รองรับ NVMe Gen 5 และ PCIe Gen 5 ➡️ ใช้พาวเวอร์ซัพพลายแบบ redundant 1600W 80 Plus Titanium ➡️ รองรับงาน AI inference และ cloud-native ด้วยประสิทธิภาพสูง ➡️ GIGABYTE จะโชว์เซิร์ฟเวอร์ในงาน KES 2025 และ SC25 ➡️ การออกแบบเน้นลดจำนวน node เพื่อประหยัดต้นทุนรวมของระบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ AmpereOne M ใช้สถาปัตยกรรม Arm แบบ single-threaded เพื่อความเสถียร ➡️ การใช้ vector unit ช่วยให้ประมวลผล AI ได้เร็วขึ้นโดยไม่ต้องใช้ GPU ➡️ NVMe Gen 5 มีความเร็วสูงกว่า Gen 4 ถึง 2 เท่า เหมาะกับงานที่ต้องการ I/O หนัก ➡️ PCIe Gen 5 รองรับการ์ด AI inference และการ์ดเครือข่ายความเร็วสูง ➡️ การใช้พาวเวอร์ซัพพลายแบบ Titanium ช่วยลดการสูญเสียพลังงานและเพิ่มความน่าเชื่อถือ https://www.techpowerup.com/341545/gigabyte-launches-portfolio-of-servers-powered-by-ampereone
    WWW.TECHPOWERUP.COM
    GIGABYTE Launches Portfolio of Servers Powered by AmpereOne
    Giga Computing, a subsidiary of GIGABYTE and an industry leader in servers for x86 and Arm-based platforms as well as advanced cooling technologies, today announces the launch of its broader portfolio of AmpereOne M servers, including the GIGABYTE R1A3-T40 and R2A3-T40. With its expanded AmpereOne M...
    0 ความคิดเห็น 0 การแบ่งปัน 149 มุมมอง 0 รีวิว
  • “Alphawave Semi ผนึกกำลัง TSMC เปิดตัว UCIe 3D IP — ปลดล็อกขีดจำกัดการเชื่อมต่อชิปในยุค AI”

    Alphawave Semi บริษัทผู้นำด้านเทคโนโลยีการเชื่อมต่อความเร็วสูง ประกาศความสำเร็จในการ tape-out ชิป UCIe 3D IP รุ่นใหม่บนแพลตฟอร์ม 3DFabric ของ TSMC โดยใช้เทคโนโลยี SoIC-X ซึ่งเป็นการบรรจุชิปแบบ 3D ขั้นสูงที่ช่วยให้การเชื่อมต่อระหว่างชิปมีประสิทธิภาพสูงขึ้นอย่างก้าวกระโดด

    ชิปใหม่นี้รองรับการเชื่อมต่อแบบ face-to-face (F2F) และให้ประสิทธิภาพด้านพลังงานดีขึ้นถึง 10 เท่าเมื่อเทียบกับการเชื่อมต่อแบบ 2.5D เดิม พร้อมเพิ่มความหนาแน่นของสัญญาณได้ถึง 5 เท่า ซึ่งถือเป็นการตอบโจทย์โดยตรงต่อความต้องการของระบบ AI และ HPC ที่ต้องการแบนด์วิดธ์สูงและการจัดการพลังงานที่มีประสิทธิภาพ

    ในยุคที่ Moore’s Law เริ่มไม่สามารถรองรับความซับซ้อนของโมเดล AI ได้อีกต่อไป การออกแบบชิปแบบเดิมที่สื่อสารกันผ่านขอบของแพ็กเกจเริ่มกลายเป็นข้อจำกัด Alphawave จึงเลือกแนวทางใหม่ด้วยการออกแบบชิปแบบ disaggregated architecture โดยใช้การวางชิปหลายตัวในแนวนอน หรือซ้อนกันในแนวตั้ง เพื่อเพิ่มแบนด์วิดธ์และลดการใช้พลังงาน

    ชิป UCIe-3D รุ่นใหม่นี้ใช้ bottom die ขนาด 5nm ที่รองรับ TSVs (Through-Silicon Vias) เพื่อส่งพลังงานและกราวด์ไปยัง top die ขนาด 3nm ซึ่งช่วยให้การจัดการพลังงานภายในชิปมีประสิทธิภาพมากขึ้น นอกจากนี้ Alphawave ยังมีชุดเครื่องมือ 3DIO ที่ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D เป็นไปอย่างรวดเร็วและแม่นยำ

    ความร่วมมือครั้งนี้ยังรวมถึง Siemens ซึ่งนำแพลตฟอร์ม Calibre เข้ามาช่วยในการวิเคราะห์พารามิเตอร์ไฟฟ้าและความร้อนในระยะเริ่มต้น เพื่อให้ระบบมีความเสถียรและเชื่อถือได้มากขึ้น

    ข้อมูลสำคัญจากข่าว
    Alphawave Semi ประสบความสำเร็จในการ tape-out ชิป UCIe 3D IP บนแพลตฟอร์ม TSMC 3DFabric
    ใช้เทคโนโลยี SoIC-X สำหรับการบรรจุชิปแบบ 3D ขั้นสูง
    รองรับการเชื่อมต่อแบบ face-to-face (F2F)
    ประสิทธิภาพด้านพลังงานดีขึ้น 10 เท่า และความหนาแน่นของสัญญาณเพิ่มขึ้น 5 เท่า
    ใช้ bottom die ขนาด 5nm และ top die ขนาด 3nm โดยเชื่อมผ่าน TSVs
    ช่วยแก้ปัญหาคอขวดด้านแบนด์วิดธ์และพลังงานในระบบ AI และ HPC
    Siemens ร่วมพัฒนาแพลตฟอร์มการออกแบบและตรวจสอบร่วมกับ Alphawave
    ชุดเครื่องมือ 3DIO ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D มีประสิทธิภาพ
    การออกแบบแบบ disaggregated architecture เป็นแนวทางใหม่แทน SoC แบบเดิม

    ข้อมูลเสริมจากภายนอก
    UCIe (Universal Chiplet Interconnect Express) เป็นมาตรฐานใหม่สำหรับการเชื่อมต่อชิปแบบ chiplet
    SoIC-X ของ TSMC เป็นเทคโนโลยีการบรรจุชิปแบบ 3D ที่ใช้ในระดับองค์กรและ hyperscaler
    TSVs ช่วยให้การส่งพลังงานและข้อมูลระหว่างชิปมีความเร็วและประสิทธิภาพสูง
    การออกแบบแบบ chiplet ช่วยให้สามารถอัปเกรดเฉพาะส่วนของชิปได้โดยไม่ต้องสร้างใหม่ทั้งหมด
    Siemens Calibre เป็นแพลตฟอร์มที่ใช้วิเคราะห์ความถูกต้องของวงจรในระดับนาโนเมตร

    https://www.techpowerup.com/341533/alphawave-semi-delivers-cutting-edge-ucie-chiplet-ip-on-tsmc-3dfabric-platform
    🔗 “Alphawave Semi ผนึกกำลัง TSMC เปิดตัว UCIe 3D IP — ปลดล็อกขีดจำกัดการเชื่อมต่อชิปในยุค AI” Alphawave Semi บริษัทผู้นำด้านเทคโนโลยีการเชื่อมต่อความเร็วสูง ประกาศความสำเร็จในการ tape-out ชิป UCIe 3D IP รุ่นใหม่บนแพลตฟอร์ม 3DFabric ของ TSMC โดยใช้เทคโนโลยี SoIC-X ซึ่งเป็นการบรรจุชิปแบบ 3D ขั้นสูงที่ช่วยให้การเชื่อมต่อระหว่างชิปมีประสิทธิภาพสูงขึ้นอย่างก้าวกระโดด ชิปใหม่นี้รองรับการเชื่อมต่อแบบ face-to-face (F2F) และให้ประสิทธิภาพด้านพลังงานดีขึ้นถึง 10 เท่าเมื่อเทียบกับการเชื่อมต่อแบบ 2.5D เดิม พร้อมเพิ่มความหนาแน่นของสัญญาณได้ถึง 5 เท่า ซึ่งถือเป็นการตอบโจทย์โดยตรงต่อความต้องการของระบบ AI และ HPC ที่ต้องการแบนด์วิดธ์สูงและการจัดการพลังงานที่มีประสิทธิภาพ ในยุคที่ Moore’s Law เริ่มไม่สามารถรองรับความซับซ้อนของโมเดล AI ได้อีกต่อไป การออกแบบชิปแบบเดิมที่สื่อสารกันผ่านขอบของแพ็กเกจเริ่มกลายเป็นข้อจำกัด Alphawave จึงเลือกแนวทางใหม่ด้วยการออกแบบชิปแบบ disaggregated architecture โดยใช้การวางชิปหลายตัวในแนวนอน หรือซ้อนกันในแนวตั้ง เพื่อเพิ่มแบนด์วิดธ์และลดการใช้พลังงาน ชิป UCIe-3D รุ่นใหม่นี้ใช้ bottom die ขนาด 5nm ที่รองรับ TSVs (Through-Silicon Vias) เพื่อส่งพลังงานและกราวด์ไปยัง top die ขนาด 3nm ซึ่งช่วยให้การจัดการพลังงานภายในชิปมีประสิทธิภาพมากขึ้น นอกจากนี้ Alphawave ยังมีชุดเครื่องมือ 3DIO ที่ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D เป็นไปอย่างรวดเร็วและแม่นยำ ความร่วมมือครั้งนี้ยังรวมถึง Siemens ซึ่งนำแพลตฟอร์ม Calibre เข้ามาช่วยในการวิเคราะห์พารามิเตอร์ไฟฟ้าและความร้อนในระยะเริ่มต้น เพื่อให้ระบบมีความเสถียรและเชื่อถือได้มากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Alphawave Semi ประสบความสำเร็จในการ tape-out ชิป UCIe 3D IP บนแพลตฟอร์ม TSMC 3DFabric ➡️ ใช้เทคโนโลยี SoIC-X สำหรับการบรรจุชิปแบบ 3D ขั้นสูง ➡️ รองรับการเชื่อมต่อแบบ face-to-face (F2F) ➡️ ประสิทธิภาพด้านพลังงานดีขึ้น 10 เท่า และความหนาแน่นของสัญญาณเพิ่มขึ้น 5 เท่า ➡️ ใช้ bottom die ขนาด 5nm และ top die ขนาด 3nm โดยเชื่อมผ่าน TSVs ➡️ ช่วยแก้ปัญหาคอขวดด้านแบนด์วิดธ์และพลังงานในระบบ AI และ HPC ➡️ Siemens ร่วมพัฒนาแพลตฟอร์มการออกแบบและตรวจสอบร่วมกับ Alphawave ➡️ ชุดเครื่องมือ 3DIO ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D มีประสิทธิภาพ ➡️ การออกแบบแบบ disaggregated architecture เป็นแนวทางใหม่แทน SoC แบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ UCIe (Universal Chiplet Interconnect Express) เป็นมาตรฐานใหม่สำหรับการเชื่อมต่อชิปแบบ chiplet ➡️ SoIC-X ของ TSMC เป็นเทคโนโลยีการบรรจุชิปแบบ 3D ที่ใช้ในระดับองค์กรและ hyperscaler ➡️ TSVs ช่วยให้การส่งพลังงานและข้อมูลระหว่างชิปมีความเร็วและประสิทธิภาพสูง ➡️ การออกแบบแบบ chiplet ช่วยให้สามารถอัปเกรดเฉพาะส่วนของชิปได้โดยไม่ต้องสร้างใหม่ทั้งหมด ➡️ Siemens Calibre เป็นแพลตฟอร์มที่ใช้วิเคราะห์ความถูกต้องของวงจรในระดับนาโนเมตร https://www.techpowerup.com/341533/alphawave-semi-delivers-cutting-edge-ucie-chiplet-ip-on-tsmc-3dfabric-platform
    WWW.TECHPOWERUP.COM
    Alphawave Semi Delivers Cutting-Edge UCIe Chiplet IP on TSMC 3DFabric Platform
    Alphawave Semi (LSE: AWE), a global leader in high-speed connectivity and compute silicon for the world's technology infrastructure, has announced the successful tape-out of its cutting edge UCIe 3D IP on the advanced TSMC SoIC (SoIC-X) technology in the 3DFabric platform. This achievement builds on...
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • “AMD อาจผลิตชิปที่โรงงาน Intel — คู่แข่งเก่ากำลังกลายเป็นพันธมิตรใหม่ในยุคแห่งความมั่นคงด้านเทคโนโลยี”

    ในความเคลื่อนไหวที่อาจเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ Intel และ AMD กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ AMD กลายเป็นลูกค้าของ Intel Foundry ซึ่งเป็นธุรกิจผลิตชิปตามสั่งของ Intel ที่กำลังพยายามฟื้นตัวจากการตามหลัง TSMC มาหลายปี

    แม้ AMD จะยังพึ่งพา TSMC เป็นหลักในการผลิตชิปประสิทธิภาพสูง เช่น Ryzen และ EPYC แต่การเจรจากับ Intel ครั้งนี้สะท้อนถึงแรงกดดันจากรัฐบาลสหรัฐฯ ที่ต้องการให้บริษัทอเมริกันผลิตชิปภายในประเทศมากขึ้น โดยมีเป้าหมายให้ 50% ของชิปที่ใช้ในสหรัฐฯ ถูกผลิตในประเทศ เพื่อความมั่นคงของห่วงโซ่อุปทานและลดการพึ่งพาไต้หวัน

    Intel ได้รับแรงสนับสนุนจากหลายฝ่ายในช่วงไม่กี่เดือนที่ผ่านมา ทั้งการลงทุนจาก SoftBank มูลค่า 2 พันล้านดอลลาร์ การเข้าถือหุ้น 9.9% โดยรัฐบาลสหรัฐฯ และการร่วมมือกับ Nvidia ในการพัฒนาชิป x86 ที่ใช้ GPU ของ Nvidia ซึ่งรวมถึงการลงทุน 5 พันล้านดอลลาร์จาก Nvidia ด้วย

    หาก AMD ตกลงร่วมมือกับ Intel จริง จะถือเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ที่เคยประกาศว่า Intel ต้องการผลิตชิปให้กับทุกบริษัทเทคโนโลยีรายใหญ่ แม้จะเป็นคู่แข่งโดยตรงก็ตาม

    อย่างไรก็ตาม ยังไม่มีรายละเอียดว่าชิปประเภทใดของ AMD จะถูกผลิตที่ Intel และ Intel เองก็ยังไม่มีเทคโนโลยีที่สามารถผลิตชิประดับสูงสุดของ AMD ได้ในตอนนี้ เช่น ชิปที่ใช้กระบวนการผลิตระดับ 3nm หรือ 4nm ของ TSMC

    ข้อมูลสำคัญจากข่าว
    Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ AMD เป็นลูกค้า Intel Foundry
    AMD ปัจจุบันผลิตชิปที่ TSMC แต่กำลังพิจารณาทางเลือกในสหรัฐฯ
    รัฐบาลสหรัฐฯ ต้องการให้ 50% ของชิปที่ใช้ในประเทศถูกผลิตในประเทศ
    Intel ได้รับการลงทุนจาก SoftBank, Nvidia และรัฐบาลสหรัฐฯ
    Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel และร่วมพัฒนาชิป x86 ร่วมกัน
    หาก AMD ตกลง จะเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger
    Intel กำลังมองหาลูกค้ารายใหญ่เพื่อสนับสนุนเทคโนโลยี 14A และ 18A
    การร่วมมืออาจช่วยให้ AMD ลดความเสี่ยงจากข้อจำกัดการส่งออกไปจีน

    ข้อมูลเสริมจากภายนอก
    Intel Foundry ยังตามหลัง TSMC ในด้านเทคโนโลยีการผลิตขั้นสูง
    AMD เคยได้รับผลกระทบจากข้อจำกัดการส่งออก GPU ไปจีนในปี 2025
    การผลิตชิปในสหรัฐฯ อาจช่วยให้ AMD ได้รับการสนับสนุนจากรัฐบาล
    Nvidia และ Apple ก็อยู่ระหว่างเจรจาเพื่อใช้ Intel Foundry เช่นกัน
    การผลิตชิประดับกลางในสหรัฐฯ อาจเป็นจุดเริ่มต้นก่อนขยายไปสู่ชิประดับสูง

    https://www.tomshardware.com/pc-components/cpus/amd-in-early-talks-to-make-chips-at-intel-foundry-report-says
    🤝 “AMD อาจผลิตชิปที่โรงงาน Intel — คู่แข่งเก่ากำลังกลายเป็นพันธมิตรใหม่ในยุคแห่งความมั่นคงด้านเทคโนโลยี” ในความเคลื่อนไหวที่อาจเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ Intel และ AMD กำลังอยู่ในช่วงเจรจาเบื้องต้นเพื่อให้ AMD กลายเป็นลูกค้าของ Intel Foundry ซึ่งเป็นธุรกิจผลิตชิปตามสั่งของ Intel ที่กำลังพยายามฟื้นตัวจากการตามหลัง TSMC มาหลายปี แม้ AMD จะยังพึ่งพา TSMC เป็นหลักในการผลิตชิปประสิทธิภาพสูง เช่น Ryzen และ EPYC แต่การเจรจากับ Intel ครั้งนี้สะท้อนถึงแรงกดดันจากรัฐบาลสหรัฐฯ ที่ต้องการให้บริษัทอเมริกันผลิตชิปภายในประเทศมากขึ้น โดยมีเป้าหมายให้ 50% ของชิปที่ใช้ในสหรัฐฯ ถูกผลิตในประเทศ เพื่อความมั่นคงของห่วงโซ่อุปทานและลดการพึ่งพาไต้หวัน Intel ได้รับแรงสนับสนุนจากหลายฝ่ายในช่วงไม่กี่เดือนที่ผ่านมา ทั้งการลงทุนจาก SoftBank มูลค่า 2 พันล้านดอลลาร์ การเข้าถือหุ้น 9.9% โดยรัฐบาลสหรัฐฯ และการร่วมมือกับ Nvidia ในการพัฒนาชิป x86 ที่ใช้ GPU ของ Nvidia ซึ่งรวมถึงการลงทุน 5 พันล้านดอลลาร์จาก Nvidia ด้วย หาก AMD ตกลงร่วมมือกับ Intel จริง จะถือเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ที่เคยประกาศว่า Intel ต้องการผลิตชิปให้กับทุกบริษัทเทคโนโลยีรายใหญ่ แม้จะเป็นคู่แข่งโดยตรงก็ตาม อย่างไรก็ตาม ยังไม่มีรายละเอียดว่าชิปประเภทใดของ AMD จะถูกผลิตที่ Intel และ Intel เองก็ยังไม่มีเทคโนโลยีที่สามารถผลิตชิประดับสูงสุดของ AMD ได้ในตอนนี้ เช่น ชิปที่ใช้กระบวนการผลิตระดับ 3nm หรือ 4nm ของ TSMC ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel และ AMD กำลังเจรจาเบื้องต้นเพื่อให้ AMD เป็นลูกค้า Intel Foundry ➡️ AMD ปัจจุบันผลิตชิปที่ TSMC แต่กำลังพิจารณาทางเลือกในสหรัฐฯ ➡️ รัฐบาลสหรัฐฯ ต้องการให้ 50% ของชิปที่ใช้ในประเทศถูกผลิตในประเทศ ➡️ Intel ได้รับการลงทุนจาก SoftBank, Nvidia และรัฐบาลสหรัฐฯ ➡️ Nvidia ลงทุน 5 พันล้านดอลลาร์ใน Intel และร่วมพัฒนาชิป x86 ร่วมกัน ➡️ หาก AMD ตกลง จะเป็นการยืนยันวิสัยทัศน์ของอดีต CEO Pat Gelsinger ➡️ Intel กำลังมองหาลูกค้ารายใหญ่เพื่อสนับสนุนเทคโนโลยี 14A และ 18A ➡️ การร่วมมืออาจช่วยให้ AMD ลดความเสี่ยงจากข้อจำกัดการส่งออกไปจีน ✅ ข้อมูลเสริมจากภายนอก ➡️ Intel Foundry ยังตามหลัง TSMC ในด้านเทคโนโลยีการผลิตขั้นสูง ➡️ AMD เคยได้รับผลกระทบจากข้อจำกัดการส่งออก GPU ไปจีนในปี 2025 ➡️ การผลิตชิปในสหรัฐฯ อาจช่วยให้ AMD ได้รับการสนับสนุนจากรัฐบาล ➡️ Nvidia และ Apple ก็อยู่ระหว่างเจรจาเพื่อใช้ Intel Foundry เช่นกัน ➡️ การผลิตชิประดับกลางในสหรัฐฯ อาจเป็นจุดเริ่มต้นก่อนขยายไปสู่ชิประดับสูง https://www.tomshardware.com/pc-components/cpus/amd-in-early-talks-to-make-chips-at-intel-foundry-report-says
    WWW.TOMSHARDWARE.COM
    AMD in early talks to make chips at Intel Foundry, report says
    It could be their biggest partnership since Kaby Lake-G.
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • “Intel Panther Lake-H โผล่ครั้งแรก — เปลี่ยนชื่อใหม่เป็น Ultra X พร้อมสเปกแรงทะลุ 5.1 GHz”

    Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในกลุ่มโน้ตบุ๊กประสิทธิภาพสูงภายใต้ชื่อ “Panther Lake-H” ซึ่งจะเป็นรุ่นแรกที่ใช้เทคโนโลยีการผลิตระดับ 18A node พร้อมสถาปัตยกรรมใหม่หลายจุด และที่น่าจับตาคือการเปลี่ยนชื่อรุ่นเป็น “Core Ultra X” โดยแบ่งออกเป็น Ultra X5, X7 และ X9 ซึ่งถือเป็นการรีแบรนด์ครั้งใหญ่ของ Intel เพื่อสร้างความแตกต่างจากรุ่นก่อนหน้า

    จากข้อมูลที่หลุดออกมา มีรุ่นย่อยที่น่าสนใจ ได้แก่
    Core Ultra X9 388H: คาดว่าจะเป็นรุ่นสูงสุด มาพร้อม P-Core แบบแรงพิเศษ, GPU Xe3 จำนวน 12 คอร์ และความเร็วสูงสุด 5.1 GHz
    Core Ultra X7 368H: เน้น iGPU ที่ทรงพลัง
    Core Ultra X5 338H และ X7 358H: อยู่ในกลุ่ม mid-tier

    Panther Lake-H จะใช้โครงสร้างแบบ hybrid ที่ประกอบด้วย 3 ประเภทของคอร์ ได้แก่
    P-Core (Cougar Cove)
    E-Core (Darkmont)
    LP-E Core (Skymont)

    พร้อม GPU แบบ Xe3 (Celestial) และ TDP ที่หลากหลายตั้งแต่ 25W ถึง 45W ซึ่งเหมาะกับโน้ตบุ๊กบางเบาไปจนถึงรุ่นประสิทธิภาพสูง

    แม้จะมีข่าวลือว่า Panther Lake-H อาจอยู่ในกลุ่ม Nova Lake-H แต่ข้อมูลล่าสุดยืนยันว่า Panther Lake จะอยู่ภายใต้ Core Ultra 300 series ไม่ใช่ 400 series อย่างที่เคยเข้าใจผิด

    https://wccftech.com/intel-panther-lake-h-retail-skus-surface-for-the-first-time/
    🚀 “Intel Panther Lake-H โผล่ครั้งแรก — เปลี่ยนชื่อใหม่เป็น Ultra X พร้อมสเปกแรงทะลุ 5.1 GHz” Intel เตรียมเปิดตัวซีพียูรุ่นใหม่ในกลุ่มโน้ตบุ๊กประสิทธิภาพสูงภายใต้ชื่อ “Panther Lake-H” ซึ่งจะเป็นรุ่นแรกที่ใช้เทคโนโลยีการผลิตระดับ 18A node พร้อมสถาปัตยกรรมใหม่หลายจุด และที่น่าจับตาคือการเปลี่ยนชื่อรุ่นเป็น “Core Ultra X” โดยแบ่งออกเป็น Ultra X5, X7 และ X9 ซึ่งถือเป็นการรีแบรนด์ครั้งใหญ่ของ Intel เพื่อสร้างความแตกต่างจากรุ่นก่อนหน้า จากข้อมูลที่หลุดออกมา มีรุ่นย่อยที่น่าสนใจ ได้แก่ ✔️ Core Ultra X9 388H: คาดว่าจะเป็นรุ่นสูงสุด มาพร้อม P-Core แบบแรงพิเศษ, GPU Xe3 จำนวน 12 คอร์ และความเร็วสูงสุด 5.1 GHz ✔️ Core Ultra X7 368H: เน้น iGPU ที่ทรงพลัง ✔️ Core Ultra X5 338H และ X7 358H: อยู่ในกลุ่ม mid-tier Panther Lake-H จะใช้โครงสร้างแบบ hybrid ที่ประกอบด้วย 3 ประเภทของคอร์ ได้แก่ ✔️ P-Core (Cougar Cove) ✔️ E-Core (Darkmont) ✔️ LP-E Core (Skymont) พร้อม GPU แบบ Xe3 (Celestial) และ TDP ที่หลากหลายตั้งแต่ 25W ถึง 45W ซึ่งเหมาะกับโน้ตบุ๊กบางเบาไปจนถึงรุ่นประสิทธิภาพสูง แม้จะมีข่าวลือว่า Panther Lake-H อาจอยู่ในกลุ่ม Nova Lake-H แต่ข้อมูลล่าสุดยืนยันว่า Panther Lake จะอยู่ภายใต้ Core Ultra 300 series ไม่ใช่ 400 series อย่างที่เคยเข้าใจผิด https://wccftech.com/intel-panther-lake-h-retail-skus-surface-for-the-first-time/
    WCCFTECH.COM
    Intel’s Panther Lake-H Retail SKUs Surface for the First Time, Revealing New ‘Ultra X’ Naming Scheme & Max Clocks Up to 5.1 GHz
    The first piece of information about Intel's Panther Lake-H, specifically regarding the naming scheme, has surfaced online.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • “Rapidus ปลุกชีพอุตสาหกรรมชิปญี่ปุ่น — ดึง IBM และ Tenstorrent ร่วมผลิต 2nm พร้อมท้าชน TSMC และ Intel”

    Rapidus บริษัทผลิตเซมิคอนดักเตอร์สัญชาติญี่ปุ่นกำลังสร้างแรงสั่นสะเทือนครั้งใหญ่ในอุตสาหกรรมชิประดับโลก ด้วยการประกาศความร่วมมือกับบริษัทอเมริกันรายใหญ่ ได้แก่ IBM และ Tenstorrent เพื่อพัฒนาและผลิตชิปขนาด 2 นาโนเมตร โดย Rapidus ตั้งเป้าจะเริ่มส่งมอบต้นแบบให้ลูกค้าในปี 2026 และเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 ถึงต้นปี 2027 ซึ่งเร็วกว่ากำหนดของ TSMC และ Intel

    เทคโนโลยีที่ Rapidus พัฒนาคือ “2HP” ซึ่งใช้โครงสร้างทรานซิสเตอร์แบบ Gate-All-Around (GAA) ที่มีความหนาแน่นของลอจิกสูงกว่าชิป 18A ของ Intel และเทียบเท่ากับ N2 ของ TSMC โดย IBM จะให้การสนับสนุนด้านเทคโนโลยีการบรรจุชิปและการวิจัยร่วม ขณะที่ Tenstorrent ซึ่งมีความเชี่ยวชาญด้าน RISC-V และ AI จะเป็นหนึ่งในลูกค้ารายแรกที่นำชิป 2nm ไปใช้ในผลิตภัณฑ์จริง

    Rapidus ยังมีแผนส่งมอบ PDK (Process Design Kit) ให้กับลูกค้าในไตรมาสแรกของปี 2026 และได้ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึงเครื่อง EUV ที่โรงงานในเมือง Chitose จังหวัดฮอกไกโด ซึ่งเป็นศูนย์กลางการผลิตหลักของบริษัท

    แม้จะมีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus เป็นส่วนหนึ่งของห่วงโซ่อุปทาน แต่ยังไม่มีการยืนยันอย่างเป็นทางการ อย่างไรก็ตาม ความเคลื่อนไหวนี้สะท้อนถึงความพยายามของญี่ปุ่นในการกลับมาเป็นผู้นำด้านเทคโนโลยีชิปอีกครั้ง หลังจากเสียตำแหน่งให้กับไต้หวันและเกาหลีใต้มานานหลายปี

    ข้อมูลสำคัญจากข่าว
    Rapidus ประกาศความร่วมมือกับ IBM และ Tenstorrent เพื่อพัฒนาชิป 2nm
    เทคโนโลยี “2HP” ใช้โครงสร้าง GAA ที่มีความหนาแน่นสูงกว่าชิป 18A ของ Intel
    IBM สนับสนุนด้านการบรรจุชิปและการวิจัยร่วม
    Tenstorrent จะเป็นหนึ่งในลูกค้ารายแรกที่ใช้ชิป 2nm ในผลิตภัณฑ์ AI
    Rapidus ตั้งเป้าส่งมอบ PDK ใน Q1 ปี 2026 และผลิตจำนวนมากในปลายปี 2026
    โรงงานใน Chitose ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึง EUV lithography
    Rapidus ไม่ตั้งเป้าแข่งตรงกับ TSMC แต่เน้นความคล่องตัวและความเร็วในการผลิต
    มีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus ในห่วงโซ่อุปทาน

    ข้อมูลเสริมจากภายนอก
    Tenstorrent มีความเชี่ยวชาญด้าน RISC-V และ AI โดยมี Jim Keller อดีตผู้บริหาร Intel และ AMD เป็น CEO
    IBM เคยเปิดตัวชิป 2nm รุ่นต้นแบบในปี 2021 และร่วมมือกับ Rapidus ตั้งแต่ปี 2022
    GAA transistor เป็นเทคโนโลยีที่มาแทน FinFET โดยให้ประสิทธิภาพสูงและใช้พลังงานต่ำ
    Rapidus ส่งวิศวกรกว่า 150 คนไปฝึกที่สหรัฐฯ เพื่อเรียนรู้การผลิต GAA
    ญี่ปุ่นเคยเป็นผู้นำด้านเซมิคอนดักเตอร์ในยุค 1980s ก่อนจะถูกแซงโดย TSMC และ Samsung

    https://wccftech.com/japan-rapidus-secures-major-american-customers-for-its-2nm-process/
    ⚙️ “Rapidus ปลุกชีพอุตสาหกรรมชิปญี่ปุ่น — ดึง IBM และ Tenstorrent ร่วมผลิต 2nm พร้อมท้าชน TSMC และ Intel” Rapidus บริษัทผลิตเซมิคอนดักเตอร์สัญชาติญี่ปุ่นกำลังสร้างแรงสั่นสะเทือนครั้งใหญ่ในอุตสาหกรรมชิประดับโลก ด้วยการประกาศความร่วมมือกับบริษัทอเมริกันรายใหญ่ ได้แก่ IBM และ Tenstorrent เพื่อพัฒนาและผลิตชิปขนาด 2 นาโนเมตร โดย Rapidus ตั้งเป้าจะเริ่มส่งมอบต้นแบบให้ลูกค้าในปี 2026 และเข้าสู่การผลิตจำนวนมากในช่วงปลายปี 2026 ถึงต้นปี 2027 ซึ่งเร็วกว่ากำหนดของ TSMC และ Intel เทคโนโลยีที่ Rapidus พัฒนาคือ “2HP” ซึ่งใช้โครงสร้างทรานซิสเตอร์แบบ Gate-All-Around (GAA) ที่มีความหนาแน่นของลอจิกสูงกว่าชิป 18A ของ Intel และเทียบเท่ากับ N2 ของ TSMC โดย IBM จะให้การสนับสนุนด้านเทคโนโลยีการบรรจุชิปและการวิจัยร่วม ขณะที่ Tenstorrent ซึ่งมีความเชี่ยวชาญด้าน RISC-V และ AI จะเป็นหนึ่งในลูกค้ารายแรกที่นำชิป 2nm ไปใช้ในผลิตภัณฑ์จริง Rapidus ยังมีแผนส่งมอบ PDK (Process Design Kit) ให้กับลูกค้าในไตรมาสแรกของปี 2026 และได้ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึงเครื่อง EUV ที่โรงงานในเมือง Chitose จังหวัดฮอกไกโด ซึ่งเป็นศูนย์กลางการผลิตหลักของบริษัท แม้จะมีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus เป็นส่วนหนึ่งของห่วงโซ่อุปทาน แต่ยังไม่มีการยืนยันอย่างเป็นทางการ อย่างไรก็ตาม ความเคลื่อนไหวนี้สะท้อนถึงความพยายามของญี่ปุ่นในการกลับมาเป็นผู้นำด้านเทคโนโลยีชิปอีกครั้ง หลังจากเสียตำแหน่งให้กับไต้หวันและเกาหลีใต้มานานหลายปี ✅ ข้อมูลสำคัญจากข่าว ➡️ Rapidus ประกาศความร่วมมือกับ IBM และ Tenstorrent เพื่อพัฒนาชิป 2nm ➡️ เทคโนโลยี “2HP” ใช้โครงสร้าง GAA ที่มีความหนาแน่นสูงกว่าชิป 18A ของ Intel ➡️ IBM สนับสนุนด้านการบรรจุชิปและการวิจัยร่วม ➡️ Tenstorrent จะเป็นหนึ่งในลูกค้ารายแรกที่ใช้ชิป 2nm ในผลิตภัณฑ์ AI ➡️ Rapidus ตั้งเป้าส่งมอบ PDK ใน Q1 ปี 2026 และผลิตจำนวนมากในปลายปี 2026 ➡️ โรงงานใน Chitose ติดตั้งเครื่องมือผลิตกว่า 200 ชุด รวมถึง EUV lithography ➡️ Rapidus ไม่ตั้งเป้าแข่งตรงกับ TSMC แต่เน้นความคล่องตัวและความเร็วในการผลิต ➡️ มีข่าวลือว่า NVIDIA กำลังพิจารณาใช้ Rapidus ในห่วงโซ่อุปทาน ✅ ข้อมูลเสริมจากภายนอก ➡️ Tenstorrent มีความเชี่ยวชาญด้าน RISC-V และ AI โดยมี Jim Keller อดีตผู้บริหาร Intel และ AMD เป็น CEO ➡️ IBM เคยเปิดตัวชิป 2nm รุ่นต้นแบบในปี 2021 และร่วมมือกับ Rapidus ตั้งแต่ปี 2022 ➡️ GAA transistor เป็นเทคโนโลยีที่มาแทน FinFET โดยให้ประสิทธิภาพสูงและใช้พลังงานต่ำ ➡️ Rapidus ส่งวิศวกรกว่า 150 คนไปฝึกที่สหรัฐฯ เพื่อเรียนรู้การผลิต GAA ➡️ ญี่ปุ่นเคยเป็นผู้นำด้านเซมิคอนดักเตอร์ในยุค 1980s ก่อนจะถูกแซงโดย TSMC และ Samsung https://wccftech.com/japan-rapidus-secures-major-american-customers-for-its-2nm-process/
    WCCFTECH.COM
    Japan’s Rapidus Secures ‘Major’ American Customers for Its 2nm Process, Ramping Up the Race Against TSMC and Intel
    Rapidus has stepped up the race in the 2nm segment, as the Japanese chip firm announces support from major American customers.
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • “พล.อ.อ.เสกสรร” ประเดิมตำแหน่ง ผบ.ทอ.ตรวจเยี่ยมกองบิน 3 สระแก้ว เผย แม้ที่ผ่านมาได้รับคำชมจาก ผบ.ทบ. แต่ไม่ควรชะล่าใจ มองจากนี้อาจถูกโจมตีด้วยโดรนขนาดเล็ก-อาวุธระยะไกลยิงเข้าใส่ ลั่นจะทำให้ดีที่สุด ให้การรบร่วม 2 เหล่าทัพ 3 เหล่าทัพ ให้มีประสิทธิภาพสูงสุด

    อ่านต่อ..https://news1live.com/detail/9680000093782

    #News1live #News1 #SondhiX #Sondhitalk #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    “พล.อ.อ.เสกสรร” ประเดิมตำแหน่ง ผบ.ทอ.ตรวจเยี่ยมกองบิน 3 สระแก้ว เผย แม้ที่ผ่านมาได้รับคำชมจาก ผบ.ทบ. แต่ไม่ควรชะล่าใจ มองจากนี้อาจถูกโจมตีด้วยโดรนขนาดเล็ก-อาวุธระยะไกลยิงเข้าใส่ ลั่นจะทำให้ดีที่สุด ให้การรบร่วม 2 เหล่าทัพ 3 เหล่าทัพ ให้มีประสิทธิภาพสูงสุด อ่านต่อ..https://news1live.com/detail/9680000093782 #News1live #News1 #SondhiX #Sondhitalk #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    2
    0 ความคิดเห็น 0 การแบ่งปัน 274 มุมมอง 0 รีวิว
  • “Orange Pi AI Studio Pro — มินิพีซีพลัง Huawei Ascend 310 ที่แรงทะลุ 352 TOPS แต่ยังติดข้อจำกัดด้านการเชื่อมต่อ”

    Orange Pi เปิดตัวมินิพีซีรุ่นใหม่สำหรับงานปัญญาประดิษฐ์โดยเฉพาะในชื่อ “AI Studio Pro” ซึ่งใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ที่ให้พลังประมวลผลด้าน AI สูงถึง 176 TOPS ในรุ่นปกติ และ 352 TOPS ในรุ่น Pro ที่รวมสองเครื่องเข้าด้วยกัน พร้อมหน่วยความจำสูงสุดถึง 192GB LPDDR4X ความเร็ว 4266 Mbps2

    ตัวเครื่องออกแบบมาเพื่อรองรับงาน AI หลากหลาย เช่น การประมวลผลภาพ, การเรียนรู้เชิงลึก, การวิเคราะห์ข้อมูล, การใช้งาน IoT และระบบขนส่งอัจฉริยะ โดยสามารถติดตั้ง Ubuntu 22.04.5 และ Linux kernel 5.15 ได้ทันที ส่วน Windows จะรองรับในอนาคต3

    แม้จะมีพลังประมวลผลสูงและหน่วยความจำมหาศาล แต่ Orange Pi AI Studio Pro กลับมีข้อจำกัดด้านการเชื่อมต่ออย่างชัดเจน โดยมีเพียงพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ไม่ว่าจะเป็นจอภาพ, อุปกรณ์เก็บข้อมูล หรืออุปกรณ์เสริมอื่น ๆ ทำให้ผู้ใช้ต้องพึ่งพา dock หรือ hub เพิ่มเติม

    นอกจากนี้ยังไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ทำให้การเชื่อมต่อเครือข่ายอาจต้องใช้วิธีอื่น เช่น Ethernet หรืออุปกรณ์เสริมภายนอก ซึ่งอาจไม่สะดวกสำหรับการใช้งานแบบเคลื่อนที่หรือในพื้นที่จำกัด

    ราคาจำหน่ายในจีนเริ่มต้นที่ประมาณ $955 สำหรับรุ่น 48GB และสูงสุดถึง $2,200 สำหรับรุ่น Pro ที่มี RAM 192GB โดยมีวางจำหน่ายผ่าน JD.com และ AliExpress

    ข้อมูลสำคัญจากข่าว
    Orange Pi AI Studio Pro ใช้ชิป Huawei Ascend 310 แบบ ARM octa-core
    รุ่น Pro รวมสองเครื่องเข้าด้วยกัน ให้พลังประมวลผลสูงถึง 352 TOPS
    รองรับหน่วยความจำสูงสุด 192GB LPDDR4X ความเร็ว 4266 Mbps
    รองรับ Ubuntu 22.04.5 และ Linux kernel 5.15 พร้อมรองรับ Windows ในอนาคต
    เหมาะสำหรับงาน AI เช่น OCR, การรู้จำใบหน้า, การแนะนำเนื้อหา, IoT และระบบขนส่งอัจฉริยะ
    มีพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ
    ไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว
    ราคาจำหน่ายเริ่มต้นที่ $955 และสูงสุดถึง $2,200 ขึ้นอยู่กับรุ่นและ RAM

    ข้อมูลเสริมจากภายนอก
    Huawei Ascend 310 เป็นชิปที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีประสิทธิภาพสูงในงาน inference
    Orange Pi เป็นแบรนด์ที่เน้นการพัฒนาอุปกรณ์สำหรับนักพัฒนาและงานวิจัย
    การใช้ context window ขนาดใหญ่และ RAM สูงช่วยให้รองรับโมเดล AI ขนาดใหญ่ได้ดี
    การรองรับ Deepseek-R1 distillation model ช่วยให้สามารถ deploy โมเดล AI แบบ local ได้
    การรวมการฝึกและการ inference ในเครื่องเดียวช่วยลดต้นทุนและเพิ่มความคล่องตัวในการพัฒนา

    https://www.tomshardware.com/tech-industry/artificial-intelligence/orange-pi-ai-studio-pro-mini-pc-debuts-with-huawei-ascend-310-and-352-tops-of-ai-performance-also-features-up-to-192gb-of-memory-but-relies-on-a-single-usb-c-port
    🧠 “Orange Pi AI Studio Pro — มินิพีซีพลัง Huawei Ascend 310 ที่แรงทะลุ 352 TOPS แต่ยังติดข้อจำกัดด้านการเชื่อมต่อ” Orange Pi เปิดตัวมินิพีซีรุ่นใหม่สำหรับงานปัญญาประดิษฐ์โดยเฉพาะในชื่อ “AI Studio Pro” ซึ่งใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ที่ให้พลังประมวลผลด้าน AI สูงถึง 176 TOPS ในรุ่นปกติ และ 352 TOPS ในรุ่น Pro ที่รวมสองเครื่องเข้าด้วยกัน พร้อมหน่วยความจำสูงสุดถึง 192GB LPDDR4X ความเร็ว 4266 Mbps2 ตัวเครื่องออกแบบมาเพื่อรองรับงาน AI หลากหลาย เช่น การประมวลผลภาพ, การเรียนรู้เชิงลึก, การวิเคราะห์ข้อมูล, การใช้งาน IoT และระบบขนส่งอัจฉริยะ โดยสามารถติดตั้ง Ubuntu 22.04.5 และ Linux kernel 5.15 ได้ทันที ส่วน Windows จะรองรับในอนาคต3 แม้จะมีพลังประมวลผลสูงและหน่วยความจำมหาศาล แต่ Orange Pi AI Studio Pro กลับมีข้อจำกัดด้านการเชื่อมต่ออย่างชัดเจน โดยมีเพียงพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ไม่ว่าจะเป็นจอภาพ, อุปกรณ์เก็บข้อมูล หรืออุปกรณ์เสริมอื่น ๆ ทำให้ผู้ใช้ต้องพึ่งพา dock หรือ hub เพิ่มเติม นอกจากนี้ยังไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ทำให้การเชื่อมต่อเครือข่ายอาจต้องใช้วิธีอื่น เช่น Ethernet หรืออุปกรณ์เสริมภายนอก ซึ่งอาจไม่สะดวกสำหรับการใช้งานแบบเคลื่อนที่หรือในพื้นที่จำกัด ราคาจำหน่ายในจีนเริ่มต้นที่ประมาณ $955 สำหรับรุ่น 48GB และสูงสุดถึง $2,200 สำหรับรุ่น Pro ที่มี RAM 192GB โดยมีวางจำหน่ายผ่าน JD.com และ AliExpress ✅ ข้อมูลสำคัญจากข่าว ➡️ Orange Pi AI Studio Pro ใช้ชิป Huawei Ascend 310 แบบ ARM octa-core ➡️ รุ่น Pro รวมสองเครื่องเข้าด้วยกัน ให้พลังประมวลผลสูงถึง 352 TOPS ➡️ รองรับหน่วยความจำสูงสุด 192GB LPDDR4X ความเร็ว 4266 Mbps ➡️ รองรับ Ubuntu 22.04.5 และ Linux kernel 5.15 พร้อมรองรับ Windows ในอนาคต ➡️ เหมาะสำหรับงาน AI เช่น OCR, การรู้จำใบหน้า, การแนะนำเนื้อหา, IoT และระบบขนส่งอัจฉริยะ ➡️ มีพอร์ต USB-C 4.0 เพียงช่องเดียวสำหรับทุกการเชื่อมต่อ ➡️ ไม่มีการระบุว่ามี Wi-Fi หรือ Bluetooth ในตัว ➡️ ราคาจำหน่ายเริ่มต้นที่ $955 และสูงสุดถึง $2,200 ขึ้นอยู่กับรุ่นและ RAM ✅ ข้อมูลเสริมจากภายนอก ➡️ Huawei Ascend 310 เป็นชิปที่ออกแบบมาเพื่องาน AI โดยเฉพาะ มีประสิทธิภาพสูงในงาน inference ➡️ Orange Pi เป็นแบรนด์ที่เน้นการพัฒนาอุปกรณ์สำหรับนักพัฒนาและงานวิจัย ➡️ การใช้ context window ขนาดใหญ่และ RAM สูงช่วยให้รองรับโมเดล AI ขนาดใหญ่ได้ดี ➡️ การรองรับ Deepseek-R1 distillation model ช่วยให้สามารถ deploy โมเดล AI แบบ local ได้ ➡️ การรวมการฝึกและการ inference ในเครื่องเดียวช่วยลดต้นทุนและเพิ่มความคล่องตัวในการพัฒนา https://www.tomshardware.com/tech-industry/artificial-intelligence/orange-pi-ai-studio-pro-mini-pc-debuts-with-huawei-ascend-310-and-352-tops-of-ai-performance-also-features-up-to-192gb-of-memory-but-relies-on-a-single-usb-c-port
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก”

    Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป

    แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด

    Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร

    ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ

    แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต

    ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม

    ข้อมูลสำคัญจากข่าว
    Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ
    Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด
    มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo
    มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1
    ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน
    Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์
    Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure
    เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment
    xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ

    ข้อมูลเสริมจากภายนอก
    Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google
    xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok
    Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา
    Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral
    การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    🧠 “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก” Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ ➡️ Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด ➡️ มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo ➡️ มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1 ➡️ ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ➡️ Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์ ➡️ Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure ➡️ เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment ➡️ xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ ✅ ข้อมูลเสริมจากภายนอก ➡️ Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google ➡️ xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok ➡️ Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา ➡️ Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral ➡️ การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • “Arm เตรียมยื่นอุทธรณ์คดีแพ้ Qualcomm — ศึกสิทธิบัตร CPU ที่สะท้อนแรงสั่นสะเทือนในวงการเซมิคอนดักเตอร์”

    หลังจากศาลแขวงสหรัฐฯ ในรัฐเดลาแวร์มีคำตัดสินขั้นสุดท้ายเมื่อปลายเดือนกันยายน 2025 ให้ Qualcomm ชนะคดีสิทธิบัตรที่ Arm เป็นฝ่ายฟ้องร้อง ล่าสุด Arm ประกาศว่าจะยื่นอุทธรณ์ทันที โดยยังคงยืนยันว่า Qualcomm และบริษัทลูก Nuvia ละเมิดข้อตกลงการใช้งานเทคโนโลยี CPU ที่ได้จาก Arm

    คดีนี้เริ่มต้นจากการที่ Arm กล่าวหาว่า Nuvia ซึ่งถูก Qualcomm เข้าซื้อกิจการในปี 2021 ได้ใช้เทคโนโลยี CPU ที่ได้รับอนุญาตจาก Arm ไปพัฒนาในแบบที่ละเมิดข้อตกลงเดิม โดยเฉพาะการนำไปใช้ในผลิตภัณฑ์ใหม่ภายใต้ชื่อ Qualcomm โดยไม่ได้รับอนุญาตใหม่จาก Arm

    ในเดือนธันวาคม 2024 คณะลูกขุนตัดสินว่า Qualcomm ไม่ได้ละเมิดข้อตกลง และเทคโนโลยีที่ใช้ใน CPU ของ Nuvia ได้รับอนุญาตอย่างถูกต้องภายใต้ข้อตกลงของ Qualcomm เอง โดยคำตัดสินนี้ครอบคลุม 2 ใน 3 ข้อกล่าวหา ส่วนข้อที่ 3 คณะลูกขุนไม่สามารถตัดสินได้ ทำให้เกิด mistrial

    Arm พยายามขอให้ศาลยกเลิกคำตัดสินเดิมหรือเปิดการพิจารณาคดีใหม่ แต่ผู้พิพากษา Maryellen Noreika ปฏิเสธทั้งสองคำขอ ทำให้ Qualcomm ได้รับชัยชนะอย่างสมบูรณ์ในคดีนี้

    Qualcomm ออกแถลงการณ์ว่า “สิทธิในการสร้างสรรค์นวัตกรรมของเราได้รับการยืนยัน” และหวังว่า Arm จะกลับมาใช้แนวทางที่ยุติธรรมในการทำธุรกิจกับพันธมิตรในระบบนิเวศของ Arm

    แม้คดีนี้จะจบลงแล้วในชั้นศาลแรก แต่ Qualcomm ยังมีคดีแยกที่ฟ้องกลับ Arm ในข้อหาขัดขวางความสัมพันธ์กับลูกค้าและพยายามผลักดันผลิตภัณฑ์ของตนเหนือพันธมิตร ซึ่งคดีนี้จะเข้าสู่การพิจารณาในเดือนมีนาคม 2026

    ข้อมูลสำคัญจากข่าว
    Arm แพ้คดีสิทธิบัตร CPU ต่อ Qualcomm และเตรียมยื่นอุทธรณ์ทันที
    คดีเกี่ยวข้องกับการใช้เทคโนโลยี CPU ของ Nuvia ที่ Qualcomm เข้าซื้อกิจการ
    คณะลูกขุนตัดสินว่า Qualcomm ไม่ละเมิดข้อตกลงกับ Arm ใน 2 ข้อกล่าวหา
    ข้อกล่าวหาที่ 3 เกิด mistrial เพราะคณะลูกขุนไม่สามารถตัดสินได้
    ผู้พิพากษาปฏิเสธคำขอของ Arm ในการยกเลิกคำตัดสินหรือเปิดคดีใหม่
    Qualcomm ยืนยันว่าการใช้เทคโนโลยีของ Nuviaอยู่ภายใต้ข้อตกลงที่ถูกต้อง
    Qualcomm ยังมีคดีฟ้องกลับ Arm ในข้อหาขัดขวางความสัมพันธ์กับลูกค้า
    คดีฟ้องกลับจะเข้าสู่การพิจารณาในเดือนมีนาคม 2026

    ข้อมูลเสริมจากภายนอก
    Nuvia เป็นบริษัทที่พัฒนา CPU ประสิทธิภาพสูงสำหรับเซิร์ฟเวอร์และอุปกรณ์พกพา
    Qualcomm เข้าซื้อ Nuvia ในปี 2021 เพื่อเสริมความแข็งแกร่งด้าน CPU สำหรับ Snapdragon
    Arm เป็นผู้ให้สิทธิ์ใช้งานสถาปัตยกรรม CPU แก่บริษัทต่าง ๆ เช่น Apple, MediaTek, Samsung
    คดีนี้สะท้อนความซับซ้อนของการอนุญาตใช้งานเทคโนโลยีในยุคที่การควบรวมกิจการเกิดขึ้นบ่อย
    การตัดสินของศาลอาจส่งผลต่อแนวทางการออกใบอนุญาตของ Arm ในอนาคต

    https://www.thestar.com.my/tech/tech-news/2025/10/01/arm-plans-to-appeal-final-ruling-in-qualcomm-dispute
    ⚖️ “Arm เตรียมยื่นอุทธรณ์คดีแพ้ Qualcomm — ศึกสิทธิบัตร CPU ที่สะท้อนแรงสั่นสะเทือนในวงการเซมิคอนดักเตอร์” หลังจากศาลแขวงสหรัฐฯ ในรัฐเดลาแวร์มีคำตัดสินขั้นสุดท้ายเมื่อปลายเดือนกันยายน 2025 ให้ Qualcomm ชนะคดีสิทธิบัตรที่ Arm เป็นฝ่ายฟ้องร้อง ล่าสุด Arm ประกาศว่าจะยื่นอุทธรณ์ทันที โดยยังคงยืนยันว่า Qualcomm และบริษัทลูก Nuvia ละเมิดข้อตกลงการใช้งานเทคโนโลยี CPU ที่ได้จาก Arm คดีนี้เริ่มต้นจากการที่ Arm กล่าวหาว่า Nuvia ซึ่งถูก Qualcomm เข้าซื้อกิจการในปี 2021 ได้ใช้เทคโนโลยี CPU ที่ได้รับอนุญาตจาก Arm ไปพัฒนาในแบบที่ละเมิดข้อตกลงเดิม โดยเฉพาะการนำไปใช้ในผลิตภัณฑ์ใหม่ภายใต้ชื่อ Qualcomm โดยไม่ได้รับอนุญาตใหม่จาก Arm ในเดือนธันวาคม 2024 คณะลูกขุนตัดสินว่า Qualcomm ไม่ได้ละเมิดข้อตกลง และเทคโนโลยีที่ใช้ใน CPU ของ Nuvia ได้รับอนุญาตอย่างถูกต้องภายใต้ข้อตกลงของ Qualcomm เอง โดยคำตัดสินนี้ครอบคลุม 2 ใน 3 ข้อกล่าวหา ส่วนข้อที่ 3 คณะลูกขุนไม่สามารถตัดสินได้ ทำให้เกิด mistrial Arm พยายามขอให้ศาลยกเลิกคำตัดสินเดิมหรือเปิดการพิจารณาคดีใหม่ แต่ผู้พิพากษา Maryellen Noreika ปฏิเสธทั้งสองคำขอ ทำให้ Qualcomm ได้รับชัยชนะอย่างสมบูรณ์ในคดีนี้ Qualcomm ออกแถลงการณ์ว่า “สิทธิในการสร้างสรรค์นวัตกรรมของเราได้รับการยืนยัน” และหวังว่า Arm จะกลับมาใช้แนวทางที่ยุติธรรมในการทำธุรกิจกับพันธมิตรในระบบนิเวศของ Arm แม้คดีนี้จะจบลงแล้วในชั้นศาลแรก แต่ Qualcomm ยังมีคดีแยกที่ฟ้องกลับ Arm ในข้อหาขัดขวางความสัมพันธ์กับลูกค้าและพยายามผลักดันผลิตภัณฑ์ของตนเหนือพันธมิตร ซึ่งคดีนี้จะเข้าสู่การพิจารณาในเดือนมีนาคม 2026 ✅ ข้อมูลสำคัญจากข่าว ➡️ Arm แพ้คดีสิทธิบัตร CPU ต่อ Qualcomm และเตรียมยื่นอุทธรณ์ทันที ➡️ คดีเกี่ยวข้องกับการใช้เทคโนโลยี CPU ของ Nuvia ที่ Qualcomm เข้าซื้อกิจการ ➡️ คณะลูกขุนตัดสินว่า Qualcomm ไม่ละเมิดข้อตกลงกับ Arm ใน 2 ข้อกล่าวหา ➡️ ข้อกล่าวหาที่ 3 เกิด mistrial เพราะคณะลูกขุนไม่สามารถตัดสินได้ ➡️ ผู้พิพากษาปฏิเสธคำขอของ Arm ในการยกเลิกคำตัดสินหรือเปิดคดีใหม่ ➡️ Qualcomm ยืนยันว่าการใช้เทคโนโลยีของ Nuviaอยู่ภายใต้ข้อตกลงที่ถูกต้อง ➡️ Qualcomm ยังมีคดีฟ้องกลับ Arm ในข้อหาขัดขวางความสัมพันธ์กับลูกค้า ➡️ คดีฟ้องกลับจะเข้าสู่การพิจารณาในเดือนมีนาคม 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Nuvia เป็นบริษัทที่พัฒนา CPU ประสิทธิภาพสูงสำหรับเซิร์ฟเวอร์และอุปกรณ์พกพา ➡️ Qualcomm เข้าซื้อ Nuvia ในปี 2021 เพื่อเสริมความแข็งแกร่งด้าน CPU สำหรับ Snapdragon ➡️ Arm เป็นผู้ให้สิทธิ์ใช้งานสถาปัตยกรรม CPU แก่บริษัทต่าง ๆ เช่น Apple, MediaTek, Samsung ➡️ คดีนี้สะท้อนความซับซ้อนของการอนุญาตใช้งานเทคโนโลยีในยุคที่การควบรวมกิจการเกิดขึ้นบ่อย ➡️ การตัดสินของศาลอาจส่งผลต่อแนวทางการออกใบอนุญาตของ Arm ในอนาคต https://www.thestar.com.my/tech/tech-news/2025/10/01/arm-plans-to-appeal-final-ruling-in-qualcomm-dispute
    WWW.THESTAR.COM.MY
    Arm plans to appeal final ruling in Qualcomm dispute
    SAN FRANCISCO (Reuters) -Arm Holdings said on Tuesday it planned to appeal a judge's ruling in a licensing dispute against Qualcomm that left the chipmaker's jury victory intact.
    0 ความคิดเห็น 0 การแบ่งปัน 159 มุมมอง 0 รีวิว
Pages Boosts