• ซูเปอร์คอมพิวเตอร์จิ๋วแต่ทรงพลัง

    Tiiny AI เปิดตัวเครื่องซูเปอร์คอมพิวเตอร์ที่มีขนาดเล็กมากจนสามารถถือได้ด้วยมือเดียว แต่ภายในบรรจุฮาร์ดแวร์ที่ทรงพลังพอจะรองรับโมเดล AI ขนาดมหึมา จุดเด่นคือการออกแบบที่เน้น local-first computing ทำให้สามารถประมวลผลโมเดลได้โดยไม่ต้องพึ่งพาเซิร์ฟเวอร์ภายนอก

    สเปกและความสามารถ
    เครื่องนี้ใช้สถาปัตยกรรมที่รองรับการประมวลผลโมเดล AI ขนาด 120B parameters พร้อมระบบจัดการพลังงานที่มีประสิทธิภาพสูง แม้จะมีขนาดเล็ก แต่สามารถทำงานได้ใกล้เคียงกับเซิร์ฟเวอร์ AI ระดับศูนย์ข้อมูล โดยยังคงรักษาความเป็นมิตรต่อผู้ใช้ทั่วไป

    ความหมายต่อวงการ AI
    การมาของ Tiiny AI Supercomputer สะท้อนถึงแนวโน้มการทำให้ AI เข้าถึงได้ง่ายขึ้น ไม่จำกัดอยู่แค่บริษัทใหญ่หรือศูนย์ข้อมูลขนาดมหึมา แต่เปิดโอกาสให้ผู้ใช้ทั่วไป, นักวิจัยอิสระ และสตาร์ทอัพสามารถทดลองโมเดลขนาดใหญ่ได้ด้วยเครื่องที่ตั้งบนโต๊ะทำงาน

    ผลกระทบในอนาคต
    หากเทคโนโลยีนี้ถูกพัฒนาและผลิตในเชิงพาณิชย์อย่างจริงจัง อาจเปลี่ยนโฉมการใช้งาน AI ไปอย่างสิ้นเชิง เพราะจะทำให้การฝึกและรันโมเดลขนาดใหญ่ไม่ต้องพึ่งพา cloud computing เพียงอย่างเดียว แต่สามารถทำได้ในระดับ local ซึ่งช่วยลดค่าใช้จ่ายและเพิ่มความเป็นส่วนตัว

    สรุปเป็นหัวข้อ
    Tiiny AI Supercomputer
    ขนาดเล็กที่สุดในโลก
    รองรับโมเดล AI ขนาด 120B parameters

    จุดเด่นด้านเทคโนโลยี
    ออกแบบเพื่อ local-first computing
    ประสิทธิภาพใกล้เคียงเซิร์ฟเวอร์ศูนย์ข้อมูล

    ความหมายต่อวงการ AI
    ทำให้ AI เข้าถึงได้ง่ายขึ้น
    เปิดโอกาสให้ผู้ใช้ทั่วไปและสตาร์ทอัพ

    ผลกระทบในอนาคต
    ลดการพึ่งพา cloud computing
    เพิ่มความเป็นส่วนตัวและลดค่าใช้จ่าย

    ข้อจำกัดและคำเตือน
    ยังไม่ชัดเจนเรื่องราคาและการวางจำหน่ายจริง
    อาจมีข้อจำกัดด้านการระบายความร้อนและการขยายระบบ
    ต้องพิสูจน์ความเสถียรในการใช้งานระยะยาว

    https://wccftech.com/meet-the-worlds-smallest-supercomputer-a-machine-bold-enough-to-run-120b-ai-models/
    🖥️ ซูเปอร์คอมพิวเตอร์จิ๋วแต่ทรงพลัง Tiiny AI เปิดตัวเครื่องซูเปอร์คอมพิวเตอร์ที่มีขนาดเล็กมากจนสามารถถือได้ด้วยมือเดียว แต่ภายในบรรจุฮาร์ดแวร์ที่ทรงพลังพอจะรองรับโมเดล AI ขนาดมหึมา จุดเด่นคือการออกแบบที่เน้น local-first computing ทำให้สามารถประมวลผลโมเดลได้โดยไม่ต้องพึ่งพาเซิร์ฟเวอร์ภายนอก ⚡ สเปกและความสามารถ เครื่องนี้ใช้สถาปัตยกรรมที่รองรับการประมวลผลโมเดล AI ขนาด 120B parameters พร้อมระบบจัดการพลังงานที่มีประสิทธิภาพสูง แม้จะมีขนาดเล็ก แต่สามารถทำงานได้ใกล้เคียงกับเซิร์ฟเวอร์ AI ระดับศูนย์ข้อมูล โดยยังคงรักษาความเป็นมิตรต่อผู้ใช้ทั่วไป 🌍 ความหมายต่อวงการ AI การมาของ Tiiny AI Supercomputer สะท้อนถึงแนวโน้มการทำให้ AI เข้าถึงได้ง่ายขึ้น ไม่จำกัดอยู่แค่บริษัทใหญ่หรือศูนย์ข้อมูลขนาดมหึมา แต่เปิดโอกาสให้ผู้ใช้ทั่วไป, นักวิจัยอิสระ และสตาร์ทอัพสามารถทดลองโมเดลขนาดใหญ่ได้ด้วยเครื่องที่ตั้งบนโต๊ะทำงาน 🔍 ผลกระทบในอนาคต หากเทคโนโลยีนี้ถูกพัฒนาและผลิตในเชิงพาณิชย์อย่างจริงจัง อาจเปลี่ยนโฉมการใช้งาน AI ไปอย่างสิ้นเชิง เพราะจะทำให้การฝึกและรันโมเดลขนาดใหญ่ไม่ต้องพึ่งพา cloud computing เพียงอย่างเดียว แต่สามารถทำได้ในระดับ local ซึ่งช่วยลดค่าใช้จ่ายและเพิ่มความเป็นส่วนตัว 📌 สรุปเป็นหัวข้อ ✅ Tiiny AI Supercomputer ➡️ ขนาดเล็กที่สุดในโลก ➡️ รองรับโมเดล AI ขนาด 120B parameters ✅ จุดเด่นด้านเทคโนโลยี ➡️ ออกแบบเพื่อ local-first computing ➡️ ประสิทธิภาพใกล้เคียงเซิร์ฟเวอร์ศูนย์ข้อมูล ✅ ความหมายต่อวงการ AI ➡️ ทำให้ AI เข้าถึงได้ง่ายขึ้น ➡️ เปิดโอกาสให้ผู้ใช้ทั่วไปและสตาร์ทอัพ ✅ ผลกระทบในอนาคต ➡️ ลดการพึ่งพา cloud computing ➡️ เพิ่มความเป็นส่วนตัวและลดค่าใช้จ่าย ‼️ ข้อจำกัดและคำเตือน ⛔ ยังไม่ชัดเจนเรื่องราคาและการวางจำหน่ายจริง ⛔ อาจมีข้อจำกัดด้านการระบายความร้อนและการขยายระบบ ⛔ ต้องพิสูจน์ความเสถียรในการใช้งานระยะยาว https://wccftech.com/meet-the-worlds-smallest-supercomputer-a-machine-bold-enough-to-run-120b-ai-models/
    WCCFTECH.COM
    Meet the World’s Smallest ‘Supercomputer’ from Tiiny AI; A Machine Bold Enough to Run 120B AI Models Right in the Palm of Your Hand
    Compact AI devices have become mainstream, but Tiiny AI has broken the barriers by introducing the world's smallest AI supercomputer.
    0 Comments 0 Shares 126 Views 0 Reviews
  • รวมข่าวจากเวบ TechRadar

    #รวมข่าวIT #20251210 #TechRadar

    ความฝัน AGI ที่ยังไกลเกินเอื้อม
    นักวิจัย AI ในงานประชุม NeurIPS 2025 ออกมาเตือนว่า แม้ Google จะฉลองความสำเร็จของ Gemini 3 แต่ความจริงแล้วการสร้าง “ปัญญาประดิษฐ์ทั่วไป” หรือ AGI ยังห่างไกลมาก ปัญหาคือการพัฒนาโมเดลขนาดใหญ่ขึ้นเรื่อย ๆ ไม่ได้ทำให้มันฉลาดขึ้นจริง ๆ แต่กลับติดกำแพงที่เรียกว่า “scaling wall” ทั้งเรื่องข้อมูลที่เริ่มหมดคุณภาพ การใช้พลังงานมหาศาล และที่สำคัญคือโมเดลยังไม่เข้าใจเหตุและผลอย่างแท้จริง หลายคนเสนอแนวทางใหม่ เช่น สถาปัตยกรรมแบบ neurosymbolic ที่ผสมผสานการเรียนรู้เชิงสถิติและตรรกะ หรือ “world models” ที่จำลองการรับรู้โลกแบบมนุษย์ เพื่อให้ AI ไม่ใช่แค่ตอบได้ แต่เข้าใจจริง ๆ https://www.techradar.com/ai-platforms-assistants/agi-is-a-pipe-dream-until-we-solve-one-big-problem-ai-experts-say-even-as-google-celebrates-geminis-success

    เครือข่ายอาชญากรรมไซเบอร์ 14 ปีในอินโดนีเซียถูกโค่น
    นักวิจัย Malanta.ai พบโครงสร้างอาชญากรรมไซเบอร์ขนาดมหึมาในอินโดนีเซียที่ดำเนินการต่อเนื่องกว่า 14 ปี มีการควบคุมโดเมนกว่า 320,000 แห่ง รวมถึงซับโดเมนของรัฐบาลที่ถูกแฮ็ก ใช้แพลตฟอร์มคลาวด์อย่าง AWS และ Firebase ในการสั่งการมัลแวร์ และสร้างแอป Android ปลอมที่กระจายไปทั่ว ผลคือข้อมูลล็อกอินการพนันกว่า 50,000 รายการถูกขโมยไป นักวิจัยตั้งข้อสงสัยว่านี่อาจไม่ใช่แค่กลุ่มอาชญากรทั่วไป แต่มีลักษณะคล้ายปฏิบัติการระดับรัฐ https://www.techradar.com/pro/security/national-cybercrime-network-operating-for-14-years-dismantled-in-indonesia

    บอร์ด Framework เก่าถูกชุบชีวิตเป็นคลัสเตอร์คอมพิวเตอร์
    โครงการ Kickstarter ที่ชื่อ FrameCluster เสนอไอเดียเปลี่ยนเมนบอร์ด Framework ที่ไม่ได้ใช้แล้วให้กลายเป็นระบบคลัสเตอร์ขนาดเล็ก โดยใช้ชิ้นส่วนที่พิมพ์ 3D ทั้งหมด มันไม่ได้เน้นพลังประมวลผลสูงสุด แต่เน้นการจัดระเบียบและการนำฮาร์ดแวร์เก่ามาใช้ใหม่ เหมาะสำหรับงานทดลองหรือโฮสต์เซอร์วิสเล็ก ๆ แม้จะยังระดมทุนได้ไม่มาก แต่ก็เป็นตัวอย่างที่น่าสนใจของการรีไซเคิลเทคโนโลยีให้กลับมามีชีวิตอีกครั้ง https://www.techradar.com/pro/your-own-supercomputer-made-up-of-old-framework-motherboards-this-kickstarter-project-aims-to-achieve-just-that

    รีวิว Fairphone Fairbuds XL 2025 หูฟังรักษ์โลก
    Fairphone เปิดตัวหูฟังรุ่นใหม่ Fairbuds XL 2025 ที่ยังคงจุดขายด้านความยั่งยืน ใช้วัสดุรีไซเคิลและแร่ธาตุที่ได้จากการทำเหมืองอย่างเป็นธรรม จุดเด่นคือการควบคุมด้วยจอยสติ๊กเล็ก ๆ ที่ใช้งานง่ายและสนุก เสียงออกมาแนวสนุกสนาน มีพลังเบส แต่ยังไม่ละเอียดเท่าคู่แข่งรายใหญ่ จุดที่อาจทำให้ลังเลคือราคาที่สูงกว่าแบรนด์อื่น และฟีเจอร์เสริมที่ยังไม่ครบ แต่ถ้ามองเรื่องสิ่งแวดล้อมและการใช้งานระยะยาว หูฟังนี้ถือว่าโดดเด่นมาก https://www.techradar.com/audio/wireless-headphones/fairphone-fairbuds-xl-2025-review

    7 มือถือแนะนำสำหรับของขวัญคริสต์มาส
    TechRadar รวบรวมมือถือที่เหมาะจะซื้อเป็นของขวัญคริสต์มาสปีนี้ โดยแบ่งตามกลุ่มผู้ใช้ เช่น สำหรับทุกคนทั่วไปมีตัวเลือกอย่าง iPhone 17, Samsung Galaxy S25 และ Google Pixel 10 ส่วนวัยรุ่นเหมาะกับ iPhone 16 ที่ยังเร็วและรองรับอัปเดตอีกหลายปี สำหรับพ่อแม่แนะนำ Samsung Galaxy A36 ที่จอใหญ่ แบตอึด และราคาคุ้มค่า ถ้าเป็นแฟน Apple ก็มี iPhone 17 Pro ที่ครบเครื่อง หรือถ้าเป็นสาย Android ตัวแรง OnePlus 15 ก็เป็นดาวเด่นปีนี้ เรียกว่ามีตัวเลือกสำหรับทุกสไตล์และงบประมาณ https://www.techradar.com/phones/buying-someone-a-new-phone-this-christmas-here-are-my-7-expert-recommendations-for-every-type-of-person

    โฆษณาใน Gemini ยังไม่มา แต่อนาคตอาจเลี่ยงไม่พ้น
    ช่วงนี้โลก AI กำลังถูกจับตามองเรื่องโฆษณาในแชตบอท หลังจากที่ผู้ใช้ ChatGPT แบบโปรราคา 200 ดอลลาร์ต่อเดือนเจอ “app suggestions” โผล่มาเหมือนโฆษณา จนบริษัทต้องรีบถอดออกและยอมรับว่าพลาดไป ขณะที่คู่แข่งอย่าง Google Gemini รีบออกมาปฏิเสธข่าวลือว่าไม่มีแผนจะใส่โฆษณาในแอปตอนนี้ แต่คำว่า “ตอนนี้” ก็ทำให้หลายคนตั้งข้อสงสัย เพราะค่าใช้จ่ายมหาศาลในการดูแลระบบ AI อาจทำให้วันหนึ่งโฆษณากลายเป็นสิ่งที่หลีกเลี่ยงไม่ได้ เรื่องนี้สะท้อนว่าอนาคตของผู้ช่วย AI อาจไม่พ้นการกลายเป็นพื้นที่โฆษณา เพียงแต่จะมาเมื่อไหร่เท่านั้น https://www.techradar.com/ai-platforms-assistants/chatgpt/ads-arent-coming-to-gemini-google-says-but-openai-has-shown-that-the-inevitable-is-coming

    Xiaomi และ Motorola เตรียมส่งแท็กคู่แข่ง AirTag
    ตั้งแต่ Apple เปิดตัว AirTag ในปี 2021 ก็แทบจะครองตลาดอุปกรณ์ติดตามของหาย ล่าสุดมีข่าวลือว่า Xiaomi และ Motorola กำลังจะเปิดตัวแท็กของตัวเอง โดยทั้งคู่จะรองรับเทคโนโลยี ultra wide-band ที่แม่นยำกว่าเดิม Xiaomi อาจเปิดตัวพร้อมมือถือรุ่นใหม่ปลายปี ส่วน Motorola ก็มีภาพหลุดของ Moto Tag 2 ที่จะมาพร้อมสีใหม่และกันน้ำได้ด้วย ราคายังไม่ประกาศ แต่คาดว่าจะใกล้เคียงกับรุ่นก่อนที่ขายราว 40 ดอลลาร์ ถือเป็นข่าวดีสำหรับผู้ใช้ Android ที่อยากได้ตัวเลือกใหม่ในการติดตามของสำคัญ https://www.techradar.com/phones/android/forget-apple-airtags-motorola-and-xiaomi-are-rumored-to-be-launching-android-equivalents-soon

    Dyson V8 Cyclone รุ่นพื้นฐานที่ทำความสะอาดได้เกินคาด
    นักรีวิวเครื่องดูดฝุ่นจาก TechRadar ได้ลอง Dyson V8 Cyclone ซึ่งเป็นรุ่นพื้นฐาน ไม่มีฟีเจอร์ล้ำ ๆ เหมือนรุ่นใหม่ ๆ แต่กลับทำความสะอาดได้ดีจนเหนือความคาดหมาย ในการทดสอบเปรียบเทียบกับรุ่นไฮเทคอย่าง Dyson V16 และ Shark Detect Pro รุ่น V8 Cyclone กลับทำคะแนนสูงกว่า จุดเด่นคือแรงดูดและหัวดูดที่ออกแบบเรียบง่ายแต่มีประสิทธิภาพ ทำให้ตั้งคำถามว่าบางครั้งเครื่องใช้ไฟฟ้าที่ถูกออกแบบซับซ้อนเกินไปอาจไม่ได้ช่วยให้ใช้งานดีขึ้นเสมอไป https://www.techradar.com/home/vacuums/i-was-blown-away-by-this-basic-dyson-vacuums-cleaning-powers-and-im-wondering-if-modern-vacs-are-over-engineered

      IKEA เปิดตัวไฟอัจฉริยะราคาถูกที่สุด
    IKEA เปิดตัวไฟ LED รุ่นใหม่ชื่อ Gömpyssling ที่มาพร้อมเซ็นเซอร์ตรวจจับการเคลื่อนไหว เปิดปุ๊บติดปั๊บ เหมาะสำหรับติดในตู้หรือชั้นวางของ จุดเด่นคือราคาถูกมาก แค่สองชิ้นราคาเพียง 3 ปอนด์ในอังกฤษ และ 4 ยูโรในหลายประเทศยุโรป ตัวไฟทำจากพลาสติกรีไซเคิล ใช้แบตเตอรี่ AA เพียงก้อนเดียว ไม่ต้องเชื่อมต่อ Wi-Fi หรือแอปใด ๆ ถือเป็นอุปกรณ์เล็ก ๆ ที่ช่วยเพิ่มความสะดวกสบายในบ้านโดยไม่ต้องลงทุนเยอะ https://www.techradar.com/home/smart-home/ikea-quietly-launches-a-new-smart-light-and-its-the-simplest-and-most-affordable-one-yet

    Asus ROG Raikiri Pro คอนโทรลเลอร์พร้อมจอ OLED ลดราคาหนัก
    สำหรับสายเกมเมอร์ Asus ROG Raikiri Pro เป็นคอนโทรลเลอร์ไร้สายที่มีจอ OLED ในตัว สามารถปรับโปรไฟล์ปุ่มและตั้งค่าต่าง ๆ ได้ทันทีโดยไม่ต้องเข้าเมนูในเกม ล่าสุดมีโปรลดราคาจาก 149.99 ปอนด์เหลือเพียง 89.99 ปอนด์ ถือเป็นราคาต่ำสุดที่เคยมี ดีไซน์โดดเด่นด้วยไฟ RGB รอบปุ่มและตัวเครื่องกึ่งโปร่งใส เหมาะกับคนที่ชอบปรับแต่งละเอียดหรืออยากได้คอนโทรลเลอร์ที่แตกต่างจากทั่วไป https://www.techradar.com/gaming/this-asus-controller-comes-with-a-screen-and-right-now-its-cheaper-than-ever

      Meta ลดการแชร์ข้อมูลผู้ใช้ในยุโรป
    Meta ประกาศว่าจะลดการแชร์ข้อมูลของผู้ใช้ในสหภาพยุโรปภายในปี 2026 เพื่อหลีกเลี่ยงการโดนปรับตามกฎหมาย GDPR การเปลี่ยนแปลงนี้จะทำให้ข้อมูลที่ส่งต่อระหว่างบริการต่าง ๆ ของ Meta เช่น Facebook และ Instagram ถูกจำกัดมากขึ้น ถือเป็นการตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลในยุโรปที่เข้มงวดเรื่องความเป็นส่วนตัวของผู้ใช้ https://www.techradar.com/pro/meta-promises-to-reduce-data-sharing-for-eu-users-by-2026-to-avoid-eu-gdpr-fines

      รีวิวกล้องติดรถ Thinkware U3000 Pro
    กล้องติดรถ Thinkware U3000 Pro รุ่นใหม่มาพร้อมฟีเจอร์จัดเต็ม เช่น การบันทึกวิดีโอความละเอียดสูง และระบบช่วยตรวจจับเหตุการณ์ แต่ราคาก็สูงตามไปด้วย รีวิวจาก TechRadar ระบุว่าถึงแม้คุณภาพดี แต่คู่แข่งที่ราคาถูกกว่ากลับทำได้ใกล้เคียงหรือบางรุ่นดีกว่า ทำให้ U3000 Pro อาจเหมาะกับคนที่ต้องการฟีเจอร์ครบ ๆ และไม่กังวลเรื่องงบประมาณ https://www.techradar.com/vehicle-tech/dash-cams/i-tested-the-thinkware-u3000-pro-dash-cam-and-it-has-heaps-of-potential-but-its-outshone-by-affordable-rivals

    สร้างห้องทำงานที่บ้านให้สมบูรณ์แบบ
    เรื่องนี้พูดถึงการจัดห้องทำงานที่บ้านให้กลายเป็นพื้นที่ทำงานที่ทรงพลังและสะดวกสบายที่สุด เขาแนะนำอุปกรณ์สำคัญตั้งแต่แล็ปท็อปที่แรงพอสำหรับงานหนักอย่าง Dell 16 Premium ไปจนถึงเก้าอี้ Branch Verve ที่นั่งได้นานโดยไม่เมื่อย รวมถึงโต๊ะยืน FlexiSpot E7 ที่ปรับระดับได้ง่าย เครื่องพิมพ์ Epson EcoTank ที่ประหยัดหมึก และจอมอนิเตอร์ Dell UltraSharp ที่ภาพคมชัด นอกจากนี้ยังมีเมาส์ Logitech MX Master 3S ที่ใช้งานได้เงียบและแม่นยำ รวมถึงระบบ Wi-Fi 7 จาก TP-Link Deco ที่ทำให้การเชื่อมต่อเสถียร สุดท้ายยังมีอุปกรณ์เสริมอย่าง Docking Station, SSD พกพา Samsung T9, Cloud Storage iDrive และหูฟัง Jabra Evolve2 75 ที่ช่วยให้การประชุมออนไลน์ชัดเจน ทั้งหมดนี้คือการรวมอุปกรณ์ที่ทำให้การทำงานจากบ้านมีประสิทธิภาพและสบายใจมากขึ้น https://www.techradar.com/home/create-the-ultimate-work-from-home-setup

    LinkedIn เดินหน้าตรวจสอบตัวตนผู้ใช้ทุกคน
    LinkedIn ประกาศความสำเร็จในการทำให้มีผู้ใช้ที่ผ่านการยืนยันตัวตนกว่า 100 ล้านบัญชี และยังตั้งเป้าว่าจะทำให้ทุกบัญชี ทุกบริษัท และทุกตำแหน่งงานมีการยืนยันเพื่อสร้างความน่าเชื่อถือมากขึ้น การยืนยันนี้ช่วยให้ผู้ใช้ได้รับการเข้าถึงและการมีส่วนร่วมมากขึ้นถึงหลายสิบเปอร์เซ็นต์ นอกจากนี้ LinkedIn ยังเปิด API ให้แพลตฟอร์มอื่น ๆ เช่น Zoom นำสถานะการยืนยันไปแสดงในโปรไฟล์ เพื่อเพิ่มความมั่นใจในการประชุมออนไลน์ ถือเป็นก้าวสำคัญที่ LinkedIn ต้องการสร้างมาตรฐานใหม่ของความน่าเชื่อถือบนโลกดิจิทัล https://www.techradar.com/pro/linkedin-wants-every-user-to-be-verified

    โน้ตบุ๊กเกมมิ่งจอ OLED ขยายได้จาก Lenovo
    มีข่าวลือว่า Lenovo เตรียมเปิดตัวโน้ตบุ๊กเกมมิ่งรุ่นใหม่ชื่อ Legion Pro Rollable ที่มาพร้อมจอ OLED แบบขยายได้ในแนวนอน ซึ่งจะกลายเป็นโน้ตบุ๊กเกมมิ่งจอ Ultrawide รุ่นแรกของโลก หากเป็นจริงจะเปิดตัวในงาน CES 2026 จุดเด่นคือหน้าจอสามารถขยายออกไปด้านข้างเพื่อเพิ่มพื้นที่การเล่นเกมหรือทำงานแบบมัลติทาสก์ คาดว่าจะใช้ซีพียู Intel Core Ultra แต่ยังไม่เปิดเผยการ์ดจอ แม้จะมีข้อกังวลเรื่องราคาและน้ำหนัก แต่ถ้า Lenovo ทำได้สำเร็จ นี่อาจเป็นการเปลี่ยนแปลงครั้งใหญ่ของโน้ตบุ๊กเกมมิ่ง https://www.techradar.com/computing/gaming-laptops/lenovo-legion-pro-rollable-leak-reveals-the-worlds-first-ultrawide-oled-gaming-laptop-and-i-cant-wait-to-try-it

    การโจมตีแบบ Prompt Injection อาจไม่มีวันแก้ได้
    หน่วยงานความมั่นคงไซเบอร์แห่งสหราชอาณาจักร (NCSC) เตือนว่าการโจมตีแบบ Prompt Injection ซึ่งเป็นการฝังคำสั่งแอบแฝงในข้อความเพื่อหลอกให้โมเดลภาษาขนาดใหญ่ทำงานผิด อาจจะไม่สามารถแก้ไขได้อย่างสมบูรณ์เหมือนที่เคยแก้ปัญหา SQL Injection เพราะโมเดลไม่สามารถแยกแยะระหว่างข้อมูลกับคำสั่งได้อย่างแท้จริง ผู้เชี่ยวชาญแนะนำให้นักพัฒนามองโมเดลเหล่านี้เป็น “ผู้ช่วยที่สับสนได้” และออกแบบระบบให้จำกัดผลกระทบหากถูกโจมตี นี่เป็นการเตือนว่าการใช้ AI ต้องระวังและไม่ควรคาดหวังว่าจะปลอดภัยร้อยเปอร์เซ็นต์ https://www.techradar.com/pro/security/prompt-injection-attacks-might-never-be-properly-mitigated-uk-ncsc-warns

    ออสเตรเลียห้ามเด็กอายุต่ำกว่า 16 ใช้โซเชียลมีเดีย
    กฎหมายใหม่ในออสเตรเลียเริ่มบังคับใช้แล้ว โดยห้ามผู้ที่อายุต่ำกว่า 16 ปีใช้งานแพลตฟอร์มโซเชียลมีเดียยอดนิยม เช่น YouTube, Instagram, TikTok และ Snapchat หากบริษัทไม่ปฏิบัติตามอาจถูกปรับสูงถึง 49.5 ล้านดอลลาร์ออสเตรเลีย มาตรการนี้ได้รับเสียงสนับสนุนจากผู้ปกครองและนักปกป้องเด็ก แต่ก็มีเสียงวิจารณ์จากผู้เชี่ยวชาญด้านเทคโนโลยีและความเป็นส่วนตัวที่กังวลว่าจะกระทบสิทธิของประชาชน เด็กบางคนเริ่มหันไปใช้แอปอื่นที่ไม่อยู่ในขอบเขตของกฎหมาย เช่น Discord หรือ Roblox และมีแนวโน้มว่าการค้นหา VPN จะเพิ่มขึ้นเพื่อหาทางเลี่ยงข้อจำกัด https://www.techradar.com/vpn/vpn-privacy-security/under-16s-social-media-ban-lands-in-australia

    Pebble Index 01 อุปกรณ์ใหม่รวมแหวนอัจฉริยะกับผู้ช่วยเสียง
    Pebble เปิดตัวอุปกรณ์ที่รวมฟังก์ชันผู้ช่วยเสียงเข้ากับสมาร์ทริงในชื่อ Pebble Index 01 จุดเด่นคือสามารถสั่งงานด้วยเสียงได้โดยตรงจากแหวน เช่น เปิดเพลง ควบคุมอุปกรณ์สมาร์ทโฮม หรือเช็กข้อมูลต่าง ๆ โดยไม่ต้องหยิบโทรศัพท์ขึ้นมา ดีไซน์เรียบง่ายและทันสมัย ทำให้เป็นทั้งเครื่องประดับและอุปกรณ์เทคโนโลยีในเวลาเดียวกัน ถือเป็นการพยายามสร้างหมวดหมู่ใหม่ที่ผสมผสาน wearable กับ AI voice assistant เข้าด้วยกัน https://www.techradar.com/health-fitness/pebble-is-reinventing-voice-assistants-and-smart-rings-in-one-device-meet-the-pebble-index-01

     รัฐบาลสหรัฐฯ มองโลกในแง่ดีหลังยอดจ่ายค่าไถ่ไซเบอร์ลดลง
    ช่วงปี 2023 ถือเป็นปีที่การโจมตี ransomware พุ่งสูงสุด มีการจ่ายค่าไถ่รวมกว่า 1.1 พันล้านดอลลาร์ แต่หลังจากที่หน่วยงานบังคับใช้กฎหมายสามารถจัดการกับแก๊งใหญ่ ๆ อย่าง ALPHV และ LockBit ได้ ทำให้ปี 2024 ยอดการโจมตีและจำนวนเงินที่เหยื่อจ่ายลดลงเหลือประมาณ 734 ล้านดอลลาร์ แม้ยังมีแก๊งอย่าง Akira ที่ยังคงเคลื่อนไหวอยู่ แต่ภาพรวมถือว่าการปราบปรามครั้งนี้สร้างผลกระทบชัดเจนต่อวงการอาชญากรรมไซเบอร์ https://www.techradar.com/pro/security/us-treasury-offers-cautious-optimism-as-ransomware-payments-decline

     Spotify เดินหน้าสู่ยุคใหม่ เพิ่มมิวสิกวิดีโอในแอป
    Spotify กำลังพยายามกลายเป็นเหมือน MTV ยุคดิจิทัล โดยล่าสุดเปิดให้ผู้ใช้ในสหรัฐฯ และแคนาดา รวมถึงอีกหลายประเทศ สามารถดูมิวสิกวิดีโอได้โดยตรงในแอป ไม่ใช่แค่ฟังเพลงอย่างเดียว ผู้ใช้สามารถกดสลับจากโหมดเสียงไปเป็นวิดีโอได้ทันที ฟีเจอร์นี้สร้างความตื่นเต้น แต่ก็มีเสียงวิจารณ์ว่าประสบการณ์ดูวิดีโอยังไม่ลื่นไหลเท่า YouTube อย่างไรก็ตาม Spotify ยังคงเดินหน้าต่อยอดเพื่อขยายบริการให้ครบวงจรทั้งภาพและเสียง https://www.techradar.com/audio/spotify/spotify-steps-up-its-plan-to-be-the-new-mtv-music-videos-are-rolling-out-whether-you-want-them-or-not

     โลกการเขียนโค้ดกับเทรนด์ใหม่ “Vibe-Coding”
    คำว่า “Vibe-Coding” ถูกยกให้เป็นคำแห่งปี 2025 หมายถึงการเขียนโปรแกรมที่เน้นความรู้สึกและความคิดสร้างสรรค์มากกว่ากฎเกณฑ์ทางเทคนิค โดยใช้ AI เป็นตัวช่วยให้โค้ดเกิดขึ้นแทบจะอัตโนมัติ แนวทางนี้เปิดโอกาสให้คนที่ไม่เชี่ยวชาญด้านเทคนิคสามารถสร้างซอฟต์แวร์ได้ง่ายขึ้น แต่ก็มีข้อกังวลเรื่องคุณภาพ ความปลอดภัย และความเสี่ยงจากโค้ดที่ไม่ได้ตรวจสอบอย่างละเอียด นักพัฒนาจึงต้องปรับบทบาทจากการเขียนโค้ดเองไปสู่การควบคุมคุณภาพและกำกับ AI ให้ทำงานอย่างถูกต้อง https://www.techradar.com/pro/the-future-of-coding-has-a-vibe-problem-balancing-creativity-with-control

     AMD เตรียมเปิดตัวชิปเกมมิ่งรุ่นใหม่ Ryzen 9850X3D
    มีภาพหลุดจาก BIOS ที่เผยให้เห็นชิป AMD Ryzen 9850X3D ซึ่งคาดว่าจะเป็นรุ่นอัปเกรดจาก 9800X3D โดยเพิ่มความเร็วบูสต์สูงสุดถึง 5.6GHz ทำให้แรงขึ้นกว่าเดิมประมาณ 400MHz แม้ผลทดสอบเบื้องต้นยังไม่ชัดเจน แต่ถ้าชิปนี้เปิดตัวจริงในงาน CES 2026 จะเป็นข่าวดีสำหรับนักเล่นเกม เพราะนอกจากจะได้รุ่นใหม่ที่แรงขึ้นแล้ว ยังอาจทำให้รุ่นเก่าราคาเริ่มถูกลงด้วย https://www.techradar.com/computing/gpu/the-fastest-gaming-cpu-could-get-a-supercharged-version-soon-as-new-amd-ryzen-9850x3d-leak-pops-up

     สหราชอาณาจักรต้องเร่งสร้างเครือข่ายอัจฉริยะเพื่อแข่งขันในยุค AI
    รายงานล่าสุดชี้ว่า AI สามารถเพิ่ม GDP ของสหราชอาณาจักรได้กว่า 550 พันล้านปอนด์ภายในปี 2035 แต่ปัญหาคือโครงสร้างพื้นฐานด้านเครือข่ายยังล้าหลังมาก โดยปัจจุบันสหราชอาณาจักรถือครองพลังการประมวลผล AI เพียง 3% ของโลก ขณะที่สหรัฐฯ ครองถึง 75% หากไม่เร่งลงทุนในเครือข่ายที่เร็ว ปลอดภัย และปรับตัวได้ทันที ประเทศอาจเสียโอกาสในการแข่งขัน เครือข่ายอัจฉริยะจะเป็นหัวใจสำคัญในการผลักดันเศรษฐกิจและนวัตกรรมในอนาคต https://www.techradar.com/pro/the-uk-must-build-smarter-networks-to-lead-in-ai

      IBM ทุ่มเงิน 11 พันล้านเหรียญซื้อกิจการ Confluent IBM
    กำลังเดินหน้าขยายธุรกิจด้านโครงสร้างพื้นฐานข้อมูล โดยล่าสุดมีรายงานว่าเตรียมเข้าซื้อ Confluent ด้วยมูลค่ากว่า 11 พันล้านเหรียญสหรัฐ การเข้าซื้อครั้งนี้สะท้อนถึงความตั้งใจของ IBM ที่จะเสริมความแข็งแกร่งด้านการจัดการข้อมูลแบบเรียลไทม์ ซึ่งเป็นหัวใจสำคัญขององค์กรยุค AI และคลาวด์ หากดีลนี้สำเร็จ IBM จะมีเครื่องมือที่ช่วยให้ลูกค้าสามารถจัดการข้อมูลที่ซับซ้อนและกระจายตัวได้อย่างมีประสิทธิภาพมากขึ้น https://www.techradar.com/pro/ibm-looks-to-secure-data-infrastructure-with-usd11bn-bid-for-confluent

      สหรัฐฯ เตรียมอนุญาตให้ส่งออกชิป Nvidia H200 ไปจีน
    รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์ มีแนวโน้มที่จะอนุญาตให้บริษัท Nvidia ส่งออกชิปประสิทธิภาพสูงรุ่น H200 ไปยังจีน หลังจากก่อนหน้านี้มีการจำกัดการขายเพื่อป้องกันการนำไปใช้ในงานด้าน AI และการทหาร การผ่อนปรนครั้งนี้อาจช่วยให้ Nvidia ขยายตลาดและสร้างรายได้เพิ่มขึ้น แต่ก็มีเสียงวิจารณ์ว่าการตัดสินใจดังกล่าวอาจส่งผลต่อความมั่นคงทางเทคโนโลยีของสหรัฐฯ https://www.techradar.com/pro/trump-set-to-allow-nvidia-h200-chips-to-be-exported-to-china
    📌📡🟢 รวมข่าวจากเวบ TechRadar 🟢📡📌 #รวมข่าวIT #20251210 #TechRadar 🧠 ความฝัน AGI ที่ยังไกลเกินเอื้อม นักวิจัย AI ในงานประชุม NeurIPS 2025 ออกมาเตือนว่า แม้ Google จะฉลองความสำเร็จของ Gemini 3 แต่ความจริงแล้วการสร้าง “ปัญญาประดิษฐ์ทั่วไป” หรือ AGI ยังห่างไกลมาก ปัญหาคือการพัฒนาโมเดลขนาดใหญ่ขึ้นเรื่อย ๆ ไม่ได้ทำให้มันฉลาดขึ้นจริง ๆ แต่กลับติดกำแพงที่เรียกว่า “scaling wall” ทั้งเรื่องข้อมูลที่เริ่มหมดคุณภาพ การใช้พลังงานมหาศาล และที่สำคัญคือโมเดลยังไม่เข้าใจเหตุและผลอย่างแท้จริง หลายคนเสนอแนวทางใหม่ เช่น สถาปัตยกรรมแบบ neurosymbolic ที่ผสมผสานการเรียนรู้เชิงสถิติและตรรกะ หรือ “world models” ที่จำลองการรับรู้โลกแบบมนุษย์ เพื่อให้ AI ไม่ใช่แค่ตอบได้ แต่เข้าใจจริง ๆ 🔗 https://www.techradar.com/ai-platforms-assistants/agi-is-a-pipe-dream-until-we-solve-one-big-problem-ai-experts-say-even-as-google-celebrates-geminis-success 🕵️ เครือข่ายอาชญากรรมไซเบอร์ 14 ปีในอินโดนีเซียถูกโค่น นักวิจัย Malanta.ai พบโครงสร้างอาชญากรรมไซเบอร์ขนาดมหึมาในอินโดนีเซียที่ดำเนินการต่อเนื่องกว่า 14 ปี มีการควบคุมโดเมนกว่า 320,000 แห่ง รวมถึงซับโดเมนของรัฐบาลที่ถูกแฮ็ก ใช้แพลตฟอร์มคลาวด์อย่าง AWS และ Firebase ในการสั่งการมัลแวร์ และสร้างแอป Android ปลอมที่กระจายไปทั่ว ผลคือข้อมูลล็อกอินการพนันกว่า 50,000 รายการถูกขโมยไป นักวิจัยตั้งข้อสงสัยว่านี่อาจไม่ใช่แค่กลุ่มอาชญากรทั่วไป แต่มีลักษณะคล้ายปฏิบัติการระดับรัฐ 🔗 https://www.techradar.com/pro/security/national-cybercrime-network-operating-for-14-years-dismantled-in-indonesia 🖥️ บอร์ด Framework เก่าถูกชุบชีวิตเป็นคลัสเตอร์คอมพิวเตอร์ โครงการ Kickstarter ที่ชื่อ FrameCluster เสนอไอเดียเปลี่ยนเมนบอร์ด Framework ที่ไม่ได้ใช้แล้วให้กลายเป็นระบบคลัสเตอร์ขนาดเล็ก โดยใช้ชิ้นส่วนที่พิมพ์ 3D ทั้งหมด มันไม่ได้เน้นพลังประมวลผลสูงสุด แต่เน้นการจัดระเบียบและการนำฮาร์ดแวร์เก่ามาใช้ใหม่ เหมาะสำหรับงานทดลองหรือโฮสต์เซอร์วิสเล็ก ๆ แม้จะยังระดมทุนได้ไม่มาก แต่ก็เป็นตัวอย่างที่น่าสนใจของการรีไซเคิลเทคโนโลยีให้กลับมามีชีวิตอีกครั้ง 🔗 https://www.techradar.com/pro/your-own-supercomputer-made-up-of-old-framework-motherboards-this-kickstarter-project-aims-to-achieve-just-that 🎧 รีวิว Fairphone Fairbuds XL 2025 หูฟังรักษ์โลก Fairphone เปิดตัวหูฟังรุ่นใหม่ Fairbuds XL 2025 ที่ยังคงจุดขายด้านความยั่งยืน ใช้วัสดุรีไซเคิลและแร่ธาตุที่ได้จากการทำเหมืองอย่างเป็นธรรม จุดเด่นคือการควบคุมด้วยจอยสติ๊กเล็ก ๆ ที่ใช้งานง่ายและสนุก เสียงออกมาแนวสนุกสนาน มีพลังเบส แต่ยังไม่ละเอียดเท่าคู่แข่งรายใหญ่ จุดที่อาจทำให้ลังเลคือราคาที่สูงกว่าแบรนด์อื่น และฟีเจอร์เสริมที่ยังไม่ครบ แต่ถ้ามองเรื่องสิ่งแวดล้อมและการใช้งานระยะยาว หูฟังนี้ถือว่าโดดเด่นมาก 🔗 https://www.techradar.com/audio/wireless-headphones/fairphone-fairbuds-xl-2025-review 🎄 7 มือถือแนะนำสำหรับของขวัญคริสต์มาส TechRadar รวบรวมมือถือที่เหมาะจะซื้อเป็นของขวัญคริสต์มาสปีนี้ โดยแบ่งตามกลุ่มผู้ใช้ เช่น สำหรับทุกคนทั่วไปมีตัวเลือกอย่าง iPhone 17, Samsung Galaxy S25 และ Google Pixel 10 ส่วนวัยรุ่นเหมาะกับ iPhone 16 ที่ยังเร็วและรองรับอัปเดตอีกหลายปี สำหรับพ่อแม่แนะนำ Samsung Galaxy A36 ที่จอใหญ่ แบตอึด และราคาคุ้มค่า ถ้าเป็นแฟน Apple ก็มี iPhone 17 Pro ที่ครบเครื่อง หรือถ้าเป็นสาย Android ตัวแรง OnePlus 15 ก็เป็นดาวเด่นปีนี้ เรียกว่ามีตัวเลือกสำหรับทุกสไตล์และงบประมาณ 🔗 https://www.techradar.com/phones/buying-someone-a-new-phone-this-christmas-here-are-my-7-expert-recommendations-for-every-type-of-person 📰 โฆษณาใน Gemini ยังไม่มา แต่อนาคตอาจเลี่ยงไม่พ้น ช่วงนี้โลก AI กำลังถูกจับตามองเรื่องโฆษณาในแชตบอท หลังจากที่ผู้ใช้ ChatGPT แบบโปรราคา 200 ดอลลาร์ต่อเดือนเจอ “app suggestions” โผล่มาเหมือนโฆษณา จนบริษัทต้องรีบถอดออกและยอมรับว่าพลาดไป ขณะที่คู่แข่งอย่าง Google Gemini รีบออกมาปฏิเสธข่าวลือว่าไม่มีแผนจะใส่โฆษณาในแอปตอนนี้ แต่คำว่า “ตอนนี้” ก็ทำให้หลายคนตั้งข้อสงสัย เพราะค่าใช้จ่ายมหาศาลในการดูแลระบบ AI อาจทำให้วันหนึ่งโฆษณากลายเป็นสิ่งที่หลีกเลี่ยงไม่ได้ เรื่องนี้สะท้อนว่าอนาคตของผู้ช่วย AI อาจไม่พ้นการกลายเป็นพื้นที่โฆษณา เพียงแต่จะมาเมื่อไหร่เท่านั้น 🔗 https://www.techradar.com/ai-platforms-assistants/chatgpt/ads-arent-coming-to-gemini-google-says-but-openai-has-shown-that-the-inevitable-is-coming 📱 Xiaomi และ Motorola เตรียมส่งแท็กคู่แข่ง AirTag ตั้งแต่ Apple เปิดตัว AirTag ในปี 2021 ก็แทบจะครองตลาดอุปกรณ์ติดตามของหาย ล่าสุดมีข่าวลือว่า Xiaomi และ Motorola กำลังจะเปิดตัวแท็กของตัวเอง โดยทั้งคู่จะรองรับเทคโนโลยี ultra wide-band ที่แม่นยำกว่าเดิม Xiaomi อาจเปิดตัวพร้อมมือถือรุ่นใหม่ปลายปี ส่วน Motorola ก็มีภาพหลุดของ Moto Tag 2 ที่จะมาพร้อมสีใหม่และกันน้ำได้ด้วย ราคายังไม่ประกาศ แต่คาดว่าจะใกล้เคียงกับรุ่นก่อนที่ขายราว 40 ดอลลาร์ ถือเป็นข่าวดีสำหรับผู้ใช้ Android ที่อยากได้ตัวเลือกใหม่ในการติดตามของสำคัญ 🔗 https://www.techradar.com/phones/android/forget-apple-airtags-motorola-and-xiaomi-are-rumored-to-be-launching-android-equivalents-soon 🧹 Dyson V8 Cyclone รุ่นพื้นฐานที่ทำความสะอาดได้เกินคาด นักรีวิวเครื่องดูดฝุ่นจาก TechRadar ได้ลอง Dyson V8 Cyclone ซึ่งเป็นรุ่นพื้นฐาน ไม่มีฟีเจอร์ล้ำ ๆ เหมือนรุ่นใหม่ ๆ แต่กลับทำความสะอาดได้ดีจนเหนือความคาดหมาย ในการทดสอบเปรียบเทียบกับรุ่นไฮเทคอย่าง Dyson V16 และ Shark Detect Pro รุ่น V8 Cyclone กลับทำคะแนนสูงกว่า จุดเด่นคือแรงดูดและหัวดูดที่ออกแบบเรียบง่ายแต่มีประสิทธิภาพ ทำให้ตั้งคำถามว่าบางครั้งเครื่องใช้ไฟฟ้าที่ถูกออกแบบซับซ้อนเกินไปอาจไม่ได้ช่วยให้ใช้งานดีขึ้นเสมอไป 🔗 https://www.techradar.com/home/vacuums/i-was-blown-away-by-this-basic-dyson-vacuums-cleaning-powers-and-im-wondering-if-modern-vacs-are-over-engineered 💡  IKEA เปิดตัวไฟอัจฉริยะราคาถูกที่สุด IKEA เปิดตัวไฟ LED รุ่นใหม่ชื่อ Gömpyssling ที่มาพร้อมเซ็นเซอร์ตรวจจับการเคลื่อนไหว เปิดปุ๊บติดปั๊บ เหมาะสำหรับติดในตู้หรือชั้นวางของ จุดเด่นคือราคาถูกมาก แค่สองชิ้นราคาเพียง 3 ปอนด์ในอังกฤษ และ 4 ยูโรในหลายประเทศยุโรป ตัวไฟทำจากพลาสติกรีไซเคิล ใช้แบตเตอรี่ AA เพียงก้อนเดียว ไม่ต้องเชื่อมต่อ Wi-Fi หรือแอปใด ๆ ถือเป็นอุปกรณ์เล็ก ๆ ที่ช่วยเพิ่มความสะดวกสบายในบ้านโดยไม่ต้องลงทุนเยอะ 🔗 https://www.techradar.com/home/smart-home/ikea-quietly-launches-a-new-smart-light-and-its-the-simplest-and-most-affordable-one-yet 🎮 Asus ROG Raikiri Pro คอนโทรลเลอร์พร้อมจอ OLED ลดราคาหนัก สำหรับสายเกมเมอร์ Asus ROG Raikiri Pro เป็นคอนโทรลเลอร์ไร้สายที่มีจอ OLED ในตัว สามารถปรับโปรไฟล์ปุ่มและตั้งค่าต่าง ๆ ได้ทันทีโดยไม่ต้องเข้าเมนูในเกม ล่าสุดมีโปรลดราคาจาก 149.99 ปอนด์เหลือเพียง 89.99 ปอนด์ ถือเป็นราคาต่ำสุดที่เคยมี ดีไซน์โดดเด่นด้วยไฟ RGB รอบปุ่มและตัวเครื่องกึ่งโปร่งใส เหมาะกับคนที่ชอบปรับแต่งละเอียดหรืออยากได้คอนโทรลเลอร์ที่แตกต่างจากทั่วไป 🔗 https://www.techradar.com/gaming/this-asus-controller-comes-with-a-screen-and-right-now-its-cheaper-than-ever 🌐  Meta ลดการแชร์ข้อมูลผู้ใช้ในยุโรป Meta ประกาศว่าจะลดการแชร์ข้อมูลของผู้ใช้ในสหภาพยุโรปภายในปี 2026 เพื่อหลีกเลี่ยงการโดนปรับตามกฎหมาย GDPR การเปลี่ยนแปลงนี้จะทำให้ข้อมูลที่ส่งต่อระหว่างบริการต่าง ๆ ของ Meta เช่น Facebook และ Instagram ถูกจำกัดมากขึ้น ถือเป็นการตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลในยุโรปที่เข้มงวดเรื่องความเป็นส่วนตัวของผู้ใช้ 🔗 https://www.techradar.com/pro/meta-promises-to-reduce-data-sharing-for-eu-users-by-2026-to-avoid-eu-gdpr-fines 🚗  รีวิวกล้องติดรถ Thinkware U3000 Pro กล้องติดรถ Thinkware U3000 Pro รุ่นใหม่มาพร้อมฟีเจอร์จัดเต็ม เช่น การบันทึกวิดีโอความละเอียดสูง และระบบช่วยตรวจจับเหตุการณ์ แต่ราคาก็สูงตามไปด้วย รีวิวจาก TechRadar ระบุว่าถึงแม้คุณภาพดี แต่คู่แข่งที่ราคาถูกกว่ากลับทำได้ใกล้เคียงหรือบางรุ่นดีกว่า ทำให้ U3000 Pro อาจเหมาะกับคนที่ต้องการฟีเจอร์ครบ ๆ และไม่กังวลเรื่องงบประมาณ 🔗 https://www.techradar.com/vehicle-tech/dash-cams/i-tested-the-thinkware-u3000-pro-dash-cam-and-it-has-heaps-of-potential-but-its-outshone-by-affordable-rivals 🖥️ สร้างห้องทำงานที่บ้านให้สมบูรณ์แบบ เรื่องนี้พูดถึงการจัดห้องทำงานที่บ้านให้กลายเป็นพื้นที่ทำงานที่ทรงพลังและสะดวกสบายที่สุด เขาแนะนำอุปกรณ์สำคัญตั้งแต่แล็ปท็อปที่แรงพอสำหรับงานหนักอย่าง Dell 16 Premium ไปจนถึงเก้าอี้ Branch Verve ที่นั่งได้นานโดยไม่เมื่อย รวมถึงโต๊ะยืน FlexiSpot E7 ที่ปรับระดับได้ง่าย เครื่องพิมพ์ Epson EcoTank ที่ประหยัดหมึก และจอมอนิเตอร์ Dell UltraSharp ที่ภาพคมชัด นอกจากนี้ยังมีเมาส์ Logitech MX Master 3S ที่ใช้งานได้เงียบและแม่นยำ รวมถึงระบบ Wi-Fi 7 จาก TP-Link Deco ที่ทำให้การเชื่อมต่อเสถียร สุดท้ายยังมีอุปกรณ์เสริมอย่าง Docking Station, SSD พกพา Samsung T9, Cloud Storage iDrive และหูฟัง Jabra Evolve2 75 ที่ช่วยให้การประชุมออนไลน์ชัดเจน ทั้งหมดนี้คือการรวมอุปกรณ์ที่ทำให้การทำงานจากบ้านมีประสิทธิภาพและสบายใจมากขึ้น 🔗 https://www.techradar.com/home/create-the-ultimate-work-from-home-setup 🔒 LinkedIn เดินหน้าตรวจสอบตัวตนผู้ใช้ทุกคน LinkedIn ประกาศความสำเร็จในการทำให้มีผู้ใช้ที่ผ่านการยืนยันตัวตนกว่า 100 ล้านบัญชี และยังตั้งเป้าว่าจะทำให้ทุกบัญชี ทุกบริษัท และทุกตำแหน่งงานมีการยืนยันเพื่อสร้างความน่าเชื่อถือมากขึ้น การยืนยันนี้ช่วยให้ผู้ใช้ได้รับการเข้าถึงและการมีส่วนร่วมมากขึ้นถึงหลายสิบเปอร์เซ็นต์ นอกจากนี้ LinkedIn ยังเปิด API ให้แพลตฟอร์มอื่น ๆ เช่น Zoom นำสถานะการยืนยันไปแสดงในโปรไฟล์ เพื่อเพิ่มความมั่นใจในการประชุมออนไลน์ ถือเป็นก้าวสำคัญที่ LinkedIn ต้องการสร้างมาตรฐานใหม่ของความน่าเชื่อถือบนโลกดิจิทัล 🔗 https://www.techradar.com/pro/linkedin-wants-every-user-to-be-verified 🎮 โน้ตบุ๊กเกมมิ่งจอ OLED ขยายได้จาก Lenovo มีข่าวลือว่า Lenovo เตรียมเปิดตัวโน้ตบุ๊กเกมมิ่งรุ่นใหม่ชื่อ Legion Pro Rollable ที่มาพร้อมจอ OLED แบบขยายได้ในแนวนอน ซึ่งจะกลายเป็นโน้ตบุ๊กเกมมิ่งจอ Ultrawide รุ่นแรกของโลก หากเป็นจริงจะเปิดตัวในงาน CES 2026 จุดเด่นคือหน้าจอสามารถขยายออกไปด้านข้างเพื่อเพิ่มพื้นที่การเล่นเกมหรือทำงานแบบมัลติทาสก์ คาดว่าจะใช้ซีพียู Intel Core Ultra แต่ยังไม่เปิดเผยการ์ดจอ แม้จะมีข้อกังวลเรื่องราคาและน้ำหนัก แต่ถ้า Lenovo ทำได้สำเร็จ นี่อาจเป็นการเปลี่ยนแปลงครั้งใหญ่ของโน้ตบุ๊กเกมมิ่ง 🔗 https://www.techradar.com/computing/gaming-laptops/lenovo-legion-pro-rollable-leak-reveals-the-worlds-first-ultrawide-oled-gaming-laptop-and-i-cant-wait-to-try-it ⚠️ การโจมตีแบบ Prompt Injection อาจไม่มีวันแก้ได้ หน่วยงานความมั่นคงไซเบอร์แห่งสหราชอาณาจักร (NCSC) เตือนว่าการโจมตีแบบ Prompt Injection ซึ่งเป็นการฝังคำสั่งแอบแฝงในข้อความเพื่อหลอกให้โมเดลภาษาขนาดใหญ่ทำงานผิด อาจจะไม่สามารถแก้ไขได้อย่างสมบูรณ์เหมือนที่เคยแก้ปัญหา SQL Injection เพราะโมเดลไม่สามารถแยกแยะระหว่างข้อมูลกับคำสั่งได้อย่างแท้จริง ผู้เชี่ยวชาญแนะนำให้นักพัฒนามองโมเดลเหล่านี้เป็น “ผู้ช่วยที่สับสนได้” และออกแบบระบบให้จำกัดผลกระทบหากถูกโจมตี นี่เป็นการเตือนว่าการใช้ AI ต้องระวังและไม่ควรคาดหวังว่าจะปลอดภัยร้อยเปอร์เซ็นต์ 🔗 https://www.techradar.com/pro/security/prompt-injection-attacks-might-never-be-properly-mitigated-uk-ncsc-warns 🚫 ออสเตรเลียห้ามเด็กอายุต่ำกว่า 16 ใช้โซเชียลมีเดีย กฎหมายใหม่ในออสเตรเลียเริ่มบังคับใช้แล้ว โดยห้ามผู้ที่อายุต่ำกว่า 16 ปีใช้งานแพลตฟอร์มโซเชียลมีเดียยอดนิยม เช่น YouTube, Instagram, TikTok และ Snapchat หากบริษัทไม่ปฏิบัติตามอาจถูกปรับสูงถึง 49.5 ล้านดอลลาร์ออสเตรเลีย มาตรการนี้ได้รับเสียงสนับสนุนจากผู้ปกครองและนักปกป้องเด็ก แต่ก็มีเสียงวิจารณ์จากผู้เชี่ยวชาญด้านเทคโนโลยีและความเป็นส่วนตัวที่กังวลว่าจะกระทบสิทธิของประชาชน เด็กบางคนเริ่มหันไปใช้แอปอื่นที่ไม่อยู่ในขอบเขตของกฎหมาย เช่น Discord หรือ Roblox และมีแนวโน้มว่าการค้นหา VPN จะเพิ่มขึ้นเพื่อหาทางเลี่ยงข้อจำกัด 🔗 https://www.techradar.com/vpn/vpn-privacy-security/under-16s-social-media-ban-lands-in-australia 💍 Pebble Index 01 อุปกรณ์ใหม่รวมแหวนอัจฉริยะกับผู้ช่วยเสียง Pebble เปิดตัวอุปกรณ์ที่รวมฟังก์ชันผู้ช่วยเสียงเข้ากับสมาร์ทริงในชื่อ Pebble Index 01 จุดเด่นคือสามารถสั่งงานด้วยเสียงได้โดยตรงจากแหวน เช่น เปิดเพลง ควบคุมอุปกรณ์สมาร์ทโฮม หรือเช็กข้อมูลต่าง ๆ โดยไม่ต้องหยิบโทรศัพท์ขึ้นมา ดีไซน์เรียบง่ายและทันสมัย ทำให้เป็นทั้งเครื่องประดับและอุปกรณ์เทคโนโลยีในเวลาเดียวกัน ถือเป็นการพยายามสร้างหมวดหมู่ใหม่ที่ผสมผสาน wearable กับ AI voice assistant เข้าด้วยกัน 🔗 https://www.techradar.com/health-fitness/pebble-is-reinventing-voice-assistants-and-smart-rings-in-one-device-meet-the-pebble-index-01 🛡️ รัฐบาลสหรัฐฯ มองโลกในแง่ดีหลังยอดจ่ายค่าไถ่ไซเบอร์ลดลง ช่วงปี 2023 ถือเป็นปีที่การโจมตี ransomware พุ่งสูงสุด มีการจ่ายค่าไถ่รวมกว่า 1.1 พันล้านดอลลาร์ แต่หลังจากที่หน่วยงานบังคับใช้กฎหมายสามารถจัดการกับแก๊งใหญ่ ๆ อย่าง ALPHV และ LockBit ได้ ทำให้ปี 2024 ยอดการโจมตีและจำนวนเงินที่เหยื่อจ่ายลดลงเหลือประมาณ 734 ล้านดอลลาร์ แม้ยังมีแก๊งอย่าง Akira ที่ยังคงเคลื่อนไหวอยู่ แต่ภาพรวมถือว่าการปราบปรามครั้งนี้สร้างผลกระทบชัดเจนต่อวงการอาชญากรรมไซเบอร์ 🔗 https://www.techradar.com/pro/security/us-treasury-offers-cautious-optimism-as-ransomware-payments-decline 🎵 Spotify เดินหน้าสู่ยุคใหม่ เพิ่มมิวสิกวิดีโอในแอป Spotify กำลังพยายามกลายเป็นเหมือน MTV ยุคดิจิทัล โดยล่าสุดเปิดให้ผู้ใช้ในสหรัฐฯ และแคนาดา รวมถึงอีกหลายประเทศ สามารถดูมิวสิกวิดีโอได้โดยตรงในแอป ไม่ใช่แค่ฟังเพลงอย่างเดียว ผู้ใช้สามารถกดสลับจากโหมดเสียงไปเป็นวิดีโอได้ทันที ฟีเจอร์นี้สร้างความตื่นเต้น แต่ก็มีเสียงวิจารณ์ว่าประสบการณ์ดูวิดีโอยังไม่ลื่นไหลเท่า YouTube อย่างไรก็ตาม Spotify ยังคงเดินหน้าต่อยอดเพื่อขยายบริการให้ครบวงจรทั้งภาพและเสียง 🔗 https://www.techradar.com/audio/spotify/spotify-steps-up-its-plan-to-be-the-new-mtv-music-videos-are-rolling-out-whether-you-want-them-or-not 💻 โลกการเขียนโค้ดกับเทรนด์ใหม่ “Vibe-Coding” คำว่า “Vibe-Coding” ถูกยกให้เป็นคำแห่งปี 2025 หมายถึงการเขียนโปรแกรมที่เน้นความรู้สึกและความคิดสร้างสรรค์มากกว่ากฎเกณฑ์ทางเทคนิค โดยใช้ AI เป็นตัวช่วยให้โค้ดเกิดขึ้นแทบจะอัตโนมัติ แนวทางนี้เปิดโอกาสให้คนที่ไม่เชี่ยวชาญด้านเทคนิคสามารถสร้างซอฟต์แวร์ได้ง่ายขึ้น แต่ก็มีข้อกังวลเรื่องคุณภาพ ความปลอดภัย และความเสี่ยงจากโค้ดที่ไม่ได้ตรวจสอบอย่างละเอียด นักพัฒนาจึงต้องปรับบทบาทจากการเขียนโค้ดเองไปสู่การควบคุมคุณภาพและกำกับ AI ให้ทำงานอย่างถูกต้อง 🔗 https://www.techradar.com/pro/the-future-of-coding-has-a-vibe-problem-balancing-creativity-with-control ⚡ AMD เตรียมเปิดตัวชิปเกมมิ่งรุ่นใหม่ Ryzen 9850X3D มีภาพหลุดจาก BIOS ที่เผยให้เห็นชิป AMD Ryzen 9850X3D ซึ่งคาดว่าจะเป็นรุ่นอัปเกรดจาก 9800X3D โดยเพิ่มความเร็วบูสต์สูงสุดถึง 5.6GHz ทำให้แรงขึ้นกว่าเดิมประมาณ 400MHz แม้ผลทดสอบเบื้องต้นยังไม่ชัดเจน แต่ถ้าชิปนี้เปิดตัวจริงในงาน CES 2026 จะเป็นข่าวดีสำหรับนักเล่นเกม เพราะนอกจากจะได้รุ่นใหม่ที่แรงขึ้นแล้ว ยังอาจทำให้รุ่นเก่าราคาเริ่มถูกลงด้วย 🔗 https://www.techradar.com/computing/gpu/the-fastest-gaming-cpu-could-get-a-supercharged-version-soon-as-new-amd-ryzen-9850x3d-leak-pops-up 🌐 สหราชอาณาจักรต้องเร่งสร้างเครือข่ายอัจฉริยะเพื่อแข่งขันในยุค AI รายงานล่าสุดชี้ว่า AI สามารถเพิ่ม GDP ของสหราชอาณาจักรได้กว่า 550 พันล้านปอนด์ภายในปี 2035 แต่ปัญหาคือโครงสร้างพื้นฐานด้านเครือข่ายยังล้าหลังมาก โดยปัจจุบันสหราชอาณาจักรถือครองพลังการประมวลผล AI เพียง 3% ของโลก ขณะที่สหรัฐฯ ครองถึง 75% หากไม่เร่งลงทุนในเครือข่ายที่เร็ว ปลอดภัย และปรับตัวได้ทันที ประเทศอาจเสียโอกาสในการแข่งขัน เครือข่ายอัจฉริยะจะเป็นหัวใจสำคัญในการผลักดันเศรษฐกิจและนวัตกรรมในอนาคต 🔗 https://www.techradar.com/pro/the-uk-must-build-smarter-networks-to-lead-in-ai 💼  IBM ทุ่มเงิน 11 พันล้านเหรียญซื้อกิจการ Confluent IBM กำลังเดินหน้าขยายธุรกิจด้านโครงสร้างพื้นฐานข้อมูล โดยล่าสุดมีรายงานว่าเตรียมเข้าซื้อ Confluent ด้วยมูลค่ากว่า 11 พันล้านเหรียญสหรัฐ การเข้าซื้อครั้งนี้สะท้อนถึงความตั้งใจของ IBM ที่จะเสริมความแข็งแกร่งด้านการจัดการข้อมูลแบบเรียลไทม์ ซึ่งเป็นหัวใจสำคัญขององค์กรยุค AI และคลาวด์ หากดีลนี้สำเร็จ IBM จะมีเครื่องมือที่ช่วยให้ลูกค้าสามารถจัดการข้อมูลที่ซับซ้อนและกระจายตัวได้อย่างมีประสิทธิภาพมากขึ้น 🔗 https://www.techradar.com/pro/ibm-looks-to-secure-data-infrastructure-with-usd11bn-bid-for-confluent 🇨🇳  สหรัฐฯ เตรียมอนุญาตให้ส่งออกชิป Nvidia H200 ไปจีน รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์ มีแนวโน้มที่จะอนุญาตให้บริษัท Nvidia ส่งออกชิปประสิทธิภาพสูงรุ่น H200 ไปยังจีน หลังจากก่อนหน้านี้มีการจำกัดการขายเพื่อป้องกันการนำไปใช้ในงานด้าน AI และการทหาร การผ่อนปรนครั้งนี้อาจช่วยให้ Nvidia ขยายตลาดและสร้างรายได้เพิ่มขึ้น แต่ก็มีเสียงวิจารณ์ว่าการตัดสินใจดังกล่าวอาจส่งผลต่อความมั่นคงทางเทคโนโลยีของสหรัฐฯ 🔗 https://www.techradar.com/pro/trump-set-to-allow-nvidia-h200-chips-to-be-exported-to-china
    0 Comments 0 Shares 722 Views 0 Reviews
  • ซูเปอร์คอมพิวเตอร์สร้างสมองเสมือนจริงที่สมบูรณ์ที่สุด

    ทีมนักวิจัยจาก Allen Institute (สหรัฐฯ) และ University of Electro-Communications (ญี่ปุ่น) ได้ใช้ซูเปอร์คอมพิวเตอร์ Fugaku สร้างแบบจำลองสมองหนูที่สมบูรณ์ที่สุดเท่าที่เคยมีมา โดยจำลองทั้ง cortex ของสมองหนู ซึ่งมีความซับซ้อนใกล้เคียงกับสมองมนุษย์

    รายละเอียดของสมองเสมือน
    แบบจำลองนี้มี 9 ล้านเซลล์ประสาท และ 26 พันล้านไซแนปส์ ที่เชื่อมต่อกันใน 86 พื้นที่สมอง สามารถประมวลผลได้ระดับ quadrillions ของการคำนวณต่อวินาที ทำให้นักวิจัยสามารถติดตามการทำงานของเซลล์ประสาทแต่ละตัวได้แบบเรียลไทม์ ถือเป็นก้าวกระโดดครั้งใหญ่ในงานวิจัยด้านประสาทวิทยาศาสตร์

    ประโยชน์ต่อการศึกษาโรคสมอง
    สมองเสมือนนี้ช่วยให้นักวิจัยสามารถจำลองการแพร่กระจายของโรค เช่น อัลไซเมอร์ หรือการเกิด อาการชัก โดยไม่ต้องพึ่งการทดลองที่รุกรานในสมองจริง นอกจากนี้ยังสามารถใช้ศึกษาการทำงานของคลื่นสมองที่เกี่ยวข้องกับการโฟกัสและการรับรู้

    เป้าหมายในอนาคต
    ทีมวิจัยตั้งเป้าว่าจะต่อยอดไปสู่การสร้าง สมองมนุษย์เสมือนจริงเต็มรูปแบบ ในอนาคต โดยใช้ข้อมูลชีววิทยาที่ละเอียดมากขึ้น หากสำเร็จจะเป็นเครื่องมือสำคัญในการทำความเข้าใจสมองมนุษย์และการรักษาโรคทางระบบประสาทที่ซับซ้อน

    สรุปประเด็นสำคัญ
    การสร้างสมองเสมือนจริง
    ใช้ซูเปอร์คอมพิวเตอร์ Fugaku
    จำลอง cortex ของสมองหนูทั้งระบบ

    รายละเอียดเชิงเทคนิค
    9 ล้านเซลล์ประสาท
    26 พันล้านไซแนปส์ และ 86 พื้นที่สมอง

    ประโยชน์ต่อการแพทย์
    ศึกษาโรคอัลไซเมอร์และอาการชัก
    วิเคราะห์การทำงานของคลื่นสมอง

    ข้อควรระวังและข้อจำกัด
    ยังเป็นเพียงสมองหนู ไม่ใช่มนุษย์
    ต้องใช้ทรัพยากรคอมพิวเตอร์มหาศาลในการจำลอง

    https://www.sciencealert.com/supercomputer-creates-one-of-the-most-realistic-virtual-brains-ever-seen
    🖥️ ซูเปอร์คอมพิวเตอร์สร้างสมองเสมือนจริงที่สมบูรณ์ที่สุด ทีมนักวิจัยจาก Allen Institute (สหรัฐฯ) และ University of Electro-Communications (ญี่ปุ่น) ได้ใช้ซูเปอร์คอมพิวเตอร์ Fugaku สร้างแบบจำลองสมองหนูที่สมบูรณ์ที่สุดเท่าที่เคยมีมา โดยจำลองทั้ง cortex ของสมองหนู ซึ่งมีความซับซ้อนใกล้เคียงกับสมองมนุษย์ 🔬 รายละเอียดของสมองเสมือน แบบจำลองนี้มี 9 ล้านเซลล์ประสาท และ 26 พันล้านไซแนปส์ ที่เชื่อมต่อกันใน 86 พื้นที่สมอง สามารถประมวลผลได้ระดับ quadrillions ของการคำนวณต่อวินาที ทำให้นักวิจัยสามารถติดตามการทำงานของเซลล์ประสาทแต่ละตัวได้แบบเรียลไทม์ ถือเป็นก้าวกระโดดครั้งใหญ่ในงานวิจัยด้านประสาทวิทยาศาสตร์ 🧠 ประโยชน์ต่อการศึกษาโรคสมอง สมองเสมือนนี้ช่วยให้นักวิจัยสามารถจำลองการแพร่กระจายของโรค เช่น อัลไซเมอร์ หรือการเกิด อาการชัก โดยไม่ต้องพึ่งการทดลองที่รุกรานในสมองจริง นอกจากนี้ยังสามารถใช้ศึกษาการทำงานของคลื่นสมองที่เกี่ยวข้องกับการโฟกัสและการรับรู้ 🌍 เป้าหมายในอนาคต ทีมวิจัยตั้งเป้าว่าจะต่อยอดไปสู่การสร้าง สมองมนุษย์เสมือนจริงเต็มรูปแบบ ในอนาคต โดยใช้ข้อมูลชีววิทยาที่ละเอียดมากขึ้น หากสำเร็จจะเป็นเครื่องมือสำคัญในการทำความเข้าใจสมองมนุษย์และการรักษาโรคทางระบบประสาทที่ซับซ้อน 📌 สรุปประเด็นสำคัญ ✅ การสร้างสมองเสมือนจริง ➡️ ใช้ซูเปอร์คอมพิวเตอร์ Fugaku ➡️ จำลอง cortex ของสมองหนูทั้งระบบ ✅ รายละเอียดเชิงเทคนิค ➡️ 9 ล้านเซลล์ประสาท ➡️ 26 พันล้านไซแนปส์ และ 86 พื้นที่สมอง ✅ ประโยชน์ต่อการแพทย์ ➡️ ศึกษาโรคอัลไซเมอร์และอาการชัก ➡️ วิเคราะห์การทำงานของคลื่นสมอง ‼️ ข้อควรระวังและข้อจำกัด ⛔ ยังเป็นเพียงสมองหนู ไม่ใช่มนุษย์ ⛔ ต้องใช้ทรัพยากรคอมพิวเตอร์มหาศาลในการจำลอง https://www.sciencealert.com/supercomputer-creates-one-of-the-most-realistic-virtual-brains-ever-seen
    WWW.SCIENCEALERT.COM
    Supercomputer Creates One of The Most Realistic Virtual Brains Ever Seen
    Getting a better understanding of how the brain works is tricky, as living brains aren't easily prodded and analyzed.
    0 Comments 0 Shares 226 Views 0 Reviews
  • Deep Blue จุดเริ่มต้นของ AI ในเกมหมากรุก

    ครบรอบ 30 ปีการเปิดตัว Deep Blue ซูเปอร์คอมพิวเตอร์ของ IBM ที่ถูกออกแบบมาเพื่อเล่นหมากรุก และสามารถเอาชนะ Garry Kasparov แชมป์โลกในปี 1997 ถือเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์และ AI

    IBM เปิดตัวต้นแบบ Deep Blue ครั้งแรกเมื่อวันที่ 5 ธันวาคม 1995 โดยใช้เวิร์กสเตชัน RS/6000 พร้อม 14 โปรเซสเซอร์สำหรับค้นหาตำแหน่งหมากรุก สามารถวิเคราะห์ได้ 3-5 ล้านตำแหน่งต่อวินาที แม้จะยังไม่สามารถเอาชนะโปรแกรมหมากรุกชั้นนำในยุคนั้น แต่ถือเป็นก้าวสำคัญของการใช้ “พลังประมวลผลมหาศาล” เพื่อแข่งขันกับมนุษย์

    การเผชิญหน้ากับ Kasparov
    ปี 1996 Deep Blue พบกับ Kasparov เป็นครั้งแรก และสามารถชนะเกมเปิดได้ แต่สุดท้าย Kasparov เอาชนะไปด้วยคะแนน 4-2 อย่างไรก็ตาม IBM ไม่ยอมแพ้ และในปี 1997 ได้ปรับปรุงระบบใหม่ ใช้ 30 เวิร์กสเตชัน PowerPC ควบคุมชิปหมากรุก 16 ตัวต่อเครื่อง สามารถวิเคราะห์ได้ถึง 200 ล้านตำแหน่งต่อวินาที และในที่สุดก็เอาชนะ Kasparov ด้วยคะแนน 3.5-2.5

    ผลกระทบต่อวงการเทคโนโลยี
    ชัยชนะของ Deep Blue ไม่เพียงแต่เป็นการพิสูจน์ว่าคอมพิวเตอร์สามารถเอาชนะมนุษย์ในเกมที่ซับซ้อน แต่ยังเป็นจุดเริ่มต้นของการมอง AI ว่าเป็น “คู่แข่งทางความคิด” ของมนุษย์ IBM ใช้ชัยชนะนี้สร้างภาพลักษณ์ใหม่จากบริษัทที่ถูกมองว่า “ล้าหลัง” ให้กลับมาเป็นผู้นำด้านนวัตกรรม และยังเป็นแรงบันดาลใจให้เกิดการพัฒนา AI ในหลายสาขา

    มุมมองจากปัจจุบัน
    แม้ Deep Blue จะใช้วิธี brute force ที่แตกต่างจาก AI ยุคใหม่ซึ่งเน้นการเรียนรู้เชิงสถิติ แต่เหตุการณ์นี้ยังคงเป็นสัญลักษณ์สำคัญของการที่เครื่องจักรสามารถท้าทายความคิดมนุษย์ได้ และเป็นรากฐานให้เกิดการพัฒนา AI ที่ซับซ้อนยิ่งขึ้นในปัจจุบัน

    สรุปประเด็นสำคัญ
    IBM เปิดตัว Deep Blue ปี 1995
    วิเคราะห์ได้ 3-5 ล้านตำแหน่งต่อวินาที

    การแข่งกับ Kasparov ปี 1996 และ 1997
    ปีแรกแพ้ 4-2 แต่ปีถัดมาชนะ 3.5-2.5

    ผลกระทบต่อ IBM และวงการ AI
    สร้างภาพลักษณ์ใหม่และเป็นแรงบันดาลใจให้การพัฒนา AI

    คำเตือนจากบทเรียน Deep Blue
    วิธี brute force ไม่ใช่แนวทางเดียวของ AI
    ความสำเร็จในเกมไม่ได้หมายถึงการเข้าใจเชิงลึกแบบมนุษย์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ibm-unveiled-its-deep-blue-chess-supercomputer-prototype-30-years-ago-today-two-years-later-in-its-second-attempt-it-defeated-grandmaster-garry-kasparov
    ♟️ Deep Blue จุดเริ่มต้นของ AI ในเกมหมากรุก ครบรอบ 30 ปีการเปิดตัว Deep Blue ซูเปอร์คอมพิวเตอร์ของ IBM ที่ถูกออกแบบมาเพื่อเล่นหมากรุก และสามารถเอาชนะ Garry Kasparov แชมป์โลกในปี 1997 ถือเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์และ AI IBM เปิดตัวต้นแบบ Deep Blue ครั้งแรกเมื่อวันที่ 5 ธันวาคม 1995 โดยใช้เวิร์กสเตชัน RS/6000 พร้อม 14 โปรเซสเซอร์สำหรับค้นหาตำแหน่งหมากรุก สามารถวิเคราะห์ได้ 3-5 ล้านตำแหน่งต่อวินาที แม้จะยังไม่สามารถเอาชนะโปรแกรมหมากรุกชั้นนำในยุคนั้น แต่ถือเป็นก้าวสำคัญของการใช้ “พลังประมวลผลมหาศาล” เพื่อแข่งขันกับมนุษย์ 🏆 การเผชิญหน้ากับ Kasparov ปี 1996 Deep Blue พบกับ Kasparov เป็นครั้งแรก และสามารถชนะเกมเปิดได้ แต่สุดท้าย Kasparov เอาชนะไปด้วยคะแนน 4-2 อย่างไรก็ตาม IBM ไม่ยอมแพ้ และในปี 1997 ได้ปรับปรุงระบบใหม่ ใช้ 30 เวิร์กสเตชัน PowerPC ควบคุมชิปหมากรุก 16 ตัวต่อเครื่อง สามารถวิเคราะห์ได้ถึง 200 ล้านตำแหน่งต่อวินาที และในที่สุดก็เอาชนะ Kasparov ด้วยคะแนน 3.5-2.5 🌍 ผลกระทบต่อวงการเทคโนโลยี ชัยชนะของ Deep Blue ไม่เพียงแต่เป็นการพิสูจน์ว่าคอมพิวเตอร์สามารถเอาชนะมนุษย์ในเกมที่ซับซ้อน แต่ยังเป็นจุดเริ่มต้นของการมอง AI ว่าเป็น “คู่แข่งทางความคิด” ของมนุษย์ IBM ใช้ชัยชนะนี้สร้างภาพลักษณ์ใหม่จากบริษัทที่ถูกมองว่า “ล้าหลัง” ให้กลับมาเป็นผู้นำด้านนวัตกรรม และยังเป็นแรงบันดาลใจให้เกิดการพัฒนา AI ในหลายสาขา ⚠️ มุมมองจากปัจจุบัน แม้ Deep Blue จะใช้วิธี brute force ที่แตกต่างจาก AI ยุคใหม่ซึ่งเน้นการเรียนรู้เชิงสถิติ แต่เหตุการณ์นี้ยังคงเป็นสัญลักษณ์สำคัญของการที่เครื่องจักรสามารถท้าทายความคิดมนุษย์ได้ และเป็นรากฐานให้เกิดการพัฒนา AI ที่ซับซ้อนยิ่งขึ้นในปัจจุบัน 📌 สรุปประเด็นสำคัญ ✅ IBM เปิดตัว Deep Blue ปี 1995 ➡️ วิเคราะห์ได้ 3-5 ล้านตำแหน่งต่อวินาที ✅ การแข่งกับ Kasparov ปี 1996 และ 1997 ➡️ ปีแรกแพ้ 4-2 แต่ปีถัดมาชนะ 3.5-2.5 ✅ ผลกระทบต่อ IBM และวงการ AI ➡️ สร้างภาพลักษณ์ใหม่และเป็นแรงบันดาลใจให้การพัฒนา AI ‼️ คำเตือนจากบทเรียน Deep Blue ⛔ วิธี brute force ไม่ใช่แนวทางเดียวของ AI ⛔ ความสำเร็จในเกมไม่ได้หมายถึงการเข้าใจเชิงลึกแบบมนุษย์ https://www.tomshardware.com/tech-industry/artificial-intelligence/ibm-unveiled-its-deep-blue-chess-supercomputer-prototype-30-years-ago-today-two-years-later-in-its-second-attempt-it-defeated-grandmaster-garry-kasparov
    0 Comments 0 Shares 252 Views 0 Reviews
  • Quantum Computing กับการออกแบบเลเซอร์

    ข่าวนี้เล่าถึงบริษัท Trumpf ผู้ผลิตเลเซอร์สำหรับเครื่อง EUV ของ ASML ที่กำลังทดลองใช้ Quantum Computing เพื่อปรับปรุงประสิทธิภาพการออกแบบเลเซอร์ CO₂ โดยร่วมมือกับ Fraunhofer ILT และมหาวิทยาลัย Freie Universität Berlin โครงการนี้ได้รับทุนสนับสนุนจากรัฐบาลเยอรมนี

    Trumpf กำลังทดสอบว่า Quantum Computing สามารถจำลองพฤติกรรมเชิงควอนตัมของเลเซอร์ CO₂ ได้ดีกว่า Supercomputer แบบดั้งเดิมหรือไม่ เนื่องจากการจำลองการแลกเปลี่ยนพลังงาน การชนกันของโมเลกุล และการสร้างแสงเป็นกระบวนการที่ซับซ้อนและมีสถานะจำนวนมหาศาล การใช้ Quantum Computing อาจช่วยให้ได้ผลลัพธ์ที่แม่นยำและรวดเร็วขึ้น

    การใช้งานในอุตสาหกรรมและวิทยาศาสตร์
    เลเซอร์ CO₂ ของ Trumpf ถูกใช้ทั้งใน การผลิตเซมิคอนดักเตอร์ (DUV/EUV lithography) และในอุตสาหกรรมทั่วไป เช่น การตัดโลหะ รวมถึงการใช้งานใน Silicon Photonics เพื่อการเชื่อมต่อข้อมูล หาก Quantum Computing สามารถจำลองและปรับปรุงการออกแบบได้จริง จะช่วยให้เลเซอร์รุ่นใหม่มีประสิทธิภาพสูงขึ้น ใช้พลังงานน้อยลง และมีขนาดกะทัดรัดมากขึ้น

    ผลกระทบต่อสิ่งแวดล้อมและเทคโนโลยี
    หนึ่งในเป้าหมายของโครงการคือการลด ผลกระทบต่อสิ่งแวดล้อม ของอุปกรณ์ที่ใช้เลเซอร์ โดยการออกแบบที่แม่นยำขึ้นจะช่วยลดการสูญเสียพลังงานและเพิ่มประสิทธิภาพการผลิต นอกจากนี้ยังเป็นการเตรียมความพร้อมสำหรับยุคที่ Quantum Computing มีความเสถียรมากขึ้น ซึ่งจะเปิดทางให้การออกแบบอุปกรณ์อุตสาหกรรมก้าวไปอีกขั้น

    ความท้าทายและอนาคต
    แม้ Quantum Computing ยังอยู่ในช่วงต้นและยังไม่สามารถรองรับงานอุตสาหกรรมขนาดใหญ่ได้ แต่การเริ่มต้นทดลองและพัฒนาอัลกอริทึมตั้งแต่ตอนนี้ จะช่วยให้ Trumpf และพันธมิตรมีความพร้อมเมื่อเทคโนโลยี Quantum ก้าวสู่ระดับที่ใช้งานจริงในอนาคต

    สรุปสาระสำคัญ
    Trumpf ทดลองใช้ Quantum Computing
    เพื่อจำลองพฤติกรรมเลเซอร์ CO₂ ที่ซับซ้อน
    หวังได้ผลลัพธ์แม่นยำและรวดเร็วกว่า Supercomputer

    การใช้งานเลเซอร์ CO₂
    ใช้ใน EUV lithography และอุตสาหกรรมทั่วไป
    มีบทบาทใน Silicon Photonics สำหรับการเชื่อมต่อข้อมูล

    ผลกระทบเชิงบวก
    ลดการใช้พลังงานและผลกระทบต่อสิ่งแวดล้อม
    เพิ่มประสิทธิภาพและความกะทัดรัดของอุปกรณ์

    ความท้าทาย
    Quantum Computing ยังไม่เสถียรพอสำหรับงานใหญ่
    แต่การพัฒนาอัลกอริทึมตั้งแต่ตอนนี้คือการเตรียมความพร้อม

    คำเตือนต่ออุตสาหกรรม
    การพึ่งพา Quantum Computing ที่ยังไม่สมบูรณ์อาจเสี่ยงต่อการลงทุน
    หากเทคโนโลยีไม่ก้าวทัน อาจทำให้โครงการล่าช้าและสูญเสียโอกาสทางธุรกิจ

    https://www.tomshardware.com/tech-industry/semiconductors/euv-laser-maker-trumpf-explores-quantum-computing-to-improve-laser-tech
    🔬 Quantum Computing กับการออกแบบเลเซอร์ ข่าวนี้เล่าถึงบริษัท Trumpf ผู้ผลิตเลเซอร์สำหรับเครื่อง EUV ของ ASML ที่กำลังทดลองใช้ Quantum Computing เพื่อปรับปรุงประสิทธิภาพการออกแบบเลเซอร์ CO₂ โดยร่วมมือกับ Fraunhofer ILT และมหาวิทยาลัย Freie Universität Berlin โครงการนี้ได้รับทุนสนับสนุนจากรัฐบาลเยอรมนี Trumpf กำลังทดสอบว่า Quantum Computing สามารถจำลองพฤติกรรมเชิงควอนตัมของเลเซอร์ CO₂ ได้ดีกว่า Supercomputer แบบดั้งเดิมหรือไม่ เนื่องจากการจำลองการแลกเปลี่ยนพลังงาน การชนกันของโมเลกุล และการสร้างแสงเป็นกระบวนการที่ซับซ้อนและมีสถานะจำนวนมหาศาล การใช้ Quantum Computing อาจช่วยให้ได้ผลลัพธ์ที่แม่นยำและรวดเร็วขึ้น 🏭 การใช้งานในอุตสาหกรรมและวิทยาศาสตร์ เลเซอร์ CO₂ ของ Trumpf ถูกใช้ทั้งใน การผลิตเซมิคอนดักเตอร์ (DUV/EUV lithography) และในอุตสาหกรรมทั่วไป เช่น การตัดโลหะ รวมถึงการใช้งานใน Silicon Photonics เพื่อการเชื่อมต่อข้อมูล หาก Quantum Computing สามารถจำลองและปรับปรุงการออกแบบได้จริง จะช่วยให้เลเซอร์รุ่นใหม่มีประสิทธิภาพสูงขึ้น ใช้พลังงานน้อยลง และมีขนาดกะทัดรัดมากขึ้น 🌍 ผลกระทบต่อสิ่งแวดล้อมและเทคโนโลยี หนึ่งในเป้าหมายของโครงการคือการลด ผลกระทบต่อสิ่งแวดล้อม ของอุปกรณ์ที่ใช้เลเซอร์ โดยการออกแบบที่แม่นยำขึ้นจะช่วยลดการสูญเสียพลังงานและเพิ่มประสิทธิภาพการผลิต นอกจากนี้ยังเป็นการเตรียมความพร้อมสำหรับยุคที่ Quantum Computing มีความเสถียรมากขึ้น ซึ่งจะเปิดทางให้การออกแบบอุปกรณ์อุตสาหกรรมก้าวไปอีกขั้น 💡 ความท้าทายและอนาคต แม้ Quantum Computing ยังอยู่ในช่วงต้นและยังไม่สามารถรองรับงานอุตสาหกรรมขนาดใหญ่ได้ แต่การเริ่มต้นทดลองและพัฒนาอัลกอริทึมตั้งแต่ตอนนี้ จะช่วยให้ Trumpf และพันธมิตรมีความพร้อมเมื่อเทคโนโลยี Quantum ก้าวสู่ระดับที่ใช้งานจริงในอนาคต 📌 สรุปสาระสำคัญ ✅ Trumpf ทดลองใช้ Quantum Computing ➡️ เพื่อจำลองพฤติกรรมเลเซอร์ CO₂ ที่ซับซ้อน ➡️ หวังได้ผลลัพธ์แม่นยำและรวดเร็วกว่า Supercomputer ✅ การใช้งานเลเซอร์ CO₂ ➡️ ใช้ใน EUV lithography และอุตสาหกรรมทั่วไป ➡️ มีบทบาทใน Silicon Photonics สำหรับการเชื่อมต่อข้อมูล ✅ ผลกระทบเชิงบวก ➡️ ลดการใช้พลังงานและผลกระทบต่อสิ่งแวดล้อม ➡️ เพิ่มประสิทธิภาพและความกะทัดรัดของอุปกรณ์ ✅ ความท้าทาย ➡️ Quantum Computing ยังไม่เสถียรพอสำหรับงานใหญ่ ➡️ แต่การพัฒนาอัลกอริทึมตั้งแต่ตอนนี้คือการเตรียมความพร้อม ‼️ คำเตือนต่ออุตสาหกรรม ⛔ การพึ่งพา Quantum Computing ที่ยังไม่สมบูรณ์อาจเสี่ยงต่อการลงทุน ⛔ หากเทคโนโลยีไม่ก้าวทัน อาจทำให้โครงการล่าช้าและสูญเสียโอกาสทางธุรกิจ https://www.tomshardware.com/tech-industry/semiconductors/euv-laser-maker-trumpf-explores-quantum-computing-to-improve-laser-tech
    0 Comments 0 Shares 320 Views 0 Reviews
  • กระทรวงยุติธรรมสหรัฐฯ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU Nvidia มีโทษจำคุกสูงสุดถึง 200 ปี

    กลุ่มผู้ต้องหานำโดย Brian Curtis Raymond ผู้ก่อตั้งบริษัท Bitworks ใน Alabama ถูกกล่าวหาว่าซื้อ GPU Nvidia A100, H100, H200 และซูเปอร์คอมพิวเตอร์ HPE จากช่องทางถูกกฎหมาย ก่อนจะขายต่อให้บริษัท Janford Realtor ใน Florida ซึ่งควบคุมโดย Hon Ning “Mathew” Ho จากนั้นมีการส่งออกไปจีนผ่านฮ่องกง มาเลเซีย และไทย โดยใช้เอกสารปลอมและเส้นทางการขนส่งที่ซับซ้อน

    มูลค่าการลักลอบและเส้นทางเงิน
    การดำเนินการนี้เกิดขึ้นตั้งแต่ปี 2023–2025 หลังจากรัฐบาลสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ขั้นสูง ผู้ต้องหาสามารถลักลอบส่งออก GPU A100 จำนวน 400 ตัว ไปจีนได้สำเร็จ และพยายามส่งออกซูเปอร์คอมพิวเตอร์ HPE อีก 10 เครื่องพร้อม GPU H100 และ H200 แต่ถูกจับกุมก่อน มูลค่าการทำธุรกรรมรวมกว่า 3.89 ล้านดอลลาร์ โดยมีการโอนเงินจากจีนมายังสหรัฐฯ ผ่านการฟอกเงิน

    ความสำคัญเชิงภูมิรัฐศาสตร์
    ชิป AI อย่าง A100/H100/H200 ถือเป็นหัวใจสำคัญของการพัฒนา AI และการประมวลผลขั้นสูง รัฐบาลสหรัฐฯ จึงเข้มงวดต่อการส่งออกไปจีนเพราะเกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ การจับกุมครั้งนี้สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีนที่ยังคงรุนแรง

    บทเรียนและผลกระทบ
    แม้ตัวเลข 3.89 ล้านดอลลาร์จะดูเล็กเมื่อเทียบกับตลาด AI ที่มีมูลค่าหลายหมื่นล้าน แต่คดีนี้ชี้ให้เห็นช่องโหว่ในระบบควบคุมการส่งออก และอาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทที่เกี่ยวข้องกับการจัดจำหน่ายฮาร์ดแวร์ AI ในอนาคต

    สรุปประเด็นสำคัญ
    DOJ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU และซูเปอร์คอมพิวเตอร์
    ผู้ต้องหาหลักคือ Brian Curtis Raymond และ Hon Ning “Mathew” Ho

    ลักลอบส่งออก GPU A100 จำนวน 400 ตัว สำเร็จ
    พยายามส่งออก HPE Supercomputers และ GPU H200 แต่ถูกจับกุม
    มีโทษจำคุกสูงสุดถึง 200 ปี

    มูลค่าการลักลอบรวมกว่า 3.89 ล้านดอลลาร์
    มีการฟอกเงินผ่านบริษัท Janford Realtor

    สหรัฐฯ คุมเข้มการส่งออกชิป AI ขั้นสูง
    เกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์

    ความเสี่ยงด้านความมั่นคงและภูมิรัฐศาสตร์
    การลักลอบส่งออกชิปอาจช่วยเพิ่มศักยภาพด้าน AI ของจีน

    ช่องโหว่ในระบบควบคุมการส่งออก
    อาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทผู้จัดจำหน่ายฮาร์ดแวร์ AI

    https://www.tomshardware.com/pc-components/gpus/four-americans-charged-with-smuggling-nvidia-gpus-and-hpe-supercomputers-to-china-face-up-to-200-years-in-prison-usd3-89-million-worth-of-gear-smuggled-in-operation
    ⚖️ กระทรวงยุติธรรมสหรัฐฯ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU Nvidia มีโทษจำคุกสูงสุดถึง 200 ปี กลุ่มผู้ต้องหานำโดย Brian Curtis Raymond ผู้ก่อตั้งบริษัท Bitworks ใน Alabama ถูกกล่าวหาว่าซื้อ GPU Nvidia A100, H100, H200 และซูเปอร์คอมพิวเตอร์ HPE จากช่องทางถูกกฎหมาย ก่อนจะขายต่อให้บริษัท Janford Realtor ใน Florida ซึ่งควบคุมโดย Hon Ning “Mathew” Ho จากนั้นมีการส่งออกไปจีนผ่านฮ่องกง มาเลเซีย และไทย โดยใช้เอกสารปลอมและเส้นทางการขนส่งที่ซับซ้อน 💰 มูลค่าการลักลอบและเส้นทางเงิน การดำเนินการนี้เกิดขึ้นตั้งแต่ปี 2023–2025 หลังจากรัฐบาลสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ขั้นสูง ผู้ต้องหาสามารถลักลอบส่งออก GPU A100 จำนวน 400 ตัว ไปจีนได้สำเร็จ และพยายามส่งออกซูเปอร์คอมพิวเตอร์ HPE อีก 10 เครื่องพร้อม GPU H100 และ H200 แต่ถูกจับกุมก่อน มูลค่าการทำธุรกรรมรวมกว่า 3.89 ล้านดอลลาร์ โดยมีการโอนเงินจากจีนมายังสหรัฐฯ ผ่านการฟอกเงิน 🌐 ความสำคัญเชิงภูมิรัฐศาสตร์ ชิป AI อย่าง A100/H100/H200 ถือเป็นหัวใจสำคัญของการพัฒนา AI และการประมวลผลขั้นสูง รัฐบาลสหรัฐฯ จึงเข้มงวดต่อการส่งออกไปจีนเพราะเกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ การจับกุมครั้งนี้สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีนที่ยังคงรุนแรง 🚨 บทเรียนและผลกระทบ แม้ตัวเลข 3.89 ล้านดอลลาร์จะดูเล็กเมื่อเทียบกับตลาด AI ที่มีมูลค่าหลายหมื่นล้าน แต่คดีนี้ชี้ให้เห็นช่องโหว่ในระบบควบคุมการส่งออก และอาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทที่เกี่ยวข้องกับการจัดจำหน่ายฮาร์ดแวร์ AI ในอนาคต 📌 สรุปประเด็นสำคัญ ✅ DOJ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU และซูเปอร์คอมพิวเตอร์ ➡️ ผู้ต้องหาหลักคือ Brian Curtis Raymond และ Hon Ning “Mathew” Ho ✅ ลักลอบส่งออก GPU A100 จำนวน 400 ตัว สำเร็จ ➡️ พยายามส่งออก HPE Supercomputers และ GPU H200 แต่ถูกจับกุม ➡️ มีโทษจำคุกสูงสุดถึง 200 ปี ✅ มูลค่าการลักลอบรวมกว่า 3.89 ล้านดอลลาร์ ➡️ มีการฟอกเงินผ่านบริษัท Janford Realtor ✅ สหรัฐฯ คุมเข้มการส่งออกชิป AI ขั้นสูง ➡️ เกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ ‼️ ความเสี่ยงด้านความมั่นคงและภูมิรัฐศาสตร์ ⛔ การลักลอบส่งออกชิปอาจช่วยเพิ่มศักยภาพด้าน AI ของจีน ‼️ ช่องโหว่ในระบบควบคุมการส่งออก ⛔ อาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทผู้จัดจำหน่ายฮาร์ดแวร์ AI https://www.tomshardware.com/pc-components/gpus/four-americans-charged-with-smuggling-nvidia-gpus-and-hpe-supercomputers-to-china-face-up-to-200-years-in-prison-usd3-89-million-worth-of-gear-smuggled-in-operation
    0 Comments 0 Shares 488 Views 0 Reviews
  • ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง

    ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่

    สเปกและเทคโนโลยีล้ำสมัย
    Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ

    พลังงานและการติดตั้ง
    ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ

    การใช้งานและอนาคต
    Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026

    สรุปประเด็นสำคัญ
    เปิดตัว Alice Recoque
    ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป

    สเปกหลัก
    ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4)

    โครงสร้างระบบ
    94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage

    พลังงานและการระบายความร้อน
    ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5

    การติดตั้งและการดำเนินงาน
    ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA

    ความท้าทายด้านเวลาและเทคโนโลยี
    ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่
    หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน

    https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    ⚡ ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่ 🖥️ สเปกและเทคโนโลยีล้ำสมัย Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ 🌍 พลังงานและการติดตั้ง ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ 🔮 การใช้งานและอนาคต Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026 📌 สรุปประเด็นสำคัญ ✅ เปิดตัว Alice Recoque ➡️ ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป ✅ สเปกหลัก ➡️ ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4) ✅ โครงสร้างระบบ ➡️ 94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage ✅ พลังงานและการระบายความร้อน ➡️ ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5 ✅ การติดตั้งและการดำเนินงาน ➡️ ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA ‼️ ความท้าทายด้านเวลาและเทคโนโลยี ⛔ ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่ ⛔ หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    0 Comments 0 Shares 380 Views 0 Reviews
  • ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง!

    เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม

    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์

    John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025
    ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง
    เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง

    ความร่วมมือกับ HPE และบริษัทชิป
    เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง
    รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา

    ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล
    สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้
    มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล

    การเปลี่ยนจากต้นแบบสู่การผลิตจริง
    ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้
    ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป

    คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป
    ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด
    การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี

    การลงทุนในเทคโนโลยีนี้มีความเสี่ยง
    ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน
    บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง

    https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    🧠 ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง! เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์ ✅ John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025 ➡️ ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง ➡️ เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง ✅ ความร่วมมือกับ HPE และบริษัทชิป ➡️ เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง ➡️ รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา ✅ ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล ➡️ สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้ ➡️ มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล ✅ การเปลี่ยนจากต้นแบบสู่การผลิตจริง ➡️ ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้ ➡️ ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป ‼️ คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป ⛔ ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด ⛔ การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี ‼️ การลงทุนในเทคโนโลยีนี้มีความเสี่ยง ⛔ ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน ⛔ บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    WWW.THESTAR.COM.MY
    Nobel winner, HPE and chip industry firms team up to make a practical quantum supercomputer
    SAN FRANCISCO (Reuters) -John M. Martinis, one of this year's winners of the Nobel Prize in physics for breakthroughs in quantum computing, on Monday formed an alliance with HPE and several chip firms to create a practical, mass-producible quantum supercomputer.
    0 Comments 0 Shares 390 Views 0 Reviews
  • “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!”

    Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ

    Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE

    ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง

    ข้อมูลสำคัญจากข่าว
    Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ
    ใช้ GPU Blackwell รวมกว่า 100,000 ตัว
    พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI)
    ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU)
    Equinox จะเริ่มใช้งานในปี 2026

    จุดประสงค์ของโครงการ
    สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง
    พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์
    สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง
    ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI

    ความร่วมมือและการลงทุน
    ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE
    Oracle เป็นผู้สร้างระบบ Equinox และ Solstice
    ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT

    ระบบอื่นในโครงการ
    Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus
    ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    🚀 “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!” Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ ➡️ ใช้ GPU Blackwell รวมกว่า 100,000 ตัว ➡️ พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI) ➡️ ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU) ➡️ Equinox จะเริ่มใช้งานในปี 2026 ✅ จุดประสงค์ของโครงการ ➡️ สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง ➡️ พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ ➡️ สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง ➡️ ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI ✅ ความร่วมมือและการลงทุน ➡️ ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE ➡️ Oracle เป็นผู้สร้างระบบ Equinox และ Solstice ➡️ ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT ✅ ระบบอื่นในโครงการ ➡️ Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus ➡️ ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    0 Comments 0 Shares 292 Views 0 Reviews
  • “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง”

    Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ

    สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก

    ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด

    แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision

    ข้อมูลสำคัญจากข่าว
    Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL
    ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin
    ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ
    Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA)
    Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI

    ความสามารถที่คาดการณ์ได้
    Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS
    คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า
    รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8

    ความสำคัญเชิงยุทธศาสตร์
    Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL
    Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด
    เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์

    ข้อควรระวังและข้อจำกัด
    Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง
    การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027
    การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    🧠 “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง” Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL ➡️ ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin ➡️ ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ ➡️ Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA) ➡️ Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI ✅ ความสามารถที่คาดการณ์ได้ ➡️ Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS ➡️ คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า ➡️ รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8 ✅ ความสำคัญเชิงยุทธศาสตร์ ➡️ Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL ➡️ Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด ➡️ เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์ ‼️ ข้อควรระวังและข้อจำกัด ⛔ Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง ⛔ การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027 ⛔ การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    0 Comments 0 Shares 333 Views 0 Reviews
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 Comments 0 Shares 395 Views 0 Reviews
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 Comments 0 Shares 247 Views 0 Reviews
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 Comments 0 Shares 327 Views 0 Reviews
  • “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม”

    Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้

    Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง

    Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์

    แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง

    Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale

    ข้อมูลสำคัญจากข่าว
    Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound
    การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3
    Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์
    มี shading units 16,384 และ tensor cores 1,024
    ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB
    Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์
    มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W
    GPU ทั้งสองถูกใช้งานใน Aurora supercomputer
    Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI

    ข้อมูลเสริมจากภายนอก
    Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ
    HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3
    OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว
    Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ
    การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI

    https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    🧊 “Intel ยุติยุค Ponte Vecchio และ Arctic Sound — เตรียมเข้าสู่ Jaguar Shores ด้วย AI ที่ทรงพลังกว่าเดิม” Intel ประกาศเริ่มกระบวนการเลิกใช้งาน GPU สำหรับดาต้าเซ็นเตอร์รุ่น Ponte Vecchio และ Arctic Sound อย่างเป็นทางการ โดยการเปลี่ยนแปลงนี้ปรากฏใน changelog ของ Intel XPU Manager เวอร์ชัน 1.3.3 ซึ่งระบุว่าซอฟต์แวร์จะไม่รองรับ GPU Flex และ Max อีกต่อไป ผู้ใช้งานจึงควรใช้เวอร์ชัน 1.2.42 เพื่อรักษาฟีเจอร์เดิมไว้ Ponte Vecchio เป็น GPU ขนาดใหญ่ที่ใช้สถาปัตยกรรม Xe-HPC และกระบวนการผลิต Intel 10 โดยมีขนาดถึง 1,280 mm² และมีทรานซิสเตอร์กว่า 100 พันล้านตัว พร้อม shading units 16,384 และ tensor cores 1,024 ใช้พลังงานสูงสุดถึง 600W ต่อการ์ด และมีหน่วยความจำตั้งแต่ 48 ถึง 128 GB เหมาะสำหรับงาน HPC และ AI ที่ต้องการประสิทธิภาพสูง Arctic Sound เป็น GPU ขนาดเล็กกว่า ใช้สถาปัตยกรรม Gen 12.5 และผลิตด้วย Intel 10 node เช่นกัน มีขนาด 190 mm² และทรานซิสเตอร์ประมาณ 8 พันล้านตัว พร้อม shading units 8,192 และ ROPs 128 ใช้พลังงานประมาณ 500W และมีหน่วยความจำ 16 GB เหมาะสำหรับงานระดับกลางในดาต้าเซ็นเตอร์ แม้ GPU ทั้งสองรุ่นจะถูกนำไปใช้งานในระบบ Aurora supercomputer ซึ่งถือเป็นความสำเร็จด้านวิศวกรรม แต่การเปลี่ยนแปลงกลยุทธ์ของ Intel ทำให้ผู้ผลิตหลายรายลังเลที่จะลงทุนกับแพลตฟอร์มที่ไม่มั่นคง Intel เตรียมเปิดตัว Jaguar Shores ซึ่งเป็นแพลตฟอร์มใหม่ที่ใช้ HBM4 และซอฟต์แวร์ OneAPI ที่พัฒนาเต็มรูปแบบแล้ว เพื่อรองรับงาน AI และ HPC ในระดับ rack-scale ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยุติการสนับสนุน GPU Ponte Vecchio และ Arctic Sound ➡️ การเปลี่ยนแปลงปรากฏใน Intel XPU Manager เวอร์ชัน 1.3.3 ➡️ Ponte Vecchio ใช้ Xe-HPC, ขนาด 1,280 mm², 100 พันล้านทรานซิสเตอร์ ➡️ มี shading units 16,384 และ tensor cores 1,024 ➡️ ใช้พลังงานสูงสุด 600W และมีหน่วยความจำ 48–128 GB ➡️ Arctic Sound ใช้ Gen 12.5, ขนาด 190 mm², 8 พันล้านทรานซิสเตอร์ ➡️ มี shading units 8,192 และ ROPs 128, ใช้พลังงาน 500W ➡️ GPU ทั้งสองถูกใช้งานใน Aurora supercomputer ➡️ Intel เตรียมเปิดตัว Jaguar Shores พร้อม HBM4 และ OneAPI ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe-HPC เป็นสถาปัตยกรรมที่ออกแบบมาเพื่องาน HPC โดยเฉพาะ ➡️ HBM4 คือหน่วยความจำความเร็วสูงรุ่นใหม่ที่มี bandwidth สูงกว่า HBM3 ➡️ OneAPI เป็นแพลตฟอร์มที่รวมการพัฒนา GPU, CPU และ FPGA ไว้ในชุดเดียว ➡️ Aurora supercomputer เป็นหนึ่งในระบบที่ทรงพลังที่สุดของสหรัฐฯ ➡️ การเปลี่ยนแปลงกลยุทธ์ของ Intel สะท้อนถึงการแข่งขันที่รุนแรงในตลาด AI https://www.techpowerup.com/341806/intel-phases-out-ponte-vecchio-and-arctic-sound-data-center-gpus
    WWW.TECHPOWERUP.COM
    Intel Phases Out "Ponte Vecchio" and "Arctic Sound" Data Center GPUs
    Intel has apparently started a slow deprecation phase of its "Ponte Vecchio" Data Center GPU Max and "Arctic Sound" Data Center GPU Flex series. According to the changelog in the Intel XPU Manager—a free and open-source tool for monitoring and managing Intel data center GPUs—version 1.3.3 deprecates...
    0 Comments 0 Shares 281 Views 0 Reviews
  • xAI เร่งสร้างโรงงาน AI พลังงานก๊าซ — เดินหน้าสู่เป้าหมาย 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัวใน Colossus Supercomputer

    บริษัท xAI ของ Elon Musk กำลังเดินหน้าอย่างรวดเร็วในการสร้างโรงงาน AI ขนาดมหึมาที่ใช้พลังงานจากก๊าซธรรมชาติ โดยล่าสุดมีการติดตั้งหรืออยู่ระหว่างการก่อสร้างระบบผลิตไฟฟ้ารวมกว่า 460 เมกะวัตต์ ทั้งในเมือง Memphis รัฐเทนเนสซี และ Southaven รัฐมิสซิสซิปปี ซึ่งถือเป็นครึ่งหนึ่งของเป้าหมาย 1 กิกะวัตต์ที่ Musk ตั้งไว้สำหรับ “AI factory”

    ในฝั่ง Memphis xAI ได้รับอนุญาตให้ติดตั้งกังหันก๊าซ 15 ตัวที่ไซต์ Paul R. Lowry Road หลังจากมีข้อถกเถียงกับกลุ่มสิ่งแวดล้อม ขณะที่ใน Southaven บริษัทได้ซื้อโรงไฟฟ้าก๊าซเก่าจาก Duke Energy และได้รับอนุญาตให้ใช้งานชั่วคราวเป็นเวลา 12 เดือน โดยใช้กังหัน Titan 350 ที่ให้กำลังมากกว่า 35 เมกะวัตต์ต่อเครื่อง

    เมื่อรวมกันแล้ว ระบบผลิตไฟฟ้าของ xAI สามารถรองรับ GPU ระดับ Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว ซึ่งเป็นหัวใจของ Colossus Supercomputer ที่ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่ โดยมีแผนจะขยายไปถึง 1 ล้าน GPU ภายในปี 2026

    การเลือกใช้กังหันแบบ containerized เช่น SMT-130 และ Titan 350 ช่วยให้ xAI สามารถติดตั้งได้รวดเร็วโดยไม่ต้องรอการเชื่อมต่อกับโครงข่ายไฟฟ้าหลัก ซึ่งมักใช้เวลาหลายปี นี่จึงเป็นกลยุทธ์ที่แตกต่างจาก Microsoft และ Amazon ที่ยังทดลองระบบ onsite เพียง 100–200 เมกะวัตต์เท่านั้น

    xAI สร้างโรงงานผลิตไฟฟ้าก๊าซเพื่อรองรับโรงงาน AI ขนาดใหญ่
    ติดตั้งแล้วหรืออยู่ระหว่างการก่อสร้างรวม 460 เมกะวัตต์
    ตั้งเป้า 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัว

    ใช้กังหัน SMT-130 และ Titan 350 สำหรับการผลิตไฟฟ้า
    SMT-130 ให้กำลัง ~16MW / Titan 350 มากกว่า 35MW
    ติดตั้งแบบ containerized เพื่อความรวดเร็ว

    มีการติดตั้งในสองรัฐคือ Tennessee และ Mississippi
    Memphis: ได้รับอนุญาตติดตั้งกังหัน 15 ตัว
    Southaven: ซื้อโรงไฟฟ้าเก่าจาก Duke Energy พร้อมใบอนุญาตชั่วคราว

    รองรับการใช้งาน GPU Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว
    เทียบเท่ากับซูเปอร์คอมพิวเตอร์ระดับโลก
    ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่

    กลยุทธ์พลังงานของ xAI แตกต่างจากบริษัทอื่น
    Microsoft และ Amazon ยังอยู่ที่ระดับ 100–200MW
    xAI เลือกใช้พลังงานก๊าซเพื่อหลีกเลี่ยงการรอเชื่อมต่อกับโครงข่าย

    https://www.tomshardware.com/tech-industry/xai-pushes-power-strategy-towards-1gw-ai-factory
    📰 xAI เร่งสร้างโรงงาน AI พลังงานก๊าซ — เดินหน้าสู่เป้าหมาย 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัวใน Colossus Supercomputer บริษัท xAI ของ Elon Musk กำลังเดินหน้าอย่างรวดเร็วในการสร้างโรงงาน AI ขนาดมหึมาที่ใช้พลังงานจากก๊าซธรรมชาติ โดยล่าสุดมีการติดตั้งหรืออยู่ระหว่างการก่อสร้างระบบผลิตไฟฟ้ารวมกว่า 460 เมกะวัตต์ ทั้งในเมือง Memphis รัฐเทนเนสซี และ Southaven รัฐมิสซิสซิปปี ซึ่งถือเป็นครึ่งหนึ่งของเป้าหมาย 1 กิกะวัตต์ที่ Musk ตั้งไว้สำหรับ “AI factory” ในฝั่ง Memphis xAI ได้รับอนุญาตให้ติดตั้งกังหันก๊าซ 15 ตัวที่ไซต์ Paul R. Lowry Road หลังจากมีข้อถกเถียงกับกลุ่มสิ่งแวดล้อม ขณะที่ใน Southaven บริษัทได้ซื้อโรงไฟฟ้าก๊าซเก่าจาก Duke Energy และได้รับอนุญาตให้ใช้งานชั่วคราวเป็นเวลา 12 เดือน โดยใช้กังหัน Titan 350 ที่ให้กำลังมากกว่า 35 เมกะวัตต์ต่อเครื่อง เมื่อรวมกันแล้ว ระบบผลิตไฟฟ้าของ xAI สามารถรองรับ GPU ระดับ Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว ซึ่งเป็นหัวใจของ Colossus Supercomputer ที่ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่ โดยมีแผนจะขยายไปถึง 1 ล้าน GPU ภายในปี 2026 การเลือกใช้กังหันแบบ containerized เช่น SMT-130 และ Titan 350 ช่วยให้ xAI สามารถติดตั้งได้รวดเร็วโดยไม่ต้องรอการเชื่อมต่อกับโครงข่ายไฟฟ้าหลัก ซึ่งมักใช้เวลาหลายปี นี่จึงเป็นกลยุทธ์ที่แตกต่างจาก Microsoft และ Amazon ที่ยังทดลองระบบ onsite เพียง 100–200 เมกะวัตต์เท่านั้น ✅ xAI สร้างโรงงานผลิตไฟฟ้าก๊าซเพื่อรองรับโรงงาน AI ขนาดใหญ่ ➡️ ติดตั้งแล้วหรืออยู่ระหว่างการก่อสร้างรวม 460 เมกะวัตต์ ➡️ ตั้งเป้า 1 กิกะวัตต์เพื่อรองรับ GPU กว่า 1 ล้านตัว ✅ ใช้กังหัน SMT-130 และ Titan 350 สำหรับการผลิตไฟฟ้า ➡️ SMT-130 ให้กำลัง ~16MW / Titan 350 มากกว่า 35MW ➡️ ติดตั้งแบบ containerized เพื่อความรวดเร็ว ✅ มีการติดตั้งในสองรัฐคือ Tennessee และ Mississippi ➡️ Memphis: ได้รับอนุญาตติดตั้งกังหัน 15 ตัว ➡️ Southaven: ซื้อโรงไฟฟ้าเก่าจาก Duke Energy พร้อมใบอนุญาตชั่วคราว ✅ รองรับการใช้งาน GPU Nvidia GB200 NVL72 ได้มากถึง 200,000 ตัว ➡️ เทียบเท่ากับซูเปอร์คอมพิวเตอร์ระดับโลก ➡️ ใช้ฝึกโมเดล Grok และระบบ AI ขนาดใหญ่ ✅ กลยุทธ์พลังงานของ xAI แตกต่างจากบริษัทอื่น ➡️ Microsoft และ Amazon ยังอยู่ที่ระดับ 100–200MW ➡️ xAI เลือกใช้พลังงานก๊าซเพื่อหลีกเลี่ยงการรอเชื่อมต่อกับโครงข่าย https://www.tomshardware.com/tech-industry/xai-pushes-power-strategy-towards-1gw-ai-factory
    WWW.TOMSHARDWARE.COM
    xAI's new gas turbine facility gets halfway to Elon Musk's 1-gigawatt 'AI factory' goal
    Permits and turbine orders point to half a gigawatt of on-site generation as xAI accelerates its Mississippi build.
    0 Comments 0 Shares 400 Views 0 Reviews
  • “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’”

    Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025

    สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม

    ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด

    แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า

    ข้อมูลสำคัญจากข่าว
    Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน
    ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป
    ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025
    ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม

    จุดเด่นด้านเทคโนโลยี
    ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต
    รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq
    ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง
    เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม

    ข้อมูลเสริมจากภายนอก
    Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL
    ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025
    การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก
    หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย

    https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    🧊 “Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมจากชิปซิลิคอน — จุดเปลี่ยนที่อาจทำให้ควอนตัมกลายเป็นเรื่อง ‘ธรรมดา’” Quantum Motion สตาร์ทอัพจากสหราชอาณาจักรที่แยกตัวจากมหาวิทยาลัย Oxford และ UCL ได้ประกาศเปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack เครื่องแรกของโลกที่สร้างขึ้นจากเทคโนโลยีชิปซิลิคอนมาตรฐานแบบเดียวกับที่ใช้ในโน้ตบุ๊กและสมาร์ตโฟน โดยระบบนี้ถูกติดตั้งแล้วที่ศูนย์ National Quantum Computing Centre (NQCC) ของสหราชอาณาจักรเมื่อวันที่ 15 กันยายน 2025 สิ่งที่ทำให้ระบบนี้โดดเด่นคือการใช้กระบวนการผลิต CMOS ขนาด 300 มม. ซึ่งสามารถผลิตได้ในโรงงานชิปทั่วไป และติดตั้งในตู้เซิร์ฟเวอร์ขนาดมาตรฐาน 19 นิ้วเพียง 3 ตู้เท่านั้น — รวมถึงระบบ cryogenics และอุปกรณ์ควบคุมทั้งหมด ถือเป็น “quantum computing’s silicon moment” ที่อาจเปลี่ยนเกมการผลิตฮาร์ดแวร์ควอนตัมให้สามารถขยายได้ในระดับอุตสาหกรรม ระบบนี้ใช้สถาปัตยกรรมแบบ tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต และรองรับเฟรมเวิร์กยอดนิยมอย่าง Qiskit และ Cirq ทำให้นักพัฒนาสามารถสร้างแอปควอนตัมได้โดยไม่ต้องเปลี่ยนเครื่องมือใหม่ทั้งหมด แม้จะเป็นก้าวใหญ่ด้านวิศวกรรม แต่ Quantum Motion ยังไม่ได้เปิดเผยข้อมูลสำคัญ เช่น จำนวน qubit, ความแม่นยำของ gate, เวลาคงอยู่ของ qubit หรือ benchmark ใด ๆ ทั้งสิ้น ทำให้ยังไม่สามารถประเมินประสิทธิภาพจริงได้ในตอนนี้ และต้องรอการทดสอบจาก NQCC ในอีกไม่กี่เดือนข้างหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Quantum Motion เปิดตัวคอมพิวเตอร์ควอนตัมแบบ full-stack จากชิปซิลิคอนมาตรฐาน ➡️ ใช้กระบวนการผลิต CMOS ขนาด 300 มม. ที่สามารถผลิตในโรงงานทั่วไป ➡️ ติดตั้งในศูนย์ NQCC ของสหราชอาณาจักรเมื่อ 15 กันยายน 2025 ➡️ ระบบทั้งหมดอยู่ในตู้เซิร์ฟเวอร์ขนาด 19 นิ้วเพียง 3 ตู้ รวมถึงตู้เย็นควอนตัมและอุปกรณ์ควบคุม ✅ จุดเด่นด้านเทคโนโลยี ➡️ ใช้สถาปัตยกรรม tileable ที่สามารถขยายจำนวน qubit ได้ในอนาคต ➡️ รองรับเฟรมเวิร์กยอดนิยม เช่น Qiskit และ Cirq ➡️ ออกแบบให้สามารถติดตั้งในศูนย์ข้อมูลทั่วไปโดยไม่ต้องปรับโครงสร้าง ➡️ เป็นระบบแรกที่ใช้ชิปซิลิคอนแบบ mass manufacturable สำหรับควอนตัม ✅ ข้อมูลเสริมจากภายนอก ➡️ Quantum Motion ก่อตั้งในปี 2017 โดยนักวิจัยจาก Oxford และ UCL ➡️ ได้รับเงินทุนกว่า $50.8 ล้านในปี 2023 และเข้าร่วมโครงการ DARPA QBI ในปี 2025 ➡️ การใช้ชิปซิลิคอนช่วยลดต้นทุนและเพิ่มความสามารถในการผลิตจำนวนมาก ➡️ หากสำเร็จ อาจนำไปสู่การใช้งานควอนตัมในด้านพลังงาน ยา และการเงินอย่างแพร่หลาย https://www.tomshardware.com/tech-industry/supercomputers/uk-start-up-quantum-computer-runs-on-standard-chips
    WWW.TOMSHARDWARE.COM
    Start-up hails world's first quantum computer made from everyday silicon — fits in three 19-inch server racks and is touted as 'quantum computing's silicon moment'
    Built on a standard CMOS process and packed into three racks, Quantum Motion’s silicon spin-qubit machine is ready to be tested.
    0 Comments 0 Shares 363 Views 0 Reviews
  • เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 Comments 0 Shares 400 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 458 Views 0 Reviews
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 Comments 0 Shares 336 Views 0 Reviews
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 Comments 0 Shares 506 Views 0 Reviews
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 Comments 0 Shares 467 Views 0 Reviews
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 Comments 0 Shares 397 Views 0 Reviews
  • ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 Comments 0 Shares 360 Views 0 Reviews
  • AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า!

    แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช!

    สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว

    ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ:
    - ลดปริมาณข้อมูลที่ต้อง snapshot
    - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น

    สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้

    AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ  
    • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่

    เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง  
    • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต

    Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล  
    • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว

    AMD ออก patch แก้ปัญหาด้วยวิธี:  
    • ลดพื้นที่ที่ต้อง snapshot  
    • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume  
    • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก

    เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:  
    • ลดพลังงานในช่วง downtime  
    • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)  
    • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center

    https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า! แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช! สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ: - ลดปริมาณข้อมูลที่ต้อง snapshot - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้ ✅ AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ   • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่ ✅ เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง   • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต ✅ Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล   • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว ✅ AMD ออก patch แก้ปัญหาด้วยวิธี:   • ลดพื้นที่ที่ต้อง snapshot   • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume   • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก ✅ เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:   • ลดพลังงานในช่วง downtime   • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)   • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    0 Comments 0 Shares 372 Views 0 Reviews
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 Comments 0 Shares 346 Views 0 Reviews
More Results