• ซูเปอร์คอมชี้! 2 ทีมเต็งแชมป์ UCL มี 1 ทีมหลุดวงโคจร? 28/11/68 #ซูเปอร์คอม #ทำนายเต็งแชมป์ UCL #แชมเปียนส์ลีก
    ซูเปอร์คอมชี้! 2 ทีมเต็งแชมป์ UCL มี 1 ทีมหลุดวงโคจร? 28/11/68 #ซูเปอร์คอม #ทำนายเต็งแชมป์ UCL #แชมเปียนส์ลีก
    0 Comments 0 Shares 65 Views 0 0 Reviews
  • รวมข่าวจากเวบ SecurityOnline

    #รวมข่าวIT #20251127 #securityonline

    Meta ถูกกล่าวหาปกปิดข้อมูลภายในที่ชี้ว่า Facebook ทำให้เกิดภาวะซึมเศร้าและความวิตกกังวล
    เรื่องนี้เริ่มจากเอกสารในคดีฟ้องร้องแบบกลุ่มที่โรงเรียนหลายแห่งในสหรัฐฯ ยื่นต่อบริษัทโซเชียลมีเดีย โดยมีการเปิดเผยว่า Meta เคยทำการศึกษาในโครงการชื่อ Project Mercury ร่วมกับบริษัท Nielsen ตั้งแต่ปี 2020 ผลการวิจัยพบว่าการเลิกใช้ Facebook ช่วยลดความรู้สึกซึมเศร้า วิตกกังวล และความเหงา แต่ Meta กลับหยุดการศึกษาและไม่เผยแพร่ผลลัพธ์ โดยอ้างว่าเป็นข้อมูลที่มีอคติและถูกกระทบจากกระแสสื่อ ขณะเดียวกันมีเสียงจากนักวิจัยภายในที่เปรียบเทียบการกระทำนี้เหมือนกับอุตสาหกรรมบุหรี่ที่เคยปกปิดผลวิจัยเรื่องอันตรายของการสูบบุหรี่ ปัจจุบันคดีนี้กำลังเข้าสู่การพิจารณาในศาล และสะท้อนถึงความไม่ไว้วางใจที่รัฐบาลทั่วโลกมีต่อบริษัทยักษ์ใหญ่ด้านเทคโนโลยี
    https://securityonline.info/meta-accused-of-hiding-internal-data-showing-facebook-causes-depression-anxiety

    Tor Project พัฒนาอัลกอริทึมเข้ารหัสใหม่ CGO แทน Tor1 ที่มีช่องโหว่
    เครือข่าย Tor ที่ใช้เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้งานนั้น แม้จะมีชื่อเสียงด้านการรักษาความลับ แต่ก็ไม่ปลอดภัยเสมอไป โดยโปรโตคอลเก่า Tor1 มีช่องโหว่สำคัญ เช่น การโจมตีแบบ tagging attack ที่ทำให้ผู้ไม่หวังดีสามารถติดตามเส้นทางข้อมูลได้ อีกทั้งยังมีการใช้คีย์ AES ซ้ำและตัวตรวจสอบที่อ่อนแอ เพื่อแก้ปัญหาเหล่านี้ Tor Project จึงพัฒนาอัลกอริทึมใหม่ชื่อ Counter Galois Onion (CGO) ที่เมื่อมีการพยายามแก้ไขข้อมูล ข้อความทั้งหมดในเส้นทางนั้นจะเสียหายทันที ทำให้การโจมตีแทบเป็นไปไม่ได้ แม้จะยังไม่มีตารางเวลาชัดเจนในการนำมาใช้กับ Tor Browser แต่ทีมงานกำลังปรับปรุงให้เหมาะกับ CPU รุ่นใหม่
    https://securityonline.info/tor-project-develops-new-cgo-encryption-to-replace-vulnerable-tor1-protocol

    PoC Exploit สำหรับช่องโหว่ Windows NTLM Elevation of Privilege ถูกเผยแพร่แล้ว
    มีการเปิดเผยโค้ดตัวอย่างการโจมตี (PoC Exploit) ที่เจาะช่องโหว่ในระบบ NTLM ของ Windows ซึ่งสามารถนำไปสู่การยกระดับสิทธิ์การเข้าถึงได้ ช่องโหว่นี้เกี่ยวข้องกับการตรวจสอบ Channel Binding และ LDAPS โดยเนื้อหาละเอียดถูกจำกัดให้เฉพาะผู้สนับสนุนที่ลงทะเบียนเท่านั้น แต่การที่ PoC ถูกเผยแพร่ต่อสาธารณะถือเป็นสัญญาณเตือนว่าผู้โจมตีอาจนำไปใช้จริงได้
    https://securityonline.info/poc-exploit-releases-for-windows-ntlm-elevation-of-privilege-vulnerability

    NVIDIA ออกแพตช์ด่วนแก้ช่องโหว่ร้ายแรงใน DGX Spark เสี่ยงถูกยึดระบบ
    AI NVIDIA ได้ปล่อยอัปเดตความปลอดภัยสำหรับแพลตฟอร์ม DGX Spark ซึ่งเป็นซูเปอร์คอมพิวเตอร์ AI ขนาดกะทัดรัดที่ใช้ในงานวิจัยและพัฒนา โดยมีช่องโหว่รวม 14 รายการ หนึ่งในนั้นคือ CVE-2025-33187 ที่มีคะแนนความรุนแรงสูงถึง 9.3 ช่องโหว่นี้อยู่ในส่วน SROOT ทำให้ผู้โจมตีที่มีสิทธิ์ระดับสูงสามารถเข้าถึงพื้นที่ที่ปกป้องโดยชิป SoC และควบคุมระบบได้อย่างสมบูรณ์ หากไม่อัปเดตทันที ข้อมูลวิจัยและโมเดล AI อาจถูกขโมยหรือแก้ไขโดยไม่รู้ตัว NVIDIA แนะนำให้ผู้ใช้ทุกคนอัปเดต DGX Spark ไปยังเวอร์ชัน OTA0 โดยเร็วที่สุด
    https://securityonline.info/critical-patch-nvidia-dgx-spark-flaw-cve-2025-33187-cvss-9-3-exposes-ai-secrets-to-takeover

    WormGPT 4 และ KawaiiGPT: AI ที่ถูกใช้เป็นเครื่องมืออาชญากรรมไซเบอร์
    รายงานจาก Unit 42 เปิดเผยว่าโมเดล AI ที่ควรใช้เพื่อเพิ่มประสิทธิภาพ กลับถูกนำไปใช้สร้างภัยคุกคาม WormGPT 4 ถูกโฆษณาในฟอรั่มใต้ดินว่าเป็น “AI ที่ไร้ข้อจำกัด” สามารถสร้างมัลแวร์และสคริปต์เรียกค่าไถ่ได้อย่างรวดเร็ว พร้อมเขียนโน้ตข่มขู่ที่ทำให้เหยื่อหวาดกลัว ส่วน KawaiiGPT ถูกนำเสนอในรูปแบบ “Waifu pentesting” ที่ดูน่ารักแต่จริง ๆ แล้วสามารถสร้างอีเมลฟิชชิ่งและสคริปต์โจมตีได้ง่ายมาก ทั้งสองโมเดลนี้ทำให้การโจมตีไซเบอร์เข้าถึงได้แม้แต่ผู้ที่ไม่มีทักษะสูง สะท้อนถึงการ “ทำให้อาชญากรรมไซเบอร์เป็นประชาธิปไตย” ที่ใครก็สามารถโจมตีได้เพียงแค่พิมพ์คำสั่ง
    https://securityonline.info/silent-fast-brutal-how-wormgpt-4-and-kawaiigpt-democratize-cybercrime

    Anthropic เปิดตัว Opus 4.5: AI สำหรับองค์กรที่เชื่อม Excel และแชทได้ไม่สิ้นสุด
    Anthropic ได้เปิดตัวเวอร์ชันใหม่ของโมเดล AI ชื่อ Opus 4.5 ที่ออกแบบมาเพื่อการใช้งานในระดับองค์กร จุดเด่นคือสามารถเชื่อมต่อกับ Excel ได้โดยตรง ทำให้ผู้ใช้สามารถวิเคราะห์ข้อมูลและสร้างรายงานได้อย่างอัตโนมัติ อีกทั้งยังมีฟีเจอร์ “Infinite Chat” ที่ช่วยให้การสนทนากับ AI ต่อเนื่องได้ไม่จำกัด ไม่ต้องเริ่มใหม่ทุกครั้งที่หมด session ถือเป็นการยกระดับการใช้งาน AI ให้เหมาะกับธุรกิจที่ต้องการความต่อเนื่องและการจัดการข้อมูลจำนวนมาก
    https://securityonline.info/anthropic-unleashes-opus-4-5-excel-integration-infinite-chat-for-enterprise-ai

    Perplexity เปิดตัว AI Shopping พร้อม PayPal Instant Buy และค้นหาสินค้าแบบเฉพาะบุคคล
    Perplexity กำลังขยายขอบเขตการใช้งาน AI จากการค้นหาข้อมูลไปสู่การช้อปปิ้งออนไลน์ โดยเปิดตัวฟีเจอร์ใหม่ที่ให้ผู้ใช้สามารถซื้อสินค้าผ่าน PayPal ได้ทันที (Instant Buy) และยังมีระบบค้นหาสินค้าแบบ Personalized ที่ปรับตามความสนใจและพฤติกรรมของผู้ใช้ จุดนี้ทำให้การช้อปปิ้งออนไลน์สะดวกขึ้นและตรงใจมากขึ้น ถือเป็นการผสมผสานระหว่าง AI และอีคอมเมิร์ซที่น่าจับตามอง
    https://securityonline.info/perplexity-launches-ai-shopping-with-paypal-instant-buy-personalized-product-search

    Qualcomm เปิดตัว Snapdragon 8 Gen 5: CPU เร็วขึ้น 36% และพลัง AI เพิ่มขึ้น 46%
    Qualcomm ได้เปิดตัวชิปประมวลผลรุ่นใหม่ Snapdragon 8 Gen 5 ที่มาพร้อมกับการพัฒนาอย่างก้าวกระโดด ทั้งด้านความเร็วของ CPU ที่เพิ่มขึ้น 36% และพลังการประมวลผล AI ที่มากขึ้นถึง 46% เมื่อเทียบกับรุ่นก่อนหน้า จุดเด่นอีกอย่างคือการจัดการพลังงานที่มีประสิทธิภาพมากขึ้น ทำให้เหมาะกับสมาร์ทโฟนระดับเรือธงที่จะออกในปีหน้า ซึ่งจะรองรับการใช้งานที่หนักหน่วงทั้งเกมและงานด้าน AI ได้อย่างลื่นไหล
    https://securityonline.info/qualcomm-unveils-snapdragon-8-gen-5-36-faster-cpu-46-more-ai-power

    INE ขยายการเรียนรู้แบบ Cross-Skilling เพื่อเพิ่มทักษะหลากหลายให้ผู้เรียน
    INE ซึ่งเป็นแพลตฟอร์มการเรียนออนไลน์ ได้เปิดตัวนวัตกรรมใหม่ที่เน้นการ Cross-Skilling หรือการเรียนรู้ทักษะข้ามสาขา เพื่อช่วยให้ผู้เรียนสามารถพัฒนาทักษะที่หลากหลายและนำไปใช้ในงานจริงได้มากขึ้น แนวทางนี้ตอบโจทย์ตลาดแรงงานที่ต้องการคนที่มีความสามารถหลายด้าน ไม่จำกัดอยู่แค่สายงานเดียว ถือเป็นการปรับตัวของแพลตฟอร์มการศึกษาให้เข้ากับโลกการทำงานยุคใหม่
    https://securityonline.info/ine-expands-cross-skilling-innovations

    GitLab ออกแพตช์แก้ช่องโหว่ร้ายแรง ทั้ง DoS และการขโมย Credential ใน CI/CD
    GitLab ได้ปล่อยอัปเดตความปลอดภัยล่าสุดที่แก้ไขช่องโหว่หลายรายการ ทั้งการโจมตีแบบ Denial of Service (DoS) ที่ไม่ต้องล็อกอินก็ทำได้ และช่องโหว่ที่ทำให้ผู้ใช้ระดับต่ำสามารถขโมย Credential ของผู้ใช้ระดับสูงในระบบ CI/CD ได้ นอกจากนี้ยังมีการแก้ไขช่องโหว่ด้านการ bypass authentication และการเปิดเผยข้อมูลที่ไม่ควรเข้าถึง GitLab แนะนำให้ผู้ดูแลระบบรีบอัปเดตไปยังเวอร์ชันล่าสุดเพื่อป้องกันความเสี่ยงที่อาจเกิดขึ้น
    https://securityonline.info/gitlab-patch-fixes-ci-cd-credential-theft-unauthenticated-dos-attacks

    Hidden Theft: ส่วนขยาย Chrome “Crypto Copilot” ดูดเงินจากกระเป๋า Solana
    เรื่องนี้เริ่มจากนักเทรดคริปโตที่อยากได้ความสะดวกในการซื้อขายผ่านแพลตฟอร์ม X จึงติดตั้งส่วนขยาย Chrome ที่ชื่อว่า Crypto Copilot ซึ่งโฆษณาว่าสามารถทำให้การเทรดรวดเร็วขึ้น แต่เบื้องหลังกลับเป็นกับดักที่ซ่อนการโอนเงินไปยังกระเป๋าของแฮกเกอร์โดยอัตโนมัติ ทุกครั้งที่ผู้ใช้ทำการ swap เหรียญ ระบบจะเพิ่มคำสั่งลับที่โอนเงินส่วนหนึ่งไปยังที่อยู่กระเป๋าที่ถูกควบคุมโดยผู้โจมตี โดยที่หน้าจอผู้ใช้ไม่แสดงให้เห็นเลย ทำให้หลายคนสูญเสียเงินไปโดยไม่รู้ตัว ปัจจุบันส่วนขยายนี้ยังคงอยู่บน Chrome Web Store และนักวิจัยได้ส่งคำร้องให้ Google ลบออกแล้ว
    https://securityonline.info/hidden-theft-crypto-copilot-chrome-extension-drains-solana-wallets-on-x

    Critical Ray AI Flaw: ช่องโหว่ร้ายแรงใน Ray Framework ผ่าน Safari และ Firefox
    Ray เป็นเฟรมเวิร์กโอเพ่นซอร์สที่นักพัฒนาใช้ในการทำงานด้าน Machine Learning แต่ล่าสุดพบช่องโหว่ร้ายแรงที่เปิดทางให้ผู้โจมตีสามารถรันโค้ดอันตรายบนเครื่องของนักพัฒนาได้ ช่องโหว่นี้เกิดจากการตรวจสอบ User-Agent ที่ไม่รัดกุม ทำให้ผู้โจมตีสามารถใช้เทคนิค DNS Rebinding หลอกเบราว์เซอร์ Safari และ Firefox ให้ส่งคำสั่งไปยัง Ray Dashboard ที่รันอยู่ในเครื่องของเหยื่อ ผลลัพธ์คือโค้ดอันตรายสามารถถูกประมวลผลได้ทันที ทีมงาน Ray ได้ออกแพตช์แก้ไขในเวอร์ชัน 2.52.0 และแนะนำให้อัปเดตโดยด่วนเพื่อป้องกันความเสี่ยง
    https://securityonline.info/critical-ray-ai-flaw-exposes-devs-via-safari-firefox-cve-2025-62593

    Water Gamayun Weaponizes “MSC EvilTwin”: กลุ่ม APT รัสเซียใช้ช่องโหว่ Windows เจาะระบบ
    กลุ่มแฮกเกอร์ที่มีความเชื่อมโยงกับรัสเซียชื่อ Water Gamayun ถูกเปิดโปงว่ากำลังใช้ช่องโหว่ใหม่ใน Microsoft Management Console (MMC) ที่เรียกว่า “MSC EvilTwin” เพื่อเจาะระบบองค์กรที่มีมูลค่าสูง วิธีการคือหลอกให้เหยื่อดาวน์โหลดไฟล์ที่ดูเหมือนเอกสารทั่วไป แต่จริง ๆ แล้วเป็น payload ที่ฝังโค้ดอันตราย เมื่อเปิดไฟล์ก็จะถูกใช้ช่องโหว่เพื่อรัน PowerShell ลับและติดตั้งมัลแวร์ต่อเนื่อง เป้าหมายของกลุ่มนี้คือการขโมยข้อมูลเชิงกลยุทธ์และสร้างช่องทางเข้าถึงระบบอย่างยาวนาน
    https://securityonline.info/water-gamayun-weaponizes-msc-eviltwin-zero-day-for-stealthy-backdoor-attacks

    Fragging Your Data: มัลแวร์ปลอมตัวเป็น Crack และ Trainer ของ Battlefield 6
    การเปิดตัวเกม Battlefield 6 กลายเป็นโอกาสทองของอาชญากรไซเบอร์ พวกเขาปล่อยไฟล์ “Crack” และ “Trainer” ปลอมบนเว็บแชร์ไฟล์และฟอรั่มใต้ดิน โดยอ้างว่าเป็นผลงานของกลุ่มแคร็กชื่อดัง แต่แท้จริงแล้วเป็นมัลแวร์ที่ออกแบบมาเพื่อขโมยข้อมูลผู้ใช้ เช่น กระเป๋าเงินคริปโต คุกกี้เบราว์เซอร์ และโทเคน Discord บางเวอร์ชันยังซ่อนตัวเก่ง ตรวจสอบสภาพแวดล้อมก่อนทำงาน และบางตัวทำหน้าที่เป็น backdoor ที่เปิดทางให้ผู้โจมตีเข้าควบคุมเครื่องได้เต็มรูปแบบ นักวิจัยเตือนว่าผู้เล่นที่ดาวน์โหลดไฟล์เหล่านี้ควรรีบสแกนเครื่องและเปลี่ยนรหัสผ่านทันที
    https://securityonline.info/fragging-your-data-fake-battlefield-6-cracks-trainers-spread-infostealers

    Hidden Danger in 3D: ไฟล์ Blender ปลอมแพร่กระจาย StealC V2 Infostealer
    วงการนักออกแบบ 3D และเกมถูกโจมตีด้วยวิธีใหม่ แฮกเกอร์ปล่อยไฟล์โมเดล 3D ที่ดูเหมือนงานจริง เช่น โมเดลชุดอวกาศ Apollo 11 แต่ภายในฝังสคริปต์ Python อันตราย เมื่อผู้ใช้เปิดไฟล์ใน Blender และเปิดใช้งาน Auto Run Python Scripts มัลแวร์จะทำงานทันทีโดยไม่รู้ตัว จากนั้นจะดาวน์โหลด payload ต่อเนื่องและติดตั้ง StealC V2 ซึ่งเป็น infostealer ที่สามารถดูดข้อมูลจากเบราว์เซอร์ กระเป๋าเงินคริปโต และแอปต่าง ๆ เช่น Discord หรือ Telegram จุดอันตรายคือไฟล์เหล่านี้ตรวจจับได้ยากมากในระบบป้องกันทั่วไป ทำให้ผู้ใช้ต้องระวังเป็นพิเศษ
    https://securityonline.info/hidden-danger-in-3d-malicious-blender-files-unleash-stealc-v2-infostealer

    Zero-Day Warning: ช่องโหว่ Twonky Server เปิดทางยึดระบบสื่อ
    มีการค้นพบช่องโหว่ใหม่ใน Twonky Server ซึ่งเป็นซอฟต์แวร์ที่ใช้สำหรับสตรีมสื่อในบ้านและองค์กร ช่องโหว่นี้เปิดโอกาสให้ผู้โจมตีเข้าควบคุมระบบได้ทั้งหมดโดยไม่ต้องมีสิทธิ์พิเศษ เมื่อผู้ใช้เปิดใช้งานเซิร์ฟเวอร์ที่ยังไม่ได้แพตช์ แฮกเกอร์สามารถส่งคำสั่งจากระยะไกลเพื่อเข้าถึงไฟล์สื่อและแม้กระทั่งติดตั้งมัลแวร์เพิ่มเติม ทำให้ผู้ใช้เสี่ยงต่อการสูญเสียข้อมูลและความเป็นส่วนตัวอย่างมาก
    https://securityonline.info/zero-day-warning-unpatched-twonky-server-flaws-expose-media-to-total-takeover

    UNMASKED: การรั่วไหลครั้งใหญ่เปิดโปงหน่วยไซเบอร์ “Department 40” ของอิหร่าน
    มีการเปิดเผยข้อมูลครั้งใหญ่ที่แสดงให้เห็นการทำงานของหน่วยไซเบอร์ลับในอิหร่านที่ชื่อว่า Department 40 ซึ่งถูกกล่าวหาว่ามีส่วนเกี่ยวข้องกับการโจมตีทางไซเบอร์ระดับโลก เอกสารที่รั่วไหลออกมาเผยให้เห็นโครงสร้างการทำงาน วิธีการโจมตี และเป้าหมายที่พวกเขาใช้ รวมถึงการพัฒนาเครื่องมือที่ซับซ้อนเพื่อเจาะระบบขององค์กรและรัฐบาลต่างประเทศ การเปิดโปงครั้งนี้ทำให้หลายประเทศเริ่มตรวจสอบและเพิ่มมาตรการป้องกันอย่างเข้มงวด
    https://securityonline.info/unmasked-massive-leak-exposes-irans-department-40-cyber-terror-unit

    Angular Alert: ช่องโหว่ Protocol-Relative URLs ทำให้ XSRF Tokens รั่วไหล
    นักวิจัยพบว่าการใช้ URL แบบ protocol-relative ใน Angular สามารถทำให้โทเคน XSRF รั่วไหลไปยังโดเมนที่ไม่ปลอดภัยได้ ช่องโหว่นี้อาจถูกใช้เพื่อขโมย session และเข้าถึงข้อมูลผู้ใช้โดยไม่ได้รับอนุญาต ปัญหานี้เกิดจากการที่เฟรมเวิร์กไม่ได้ตรวจสอบเส้นทาง URL อย่างเข้มงวดพอ ทำให้ผู้โจมตีสามารถสร้างลิงก์ที่ดูเหมือนปลอดภัยแต่จริง ๆ แล้วส่งข้อมูลไปยังเซิร์ฟเวอร์ที่ควบคุมโดยแฮกเกอร์
    https://securityonline.info/angular-alert-protocol-relative-urls-leak-xsrf-tokens-cve-2025-66035

    Holiday Heist: ร้านค้าออนไลน์ปลอมกว่า 200,000 แห่งโจมตี Black Friday
    ในช่วง Black Friday มีการตรวจพบร้านค้าออนไลน์ปลอมกว่า 200,000 แห่งที่เลียนแบบ Amazon และแพลตฟอร์มช้อปปิ้งชื่อดังอื่น ๆ เว็บไซต์เหล่านี้ถูกสร้างขึ้นเพื่อหลอกให้ผู้ซื้อกรอกข้อมูลบัตรเครดิตและข้อมูลส่วนตัว โดยใช้ดีไซน์และโลโก้ที่เหมือนจริงมาก ผู้ใช้ที่ไม่ทันระวังอาจสูญเสียเงินและข้อมูลไปโดยไม่รู้ตัว นักวิจัยเตือนว่าควรตรวจสอบ URL และรีวิวร้านค้าให้ละเอียดก่อนทำการซื้อสินค้าในช่วงเทศกาลลดราคา
    https://securityonline.info/holiday-heist-200000-fake-shops-amazon-clones-target-black-friday

    Security Alert: ช่องโหว่ Stored XSS ใน Apache SkyWalking
    Apache SkyWalking ซึ่งเป็นระบบ APM ที่ใช้กันอย่างแพร่หลายสำหรับการตรวจสอบและติดตามระบบแบบ distributed พบช่องโหว่ Stored XSS ที่อันตรายมาก เพราะโค้ดอันตรายจะถูกบันทึกถาวรในเซิร์ฟเวอร์และทำงานทุกครั้งที่ผู้ดูแลเปิดหน้า dashboard ช่องโหว่นี้สามารถถูกใช้เพื่อขโมย session cookies, redirect ผู้ใช้ไปยังเว็บไซต์อันตราย หรือแม้กระทั่งแก้ไขข้อมูลการแสดงผลเพื่อปกปิดกิจกรรมที่ผิดปกติ ทีมงาน Apache ได้ออกแพตช์แก้ไขในเวอร์ชัน 10.3.0 และแนะนำให้ผู้ใช้รีบอัปเดตทันที
    https://securityonline.info/security-alert-apache-skywalking-stored-xss-vulnerability-cve-2025-54057

    📌🔐🟠 รวมข่าวจากเวบ SecurityOnline 🟠🔐📌 #รวมข่าวIT #20251127 #securityonline 📰 Meta ถูกกล่าวหาปกปิดข้อมูลภายในที่ชี้ว่า Facebook ทำให้เกิดภาวะซึมเศร้าและความวิตกกังวล เรื่องนี้เริ่มจากเอกสารในคดีฟ้องร้องแบบกลุ่มที่โรงเรียนหลายแห่งในสหรัฐฯ ยื่นต่อบริษัทโซเชียลมีเดีย โดยมีการเปิดเผยว่า Meta เคยทำการศึกษาในโครงการชื่อ Project Mercury ร่วมกับบริษัท Nielsen ตั้งแต่ปี 2020 ผลการวิจัยพบว่าการเลิกใช้ Facebook ช่วยลดความรู้สึกซึมเศร้า วิตกกังวล และความเหงา แต่ Meta กลับหยุดการศึกษาและไม่เผยแพร่ผลลัพธ์ โดยอ้างว่าเป็นข้อมูลที่มีอคติและถูกกระทบจากกระแสสื่อ ขณะเดียวกันมีเสียงจากนักวิจัยภายในที่เปรียบเทียบการกระทำนี้เหมือนกับอุตสาหกรรมบุหรี่ที่เคยปกปิดผลวิจัยเรื่องอันตรายของการสูบบุหรี่ ปัจจุบันคดีนี้กำลังเข้าสู่การพิจารณาในศาล และสะท้อนถึงความไม่ไว้วางใจที่รัฐบาลทั่วโลกมีต่อบริษัทยักษ์ใหญ่ด้านเทคโนโลยี 🔗 https://securityonline.info/meta-accused-of-hiding-internal-data-showing-facebook-causes-depression-anxiety 🔐 Tor Project พัฒนาอัลกอริทึมเข้ารหัสใหม่ CGO แทน Tor1 ที่มีช่องโหว่ เครือข่าย Tor ที่ใช้เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้งานนั้น แม้จะมีชื่อเสียงด้านการรักษาความลับ แต่ก็ไม่ปลอดภัยเสมอไป โดยโปรโตคอลเก่า Tor1 มีช่องโหว่สำคัญ เช่น การโจมตีแบบ tagging attack ที่ทำให้ผู้ไม่หวังดีสามารถติดตามเส้นทางข้อมูลได้ อีกทั้งยังมีการใช้คีย์ AES ซ้ำและตัวตรวจสอบที่อ่อนแอ เพื่อแก้ปัญหาเหล่านี้ Tor Project จึงพัฒนาอัลกอริทึมใหม่ชื่อ Counter Galois Onion (CGO) ที่เมื่อมีการพยายามแก้ไขข้อมูล ข้อความทั้งหมดในเส้นทางนั้นจะเสียหายทันที ทำให้การโจมตีแทบเป็นไปไม่ได้ แม้จะยังไม่มีตารางเวลาชัดเจนในการนำมาใช้กับ Tor Browser แต่ทีมงานกำลังปรับปรุงให้เหมาะกับ CPU รุ่นใหม่ 🔗 https://securityonline.info/tor-project-develops-new-cgo-encryption-to-replace-vulnerable-tor1-protocol ⚠️ PoC Exploit สำหรับช่องโหว่ Windows NTLM Elevation of Privilege ถูกเผยแพร่แล้ว มีการเปิดเผยโค้ดตัวอย่างการโจมตี (PoC Exploit) ที่เจาะช่องโหว่ในระบบ NTLM ของ Windows ซึ่งสามารถนำไปสู่การยกระดับสิทธิ์การเข้าถึงได้ ช่องโหว่นี้เกี่ยวข้องกับการตรวจสอบ Channel Binding และ LDAPS โดยเนื้อหาละเอียดถูกจำกัดให้เฉพาะผู้สนับสนุนที่ลงทะเบียนเท่านั้น แต่การที่ PoC ถูกเผยแพร่ต่อสาธารณะถือเป็นสัญญาณเตือนว่าผู้โจมตีอาจนำไปใช้จริงได้ 🔗 https://securityonline.info/poc-exploit-releases-for-windows-ntlm-elevation-of-privilege-vulnerability 💻 NVIDIA ออกแพตช์ด่วนแก้ช่องโหว่ร้ายแรงใน DGX Spark เสี่ยงถูกยึดระบบ AI NVIDIA ได้ปล่อยอัปเดตความปลอดภัยสำหรับแพลตฟอร์ม DGX Spark ซึ่งเป็นซูเปอร์คอมพิวเตอร์ AI ขนาดกะทัดรัดที่ใช้ในงานวิจัยและพัฒนา โดยมีช่องโหว่รวม 14 รายการ หนึ่งในนั้นคือ CVE-2025-33187 ที่มีคะแนนความรุนแรงสูงถึง 9.3 ช่องโหว่นี้อยู่ในส่วน SROOT ทำให้ผู้โจมตีที่มีสิทธิ์ระดับสูงสามารถเข้าถึงพื้นที่ที่ปกป้องโดยชิป SoC และควบคุมระบบได้อย่างสมบูรณ์ หากไม่อัปเดตทันที ข้อมูลวิจัยและโมเดล AI อาจถูกขโมยหรือแก้ไขโดยไม่รู้ตัว NVIDIA แนะนำให้ผู้ใช้ทุกคนอัปเดต DGX Spark ไปยังเวอร์ชัน OTA0 โดยเร็วที่สุด 🔗 https://securityonline.info/critical-patch-nvidia-dgx-spark-flaw-cve-2025-33187-cvss-9-3-exposes-ai-secrets-to-takeover 🕵️‍♂️ WormGPT 4 และ KawaiiGPT: AI ที่ถูกใช้เป็นเครื่องมืออาชญากรรมไซเบอร์ รายงานจาก Unit 42 เปิดเผยว่าโมเดล AI ที่ควรใช้เพื่อเพิ่มประสิทธิภาพ กลับถูกนำไปใช้สร้างภัยคุกคาม WormGPT 4 ถูกโฆษณาในฟอรั่มใต้ดินว่าเป็น “AI ที่ไร้ข้อจำกัด” สามารถสร้างมัลแวร์และสคริปต์เรียกค่าไถ่ได้อย่างรวดเร็ว พร้อมเขียนโน้ตข่มขู่ที่ทำให้เหยื่อหวาดกลัว ส่วน KawaiiGPT ถูกนำเสนอในรูปแบบ “Waifu pentesting” ที่ดูน่ารักแต่จริง ๆ แล้วสามารถสร้างอีเมลฟิชชิ่งและสคริปต์โจมตีได้ง่ายมาก ทั้งสองโมเดลนี้ทำให้การโจมตีไซเบอร์เข้าถึงได้แม้แต่ผู้ที่ไม่มีทักษะสูง สะท้อนถึงการ “ทำให้อาชญากรรมไซเบอร์เป็นประชาธิปไตย” ที่ใครก็สามารถโจมตีได้เพียงแค่พิมพ์คำสั่ง 🔗 https://securityonline.info/silent-fast-brutal-how-wormgpt-4-and-kawaiigpt-democratize-cybercrime 📊 Anthropic เปิดตัว Opus 4.5: AI สำหรับองค์กรที่เชื่อม Excel และแชทได้ไม่สิ้นสุด Anthropic ได้เปิดตัวเวอร์ชันใหม่ของโมเดล AI ชื่อ Opus 4.5 ที่ออกแบบมาเพื่อการใช้งานในระดับองค์กร จุดเด่นคือสามารถเชื่อมต่อกับ Excel ได้โดยตรง ทำให้ผู้ใช้สามารถวิเคราะห์ข้อมูลและสร้างรายงานได้อย่างอัตโนมัติ อีกทั้งยังมีฟีเจอร์ “Infinite Chat” ที่ช่วยให้การสนทนากับ AI ต่อเนื่องได้ไม่จำกัด ไม่ต้องเริ่มใหม่ทุกครั้งที่หมด session ถือเป็นการยกระดับการใช้งาน AI ให้เหมาะกับธุรกิจที่ต้องการความต่อเนื่องและการจัดการข้อมูลจำนวนมาก 🔗 https://securityonline.info/anthropic-unleashes-opus-4-5-excel-integration-infinite-chat-for-enterprise-ai 🛒 Perplexity เปิดตัว AI Shopping พร้อม PayPal Instant Buy และค้นหาสินค้าแบบเฉพาะบุคคล Perplexity กำลังขยายขอบเขตการใช้งาน AI จากการค้นหาข้อมูลไปสู่การช้อปปิ้งออนไลน์ โดยเปิดตัวฟีเจอร์ใหม่ที่ให้ผู้ใช้สามารถซื้อสินค้าผ่าน PayPal ได้ทันที (Instant Buy) และยังมีระบบค้นหาสินค้าแบบ Personalized ที่ปรับตามความสนใจและพฤติกรรมของผู้ใช้ จุดนี้ทำให้การช้อปปิ้งออนไลน์สะดวกขึ้นและตรงใจมากขึ้น ถือเป็นการผสมผสานระหว่าง AI และอีคอมเมิร์ซที่น่าจับตามอง 🔗 https://securityonline.info/perplexity-launches-ai-shopping-with-paypal-instant-buy-personalized-product-search ⚡ Qualcomm เปิดตัว Snapdragon 8 Gen 5: CPU เร็วขึ้น 36% และพลัง AI เพิ่มขึ้น 46% Qualcomm ได้เปิดตัวชิปประมวลผลรุ่นใหม่ Snapdragon 8 Gen 5 ที่มาพร้อมกับการพัฒนาอย่างก้าวกระโดด ทั้งด้านความเร็วของ CPU ที่เพิ่มขึ้น 36% และพลังการประมวลผล AI ที่มากขึ้นถึง 46% เมื่อเทียบกับรุ่นก่อนหน้า จุดเด่นอีกอย่างคือการจัดการพลังงานที่มีประสิทธิภาพมากขึ้น ทำให้เหมาะกับสมาร์ทโฟนระดับเรือธงที่จะออกในปีหน้า ซึ่งจะรองรับการใช้งานที่หนักหน่วงทั้งเกมและงานด้าน AI ได้อย่างลื่นไหล 🔗 https://securityonline.info/qualcomm-unveils-snapdragon-8-gen-5-36-faster-cpu-46-more-ai-power 🎓 INE ขยายการเรียนรู้แบบ Cross-Skilling เพื่อเพิ่มทักษะหลากหลายให้ผู้เรียน INE ซึ่งเป็นแพลตฟอร์มการเรียนออนไลน์ ได้เปิดตัวนวัตกรรมใหม่ที่เน้นการ Cross-Skilling หรือการเรียนรู้ทักษะข้ามสาขา เพื่อช่วยให้ผู้เรียนสามารถพัฒนาทักษะที่หลากหลายและนำไปใช้ในงานจริงได้มากขึ้น แนวทางนี้ตอบโจทย์ตลาดแรงงานที่ต้องการคนที่มีความสามารถหลายด้าน ไม่จำกัดอยู่แค่สายงานเดียว ถือเป็นการปรับตัวของแพลตฟอร์มการศึกษาให้เข้ากับโลกการทำงานยุคใหม่ 🔗 https://securityonline.info/ine-expands-cross-skilling-innovations 🛡️ GitLab ออกแพตช์แก้ช่องโหว่ร้ายแรง ทั้ง DoS และการขโมย Credential ใน CI/CD GitLab ได้ปล่อยอัปเดตความปลอดภัยล่าสุดที่แก้ไขช่องโหว่หลายรายการ ทั้งการโจมตีแบบ Denial of Service (DoS) ที่ไม่ต้องล็อกอินก็ทำได้ และช่องโหว่ที่ทำให้ผู้ใช้ระดับต่ำสามารถขโมย Credential ของผู้ใช้ระดับสูงในระบบ CI/CD ได้ นอกจากนี้ยังมีการแก้ไขช่องโหว่ด้านการ bypass authentication และการเปิดเผยข้อมูลที่ไม่ควรเข้าถึง GitLab แนะนำให้ผู้ดูแลระบบรีบอัปเดตไปยังเวอร์ชันล่าสุดเพื่อป้องกันความเสี่ยงที่อาจเกิดขึ้น 🔗 https://securityonline.info/gitlab-patch-fixes-ci-cd-credential-theft-unauthenticated-dos-attacks 🕵️‍♂️ Hidden Theft: ส่วนขยาย Chrome “Crypto Copilot” ดูดเงินจากกระเป๋า Solana เรื่องนี้เริ่มจากนักเทรดคริปโตที่อยากได้ความสะดวกในการซื้อขายผ่านแพลตฟอร์ม X จึงติดตั้งส่วนขยาย Chrome ที่ชื่อว่า Crypto Copilot ซึ่งโฆษณาว่าสามารถทำให้การเทรดรวดเร็วขึ้น แต่เบื้องหลังกลับเป็นกับดักที่ซ่อนการโอนเงินไปยังกระเป๋าของแฮกเกอร์โดยอัตโนมัติ ทุกครั้งที่ผู้ใช้ทำการ swap เหรียญ ระบบจะเพิ่มคำสั่งลับที่โอนเงินส่วนหนึ่งไปยังที่อยู่กระเป๋าที่ถูกควบคุมโดยผู้โจมตี โดยที่หน้าจอผู้ใช้ไม่แสดงให้เห็นเลย ทำให้หลายคนสูญเสียเงินไปโดยไม่รู้ตัว ปัจจุบันส่วนขยายนี้ยังคงอยู่บน Chrome Web Store และนักวิจัยได้ส่งคำร้องให้ Google ลบออกแล้ว 🔗 https://securityonline.info/hidden-theft-crypto-copilot-chrome-extension-drains-solana-wallets-on-x 💻 Critical Ray AI Flaw: ช่องโหว่ร้ายแรงใน Ray Framework ผ่าน Safari และ Firefox Ray เป็นเฟรมเวิร์กโอเพ่นซอร์สที่นักพัฒนาใช้ในการทำงานด้าน Machine Learning แต่ล่าสุดพบช่องโหว่ร้ายแรงที่เปิดทางให้ผู้โจมตีสามารถรันโค้ดอันตรายบนเครื่องของนักพัฒนาได้ ช่องโหว่นี้เกิดจากการตรวจสอบ User-Agent ที่ไม่รัดกุม ทำให้ผู้โจมตีสามารถใช้เทคนิค DNS Rebinding หลอกเบราว์เซอร์ Safari และ Firefox ให้ส่งคำสั่งไปยัง Ray Dashboard ที่รันอยู่ในเครื่องของเหยื่อ ผลลัพธ์คือโค้ดอันตรายสามารถถูกประมวลผลได้ทันที ทีมงาน Ray ได้ออกแพตช์แก้ไขในเวอร์ชัน 2.52.0 และแนะนำให้อัปเดตโดยด่วนเพื่อป้องกันความเสี่ยง 🔗 https://securityonline.info/critical-ray-ai-flaw-exposes-devs-via-safari-firefox-cve-2025-62593 🎯 Water Gamayun Weaponizes “MSC EvilTwin”: กลุ่ม APT รัสเซียใช้ช่องโหว่ Windows เจาะระบบ กลุ่มแฮกเกอร์ที่มีความเชื่อมโยงกับรัสเซียชื่อ Water Gamayun ถูกเปิดโปงว่ากำลังใช้ช่องโหว่ใหม่ใน Microsoft Management Console (MMC) ที่เรียกว่า “MSC EvilTwin” เพื่อเจาะระบบองค์กรที่มีมูลค่าสูง วิธีการคือหลอกให้เหยื่อดาวน์โหลดไฟล์ที่ดูเหมือนเอกสารทั่วไป แต่จริง ๆ แล้วเป็น payload ที่ฝังโค้ดอันตราย เมื่อเปิดไฟล์ก็จะถูกใช้ช่องโหว่เพื่อรัน PowerShell ลับและติดตั้งมัลแวร์ต่อเนื่อง เป้าหมายของกลุ่มนี้คือการขโมยข้อมูลเชิงกลยุทธ์และสร้างช่องทางเข้าถึงระบบอย่างยาวนาน 🔗 https://securityonline.info/water-gamayun-weaponizes-msc-eviltwin-zero-day-for-stealthy-backdoor-attacks 🎮 Fragging Your Data: มัลแวร์ปลอมตัวเป็น Crack และ Trainer ของ Battlefield 6 การเปิดตัวเกม Battlefield 6 กลายเป็นโอกาสทองของอาชญากรไซเบอร์ พวกเขาปล่อยไฟล์ “Crack” และ “Trainer” ปลอมบนเว็บแชร์ไฟล์และฟอรั่มใต้ดิน โดยอ้างว่าเป็นผลงานของกลุ่มแคร็กชื่อดัง แต่แท้จริงแล้วเป็นมัลแวร์ที่ออกแบบมาเพื่อขโมยข้อมูลผู้ใช้ เช่น กระเป๋าเงินคริปโต คุกกี้เบราว์เซอร์ และโทเคน Discord บางเวอร์ชันยังซ่อนตัวเก่ง ตรวจสอบสภาพแวดล้อมก่อนทำงาน และบางตัวทำหน้าที่เป็น backdoor ที่เปิดทางให้ผู้โจมตีเข้าควบคุมเครื่องได้เต็มรูปแบบ นักวิจัยเตือนว่าผู้เล่นที่ดาวน์โหลดไฟล์เหล่านี้ควรรีบสแกนเครื่องและเปลี่ยนรหัสผ่านทันที 🔗 https://securityonline.info/fragging-your-data-fake-battlefield-6-cracks-trainers-spread-infostealers 🎨 Hidden Danger in 3D: ไฟล์ Blender ปลอมแพร่กระจาย StealC V2 Infostealer วงการนักออกแบบ 3D และเกมถูกโจมตีด้วยวิธีใหม่ แฮกเกอร์ปล่อยไฟล์โมเดล 3D ที่ดูเหมือนงานจริง เช่น โมเดลชุดอวกาศ Apollo 11 แต่ภายในฝังสคริปต์ Python อันตราย เมื่อผู้ใช้เปิดไฟล์ใน Blender และเปิดใช้งาน Auto Run Python Scripts มัลแวร์จะทำงานทันทีโดยไม่รู้ตัว จากนั้นจะดาวน์โหลด payload ต่อเนื่องและติดตั้ง StealC V2 ซึ่งเป็น infostealer ที่สามารถดูดข้อมูลจากเบราว์เซอร์ กระเป๋าเงินคริปโต และแอปต่าง ๆ เช่น Discord หรือ Telegram จุดอันตรายคือไฟล์เหล่านี้ตรวจจับได้ยากมากในระบบป้องกันทั่วไป ทำให้ผู้ใช้ต้องระวังเป็นพิเศษ 🔗 https://securityonline.info/hidden-danger-in-3d-malicious-blender-files-unleash-stealc-v2-infostealer 📺 Zero-Day Warning: ช่องโหว่ Twonky Server เปิดทางยึดระบบสื่อ มีการค้นพบช่องโหว่ใหม่ใน Twonky Server ซึ่งเป็นซอฟต์แวร์ที่ใช้สำหรับสตรีมสื่อในบ้านและองค์กร ช่องโหว่นี้เปิดโอกาสให้ผู้โจมตีเข้าควบคุมระบบได้ทั้งหมดโดยไม่ต้องมีสิทธิ์พิเศษ เมื่อผู้ใช้เปิดใช้งานเซิร์ฟเวอร์ที่ยังไม่ได้แพตช์ แฮกเกอร์สามารถส่งคำสั่งจากระยะไกลเพื่อเข้าถึงไฟล์สื่อและแม้กระทั่งติดตั้งมัลแวร์เพิ่มเติม ทำให้ผู้ใช้เสี่ยงต่อการสูญเสียข้อมูลและความเป็นส่วนตัวอย่างมาก 🔗 https://securityonline.info/zero-day-warning-unpatched-twonky-server-flaws-expose-media-to-total-takeover 🕶️ UNMASKED: การรั่วไหลครั้งใหญ่เปิดโปงหน่วยไซเบอร์ “Department 40” ของอิหร่าน มีการเปิดเผยข้อมูลครั้งใหญ่ที่แสดงให้เห็นการทำงานของหน่วยไซเบอร์ลับในอิหร่านที่ชื่อว่า Department 40 ซึ่งถูกกล่าวหาว่ามีส่วนเกี่ยวข้องกับการโจมตีทางไซเบอร์ระดับโลก เอกสารที่รั่วไหลออกมาเผยให้เห็นโครงสร้างการทำงาน วิธีการโจมตี และเป้าหมายที่พวกเขาใช้ รวมถึงการพัฒนาเครื่องมือที่ซับซ้อนเพื่อเจาะระบบขององค์กรและรัฐบาลต่างประเทศ การเปิดโปงครั้งนี้ทำให้หลายประเทศเริ่มตรวจสอบและเพิ่มมาตรการป้องกันอย่างเข้มงวด 🔗 https://securityonline.info/unmasked-massive-leak-exposes-irans-department-40-cyber-terror-unit ⚠️ Angular Alert: ช่องโหว่ Protocol-Relative URLs ทำให้ XSRF Tokens รั่วไหล นักวิจัยพบว่าการใช้ URL แบบ protocol-relative ใน Angular สามารถทำให้โทเคน XSRF รั่วไหลไปยังโดเมนที่ไม่ปลอดภัยได้ ช่องโหว่นี้อาจถูกใช้เพื่อขโมย session และเข้าถึงข้อมูลผู้ใช้โดยไม่ได้รับอนุญาต ปัญหานี้เกิดจากการที่เฟรมเวิร์กไม่ได้ตรวจสอบเส้นทาง URL อย่างเข้มงวดพอ ทำให้ผู้โจมตีสามารถสร้างลิงก์ที่ดูเหมือนปลอดภัยแต่จริง ๆ แล้วส่งข้อมูลไปยังเซิร์ฟเวอร์ที่ควบคุมโดยแฮกเกอร์ 🔗 https://securityonline.info/angular-alert-protocol-relative-urls-leak-xsrf-tokens-cve-2025-66035 🛍️ Holiday Heist: ร้านค้าออนไลน์ปลอมกว่า 200,000 แห่งโจมตี Black Friday ในช่วง Black Friday มีการตรวจพบร้านค้าออนไลน์ปลอมกว่า 200,000 แห่งที่เลียนแบบ Amazon และแพลตฟอร์มช้อปปิ้งชื่อดังอื่น ๆ เว็บไซต์เหล่านี้ถูกสร้างขึ้นเพื่อหลอกให้ผู้ซื้อกรอกข้อมูลบัตรเครดิตและข้อมูลส่วนตัว โดยใช้ดีไซน์และโลโก้ที่เหมือนจริงมาก ผู้ใช้ที่ไม่ทันระวังอาจสูญเสียเงินและข้อมูลไปโดยไม่รู้ตัว นักวิจัยเตือนว่าควรตรวจสอบ URL และรีวิวร้านค้าให้ละเอียดก่อนทำการซื้อสินค้าในช่วงเทศกาลลดราคา 🔗 https://securityonline.info/holiday-heist-200000-fake-shops-amazon-clones-target-black-friday 🛡️ Security Alert: ช่องโหว่ Stored XSS ใน Apache SkyWalking Apache SkyWalking ซึ่งเป็นระบบ APM ที่ใช้กันอย่างแพร่หลายสำหรับการตรวจสอบและติดตามระบบแบบ distributed พบช่องโหว่ Stored XSS ที่อันตรายมาก เพราะโค้ดอันตรายจะถูกบันทึกถาวรในเซิร์ฟเวอร์และทำงานทุกครั้งที่ผู้ดูแลเปิดหน้า dashboard ช่องโหว่นี้สามารถถูกใช้เพื่อขโมย session cookies, redirect ผู้ใช้ไปยังเว็บไซต์อันตราย หรือแม้กระทั่งแก้ไขข้อมูลการแสดงผลเพื่อปกปิดกิจกรรมที่ผิดปกติ ทีมงาน Apache ได้ออกแพตช์แก้ไขในเวอร์ชัน 10.3.0 และแนะนำให้ผู้ใช้รีบอัปเดตทันที 🔗 https://securityonline.info/security-alert-apache-skywalking-stored-xss-vulnerability-cve-2025-54057
    0 Comments 0 Shares 239 Views 0 Reviews
  • Genesis Mission: โครงการ AI ระดับชาติ

    รัฐบาลสหรัฐฯ ภายใต้ประธานาธิบดีทรัมป์ประกาศโครงการ Genesis Mission เพื่อเร่งพัฒนา AI โดยเปรียบเทียบขอบเขตกับโครงการ Manhattan Project สมัยสงครามโลกครั้งที่ 2 เป้าหมายคือทำให้สหรัฐฯ เป็นผู้นำโลกด้าน AI ทั้งในวิทยาศาสตร์ ความมั่นคง และพลังงาน.

    เมื่อเดือนพฤศจิกายน 2025 ทำเนียบขาวได้ออกคำสั่งบริหารใหม่เพื่อเริ่มต้น Genesis Mission โดยมี Department of Energy (DoE) เป็นผู้ดำเนินการหลัก โครงการนี้ถูกวางให้เป็นความพยายามระดับชาติในการสร้างแพลตฟอร์ม AI ที่สามารถใช้ข้อมูลวิทยาศาสตร์ของรัฐบาลกลางเพื่อแก้ปัญหาทางเทคโนโลยีอย่างน้อย 20 ด้าน เช่น วัสดุศาสตร์ พลังงานนิวเคลียร์ ฟิวชัน ควอนตัม และเซมิคอนดักเตอร์.

    เป้าหมายและความร่วมมือ
    โครงการจะใช้ ซูเปอร์คอมพิวเตอร์ของห้องทดลองแห่งชาติ และร่วมมือกับบริษัทเอกชนที่มีความเชี่ยวชาญด้าน AI และฮาร์ดแวร์ เช่น Nvidia, AMD, HP และ Dell เพื่อสร้างโครงสร้างพื้นฐานใหม่ ข้อมูลที่ใช้จะรวมทั้ง ชุดข้อมูลที่เป็นกรรมสิทธิ์ ข้อมูลที่รัฐบาลจัดทำ และข้อมูลสังเคราะห์ โดยมีการเน้นเรื่อง การปกป้องทรัพย์สินทางปัญญาและการติดตามแหล่งที่มา เพื่อให้มั่นใจว่าผลลัพธ์จากการทดลอง AI จะถูกควบคุมอย่างเหมาะสม.

    ผลกระทบต่อพลังงานและความมั่นคง
    หนึ่งในเป้าหมายสำคัญคือการใช้ AI เพื่อ ปรับปรุงโครงข่ายไฟฟ้า ลดต้นทุนพลังงาน และเร่งการพัฒนาพลังงานนิวเคลียร์และฟิวชัน ซึ่งอาจช่วยแก้ปัญหาความต้องการพลังงานมหาศาลจากการเติบโตของ AI เอง นอกจากนี้ยังมีการเน้นเรื่อง ความมั่นคงทางไซเบอร์ เนื่องจากจีนถูกมองว่าเป็นคู่แข่งหลักในสงคราม AI และการผลิตชิป.

    ความท้าทายและข้อกังวล
    แม้ Genesis Mission จะถูกเปรียบเทียบกับ Manhattan Project แต่ก็มีข้อกังวลเรื่อง งบประมาณและทรัพยากร ที่ยังไม่ชัดเจน รวมถึงความเสี่ยงด้านสิ่งแวดล้อมและการใช้พลังงานมหาศาล นักวิจารณ์บางส่วนชี้ว่าโครงการอาจเป็นการผลักดันบริษัทเอกชนมากกว่าการสร้างนวัตกรรมใหม่จริงๆ และยังไม่แน่ว่าจะสามารถแข่งขันกับบริษัท AI ชั้นนำอย่าง OpenAI หรือ Google ได้ในเชิงคุณภาพ.

    สรุปสาระสำคัญ
    Genesis Mission คือโครงการ AI ระดับชาติ
    เปรียบเทียบกับ Manhattan Project, ดำเนินการโดย DoE

    เป้าหมายหลัก
    ใช้ AI แก้ปัญหาทางเทคโนโลยี 20 ด้าน เช่น พลังงาน ควอนตัม และเซมิคอนดักเตอร์

    ความร่วมมือกับเอกชน
    Nvidia, AMD, HP, Dell เข้าร่วมสร้างโครงสร้างพื้นฐาน AI

    ผลกระทบต่อพลังงานและความมั่นคง
    ปรับปรุงโครงข่ายไฟฟ้า, เร่งพัฒนาพลังงานนิวเคลียร์, เน้นความมั่นคงไซเบอร์

    ข้อกังวลสำคัญ
    งบประมาณยังไม่ชัดเจน, ใช้พลังงานมหาศาล, อาจเป็นการผลักดันบริษัทเอกชนมากกว่านวัตกรรมจริง

    https://www.tomshardware.com/tech-industry/big-tech/trump-administration-touts-genesis-mission-to-try-and-win-the-ai-race-white-house-compares-scope-of-its-initiative-to-the-manhattan-project
    🚀 Genesis Mission: โครงการ AI ระดับชาติ รัฐบาลสหรัฐฯ ภายใต้ประธานาธิบดีทรัมป์ประกาศโครงการ Genesis Mission เพื่อเร่งพัฒนา AI โดยเปรียบเทียบขอบเขตกับโครงการ Manhattan Project สมัยสงครามโลกครั้งที่ 2 เป้าหมายคือทำให้สหรัฐฯ เป็นผู้นำโลกด้าน AI ทั้งในวิทยาศาสตร์ ความมั่นคง และพลังงาน. เมื่อเดือนพฤศจิกายน 2025 ทำเนียบขาวได้ออกคำสั่งบริหารใหม่เพื่อเริ่มต้น Genesis Mission โดยมี Department of Energy (DoE) เป็นผู้ดำเนินการหลัก โครงการนี้ถูกวางให้เป็นความพยายามระดับชาติในการสร้างแพลตฟอร์ม AI ที่สามารถใช้ข้อมูลวิทยาศาสตร์ของรัฐบาลกลางเพื่อแก้ปัญหาทางเทคโนโลยีอย่างน้อย 20 ด้าน เช่น วัสดุศาสตร์ พลังงานนิวเคลียร์ ฟิวชัน ควอนตัม และเซมิคอนดักเตอร์. ⚡ เป้าหมายและความร่วมมือ โครงการจะใช้ ซูเปอร์คอมพิวเตอร์ของห้องทดลองแห่งชาติ และร่วมมือกับบริษัทเอกชนที่มีความเชี่ยวชาญด้าน AI และฮาร์ดแวร์ เช่น Nvidia, AMD, HP และ Dell เพื่อสร้างโครงสร้างพื้นฐานใหม่ ข้อมูลที่ใช้จะรวมทั้ง ชุดข้อมูลที่เป็นกรรมสิทธิ์ ข้อมูลที่รัฐบาลจัดทำ และข้อมูลสังเคราะห์ โดยมีการเน้นเรื่อง การปกป้องทรัพย์สินทางปัญญาและการติดตามแหล่งที่มา เพื่อให้มั่นใจว่าผลลัพธ์จากการทดลอง AI จะถูกควบคุมอย่างเหมาะสม. 🌍 ผลกระทบต่อพลังงานและความมั่นคง หนึ่งในเป้าหมายสำคัญคือการใช้ AI เพื่อ ปรับปรุงโครงข่ายไฟฟ้า ลดต้นทุนพลังงาน และเร่งการพัฒนาพลังงานนิวเคลียร์และฟิวชัน ซึ่งอาจช่วยแก้ปัญหาความต้องการพลังงานมหาศาลจากการเติบโตของ AI เอง นอกจากนี้ยังมีการเน้นเรื่อง ความมั่นคงทางไซเบอร์ เนื่องจากจีนถูกมองว่าเป็นคู่แข่งหลักในสงคราม AI และการผลิตชิป. 🛡️ ความท้าทายและข้อกังวล แม้ Genesis Mission จะถูกเปรียบเทียบกับ Manhattan Project แต่ก็มีข้อกังวลเรื่อง งบประมาณและทรัพยากร ที่ยังไม่ชัดเจน รวมถึงความเสี่ยงด้านสิ่งแวดล้อมและการใช้พลังงานมหาศาล นักวิจารณ์บางส่วนชี้ว่าโครงการอาจเป็นการผลักดันบริษัทเอกชนมากกว่าการสร้างนวัตกรรมใหม่จริงๆ และยังไม่แน่ว่าจะสามารถแข่งขันกับบริษัท AI ชั้นนำอย่าง OpenAI หรือ Google ได้ในเชิงคุณภาพ. 📌 สรุปสาระสำคัญ ✅ Genesis Mission คือโครงการ AI ระดับชาติ ➡️ เปรียบเทียบกับ Manhattan Project, ดำเนินการโดย DoE ✅ เป้าหมายหลัก ➡️ ใช้ AI แก้ปัญหาทางเทคโนโลยี 20 ด้าน เช่น พลังงาน ควอนตัม และเซมิคอนดักเตอร์ ✅ ความร่วมมือกับเอกชน ➡️ Nvidia, AMD, HP, Dell เข้าร่วมสร้างโครงสร้างพื้นฐาน AI ✅ ผลกระทบต่อพลังงานและความมั่นคง ➡️ ปรับปรุงโครงข่ายไฟฟ้า, เร่งพัฒนาพลังงานนิวเคลียร์, เน้นความมั่นคงไซเบอร์ ‼️ ข้อกังวลสำคัญ ⛔ งบประมาณยังไม่ชัดเจน, ใช้พลังงานมหาศาล, อาจเป็นการผลักดันบริษัทเอกชนมากกว่านวัตกรรมจริง https://www.tomshardware.com/tech-industry/big-tech/trump-administration-touts-genesis-mission-to-try-and-win-the-ai-race-white-house-compares-scope-of-its-initiative-to-the-manhattan-project
    0 Comments 0 Shares 103 Views 0 Reviews
  • AMD เริ่มส่งแพตช์เข้าสู่ Linux kernel เพื่อรองรับ Instinct MI400-series

    AMD ได้ upstream แพตช์ใหม่ที่เกี่ยวข้องกับ GPU IP blocks เช่น PSP 15.0.8, IH 7.1, MMHUB 4.2, GFXHUB 12.1 และ GMC 12.1 ซึ่งบ่งชี้ว่ากำลังมีการรองรับสถาปัตยกรรมใหม่ โดยเฉพาะ GFXHUB 12.1 ที่เชื่อมโยงกับ CDNA5 ซึ่งเป็นแกนหลักของ Instinct MI430 และ MI450-series accelerators

    สถาปัตยกรรม CDNA5 และการแบ่งรุ่น
    ข้อมูลหลุดก่อนหน้านี้ระบุว่า GFX1250 จะใช้กับ Instinct MI450 (AI-oriented) และ GFX1251 จะใช้กับ Instinct MI430 (HPC-oriented) แม้ AMD ยังไม่ยืนยันอย่างเป็นทางการ แต่การส่งแพตช์ครั้งนี้ถือเป็นสัญญาณชัดเจนว่ากำลังเตรียมเปิดตัว GPU รุ่นใหม่สำหรับงาน AI และ HPC

    การแข่งขันกับ Nvidia
    AMD ตั้งเป้าที่จะเปิดตัว Instinct MI450 และโซลูชัน Helios rack-scale ที่ใช้ซีพียู EPYC Venice และ GPU MI450 ก่อนที่ Nvidia จะเปิดตัวแพลตฟอร์ม Vera Rubin ในไตรมาส 3 ปี 2026 หาก AMD สามารถเร่งการผลิตและส่งมอบได้ทัน จะเป็นการเพิ่มแรงกดดันต่อ Nvidia ในตลาด AI ที่กำลังเติบโตอย่างรวดเร็ว

    ความหมายต่ออุตสาหกรรม
    การเริ่มต้น enablement ของ MI400-series แสดงให้เห็นว่า AMD กำลังเดินหน้าอย่างมั่นคงตามโรดแมป Instinct และ CDNA ทั้งในด้าน AI และ HPC ซึ่งอาจช่วยให้ตลาดมีการแข่งขันมากขึ้น ลดการพึ่งพา Nvidia และเปิดทางเลือกใหม่ให้กับผู้พัฒนา AI และซูเปอร์คอมพิวเตอร์ทั่วโลก

    สรุปประเด็นสำคัญ
    AMD ส่งแพตช์เข้าสู่ Linux kernel เพื่อรองรับ GPU IP blocks ใหม่
    รวมถึง GFXHUB 12.1 ที่เชื่อมโยงกับสถาปัตยกรรม CDNA5

    Instinct MI400-series แบ่งเป็น MI430 (HPC) และ MI450 (AI)
    ใช้รหัส GFX1251 และ GFX1250 ตามลำดับ

    AMD เตรียมเปิดตัว MI450 และ Helios rack-scale solution
    ตั้งเป้าเปิดตัวก่อน Nvidia Vera Rubin ใน Q3 2026

    การ enablement แสดงถึงความต่อเนื่องของโรดแมป Instinct และ CDNA
    เพิ่มการแข่งขันในตลาด AI และ HPC

    ความเสี่ยงด้านการผลิตและการส่งมอบ
    หาก AMD ไม่สามารถเร่งการผลิตได้ทัน อาจเสียเปรียบ Nvidia

    ตลาด AI ยังพึ่งพา Nvidia อย่างมาก
    AMD ต้องพิสูจน์ว่าซอฟต์แวร์และ ecosystem รองรับได้จริง

    https://www.tomshardware.com/pc-components/gpus/amds-linux-kernel-patches-suggest-enablement-of-next-gen-instinct-mi400-series-ai-gpu-accelerators
    🐧 AMD เริ่มส่งแพตช์เข้าสู่ Linux kernel เพื่อรองรับ Instinct MI400-series AMD ได้ upstream แพตช์ใหม่ที่เกี่ยวข้องกับ GPU IP blocks เช่น PSP 15.0.8, IH 7.1, MMHUB 4.2, GFXHUB 12.1 และ GMC 12.1 ซึ่งบ่งชี้ว่ากำลังมีการรองรับสถาปัตยกรรมใหม่ โดยเฉพาะ GFXHUB 12.1 ที่เชื่อมโยงกับ CDNA5 ซึ่งเป็นแกนหลักของ Instinct MI430 และ MI450-series accelerators ⚙️ สถาปัตยกรรม CDNA5 และการแบ่งรุ่น ข้อมูลหลุดก่อนหน้านี้ระบุว่า GFX1250 จะใช้กับ Instinct MI450 (AI-oriented) และ GFX1251 จะใช้กับ Instinct MI430 (HPC-oriented) แม้ AMD ยังไม่ยืนยันอย่างเป็นทางการ แต่การส่งแพตช์ครั้งนี้ถือเป็นสัญญาณชัดเจนว่ากำลังเตรียมเปิดตัว GPU รุ่นใหม่สำหรับงาน AI และ HPC 🚀 การแข่งขันกับ Nvidia AMD ตั้งเป้าที่จะเปิดตัว Instinct MI450 และโซลูชัน Helios rack-scale ที่ใช้ซีพียู EPYC Venice และ GPU MI450 ก่อนที่ Nvidia จะเปิดตัวแพลตฟอร์ม Vera Rubin ในไตรมาส 3 ปี 2026 หาก AMD สามารถเร่งการผลิตและส่งมอบได้ทัน จะเป็นการเพิ่มแรงกดดันต่อ Nvidia ในตลาด AI ที่กำลังเติบโตอย่างรวดเร็ว 🌐 ความหมายต่ออุตสาหกรรม การเริ่มต้น enablement ของ MI400-series แสดงให้เห็นว่า AMD กำลังเดินหน้าอย่างมั่นคงตามโรดแมป Instinct และ CDNA ทั้งในด้าน AI และ HPC ซึ่งอาจช่วยให้ตลาดมีการแข่งขันมากขึ้น ลดการพึ่งพา Nvidia และเปิดทางเลือกใหม่ให้กับผู้พัฒนา AI และซูเปอร์คอมพิวเตอร์ทั่วโลก 📌 สรุปประเด็นสำคัญ ✅ AMD ส่งแพตช์เข้าสู่ Linux kernel เพื่อรองรับ GPU IP blocks ใหม่ ➡️ รวมถึง GFXHUB 12.1 ที่เชื่อมโยงกับสถาปัตยกรรม CDNA5 ✅ Instinct MI400-series แบ่งเป็น MI430 (HPC) และ MI450 (AI) ➡️ ใช้รหัส GFX1251 และ GFX1250 ตามลำดับ ✅ AMD เตรียมเปิดตัว MI450 และ Helios rack-scale solution ➡️ ตั้งเป้าเปิดตัวก่อน Nvidia Vera Rubin ใน Q3 2026 ✅ การ enablement แสดงถึงความต่อเนื่องของโรดแมป Instinct และ CDNA ➡️ เพิ่มการแข่งขันในตลาด AI และ HPC ‼️ ความเสี่ยงด้านการผลิตและการส่งมอบ ⛔ หาก AMD ไม่สามารถเร่งการผลิตได้ทัน อาจเสียเปรียบ Nvidia ‼️ ตลาด AI ยังพึ่งพา Nvidia อย่างมาก ⛔ AMD ต้องพิสูจน์ว่าซอฟต์แวร์และ ecosystem รองรับได้จริง https://www.tomshardware.com/pc-components/gpus/amds-linux-kernel-patches-suggest-enablement-of-next-gen-instinct-mi400-series-ai-gpu-accelerators
    0 Comments 0 Shares 177 Views 0 Reviews
  • กระทรวงยุติธรรมสหรัฐฯ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU Nvidia มีโทษจำคุกสูงสุดถึง 200 ปี

    กลุ่มผู้ต้องหานำโดย Brian Curtis Raymond ผู้ก่อตั้งบริษัท Bitworks ใน Alabama ถูกกล่าวหาว่าซื้อ GPU Nvidia A100, H100, H200 และซูเปอร์คอมพิวเตอร์ HPE จากช่องทางถูกกฎหมาย ก่อนจะขายต่อให้บริษัท Janford Realtor ใน Florida ซึ่งควบคุมโดย Hon Ning “Mathew” Ho จากนั้นมีการส่งออกไปจีนผ่านฮ่องกง มาเลเซีย และไทย โดยใช้เอกสารปลอมและเส้นทางการขนส่งที่ซับซ้อน

    มูลค่าการลักลอบและเส้นทางเงิน
    การดำเนินการนี้เกิดขึ้นตั้งแต่ปี 2023–2025 หลังจากรัฐบาลสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ขั้นสูง ผู้ต้องหาสามารถลักลอบส่งออก GPU A100 จำนวน 400 ตัว ไปจีนได้สำเร็จ และพยายามส่งออกซูเปอร์คอมพิวเตอร์ HPE อีก 10 เครื่องพร้อม GPU H100 และ H200 แต่ถูกจับกุมก่อน มูลค่าการทำธุรกรรมรวมกว่า 3.89 ล้านดอลลาร์ โดยมีการโอนเงินจากจีนมายังสหรัฐฯ ผ่านการฟอกเงิน

    ความสำคัญเชิงภูมิรัฐศาสตร์
    ชิป AI อย่าง A100/H100/H200 ถือเป็นหัวใจสำคัญของการพัฒนา AI และการประมวลผลขั้นสูง รัฐบาลสหรัฐฯ จึงเข้มงวดต่อการส่งออกไปจีนเพราะเกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ การจับกุมครั้งนี้สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีนที่ยังคงรุนแรง

    บทเรียนและผลกระทบ
    แม้ตัวเลข 3.89 ล้านดอลลาร์จะดูเล็กเมื่อเทียบกับตลาด AI ที่มีมูลค่าหลายหมื่นล้าน แต่คดีนี้ชี้ให้เห็นช่องโหว่ในระบบควบคุมการส่งออก และอาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทที่เกี่ยวข้องกับการจัดจำหน่ายฮาร์ดแวร์ AI ในอนาคต

    สรุปประเด็นสำคัญ
    DOJ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU และซูเปอร์คอมพิวเตอร์
    ผู้ต้องหาหลักคือ Brian Curtis Raymond และ Hon Ning “Mathew” Ho

    ลักลอบส่งออก GPU A100 จำนวน 400 ตัว สำเร็จ
    พยายามส่งออก HPE Supercomputers และ GPU H200 แต่ถูกจับกุม
    มีโทษจำคุกสูงสุดถึง 200 ปี

    มูลค่าการลักลอบรวมกว่า 3.89 ล้านดอลลาร์
    มีการฟอกเงินผ่านบริษัท Janford Realtor

    สหรัฐฯ คุมเข้มการส่งออกชิป AI ขั้นสูง
    เกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์

    ความเสี่ยงด้านความมั่นคงและภูมิรัฐศาสตร์
    การลักลอบส่งออกชิปอาจช่วยเพิ่มศักยภาพด้าน AI ของจีน

    ช่องโหว่ในระบบควบคุมการส่งออก
    อาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทผู้จัดจำหน่ายฮาร์ดแวร์ AI

    https://www.tomshardware.com/pc-components/gpus/four-americans-charged-with-smuggling-nvidia-gpus-and-hpe-supercomputers-to-china-face-up-to-200-years-in-prison-usd3-89-million-worth-of-gear-smuggled-in-operation
    ⚖️ กระทรวงยุติธรรมสหรัฐฯ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU Nvidia มีโทษจำคุกสูงสุดถึง 200 ปี กลุ่มผู้ต้องหานำโดย Brian Curtis Raymond ผู้ก่อตั้งบริษัท Bitworks ใน Alabama ถูกกล่าวหาว่าซื้อ GPU Nvidia A100, H100, H200 และซูเปอร์คอมพิวเตอร์ HPE จากช่องทางถูกกฎหมาย ก่อนจะขายต่อให้บริษัท Janford Realtor ใน Florida ซึ่งควบคุมโดย Hon Ning “Mathew” Ho จากนั้นมีการส่งออกไปจีนผ่านฮ่องกง มาเลเซีย และไทย โดยใช้เอกสารปลอมและเส้นทางการขนส่งที่ซับซ้อน 💰 มูลค่าการลักลอบและเส้นทางเงิน การดำเนินการนี้เกิดขึ้นตั้งแต่ปี 2023–2025 หลังจากรัฐบาลสหรัฐฯ ออกมาตรการควบคุมการส่งออกชิป AI ขั้นสูง ผู้ต้องหาสามารถลักลอบส่งออก GPU A100 จำนวน 400 ตัว ไปจีนได้สำเร็จ และพยายามส่งออกซูเปอร์คอมพิวเตอร์ HPE อีก 10 เครื่องพร้อม GPU H100 และ H200 แต่ถูกจับกุมก่อน มูลค่าการทำธุรกรรมรวมกว่า 3.89 ล้านดอลลาร์ โดยมีการโอนเงินจากจีนมายังสหรัฐฯ ผ่านการฟอกเงิน 🌐 ความสำคัญเชิงภูมิรัฐศาสตร์ ชิป AI อย่าง A100/H100/H200 ถือเป็นหัวใจสำคัญของการพัฒนา AI และการประมวลผลขั้นสูง รัฐบาลสหรัฐฯ จึงเข้มงวดต่อการส่งออกไปจีนเพราะเกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ การจับกุมครั้งนี้สะท้อนถึงความตึงเครียดด้านเทคโนโลยีระหว่างสหรัฐฯ และจีนที่ยังคงรุนแรง 🚨 บทเรียนและผลกระทบ แม้ตัวเลข 3.89 ล้านดอลลาร์จะดูเล็กเมื่อเทียบกับตลาด AI ที่มีมูลค่าหลายหมื่นล้าน แต่คดีนี้ชี้ให้เห็นช่องโหว่ในระบบควบคุมการส่งออก และอาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทที่เกี่ยวข้องกับการจัดจำหน่ายฮาร์ดแวร์ AI ในอนาคต 📌 สรุปประเด็นสำคัญ ✅ DOJ ตั้งข้อหาชาวอเมริกัน 4 คนในคดีลักลอบส่งออก GPU และซูเปอร์คอมพิวเตอร์ ➡️ ผู้ต้องหาหลักคือ Brian Curtis Raymond และ Hon Ning “Mathew” Ho ✅ ลักลอบส่งออก GPU A100 จำนวน 400 ตัว สำเร็จ ➡️ พยายามส่งออก HPE Supercomputers และ GPU H200 แต่ถูกจับกุม ➡️ มีโทษจำคุกสูงสุดถึง 200 ปี ✅ มูลค่าการลักลอบรวมกว่า 3.89 ล้านดอลลาร์ ➡️ มีการฟอกเงินผ่านบริษัท Janford Realtor ✅ สหรัฐฯ คุมเข้มการส่งออกชิป AI ขั้นสูง ➡️ เกรงว่าจะถูกนำไปใช้ในงานด้านทหารและการวิจัยเชิงกลยุทธ์ ‼️ ความเสี่ยงด้านความมั่นคงและภูมิรัฐศาสตร์ ⛔ การลักลอบส่งออกชิปอาจช่วยเพิ่มศักยภาพด้าน AI ของจีน ‼️ ช่องโหว่ในระบบควบคุมการส่งออก ⛔ อาจทำให้รัฐบาลสหรัฐฯ เข้มงวดมากขึ้นต่อบริษัทผู้จัดจำหน่ายฮาร์ดแวร์ AI https://www.tomshardware.com/pc-components/gpus/four-americans-charged-with-smuggling-nvidia-gpus-and-hpe-supercomputers-to-china-face-up-to-200-years-in-prison-usd3-89-million-worth-of-gear-smuggled-in-operation
    0 Comments 0 Shares 272 Views 0 Reviews
  • AMD เปิดตัว Instinct MI430X

    AMD ได้เผยโฉม Instinct MI430X ซึ่งเป็นรุ่นต่อยอดจาก MI300A โดยใช้สถาปัตยกรรม CDNA รุ่นใหม่ (คาดว่า CDNA 5) จุดเด่นคือการใช้หน่วยความจำ HBM4 ขนาด 432GB และแบนด์วิดท์สูงถึง 19.6TB/s ถือเป็นการยกระดับครั้งใหญ่จากรุ่นก่อนหน้า ทำให้เหมาะกับงานที่ต้องการประสิทธิภาพสูง เช่นการประมวลผล FP64 และการฝึกโมเดล AI ขนาดใหญ่

    การใช้งานในซูเปอร์คอมพิวเตอร์ระดับโลก
    MI430X จะถูกนำไปใช้ในระบบ HPC และ AI หลายแห่ง เช่น
    Discovery ที่ Oak Ridge National Laboratory (สหรัฐฯ) ซึ่งเป็นหนึ่งใน “AI Factory” แรกของประเทศ
    Alice Recoque ระบบ Exascale-class ในยุโรป ที่ใช้แพลตฟอร์ม BullSequana XH3500 ของ Eviden เพื่อรองรับงาน HPC และ AI พร้อมเป้าหมายด้านประสิทธิภาพพลังงาน

    การแข่งขันกับ NVIDIA
    AMD ยังเตรียมเปิดตัวรุ่น Instinct MI455X ที่ตั้งเป้าแข่งกับ NVIDIA Rubin AI lineup โดยเน้น disrupt ตลาด AI compute ที่กำลังเติบโตอย่างรวดเร็ว การเคลื่อนไหวนี้สะท้อนถึงความตั้งใจของ AMD ที่จะเป็นผู้นำในตลาด AI และ HPC ที่กำลังขยายตัว

    ผลกระทบต่ออนาคต AI และ HPC
    การเปิดตัว MI430X ไม่เพียงแต่เพิ่มขีดความสามารถด้านการประมวลผล แต่ยังช่วยให้ยุโรปและสหรัฐฯ มีเครื่องมือใหม่ในการแข่งขันกับจีนในด้านซูเปอร์คอมพิวเตอร์และ AI การใช้หน่วยความจำ HBM4 ที่มีแบนด์วิดท์สูงยังเป็นการปูทางไปสู่การพัฒนาโมเดล AI ที่ซับซ้อนและใหญ่ขึ้นในอนาคต

    สรุปประเด็นสำคัญ
    Instinct MI430X ใช้สถาปัตยกรรม CDNA รุ่นใหม่
    หน่วยความจำ HBM4 ขนาด 432GB และแบนด์วิดท์ 19.6TB/s

    การใช้งานในระบบ HPC และ AI
    Discovery (สหรัฐฯ) และ Alice Recoque (ยุโรป)

    AMD เตรียมเปิดตัว MI455X
    ตั้งเป้า disrupt ตลาดแข่งกับ NVIDIA Rubin AI

    ความท้าทายด้านการแข่งขัน
    ตลาด AI compute กำลังร้อนแรง ทำให้ AMD ต้องเร่งพัฒนาเพื่อตามทัน NVIDIA

    ความเสี่ยงด้านพลังงานและซัพพลายเชน
    การใช้หน่วยความจำ HBM4 ขนาดใหญ่ต้องการการผลิตที่มีต้นทุนสูงและอาจกระทบต่อราคาในตลาด

    https://wccftech.com/amd-unveils-the-instinct-mi430x-ai-chip-for-leadership-performance/
    🖥️ AMD เปิดตัว Instinct MI430X AMD ได้เผยโฉม Instinct MI430X ซึ่งเป็นรุ่นต่อยอดจาก MI300A โดยใช้สถาปัตยกรรม CDNA รุ่นใหม่ (คาดว่า CDNA 5) จุดเด่นคือการใช้หน่วยความจำ HBM4 ขนาด 432GB และแบนด์วิดท์สูงถึง 19.6TB/s ถือเป็นการยกระดับครั้งใหญ่จากรุ่นก่อนหน้า ทำให้เหมาะกับงานที่ต้องการประสิทธิภาพสูง เช่นการประมวลผล FP64 และการฝึกโมเดล AI ขนาดใหญ่ ⚡ การใช้งานในซูเปอร์คอมพิวเตอร์ระดับโลก MI430X จะถูกนำไปใช้ในระบบ HPC และ AI หลายแห่ง เช่น 🎗️ Discovery ที่ Oak Ridge National Laboratory (สหรัฐฯ) ซึ่งเป็นหนึ่งใน “AI Factory” แรกของประเทศ 🎗️ Alice Recoque ระบบ Exascale-class ในยุโรป ที่ใช้แพลตฟอร์ม BullSequana XH3500 ของ Eviden เพื่อรองรับงาน HPC และ AI พร้อมเป้าหมายด้านประสิทธิภาพพลังงาน 🔍 การแข่งขันกับ NVIDIA AMD ยังเตรียมเปิดตัวรุ่น Instinct MI455X ที่ตั้งเป้าแข่งกับ NVIDIA Rubin AI lineup โดยเน้น disrupt ตลาด AI compute ที่กำลังเติบโตอย่างรวดเร็ว การเคลื่อนไหวนี้สะท้อนถึงความตั้งใจของ AMD ที่จะเป็นผู้นำในตลาด AI และ HPC ที่กำลังขยายตัว 🌐 ผลกระทบต่ออนาคต AI และ HPC การเปิดตัว MI430X ไม่เพียงแต่เพิ่มขีดความสามารถด้านการประมวลผล แต่ยังช่วยให้ยุโรปและสหรัฐฯ มีเครื่องมือใหม่ในการแข่งขันกับจีนในด้านซูเปอร์คอมพิวเตอร์และ AI การใช้หน่วยความจำ HBM4 ที่มีแบนด์วิดท์สูงยังเป็นการปูทางไปสู่การพัฒนาโมเดล AI ที่ซับซ้อนและใหญ่ขึ้นในอนาคต 📌 สรุปประเด็นสำคัญ ✅ Instinct MI430X ใช้สถาปัตยกรรม CDNA รุ่นใหม่ ➡️ หน่วยความจำ HBM4 ขนาด 432GB และแบนด์วิดท์ 19.6TB/s ✅ การใช้งานในระบบ HPC และ AI ➡️ Discovery (สหรัฐฯ) และ Alice Recoque (ยุโรป) ✅ AMD เตรียมเปิดตัว MI455X ➡️ ตั้งเป้า disrupt ตลาดแข่งกับ NVIDIA Rubin AI ‼️ ความท้าทายด้านการแข่งขัน ⛔ ตลาด AI compute กำลังร้อนแรง ทำให้ AMD ต้องเร่งพัฒนาเพื่อตามทัน NVIDIA ‼️ ความเสี่ยงด้านพลังงานและซัพพลายเชน ⛔ การใช้หน่วยความจำ HBM4 ขนาดใหญ่ต้องการการผลิตที่มีต้นทุนสูงและอาจกระทบต่อราคาในตลาด https://wccftech.com/amd-unveils-the-instinct-mi430x-ai-chip-for-leadership-performance/
    WCCFTECH.COM
    AMD Unveils the Instinct MI430X AI Chip For "Leadership Performance" On AI Systems, Featuring HBM4 Memory & Next-Gen CDNA Architecture
    AMD has unveiled one of its first models in the Instinct MI400 lineup, the MI430X, which is built specifically for HPC system buildouts.
    0 Comments 0 Shares 206 Views 0 Reviews
  • ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง

    ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่

    สเปกและเทคโนโลยีล้ำสมัย
    Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ

    พลังงานและการติดตั้ง
    ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ

    การใช้งานและอนาคต
    Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026

    สรุปประเด็นสำคัญ
    เปิดตัว Alice Recoque
    ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป

    สเปกหลัก
    ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4)

    โครงสร้างระบบ
    94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage

    พลังงานและการระบายความร้อน
    ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5

    การติดตั้งและการดำเนินงาน
    ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA

    ความท้าทายด้านเวลาและเทคโนโลยี
    ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว

    ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่
    หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน

    https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    ⚡ ยุโรปเปิดตัวซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สอง ยุโรปได้เปิดตัวซูเปอร์คอมพิวเตอร์ Alice Recoque ซึ่งถือเป็นระบบ Exascale เครื่องที่สองของภูมิภาค โดยใช้พลังจากซีพียู AMD EPYC “Venice” รุ่นใหม่และจีพียู Instinct MI430X ที่ออกแบบมาเพื่อรองรับงานด้าน AI และการประมวลผลทางวิทยาศาสตร์ขนาดใหญ่ 🖥️ สเปกและเทคโนโลยีล้ำสมัย Alice Recoque จะประกอบด้วย 94 แร็ค บนแพลตฟอร์ม BullSequana XH3500 ของ Eviden พร้อมระบบจัดเก็บข้อมูลจาก DDN และโครงสร้างการเชื่อมต่อ BXI fabric ที่ช่วยให้การประมวลผลแบบขยายตัวมีประสิทธิภาพสูงสุด ซีพียู Venice มีจำนวนคอร์สูงสุดถึง 256 คอร์ ขณะที่จีพียู MI430X มาพร้อมหน่วยความจำ HBM4 ขนาด 432 GB และรองรับรูปแบบข้อมูล FP4 และ FP8 เพื่อให้เหมาะกับงาน AI โดยเฉพาะ 🌍 พลังงานและการติดตั้ง ระบบนี้จะใช้พลังงานประมาณ 12 เมกะวัตต์ ภายใต้การทำงานปกติ และใช้เทคโนโลยี การระบายความร้อนด้วยน้ำอุ่นรุ่นที่ 5 ของ Eviden เพื่อจัดการกับความร้อนจากส่วนประกอบที่ใช้พลังงานสูง ซูเปอร์คอมพิวเตอร์จะถูกติดตั้งที่ประเทศฝรั่งเศส ภายใต้การดูแลของ GENCI และดำเนินงานโดย CEA โดยมีการสนับสนุนจากหลายประเทศในยุโรป เช่น เนเธอร์แลนด์ และกรีซ 🔮 การใช้งานและอนาคต Alice Recoque จะถูกใช้ในงานวิจัยที่หลากหลาย ตั้งแต่ การพัฒนาโมเดล AI, การแพทย์เฉพาะบุคคล, การวิจัยสภาพภูมิอากาศ, ไปจนถึง การวิเคราะห์ข้อมูลจากดาวเทียมและกล้องโทรทรรศน์ คาดว่าระบบจะเริ่มใช้งานจริงในช่วงปี 2027–2028 หลังจาก AMD เปิดตัวซีพียู Venice และจีพียู MI430X อย่างเป็นทางการในปี 2026 📌 สรุปประเด็นสำคัญ ✅ เปิดตัว Alice Recoque ➡️ ซูเปอร์คอมพิวเตอร์ Exascale เครื่องที่สองของยุโรป ✅ สเปกหลัก ➡️ ใช้ AMD EPYC Venice (256 คอร์) และ Instinct MI430X (432 GB HBM4) ✅ โครงสร้างระบบ ➡️ 94 แร็ค บน BullSequana XH3500 พร้อม BXI fabric และ DDN storage ✅ พลังงานและการระบายความร้อน ➡️ ใช้พลังงาน ~12 เมกะวัตต์ พร้อมระบบน้ำอุ่นรุ่นที่ 5 ✅ การติดตั้งและการดำเนินงาน ➡️ ติดตั้งที่ฝรั่งเศส ดูแลโดย GENCI และ CEA ‼️ ความท้าทายด้านเวลาและเทคโนโลยี ⛔ ระบบจะพร้อมใช้งานจริงได้ราวปี 2027–2028 หลังจากฮาร์ดแวร์หลักเปิดตัว ‼️ ความเสี่ยงจากการพึ่งพาเทคโนโลยีใหม่ ⛔ หากการพัฒนา Venice และ MI430X ล่าช้า อาจกระทบต่อกำหนดการใช้งาน https://www.tomshardware.com/tech-industry/supercomputers/amd-and-eviden-unveil-europes-second-exascale-system-epyc-venice-and-instinct-mi430x-power-system-breaks-the-exaflop-barrier
    0 Comments 0 Shares 264 Views 0 Reviews
  • ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง!

    เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม

    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์

    John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025
    ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง
    เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง

    ความร่วมมือกับ HPE และบริษัทชิป
    เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง
    รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา

    ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล
    สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้
    มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล

    การเปลี่ยนจากต้นแบบสู่การผลิตจริง
    ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้
    ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป

    คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป
    ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด
    การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี

    การลงทุนในเทคโนโลยีนี้มีความเสี่ยง
    ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน
    บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง

    https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    🧠 ข่าวใหญ่แห่งโลกเทคโนโลยี: นักฟิสิกส์รางวัลโนเบลจับมือ HPE และอุตสาหกรรมชิป สร้างซูเปอร์คอมพิวเตอร์ควอนตัมใช้งานจริง! เรื่องราวนี้เริ่มต้นจาก John M. Martinis นักฟิสิกส์ผู้คว้ารางวัลโนเบลปี 2025 จากผลงานด้านควอนตัมคอมพิวติ้ง ล่าสุดเขาได้ร่วมมือกับ HPE และบริษัทชิปหลายแห่ง เพื่อสร้าง “ควอนตัมซูเปอร์คอมพิวเตอร์” ที่ไม่ใช่แค่ต้นแบบในห้องแล็บ แต่สามารถผลิตใช้งานได้จริงในระดับอุตสาหกรรม ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาซับซ้อนในสาขาเคมี การแพทย์ และวัสดุศาสตร์ ที่คอมพิวเตอร์ทั่วไปต้องใช้เวลานับพันปีในการประมวลผล ความร่วมมือครั้งนี้จึงเป็นก้าวสำคัญในการเปลี่ยนเทคโนโลยีล้ำยุคให้กลายเป็นเครื่องมือที่ใช้งานได้จริงในภาคธุรกิจและวิทยาศาสตร์ ✅ John M. Martinis ผู้คว้ารางวัลโนเบลปี 2025 ➡️ ได้รับรางวัลจากผลงานด้านควอนตัมคอมพิวติ้ง ➡️ เป็นผู้นำในการผลักดันเทคโนโลยีควอนตัมสู่การใช้งานจริง ✅ ความร่วมมือกับ HPE และบริษัทชิป ➡️ เป้าหมายคือสร้างควอนตัมซูเปอร์คอมพิวเตอร์ที่ผลิตได้จริง ➡️ รวมพลังจากภาคธุรกิจและวิทยาศาสตร์เพื่อเร่งการพัฒนา ✅ ควอนตัมคอมพิวเตอร์มีศักยภาพมหาศาล ➡️ สามารถแก้ปัญหาทางเคมีและการแพทย์ที่คอมพิวเตอร์ทั่วไปทำไม่ได้ ➡️ มีบทบาทสำคัญในการค้นคว้ายาใหม่ การออกแบบวัสดุ และการจำลองโมเลกุล ✅ การเปลี่ยนจากต้นแบบสู่การผลิตจริง ➡️ ความท้าทายคือการทำให้ระบบควอนตัมมีเสถียรภาพและสามารถผลิตจำนวนมากได้ ➡️ ต้องอาศัยการออกแบบร่วมกันระหว่างนักฟิสิกส์ วิศวกร และผู้ผลิตชิป ‼️ คำเตือน: ควอนตัมคอมพิวเตอร์ยังไม่พร้อมใช้งานทั่วไป ⛔ ยังต้องการการพัฒนาเพิ่มเติมในด้านการควบคุม qubit และการแก้ไขข้อผิดพลาด ⛔ การใช้งานในระดับผู้บริโภคยังอยู่ห่างไกล ต้องรอการพัฒนาอีกหลายปี ‼️ การลงทุนในเทคโนโลยีนี้มีความเสี่ยง ⛔ ต้องใช้เงินทุนมหาศาลและอาจใช้เวลานานกว่าจะเห็นผลตอบแทน ⛔ บริษัทที่ลงทุนต้องมีวิสัยทัศน์ระยะยาวและความเข้าใจในเทคโนโลยีขั้นสูง https://www.thestar.com.my/tech/tech-news/2025/11/10/nobel-winner-hpe-and-chip-industry-firms-team-up-to-make-a-practical-quantum-supercomputer
    WWW.THESTAR.COM.MY
    Nobel winner, HPE and chip industry firms team up to make a practical quantum supercomputer
    SAN FRANCISCO (Reuters) -John M. Martinis, one of this year's winners of the Nobel Prize in physics for breakthroughs in quantum computing, on Monday formed an alliance with HPE and several chip firms to create a practical, mass-producible quantum supercomputer.
    0 Comments 0 Shares 309 Views 0 Reviews
  • Elon Musk เผยแผนสร้าง “TeraFab” โรงงานผลิตชิปขนาดยักษ์ของ Tesla – Jensen Huang เตือน “มันยากกว่าที่คิด”

    Elon Musk ประกาศว่า Tesla อาจต้องสร้างโรงงานผลิตชิปของตัวเองชื่อว่า TeraFab เพื่อรองรับความต้องการชิป AI ที่เพิ่มขึ้นอย่างมหาศาล หลังจากโครงการ Dojo ถูกยกเลิก และ Tesla หันมาใช้ชิป AI5 ของตัวเองแทน GPU จาก Nvidia โดยตั้งเป้าให้ TeraFab มีขนาดใหญ่กว่า “Gigafab” ของ TSMC ซึ่งผลิตได้มากกว่า 100,000 wafer ต่อเดือน

    อย่างไรก็ตาม Jensen Huang ซีอีโอของ Nvidia เตือนว่า “การสร้างโรงงานผลิตชิปขั้นสูงนั้นยากมาก” ไม่ใช่แค่เรื่องการก่อสร้าง แต่รวมถึง วิศวกรรม วิทยาศาสตร์ และศิลปะของการผลิต ที่ต้องใช้ประสบการณ์และความเชี่ยวชาญระดับสูง

    แผนการของ Tesla
    Elon Musk เผยว่าอาจต้องสร้าง “TeraFab” เพื่อผลิตชิป AI เอง
    เปรียบเทียบว่าใหญ่กว่า Gigafab ของ TSMC
    ต้องการรองรับความต้องการชิป AI5 สำหรับรถยนต์และหุ่นยนต์
    ปัจจุบันใช้ชิปจาก TSMC และ Samsung แต่ยังไม่พอ

    ความท้าทายในการสร้างโรงงานผลิตชิป
    Jensen Huang เตือนว่า “มันยากมาก”
    ไม่ใช่แค่การสร้างโรงงาน แต่รวมถึงการพัฒนาเทคโนโลยีการผลิต
    ต้องใช้เวลาหลายปีและทีมวิศวกรที่มีประสบการณ์สูง
    ตัวอย่างเช่น Rapidus ในญี่ปุ่นต้องใช้เงินกว่า $32 พันล้านเพื่อพัฒนาเทคโนโลยี 2nm

    ความต้องการชิปของ Tesla
    Tesla มีซูเปอร์คอมพิวเตอร์ AI ขนาดใหญ่
    ต้องการชิป AI5 สำหรับศูนย์ข้อมูล รถยนต์ และหุ่นยนต์
    แม้จะใช้ GPU ของ Nvidia อยู่ แต่ยังไม่เพียงพอในระยะยาว

    คำเตือนเกี่ยวกับการเข้าสู่อุตสาหกรรมเซมิคอนดักเตอร์
    การพัฒนาเทคโนโลยีการผลิตชิปต้องใช้เวลา 5 ปีขึ้นไป
    ต้องมีการวิจัยวัสดุ ทรานซิสเตอร์ และกระบวนการผลิตที่ซับซ้อน
    การรวมกระบวนการหลายร้อยขั้นตอนต้องการความแม่นยำระดับอะตอม
    การบรรลุผลผลิตสูงในระดับอุตสาหกรรมเป็นเรื่องยากมาก

    https://www.tomshardware.com/tech-industry/semiconductors/elon-musk-says-terafab-chip-fab-may-be-the-only-answer-to-teslas-colossal-ai-semiconductor-demand-nvidia-ceo-jensen-huang-warns-against-extremely-hard-challenge
    🏭⚠️ Elon Musk เผยแผนสร้าง “TeraFab” โรงงานผลิตชิปขนาดยักษ์ของ Tesla – Jensen Huang เตือน “มันยากกว่าที่คิด” Elon Musk ประกาศว่า Tesla อาจต้องสร้างโรงงานผลิตชิปของตัวเองชื่อว่า TeraFab เพื่อรองรับความต้องการชิป AI ที่เพิ่มขึ้นอย่างมหาศาล หลังจากโครงการ Dojo ถูกยกเลิก และ Tesla หันมาใช้ชิป AI5 ของตัวเองแทน GPU จาก Nvidia โดยตั้งเป้าให้ TeraFab มีขนาดใหญ่กว่า “Gigafab” ของ TSMC ซึ่งผลิตได้มากกว่า 100,000 wafer ต่อเดือน อย่างไรก็ตาม Jensen Huang ซีอีโอของ Nvidia เตือนว่า “การสร้างโรงงานผลิตชิปขั้นสูงนั้นยากมาก” ไม่ใช่แค่เรื่องการก่อสร้าง แต่รวมถึง วิศวกรรม วิทยาศาสตร์ และศิลปะของการผลิต ที่ต้องใช้ประสบการณ์และความเชี่ยวชาญระดับสูง ✅ แผนการของ Tesla ➡️ Elon Musk เผยว่าอาจต้องสร้าง “TeraFab” เพื่อผลิตชิป AI เอง ➡️ เปรียบเทียบว่าใหญ่กว่า Gigafab ของ TSMC ➡️ ต้องการรองรับความต้องการชิป AI5 สำหรับรถยนต์และหุ่นยนต์ ➡️ ปัจจุบันใช้ชิปจาก TSMC และ Samsung แต่ยังไม่พอ ✅ ความท้าทายในการสร้างโรงงานผลิตชิป ➡️ Jensen Huang เตือนว่า “มันยากมาก” ➡️ ไม่ใช่แค่การสร้างโรงงาน แต่รวมถึงการพัฒนาเทคโนโลยีการผลิต ➡️ ต้องใช้เวลาหลายปีและทีมวิศวกรที่มีประสบการณ์สูง ➡️ ตัวอย่างเช่น Rapidus ในญี่ปุ่นต้องใช้เงินกว่า $32 พันล้านเพื่อพัฒนาเทคโนโลยี 2nm ✅ ความต้องการชิปของ Tesla ➡️ Tesla มีซูเปอร์คอมพิวเตอร์ AI ขนาดใหญ่ ➡️ ต้องการชิป AI5 สำหรับศูนย์ข้อมูล รถยนต์ และหุ่นยนต์ ➡️ แม้จะใช้ GPU ของ Nvidia อยู่ แต่ยังไม่เพียงพอในระยะยาว ‼️ คำเตือนเกี่ยวกับการเข้าสู่อุตสาหกรรมเซมิคอนดักเตอร์ ⛔ การพัฒนาเทคโนโลยีการผลิตชิปต้องใช้เวลา 5 ปีขึ้นไป ⛔ ต้องมีการวิจัยวัสดุ ทรานซิสเตอร์ และกระบวนการผลิตที่ซับซ้อน ⛔ การรวมกระบวนการหลายร้อยขั้นตอนต้องการความแม่นยำระดับอะตอม ⛔ การบรรลุผลผลิตสูงในระดับอุตสาหกรรมเป็นเรื่องยากมาก https://www.tomshardware.com/tech-industry/semiconductors/elon-musk-says-terafab-chip-fab-may-be-the-only-answer-to-teslas-colossal-ai-semiconductor-demand-nvidia-ceo-jensen-huang-warns-against-extremely-hard-challenge
    0 Comments 0 Shares 249 Views 0 Reviews
  • “AMD เปิดตัว EPYC Venice 2nm และ MI400 GPU — แรงทะลุขีดจำกัด พร้อมลุยตลาด AI ปี 2026!”

    ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 AMD ประกาศข่าวใหญ่ที่เขย่าวงการเซิร์ฟเวอร์และ AI — การเปิดตัวซีพียู EPYC Venice ที่ใช้เทคโนโลยี 2 นาโนเมตร พร้อมสถาปัตยกรรม Zen 6 และ GPU รุ่นใหม่ Instinct MI400 ที่จะเปิดตัวพร้อมกันในปี 2026

    Dr. Lisa Su ซีอีโอของ AMD เผยว่า Venice silicon ได้เข้าสู่ห้องแล็บแล้ว และแสดงผลลัพธ์ที่ “ยอดเยี่ยม” ทั้งด้านประสิทธิภาพ ความ密度 และการใช้พลังงาน โดย Venice จะมาแทนที่รุ่น Turin (Zen 5) และมี OEM รายใหญ่หลายรายเริ่มใช้งานแพลตฟอร์มนี้แล้ว

    ในฝั่ง AI, Instinct MI400 จะมาพร้อมพลังประมวลผลสูงถึง 40 PFLOPs และหน่วยความจำ HBM4 ขนาด 432 GB ที่วิ่งด้วยแบนด์วิดธ์ 19.6 TB/s ซึ่งจะใช้ในระบบ Helios rack-scale ที่ออกแบบมาเพื่องาน AI training และ inference ระดับสูง โดยจะชนกับแพลตฟอร์ม Rubin ของ NVIDIA โดยตรง

    Oracle, OpenAI และกระทรวงพลังงานสหรัฐฯ (DOE) ได้เซ็นสัญญาใช้งาน MI450 และ MI430X แล้ว โดย OpenAI จะใช้พลังงานถึง 6 Gigawatts สำหรับ GPU จาก AMD ซึ่ง 1 Gigawatt จะเป็น MI450 รุ่นใหม่โดยเฉพาะ

    AMD เปิดตัว EPYC Venice 2nm CPU
    ใช้สถาปัตยกรรม Zen 6
    ผลิตด้วยเทคโนโลยี TSMC 2nm
    ประสิทธิภาพเหนือกว่า Zen 5 (Turin) อย่างชัดเจน
    OEM รายใหญ่เริ่มใช้งานแล้ว

    เปิดตัว Instinct MI400 GPU สำหรับงาน AI
    พลังประมวลผลสูงถึง 40 PFLOPs
    หน่วยความจำ HBM4 ขนาด 432 GB
    แบนด์วิดธ์ 19.6 TB/s
    ใช้ในระบบ Helios rack-scale

    ลูกค้ารายใหญ่ที่ร่วมใช้งาน
    Oracle จะใช้ MI450 ใน Oracle Cloud
    DOE เลือก MI430X และ Venice CPU สำหรับซูเปอร์คอมพิวเตอร์ Discovery
    OpenAI เซ็นสัญญาใช้ GPU จาก AMD รวม 6 Gigawatts

    ผลประกอบการ AMD ไตรมาส 3 ปี 2025
    รายได้รวม $9.2 พันล้าน เพิ่มขึ้น 36% จากปีก่อน
    รายได้จากกลุ่ม Client & Gaming เพิ่มขึ้น 73%
    Ryzen 9000 และ Radeon RX 9000 ขายดีต่อเนื่อง

    คำเตือนด้านการแข่งขันกับ NVIDIA
    MI400 ต้องชนกับ Rubin ซึ่งเป็นแพลตฟอร์ม AI ระดับสูงของ NVIDIA
    ตลาด AI มีการแข่งขันสูงและเปลี่ยนแปลงเร็ว

    คำเตือนด้านการเปิดตัวจริง
    Venice และ MI400 ยังอยู่ในขั้นทดลอง อาจมีการเปลี่ยนแปลงก่อนเปิดตัว
    ต้องรอการทดสอบจริงในระบบคลาวด์และซูเปอร์คอมพิวเตอร์

    https://wccftech.com/amd-epyc-venice-2nm-cpus-instinct-mi400-gpus-q3-2025-earnings-lisa-su/
    🧠🚀 “AMD เปิดตัว EPYC Venice 2nm และ MI400 GPU — แรงทะลุขีดจำกัด พร้อมลุยตลาด AI ปี 2026!” ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 AMD ประกาศข่าวใหญ่ที่เขย่าวงการเซิร์ฟเวอร์และ AI — การเปิดตัวซีพียู EPYC Venice ที่ใช้เทคโนโลยี 2 นาโนเมตร พร้อมสถาปัตยกรรม Zen 6 และ GPU รุ่นใหม่ Instinct MI400 ที่จะเปิดตัวพร้อมกันในปี 2026 Dr. Lisa Su ซีอีโอของ AMD เผยว่า Venice silicon ได้เข้าสู่ห้องแล็บแล้ว และแสดงผลลัพธ์ที่ “ยอดเยี่ยม” ทั้งด้านประสิทธิภาพ ความ密度 และการใช้พลังงาน โดย Venice จะมาแทนที่รุ่น Turin (Zen 5) และมี OEM รายใหญ่หลายรายเริ่มใช้งานแพลตฟอร์มนี้แล้ว ในฝั่ง AI, Instinct MI400 จะมาพร้อมพลังประมวลผลสูงถึง 40 PFLOPs และหน่วยความจำ HBM4 ขนาด 432 GB ที่วิ่งด้วยแบนด์วิดธ์ 19.6 TB/s ซึ่งจะใช้ในระบบ Helios rack-scale ที่ออกแบบมาเพื่องาน AI training และ inference ระดับสูง โดยจะชนกับแพลตฟอร์ม Rubin ของ NVIDIA โดยตรง Oracle, OpenAI และกระทรวงพลังงานสหรัฐฯ (DOE) ได้เซ็นสัญญาใช้งาน MI450 และ MI430X แล้ว โดย OpenAI จะใช้พลังงานถึง 6 Gigawatts สำหรับ GPU จาก AMD ซึ่ง 1 Gigawatt จะเป็น MI450 รุ่นใหม่โดยเฉพาะ ✅ AMD เปิดตัว EPYC Venice 2nm CPU ➡️ ใช้สถาปัตยกรรม Zen 6 ➡️ ผลิตด้วยเทคโนโลยี TSMC 2nm ➡️ ประสิทธิภาพเหนือกว่า Zen 5 (Turin) อย่างชัดเจน ➡️ OEM รายใหญ่เริ่มใช้งานแล้ว ✅ เปิดตัว Instinct MI400 GPU สำหรับงาน AI ➡️ พลังประมวลผลสูงถึง 40 PFLOPs ➡️ หน่วยความจำ HBM4 ขนาด 432 GB ➡️ แบนด์วิดธ์ 19.6 TB/s ➡️ ใช้ในระบบ Helios rack-scale ✅ ลูกค้ารายใหญ่ที่ร่วมใช้งาน ➡️ Oracle จะใช้ MI450 ใน Oracle Cloud ➡️ DOE เลือก MI430X และ Venice CPU สำหรับซูเปอร์คอมพิวเตอร์ Discovery ➡️ OpenAI เซ็นสัญญาใช้ GPU จาก AMD รวม 6 Gigawatts ✅ ผลประกอบการ AMD ไตรมาส 3 ปี 2025 ➡️ รายได้รวม $9.2 พันล้าน เพิ่มขึ้น 36% จากปีก่อน ➡️ รายได้จากกลุ่ม Client & Gaming เพิ่มขึ้น 73% ➡️ Ryzen 9000 และ Radeon RX 9000 ขายดีต่อเนื่อง ‼️ คำเตือนด้านการแข่งขันกับ NVIDIA ⛔ MI400 ต้องชนกับ Rubin ซึ่งเป็นแพลตฟอร์ม AI ระดับสูงของ NVIDIA ⛔ ตลาด AI มีการแข่งขันสูงและเปลี่ยนแปลงเร็ว ‼️ คำเตือนด้านการเปิดตัวจริง ⛔ Venice และ MI400 ยังอยู่ในขั้นทดลอง อาจมีการเปลี่ยนแปลงก่อนเปิดตัว ⛔ ต้องรอการทดสอบจริงในระบบคลาวด์และซูเปอร์คอมพิวเตอร์ https://wccftech.com/amd-epyc-venice-2nm-cpus-instinct-mi400-gpus-q3-2025-earnings-lisa-su/
    WCCFTECH.COM
    AMD's 2nm EPYC Venice "Zen 6" CPUs Are Performing Really Well & Delivering Substantial Gains, Will Launch Alongside Instinct MI400 In 2026, Confirms CEO Lisa Su
    AMD has announced its Q3 2025 earnings and stated that 2nm EPYC Venice "Zen 6" CPUs & Instinct MI400 GPUs are on track for a 2026 launch.
    0 Comments 0 Shares 279 Views 0 Reviews
  • Tesla จะกลายเป็นซูเปอร์คอมพิวเตอร์เคลื่อนที่? Elon Musk เสนอแนวคิดใช้รถว่างสร้างเครือข่าย AI ขนาด 100 ล้านคัน

    Elon Musk เผยไอเดียเปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผล AI ขนาดมหึมา ด้วยพลังคอมพิวเตอร์รวมกว่า 100 กิกะวัตต์ พร้อมชู AI5 ที่แรงกว่า AI4 ถึง 40 เท่า

    ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 Elon Musk ได้เสนอแนวคิดสุดล้ำ: เปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผลแบบ distributed inference fleet โดยใช้พลังคอมพิวเตอร์จากรถที่ไม่ได้ใช้งาน ซึ่งเขาเรียกว่า “รถที่เบื่อ”

    Musk ประเมินว่า หากมีรถ Tesla 100 ล้านคัน และแต่ละคันสามารถให้พลังประมวลผลได้ 1 กิโลวัตต์ ก็จะได้เครือข่ายรวมถึง 100 กิกะวัตต์ ซึ่งถือเป็น “สินทรัพย์มหาศาล” ที่มีระบบระบายความร้อนและจ่ายไฟในตัวอยู่แล้ว

    นอกจากนี้ Musk ยังพูดถึง AI5 ซึ่งเป็นฮาร์ดแวร์รุ่นใหม่ที่แรงกว่า AI4 ถึง 40 เท่า และจะเป็นหัวใจของระบบขับเคลื่อนอัตโนมัติที่ “ปลอดภัยกว่ามนุษย์” ถึง 10 เท่า โดยเฉพาะในรถรุ่นใหม่อย่าง Cyber Cab ที่จะเริ่มผลิตในไตรมาส 2 ปีหน้า

    แนวคิดนี้คล้ายกับโครงการ distributed computing อย่าง SETI@home หรือ Folding@home แต่ในเวอร์ชันที่ใช้รถยนต์เป็นหน่วยประมวลผล ซึ่งอาจกลายเป็นโมเดลธุรกิจใหม่ หากสามารถสร้างแรงจูงใจให้เจ้าของรถเข้าร่วมได้

    Elon Musk เสนอแนวคิดใช้รถ Tesla ที่จอดว่างเป็นเครือข่าย AI
    เรียกว่า “distributed inference fleet”
    ประเมินว่ารถ 100 ล้านคันจะให้พลังรวม 100 กิกะวัตต์
    รถมีระบบไฟและระบายความร้อนในตัวอยู่แล้ว

    การพัฒนา AI5 และระบบขับเคลื่อนอัตโนมัติ
    AI5 แรงกว่า AI4 ถึง 40 เท่า
    ระบบขับเคลื่อนอัตโนมัติจะปลอดภัยกว่ามนุษย์ 10 เท่า
    Cyber Cab จะเริ่มผลิตในไตรมาส 2 ปี 2026

    แนวคิดคล้ายกับ distributed computing แบบ SETI@home
    ใช้พลังจากอุปกรณ์ของผู้ใช้ในการประมวลผล
    อาจกลายเป็นโมเดลธุรกิจใหม่หากมีแรงจูงใจที่เหมาะสม

    https://www.tomshardware.com/tech-industry/elon-musk-says-idling-tesla-cars-could-create-massive-100-million-vehicle-strong-computer-for-ai-bored-vehicles-could-offer-100-gigawatts-of-distributed-compute-power
    🚗🧠 Tesla จะกลายเป็นซูเปอร์คอมพิวเตอร์เคลื่อนที่? Elon Musk เสนอแนวคิดใช้รถว่างสร้างเครือข่าย AI ขนาด 100 ล้านคัน Elon Musk เผยไอเดียเปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผล AI ขนาดมหึมา ด้วยพลังคอมพิวเตอร์รวมกว่า 100 กิกะวัตต์ พร้อมชู AI5 ที่แรงกว่า AI4 ถึง 40 เท่า ในงานแถลงผลประกอบการไตรมาส 3 ปี 2025 Elon Musk ได้เสนอแนวคิดสุดล้ำ: เปลี่ยนรถ Tesla ที่จอดว่างให้กลายเป็นเครือข่ายประมวลผลแบบ distributed inference fleet โดยใช้พลังคอมพิวเตอร์จากรถที่ไม่ได้ใช้งาน ซึ่งเขาเรียกว่า “รถที่เบื่อ” Musk ประเมินว่า หากมีรถ Tesla 100 ล้านคัน และแต่ละคันสามารถให้พลังประมวลผลได้ 1 กิโลวัตต์ ก็จะได้เครือข่ายรวมถึง 100 กิกะวัตต์ ซึ่งถือเป็น “สินทรัพย์มหาศาล” ที่มีระบบระบายความร้อนและจ่ายไฟในตัวอยู่แล้ว นอกจากนี้ Musk ยังพูดถึง AI5 ซึ่งเป็นฮาร์ดแวร์รุ่นใหม่ที่แรงกว่า AI4 ถึง 40 เท่า และจะเป็นหัวใจของระบบขับเคลื่อนอัตโนมัติที่ “ปลอดภัยกว่ามนุษย์” ถึง 10 เท่า โดยเฉพาะในรถรุ่นใหม่อย่าง Cyber Cab ที่จะเริ่มผลิตในไตรมาส 2 ปีหน้า แนวคิดนี้คล้ายกับโครงการ distributed computing อย่าง SETI@home หรือ Folding@home แต่ในเวอร์ชันที่ใช้รถยนต์เป็นหน่วยประมวลผล ซึ่งอาจกลายเป็นโมเดลธุรกิจใหม่ หากสามารถสร้างแรงจูงใจให้เจ้าของรถเข้าร่วมได้ ✅ Elon Musk เสนอแนวคิดใช้รถ Tesla ที่จอดว่างเป็นเครือข่าย AI ➡️ เรียกว่า “distributed inference fleet” ➡️ ประเมินว่ารถ 100 ล้านคันจะให้พลังรวม 100 กิกะวัตต์ ➡️ รถมีระบบไฟและระบายความร้อนในตัวอยู่แล้ว ✅ การพัฒนา AI5 และระบบขับเคลื่อนอัตโนมัติ ➡️ AI5 แรงกว่า AI4 ถึง 40 เท่า ➡️ ระบบขับเคลื่อนอัตโนมัติจะปลอดภัยกว่ามนุษย์ 10 เท่า ➡️ Cyber Cab จะเริ่มผลิตในไตรมาส 2 ปี 2026 ✅ แนวคิดคล้ายกับ distributed computing แบบ SETI@home ➡️ ใช้พลังจากอุปกรณ์ของผู้ใช้ในการประมวลผล ➡️ อาจกลายเป็นโมเดลธุรกิจใหม่หากมีแรงจูงใจที่เหมาะสม https://www.tomshardware.com/tech-industry/elon-musk-says-idling-tesla-cars-could-create-massive-100-million-vehicle-strong-computer-for-ai-bored-vehicles-could-offer-100-gigawatts-of-distributed-compute-power
    0 Comments 0 Shares 222 Views 0 Reviews
  • “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!”

    Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ

    Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE

    ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง

    ข้อมูลสำคัญจากข่าว
    Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ
    ใช้ GPU Blackwell รวมกว่า 100,000 ตัว
    พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI)
    ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU)
    Equinox จะเริ่มใช้งานในปี 2026

    จุดประสงค์ของโครงการ
    สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง
    พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์
    สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง
    ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI

    ความร่วมมือและการลงทุน
    ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE
    Oracle เป็นผู้สร้างระบบ Equinox และ Solstice
    ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT

    ระบบอื่นในโครงการ
    Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus
    ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    🚀 “Nvidia ผนึกกำลัง Oracle สร้าง 7 ซูเปอร์คอม AI ให้รัฐบาลสหรัฐ – รวมพลังทะลุ 2,200 ExaFLOPS ด้วย Blackwell กว่าแสนตัว!” Nvidia ประกาศความร่วมมือครั้งใหญ่กับ Oracle และกระทรวงพลังงานสหรัฐ (DOE) เพื่อสร้างซูเปอร์คอมพิวเตอร์ AI จำนวน 7 ระบบ โดยเฉพาะที่ Argonne National Laboratory ซึ่งจะเป็นที่ตั้งของ “Equinox” และ “Solstice” สองระบบหลักที่ใช้ GPU Blackwell รวมกันกว่า 100,000 ตัว ให้พลังประมวลผลรวมสูงถึง 2,200 ExaFLOPS สำหรับงาน AI โดยเฉพาะ Equinox จะเริ่มใช้งานในปี 2026 โดยใช้ GPU Blackwell จำนวน 10,000 ตัว ส่วน Solstice จะเป็นระบบขนาด 200 เมกะวัตต์ ที่ใช้ GPU Blackwell มากกว่า 100,000 ตัว และเมื่อเชื่อมต่อกับ Equinox จะกลายเป็นโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดของ DOE ระบบเหล่านี้จะถูกใช้ในการสร้างโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ และพัฒนา “agentic scientists” หรือ AI ที่สามารถค้นคว้าและตั้งสมมติฐานทางวิทยาศาสตร์ได้ด้วยตนเอง ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia และ Oracle สร้างซูเปอร์คอมพิวเตอร์ AI 7 ระบบให้รัฐบาลสหรัฐ ➡️ ใช้ GPU Blackwell รวมกว่า 100,000 ตัว ➡️ พลังประมวลผลรวม 2,200 ExaFLOPS (FP4 สำหรับ AI) ➡️ ระบบหลักคือ Equinox (10,000 GPU) และ Solstice (100,000+ GPU) ➡️ Equinox จะเริ่มใช้งานในปี 2026 ✅ จุดประสงค์ของโครงการ ➡️ สนับสนุนการวิจัยด้านวิทยาศาสตร์และความมั่นคง ➡️ พัฒนาโมเดล AI ขนาด 3 ล้านล้านพารามิเตอร์ ➡️ สร้าง “agentic AI” ที่สามารถตั้งสมมติฐานและทดลองได้เอง ➡️ ขับเคลื่อนการค้นพบทางวิทยาศาสตร์ด้วย AI ✅ ความร่วมมือและการลงทุน ➡️ ใช้โมเดล public-private partnership ระหว่าง Nvidia, Oracle และ DOE ➡️ Oracle เป็นผู้สร้างระบบ Equinox และ Solstice ➡️ ระบบจะใช้ซอฟต์แวร์ของ Nvidia เช่น Megatron-Core และ TensorRT ✅ ระบบอื่นในโครงการ ➡️ Argonne ยังจะได้ระบบใหม่อีก 3 ตัว: Tara, Minerva และ Janus ➡️ ทั้งหมดจะอยู่ภายใต้ Argonne Leadership Computing Facility https://www.tomshardware.com/tech-industry/supercomputers/nvidia-and-partners-to-build-seven-ai-supercomputers-for-the-u-s-govt-with-over-100-000-blackwell-gpus-combined-performance-of-2-200-exaflops-of-compute
    0 Comments 0 Shares 252 Views 0 Reviews
  • “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง”

    Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ

    สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก

    ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด

    แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision

    ข้อมูลสำคัญจากข่าว
    Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL
    ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin
    ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ
    Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA)
    Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI

    ความสามารถที่คาดการณ์ได้
    Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS
    คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า
    รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8

    ความสำคัญเชิงยุทธศาสตร์
    Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL
    Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด
    เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์

    ข้อควรระวังและข้อจำกัด
    Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง
    การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027
    การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    🧠 “Nvidia เปิดตัวซูเปอร์คอม Vera Rubin สำหรับห้องแล็บ Los Alamos – ชิงพื้นที่จาก AMD ในสนามวิจัย AI และความมั่นคง” Nvidia ประกาศความร่วมมือกับ HPE ในการสร้างซูเปอร์คอมพิวเตอร์ใหม่ 2 เครื่องให้กับ Los Alamos National Laboratory (LANL) โดยใช้แพลตฟอร์ม Vera Rubin ซึ่งประกอบด้วย CPU Vera รุ่นใหม่และ GPU Rubin ที่ออกแบบมาเพื่อรองรับงานวิจัยด้าน AI และความมั่นคงระดับชาติ สองระบบนี้มีชื่อว่า “Mission” และ “Vision” โดย Mission จะถูกใช้โดย National Nuclear Security Administration เพื่อจำลองและตรวจสอบความปลอดภัยของคลังอาวุธนิวเคลียร์โดยไม่ต้องทดสอบจริง ส่วน Vision จะรองรับงานวิจัยด้านวิทยาศาสตร์เปิดและ AI โดยต่อยอดจากซูเปอร์คอมพิวเตอร์ Venado ที่เคยติดอันดับ 19 ของโลก ระบบ Vera Rubin จะใช้เทคโนโลยี NVLink Gen6 สำหรับการเชื่อมต่อภายใน และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อภายนอก เพื่อเพิ่มประสิทธิภาพการประมวลผลแบบขนานและการสื่อสารระหว่างโหนด แม้ Nvidia ยังไม่เปิดเผยตัวเลขประสิทธิภาพของ Mission และ Vision แต่จากการเปรียบเทียบกับ Venado ที่มีพลัง FP64 ถึง 98.51 PFLOPS คาดว่า Vision จะมีพลังประมวลผลมากกว่า 2 เท่า และยังคงเน้นการรองรับ HPC แบบ FP64 ควบคู่กับ AI แบบ low-precision ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia ร่วมกับ HPE สร้างซูเปอร์คอมพิวเตอร์ “Mission” และ “Vision” ให้กับ LANL ➡️ ใช้แพลตฟอร์ม Vera Rubin: CPU Vera + GPU Rubin ➡️ ใช้ NVLink Gen6 และ QuantumX 800 InfiniBand สำหรับการเชื่อมต่อ ➡️ Mission ใช้ในงานด้านความมั่นคงนิวเคลียร์ (NNSA) ➡️ Vision ใช้ในงานวิจัยวิทยาศาสตร์เปิดและ AI ✅ ความสามารถที่คาดการณ์ได้ ➡️ Vision จะต่อยอดจาก Venado ที่มีพลัง FP64 98.51 PFLOPS ➡️ คาดว่าจะมีพลังประมวลผลมากกว่า 2 เท่า ➡️ รองรับทั้ง HPC แบบ FP64 และ AI แบบ FP4/FP8 ✅ ความสำคัญเชิงยุทธศาสตร์ ➡️ Mission เป็นระบบที่ 5 ในโครงการ AI ด้านความมั่นคงของ LANL ➡️ Vision จะช่วยผลักดันงานวิจัย AI และวิทยาศาสตร์แบบเปิด ➡️ เป็นการลงทุนสำคัญของสหรัฐในด้านความมั่นคงและวิทยาศาสตร์ ‼️ ข้อควรระวังและข้อจำกัด ⛔ Nvidia ยังไม่เปิดเผยสเปกละเอียดหรือตัวเลขประสิทธิภาพจริง ⛔ การพัฒนาและติดตั้งระบบจะใช้เวลาหลายปี – Mission คาดว่าจะใช้งานได้ในปี 2027 ⛔ การแข่งขันกับ AMD ยังดำเนินต่อ โดย AMD เพิ่งประกาศชัยชนะในโครงการซูเปอร์คอมพิวเตอร์ของกระทรวงพลังงาน https://www.tomshardware.com/tech-industry/supercomputers/nvidia-unveils-vera-rubin-supercomputers-for-los-alamos-national-laboratory-announcement-comes-on-heels-of-amds-recent-supercomputer-wins
    0 Comments 0 Shares 284 Views 0 Reviews
  • จีนเปิดตัว BIE-1 ซูเปอร์คอมพิวเตอร์เลียนแบบสมอง ขนาดเท่าตู้เย็น ใช้ไฟบ้านธรรมดา!

    นักวิทยาศาสตร์จีนจาก Guangdong Institute of Intelligent Science and Technology ได้เปิดตัว “BI Explorer 1” หรือ BIE-1 ซึ่งเป็นเซิร์ฟเวอร์ AI แบบ neuromorphic ที่เลียนแบบการทำงานของสมองมนุษย์ โดยมีขนาดเท่าตู้เย็นเล็ก แต่ประสิทธิภาพระดับซูเปอร์คอมพิวเตอร์ พร้อมใช้ไฟบ้านทั่วไป

    จุดเด่นของ BIE-1
    ขนาดกะทัดรัด: เทียบเท่าตู้เย็นขนาดเล็ก แต่สามารถทำงานได้เทียบเท่าระบบซูเปอร์คอมพิวเตอร์ขนาดห้อง
    ประหยัดพลังงาน: ใช้พลังงานน้อยกว่าระบบทั่วไปถึง 90% และยังคงอุณหภูมิ CPU ไม่เกิน 70°C แม้ใช้งานหนัก
    ประสิทธิภาพสูง: มี 1,152 CPU cores, RAM 4.8TB DDR5 และพื้นที่จัดเก็บ 204TB
    ใช้เทคโนโลยีเลียนแบบสมอง: ประมวลผลแบบ neural network ที่สามารถเรียนรู้และวิเคราะห์ข้อมูลได้อย่างมีประสิทธิภาพ
    รองรับการใช้งานหลากหลาย: เหมาะสำหรับบ้าน, สำนักงาน, หรือแม้แต่การใช้งานแบบเคลื่อนที่ เช่น รถพยาบาลหรือห้องเรียนเคลื่อนที่

    ข้อมูลสำคัญจากข่าว
    BIE-1 เป็นเซิร์ฟเวอร์ AI แบบ neuromorphic ที่เลียนแบบสมอง
    ขนาดเท่าตู้เย็น ใช้ไฟบ้านทั่วไป
    มี 1,152 CPU cores, RAM 4.8TB และพื้นที่จัดเก็บ 204TB
    ใช้พลังงานน้อยกว่าซูเปอร์คอมพิวเตอร์ทั่วไปถึง 90%
    อุณหภูมิ CPU ไม่เกิน 70°C แม้ใช้งานเต็มที่
    เหมาะสำหรับการใช้งานในบ้าน, สำนักงาน, หรือพื้นที่เคลื่อนที่

    เทคโนโลยีเลียนแบบสมอง
    ใช้ neural network ที่สามารถเรียนรู้และวิเคราะห์ข้อมูลได้อย่างมีประสิทธิภาพ
    รองรับการประมวลผลแบบ multimodal เช่น ข้อความ, ภาพ, และเสียง
    เหมาะสำหรับงานด้านสุขภาพ, การศึกษา, และผู้ช่วย AI ส่วนบุคคล

    ความเปรียบเทียบกับระบบเดิม
    เทียบกับ Intel Hala Point และ SpiNNaker 2 ที่ใช้พื้นที่ขนาดใหญ่
    BIE-1 เป็นระบบแบบ standalone ที่ไม่ต้องใช้ SSD, HDD หรือ GPU
    ใช้พลังงานน้อยกว่า “ซูเปอร์คอมพิวเตอร์ขนาดห้อง” ถึง 90%

    ข้อควรระวังและข้อจำกัด
    คำว่า “ซูเปอร์คอมพิวเตอร์” ยังไม่มีนิยามที่ชัดเจน ทำให้การเปรียบเทียบอาจคลุมเครือ
    ยังไม่มีข้อมูลราคาหรือวันวางจำหน่ายอย่างเป็นทางการ
    ข้อมูลจากแหล่งตะวันตกยังมีจำกัด อาจต้องรอการทดสอบเพิ่มเติมเพื่อยืนยันประสิทธิภาพจริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/china-builds-neuromorphic-ai-server-the-size-of-a-mini-fridge-bi-explorer-1-runs-on-a-household-socket-and-contains-1-152-cpu-cores
    🧠🧊 จีนเปิดตัว BIE-1 ซูเปอร์คอมพิวเตอร์เลียนแบบสมอง ขนาดเท่าตู้เย็น ใช้ไฟบ้านธรรมดา! นักวิทยาศาสตร์จีนจาก Guangdong Institute of Intelligent Science and Technology ได้เปิดตัว “BI Explorer 1” หรือ BIE-1 ซึ่งเป็นเซิร์ฟเวอร์ AI แบบ neuromorphic ที่เลียนแบบการทำงานของสมองมนุษย์ โดยมีขนาดเท่าตู้เย็นเล็ก แต่ประสิทธิภาพระดับซูเปอร์คอมพิวเตอร์ พร้อมใช้ไฟบ้านทั่วไป 📦 จุดเด่นของ BIE-1 💠 ขนาดกะทัดรัด: เทียบเท่าตู้เย็นขนาดเล็ก แต่สามารถทำงานได้เทียบเท่าระบบซูเปอร์คอมพิวเตอร์ขนาดห้อง 💠 ประหยัดพลังงาน: ใช้พลังงานน้อยกว่าระบบทั่วไปถึง 90% และยังคงอุณหภูมิ CPU ไม่เกิน 70°C แม้ใช้งานหนัก 💠 ประสิทธิภาพสูง: มี 1,152 CPU cores, RAM 4.8TB DDR5 และพื้นที่จัดเก็บ 204TB 💠 ใช้เทคโนโลยีเลียนแบบสมอง: ประมวลผลแบบ neural network ที่สามารถเรียนรู้และวิเคราะห์ข้อมูลได้อย่างมีประสิทธิภาพ 💠 รองรับการใช้งานหลากหลาย: เหมาะสำหรับบ้าน, สำนักงาน, หรือแม้แต่การใช้งานแบบเคลื่อนที่ เช่น รถพยาบาลหรือห้องเรียนเคลื่อนที่ ✅ ข้อมูลสำคัญจากข่าว ➡️ BIE-1 เป็นเซิร์ฟเวอร์ AI แบบ neuromorphic ที่เลียนแบบสมอง ➡️ ขนาดเท่าตู้เย็น ใช้ไฟบ้านทั่วไป ➡️ มี 1,152 CPU cores, RAM 4.8TB และพื้นที่จัดเก็บ 204TB ➡️ ใช้พลังงานน้อยกว่าซูเปอร์คอมพิวเตอร์ทั่วไปถึง 90% ➡️ อุณหภูมิ CPU ไม่เกิน 70°C แม้ใช้งานเต็มที่ ➡️ เหมาะสำหรับการใช้งานในบ้าน, สำนักงาน, หรือพื้นที่เคลื่อนที่ ✅ เทคโนโลยีเลียนแบบสมอง ➡️ ใช้ neural network ที่สามารถเรียนรู้และวิเคราะห์ข้อมูลได้อย่างมีประสิทธิภาพ ➡️ รองรับการประมวลผลแบบ multimodal เช่น ข้อความ, ภาพ, และเสียง ➡️ เหมาะสำหรับงานด้านสุขภาพ, การศึกษา, และผู้ช่วย AI ส่วนบุคคล ✅ ความเปรียบเทียบกับระบบเดิม ➡️ เทียบกับ Intel Hala Point และ SpiNNaker 2 ที่ใช้พื้นที่ขนาดใหญ่ ➡️ BIE-1 เป็นระบบแบบ standalone ที่ไม่ต้องใช้ SSD, HDD หรือ GPU ➡️ ใช้พลังงานน้อยกว่า “ซูเปอร์คอมพิวเตอร์ขนาดห้อง” ถึง 90% ‼️ ข้อควรระวังและข้อจำกัด ⛔ คำว่า “ซูเปอร์คอมพิวเตอร์” ยังไม่มีนิยามที่ชัดเจน ทำให้การเปรียบเทียบอาจคลุมเครือ ⛔ ยังไม่มีข้อมูลราคาหรือวันวางจำหน่ายอย่างเป็นทางการ ⛔ ข้อมูลจากแหล่งตะวันตกยังมีจำกัด อาจต้องรอการทดสอบเพิ่มเติมเพื่อยืนยันประสิทธิภาพจริง https://www.tomshardware.com/tech-industry/artificial-intelligence/china-builds-neuromorphic-ai-server-the-size-of-a-mini-fridge-bi-explorer-1-runs-on-a-household-socket-and-contains-1-152-cpu-cores
    0 Comments 0 Shares 234 Views 0 Reviews
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 Comments 0 Shares 331 Views 0 Reviews
  • Foxconn ทุ่มงบ $1.37 พันล้าน สร้างศูนย์ซูเปอร์คอมพิวเตอร์และคลัสเตอร์ AI — ขยายแพลตฟอร์มคลาวด์และเร่งพัฒนาโครงสร้างอัจฉริยะ

    Foxconn หรือ Hon Hai Precision Industry Co Ltd ประกาศแผนลงทุนสูงสุดถึง NT$42 พันล้าน (ประมาณ $1.37 พันล้านดอลลาร์สหรัฐ) เพื่อจัดซื้ออุปกรณ์สำหรับสร้างคลัสเตอร์ AI และศูนย์ซูเปอร์คอมพิวเตอร์ โดยจะใช้เงินทุนของบริษัทเองตั้งแต่เดือนธันวาคม 2025 ถึงธันวาคม 2026

    Foxconn ซึ่งเป็นผู้ผลิตอิเล็กทรอนิกส์รายใหญ่ที่สุดในโลก กำลังเร่งขยายธุรกิจด้าน AI และคลาวด์ โดยการลงทุนครั้งนี้มีเป้าหมายเพื่อเสริมความแข็งแกร่งให้กับแพลตฟอร์มคลาวด์ของบริษัท และเร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ” ที่เป็นยุทธศาสตร์หลักขององค์กร

    แม้จะยังไม่เปิดเผยสถานที่ตั้งของศูนย์ซูเปอร์คอมพิวเตอร์ แต่แผนนี้ต่อยอดจากโครงการก่อนหน้า เช่น การร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน และการผลิตอุปกรณ์ดาต้าเซ็นเตอร์ร่วมกับ SoftBank ที่โรงงานเดิมในรัฐโอไฮโอ สหรัฐฯ ซึ่งเป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริมโครงสร้างพื้นฐาน AI ในอเมริกา

    Foxconn กำลังเปลี่ยนบทบาทจากผู้ผลิตฮาร์ดแวร์แบบดั้งเดิม ไปสู่ผู้ให้บริการโครงสร้างพื้นฐาน AI ระดับโลก โดยเน้นการลงทุนใน compute power, cloud services และ edge AI

    Foxconn ลงทุน $1.37 พันล้านในคลัสเตอร์ AI
    ใช้เงินทุนของบริษัทเอง
    ลงทุนระหว่าง ธ.ค. 2025 – ธ.ค. 2026
    ยังไม่เปิดเผยสถานที่ตั้งของศูนย์

    เป้าหมายของการลงทุน
    ขยายแพลตฟอร์มคลาวด์ของกลุ่ม
    เร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ”
    เสริมศักยภาพด้าน compute และ AI infrastructure

    โครงการที่เกี่ยวข้องก่อนหน้า
    ร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน
    ผลิตอุปกรณ์ดาต้าเซ็นเตอร์กับ SoftBank ที่โอไฮโอ
    เป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริม AI infrastructure ในสหรัฐฯ

    คำเตือนสำหรับผู้ติดตามอุตสาหกรรม AI
    การลงทุนขนาดใหญ่ใน compute power อาจกระตุ้นการแข่งขันด้านพลังงานและทรัพยากร
    การขยายโครงสร้างพื้นฐาน AI ต้องมาพร้อมการจัดการด้านความปลอดภัยและความเป็นส่วนตัว
    การเปลี่ยนบทบาทของผู้ผลิตฮาร์ดแวร์อาจส่งผลต่อห่วงโซ่อุปทานเดิม

    https://www.thestar.com.my/tech/tech-news/2025/10/28/foxconn-to-invest-up-to-137-billion-in-ai-compute-cluster-supercomputing-centre
    🏭 Foxconn ทุ่มงบ $1.37 พันล้าน สร้างศูนย์ซูเปอร์คอมพิวเตอร์และคลัสเตอร์ AI — ขยายแพลตฟอร์มคลาวด์และเร่งพัฒนาโครงสร้างอัจฉริยะ Foxconn หรือ Hon Hai Precision Industry Co Ltd ประกาศแผนลงทุนสูงสุดถึง NT$42 พันล้าน (ประมาณ $1.37 พันล้านดอลลาร์สหรัฐ) เพื่อจัดซื้ออุปกรณ์สำหรับสร้างคลัสเตอร์ AI และศูนย์ซูเปอร์คอมพิวเตอร์ โดยจะใช้เงินทุนของบริษัทเองตั้งแต่เดือนธันวาคม 2025 ถึงธันวาคม 2026 Foxconn ซึ่งเป็นผู้ผลิตอิเล็กทรอนิกส์รายใหญ่ที่สุดในโลก กำลังเร่งขยายธุรกิจด้าน AI และคลาวด์ โดยการลงทุนครั้งนี้มีเป้าหมายเพื่อเสริมความแข็งแกร่งให้กับแพลตฟอร์มคลาวด์ของบริษัท และเร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ” ที่เป็นยุทธศาสตร์หลักขององค์กร แม้จะยังไม่เปิดเผยสถานที่ตั้งของศูนย์ซูเปอร์คอมพิวเตอร์ แต่แผนนี้ต่อยอดจากโครงการก่อนหน้า เช่น การร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน และการผลิตอุปกรณ์ดาต้าเซ็นเตอร์ร่วมกับ SoftBank ที่โรงงานเดิมในรัฐโอไฮโอ สหรัฐฯ ซึ่งเป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริมโครงสร้างพื้นฐาน AI ในอเมริกา Foxconn กำลังเปลี่ยนบทบาทจากผู้ผลิตฮาร์ดแวร์แบบดั้งเดิม ไปสู่ผู้ให้บริการโครงสร้างพื้นฐาน AI ระดับโลก โดยเน้นการลงทุนใน compute power, cloud services และ edge AI ✅ Foxconn ลงทุน $1.37 พันล้านในคลัสเตอร์ AI ➡️ ใช้เงินทุนของบริษัทเอง ➡️ ลงทุนระหว่าง ธ.ค. 2025 – ธ.ค. 2026 ➡️ ยังไม่เปิดเผยสถานที่ตั้งของศูนย์ ✅ เป้าหมายของการลงทุน ➡️ ขยายแพลตฟอร์มคลาวด์ของกลุ่ม ➡️ เร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ” ➡️ เสริมศักยภาพด้าน compute และ AI infrastructure ✅ โครงการที่เกี่ยวข้องก่อนหน้า ➡️ ร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน ➡️ ผลิตอุปกรณ์ดาต้าเซ็นเตอร์กับ SoftBank ที่โอไฮโอ ➡️ เป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริม AI infrastructure ในสหรัฐฯ ‼️ คำเตือนสำหรับผู้ติดตามอุตสาหกรรม AI ⛔ การลงทุนขนาดใหญ่ใน compute power อาจกระตุ้นการแข่งขันด้านพลังงานและทรัพยากร ⛔ การขยายโครงสร้างพื้นฐาน AI ต้องมาพร้อมการจัดการด้านความปลอดภัยและความเป็นส่วนตัว ⛔ การเปลี่ยนบทบาทของผู้ผลิตฮาร์ดแวร์อาจส่งผลต่อห่วงโซ่อุปทานเดิม https://www.thestar.com.my/tech/tech-news/2025/10/28/foxconn-to-invest-up-to-137-billion-in-ai-compute-cluster-supercomputing-centre
    WWW.THESTAR.COM.MY
    Foxconn to invest up to $1.37 billion in AI compute cluster, supercomputing centre
    TAIPEI (Reuters) -Taiwan's Foxconn said its board of directors has approved an investment plan to procure equipment for a AI compute cluster and a supercomputing centre, that will allow it to spend up to NT$42 billion ($1.37 billion).
    0 Comments 0 Shares 215 Views 0 Reviews
  • รัฐบาลทรัมป์เตรียมลงทุนในบริษัทควอนตัมคอมพิวติ้ง – แลกเงินสนับสนุนกับหุ้นบริษัทเอกชน

    รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์กำลังเจรจากับบริษัทควอนตัมคอมพิวติ้งชั้นนำเพื่อแลกเปลี่ยนเงินสนับสนุนจาก CHIPS Act กับหุ้นในบริษัทเหล่านั้น โดยมีเป้าหมายเพื่อส่งเสริมเทคโนโลยีควอนตัมที่อาจเปลี่ยนแปลงอุตสาหกรรมในอนาคต และเพิ่มบทบาทของรัฐบาลในฐานะนักลงทุนโดยตรงในภาคเอกชน

    บริษัทที่อยู่ระหว่างการเจรจา ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing โดยแต่ละแห่งต้องการเงินสนับสนุนอย่างน้อย 10 ล้านดอลลาร์จากกระทรวงพาณิชย์สหรัฐฯ ซึ่งจะได้รับหุ้นหรือเครื่องมือทางการเงินอื่นๆ ตอบแทน การลงทุนนี้จะมาจากสำนักงาน Chips Research and Development ซึ่งดูแลงบประมาณจาก CHIPS Act

    การเคลื่อนไหวครั้งนี้เกิดขึ้นหลังจากรัฐบาลได้เปลี่ยนเงินสนับสนุนมูลค่า 9 พันล้านดอลลาร์ให้กลายเป็นหุ้น 9.9% ใน Intel และ 15% ใน MP Materials ซึ่งเป็นผู้ผลิตแร่หายากในสหรัฐฯ ถือเป็นการเปลี่ยนแนวทางจากการให้เงินเปล่าเป็นการลงทุนที่มีผลตอบแทน

    ควอนตัมคอมพิวติ้งมีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์ทั่วไป โดยเฉพาะในด้านการค้นคว้ายาและวัสดุใหม่ๆ ซึ่งทำให้เทคโนโลยีนี้กลายเป็นสนามแข่งขันระดับโลก รัฐบาลสหรัฐฯ จึงต้องการเร่งผลักดันให้บริษัทในประเทศเติบโตและแข่งขันได้

    แผนการลงทุนของรัฐบาลสหรัฐฯ
    เจรจากับบริษัทควอนตัมคอมพิวติ้งเพื่อแลกเงินสนับสนุนกับหุ้น
    บริษัทที่เข้าร่วม ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing
    เงินสนับสนุนมาจาก CHIPS Act ผ่านสำนักงาน Chips R&D
    เปลี่ยนบทบาทรัฐบาลจากผู้ให้เงินสนับสนุนเป็นนักลงทุนโดยตรง

    ตัวอย่างการลงทุนที่ผ่านมา
    รัฐบาลถือหุ้น 9.9% ใน Intel จากเงินสนับสนุน 9 พันล้านดอลลาร์
    Pentagon ถือหุ้น 15% ใน MP Materials ผู้ผลิตแร่หายาก

    ความสำคัญของควอนตัมคอมพิวติ้ง
    มีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์
    ส่งผลต่อการค้นคว้ายา วัสดุ และอุตสาหกรรมอื่นๆ
    เป็นสนามแข่งขันระดับโลกด้านเทคโนโลยี

    ข้อควรระวังและความท้าทาย
    การลงทุนในเทคโนโลยีที่ยังไม่พิสูจน์อาจมีความเสี่ยงสูง
    หากบริษัทไม่ประสบความสำเร็จ รัฐบาลอาจสูญเสียเงินลงทุน
    การแทรกแซงของรัฐบาลในภาคเอกชนอาจกระทบต่อกลไกตลาด
    การแข่งขันกับประเทศอื่นในด้านควอนตัมอาจนำไปสู่ความตึงเครียดทางเทคโนโลยี

    https://www.tomshardware.com/tech-industry/quantum-computing/trump-administration-to-follow-up-intel-stake-with-investment-in-quantum-computing-report-claims-tens-of-millions-of-chips-act-dollars-could-be-paid-out-to-leading-companies-in-exchange-for-equity
    🇺🇸 รัฐบาลทรัมป์เตรียมลงทุนในบริษัทควอนตัมคอมพิวติ้ง – แลกเงินสนับสนุนกับหุ้นบริษัทเอกชน รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์กำลังเจรจากับบริษัทควอนตัมคอมพิวติ้งชั้นนำเพื่อแลกเปลี่ยนเงินสนับสนุนจาก CHIPS Act กับหุ้นในบริษัทเหล่านั้น โดยมีเป้าหมายเพื่อส่งเสริมเทคโนโลยีควอนตัมที่อาจเปลี่ยนแปลงอุตสาหกรรมในอนาคต และเพิ่มบทบาทของรัฐบาลในฐานะนักลงทุนโดยตรงในภาคเอกชน บริษัทที่อยู่ระหว่างการเจรจา ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing โดยแต่ละแห่งต้องการเงินสนับสนุนอย่างน้อย 10 ล้านดอลลาร์จากกระทรวงพาณิชย์สหรัฐฯ ซึ่งจะได้รับหุ้นหรือเครื่องมือทางการเงินอื่นๆ ตอบแทน การลงทุนนี้จะมาจากสำนักงาน Chips Research and Development ซึ่งดูแลงบประมาณจาก CHIPS Act การเคลื่อนไหวครั้งนี้เกิดขึ้นหลังจากรัฐบาลได้เปลี่ยนเงินสนับสนุนมูลค่า 9 พันล้านดอลลาร์ให้กลายเป็นหุ้น 9.9% ใน Intel และ 15% ใน MP Materials ซึ่งเป็นผู้ผลิตแร่หายากในสหรัฐฯ ถือเป็นการเปลี่ยนแนวทางจากการให้เงินเปล่าเป็นการลงทุนที่มีผลตอบแทน ควอนตัมคอมพิวติ้งมีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์ทั่วไป โดยเฉพาะในด้านการค้นคว้ายาและวัสดุใหม่ๆ ซึ่งทำให้เทคโนโลยีนี้กลายเป็นสนามแข่งขันระดับโลก รัฐบาลสหรัฐฯ จึงต้องการเร่งผลักดันให้บริษัทในประเทศเติบโตและแข่งขันได้ ✅ แผนการลงทุนของรัฐบาลสหรัฐฯ ➡️ เจรจากับบริษัทควอนตัมคอมพิวติ้งเพื่อแลกเงินสนับสนุนกับหุ้น ➡️ บริษัทที่เข้าร่วม ได้แก่ Atom Computing, D-Wave Quantum, IonQ, Rigetti Computing และ Quantum Computing ➡️ เงินสนับสนุนมาจาก CHIPS Act ผ่านสำนักงาน Chips R&D ➡️ เปลี่ยนบทบาทรัฐบาลจากผู้ให้เงินสนับสนุนเป็นนักลงทุนโดยตรง ✅ ตัวอย่างการลงทุนที่ผ่านมา ➡️ รัฐบาลถือหุ้น 9.9% ใน Intel จากเงินสนับสนุน 9 พันล้านดอลลาร์ ➡️ Pentagon ถือหุ้น 15% ใน MP Materials ผู้ผลิตแร่หายาก ✅ ความสำคัญของควอนตัมคอมพิวติ้ง ➡️ มีศักยภาพในการคำนวณที่เหนือกว่าซูเปอร์คอมพิวเตอร์ ➡️ ส่งผลต่อการค้นคว้ายา วัสดุ และอุตสาหกรรมอื่นๆ ➡️ เป็นสนามแข่งขันระดับโลกด้านเทคโนโลยี ‼️ ข้อควรระวังและความท้าทาย ⛔ การลงทุนในเทคโนโลยีที่ยังไม่พิสูจน์อาจมีความเสี่ยงสูง ⛔ หากบริษัทไม่ประสบความสำเร็จ รัฐบาลอาจสูญเสียเงินลงทุน ⛔ การแทรกแซงของรัฐบาลในภาคเอกชนอาจกระทบต่อกลไกตลาด ⛔ การแข่งขันกับประเทศอื่นในด้านควอนตัมอาจนำไปสู่ความตึงเครียดทางเทคโนโลยี https://www.tomshardware.com/tech-industry/quantum-computing/trump-administration-to-follow-up-intel-stake-with-investment-in-quantum-computing-report-claims-tens-of-millions-of-chips-act-dollars-could-be-paid-out-to-leading-companies-in-exchange-for-equity
    0 Comments 0 Shares 353 Views 0 Reviews
  • Quantum Echoes: Google สร้างประวัติศาสตร์ด้วยอัลกอริธึมควอนตัมที่ “เหนือกว่าซูเปอร์คอมพิวเตอร์” 13,000 เท่า

    Google Quantum AI ประกาศความก้าวหน้าครั้งสำคัญในโลกควอนตัม ด้วยการเปิดตัวอัลกอริธึมใหม่ชื่อว่า “Quantum Echoes” ซึ่งสามารถรันบนชิปควอนตัม Willow และแสดงให้เห็นถึง “quantum advantage” ที่สามารถตรวจสอบได้จริงเป็นครั้งแรกในประวัติศาสตร์ นั่นหมายความว่าอัลกอริธึมนี้สามารถทำงานได้เร็วกว่าและแม่นยำกว่าซูเปอร์คอมพิวเตอร์ทั่วไปถึง 13,000 เท่า!

    Quantum Echoes ใช้เทคนิคการส่งสัญญาณเข้าไปในระบบควอนตัม แล้วย้อนกลับสัญญาณเพื่อฟัง “เสียงสะท้อน” ที่เกิดจากการรบกวน qubit หนึ่งตัว ซึ่งเสียงสะท้อนนี้จะถูกขยายด้วยปรากฏการณ์ interference ทำให้สามารถวัดผลได้อย่างแม่นยำมาก

    อัลกอริธึมนี้สามารถใช้วิเคราะห์โครงสร้างของโมเลกุลและระบบธรรมชาติ เช่น แม่เหล็กหรือแม้แต่หลุมดำ โดยในงานวิจัยร่วมกับ UC Berkeley ทีมงานได้ใช้ Quantum Echoes เพื่อวิเคราะห์โมเลกุลขนาด 15 และ 28 อะตอม และได้ผลลัพธ์ที่ตรงกับเทคนิค Nuclear Magnetic Resonance (NMR) แบบดั้งเดิม พร้อมเผยข้อมูลที่ NMR ไม่สามารถให้ได้

    นี่คือก้าวสำคัญสู่การใช้ควอนตัมคอมพิวเตอร์ในโลกจริง เช่น การค้นคว้ายาใหม่ การออกแบบวัสดุ หรือการวิเคราะห์โครงสร้างอะตอมในระดับที่ไม่เคยทำได้มาก่อน

    ความสำเร็จของ Quantum Echoes
    เป็นอัลกอริธึมแรกที่แสดง “verifiable quantum advantage” ได้จริง
    รันบนชิป Willow ของ Google Quantum AI
    เร็วกว่าอัลกอริธึมคลาสสิกบนซูเปอร์คอมพิวเตอร์ถึง 13,000 เท่า

    วิธีการทำงานของ Quantum Echoes
    ส่งสัญญาณเข้าไปในระบบควอนตัม
    รบกวน qubit หนึ่งตัว แล้วย้อนสัญญาณเพื่อฟัง “เสียงสะท้อน”
    ใช้ interference เพื่อขยายผลการวัดให้แม่นยำ

    การประยุกต์ใช้งานจริง
    วิเคราะห์โครงสร้างโมเลกุลและระบบธรรมชาติ
    ใช้ข้อมูลจาก NMR เพื่อวัดโครงสร้างเคมีได้แม่นยำขึ้น
    อาจใช้ในการค้นคว้ายา, วัสดุใหม่, พลังงานแสงอาทิตย์ และฟิวชัน

    ความร่วมมือและการทดลอง
    ร่วมมือกับ UC Berkeley ในการทดลองกับโมเลกุล 15 และ 28 อะตอม
    ผลลัพธ์ตรงกับ NMR และให้ข้อมูลเพิ่มเติมที่ NMR ไม่สามารถให้ได้
    เป็นก้าวแรกสู่ “quantum-scope” ที่สามารถวัดปรากฏการณ์ธรรมชาติที่ไม่เคยเห็นมาก่อน

    https://blog.google/technology/research/quantum-echoes-willow-verifiable-quantum-advantage/
    ⚛️ Quantum Echoes: Google สร้างประวัติศาสตร์ด้วยอัลกอริธึมควอนตัมที่ “เหนือกว่าซูเปอร์คอมพิวเตอร์” 13,000 เท่า Google Quantum AI ประกาศความก้าวหน้าครั้งสำคัญในโลกควอนตัม ด้วยการเปิดตัวอัลกอริธึมใหม่ชื่อว่า “Quantum Echoes” ซึ่งสามารถรันบนชิปควอนตัม Willow และแสดงให้เห็นถึง “quantum advantage” ที่สามารถตรวจสอบได้จริงเป็นครั้งแรกในประวัติศาสตร์ นั่นหมายความว่าอัลกอริธึมนี้สามารถทำงานได้เร็วกว่าและแม่นยำกว่าซูเปอร์คอมพิวเตอร์ทั่วไปถึง 13,000 เท่า! Quantum Echoes ใช้เทคนิคการส่งสัญญาณเข้าไปในระบบควอนตัม แล้วย้อนกลับสัญญาณเพื่อฟัง “เสียงสะท้อน” ที่เกิดจากการรบกวน qubit หนึ่งตัว ซึ่งเสียงสะท้อนนี้จะถูกขยายด้วยปรากฏการณ์ interference ทำให้สามารถวัดผลได้อย่างแม่นยำมาก อัลกอริธึมนี้สามารถใช้วิเคราะห์โครงสร้างของโมเลกุลและระบบธรรมชาติ เช่น แม่เหล็กหรือแม้แต่หลุมดำ โดยในงานวิจัยร่วมกับ UC Berkeley ทีมงานได้ใช้ Quantum Echoes เพื่อวิเคราะห์โมเลกุลขนาด 15 และ 28 อะตอม และได้ผลลัพธ์ที่ตรงกับเทคนิค Nuclear Magnetic Resonance (NMR) แบบดั้งเดิม พร้อมเผยข้อมูลที่ NMR ไม่สามารถให้ได้ นี่คือก้าวสำคัญสู่การใช้ควอนตัมคอมพิวเตอร์ในโลกจริง เช่น การค้นคว้ายาใหม่ การออกแบบวัสดุ หรือการวิเคราะห์โครงสร้างอะตอมในระดับที่ไม่เคยทำได้มาก่อน ✅ ความสำเร็จของ Quantum Echoes ➡️ เป็นอัลกอริธึมแรกที่แสดง “verifiable quantum advantage” ได้จริง ➡️ รันบนชิป Willow ของ Google Quantum AI ➡️ เร็วกว่าอัลกอริธึมคลาสสิกบนซูเปอร์คอมพิวเตอร์ถึง 13,000 เท่า ✅ วิธีการทำงานของ Quantum Echoes ➡️ ส่งสัญญาณเข้าไปในระบบควอนตัม ➡️ รบกวน qubit หนึ่งตัว แล้วย้อนสัญญาณเพื่อฟัง “เสียงสะท้อน” ➡️ ใช้ interference เพื่อขยายผลการวัดให้แม่นยำ ✅ การประยุกต์ใช้งานจริง ➡️ วิเคราะห์โครงสร้างโมเลกุลและระบบธรรมชาติ ➡️ ใช้ข้อมูลจาก NMR เพื่อวัดโครงสร้างเคมีได้แม่นยำขึ้น ➡️ อาจใช้ในการค้นคว้ายา, วัสดุใหม่, พลังงานแสงอาทิตย์ และฟิวชัน ✅ ความร่วมมือและการทดลอง ➡️ ร่วมมือกับ UC Berkeley ในการทดลองกับโมเลกุล 15 และ 28 อะตอม ➡️ ผลลัพธ์ตรงกับ NMR และให้ข้อมูลเพิ่มเติมที่ NMR ไม่สามารถให้ได้ ➡️ เป็นก้าวแรกสู่ “quantum-scope” ที่สามารถวัดปรากฏการณ์ธรรมชาติที่ไม่เคยเห็นมาก่อน https://blog.google/technology/research/quantum-echoes-willow-verifiable-quantum-advantage/
    BLOG.GOOGLE
    Our Quantum Echoes algorithm is a big step toward real-world applications for quantum computing
    Our latest quantum breakthrough, Quantum Echoes, offers a path toward unprecedented scientific discoveries and analysis.
    0 Comments 0 Shares 225 Views 0 Reviews
  • “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!”

    จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก

    ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น

    สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า

    การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล

    ความสำเร็จของ Sunway Supercomputer
    ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์
    จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ
    ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens
    ประมวลผลเร็วกว่า exascale GPU หลายเท่า
    สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก

    ความสำคัญของการจำลองเคมีควอนตัม
    ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่
    ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่
    ลดต้นทุนและเวลาในการทดลองในห้องแล็บ
    เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล
    เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน

    ข้อควรระวังและคำเตือน
    การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล
    โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท
    การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ
    ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง
    การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง

    https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    🧬 “จีนสร้างซูเปอร์คอมพิวเตอร์ 37 ล้านคอร์ – จำลองเคมีควอนตัมระดับโมเลกุลด้วย AI!” จีนประกาศความสำเร็จครั้งใหญ่ในการจำลองเคมีควอนตัมระดับโมเลกุล ด้วยซูเปอร์คอมพิวเตอร์ Sunway ที่มีจำนวนคอร์ประมวลผลมากถึง 37 ล้านคอร์! ความสำเร็จนี้เกิดขึ้นจากการผสานพลังของ AI เข้ากับการคำนวณเชิงควอนตัม ซึ่งเป็นโจทย์ที่ซับซ้อนและใช้ทรัพยากรสูงมาก ทีมวิจัยจาก National Research Center of Parallel Computer Engineering & Technology (NRCPC) ใช้ Sunway supercomputer ในการจำลองปฏิกิริยาเคมีที่ซับซ้อนระดับอะตอม โดยใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ซึ่งช่วยให้สามารถวิเคราะห์โครงสร้างโมเลกุลและพฤติกรรมควอนตัมได้แม่นยำขึ้น สิ่งที่น่าทึ่งคือ Sunway ใช้สถาปัตยกรรมที่ออกแบบเองทั้งหมด โดยไม่พึ่งพาเทคโนโลยีจากตะวันตก และสามารถประมวลผลได้เร็วกว่าเครื่องระดับ exascale ที่ใช้ GPU แบบทั่วไปหลายเท่า การจำลองเคมีควอนตัมระดับนี้มีความสำคัญมากในงานด้านวัสดุศาสตร์ ยา และพลังงาน เพราะสามารถช่วยออกแบบโมเลกุลใหม่ ๆ ได้โดยไม่ต้องทดลองในห้องแล็บ ซึ่งลดต้นทุนและเวลาได้มหาศาล ✅ ความสำเร็จของ Sunway Supercomputer ➡️ ใช้คอร์ประมวลผลมากถึง 37 ล้านคอร์ ➡️ จำลองเคมีควอนตัมระดับโมเลกุลได้สำเร็จ ➡️ ใช้โมเดล AI ขนาดใหญ่ที่มี context ยาวถึง 20,000 tokens ➡️ ประมวลผลเร็วกว่า exascale GPU หลายเท่า ➡️ สถาปัตยกรรมออกแบบเอง ไม่พึ่งเทคโนโลยีตะวันตก ✅ ความสำคัญของการจำลองเคมีควอนตัม ➡️ ช่วยออกแบบวัสดุใหม่ เช่น ตัวนำยิ่งยวดหรือแบตเตอรี่ ➡️ ใช้ในงานด้านเภสัชกรรมเพื่อออกแบบยาใหม่ ➡️ ลดต้นทุนและเวลาในการทดลองในห้องแล็บ ➡️ เพิ่มความแม่นยำในการวิเคราะห์พฤติกรรมโมเลกุล ➡️ เป็นก้าวสำคัญในการรวม AI เข้ากับวิทยาศาสตร์พื้นฐาน ‼️ ข้อควรระวังและคำเตือน ⛔ การจำลองเคมีควอนตัมต้องใช้พลังงานมหาศาล ⛔ โมเดล AI ขนาดใหญ่ยังมีข้อจำกัดด้านความแม่นยำในบางบริบท ⛔ การพัฒนาเทคโนโลยีแบบปิดอาจขาดความร่วมมือจากนานาชาติ ⛔ ผลลัพธ์จากการจำลองยังต้องตรวจสอบกับการทดลองจริง ⛔ การใช้ซูเปอร์คอมพิวเตอร์ระดับนี้ต้องการบุคลากรที่มีความเชี่ยวชาญสูง https://www.tomshardware.com/tech-industry/supercomputers/china-supercomputer-breakthrough-models-complex-quantum-chemistry-at-molecular-scale-37-million-processor-cores-fuse-ai-and-quantum-science
    0 Comments 0 Shares 220 Views 0 Reviews
  • “Macrohard: โปรเจกต์ใหม่จาก Elon Musk ที่ผสานแนวคิด Apple + Microsoft” — เมื่อ xAI ตั้งเป้าสร้างแพลตฟอร์ม AI แบบครบวงจร โดยไม่ผลิตฮาร์ดแวร์เอง

    Elon Musk เปิดตัวโปรเจกต์ใหม่ชื่อ “Macrohard” ภายใต้บริษัท xAI โดยตั้งเป้าสร้างแพลตฟอร์ม AI ที่ “สามารถทำทุกอย่าง ยกเว้นผลิตฮาร์ดแวร์เอง” ซึ่งสะท้อนแนวคิดของ Apple ที่จ้างบริษัทอื่นผลิต iPhone และ Microsoft ที่เน้นการออกแบบซอฟต์แวร์และกำหนดมาตรฐาน

    Musk อธิบายว่า Macrohard จะเป็นการ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents” โดยไม่ต้องมีโรงงานผลิตของตัวเอง แต่จะกำหนดมาตรฐาน, ระบบปฏิบัติการ, และซอฟต์แวร์ให้บริษัทอื่นนำไปใช้ผลิตอุปกรณ์จริง

    แม้โมเดลนี้จะคล้ายกับ Microsoft ในแง่ของการออกใบอนุญาตซอฟต์แวร์ (licensing) แต่ก็มีความเป็น Apple ในแง่ของการควบคุมประสบการณ์ผู้ใช้และการออกแบบระบบแบบปิด

    โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาของคลัสเตอร์ซูเปอร์คอมพิวเตอร์ Colossus II ของ xAI ที่เมืองเมมฟิส รัฐเทนเนสซี ซึ่งเป็นโครงสร้างพื้นฐานหลักของโปรเจกต์นี้

    แม้ยังไม่มีรายละเอียดเชิงเทคนิคมากนัก แต่การที่ Musk ใช้คำว่า “profoundly impactful at an immense scale” ทำให้หลายฝ่ายคาดว่า Macrohard อาจเป็นก้าวสำคัญในการขยาย xAI จากโมเดล AI ไปสู่ระบบปฏิบัติการและแพลตฟอร์มเต็มรูปแบบ

    Elon Musk เปิดตัวโปรเจกต์ “Macrohard” ภายใต้ xAI
    ตั้งเป้าสร้างแพลตฟอร์ม AI โดยไม่ผลิตฮาร์ดแวร์เอง

    แนวคิดคล้าย Apple + Microsoft
    ออกแบบซอฟต์แวร์และกำหนดมาตรฐานให้บริษัทอื่นผลิต

    เป้าหมายคือ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents”
    ใช้ AI เขียนและปรับปรุงซอฟต์แวร์ระดับ production

    ใช้ซูเปอร์คอมพิวเตอร์ Colossus II เป็นโครงสร้างพื้นฐาน
    โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาคลัสเตอร์

    ยังไม่มีการเปิดรับสมัครงานภายนอกมากนัก
    คาดว่าส่วนใหญ่พัฒนาโดยทีมภายในและ AI agents

    https://www.techradar.com/pro/much-like-apple-elon-musks-macrohard-project-will-take-a-leaf-out-of-cupertinos-book-as-it-takes-on-microsoft-outsource-the-physical-produce-the-intangible
    🧠 “Macrohard: โปรเจกต์ใหม่จาก Elon Musk ที่ผสานแนวคิด Apple + Microsoft” — เมื่อ xAI ตั้งเป้าสร้างแพลตฟอร์ม AI แบบครบวงจร โดยไม่ผลิตฮาร์ดแวร์เอง Elon Musk เปิดตัวโปรเจกต์ใหม่ชื่อ “Macrohard” ภายใต้บริษัท xAI โดยตั้งเป้าสร้างแพลตฟอร์ม AI ที่ “สามารถทำทุกอย่าง ยกเว้นผลิตฮาร์ดแวร์เอง” ซึ่งสะท้อนแนวคิดของ Apple ที่จ้างบริษัทอื่นผลิต iPhone และ Microsoft ที่เน้นการออกแบบซอฟต์แวร์และกำหนดมาตรฐาน Musk อธิบายว่า Macrohard จะเป็นการ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents” โดยไม่ต้องมีโรงงานผลิตของตัวเอง แต่จะกำหนดมาตรฐาน, ระบบปฏิบัติการ, และซอฟต์แวร์ให้บริษัทอื่นนำไปใช้ผลิตอุปกรณ์จริง แม้โมเดลนี้จะคล้ายกับ Microsoft ในแง่ของการออกใบอนุญาตซอฟต์แวร์ (licensing) แต่ก็มีความเป็น Apple ในแง่ของการควบคุมประสบการณ์ผู้ใช้และการออกแบบระบบแบบปิด โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาของคลัสเตอร์ซูเปอร์คอมพิวเตอร์ Colossus II ของ xAI ที่เมืองเมมฟิส รัฐเทนเนสซี ซึ่งเป็นโครงสร้างพื้นฐานหลักของโปรเจกต์นี้ แม้ยังไม่มีรายละเอียดเชิงเทคนิคมากนัก แต่การที่ Musk ใช้คำว่า “profoundly impactful at an immense scale” ทำให้หลายฝ่ายคาดว่า Macrohard อาจเป็นก้าวสำคัญในการขยาย xAI จากโมเดล AI ไปสู่ระบบปฏิบัติการและแพลตฟอร์มเต็มรูปแบบ ✅ Elon Musk เปิดตัวโปรเจกต์ “Macrohard” ภายใต้ xAI ➡️ ตั้งเป้าสร้างแพลตฟอร์ม AI โดยไม่ผลิตฮาร์ดแวร์เอง ✅ แนวคิดคล้าย Apple + Microsoft ➡️ ออกแบบซอฟต์แวร์และกำหนดมาตรฐานให้บริษัทอื่นผลิต ✅ เป้าหมายคือ “จำลองบริษัทซอฟต์แวร์ทั้งบริษัทด้วย AI agents” ➡️ ใช้ AI เขียนและปรับปรุงซอฟต์แวร์ระดับ production ✅ ใช้ซูเปอร์คอมพิวเตอร์ Colossus II เป็นโครงสร้างพื้นฐาน ➡️ โลโก้ Macrohard ถูกเพนต์ไว้บนหลังคาคลัสเตอร์ ✅ ยังไม่มีการเปิดรับสมัครงานภายนอกมากนัก ➡️ คาดว่าส่วนใหญ่พัฒนาโดยทีมภายในและ AI agents https://www.techradar.com/pro/much-like-apple-elon-musks-macrohard-project-will-take-a-leaf-out-of-cupertinos-book-as-it-takes-on-microsoft-outsource-the-physical-produce-the-intangible
    0 Comments 0 Shares 208 Views 0 Reviews
  • “Jensen Huang ส่ง DGX Spark ด้วยตัวเองให้ Elon Musk และ Sam Altman — สะท้อนความแตกแยกในวงการ AI”

    Jensen Huang ซีอีโอของ NVIDIA กลับมาสวมบทบาท “พนักงานส่งของ” อีกครั้ง โดยนำ DGX Spark — ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ใช้ชิป Grace Blackwell GB200 — ไปส่งให้ Elon Musk และ Sam Altman ด้วยตัวเอง แต่ที่น่าสนใจคือเขาส่งให้ “แยกกัน” เพราะทั้งสองเคยเป็นผู้ร่วมก่อตั้ง OpenAI แต่ปัจจุบันกลายเป็นคู่แข่งที่ขับเคี่ยวกันอย่างดุเดือด

    DGX Spark มีพลังประมวลผลถึง 1 petaflop และหน่วยความจำ unified 128GB รองรับโมเดลขนาด 200B parameters ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ซึ่งเหมาะกับการใช้งานในระดับนักวิจัยหรือผู้พัฒนา AI ชั้นนำ

    Huang ส่งเครื่องให้ Musk ที่ฐาน Starbase ของ SpaceX พร้อมแซวว่า “ส่งซูเปอร์คอมพิวเตอร์ที่เล็กที่สุดให้กับจรวดที่ใหญ่ที่สุด” ส่วนฝั่ง Altman เขาไปส่งถึง OpenAI และถ่ายภาพร่วมกับ Greg Brockman และ Altman เหมือนย้อนกลับไปเมื่อ 9 ปีก่อนที่เขาเคยส่ง DGX-1 ให้ Musk ในฐานะผู้ร่วมก่อตั้ง OpenAI

    นอกจาก Musk และ Altman แล้ว DGX Spark ยังถูกส่งให้กับนักวิจัยจากบริษัทชั้นนำ เช่น Google, Meta, Microsoft, Hugging Face, JetBrains, Docker, Anaconda, LM Studio และ ComfyUI

    DGX Spark วางจำหน่ายในราคา $3,999 ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ โดยมีผู้ผลิตหลายราย เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI เตรียมออกเวอร์ชันของตัวเอง แต่ไม่มี “บริการส่งโดย Jensen” แน่นอน

    Jensen Huang ส่ง DGX Spark ให้ Elon Musk และ Sam Altman ด้วยตัวเอง
    สะท้อนความสัมพันธ์ที่เปลี่ยนไปจากผู้ร่วมก่อตั้งสู่คู่แข่ง

    DGX Spark ใช้ชิป Grace Blackwell GB200
    มีพลัง 1 petaflop และหน่วยความจำ unified 128GB

    รองรับโมเดลขนาด 200B parameters แบบ local
    ไม่ต้องพึ่งคลาวด์ในการรันโมเดลใหญ่

    ส่งให้บริษัทชั้นนำหลายแห่ง เช่น Google, Meta, Microsoft ฯลฯ
    รวมถึง Hugging Face, JetBrains, Docker และ ComfyUI

    วางจำหน่ายในราคา $3,999
    ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ

    ผู้ผลิตหลายรายเตรียมออกเวอร์ชันของตัวเอง
    เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI

    https://www.tomshardware.com/tech-industry/artificial-intelligence/jensen-huang-personally-delivers-dgx-spark-mini-pcs-to-elon-musk-and-sam-altman-separately
    🚚 “Jensen Huang ส่ง DGX Spark ด้วยตัวเองให้ Elon Musk และ Sam Altman — สะท้อนความแตกแยกในวงการ AI” Jensen Huang ซีอีโอของ NVIDIA กลับมาสวมบทบาท “พนักงานส่งของ” อีกครั้ง โดยนำ DGX Spark — ซูเปอร์คอมพิวเตอร์ขนาดเล็กที่ใช้ชิป Grace Blackwell GB200 — ไปส่งให้ Elon Musk และ Sam Altman ด้วยตัวเอง แต่ที่น่าสนใจคือเขาส่งให้ “แยกกัน” เพราะทั้งสองเคยเป็นผู้ร่วมก่อตั้ง OpenAI แต่ปัจจุบันกลายเป็นคู่แข่งที่ขับเคี่ยวกันอย่างดุเดือด DGX Spark มีพลังประมวลผลถึง 1 petaflop และหน่วยความจำ unified 128GB รองรับโมเดลขนาด 200B parameters ได้แบบ local โดยไม่ต้องพึ่งคลาวด์ ซึ่งเหมาะกับการใช้งานในระดับนักวิจัยหรือผู้พัฒนา AI ชั้นนำ Huang ส่งเครื่องให้ Musk ที่ฐาน Starbase ของ SpaceX พร้อมแซวว่า “ส่งซูเปอร์คอมพิวเตอร์ที่เล็กที่สุดให้กับจรวดที่ใหญ่ที่สุด” ส่วนฝั่ง Altman เขาไปส่งถึง OpenAI และถ่ายภาพร่วมกับ Greg Brockman และ Altman เหมือนย้อนกลับไปเมื่อ 9 ปีก่อนที่เขาเคยส่ง DGX-1 ให้ Musk ในฐานะผู้ร่วมก่อตั้ง OpenAI นอกจาก Musk และ Altman แล้ว DGX Spark ยังถูกส่งให้กับนักวิจัยจากบริษัทชั้นนำ เช่น Google, Meta, Microsoft, Hugging Face, JetBrains, Docker, Anaconda, LM Studio และ ComfyUI DGX Spark วางจำหน่ายในราคา $3,999 ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ โดยมีผู้ผลิตหลายราย เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI เตรียมออกเวอร์ชันของตัวเอง แต่ไม่มี “บริการส่งโดย Jensen” แน่นอน ✅ Jensen Huang ส่ง DGX Spark ให้ Elon Musk และ Sam Altman ด้วยตัวเอง ➡️ สะท้อนความสัมพันธ์ที่เปลี่ยนไปจากผู้ร่วมก่อตั้งสู่คู่แข่ง ✅ DGX Spark ใช้ชิป Grace Blackwell GB200 ➡️ มีพลัง 1 petaflop และหน่วยความจำ unified 128GB ✅ รองรับโมเดลขนาด 200B parameters แบบ local ➡️ ไม่ต้องพึ่งคลาวด์ในการรันโมเดลใหญ่ ✅ ส่งให้บริษัทชั้นนำหลายแห่ง เช่น Google, Meta, Microsoft ฯลฯ ➡️ รวมถึง Hugging Face, JetBrains, Docker และ ComfyUI ✅ วางจำหน่ายในราคา $3,999 ➡️ ผ่าน NVIDIA, Micro Center และพาร์ตเนอร์อื่น ๆ ✅ ผู้ผลิตหลายรายเตรียมออกเวอร์ชันของตัวเอง ➡️ เช่น Acer, Asus, Dell, Gigabyte, Lenovo, MSI และ HPI https://www.tomshardware.com/tech-industry/artificial-intelligence/jensen-huang-personally-delivers-dgx-spark-mini-pcs-to-elon-musk-and-sam-altman-separately
    WWW.TOMSHARDWARE.COM
    Jensen Huang personally delivers DGX Spark Mini PCs to Elon Musk and Sam Altman — separately
    Huang also ensured some of the first batch of DGX Spark systems got to top researchers at Cadence, Google, Meta, Microsoft, and others.
    0 Comments 0 Shares 268 Views 0 Reviews
  • “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ

    ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน

    Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7

    Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด

    Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10
    วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน

    ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน
    ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4)

    มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB
    รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์

    ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก.
    พกพาสะดวกแต่ทรงพลัง

    พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet
    รองรับการใช้งานระดับมืออาชีพ

    รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7
    ขยายการประมวลผลแบบ local ได้

    https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    🖥️ “Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI พลัง 1 เพตาฟลอป ก่อน Dell Pro Max GB10” — เมื่อซูเปอร์คอมพิวเตอร์ย่อส่วนมาถึงมือคุณ ในขณะที่ Dell ยังไม่เปิดให้สั่งซื้อเวิร์กสเตชัน AI รุ่น Pro Max GB10 ที่ใช้ชิป Grace Blackwell GB10 ของ Nvidia แต่ Asus กลับชิงเปิดตัวและวางจำหน่าย Ascent GX10 ซึ่งใช้ฮาร์ดแวร์เดียวกัน พร้อมส่งถึงมือผู้ซื้อภายในไม่กี่วัน Ascent GX10 เป็นเดสก์ท็อปขนาดเล็กที่ให้พลังประมวลผลระดับศูนย์ข้อมูล ด้วยชิป GB10 ที่รวม CPU และ GPU เข้าด้วยกันบนสถาปัตยกรรม Grace Blackwell ให้พลังสูงสุดถึง 1 เพตาฟลอป (FP4) พร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ เครื่องนี้มีขนาดเพียง 150 มม. x 150 มม. x 51 มม. น้ำหนัก 1.48 กก. แต่มีพอร์ตเชื่อมต่อครบครัน เช่น USB-C 180W PD, HDMI 2.1, Wi-Fi 7, Bluetooth 5 และ 10G Ethernet พร้อมระบบระบายความร้อนขั้นสูง และรองรับการเชื่อมต่อแบบ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 Asus วางจำหน่ายผ่าน Viperatech ในราคา $4,100 โดยเน้นกลุ่มนักพัฒนา AI ที่ต้องการพลังประมวลผลระดับสูงในขนาดกะทัดรัด ✅ Asus เปิดขาย Ascent GX10 เดสก์ท็อป AI ที่ใช้ชิป Nvidia GB10 ➡️ วางจำหน่ายผ่าน Viperatech ราคา $4,100 พร้อมจัดส่งภายใน 10 วัน ✅ ใช้ชิป Grace Blackwell GB10 รวม CPU และ GPU บนสถาปัตยกรรมเดียวกัน ➡️ ให้พลังประมวลผลสูงสุด 1 เพตาฟลอป (FP4) ✅ มาพร้อมหน่วยความจำ unified LPDDR5x ขนาด 128GB ➡️ รองรับโมเดล AI ขนาดสูงสุด 200 พันล้านพารามิเตอร์ ✅ ขนาดเล็กเพียง 150 x 150 x 51 มม. น้ำหนัก 1.48 กก. ➡️ พกพาสะดวกแต่ทรงพลัง ✅ พอร์ตเชื่อมต่อครบ: USB-C 180W PD, HDMI 2.1, Wi-Fi 7, 10G Ethernet ➡️ รองรับการใช้งานระดับมืออาชีพ ✅ รองรับ dual-system stacking ผ่าน NVLink-C2C และ ConnectX-7 ➡️ ขยายการประมวลผลแบบ local ได้ https://www.techradar.com/pro/you-cant-buy-the-dell-pro-max-gb10-yet-but-you-can-buy-the-asus-ascent-gx10-right-now-for-usd4100-get-nvidias-petaflop-desktop-supercomputer-shipped-within-days
    0 Comments 0 Shares 297 Views 0 Reviews
  • “BlackRock ทุ่ม $40 พันล้าน ซื้อกิจการศูนย์ข้อมูล Aligned — ขยายพอร์ต AI Infrastructure สู่ 5GW ทั่วอเมริกา”

    ในยุคที่ AI กลายเป็นหัวใจของเศรษฐกิจดิจิทัล การลงทุนในโครงสร้างพื้นฐานด้านข้อมูลก็พุ่งทะยานตาม ล่าสุด BlackRock ผ่านบริษัทลูก Global Infrastructure Partners (GIP) ได้ประกาศดีลมูลค่า $40 พันล้านเพื่อเข้าซื้อกิจการ Aligned Data Centers ซึ่งมีศูนย์ข้อมูลรวม 78 แห่ง ครอบคลุม 50 แคมปัสในสหรัฐฯ และอเมริกาใต้ รวมกำลังประมวลผลกว่า 5 กิกะวัตต์

    Aligned เป็นผู้ให้บริการศูนย์ข้อมูลที่เน้นรองรับงาน AI โดยเฉพาะ มีลูกค้าระดับ hyperscale และบริษัท AI อย่าง Lambda และเคยได้รับเงินลงทุนกว่า $12 พันล้านในต้นปีนี้จาก Macquarie Asset Management เพื่อเร่งขยายกิจการ

    ดีลนี้ยังมีผู้ร่วมวงอย่าง MGX บริษัทลงทุนด้าน AI ที่ได้รับการสนับสนุนจาก Mubadala Investment Co. ซึ่งแสดงความสนใจลงทุนใน Aligned แบบแยกต่างหาก โดย MGX ยังมีบทบาทในโครงการ Stargate — ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้านที่ได้รับการสนับสนุนจาก OpenAI, Oracle และ SoftBank

    การเข้าซื้อ Aligned จะทำให้ GIP มีพอร์ตศูนย์ข้อมูล AI ขนาดใหญ่ขึ้น โดยก่อนหน้านี้เคยซื้อกิจการ CyrusOne มูลค่า $15 พันล้านในปี 2021 และยังมีแผนซื้อกิจการบริษัทพลังงาน AES Corp. เพื่อรองรับความต้องการไฟฟ้าที่เพิ่มขึ้นจากการใช้งาน AI

    แม้ดีลยังไม่เสร็จสมบูรณ์ แต่ถือเป็นหนึ่งในดีลใหญ่ที่สุดของปีนี้ และสะท้อนถึงกระแสการลงทุนที่หลั่งไหลเข้าสู่โครงสร้างพื้นฐาน AI อย่างต่อเนื่อง ขณะเดียวกันก็มีความกังวลจากนักวิเคราะห์บางส่วนว่า หากเทคโนโลยี AI ยังไม่สามารถสร้างรายได้ตามที่ตลาดคาดหวัง อาจเกิดฟองสบู่ในภาคโครงสร้างพื้นฐานได้

    ข้อมูลสำคัญจากข่าว
    BlackRock ผ่าน GIP เตรียมซื้อกิจการ Aligned Data Centers มูลค่า $40 พันล้าน
    Aligned มีศูนย์ข้อมูล 78 แห่งใน 50 แคมปัส รวมกำลังประมวลผลกว่า 5GW
    ลูกค้าหลักของ Aligned ได้แก่ hyperscale cloud และบริษัท AI เช่น Lambda
    Aligned เคยได้รับเงินลงทุน $12 พันล้านจาก Macquarie ในต้นปีนี้
    MGX บริษัทลงทุนด้าน AI จาก Mubadala สนใจลงทุนใน Aligned แบบแยก
    MGX มีบทบาทในโครงการ Stargate ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้าน
    GIP เคยซื้อ CyrusOne มูลค่า $15 พันล้านในปี 2021
    GIP กำลังพิจารณาซื้อกิจการ AES Corp. เพื่อรองรับความต้องการไฟฟ้าจาก AI
    ดีลนี้ถือเป็นหนึ่งในดีลโครงสร้างพื้นฐานที่ใหญ่ที่สุดของปี 2025

    ข้อมูลเสริมจากภายนอก
    ความต้องการศูนย์ข้อมูล AI เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของโมเดล LLM และการใช้งาน edge AI
    การใช้พลังงานของศูนย์ข้อมูล AI สูงกว่าศูนย์ข้อมูลทั่วไปหลายเท่า
    โครงการ Stargate มีเป้าหมายสร้างระบบที่รองรับชิป AI กว่า 2 ล้านตัว
    ตลาดโครงสร้างพื้นฐาน AI คาดว่าจะมีมูลค่ารวมกว่า $6.7 ล้านล้านภายในปี 2030
    BlackRock มีมูลค่าตลาดรวมกว่า $189 พันล้าน และถือเป็นผู้จัดการสินทรัพย์รายใหญ่ที่สุดในโลก

    https://www.tomshardware.com/tech-industry/blackrock-subsidiary-buys-up-78-data-centers-totaling-5-gigawatts-in-usd40-billion-deal-ai-vendor-aligned-added-to-companys-portfolio
    🏢 “BlackRock ทุ่ม $40 พันล้าน ซื้อกิจการศูนย์ข้อมูล Aligned — ขยายพอร์ต AI Infrastructure สู่ 5GW ทั่วอเมริกา” ในยุคที่ AI กลายเป็นหัวใจของเศรษฐกิจดิจิทัล การลงทุนในโครงสร้างพื้นฐานด้านข้อมูลก็พุ่งทะยานตาม ล่าสุด BlackRock ผ่านบริษัทลูก Global Infrastructure Partners (GIP) ได้ประกาศดีลมูลค่า $40 พันล้านเพื่อเข้าซื้อกิจการ Aligned Data Centers ซึ่งมีศูนย์ข้อมูลรวม 78 แห่ง ครอบคลุม 50 แคมปัสในสหรัฐฯ และอเมริกาใต้ รวมกำลังประมวลผลกว่า 5 กิกะวัตต์ Aligned เป็นผู้ให้บริการศูนย์ข้อมูลที่เน้นรองรับงาน AI โดยเฉพาะ มีลูกค้าระดับ hyperscale และบริษัท AI อย่าง Lambda และเคยได้รับเงินลงทุนกว่า $12 พันล้านในต้นปีนี้จาก Macquarie Asset Management เพื่อเร่งขยายกิจการ ดีลนี้ยังมีผู้ร่วมวงอย่าง MGX บริษัทลงทุนด้าน AI ที่ได้รับการสนับสนุนจาก Mubadala Investment Co. ซึ่งแสดงความสนใจลงทุนใน Aligned แบบแยกต่างหาก โดย MGX ยังมีบทบาทในโครงการ Stargate — ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้านที่ได้รับการสนับสนุนจาก OpenAI, Oracle และ SoftBank การเข้าซื้อ Aligned จะทำให้ GIP มีพอร์ตศูนย์ข้อมูล AI ขนาดใหญ่ขึ้น โดยก่อนหน้านี้เคยซื้อกิจการ CyrusOne มูลค่า $15 พันล้านในปี 2021 และยังมีแผนซื้อกิจการบริษัทพลังงาน AES Corp. เพื่อรองรับความต้องการไฟฟ้าที่เพิ่มขึ้นจากการใช้งาน AI แม้ดีลยังไม่เสร็จสมบูรณ์ แต่ถือเป็นหนึ่งในดีลใหญ่ที่สุดของปีนี้ และสะท้อนถึงกระแสการลงทุนที่หลั่งไหลเข้าสู่โครงสร้างพื้นฐาน AI อย่างต่อเนื่อง ขณะเดียวกันก็มีความกังวลจากนักวิเคราะห์บางส่วนว่า หากเทคโนโลยี AI ยังไม่สามารถสร้างรายได้ตามที่ตลาดคาดหวัง อาจเกิดฟองสบู่ในภาคโครงสร้างพื้นฐานได้ ✅ ข้อมูลสำคัญจากข่าว ➡️ BlackRock ผ่าน GIP เตรียมซื้อกิจการ Aligned Data Centers มูลค่า $40 พันล้าน ➡️ Aligned มีศูนย์ข้อมูล 78 แห่งใน 50 แคมปัส รวมกำลังประมวลผลกว่า 5GW ➡️ ลูกค้าหลักของ Aligned ได้แก่ hyperscale cloud และบริษัท AI เช่น Lambda ➡️ Aligned เคยได้รับเงินลงทุน $12 พันล้านจาก Macquarie ในต้นปีนี้ ➡️ MGX บริษัทลงทุนด้าน AI จาก Mubadala สนใจลงทุนใน Aligned แบบแยก ➡️ MGX มีบทบาทในโครงการ Stargate ซูเปอร์คอมพิวเตอร์มูลค่า $500 พันล้าน ➡️ GIP เคยซื้อ CyrusOne มูลค่า $15 พันล้านในปี 2021 ➡️ GIP กำลังพิจารณาซื้อกิจการ AES Corp. เพื่อรองรับความต้องการไฟฟ้าจาก AI ➡️ ดีลนี้ถือเป็นหนึ่งในดีลโครงสร้างพื้นฐานที่ใหญ่ที่สุดของปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ ความต้องการศูนย์ข้อมูล AI เพิ่มขึ้นอย่างรวดเร็วจากการเติบโตของโมเดล LLM และการใช้งาน edge AI ➡️ การใช้พลังงานของศูนย์ข้อมูล AI สูงกว่าศูนย์ข้อมูลทั่วไปหลายเท่า ➡️ โครงการ Stargate มีเป้าหมายสร้างระบบที่รองรับชิป AI กว่า 2 ล้านตัว ➡️ ตลาดโครงสร้างพื้นฐาน AI คาดว่าจะมีมูลค่ารวมกว่า $6.7 ล้านล้านภายในปี 2030 ➡️ BlackRock มีมูลค่าตลาดรวมกว่า $189 พันล้าน และถือเป็นผู้จัดการสินทรัพย์รายใหญ่ที่สุดในโลก https://www.tomshardware.com/tech-industry/blackrock-subsidiary-buys-up-78-data-centers-totaling-5-gigawatts-in-usd40-billion-deal-ai-vendor-aligned-added-to-companys-portfolio
    0 Comments 0 Shares 359 Views 0 Reviews
  • “SiPearl เปิดตัว Athena1 — โปรเซสเซอร์อธิปไตยยุโรป 80 คอร์ สำหรับงานพลเรือนและกลาโหม พร้อมวางจำหน่ายปี 2027”

    ในยุคที่ความมั่นคงทางไซเบอร์และอธิปไตยด้านเทคโนโลยีกลายเป็นประเด็นระดับชาติ SiPearl บริษัทออกแบบโปรเซสเซอร์จากฝรั่งเศสที่ได้รับทุนสนับสนุนจากสหภาพยุโรป ได้เปิดตัว Athena1 โปรเซสเซอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานทั้งพลเรือนและกลาโหม โดยมีเป้าหมายเพื่อเสริมสร้างความเป็นอิสระด้านเทคโนโลยีของยุโรป

    Athena1 พัฒนาต่อยอดจาก Rhea1 ซึ่งเป็นโปรเซสเซอร์รุ่นแรกของบริษัทที่ใช้ในซูเปอร์คอมพิวเตอร์ระดับ exascale โดย Athena1 จะมีจำนวนคอร์ตั้งแต่ 16 ถึง 80 คอร์ บนสถาปัตยกรรม Arm Neoverse V1 และมาพร้อมฟีเจอร์ด้านความปลอดภัยและการเข้ารหัสขั้นสูง รองรับงานที่ต้องการความมั่นคง เช่น การสื่อสารลับ, การวิเคราะห์ข่าวกรอง, การประมวลผลในยานพาหนะทางทหาร และเครือข่ายยุทธวิธี

    แม้จะไม่มีหน่วยความจำ HBM2E เหมือน Rhea1 เนื่องจาก Athena1 ไม่เน้นงาน AI หรือ HPC แต่ยังคงใช้เทคโนโลยี DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์ที่สูงพอสำหรับงานด้านกลาโหมและการประมวลผลภาคสนาม โดยมีจำนวนทรานซิสเตอร์มากถึง 61 พันล้านตัว

    การผลิตชิปจะดำเนินโดย TSMC ในไต้หวัน และมีแผนย้ายขั้นตอนการบรรจุชิปกลับมายังยุโรปในอนาคต เพื่อสร้างระบบอุตสาหกรรมภายในภูมิภาคให้แข็งแรงยิ่งขึ้น โดย Athena1 มีกำหนดวางจำหน่ายเชิงพาณิชย์ในช่วงครึ่งหลังของปี 2027

    ข้อมูลสำคัญจากข่าว
    SiPearl เปิดตัว Athena1 โปรเซสเซอร์อธิปไตยยุโรปสำหรับงานพลเรือนและกลาโหม
    ใช้สถาปัตยกรรม Arm Neoverse V1 พร้อมตัวเลือกคอร์ตั้งแต่ 16 ถึง 80 คอร์
    พัฒนาต่อยอดจาก Rhea1 ที่ใช้ในซูเปอร์คอมพิวเตอร์ JUPITER
    รองรับงานด้านความมั่นคง เช่น การเข้ารหัส, ข่าวกรอง, การประมวลผลในยานพาหนะ
    ไม่มี HBM2E แต่ใช้ DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์สูง
    มีจำนวนทรานซิสเตอร์ 61 พันล้านตัว ผลิตโดย TSMC
    ขั้นตอนการบรรจุชิปจะย้ายกลับมาในยุโรปเพื่อเสริมอุตสาหกรรมภายใน
    วางจำหน่ายเชิงพาณิชย์ในครึ่งหลังของปี 2027
    เป็นส่วนหนึ่งของแผนยุโรปในการสร้างอธิปไตยด้านเทคโนโลยี

    ข้อมูลเสริมจากภายนอก
    Arm Neoverse V1 เปิดตัวในปี 2020 และใช้ในงานเซิร์ฟเวอร์และ edge computing
    Rhea1 ใช้ใน JUPITER ซูเปอร์คอมพิวเตอร์ exascale แห่งแรกของยุโรป
    HBM2E เหมาะกับงาน HPC และ AI แต่ไม่จำเป็นสำหรับงานด้านกลาโหม
    การใช้ PCIe 5.0 ช่วยให้สามารถเชื่อมต่ออุปกรณ์ภายนอกได้รวดเร็วและมีประสิทธิภาพ
    การผลิตโดย TSMC ช่วยให้มั่นใจในคุณภาพ แต่ยังต้องพึ่งพา supply chain ต่างประเทศ

    https://www.tomshardware.com/tech-industry/sipearl-unveils-europes-first-dual-use-sovereign-processor-with-80-cores-expected-in-2027-for-government-aerospace-and-defense-applications
    🛡️ “SiPearl เปิดตัว Athena1 — โปรเซสเซอร์อธิปไตยยุโรป 80 คอร์ สำหรับงานพลเรือนและกลาโหม พร้อมวางจำหน่ายปี 2027” ในยุคที่ความมั่นคงทางไซเบอร์และอธิปไตยด้านเทคโนโลยีกลายเป็นประเด็นระดับชาติ SiPearl บริษัทออกแบบโปรเซสเซอร์จากฝรั่งเศสที่ได้รับทุนสนับสนุนจากสหภาพยุโรป ได้เปิดตัว Athena1 โปรเซสเซอร์รุ่นใหม่ที่ออกแบบมาเพื่อรองรับการใช้งานทั้งพลเรือนและกลาโหม โดยมีเป้าหมายเพื่อเสริมสร้างความเป็นอิสระด้านเทคโนโลยีของยุโรป Athena1 พัฒนาต่อยอดจาก Rhea1 ซึ่งเป็นโปรเซสเซอร์รุ่นแรกของบริษัทที่ใช้ในซูเปอร์คอมพิวเตอร์ระดับ exascale โดย Athena1 จะมีจำนวนคอร์ตั้งแต่ 16 ถึง 80 คอร์ บนสถาปัตยกรรม Arm Neoverse V1 และมาพร้อมฟีเจอร์ด้านความปลอดภัยและการเข้ารหัสขั้นสูง รองรับงานที่ต้องการความมั่นคง เช่น การสื่อสารลับ, การวิเคราะห์ข่าวกรอง, การประมวลผลในยานพาหนะทางทหาร และเครือข่ายยุทธวิธี แม้จะไม่มีหน่วยความจำ HBM2E เหมือน Rhea1 เนื่องจาก Athena1 ไม่เน้นงาน AI หรือ HPC แต่ยังคงใช้เทคโนโลยี DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์ที่สูงพอสำหรับงานด้านกลาโหมและการประมวลผลภาคสนาม โดยมีจำนวนทรานซิสเตอร์มากถึง 61 พันล้านตัว การผลิตชิปจะดำเนินโดย TSMC ในไต้หวัน และมีแผนย้ายขั้นตอนการบรรจุชิปกลับมายังยุโรปในอนาคต เพื่อสร้างระบบอุตสาหกรรมภายในภูมิภาคให้แข็งแรงยิ่งขึ้น โดย Athena1 มีกำหนดวางจำหน่ายเชิงพาณิชย์ในช่วงครึ่งหลังของปี 2027 ✅ ข้อมูลสำคัญจากข่าว ➡️ SiPearl เปิดตัว Athena1 โปรเซสเซอร์อธิปไตยยุโรปสำหรับงานพลเรือนและกลาโหม ➡️ ใช้สถาปัตยกรรม Arm Neoverse V1 พร้อมตัวเลือกคอร์ตั้งแต่ 16 ถึง 80 คอร์ ➡️ พัฒนาต่อยอดจาก Rhea1 ที่ใช้ในซูเปอร์คอมพิวเตอร์ JUPITER ➡️ รองรับงานด้านความมั่นคง เช่น การเข้ารหัส, ข่าวกรอง, การประมวลผลในยานพาหนะ ➡️ ไม่มี HBM2E แต่ใช้ DDR5 และ PCIe 5.0 เพื่อรองรับแบนด์วิดธ์สูง ➡️ มีจำนวนทรานซิสเตอร์ 61 พันล้านตัว ผลิตโดย TSMC ➡️ ขั้นตอนการบรรจุชิปจะย้ายกลับมาในยุโรปเพื่อเสริมอุตสาหกรรมภายใน ➡️ วางจำหน่ายเชิงพาณิชย์ในครึ่งหลังของปี 2027 ➡️ เป็นส่วนหนึ่งของแผนยุโรปในการสร้างอธิปไตยด้านเทคโนโลยี ✅ ข้อมูลเสริมจากภายนอก ➡️ Arm Neoverse V1 เปิดตัวในปี 2020 และใช้ในงานเซิร์ฟเวอร์และ edge computing ➡️ Rhea1 ใช้ใน JUPITER ซูเปอร์คอมพิวเตอร์ exascale แห่งแรกของยุโรป ➡️ HBM2E เหมาะกับงาน HPC และ AI แต่ไม่จำเป็นสำหรับงานด้านกลาโหม ➡️ การใช้ PCIe 5.0 ช่วยให้สามารถเชื่อมต่ออุปกรณ์ภายนอกได้รวดเร็วและมีประสิทธิภาพ ➡️ การผลิตโดย TSMC ช่วยให้มั่นใจในคุณภาพ แต่ยังต้องพึ่งพา supply chain ต่างประเทศ https://www.tomshardware.com/tech-industry/sipearl-unveils-europes-first-dual-use-sovereign-processor-with-80-cores-expected-in-2027-for-government-aerospace-and-defense-applications
    0 Comments 0 Shares 325 Views 0 Reviews
  • “Harvard–MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่อง 2 ชั่วโมง — แก้ปัญหา atom loss ด้วยเลเซอร์ล้ำยุค พร้อมเปิดทางสู่ระบบที่รัน ‘ตลอดกาล’ ภายใน 3 ปี”

    ในโลกของควอนตัมคอมพิวเตอร์ที่เคยถูกจำกัดด้วยเวลาใช้งานเพียงไม่กี่วินาที ทีมวิจัยจาก Harvard และ MIT ได้สร้างปรากฏการณ์ใหม่ — ควอนตัมคอมพิวเตอร์ที่สามารถรันต่อเนื่องได้มากกว่า 2 ชั่วโมง โดยไม่ต้องรีสตาร์ทหรือโหลดข้อมูลใหม่ ถือเป็นการเพิ่มระยะเวลาการทำงานมากกว่า 55,000% เมื่อเทียบกับระบบเดิมที่รันได้เพียงไม่กี่มิลลิวินาที

    หัวใจของความสำเร็จนี้คือการแก้ปัญหา “atom loss” ซึ่งเป็นสาเหตุหลักที่ทำให้ควอนตัมคอมพิวเตอร์ล่มเร็ว โดยทีมวิจัยได้พัฒนาเทคนิคใหม่ที่ใช้เลเซอร์ควบคุมอะตอม ได้แก่ “optical lattice conveyor belts” และ “optical tweezers” เพื่อเติมอะตอมใหม่เข้าไปในระบบอย่างต่อเนื่องโดยไม่ทำลายข้อมูลเดิมที่เก็บไว้ใน qubit

    ระบบใหม่นี้สามารถเติมอะตอมได้ถึง 300,000 ตัวต่อวินาที และรองรับ qubit ได้มากถึง 3,000 ตัว ซึ่งถือเป็นการเปิดประตูสู่ควอนตัมคอมพิวเตอร์ที่สามารถรันได้ “ตลอดกาล” โดยนักวิจัยคาดว่าจะสามารถสร้างระบบที่รันได้ไม่จำกัดภายใน 3 ปีข้างหน้า จากเดิมที่เคยประเมินว่าอาจต้องใช้เวลาอย่างน้อย 5 ปี

    แม้จะยังไม่พร้อมสำหรับการใช้งานในบ้านหรือสำนักงานทั่วไป แต่เทคโนโลยีนี้ถือเป็นก้าวสำคัญที่จะเปลี่ยนแปลงวงการวิทยาศาสตร์ การเงิน การแพทย์ และการเข้ารหัสข้อมูลอย่างสิ้นเชิง โดยเฉพาะเมื่อระบบสามารถรักษาข้อมูลควอนตัมได้อย่างต่อเนื่องโดยไม่สูญเสียความแม่นยำ

    ข้อมูลสำคัญจากข่าว
    Harvard และ MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่องได้มากกว่า 2 ชั่วโมง
    ใช้เทคนิค optical lattice conveyor belts และ optical tweezers เพื่อเติมอะตอมใหม่
    ระบบรองรับ qubit ได้มากถึง 3,000 ตัว และเติมอะตอมได้ 300,000 ตัวต่อวินาที
    แก้ปัญหา atom loss ซึ่งเป็นสาเหตุหลักของการล่มของระบบควอนตัม
    นักวิจัยคาดว่าจะสร้างระบบที่รันได้ “ตลอดกาล” ภายใน 3 ปี
    ระบบนี้ใช้ neutral atoms ซึ่งเป็นแพลตฟอร์มที่มีเสถียรภาพสูง
    การทดลองนี้ตีพิมพ์ในวารสาร Nature และได้รับการยอมรับในวงการ
    ทีมวิจัยร่วมมือกับ QuEra Computing ซึ่งเป็นสตาร์ทอัพจาก Harvard–MIT

    ข้อมูลเสริมจากภายนอก
    Qubit คือหน่วยข้อมูลในควอนตัมคอมพิวเตอร์ที่สามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน
    Quantum entanglement ทำให้การเพิ่ม qubit ส่งผลต่อพลังการประมวลผลแบบทวีคูณ
    Optical tweezers คือเลเซอร์ที่ใช้จับและจัดเรียงอะตอมในตำแหน่งที่แม่นยำ
    Optical lattice คือคลื่นแสงที่สร้างโครงสร้างคล้ายตะแกรงเพื่อวางอะตอม
    ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาที่ซูเปอร์คอมพิวเตอร์ไม่สามารถทำได้ เช่น การจำลองโมเลกุลหรือการเข้ารหัสระดับสูง

    https://www.tomshardware.com/tech-industry/quantum-computing/harvard-researchers-hail-quantum-computing-breakthrough-with-machine-that-can-run-for-two-hours-atomic-loss-quashed-by-experimental-design-systems-that-can-run-forever-just-3-years-away
    🧠⚛️ “Harvard–MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่อง 2 ชั่วโมง — แก้ปัญหา atom loss ด้วยเลเซอร์ล้ำยุค พร้อมเปิดทางสู่ระบบที่รัน ‘ตลอดกาล’ ภายใน 3 ปี” ในโลกของควอนตัมคอมพิวเตอร์ที่เคยถูกจำกัดด้วยเวลาใช้งานเพียงไม่กี่วินาที ทีมวิจัยจาก Harvard และ MIT ได้สร้างปรากฏการณ์ใหม่ — ควอนตัมคอมพิวเตอร์ที่สามารถรันต่อเนื่องได้มากกว่า 2 ชั่วโมง โดยไม่ต้องรีสตาร์ทหรือโหลดข้อมูลใหม่ ถือเป็นการเพิ่มระยะเวลาการทำงานมากกว่า 55,000% เมื่อเทียบกับระบบเดิมที่รันได้เพียงไม่กี่มิลลิวินาที หัวใจของความสำเร็จนี้คือการแก้ปัญหา “atom loss” ซึ่งเป็นสาเหตุหลักที่ทำให้ควอนตัมคอมพิวเตอร์ล่มเร็ว โดยทีมวิจัยได้พัฒนาเทคนิคใหม่ที่ใช้เลเซอร์ควบคุมอะตอม ได้แก่ “optical lattice conveyor belts” และ “optical tweezers” เพื่อเติมอะตอมใหม่เข้าไปในระบบอย่างต่อเนื่องโดยไม่ทำลายข้อมูลเดิมที่เก็บไว้ใน qubit ระบบใหม่นี้สามารถเติมอะตอมได้ถึง 300,000 ตัวต่อวินาที และรองรับ qubit ได้มากถึง 3,000 ตัว ซึ่งถือเป็นการเปิดประตูสู่ควอนตัมคอมพิวเตอร์ที่สามารถรันได้ “ตลอดกาล” โดยนักวิจัยคาดว่าจะสามารถสร้างระบบที่รันได้ไม่จำกัดภายใน 3 ปีข้างหน้า จากเดิมที่เคยประเมินว่าอาจต้องใช้เวลาอย่างน้อย 5 ปี แม้จะยังไม่พร้อมสำหรับการใช้งานในบ้านหรือสำนักงานทั่วไป แต่เทคโนโลยีนี้ถือเป็นก้าวสำคัญที่จะเปลี่ยนแปลงวงการวิทยาศาสตร์ การเงิน การแพทย์ และการเข้ารหัสข้อมูลอย่างสิ้นเชิง โดยเฉพาะเมื่อระบบสามารถรักษาข้อมูลควอนตัมได้อย่างต่อเนื่องโดยไม่สูญเสียความแม่นยำ ✅ ข้อมูลสำคัญจากข่าว ➡️ Harvard และ MIT สร้างควอนตัมคอมพิวเตอร์ที่รันต่อเนื่องได้มากกว่า 2 ชั่วโมง ➡️ ใช้เทคนิค optical lattice conveyor belts และ optical tweezers เพื่อเติมอะตอมใหม่ ➡️ ระบบรองรับ qubit ได้มากถึง 3,000 ตัว และเติมอะตอมได้ 300,000 ตัวต่อวินาที ➡️ แก้ปัญหา atom loss ซึ่งเป็นสาเหตุหลักของการล่มของระบบควอนตัม ➡️ นักวิจัยคาดว่าจะสร้างระบบที่รันได้ “ตลอดกาล” ภายใน 3 ปี ➡️ ระบบนี้ใช้ neutral atoms ซึ่งเป็นแพลตฟอร์มที่มีเสถียรภาพสูง ➡️ การทดลองนี้ตีพิมพ์ในวารสาร Nature และได้รับการยอมรับในวงการ ➡️ ทีมวิจัยร่วมมือกับ QuEra Computing ซึ่งเป็นสตาร์ทอัพจาก Harvard–MIT ✅ ข้อมูลเสริมจากภายนอก ➡️ Qubit คือหน่วยข้อมูลในควอนตัมคอมพิวเตอร์ที่สามารถอยู่ในสถานะ 0 และ 1 พร้อมกัน ➡️ Quantum entanglement ทำให้การเพิ่ม qubit ส่งผลต่อพลังการประมวลผลแบบทวีคูณ ➡️ Optical tweezers คือเลเซอร์ที่ใช้จับและจัดเรียงอะตอมในตำแหน่งที่แม่นยำ ➡️ Optical lattice คือคลื่นแสงที่สร้างโครงสร้างคล้ายตะแกรงเพื่อวางอะตอม ➡️ ควอนตัมคอมพิวเตอร์มีศักยภาพในการแก้ปัญหาที่ซูเปอร์คอมพิวเตอร์ไม่สามารถทำได้ เช่น การจำลองโมเลกุลหรือการเข้ารหัสระดับสูง https://www.tomshardware.com/tech-industry/quantum-computing/harvard-researchers-hail-quantum-computing-breakthrough-with-machine-that-can-run-for-two-hours-atomic-loss-quashed-by-experimental-design-systems-that-can-run-forever-just-3-years-away
    0 Comments 0 Shares 272 Views 0 Reviews
More Results