• AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย

    ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop

    หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้

    AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ

    แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล

    การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย

    สรุปเนื้อหาเป็นหัวข้อ
    AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก
    ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo
    รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์
    R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core
    รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark
    ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้
    R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ
    Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต
    เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ
    การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น

    ข้อมูลเสริมจากภายนอก
    R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ
    R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด
    SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก
    Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก
    Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS

    https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    🧠 AWS กับ Xeon 6 — เมื่อคลาวด์ต้อง “ฉลาดและจำเยอะ” กว่าที่เคย ในยุคที่ข้อมูลไหลเข้ามาไม่หยุด และแอปพลิเคชันต้องตอบสนองแบบเรียลไทม์ AWS ได้เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ชื่อ R8i และ R8i-flex ที่ออกแบบมาเพื่อรองรับงานที่ใช้หน่วยความจำหนัก เช่น ฐานข้อมูล SQL/NoSQL, แคชแบบ in-memory อย่าง Redis และ Memcached, รวมถึงระบบวิเคราะห์ข้อมูลขนาดใหญ่อย่าง Apache Spark และ Hadoop หัวใจของเซิร์ฟเวอร์รุ่นใหม่นี้คือชิป Intel Xeon 6 แบบปรับแต่งพิเศษ ซึ่งสามารถทำงานได้ที่ความเร็วสูงสุด 3.9 GHz แบบ all-core turbo และรองรับหน่วยความจำ DDR5 ที่ความเร็วสูงถึง 7200 MT/s ซึ่งถือว่าเร็วที่สุดในกลุ่มเซิร์ฟเวอร์ Intel บนคลาวด์ในตอนนี้ AWS ยังเปิดให้ผู้ใช้ปรับแต่งการจัดสรรแบนด์วิดท์ระหว่างระบบเครือข่ายและการเชื่อมต่อกับ Elastic Block Store (EBS) เพื่อเพิ่มประสิทธิภาพของฐานข้อมูลได้ตามต้องการ แม้ AWS จะไม่เปิดเผยรายละเอียดทั้งหมดของชิป Xeon 6 ที่ใช้ แต่จุดเด่นคือการเพิ่มแบนด์วิดท์หน่วยความจำแบบจัดเต็ม ซึ่งช่วยให้ระบบสามารถรองรับงานที่ต้องใช้ข้อมูลจำนวนมากได้อย่างลื่นไหล การเปิดตัวครั้งนี้ถือเป็น “ชัยชนะเล็ก ๆ” ของ Intel ในช่วงที่ตลาดเซิร์ฟเวอร์ถูกแย่งชิงโดย AMD และ ARM อย่างหนัก โดยเฉพาะในงานที่เกี่ยวข้องกับ AI และการประมวลผลแบบกระจาย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AWS เปิดตัวเซิร์ฟเวอร์ EC2 รุ่นใหม่ R8i และ R8i-flex สำหรับงานที่ใช้หน่วยความจำหนัก ➡️ ใช้ชิป Intel Xeon 6 แบบปรับแต่งพิเศษ รองรับความเร็วสูงสุด 3.9 GHz แบบ all-core turbo ➡️ รองรับหน่วยความจำ DDR5 ที่ความเร็ว 7200 MT/s ซึ่งเร็วที่สุดในกลุ่ม Intel บนคลาวด์ ➡️ R8i รองรับตั้งแต่ 2 ถึง 384 vCPUs เทียบเท่าระบบ dual-socket ที่ใช้ Xeon 96-core ➡️ รองรับงานฐานข้อมูล SQL, NoSQL, แคชแบบ in-memory, SAP HANA, Hadoop และ Spark ➡️ ผู้ใช้สามารถปรับแต่งแบนด์วิดท์ระหว่างเครือข่ายและการเชื่อมต่อกับ EBS ได้ ➡️ R8i-flex เป็นรุ่นที่ออกแบบมาเพื่อประหยัดต้นทุนสำหรับงานที่ไม่ใช้ CPU เต็มประสิทธิภาพ ➡️ Intel ได้รับคำสั่งซื้อจาก AWS ซึ่งถือเป็นความสำเร็จในช่วงที่คู่แข่งอย่าง AMD และ ARM เติบโต ➡️ เซิร์ฟเวอร์รุ่นใหม่ช่วยให้ AWS ขยายตัวเลือกสำหรับลูกค้าที่ต้องการประสิทธิภาพสูงในงานหน่วยความจำ ➡️ การเพิ่มแบนด์วิดท์หน่วยความจำช่วยให้ระบบรองรับงานวิเคราะห์และ ERP ได้ดีขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ R8i-flex มีขนาดตั้งแต่ large ถึง 16xlarge และเป็น Flex instance รุ่นแรกที่เน้นหน่วยความจำ ➡️ R8i มีขนาดถึง 96xlarge และมีรุ่น bare metal สำหรับงานที่ต้องการประสิทธิภาพสูงสุด ➡️ SAP HANA เป็นระบบฐานข้อมูลแบบ in-memory ที่ต้องการแบนด์วิดท์สูงมาก ➡️ Apache Spark และ Hadoop เป็นระบบวิเคราะห์ข้อมูลขนาดใหญ่ที่ใช้หน่วยความจำอย่างหนัก ➡️ Xeon 6 รุ่นใหม่ใช้สถาปัตยกรรม P-core และมีการปรับแต่ง firmware และ hypervisor ร่วมกับ AWS https://www.techradar.com/pro/its-not-all-bad-news-for-intel-aws-just-snapped-up-a-load-of-custom-xeon-chips-for-extra-cloud-power
    0 ความคิดเห็น 0 การแบ่งปัน 47 มุมมอง 0 รีวิว
  • PromptLock — เมื่อ AI กลายเป็นสมองของแรนซัมแวร์

    ในอดีต แรนซัมแวร์มักใช้โค้ดที่เขียนไว้ล่วงหน้าเพื่อโจมตีเหยื่อ แต่ PromptLock เปลี่ยนเกมทั้งหมด ด้วยการใช้โมเดล AI แบบโอเพ่นซอร์ส gpt-oss:20b จาก OpenAI ที่รันแบบ local ผ่าน Ollama API เพื่อสร้างสคริปต์อันตรายแบบสด ๆ บนเครื่องเหยื่อ

    มัลแวร์ตัวนี้ใช้ Lua ซึ่งเป็นภาษาที่เบาและข้ามแพลตฟอร์มได้ดี โดยสามารถทำงานบน Windows, macOS และ Linux ได้อย่างลื่นไหล มันจะสแกนไฟล์ในเครื่อง ตรวจสอบข้อมูลสำคัญ และเลือกว่าจะขโมย เข้ารหัส หรือแม้แต่ทำลายข้อมูล — แม้ว่าฟีเจอร์ทำลายข้อมูลยังไม่ถูกเปิดใช้งานในเวอร์ชันปัจจุบัน

    สิ่งที่ทำให้ PromptLock น่ากลัวคือความสามารถในการเปลี่ยนพฤติกรรมทุกครั้งที่รัน แม้จะใช้ prompt เดิมก็ตาม เพราะ LLM เป็นระบบ non-deterministic ซึ่งทำให้เครื่องมือป้องกันไม่สามารถจับรูปแบบได้ง่าย

    นอกจากนี้ การรันโมเดล AI แบบ local ยังช่วยให้แฮกเกอร์ไม่ต้องเรียก API ไปยังเซิร์ฟเวอร์ของ OpenAI ซึ่งหมายความว่าไม่มีการบันทึกหรือแจ้งเตือนจากฝั่งผู้ให้บริการ AI

    ESET พบมัลแวร์นี้จากตัวอย่างที่ถูกอัปโหลดใน VirusTotal และเชื่อว่าเป็น proof-of-concept หรือโค้ดต้นแบบที่ยังไม่ถูกใช้โจมตีจริง แต่ก็เป็นสัญญาณเตือนว่า “ยุคของแรนซัมแวร์ที่มีสมอง” ได้เริ่มต้นขึ้นแล้ว

    สรุปเนื้อหาเป็นหัวข้อ
    ESET ค้นพบมัลแวร์ PromptLock ซึ่งเป็นแรนซัมแวร์ตัวแรกที่ใช้ AI สร้างโค้ดแบบสด
    ใช้โมเดล gpt-oss:20b จาก OpenAI ผ่าน Ollama API บนเครื่องเหยื่อโดยตรง
    สร้าง Lua script เพื่อสแกนไฟล์ ขโมยข้อมูล เข้ารหัส และอาจทำลายข้อมูล
    รองรับทุกระบบปฏิบัติการหลัก: Windows, macOS และ Linux
    ใช้การเข้ารหัสแบบ SPECK 128-bit ซึ่งเบาและเร็ว
    โค้ดมี prompt ฝังไว้ล่วงหน้าเพื่อสั่งให้ LLM สร้างสคริปต์ตามสถานการณ์
    มีการฝัง Bitcoin address สำหรับเรียกค่าไถ่ (ใช้ของ Satoshi Nakamoto เป็น placeholder)
    พบตัวอย่างใน VirusTotal แต่ยังไม่มีหลักฐานว่าใช้โจมตีจริง
    ESET เชื่อว่าเป็น proof-of-concept ที่แสดงศักยภาพของ AI ในการสร้างมัลแวร์
    OpenAI ระบุว่ากำลังพัฒนาระบบป้องกันและขอบคุณนักวิจัยที่แจ้งเตือน

    ข้อมูลเสริมจากภายนอก
    Lua เป็นภาษาที่นิยมในเกมและปลั๊กอิน แต่มีประสิทธิภาพสูงและฝังง่ายในมัลแวร์
    Golang ถูกใช้เป็นโครงสร้างหลักของมัลแวร์ เพราะข้ามแพลตฟอร์มและคอมไพล์ง่าย
    Ollama API เป็นช่องทางที่ช่วยให้โมเดล AI ทำงานแบบ local โดยไม่ต้องเรียกเซิร์ฟเวอร์
    Internal Proxy (MITRE ATT&CK T1090.001) เป็นเทคนิคที่ใช้เชื่อมต่อกับเซิร์ฟเวอร์ภายนอกอย่างลับ
    AI ถูกใช้ในมัลแวร์มากขึ้น เช่น การสร้าง phishing message และ deepfake

    https://www.tomshardware.com/tech-industry/cyber-security/the-first-ai-powered-ransomware-has-been-discovered-promptlock-uses-local-ai-to-foil-heuristic-detection-and-evade-api-tracking
    🧠 PromptLock — เมื่อ AI กลายเป็นสมองของแรนซัมแวร์ ในอดีต แรนซัมแวร์มักใช้โค้ดที่เขียนไว้ล่วงหน้าเพื่อโจมตีเหยื่อ แต่ PromptLock เปลี่ยนเกมทั้งหมด ด้วยการใช้โมเดล AI แบบโอเพ่นซอร์ส gpt-oss:20b จาก OpenAI ที่รันแบบ local ผ่าน Ollama API เพื่อสร้างสคริปต์อันตรายแบบสด ๆ บนเครื่องเหยื่อ มัลแวร์ตัวนี้ใช้ Lua ซึ่งเป็นภาษาที่เบาและข้ามแพลตฟอร์มได้ดี โดยสามารถทำงานบน Windows, macOS และ Linux ได้อย่างลื่นไหล มันจะสแกนไฟล์ในเครื่อง ตรวจสอบข้อมูลสำคัญ และเลือกว่าจะขโมย เข้ารหัส หรือแม้แต่ทำลายข้อมูล — แม้ว่าฟีเจอร์ทำลายข้อมูลยังไม่ถูกเปิดใช้งานในเวอร์ชันปัจจุบัน สิ่งที่ทำให้ PromptLock น่ากลัวคือความสามารถในการเปลี่ยนพฤติกรรมทุกครั้งที่รัน แม้จะใช้ prompt เดิมก็ตาม เพราะ LLM เป็นระบบ non-deterministic ซึ่งทำให้เครื่องมือป้องกันไม่สามารถจับรูปแบบได้ง่าย นอกจากนี้ การรันโมเดล AI แบบ local ยังช่วยให้แฮกเกอร์ไม่ต้องเรียก API ไปยังเซิร์ฟเวอร์ของ OpenAI ซึ่งหมายความว่าไม่มีการบันทึกหรือแจ้งเตือนจากฝั่งผู้ให้บริการ AI ESET พบมัลแวร์นี้จากตัวอย่างที่ถูกอัปโหลดใน VirusTotal และเชื่อว่าเป็น proof-of-concept หรือโค้ดต้นแบบที่ยังไม่ถูกใช้โจมตีจริง แต่ก็เป็นสัญญาณเตือนว่า “ยุคของแรนซัมแวร์ที่มีสมอง” ได้เริ่มต้นขึ้นแล้ว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ ESET ค้นพบมัลแวร์ PromptLock ซึ่งเป็นแรนซัมแวร์ตัวแรกที่ใช้ AI สร้างโค้ดแบบสด ➡️ ใช้โมเดล gpt-oss:20b จาก OpenAI ผ่าน Ollama API บนเครื่องเหยื่อโดยตรง ➡️ สร้าง Lua script เพื่อสแกนไฟล์ ขโมยข้อมูล เข้ารหัส และอาจทำลายข้อมูล ➡️ รองรับทุกระบบปฏิบัติการหลัก: Windows, macOS และ Linux ➡️ ใช้การเข้ารหัสแบบ SPECK 128-bit ซึ่งเบาและเร็ว ➡️ โค้ดมี prompt ฝังไว้ล่วงหน้าเพื่อสั่งให้ LLM สร้างสคริปต์ตามสถานการณ์ ➡️ มีการฝัง Bitcoin address สำหรับเรียกค่าไถ่ (ใช้ของ Satoshi Nakamoto เป็น placeholder) ➡️ พบตัวอย่างใน VirusTotal แต่ยังไม่มีหลักฐานว่าใช้โจมตีจริง ➡️ ESET เชื่อว่าเป็น proof-of-concept ที่แสดงศักยภาพของ AI ในการสร้างมัลแวร์ ➡️ OpenAI ระบุว่ากำลังพัฒนาระบบป้องกันและขอบคุณนักวิจัยที่แจ้งเตือน ✅ ข้อมูลเสริมจากภายนอก ➡️ Lua เป็นภาษาที่นิยมในเกมและปลั๊กอิน แต่มีประสิทธิภาพสูงและฝังง่ายในมัลแวร์ ➡️ Golang ถูกใช้เป็นโครงสร้างหลักของมัลแวร์ เพราะข้ามแพลตฟอร์มและคอมไพล์ง่าย ➡️ Ollama API เป็นช่องทางที่ช่วยให้โมเดล AI ทำงานแบบ local โดยไม่ต้องเรียกเซิร์ฟเวอร์ ➡️ Internal Proxy (MITRE ATT&CK T1090.001) เป็นเทคนิคที่ใช้เชื่อมต่อกับเซิร์ฟเวอร์ภายนอกอย่างลับ ➡️ AI ถูกใช้ในมัลแวร์มากขึ้น เช่น การสร้าง phishing message และ deepfake https://www.tomshardware.com/tech-industry/cyber-security/the-first-ai-powered-ransomware-has-been-discovered-promptlock-uses-local-ai-to-foil-heuristic-detection-and-evade-api-tracking
    0 ความคิดเห็น 0 การแบ่งปัน 49 มุมมอง 0 รีวิว
  • เมื่อความร้อนจาก AI กลายเป็นศัตรูตัวฉกาจ Google จึงตอบโต้ด้วย “น้ำ”

    ในยุคที่ AI กลายเป็นตัวขับเคลื่อนหลักของดาต้าเซ็นเตอร์ ความร้อนจากชิปประมวลผลก็พุ่งทะยานตามไปด้วย โดยเฉพาะ TPU ของ Google ที่ใช้พลังงานมหาศาลในการฝึกโมเดลขนาดใหญ่ Google จึงเปิดตัวระบบระบายความร้อนด้วยน้ำแบบเต็มรูปแบบในงาน Hot Chips 2025 ซึ่งไม่ใช่แค่ “ติดตั้งหม้อน้ำ” แต่เป็นการออกแบบใหม่ทั้งระบบตั้งแต่ระดับแร็ค

    ระบบนี้ใช้ CDU (Coolant Distribution Unit) จำนวน 6 ตัวต่อแร็ค โดย 5 ตัวทำงาน และอีก 1 ตัวเป็นสำรองเพื่อให้สามารถซ่อมบำรุงได้โดยไม่ต้องหยุดระบบ CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร โดยไม่ให้ของเหลวทั้งสองฝั่งผสมกัน

    น้ำหล่อเย็นจะถูกส่งผ่านท่อไปยังเซิร์ฟเวอร์ TPU โดยไหลผ่านชิปแบบต่อเนื่อง (series loop) ซึ่งหมายความว่าชิปตัวท้ายจะได้รับน้ำที่ร้อนกว่าชิปตัวแรก Google จึงออกแบบระบบให้รองรับความร้อนของชิปตัวสุดท้ายเป็นหลัก และใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน

    ที่น่าสนใจคือ TPUv4 ของ Google ใช้การระบายความร้อนแบบ bare-die ซึ่งคล้ายกับการ “delid” ในวงการ PC enthusiast เพื่อให้ความร้อนถ่ายเทได้ดีขึ้น เพราะ TPUv4 มีการใช้พลังงานมากกว่า TPUv3 ถึง 1.6 เท่า

    Google ยังพบว่า การใช้ปั๊มน้ำกินไฟน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศแบบเดิม ซึ่งช่วยลดภาระด้านพลังงานของดาต้าเซ็นเตอร์ได้อย่างมหาศาล

    สรุปเนื้อหาเป็นหัวข้อ
    Google เปิดตัวระบบระบายความร้อนด้วยน้ำระดับดาต้าเซ็นเตอร์ในงาน Hot Chips 2025
    ใช้ CDU จำนวน 6 ตัวต่อแร็ค โดยมี 1 ตัวเป็นสำรองเพื่อซ่อมบำรุงโดยไม่ต้องหยุดระบบ
    CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร
    น้ำหล่อเย็นไหลผ่านชิป TPU แบบต่อเนื่อง โดยออกแบบให้รองรับความร้อนของชิปตัวท้าย
    ใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน
    TPUv4 ใช้การระบายความร้อนแบบ bare-die เพื่อรองรับพลังงานที่สูงขึ้น 1.6 เท่า
    ปั๊มน้ำใช้พลังงานน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศ
    ระบบใช้ quick-disconnect fittings เพื่อให้ง่ายต่อการบำรุงรักษา
    มีระบบตรวจจับการรั่ว ระบบแจ้งเตือน และการบำรุงรักษาแบบมีแผนเพื่อป้องกันปัญหา
    Google ใช้การทดสอบรั่วและการตรวจสอบคุณภาพอย่างเข้มงวดก่อนใช้งานจริง

    ข้อมูลเสริมจากภายนอก
    Google เตรียมเปิดตัว CDU รุ่นที่ 5 ชื่อ Project Deschutes ในงาน OCP Summit เพื่อใช้ในแร็คระดับ 1MW
    NVIDIA GB300 และ Rebellions AI ก็ใช้ระบบระบายความร้อนด้วยน้ำในงาน Hot Chips เช่นกัน
    ระบบของ Rebellions AI ใช้ chiller และ water block สำหรับการสาธิต ML accelerator
    การระบายความร้อนด้วยน้ำมีประสิทธิภาพสูงกว่าการใช้อากาศถึง 4,000 เท่าในด้านการนำความร้อน
    ดาต้าเซ็นเตอร์ยุคใหม่ต้องออกแบบระบบระบายความร้อนควบคู่กับการจัดการพลังงานอย่างแม่นยำ

    https://chipsandcheese.com/p/googles-liquid-cooling-at-hot-chips
    💧 เมื่อความร้อนจาก AI กลายเป็นศัตรูตัวฉกาจ Google จึงตอบโต้ด้วย “น้ำ” ในยุคที่ AI กลายเป็นตัวขับเคลื่อนหลักของดาต้าเซ็นเตอร์ ความร้อนจากชิปประมวลผลก็พุ่งทะยานตามไปด้วย โดยเฉพาะ TPU ของ Google ที่ใช้พลังงานมหาศาลในการฝึกโมเดลขนาดใหญ่ Google จึงเปิดตัวระบบระบายความร้อนด้วยน้ำแบบเต็มรูปแบบในงาน Hot Chips 2025 ซึ่งไม่ใช่แค่ “ติดตั้งหม้อน้ำ” แต่เป็นการออกแบบใหม่ทั้งระบบตั้งแต่ระดับแร็ค ระบบนี้ใช้ CDU (Coolant Distribution Unit) จำนวน 6 ตัวต่อแร็ค โดย 5 ตัวทำงาน และอีก 1 ตัวเป็นสำรองเพื่อให้สามารถซ่อมบำรุงได้โดยไม่ต้องหยุดระบบ CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร โดยไม่ให้ของเหลวทั้งสองฝั่งผสมกัน น้ำหล่อเย็นจะถูกส่งผ่านท่อไปยังเซิร์ฟเวอร์ TPU โดยไหลผ่านชิปแบบต่อเนื่อง (series loop) ซึ่งหมายความว่าชิปตัวท้ายจะได้รับน้ำที่ร้อนกว่าชิปตัวแรก Google จึงออกแบบระบบให้รองรับความร้อนของชิปตัวสุดท้ายเป็นหลัก และใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน ที่น่าสนใจคือ TPUv4 ของ Google ใช้การระบายความร้อนแบบ bare-die ซึ่งคล้ายกับการ “delid” ในวงการ PC enthusiast เพื่อให้ความร้อนถ่ายเทได้ดีขึ้น เพราะ TPUv4 มีการใช้พลังงานมากกว่า TPUv3 ถึง 1.6 เท่า Google ยังพบว่า การใช้ปั๊มน้ำกินไฟน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศแบบเดิม ซึ่งช่วยลดภาระด้านพลังงานของดาต้าเซ็นเตอร์ได้อย่างมหาศาล 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Google เปิดตัวระบบระบายความร้อนด้วยน้ำระดับดาต้าเซ็นเตอร์ในงาน Hot Chips 2025 ➡️ ใช้ CDU จำนวน 6 ตัวต่อแร็ค โดยมี 1 ตัวเป็นสำรองเพื่อซ่อมบำรุงโดยไม่ต้องหยุดระบบ ➡️ CDU ทำหน้าที่แลกเปลี่ยนความร้อนระหว่างน้ำหล่อเย็นกับระบบน้ำของอาคาร ➡️ น้ำหล่อเย็นไหลผ่านชิป TPU แบบต่อเนื่อง โดยออกแบบให้รองรับความร้อนของชิปตัวท้าย ➡️ ใช้ cold plate แบบ split-flow เพื่อเพิ่มประสิทธิภาพการถ่ายเทความร้อน ➡️ TPUv4 ใช้การระบายความร้อนแบบ bare-die เพื่อรองรับพลังงานที่สูงขึ้น 1.6 เท่า ➡️ ปั๊มน้ำใช้พลังงานน้อยกว่าพัดลมถึง 95% เมื่อเทียบกับระบบระบายความร้อนด้วยอากาศ ➡️ ระบบใช้ quick-disconnect fittings เพื่อให้ง่ายต่อการบำรุงรักษา ➡️ มีระบบตรวจจับการรั่ว ระบบแจ้งเตือน และการบำรุงรักษาแบบมีแผนเพื่อป้องกันปัญหา ➡️ Google ใช้การทดสอบรั่วและการตรวจสอบคุณภาพอย่างเข้มงวดก่อนใช้งานจริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Google เตรียมเปิดตัว CDU รุ่นที่ 5 ชื่อ Project Deschutes ในงาน OCP Summit เพื่อใช้ในแร็คระดับ 1MW ➡️ NVIDIA GB300 และ Rebellions AI ก็ใช้ระบบระบายความร้อนด้วยน้ำในงาน Hot Chips เช่นกัน ➡️ ระบบของ Rebellions AI ใช้ chiller และ water block สำหรับการสาธิต ML accelerator ➡️ การระบายความร้อนด้วยน้ำมีประสิทธิภาพสูงกว่าการใช้อากาศถึง 4,000 เท่าในด้านการนำความร้อน ➡️ ดาต้าเซ็นเตอร์ยุคใหม่ต้องออกแบบระบบระบายความร้อนควบคู่กับการจัดการพลังงานอย่างแม่นยำ https://chipsandcheese.com/p/googles-liquid-cooling-at-hot-chips
    0 ความคิดเห็น 0 การแบ่งปัน 44 มุมมอง 0 รีวิว
  • IBM Power11 – ซีพียูที่ไม่แค่แรง แต่ฉลาดและปลอดภัยในยุคหลังควอนตัม

    IBM ไม่ได้วิ่งตามเทรนด์เล็ก ๆ อย่างการลดขนาดชิปไปที่ 5nm แต่เลือกใช้เทคโนโลยี 7nm ที่ “ปรับแต่งแล้ว” จาก Samsung เพื่อให้ได้ความเร็วที่เหนือกว่า พร้อมกับการใช้เทคนิค 2.5D stacking ผ่าน iCube interposer ที่ช่วยให้การส่งพลังงานและข้อมูลภายในชิปมีประสิทธิภาพมากขึ้น

    Power11 ยังคงใช้โครงสร้างพื้นฐานจาก Power10 ด้วยจำนวน 16 คอร์ต่อชิป และแคช 160MB แต่สามารถขยายเป็นระบบ dual socket ที่มีได้ถึง 60 คอร์ และความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz ซึ่งเหมาะกับงานเซิร์ฟเวอร์ที่ต้องการประสิทธิภาพสูง

    ที่น่าตื่นเต้นคือการฝังหน่วย Multiply-Matrix-Accumulator (MMA) ไว้ในแต่ละคอร์ เพื่อรองรับงาน AI โดยไม่ต้องพึ่ง GPU เสมอไป และยังสามารถเชื่อมต่อกับ Spyre Accelerator เพื่อเพิ่มพลังการประมวลผล AI ได้อีก

    ด้านหน่วยความจำก็มีการเปลี่ยนแปลงครั้งใหญ่ โดย Power11 รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต ซึ่งมากกว่า Power10 ถึง 4 เท่า ทั้งในด้านแบนด์วิดท์และความจุ และยังรองรับ DDR4 และเตรียมพร้อมสำหรับ DDR6 ในอนาคต

    สุดท้าย IBM ยังได้ฝังระบบ Quantum Safe Security เพื่อเตรียมรับมือกับภัยคุกคามจากการประมวลผลควอนตัมในอนาคต ซึ่งเป็นการป้องกันข้อมูลในระดับที่ลึกกว่าเดิม และเริ่มนำไปใช้ในระบบ Z mainframe แล้ว

    สรุปเนื้อหาเป็นหัวข้อ
    IBM เปิดตัว Power11 CPU ในงาน Hot Chips 2025 พร้อมเทคโนโลยี 2.5D stacking จาก Samsung
    ใช้ enhanced 7nm node แทนการเปลี่ยนไปใช้ 5nm เพื่อเน้นความเร็วมากกว่าความหนาแน่น
    มี 16 คอร์ต่อชิป และแคช 160MB พร้อมรองรับ dual socket สูงสุด 60 คอร์
    ความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz สำหรับงานเซิร์ฟเวอร์ที่ต้องการ throughput สูง
    ฝังหน่วย Multiply-Matrix-Accumulator (MMA) เพื่อรองรับงาน AI โดยตรง
    รองรับ Spyre Accelerator สำหรับการประมวลผล AI เพิ่มเติมผ่าน GPU หรือ ASIC
    ประสิทธิภาพเพิ่มขึ้น 50% ในระบบขนาดเล็ก, 30% ในระดับกลาง และ 14% ในระดับสูง
    รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต เพิ่มแบนด์วิดท์และความจุ 4 เท่าจาก Power10
    รองรับทั้ง DDR4 และ DDR5 พร้อมเตรียมรองรับ DDR6 ในอนาคต
    ฝังระบบ Quantum Safe Security เพื่อป้องกันภัยจากการประมวลผลควอนตัม
    IBM เตรียมเปิดตัว CPU รุ่นถัดไปที่ใช้ triplet architecture และนวัตกรรมด้านความร้อน

    ข้อมูลเสริมจากภายนอก
    IBM เลือกใช้ iCube interposer จาก Samsung เพื่อเพิ่มประสิทธิภาพการส่งพลังงานภายในชิป
    OMI Memory Architecture ของ Power11 รองรับแบนด์วิดท์สูงถึง 1200 GB/s และความจุ 8TB ต่อซ็อกเก็ต
    IBM ไม่เน้นใช้ HBM เพราะแม้จะเร็วแต่มีข้อจำกัดด้านความจุ
    Power11 รองรับการเชื่อมต่อ PCIe กับ accelerator ภายนอกอย่าง Spyre ได้อย่างยืดหยุ่น
    ระบบความปลอดภัย Quantum Safe เริ่มนำไปใช้ใน IBM Z mainframe แล้ว

    https://wccftech.com/ibm-power11-cpu-2-5d-stacking-enhanced-7nm-node-samsung-higher-clocks-memory/
    🧠 IBM Power11 – ซีพียูที่ไม่แค่แรง แต่ฉลาดและปลอดภัยในยุคหลังควอนตัม IBM ไม่ได้วิ่งตามเทรนด์เล็ก ๆ อย่างการลดขนาดชิปไปที่ 5nm แต่เลือกใช้เทคโนโลยี 7nm ที่ “ปรับแต่งแล้ว” จาก Samsung เพื่อให้ได้ความเร็วที่เหนือกว่า พร้อมกับการใช้เทคนิค 2.5D stacking ผ่าน iCube interposer ที่ช่วยให้การส่งพลังงานและข้อมูลภายในชิปมีประสิทธิภาพมากขึ้น Power11 ยังคงใช้โครงสร้างพื้นฐานจาก Power10 ด้วยจำนวน 16 คอร์ต่อชิป และแคช 160MB แต่สามารถขยายเป็นระบบ dual socket ที่มีได้ถึง 60 คอร์ และความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz ซึ่งเหมาะกับงานเซิร์ฟเวอร์ที่ต้องการประสิทธิภาพสูง ที่น่าตื่นเต้นคือการฝังหน่วย Multiply-Matrix-Accumulator (MMA) ไว้ในแต่ละคอร์ เพื่อรองรับงาน AI โดยไม่ต้องพึ่ง GPU เสมอไป และยังสามารถเชื่อมต่อกับ Spyre Accelerator เพื่อเพิ่มพลังการประมวลผล AI ได้อีก ด้านหน่วยความจำก็มีการเปลี่ยนแปลงครั้งใหญ่ โดย Power11 รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต ซึ่งมากกว่า Power10 ถึง 4 เท่า ทั้งในด้านแบนด์วิดท์และความจุ และยังรองรับ DDR4 และเตรียมพร้อมสำหรับ DDR6 ในอนาคต สุดท้าย IBM ยังได้ฝังระบบ Quantum Safe Security เพื่อเตรียมรับมือกับภัยคุกคามจากการประมวลผลควอนตัมในอนาคต ซึ่งเป็นการป้องกันข้อมูลในระดับที่ลึกกว่าเดิม และเริ่มนำไปใช้ในระบบ Z mainframe แล้ว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ IBM เปิดตัว Power11 CPU ในงาน Hot Chips 2025 พร้อมเทคโนโลยี 2.5D stacking จาก Samsung ➡️ ใช้ enhanced 7nm node แทนการเปลี่ยนไปใช้ 5nm เพื่อเน้นความเร็วมากกว่าความหนาแน่น ➡️ มี 16 คอร์ต่อชิป และแคช 160MB พร้อมรองรับ dual socket สูงสุด 60 คอร์ ➡️ ความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz สำหรับงานเซิร์ฟเวอร์ที่ต้องการ throughput สูง ➡️ ฝังหน่วย Multiply-Matrix-Accumulator (MMA) เพื่อรองรับงาน AI โดยตรง ➡️ รองรับ Spyre Accelerator สำหรับการประมวลผล AI เพิ่มเติมผ่าน GPU หรือ ASIC ➡️ ประสิทธิภาพเพิ่มขึ้น 50% ในระบบขนาดเล็ก, 30% ในระดับกลาง และ 14% ในระดับสูง ➡️ รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต เพิ่มแบนด์วิดท์และความจุ 4 เท่าจาก Power10 ➡️ รองรับทั้ง DDR4 และ DDR5 พร้อมเตรียมรองรับ DDR6 ในอนาคต ➡️ ฝังระบบ Quantum Safe Security เพื่อป้องกันภัยจากการประมวลผลควอนตัม ➡️ IBM เตรียมเปิดตัว CPU รุ่นถัดไปที่ใช้ triplet architecture และนวัตกรรมด้านความร้อน ✅ ข้อมูลเสริมจากภายนอก ➡️ IBM เลือกใช้ iCube interposer จาก Samsung เพื่อเพิ่มประสิทธิภาพการส่งพลังงานภายในชิป ➡️ OMI Memory Architecture ของ Power11 รองรับแบนด์วิดท์สูงถึง 1200 GB/s และความจุ 8TB ต่อซ็อกเก็ต ➡️ IBM ไม่เน้นใช้ HBM เพราะแม้จะเร็วแต่มีข้อจำกัดด้านความจุ ➡️ Power11 รองรับการเชื่อมต่อ PCIe กับ accelerator ภายนอกอย่าง Spyre ได้อย่างยืดหยุ่น ➡️ ระบบความปลอดภัย Quantum Safe เริ่มนำไปใช้ใน IBM Z mainframe แล้ว https://wccftech.com/ibm-power11-cpu-2-5d-stacking-enhanced-7nm-node-samsung-higher-clocks-memory/
    WCCFTECH.COM
    IBM Power11 CPU Brings 2.5D Stacking On Enhanced 7nm Node From Samsung, Higher Clocks, Memory Uplifts
    IBM detailed its Power11 CPU at Hot Chips 2025, bringing 2.5D Stacking, higher clock speeds, and memory with AI acceleration.
    0 ความคิดเห็น 0 การแบ่งปัน 78 มุมมอง 0 รีวิว
  • SK hynix กับก้าวกระโดดสู่ยุค SSD ความจุระดับ 244TB ด้วย NAND 321 ชั้น

    ในโลกที่ข้อมูลเติบโตแบบไร้ขีดจำกัด SK hynix ได้ประกาศการเริ่มผลิต NAND แบบ QLC ขนาด 2Tb (256GB) ที่มีโครงสร้างถึง 321 ชั้น ซึ่งถือเป็นครั้งแรกของโลกที่ NAND แบบ QLC ทะลุเกิน 300 ชั้นได้สำเร็จ

    เทคโนโลยีใหม่นี้อยู่ในกลุ่มผลิตภัณฑ์ V9Q ของบริษัท โดยมีความเร็ว I/O ที่ 3200 MT/s และใช้โครงสร้างแบบ 6 planes ซึ่งช่วยให้สามารถอ่านข้อมูลแบบขนานได้มากขึ้น ส่งผลให้ความเร็วในการเขียนเพิ่มขึ้นถึง 56% และความเร็วในการอ่านเพิ่มขึ้น 18% เมื่อเทียบกับรุ่น V7Q เดิม

    นอกจากความเร็วแล้ว ยังมีการปรับปรุงด้านประสิทธิภาพพลังงาน โดยลดการใช้พลังงานในการเขียนลงกว่า 23% ซึ่งเหมาะกับการใช้งานในศูนย์ข้อมูลที่ต้องการประสิทธิภาพสูงและการใช้พลังงานต่ำ

    ในระยะเริ่มต้น SK hynix จะนำ NAND รุ่นนี้ไปใช้ใน SSD สำหรับผู้บริโภค เช่น SSD ขนาด 2TB ที่ใช้เพียง 8 ชิปเท่านั้น ก่อนจะขยายไปสู่ SSD ระดับองค์กรที่มีความจุสูงถึง 244TB โดยใช้เทคโนโลยี 32DP ที่สามารถบรรจุ NAND ได้ 32 ชิ้นในแพ็กเดียว

    เป้าหมายของ SK hynix คือการเป็นผู้ให้บริการหน่วยความจำแบบ full-stack สำหรับยุค AI ที่ต้องการความเร็ว ความจุ และประสิทธิภาพพลังงานในระดับสูงสุด

    สรุปเนื้อหาเป็นหัวข้อ
    SK hynix เริ่มผลิต NAND แบบ QLC ขนาด 2Tb ด้วยโครงสร้าง 321 ชั้น
    เป็นครั้งแรกของโลกที่ NAND QLC ทะลุเกิน 300 ชั้น
    อยู่ในกลุ่มผลิตภัณฑ์ V9Q พร้อม I/O ที่ 3200 MT/s
    ใช้โครงสร้างแบบ 6 planes เพื่อเพิ่มความเร็วในการอ่านแบบขนาน
    ความเร็วในการเขียนเพิ่มขึ้น 56% และความเร็วในการอ่านเพิ่มขึ้น 18% จากรุ่นก่อน
    ประสิทธิภาพพลังงานในการเขียนดีขึ้นกว่า 23%
    SSD ขนาด 2TB ใช้เพียง 8 ชิป NAND รุ่นใหม่ ลดต้นทุนการผลิต
    SSD ระดับองค์กรจะมีความจุสูงถึง 244TB ด้วยเทคโนโลยี 32DP
    SK hynix ตั้งเป้าเป็นผู้ให้บริการหน่วยความจำแบบ full-stack สำหรับตลาด AI
    เหมาะสำหรับศูนย์ข้อมูลที่ต้องการความจุสูงและประหยัดพลังงาน

    ข้อมูลเสริมจากภายนอก
    QLC (Quad-Level Cell) เก็บข้อมูลได้ 4 บิตต่อเซลล์ ทำให้มีความจุสูงแต่ความทนทานต่ำกว่ารุ่นอื่น
    การเพิ่มจำนวน planes ช่วยให้สามารถประมวลผลข้อมูลพร้อมกันได้มากขึ้น
    เทคโนโลยี 32DP เป็นการบรรจุ NAND 32 ชิ้นในแพ็กเดียว เพิ่มความหนาแน่นของข้อมูล
    NAND แบบ 321 ชั้นช่วยลดต้นทุนต่อบิต และเพิ่มความสามารถในการแข่งขันด้านราคา
    ตลาด SSD กำลังเปลี่ยนจาก TLC ไปสู่ QLC เพื่อรองรับความต้องการด้านความจุที่เพิ่มขึ้น

    https://www.tomshardware.com/pc-components/ssds/sk-hynix-announces-mass-production-of-its-2tb-3d-qlc-nand-cheaper-high-capacity-consumer-drives-and-244tb-enterprise-ssds-incoming
    🎙️ SK hynix กับก้าวกระโดดสู่ยุค SSD ความจุระดับ 244TB ด้วย NAND 321 ชั้น ในโลกที่ข้อมูลเติบโตแบบไร้ขีดจำกัด SK hynix ได้ประกาศการเริ่มผลิต NAND แบบ QLC ขนาด 2Tb (256GB) ที่มีโครงสร้างถึง 321 ชั้น ซึ่งถือเป็นครั้งแรกของโลกที่ NAND แบบ QLC ทะลุเกิน 300 ชั้นได้สำเร็จ เทคโนโลยีใหม่นี้อยู่ในกลุ่มผลิตภัณฑ์ V9Q ของบริษัท โดยมีความเร็ว I/O ที่ 3200 MT/s และใช้โครงสร้างแบบ 6 planes ซึ่งช่วยให้สามารถอ่านข้อมูลแบบขนานได้มากขึ้น ส่งผลให้ความเร็วในการเขียนเพิ่มขึ้นถึง 56% และความเร็วในการอ่านเพิ่มขึ้น 18% เมื่อเทียบกับรุ่น V7Q เดิม นอกจากความเร็วแล้ว ยังมีการปรับปรุงด้านประสิทธิภาพพลังงาน โดยลดการใช้พลังงานในการเขียนลงกว่า 23% ซึ่งเหมาะกับการใช้งานในศูนย์ข้อมูลที่ต้องการประสิทธิภาพสูงและการใช้พลังงานต่ำ ในระยะเริ่มต้น SK hynix จะนำ NAND รุ่นนี้ไปใช้ใน SSD สำหรับผู้บริโภค เช่น SSD ขนาด 2TB ที่ใช้เพียง 8 ชิปเท่านั้น ก่อนจะขยายไปสู่ SSD ระดับองค์กรที่มีความจุสูงถึง 244TB โดยใช้เทคโนโลยี 32DP ที่สามารถบรรจุ NAND ได้ 32 ชิ้นในแพ็กเดียว เป้าหมายของ SK hynix คือการเป็นผู้ให้บริการหน่วยความจำแบบ full-stack สำหรับยุค AI ที่ต้องการความเร็ว ความจุ และประสิทธิภาพพลังงานในระดับสูงสุด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ SK hynix เริ่มผลิต NAND แบบ QLC ขนาด 2Tb ด้วยโครงสร้าง 321 ชั้น ➡️ เป็นครั้งแรกของโลกที่ NAND QLC ทะลุเกิน 300 ชั้น ➡️ อยู่ในกลุ่มผลิตภัณฑ์ V9Q พร้อม I/O ที่ 3200 MT/s ➡️ ใช้โครงสร้างแบบ 6 planes เพื่อเพิ่มความเร็วในการอ่านแบบขนาน ➡️ ความเร็วในการเขียนเพิ่มขึ้น 56% และความเร็วในการอ่านเพิ่มขึ้น 18% จากรุ่นก่อน ➡️ ประสิทธิภาพพลังงานในการเขียนดีขึ้นกว่า 23% ➡️ SSD ขนาด 2TB ใช้เพียง 8 ชิป NAND รุ่นใหม่ ลดต้นทุนการผลิต ➡️ SSD ระดับองค์กรจะมีความจุสูงถึง 244TB ด้วยเทคโนโลยี 32DP ➡️ SK hynix ตั้งเป้าเป็นผู้ให้บริการหน่วยความจำแบบ full-stack สำหรับตลาด AI ➡️ เหมาะสำหรับศูนย์ข้อมูลที่ต้องการความจุสูงและประหยัดพลังงาน ✅ ข้อมูลเสริมจากภายนอก ➡️ QLC (Quad-Level Cell) เก็บข้อมูลได้ 4 บิตต่อเซลล์ ทำให้มีความจุสูงแต่ความทนทานต่ำกว่ารุ่นอื่น ➡️ การเพิ่มจำนวน planes ช่วยให้สามารถประมวลผลข้อมูลพร้อมกันได้มากขึ้น ➡️ เทคโนโลยี 32DP เป็นการบรรจุ NAND 32 ชิ้นในแพ็กเดียว เพิ่มความหนาแน่นของข้อมูล ➡️ NAND แบบ 321 ชั้นช่วยลดต้นทุนต่อบิต และเพิ่มความสามารถในการแข่งขันด้านราคา ➡️ ตลาด SSD กำลังเปลี่ยนจาก TLC ไปสู่ QLC เพื่อรองรับความต้องการด้านความจุที่เพิ่มขึ้น https://www.tomshardware.com/pc-components/ssds/sk-hynix-announces-mass-production-of-its-2tb-3d-qlc-nand-cheaper-high-capacity-consumer-drives-and-244tb-enterprise-ssds-incoming
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • NVIDIA กับเกมการเมืองระหว่างประเทศ – เมื่อชิป H20 กลายเป็นตัวประกันทางเทคโนโลยี

    ในปี 2025 NVIDIA ต้องเผชิญกับแรงกดดันมหาศาลจากทั้งสหรัฐฯ และจีนเกี่ยวกับชิป H20 ซึ่งถูกออกแบบมาโดยเฉพาะสำหรับตลาดจีน หลังจากที่รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์อนุญาตให้ NVIDIA กลับมาขายชิป H20 ได้อีกครั้ง โดยมีเงื่อนไขว่าต้องแบ่งรายได้ 15% จากยอดขายในจีนให้รัฐบาลสหรัฐฯ

    แต่ความหวังของ NVIDIA กลับถูกดับลงอย่างรวดเร็ว เมื่อรัฐบาลจีนเริ่มแสดงความไม่พอใจต่อชิป H20 โดยกล่าวหาว่าชิปอาจมี “backdoor” หรือช่องโหว่ที่สามารถใช้สอดแนมข้อมูลได้ และอาจมี “kill switch” ที่สามารถปิดการทำงานจากระยะไกลได้

    หน่วยงานจีน เช่น Cyberspace Administration of China (CAC) และกระทรวงอุตสาหกรรม ได้ออกคำแนะนำให้บริษัทเทคโนโลยีใหญ่ ๆ อย่าง ByteDance, Alibaba และ Tencent หยุดสั่งซื้อชิป H20 ทันที โดยอ้างเหตุผลด้านความมั่นคงของชาติ

    NVIDIA จึงต้องสั่งหยุดการผลิตชิป H20 กับซัพพลายเออร์หลัก เช่น Samsung, Amkor และ Foxconn พร้อมเร่งพัฒนาชิปรุ่นใหม่ชื่อ B30A ที่มีประสิทธิภาพสูงกว่า H20 แต่ยังอยู่ภายใต้ข้อจำกัดด้านการส่งออกของสหรัฐฯ

    สถานการณ์นี้สะท้อนถึงความเปราะบางของอุตสาหกรรมเซมิคอนดักเตอร์ ที่แม้จะมีมูลค่าทางเศรษฐกิจมหาศาล แต่ก็ถูกควบคุมด้วยเกมการเมืองระหว่างประเทศอย่างเข้มข้น

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA หยุดการผลิตชิป H20 หลังจีนแสดงความไม่พอใจ
    รัฐบาลจีนกังวลเรื่อง backdoor และ spyware ในชิป H20
    บริษัทจีนใหญ่ ๆ ถูกสั่งให้หยุดสั่งซื้อชิป H20
    รัฐบาลสหรัฐฯ อนุญาตให้ขาย H20 ได้อีกครั้ง โดยต้องแบ่งรายได้ 15%
    NVIDIA สั่งหยุดการผลิตกับซัพพลายเออร์ เช่น Samsung, Amkor และ Foxconn
    NVIDIA กำลังพัฒนาชิปใหม่ชื่อ B30A สำหรับตลาดจีน
    B30A มีประสิทธิภาพสูงกว่า H20 แต่ต่ำกว่า B300 ซึ่งถูกห้ามส่งออก
    NVIDIA ยืนยันว่า H20 ไม่มี backdoor และไม่ใช่ผลิตภัณฑ์ทางทหาร
    ความขัดแย้งนี้เกิดขึ้นหลังคำพูดของรัฐมนตรีพาณิชย์สหรัฐฯ ที่ดูถูกจีน
    จีนพยายามลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ตามนโยบาย Made in China 2025

    ข้อมูลเสริมจากภายนอก
    Cyberspace Administration of China เคยเรียก NVIDIA มาสอบถามรายละเอียดทางเทคนิคของ H20
    NVIDIA สูญเสียรายได้กว่า $5.5 พันล้านจากการแบนในไตรมาสก่อน
    จีนบริโภคเซมิคอนดักเตอร์ 60% ของโลก แต่ผลิตได้เพียง 13%
    การแบ่งรายได้ 15% เป็นโมเดลใหม่ในการจัดการความขัดแย้งด้านเทคโนโลยี
    ความไม่แน่นอนทางการเมืองทำให้โมเดลนี้ล้มเหลวในเวลาไม่กี่สัปดาห์

    https://wccftech.com/nvidia-reportedly-halts-h20-gpu-production-after-the-chinese-politburo-becomes-hostile-to-the-chip/
    🎙️ NVIDIA กับเกมการเมืองระหว่างประเทศ – เมื่อชิป H20 กลายเป็นตัวประกันทางเทคโนโลยี ในปี 2025 NVIDIA ต้องเผชิญกับแรงกดดันมหาศาลจากทั้งสหรัฐฯ และจีนเกี่ยวกับชิป H20 ซึ่งถูกออกแบบมาโดยเฉพาะสำหรับตลาดจีน หลังจากที่รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดีทรัมป์อนุญาตให้ NVIDIA กลับมาขายชิป H20 ได้อีกครั้ง โดยมีเงื่อนไขว่าต้องแบ่งรายได้ 15% จากยอดขายในจีนให้รัฐบาลสหรัฐฯ แต่ความหวังของ NVIDIA กลับถูกดับลงอย่างรวดเร็ว เมื่อรัฐบาลจีนเริ่มแสดงความไม่พอใจต่อชิป H20 โดยกล่าวหาว่าชิปอาจมี “backdoor” หรือช่องโหว่ที่สามารถใช้สอดแนมข้อมูลได้ และอาจมี “kill switch” ที่สามารถปิดการทำงานจากระยะไกลได้ หน่วยงานจีน เช่น Cyberspace Administration of China (CAC) และกระทรวงอุตสาหกรรม ได้ออกคำแนะนำให้บริษัทเทคโนโลยีใหญ่ ๆ อย่าง ByteDance, Alibaba และ Tencent หยุดสั่งซื้อชิป H20 ทันที โดยอ้างเหตุผลด้านความมั่นคงของชาติ NVIDIA จึงต้องสั่งหยุดการผลิตชิป H20 กับซัพพลายเออร์หลัก เช่น Samsung, Amkor และ Foxconn พร้อมเร่งพัฒนาชิปรุ่นใหม่ชื่อ B30A ที่มีประสิทธิภาพสูงกว่า H20 แต่ยังอยู่ภายใต้ข้อจำกัดด้านการส่งออกของสหรัฐฯ สถานการณ์นี้สะท้อนถึงความเปราะบางของอุตสาหกรรมเซมิคอนดักเตอร์ ที่แม้จะมีมูลค่าทางเศรษฐกิจมหาศาล แต่ก็ถูกควบคุมด้วยเกมการเมืองระหว่างประเทศอย่างเข้มข้น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA หยุดการผลิตชิป H20 หลังจีนแสดงความไม่พอใจ ➡️ รัฐบาลจีนกังวลเรื่อง backdoor และ spyware ในชิป H20 ➡️ บริษัทจีนใหญ่ ๆ ถูกสั่งให้หยุดสั่งซื้อชิป H20 ➡️ รัฐบาลสหรัฐฯ อนุญาตให้ขาย H20 ได้อีกครั้ง โดยต้องแบ่งรายได้ 15% ➡️ NVIDIA สั่งหยุดการผลิตกับซัพพลายเออร์ เช่น Samsung, Amkor และ Foxconn ➡️ NVIDIA กำลังพัฒนาชิปใหม่ชื่อ B30A สำหรับตลาดจีน ➡️ B30A มีประสิทธิภาพสูงกว่า H20 แต่ต่ำกว่า B300 ซึ่งถูกห้ามส่งออก ➡️ NVIDIA ยืนยันว่า H20 ไม่มี backdoor และไม่ใช่ผลิตภัณฑ์ทางทหาร ➡️ ความขัดแย้งนี้เกิดขึ้นหลังคำพูดของรัฐมนตรีพาณิชย์สหรัฐฯ ที่ดูถูกจีน ➡️ จีนพยายามลดการพึ่งพาเทคโนโลยีจากสหรัฐฯ ตามนโยบาย Made in China 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Cyberspace Administration of China เคยเรียก NVIDIA มาสอบถามรายละเอียดทางเทคนิคของ H20 ➡️ NVIDIA สูญเสียรายได้กว่า $5.5 พันล้านจากการแบนในไตรมาสก่อน ➡️ จีนบริโภคเซมิคอนดักเตอร์ 60% ของโลก แต่ผลิตได้เพียง 13% ➡️ การแบ่งรายได้ 15% เป็นโมเดลใหม่ในการจัดการความขัดแย้งด้านเทคโนโลยี ➡️ ความไม่แน่นอนทางการเมืองทำให้โมเดลนี้ล้มเหลวในเวลาไม่กี่สัปดาห์ https://wccftech.com/nvidia-reportedly-halts-h20-gpu-production-after-the-chinese-politburo-becomes-hostile-to-the-chip/
    WCCFTECH.COM
    NVIDIA Reportedly Halts H20 GPU Production After The Chinese Politburo Becomes Hostile To The Chip
    NVIDIA is reportedly throwing in the proverbial towel on its China-specific H20 GPU as a number of potent headwinds coalesce.
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น

    ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด

    แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี

    AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด

    แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด

    สรุปเนื้อหาเป็นหัวข้อ
    AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ
    ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก
    AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน
    B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้
    B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU
    B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง
    B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง
    B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000
    AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้
    ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025

    ข้อมูลเสริมจากภายนอก
    ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม
    B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ
    ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด
    B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ
    การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025

    https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    🎙️ AMD ปิดตำนาน B650 – เปิดทางสู่ B850 ที่แรงกว่าแต่แพงขึ้น ในโลกของฮาร์ดแวร์ที่เปลี่ยนแปลงเร็วเหมือนกระแสไฟ AMD ได้ประกาศอย่างเป็นทางการว่าจะยุติการผลิตชิปเซ็ต B650 ซึ่งเคยเป็นตัวเลือกยอดนิยมสำหรับผู้ใช้งานระดับกลางที่ต้องการเข้าสู่แพลตฟอร์ม AM5 โดยราคาที่เคยเริ่มต้นราว $125 และลดลงต่ำกว่า $100 ทำให้ B650 เป็นขวัญใจสายประกอบคอมงบจำกัด แต่เมื่อเทคโนโลยีก้าวไปข้างหน้า AMD ก็ต้องปรับตัว โดยเปิดตัวชิปเซ็ต B850 และ B840 ซึ่งเริ่มวางจำหน่ายตั้งแต่ต้นปี 2025 โดย B850 มาพร้อมกับการรองรับ PCIe 5.0 ที่กว้างขึ้น ทั้งในช่องเสียบ GPU และ M.2 NVMe ซึ่งใน B650 นั้นยังเป็นตัวเลือกเสริม ไม่ได้บังคับให้มี AMD ระบุว่าการเปลี่ยนผ่านนี้จะช่วยให้แพลตฟอร์ม AM5 พร้อมสำหรับอนาคต ทั้งในด้านการเชื่อมต่อ ความเร็วในการจัดเก็บข้อมูล และการขยายระบบ โดยเฉพาะสำหรับผู้ใช้งาน Ryzen 9000 และรุ่นใหม่ ๆ ที่ต้องการประสิทธิภาพสูงสุด แม้จะมีข่าวดีเรื่องฟีเจอร์ใหม่ แต่ก็มีผลกระทบตามมา เพราะ B850 มีราคาสูงกว่า B650 และผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีกแล้ว ทำให้ผู้ใช้งานที่ต้องการประกอบคอมราคาประหยัดต้องรีบคว้า B650 ที่ยังเหลืออยู่ในตลาดก่อนหมด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD ประกาศยุติการผลิตชิปเซ็ต B650 อย่างเป็นทางการ ➡️ ผู้ผลิตเมนบอร์ดไม่สามารถสั่งซื้อ B650 เพิ่มได้อีก ➡️ AMD แนะนำให้เปลี่ยนผ่านไปใช้ B850 และ B840 แทน ➡️ B850 รองรับ PCIe 5.0 สำหรับ M.2 NVMe แบบบังคับ และ GPU แบบเลือกได้ ➡️ B650 รองรับ PCIe 5.0 เฉพาะบางรุ่น และไม่บังคับในช่อง GPU ➡️ B850 ใช้ชิป Promontory 21 เหมือนกับ B650 แต่มีฟีเจอร์ที่ปรับปรุง ➡️ B650 เปิดตัวในปี 2022 และได้รับความนิยมจากผู้ใช้งานระดับกลาง ➡️ B850 เปิดตัวต้นปี 2025 พร้อมฟีเจอร์ใหม่และรองรับ Ryzen 9000 ➡️ AMD ยืนยันว่าเมนบอร์ด B650 ที่มีอยู่ยังสามารถใช้งานกับ CPU รุ่นใหม่ได้ ➡️ ผู้ผลิตเมนบอร์ดกำลังทยอยขายสต็อก B650 ให้หมดภายในไตรมาส 3–4 ปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ ราคาของ B650 เคยลดลงต่ำกว่า $100 ทำให้เป็นตัวเลือกยอดนิยม ➡️ B850 มีแนวโน้มราคาสูงขึ้น โดยเฉพาะรุ่นที่รองรับ PCIe 5.0 เต็มรูปแบบ ➡️ ผู้ใช้งานที่ต้องการประกอบคอมขนาดเล็กควรรีบซื้อ B650 ก่อนหมดตลาด ➡️ B850 ช่วยให้ผู้ใช้งานสามารถใช้ GPU และ SSD รุ่นใหม่ได้เต็มประสิทธิภาพ ➡️ การเปลี่ยนผ่านนี้เป็นส่วนหนึ่งของการรีเฟรชแพลตฟอร์ม AM5 ในปี 2024–2025 https://www.tomshardware.com/pc-components/chipsets/amd-discontinues-b650-chipset-to-transition-to-the-newer-b850-chipset-affordable-am5-motherboards-just-got-a-bit-pricier
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ

    ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก

    Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4

    นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น

    Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย

    การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด

    สรุปเนื้อหาเป็นหัวข้อ
    Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung
    Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง
    CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4
    รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit
    ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit
    Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก
    รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี
    มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle
    ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล

    ข้อมูลเสริมจากภายนอก
    TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ
    N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม
    การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry
    Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล
    Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์

    https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    🎙️ Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4 นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung ➡️ Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง ➡️ CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4 ➡️ รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit ➡️ ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit ➡️ Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก ➡️ รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี ➡️ มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle ➡️ ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ ➡️ N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม ➡️ การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry ➡️ Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล ➡️ Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์ https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • เมื่อการรีวิวโค้ดแบบเดิมไม่ตอบโจทย์ – และความพยายามสร้างเครื่องมือใหม่ก็ยังไม่ง่าย

    หลายคนที่เขียนโค้ดคงคุ้นเคยกับการรีวิวโค้ดผ่าน GitHub ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดมากมาย โดยเฉพาะเรื่อง “stacked pull requests” และ “interdiff reviews” ที่ GitHub ยังรองรับได้ไม่ดีนัก

    Matklad จาก TigerBeetle จึงทดลองสร้างเครื่องมือใหม่ชื่อว่า git-review โดยมีแนวคิดว่า “การรีวิวโค้ดควรเป็น commit หนึ่งที่อยู่บน branch ของ PR” ซึ่ง reviewer และ author สามารถแก้ไขร่วมกันได้ โดยใช้ inline comment ในโค้ดจริงแทนการพิมพ์ใน browser

    แนวคิดนี้ช่วยให้การรีวิวโค้ดมีบริบทมากขึ้น เช่น reviewer สามารถรันเทสต์, ลอง refactor, หรือใช้ code completion ได้ทันทีใน editor ของตัวเอง แต่ปัญหาก็เกิดขึ้นเมื่อมีการแก้ไขโค้ดระหว่างรีวิว เพราะ comment ที่อยู่ใน commit อาจขัดแย้งกับโค้ดใหม่ ทำให้เกิด conflict และต้องใช้ git push --force-with-lease ซึ่งเพิ่มความยุ่งยาก

    สุดท้าย แม้แนวคิดจะดี แต่ git-review ก็ถูก “พักไว้ก่อน” เพราะความซับซ้อนเกินกว่าที่จะควบคุมได้ใน 500 บรรทัดของโค้ดต้นแบบ

    อย่างไรก็ตาม Matklad เชื่อว่าอนาคตของ code review อาจเปลี่ยนไป หาก Git รองรับ “Change-Id” แบบ Gerrit ซึ่งจะช่วยให้ track การเปลี่ยนแปลงของ commit ได้ดีขึ้น และอาจเปิดทางให้รีวิวแบบ interdiff กลายเป็นมาตรฐานใหม่

    สรุปเนื้อหาเป็นหัวข้อ
    GitHub มีข้อจำกัดในการรองรับ stacked pull requests และ interdiff reviews
    git-review ถูกสร้างขึ้นเพื่อทดลองแนวคิดใหม่ในการรีวิวโค้ด
    แนวคิดคือการใช้ commit เดียวบน PR branch เพื่อเก็บ comment รีวิว
    Reviewer สามารถใช้ editor ของตัวเองในการรันเทสต์และ refactor ได้ทันที
    การรีวิวแบบนี้ช่วยให้มีบริบทมากกว่าการดู diff ผ่าน browser
    ปัญหาเกิดเมื่อมีการแก้ไขโค้ดระหว่างรีวิว ทำให้ comment เกิด conflict
    ต้องใช้ git push --force-with-lease ซึ่งเพิ่มความยุ่งยาก
    git-review ถูกพักไว้เพราะความซับซ้อนเกินกว่าที่ควบคุมได้
    Matklad หวังว่า Git จะรองรับ Change-Id เพื่อช่วยให้ interdiff review เป็นไปได้
    เขาเชื่อว่าการรีวิวโค้ดควรอยู่ใน repository ไม่ใช่ในระบบ web-based

    ข้อมูลเสริมจากภายนอก
    Gerrit และ Fossil เป็นระบบที่เก็บสถานะรีวิวไว้ใน repository
    เครื่องมืออย่าง git-appraise, git-bug, และ prr พยายามแก้ปัญหานี้ด้วยวิธีต่าง ๆ
    Jane Street ใช้ระบบรีวิวภายในที่ไม่พึ่งพา web interface และมีประสิทธิภาพสูง
    ในปี 2025 เครื่องมือรีวิวโค้ดที่ได้รับความนิยมยังคงเป็น GitHub Pull Requests, Gerrit, และ Phabricator
    DevOps และ Agile ทำให้ความต้องการรีวิวโค้ดแบบ real-time และ contextual เพิ่มขึ้น

    https://tigerbeetle.com/blog/2025-08-04-code-review-can-be-better/
    🎙️ เมื่อการรีวิวโค้ดแบบเดิมไม่ตอบโจทย์ – และความพยายามสร้างเครื่องมือใหม่ก็ยังไม่ง่าย หลายคนที่เขียนโค้ดคงคุ้นเคยกับการรีวิวโค้ดผ่าน GitHub ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดมากมาย โดยเฉพาะเรื่อง “stacked pull requests” และ “interdiff reviews” ที่ GitHub ยังรองรับได้ไม่ดีนัก Matklad จาก TigerBeetle จึงทดลองสร้างเครื่องมือใหม่ชื่อว่า git-review โดยมีแนวคิดว่า “การรีวิวโค้ดควรเป็น commit หนึ่งที่อยู่บน branch ของ PR” ซึ่ง reviewer และ author สามารถแก้ไขร่วมกันได้ โดยใช้ inline comment ในโค้ดจริงแทนการพิมพ์ใน browser แนวคิดนี้ช่วยให้การรีวิวโค้ดมีบริบทมากขึ้น เช่น reviewer สามารถรันเทสต์, ลอง refactor, หรือใช้ code completion ได้ทันทีใน editor ของตัวเอง แต่ปัญหาก็เกิดขึ้นเมื่อมีการแก้ไขโค้ดระหว่างรีวิว เพราะ comment ที่อยู่ใน commit อาจขัดแย้งกับโค้ดใหม่ ทำให้เกิด conflict และต้องใช้ git push --force-with-lease ซึ่งเพิ่มความยุ่งยาก สุดท้าย แม้แนวคิดจะดี แต่ git-review ก็ถูก “พักไว้ก่อน” เพราะความซับซ้อนเกินกว่าที่จะควบคุมได้ใน 500 บรรทัดของโค้ดต้นแบบ อย่างไรก็ตาม Matklad เชื่อว่าอนาคตของ code review อาจเปลี่ยนไป หาก Git รองรับ “Change-Id” แบบ Gerrit ซึ่งจะช่วยให้ track การเปลี่ยนแปลงของ commit ได้ดีขึ้น และอาจเปิดทางให้รีวิวแบบ interdiff กลายเป็นมาตรฐานใหม่ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ GitHub มีข้อจำกัดในการรองรับ stacked pull requests และ interdiff reviews ➡️ git-review ถูกสร้างขึ้นเพื่อทดลองแนวคิดใหม่ในการรีวิวโค้ด ➡️ แนวคิดคือการใช้ commit เดียวบน PR branch เพื่อเก็บ comment รีวิว ➡️ Reviewer สามารถใช้ editor ของตัวเองในการรันเทสต์และ refactor ได้ทันที ➡️ การรีวิวแบบนี้ช่วยให้มีบริบทมากกว่าการดู diff ผ่าน browser ➡️ ปัญหาเกิดเมื่อมีการแก้ไขโค้ดระหว่างรีวิว ทำให้ comment เกิด conflict ➡️ ต้องใช้ git push --force-with-lease ซึ่งเพิ่มความยุ่งยาก ➡️ git-review ถูกพักไว้เพราะความซับซ้อนเกินกว่าที่ควบคุมได้ ➡️ Matklad หวังว่า Git จะรองรับ Change-Id เพื่อช่วยให้ interdiff review เป็นไปได้ ➡️ เขาเชื่อว่าการรีวิวโค้ดควรอยู่ใน repository ไม่ใช่ในระบบ web-based ✅ ข้อมูลเสริมจากภายนอก ➡️ Gerrit และ Fossil เป็นระบบที่เก็บสถานะรีวิวไว้ใน repository ➡️ เครื่องมืออย่าง git-appraise, git-bug, และ prr พยายามแก้ปัญหานี้ด้วยวิธีต่าง ๆ ➡️ Jane Street ใช้ระบบรีวิวภายในที่ไม่พึ่งพา web interface และมีประสิทธิภาพสูง ➡️ ในปี 2025 เครื่องมือรีวิวโค้ดที่ได้รับความนิยมยังคงเป็น GitHub Pull Requests, Gerrit, และ Phabricator ➡️ DevOps และ Agile ทำให้ความต้องการรีวิวโค้ดแบบ real-time และ contextual เพิ่มขึ้น https://tigerbeetle.com/blog/2025-08-04-code-review-can-be-better/
    TIGERBEETLE.COM
    Code Review Can Be Better
    Insights, updates, and technical deep dives on building a high-performance financial transactions database.
    0 ความคิดเห็น 0 การแบ่งปัน 140 มุมมอง 0 รีวิว
  • Samsung 9100 Pro 8TB – SSD ที่เร็วที่สุด พร้อมความจุทะลุขีดจำกัด

    Samsung ได้เปิดตัว SSD รุ่นใหม่ในซีรีส์ 9100 Pro ขนาด 8TB ซึ่งถือเป็นรุ่นที่เร็วและใหญ่ที่สุดในกลุ่มผู้บริโภค โดยใช้เทคโนโลยี PCIe 5.0 ที่สามารถทำความเร็วในการอ่านข้อมูลได้สูงถึง 14,800 MB/s และเขียนข้อมูลได้ถึง 13,400 MB/s ซึ่งเร็วกว่า SSD รุ่นก่อนหน้าที่ใช้ PCIe 4.0 เกือบเท่าตัว

    SSD รุ่นนี้เหมาะสำหรับผู้ใช้งานระดับสูง เช่น นักสร้างคอนเทนต์, นักเล่นเกม, และผู้ใช้ที่ต้องการจัดการข้อมูลขนาดใหญ่ โดยสามารถติดตั้งเกมได้ถึง 80 เกม หากแต่ละเกมมีขนาดเฉลี่ยประมาณ 90GB

    Samsung ยังออกแบบให้รองรับการใช้งานใน PlayStation 5 และมีรุ่นที่มาพร้อมฮีตซิงก์เพื่อป้องกันความร้อนสะสม ซึ่งช่วยให้สามารถใช้งานที่ความเร็วสูงสุดได้นานขึ้นโดยไม่เกิดการ throttle

    แม้จะมีประสิทธิภาพสูง แต่ราคาก็สูงตามไปด้วย โดยรุ่น 8TB มีราคาเปิดตัวที่ประมาณ $1,050 (หรือ €964.99) และรุ่นที่มีฮีตซิงก์อยู่ที่ประมาณ $1,150 (หรือ €983.99) อย่างไรก็ตาม ราคานี้อาจลดลงเมื่อวางจำหน่ายจริงในตลาด

    Samsung ใช้คอนโทรลเลอร์ Presto และ NAND แบบ TLC ที่ผลิตเอง พร้อม DRAM cache ขนาด 8GB และรับประกันการเขียนข้อมูลได้ถึง 4,800TB ภายในระยะเวลา 5 ปี

    สรุปเนื้อหาเป็นหัวข้อ
    Samsung เปิดตัว SSD 9100 Pro รุ่น 8TB ใช้เทคโนโลยี PCIe 5.0
    ความเร็วในการอ่าน/เขียนสูงสุดอยู่ที่ 14,800/13,400 MB/s
    มีรุ่นที่มาพร้อมฮีตซิงก์เพื่อป้องกันความร้อนและรักษาความเร็ว
    รองรับการใช้งานใน PlayStation 5 แม้มีขนาดสูงขึ้น
    สามารถติดตั้งเกมได้ประมาณ 80 เกม หากแต่ละเกมมีขนาดเฉลี่ย 90GB
    ราคาประมาณ $1,050 สำหรับรุ่นธรรมดา และ $1,150 สำหรับรุ่นมีฮีตซิงก์
    ใช้คอนโทรลเลอร์ Presto และ NAND TLC ที่ผลิตโดย Samsung เอง
    DRAM cache ขนาด 8GB และรับประกันการเขียนข้อมูล 4,800TB ใน 5 ปี
    มีอัตราความเสียหายเฉลี่ยต่อปีอยู่ที่ 0.58%
    เป็นหนึ่งใน SSD PCIe 5.0 ขนาด 8TB ที่มีวางจำหน่ายในตลาด

    ข้อมูลเสริมจากภายนอก
    SSD รุ่นนี้เปิดตัวในงาน NVIDIA GTC เพื่อโชว์ศักยภาพด้าน AI และงานหนัก
    มีการปรับปรุงประสิทธิภาพพลังงานดีขึ้นถึง 49% จากรุ่นก่อนหน้า
    ใช้คอนโทรลเลอร์ขนาด 5nm ที่ช่วยลดการใช้พลังงานและความร้อน
    มีความสามารถในการอ่าน/เขียนแบบสุ่มสูงถึง 2.2M/2.6M IOPS
    คาดว่าราคาขายจริงในตลาดอาจลดลงเหลือประมาณ $800

    https://www.tomshardware.com/pc-components/ssds/samsungs-fastest-consumer-ssd-raises-its-capacity-cap-8tb-9100-pro-to-arrive-in-september
    🎙️ Samsung 9100 Pro 8TB – SSD ที่เร็วที่สุด พร้อมความจุทะลุขีดจำกัด Samsung ได้เปิดตัว SSD รุ่นใหม่ในซีรีส์ 9100 Pro ขนาด 8TB ซึ่งถือเป็นรุ่นที่เร็วและใหญ่ที่สุดในกลุ่มผู้บริโภค โดยใช้เทคโนโลยี PCIe 5.0 ที่สามารถทำความเร็วในการอ่านข้อมูลได้สูงถึง 14,800 MB/s และเขียนข้อมูลได้ถึง 13,400 MB/s ซึ่งเร็วกว่า SSD รุ่นก่อนหน้าที่ใช้ PCIe 4.0 เกือบเท่าตัว SSD รุ่นนี้เหมาะสำหรับผู้ใช้งานระดับสูง เช่น นักสร้างคอนเทนต์, นักเล่นเกม, และผู้ใช้ที่ต้องการจัดการข้อมูลขนาดใหญ่ โดยสามารถติดตั้งเกมได้ถึง 80 เกม หากแต่ละเกมมีขนาดเฉลี่ยประมาณ 90GB Samsung ยังออกแบบให้รองรับการใช้งานใน PlayStation 5 และมีรุ่นที่มาพร้อมฮีตซิงก์เพื่อป้องกันความร้อนสะสม ซึ่งช่วยให้สามารถใช้งานที่ความเร็วสูงสุดได้นานขึ้นโดยไม่เกิดการ throttle แม้จะมีประสิทธิภาพสูง แต่ราคาก็สูงตามไปด้วย โดยรุ่น 8TB มีราคาเปิดตัวที่ประมาณ $1,050 (หรือ €964.99) และรุ่นที่มีฮีตซิงก์อยู่ที่ประมาณ $1,150 (หรือ €983.99) อย่างไรก็ตาม ราคานี้อาจลดลงเมื่อวางจำหน่ายจริงในตลาด Samsung ใช้คอนโทรลเลอร์ Presto และ NAND แบบ TLC ที่ผลิตเอง พร้อม DRAM cache ขนาด 8GB และรับประกันการเขียนข้อมูลได้ถึง 4,800TB ภายในระยะเวลา 5 ปี 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Samsung เปิดตัว SSD 9100 Pro รุ่น 8TB ใช้เทคโนโลยี PCIe 5.0 ➡️ ความเร็วในการอ่าน/เขียนสูงสุดอยู่ที่ 14,800/13,400 MB/s ➡️ มีรุ่นที่มาพร้อมฮีตซิงก์เพื่อป้องกันความร้อนและรักษาความเร็ว ➡️ รองรับการใช้งานใน PlayStation 5 แม้มีขนาดสูงขึ้น ➡️ สามารถติดตั้งเกมได้ประมาณ 80 เกม หากแต่ละเกมมีขนาดเฉลี่ย 90GB ➡️ ราคาประมาณ $1,050 สำหรับรุ่นธรรมดา และ $1,150 สำหรับรุ่นมีฮีตซิงก์ ➡️ ใช้คอนโทรลเลอร์ Presto และ NAND TLC ที่ผลิตโดย Samsung เอง ➡️ DRAM cache ขนาด 8GB และรับประกันการเขียนข้อมูล 4,800TB ใน 5 ปี ➡️ มีอัตราความเสียหายเฉลี่ยต่อปีอยู่ที่ 0.58% ➡️ เป็นหนึ่งใน SSD PCIe 5.0 ขนาด 8TB ที่มีวางจำหน่ายในตลาด ✅ ข้อมูลเสริมจากภายนอก ➡️ SSD รุ่นนี้เปิดตัวในงาน NVIDIA GTC เพื่อโชว์ศักยภาพด้าน AI และงานหนัก ➡️ มีการปรับปรุงประสิทธิภาพพลังงานดีขึ้นถึง 49% จากรุ่นก่อนหน้า ➡️ ใช้คอนโทรลเลอร์ขนาด 5nm ที่ช่วยลดการใช้พลังงานและความร้อน ➡️ มีความสามารถในการอ่าน/เขียนแบบสุ่มสูงถึง 2.2M/2.6M IOPS ➡️ คาดว่าราคาขายจริงในตลาดอาจลดลงเหลือประมาณ $800 https://www.tomshardware.com/pc-components/ssds/samsungs-fastest-consumer-ssd-raises-its-capacity-cap-8tb-9100-pro-to-arrive-in-september
    0 ความคิดเห็น 0 การแบ่งปัน 130 มุมมอง 0 รีวิว
  • Ryzen 5 9500F – ชิปประหยัดรุ่นใหม่จาก AMD ที่แรงเกินราคา

    AMD กำลังขยายไลน์ผลิตภัณฑ์ Ryzen 9000 ด้วยรุ่นใหม่ที่ชื่อว่า Ryzen 5 9500F ซึ่งหลุดข้อมูลผ่าน Geekbench โดยมีสเปกใกล้เคียงกับ Ryzen 5 9600 แต่ไม่มีกราฟิกในตัว (iGPU) ทำให้ราคาน่าจะต่ำกว่า $200

    Ryzen 5 9500F ใช้สถาปัตยกรรม Zen 5 “Granite Ridge” มี 6 คอร์ 12 เธรด พร้อม L3 cache ขนาด 32MB และ L2 cache 6MB ความเร็วพื้นฐานอยู่ที่ 3.8GHz และบูสต์ได้สูงสุดถึง 5.0GHz ซึ่งใกล้เคียงกับ Ryzen 5 9600 ที่บูสต์ได้ 5.2GHz

    ผลการทดสอบ Geekbench 6 แสดงให้เห็นว่า Ryzen 5 9500F ทำคะแนน single-core ได้ 3,122 และ multi-core ได้ 14,369 ซึ่งแทบไม่ต่างจาก Ryzen 5 9600 ที่ทำได้ 3,166 / 14,257 แสดงให้เห็นว่าประสิทธิภาพใกล้เคียงกันมาก

    แม้ AMD ยังไม่ประกาศเปิดตัวอย่างเป็นทางการ แต่มีข้อมูลจากผู้ผลิตเมนบอร์ดว่า AGESA เวอร์ชันล่าสุดรองรับชิปรุ่นนี้แล้ว ซึ่งบ่งชี้ว่าอาจเปิดตัวเร็ว ๆ นี้

    ข้อมูลในข่าว
    Ryzen 5 9500F เป็นซีพียู Zen 5 รุ่นใหม่ที่ไม่มี iGPU
    มี 6 คอร์ 12 เธรด พร้อม L3 cache 32MB และ L2 cache 6MB
    ความเร็วพื้นฐาน 3.8GHz และบูสต์สูงสุด 5.0GHz
    ใช้สถาปัตยกรรม Granite Ridge เหมือน Ryzen 5 9600
    คะแนน Geekbench: 3,122 (single-core) / 14,369 (multi-core)
    ประสิทธิภาพใกล้เคียงกับ Ryzen 5 9600 ที่มี iGPU
    คาดว่าจะมีราคาไม่เกิน $179 ซึ่งต่ำกว่า Ryzen 5 9600X
    AGESA เวอร์ชันล่าสุดรองรับ Ryzen 5 9500F แล้ว
    ออกแบบมาสำหรับผู้ใช้ที่ไม่ต้องการกราฟิกในตัว เช่น เกมเมอร์ที่ใช้การ์ดจอแยก

    ข้อมูลเสริมจากภายนอก
    Ryzen 5 9500F เหมาะกับผู้ใช้ที่ต้องการประสิทธิภาพสูงในราคาประหยัด
    การไม่มี iGPU ช่วยลดต้นทุนและเพิ่มประสิทธิภาพด้านพลังงาน
    Granite Ridge ใช้เทคโนโลยีการผลิต 4nm จาก TSMC
    รองรับ DDR5 และ PCIe 5.0 บนแพลตฟอร์ม AM5
    เหมาะกับเมนบอร์ด B850 และ X870 ที่เปิดตัวในปี 2025
    การแข่งขันในตลาดซีพียูระดับกลางยังคงดุเดือด โดย Intel เตรียมเปิดตัว Core i5-14600

    https://wccftech.com/amd-ryzen-5-9500f-spotted-on-geekbench/
    💻 Ryzen 5 9500F – ชิปประหยัดรุ่นใหม่จาก AMD ที่แรงเกินราคา AMD กำลังขยายไลน์ผลิตภัณฑ์ Ryzen 9000 ด้วยรุ่นใหม่ที่ชื่อว่า Ryzen 5 9500F ซึ่งหลุดข้อมูลผ่าน Geekbench โดยมีสเปกใกล้เคียงกับ Ryzen 5 9600 แต่ไม่มีกราฟิกในตัว (iGPU) ทำให้ราคาน่าจะต่ำกว่า $200 Ryzen 5 9500F ใช้สถาปัตยกรรม Zen 5 “Granite Ridge” มี 6 คอร์ 12 เธรด พร้อม L3 cache ขนาด 32MB และ L2 cache 6MB ความเร็วพื้นฐานอยู่ที่ 3.8GHz และบูสต์ได้สูงสุดถึง 5.0GHz ซึ่งใกล้เคียงกับ Ryzen 5 9600 ที่บูสต์ได้ 5.2GHz ผลการทดสอบ Geekbench 6 แสดงให้เห็นว่า Ryzen 5 9500F ทำคะแนน single-core ได้ 3,122 และ multi-core ได้ 14,369 ซึ่งแทบไม่ต่างจาก Ryzen 5 9600 ที่ทำได้ 3,166 / 14,257 แสดงให้เห็นว่าประสิทธิภาพใกล้เคียงกันมาก แม้ AMD ยังไม่ประกาศเปิดตัวอย่างเป็นทางการ แต่มีข้อมูลจากผู้ผลิตเมนบอร์ดว่า AGESA เวอร์ชันล่าสุดรองรับชิปรุ่นนี้แล้ว ซึ่งบ่งชี้ว่าอาจเปิดตัวเร็ว ๆ นี้ ✅ ข้อมูลในข่าว ➡️ Ryzen 5 9500F เป็นซีพียู Zen 5 รุ่นใหม่ที่ไม่มี iGPU ➡️ มี 6 คอร์ 12 เธรด พร้อม L3 cache 32MB และ L2 cache 6MB ➡️ ความเร็วพื้นฐาน 3.8GHz และบูสต์สูงสุด 5.0GHz ➡️ ใช้สถาปัตยกรรม Granite Ridge เหมือน Ryzen 5 9600 ➡️ คะแนน Geekbench: 3,122 (single-core) / 14,369 (multi-core) ➡️ ประสิทธิภาพใกล้เคียงกับ Ryzen 5 9600 ที่มี iGPU ➡️ คาดว่าจะมีราคาไม่เกิน $179 ซึ่งต่ำกว่า Ryzen 5 9600X ➡️ AGESA เวอร์ชันล่าสุดรองรับ Ryzen 5 9500F แล้ว ➡️ ออกแบบมาสำหรับผู้ใช้ที่ไม่ต้องการกราฟิกในตัว เช่น เกมเมอร์ที่ใช้การ์ดจอแยก ✅ ข้อมูลเสริมจากภายนอก ➡️ Ryzen 5 9500F เหมาะกับผู้ใช้ที่ต้องการประสิทธิภาพสูงในราคาประหยัด ➡️ การไม่มี iGPU ช่วยลดต้นทุนและเพิ่มประสิทธิภาพด้านพลังงาน ➡️ Granite Ridge ใช้เทคโนโลยีการผลิต 4nm จาก TSMC ➡️ รองรับ DDR5 และ PCIe 5.0 บนแพลตฟอร์ม AM5 ➡️ เหมาะกับเมนบอร์ด B850 และ X870 ที่เปิดตัวในปี 2025 ➡️ การแข่งขันในตลาดซีพียูระดับกลางยังคงดุเดือด โดย Intel เตรียมเปิดตัว Core i5-14600 https://wccftech.com/amd-ryzen-5-9500f-spotted-on-geekbench/
    WCCFTECH.COM
    AMD Ryzen 5 9500F Leaked: Another Budget Zen 5 CPU With Six Cores And Base Clock Of 3.8 GHz
    AMD has prepared a new Ryzen 9000 CPU as spotted on Geekbench. The CPU is the Ryzen 5 9500F, which is a 6-core/12-thread SKU.
    0 ความคิดเห็น 0 การแบ่งปัน 127 มุมมอง 0 รีวิว
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น

    กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น

    หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime

    ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ

    ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง

    แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่

    ข้อมูลจากข่าวหลัก
    NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล
    Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา
    Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD
    Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์
    Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย
    Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ
    NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3
    ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร

    ข้อมูลเสริมจากภายนอก
    NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก
    RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่
    Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน
    Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ
    Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด
    Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น

    https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    🚀 NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่ ✅ ข้อมูลจากข่าวหลัก ➡️ NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล ➡️ Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา ➡️ Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ➡️ Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ➡️ Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย ➡️ Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ ➡️ NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3 ➡️ ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก ➡️ RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่ ➡️ Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน ➡️ Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ ➡️ Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด ➡️ Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    0 ความคิดเห็น 0 การแบ่งปัน 159 มุมมอง 0 รีวิว
  • SK Hynix พลิกเกม DRAM โลก โค่น Samsung หลังครองตลาด 33 ปี

    ในปี 2025 SK Hynix ได้สร้างประวัติศาสตร์ใหม่ในวงการเซมิคอนดักเตอร์ ด้วยการแซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM อันดับหนึ่งของโลกเป็นครั้งแรกในรอบ 33 ปี โดยมีส่วนแบ่งตลาด 36.3% ขณะที่ Samsung ลดลงเหลือ 32.7% ซึ่งถือเป็นการลดลงครั้งใหญ่ที่สุดนับตั้งแต่เริ่มบันทึกสถิติในปี 1999

    ปัจจัยสำคัญคือ SK Hynix ได้รับสัญญาจัดหา HBM (High Bandwidth Memory) จาก NVIDIA ซึ่งเป็นลูกค้ารายใหญ่ที่สุดในตลาด AI และ GPU ขณะที่ Samsungพลาดดีลสำคัญนี้ไป ทำให้สูญเสียรายได้มหาศาล

    นอกจาก HBM3 และ HBM3E แล้ว SK Hynix ยังเป็นบริษัทแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ซึ่งทำให้บริษัทกลายเป็นผู้นำในตลาดหน่วยความจำสำหรับงาน AI และ LLM (Large Language Models)

    แม้ Samsung จะพยายามกลับมาโดยลดราคาผลิตภัณฑ์ HBM3E และเร่งพัฒนา HBM4 แต่ก็ยังไม่สามารถทวงคืนตำแหน่งได้ในระยะสั้น โดยรายงานระบุว่า Samsung มีรายได้จาก DRAM ลดลงถึง 19% ในไตรมาสเดียว

    SK Hynix ขึ้นแท่นผู้นำ DRAM โลก
    ส่วนแบ่งตลาด DRAM ของ SK Hynix อยู่ที่ 36.3% แซงหน้า Samsung ที่เหลือ 32.7%
    เป็นครั้งแรกในรอบ 33 ปีที่ Samsung ถูกโค่นจากตำแหน่งผู้นำ
    SK Hynix ได้รับสัญญาจัดหา HBM จาก NVIDIA ซึ่งเป็นลูกค้าหลักในตลาด AI
    บริษัทมีรายได้จากหน่วยความจำ $9.72 พันล้านใน Q2 2025
    SK Hynix เป็นรายแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ
    มีส่วนแบ่งในตลาด HBM สูงถึง 62% และกำลังเพิ่มขึ้น

    ข้อมูลเสริมจากภายนอก
    HBM เป็นหน่วยความจำที่ใช้ในงาน AI เช่น LLM และ GPU ประสิทธิภาพสูง
    Samsung เคยใช้ GDDR7 กับ RTX50 แต่ถูกลดบทบาทในสายผลิตภัณฑ์ใหม่
    Micron อยู่ในอันดับสามของตลาด DRAM ด้วยรายได้ $6.58 พันล้าน
    ตลาด DRAM โดยรวมลดลง 5.5% ใน Q1 2025 จากราคาสัญญาที่ตกต่ำ
    SK Hynix มีแผนเพิ่มสัดส่วน HBM3E แบบ 12-layer ให้เกิน 80% ในครึ่งหลังของปี
    การเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนยุคจาก DRAM แบบดั้งเดิมสู่ HBM สำหรับ AI

    https://wccftech.com/sk-hynix-has-managed-to-end-samsung-three-decade-long-dominance-in-the-dram-industry/
    🏆 SK Hynix พลิกเกม DRAM โลก โค่น Samsung หลังครองตลาด 33 ปี ในปี 2025 SK Hynix ได้สร้างประวัติศาสตร์ใหม่ในวงการเซมิคอนดักเตอร์ ด้วยการแซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM อันดับหนึ่งของโลกเป็นครั้งแรกในรอบ 33 ปี โดยมีส่วนแบ่งตลาด 36.3% ขณะที่ Samsung ลดลงเหลือ 32.7% ซึ่งถือเป็นการลดลงครั้งใหญ่ที่สุดนับตั้งแต่เริ่มบันทึกสถิติในปี 1999 ปัจจัยสำคัญคือ SK Hynix ได้รับสัญญาจัดหา HBM (High Bandwidth Memory) จาก NVIDIA ซึ่งเป็นลูกค้ารายใหญ่ที่สุดในตลาด AI และ GPU ขณะที่ Samsungพลาดดีลสำคัญนี้ไป ทำให้สูญเสียรายได้มหาศาล นอกจาก HBM3 และ HBM3E แล้ว SK Hynix ยังเป็นบริษัทแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ซึ่งทำให้บริษัทกลายเป็นผู้นำในตลาดหน่วยความจำสำหรับงาน AI และ LLM (Large Language Models) แม้ Samsung จะพยายามกลับมาโดยลดราคาผลิตภัณฑ์ HBM3E และเร่งพัฒนา HBM4 แต่ก็ยังไม่สามารถทวงคืนตำแหน่งได้ในระยะสั้น โดยรายงานระบุว่า Samsung มีรายได้จาก DRAM ลดลงถึง 19% ในไตรมาสเดียว ✅ SK Hynix ขึ้นแท่นผู้นำ DRAM โลก ➡️ ส่วนแบ่งตลาด DRAM ของ SK Hynix อยู่ที่ 36.3% แซงหน้า Samsung ที่เหลือ 32.7% ➡️ เป็นครั้งแรกในรอบ 33 ปีที่ Samsung ถูกโค่นจากตำแหน่งผู้นำ ➡️ SK Hynix ได้รับสัญญาจัดหา HBM จาก NVIDIA ซึ่งเป็นลูกค้าหลักในตลาด AI ➡️ บริษัทมีรายได้จากหน่วยความจำ $9.72 พันล้านใน Q2 2025 ➡️ SK Hynix เป็นรายแรกที่ผลิต HBM4 แบบเต็มรูปแบบได้สำเร็จ ➡️ มีส่วนแบ่งในตลาด HBM สูงถึง 62% และกำลังเพิ่มขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM เป็นหน่วยความจำที่ใช้ในงาน AI เช่น LLM และ GPU ประสิทธิภาพสูง ➡️ Samsung เคยใช้ GDDR7 กับ RTX50 แต่ถูกลดบทบาทในสายผลิตภัณฑ์ใหม่ ➡️ Micron อยู่ในอันดับสามของตลาด DRAM ด้วยรายได้ $6.58 พันล้าน ➡️ ตลาด DRAM โดยรวมลดลง 5.5% ใน Q1 2025 จากราคาสัญญาที่ตกต่ำ ➡️ SK Hynix มีแผนเพิ่มสัดส่วน HBM3E แบบ 12-layer ให้เกิน 80% ในครึ่งหลังของปี ➡️ การเปลี่ยนแปลงนี้สะท้อนถึงการเปลี่ยนยุคจาก DRAM แบบดั้งเดิมสู่ HBM สำหรับ AI https://wccftech.com/sk-hynix-has-managed-to-end-samsung-three-decade-long-dominance-in-the-dram-industry/
    WCCFTECH.COM
    SK Hynix Has Managed to End Samsung's Three-Decade-Long Dominance in the DRAM Industry, as the Latter Witnesses Its Biggest-Ever Drop in Market Share This Year
    Well, Samsung has lost its dominance in the DRAM segment, as according to newer statistics, SK hynix is now holding the lion's share.
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070

    ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?”

    จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima

    ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม

    อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ

    RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง

    ประสิทธิภาพของแต่ละรุ่น
    RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K
    Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS
    Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS
    Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS
    RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25%
    RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า

    ข้อมูลเสริมจากภายนอก
    RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7
    รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น
    RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ
    RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p
    RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ
    การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา

    https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    🎯 ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070 ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?” จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง ✅ ประสิทธิภาพของแต่ละรุ่น ➡️ RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K ➡️ Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS ➡️ Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS ➡️ Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS ➡️ RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25% ➡️ RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7 ➡️ รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น ➡️ RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ ➡️ RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p ➡️ RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ ➡️ การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • Radeon AI PRO R9700: การ์ดจอสำหรับ AI ที่ออกแบบมาเพื่อเวิร์กสเตชันโดยเฉพาะ

    AMD เปิดตัว Radeon AI PRO R9700 ซึ่งเป็นกราฟิกการ์ดระดับมืออาชีพที่ใช้สถาปัตยกรรม RDNA 4 พร้อมหน่วยความจำ GDDR6 ขนาด 32GB และ 128 AI Accelerators โดยเน้นการใช้งานด้าน AI inference, LLMs, การประมวลผลภาพทางการแพทย์ และงานวิทยาศาสตร์ข้อมูล

    การ์ดนี้มีความสามารถในการประมวลผลสูงถึง 1531 TOPS (INT4) และ 96 TFLOPS (FP16) พร้อมรองรับ PCIe 5.0 x16 และ ECC memory สำหรับ Linux โดยสามารถใช้งานแบบ multi-GPU ได้ถึง 4 ใบ รวม VRAM ได้ถึง 112GB เหมาะกับโมเดลขนาดใหญ่ เช่น LLaMA 70B หรือ Mistral Large

    ASRock และ GIGABYTE ต่างเปิดตัวรุ่น Creator Edition ที่ใช้ระบบระบายความร้อนแบบ blower fan พร้อม vapor chamber และวัสดุเกรดเซิร์ฟเวอร์ เช่น thermal gel และ metal grease เพื่อรองรับการใช้งานต่อเนื่องในระบบ rackmount

    แม้จะมีประสิทธิภาพสูง แต่ราคาก็สูงตาม โดยรุ่น ASRock อยู่ที่ $1329 และ GIGABYTE ประมาณ $1220 ซึ่งแพงกว่าการ์ดเล่นเกม RX 9070 XT ถึงสองเท่า แม้จะใช้สเปกใกล้เคียงกัน

    การออกแบบของรุ่น ASRock และ GIGABYTE
    ใช้ระบบระบายความร้อน blower fan พร้อม vapor chamber
    มี thermal gel เกรดเซิร์ฟเวอร์และ metal grease สำหรับ GPU
    รองรับการติดตั้งในเคสแบบ rackmount ด้วยการวางหัวจ่ายไฟด้านท้าย
    มี DisplayPort 2.1a จำนวน 4 ช่อง รองรับภาพ 8K

    การวางจำหน่ายและราคา
    เปิดตัวในเดือนกรกฎาคม 2025
    ราคาประมาณ $1329 สำหรับรุ่น ASRock Creator
    GIGABYTE รุ่น Turbo Fan มีราคาประมาณ $1220 ก่อนภาษี
    วางขายผ่านผู้ผลิตระบบ (SI) และร้านค้าบางแห่งเท่านั้น

    https://wccftech.com/asrock-creator-radeon-ai-pro-r9700-listed-on-newegg-for-1329/
    🧠 Radeon AI PRO R9700: การ์ดจอสำหรับ AI ที่ออกแบบมาเพื่อเวิร์กสเตชันโดยเฉพาะ AMD เปิดตัว Radeon AI PRO R9700 ซึ่งเป็นกราฟิกการ์ดระดับมืออาชีพที่ใช้สถาปัตยกรรม RDNA 4 พร้อมหน่วยความจำ GDDR6 ขนาด 32GB และ 128 AI Accelerators โดยเน้นการใช้งานด้าน AI inference, LLMs, การประมวลผลภาพทางการแพทย์ และงานวิทยาศาสตร์ข้อมูล การ์ดนี้มีความสามารถในการประมวลผลสูงถึง 1531 TOPS (INT4) และ 96 TFLOPS (FP16) พร้อมรองรับ PCIe 5.0 x16 และ ECC memory สำหรับ Linux โดยสามารถใช้งานแบบ multi-GPU ได้ถึง 4 ใบ รวม VRAM ได้ถึง 112GB เหมาะกับโมเดลขนาดใหญ่ เช่น LLaMA 70B หรือ Mistral Large ASRock และ GIGABYTE ต่างเปิดตัวรุ่น Creator Edition ที่ใช้ระบบระบายความร้อนแบบ blower fan พร้อม vapor chamber และวัสดุเกรดเซิร์ฟเวอร์ เช่น thermal gel และ metal grease เพื่อรองรับการใช้งานต่อเนื่องในระบบ rackmount แม้จะมีประสิทธิภาพสูง แต่ราคาก็สูงตาม โดยรุ่น ASRock อยู่ที่ $1329 และ GIGABYTE ประมาณ $1220 ซึ่งแพงกว่าการ์ดเล่นเกม RX 9070 XT ถึงสองเท่า แม้จะใช้สเปกใกล้เคียงกัน ✅ การออกแบบของรุ่น ASRock และ GIGABYTE ➡️ ใช้ระบบระบายความร้อน blower fan พร้อม vapor chamber ➡️ มี thermal gel เกรดเซิร์ฟเวอร์และ metal grease สำหรับ GPU ➡️ รองรับการติดตั้งในเคสแบบ rackmount ด้วยการวางหัวจ่ายไฟด้านท้าย ➡️ มี DisplayPort 2.1a จำนวน 4 ช่อง รองรับภาพ 8K ✅ การวางจำหน่ายและราคา ➡️ เปิดตัวในเดือนกรกฎาคม 2025 ➡️ ราคาประมาณ $1329 สำหรับรุ่น ASRock Creator ➡️ GIGABYTE รุ่น Turbo Fan มีราคาประมาณ $1220 ก่อนภาษี ➡️ วางขายผ่านผู้ผลิตระบบ (SI) และร้านค้าบางแห่งเท่านั้น https://wccftech.com/asrock-creator-radeon-ai-pro-r9700-listed-on-newegg-for-1329/
    WCCFTECH.COM
    ASRock Creator Radeon AI PRO R9700 Listed On Newegg For $1329; GIGABYTE's Custom Edition Also Reportedly Shares The Same Price
    AMD's latest RDNA 4-based Radeon AI PRO R9700 has started shipping to users. As seen on Newegg, the ASRock Creator Radeon AI PRO R9700 costs $1329.
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร

    MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB

    การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ

    จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว

    แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก

    สเปกและการออกแบบของ Arc Pro B60 Dual
    ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6
    มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s
    ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21
    เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน
    ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate

    จุดเด่นด้านการใช้งาน
    เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง
    รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV
    ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation
    ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์

    การวางจำหน่ายและราคา
    เปิดตัววันที่ 18 สิงหาคม 2025
    ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU
    ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป
    หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090

    Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด
    ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด
    ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น
    การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป
    หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์

    https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    🧠 MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก ✅ สเปกและการออกแบบของ Arc Pro B60 Dual ➡️ ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6 ➡️ มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s ➡️ ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 ➡️ เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน ➡️ ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate ✅ จุดเด่นด้านการใช้งาน ➡️ เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง ➡️ รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV ➡️ ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation ➡️ ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์ ✅ การวางจำหน่ายและราคา ➡️ เปิดตัววันที่ 18 สิงหาคม 2025 ➡️ ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU ➡️ ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป ➡️ หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090 ⛔ Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด ⛔ ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด ⛔ ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น ⛔ การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป ⛔ หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์ https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    WCCFTECH.COM
    As MAXSUN Prepares To Launch Arc Pro B60 Dual GPU Next Week, Intel Is Supposedly Facing Inventory Issues With B60
    According to a conversation between a company and MAXSUN's manager, the GPU manufacturer is expected to launch the Arc Pro B60 Dual next week
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • Intel โชว์ชิป Arm บนเทคโนโลยี 18A: เกมใหม่ของโรงงานผลิตชิป

    ในโลกที่ Intel เคยเป็นเจ้าพ่อแห่ง x86 การที่บริษัทลุกขึ้นมาสร้างชิป Arm ด้วยตัวเองถือเป็นการเปลี่ยนเกมครั้งใหญ่ และนั่นคือสิ่งที่เกิดขึ้นกับ “Deer Creek Falls”—ชิป SoC ต้นแบบที่ผลิตบนเทคโนโลยี 18A ซึ่งเป็นกระบวนการผลิตระดับล้ำยุคของ Intel

    ชิปนี้มีโครงสร้างแบบ hybrid ประกอบด้วย 7 คอร์: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน และ 4 คอร์ประหยัดพลังงานขั้นสุด พร้อม PCIe และ memory controller ที่ได้จากพันธมิตรใน ecosystem ซึ่งแสดงให้เห็นว่า Intel พร้อมเปิดรับการออกแบบจากภายนอก ไม่ใช่แค่ x86 อีกต่อไป

    แม้ Intel จะไม่พูดตรง ๆ ว่าเป็นชิป Arm แต่ในวิดีโอที่โชว์การปรับแต่งประสิทธิภาพ มีการพูดถึง AArch64 ซึ่งเป็นชุดคำสั่ง 64-bit ของ Arm อย่างชัดเจน แถมยังโชว์เครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ซึ่งสวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือรองรับลูกค้าภายนอก

    แม้ชิปนี้จะยังไม่ใช่ผลิตภัณฑ์เชิงพาณิชย์ แต่มันคือการส่งสัญญาณว่า Intel Foundry พร้อมรับงานจากลูกค้า Arm และอาจใช้ชิปนี้เป็นตัวดึงดูดให้ Apple หรือ NVIDIA หันมาพิจารณาเทคโนโลยี 14A ที่กำลังจะมา

    การออกแบบของ Deer Creek Falls SoC
    ใช้โครงสร้าง hybrid: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน, 4 คอร์ประหยัดพลังงานขั้นสุด
    รวม PCIe controller และ memory controller จากพันธมิตรใน ecosystem
    ใช้เทคโนโลยี 18A ซึ่งมี RibbonFET และ PowerVia เพิ่มประสิทธิภาพต่อวัตต์

    การยืนยันว่าเป็นชิป Arm
    มีการกล่าวถึง AArch64 ในวิดีโอ ซึ่งเป็นชุดคำสั่งของ Arm
    โครงสร้างคอร์แบบสามระดับคล้าย Snapdragon 8 จาก Qualcomm
    Intel ไม่พูดตรง ๆ ว่าเป็น Arm แต่โครงสร้างและคำศัพท์บ่งชี้ชัดเจน

    เครื่องมือปรับแต่งประสิทธิภาพสำหรับ Arm
    Intel โชว์ชุดเครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ
    แสดงให้เห็นว่า Intel Foundry พร้อมรองรับลูกค้าภายนอก
    สวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือสำหรับ Arm

    เป้าหมายของ Intel Foundry
    ใช้ Deer Creek Falls เป็นตัวโชว์ศักยภาพของโรงงาน
    หวังดึงดูดลูกค้าอย่าง Apple และ NVIDIA ให้ใช้เทคโนโลยี 14A
    รัฐบาลสหรัฐฯ ให้ความสนใจ อาจผลักดันให้เกิดการใช้งานจริงเร็วขึ้น

    https://www.techpowerup.com/339952/intel-showcases-reference-arm-based-soc-manufactured-on-18a-node
    🧠 Intel โชว์ชิป Arm บนเทคโนโลยี 18A: เกมใหม่ของโรงงานผลิตชิป ในโลกที่ Intel เคยเป็นเจ้าพ่อแห่ง x86 การที่บริษัทลุกขึ้นมาสร้างชิป Arm ด้วยตัวเองถือเป็นการเปลี่ยนเกมครั้งใหญ่ และนั่นคือสิ่งที่เกิดขึ้นกับ “Deer Creek Falls”—ชิป SoC ต้นแบบที่ผลิตบนเทคโนโลยี 18A ซึ่งเป็นกระบวนการผลิตระดับล้ำยุคของ Intel ชิปนี้มีโครงสร้างแบบ hybrid ประกอบด้วย 7 คอร์: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน และ 4 คอร์ประหยัดพลังงานขั้นสุด พร้อม PCIe และ memory controller ที่ได้จากพันธมิตรใน ecosystem ซึ่งแสดงให้เห็นว่า Intel พร้อมเปิดรับการออกแบบจากภายนอก ไม่ใช่แค่ x86 อีกต่อไป แม้ Intel จะไม่พูดตรง ๆ ว่าเป็นชิป Arm แต่ในวิดีโอที่โชว์การปรับแต่งประสิทธิภาพ มีการพูดถึง AArch64 ซึ่งเป็นชุดคำสั่ง 64-bit ของ Arm อย่างชัดเจน แถมยังโชว์เครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ซึ่งสวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือรองรับลูกค้าภายนอก แม้ชิปนี้จะยังไม่ใช่ผลิตภัณฑ์เชิงพาณิชย์ แต่มันคือการส่งสัญญาณว่า Intel Foundry พร้อมรับงานจากลูกค้า Arm และอาจใช้ชิปนี้เป็นตัวดึงดูดให้ Apple หรือ NVIDIA หันมาพิจารณาเทคโนโลยี 14A ที่กำลังจะมา ✅ การออกแบบของ Deer Creek Falls SoC ➡️ ใช้โครงสร้าง hybrid: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน, 4 คอร์ประหยัดพลังงานขั้นสุด ➡️ รวม PCIe controller และ memory controller จากพันธมิตรใน ecosystem ➡️ ใช้เทคโนโลยี 18A ซึ่งมี RibbonFET และ PowerVia เพิ่มประสิทธิภาพต่อวัตต์ ✅ การยืนยันว่าเป็นชิป Arm ➡️ มีการกล่าวถึง AArch64 ในวิดีโอ ซึ่งเป็นชุดคำสั่งของ Arm ➡️ โครงสร้างคอร์แบบสามระดับคล้าย Snapdragon 8 จาก Qualcomm ➡️ Intel ไม่พูดตรง ๆ ว่าเป็น Arm แต่โครงสร้างและคำศัพท์บ่งชี้ชัดเจน ✅ เครื่องมือปรับแต่งประสิทธิภาพสำหรับ Arm ➡️ Intel โชว์ชุดเครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ➡️ แสดงให้เห็นว่า Intel Foundry พร้อมรองรับลูกค้าภายนอก ➡️ สวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือสำหรับ Arm ✅ เป้าหมายของ Intel Foundry ➡️ ใช้ Deer Creek Falls เป็นตัวโชว์ศักยภาพของโรงงาน ➡️ หวังดึงดูดลูกค้าอย่าง Apple และ NVIDIA ให้ใช้เทคโนโลยี 14A ➡️ รัฐบาลสหรัฐฯ ให้ความสนใจ อาจผลักดันให้เกิดการใช้งานจริงเร็วขึ้น https://www.techpowerup.com/339952/intel-showcases-reference-arm-based-soc-manufactured-on-18a-node
    WWW.TECHPOWERUP.COM
    Intel Showcases Reference Arm-based SoC Manufactured on 18A Node
    Intel Foundry has been releasing content on its products and services, and today, an interesting update came across. Intel showed a reference "Deer Creek Falls" SoC of what they call a "non-x86" design, manufactured on the 18A node. However, the design is actually Arm-based SoC. Consisting of seven ...
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY

    เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit

    แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY

    การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด

    เทียบกับคู่แข่ง: Nvidia และ Intel

    แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด

    ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก

    การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY
    เดิมจำกัดการขายเฉพาะ OEM และ SI
    ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก
    ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง

    สเปกเด่นของ R9700
    ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators
    VRAM ขนาด 32GB GDDR6 บนบัส 256-bit
    ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4

    การออกแบบและการใช้งาน
    ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์
    รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local
    ใช้ PCIe 5.0 x16 และมีขนาด 2-slot

    เปรียบเทียบกับคู่แข่ง
    RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999
    Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200
    R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI

    https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    🧠 Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด 📊 เทียบกับคู่แข่ง: Nvidia และ Intel แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก ✅ การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY ➡️ เดิมจำกัดการขายเฉพาะ OEM และ SI ➡️ ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก ➡️ ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง ✅ สเปกเด่นของ R9700 ➡️ ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators ➡️ VRAM ขนาด 32GB GDDR6 บนบัส 256-bit ➡️ ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4 ✅ การออกแบบและการใช้งาน ➡️ ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์ ➡️ รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local ➡️ ใช้ PCIe 5.0 x16 และมีขนาด 2-slot ✅ เปรียบเทียบกับคู่แข่ง ➡️ RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999 ➡️ Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200 ➡️ R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    0 ความคิดเห็น 0 การแบ่งปัน 197 มุมมอง 0 รีวิว
  • ⚡️ Gemma 3 270M — โมเดล AI ขนาดเล็กที่ฉลาดเกินตัว และประหยัดพลังงานสุดขีด

    Google เปิดตัว Gemma 3 270M ซึ่งเป็นโมเดล AI ขนาดเล็กเพียง 270 ล้านพารามิเตอร์ แต่มีความสามารถในการทำงานเฉพาะทางได้อย่างแม่นยำและมีประสิทธิภาพสูง โดยออกแบบมาเพื่อการ fine-tune สำหรับงานที่ชัดเจน เช่น การจัดโครงสร้างข้อความ การวิเคราะห์ความรู้สึก หรือการสกัดข้อมูลจากข้อความ

    Gemma 3 270M มีจุดเด่นคือการประหยัดพลังงานอย่างมาก — จากการทดสอบบน Pixel 9 Pro พบว่าโมเดลแบบ INT4 ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา นอกจากนี้ยังรองรับการ quantization-aware training (QAT) ทำให้สามารถรันบนอุปกรณ์ที่มีทรัพยากรจำกัดได้โดยไม่เสียประสิทธิภาพ

    แม้จะไม่เหมาะกับการสนทนาเชิงลึกแบบโมเดลขนาดใหญ่ แต่ Gemma 3 270M เหมาะอย่างยิ่งสำหรับการสร้างระบบที่เร็ว เบา และปลอดภัย โดยสามารถรันแบบ on-device ได้ทั้งหมด ซึ่งช่วยรักษาความเป็นส่วนตัวของผู้ใช้

    ตัวอย่างการใช้งานจริง เช่น Adaptive ML ที่ใช้ Gemma 3 4B ในการจัดการเนื้อหาหลายภาษาให้กับ SK Telecom ได้ผลลัพธ์ดีกว่าโมเดลขนาดใหญ่ที่ใช้กันทั่วไป แสดงให้เห็นว่าการเลือกโมเดลที่เหมาะกับงานมีความสำคัญมากกว่าขนาดของโมเดล

    Gemma 3 270M เป็นโมเดลขนาด 270 ล้านพารามิเตอร์
    ประกอบด้วย 170M embedding และ 100M transformer blocks

    รองรับ vocabulary ขนาด 256,000 token
    ช่วยให้เข้าใจคำเฉพาะและภาษายากได้ดี

    ใช้พลังงานต่ำมากเมื่อรันบน Pixel 9 Pro
    ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา

    รองรับ INT4 quantization และ QAT checkpoints
    รันบนอุปกรณ์เล็กได้โดยไม่เสียประสิทธิภาพ

    เหมาะกับงานเฉพาะทาง เช่น การจัดโครงสร้างข้อความและการสกัดข้อมูล
    ทำงานได้เร็วและแม่นยำเมื่อ fine-tune แล้ว

    มีทั้งเวอร์ชัน pre-trained และ instruction-tuned ให้เลือกใช้
    พร้อมใช้งานผ่าน Hugging Face, Kaggle, Docker และ Vertex AI

    Gemma 3 270M เป็นส่วนหนึ่งของตระกูล Gemma 3 ที่รองรับหลายภาษา
    มี support มากกว่า 140 ภาษา

    สามารถรันบนอุปกรณ์ edge เช่น สมาร์ตโฟนหรือโน้ตบุ๊ก
    เหมาะกับงานที่ต้องการความเป็นส่วนตัว

    โมเดลขนาดเล็กช่วยลดค่าใช้จ่ายในการ inference
    เหมาะกับการ deploy ในระบบ production ขนาดใหญ่

    มีตัวอย่างการใช้งานในงานสร้างสรรค์ เช่น Bedtime Story Generator
    ใช้ Gemma 3 270M รันผ่าน Transformers.js แบบ offline

    https://developers.googleblog.com/en/introducing-gemma-3-270m/
    🧠⚡️ Gemma 3 270M — โมเดล AI ขนาดเล็กที่ฉลาดเกินตัว และประหยัดพลังงานสุดขีด Google เปิดตัว Gemma 3 270M ซึ่งเป็นโมเดล AI ขนาดเล็กเพียง 270 ล้านพารามิเตอร์ แต่มีความสามารถในการทำงานเฉพาะทางได้อย่างแม่นยำและมีประสิทธิภาพสูง โดยออกแบบมาเพื่อการ fine-tune สำหรับงานที่ชัดเจน เช่น การจัดโครงสร้างข้อความ การวิเคราะห์ความรู้สึก หรือการสกัดข้อมูลจากข้อความ Gemma 3 270M มีจุดเด่นคือการประหยัดพลังงานอย่างมาก — จากการทดสอบบน Pixel 9 Pro พบว่าโมเดลแบบ INT4 ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา นอกจากนี้ยังรองรับการ quantization-aware training (QAT) ทำให้สามารถรันบนอุปกรณ์ที่มีทรัพยากรจำกัดได้โดยไม่เสียประสิทธิภาพ แม้จะไม่เหมาะกับการสนทนาเชิงลึกแบบโมเดลขนาดใหญ่ แต่ Gemma 3 270M เหมาะอย่างยิ่งสำหรับการสร้างระบบที่เร็ว เบา และปลอดภัย โดยสามารถรันแบบ on-device ได้ทั้งหมด ซึ่งช่วยรักษาความเป็นส่วนตัวของผู้ใช้ ตัวอย่างการใช้งานจริง เช่น Adaptive ML ที่ใช้ Gemma 3 4B ในการจัดการเนื้อหาหลายภาษาให้กับ SK Telecom ได้ผลลัพธ์ดีกว่าโมเดลขนาดใหญ่ที่ใช้กันทั่วไป แสดงให้เห็นว่าการเลือกโมเดลที่เหมาะกับงานมีความสำคัญมากกว่าขนาดของโมเดล ✅ Gemma 3 270M เป็นโมเดลขนาด 270 ล้านพารามิเตอร์ ➡️ ประกอบด้วย 170M embedding และ 100M transformer blocks ✅ รองรับ vocabulary ขนาด 256,000 token ➡️ ช่วยให้เข้าใจคำเฉพาะและภาษายากได้ดี ✅ ใช้พลังงานต่ำมากเมื่อรันบน Pixel 9 Pro ➡️ ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา ✅ รองรับ INT4 quantization และ QAT checkpoints ➡️ รันบนอุปกรณ์เล็กได้โดยไม่เสียประสิทธิภาพ ✅ เหมาะกับงานเฉพาะทาง เช่น การจัดโครงสร้างข้อความและการสกัดข้อมูล ➡️ ทำงานได้เร็วและแม่นยำเมื่อ fine-tune แล้ว ✅ มีทั้งเวอร์ชัน pre-trained และ instruction-tuned ให้เลือกใช้ ➡️ พร้อมใช้งานผ่าน Hugging Face, Kaggle, Docker และ Vertex AI ✅ Gemma 3 270M เป็นส่วนหนึ่งของตระกูล Gemma 3 ที่รองรับหลายภาษา ➡️ มี support มากกว่า 140 ภาษา ✅ สามารถรันบนอุปกรณ์ edge เช่น สมาร์ตโฟนหรือโน้ตบุ๊ก ➡️ เหมาะกับงานที่ต้องการความเป็นส่วนตัว ✅ โมเดลขนาดเล็กช่วยลดค่าใช้จ่ายในการ inference ➡️ เหมาะกับการ deploy ในระบบ production ขนาดใหญ่ ✅ มีตัวอย่างการใช้งานในงานสร้างสรรค์ เช่น Bedtime Story Generator ➡️ ใช้ Gemma 3 270M รันผ่าน Transformers.js แบบ offline https://developers.googleblog.com/en/introducing-gemma-3-270m/
    DEVELOPERS.GOOGLEBLOG.COM
    Introducing Gemma 3 270M: The compact model for hyper-efficient AI- Google Developers Blog
    Explore Gemma 3 270M, a compact, energy-efficient AI model for task-specific fine-tuning, offering strong instruction-following and production-ready quantization.
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: TSMC ปิดสายการผลิตเวเฟอร์ 6 นิ้ว — ยุคใหม่ของ Gigafab กำลังมา

    TSMC ผู้ผลิตชิปอันดับหนึ่งของโลก ประกาศว่าจะทยอยเลิกผลิตเวเฟอร์ขนาด 6 นิ้ว (150 มม.) ภายใน 2 ปีข้างหน้า โดยจะรวมสายการผลิตเก่าในเมือง Hsinchu และย้ายลูกค้าไปยังโรงงานที่ใช้เวเฟอร์ขนาดใหญ่ขึ้น เช่น 8 นิ้ว (200 มม.) และ 12 นิ้ว (300 มม.) ซึ่งมีประสิทธิภาพและต้นทุนต่อชิปที่ดีกว่า

    เหตุผลหลักคือ เวเฟอร์ขนาดเล็กให้จำนวนชิปต่อแผ่นน้อย ทำให้ต้นทุนสูง ไม่เหมาะกับเทคโนโลยีใหม่ที่ต้องการประสิทธิภาพสูง เช่น AI และ HPC อีกทั้งยังมีการแข่งขันจากโรงงานในจีนที่ผลิตชิปบนเทคโนโลยีเก่าในราคาถูก ทำให้ TSMC ต้องปรับกลยุทธ์เพื่อรักษาความสามารถในการแข่งขันระยะยาว

    โรงงาน Fab 2 และ Fab 5 จะหยุดผลิตภายในปี 2027 โดยบางส่วนจะถูกปรับเปลี่ยนเป็นศูนย์วิจัยหรือโรงงานประกอบชิ้นส่วนขั้นสูง (advanced packaging) สำหรับเวเฟอร์ 300 มม. ซึ่งเป็นทิศทางที่ TSMC มุ่งไปในยุคหลัง 2 นาโนเมตร

    TSMC จะเลิกผลิตเวเฟอร์ขนาด 6 นิ้วภายใน 2 ปี
    เพื่อปรับปรุงประสิทธิภาพและลดต้นทุนการผลิต

    โรงงาน Fab 2 และ Fab 5 จะหยุดผลิตภายในปี 2027
    อาจถูกปรับเป็นศูนย์วิจัยหรือโรงงานประกอบชิ้นส่วน

    ลูกค้าจะถูกย้ายไปยังโรงงานที่ใช้เวเฟอร์ 200 มม. และ 300 มม.
    เพื่อรองรับการผลิตในปริมาณมากและเทคโนโลยีขั้นสูง

    เวเฟอร์ขนาดใหญ่ให้จำนวนชิปต่อแผ่นมากกว่า
    ส่งผลให้ต้นทุนต่อชิปลดลงและประสิทธิภาพดีขึ้น

    TSMC ต้องการเพิ่มการใช้พื้นที่และบุคลากรในโรงงานขนาดใหญ่
    เช่น Fab 12 และโรงงานใหม่ที่อยู่ใกล้กัน

    การตัดสินใจนี้สอดคล้องกับกลยุทธ์ระยะยาวของบริษัท
    มุ่งเน้นการผลิตชิปขั้นสูงสำหรับตลาด AI และ HPC

    https://www.techpowerup.com/339890/tsmc-phases-out-6-inch-wafer-production-encourages-customers-to-move-to-gigafabs
    🏭🔄 เล่าให้ฟังใหม่: TSMC ปิดสายการผลิตเวเฟอร์ 6 นิ้ว — ยุคใหม่ของ Gigafab กำลังมา TSMC ผู้ผลิตชิปอันดับหนึ่งของโลก ประกาศว่าจะทยอยเลิกผลิตเวเฟอร์ขนาด 6 นิ้ว (150 มม.) ภายใน 2 ปีข้างหน้า โดยจะรวมสายการผลิตเก่าในเมือง Hsinchu และย้ายลูกค้าไปยังโรงงานที่ใช้เวเฟอร์ขนาดใหญ่ขึ้น เช่น 8 นิ้ว (200 มม.) และ 12 นิ้ว (300 มม.) ซึ่งมีประสิทธิภาพและต้นทุนต่อชิปที่ดีกว่า เหตุผลหลักคือ เวเฟอร์ขนาดเล็กให้จำนวนชิปต่อแผ่นน้อย ทำให้ต้นทุนสูง ไม่เหมาะกับเทคโนโลยีใหม่ที่ต้องการประสิทธิภาพสูง เช่น AI และ HPC อีกทั้งยังมีการแข่งขันจากโรงงานในจีนที่ผลิตชิปบนเทคโนโลยีเก่าในราคาถูก ทำให้ TSMC ต้องปรับกลยุทธ์เพื่อรักษาความสามารถในการแข่งขันระยะยาว โรงงาน Fab 2 และ Fab 5 จะหยุดผลิตภายในปี 2027 โดยบางส่วนจะถูกปรับเปลี่ยนเป็นศูนย์วิจัยหรือโรงงานประกอบชิ้นส่วนขั้นสูง (advanced packaging) สำหรับเวเฟอร์ 300 มม. ซึ่งเป็นทิศทางที่ TSMC มุ่งไปในยุคหลัง 2 นาโนเมตร ✅ TSMC จะเลิกผลิตเวเฟอร์ขนาด 6 นิ้วภายใน 2 ปี ➡️ เพื่อปรับปรุงประสิทธิภาพและลดต้นทุนการผลิต ✅ โรงงาน Fab 2 และ Fab 5 จะหยุดผลิตภายในปี 2027 ➡️ อาจถูกปรับเป็นศูนย์วิจัยหรือโรงงานประกอบชิ้นส่วน ✅ ลูกค้าจะถูกย้ายไปยังโรงงานที่ใช้เวเฟอร์ 200 มม. และ 300 มม. ➡️ เพื่อรองรับการผลิตในปริมาณมากและเทคโนโลยีขั้นสูง ✅ เวเฟอร์ขนาดใหญ่ให้จำนวนชิปต่อแผ่นมากกว่า ➡️ ส่งผลให้ต้นทุนต่อชิปลดลงและประสิทธิภาพดีขึ้น ✅ TSMC ต้องการเพิ่มการใช้พื้นที่และบุคลากรในโรงงานขนาดใหญ่ ➡️ เช่น Fab 12 และโรงงานใหม่ที่อยู่ใกล้กัน ✅ การตัดสินใจนี้สอดคล้องกับกลยุทธ์ระยะยาวของบริษัท ➡️ มุ่งเน้นการผลิตชิปขั้นสูงสำหรับตลาด AI และ HPC https://www.techpowerup.com/339890/tsmc-phases-out-6-inch-wafer-production-encourages-customers-to-move-to-gigafabs
    WWW.TECHPOWERUP.COM
    TSMC Phases Out 6-Inch Wafer Production, Encourages Customers to Move to Gigafabs
    TSMC will retire its smallest wafer line and reorganize several legacy fabs in Hsinchu as part of a cost and efficiency drive. TSMC plans to discontinue production on 6-inch 150 mm wafers within two years and consolidate its 8-inch 200 mm capacity, enabling machines and staff to operate more efficie...
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • RX 9060: การ์ดลับจาก AMD ที่แรงเกินคาด แม้จะยังขายแค่ในเครื่อง OEM

    AMD เปิดตัว Radeon RX 9060 แบบเงียบ ๆ โดยไม่มีวางขายแยก แต่ใส่มาในเครื่องพีซี OEM ที่จำหน่ายในบางประเทศ เช่น เกาหลีใต้ ซึ่ง YouTuber ชื่อ Technosaurus ได้แกะเครื่องออกมาและทดสอบประสิทธิภาพของการ์ดนี้อย่างละเอียด

    RX 9060 ใช้ชิป Navi 44 แบบลดสเปก มี 28 compute units, 1,792 shaders, 28 ray tracing cores และแรม GDDR6 ขนาด 8GB บนบัส 128-bit ความเร็วใกล้ 3 GHz ใช้พลังงานเพียง 135W และมาในรูปแบบการ์ดขนาดเล็กจาก Sapphire

    ผลการทดสอบในเกมระดับ AAA ที่ความละเอียด 1080p พบว่า RX 9060 มีประสิทธิภาพใกล้เคียงกับ RTX 5060 โดยช้ากว่าเพียง 2% และห่างจาก RX 9060 XT แค่ 6% แต่กลับแรงกว่า RTX 5050 ถึง 20% ซึ่งถือว่าเป็นการ์ดที่คุ้มค่ามากสำหรับเกมเมอร์สายประหยัด

    ในด้าน benchmark เช่น 3DMark Time Spy และ Fire Strike ก็แสดงผลลัพธ์ที่เหนือกว่า RTX 5050 อย่างชัดเจน และใกล้เคียงกับ RTX 5060 ทั้งในด้านเกมและ productivity

    อย่างไรก็ตาม RX 9060 ยังมีข้อจำกัดคือแรมแค่ 8GB ซึ่งอาจไม่เพียงพอสำหรับเกมรุ่นใหม่ที่ใช้ ray tracing หรือ texture ขนาดใหญ่ และ AMD ยังไม่มีแผนวางขายแยกในตลาดทั่วไป

    AMD เปิดตัว RX 9060 แบบ OEM เท่านั้น ยังไม่มีขายแยก
    พบในเครื่องพีซี OEM บางประเทศ เช่น เกาหลีใต้

    ใช้ชิป Navi 44 แบบลดสเปก มี 28 CUs และแรม 8GB GDDR6
    ความเร็วใกล้ 3 GHz ใช้พลังงาน 135W

    ประสิทธิภาพใกล้เคียง RTX 5060 และ RX 9060 XT
    ช้ากว่า RTX 5060 เพียง 2% และ RX 9060 XT แค่ 6%

    แรงกว่า RTX 5050 ถึง 20% ในเกมระดับ AAA
    เช่น Cyberpunk 2077, God of War, Warhammer 40K

    ผล benchmark ใน 3DMark สูงกว่า RTX 5050 อย่างชัดเจน
    Time Spy: 14,132 คะแนน, Fire Strike: 35,511 คะแนน

    ประสิทธิภาพเสถียรแม้ใช้กับ CPU ระดับกลาง
    เช่น Ryzen 5 7500F ก็ยังได้เฟรมเรตใกล้เคียง Ryzen 7 9800X3D

    RX 9060 อาจผลิตจากชิปที่มี yield ต่ำของรุ่น XT แล้วปิดบาง core
    เป็นวิธีลดต้นทุนและใช้ทรัพยากรให้คุ้มค่า

    RX 9060 XT รุ่น 16GB มีประสิทธิภาพสูงกว่า แต่กินไฟมากกว่า
    เหมาะกับผู้ใช้ที่ต้องการเล่นเกมในระดับ ultra หรือ ray tracing

    ตลาดการ์ดจอระดับกลางกำลังแข่งขันกันดุเดือด
    โดยเฉพาะระหว่าง AMD RX 9060 XT และ Nvidia RTX 5060

    การ์ด OEM มักมีราคาถูกกว่าแต่ไม่สามารถซื้อแยกได้
    เหมาะกับผู้ที่ซื้อเครื่องพีซีแบบ prebuilt

    https://www.tomshardware.com/pc-components/gpus/amds-new-rx-9060-ripped-out-of-oem-pc-and-benchmarked-beats-the-rtx-5050-by-20-percent-basically-ties-the-rtx-5060-in-gaming-and-productivity
    🎮⚙️ RX 9060: การ์ดลับจาก AMD ที่แรงเกินคาด แม้จะยังขายแค่ในเครื่อง OEM AMD เปิดตัว Radeon RX 9060 แบบเงียบ ๆ โดยไม่มีวางขายแยก แต่ใส่มาในเครื่องพีซี OEM ที่จำหน่ายในบางประเทศ เช่น เกาหลีใต้ ซึ่ง YouTuber ชื่อ Technosaurus ได้แกะเครื่องออกมาและทดสอบประสิทธิภาพของการ์ดนี้อย่างละเอียด RX 9060 ใช้ชิป Navi 44 แบบลดสเปก มี 28 compute units, 1,792 shaders, 28 ray tracing cores และแรม GDDR6 ขนาด 8GB บนบัส 128-bit ความเร็วใกล้ 3 GHz ใช้พลังงานเพียง 135W และมาในรูปแบบการ์ดขนาดเล็กจาก Sapphire ผลการทดสอบในเกมระดับ AAA ที่ความละเอียด 1080p พบว่า RX 9060 มีประสิทธิภาพใกล้เคียงกับ RTX 5060 โดยช้ากว่าเพียง 2% และห่างจาก RX 9060 XT แค่ 6% แต่กลับแรงกว่า RTX 5050 ถึง 20% ซึ่งถือว่าเป็นการ์ดที่คุ้มค่ามากสำหรับเกมเมอร์สายประหยัด ในด้าน benchmark เช่น 3DMark Time Spy และ Fire Strike ก็แสดงผลลัพธ์ที่เหนือกว่า RTX 5050 อย่างชัดเจน และใกล้เคียงกับ RTX 5060 ทั้งในด้านเกมและ productivity อย่างไรก็ตาม RX 9060 ยังมีข้อจำกัดคือแรมแค่ 8GB ซึ่งอาจไม่เพียงพอสำหรับเกมรุ่นใหม่ที่ใช้ ray tracing หรือ texture ขนาดใหญ่ และ AMD ยังไม่มีแผนวางขายแยกในตลาดทั่วไป ✅ AMD เปิดตัว RX 9060 แบบ OEM เท่านั้น ยังไม่มีขายแยก ➡️ พบในเครื่องพีซี OEM บางประเทศ เช่น เกาหลีใต้ ✅ ใช้ชิป Navi 44 แบบลดสเปก มี 28 CUs และแรม 8GB GDDR6 ➡️ ความเร็วใกล้ 3 GHz ใช้พลังงาน 135W ✅ ประสิทธิภาพใกล้เคียง RTX 5060 และ RX 9060 XT ➡️ ช้ากว่า RTX 5060 เพียง 2% และ RX 9060 XT แค่ 6% ✅ แรงกว่า RTX 5050 ถึง 20% ในเกมระดับ AAA ➡️ เช่น Cyberpunk 2077, God of War, Warhammer 40K ✅ ผล benchmark ใน 3DMark สูงกว่า RTX 5050 อย่างชัดเจน ➡️ Time Spy: 14,132 คะแนน, Fire Strike: 35,511 คะแนน ✅ ประสิทธิภาพเสถียรแม้ใช้กับ CPU ระดับกลาง ➡️ เช่น Ryzen 5 7500F ก็ยังได้เฟรมเรตใกล้เคียง Ryzen 7 9800X3D ✅ RX 9060 อาจผลิตจากชิปที่มี yield ต่ำของรุ่น XT แล้วปิดบาง core ➡️ เป็นวิธีลดต้นทุนและใช้ทรัพยากรให้คุ้มค่า ✅ RX 9060 XT รุ่น 16GB มีประสิทธิภาพสูงกว่า แต่กินไฟมากกว่า ➡️ เหมาะกับผู้ใช้ที่ต้องการเล่นเกมในระดับ ultra หรือ ray tracing ✅ ตลาดการ์ดจอระดับกลางกำลังแข่งขันกันดุเดือด ➡️ โดยเฉพาะระหว่าง AMD RX 9060 XT และ Nvidia RTX 5060 ✅ การ์ด OEM มักมีราคาถูกกว่าแต่ไม่สามารถซื้อแยกได้ ➡️ เหมาะกับผู้ที่ซื้อเครื่องพีซีแบบ prebuilt https://www.tomshardware.com/pc-components/gpus/amds-new-rx-9060-ripped-out-of-oem-pc-and-benchmarked-beats-the-rtx-5050-by-20-percent-basically-ties-the-rtx-5060-in-gaming-and-productivity
    0 ความคิดเห็น 0 การแบ่งปัน 242 มุมมอง 0 รีวิว
  • Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix

    ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก

    LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า

    ฟีเจอร์เด่น ได้แก่:
    - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น
    - รองรับ speculative decoding และ torch.compile แบบ experimental
    - รองรับ embedding, rerank model และ multi-modal model
    - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้

    Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ

    Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix
    เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว

    รองรับ multi-GPU scaling และ PCIe P2P data transfer
    เพิ่มประสิทธิภาพสูงสุดถึง 80%

    ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B

    มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile
    ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล

    รองรับ embedding, rerank model และ multi-modal model
    ขยายขอบเขตการใช้งาน AI ได้หลากหลาย

    มีระบบ XPU Manager สำหรับจัดการ GPU
    ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้

    เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้
    รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่

    Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU
    ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+

    ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack
    ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น

    มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร
    ลดความเสี่ยงจากการทำงานผิดพลาด

    Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้
    โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า

    ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental
    เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร

    การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม
    หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ

    Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่
    ต้องรอรุ่น hardened และ full feature set ใน Q4

    การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม
    เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่

    https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    🧠⚙️ Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า ฟีเจอร์เด่น ได้แก่: - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น - รองรับ speculative decoding และ torch.compile แบบ experimental - รองรับ embedding, rerank model และ multi-modal model - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้ Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ ✅ Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix ➡️ เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว ✅ รองรับ multi-GPU scaling และ PCIe P2P data transfer ➡️ เพิ่มประสิทธิภาพสูงสุดถึง 80% ✅ ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens ➡️ ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B ✅ มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile ➡️ ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล ✅ รองรับ embedding, rerank model และ multi-modal model ➡️ ขยายขอบเขตการใช้งาน AI ได้หลากหลาย ✅ มีระบบ XPU Manager สำหรับจัดการ GPU ➡️ ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้ ✅ เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้ ➡️ รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่ ✅ Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU ➡️ ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+ ✅ ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack ➡️ ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น ✅ มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร ➡️ ลดความเสี่ยงจากการทำงานผิดพลาด ✅ Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้ ➡️ โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า ‼️ ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental ⛔ เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร ‼️ การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม ⛔ หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ ‼️ Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่ ⛔ ต้องรอรุ่น hardened และ full feature set ใน Q4 ‼️ การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม ⛔ เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่ https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    WCCFTECH.COM
    Intel's Project Battlematrix For Arc Pro GPUs Gets First Major Software Update: LLM Scaler v1.0 With Up To 80% Performance Uplift, Enhanced Support & More
    Intel has released the first major software for its Arc Pro "Project Battlematrix" solution, the LLM Scaler v1.0, with massive improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 256 มุมมอง 0 รีวิว
  • เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน

    ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง

    CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี

    Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น

    แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์

    การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ

    Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend
    เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia

    CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia
    ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น

    CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง
    เป็นทางเลือกใหม่สำหรับนักพัฒนา AI

    Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน
    เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend

    มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี
    เช่น DeepSeek R1 บน CloudMatrix 384

    การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน
    ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ

    https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    🚀🇨🇳 เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์ การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ ✅ Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend ➡️ เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia ✅ CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia ➡️ ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น ✅ CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง ➡️ เป็นทางเลือกใหม่สำหรับนักพัฒนา AI ✅ Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน ➡️ เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend ✅ มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี ➡️ เช่น DeepSeek R1 บน CloudMatrix 384 ✅ การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน ➡️ ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
Pages Boosts