• CN101 – ชิปที่ใช้พลังงานจากความไม่แน่นอน เพื่ออนาคตของ AI ที่ยั่งยืน

    ในยุคที่ AI กำลังเติบโตอย่างรวดเร็ว ความต้องการพลังงานก็พุ่งสูงขึ้นตามไปด้วย จนหลายศูนย์ข้อมูลต้องชะลอการทำงานของ GPU เพื่อหลีกเลี่ยงไฟดับ แต่ในเดือนสิงหาคม 2025 บริษัทสตาร์ทอัพชื่อ Normal Computing ได้เปิดตัว “CN101” ซึ่งเป็นชิปตัวแรกของโลกที่ใช้หลักการ “thermodynamic computing” หรือการคำนวณด้วยพลวัตทางธรรมชาติ

    ต่างจาก CPU และ GPU ที่ใช้ตรรกะแบบกำหนดแน่นอน CN101 ใช้ความไม่แน่นอน เช่น ความผันผวน การสลายพลังงาน และเสียงรบกวน เพื่อเร่งการคำนวณบางประเภท โดยเฉพาะการแก้สมการเชิงเส้นขนาดใหญ่ และการสุ่มแบบสถิติ ซึ่งเป็นหัวใจของการเรียนรู้เชิงลึกและการจำลองทางวิทยาศาสตร์

    ชิปนี้สามารถเพิ่มประสิทธิภาพการใช้พลังงานได้ถึง 1,000 เท่าในงานเฉพาะทาง และยังสามารถทำงานในโครงสร้างศูนย์ข้อมูลเดิมได้โดยไม่ต้องเพิ่มกำลังไฟฟ้า

    Normal Computing ก่อตั้งโดยอดีตวิศวกรจาก Google Brain, Google X และ Palantir โดยมีแผนจะเปิดตัว CN201 ในปี 2026 สำหรับโมเดล diffusion ความละเอียดสูง และ CN301 ในปี 2028 สำหรับงานวิดีโอ AI ขนาดใหญ่

    สรุปเนื้อหาเป็นหัวข้อ
    Normal Computing เปิดตัว CN101 ชิป thermodynamic ตัวแรกของโลก
    ใช้พลวัตธรรมชาติ เช่น ความผันผวนและเสียงรบกวน แทนตรรกะแบบกำหนด
    เร่งการคำนวณด้าน linear algebra และ stochastic sampling
    เพิ่มประสิทธิภาพการใช้พลังงานได้สูงสุดถึง 1,000 เท่าในงานเฉพาะทาง
    สามารถทำงานในศูนย์ข้อมูลเดิมโดยไม่ต้องเพิ่มกำลังไฟฟ้า
    CN101 เป็นก้าวแรกของ roadmap ที่จะนำไปสู่ CN201 และ CN301
    CN201 จะรองรับโมเดล diffusion ความละเอียดสูงในปี 2026
    CN301 จะรองรับงานวิดีโอ AI ขนาดใหญ่ในปี 2028
    ทีมผู้ก่อตั้งมาจาก Google Brain, Google X และ Palantir
    การ tape-out ของ CN101 ถือเป็นหมุดหมายสำคัญของการคำนวณแบบ thermodynamic

    ข้อมูลเสริมจากภายนอก
    Thermodynamic computing เป็นแนวคิดใหม่ที่ใช้หลักฟิสิกส์แทนตรรกะดิจิทัล
    การใช้ stochasticity ช่วยให้ AI reasoning เร็วขึ้นโดยใช้พลังงานน้อยลง
    งานที่ใช้การสุ่ม เช่น Bayesian inference และการจำลองโมเลกุล ได้ประโยชน์สูง
    IEEE Spectrum ยกให้แนวคิดนี้เป็นหนึ่งในความก้าวหน้าที่น่าจับตามอง
    หากสำเร็จ อาจเปลี่ยนกฎการ scaling ของ AI ในทศวรรษหน้า

    https://www.techradar.com/pro/chip-designer-youve-never-heard-of-brings-out-first-thermodynamic-silicon-and-seeks-to-reduce-ais-unsustainable-energy-consumption
    🎙️ CN101 – ชิปที่ใช้พลังงานจากความไม่แน่นอน เพื่ออนาคตของ AI ที่ยั่งยืน ในยุคที่ AI กำลังเติบโตอย่างรวดเร็ว ความต้องการพลังงานก็พุ่งสูงขึ้นตามไปด้วย จนหลายศูนย์ข้อมูลต้องชะลอการทำงานของ GPU เพื่อหลีกเลี่ยงไฟดับ แต่ในเดือนสิงหาคม 2025 บริษัทสตาร์ทอัพชื่อ Normal Computing ได้เปิดตัว “CN101” ซึ่งเป็นชิปตัวแรกของโลกที่ใช้หลักการ “thermodynamic computing” หรือการคำนวณด้วยพลวัตทางธรรมชาติ ต่างจาก CPU และ GPU ที่ใช้ตรรกะแบบกำหนดแน่นอน CN101 ใช้ความไม่แน่นอน เช่น ความผันผวน การสลายพลังงาน และเสียงรบกวน เพื่อเร่งการคำนวณบางประเภท โดยเฉพาะการแก้สมการเชิงเส้นขนาดใหญ่ และการสุ่มแบบสถิติ ซึ่งเป็นหัวใจของการเรียนรู้เชิงลึกและการจำลองทางวิทยาศาสตร์ ชิปนี้สามารถเพิ่มประสิทธิภาพการใช้พลังงานได้ถึง 1,000 เท่าในงานเฉพาะทาง และยังสามารถทำงานในโครงสร้างศูนย์ข้อมูลเดิมได้โดยไม่ต้องเพิ่มกำลังไฟฟ้า Normal Computing ก่อตั้งโดยอดีตวิศวกรจาก Google Brain, Google X และ Palantir โดยมีแผนจะเปิดตัว CN201 ในปี 2026 สำหรับโมเดล diffusion ความละเอียดสูง และ CN301 ในปี 2028 สำหรับงานวิดีโอ AI ขนาดใหญ่ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Normal Computing เปิดตัว CN101 ชิป thermodynamic ตัวแรกของโลก ➡️ ใช้พลวัตธรรมชาติ เช่น ความผันผวนและเสียงรบกวน แทนตรรกะแบบกำหนด ➡️ เร่งการคำนวณด้าน linear algebra และ stochastic sampling ➡️ เพิ่มประสิทธิภาพการใช้พลังงานได้สูงสุดถึง 1,000 เท่าในงานเฉพาะทาง ➡️ สามารถทำงานในศูนย์ข้อมูลเดิมโดยไม่ต้องเพิ่มกำลังไฟฟ้า ➡️ CN101 เป็นก้าวแรกของ roadmap ที่จะนำไปสู่ CN201 และ CN301 ➡️ CN201 จะรองรับโมเดล diffusion ความละเอียดสูงในปี 2026 ➡️ CN301 จะรองรับงานวิดีโอ AI ขนาดใหญ่ในปี 2028 ➡️ ทีมผู้ก่อตั้งมาจาก Google Brain, Google X และ Palantir ➡️ การ tape-out ของ CN101 ถือเป็นหมุดหมายสำคัญของการคำนวณแบบ thermodynamic ✅ ข้อมูลเสริมจากภายนอก ➡️ Thermodynamic computing เป็นแนวคิดใหม่ที่ใช้หลักฟิสิกส์แทนตรรกะดิจิทัล ➡️ การใช้ stochasticity ช่วยให้ AI reasoning เร็วขึ้นโดยใช้พลังงานน้อยลง ➡️ งานที่ใช้การสุ่ม เช่น Bayesian inference และการจำลองโมเลกุล ได้ประโยชน์สูง ➡️ IEEE Spectrum ยกให้แนวคิดนี้เป็นหนึ่งในความก้าวหน้าที่น่าจับตามอง ➡️ หากสำเร็จ อาจเปลี่ยนกฎการ scaling ของ AI ในทศวรรษหน้า https://www.techradar.com/pro/chip-designer-youve-never-heard-of-brings-out-first-thermodynamic-silicon-and-seeks-to-reduce-ais-unsustainable-energy-consumption
    0 ความคิดเห็น 0 การแบ่งปัน 40 มุมมอง 0 รีวิว
  • AI Token Factory: โรงงานผลิตความฉลาดแห่งยุคใหม่

    ในอดีต เราวัดพลังคอมพิวเตอร์ด้วย CPU หรือ GPU แต่ในยุค AI ที่มีโมเดลขนาดมหึมาอย่าง GPT-4, Claude หรือ Gemini สิ่งที่สำคัญที่สุดคือ “โทเคน” ซึ่งเป็นหน่วยข้อมูลที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนองต่อคำสั่งของผู้ใช้

    AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคนให้ได้มากที่สุดต่อวินาที โดยใช้ GPU จำนวนมหาศาล เช่นระบบ Colossus 1 ของ xAI ที่ใช้ NVIDIA H100 กว่า 100,000 ตัว และ Colossus 2 ที่จะใช้ GB200 และ GB300 มากกว่า 550,000 ตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่

    Jensen Huang ซีอีโอของ NVIDIA อธิบายว่า AI Factory คือโรงงานที่เปลี่ยนพลังงานไฟฟ้าและข้อมูลดิบให้กลายเป็นความฉลาด พร้อมเปิดตัว Blackwell Ultra ซึ่งเป็นแพลตฟอร์มใหม่ที่สามารถเพิ่มประสิทธิภาพการประมวลผลได้ถึง 50 เท่าเมื่อเทียบกับ Hopper รุ่นก่อนหน้า

    ในยุค “agentic AI” ที่กำลังมาถึง AI จะไม่เพียงแค่ตอบคำถาม แต่จะทำงานแทนมนุษย์โดยอัตโนมัติ เช่น วางแผนงาน ค้นคว้า หรือออกแบบโมเลกุล โดยใช้โทเคนจำนวนมหาศาลในการประมวลผล ซึ่งทำให้แม้แต่ศูนย์ข้อมูลที่มี GPU เป็นล้านตัวก็ยังไม่พอ

    Cisco รายงานว่า inference แบบ agentic ใช้ทรัพยากรมากกว่าการแชททั่วไปหลายเท่า และ Google ก็เปิดเผยว่า API ของตนให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือน ซึ่งเพิ่มขึ้นจาก 480 ล้านล้านในเวลาเพียงไม่กี่เดือน

    ข้อมูลจากข่าวหลัก
    AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคน AI ให้ได้มากที่สุด
    โทเคนคือหน่วยพื้นฐานที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนอง
    xAI ใช้ GPU กว่า 100,000 ตัวใน Colossus 1 และจะใช้กว่า 550,000 ตัวใน Colossus 2
    NVIDIA เปิดตัว Blackwell Ultra ที่เพิ่มประสิทธิภาพได้ถึง 50 เท่าเมื่อเทียบกับ Hopper
    AI Factory คือโรงงานที่เปลี่ยนพลังงานและข้อมูลให้กลายเป็นความฉลาด
    ในยุค agentic AI โมเดลจะทำงานแทนมนุษย์โดยอัตโนมัติ
    Cisco และ Google รายงานว่าความต้องการโทเคนเพิ่มขึ้นอย่างมหาศาล
    Google ให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือนผ่าน API
    AI Factory ประกอบด้วย GPU, networking, software, storage และระบบจัดการ

    ข้อมูลเสริมจากภายนอก
    NVIDIA GB300 NVL72 เชื่อมต่อ GPU 72 ตัวและ Grace CPU 36 ตัวในระบบเดียว
    Blackwell Ultra มี inference เร็วขึ้น 11 เท่า และหน่วยความจำใหญ่ขึ้น 4 เท่า
    NVIDIA Dynamo เป็นระบบปฏิบัติการใหม่ที่ช่วยจัดการงาน inference แบบอัตโนมัติ
    บริษัทอย่าง Zoom, Deloitte เริ่มนำ agentic AI ไปใช้ในระบบงานจริง
    Blackwell Ultra จะให้บริการผ่าน DGX Cloud และผู้ให้บริการคลาวด์รายใหญ่
    AI Factory ถูกมองว่าเป็นเครื่องจักรแห่งการปฏิวัติอุตสาหกรรมยุคใหม่

    https://www.techpowerup.com/340014/ai-token-factory-is-the-new-unit-of-computing
    🏗️ AI Token Factory: โรงงานผลิตความฉลาดแห่งยุคใหม่ ในอดีต เราวัดพลังคอมพิวเตอร์ด้วย CPU หรือ GPU แต่ในยุค AI ที่มีโมเดลขนาดมหึมาอย่าง GPT-4, Claude หรือ Gemini สิ่งที่สำคัญที่สุดคือ “โทเคน” ซึ่งเป็นหน่วยข้อมูลที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนองต่อคำสั่งของผู้ใช้ AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคนให้ได้มากที่สุดต่อวินาที โดยใช้ GPU จำนวนมหาศาล เช่นระบบ Colossus 1 ของ xAI ที่ใช้ NVIDIA H100 กว่า 100,000 ตัว และ Colossus 2 ที่จะใช้ GB200 และ GB300 มากกว่า 550,000 ตัว เพื่อรองรับการฝึกและใช้งานโมเดล AI ขนาดใหญ่ Jensen Huang ซีอีโอของ NVIDIA อธิบายว่า AI Factory คือโรงงานที่เปลี่ยนพลังงานไฟฟ้าและข้อมูลดิบให้กลายเป็นความฉลาด พร้อมเปิดตัว Blackwell Ultra ซึ่งเป็นแพลตฟอร์มใหม่ที่สามารถเพิ่มประสิทธิภาพการประมวลผลได้ถึง 50 เท่าเมื่อเทียบกับ Hopper รุ่นก่อนหน้า ในยุค “agentic AI” ที่กำลังมาถึง AI จะไม่เพียงแค่ตอบคำถาม แต่จะทำงานแทนมนุษย์โดยอัตโนมัติ เช่น วางแผนงาน ค้นคว้า หรือออกแบบโมเลกุล โดยใช้โทเคนจำนวนมหาศาลในการประมวลผล ซึ่งทำให้แม้แต่ศูนย์ข้อมูลที่มี GPU เป็นล้านตัวก็ยังไม่พอ Cisco รายงานว่า inference แบบ agentic ใช้ทรัพยากรมากกว่าการแชททั่วไปหลายเท่า และ Google ก็เปิดเผยว่า API ของตนให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือน ซึ่งเพิ่มขึ้นจาก 480 ล้านล้านในเวลาเพียงไม่กี่เดือน ✅ ข้อมูลจากข่าวหลัก ➡️ AI Token Factory คือระบบที่ออกแบบมาเพื่อผลิตโทเคน AI ให้ได้มากที่สุด ➡️ โทเคนคือหน่วยพื้นฐานที่ AI ใช้ในการคิด วิเคราะห์ และตอบสนอง ➡️ xAI ใช้ GPU กว่า 100,000 ตัวใน Colossus 1 และจะใช้กว่า 550,000 ตัวใน Colossus 2 ➡️ NVIDIA เปิดตัว Blackwell Ultra ที่เพิ่มประสิทธิภาพได้ถึง 50 เท่าเมื่อเทียบกับ Hopper ➡️ AI Factory คือโรงงานที่เปลี่ยนพลังงานและข้อมูลให้กลายเป็นความฉลาด ➡️ ในยุค agentic AI โมเดลจะทำงานแทนมนุษย์โดยอัตโนมัติ ➡️ Cisco และ Google รายงานว่าความต้องการโทเคนเพิ่มขึ้นอย่างมหาศาล ➡️ Google ให้บริการโทเคนกว่า 980 ล้านล้านต่อเดือนผ่าน API ➡️ AI Factory ประกอบด้วย GPU, networking, software, storage และระบบจัดการ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA GB300 NVL72 เชื่อมต่อ GPU 72 ตัวและ Grace CPU 36 ตัวในระบบเดียว ➡️ Blackwell Ultra มี inference เร็วขึ้น 11 เท่า และหน่วยความจำใหญ่ขึ้น 4 เท่า ➡️ NVIDIA Dynamo เป็นระบบปฏิบัติการใหม่ที่ช่วยจัดการงาน inference แบบอัตโนมัติ ➡️ บริษัทอย่าง Zoom, Deloitte เริ่มนำ agentic AI ไปใช้ในระบบงานจริง ➡️ Blackwell Ultra จะให้บริการผ่าน DGX Cloud และผู้ให้บริการคลาวด์รายใหญ่ ➡️ AI Factory ถูกมองว่าเป็นเครื่องจักรแห่งการปฏิวัติอุตสาหกรรมยุคใหม่ https://www.techpowerup.com/340014/ai-token-factory-is-the-new-unit-of-computing
    WWW.TECHPOWERUP.COM
    AI Token Factory is the New Unit of Computing
    First, it was the CPU; after came the GPU; then all parallel workloads started running on GPUs, integrated or hyperscale. Similarly, the large language models we use today have adapted to the parallel nature of data processing on the GPU. The scale at which AI workloads operate is much larger than m...
    0 ความคิดเห็น 0 การแบ่งปัน 110 มุมมอง 0 รีวิว
  • SoftBank ทุ่ม 2 พันล้านดอลลาร์ซื้อหุ้น Intel: เดิมพันอนาคตชิปและ AI
    SoftBank Group ประกาศเมื่อวันที่ 19 สิงหาคม 2025 ว่าจะลงทุน 2 พันล้านดอลลาร์ใน Intel โดยซื้อหุ้นสามัญในราคาหุ้นละ $23 ซึ่งต่ำกว่ามูลค่าทางบัญชีของ Intel ที่มีสินทรัพย์รวมกว่า $109 พันล้านดอลลาร์

    ดีลนี้เกิดขึ้นในช่วงที่ Intel กำลังดิ้นรนฟื้นตัวจากการสูญเสียส่วนแบ่งตลาดในกลุ่มชิป AI ซึ่งถูกครองโดย Nvidia และ AMD โดย SoftBankมองว่า Intel ยังมีโครงสร้างพื้นฐานด้านการผลิตชิปที่แข็งแกร่ง และสามารถกลับมาเป็นผู้นำได้ หากเทคโนโลยี 18A และ 14A ประสบความสำเร็จ

    การลงทุนนี้ทำให้ SoftBank กลายเป็นผู้ถือหุ้นอันดับ 5 ของ Intel และถือเป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท ซึ่งมีเป้าหมายร่วมกันในการผลักดันการผลิตเซมิคอนดักเตอร์ในสหรัฐฯ และรองรับความต้องการด้าน AI ที่กำลังพุ่งสูง

    นอกจากนี้ SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing ไปเมื่อเดือนมีนาคม ซึ่งทั้งสองบริษัทมีบทบาทสำคัญในโครงการ Stargate—a mega project ร่วมกับ OpenAI และ Oracle ที่จะสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้าน

    SoftBank ลงทุน $2 พันล้านใน Intel โดยซื้อหุ้นละ $23
    Intel กำลังฟื้นตัวจากการสูญเสียตลาดชิป AI และราคาหุ้นตกหนักในปี 2024
    การลงทุนนี้ทำให้ SoftBank เป็นผู้ถือหุ้นอันดับ 5 ของ Intel
    ดีลนี้เป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท
    Intel มีแผนฟื้นตัวผ่านเทคโนโลยี 18A และ 14A สำหรับการผลิตชิปรุ่นใหม่
    SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing
    โครงการ Stargate ร่วมกับ OpenAI และ Oracle เป็นส่วนหนึ่งของยุทธศาสตร์ AI
    Intel CEO Lip-Bu Tan และ Masayoshi Son มีความสัมพันธ์ใกล้ชิดและเคยร่วมงานกันหลายครั้ง

    Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังสามารถผลิตชิปรุ่นสูงได้ภายในประเทศ
    SoftBank เคยซื้อ Arm ในปี 2016 ด้วยมูลค่า $32 พันล้าน และปัจจุบันมีมูลค่ากว่า $150 พันล้าน
    Ampere Computing เป็นผู้ผลิตชิป ARM สำหรับเซิร์ฟเวอร์ที่เติบโตเร็ว
    ตลาดชิป AI คาดว่าจะมีมูลค่ากว่า $400 พันล้านภายในปี 2030
    การลงทุนใน Intel อาจช่วย SoftBank ต่อรองกับพันธมิตรอื่นในระบบนิเวศ AI
    รัฐบาลสหรัฐฯ กำลังพิจารณาซื้อหุ้น 10% ใน Intel เพื่อเสริมความมั่นคงด้านเทคโนโลยี

    https://www.tomshardware.com/tech-industry/semiconductors/softbank-to-buy-usd2-billion-in-intel-shares-at-usd23-each-firm-still-owns-majority-share-of-arm
    💼 SoftBank ทุ่ม 2 พันล้านดอลลาร์ซื้อหุ้น Intel: เดิมพันอนาคตชิปและ AI SoftBank Group ประกาศเมื่อวันที่ 19 สิงหาคม 2025 ว่าจะลงทุน 2 พันล้านดอลลาร์ใน Intel โดยซื้อหุ้นสามัญในราคาหุ้นละ $23 ซึ่งต่ำกว่ามูลค่าทางบัญชีของ Intel ที่มีสินทรัพย์รวมกว่า $109 พันล้านดอลลาร์ ดีลนี้เกิดขึ้นในช่วงที่ Intel กำลังดิ้นรนฟื้นตัวจากการสูญเสียส่วนแบ่งตลาดในกลุ่มชิป AI ซึ่งถูกครองโดย Nvidia และ AMD โดย SoftBankมองว่า Intel ยังมีโครงสร้างพื้นฐานด้านการผลิตชิปที่แข็งแกร่ง และสามารถกลับมาเป็นผู้นำได้ หากเทคโนโลยี 18A และ 14A ประสบความสำเร็จ การลงทุนนี้ทำให้ SoftBank กลายเป็นผู้ถือหุ้นอันดับ 5 ของ Intel และถือเป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท ซึ่งมีเป้าหมายร่วมกันในการผลักดันการผลิตเซมิคอนดักเตอร์ในสหรัฐฯ และรองรับความต้องการด้าน AI ที่กำลังพุ่งสูง นอกจากนี้ SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing ไปเมื่อเดือนมีนาคม ซึ่งทั้งสองบริษัทมีบทบาทสำคัญในโครงการ Stargate—a mega project ร่วมกับ OpenAI และ Oracle ที่จะสร้างโครงสร้างพื้นฐาน AI มูลค่า $500 พันล้าน ➡️ SoftBank ลงทุน $2 พันล้านใน Intel โดยซื้อหุ้นละ $23 ➡️ Intel กำลังฟื้นตัวจากการสูญเสียตลาดชิป AI และราคาหุ้นตกหนักในปี 2024 ➡️ การลงทุนนี้ทำให้ SoftBank เป็นผู้ถือหุ้นอันดับ 5 ของ Intel ➡️ ดีลนี้เป็นการเสริมพันธมิตรระยะยาวระหว่างสองบริษัท ➡️ Intel มีแผนฟื้นตัวผ่านเทคโนโลยี 18A และ 14A สำหรับการผลิตชิปรุ่นใหม่ ➡️ SoftBank ยังถือหุ้นใหญ่ใน Arm และเพิ่งซื้อ Ampere Computing ➡️ โครงการ Stargate ร่วมกับ OpenAI และ Oracle เป็นส่วนหนึ่งของยุทธศาสตร์ AI ➡️ Intel CEO Lip-Bu Tan และ Masayoshi Son มีความสัมพันธ์ใกล้ชิดและเคยร่วมงานกันหลายครั้ง ➡️ Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังสามารถผลิตชิปรุ่นสูงได้ภายในประเทศ ➡️ SoftBank เคยซื้อ Arm ในปี 2016 ด้วยมูลค่า $32 พันล้าน และปัจจุบันมีมูลค่ากว่า $150 พันล้าน ➡️ Ampere Computing เป็นผู้ผลิตชิป ARM สำหรับเซิร์ฟเวอร์ที่เติบโตเร็ว ➡️ ตลาดชิป AI คาดว่าจะมีมูลค่ากว่า $400 พันล้านภายในปี 2030 ➡️ การลงทุนใน Intel อาจช่วย SoftBank ต่อรองกับพันธมิตรอื่นในระบบนิเวศ AI ➡️ รัฐบาลสหรัฐฯ กำลังพิจารณาซื้อหุ้น 10% ใน Intel เพื่อเสริมความมั่นคงด้านเทคโนโลยี https://www.tomshardware.com/tech-industry/semiconductors/softbank-to-buy-usd2-billion-in-intel-shares-at-usd23-each-firm-still-owns-majority-share-of-arm
    0 ความคิดเห็น 0 การแบ่งปัน 85 มุมมอง 0 รีวิว
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • สมองไมโครเวฟ: ชิปที่คิดแบบ AI และพูดแบบวิทยุ

    ในห้องทดลองเงียบ ๆ ของมหาวิทยาลัย Cornell นักวิจัยได้สร้างชิปต้นแบบที่ไม่ใช้การประมวลผลแบบดิจิทัลตามจังหวะนาฬิกาเหมือน CPU ทั่วไป แต่ใช้พลังงานไมโครเวฟในการประมวลผลข้อมูลแบบเรียลไทม์ และยังสามารถสื่อสารไร้สายได้ในตัวเดียวกัน

    ชิปนี้ถูกเรียกว่า “microwave brain” เพราะมันใช้คลื่นไมโครเวฟที่ปรับแต่งได้ผ่าน waveguide ซึ่งทำหน้าที่เหมือน “นิวรอนทางกายภาพ” โดยสามารถเปลี่ยนแอมพลิจูด เฟส และความถี่ของสัญญาณเพื่อแทนข้อมูล และให้สัญญาณเหล่านั้นแทรกกันในโดเมนแอนะล็อกเพื่อสร้างรูปแบบที่ซับซ้อน ก่อนจะถูกแปลงเป็นดิจิทัล

    ผลลัพธ์คือชิปที่สามารถประมวลผลข้อมูลความเร็วสูงระดับหลายสิบกิกะเฮิรตซ์ และยังสามารถสื่อสารไร้สายได้ในตัว โดยใช้พลังงานเพียง 200 มิลลิวัตต์—น้อยกว่าชิป AI ดิจิทัลทั่วไปหลายเท่า

    ในการทดสอบ ชิปสามารถจำแนกสัญญาณไร้สายได้ด้วยความแม่นยำถึง 88% โดยไม่ต้องใช้วงจรแก้ไขข้อผิดพลาดหรือหน่วยความจำขนาดใหญ่ และสามารถสลับงาน AI ได้ทันทีโดยไม่ต้องฝึกใหม่

    การออกแบบและหลักการทำงานของ microwave brain
    ใช้คลื่นไมโครเวฟผ่าน waveguide ที่ปรับแต่งได้แทนการประมวลผลแบบดิจิทัล
    สัญญาณแอนะล็อกแทรกกันเพื่อสร้างรูปแบบข้อมูลก่อนแปลงเป็นดิจิทัล
    ทำงานได้ทั้งการประมวลผลและการสื่อสารไร้สายในชิปเดียว

    ประสิทธิภาพและการใช้งาน
    ใช้พลังงานเพียง 200 มิลลิวัตต์
    ประมวลผลข้อมูลที่ความเร็วระดับหลายสิบกิกะเฮิรตซ์
    จำแนกสัญญาณไร้สายได้ด้วยความแม่นยำ 88%
    เหมาะกับงาน edge computing เช่น สมาร์ตวอทช์หรือมือถือที่ไม่ต้องพึ่งคลาวด์

    ความสามารถด้าน AI และการสื่อสาร
    สลับงาน AI ได้ทันทีโดยไม่ต้อง retrain
    ตรวจจับความผิดปกติในสัญญาณไร้สายได้
    อาจใช้ในงานเรดาร์ การถอดรหัสคลื่นวิทยุ หรือการรักษาความปลอดภัยฮาร์ดแวร์

    การสนับสนุนและการพัฒนา
    ได้รับทุนจาก DARPA และ National Science Foundation
    อยู่ในขั้นต้นแบบ แต่กำลังพัฒนาให้สามารถรวมเข้ากับระบบไมโครเวฟและดิจิทัลที่มีอยู่
    มีเป้าหมายเพื่อสร้างชิปที่เป็นทั้งสมองและเสาอากาศในอุปกรณ์เดียว

    https://www.tomshardware.com/pc-components/cpus/researchers-build-worlds-first-microwave-brain-chip-that-can-think-like-ai-and-talk-like-a-radio-all-at-gigahertz-speeds
    🧠 สมองไมโครเวฟ: ชิปที่คิดแบบ AI และพูดแบบวิทยุ ในห้องทดลองเงียบ ๆ ของมหาวิทยาลัย Cornell นักวิจัยได้สร้างชิปต้นแบบที่ไม่ใช้การประมวลผลแบบดิจิทัลตามจังหวะนาฬิกาเหมือน CPU ทั่วไป แต่ใช้พลังงานไมโครเวฟในการประมวลผลข้อมูลแบบเรียลไทม์ และยังสามารถสื่อสารไร้สายได้ในตัวเดียวกัน ชิปนี้ถูกเรียกว่า “microwave brain” เพราะมันใช้คลื่นไมโครเวฟที่ปรับแต่งได้ผ่าน waveguide ซึ่งทำหน้าที่เหมือน “นิวรอนทางกายภาพ” โดยสามารถเปลี่ยนแอมพลิจูด เฟส และความถี่ของสัญญาณเพื่อแทนข้อมูล และให้สัญญาณเหล่านั้นแทรกกันในโดเมนแอนะล็อกเพื่อสร้างรูปแบบที่ซับซ้อน ก่อนจะถูกแปลงเป็นดิจิทัล ผลลัพธ์คือชิปที่สามารถประมวลผลข้อมูลความเร็วสูงระดับหลายสิบกิกะเฮิรตซ์ และยังสามารถสื่อสารไร้สายได้ในตัว โดยใช้พลังงานเพียง 200 มิลลิวัตต์—น้อยกว่าชิป AI ดิจิทัลทั่วไปหลายเท่า ในการทดสอบ ชิปสามารถจำแนกสัญญาณไร้สายได้ด้วยความแม่นยำถึง 88% โดยไม่ต้องใช้วงจรแก้ไขข้อผิดพลาดหรือหน่วยความจำขนาดใหญ่ และสามารถสลับงาน AI ได้ทันทีโดยไม่ต้องฝึกใหม่ ✅ การออกแบบและหลักการทำงานของ microwave brain ➡️ ใช้คลื่นไมโครเวฟผ่าน waveguide ที่ปรับแต่งได้แทนการประมวลผลแบบดิจิทัล ➡️ สัญญาณแอนะล็อกแทรกกันเพื่อสร้างรูปแบบข้อมูลก่อนแปลงเป็นดิจิทัล ➡️ ทำงานได้ทั้งการประมวลผลและการสื่อสารไร้สายในชิปเดียว ✅ ประสิทธิภาพและการใช้งาน ➡️ ใช้พลังงานเพียง 200 มิลลิวัตต์ ➡️ ประมวลผลข้อมูลที่ความเร็วระดับหลายสิบกิกะเฮิรตซ์ ➡️ จำแนกสัญญาณไร้สายได้ด้วยความแม่นยำ 88% ➡️ เหมาะกับงาน edge computing เช่น สมาร์ตวอทช์หรือมือถือที่ไม่ต้องพึ่งคลาวด์ ✅ ความสามารถด้าน AI และการสื่อสาร ➡️ สลับงาน AI ได้ทันทีโดยไม่ต้อง retrain ➡️ ตรวจจับความผิดปกติในสัญญาณไร้สายได้ ➡️ อาจใช้ในงานเรดาร์ การถอดรหัสคลื่นวิทยุ หรือการรักษาความปลอดภัยฮาร์ดแวร์ ✅ การสนับสนุนและการพัฒนา ➡️ ได้รับทุนจาก DARPA และ National Science Foundation ➡️ อยู่ในขั้นต้นแบบ แต่กำลังพัฒนาให้สามารถรวมเข้ากับระบบไมโครเวฟและดิจิทัลที่มีอยู่ ➡️ มีเป้าหมายเพื่อสร้างชิปที่เป็นทั้งสมองและเสาอากาศในอุปกรณ์เดียว https://www.tomshardware.com/pc-components/cpus/researchers-build-worlds-first-microwave-brain-chip-that-can-think-like-ai-and-talk-like-a-radio-all-at-gigahertz-speeds
    0 ความคิดเห็น 0 การแบ่งปัน 104 มุมมอง 0 รีวิว
  • ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน?

    Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6

    เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws

    แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม

    โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์
    ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6

    ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก
    ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M

    Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก
    มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์
    ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด

    Architecture ที่ใช้คือ GPT-style transformer 2–3 layers
    ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้

    ไม่ใช้ dropout หรือ mixture-of-experts
    เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด

    การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI
    เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud

    เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น
    รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma

    OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้
    มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง

    การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง
    เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token

    https://www.seangoedecke.com/model-on-a-mbp/
    🧠💻 ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน? Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6 เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม ✅ โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์ ➡️ ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6 ✅ ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก ➡️ ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M ✅ Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก ➡️ มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย ✅ ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ➡️ ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด ✅ Architecture ที่ใช้คือ GPT-style transformer 2–3 layers ➡️ ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้ ✅ ไม่ใช้ dropout หรือ mixture-of-experts ➡️ เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด ✅ การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI ➡️ เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud ✅ เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น ➡️ รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma ✅ OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้ ➡️ มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง ✅ การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง ➡️ เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token https://www.seangoedecke.com/model-on-a-mbp/
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: เมื่อชิปไม่ใช่แค่ซิลิคอน — Thermodynamic Computing กำลังเปลี่ยนเกม AI ด้วยพลังของฟิสิกส์

    Normal Computing ได้ประกาศความสำเร็จในการ tape-out ชิป CN101 ซึ่งเป็นชิป thermodynamic computing ตัวแรกของโลกที่ออกแบบมาเพื่อการฝึก AI และงาน HPC โดยเฉพาะ จุดเด่นของชิปนี้คือการใช้หลักการทางฟิสิกส์ เช่น ความร้อน ความไม่แน่นอน และความสุ่ม มาเป็นกลไกในการคำนวณ แทนที่จะพยายามกำจัด “noise” แบบที่ชิปทั่วไปทำ

    แนวคิดนี้คล้ายกับการคำนวณแบบควอนตัมหรือ probabilistic computing โดยชิปจะเริ่มจากสถานะกึ่งสุ่ม แล้วปล่อยให้ระบบเข้าสู่สมดุล จากนั้นอ่านค่าผลลัพธ์จากสถานะสมดุลนั้น ซึ่งเหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบแน่นอน เช่น การสร้างภาพด้วย AI หรือการแก้สมการเชิงเส้น

    CN101 ถูกออกแบบมาเพื่อแก้ปัญหา linear algebra และ matrix operations ได้อย่างมีประสิทธิภาพ โดยใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน และเป็นส่วนหนึ่งของวิสัยทัศน์ที่ต้องการรวม CPU, GPU, ASIC แบบ thermodynamic และชิปควอนตัมไว้ในเซิร์ฟเวอร์ AI เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด

    แม้จะมีศักยภาพสูง แต่ thermodynamic computing ยังอยู่ในช่วงเริ่มต้น และมีความท้าทายด้านการใช้งานจริง เช่น การออกแบบระบบที่สามารถควบคุมความสุ่มได้อย่างแม่นยำ และการประยุกต์ใช้ในงานที่ไม่ใช่ AI

    Normal Computing ประกาศ tape-out ชิป thermodynamic computing ตัวแรกชื่อ CN101
    ใช้หลักการฟิสิกส์ เช่น ความร้อนและความสุ่มในการคำนวณ

    CN101 ออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ
    เช่น การฝึกโมเดล AI และการแก้สมการเชิงเส้น

    ชิปเริ่มจากสถานะกึ่งสุ่ม แล้วเข้าสู่สมดุลเพื่อหาคำตอบ
    เหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบ deterministic

    CN101 ใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน
    เพิ่มประสิทธิภาพด้านพลังงานอย่างมหาศาล

    เป้าหมายคือรวม CPU, GPU, thermodynamic ASIC และชิปควอนตัมไว้ในเซิร์ฟเวอร์เดียว
    เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด

    Roadmap ของ CN101 มีแผนขยายในปี 2026 และ 2028
    รองรับโมเดล AI ที่ซับซ้อนมากขึ้น เช่น diffusion models

    https://www.tomshardware.com/tech-industry/semiconductors/worlds-first-thermodynamic-computing-chip-reaches-tape-out-normal-computings-physics-based-asic-changes-lanes-to-train-more-ai
    🧪⚙️ เล่าให้ฟังใหม่: เมื่อชิปไม่ใช่แค่ซิลิคอน — Thermodynamic Computing กำลังเปลี่ยนเกม AI ด้วยพลังของฟิสิกส์ Normal Computing ได้ประกาศความสำเร็จในการ tape-out ชิป CN101 ซึ่งเป็นชิป thermodynamic computing ตัวแรกของโลกที่ออกแบบมาเพื่อการฝึก AI และงาน HPC โดยเฉพาะ จุดเด่นของชิปนี้คือการใช้หลักการทางฟิสิกส์ เช่น ความร้อน ความไม่แน่นอน และความสุ่ม มาเป็นกลไกในการคำนวณ แทนที่จะพยายามกำจัด “noise” แบบที่ชิปทั่วไปทำ แนวคิดนี้คล้ายกับการคำนวณแบบควอนตัมหรือ probabilistic computing โดยชิปจะเริ่มจากสถานะกึ่งสุ่ม แล้วปล่อยให้ระบบเข้าสู่สมดุล จากนั้นอ่านค่าผลลัพธ์จากสถานะสมดุลนั้น ซึ่งเหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบแน่นอน เช่น การสร้างภาพด้วย AI หรือการแก้สมการเชิงเส้น CN101 ถูกออกแบบมาเพื่อแก้ปัญหา linear algebra และ matrix operations ได้อย่างมีประสิทธิภาพ โดยใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน และเป็นส่วนหนึ่งของวิสัยทัศน์ที่ต้องการรวม CPU, GPU, ASIC แบบ thermodynamic และชิปควอนตัมไว้ในเซิร์ฟเวอร์ AI เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด แม้จะมีศักยภาพสูง แต่ thermodynamic computing ยังอยู่ในช่วงเริ่มต้น และมีความท้าทายด้านการใช้งานจริง เช่น การออกแบบระบบที่สามารถควบคุมความสุ่มได้อย่างแม่นยำ และการประยุกต์ใช้ในงานที่ไม่ใช่ AI ✅ Normal Computing ประกาศ tape-out ชิป thermodynamic computing ตัวแรกชื่อ CN101 ➡️ ใช้หลักการฟิสิกส์ เช่น ความร้อนและความสุ่มในการคำนวณ ✅ CN101 ออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ ➡️ เช่น การฝึกโมเดล AI และการแก้สมการเชิงเส้น ✅ ชิปเริ่มจากสถานะกึ่งสุ่ม แล้วเข้าสู่สมดุลเพื่อหาคำตอบ ➡️ เหมาะกับงานที่ไม่ต้องการผลลัพธ์แบบ deterministic ✅ CN101 ใช้พลังงานน้อยกว่าชิปทั่วไปถึง 1000 เท่าในบางงาน ➡️ เพิ่มประสิทธิภาพด้านพลังงานอย่างมหาศาล ✅ เป้าหมายคือรวม CPU, GPU, thermodynamic ASIC และชิปควอนตัมไว้ในเซิร์ฟเวอร์เดียว ➡️ เพื่อให้แต่ละปัญหาได้เครื่องมือที่เหมาะสมที่สุด ✅ Roadmap ของ CN101 มีแผนขยายในปี 2026 และ 2028 ➡️ รองรับโมเดล AI ที่ซับซ้อนมากขึ้น เช่น diffusion models https://www.tomshardware.com/tech-industry/semiconductors/worlds-first-thermodynamic-computing-chip-reaches-tape-out-normal-computings-physics-based-asic-changes-lanes-to-train-more-ai
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • เรื่องเล่า: การเดินทางสู่โลก IoT และบ้านอัจฉริยะ

    วันก่อนผมนั่งคุยกับเพื่อนๆ เรื่องบ้านอัจฉริยะ แล้วก็ย้อนคิดไปว่าจริงๆ แนวคิดนี้มันไม่ใช่เรื่องใหม่เลยนะ หลายคนอาจคิดว่ามันเพิ่งเกิดขึ้นเพราะมี Wi-Fi หรือสมาร์ทโฟน แต่จริงๆ รากของมันมีมาตั้งแต่ร้อยกว่าปีก่อนแล้ว สมัยนั้นคนก็เริ่มคิดอยากควบคุมอะไรจากระยะไกล อย่างในปี 1832 ก็มีการประดิษฐ์โทรเลขแม่เหล็กไฟฟ้า ที่ส่งสัญญาณควบคุมระยะไกลได้ หรือเทอร์โมสแตตแบบกลไกที่ช่วยควบคุมอุณหภูมิบ้าน ซึ่งสำหรับยุคนั้นถือว่าล้ำสุดๆ

    เวลาผ่านมาถึงช่วงปี 1999 ก็มีคนตั้งชื่อให้ความคิดนี้ว่า “Internet of Things” หรือ IoT จุดพลิกผันจริงๆ มันเกิดราวปี 2008-2009 ที่จำนวนอุปกรณ์ที่เชื่อมต่ออินเทอร์เน็ตมีมากกว่าจำนวนคนบนโลกแล้ว จากนั้นทุกอย่างก็ระเบิดพลังเต็มที่เพราะมีสมาร์ทโฟน, Wi-Fi และคลาวด์ เข้ามาเสริม พูดง่ายๆ คือบ้านเริ่มมีสมอง คุยกันได้ และคุยกับเราผ่านเน็ตได้ด้วย

    เพื่อนบางคนถามว่าบ้านอัจฉริยะมันทำงานยังไง ผมก็บอกว่ามันเหมือนบ้านมีตา มีมือ และมีสมอง ตาก็คือพวกเซ็นเซอร์ ที่คอยจับว่าอุณหภูมิเท่าไหร่ แสงเพียงพอไหม หรือมีคนเดินผ่านไหม มือก็คือพวกมอเตอร์หรือสวิตช์ไฟ ที่ทำงานตามคำสั่ง ส่วนสมองก็คือศูนย์ควบคุม ที่คิด วิเคราะห์ แล้วสั่งการต่อไป

    ทุกวันนี้บ้านอัจฉริยะก็มีหลายค่ายใหญ่แข่งกัน อย่าง Amazon Alexa ที่รองรับอุปกรณ์ได้เยอะมาก Google Home ที่เก่งเรื่องฟังและเข้าใจภาษามนุษย์ หรือ Apple HomeKit ที่เน้นความปลอดภัย แต่ปัญหาคือแต่ละค่ายก็มีระบบของตัวเอง บางทีอุปกรณ์ไม่คุยกัน ต้องใช้หลายแอปเหมือนต้องพกรีโมทหลายอันอยู่บ้านเดียวกัน

    ในไทยเองกระแสนี้ก็มานะ ตลาด IoT โตเร็วมาก ภาครัฐก็มองว่าเป็นตัวขับเคลื่อนเศรษฐกิจใหม่ โดยเฉพาะในภาคการผลิต และเมืองอัจฉริยะ แต่แน่นอนว่ามันก็ยังมีอุปสรรค อย่างเรื่องความเข้ากันได้ของอุปกรณ์ หรือปัญหาความปลอดภัย เพราะถ้าอุปกรณ์ถูกแฮ็กได้ก็อาจเปิดประตูบ้านเราได้เลย ซึ่งฟังดูน่ากลัวอยู่เหมือนกัน

    ที่น่าสนใจคือ ตอนนี้บ้านอัจฉริยะไม่ได้แค่ “ฟังคำสั่ง” อีกแล้ว แต่เริ่มใช้ AI เข้ามาช่วยตัดสินใจแทนเรา เช่น ตู้เย็นบางรุ่นของ Samsung ใช้ AI คอยสแกนของในตู้ แล้วแนะนำเมนูอาหาร หรือเตือนว่าอะไรใกล้หมดอายุ เครื่องซักผ้ารุ่นใหม่ก็ใช้ AI ปรับรอบหมุนและปริมาณน้ำตามชนิดของผ้า เพื่อให้ซักได้สะอาดและประหยัดพลังงาน หรือแม้แต่ระบบตรวจจับน้ำรั่ว อย่าง Moen Flo ที่เรียนรู้รูปแบบการใช้น้ำในบ้าน แล้วสั่งปิดวาล์วอัตโนมัติถ้าพบว่ามีความผิดปกติ — ป้องกันน้ำท่วมบ้านได้ก่อนที่เราจะรู้ตัวเสียอีก

    อนาคตยังมีสิ่งน่าสนใจรออยู่ อย่างมาตรฐานใหม่ชื่อ Matter ที่ตั้งใจให้ทุกอุปกรณ์คุยกันได้โดยไม่ต้องสนใจยี่ห้อ ไหนจะการเอา AI มาผสมกับเทคโนโลยี Edge Computing ให้บ้านฉลาดพอจะเดาความต้องการของเรา เช่น เห็นฝนกำลังตกก็ปิดหน้าต่างให้เอง หรือเปิดเครื่องฟอกอากาศทันทีเมื่อเซ็นเซอร์จับว่ามีฝุ่น PM 2.5 สูงเกินมาตรฐาน หรือใช้พลังงานหมุนเวียนอย่างโซลาร์เซลล์ เพื่อให้บ้านยั่งยืนและประหยัดพลังงานมากขึ้น

    คิดไปคิดมา จากบ้านธรรมดาที่มีแต่สวิตช์เปิดไฟ วันนี้เรามีบ้านที่คุยกับเราได้ คิดแทนเราได้ และอีกไม่นานมันจะกลายเป็นเรื่องปกติในชีวิต เหมือนที่ทุกบ้านมี Wi-Fi ในตอนนี้นั่นแหละ

    #ลุงเขียนหลานอ่าน
    🏠 เรื่องเล่า: การเดินทางสู่โลก IoT และบ้านอัจฉริยะ 🤖 ☕ วันก่อนผมนั่งคุยกับเพื่อนๆ เรื่องบ้านอัจฉริยะ แล้วก็ย้อนคิดไปว่าจริงๆ แนวคิดนี้มันไม่ใช่เรื่องใหม่เลยนะ หลายคนอาจคิดว่ามันเพิ่งเกิดขึ้นเพราะมี Wi-Fi หรือสมาร์ทโฟน 📱 แต่จริงๆ รากของมันมีมาตั้งแต่ร้อยกว่าปีก่อนแล้ว สมัยนั้นคนก็เริ่มคิดอยากควบคุมอะไรจากระยะไกล อย่างในปี 1832 ก็มีการประดิษฐ์โทรเลขแม่เหล็กไฟฟ้า 📡 ที่ส่งสัญญาณควบคุมระยะไกลได้ หรือเทอร์โมสแตตแบบกลไกที่ช่วยควบคุมอุณหภูมิบ้าน ซึ่งสำหรับยุคนั้นถือว่าล้ำสุดๆ เวลาผ่านมาถึงช่วงปี 1999 ก็มีคนตั้งชื่อให้ความคิดนี้ว่า “Internet of Things” หรือ IoT 🌐 จุดพลิกผันจริงๆ มันเกิดราวปี 2008-2009 ที่จำนวนอุปกรณ์ที่เชื่อมต่ออินเทอร์เน็ตมีมากกว่าจำนวนคนบนโลกแล้ว จากนั้นทุกอย่างก็ระเบิดพลังเต็มที่เพราะมีสมาร์ทโฟน, Wi-Fi และคลาวด์ ☁️ เข้ามาเสริม พูดง่ายๆ คือบ้านเริ่มมีสมอง คุยกันได้ และคุยกับเราผ่านเน็ตได้ด้วย เพื่อนบางคนถามว่าบ้านอัจฉริยะมันทำงานยังไง ผมก็บอกว่ามันเหมือนบ้านมีตา มีมือ และมีสมอง ตาก็คือพวกเซ็นเซอร์ 👀 ที่คอยจับว่าอุณหภูมิเท่าไหร่ แสงเพียงพอไหม หรือมีคนเดินผ่านไหม มือก็คือพวกมอเตอร์หรือสวิตช์ไฟ 🤖 ที่ทำงานตามคำสั่ง ส่วนสมองก็คือศูนย์ควบคุม 🧠 ที่คิด วิเคราะห์ แล้วสั่งการต่อไป ทุกวันนี้บ้านอัจฉริยะก็มีหลายค่ายใหญ่แข่งกัน อย่าง Amazon Alexa ที่รองรับอุปกรณ์ได้เยอะมาก Google Home ที่เก่งเรื่องฟังและเข้าใจภาษามนุษย์ 🗣️ หรือ Apple HomeKit ที่เน้นความปลอดภัย 🔒 แต่ปัญหาคือแต่ละค่ายก็มีระบบของตัวเอง บางทีอุปกรณ์ไม่คุยกัน ต้องใช้หลายแอปเหมือนต้องพกรีโมทหลายอันอยู่บ้านเดียวกัน ในไทยเองกระแสนี้ก็มานะ 🇹🇭 ตลาด IoT โตเร็วมาก ภาครัฐก็มองว่าเป็นตัวขับเคลื่อนเศรษฐกิจใหม่ โดยเฉพาะในภาคการผลิต 🏭 และเมืองอัจฉริยะ 🏙️ แต่แน่นอนว่ามันก็ยังมีอุปสรรค อย่างเรื่องความเข้ากันได้ของอุปกรณ์ หรือปัญหาความปลอดภัย 🔐 เพราะถ้าอุปกรณ์ถูกแฮ็กได้ก็อาจเปิดประตูบ้านเราได้เลย ซึ่งฟังดูน่ากลัวอยู่เหมือนกัน ที่น่าสนใจคือ ตอนนี้บ้านอัจฉริยะไม่ได้แค่ “ฟังคำสั่ง” อีกแล้ว แต่เริ่มใช้ AI เข้ามาช่วยตัดสินใจแทนเรา เช่น ตู้เย็นบางรุ่นของ Samsung ใช้ AI คอยสแกนของในตู้ 🍎🥦 แล้วแนะนำเมนูอาหาร หรือเตือนว่าอะไรใกล้หมดอายุ เครื่องซักผ้ารุ่นใหม่ก็ใช้ AI ปรับรอบหมุนและปริมาณน้ำตามชนิดของผ้า 👕 เพื่อให้ซักได้สะอาดและประหยัดพลังงาน หรือแม้แต่ระบบตรวจจับน้ำรั่ว 💧 อย่าง Moen Flo ที่เรียนรู้รูปแบบการใช้น้ำในบ้าน แล้วสั่งปิดวาล์วอัตโนมัติถ้าพบว่ามีความผิดปกติ — ป้องกันน้ำท่วมบ้านได้ก่อนที่เราจะรู้ตัวเสียอีก อนาคตยังมีสิ่งน่าสนใจรออยู่ อย่างมาตรฐานใหม่ชื่อ Matter 📜 ที่ตั้งใจให้ทุกอุปกรณ์คุยกันได้โดยไม่ต้องสนใจยี่ห้อ ไหนจะการเอา AI 🤖 มาผสมกับเทคโนโลยี Edge Computing 💻 ให้บ้านฉลาดพอจะเดาความต้องการของเรา เช่น เห็นฝนกำลังตกก็ปิดหน้าต่างให้เอง หรือเปิดเครื่องฟอกอากาศทันทีเมื่อเซ็นเซอร์จับว่ามีฝุ่น PM 2.5 สูงเกินมาตรฐาน หรือใช้พลังงานหมุนเวียนอย่างโซลาร์เซลล์ 🌞 เพื่อให้บ้านยั่งยืนและประหยัดพลังงานมากขึ้น คิดไปคิดมา จากบ้านธรรมดาที่มีแต่สวิตช์เปิดไฟ วันนี้เรามีบ้านที่คุยกับเราได้ คิดแทนเราได้ และอีกไม่นานมันจะกลายเป็นเรื่องปกติในชีวิต เหมือนที่ทุกบ้านมี Wi-Fi 📶 ในตอนนี้นั่นแหละ #ลุงเขียนหลานอ่าน
    1 ความคิดเห็น 0 การแบ่งปัน 243 มุมมอง 0 รีวิว
  • เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล

    ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์

    Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร

    นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์

    แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง

    Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026
    เป็นส่วนหนึ่งของ Core Ultra 400 Series

    รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E)
    พร้อม GPU Xe3 จำนวน 4 คอร์

    รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์
    เหมาะสำหรับโน้ตบุ๊กระดับกลาง

    รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์
    ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์

    ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU)
    รองรับงาน AI, ML และ cloud computing

    https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    🧠💻 เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์ Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์ แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง ✅ Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026 ➡️ เป็นส่วนหนึ่งของ Core Ultra 400 Series ✅ รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E) ➡️ พร้อม GPU Xe3 จำนวน 4 คอร์ ✅ รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ➡️ เหมาะสำหรับโน้ตบุ๊กระดับกลาง ✅ รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์ ➡️ ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์ ✅ ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU) ➡️ รองรับงาน AI, ML และ cloud computing https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    WCCFTECH.COM
    Intel Nova Lake Mobile CPU Lineup Leaks Out: Entry-Level SKUs Starting at 6 Cores, Nova Lake-HX With 28 Cores
    Core configurations of Intel's next-generation Nova Lake CPUs have leaked out, which point to up to 28 CPU cores & 12 GPU cores.
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเชื่อมต่อ: XConn เปิดตัว Apollo 2 สวิตช์ PCIe Gen 6.2 + CXL 3.1 ที่อาจเปลี่ยนโฉมศูนย์ข้อมูล AI

    ในงาน Future of Memory and Storage Summit (FMS25) ปี 2025 บริษัท XConn Technologies ได้เปิดตัว Apollo 2 ซึ่งเป็นสวิตช์ไฮบริดตัวแรกของโลกที่รวมเทคโนโลยี PCIe Gen 6.2 และ CXL 3.1 ไว้ในชิปเดียว จุดประสงค์คือเพื่อรองรับความต้องการด้าน bandwidth และ latency ที่สูงขึ้นในงานประมวลผล AI และศูนย์ข้อมูลยุคใหม่

    Apollo 2 ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดของหน่วยความจำ และเพิ่มความยืดหยุ่นในการออกแบบระบบ โดยสามารถเชื่อมต่อระหว่าง CPU, GPU, และ accelerator ได้อย่างมีประสิทธิภาพผ่าน shared memory pool ด้วย CXL 3.1 ขณะเดียวกัน PCIe Gen 6.2 ก็ช่วยให้การส่งข้อมูลระหว่างอุปกรณ์เร็วขึ้นถึงระดับ 128GB/s แบบ bidirectional

    XConn ยังร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างระบบที่สามารถใช้งานได้จริงในระดับ production โดยมีเป้าหมายเพื่อสร้างโครงสร้างพื้นฐานที่พร้อมสำหรับ AI/ML training, cloud computing และ composable infrastructure

    แม้จะมีความหวังสูง แต่ก็ยังไม่มีข้อมูล benchmark ที่ชัดเจนว่าประสิทธิภาพจะเหนือกว่า PCIe Gen 5 มากแค่ไหน และการใช้งานจริงยังต้องรอการพิสูจน์ในภาคสนาม

    XConn เปิดตัว Apollo 2 สวิตช์ไฮบริดที่รวม PCIe Gen 6.2 และ CXL 3.1
    เป็นชิปตัวแรกที่รวมสองเทคโนโลยีไว้ในตัวเดียว

    เปิดตัวในงาน FMS25 เพื่อโชว์การทำงานแบบ end-to-end
    รองรับ AI/ML training, cloud computing และ composable infrastructure

    ร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack
    เพื่อสร้างระบบที่ใช้งานได้จริงในระดับ production

    Apollo 2 รองรับการเชื่อมต่อตั้งแต่ 64 ถึง 260 lanes
    เพิ่มความสามารถในการปรับขนาดและความหนาแน่นของระบบ

    มีการร่วมมือกับ ScaleFlux เพื่อปรับปรุงการทำงานร่วมกับ CXL 3.1
    เพื่อรองรับงาน AI และ cloud infrastructure ได้ดียิ่งขึ้น

    https://www.techradar.com/pro/the-next-stage-in-ai-power-xconn-set-to-reveal-end-to-end-pcie-gen-6-offering-higher-bandwidth-than-ever
    🚀🔗 เรื่องเล่าจากชิปเชื่อมต่อ: XConn เปิดตัว Apollo 2 สวิตช์ PCIe Gen 6.2 + CXL 3.1 ที่อาจเปลี่ยนโฉมศูนย์ข้อมูล AI ในงาน Future of Memory and Storage Summit (FMS25) ปี 2025 บริษัท XConn Technologies ได้เปิดตัว Apollo 2 ซึ่งเป็นสวิตช์ไฮบริดตัวแรกของโลกที่รวมเทคโนโลยี PCIe Gen 6.2 และ CXL 3.1 ไว้ในชิปเดียว จุดประสงค์คือเพื่อรองรับความต้องการด้าน bandwidth และ latency ที่สูงขึ้นในงานประมวลผล AI และศูนย์ข้อมูลยุคใหม่ Apollo 2 ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดของหน่วยความจำ และเพิ่มความยืดหยุ่นในการออกแบบระบบ โดยสามารถเชื่อมต่อระหว่าง CPU, GPU, และ accelerator ได้อย่างมีประสิทธิภาพผ่าน shared memory pool ด้วย CXL 3.1 ขณะเดียวกัน PCIe Gen 6.2 ก็ช่วยให้การส่งข้อมูลระหว่างอุปกรณ์เร็วขึ้นถึงระดับ 128GB/s แบบ bidirectional XConn ยังร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างระบบที่สามารถใช้งานได้จริงในระดับ production โดยมีเป้าหมายเพื่อสร้างโครงสร้างพื้นฐานที่พร้อมสำหรับ AI/ML training, cloud computing และ composable infrastructure แม้จะมีความหวังสูง แต่ก็ยังไม่มีข้อมูล benchmark ที่ชัดเจนว่าประสิทธิภาพจะเหนือกว่า PCIe Gen 5 มากแค่ไหน และการใช้งานจริงยังต้องรอการพิสูจน์ในภาคสนาม ✅ XConn เปิดตัว Apollo 2 สวิตช์ไฮบริดที่รวม PCIe Gen 6.2 และ CXL 3.1 ➡️ เป็นชิปตัวแรกที่รวมสองเทคโนโลยีไว้ในตัวเดียว ✅ เปิดตัวในงาน FMS25 เพื่อโชว์การทำงานแบบ end-to-end ➡️ รองรับ AI/ML training, cloud computing และ composable infrastructure ✅ ร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ➡️ เพื่อสร้างระบบที่ใช้งานได้จริงในระดับ production ✅ Apollo 2 รองรับการเชื่อมต่อตั้งแต่ 64 ถึง 260 lanes ➡️ เพิ่มความสามารถในการปรับขนาดและความหนาแน่นของระบบ ✅ มีการร่วมมือกับ ScaleFlux เพื่อปรับปรุงการทำงานร่วมกับ CXL 3.1 ➡️ เพื่อรองรับงาน AI และ cloud infrastructure ได้ดียิ่งขึ้น https://www.techradar.com/pro/the-next-stage-in-ai-power-xconn-set-to-reveal-end-to-end-pcie-gen-6-offering-higher-bandwidth-than-ever
    0 ความคิดเห็น 0 การแบ่งปัน 199 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกหน่วยความจำ: Sandisk และ SK hynix จับมือสร้างมาตรฐานใหม่สำหรับ AI ด้วย High Bandwidth Flash

    ในเดือนสิงหาคม 2025 Sandisk และ SK hynix ได้ประกาศความร่วมมือครั้งสำคัญเพื่อผลักดันเทคโนโลยีหน่วยความจำแบบใหม่ที่เรียกว่า “High Bandwidth Flash” หรือ HBF ซึ่งเป็นการนำ NAND flash มาผสานกับแนวคิดของ HBM (High Bandwidth Memory) เพื่อสร้างหน่วยความจำที่มีความจุสูงถึง 8–16 เท่าของ DRAM แต่ยังคงรักษาระดับแบนด์วิดธ์ใกล้เคียงกัน

    ต่างจาก HBM ที่ใช้ DRAM ซึ่งต้องใช้พลังงานตลอดเวลาเพื่อเก็บข้อมูล HBF ใช้ NAND flash ที่ไม่ต้องใช้พลังงานเพื่อคงข้อมูลไว้ ทำให้เหมาะกับงาน AI inference ที่ต้องการประหยัดพลังงานและรองรับการใช้งานใน edge computing หรือ data center ที่มีข้อจำกัดด้านพลังงานและความร้อน

    เทคโนโลยีนี้ยังได้รับรางวัล “Most Innovative Technology” จากงาน Flash Memory Summit 2025 และมีแผนส่งตัวอย่างในครึ่งหลังของปี 2026 โดยคาดว่าจะมีอุปกรณ์ AI รุ่นแรกที่ใช้ HBF ในต้นปี 2027

    Sandisk และ SK hynix ลงนาม MOU เพื่อพัฒนาและสร้างมาตรฐาน High Bandwidth Flash (HBF)
    เป็นการรวม NAND flash เข้ากับแนวคิดของ HBM เพื่อสร้างหน่วยความจำใหม่

    HBF มีความจุสูงกว่า DRAM-based HBM ถึง 8–16 เท่า
    แต่ยังคงรักษาระดับแบนด์วิดธ์ใกล้เคียงกัน

    NAND flash เป็นหน่วยความจำแบบ non-volatile
    ไม่ต้องใช้พลังงานเพื่อคงข้อมูล ช่วยลดการใช้พลังงานในระบบ AI

    HBF ได้รับรางวัล “Most Innovative Technology” จากงาน FMS 2025
    พัฒนาโดยใช้เทคโนโลยี BiCS NAND และ CBA wafer bonding

    ตัวอย่าง HBF จะเริ่มส่งในครึ่งหลังของปี 2026
    และอุปกรณ์ AI รุ่นแรกที่ใช้ HBF จะเปิดตัวในต้นปี 2027

    มีการตั้ง Technical Advisory Board เพื่อกำหนดทิศทางของ HBF
    รวมผู้เชี่ยวชาญจากทั้งในและนอก Sandisk เพื่อสร้างมาตรฐานอุตสาหกรรม

    https://www.tomshardware.com/tech-industry/sandisk-and-sk-hynix-join-forces-to-standardize-high-bandwidth-flash-memory-a-nand-based-alternative-to-hbm-for-ai-gpus-move-could-enable-8-16x-higher-capacity-compared-to-dram
    ⚙️🧠 เรื่องเล่าจากโลกหน่วยความจำ: Sandisk และ SK hynix จับมือสร้างมาตรฐานใหม่สำหรับ AI ด้วย High Bandwidth Flash ในเดือนสิงหาคม 2025 Sandisk และ SK hynix ได้ประกาศความร่วมมือครั้งสำคัญเพื่อผลักดันเทคโนโลยีหน่วยความจำแบบใหม่ที่เรียกว่า “High Bandwidth Flash” หรือ HBF ซึ่งเป็นการนำ NAND flash มาผสานกับแนวคิดของ HBM (High Bandwidth Memory) เพื่อสร้างหน่วยความจำที่มีความจุสูงถึง 8–16 เท่าของ DRAM แต่ยังคงรักษาระดับแบนด์วิดธ์ใกล้เคียงกัน ต่างจาก HBM ที่ใช้ DRAM ซึ่งต้องใช้พลังงานตลอดเวลาเพื่อเก็บข้อมูล HBF ใช้ NAND flash ที่ไม่ต้องใช้พลังงานเพื่อคงข้อมูลไว้ ทำให้เหมาะกับงาน AI inference ที่ต้องการประหยัดพลังงานและรองรับการใช้งานใน edge computing หรือ data center ที่มีข้อจำกัดด้านพลังงานและความร้อน เทคโนโลยีนี้ยังได้รับรางวัล “Most Innovative Technology” จากงาน Flash Memory Summit 2025 และมีแผนส่งตัวอย่างในครึ่งหลังของปี 2026 โดยคาดว่าจะมีอุปกรณ์ AI รุ่นแรกที่ใช้ HBF ในต้นปี 2027 ✅ Sandisk และ SK hynix ลงนาม MOU เพื่อพัฒนาและสร้างมาตรฐาน High Bandwidth Flash (HBF) ➡️ เป็นการรวม NAND flash เข้ากับแนวคิดของ HBM เพื่อสร้างหน่วยความจำใหม่ ✅ HBF มีความจุสูงกว่า DRAM-based HBM ถึง 8–16 เท่า ➡️ แต่ยังคงรักษาระดับแบนด์วิดธ์ใกล้เคียงกัน ✅ NAND flash เป็นหน่วยความจำแบบ non-volatile ➡️ ไม่ต้องใช้พลังงานเพื่อคงข้อมูล ช่วยลดการใช้พลังงานในระบบ AI ✅ HBF ได้รับรางวัล “Most Innovative Technology” จากงาน FMS 2025 ➡️ พัฒนาโดยใช้เทคโนโลยี BiCS NAND และ CBA wafer bonding ✅ ตัวอย่าง HBF จะเริ่มส่งในครึ่งหลังของปี 2026 ➡️ และอุปกรณ์ AI รุ่นแรกที่ใช้ HBF จะเปิดตัวในต้นปี 2027 ✅ มีการตั้ง Technical Advisory Board เพื่อกำหนดทิศทางของ HBF ➡️ รวมผู้เชี่ยวชาญจากทั้งในและนอก Sandisk เพื่อสร้างมาตรฐานอุตสาหกรรม https://www.tomshardware.com/tech-industry/sandisk-and-sk-hynix-join-forces-to-standardize-high-bandwidth-flash-memory-a-nand-based-alternative-to-hbm-for-ai-gpus-move-could-enable-8-16x-higher-capacity-compared-to-dram
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกอินเตอร์เฟซ: PCIe 8.0 กับความเร็วระดับ 1TB/s ที่พร้อมป้อนข้อมูลให้ AI และดาต้าเซ็นเตอร์

    PCI-SIG กลุ่มพันธมิตรผู้กำหนดมาตรฐาน PCI Express ได้ประกาศสเปกของ PCIe 8.0 อย่างเป็นทางการ โดยยังคงรักษาธรรมเนียม “เพิ่มความเร็วเป็นสองเท่าทุกสามปี” ซึ่งในเวอร์ชันใหม่นี้จะมีอัตราการส่งข้อมูลสูงถึง 256 GT/s ต่อเลน และสามารถให้แบนด์วิดธ์แบบสองทิศทางได้ถึง 1TB/s บนการเชื่อมต่อแบบ x16

    แม้จะยังไม่ใช่สเปกที่พร้อมใช้งานในตลาดทั่วไป (คาดว่าจะปล่อยให้สมาชิกในปี 2028) แต่เป้าหมายของ PCIe 8.0 ชัดเจนมาก: รองรับงานที่ต้องการแบนด์วิดธ์สูง เช่น AI, machine learning, quantum computing, edge computing, และระบบในอุตสาหกรรมยานยนต์หรือการทหาร

    เทคโนโลยีที่ใช้ยังคงเป็น PAM4 พร้อม Flit Mode encoding และ forward error correction (FEC) เหมือนใน PCIe 6.0 และ 7.0 แต่การผลักดันความเร็วถึง 256 GT/s ต่อเลนบนสายทองแดงนั้นเป็นความท้าทายอย่างมาก ทำให้ PCI-SIG เริ่มพิจารณาการใช้ optical interconnects และ advanced packaging เช่น co-packaged optics หรือ chiplets

    PCIe 8.0 จะมีอัตราการส่งข้อมูล 256 GT/s ต่อเลน
    ให้แบนด์วิดธ์สูงสุด 1TB/s บนการเชื่อมต่อแบบ x16

    ใช้เทคโนโลยี PAM4, FEC และ Flit Mode encoding
    เหมือนกับ PCIe 6.0 และ 7.0

    ยังคงรองรับการใช้งานร่วมกับเวอร์ชันก่อนหน้า
    เพื่อความสะดวกในการอัปเกรดระบบ

    เป้าหมายหลักคือรองรับงาน AI, HPC, quantum computing และ edge computing
    รวมถึงอุตสาหกรรมยานยนต์, ดาต้าเซ็นเตอร์ และการทหาร

    PCIe 8.0 คาดว่าจะปล่อยให้สมาชิก PCI-SIG ในปี 2028
    การใช้งานในตลาดทั่วไปอาจต้องรอถึงช่วงปี 2030

    PCIe 5.0 มีความเร็วสูงสุด 32 GT/s ต่อเลน
    PCIe 8.0 เร็วกว่า 8 เท่าในแง่ raw bit rate

    PAM4 ช่วยเพิ่ม bit rate โดยไม่ต้องเพิ่ม clock speed
    แต่ต้องใช้วงจรที่ซับซ้อนเพื่อแก้ไขข้อผิดพลาด

    PCIe 7.0 เริ่มใช้ optical-aware retimers เพื่อรองรับการเชื่อมต่อแบบไฟเบอร์
    แนวโน้มนี้จะขยายไปยัง PCIe 8.0

    การใช้ chiplets และ co-packaged optics ช่วยลดระยะทางสัญญาณ
    เพิ่มความเสถียรในการส่งข้อมูลความเร็วสูง

    การส่งข้อมูล 256 GT/s บนสายทองแดงยังไม่มีมาตรฐานที่รองรับ
    อาจเกิดปัญหา signal loss และความไม่เสถียร

    การพัฒนา PCIe 8.0 ต้องใช้วัสดุและเทคนิคการผลิตที่แม่นยำสูง
    เพิ่มต้นทุนและความซับซ้อนในการออกแบบ

    ผู้ใช้ทั่วไปอาจไม่ได้สัมผัส PCIe 8.0 จนถึงช่วงปี 2030
    เพราะเป้าหมายหลักคือระบบระดับองค์กรและดาต้าเซ็นเตอร์

    การใช้ PAM ระดับสูงกว่านี้ (เช่น PAM8) ยังไม่เหมาะสมในเชิงต้นทุน
    เพราะความแตกต่างของระดับสัญญาณเล็กลงและเสี่ยงต่อการเกิด error

    https://www.tomshardware.com/tech-industry/pci-sig-announces-pcie-8-0-spec-with-twice-the-bandwidth-1tb-s-of-peak-bandwidth-256-gt-s-per-lane-and-a-possible-new-connector
    🚀🔌 เรื่องเล่าจากโลกอินเตอร์เฟซ: PCIe 8.0 กับความเร็วระดับ 1TB/s ที่พร้อมป้อนข้อมูลให้ AI และดาต้าเซ็นเตอร์ PCI-SIG กลุ่มพันธมิตรผู้กำหนดมาตรฐาน PCI Express ได้ประกาศสเปกของ PCIe 8.0 อย่างเป็นทางการ โดยยังคงรักษาธรรมเนียม “เพิ่มความเร็วเป็นสองเท่าทุกสามปี” ซึ่งในเวอร์ชันใหม่นี้จะมีอัตราการส่งข้อมูลสูงถึง 256 GT/s ต่อเลน และสามารถให้แบนด์วิดธ์แบบสองทิศทางได้ถึง 1TB/s บนการเชื่อมต่อแบบ x16 แม้จะยังไม่ใช่สเปกที่พร้อมใช้งานในตลาดทั่วไป (คาดว่าจะปล่อยให้สมาชิกในปี 2028) แต่เป้าหมายของ PCIe 8.0 ชัดเจนมาก: รองรับงานที่ต้องการแบนด์วิดธ์สูง เช่น AI, machine learning, quantum computing, edge computing, และระบบในอุตสาหกรรมยานยนต์หรือการทหาร เทคโนโลยีที่ใช้ยังคงเป็น PAM4 พร้อม Flit Mode encoding และ forward error correction (FEC) เหมือนใน PCIe 6.0 และ 7.0 แต่การผลักดันความเร็วถึง 256 GT/s ต่อเลนบนสายทองแดงนั้นเป็นความท้าทายอย่างมาก ทำให้ PCI-SIG เริ่มพิจารณาการใช้ optical interconnects และ advanced packaging เช่น co-packaged optics หรือ chiplets ✅ PCIe 8.0 จะมีอัตราการส่งข้อมูล 256 GT/s ต่อเลน ➡️ ให้แบนด์วิดธ์สูงสุด 1TB/s บนการเชื่อมต่อแบบ x16 ✅ ใช้เทคโนโลยี PAM4, FEC และ Flit Mode encoding ➡️ เหมือนกับ PCIe 6.0 และ 7.0 ✅ ยังคงรองรับการใช้งานร่วมกับเวอร์ชันก่อนหน้า ➡️ เพื่อความสะดวกในการอัปเกรดระบบ ✅ เป้าหมายหลักคือรองรับงาน AI, HPC, quantum computing และ edge computing ➡️ รวมถึงอุตสาหกรรมยานยนต์, ดาต้าเซ็นเตอร์ และการทหาร ✅ PCIe 8.0 คาดว่าจะปล่อยให้สมาชิก PCI-SIG ในปี 2028 ➡️ การใช้งานในตลาดทั่วไปอาจต้องรอถึงช่วงปี 2030 ✅ PCIe 5.0 มีความเร็วสูงสุด 32 GT/s ต่อเลน ➡️ PCIe 8.0 เร็วกว่า 8 เท่าในแง่ raw bit rate ✅ PAM4 ช่วยเพิ่ม bit rate โดยไม่ต้องเพิ่ม clock speed ➡️ แต่ต้องใช้วงจรที่ซับซ้อนเพื่อแก้ไขข้อผิดพลาด ✅ PCIe 7.0 เริ่มใช้ optical-aware retimers เพื่อรองรับการเชื่อมต่อแบบไฟเบอร์ ➡️ แนวโน้มนี้จะขยายไปยัง PCIe 8.0 ✅ การใช้ chiplets และ co-packaged optics ช่วยลดระยะทางสัญญาณ ➡️ เพิ่มความเสถียรในการส่งข้อมูลความเร็วสูง ‼️ การส่งข้อมูล 256 GT/s บนสายทองแดงยังไม่มีมาตรฐานที่รองรับ ⛔ อาจเกิดปัญหา signal loss และความไม่เสถียร ‼️ การพัฒนา PCIe 8.0 ต้องใช้วัสดุและเทคนิคการผลิตที่แม่นยำสูง ⛔ เพิ่มต้นทุนและความซับซ้อนในการออกแบบ ‼️ ผู้ใช้ทั่วไปอาจไม่ได้สัมผัส PCIe 8.0 จนถึงช่วงปี 2030 ⛔ เพราะเป้าหมายหลักคือระบบระดับองค์กรและดาต้าเซ็นเตอร์ ‼️ การใช้ PAM ระดับสูงกว่านี้ (เช่น PAM8) ยังไม่เหมาะสมในเชิงต้นทุน ⛔ เพราะความแตกต่างของระดับสัญญาณเล็กลงและเสี่ยงต่อการเกิด error https://www.tomshardware.com/tech-industry/pci-sig-announces-pcie-8-0-spec-with-twice-the-bandwidth-1tb-s-of-peak-bandwidth-256-gt-s-per-lane-and-a-possible-new-connector
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Tim Cook กับบทบาทที่ยาวนานที่สุดในฐานะ CEO ของ Apple และความหวังในโลก Spatial Computing

    ในเดือนสิงหาคม 2025 Tim Cook ครบรอบ 14 ปีในการดำรงตำแหน่ง CEO ของ Apple ซึ่งนานกว่า Steve Jobs ผู้เป็นตำนานของบริษัท โดย Cook เข้ามารับตำแหน่งในปี 2011 หลังจาก Jobs ลาออกเพียงสองเดือนก่อนเสียชีวิต

    ตลอดระยะเวลาที่ผ่านมา Cook ได้เปลี่ยนโฉม Apple จากบริษัทที่เน้นอุปกรณ์พกพา สู่การพัฒนาอุปกรณ์สวมใส่ (Wearables) อย่าง Apple Watch และ AirPods รวมถึงการผลิตคอนเทนต์สตรีมมิ่ง และการเปลี่ยนมาใช้ชิป Arm ที่พัฒนาเองใน Mac

    หนึ่งในผลิตภัณฑ์ที่ Cook ภูมิใจคือ Vision Pro—แว่นผสมโลกเสมือนจริงที่เปิดตัวด้วยราคาสูงถึง $3,500 แม้จะถูกวิจารณ์เรื่องความเทอะทะและแอปพลิเคชันที่ยังไม่ตอบโจทย์ แต่ Cook ยืนยันว่า Vision Pro คือ “ความสำเร็จในแง่ของการสร้างระบบนิเวศ” และจะค่อย ๆ ดีขึ้นตามเวลา

    Apple เตรียมอัปเดต visionOS ด้วยฟีเจอร์ใหม่ เช่น วิดเจ็ตแบบปรับแต่งได้ และเบราว์เซอร์ 3 มิติ พร้อมผลักดันให้บริษัทอื่นสร้างประสบการณ์เชิงพื้นที่ เช่น เครื่องจำลองการบินของ CTE

    ในด้าน AI Cook เปิดตัว “Apple Intelligence” โดยเน้นว่าไม่จำเป็นต้องเป็นเจ้าแรก แต่ต้อง “ดีที่สุดสำหรับผู้ใช้” และจะไม่คิดค่าบริการเพิ่มเติม เพราะมองว่าเป็นฟีเจอร์พื้นฐานเหมือนมัลติทัช

    แม้ Cook จะมีอายุ 63 ปี แต่แหล่งข่าวระบุว่าเขาอาจอยู่ในตำแหน่งอีก 3 ปี โดยผู้สืบทอดที่ถูกจับตามอง ได้แก่ John Ternus (หัวหน้าฝ่ายฮาร์ดแวร์), Jeff Williams (COO), Craig Federighi (หัวหน้าฝ่ายซอฟต์แวร์) และ Deirdre O’Brien (หัวหน้าฝ่ายค้าปลีก)

    Tim Cook ดำรงตำแหน่ง CEO ของ Apple นานกว่า Steve Jobs แล้ว
    ครบรอบ 14 ปีในเดือนสิงหาคม 2025
    เข้ารับตำแหน่งหลัง Jobs ลาออกในปี 2011

    Cook ผลักดันผลิตภัณฑ์ใหม่หลายอย่าง เช่น Apple Watch, AirPods และ Vision Pro
    เปลี่ยน Mac มาใช้ชิป Arm ที่พัฒนาเอง
    ขยายธุรกิจสู่คอนเทนต์สตรีมมิ่งและบริการ

    Vision Pro ถูกมองว่าเป็น “ความสำเร็จเชิงระบบนิเวศ” แม้ยอดขายไม่สูง
    ราคาเปิดตัว $3,500 และยังไม่มีแอปที่ตอบโจทย์ผู้ใช้ทั่วไป
    เตรียมอัปเดต visionOS ด้วยวิดเจ็ตและเบราว์เซอร์ 3 มิติ

    Apple Intelligence เน้น “ดีที่สุดสำหรับผู้ใช้” ไม่ใช่ “เจ้าแรก”
    ไม่คิดค่าบริการเพิ่มเติม
    มุ่งเน้นการใช้ AI เพื่อยกระดับชีวิตผู้ใช้

    Cook อาจอยู่ในตำแหน่งอีก 3 ปี โดยมีผู้สืบทอดหลายคนถูกจับตามอง
    John Ternus เป็นตัวเต็งจากผลงานด้านฮาร์ดแวร์
    Jeff Williams, Craig Federighi และ Deirdre O’Brien ก็มีโอกาสเช่นกัน

    https://www.techspot.com/news/108909-tim-cook-has-now-apple-ceo-longer-than.html
    🎙️ เรื่องเล่าจากข่าว: Tim Cook กับบทบาทที่ยาวนานที่สุดในฐานะ CEO ของ Apple และความหวังในโลก Spatial Computing ในเดือนสิงหาคม 2025 Tim Cook ครบรอบ 14 ปีในการดำรงตำแหน่ง CEO ของ Apple ซึ่งนานกว่า Steve Jobs ผู้เป็นตำนานของบริษัท โดย Cook เข้ามารับตำแหน่งในปี 2011 หลังจาก Jobs ลาออกเพียงสองเดือนก่อนเสียชีวิต ตลอดระยะเวลาที่ผ่านมา Cook ได้เปลี่ยนโฉม Apple จากบริษัทที่เน้นอุปกรณ์พกพา สู่การพัฒนาอุปกรณ์สวมใส่ (Wearables) อย่าง Apple Watch และ AirPods รวมถึงการผลิตคอนเทนต์สตรีมมิ่ง และการเปลี่ยนมาใช้ชิป Arm ที่พัฒนาเองใน Mac หนึ่งในผลิตภัณฑ์ที่ Cook ภูมิใจคือ Vision Pro—แว่นผสมโลกเสมือนจริงที่เปิดตัวด้วยราคาสูงถึง $3,500 แม้จะถูกวิจารณ์เรื่องความเทอะทะและแอปพลิเคชันที่ยังไม่ตอบโจทย์ แต่ Cook ยืนยันว่า Vision Pro คือ “ความสำเร็จในแง่ของการสร้างระบบนิเวศ” และจะค่อย ๆ ดีขึ้นตามเวลา Apple เตรียมอัปเดต visionOS ด้วยฟีเจอร์ใหม่ เช่น วิดเจ็ตแบบปรับแต่งได้ และเบราว์เซอร์ 3 มิติ พร้อมผลักดันให้บริษัทอื่นสร้างประสบการณ์เชิงพื้นที่ เช่น เครื่องจำลองการบินของ CTE ในด้าน AI Cook เปิดตัว “Apple Intelligence” โดยเน้นว่าไม่จำเป็นต้องเป็นเจ้าแรก แต่ต้อง “ดีที่สุดสำหรับผู้ใช้” และจะไม่คิดค่าบริการเพิ่มเติม เพราะมองว่าเป็นฟีเจอร์พื้นฐานเหมือนมัลติทัช แม้ Cook จะมีอายุ 63 ปี แต่แหล่งข่าวระบุว่าเขาอาจอยู่ในตำแหน่งอีก 3 ปี โดยผู้สืบทอดที่ถูกจับตามอง ได้แก่ John Ternus (หัวหน้าฝ่ายฮาร์ดแวร์), Jeff Williams (COO), Craig Federighi (หัวหน้าฝ่ายซอฟต์แวร์) และ Deirdre O’Brien (หัวหน้าฝ่ายค้าปลีก) ✅ Tim Cook ดำรงตำแหน่ง CEO ของ Apple นานกว่า Steve Jobs แล้ว ➡️ ครบรอบ 14 ปีในเดือนสิงหาคม 2025 ➡️ เข้ารับตำแหน่งหลัง Jobs ลาออกในปี 2011 ✅ Cook ผลักดันผลิตภัณฑ์ใหม่หลายอย่าง เช่น Apple Watch, AirPods และ Vision Pro ➡️ เปลี่ยน Mac มาใช้ชิป Arm ที่พัฒนาเอง ➡️ ขยายธุรกิจสู่คอนเทนต์สตรีมมิ่งและบริการ ✅ Vision Pro ถูกมองว่าเป็น “ความสำเร็จเชิงระบบนิเวศ” แม้ยอดขายไม่สูง ➡️ ราคาเปิดตัว $3,500 และยังไม่มีแอปที่ตอบโจทย์ผู้ใช้ทั่วไป ➡️ เตรียมอัปเดต visionOS ด้วยวิดเจ็ตและเบราว์เซอร์ 3 มิติ ✅ Apple Intelligence เน้น “ดีที่สุดสำหรับผู้ใช้” ไม่ใช่ “เจ้าแรก” ➡️ ไม่คิดค่าบริการเพิ่มเติม ➡️ มุ่งเน้นการใช้ AI เพื่อยกระดับชีวิตผู้ใช้ ✅ Cook อาจอยู่ในตำแหน่งอีก 3 ปี โดยมีผู้สืบทอดหลายคนถูกจับตามอง ➡️ John Ternus เป็นตัวเต็งจากผลงานด้านฮาร์ดแวร์ ➡️ Jeff Williams, Craig Federighi และ Deirdre O’Brien ก็มีโอกาสเช่นกัน https://www.techspot.com/news/108909-tim-cook-has-now-apple-ceo-longer-than.html
    WWW.TECHSPOT.COM
    Tim Cook has now been Apple CEO for longer than Steve Jobs
    Cook's comments on the Vision Pro, one of the signature products of his tenure, came during Apple's earnings call for the quarter ending in June. He discussed...
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: เมื่อวัสดุควอนตัมเปลี่ยนโลก—จากซิลิคอนสู่ยุคแห่งแสงและความเร็วระดับเทระเฮิรตซ์

    นักวิจัยจากมหาวิทยาลัย Northeastern ได้ค้นพบวิธีควบคุมพฤติกรรมของวัสดุควอนตัมชื่อว่า 1T-TaS₂ ซึ่งเป็นคริสตัลประเภท transition metal dichalcogenide โดยใช้เทคนิค “thermal quenching” หรือการควบคุมอุณหภูมิอย่างแม่นยำผ่านการให้ความร้อนและทำให้เย็นลงอย่างรวดเร็ว

    เดิมทีวัสดุนี้จะแสดงสถานะโลหะพิเศษเฉพาะเมื่ออยู่ในอุณหภูมิที่เย็นจัดเท่านั้น แต่ทีมวิจัยสามารถทำให้สถานะนี้คงอยู่ได้ที่อุณหภูมิใกล้เคียงกับอุณหภูมิห้อง และยังคงเสถียรได้นานหลายเดือน ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ เพราะก่อนหน้านี้สถานะนี้จะอยู่ได้เพียงเสี้ยววินาที

    สิ่งที่น่าตื่นเต้นคือ พวกเขาใช้ “แสง” เพื่อควบคุมการเปลี่ยนแปลงของวัสดุ—ซึ่งเป็นความเร็วสูงสุดที่ฟิสิกส์อนุญาตให้เกิดขึ้นได้ การควบคุมนี้คล้ายกับการทำงานของทรานซิสเตอร์ แต่ไม่ต้องใช้วัสดุหลายชนิดหรืออินเทอร์เฟซซับซ้อนอีกต่อไป

    ผลลัพธ์คืออุปกรณ์อิเล็กทรอนิกส์ที่สามารถทำงานได้เร็วขึ้นถึงระดับ “เทระเฮิรตซ์” แทนที่จะเป็น “กิกะเฮิรตซ์” แบบที่เราใช้กันในปัจจุบัน และยังใช้พื้นที่น้อยลงอย่างมหาศาล ซึ่งเหมาะกับยุคที่ชิปต้องถูกซ้อนกันในแนวตั้งเพื่อเพิ่มประสิทธิภาพ

    วัสดุควอนตัม 1T-TaS₂ สามารถเปลี่ยนสถานะจากฉนวนเป็นตัวนำไฟฟ้าได้ตามอุณหภูมิ
    ใช้เทคนิค thermal quenching เพื่อควบคุมสถานะ
    สถานะโลหะที่เคยเกิดเฉพาะในอุณหภูมิต่ำมาก ตอนนี้เกิดได้ใกล้ระดับห้อง

    สถานะโลหะที่ซ่อนอยู่ (hidden metallic state) สามารถคงอยู่ได้นานหลายเดือน
    ก่อนหน้านี้อยู่ได้เพียงเสี้ยววินาที
    ทำให้มีโอกาสนำไปใช้ในอุปกรณ์จริงได้

    การควบคุมวัสดุด้วยแสงเป็นวิธีที่เร็วที่สุดตามหลักฟิสิกส์
    ไม่ต้องใช้หลายวัสดุหรืออินเทอร์เฟซซับซ้อน
    ลดขนาดและความซับซ้อนของอุปกรณ์อิเล็กทรอนิกส์

    สามารถเพิ่มความเร็วของโปรเซสเซอร์จากระดับกิกะเฮิรตซ์เป็นเทระเฮิรตซ์
    เร็วขึ้นถึง 1000 เท่า
    เหมาะกับการประมวลผลข้อมูลจำนวนมหาศาล

    การเปลี่ยนแปลงโครงสร้างภายในของวัสดุทำให้เกิดการขยายเซลล์ผลึกในบางทิศทาง
    ใช้เทคนิค X-ray mapping และ scanning tunneling spectroscopy
    พบว่ามีการเปลี่ยนแปลงสมมาตรของ mirror symmetry ภายในวัสดุ

    วัสดุนี้สามารถใช้แทนซิลิคอนในอุปกรณ์อิเล็กทรอนิกส์ได้
    เหมาะกับการออกแบบชิปแบบ 3D ที่มีพื้นที่จำกัด
    เป็นทางเลือกใหม่ในยุคที่ซิลิคอนเริ่มถึงขีดจำกัด

    เทคนิค thermal quenching ต้องควบคุมอุณหภูมิอย่างแม่นยำและรวดเร็ว
    หากเร็วเกินไป อาจทำให้สถานะควอนตัมล่มสลาย
    ต้องใช้เครื่องมือเฉพาะทางและสภาพแวดล้อมที่เหมาะสม

    สถานะโลหะที่ซ่อนอยู่ยังไม่สามารถนำไปใช้ในอุปกรณ์ทั่วไปได้ทันที
    ต้องผ่านการทดลองเพิ่มเติมเพื่อความเสถียรในสภาพใช้งานจริง
    ยังต้องพัฒนาเทคโนโลยีการผลิตในระดับอุตสาหกรรม

    การเปลี่ยนจากซิลิคอนไปสู่วัสดุควอนตัมต้องเปลี่ยนแนวคิดการออกแบบชิปทั้งหมด
    วิศวกรต้องเรียนรู้การควบคุมวัสดุใหม่
    ต้องมีการลงทุนด้านการวิจัยและพัฒนาอย่างมาก

    วัสดุ 1T-TaS₂ มีโครงสร้างแบบ van der Waals ที่เหมาะกับการสร้างชิปแบบบางเฉียบ
    สามารถซ้อนกันได้โดยไม่เสียคุณสมบัติ
    เหมาะกับการออกแบบอุปกรณ์พกพาและ IoT

    สถานะ CDW (charge density wave) มีหลายรูปแบบและสามารถควบคุมได้ด้วยแสงและอุณหภูมิ
    มีทั้งแบบ commensurate และ hidden metallic
    การควบคุม CDW เป็นกุญแจสำคัญในการเปลี่ยนสถานะของวัสดุ

    การใช้วัสดุควอนตัมเป็นอีกทางเลือกนอกเหนือจากการพัฒนา quantum computing
    ไม่ต้องใช้ qubit แต่ยังได้ความเร็วระดับควอนตัม
    เหมาะกับการใช้งานทั่วไปที่ต้องการความเร็วสูง

    https://www.neowin.net/news/the-fastest-thing-known-to-man-is-all-set-to-make-your-pcs--phones-1000-times-faster/
    🎙️ เรื่องเล่าจากข่าว: เมื่อวัสดุควอนตัมเปลี่ยนโลก—จากซิลิคอนสู่ยุคแห่งแสงและความเร็วระดับเทระเฮิรตซ์ นักวิจัยจากมหาวิทยาลัย Northeastern ได้ค้นพบวิธีควบคุมพฤติกรรมของวัสดุควอนตัมชื่อว่า 1T-TaS₂ ซึ่งเป็นคริสตัลประเภท transition metal dichalcogenide โดยใช้เทคนิค “thermal quenching” หรือการควบคุมอุณหภูมิอย่างแม่นยำผ่านการให้ความร้อนและทำให้เย็นลงอย่างรวดเร็ว เดิมทีวัสดุนี้จะแสดงสถานะโลหะพิเศษเฉพาะเมื่ออยู่ในอุณหภูมิที่เย็นจัดเท่านั้น แต่ทีมวิจัยสามารถทำให้สถานะนี้คงอยู่ได้ที่อุณหภูมิใกล้เคียงกับอุณหภูมิห้อง และยังคงเสถียรได้นานหลายเดือน ซึ่งถือเป็นก้าวกระโดดครั้งใหญ่ เพราะก่อนหน้านี้สถานะนี้จะอยู่ได้เพียงเสี้ยววินาที สิ่งที่น่าตื่นเต้นคือ พวกเขาใช้ “แสง” เพื่อควบคุมการเปลี่ยนแปลงของวัสดุ—ซึ่งเป็นความเร็วสูงสุดที่ฟิสิกส์อนุญาตให้เกิดขึ้นได้ การควบคุมนี้คล้ายกับการทำงานของทรานซิสเตอร์ แต่ไม่ต้องใช้วัสดุหลายชนิดหรืออินเทอร์เฟซซับซ้อนอีกต่อไป ผลลัพธ์คืออุปกรณ์อิเล็กทรอนิกส์ที่สามารถทำงานได้เร็วขึ้นถึงระดับ “เทระเฮิรตซ์” แทนที่จะเป็น “กิกะเฮิรตซ์” แบบที่เราใช้กันในปัจจุบัน และยังใช้พื้นที่น้อยลงอย่างมหาศาล ซึ่งเหมาะกับยุคที่ชิปต้องถูกซ้อนกันในแนวตั้งเพื่อเพิ่มประสิทธิภาพ ✅ วัสดุควอนตัม 1T-TaS₂ สามารถเปลี่ยนสถานะจากฉนวนเป็นตัวนำไฟฟ้าได้ตามอุณหภูมิ ➡️ ใช้เทคนิค thermal quenching เพื่อควบคุมสถานะ ➡️ สถานะโลหะที่เคยเกิดเฉพาะในอุณหภูมิต่ำมาก ตอนนี้เกิดได้ใกล้ระดับห้อง ✅ สถานะโลหะที่ซ่อนอยู่ (hidden metallic state) สามารถคงอยู่ได้นานหลายเดือน ➡️ ก่อนหน้านี้อยู่ได้เพียงเสี้ยววินาที ➡️ ทำให้มีโอกาสนำไปใช้ในอุปกรณ์จริงได้ ✅ การควบคุมวัสดุด้วยแสงเป็นวิธีที่เร็วที่สุดตามหลักฟิสิกส์ ➡️ ไม่ต้องใช้หลายวัสดุหรืออินเทอร์เฟซซับซ้อน ➡️ ลดขนาดและความซับซ้อนของอุปกรณ์อิเล็กทรอนิกส์ ✅ สามารถเพิ่มความเร็วของโปรเซสเซอร์จากระดับกิกะเฮิรตซ์เป็นเทระเฮิรตซ์ ➡️ เร็วขึ้นถึง 1000 เท่า ➡️ เหมาะกับการประมวลผลข้อมูลจำนวนมหาศาล ✅ การเปลี่ยนแปลงโครงสร้างภายในของวัสดุทำให้เกิดการขยายเซลล์ผลึกในบางทิศทาง ➡️ ใช้เทคนิค X-ray mapping และ scanning tunneling spectroscopy ➡️ พบว่ามีการเปลี่ยนแปลงสมมาตรของ mirror symmetry ภายในวัสดุ ✅ วัสดุนี้สามารถใช้แทนซิลิคอนในอุปกรณ์อิเล็กทรอนิกส์ได้ ➡️ เหมาะกับการออกแบบชิปแบบ 3D ที่มีพื้นที่จำกัด ➡️ เป็นทางเลือกใหม่ในยุคที่ซิลิคอนเริ่มถึงขีดจำกัด ‼️ เทคนิค thermal quenching ต้องควบคุมอุณหภูมิอย่างแม่นยำและรวดเร็ว ⛔ หากเร็วเกินไป อาจทำให้สถานะควอนตัมล่มสลาย ⛔ ต้องใช้เครื่องมือเฉพาะทางและสภาพแวดล้อมที่เหมาะสม ‼️ สถานะโลหะที่ซ่อนอยู่ยังไม่สามารถนำไปใช้ในอุปกรณ์ทั่วไปได้ทันที ⛔ ต้องผ่านการทดลองเพิ่มเติมเพื่อความเสถียรในสภาพใช้งานจริง ⛔ ยังต้องพัฒนาเทคโนโลยีการผลิตในระดับอุตสาหกรรม ‼️ การเปลี่ยนจากซิลิคอนไปสู่วัสดุควอนตัมต้องเปลี่ยนแนวคิดการออกแบบชิปทั้งหมด ⛔ วิศวกรต้องเรียนรู้การควบคุมวัสดุใหม่ ⛔ ต้องมีการลงทุนด้านการวิจัยและพัฒนาอย่างมาก ✅ วัสดุ 1T-TaS₂ มีโครงสร้างแบบ van der Waals ที่เหมาะกับการสร้างชิปแบบบางเฉียบ ➡️ สามารถซ้อนกันได้โดยไม่เสียคุณสมบัติ ➡️ เหมาะกับการออกแบบอุปกรณ์พกพาและ IoT ✅ สถานะ CDW (charge density wave) มีหลายรูปแบบและสามารถควบคุมได้ด้วยแสงและอุณหภูมิ ➡️ มีทั้งแบบ commensurate และ hidden metallic ➡️ การควบคุม CDW เป็นกุญแจสำคัญในการเปลี่ยนสถานะของวัสดุ ✅ การใช้วัสดุควอนตัมเป็นอีกทางเลือกนอกเหนือจากการพัฒนา quantum computing ➡️ ไม่ต้องใช้ qubit แต่ยังได้ความเร็วระดับควอนตัม ➡️ เหมาะกับการใช้งานทั่วไปที่ต้องการความเร็วสูง https://www.neowin.net/news/the-fastest-thing-known-to-man-is-all-set-to-make-your-pcs--phones-1000-times-faster/
    WWW.NEOWIN.NET
    The fastest thing known to man is all set to make your PCs & phones "1000 times faster"
    Researchers unveil a quantum switch activated by the fastest thing known to man, potentially revolutionizing computing as it promises to be "1000 times faster."
    0 ความคิดเห็น 0 การแบ่งปัน 269 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: “EU ไม่เก็บค่าธรรมเนียมจาก Big Tech” แล้วจะเอาเงินจากไหนมาลงทุนโครงข่าย?

    หลายปีที่ผ่านมา ผู้ให้บริการโทรคมนาคมรายใหญ่ในยุโรป เช่น Deutsche Telekom, Orange, Telefonica และ Telecom Italia เรียกร้องให้ EU บังคับให้บริษัทเทคโนโลยีรายใหญ่ (Google, Meta, Netflix, Microsoft, Amazon ฯลฯ) จ่าย “ค่าธรรมเนียมเครือข่าย” เพราะพวกเขาใช้แบนด์วิดธ์มหาศาลจากโครงข่ายที่ผู้ให้บริการต้องลงทุนเอง

    แนวคิดนี้ถูกเรียกว่า “fair share funding” แต่ Big Tech โต้กลับว่าเป็น “ภาษีอินเทอร์เน็ต” และชี้ว่าพวกเขาก็ลงทุนในโครงสร้างพื้นฐานของตัวเองเช่นกัน

    ล่าสุด EU ออกมายืนยันว่า “ไม่เห็นด้วย” กับแนวคิดนี้ โดยอ้างอิงจาก White Paper ที่ตีพิมพ์เมื่อกุมภาพันธ์ 2024 ซึ่งสรุปว่า “การเก็บค่าธรรมเนียมเครือข่ายไม่ใช่ทางออกที่ยั่งยืน”

    แทนที่จะเก็บเงินจาก Big Tech EU เตรียมออกกฎหมายใหม่ชื่อ Digital Networks Act ในเดือนพฤศจิกายน 2025 เพื่อปรับปรุงโครงสร้างพื้นฐานดิจิทัลให้ทันสมัย รองรับ 5G, 6G, cloud และ edge computing โดยเน้นการลดความซับซ้อนของกฎระเบียบ และส่งเสริมการลงทุนข้ามพรมแดน

    EU ปฏิเสธแนวคิดเก็บค่าธรรมเนียมเครือข่ายจาก Big Tech เพื่อสนับสนุนการลงทุนใน 5G และ broadband
    อ้างอิงจาก White Paper ปี 2024 ที่สรุปว่าแนวคิดนี้ไม่ยั่งยืน
    Big Tech มองว่าเป็น “ภาษีอินเทอร์เน็ต” และไม่เป็นธรรม

    ผู้ให้บริการโทรคมนาคมในยุโรปเรียกร้องให้ Big Tech จ่าย “fair share” เพราะใช้แบนด์วิดธ์จำนวนมาก
    เช่น Deutsche Telekom, Orange, Telefonica, Telecom Italia
    ชี้ว่า Big Tech สร้างภาระให้กับโครงข่ายโดยไม่ช่วยลงทุน

    EU เตรียมออกกฎหมายใหม่ชื่อ Digital Networks Act ในไตรมาส 4 ปี 2025
    มุ่งเน้นการปรับปรุงโครงสร้างพื้นฐานดิจิทัลให้ทันสมัย
    ลดความซับซ้อนของกฎระเบียบ และส่งเสริมการลงทุนข้ามพรมแดน

    Digital Networks Act จะเป็น “regulation” ที่มีผลบังคับใช้โดยตรงในทุกประเทศสมาชิก EU
    คล้ายกับ GDPR, Digital Services Act และ AI Act
    ไม่ใช่ “directive” ที่ต้องรอการนำไปใช้ในแต่ละประเทศ

    เป้าหมายของ Digital Networks Act คือการสร้างตลาดเดียวด้านการเชื่อมต่อ และเพิ่มขีดความสามารถในการแข่งขันของอุตสาหกรรมยุโรป
    ปรับปรุงการจัดสรรคลื่นความถี่, ลดความซับซ้อนของการอนุญาต
    ส่งเสริมการเปลี่ยนผ่านสู่เครือข่ายแบบ cloud และ edge computing

    https://www.thestar.com.my/tech/tech-news/2025/07/31/network-fee-on-big-tech-not-a-viable-solution-to-boost-eu-digital-rollout-eu-says
    🧠 เรื่องเล่าจากข่าว: “EU ไม่เก็บค่าธรรมเนียมจาก Big Tech” แล้วจะเอาเงินจากไหนมาลงทุนโครงข่าย? หลายปีที่ผ่านมา ผู้ให้บริการโทรคมนาคมรายใหญ่ในยุโรป เช่น Deutsche Telekom, Orange, Telefonica และ Telecom Italia เรียกร้องให้ EU บังคับให้บริษัทเทคโนโลยีรายใหญ่ (Google, Meta, Netflix, Microsoft, Amazon ฯลฯ) จ่าย “ค่าธรรมเนียมเครือข่าย” เพราะพวกเขาใช้แบนด์วิดธ์มหาศาลจากโครงข่ายที่ผู้ให้บริการต้องลงทุนเอง แนวคิดนี้ถูกเรียกว่า “fair share funding” แต่ Big Tech โต้กลับว่าเป็น “ภาษีอินเทอร์เน็ต” และชี้ว่าพวกเขาก็ลงทุนในโครงสร้างพื้นฐานของตัวเองเช่นกัน ล่าสุด EU ออกมายืนยันว่า “ไม่เห็นด้วย” กับแนวคิดนี้ โดยอ้างอิงจาก White Paper ที่ตีพิมพ์เมื่อกุมภาพันธ์ 2024 ซึ่งสรุปว่า “การเก็บค่าธรรมเนียมเครือข่ายไม่ใช่ทางออกที่ยั่งยืน” แทนที่จะเก็บเงินจาก Big Tech EU เตรียมออกกฎหมายใหม่ชื่อ Digital Networks Act ในเดือนพฤศจิกายน 2025 เพื่อปรับปรุงโครงสร้างพื้นฐานดิจิทัลให้ทันสมัย รองรับ 5G, 6G, cloud และ edge computing โดยเน้นการลดความซับซ้อนของกฎระเบียบ และส่งเสริมการลงทุนข้ามพรมแดน ✅ EU ปฏิเสธแนวคิดเก็บค่าธรรมเนียมเครือข่ายจาก Big Tech เพื่อสนับสนุนการลงทุนใน 5G และ broadband ➡️ อ้างอิงจาก White Paper ปี 2024 ที่สรุปว่าแนวคิดนี้ไม่ยั่งยืน ➡️ Big Tech มองว่าเป็น “ภาษีอินเทอร์เน็ต” และไม่เป็นธรรม ✅ ผู้ให้บริการโทรคมนาคมในยุโรปเรียกร้องให้ Big Tech จ่าย “fair share” เพราะใช้แบนด์วิดธ์จำนวนมาก ➡️ เช่น Deutsche Telekom, Orange, Telefonica, Telecom Italia ➡️ ชี้ว่า Big Tech สร้างภาระให้กับโครงข่ายโดยไม่ช่วยลงทุน ✅ EU เตรียมออกกฎหมายใหม่ชื่อ Digital Networks Act ในไตรมาส 4 ปี 2025 ➡️ มุ่งเน้นการปรับปรุงโครงสร้างพื้นฐานดิจิทัลให้ทันสมัย ➡️ ลดความซับซ้อนของกฎระเบียบ และส่งเสริมการลงทุนข้ามพรมแดน ✅ Digital Networks Act จะเป็น “regulation” ที่มีผลบังคับใช้โดยตรงในทุกประเทศสมาชิก EU ➡️ คล้ายกับ GDPR, Digital Services Act และ AI Act ➡️ ไม่ใช่ “directive” ที่ต้องรอการนำไปใช้ในแต่ละประเทศ ✅ เป้าหมายของ Digital Networks Act คือการสร้างตลาดเดียวด้านการเชื่อมต่อ และเพิ่มขีดความสามารถในการแข่งขันของอุตสาหกรรมยุโรป ➡️ ปรับปรุงการจัดสรรคลื่นความถี่, ลดความซับซ้อนของการอนุญาต ➡️ ส่งเสริมการเปลี่ยนผ่านสู่เครือข่ายแบบ cloud และ edge computing https://www.thestar.com.my/tech/tech-news/2025/07/31/network-fee-on-big-tech-not-a-viable-solution-to-boost-eu-digital-rollout-eu-says
    WWW.THESTAR.COM.MY
    Network fee on Big Tech not a viable solution to boost EU digital rollout, EU says
    BRUSSELS (Reuters) -The European Commission does not think that imposing a network fee on Big Tech companies is a viable solution to the debate over who should fund the rollout of 5G and broadband, a spokesman for the EU executive said on Thursday.
    0 ความคิดเห็น 0 การแบ่งปัน 252 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องทดลอง: เมื่อควอนตัมมาช่วยออกแบบชิป

    ทีมนักวิจัยจากออสเตรเลียได้พัฒนาเทคนิคใหม่ที่ผสานระหว่างควอนตัมคอมพิวติ้งกับแมชชีนเลิร์นนิง เพื่อออกแบบชิปเซมิคอนดักเตอร์ได้แม่นยำและมีประสิทธิภาพมากขึ้น โดยใช้โมเดลที่เรียกว่า Quantum Kernel-Aligned Regressor (QKAR) ซึ่งสามารถแปลงข้อมูลคลาสสิกให้กลายเป็นสถานะควอนตัม แล้ววิเคราะห์หาความสัมพันธ์ซับซ้อนในข้อมูลขนาดเล็กได้อย่างมีประสิทธิภาพ

    การทดลองใช้กับตัวอย่างจริง 159 ชิ้นของ GaN HEMT (Gallium Nitride High Electron Mobility Transistor) พบว่า QKAR สามารถคาดการณ์ค่าความต้านทาน Ohmic contact ได้แม่นยำกว่าระบบแมชชีนเลิร์นนิงแบบเดิมถึง 8.8–20.1% ซึ่งเป็นขั้นตอนสำคัญในการออกแบบชิปให้กระแสไฟฟ้าไหลผ่านได้ดี

    นักวิจัยออสเตรเลียพัฒนาเทคนิค QKAR เพื่อออกแบบชิปเซมิคอนดักเตอร์
    ใช้ควอนตัมคอมพิวติ้งแปลงข้อมูลคลาสสิกเป็นสถานะควอนตัม
    วิเคราะห์ข้อมูลผ่าน quantum kernel ก่อนส่งต่อให้แมชชีนเลิร์นนิงประมวลผล

    ใช้ข้อมูลจาก 159 ตัวอย่าง GaN HEMT เพื่อทดสอบโมเดล
    GaN HEMT เป็นวัสดุที่ใช้ในอุปกรณ์อิเล็กทรอนิกส์ประสิทธิภาพสูง
    โฟกัสที่การคาดการณ์ค่าความต้านทาน Ohmic contact ซึ่งเป็นจุดสำคัญในการออกแบบชิป

    QKAR มีประสิทธิภาพเหนือกว่าโมเดลแมชชีนเลิร์นนิงแบบเดิมถึง 20.1%
    เหมาะกับข้อมูลขนาดเล็กและมีความซับซ้อนสูง
    ช่วยลดต้นทุนการผลิตและเพิ่มประสิทธิภาพของอุปกรณ์

    เทคนิคนี้สามารถใช้งานได้กับฮาร์ดแวร์ควอนตัมระดับ NISQ ที่มีอยู่ในปัจจุบัน
    ไม่ต้องรอควอนตัมคอมพิวเตอร์ระดับใหญ่
    เป็นก้าวแรกสู่การนำควอนตัมมาใช้จริงในอุตสาหกรรมเซมิคอนดักเตอร์

    การผสานควอนตัมกับแมชชีนเลิร์นนิงอาจเปลี่ยนวิธีออกแบบชิปในอนาคต
    เปิดทางสู่การออกแบบที่แม่นยำและรวดเร็วขึ้น
    ลดการพึ่งพาการทดลองในห้องแล็บแบบเดิม

    ฮาร์ดแวร์ควอนตัมในปัจจุบันยังมีข้อจำกัดด้านความเสถียรและการแก้ไขข้อผิดพลาด
    ต้องการ qubit ที่มีคุณภาพสูงและระบบควบคุมที่แม่นยำ
    การขยายการใช้งานจริงยังต้องพัฒนาอีกมาก

    การใช้ควอนตัมกับข้อมูลขนาดใหญ่ยังไม่สามารถทำได้เต็มรูปแบบ
    ต้องใช้เทคนิคลดมิติข้อมูลก่อนเข้าสู่ระบบควอนตัม
    อาจสูญเสียรายละเอียดบางส่วนที่สำคัญ

    การเปรียบเทียบกับโมเดลคลาสสิกยังขึ้นอยู่กับการปรับแต่งพารามิเตอร์ของแต่ละโมเดล
    โมเดลคลาสสิกอาจให้ผลลัพธ์ใกล้เคียงหากปรับแต่งอย่างเหมาะสม
    ต้องมีการทดสอบในบริบทที่หลากหลายก่อนสรุปว่า QML เหนือกว่า

    การนำเทคนิคนี้ไปใช้ในอุตสาหกรรมจริงยังต้องผ่านการพิสูจน์เพิ่มเติม
    ต้องทดสอบกับกระบวนการผลิตจริงและอุปกรณ์หลากหลายประเภท
    ต้องมีการประเมินความคุ้มค่าทางเศรษฐศาสตร์ก่อนนำไปใช้เชิงพาณิชย์

    https://www.tomshardware.com/tech-industry/quantum-computing/quantum-machine-learning-unlocks-new-efficient-chip-design-pipeline-encoding-data-in-quantum-states-then-analyzing-it-with-machine-learning-up-to-20-percent-more-effective-than-traditional-models
    🎙️ เรื่องเล่าจากห้องทดลอง: เมื่อควอนตัมมาช่วยออกแบบชิป ทีมนักวิจัยจากออสเตรเลียได้พัฒนาเทคนิคใหม่ที่ผสานระหว่างควอนตัมคอมพิวติ้งกับแมชชีนเลิร์นนิง เพื่อออกแบบชิปเซมิคอนดักเตอร์ได้แม่นยำและมีประสิทธิภาพมากขึ้น โดยใช้โมเดลที่เรียกว่า Quantum Kernel-Aligned Regressor (QKAR) ซึ่งสามารถแปลงข้อมูลคลาสสิกให้กลายเป็นสถานะควอนตัม แล้ววิเคราะห์หาความสัมพันธ์ซับซ้อนในข้อมูลขนาดเล็กได้อย่างมีประสิทธิภาพ การทดลองใช้กับตัวอย่างจริง 159 ชิ้นของ GaN HEMT (Gallium Nitride High Electron Mobility Transistor) พบว่า QKAR สามารถคาดการณ์ค่าความต้านทาน Ohmic contact ได้แม่นยำกว่าระบบแมชชีนเลิร์นนิงแบบเดิมถึง 8.8–20.1% ซึ่งเป็นขั้นตอนสำคัญในการออกแบบชิปให้กระแสไฟฟ้าไหลผ่านได้ดี ✅ นักวิจัยออสเตรเลียพัฒนาเทคนิค QKAR เพื่อออกแบบชิปเซมิคอนดักเตอร์ ➡️ ใช้ควอนตัมคอมพิวติ้งแปลงข้อมูลคลาสสิกเป็นสถานะควอนตัม ➡️ วิเคราะห์ข้อมูลผ่าน quantum kernel ก่อนส่งต่อให้แมชชีนเลิร์นนิงประมวลผล ✅ ใช้ข้อมูลจาก 159 ตัวอย่าง GaN HEMT เพื่อทดสอบโมเดล ➡️ GaN HEMT เป็นวัสดุที่ใช้ในอุปกรณ์อิเล็กทรอนิกส์ประสิทธิภาพสูง ➡️ โฟกัสที่การคาดการณ์ค่าความต้านทาน Ohmic contact ซึ่งเป็นจุดสำคัญในการออกแบบชิป ✅ QKAR มีประสิทธิภาพเหนือกว่าโมเดลแมชชีนเลิร์นนิงแบบเดิมถึง 20.1% ➡️ เหมาะกับข้อมูลขนาดเล็กและมีความซับซ้อนสูง ➡️ ช่วยลดต้นทุนการผลิตและเพิ่มประสิทธิภาพของอุปกรณ์ ✅ เทคนิคนี้สามารถใช้งานได้กับฮาร์ดแวร์ควอนตัมระดับ NISQ ที่มีอยู่ในปัจจุบัน ➡️ ไม่ต้องรอควอนตัมคอมพิวเตอร์ระดับใหญ่ ➡️ เป็นก้าวแรกสู่การนำควอนตัมมาใช้จริงในอุตสาหกรรมเซมิคอนดักเตอร์ ✅ การผสานควอนตัมกับแมชชีนเลิร์นนิงอาจเปลี่ยนวิธีออกแบบชิปในอนาคต ➡️ เปิดทางสู่การออกแบบที่แม่นยำและรวดเร็วขึ้น ➡️ ลดการพึ่งพาการทดลองในห้องแล็บแบบเดิม ‼️ ฮาร์ดแวร์ควอนตัมในปัจจุบันยังมีข้อจำกัดด้านความเสถียรและการแก้ไขข้อผิดพลาด ⛔ ต้องการ qubit ที่มีคุณภาพสูงและระบบควบคุมที่แม่นยำ ⛔ การขยายการใช้งานจริงยังต้องพัฒนาอีกมาก ‼️ การใช้ควอนตัมกับข้อมูลขนาดใหญ่ยังไม่สามารถทำได้เต็มรูปแบบ ⛔ ต้องใช้เทคนิคลดมิติข้อมูลก่อนเข้าสู่ระบบควอนตัม ⛔ อาจสูญเสียรายละเอียดบางส่วนที่สำคัญ ‼️ การเปรียบเทียบกับโมเดลคลาสสิกยังขึ้นอยู่กับการปรับแต่งพารามิเตอร์ของแต่ละโมเดล ⛔ โมเดลคลาสสิกอาจให้ผลลัพธ์ใกล้เคียงหากปรับแต่งอย่างเหมาะสม ⛔ ต้องมีการทดสอบในบริบทที่หลากหลายก่อนสรุปว่า QML เหนือกว่า ‼️ การนำเทคนิคนี้ไปใช้ในอุตสาหกรรมจริงยังต้องผ่านการพิสูจน์เพิ่มเติม ⛔ ต้องทดสอบกับกระบวนการผลิตจริงและอุปกรณ์หลากหลายประเภท ⛔ ต้องมีการประเมินความคุ้มค่าทางเศรษฐศาสตร์ก่อนนำไปใช้เชิงพาณิชย์ https://www.tomshardware.com/tech-industry/quantum-computing/quantum-machine-learning-unlocks-new-efficient-chip-design-pipeline-encoding-data-in-quantum-states-then-analyzing-it-with-machine-learning-up-to-20-percent-more-effective-than-traditional-models
    WWW.TOMSHARDWARE.COM
    Quantum machine learning unlocks new efficient chip design pipeline — encoding data in quantum states then analyzing it with machine learning up to 20% more effective than traditional models
    By combining classic machine learning and new quantum techniques, researchers may be able to develop new semiconductor designs faster than ever before.
    0 ความคิดเห็น 0 การแบ่งปัน 205 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเคอร์เนล: เมื่อ Linux กลายเป็นแพลตฟอร์มที่ปลอดภัยที่สุดสำหรับงานลับสุดยอด

    ในเดือนกรกฎาคม 2025 Linux Kernel 6.16 ได้เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์ ซึ่งเป็นการรวมเทคโนโลยี Secure Encrypted Virtualization (SEV) และ Virtual Trusted Platform Module (vTPM) เข้าด้วยกัน เพื่อสร้างสภาพแวดล้อมการทำงานที่ปลอดภัยและแยกออกจากระบบโฮสต์โดยสิ้นเชิง

    vTPM คือ TPM แบบเสมือนที่ทำงานภายใน VM โดยถูกเข้ารหัสและแยกออกจาก hypervisor ด้วยเทคโนโลยี SEV-SNP ของ AMD ทำให้สามารถใช้ฟีเจอร์อย่าง Secure Boot, Measured Boot และ Remote Attestation ได้อย่างปลอดภัยในระบบคลาวด์หรือองค์กรที่ต้องการความมั่นคงสูง

    ฟีเจอร์นี้เหมาะกับองค์กรในภาคการเงิน, สาธารณสุข, และภาครัฐ ที่ต้องการความมั่นใจว่าข้อมูลสำคัญจะไม่ถูกเข้าถึงโดยผู้ให้บริการคลาวด์หรือระบบโฮสต์ที่ไม่ไว้วางใจ

    Linux Kernel 6.16 เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์
    รองรับการสร้าง vTPM ภายใน VM ที่ถูกเข้ารหัสด้วย SEV-SNP
    ใช้โปรโตคอลจาก AMD SVSM spec เพื่อให้ guest OS ติดต่อกับ vTPM ได้

    vTPM ทำงานในหน่วยความจำที่ถูกแยกและเข้ารหัสโดยฮาร์ดแวร์
    ป้องกันการเข้าถึงจาก hypervisor และ guest OS
    รองรับ TPM 2.0 เต็มรูปแบบ เช่น PCRs และการเข้ารหัสคีย์

    รองรับการตรวจสอบความน่าเชื่อถือของระบบ (attestation) และ Secure Boot
    เหมาะกับการใช้งานใน Zero Trust Architecture
    ช่วยให้มั่นใจว่า VM ทำงานในสภาพแวดล้อมที่ปลอดภัยจริง

    เหมาะกับองค์กรที่ต้องการความปลอดภัยระดับสูง เช่น การเงิน, สาธารณสุข, และภาครัฐ
    รองรับการปฏิบัติตามข้อกำหนดด้านความปลอดภัยและการเข้ารหัส
    ลดการพึ่งพาเฟิร์มแวร์หรือ TPM แบบ proprietary

    สามารถใช้งานร่วมกับ hypervisor อย่าง KVM และเครื่องมือจัดการ VM บน Linux
    รองรับการตั้งค่า kernel เช่น CONFIG_TCG_SVSM=y
    มีเครื่องมือสำหรับตรวจสอบสถานะการเข้ารหัสและการทำงานของ vTPM

    การใช้งาน vTPM ต้องมีการตั้งค่าฮาร์ดแวร์และ BIOS ที่รองรับ SEV-SNP
    หาก CPU หรือ BIOS ไม่รองรับ จะไม่สามารถเปิดใช้งานฟีเจอร์นี้ได้
    ต้องตรวจสอบว่าเปิดใช้งาน Secure Memory Encryption แล้ว

    การเข้ารหัสและการตรวจสอบแบบฮาร์ดแวร์อาจเพิ่มภาระการประมวลผล
    มี overhead ด้านประสิทธิภาพ โดยเฉพาะใน workload ที่ใช้ vTPM หนัก
    ต้องวางแผนการจัดสรรทรัพยากรอย่างรอบคอบ

    การตั้งค่า kernel และการคอมไพล์ต้องแม่นยำเพื่อให้ vTPM ทำงานได้สมบูรณ์
    ต้องเปิดใช้งานโมดูลที่เกี่ยวข้อง เช่น CONFIG_KVM_AMD_SEV
    หากตั้งค่าผิด อาจทำให้ VM ไม่สามารถบูตหรือใช้งาน vTPM ได้

    การตรวจสอบความน่าเชื่อถือ (attestation) ต้องใช้เครื่องมือเฉพาะและการทดสอบอย่างละเอียด
    ต้องใช้ AMD SEV tools และ kernel boot parameters เช่น amd_sev.debug=1
    หากไม่ตรวจสอบอย่างถูกต้อง อาจเกิดช่องโหว่ด้านความปลอดภัย

    https://linuxconfig.org/comprehensive-amd-sev-vtpm-support-in-linux-kernel-6-16-enhances-confidential-computing
    🔐 เรื่องเล่าจากเคอร์เนล: เมื่อ Linux กลายเป็นแพลตฟอร์มที่ปลอดภัยที่สุดสำหรับงานลับสุดยอด ในเดือนกรกฎาคม 2025 Linux Kernel 6.16 ได้เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์ ซึ่งเป็นการรวมเทคโนโลยี Secure Encrypted Virtualization (SEV) และ Virtual Trusted Platform Module (vTPM) เข้าด้วยกัน เพื่อสร้างสภาพแวดล้อมการทำงานที่ปลอดภัยและแยกออกจากระบบโฮสต์โดยสิ้นเชิง vTPM คือ TPM แบบเสมือนที่ทำงานภายใน VM โดยถูกเข้ารหัสและแยกออกจาก hypervisor ด้วยเทคโนโลยี SEV-SNP ของ AMD ทำให้สามารถใช้ฟีเจอร์อย่าง Secure Boot, Measured Boot และ Remote Attestation ได้อย่างปลอดภัยในระบบคลาวด์หรือองค์กรที่ต้องการความมั่นคงสูง ฟีเจอร์นี้เหมาะกับองค์กรในภาคการเงิน, สาธารณสุข, และภาครัฐ ที่ต้องการความมั่นใจว่าข้อมูลสำคัญจะไม่ถูกเข้าถึงโดยผู้ให้บริการคลาวด์หรือระบบโฮสต์ที่ไม่ไว้วางใจ ✅ Linux Kernel 6.16 เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์ ➡️ รองรับการสร้าง vTPM ภายใน VM ที่ถูกเข้ารหัสด้วย SEV-SNP ➡️ ใช้โปรโตคอลจาก AMD SVSM spec เพื่อให้ guest OS ติดต่อกับ vTPM ได้ ✅ vTPM ทำงานในหน่วยความจำที่ถูกแยกและเข้ารหัสโดยฮาร์ดแวร์ ➡️ ป้องกันการเข้าถึงจาก hypervisor และ guest OS ➡️ รองรับ TPM 2.0 เต็มรูปแบบ เช่น PCRs และการเข้ารหัสคีย์ ✅ รองรับการตรวจสอบความน่าเชื่อถือของระบบ (attestation) และ Secure Boot ➡️ เหมาะกับการใช้งานใน Zero Trust Architecture ➡️ ช่วยให้มั่นใจว่า VM ทำงานในสภาพแวดล้อมที่ปลอดภัยจริง ✅ เหมาะกับองค์กรที่ต้องการความปลอดภัยระดับสูง เช่น การเงิน, สาธารณสุข, และภาครัฐ ➡️ รองรับการปฏิบัติตามข้อกำหนดด้านความปลอดภัยและการเข้ารหัส ➡️ ลดการพึ่งพาเฟิร์มแวร์หรือ TPM แบบ proprietary ✅ สามารถใช้งานร่วมกับ hypervisor อย่าง KVM และเครื่องมือจัดการ VM บน Linux ➡️ รองรับการตั้งค่า kernel เช่น CONFIG_TCG_SVSM=y ➡️ มีเครื่องมือสำหรับตรวจสอบสถานะการเข้ารหัสและการทำงานของ vTPM ‼️ การใช้งาน vTPM ต้องมีการตั้งค่าฮาร์ดแวร์และ BIOS ที่รองรับ SEV-SNP ⛔ หาก CPU หรือ BIOS ไม่รองรับ จะไม่สามารถเปิดใช้งานฟีเจอร์นี้ได้ ⛔ ต้องตรวจสอบว่าเปิดใช้งาน Secure Memory Encryption แล้ว ‼️ การเข้ารหัสและการตรวจสอบแบบฮาร์ดแวร์อาจเพิ่มภาระการประมวลผล ⛔ มี overhead ด้านประสิทธิภาพ โดยเฉพาะใน workload ที่ใช้ vTPM หนัก ⛔ ต้องวางแผนการจัดสรรทรัพยากรอย่างรอบคอบ ‼️ การตั้งค่า kernel และการคอมไพล์ต้องแม่นยำเพื่อให้ vTPM ทำงานได้สมบูรณ์ ⛔ ต้องเปิดใช้งานโมดูลที่เกี่ยวข้อง เช่น CONFIG_KVM_AMD_SEV ⛔ หากตั้งค่าผิด อาจทำให้ VM ไม่สามารถบูตหรือใช้งาน vTPM ได้ ‼️ การตรวจสอบความน่าเชื่อถือ (attestation) ต้องใช้เครื่องมือเฉพาะและการทดสอบอย่างละเอียด ⛔ ต้องใช้ AMD SEV tools และ kernel boot parameters เช่น amd_sev.debug=1 ⛔ หากไม่ตรวจสอบอย่างถูกต้อง อาจเกิดช่องโหว่ด้านความปลอดภัย https://linuxconfig.org/comprehensive-amd-sev-vtpm-support-in-linux-kernel-6-16-enhances-confidential-computing
    LINUXCONFIG.ORG
    Comprehensive AMD SEV vTPM Support in Linux Kernel 6.16 Enhances Confidential Computing
    Linux kernel 6.16 introduces comprehensive AMD SEV vTPM support, enhancing virtual machine security and confidential computing capabilities with hardware-backed attestation and secure boot verification.
    0 ความคิดเห็น 0 การแบ่งปัน 241 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิป: จาก 4 บิตสู่ 10 ล้านล้านพารามิเตอร์

    ย้อนกลับไปปี 1971 Intel เปิดตัวชิป 4004 ซึ่งเป็นไมโครโปรเซสเซอร์ตัวแรกของโลก ด้วยความเร็วเพียง 740kHz และประมวลผลได้ 92,600 คำสั่งต่อวินาที (IPS) ใช้หน่วยความจำแค่ 4KB ROM และ 640 bytes RAM—เล็กจนเทียบไม่ได้กับมือถือยุคนี้

    แต่ในปี 2025 NVIDIA เปิดตัว Blackwell ซึ่งเป็นชิป AI ที่ทรงพลังที่สุดในโลก ด้วยพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU รองรับโมเดลขนาด 10 ล้านล้านพารามิเตอร์ และใช้เทคโนโลยี NVLink รุ่นที่ 5 ที่เชื่อมต่อ GPU ได้ถึง 576 ตัวในคลัสเตอร์เดียว

    เมื่อเปรียบเทียบกันแล้ว Blackwell มีประสิทธิภาพมากกว่า Intel 4004 ถึง 217 ล้านเท่า! นี่คือผลลัพธ์ของการพัฒนาอย่างต่อเนื่องตามกฎของ Moore’s Law และความต้องการด้าน AI ที่เติบโตแบบทวีคูณ

    Intel 4004 คือจุดเริ่มต้นของยุคไมโครโปรเซสเซอร์ในปี 1971
    ความเร็ว 740kHz, 4-bit CPU, 2,300 ทรานซิสเตอร์
    ใช้ในเครื่องคิดเลขของบริษัท Busicom

    NVIDIA Blackwell คือชิป AI ที่ทรงพลังที่สุดในปี 2025
    มี 208 พันล้านทรานซิสเตอร์
    รองรับโมเดล AI ขนาด 10 ล้านล้านพารามิเตอร์
    ใช้เทคโนโลยี NVLink 5.0 ที่มีแบนด์วิดธ์ 1.8TB/s ต่อ GPU

    Blackwell มีพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU
    ใช้หน่วยความจำ HBM3e สูงสุด 192GB
    มี Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับ AI inference

    การพัฒนาใน 50 ปีทำให้ประสิทธิภาพเพิ่มขึ้นถึง 217 ล้านเท่า
    จาก 92,600 IPS ของ 4004 สู่ระดับ ExaFLOPS ของ Blackwell
    สะท้อนความก้าวหน้าของมนุษยชาติในด้านคอมพิวเตอร์

    Blackwell ถูกนำไปใช้ในระบบ AI ของบริษัทชั้นนำทั่วโลก
    เช่น Microsoft Azure, Google DeepMind, Meta, Tesla และ OpenAI
    ใช้ในงาน LLM, quantum computing, และ data analytics

    https://wccftech.com/computing-power-has-skyrocketed-over-the-last-50-years-with-a-whopping-217-million-times-increase/
    🧠 เรื่องเล่าจากโลกชิป: จาก 4 บิตสู่ 10 ล้านล้านพารามิเตอร์ ย้อนกลับไปปี 1971 Intel เปิดตัวชิป 4004 ซึ่งเป็นไมโครโปรเซสเซอร์ตัวแรกของโลก ด้วยความเร็วเพียง 740kHz และประมวลผลได้ 92,600 คำสั่งต่อวินาที (IPS) ใช้หน่วยความจำแค่ 4KB ROM และ 640 bytes RAM—เล็กจนเทียบไม่ได้กับมือถือยุคนี้ แต่ในปี 2025 NVIDIA เปิดตัว Blackwell ซึ่งเป็นชิป AI ที่ทรงพลังที่สุดในโลก ด้วยพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU รองรับโมเดลขนาด 10 ล้านล้านพารามิเตอร์ และใช้เทคโนโลยี NVLink รุ่นที่ 5 ที่เชื่อมต่อ GPU ได้ถึง 576 ตัวในคลัสเตอร์เดียว เมื่อเปรียบเทียบกันแล้ว Blackwell มีประสิทธิภาพมากกว่า Intel 4004 ถึง 217 ล้านเท่า! นี่คือผลลัพธ์ของการพัฒนาอย่างต่อเนื่องตามกฎของ Moore’s Law และความต้องการด้าน AI ที่เติบโตแบบทวีคูณ ✅ Intel 4004 คือจุดเริ่มต้นของยุคไมโครโปรเซสเซอร์ในปี 1971 ➡️ ความเร็ว 740kHz, 4-bit CPU, 2,300 ทรานซิสเตอร์ ➡️ ใช้ในเครื่องคิดเลขของบริษัท Busicom ✅ NVIDIA Blackwell คือชิป AI ที่ทรงพลังที่สุดในปี 2025 ➡️ มี 208 พันล้านทรานซิสเตอร์ ➡️ รองรับโมเดล AI ขนาด 10 ล้านล้านพารามิเตอร์ ➡️ ใช้เทคโนโลยี NVLink 5.0 ที่มีแบนด์วิดธ์ 1.8TB/s ต่อ GPU ✅ Blackwell มีพลังประมวลผลสูงถึง 20 PetaFLOPS ต่อ GPU ➡️ ใช้หน่วยความจำ HBM3e สูงสุด 192GB ➡️ มี Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับ AI inference ✅ การพัฒนาใน 50 ปีทำให้ประสิทธิภาพเพิ่มขึ้นถึง 217 ล้านเท่า ➡️ จาก 92,600 IPS ของ 4004 สู่ระดับ ExaFLOPS ของ Blackwell ➡️ สะท้อนความก้าวหน้าของมนุษยชาติในด้านคอมพิวเตอร์ ✅ Blackwell ถูกนำไปใช้ในระบบ AI ของบริษัทชั้นนำทั่วโลก ➡️ เช่น Microsoft Azure, Google DeepMind, Meta, Tesla และ OpenAI ➡️ ใช้ในงาน LLM, quantum computing, และ data analytics https://wccftech.com/computing-power-has-skyrocketed-over-the-last-50-years-with-a-whopping-217-million-times-increase/
    WCCFTECH.COM
    Computing Power Has Skyrocketed Over the Last 50 Years, With a Whopping 217 Million Times Increase in Performance — From the Humble Intel 4004 to Cutting-Edge NVIDIA Blackwell Chip
    The evolution of humans has been the "talk of the town," but in the computing segment, we have achieved a lot in just five decades.
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการชิป: เมื่อ “แฟลช” จะมาแทน “แรม” ในงาน AI

    ลองจินตนาการว่า GPU สำหรับงาน AI ไม่ต้องพึ่ง DRAM แบบ HBM ที่แพงและจำกัดความจุอีกต่อไป แต่ใช้แฟลชความเร็วสูงที่มีความจุระดับ SSD—นั่นคือเป้าหมายของ Sandisk กับเทคโนโลยี HBF (High Bandwidth Flash)

    Sandisk ได้ตั้งคณะกรรมการที่ปรึกษาด้านเทคนิค โดยดึงสองตำนานแห่งวงการคอมพิวเตอร์มาเป็นผู้นำ ได้แก่ Prof. David Patterson ผู้ร่วมพัฒนา RISC และ RAID และ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ AMD และ Intel เพื่อผลักดัน HBF ให้กลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI

    HBF ใช้ NAND Flash แบบ BiCS ร่วมกับเทคนิค CBA wafer bonding และการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ทำให้สามารถให้แบนด์วิดธ์ระดับ HBM ได้ แต่มีความจุสูงถึง 4TB ต่อ GPU และต้นทุนต่ำกว่าอย่างมหาศาล

    Sandisk เปิดตัวเทคโนโลยี HBF (High Bandwidth Flash) เพื่อใช้แทน HBM ในงาน AI
    ใช้ NAND Flash แบบ BiCS ร่วมกับ CBA wafer bonding
    รองรับการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ

    HBF ให้แบนด์วิดธ์ระดับเดียวกับ HBM แต่มีความจุสูงกว่า 8 เท่าในต้นทุนใกล้เคียงกัน
    GPU ที่ใช้ HBF สามารถมี VRAM ได้ถึง 4TB
    หากใช้ร่วมกับ HBM จะได้รวมสูงสุดถึง 3TB

    Sandisk ตั้งคณะกรรมการที่ปรึกษาโดยมี David Patterson และ Raja Koduri เป็นผู้นำ
    Patterson คือผู้ร่วมพัฒนา RISC และ RAID
    Koduri เคยเป็นหัวหน้าฝ่ายกราฟิกของ AMD และ Intel

    HBF ถูกออกแบบมาเพื่อรองรับงาน AI ทั้งในดาต้าเซ็นเตอร์และ edge computing
    Patterson ระบุว่า HBF จะช่วยลดต้นทุนของงาน AI ที่ปัจจุบันยังแพงเกินไป
    Koduri ระบุว่า HBF จะพลิกโฉม edge AI โดยให้แบนด์วิดธ์และความจุสูงในอุปกรณ์ขนาดเล็ก

    HBF ใช้ electrical interface เดียวกับ HBM และต้องปรับ protocol เพียงเล็กน้อย
    ทำให้สามารถนำไปใช้กับ GPU ได้ง่ายขึ้น
    ไม่จำเป็นต้องออกแบบระบบใหม่ทั้งหมด

    เปิดตัวครั้งแรกในงาน Future FWD 2025 พร้อมแผนพัฒนา HBF รุ่นต่อไป
    มี roadmap เพิ่มความจุและแบนด์วิดธ์ในอนาคต
    อาจมี trade-off ด้านการใช้พลังงาน

    HBF ยังไม่ใช่ตัวแทนโดยตรงของ HBM และมีข้อจำกัดด้าน latency
    NAND Flash มี latency สูงกว่า DRAM
    เหมาะกับงาน inference และ training มากกว่างานที่ต้องตอบสนองเร็ว

    การใช้งาน HBF ต้องอาศัยการสนับสนุนจากผู้ผลิต GPU โดยตรง
    ต้องใช้ interposer ที่เชื่อมต่อกับ GPU โดยเฉพาะ
    หาก NVIDIA ไม่รับรอง HBF อาจจำกัดการใช้งานในตลาด

    ยังไม่มีการประกาศวันเปิดตัวหรือผลิตภัณฑ์ที่ใช้ HBF อย่างเป็นทางการ
    อยู่ในขั้นตอนการพัฒนาและทดสอบ
    ต้องรอการยอมรับจากอุตสาหกรรมก่อนใช้งานจริง

    การแข่งขันกับผู้ผลิต HBM อย่าง Samsung และ SK Hynix ยังเข้มข้น
    HBM มี ecosystem ที่แข็งแกร่งและได้รับการสนับสนุนจาก NVIDIA
    Sandisk ต้องผลักดัน HBF ให้เป็นมาตรฐานเปิดเพื่อหลีกเลี่ยงการผูกขาด

    https://www.techradar.com/pro/sandisk-recruits-risc-cofounder-amd-graphics-legend-to-spearhead-cheaper-rival-to-hbm-high-bandwidth-flash-could-bring-ssd-capacities-to-ai-gpus-without-the-cost
    ⚡ เรื่องเล่าจากวงการชิป: เมื่อ “แฟลช” จะมาแทน “แรม” ในงาน AI ลองจินตนาการว่า GPU สำหรับงาน AI ไม่ต้องพึ่ง DRAM แบบ HBM ที่แพงและจำกัดความจุอีกต่อไป แต่ใช้แฟลชความเร็วสูงที่มีความจุระดับ SSD—นั่นคือเป้าหมายของ Sandisk กับเทคโนโลยี HBF (High Bandwidth Flash) Sandisk ได้ตั้งคณะกรรมการที่ปรึกษาด้านเทคนิค โดยดึงสองตำนานแห่งวงการคอมพิวเตอร์มาเป็นผู้นำ ได้แก่ Prof. David Patterson ผู้ร่วมพัฒนา RISC และ RAID และ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ AMD และ Intel เพื่อผลักดัน HBF ให้กลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI HBF ใช้ NAND Flash แบบ BiCS ร่วมกับเทคนิค CBA wafer bonding และการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ทำให้สามารถให้แบนด์วิดธ์ระดับ HBM ได้ แต่มีความจุสูงถึง 4TB ต่อ GPU และต้นทุนต่ำกว่าอย่างมหาศาล ✅ Sandisk เปิดตัวเทคโนโลยี HBF (High Bandwidth Flash) เพื่อใช้แทน HBM ในงาน AI ➡️ ใช้ NAND Flash แบบ BiCS ร่วมกับ CBA wafer bonding ➡️ รองรับการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ✅ HBF ให้แบนด์วิดธ์ระดับเดียวกับ HBM แต่มีความจุสูงกว่า 8 เท่าในต้นทุนใกล้เคียงกัน ➡️ GPU ที่ใช้ HBF สามารถมี VRAM ได้ถึง 4TB ➡️ หากใช้ร่วมกับ HBM จะได้รวมสูงสุดถึง 3TB ✅ Sandisk ตั้งคณะกรรมการที่ปรึกษาโดยมี David Patterson และ Raja Koduri เป็นผู้นำ ➡️ Patterson คือผู้ร่วมพัฒนา RISC และ RAID ➡️ Koduri เคยเป็นหัวหน้าฝ่ายกราฟิกของ AMD และ Intel ✅ HBF ถูกออกแบบมาเพื่อรองรับงาน AI ทั้งในดาต้าเซ็นเตอร์และ edge computing ➡️ Patterson ระบุว่า HBF จะช่วยลดต้นทุนของงาน AI ที่ปัจจุบันยังแพงเกินไป ➡️ Koduri ระบุว่า HBF จะพลิกโฉม edge AI โดยให้แบนด์วิดธ์และความจุสูงในอุปกรณ์ขนาดเล็ก ✅ HBF ใช้ electrical interface เดียวกับ HBM และต้องปรับ protocol เพียงเล็กน้อย ➡️ ทำให้สามารถนำไปใช้กับ GPU ได้ง่ายขึ้น ➡️ ไม่จำเป็นต้องออกแบบระบบใหม่ทั้งหมด ✅ เปิดตัวครั้งแรกในงาน Future FWD 2025 พร้อมแผนพัฒนา HBF รุ่นต่อไป ➡️ มี roadmap เพิ่มความจุและแบนด์วิดธ์ในอนาคต ➡️ อาจมี trade-off ด้านการใช้พลังงาน ‼️ HBF ยังไม่ใช่ตัวแทนโดยตรงของ HBM และมีข้อจำกัดด้าน latency ⛔ NAND Flash มี latency สูงกว่า DRAM ⛔ เหมาะกับงาน inference และ training มากกว่างานที่ต้องตอบสนองเร็ว ‼️ การใช้งาน HBF ต้องอาศัยการสนับสนุนจากผู้ผลิต GPU โดยตรง ⛔ ต้องใช้ interposer ที่เชื่อมต่อกับ GPU โดยเฉพาะ ⛔ หาก NVIDIA ไม่รับรอง HBF อาจจำกัดการใช้งานในตลาด ‼️ ยังไม่มีการประกาศวันเปิดตัวหรือผลิตภัณฑ์ที่ใช้ HBF อย่างเป็นทางการ ⛔ อยู่ในขั้นตอนการพัฒนาและทดสอบ ⛔ ต้องรอการยอมรับจากอุตสาหกรรมก่อนใช้งานจริง ‼️ การแข่งขันกับผู้ผลิต HBM อย่าง Samsung และ SK Hynix ยังเข้มข้น ⛔ HBM มี ecosystem ที่แข็งแกร่งและได้รับการสนับสนุนจาก NVIDIA ⛔ Sandisk ต้องผลักดัน HBF ให้เป็นมาตรฐานเปิดเพื่อหลีกเลี่ยงการผูกขาด https://www.techradar.com/pro/sandisk-recruits-risc-cofounder-amd-graphics-legend-to-spearhead-cheaper-rival-to-hbm-high-bandwidth-flash-could-bring-ssd-capacities-to-ai-gpus-without-the-cost
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: AMD กลับมาท้าชน NVIDIA ด้วย “RX 10090 XT” สุดโหด
    หลังจากปล่อยให้ NVIDIA ครองบัลลังก์ GPU ระดับไฮเอนด์มาหลายปี AMD ก็เหมือนจะ “ถอย” ไปเน้นตลาดกลาง แต่ล่าสุดมีข่าวหลุดว่า AMD เตรียมเปิดตัว GPU รุ่นใหม่ในสถาปัตยกรรม RDNA 5 ที่อาจใช้ชื่อว่า Radeon RX 10090 XT — และมันดู “โหด” จนหลายคนคิดว่าอาจเป็นคู่แข่งตัวจริงของ NVIDIA RTX 6090 ที่กำลังจะมา!

    เจ้า RX 10090 XT นี้มีสเปกที่น่าตื่นตาตื่นใจ:
    - 154 Compute Units
    - 36GB GDDR7 VRAM บนบัส 384-bit
    - Bandwidth สูงถึง 1.728 TB/s
    - TDP อยู่ที่ 380W

    ทั้งหมดนี้ถูกสร้างบนเทคโนโลยี TSMC 3nm และคาดว่าจะเปิดตัวช่วงปี 2026–2027 ซึ่งเป็นช่วงเดียวกับที่ NVIDIA จะเปิดตัว RTX 6090 เช่นกัน

    แม้จะยังไม่มีการยืนยันอย่างเป็นทางการ แต่การกลับมาของ AMD ในตลาดไฮเอนด์ครั้งนี้อาจเป็นจุดเปลี่ยนสำคัญของวงการ GPU ที่กำลังขาดการแข่งขันอย่างแท้จริง

    AMD เตรียมเปิดตัว GPU RDNA 5 รุ่นไฮเอนด์
    ใช้ชื่อชั่วคราวว่า Radeon RX 10090 XT
    ตั้งเป้าแข่งขันกับ NVIDIA RTX 6090

    สเปกที่หลุดออกมานั้นทรงพลังมาก
    154 Compute Units
    36GB GDDR7 VRAM ความเร็ว 36Gbps
    บัส 384-bit และ Bandwidth 1.728 TB/s
    ใช้พลังงาน 380W

    ใช้เทคโนโลยีการผลิตระดับสูง
    ผลิตบนกระบวนการ TSMC 3nm
    คาดว่าจะมีประสิทธิภาพต่อวัตต์ดีขึ้นจาก RDNA 4

    วางแผนเปิดตัวระหว่างปี 2026–2027
    อาจเปิดตัวพร้อมกับ RTX 6090 ของ NVIDIA
    เป็นการกลับเข้าสู่ตลาดไฮเอนด์ของ AMD อีกครั้ง

    อาจเป็นจุดเปลี่ยนของการแข่งขันในตลาด GPU
    NVIDIA ครองตลาดไฮเอนด์มานานโดยไม่มีคู่แข่งที่สูสี
    การกลับมาของ AMD อาจช่วยลดราคาตลาดและเพิ่มทางเลือกให้ผู้บริโภค

    https://www.techradar.com/computing/gpu/amd-isnt-giving-up-on-high-end-gpus-a-new-leak-hints-at-a-new-radeon-gpu-challenging-nvidias-next-gen-flagship-graphics-card
    🧠 เรื่องเล่าจากข่าว: AMD กลับมาท้าชน NVIDIA ด้วย “RX 10090 XT” สุดโหด หลังจากปล่อยให้ NVIDIA ครองบัลลังก์ GPU ระดับไฮเอนด์มาหลายปี AMD ก็เหมือนจะ “ถอย” ไปเน้นตลาดกลาง แต่ล่าสุดมีข่าวหลุดว่า AMD เตรียมเปิดตัว GPU รุ่นใหม่ในสถาปัตยกรรม RDNA 5 ที่อาจใช้ชื่อว่า Radeon RX 10090 XT — และมันดู “โหด” จนหลายคนคิดว่าอาจเป็นคู่แข่งตัวจริงของ NVIDIA RTX 6090 ที่กำลังจะมา! เจ้า RX 10090 XT นี้มีสเปกที่น่าตื่นตาตื่นใจ: - 154 Compute Units - 36GB GDDR7 VRAM บนบัส 384-bit - Bandwidth สูงถึง 1.728 TB/s - TDP อยู่ที่ 380W ทั้งหมดนี้ถูกสร้างบนเทคโนโลยี TSMC 3nm และคาดว่าจะเปิดตัวช่วงปี 2026–2027 ซึ่งเป็นช่วงเดียวกับที่ NVIDIA จะเปิดตัว RTX 6090 เช่นกัน แม้จะยังไม่มีการยืนยันอย่างเป็นทางการ แต่การกลับมาของ AMD ในตลาดไฮเอนด์ครั้งนี้อาจเป็นจุดเปลี่ยนสำคัญของวงการ GPU ที่กำลังขาดการแข่งขันอย่างแท้จริง ✅ AMD เตรียมเปิดตัว GPU RDNA 5 รุ่นไฮเอนด์ ➡️ ใช้ชื่อชั่วคราวว่า Radeon RX 10090 XT ➡️ ตั้งเป้าแข่งขันกับ NVIDIA RTX 6090 ✅ สเปกที่หลุดออกมานั้นทรงพลังมาก ➡️ 154 Compute Units ➡️ 36GB GDDR7 VRAM ความเร็ว 36Gbps ➡️ บัส 384-bit และ Bandwidth 1.728 TB/s ➡️ ใช้พลังงาน 380W ✅ ใช้เทคโนโลยีการผลิตระดับสูง ➡️ ผลิตบนกระบวนการ TSMC 3nm ➡️ คาดว่าจะมีประสิทธิภาพต่อวัตต์ดีขึ้นจาก RDNA 4 ✅ วางแผนเปิดตัวระหว่างปี 2026–2027 ➡️ อาจเปิดตัวพร้อมกับ RTX 6090 ของ NVIDIA ➡️ เป็นการกลับเข้าสู่ตลาดไฮเอนด์ของ AMD อีกครั้ง ✅ อาจเป็นจุดเปลี่ยนของการแข่งขันในตลาด GPU ➡️ NVIDIA ครองตลาดไฮเอนด์มานานโดยไม่มีคู่แข่งที่สูสี ➡️ การกลับมาของ AMD อาจช่วยลดราคาตลาดและเพิ่มทางเลือกให้ผู้บริโภค https://www.techradar.com/computing/gpu/amd-isnt-giving-up-on-high-end-gpus-a-new-leak-hints-at-a-new-radeon-gpu-challenging-nvidias-next-gen-flagship-graphics-card
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • เรื่องเล่าจากศูนย์ข้อมูล: เมื่อจีนมีพลังคอมพิวเตอร์เหลือใช้ แต่ยังขายไม่ได้

    Tom’s Hardware รายงานว่า จีนกำลังพัฒนาเครือข่ายระดับประเทศเพื่อขายพลังประมวลผลส่วนเกินจากศูนย์ข้อมูล ที่ไม่ได้ใช้งานเต็มประสิทธิภาพ โดยมีเป้าหมายเพื่อเพิ่มการใช้ทรัพยากรให้คุ้มค่าและสนับสนุนการเติบโตของ AI และคลาวด์ในประเทศ แต่ก็เผชิญกับอุปสรรคสำคัญ เช่น ความล่าช้าในการเชื่อมต่อ (latency) และ ความหลากหลายของฮาร์ดแวร์ ที่ทำให้การรวมระบบเป็นเรื่องยาก

    จีนเคยผลักดันยุทธศาสตร์ “Eastern Data, Western Computing” โดยให้สร้างศูนย์ข้อมูลในพื้นที่ตะวันตกที่ค่าไฟถูก เพื่อรองรับความต้องการจากเมืองเศรษฐกิจฝั่งตะวันออก แต่ความจริงกลับไม่เป็นไปตามแผน:
    - ศูนย์ข้อมูลหลายแห่งใช้งานเพียง 20–30% ของความสามารถ
    - รัฐลงทุนไปกว่า $3.4 พันล้านในปี 2024 แต่ผลตอบแทนยังไม่คุ้ม
    - มีโครงการถูกยกเลิกกว่า 100 แห่งใน 18 เดือนที่ผ่านมา

    เพื่อแก้ปัญหา รัฐบาลจีนจึงเตรียมสร้าง เครือข่ายคลาวด์ระดับชาติ โดยรวมพลังประมวลผลที่เหลือจากศูนย์ต่าง ๆ มาให้บริการผ่านระบบรวมศูนย์ โดยร่วมมือกับ China Mobile, China Telecom และ China Unicom

    แต่ก็มีอุปสรรคใหญ่:
    - ความล่าช้าในการเชื่อมต่อจากศูนย์ข้อมูลในพื้นที่ห่างไกล
    - ความหลากหลายของฮาร์ดแวร์ เช่น บางแห่งใช้ Nvidia CUDA บางแห่งใช้ Huawei CANN ทำให้รวมกันไม่ได้ง่าย

    แม้จะมีความท้าทาย แต่รัฐบาลยังคงมุ่งมั่น เพราะเชื่อว่าแนวทางนี้จะช่วยให้การลงทุนใน AI และคลาวด์มีประสิทธิภาพมากขึ้น

    ศูนย์ข้อมูลในพื้นที่ห่างไกลมักมีค่าไฟถูก แต่ latency สูง
    ไม่เหมาะกับงานที่ต้องการความเร็วตอบสนองทันที

    การรวมพลังประมวลผลแบบ distributed computing ต้องใช้ระบบจัดการที่ซับซ้อน
    เช่น Kubernetes, scheduling algorithms และระบบ billing ที่แม่นยำ

    ความหลากหลายของฮาร์ดแวร์ในคลาวด์อาจต้องใช้ containerization หรือ virtualization
    เพื่อให้ผู้ใช้งานเลือกได้ว่าจะใช้ GPU แบบไหน

    การสร้างเครือข่ายคลาวด์ระดับชาติอาจช่วยลดการพึ่งพา hyperscalers ต่างชาติ
    เช่น AWS, Azure และ Google Cloud

    https://www.tomshardware.com/desktops/servers/china-is-developing-nation-spanning-network-to-sell-surplus-data-center-compute-power-latency-disparate-hardware-are-key-hurdles
    🎙️ เรื่องเล่าจากศูนย์ข้อมูล: เมื่อจีนมีพลังคอมพิวเตอร์เหลือใช้ แต่ยังขายไม่ได้ Tom’s Hardware รายงานว่า จีนกำลังพัฒนาเครือข่ายระดับประเทศเพื่อขายพลังประมวลผลส่วนเกินจากศูนย์ข้อมูล ที่ไม่ได้ใช้งานเต็มประสิทธิภาพ โดยมีเป้าหมายเพื่อเพิ่มการใช้ทรัพยากรให้คุ้มค่าและสนับสนุนการเติบโตของ AI และคลาวด์ในประเทศ แต่ก็เผชิญกับอุปสรรคสำคัญ เช่น ความล่าช้าในการเชื่อมต่อ (latency) และ ความหลากหลายของฮาร์ดแวร์ ที่ทำให้การรวมระบบเป็นเรื่องยาก จีนเคยผลักดันยุทธศาสตร์ “Eastern Data, Western Computing” โดยให้สร้างศูนย์ข้อมูลในพื้นที่ตะวันตกที่ค่าไฟถูก เพื่อรองรับความต้องการจากเมืองเศรษฐกิจฝั่งตะวันออก แต่ความจริงกลับไม่เป็นไปตามแผน: - ศูนย์ข้อมูลหลายแห่งใช้งานเพียง 20–30% ของความสามารถ - รัฐลงทุนไปกว่า $3.4 พันล้านในปี 2024 แต่ผลตอบแทนยังไม่คุ้ม - มีโครงการถูกยกเลิกกว่า 100 แห่งใน 18 เดือนที่ผ่านมา เพื่อแก้ปัญหา รัฐบาลจีนจึงเตรียมสร้าง เครือข่ายคลาวด์ระดับชาติ โดยรวมพลังประมวลผลที่เหลือจากศูนย์ต่าง ๆ มาให้บริการผ่านระบบรวมศูนย์ โดยร่วมมือกับ China Mobile, China Telecom และ China Unicom แต่ก็มีอุปสรรคใหญ่: - ความล่าช้าในการเชื่อมต่อจากศูนย์ข้อมูลในพื้นที่ห่างไกล - ความหลากหลายของฮาร์ดแวร์ เช่น บางแห่งใช้ Nvidia CUDA บางแห่งใช้ Huawei CANN ทำให้รวมกันไม่ได้ง่าย แม้จะมีความท้าทาย แต่รัฐบาลยังคงมุ่งมั่น เพราะเชื่อว่าแนวทางนี้จะช่วยให้การลงทุนใน AI และคลาวด์มีประสิทธิภาพมากขึ้น 💡 ศูนย์ข้อมูลในพื้นที่ห่างไกลมักมีค่าไฟถูก แต่ latency สูง ➡️ ไม่เหมาะกับงานที่ต้องการความเร็วตอบสนองทันที 💡 การรวมพลังประมวลผลแบบ distributed computing ต้องใช้ระบบจัดการที่ซับซ้อน ➡️ เช่น Kubernetes, scheduling algorithms และระบบ billing ที่แม่นยำ 💡 ความหลากหลายของฮาร์ดแวร์ในคลาวด์อาจต้องใช้ containerization หรือ virtualization ➡️ เพื่อให้ผู้ใช้งานเลือกได้ว่าจะใช้ GPU แบบไหน 💡 การสร้างเครือข่ายคลาวด์ระดับชาติอาจช่วยลดการพึ่งพา hyperscalers ต่างชาติ ➡️ เช่น AWS, Azure และ Google Cloud https://www.tomshardware.com/desktops/servers/china-is-developing-nation-spanning-network-to-sell-surplus-data-center-compute-power-latency-disparate-hardware-are-key-hurdles
    0 ความคิดเห็น 0 การแบ่งปัน 308 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเล็กจิ๋ว: เมื่อแสงควอนตัมถูกผลิตบนซิลิคอนแบบเดียวกับ CPU

    ชิปนี้ใช้โครงสร้างที่เรียกว่า microring resonators จำนวน 12 วง ซึ่งทำหน้าที่ผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม — โดยปกติการผลิตโฟตอนแบบนี้ต้องใช้ห้องแล็บที่ซับซ้อน แต่ทีมวิจัยสามารถทำให้เกิดขึ้นบนชิปขนาดเท่าเล็บนิ้ว

    ความท้าทายคือ microring resonators มีความไวต่ออุณหภูมิและความคลาดเคลื่อนในการผลิต — หากไม่ปรับจูนอย่างแม่นยำจะไม่สามารถผลิตโฟตอนได้ ทีมจึงสร้างระบบ feedback บนชิป:
    - มี photodiode ตรวจสอบการทำงานของแต่ละ resonator
    - มี heater และวงจรควบคุมปรับจูนอัตโนมัติ
    - ทำให้ทั้ง 12 วงทำงานร่วมกันได้อย่างเสถียร โดยไม่ต้องใช้เครื่องมือภายนอก

    ชิปนี้ถูกผลิตด้วยเทคโนโลยี CMOS 45nm ซึ่งแม้จะไม่ใช่ระดับ cutting-edge แต่มีความเสถียรและสามารถผลิตจำนวนมากได้ในโรงงานทั่วไป เช่นของ GlobalFoundries และ Ayar Labs

    Nvidia CEO ยังเคยกล่าวว่า microring resonators คือ “หัวใจของการเชื่อมต่อแบบ optical สำหรับ AI” — และงานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน

    นักวิจัยสร้าง “โรงงานแสงควอนตัม” บนชิปขนาด 1 มม² โดยใช้ CMOS 45nm
    เป็นการรวม photonics, electronics และ quantum optics บนแพลตฟอร์มเดียว

    ใช้ microring resonators 12 วงเพื่อผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม
    โดยปกติการผลิตโฟตอนต้องใช้ห้องแล็บที่ซับซ้อน

    มีระบบ feedback บนชิปเพื่อปรับจูน resonator แบบเรียลไทม์
    ใช้ photodiode, heater และวงจรควบคุมเพื่อให้ทำงานเสถียร

    ผลิตด้วยเทคโนโลยี CMOS 45nm ที่ใช้ใน CPU และ GPU ทั่วไป
    ทำให้สามารถผลิตในโรงงานอุตสาหกรรมได้ ไม่ต้องใช้เทคนิคเฉพาะทาง

    ชิปนี้ถูกพัฒนาร่วมกับ GlobalFoundries และ Ayar Labs
    บริษัทที่เชี่ยวชาญด้าน optical interconnects สำหรับ AI และ HPC

    Nvidia เคยกล่าวว่า microring resonators คือกุญแจสำคัญของการเชื่อมต่อ AI แบบ optical
    งานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน

    นักวิจัยบางคนในทีมได้เข้าร่วมบริษัทเชิงพาณิชย์ เช่น PsiQuantum, Ayar Labs และ Google X
    แสดงถึงการเปลี่ยนผ่านจากงานวิจัยสู่ผลิตภัณฑ์จริง

    https://www.tomshardware.com/tech-industry/quantum-computing/researchers-pack-a-quantum-light-factory-into-a-1mm-square-chip-combines-photonics-electronics-and-quantum-hardware-with-traditional-silicon-manufacturing
    🎙️ เรื่องเล่าจากชิปเล็กจิ๋ว: เมื่อแสงควอนตัมถูกผลิตบนซิลิคอนแบบเดียวกับ CPU ชิปนี้ใช้โครงสร้างที่เรียกว่า microring resonators จำนวน 12 วง ซึ่งทำหน้าที่ผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม — โดยปกติการผลิตโฟตอนแบบนี้ต้องใช้ห้องแล็บที่ซับซ้อน แต่ทีมวิจัยสามารถทำให้เกิดขึ้นบนชิปขนาดเท่าเล็บนิ้ว ความท้าทายคือ microring resonators มีความไวต่ออุณหภูมิและความคลาดเคลื่อนในการผลิต — หากไม่ปรับจูนอย่างแม่นยำจะไม่สามารถผลิตโฟตอนได้ ทีมจึงสร้างระบบ feedback บนชิป: - มี photodiode ตรวจสอบการทำงานของแต่ละ resonator - มี heater และวงจรควบคุมปรับจูนอัตโนมัติ - ทำให้ทั้ง 12 วงทำงานร่วมกันได้อย่างเสถียร โดยไม่ต้องใช้เครื่องมือภายนอก ชิปนี้ถูกผลิตด้วยเทคโนโลยี CMOS 45nm ซึ่งแม้จะไม่ใช่ระดับ cutting-edge แต่มีความเสถียรและสามารถผลิตจำนวนมากได้ในโรงงานทั่วไป เช่นของ GlobalFoundries และ Ayar Labs Nvidia CEO ยังเคยกล่าวว่า microring resonators คือ “หัวใจของการเชื่อมต่อแบบ optical สำหรับ AI” — และงานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน ✅ นักวิจัยสร้าง “โรงงานแสงควอนตัม” บนชิปขนาด 1 มม² โดยใช้ CMOS 45nm ➡️ เป็นการรวม photonics, electronics และ quantum optics บนแพลตฟอร์มเดียว ✅ ใช้ microring resonators 12 วงเพื่อผลิตคู่โฟตอนที่มีคุณสมบัติควอนตัม ➡️ โดยปกติการผลิตโฟตอนต้องใช้ห้องแล็บที่ซับซ้อน ✅ มีระบบ feedback บนชิปเพื่อปรับจูน resonator แบบเรียลไทม์ ➡️ ใช้ photodiode, heater และวงจรควบคุมเพื่อให้ทำงานเสถียร ✅ ผลิตด้วยเทคโนโลยี CMOS 45nm ที่ใช้ใน CPU และ GPU ทั่วไป ➡️ ทำให้สามารถผลิตในโรงงานอุตสาหกรรมได้ ไม่ต้องใช้เทคนิคเฉพาะทาง ✅ ชิปนี้ถูกพัฒนาร่วมกับ GlobalFoundries และ Ayar Labs ➡️ บริษัทที่เชี่ยวชาญด้าน optical interconnects สำหรับ AI และ HPC ✅ Nvidia เคยกล่าวว่า microring resonators คือกุญแจสำคัญของการเชื่อมต่อ AI แบบ optical ➡️ งานวิจัยนี้แสดงให้เห็นว่า photonics เดียวกันสามารถใช้กับควอนตัมได้เช่นกัน ✅ นักวิจัยบางคนในทีมได้เข้าร่วมบริษัทเชิงพาณิชย์ เช่น PsiQuantum, Ayar Labs และ Google X ➡️ แสดงถึงการเปลี่ยนผ่านจากงานวิจัยสู่ผลิตภัณฑ์จริง https://www.tomshardware.com/tech-industry/quantum-computing/researchers-pack-a-quantum-light-factory-into-a-1mm-square-chip-combines-photonics-electronics-and-quantum-hardware-with-traditional-silicon-manufacturing
    0 ความคิดเห็น 0 การแบ่งปัน 285 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเบื้องหลังคลาวด์: เมื่อเซิร์ฟเวอร์เก่ากลับมาเพราะคลาวด์ไม่ตอบโจทย์

    จากผลสำรวจโดย Liquid Web:
    - 42% ของทีม IT ย้าย workload กลับจากคลาวด์มาใช้เซิร์ฟเวอร์ dedicated ภายใน 1 ปี
    - 86% ขององค์กรยังใช้เซิร์ฟเวอร์ dedicated อยู่ แม้จะอยู่ในยุคที่คลาวด์ครองตลาด
    - เหตุผลหลักคือ: ค่าคลาวด์ที่พุ่งสูง, ความไม่แน่นอนของราคา, และการขาดการควบคุม

    ภาคส่วนที่ใช้เซิร์ฟเวอร์ dedicated มากที่สุด:
    - ภาครัฐ: 93%
    - IT: 91%
    - การเงิน: 90%
    - แม้แต่ธุรกิจขนาดเล็กก็ใช้ถึง 68%

    หลายองค์กรเจอ “ค่าใช้จ่ายคลาวด์ที่ไม่คาดคิด” ระหว่าง $5,000–$25,000 และ 32% เชื่อว่า “งบประมาณคลาวด์ถูกใช้ไปกับฟีเจอร์ที่ไม่จำเป็น”

    Ryan MacDonald, CTO ของ Liquid Web กล่าวว่า “การย้ายกลับมาใช้เซิร์ฟเวอร์ dedicated เป็นกลยุทธ์เพื่อควบคุมต้นทุนและสร้างระบบที่มั่นคงในระยะยาว”

    42% ของทีม IT ย้าย workload กลับจากคลาวด์มาใช้เซิร์ฟเวอร์ dedicated ในปีที่ผ่านมา
    เหตุผลหลักคือความต้องการควบคุม, ความปลอดภัย, และต้นทุนที่คาดการณ์ได้

    86% ขององค์กรยังใช้เซิร์ฟเวอร์ dedicated อยู่ แม้จะอยู่ในยุคคลาวด์
    แสดงว่า dedicated ยังมีบทบาทสำคัญในโครงสร้างพื้นฐาน

    ภาครัฐ, IT, และการเงินเป็นกลุ่มที่ใช้เซิร์ฟเวอร์ dedicated มากที่สุด
    เพราะต้องการ uptime สูงและการปฏิบัติตามข้อกำกับด้านข้อมูล

    55% ของผู้ตอบแบบสอบถามเลือก dedicated เพราะต้องการการปรับแต่งและควบคุมเต็มรูปแบบ
    รวมถึงความปลอดภัยทางกายภาพและประสิทธิภาพของเครือข่าย

    32% เชื่อว่างบประมาณคลาวด์ถูกใช้ไปกับฟีเจอร์ที่ไม่จำเป็น
    เช่นการจ่ายค่าความจุหรือฟังก์ชันที่ไม่เคยถูกใช้งานจริง

    45% คาดว่าเซิร์ฟเวอร์ dedicated จะมีบทบาทเพิ่มขึ้นภายในปี 2030
    53% มองว่าเป็น “สิ่งจำเป็น” ในโครงสร้างพื้นฐานองค์กร

    https://www.techradar.com/pro/in-the-shadow-of-ai-has-cloud-peaked-a-survey-shows-that-more-businesses-are-moving-away-from-cloud-computing-to-dedicated-servers
    🎙️ เรื่องเล่าจากเบื้องหลังคลาวด์: เมื่อเซิร์ฟเวอร์เก่ากลับมาเพราะคลาวด์ไม่ตอบโจทย์ จากผลสำรวจโดย Liquid Web: - 42% ของทีม IT ย้าย workload กลับจากคลาวด์มาใช้เซิร์ฟเวอร์ dedicated ภายใน 1 ปี - 86% ขององค์กรยังใช้เซิร์ฟเวอร์ dedicated อยู่ แม้จะอยู่ในยุคที่คลาวด์ครองตลาด - เหตุผลหลักคือ: ค่าคลาวด์ที่พุ่งสูง, ความไม่แน่นอนของราคา, และการขาดการควบคุม ภาคส่วนที่ใช้เซิร์ฟเวอร์ dedicated มากที่สุด: - ภาครัฐ: 93% - IT: 91% - การเงิน: 90% - แม้แต่ธุรกิจขนาดเล็กก็ใช้ถึง 68% หลายองค์กรเจอ “ค่าใช้จ่ายคลาวด์ที่ไม่คาดคิด” ระหว่าง $5,000–$25,000 และ 32% เชื่อว่า “งบประมาณคลาวด์ถูกใช้ไปกับฟีเจอร์ที่ไม่จำเป็น” Ryan MacDonald, CTO ของ Liquid Web กล่าวว่า “การย้ายกลับมาใช้เซิร์ฟเวอร์ dedicated เป็นกลยุทธ์เพื่อควบคุมต้นทุนและสร้างระบบที่มั่นคงในระยะยาว” ✅ 42% ของทีม IT ย้าย workload กลับจากคลาวด์มาใช้เซิร์ฟเวอร์ dedicated ในปีที่ผ่านมา ➡️ เหตุผลหลักคือความต้องการควบคุม, ความปลอดภัย, และต้นทุนที่คาดการณ์ได้ ✅ 86% ขององค์กรยังใช้เซิร์ฟเวอร์ dedicated อยู่ แม้จะอยู่ในยุคคลาวด์ ➡️ แสดงว่า dedicated ยังมีบทบาทสำคัญในโครงสร้างพื้นฐาน ✅ ภาครัฐ, IT, และการเงินเป็นกลุ่มที่ใช้เซิร์ฟเวอร์ dedicated มากที่สุด ➡️ เพราะต้องการ uptime สูงและการปฏิบัติตามข้อกำกับด้านข้อมูล ✅ 55% ของผู้ตอบแบบสอบถามเลือก dedicated เพราะต้องการการปรับแต่งและควบคุมเต็มรูปแบบ ➡️ รวมถึงความปลอดภัยทางกายภาพและประสิทธิภาพของเครือข่าย ✅ 32% เชื่อว่างบประมาณคลาวด์ถูกใช้ไปกับฟีเจอร์ที่ไม่จำเป็น ➡️ เช่นการจ่ายค่าความจุหรือฟังก์ชันที่ไม่เคยถูกใช้งานจริง ✅ 45% คาดว่าเซิร์ฟเวอร์ dedicated จะมีบทบาทเพิ่มขึ้นภายในปี 2030 ➡️ 53% มองว่าเป็น “สิ่งจำเป็น” ในโครงสร้างพื้นฐานองค์กร https://www.techradar.com/pro/in-the-shadow-of-ai-has-cloud-peaked-a-survey-shows-that-more-businesses-are-moving-away-from-cloud-computing-to-dedicated-servers
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Open Source: เมื่อ Linux เวอร์ชันแรงสุดจาก Intel ถูกปลดจากสายพาน

    Clear Linux เป็นระบบปฏิบัติการที่ Intel ออกแบบมาโดยเฉพาะเพื่อเร่ง performance แบบ out-of-the-box โดยมีฟีเจอร์ระดับสูงที่ระบบอื่นไม่กล้าใช้ เช่น:
    - ใช้ compiler flags แบบ aggressive (ทั้ง GCC และ Clang)
    - ทำ PGO (Profile-Guided Optimization) และ LTO (Link-Time Optimization) ทั่วทั้งระบบ
    - kernel ถูกปรับแต่งเพื่อใช้ CPU แบบ multi-threading เต็มที่
    - ปรับใช้งาน AVX2, AVX-512 และเทคโนโลยีอย่าง Optane ตั้งแต่วันแรก
    - มี clr-boot-manager สำหรับอัปเดต kernel แบบเร็ว

    ผลลัพธ์คือ Clear Linux มักจะชนะ benchmark ด้านประสิทธิภาพทั้งในงาน build, render และ scientific computing — แม้ใช้บน AMD ก็ตาม!

    แต่ด้วยนโยบายลดต้นทุนของ Intel บริษัทเริ่มตัดคนและทีม software ออกจำนวนมาก — ส่งผลให้ Clear Linux ถูก “พักถาวร” โดยไม่มีแพตช์ความปลอดภัยหรืออัปเดตใหม่อีก

    นักพัฒนา Linux หลายคนแสดงความเสียดาย เพราะฟีเจอร์และแนวคิดของ Clear Linux เริ่มถูกนำไปใช้ใน distro อื่น ๆ แล้ว เช่น CachyOS และบางส่วนใน Arch-based รุ่นใหม่

    Intel ประกาศหยุดพัฒนา Clear Linux อย่างเป็นทางการ
    ไม่มีแพตช์ ไม่มีอัปเดตความปลอดภัย และ archive repo บน GitHub เป็นแบบ read-only

    Clear Linux มีจุดเด่นคือเร่ง performance ตั้งแต่แกนระบบ
    ใช้ toolchain ใหม่สุด, flags รุนแรง, และ optimization เชิงลึก เช่น PGO/LTO

    ทำงานดีทั้งบน Intel และ AMD แม้จะออกแบบมาเพื่อ Intel โดยตรง
    เป็น distro เดียวที่ “แรงสุด” ในหลาย benchmark แบบไม่ต้องปรับแต่งเอง

    ฟีเจอร์เด่นคือ clr-boot-manager และระบบจัดการ kernel ที่เร็วมาก
    เหมาะกับ developer และงาน HPC ที่ต้องใช้ kernel ใหม่อยู่ตลอด

    ระบบใช้ได้ดีใน workload ที่เน้น CPU, I/O, memory และ multithreading
    เป็นที่นิยมในกลุ่มนักพัฒนาเทคโนโลยีใหม่ เช่น AI และการ render แบบหนัก ๆ

    Intel จะยังคงสนับสนุน Linux ผ่าน upstream และ distro หลักอื่น ๆ
    เช่น Fedora, Ubuntu หรือโครงการ kernel โดยตรง

    CachyOS และ distro อื่น ๆ เริ่มนำ optimization ของ Clear Linux ไปใช้งาน
    แสดงว่าเทคโนโลยียังมีชีวิตอยู่ใน ecosystem แม้ต้นฉบับจะเลิกทำแล้ว

    ผู้ใช้ Clear Linux ควรวางแผนย้ายออกทันที
    หากไม่ย้ายจะมีความเสี่ยงเรื่องความปลอดภัย เพราะไม่มีแพตช์ใหม่

    ระบบที่ยัง deploy ด้วย Clear Linux อาจเจอปัญหาความเข้ากันในอนาคต
    library หรือ driver ใหม่อาจไม่รองรับ โดยไม่มีทีมดูแลให้

    ฟีเจอร์ที่ใช้เทคโนโลยี Intel โดยตรง เช่น AVX-512 อาจใช้งานยากขึ้นใน distro อื่น
    ต้องปรับแต่งเองหรือเขียน config เพื่อให้ทำงานแบบที่ Clear Linux เคยทำ

    การหยุดพัฒนาอาจเป็นสัญญาณว่า Intel ลดบทบาทในด้าน software ecosystem
    ส่งผลต่อความเร็วของ innovation ด้าน HPC และ AI บน Linux

    https://www.tomshardware.com/software/linux/intel-axes-clear-linux-the-fastest-distribution-on-the-market-company-ends-support-effective-immediately
    🎙️ เรื่องเล่าจากโลก Open Source: เมื่อ Linux เวอร์ชันแรงสุดจาก Intel ถูกปลดจากสายพาน Clear Linux เป็นระบบปฏิบัติการที่ Intel ออกแบบมาโดยเฉพาะเพื่อเร่ง performance แบบ out-of-the-box โดยมีฟีเจอร์ระดับสูงที่ระบบอื่นไม่กล้าใช้ เช่น: - ใช้ compiler flags แบบ aggressive (ทั้ง GCC และ Clang) - ทำ PGO (Profile-Guided Optimization) และ LTO (Link-Time Optimization) ทั่วทั้งระบบ - kernel ถูกปรับแต่งเพื่อใช้ CPU แบบ multi-threading เต็มที่ - ปรับใช้งาน AVX2, AVX-512 และเทคโนโลยีอย่าง Optane ตั้งแต่วันแรก - มี clr-boot-manager สำหรับอัปเดต kernel แบบเร็ว ผลลัพธ์คือ Clear Linux มักจะชนะ benchmark ด้านประสิทธิภาพทั้งในงาน build, render และ scientific computing — แม้ใช้บน AMD ก็ตาม! แต่ด้วยนโยบายลดต้นทุนของ Intel บริษัทเริ่มตัดคนและทีม software ออกจำนวนมาก — ส่งผลให้ Clear Linux ถูก “พักถาวร” โดยไม่มีแพตช์ความปลอดภัยหรืออัปเดตใหม่อีก นักพัฒนา Linux หลายคนแสดงความเสียดาย เพราะฟีเจอร์และแนวคิดของ Clear Linux เริ่มถูกนำไปใช้ใน distro อื่น ๆ แล้ว เช่น CachyOS และบางส่วนใน Arch-based รุ่นใหม่ ✅ Intel ประกาศหยุดพัฒนา Clear Linux อย่างเป็นทางการ ➡️ ไม่มีแพตช์ ไม่มีอัปเดตความปลอดภัย และ archive repo บน GitHub เป็นแบบ read-only ✅ Clear Linux มีจุดเด่นคือเร่ง performance ตั้งแต่แกนระบบ ➡️ ใช้ toolchain ใหม่สุด, flags รุนแรง, และ optimization เชิงลึก เช่น PGO/LTO ✅ ทำงานดีทั้งบน Intel และ AMD แม้จะออกแบบมาเพื่อ Intel โดยตรง ➡️ เป็น distro เดียวที่ “แรงสุด” ในหลาย benchmark แบบไม่ต้องปรับแต่งเอง ✅ ฟีเจอร์เด่นคือ clr-boot-manager และระบบจัดการ kernel ที่เร็วมาก ➡️ เหมาะกับ developer และงาน HPC ที่ต้องใช้ kernel ใหม่อยู่ตลอด ✅ ระบบใช้ได้ดีใน workload ที่เน้น CPU, I/O, memory และ multithreading ➡️ เป็นที่นิยมในกลุ่มนักพัฒนาเทคโนโลยีใหม่ เช่น AI และการ render แบบหนัก ๆ ✅ Intel จะยังคงสนับสนุน Linux ผ่าน upstream และ distro หลักอื่น ๆ ➡️ เช่น Fedora, Ubuntu หรือโครงการ kernel โดยตรง ✅ CachyOS และ distro อื่น ๆ เริ่มนำ optimization ของ Clear Linux ไปใช้งาน ➡️ แสดงว่าเทคโนโลยียังมีชีวิตอยู่ใน ecosystem แม้ต้นฉบับจะเลิกทำแล้ว ‼️ ผู้ใช้ Clear Linux ควรวางแผนย้ายออกทันที ⛔ หากไม่ย้ายจะมีความเสี่ยงเรื่องความปลอดภัย เพราะไม่มีแพตช์ใหม่ ‼️ ระบบที่ยัง deploy ด้วย Clear Linux อาจเจอปัญหาความเข้ากันในอนาคต ⛔ library หรือ driver ใหม่อาจไม่รองรับ โดยไม่มีทีมดูแลให้ ‼️ ฟีเจอร์ที่ใช้เทคโนโลยี Intel โดยตรง เช่น AVX-512 อาจใช้งานยากขึ้นใน distro อื่น ⛔ ต้องปรับแต่งเองหรือเขียน config เพื่อให้ทำงานแบบที่ Clear Linux เคยทำ ‼️ การหยุดพัฒนาอาจเป็นสัญญาณว่า Intel ลดบทบาทในด้าน software ecosystem ⛔ ส่งผลต่อความเร็วของ innovation ด้าน HPC และ AI บน Linux https://www.tomshardware.com/software/linux/intel-axes-clear-linux-the-fastest-distribution-on-the-market-company-ends-support-effective-immediately
    0 ความคิดเห็น 0 การแบ่งปัน 274 มุมมอง 0 รีวิว
  • HighPoint Technologies เปิดตัว Rocket 1628A และ Rocket 1528D ซึ่งเป็นอะแดปเตอร์ PCIe ที่ออกแบบมาเพื่อขยายการเชื่อมต่ออุปกรณ์ NVMe และ PCIe ผ่านสล็อตเดียว โดยใช้เทคโนโลยี PCIe switching และ lane allocation ที่ช่วยแบ่งแบนด์วิดธ์ x16 ออกเป็น x4 และ x8 ได้อย่างมีประสิทธิภาพ

    อุปกรณ์ทั้งสองรุ่นรองรับการเชื่อมต่อโดยตรงกับอุปกรณ์ PCIe ได้ 8 ตัว หรือเชื่อมต่อ NVMe SSD ได้สูงสุด 32 ตัวผ่าน backplane ที่รองรับมาตรฐาน UBM โดยใช้คอนเนกเตอร์แบบ MCIO (Rocket 1628A) และ SlimSAS (Rocket 1528D)

    นอกจากนี้ยังรองรับการใช้งานกับ GPU, NIC, capture card และ storage controller ได้อีกด้วย เหมาะกับงานใน data center, edge computing, AI/ML, automation และ workstation ขนาดเล็ก

    อะแดปเตอร์ทั้งสองรุ่นมีฟีเจอร์ plug-and-play, LED diagnostic, hot-swap และรองรับทั้งแพลตฟอร์ม x86 และ ARM โดย Rocket 1628A วางจำหน่ายแล้วในราคา $1,499 ส่วน Rocket 1528D ราคา $699

    อะแดปเตอร์เหล่านี้ออกแบบมาสำหรับงานระดับองค์กร
    ไม่รองรับ SSD แบบ M.2 ที่ใช้กันทั่วไปในคอมพิวเตอร์ส่วนบุคคล

    ต้องใช้ backplane ที่รองรับมาตรฐาน UBM เพื่อเชื่อมต่อ NVMe 32 ตัว
    หากไม่มี backplane ที่เหมาะสม จะไม่สามารถใช้ฟีเจอร์เต็มรูปแบบได้

    การใช้งานอุปกรณ์ PCIe จำนวนมากต้องมีระบบระบายความร้อนที่ดี
    หากไม่จัดการความร้อนอย่างเหมาะสม อาจเกิดปัญหาด้านเสถียรภาพ

    ราคาสูงเมื่อเทียบกับอะแดปเตอร์ทั่วไป
    อาจไม่คุ้มค่าสำหรับผู้ใช้ทั่วไปหรือองค์กรขนาดเล็ก

    https://www.tomshardware.com/pc-components/storage/new-adapters-offer-substantial-industrial-pcie-expansion-highpoints-rocket-1628a-and-1528d-support-deploying-up-to-32-nvme-drives-and-8-pcie-devices-in-a-single-slot
    HighPoint Technologies เปิดตัว Rocket 1628A และ Rocket 1528D ซึ่งเป็นอะแดปเตอร์ PCIe ที่ออกแบบมาเพื่อขยายการเชื่อมต่ออุปกรณ์ NVMe และ PCIe ผ่านสล็อตเดียว โดยใช้เทคโนโลยี PCIe switching และ lane allocation ที่ช่วยแบ่งแบนด์วิดธ์ x16 ออกเป็น x4 และ x8 ได้อย่างมีประสิทธิภาพ อุปกรณ์ทั้งสองรุ่นรองรับการเชื่อมต่อโดยตรงกับอุปกรณ์ PCIe ได้ 8 ตัว หรือเชื่อมต่อ NVMe SSD ได้สูงสุด 32 ตัวผ่าน backplane ที่รองรับมาตรฐาน UBM โดยใช้คอนเนกเตอร์แบบ MCIO (Rocket 1628A) และ SlimSAS (Rocket 1528D) นอกจากนี้ยังรองรับการใช้งานกับ GPU, NIC, capture card และ storage controller ได้อีกด้วย เหมาะกับงานใน data center, edge computing, AI/ML, automation และ workstation ขนาดเล็ก อะแดปเตอร์ทั้งสองรุ่นมีฟีเจอร์ plug-and-play, LED diagnostic, hot-swap และรองรับทั้งแพลตฟอร์ม x86 และ ARM โดย Rocket 1628A วางจำหน่ายแล้วในราคา $1,499 ส่วน Rocket 1528D ราคา $699 ‼️ อะแดปเตอร์เหล่านี้ออกแบบมาสำหรับงานระดับองค์กร ⛔ ไม่รองรับ SSD แบบ M.2 ที่ใช้กันทั่วไปในคอมพิวเตอร์ส่วนบุคคล ‼️ ต้องใช้ backplane ที่รองรับมาตรฐาน UBM เพื่อเชื่อมต่อ NVMe 32 ตัว ⛔ หากไม่มี backplane ที่เหมาะสม จะไม่สามารถใช้ฟีเจอร์เต็มรูปแบบได้ ‼️ การใช้งานอุปกรณ์ PCIe จำนวนมากต้องมีระบบระบายความร้อนที่ดี ⛔ หากไม่จัดการความร้อนอย่างเหมาะสม อาจเกิดปัญหาด้านเสถียรภาพ ‼️ ราคาสูงเมื่อเทียบกับอะแดปเตอร์ทั่วไป ⛔ อาจไม่คุ้มค่าสำหรับผู้ใช้ทั่วไปหรือองค์กรขนาดเล็ก https://www.tomshardware.com/pc-components/storage/new-adapters-offer-substantial-industrial-pcie-expansion-highpoints-rocket-1628a-and-1528d-support-deploying-up-to-32-nvme-drives-and-8-pcie-devices-in-a-single-slot
    0 ความคิดเห็น 0 การแบ่งปัน 284 มุมมอง 0 รีวิว
Pages Boosts