• “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก”

    Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ

    การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore

    TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด

    บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ

    จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS
    ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ
    ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป
    รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง
    ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer

    บริบทของตลาดเซมิคอนดักเตอร์อินเดีย
    มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030
    รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore
    อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก
    บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย

    ข้อมูลเสริมจากภายนอก
    แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม
    UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ
    HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง
    TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้

    คำเตือนและข้อจำกัด
    การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน
    การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้
    มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต
    บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่
    การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด

    https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    🔧 “TCS เปิดตัวบริการออกแบบระบบด้วยชิปเลต — อินเดียเร่งเครื่องสู่ศูนย์กลางเซมิคอนดักเตอร์โลก” Tata Consultancy Services (TCS) บริษัทไอทีระดับโลกจากอินเดีย ประกาศเปิดตัวบริการใหม่ “Chiplet-Based System Engineering Services” เพื่อช่วยผู้ผลิตเซมิคอนดักเตอร์ออกแบบชิปยุคใหม่ที่มีประสิทธิภาพสูงขึ้น ต้นทุนต่ำลง และพร้อมตอบโจทย์ตลาดที่เปลี่ยนแปลงอย่างรวดเร็ว โดยใช้แนวคิด “ชิปเลต” ซึ่งเป็นวงจรขนาดเล็กที่สามารถประกอบรวมกันเป็นชิปขนาดใหญ่ได้ตามความต้องการ การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่อินเดียกำลังเร่งพัฒนาอุตสาหกรรมเซมิคอนดักเตอร์อย่างจริงจัง โดยมีมูลค่าตลาดอยู่ที่ 45–50 พันล้านดอลลาร์ในปี 2024–2025 และคาดว่าจะเพิ่มขึ้นเป็น 100–110 พันล้านดอลลาร์ภายในปี 2030 ภายใต้การสนับสนุนจากรัฐบาลผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore TCS ให้บริการออกแบบและตรวจสอบตามมาตรฐานอุตสาหกรรม เช่น UCIe (Universal Chiplet Interconnect Express) และ HBM (High Bandwidth Memory) รวมถึงการออกแบบแพ็กเกจขั้นสูงแบบ 2.5D และ 3D interposer ซึ่งช่วยให้สามารถรวมชิปหลายตัวเข้าด้วยกันได้อย่างมีประสิทธิภาพ ทั้งในด้านความเร็ว ความเสถียร และขนาดที่กะทัดรัด บริการใหม่นี้ยังช่วยให้บริษัทสามารถเร่ง tape-out หรือการส่งแบบชิปเข้าสู่กระบวนการผลิตได้เร็วขึ้น ซึ่งเป็นปัจจัยสำคัญในการแข่งขันในตลาดที่ขับเคลื่อนด้วย AI, คลาวด์, สมาร์ตโฟน, รถยนต์ไฟฟ้า และอุปกรณ์เชื่อมต่อ ✅ จุดเด่นของบริการ Chiplet-Based System Engineering จาก TCS ➡️ ใช้แนวคิด “ชิปเลต” เพื่อออกแบบชิปที่ยืดหยุ่นและปรับแต่งได้ตามความต้องการ ➡️ ช่วยเร่ง tape-out และลดต้นทุนการผลิตชิป ➡️ รองรับมาตรฐาน UCIe และ HBM สำหรับการเชื่อมต่อและหน่วยความจำความเร็วสูง ➡️ ให้บริการออกแบบแพ็กเกจขั้นสูง เช่น 2.5D และ 3D interposer ✅ บริบทของตลาดเซมิคอนดักเตอร์อินเดีย ➡️ มูลค่าตลาดปี 2024–2025 อยู่ที่ $45–50 พันล้าน และคาดว่าจะเพิ่มเป็น $100–110 พันล้านในปี 2030 ➡️ รัฐบาลสนับสนุนผ่านโครงการ India Semiconductor Mission มูลค่า ₹76,000 crore ➡️ อินเดียมีวิศวกรออกแบบชิปคิดเป็น 20% ของโลก ➡️ บริษัทต่างชาติเริ่มลงทุนตั้งโรงงานประกอบและออกแบบในอินเดีย ✅ ข้อมูลเสริมจากภายนอก ➡️ แนวคิด chiplet-based design กำลังแทนที่การลดขนาดทรานซิสเตอร์แบบเดิม ➡️ UCIe เป็นมาตรฐานเปิดที่ช่วยให้ชิปหลายตัวสื่อสารกันได้อย่างมีประสิทธิภาพ ➡️ HBM เป็นหน่วยความจำที่ใช้ใน GPU และ AI accelerator ที่ต้องการความเร็วสูง ➡️ TCS เคยร่วมมือกับบริษัทในอเมริกาเหนือเพื่อเร่งการผลิต AI processor ด้วยแนวทางนี้ ‼️ คำเตือนและข้อจำกัด ⛔ การออกแบบด้วยชิปเลตยังมีความซับซ้อนด้านการจัดการสัญญาณและความร้อน ⛔ การรวมชิปต่างชนิดอาจเกิดปัญหาเรื่อง latency และความเข้ากันได้ ⛔ มาตรฐาน UCIe ยังอยู่ระหว่างการพัฒนา — อาจมีการเปลี่ยนแปลงในอนาคต ⛔ บริษัทที่ไม่มีความเชี่ยวชาญด้านแพ็กเกจขั้นสูงอาจไม่สามารถใช้ประโยชน์ได้เต็มที่ ⛔ การแข่งขันในตลาดเซมิคอนดักเตอร์ยังสูงมาก — ต้องมีนวัตกรรมต่อเนื่องเพื่ออยู่รอด https://www.techpowerup.com/340896/tcs-unveils-chiplet-based-system-engineering-services-to-accelerate-semiconductor-innovation
    WWW.TECHPOWERUP.COM
    TCS Unveils Chiplet-Based System Engineering Services to Accelerate Semiconductor Innovation
    Tata Consultancy Services a global leader in IT services, consulting, and business solutions, announced the launch of its Chiplet-based System Engineering Services, designed to help semiconductor companies push the boundaries of traditional chip design. By using chiplets (which are small integrated ...
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง”

    Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง

    Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023

    แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย

    เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี

    ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun
    เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI
    วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี
    เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก
    ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง

    สถานการณ์ด้านฮาร์ดแวร์และการส่งออก
    สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023
    Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ
    จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี
    รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ

    ข้อมูลเสริมจากภายนอก
    Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning
    GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ
    ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต
    DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    🇨🇳 “จีนควรเลิกใช้ GPU จากสหรัฐฯ — ผู้เชี่ยวชาญเตือนโมเดลพัฒนา AI ปัจจุบันอาจ ‘อันตรายถึงชีวิต’ หากไม่เปลี่ยนแนวทาง” Wei Shaojun รองประธานสมาคมอุตสาหกรรมเซมิคอนดักเตอร์จีน และที่ปรึกษาระดับสูงของรัฐบาลจีน ได้ออกมาเรียกร้องให้จีนและประเทศในเอเชียหยุดพึ่งพา GPU จาก Nvidia และ AMD ในการพัฒนา AI โดยเฉพาะการฝึกโมเดลภาษาใหญ่ (LLM) เช่น ChatGPT และ DeepSeek ซึ่งเขาเห็นว่าเป็นการเลียนแบบแนวทางของสหรัฐฯ ที่อาจนำไปสู่ความเสี่ยงระยะยาวทั้งด้านเทคโนโลยีและความมั่นคง Wei กล่าวในเวทีที่สิงคโปร์ว่า โมเดลการพัฒนา AI แบบอิง GPU นั้น “อาจถึงขั้นอันตราย” หากไม่เปลี่ยนแนวทาง เพราะมันทำให้ประเทศในเอเชียขาดอำนาจในการควบคุมโครงสร้างพื้นฐานของตนเอง และติดกับดักการพึ่งพาเทคโนโลยีจากต่างชาติ โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงไปยังจีนตั้งแต่ปี 2023 แม้จีนจะยังตามหลังสหรัฐฯ และไต้หวันในด้านการผลิตเซมิคอนดักเตอร์ แต่ Wei ยกตัวอย่าง DeepSeek ซึ่งสามารถพัฒนาโมเดล AI ที่แข่งขันกับ OpenAI ได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูงเป็นหลักฐานว่า “อัลกอริธึมที่ดี” สำคัญกว่าฮาร์ดแวร์ล้ำสมัย เขาเสนอให้จีนพัฒนาโปรเซสเซอร์เฉพาะทางสำหรับการฝึกโมเดล AI แทนการใช้ GPU ที่เดิมออกแบบมาเพื่อกราฟิก พร้อมย้ำว่าจีนมีเงินทุนและความมุ่งมั่นเพียงพอที่จะสร้างระบบนิเวศด้านเซมิคอนดักเตอร์ของตนเอง แม้จะเผชิญแรงกดดันจากการควบคุมการส่งออกของสหรัฐฯ มาหลายปี ✅ ข้อมูลสำคัญจากคำแถลงของ Wei Shaojun ➡️ เรียกร้องให้จีนและเอเชียหยุดใช้ GPU จาก Nvidia และ AMD ในการพัฒนา AI ➡️ วิจารณ์ว่าการเลียนแบบแนวทางสหรัฐฯ ทำให้ขาดอำนาจควบคุมเทคโนโลยี ➡️ เสนอให้พัฒนาโปรเซสเซอร์เฉพาะทางสำหรับ LLM แทน GPU ที่ออกแบบเพื่อกราฟิก ➡️ ยกตัวอย่าง DeepSeek เป็นหลักฐานว่าจีนสามารถพัฒนาอัลกอริธึมได้โดยไม่ต้องใช้ฮาร์ดแวร์ระดับสูง ✅ สถานการณ์ด้านฮาร์ดแวร์และการส่งออก ➡️ สหรัฐฯ จำกัดการส่งออกชิป AI และ HPC ไปยังจีนตั้งแต่ปี 2023 ➡️ Nvidia H20 ถูกลดสเปกเพื่อให้ผ่านข้อจำกัด แต่จีนยังไม่ไว้วางใจ ➡️ จีนมีความคืบหน้าในการผลิตชิป แต่ยังตามหลังสหรัฐฯ และไต้หวันหลายปี ➡️ รัฐบาลจีนผลักดันให้บริษัทในประเทศหลีกเลี่ยงการใช้ GPU จากสหรัฐฯ ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia ครองตลาด AI ด้วย CUDA และ Tensor Core ที่ออกแบบมาเพื่อ deep learning ➡️ GPU ของ Nvidia กลายเป็นมาตรฐานในวงการ AI เพราะประสิทธิภาพสูงและ ecosystem ครบ ➡️ ASIC เฉพาะทางสำหรับ AI ยังไม่แพร่หลาย แต่มีแนวโน้มเติบโตในอนาคต ➡️ DeepSeek และ Meituan เป็นตัวอย่างของบริษัทจีนที่พัฒนาโมเดล AI โดยเน้นอัลกอริธึมมากกว่าฮาร์ดแวร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/top-china-silicon-figure-calls-on-country-to-stop-using-nvidia-gpus-for-ai-says-current-ai-development-model-could-become-lethal-if-not-addressed
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ”

    จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ

    แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน

    แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ

    นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป

    ความคืบหน้าการผลิตชิป AI ในจีน
    Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026
    SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class
    Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B
    SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027

    ปัญหาด้านหน่วยความจำ HBM
    Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน
    คาดว่า HBM จะหมดภายในสิ้นปี 2025
    CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป
    YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM

    การลงทุนและแผนระยะยาว
    Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง
    ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน
    หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ
    เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้
    CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน
    Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI
    จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    🇨🇳 “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ” จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป ✅ ความคืบหน้าการผลิตชิป AI ในจีน ➡️ Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026 ➡️ SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class ➡️ Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B ➡️ SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027 ✅ ปัญหาด้านหน่วยความจำ HBM ➡️ Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน ➡️ คาดว่า HBM จะหมดภายในสิ้นปี 2025 ➡️ CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป ➡️ YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM ✅ การลงทุนและแผนระยะยาว ➡️ Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง ➡️ ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน ➡️ หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ ➡️ เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้ ➡️ CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน ➡️ Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI ➡️ จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    0 ความคิดเห็น 0 การแบ่งปัน 116 มุมมอง 0 รีวิว
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • “Apple เปิดตัว Memory Integrity Enforcement บน iPhone 17 — ป้องกันมัลแวร์ระดับรัฐด้วยระบบความปลอดภัยหน่วยความจำที่ไม่เคยมีมาก่อน”

    Apple ประกาศเปิดตัวฟีเจอร์ใหม่ชื่อว่า Memory Integrity Enforcement (MIE) บน iPhone 17 และ iPhone Air ซึ่งถือเป็นการอัปเกรดด้านความปลอดภัยของหน่วยความจำครั้งใหญ่ที่สุดในประวัติศาสตร์ระบบปฏิบัติการสำหรับผู้บริโภค โดยใช้เวลาพัฒนานานกว่า 5 ปี และผสานการทำงานระหว่างฮาร์ดแวร์ Apple Silicon กับระบบปฏิบัติการ iOS อย่างลึกซึ้ง

    เป้าหมายของ MIE คือการป้องกันการโจมตีจากมัลแวร์ระดับสูง โดยเฉพาะ “mercenary spyware” เช่น Pegasus ที่มักถูกใช้โดยรัฐหรือองค์กรเพื่อเจาะระบบของบุคคลเป้าหมาย เช่น นักข่าว นักสิทธิมนุษยชน หรือเจ้าหน้าที่ระดับสูง ซึ่งการโจมตีเหล่านี้มักใช้ช่องโหว่ด้าน memory corruption เป็นหลัก

    หัวใจของ MIE คือการใช้ Enhanced Memory Tagging Extension (EMTE) ซึ่งเป็นการพัฒนาร่วมกับ Arm โดยทุกบล็อกหน่วยความจำจะถูกติด “แท็กลับ” และฮาร์ดแวร์จะตรวจสอบว่าโปรแกรมที่เข้าถึงหน่วยความจำนั้นมีแท็กตรงกันหรือไม่ ถ้าไม่ตรง ระบบจะบล็อกทันทีและปิดโปรเซส — ทำให้การโจมตีแบบ buffer overflow และ use-after-free แทบเป็นไปไม่ได้

    Apple ยังเสริมระบบด้วย Tag Confidentiality Enforcement เพื่อป้องกันการเจาะแท็กผ่าน side-channel และ speculative execution เช่น Spectre V1 โดยใช้เทคนิคใหม่ที่ลดผลกระทบต่อประสิทธิภาพแทบเป็นศูนย์

    นอกจากฮาร์ดแวร์ A19 และ A19 Pro ที่รองรับ MIE แล้ว Apple ยังเปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Xcode เพื่อทดสอบแอปของตนภายใต้ระบบความปลอดภัยใหม่นี้ โดยครอบคลุมมากกว่า 70 โปรเซสในระดับผู้ใช้และเคอร์เนล

    ฟีเจอร์ Memory Integrity Enforcement (MIE)
    ป้องกันช่องโหว่ memory corruption เช่น buffer overflow และ use-after-free
    ใช้ Enhanced Memory Tagging Extension (EMTE) แบบ synchronous
    ทุกบล็อกหน่วยความจำมีแท็กลับที่ต้องตรงกันก่อนเข้าถึง
    ระบบจะบล็อกทันทีหากแท็กไม่ตรง และปิดโปรเซสเพื่อความปลอดภัย

    การออกแบบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์
    ใช้ Apple Silicon A19 และ A19 Pro ที่มีพื้นที่เฉพาะสำหรับ MIE
    ผสานกับ secure memory allocators เช่น kalloc_type, xzone malloc และ libpas
    ป้องกันการโจมตีภายใน bucket หน่วยความจำที่ software ปกติป้องกันไม่ได้
    ลด overhead ของการตรวจสอบแท็กให้เหลือน้อยที่สุด

    การป้องกันขั้นสูง
    ใช้ Tag Confidentiality Enforcement ป้องกันการเจาะแท็กผ่าน side-channel
    มี mitigation สำหรับ Spectre V1 ที่แทบไม่มีผลต่อ CPU
    ป้องกันการเข้าถึงหน่วยความจำที่ไม่มีแท็ก เช่น global variables
    ใช้ Secure Page Table Monitor เพื่อป้องกันการเจาะเคอร์เนล

    การใช้งานจริงและผลการทดสอบ
    ทดสอบกับ exploit chains จริงจากมัลแวร์ระดับรัฐในช่วง 3 ปีที่ผ่านมา
    พบว่า MIE ตัดขาดขั้นตอนสำคัญของการโจมตี ทำให้ไม่สามารถสร้าง chain ใหม่ได้
    ระบบสามารถป้องกันได้ตั้งแต่ขั้นตอนแรกของการโจมตี
    เปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Enhanced Security ใน Xcode

    ข้อมูลเสริมจากภายนอก
    Google เริ่มใช้ MTE ใน Pixel 8 แต่ยังไม่ใช่แบบ always-on และไม่ผสาน OS ลึกเท่า Apple
    Microsoft มีระบบคล้ายกันใน Windows 11 แต่ยังไม่ครอบคลุมระดับเคอร์เนล
    Apple เป็นรายแรกที่ใช้ PAC ใน A12 และพัฒนา EMTE ต่อเนื่อง
    MIE ครอบคลุมมากกว่า 70 โปรเซสใน iOS 26 และ iPhone 17

    https://security.apple.com/blog/memory-integrity-enforcement/
    🛡️ “Apple เปิดตัว Memory Integrity Enforcement บน iPhone 17 — ป้องกันมัลแวร์ระดับรัฐด้วยระบบความปลอดภัยหน่วยความจำที่ไม่เคยมีมาก่อน” Apple ประกาศเปิดตัวฟีเจอร์ใหม่ชื่อว่า Memory Integrity Enforcement (MIE) บน iPhone 17 และ iPhone Air ซึ่งถือเป็นการอัปเกรดด้านความปลอดภัยของหน่วยความจำครั้งใหญ่ที่สุดในประวัติศาสตร์ระบบปฏิบัติการสำหรับผู้บริโภค โดยใช้เวลาพัฒนานานกว่า 5 ปี และผสานการทำงานระหว่างฮาร์ดแวร์ Apple Silicon กับระบบปฏิบัติการ iOS อย่างลึกซึ้ง เป้าหมายของ MIE คือการป้องกันการโจมตีจากมัลแวร์ระดับสูง โดยเฉพาะ “mercenary spyware” เช่น Pegasus ที่มักถูกใช้โดยรัฐหรือองค์กรเพื่อเจาะระบบของบุคคลเป้าหมาย เช่น นักข่าว นักสิทธิมนุษยชน หรือเจ้าหน้าที่ระดับสูง ซึ่งการโจมตีเหล่านี้มักใช้ช่องโหว่ด้าน memory corruption เป็นหลัก หัวใจของ MIE คือการใช้ Enhanced Memory Tagging Extension (EMTE) ซึ่งเป็นการพัฒนาร่วมกับ Arm โดยทุกบล็อกหน่วยความจำจะถูกติด “แท็กลับ” และฮาร์ดแวร์จะตรวจสอบว่าโปรแกรมที่เข้าถึงหน่วยความจำนั้นมีแท็กตรงกันหรือไม่ ถ้าไม่ตรง ระบบจะบล็อกทันทีและปิดโปรเซส — ทำให้การโจมตีแบบ buffer overflow และ use-after-free แทบเป็นไปไม่ได้ Apple ยังเสริมระบบด้วย Tag Confidentiality Enforcement เพื่อป้องกันการเจาะแท็กผ่าน side-channel และ speculative execution เช่น Spectre V1 โดยใช้เทคนิคใหม่ที่ลดผลกระทบต่อประสิทธิภาพแทบเป็นศูนย์ นอกจากฮาร์ดแวร์ A19 และ A19 Pro ที่รองรับ MIE แล้ว Apple ยังเปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Xcode เพื่อทดสอบแอปของตนภายใต้ระบบความปลอดภัยใหม่นี้ โดยครอบคลุมมากกว่า 70 โปรเซสในระดับผู้ใช้และเคอร์เนล ✅ ฟีเจอร์ Memory Integrity Enforcement (MIE) ➡️ ป้องกันช่องโหว่ memory corruption เช่น buffer overflow และ use-after-free ➡️ ใช้ Enhanced Memory Tagging Extension (EMTE) แบบ synchronous ➡️ ทุกบล็อกหน่วยความจำมีแท็กลับที่ต้องตรงกันก่อนเข้าถึง ➡️ ระบบจะบล็อกทันทีหากแท็กไม่ตรง และปิดโปรเซสเพื่อความปลอดภัย ✅ การออกแบบร่วมระหว่างฮาร์ดแวร์และซอฟต์แวร์ ➡️ ใช้ Apple Silicon A19 และ A19 Pro ที่มีพื้นที่เฉพาะสำหรับ MIE ➡️ ผสานกับ secure memory allocators เช่น kalloc_type, xzone malloc และ libpas ➡️ ป้องกันการโจมตีภายใน bucket หน่วยความจำที่ software ปกติป้องกันไม่ได้ ➡️ ลด overhead ของการตรวจสอบแท็กให้เหลือน้อยที่สุด ✅ การป้องกันขั้นสูง ➡️ ใช้ Tag Confidentiality Enforcement ป้องกันการเจาะแท็กผ่าน side-channel ➡️ มี mitigation สำหรับ Spectre V1 ที่แทบไม่มีผลต่อ CPU ➡️ ป้องกันการเข้าถึงหน่วยความจำที่ไม่มีแท็ก เช่น global variables ➡️ ใช้ Secure Page Table Monitor เพื่อป้องกันการเจาะเคอร์เนล ✅ การใช้งานจริงและผลการทดสอบ ➡️ ทดสอบกับ exploit chains จริงจากมัลแวร์ระดับรัฐในช่วง 3 ปีที่ผ่านมา ➡️ พบว่า MIE ตัดขาดขั้นตอนสำคัญของการโจมตี ทำให้ไม่สามารถสร้าง chain ใหม่ได้ ➡️ ระบบสามารถป้องกันได้ตั้งแต่ขั้นตอนแรกของการโจมตี ➡️ เปิดให้ผู้พัฒนาใช้งาน EMTE ผ่าน Enhanced Security ใน Xcode ✅ ข้อมูลเสริมจากภายนอก ➡️ Google เริ่มใช้ MTE ใน Pixel 8 แต่ยังไม่ใช่แบบ always-on และไม่ผสาน OS ลึกเท่า Apple ➡️ Microsoft มีระบบคล้ายกันใน Windows 11 แต่ยังไม่ครอบคลุมระดับเคอร์เนล ➡️ Apple เป็นรายแรกที่ใช้ PAC ใน A12 และพัฒนา EMTE ต่อเนื่อง ➡️ MIE ครอบคลุมมากกว่า 70 โปรเซสใน iOS 26 และ iPhone 17 https://security.apple.com/blog/memory-integrity-enforcement/
    SECURITY.APPLE.COM
    Memory Integrity Enforcement: A complete vision for memory safety in Apple devices - Apple Security Research
    Memory Integrity Enforcement (MIE) is the culmination of an unprecedented design and engineering effort spanning half a decade that combines the unique strengths of Apple silicon hardware with our advanced operating system security to provide industry-first, always-on memory safety protection across our devices — without compromising our best-in-class device performance. We believe Memory Integrity Enforcement represents the most significant upgrade to memory safety in the history of consumer operating systems.
    0 ความคิดเห็น 0 การแบ่งปัน 123 มุมมอง 0 รีวิว
  • “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!”

    Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง

    ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device

    A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า

    iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป

    นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ

    ชิป A19 และ A19 Pro
    A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX
    A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core
    ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core
    ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro

    ระบบระบายความร้อนใหม่
    ใช้ vapor chamber filled with deionized water
    โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า
    ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง

    ชิปเชื่อมต่อ N1 และโมเด็ม C1X
    N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread
    เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot
    C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave
    iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ

    การใช้งาน AI บนอุปกรณ์
    Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น
    รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ
    iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ

    ราคาและการวางจำหน่าย
    iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999
    iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199
    เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน
    รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB

    https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    📱 “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!” Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ ✅ ชิป A19 และ A19 Pro ➡️ A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX ➡️ A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core ➡️ ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core ➡️ ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro ✅ ระบบระบายความร้อนใหม่ ➡️ ใช้ vapor chamber filled with deionized water ➡️ โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า ➡️ ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง ✅ ชิปเชื่อมต่อ N1 และโมเด็ม C1X ➡️ N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread ➡️ เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot ➡️ C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave ➡️ iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ ✅ การใช้งาน AI บนอุปกรณ์ ➡️ Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น ➡️ รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ ➡️ iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ ✅ ราคาและการวางจำหน่าย ➡️ iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999 ➡️ iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199 ➡️ เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน ➡️ รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • “Mistral AI ระดมทุน 1.7 พันล้านยูโร! ASML เข้าร่วมเป็นผู้ถือหุ้นหลัก พร้อมดันยุโรปสู่เวที AI ระดับโลก”

    ถ้าคุณเคยคิดว่าโลก AI ถูกครอบงำโดยบริษัทจากสหรัฐฯ อย่าง OpenAI หรือ Google — ตอนนี้ยุโรปเริ่มตอบโต้แล้วอย่างจริงจัง เมื่อ Mistral AI สตาร์ทอัพจากฝรั่งเศสประกาศระดมทุนรอบ Series C มูลค่า 1.7 พันล้านยูโร พร้อมการเข้าร่วมลงทุนจาก ASML บริษัทผู้ผลิตอุปกรณ์เซมิคอนดักเตอร์รายใหญ่ของโลก

    ASML ลงทุนถึง 1.3 พันล้านยูโรในรอบนี้ และได้ถือหุ้น 11% ใน Mistral AI พร้อมที่นั่งในคณะกรรมการกลยุทธ์ของบริษัท ความร่วมมือนี้ไม่ใช่แค่เรื่องเงิน แต่เป็นการจับมือกันระหว่างผู้นำด้านฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างโซลูชัน AI ที่ตอบโจทย์อุตสาหกรรมเซมิคอนดักเตอร์โดยตรง

    Mistral AI มีเป้าหมายในการพัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI) ที่สามารถแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน เช่น การเพิ่มประสิทธิภาพการผลิตชิป, การวิเคราะห์ข้อมูลในโรงงาน, และการออกแบบระบบอัตโนมัติขั้นสูง

    การลงทุนครั้งนี้ทำให้ Mistral มีมูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป และเป็นคู่แข่งโดยตรงกับบริษัทจากสหรัฐฯ และจีนในสนามของ Generative AI

    นอกจาก ASML ยังมีนักลงทุนรายใหญ่อื่นๆ เข้าร่วม เช่น NVIDIA, Andreessen Horowitz, DST Global, Bpifrance และ Lightspeed ซึ่งสะท้อนถึงความเชื่อมั่นในศักยภาพของ Mistral ที่จะเป็นผู้นำด้าน AI แบบเปิด (open-source) และมีความเป็นอิสระจาก Silicon Valley

    การระดมทุนรอบ Series C ของ Mistral AI
    ระดมทุนได้ 1.7 พันล้านยูโร
    มูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร
    กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป

    การลงทุนจาก ASML
    ASML ลงทุน 1.3 พันล้านยูโร และถือหุ้น 11%
    ได้ที่นั่งในคณะกรรมการกลยุทธ์ของ Mistral AI
    ร่วมมือเพื่อพัฒนาโซลูชัน AI สำหรับอุตสาหกรรมเซมิคอนดักเตอร์
    ตั้งเป้าใช้ AI เพื่อเพิ่มประสิทธิภาพการผลิตและการออกแบบชิป

    เป้าหมายของ Mistral AI
    พัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI)
    เน้นการแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน
    สร้างโครงสร้างพื้นฐาน compute ที่มีประสิทธิภาพสูง
    ส่งมอบโซลูชัน AI แบบปรับแต่งเฉพาะสำหรับองค์กร

    นักลงทุนรายอื่นที่เข้าร่วม
    NVIDIA, DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed
    สะท้อนความเชื่อมั่นในแนวทาง open-source และความเป็นอิสระของ Mistral
    สนับสนุนการขยายตัวของ AI ยุโรปให้แข่งขันกับสหรัฐฯ และจีน

    ข้อมูลเสริมจากภายนอก
    Mistral เคยระดมทุน Seed มูลค่า $112 ล้านในปี 2023 — ใหญ่ที่สุดในยุโรป
    เปิดตัว Le Chat ในปี 2024 และมีผู้ใช้งานทะลุ 1 ล้านใน 2 สัปดาห์
    ล่าสุดเพิ่มฟีเจอร์ Memories และโหมดวิจัยลึกใน Le Chat
    เป้าหมายคือสร้าง AI ที่เข้าใจหลายภาษาและทำงานได้หลากหลายบริบท

    https://mistral.ai/news/mistral-ai-raises-1-7-b-to-accelerate-technological-progress-with-ai
    🚀 “Mistral AI ระดมทุน 1.7 พันล้านยูโร! ASML เข้าร่วมเป็นผู้ถือหุ้นหลัก พร้อมดันยุโรปสู่เวที AI ระดับโลก” ถ้าคุณเคยคิดว่าโลก AI ถูกครอบงำโดยบริษัทจากสหรัฐฯ อย่าง OpenAI หรือ Google — ตอนนี้ยุโรปเริ่มตอบโต้แล้วอย่างจริงจัง เมื่อ Mistral AI สตาร์ทอัพจากฝรั่งเศสประกาศระดมทุนรอบ Series C มูลค่า 1.7 พันล้านยูโร พร้อมการเข้าร่วมลงทุนจาก ASML บริษัทผู้ผลิตอุปกรณ์เซมิคอนดักเตอร์รายใหญ่ของโลก ASML ลงทุนถึง 1.3 พันล้านยูโรในรอบนี้ และได้ถือหุ้น 11% ใน Mistral AI พร้อมที่นั่งในคณะกรรมการกลยุทธ์ของบริษัท ความร่วมมือนี้ไม่ใช่แค่เรื่องเงิน แต่เป็นการจับมือกันระหว่างผู้นำด้านฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างโซลูชัน AI ที่ตอบโจทย์อุตสาหกรรมเซมิคอนดักเตอร์โดยตรง Mistral AI มีเป้าหมายในการพัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI) ที่สามารถแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน เช่น การเพิ่มประสิทธิภาพการผลิตชิป, การวิเคราะห์ข้อมูลในโรงงาน, และการออกแบบระบบอัตโนมัติขั้นสูง การลงทุนครั้งนี้ทำให้ Mistral มีมูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป และเป็นคู่แข่งโดยตรงกับบริษัทจากสหรัฐฯ และจีนในสนามของ Generative AI นอกจาก ASML ยังมีนักลงทุนรายใหญ่อื่นๆ เข้าร่วม เช่น NVIDIA, Andreessen Horowitz, DST Global, Bpifrance และ Lightspeed ซึ่งสะท้อนถึงความเชื่อมั่นในศักยภาพของ Mistral ที่จะเป็นผู้นำด้าน AI แบบเปิด (open-source) และมีความเป็นอิสระจาก Silicon Valley ✅ การระดมทุนรอบ Series C ของ Mistral AI ➡️ ระดมทุนได้ 1.7 พันล้านยูโร ➡️ มูลค่าบริษัทหลังการระดมทุนอยู่ที่ 11.7 พันล้านยูโร ➡️ กลายเป็นสตาร์ทอัพ AI ที่มีมูลค่าสูงที่สุดในยุโรป ✅ การลงทุนจาก ASML ➡️ ASML ลงทุน 1.3 พันล้านยูโร และถือหุ้น 11% ➡️ ได้ที่นั่งในคณะกรรมการกลยุทธ์ของ Mistral AI ➡️ ร่วมมือเพื่อพัฒนาโซลูชัน AI สำหรับอุตสาหกรรมเซมิคอนดักเตอร์ ➡️ ตั้งเป้าใช้ AI เพื่อเพิ่มประสิทธิภาพการผลิตและการออกแบบชิป ✅ เป้าหมายของ Mistral AI ➡️ พัฒนาโมเดล AI แบบกระจายศูนย์ (decentralized frontier AI) ➡️ เน้นการแก้ปัญหาทางวิศวกรรมและอุตสาหกรรมที่ซับซ้อน ➡️ สร้างโครงสร้างพื้นฐาน compute ที่มีประสิทธิภาพสูง ➡️ ส่งมอบโซลูชัน AI แบบปรับแต่งเฉพาะสำหรับองค์กร ✅ นักลงทุนรายอื่นที่เข้าร่วม ➡️ NVIDIA, DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed ➡️ สะท้อนความเชื่อมั่นในแนวทาง open-source และความเป็นอิสระของ Mistral ➡️ สนับสนุนการขยายตัวของ AI ยุโรปให้แข่งขันกับสหรัฐฯ และจีน ✅ ข้อมูลเสริมจากภายนอก ➡️ Mistral เคยระดมทุน Seed มูลค่า $112 ล้านในปี 2023 — ใหญ่ที่สุดในยุโรป ➡️ เปิดตัว Le Chat ในปี 2024 และมีผู้ใช้งานทะลุ 1 ล้านใน 2 สัปดาห์ ➡️ ล่าสุดเพิ่มฟีเจอร์ Memories และโหมดวิจัยลึกใน Le Chat ➡️ เป้าหมายคือสร้าง AI ที่เข้าใจหลายภาษาและทำงานได้หลากหลายบริบท https://mistral.ai/news/mistral-ai-raises-1-7-b-to-accelerate-technological-progress-with-ai
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!”

    ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด

    SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center

    X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ

    ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน

    SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด

    การเปิดตัว IP ใหม่ของ SiFive
    เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM
    X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT
    X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน
    รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว

    จุดเด่นด้านเทคโนโลยี
    XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่
    Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar
    รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions
    มี memory subsystem ที่ลด latency และเพิ่ม throughput

    การใช้งานในโลกจริง
    X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ
    X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s
    ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก
    ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor

    ข้อมูลเสริมจากภายนอก
    Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้
    SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ
    IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026
    SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara

    คำเตือนสำหรับผู้พัฒนาและองค์กร
    IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์
    การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ
    การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX
    หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่
    การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน

    https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    🧠 “SiFive เปิดตัว RISC-V Gen 2 IP — ชิปใหม่ที่รวมพลัง Scalar, Vector และ Matrix เพื่อเร่ง AI ตั้งแต่ IoT จนถึง Data Center!” ลองนึกภาพว่าคุณกำลังพัฒนาอุปกรณ์ IoT ที่ต้องการประมวลผล AI แบบเรียลไทม์ หรือคุณเป็นผู้ดูแลระบบในศูนย์ข้อมูลที่ต้องรันโมเดล LLM ขนาดมหึมา — ตอนนี้ SiFive ได้เปิดตัวชุด IP ใหม่ที่อาจเปลี่ยนเกมทั้งหมด ด้วยการรวมพลังการประมวลผลแบบ scalar, vector และ matrix เข้าไว้ในสถาปัตยกรรม RISC-V รุ่นล่าสุด SiFive เปิดตัว “2nd Generation Intelligence IP” ซึ่งประกอบด้วย 5 ผลิตภัณฑ์ ได้แก่ X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 และ XM Gen 2 โดย X160 และ X180 เป็นรุ่นใหม่ทั้งหมด ส่วนอีกสามรุ่นเป็นการอัปเกรดจากเวอร์ชันก่อนหน้า จุดเด่นคือการรองรับการประมวลผลแบบเวกเตอร์และเมทริกซ์ที่เหมาะกับงาน AI ทุกระดับ ตั้งแต่ edge computing ไปจนถึง data center X160 และ X180 ถูกออกแบบมาเพื่ออุปกรณ์ฝังตัวที่มีข้อจำกัดด้านพลังงานและพื้นที่ เช่น รถยนต์อัตโนมัติ หุ่นยนต์อุตสาหกรรม และระบบ IoT อัจฉริยะ ส่วน XM Gen 2 มาพร้อม matrix engine ที่ปรับขนาดได้ เหมาะกับงาน inference โมเดลขนาดใหญ่ เช่น LLM และ AI ด้านภาพ ทุก IP ในซีรีส์นี้สามารถทำหน้าที่เป็น Accelerator Control Unit (ACU) เพื่อควบคุม accelerator ภายนอกผ่านอินเทอร์เฟซ SSCI และ VCIX ซึ่งช่วยลดภาระของซอฟต์แวร์และเพิ่มประสิทธิภาพการประมวลผลแบบขนาน SiFive ยังชี้ว่า vector engine มีข้อได้เปรียบเหนือ CPU แบบ scalar โดยสามารถประมวลผลข้อมูลหลายชุดพร้อมกัน ลด overhead และใช้พลังงานน้อยลง — เหมาะกับงาน AI ที่ต้องการความเร็วและประสิทธิภาพในพื้นที่จำกัด ✅ การเปิดตัว IP ใหม่ของ SiFive ➡️ เปิดตัว 5 ผลิตภัณฑ์ในซีรีส์ Gen 2: X160, X180, X280, X390 และ XM ➡️ X160 และ X180 เป็นรุ่นใหม่สำหรับ edge และ IoT ➡️ X280, X390 และ XM เป็นรุ่นอัปเกรดจากเวอร์ชันก่อน ➡️ รองรับ scalar, vector และ matrix compute ในสถาปัตยกรรมเดียว ✅ จุดเด่นด้านเทคโนโลยี ➡️ XM Gen 2 มี matrix engine ที่ปรับขนาดได้ รองรับงาน AI ขนาดใหญ่ ➡️ Vector engine ลด overhead และใช้พลังงานน้อยกว่าการประมวลผลแบบ scalar ➡️ รองรับ datatype ใหม่ เช่น BF16 และ vector crypto extensions ➡️ มี memory subsystem ที่ลด latency และเพิ่ม throughput ✅ การใช้งานในโลกจริง ➡️ X160 และ X180 เหมาะกับรถยนต์อัตโนมัติ, หุ่นยนต์, IoT อัจฉริยะ ➡️ X390 Gen 2 รองรับ 4-core cache-coherent complex และ bandwidth สูงถึง 1 TB/s ➡️ ทุก IP สามารถทำหน้าที่เป็น ACU เพื่อควบคุม accelerator ภายนอก ➡️ ใช้ SSCI และ VCIX interface เพื่อเชื่อมต่อกับ co-processor ✅ ข้อมูลเสริมจากภายนอก ➡️ Deloitte คาดการณ์ว่า edge AI จะเติบโตถึง 78% ในปีนี้ ➡️ SiFive ได้รับการยอมรับจากบริษัทเซมิคอนดักเตอร์ Tier 1 ในสหรัฐฯ ➡️ IP ทั้งหมดพร้อมให้ license แล้ว และจะมี silicon ตัวแรกใน Q2 2026 ➡️ SiFive จะโชว์ผลิตภัณฑ์ในงาน AI Infra Summit ที่ Santa Clara ‼️ คำเตือนสำหรับผู้พัฒนาและองค์กร ⛔ IP เหล่านี้ยังอยู่ในช่วง pre-silicon — ประสิทธิภาพจริงต้องรอการพิสูจน์ ⛔ การใช้งาน matrix engine ต้องมีการออกแบบซอฟต์แวร์ที่รองรับโดยเฉพาะ ⛔ การเชื่อมต่อกับ accelerator ภายนอกต้องใช้ interface เฉพาะ SSCI/VCIX ⛔ หากใช้ในระบบที่ไม่รองรับ vector หรือ matrix compute อาจไม่เห็นประโยชน์เต็มที่ ⛔ การนำไปใช้ใน edge device ต้องคำนึงถึงข้อจำกัดด้านพลังงานและความร้อน https://www.techpowerup.com/340788/sifives-new-risc-v-ip-combines-scalar-vector-and-matrix-compute-to-accelerate-ai-from-the-far-edge-iot-to-the-data-center
    WWW.TECHPOWERUP.COM
    SiFive's New RISC-V IP Combines Scalar, Vector and Matrix Compute to Accelerate AI from the Far Edge IoT to the Data Center
    Further expanding SiFive's lead in RISC-V AI IP, the company today launched its 2nd Generation Intelligence family, featuring five new RISC-V-based products designed to accelerate AI workloads across thousands of potential applications. The lineup includes two entirely new products—the X160 Gen 2 an...
    0 ความคิดเห็น 0 การแบ่งปัน 146 มุมมอง 0 รีวิว
  • “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!”

    ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง!

    David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น

    Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ

    นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต

    แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก

    Intel 14A node คืออะไร
    เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด
    ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ
    มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน
    ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35%

    เครื่องมือที่ใช้ใน 14A
    ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B
    ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว
    ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield
    เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม

    บริบททางธุรกิจและการลงทุน
    Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A
    หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้
    Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ
    การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์

    ข้อมูลเสริมจากภายนอก
    14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5%
    Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel
    Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1
    High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่

    https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    ⚙️ “Intel 14A: เทคโนโลยีสุดล้ำที่แรงกว่า 18A แต่แพงกว่า เพราะใช้เครื่องพิมพ์ชิประดับนาโนรุ่นใหม่จาก ASML!” ลองนึกภาพว่าคุณกำลังออกแบบชิปที่ต้องการประสิทธิภาพสูงสุดและประหยัดพลังงานที่สุดในโลก แล้ว Intel บอกว่า “เรามี 14A node ที่แรงกว่า 18A ถึง 20% และกินไฟน้อยลงถึง 35%” — ฟังดูน่าสนใจใช่ไหม? แต่เบื้องหลังนั้นคือค่าใช้จ่ายที่สูงลิ่ว เพราะต้องใช้เครื่องพิมพ์ชิปรุ่นใหม่ที่เรียกว่า High-NA EUV จาก ASML ซึ่งมีราคาสูงถึง $380 ล้านต่อเครื่อง! David Zinsner, CFO ของ Intel ยืนยันในงานประชุม Citi’s Global TMT ว่า 14A จะมีต้นทุนต่อแผ่นเวเฟอร์สูงกว่า 18A อย่างแน่นอน แม้จะไม่สูงมากในแง่การลงทุนรวม แต่เครื่องพิมพ์ Twinscan EXE:5200B ที่ใช้เลนส์ขนาด 0.55 NA (Numerical Aperture) ทำให้ต้นทุนการผลิตต่อหน่วยพุ่งขึ้น Intel 14A ยังมาพร้อมกับเทคโนโลยีใหม่หลายอย่าง เช่น RibbonFET 2 ที่เป็นโครงสร้างทรานซิสเตอร์แบบ gate-all-around รุ่นปรับปรุง และ PowerDirect ที่เป็นระบบส่งพลังงานจากด้านหลังของชิปโดยตรง ซึ่งช่วยลดความซับซ้อนของการเดินสายไฟและเพิ่มประสิทธิภาพ นอกจากนี้ยังมี Turbo Cells ที่ช่วยเพิ่มความเร็วของ CPU และ GPU โดยไม่ต้องเพิ่มพื้นที่หรือพลังงานมากนัก — ทั้งหมดนี้ทำให้ 14A เป็น node ที่ออกแบบมาเพื่อรองรับทั้งผลิตภัณฑ์ของ Intel และลูกค้าภายนอกในอนาคต แต่ปัญหาคือ หาก Intel ไม่สามารถหาลูกค้าภายนอกมาใช้ 14A ได้ ก็อาจไม่คุ้มค่าการลงทุน และอาจต้องชะลอหรือยกเลิก node นี้ไปเลย ซึ่งจะส่งผลต่อแผนการฟื้นตัวของ Intel Foundry ที่กำลังพยายามกลับมาเป็นผู้นำในตลาดโลก ✅ Intel 14A node คืออะไร ➡️ เป็นกระบวนการผลิตชิประดับ 1.4nm ที่ออกแบบใหม่ทั้งหมด ➡️ ใช้เทคโนโลยี RibbonFET 2 และ PowerDirect เพื่อเพิ่มประสิทธิภาพ ➡️ มี Turbo Cells ที่ช่วยเพิ่มความเร็วโดยไม่เพิ่มพื้นที่หรือพลังงาน ➡️ ให้ประสิทธิภาพต่อวัตต์ดีกว่า 18A ถึง 15–20% และลดการใช้พลังงานได้ 25–35% ✅ เครื่องมือที่ใช้ใน 14A ➡️ ใช้เครื่องพิมพ์ชิป High-NA EUV จาก ASML รุ่น Twinscan EXE:5200B ➡️ ความละเอียดสูงถึง 8nm ต่อการยิงแสงครั้งเดียว ➡️ ลดความจำเป็นในการใช้ multi-patterning ซึ่งช่วยเพิ่ม yield ➡️ เครื่องมีราคาสูงถึง $380 ล้านต่อเครื่อง เทียบกับ $235 ล้านของรุ่นเดิม ✅ บริบททางธุรกิจและการลงทุน ➡️ Intel ต้องการลูกค้าภายนอกเพื่อให้คุ้มค่าการลงทุนใน 14A ➡️ หากไม่มีลูกค้ารายใหญ่ อาจต้องชะลอหรือยกเลิก node นี้ ➡️ Intel Foundry ต้องรักษาสัดส่วนการถือหุ้น 51% ตามข้อตกลงกับรัฐบาลสหรัฐฯ ➡️ การพัฒนา 14A ใช้งบวิจัยหลายพันล้านดอลลาร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ 14A-E เป็นเวอร์ชันปรับปรุงของ 14A ที่เพิ่มประสิทธิภาพอีก 5% ➡️ Samsung และ TSMC กำลังพัฒนา 2nm node เพื่อแข่งขันกับ Intel ➡️ Intel ได้รับสัญญาผลิตชิป 18A มูลค่า $15 พันล้านจาก Microsoft1 ➡️ High-NA EUV ยังมีข้อจำกัดด้านขนาด field ทำให้ต้องปรับการออกแบบชิปใหม่ https://www.tomshardware.com/tech-industry/semiconductors/intel-cfo-confirms-that-14a-will-be-more-expensive-to-use-than-18a-intel-expects-14a-fabrication-process-to-offer-15-20-percent-better-performance-per-watt-or-25-35-percent-lower-power-consumption-compared-to-18a
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • “TSMC ปั้นคนท้องถิ่น! ขยายโครงการฝึกงานในรัฐแอริโซนา รับมือโรงงานผลิตชิป 4nm–2nm ที่กำลังบูม”

    ลองจินตนาการว่าคุณเป็นนักศึกษาด้านวิศวกรรมไฟฟ้า หรือวิทยาการคอมพิวเตอร์ในสหรัฐฯ แล้ววันหนึ่งคุณได้รับโอกาสฝึกงานกับ TSMC — บริษัทผลิตชิปที่ใหญ่ที่สุดในโลก ซึ่งกำลังสร้างโรงงานใหม่ในรัฐแอริโซนาเพื่อผลิตชิประดับ 4nm และ 2nm ที่ใช้ใน AI, GPU และอุปกรณ์ล้ำยุคของ Apple, Nvidia และ AMD

    ในฤดูร้อนปี 2025 นี้ TSMC ได้ขยายโครงการฝึกงานในรัฐแอริโซนาอย่างมหาศาล โดยรับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ซึ่งเพิ่มขึ้นจาก 130 คนเมื่อปีที่แล้ว และจากเพียง 16 คนในปี 2023 — ถือเป็นการเติบโตแบบก้าวกระโดดเพื่อเตรียมบุคลากรรองรับโรงงานผลิตชิปที่กำลังเร่งเปิดใช้งาน

    โรงงานแห่งแรกในเมืองฟีนิกซ์เริ่มผลิตชิป 4nm แล้วตั้งแต่ต้นปีนี้ และกำลังสร้างโรงงานที่สองและสามตามแผนที่ได้รับเงินสนับสนุนจาก CHIPS Act ของรัฐบาลสหรัฐฯ มูลค่ากว่า 6.6 พันล้านดอลลาร์ โดยคาดว่าโรงงานทั้งสามจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง และเป็นหัวใจของห่วงโซ่อุปทานชิปในประเทศ

    นอกจากฝึกงานแล้ว TSMC ยังร่วมมือกับมหาวิทยาลัย Arizona State University (ASU) และหน่วยงานรัฐเพื่อเปิดหลักสูตรเร่งรัด 15 สัปดาห์สำหรับช่างเทคนิคในโรงงาน พร้อมทุนวิจัยระดับบัณฑิตศึกษา และศูนย์ฝึกอบรมด้านการบรรจุชิป (advanced packaging) ร่วมกับ Amkor ในเมือง Peoria

    การขยายโครงการฝึกงานของ TSMC
    รับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ
    เพิ่มขึ้นจาก 130 คนในปี 2024 และ 16 คนในปี 2023
    มีนักศึกษาจาก ASU เข้าร่วมกว่า 30 คน
    เป็นส่วนหนึ่งของการเตรียมบุคลากรสำหรับโรงงานผลิตชิประดับ 4nm และ 2nm

    โรงงานผลิตชิปในรัฐแอริโซนา
    โรงงานแรกเริ่มผลิตชิป 4nm แล้วในต้นปี 2025
    โรงงานที่สองและสามอยู่ระหว่างการก่อสร้าง
    ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่า $6.6 พันล้าน
    คาดว่าจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง
    เป็นการลงทุนรวมกว่า $65 พันล้าน ถือเป็นการลงทุนจากต่างประเทศที่ใหญ่ที่สุดในประวัติศาสตร์รัฐแอริโซนา

    ความร่วมมือด้านการศึกษาและการฝึกอบรม
    ASU เปิดหลักสูตรวิจัยระดับปริญญาตรีและบัณฑิตด้านเซมิคอนดักเตอร์
    รัฐแอริโซนาเปิดโปรแกรมฝึกอบรมช่างเทคนิคแบบเร่งรัด 15 สัปดาห์
    Amkor เปิดศูนย์บรรจุชิปมูลค่า $2 พันล้านในเมือง Peoria
    รองรับเทคโนโลยี CoWoS และ InFO สำหรับ GPU และ AI accelerators

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-increases-arizona-internships-to-feed-fabs
    🏗️ “TSMC ปั้นคนท้องถิ่น! ขยายโครงการฝึกงานในรัฐแอริโซนา รับมือโรงงานผลิตชิป 4nm–2nm ที่กำลังบูม” ลองจินตนาการว่าคุณเป็นนักศึกษาด้านวิศวกรรมไฟฟ้า หรือวิทยาการคอมพิวเตอร์ในสหรัฐฯ แล้ววันหนึ่งคุณได้รับโอกาสฝึกงานกับ TSMC — บริษัทผลิตชิปที่ใหญ่ที่สุดในโลก ซึ่งกำลังสร้างโรงงานใหม่ในรัฐแอริโซนาเพื่อผลิตชิประดับ 4nm และ 2nm ที่ใช้ใน AI, GPU และอุปกรณ์ล้ำยุคของ Apple, Nvidia และ AMD ในฤดูร้อนปี 2025 นี้ TSMC ได้ขยายโครงการฝึกงานในรัฐแอริโซนาอย่างมหาศาล โดยรับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ซึ่งเพิ่มขึ้นจาก 130 คนเมื่อปีที่แล้ว และจากเพียง 16 คนในปี 2023 — ถือเป็นการเติบโตแบบก้าวกระโดดเพื่อเตรียมบุคลากรรองรับโรงงานผลิตชิปที่กำลังเร่งเปิดใช้งาน โรงงานแห่งแรกในเมืองฟีนิกซ์เริ่มผลิตชิป 4nm แล้วตั้งแต่ต้นปีนี้ และกำลังสร้างโรงงานที่สองและสามตามแผนที่ได้รับเงินสนับสนุนจาก CHIPS Act ของรัฐบาลสหรัฐฯ มูลค่ากว่า 6.6 พันล้านดอลลาร์ โดยคาดว่าโรงงานทั้งสามจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง และเป็นหัวใจของห่วงโซ่อุปทานชิปในประเทศ นอกจากฝึกงานแล้ว TSMC ยังร่วมมือกับมหาวิทยาลัย Arizona State University (ASU) และหน่วยงานรัฐเพื่อเปิดหลักสูตรเร่งรัด 15 สัปดาห์สำหรับช่างเทคนิคในโรงงาน พร้อมทุนวิจัยระดับบัณฑิตศึกษา และศูนย์ฝึกอบรมด้านการบรรจุชิป (advanced packaging) ร่วมกับ Amkor ในเมือง Peoria ✅ การขยายโครงการฝึกงานของ TSMC ➡️ รับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ➡️ เพิ่มขึ้นจาก 130 คนในปี 2024 และ 16 คนในปี 2023 ➡️ มีนักศึกษาจาก ASU เข้าร่วมกว่า 30 คน ➡️ เป็นส่วนหนึ่งของการเตรียมบุคลากรสำหรับโรงงานผลิตชิประดับ 4nm และ 2nm ✅ โรงงานผลิตชิปในรัฐแอริโซนา ➡️ โรงงานแรกเริ่มผลิตชิป 4nm แล้วในต้นปี 2025 ➡️ โรงงานที่สองและสามอยู่ระหว่างการก่อสร้าง ➡️ ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่า $6.6 พันล้าน ➡️ คาดว่าจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง ➡️ เป็นการลงทุนรวมกว่า $65 พันล้าน ถือเป็นการลงทุนจากต่างประเทศที่ใหญ่ที่สุดในประวัติศาสตร์รัฐแอริโซนา ✅ ความร่วมมือด้านการศึกษาและการฝึกอบรม ➡️ ASU เปิดหลักสูตรวิจัยระดับปริญญาตรีและบัณฑิตด้านเซมิคอนดักเตอร์ ➡️ รัฐแอริโซนาเปิดโปรแกรมฝึกอบรมช่างเทคนิคแบบเร่งรัด 15 สัปดาห์ ➡️ Amkor เปิดศูนย์บรรจุชิปมูลค่า $2 พันล้านในเมือง Peoria ➡️ รองรับเทคโนโลยี CoWoS และ InFO สำหรับ GPU และ AI accelerators https://www.tomshardware.com/tech-industry/semiconductors/tsmc-increases-arizona-internships-to-feed-fabs
    WWW.TOMSHARDWARE.COM
    TSMC increases Arizona internships to feed its Phoenix fabs — CHIPS-fueled supply chain begins to take shape
    A wave of homegrown talent arrives just as TSMC’s 4nm ramp-up in Arizona turns into a three-fab silicon supercluster.
    0 ความคิดเห็น 0 การแบ่งปัน 141 มุมมอง 0 รีวิว
  • “Intel ปรับโครงสร้างผู้บริหารครั้งใหญ่! Michelle Holthaus อำลาหลังรับใช้บริษัทกว่า 30 ปี”

    ลองจินตนาการว่าคุณเป็นหนึ่งในผู้บริหารระดับสูงของบริษัทเทคโนโลยีที่ทรงอิทธิพลที่สุดในโลกอย่าง Intel แล้ววันหนึ่งคุณต้องตัดสินใจอำลาตำแหน่ง หลังจากร่วมสร้างและขับเคลื่อนองค์กรมากว่า 30 ปี — นั่นคือเรื่องราวของ Michelle Johnston Holthaus ผู้บริหารฝ่ายผลิตภัณฑ์ของ Intel ที่เพิ่งประกาศลาออกท่ามกลางการเปลี่ยนแปลงครั้งใหญ่ในโครงสร้างผู้บริหารของบริษัท

    การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงที่ CEO คนใหม่ Lip-Bu Tan พยายามพลิกฟื้น Intel จากภาวะตกต่ำ โดยมีเป้าหมายชัดเจนคือ “ลดชั้นการบริหาร” และ “เร่งการตัดสินใจ” เพื่อให้ทีมพัฒนาชิปสามารถรายงานตรงถึงตัวเขาได้ทันที

    Michelle Holthaus เคยดำรงตำแหน่ง interim co-CEO หลังจาก Pat Gelsinger ถูกปลด และยังเคยเป็นหัวหน้าฝ่าย Client Computing Group และ Chief Revenue Officer มาก่อน เธอจะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่านนี้

    นอกจากการอำลาของ Holthaus ยังมีการแต่งตั้งผู้บริหารใหม่หลายตำแหน่ง เช่น Kevork Kechichian จาก Arm มารับตำแหน่งหัวหน้ากลุ่ม Data Center, Srinivasan Iyengar รับหน้าที่สร้างกลุ่ม Central Engineering ใหม่ และ Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ

    การเปลี่ยนแปลงเหล่านี้เกิดขึ้นในช่วงที่รัฐบาลสหรัฐฯ ภายใต้ประธานาธิบดี Donald Trump ประกาศแผนเข้าถือหุ้น 10% ใน Intel และเรียกร้องให้ Tan ลาออกจากตำแหน่งเนื่องจากข้อขัดแย้งทางผลประโยชน์ — ทำให้สถานการณ์ของ Intel ยิ่งตึงเครียดมากขึ้น

    การเปลี่ยนแปลงผู้บริหารระดับสูงของ Intel
    Michelle Holthaus อำลาหลังทำงานกับ Intel มากกว่า 30 ปี
    เคยดำรงตำแหน่ง interim co-CEO และหัวหน้าฝ่ายผลิตภัณฑ์
    จะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่าน
    CEO Lip-Bu Tan ปรับโครงสร้างให้ทีมชิปรายงานตรงถึงตัวเอง

    การแต่งตั้งผู้บริหารใหม่
    Kevork Kechichian จาก Arm รับตำแหน่งหัวหน้ากลุ่ม Data Center
    Srinivasan Iyengar นำทีม Central Engineering และธุรกิจ custom silicon
    Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ
    Naga Chandrasekaran ขยายบทบาทใน Intel Foundry ให้ครอบคลุม Foundry Services

    บริบททางการเมืองและเศรษฐกิจ
    รัฐบาลสหรัฐฯ ประกาศถือหุ้น 10% ใน Intel เพื่อควบคุมเชิงยุทธศาสตร์
    ประธานาธิบดี Trump เรียกร้องให้ CEO Tan ลาออกจากตำแหน่ง
    การเปลี่ยนแปลงนี้เกิดขึ้นท่ามกลางแรงกดดันจากตลาดและภาครัฐ

    https://www.thestar.com.my/tech/tech-news/2025/09/09/intel-product-chief-michelle-holthaus-to-leave-company
    🔄 “Intel ปรับโครงสร้างผู้บริหารครั้งใหญ่! Michelle Holthaus อำลาหลังรับใช้บริษัทกว่า 30 ปี” ลองจินตนาการว่าคุณเป็นหนึ่งในผู้บริหารระดับสูงของบริษัทเทคโนโลยีที่ทรงอิทธิพลที่สุดในโลกอย่าง Intel แล้ววันหนึ่งคุณต้องตัดสินใจอำลาตำแหน่ง หลังจากร่วมสร้างและขับเคลื่อนองค์กรมากว่า 30 ปี — นั่นคือเรื่องราวของ Michelle Johnston Holthaus ผู้บริหารฝ่ายผลิตภัณฑ์ของ Intel ที่เพิ่งประกาศลาออกท่ามกลางการเปลี่ยนแปลงครั้งใหญ่ในโครงสร้างผู้บริหารของบริษัท การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงที่ CEO คนใหม่ Lip-Bu Tan พยายามพลิกฟื้น Intel จากภาวะตกต่ำ โดยมีเป้าหมายชัดเจนคือ “ลดชั้นการบริหาร” และ “เร่งการตัดสินใจ” เพื่อให้ทีมพัฒนาชิปสามารถรายงานตรงถึงตัวเขาได้ทันที Michelle Holthaus เคยดำรงตำแหน่ง interim co-CEO หลังจาก Pat Gelsinger ถูกปลด และยังเคยเป็นหัวหน้าฝ่าย Client Computing Group และ Chief Revenue Officer มาก่อน เธอจะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่านนี้ นอกจากการอำลาของ Holthaus ยังมีการแต่งตั้งผู้บริหารใหม่หลายตำแหน่ง เช่น Kevork Kechichian จาก Arm มารับตำแหน่งหัวหน้ากลุ่ม Data Center, Srinivasan Iyengar รับหน้าที่สร้างกลุ่ม Central Engineering ใหม่ และ Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ การเปลี่ยนแปลงเหล่านี้เกิดขึ้นในช่วงที่รัฐบาลสหรัฐฯ ภายใต้ประธานาธิบดี Donald Trump ประกาศแผนเข้าถือหุ้น 10% ใน Intel และเรียกร้องให้ Tan ลาออกจากตำแหน่งเนื่องจากข้อขัดแย้งทางผลประโยชน์ — ทำให้สถานการณ์ของ Intel ยิ่งตึงเครียดมากขึ้น ✅ การเปลี่ยนแปลงผู้บริหารระดับสูงของ Intel ➡️ Michelle Holthaus อำลาหลังทำงานกับ Intel มากกว่า 30 ปี ➡️ เคยดำรงตำแหน่ง interim co-CEO และหัวหน้าฝ่ายผลิตภัณฑ์ ➡️ จะยังคงอยู่ในบทบาทที่ปรึกษาเชิงกลยุทธ์ในช่วงเปลี่ยนผ่าน ➡️ CEO Lip-Bu Tan ปรับโครงสร้างให้ทีมชิปรายงานตรงถึงตัวเอง ✅ การแต่งตั้งผู้บริหารใหม่ ➡️ Kevork Kechichian จาก Arm รับตำแหน่งหัวหน้ากลุ่ม Data Center ➡️ Srinivasan Iyengar นำทีม Central Engineering และธุรกิจ custom silicon ➡️ Jim Johnson ขึ้นเป็นหัวหน้ากลุ่ม Client Computing อย่างเป็นทางการ ➡️ Naga Chandrasekaran ขยายบทบาทใน Intel Foundry ให้ครอบคลุม Foundry Services ✅ บริบททางการเมืองและเศรษฐกิจ ➡️ รัฐบาลสหรัฐฯ ประกาศถือหุ้น 10% ใน Intel เพื่อควบคุมเชิงยุทธศาสตร์ ➡️ ประธานาธิบดี Trump เรียกร้องให้ CEO Tan ลาออกจากตำแหน่ง ➡️ การเปลี่ยนแปลงนี้เกิดขึ้นท่ามกลางแรงกดดันจากตลาดและภาครัฐ https://www.thestar.com.my/tech/tech-news/2025/09/09/intel-product-chief-michelle-holthaus-to-leave-company
    WWW.THESTAR.COM.MY
    Intel announces key executive shake-up, says products chief Holthaus will exit
    (Reuters) - Intel announced a series of top executive changes on Monday, including the departure of products chief Michelle Johnston Holthaus, at a time when CEO Lip-Bu Tan intensifies efforts to turn around the struggling U.S. chipmaker.
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์

    ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต

    สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ

    ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง

    แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน

    การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์

    การกลับมาของชิป Blockscale BZM2
    Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา
    ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH
    ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation

    การแจกจ่ายและการใช้งาน
    แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว
    ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่
    ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse

    ความหมายต่อวงการขุดบิตคอยน์
    เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่
    เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง
    สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน

    การใช้งานนอกเหนือจากการขุด
    ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน
    มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล
    สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    🎙️ เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์ ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์ ✅ การกลับมาของชิป Blockscale BZM2 ➡️ Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา ➡️ ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH ➡️ ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation ✅ การแจกจ่ายและการใช้งาน ➡️ แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว ➡️ ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่ ➡️ ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse ✅ ความหมายต่อวงการขุดบิตคอยน์ ➡️ เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ ➡️ เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง ➡️ สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน ✅ การใช้งานนอกเหนือจากการขุด ➡️ ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน ➡️ มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล ➡️ สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Dalian: เมื่อโรงงาน NAND ที่เคยเป็นความหวังของ Intel กลายเป็นสินทรัพย์ที่ถูกจำกัดการเติบโต

    โรงงานผลิต NAND ในเมืองต้าเหลียน ประเทศจีน ซึ่งเดิมเป็นของ Intel และเปิดดำเนินการมาตั้งแต่ปี 2010 ได้ถูกเปลี่ยนชื่ออย่างเป็นทางการเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. เมื่อวันที่ 1 กันยายน 2025 นี่คือขั้นตอนสุดท้ายของการเข้าซื้อกิจการมูลค่า 9 พันล้านดอลลาร์ที่ SK hynix ทำกับ Intel ตั้งแต่ปี 2020

    แม้ SK hynix จะควบคุมโรงงานนี้มาตั้งแต่ปี 2021 และยังคงผลิต NAND แบบ 192-layer สำหรับ SSD QLC ผ่านแบรนด์ Solidigm แต่การเปลี่ยนชื่อครั้งนี้เกิดขึ้นในช่วงเวลาที่สหรัฐฯ เพิ่งประกาศยกเลิกใบอนุญาต VEU (Validated End-User) สำหรับโรงงานในจีนของ SK hynix และ Samsung ซึ่งเคยอนุญาตให้นำเข้าเครื่องมือผลิตชิปจากสหรัฐฯ โดยไม่ต้องขออนุญาตรายครั้ง

    การยกเลิกใบอนุญาตนี้มีผลตั้งแต่วันที่ 31 ธันวาคม 2025 และจะทำให้โรงงาน Dalian ไม่สามารถอัปเกรดไปสู่เทคโนโลยี NAND รุ่นใหม่ เช่น 238-layer หรือ 321-layer ได้อีกต่อไป แม้จะยังสามารถซ่อมบำรุงเครื่องมือเดิมได้ก็ตาม

    SK hynix จึงกลายเป็นเจ้าของโรงงานที่มีข้อจำกัดด้านการเติบโตอย่างชัดเจน และอาจต้องลงทุนสร้างโรงงานใหม่นอกจีน หากต้องการแข่งขันในตลาด NAND ระดับสูง ซึ่งอาจใช้เงินถึง 10–20 พันล้านดอลลาร์

    การเปลี่ยนชื่อและโครงสร้างกรรมสิทธิ์
    โรงงาน Dalian เปลี่ยนชื่อเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd.
    เป็นขั้นตอนสุดท้ายของดีลมูลค่า $9B ที่เริ่มตั้งแต่ปี 2020
    Intel Asia Holding ออกจากสถานะผู้ถือหุ้นตั้งแต่เดือนมีนาคม

    สถานะการผลิตและเทคโนโลยี
    โรงงานยังผลิต NAND แบบ 192-layer สำหรับ SSD QLC
    ใช้เทคโนโลยีที่สืบทอดจาก Intel ผ่านแบรนด์ Solidigm
    ไม่สามารถอัปเกรดไปสู่ 238- หรือ 321-layer NAND ได้

    ผลกระทบจากการยกเลิกใบอนุญาต VEU
    สหรัฐฯ ยกเลิกใบอนุญาต VEU สำหรับ SK hynix และ Samsung ในจีน
    มีผลตั้งแต่ 31 ธันวาคม 2025
    ไม่สามารถนำเข้าเครื่องมือใหม่จากสหรัฐฯ ได้โดยไม่ขออนุญาตรายครั้ง

    ทางเลือกเชิงกลยุทธ์ของ SK hynix
    อาจต้องสร้างโรงงานใหม่นอกจีนเพื่อรองรับ NAND รุ่นใหม่
    คาดว่าต้องใช้เงินลงทุน $10–20B
    ต้องปรับแผนการผลิตและ supply chain อย่างมีนัยสำคัญ

    https://www.tomshardware.com/tech-industry/intel-dalian-plant-now-officially-sk-hynix
    🎙️ เรื่องเล่าจาก Dalian: เมื่อโรงงาน NAND ที่เคยเป็นความหวังของ Intel กลายเป็นสินทรัพย์ที่ถูกจำกัดการเติบโต โรงงานผลิต NAND ในเมืองต้าเหลียน ประเทศจีน ซึ่งเดิมเป็นของ Intel และเปิดดำเนินการมาตั้งแต่ปี 2010 ได้ถูกเปลี่ยนชื่ออย่างเป็นทางการเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. เมื่อวันที่ 1 กันยายน 2025 นี่คือขั้นตอนสุดท้ายของการเข้าซื้อกิจการมูลค่า 9 พันล้านดอลลาร์ที่ SK hynix ทำกับ Intel ตั้งแต่ปี 2020 แม้ SK hynix จะควบคุมโรงงานนี้มาตั้งแต่ปี 2021 และยังคงผลิต NAND แบบ 192-layer สำหรับ SSD QLC ผ่านแบรนด์ Solidigm แต่การเปลี่ยนชื่อครั้งนี้เกิดขึ้นในช่วงเวลาที่สหรัฐฯ เพิ่งประกาศยกเลิกใบอนุญาต VEU (Validated End-User) สำหรับโรงงานในจีนของ SK hynix และ Samsung ซึ่งเคยอนุญาตให้นำเข้าเครื่องมือผลิตชิปจากสหรัฐฯ โดยไม่ต้องขออนุญาตรายครั้ง การยกเลิกใบอนุญาตนี้มีผลตั้งแต่วันที่ 31 ธันวาคม 2025 และจะทำให้โรงงาน Dalian ไม่สามารถอัปเกรดไปสู่เทคโนโลยี NAND รุ่นใหม่ เช่น 238-layer หรือ 321-layer ได้อีกต่อไป แม้จะยังสามารถซ่อมบำรุงเครื่องมือเดิมได้ก็ตาม SK hynix จึงกลายเป็นเจ้าของโรงงานที่มีข้อจำกัดด้านการเติบโตอย่างชัดเจน และอาจต้องลงทุนสร้างโรงงานใหม่นอกจีน หากต้องการแข่งขันในตลาด NAND ระดับสูง ซึ่งอาจใช้เงินถึง 10–20 พันล้านดอลลาร์ ✅ การเปลี่ยนชื่อและโครงสร้างกรรมสิทธิ์ ➡️ โรงงาน Dalian เปลี่ยนชื่อเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. ➡️ เป็นขั้นตอนสุดท้ายของดีลมูลค่า $9B ที่เริ่มตั้งแต่ปี 2020 ➡️ Intel Asia Holding ออกจากสถานะผู้ถือหุ้นตั้งแต่เดือนมีนาคม ✅ สถานะการผลิตและเทคโนโลยี ➡️ โรงงานยังผลิต NAND แบบ 192-layer สำหรับ SSD QLC ➡️ ใช้เทคโนโลยีที่สืบทอดจาก Intel ผ่านแบรนด์ Solidigm ➡️ ไม่สามารถอัปเกรดไปสู่ 238- หรือ 321-layer NAND ได้ ✅ ผลกระทบจากการยกเลิกใบอนุญาต VEU ➡️ สหรัฐฯ ยกเลิกใบอนุญาต VEU สำหรับ SK hynix และ Samsung ในจีน ➡️ มีผลตั้งแต่ 31 ธันวาคม 2025 ➡️ ไม่สามารถนำเข้าเครื่องมือใหม่จากสหรัฐฯ ได้โดยไม่ขออนุญาตรายครั้ง ✅ ทางเลือกเชิงกลยุทธ์ของ SK hynix ➡️ อาจต้องสร้างโรงงานใหม่นอกจีนเพื่อรองรับ NAND รุ่นใหม่ ➡️ คาดว่าต้องใช้เงินลงทุน $10–20B ➡️ ต้องปรับแผนการผลิตและ supply chain อย่างมีนัยสำคัญ https://www.tomshardware.com/tech-industry/intel-dalian-plant-now-officially-sk-hynix
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Icheon: เมื่อการพิมพ์วงจรระดับนาโนกลายเป็นการแข่งขันระดับโลก

    ในเดือนกันยายน 2025 SK hynix และ ASML ประกาศว่าได้ติดตั้งเครื่อง High-NA EUV รุ่น Twinscan EXE:5200B ที่โรงงาน M16 ในเมืองอีชอน ประเทศเกาหลีใต้ ซึ่งถือเป็นการติดตั้งเชิงพาณิชย์ครั้งแรกของเครื่องรุ่นนี้ในอุตสาหกรรมหน่วยความจำ

    เครื่องนี้ใช้เลนส์ที่มีค่า NA (Numerical Aperture) สูงถึง 0.55 ซึ่งมากกว่าเครื่อง EUV รุ่นเดิมที่มี NA 0.33 ทำให้สามารถพิมพ์วงจรที่เล็กลงได้ถึง 1.7 เท่า และเพิ่มความหนาแน่นของทรานซิสเตอร์ได้ถึง 2.9 เท่าในครั้งเดียว โดยไม่ต้องใช้เทคนิค multi-patterning ที่ซับซ้อนและมีต้นทุนสูง

    SK hynix วางแผนใช้เครื่องนี้ในระยะแรกเพื่อเร่งการพัฒนา DRAM รุ่นใหม่ เช่นการสร้างโครงสร้าง capacitor trench, bitline และ wordline ที่ซับซ้อนขึ้น ก่อนจะนำไปใช้จริงในสายการผลิตช่วงปลายทศวรรษนี้ ซึ่งจะเป็นจุดเปลี่ยนสำคัญของการผลิต DRAM ที่มีขนาดต่ำกว่า 10 นาโนเมตร

    การติดตั้งครั้งนี้ทำให้ SK hynix กลายเป็นผู้ผลิตหน่วยความจำรายแรกที่นำ High-NA EUV มาใช้ในระดับ mass production ล้ำหน้าคู่แข่งอย่าง Samsung และ Micron ที่ยังอยู่ในขั้นตอน R&D กับเครื่องรุ่นก่อนหน้าอย่าง EXE:5000

    ASML ซึ่งเป็นผู้ผลิตเครื่องจากเนเธอร์แลนด์ ระบุว่าเครื่องรุ่นนี้มีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน และมีราคาสูงถึง 600 พันล้านวอน (~431 ล้านดอลลาร์) โดยผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น

    การติดตั้ง High-NA EUV รุ่น Twinscan EXE:5200B
    ติดตั้งที่โรงงาน M16 ของ SK hynix ในเกาหลีใต้
    เป็นการใช้งานเชิงพาณิชย์ครั้งแรกในอุตสาหกรรมหน่วยความจำ
    ใช้เลนส์ NA 0.55 ซึ่งให้ความละเอียดสูงกว่ารุ่นเดิม

    ความสามารถของเครื่อง High-NA EUV
    พิมพ์วงจรเล็กลง 1.7 เท่า และเพิ่มความหนาแน่น 2.9 เท่า
    ลดความจำเป็นในการใช้ multi-patterning ที่มีต้นทุนสูง
    เหมาะกับการพัฒนา DRAM ที่มีโครงสร้างซับซ้อนระดับ sub-10nm

    กลยุทธ์ของ SK hynix
    ใช้เครื่องนี้เพื่อเร่งการพัฒนา DRAM รุ่นใหม่ก่อนเข้าสู่สายการผลิตจริง
    ตั้งเป้าเป็นผู้นำในตลาด AI memory และ next-gen computing
    ล้ำหน้าคู่แข่งที่ยังใช้เครื่องรุ่นก่อนหน้าในขั้นตอน R&D

    ข้อมูลจาก ASML
    เครื่องมีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน
    ราคาต่อเครื่องประมาณ 600 พันล้านวอน (~431 ล้านดอลลาร์)
    ผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น

    https://www.tomshardware.com/tech-industry/semiconductors/asml-and-sk-hynix-assemble-industry-first-commercial-high-na-euv-system-at-fab-in-south-korea
    🎙️ เรื่องเล่าจาก Icheon: เมื่อการพิมพ์วงจรระดับนาโนกลายเป็นการแข่งขันระดับโลก ในเดือนกันยายน 2025 SK hynix และ ASML ประกาศว่าได้ติดตั้งเครื่อง High-NA EUV รุ่น Twinscan EXE:5200B ที่โรงงาน M16 ในเมืองอีชอน ประเทศเกาหลีใต้ ซึ่งถือเป็นการติดตั้งเชิงพาณิชย์ครั้งแรกของเครื่องรุ่นนี้ในอุตสาหกรรมหน่วยความจำ เครื่องนี้ใช้เลนส์ที่มีค่า NA (Numerical Aperture) สูงถึง 0.55 ซึ่งมากกว่าเครื่อง EUV รุ่นเดิมที่มี NA 0.33 ทำให้สามารถพิมพ์วงจรที่เล็กลงได้ถึง 1.7 เท่า และเพิ่มความหนาแน่นของทรานซิสเตอร์ได้ถึง 2.9 เท่าในครั้งเดียว โดยไม่ต้องใช้เทคนิค multi-patterning ที่ซับซ้อนและมีต้นทุนสูง SK hynix วางแผนใช้เครื่องนี้ในระยะแรกเพื่อเร่งการพัฒนา DRAM รุ่นใหม่ เช่นการสร้างโครงสร้าง capacitor trench, bitline และ wordline ที่ซับซ้อนขึ้น ก่อนจะนำไปใช้จริงในสายการผลิตช่วงปลายทศวรรษนี้ ซึ่งจะเป็นจุดเปลี่ยนสำคัญของการผลิต DRAM ที่มีขนาดต่ำกว่า 10 นาโนเมตร การติดตั้งครั้งนี้ทำให้ SK hynix กลายเป็นผู้ผลิตหน่วยความจำรายแรกที่นำ High-NA EUV มาใช้ในระดับ mass production ล้ำหน้าคู่แข่งอย่าง Samsung และ Micron ที่ยังอยู่ในขั้นตอน R&D กับเครื่องรุ่นก่อนหน้าอย่าง EXE:5000 ASML ซึ่งเป็นผู้ผลิตเครื่องจากเนเธอร์แลนด์ ระบุว่าเครื่องรุ่นนี้มีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน และมีราคาสูงถึง 600 พันล้านวอน (~431 ล้านดอลลาร์) โดยผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น ✅ การติดตั้ง High-NA EUV รุ่น Twinscan EXE:5200B ➡️ ติดตั้งที่โรงงาน M16 ของ SK hynix ในเกาหลีใต้ ➡️ เป็นการใช้งานเชิงพาณิชย์ครั้งแรกในอุตสาหกรรมหน่วยความจำ ➡️ ใช้เลนส์ NA 0.55 ซึ่งให้ความละเอียดสูงกว่ารุ่นเดิม ✅ ความสามารถของเครื่อง High-NA EUV ➡️ พิมพ์วงจรเล็กลง 1.7 เท่า และเพิ่มความหนาแน่น 2.9 เท่า ➡️ ลดความจำเป็นในการใช้ multi-patterning ที่มีต้นทุนสูง ➡️ เหมาะกับการพัฒนา DRAM ที่มีโครงสร้างซับซ้อนระดับ sub-10nm ✅ กลยุทธ์ของ SK hynix ➡️ ใช้เครื่องนี้เพื่อเร่งการพัฒนา DRAM รุ่นใหม่ก่อนเข้าสู่สายการผลิตจริง ➡️ ตั้งเป้าเป็นผู้นำในตลาด AI memory และ next-gen computing ➡️ ล้ำหน้าคู่แข่งที่ยังใช้เครื่องรุ่นก่อนหน้าในขั้นตอน R&D ✅ ข้อมูลจาก ASML ➡️ เครื่องมีขนาดเท่ารถบัสสองชั้น น้ำหนักกว่า 150 ตัน ➡️ ราคาต่อเครื่องประมาณ 600 พันล้านวอน (~431 ล้านดอลลาร์) ➡️ ผลิตได้เพียง 5–6 เครื่องต่อปีเท่านั้น https://www.tomshardware.com/tech-industry/semiconductors/asml-and-sk-hynix-assemble-industry-first-commercial-high-na-euv-system-at-fab-in-south-korea
    WWW.TOMSHARDWARE.COM
    ASML and SK hynix assemble industry-first 'commercial' High-NA EUV system at fab in South Korea
    Initially for R&D use, until later this decade where it will transition to production
    0 ความคิดเห็น 0 การแบ่งปัน 119 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก MIT: เมื่อการยิง X-ray กลายเป็นเครื่องมือควบคุม strain ในวัสดุระดับนาโน

    เดิมทีทีมวิจัยของ MIT นำโดย Ericmoore Jossou ตั้งใจจะศึกษาวัสดุที่ใช้ในเครื่องปฏิกรณ์นิวเคลียร์ว่ามันพังอย่างไรภายใต้รังสีรุนแรง พวกเขาใช้เทคนิค solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนแผ่นซิลิคอน แล้วยิง X-ray พลังสูงเข้าไปเพื่อจำลองสภาพแวดล้อมในเครื่องปฏิกรณ์

    แต่สิ่งที่ค้นพบกลับเหนือความคาดหมาย—พวกเขาพบว่า X-ray ไม่ได้แค่ช่วยให้เห็นการพังของผลึก แต่ยังสามารถ “ควบคุมระดับ strain” ภายในผลึกได้ด้วย โดยเฉพาะเมื่อมีชั้น buffer ของ silicon dioxide คั่นระหว่างนิกเกิลกับซับสเตรต

    การควบคุม strain นี้มีผลโดยตรงต่อคุณสมบัติทางไฟฟ้าและแสงของวัสดุ ซึ่งเป็นหัวใจของการผลิตชิปที่เร็วขึ้นและประหยัดพลังงานมากขึ้น โดยปกติการควบคุม strain ต้องใช้วิธีทางกลหรือการออกแบบเลเยอร์เฉพาะ แต่เทคนิคใหม่นี้ใช้ X-ray เป็น “เครื่องมือปรับแต่งผลึก” แบบไม่ต้องสัมผัส

    นอกจากนี้ ทีมยังสามารถสร้างภาพ 3D ของผลึกที่กำลังพังได้แบบเรียลไทม์ ซึ่งช่วยให้เข้าใจการกัดกร่อนและการแตกร้าวในวัสดุที่ใช้ในเครื่องปฏิกรณ์, เรือดำน้ำ, หรือระบบขับเคลื่อนที่ต้องทนต่อสภาพสุดขั้ว

    การค้นพบของ MIT
    ใช้ X-ray พลังสูงยิงเข้าไปในผลึกนิกเกิลเพื่อจำลองสภาพในเครื่องปฏิกรณ์
    พบว่าสามารถควบคุมระดับ strain ภายในผลึกได้แบบเรียลไทม์
    การควบคุม strain มีผลต่อคุณสมบัติไฟฟ้าและแสงของวัสดุ

    เทคนิคที่ใช้ในงานวิจัย
    ใช้ solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนซิลิคอน
    ใส่ชั้น buffer ของ silicon dioxide เพื่อเสถียรภาพและควบคุม strain
    ใช้ phase retrieval algorithm เพื่อสร้างภาพ 3D ของผลึกที่กำลังพัง

    ผลกระทบต่ออุตสาหกรรม
    เปิดทางให้ใช้ X-ray เป็นเครื่องมือปรับแต่งผลึกในกระบวนการผลิตชิป
    ช่วยออกแบบวัสดุที่ทนต่อรังสีและความร้อนในระบบนิวเคลียร์
    เป็นเทคนิคที่ใช้ได้ทั้งใน semiconductor และวัสดุวิศวกรรมขั้นสูง

    ทีมวิจัยและการสนับสนุน
    นำโดย Ericmoore Jossou ร่วมกับ David Simonne, Riley Hultquist, Jiangtao Zhao และ Andrea Resta
    ได้รับทุนจาก MIT Faculty Startup Fund และกระทรวงพลังงานสหรัฐฯ
    ตีพิมพ์ในวารสาร Scripta Materialia และวางแผนขยายไปยังโลหะผสมที่ซับซ้อนมากขึ้น

    https://www.trendlynews.in/2025/09/mit-scientists-find-x-ray-technique.html
    🎙️ เรื่องเล่าจาก MIT: เมื่อการยิง X-ray กลายเป็นเครื่องมือควบคุม strain ในวัสดุระดับนาโน เดิมทีทีมวิจัยของ MIT นำโดย Ericmoore Jossou ตั้งใจจะศึกษาวัสดุที่ใช้ในเครื่องปฏิกรณ์นิวเคลียร์ว่ามันพังอย่างไรภายใต้รังสีรุนแรง พวกเขาใช้เทคนิค solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนแผ่นซิลิคอน แล้วยิง X-ray พลังสูงเข้าไปเพื่อจำลองสภาพแวดล้อมในเครื่องปฏิกรณ์ แต่สิ่งที่ค้นพบกลับเหนือความคาดหมาย—พวกเขาพบว่า X-ray ไม่ได้แค่ช่วยให้เห็นการพังของผลึก แต่ยังสามารถ “ควบคุมระดับ strain” ภายในผลึกได้ด้วย โดยเฉพาะเมื่อมีชั้น buffer ของ silicon dioxide คั่นระหว่างนิกเกิลกับซับสเตรต การควบคุม strain นี้มีผลโดยตรงต่อคุณสมบัติทางไฟฟ้าและแสงของวัสดุ ซึ่งเป็นหัวใจของการผลิตชิปที่เร็วขึ้นและประหยัดพลังงานมากขึ้น โดยปกติการควบคุม strain ต้องใช้วิธีทางกลหรือการออกแบบเลเยอร์เฉพาะ แต่เทคนิคใหม่นี้ใช้ X-ray เป็น “เครื่องมือปรับแต่งผลึก” แบบไม่ต้องสัมผัส นอกจากนี้ ทีมยังสามารถสร้างภาพ 3D ของผลึกที่กำลังพังได้แบบเรียลไทม์ ซึ่งช่วยให้เข้าใจการกัดกร่อนและการแตกร้าวในวัสดุที่ใช้ในเครื่องปฏิกรณ์, เรือดำน้ำ, หรือระบบขับเคลื่อนที่ต้องทนต่อสภาพสุดขั้ว ✅ การค้นพบของ MIT ➡️ ใช้ X-ray พลังสูงยิงเข้าไปในผลึกนิกเกิลเพื่อจำลองสภาพในเครื่องปฏิกรณ์ ➡️ พบว่าสามารถควบคุมระดับ strain ภายในผลึกได้แบบเรียลไทม์ ➡️ การควบคุม strain มีผลต่อคุณสมบัติไฟฟ้าและแสงของวัสดุ ✅ เทคนิคที่ใช้ในงานวิจัย ➡️ ใช้ solid-state dewetting เพื่อสร้างผลึกนิกเกิลบนซิลิคอน ➡️ ใส่ชั้น buffer ของ silicon dioxide เพื่อเสถียรภาพและควบคุม strain ➡️ ใช้ phase retrieval algorithm เพื่อสร้างภาพ 3D ของผลึกที่กำลังพัง ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เปิดทางให้ใช้ X-ray เป็นเครื่องมือปรับแต่งผลึกในกระบวนการผลิตชิป ➡️ ช่วยออกแบบวัสดุที่ทนต่อรังสีและความร้อนในระบบนิวเคลียร์ ➡️ เป็นเทคนิคที่ใช้ได้ทั้งใน semiconductor และวัสดุวิศวกรรมขั้นสูง ✅ ทีมวิจัยและการสนับสนุน ➡️ นำโดย Ericmoore Jossou ร่วมกับ David Simonne, Riley Hultquist, Jiangtao Zhao และ Andrea Resta ➡️ ได้รับทุนจาก MIT Faculty Startup Fund และกระทรวงพลังงานสหรัฐฯ ➡️ ตีพิมพ์ในวารสาร Scripta Materialia และวางแผนขยายไปยังโลหะผสมที่ซับซ้อนมากขึ้น https://www.trendlynews.in/2025/09/mit-scientists-find-x-ray-technique.html
    WWW.TRENDLYNEWS.IN
    MIT scientists find X-ray technique that could enhance durability of nuclear materials and computer chips
    Trending News, Listen News, Top Trending Topics, Videos, Popular News #love #photooftheday #instagood #picoftheday #bestoftheday #giveaway #crypto #ai
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Nanjing: เมื่อ TSMC ต้องขออนุญาตทุกครั้งเพื่อส่งเครื่องมือไปยังโรงงานของตัวเอง

    ในช่วงปลายปี 2025 รัฐบาลสหรัฐฯ ประกาศยกเลิกสิทธิ์ Validated End User (VEU) ของ TSMC สำหรับโรงงาน Fab 16 ที่เมืองหนานจิง ประเทศจีน ซึ่งเดิมทีอนุญาตให้ TSMC สามารถนำเข้าเครื่องมือผลิตชิปจากบริษัทอเมริกัน เช่น Applied Materials, KLA และ Lam Research ได้โดยไม่ต้องขออนุญาตรายครั้ง

    เมื่อ VEU ถูกยกเลิกตั้งแต่วันที่ 31 ธันวาคม 2025 เป็นต้นไป ทุกการส่งออกเครื่องมือ, อะไหล่, หรือสารเคมีไปยัง Fab 16 จะต้องผ่านการตรวจสอบแบบรายรายการจากรัฐบาลสหรัฐฯ ซึ่งมี “แนวโน้มปฏิเสธ” เป็นค่าเริ่มต้น ทำให้เกิดความไม่แน่นอนในการดำเนินงานของโรงงานนี้

    แม้ TSMC จะยืนยันว่าจะพยายามดำเนินงานต่อไปโดยไม่สะดุด แต่การเปลี่ยนแปลงนี้อาจบีบให้บริษัทต้องหันไปใช้เครื่องมือจากผู้ผลิตจีน เช่น AMEC, Naura, Kingsemi หรือ Piotech ซึ่งแม้จะมีความก้าวหน้าในบางด้าน แต่ยังไม่สามารถทดแทนเครื่องมือระดับ 16nm ได้ทั้งหมด โดยเฉพาะในส่วนของ lithography ที่ยังไม่มีผู้ผลิตจีนรายใดสามารถทำได้ในระดับที่ TSMC ต้องการ

    ผลกระทบต่อ TSMC อาจไม่รุนแรงเท่ากับ Samsung หรือ SK hynix ที่มี footprint ในจีนมากกว่า แต่การลดกำลังผลิตของ Fab 16 จะส่งผลดีต่อผู้ผลิตจีนอย่าง SMIC และ HuaHong ที่อาจได้รับคำสั่งซื้อเพิ่มขึ้น และช่วยผลักดันนโยบาย self-sufficiency ของรัฐบาลจีนให้เดินหน้าเร็วขึ้น

    https://www.tomshardware.com/tech-industry/semiconductors/u-s-govt-revokes-tsmcs-authorization-to-ship-tools-to-its-fabs-in-china-special-export-license-to-be-pulled-by-end-of-2025
    🎙️ เรื่องเล่าจาก Nanjing: เมื่อ TSMC ต้องขออนุญาตทุกครั้งเพื่อส่งเครื่องมือไปยังโรงงานของตัวเอง ในช่วงปลายปี 2025 รัฐบาลสหรัฐฯ ประกาศยกเลิกสิทธิ์ Validated End User (VEU) ของ TSMC สำหรับโรงงาน Fab 16 ที่เมืองหนานจิง ประเทศจีน ซึ่งเดิมทีอนุญาตให้ TSMC สามารถนำเข้าเครื่องมือผลิตชิปจากบริษัทอเมริกัน เช่น Applied Materials, KLA และ Lam Research ได้โดยไม่ต้องขออนุญาตรายครั้ง เมื่อ VEU ถูกยกเลิกตั้งแต่วันที่ 31 ธันวาคม 2025 เป็นต้นไป ทุกการส่งออกเครื่องมือ, อะไหล่, หรือสารเคมีไปยัง Fab 16 จะต้องผ่านการตรวจสอบแบบรายรายการจากรัฐบาลสหรัฐฯ ซึ่งมี “แนวโน้มปฏิเสธ” เป็นค่าเริ่มต้น ทำให้เกิดความไม่แน่นอนในการดำเนินงานของโรงงานนี้ แม้ TSMC จะยืนยันว่าจะพยายามดำเนินงานต่อไปโดยไม่สะดุด แต่การเปลี่ยนแปลงนี้อาจบีบให้บริษัทต้องหันไปใช้เครื่องมือจากผู้ผลิตจีน เช่น AMEC, Naura, Kingsemi หรือ Piotech ซึ่งแม้จะมีความก้าวหน้าในบางด้าน แต่ยังไม่สามารถทดแทนเครื่องมือระดับ 16nm ได้ทั้งหมด โดยเฉพาะในส่วนของ lithography ที่ยังไม่มีผู้ผลิตจีนรายใดสามารถทำได้ในระดับที่ TSMC ต้องการ ผลกระทบต่อ TSMC อาจไม่รุนแรงเท่ากับ Samsung หรือ SK hynix ที่มี footprint ในจีนมากกว่า แต่การลดกำลังผลิตของ Fab 16 จะส่งผลดีต่อผู้ผลิตจีนอย่าง SMIC และ HuaHong ที่อาจได้รับคำสั่งซื้อเพิ่มขึ้น และช่วยผลักดันนโยบาย self-sufficiency ของรัฐบาลจีนให้เดินหน้าเร็วขึ้น https://www.tomshardware.com/tech-industry/semiconductors/u-s-govt-revokes-tsmcs-authorization-to-ship-tools-to-its-fabs-in-china-special-export-license-to-be-pulled-by-end-of-2025
    0 ความคิดเห็น 0 การแบ่งปัน 191 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Peoria: เมื่อ Amkor สร้างโรงงานแพ็กชิปมูลค่า 2 พันล้าน เพื่ออุดช่องโหว่ของอเมริกา

    ในขณะที่สหรัฐฯ ทุ่มงบมหาศาลเพื่อดึงการผลิตชิปกลับสู่ประเทศผ่าน CHIPS Act โรงงานผลิตเวเฟอร์ของ TSMC และ Intel ก็เริ่มตั้งหลักในแอริโซนาแล้ว แต่ปัญหาคือ “หลังบ้าน” อย่างการประกอบ ทดสอบ และแพ็กเกจชิปยังต้องส่งกลับไปทำที่ไต้หวันหรือเกาหลีใต้ ทำให้เกิดคอขวดที่กระทบต่อทั้ง AI server และ GPU ระดับสูง

    Amkor Technology จึงประกาศสร้างโรงงานใหม่ใน Peoria, Arizona บนพื้นที่ 104 เอเคอร์ ด้วยงบลงทุนกว่า 2 พันล้านดอลลาร์ โดยมี Apple เป็นลูกค้ารายแรก และ TSMC เซ็น MOU เพื่อส่งเวเฟอร์จากโรงงานในฟีนิกซ์มาประกอบที่นี่โดยตรง ลดเวลารอจากหลายสัปดาห์เหลือไม่กี่วัน

    โรงงานนี้จะรองรับเทคโนโลยีแพ็กเกจระดับสูง เช่น CoWoS และ InFO ซึ่งเป็นหัวใจของชิป AI อย่าง Nvidia H100/H200 และ AMD MI300 รวมถึงชิป Apple M-series ที่ใช้ใน Mac และ iPad โดยได้รับเงินสนับสนุนจาก CHIPS Act กว่า 407 ล้านดอลลาร์ และสิทธิประโยชน์ทางภาษีจากรัฐบาลกลาง

    แต่แม้จะเป็นก้าวใหญ่ของอุตสาหกรรม โรงงานนี้จะเริ่มผลิตจริงในปี 2028 ซึ่งหมายความว่าคอขวดของการแพ็กชิปจะยังคงอยู่ไปอีกหลายปี และที่น่าห่วงกว่าคือปัญหาขาดแคลนแรงงาน—คาดว่าจะขาดคนงานถึง 70,000–90,000 คนทั่วสหรัฐฯ แม้จะมีระบบอัตโนมัติช่วยก็ตาม

    https://www.tomshardware.com/tech-industry/semiconductors/amkor-arizona-plant-plans-approved
    🎙️ เรื่องเล่าจาก Peoria: เมื่อ Amkor สร้างโรงงานแพ็กชิปมูลค่า 2 พันล้าน เพื่ออุดช่องโหว่ของอเมริกา ในขณะที่สหรัฐฯ ทุ่มงบมหาศาลเพื่อดึงการผลิตชิปกลับสู่ประเทศผ่าน CHIPS Act โรงงานผลิตเวเฟอร์ของ TSMC และ Intel ก็เริ่มตั้งหลักในแอริโซนาแล้ว แต่ปัญหาคือ “หลังบ้าน” อย่างการประกอบ ทดสอบ และแพ็กเกจชิปยังต้องส่งกลับไปทำที่ไต้หวันหรือเกาหลีใต้ ทำให้เกิดคอขวดที่กระทบต่อทั้ง AI server และ GPU ระดับสูง Amkor Technology จึงประกาศสร้างโรงงานใหม่ใน Peoria, Arizona บนพื้นที่ 104 เอเคอร์ ด้วยงบลงทุนกว่า 2 พันล้านดอลลาร์ โดยมี Apple เป็นลูกค้ารายแรก และ TSMC เซ็น MOU เพื่อส่งเวเฟอร์จากโรงงานในฟีนิกซ์มาประกอบที่นี่โดยตรง ลดเวลารอจากหลายสัปดาห์เหลือไม่กี่วัน โรงงานนี้จะรองรับเทคโนโลยีแพ็กเกจระดับสูง เช่น CoWoS และ InFO ซึ่งเป็นหัวใจของชิป AI อย่าง Nvidia H100/H200 และ AMD MI300 รวมถึงชิป Apple M-series ที่ใช้ใน Mac และ iPad โดยได้รับเงินสนับสนุนจาก CHIPS Act กว่า 407 ล้านดอลลาร์ และสิทธิประโยชน์ทางภาษีจากรัฐบาลกลาง แต่แม้จะเป็นก้าวใหญ่ของอุตสาหกรรม โรงงานนี้จะเริ่มผลิตจริงในปี 2028 ซึ่งหมายความว่าคอขวดของการแพ็กชิปจะยังคงอยู่ไปอีกหลายปี และที่น่าห่วงกว่าคือปัญหาขาดแคลนแรงงาน—คาดว่าจะขาดคนงานถึง 70,000–90,000 คนทั่วสหรัฐฯ แม้จะมีระบบอัตโนมัติช่วยก็ตาม https://www.tomshardware.com/tech-industry/semiconductors/amkor-arizona-plant-plans-approved
    0 ความคิดเห็น 0 การแบ่งปัน 164 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Silicon Valley: Google ลดผู้จัดการ 35% เพื่อความคล่องตัว

    ในช่วงปีที่ผ่านมา Google ได้ตัดสินใจครั้งใหญ่ในการปรับโครงสร้างองค์กร โดยลดจำนวนผู้จัดการที่ดูแลทีมขนาดเล็กลงถึง 35% เพื่อทำให้การดำเนินงานมีประสิทธิภาพมากขึ้น และลดการพึ่งพาการเพิ่มจำนวนพนักงานเป็นหลักในการแก้ปัญหา

    Brian Welle รองประธานฝ่าย People Analytics เผยว่า ผู้จัดการที่ดูแลทีมเล็ก (น้อยกว่า 3 คน) หลายคนถูกปรับบทบาทให้เป็น “individual contributor” หรือผู้ปฏิบัติงานโดยตรงแทนที่จะเป็นหัวหน้า ซึ่งช่วยลดชั้นของการบริหารและเพิ่มความคล่องตัวในการตัดสินใจ

    นอกจากนี้ Google ยังเปิดตัวโครงการ “Voluntary Exit Program” (VEP) ซึ่งเป็นการให้พนักงานเลือกลาออกโดยสมัครใจ พร้อมแพ็กเกจสนับสนุน โดยเฉพาะในทีมด้านการค้นหา การตลาด ฮาร์ดแวร์ และทรัพยากรบุคคล ซึ่งมีพนักงาน 3–5% ตัดสินใจเข้าร่วมโครงการนี้ ส่วนใหญ่ต้องการพักงานหรือดูแลครอบครัว

    แม้จะมีเสียงสะท้อนในเชิงบวกจากผู้บริหาร แต่พนักงานบางส่วนก็ยังรู้สึกไม่มั่นคง โดยเฉพาะหลังจากการปลดพนักงาน 6% ในปี 2023 และการชะลอการจ้างงานอย่างต่อเนื่อง

    การลดจำนวนผู้จัดการของ Google
    ลดผู้จัดการที่ดูแลทีมเล็กลง 35% ภายใน 1 ปี
    ผู้จัดการบางคนถูกปรับบทบาทเป็น individual contributor
    เป้าหมายคือการลดชั้นการบริหารและเพิ่มความคล่องตัว

    โครงการ Voluntary Exit Program (VEP)
    เปิดให้พนักงานใน 10 product areas ลาออกโดยสมัครใจ
    ทีมที่เข้าร่วม ได้แก่ Search, Marketing, Hardware, People Operations
    พนักงาน 3–5% ในแต่ละทีมเลือกเข้าร่วม VEP
    เหตุผลหลักคือการพักงานหรือดูแลครอบครัว

    มุมมองจากผู้บริหาร
    Sundar Pichai เน้นว่า “ไม่ควรแก้ทุกปัญหาด้วยการเพิ่มคน”
    Anat Ashkenazi CFO คนใหม่ ผลักดันการลดต้นทุนเพิ่มเติม
    Google ชะลอการจ้างงาน และขอให้พนักงานทำงานมากขึ้นด้วยทรัพยากรที่น้อยลง

    ความเคลื่อนไหวในอุตสาหกรรม
    Meta มีนโยบาย “recharge” ให้พนักงานพัก 1 เดือนหลังทำงานครบ 5 ปี
    Google ปฏิเสธแนวคิดนี้ โดยชี้ว่าระบบ leave ปัจจุบันเพียงพอแล้ว
    การเปรียบเทียบสวัสดิการระหว่างบริษัทเทคกลายเป็นประเด็นในวงประชุม

    ความไม่มั่นคงในองค์กร
    พนักงานบางส่วนกังวลเรื่อง job security หลังการปลดพนักงานหลายรอบ
    การลดผู้จัดการอาจกระทบการดูแลทีมและการพัฒนาอาชีพ

    ผลกระทบจากการลดชั้นบริหาร
    อาจเกิดภาระงานเกินในระดับปฏิบัติการ
    การตัดสินใจเชิงกลยุทธ์อาจขาดมุมมองจากผู้จัดการที่เคยมีบทบาท

    ความเข้าใจผิดเกี่ยวกับ VEP
    แม้จะเป็นการลาออกโดยสมัครใจ แต่บางคนอาจรู้สึกถูกกดดันให้เลือกทางนี้
    การใช้ VEP แทนการปลดพนักงานอาจไม่เหมาะกับทุกวัฒนธรรมองค์กร

    https://www.cnbc.com/2025/08/27/google-executive-says-company-has-cut-a-third-of-its-managers.html
    🎙️ เรื่องเล่าจาก Silicon Valley: Google ลดผู้จัดการ 35% เพื่อความคล่องตัว ในช่วงปีที่ผ่านมา Google ได้ตัดสินใจครั้งใหญ่ในการปรับโครงสร้างองค์กร โดยลดจำนวนผู้จัดการที่ดูแลทีมขนาดเล็กลงถึง 35% เพื่อทำให้การดำเนินงานมีประสิทธิภาพมากขึ้น และลดการพึ่งพาการเพิ่มจำนวนพนักงานเป็นหลักในการแก้ปัญหา Brian Welle รองประธานฝ่าย People Analytics เผยว่า ผู้จัดการที่ดูแลทีมเล็ก (น้อยกว่า 3 คน) หลายคนถูกปรับบทบาทให้เป็น “individual contributor” หรือผู้ปฏิบัติงานโดยตรงแทนที่จะเป็นหัวหน้า ซึ่งช่วยลดชั้นของการบริหารและเพิ่มความคล่องตัวในการตัดสินใจ นอกจากนี้ Google ยังเปิดตัวโครงการ “Voluntary Exit Program” (VEP) ซึ่งเป็นการให้พนักงานเลือกลาออกโดยสมัครใจ พร้อมแพ็กเกจสนับสนุน โดยเฉพาะในทีมด้านการค้นหา การตลาด ฮาร์ดแวร์ และทรัพยากรบุคคล ซึ่งมีพนักงาน 3–5% ตัดสินใจเข้าร่วมโครงการนี้ ส่วนใหญ่ต้องการพักงานหรือดูแลครอบครัว แม้จะมีเสียงสะท้อนในเชิงบวกจากผู้บริหาร แต่พนักงานบางส่วนก็ยังรู้สึกไม่มั่นคง โดยเฉพาะหลังจากการปลดพนักงาน 6% ในปี 2023 และการชะลอการจ้างงานอย่างต่อเนื่อง ✅ การลดจำนวนผู้จัดการของ Google ➡️ ลดผู้จัดการที่ดูแลทีมเล็กลง 35% ภายใน 1 ปี ➡️ ผู้จัดการบางคนถูกปรับบทบาทเป็น individual contributor ➡️ เป้าหมายคือการลดชั้นการบริหารและเพิ่มความคล่องตัว ✅ โครงการ Voluntary Exit Program (VEP) ➡️ เปิดให้พนักงานใน 10 product areas ลาออกโดยสมัครใจ ➡️ ทีมที่เข้าร่วม ได้แก่ Search, Marketing, Hardware, People Operations ➡️ พนักงาน 3–5% ในแต่ละทีมเลือกเข้าร่วม VEP ➡️ เหตุผลหลักคือการพักงานหรือดูแลครอบครัว ✅ มุมมองจากผู้บริหาร ➡️ Sundar Pichai เน้นว่า “ไม่ควรแก้ทุกปัญหาด้วยการเพิ่มคน” ➡️ Anat Ashkenazi CFO คนใหม่ ผลักดันการลดต้นทุนเพิ่มเติม ➡️ Google ชะลอการจ้างงาน และขอให้พนักงานทำงานมากขึ้นด้วยทรัพยากรที่น้อยลง ✅ ความเคลื่อนไหวในอุตสาหกรรม ➡️ Meta มีนโยบาย “recharge” ให้พนักงานพัก 1 เดือนหลังทำงานครบ 5 ปี ➡️ Google ปฏิเสธแนวคิดนี้ โดยชี้ว่าระบบ leave ปัจจุบันเพียงพอแล้ว ➡️ การเปรียบเทียบสวัสดิการระหว่างบริษัทเทคกลายเป็นประเด็นในวงประชุม ‼️ ความไม่มั่นคงในองค์กร ⛔ พนักงานบางส่วนกังวลเรื่อง job security หลังการปลดพนักงานหลายรอบ ⛔ การลดผู้จัดการอาจกระทบการดูแลทีมและการพัฒนาอาชีพ ‼️ ผลกระทบจากการลดชั้นบริหาร ⛔ อาจเกิดภาระงานเกินในระดับปฏิบัติการ ⛔ การตัดสินใจเชิงกลยุทธ์อาจขาดมุมมองจากผู้จัดการที่เคยมีบทบาท ‼️ ความเข้าใจผิดเกี่ยวกับ VEP ⛔ แม้จะเป็นการลาออกโดยสมัครใจ แต่บางคนอาจรู้สึกถูกกดดันให้เลือกทางนี้ ⛔ การใช้ VEP แทนการปลดพนักงานอาจไม่เหมาะกับทุกวัฒนธรรมองค์กร https://www.cnbc.com/2025/08/27/google-executive-says-company-has-cut-a-third-of-its-managers.html
    WWW.CNBC.COM
    Google has eliminated 35% of managers overseeing small teams in past year, exec says
    In Google's continuing effort to run more efficiently, the company has been getting rid of managers who oversee fewer than three people.
    0 ความคิดเห็น 0 การแบ่งปัน 174 มุมมอง 0 รีวิว
  • รถไฟฟ้า LRT สายแรกในปีนัง ต้นทุนก่อสร้างพุ่ง 68%

    โครงการรถไฟฟ้ารางเบาสายมูเทียรา (LRT Mutiara Line) สายแรกบนเกาะปีนัง ประเทศมาเลเซีย เป็นที่วิจารณ์ว่าต้นทุนค่าก่อสร้างเพิ่มขึ้นกว่า 68% เมื่อนายแอนโทนี โลค รมว.คมนาคมมาเลเซีย กล่าวต่อที่ประชุมสรุปแผนพัฒนามาเลเซียฉบับที่ 13 เมื่อวันที่ 18 ส.ค. ว่า ต้นทุนโครงการจะถูกจำกัดไว้ที่ราว 16,000-17,000 ล้านริงกิต ไม่ใช่ 10,000 ล้านริงกิต ตามที่นายอันวาร์ อิบราฮิม นายกรัฐมนตรีมาเลเซีย เคยประกาศไว้ในงบประมาณปี 2024 โดยให้เหตุผลว่าขณะนั้นคาดการณ์เบื้องต้นเท่านั้น ยังไม่ได้คำนึงถึงมูลค่าการบริหารจัดการโครงการ และการประเมินทางวิศวกรรม

    ต่อมาวันที่ 21 ส.ค. MRT Corp ซึ่งได้รับแต่งตั้งจากรัฐบาลกลางมาเลเซียให้เป็นผู้พัฒนาโครงการชี้แจงว่า เดิมโครงการ Penang LRT สายบายัน เลปาส (Bayan Lepas) เส้นทางเกาะซิลิคอน (Silicon Island) ถึงคอมตาร์ (Komtar) เมื่อปี 2559 ประเมินไว้ที่ 10,000 ล้านริงกิต แต่ได้ขยายเส้นทางจากสถานีแมคคัลลัม (Macallum) ถึงสถานีปีนังเซ็นทรัล (Penang Sentral) ทำให้มีค่าใช้จ่ายเพิ่มขึ้น 3,000 ล้านริงกิต อีกทั้งอ้างอิงจากข้อมูลตลาดในปี 2567 จำเป็นต้องปรับปรุงงบประมาณ เนื่องจากอัตราเงินเฟ้อ ราคาที่ดินเพิ่มขึ้น และงานก่อสร้างเพิ่มเติม ที่แมคคัลลัมและเกาะซิลิคอน

    แต่รัฐบาลได้มอบหมายให้ควบคุมค่าใช้จ่ายให้ต่ำกว่า จากการประกวดราคา โดยสัญญาที่ 1 งานโยธาช่วงเกาะซิลิคอนถึงคอมตาร์ ระยะทาง 24 กิโลเมตร บริษัท เอสอาร์เอส คอนซอร์เตียม เป็นผู้รับจ้างก่อสร้าง ได้ปรับลดมูลค่าสัญญาจาก 8,310 ล้านริงกิต เหลือ 7,930 ล้านริงกิต ซึ่งงบประมาณ 16,800 ล้านริงกิตยังรวมถึงค่าเวนคืนที่ดิน ประเมินไว้ที่ 2 พันล้านริงกิต ส่วนที่เหลือครอบคลุมสัญญาที่ 2 งานโยธาช่วงสถานีแมคคัลลัมถึงสถานีปีนังเซ็นทรัล ศูนย์ซ่อมบำรุงที่สุไหงนิบง (Sungai Nibong) และสัญญาที่ 3 เหมาจ้างทำระบบรถไฟฟ้าแบบเบ็ดเสร็จ ยืนยันว่าไม่ใช่ควบคุมงบประมาณไม่ได้ แต่สะท้อนสภาพตลาดปัจจุบัน

    โครงการ LRT Mutiara Line มีระยะทาง 29.5 กิโลเมตร ประกอบด้วยสถานียกระดับ 21 สถานี มีสะพานข้ามทะเลความยาว 5 กิโลเมตร เชื่อมต่อระหว่างเกาะปีนังกับฝั่งแผ่นดินใหญ่ เมืองบัตเตอร์เวอร์ธ ใช้เวลาเดินทาง 49 นาที เริ่มต้นที่สถานี PSR-A (โครงการถมทะเลปีนังตอนใต้ เกาะ A) ผ่านท่าอากาศยานนานาชาติปีนัง (PEN) เขตอุตสาหกรรมเสรีบายันเลปาส อาคารคอมตาร์ และสถานีปีนังเซ็นทรัล ที่เชื่อมต่อรถทัวร์ รถไฟ ETS ไปกรุงกัวลาลัมเปอร์ และรถไฟ KTM Komuter ไปปาดังเบซาร์ และอิโปห์ โดยมีเป้าหมายเปิดให้บริการในเดือน ธ.ค.2574

    #Newskit
    รถไฟฟ้า LRT สายแรกในปีนัง ต้นทุนก่อสร้างพุ่ง 68% โครงการรถไฟฟ้ารางเบาสายมูเทียรา (LRT Mutiara Line) สายแรกบนเกาะปีนัง ประเทศมาเลเซีย เป็นที่วิจารณ์ว่าต้นทุนค่าก่อสร้างเพิ่มขึ้นกว่า 68% เมื่อนายแอนโทนี โลค รมว.คมนาคมมาเลเซีย กล่าวต่อที่ประชุมสรุปแผนพัฒนามาเลเซียฉบับที่ 13 เมื่อวันที่ 18 ส.ค. ว่า ต้นทุนโครงการจะถูกจำกัดไว้ที่ราว 16,000-17,000 ล้านริงกิต ไม่ใช่ 10,000 ล้านริงกิต ตามที่นายอันวาร์ อิบราฮิม นายกรัฐมนตรีมาเลเซีย เคยประกาศไว้ในงบประมาณปี 2024 โดยให้เหตุผลว่าขณะนั้นคาดการณ์เบื้องต้นเท่านั้น ยังไม่ได้คำนึงถึงมูลค่าการบริหารจัดการโครงการ และการประเมินทางวิศวกรรม ต่อมาวันที่ 21 ส.ค. MRT Corp ซึ่งได้รับแต่งตั้งจากรัฐบาลกลางมาเลเซียให้เป็นผู้พัฒนาโครงการชี้แจงว่า เดิมโครงการ Penang LRT สายบายัน เลปาส (Bayan Lepas) เส้นทางเกาะซิลิคอน (Silicon Island) ถึงคอมตาร์ (Komtar) เมื่อปี 2559 ประเมินไว้ที่ 10,000 ล้านริงกิต แต่ได้ขยายเส้นทางจากสถานีแมคคัลลัม (Macallum) ถึงสถานีปีนังเซ็นทรัล (Penang Sentral) ทำให้มีค่าใช้จ่ายเพิ่มขึ้น 3,000 ล้านริงกิต อีกทั้งอ้างอิงจากข้อมูลตลาดในปี 2567 จำเป็นต้องปรับปรุงงบประมาณ เนื่องจากอัตราเงินเฟ้อ ราคาที่ดินเพิ่มขึ้น และงานก่อสร้างเพิ่มเติม ที่แมคคัลลัมและเกาะซิลิคอน แต่รัฐบาลได้มอบหมายให้ควบคุมค่าใช้จ่ายให้ต่ำกว่า จากการประกวดราคา โดยสัญญาที่ 1 งานโยธาช่วงเกาะซิลิคอนถึงคอมตาร์ ระยะทาง 24 กิโลเมตร บริษัท เอสอาร์เอส คอนซอร์เตียม เป็นผู้รับจ้างก่อสร้าง ได้ปรับลดมูลค่าสัญญาจาก 8,310 ล้านริงกิต เหลือ 7,930 ล้านริงกิต ซึ่งงบประมาณ 16,800 ล้านริงกิตยังรวมถึงค่าเวนคืนที่ดิน ประเมินไว้ที่ 2 พันล้านริงกิต ส่วนที่เหลือครอบคลุมสัญญาที่ 2 งานโยธาช่วงสถานีแมคคัลลัมถึงสถานีปีนังเซ็นทรัล ศูนย์ซ่อมบำรุงที่สุไหงนิบง (Sungai Nibong) และสัญญาที่ 3 เหมาจ้างทำระบบรถไฟฟ้าแบบเบ็ดเสร็จ ยืนยันว่าไม่ใช่ควบคุมงบประมาณไม่ได้ แต่สะท้อนสภาพตลาดปัจจุบัน โครงการ LRT Mutiara Line มีระยะทาง 29.5 กิโลเมตร ประกอบด้วยสถานียกระดับ 21 สถานี มีสะพานข้ามทะเลความยาว 5 กิโลเมตร เชื่อมต่อระหว่างเกาะปีนังกับฝั่งแผ่นดินใหญ่ เมืองบัตเตอร์เวอร์ธ ใช้เวลาเดินทาง 49 นาที เริ่มต้นที่สถานี PSR-A (โครงการถมทะเลปีนังตอนใต้ เกาะ A) ผ่านท่าอากาศยานนานาชาติปีนัง (PEN) เขตอุตสาหกรรมเสรีบายันเลปาส อาคารคอมตาร์ และสถานีปีนังเซ็นทรัล ที่เชื่อมต่อรถทัวร์ รถไฟ ETS ไปกรุงกัวลาลัมเปอร์ และรถไฟ KTM Komuter ไปปาดังเบซาร์ และอิโปห์ โดยมีเป้าหมายเปิดให้บริการในเดือน ธ.ค.2574 #Newskit
    Like
    1
    1 ความคิดเห็น 0 การแบ่งปัน 284 มุมมอง 0 รีวิว
  • จาก MacBook สู่ Arch Linux – การเดินทางของอิสระและการปรับแต่งแบบไร้ขีดจำกัด

    หลังจากใช้ MacBook มานานกว่า 15 ปี ผู้เขียนตัดสินใจเปลี่ยนมาใช้ Linux เต็มตัว โดยเลือก Arch Linux ที่ติดตั้งผ่าน Omarchy ซึ่งเป็นสคริปต์ที่ช่วยให้การตั้งค่าระบบ Hyprland เป็นเรื่องง่ายและสวยงาม

    เขาเปลี่ยนจาก MacBook Pro M1 Max มาใช้ Lenovo ThinkBook 14 G7 ARP ที่ราคาถูกกว่า แต่สามารถปรับแต่งได้ตามใจชอบ แม้จะต้องแลกกับคุณภาพฮาร์ดแวร์และอายุแบตเตอรี่ที่ลดลง แต่เขากลับรู้สึกสนุกและมีอิสระมากขึ้น

    สิ่งที่เขาชื่นชอบคือการปรับแต่งทุกอย่างผ่านคีย์ลัด การใช้ TUI (Text-based User Interface) และการจัดการแอปผ่าน Walker และ Clipse ที่แทน Raycast ได้อย่างยอดเยี่ยม

    แม้จะมีข้อเสีย เช่น ไม่มีแอป Grammarly แบบ native หรือการ backup ที่ไม่สะดวกเท่า TimeMachine แต่เขาก็พบว่าการเรียนรู้และการปรับแต่งระบบ Linux เป็นประสบการณ์ที่คุ้มค่า

    สรุปเนื้อหาเป็นหัวข้อ
    ผู้เขียนเปลี่ยนจาก MacBook Pro M1 Max มาใช้ Lenovo ThinkBook 14 G7 ARP พร้อมติดตั้ง Arch Linux ผ่าน Omarchy
    Omarchy เป็นสคริปต์ที่ช่วยติดตั้ง Arch Linux พร้อม Hyprland และเครื่องมือสำหรับนักพัฒนาแบบครบชุด
    ใช้ Walker และ Clipse แทน Raycast สำหรับการค้นหาไฟล์และจัดการ clipboard
    ใช้ Kanata แทน Karabiner-Elements เพื่อปรับแต่งคีย์ลัดแบบ Vim navigation
    เปลี่ยนจาก Sync.com มาใช้ Filen.io สำหรับการ sync ไฟล์บน Linux
    ใช้ Obsidian สำหรับจดบันทึก และ Neovim + tmux สำหรับงานเขียนโค้ด
    ระบบสามารถปรับแต่งธีม, คีย์ลัด, และการทำงานได้แบบไร้ขีดจำกัด
    Hyprland ช่วยให้การนำทางระหว่าง workspace และหน้าจอภายนอกเป็นไปอย่างลื่นไหล
    การติดตั้ง Omarchy ใช้เพียงคำสั่งเดียว และมีการตั้งค่าล่วงหน้าสำหรับแอปยอดนิยม
    ผู้เขียนรู้สึกว่า Linux ให้ความอิสระมากกว่า macOS และสนุกกับการเรียนรู้ระบบใหม่

    ข้อมูลเสริมจากภายนอก
    Omarchy ถูกพัฒนาโดย DHH (ผู้สร้าง Ruby on Rails) เพื่อช่วยให้ผู้ใช้ macOS เปลี่ยนมาใช้ Arch Linux ได้ง่ายขึ้น
    Hyprland เป็น window manager แบบ tiling ที่เน้นความเร็วและความสวยงาม
    Arch Linux เป็นระบบ rolling release ที่ให้ผู้ใช้ควบคุมทุกอย่างตั้งแต่ระดับแพ็กเกจ
    GitHub มีเวอร์ชันของ Omarchy สำหรับ Apple Silicon ผ่าน Asahi Linux
    การใช้ TUI เช่น Impala สำหรับจัดการ WiFi ทำให้การใช้งาน Linux สนุกและมีประสิทธิภาพมากขึ้น

    https://www.ssp.sh/blog/macbook-to-arch-linux-omarchy/
    🎙️ จาก MacBook สู่ Arch Linux – การเดินทางของอิสระและการปรับแต่งแบบไร้ขีดจำกัด หลังจากใช้ MacBook มานานกว่า 15 ปี ผู้เขียนตัดสินใจเปลี่ยนมาใช้ Linux เต็มตัว โดยเลือก Arch Linux ที่ติดตั้งผ่าน Omarchy ซึ่งเป็นสคริปต์ที่ช่วยให้การตั้งค่าระบบ Hyprland เป็นเรื่องง่ายและสวยงาม เขาเปลี่ยนจาก MacBook Pro M1 Max มาใช้ Lenovo ThinkBook 14 G7 ARP ที่ราคาถูกกว่า แต่สามารถปรับแต่งได้ตามใจชอบ แม้จะต้องแลกกับคุณภาพฮาร์ดแวร์และอายุแบตเตอรี่ที่ลดลง แต่เขากลับรู้สึกสนุกและมีอิสระมากขึ้น สิ่งที่เขาชื่นชอบคือการปรับแต่งทุกอย่างผ่านคีย์ลัด การใช้ TUI (Text-based User Interface) และการจัดการแอปผ่าน Walker และ Clipse ที่แทน Raycast ได้อย่างยอดเยี่ยม แม้จะมีข้อเสีย เช่น ไม่มีแอป Grammarly แบบ native หรือการ backup ที่ไม่สะดวกเท่า TimeMachine แต่เขาก็พบว่าการเรียนรู้และการปรับแต่งระบบ Linux เป็นประสบการณ์ที่คุ้มค่า 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ ผู้เขียนเปลี่ยนจาก MacBook Pro M1 Max มาใช้ Lenovo ThinkBook 14 G7 ARP พร้อมติดตั้ง Arch Linux ผ่าน Omarchy ➡️ Omarchy เป็นสคริปต์ที่ช่วยติดตั้ง Arch Linux พร้อม Hyprland และเครื่องมือสำหรับนักพัฒนาแบบครบชุด ➡️ ใช้ Walker และ Clipse แทน Raycast สำหรับการค้นหาไฟล์และจัดการ clipboard ➡️ ใช้ Kanata แทน Karabiner-Elements เพื่อปรับแต่งคีย์ลัดแบบ Vim navigation ➡️ เปลี่ยนจาก Sync.com มาใช้ Filen.io สำหรับการ sync ไฟล์บน Linux ➡️ ใช้ Obsidian สำหรับจดบันทึก และ Neovim + tmux สำหรับงานเขียนโค้ด ➡️ ระบบสามารถปรับแต่งธีม, คีย์ลัด, และการทำงานได้แบบไร้ขีดจำกัด ➡️ Hyprland ช่วยให้การนำทางระหว่าง workspace และหน้าจอภายนอกเป็นไปอย่างลื่นไหล ➡️ การติดตั้ง Omarchy ใช้เพียงคำสั่งเดียว และมีการตั้งค่าล่วงหน้าสำหรับแอปยอดนิยม ➡️ ผู้เขียนรู้สึกว่า Linux ให้ความอิสระมากกว่า macOS และสนุกกับการเรียนรู้ระบบใหม่ ✅ ข้อมูลเสริมจากภายนอก ➡️ Omarchy ถูกพัฒนาโดย DHH (ผู้สร้าง Ruby on Rails) เพื่อช่วยให้ผู้ใช้ macOS เปลี่ยนมาใช้ Arch Linux ได้ง่ายขึ้น ➡️ Hyprland เป็น window manager แบบ tiling ที่เน้นความเร็วและความสวยงาม ➡️ Arch Linux เป็นระบบ rolling release ที่ให้ผู้ใช้ควบคุมทุกอย่างตั้งแต่ระดับแพ็กเกจ ➡️ GitHub มีเวอร์ชันของ Omarchy สำหรับ Apple Silicon ผ่าน Asahi Linux ➡️ การใช้ TUI เช่น Impala สำหรับจัดการ WiFi ทำให้การใช้งาน Linux สนุกและมีประสิทธิภาพมากขึ้น https://www.ssp.sh/blog/macbook-to-arch-linux-omarchy/
    WWW.SSP.SH
    My Journey from macOS to Arch Linux with Omarchy
    After 15 years on macOS, I made the leap to Arch Linux using Omarchy. Here's what I discovered about the trade-offs, workflow changes, and why shorter battery life and fan noise haven't sent me back to my MacBook.
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
  • Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ

    ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก

    Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4

    นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น

    Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย

    การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด

    สรุปเนื้อหาเป็นหัวข้อ
    Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung
    Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง
    CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4
    รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง
    ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit
    ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit
    Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก
    รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี
    มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle
    ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล

    ข้อมูลเสริมจากภายนอก
    TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ
    N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม
    การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry
    Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล
    Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์

    https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    🎙️ Pixel 10 กับ Tensor G5 – เมื่อ Google เลือก TSMC แทน Samsung เพื่อก้าวสู่ยุค AI บนมือถือ ในเดือนสิงหาคม 2025 Google เปิดตัว Pixel 10 และ Pixel 10 Pro พร้อมชิป Tensor G5 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ในสายผลิตภัณฑ์ Pixel เพราะเป็นครั้งแรกที่ Google เลือก TSMC เป็นผู้ผลิตชิป แทนที่ Samsung ที่เคยร่วมงานกันมาตั้งแต่ Tensor รุ่นแรก Tensor G5 ถูกผลิตด้วยเทคโนโลยี N3P ของ TSMC ซึ่งเป็นกระบวนการระดับ 3 นาโนเมตรที่ให้ประสิทธิภาพสูงและใช้พลังงานต่ำกว่าเดิม โดย CPU เร็วขึ้น 34% และ TPU สำหรับงาน AI เร็วขึ้นถึง 60% เมื่อเทียบกับ Tensor G4 นอกจากความเร็วแล้ว Tensor G5 ยังมาพร้อมกับความสามารถด้าน AI ที่ล้ำหน้า เช่น การรันโมเดล Gemini Nano ของ DeepMind บนเครื่องโดยไม่ต้องพึ่งคลาวด์ ทำให้ฟีเจอร์อย่าง Magic Cue, Call Notes, Voice Translate และ Gboard Smart Edit ทำงานได้เร็วและแม่นยำขึ้น Pixel 10 ยังมีฟีเจอร์กล้องใหม่ เช่น Add Me, Auto Best Take และ 100x Pro Res Zoom ที่ใช้โมเดล diffusion ขนาดเกือบพันล้านพารามิเตอร์ ซึ่งรันบน TPU โดยตรง พร้อมระบบ ISP ใหม่ที่ช่วยให้ถ่ายวิดีโอ 10-bit ได้แม้ในที่แสงน้อย การเปลี่ยนมาใช้ TSMC ไม่ใช่แค่เรื่องประสิทธิภาพ แต่ยังสะท้อนถึงความพยายามของ Google ในการควบคุมคุณภาพและความปลอดภัยของชิป ตั้งแต่การออกแบบจนถึงการผลิต โดยมีเป้าหมายเพื่อสร้างสมาร์ทโฟนที่ฉลาดและปลอดภัยที่สุดในตลาด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Pixel 10 ใช้ชิป Tensor G5 ที่ผลิตโดย TSMC แทน Samsung ➡️ Tensor G5 ผลิตด้วยเทคโนโลยี N3P ระดับ 3nm ที่มีประสิทธิภาพสูง ➡️ CPU เร็วขึ้น 34% และ TPU เร็วขึ้น 60% เมื่อเทียบกับ Tensor G4 ➡️ รองรับโมเดล Gemini Nano จาก DeepMind สำหรับงาน AI บนเครื่อง ➡️ ฟีเจอร์ AI ใหม่ เช่น Magic Cue, Call Notes, Voice Translate, Gboard Smart Edit ➡️ ระบบกล้องใหม่รองรับ 100x Pro Res Zoom และวิดีโอ 10-bit ➡️ Pixel 10 รองรับการชาร์จเร็ว, แบตเตอรี่ใหญ่ขึ้น และชาร์จไร้สายแบบแม่เหล็ก ➡️ รองรับการอัปเดตซอฟต์แวร์นานถึง 7 ปี ➡️ มีการปรับปรุงระบบควบคุมความร้อนให้ชิปทำงานที่ความถี่สูงได้โดยไม่ throttle ➡️ ใช้ LPDDR5X และ UFS 4.0 เพื่อเพิ่มแบนด์วิดท์และความเร็วในการอ่านข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ TSMC เป็นผู้ผลิตชิปที่มี yield สูงและการออกแบบทรานซิสเตอร์ที่แม่นยำ ➡️ N3P เป็นการพัฒนาเพิ่มเติมจาก N3E โดยให้ประสิทธิภาพดีขึ้นแต่ยังคงความเข้ากันได้กับดีไซน์เดิม ➡️ การเปลี่ยนมาใช้ TSMC อาจเป็นการตอบโต้ต่อปัญหาด้านประสิทธิภาพของ Samsung Foundry ➡️ Tensor G5 ใช้สถาปัตยกรรม Matformer และ Per Layer Embedding เพื่อเพิ่มคุณภาพการตอบสนองของโมเดล ➡️ Pixel 10 เป็นรุ่นแรกที่ใช้ diffusion model ในกล้องโดยตรงบนอุปกรณ์ https://www.tomshardware.com/tech-industry/semiconductors/google-switches-from-samsung-to-tsmc-pixel-10-and-g5-use-tsmcs-n3p-process
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • เมื่อ Zuckerberg เบรกการจ้างงาน AI – สัญญาณฟองสบู่ที่ Silicon Valley เริ่มสั่นคลอน

    ในช่วงปีที่ผ่านมา Meta ทุ่มเงินมหาศาลเพื่อดึงตัวนักวิจัย AI ระดับหัวกะทิจากบริษัทคู่แข่งอย่าง OpenAI และ Google โดยเสนอค่าตอบแทนสูงถึง $1 พันล้านดอลลาร์ต่อคน เพื่อเร่งพัฒนา “Superintelligence Labs” ที่มีเป้าหมายสร้างผู้ช่วยอัจฉริยะถาวรในรูปแบบแว่นตาอัจฉริยะ

    แต่เมื่อสัปดาห์ที่ผ่านมา Mark Zuckerberg กลับสั่ง “เบรก” การจ้างงานทั้งหมดในแผนก AI ของ Meta ท่ามกลางความกังวลว่าอุตสาหกรรม AI กำลังเข้าสู่ภาวะฟองสบู่ หลังจากรายงานของ MIT ระบุว่า 95% ของบริษัทที่ลงทุนใน AI ไม่ได้รับผลตอบแทนใด ๆ

    การหยุดจ้างงานนี้เกิดขึ้นก่อนที่ตลาดหุ้นจะร่วงหนัก โดยหุ้นของบริษัทเทคโนโลยีอย่าง Nvidia, Arm และ Palantir ตกลงอย่างต่อเนื่อง นักลงทุนเริ่มตั้งคำถามว่าเงินที่ทุ่มไปกับ AI นั้นคุ้มค่าจริงหรือไม่

    แม้ Meta จะออกมาบอกว่าเป็น “การวางแผนองค์กรตามปกติ” แต่เบื้องหลังคือการปรับโครงสร้างครั้งใหญ่ โดยแบ่ง Superintelligence Labs ออกเป็น 4 หน่วยงานใหม่ และยุบทีม AGI Foundations ที่เคยพัฒนาโมเดล Llama และ Behemoth ซึ่งถูกวิจารณ์ว่าบิดเบือน benchmark เพื่อให้ดูดีเกินจริง

    นักวิเคราะห์เตือนว่า การจ่ายค่าตอบแทนสูงเกินไปโดยไม่มีนวัตกรรมที่ชัดเจนอาจทำให้มูลค่าหุ้นลดลง และความคาดหวังต่อ GPT-5 ที่ไม่เป็นไปตาม hype ยิ่งตอกย้ำว่าฟองสบู่ AI อาจแตกในไม่ช้า

    สรุปเนื้อหาเป็นหัวข้อ
    Meta สั่งหยุดการจ้างงานในแผนก AI ทั้งหมด ยกเว้นกรณีพิเศษที่ต้องได้รับอนุมัติจาก Alexandr Wang
    การหยุดจ้างงานเกิดขึ้นก่อนตลาดหุ้นร่วงจากความกังวลเรื่องฟองสบู่ AI
    Zuckerberg เคยเสนอค่าตอบแทนสูงถึง $1 พันล้านเพื่อดึงนักวิจัยจาก OpenAI และ Google
    Superintelligence Labs ถูกแบ่งออกเป็น 4 หน่วยงานใหม่ และทีม AGI Foundations ถูกยุบ
    โมเดล Behemoth ถูกวิจารณ์ว่าบิดเบือน benchmark และมีการลาออกของทีมงาน
    Meta อ้างว่าเป็น “การวางแผนองค์กรตามปกติ” เช่น การจัดงบประมาณประจำปี
    หุ้นของบริษัทเทคโนโลยีหลายแห่ง เช่น Nvidia และ Palantir ร่วงจากความกังวลเรื่องผลตอบแทน AI
    Zuckerberg ยืนยันว่าเป้าหมายคือสร้าง “ผู้ช่วยอัจฉริยะถาวร” ที่อยู่ในแว่นตาอัจฉริยะ
    เขาเน้นทีมขนาดเล็กที่มีความสามารถสูง แทนการจ้างงานจำนวนมาก
    ค่าใช้จ่ายในการจ้างงาน AI จะเพิ่มขึ้นอย่างมากในอนาคต

    ข้อมูลเสริมจากภายนอก
    Meta ดึงตัวนักวิจัย AI มากกว่า 50 คนจากบริษัทคู่แข่งภายในไม่กี่เดือน
    นักวิเคราะห์จาก Morgan Stanley เตือนว่าการจ่ายค่าตอบแทนสูงอาจลดมูลค่าหุ้น
    GPT-5 ได้รับการตอบรับแบบ “กลาง ๆ” ไม่เป็นไปตามความคาดหวัง
    Sam Altman เปรียบ hype ของ AI กับฟองสบู่ dotcom ในปี 2000
    บริษัทเทคโนโลยียังคงลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐาน AI แม้รายได้ยังไม่ชัดเจน

    https://www.telegraph.co.uk/business/2025/08/21/zuckerberg-freezes-ai-hiring-amid-bubble-fears/
    🎙️ เมื่อ Zuckerberg เบรกการจ้างงาน AI – สัญญาณฟองสบู่ที่ Silicon Valley เริ่มสั่นคลอน ในช่วงปีที่ผ่านมา Meta ทุ่มเงินมหาศาลเพื่อดึงตัวนักวิจัย AI ระดับหัวกะทิจากบริษัทคู่แข่งอย่าง OpenAI และ Google โดยเสนอค่าตอบแทนสูงถึง $1 พันล้านดอลลาร์ต่อคน เพื่อเร่งพัฒนา “Superintelligence Labs” ที่มีเป้าหมายสร้างผู้ช่วยอัจฉริยะถาวรในรูปแบบแว่นตาอัจฉริยะ แต่เมื่อสัปดาห์ที่ผ่านมา Mark Zuckerberg กลับสั่ง “เบรก” การจ้างงานทั้งหมดในแผนก AI ของ Meta ท่ามกลางความกังวลว่าอุตสาหกรรม AI กำลังเข้าสู่ภาวะฟองสบู่ หลังจากรายงานของ MIT ระบุว่า 95% ของบริษัทที่ลงทุนใน AI ไม่ได้รับผลตอบแทนใด ๆ การหยุดจ้างงานนี้เกิดขึ้นก่อนที่ตลาดหุ้นจะร่วงหนัก โดยหุ้นของบริษัทเทคโนโลยีอย่าง Nvidia, Arm และ Palantir ตกลงอย่างต่อเนื่อง นักลงทุนเริ่มตั้งคำถามว่าเงินที่ทุ่มไปกับ AI นั้นคุ้มค่าจริงหรือไม่ แม้ Meta จะออกมาบอกว่าเป็น “การวางแผนองค์กรตามปกติ” แต่เบื้องหลังคือการปรับโครงสร้างครั้งใหญ่ โดยแบ่ง Superintelligence Labs ออกเป็น 4 หน่วยงานใหม่ และยุบทีม AGI Foundations ที่เคยพัฒนาโมเดล Llama และ Behemoth ซึ่งถูกวิจารณ์ว่าบิดเบือน benchmark เพื่อให้ดูดีเกินจริง นักวิเคราะห์เตือนว่า การจ่ายค่าตอบแทนสูงเกินไปโดยไม่มีนวัตกรรมที่ชัดเจนอาจทำให้มูลค่าหุ้นลดลง และความคาดหวังต่อ GPT-5 ที่ไม่เป็นไปตาม hype ยิ่งตอกย้ำว่าฟองสบู่ AI อาจแตกในไม่ช้า 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Meta สั่งหยุดการจ้างงานในแผนก AI ทั้งหมด ยกเว้นกรณีพิเศษที่ต้องได้รับอนุมัติจาก Alexandr Wang ➡️ การหยุดจ้างงานเกิดขึ้นก่อนตลาดหุ้นร่วงจากความกังวลเรื่องฟองสบู่ AI ➡️ Zuckerberg เคยเสนอค่าตอบแทนสูงถึง $1 พันล้านเพื่อดึงนักวิจัยจาก OpenAI และ Google ➡️ Superintelligence Labs ถูกแบ่งออกเป็น 4 หน่วยงานใหม่ และทีม AGI Foundations ถูกยุบ ➡️ โมเดล Behemoth ถูกวิจารณ์ว่าบิดเบือน benchmark และมีการลาออกของทีมงาน ➡️ Meta อ้างว่าเป็น “การวางแผนองค์กรตามปกติ” เช่น การจัดงบประมาณประจำปี ➡️ หุ้นของบริษัทเทคโนโลยีหลายแห่ง เช่น Nvidia และ Palantir ร่วงจากความกังวลเรื่องผลตอบแทน AI ➡️ Zuckerberg ยืนยันว่าเป้าหมายคือสร้าง “ผู้ช่วยอัจฉริยะถาวร” ที่อยู่ในแว่นตาอัจฉริยะ ➡️ เขาเน้นทีมขนาดเล็กที่มีความสามารถสูง แทนการจ้างงานจำนวนมาก ➡️ ค่าใช้จ่ายในการจ้างงาน AI จะเพิ่มขึ้นอย่างมากในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Meta ดึงตัวนักวิจัย AI มากกว่า 50 คนจากบริษัทคู่แข่งภายในไม่กี่เดือน ➡️ นักวิเคราะห์จาก Morgan Stanley เตือนว่าการจ่ายค่าตอบแทนสูงอาจลดมูลค่าหุ้น ➡️ GPT-5 ได้รับการตอบรับแบบ “กลาง ๆ” ไม่เป็นไปตามความคาดหวัง ➡️ Sam Altman เปรียบ hype ของ AI กับฟองสบู่ dotcom ในปี 2000 ➡️ บริษัทเทคโนโลยียังคงลงทุนหลายหมื่นล้านดอลลาร์ในโครงสร้างพื้นฐาน AI แม้รายได้ยังไม่ชัดเจน https://www.telegraph.co.uk/business/2025/08/21/zuckerberg-freezes-ai-hiring-amid-bubble-fears/
    0 ความคิดเห็น 0 การแบ่งปัน 267 มุมมอง 0 รีวิว
  • Jaguar Shores – ชิป AI ตัวใหม่ของ Intel ที่อาจเป็นเดิมพันสุดท้าย

    ในโลกที่ NVIDIA และ AMD ครองตลาด AI อย่างมั่นคง Intel กลับต้องดิ้นรนเพื่อหาที่ยืน และตอนนี้พวกเขากำลังวางเดิมพันครั้งใหญ่กับ “Jaguar Shores” – ชิป AI รุ่นใหม่ที่ไม่ใช่แค่ชิป แต่เป็นแพลตฟอร์มระดับ rack-scale ที่อาจเปลี่ยนเกมได้

    หลังจากยกเลิกโครงการ Falcon Shores ที่เคยถูกคาดหวังไว้สูง Intel หันมาโฟกัสกับ Jaguar Shores อย่างเต็มตัว โดยชิปนี้ถูกออกแบบให้รองรับงาน AI ในระดับ data center โดยเฉพาะ มีขนาดแพ็กเกจใหญ่ถึง 92.5mm x 92.5mm และใช้หน่วยความจำ HBM4 จาก SK Hynix ซึ่งถือเป็นเทคโนโลยีล่าสุดในวงการ

    Jaguar Shores จะรวม CPU Xeon รุ่นใหม่ Diamond Rapids, GPU, IPU, DPU และ interconnect แบบ silicon photonics เข้าไว้ในระบบเดียว เพื่อให้สามารถประมวลผลงาน AI ได้อย่างมีประสิทธิภาพและรวดเร็ว โดยใช้กระบวนการผลิต 18A ที่มีเทคโนโลยี RibbonFET และ PowerVia ซึ่งช่วยเพิ่มประสิทธิภาพต่อวัตต์อย่างมาก

    แต่แม้จะดูน่าตื่นเต้น Intel ก็ยังเผชิญกับความท้าทายหลายด้าน ทั้งการขาดแคลนบุคลากร ความล่าช้าในการพัฒนา และแรงกดดันจากคู่แข่งที่นำหน้าไปไกลแล้ว หาก Jaguar Shores ล้มเหลว ก็อาจเป็นจุดจบของความหวังในตลาด AI ของ Intel

    สรุปเนื้อหาเป็นหัวข้อ
    Jaguar Shores เป็นแพลตฟอร์ม AI รุ่นใหม่ของ Intel ที่ทำงานในระดับ rack-scale
    ใช้กระบวนการผลิต 18A พร้อมเทคโนโลยี RibbonFET และ PowerVia
    ขนาดแพ็กเกจชิปใหญ่ถึง 92.5mm x 92.5mm พร้อม 4 tiles และ 8 HBM sites
    ใช้หน่วยความจำ HBM4 จาก SK Hynix สำหรับงาน HPC และ AI inference
    รวม CPU Xeon Diamond Rapids, GPU, IPU, DPU และ silicon photonics
    ถูกใช้เป็น test vehicle โดยทีมวิศวกรรมความร้อนของ Intel
    เป็นการเปลี่ยนแผนจาก Falcon Shores ที่ถูกยกเลิกไป
    คาดว่าจะเปิดตัวในปี 2026 เพื่อแข่งขันกับ NVIDIA และ AMD

    ข้อมูลเสริมจากภายนอก
    Falcon Shores ถูกลดบทบาทเป็นแพลตฟอร์มต้นแบบเพื่อทดสอบเทคโนโลยี
    Jaguar Shores ถูกออกแบบให้รองรับงาน AI inference และ model deployment
    Modular design รองรับการปรับแต่งสำหรับองค์กรที่มี workload เฉพาะ
    Silicon photonics ช่วยให้การเชื่อมต่อระหว่างชิ้นส่วนใน rack มี latency ต่ำมาก
    Intel หวังใช้ Jaguar Shores เป็นจุดเปลี่ยนเพื่อกลับมานำในตลาด AI

    https://wccftech.com/intel-next-gen-ai-chip-jaguar-shores-test-vehicle-surfaces-online/
    🎙️ Jaguar Shores – ชิป AI ตัวใหม่ของ Intel ที่อาจเป็นเดิมพันสุดท้าย ในโลกที่ NVIDIA และ AMD ครองตลาด AI อย่างมั่นคง Intel กลับต้องดิ้นรนเพื่อหาที่ยืน และตอนนี้พวกเขากำลังวางเดิมพันครั้งใหญ่กับ “Jaguar Shores” – ชิป AI รุ่นใหม่ที่ไม่ใช่แค่ชิป แต่เป็นแพลตฟอร์มระดับ rack-scale ที่อาจเปลี่ยนเกมได้ หลังจากยกเลิกโครงการ Falcon Shores ที่เคยถูกคาดหวังไว้สูง Intel หันมาโฟกัสกับ Jaguar Shores อย่างเต็มตัว โดยชิปนี้ถูกออกแบบให้รองรับงาน AI ในระดับ data center โดยเฉพาะ มีขนาดแพ็กเกจใหญ่ถึง 92.5mm x 92.5mm และใช้หน่วยความจำ HBM4 จาก SK Hynix ซึ่งถือเป็นเทคโนโลยีล่าสุดในวงการ Jaguar Shores จะรวม CPU Xeon รุ่นใหม่ Diamond Rapids, GPU, IPU, DPU และ interconnect แบบ silicon photonics เข้าไว้ในระบบเดียว เพื่อให้สามารถประมวลผลงาน AI ได้อย่างมีประสิทธิภาพและรวดเร็ว โดยใช้กระบวนการผลิต 18A ที่มีเทคโนโลยี RibbonFET และ PowerVia ซึ่งช่วยเพิ่มประสิทธิภาพต่อวัตต์อย่างมาก แต่แม้จะดูน่าตื่นเต้น Intel ก็ยังเผชิญกับความท้าทายหลายด้าน ทั้งการขาดแคลนบุคลากร ความล่าช้าในการพัฒนา และแรงกดดันจากคู่แข่งที่นำหน้าไปไกลแล้ว หาก Jaguar Shores ล้มเหลว ก็อาจเป็นจุดจบของความหวังในตลาด AI ของ Intel 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Jaguar Shores เป็นแพลตฟอร์ม AI รุ่นใหม่ของ Intel ที่ทำงานในระดับ rack-scale ➡️ ใช้กระบวนการผลิต 18A พร้อมเทคโนโลยี RibbonFET และ PowerVia ➡️ ขนาดแพ็กเกจชิปใหญ่ถึง 92.5mm x 92.5mm พร้อม 4 tiles และ 8 HBM sites ➡️ ใช้หน่วยความจำ HBM4 จาก SK Hynix สำหรับงาน HPC และ AI inference ➡️ รวม CPU Xeon Diamond Rapids, GPU, IPU, DPU และ silicon photonics ➡️ ถูกใช้เป็น test vehicle โดยทีมวิศวกรรมความร้อนของ Intel ➡️ เป็นการเปลี่ยนแผนจาก Falcon Shores ที่ถูกยกเลิกไป ➡️ คาดว่าจะเปิดตัวในปี 2026 เพื่อแข่งขันกับ NVIDIA และ AMD ✅ ข้อมูลเสริมจากภายนอก ➡️ Falcon Shores ถูกลดบทบาทเป็นแพลตฟอร์มต้นแบบเพื่อทดสอบเทคโนโลยี ➡️ Jaguar Shores ถูกออกแบบให้รองรับงาน AI inference และ model deployment ➡️ Modular design รองรับการปรับแต่งสำหรับองค์กรที่มี workload เฉพาะ ➡️ Silicon photonics ช่วยให้การเชื่อมต่อระหว่างชิ้นส่วนใน rack มี latency ต่ำมาก ➡️ Intel หวังใช้ Jaguar Shores เป็นจุดเปลี่ยนเพื่อกลับมานำในตลาด AI https://wccftech.com/intel-next-gen-ai-chip-jaguar-shores-test-vehicle-surfaces-online/
    WCCFTECH.COM
    Intel’s Next-Gen AI Chip Jaguar Shores ‘Test Vehicle’ Surfaces Online, Showcasing A Gigantic Chip Package That Could Mark A 'Make-Or-Break' Moment For Its AI Business
    Intel's next-gen AI architecture is reportedly under preparation by the company, as the respective 'testing vehicle' surfaces online.
    0 ความคิดเห็น 0 การแบ่งปัน 218 มุมมอง 0 รีวิว
  • CN101 – ชิปที่ใช้พลังงานจากความไม่แน่นอน เพื่ออนาคตของ AI ที่ยั่งยืน

    ในยุคที่ AI กำลังเติบโตอย่างรวดเร็ว ความต้องการพลังงานก็พุ่งสูงขึ้นตามไปด้วย จนหลายศูนย์ข้อมูลต้องชะลอการทำงานของ GPU เพื่อหลีกเลี่ยงไฟดับ แต่ในเดือนสิงหาคม 2025 บริษัทสตาร์ทอัพชื่อ Normal Computing ได้เปิดตัว “CN101” ซึ่งเป็นชิปตัวแรกของโลกที่ใช้หลักการ “thermodynamic computing” หรือการคำนวณด้วยพลวัตทางธรรมชาติ

    ต่างจาก CPU และ GPU ที่ใช้ตรรกะแบบกำหนดแน่นอน CN101 ใช้ความไม่แน่นอน เช่น ความผันผวน การสลายพลังงาน และเสียงรบกวน เพื่อเร่งการคำนวณบางประเภท โดยเฉพาะการแก้สมการเชิงเส้นขนาดใหญ่ และการสุ่มแบบสถิติ ซึ่งเป็นหัวใจของการเรียนรู้เชิงลึกและการจำลองทางวิทยาศาสตร์

    ชิปนี้สามารถเพิ่มประสิทธิภาพการใช้พลังงานได้ถึง 1,000 เท่าในงานเฉพาะทาง และยังสามารถทำงานในโครงสร้างศูนย์ข้อมูลเดิมได้โดยไม่ต้องเพิ่มกำลังไฟฟ้า

    Normal Computing ก่อตั้งโดยอดีตวิศวกรจาก Google Brain, Google X และ Palantir โดยมีแผนจะเปิดตัว CN201 ในปี 2026 สำหรับโมเดล diffusion ความละเอียดสูง และ CN301 ในปี 2028 สำหรับงานวิดีโอ AI ขนาดใหญ่

    สรุปเนื้อหาเป็นหัวข้อ
    Normal Computing เปิดตัว CN101 ชิป thermodynamic ตัวแรกของโลก
    ใช้พลวัตธรรมชาติ เช่น ความผันผวนและเสียงรบกวน แทนตรรกะแบบกำหนด
    เร่งการคำนวณด้าน linear algebra และ stochastic sampling
    เพิ่มประสิทธิภาพการใช้พลังงานได้สูงสุดถึง 1,000 เท่าในงานเฉพาะทาง
    สามารถทำงานในศูนย์ข้อมูลเดิมโดยไม่ต้องเพิ่มกำลังไฟฟ้า
    CN101 เป็นก้าวแรกของ roadmap ที่จะนำไปสู่ CN201 และ CN301
    CN201 จะรองรับโมเดล diffusion ความละเอียดสูงในปี 2026
    CN301 จะรองรับงานวิดีโอ AI ขนาดใหญ่ในปี 2028
    ทีมผู้ก่อตั้งมาจาก Google Brain, Google X และ Palantir
    การ tape-out ของ CN101 ถือเป็นหมุดหมายสำคัญของการคำนวณแบบ thermodynamic

    ข้อมูลเสริมจากภายนอก
    Thermodynamic computing เป็นแนวคิดใหม่ที่ใช้หลักฟิสิกส์แทนตรรกะดิจิทัล
    การใช้ stochasticity ช่วยให้ AI reasoning เร็วขึ้นโดยใช้พลังงานน้อยลง
    งานที่ใช้การสุ่ม เช่น Bayesian inference และการจำลองโมเลกุล ได้ประโยชน์สูง
    IEEE Spectrum ยกให้แนวคิดนี้เป็นหนึ่งในความก้าวหน้าที่น่าจับตามอง
    หากสำเร็จ อาจเปลี่ยนกฎการ scaling ของ AI ในทศวรรษหน้า

    https://www.techradar.com/pro/chip-designer-youve-never-heard-of-brings-out-first-thermodynamic-silicon-and-seeks-to-reduce-ais-unsustainable-energy-consumption
    🎙️ CN101 – ชิปที่ใช้พลังงานจากความไม่แน่นอน เพื่ออนาคตของ AI ที่ยั่งยืน ในยุคที่ AI กำลังเติบโตอย่างรวดเร็ว ความต้องการพลังงานก็พุ่งสูงขึ้นตามไปด้วย จนหลายศูนย์ข้อมูลต้องชะลอการทำงานของ GPU เพื่อหลีกเลี่ยงไฟดับ แต่ในเดือนสิงหาคม 2025 บริษัทสตาร์ทอัพชื่อ Normal Computing ได้เปิดตัว “CN101” ซึ่งเป็นชิปตัวแรกของโลกที่ใช้หลักการ “thermodynamic computing” หรือการคำนวณด้วยพลวัตทางธรรมชาติ ต่างจาก CPU และ GPU ที่ใช้ตรรกะแบบกำหนดแน่นอน CN101 ใช้ความไม่แน่นอน เช่น ความผันผวน การสลายพลังงาน และเสียงรบกวน เพื่อเร่งการคำนวณบางประเภท โดยเฉพาะการแก้สมการเชิงเส้นขนาดใหญ่ และการสุ่มแบบสถิติ ซึ่งเป็นหัวใจของการเรียนรู้เชิงลึกและการจำลองทางวิทยาศาสตร์ ชิปนี้สามารถเพิ่มประสิทธิภาพการใช้พลังงานได้ถึง 1,000 เท่าในงานเฉพาะทาง และยังสามารถทำงานในโครงสร้างศูนย์ข้อมูลเดิมได้โดยไม่ต้องเพิ่มกำลังไฟฟ้า Normal Computing ก่อตั้งโดยอดีตวิศวกรจาก Google Brain, Google X และ Palantir โดยมีแผนจะเปิดตัว CN201 ในปี 2026 สำหรับโมเดล diffusion ความละเอียดสูง และ CN301 ในปี 2028 สำหรับงานวิดีโอ AI ขนาดใหญ่ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Normal Computing เปิดตัว CN101 ชิป thermodynamic ตัวแรกของโลก ➡️ ใช้พลวัตธรรมชาติ เช่น ความผันผวนและเสียงรบกวน แทนตรรกะแบบกำหนด ➡️ เร่งการคำนวณด้าน linear algebra และ stochastic sampling ➡️ เพิ่มประสิทธิภาพการใช้พลังงานได้สูงสุดถึง 1,000 เท่าในงานเฉพาะทาง ➡️ สามารถทำงานในศูนย์ข้อมูลเดิมโดยไม่ต้องเพิ่มกำลังไฟฟ้า ➡️ CN101 เป็นก้าวแรกของ roadmap ที่จะนำไปสู่ CN201 และ CN301 ➡️ CN201 จะรองรับโมเดล diffusion ความละเอียดสูงในปี 2026 ➡️ CN301 จะรองรับงานวิดีโอ AI ขนาดใหญ่ในปี 2028 ➡️ ทีมผู้ก่อตั้งมาจาก Google Brain, Google X และ Palantir ➡️ การ tape-out ของ CN101 ถือเป็นหมุดหมายสำคัญของการคำนวณแบบ thermodynamic ✅ ข้อมูลเสริมจากภายนอก ➡️ Thermodynamic computing เป็นแนวคิดใหม่ที่ใช้หลักฟิสิกส์แทนตรรกะดิจิทัล ➡️ การใช้ stochasticity ช่วยให้ AI reasoning เร็วขึ้นโดยใช้พลังงานน้อยลง ➡️ งานที่ใช้การสุ่ม เช่น Bayesian inference และการจำลองโมเลกุล ได้ประโยชน์สูง ➡️ IEEE Spectrum ยกให้แนวคิดนี้เป็นหนึ่งในความก้าวหน้าที่น่าจับตามอง ➡️ หากสำเร็จ อาจเปลี่ยนกฎการ scaling ของ AI ในทศวรรษหน้า https://www.techradar.com/pro/chip-designer-youve-never-heard-of-brings-out-first-thermodynamic-silicon-and-seeks-to-reduce-ais-unsustainable-energy-consumption
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
Pages Boosts