• STOP! ก่อนที่ข้อมือจะพังเพราะ "หัวไชโป้ว"
    เลิกเหนื่อยกับงานครัวซ้ำซาก! อัปเกรดชีวิตและธุรกิจด้วยเครื่องสับผักที่เร็วที่สุดในรุ่น!
    คุณกำลัง "ทิ้งเงิน" และ "ทิ้งโอกาส" ด้วยการให้คนงานมานั่งสับผักอยู่รึเปล่า?
    เครื่องตัดผัก Multi-Function Cutter คือคำตอบสำหรับเจ้าของธุรกิจที่มองไปข้างหน้า! ไม่ใช่แค่เครื่องมือ... แต่มันคือ "เครื่องผลิตเวลาและกำไร" ให้คุณ!

    จบปัญหา "เส้นไม่เท่ากัน": สับหัวไชโป้วได้เส้นฝอยสวยคม เป๊ะตามมาตรฐาน 1-10 มม. ลูกค้าติดใจเพราะคุณภาพสม่ำเสมอทุกจาน!
    สปีดทะลุเพดาน: มอเตอร์ 2 แรงม้า จัดเต็มกำลังผลิต 660 กก./ชม.! งานเร่ง งานด่วน? "ให้เครื่องทำ, ส่วนคุณไปรับออเดอร์ใหม่!"
    งานสแตนเลส (เกรดพรีเมียม): ตัวเครื่องทนทาน สะอาด ปลอดภัย ถูกสุขอนามัย ไม่ต้องมาคอยซ่อมจุกจิกให้เสียอารมณ์

    คำนวณดูสิ! เครื่องนี้จะช่วยลดค่าแรงที่ต้องจ่ายรายเดือนไปได้มหาศาล! คืนทุนไว จนคุณต้องร้องว้าว!

    นี่คือเครื่องจักรที่คุณคู่ควร ถ้าคุณพร้อมที่จะโตแบบก้าวกระโดด!

    ด่วน! มาสัมผัสของจริงได้ที่:
    ย.ย่งฮะเฮง (Yor Yong Hah Heng)
    ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กทม. 10330 (พร้อมโชว์สับให้ดูเลย!)
    แผนที่: https://maps.app.goo.gl/3sE9Xc1YBrZKEFWLA
    เวลาทำการ: จ.-ศ. 8.30-17.00 น. | ส. 9.00-16.00 น.
    โทรปรึกษาฟรี: 02-215-3515-9 หรือ 081-3189098
    แชทเลย: m.me/yonghahheng
    LINE: @yonghahheng หรือคลิก https://lin.ee/5H812n9

    #เครื่องตัดผัก #เครื่องสับผัก #เครื่องหั่นผัก #เครื่องจักรอาหาร #อุปกรณ์ครัวอุตสาหกรรม #เครื่องสแตนเลส #Yoryonghahheng #ลดต้นทุน #เพิ่มกำไร #SMEไทย #ธุรกิจร้านอาหาร #โรงงานอาหาร #ครัวมืออาชีพ #FoodProcessing #หัวไชโป้ว #หัวไชโป้วเส้นฝอย #วัตถุดิบอาหาร #อาหารไทย #อาหารจีน #GenYKitchen #ProductivityHack #WorkSmartNotHard #สับไว #งานครัวสบายๆ #Efficiency #เครื่องทุ่นแรง #เจ้าของธุรกิจ #ลงทุน #คืนทุนไว #สปีดงาน
    🚨 STOP! ก่อนที่ข้อมือจะพังเพราะ "หัวไชโป้ว" 🔪 📢 เลิกเหนื่อยกับงานครัวซ้ำซาก! อัปเกรดชีวิตและธุรกิจด้วยเครื่องสับผักที่เร็วที่สุดในรุ่น! คุณกำลัง "ทิ้งเงิน" และ "ทิ้งโอกาส" ด้วยการให้คนงานมานั่งสับผักอยู่รึเปล่า? ⏱️ เครื่องตัดผัก Multi-Function Cutter คือคำตอบสำหรับเจ้าของธุรกิจที่มองไปข้างหน้า! ไม่ใช่แค่เครื่องมือ... แต่มันคือ "เครื่องผลิตเวลาและกำไร" ให้คุณ! ✅ จบปัญหา "เส้นไม่เท่ากัน": สับหัวไชโป้วได้เส้นฝอยสวยคม เป๊ะตามมาตรฐาน 1-10 มม. ลูกค้าติดใจเพราะคุณภาพสม่ำเสมอทุกจาน! ✅ สปีดทะลุเพดาน: มอเตอร์ 2 แรงม้า จัดเต็มกำลังผลิต 660 กก./ชม.! งานเร่ง งานด่วน? "ให้เครื่องทำ, ส่วนคุณไปรับออเดอร์ใหม่!" ✅ งานสแตนเลส (เกรดพรีเมียม): ตัวเครื่องทนทาน สะอาด ปลอดภัย ถูกสุขอนามัย 💯 ไม่ต้องมาคอยซ่อมจุกจิกให้เสียอารมณ์ 💸 คำนวณดูสิ! เครื่องนี้จะช่วยลดค่าแรงที่ต้องจ่ายรายเดือนไปได้มหาศาล! คืนทุนไว จนคุณต้องร้องว้าว! 🔥 นี่คือเครื่องจักรที่คุณคู่ควร ถ้าคุณพร้อมที่จะโตแบบก้าวกระโดด! 📍 ด่วน! มาสัมผัสของจริงได้ที่: ย.ย่งฮะเฮง (Yor Yong Hah Heng) ที่ตั้ง: 1970-1972 ถ.บรรทัดทอง (ถ.พระราม 6) กทม. 10330 (พร้อมโชว์สับให้ดูเลย!) แผนที่: https://maps.app.goo.gl/3sE9Xc1YBrZKEFWLA เวลาทำการ: จ.-ศ. 8.30-17.00 น. | ส. 9.00-16.00 น. โทรปรึกษาฟรี: 📞 02-215-3515-9 หรือ 081-3189098 แชทเลย: 💬 m.me/yonghahheng LINE: 📱 @yonghahheng หรือคลิก https://lin.ee/5H812n9 #เครื่องตัดผัก #เครื่องสับผัก #เครื่องหั่นผัก #เครื่องจักรอาหาร #อุปกรณ์ครัวอุตสาหกรรม #เครื่องสแตนเลส #Yoryonghahheng #ลดต้นทุน #เพิ่มกำไร #SMEไทย #ธุรกิจร้านอาหาร #โรงงานอาหาร #ครัวมืออาชีพ #FoodProcessing #หัวไชโป้ว #หัวไชโป้วเส้นฝอย #วัตถุดิบอาหาร #อาหารไทย #อาหารจีน #GenYKitchen #ProductivityHack #WorkSmartNotHard #สับไว #งานครัวสบายๆ #Efficiency #เครื่องทุ่นแรง #เจ้าของธุรกิจ #ลงทุน #คืนทุนไว #สปีดงาน
    0 ความคิดเห็น 0 การแบ่งปัน 46 มุมมอง 0 รีวิว
  • In today’s digital era, transparency, accessibility, and efficiency are at the heart of good governance. The state of Andhra Pradesh has taken a major step in this direction through Meebhoomi, an innovative digital platform for managing land records. Launched by the Andhra Pradesh government, Meebhoomi aims to make land ownership data easily accessible to the public, reducing corruption, paperwork, and delays in land-related services.
    https://meebhoomie.com/
    In today’s digital era, transparency, accessibility, and efficiency are at the heart of good governance. The state of Andhra Pradesh has taken a major step in this direction through Meebhoomi, an innovative digital platform for managing land records. Launched by the Andhra Pradesh government, Meebhoomi aims to make land ownership data easily accessible to the public, reducing corruption, paperwork, and delays in land-related services. https://meebhoomie.com/
    MEEBHOOMIE.COM
    MeeBhoomi AP (మి భూమి) – View 1B, Adangal @ meebhoomi.ap.gov.in
    The Meebhoomi (మి భూమి) portal serves as Andhra Pradesh's comprehensive digital gateway for land records and property-related services. This guide is designed
    0 ความคิดเห็น 0 การแบ่งปัน 75 มุมมอง 0 รีวิว
  • “Nvidia DGX Spark: เดสก์ท็อป AI ที่อาจเป็น ‘Apple Mac Moment’ ของ Nvidia”

    Nvidia เปิดตัว DGX Spark ซึ่งได้รับเสียงชื่นชมจากนักรีวิวว่าเป็น “เครื่องมือ AI ระดับวิจัยที่อยู่บนโต๊ะทำงาน” ด้วยขนาดเล็กแต่ทรงพลัง DGX Spark ใช้ชิป Grace Blackwell GB200 ที่รวม CPU และ GPU พร้อมหน่วยความจำ unified ขนาด 128GB ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องพึ่งคลาวด์

    รีวิวจากหลายสำนักชี้ว่า DGX Spark มีประสิทธิภาพสูงในการรันโมเดล Llama 3.1 70B และ Gemma 3 27B โดยตรงจากหน่วยความจำภายใน พร้อมระบบระบายความร้อนที่เงียบและเสถียร แม้จะมีข้อจำกัดด้าน bandwidth จาก LPDDR5X แต่ก็ยังถือว่าเป็นเครื่องมือที่เหมาะสำหรับนักพัฒนาและนักวิจัยที่ต้องการทดลอง AI แบบ local

    สเปกและความสามารถของ DGX Spark
    ใช้ชิป Grace Blackwell GB200 รวม CPU + GPU
    หน่วยความจำ unified 128GB รองรับโมเดลขนาดใหญ่
    รัน Llama 3.1 70B และ Gemma 3 27B ได้โดยตรงจาก RAM
    มี batching efficiency และ throughput consistency สูง

    จุดเด่นด้านการใช้งาน
    ขนาดเล็ก วางบนโต๊ะทำงานได้
    เสียงเงียบและระบบระบายความร้อนมีประสิทธิภาพ
    ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงครึ่งหนึ่ง
    รองรับการเชื่อมต่อผ่าน Nvidia Sync จากเครื่องอื่น

    ความเห็นจากนักรีวิว
    LMSYS: “เครื่องวิจัยที่สวยงามและทรงพลัง”
    ServeTheHome: “จะทำให้การรันโมเดลขนาดใหญ่เป็นเรื่องของทุกคน”
    HotHardware: “เหมาะเป็นเครื่องเสริมสำหรับนักพัฒนา ไม่ใช่แทนที่ workstation”
    The Register: “เหมาะกับงานทดลอง ไม่ใช่สำหรับ productivity หรือ gaming”

    คำเตือนและข้อจำกัด
    Bandwidth ของ LPDDR5X ยังเป็นคอขวดเมื่อเทียบกับ GPU แยก
    Driver และซอฟต์แวร์บางส่วนยังไม่สมบูรณ์
    ไม่เหมาะกับผู้ใช้ทั่วไปที่ต้องการเครื่องสำหรับงานทั่วไปหรือเล่นเกม
    หากต้องการประสิทธิภาพสูงสุด อาจต้องรอเวอร์ชันที่ใช้ GB200 ในเครื่อง Windows

    https://www.techradar.com/pro/so-freaking-cool-first-reviews-of-nvidia-dgx-spark-leave-absolutely-no-doubt-this-may-be-nvidias-apple-mac-moment
    🖥️ “Nvidia DGX Spark: เดสก์ท็อป AI ที่อาจเป็น ‘Apple Mac Moment’ ของ Nvidia” Nvidia เปิดตัว DGX Spark ซึ่งได้รับเสียงชื่นชมจากนักรีวิวว่าเป็น “เครื่องมือ AI ระดับวิจัยที่อยู่บนโต๊ะทำงาน” ด้วยขนาดเล็กแต่ทรงพลัง DGX Spark ใช้ชิป Grace Blackwell GB200 ที่รวม CPU และ GPU พร้อมหน่วยความจำ unified ขนาด 128GB ทำให้สามารถรันโมเดลขนาดใหญ่ได้โดยไม่ต้องพึ่งคลาวด์ รีวิวจากหลายสำนักชี้ว่า DGX Spark มีประสิทธิภาพสูงในการรันโมเดล Llama 3.1 70B และ Gemma 3 27B โดยตรงจากหน่วยความจำภายใน พร้อมระบบระบายความร้อนที่เงียบและเสถียร แม้จะมีข้อจำกัดด้าน bandwidth จาก LPDDR5X แต่ก็ยังถือว่าเป็นเครื่องมือที่เหมาะสำหรับนักพัฒนาและนักวิจัยที่ต้องการทดลอง AI แบบ local ✅ สเปกและความสามารถของ DGX Spark ➡️ ใช้ชิป Grace Blackwell GB200 รวม CPU + GPU ➡️ หน่วยความจำ unified 128GB รองรับโมเดลขนาดใหญ่ ➡️ รัน Llama 3.1 70B และ Gemma 3 27B ได้โดยตรงจาก RAM ➡️ มี batching efficiency และ throughput consistency สูง ✅ จุดเด่นด้านการใช้งาน ➡️ ขนาดเล็ก วางบนโต๊ะทำงานได้ ➡️ เสียงเงียบและระบบระบายความร้อนมีประสิทธิภาพ ➡️ ใช้พลังงานน้อยกว่าคอมพิวเตอร์ทั่วไปถึงครึ่งหนึ่ง ➡️ รองรับการเชื่อมต่อผ่าน Nvidia Sync จากเครื่องอื่น ✅ ความเห็นจากนักรีวิว ➡️ LMSYS: “เครื่องวิจัยที่สวยงามและทรงพลัง” ➡️ ServeTheHome: “จะทำให้การรันโมเดลขนาดใหญ่เป็นเรื่องของทุกคน” ➡️ HotHardware: “เหมาะเป็นเครื่องเสริมสำหรับนักพัฒนา ไม่ใช่แทนที่ workstation” ➡️ The Register: “เหมาะกับงานทดลอง ไม่ใช่สำหรับ productivity หรือ gaming” ‼️ คำเตือนและข้อจำกัด ⛔ Bandwidth ของ LPDDR5X ยังเป็นคอขวดเมื่อเทียบกับ GPU แยก ⛔ Driver และซอฟต์แวร์บางส่วนยังไม่สมบูรณ์ ⛔ ไม่เหมาะกับผู้ใช้ทั่วไปที่ต้องการเครื่องสำหรับงานทั่วไปหรือเล่นเกม ⛔ หากต้องการประสิทธิภาพสูงสุด อาจต้องรอเวอร์ชันที่ใช้ GB200 ในเครื่อง Windows https://www.techradar.com/pro/so-freaking-cool-first-reviews-of-nvidia-dgx-spark-leave-absolutely-no-doubt-this-may-be-nvidias-apple-mac-moment
    WWW.TECHRADAR.COM
    Reviews praise Nvidia DGX Spark as a compact local AI workstation
    Early hardware and software quirks do raise concerns, however
    0 ความคิดเห็น 0 การแบ่งปัน 215 มุมมอง 0 รีวิว
  • “DeepMind จับมือ CFS ใช้ AI เพิ่มประสิทธิภาพเตาปฏิกรณ์ฟิวชัน SPARC” — เมื่อ AI ไม่ได้แค่เล่นหมากรุก แต่ช่วยเร่งอนาคตพลังงานสะอาดให้ใกล้ขึ้น

    Google DeepMind ประกาศความร่วมมือกับบริษัทฟิวชันพลังงานจากสหรัฐฯ อย่าง Commonwealth Fusion Systems (CFS) เพื่อใช้ AI เพิ่มประสิทธิภาพการทำงานของเตาปฏิกรณ์ฟิวชัน SPARC ซึ่งเป็นหนึ่งในโครงการที่มีเป้าหมายเพื่อผลิตพลังงานสะอาดแบบ “เกินดุล” (net energy gain) ให้ได้ภายในปี 2027

    CFS เพิ่งระดมทุนได้ถึง 863 ล้านดอลลาร์จากนักลงทุนรายใหญ่ เช่น NVIDIA, Google, Breakthrough Energy Ventures (ของ Bill Gates), Morgan Stanley, และบริษัทญี่ปุ่นอย่าง Mitsui & Co. และ Mitsubishi Corporation สะท้อนถึงความเชื่อมั่นระดับโลกในพลังงานฟิวชัน

    DeepMind จะนำเทคโนโลยี AI ที่เคยใช้ควบคุมพลาสมาใน tokamak (เตาปฏิกรณ์ฟิวชันแบบแม่เหล็ก) มาพัฒนา 3 ระบบหลักให้กับ SPARC ได้แก่:

    1️⃣ TORAX — ซอฟต์แวร์จำลองพลาสมาแบบ open-source ที่สามารถรันการทดลองจำลองนับล้านครั้งเพื่อปรับแต่งพารามิเตอร์ของเตาปฏิกรณ์

    2️⃣ AlphaEvolve — ระบบ AI ที่ใช้ reinforcement learning เพื่อค้นหาวิธีการควบคุมพลาสมาให้ได้พลังงานสูงสุด

    3️⃣ AI Navigator — ระบบควบคุมพลาสมาแบบเรียลไทม์ ที่สามารถปรับสมดุลความร้อนและแรงดันในเตาได้อย่างแม่นยำ

    เป้าหมายสูงสุดคือการสร้างระบบควบคุมอัตโนมัติที่ “ฉลาดกว่าวิศวกรมนุษย์” ในการจัดการเตาปฏิกรณ์ฟิวชัน ซึ่งจะเป็นรากฐานของโรงไฟฟ้าฟิวชันในอนาคต

    DeepMind ร่วมมือกับ CFS เพื่อเพิ่มประสิทธิภาพเตาฟิวชัน SPARC
    ใช้ AI ควบคุมพลาสมาและจำลองการทำงานของเตา

    CFS ได้รับเงินลงทุน 863 ล้านดอลลาร์จากบริษัทชั้นนำ
    เช่น Google, NVIDIA, Breakthrough Energy, Morgan Stanley ฯลฯ

    เป้าหมายคือการผลิตพลังงานฟิวชันแบบ net energy gain ภายในปี 2027
    หมายถึงผลิตพลังงานได้มากกว่าที่ใช้ในการจุดพลาสมา

    DeepMind พัฒนา 3 ระบบ AI ได้แก่ TORAX, AlphaEvolve และ AI Navigator
    ครอบคลุมทั้งการจำลอง, การเรียนรู้, และการควบคุมแบบเรียลไทม์

    ระบบ AI จะช่วยควบคุมความร้อนและแรงดันในเตา
    ป้องกันความเสียหายและเพิ่มประสิทธิภาพการผลิตพลังงาน

    https://securityonline.info/google-deepmind-partners-with-cfs-to-use-ai-for-optimizing-sparc-fusion-reactor-efficiency/
    ⚛️ “DeepMind จับมือ CFS ใช้ AI เพิ่มประสิทธิภาพเตาปฏิกรณ์ฟิวชัน SPARC” — เมื่อ AI ไม่ได้แค่เล่นหมากรุก แต่ช่วยเร่งอนาคตพลังงานสะอาดให้ใกล้ขึ้น Google DeepMind ประกาศความร่วมมือกับบริษัทฟิวชันพลังงานจากสหรัฐฯ อย่าง Commonwealth Fusion Systems (CFS) เพื่อใช้ AI เพิ่มประสิทธิภาพการทำงานของเตาปฏิกรณ์ฟิวชัน SPARC ซึ่งเป็นหนึ่งในโครงการที่มีเป้าหมายเพื่อผลิตพลังงานสะอาดแบบ “เกินดุล” (net energy gain) ให้ได้ภายในปี 2027 CFS เพิ่งระดมทุนได้ถึง 863 ล้านดอลลาร์จากนักลงทุนรายใหญ่ เช่น NVIDIA, Google, Breakthrough Energy Ventures (ของ Bill Gates), Morgan Stanley, และบริษัทญี่ปุ่นอย่าง Mitsui & Co. และ Mitsubishi Corporation สะท้อนถึงความเชื่อมั่นระดับโลกในพลังงานฟิวชัน DeepMind จะนำเทคโนโลยี AI ที่เคยใช้ควบคุมพลาสมาใน tokamak (เตาปฏิกรณ์ฟิวชันแบบแม่เหล็ก) มาพัฒนา 3 ระบบหลักให้กับ SPARC ได้แก่: 1️⃣ TORAX — ซอฟต์แวร์จำลองพลาสมาแบบ open-source ที่สามารถรันการทดลองจำลองนับล้านครั้งเพื่อปรับแต่งพารามิเตอร์ของเตาปฏิกรณ์ 2️⃣ AlphaEvolve — ระบบ AI ที่ใช้ reinforcement learning เพื่อค้นหาวิธีการควบคุมพลาสมาให้ได้พลังงานสูงสุด 3️⃣ AI Navigator — ระบบควบคุมพลาสมาแบบเรียลไทม์ ที่สามารถปรับสมดุลความร้อนและแรงดันในเตาได้อย่างแม่นยำ เป้าหมายสูงสุดคือการสร้างระบบควบคุมอัตโนมัติที่ “ฉลาดกว่าวิศวกรมนุษย์” ในการจัดการเตาปฏิกรณ์ฟิวชัน ซึ่งจะเป็นรากฐานของโรงไฟฟ้าฟิวชันในอนาคต ✅ DeepMind ร่วมมือกับ CFS เพื่อเพิ่มประสิทธิภาพเตาฟิวชัน SPARC ➡️ ใช้ AI ควบคุมพลาสมาและจำลองการทำงานของเตา ✅ CFS ได้รับเงินลงทุน 863 ล้านดอลลาร์จากบริษัทชั้นนำ ➡️ เช่น Google, NVIDIA, Breakthrough Energy, Morgan Stanley ฯลฯ ✅ เป้าหมายคือการผลิตพลังงานฟิวชันแบบ net energy gain ภายในปี 2027 ➡️ หมายถึงผลิตพลังงานได้มากกว่าที่ใช้ในการจุดพลาสมา ✅ DeepMind พัฒนา 3 ระบบ AI ได้แก่ TORAX, AlphaEvolve และ AI Navigator ➡️ ครอบคลุมทั้งการจำลอง, การเรียนรู้, และการควบคุมแบบเรียลไทม์ ✅ ระบบ AI จะช่วยควบคุมความร้อนและแรงดันในเตา ➡️ ป้องกันความเสียหายและเพิ่มประสิทธิภาพการผลิตพลังงาน https://securityonline.info/google-deepmind-partners-with-cfs-to-use-ai-for-optimizing-sparc-fusion-reactor-efficiency/
    SECURITYONLINE.INFO
    Google DeepMind Partners with CFS to Use AI for Optimizing SPARC Fusion Reactor Efficiency
    DeepMind is partnering with CFS to optimize its SPARC fusion reactor for net energy gain (Q>1) by 2027. The AI uses TORAX simulations and AlphaEvolve agents to control extreme plasma heat.
    0 ความคิดเห็น 0 การแบ่งปัน 241 มุมมอง 0 รีวิว
  • “Intel Panther Lake มาแน่ต้นปี 2026 — ประสิทธิภาพสูงขึ้น 50% พร้อมประหยัดพลังงานกว่าเดิม 30% ด้วยเทคโนโลยี 18A”

    Intel กำลังเตรียมเปิดตัวชิปตระกูลใหม่ “Panther Lake” สำหรับแพลตฟอร์มพกพาในต้นปี 2026 โดยถือเป็นผลิตภัณฑ์แรกของผู้บริโภคที่ใช้เทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการผลิตทรานซิสเตอร์ขั้นสูงที่ Intel พัฒนาขึ้นเอง โดยมีเป้าหมายเพื่อพลิกสถานการณ์ในตลาดที่กำลังถูกคู่แข่งอย่าง AMD และ Apple แย่งส่วนแบ่งไปอย่างต่อเนื่อง

    จากรายงานของ Reuters และ Wccftech ชิป Panther Lake จะมีประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake รุ่นก่อนถึง 30% และสามารถประมวลผลข้อมูลได้เร็วขึ้นถึง 50% ในงานที่ใช้ทรัพยากรสูง เช่น การประมวลผลกราฟิกและข้อมูล AI

    แม้รายละเอียดเชิงเทคนิคจะยังไม่เปิดเผยทั้งหมด แต่ Intel ยืนยันว่าชิปใหม่นี้จะใช้พลังงานน้อยลง และมีการปรับปรุงทั้งในส่วนของกราฟิกและซีพียู โดยใช้สถาปัตยกรรมใหม่ที่ชื่อว่า Cougar Cove ซึ่งเป็นการต่อยอดจาก Arrow Lake H-series

    Panther Lake ยังถูกวางตำแหน่งให้เป็นชิประดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงานแบบ Lunar Lake โดยคาดว่าจะมีค่า TDP อยู่ในช่วง 45W ซึ่งเหมาะกับโน้ตบุ๊กประสิทธิภาพสูงและอุปกรณ์พกพาที่ต้องการพลังในการประมวลผลมากขึ้น

    การเปิดตัวครั้งนี้ถือเป็นก้าวสำคัญของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple โดยเฉพาะในด้านประสิทธิภาพต่อวัตต์ ซึ่งเป็นจุดอ่อนของ Intel ในช่วงหลายปีที่ผ่านมา

    ข้อมูลสำคัญจากข่าว
    Intel เตรียมเปิดตัวชิป Panther Lake ต้นปี 2026 สำหรับแพลตฟอร์มพกพา
    ใช้เทคโนโลยีการผลิต 18A เป็นครั้งแรกในผลิตภัณฑ์ผู้บริโภค
    ประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake ถึง 30%
    ประสิทธิภาพการประมวลผลสูงขึ้น 50% ในงานข้อมูลหนัก
    ใช้สถาปัตยกรรม Cougar Cove ต่อจาก Arrow Lake H-series
    เหมาะกับโน้ตบุ๊กระดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงาน
    คาดว่าจะมีค่า TDP ประมาณ 45W
    เป็นความพยายามของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple

    ข้อมูลเสริมจากภายนอก
    18A เป็นกระบวนการผลิตที่ใช้ RibbonFET และ PowerVia ซึ่งเป็นเทคโนโลยีใหม่ของ Intel
    Lunar Lake ใช้ TSMC N3B node ในการผลิต ทำให้มีประสิทธิภาพด้านพลังงานสูง
    Apple M4 ใช้สถาปัตยกรรม 3nm และมีประสิทธิภาพต่อวัตต์สูงมาก
    Cougar Cove มีการปรับปรุง branch predictor และ buffer ขนาดใหญ่ขึ้น
    Panther Lake อาจเป็นชิป x86 ที่เข้าใกล้ประสิทธิภาพของ Apple M-series มากที่สุด

    https://wccftech.com/intel-panther-lake-lineup-features-30-higher-power-efficiency-compared-to-lunar-lake/
    ⚙️ “Intel Panther Lake มาแน่ต้นปี 2026 — ประสิทธิภาพสูงขึ้น 50% พร้อมประหยัดพลังงานกว่าเดิม 30% ด้วยเทคโนโลยี 18A” Intel กำลังเตรียมเปิดตัวชิปตระกูลใหม่ “Panther Lake” สำหรับแพลตฟอร์มพกพาในต้นปี 2026 โดยถือเป็นผลิตภัณฑ์แรกของผู้บริโภคที่ใช้เทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการผลิตทรานซิสเตอร์ขั้นสูงที่ Intel พัฒนาขึ้นเอง โดยมีเป้าหมายเพื่อพลิกสถานการณ์ในตลาดที่กำลังถูกคู่แข่งอย่าง AMD และ Apple แย่งส่วนแบ่งไปอย่างต่อเนื่อง จากรายงานของ Reuters และ Wccftech ชิป Panther Lake จะมีประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake รุ่นก่อนถึง 30% และสามารถประมวลผลข้อมูลได้เร็วขึ้นถึง 50% ในงานที่ใช้ทรัพยากรสูง เช่น การประมวลผลกราฟิกและข้อมูล AI แม้รายละเอียดเชิงเทคนิคจะยังไม่เปิดเผยทั้งหมด แต่ Intel ยืนยันว่าชิปใหม่นี้จะใช้พลังงานน้อยลง และมีการปรับปรุงทั้งในส่วนของกราฟิกและซีพียู โดยใช้สถาปัตยกรรมใหม่ที่ชื่อว่า Cougar Cove ซึ่งเป็นการต่อยอดจาก Arrow Lake H-series Panther Lake ยังถูกวางตำแหน่งให้เป็นชิประดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงานแบบ Lunar Lake โดยคาดว่าจะมีค่า TDP อยู่ในช่วง 45W ซึ่งเหมาะกับโน้ตบุ๊กประสิทธิภาพสูงและอุปกรณ์พกพาที่ต้องการพลังในการประมวลผลมากขึ้น การเปิดตัวครั้งนี้ถือเป็นก้าวสำคัญของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple โดยเฉพาะในด้านประสิทธิภาพต่อวัตต์ ซึ่งเป็นจุดอ่อนของ Intel ในช่วงหลายปีที่ผ่านมา ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel เตรียมเปิดตัวชิป Panther Lake ต้นปี 2026 สำหรับแพลตฟอร์มพกพา ➡️ ใช้เทคโนโลยีการผลิต 18A เป็นครั้งแรกในผลิตภัณฑ์ผู้บริโภค ➡️ ประสิทธิภาพด้านพลังงานสูงกว่า Lunar Lake ถึง 30% ➡️ ประสิทธิภาพการประมวลผลสูงขึ้น 50% ในงานข้อมูลหนัก ➡️ ใช้สถาปัตยกรรม Cougar Cove ต่อจาก Arrow Lake H-series ➡️ เหมาะกับโน้ตบุ๊กระดับกลางถึงสูง ไม่ใช่ชิปประหยัดพลังงาน ➡️ คาดว่าจะมีค่า TDP ประมาณ 45W ➡️ เป็นความพยายามของ Intel ในการกลับมาแข่งขันกับ TSMC และ Apple ✅ ข้อมูลเสริมจากภายนอก ➡️ 18A เป็นกระบวนการผลิตที่ใช้ RibbonFET และ PowerVia ซึ่งเป็นเทคโนโลยีใหม่ของ Intel ➡️ Lunar Lake ใช้ TSMC N3B node ในการผลิต ทำให้มีประสิทธิภาพด้านพลังงานสูง ➡️ Apple M4 ใช้สถาปัตยกรรม 3nm และมีประสิทธิภาพต่อวัตต์สูงมาก ➡️ Cougar Cove มีการปรับปรุง branch predictor และ buffer ขนาดใหญ่ขึ้น ➡️ Panther Lake อาจเป็นชิป x86 ที่เข้าใกล้ประสิทธิภาพของ Apple M-series มากที่สุด https://wccftech.com/intel-panther-lake-lineup-features-30-higher-power-efficiency-compared-to-lunar-lake/
    WCCFTECH.COM
    Intel's Next-Gen Panther Lake Lineup Features 30% Higher Power Efficiency Compared to Lunar Lake, Driven By 18A Adoption
    Details around Intel's Panther Lake have started to surface and the mobile platform will feature impressive performance per watt figures.
    0 ความคิดเห็น 0 การแบ่งปัน 230 มุมมอง 0 รีวิว
  • “Intel เปิดตัวสถาปัตยกรรมใหม่ Coyote Cove และ Arctic Wolf — เตรียมชน AMD Zen 6 ด้วย Nova Lake และ Diamond Rapids”

    Intel ประกาศยืนยันสถาปัตยกรรมแกนประมวลผลใหม่สำหรับซีพียูรุ่นถัดไปในตระกูล Nova Lake และ Diamond Rapids ที่จะเปิดตัวในปี 2026 โดยฝั่งผู้ใช้ทั่วไป (Client) จะใช้แกน P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ส่วนฝั่งเซิร์ฟเวอร์จะใช้แกน P-Core ชื่อ Panther Cove ซึ่งเป็นรุ่นปรับปรุงจาก Cougar Cove ที่ใช้ใน Panther Lake

    Nova Lake จะเป็นซีพียูสำหรับเดสก์ท็อปและโน้ตบุ๊ก โดยรุ่นสูงสุดจะมีจำนวนคอร์รวมถึง 52 คอร์ (16P + 32E + 4LPE) พร้อมกราฟิกแบบใหม่ที่ใช้สถาปัตยกรรม Xe3 และใช้ซ็อกเก็ตใหม่ LGA 1954 ซึ่งจะมีการอัปเกรดแพลตฟอร์มครั้งใหญ่

    ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะมีจำนวนคอร์สูงสุดถึง 256 คอร์ โดยไม่มีการรองรับ SMT (Hyper-Threading) ซึ่ง Intel ยอมรับว่าเป็นข้อผิดพลาด และจะนำกลับมาในรุ่นถัดไป Coral Rapids ที่จะเปิดตัวหลังจากนั้น

    นอกจากนี้ Intel ยังเตรียมเปิดตัวชิประดับเริ่มต้นชื่อ Wildcat Lake ที่จะมาแทน Twin Lake โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เพื่อรองรับตลาดราคาประหยัด

    Nova Lake และ Diamond Rapids จะเป็นคู่แข่งโดยตรงกับ AMD Zen 6 ทั้งในฝั่ง Ryzen และ EPYC ซึ่งจะทำให้ปี 2026 กลายเป็นสมรภูมิเดือดของสองค่ายใหญ่ในโลกซีพียู

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันสถาปัตยกรรมใหม่ Coyote Cove (P-Core) และ Arctic Wolf (E-Core) สำหรับ Nova Lake
    Diamond Rapids จะใช้ Panther Cove P-Core สำหรับเซิร์ฟเวอร์
    Nova Lake-S จะมีสูงสุด 52 คอร์ (16P + 32E + 4LPE) และใช้ซ็อกเก็ต LGA 1954
    Diamond Rapids จะมีสูงสุด 256 คอร์ และไม่มี SMT
    Coral Rapids รุ่นถัดไปจะนำ SMT กลับมา
    Intel เตรียมเปิดตัว Wildcat Lake สำหรับตลาดเริ่มต้น
    Nova Lake จะใช้กราฟิก Xe3 และแข่งขันกับ AMD Zen 6
    Diamond Rapids จะชนกับ EPYC Zen 6 ในตลาดเซิร์ฟเวอร์

    ข้อมูลเสริมจากภายนอก
    Coyote Cove และ Arctic Wolf เป็นสถาปัตยกรรมใหม่ที่เน้นประสิทธิภาพต่อวัตต์
    LPE (Low Power Efficiency) cores ใช้สำหรับงานเบาและประหยัดพลังงาน
    Xe3 เป็นกราฟิกเจเนอเรชันใหม่ที่เน้นการเร่งงาน AI และการประมวลผลภาพ
    ซ็อกเก็ต LGA 1954 จะรองรับ PCIe 5.0 และ DDR5 รุ่นใหม่
    SMT (Simultaneous Multithreading) ช่วยเพิ่มประสิทธิภาพในงานเซิร์ฟเวอร์โดยใช้เธรดเสมือน

    https://wccftech.com/intel-nova-lake-coyote-cove-p-core-arctic-wolf-e-core-diamond-rapids-panther-cove/
    🧠 “Intel เปิดตัวสถาปัตยกรรมใหม่ Coyote Cove และ Arctic Wolf — เตรียมชน AMD Zen 6 ด้วย Nova Lake และ Diamond Rapids” Intel ประกาศยืนยันสถาปัตยกรรมแกนประมวลผลใหม่สำหรับซีพียูรุ่นถัดไปในตระกูล Nova Lake และ Diamond Rapids ที่จะเปิดตัวในปี 2026 โดยฝั่งผู้ใช้ทั่วไป (Client) จะใช้แกน P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ส่วนฝั่งเซิร์ฟเวอร์จะใช้แกน P-Core ชื่อ Panther Cove ซึ่งเป็นรุ่นปรับปรุงจาก Cougar Cove ที่ใช้ใน Panther Lake Nova Lake จะเป็นซีพียูสำหรับเดสก์ท็อปและโน้ตบุ๊ก โดยรุ่นสูงสุดจะมีจำนวนคอร์รวมถึง 52 คอร์ (16P + 32E + 4LPE) พร้อมกราฟิกแบบใหม่ที่ใช้สถาปัตยกรรม Xe3 และใช้ซ็อกเก็ตใหม่ LGA 1954 ซึ่งจะมีการอัปเกรดแพลตฟอร์มครั้งใหญ่ ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะมีจำนวนคอร์สูงสุดถึง 256 คอร์ โดยไม่มีการรองรับ SMT (Hyper-Threading) ซึ่ง Intel ยอมรับว่าเป็นข้อผิดพลาด และจะนำกลับมาในรุ่นถัดไป Coral Rapids ที่จะเปิดตัวหลังจากนั้น นอกจากนี้ Intel ยังเตรียมเปิดตัวชิประดับเริ่มต้นชื่อ Wildcat Lake ที่จะมาแทน Twin Lake โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เพื่อรองรับตลาดราคาประหยัด Nova Lake และ Diamond Rapids จะเป็นคู่แข่งโดยตรงกับ AMD Zen 6 ทั้งในฝั่ง Ryzen และ EPYC ซึ่งจะทำให้ปี 2026 กลายเป็นสมรภูมิเดือดของสองค่ายใหญ่ในโลกซีพียู ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันสถาปัตยกรรมใหม่ Coyote Cove (P-Core) และ Arctic Wolf (E-Core) สำหรับ Nova Lake ➡️ Diamond Rapids จะใช้ Panther Cove P-Core สำหรับเซิร์ฟเวอร์ ➡️ Nova Lake-S จะมีสูงสุด 52 คอร์ (16P + 32E + 4LPE) และใช้ซ็อกเก็ต LGA 1954 ➡️ Diamond Rapids จะมีสูงสุด 256 คอร์ และไม่มี SMT ➡️ Coral Rapids รุ่นถัดไปจะนำ SMT กลับมา ➡️ Intel เตรียมเปิดตัว Wildcat Lake สำหรับตลาดเริ่มต้น ➡️ Nova Lake จะใช้กราฟิก Xe3 และแข่งขันกับ AMD Zen 6 ➡️ Diamond Rapids จะชนกับ EPYC Zen 6 ในตลาดเซิร์ฟเวอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Coyote Cove และ Arctic Wolf เป็นสถาปัตยกรรมใหม่ที่เน้นประสิทธิภาพต่อวัตต์ ➡️ LPE (Low Power Efficiency) cores ใช้สำหรับงานเบาและประหยัดพลังงาน ➡️ Xe3 เป็นกราฟิกเจเนอเรชันใหม่ที่เน้นการเร่งงาน AI และการประมวลผลภาพ ➡️ ซ็อกเก็ต LGA 1954 จะรองรับ PCIe 5.0 และ DDR5 รุ่นใหม่ ➡️ SMT (Simultaneous Multithreading) ช่วยเพิ่มประสิทธิภาพในงานเซิร์ฟเวอร์โดยใช้เธรดเสมือน https://wccftech.com/intel-nova-lake-coyote-cove-p-core-arctic-wolf-e-core-diamond-rapids-panther-cove/
    WCCFTECH.COM
    Intel Confirms Coyote Cove P-Core & Arctic Wolf E-Core For Nova Lake "Core Ultra 400" CPUs, Panther Cove P-Cores For Diamond Rapids "Xeon 7"
    Intel has confirmed the core architectures for its next-gen Nova Lake & Diamond Rapids CPUs, with Coyote Cove & Panther Cove P-Cores.
    0 ความคิดเห็น 0 การแบ่งปัน 208 มุมมอง 0 รีวิว
  • “DOGE ปฏิบัติการล้างระบบราชการสหรัฐฯ — เมื่อ Elon Musk นำทีมปลดพนักงานรัฐกว่า 300,000 คนในปีเดียว”

    ในปี 2025 หน่วยงานใหม่ชื่อว่า Department of Government Efficiency หรือ DOGE ได้กลายเป็นจุดเปลี่ยนสำคัญของระบบราชการสหรัฐฯ โดยมี Elon Musk เป็นผู้นำภายใต้การแต่งตั้งโดยประธานาธิบดี Donald Trump เป้าหมายของ DOGE คือการลดขนาดรัฐบาลกลางให้ “เล็กที่สุดเท่าที่จะเป็นไปได้” โดยใช้กลยุทธ์ที่รวดเร็วและรุนแรง

    ผลลัพธ์คือการลาออกและปลดพนักงานกว่า 300,000 คนภายในปีเดียว คิดเป็นหนึ่งในแปดของแรงงานภาครัฐทั้งหมด โดยส่วนใหญ่เกิดจากแรงจูงใจให้ลาออก เช่น โปรแกรม “Fork in the Road” ที่เสนอเงินชดเชยและการพักงานแบบมีเงินเดือนชั่วคราว

    หน่วยงานที่ได้รับผลกระทบหนักที่สุดคือ GSA (General Services Administration) ซึ่งดูแลพื้นที่สำนักงานของรัฐบาลกลาง ถูกลดพนักงานลงครึ่งหนึ่ง และมีการยกเลิกสัญญาเช่าอาคารกว่า 7,500 แห่ง ส่งผลให้เกิดความล่าช้าในการดำเนินงานและค่าใช้จ่ายที่เพิ่มขึ้นอย่างมหาศาล

    นอกจากนี้ ยังมีการลาออกของทีมเทคโนโลยีจาก US Digital Service (USDS) ซึ่งถูกเปลี่ยนชื่อเป็น DOGE โดยพนักงานกว่า 21 คนประกาศลาออกพร้อมกัน โดยให้เหตุผลว่า “ไม่สามารถใช้ทักษะเพื่อทำลายบริการสาธารณะได้” และวิจารณ์ว่า DOGE ถูกขับเคลื่อนโดยกลุ่มคนที่ไม่มีความเชี่ยวชาญ แต่มีอุดมการณ์ทางการเมือง

    หลังจาก Elon Musk ลาออกจากตำแหน่งในกลางปี 2025 รัฐบาลสหรัฐฯ เริ่มพยายามเรียกพนักงานที่ถูกปลดกลับเข้าทำงาน โดยเฉพาะในหน่วยงานสำคัญ เช่น IRS, กรมแรงงาน และอุทยานแห่งชาติ ซึ่งหลายแห่งประสบปัญหาขาดแคลนบุคลากรจนไม่สามารถให้บริการประชาชนได้ตามปกติ

    ข้อมูลสำคัญจากข่าว
    DOGE เป็นหน่วยงานใหม่ที่มีเป้าหมายลดขนาดรัฐบาลกลางสหรัฐฯ
    Elon Musk เป็นผู้นำ DOGE โดยได้รับการแต่งตั้งจากประธานาธิบดี Donald Trump
    มีการปลดและลาออกของพนักงานภาครัฐกว่า 300,000 คนในปี 2025
    GSA ถูกลดพนักงานลงครึ่งหนึ่งและยกเลิกสัญญาเช่าอาคารกว่า 7,500 แห่ง
    โปรแกรม “Fork in the Road” เสนอเงินชดเชยและการพักงานแบบมีเงินเดือน
    ทีมเทคโนโลยีจาก USDS ลาออกพร้อมกัน 21 คนโดยให้เหตุผลด้านจริยธรรม
    หลัง Musk ลาออก รัฐบาลเริ่มเรียกพนักงานกลับเข้าทำงานในหลายหน่วยงาน
    IRS, กรมแรงงาน และอุทยานแห่งชาติได้รับผลกระทบจนต้องเรียกคนกลับ
    CISA ระบุว่าการปลดพนักงานจำนวนมากส่งผลต่อความมั่นคงของระบบราชการ

    ข้อมูลเสริมจากภายนอก
    GSA เป็นหน่วยงานสำคัญที่ดูแลพื้นที่สำนักงานและการจัดซื้อของรัฐบาลกลาง
    USDS ก่อตั้งในปี 2014 เพื่อปรับปรุงบริการดิจิทัลของรัฐบาล
    การลดขนาดรัฐบาลเป็นแนวคิดที่มีทั้งผู้สนับสนุนและผู้คัดค้านในสหรัฐฯ
    Elon Musk มีสัญญากับรัฐบาลหลายฉบับ เช่น SpaceX และ Starlink
    การปลดพนักงานจำนวนมากอาจส่งผลต่อการดำเนินงานของโครงการระดับชาติ

    https://www.wired.com/story/oral-history-doge-federal-workers/
    🏛️ “DOGE ปฏิบัติการล้างระบบราชการสหรัฐฯ — เมื่อ Elon Musk นำทีมปลดพนักงานรัฐกว่า 300,000 คนในปีเดียว” ในปี 2025 หน่วยงานใหม่ชื่อว่า Department of Government Efficiency หรือ DOGE ได้กลายเป็นจุดเปลี่ยนสำคัญของระบบราชการสหรัฐฯ โดยมี Elon Musk เป็นผู้นำภายใต้การแต่งตั้งโดยประธานาธิบดี Donald Trump เป้าหมายของ DOGE คือการลดขนาดรัฐบาลกลางให้ “เล็กที่สุดเท่าที่จะเป็นไปได้” โดยใช้กลยุทธ์ที่รวดเร็วและรุนแรง ผลลัพธ์คือการลาออกและปลดพนักงานกว่า 300,000 คนภายในปีเดียว คิดเป็นหนึ่งในแปดของแรงงานภาครัฐทั้งหมด โดยส่วนใหญ่เกิดจากแรงจูงใจให้ลาออก เช่น โปรแกรม “Fork in the Road” ที่เสนอเงินชดเชยและการพักงานแบบมีเงินเดือนชั่วคราว หน่วยงานที่ได้รับผลกระทบหนักที่สุดคือ GSA (General Services Administration) ซึ่งดูแลพื้นที่สำนักงานของรัฐบาลกลาง ถูกลดพนักงานลงครึ่งหนึ่ง และมีการยกเลิกสัญญาเช่าอาคารกว่า 7,500 แห่ง ส่งผลให้เกิดความล่าช้าในการดำเนินงานและค่าใช้จ่ายที่เพิ่มขึ้นอย่างมหาศาล นอกจากนี้ ยังมีการลาออกของทีมเทคโนโลยีจาก US Digital Service (USDS) ซึ่งถูกเปลี่ยนชื่อเป็น DOGE โดยพนักงานกว่า 21 คนประกาศลาออกพร้อมกัน โดยให้เหตุผลว่า “ไม่สามารถใช้ทักษะเพื่อทำลายบริการสาธารณะได้” และวิจารณ์ว่า DOGE ถูกขับเคลื่อนโดยกลุ่มคนที่ไม่มีความเชี่ยวชาญ แต่มีอุดมการณ์ทางการเมือง หลังจาก Elon Musk ลาออกจากตำแหน่งในกลางปี 2025 รัฐบาลสหรัฐฯ เริ่มพยายามเรียกพนักงานที่ถูกปลดกลับเข้าทำงาน โดยเฉพาะในหน่วยงานสำคัญ เช่น IRS, กรมแรงงาน และอุทยานแห่งชาติ ซึ่งหลายแห่งประสบปัญหาขาดแคลนบุคลากรจนไม่สามารถให้บริการประชาชนได้ตามปกติ ✅ ข้อมูลสำคัญจากข่าว ➡️ DOGE เป็นหน่วยงานใหม่ที่มีเป้าหมายลดขนาดรัฐบาลกลางสหรัฐฯ ➡️ Elon Musk เป็นผู้นำ DOGE โดยได้รับการแต่งตั้งจากประธานาธิบดี Donald Trump ➡️ มีการปลดและลาออกของพนักงานภาครัฐกว่า 300,000 คนในปี 2025 ➡️ GSA ถูกลดพนักงานลงครึ่งหนึ่งและยกเลิกสัญญาเช่าอาคารกว่า 7,500 แห่ง ➡️ โปรแกรม “Fork in the Road” เสนอเงินชดเชยและการพักงานแบบมีเงินเดือน ➡️ ทีมเทคโนโลยีจาก USDS ลาออกพร้อมกัน 21 คนโดยให้เหตุผลด้านจริยธรรม ➡️ หลัง Musk ลาออก รัฐบาลเริ่มเรียกพนักงานกลับเข้าทำงานในหลายหน่วยงาน ➡️ IRS, กรมแรงงาน และอุทยานแห่งชาติได้รับผลกระทบจนต้องเรียกคนกลับ ➡️ CISA ระบุว่าการปลดพนักงานจำนวนมากส่งผลต่อความมั่นคงของระบบราชการ ✅ ข้อมูลเสริมจากภายนอก ➡️ GSA เป็นหน่วยงานสำคัญที่ดูแลพื้นที่สำนักงานและการจัดซื้อของรัฐบาลกลาง ➡️ USDS ก่อตั้งในปี 2014 เพื่อปรับปรุงบริการดิจิทัลของรัฐบาล ➡️ การลดขนาดรัฐบาลเป็นแนวคิดที่มีทั้งผู้สนับสนุนและผู้คัดค้านในสหรัฐฯ ➡️ Elon Musk มีสัญญากับรัฐบาลหลายฉบับ เช่น SpaceX และ Starlink ➡️ การปลดพนักงานจำนวนมากอาจส่งผลต่อการดำเนินงานของโครงการระดับชาติ https://www.wired.com/story/oral-history-doge-federal-workers/
    WWW.WIRED.COM
    The Story of DOGE, as Told by Federal Workers
    WIRED spoke with more than 200 federal workers in dozens of agencies to learn what happened as the Department of Government Efficiency tore through their offices.
    0 ความคิดเห็น 0 การแบ่งปัน 371 มุมมอง 0 รีวิว
  • “MediaTek Dimensity 9500 เปิดตัวแล้ว — ชิปมือถือที่แรงที่สุดของค่าย พร้อม AI แบบ on-device และประหยัดพลังงานกว่าเดิม”

    MediaTek ประกาศเปิดตัวชิปเรือธงรุ่นใหม่ Dimensity 9500 ซึ่งจะถูกนำไปใช้ในสมาร์ตโฟนระดับไฮเอนด์ช่วงปลายปี 2025 โดยชูจุดเด่นด้านประสิทธิภาพสูงสุด การประมวลผล AI แบบ on-device และการจัดการพลังงานที่เหนือกว่ารุ่นก่อนหน้าอย่างชัดเจน

    Dimensity 9500 ใช้สถาปัตยกรรม CPU แบบ All Big Core รุ่นที่ 3 ประกอบด้วย ultra core ความเร็ว 4.21GHz, premium core 3 ตัว และ performance core อีก 4 ตัว พร้อมระบบจัดเก็บข้อมูลแบบ UFS 4.1 แบบ 4 ช่อง ซึ่งช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลขึ้นถึง 2 เท่า และลดการใช้พลังงานสูงสุดถึง 55% เมื่อเทียบกับรุ่นก่อน

    ด้านกราฟิก ชิปนี้มาพร้อม GPU Arm G1-Ultra ที่ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% รองรับการเล่นเกมระดับคอนโซลด้วย frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ พร้อมรองรับฟีเจอร์ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5

    ในส่วนของ AI Dimensity 9500 ใช้ NPU รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ที่สามารถประมวลผลโมเดลขนาดใหญ่ได้เร็วขึ้น 100% และลดการใช้พลังงานลงถึง 56% รองรับการสร้างภาพ 4K แบบ ultra-HD และข้อความยาวถึง 128K token ได้แบบ on-device โดยไม่ต้องพึ่งคลาวด์

    ด้านกล้องและภาพ Dimensity 9500 รองรับการถ่ายภาพ RAW สูงสุด 200MP พร้อมระบบโฟกัสต่อเนื่อง 30 FPS และวิดีโอ 4K 60 FPS แบบ cinematic portrait นอกจากนี้ยังมี MiraVision Adaptive Display ที่ปรับแสง สี และความคมชัดตามสภาพแวดล้อมแบบเรียลไทม์

    การเชื่อมต่อก็ไม่แพ้ใคร ด้วยระบบ multi-network intelligence ที่ช่วยลด latency ได้ถึง 50% และเพิ่มความแม่นยำในการระบุตำแหน่ง 20% พร้อมระบบ AI ที่ช่วยเลือกเครือข่ายที่ดีที่สุดในแต่ละสถานการณ์

    จุดเด่นของ MediaTek Dimensity 9500
    ใช้ CPU แบบ All Big Core รุ่นที่ 3 พร้อม ultra core 4.21GHz
    เพิ่มประสิทธิภาพ single-core 32% และ multi-core 17% จากรุ่นก่อน
    ลดการใช้พลังงานสูงสุด 55% เมื่อทำงานเต็มที่
    รองรับ UFS 4.1 แบบ 4 ช่อง เพิ่มความเร็วอ่าน/เขียนข้อมูล 2 เท่า

    ด้านกราฟิกและการเล่นเกม
    GPU Arm G1-Ultra ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42%
    รองรับ frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์
    รองรับ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5

    ด้าน AI และการประมวลผลโมเดล
    ใช้ NPU 990 รุ่นที่ 9 พร้อม Generative AI Engine 2.0
    รองรับ BitNet 1.58-bit สำหรับโมเดลขนาดใหญ่
    ประมวลผล LLM ขนาด 3 พันล้านพารามิเตอร์ได้เร็วขึ้น 100%
    รองรับข้อความยาว 128K token และภาพ 4K ultra-HD แบบ on-device

    ด้านกล้องและการแสดงผล
    รองรับการถ่ายภาพ RAW สูงสุด 200MP และวิดีโอ 4K 60 FPS แบบ portrait
    MiraVision Adaptive Display ปรับแสง สี และความคมชัดตามสภาพแวดล้อม
    ป้องกันการร้อนเกินเมื่อใช้งานกลางแจ้ง และถนอมสายตาในที่มืด

    ด้านการเชื่อมต่อและพลังงาน
    AI-powered communication ลดการใช้พลังงาน 10% ใน 5G และ 20% ใน Wi-Fi
    5CC carrier aggregation เพิ่มแบนด์วิดธ์ 15%
    AI network selection เพิ่มความแม่นยำ 20% และลด latency 50%

    ข้อมูลเสริมจากภายนอก
    ผลิตด้วยเทคโนโลยี 3 นาโนเมตร และคาดว่าจะใช้ในมือถือเรือธงปลายปี 2025
    เปรียบเทียบกับ Snapdragon 8 Gen 4 และ Apple A18 Pro ได้อย่างสูสีในหลายด้าน
    รองรับการใช้งาน AI แบบต่อเนื่องโดยไม่ต้องพึ่งคลาวด์ ช่วยเพิ่มความเป็นส่วนตัว

    https://www.techpowerup.com/341208/mediatek-dimensity-9500-unleashes-best-in-class-performance-ai-experiences-and-power-efficiency-for-the-next-generation-of-mobile-devices
    ⚡ “MediaTek Dimensity 9500 เปิดตัวแล้ว — ชิปมือถือที่แรงที่สุดของค่าย พร้อม AI แบบ on-device และประหยัดพลังงานกว่าเดิม” MediaTek ประกาศเปิดตัวชิปเรือธงรุ่นใหม่ Dimensity 9500 ซึ่งจะถูกนำไปใช้ในสมาร์ตโฟนระดับไฮเอนด์ช่วงปลายปี 2025 โดยชูจุดเด่นด้านประสิทธิภาพสูงสุด การประมวลผล AI แบบ on-device และการจัดการพลังงานที่เหนือกว่ารุ่นก่อนหน้าอย่างชัดเจน Dimensity 9500 ใช้สถาปัตยกรรม CPU แบบ All Big Core รุ่นที่ 3 ประกอบด้วย ultra core ความเร็ว 4.21GHz, premium core 3 ตัว และ performance core อีก 4 ตัว พร้อมระบบจัดเก็บข้อมูลแบบ UFS 4.1 แบบ 4 ช่อง ซึ่งช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลขึ้นถึง 2 เท่า และลดการใช้พลังงานสูงสุดถึง 55% เมื่อเทียบกับรุ่นก่อน ด้านกราฟิก ชิปนี้มาพร้อม GPU Arm G1-Ultra ที่ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% รองรับการเล่นเกมระดับคอนโซลด้วย frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ พร้อมรองรับฟีเจอร์ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5 ในส่วนของ AI Dimensity 9500 ใช้ NPU รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ที่สามารถประมวลผลโมเดลขนาดใหญ่ได้เร็วขึ้น 100% และลดการใช้พลังงานลงถึง 56% รองรับการสร้างภาพ 4K แบบ ultra-HD และข้อความยาวถึง 128K token ได้แบบ on-device โดยไม่ต้องพึ่งคลาวด์ ด้านกล้องและภาพ Dimensity 9500 รองรับการถ่ายภาพ RAW สูงสุด 200MP พร้อมระบบโฟกัสต่อเนื่อง 30 FPS และวิดีโอ 4K 60 FPS แบบ cinematic portrait นอกจากนี้ยังมี MiraVision Adaptive Display ที่ปรับแสง สี และความคมชัดตามสภาพแวดล้อมแบบเรียลไทม์ การเชื่อมต่อก็ไม่แพ้ใคร ด้วยระบบ multi-network intelligence ที่ช่วยลด latency ได้ถึง 50% และเพิ่มความแม่นยำในการระบุตำแหน่ง 20% พร้อมระบบ AI ที่ช่วยเลือกเครือข่ายที่ดีที่สุดในแต่ละสถานการณ์ ✅ จุดเด่นของ MediaTek Dimensity 9500 ➡️ ใช้ CPU แบบ All Big Core รุ่นที่ 3 พร้อม ultra core 4.21GHz ➡️ เพิ่มประสิทธิภาพ single-core 32% และ multi-core 17% จากรุ่นก่อน ➡️ ลดการใช้พลังงานสูงสุด 55% เมื่อทำงานเต็มที่ ➡️ รองรับ UFS 4.1 แบบ 4 ช่อง เพิ่มความเร็วอ่าน/เขียนข้อมูล 2 เท่า ✅ ด้านกราฟิกและการเล่นเกม ➡️ GPU Arm G1-Ultra ให้ประสิทธิภาพสูงขึ้น 33% และประหยัดพลังงานขึ้น 42% ➡️ รองรับ frame interpolation สูงสุด 120 FPS และ ray tracing แบบเรียลไทม์ ➡️ รองรับ MegaLights และ Nanite จาก Unreal Engine 5.6 และ 5.5 ✅ ด้าน AI และการประมวลผลโมเดล ➡️ ใช้ NPU 990 รุ่นที่ 9 พร้อม Generative AI Engine 2.0 ➡️ รองรับ BitNet 1.58-bit สำหรับโมเดลขนาดใหญ่ ➡️ ประมวลผล LLM ขนาด 3 พันล้านพารามิเตอร์ได้เร็วขึ้น 100% ➡️ รองรับข้อความยาว 128K token และภาพ 4K ultra-HD แบบ on-device ✅ ด้านกล้องและการแสดงผล ➡️ รองรับการถ่ายภาพ RAW สูงสุด 200MP และวิดีโอ 4K 60 FPS แบบ portrait ➡️ MiraVision Adaptive Display ปรับแสง สี และความคมชัดตามสภาพแวดล้อม ➡️ ป้องกันการร้อนเกินเมื่อใช้งานกลางแจ้ง และถนอมสายตาในที่มืด ✅ ด้านการเชื่อมต่อและพลังงาน ➡️ AI-powered communication ลดการใช้พลังงาน 10% ใน 5G และ 20% ใน Wi-Fi ➡️ 5CC carrier aggregation เพิ่มแบนด์วิดธ์ 15% ➡️ AI network selection เพิ่มความแม่นยำ 20% และลด latency 50% ✅ ข้อมูลเสริมจากภายนอก ➡️ ผลิตด้วยเทคโนโลยี 3 นาโนเมตร และคาดว่าจะใช้ในมือถือเรือธงปลายปี 2025 ➡️ เปรียบเทียบกับ Snapdragon 8 Gen 4 และ Apple A18 Pro ได้อย่างสูสีในหลายด้าน ➡️ รองรับการใช้งาน AI แบบต่อเนื่องโดยไม่ต้องพึ่งคลาวด์ ช่วยเพิ่มความเป็นส่วนตัว https://www.techpowerup.com/341208/mediatek-dimensity-9500-unleashes-best-in-class-performance-ai-experiences-and-power-efficiency-for-the-next-generation-of-mobile-devices
    WWW.TECHPOWERUP.COM
    MediaTek Dimensity 9500 Unleashes Best-in-Class Performance, AI Experiences, and Power Efficiency for the Next Generation of Mobile Devices
    MediaTek, the world's leading innovator of smartphone SoCs, today announced the launch of its most advanced mobile platform yet: The MediaTek Dimensity 9500. Setting new standards in on-device AI, console-class gaming, and power efficiency, the MediaTek Dimensity 9500 is engineered to super-charge t...
    0 ความคิดเห็น 0 การแบ่งปัน 243 มุมมอง 0 รีวิว
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 ความคิดเห็น 0 การแบ่งปัน 273 มุมมอง 0 รีวิว
  • “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!”

    Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง

    ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device

    A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า

    iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป

    นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ

    ชิป A19 และ A19 Pro
    A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX
    A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core
    ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core
    ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro

    ระบบระบายความร้อนใหม่
    ใช้ vapor chamber filled with deionized water
    โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า
    ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง

    ชิปเชื่อมต่อ N1 และโมเด็ม C1X
    N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread
    เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot
    C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave
    iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ

    การใช้งาน AI บนอุปกรณ์
    Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น
    รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ
    iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ

    ราคาและการวางจำหน่าย
    iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999
    iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199
    เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน
    รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB

    https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    📱 “Apple เปิดตัวชิป A19 และ A19 Pro สำหรับ iPhone 17 และ iPhone Air — เร็วขึ้น ฉลาดขึ้น เย็นขึ้น พร้อม AI แบบ MacBook ในมือถือ!” Apple เปิดตัว iPhone รุ่นใหม่ 4 รุ่น ได้แก่ iPhone 17, iPhone Air, iPhone 17 Pro และ iPhone 17 Pro Max พร้อมชิปใหม่ล่าสุด A19 และ A19 Pro ที่ถูกออกแบบมาเพื่อรองรับยุคของ Apple Intelligence และการประมวลผล AI บนอุปกรณ์โดยตรง ชิป A19 ใช้ใน iPhone 17 รุ่นพื้นฐาน มี CPU แบบ 6-core (2 performance + 4 efficiency) และ GPU 5-core รองรับ ray tracing, mesh shading และ MetalFX upscaling ส่วน A19 Pro ใช้ใน iPhone Air และรุ่น Pro โดยมี GPU 5-core สำหรับ Air และ 6-core สำหรับรุ่น Pro พร้อม Neural Accelerators ในแต่ละ core เพื่อเร่งการประมวลผล AI แบบ on-device A19 Pro ยังมีการปรับปรุงสถาปัตยกรรม CPU เช่น branch prediction ที่แม่นยำขึ้น, front-end bandwidth ที่กว้างขึ้น และ cache ขนาดใหญ่ขึ้นถึง 50% ใน efficiency core ทำให้สามารถรักษาประสิทธิภาพได้สูงขึ้นถึง 40% เมื่อเทียบกับ A18 Pro รุ่นก่อนหน้า iPhone 17 Pro และ Pro Max ยังมาพร้อมระบบระบายความร้อนแบบ vapor chamber ที่ใช้ดีไอออนไนซ์วอเตอร์ในโครงสร้าง unibody อะลูมิเนียม ซึ่ง Apple เคลมว่าระบายความร้อนได้ดีกว่าไทเทเนียมถึง 20 เท่า — ช่วยให้ชิปทำงานเต็มประสิทธิภาพโดยไม่ร้อนเกินไป นอกจากนี้ Apple ยังเปิดตัวชิป N1 สำหรับการเชื่อมต่อไร้สาย รองรับ Wi-Fi 7, Bluetooth 6 และ Thread รวมถึงโมเด็ม C1X ที่เร็วขึ้น 2 เท่าแต่ยังไม่รองรับ mmWave โดย iPhone 17 และ Pro รุ่นใหม่ยังใช้โมเด็ม Qualcomm เพื่อรองรับ 5G แบบเต็มรูปแบบ ✅ ชิป A19 และ A19 Pro ➡️ A19: CPU 6-core (2P + 4E), GPU 5-core, รองรับ ray tracing และ MetalFX ➡️ A19 Pro: GPU 5-core (Air) / 6-core (Pro), มี Neural Accelerators ในแต่ละ core ➡️ ปรับปรุง branch prediction, bandwidth และ cache ใน efficiency core ➡️ ประสิทธิภาพสูงขึ้น 40% เมื่อเทียบกับ A18 Pro ✅ ระบบระบายความร้อนใหม่ ➡️ ใช้ vapor chamber filled with deionized water ➡️ โครงสร้าง unibody อะลูมิเนียม ระบายความร้อนได้ดีกว่าไทเทเนียม 20 เท่า ➡️ ช่วยให้ iPhone Pro รุ่นใหม่รักษาความเร็วได้ต่อเนื่อง ✅ ชิปเชื่อมต่อ N1 และโมเด็ม C1X ➡️ N1 รองรับ Wi-Fi 7, Bluetooth 6 และ Thread ➡️ เพิ่มประสิทธิภาพ AirDrop และ Personal Hotspot ➡️ C1X เร็วขึ้น 2 เท่า แต่ไม่รองรับ mmWave ➡️ iPhone 17 และ Pro ยังใช้โมเด็ม Qualcomm สำหรับ 5G เต็มรูปแบบ ✅ การใช้งาน AI บนอุปกรณ์ ➡️ Neural Accelerators ช่วยให้ประมวลผล Apple Intelligence ได้เร็วขึ้น ➡️ รองรับฟีเจอร์ใหม่ใน iOS 26 เช่น การแปลภาษา, การจัดการข้อความ, และการวิเคราะห์ภาพ ➡️ iPhone Air มีประสิทธิภาพระดับ MacBook Pro ในขนาดมือถือ ✅ ราคาและการวางจำหน่าย ➡️ iPhone 17 เริ่มต้นที่ $799, iPhone Air เริ่มต้นที่ $999 ➡️ iPhone 17 Pro และ Pro Max เริ่มต้นที่ $1,099 และ $1,199 ➡️ เปิดพรีออเดอร์วันที่ 12 กันยายน และวางขายวันที่ 19 กันยายน ➡️ รุ่น Pro Max มีตัวเลือกความจุสูงสุดถึง 2TB https://www.tomshardware.com/tech-industry/semiconductors/apple-debuts-a19-and-a19-pro-processors-for-iphone-17-iphone-air-and-iphone-17-pro
    0 ความคิดเห็น 0 การแบ่งปัน 234 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Snapdragon X Elite ถึง Ryzen AI MAX: เมื่อ AMD ประกาศว่า ARM ไม่ได้มีข้อได้เปรียบเหนือ x86 แม้แต่เรื่องประหยัดพลังงาน

    ในงาน IFA 2025 AMD ได้ออกมาแสดงจุดยืนอย่างชัดเจนว่า “ARM ไม่ได้มีข้อได้เปรียบเหนือ x86” แม้แต่ในเรื่องที่เคยถูกมองว่าเป็นจุดแข็งของ ARM อย่างประสิทธิภาพด้านพลังงาน โดย AMD ชี้ว่า APU รุ่นใหม่ของตน เช่น Strix Point และ Strix Halo ได้พิสูจน์แล้วว่า x86 สามารถให้ประสิทธิภาพต่อวัตต์ (perf/watt) ที่ยอดเยี่ยมได้เช่นกัน

    AMD ยังชี้ว่า hype ของ Windows on ARM ที่เคยเกิดขึ้นจากการเปิดตัว Snapdragon X Elite ของ Qualcomm เป็นเพียงกระแสระยะสั้น เพราะเมื่อ Intel และ AMD เปิดตัวชิปใหม่ในกลุ่ม APU และ NPU เช่น Lunar Lake และ Ryzen AI MAX 395+ ก็สามารถทำลายข้อได้เปรียบของ ARM ได้อย่างชัดเจน

    โดยเฉพาะ Ryzen AI MAX 395+ ที่ให้ประสิทธิภาพด้าน AI สูงถึง 126 TOPS ซึ่งเหนือกว่า ARM SoC ส่วนใหญ่ และยังสามารถใช้งานได้เต็มรูปแบบใน ecosystem ของ x86 โดยไม่ต้องพึ่งพาการจำกัดแอปหรือการแปลง binary แบบ ARM

    แม้ AMD จะยอมรับว่า ARM ยังมีพื้นที่ในตลาด เช่น Apple M-series หรือบางกลุ่มของ Qualcomm แต่ก็เชื่อว่า x86 จะยังคงเป็นแกนหลักของตลาด consumer hardware ไปอีกนาน โดยเฉพาะเมื่อมีการเปิดตัวแพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จาก AMD และ Intel ตามลำดับ

    จุดยืนของ AMD ต่อ ARM
    ARM ไม่มีข้อได้เปรียบเหนือ x86 แม้แต่ในด้านพลังงาน
    x86 สามารถให้ runtime ยาวนานในโน้ตบุ๊กได้เช่นกัน
    Ecosystem ของ x86 ยังครอบคลุมและเสถียรกว่า

    การตอบโต้กระแส Windows on ARM
    Snapdragon X Elite เคยสร้างกระแสว่า ARM จะมาแทน x86
    AMD และ Intel ตอบโต้ด้วย APU และ NPU รุ่นใหม่
    Lunar Lake และ Ryzen AI MAX 395+ แสดงให้เห็นว่า x86 ยังแข็งแกร่ง

    ประสิทธิภาพของ Ryzen AI MAX 395+
    ให้ AI TOPS สูงถึง 126 ซึ่งเหนือกว่า ARM หลายรุ่น
    ถูกใช้งานในโน้ตบุ๊ก, mini-PC และ handheld อย่างแพร่หลาย
    ไม่ต้องพึ่งการจำกัดแอปหรือ emulator แบบ ARM

    แนวโน้มของตลาดในอนาคต
    x86 จะยังเป็นแกนหลักของ consumer hardware
    ARM ยังมีพื้นที่ในบางกลุ่ม เช่น Apple M-series
    แพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จะผลักดัน x86 ต่อไป

    https://wccftech.com/amd-claims-that-arm-doesnt-offer-any-advantage-over-x86-even-in-energy-efficiency/
    🎙️ เรื่องเล่าจาก Snapdragon X Elite ถึง Ryzen AI MAX: เมื่อ AMD ประกาศว่า ARM ไม่ได้มีข้อได้เปรียบเหนือ x86 แม้แต่เรื่องประหยัดพลังงาน ในงาน IFA 2025 AMD ได้ออกมาแสดงจุดยืนอย่างชัดเจนว่า “ARM ไม่ได้มีข้อได้เปรียบเหนือ x86” แม้แต่ในเรื่องที่เคยถูกมองว่าเป็นจุดแข็งของ ARM อย่างประสิทธิภาพด้านพลังงาน โดย AMD ชี้ว่า APU รุ่นใหม่ของตน เช่น Strix Point และ Strix Halo ได้พิสูจน์แล้วว่า x86 สามารถให้ประสิทธิภาพต่อวัตต์ (perf/watt) ที่ยอดเยี่ยมได้เช่นกัน AMD ยังชี้ว่า hype ของ Windows on ARM ที่เคยเกิดขึ้นจากการเปิดตัว Snapdragon X Elite ของ Qualcomm เป็นเพียงกระแสระยะสั้น เพราะเมื่อ Intel และ AMD เปิดตัวชิปใหม่ในกลุ่ม APU และ NPU เช่น Lunar Lake และ Ryzen AI MAX 395+ ก็สามารถทำลายข้อได้เปรียบของ ARM ได้อย่างชัดเจน โดยเฉพาะ Ryzen AI MAX 395+ ที่ให้ประสิทธิภาพด้าน AI สูงถึง 126 TOPS ซึ่งเหนือกว่า ARM SoC ส่วนใหญ่ และยังสามารถใช้งานได้เต็มรูปแบบใน ecosystem ของ x86 โดยไม่ต้องพึ่งพาการจำกัดแอปหรือการแปลง binary แบบ ARM แม้ AMD จะยอมรับว่า ARM ยังมีพื้นที่ในตลาด เช่น Apple M-series หรือบางกลุ่มของ Qualcomm แต่ก็เชื่อว่า x86 จะยังคงเป็นแกนหลักของตลาด consumer hardware ไปอีกนาน โดยเฉพาะเมื่อมีการเปิดตัวแพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จาก AMD และ Intel ตามลำดับ ✅ จุดยืนของ AMD ต่อ ARM ➡️ ARM ไม่มีข้อได้เปรียบเหนือ x86 แม้แต่ในด้านพลังงาน ➡️ x86 สามารถให้ runtime ยาวนานในโน้ตบุ๊กได้เช่นกัน ➡️ Ecosystem ของ x86 ยังครอบคลุมและเสถียรกว่า ✅ การตอบโต้กระแส Windows on ARM ➡️ Snapdragon X Elite เคยสร้างกระแสว่า ARM จะมาแทน x86 ➡️ AMD และ Intel ตอบโต้ด้วย APU และ NPU รุ่นใหม่ ➡️ Lunar Lake และ Ryzen AI MAX 395+ แสดงให้เห็นว่า x86 ยังแข็งแกร่ง ✅ ประสิทธิภาพของ Ryzen AI MAX 395+ ➡️ ให้ AI TOPS สูงถึง 126 ซึ่งเหนือกว่า ARM หลายรุ่น ➡️ ถูกใช้งานในโน้ตบุ๊ก, mini-PC และ handheld อย่างแพร่หลาย ➡️ ไม่ต้องพึ่งการจำกัดแอปหรือ emulator แบบ ARM ✅ แนวโน้มของตลาดในอนาคต ➡️ x86 จะยังเป็นแกนหลักของ consumer hardware ➡️ ARM ยังมีพื้นที่ในบางกลุ่ม เช่น Apple M-series ➡️ แพลตฟอร์มใหม่อย่าง Medusa Point และ Panther Lake จะผลักดัน x86 ต่อไป https://wccftech.com/amd-claims-that-arm-doesnt-offer-any-advantage-over-x86-even-in-energy-efficiency/
    WCCFTECH.COM
    AMD Claims That ARM Doesn't Offer Any Advantage Over x86, Even in Energy Efficiency, as Recent-Gen APUs Continue to Prove
    AMD has put its full faith in the x86 ecosystem, as the firm claims that the architecture is right on par with ARM.
    0 ความคิดเห็น 0 การแบ่งปัน 260 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก N3P ถึง 5W: เมื่อชิปมือถือระดับเรือธงสามารถเล่นเกม AAA ได้โดยไม่เกิน 5 วัตต์

    Qualcomm กำลังเตรียมเปิดตัว Snapdragon 8 Elite Gen 5 ภายในเดือนกันยายน 2025 โดยใช้เทคโนโลยีการผลิตแบบ 3nm รุ่นที่สามของ TSMC ที่เรียกว่า N3P ซึ่งแม้จะเป็นแค่ “optical shrink” จาก N3E แต่ก็ให้ประสิทธิภาพเพิ่มขึ้นราว 5% ที่พลังงานเท่าเดิม หรือประหยัดพลังงานได้ 5–10% ที่ความเร็วเท่าเดิม

    จากตัวอย่างชิปที่หลุดออกมา (engineering sample) พบว่าประสิทธิภาพในการเล่นเกมสูงกว่ารุ่น Snapdragon 8 Elite เดิมอย่างชัดเจน โดยเฉพาะในด้าน framerate และการจัดการพลังงาน แม้จะยังไม่มีการเปิดเผยชื่อเกมที่ใช้ทดสอบ แต่มีรายงานว่าชิปสามารถรันเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W

    สิ่งที่น่าสนใจคือ แม้จะมีการเพิ่มความเร็วของคอร์และประสิทธิภาพของ GPU/NPU แต่การใช้พลังงานกลับไม่เพิ่มตาม—สะท้อนถึงการปรับปรุงด้านสถาปัตยกรรม เช่น memory fabric, instruction-per-clock และการจัดการ scheduler ที่ดีขึ้น

    ในบางกรณี ตัวอย่างชิปที่ถูก underclock ยังสามารถทำคะแนน multi-core ได้สูงกว่ารุ่นเดิม แม้จะรันที่ความเร็วเพียง 4.00GHz เทียบกับ 4.74GHz ของ Elite เดิม ซึ่งบ่งชี้ถึงการปรับปรุงที่ไม่ใช่แค่เรื่องความเร็ว แต่เป็นการออกแบบที่ลึกขึ้น

    Qualcomm ยังตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก ซึ่งแม้จะดูเล็กน้อย แต่ในโลกของสมาร์ทโฟน ทุกวัตต์มีผลต่อความร้อนและอายุแบตเตอรี่อย่างมีนัยสำคัญ

    สถาปัตยกรรมและเทคโนโลยีการผลิต
    ใช้ TSMC N3P ซึ่งเป็น 3nm รุ่นที่สามแบบ optical shrink จาก N3E
    ให้ประสิทธิภาพเพิ่มขึ้น 5% หรือประหยัดพลังงานได้ 5–10%
    Qualcomm ใช้ headroom เพื่อเพิ่มความเร็วและประสิทธิภาพโดยไม่เพิ่ม wattage

    ประสิทธิภาพของ engineering sample
    เล่นเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W
    ให้ framerate สูงกว่ารุ่น Snapdragon 8 Elite เดิม
    underclocked sample ยังทำคะแนน multi-core ได้สูงกว่า Elite เดิม

    การปรับปรุงด้านสถาปัตยกรรม
    ปรับปรุง instruction-per-clock, memory subsystem และ scheduler
    GPU และ NPU มีประสิทธิภาพสูงขึ้นโดยไม่เพิ่มพลังงาน
    รองรับงาน generative AI บนอุปกรณ์โดยไม่กระทบแบตเตอรี่

    เป้าหมายด้านพลังงานและความร้อน
    Qualcomm ตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก
    ช่วยลดความร้อนและยืดอายุแบตเตอรี่
    เหมาะสำหรับงาน burst เช่น AI inference, photo processing, app launch

    https://wccftech.com/snapdragon-8-elite-gen-5-engineering-sample-better-performance-and-efficiency-than-snapdragon-8-elite/
    🎙️ เรื่องเล่าจาก N3P ถึง 5W: เมื่อชิปมือถือระดับเรือธงสามารถเล่นเกม AAA ได้โดยไม่เกิน 5 วัตต์ Qualcomm กำลังเตรียมเปิดตัว Snapdragon 8 Elite Gen 5 ภายในเดือนกันยายน 2025 โดยใช้เทคโนโลยีการผลิตแบบ 3nm รุ่นที่สามของ TSMC ที่เรียกว่า N3P ซึ่งแม้จะเป็นแค่ “optical shrink” จาก N3E แต่ก็ให้ประสิทธิภาพเพิ่มขึ้นราว 5% ที่พลังงานเท่าเดิม หรือประหยัดพลังงานได้ 5–10% ที่ความเร็วเท่าเดิม จากตัวอย่างชิปที่หลุดออกมา (engineering sample) พบว่าประสิทธิภาพในการเล่นเกมสูงกว่ารุ่น Snapdragon 8 Elite เดิมอย่างชัดเจน โดยเฉพาะในด้าน framerate และการจัดการพลังงาน แม้จะยังไม่มีการเปิดเผยชื่อเกมที่ใช้ทดสอบ แต่มีรายงานว่าชิปสามารถรันเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W สิ่งที่น่าสนใจคือ แม้จะมีการเพิ่มความเร็วของคอร์และประสิทธิภาพของ GPU/NPU แต่การใช้พลังงานกลับไม่เพิ่มตาม—สะท้อนถึงการปรับปรุงด้านสถาปัตยกรรม เช่น memory fabric, instruction-per-clock และการจัดการ scheduler ที่ดีขึ้น ในบางกรณี ตัวอย่างชิปที่ถูก underclock ยังสามารถทำคะแนน multi-core ได้สูงกว่ารุ่นเดิม แม้จะรันที่ความเร็วเพียง 4.00GHz เทียบกับ 4.74GHz ของ Elite เดิม ซึ่งบ่งชี้ถึงการปรับปรุงที่ไม่ใช่แค่เรื่องความเร็ว แต่เป็นการออกแบบที่ลึกขึ้น Qualcomm ยังตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก ซึ่งแม้จะดูเล็กน้อย แต่ในโลกของสมาร์ทโฟน ทุกวัตต์มีผลต่อความร้อนและอายุแบตเตอรี่อย่างมีนัยสำคัญ ✅ สถาปัตยกรรมและเทคโนโลยีการผลิต ➡️ ใช้ TSMC N3P ซึ่งเป็น 3nm รุ่นที่สามแบบ optical shrink จาก N3E ➡️ ให้ประสิทธิภาพเพิ่มขึ้น 5% หรือประหยัดพลังงานได้ 5–10% ➡️ Qualcomm ใช้ headroom เพื่อเพิ่มความเร็วและประสิทธิภาพโดยไม่เพิ่ม wattage ✅ ประสิทธิภาพของ engineering sample ➡️ เล่นเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W ➡️ ให้ framerate สูงกว่ารุ่น Snapdragon 8 Elite เดิม ➡️ underclocked sample ยังทำคะแนน multi-core ได้สูงกว่า Elite เดิม ✅ การปรับปรุงด้านสถาปัตยกรรม ➡️ ปรับปรุง instruction-per-clock, memory subsystem และ scheduler ➡️ GPU และ NPU มีประสิทธิภาพสูงขึ้นโดยไม่เพิ่มพลังงาน ➡️ รองรับงาน generative AI บนอุปกรณ์โดยไม่กระทบแบตเตอรี่ ✅ เป้าหมายด้านพลังงานและความร้อน ➡️ Qualcomm ตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก ➡️ ช่วยลดความร้อนและยืดอายุแบตเตอรี่ ➡️ เหมาะสำหรับงาน burst เช่น AI inference, photo processing, app launch https://wccftech.com/snapdragon-8-elite-gen-5-engineering-sample-better-performance-and-efficiency-than-snapdragon-8-elite/
    WCCFTECH.COM
    Snapdragon 8 Elite Gen 5 Engineering Sample Pushes Higher Framerate In Games With Better Efficiency Than The Snapdragon 8 Elite
    An engineering sample of the Snapdragon 8 Elite Gen 5 ended up delivering significantly better performance and efficiency than its direct predecessor, the Snapdragon 8 Elite
    0 ความคิดเห็น 0 การแบ่งปัน 269 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 ความคิดเห็น 0 การแบ่งปัน 354 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Inbound 2025: เมื่อ AI ไม่ได้มาแทนคน แต่มาเป็นทีมร่วมงานที่ขับเคลื่อนธุรกิจ

    ในงาน HubSpot Inbound 2025 ที่จัดขึ้นที่ซานฟรานซิสโก มีการเปิดตัวเครื่องมือใหม่กว่า 200 รายการที่เน้นการสร้าง “ทีมลูกผสม” ระหว่างมนุษย์กับ AI โดยมีแนวคิดหลักคือ “The Loop”—กรอบการทำงานที่ประกอบด้วย 3 ขั้นตอน: เชื่อมโยงข้อมูลทั้งหมด, สร้างทีม AI, และเปิดโอกาสให้คนทำงานได้เต็มศักยภาพ

    CEO Yamini Rangan ย้ำว่า organic traffic กำลังตายลง และการตลาดต้องเปลี่ยนจากการไล่ตามคลิก ไปสู่การสร้างความไว้วางใจผ่านช่องทางใหม่ เช่น podcast, newsletter และ social ที่มีความจริงใจมากกว่า

    HubSpot เปิดตัว Data Hub, Smart CRM ที่มี “project object” สำหรับติดตามงานแบบละเอียด และ Breeze agents ที่สามารถสร้างข้อความแบบเฉพาะบุคคลในทุกช่องทางแบบ real-time

    SmartBug, Wistia, AdRoll, Cvent และ Docket ต่างก็โชว์การใช้ AI เพื่อเพิ่มประสิทธิภาพในงานของตน เช่น SmartBug สร้าง AI agent สำหรับการ onboarding และ migration, Wistia ใช้ AI ในการวิเคราะห์วิดีโอ B2B, ส่วน Docket เสนอ AI concierge ที่ช่วยตอบคำถามและเปลี่ยน traffic เป็น lead

    Anthropic ก็เข้าร่วมงาน โดย CEO Dario Amodei พูดถึง Claude ที่เคยถูกใช้ใน ransomware โดยรัฐ แต่ตอนนี้ถูกปรับให้ปลอดภัยขึ้น พร้อมเปิดตัว Claude Code ที่หวังจะเป็น “AWS ของยุค AI”

    แนวคิดหลักจาก HubSpot
    “The Loop” คือกรอบการทำงานใหม่: เชื่อมข้อมูล, สร้างทีม AI, เปิดศักยภาพคน
    เน้น “human authenticity with AI efficiency”
    เปิดตัว Data Hub, Smart CRM, Breeze agents และ NIM microservices

    การเปลี่ยนแปลงในพฤติกรรมการตลาด
    Organic traffic ลดลงอย่างต่อเนื่อง
    HubSpot หันไปลงทุนใน podcast, newsletter และ social เพื่อสร้าง trust
    ผู้บริโภคต้องการเนื้อหาที่จริงใจมากกว่าปริมาณ

    ตัวอย่างการใช้งาน AI จากพันธมิตร
    SmartBug สร้าง AI agent สำหรับการใช้งาน HubSpot แบบครบวงจร
    Wistia ใช้ AI วิเคราะห์วิดีโอและเชื่อมต่อกับ Adobe, Salesforce, Mailchimp
    AdRoll ใช้ machine learning สร้างแคมเปญโฆษณาแบบ multi-channel
    Docket เสนอ AI concierge สำหรับตอบคำถามและเปลี่ยน traffic เป็น lead
    Cvent ใช้ AI ค้นหาโรงแรมและจัดการอีเวนต์แบบครบวงจร

    มุมมองจาก Anthropic
    Claude ยังไม่ฉลาดเกินมนุษย์ แต่ใกล้เคียงระดับปริญญาตรี
    Claude Code ถูกวางเป็น “platform” สำหรับสร้างผลิตภัณฑ์ใหม่
    มีการป้องกันการใช้โมเดลในทางที่ผิด เช่น ransomware

    https://www.techradar.com/pro/live/hubspot-inbound-2025-all-the-news-and-announcements-as-it-happens
    🎙️ เรื่องเล่าจาก Inbound 2025: เมื่อ AI ไม่ได้มาแทนคน แต่มาเป็นทีมร่วมงานที่ขับเคลื่อนธุรกิจ ในงาน HubSpot Inbound 2025 ที่จัดขึ้นที่ซานฟรานซิสโก มีการเปิดตัวเครื่องมือใหม่กว่า 200 รายการที่เน้นการสร้าง “ทีมลูกผสม” ระหว่างมนุษย์กับ AI โดยมีแนวคิดหลักคือ “The Loop”—กรอบการทำงานที่ประกอบด้วย 3 ขั้นตอน: เชื่อมโยงข้อมูลทั้งหมด, สร้างทีม AI, และเปิดโอกาสให้คนทำงานได้เต็มศักยภาพ CEO Yamini Rangan ย้ำว่า organic traffic กำลังตายลง และการตลาดต้องเปลี่ยนจากการไล่ตามคลิก ไปสู่การสร้างความไว้วางใจผ่านช่องทางใหม่ เช่น podcast, newsletter และ social ที่มีความจริงใจมากกว่า HubSpot เปิดตัว Data Hub, Smart CRM ที่มี “project object” สำหรับติดตามงานแบบละเอียด และ Breeze agents ที่สามารถสร้างข้อความแบบเฉพาะบุคคลในทุกช่องทางแบบ real-time SmartBug, Wistia, AdRoll, Cvent และ Docket ต่างก็โชว์การใช้ AI เพื่อเพิ่มประสิทธิภาพในงานของตน เช่น SmartBug สร้าง AI agent สำหรับการ onboarding และ migration, Wistia ใช้ AI ในการวิเคราะห์วิดีโอ B2B, ส่วน Docket เสนอ AI concierge ที่ช่วยตอบคำถามและเปลี่ยน traffic เป็น lead Anthropic ก็เข้าร่วมงาน โดย CEO Dario Amodei พูดถึง Claude ที่เคยถูกใช้ใน ransomware โดยรัฐ แต่ตอนนี้ถูกปรับให้ปลอดภัยขึ้น พร้อมเปิดตัว Claude Code ที่หวังจะเป็น “AWS ของยุค AI” ✅ แนวคิดหลักจาก HubSpot ➡️ “The Loop” คือกรอบการทำงานใหม่: เชื่อมข้อมูล, สร้างทีม AI, เปิดศักยภาพคน ➡️ เน้น “human authenticity with AI efficiency” ➡️ เปิดตัว Data Hub, Smart CRM, Breeze agents และ NIM microservices ✅ การเปลี่ยนแปลงในพฤติกรรมการตลาด ➡️ Organic traffic ลดลงอย่างต่อเนื่อง ➡️ HubSpot หันไปลงทุนใน podcast, newsletter และ social เพื่อสร้าง trust ➡️ ผู้บริโภคต้องการเนื้อหาที่จริงใจมากกว่าปริมาณ ✅ ตัวอย่างการใช้งาน AI จากพันธมิตร ➡️ SmartBug สร้าง AI agent สำหรับการใช้งาน HubSpot แบบครบวงจร ➡️ Wistia ใช้ AI วิเคราะห์วิดีโอและเชื่อมต่อกับ Adobe, Salesforce, Mailchimp ➡️ AdRoll ใช้ machine learning สร้างแคมเปญโฆษณาแบบ multi-channel ➡️ Docket เสนอ AI concierge สำหรับตอบคำถามและเปลี่ยน traffic เป็น lead ➡️ Cvent ใช้ AI ค้นหาโรงแรมและจัดการอีเวนต์แบบครบวงจร ✅ มุมมองจาก Anthropic ➡️ Claude ยังไม่ฉลาดเกินมนุษย์ แต่ใกล้เคียงระดับปริญญาตรี ➡️ Claude Code ถูกวางเป็น “platform” สำหรับสร้างผลิตภัณฑ์ใหม่ ➡️ มีการป้องกันการใช้โมเดลในทางที่ผิด เช่น ransomware https://www.techradar.com/pro/live/hubspot-inbound-2025-all-the-news-and-announcements-as-it-happens
    0 ความคิดเห็น 0 การแบ่งปัน 342 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด

    AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง

    ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%

    แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น

    AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference

    สเปกของ AMD MI500 MegaPod
    ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU
    แบ่งเป็น 64 compute tray และ 18 UALink switch tray
    ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน

    เทคโนโลยีที่ใช้ใน MI500 และ Verano
    MI500 ใช้ TSMC N2P node และ CoWoS-L packaging
    Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง
    รองรับ ROCm 7, FP8, Flash Attention 3

    การเปรียบเทียบกับ Nvidia NVL576
    NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS
    AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%
    ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ

    การออกแบบเพื่อประสิทธิภาพและความเย็น
    ใช้ liquid cooling ทั้ง compute และ networking tray
    ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่
    เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่

    https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    🎙️ เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference ✅ สเปกของ AMD MI500 MegaPod ➡️ ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU ➡️ แบ่งเป็น 64 compute tray และ 18 UALink switch tray ➡️ ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน ✅ เทคโนโลยีที่ใช้ใน MI500 และ Verano ➡️ MI500 ใช้ TSMC N2P node และ CoWoS-L packaging ➡️ Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง ➡️ รองรับ ROCm 7, FP8, Flash Attention 3 ✅ การเปรียบเทียบกับ Nvidia NVL576 ➡️ NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS ➡️ AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% ➡️ ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ ✅ การออกแบบเพื่อประสิทธิภาพและความเย็น ➡️ ใช้ liquid cooling ทั้ง compute และ networking tray ➡️ ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่ ➡️ เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่ https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    0 ความคิดเห็น 0 การแบ่งปัน 250 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Corsair และ Pavehawk: เมื่อการประมวลผล AI ไม่ต้องพึ่ง HBM อีกต่อไป

    ในยุคที่ HBM (High Bandwidth Memory) กลายเป็นหัวใจของการเทรนโมเดล AI ขนาดใหญ่ บริษัท D-Matrix กลับเลือกเดินเส้นทางที่ต่างออกไป—โดยมุ่งเน้นไปที่ “AI inference” ซึ่งเป็นภาระงานที่กำลังกลายเป็นศูนย์กลางของการใช้งานจริงในองค์กร

    แทนที่จะใช้ HBM ที่มีราคาสูงและ supply จำกัด D-Matrix พัฒนา Corsair ซึ่งเป็น inference accelerator แบบ chiplet ที่ใช้ LPDDR5 ขนาด 256GB และ SRAM 2GB ร่วมกับสถาปัตยกรรมใหม่ที่เรียกว่า 3DIMC (3D Digital In-Memory Compute)

    เทคโนโลยีนี้ถูกนำไปใช้ใน Pavehawk ซึ่งเป็นซิลิคอนรุ่นใหม่ที่ใช้ logic die จาก TSMC N5 และ DRAM แบบ stacked หลายชั้น เพื่อให้ compute และ memory อยู่ใกล้กันมากที่สุด ลด latency และพลังงานที่ใช้ในการเคลื่อนย้ายข้อมูล

    D-Matrix อ้างว่า Pavehawk มี bandwidth และ energy efficiency ต่อ stack สูงกว่า HBM4 ถึง 10 เท่า และสามารถขยายความจุได้มากกว่าด้วยต้นทุนที่ต่ำกว่า ทำให้เหมาะกับการ deploy ใน data center ที่ต้องการ inference ขนาดใหญ่แต่ไม่สามารถจ่ายราคาของ HBM ได้

    แนวคิดนี้ยังสอดคล้องกับเทรนด์ของอุตสาหกรรมที่เริ่มหันมาใช้ interconnect แบบ CXL และการรวม controller เข้ากับ accelerator เพื่อให้ compute และ memory ทำงานร่วมกันได้อย่างแนบแน่น

    แนวทางของ D-Matrix ในการออกแบบ inference accelerator
    Corsair ใช้ LPDDR5 256GB + SRAM 2GB แบบ chiplet-based
    ไม่ใช้ HBM แต่เน้นการ co-package ระหว่าง compute และ memory
    เหมาะกับ AI inference ที่ต้องการประสิทธิภาพสูงแต่ต้นทุนต่ำ

    เทคโนโลยี 3DIMC และ Pavehawk
    ใช้ logic die จาก TSMC N5 ร่วมกับ DRAM แบบ stacked หลายชั้น
    ลด latency และพลังงานในการเคลื่อนย้ายข้อมูล
    ให้ bandwidth และ energy efficiency สูงกว่า HBM4 ถึง 10 เท่า

    บริบทของอุตสาหกรรม AI
    Inference กำลังกลายเป็น workload หลักขององค์กร (คาดว่าจะเกิน 85% ภายใน 2–3 ปี)
    HBM มีราคาสูงและ supply จำกัด โดยเฉพาะสำหรับบริษัทขนาดเล็ก
    การรวม compute และ memory เป็นแนวทางที่หลายบริษัทเริ่มทดลอง เช่น CXL-based accelerator

    จุดเด่นของแนวคิด stacked DRAM + logic
    เพิ่มความจุและ bandwidth ได้โดยไม่ต้องใช้ HBM
    ลดต้นทุนและพลังงานในระดับ data center
    เหมาะกับการ deploy inference ที่ต้องการ scale แบบประหยัด

    https://www.techradar.com/pro/security/after-sandisk-d-matrix-is-proposing-an-intriguing-alternative-to-the-big-hbm-ai-puzzle-with-10x-better-performance-with-10x-better-energy-efficiency
    🎙️ เรื่องเล่าจาก Corsair และ Pavehawk: เมื่อการประมวลผล AI ไม่ต้องพึ่ง HBM อีกต่อไป ในยุคที่ HBM (High Bandwidth Memory) กลายเป็นหัวใจของการเทรนโมเดล AI ขนาดใหญ่ บริษัท D-Matrix กลับเลือกเดินเส้นทางที่ต่างออกไป—โดยมุ่งเน้นไปที่ “AI inference” ซึ่งเป็นภาระงานที่กำลังกลายเป็นศูนย์กลางของการใช้งานจริงในองค์กร แทนที่จะใช้ HBM ที่มีราคาสูงและ supply จำกัด D-Matrix พัฒนา Corsair ซึ่งเป็น inference accelerator แบบ chiplet ที่ใช้ LPDDR5 ขนาด 256GB และ SRAM 2GB ร่วมกับสถาปัตยกรรมใหม่ที่เรียกว่า 3DIMC (3D Digital In-Memory Compute) เทคโนโลยีนี้ถูกนำไปใช้ใน Pavehawk ซึ่งเป็นซิลิคอนรุ่นใหม่ที่ใช้ logic die จาก TSMC N5 และ DRAM แบบ stacked หลายชั้น เพื่อให้ compute และ memory อยู่ใกล้กันมากที่สุด ลด latency และพลังงานที่ใช้ในการเคลื่อนย้ายข้อมูล D-Matrix อ้างว่า Pavehawk มี bandwidth และ energy efficiency ต่อ stack สูงกว่า HBM4 ถึง 10 เท่า และสามารถขยายความจุได้มากกว่าด้วยต้นทุนที่ต่ำกว่า ทำให้เหมาะกับการ deploy ใน data center ที่ต้องการ inference ขนาดใหญ่แต่ไม่สามารถจ่ายราคาของ HBM ได้ แนวคิดนี้ยังสอดคล้องกับเทรนด์ของอุตสาหกรรมที่เริ่มหันมาใช้ interconnect แบบ CXL และการรวม controller เข้ากับ accelerator เพื่อให้ compute และ memory ทำงานร่วมกันได้อย่างแนบแน่น ✅ แนวทางของ D-Matrix ในการออกแบบ inference accelerator ➡️ Corsair ใช้ LPDDR5 256GB + SRAM 2GB แบบ chiplet-based ➡️ ไม่ใช้ HBM แต่เน้นการ co-package ระหว่าง compute และ memory ➡️ เหมาะกับ AI inference ที่ต้องการประสิทธิภาพสูงแต่ต้นทุนต่ำ ✅ เทคโนโลยี 3DIMC และ Pavehawk ➡️ ใช้ logic die จาก TSMC N5 ร่วมกับ DRAM แบบ stacked หลายชั้น ➡️ ลด latency และพลังงานในการเคลื่อนย้ายข้อมูล ➡️ ให้ bandwidth และ energy efficiency สูงกว่า HBM4 ถึง 10 เท่า ✅ บริบทของอุตสาหกรรม AI ➡️ Inference กำลังกลายเป็น workload หลักขององค์กร (คาดว่าจะเกิน 85% ภายใน 2–3 ปี) ➡️ HBM มีราคาสูงและ supply จำกัด โดยเฉพาะสำหรับบริษัทขนาดเล็ก ➡️ การรวม compute และ memory เป็นแนวทางที่หลายบริษัทเริ่มทดลอง เช่น CXL-based accelerator ✅ จุดเด่นของแนวคิด stacked DRAM + logic ➡️ เพิ่มความจุและ bandwidth ได้โดยไม่ต้องใช้ HBM ➡️ ลดต้นทุนและพลังงานในระดับ data center ➡️ เหมาะกับการ deploy inference ที่ต้องการ scale แบบประหยัด https://www.techradar.com/pro/security/after-sandisk-d-matrix-is-proposing-an-intriguing-alternative-to-the-big-hbm-ai-puzzle-with-10x-better-performance-with-10x-better-energy-efficiency
    0 ความคิดเห็น 0 การแบ่งปัน 227 มุมมอง 0 รีวิว
  • Clearwater Forest — ซีพียูที่ Intel หวังใช้พลิกเกมในยุคเซิร์ฟเวอร์หลายร้อยคอร์

    ในงาน Hot Chips 2025 Intel ได้เปิดตัว “Clearwater Forest” ซึ่งเป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core (Efficiency Core) จำนวนสูงสุดถึง 288 คอร์ต่อซ็อกเก็ต โดยใช้สถาปัตยกรรมใหม่ชื่อ “Darkmont” ที่ออกแบบมาเพื่อรองรับงานที่ต้องการการประมวลผลแบบขนานจำนวนมาก เช่น cloud-native, edge computing และ AI inference

    Clearwater Forest ถูกสร้างขึ้นด้วยเทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการที่ใช้ backside power delivery และ gate-all-around transistor เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน โดยมีการจัดวางแบบ 3D chiplet ด้วยเทคโนโลยี Foveros Direct และ EMIB ที่ช่วยให้สามารถเชื่อมต่อชิ้นส่วนต่างๆ ได้อย่างแน่นหนาและมีประสิทธิภาพ

    ในแพ็กเกจขนาดใหญ่ของซีพียูนี้ ประกอบด้วย 12 compute chiplets บน Intel 18A, 3 base tiles บน Intel 3 และ 2 I/O tiles บน Intel 7 โดยแต่ละกลุ่มคอร์ 4 คอร์จะใช้ L2 cache ขนาด 4MB และเชื่อมต่อกันด้วย fabric ความเร็วสูง ส่วน last-level cache รวมกันมากกว่า 1,152MB

    Intel ยืนยันว่า Clearwater Forest จะสามารถใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ โดยรองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่องต่อซ็อกเก็ต และสามารถใช้งานแบบสองซ็อกเก็ตรวมกันได้ถึง 576 คอร์

    สรุปเนื้อหาเป็นหัวข้อ
    Clearwater Forest เป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core สูงสุด 288 คอร์ต่อซ็อกเก็ต
    ใช้สถาปัตยกรรม “Darkmont” ที่มี front-end กว้างขึ้นและ out-of-order engine ที่ลึกขึ้น
    ใช้เทคโนโลยีการผลิต Intel 18A พร้อม backside power และ gate-all-around
    จัดวางแบบ 3D chiplet ด้วย Foveros Direct และ EMIB
    ประกอบด้วย 12 compute chiplets (18A), 3 base tiles (Intel 3), และ 2 I/O tiles (Intel 7)
    มี L2 cache ขนาด 4MB ต่อกลุ่ม 4 คอร์ และ last-level cache รวมกว่า 1,152MB
    รองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่อง
    ใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้
    รองรับการใช้งานแบบสองซ็อกเก็ต รวมได้ถึง 576 คอร์
    เหมาะสำหรับงาน cloud-native, edge computing และ AI inference

    ข้อมูลเสริมจากภายนอก
    Darkmont เป็นรุ่นต่อยอดจาก Crestmont และ Sierra Glen โดยเพิ่ม execution port และ bandwidth
    Intel 18A เป็นกระบวนการที่เน้นประสิทธิภาพพลังงานและความหนาแน่นของทรานซิสเตอร์
    Foveros Direct ช่วยให้การเชื่อมต่อระหว่าง chiplet มี latency ต่ำและประหยัดพลังงาน
    EMIB เป็นเทคโนโลยี interconnect ที่ใช้เชื่อม die ต่างชนิดกันในแพ็กเกจเดียว
    การใช้ E-core ล้วนช่วยลดการใช้พลังงานและเพิ่มจำนวนคอร์ในพื้นที่จำกัด
    Clearwater Forest เป็นส่วนหนึ่งของยุทธศาสตร์ Xeon 6 ที่แบ่งเป็น P-core (Diamond Rapids) และ E-core (Clearwater Forest)

    https://www.techpowerup.com/340299/intel-details-clearwater-forest-xeon-with-288-e-cores-on-18a-process
    🎙️ Clearwater Forest — ซีพียูที่ Intel หวังใช้พลิกเกมในยุคเซิร์ฟเวอร์หลายร้อยคอร์ ในงาน Hot Chips 2025 Intel ได้เปิดตัว “Clearwater Forest” ซึ่งเป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core (Efficiency Core) จำนวนสูงสุดถึง 288 คอร์ต่อซ็อกเก็ต โดยใช้สถาปัตยกรรมใหม่ชื่อ “Darkmont” ที่ออกแบบมาเพื่อรองรับงานที่ต้องการการประมวลผลแบบขนานจำนวนมาก เช่น cloud-native, edge computing และ AI inference Clearwater Forest ถูกสร้างขึ้นด้วยเทคโนโลยีการผลิตระดับ 18A ซึ่งเป็นกระบวนการที่ใช้ backside power delivery และ gate-all-around transistor เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน โดยมีการจัดวางแบบ 3D chiplet ด้วยเทคโนโลยี Foveros Direct และ EMIB ที่ช่วยให้สามารถเชื่อมต่อชิ้นส่วนต่างๆ ได้อย่างแน่นหนาและมีประสิทธิภาพ ในแพ็กเกจขนาดใหญ่ของซีพียูนี้ ประกอบด้วย 12 compute chiplets บน Intel 18A, 3 base tiles บน Intel 3 และ 2 I/O tiles บน Intel 7 โดยแต่ละกลุ่มคอร์ 4 คอร์จะใช้ L2 cache ขนาด 4MB และเชื่อมต่อกันด้วย fabric ความเร็วสูง ส่วน last-level cache รวมกันมากกว่า 1,152MB Intel ยืนยันว่า Clearwater Forest จะสามารถใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ โดยรองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่องต่อซ็อกเก็ต และสามารถใช้งานแบบสองซ็อกเก็ตรวมกันได้ถึง 576 คอร์ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Clearwater Forest เป็นซีพียู Xeon รุ่นใหม่ที่ใช้เฉพาะ E-core สูงสุด 288 คอร์ต่อซ็อกเก็ต ➡️ ใช้สถาปัตยกรรม “Darkmont” ที่มี front-end กว้างขึ้นและ out-of-order engine ที่ลึกขึ้น ➡️ ใช้เทคโนโลยีการผลิต Intel 18A พร้อม backside power และ gate-all-around ➡️ จัดวางแบบ 3D chiplet ด้วย Foveros Direct และ EMIB ➡️ ประกอบด้วย 12 compute chiplets (18A), 3 base tiles (Intel 3), และ 2 I/O tiles (Intel 7) ➡️ มี L2 cache ขนาด 4MB ต่อกลุ่ม 4 คอร์ และ last-level cache รวมกว่า 1,152MB ➡️ รองรับ DDR5-8000, PCIe และ CXL พร้อมช่องหน่วยความจำ 12 ช่อง ➡️ ใช้งานร่วมกับแพลตฟอร์ม Xeon 69xxE/P เดิมได้ ➡️ รองรับการใช้งานแบบสองซ็อกเก็ต รวมได้ถึง 576 คอร์ ➡️ เหมาะสำหรับงาน cloud-native, edge computing และ AI inference ✅ ข้อมูลเสริมจากภายนอก ➡️ Darkmont เป็นรุ่นต่อยอดจาก Crestmont และ Sierra Glen โดยเพิ่ม execution port และ bandwidth ➡️ Intel 18A เป็นกระบวนการที่เน้นประสิทธิภาพพลังงานและความหนาแน่นของทรานซิสเตอร์ ➡️ Foveros Direct ช่วยให้การเชื่อมต่อระหว่าง chiplet มี latency ต่ำและประหยัดพลังงาน ➡️ EMIB เป็นเทคโนโลยี interconnect ที่ใช้เชื่อม die ต่างชนิดกันในแพ็กเกจเดียว ➡️ การใช้ E-core ล้วนช่วยลดการใช้พลังงานและเพิ่มจำนวนคอร์ในพื้นที่จำกัด ➡️ Clearwater Forest เป็นส่วนหนึ่งของยุทธศาสตร์ Xeon 6 ที่แบ่งเป็น P-core (Diamond Rapids) และ E-core (Clearwater Forest) https://www.techpowerup.com/340299/intel-details-clearwater-forest-xeon-with-288-e-cores-on-18a-process
    WWW.TECHPOWERUP.COM
    Intel Details "Clearwater Forest" Xeon with 288 E-Cores on 18A Process
    Intel used Hot Chips to pull back the curtain on "Clearwater Forest", its next-generation E-core Xeon. The company has paired major architectural upgrades with its newest 18A process and advanced 3D Foveros packaging paired with EMIB. The chip replaces "Sierra Forest" and is built around the new "Da...
    0 ความคิดเห็น 0 การแบ่งปัน 266 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชั้นความจำ: เมื่อ BiCS9 คือสะพานเชื่อมระหว่างอดีตและอนาคตของ NAND Flash

    ในเดือนกรกฎาคม 2025 Kioxia และ SanDisk ได้เริ่มส่งมอบตัวอย่างชิป BiCS9 ซึ่งเป็น NAND Flash รุ่นที่ 9 ที่ออกแบบมาเพื่อเป็น “สะพาน” ระหว่าง BiCS8 และ BiCS10 โดยใช้แนวคิดแบบไฮบริด—นำโครงสร้างเซลล์เก่าจาก BiCS5 หรือ BiCS8 มาผสานกับเทคโนโลยีใหม่อย่าง CBA (CMOS directly Bonded to Array)

    ผลลัพธ์คือชิปที่มีประสิทธิภาพสูงขึ้นอย่างชัดเจน แม้จะใช้จำนวนเลเยอร์น้อยกว่า BiCS8 หรือ BiCS10 แต่กลับสามารถเร่งความเร็วอินเทอร์เฟซ NAND ได้ถึง 4.8 Gb/s ด้วย Toggle DDR6.0 และ SCA protocol พร้อมลดการใช้พลังงานได้อย่างมีนัยสำคัญ

    BiCS9 จึงกลายเป็นตัวเลือกที่เหมาะสำหรับ SSD ระดับองค์กรที่รองรับงาน AI และการใช้งานทั่วไปที่ต้องการความสมดุลระหว่างประสิทธิภาพและต้นทุน

    Kioxia และ SanDisk เริ่มส่งมอบตัวอย่าง BiCS9 NAND Flash รุ่นใหม่
    เป็นรุ่นที่ 9 ของซีรีส์ BiCS FLASH
    ใช้โครงสร้างแบบไฮบริดระหว่าง BiCS5 (112-layer) และ BiCS8 (218-layer)

    ใช้เทคโนโลยี CBA (CMOS directly Bonded to Array)
    ผลิต logic wafer และ memory cell wafer แยกกัน แล้วนำมาประกบ
    ช่วยเพิ่มประสิทธิภาพและลดต้นทุนการผลิต

    รองรับ Toggle DDR6.0 และ SCA protocol เพื่อเพิ่มความเร็วอินเทอร์เฟซ2
    ความเร็วสูงสุดถึง 4.8 Gb/s ภายใต้การทดสอบ
    เพิ่มขึ้น 33% จาก BiCS8

    ประสิทธิภาพดีขึ้นอย่างชัดเจนเมื่อเทียบกับรุ่นก่อนหน้า
    เขียนข้อมูลเร็วขึ้น 61%
    อ่านข้อมูลเร็วขึ้น 12%
    ประหยัดพลังงานขึ้น 36% ขณะเขียน และ 27% ขณะอ่าน
    เพิ่ม bit density ขึ้น 8%

    BiCS9 ถูกออกแบบมาเพื่อรองรับงาน AI และ SSD ระดับกลางถึงสูง
    เน้นความสมดุลระหว่างประสิทธิภาพและต้นทุน
    เตรียมพร้อมสำหรับการเปลี่ยนผ่านสู่ BiCS10 ที่จะใช้ 332-layer

    BiCS10 จะเน้นความจุสูงและความหนาแน่นของข้อมูลมากขึ้น
    เพิ่ม bit density ขึ้น 59% จากการปรับ floor plan
    เหมาะกับ data center และงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน

    BiCS9 ยังอยู่ในขั้นตอนการทดสอบและยังไม่เข้าสู่การผลิตจำนวนมาก
    การใช้งานจริงอาจมีความแตกต่างจากตัวอย่างที่ส่งมอบ
    ต้องรอการผลิตจริงภายในปีงบประมาณ 2025

    การใช้โครงสร้างไฮบริดอาจทำให้เกิดความสับสนในรุ่นย่อย
    บางรุ่นใช้ BiCS5 (112-layer) บางรุ่นใช้ BiCS8 (218-layer)
    อาจส่งผลต่อความเสถียรและการจัดการคุณภาพ

    ความเร็วสูงสุด 4.8 Gb/s เป็นค่าที่ได้จากการทดสอบในสภาพควบคุม
    ความเร็วจริงอาจต่ำกว่าขึ้นอยู่กับสภาพแวดล้อมและอุปกรณ์ที่ใช้
    ต้องรอผลการทดสอบจากผู้ผลิตอิสระเพื่อยืนยัน

    การแข่งขันกับผู้ผลิตรายอื่นยังคงเข้มข้น
    Samsung และ Micron เน้นเพิ่มจำนวนเลเยอร์เกิน 300 เพื่อเพิ่มความจุ
    Kioxia เลือกแนวทางไฮบริดเพื่อความเร็วในการผลิตและต้นทุนต่ำ

    https://www.tomshardware.com/pc-components/storage/kioxia-and-sandisk-start-shipping-bics9-3d-nand-samples-hybrid-design-combining-112-layer-bics5-with-modern-cba-and-ddr6-0-interface-for-higher-performance-and-cost-efficiency
    💾 เรื่องเล่าจากชั้นความจำ: เมื่อ BiCS9 คือสะพานเชื่อมระหว่างอดีตและอนาคตของ NAND Flash ในเดือนกรกฎาคม 2025 Kioxia และ SanDisk ได้เริ่มส่งมอบตัวอย่างชิป BiCS9 ซึ่งเป็น NAND Flash รุ่นที่ 9 ที่ออกแบบมาเพื่อเป็น “สะพาน” ระหว่าง BiCS8 และ BiCS10 โดยใช้แนวคิดแบบไฮบริด—นำโครงสร้างเซลล์เก่าจาก BiCS5 หรือ BiCS8 มาผสานกับเทคโนโลยีใหม่อย่าง CBA (CMOS directly Bonded to Array) ผลลัพธ์คือชิปที่มีประสิทธิภาพสูงขึ้นอย่างชัดเจน แม้จะใช้จำนวนเลเยอร์น้อยกว่า BiCS8 หรือ BiCS10 แต่กลับสามารถเร่งความเร็วอินเทอร์เฟซ NAND ได้ถึง 4.8 Gb/s ด้วย Toggle DDR6.0 และ SCA protocol พร้อมลดการใช้พลังงานได้อย่างมีนัยสำคัญ BiCS9 จึงกลายเป็นตัวเลือกที่เหมาะสำหรับ SSD ระดับองค์กรที่รองรับงาน AI และการใช้งานทั่วไปที่ต้องการความสมดุลระหว่างประสิทธิภาพและต้นทุน ✅ Kioxia และ SanDisk เริ่มส่งมอบตัวอย่าง BiCS9 NAND Flash รุ่นใหม่ ➡️ เป็นรุ่นที่ 9 ของซีรีส์ BiCS FLASH ➡️ ใช้โครงสร้างแบบไฮบริดระหว่าง BiCS5 (112-layer) และ BiCS8 (218-layer) ✅ ใช้เทคโนโลยี CBA (CMOS directly Bonded to Array) ➡️ ผลิต logic wafer และ memory cell wafer แยกกัน แล้วนำมาประกบ ➡️ ช่วยเพิ่มประสิทธิภาพและลดต้นทุนการผลิต ✅ รองรับ Toggle DDR6.0 และ SCA protocol เพื่อเพิ่มความเร็วอินเทอร์เฟซ2 ➡️ ความเร็วสูงสุดถึง 4.8 Gb/s ภายใต้การทดสอบ ➡️ เพิ่มขึ้น 33% จาก BiCS8 ✅ ประสิทธิภาพดีขึ้นอย่างชัดเจนเมื่อเทียบกับรุ่นก่อนหน้า ➡️ เขียนข้อมูลเร็วขึ้น 61% ➡️ อ่านข้อมูลเร็วขึ้น 12% ➡️ ประหยัดพลังงานขึ้น 36% ขณะเขียน และ 27% ขณะอ่าน ➡️ เพิ่ม bit density ขึ้น 8% ✅ BiCS9 ถูกออกแบบมาเพื่อรองรับงาน AI และ SSD ระดับกลางถึงสูง ➡️ เน้นความสมดุลระหว่างประสิทธิภาพและต้นทุน ➡️ เตรียมพร้อมสำหรับการเปลี่ยนผ่านสู่ BiCS10 ที่จะใช้ 332-layer ✅ BiCS10 จะเน้นความจุสูงและความหนาแน่นของข้อมูลมากขึ้น ➡️ เพิ่ม bit density ขึ้น 59% จากการปรับ floor plan ➡️ เหมาะกับ data center และงาน AI ที่ต้องการความเร็วและประหยัดพลังงาน ‼️ BiCS9 ยังอยู่ในขั้นตอนการทดสอบและยังไม่เข้าสู่การผลิตจำนวนมาก ⛔ การใช้งานจริงอาจมีความแตกต่างจากตัวอย่างที่ส่งมอบ ⛔ ต้องรอการผลิตจริงภายในปีงบประมาณ 2025 ‼️ การใช้โครงสร้างไฮบริดอาจทำให้เกิดความสับสนในรุ่นย่อย ⛔ บางรุ่นใช้ BiCS5 (112-layer) บางรุ่นใช้ BiCS8 (218-layer) ⛔ อาจส่งผลต่อความเสถียรและการจัดการคุณภาพ ‼️ ความเร็วสูงสุด 4.8 Gb/s เป็นค่าที่ได้จากการทดสอบในสภาพควบคุม ⛔ ความเร็วจริงอาจต่ำกว่าขึ้นอยู่กับสภาพแวดล้อมและอุปกรณ์ที่ใช้ ⛔ ต้องรอผลการทดสอบจากผู้ผลิตอิสระเพื่อยืนยัน ‼️ การแข่งขันกับผู้ผลิตรายอื่นยังคงเข้มข้น ⛔ Samsung และ Micron เน้นเพิ่มจำนวนเลเยอร์เกิน 300 เพื่อเพิ่มความจุ ⛔ Kioxia เลือกแนวทางไฮบริดเพื่อความเร็วในการผลิตและต้นทุนต่ำ https://www.tomshardware.com/pc-components/storage/kioxia-and-sandisk-start-shipping-bics9-3d-nand-samples-hybrid-design-combining-112-layer-bics5-with-modern-cba-and-ddr6-0-interface-for-higher-performance-and-cost-efficiency
    0 ความคิดเห็น 0 การแบ่งปัน 267 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวอชิงตัน: เมื่อ AI ถูกใช้เพื่อลบครึ่งหนึ่งของกฎระเบียบรัฐบาลกลาง

    ในปีแรกของการกลับมาดำรงตำแหน่งของประธานาธิบดีทรัมป์ รัฐบาลสหรัฐฯ ตั้งเป้าหมายสุดโต่ง—ลบกฎระเบียบของรัฐบาลกลางให้ได้ถึง 50%! และเครื่องมือหลักที่ใช้คือ “DOGE AI Deregulation Decision Tool” ซึ่งเป็นระบบปัญญาประดิษฐ์ที่พัฒนาโดยหน่วยงานใหม่ชื่อ DOGE (Department of Government Efficiency) ที่เคยมี Elon Musk เป็นผู้นำ

    AI ตัวนี้ถูกออกแบบมาเพื่อวิเคราะห์กฎระเบียบกว่า 200,000 ฉบับ และคัดเลือก 100,000 ฉบับที่ “ไม่จำเป็นตามกฎหมาย” เพื่อเสนอให้ลบออก โดยอ้างว่าจะช่วยประหยัดงบประมาณได้ถึง 1.5 ล้านล้านดอลลาร์ต่อปี และลดภาระงานของเจ้าหน้าที่ลงจาก 3.6 ล้านชั่วโมงเหลือแค่ 36 ชั่วโมง!

    แต่การใช้ AI แบบนี้ก็ไม่ใช่เรื่องง่าย เพราะมีรายงานว่าเครื่องมือนี้เข้าใจภาษากฎหมายผิดพลาดหลายครั้ง และอาจนำไปสู่การลบกฎที่ยังจำเป็นอยู่โดยไม่ได้ตั้งใจ

    DOGE AI Deregulation Decision Tool ตั้งเป้าลบ 100,000 กฎระเบียบภายในปีแรกของรัฐบาลทรัมป์
    วิเคราะห์กฎระเบียบกว่า 200,000 ฉบับเพื่อคัดเลือกสิ่งที่ไม่จำเป็นตามกฎหมาย
    ใช้แล้วใน HUD และ CFPB โดยเขียน “100% ของการยกเลิกกฎ” ที่ CFPB

    ระบบนี้อ้างว่าจะช่วยประหยัดงบประมาณและเวลาอย่างมหาศาล
    ประหยัดงบประมาณได้ถึง $1.5 ล้านล้านต่อปี
    ลดภาระงานจาก 3.6 ล้านชั่วโมงเหลือเพียง 36 ชั่วโมง

    DOGE ใช้กลยุทธ์ “AI-first” ตั้งแต่ต้นปี 2025
    เริ่มฝัง AI ในหน่วยงานรัฐบาลหลายแห่งตั้งแต่เดือนมีนาคม
    เปิดตัวแชตบอท GSAi ให้พนักงานกว่า 1,500 คนใช้งาน

    แผนนี้เป็นส่วนหนึ่งของคำมั่นสัญญาในการลดกฎระเบียบของทรัมป์
    มาจากคำสั่งผู้บริหารเมื่อ 31 มกราคม 2025 ที่เรียกร้องให้ยกเลิกกฎ 10 ฉบับต่อการออกใหม่ 1 ฉบับ
    DOGE ถูกตั้งขึ้นเพื่อผลักดันเป้าหมายนี้โดยตรง

    AI เข้าใจภาษากฎหมายผิดพลาดหลายครั้ง
    เจ้าหน้าที่ HUD รายงานว่า AI เข้าใจผิดว่ากฎที่ถูกต้องเป็นกฎที่ผิด
    อาจนำไปสู่การลบกฎที่ยังจำเป็นอยู่โดยไม่ได้ตั้งใจ

    การใช้ AI เพื่อลบกฎระเบียบอาจขัดต่อกฎหมายปกครอง (Administrative Procedure Act)
    กฎหมายกำหนดให้ต้องมีเหตุผลที่ชัดเจนในการเปลี่ยนแปลงกฎ
    การอ้างว่า “AI บอกให้ลบ” อาจไม่ผ่านการตรวจสอบของศาล

    การใช้ระบบอัตโนมัติในระดับนี้อาจลดบทบาทของเจ้าหน้าที่รัฐและผู้เชี่ยวชาญ
    เกิดความกังวลว่าการตัดสินใจสำคัญจะถูกแทนที่ด้วยอัลกอริธึม
    อาจกระทบต่อความโปร่งใสและความรับผิดชอบของรัฐบาล

    DOGE เคยมีปัญหาด้านความปลอดภัยและความน่าเชื่อถือ
    เว็บไซต์ของ DOGE เคยถูกเจาะระบบและปล่อยข้อมูลโดยไม่ได้ตั้งใจ
    พนักงานบางคนมีประวัติที่น่าสงสัยและอุปกรณ์ถูกมัลแวร์โจมตี

    https://www.techspot.com/news/108826-doge-wants-use-ai-tool-eliminate-half-all.html
    🧠 เรื่องเล่าจากวอชิงตัน: เมื่อ AI ถูกใช้เพื่อลบครึ่งหนึ่งของกฎระเบียบรัฐบาลกลาง ในปีแรกของการกลับมาดำรงตำแหน่งของประธานาธิบดีทรัมป์ รัฐบาลสหรัฐฯ ตั้งเป้าหมายสุดโต่ง—ลบกฎระเบียบของรัฐบาลกลางให้ได้ถึง 50%! และเครื่องมือหลักที่ใช้คือ “DOGE AI Deregulation Decision Tool” ซึ่งเป็นระบบปัญญาประดิษฐ์ที่พัฒนาโดยหน่วยงานใหม่ชื่อ DOGE (Department of Government Efficiency) ที่เคยมี Elon Musk เป็นผู้นำ AI ตัวนี้ถูกออกแบบมาเพื่อวิเคราะห์กฎระเบียบกว่า 200,000 ฉบับ และคัดเลือก 100,000 ฉบับที่ “ไม่จำเป็นตามกฎหมาย” เพื่อเสนอให้ลบออก โดยอ้างว่าจะช่วยประหยัดงบประมาณได้ถึง 1.5 ล้านล้านดอลลาร์ต่อปี และลดภาระงานของเจ้าหน้าที่ลงจาก 3.6 ล้านชั่วโมงเหลือแค่ 36 ชั่วโมง! แต่การใช้ AI แบบนี้ก็ไม่ใช่เรื่องง่าย เพราะมีรายงานว่าเครื่องมือนี้เข้าใจภาษากฎหมายผิดพลาดหลายครั้ง และอาจนำไปสู่การลบกฎที่ยังจำเป็นอยู่โดยไม่ได้ตั้งใจ ✅ DOGE AI Deregulation Decision Tool ตั้งเป้าลบ 100,000 กฎระเบียบภายในปีแรกของรัฐบาลทรัมป์ ➡️ วิเคราะห์กฎระเบียบกว่า 200,000 ฉบับเพื่อคัดเลือกสิ่งที่ไม่จำเป็นตามกฎหมาย ➡️ ใช้แล้วใน HUD และ CFPB โดยเขียน “100% ของการยกเลิกกฎ” ที่ CFPB ✅ ระบบนี้อ้างว่าจะช่วยประหยัดงบประมาณและเวลาอย่างมหาศาล ➡️ ประหยัดงบประมาณได้ถึง $1.5 ล้านล้านต่อปี ➡️ ลดภาระงานจาก 3.6 ล้านชั่วโมงเหลือเพียง 36 ชั่วโมง ✅ DOGE ใช้กลยุทธ์ “AI-first” ตั้งแต่ต้นปี 2025 ➡️ เริ่มฝัง AI ในหน่วยงานรัฐบาลหลายแห่งตั้งแต่เดือนมีนาคม ➡️ เปิดตัวแชตบอท GSAi ให้พนักงานกว่า 1,500 คนใช้งาน ✅ แผนนี้เป็นส่วนหนึ่งของคำมั่นสัญญาในการลดกฎระเบียบของทรัมป์ ➡️ มาจากคำสั่งผู้บริหารเมื่อ 31 มกราคม 2025 ที่เรียกร้องให้ยกเลิกกฎ 10 ฉบับต่อการออกใหม่ 1 ฉบับ ➡️ DOGE ถูกตั้งขึ้นเพื่อผลักดันเป้าหมายนี้โดยตรง ‼️ AI เข้าใจภาษากฎหมายผิดพลาดหลายครั้ง ⛔ เจ้าหน้าที่ HUD รายงานว่า AI เข้าใจผิดว่ากฎที่ถูกต้องเป็นกฎที่ผิด ⛔ อาจนำไปสู่การลบกฎที่ยังจำเป็นอยู่โดยไม่ได้ตั้งใจ ‼️ การใช้ AI เพื่อลบกฎระเบียบอาจขัดต่อกฎหมายปกครอง (Administrative Procedure Act) ⛔ กฎหมายกำหนดให้ต้องมีเหตุผลที่ชัดเจนในการเปลี่ยนแปลงกฎ ⛔ การอ้างว่า “AI บอกให้ลบ” อาจไม่ผ่านการตรวจสอบของศาล ‼️ การใช้ระบบอัตโนมัติในระดับนี้อาจลดบทบาทของเจ้าหน้าที่รัฐและผู้เชี่ยวชาญ ⛔ เกิดความกังวลว่าการตัดสินใจสำคัญจะถูกแทนที่ด้วยอัลกอริธึม ⛔ อาจกระทบต่อความโปร่งใสและความรับผิดชอบของรัฐบาล ‼️ DOGE เคยมีปัญหาด้านความปลอดภัยและความน่าเชื่อถือ ⛔ เว็บไซต์ของ DOGE เคยถูกเจาะระบบและปล่อยข้อมูลโดยไม่ได้ตั้งใจ ⛔ พนักงานบางคนมีประวัติที่น่าสงสัยและอุปกรณ์ถูกมัลแวร์โจมตี https://www.techspot.com/news/108826-doge-wants-use-ai-tool-eliminate-half-all.html
    WWW.TECHSPOT.COM
    DOGE's AI tool misreads law, still tasked with deleting half of US regulations
    The Doge AI Deregulation Decision Tool will be analyzing around 200,000 federal regulations, according to the Washington Post, which cites documents it obtained and four government officials.
    0 ความคิดเห็น 0 การแบ่งปัน 410 มุมมอง 0 รีวิว
  • หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก!

    ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5

    แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU

    จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ

    OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5  
    • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series  
    • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M  
    • เน้น balance ระหว่างประสิทธิภาพ & portability

    Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว  
    • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)  
    • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator

    AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว

    Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU

    แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU

    https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    หลายคนอาจคิดว่า Nvidia ยังเป็นเจ้าตลาด GPU แบบเบ็ดเสร็จทุกแพลตฟอร์ม → แต่ถ้าเรามองไปที่ตลาด eGPU (GPU ภายนอกสำหรับโน้ตบุ๊ก), เกมกลับพลิก! ล่าสุดบริษัท Onexplayer เปิดตัว OnexGPU Lite ซึ่งใช้ Radeon RX 7600M XT แบบโมบายจาก AMD เป็นตัวประมวลผล → นี่คือ eGPU ตัวที่ 11 แล้วที่ใช้ชิป AMD จากซีรีส์ RX 7000 → ที่น่าสนใจคือยังไม่มี eGPU ที่ใช้ชิป RDNA4 ใหม่เลย — ทุกตัวใช้รุ่นเดิม แต่เปลี่ยนพอร์ตให้รองรับ Thunderbolt 5 แม้ RX 7600M XT จะไม่ใช่ GPU ที่แรงที่สุด แต่กลับกลายเป็น "มาตรฐานของ eGPU รุ่นใหม่" ที่เน้นความบาง, น้ำหนักเบา, และการประหยัดพลังงาน → ขณะที่ Nvidia แทบไม่มีบทบาทในกลุ่มนี้ → Vendor หลายรายเลือก AMD เพราะจัดการเรื่อง driver ได้ง่ายกว่า, ประหยัดไฟกว่า และราคาอาจคุ้มค่ากว่าในแพลตฟอร์ม eGPU จุดขายล่าสุดคือพอร์ต Thunderbolt 5 ที่ทำงานได้ทั้งส่งภาพ, ส่งข้อมูล, และจ่ายไฟผ่านสายเดียว → แม้แบนด์วิดธ์ PCIe ยังเท่ากับ OCuLink (64Gbps) แต่ Thunderbolt 5 ใช้งานง่ายกว่า เพราะรองรับ display + power + data → เหมาะมากสำหรับ creator สายวีดีโอ หรือคนที่ใช้ Photoshop บนโน้ตบุ๊กบาง ๆ ✅ OnexGPU Lite ใช้ Radeon RX 7600M XT พร้อมพอร์ต Thunderbolt 5   • เป็น eGPU ตัวที่ 11 แล้วจาก AMD RX 7000 Series   • พัฒนาจาก OnexGPU 2 ที่ใช้ RX 7800M   • เน้น balance ระหว่างประสิทธิภาพ & portability ✅ Thunderbolt 5 รองรับทั้ง PCIe, display output และการจ่ายไฟผ่านสายเดียว   • PCIe bandwidth เทียบเท่า OCuLink (64Gbps)   • แต่มอบประสบการณ์ใช้งานที่ง่ายกว่าและเหมาะสำหรับ creator ✅ AMD ครองตลาด eGPU แบบเงียบ ๆ ขณะที่ Nvidia ยังไม่โดดเข้ามาเต็มตัว ✅ Vendor หลายรายอาจเลือก AMD เพราะเหตุผลด้าน power efficiency, driver compatibility, และราคาต่อโมบาย GPU ✅ แม้จะใช้ RX 7600M XT ซ้ำในหลายรุ่น แต่การเปลี่ยน chassis และพอร์ตเป็น Thunderbolt 5 คือทางเลือกที่คุ้มค่าในตลาด eGPU https://www.techradar.com/pro/amd-is-surpassing-nvidia-in-one-particular-market-and-i-dont-understand-why-11th-egpu-based-on-amd-radeon-rx-7000-series-debuts-and-even-has-thunderbolt-5
    0 ความคิดเห็น 0 การแบ่งปัน 414 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU

    นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด

    Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น
    - รองรับ TF32 แบบของ NVIDIA
    - เพิ่ม support สำหรับ FP8
    - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย

    และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว

    Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป  
    • แบ่งเป็น 4 tile, tile ละ 48 คอร์  
    • ไม่มี E-Core แบบ Xeon 6

    TDP สูงสุดต่อซ็อกเก็ต = 500W  
    • รองรับระบบระบายความร้อนระดับองค์กร

    รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล  
    • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM  
    • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ

    รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ  
    • TF32 (ของ NVIDIA)  
    • FP8 → ลด latency inference model  
    • AMX และ APX รุ่นใหม่

    รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก

    วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores

    ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W

    การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์  
    • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient

    Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว  
    • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง

    https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น - รองรับ TF32 แบบของ NVIDIA - เพิ่ม support สำหรับ FP8 - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว ✅ Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป   • แบ่งเป็น 4 tile, tile ละ 48 คอร์   • ไม่มี E-Core แบบ Xeon 6 ✅ TDP สูงสุดต่อซ็อกเก็ต = 500W   • รองรับระบบระบายความร้อนระดับองค์กร ✅ รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล   • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM   • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ ✅ รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ   • TF32 (ของ NVIDIA)   • FP8 → ลด latency inference model   • AMX และ APX รุ่นใหม่ ✅ รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก ✅ วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores ✅ ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W ‼️ การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์   • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient ‼️ Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว   • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    WWW.TECHPOWERUP.COM
    Intel "Diamond Rapids" Xeon CPU to Feature up to 192 P-Cores and 500 W TDP
    Intel's next-generation "Oak Stream" platform is preparing to accommodate the upcoming "Diamond Rapids" Xeon CPU generation, and we are receiving more interesting details about the top-end configurations Intel will offer. According to the HEPiX TechWatch working group, the Diamond Rapids Intel Xeon ...
    0 ความคิดเห็น 0 การแบ่งปัน 255 มุมมอง 0 รีวิว
  • แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die)

    ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง

    ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง

    แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม

    AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows  
    • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว)

    การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี  
    • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด  
    • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ

    C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม  
    • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling

    การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น  
    • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ

    Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้  
    • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม

    การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption  
    • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง

    ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ  
    • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป

    ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน  
    • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ

    การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง  
    • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง

    https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die) ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม ✅ AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows   • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว) ✅ การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี   • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด   • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ ✅ C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม   • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling ✅ การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น   • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ ✅ Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้   • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม ‼️ การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption   • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง ‼️ ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ   • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป ‼️ ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน   • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ ‼️ การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง   • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    WWW.NEOWIN.NET
    Some AMD Ryzen users can get free Windows performance boost with this simple system tweak
    AMD Ryzen processor owners, especially X3D ones, may be in for a pleasant surprise as a simple tweak to one of their system settings can help boost performance.
    0 ความคิดเห็น 0 การแบ่งปัน 332 มุมมอง 0 รีวิว
  • ช่วงนี้ Apple ไม่ได้พูดถึง AI แค่เรื่อง Siri หรือ iPhone เท่านั้น แต่กำลังใช้ GenAI เข้ามาเปลี่ยนวงในอย่าง “การออกแบบชิป” ที่เป็นหัวใจของอุปกรณ์ทุกตัวเลย

    Johny Srouji รองประธานอาวุโสของฝ่ายฮาร์ดแวร์ของ Apple เปิดเผยว่า Apple กำลังใช้ Generative AI ในซอฟต์แวร์ออกแบบชิป EDA เพื่อเพิ่มความเร็วและประสิทธิภาพของการพัฒนา Apple Silicon รุ่นต่อไป เช่น M-Series และ A-Series ซึ่งใช้ใน Mac และ iPhone ตามลำดับ

    เขาบอกเลยว่า “Generative AI สามารถเพิ่ม productivity ได้มหาศาล” เพราะเดิมทีการวางเลย์เอาต์ของชิป หรือการกำหนดวงจรใช้เวลานานและทำซ้ำบ่อยมาก แต่ถ้าให้ AI สร้างตัวเลือกอัตโนมัติ แล้ววิศวกรคัดกรอง ก็จะเร็วกว่าเดิมหลายเท่า

    ฝั่งบริษัท Cadence และ Synopsys ที่เป็นผู้ผลิตซอฟต์แวร์ EDA ก็เร่งเสริม GenAI เข้าไปในเครื่องมือของตัวเอง เพื่อให้รองรับแนวโน้มนี้ ซึ่งไม่ใช่แค่ Apple ที่ใช้นะครับ Google, Nvidia, AMD ก็เริ่มหันมาใช้กันหมด

    และไม่ใช่แค่ฝั่งตะวันตก — มีรายงานจากจีนว่าทีมนักวิจัยสามารถออกแบบซีพียูทั้งตัวโดยใช้ Large Language Model (LLM) แค่ตัวเดียวได้แล้วด้วย

    Apple เองเริ่มทางนี้ตั้งแต่สมัยเปลี่ยนมาใช้ Apple Silicon ใน MacBook Pro รุ่น M1 ซึ่งเป็นจุดเปลี่ยนครั้งใหญ่ในการเลิกใช้ชิป Intel และพัฒนาชิป Arm ของตนเองแบบเต็มตัว โดยเน้น performance + efficiency + ควบคุม ecosystem ทั้งหมด

    Apple เริ่มใช้ Generative AI เพื่อช่วยออกแบบชิปในกระบวนการ EDA (Electronic Design Automation)  • เพิ่ม productivity และลดเวลาทำงานของทีมออกแบบ  
    • เป็นการนำ AI มาใช้เบื้องหลัง ไม่ใช่แค่ฟีเจอร์ในอุปกรณ์

    Johny Srouji ยืนยันว่า GenAI จะเป็นตัวช่วยสำคัญใน pipeline การพัฒนาชิป  
    • ช่วย generate layout, logic, simulation patterns  
    • ลดภาระงานซ้ำซ้อนให้วิศวกร

    บริษัท EDA ชั้นนำอย่าง Cadence และ Synopsys กำลังใส่ GenAI ในเครื่องมือของตัวเอง  
    • เป็นคลื่นเทคโนโลยีที่หลายผู้ผลิตชิปกำลังปรับตัวตาม

    Apple เคยทุ่มสุดตัวกับ Apple Silicon โดยไม่มีแผนสำรองตอนเปลี่ยนจาก Intel เป็น M1  
    • พร้อมพัฒนาระบบแปล x86 → Arm ผ่าน Rosetta 2

    แนวโน้มของโลก: จีนกำลังพัฒนา CPU ที่ออกแบบโดย LLM ล้วน ๆ แล้วเช่นกัน  
    • เป็นการยืนยันว่า AI เริ่มเข้ามามีบทบาทตั้งแต่ระดับสถาปัตยกรรม

    AI ยังไม่สามารถแทนที่วิศวกรออกแบบชิปได้เต็มตัวในปัจจุบัน  
    • ความเข้าใจเรื่องสถาปัตยกรรมและข้อจำกัดเชิงฟิสิกส์ยังต้องพึ่งมนุษย์

    การใช้ GenAI ในงานชิปต้องควบคุมคุณภาพสูง เพราะ error เล็กน้อยอาจทำให้ชิปทั้งตัวใช้ไม่ได้  
    • จึงต้องมีรอบตรวจสอบหลายชั้น แม้จะใช้ AI ร่วม

    การพึ่งพา AI อย่างรวดเร็วใน R&D มีความเสี่ยงต่อการรั่วไหลของแนวคิดหรือทรัพย์สินทางปัญญา  
    • ต้องระวังในระดับการใช้งาน LLM ภายนอกที่อาจไม่ได้ควบคุมโมเดลเอง

    แนวโน้มนี้จะเพิ่มการแข่งขันในตลาดชิปแบบ arm-on-silicon สูงขึ้น  
    • บริษัทที่ไม่เร่งใช้ AI ออกแบบ อาจตามไม่ทันรอบพัฒนาผลิตภัณฑ์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/apple-explores-using-generative-ai-to-design-its-chips-executive-says-it-can-be-a-huge-productivity-boost
    ช่วงนี้ Apple ไม่ได้พูดถึง AI แค่เรื่อง Siri หรือ iPhone เท่านั้น แต่กำลังใช้ GenAI เข้ามาเปลี่ยนวงในอย่าง “การออกแบบชิป” ที่เป็นหัวใจของอุปกรณ์ทุกตัวเลย Johny Srouji รองประธานอาวุโสของฝ่ายฮาร์ดแวร์ของ Apple เปิดเผยว่า Apple กำลังใช้ Generative AI ในซอฟต์แวร์ออกแบบชิป EDA เพื่อเพิ่มความเร็วและประสิทธิภาพของการพัฒนา Apple Silicon รุ่นต่อไป เช่น M-Series และ A-Series ซึ่งใช้ใน Mac และ iPhone ตามลำดับ เขาบอกเลยว่า “Generative AI สามารถเพิ่ม productivity ได้มหาศาล” เพราะเดิมทีการวางเลย์เอาต์ของชิป หรือการกำหนดวงจรใช้เวลานานและทำซ้ำบ่อยมาก แต่ถ้าให้ AI สร้างตัวเลือกอัตโนมัติ แล้ววิศวกรคัดกรอง ก็จะเร็วกว่าเดิมหลายเท่า ฝั่งบริษัท Cadence และ Synopsys ที่เป็นผู้ผลิตซอฟต์แวร์ EDA ก็เร่งเสริม GenAI เข้าไปในเครื่องมือของตัวเอง เพื่อให้รองรับแนวโน้มนี้ ซึ่งไม่ใช่แค่ Apple ที่ใช้นะครับ Google, Nvidia, AMD ก็เริ่มหันมาใช้กันหมด และไม่ใช่แค่ฝั่งตะวันตก — มีรายงานจากจีนว่าทีมนักวิจัยสามารถออกแบบซีพียูทั้งตัวโดยใช้ Large Language Model (LLM) แค่ตัวเดียวได้แล้วด้วย Apple เองเริ่มทางนี้ตั้งแต่สมัยเปลี่ยนมาใช้ Apple Silicon ใน MacBook Pro รุ่น M1 ซึ่งเป็นจุดเปลี่ยนครั้งใหญ่ในการเลิกใช้ชิป Intel และพัฒนาชิป Arm ของตนเองแบบเต็มตัว โดยเน้น performance + efficiency + ควบคุม ecosystem ทั้งหมด ✅ Apple เริ่มใช้ Generative AI เพื่อช่วยออกแบบชิปในกระบวนการ EDA (Electronic Design Automation)  • เพิ่ม productivity และลดเวลาทำงานของทีมออกแบบ   • เป็นการนำ AI มาใช้เบื้องหลัง ไม่ใช่แค่ฟีเจอร์ในอุปกรณ์ ✅ Johny Srouji ยืนยันว่า GenAI จะเป็นตัวช่วยสำคัญใน pipeline การพัฒนาชิป   • ช่วย generate layout, logic, simulation patterns   • ลดภาระงานซ้ำซ้อนให้วิศวกร ✅ บริษัท EDA ชั้นนำอย่าง Cadence และ Synopsys กำลังใส่ GenAI ในเครื่องมือของตัวเอง   • เป็นคลื่นเทคโนโลยีที่หลายผู้ผลิตชิปกำลังปรับตัวตาม ✅ Apple เคยทุ่มสุดตัวกับ Apple Silicon โดยไม่มีแผนสำรองตอนเปลี่ยนจาก Intel เป็น M1   • พร้อมพัฒนาระบบแปล x86 → Arm ผ่าน Rosetta 2 ✅ แนวโน้มของโลก: จีนกำลังพัฒนา CPU ที่ออกแบบโดย LLM ล้วน ๆ แล้วเช่นกัน   • เป็นการยืนยันว่า AI เริ่มเข้ามามีบทบาทตั้งแต่ระดับสถาปัตยกรรม ‼️ AI ยังไม่สามารถแทนที่วิศวกรออกแบบชิปได้เต็มตัวในปัจจุบัน   • ความเข้าใจเรื่องสถาปัตยกรรมและข้อจำกัดเชิงฟิสิกส์ยังต้องพึ่งมนุษย์ ‼️ การใช้ GenAI ในงานชิปต้องควบคุมคุณภาพสูง เพราะ error เล็กน้อยอาจทำให้ชิปทั้งตัวใช้ไม่ได้   • จึงต้องมีรอบตรวจสอบหลายชั้น แม้จะใช้ AI ร่วม ‼️ การพึ่งพา AI อย่างรวดเร็วใน R&D มีความเสี่ยงต่อการรั่วไหลของแนวคิดหรือทรัพย์สินทางปัญญา   • ต้องระวังในระดับการใช้งาน LLM ภายนอกที่อาจไม่ได้ควบคุมโมเดลเอง ‼️ แนวโน้มนี้จะเพิ่มการแข่งขันในตลาดชิปแบบ arm-on-silicon สูงขึ้น   • บริษัทที่ไม่เร่งใช้ AI ออกแบบ อาจตามไม่ทันรอบพัฒนาผลิตภัณฑ์ https://www.tomshardware.com/tech-industry/artificial-intelligence/apple-explores-using-generative-ai-to-design-its-chips-executive-says-it-can-be-a-huge-productivity-boost
    WWW.TOMSHARDWARE.COM
    Apple explores using generative AI to design its chips — executive says 'it can be a huge productivity boost'
    Generative AI in EDA tools will help Apple's silicon design teams run faster and more efficiently.
    0 ความคิดเห็น 0 การแบ่งปัน 527 มุมมอง 0 รีวิว
  • Intel Lunar Lake: ดีไซน์สุดล้ำที่ผสมผสาน ARM และ x86

    Intel เปิดตัว Lunar Lake ซึ่งเป็นชิปที่ผสมผสานแนวคิดของ ARM-based SoC กับสถาปัตยกรรม x86 โดยใช้ TSMC N3B ในการผลิต Compute Tile และมี Neural Processing Unit (NPU) ที่ให้ประสิทธิภาพ AI สูงถึง 48 TOPS

    รายละเอียดสำคัญเกี่ยวกับ Intel Lunar Lake
    ใช้สถาปัตยกรรม Lion Cove สำหรับ Performance Cores (P-Cores)
    - มี 4 P-Cores พร้อม L3 Cache ขนาด 12MB และ L2 Cache 2.5MB ต่อคอร์

    Efficiency Cores (E-Cores) ใช้สถาปัตยกรรม Skymont
    - ตั้งอยู่บน Low Power Island พร้อม L2 Cache ขนาด 4MB

    NPU มี 6 Neural Compute Engines (NCE) ให้ประสิทธิภาพ AI สูงถึง 48 TOPS
    - ช่วยให้ Lunar Lake มีความสามารถด้าน AI ที่โดดเด่น

    ใช้ Battlemage-based integrated GPU พร้อม 8 Xe2-LPG Cores
    - รองรับ การประมวลผลกราฟิกที่มีประสิทธิภาพสูง

    มี System-Level Cache (SLC) ขนาด 8MB ที่แชร์ระหว่าง CPU, GPU, NPU และ Media Engine
    - ช่วยลด latency และเพิ่มประสิทธิภาพการทำงานของระบบ

    LPDDR5x-8533 ขนาด 16GB หรือ 32GB ถูกบัดกรีติดกับแพ็กเกจ
    - ทำให้ ไม่สามารถอัปเกรด RAM ได้

    ใช้ Foveros 3D Packaging Technology ในการเชื่อมต่อชิปต่าง ๆ
    - ลด การใช้พลังงานและเพิ่มประสิทธิภาพการสื่อสารระหว่างชิป

    https://www.tomshardware.com/pc-components/cpus/intels-lunar-lake-intricacies-revealed-in-new-high-resolution-die-shots
    Intel Lunar Lake: ดีไซน์สุดล้ำที่ผสมผสาน ARM และ x86 Intel เปิดตัว Lunar Lake ซึ่งเป็นชิปที่ผสมผสานแนวคิดของ ARM-based SoC กับสถาปัตยกรรม x86 โดยใช้ TSMC N3B ในการผลิต Compute Tile และมี Neural Processing Unit (NPU) ที่ให้ประสิทธิภาพ AI สูงถึง 48 TOPS 🔍 รายละเอียดสำคัญเกี่ยวกับ Intel Lunar Lake ✅ ใช้สถาปัตยกรรม Lion Cove สำหรับ Performance Cores (P-Cores) - มี 4 P-Cores พร้อม L3 Cache ขนาด 12MB และ L2 Cache 2.5MB ต่อคอร์ ✅ Efficiency Cores (E-Cores) ใช้สถาปัตยกรรม Skymont - ตั้งอยู่บน Low Power Island พร้อม L2 Cache ขนาด 4MB ✅ NPU มี 6 Neural Compute Engines (NCE) ให้ประสิทธิภาพ AI สูงถึง 48 TOPS - ช่วยให้ Lunar Lake มีความสามารถด้าน AI ที่โดดเด่น ✅ ใช้ Battlemage-based integrated GPU พร้อม 8 Xe2-LPG Cores - รองรับ การประมวลผลกราฟิกที่มีประสิทธิภาพสูง ✅ มี System-Level Cache (SLC) ขนาด 8MB ที่แชร์ระหว่าง CPU, GPU, NPU และ Media Engine - ช่วยลด latency และเพิ่มประสิทธิภาพการทำงานของระบบ ✅ LPDDR5x-8533 ขนาด 16GB หรือ 32GB ถูกบัดกรีติดกับแพ็กเกจ - ทำให้ ไม่สามารถอัปเกรด RAM ได้ ✅ ใช้ Foveros 3D Packaging Technology ในการเชื่อมต่อชิปต่าง ๆ - ลด การใช้พลังงานและเพิ่มประสิทธิภาพการสื่อสารระหว่างชิป https://www.tomshardware.com/pc-components/cpus/intels-lunar-lake-intricacies-revealed-in-new-high-resolution-die-shots
    WWW.TOMSHARDWARE.COM
    Intel's Lunar Lake intricacies revealed in new high-resolution die shots
    One of Intel's most advanced and innovative designs in recent history.
    0 ความคิดเห็น 0 การแบ่งปัน 300 มุมมอง 0 รีวิว
  • ข้อมูลล็อกอินของพนักงาน DOGE ถูกขโมยและเผยแพร่บนออนไลน์ มีรายงานว่า ข้อมูลล็อกอินของ Kyle Schutt ซึ่งเป็น วิศวกรซอฟต์แวร์ที่ทำงานให้กับทั้ง CISA และ DOGE ถูกพบใน ฐานข้อมูลที่รวบรวมโดยมัลแวร์ขโมยข้อมูล ซึ่งอาจส่งผลกระทบต่อ ความปลอดภัยของระบบรัฐบาลสหรัฐฯ

    DOGE หรือ Department of Government Efficiency เป็นหน่วยงานใหม่ที่ มี Elon Musk เป็นหนึ่งในผู้นำ และได้รับสิทธิ์เข้าถึง ระบบการเงินของรัฐบาลกลาง เช่น ระบบการชำระเงินของกระทรวงการคลังสหรัฐฯ ซึ่งทำให้เกิดข้อกังวลด้าน ความปลอดภัยทางไซเบอร์และความเป็นส่วนตัวของข้อมูลประชาชน

    ข้อมูลล็อกอินของ Kyle Schutt ถูกพบในฐานข้อมูลที่รวบรวมโดยมัลแวร์ขโมยข้อมูล
    - อาจทำให้ ระบบของ CISA และ DOGE เสี่ยงต่อการถูกเจาะระบบ

    DOGE มีสิทธิ์เข้าถึงระบบการเงินของรัฐบาลกลาง
    - รวมถึง ระบบการชำระเงินของกระทรวงการคลังสหรัฐฯ

    Schutt เคยเข้าถึงระบบการเงินหลักของ FEMA ในเดือนกุมภาพันธ์
    - อาจทำให้ ข้อมูลสำคัญของรัฐบาลตกอยู่ในความเสี่ยง

    มัลแวร์ขโมยข้อมูลสามารถจับข้อมูลล็อกอินจากอุปกรณ์ที่ติดเชื้อ
    - ทำให้ ข้อมูลที่พนักงานใช้ในการทำงานอาจถูกนำไปใช้โดยผู้ไม่หวังดี

    Elon Musk ถูกวิจารณ์เกี่ยวกับบทบาทของเขาในรัฐบาลและธุรกิจส่วนตัว
    - มีข้อกังวลเกี่ยวกับ ความขัดแย้งทางผลประโยชน์ระหว่าง Tesla และ DOGE

    https://www.neowin.net/news/stolen-credentials-linked-to-compromised-doge-employee-found-circulating-online/
    ข้อมูลล็อกอินของพนักงาน DOGE ถูกขโมยและเผยแพร่บนออนไลน์ มีรายงานว่า ข้อมูลล็อกอินของ Kyle Schutt ซึ่งเป็น วิศวกรซอฟต์แวร์ที่ทำงานให้กับทั้ง CISA และ DOGE ถูกพบใน ฐานข้อมูลที่รวบรวมโดยมัลแวร์ขโมยข้อมูล ซึ่งอาจส่งผลกระทบต่อ ความปลอดภัยของระบบรัฐบาลสหรัฐฯ DOGE หรือ Department of Government Efficiency เป็นหน่วยงานใหม่ที่ มี Elon Musk เป็นหนึ่งในผู้นำ และได้รับสิทธิ์เข้าถึง ระบบการเงินของรัฐบาลกลาง เช่น ระบบการชำระเงินของกระทรวงการคลังสหรัฐฯ ซึ่งทำให้เกิดข้อกังวลด้าน ความปลอดภัยทางไซเบอร์และความเป็นส่วนตัวของข้อมูลประชาชน ✅ ข้อมูลล็อกอินของ Kyle Schutt ถูกพบในฐานข้อมูลที่รวบรวมโดยมัลแวร์ขโมยข้อมูล - อาจทำให้ ระบบของ CISA และ DOGE เสี่ยงต่อการถูกเจาะระบบ ✅ DOGE มีสิทธิ์เข้าถึงระบบการเงินของรัฐบาลกลาง - รวมถึง ระบบการชำระเงินของกระทรวงการคลังสหรัฐฯ ✅ Schutt เคยเข้าถึงระบบการเงินหลักของ FEMA ในเดือนกุมภาพันธ์ - อาจทำให้ ข้อมูลสำคัญของรัฐบาลตกอยู่ในความเสี่ยง ✅ มัลแวร์ขโมยข้อมูลสามารถจับข้อมูลล็อกอินจากอุปกรณ์ที่ติดเชื้อ - ทำให้ ข้อมูลที่พนักงานใช้ในการทำงานอาจถูกนำไปใช้โดยผู้ไม่หวังดี ✅ Elon Musk ถูกวิจารณ์เกี่ยวกับบทบาทของเขาในรัฐบาลและธุรกิจส่วนตัว - มีข้อกังวลเกี่ยวกับ ความขัดแย้งทางผลประโยชน์ระหว่าง Tesla และ DOGE https://www.neowin.net/news/stolen-credentials-linked-to-compromised-doge-employee-found-circulating-online/
    WWW.NEOWIN.NET
    Stolen credentials linked to compromised DOGE employee found circulating online
    A new report has surfaced that the credentials of a DOGE software engineer were present in multiple public dumps from info-stealer malware infections.
    0 ความคิดเห็น 0 การแบ่งปัน 405 มุมมอง 0 รีวิว
Pages Boosts