• Microsoft เปิดทางให้เกมเมอร์สาย Arm ได้เล่นเกม Xbox แบบติดตั้งจริง

    ก่อนหน้านี้ ถ้าใครใช้คอมพิวเตอร์ที่ใช้ชิป Arm เช่น Snapdragon X Elite หรือ Surface Laptop 7 แล้วอยากเล่นเกม Xbox บน Windows 11 ก็ต้องพึ่งพา “Xbox Cloud Gaming” เท่านั้น ซึ่งหมายความว่าต้องมีอินเทอร์เน็ตแรง ๆ และไม่สามารถเล่นแบบออฟไลน์ได้เลย

    แต่ตอนนี้ Microsoft ได้ปล่อยอัปเดตใหม่ให้กับแอป Xbox บน Windows 11 ที่ใช้ชิป Arm โดยเปิดให้ “ดาวน์โหลดเกมและเล่นแบบ native” ได้แล้ว!

    ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบสำหรับผู้ที่เข้าร่วมโปรแกรม Windows Insider และ Xbox Insider เท่านั้น โดยต้องอัปเดตแอป Xbox PC เป็นเวอร์ชัน 2508.1001.27.0 ขึ้นไป

    การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่องเล็ก ๆ เพราะมันเป็นสัญญาณว่า Microsoft กำลังเตรียมตัวรับมือกับการเปลี่ยนแปลงครั้งใหญ่ในฮาร์ดแวร์ โดยเฉพาะการมาของชิป Arm จาก Nvidia ที่ร่วมมือกับ MediaTek ซึ่งมีข่าวลือว่าจะเปิดตัวในปี 2025–2026 พร้อม GPU ระดับ RTX 5070!

    นอกจากนี้ Microsoft ยังร่วมมือกับ Epic Games เพื่อให้ระบบ Easy Anti-Cheat รองรับ Arm แล้ว ทำให้เกมออนไลน์หลายเกม เช่น Fortnite หรือ DOTA 2 สามารถเล่นได้บนเครื่อง Arm โดยไม่โดนบล็อกจากระบบป้องกันโกง

    แม้ว่า Arm จะยังไม่แรงเท่า x86 จาก Intel หรือ AMD แต่การพัฒนาเหล่านี้กำลังเปลี่ยนภาพของ “เกมเมอร์สายประหยัดพลังงาน” ให้กลายเป็นกลุ่มที่น่าจับตามองในอนาคต

    Microsoft เปิดให้เล่นเกม Xbox แบบ native บน Windows 11 ที่ใช้ชิป Arm
    ต้องเข้าร่วมโปรแกรม Windows Insider และ Xbox Insider
    ใช้แอป Xbox PC เวอร์ชัน 2508.1001.27.0 ขึ้นไป
    สามารถดาวน์โหลดเกมจาก Game Pass และเล่นแบบออฟไลน์ได้

    ความร่วมมือระหว่าง Windows และ Xbox เพื่อขยายเกมที่รองรับ
    Microsoft กำลังพัฒนาให้เกมใน Game Pass เล่นได้บน Arm มากขึ้น
    มีการปรับปรุงระบบเพื่อรองรับ anti-cheat บน Arm เช่น Easy Anti-Cheat

    การมาของชิป Arm จาก Nvidia อาจเปลี่ยนเกมในตลาด PC
    Nvidia ร่วมมือกับ MediaTek พัฒนาชิป N1X และ N1 สำหรับ Windows
    N1X อาจมี GPU ระดับ Blackwell เทียบเท่า RTX 5070
    คาดว่าจะเปิดตัวในช่วงปลายปี 2025 ถึงต้นปี 2026

    https://www.tomshardware.com/video-games/pc-gaming/microsoft-brings-native-xbox-app-gaming-to-windows-on-arm-pcs-hints-at-bigger-hardware-shift-ahead
    🎮 Microsoft เปิดทางให้เกมเมอร์สาย Arm ได้เล่นเกม Xbox แบบติดตั้งจริง ก่อนหน้านี้ ถ้าใครใช้คอมพิวเตอร์ที่ใช้ชิป Arm เช่น Snapdragon X Elite หรือ Surface Laptop 7 แล้วอยากเล่นเกม Xbox บน Windows 11 ก็ต้องพึ่งพา “Xbox Cloud Gaming” เท่านั้น ซึ่งหมายความว่าต้องมีอินเทอร์เน็ตแรง ๆ และไม่สามารถเล่นแบบออฟไลน์ได้เลย แต่ตอนนี้ Microsoft ได้ปล่อยอัปเดตใหม่ให้กับแอป Xbox บน Windows 11 ที่ใช้ชิป Arm โดยเปิดให้ “ดาวน์โหลดเกมและเล่นแบบ native” ได้แล้ว! 🎉 ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบสำหรับผู้ที่เข้าร่วมโปรแกรม Windows Insider และ Xbox Insider เท่านั้น โดยต้องอัปเดตแอป Xbox PC เป็นเวอร์ชัน 2508.1001.27.0 ขึ้นไป การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่องเล็ก ๆ เพราะมันเป็นสัญญาณว่า Microsoft กำลังเตรียมตัวรับมือกับการเปลี่ยนแปลงครั้งใหญ่ในฮาร์ดแวร์ โดยเฉพาะการมาของชิป Arm จาก Nvidia ที่ร่วมมือกับ MediaTek ซึ่งมีข่าวลือว่าจะเปิดตัวในปี 2025–2026 พร้อม GPU ระดับ RTX 5070! นอกจากนี้ Microsoft ยังร่วมมือกับ Epic Games เพื่อให้ระบบ Easy Anti-Cheat รองรับ Arm แล้ว ทำให้เกมออนไลน์หลายเกม เช่น Fortnite หรือ DOTA 2 สามารถเล่นได้บนเครื่อง Arm โดยไม่โดนบล็อกจากระบบป้องกันโกง แม้ว่า Arm จะยังไม่แรงเท่า x86 จาก Intel หรือ AMD แต่การพัฒนาเหล่านี้กำลังเปลี่ยนภาพของ “เกมเมอร์สายประหยัดพลังงาน” ให้กลายเป็นกลุ่มที่น่าจับตามองในอนาคต ✅ Microsoft เปิดให้เล่นเกม Xbox แบบ native บน Windows 11 ที่ใช้ชิป Arm ➡️ ต้องเข้าร่วมโปรแกรม Windows Insider และ Xbox Insider ➡️ ใช้แอป Xbox PC เวอร์ชัน 2508.1001.27.0 ขึ้นไป ➡️ สามารถดาวน์โหลดเกมจาก Game Pass และเล่นแบบออฟไลน์ได้ ✅ ความร่วมมือระหว่าง Windows และ Xbox เพื่อขยายเกมที่รองรับ ➡️ Microsoft กำลังพัฒนาให้เกมใน Game Pass เล่นได้บน Arm มากขึ้น ➡️ มีการปรับปรุงระบบเพื่อรองรับ anti-cheat บน Arm เช่น Easy Anti-Cheat ✅ การมาของชิป Arm จาก Nvidia อาจเปลี่ยนเกมในตลาด PC ➡️ Nvidia ร่วมมือกับ MediaTek พัฒนาชิป N1X และ N1 สำหรับ Windows ➡️ N1X อาจมี GPU ระดับ Blackwell เทียบเท่า RTX 5070 ➡️ คาดว่าจะเปิดตัวในช่วงปลายปี 2025 ถึงต้นปี 2026 https://www.tomshardware.com/video-games/pc-gaming/microsoft-brings-native-xbox-app-gaming-to-windows-on-arm-pcs-hints-at-bigger-hardware-shift-ahead
    0 ความคิดเห็น 0 การแบ่งปัน 73 มุมมอง 0 รีวิว
  • ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น

    ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล”

    จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน

    หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก

    และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน

    นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์

    แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด

    GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล
    การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง
    GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า

    ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน
    ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน
    การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง

    ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI
    ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง
    ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน

    ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI
    ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล
    การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก

    คำเตือนเกี่ยวกับการใช้พลังงานของ AI
    การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร
    ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming

    ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม
    บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า
    การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity
    ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล” จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์ แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด ✅ GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล ➡️ การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง ➡️ GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า ✅ ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน ➡️ ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน ➡️ การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง ✅ ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI ➡️ ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง ➡️ ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน ✅ ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI ➡️ ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล ➡️ การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก ‼️ คำเตือนเกี่ยวกับการใช้พลังงานของ AI ⛔ การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร ⛔ ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming ‼️ ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม ⛔ บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า ⛔ การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์ https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity
    0 ความคิดเห็น 0 การแบ่งปัน 83 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไอที: จากเงินเดือนแสนห้า สู่การสมัครงานที่ Chipotle

    ย้อนกลับไปเมื่อสิบปีก่อน ถ้าคุณเรียนจบด้านคอมพิวเตอร์ วิทยาการข้อมูล หรือวิศวกรรมซอฟต์แวร์ คุณแทบจะเลือกได้เลยว่าจะทำงานที่ไหน เงินเดือนเริ่มต้นทะลุ $100,000 พร้อมโบนัสและหุ้นอีกหลายหมื่นดอลลาร์ หลายคนจึงมุ่งหน้าเข้าสู่สายนี้ด้วยความหวังว่าจะได้งานดี เงินดี และชีวิตมั่นคง

    แต่ในปี 2025 ภาพนั้นกลับเปลี่ยนไปอย่างสิ้นเชิง

    นักศึกษาจบใหม่อย่าง Manasi Mishra จากมหาวิทยาลัย Purdue เล่าว่าเธอเรียนเขียนโค้ดมาตั้งแต่เด็ก ทำเว็บไซต์ตั้งแต่ประถม และตั้งใจเรียนสายคอมเต็มที่ แต่หลังจากจบการศึกษา เธอกลับไม่ได้รับข้อเสนอจากบริษัทเทคโนโลยีเลย มีเพียง Chipotle ร้านอาหารที่เรียกเธอไปสัมภาษณ์

    เหตุผลหลักคือบริษัทเทคโนโลยีใหญ่ ๆ อย่าง Amazon, Microsoft, Meta และ Intel ต่างลดจำนวนพนักงาน และหันไปใช้เครื่องมือ AI ที่สามารถเขียนโค้ดได้เอง เช่น GitHub Copilot, CodeRabbit หรือ Devin จาก Cognition AI ซึ่งสามารถเขียนและดีบักโค้ดได้จากคำสั่งภาษาธรรมชาติ

    ผลคือ ตำแหน่งงานระดับเริ่มต้นที่เคยเปิดรับนักศึกษาจบใหม่ ถูกแทนที่ด้วยระบบอัตโนมัติ และทำให้คนรุ่นใหม่ต้องหางานนอกสายที่เรียนมา บางคนสมัครงานที่ McDonald’s แต่ยังถูกปฏิเสธเพราะ “ไม่มีประสบการณ์”

    แม้จะมีความหวังว่า AI จะสร้างโอกาสใหม่ ๆ แต่ในระยะสั้น นักศึกษาจบใหม่กำลังเผชิญกับความท้าทายครั้งใหญ่ ทั้งจากการแข่งขันที่รุนแรง การคัดกรองด้วยระบบอัตโนมัติ และความรู้สึกว่าถูก “หลอก” ให้เรียนในสายที่ไม่มีงานรองรับ

    ความเปลี่ยนแปลงในตลาดแรงงานสายเทคโนโลยี
    บริษัทเทคโนโลยีใหญ่ ๆ ลดจำนวนพนักงานและหันไปใช้ AI coding tools
    ตำแหน่งงานระดับเริ่มต้นถูกลดลงอย่างมาก ทำให้นักศึกษาจบใหม่หางานยาก

    ความคาดหวังในอดีตที่ไม่เป็นจริง
    นักศึกษาถูกกระตุ้นให้เรียนเขียนโค้ดด้วยสัญญาว่าจะได้งานเงินเดือนสูง
    จำนวนผู้เรียนสายคอมพิวเตอร์เพิ่มขึ้นกว่าเท่าตัวในช่วง 10 ปีที่ผ่านมา

    การใช้ AI ในการเขียนโค้ดและคัดกรองผู้สมัคร
    เครื่องมืออย่าง GitHub Copilot, CodeRabbit, Devin สามารถเขียนโค้ดได้จากคำสั่งภาษา
    บริษัทใช้ AI คัดกรองใบสมัคร ทำให้ผู้สมัครถูกปฏิเสธโดยไม่มีโอกาสแสดงความสามารถ

    ความพยายามปรับตัวของนักศึกษาจบใหม่
    บางคนหันไปเน้นทักษะมนุษย์ เช่น ความคิดสร้างสรรค์ เพื่อให้โดดเด่น
    บางคนเปลี่ยนสายงาน เช่น Mishra ที่หันไปทำงานด้านการขายเทคโนโลยี

    https://www.thestar.com.my/tech/tech-news/2025/08/14/goodbye-us165000-tech-jobs-student-coders-seek-work-at-chipotle
    🎙️เรื่องเล่าจากโลกไอที: จากเงินเดือนแสนห้า สู่การสมัครงานที่ Chipotle ย้อนกลับไปเมื่อสิบปีก่อน ถ้าคุณเรียนจบด้านคอมพิวเตอร์ วิทยาการข้อมูล หรือวิศวกรรมซอฟต์แวร์ คุณแทบจะเลือกได้เลยว่าจะทำงานที่ไหน เงินเดือนเริ่มต้นทะลุ $100,000 พร้อมโบนัสและหุ้นอีกหลายหมื่นดอลลาร์ หลายคนจึงมุ่งหน้าเข้าสู่สายนี้ด้วยความหวังว่าจะได้งานดี เงินดี และชีวิตมั่นคง แต่ในปี 2025 ภาพนั้นกลับเปลี่ยนไปอย่างสิ้นเชิง นักศึกษาจบใหม่อย่าง Manasi Mishra จากมหาวิทยาลัย Purdue เล่าว่าเธอเรียนเขียนโค้ดมาตั้งแต่เด็ก ทำเว็บไซต์ตั้งแต่ประถม และตั้งใจเรียนสายคอมเต็มที่ แต่หลังจากจบการศึกษา เธอกลับไม่ได้รับข้อเสนอจากบริษัทเทคโนโลยีเลย มีเพียง Chipotle ร้านอาหารที่เรียกเธอไปสัมภาษณ์ เหตุผลหลักคือบริษัทเทคโนโลยีใหญ่ ๆ อย่าง Amazon, Microsoft, Meta และ Intel ต่างลดจำนวนพนักงาน และหันไปใช้เครื่องมือ AI ที่สามารถเขียนโค้ดได้เอง เช่น GitHub Copilot, CodeRabbit หรือ Devin จาก Cognition AI ซึ่งสามารถเขียนและดีบักโค้ดได้จากคำสั่งภาษาธรรมชาติ ผลคือ ตำแหน่งงานระดับเริ่มต้นที่เคยเปิดรับนักศึกษาจบใหม่ ถูกแทนที่ด้วยระบบอัตโนมัติ และทำให้คนรุ่นใหม่ต้องหางานนอกสายที่เรียนมา บางคนสมัครงานที่ McDonald’s แต่ยังถูกปฏิเสธเพราะ “ไม่มีประสบการณ์” แม้จะมีความหวังว่า AI จะสร้างโอกาสใหม่ ๆ แต่ในระยะสั้น นักศึกษาจบใหม่กำลังเผชิญกับความท้าทายครั้งใหญ่ ทั้งจากการแข่งขันที่รุนแรง การคัดกรองด้วยระบบอัตโนมัติ และความรู้สึกว่าถูก “หลอก” ให้เรียนในสายที่ไม่มีงานรองรับ ✅ ความเปลี่ยนแปลงในตลาดแรงงานสายเทคโนโลยี ➡️ บริษัทเทคโนโลยีใหญ่ ๆ ลดจำนวนพนักงานและหันไปใช้ AI coding tools ➡️ ตำแหน่งงานระดับเริ่มต้นถูกลดลงอย่างมาก ทำให้นักศึกษาจบใหม่หางานยาก ✅ ความคาดหวังในอดีตที่ไม่เป็นจริง ➡️ นักศึกษาถูกกระตุ้นให้เรียนเขียนโค้ดด้วยสัญญาว่าจะได้งานเงินเดือนสูง ➡️ จำนวนผู้เรียนสายคอมพิวเตอร์เพิ่มขึ้นกว่าเท่าตัวในช่วง 10 ปีที่ผ่านมา ✅ การใช้ AI ในการเขียนโค้ดและคัดกรองผู้สมัคร ➡️ เครื่องมืออย่าง GitHub Copilot, CodeRabbit, Devin สามารถเขียนโค้ดได้จากคำสั่งภาษา ➡️ บริษัทใช้ AI คัดกรองใบสมัคร ทำให้ผู้สมัครถูกปฏิเสธโดยไม่มีโอกาสแสดงความสามารถ ✅ ความพยายามปรับตัวของนักศึกษาจบใหม่ ➡️ บางคนหันไปเน้นทักษะมนุษย์ เช่น ความคิดสร้างสรรค์ เพื่อให้โดดเด่น ➡️ บางคนเปลี่ยนสายงาน เช่น Mishra ที่หันไปทำงานด้านการขายเทคโนโลยี https://www.thestar.com.my/tech/tech-news/2025/08/14/goodbye-us165000-tech-jobs-student-coders-seek-work-at-chipotle
    WWW.THESTAR.COM.MY
    Goodbye, US$165,000 tech jobs. Student coders seek work at Chipotle.
    As companies like Amazon and Microsoft lay off workers and embrace A.I. coding tools, computer science graduates say they're struggling to land tech jobs.
    0 ความคิดเห็น 0 การแบ่งปัน 74 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: Intel เปิดตัวแคมเปญ “USAI” — เมื่อชิปกลายเป็นเรื่องของความมั่นคงชาติ

    Intel กำลังผลักดันแคมเปญใหม่ชื่อว่า “USAI” (United States Artificial Intelligence) เพื่อแสดงจุดยืนว่าเป็นบริษัทเดียวที่ผลิตชิปขั้นสูงบนแผ่นดินอเมริกา โดยเน้นความรักชาติ ความมั่นคง และความร่วมมือกับรัฐบาลสหรัฐฯ ทั้งในภาคพลเรือนและทหาร

    แคมเปญนี้เกิดขึ้นหลังจากซีอีโอคนใหม่ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน ซึ่งสร้างความกังวลด้านความมั่นคง Intel จึงต้องแสดงให้เห็นถึงความจงรักภักดีต่อสหรัฐฯ โดยเฉพาะในยุคที่ TSMC และ Samsung ครองตลาดชิปขั้นสูง

    Intel ยังประกาศความร่วมมือกับ EdgeRunner AI เพื่อพัฒนา “AI agents” สำหรับกองทัพสหรัฐฯ โดยใช้ชิปที่ทำงานแบบ air-gapped (ไม่เชื่อมต่ออินเทอร์เน็ต) เพื่อความปลอดภัยสูงสุด

    แม้จะมีความพยายามสร้างภาพลักษณ์ใหม่ แต่ Intel ยังเผชิญกับความท้าทายหลายด้าน ทั้งการล้าหลังด้านเทคโนโลยี การสูญเสียบุคลากรสำคัญ และความไม่มั่นใจจากพนักงานภายในองค์กร

    Intel เปิดตัวแคมเปญ “USAI” เพื่อแสดงความจงรักภักดีต่อสหรัฐฯ
    เน้นการผลิตชิปขั้นสูงบนแผ่นดินอเมริกา

    ซีอีโอ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน
    พบกับประธานาธิบดี Trump เพื่อเคลียร์ข้อสงสัย

    Intel ร่วมมือกับ EdgeRunner AI พัฒนา AI agents สำหรับกองทัพ
    ใช้ชิปแบบ air-gapped เพื่อความปลอดภัย

    Intel ระบุว่าเป็นบริษัทเดียวในสหรัฐฯ ที่ผลิตชิปขั้นสูงเอง
    ต่างจากบริษัทอื่นที่พึ่งพาโรงงานในต่างประเทศ

    แคมเปญ USAI มุ่งสร้างภาพลักษณ์ใหม่หลังถูก TSMC แซงหน้า
    หวังดึงความเชื่อมั่นจากรัฐบาลและตลาด

    https://wccftech.com/intel-unveils-usai-narrative-emphasizing-its-patriotic-mission/
    🇺🇸🔧 เล่าให้ฟังใหม่: Intel เปิดตัวแคมเปญ “USAI” — เมื่อชิปกลายเป็นเรื่องของความมั่นคงชาติ Intel กำลังผลักดันแคมเปญใหม่ชื่อว่า “USAI” (United States Artificial Intelligence) เพื่อแสดงจุดยืนว่าเป็นบริษัทเดียวที่ผลิตชิปขั้นสูงบนแผ่นดินอเมริกา โดยเน้นความรักชาติ ความมั่นคง และความร่วมมือกับรัฐบาลสหรัฐฯ ทั้งในภาคพลเรือนและทหาร แคมเปญนี้เกิดขึ้นหลังจากซีอีโอคนใหม่ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน ซึ่งสร้างความกังวลด้านความมั่นคง Intel จึงต้องแสดงให้เห็นถึงความจงรักภักดีต่อสหรัฐฯ โดยเฉพาะในยุคที่ TSMC และ Samsung ครองตลาดชิปขั้นสูง Intel ยังประกาศความร่วมมือกับ EdgeRunner AI เพื่อพัฒนา “AI agents” สำหรับกองทัพสหรัฐฯ โดยใช้ชิปที่ทำงานแบบ air-gapped (ไม่เชื่อมต่ออินเทอร์เน็ต) เพื่อความปลอดภัยสูงสุด แม้จะมีความพยายามสร้างภาพลักษณ์ใหม่ แต่ Intel ยังเผชิญกับความท้าทายหลายด้าน ทั้งการล้าหลังด้านเทคโนโลยี การสูญเสียบุคลากรสำคัญ และความไม่มั่นใจจากพนักงานภายในองค์กร ✅ Intel เปิดตัวแคมเปญ “USAI” เพื่อแสดงความจงรักภักดีต่อสหรัฐฯ ➡️ เน้นการผลิตชิปขั้นสูงบนแผ่นดินอเมริกา ✅ ซีอีโอ Lip-Bu Tan ถูกตั้งคำถามเรื่องความสัมพันธ์กับบริษัทจีน ➡️ พบกับประธานาธิบดี Trump เพื่อเคลียร์ข้อสงสัย ✅ Intel ร่วมมือกับ EdgeRunner AI พัฒนา AI agents สำหรับกองทัพ ➡️ ใช้ชิปแบบ air-gapped เพื่อความปลอดภัย ✅ Intel ระบุว่าเป็นบริษัทเดียวในสหรัฐฯ ที่ผลิตชิปขั้นสูงเอง ➡️ ต่างจากบริษัทอื่นที่พึ่งพาโรงงานในต่างประเทศ ✅ แคมเปญ USAI มุ่งสร้างภาพลักษณ์ใหม่หลังถูก TSMC แซงหน้า ➡️ หวังดึงความเชื่อมั่นจากรัฐบาลและตลาด https://wccftech.com/intel-unveils-usai-narrative-emphasizing-its-patriotic-mission/
    WCCFTECH.COM
    Intel Unveils ‘USAI’ Narrative, Emphasizing Its Patriotic Mission and Positioning Team Blue as America’s Sole Option for Advanced Chip Manufacturing
    Intel is now in the pursuit of showcasing its commitment to US manufacturing, especially after the recent political situation.
    0 ความคิดเห็น 0 การแบ่งปัน 117 มุมมอง 0 รีวิว
  • เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน

    ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่

    APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake

    จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย

    Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด

    Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร
    แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป

    APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม
    โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์

    APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023
    และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200

    APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู
    ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ

    Intel ใช้ระบบทดสอบแบบ stock configuration
    หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล

    รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม
    แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2

    มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache
    เพื่อแข่งกับ Ryzen X3D ในด้านเกม

    https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    🎮⚙️ เล่าให้ฟังใหม่: Intel APO — ซอฟต์แวร์ลับที่ช่วยเร่งเฟรมเกม แต่ยังไม่ใช่คำตอบสำหรับทุกคน ในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรและลดจำนวนพนักงาน หลายโครงการถูกยกเลิกหรือชะลอ แต่หนึ่งในเทคโนโลยีที่ยังคงอยู่คือ Application Optimization หรือ APO ซึ่งเป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกมบนซีพียู Intel รุ่นใหม่ APO ไม่ใช่แค่การปิด E-core แล้วใช้ P-core อย่างเดียว แต่เป็นระบบที่ใช้การจัดสรรงานแบบไดนามิก เพื่อให้เกมใช้ทรัพยากรของซีพียูได้อย่างเหมาะสมที่สุด โดยเฉพาะในซีพียูแบบ hybrid ที่มีทั้ง P-core และ E-core เช่น Raptor Lake และ Arrow Lake จากการทดสอบจริงในเกม Metro Exodus พบว่า APO สามารถเพิ่มเฟรมเรตได้ถึง 26% เมื่อใช้กราฟิกระดับต่ำที่เน้นการทำงานของซีพียู แต่เมื่อปรับกราฟิกสูงขึ้น APO ให้ผลน้อยลง และในบางเกมอาจไม่มีผลเลย Intel ยืนยันว่าจะยังคงอัปเดต APO ทุกไตรมาส โดยเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไปเท่านั้น เช่น Core Ultra 200 และ Nova Lake ที่จะเปิดตัวในปี 2026 ส่วนซีพียูรุ่นเก่าอย่าง Alder Lake และ Raptor Lake จะได้รับการสนับสนุนแบบจำกัด ✅ Intel ยืนยันว่าจะยังคงพัฒนา APO แม้มีการปรับโครงสร้างองค์กร ➡️ แต่จะเน้นเฉพาะซีพียูรุ่นปัจจุบันและรุ่นถัดไป ✅ APO เป็นซอฟต์แวร์ที่ช่วยเพิ่มประสิทธิภาพการเล่นเกม ➡️ โดยจัดสรรงานระหว่าง P-core และ E-core แบบเรียลไทม์ ✅ APO เปิดตัวพร้อม Raptor Lake Refresh ในปี 2023 ➡️ และขยายไปยัง Alder Lake, Raptor Lake และ Core Ultra 200 ✅ APO ไม่ใช่ระบบที่ใช้ได้กับทุกเกมหรือทุกซีพียู ➡️ ต้องปรับแต่งเฉพาะรุ่นและเกมที่รองรับ ✅ Intel ใช้ระบบทดสอบแบบ stock configuration ➡️ หากผู้ใช้โอเวอร์คล็อกหรือปรับพลังงาน อาจไม่เห็นผล ✅ รายชื่อเกมที่รองรับมีน้อยกว่า 50 เกม ➡️ แต่รวมถึงเกมดังอย่าง Cyberpunk 2077 และ Counter-Strike 2 ✅ มีข่าวลือว่า Nova Lake อาจมี bLLC คล้าย AMD 3D V-Cache ➡️ เพื่อแข่งกับ Ryzen X3D ในด้านเกม https://www.tomshardware.com/pc-components/cpus/intel-promises-to-keep-updating-its-game-boosting-software-despite-recent-delays-apo-will-only-focus-on-current-and-upcoming-intel-cpus
    0 ความคิดเห็น 0 การแบ่งปัน 116 มุมมอง 0 รีวิว
  • Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix

    ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก

    LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า

    ฟีเจอร์เด่น ได้แก่:
    - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น
    - รองรับ speculative decoding และ torch.compile แบบ experimental
    - รองรับ embedding, rerank model และ multi-modal model
    - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้

    Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ

    Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix
    เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว

    รองรับ multi-GPU scaling และ PCIe P2P data transfer
    เพิ่มประสิทธิภาพสูงสุดถึง 80%

    ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B

    มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile
    ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล

    รองรับ embedding, rerank model และ multi-modal model
    ขยายขอบเขตการใช้งาน AI ได้หลากหลาย

    มีระบบ XPU Manager สำหรับจัดการ GPU
    ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้

    เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้
    รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่

    Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU
    ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+

    ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack
    ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น

    มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร
    ลดความเสี่ยงจากการทำงานผิดพลาด

    Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้
    โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า

    ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental
    เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร

    การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม
    หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ

    Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่
    ต้องรอรุ่น hardened และ full feature set ใน Q4

    การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม
    เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่

    https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    🧠⚙️ Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า ฟีเจอร์เด่น ได้แก่: - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น - รองรับ speculative decoding และ torch.compile แบบ experimental - รองรับ embedding, rerank model และ multi-modal model - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้ Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ ✅ Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix ➡️ เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว ✅ รองรับ multi-GPU scaling และ PCIe P2P data transfer ➡️ เพิ่มประสิทธิภาพสูงสุดถึง 80% ✅ ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens ➡️ ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B ✅ มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile ➡️ ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล ✅ รองรับ embedding, rerank model และ multi-modal model ➡️ ขยายขอบเขตการใช้งาน AI ได้หลากหลาย ✅ มีระบบ XPU Manager สำหรับจัดการ GPU ➡️ ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้ ✅ เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้ ➡️ รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่ ✅ Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU ➡️ ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+ ✅ ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack ➡️ ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น ✅ มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร ➡️ ลดความเสี่ยงจากการทำงานผิดพลาด ✅ Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้ ➡️ โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า ‼️ ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental ⛔ เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร ‼️ การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม ⛔ หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ ‼️ Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่ ⛔ ต้องรอรุ่น hardened และ full feature set ใน Q4 ‼️ การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม ⛔ เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่ https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    WCCFTECH.COM
    Intel's Project Battlematrix For Arc Pro GPUs Gets First Major Software Update: LLM Scaler v1.0 With Up To 80% Performance Uplift, Enhanced Support & More
    Intel has released the first major software for its Arc Pro "Project Battlematrix" solution, the LLM Scaler v1.0, with massive improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโรงงาน Intel: เมื่อยักษ์ใหญ่ต้องสู้เพื่อความอยู่รอด

    Intel เคยเป็นผู้นำในโลกของชิปคอมพิวเตอร์ แต่วันนี้กลับต้องเผชิญกับแรงกดดันรอบด้าน ทั้งจากคู่แข่งอย่าง TSMC และ AMD, ปัญหาด้านเทคโนโลยีการผลิต, ความล้มเหลวในการออกแบบชิปใหม่, และแรงกดดันทางการเมืองและการเงิน

    หนึ่งในความหวังของ Intel คือเทคโนโลยีการผลิตใหม่ที่เรียกว่า “18A” ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร ที่มาพร้อมนวัตกรรม RibbonFET และ PowerVia เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน แต่การผลิตจริงกลับเต็มไปด้วยปัญหา “yield” หรืออัตราชิปที่ใช้งานได้ต่ำมาก บางช่วงอยู่ที่เพียง 5–10% เท่านั้น ซึ่งห่างไกลจากเป้าหมาย 70–80% ที่จำเป็นต่อการทำกำไร

    Intel จึงต้องชะลอการเปิดตัวชิป Panther Lake ที่ใช้ 18A ไปเป็นปี 2026 และอาจต้องหันไปพัฒนาเทคโนโลยีใหม่อย่าง “14A” แทน หากไม่สามารถดึงลูกค้าภายนอกมาใช้บริการ foundry ได้

    ทั้งหมดนี้เกิดขึ้นภายใต้ยุทธศาสตร์ IDM 2.0 ที่เปิดตัวในปี 2021 โดยอดีต CEO Pat Gelsinger ซึ่งตั้งเป้าให้ Intel กลับมาเป็นผู้นำด้านการผลิตชิปอีกครั้ง ทั้งในสหรัฐฯ และยุโรป แต่การเปลี่ยนแปลงนี้กลับนำไปสู่การปลดพนักงานกว่า 25,000 คน และการยกเลิกโครงการโรงงานหลายแห่งในเยอรมนีและโปแลนด์

    CEO คนใหม่ Lip-Bu Tan จึงต้องนำพา Intel ผ่านช่วงเวลาแห่งความเปลี่ยนแปลง ด้วยปรัชญา “ไม่มีเช็คเปล่า” และการเน้นผลลัพธ์มากกว่าการตลาด

    https://www.tomshardware.com/pc-components/cpus/all-the-pains-of-intel-from-cpu-design-and-process-technologies-to-internal-clashes-and-political-pressure
    🧠⚙️ เรื่องเล่าจากโรงงาน Intel: เมื่อยักษ์ใหญ่ต้องสู้เพื่อความอยู่รอด Intel เคยเป็นผู้นำในโลกของชิปคอมพิวเตอร์ แต่วันนี้กลับต้องเผชิญกับแรงกดดันรอบด้าน ทั้งจากคู่แข่งอย่าง TSMC และ AMD, ปัญหาด้านเทคโนโลยีการผลิต, ความล้มเหลวในการออกแบบชิปใหม่, และแรงกดดันทางการเมืองและการเงิน หนึ่งในความหวังของ Intel คือเทคโนโลยีการผลิตใหม่ที่เรียกว่า “18A” ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร ที่มาพร้อมนวัตกรรม RibbonFET และ PowerVia เพื่อเพิ่มประสิทธิภาพและลดการใช้พลังงาน แต่การผลิตจริงกลับเต็มไปด้วยปัญหา “yield” หรืออัตราชิปที่ใช้งานได้ต่ำมาก บางช่วงอยู่ที่เพียง 5–10% เท่านั้น ซึ่งห่างไกลจากเป้าหมาย 70–80% ที่จำเป็นต่อการทำกำไร Intel จึงต้องชะลอการเปิดตัวชิป Panther Lake ที่ใช้ 18A ไปเป็นปี 2026 และอาจต้องหันไปพัฒนาเทคโนโลยีใหม่อย่าง “14A” แทน หากไม่สามารถดึงลูกค้าภายนอกมาใช้บริการ foundry ได้ ทั้งหมดนี้เกิดขึ้นภายใต้ยุทธศาสตร์ IDM 2.0 ที่เปิดตัวในปี 2021 โดยอดีต CEO Pat Gelsinger ซึ่งตั้งเป้าให้ Intel กลับมาเป็นผู้นำด้านการผลิตชิปอีกครั้ง ทั้งในสหรัฐฯ และยุโรป แต่การเปลี่ยนแปลงนี้กลับนำไปสู่การปลดพนักงานกว่า 25,000 คน และการยกเลิกโครงการโรงงานหลายแห่งในเยอรมนีและโปแลนด์ CEO คนใหม่ Lip-Bu Tan จึงต้องนำพา Intel ผ่านช่วงเวลาแห่งความเปลี่ยนแปลง ด้วยปรัชญา “ไม่มีเช็คเปล่า” และการเน้นผลลัพธ์มากกว่าการตลาด https://www.tomshardware.com/pc-components/cpus/all-the-pains-of-intel-from-cpu-design-and-process-technologies-to-internal-clashes-and-political-pressure
    0 ความคิดเห็น 0 การแบ่งปัน 157 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชั้นในของชิป: CT scan เผยความลับของ Intel 386 ที่ซ่อนอยู่ใต้เซรามิก

    ในยุคที่ชิปสมัยใหม่มีขนาดเล็กลงและซับซ้อนขึ้นเรื่อย ๆ Ken Shirriff นักวิจัยด้านฮาร์ดแวร์ได้ใช้เทคโนโลยี CT scan เพื่อเปิดเผยโครงสร้างภายในของ Intel 386—ชิประดับตำนานจากยุค 1980 ที่ถือเป็นจุดเริ่มต้นของ x86 แบบ 32 บิต

    แม้ภายนอกจะดูเหมือนเซรามิกสีเทาพร้อมขา 132 ขา แต่ภายในกลับซ่อนวิศวกรรมระดับสูงไว้มากมาย โดย CT scan ให้ภาพ X-ray หลายร้อยชั้นที่สามารถรวมเป็นโมเดล 3D เพื่อหมุน ดู และ “ลอก” ชั้นต่าง ๆ ได้แบบดิจิทัล

    สิ่งที่พบมีตั้งแต่สายทองคำขนาด 35 ไมโครเมตรที่เชื่อมระหว่าง die กับแผงวงจร ไปจนถึงโครงสร้างวงจร 6 ชั้นที่ซ่อนอยู่ภายในเซรามิก ซึ่งประกอบด้วย 2 ชั้นสำหรับสัญญาณ และ 4 ชั้นสำหรับพลังงานและกราวด์ โดยใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่นของการเชื่อมต่อ

    นอกจากนี้ยังพบสายไฟข้างชิปที่ใช้ในขั้นตอนชุบทอง ซึ่งปกติจะไม่ปรากฏให้เห็น รวมถึงการออกแบบที่รองรับการกระจายความร้อนด้วยอีพ็อกซีผสมเงินใต้ die เพื่อให้ชิปทำงานได้เสถียร

    ที่น่าสนใจคือ มีขาบางขาในแพ็กเกจที่ระบุว่า “No Connect” แต่จริง ๆ แล้วมีการเชื่อมต่อภายใน die ซึ่งอาจใช้สำหรับการทดสอบหรือฟังก์ชันลับที่ Intel ไม่เคยเปิดเผย

    Ken Shirriff ใช้ CT scan สำรวจโครงสร้างภายในของ Intel 386 CPU
    สร้างโมเดล 3D ที่สามารถหมุนและลอกชั้นต่าง ๆ ได้แบบดิจิทัล

    พบสายทองคำขนาด 35 µm เชื่อมระหว่าง die กับแผงวงจร
    บางจุดมีถึง 5 เส้นเพื่อรองรับกระแสไฟสูง

    แพ็กเกจภายในเป็นวงจร 6 ชั้น: 2 ชั้นสัญญาณ + 4 ชั้นพลังงาน
    ใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่น

    พบสายไฟด้านข้างที่ใช้ชุบทองในขั้นตอนการผลิต
    ยืนยันด้วยการขัดเซรามิกให้ตรงกับภาพ CT

    ใต้ die มีอีพ็อกซีผสมเงินเพื่อระบายความร้อนและเชื่อมกราวด์
    ช่วยให้ชิปทำงานได้เสถียรภายใต้โหลด

    พบขา “No Connect” ที่มีการเชื่อมต่อภายใน die จริง
    อาจใช้สำหรับการทดสอบหรือฟังก์ชันลับของ Intel

    https://www.tomshardware.com/pc-components/cpus/ct-scan-peels-back-the-layers-of-time-to-reveal-the-engineering-within-intels-iconic-386-cpu-exposing-intricate-pin-mapping-hidden-power-planes-and-more
    🔬💾 เรื่องเล่าจากชั้นในของชิป: CT scan เผยความลับของ Intel 386 ที่ซ่อนอยู่ใต้เซรามิก ในยุคที่ชิปสมัยใหม่มีขนาดเล็กลงและซับซ้อนขึ้นเรื่อย ๆ Ken Shirriff นักวิจัยด้านฮาร์ดแวร์ได้ใช้เทคโนโลยี CT scan เพื่อเปิดเผยโครงสร้างภายในของ Intel 386—ชิประดับตำนานจากยุค 1980 ที่ถือเป็นจุดเริ่มต้นของ x86 แบบ 32 บิต แม้ภายนอกจะดูเหมือนเซรามิกสีเทาพร้อมขา 132 ขา แต่ภายในกลับซ่อนวิศวกรรมระดับสูงไว้มากมาย โดย CT scan ให้ภาพ X-ray หลายร้อยชั้นที่สามารถรวมเป็นโมเดล 3D เพื่อหมุน ดู และ “ลอก” ชั้นต่าง ๆ ได้แบบดิจิทัล สิ่งที่พบมีตั้งแต่สายทองคำขนาด 35 ไมโครเมตรที่เชื่อมระหว่าง die กับแผงวงจร ไปจนถึงโครงสร้างวงจร 6 ชั้นที่ซ่อนอยู่ภายในเซรามิก ซึ่งประกอบด้วย 2 ชั้นสำหรับสัญญาณ และ 4 ชั้นสำหรับพลังงานและกราวด์ โดยใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่นของการเชื่อมต่อ นอกจากนี้ยังพบสายไฟข้างชิปที่ใช้ในขั้นตอนชุบทอง ซึ่งปกติจะไม่ปรากฏให้เห็น รวมถึงการออกแบบที่รองรับการกระจายความร้อนด้วยอีพ็อกซีผสมเงินใต้ die เพื่อให้ชิปทำงานได้เสถียร ที่น่าสนใจคือ มีขาบางขาในแพ็กเกจที่ระบุว่า “No Connect” แต่จริง ๆ แล้วมีการเชื่อมต่อภายใน die ซึ่งอาจใช้สำหรับการทดสอบหรือฟังก์ชันลับที่ Intel ไม่เคยเปิดเผย ✅ Ken Shirriff ใช้ CT scan สำรวจโครงสร้างภายในของ Intel 386 CPU ➡️ สร้างโมเดล 3D ที่สามารถหมุนและลอกชั้นต่าง ๆ ได้แบบดิจิทัล ✅ พบสายทองคำขนาด 35 µm เชื่อมระหว่าง die กับแผงวงจร ➡️ บางจุดมีถึง 5 เส้นเพื่อรองรับกระแสไฟสูง ✅ แพ็กเกจภายในเป็นวงจร 6 ชั้น: 2 ชั้นสัญญาณ + 4 ชั้นพลังงาน ➡️ ใช้เทคนิค “single-row double-shelf bonding” เพื่อเพิ่มความหนาแน่น ✅ พบสายไฟด้านข้างที่ใช้ชุบทองในขั้นตอนการผลิต ➡️ ยืนยันด้วยการขัดเซรามิกให้ตรงกับภาพ CT ✅ ใต้ die มีอีพ็อกซีผสมเงินเพื่อระบายความร้อนและเชื่อมกราวด์ ➡️ ช่วยให้ชิปทำงานได้เสถียรภายใต้โหลด ✅ พบขา “No Connect” ที่มีการเชื่อมต่อภายใน die จริง ➡️ อาจใช้สำหรับการทดสอบหรือฟังก์ชันลับของ Intel https://www.tomshardware.com/pc-components/cpus/ct-scan-peels-back-the-layers-of-time-to-reveal-the-engineering-within-intels-iconic-386-cpu-exposing-intricate-pin-mapping-hidden-power-planes-and-more
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเบื้องหลังเบราว์เซอร์: Firefox กับ AI ที่กินซีพียูจนเครื่องแทบไหม้

    Mozilla เปิดตัวฟีเจอร์ใหม่ใน Firefox เวอร์ชัน 141.x ที่ชื่อว่า “AI-enhanced tab groups” โดยใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บที่คล้ายกันและตั้งชื่อกลุ่มให้อัตโนมัติ จุดเด่นคือทุกอย่างทำงานบนเครื่องผู้ใช้ ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ เพื่อรักษาความเป็นส่วนตัว

    แต่แทนที่จะได้รับคำชม กลับเกิดเสียงบ่นจากผู้ใช้จำนวนมาก โดยเฉพาะใน Reddit ที่พบว่า CPU และพลังงานถูกใช้มากผิดปกติจาก process ที่ชื่อว่า “Inference” ซึ่งบางครั้งกิน CPU ถึง 130% และทำให้แบตเตอรี่หมดเร็วอย่างเห็นได้ชัด

    ผู้ใช้บางคนพยายาม kill process นี้ แต่ Firefox กลับ crash ทันที ทำให้เกิดความไม่พอใจว่า “แค่จัดกลุ่มแท็บ ทำไมต้องใช้พลังงานขนาดนี้?” หลายคนเรียกร้องให้ Mozilla เพิ่มตัวเลือกเปิด/ปิดฟีเจอร์นี้ได้ง่ายขึ้น

    แม้ Mozilla จะใช้วิธี progressive rollout คือเปิดฟีเจอร์นี้ทีละกลุ่มผู้ใช้เพื่อเก็บ feedback แต่ก็ยังไม่มีการแก้ไขใน release notes ล่าสุด และยังไม่มีคำชี้แจงชัดเจนเรื่องการใช้ทรัพยากรที่สูงเกินไป

    Firefox เวอร์ชัน 141.x เปิดตัวฟีเจอร์ AI-enhanced tab groups
    ใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บและตั้งชื่อให้อัตโนมัติ

    ฟีเจอร์นี้ทำงานบนเครื่องผู้ใช้ทั้งหมดเพื่อรักษาความเป็นส่วนตัว
    ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Mozilla

    ผู้ใช้พบว่า process ชื่อ “Inference” ใช้ CPU สูงผิดปกติ
    บางครั้งพุ่งถึง 130% และทำให้แบตเตอรี่หมดเร็ว

    การ kill process “Inference” ทำให้ Firefox crash ทันที
    แสดงถึงการพึ่งพา process นี้อย่างหนักในระบบ

    Mozilla ใช้วิธี progressive rollout เพื่อเปิดฟีเจอร์ทีละกลุ่ม
    หวังเก็บ feedback เพื่อปรับปรุงก่อนปล่อยเต็มรูปแบบ

    ไม่มีการกล่าวถึง bug นี้ใน release notes ล่าสุด
    ผู้ใช้ยังไม่แน่ใจว่า Mozilla รับรู้ปัญหานี้หรือไม่

    ระบบ AI ใช้ embedding model เพื่อวิเคราะห์ชื่อแท็บ
    สร้าง vector แล้วใช้ clustering algorithm เพื่อจัดกลุ่ม

    การตั้งชื่อกลุ่มใช้ smart-tab-topic model ที่อิงจาก Google T5
    วิเคราะห์ metadata และชื่อแท็บเพื่อเสนอชื่อกลุ่ม

    Firefox ใช้ ONNX format สำหรับโมเดล AI
    บางคนเสนอว่า GGUF อาจมีประสิทธิภาพดีกว่า

    ฟีเจอร์นี้คล้ายกับ Tab Organizer ของ Chrome แต่เน้นความเป็นส่วนตัว
    Chrome ส่งข้อมูลไปเซิร์ฟเวอร์ Google ขณะที่ Firefox ทำงานบนเครื่อง

    Mozilla ยังไม่ออก patch หรือคำชี้แจงอย่างเป็นทางการ
    อาจทำให้ความเชื่อมั่นใน Firefox ลดลงในกลุ่มผู้ใช้ที่เน้นประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/new-local-ai-integration-into-firefox-spurs-complaints-of-cpu-going-nuts-chip-and-power-spikes-plague-new-version-141-x
    🧠🔥 เรื่องเล่าจากเบื้องหลังเบราว์เซอร์: Firefox กับ AI ที่กินซีพียูจนเครื่องแทบไหม้ Mozilla เปิดตัวฟีเจอร์ใหม่ใน Firefox เวอร์ชัน 141.x ที่ชื่อว่า “AI-enhanced tab groups” โดยใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บที่คล้ายกันและตั้งชื่อกลุ่มให้อัตโนมัติ จุดเด่นคือทุกอย่างทำงานบนเครื่องผู้ใช้ ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ เพื่อรักษาความเป็นส่วนตัว แต่แทนที่จะได้รับคำชม กลับเกิดเสียงบ่นจากผู้ใช้จำนวนมาก โดยเฉพาะใน Reddit ที่พบว่า CPU และพลังงานถูกใช้มากผิดปกติจาก process ที่ชื่อว่า “Inference” ซึ่งบางครั้งกิน CPU ถึง 130% และทำให้แบตเตอรี่หมดเร็วอย่างเห็นได้ชัด ผู้ใช้บางคนพยายาม kill process นี้ แต่ Firefox กลับ crash ทันที ทำให้เกิดความไม่พอใจว่า “แค่จัดกลุ่มแท็บ ทำไมต้องใช้พลังงานขนาดนี้?” หลายคนเรียกร้องให้ Mozilla เพิ่มตัวเลือกเปิด/ปิดฟีเจอร์นี้ได้ง่ายขึ้น แม้ Mozilla จะใช้วิธี progressive rollout คือเปิดฟีเจอร์นี้ทีละกลุ่มผู้ใช้เพื่อเก็บ feedback แต่ก็ยังไม่มีการแก้ไขใน release notes ล่าสุด และยังไม่มีคำชี้แจงชัดเจนเรื่องการใช้ทรัพยากรที่สูงเกินไป ✅ Firefox เวอร์ชัน 141.x เปิดตัวฟีเจอร์ AI-enhanced tab groups ➡️ ใช้โมเดล AI แบบ local เพื่อจัดกลุ่มแท็บและตั้งชื่อให้อัตโนมัติ ✅ ฟีเจอร์นี้ทำงานบนเครื่องผู้ใช้ทั้งหมดเพื่อรักษาความเป็นส่วนตัว ➡️ ไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Mozilla ✅ ผู้ใช้พบว่า process ชื่อ “Inference” ใช้ CPU สูงผิดปกติ ➡️ บางครั้งพุ่งถึง 130% และทำให้แบตเตอรี่หมดเร็ว ✅ การ kill process “Inference” ทำให้ Firefox crash ทันที ➡️ แสดงถึงการพึ่งพา process นี้อย่างหนักในระบบ ✅ Mozilla ใช้วิธี progressive rollout เพื่อเปิดฟีเจอร์ทีละกลุ่ม ➡️ หวังเก็บ feedback เพื่อปรับปรุงก่อนปล่อยเต็มรูปแบบ ✅ ไม่มีการกล่าวถึง bug นี้ใน release notes ล่าสุด ➡️ ผู้ใช้ยังไม่แน่ใจว่า Mozilla รับรู้ปัญหานี้หรือไม่ ✅ ระบบ AI ใช้ embedding model เพื่อวิเคราะห์ชื่อแท็บ ➡️ สร้าง vector แล้วใช้ clustering algorithm เพื่อจัดกลุ่ม ✅ การตั้งชื่อกลุ่มใช้ smart-tab-topic model ที่อิงจาก Google T5 ➡️ วิเคราะห์ metadata และชื่อแท็บเพื่อเสนอชื่อกลุ่ม ✅ Firefox ใช้ ONNX format สำหรับโมเดล AI ➡️ บางคนเสนอว่า GGUF อาจมีประสิทธิภาพดีกว่า ✅ ฟีเจอร์นี้คล้ายกับ Tab Organizer ของ Chrome แต่เน้นความเป็นส่วนตัว ➡️ Chrome ส่งข้อมูลไปเซิร์ฟเวอร์ Google ขณะที่ Firefox ทำงานบนเครื่อง ‼️ Mozilla ยังไม่ออก patch หรือคำชี้แจงอย่างเป็นทางการ ⛔ อาจทำให้ความเชื่อมั่นใน Firefox ลดลงในกลุ่มผู้ใช้ที่เน้นประสิทธิภาพ https://www.tomshardware.com/tech-industry/artificial-intelligence/new-local-ai-integration-into-firefox-spurs-complaints-of-cpu-going-nuts-chip-and-power-spikes-plague-new-version-141-x
    WWW.TOMSHARDWARE.COM
    New local AI integration into Firefox spurs complaints of ‘CPU going nuts’ — chip and power spikes plague new version 141.x
    CPU and power spikes appear to come from inference process related to ‘AI-enhanced tab groups.’
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามเกม: Copilot Gaming ผู้ช่วย AI ที่เข้าใจเกมของคุณ

    Microsoft กำลังเปลี่ยนวิธีที่เราสื่อสารกับเกม ด้วยการเปิดตัว “Copilot for Gaming” เวอร์ชัน Beta สำหรับผู้ใช้ Xbox Insiders บน Windows PC ผ่าน Game Bar โดยเป้าหมายคือการสร้าง “ผู้ช่วยเกม” ที่รู้ว่าเรากำลังเล่นอะไร และสามารถให้คำแนะนำแบบเรียลไทม์เมื่อเราติดอยู่ในด่านยากหรือไม่รู้จะทำอะไรต่อ

    ฟีเจอร์เด่นของ Copilot Gaming ได้แก่:
    - Voice Mode: พูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม โดยไม่ต้องพิมพ์หรือออกจากหน้าจอ
    - Screenshot Analysis: AI สามารถดูภาพหน้าจอของเกมที่เรากำลังเล่น เพื่อให้คำแนะนำที่ตรงจุด
    - Game Awareness: รู้ว่าเรากำลังเล่นเกมอะไร และสามารถให้คำแนะนำเฉพาะเกม เช่น วิธีผ่านบอส หรือเลือกตัวละครที่เหมาะกับทีม

    Copilot ยังสามารถตอบคำถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่ที่น่าสนใจ โดยไม่ต้องออกจากเกมหรือเปิดเบราว์เซอร์ค้นหา

    แม้จะยังอยู่ในช่วง Beta และเปิดให้ใช้เฉพาะบางประเทศ เช่น สหรัฐฯ ญี่ปุ่น สิงคโปร์ และออสเตรเลีย แต่ Microsoft มีแผนจะขยายฟีเจอร์นี้ไปยังผู้ใช้ทั่วไปในอนาคต พร้อมเพิ่มความสามารถด้านการโค้ชเกมแบบ proactive และการปรับแต่งตามผู้เล่นแต่ละคน

    Microsoft เปิดตัว Copilot for Gaming (Beta) สำหรับ Xbox Insiders บน Windows PC
    ใช้งานผ่าน Game Bar โดยกด Windows + G แล้วเลือกไอคอน Gaming Copilot

    ฟีเจอร์ Voice Mode ช่วยให้ผู้เล่นพูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม
    ไม่ต้องพิมพ์หรือออกจากหน้าจอเกม

    AI สามารถวิเคราะห์ภาพหน้าจอเพื่อให้คำแนะนำที่ตรงจุด
    เช่น วิธีผ่านด่านหรือแก้ปริศนา

    Copilot รู้ว่าเรากำลังเล่นเกมอะไร และให้คำแนะนำเฉพาะเกม
    เช่น Minecraft, Overwatch 2, หรือเกมอื่น ๆ ที่รองรับ

    ผู้ใช้สามารถถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่
    ทำให้ประสบการณ์เกมเป็นส่วนตัวมากขึ้น

    เปิดให้ใช้เฉพาะบางประเทศและเฉพาะผู้ที่อายุ 18 ปีขึ้นไป
    เช่น สหรัฐฯ ออสเตรเลีย ญี่ปุ่น สิงคโปร์ และอื่น ๆ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-brings-ai-powered-assistance-to-gaming-copilot-gaming-beta-and-copilot-3d-creative-features-went-live-this-week
    🎮🤖 เรื่องเล่าจากสนามเกม: Copilot Gaming ผู้ช่วย AI ที่เข้าใจเกมของคุณ Microsoft กำลังเปลี่ยนวิธีที่เราสื่อสารกับเกม ด้วยการเปิดตัว “Copilot for Gaming” เวอร์ชัน Beta สำหรับผู้ใช้ Xbox Insiders บน Windows PC ผ่าน Game Bar โดยเป้าหมายคือการสร้าง “ผู้ช่วยเกม” ที่รู้ว่าเรากำลังเล่นอะไร และสามารถให้คำแนะนำแบบเรียลไทม์เมื่อเราติดอยู่ในด่านยากหรือไม่รู้จะทำอะไรต่อ ฟีเจอร์เด่นของ Copilot Gaming ได้แก่: - Voice Mode: พูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม โดยไม่ต้องพิมพ์หรือออกจากหน้าจอ - Screenshot Analysis: AI สามารถดูภาพหน้าจอของเกมที่เรากำลังเล่น เพื่อให้คำแนะนำที่ตรงจุด - Game Awareness: รู้ว่าเรากำลังเล่นเกมอะไร และสามารถให้คำแนะนำเฉพาะเกม เช่น วิธีผ่านบอส หรือเลือกตัวละครที่เหมาะกับทีม Copilot ยังสามารถตอบคำถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่ที่น่าสนใจ โดยไม่ต้องออกจากเกมหรือเปิดเบราว์เซอร์ค้นหา แม้จะยังอยู่ในช่วง Beta และเปิดให้ใช้เฉพาะบางประเทศ เช่น สหรัฐฯ ญี่ปุ่น สิงคโปร์ และออสเตรเลีย แต่ Microsoft มีแผนจะขยายฟีเจอร์นี้ไปยังผู้ใช้ทั่วไปในอนาคต พร้อมเพิ่มความสามารถด้านการโค้ชเกมแบบ proactive และการปรับแต่งตามผู้เล่นแต่ละคน ✅ Microsoft เปิดตัว Copilot for Gaming (Beta) สำหรับ Xbox Insiders บน Windows PC ➡️ ใช้งานผ่าน Game Bar โดยกด Windows + G แล้วเลือกไอคอน Gaming Copilot ✅ ฟีเจอร์ Voice Mode ช่วยให้ผู้เล่นพูดคุยกับ AI ได้ทันทีระหว่างเล่นเกม ➡️ ไม่ต้องพิมพ์หรือออกจากหน้าจอเกม ✅ AI สามารถวิเคราะห์ภาพหน้าจอเพื่อให้คำแนะนำที่ตรงจุด ➡️ เช่น วิธีผ่านด่านหรือแก้ปริศนา ✅ Copilot รู้ว่าเรากำลังเล่นเกมอะไร และให้คำแนะนำเฉพาะเกม ➡️ เช่น Minecraft, Overwatch 2, หรือเกมอื่น ๆ ที่รองรับ ✅ ผู้ใช้สามารถถามเกี่ยวกับบัญชี Xbox, ประวัติการเล่น, และแนะนำเกมใหม่ ➡️ ทำให้ประสบการณ์เกมเป็นส่วนตัวมากขึ้น ✅ เปิดให้ใช้เฉพาะบางประเทศและเฉพาะผู้ที่อายุ 18 ปีขึ้นไป ➡️ เช่น สหรัฐฯ ออสเตรเลีย ญี่ปุ่น สิงคโปร์ และอื่น ๆ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-brings-ai-powered-assistance-to-gaming-copilot-gaming-beta-and-copilot-3d-creative-features-went-live-this-week
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล

    ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์

    Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร

    นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์

    แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง

    Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026
    เป็นส่วนหนึ่งของ Core Ultra 400 Series

    รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E)
    พร้อม GPU Xe3 จำนวน 4 คอร์

    รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์
    เหมาะสำหรับโน้ตบุ๊กระดับกลาง

    รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์
    ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์

    ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU)
    รองรับงาน AI, ML และ cloud computing

    https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    🧠💻 เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์ Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์ แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง ✅ Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026 ➡️ เป็นส่วนหนึ่งของ Core Ultra 400 Series ✅ รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E) ➡️ พร้อม GPU Xe3 จำนวน 4 คอร์ ✅ รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ➡️ เหมาะสำหรับโน้ตบุ๊กระดับกลาง ✅ รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์ ➡️ ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์ ✅ ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU) ➡️ รองรับงาน AI, ML และ cloud computing https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    WCCFTECH.COM
    Intel Nova Lake Mobile CPU Lineup Leaks Out: Entry-Level SKUs Starting at 6 Cores, Nova Lake-HX With 28 Cores
    Core configurations of Intel's next-generation Nova Lake CPUs have leaked out, which point to up to 28 CPU cores & 12 GPU cores.
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • เรื่องเล่าจากชิปเชื่อมต่อ: XConn เปิดตัว Apollo 2 สวิตช์ PCIe Gen 6.2 + CXL 3.1 ที่อาจเปลี่ยนโฉมศูนย์ข้อมูล AI

    ในงาน Future of Memory and Storage Summit (FMS25) ปี 2025 บริษัท XConn Technologies ได้เปิดตัว Apollo 2 ซึ่งเป็นสวิตช์ไฮบริดตัวแรกของโลกที่รวมเทคโนโลยี PCIe Gen 6.2 และ CXL 3.1 ไว้ในชิปเดียว จุดประสงค์คือเพื่อรองรับความต้องการด้าน bandwidth และ latency ที่สูงขึ้นในงานประมวลผล AI และศูนย์ข้อมูลยุคใหม่

    Apollo 2 ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดของหน่วยความจำ และเพิ่มความยืดหยุ่นในการออกแบบระบบ โดยสามารถเชื่อมต่อระหว่าง CPU, GPU, และ accelerator ได้อย่างมีประสิทธิภาพผ่าน shared memory pool ด้วย CXL 3.1 ขณะเดียวกัน PCIe Gen 6.2 ก็ช่วยให้การส่งข้อมูลระหว่างอุปกรณ์เร็วขึ้นถึงระดับ 128GB/s แบบ bidirectional

    XConn ยังร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างระบบที่สามารถใช้งานได้จริงในระดับ production โดยมีเป้าหมายเพื่อสร้างโครงสร้างพื้นฐานที่พร้อมสำหรับ AI/ML training, cloud computing และ composable infrastructure

    แม้จะมีความหวังสูง แต่ก็ยังไม่มีข้อมูล benchmark ที่ชัดเจนว่าประสิทธิภาพจะเหนือกว่า PCIe Gen 5 มากแค่ไหน และการใช้งานจริงยังต้องรอการพิสูจน์ในภาคสนาม

    XConn เปิดตัว Apollo 2 สวิตช์ไฮบริดที่รวม PCIe Gen 6.2 และ CXL 3.1
    เป็นชิปตัวแรกที่รวมสองเทคโนโลยีไว้ในตัวเดียว

    เปิดตัวในงาน FMS25 เพื่อโชว์การทำงานแบบ end-to-end
    รองรับ AI/ML training, cloud computing และ composable infrastructure

    ร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack
    เพื่อสร้างระบบที่ใช้งานได้จริงในระดับ production

    Apollo 2 รองรับการเชื่อมต่อตั้งแต่ 64 ถึง 260 lanes
    เพิ่มความสามารถในการปรับขนาดและความหนาแน่นของระบบ

    มีการร่วมมือกับ ScaleFlux เพื่อปรับปรุงการทำงานร่วมกับ CXL 3.1
    เพื่อรองรับงาน AI และ cloud infrastructure ได้ดียิ่งขึ้น

    https://www.techradar.com/pro/the-next-stage-in-ai-power-xconn-set-to-reveal-end-to-end-pcie-gen-6-offering-higher-bandwidth-than-ever
    🚀🔗 เรื่องเล่าจากชิปเชื่อมต่อ: XConn เปิดตัว Apollo 2 สวิตช์ PCIe Gen 6.2 + CXL 3.1 ที่อาจเปลี่ยนโฉมศูนย์ข้อมูล AI ในงาน Future of Memory and Storage Summit (FMS25) ปี 2025 บริษัท XConn Technologies ได้เปิดตัว Apollo 2 ซึ่งเป็นสวิตช์ไฮบริดตัวแรกของโลกที่รวมเทคโนโลยี PCIe Gen 6.2 และ CXL 3.1 ไว้ในชิปเดียว จุดประสงค์คือเพื่อรองรับความต้องการด้าน bandwidth และ latency ที่สูงขึ้นในงานประมวลผล AI และศูนย์ข้อมูลยุคใหม่ Apollo 2 ถูกออกแบบมาเพื่อแก้ปัญหาคอขวดของหน่วยความจำ และเพิ่มความยืดหยุ่นในการออกแบบระบบ โดยสามารถเชื่อมต่อระหว่าง CPU, GPU, และ accelerator ได้อย่างมีประสิทธิภาพผ่าน shared memory pool ด้วย CXL 3.1 ขณะเดียวกัน PCIe Gen 6.2 ก็ช่วยให้การส่งข้อมูลระหว่างอุปกรณ์เร็วขึ้นถึงระดับ 128GB/s แบบ bidirectional XConn ยังร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ระหว่างฮาร์ดแวร์และซอฟต์แวร์ เพื่อสร้างระบบที่สามารถใช้งานได้จริงในระดับ production โดยมีเป้าหมายเพื่อสร้างโครงสร้างพื้นฐานที่พร้อมสำหรับ AI/ML training, cloud computing และ composable infrastructure แม้จะมีความหวังสูง แต่ก็ยังไม่มีข้อมูล benchmark ที่ชัดเจนว่าประสิทธิภาพจะเหนือกว่า PCIe Gen 5 มากแค่ไหน และการใช้งานจริงยังต้องรอการพิสูจน์ในภาคสนาม ✅ XConn เปิดตัว Apollo 2 สวิตช์ไฮบริดที่รวม PCIe Gen 6.2 และ CXL 3.1 ➡️ เป็นชิปตัวแรกที่รวมสองเทคโนโลยีไว้ในตัวเดียว ✅ เปิดตัวในงาน FMS25 เพื่อโชว์การทำงานแบบ end-to-end ➡️ รองรับ AI/ML training, cloud computing และ composable infrastructure ✅ ร่วมมือกับ Intel เพื่อทดสอบความเข้ากันได้แบบ full-stack ➡️ เพื่อสร้างระบบที่ใช้งานได้จริงในระดับ production ✅ Apollo 2 รองรับการเชื่อมต่อตั้งแต่ 64 ถึง 260 lanes ➡️ เพิ่มความสามารถในการปรับขนาดและความหนาแน่นของระบบ ✅ มีการร่วมมือกับ ScaleFlux เพื่อปรับปรุงการทำงานร่วมกับ CXL 3.1 ➡️ เพื่อรองรับงาน AI และ cloud infrastructure ได้ดียิ่งขึ้น https://www.techradar.com/pro/the-next-stage-in-ai-power-xconn-set-to-reveal-end-to-end-pcie-gen-6-offering-higher-bandwidth-than-ever
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องประชุม Intel: เมื่อประธานบอร์ดพยายามขายโรงงานให้ TSMC แต่ซีอีโอขัดขวางเต็มกำลัง

    ในช่วงต้นปี 2025 เกิดความขัดแย้งครั้งใหญ่ภายใน Intel เมื่อ Frank Yeary ประธานบอร์ดของบริษัทพยายามผลักดันแผนการขายหรือแยกกิจการโรงงานผลิตชิป (Intel Foundry) ไปให้ TSMC หรือสร้างบริษัทร่วมทุนกับ Broadcom และ Nvidia โดยให้ TSMC เข้ามาควบคุมการผลิตและ “แก้ไข” เทคโนโลยีของ Intel ที่ล่าช้า

    แต่ Lip-Bu Tan ซีอีโอคนใหม่ที่เพิ่งเข้ารับตำแหน่งในเดือนมีนาคม กลับมองว่าการผลิตชิปภายในเป็นหัวใจของความสามารถในการแข่งขันของ Intel และเป็นสิ่งสำคัญต่อความมั่นคงของห่วงโซ่อุปทานของสหรัฐฯ เขาจึงคัดค้านแผนนี้อย่างหนัก ทำให้เกิดความขัดแย้งในบอร์ดบริหาร และส่งผลให้แผนกลยุทธ์หลายอย่างของ Tan ถูกชะลอหรือถูกขัดขวาง

    แม้บอร์ดจะยังแสดงการสนับสนุน Tan อย่างเป็นทางการ แต่แรงกดดันภายในและภายนอกก็เพิ่มขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ TSMC เองก็ไม่สนใจซื้อโรงงานของ Intel เนื่องจากความแตกต่างด้านเทคโนโลยี เช่น ระบบ EUV ที่ใช้ต่างกัน และความเสี่ยงด้านธุรกิจที่ไม่คุ้มค่าการลงทุน

    Frank Yeary ประธานบอร์ด Intel พยายามขายหรือแยกกิจการโรงงานผลิตชิปให้ TSMC
    เสนอให้ TSMC และบริษัท fabless อย่าง Broadcom/Nvidia ร่วมลงทุน

    Lip-Bu Tan ซีอีโอคนใหม่คัดค้านแผนนี้อย่างหนัก
    เห็นว่าการผลิตภายในเป็นสิ่งสำคัญต่อความสามารถแข่งขันและความมั่นคงของสหรัฐฯ

    ความขัดแย้งในบอร์ดทำให้แผนกลยุทธ์ของ Tan ถูกชะลอหรือถูกขัดขวาง
    รวมถึงแผนระดมทุนและการเข้าซื้อบริษัท AI เพื่อแข่งกับ Nvidia และ AMD

    TSMC ไม่สนใจซื้อโรงงานของ Intel ด้วยเหตุผลทางเทคนิคและธุรกิจ
    เช่น ความแตกต่างด้าน EUV, เครื่องมือ, วัสดุ และความเสี่ยงด้าน yield

    Intel และ TSMC ใช้ระบบการผลิตที่แตกต่างกันแม้จะใช้เครื่องมือจาก ASML เหมือนกัน
    การย้ายเทคโนโลยีข้ามบริษัทอาจทำให้เกิด yield loss และต้นทุนสูง

    TSMC สนใจลงทุนในโรงงานสหรัฐฯ ของตัวเองมากกว่า
    ประกาศลงทุนสูงถึง $165B เพื่อหลีกเลี่ยงภาษีจากรัฐบาลสหรัฐฯ

    Intel Foundry เป็นความพยายามของ Intel ที่จะกลับมาแข่งขันในตลาดการผลิตชิป
    โดยเน้นเทคโนโลยี Intel 3 และ Intel 18A

    การแยกกิจการโรงงานอาจทำให้ Intel สูญเสียการควบคุมด้านเทคโนโลยี
    และกลายเป็นบริษัท fabless ที่ต้องพึ่งพาผู้ผลิตภายนอก

    การร่วมทุนกับ TSMC อาจทำให้เกิดความขัดแย้งด้านการจัดสรรทรัพยากร
    เช่น การแบ่ง capacity ระหว่างลูกค้า Intel และ TSMC

    การล่าช้าในการเข้าซื้อบริษัท AI ทำให้ Intel เสียโอกาสในการแข่งขัน
    บริษัทเป้าหมายถูกซื้อโดยบริษัทเทคโนโลยีอื่นแทน

    https://www.tomshardware.com/tech-industry/semiconductors/intels-chairman-reportedly-tried-to-broker-a-deal-to-sell-fabs-to-tsmc-ceo-lip-bu-tan-opposed
    🏭⚔️ เรื่องเล่าจากห้องประชุม Intel: เมื่อประธานบอร์ดพยายามขายโรงงานให้ TSMC แต่ซีอีโอขัดขวางเต็มกำลัง ในช่วงต้นปี 2025 เกิดความขัดแย้งครั้งใหญ่ภายใน Intel เมื่อ Frank Yeary ประธานบอร์ดของบริษัทพยายามผลักดันแผนการขายหรือแยกกิจการโรงงานผลิตชิป (Intel Foundry) ไปให้ TSMC หรือสร้างบริษัทร่วมทุนกับ Broadcom และ Nvidia โดยให้ TSMC เข้ามาควบคุมการผลิตและ “แก้ไข” เทคโนโลยีของ Intel ที่ล่าช้า แต่ Lip-Bu Tan ซีอีโอคนใหม่ที่เพิ่งเข้ารับตำแหน่งในเดือนมีนาคม กลับมองว่าการผลิตชิปภายในเป็นหัวใจของความสามารถในการแข่งขันของ Intel และเป็นสิ่งสำคัญต่อความมั่นคงของห่วงโซ่อุปทานของสหรัฐฯ เขาจึงคัดค้านแผนนี้อย่างหนัก ทำให้เกิดความขัดแย้งในบอร์ดบริหาร และส่งผลให้แผนกลยุทธ์หลายอย่างของ Tan ถูกชะลอหรือถูกขัดขวาง แม้บอร์ดจะยังแสดงการสนับสนุน Tan อย่างเป็นทางการ แต่แรงกดดันภายในและภายนอกก็เพิ่มขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ TSMC เองก็ไม่สนใจซื้อโรงงานของ Intel เนื่องจากความแตกต่างด้านเทคโนโลยี เช่น ระบบ EUV ที่ใช้ต่างกัน และความเสี่ยงด้านธุรกิจที่ไม่คุ้มค่าการลงทุน ✅ Frank Yeary ประธานบอร์ด Intel พยายามขายหรือแยกกิจการโรงงานผลิตชิปให้ TSMC ➡️ เสนอให้ TSMC และบริษัท fabless อย่าง Broadcom/Nvidia ร่วมลงทุน ✅ Lip-Bu Tan ซีอีโอคนใหม่คัดค้านแผนนี้อย่างหนัก ➡️ เห็นว่าการผลิตภายในเป็นสิ่งสำคัญต่อความสามารถแข่งขันและความมั่นคงของสหรัฐฯ ✅ ความขัดแย้งในบอร์ดทำให้แผนกลยุทธ์ของ Tan ถูกชะลอหรือถูกขัดขวาง ➡️ รวมถึงแผนระดมทุนและการเข้าซื้อบริษัท AI เพื่อแข่งกับ Nvidia และ AMD ✅ TSMC ไม่สนใจซื้อโรงงานของ Intel ด้วยเหตุผลทางเทคนิคและธุรกิจ ➡️ เช่น ความแตกต่างด้าน EUV, เครื่องมือ, วัสดุ และความเสี่ยงด้าน yield ✅ Intel และ TSMC ใช้ระบบการผลิตที่แตกต่างกันแม้จะใช้เครื่องมือจาก ASML เหมือนกัน ➡️ การย้ายเทคโนโลยีข้ามบริษัทอาจทำให้เกิด yield loss และต้นทุนสูง ✅ TSMC สนใจลงทุนในโรงงานสหรัฐฯ ของตัวเองมากกว่า ➡️ ประกาศลงทุนสูงถึง $165B เพื่อหลีกเลี่ยงภาษีจากรัฐบาลสหรัฐฯ ✅ Intel Foundry เป็นความพยายามของ Intel ที่จะกลับมาแข่งขันในตลาดการผลิตชิป ➡️ โดยเน้นเทคโนโลยี Intel 3 และ Intel 18A ✅ การแยกกิจการโรงงานอาจทำให้ Intel สูญเสียการควบคุมด้านเทคโนโลยี ➡️ และกลายเป็นบริษัท fabless ที่ต้องพึ่งพาผู้ผลิตภายนอก ✅ การร่วมทุนกับ TSMC อาจทำให้เกิดความขัดแย้งด้านการจัดสรรทรัพยากร ➡️ เช่น การแบ่ง capacity ระหว่างลูกค้า Intel และ TSMC ✅ การล่าช้าในการเข้าซื้อบริษัท AI ทำให้ Intel เสียโอกาสในการแข่งขัน ➡️ บริษัทเป้าหมายถูกซื้อโดยบริษัทเทคโนโลยีอื่นแทน https://www.tomshardware.com/tech-industry/semiconductors/intels-chairman-reportedly-tried-to-broker-a-deal-to-sell-fabs-to-tsmc-ceo-lip-bu-tan-opposed
    0 ความคิดเห็น 0 การแบ่งปัน 234 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องเซิร์ฟเวอร์: Samsung ปลุกชีพ Z-NAND เพื่อปฏิวัติศูนย์ข้อมูล AI ด้วยความเร็วเหนือชั้น

    ย้อนกลับไปในช่วงกลางทศวรรษ 2010 Samsung เคยเปิดตัว Z-NAND เพื่อแข่งกับ Intel Optane โดยเน้นลด latency และเพิ่มความเร็วในการเข้าถึงข้อมูลแบบ SSD ที่ใกล้เคียง DRAM แต่หลังจากเงียบหายไปหลายปี ล่าสุด Samsung กลับมาพร้อม Z-NAND รุ่นใหม่ที่แรงกว่าเดิมถึง 15 เท่า และกินไฟน้อยลงถึง 80% เมื่อเทียบกับ NAND ทั่วไป

    จุดเด่นของ Z-NAND รุ่นใหม่คือการใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS) ที่ให้ GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง โดยไม่ต้องผ่าน CPU หรือ DRAM ซึ่งช่วยลด latency ได้มหาศาล เหมาะกับงาน AI ที่ต้องการประมวลผลข้อมูลจำนวนมากแบบเรียลไทม์

    Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC ที่ลดขนาด page เหลือเพียง 2–4KB ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วกว่า SSD ทั่วไปที่ใช้ page ขนาด 8–16KB และในยุคนั้นก็เร็วกว่า SSD ปกติถึง 6–10 เท่า แต่ในรุ่นใหม่ Samsung ตั้งเป้าไว้ที่ 15 เท่า พร้อมรองรับการใช้งานในศูนย์ข้อมูล AI โดยเฉพาะ

    Samsung เปิดตัว Z-NAND รุ่นใหม่ที่เร็วกว่า NAND ทั่วไปถึง 15 เท่า
    พร้อมลดการใช้พลังงานลงถึง 80%

    ใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS)
    GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง ไม่ผ่าน CPU หรือ DRAM

    Z-NAND รุ่นใหม่ออกแบบมาเพื่อใช้งานกับ AI GPU โดยเฉพาะ
    เน้นลด latency และเพิ่ม throughput สำหรับงาน AI

    Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC และลดขนาด page เหลือ 2–4KB
    ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วและแม่นยำมากขึ้น

    หากเป้าหมายของ Samsung สำเร็จ Z-NAND จะเร็วกว่า NVMe SSD ปัจจุบันถึง 15 เท่า
    เป็นทางเลือกใหม่สำหรับศูนย์ข้อมูล AI ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/storage/samsungs-revived-z-nand-targets-15x-performance-increase-over-traditional-nand-once-a-competitor-to-intels-optane-z-nand-makes-a-play-for-ai-datacenters
    ⚡🧠 เรื่องเล่าจากห้องเซิร์ฟเวอร์: Samsung ปลุกชีพ Z-NAND เพื่อปฏิวัติศูนย์ข้อมูล AI ด้วยความเร็วเหนือชั้น ย้อนกลับไปในช่วงกลางทศวรรษ 2010 Samsung เคยเปิดตัว Z-NAND เพื่อแข่งกับ Intel Optane โดยเน้นลด latency และเพิ่มความเร็วในการเข้าถึงข้อมูลแบบ SSD ที่ใกล้เคียง DRAM แต่หลังจากเงียบหายไปหลายปี ล่าสุด Samsung กลับมาพร้อม Z-NAND รุ่นใหม่ที่แรงกว่าเดิมถึง 15 เท่า และกินไฟน้อยลงถึง 80% เมื่อเทียบกับ NAND ทั่วไป จุดเด่นของ Z-NAND รุ่นใหม่คือการใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS) ที่ให้ GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง โดยไม่ต้องผ่าน CPU หรือ DRAM ซึ่งช่วยลด latency ได้มหาศาล เหมาะกับงาน AI ที่ต้องการประมวลผลข้อมูลจำนวนมากแบบเรียลไทม์ Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC ที่ลดขนาด page เหลือเพียง 2–4KB ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วกว่า SSD ทั่วไปที่ใช้ page ขนาด 8–16KB และในยุคนั้นก็เร็วกว่า SSD ปกติถึง 6–10 เท่า แต่ในรุ่นใหม่ Samsung ตั้งเป้าไว้ที่ 15 เท่า พร้อมรองรับการใช้งานในศูนย์ข้อมูล AI โดยเฉพาะ ✅ Samsung เปิดตัว Z-NAND รุ่นใหม่ที่เร็วกว่า NAND ทั่วไปถึง 15 เท่า ➡️ พร้อมลดการใช้พลังงานลงถึง 80% ✅ ใช้เทคโนโลยี GPU-Initiated Direct Storage Access (GIDS) ➡️ GPU เข้าถึงข้อมูลใน Z-NAND โดยตรง ไม่ผ่าน CPU หรือ DRAM ✅ Z-NAND รุ่นใหม่ออกแบบมาเพื่อใช้งานกับ AI GPU โดยเฉพาะ ➡️ เน้นลด latency และเพิ่ม throughput สำหรับงาน AI ✅ Z-NAND รุ่นแรกใช้ V-NAND แบบ SLC และลดขนาด page เหลือ 2–4KB ➡️ ทำให้สามารถอ่าน/เขียนข้อมูลได้เร็วและแม่นยำมากขึ้น ✅ หากเป้าหมายของ Samsung สำเร็จ Z-NAND จะเร็วกว่า NVMe SSD ปัจจุบันถึง 15 เท่า ➡️ เป็นทางเลือกใหม่สำหรับศูนย์ข้อมูล AI ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/storage/samsungs-revived-z-nand-targets-15x-performance-increase-over-traditional-nand-once-a-competitor-to-intels-optane-z-nand-makes-a-play-for-ai-datacenters
    0 ความคิดเห็น 0 การแบ่งปัน 162 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องประชุม Intel: เมื่อ CEO ถูกเรียกร้องให้ลาออกจากข้อกล่าวหาเรื่องผลประโยชน์ทับซ้อนกับจีน

    Lip-Bu Tan ซีอีโอของ Intel กำลังเผชิญกับแรงกดดันทางการเมืองอย่างหนัก หลังจากอดีตประธานาธิบดี Donald Trump เรียกร้องให้เขาลาออกโดยอ้างว่า “มีผลประโยชน์ทับซ้อนอย่างรุนแรง” จากการลงทุนในบริษัทเทคโนโลยีจีน ซึ่งบางแห่งมีความเชื่อมโยงกับกองทัพจีน

    Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel โดยยืนยันว่าเขาทำงานด้วย “มาตรฐานทางกฎหมายและจริยธรรมสูงสุด” และกล่าวว่าข้อกล่าวหานั้นเป็น “ข้อมูลผิด” พร้อมระบุว่า Intel กำลังร่วมมือกับรัฐบาลสหรัฐฯ เพื่อชี้แจงข้อเท็จจริง

    เอกสารทางการเงินเผยว่า Tan มีการควบคุมหรือถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited ซึ่งบางแห่งมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐบาลท้องถิ่นของจีน

    แม้ Intel จะยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์เชิงยุทธศาสตร์ของสหรัฐฯ และยังคงลงทุนในเทคโนโลยีการผลิตชิปขั้นสูงในประเทศ เช่น Intel 18A node แต่คำถามเรื่องความปลอดภัยระดับชาติยังคงอยู่ โดยมีวุฒิสมาชิก Tom Cotton ส่งจดหมายเตือนคณะกรรมการ Intel ถึงความเสี่ยงที่อาจเกิดขึ้น

    Donald Trump เรียกร้องให้ Lip-Bu Tan ลาออกจากตำแหน่ง CEO ของ Intel
    อ้างว่า Tan มีผลประโยชน์ทับซ้อนจากการลงทุนในบริษัทจีน

    Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel ว่าเขาทำงานด้วยจริยธรรมสูงสุด
    พร้อมระบุว่าข้อกล่าวหาเป็น “ข้อมูลผิด” และกำลังร่วมมือกับรัฐบาลสหรัฐฯ

    Tan มีการถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง มูลค่ารวมกว่า $200 ล้าน
    ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited

    บางบริษัทที่ Tan ลงทุนมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐ
    ทำให้เกิดข้อกังวลด้านความมั่นคงระดับชาติ

    Intel ยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์ของสหรัฐฯ
    พร้อมเน้นการลงทุนในโรงงานผลิตชิปในรัฐแอริโซนา

    คณะกรรมการของ Intel แสดงการสนับสนุน Tan อย่างเต็มที่
    ยืนยันว่าเขายังคงเป็นผู้นำที่เหมาะสมในช่วงเวลาสำคัญของบริษัท

    Tan เคยเป็น CEO ของ Cadence Design Systems ซึ่งมีคดีละเมิดกฎหมายส่งออก
    เกี่ยวข้องกับการขายเทคโนโลยีให้มหาวิทยาลัยทหารของจีน

    Intel ได้รับเงินสนับสนุนจำนวนมากจาก CHIPS Act ของรัฐบาลสหรัฐฯ
    ทำให้การมี CEO ที่มีความเกี่ยวข้องกับจีนกลายเป็นประเด็นทางการเมือง

    Tan มีประสบการณ์ในอุตสาหกรรมกว่า 40 ปี และอาศัยอยู่ในสหรัฐฯ มากกว่า 4 ทศวรรษ
    ได้รับการศึกษาจาก MIT และ University of San Francisco

    Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังลงทุนในเทคโนโลยีการผลิตชิประดับสูง
    เช่น Intel 18A และ 14A ที่แข่งขันกับ TSMC และ Samsung

    https://www.tomshardware.com/pc-components/cpus/intel-ceo-lip-bu-tan-responds-to-trump-allegations-in-letter-i-have-always-operated-within-the-highest-legal-and-ethical-standards
    🏛️💼 เรื่องเล่าจากห้องประชุม Intel: เมื่อ CEO ถูกเรียกร้องให้ลาออกจากข้อกล่าวหาเรื่องผลประโยชน์ทับซ้อนกับจีน Lip-Bu Tan ซีอีโอของ Intel กำลังเผชิญกับแรงกดดันทางการเมืองอย่างหนัก หลังจากอดีตประธานาธิบดี Donald Trump เรียกร้องให้เขาลาออกโดยอ้างว่า “มีผลประโยชน์ทับซ้อนอย่างรุนแรง” จากการลงทุนในบริษัทเทคโนโลยีจีน ซึ่งบางแห่งมีความเชื่อมโยงกับกองทัพจีน Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel โดยยืนยันว่าเขาทำงานด้วย “มาตรฐานทางกฎหมายและจริยธรรมสูงสุด” และกล่าวว่าข้อกล่าวหานั้นเป็น “ข้อมูลผิด” พร้อมระบุว่า Intel กำลังร่วมมือกับรัฐบาลสหรัฐฯ เพื่อชี้แจงข้อเท็จจริง เอกสารทางการเงินเผยว่า Tan มีการควบคุมหรือถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited ซึ่งบางแห่งมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐบาลท้องถิ่นของจีน แม้ Intel จะยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์เชิงยุทธศาสตร์ของสหรัฐฯ และยังคงลงทุนในเทคโนโลยีการผลิตชิปขั้นสูงในประเทศ เช่น Intel 18A node แต่คำถามเรื่องความปลอดภัยระดับชาติยังคงอยู่ โดยมีวุฒิสมาชิก Tom Cotton ส่งจดหมายเตือนคณะกรรมการ Intel ถึงความเสี่ยงที่อาจเกิดขึ้น ✅ Donald Trump เรียกร้องให้ Lip-Bu Tan ลาออกจากตำแหน่ง CEO ของ Intel ➡️ อ้างว่า Tan มีผลประโยชน์ทับซ้อนจากการลงทุนในบริษัทจีน ✅ Tan ตอบโต้ด้วยจดหมายถึงพนักงาน Intel ว่าเขาทำงานด้วยจริยธรรมสูงสุด ➡️ พร้อมระบุว่าข้อกล่าวหาเป็น “ข้อมูลผิด” และกำลังร่วมมือกับรัฐบาลสหรัฐฯ ✅ Tan มีการถือหุ้นในบริษัทจีนมากกว่า 600 แห่ง มูลค่ารวมกว่า $200 ล้าน ➡️ ผ่านบริษัทลงทุนที่เขาก่อตั้ง เช่น Walden International และ Sakarya Limited ✅ บางบริษัทที่ Tan ลงทุนมีความเกี่ยวข้องกับกองทัพจีนหรือได้รับเงินทุนจากรัฐ ➡️ ทำให้เกิดข้อกังวลด้านความมั่นคงระดับชาติ ✅ Intel ยืนยันว่า Tan และบริษัทมีความสอดคล้องกับผลประโยชน์ของสหรัฐฯ ➡️ พร้อมเน้นการลงทุนในโรงงานผลิตชิปในรัฐแอริโซนา ✅ คณะกรรมการของ Intel แสดงการสนับสนุน Tan อย่างเต็มที่ ➡️ ยืนยันว่าเขายังคงเป็นผู้นำที่เหมาะสมในช่วงเวลาสำคัญของบริษัท ✅ Tan เคยเป็น CEO ของ Cadence Design Systems ซึ่งมีคดีละเมิดกฎหมายส่งออก ➡️ เกี่ยวข้องกับการขายเทคโนโลยีให้มหาวิทยาลัยทหารของจีน ✅ Intel ได้รับเงินสนับสนุนจำนวนมากจาก CHIPS Act ของรัฐบาลสหรัฐฯ ➡️ ทำให้การมี CEO ที่มีความเกี่ยวข้องกับจีนกลายเป็นประเด็นทางการเมือง ✅ Tan มีประสบการณ์ในอุตสาหกรรมกว่า 40 ปี และอาศัยอยู่ในสหรัฐฯ มากกว่า 4 ทศวรรษ ➡️ ได้รับการศึกษาจาก MIT และ University of San Francisco ✅ Intel เป็นบริษัทเดียวในสหรัฐฯ ที่ยังลงทุนในเทคโนโลยีการผลิตชิประดับสูง ➡️ เช่น Intel 18A และ 14A ที่แข่งขันกับ TSMC และ Samsung https://www.tomshardware.com/pc-components/cpus/intel-ceo-lip-bu-tan-responds-to-trump-allegations-in-letter-i-have-always-operated-within-the-highest-legal-and-ethical-standards
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องวิจัย Tesla: เมื่อ Dojo ซูเปอร์คอมพิวเตอร์ต้องยุติลง และ Elon หันไปพึ่ง Nvidia กับ AMD

    ย้อนกลับไปในปี 2021 Tesla เปิดตัวโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิปแบบ wafer-scale เพื่อฝึก AI สำหรับระบบขับเคลื่อนอัตโนมัติ (FSD) และหุ่นยนต์ Optimus โดยหวังว่าจะลดการพึ่งพา Nvidia และสร้างฮาร์ดแวร์ของตัวเองเพื่อควบคุมทุกมิติของการประมวลผล AI

    แต่ล่าสุด Elon Musk ตัดสินใจยุติโครงการ Dojo อย่างเป็นทางการ โดยมีการยุบทีมงานและย้ายบุคลากรไปยังแผนกอื่นภายใน Tesla ขณะเดียวกัน Peter Bannon หัวหน้าโครงการ Dojo ก็เตรียมลาออก และมีสมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI

    Tesla จะหันไปพึ่งพา Nvidia และ AMD มากขึ้น โดย TSMC จะผลิตชิป AI5 สำหรับรถ Tesla รุ่นใหม่ในปี 2025 และ Samsung จะผลิต AI6 รุ่นถัดไปในช่วงปลายทศวรรษ Musk ยังกล่าวว่าเขาอยากให้ชิปที่ใช้ในรถยนต์และเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน เพื่อความสะดวกในการพัฒนาและใช้งานร่วมกัน

    Tesla ยุติโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิป wafer-scale
    โครงการเริ่มในปี 2021 เพื่อฝึก AI สำหรับ FSD และ Optimus

    Elon Musk สั่งยุบทีม Dojo และย้ายบุคลากรไปยังแผนกอื่น
    Peter Bannon หัวหน้าโครงการเตรียมลาออก

    สมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI
    เน้นพัฒนา AI สำหรับหุ่นยนต์และยานยนต์

    Tesla จะเพิ่มการพึ่งพา Nvidia และ AMD สำหรับฮาร์ดแวร์ AI
    Nvidia ยังคงเป็นผู้จัดหา GPU ส่วน AMD จะมีบทบาทมากขึ้น

    TSMC จะผลิตชิป AI5 สำหรับ Tesla ในปี 2025
    Samsung จะผลิตชิป AI6 รุ่นถัดไปในช่วงปลายทศวรรษ

    Musk ต้องการให้ชิปในรถและเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน
    เพื่อใช้ร่วมกันได้ทั้งใน Optimus และระบบคลัสเตอร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/tesla-scraps-custom-dojo-wafer-level-processor-initiative-dismantles-team-musk-to-lean-on-nvidia-and-amd-more
    🚗🧠 เรื่องเล่าจากห้องวิจัย Tesla: เมื่อ Dojo ซูเปอร์คอมพิวเตอร์ต้องยุติลง และ Elon หันไปพึ่ง Nvidia กับ AMD ย้อนกลับไปในปี 2021 Tesla เปิดตัวโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิปแบบ wafer-scale เพื่อฝึก AI สำหรับระบบขับเคลื่อนอัตโนมัติ (FSD) และหุ่นยนต์ Optimus โดยหวังว่าจะลดการพึ่งพา Nvidia และสร้างฮาร์ดแวร์ของตัวเองเพื่อควบคุมทุกมิติของการประมวลผล AI แต่ล่าสุด Elon Musk ตัดสินใจยุติโครงการ Dojo อย่างเป็นทางการ โดยมีการยุบทีมงานและย้ายบุคลากรไปยังแผนกอื่นภายใน Tesla ขณะเดียวกัน Peter Bannon หัวหน้าโครงการ Dojo ก็เตรียมลาออก และมีสมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI Tesla จะหันไปพึ่งพา Nvidia และ AMD มากขึ้น โดย TSMC จะผลิตชิป AI5 สำหรับรถ Tesla รุ่นใหม่ในปี 2025 และ Samsung จะผลิต AI6 รุ่นถัดไปในช่วงปลายทศวรรษ Musk ยังกล่าวว่าเขาอยากให้ชิปที่ใช้ในรถยนต์และเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน เพื่อความสะดวกในการพัฒนาและใช้งานร่วมกัน ✅ Tesla ยุติโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิป wafer-scale ➡️ โครงการเริ่มในปี 2021 เพื่อฝึก AI สำหรับ FSD และ Optimus ✅ Elon Musk สั่งยุบทีม Dojo และย้ายบุคลากรไปยังแผนกอื่น ➡️ Peter Bannon หัวหน้าโครงการเตรียมลาออก ✅ สมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI ➡️ เน้นพัฒนา AI สำหรับหุ่นยนต์และยานยนต์ ✅ Tesla จะเพิ่มการพึ่งพา Nvidia และ AMD สำหรับฮาร์ดแวร์ AI ➡️ Nvidia ยังคงเป็นผู้จัดหา GPU ส่วน AMD จะมีบทบาทมากขึ้น ✅ TSMC จะผลิตชิป AI5 สำหรับ Tesla ในปี 2025 ➡️ Samsung จะผลิตชิป AI6 รุ่นถัดไปในช่วงปลายทศวรรษ ✅ Musk ต้องการให้ชิปในรถและเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน ➡️ เพื่อใช้ร่วมกันได้ทั้งใน Optimus และระบบคลัสเตอร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/tesla-scraps-custom-dojo-wafer-level-processor-initiative-dismantles-team-musk-to-lean-on-nvidia-and-amd-more
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • เรื่องนี้ลุงเห็นด้วยกับพี่ตั๊มป์

    เรื่องเล่าจากโลกการเมืองและเทคโนโลยี: เมื่อทรัมป์เรียกร้องให้ซีอีโอ Intel ลาออก เพราะ “ขัดแย้งผลประโยชน์” กับจีน

    ในวันที่ 7 สิงหาคม 2025 อดีตประธานาธิบดีโดนัลด์ ทรัมป์ ได้โพสต์บน Truth Social เรียกร้องให้ Lip-Bu Tan ซีอีโอคนใหม่ของ Intel ลาออกทันที โดยกล่าวว่าเขา “ขัดแย้งผลประโยชน์อย่างรุนแรง” เนื่องจากมีความเกี่ยวข้องกับบริษัทเทคโนโลยีจีนหลายแห่ง รวมถึงบางแห่งที่มีความเชื่อมโยงกับกองทัพจีนและพรรคคอมมิวนิสต์จีน

    คำเรียกร้องนี้เกิดขึ้นหลังจากวุฒิสมาชิก Tom Cotton ส่งจดหมายถึงคณะกรรมการบริหารของ Intel เพื่อสอบถามว่า Tan ได้ขายหุ้นหรือถอนตัวจากบริษัทจีนที่อาจเป็นภัยต่อความมั่นคงของสหรัฐหรือไม่ โดยเฉพาะเมื่อ Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์เพื่อสร้างโรงงานในสหรัฐ

    Tan ซึ่งเข้ารับตำแหน่งในเดือนมีนาคม 2025 เคยเป็นซีอีโอของ Cadence Design Systems ซึ่งเพิ่งถูกปรับ 140 ล้านดอลลาร์จากการละเมิดข้อจำกัดการส่งออก โดยขายเทคโนโลยีให้กับมหาวิทยาลัยทหารของจีน

    Intel ตอบโต้ด้วยแถลงการณ์ว่า “บริษัทและ Tan มุ่งมั่นต่อความมั่นคงของชาติสหรัฐ” และยังคงลงทุนในโรงงานผลิตชิปในประเทศ เช่น โรงงานใหม่ในรัฐแอริโซนา อย่างไรก็ตาม หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์

    ทรัมป์เรียกร้องให้ Lip-Bu Tan ซีอีโอของ Intel ลาออกทันที
    ระบุว่าเขา “ขัดแย้งผลประโยชน์” จากความเกี่ยวข้องกับบริษัทจีน

    วุฒิสมาชิก Tom Cotton ส่งจดหมายสอบถามคณะกรรมการ Intel
    ตั้งคำถามเกี่ยวกับการลงทุนของ Tan ในบริษัทจีนที่มีความเกี่ยวข้องกับกองทัพ

    Cadence Design Systems ซึ่ง Tan เคยเป็นซีอีโอ ถูกปรับ 140 ล้านดอลลาร์
    จากการละเมิดข้อจำกัดการส่งออกไปยังมหาวิทยาลัยทหารของจีน

    Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์
    เพื่อสร้างโรงงานผลิตชิปในสหรัฐ เช่น ในรัฐโอไฮโอและแอริโซนา

    Intel ออกแถลงการณ์ยืนยันความมุ่งมั่นต่อความมั่นคงของชาติ
    ระบุว่า Tan และบริษัทมีเป้าหมายสอดคล้องกับนโยบาย America First

    หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์
    สะท้อนความกังวลของนักลงทุนต่อความไม่แน่นอนในผู้นำองค์กร

    https://www.tomshardware.com/tech-industry/big-tech/trump-calls-for-intel-ceo-to-resign-claims-lip-bu-tan-is-conflicted
    เรื่องนี้ลุงเห็นด้วยกับพี่ตั๊มป์ 🇺🇸💼 เรื่องเล่าจากโลกการเมืองและเทคโนโลยี: เมื่อทรัมป์เรียกร้องให้ซีอีโอ Intel ลาออก เพราะ “ขัดแย้งผลประโยชน์” กับจีน ในวันที่ 7 สิงหาคม 2025 อดีตประธานาธิบดีโดนัลด์ ทรัมป์ ได้โพสต์บน Truth Social เรียกร้องให้ Lip-Bu Tan ซีอีโอคนใหม่ของ Intel ลาออกทันที โดยกล่าวว่าเขา “ขัดแย้งผลประโยชน์อย่างรุนแรง” เนื่องจากมีความเกี่ยวข้องกับบริษัทเทคโนโลยีจีนหลายแห่ง รวมถึงบางแห่งที่มีความเชื่อมโยงกับกองทัพจีนและพรรคคอมมิวนิสต์จีน คำเรียกร้องนี้เกิดขึ้นหลังจากวุฒิสมาชิก Tom Cotton ส่งจดหมายถึงคณะกรรมการบริหารของ Intel เพื่อสอบถามว่า Tan ได้ขายหุ้นหรือถอนตัวจากบริษัทจีนที่อาจเป็นภัยต่อความมั่นคงของสหรัฐหรือไม่ โดยเฉพาะเมื่อ Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์เพื่อสร้างโรงงานในสหรัฐ Tan ซึ่งเข้ารับตำแหน่งในเดือนมีนาคม 2025 เคยเป็นซีอีโอของ Cadence Design Systems ซึ่งเพิ่งถูกปรับ 140 ล้านดอลลาร์จากการละเมิดข้อจำกัดการส่งออก โดยขายเทคโนโลยีให้กับมหาวิทยาลัยทหารของจีน Intel ตอบโต้ด้วยแถลงการณ์ว่า “บริษัทและ Tan มุ่งมั่นต่อความมั่นคงของชาติสหรัฐ” และยังคงลงทุนในโรงงานผลิตชิปในประเทศ เช่น โรงงานใหม่ในรัฐแอริโซนา อย่างไรก็ตาม หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์ ✅ ทรัมป์เรียกร้องให้ Lip-Bu Tan ซีอีโอของ Intel ลาออกทันที ➡️ ระบุว่าเขา “ขัดแย้งผลประโยชน์” จากความเกี่ยวข้องกับบริษัทจีน ✅ วุฒิสมาชิก Tom Cotton ส่งจดหมายสอบถามคณะกรรมการ Intel ➡️ ตั้งคำถามเกี่ยวกับการลงทุนของ Tan ในบริษัทจีนที่มีความเกี่ยวข้องกับกองทัพ ✅ Cadence Design Systems ซึ่ง Tan เคยเป็นซีอีโอ ถูกปรับ 140 ล้านดอลลาร์ ➡️ จากการละเมิดข้อจำกัดการส่งออกไปยังมหาวิทยาลัยทหารของจีน ✅ Intel ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่าเกือบ 8 พันล้านดอลลาร์ ➡️ เพื่อสร้างโรงงานผลิตชิปในสหรัฐ เช่น ในรัฐโอไฮโอและแอริโซนา ✅ Intel ออกแถลงการณ์ยืนยันความมุ่งมั่นต่อความมั่นคงของชาติ ➡️ ระบุว่า Tan และบริษัทมีเป้าหมายสอดคล้องกับนโยบาย America First ✅ หุ้นของ Intel ร่วงลงทันทีหลังคำเรียกร้องของทรัมป์ ➡️ สะท้อนความกังวลของนักลงทุนต่อความไม่แน่นอนในผู้นำองค์กร https://www.tomshardware.com/tech-industry/big-tech/trump-calls-for-intel-ceo-to-resign-claims-lip-bu-tan-is-conflicted
    WWW.TOMSHARDWARE.COM
    Trump calls for Intel CEO to resign — claims Lip-Bu Tan is 'conflicted' (Update)
    The Truth Social post comes as a senator scrutinizes Tan's ties to Chinese tech firms.
    0 ความคิดเห็น 0 การแบ่งปัน 214 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029

    ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า

    Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth

    แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป

    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4
    เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC

    Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s
    ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น

    ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS
    เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด

    ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่
    ลด latency และเพิ่ม bandwidth ในการใช้งานจริง

    คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030
    ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC

    PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน
    เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่

    คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS
    ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization

    SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู
    ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้

    เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น
    ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต

    https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    🚀💾 เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029 ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป ✅ Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4 ➡️ เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC ✅ Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s ➡️ ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น ✅ ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS ➡️ เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด ✅ ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่ ➡️ ลด latency และเพิ่ม bandwidth ในการใช้งานจริง ✅ คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030 ➡️ ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC ✅ PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน ➡️ เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่ ✅ คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS ➡️ ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization ✅ SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู ➡️ ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้ ✅ เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น ➡️ ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    0 ความคิดเห็น 0 การแบ่งปัน 197 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม

    ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย

    MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง

    Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา

    Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU
    เหลือเพียง 2x, 4x และ 8x เท่านั้น

    การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2
    เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux

    XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า
    รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA

    XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia
    เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา

    Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake
    เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่

    MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ
    แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี

    AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด
    ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน

    Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ
    เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ

    การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง
    เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    🎮🧠 เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา ✅ Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU ➡️ เหลือเพียง 2x, 4x และ 8x เท่านั้น ✅ การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2 ➡️ เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux ✅ XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า ➡️ รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA ✅ XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia ➡️ เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา ✅ Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake ➡️ เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่ ✅ MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ ➡️ แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี ✅ AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด ➡️ ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน ✅ Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ ➡️ เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ ✅ การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง ➡️ เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    0 ความคิดเห็น 0 การแบ่งปัน 210 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกซีพียู: Intel เตรียมคืนชีพ AVX-512 บน Nova Lake และ Xeon รุ่นใหม่

    หลังจากที่ Intel เคยถอดฟีเจอร์ AVX-512 ออกจากซีพียูรุ่นหลักหลายรุ่นในอดีต เช่น Alder Lake และ Raptor Lake เพราะปัญหาด้านความร้อนและการใช้พลังงาน รวมถึงความไม่เข้ากันระหว่าง P-Core กับ E-Core ตอนนี้ดูเหมือนว่า AVX-512 กำลังจะกลับมาอีกครั้งในรูปแบบใหม่ที่ชื่อว่า AVX 10.2

    จากแพตช์ล่าสุดของ oneDNN v3.9-rc มีการเปิดเผยว่า Intel เตรียมรองรับ AVX 10.2 “512-bit” บนซีพียู Core รุ่นใหม่ (คาดว่าเป็น Nova Lake) และ Xeon รุ่นใหม่ (คาดว่าเป็น Diamond Rapids) โดย AVX 10.2 จะทำให้ทั้ง P-Core และ E-Core รองรับชุดคำสั่งเวกเตอร์ขนาด 512 บิตได้อย่างเต็มรูปแบบ

    Nova Lake จะใช้สถาปัตยกรรม Coyote Cove สำหรับ P-Core และ Arctic Wolf สำหรับ E-Core ซึ่งถือเป็นการอัปเกรดครั้งใหญ่ โดยเฉพาะเมื่อ AVX-512 ถูกนำกลับมาใช้งานร่วมกับ SMT (Simultaneous Multithreading) ที่เคยถูกถอดออกในบางรุ่น Xeon ก่อนหน้านี้

    นอกจากนี้ยังมีการปรับปรุงด้านกราฟิก โดย Xe3 GPU จะได้รับการเพิ่มประสิทธิภาพ และจะถูกนำมาใช้ในซีพียู Panther Lake รุ่นถัดไป รวมถึงอาจมีการเปิดตัว GPU แยกในชื่อ “Celestial” อีกด้วย

    Intel เตรียมรองรับ AVX 10.2 “512-bit” บนซีพียู Core และ Xeon รุ่นใหม่
    คาดว่าเป็น Nova Lake สำหรับ Core และ Diamond Rapids สำหรับ Xeon

    AVX 10.2 จะทำให้ทั้ง P-Core และ E-Core รองรับชุดคำสั่งเวกเตอร์ 512 บิต
    ถือเป็นการอัปเกรดครั้งใหญ่จาก AVX-512 เดิม

    สถาปัตยกรรมของ Nova Lake คือ Coyote Cove (P-Core) และ Arctic Wolf (E-Core)
    รองรับ AVX-512 แบบเต็มรูปแบบทุกคอร์

    Xe3 GPU ได้รับการปรับปรุงประสิทธิภาพในแพตช์ล่าสุด
    จะถูกใช้ในซีพียู Panther Lake และอาจมีรุ่นแยกชื่อ Celestial

    Coral Rapids จะเป็น Xeon รุ่นแรกที่นำ SMT กลับมา
    ต่างจาก Diamond Rapids ที่ไม่มี SMT

    Nova Lake คาดว่าจะมีสูงสุด 16 P-Core และ 32 E-Core
    อาจให้ประสิทธิภาพสูงกว่า Arrow Lake ถึงสองเท่า

    AVX 10.2 จะรวมฟีเจอร์ AVX-512VL และรองรับ register 256 บิต
    พร้อม mask register 32 บิต และ rounding แบบฝังในคำสั่ง

    Intel เตรียมเปลี่ยน CPUID เป็น “Family 19” ใน Panther Cove
    สะท้อนการเปลี่ยนแปลงครั้งใหญ่ในสถาปัตยกรรม x86

    APX จะเพิ่ม register จาก 16 เป็น 32 ตัว
    ลดข้อจำกัดเดิมของ x86 และเพิ่มประสิทธิภาพในการประมวลผล

    Intel ใช้ GPU กว่า 100,000 ตัวในการเทรนและทดสอบ AVX 10.2
    เพื่อรองรับการใช้งานในระดับเซิร์ฟเวอร์และ HPC

    https://wccftech.com/intel-adds-avx-10-2-512-bit-support-future-desktop-core-server-xeon-cpus-hinting-at-enablement-for-nova-lake/
    ⚙️🧠 เรื่องเล่าจากโลกซีพียู: Intel เตรียมคืนชีพ AVX-512 บน Nova Lake และ Xeon รุ่นใหม่ หลังจากที่ Intel เคยถอดฟีเจอร์ AVX-512 ออกจากซีพียูรุ่นหลักหลายรุ่นในอดีต เช่น Alder Lake และ Raptor Lake เพราะปัญหาด้านความร้อนและการใช้พลังงาน รวมถึงความไม่เข้ากันระหว่าง P-Core กับ E-Core ตอนนี้ดูเหมือนว่า AVX-512 กำลังจะกลับมาอีกครั้งในรูปแบบใหม่ที่ชื่อว่า AVX 10.2 จากแพตช์ล่าสุดของ oneDNN v3.9-rc มีการเปิดเผยว่า Intel เตรียมรองรับ AVX 10.2 “512-bit” บนซีพียู Core รุ่นใหม่ (คาดว่าเป็น Nova Lake) และ Xeon รุ่นใหม่ (คาดว่าเป็น Diamond Rapids) โดย AVX 10.2 จะทำให้ทั้ง P-Core และ E-Core รองรับชุดคำสั่งเวกเตอร์ขนาด 512 บิตได้อย่างเต็มรูปแบบ Nova Lake จะใช้สถาปัตยกรรม Coyote Cove สำหรับ P-Core และ Arctic Wolf สำหรับ E-Core ซึ่งถือเป็นการอัปเกรดครั้งใหญ่ โดยเฉพาะเมื่อ AVX-512 ถูกนำกลับมาใช้งานร่วมกับ SMT (Simultaneous Multithreading) ที่เคยถูกถอดออกในบางรุ่น Xeon ก่อนหน้านี้ นอกจากนี้ยังมีการปรับปรุงด้านกราฟิก โดย Xe3 GPU จะได้รับการเพิ่มประสิทธิภาพ และจะถูกนำมาใช้ในซีพียู Panther Lake รุ่นถัดไป รวมถึงอาจมีการเปิดตัว GPU แยกในชื่อ “Celestial” อีกด้วย ✅ Intel เตรียมรองรับ AVX 10.2 “512-bit” บนซีพียู Core และ Xeon รุ่นใหม่ ➡️ คาดว่าเป็น Nova Lake สำหรับ Core และ Diamond Rapids สำหรับ Xeon ✅ AVX 10.2 จะทำให้ทั้ง P-Core และ E-Core รองรับชุดคำสั่งเวกเตอร์ 512 บิต ➡️ ถือเป็นการอัปเกรดครั้งใหญ่จาก AVX-512 เดิม ✅ สถาปัตยกรรมของ Nova Lake คือ Coyote Cove (P-Core) และ Arctic Wolf (E-Core) ➡️ รองรับ AVX-512 แบบเต็มรูปแบบทุกคอร์ ✅ Xe3 GPU ได้รับการปรับปรุงประสิทธิภาพในแพตช์ล่าสุด ➡️ จะถูกใช้ในซีพียู Panther Lake และอาจมีรุ่นแยกชื่อ Celestial ✅ Coral Rapids จะเป็น Xeon รุ่นแรกที่นำ SMT กลับมา ➡️ ต่างจาก Diamond Rapids ที่ไม่มี SMT ✅ Nova Lake คาดว่าจะมีสูงสุด 16 P-Core และ 32 E-Core ➡️ อาจให้ประสิทธิภาพสูงกว่า Arrow Lake ถึงสองเท่า ✅ AVX 10.2 จะรวมฟีเจอร์ AVX-512VL และรองรับ register 256 บิต ➡️ พร้อม mask register 32 บิต และ rounding แบบฝังในคำสั่ง ✅ Intel เตรียมเปลี่ยน CPUID เป็น “Family 19” ใน Panther Cove ➡️ สะท้อนการเปลี่ยนแปลงครั้งใหญ่ในสถาปัตยกรรม x86 ✅ APX จะเพิ่ม register จาก 16 เป็น 32 ตัว ➡️ ลดข้อจำกัดเดิมของ x86 และเพิ่มประสิทธิภาพในการประมวลผล ✅ Intel ใช้ GPU กว่า 100,000 ตัวในการเทรนและทดสอบ AVX 10.2 ➡️ เพื่อรองรับการใช้งานในระดับเซิร์ฟเวอร์และ HPC https://wccftech.com/intel-adds-avx-10-2-512-bit-support-future-desktop-core-server-xeon-cpus-hinting-at-enablement-for-nova-lake/
    WCCFTECH.COM
    Intel Adds AVX 10.2 "512-bit" Support For Future Desktop "Core" & Server "Xeon" CPUs: Hinting at Enablement For Nova Lake
    Intel is seemingly adding early support for AVX 10.2 "512-bit" for its future Xeon "Diamond Rapids" & Core "Nova Lake" CPUs.
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • DDR4 ยังไม่ตาย! เรื่องเล่าจากโลกหน่วยความจำที่ยังไม่ยอมลาจาก

    แม้ว่า DDR5 จะกลายเป็นมาตรฐานใหม่ในโลกของหน่วยความจำ แต่ DDR4 ก็ยังไม่ยอมแพ้ง่าย ๆ เพราะผู้ผลิตรายใหญ่ทั้ง Samsung, SK hynix และ Micron ต่างประกาศว่าจะยังคงผลิต DDR4 ต่อไปจนถึงปี 2026 เพื่อรองรับลูกค้าในอุตสาหกรรมที่ยังต้องพึ่งพาหน่วยความจำรุ่นเก่า

    สาเหตุหลักคือความต้องการที่ยังคงสูง โดยเฉพาะในกลุ่มผู้ใช้ทั่วไปและองค์กรที่ยังใช้แพลตฟอร์มที่รองรับ DDR4 เช่น Intel Gen 13/14 และ AMD รุ่นก่อนหน้า อีกทั้งราคาของ DDR4 ก็พุ่งขึ้นอย่างต่อเนื่อง ทำให้ผู้ผลิตยังสามารถทำกำไรจากสายการผลิตที่ถูกหักค่าเสื่อมราคาไปแล้ว

    Micron ได้แจ้งลูกค้าล่วงหน้าว่าจะสิ้นสุดการส่ง DDR4 ภายในไตรมาสแรกของปี 2026 ขณะที่ Samsung และ SK hynix จะทยอยหยุดการผลิตในช่วงปลายปี 2025 ถึงกลางปี 2026 อย่างไรก็ตาม ผู้ผลิตรายเล็กและกลุ่มอุตสาหกรรมเฉพาะทางจะยังคงได้รับการสนับสนุนต่อไปอีกหลายปี

    Samsung จะผลิต DDR4 ต่อถึงปลายปี 2025
    ใช้เทคโนโลยี 1z node ที่ต้นทุนต่ำและยังทำกำไรได้

    SK hynix จะหยุดผลิต DDR4 ในช่วง Q2 ปี 2026
    อาจเป็นผู้ผลิตรายใหญ่รายสุดท้ายที่ยังผลิต DDR4

    Micron จะส่งมอบ DDR4 ชุดสุดท้ายในต้นปี 2026
    แจ้ง EOL (End-of-Life) ให้ลูกค้าในกลุ่ม PC, data center และมือถือ

    DDR4 ยังมีความต้องการสูงในตลาด PC และเซิร์ฟเวอร์
    ราคาสัญญา DDR4 พุ่งขึ้น 38–45% ใน Q3 ปี 2025

    DDR4 จะยังคงใช้ในอุตสาหกรรมยานยนต์, โทรคมนาคม และการทหาร
    Micron จะยังผลิต DDR4 บน 1α node สำหรับลูกค้าระยะยาว

    https://www.tomshardware.com/pc-components/ddr4/ddr4-production-expected-to-continue-until-2026-samsung-sk-hynix-and-micron-will-continue-serving-industry-clients-for-longer
    🧠💾 DDR4 ยังไม่ตาย! เรื่องเล่าจากโลกหน่วยความจำที่ยังไม่ยอมลาจาก แม้ว่า DDR5 จะกลายเป็นมาตรฐานใหม่ในโลกของหน่วยความจำ แต่ DDR4 ก็ยังไม่ยอมแพ้ง่าย ๆ เพราะผู้ผลิตรายใหญ่ทั้ง Samsung, SK hynix และ Micron ต่างประกาศว่าจะยังคงผลิต DDR4 ต่อไปจนถึงปี 2026 เพื่อรองรับลูกค้าในอุตสาหกรรมที่ยังต้องพึ่งพาหน่วยความจำรุ่นเก่า สาเหตุหลักคือความต้องการที่ยังคงสูง โดยเฉพาะในกลุ่มผู้ใช้ทั่วไปและองค์กรที่ยังใช้แพลตฟอร์มที่รองรับ DDR4 เช่น Intel Gen 13/14 และ AMD รุ่นก่อนหน้า อีกทั้งราคาของ DDR4 ก็พุ่งขึ้นอย่างต่อเนื่อง ทำให้ผู้ผลิตยังสามารถทำกำไรจากสายการผลิตที่ถูกหักค่าเสื่อมราคาไปแล้ว Micron ได้แจ้งลูกค้าล่วงหน้าว่าจะสิ้นสุดการส่ง DDR4 ภายในไตรมาสแรกของปี 2026 ขณะที่ Samsung และ SK hynix จะทยอยหยุดการผลิตในช่วงปลายปี 2025 ถึงกลางปี 2026 อย่างไรก็ตาม ผู้ผลิตรายเล็กและกลุ่มอุตสาหกรรมเฉพาะทางจะยังคงได้รับการสนับสนุนต่อไปอีกหลายปี ✅ Samsung จะผลิต DDR4 ต่อถึงปลายปี 2025 ➡️ ใช้เทคโนโลยี 1z node ที่ต้นทุนต่ำและยังทำกำไรได้ ✅ SK hynix จะหยุดผลิต DDR4 ในช่วง Q2 ปี 2026 ➡️ อาจเป็นผู้ผลิตรายใหญ่รายสุดท้ายที่ยังผลิต DDR4 ✅ Micron จะส่งมอบ DDR4 ชุดสุดท้ายในต้นปี 2026 ➡️ แจ้ง EOL (End-of-Life) ให้ลูกค้าในกลุ่ม PC, data center และมือถือ ✅ DDR4 ยังมีความต้องการสูงในตลาด PC และเซิร์ฟเวอร์ ➡️ ราคาสัญญา DDR4 พุ่งขึ้น 38–45% ใน Q3 ปี 2025 ✅ DDR4 จะยังคงใช้ในอุตสาหกรรมยานยนต์, โทรคมนาคม และการทหาร ➡️ Micron จะยังผลิต DDR4 บน 1α node สำหรับลูกค้าระยะยาว https://www.tomshardware.com/pc-components/ddr4/ddr4-production-expected-to-continue-until-2026-samsung-sk-hynix-and-micron-will-continue-serving-industry-clients-for-longer
    0 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์

    Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้

    Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center

    นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที

    Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง

    Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V
    เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง

    OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines
    รองรับงาน AI, graphics และ multimodal workloads

    OxQuilt เป็นระบบประกอบ SoC แบบ chiplet
    ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ

    OXCapsule เป็น runtime ที่จัดการ workload และ abstraction
    ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด

    OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware
    เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที

    ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น
    สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing

    Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง
    ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output

    โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90%
    ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out

    RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded
    มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด

    Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ
    การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads

    Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster
    ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload

    https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    🧠⚙️ เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้ Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง ✅ Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V ➡️ เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง ✅ OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines ➡️ รองรับงาน AI, graphics และ multimodal workloads ✅ OxQuilt เป็นระบบประกอบ SoC แบบ chiplet ➡️ ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ ✅ OXCapsule เป็น runtime ที่จัดการ workload และ abstraction ➡️ ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด ✅ OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware ➡️ เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที ✅ ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น ➡️ สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing ✅ Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง ➡️ ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output ✅ โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90% ➡️ ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out ✅ RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded ➡️ มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด ✅ Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ ➡️ การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads ✅ Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster ➡️ ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเวทีการค้าระดับโลก: เมื่อสหรัฐฯ เสนอเงื่อนไขสุดโหดให้ TSMC เพื่อช่วย Intel และลดภาษีให้ไต้หวัน

    ในช่วงที่สงครามการค้าระหว่างสหรัฐฯ กับหลายประเทศยังคุกรุ่น รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดี Donald Trump ได้ใช้ภาษีศุลกากรเป็นเครื่องมือหลักในการลดการขาดดุลการค้า โดยเฉพาะกับไต้หวัน ซึ่งปัจจุบันถูกเก็บภาษีสูงถึง 20% ขณะที่ประเทศอื่นอย่างญี่ปุ่นจ่ายเพียง 15%

    เพื่อแลกกับการลดภาษีเหล่านี้ สหรัฐฯ ได้เสนอเงื่อนไขที่หนักหน่วงให้กับไต้หวันผ่านบริษัท TSMC ได้แก่:

    1️⃣ให้ TSMC ซื้อหุ้น 49% ของ Intel

    2️⃣ ให้ TSMC ลงทุนเพิ่มอีก $400 พันล้านในสหรัฐฯ

    แม้ TSMC จะลงทุนในสหรัฐฯ ไปแล้วกว่า $165 พันล้าน ทั้งในโรงงานผลิตชิปที่ Arizona และศูนย์วิจัย แต่เงื่อนไขใหม่นี้ถือว่าเกินขีดความสามารถทางการเงินและยุทธศาสตร์ของบริษัท

    เบื้องหลังของข้อเสนอนี้คือความพยายามของสหรัฐฯ ที่จะช่วย Intel ซึ่งกำลังตกต่ำอย่างหนัก รายได้ลดลงจาก $79 พันล้านในปี 2021 เหลือเพียง $53 พันล้านในปี 2024 และโรงงานใหม่ในรัฐโอไฮโอก็ถูกเลื่อนเปิดจากปี 2025 ไปเป็น 2030

    สหรัฐฯ เสนอให้ TSMC ซื้อหุ้น 49% ของ Intel
    เป็นเงื่อนไขในการลดภาษีศุลกากรสำหรับไต้หวัน

    TSMC ต้องลงทุนเพิ่มอีก $400 พันล้านในสหรัฐฯ
    นอกเหนือจากการลงทุนเดิม $165 พันล้าน

    Intel กำลังประสบปัญหาทางการเงินอย่างหนัก
    รายได้ลดลง 33% ในช่วง 3 ปีที่ผ่านมา

    โรงงานใหม่ของ Intel ในโอไฮโอถูกเลื่อนเปิดเป็นปี 2030
    สะท้อนปัญหาการจัดการเงินทุนและการสนับสนุนจากภาครัฐ

    TSMC มีโรงงานและศูนย์วิจัยในสหรัฐฯ อยู่แล้ว
    รวมถึงโรงงานที่เริ่มผลิตในปี 2024 และอีกสองแห่งที่กำลังก่อสร้าง

    การถือหุ้น 49% ไม่ได้ให้สิทธิ์ควบคุมกิจการ
    TSMC จะไม่มีอำนาจในการบริหาร Intel โดยตรง

    Intel มีการขายหุ้นโรงงานให้กับบริษัทเอกชนแล้ว
    เช่น Brookfield Asset Management ถือหุ้นบางส่วน

    TSMC เป็นบริษัท foundry แบบ pure-play
    ไม่ได้มีธุรกิจ consumer product แบบ Intel

    การควบรวมอาจไม่เกิด synergy ที่แท้จริง
    เพราะโมเดลธุรกิจของทั้งสองบริษัทต่างกัน

    https://www.notebookcheck.net/Desperate-measures-to-save-Intel-US-reportedly-forcing-TSMC-to-buy-49-stake-in-Intel-to-secure-tariff-relief-for-Taiwan.1079424.0.html
    🇺🇸💻 เรื่องเล่าจากเวทีการค้าระดับโลก: เมื่อสหรัฐฯ เสนอเงื่อนไขสุดโหดให้ TSMC เพื่อช่วย Intel และลดภาษีให้ไต้หวัน ในช่วงที่สงครามการค้าระหว่างสหรัฐฯ กับหลายประเทศยังคุกรุ่น รัฐบาลสหรัฐฯ ภายใต้การนำของประธานาธิบดี Donald Trump ได้ใช้ภาษีศุลกากรเป็นเครื่องมือหลักในการลดการขาดดุลการค้า โดยเฉพาะกับไต้หวัน ซึ่งปัจจุบันถูกเก็บภาษีสูงถึง 20% ขณะที่ประเทศอื่นอย่างญี่ปุ่นจ่ายเพียง 15% เพื่อแลกกับการลดภาษีเหล่านี้ สหรัฐฯ ได้เสนอเงื่อนไขที่หนักหน่วงให้กับไต้หวันผ่านบริษัท TSMC ได้แก่: 1️⃣ให้ TSMC ซื้อหุ้น 49% ของ Intel 2️⃣ ให้ TSMC ลงทุนเพิ่มอีก $400 พันล้านในสหรัฐฯ แม้ TSMC จะลงทุนในสหรัฐฯ ไปแล้วกว่า $165 พันล้าน ทั้งในโรงงานผลิตชิปที่ Arizona และศูนย์วิจัย แต่เงื่อนไขใหม่นี้ถือว่าเกินขีดความสามารถทางการเงินและยุทธศาสตร์ของบริษัท เบื้องหลังของข้อเสนอนี้คือความพยายามของสหรัฐฯ ที่จะช่วย Intel ซึ่งกำลังตกต่ำอย่างหนัก รายได้ลดลงจาก $79 พันล้านในปี 2021 เหลือเพียง $53 พันล้านในปี 2024 และโรงงานใหม่ในรัฐโอไฮโอก็ถูกเลื่อนเปิดจากปี 2025 ไปเป็น 2030 ✅ สหรัฐฯ เสนอให้ TSMC ซื้อหุ้น 49% ของ Intel ➡️ เป็นเงื่อนไขในการลดภาษีศุลกากรสำหรับไต้หวัน ✅ TSMC ต้องลงทุนเพิ่มอีก $400 พันล้านในสหรัฐฯ ➡️ นอกเหนือจากการลงทุนเดิม $165 พันล้าน ✅ Intel กำลังประสบปัญหาทางการเงินอย่างหนัก ➡️ รายได้ลดลง 33% ในช่วง 3 ปีที่ผ่านมา ✅ โรงงานใหม่ของ Intel ในโอไฮโอถูกเลื่อนเปิดเป็นปี 2030 ➡️ สะท้อนปัญหาการจัดการเงินทุนและการสนับสนุนจากภาครัฐ ✅ TSMC มีโรงงานและศูนย์วิจัยในสหรัฐฯ อยู่แล้ว ➡️ รวมถึงโรงงานที่เริ่มผลิตในปี 2024 และอีกสองแห่งที่กำลังก่อสร้าง ✅ การถือหุ้น 49% ไม่ได้ให้สิทธิ์ควบคุมกิจการ ➡️ TSMC จะไม่มีอำนาจในการบริหาร Intel โดยตรง ✅ Intel มีการขายหุ้นโรงงานให้กับบริษัทเอกชนแล้ว ➡️ เช่น Brookfield Asset Management ถือหุ้นบางส่วน ✅ TSMC เป็นบริษัท foundry แบบ pure-play ➡️ ไม่ได้มีธุรกิจ consumer product แบบ Intel ✅ การควบรวมอาจไม่เกิด synergy ที่แท้จริง ➡️ เพราะโมเดลธุรกิจของทั้งสองบริษัทต่างกัน https://www.notebookcheck.net/Desperate-measures-to-save-Intel-US-reportedly-forcing-TSMC-to-buy-49-stake-in-Intel-to-secure-tariff-relief-for-Taiwan.1079424.0.html
    WWW.NOTEBOOKCHECK.NET
    Desperate measures to save Intel: US reportedly forcing TSMC to buy 49% stake in Intel to secure tariff relief for Taiwan
    A new report out of Taiwan has revealed that the current US administration is tying the reduction on trade of trade tariffs on Taiwan to significant TSMC investment in the US. This investment includes a 49% stake in Intel.
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • Remini Mod APK is a modified interpretation of the popular Remini app, which uses artificial intelligence to ameliorate print quality. While the original app offers introductory features for free and charges for decoration tools, the Mod APK provides unlimited access to all decoration features without advertisements, watermarks, or subscription freights. https://reminimodapp.org/
    Remini Mod APK is a modified interpretation of the popular Remini app, which uses artificial intelligence to ameliorate print quality. While the original app offers introductory features for free and charges for decoration tools, the Mod APK provides unlimited access to all decoration features without advertisements, watermarks, or subscription freights. https://reminimodapp.org/
    REMINIMODAPP.ORG
    Remini Mod Apk – Download Remini (Official) New Version
    Welcome to our latest version of Remini MOD APK. This amazing photo enhancer app uses advanced AI technology to improve the quality of your old and blurry
    0 ความคิดเห็น 0 การแบ่งปัน 160 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia

    ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง

    CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ

    การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย

    Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ

    แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว

    Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU
    เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด

    CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous
    มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI

    Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน
    เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend

    การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia
    จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล

    Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ
    โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA

    CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia
    นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น

    Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia
    โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์

    การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง
    เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว

    รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ
    เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    🧠💻 เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว ✅ Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU ➡️ เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด ✅ CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous ➡️ มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI ✅ Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน ➡️ เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend ✅ การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia ➡️ จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล ✅ Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ ➡️ โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA ✅ CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia ➡️ นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น ✅ Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia ➡️ โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์ ✅ การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง ➡️ เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว ✅ รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ ➡️ เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    WWW.TOMSHARDWARE.COM
    Huawei is making its Ascend AI GPU software toolkit open-source to better compete against CUDA
    Huawei is getting better at making AI GPUs. Now it wants to increase adoption of its technology on the software side
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
Pages Boosts