• DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei

    DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน

    แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ

    สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ

    นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง

    แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง

    DeepSeek ล่าช้าในการเปิดตัวโมเดล R2
    เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด
    ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ

    ปัญหาจากการใช้ชิป Huawei Ascend 910C
    มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า
    ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA
    ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ

    การเปลี่ยนกลับมาใช้ชิป NVIDIA
    ใช้ NVIDIA H20 ในการฝึกโมเดล R2
    ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน
    เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้

    ปัจจัยอื่นที่ทำให้ R2 ล่าช้า
    การติดป้ายข้อมูลใช้เวลานานกว่าคาด
    ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง
    รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย

    https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    🧠 DeepSeek R2: โมเดล AI ที่สะดุดเพราะชิป Huawei DeepSeek บริษัท AI สัญชาติจีนที่เคยสร้างชื่อจากโมเดล R1 กำลังเผชิญกับความท้าทายครั้งใหญ่ในการพัฒนา R2 ซึ่งเดิมทีตั้งใจจะใช้ชิป Ascend 910C ของ Huawei ในการฝึกโมเดล เพื่อสนับสนุนแนวทาง “พึ่งพาตนเอง” ของรัฐบาลจีน แต่ผลลัพธ์กลับไม่เป็นไปตามแผน แม้ Huawei จะส่งทีมวิศวกรไปช่วย DeepSeek โดยตรง แต่ชิป Ascend กลับมีปัญหาหลายด้าน เช่น ความร้อนสูง, การเชื่อมต่อระหว่างชิปที่ช้า, และซอฟต์แวร์ที่ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ทำให้ DeepSeek ไม่สามารถฝึกโมเดล R2 ได้สำเร็จ สุดท้าย DeepSeek ต้องหันกลับมาใช้ชิป NVIDIA H20 ในการฝึกโมเดล และใช้ชิป Huawei เฉพาะในขั้นตอน inference เท่านั้น ซึ่งเป็นการประนีประนอมระหว่างประสิทธิภาพและนโยบายรัฐ นอกจากนี้ ยังมีปัจจัยอื่นที่ทำให้ R2 ล่าช้า เช่น การติดป้ายข้อมูล (data labeling) ที่ใช้เวลานานกว่าคาด และความกังวลเรื่องความปลอดภัยของชิป NVIDIA ที่อาจมีระบบติดตามตำแหน่ง ทำให้รัฐบาลจีนลังเลที่จะอนุมัติการใช้งานในวงกว้าง แม้ DeepSeek จะยังไม่ประกาศวันเปิดตัวใหม่อย่างเป็นทางการ แต่คาดว่าโมเดล R2 จะเปิดตัวภายในไม่กี่สัปดาห์ข้างหน้า โดยต้องแข่งกับคู่แข่งอย่าง Qwen3 จาก Alibaba ที่กำลังมาแรง ✅ DeepSeek ล่าช้าในการเปิดตัวโมเดล R2 ➡️ เดิมตั้งใจเปิดตัวในเดือนพฤษภาคม แต่เลื่อนออกไปไม่มีกำหนด ➡️ ปัจจุบันยังอยู่ในขั้นตอนปรับปรุงและทดสอบประสิทธิภาพ ✅ ปัญหาจากการใช้ชิป Huawei Ascend 910C ➡️ มีปัญหาความร้อนสูงและการเชื่อมต่อระหว่างชิปที่ช้า ➡️ ซอฟต์แวร์ CANN ยังไม่เทียบเท่ากับ CUDA ของ NVIDIA ➡️ ไม่สามารถฝึกโมเดลขนาดใหญ่ได้สำเร็จ ✅ การเปลี่ยนกลับมาใช้ชิป NVIDIA ➡️ ใช้ NVIDIA H20 ในการฝึกโมเดล R2 ➡️ ใช้ Huawei เฉพาะในขั้นตอน inference เพื่อประหยัดต้นทุน ➡️ เป็นแนวทางแบบ hybrid ที่หลายบริษัทจีนเริ่มนำมาใช้ ✅ ปัจจัยอื่นที่ทำให้ R2 ล่าช้า ➡️ การติดป้ายข้อมูลใช้เวลานานกว่าคาด ➡️ ผู้ก่อตั้งไม่พอใจกับความก้าวหน้า และต้องการคุณภาพสูงกว่าคู่แข่ง ➡️ รัฐบาลจีนยังลังเลเรื่องการอนุมัติชิป NVIDIA เพราะข้อกังวลด้านความปลอดภัย https://wccftech.com/deepseek-r2-ai-model-is-reportedly-delayed-after-chinese-authorities-encouraged-the-firm-to-use-huawei-ai-chips/
    WCCFTECH.COM
    DeepSeek's R2 AI Model Is Reportedly Delayed After Chinese Authorities Encouraged the Firm to Use Huawei's AI Chips; Beijing Is Still in Need of NVIDIA's Alternatives
    Well, relying on Huawei's AI chips didn't go well for DeepSeek, as the AI firm has failed to train the R2 model on Chinese chips.
    0 ความคิดเห็น 0 การแบ่งปัน 72 มุมมอง 0 รีวิว
  • Microsoft เปิดทางให้เกมเมอร์สาย Arm ได้เล่นเกม Xbox แบบติดตั้งจริง

    ก่อนหน้านี้ ถ้าใครใช้คอมพิวเตอร์ที่ใช้ชิป Arm เช่น Snapdragon X Elite หรือ Surface Laptop 7 แล้วอยากเล่นเกม Xbox บน Windows 11 ก็ต้องพึ่งพา “Xbox Cloud Gaming” เท่านั้น ซึ่งหมายความว่าต้องมีอินเทอร์เน็ตแรง ๆ และไม่สามารถเล่นแบบออฟไลน์ได้เลย

    แต่ตอนนี้ Microsoft ได้ปล่อยอัปเดตใหม่ให้กับแอป Xbox บน Windows 11 ที่ใช้ชิป Arm โดยเปิดให้ “ดาวน์โหลดเกมและเล่นแบบ native” ได้แล้ว!

    ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบสำหรับผู้ที่เข้าร่วมโปรแกรม Windows Insider และ Xbox Insider เท่านั้น โดยต้องอัปเดตแอป Xbox PC เป็นเวอร์ชัน 2508.1001.27.0 ขึ้นไป

    การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่องเล็ก ๆ เพราะมันเป็นสัญญาณว่า Microsoft กำลังเตรียมตัวรับมือกับการเปลี่ยนแปลงครั้งใหญ่ในฮาร์ดแวร์ โดยเฉพาะการมาของชิป Arm จาก Nvidia ที่ร่วมมือกับ MediaTek ซึ่งมีข่าวลือว่าจะเปิดตัวในปี 2025–2026 พร้อม GPU ระดับ RTX 5070!

    นอกจากนี้ Microsoft ยังร่วมมือกับ Epic Games เพื่อให้ระบบ Easy Anti-Cheat รองรับ Arm แล้ว ทำให้เกมออนไลน์หลายเกม เช่น Fortnite หรือ DOTA 2 สามารถเล่นได้บนเครื่อง Arm โดยไม่โดนบล็อกจากระบบป้องกันโกง

    แม้ว่า Arm จะยังไม่แรงเท่า x86 จาก Intel หรือ AMD แต่การพัฒนาเหล่านี้กำลังเปลี่ยนภาพของ “เกมเมอร์สายประหยัดพลังงาน” ให้กลายเป็นกลุ่มที่น่าจับตามองในอนาคต

    Microsoft เปิดให้เล่นเกม Xbox แบบ native บน Windows 11 ที่ใช้ชิป Arm
    ต้องเข้าร่วมโปรแกรม Windows Insider และ Xbox Insider
    ใช้แอป Xbox PC เวอร์ชัน 2508.1001.27.0 ขึ้นไป
    สามารถดาวน์โหลดเกมจาก Game Pass และเล่นแบบออฟไลน์ได้

    ความร่วมมือระหว่าง Windows และ Xbox เพื่อขยายเกมที่รองรับ
    Microsoft กำลังพัฒนาให้เกมใน Game Pass เล่นได้บน Arm มากขึ้น
    มีการปรับปรุงระบบเพื่อรองรับ anti-cheat บน Arm เช่น Easy Anti-Cheat

    การมาของชิป Arm จาก Nvidia อาจเปลี่ยนเกมในตลาด PC
    Nvidia ร่วมมือกับ MediaTek พัฒนาชิป N1X และ N1 สำหรับ Windows
    N1X อาจมี GPU ระดับ Blackwell เทียบเท่า RTX 5070
    คาดว่าจะเปิดตัวในช่วงปลายปี 2025 ถึงต้นปี 2026

    https://www.tomshardware.com/video-games/pc-gaming/microsoft-brings-native-xbox-app-gaming-to-windows-on-arm-pcs-hints-at-bigger-hardware-shift-ahead
    🎮 Microsoft เปิดทางให้เกมเมอร์สาย Arm ได้เล่นเกม Xbox แบบติดตั้งจริง ก่อนหน้านี้ ถ้าใครใช้คอมพิวเตอร์ที่ใช้ชิป Arm เช่น Snapdragon X Elite หรือ Surface Laptop 7 แล้วอยากเล่นเกม Xbox บน Windows 11 ก็ต้องพึ่งพา “Xbox Cloud Gaming” เท่านั้น ซึ่งหมายความว่าต้องมีอินเทอร์เน็ตแรง ๆ และไม่สามารถเล่นแบบออฟไลน์ได้เลย แต่ตอนนี้ Microsoft ได้ปล่อยอัปเดตใหม่ให้กับแอป Xbox บน Windows 11 ที่ใช้ชิป Arm โดยเปิดให้ “ดาวน์โหลดเกมและเล่นแบบ native” ได้แล้ว! 🎉 ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบสำหรับผู้ที่เข้าร่วมโปรแกรม Windows Insider และ Xbox Insider เท่านั้น โดยต้องอัปเดตแอป Xbox PC เป็นเวอร์ชัน 2508.1001.27.0 ขึ้นไป การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่องเล็ก ๆ เพราะมันเป็นสัญญาณว่า Microsoft กำลังเตรียมตัวรับมือกับการเปลี่ยนแปลงครั้งใหญ่ในฮาร์ดแวร์ โดยเฉพาะการมาของชิป Arm จาก Nvidia ที่ร่วมมือกับ MediaTek ซึ่งมีข่าวลือว่าจะเปิดตัวในปี 2025–2026 พร้อม GPU ระดับ RTX 5070! นอกจากนี้ Microsoft ยังร่วมมือกับ Epic Games เพื่อให้ระบบ Easy Anti-Cheat รองรับ Arm แล้ว ทำให้เกมออนไลน์หลายเกม เช่น Fortnite หรือ DOTA 2 สามารถเล่นได้บนเครื่อง Arm โดยไม่โดนบล็อกจากระบบป้องกันโกง แม้ว่า Arm จะยังไม่แรงเท่า x86 จาก Intel หรือ AMD แต่การพัฒนาเหล่านี้กำลังเปลี่ยนภาพของ “เกมเมอร์สายประหยัดพลังงาน” ให้กลายเป็นกลุ่มที่น่าจับตามองในอนาคต ✅ Microsoft เปิดให้เล่นเกม Xbox แบบ native บน Windows 11 ที่ใช้ชิป Arm ➡️ ต้องเข้าร่วมโปรแกรม Windows Insider และ Xbox Insider ➡️ ใช้แอป Xbox PC เวอร์ชัน 2508.1001.27.0 ขึ้นไป ➡️ สามารถดาวน์โหลดเกมจาก Game Pass และเล่นแบบออฟไลน์ได้ ✅ ความร่วมมือระหว่าง Windows และ Xbox เพื่อขยายเกมที่รองรับ ➡️ Microsoft กำลังพัฒนาให้เกมใน Game Pass เล่นได้บน Arm มากขึ้น ➡️ มีการปรับปรุงระบบเพื่อรองรับ anti-cheat บน Arm เช่น Easy Anti-Cheat ✅ การมาของชิป Arm จาก Nvidia อาจเปลี่ยนเกมในตลาด PC ➡️ Nvidia ร่วมมือกับ MediaTek พัฒนาชิป N1X และ N1 สำหรับ Windows ➡️ N1X อาจมี GPU ระดับ Blackwell เทียบเท่า RTX 5070 ➡️ คาดว่าจะเปิดตัวในช่วงปลายปี 2025 ถึงต้นปี 2026 https://www.tomshardware.com/video-games/pc-gaming/microsoft-brings-native-xbox-app-gaming-to-windows-on-arm-pcs-hints-at-bigger-hardware-shift-ahead
    0 ความคิดเห็น 0 การแบ่งปัน 80 มุมมอง 0 รีวิว
  • ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น

    ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล”

    จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน

    หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก

    และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน

    นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์

    แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด

    GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล
    การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง
    GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า

    ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน
    ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน
    การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง

    ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI
    ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง
    ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน

    ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI
    ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล
    การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก

    คำเตือนเกี่ยวกับการใช้พลังงานของ AI
    การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร
    ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming

    ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม
    บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า
    การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity
    ⚡️เรื่องเล่าจากเบื้องหลัง AI: ฉลาดขึ้น แต่กินไฟมากขึ้น ในยุคที่ AI กลายเป็นผู้ช่วยประจำวันของหลายคน ไม่ว่าจะเป็นการถามคำถามผ่าน ChatGPT หรือสร้างภาพจากข้อความผ่าน Midjourney สิ่งที่หลายคนอาจไม่รู้คือ “เบื้องหลังความฉลาดนั้นกินไฟมหาศาล” จากรายงานล่าสุดของมหาวิทยาลัย Rhode Island พบว่า GPT-5 ซึ่งเป็นโมเดลใหม่ของ OpenAI ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า โดยการตอบคำถามระดับกลาง (ประมาณ 1,000 token) อาจใช้ไฟถึง 40 วัตต์-ชั่วโมง เทียบเท่ากับการชาร์จมือถือหลายรอบ หรือเปิดพัดลมทั้งวัน หากนำจำนวนคำถามที่ ChatGPT ได้รับต่อวัน (ราว 2.5 พันล้านครั้ง) มาคำนวณ จะพบว่า GPT-5 อาจใช้พลังงานถึง 45 กิกะวัตต์-ชั่วโมงต่อวัน ซึ่งเทียบเท่ากับการใช้ไฟของโรงไฟฟ้านิวเคลียร์ 2–3 โรง หรือเพียงพอสำหรับประเทศขนาดเล็ก และนี่คือแค่การ “ใช้งาน” ยังไม่รวมการ “ฝึกสอน” โมเดล ซึ่งใช้พลังงานมากกว่านี้หลายเท่า รวมถึงการใช้ GPU ระดับสูงอย่าง Nvidia H100 ที่กินไฟถึง 700 วัตต์ต่อชิ้น และต้องใช้ระบบระบายความร้อนที่ซับซ้อน นอกจากนี้ ยังมีผลกระทบทางสิ่งแวดล้อมอื่น ๆ เช่น การใช้น้ำมหาศาลเพื่อระบายความร้อนในศูนย์ข้อมูล การปล่อยคาร์บอนจากการผลิตฮาร์ดแวร์ และการสร้างโครงสร้างพื้นฐานใหม่ที่ใช้วัสดุอย่างเหล็กและซีเมนต์ แม้ AI จะมีศักยภาพในการช่วยลดการใช้ทรัพยากรในบางด้าน เช่น การเพิ่มประสิทธิภาพการผลิต หรือการวิเคราะห์ข้อมูลเพื่อแก้ปัญหาสิ่งแวดล้อม แต่ในระยะสั้น มันกำลังกลายเป็น “ผู้บริโภคพลังงานรายใหญ่” ที่อาจทำให้เป้าหมายด้านสิ่งแวดล้อมของหลายบริษัทต้องสะดุด ✅ GPT-5 ใช้พลังงานมากกว่า GPT-4 อย่างมหาศาล ➡️ การตอบคำถามระดับกลางใช้ไฟเฉลี่ย 18.35 Wh และสูงสุดถึง 40 Wh ต่อครั้ง ➡️ GPT-5 ใช้พลังงานมากกว่า GPT-4 ถึง 8.6 เท่า ✅ ปริมาณการใช้งานที่ส่งผลต่อระบบพลังงาน ➡️ ChatGPT มีคำถามเฉลี่ย 2.5 พันล้านครั้งต่อวัน ➡️ การใช้งาน GPT-5 อาจใช้ไฟถึง 45 GWh ต่อวัน เทียบเท่ากับโรงไฟฟ้านิวเคลียร์หลายโรง ✅ ฮาร์ดแวร์ที่ใช้ในการรันโมเดล AI ➡️ ใช้ GPU ระดับสูง เช่น Nvidia H100 หรือ H200 ที่กินไฟสูง ➡️ ระบบต้องมีการระบายความร้อนและโครงสร้างพื้นฐานที่ซับซ้อน ✅ ผลกระทบต่อสิ่งแวดล้อมจากการใช้ AI ➡️ ต้องใช้น้ำจำนวนมากในการระบายความร้อนในศูนย์ข้อมูล ➡️ การผลิตฮาร์ดแวร์และสร้างศูนย์ข้อมูลใหม่ปล่อยคาร์บอนจำนวนมาก ‼️ คำเตือนเกี่ยวกับการใช้พลังงานของ AI ⛔ การใช้ GPT-5 อาจทำให้ระบบไฟฟ้าในบางพื้นที่ไม่เสถียร ⛔ ศูนย์ข้อมูล AI อาจใช้ไฟมากกว่าประชากรทั้งรัฐ เช่นใน Wyoming ‼️ ความเสี่ยงต่อเป้าหมายด้านสิ่งแวดล้อม ⛔ บริษัทเทคโนโลยี เช่น Microsoft อาจไม่สามารถลดการปล่อยคาร์บอนได้ตามเป้า ⛔ การขยายศูนย์ข้อมูลต้องใช้วัสดุที่ปล่อยคาร์บอนสูง เช่น เหล็กและซีเมนต์ https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity
    0 ความคิดเห็น 0 การแบ่งปัน 90 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนาม AI: ลงทุนเป็นพันล้าน แต่ผลลัพธ์ยังไม่มา

    ลองนึกภาพบริษัททั่วโลกกำลังเทเงินมหาศาลลงในเทคโนโลยีปัญญาประดิษฐ์ (AI) ด้วยความหวังว่าจะได้ผลลัพธ์ที่เปลี่ยนเกม ทั้งลดต้นทุน เพิ่มประสิทธิภาพ และสร้างนวัตกรรมใหม่ ๆ แต่สิ่งที่เกิดขึ้นจริงกลับคล้ายกับ “Productivity Paradox” ที่เคยเกิดขึ้นในยุคคอมพิวเตอร์ส่วนบุคคลเมื่อ 40 ปีก่อน—ลงทุนเยอะ แต่ผลผลิตไม่เพิ่มตามที่คาดไว้

    บริษัทต่าง ๆ ใช้ AI เพื่อช่วยงานหลังบ้าน เช่น การเงิน ทรัพยากรบุคคล และบริการลูกค้า แต่หลายโครงการกลับล้มเหลวเพราะปัญหาทางเทคนิคและ “ปัจจัยมนุษย์” เช่น พนักงานต่อต้าน ขาดทักษะ หรือไม่เข้าใจการใช้งาน

    แม้จะมีความคาดหวังสูงจากเทคโนโลยีอย่าง ChatGPT หรือระบบอัตโนมัติ แต่ผลตอบแทนที่แท้จริงยังไม่ปรากฏชัดในตัวเลขกำไรของบริษัทนอกวงการเทคโนโลยี บางบริษัทถึงกับยกเลิกโครงการนำร่องไปเกือบครึ่ง

    อย่างไรก็ตาม ผู้เชี่ยวชาญเชื่อว่า AI อาจเป็น “เทคโนโลยีทั่วไป” (General Purpose Technology) เหมือนกับไฟฟ้าและอินเทอร์เน็ต ที่ต้องใช้เวลาหลายปีในการปรับตัวก่อนจะเห็นผลลัพธ์ที่แท้จริง

    การลงทุนใน AI ที่เพิ่มขึ้นอย่างรวดเร็ว
    บริษัททั่วโลกเทเงินกว่า 61.9 พันล้านดอลลาร์ในปี 2025 เพื่อพัฒนา AI
    อุตสาหกรรมซอฟต์แวร์ ธนาคาร และค้าปลีกเป็นกลุ่มที่ลงทุนมากที่สุด
    บริษัทเทคโนโลยีอย่าง Microsoft, Google, Amazon และ Nvidia เป็นผู้ได้ประโยชน์หลักในตอนนี้

    ปรากฏการณ์ Productivity Paradox กลับมาอีกครั้ง
    แม้จะมีการใช้ AI อย่างแพร่หลาย แต่ผลผลิตทางเศรษฐกิจยังไม่เพิ่มขึ้น
    ปัญหาหลักคือการนำ AI ไปใช้งานจริงยังไม่แพร่หลาย และต้องการการปรับตัวในองค์กร

    ตัวอย่างบริษัทที่เริ่มใช้ AI อย่างจริงจัง
    USAA ใช้ AI ช่วยพนักงานบริการลูกค้า 16,000 คนในการตอบคำถาม
    แม้ยังไม่มีตัวเลขผลตอบแทนที่ชัดเจน แต่พนักงานตอบรับในทางบวก

    ความล้มเหลวของโครงการ AI นำร่อง
    42% ของบริษัทที่เริ่มโครงการ AI ต้องยกเลิกภายในปี 2024
    ปัญหาหลักมาจาก “ปัจจัยมนุษย์” เช่น ขาดทักษะหรือความเข้าใจ

    ความคาดหวังที่อาจเกินจริง
    Gartner คาดว่า AI กำลังเข้าสู่ “ช่วงแห่งความผิดหวัง” ก่อนจะฟื้นตัว
    CEO ของ Ford คาดว่า AI จะมาแทนที่พนักงานออฟฟิศครึ่งหนึ่งในสหรัฐฯ

    https://www.thestar.com.my/tech/tech-news/2025/08/14/companies-are-pouring-billions-into-ai-it-has-yet-to-pay-off
    🎙️เรื่องเล่าจากสนาม AI: ลงทุนเป็นพันล้าน แต่ผลลัพธ์ยังไม่มา ลองนึกภาพบริษัททั่วโลกกำลังเทเงินมหาศาลลงในเทคโนโลยีปัญญาประดิษฐ์ (AI) ด้วยความหวังว่าจะได้ผลลัพธ์ที่เปลี่ยนเกม ทั้งลดต้นทุน เพิ่มประสิทธิภาพ และสร้างนวัตกรรมใหม่ ๆ แต่สิ่งที่เกิดขึ้นจริงกลับคล้ายกับ “Productivity Paradox” ที่เคยเกิดขึ้นในยุคคอมพิวเตอร์ส่วนบุคคลเมื่อ 40 ปีก่อน—ลงทุนเยอะ แต่ผลผลิตไม่เพิ่มตามที่คาดไว้ บริษัทต่าง ๆ ใช้ AI เพื่อช่วยงานหลังบ้าน เช่น การเงิน ทรัพยากรบุคคล และบริการลูกค้า แต่หลายโครงการกลับล้มเหลวเพราะปัญหาทางเทคนิคและ “ปัจจัยมนุษย์” เช่น พนักงานต่อต้าน ขาดทักษะ หรือไม่เข้าใจการใช้งาน แม้จะมีความคาดหวังสูงจากเทคโนโลยีอย่าง ChatGPT หรือระบบอัตโนมัติ แต่ผลตอบแทนที่แท้จริงยังไม่ปรากฏชัดในตัวเลขกำไรของบริษัทนอกวงการเทคโนโลยี บางบริษัทถึงกับยกเลิกโครงการนำร่องไปเกือบครึ่ง อย่างไรก็ตาม ผู้เชี่ยวชาญเชื่อว่า AI อาจเป็น “เทคโนโลยีทั่วไป” (General Purpose Technology) เหมือนกับไฟฟ้าและอินเทอร์เน็ต ที่ต้องใช้เวลาหลายปีในการปรับตัวก่อนจะเห็นผลลัพธ์ที่แท้จริง ✅ การลงทุนใน AI ที่เพิ่มขึ้นอย่างรวดเร็ว ➡️ บริษัททั่วโลกเทเงินกว่า 61.9 พันล้านดอลลาร์ในปี 2025 เพื่อพัฒนา AI ➡️ อุตสาหกรรมซอฟต์แวร์ ธนาคาร และค้าปลีกเป็นกลุ่มที่ลงทุนมากที่สุด ➡️ บริษัทเทคโนโลยีอย่าง Microsoft, Google, Amazon และ Nvidia เป็นผู้ได้ประโยชน์หลักในตอนนี้ ✅ ปรากฏการณ์ Productivity Paradox กลับมาอีกครั้ง ➡️ แม้จะมีการใช้ AI อย่างแพร่หลาย แต่ผลผลิตทางเศรษฐกิจยังไม่เพิ่มขึ้น ➡️ ปัญหาหลักคือการนำ AI ไปใช้งานจริงยังไม่แพร่หลาย และต้องการการปรับตัวในองค์กร ✅ ตัวอย่างบริษัทที่เริ่มใช้ AI อย่างจริงจัง ➡️ USAA ใช้ AI ช่วยพนักงานบริการลูกค้า 16,000 คนในการตอบคำถาม ➡️ แม้ยังไม่มีตัวเลขผลตอบแทนที่ชัดเจน แต่พนักงานตอบรับในทางบวก ‼️ ความล้มเหลวของโครงการ AI นำร่อง ⛔ 42% ของบริษัทที่เริ่มโครงการ AI ต้องยกเลิกภายในปี 2024 ⛔ ปัญหาหลักมาจาก “ปัจจัยมนุษย์” เช่น ขาดทักษะหรือความเข้าใจ ‼️ ความคาดหวังที่อาจเกินจริง ⛔ Gartner คาดว่า AI กำลังเข้าสู่ “ช่วงแห่งความผิดหวัง” ก่อนจะฟื้นตัว ⛔ CEO ของ Ford คาดว่า AI จะมาแทนที่พนักงานออฟฟิศครึ่งหนึ่งในสหรัฐฯ https://www.thestar.com.my/tech/tech-news/2025/08/14/companies-are-pouring-billions-into-ai-it-has-yet-to-pay-off
    WWW.THESTAR.COM.MY
    Companies are pouring billions into AI. It has yet to pay off.
    Corporate spending on artificial intelligence is surging as executives bank on major efficiency gains. So far, they report little effect to the bottom line.
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • RX 9060: การ์ดลับจาก AMD ที่แรงเกินคาด แม้จะยังขายแค่ในเครื่อง OEM

    AMD เปิดตัว Radeon RX 9060 แบบเงียบ ๆ โดยไม่มีวางขายแยก แต่ใส่มาในเครื่องพีซี OEM ที่จำหน่ายในบางประเทศ เช่น เกาหลีใต้ ซึ่ง YouTuber ชื่อ Technosaurus ได้แกะเครื่องออกมาและทดสอบประสิทธิภาพของการ์ดนี้อย่างละเอียด

    RX 9060 ใช้ชิป Navi 44 แบบลดสเปก มี 28 compute units, 1,792 shaders, 28 ray tracing cores และแรม GDDR6 ขนาด 8GB บนบัส 128-bit ความเร็วใกล้ 3 GHz ใช้พลังงานเพียง 135W และมาในรูปแบบการ์ดขนาดเล็กจาก Sapphire

    ผลการทดสอบในเกมระดับ AAA ที่ความละเอียด 1080p พบว่า RX 9060 มีประสิทธิภาพใกล้เคียงกับ RTX 5060 โดยช้ากว่าเพียง 2% และห่างจาก RX 9060 XT แค่ 6% แต่กลับแรงกว่า RTX 5050 ถึง 20% ซึ่งถือว่าเป็นการ์ดที่คุ้มค่ามากสำหรับเกมเมอร์สายประหยัด

    ในด้าน benchmark เช่น 3DMark Time Spy และ Fire Strike ก็แสดงผลลัพธ์ที่เหนือกว่า RTX 5050 อย่างชัดเจน และใกล้เคียงกับ RTX 5060 ทั้งในด้านเกมและ productivity

    อย่างไรก็ตาม RX 9060 ยังมีข้อจำกัดคือแรมแค่ 8GB ซึ่งอาจไม่เพียงพอสำหรับเกมรุ่นใหม่ที่ใช้ ray tracing หรือ texture ขนาดใหญ่ และ AMD ยังไม่มีแผนวางขายแยกในตลาดทั่วไป

    AMD เปิดตัว RX 9060 แบบ OEM เท่านั้น ยังไม่มีขายแยก
    พบในเครื่องพีซี OEM บางประเทศ เช่น เกาหลีใต้

    ใช้ชิป Navi 44 แบบลดสเปก มี 28 CUs และแรม 8GB GDDR6
    ความเร็วใกล้ 3 GHz ใช้พลังงาน 135W

    ประสิทธิภาพใกล้เคียง RTX 5060 และ RX 9060 XT
    ช้ากว่า RTX 5060 เพียง 2% และ RX 9060 XT แค่ 6%

    แรงกว่า RTX 5050 ถึง 20% ในเกมระดับ AAA
    เช่น Cyberpunk 2077, God of War, Warhammer 40K

    ผล benchmark ใน 3DMark สูงกว่า RTX 5050 อย่างชัดเจน
    Time Spy: 14,132 คะแนน, Fire Strike: 35,511 คะแนน

    ประสิทธิภาพเสถียรแม้ใช้กับ CPU ระดับกลาง
    เช่น Ryzen 5 7500F ก็ยังได้เฟรมเรตใกล้เคียง Ryzen 7 9800X3D

    RX 9060 อาจผลิตจากชิปที่มี yield ต่ำของรุ่น XT แล้วปิดบาง core
    เป็นวิธีลดต้นทุนและใช้ทรัพยากรให้คุ้มค่า

    RX 9060 XT รุ่น 16GB มีประสิทธิภาพสูงกว่า แต่กินไฟมากกว่า
    เหมาะกับผู้ใช้ที่ต้องการเล่นเกมในระดับ ultra หรือ ray tracing

    ตลาดการ์ดจอระดับกลางกำลังแข่งขันกันดุเดือด
    โดยเฉพาะระหว่าง AMD RX 9060 XT และ Nvidia RTX 5060

    การ์ด OEM มักมีราคาถูกกว่าแต่ไม่สามารถซื้อแยกได้
    เหมาะกับผู้ที่ซื้อเครื่องพีซีแบบ prebuilt

    https://www.tomshardware.com/pc-components/gpus/amds-new-rx-9060-ripped-out-of-oem-pc-and-benchmarked-beats-the-rtx-5050-by-20-percent-basically-ties-the-rtx-5060-in-gaming-and-productivity
    🎮⚙️ RX 9060: การ์ดลับจาก AMD ที่แรงเกินคาด แม้จะยังขายแค่ในเครื่อง OEM AMD เปิดตัว Radeon RX 9060 แบบเงียบ ๆ โดยไม่มีวางขายแยก แต่ใส่มาในเครื่องพีซี OEM ที่จำหน่ายในบางประเทศ เช่น เกาหลีใต้ ซึ่ง YouTuber ชื่อ Technosaurus ได้แกะเครื่องออกมาและทดสอบประสิทธิภาพของการ์ดนี้อย่างละเอียด RX 9060 ใช้ชิป Navi 44 แบบลดสเปก มี 28 compute units, 1,792 shaders, 28 ray tracing cores และแรม GDDR6 ขนาด 8GB บนบัส 128-bit ความเร็วใกล้ 3 GHz ใช้พลังงานเพียง 135W และมาในรูปแบบการ์ดขนาดเล็กจาก Sapphire ผลการทดสอบในเกมระดับ AAA ที่ความละเอียด 1080p พบว่า RX 9060 มีประสิทธิภาพใกล้เคียงกับ RTX 5060 โดยช้ากว่าเพียง 2% และห่างจาก RX 9060 XT แค่ 6% แต่กลับแรงกว่า RTX 5050 ถึง 20% ซึ่งถือว่าเป็นการ์ดที่คุ้มค่ามากสำหรับเกมเมอร์สายประหยัด ในด้าน benchmark เช่น 3DMark Time Spy และ Fire Strike ก็แสดงผลลัพธ์ที่เหนือกว่า RTX 5050 อย่างชัดเจน และใกล้เคียงกับ RTX 5060 ทั้งในด้านเกมและ productivity อย่างไรก็ตาม RX 9060 ยังมีข้อจำกัดคือแรมแค่ 8GB ซึ่งอาจไม่เพียงพอสำหรับเกมรุ่นใหม่ที่ใช้ ray tracing หรือ texture ขนาดใหญ่ และ AMD ยังไม่มีแผนวางขายแยกในตลาดทั่วไป ✅ AMD เปิดตัว RX 9060 แบบ OEM เท่านั้น ยังไม่มีขายแยก ➡️ พบในเครื่องพีซี OEM บางประเทศ เช่น เกาหลีใต้ ✅ ใช้ชิป Navi 44 แบบลดสเปก มี 28 CUs และแรม 8GB GDDR6 ➡️ ความเร็วใกล้ 3 GHz ใช้พลังงาน 135W ✅ ประสิทธิภาพใกล้เคียง RTX 5060 และ RX 9060 XT ➡️ ช้ากว่า RTX 5060 เพียง 2% และ RX 9060 XT แค่ 6% ✅ แรงกว่า RTX 5050 ถึง 20% ในเกมระดับ AAA ➡️ เช่น Cyberpunk 2077, God of War, Warhammer 40K ✅ ผล benchmark ใน 3DMark สูงกว่า RTX 5050 อย่างชัดเจน ➡️ Time Spy: 14,132 คะแนน, Fire Strike: 35,511 คะแนน ✅ ประสิทธิภาพเสถียรแม้ใช้กับ CPU ระดับกลาง ➡️ เช่น Ryzen 5 7500F ก็ยังได้เฟรมเรตใกล้เคียง Ryzen 7 9800X3D ✅ RX 9060 อาจผลิตจากชิปที่มี yield ต่ำของรุ่น XT แล้วปิดบาง core ➡️ เป็นวิธีลดต้นทุนและใช้ทรัพยากรให้คุ้มค่า ✅ RX 9060 XT รุ่น 16GB มีประสิทธิภาพสูงกว่า แต่กินไฟมากกว่า ➡️ เหมาะกับผู้ใช้ที่ต้องการเล่นเกมในระดับ ultra หรือ ray tracing ✅ ตลาดการ์ดจอระดับกลางกำลังแข่งขันกันดุเดือด ➡️ โดยเฉพาะระหว่าง AMD RX 9060 XT และ Nvidia RTX 5060 ✅ การ์ด OEM มักมีราคาถูกกว่าแต่ไม่สามารถซื้อแยกได้ ➡️ เหมาะกับผู้ที่ซื้อเครื่องพีซีแบบ prebuilt https://www.tomshardware.com/pc-components/gpus/amds-new-rx-9060-ripped-out-of-oem-pc-and-benchmarked-beats-the-rtx-5050-by-20-percent-basically-ties-the-rtx-5060-in-gaming-and-productivity
    0 ความคิดเห็น 0 การแบ่งปัน 167 มุมมอง 0 รีวิว
  • เมื่อชิปกลายเป็นภาษี: Nvidia และ AMD ต้องจ่าย 15% รายได้จากการขายชิป AI ให้จีน

    ในสงครามเทคโนโลยีระหว่างสหรัฐฯ กับจีน ชิป AI กลายเป็นอาวุธสำคัญ และตอนนี้สองยักษ์ใหญ่แห่งวงการ—Nvidia และ AMD—ต้องจ่าย “ค่าผ่านทาง” ให้รัฐบาลสหรัฐฯ ถึง 15% ของรายได้จากการขายชิป AI ให้จีน

    เรื่องเริ่มจากการที่สหรัฐฯ เคยจำกัดการส่งออกชิปขั้นสูงไปยังจีน ด้วยเหตุผลด้านความมั่นคง โดยเฉพาะชิปที่มีศักยภาพในการใช้งานทางทหาร แต่เมื่อ Huawei ของจีนเริ่มพัฒนาเทคโนโลยีของตัวเองอย่างรวดเร็ว รัฐบาลสหรัฐฯ จึงกลับลำ เปิดทางให้ Nvidia ส่งออกชิป H20 และ AMD ส่ง MI308 ไปยังจีนได้อีกครั้ง—แต่ต้องจ่ายภาษีพิเศษ

    ชิปเหล่านี้ถูกออกแบบให้ “ลดความสามารถ” ลงจากรุ่นเรือธง เพื่อให้ผ่านข้อจำกัดด้านการส่งออก แต่ยังคงเป็น AI accelerator ที่ทรงพลังสำหรับงานประมวลผลหนัก เช่น การฝึกโมเดล AI ขนาดใหญ่

    แม้จะได้สิทธิ์กลับมาขาย แต่ Nvidia เคยประเมินว่าแค่ข้อจำกัดเดิมก็ทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์ ส่วน AMD ก็อาจเสียหายถึง 800 ล้านดอลลาร์

    ขณะเดียวกัน ฝ่ายนิติบัญญัติในสหรัฐฯ กำลังเสนอให้ชิป AI ที่ขายให้ต่างประเทศต้องมีระบบติดตามตำแหน่งในตัว เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม

    Nvidia และ AMD ต้องจ่าย 15% ของรายได้จากการขายชิป AI ให้จีน
    เป็นข้อตกลงใหม่กับรัฐบาลสหรัฐฯ เพื่อแลกกับสิทธิ์ในการส่งออก

    ชิปที่เกี่ยวข้องคือ Nvidia H20 และ AMD MI308
    ถูกออกแบบให้ลดความสามารถลงเพื่อผ่านข้อจำกัดด้านการส่งออก

    ชิปเหล่านี้เป็น AI accelerator สำหรับงานประมวลผลหนัก
    เช่น การฝึกโมเดล AI และการคำนวณเชิงลึก

    Nvidia เคยประเมินว่าข้อจำกัดเดิมทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์
    ส่วน AMD อาจเสียหายถึง 800 ล้านดอลลาร์

    รัฐบาลสหรัฐฯ เคยห้ามส่งออกชิปขั้นสูงไปยังจีนด้วยเหตุผลด้านความมั่นคง
    แต่กลับลำในเดือนกรกฎาคม 2025 เพื่อรักษาความสามารถในการแข่งขัน

    Huawei ของจีนกำลังพัฒนาเทคโนโลยีชิปอย่างรวดเร็ว
    เป็นแรงกดดันให้สหรัฐฯ ต้องปรับนโยบาย

    มีข้อเสนอให้ชิป AI ที่ส่งออกต้องมีระบบติดตามตำแหน่งในตัว
    เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม

    https://www.thestar.com.my/tech/tech-news/2025/08/13/the-semiconductors-costing-nvidia-amd-dearly
    💸⚙️ เมื่อชิปกลายเป็นภาษี: Nvidia และ AMD ต้องจ่าย 15% รายได้จากการขายชิป AI ให้จีน ในสงครามเทคโนโลยีระหว่างสหรัฐฯ กับจีน ชิป AI กลายเป็นอาวุธสำคัญ และตอนนี้สองยักษ์ใหญ่แห่งวงการ—Nvidia และ AMD—ต้องจ่าย “ค่าผ่านทาง” ให้รัฐบาลสหรัฐฯ ถึง 15% ของรายได้จากการขายชิป AI ให้จีน เรื่องเริ่มจากการที่สหรัฐฯ เคยจำกัดการส่งออกชิปขั้นสูงไปยังจีน ด้วยเหตุผลด้านความมั่นคง โดยเฉพาะชิปที่มีศักยภาพในการใช้งานทางทหาร แต่เมื่อ Huawei ของจีนเริ่มพัฒนาเทคโนโลยีของตัวเองอย่างรวดเร็ว รัฐบาลสหรัฐฯ จึงกลับลำ เปิดทางให้ Nvidia ส่งออกชิป H20 และ AMD ส่ง MI308 ไปยังจีนได้อีกครั้ง—แต่ต้องจ่ายภาษีพิเศษ ชิปเหล่านี้ถูกออกแบบให้ “ลดความสามารถ” ลงจากรุ่นเรือธง เพื่อให้ผ่านข้อจำกัดด้านการส่งออก แต่ยังคงเป็น AI accelerator ที่ทรงพลังสำหรับงานประมวลผลหนัก เช่น การฝึกโมเดล AI ขนาดใหญ่ แม้จะได้สิทธิ์กลับมาขาย แต่ Nvidia เคยประเมินว่าแค่ข้อจำกัดเดิมก็ทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์ ส่วน AMD ก็อาจเสียหายถึง 800 ล้านดอลลาร์ ขณะเดียวกัน ฝ่ายนิติบัญญัติในสหรัฐฯ กำลังเสนอให้ชิป AI ที่ขายให้ต่างประเทศต้องมีระบบติดตามตำแหน่งในตัว เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม ✅ Nvidia และ AMD ต้องจ่าย 15% ของรายได้จากการขายชิป AI ให้จีน ➡️ เป็นข้อตกลงใหม่กับรัฐบาลสหรัฐฯ เพื่อแลกกับสิทธิ์ในการส่งออก ✅ ชิปที่เกี่ยวข้องคือ Nvidia H20 และ AMD MI308 ➡️ ถูกออกแบบให้ลดความสามารถลงเพื่อผ่านข้อจำกัดด้านการส่งออก ✅ ชิปเหล่านี้เป็น AI accelerator สำหรับงานประมวลผลหนัก ➡️ เช่น การฝึกโมเดล AI และการคำนวณเชิงลึก ✅ Nvidia เคยประเมินว่าข้อจำกัดเดิมทำให้สูญรายได้ถึง 5.5 พันล้านดอลลาร์ ➡️ ส่วน AMD อาจเสียหายถึง 800 ล้านดอลลาร์ ✅ รัฐบาลสหรัฐฯ เคยห้ามส่งออกชิปขั้นสูงไปยังจีนด้วยเหตุผลด้านความมั่นคง ➡️ แต่กลับลำในเดือนกรกฎาคม 2025 เพื่อรักษาความสามารถในการแข่งขัน ✅ Huawei ของจีนกำลังพัฒนาเทคโนโลยีชิปอย่างรวดเร็ว ➡️ เป็นแรงกดดันให้สหรัฐฯ ต้องปรับนโยบาย ✅ มีข้อเสนอให้ชิป AI ที่ส่งออกต้องมีระบบติดตามตำแหน่งในตัว ➡️ เพื่อป้องกันการนำไปใช้ในทางทหารหรือการจารกรรม https://www.thestar.com.my/tech/tech-news/2025/08/13/the-semiconductors-costing-nvidia-amd-dearly
    WWW.THESTAR.COM.MY
    The semiconductors costing Nvidia, AMD dearly
    Nvidia and other US chip companies have lobbied against the tough restrictions in recent years on selling cutting-edge semiconductors to China.
    0 ความคิดเห็น 0 การแบ่งปัน 65 มุมมอง 0 รีวิว
  • Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix

    ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก

    LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า

    ฟีเจอร์เด่น ได้แก่:
    - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น
    - รองรับ speculative decoding และ torch.compile แบบ experimental
    - รองรับ embedding, rerank model และ multi-modal model
    - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้

    Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ

    Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix
    เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว

    รองรับ multi-GPU scaling และ PCIe P2P data transfer
    เพิ่มประสิทธิภาพสูงสุดถึง 80%

    ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens
    ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B

    มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile
    ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล

    รองรับ embedding, rerank model และ multi-modal model
    ขยายขอบเขตการใช้งาน AI ได้หลากหลาย

    มีระบบ XPU Manager สำหรับจัดการ GPU
    ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้

    เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้
    รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่

    Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU
    ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+

    ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack
    ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น

    มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร
    ลดความเสี่ยงจากการทำงานผิดพลาด

    Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้
    โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า

    ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental
    เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร

    การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม
    หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ

    Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่
    ต้องรอรุ่น hardened และ full feature set ใน Q4

    การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม
    เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่

    https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    🧠⚙️ Intel เปิดตัว LLM Scaler v1.0: ยกระดับ AI บน Arc Pro ด้วย Project Battlematrix ในงาน Computex 2025 Intel ได้เปิดตัว Project Battlematrix ซึ่งเป็นแพลตฟอร์มแบบครบวงจรสำหรับงาน inference ด้วย GPU Arc Pro หลายตัว โดยล่าสุดได้ปล่อยซอฟต์แวร์เวอร์ชันแรก LLM Scaler v1.0 ที่มาพร้อมการปรับแต่งประสิทธิภาพอย่างหนัก LLM Scaler v1.0 ถูกออกแบบมาเพื่อรันบน Linux โดยรองรับการทำงานแบบ multi-GPU และการส่งข้อมูลผ่าน PCIe แบบ P2P ซึ่งช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 80% เมื่อเทียบกับเวอร์ชันก่อนหน้า ฟีเจอร์เด่น ได้แก่: - การปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens - การลดการใช้หน่วยความจำ GPU ด้วย quantization แบบชั้นต่อชั้น - รองรับ speculative decoding และ torch.compile แบบ experimental - รองรับ embedding, rerank model และ multi-modal model - ระบบจัดการ GPU ผ่าน XPU Manager ที่สามารถอัปเดต firmware และตรวจสอบ bandwidth ได้ Intel ยังวางแผนออก container รุ่น hardened ภายในไตรมาสนี้ และปล่อยเวอร์ชันเต็มใน Q4 ซึ่งจะรองรับการใช้งานระดับองค์กรอย่างเต็มรูปแบบ ✅ Intel เปิดตัว LLM Scaler v1.0 สำหรับ Project Battlematrix ➡️ เป็น container สำหรับ inference บน Arc Pro GPU หลายตัว ✅ รองรับ multi-GPU scaling และ PCIe P2P data transfer ➡️ เพิ่มประสิทธิภาพสูงสุดถึง 80% ✅ ปรับแต่ง vLLM สำหรับ input ยาวถึง 40K tokens ➡️ ได้ผลลัพธ์เร็วขึ้นถึง 4.2 เท่าสำหรับโมเดล 70B ✅ มีฟีเจอร์ใหม่ เช่น quantization, speculative decoding, torch.compile ➡️ ลดการใช้หน่วยความจำและเพิ่มความเร็วในการประมวลผล ✅ รองรับ embedding, rerank model และ multi-modal model ➡️ ขยายขอบเขตการใช้งาน AI ได้หลากหลาย ✅ มีระบบ XPU Manager สำหรับจัดการ GPU ➡️ ตรวจสอบพลังงาน, bandwidth และอัปเดต firmware ได้ ✅ เตรียมปล่อย container รุ่น hardened และ full feature set ภายในปีนี้ ➡️ รองรับการใช้งานระดับองค์กรและงาน inference ขนาดใหญ่ ✅ Arc Pro B-Series รองรับการใช้งานร่วมกันสูงสุด 8 GPU ➡️ ให้ VRAM รวมถึง 192GB สำหรับโมเดลขนาด 70B+ ✅ ใช้เทคโนโลยี oneAPI และ Level Zero ใน software stack ➡️ ช่วยให้พัฒนาและปรับแต่งได้ง่ายขึ้น ✅ มีการใช้ ECC, SRIOV และ telemetry สำหรับความเสถียรระดับองค์กร ➡️ ลดความเสี่ยงจากการทำงานผิดพลาด ✅ Intel ตั้งเป้าสร้างแพลตฟอร์ม inference ที่แข่งขันกับ Nvidia ได้ ➡️ โดยเน้นความเปิดกว้างและประสิทธิภาพที่คุ้มค่า ‼️ ฟีเจอร์บางอย่างยังอยู่ในสถานะ experimental ⛔ เช่น torch.compile และ speculative decoding อาจยังไม่เสถียร ‼️ การใช้ multi-GPU ต้องการระบบที่รองรับ PCIe P2P อย่างเหมาะสม ⛔ หากระบบไม่รองรับ อาจไม่ได้ประสิทธิภาพตามที่ระบุ ‼️ Container รุ่นแรกอาจยังไม่เหมาะกับงาน production ขนาดใหญ่ ⛔ ต้องรอรุ่น hardened และ full feature set ใน Q4 ‼️ การเปลี่ยนมาใช้ Arc Pro อาจต้องปรับระบบจาก Nvidia เดิม ⛔ เสี่ยงต่อความไม่เข้ากันกับเครื่องมือหรือเฟรมเวิร์กที่ใช้อยู่ https://wccftech.com/intel-project-battlematrix-arc-pro-gpus-first-major-software-update-llm-scaler-v1-0-massive-performance-uplift-enhanced-support/
    WCCFTECH.COM
    Intel's Project Battlematrix For Arc Pro GPUs Gets First Major Software Update: LLM Scaler v1.0 With Up To 80% Performance Uplift, Enhanced Support & More
    Intel has released the first major software for its Arc Pro "Project Battlematrix" solution, the LLM Scaler v1.0, with massive improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน

    ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง

    CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี

    Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น

    แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์

    การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ

    Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend
    เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia

    CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia
    ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น

    CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง
    เป็นทางเลือกใหม่สำหรับนักพัฒนา AI

    Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน
    เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend

    มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี
    เช่น DeepSeek R1 บน CloudMatrix 384

    การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน
    ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ

    https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    🚀🇨🇳 เมื่อ Huawei เปิดซอร์ส CANN: ยุทธศาสตร์ใหม่ท้าชน CUDA เพื่ออิสรภาพด้าน AI ของจีน ลองนึกภาพว่าโลกของ AI ที่เคยถูกครอบงำโดย CUDA ของ Nvidia กำลังถูกท้าทายอย่างจริงจังจาก Huawei ที่ตัดสินใจเปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับพัฒนาแอปพลิเคชัน AI บนชิป Ascend ของตัวเอง CUDA ครองตลาดมากว่า 20 ปี ด้วยการผูกขาดนักพัฒนาให้ใช้เฉพาะฮาร์ดแวร์ของ Nvidia เท่านั้น การเปิดซอร์ส CANN จึงไม่ใช่แค่การปล่อยโค้ด แต่เป็นการเปิดประตูสู่ระบบนิเวศใหม่ที่ไม่ถูกจำกัดด้วยเจ้าของเทคโนโลยี Huawei เริ่มพูดคุยกับมหาวิทยาลัย สถาบันวิจัย และบริษัท AI ชั้นนำในจีน เพื่อร่วมกันสร้างชุมชนพัฒนาแบบเปิดสำหรับ Ascend ซึ่งอาจนำไปสู่การสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กใหม่ที่รองรับงาน AI ได้หลากหลายมากขึ้น แม้จะยังไม่เทียบเท่า CUDA ในแง่ของความเสถียรและการสนับสนุน แต่ Huawei ก็เริ่มไล่ตามในด้านประสิทธิภาพ โดยบางรุ่นของ Ascend มีผลทดสอบที่เหนือกว่า Nvidia ในบางสถานการณ์ การเปิดซอร์ส CANN ยังสอดคล้องกับยุทธศาสตร์ของจีนในการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะในช่วงที่สหรัฐฯ จำกัดการส่งออกชิปให้กับ Huawei การสร้างซอฟต์แวร์พื้นฐานของตัวเองจึงเป็นก้าวสำคัญ ✅ Huawei เปิดซอร์ส CANN ซึ่งเป็นชุดเครื่องมือสำหรับชิป Ascend ➡️ เพื่อท้าทายการผูกขาดของ CUDA จาก Nvidia ✅ CUDA เป็นระบบปิดที่ผูกนักพัฒนาไว้กับฮาร์ดแวร์ Nvidia ➡️ ทำให้การพัฒนา AI ต้องอยู่ในระบบของ Nvidia เท่านั้น ✅ CANN มีโครงสร้างแบบหลายชั้น รองรับทั้งงานทั่วไปและงานประสิทธิภาพสูง ➡️ เป็นทางเลือกใหม่สำหรับนักพัฒนา AI ✅ Huawei เริ่มสร้างชุมชนพัฒนาแบบเปิดร่วมกับมหาวิทยาลัยและบริษัท AI ในจีน ➡️ เพื่อเร่งสร้างเครื่องมือ ไลบรารี และเฟรมเวิร์กสำหรับ Ascend ✅ มีรายงานว่า Ascend บางรุ่นมีประสิทธิภาพสูงกว่า Nvidia ในบางกรณี ➡️ เช่น DeepSeek R1 บน CloudMatrix 384 ✅ การเปิดซอร์ส CANN เป็นส่วนหนึ่งของยุทธศาสตร์เทคโนโลยีอิสระของจีน ➡️ ลดการพึ่งพาเทคโนโลยีจากตะวันตกท่ามกลางข้อจำกัดการส่งออกจากสหรัฐฯ https://www.techradar.com/pro/brave-or-foolhardy-huawei-takes-the-fight-to-nvidia-cuda-by-making-its-ascend-ai-gpu-software-open-source
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามรบเทคโนโลยี: Nvidia H20 กับแรงเสียดทานจากจีน

    ในโลกที่ AI คือสมรภูมิใหม่ของมหาอำนาจ ชิป H20 จาก Nvidia กลายเป็นจุดศูนย์กลางของความขัดแย้งระหว่างสหรัฐฯ กับจีน โดย H20 ถูกออกแบบมาเพื่อขายให้จีนโดยเฉพาะ หลังจากสหรัฐฯสั่งห้ามส่งออกชิป AI ระดับสูงในปี 2023

    แม้สหรัฐฯจะกลับลำในเดือนกรกฎาคม 2025 และอนุญาตให้ Nvidia กลับมาขาย H20 ได้อีกครั้ง แต่จีนกลับแสดงความกังวลเรื่อง “ความปลอดภัย” ของชิปนี้ โดยหน่วยงาน CAC (Cyberspace Administration of China) ได้เรียก Nvidia เข้าพบเพื่อสอบถามว่า H20 มี “backdoor” หรือระบบติดตามตำแหน่งหรือไม่

    สื่อของรัฐจีน เช่น People’s Daily และบัญชี WeChat ที่เชื่อมโยงกับ CCTV ได้โจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม” พร้อมเรียกร้องให้บริษัทจีนหันไปใช้ชิปของประเทศ เช่น Huawei Ascend หรือ Biren แทน

    แม้ Nvidia จะปฏิเสธข้อกล่าวหาอย่างหนักแน่นว่า “ไม่มี backdoor หรือ kill switch ใด ๆ” แต่ความไม่ไว้วางใจยังคงอยู่ โดยเฉพาะเมื่อสหรัฐฯกำลังผลักดันกฎหมาย Chip Security Act ที่จะบังคับให้ชิป AI มีระบบติดตามและควบคุมระยะไกล

    ในขณะเดียวกัน ความต้องการ H20 ในจีนยังคงสูงมาก โดย Nvidia ได้สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC และมีรายงานว่ามีตลาดมืดสำหรับชิป AI ที่ถูกแบนมูลค่ากว่า 1 พันล้านดอลลาร์ในไตรมาสเดียว

    รัฐบาลจีนแสดงความกังวลเรื่องความปลอดภัยของชิป Nvidia H20
    โดยเฉพาะประเด็น backdoor และระบบติดตามตำแหน่ง

    หน่วยงาน CAC เรียก Nvidia เข้าพบเพื่อขอคำชี้แจง
    ต้องส่งเอกสารยืนยันว่าไม่มีช่องโหว่ด้านความปลอดภัย

    สื่อของรัฐจีนโจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม”
    เรียกร้องให้บริษัทจีนหันไปใช้ชิปภายในประเทศ

    Nvidia ปฏิเสธข้อกล่าวหาอย่างหนักแน่น
    ยืนยันว่าไม่มีระบบควบคุมระยะไกลหรือช่องทางสอดแนม

    แม้มีข้อกังวล แต่ยอดขาย H20 ในจีนยังสูงมาก
    Nvidia สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC

    ตลาดมืดสำหรับชิป AI ที่ถูกแบนในจีนมีมูลค่ากว่า 1 พันล้านดอลลาร์
    แสดงถึงความต้องการที่ยังคงแข็งแกร่ง

    https://www.tomshardware.com/tech-industry/china-state-media-says-nvidia-h20-gpus-are-unsafe-and-outdated-urges-chinese-companies-to-avoid-them-says-chip-is-neither-environmentally-friendly-nor-advanced-nor-safe
    💻🌏 เรื่องเล่าจากสนามรบเทคโนโลยี: Nvidia H20 กับแรงเสียดทานจากจีน ในโลกที่ AI คือสมรภูมิใหม่ของมหาอำนาจ ชิป H20 จาก Nvidia กลายเป็นจุดศูนย์กลางของความขัดแย้งระหว่างสหรัฐฯ กับจีน โดย H20 ถูกออกแบบมาเพื่อขายให้จีนโดยเฉพาะ หลังจากสหรัฐฯสั่งห้ามส่งออกชิป AI ระดับสูงในปี 2023 แม้สหรัฐฯจะกลับลำในเดือนกรกฎาคม 2025 และอนุญาตให้ Nvidia กลับมาขาย H20 ได้อีกครั้ง แต่จีนกลับแสดงความกังวลเรื่อง “ความปลอดภัย” ของชิปนี้ โดยหน่วยงาน CAC (Cyberspace Administration of China) ได้เรียก Nvidia เข้าพบเพื่อสอบถามว่า H20 มี “backdoor” หรือระบบติดตามตำแหน่งหรือไม่ สื่อของรัฐจีน เช่น People’s Daily และบัญชี WeChat ที่เชื่อมโยงกับ CCTV ได้โจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม” พร้อมเรียกร้องให้บริษัทจีนหันไปใช้ชิปของประเทศ เช่น Huawei Ascend หรือ Biren แทน แม้ Nvidia จะปฏิเสธข้อกล่าวหาอย่างหนักแน่นว่า “ไม่มี backdoor หรือ kill switch ใด ๆ” แต่ความไม่ไว้วางใจยังคงอยู่ โดยเฉพาะเมื่อสหรัฐฯกำลังผลักดันกฎหมาย Chip Security Act ที่จะบังคับให้ชิป AI มีระบบติดตามและควบคุมระยะไกล ในขณะเดียวกัน ความต้องการ H20 ในจีนยังคงสูงมาก โดย Nvidia ได้สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC และมีรายงานว่ามีตลาดมืดสำหรับชิป AI ที่ถูกแบนมูลค่ากว่า 1 พันล้านดอลลาร์ในไตรมาสเดียว ✅ รัฐบาลจีนแสดงความกังวลเรื่องความปลอดภัยของชิป Nvidia H20 ➡️ โดยเฉพาะประเด็น backdoor และระบบติดตามตำแหน่ง ✅ หน่วยงาน CAC เรียก Nvidia เข้าพบเพื่อขอคำชี้แจง ➡️ ต้องส่งเอกสารยืนยันว่าไม่มีช่องโหว่ด้านความปลอดภัย ✅ สื่อของรัฐจีนโจมตีว่า H20 “ไม่ปลอดภัย ไม่ทันสมัย และไม่เป็นมิตรต่อสิ่งแวดล้อม” ➡️ เรียกร้องให้บริษัทจีนหันไปใช้ชิปภายในประเทศ ✅ Nvidia ปฏิเสธข้อกล่าวหาอย่างหนักแน่น ➡️ ยืนยันว่าไม่มีระบบควบคุมระยะไกลหรือช่องทางสอดแนม ✅ แม้มีข้อกังวล แต่ยอดขาย H20 ในจีนยังสูงมาก ➡️ Nvidia สั่งผลิตเพิ่มอีก 300,000 ชิ้นจาก TSMC ✅ ตลาดมืดสำหรับชิป AI ที่ถูกแบนในจีนมีมูลค่ากว่า 1 พันล้านดอลลาร์ ➡️ แสดงถึงความต้องการที่ยังคงแข็งแกร่ง https://www.tomshardware.com/tech-industry/china-state-media-says-nvidia-h20-gpus-are-unsafe-and-outdated-urges-chinese-companies-to-avoid-them-says-chip-is-neither-environmentally-friendly-nor-advanced-nor-safe
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกเซิร์ฟเวอร์: Qualcomm เตรียมบุกตลาดดาต้าเซ็นเตอร์ด้วย CPU ARM และแร็กเซิร์ฟเวอร์สำหรับ AI

    หลังจากอยู่ในตลาดมือถือมานานหลายปี Qualcomm กำลังเตรียมก้าวครั้งใหญ่สู่โลกดาต้าเซ็นเตอร์ โดยในรายงานผลประกอบการไตรมาสล่าสุด CEO Cristiano Amon ยืนยันว่าบริษัทกำลังอยู่ใน “ขั้นตอนเจรจาขั้นสูง” กับลูกค้าระดับ hyperscaler เพื่อพัฒนา CPU แบบ ARM สำหรับใช้งานในคลัสเตอร์ AI โดยเฉพาะ

    Qualcomm เคยพยายามเข้าสู่ตลาดเซิร์ฟเวอร์ในอดีต แต่ไม่ประสบความสำเร็จ และถอนตัวไปในปี 2018 เพื่อโฟกัสกับมือถือ แต่ตอนนี้ด้วยการเปลี่ยนแปลงของตลาดที่เน้น “tokens per watt” และ “tokens per dollar” มากกว่าความแรงเพียว ๆ Qualcomm มองเห็นโอกาสใหม่ในการสร้าง CPU ที่เน้นประสิทธิภาพพลังงานสำหรับงาน inference

    นอกจาก CPU แล้ว Qualcomm ยังพัฒนา accelerator cards และแร็กเซิร์ฟเวอร์เต็มรูปแบบสำหรับ AI โดยใช้เทคโนโลยีจาก Snapdragon และ Dragonwing Edge ซึ่งจะถูกนำไปใช้ในศูนย์ข้อมูลของ Humain บริษัท AI ของรัฐบาลซาอุฯ

    อย่างไรก็ตาม รายได้จากโครงการนี้จะเริ่มในปีงบประมาณ 2028 ซึ่งอาจช้าเกินไปเมื่อเทียบกับคู่แข่งอย่าง Broadcom และ Nvidia ที่มีผลิตภัณฑ์พร้อมใช้งานแล้ว และนักลงทุนก็ยังไม่มั่นใจนัก เพราะราคาหุ้น Qualcomm ร่วงลงหลังประกาศข่าวนี้

    Qualcomm เตรียมเข้าสู่ตลาดดาต้าเซ็นเตอร์ด้วย CPU ARM สำหรับ hyperscaler
    อยู่ในขั้นตอนเจรจาขั้นสูงกับลูกค้ารายใหญ่

    CPU ใหม่จะเน้นงาน AI inference และประสิทธิภาพพลังงาน
    ใช้เกณฑ์ tokens per watt และ tokens per dollar เป็นตัวชี้วัด

    Qualcomm พัฒนา accelerator cards และแร็กเซิร์ฟเวอร์สำหรับ AI
    ไม่ใช่แค่ขาย CPU แต่สร้างโซลูชันครบวงจร

    รายได้จากโครงการนี้คาดว่าจะเริ่มในปีงบประมาณ 2028
    ยังอยู่ในช่วงต้นของการพัฒนา

    Qualcomm เซ็นสัญญาร่วมมือกับ Humain บริษัท AI ของรัฐบาลซาอุฯ
    เพื่อสร้างศูนย์ข้อมูล edge และ cloud ทั่วโลก

    ใช้เทคโนโลยีจาก Snapdragon และ Dragonwing Edge ในโครงการนี้
    ขยายจากมือถือสู่โครงสร้างพื้นฐาน AI

    ตลาดกำลังเปลี่ยนจาก x86 ไปสู่ ARM-based CPU สำหรับงาน AI
    เพราะ ARM มีประสิทธิภาพพลังงานดีกว่าในงาน inference

    Broadcom และ Nvidia มี accelerator สำหรับ AI ที่พร้อมใช้งานแล้ว
    ทำให้ Qualcomm ต้องเร่งพัฒนาเพื่อไม่ตกขบวน

    Qualcomm เคยล้มเหลวในการพัฒนา CPU เซิร์ฟเวอร์ในปี 2018
    แต่กลับมาใหม่ด้วยแนวทางที่เน้น AI และพลังงาน

    Alphawave IP Group จะถูก Qualcomm เข้าซื้อในปี 2026
    เพื่อเสริมความสามารถด้านการออกแบบระบบดาต้าเซ็นเตอร์

    https://www.techradar.com/pro/is-qualcomm-finally-about-to-take-the-data-center-plunge-report-claims-new-cpus-could-be-on-offer-soon
    🧠🏭 เรื่องเล่าจากโลกเซิร์ฟเวอร์: Qualcomm เตรียมบุกตลาดดาต้าเซ็นเตอร์ด้วย CPU ARM และแร็กเซิร์ฟเวอร์สำหรับ AI หลังจากอยู่ในตลาดมือถือมานานหลายปี Qualcomm กำลังเตรียมก้าวครั้งใหญ่สู่โลกดาต้าเซ็นเตอร์ โดยในรายงานผลประกอบการไตรมาสล่าสุด CEO Cristiano Amon ยืนยันว่าบริษัทกำลังอยู่ใน “ขั้นตอนเจรจาขั้นสูง” กับลูกค้าระดับ hyperscaler เพื่อพัฒนา CPU แบบ ARM สำหรับใช้งานในคลัสเตอร์ AI โดยเฉพาะ Qualcomm เคยพยายามเข้าสู่ตลาดเซิร์ฟเวอร์ในอดีต แต่ไม่ประสบความสำเร็จ และถอนตัวไปในปี 2018 เพื่อโฟกัสกับมือถือ แต่ตอนนี้ด้วยการเปลี่ยนแปลงของตลาดที่เน้น “tokens per watt” และ “tokens per dollar” มากกว่าความแรงเพียว ๆ Qualcomm มองเห็นโอกาสใหม่ในการสร้าง CPU ที่เน้นประสิทธิภาพพลังงานสำหรับงาน inference นอกจาก CPU แล้ว Qualcomm ยังพัฒนา accelerator cards และแร็กเซิร์ฟเวอร์เต็มรูปแบบสำหรับ AI โดยใช้เทคโนโลยีจาก Snapdragon และ Dragonwing Edge ซึ่งจะถูกนำไปใช้ในศูนย์ข้อมูลของ Humain บริษัท AI ของรัฐบาลซาอุฯ อย่างไรก็ตาม รายได้จากโครงการนี้จะเริ่มในปีงบประมาณ 2028 ซึ่งอาจช้าเกินไปเมื่อเทียบกับคู่แข่งอย่าง Broadcom และ Nvidia ที่มีผลิตภัณฑ์พร้อมใช้งานแล้ว และนักลงทุนก็ยังไม่มั่นใจนัก เพราะราคาหุ้น Qualcomm ร่วงลงหลังประกาศข่าวนี้ ✅ Qualcomm เตรียมเข้าสู่ตลาดดาต้าเซ็นเตอร์ด้วย CPU ARM สำหรับ hyperscaler ➡️ อยู่ในขั้นตอนเจรจาขั้นสูงกับลูกค้ารายใหญ่ ✅ CPU ใหม่จะเน้นงาน AI inference และประสิทธิภาพพลังงาน ➡️ ใช้เกณฑ์ tokens per watt และ tokens per dollar เป็นตัวชี้วัด ✅ Qualcomm พัฒนา accelerator cards และแร็กเซิร์ฟเวอร์สำหรับ AI ➡️ ไม่ใช่แค่ขาย CPU แต่สร้างโซลูชันครบวงจร ✅ รายได้จากโครงการนี้คาดว่าจะเริ่มในปีงบประมาณ 2028 ➡️ ยังอยู่ในช่วงต้นของการพัฒนา ✅ Qualcomm เซ็นสัญญาร่วมมือกับ Humain บริษัท AI ของรัฐบาลซาอุฯ ➡️ เพื่อสร้างศูนย์ข้อมูล edge และ cloud ทั่วโลก ✅ ใช้เทคโนโลยีจาก Snapdragon และ Dragonwing Edge ในโครงการนี้ ➡️ ขยายจากมือถือสู่โครงสร้างพื้นฐาน AI ✅ ตลาดกำลังเปลี่ยนจาก x86 ไปสู่ ARM-based CPU สำหรับงาน AI ➡️ เพราะ ARM มีประสิทธิภาพพลังงานดีกว่าในงาน inference ✅ Broadcom และ Nvidia มี accelerator สำหรับ AI ที่พร้อมใช้งานแล้ว ➡️ ทำให้ Qualcomm ต้องเร่งพัฒนาเพื่อไม่ตกขบวน ✅ Qualcomm เคยล้มเหลวในการพัฒนา CPU เซิร์ฟเวอร์ในปี 2018 ➡️ แต่กลับมาใหม่ด้วยแนวทางที่เน้น AI และพลังงาน ✅ Alphawave IP Group จะถูก Qualcomm เข้าซื้อในปี 2026 ➡️ เพื่อเสริมความสามารถด้านการออกแบบระบบดาต้าเซ็นเตอร์ https://www.techradar.com/pro/is-qualcomm-finally-about-to-take-the-data-center-plunge-report-claims-new-cpus-could-be-on-offer-soon
    0 ความคิดเห็น 0 การแบ่งปัน 192 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องประชุม Intel: เมื่อประธานบอร์ดพยายามขายโรงงานให้ TSMC แต่ซีอีโอขัดขวางเต็มกำลัง

    ในช่วงต้นปี 2025 เกิดความขัดแย้งครั้งใหญ่ภายใน Intel เมื่อ Frank Yeary ประธานบอร์ดของบริษัทพยายามผลักดันแผนการขายหรือแยกกิจการโรงงานผลิตชิป (Intel Foundry) ไปให้ TSMC หรือสร้างบริษัทร่วมทุนกับ Broadcom และ Nvidia โดยให้ TSMC เข้ามาควบคุมการผลิตและ “แก้ไข” เทคโนโลยีของ Intel ที่ล่าช้า

    แต่ Lip-Bu Tan ซีอีโอคนใหม่ที่เพิ่งเข้ารับตำแหน่งในเดือนมีนาคม กลับมองว่าการผลิตชิปภายในเป็นหัวใจของความสามารถในการแข่งขันของ Intel และเป็นสิ่งสำคัญต่อความมั่นคงของห่วงโซ่อุปทานของสหรัฐฯ เขาจึงคัดค้านแผนนี้อย่างหนัก ทำให้เกิดความขัดแย้งในบอร์ดบริหาร และส่งผลให้แผนกลยุทธ์หลายอย่างของ Tan ถูกชะลอหรือถูกขัดขวาง

    แม้บอร์ดจะยังแสดงการสนับสนุน Tan อย่างเป็นทางการ แต่แรงกดดันภายในและภายนอกก็เพิ่มขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ TSMC เองก็ไม่สนใจซื้อโรงงานของ Intel เนื่องจากความแตกต่างด้านเทคโนโลยี เช่น ระบบ EUV ที่ใช้ต่างกัน และความเสี่ยงด้านธุรกิจที่ไม่คุ้มค่าการลงทุน

    Frank Yeary ประธานบอร์ด Intel พยายามขายหรือแยกกิจการโรงงานผลิตชิปให้ TSMC
    เสนอให้ TSMC และบริษัท fabless อย่าง Broadcom/Nvidia ร่วมลงทุน

    Lip-Bu Tan ซีอีโอคนใหม่คัดค้านแผนนี้อย่างหนัก
    เห็นว่าการผลิตภายในเป็นสิ่งสำคัญต่อความสามารถแข่งขันและความมั่นคงของสหรัฐฯ

    ความขัดแย้งในบอร์ดทำให้แผนกลยุทธ์ของ Tan ถูกชะลอหรือถูกขัดขวาง
    รวมถึงแผนระดมทุนและการเข้าซื้อบริษัท AI เพื่อแข่งกับ Nvidia และ AMD

    TSMC ไม่สนใจซื้อโรงงานของ Intel ด้วยเหตุผลทางเทคนิคและธุรกิจ
    เช่น ความแตกต่างด้าน EUV, เครื่องมือ, วัสดุ และความเสี่ยงด้าน yield

    Intel และ TSMC ใช้ระบบการผลิตที่แตกต่างกันแม้จะใช้เครื่องมือจาก ASML เหมือนกัน
    การย้ายเทคโนโลยีข้ามบริษัทอาจทำให้เกิด yield loss และต้นทุนสูง

    TSMC สนใจลงทุนในโรงงานสหรัฐฯ ของตัวเองมากกว่า
    ประกาศลงทุนสูงถึง $165B เพื่อหลีกเลี่ยงภาษีจากรัฐบาลสหรัฐฯ

    Intel Foundry เป็นความพยายามของ Intel ที่จะกลับมาแข่งขันในตลาดการผลิตชิป
    โดยเน้นเทคโนโลยี Intel 3 และ Intel 18A

    การแยกกิจการโรงงานอาจทำให้ Intel สูญเสียการควบคุมด้านเทคโนโลยี
    และกลายเป็นบริษัท fabless ที่ต้องพึ่งพาผู้ผลิตภายนอก

    การร่วมทุนกับ TSMC อาจทำให้เกิดความขัดแย้งด้านการจัดสรรทรัพยากร
    เช่น การแบ่ง capacity ระหว่างลูกค้า Intel และ TSMC

    การล่าช้าในการเข้าซื้อบริษัท AI ทำให้ Intel เสียโอกาสในการแข่งขัน
    บริษัทเป้าหมายถูกซื้อโดยบริษัทเทคโนโลยีอื่นแทน

    https://www.tomshardware.com/tech-industry/semiconductors/intels-chairman-reportedly-tried-to-broker-a-deal-to-sell-fabs-to-tsmc-ceo-lip-bu-tan-opposed
    🏭⚔️ เรื่องเล่าจากห้องประชุม Intel: เมื่อประธานบอร์ดพยายามขายโรงงานให้ TSMC แต่ซีอีโอขัดขวางเต็มกำลัง ในช่วงต้นปี 2025 เกิดความขัดแย้งครั้งใหญ่ภายใน Intel เมื่อ Frank Yeary ประธานบอร์ดของบริษัทพยายามผลักดันแผนการขายหรือแยกกิจการโรงงานผลิตชิป (Intel Foundry) ไปให้ TSMC หรือสร้างบริษัทร่วมทุนกับ Broadcom และ Nvidia โดยให้ TSMC เข้ามาควบคุมการผลิตและ “แก้ไข” เทคโนโลยีของ Intel ที่ล่าช้า แต่ Lip-Bu Tan ซีอีโอคนใหม่ที่เพิ่งเข้ารับตำแหน่งในเดือนมีนาคม กลับมองว่าการผลิตชิปภายในเป็นหัวใจของความสามารถในการแข่งขันของ Intel และเป็นสิ่งสำคัญต่อความมั่นคงของห่วงโซ่อุปทานของสหรัฐฯ เขาจึงคัดค้านแผนนี้อย่างหนัก ทำให้เกิดความขัดแย้งในบอร์ดบริหาร และส่งผลให้แผนกลยุทธ์หลายอย่างของ Tan ถูกชะลอหรือถูกขัดขวาง แม้บอร์ดจะยังแสดงการสนับสนุน Tan อย่างเป็นทางการ แต่แรงกดดันภายในและภายนอกก็เพิ่มขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ TSMC เองก็ไม่สนใจซื้อโรงงานของ Intel เนื่องจากความแตกต่างด้านเทคโนโลยี เช่น ระบบ EUV ที่ใช้ต่างกัน และความเสี่ยงด้านธุรกิจที่ไม่คุ้มค่าการลงทุน ✅ Frank Yeary ประธานบอร์ด Intel พยายามขายหรือแยกกิจการโรงงานผลิตชิปให้ TSMC ➡️ เสนอให้ TSMC และบริษัท fabless อย่าง Broadcom/Nvidia ร่วมลงทุน ✅ Lip-Bu Tan ซีอีโอคนใหม่คัดค้านแผนนี้อย่างหนัก ➡️ เห็นว่าการผลิตภายในเป็นสิ่งสำคัญต่อความสามารถแข่งขันและความมั่นคงของสหรัฐฯ ✅ ความขัดแย้งในบอร์ดทำให้แผนกลยุทธ์ของ Tan ถูกชะลอหรือถูกขัดขวาง ➡️ รวมถึงแผนระดมทุนและการเข้าซื้อบริษัท AI เพื่อแข่งกับ Nvidia และ AMD ✅ TSMC ไม่สนใจซื้อโรงงานของ Intel ด้วยเหตุผลทางเทคนิคและธุรกิจ ➡️ เช่น ความแตกต่างด้าน EUV, เครื่องมือ, วัสดุ และความเสี่ยงด้าน yield ✅ Intel และ TSMC ใช้ระบบการผลิตที่แตกต่างกันแม้จะใช้เครื่องมือจาก ASML เหมือนกัน ➡️ การย้ายเทคโนโลยีข้ามบริษัทอาจทำให้เกิด yield loss และต้นทุนสูง ✅ TSMC สนใจลงทุนในโรงงานสหรัฐฯ ของตัวเองมากกว่า ➡️ ประกาศลงทุนสูงถึง $165B เพื่อหลีกเลี่ยงภาษีจากรัฐบาลสหรัฐฯ ✅ Intel Foundry เป็นความพยายามของ Intel ที่จะกลับมาแข่งขันในตลาดการผลิตชิป ➡️ โดยเน้นเทคโนโลยี Intel 3 และ Intel 18A ✅ การแยกกิจการโรงงานอาจทำให้ Intel สูญเสียการควบคุมด้านเทคโนโลยี ➡️ และกลายเป็นบริษัท fabless ที่ต้องพึ่งพาผู้ผลิตภายนอก ✅ การร่วมทุนกับ TSMC อาจทำให้เกิดความขัดแย้งด้านการจัดสรรทรัพยากร ➡️ เช่น การแบ่ง capacity ระหว่างลูกค้า Intel และ TSMC ✅ การล่าช้าในการเข้าซื้อบริษัท AI ทำให้ Intel เสียโอกาสในการแข่งขัน ➡️ บริษัทเป้าหมายถูกซื้อโดยบริษัทเทคโนโลยีอื่นแทน https://www.tomshardware.com/tech-industry/semiconductors/intels-chairman-reportedly-tried-to-broker-a-deal-to-sell-fabs-to-tsmc-ceo-lip-bu-tan-opposed
    0 ความคิดเห็น 0 การแบ่งปัน 237 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องวิจัย Tesla: เมื่อ Dojo ซูเปอร์คอมพิวเตอร์ต้องยุติลง และ Elon หันไปพึ่ง Nvidia กับ AMD

    ย้อนกลับไปในปี 2021 Tesla เปิดตัวโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิปแบบ wafer-scale เพื่อฝึก AI สำหรับระบบขับเคลื่อนอัตโนมัติ (FSD) และหุ่นยนต์ Optimus โดยหวังว่าจะลดการพึ่งพา Nvidia และสร้างฮาร์ดแวร์ของตัวเองเพื่อควบคุมทุกมิติของการประมวลผล AI

    แต่ล่าสุด Elon Musk ตัดสินใจยุติโครงการ Dojo อย่างเป็นทางการ โดยมีการยุบทีมงานและย้ายบุคลากรไปยังแผนกอื่นภายใน Tesla ขณะเดียวกัน Peter Bannon หัวหน้าโครงการ Dojo ก็เตรียมลาออก และมีสมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI

    Tesla จะหันไปพึ่งพา Nvidia และ AMD มากขึ้น โดย TSMC จะผลิตชิป AI5 สำหรับรถ Tesla รุ่นใหม่ในปี 2025 และ Samsung จะผลิต AI6 รุ่นถัดไปในช่วงปลายทศวรรษ Musk ยังกล่าวว่าเขาอยากให้ชิปที่ใช้ในรถยนต์และเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน เพื่อความสะดวกในการพัฒนาและใช้งานร่วมกัน

    Tesla ยุติโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิป wafer-scale
    โครงการเริ่มในปี 2021 เพื่อฝึก AI สำหรับ FSD และ Optimus

    Elon Musk สั่งยุบทีม Dojo และย้ายบุคลากรไปยังแผนกอื่น
    Peter Bannon หัวหน้าโครงการเตรียมลาออก

    สมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI
    เน้นพัฒนา AI สำหรับหุ่นยนต์และยานยนต์

    Tesla จะเพิ่มการพึ่งพา Nvidia และ AMD สำหรับฮาร์ดแวร์ AI
    Nvidia ยังคงเป็นผู้จัดหา GPU ส่วน AMD จะมีบทบาทมากขึ้น

    TSMC จะผลิตชิป AI5 สำหรับ Tesla ในปี 2025
    Samsung จะผลิตชิป AI6 รุ่นถัดไปในช่วงปลายทศวรรษ

    Musk ต้องการให้ชิปในรถและเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน
    เพื่อใช้ร่วมกันได้ทั้งใน Optimus และระบบคลัสเตอร์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/tesla-scraps-custom-dojo-wafer-level-processor-initiative-dismantles-team-musk-to-lean-on-nvidia-and-amd-more
    🚗🧠 เรื่องเล่าจากห้องวิจัย Tesla: เมื่อ Dojo ซูเปอร์คอมพิวเตอร์ต้องยุติลง และ Elon หันไปพึ่ง Nvidia กับ AMD ย้อนกลับไปในปี 2021 Tesla เปิดตัวโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิปแบบ wafer-scale เพื่อฝึก AI สำหรับระบบขับเคลื่อนอัตโนมัติ (FSD) และหุ่นยนต์ Optimus โดยหวังว่าจะลดการพึ่งพา Nvidia และสร้างฮาร์ดแวร์ของตัวเองเพื่อควบคุมทุกมิติของการประมวลผล AI แต่ล่าสุด Elon Musk ตัดสินใจยุติโครงการ Dojo อย่างเป็นทางการ โดยมีการยุบทีมงานและย้ายบุคลากรไปยังแผนกอื่นภายใน Tesla ขณะเดียวกัน Peter Bannon หัวหน้าโครงการ Dojo ก็เตรียมลาออก และมีสมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI Tesla จะหันไปพึ่งพา Nvidia และ AMD มากขึ้น โดย TSMC จะผลิตชิป AI5 สำหรับรถ Tesla รุ่นใหม่ในปี 2025 และ Samsung จะผลิต AI6 รุ่นถัดไปในช่วงปลายทศวรรษ Musk ยังกล่าวว่าเขาอยากให้ชิปที่ใช้ในรถยนต์และเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน เพื่อความสะดวกในการพัฒนาและใช้งานร่วมกัน ✅ Tesla ยุติโครงการ Dojo ซูเปอร์คอมพิวเตอร์ที่ใช้ชิป wafer-scale ➡️ โครงการเริ่มในปี 2021 เพื่อฝึก AI สำหรับ FSD และ Optimus ✅ Elon Musk สั่งยุบทีม Dojo และย้ายบุคลากรไปยังแผนกอื่น ➡️ Peter Bannon หัวหน้าโครงการเตรียมลาออก ✅ สมาชิกทีมกว่า 20 คนย้ายไปสร้างสตาร์ทอัพใหม่ชื่อ DensityAI ➡️ เน้นพัฒนา AI สำหรับหุ่นยนต์และยานยนต์ ✅ Tesla จะเพิ่มการพึ่งพา Nvidia และ AMD สำหรับฮาร์ดแวร์ AI ➡️ Nvidia ยังคงเป็นผู้จัดหา GPU ส่วน AMD จะมีบทบาทมากขึ้น ✅ TSMC จะผลิตชิป AI5 สำหรับ Tesla ในปี 2025 ➡️ Samsung จะผลิตชิป AI6 รุ่นถัดไปในช่วงปลายทศวรรษ ✅ Musk ต้องการให้ชิปในรถและเซิร์ฟเวอร์มีสถาปัตยกรรมเดียวกัน ➡️ เพื่อใช้ร่วมกันได้ทั้งใน Optimus และระบบคลัสเตอร์ https://www.tomshardware.com/tech-industry/artificial-intelligence/tesla-scraps-custom-dojo-wafer-level-processor-initiative-dismantles-team-musk-to-lean-on-nvidia-and-amd-more
    0 ความคิดเห็น 0 การแบ่งปัน 179 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม

    ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย

    MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง

    Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา

    Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU
    เหลือเพียง 2x, 4x และ 8x เท่านั้น

    การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2
    เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux

    XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า
    รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA

    XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia
    เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา

    Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake
    เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่

    MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ
    แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี

    AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด
    ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน

    Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ
    เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ

    การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง
    เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง

    https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    🎮🧠 เรื่องเล่าจากโลกกราฟิก: Intel ยุติ 16x MSAA บน Xe3 GPU เพื่อเปิดทางให้ AI Upscaler ครองเกม ในเดือนสิงหาคม 2025 Intel ประกาศยุติการรองรับ 16x MSAA (Multisample Anti-Aliasing) บนกราฟิกการ์ดรุ่นใหม่ Xe3 “Celestial” โดยจะเหลือเพียง 2x, 4x และ 8x เท่านั้น เหตุผลหลักคือ 16x MSAA มีต้นทุนการประมวลผลสูงมาก และไม่คุ้มค่าเมื่อเทียบกับเทคนิคใหม่ ๆ ที่ใช้ AI เช่น XeSS ของ Intel, FSR ของ AMD และ DLSS ของ Nvidia ซึ่งให้ภาพคมชัดกว่า ใช้ทรัพยากรน้อยกว่า และยังสามารถสร้างเฟรมเพิ่มได้ด้วย MSAA เคยเป็นเทคนิคยอดนิยมในการทำให้ขอบภาพเรียบเนียน แต่ในยุคที่เกมใช้ deferred rendering และต้องการประสิทธิภาพสูงสุด การใช้ brute-force sampling แบบ MSAA กลายเป็นภาระที่ไม่จำเป็น โดยเฉพาะระดับ 16x ที่แทบไม่มีเกมไหนใช้จริง Intel จึงเลือกเดินตามแนวทางใหม่ที่เน้น AI-based upscaling และ temporal sampling ซึ่งให้ผลลัพธ์ที่ดีกว่าในทุกด้าน ทั้งคุณภาพภาพ ความลื่นไหล และการประหยัดพลังงาน โดย XeSS SDK ล่าสุดยังรองรับ GPU จากทุกค่าย ทำให้เป็นทางเลือกแบบเปิดสำหรับนักพัฒนา ✅ Intel ยุติการรองรับ 16x MSAA บน Xe3 GPU ➡️ เหลือเพียง 2x, 4x และ 8x เท่านั้น ✅ การเปลี่ยนแปลงนี้เริ่มใน Mesa driver 25.3-devel และย้อนกลับไปยังเวอร์ชัน 25.1 และ 25.2 ➡️ เป็นการปรับปรุงในระดับไดรเวอร์สำหรับ Linux ✅ XeSS, FSR และ DLSS ให้ภาพคมชัดกว่า MSAA ด้วยต้นทุนต่ำกว่า ➡️ รองรับการสร้างเฟรมและลดการสั่นของภาพได้ดีกว่า TAA ✅ XeSS SDK ล่าสุดรองรับ GPU จาก Intel, AMD และ Nvidia ➡️ เป็นทางเลือกแบบ vendor-agnostic สำหรับนักพัฒนา ✅ Xe3 GPU จะเปิดตัวพร้อมกับซีพียู Panther Lake ➡️ เป็นการรวมพลังของกราฟิกและ AI สำหรับงานยุคใหม่ ✅ MSAA ทำงานโดยการสุ่มหลายจุดในแต่ละพิกเซลเพื่อทำให้ขอบภาพเรียบ ➡️ แต่ไม่สามารถจัดการกับความโปร่งใสหรือ shader artifacts ได้ดี ✅ AI upscaling เช่น DLSS 3.5 และ XeSS 2 ใช้ machine learning เพื่อสร้างภาพที่คมชัด ➡️ ลดภาระ GPU และเพิ่มเฟรมเรตได้พร้อมกัน ✅ Deferred rendering engine มักปิดการใช้งาน MSAA โดยอัตโนมัติ ➡️ เพราะไม่สามารถใช้ร่วมกับหลาย pass ได้อย่างมีประสิทธิภาพ ✅ การใช้ AI-based AA ช่วยให้เกมสามารถรันที่ความละเอียดต่ำแต่ได้ภาพระดับสูง ➡️ เหมาะกับ VR และ ray tracing ที่ต้องการประสิทธิภาพสูง https://www.tomshardware.com/pc-components/gpus/intel-will-retire-rarely-used-16x-msaa-support-on-xe3-gpus-ai-upscalers-like-xess-fsr-and-dlss-provide-better-more-efficient-results
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • ⚡️ เรื่องเล่าจากโลกธุรกิจเทคโนโลยี: เมื่อผู้ถือหุ้นใหญ่ของ Core Scientific ขัดขวางดีล 9 พันล้านกับ CoreWeave

    ในเดือนสิงหาคม 2025 เกิดแรงสั่นสะเทือนในวงการ AI และคริปโต เมื่อ Two Seas Capital ซึ่งเป็นผู้ถือหุ้นใหญ่ที่สุดของ Core Scientific ประกาศว่าจะ “โหวตไม่เห็นด้วย” กับข้อเสนอการควบรวมกิจการกับ CoreWeave มูลค่า 9 พันล้านดอลลาร์ โดยให้เหตุผลว่าดีลนี้ “ประเมินมูลค่าบริษัทต่ำเกินไป” และ “เสี่ยงต่อผู้ถือหุ้นโดยไม่จำเป็น”

    CoreWeave ซึ่งเป็นบริษัทโครงสร้างพื้นฐานด้าน AI ที่ใช้ชิป Nvidia ต้องการซื้อ Core Scientific เพื่อขยายศักยภาพด้าน data center รองรับความต้องการฝึกโมเดล AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดยเสนอซื้อแบบ all-stock deal ที่ไม่มีการป้องกันความผันผวนของราคาหุ้น

    แม้ Two Seas จะไม่คัดค้านการควบรวมโดยหลักการ และยังเป็นผู้ลงทุนใน CoreWeave ด้วย แต่พวกเขาเชื่อว่าดีลนี้ “เอื้อประโยชน์ให้ CoreWeave มากเกินไป” และไม่สะท้อนคุณค่าทางยุทธศาสตร์ของ Core Scientific ซึ่งเพิ่งฟื้นตัวจากการล้มละลายในปี 2024 และกำลังเปลี่ยนโฟกัสจากการขุด Bitcoin ไปสู่การให้บริการพลังงานแก่ระบบ AI

    https://www.thestar.com.my/tech/tech-news/2025/08/08/core-scientific039s-largest-shareholder-to-vote-against-sale-to-coreweave
    🏢⚡️ เรื่องเล่าจากโลกธุรกิจเทคโนโลยี: เมื่อผู้ถือหุ้นใหญ่ของ Core Scientific ขัดขวางดีล 9 พันล้านกับ CoreWeave ในเดือนสิงหาคม 2025 เกิดแรงสั่นสะเทือนในวงการ AI และคริปโต เมื่อ Two Seas Capital ซึ่งเป็นผู้ถือหุ้นใหญ่ที่สุดของ Core Scientific ประกาศว่าจะ “โหวตไม่เห็นด้วย” กับข้อเสนอการควบรวมกิจการกับ CoreWeave มูลค่า 9 พันล้านดอลลาร์ โดยให้เหตุผลว่าดีลนี้ “ประเมินมูลค่าบริษัทต่ำเกินไป” และ “เสี่ยงต่อผู้ถือหุ้นโดยไม่จำเป็น” CoreWeave ซึ่งเป็นบริษัทโครงสร้างพื้นฐานด้าน AI ที่ใช้ชิป Nvidia ต้องการซื้อ Core Scientific เพื่อขยายศักยภาพด้าน data center รองรับความต้องการฝึกโมเดล AI ที่เพิ่มขึ้นอย่างรวดเร็ว โดยเสนอซื้อแบบ all-stock deal ที่ไม่มีการป้องกันความผันผวนของราคาหุ้น แม้ Two Seas จะไม่คัดค้านการควบรวมโดยหลักการ และยังเป็นผู้ลงทุนใน CoreWeave ด้วย แต่พวกเขาเชื่อว่าดีลนี้ “เอื้อประโยชน์ให้ CoreWeave มากเกินไป” และไม่สะท้อนคุณค่าทางยุทธศาสตร์ของ Core Scientific ซึ่งเพิ่งฟื้นตัวจากการล้มละลายในปี 2024 และกำลังเปลี่ยนโฟกัสจากการขุด Bitcoin ไปสู่การให้บริการพลังงานแก่ระบบ AI https://www.thestar.com.my/tech/tech-news/2025/08/08/core-scientific039s-largest-shareholder-to-vote-against-sale-to-coreweave
    WWW.THESTAR.COM.MY
    Core Scientific's largest shareholder to vote against sale to CoreWeave
    (Reuters) -Two Seas Capital, the largest shareholder of Core Scientific, issued an open letter on Thursday saying it would vote against the company's proposed sale to CoreWeave, in a potential blow to the $9 billion deal.
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกการค้า: ทรัมป์ประกาศเก็บภาษีชิปนำเข้า 100% เพื่อผลักดันการผลิตในประเทศ

    ประธานาธิบดีโดนัลด์ ทรัมป์ สร้างแรงสั่นสะเทือนให้กับอุตสาหกรรมเทคโนโลยีอีกครั้ง ด้วยการประกาศเก็บภาษี 100% สำหรับชิปและเซมิคอนดักเตอร์ที่นำเข้าจากต่างประเทศ โดยมีเป้าหมายเพื่อผลักดันให้บริษัทเทคโนโลยีรายใหญ่หันมาผลิตในสหรัฐฯ แทนการพึ่งพาการผลิตจากต่างประเทศ เช่น ไต้หวัน จีน หรือเวียดนาม

    อย่างไรก็ตาม บริษัทที่มีการลงทุนในสหรัฐฯ อยู่แล้ว เช่น Apple, NVIDIA, TSMC และ Samsung จะได้รับการยกเว้นภาษี หากสามารถพิสูจน์ได้ว่ากำลังสร้างหรือมีแผนสร้างโรงงานในประเทศจริง โดย Apple ได้ประกาศลงทุนเพิ่มอีก $100 พันล้านในโครงการ American Manufacturing Program ซึ่งรวมถึงโรงงานในเท็กซัสและศูนย์วิจัยในหลายรัฐ

    การเคลื่อนไหวนี้ถือเป็นการเปลี่ยนแนวทางจากยุคก่อนที่เน้นการให้เงินสนับสนุนผ่าน CHIPS Act มาเป็นการใช้ “ไม้แข็ง” เพื่อบังคับให้บริษัทต่างชาติย้ายฐานการผลิตมาในสหรัฐฯ ซึ่งอาจส่งผลกระทบต่อราคาสินค้าอิเล็กทรอนิกส์ในวงกว้าง เช่น สมาร์ตโฟน คอมพิวเตอร์ รถยนต์ไฟฟ้า และคอนโซลเกม

    ทรัมป์ประกาศเก็บภาษี 100% สำหรับชิปนำเข้าจากต่างประเทศ
    ยกเว้นเฉพาะบริษัทที่ผลิตหรือมีแผนสร้างโรงงานในสหรัฐฯ

    Apple ได้รับการยกเว้นภาษีจากการลงทุน $100 พันล้านในโครงการ AMP
    รวมถึงโรงงานในเท็กซัสและการขยายกำลังผลิตในรัฐเคนทักกี

    TSMC ลงทุนรวมกว่า $165 พันล้านในโรงงานที่รัฐแอริโซนา
    เตรียมสร้างโรงงานผลิตชิป 6 แห่งและศูนย์วิจัย

    NVIDIA ประกาศสร้างซูเปอร์คอมพิวเตอร์ AI และชิปในรัฐเท็กซัส
    ถือเป็นการ “onshoring” ครั้งใหญ่ของบริษัท

    บริษัทที่ “แค่สัญญา” แต่ไม่ดำเนินการจริงจะถูกเรียกเก็บภาษีย้อนหลัง
    ทรัมป์ย้ำว่า “ต้องจ่ายแน่นอน” หากไม่ทำตามแผน

    https://wccftech.com/president-trump-to-impose-a-whopping-100-tariff-on-all-chips-coming-into-the-us/
    🇺🇸💥 เรื่องเล่าจากโลกการค้า: ทรัมป์ประกาศเก็บภาษีชิปนำเข้า 100% เพื่อผลักดันการผลิตในประเทศ ประธานาธิบดีโดนัลด์ ทรัมป์ สร้างแรงสั่นสะเทือนให้กับอุตสาหกรรมเทคโนโลยีอีกครั้ง ด้วยการประกาศเก็บภาษี 100% สำหรับชิปและเซมิคอนดักเตอร์ที่นำเข้าจากต่างประเทศ โดยมีเป้าหมายเพื่อผลักดันให้บริษัทเทคโนโลยีรายใหญ่หันมาผลิตในสหรัฐฯ แทนการพึ่งพาการผลิตจากต่างประเทศ เช่น ไต้หวัน จีน หรือเวียดนาม อย่างไรก็ตาม บริษัทที่มีการลงทุนในสหรัฐฯ อยู่แล้ว เช่น Apple, NVIDIA, TSMC และ Samsung จะได้รับการยกเว้นภาษี หากสามารถพิสูจน์ได้ว่ากำลังสร้างหรือมีแผนสร้างโรงงานในประเทศจริง โดย Apple ได้ประกาศลงทุนเพิ่มอีก $100 พันล้านในโครงการ American Manufacturing Program ซึ่งรวมถึงโรงงานในเท็กซัสและศูนย์วิจัยในหลายรัฐ การเคลื่อนไหวนี้ถือเป็นการเปลี่ยนแนวทางจากยุคก่อนที่เน้นการให้เงินสนับสนุนผ่าน CHIPS Act มาเป็นการใช้ “ไม้แข็ง” เพื่อบังคับให้บริษัทต่างชาติย้ายฐานการผลิตมาในสหรัฐฯ ซึ่งอาจส่งผลกระทบต่อราคาสินค้าอิเล็กทรอนิกส์ในวงกว้าง เช่น สมาร์ตโฟน คอมพิวเตอร์ รถยนต์ไฟฟ้า และคอนโซลเกม ✅ ทรัมป์ประกาศเก็บภาษี 100% สำหรับชิปนำเข้าจากต่างประเทศ ➡️ ยกเว้นเฉพาะบริษัทที่ผลิตหรือมีแผนสร้างโรงงานในสหรัฐฯ ✅ Apple ได้รับการยกเว้นภาษีจากการลงทุน $100 พันล้านในโครงการ AMP ➡️ รวมถึงโรงงานในเท็กซัสและการขยายกำลังผลิตในรัฐเคนทักกี ✅ TSMC ลงทุนรวมกว่า $165 พันล้านในโรงงานที่รัฐแอริโซนา ➡️ เตรียมสร้างโรงงานผลิตชิป 6 แห่งและศูนย์วิจัย ✅ NVIDIA ประกาศสร้างซูเปอร์คอมพิวเตอร์ AI และชิปในรัฐเท็กซัส ➡️ ถือเป็นการ “onshoring” ครั้งใหญ่ของบริษัท ✅ บริษัทที่ “แค่สัญญา” แต่ไม่ดำเนินการจริงจะถูกเรียกเก็บภาษีย้อนหลัง ➡️ ทรัมป์ย้ำว่า “ต้องจ่ายแน่นอน” หากไม่ทำตามแผน https://wccftech.com/president-trump-to-impose-a-whopping-100-tariff-on-all-chips-coming-into-the-us/
    WCCFTECH.COM
    President Trump to Impose a Whopping 100% Tariff on All Chips Coming into the US; No Extra Charge on Semiconductors Produced Domestically
    While talking alongside Apple's CEO Tim Cook, Trump has announced a massive chip tariff, a figure that the markets weren't expecting at all.
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก GPU มืออาชีพ: RTX Pro 5000 Blackwell Mobile ที่แรงเทียบเท่า RTX 5090

    Nvidia เปิดตัว RTX Pro 5000 Blackwell Mobile GPU สำหรับโน้ตบุ๊กสายเวิร์กสเตชัน โดยใช้สถาปัตยกรรม Blackwell รุ่นล่าสุดที่เน้นงานระดับมืออาชีพ เช่น AI, การจำลอง, การออกแบบ 3D และการเรนเดอร์ขั้นสูง

    แม้จะเป็นรุ่นสำหรับโน้ตบุ๊ก แต่ประสิทธิภาพกลับใกล้เคียงกับ RTX 5090 Laptop GPU ซึ่งเป็นรุ่นเกมมิ่งระดับสูง โดย RTX Pro 5000 Mobile มี 10,496 CUDA cores, 328 Tensor cores และ 82 RT cores พร้อมหน่วยความจำ GDDR7 ขนาด 24GB บนบัส 256-bit ให้แบนด์วิดธ์ 896 GB/s

    ผลการทดสอบ OpenCL พบว่า RTX Pro 5000 Mobile แรงกว่า RTX 5000 Ada Generation ถึง 14% และยังเหนือกว่า RTX 5090 เล็กน้อย แม้จะมีข้อจำกัดด้านพลังงานและอินเทอร์เฟซหน่วยความจำที่แคบกว่า

    Dell ได้เปิดตัวโน้ตบุ๊กรุ่น Pro Max 18 Plus ที่ใช้ GPU ตัวนี้ร่วมกับ Core Ultra 9 285HX และ DDR5-6400 ขายที่ราคา $6,121.47 ซึ่งถือว่าเป็นโน้ตบุ๊กระดับสูงสำหรับมืออาชีพโดยเฉพาะ

    RTX Pro 5000 Blackwell Mobile ใช้สถาปัตยกรรม Blackwell
    มี 10,496 CUDA cores และ 24GB GDDR7 memory

    แบนด์วิดธ์หน่วยความจำอยู่ที่ 896 GB/s
    ใช้บัส 256-bit ซึ่งแคบกว่ารุ่นเดสก์ท็อป

    ผลทดสอบ OpenCL แรงกว่า RTX 5000 Ada Generation 14%
    และแรงกว่า RTX 5090 Laptop GPU ประมาณ 2%

    Dell Pro Max 18 Plus ใช้ GPU นี้ร่วมกับ Core Ultra 9 285HX
    ขายที่ราคา $6,121.47 สำหรับรุ่นสูงสุด

    GPU นี้รองรับฟีเจอร์ระดับมืออาชีพ เช่น ECC และ Tensor cores
    เหมาะสำหรับงาน AI, simulation และการออกแบบขั้นสูง

    GPU นี้มี 328 Tensor cores และ 82 RT cores
    รองรับการเร่งความเร็วงาน machine learning และ ray tracing

    ใช้เทคโนโลยีการผลิต 5nm จาก TSMC
    มีทรานซิสเตอร์มากถึง 45,600 ล้านตัว

    รองรับ PCIe 5.0 และ DisplayPort 2.1b
    แม้จะไม่มีพอร์ตแสดงผลโดยตรง แต่ใช้ผ่านระบบโน้ตบุ๊ก

    มีประสิทธิภาพ FP32 สูงถึง 49.8 TFLOPs และ AI TOPS ที่ 1824
    เหมาะกับงานที่ต้องการการคำนวณหนักและแม่นยำ

    มีรุ่นย่อย RTX Pro 1000–5000 สำหรับตลาดต่างระดับ
    รุ่นต่ำสุดมีเพียง 1,792 CUDA cores และบัสแค่ 96-bit

    https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-pro-5000-blackwell-laptop-gpu-beats-previous-gen-by-14-percent-in-opencl-benchmark-professional-mobile-chip-performs-like-a-laptop-rtx-5090
    🎮💼 เรื่องเล่าจากโลก GPU มืออาชีพ: RTX Pro 5000 Blackwell Mobile ที่แรงเทียบเท่า RTX 5090 Nvidia เปิดตัว RTX Pro 5000 Blackwell Mobile GPU สำหรับโน้ตบุ๊กสายเวิร์กสเตชัน โดยใช้สถาปัตยกรรม Blackwell รุ่นล่าสุดที่เน้นงานระดับมืออาชีพ เช่น AI, การจำลอง, การออกแบบ 3D และการเรนเดอร์ขั้นสูง แม้จะเป็นรุ่นสำหรับโน้ตบุ๊ก แต่ประสิทธิภาพกลับใกล้เคียงกับ RTX 5090 Laptop GPU ซึ่งเป็นรุ่นเกมมิ่งระดับสูง โดย RTX Pro 5000 Mobile มี 10,496 CUDA cores, 328 Tensor cores และ 82 RT cores พร้อมหน่วยความจำ GDDR7 ขนาด 24GB บนบัส 256-bit ให้แบนด์วิดธ์ 896 GB/s ผลการทดสอบ OpenCL พบว่า RTX Pro 5000 Mobile แรงกว่า RTX 5000 Ada Generation ถึง 14% และยังเหนือกว่า RTX 5090 เล็กน้อย แม้จะมีข้อจำกัดด้านพลังงานและอินเทอร์เฟซหน่วยความจำที่แคบกว่า Dell ได้เปิดตัวโน้ตบุ๊กรุ่น Pro Max 18 Plus ที่ใช้ GPU ตัวนี้ร่วมกับ Core Ultra 9 285HX และ DDR5-6400 ขายที่ราคา $6,121.47 ซึ่งถือว่าเป็นโน้ตบุ๊กระดับสูงสำหรับมืออาชีพโดยเฉพาะ ✅ RTX Pro 5000 Blackwell Mobile ใช้สถาปัตยกรรม Blackwell ➡️ มี 10,496 CUDA cores และ 24GB GDDR7 memory ✅ แบนด์วิดธ์หน่วยความจำอยู่ที่ 896 GB/s ➡️ ใช้บัส 256-bit ซึ่งแคบกว่ารุ่นเดสก์ท็อป ✅ ผลทดสอบ OpenCL แรงกว่า RTX 5000 Ada Generation 14% ➡️ และแรงกว่า RTX 5090 Laptop GPU ประมาณ 2% ✅ Dell Pro Max 18 Plus ใช้ GPU นี้ร่วมกับ Core Ultra 9 285HX ➡️ ขายที่ราคา $6,121.47 สำหรับรุ่นสูงสุด ✅ GPU นี้รองรับฟีเจอร์ระดับมืออาชีพ เช่น ECC และ Tensor cores ➡️ เหมาะสำหรับงาน AI, simulation และการออกแบบขั้นสูง ✅ GPU นี้มี 328 Tensor cores และ 82 RT cores ➡️ รองรับการเร่งความเร็วงาน machine learning และ ray tracing ✅ ใช้เทคโนโลยีการผลิต 5nm จาก TSMC ➡️ มีทรานซิสเตอร์มากถึง 45,600 ล้านตัว ✅ รองรับ PCIe 5.0 และ DisplayPort 2.1b ➡️ แม้จะไม่มีพอร์ตแสดงผลโดยตรง แต่ใช้ผ่านระบบโน้ตบุ๊ก ✅ มีประสิทธิภาพ FP32 สูงถึง 49.8 TFLOPs และ AI TOPS ที่ 1824 ➡️ เหมาะกับงานที่ต้องการการคำนวณหนักและแม่นยำ ✅ มีรุ่นย่อย RTX Pro 1000–5000 สำหรับตลาดต่างระดับ ➡️ รุ่นต่ำสุดมีเพียง 1,792 CUDA cores และบัสแค่ 96-bit https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-pro-5000-blackwell-laptop-gpu-beats-previous-gen-by-14-percent-in-opencl-benchmark-professional-mobile-chip-performs-like-a-laptop-rtx-5090
    0 ความคิดเห็น 0 การแบ่งปัน 170 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์

    Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้

    Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center

    นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที

    Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง

    Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V
    เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง

    OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines
    รองรับงาน AI, graphics และ multimodal workloads

    OxQuilt เป็นระบบประกอบ SoC แบบ chiplet
    ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ

    OXCapsule เป็น runtime ที่จัดการ workload และ abstraction
    ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด

    OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware
    เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที

    ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น
    สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing

    Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง
    ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output

    โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90%
    ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out

    RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded
    มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด

    Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ
    การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads

    Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster
    ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload

    https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    🧠⚙️ เรื่องเล่าจากวงการชิป: Oxmiq Labs กับภารกิจพลิกโฉม GPU ด้วย RISC-V และซอฟต์แวร์ที่ไม่ผูกกับฮาร์ดแวร์ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ Intel, AMD และ Apple ได้เปิดตัวสตาร์ทอัพใหม่ชื่อ Oxmiq Labs ที่ Silicon Valley โดยมีเป้าหมายชัดเจน: สร้าง GPU ที่ไม่จำเป็นต้องผลิตฮาร์ดแวร์เอง แต่เน้นการพัฒนา IP และซอฟต์แวร์ที่สามารถนำไปใช้กับฮาร์ดแวร์ใดก็ได้ Oxmiq ใช้สถาปัตยกรรม RISC-V เป็นแกนหลักของ GPU IP ที่ชื่อว่า OxCore ซึ่งรวม scalar, vector และ tensor compute engines เข้าไว้ในระบบ modular ที่สามารถปรับแต่งได้ตาม workload ตั้งแต่ edge device ไปจนถึง data center นอกจากฮาร์ดแวร์ IP แล้ว Oxmiq ยังมีซอฟต์แวร์ที่ทรงพลัง เช่น OXCapsule ที่ช่วยจัดการ workload และทำให้แอปพลิเคชันสามารถรันบน CPU, GPU หรือ accelerator โดยไม่ต้องแก้โค้ด และ OXPython ที่สามารถรันโค้ด Python CUDA บนฮาร์ดแวร์ที่ไม่ใช่ Nvidia ได้ทันที Oxmiq ยังร่วมมือกับ Tenstorrent เพื่อเปิดตัว OXPython บนแพลตฟอร์ม Wormhole และ Blackhole และได้รับเงินลงทุนเบื้องต้น $20 ล้านจาก MediaTek และนักลงทุนรายอื่น โดยไม่ต้องพึ่งการผลิตชิปจริงหรือใช้เครื่องมือ EDA ที่มีต้นทุนสูง ✅ Oxmiq Labs ก่อตั้งโดย Raja Koduri เพื่อพลิกโฉม GPU ด้วย RISC-V ➡️ เน้นการพัฒนา IP และซอฟต์แวร์ ไม่ผลิตฮาร์ดแวร์เอง ✅ OxCore เป็น GPU IP ที่รวม scalar, vector และ tensor engines ➡️ รองรับงาน AI, graphics และ multimodal workloads ✅ OxQuilt เป็นระบบประกอบ SoC แบบ chiplet ➡️ ลูกค้าสามารถเลือกโมดูล compute, memory และ interconnect ได้ตามต้องการ ✅ OXCapsule เป็น runtime ที่จัดการ workload และ abstraction ➡️ ทำให้แอปสามารถรันบนฮาร์ดแวร์ต่าง ๆ โดยไม่ต้องแก้โค้ด ✅ OXPython แปลงโค้ด Python CUDA ให้รันบน non-Nvidia hardware ➡️ เปิดทางให้ใช้โค้ดเดิมกับฮาร์ดแวร์ใหม่ได้ทันที ✅ ได้รับเงินลงทุน $20 ล้านจาก MediaTek และนักลงทุนอื่น ➡️ สะท้อนความเชื่อมั่นในโมเดลธุรกิจแบบ IP licensing ✅ Oxmiq ไม่พัฒนา GPU สำหรับผู้บริโภคโดยตรง ➡️ ไม่รวมฟีเจอร์เช่น texture units, ray tracing หรือ HDMI output ✅ โมเดล IP-as-a-Service ช่วยลดต้นทุนการพัฒนาชิปได้ถึง 90% ➡️ ไม่ต้องลงทุนในโรงงานหรือกระบวนการ tape-out ✅ RISC-V เป็นสถาปัตยกรรมเปิดที่กำลังเติบโตในงาน AI และ embedded ➡️ มีความยืดหยุ่นสูงและไม่ผูกกับ vendor รายใด ✅ Tenstorrent เป็นผู้ผลิต accelerator ที่เน้นงาน AI โดยเฉพาะ ➡️ การร่วมมือกับ Oxmiq ช่วยขยาย ecosystem ให้รองรับ CUDA workloads ✅ Capsule เป็นระบบ container ที่ช่วยจัดการ GPU cluster ➡️ ใช้เทคโนโลยีจาก Endgame ของ Intel มาปรับให้เหมาะกับ compute workload https://www.tomshardware.com/tech-industry/artificial-intelligence/legendary-gpu-architect-raja-koduris-new-startup-leverages-risc-v-and-targets-cuda-workloads-oxmiq-labs-supports-running-python-based-cuda-applications-unmodified-on-non-nvidia-hardware
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: Ollama Turbo – ปลดล็อกพลังโมเดลใหญ่ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์

    ในยุคที่โมเดล AI ขนาดใหญ่กลายเป็นหัวใจของงานวิเคราะห์ข้อมูลและการสร้างเนื้อหาอัจฉริยะ “Ollama Turbo” ได้เปิดตัวเป็นบริการใหม่ที่ช่วยให้ผู้ใช้สามารถรันโมเดลโอเพ่นซอร์สขนาดใหญ่ได้อย่างรวดเร็ว โดยไม่ต้องพึ่งพาเครื่องคอมพิวเตอร์ส่วนตัวที่ทรงพลัง

    Ollama Turbo ใช้ฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ในสหรัฐอเมริกาเพื่อเร่งความเร็วในการประมวลผลโมเดล เช่น gpt-oss-20b และ gpt-oss-120b ซึ่งปกติแล้วไม่สามารถรันได้บน GPU ทั่วไปที่มีอยู่ในเครื่องผู้ใช้ทั่วไป

    ผู้ใช้สามารถเข้าถึง Turbo ผ่านแอป Ollama, CLI, API รวมถึงไลบรารีภาษา Python และ JavaScript โดยไม่ต้องติดตั้งฮาร์ดแวร์เพิ่มเติม และยังช่วยประหยัดแบตเตอรี่ของเครื่องผู้ใช้ได้อีกด้วย

    Ollama Turbo คือบริการรันโมเดล AI ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์
    ช่วยให้รันโมเดลขนาดใหญ่ได้เร็วขึ้นโดยไม่ต้องใช้ GPU ส่วนตัว

    รองรับโมเดล gpt-oss-20b และ gpt-oss-120b ในช่วงพรีวิว
    เป็นโมเดลโอเพ่นซอร์สที่มีขนาดใหญ่และซับซ้อน

    ใช้งานได้ผ่านแอป Ollama, CLI, API และไลบรารีภาษา Python/JavaScript
    รองรับการพัฒนาและใช้งานในหลายแพลตฟอร์ม

    ฮาร์ดแวร์ทั้งหมดตั้งอยู่ในสหรัฐอเมริกา
    ช่วยควบคุมคุณภาพและความปลอดภัยของระบบ

    Ollama ไม่เก็บข้อมูลหรือคำถามที่ผู้ใช้ส่งผ่าน Turbo
    เน้นความเป็นส่วนตัวและความปลอดภัยของผู้ใช้

    Turbo มีข้อจำกัดการใช้งานรายชั่วโมงและรายวัน
    เพื่อป้องกันการใช้งานเกินขีดความสามารถของระบบ

    Ollama รองรับหลายระบบปฏิบัติการ เช่น Linux, macOS และ Windows (ผ่าน WSL2)
    Linux มีการรองรับดีที่สุดและสามารถตรวจจับ GPU อัตโนมัติ

    การใช้ GPU ช่วยเพิ่มความเร็วในการ inference ได้ถึง 2 เท่า
    NVIDIA CUDA และ AMD ROCm เป็นแพลตฟอร์มที่รองรับ

    สำหรับผู้ใช้ทั่วไป RTX 3060 และ RX 6700 XT เป็นตัวเลือกที่ดี
    เหมาะกับการรันโมเดลขนาดกลางถึงใหญ่ในเครื่องส่วนตัว

    RAM ที่แนะนำคือ 16GB ขึ้นไป และ SSD สำหรับโหลดโมเดลเร็วขึ้น
    โมเดลขนาด 30B+ อาจต้องใช้ RAM 32GB ขึ้นไป

    https://ollama.com/turbo
    ⚡🧠 เรื่องเล่าจากโลก AI: Ollama Turbo – ปลดล็อกพลังโมเดลใหญ่ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ ในยุคที่โมเดล AI ขนาดใหญ่กลายเป็นหัวใจของงานวิเคราะห์ข้อมูลและการสร้างเนื้อหาอัจฉริยะ “Ollama Turbo” ได้เปิดตัวเป็นบริการใหม่ที่ช่วยให้ผู้ใช้สามารถรันโมเดลโอเพ่นซอร์สขนาดใหญ่ได้อย่างรวดเร็ว โดยไม่ต้องพึ่งพาเครื่องคอมพิวเตอร์ส่วนตัวที่ทรงพลัง Ollama Turbo ใช้ฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ในสหรัฐอเมริกาเพื่อเร่งความเร็วในการประมวลผลโมเดล เช่น gpt-oss-20b และ gpt-oss-120b ซึ่งปกติแล้วไม่สามารถรันได้บน GPU ทั่วไปที่มีอยู่ในเครื่องผู้ใช้ทั่วไป ผู้ใช้สามารถเข้าถึง Turbo ผ่านแอป Ollama, CLI, API รวมถึงไลบรารีภาษา Python และ JavaScript โดยไม่ต้องติดตั้งฮาร์ดแวร์เพิ่มเติม และยังช่วยประหยัดแบตเตอรี่ของเครื่องผู้ใช้ได้อีกด้วย ✅ Ollama Turbo คือบริการรันโมเดล AI ด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ ➡️ ช่วยให้รันโมเดลขนาดใหญ่ได้เร็วขึ้นโดยไม่ต้องใช้ GPU ส่วนตัว ✅ รองรับโมเดล gpt-oss-20b และ gpt-oss-120b ในช่วงพรีวิว ➡️ เป็นโมเดลโอเพ่นซอร์สที่มีขนาดใหญ่และซับซ้อน ✅ ใช้งานได้ผ่านแอป Ollama, CLI, API และไลบรารีภาษา Python/JavaScript ➡️ รองรับการพัฒนาและใช้งานในหลายแพลตฟอร์ม ✅ ฮาร์ดแวร์ทั้งหมดตั้งอยู่ในสหรัฐอเมริกา ➡️ ช่วยควบคุมคุณภาพและความปลอดภัยของระบบ ✅ Ollama ไม่เก็บข้อมูลหรือคำถามที่ผู้ใช้ส่งผ่าน Turbo ➡️ เน้นความเป็นส่วนตัวและความปลอดภัยของผู้ใช้ ✅ Turbo มีข้อจำกัดการใช้งานรายชั่วโมงและรายวัน ➡️ เพื่อป้องกันการใช้งานเกินขีดความสามารถของระบบ ✅ Ollama รองรับหลายระบบปฏิบัติการ เช่น Linux, macOS และ Windows (ผ่าน WSL2) ➡️ Linux มีการรองรับดีที่สุดและสามารถตรวจจับ GPU อัตโนมัติ ✅ การใช้ GPU ช่วยเพิ่มความเร็วในการ inference ได้ถึง 2 เท่า ➡️ NVIDIA CUDA และ AMD ROCm เป็นแพลตฟอร์มที่รองรับ ✅ สำหรับผู้ใช้ทั่วไป RTX 3060 และ RX 6700 XT เป็นตัวเลือกที่ดี ➡️ เหมาะกับการรันโมเดลขนาดกลางถึงใหญ่ในเครื่องส่วนตัว ✅ RAM ที่แนะนำคือ 16GB ขึ้นไป และ SSD สำหรับโหลดโมเดลเร็วขึ้น ➡️ โมเดลขนาด 30B+ อาจต้องใช้ RAM 32GB ขึ้นไป https://ollama.com/turbo
    OLLAMA.COM
    Ollama
    Get up and running with large language models.
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิป: เมื่อ AMD สะดุดเพราะการแบน GPU ส่งออกไปจีน

    AMD บริษัทออกแบบชิปชื่อดังจากสหรัฐฯ กำลังเผชิญกับแรงกระแทกครั้งใหญ่จากการแบนการส่งออก GPU ไปยังประเทศจีน โดยเฉพาะชิป AI รุ่น Instinct MI308 ที่ถูกห้ามขายในตลาดจีนอย่างกะทันหันในไตรมาสที่ 2 ปี 2025 ส่งผลให้ AMD ต้องบันทึกค่าใช้จ่ายด้านสินค้าคงคลังและคำสั่งซื้อที่ไม่สามารถส่งมอบได้รวมกว่า $800 ล้าน

    แม้รายได้รวมจะเพิ่มขึ้นถึง 32% จากปีก่อนหน้า แต่มาร์จิ้นขั้นต้นกลับลดลงอย่างหนัก และทำให้ AMD ขาดทุนจากการดำเนินงานตามมาตรฐานบัญชี GAAP เป็นจำนวน $134 ล้าน ซึ่งถือเป็นการพลิกจากกำไรในไตรมาสก่อนหน้า

    AMD พยายามชดเชยด้วยการรายงานตัวเลขแบบ non-GAAP ซึ่งตัดรายการพิเศษออก ทำให้ดูเหมือนยังมีกำไรจากการดำเนินงานอยู่ที่ $897 ล้าน แต่ก็ยังลดลงถึง 50% จากไตรมาสก่อนหน้า

    CEO Lisa Su ยอมรับว่า รายได้จากธุรกิจ AI ลดลงเพราะการแบนนี้ และแม้รัฐบาลสหรัฐฯ จะส่งสัญญาณว่าอาจอนุญาตให้กลับมาขาย MI308 ได้อีกครั้ง แต่ AMD ยังไม่รวมรายได้จากจีนไว้ในประมาณการไตรมาสถัดไป เพราะใบอนุญาตยังอยู่ระหว่างการพิจารณา

    ในด้านบวก AMD ยังเดินหน้าพัฒนา GPU รุ่นใหม่ MI400 ที่คาดว่าจะเหนือกว่า Nvidia Blackwell B200 และได้รับความสนใจจาก OpenAI แล้ว โดยมีแผนเปิดตัวในปีหน้า พร้อมระบบ Helios ที่จะใช้ GPU ถึง 72 ตัวต่อแร็ค เพื่อรองรับงาน AI ขั้นสูง

    จีนเป็นตลาดใหญ่อันดับสองของ AMD โดยมีรายได้กว่า $6.2 พันล้าน
    คิดเป็น 24% ของยอดขายรวมในปี 2024

    การแบนส่งออกชิป AI เกิดจากความกังวลด้านความมั่นคงของสหรัฐฯ
    ว่าชิปอาจถูกใช้ในงานทางทหารของจีน

    AMD กำลังพัฒนา MI400 ซึ่งมีประสิทธิภาพสูงกว่า Blackwell B200
    และได้รับความสนใจจาก OpenAI แล้ว

    ระบบ Helios จะใช้ GPU ถึง 72 ตัวต่อแร็ค
    คาดว่าจะเป็นระบบ AI ที่ทรงพลังที่สุดเมื่อเปิดตัวในปี 2026

    https://wccftech.com/amd-gutted-by-china-gpu-ban-posts-q2-operating-loss/
    📉🇨🇳 เรื่องเล่าจากโลกชิป: เมื่อ AMD สะดุดเพราะการแบน GPU ส่งออกไปจีน AMD บริษัทออกแบบชิปชื่อดังจากสหรัฐฯ กำลังเผชิญกับแรงกระแทกครั้งใหญ่จากการแบนการส่งออก GPU ไปยังประเทศจีน โดยเฉพาะชิป AI รุ่น Instinct MI308 ที่ถูกห้ามขายในตลาดจีนอย่างกะทันหันในไตรมาสที่ 2 ปี 2025 ส่งผลให้ AMD ต้องบันทึกค่าใช้จ่ายด้านสินค้าคงคลังและคำสั่งซื้อที่ไม่สามารถส่งมอบได้รวมกว่า $800 ล้าน แม้รายได้รวมจะเพิ่มขึ้นถึง 32% จากปีก่อนหน้า แต่มาร์จิ้นขั้นต้นกลับลดลงอย่างหนัก และทำให้ AMD ขาดทุนจากการดำเนินงานตามมาตรฐานบัญชี GAAP เป็นจำนวน $134 ล้าน ซึ่งถือเป็นการพลิกจากกำไรในไตรมาสก่อนหน้า AMD พยายามชดเชยด้วยการรายงานตัวเลขแบบ non-GAAP ซึ่งตัดรายการพิเศษออก ทำให้ดูเหมือนยังมีกำไรจากการดำเนินงานอยู่ที่ $897 ล้าน แต่ก็ยังลดลงถึง 50% จากไตรมาสก่อนหน้า CEO Lisa Su ยอมรับว่า รายได้จากธุรกิจ AI ลดลงเพราะการแบนนี้ และแม้รัฐบาลสหรัฐฯ จะส่งสัญญาณว่าอาจอนุญาตให้กลับมาขาย MI308 ได้อีกครั้ง แต่ AMD ยังไม่รวมรายได้จากจีนไว้ในประมาณการไตรมาสถัดไป เพราะใบอนุญาตยังอยู่ระหว่างการพิจารณา ในด้านบวก AMD ยังเดินหน้าพัฒนา GPU รุ่นใหม่ MI400 ที่คาดว่าจะเหนือกว่า Nvidia Blackwell B200 และได้รับความสนใจจาก OpenAI แล้ว โดยมีแผนเปิดตัวในปีหน้า พร้อมระบบ Helios ที่จะใช้ GPU ถึง 72 ตัวต่อแร็ค เพื่อรองรับงาน AI ขั้นสูง ✅ จีนเป็นตลาดใหญ่อันดับสองของ AMD โดยมีรายได้กว่า $6.2 พันล้าน ➡️ คิดเป็น 24% ของยอดขายรวมในปี 2024 ✅ การแบนส่งออกชิป AI เกิดจากความกังวลด้านความมั่นคงของสหรัฐฯ ➡️ ว่าชิปอาจถูกใช้ในงานทางทหารของจีน ✅ AMD กำลังพัฒนา MI400 ซึ่งมีประสิทธิภาพสูงกว่า Blackwell B200 ➡️ และได้รับความสนใจจาก OpenAI แล้ว ✅ ระบบ Helios จะใช้ GPU ถึง 72 ตัวต่อแร็ค ➡️ คาดว่าจะเป็นระบบ AI ที่ทรงพลังที่สุดเมื่อเปิดตัวในปี 2026 https://wccftech.com/amd-gutted-by-china-gpu-ban-posts-q2-operating-loss/
    WCCFTECH.COM
    AMD Gutted By China GPU Ban - Posts Q2 Operating Loss
    AMD's Q2 earnings show $7.6B revenue and $0.48 EPS, with guidance of $8.4B to $9B amid a 59% rise in costs, causing a 4.2% share drop.
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia

    ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง

    CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ

    การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย

    Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ

    แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว

    Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU
    เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด

    CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous
    มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI

    Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน
    เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend

    การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia
    จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล

    Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ
    โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA

    CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia
    นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น

    Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia
    โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์

    การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง
    เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว

    รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ
    เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    🧠💻 เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว ✅ Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU ➡️ เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด ✅ CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous ➡️ มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI ✅ Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน ➡️ เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend ✅ การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia ➡️ จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล ✅ Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ ➡️ โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA ✅ CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia ➡️ นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น ✅ Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia ➡️ โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์ ✅ การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง ➡️ เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว ✅ รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ ➡️ เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    WWW.TOMSHARDWARE.COM
    Huawei is making its Ascend AI GPU software toolkit open-source to better compete against CUDA
    Huawei is getting better at making AI GPUs. Now it wants to increase adoption of its technology on the software side
    0 ความคิดเห็น 0 การแบ่งปัน 235 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิป: เมื่อเทคโนโลยีระดับนาโนกลายเป็นเป้าหมายของการจารกรรม

    ในโลกของเซมิคอนดักเตอร์ที่แข่งขันกันดุเดือด TSMC บริษัทผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน กำลังเผชิญกับคดีร้ายแรง เมื่อมีพนักงานปัจจุบันและอดีตพนักงานรวม 6 คนถูกจับกุมในข้อหาพยายามขโมยข้อมูลลับเกี่ยวกับเทคโนโลยีการผลิตชิปขนาด 2 นาโนเมตร ซึ่งถือเป็นเทคโนโลยีล้ำหน้าที่สุดในปัจจุบัน และมีมูลค่าสูงถึง $30,000 ต่อแผ่นเวเฟอร์

    การสืบสวนเริ่มต้นจากระบบตรวจสอบภายในของ TSMC ที่พบพฤติกรรมเข้าถึงข้อมูลโดยไม่ได้รับอนุญาต ก่อนส่งเรื่องให้เจ้าหน้าที่ดำเนินคดีภายใต้กฎหมายความมั่นคงแห่งชาติฉบับแก้ไขของไต้หวัน ซึ่งระบุชัดว่าการรั่วไหลของเทคโนโลยีระดับต่ำกว่า 14 นาโนเมตรถือเป็นภัยต่อความมั่นคงของชาติ

    เจ้าหน้าที่ได้เข้าตรวจค้นบ้านและที่ทำงานของผู้ต้องสงสัย รวมถึงบริษัทญี่ปุ่น Tokyo Electron ที่อาจเกี่ยวข้องกับคดีนี้ แม้ยังไม่มีการเปิดเผยว่าข้อมูลถูกส่งต่อไปยังใคร แต่ความเสียหายที่อาจเกิดขึ้นนั้นมหาศาล เพราะ TSMC เป็นผู้ผลิตชิปให้กับบริษัทระดับโลกอย่าง Apple, Nvidia และ Qualcomm

    ในยุคที่ AI และเทคโนโลยีขั้นสูงเป็นหัวใจของเศรษฐกิจโลก การขโมยข้อมูลลับไม่ใช่แค่เรื่องธุรกิจ แต่เป็นเรื่องของความมั่นคงระดับชาติ และผู้กระทำผิดอาจต้องโทษจำคุกสูงสุด 12 ปี พร้อมปรับกว่า 100 ล้านดอลลาร์ไต้หวัน

    พนักงาน TSMC ถูกจับกุมในข้อหาพยายามขโมยข้อมูลเทคโนโลยี 2nm
    รวมทั้งหมด 6 คน มีทั้งพนักงานปัจจุบันและอดีต

    TSMC ตรวจพบการเข้าถึงข้อมูลโดยไม่ได้รับอนุญาตจากระบบภายใน
    ก่อนส่งเรื่องให้เจ้าหน้าที่ดำเนินคดี

    คดีนี้อยู่ภายใต้กฎหมายความมั่นคงแห่งชาติฉบับใหม่ของไต้หวัน
    เน้นปกป้องเทคโนโลยีระดับนาโนที่ถือเป็น “เทคโนโลยีหลักของชาติ”

    เจ้าหน้าที่เข้าตรวจค้นบ้านและที่ทำงานของผู้ต้องสงสัย
    รวมถึงบริษัทญี่ปุ่น Tokyo Electron ที่อาจเกี่ยวข้อง

    TSMC ยืนยันจะดำเนินคดีอย่างเต็มที่และเสริมระบบตรวจสอบภายใน
    เพื่อรักษาความได้เปรียบทางการแข่งขันและเสถียรภาพองค์กร

    เทคโนโลยี 2nm เป็นขั้นสูงสุดของการผลิตชิปในปัจจุบัน
    มีประสิทธิภาพสูงและใช้ในอุปกรณ์ระดับพรีเมียม เช่น iPhone 18

    ราคาการผลิตชิป 2nm สูงถึง $30,000 ต่อเวเฟอร์
    แพงกว่าชิป 3nm ถึง 66%

    TSMC มีส่วนแบ่งตลาดมากกว่า Samsung ถึง 3 เท่า
    เป็นผู้ผลิตชิปให้บริษัทเทคโนโลยีชั้นนำทั่วโลก

    การแข่งขันด้าน AI และเซิร์ฟเวอร์ทำให้เทคโนโลยีชิปเป็นเป้าหมายสำคัญ
    โดยเฉพาะในยุคหลัง ChatGPT ที่ต้องใช้พลังประมวลผลมหาศาล

    https://www.tomshardware.com/tech-industry/semiconductors/two-former-tsmc-employees-arrested
    🔍💥 เรื่องเล่าจากโลกชิป: เมื่อเทคโนโลยีระดับนาโนกลายเป็นเป้าหมายของการจารกรรม ในโลกของเซมิคอนดักเตอร์ที่แข่งขันกันดุเดือด TSMC บริษัทผู้ผลิตชิปอันดับหนึ่งของโลกจากไต้หวัน กำลังเผชิญกับคดีร้ายแรง เมื่อมีพนักงานปัจจุบันและอดีตพนักงานรวม 6 คนถูกจับกุมในข้อหาพยายามขโมยข้อมูลลับเกี่ยวกับเทคโนโลยีการผลิตชิปขนาด 2 นาโนเมตร ซึ่งถือเป็นเทคโนโลยีล้ำหน้าที่สุดในปัจจุบัน และมีมูลค่าสูงถึง $30,000 ต่อแผ่นเวเฟอร์ การสืบสวนเริ่มต้นจากระบบตรวจสอบภายในของ TSMC ที่พบพฤติกรรมเข้าถึงข้อมูลโดยไม่ได้รับอนุญาต ก่อนส่งเรื่องให้เจ้าหน้าที่ดำเนินคดีภายใต้กฎหมายความมั่นคงแห่งชาติฉบับแก้ไขของไต้หวัน ซึ่งระบุชัดว่าการรั่วไหลของเทคโนโลยีระดับต่ำกว่า 14 นาโนเมตรถือเป็นภัยต่อความมั่นคงของชาติ เจ้าหน้าที่ได้เข้าตรวจค้นบ้านและที่ทำงานของผู้ต้องสงสัย รวมถึงบริษัทญี่ปุ่น Tokyo Electron ที่อาจเกี่ยวข้องกับคดีนี้ แม้ยังไม่มีการเปิดเผยว่าข้อมูลถูกส่งต่อไปยังใคร แต่ความเสียหายที่อาจเกิดขึ้นนั้นมหาศาล เพราะ TSMC เป็นผู้ผลิตชิปให้กับบริษัทระดับโลกอย่าง Apple, Nvidia และ Qualcomm ในยุคที่ AI และเทคโนโลยีขั้นสูงเป็นหัวใจของเศรษฐกิจโลก การขโมยข้อมูลลับไม่ใช่แค่เรื่องธุรกิจ แต่เป็นเรื่องของความมั่นคงระดับชาติ และผู้กระทำผิดอาจต้องโทษจำคุกสูงสุด 12 ปี พร้อมปรับกว่า 100 ล้านดอลลาร์ไต้หวัน ✅ พนักงาน TSMC ถูกจับกุมในข้อหาพยายามขโมยข้อมูลเทคโนโลยี 2nm ➡️ รวมทั้งหมด 6 คน มีทั้งพนักงานปัจจุบันและอดีต ✅ TSMC ตรวจพบการเข้าถึงข้อมูลโดยไม่ได้รับอนุญาตจากระบบภายใน ➡️ ก่อนส่งเรื่องให้เจ้าหน้าที่ดำเนินคดี ✅ คดีนี้อยู่ภายใต้กฎหมายความมั่นคงแห่งชาติฉบับใหม่ของไต้หวัน ➡️ เน้นปกป้องเทคโนโลยีระดับนาโนที่ถือเป็น “เทคโนโลยีหลักของชาติ” ✅ เจ้าหน้าที่เข้าตรวจค้นบ้านและที่ทำงานของผู้ต้องสงสัย ➡️ รวมถึงบริษัทญี่ปุ่น Tokyo Electron ที่อาจเกี่ยวข้อง ✅ TSMC ยืนยันจะดำเนินคดีอย่างเต็มที่และเสริมระบบตรวจสอบภายใน ➡️ เพื่อรักษาความได้เปรียบทางการแข่งขันและเสถียรภาพองค์กร ✅ เทคโนโลยี 2nm เป็นขั้นสูงสุดของการผลิตชิปในปัจจุบัน ➡️ มีประสิทธิภาพสูงและใช้ในอุปกรณ์ระดับพรีเมียม เช่น iPhone 18 ✅ ราคาการผลิตชิป 2nm สูงถึง $30,000 ต่อเวเฟอร์ ➡️ แพงกว่าชิป 3nm ถึง 66% ✅ TSMC มีส่วนแบ่งตลาดมากกว่า Samsung ถึง 3 เท่า ➡️ เป็นผู้ผลิตชิปให้บริษัทเทคโนโลยีชั้นนำทั่วโลก ✅ การแข่งขันด้าน AI และเซิร์ฟเวอร์ทำให้เทคโนโลยีชิปเป็นเป้าหมายสำคัญ ➡️ โดยเฉพาะในยุคหลัง ChatGPT ที่ต้องใช้พลังประมวลผลมหาศาล https://www.tomshardware.com/tech-industry/semiconductors/two-former-tsmc-employees-arrested
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Firefox: อัปเดต 141.0.2 กับภารกิจแก้บั๊ก Nvidia และอีกมากมาย

    Mozilla ปล่อยอัปเดตเล็ก ๆ สำหรับ Firefox เวอร์ชัน 141.0.2 ซึ่งแม้จะดูเหมือน minor patch แต่ก็แก้ปัญหาสำคัญที่สร้างความปวดหัวให้ผู้ใช้หลายคน โดยเฉพาะผู้ใช้ Linux ที่ใช้การ์ดจอ Nvidia รุ่นเก่า

    ผู้ใช้บางรายรายงานว่า Firefox crash ทันทีเมื่อเปิดใช้งานบน Linux ที่ใช้ไดรเวอร์ Nvidia รุ่น 560.35.03 ซึ่งเป็นปัญหาที่ไม่เกิดบน Windows อัปเดตนี้จึงเข้ามาแก้บั๊ก startup crash โดยตรง

    นอกจากนี้ยังมีการแก้ปัญหาเกี่ยวกับ canvas object ที่กลายเป็น draggable โดยไม่ตั้งใจ ซึ่งส่งผลต่อความเข้ากันได้ของเว็บไซต์ และอีกหนึ่งบั๊กที่ทำให้ Web Developer Tools crash เมื่อ inspect หน้าเว็บที่มี iframe

    แม้จะยังไม่ปล่อยผ่าน auto-update แต่ผู้ใช้สามารถดาวน์โหลดได้จาก FTP ของ Mozilla หรือเข้าไปที่เมนู Help > About Firefox เพื่อเช็กและติดตั้งอัปเดตได้ทันที

    และถ้าใครพลาดอัปเดตใหญ่ใน Firefox 141 เมื่อไม่กี่สัปดาห์ก่อน ก็มีฟีเจอร์ใหม่เพียบ เช่น AI-powered tab groups, การปรับปรุง vertical tab, memory optimization สำหรับ Linux และ WebGPU บน Windows

    Firefox 141.0.2 แก้บั๊ก crash บน Linux ที่ใช้ Nvidia driver รุ่นเก่า
    ปัญหาเกิดกับ driver 560.35.03 แต่ไม่ส่งผลต่อผู้ใช้ Windows

    แก้ปัญหา canvas object ที่กลายเป็น draggable โดยไม่ตั้งใจ
    ส่งผลต่อความเข้ากันได้ของเว็บไซต์บางแห่ง

    แก้บั๊ก Web Developer Tools crash เมื่อ inspect หน้า iframe
    ปัญหาเกิดจากการจัดการ DOM ที่ไม่สมบูรณ์

    อัปเดตยังไม่ปล่อยผ่าน auto-update
    ต้องดาวน์โหลดจาก FTP หรือเช็กผ่านเมนู Help > About Firefox

    Firefox 141 ก่อนหน้านี้มีฟีเจอร์ใหม่หลายอย่าง
    เช่น AI tab groups, vertical tab improvements, WebGPU บน Windows

    Firefox 141.0.2 ยังแก้บั๊กอื่น ๆ ที่เกี่ยวกับ GTK+ และ UI
    เช่นปัญหา focus stealing และ visual glitches

    WebGPU เป็นฟีเจอร์ใหม่ที่ช่วยให้เว็บแอปใช้ GPU ได้โดยตรง
    เพิ่มประสิทธิภาพกราฟิกในแอปที่ใช้ WebGL หรือ 3D rendering

    AI-powered tab groups ใช้ machine learning จัดกลุ่มแท็บอัตโนมัติ
    ช่วยให้ผู้ใช้จัดการงานหลายอย่างได้ง่ายขึ้น

    Firefox ยังคงรองรับการใช้งานบน Windows ผ่าน Microsoft Store
    เพิ่มช่องทางให้ผู้ใช้ทั่วไปเข้าถึงได้สะดวก

    https://www.neowin.net/news/firefox-14102-is-out-fixes-crashes-on-systems-with-nvidia-gpus-and-more/
    🦊💥 เรื่องเล่าจาก Firefox: อัปเดต 141.0.2 กับภารกิจแก้บั๊ก Nvidia และอีกมากมาย Mozilla ปล่อยอัปเดตเล็ก ๆ สำหรับ Firefox เวอร์ชัน 141.0.2 ซึ่งแม้จะดูเหมือน minor patch แต่ก็แก้ปัญหาสำคัญที่สร้างความปวดหัวให้ผู้ใช้หลายคน โดยเฉพาะผู้ใช้ Linux ที่ใช้การ์ดจอ Nvidia รุ่นเก่า ผู้ใช้บางรายรายงานว่า Firefox crash ทันทีเมื่อเปิดใช้งานบน Linux ที่ใช้ไดรเวอร์ Nvidia รุ่น 560.35.03 ซึ่งเป็นปัญหาที่ไม่เกิดบน Windows อัปเดตนี้จึงเข้ามาแก้บั๊ก startup crash โดยตรง นอกจากนี้ยังมีการแก้ปัญหาเกี่ยวกับ canvas object ที่กลายเป็น draggable โดยไม่ตั้งใจ ซึ่งส่งผลต่อความเข้ากันได้ของเว็บไซต์ และอีกหนึ่งบั๊กที่ทำให้ Web Developer Tools crash เมื่อ inspect หน้าเว็บที่มี iframe แม้จะยังไม่ปล่อยผ่าน auto-update แต่ผู้ใช้สามารถดาวน์โหลดได้จาก FTP ของ Mozilla หรือเข้าไปที่เมนู Help > About Firefox เพื่อเช็กและติดตั้งอัปเดตได้ทันที และถ้าใครพลาดอัปเดตใหญ่ใน Firefox 141 เมื่อไม่กี่สัปดาห์ก่อน ก็มีฟีเจอร์ใหม่เพียบ เช่น AI-powered tab groups, การปรับปรุง vertical tab, memory optimization สำหรับ Linux และ WebGPU บน Windows ✅ Firefox 141.0.2 แก้บั๊ก crash บน Linux ที่ใช้ Nvidia driver รุ่นเก่า ➡️ ปัญหาเกิดกับ driver 560.35.03 แต่ไม่ส่งผลต่อผู้ใช้ Windows ✅ แก้ปัญหา canvas object ที่กลายเป็น draggable โดยไม่ตั้งใจ ➡️ ส่งผลต่อความเข้ากันได้ของเว็บไซต์บางแห่ง ✅ แก้บั๊ก Web Developer Tools crash เมื่อ inspect หน้า iframe ➡️ ปัญหาเกิดจากการจัดการ DOM ที่ไม่สมบูรณ์ ✅ อัปเดตยังไม่ปล่อยผ่าน auto-update ➡️ ต้องดาวน์โหลดจาก FTP หรือเช็กผ่านเมนู Help > About Firefox ✅ Firefox 141 ก่อนหน้านี้มีฟีเจอร์ใหม่หลายอย่าง ➡️ เช่น AI tab groups, vertical tab improvements, WebGPU บน Windows ✅ Firefox 141.0.2 ยังแก้บั๊กอื่น ๆ ที่เกี่ยวกับ GTK+ และ UI ➡️ เช่นปัญหา focus stealing และ visual glitches ✅ WebGPU เป็นฟีเจอร์ใหม่ที่ช่วยให้เว็บแอปใช้ GPU ได้โดยตรง ➡️ เพิ่มประสิทธิภาพกราฟิกในแอปที่ใช้ WebGL หรือ 3D rendering ✅ AI-powered tab groups ใช้ machine learning จัดกลุ่มแท็บอัตโนมัติ ➡️ ช่วยให้ผู้ใช้จัดการงานหลายอย่างได้ง่ายขึ้น ✅ Firefox ยังคงรองรับการใช้งานบน Windows ผ่าน Microsoft Store ➡️ เพิ่มช่องทางให้ผู้ใช้ทั่วไปเข้าถึงได้สะดวก https://www.neowin.net/news/firefox-14102-is-out-fixes-crashes-on-systems-with-nvidia-gpus-and-more/
    WWW.NEOWIN.NET
    Firefox 141.0.2 is out, fixes crashes on systems with Nvidia GPUs and more
    Mozilla is rolling out a small Firefox update to address startup crashes on systems with Nvidia cards, fix compatibility issues, and more.
    0 ความคิดเห็น 0 การแบ่งปัน 227 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง

    ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว

    แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ

    AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50%

    แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี

    AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน

    AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023
    หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก

    เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3
    มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่

    เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50%
    พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร

    AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI
    ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง

    MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน
    โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่

    AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน
    ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024

    MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว
    ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU

    AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA
    เน้นความยืดหยุ่นและลดการผูกขาด

    NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม
    ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD

    AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี
    ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด

    การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป
    แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์

    https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
    🚀🧠 เรื่องเล่าจากสนาม AI: AMD ลุกขึ้นท้าชน NVIDIA ด้วยกลยุทธ์ใหม่ที่ไม่ใช่แค่ชิปแรง ย้อนกลับไปในปี 2022 เมื่อ ChatGPT จุดกระแส AI ให้ลุกเป็นไฟ NVIDIA ก็กลายเป็นเจ้าตลาดทันที เพราะมีทั้งฮาร์ดแวร์และซอฟต์แวร์พร้อมใช้งาน ขณะที่ AMD ยังอยู่กับ CPU และ GPU แบบเดิม จนกระทั่งปี 2023 Lisa Su ซีอีโอของ AMD ประกาศเปลี่ยนทิศทางบริษัทเข้าสู่ตลาด AI อย่างเต็มตัว แต่การไล่ตามไม่ง่าย เพราะ NVIDIA ไม่ได้ขายแค่ชิป แต่ขาย “ระบบนิเวศ” ที่ผูกขาดด้วย CUDA และเครื่องมือพัฒนาแบบ proprietary ทำให้ Big Tech อย่าง Microsoft, Meta และ OpenAI ติดสัญญาและไม่กล้าเปลี่ยนฝั่งง่ายๆ AMD จึงต้องสร้างทุกอย่างใหม่ ตั้งแต่ชิป MI300X ที่มี VRAM 192GB มากกว่า H100 ของ NVIDIA ถึงเท่าตัว ไปจนถึงการเปิดตัว Helios rack-scale AI server ที่ใช้ EPYC Venice CPU และเตรียมเปิดตัว MI400 ที่ใช้ HBM4 พร้อมหน่วยความจำเพิ่มขึ้นอีก 50% แม้ MI300X จะมีประสิทธิภาพสูงกว่า H100 ในงาน inferencing ขนาดเล็กและใหญ่ แต่ยังแพ้ใน batch ขนาดกลาง และราคาต่อชั่วโมงก็สูงกว่าเล็กน้อย อย่างไรก็ตาม เมื่อคำนวณรวมแล้ว AMD กลับคุ้มค่ากว่าในหลายกรณี AMD ยังพยายามสร้างซอฟต์แวร์ ecosystem ของตัวเอง และเริ่มได้รับความสนใจจาก Big Tech ที่ต้องการลดต้นทุนและเพิ่มทางเลือก เช่น Microsoft และ OpenAI ที่เริ่มใช้เทคโนโลยีของ AMD ในบางส่วน ✅ AMD เปลี่ยนทิศทางเข้าสู่ตลาด AI ตั้งแต่ปี 2023 ➡️ หลังจากกระแส ChatGPT ทำให้ AI กลายเป็นเทรนด์หลัก ✅ เปิดตัวชิป MI300X ที่มี VRAM 192GB และใช้สถาปัตยกรรม CDNA 3 ➡️ มีประสิทธิภาพสูงใน inferencing ขนาดเล็กและใหญ่ ✅ เตรียมเปิดตัว MI400 ที่ใช้ HBM4 และมีหน่วยความจำเพิ่มขึ้น 50% ➡️ พร้อมเปิดตัว Helios rack-scale server สำหรับองค์กร ✅ AMD เริ่มได้รับความสนใจจาก Microsoft, Meta และ OpenAI ➡️ ด้วยราคาที่ถูกกว่าและความพร้อมในการจัดส่ง ✅ MI300X มีราคาต่อชั่วโมงสูงกว่า H100 เล็กน้อย แต่คุ้มค่ากว่าในบางงาน ➡️ โดยเฉพาะงานที่ใช้ batch ขนาดเล็กหรือใหญ่ ✅ AMD คาดการณ์ตลาดชิป AI ปีนี้มีมูลค่า $45 พันล้าน ➡️ ตั้งเป้ายอดขายชิป AI ที่ $2 พันล้านในปี 2024 ✅ MI300X สามารถรันโมเดล Mixtral 7x8B ได้บน GPU เดียว ➡️ ขณะที่ H100 ต้องใช้ tensor parallelism บนสอง GPU ✅ AMD พัฒนา ecosystem แบบเปิดเพื่อแข่งกับ CUDA ของ NVIDIA ➡️ เน้นความยืดหยุ่นและลดการผูกขาด ‼️ NVIDIA ยังครองตลาดด้วย ecosystem ที่ผูกขาดและครอบคลุม ⛔ ทำให้ลูกค้ารายใหญ่ลังเลที่จะเปลี่ยนมาใช้ AMD ‼️ AMD ยังขาดความเชื่อมั่นจากนักลงทุนและสื่อเทคโนโลยี ⛔ ส่งผลต่อภาพลักษณ์และการยอมรับในตลาด ‼️ การแข่งขันไม่ใช่แค่เรื่องประสิทธิภาพของชิป ⛔ แต่ต้องสร้างระบบนิเวศที่ครบวงจรทั้งฮาร์ดแวร์และซอฟต์แวร์ https://wccftech.com/is-amd-the-next-major-threat-to-nvidias-long-standing-ai-dominance/
    WCCFTECH.COM
    Is AMD the Next Major Threat to NVIDIA's Long-Standing AI Dominance? A Deep Dive into How the Firm's Recent Strategies Might Put It in a Much More Competitive Position
    Here's an analysis of how AMD's recent AI moves are shaping the company for a better future, rivaling NVIDIA more dominantly.
    0 ความคิดเห็น 0 การแบ่งปัน 246 มุมมอง 0 รีวิว
  • เรื่องเล่าจากวงการฮาร์ดแวร์: เมื่อจีนส่ง GPU 24GB VRAM ท้าชน NVIDIA และ AMD

    ในโลกที่ NVIDIA และ AMD ครองตลาดกราฟิกการ์ดมานาน จู่ๆ ก็มีผู้เล่นหน้าใหม่จากจีนชื่อว่า Lisuan Tech โผล่ขึ้นมาพร้อม GPU รุ่น 7G105 ที่มาพร้อม VRAM ขนาด 24GB และฟีเจอร์ที่ดูจริงจังเกินกว่าจะเป็นแค่ของเล่นสำหรับเกมเมอร์

    Lisuan Tech ไม่ได้เน้น ray tracing หรือ DirectX 12 Ultimate แบบที่ค่ายใหญ่ทำ แต่หันไปโฟกัสที่งาน compute และ virtualization สำหรับตลาด workstation และ enterprise โดยใช้สถาปัตยกรรม TrueGPU ของตัวเอง ผลิตบนเทคโนโลยี 6nm จาก TSMC

    GPU รุ่นนี้รองรับการถอดรหัสวิดีโอ 8K AV1 และ HEVC ที่ 60fps และสามารถ encode ได้ทั้ง 4K และ 8K ขึ้นอยู่กับ codec มีพอร์ต DisplayPort 1.4 ถึง 4 ช่อง แต่ไม่มี HDMI เพราะต้องการลดต้นทุนด้านลิขสิทธิ์

    จุดเด่นที่ทำให้มันดูจริงจังคือการรองรับ SR-IOV ซึ่งสามารถแบ่ง GPU ออกเป็น 16 virtual containers ได้ ทำให้เหมาะกับการใช้งานในระบบคลาวด์หรือองค์กรขนาดใหญ่ที่ต้องการความยืดหยุ่น

    แม้จะมีประสิทธิภาพในระดับ 24 TFLOPs (FP32) ซึ่งใกล้เคียง RTX 4060 แต่ยังมีข้อสงสัยหลายอย่าง เช่น ความเร็วสัญญาณนาฬิกา, ความถี่หน่วยความจำ และการใช้พลังงานที่ยังไม่เปิดเผย รวมถึงการขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในระยะยาว

    Lisuan Tech เปิดตัว GPU รุ่น 7G105 พร้อม VRAM ขนาด 24GB
    เน้นตลาด workstation และ enterprise มากกว่าการเล่นเกม

    ใช้สถาปัตยกรรม TrueGPU ผลิตบนเทคโนโลยี 6nm จาก TSMC
    รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 แต่ไม่รองรับ ray tracing

    รองรับการถอดรหัสวิดีโอ 8K และ encode ได้ทั้ง 4K/8K
    ใช้ DisplayPort 1.4 จำนวน 4 ช่อง ไม่มี HDMI

    รองรับ SR-IOV แบ่ง GPU เป็น 16 virtual containers
    เหมาะกับการใช้งานในระบบคลาวด์และองค์กรขนาดใหญ่

    ประสิทธิภาพสูงสุด 24 TFLOPs (FP32) ใกล้เคียง RTX 4060
    มีผล benchmark จาก Geekbench และ 3DMark ที่น่าประทับใจ

    รุ่น 7G106 สำหรับผู้ใช้ทั่วไปมี VRAM 12GB และ TDP 225W
    ใช้พลังงานผ่าน 8-pin PCIe connector และรองรับ 8K HDR

    รุ่น 7G105 สำหรับมืออาชีพมี ECC memory และระบบเข้ารหัสข้อมูล
    รองรับการแสดงผลหลายหน้าจอพร้อมกันในระบบเสมือน

    ผลการทดสอบ synthetic benchmark แสดงว่าแรงกว่า RTX 4060
    แต่ยังไม่ถึงระดับ RTX 5060 หรือ RX 9060 XT

    ยังไม่มีข้อมูลแน่ชัดเรื่องความเร็วสัญญาณนาฬิกาและการใช้พลังงาน
    ทำให้ประสิทธิภาพจริงยังเป็นเพียงการคาดการณ์

    ขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในการใช้งานระยะยาว
    อาจมีปัญหาในการใช้งานกับซอฟต์แวร์มืออาชีพ

    ไม่มี HDMI อาจเป็นข้อจำกัดสำหรับผู้ใช้ทั่วไป
    ต้องใช้ DisplayPort เท่านั้น ซึ่งอาจไม่สะดวกในบางกรณี

    https://www.techradar.com/pro/chinese-gpu-vendor-youve-never-heard-of-wants-to-challenge-nvidia-and-amd-in-the-pro-market-with-24gb-vram
    🎮🧠 เรื่องเล่าจากวงการฮาร์ดแวร์: เมื่อจีนส่ง GPU 24GB VRAM ท้าชน NVIDIA และ AMD ในโลกที่ NVIDIA และ AMD ครองตลาดกราฟิกการ์ดมานาน จู่ๆ ก็มีผู้เล่นหน้าใหม่จากจีนชื่อว่า Lisuan Tech โผล่ขึ้นมาพร้อม GPU รุ่น 7G105 ที่มาพร้อม VRAM ขนาด 24GB และฟีเจอร์ที่ดูจริงจังเกินกว่าจะเป็นแค่ของเล่นสำหรับเกมเมอร์ Lisuan Tech ไม่ได้เน้น ray tracing หรือ DirectX 12 Ultimate แบบที่ค่ายใหญ่ทำ แต่หันไปโฟกัสที่งาน compute และ virtualization สำหรับตลาด workstation และ enterprise โดยใช้สถาปัตยกรรม TrueGPU ของตัวเอง ผลิตบนเทคโนโลยี 6nm จาก TSMC GPU รุ่นนี้รองรับการถอดรหัสวิดีโอ 8K AV1 และ HEVC ที่ 60fps และสามารถ encode ได้ทั้ง 4K และ 8K ขึ้นอยู่กับ codec มีพอร์ต DisplayPort 1.4 ถึง 4 ช่อง แต่ไม่มี HDMI เพราะต้องการลดต้นทุนด้านลิขสิทธิ์ จุดเด่นที่ทำให้มันดูจริงจังคือการรองรับ SR-IOV ซึ่งสามารถแบ่ง GPU ออกเป็น 16 virtual containers ได้ ทำให้เหมาะกับการใช้งานในระบบคลาวด์หรือองค์กรขนาดใหญ่ที่ต้องการความยืดหยุ่น แม้จะมีประสิทธิภาพในระดับ 24 TFLOPs (FP32) ซึ่งใกล้เคียง RTX 4060 แต่ยังมีข้อสงสัยหลายอย่าง เช่น ความเร็วสัญญาณนาฬิกา, ความถี่หน่วยความจำ และการใช้พลังงานที่ยังไม่เปิดเผย รวมถึงการขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในระยะยาว ✅ Lisuan Tech เปิดตัว GPU รุ่น 7G105 พร้อม VRAM ขนาด 24GB ➡️ เน้นตลาด workstation และ enterprise มากกว่าการเล่นเกม ✅ ใช้สถาปัตยกรรม TrueGPU ผลิตบนเทคโนโลยี 6nm จาก TSMC ➡️ รองรับ DirectX 12, Vulkan 1.3, OpenGL 4.6 แต่ไม่รองรับ ray tracing ✅ รองรับการถอดรหัสวิดีโอ 8K และ encode ได้ทั้ง 4K/8K ➡️ ใช้ DisplayPort 1.4 จำนวน 4 ช่อง ไม่มี HDMI ✅ รองรับ SR-IOV แบ่ง GPU เป็น 16 virtual containers ➡️ เหมาะกับการใช้งานในระบบคลาวด์และองค์กรขนาดใหญ่ ✅ ประสิทธิภาพสูงสุด 24 TFLOPs (FP32) ใกล้เคียง RTX 4060 ➡️ มีผล benchmark จาก Geekbench และ 3DMark ที่น่าประทับใจ ✅ รุ่น 7G106 สำหรับผู้ใช้ทั่วไปมี VRAM 12GB และ TDP 225W ➡️ ใช้พลังงานผ่าน 8-pin PCIe connector และรองรับ 8K HDR ✅ รุ่น 7G105 สำหรับมืออาชีพมี ECC memory และระบบเข้ารหัสข้อมูล ➡️ รองรับการแสดงผลหลายหน้าจอพร้อมกันในระบบเสมือน ✅ ผลการทดสอบ synthetic benchmark แสดงว่าแรงกว่า RTX 4060 ➡️ แต่ยังไม่ถึงระดับ RTX 5060 หรือ RX 9060 XT ‼️ ยังไม่มีข้อมูลแน่ชัดเรื่องความเร็วสัญญาณนาฬิกาและการใช้พลังงาน ⛔ ทำให้ประสิทธิภาพจริงยังเป็นเพียงการคาดการณ์ ‼️ ขาดข้อมูลเรื่องไดรเวอร์และความเสถียรในการใช้งานระยะยาว ⛔ อาจมีปัญหาในการใช้งานกับซอฟต์แวร์มืออาชีพ ‼️ ไม่มี HDMI อาจเป็นข้อจำกัดสำหรับผู้ใช้ทั่วไป ⛔ ต้องใช้ DisplayPort เท่านั้น ซึ่งอาจไม่สะดวกในบางกรณี https://www.techradar.com/pro/chinese-gpu-vendor-youve-never-heard-of-wants-to-challenge-nvidia-and-amd-in-the-pro-market-with-24gb-vram
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: SK hynix แซง Samsung ขึ้นเป็นเบอร์หนึ่งของโลก—ชัยชนะจาก HBM ที่ขับเคลื่อน AI

    ในไตรมาส 2 ปี 2025 SK hynix สร้างประวัติศาสตร์ด้วยรายได้จากธุรกิจหน่วยความจำสูงถึง $9.66 พันล้าน แซงหน้า Samsung ที่ทำได้ $8.94 พันล้าน และครองส่วนแบ่งตลาด 36.2% เทียบกับ 33.5% ของคู่แข่ง นี่เป็นครั้งแรกที่ SK hynix ขึ้นนำตั้งแต่ก่อตั้งในปี 1983

    เบื้องหลังความสำเร็จคือการรุกเข้าสู่ตลาด High-Bandwidth Memory (HBM) อย่างรวดเร็ว โดยเฉพาะ HBM3 และ HBM3E ที่กลายเป็นหัวใจของการประมวลผล AI บน GPU ของ Nvidia เช่น B300 และ L40S

    ในขณะที่ Samsung ยังครองตลาด NAND และ DRAM แบบดั้งเดิม แต่กลับล่าช้าในการส่งมอบ HBM3E ให้ลูกค้า ทำให้เสียโอกาสในตลาดที่เติบโตเร็วที่สุดในยุค AI

    https://www.tomshardware.com/tech-industry/sk-hynix-dethrones-samsung-to-become-worlds-top-selling-memory-maker-for-the-first-time-success-mostly-attributed-to-its-hbm3-dominance-for-nvidias-ai-gpus
    🎙️ เรื่องเล่าจากข่าว: SK hynix แซง Samsung ขึ้นเป็นเบอร์หนึ่งของโลก—ชัยชนะจาก HBM ที่ขับเคลื่อน AI ในไตรมาส 2 ปี 2025 SK hynix สร้างประวัติศาสตร์ด้วยรายได้จากธุรกิจหน่วยความจำสูงถึง $9.66 พันล้าน แซงหน้า Samsung ที่ทำได้ $8.94 พันล้าน และครองส่วนแบ่งตลาด 36.2% เทียบกับ 33.5% ของคู่แข่ง นี่เป็นครั้งแรกที่ SK hynix ขึ้นนำตั้งแต่ก่อตั้งในปี 1983 เบื้องหลังความสำเร็จคือการรุกเข้าสู่ตลาด High-Bandwidth Memory (HBM) อย่างรวดเร็ว โดยเฉพาะ HBM3 และ HBM3E ที่กลายเป็นหัวใจของการประมวลผล AI บน GPU ของ Nvidia เช่น B300 และ L40S ในขณะที่ Samsung ยังครองตลาด NAND และ DRAM แบบดั้งเดิม แต่กลับล่าช้าในการส่งมอบ HBM3E ให้ลูกค้า ทำให้เสียโอกาสในตลาดที่เติบโตเร็วที่สุดในยุค AI https://www.tomshardware.com/tech-industry/sk-hynix-dethrones-samsung-to-become-worlds-top-selling-memory-maker-for-the-first-time-success-mostly-attributed-to-its-hbm3-dominance-for-nvidias-ai-gpus
    0 ความคิดเห็น 0 การแบ่งปัน 163 มุมมอง 0 รีวิว
Pages Boosts