• AMD อาจนำ FSR 4 ซึ่งเป็นเทคโนโลยีปรับคุณภาพภาพเกมไปใช้ในเครื่องเล่นเกมพกพาและแล็ปท็อปรุ่นใหม่ผ่าน APU Medusa Point ที่ใช้ RDNA 4 ฟีเจอร์นี้ช่วยเพิ่มความลื่นไหลของภาพและคุณภาพกราฟิก แม้ยังมีการแข่งขันกับเทคโนโลยี DLSS ของ NVIDIA แต่การพัฒนานี้ถือเป็นก้าวสำคัญที่ทำให้ AMD มีโอกาสโดดเด่นในตลาดเกมพกพา

    ความน่าสนใจของ Medusa Point APUs:
    - สถาปัตยกรรม RDNA 4 ของ Medusa Point รองรับ Zen5LP cores ที่เป็นระบบประหยัดพลังงานและหน่วยประมวลผล Navi4 ซึ่งเหมาะสมกับเกมที่ต้องการคุณภาพกราฟิกสูง.

    การใช้งาน FSR 4 ในอนาคต:
    - มีความหวังว่า FSR 4 อาจถูกพัฒนาสำหรับ RDNA 3 ในอนาคต ซึ่งจะช่วยให้เครื่องที่ใช้ AMD รุ่นก่อนหน้านี้สามารถเข้าถึงฟีเจอร์นี้ได้.

    เปรียบเทียบกับเทคโนโลยีคู่แข่ง:
    - FSR 4 ถูกเปรียบเทียบกับเทคโนโลยี DLSS (Deep Learning Super Sampling) ของ NVIDIA โดยเน้นการให้ประสิทธิภาพที่ใกล้เคียงกันในโหมด performance และช่วยเพิ่มคุณภาพภาพโดยไม่สูญเสียความลื่นไหล.

    โอกาสและการแข่งขันในตลาด:
    - ความก้าวหน้าของ FSR 4 บน APU จะช่วยให้ AMD แข่งขันกับ NVIDIA และ Intel ได้ดียิ่งขึ้น โดยเฉพาะในตลาดเครื่องเล่นเกมพกพาที่มีศักยภาพการเติบโตสูง.

    https://www.techradar.com/computing/cpu/hang-on-handheld-fans-we-could-be-seeing-amds-fsr-4-upscaling-on-new-handhelds-after-all-if-this-new-rdna-4-leak-is-legitimate
    AMD อาจนำ FSR 4 ซึ่งเป็นเทคโนโลยีปรับคุณภาพภาพเกมไปใช้ในเครื่องเล่นเกมพกพาและแล็ปท็อปรุ่นใหม่ผ่าน APU Medusa Point ที่ใช้ RDNA 4 ฟีเจอร์นี้ช่วยเพิ่มความลื่นไหลของภาพและคุณภาพกราฟิก แม้ยังมีการแข่งขันกับเทคโนโลยี DLSS ของ NVIDIA แต่การพัฒนานี้ถือเป็นก้าวสำคัญที่ทำให้ AMD มีโอกาสโดดเด่นในตลาดเกมพกพา ความน่าสนใจของ Medusa Point APUs: - สถาปัตยกรรม RDNA 4 ของ Medusa Point รองรับ Zen5LP cores ที่เป็นระบบประหยัดพลังงานและหน่วยประมวลผล Navi4 ซึ่งเหมาะสมกับเกมที่ต้องการคุณภาพกราฟิกสูง. การใช้งาน FSR 4 ในอนาคต: - มีความหวังว่า FSR 4 อาจถูกพัฒนาสำหรับ RDNA 3 ในอนาคต ซึ่งจะช่วยให้เครื่องที่ใช้ AMD รุ่นก่อนหน้านี้สามารถเข้าถึงฟีเจอร์นี้ได้. เปรียบเทียบกับเทคโนโลยีคู่แข่ง: - FSR 4 ถูกเปรียบเทียบกับเทคโนโลยี DLSS (Deep Learning Super Sampling) ของ NVIDIA โดยเน้นการให้ประสิทธิภาพที่ใกล้เคียงกันในโหมด performance และช่วยเพิ่มคุณภาพภาพโดยไม่สูญเสียความลื่นไหล. โอกาสและการแข่งขันในตลาด: - ความก้าวหน้าของ FSR 4 บน APU จะช่วยให้ AMD แข่งขันกับ NVIDIA และ Intel ได้ดียิ่งขึ้น โดยเฉพาะในตลาดเครื่องเล่นเกมพกพาที่มีศักยภาพการเติบโตสูง. https://www.techradar.com/computing/cpu/hang-on-handheld-fans-we-could-be-seeing-amds-fsr-4-upscaling-on-new-handhelds-after-all-if-this-new-rdna-4-leak-is-legitimate
    0 ความคิดเห็น 0 การแบ่งปัน 46 มุมมอง 0 รีวิว
  • Intel ตัดสินใจยกเลิกการพัฒนากราฟิกการ์ด Arc Xe2 รุ่นขั้นสูง เนื่องจากปัญหาในการพัฒนา รวมถึงความไม่คุ้มค่าของการลงทุน รุ่นใหม่อย่าง Xe3 "Celestial" ยังคงอยู่ในระหว่างการพัฒนา โดยการเปลี่ยนแปลงครั้งนี้สะท้อนถึงความยากลำบากที่ Intel ต้องเผชิญในตลาด GPU ที่มีการแข่งขันสูง

    ผลกระทบต่อผู้ใช้และตลาด:
    - Intel ยังไม่มีกราฟิกการ์ดในกลุ่มไฮเอนด์ที่สามารถแข่งขันกับ NVIDIA และ AMD ได้ ซึ่งอาจส่งผลต่อส่วนแบ่งตลาดและความมั่นใจในเทคโนโลยีของ Intel.

    อนาคตของ Arc Xe3 "Celestial":
    - แม้ Intel ไม่ได้ให้ข้อมูลใหม่เกี่ยวกับโครงการ Xe3 แต่ผู้เชี่ยวชาญมองว่า Intel อาจพยายามปรับปรุงความสามารถของ GPU รุ่นใหม่เพื่อไม่ให้เกิดความล่าช้าเหมือนที่ผ่านมา.

    ความสำคัญของการแข่งขันในตลาด GPU:
    - การพัฒนาเทคโนโลยี GPU ต้องใช้ทั้งทรัพยากรและเวลา ซึ่ง Intel ยังต้องเผชิญกับความท้าทายในการพัฒนา GPU ที่สามารถตอบโจทย์ด้านประสิทธิภาพและราคาที่สมเหตุสมผล.

    https://www.techpowerup.com/334772/intel-reportedly-abandoned-higher-end-arc-xe2-battlemage-dgpu-project-last-year
    Intel ตัดสินใจยกเลิกการพัฒนากราฟิกการ์ด Arc Xe2 รุ่นขั้นสูง เนื่องจากปัญหาในการพัฒนา รวมถึงความไม่คุ้มค่าของการลงทุน รุ่นใหม่อย่าง Xe3 "Celestial" ยังคงอยู่ในระหว่างการพัฒนา โดยการเปลี่ยนแปลงครั้งนี้สะท้อนถึงความยากลำบากที่ Intel ต้องเผชิญในตลาด GPU ที่มีการแข่งขันสูง ผลกระทบต่อผู้ใช้และตลาด: - Intel ยังไม่มีกราฟิกการ์ดในกลุ่มไฮเอนด์ที่สามารถแข่งขันกับ NVIDIA และ AMD ได้ ซึ่งอาจส่งผลต่อส่วนแบ่งตลาดและความมั่นใจในเทคโนโลยีของ Intel. อนาคตของ Arc Xe3 "Celestial": - แม้ Intel ไม่ได้ให้ข้อมูลใหม่เกี่ยวกับโครงการ Xe3 แต่ผู้เชี่ยวชาญมองว่า Intel อาจพยายามปรับปรุงความสามารถของ GPU รุ่นใหม่เพื่อไม่ให้เกิดความล่าช้าเหมือนที่ผ่านมา. ความสำคัญของการแข่งขันในตลาด GPU: - การพัฒนาเทคโนโลยี GPU ต้องใช้ทั้งทรัพยากรและเวลา ซึ่ง Intel ยังต้องเผชิญกับความท้าทายในการพัฒนา GPU ที่สามารถตอบโจทย์ด้านประสิทธิภาพและราคาที่สมเหตุสมผล. https://www.techpowerup.com/334772/intel-reportedly-abandoned-higher-end-arc-xe2-battlemage-dgpu-project-last-year
    WWW.TECHPOWERUP.COM
    Intel Reportedly Abandoned Higher-end Arc Xe2 "Battlemage" dGPU Project Last Year
    Intel GPU enthusiasts have been waiting patiently for news regarding higher-end models; ever since the launches of wallet-friendly Arc Xe2 "Battlemage" B580 and B570 graphics cards. As the cliché goes; recent silence has been deafening—we last heard about a speculative expanded lineup of B-series SK...
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • จีนพยายามเร่งสร้างศูนย์ข้อมูล AI แต่กลับพบว่าหลายโครงการล้มเหลวเพราะวางแผนไม่รอบคอบ และไม่ได้ใช้งานจริงตามที่คาดหวัง โครงสร้างพื้นฐานเหล่านี้กลายเป็นภาระทางเศรษฐกิจ แต่รัฐบาลยังคงมองว่าเป็นโอกาสเรียนรู้และปรับตัวในอนาคต โดยจะสนับสนุนบริษัทใหญ่ให้พัฒนา AI และโครงสร้างพื้นฐานต่อไป

    การเร่งลงทุนที่มากเกินไป:
    - จีนได้เปิดตัวศูนย์ข้อมูลกว่า 500 แห่งในปี 2023 โดยมีอย่างน้อย 150 แห่งเริ่มดำเนินการภายในปี 2024 แต่หลายโครงการมุ่งเน้นการดึงดูดเงินอุดหนุนจากรัฐบาลมากกว่าการสร้างศักยภาพ AI ที่แท้จริง.

    ปัญหาด้านเทคโนโลยีและอุปสงค์:
    - เทคโนโลยีที่ใช้ในศูนย์ข้อมูลไม่ตอบโจทย์ความต้องการปัจจุบัน เช่น งานด้าน AI inference ซึ่งต้องการอุปกรณ์ที่รวดเร็วและประหยัดพลังงาน แต่ศูนย์กลับถูกออกแบบมาเพื่อการประมวลผล AI training ที่ไม่จำเป็นในตลาด.

    ราคาที่ลดลงของ GPU Rental:
    - ค่าเช่าหน่วยประมวลผล AI เช่น Nvidia H100 ลดลงมากจาก 180,000 หยวน ($24,000) ต่อเดือน เหลือเพียง 75,000 หยวน ($10,000) ซึ่งสะท้อนถึงความเปลี่ยนแปลงของตลาด AI.

    การปรับเปลี่ยนแผนในอนาคต:
    - รัฐบาลจีนยังคงให้ความสำคัญกับ AI โดยมองว่านี่เป็นการเรียนรู้จากความผิดพลาด และมีแผนจะมอบหมายศูนย์ข้อมูลที่ไม่ประสบความสำเร็จให้กับผู้ดำเนินการที่มีศักยภาพสูงขึ้น เช่น Alibaba และ ByteDance ที่ได้ประกาศลงทุนเพิ่มในโครงสร้างพื้นฐาน AI.

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-ai-data-center-boom-goes-bust-rush-leaves-billions-of-dollars-in-idle-infrastructure
    จีนพยายามเร่งสร้างศูนย์ข้อมูล AI แต่กลับพบว่าหลายโครงการล้มเหลวเพราะวางแผนไม่รอบคอบ และไม่ได้ใช้งานจริงตามที่คาดหวัง โครงสร้างพื้นฐานเหล่านี้กลายเป็นภาระทางเศรษฐกิจ แต่รัฐบาลยังคงมองว่าเป็นโอกาสเรียนรู้และปรับตัวในอนาคต โดยจะสนับสนุนบริษัทใหญ่ให้พัฒนา AI และโครงสร้างพื้นฐานต่อไป การเร่งลงทุนที่มากเกินไป: - จีนได้เปิดตัวศูนย์ข้อมูลกว่า 500 แห่งในปี 2023 โดยมีอย่างน้อย 150 แห่งเริ่มดำเนินการภายในปี 2024 แต่หลายโครงการมุ่งเน้นการดึงดูดเงินอุดหนุนจากรัฐบาลมากกว่าการสร้างศักยภาพ AI ที่แท้จริง. ปัญหาด้านเทคโนโลยีและอุปสงค์: - เทคโนโลยีที่ใช้ในศูนย์ข้อมูลไม่ตอบโจทย์ความต้องการปัจจุบัน เช่น งานด้าน AI inference ซึ่งต้องการอุปกรณ์ที่รวดเร็วและประหยัดพลังงาน แต่ศูนย์กลับถูกออกแบบมาเพื่อการประมวลผล AI training ที่ไม่จำเป็นในตลาด. ราคาที่ลดลงของ GPU Rental: - ค่าเช่าหน่วยประมวลผล AI เช่น Nvidia H100 ลดลงมากจาก 180,000 หยวน ($24,000) ต่อเดือน เหลือเพียง 75,000 หยวน ($10,000) ซึ่งสะท้อนถึงความเปลี่ยนแปลงของตลาด AI. การปรับเปลี่ยนแผนในอนาคต: - รัฐบาลจีนยังคงให้ความสำคัญกับ AI โดยมองว่านี่เป็นการเรียนรู้จากความผิดพลาด และมีแผนจะมอบหมายศูนย์ข้อมูลที่ไม่ประสบความสำเร็จให้กับผู้ดำเนินการที่มีศักยภาพสูงขึ้น เช่น Alibaba และ ByteDance ที่ได้ประกาศลงทุนเพิ่มในโครงสร้างพื้นฐาน AI. https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-ai-data-center-boom-goes-bust-rush-leaves-billions-of-dollars-in-idle-infrastructure
    0 ความคิดเห็น 0 การแบ่งปัน 54 มุมมอง 0 รีวิว
  • การ์ดจอ RTX 5090 สำหรับแล็ปท็อปของ Nvidia เปิดตัวพร้อมผลการทดสอบที่เผยว่าประสิทธิภาพเพิ่มขึ้น 11% จาก RTX 4090 และถึง 40% เทียบกับ 3080 Ti แม้จะมีข้อจำกัดด้านฮาร์ดแวร์อย่างการระบายความร้อนและ CPU คอขวด แต่ความล้ำหน้าของเทคโนโลยี Multi-Frame Generation และการออกแบบที่บางเบาอาจดึงดูดผู้ใช้งานที่ต้องการประสิทธิภาพสูงในแล็ปท็อปรุ่นใหม่

    นวัตกรรมด้านฮาร์ดแวร์:
    - RTX 5090 ในแล็ปท็อปอย่าง Razer Blade 16 รุ่นปี 2025 มาพร้อมหน้าจอความละเอียด 1600p ที่รองรับการแสดงผล 240Hz และตัวเครื่องบางเพียง 0.7 นิ้ว ทำให้เหมาะสำหรับผู้ที่ต้องการประสิทธิภาพสูงในขนาดพกพา.

    ความแตกต่างระหว่างรุ่น:
    - RTX 5090 เหนือกว่ารุ่นก่อนหน้าในเกมความละเอียดสูง เช่น Cyberpunk 2077 และ Alan Wake 2 ด้วยเฟรมเรตที่เพิ่มขึ้น 10 FPS แต่ในบางการทดสอบพบว่าประสิทธิภาพของ RTX 5090 และ RTX 4090 อาจใกล้เคียงกันขึ้นอยู่กับ CPU ที่จับคู่ด้วย.

    เทคโนโลยี Multi-Frame Generation (MFG):
    - เทคโนโลยีนี้สามารถเพิ่มเฟรมเรตได้ถึง 200% ในบางสถานการณ์ แต่ผู้ใช้งานอาจรู้สึกถึงความหน่วงในปุ่มคำสั่งที่คล้ายกับเฟรมเรตจริงมากกว่าเฟรมเรตที่ปรากฏ.

    การเปิดตัวในอนาคต:
    - แล็ปท็อปที่ใช้ RTX 5090 เช่น Razer Blade 16 รุ่นใหม่ จะเริ่มวางจำหน่ายในวันที่ 31 มีนาคม 2025 ซึ่งคาดว่าแบรนด์อื่น ๆ จะเปิดตัวพร้อมโซลูชันการระบายความร้อนที่แตกต่างออกไปเพื่อเพิ่มประสิทธิภาพการใช้งาน.

    https://www.techspot.com/news/107323-first-nvidia-rtx-5090-laptop-benchmarks-have-emerged.html
    การ์ดจอ RTX 5090 สำหรับแล็ปท็อปของ Nvidia เปิดตัวพร้อมผลการทดสอบที่เผยว่าประสิทธิภาพเพิ่มขึ้น 11% จาก RTX 4090 และถึง 40% เทียบกับ 3080 Ti แม้จะมีข้อจำกัดด้านฮาร์ดแวร์อย่างการระบายความร้อนและ CPU คอขวด แต่ความล้ำหน้าของเทคโนโลยี Multi-Frame Generation และการออกแบบที่บางเบาอาจดึงดูดผู้ใช้งานที่ต้องการประสิทธิภาพสูงในแล็ปท็อปรุ่นใหม่ นวัตกรรมด้านฮาร์ดแวร์: - RTX 5090 ในแล็ปท็อปอย่าง Razer Blade 16 รุ่นปี 2025 มาพร้อมหน้าจอความละเอียด 1600p ที่รองรับการแสดงผล 240Hz และตัวเครื่องบางเพียง 0.7 นิ้ว ทำให้เหมาะสำหรับผู้ที่ต้องการประสิทธิภาพสูงในขนาดพกพา. ความแตกต่างระหว่างรุ่น: - RTX 5090 เหนือกว่ารุ่นก่อนหน้าในเกมความละเอียดสูง เช่น Cyberpunk 2077 และ Alan Wake 2 ด้วยเฟรมเรตที่เพิ่มขึ้น 10 FPS แต่ในบางการทดสอบพบว่าประสิทธิภาพของ RTX 5090 และ RTX 4090 อาจใกล้เคียงกันขึ้นอยู่กับ CPU ที่จับคู่ด้วย. เทคโนโลยี Multi-Frame Generation (MFG): - เทคโนโลยีนี้สามารถเพิ่มเฟรมเรตได้ถึง 200% ในบางสถานการณ์ แต่ผู้ใช้งานอาจรู้สึกถึงความหน่วงในปุ่มคำสั่งที่คล้ายกับเฟรมเรตจริงมากกว่าเฟรมเรตที่ปรากฏ. การเปิดตัวในอนาคต: - แล็ปท็อปที่ใช้ RTX 5090 เช่น Razer Blade 16 รุ่นใหม่ จะเริ่มวางจำหน่ายในวันที่ 31 มีนาคม 2025 ซึ่งคาดว่าแบรนด์อื่น ๆ จะเปิดตัวพร้อมโซลูชันการระบายความร้อนที่แตกต่างออกไปเพื่อเพิ่มประสิทธิภาพการใช้งาน. https://www.techspot.com/news/107323-first-nvidia-rtx-5090-laptop-benchmarks-have-emerged.html
    WWW.TECHSPOT.COM
    The first Nvidia RTX 5090 laptop benchmarks have emerged
    Notebookcheck, ComputerBase, Hardwareluxx, PCMag, and other outlets recently received one of the first gaming laptops to feature Nvidia's RTX 5090. Similar to results from the desktop sector,...
    0 ความคิดเห็น 0 การแบ่งปัน 16 มุมมอง 0 รีวิว
  • SMIC กำลังเข้าสู่การพัฒนาชิป 5 นาโนเมตร โดยใช้เครื่องมือ DUV แทน EUV ซึ่งส่งผลให้ค่าใช้จ่ายสูงขึ้นและอัตราการผลิตต่ำกว่า TSMC แต่ความสำเร็จนี้ยังเป็นก้าวสำคัญในความพยายามลดการพึ่งพาเทคโนโลยีจากต่างประเทศ โดย Huawei เตรียมใช้ชิปดังกล่าวในโครงการ AI เพื่อลดการพึ่งพาบริษัทจากตะวันตก ความท้าทายที่ยังคงอยู่คือการปรับปรุงผลผลิตและลดต้นทุนในอนาคต

    ประสิทธิภาพและค่าใช้จ่าย:
    - แม้กระบวนการ 5 นาโนเมตรจะสำเร็จ แต่ผลผลิตที่ได้มีอัตราการผลิตที่ต่ำ (33%) เมื่อเทียบกับ TSMC ซึ่งสะท้อนถึงอุปสรรคของ SMIC ในการพัฒนาชิปเทคโนโลยีขั้นสูง.

    การพึ่งพาทรัพยากรในประเทศ:
    - SMIC ต้องรอการพัฒนาเครื่อง EUV ภายในประเทศ ซึ่งจะเริ่มการทดลองผลิตในไตรมาสที่ 3 ปี 2025 โดยหวังว่าจะช่วยให้บริษัทพัฒนากระบวนการผลิตได้รวดเร็วยิ่งขึ้น.

    บทบาทของ Huawei:
    - Huawei มีแผนใช้เทคโนโลยีนี้ในชิป AI รุ่น Ascend 910C ซึ่งจะลดการพึ่งพา NVIDIA โดย SMIC ได้มุ่งเน้นการผลิตเพื่อสนับสนุนเทคโนโลยีของ Huawei อย่างเต็มที่.

    ความท้าทายในระยะยาว:
    - แม้ SMIC จะพัฒนาชิปได้สำเร็จ แต่ต้นทุนและผลผลิตที่ต่ำยังคงเป็นความท้าทาย บริษัทจำเป็นต้องลงทุนในอุปกรณ์และเทคโนโลยีที่ทันสมัยมากขึ้นเพื่อแข่งขันในตลาดระดับโลก.

    https://wccftech.com/smic-5nm-development-completed-in-2025/
    SMIC กำลังเข้าสู่การพัฒนาชิป 5 นาโนเมตร โดยใช้เครื่องมือ DUV แทน EUV ซึ่งส่งผลให้ค่าใช้จ่ายสูงขึ้นและอัตราการผลิตต่ำกว่า TSMC แต่ความสำเร็จนี้ยังเป็นก้าวสำคัญในความพยายามลดการพึ่งพาเทคโนโลยีจากต่างประเทศ โดย Huawei เตรียมใช้ชิปดังกล่าวในโครงการ AI เพื่อลดการพึ่งพาบริษัทจากตะวันตก ความท้าทายที่ยังคงอยู่คือการปรับปรุงผลผลิตและลดต้นทุนในอนาคต ประสิทธิภาพและค่าใช้จ่าย: - แม้กระบวนการ 5 นาโนเมตรจะสำเร็จ แต่ผลผลิตที่ได้มีอัตราการผลิตที่ต่ำ (33%) เมื่อเทียบกับ TSMC ซึ่งสะท้อนถึงอุปสรรคของ SMIC ในการพัฒนาชิปเทคโนโลยีขั้นสูง. การพึ่งพาทรัพยากรในประเทศ: - SMIC ต้องรอการพัฒนาเครื่อง EUV ภายในประเทศ ซึ่งจะเริ่มการทดลองผลิตในไตรมาสที่ 3 ปี 2025 โดยหวังว่าจะช่วยให้บริษัทพัฒนากระบวนการผลิตได้รวดเร็วยิ่งขึ้น. บทบาทของ Huawei: - Huawei มีแผนใช้เทคโนโลยีนี้ในชิป AI รุ่น Ascend 910C ซึ่งจะลดการพึ่งพา NVIDIA โดย SMIC ได้มุ่งเน้นการผลิตเพื่อสนับสนุนเทคโนโลยีของ Huawei อย่างเต็มที่. ความท้าทายในระยะยาว: - แม้ SMIC จะพัฒนาชิปได้สำเร็จ แต่ต้นทุนและผลผลิตที่ต่ำยังคงเป็นความท้าทาย บริษัทจำเป็นต้องลงทุนในอุปกรณ์และเทคโนโลยีที่ทันสมัยมากขึ้นเพื่อแข่งขันในตลาดระดับโลก. https://wccftech.com/smic-5nm-development-completed-in-2025/
    WCCFTECH.COM
    SMIC Is Rumored To Complete 5nm Chip Development By 2025; Costs Could Be Up To 50 Percent Higher Than TSMC’s Version Due To The Use Of Older-Generation Equipment
    China’s biggest semiconductor manufacturer, SMIC, is rumored to complete 5nm chip development in 2025, leading to advanced chip orders from Huawei
    0 ความคิดเห็น 0 การแบ่งปัน 70 มุมมอง 0 รีวิว
  • ในบทความนี้นำเสนอการปรับแต่ง RTX 4090 ให้มีหน่วยความจำ GDDR6X 48GB โดยใช้ PCB ของ RTX 3090 เป็นพื้นฐาน แม้จะมีประสิทธิภาพสูงและเหมาะสำหรับงานเซิร์ฟเวอร์ แต่ก็มีราคาสูงและเสียงดังขณะทำงาน จุดเด่นคือความสามารถในการปรับแต่งผ่านเครื่องมือพิเศษโดยไม่ละเมิดระบบ Nvidia ถือเป็นตัวเลือกที่น่าสนใจสำหรับผู้ใช้งานเฉพาะกลุ่ม

    การปรับแต่งขั้นสูง:
    - การเพิ่มหน่วยความจำบนด้านหลังของ PCB ที่ใช้ Thermal Pad และ Backplate ช่วยลดความร้อน ซึ่งทำให้การ์ดนี้เหมาะสำหรับงานที่ต้องใช้การประมวลผลหนัก เช่น ระบบเซิร์ฟเวอร์.

    เสียงดังและการทำงานหนัก:
    - การ์ดจอใช้ชุดพัดลมแบบ Blower-style ที่ทำให้มีเสียงดังถึง 65 เดซิเบลขณะทำงาน แต่สามารถควบคุมอุณหภูมิที่ค่อนข้างเสถียรในระหว่างการทดสอบใน Superposition ที่ 8K.

    การใช้ประโยชน์จากเครื่องมือภายในของ Nvidia:
    - นักดัดแปลงใช้เครื่องมือที่ได้มาจากการรั่วไหลของ Nvidia เช่น MATS และ MODS เพื่อปรับแต่งการ์ดจอให้ทำงานได้ตามที่ต้องการโดยไม่ละเมิดระบบความปลอดภัย.

    ราคาที่เข้าถึงยาก:
    - การ์ดนี้มีราคา $4,400 ซึ่งแม้จะสูงมาก แต่ยังถือว่าเป็นตัวเลือกที่คุ้มค่าที่สุดในตลาดสำหรับผู้ที่ต้องการหน่วยความจำขนาด 48GB สำหรับงานเฉพาะทาง.

    https://www.tomshardware.com/pc-components/gpus/blower-style-rtx-4090-48gb-teardown-reveals-dual-sided-memory-configuration-pcb-design-echoes-the-rtx-3090
    ในบทความนี้นำเสนอการปรับแต่ง RTX 4090 ให้มีหน่วยความจำ GDDR6X 48GB โดยใช้ PCB ของ RTX 3090 เป็นพื้นฐาน แม้จะมีประสิทธิภาพสูงและเหมาะสำหรับงานเซิร์ฟเวอร์ แต่ก็มีราคาสูงและเสียงดังขณะทำงาน จุดเด่นคือความสามารถในการปรับแต่งผ่านเครื่องมือพิเศษโดยไม่ละเมิดระบบ Nvidia ถือเป็นตัวเลือกที่น่าสนใจสำหรับผู้ใช้งานเฉพาะกลุ่ม การปรับแต่งขั้นสูง: - การเพิ่มหน่วยความจำบนด้านหลังของ PCB ที่ใช้ Thermal Pad และ Backplate ช่วยลดความร้อน ซึ่งทำให้การ์ดนี้เหมาะสำหรับงานที่ต้องใช้การประมวลผลหนัก เช่น ระบบเซิร์ฟเวอร์. เสียงดังและการทำงานหนัก: - การ์ดจอใช้ชุดพัดลมแบบ Blower-style ที่ทำให้มีเสียงดังถึง 65 เดซิเบลขณะทำงาน แต่สามารถควบคุมอุณหภูมิที่ค่อนข้างเสถียรในระหว่างการทดสอบใน Superposition ที่ 8K. การใช้ประโยชน์จากเครื่องมือภายในของ Nvidia: - นักดัดแปลงใช้เครื่องมือที่ได้มาจากการรั่วไหลของ Nvidia เช่น MATS และ MODS เพื่อปรับแต่งการ์ดจอให้ทำงานได้ตามที่ต้องการโดยไม่ละเมิดระบบความปลอดภัย. ราคาที่เข้าถึงยาก: - การ์ดนี้มีราคา $4,400 ซึ่งแม้จะสูงมาก แต่ยังถือว่าเป็นตัวเลือกที่คุ้มค่าที่สุดในตลาดสำหรับผู้ที่ต้องการหน่วยความจำขนาด 48GB สำหรับงานเฉพาะทาง. https://www.tomshardware.com/pc-components/gpus/blower-style-rtx-4090-48gb-teardown-reveals-dual-sided-memory-configuration-pcb-design-echoes-the-rtx-3090
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • CEO ของ Nvidia ชี้ว่าการใช้เทคโนโลยี GAA ในอนาคตจะช่วยเพิ่มประสิทธิภาพของ GPU ได้ถึง 20% แต่ยังยืนยันว่าการพัฒนาสถาปัตยกรรมและนวัตกรรมซอฟต์แวร์คือปัจจัยสำคัญที่แท้จริง ในยุคที่ศูนย์ข้อมูลมุ่งเน้นประสิทธิภาพต่อวัตต์ Nvidia ได้ปรับบทบาทมาเน้นการเป็นผู้นำด้านโครงสร้างพื้นฐาน AI และอัลกอริทึมอย่างเต็มที่

    มุมมองต่อการพัฒนาเทคโนโลยี:
    - Huang ยอมรับว่าการปรับปรุงจากเทคโนโลยีใหม่ เช่น GAA มีความสำคัญ แต่มองว่าไม่ใช่การเปลี่ยนแปลงที่ "ปฏิวัติวงการ" โดยเฉพาะในยุคที่การเติบโตของกฎของมัวร์ (Moore’s Law) ช้าลงอย่างชัดเจน.

    การใช้พลังงานที่มีประสิทธิภาพในยุค AI:
    - ขณะที่ศูนย์ข้อมูลต่าง ๆ เน้นที่ประสิทธิภาพต่อวัตต์ (performance per watt) Nvidia มุ่งไปที่การจัดการประสิทธิภาพของระบบโดยรวมมากกว่าที่จะเน้นเฉพาะการปรับปรุงความเร็วหรือพลังงานของแต่ละหน่วยประมวลผล.

    การคาดการณ์สำหรับอนาคต:
    - Nvidia คาดว่า GPU รุ่นใหม่ในอนาคต (ชื่อรหัส Feynman) อาจใช้เทคโนโลยี GAA เช่น N2P หรือ A16 ซึ่งจะเปิดตัวในปี 2028 โดยสามารถเพิ่มประสิทธิภาพได้ถึง 20% หรือมากกว่านั้น ทั้งนี้ต้องพิจารณาความสมดุลระหว่างพลังงานและประสิทธิภาพตามความต้องการของตลาด AI.

    การเปลี่ยนแปลงบทบาทของ Nvidia:
    - Huang ย้ำว่า Nvidia กำลังเปลี่ยนบทบาทจากการเป็นเพียงบริษัทเซมิคอนดักเตอร์ ไปสู่การเป็นผู้ให้บริการโครงสร้างพื้นฐาน AI ขนาดใหญ่ โดยเน้นการพัฒนาสูตรอัลกอริทึมในด้านกราฟิก คอมพิวเตอร์ และโรโบติกส์.

    https://www.tomshardware.com/tech-industry/nvidias-jesnen-huang-expects-gaa-based-technologies-to-bring-a-20-percent-performance-uplift
    CEO ของ Nvidia ชี้ว่าการใช้เทคโนโลยี GAA ในอนาคตจะช่วยเพิ่มประสิทธิภาพของ GPU ได้ถึง 20% แต่ยังยืนยันว่าการพัฒนาสถาปัตยกรรมและนวัตกรรมซอฟต์แวร์คือปัจจัยสำคัญที่แท้จริง ในยุคที่ศูนย์ข้อมูลมุ่งเน้นประสิทธิภาพต่อวัตต์ Nvidia ได้ปรับบทบาทมาเน้นการเป็นผู้นำด้านโครงสร้างพื้นฐาน AI และอัลกอริทึมอย่างเต็มที่ มุมมองต่อการพัฒนาเทคโนโลยี: - Huang ยอมรับว่าการปรับปรุงจากเทคโนโลยีใหม่ เช่น GAA มีความสำคัญ แต่มองว่าไม่ใช่การเปลี่ยนแปลงที่ "ปฏิวัติวงการ" โดยเฉพาะในยุคที่การเติบโตของกฎของมัวร์ (Moore’s Law) ช้าลงอย่างชัดเจน. การใช้พลังงานที่มีประสิทธิภาพในยุค AI: - ขณะที่ศูนย์ข้อมูลต่าง ๆ เน้นที่ประสิทธิภาพต่อวัตต์ (performance per watt) Nvidia มุ่งไปที่การจัดการประสิทธิภาพของระบบโดยรวมมากกว่าที่จะเน้นเฉพาะการปรับปรุงความเร็วหรือพลังงานของแต่ละหน่วยประมวลผล. การคาดการณ์สำหรับอนาคต: - Nvidia คาดว่า GPU รุ่นใหม่ในอนาคต (ชื่อรหัส Feynman) อาจใช้เทคโนโลยี GAA เช่น N2P หรือ A16 ซึ่งจะเปิดตัวในปี 2028 โดยสามารถเพิ่มประสิทธิภาพได้ถึง 20% หรือมากกว่านั้น ทั้งนี้ต้องพิจารณาความสมดุลระหว่างพลังงานและประสิทธิภาพตามความต้องการของตลาด AI. การเปลี่ยนแปลงบทบาทของ Nvidia: - Huang ย้ำว่า Nvidia กำลังเปลี่ยนบทบาทจากการเป็นเพียงบริษัทเซมิคอนดักเตอร์ ไปสู่การเป็นผู้ให้บริการโครงสร้างพื้นฐาน AI ขนาดใหญ่ โดยเน้นการพัฒนาสูตรอัลกอริทึมในด้านกราฟิก คอมพิวเตอร์ และโรโบติกส์. https://www.tomshardware.com/tech-industry/nvidias-jesnen-huang-expects-gaa-based-technologies-to-bring-a-20-percent-performance-uplift
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • นี่คือสิ่งที่ลุงกลัวและเป็นเหตุผลที่ลุงจะไม่ซื้อของที่เป็นมือสองหรือจากร้านที่ไม่มีชื่อเสียง

    ผู้บริโภคต้องระวังการ์ดจอปลอมที่ถูกออกแบบให้เหมือน RTX 4090 แต่แท้จริงใช้ชิป GA102 ของ RTX 3090 โดยมักถูกขายในราคาที่ถูกกว่า RTX 4090 มาก การดัดแปลงทำได้อย่างแนบเนียนจนผู้ซื้อที่ไม่เชี่ยวชาญอาจไม่สามารถแยกแยะได้ อย่างไรก็ตาม การตรวจสอบชิ้นส่วนภายในและการทดสอบไดรเวอร์สามารถช่วยยืนยันได้ว่าการ์ดนั้นเป็นของแท้หรือไม่

    การตรวจสอบการปลอมแปลง:
    - การปลอมแปลงทำได้เนียนจนแทบจะไม่มีใครสังเกตเห็นได้ง่าย นอกจากผู้เชี่ยวชาญหรือผู้ที่คุ้นเคยกับชิ้นส่วนภายในของการ์ดจอ โดยพบว่าตำแหน่งของตัวเก็บประจุ (capacitor) ไม่ตรงกับของแท้ รวมถึงการออกแบบ MLCC ที่เหมือน RTX 3090 มากกว่า RTX 4090.

    ผลกระทบต่อผู้บริโภค:
    - ผู้ใช้ที่ซื้อการ์ดปลอมมักจะพบปัญหา เช่น การ์ดไม่สามารถทำงานได้ และการตรวจสอบผ่านไดรเวอร์ของ Nvidia จะแสดงความผิดปกติ.

    ประวัติของการโกงการ์ดจอ:
    - นี่ไม่ใช่ครั้งแรกที่เกิดกรณีลักษณะนี้ การปลอมแปลง RTX 4090 เคยปรากฏในกรณีที่มีการดัดแปลงการ์ดจอโดยใช้ชิป GA102 หรือขายโดยไม่มีชิป GPU และหน่วยความจำในตัว.

    https://www.techspot.com/news/107311-fake-rtx-4090-graphics-card-looks-real-ndash.html
    นี่คือสิ่งที่ลุงกลัวและเป็นเหตุผลที่ลุงจะไม่ซื้อของที่เป็นมือสองหรือจากร้านที่ไม่มีชื่อเสียง ผู้บริโภคต้องระวังการ์ดจอปลอมที่ถูกออกแบบให้เหมือน RTX 4090 แต่แท้จริงใช้ชิป GA102 ของ RTX 3090 โดยมักถูกขายในราคาที่ถูกกว่า RTX 4090 มาก การดัดแปลงทำได้อย่างแนบเนียนจนผู้ซื้อที่ไม่เชี่ยวชาญอาจไม่สามารถแยกแยะได้ อย่างไรก็ตาม การตรวจสอบชิ้นส่วนภายในและการทดสอบไดรเวอร์สามารถช่วยยืนยันได้ว่าการ์ดนั้นเป็นของแท้หรือไม่ การตรวจสอบการปลอมแปลง: - การปลอมแปลงทำได้เนียนจนแทบจะไม่มีใครสังเกตเห็นได้ง่าย นอกจากผู้เชี่ยวชาญหรือผู้ที่คุ้นเคยกับชิ้นส่วนภายในของการ์ดจอ โดยพบว่าตำแหน่งของตัวเก็บประจุ (capacitor) ไม่ตรงกับของแท้ รวมถึงการออกแบบ MLCC ที่เหมือน RTX 3090 มากกว่า RTX 4090. ผลกระทบต่อผู้บริโภค: - ผู้ใช้ที่ซื้อการ์ดปลอมมักจะพบปัญหา เช่น การ์ดไม่สามารถทำงานได้ และการตรวจสอบผ่านไดรเวอร์ของ Nvidia จะแสดงความผิดปกติ. ประวัติของการโกงการ์ดจอ: - นี่ไม่ใช่ครั้งแรกที่เกิดกรณีลักษณะนี้ การปลอมแปลง RTX 4090 เคยปรากฏในกรณีที่มีการดัดแปลงการ์ดจอโดยใช้ชิป GA102 หรือขายโดยไม่มีชิป GPU และหน่วยความจำในตัว. https://www.techspot.com/news/107311-fake-rtx-4090-graphics-card-looks-real-ndash.html
    WWW.TECHSPOT.COM
    Fake RTX 4090 graphics card looks real – but hides an RTX 3090 GPU
    A user on Chinese video-sharing platform Bilibili (via Tom's Hardware) shared a video of what appears to be an unboxing of a Palit RTX 4090 graphics card.
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • NVIDIA กำลังเผชิญกับความท้าทายใหม่ เมื่อรัฐบาลจีนเตรียมกำหนดข้อกำหนดด้านพลังงานที่อาจห้ามการขาย GPU H20 ในประเทศ ทำให้รายได้ของ NVIDIA จากตลาดจีนซึ่งเป็นตลาดหลักสำหรับ AI อาจลดลงอย่างมาก ในขณะเดียวกัน คู่แข่งอย่าง Huawei ก็เตรียมเปิดตัวชิประดับสูงที่สามารถแข่งกับ NVIDIA ได้โดยตรง ทำให้สถานการณ์นี้กลายเป็นบททดสอบสำคัญสำหรับอนาคตของบริษัท

    มาตรการของจีน:
    - รัฐบาลจีนมีเป้าหมายที่จะลดการพึ่งพาชิปต่างประเทศ โดยตั้งข้อกำหนดด้านพลังงานเพื่อสนับสนุนผู้ผลิตในประเทศ เช่น Huawei ซึ่งเตรียมเปิดตัวชิป AI รุ่น Ascend 910C ที่ทัดเทียมกับ NVIDIA H100.

    ผลกระทบต่อ NVIDIA:
    - NVIDIA ได้เริ่มเจรจากับคณะกรรมการพัฒนาและปฏิรูปแห่งชาติจีน (NDRC) และกำลังพิจารณาการลดประสิทธิภาพของ H20 เพื่อให้สอดคล้องกับข้อกำหนดด้านพลังงาน แต่ทางเลือกนี้อาจทำให้คู่แข่งมีความได้เปรียบในตลาด.

    ความสัมพันธ์ระหว่างประเทศ:
    - ที่ผ่านมา NVIDIA ต้องเผชิญข้อจำกัดจากรัฐบาลสหรัฐฯ ในการขายชิป AI ให้จีน การเพิ่มกฎระเบียบจากฝั่งจีนเองยิ่งเพิ่มความซับซ้อนและผลกระทบทางการค้า.

    ตลาดคู่แข่งในจีน:
    - Huawei กลายเป็นคู่แข่งสำคัญในตลาด AI ของจีน โดย Jensen Huang CEO ของ NVIDIA ยอมรับถึงความก้าวหน้าของ Huawei ในด้านนี้และผลกระทบที่อาจเกิดขึ้น.

    https://wccftech.com/nvidia-h20-ai-gpu-might-be-banned-from-being-sold-in-china-but-this-time-it-is-not-the-us-fault/
    NVIDIA กำลังเผชิญกับความท้าทายใหม่ เมื่อรัฐบาลจีนเตรียมกำหนดข้อกำหนดด้านพลังงานที่อาจห้ามการขาย GPU H20 ในประเทศ ทำให้รายได้ของ NVIDIA จากตลาดจีนซึ่งเป็นตลาดหลักสำหรับ AI อาจลดลงอย่างมาก ในขณะเดียวกัน คู่แข่งอย่าง Huawei ก็เตรียมเปิดตัวชิประดับสูงที่สามารถแข่งกับ NVIDIA ได้โดยตรง ทำให้สถานการณ์นี้กลายเป็นบททดสอบสำคัญสำหรับอนาคตของบริษัท มาตรการของจีน: - รัฐบาลจีนมีเป้าหมายที่จะลดการพึ่งพาชิปต่างประเทศ โดยตั้งข้อกำหนดด้านพลังงานเพื่อสนับสนุนผู้ผลิตในประเทศ เช่น Huawei ซึ่งเตรียมเปิดตัวชิป AI รุ่น Ascend 910C ที่ทัดเทียมกับ NVIDIA H100. ผลกระทบต่อ NVIDIA: - NVIDIA ได้เริ่มเจรจากับคณะกรรมการพัฒนาและปฏิรูปแห่งชาติจีน (NDRC) และกำลังพิจารณาการลดประสิทธิภาพของ H20 เพื่อให้สอดคล้องกับข้อกำหนดด้านพลังงาน แต่ทางเลือกนี้อาจทำให้คู่แข่งมีความได้เปรียบในตลาด. ความสัมพันธ์ระหว่างประเทศ: - ที่ผ่านมา NVIDIA ต้องเผชิญข้อจำกัดจากรัฐบาลสหรัฐฯ ในการขายชิป AI ให้จีน การเพิ่มกฎระเบียบจากฝั่งจีนเองยิ่งเพิ่มความซับซ้อนและผลกระทบทางการค้า. ตลาดคู่แข่งในจีน: - Huawei กลายเป็นคู่แข่งสำคัญในตลาด AI ของจีน โดย Jensen Huang CEO ของ NVIDIA ยอมรับถึงความก้าวหน้าของ Huawei ในด้านนี้และผลกระทบที่อาจเกิดขึ้น. https://wccftech.com/nvidia-h20-ai-gpu-might-be-banned-from-being-sold-in-china-but-this-time-it-is-not-the-us-fault/
    WCCFTECH.COM
    NVIDIA's H20 AI GPU Might Be Banned From Being Sold In China, But This Time, It Is Not The US's Fault
    NVIDIA's hot-selling H20 AI accelerator might just be banned from being sold in China, amid Beijing's new energy efficiency rules.
    0 ความคิดเห็น 0 การแบ่งปัน 154 มุมมอง 0 รีวิว
  • CoreWeave บริษัทโครงสร้างพื้นฐานคลาวด์ที่เน้น Nvidia GPU เตรียมเปิดตัว IPO มูลค่ากว่า 2.5 พันล้านดอลลาร์ แต่กำลังเผชิญคำวิจารณ์จากผู้เชี่ยวชาญที่มองว่าขาดข้อได้เปรียบในตลาดเมื่อเปรียบเทียบกับยักษ์ใหญ่อย่าง AWS นักลงทุนจึงต้องวิเคราะห์ความเสี่ยงอย่างละเอียดก่อนตัดสินใจลงทุน

    IPO ที่ได้รับความสนใจ:
    - การเปิดตัว IPO ของ CoreWeave คาดว่าจะขายในช่วงราคาหุ้น 47-55 ดอลลาร์ โดยตั้งเป้าระดมทุนถึง 2.5 พันล้านดอลลาร์ และมีมูลค่าตลาดราว 25 พันล้านดอลลาร์ ซึ่งน้อยกว่าที่นักวิเคราะห์คาดไว้ก่อนหน้านี้ที่ 35 พันล้านดอลลาร์.

    คำวิจารณ์เกี่ยวกับการขาด “moat”:
    - Emanuel ระบุว่า CoreWeave ไม่มีข้อได้เปรียบที่ยั่งยืนในตลาด (หรือที่เรียกว่า durable moat) ซึ่งจะเป็นอุปสรรคต่อการเติบโตในระยะยาว โดยเฉพาะเมื่อคู่แข่งมีโครงสร้างที่แข็งแรงกว่า.

    ความเสี่ยงต่อผู้ลงทุน:
    - นักลงทุนถูกเตือนถึงความเสี่ยงที่จะเกิดขึ้นจากราคาหุ้นที่อาจสูงเกินมูลค่าที่แท้จริง โดยนักวิเคราะห์บางรายแนะนำว่าการลงทุนใน CoreWeave อาจต้องพิจารณาอย่างรอบคอบ.

    https://www.techradar.com/pro/is-coreweave-another-wework-blogger-who-caused-nvidia-market-capitalization-to-drop-by-usd600-billion-in-a-day-thinks-so
    CoreWeave บริษัทโครงสร้างพื้นฐานคลาวด์ที่เน้น Nvidia GPU เตรียมเปิดตัว IPO มูลค่ากว่า 2.5 พันล้านดอลลาร์ แต่กำลังเผชิญคำวิจารณ์จากผู้เชี่ยวชาญที่มองว่าขาดข้อได้เปรียบในตลาดเมื่อเปรียบเทียบกับยักษ์ใหญ่อย่าง AWS นักลงทุนจึงต้องวิเคราะห์ความเสี่ยงอย่างละเอียดก่อนตัดสินใจลงทุน IPO ที่ได้รับความสนใจ: - การเปิดตัว IPO ของ CoreWeave คาดว่าจะขายในช่วงราคาหุ้น 47-55 ดอลลาร์ โดยตั้งเป้าระดมทุนถึง 2.5 พันล้านดอลลาร์ และมีมูลค่าตลาดราว 25 พันล้านดอลลาร์ ซึ่งน้อยกว่าที่นักวิเคราะห์คาดไว้ก่อนหน้านี้ที่ 35 พันล้านดอลลาร์. คำวิจารณ์เกี่ยวกับการขาด “moat”: - Emanuel ระบุว่า CoreWeave ไม่มีข้อได้เปรียบที่ยั่งยืนในตลาด (หรือที่เรียกว่า durable moat) ซึ่งจะเป็นอุปสรรคต่อการเติบโตในระยะยาว โดยเฉพาะเมื่อคู่แข่งมีโครงสร้างที่แข็งแรงกว่า. ความเสี่ยงต่อผู้ลงทุน: - นักลงทุนถูกเตือนถึงความเสี่ยงที่จะเกิดขึ้นจากราคาหุ้นที่อาจสูงเกินมูลค่าที่แท้จริง โดยนักวิเคราะห์บางรายแนะนำว่าการลงทุนใน CoreWeave อาจต้องพิจารณาอย่างรอบคอบ. https://www.techradar.com/pro/is-coreweave-another-wework-blogger-who-caused-nvidia-market-capitalization-to-drop-by-usd600-billion-in-a-day-thinks-so
    0 ความคิดเห็น 0 การแบ่งปัน 109 มุมมอง 0 รีวิว
  • AlexNet ซอร์สโค้ด AI ที่เริ่มต้นความสำเร็จของ deep learning ในปี 2012 ได้รับการเปิดเผยสู่สาธารณะใน GitHub ครั้งนี้เกิดจากความร่วมมือระหว่าง Computer History Museum และ Google โค้ดนี้เปลี่ยนแปลงการวิจัย AI ให้กลายเป็นพลังขับเคลื่อนนวัตกรรมที่ยิ่งใหญ่ในยุคของเรา ตั้งแต่การวิเคราะห์ภาพจนถึงการสร้างเนื้อหาด้วย AI

    บทบาทของ AlexNet:
    - AlexNet เป็นโครงข่ายประสาทเทียมที่ช่วยยกระดับความสามารถของคอมพิวเตอร์ในการรู้จำและจัดประเภทภาพ ซอร์สโค้ดนี้พัฒนาด้วย NVIDIA CUDA และชุดข้อมูล ImageNet ที่สร้างโดยมหาวิทยาลัยสแตนฟอร์ด ซึ่งมีส่วนสำคัญในการฝึกโครงข่ายประสาทเทียม.

    ความร่วมมือทางวิชาการ:
    - AlexNet พัฒนาขึ้นภายใต้การดูแลของ Geoffrey Hinton และ Ilya Sutskever ซึ่งเป็นผู้บุกเบิก AI โดยแนวคิดของพวกเขาช่วยเปิดทางให้เกิดการใช้งาน GPU ในการฝึก deep neural networks.

    ความสำเร็จในการวิจัย:
    - AlexNet ทำให้วงการเริ่มยอมรับพลังของ deep learning หลังนำเสนอในงานประชุมวิทยาการคอมพิวเตอร์ในปี 2012 แม้ว่าจะไม่ได้รับความสนใจในทันที แต่ Yann LeCun นักวิจัยชื่อดังมองว่านี่เป็นจุดเปลี่ยนสำคัญของวงการ.

    มรดกของ AlexNet:
    - ความสำเร็จของมันนำไปสู่การพัฒนา AI ที่สามารถเอาชนะผู้เล่นเกม Go รู้จำคำพูด และสร้างงานศิลปะ การเปิดเผยซอร์สโค้ดครั้งนี้ถือเป็นการให้เกียรติแก่งานวิจัยที่ช่วยสร้างพื้นฐานของ AI ในทุกวันนี้.

    https://www.techspot.com/news/107299-game-changing-ai-code-started-all-now-open.html
    AlexNet ซอร์สโค้ด AI ที่เริ่มต้นความสำเร็จของ deep learning ในปี 2012 ได้รับการเปิดเผยสู่สาธารณะใน GitHub ครั้งนี้เกิดจากความร่วมมือระหว่าง Computer History Museum และ Google โค้ดนี้เปลี่ยนแปลงการวิจัย AI ให้กลายเป็นพลังขับเคลื่อนนวัตกรรมที่ยิ่งใหญ่ในยุคของเรา ตั้งแต่การวิเคราะห์ภาพจนถึงการสร้างเนื้อหาด้วย AI บทบาทของ AlexNet: - AlexNet เป็นโครงข่ายประสาทเทียมที่ช่วยยกระดับความสามารถของคอมพิวเตอร์ในการรู้จำและจัดประเภทภาพ ซอร์สโค้ดนี้พัฒนาด้วย NVIDIA CUDA และชุดข้อมูล ImageNet ที่สร้างโดยมหาวิทยาลัยสแตนฟอร์ด ซึ่งมีส่วนสำคัญในการฝึกโครงข่ายประสาทเทียม. ความร่วมมือทางวิชาการ: - AlexNet พัฒนาขึ้นภายใต้การดูแลของ Geoffrey Hinton และ Ilya Sutskever ซึ่งเป็นผู้บุกเบิก AI โดยแนวคิดของพวกเขาช่วยเปิดทางให้เกิดการใช้งาน GPU ในการฝึก deep neural networks. ความสำเร็จในการวิจัย: - AlexNet ทำให้วงการเริ่มยอมรับพลังของ deep learning หลังนำเสนอในงานประชุมวิทยาการคอมพิวเตอร์ในปี 2012 แม้ว่าจะไม่ได้รับความสนใจในทันที แต่ Yann LeCun นักวิจัยชื่อดังมองว่านี่เป็นจุดเปลี่ยนสำคัญของวงการ. มรดกของ AlexNet: - ความสำเร็จของมันนำไปสู่การพัฒนา AI ที่สามารถเอาชนะผู้เล่นเกม Go รู้จำคำพูด และสร้างงานศิลปะ การเปิดเผยซอร์สโค้ดครั้งนี้ถือเป็นการให้เกียรติแก่งานวิจัยที่ช่วยสร้างพื้นฐานของ AI ในทุกวันนี้. https://www.techspot.com/news/107299-game-changing-ai-code-started-all-now-open.html
    WWW.TECHSPOT.COM
    Before ChatGPT, there was AlexNet: the AI code that started it all is now open source
    That's thanks to a collaborative effort between the Computer History Museum and Google. The source code, originally written by University of Toronto graduate student Alex Krizhevsky, has...
    0 ความคิดเห็น 0 การแบ่งปัน 128 มุมมอง 0 รีวิว
  • Seagate ได้เปิดตัว NVMe HDD รุ่นใหม่ที่ออกแบบเพื่อใช้งานในศูนย์ข้อมูลและงาน AI โดยฮาร์ดแวร์นี้ช่วยลดพลังงานและเพิ่มประสิทธิภาพในการจัดเก็บข้อมูล ระบบต้นแบบยังมีการผสาน SSD และเทคโนโลยี GPU ของ Nvidia เพื่อลดความล่าช้าในกระบวนการทำงาน การออกแบบนี้อาจเป็นก้าวสำคัญในอนาคตสำหรับการพัฒนาเทคโนโลยี AI และการจัดเก็บข้อมูล

    ข้อดีของ NVMe HDD:
    - NVMe HDD รุ่นใหม่ช่วยลดพลังงานและต้นทุนการจัดเก็บได้อย่างมีนัยสำคัญ โดยมีประสิทธิภาพด้านพลังงาน มากกว่า SSD ถึง 10 เท่า และยังลดการใช้ทรัพยากรคาร์บอนต่อเทราไบต์.

    การผสมผสานฮาร์ดแวร์ที่ทันสมัย:
    - ระบบต้นแบบของ Seagate ใช้ NVMe HDD ควบคู่กับ SSD เพื่อการเก็บข้อมูลที่ใช้งานบ่อยและ HDD สำหรับข้อมูลระยะยาวในงาน AI เช่น การฝึกโมเดล.

    ข้อแตกต่างจากระบบเดิม:
    - NVMe HDD ได้รับการออกแบบให้สามารถสื่อสารกับ GPU โดยตรง และไม่ต้องใช้ HBA หรือโปรโตคอลบริดจ์ ซึ่งช่วยลดความยุ่งยากในสถาปัตยกรรมระบบ.

    ศักยภาพในการประยุกต์ใช้:
    - แม้ยังไม่มีแผนวางจำหน่าย Seagate กำลังทำงานร่วมกับลูกค้าเพื่อศึกษาโซลูชันการจัดเก็บข้อมูลที่รองรับเทคโนโลยี NVMe สำหรับยุคถัดไป.

    https://www.techradar.com/pro/seagate-teams-with-nvidia-to-build-an-nvme-hard-drive-proof-of-concept-more-than-3-years-after-the-last-one
    Seagate ได้เปิดตัว NVMe HDD รุ่นใหม่ที่ออกแบบเพื่อใช้งานในศูนย์ข้อมูลและงาน AI โดยฮาร์ดแวร์นี้ช่วยลดพลังงานและเพิ่มประสิทธิภาพในการจัดเก็บข้อมูล ระบบต้นแบบยังมีการผสาน SSD และเทคโนโลยี GPU ของ Nvidia เพื่อลดความล่าช้าในกระบวนการทำงาน การออกแบบนี้อาจเป็นก้าวสำคัญในอนาคตสำหรับการพัฒนาเทคโนโลยี AI และการจัดเก็บข้อมูล ข้อดีของ NVMe HDD: - NVMe HDD รุ่นใหม่ช่วยลดพลังงานและต้นทุนการจัดเก็บได้อย่างมีนัยสำคัญ โดยมีประสิทธิภาพด้านพลังงาน มากกว่า SSD ถึง 10 เท่า และยังลดการใช้ทรัพยากรคาร์บอนต่อเทราไบต์. การผสมผสานฮาร์ดแวร์ที่ทันสมัย: - ระบบต้นแบบของ Seagate ใช้ NVMe HDD ควบคู่กับ SSD เพื่อการเก็บข้อมูลที่ใช้งานบ่อยและ HDD สำหรับข้อมูลระยะยาวในงาน AI เช่น การฝึกโมเดล. ข้อแตกต่างจากระบบเดิม: - NVMe HDD ได้รับการออกแบบให้สามารถสื่อสารกับ GPU โดยตรง และไม่ต้องใช้ HBA หรือโปรโตคอลบริดจ์ ซึ่งช่วยลดความยุ่งยากในสถาปัตยกรรมระบบ. ศักยภาพในการประยุกต์ใช้: - แม้ยังไม่มีแผนวางจำหน่าย Seagate กำลังทำงานร่วมกับลูกค้าเพื่อศึกษาโซลูชันการจัดเก็บข้อมูลที่รองรับเทคโนโลยี NVMe สำหรับยุคถัดไป. https://www.techradar.com/pro/seagate-teams-with-nvidia-to-build-an-nvme-hard-drive-proof-of-concept-more-than-3-years-after-the-last-one
    0 ความคิดเห็น 0 การแบ่งปัน 66 มุมมอง 0 รีวิว
  • Nvidia กำลังพิจารณาใช้เทคโนโลยีการผลิตชิป 18A ของ Intel สำหรับ GPU เกมมิ่งในอนาคต หากสำเร็จ นี่จะเป็นก้าวสำคัญสำหรับ Intel ในการสร้างชื่อเสียงในฐานะผู้ให้บริการผลิตชิประดับโลก นอกจากนี้ Intel ยังพัฒนาเทคโนโลยี 18A-P ที่ช่วยปรับปรุงคุณภาพและลดพลังงาน การเปลี่ยนแปลงนี้ไม่เพียงแค่ขับเคลื่อนวงการผลิตชิป แต่ยังสะท้อนถึงการแข่งขันที่ร้อนแรงในตลาดเทคโนโลยีล้ำสมัย

    มุมมองของผู้เชี่ยวชาญ:
    - หาก Nvidia ตัดสินใจใช้บริการของ Intel นี่อาจเป็น "จุดเปลี่ยน" ของตลาดการผลิตชิป และช่วยให้ Intel ขยายธุรกิจ foundry อย่างมีนัยสำคัญ.

    เทคโนโลยี 18A-P:
    - นักออกแบบชิปอาจเลือกใช้รุ่น 18A-P ที่ให้ผลผลิตที่ดีกว่า ลดความแปรปรวนในประสิทธิภาพ และลดความหนาแน่นของข้อบกพร่อง เพื่อยกระดับคุณภาพของผลิตภัณฑ์.

    การเปลี่ยนผ่านใน Intel:
    - CEO คนใหม่ของ Intel, Lip-Bu Tan, มีแผนเน้นการพัฒนาเทคโนโลยีการออกแบบและการผลิตชิปให้กับลูกค้าภายนอก โดยจะเปิดเผยแผนงานครั้งแรกในงาน Vision Event ในวันที่ 31 มีนาคม 2025.

    https://www.tomshardware.com/pc-components/gpus/nvidia-is-reportedly-close-to-adopting-intel-foundrys-18a-process-node-for-gaming-gpus
    Nvidia กำลังพิจารณาใช้เทคโนโลยีการผลิตชิป 18A ของ Intel สำหรับ GPU เกมมิ่งในอนาคต หากสำเร็จ นี่จะเป็นก้าวสำคัญสำหรับ Intel ในการสร้างชื่อเสียงในฐานะผู้ให้บริการผลิตชิประดับโลก นอกจากนี้ Intel ยังพัฒนาเทคโนโลยี 18A-P ที่ช่วยปรับปรุงคุณภาพและลดพลังงาน การเปลี่ยนแปลงนี้ไม่เพียงแค่ขับเคลื่อนวงการผลิตชิป แต่ยังสะท้อนถึงการแข่งขันที่ร้อนแรงในตลาดเทคโนโลยีล้ำสมัย มุมมองของผู้เชี่ยวชาญ: - หาก Nvidia ตัดสินใจใช้บริการของ Intel นี่อาจเป็น "จุดเปลี่ยน" ของตลาดการผลิตชิป และช่วยให้ Intel ขยายธุรกิจ foundry อย่างมีนัยสำคัญ. เทคโนโลยี 18A-P: - นักออกแบบชิปอาจเลือกใช้รุ่น 18A-P ที่ให้ผลผลิตที่ดีกว่า ลดความแปรปรวนในประสิทธิภาพ และลดความหนาแน่นของข้อบกพร่อง เพื่อยกระดับคุณภาพของผลิตภัณฑ์. การเปลี่ยนผ่านใน Intel: - CEO คนใหม่ของ Intel, Lip-Bu Tan, มีแผนเน้นการพัฒนาเทคโนโลยีการออกแบบและการผลิตชิปให้กับลูกค้าภายนอก โดยจะเปิดเผยแผนงานครั้งแรกในงาน Vision Event ในวันที่ 31 มีนาคม 2025. https://www.tomshardware.com/pc-components/gpus/nvidia-is-reportedly-close-to-adopting-intel-foundrys-18a-process-node-for-gaming-gpus
    0 ความคิดเห็น 0 การแบ่งปัน 71 มุมมอง 0 รีวิว
  • Nvidia ได้เปิดตัว G-Assist ฟีเจอร์ AI ที่ช่วยให้ผู้เล่นปรับแต่งประสิทธิภาพในเกม และเพิ่มการควบคุมระดับการขยายของ DLSS สำหรับความละเอียดภาพในเกม ผู้ใช้ยังสามารถปรับแต่งหน้าจอและสีจาก Nvidia App ที่ได้รับการปรับปรุงใหม่ แม้ว่าฟีเจอร์นี้จะมีข้อจำกัดในการใช้งานกับการ์ดจอรุ่นสูงเท่านั้น แต่ก็เป็นก้าวสำคัญในด้านการพัฒนา AI ในเกมและฮาร์ดแวร์

    ความสามารถของ G-Assist:
    - ฟีเจอร์นี้ใช้โมเดล AI ชื่อ SLM (Small Language Model) ที่พัฒนาเพื่อทำงานเฉพาะ เช่น คำแนะนำเกี่ยวกับฮาร์ดแวร์ การปรับแต่งพัดลม หรือการปรับแสงของอุปกรณ์ โดยบางเกมยังมีการสนับสนุนเฉพาะสำหรับคำแนะนำที่เกี่ยวข้องกับเกมนั้น ๆ.

    DLSS Override สำหรับความยืดหยุ่น:
    - ฟีเจอร์ DLSS Super Resolution ใหม่ช่วยให้ผู้ใช้สามารถกำหนดระดับความละเอียดของภาพในเกมได้เอง แทนที่จะใช้ค่าเริ่มต้นจากไดรเวอร์ เช่น การปรับให้คุณภาพระดับ 60% ซึ่งเหมาะสำหรับการใช้งานที่ต้องการสมดุลระหว่างประสิทธิภาพและความคมชัด.

    การปรับปรุงแอป Nvidia:
    - แอปนี้ได้รับการอัปเดตให้ครอบคลุมการตั้งค่าจาก Nvidia Control Panel เช่น การปรับสีและการปรับขนาดหน้าจอ ซึ่งช่วยให้ใช้งานง่ายขึ้นโดยไม่จำเป็นต้องเข้าสู่แอปพลิเคชันแยกต่างหาก.

    ข้อจำกัดของ G-Assist:
    - ฟีเจอร์นี้สามารถใช้ได้เฉพาะกับกราฟิกการ์ดซีรีส์ RTX 30/40/50 ที่มี VRAM ขั้นต่ำ 12GB ทำให้ไม่สามารถใช้งานกับรุ่นระดับเริ่มต้น เช่น RTX 3060 Ti หรือ RTX 4060 Ti ได้.

    https://www.tomshardware.com/pc-components/gpus/nvidia-releases-public-g-assist-in-latest-app-to-provide-in-game-ai-assistance-also-introduces-dlss-custom-scaling-factors
    Nvidia ได้เปิดตัว G-Assist ฟีเจอร์ AI ที่ช่วยให้ผู้เล่นปรับแต่งประสิทธิภาพในเกม และเพิ่มการควบคุมระดับการขยายของ DLSS สำหรับความละเอียดภาพในเกม ผู้ใช้ยังสามารถปรับแต่งหน้าจอและสีจาก Nvidia App ที่ได้รับการปรับปรุงใหม่ แม้ว่าฟีเจอร์นี้จะมีข้อจำกัดในการใช้งานกับการ์ดจอรุ่นสูงเท่านั้น แต่ก็เป็นก้าวสำคัญในด้านการพัฒนา AI ในเกมและฮาร์ดแวร์ ความสามารถของ G-Assist: - ฟีเจอร์นี้ใช้โมเดล AI ชื่อ SLM (Small Language Model) ที่พัฒนาเพื่อทำงานเฉพาะ เช่น คำแนะนำเกี่ยวกับฮาร์ดแวร์ การปรับแต่งพัดลม หรือการปรับแสงของอุปกรณ์ โดยบางเกมยังมีการสนับสนุนเฉพาะสำหรับคำแนะนำที่เกี่ยวข้องกับเกมนั้น ๆ. DLSS Override สำหรับความยืดหยุ่น: - ฟีเจอร์ DLSS Super Resolution ใหม่ช่วยให้ผู้ใช้สามารถกำหนดระดับความละเอียดของภาพในเกมได้เอง แทนที่จะใช้ค่าเริ่มต้นจากไดรเวอร์ เช่น การปรับให้คุณภาพระดับ 60% ซึ่งเหมาะสำหรับการใช้งานที่ต้องการสมดุลระหว่างประสิทธิภาพและความคมชัด. การปรับปรุงแอป Nvidia: - แอปนี้ได้รับการอัปเดตให้ครอบคลุมการตั้งค่าจาก Nvidia Control Panel เช่น การปรับสีและการปรับขนาดหน้าจอ ซึ่งช่วยให้ใช้งานง่ายขึ้นโดยไม่จำเป็นต้องเข้าสู่แอปพลิเคชันแยกต่างหาก. ข้อจำกัดของ G-Assist: - ฟีเจอร์นี้สามารถใช้ได้เฉพาะกับกราฟิกการ์ดซีรีส์ RTX 30/40/50 ที่มี VRAM ขั้นต่ำ 12GB ทำให้ไม่สามารถใช้งานกับรุ่นระดับเริ่มต้น เช่น RTX 3060 Ti หรือ RTX 4060 Ti ได้. https://www.tomshardware.com/pc-components/gpus/nvidia-releases-public-g-assist-in-latest-app-to-provide-in-game-ai-assistance-also-introduces-dlss-custom-scaling-factors
    0 ความคิดเห็น 0 การแบ่งปัน 79 มุมมอง 0 รีวิว
  • Perplexity บริษัท AI เสนอแผนเข้าซื้อ TikTok ในสหรัฐฯ อีกครั้ง โดยจะสร้างอัลกอริทึมใหม่ เพิ่มฟีเจอร์ Community Notes และเปิดระบบแนะนำเนื้อหาให้เป็นโอเพ่นซอร์ส รวมถึงยกระดับโครงสร้าง AI ด้วยเทคโนโลยี NVIDIA เพื่อทำให้ TikTok เป็นแพลตฟอร์มที่น่าไว้วางใจที่สุด แม้ความท้าทายด้านเงินทุนและการแข่งขันในตลาดยังคงเป็นอุปสรรคใหญ่ แต่แนวคิดนี้อาจเปลี่ยนโฉมการใช้งาน TikTok ในอนาคต

    การปรับเปลี่ยนและฟีเจอร์ใหม่:
    - การเปลี่ยนแปลงครั้งใหญ่รวมถึงการนำระบบ Community Notes ซึ่งช่วยเพิ่มบริบทและข้อเท็จจริงใต้โพสต์ โดยแนวคิดนี้ได้รับความนิยมในแพลตฟอร์มอื่น ๆ เช่น X (เดิมคือ Twitter) และกำลังจะถูกนำมาใช้ใน Facebook และ Instagram.
    - การเปิดอัลกอริทึม "For You" ให้เป็นโอเพ่นซอร์ส ซึ่ง Perplexity ระบุว่าจะช่วยสร้างความโปร่งใสและความไว้วางใจในแพลตฟอร์ม.

    การพัฒนาเทคโนโลยี AI ใหม่:
    - Perplexity เสนอการปรับโครงสร้าง AI Infrastructure ของ TikTok ด้วยเทคโนโลยี NVIDIA Dynamo เพื่อยกระดับการค้นหาและความเป็นส่วนตัวสำหรับผู้ใช้งานที่เชื่อมบัญชีกับ Perplexity.

    การลดความเสี่ยงจากการควบคุมตลาด:
    - Perplexity ชี้ให้เห็นถึงความกังวลว่าหาก TikTok ถูกซื้อโดยกลุ่มนักลงทุนหรือคู่แข่งรายอื่น อาจทำให้ ByteDance ยังคงมีอิทธิพลต่ออัลกอริทึม หรือเกิดการผูกขาดในตลาดวิดีโอแบบสั้น.

    สถานการณ์ปัจจุบันและการเมือง:
    - TikTok มีเส้นตายถึงวันที่ 5 เมษายน 2025 ในการหาผู้ซื้อในสหรัฐฯ ตามคำสั่งบริหารของประธานาธิบดีทรัมป์ เพื่อหลีกเลี่ยงการถูกแบน.

    https://www.techspot.com/news/107261-perplexity-wants-buy-tiktok-vows-rebuild-algorithm-add.html
    Perplexity บริษัท AI เสนอแผนเข้าซื้อ TikTok ในสหรัฐฯ อีกครั้ง โดยจะสร้างอัลกอริทึมใหม่ เพิ่มฟีเจอร์ Community Notes และเปิดระบบแนะนำเนื้อหาให้เป็นโอเพ่นซอร์ส รวมถึงยกระดับโครงสร้าง AI ด้วยเทคโนโลยี NVIDIA เพื่อทำให้ TikTok เป็นแพลตฟอร์มที่น่าไว้วางใจที่สุด แม้ความท้าทายด้านเงินทุนและการแข่งขันในตลาดยังคงเป็นอุปสรรคใหญ่ แต่แนวคิดนี้อาจเปลี่ยนโฉมการใช้งาน TikTok ในอนาคต การปรับเปลี่ยนและฟีเจอร์ใหม่: - การเปลี่ยนแปลงครั้งใหญ่รวมถึงการนำระบบ Community Notes ซึ่งช่วยเพิ่มบริบทและข้อเท็จจริงใต้โพสต์ โดยแนวคิดนี้ได้รับความนิยมในแพลตฟอร์มอื่น ๆ เช่น X (เดิมคือ Twitter) และกำลังจะถูกนำมาใช้ใน Facebook และ Instagram. - การเปิดอัลกอริทึม "For You" ให้เป็นโอเพ่นซอร์ส ซึ่ง Perplexity ระบุว่าจะช่วยสร้างความโปร่งใสและความไว้วางใจในแพลตฟอร์ม. การพัฒนาเทคโนโลยี AI ใหม่: - Perplexity เสนอการปรับโครงสร้าง AI Infrastructure ของ TikTok ด้วยเทคโนโลยี NVIDIA Dynamo เพื่อยกระดับการค้นหาและความเป็นส่วนตัวสำหรับผู้ใช้งานที่เชื่อมบัญชีกับ Perplexity. การลดความเสี่ยงจากการควบคุมตลาด: - Perplexity ชี้ให้เห็นถึงความกังวลว่าหาก TikTok ถูกซื้อโดยกลุ่มนักลงทุนหรือคู่แข่งรายอื่น อาจทำให้ ByteDance ยังคงมีอิทธิพลต่ออัลกอริทึม หรือเกิดการผูกขาดในตลาดวิดีโอแบบสั้น. สถานการณ์ปัจจุบันและการเมือง: - TikTok มีเส้นตายถึงวันที่ 5 เมษายน 2025 ในการหาผู้ซื้อในสหรัฐฯ ตามคำสั่งบริหารของประธานาธิบดีทรัมป์ เพื่อหลีกเลี่ยงการถูกแบน. https://www.techspot.com/news/107261-perplexity-wants-buy-tiktok-vows-rebuild-algorithm-add.html
    WWW.TECHSPOT.COM
    Perplexity still wants to buy TikTok, vows to rebuild algorithm and add community notes
    Perplexity first proposed a merger with TikTok's US operations in January. The plan would see the US government hold 50% ownership of the company but have no...
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • ถ้าคุณกำลังมองหาการ์ดจอเกมมิ่งในตลาดตอนนี้ AMD RX 9070 XT อาจเป็นตัวเลือกที่คุ้มค่ากว่า ด้วยราคาที่ถูกกว่าถึง 17% และประสิทธิภาพที่ใกล้เคียง RTX 5070 Ti ในหลายเกม แม้ว่า NVIDIA จะยังได้เปรียบในด้าน Ray Tracing และการรองรับฟีเจอร์ใหม่ แต่ AMD ได้แสดงให้เห็นถึงการพัฒนาที่น่าประทับใจอย่างมากใน FSR 4 และประสิทธิภาพรวมที่สูง

    เกมที่โดดเด่นทั้งสองค่าย:
    - ในบางเกม เช่น Rocket League RX 9070 XT เร็วกว่า RTX 5070 Ti ถึง 41% ในขณะที่เกมอย่าง GTA V Enhanced RTX 5070 Ti นำ RX 9070 XT ถึง 29% แสดงให้เห็นถึงความแตกต่างในแต่ละซอฟต์แวร์.

    การพัฒนาเทคโนโลยีการเพิ่มประสิทธิภาพ (Upscaling):
    - AMD FSR 4 ถือว่าเป็นก้าวกระโดดที่ใหญ่เมื่อเทียบกับเวอร์ชันก่อนหน้า โดยให้ผลใกล้เคียงกับ DLSS 4 ของ NVIDIA แม้ AMD จะยังมีข้อจำกัดด้านการรองรับเกมบางเกม.

    การใช้งาน Ray Tracing:
    - NVIDIA ยังคงเป็นผู้นำในด้าน Ray Tracing แต่ RX 9070 XT สามารถทำงานได้อย่างน่าประทับใจเมื่อเปิดใช้งาน FSR เพื่อช่วยเสริมการประมวลผล.

    ราคากับประสิทธิภาพ:
    - RX 9070 XT มีราคาถูกกว่า 5070 Ti และให้ค่าคุ้มค่าประมาณ 15% หากราคาของทั้งสองใกล้เคียงกัน NVIDIA อาจเป็นตัวเลือกที่ดีกว่าในบางแง่ เช่น การรองรับ Ray Tracing และการประมวลผลเร็วกว่าในหลายเกม.

    https://www.techspot.com/review/2970-amd-radeon-9070-xt-vs-nvidia-rtx-5070-ti/
    ถ้าคุณกำลังมองหาการ์ดจอเกมมิ่งในตลาดตอนนี้ AMD RX 9070 XT อาจเป็นตัวเลือกที่คุ้มค่ากว่า ด้วยราคาที่ถูกกว่าถึง 17% และประสิทธิภาพที่ใกล้เคียง RTX 5070 Ti ในหลายเกม แม้ว่า NVIDIA จะยังได้เปรียบในด้าน Ray Tracing และการรองรับฟีเจอร์ใหม่ แต่ AMD ได้แสดงให้เห็นถึงการพัฒนาที่น่าประทับใจอย่างมากใน FSR 4 และประสิทธิภาพรวมที่สูง เกมที่โดดเด่นทั้งสองค่าย: - ในบางเกม เช่น Rocket League RX 9070 XT เร็วกว่า RTX 5070 Ti ถึง 41% ในขณะที่เกมอย่าง GTA V Enhanced RTX 5070 Ti นำ RX 9070 XT ถึง 29% แสดงให้เห็นถึงความแตกต่างในแต่ละซอฟต์แวร์. การพัฒนาเทคโนโลยีการเพิ่มประสิทธิภาพ (Upscaling): - AMD FSR 4 ถือว่าเป็นก้าวกระโดดที่ใหญ่เมื่อเทียบกับเวอร์ชันก่อนหน้า โดยให้ผลใกล้เคียงกับ DLSS 4 ของ NVIDIA แม้ AMD จะยังมีข้อจำกัดด้านการรองรับเกมบางเกม. การใช้งาน Ray Tracing: - NVIDIA ยังคงเป็นผู้นำในด้าน Ray Tracing แต่ RX 9070 XT สามารถทำงานได้อย่างน่าประทับใจเมื่อเปิดใช้งาน FSR เพื่อช่วยเสริมการประมวลผล. ราคากับประสิทธิภาพ: - RX 9070 XT มีราคาถูกกว่า 5070 Ti และให้ค่าคุ้มค่าประมาณ 15% หากราคาของทั้งสองใกล้เคียงกัน NVIDIA อาจเป็นตัวเลือกที่ดีกว่าในบางแง่ เช่น การรองรับ Ray Tracing และการประมวลผลเร็วกว่าในหลายเกม. https://www.techspot.com/review/2970-amd-radeon-9070-xt-vs-nvidia-rtx-5070-ti/
    WWW.TECHSPOT.COM
    AMD Radeon RX 9070 XT vs. Nvidia GeForce RTX 5070 Ti
    AMD's RX 9070 XT is off to a blazing start, already outselling Nvidia's GeForce 50 series. With the RTX 5070 Ti now in the spotlight, we're diving...
    0 ความคิดเห็น 0 การแบ่งปัน 104 มุมมอง 0 รีวิว
  • Ant Group ประสบความสำเร็จในการลดต้นทุนการฝึก AI ด้วยการใช้ชิปจากจีน เช่น ชิปของ Alibaba และ Huawei นี่เป็นการปรับตัวท่ามกลางข้อจำกัดจากสหรัฐฯ ในการใช้ชิป NVIDIA ผลลัพธ์นี้ไม่เพียงช่วยลดค่าใช้จ่าย แต่ยังสะท้อนถึงการพัฒนาเทคโนโลยีภายในประเทศที่ก้าวไกล อย่างไรก็ตาม ยังมีคำถามว่าชิปเหล่านี้จะสามารถแข่งขันในระยะยาวได้ดีเพียงใด

    การตอบสนองต่อข้อจำกัดด้านเทคโนโลยี:
    - การเปลี่ยนมาใช้ชิปที่ผลิตในประเทศจีนเกิดขึ้นเนื่องจากข้อจำกัดจากสหรัฐฯ ในการเข้าถึง GPU ระดับสูงของ NVIDIA ส่งผลให้บริษัทจีนต้องหาทางเลือกที่เหมาะสม และนี่ถือเป็นความพยายามสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีตะวันตก.

    ความหลากหลายในฮาร์ดแวร์:
    - นอกจากใช้ชิปของ Alibaba และ Huawei แล้ว Ant Group ยังพึ่งพาชิปจาก AMD และผู้ผลิตรายอื่น ๆ เพื่อสร้างโมเดล AI ใหม่ โดยยังคงใช้ฮาร์ดแวร์ NVIDIA ในบางกระบวนการ.

    ศักยภาพของเทคโนโลยีจีน:
    - ความสำเร็จนี้สะท้อนถึงศักยภาพในการแข่งขันด้าน AI ของจีน และสอดคล้องกับความสำเร็จล่าสุดของ DeepSeek AI ที่สามารถทำผลงานได้ดีกว่า GPT-4 ของ OpenAI ในบางเกณฑ์.

    ความท้าทายระยะยาว:
    - แม้ผลลัพธ์ครั้งนี้จะเป็นก้าวสำคัญ แต่ก็ยังมีคำถามว่าชิปจากจีนและผู้ผลิตรายอื่น ๆ เช่น AMD จะสามารถแข่งขันและรองรับการทำงานในระยะยาวได้เทียบเท่ากับ NVIDIA หรือไม่.

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-fintech-company-uses-domestic-semiconductors-for-ai-breakthrough
    Ant Group ประสบความสำเร็จในการลดต้นทุนการฝึก AI ด้วยการใช้ชิปจากจีน เช่น ชิปของ Alibaba และ Huawei นี่เป็นการปรับตัวท่ามกลางข้อจำกัดจากสหรัฐฯ ในการใช้ชิป NVIDIA ผลลัพธ์นี้ไม่เพียงช่วยลดค่าใช้จ่าย แต่ยังสะท้อนถึงการพัฒนาเทคโนโลยีภายในประเทศที่ก้าวไกล อย่างไรก็ตาม ยังมีคำถามว่าชิปเหล่านี้จะสามารถแข่งขันในระยะยาวได้ดีเพียงใด การตอบสนองต่อข้อจำกัดด้านเทคโนโลยี: - การเปลี่ยนมาใช้ชิปที่ผลิตในประเทศจีนเกิดขึ้นเนื่องจากข้อจำกัดจากสหรัฐฯ ในการเข้าถึง GPU ระดับสูงของ NVIDIA ส่งผลให้บริษัทจีนต้องหาทางเลือกที่เหมาะสม และนี่ถือเป็นความพยายามสำคัญของจีนในการลดการพึ่งพาเทคโนโลยีตะวันตก. ความหลากหลายในฮาร์ดแวร์: - นอกจากใช้ชิปของ Alibaba และ Huawei แล้ว Ant Group ยังพึ่งพาชิปจาก AMD และผู้ผลิตรายอื่น ๆ เพื่อสร้างโมเดล AI ใหม่ โดยยังคงใช้ฮาร์ดแวร์ NVIDIA ในบางกระบวนการ. ศักยภาพของเทคโนโลยีจีน: - ความสำเร็จนี้สะท้อนถึงศักยภาพในการแข่งขันด้าน AI ของจีน และสอดคล้องกับความสำเร็จล่าสุดของ DeepSeek AI ที่สามารถทำผลงานได้ดีกว่า GPT-4 ของ OpenAI ในบางเกณฑ์. ความท้าทายระยะยาว: - แม้ผลลัพธ์ครั้งนี้จะเป็นก้าวสำคัญ แต่ก็ยังมีคำถามว่าชิปจากจีนและผู้ผลิตรายอื่น ๆ เช่น AMD จะสามารถแข่งขันและรองรับการทำงานในระยะยาวได้เทียบเท่ากับ NVIDIA หรือไม่. https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-fintech-company-uses-domestic-semiconductors-for-ai-breakthrough
    WWW.TOMSHARDWARE.COM
    Ant Group reportedly reduces AI costs 20% with Chinese chips
    The company still uses Nvidia but now relies mainly on Chinese chips
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • ผู้ใช้งานการ์ดจอ RTX 40 Series พบปัญหาความไม่เสถียรจากไดรเวอร์ 572.xx ที่ออกแบบมาเพื่อ RTX 50 Series ปัญหานี้ทำให้ผู้เล่นเกมยอดนิยมต้องพบอาการค้างและระบบล่มเป็นประจำ แม้จะมีการแก้ไขในบางจุด ผู้ใช้ยังต้องหาวิธีปรับการตั้งค่าเองเพื่อหลีกเลี่ยงผลกระทบ ความเงียบจาก NVIDIA ทำให้ชุมชนตั้งคำถามถึงการจัดการปัญหาอย่างจริงจัง

    ความเสียหายจากฟีเจอร์เฉพาะ:
    - ผู้ใช้งานพบว่าปัญหาเกิดขึ้นเมื่อเปิดใช้งานฟีเจอร์ DLSS Frame Generation คู่กับ G-Sync ซึ่งทำให้การประมวลผลกราฟิกผิดปกติ บางคนใช้ DLSS รุ่นเก่าเพื่อลดปัญหา แต่ต้องแลกกับคุณภาพกราฟิกที่ต่ำลง.

    ผลกระทบในเกมยอดนิยม:
    - เกมที่ได้รับผลกระทบจากปัญหานี้ ได้แก่ Cyberpunk 2077, Alan Wake 2, และ God of War Ragnarok ซึ่งผู้เล่นพบอาการสะดุด การค้าง และการล่มของเกม.

    วิธีแก้ไขที่ชุมชนค้นพบ:
    - ผู้ใช้บางส่วนเลือกดาวน์เกรดไดรเวอร์เป็นเวอร์ชัน 566.xx เพื่อหลีกเลี่ยงปัญหา แต่ก็ต้องสละฟีเจอร์ใหม่ที่มากับไดรเวอร์รุ่นล่าสุด.
    - มีคำแนะนำให้ปิดการใช้งาน Frame Generation หรือ G-Sync รวมถึงลดรีเฟรชเรต เพื่อบรรเทาปัญหา.

    ข้อวิจารณ์ต่อ NVIDIA:
    - ชุมชนผู้ใช้งานรู้สึกไม่พอใจเนื่องจาก NVIDIA ไม่ได้ระบุปัญหาเหล่านี้ในส่วน "Known Issues" ของไดรเวอร์ใหม่ ทำให้การสนับสนุนดูขาดการใส่ใจ.

    https://www.tomshardware.com/pc-components/gpus/rtx-40-gpu-owners-suffering-from-bsods-and-crashes-complain-about-nvidias-rtx-50-fixing-focus
    ผู้ใช้งานการ์ดจอ RTX 40 Series พบปัญหาความไม่เสถียรจากไดรเวอร์ 572.xx ที่ออกแบบมาเพื่อ RTX 50 Series ปัญหานี้ทำให้ผู้เล่นเกมยอดนิยมต้องพบอาการค้างและระบบล่มเป็นประจำ แม้จะมีการแก้ไขในบางจุด ผู้ใช้ยังต้องหาวิธีปรับการตั้งค่าเองเพื่อหลีกเลี่ยงผลกระทบ ความเงียบจาก NVIDIA ทำให้ชุมชนตั้งคำถามถึงการจัดการปัญหาอย่างจริงจัง ความเสียหายจากฟีเจอร์เฉพาะ: - ผู้ใช้งานพบว่าปัญหาเกิดขึ้นเมื่อเปิดใช้งานฟีเจอร์ DLSS Frame Generation คู่กับ G-Sync ซึ่งทำให้การประมวลผลกราฟิกผิดปกติ บางคนใช้ DLSS รุ่นเก่าเพื่อลดปัญหา แต่ต้องแลกกับคุณภาพกราฟิกที่ต่ำลง. ผลกระทบในเกมยอดนิยม: - เกมที่ได้รับผลกระทบจากปัญหานี้ ได้แก่ Cyberpunk 2077, Alan Wake 2, และ God of War Ragnarok ซึ่งผู้เล่นพบอาการสะดุด การค้าง และการล่มของเกม. วิธีแก้ไขที่ชุมชนค้นพบ: - ผู้ใช้บางส่วนเลือกดาวน์เกรดไดรเวอร์เป็นเวอร์ชัน 566.xx เพื่อหลีกเลี่ยงปัญหา แต่ก็ต้องสละฟีเจอร์ใหม่ที่มากับไดรเวอร์รุ่นล่าสุด. - มีคำแนะนำให้ปิดการใช้งาน Frame Generation หรือ G-Sync รวมถึงลดรีเฟรชเรต เพื่อบรรเทาปัญหา. ข้อวิจารณ์ต่อ NVIDIA: - ชุมชนผู้ใช้งานรู้สึกไม่พอใจเนื่องจาก NVIDIA ไม่ได้ระบุปัญหาเหล่านี้ในส่วน "Known Issues" ของไดรเวอร์ใหม่ ทำให้การสนับสนุนดูขาดการใส่ใจ. https://www.tomshardware.com/pc-components/gpus/rtx-40-gpu-owners-suffering-from-bsods-and-crashes-complain-about-nvidias-rtx-50-fixing-focus
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • Microsoft เปิดตัว DirectX Raytracing (DXR) 1.2 และ Neural Rendering ที่ช่วยเพิ่มความเร็วของ GPU จาก AMD, Intel, และ NVIDIA สูงสุด 10 เท่า เทคโนโลยีใหม่นี้ช่วยให้ภาพในเกมและหนัง 3D ดูสมจริงขึ้น โดยลดการใช้ทรัพยากรฮาร์ดแวร์และทำให้เล่นเกมไหลลื่นกว่าเดิม นี่ถือเป็นก้าวสำคัญสำหรับวงการกราฟิกที่กำลังมองหาเทคโนโลยีที่เร็วขึ้นและคุ้มค่า

    เทคโนโลยีที่เปลี่ยนโฉมวงการ:
    - Microsoft ได้นำเสนอ Opacity Micromaps (OMM) ซึ่งช่วยลดการคำนวณในงานกราฟิกที่เกี่ยวกับพื้นผิวแบบโปร่งใส โดยการเก็บข้อมูลการโปร่งใสล่วงหน้า.
    - อีกนวัตกรรมคือ Neural Rendering ซึ่งใช้การเรียนรู้ของเครื่อง (machine learning) เพื่อเร่งการสร้างภาพให้เร็วขึ้นและลดการใช้ทรัพยากร GPU.

    ประโยชน์สำหรับผู้ใช้งาน:
    - เทคโนโลยีใหม่ช่วยปรับปรุงเฟรมเรตในเกมแบบเรียลไทม์ และลดปัญหาการสะดุด (stuttering) ในกราฟิกที่ซับซ้อน.
    - นักพัฒนาสามารถสร้างภาพในเกมที่ดูสมจริงขึ้นได้โดยไม่ต้องใช้ฮาร์ดแวร์ที่มีราคาแพงเกินไป.

    ผลกระทบต่ออุตสาหกรรม:
    - นี่อาจเป็นจุดเปลี่ยนสำหรับนักพัฒนาเกมและสตูดิโอภาพยนตร์ที่ต้องการลดต้นทุนการผลิตและเพิ่มความคมชัดของภาพ.
    - NVIDIA และ AMD เตรียมปรับปรุงไดรเวอร์ให้เข้ากับ DXR 1.2 เพื่อดึงศักยภาพของฮาร์ดแวร์ออกมาได้เต็มที่

    https://www.techpowerup.com/334455/microsoft-directx-raytracing-1-2-and-neural-rendering-brings-up-to-10x-speedup-for-amd-intel-and-nvidia-gpus
    Microsoft เปิดตัว DirectX Raytracing (DXR) 1.2 และ Neural Rendering ที่ช่วยเพิ่มความเร็วของ GPU จาก AMD, Intel, และ NVIDIA สูงสุด 10 เท่า เทคโนโลยีใหม่นี้ช่วยให้ภาพในเกมและหนัง 3D ดูสมจริงขึ้น โดยลดการใช้ทรัพยากรฮาร์ดแวร์และทำให้เล่นเกมไหลลื่นกว่าเดิม นี่ถือเป็นก้าวสำคัญสำหรับวงการกราฟิกที่กำลังมองหาเทคโนโลยีที่เร็วขึ้นและคุ้มค่า เทคโนโลยีที่เปลี่ยนโฉมวงการ: - Microsoft ได้นำเสนอ Opacity Micromaps (OMM) ซึ่งช่วยลดการคำนวณในงานกราฟิกที่เกี่ยวกับพื้นผิวแบบโปร่งใส โดยการเก็บข้อมูลการโปร่งใสล่วงหน้า. - อีกนวัตกรรมคือ Neural Rendering ซึ่งใช้การเรียนรู้ของเครื่อง (machine learning) เพื่อเร่งการสร้างภาพให้เร็วขึ้นและลดการใช้ทรัพยากร GPU. ประโยชน์สำหรับผู้ใช้งาน: - เทคโนโลยีใหม่ช่วยปรับปรุงเฟรมเรตในเกมแบบเรียลไทม์ และลดปัญหาการสะดุด (stuttering) ในกราฟิกที่ซับซ้อน. - นักพัฒนาสามารถสร้างภาพในเกมที่ดูสมจริงขึ้นได้โดยไม่ต้องใช้ฮาร์ดแวร์ที่มีราคาแพงเกินไป. ผลกระทบต่ออุตสาหกรรม: - นี่อาจเป็นจุดเปลี่ยนสำหรับนักพัฒนาเกมและสตูดิโอภาพยนตร์ที่ต้องการลดต้นทุนการผลิตและเพิ่มความคมชัดของภาพ. - NVIDIA และ AMD เตรียมปรับปรุงไดรเวอร์ให้เข้ากับ DXR 1.2 เพื่อดึงศักยภาพของฮาร์ดแวร์ออกมาได้เต็มที่ https://www.techpowerup.com/334455/microsoft-directx-raytracing-1-2-and-neural-rendering-brings-up-to-10x-speedup-for-amd-intel-and-nvidia-gpus
    WWW.TECHPOWERUP.COM
    Microsoft DirectX Raytracing 1.2 and Neural Rendering Brings up to 10x Speedup for AMD, Intel, and NVIDIA GPUs
    Microsoft's DirectX Raytracing (DXR) 1.2 announcement at GDC 2025 introduces two technical innovations that address fundamental ray tracing performance bottlenecks. Opacity micromaps (OMM) reduce the computational overhead in alpha-tested geometry by storing pre-computed opacity data, eliminating re...
    0 ความคิดเห็น 0 การแบ่งปัน 117 มุมมอง 0 รีวิว
  • สหรัฐฯ เรียกร้องมาเลเซียให้แก้ปัญหาช่องโหว่การส่งต่อชิป AI ระดับสูงของ NVIDIA ไปยังจีนอย่างผิดกฎหมาย มาเลเซียได้เริ่มจัดการเรื่องนี้แล้ว ด้วยการตั้งทีมตรวจสอบเพื่อควบคุมการส่งออก โดยชิป AI ของ NVIDIA มีความสำคัญมากในตลาดเทคโนโลยีขั้นสูง การขยับตัวครั้งนี้สะท้อนถึงความพยายามของสหรัฐฯ ในการคงความได้เปรียบของตนในด้าน AI ท่ามกลางการแข่งขันกับจีน

    มาตรการของมาเลเซีย:
    - มาเลเซียได้จัดตั้งทีมเฉพาะกิจเพื่อตรวจสอบและกำกับดูแลการส่งออกชิปของ NVIDIA โดยเน้นให้เซิร์ฟเวอร์ไปถึงศูนย์ข้อมูลที่ได้รับอนุญาตเท่านั้น เพื่อป้องกันการเปลี่ยนเส้นทางไปยังจีน.

    ปัญหาการค้าผ่านช่องทางลับ:
    - การส่งต่อชิป NVIDIA ไปยังจีนเกิดขึ้นแม้จะมีข้อจำกัดการส่งออก โดยในกรณีหนึ่ง พบชาวสิงคโปร์ 3 คนขายเซิร์ฟเวอร์ AI ของ NVIDIA มูลค่า 390 ล้านดอลลาร์ให้กับจีน.

    ผลกระทบและความสำคัญของชิป AI:
    - ชิป AI ของ NVIDIA เช่น Blackwell GPU มีความสำคัญอย่างมากสำหรับศูนย์ข้อมูล AI และมีความต้องการสูงทั่วโลก การขาดตลาดอาจทำให้รายได้ของ NVIDIA ลดลงหากช่องโหว่ถูกแก้ไข.

    ความท้าทายสำหรับมาเลเซีย:
    - แม้มาเลเซียจะได้รับการกล่าวหาว่ามีส่วนเกี่ยวข้องกับการค้าผิดกฎหมาย แต่รัฐมนตรีการค้าของมาเลเซียปฏิเสธว่ามีหลักฐานเพียงพอ และประเทศเองก็มีความต้องการใช้ชิป AI สูงเนื่องจากได้รับการลงทุนจากบริษัทเทคโนโลยีรายใหญ่ถึง 25 พันล้านดอลลาร์เพื่อพัฒนาศูนย์ข้อมูลในประเทศ.

    https://wccftech.com/the-us-has-reportedly-demanded-malaysia-to-patch-trade-loopholes/
    สหรัฐฯ เรียกร้องมาเลเซียให้แก้ปัญหาช่องโหว่การส่งต่อชิป AI ระดับสูงของ NVIDIA ไปยังจีนอย่างผิดกฎหมาย มาเลเซียได้เริ่มจัดการเรื่องนี้แล้ว ด้วยการตั้งทีมตรวจสอบเพื่อควบคุมการส่งออก โดยชิป AI ของ NVIDIA มีความสำคัญมากในตลาดเทคโนโลยีขั้นสูง การขยับตัวครั้งนี้สะท้อนถึงความพยายามของสหรัฐฯ ในการคงความได้เปรียบของตนในด้าน AI ท่ามกลางการแข่งขันกับจีน มาตรการของมาเลเซีย: - มาเลเซียได้จัดตั้งทีมเฉพาะกิจเพื่อตรวจสอบและกำกับดูแลการส่งออกชิปของ NVIDIA โดยเน้นให้เซิร์ฟเวอร์ไปถึงศูนย์ข้อมูลที่ได้รับอนุญาตเท่านั้น เพื่อป้องกันการเปลี่ยนเส้นทางไปยังจีน. ปัญหาการค้าผ่านช่องทางลับ: - การส่งต่อชิป NVIDIA ไปยังจีนเกิดขึ้นแม้จะมีข้อจำกัดการส่งออก โดยในกรณีหนึ่ง พบชาวสิงคโปร์ 3 คนขายเซิร์ฟเวอร์ AI ของ NVIDIA มูลค่า 390 ล้านดอลลาร์ให้กับจีน. ผลกระทบและความสำคัญของชิป AI: - ชิป AI ของ NVIDIA เช่น Blackwell GPU มีความสำคัญอย่างมากสำหรับศูนย์ข้อมูล AI และมีความต้องการสูงทั่วโลก การขาดตลาดอาจทำให้รายได้ของ NVIDIA ลดลงหากช่องโหว่ถูกแก้ไข. ความท้าทายสำหรับมาเลเซีย: - แม้มาเลเซียจะได้รับการกล่าวหาว่ามีส่วนเกี่ยวข้องกับการค้าผิดกฎหมาย แต่รัฐมนตรีการค้าของมาเลเซียปฏิเสธว่ามีหลักฐานเพียงพอ และประเทศเองก็มีความต้องการใช้ชิป AI สูงเนื่องจากได้รับการลงทุนจากบริษัทเทคโนโลยีรายใหญ่ถึง 25 พันล้านดอลลาร์เพื่อพัฒนาศูนย์ข้อมูลในประเทศ. https://wccftech.com/the-us-has-reportedly-demanded-malaysia-to-patch-trade-loopholes/
    WCCFTECH.COM
    The US Has Reportedly Demanded Malaysia To Patch "Trade Loopholes" That Have Transferred Billions in NVIDIA AI Chips to China
    Malaysia is now starting its crackdown on the "trade loopholes", which involved the transfer of NVIDIA's AI chips to China, by illegal means.
    0 ความคิดเห็น 0 การแบ่งปัน 199 มุมมอง 0 รีวิว
  • 1X Technologies จากนอร์เวย์กำลังพัฒนาหุ่นยนต์ Neo Gamma ที่สามารถช่วยงานบ้านได้หลากหลาย เช่น รดน้ำต้นไม้และใช้เครื่องดูดฝุ่น พวกเขากำลังเริ่มทดลองใช้งานในบ้านจริง โดยมีการควบคุมระยะไกลเพื่อเก็บข้อมูลและพัฒนาการทำงานของหุ่นยนต์ รวมถึงการสื่อสารกับมนุษย์ ใครจะรู้ว่าหุ่นยนต์อัจฉริยะเหล่านี้อาจกลายเป็นส่วนหนึ่งของทุกบ้านในอีกไม่กี่ปีข้างหน้า

    ความสามารถของหุ่นยนต์ Neo Gamma:
    - ใช้ AI ที่ช่วยให้หุ่นยนต์เคลื่อนที่ได้อย่างคล่องตัวและจับวัตถุได้ แต่ยังมีงานและฟังก์ชันหลายอย่างที่ต้องเรียนรู้ก่อนจะช่วยงานคนได้อย่างเต็มที่.

    การทดลองในโลกจริงครั้งแรก:
    - นี่ถือเป็นครั้งแรกที่ 1X Technologies จะนำหุ่นยนต์ออกจากห้องทดลองไปใช้งานในบ้าน ซึ่งจะมีผู้ควบคุมระยะไกลเพื่อช่วยเก็บข้อมูลการทำงานของหุ่นยนต์ในสภาพแวดล้อมจริง.

    การพัฒนา AI เพื่อการสื่อสารที่ดีขึ้น:
    - การทดลองครั้งนี้ยังมุ่งสอนให้หุ่นยนต์เข้าใจและโต้ตอบภาษาธรรมชาติกับผู้คนในบ้านได้ดีขึ้น.

    การสนับสนุนจาก Nvidia:
    - Neo Gamma ได้รับการสนับสนุนเทคโนโลยี AI แบบเปิดและปรับแต่งได้จาก Nvidia ซึ่งช่วยเพิ่มศักยภาพในการทำงานของหุ่นยนต์.

    อนาคตของหุ่นยนต์ในบ้าน:
    - รายงานจาก Bank of America คาดการณ์ว่าในปี 2060 จะมีหุ่นยนต์ฮิวแมนนอยด์มากถึง 3 พันล้านตัวทั่วโลก โดย 65% จะใช้งานในบ้าน เช่น การดูแลผู้สูงอายุหรือช่วยงานบ้าน

    https://www.thestar.com.my/tech/tech-news/2025/03/25/humanoid-robots-in-the-home-tests-are-starting-this-year
    1X Technologies จากนอร์เวย์กำลังพัฒนาหุ่นยนต์ Neo Gamma ที่สามารถช่วยงานบ้านได้หลากหลาย เช่น รดน้ำต้นไม้และใช้เครื่องดูดฝุ่น พวกเขากำลังเริ่มทดลองใช้งานในบ้านจริง โดยมีการควบคุมระยะไกลเพื่อเก็บข้อมูลและพัฒนาการทำงานของหุ่นยนต์ รวมถึงการสื่อสารกับมนุษย์ ใครจะรู้ว่าหุ่นยนต์อัจฉริยะเหล่านี้อาจกลายเป็นส่วนหนึ่งของทุกบ้านในอีกไม่กี่ปีข้างหน้า ความสามารถของหุ่นยนต์ Neo Gamma: - ใช้ AI ที่ช่วยให้หุ่นยนต์เคลื่อนที่ได้อย่างคล่องตัวและจับวัตถุได้ แต่ยังมีงานและฟังก์ชันหลายอย่างที่ต้องเรียนรู้ก่อนจะช่วยงานคนได้อย่างเต็มที่. การทดลองในโลกจริงครั้งแรก: - นี่ถือเป็นครั้งแรกที่ 1X Technologies จะนำหุ่นยนต์ออกจากห้องทดลองไปใช้งานในบ้าน ซึ่งจะมีผู้ควบคุมระยะไกลเพื่อช่วยเก็บข้อมูลการทำงานของหุ่นยนต์ในสภาพแวดล้อมจริง. การพัฒนา AI เพื่อการสื่อสารที่ดีขึ้น: - การทดลองครั้งนี้ยังมุ่งสอนให้หุ่นยนต์เข้าใจและโต้ตอบภาษาธรรมชาติกับผู้คนในบ้านได้ดีขึ้น. การสนับสนุนจาก Nvidia: - Neo Gamma ได้รับการสนับสนุนเทคโนโลยี AI แบบเปิดและปรับแต่งได้จาก Nvidia ซึ่งช่วยเพิ่มศักยภาพในการทำงานของหุ่นยนต์. อนาคตของหุ่นยนต์ในบ้าน: - รายงานจาก Bank of America คาดการณ์ว่าในปี 2060 จะมีหุ่นยนต์ฮิวแมนนอยด์มากถึง 3 พันล้านตัวทั่วโลก โดย 65% จะใช้งานในบ้าน เช่น การดูแลผู้สูงอายุหรือช่วยงานบ้าน https://www.thestar.com.my/tech/tech-news/2025/03/25/humanoid-robots-in-the-home-tests-are-starting-this-year
    WWW.THESTAR.COM.MY
    Humanoid robots in the home? Tests are starting this year
    Norwegian startup 1X Technologies plans to test its Neo Gamma humanoid robot in real-life conditions, in several hundred homes, from 2025.
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • Pat Gelsinger อดีตหัวหน้าของ Intel ได้ออกมายอมรับในงาน GTC 2025 ว่า Nvidia ประสบความสำเร็จในยุค AI ด้วยการยึดมั่นในสถาปัตยกรรม GPU ที่ออกแบบมาเพื่อรองรับงานแบบขนานอย่างเต็มที่ ขณะที่ Intel เองพลาดท่าในโครงการ Larrabee ที่พยายามผสาน CPU และ GPU ในยุคที่ CPU ยังครองตลาด นี่เป็นบทเรียนสำคัญสำหรับ Intel ในการกลับมาพัฒนาการ์ดที่เหมาะกับงาน AI ในอนาคต

    https://www.tomshardware.com/tech-industry/artificial-intelligence/at-nvidias-gtc-event-pat-gelsinger-reiterated-that-jensen-got-lucky-with-ai-intel-missed-the-boat-with-larrabee
    Pat Gelsinger อดีตหัวหน้าของ Intel ได้ออกมายอมรับในงาน GTC 2025 ว่า Nvidia ประสบความสำเร็จในยุค AI ด้วยการยึดมั่นในสถาปัตยกรรม GPU ที่ออกแบบมาเพื่อรองรับงานแบบขนานอย่างเต็มที่ ขณะที่ Intel เองพลาดท่าในโครงการ Larrabee ที่พยายามผสาน CPU และ GPU ในยุคที่ CPU ยังครองตลาด นี่เป็นบทเรียนสำคัญสำหรับ Intel ในการกลับมาพัฒนาการ์ดที่เหมาะกับงาน AI ในอนาคต https://www.tomshardware.com/tech-industry/artificial-intelligence/at-nvidias-gtc-event-pat-gelsinger-reiterated-that-jensen-got-lucky-with-ai-intel-missed-the-boat-with-larrabee
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • Micron และ SK hynix เปิดตัวเทคโนโลยีหน่วยความจำใหม่ชื่อ SOCAMM ที่ช่วยให้เซิร์ฟเวอร์ AI ทำงานได้เร็วและมีประสิทธิภาพมากขึ้น แถมประหยัดพลังงานด้วย! ด้วยความจุสูงถึง 128GB ต่อโมดูลและขนาดเล็กกะทัดรัด SOCAMM ถูกออกแบบมาเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลขนาดใหญ่ หน่วยความจำนี้จะถูกใช้ในระบบ Nvidia GB300 Grace ซึ่งช่วยลดต้นทุนและปรับปรุงระบบให้ดียิ่งขึ้น

    เทคโนโลยีขั้นสูง:
    - SOCAMM มีขนาดเล็กเพียงหนึ่งในสามของ RDIMM ปกติ และใช้ชิป LPDDR5X ที่มีความเร็วการส่งข้อมูลสูงสุด 9.6 GT/s (สำหรับ Micron) และ 7.5 GT/s (สำหรับ SK hynix)
    - ช่วยลดพลังงานที่ใช้ลงถึงหนึ่งในสามเมื่อเทียบกับ RDIMM ความจุ 128GB แบบเดิม

    การออกแบบเพื่ออนาคต:
    - หน่วยความจำนี้ได้รับการออกแบบเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลใหญ่ (AI training) และการใช้งานเชิงคาดการณ์ (AI inference)
    - ระบบที่ใช้ SOCAMM ช่วยให้การผลิตและการซ่อมบำรุงเซิร์ฟเวอร์ทำได้ง่ายขึ้น ลดต้นทุนการบำรุงรักษา

    ผลกระทบต่ออุตสาหกรรม:
    - LPDDR5X ของ Micron และ SK hynix เพิ่มขีดความสามารถในการประมวลผลเซิร์ฟเวอร์ให้ดียิ่งขึ้น พร้อมช่วยลดภาระของ CPU และพลังงานที่ใช้ในศูนย์ข้อมูล
    - แม้ว่าจะยังไม่ชัดเจนว่า SOCAMM จะกลายเป็นมาตรฐานอุตสาหกรรมในอนาคตหรือไม่ แต่การใช้งานครั้งนี้ถือเป็นก้าวสำคัญสำหรับระบบที่ใช้ Nvidia Grace และ Vera CPU

    https://www.tomshardware.com/pc-components/ram/micron-and-sk-hynix-unveil-lpddr5x-socamm-up-to-128gb-for-ai-servers
    Micron และ SK hynix เปิดตัวเทคโนโลยีหน่วยความจำใหม่ชื่อ SOCAMM ที่ช่วยให้เซิร์ฟเวอร์ AI ทำงานได้เร็วและมีประสิทธิภาพมากขึ้น แถมประหยัดพลังงานด้วย! ด้วยความจุสูงถึง 128GB ต่อโมดูลและขนาดเล็กกะทัดรัด SOCAMM ถูกออกแบบมาเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลขนาดใหญ่ หน่วยความจำนี้จะถูกใช้ในระบบ Nvidia GB300 Grace ซึ่งช่วยลดต้นทุนและปรับปรุงระบบให้ดียิ่งขึ้น เทคโนโลยีขั้นสูง: - SOCAMM มีขนาดเล็กเพียงหนึ่งในสามของ RDIMM ปกติ และใช้ชิป LPDDR5X ที่มีความเร็วการส่งข้อมูลสูงสุด 9.6 GT/s (สำหรับ Micron) และ 7.5 GT/s (สำหรับ SK hynix) - ช่วยลดพลังงานที่ใช้ลงถึงหนึ่งในสามเมื่อเทียบกับ RDIMM ความจุ 128GB แบบเดิม การออกแบบเพื่ออนาคต: - หน่วยความจำนี้ได้รับการออกแบบเพื่อรองรับงาน AI ที่ต้องการแบนด์วิดท์สูง เช่น การฝึกโมเดลใหญ่ (AI training) และการใช้งานเชิงคาดการณ์ (AI inference) - ระบบที่ใช้ SOCAMM ช่วยให้การผลิตและการซ่อมบำรุงเซิร์ฟเวอร์ทำได้ง่ายขึ้น ลดต้นทุนการบำรุงรักษา ผลกระทบต่ออุตสาหกรรม: - LPDDR5X ของ Micron และ SK hynix เพิ่มขีดความสามารถในการประมวลผลเซิร์ฟเวอร์ให้ดียิ่งขึ้น พร้อมช่วยลดภาระของ CPU และพลังงานที่ใช้ในศูนย์ข้อมูล - แม้ว่าจะยังไม่ชัดเจนว่า SOCAMM จะกลายเป็นมาตรฐานอุตสาหกรรมในอนาคตหรือไม่ แต่การใช้งานครั้งนี้ถือเป็นก้าวสำคัญสำหรับระบบที่ใช้ Nvidia Grace และ Vera CPU https://www.tomshardware.com/pc-components/ram/micron-and-sk-hynix-unveil-lpddr5x-socamm-up-to-128gb-for-ai-servers
    0 ความคิดเห็น 0 การแบ่งปัน 182 มุมมอง 0 รีวิว
  • Nvidia เพิ่งเปิดตัวแผนใหม่สำหรับศูนย์ข้อมูลด้วยกราฟิกการ์ด Rubin ที่จะวางขายในปี 2026 และ Rubin Ultra ในปี 2027 ทั้งสองรุ่นนี้ออกแบบมาเพื่อรองรับงาน AI ขนาดใหญ่ ด้วยประสิทธิภาพการประมวลผลระดับเอกซะฟลอปส์ Rubin ใช้หน่วยความจำ HBM4 ความเร็วสูงและเชื่อมต่อผ่าน NVLink รุ่นใหม่ ส่วน Rubin Ultra ยกระดับไปอีกขั้น รองรับ GPU ได้ถึง 576 ตัวในระบบเดียว ใครที่กำลังวางแผนโครงสร้างศูนย์ข้อมูล อนาคตสดใสสำหรับเทคโนโลยีนี้แน่นอน

    https://www.tomshardware.com/pc-components/gpus/nvidia-announces-rubin-gpus-in-2026-rubin-ultra-in-2027-feynam-after
    Nvidia เพิ่งเปิดตัวแผนใหม่สำหรับศูนย์ข้อมูลด้วยกราฟิกการ์ด Rubin ที่จะวางขายในปี 2026 และ Rubin Ultra ในปี 2027 ทั้งสองรุ่นนี้ออกแบบมาเพื่อรองรับงาน AI ขนาดใหญ่ ด้วยประสิทธิภาพการประมวลผลระดับเอกซะฟลอปส์ Rubin ใช้หน่วยความจำ HBM4 ความเร็วสูงและเชื่อมต่อผ่าน NVLink รุ่นใหม่ ส่วน Rubin Ultra ยกระดับไปอีกขั้น รองรับ GPU ได้ถึง 576 ตัวในระบบเดียว ใครที่กำลังวางแผนโครงสร้างศูนย์ข้อมูล อนาคตสดใสสำหรับเทคโนโลยีนี้แน่นอน https://www.tomshardware.com/pc-components/gpus/nvidia-announces-rubin-gpus-in-2026-rubin-ultra-in-2027-feynam-after
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • Nvidia ได้เปิดตัวเทคโนโลยีเครือข่ายใหม่ที่ใช้ silicon photonics เพื่อเชื่อมต่อ GPU หลายล้านตัวในศูนย์ข้อมูลขนาดใหญ่ ความเร็วสูงถึง 1.6 Tb/s ต่อพอร์ต และมีประสิทธิภาพสูงกว่าโซลูชันเดิมหลายเท่า ความสำเร็จนี้ไม่ได้มาจาก Nvidia เพียงลำพัง แต่เป็นผลจากความร่วมมือกับบริษัทชั้นนำในอุตสาหกรรม เทคโนโลยีนี้อาจเปลี่ยนโฉมระบบประมวลผล AI ในอนาคต

    จุดเด่นของเทคโนโลยีใหม่:
    - Spectrum-X มีพอร์ตหลากหลาย เช่น 128 พอร์ตที่ความเร็ว 800 Gb/s หรือสูงสุด 512 พอร์ตที่ 200 Gb/s.
    - Quantum-X เพิ่มประสิทธิภาพเป็นสองเท่า และสามารถเพิ่มขีดความสามารถ AI ได้ถึง 5 เท่า พร้อมระบบระบายความร้อนด้วยน้ำที่ช่วยเพิ่มความเสถียรของชิป.

    ข้อได้เปรียบที่สำคัญ:
    - เทคโนโลยีนี้ช่วยลดการสูญเสียพลังงานได้ถึง 3.5 เท่า เพิ่มความเสถียรของเครือข่าย 10 เท่า และสัญญาณมีคุณภาพสูงขึ้นถึง 63 เท่าเมื่อเทียบกับโซลูชันแบบเดิม.
    - รองรับการใช้งานที่ประหยัดพลังงานและสามารถเร่งกระบวนการตั้งค่าระบบได้เร็วขึ้น 1.3 เท่า.

    ความร่วมมือกับพันธมิตร:
    - Nvidia ใช้แพลตฟอร์ม Compact Universal Photonic Engine (COUPE) ของ TSMC ซึ่งผสานวงจรรวมทั้งแบบอิเล็กทรอนิกส์และโฟโตนิกส์ไว้ด้วยกัน.
    - ความร่วมมือนี้ยังรวมถึงบริษัทชั้นนำ เช่น Coherent, Corning, และ Foxconn เพื่อสร้างห่วงโซ่อุปทานที่มั่นคง.

    ผลกระทบต่ออุตสาหกรรม:
    - การใช้ silicon photonics ในระดับใหญ่ยังซับซ้อนและต้องปรับโครงสร้างพื้นฐานเครือข่ายใหม่ แต่เทคโนโลยีนี้เป็นก้าวสำคัญในอนาคตของเครือข่าย AI.

    https://www.tomshardware.com/networking/nvidias-silicon-photonics-based-1-6-tb-s-switch-platforms-enable-clusters-with-millions-of-gpus
    Nvidia ได้เปิดตัวเทคโนโลยีเครือข่ายใหม่ที่ใช้ silicon photonics เพื่อเชื่อมต่อ GPU หลายล้านตัวในศูนย์ข้อมูลขนาดใหญ่ ความเร็วสูงถึง 1.6 Tb/s ต่อพอร์ต และมีประสิทธิภาพสูงกว่าโซลูชันเดิมหลายเท่า ความสำเร็จนี้ไม่ได้มาจาก Nvidia เพียงลำพัง แต่เป็นผลจากความร่วมมือกับบริษัทชั้นนำในอุตสาหกรรม เทคโนโลยีนี้อาจเปลี่ยนโฉมระบบประมวลผล AI ในอนาคต จุดเด่นของเทคโนโลยีใหม่: - Spectrum-X มีพอร์ตหลากหลาย เช่น 128 พอร์ตที่ความเร็ว 800 Gb/s หรือสูงสุด 512 พอร์ตที่ 200 Gb/s. - Quantum-X เพิ่มประสิทธิภาพเป็นสองเท่า และสามารถเพิ่มขีดความสามารถ AI ได้ถึง 5 เท่า พร้อมระบบระบายความร้อนด้วยน้ำที่ช่วยเพิ่มความเสถียรของชิป. ข้อได้เปรียบที่สำคัญ: - เทคโนโลยีนี้ช่วยลดการสูญเสียพลังงานได้ถึง 3.5 เท่า เพิ่มความเสถียรของเครือข่าย 10 เท่า และสัญญาณมีคุณภาพสูงขึ้นถึง 63 เท่าเมื่อเทียบกับโซลูชันแบบเดิม. - รองรับการใช้งานที่ประหยัดพลังงานและสามารถเร่งกระบวนการตั้งค่าระบบได้เร็วขึ้น 1.3 เท่า. ความร่วมมือกับพันธมิตร: - Nvidia ใช้แพลตฟอร์ม Compact Universal Photonic Engine (COUPE) ของ TSMC ซึ่งผสานวงจรรวมทั้งแบบอิเล็กทรอนิกส์และโฟโตนิกส์ไว้ด้วยกัน. - ความร่วมมือนี้ยังรวมถึงบริษัทชั้นนำ เช่น Coherent, Corning, และ Foxconn เพื่อสร้างห่วงโซ่อุปทานที่มั่นคง. ผลกระทบต่ออุตสาหกรรม: - การใช้ silicon photonics ในระดับใหญ่ยังซับซ้อนและต้องปรับโครงสร้างพื้นฐานเครือข่ายใหม่ แต่เทคโนโลยีนี้เป็นก้าวสำคัญในอนาคตของเครือข่าย AI. https://www.tomshardware.com/networking/nvidias-silicon-photonics-based-1-6-tb-s-switch-platforms-enable-clusters-with-millions-of-gpus
    WWW.TOMSHARDWARE.COM
    Nvidia’s new silicon photonics-based 400 Tb/s switch platforms enable clusters with millions of GPUs
    Spectrum-X Photonics Ethernet and Quantum-X Photonics InfiniBand platforms are here.
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
Pages Boosts