• “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron”

    หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง

    ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม

    HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น

    ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30%

    แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต

    ความคืบหน้าของ Samsung ในตลาด HBM
    Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น
    หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่
    ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350
    Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron

    คุณสมบัติของ HBM3E และ HBM4
    HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM
    HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป
    ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30%
    Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026

    ข้อมูลเสริมจากภายนอก
    Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin
    Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps
    Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2
    ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix

    https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    🚀 “Samsung ได้รับการรับรอง HBM3E จาก Nvidia — หุ้นพุ่ง 5% พร้อมเร่งเครื่องสู่สนาม HBM4 แข่งกับ SK hynix และ Micron” หลังจากรอคอยมานานกว่า 18 เดือน Samsung ก็ได้รับการรับรองจาก Nvidia สำหรับชิปหน่วยความจำ HBM3E แบบ 12 ชั้น ซึ่งจะถูกนำไปใช้ในการ์ดเร่ง AI รุ่นสูงอย่าง DGX B300 ของ Nvidia และ MI350 ของ AMD ข่าวนี้ส่งผลให้หุ้นของ Samsung พุ่งขึ้นทันที 5% สะท้อนความมั่นใจของนักลงทุนว่าบริษัทสามารถกลับเข้าสู่การแข่งขันในตลาดหน่วยความจำความเร็วสูงได้อีกครั้ง ก่อนหน้านี้ SK hynix และ Micron ได้รับการรับรองและเริ่มส่งมอบ HBM3E ให้ Nvidia ไปแล้ว ทำให้ Samsungกลายเป็นผู้ผลิตรายที่สามที่เข้าร่วมในห่วงโซ่อุปทานนี้ โดยแม้จะยังไม่สามารถส่งมอบในปริมาณมากจนถึงปี 2026 แต่การผ่านการรับรองถือเป็นก้าวสำคัญที่ช่วยให้ Samsung กลับมาอยู่ในเกม HBM3E เป็นหน่วยความจำที่มีความเร็วสูงสุดในตลาดปัจจุบัน โดยมีแบนด์วิดธ์ถึง 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ซึ่งเหนือกว่ารุ่นก่อนหน้าอย่าง HBM3 ที่มีเพียง 8 ชั้น ขณะเดียวกัน Samsung ก็เร่งพัฒนา HBM4 ซึ่งเป็นหน่วยความจำรุ่นถัดไปที่มีแบนด์วิดธ์สูงถึง 2 TB/s ต่อ stack และใช้เทคโนโลยีการผลิตระดับ 3–4 นาโนเมตร ทำให้สามารถเพิ่มความจุเป็น 64 GB ต่อชิป พร้อมลดการใช้พลังงานลงถึง 30% แม้ SK hynix จะประกาศเสร็จสิ้นการพัฒนา HBM4 ไปก่อนแล้ว แต่ Samsung ก็อยู่ระหว่างการส่งตัวอย่างให้ Nvidia และตั้งเป้าเริ่มผลิตจำนวนมากในครึ่งแรกของปี 2026 โดยมีเป้าหมายชัดเจนในการแซงคู่แข่งทั้งด้านประสิทธิภาพและปริมาณการผลิต ✅ ความคืบหน้าของ Samsung ในตลาด HBM ➡️ Samsung ได้รับการรับรองจาก Nvidia สำหรับชิป HBM3E แบบ 12 ชั้น ➡️ หุ้น Samsung พุ่งขึ้นกว่า 5% หลังข่าวการรับรองเผยแพร่ ➡️ ชิป HBM3E จะถูกใช้ใน Nvidia DGX B300 และ AMD MI350 ➡️ Samsung เป็นผู้ผลิตรายที่สามที่ได้รับการรับรอง ต่อจาก SK hynix และ Micron ✅ คุณสมบัติของ HBM3E และ HBM4 ➡️ HBM3E มีแบนด์วิดธ์ 1.2 TB/s ต่อ stack และใช้เทคโนโลยี 12-layer DRAM ➡️ HBM4 จะมีแบนด์วิดธ์สูงถึง 2 TB/s และความจุ 64 GB ต่อชิป ➡️ ใช้กระบวนการผลิตระดับ 3–4 นาโนเมตร ลดการใช้พลังงานลง 20–30% ➡️ Samsung ตั้งเป้าเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026 ✅ ข้อมูลเสริมจากภายนอก ➡️ Nvidia กำหนดมาตรฐาน HBM4 ที่สูงขึ้น เช่น 10–11 Gbps ต่อ pin ➡️ Samsung แสดงความสามารถถึง 11 Gbps ซึ่งเหนือกว่า SK hynix ที่ทำได้ 10 Gbps ➡️ Micron ยังประสบปัญหาในการผ่านมาตรฐาน HBM4 ของ Nvidia2 ➡️ ตลาด HBM คาดว่าจะเติบโต 30% ต่อปีจนถึงปี 2030 ตามการคาดการณ์ของ SK hynix https://www.tomshardware.com/tech-industry/samsung-earns-nvidias-certification-for-its-hbm3-memory-stock-jumps-5-percent-as-company-finally-catches-up-to-sk-hynix-and-micron-in-hbm3e-production
    0 Comments 0 Shares 37 Views 0 Reviews
  • 55,ยึดอำนาจมา อำนาจเต็มมือ สั่ง ม.44แบบไหนก็ได้,ยุทธศาสตร์ชาติ20ปีด้วยนะ.
    ..คิดในมุมบวกแบบบวกโคตรๆ 3ป.อาจคือผู้เสียสละร่วมกับโทนี่ก็ได้,เพื่อลากไส้เขมรและผู้สนับสนุนเขมรทั้งหมด ตลอดพวกจะล้มจะยึดจะทำลายประเทศไทยให้เปิดเผยออกมาทั้งหมด เพื่อเก็บกวาดครั้งเดียว จะบ่อนจะพื้นที่ดินแดนจะอะไรชั่วเลวสาระพัดที่กระทำต่อแผ่นดินไทยประเทศไทยคนเสียสละเหล่านี้รับบทเล่นเต็มที่ แม้คนทั้งชาติจะตราหน้าว่าขายชาติก็ตาม เพื่อล่อเหยื่อตัวพ่อตัวแม่ออกมาได้จริงๆ,ไม่เข้าถ้ำเสือ ก็ไม่ได้ลูกเสือ จนกระทั่งขายวิญญาณให้ซาตานก็ได้เพื่อแลกกับความไว้วางใจของซาตาน แต่บทสุดท้ายคือพลิก เป้าหมายคือเพื่อทำลายซาตานให้พินาศทั้งหมดทั้งเครือข่ายนั้นเอง,เสียสละตนเองเพื่อพิทักษ์คนหมู่มากหรือประเทศไทย,ต้องสร้างสตอรี่เรื่องราวให้มีเหตุต่อการจบของเรื่อง ซึ่งธรรมะย่อมชนะอธรรมเสมอนั้นเอง.,เรทไรเดอร์ประมาณนั้น,ลุง3ป.บวกโทนี่รับบทถูกคนแล้วและอาจวางแผนกันมานานตั้งแต่ร.9แล้วก็ด้วย,อาจอยู่ที่ต่างประเทศโน้น,โดยฝ่ายแสงช่วยสนับสนุนพิเศษ,และอาจเดินทางไปเห็นอนาคตด้วยยานข้ามเวลามาแล้ว,ที่ฝ่ายแสงพาไปเห็น,โลกนี้มีอะไรที่เราไม่รู้อีกเยอะ
    ..ฝ่ายมืดแพ้สิ้นท่าแล้วก็ว่า,แค่ปลุกให้เราประชาชนมาตื่นรู้ค่าจริงแค่นั้น แบบตายจริง เจ็งจริงจึงกระตุ้นแรงขับเคลื่อนยากตื่นรู้ร่วมกันได้ เหมือนเราคนไทยสามัคคีร่วมใจกันปิดด่านเขมรจนกว่าจะเขมรหมดศักยภาพสิ้นฤทธิ์มาเป็นภัยอันตรายใดๆต่อประเทศไทยได้,โทนี่ที่ติดคุกก็เพื่อคุ้มครองชีวิตโทนี่ได้100%เท่านั้นแม้เป็นตัวปลอมก็ตามแต่,ที่ที่อันตรายที่สุดคือที่ที่ปลอดภัยจากคนที่จะทำร้ายดีที่สุด,ทั้งหมดถูกวางเนื้อเรื่องไว้หมดแล้วจากผู้สร้างหนังเรื่องไทยยึดภูมะเขือนี้.
    ..นี้คือมโนแบบเชิงบวกโคตรๆ พวกนี้คือฮีโร่ คนไทยรู้หรือยังว่า ..ไม่มีอะไรจะสุดยอดไปกว่าที่คนไทยเรารักกัน คนไทยเราสามัคคีกัน และช่วยเหลือกันและกันพึ่งพากันเองดีที่สุด,มิตรที่ดีที่สุดคือไทยเราเอง คือคนไทยทั้งประเทศเราเอง.,และสุดท้ายเรา..ประชาชนอาจร่วมกัน อภัยกันและกันในความผิดพลาดทั้งของตนเองและคนอื่น,เพื่อร่วมสร้างชาติไทยเราใหม่อีกครั้ง,ถอยแก่คนไทยเราเอง เพื่อก้าวไปอย่างรุ่งโรจน์ร่วมกันในยุคสมัยหน้า,ศัตรูที่แท้จริงมิใช่คนภายในชาติไทยเรา แต่คือคนหมายไม่ดีต่อประเทศไทยและคนไทยเรา ให้แตกแยกกัน จะทางศาสนา เชื้อชาติ และใดๆก็ตาม,การล้างกวาดล้างประเทศไทยที่ดีที่สุดคือล้างแบบให้อภัยกัน ทุกๆคนที่ทำผิดพลาดหวังได้รับการอภัยเพื่อกลับตัวกลับใจเริ่มต้นชีวิตใหม่ที่เคยทำผิดพลาดในอดีต,คนลักษณะนี้สมควรให้อภัยเมื่อสำนึกแล้วมาทำความดีเพื่อประเทศชาติร่วมกัน,แต่กับคนไม่สำนึก เราก็มิอาจให้อภัยได้ทางตายเท่านั้นคือสิ่งที่มันต้องได้รับเช่นกัน.,ชาติจึงจะเดินต่อไปได้,สิ่งนี้จะเกิดขึ้นได้คือสถาบันกษัตริย์เราเท่านั้นจะเคลียร์ตรงนี้ได้,คือคนระบบแบบราชการไทยทั้งหมด ต้องเห็นค่าการสำนึกนี้ ถวายสัตย์นั้นเอง กลับตัวกลับใจใหม่ ความชั่วใดๆในอดีตจะไม่คิดคำนวนกลับมาอีกแก่บรรดาข้าราชการไทยทั่วประเทศ จงกลับเนื้อกลับตัวกลับใจตั้งมั่นทำความดีเพื่อชาติคือประชาชนและเพื่อแผ่นดินอธิปไตยไทยที่เกิดอาศัยดำรงชีพและตายนี้,คนข้าราชการไทยเราจะเกิดใหม่ทันที,ความผิดใดๆคือเป็นศูนย์,อภัยโทษนั้นเอง,ต่อมาคือประชาชนคนไทย ความผิดใดๆโทษอภัยหมด,ตั้งต้นชีวิตใหม่ ,หากข้าราชการไทยคนใด พ่อค้าเจ้าสัวใดยังมีพฤติกรรมชั่วเลวเหมือนเดิม โทษอาญาหนักแน่นอน,อาจยึดทรัพย์ทั้งตระกูล,ประหารชีวิตพร้อม,ส่วย เถื่อนทหารนายพลใดยังรับไม่ซื่อคือตายสถานเดียว,อะไรไม่ถูกต้องทำให้ถูกต้อง,สุดท้ายคนไทยจะเป็นหัวโขนอะไรใดๆจะรักเข้าใจกันหมด,สามัคคีร่วมแรงใจลงใจกันทั่วประเทศ,เรา..ทั้งประเทศไทยประชาชนคนไทยจะเสมือนเม็ดทรายเป็นเม็ดหินหลายลูกรวมกองกันเป็นภูเขาเงินภูเขาทองภูเขาเพชรที่แข็วแกร่งกว่าใดๆมิปานแน่นอน ตั้งสง่าใหญ่โตองอาจประดับคู่เคียงข้างโลกอย่างอารยะธรรมใดๆเสมอเหมือนมิมีแน่นอนในยุคปัจจุบันนี้,ยุคคนเหนือมนุษย์รวมสาระพัดทุกๆศาสตราจักรวาลอาจมารวมไว้ที่ไทยเรานี้,จะล้ำๆต่างดาวยุคอารยะธรรมใดๆก็ตามThe godsใดๆที่ผ่านมาเหยียบโลกนี้มากมายเพียงใดก็ตาม,สนามหลวงแห่งกายเนื้อนี้คนไทยเราตีแตกหมดนั้นเอง,จะโคตรสุดยอดอัจฉริยะขนาดไหนอีก,บรรลุธรรมจักรวาลเป็นว่าเล่นนั้นเอง,โดยต่างดาวใดๆที่มาเยือนมายึดครองโลกมากมายหลายล้านล้านปีก็ยังกระทำไม่ได้เช่นคนไทยเราทำได้นับจากยุคนี้ร.10เราเป็นต้นไปนั้นเอง.,
    อภัยหนี้ อภัยโทษ จึงคือจุดเริ่มต้นของการปลดปล่อยจิตวิญญาณ.
    https://youtube.com/shorts/laYhDaCK47s?si=k-m4UrsIFSNUBfd1
    55,ยึดอำนาจมา อำนาจเต็มมือ สั่ง ม.44แบบไหนก็ได้,ยุทธศาสตร์ชาติ20ปีด้วยนะ. ..คิดในมุมบวกแบบบวกโคตรๆ 3ป.อาจคือผู้เสียสละร่วมกับโทนี่ก็ได้,เพื่อลากไส้เขมรและผู้สนับสนุนเขมรทั้งหมด ตลอดพวกจะล้มจะยึดจะทำลายประเทศไทยให้เปิดเผยออกมาทั้งหมด เพื่อเก็บกวาดครั้งเดียว จะบ่อนจะพื้นที่ดินแดนจะอะไรชั่วเลวสาระพัดที่กระทำต่อแผ่นดินไทยประเทศไทยคนเสียสละเหล่านี้รับบทเล่นเต็มที่ แม้คนทั้งชาติจะตราหน้าว่าขายชาติก็ตาม เพื่อล่อเหยื่อตัวพ่อตัวแม่ออกมาได้จริงๆ,ไม่เข้าถ้ำเสือ ก็ไม่ได้ลูกเสือ จนกระทั่งขายวิญญาณให้ซาตานก็ได้เพื่อแลกกับความไว้วางใจของซาตาน แต่บทสุดท้ายคือพลิก เป้าหมายคือเพื่อทำลายซาตานให้พินาศทั้งหมดทั้งเครือข่ายนั้นเอง,เสียสละตนเองเพื่อพิทักษ์คนหมู่มากหรือประเทศไทย,ต้องสร้างสตอรี่เรื่องราวให้มีเหตุต่อการจบของเรื่อง ซึ่งธรรมะย่อมชนะอธรรมเสมอนั้นเอง.,เรทไรเดอร์ประมาณนั้น,ลุง3ป.บวกโทนี่รับบทถูกคนแล้วและอาจวางแผนกันมานานตั้งแต่ร.9แล้วก็ด้วย,อาจอยู่ที่ต่างประเทศโน้น,โดยฝ่ายแสงช่วยสนับสนุนพิเศษ,และอาจเดินทางไปเห็นอนาคตด้วยยานข้ามเวลามาแล้ว,ที่ฝ่ายแสงพาไปเห็น,โลกนี้มีอะไรที่เราไม่รู้อีกเยอะ ..ฝ่ายมืดแพ้สิ้นท่าแล้วก็ว่า,แค่ปลุกให้เราประชาชนมาตื่นรู้ค่าจริงแค่นั้น แบบตายจริง เจ็งจริงจึงกระตุ้นแรงขับเคลื่อนยากตื่นรู้ร่วมกันได้ เหมือนเราคนไทยสามัคคีร่วมใจกันปิดด่านเขมรจนกว่าจะเขมรหมดศักยภาพสิ้นฤทธิ์มาเป็นภัยอันตรายใดๆต่อประเทศไทยได้,โทนี่ที่ติดคุกก็เพื่อคุ้มครองชีวิตโทนี่ได้100%เท่านั้นแม้เป็นตัวปลอมก็ตามแต่,ที่ที่อันตรายที่สุดคือที่ที่ปลอดภัยจากคนที่จะทำร้ายดีที่สุด,ทั้งหมดถูกวางเนื้อเรื่องไว้หมดแล้วจากผู้สร้างหนังเรื่องไทยยึดภูมะเขือนี้. ..นี้คือมโนแบบเชิงบวกโคตรๆ พวกนี้คือฮีโร่ คนไทยรู้หรือยังว่า ..ไม่มีอะไรจะสุดยอดไปกว่าที่คนไทยเรารักกัน คนไทยเราสามัคคีกัน และช่วยเหลือกันและกันพึ่งพากันเองดีที่สุด,มิตรที่ดีที่สุดคือไทยเราเอง คือคนไทยทั้งประเทศเราเอง.,และสุดท้ายเรา..ประชาชนอาจร่วมกัน อภัยกันและกันในความผิดพลาดทั้งของตนเองและคนอื่น,เพื่อร่วมสร้างชาติไทยเราใหม่อีกครั้ง,ถอยแก่คนไทยเราเอง เพื่อก้าวไปอย่างรุ่งโรจน์ร่วมกันในยุคสมัยหน้า,ศัตรูที่แท้จริงมิใช่คนภายในชาติไทยเรา แต่คือคนหมายไม่ดีต่อประเทศไทยและคนไทยเรา ให้แตกแยกกัน จะทางศาสนา เชื้อชาติ และใดๆก็ตาม,การล้างกวาดล้างประเทศไทยที่ดีที่สุดคือล้างแบบให้อภัยกัน ทุกๆคนที่ทำผิดพลาดหวังได้รับการอภัยเพื่อกลับตัวกลับใจเริ่มต้นชีวิตใหม่ที่เคยทำผิดพลาดในอดีต,คนลักษณะนี้สมควรให้อภัยเมื่อสำนึกแล้วมาทำความดีเพื่อประเทศชาติร่วมกัน,แต่กับคนไม่สำนึก เราก็มิอาจให้อภัยได้ทางตายเท่านั้นคือสิ่งที่มันต้องได้รับเช่นกัน.,ชาติจึงจะเดินต่อไปได้,สิ่งนี้จะเกิดขึ้นได้คือสถาบันกษัตริย์เราเท่านั้นจะเคลียร์ตรงนี้ได้,คือคนระบบแบบราชการไทยทั้งหมด ต้องเห็นค่าการสำนึกนี้ ถวายสัตย์นั้นเอง กลับตัวกลับใจใหม่ ความชั่วใดๆในอดีตจะไม่คิดคำนวนกลับมาอีกแก่บรรดาข้าราชการไทยทั่วประเทศ จงกลับเนื้อกลับตัวกลับใจตั้งมั่นทำความดีเพื่อชาติคือประชาชนและเพื่อแผ่นดินอธิปไตยไทยที่เกิดอาศัยดำรงชีพและตายนี้,คนข้าราชการไทยเราจะเกิดใหม่ทันที,ความผิดใดๆคือเป็นศูนย์,อภัยโทษนั้นเอง,ต่อมาคือประชาชนคนไทย ความผิดใดๆโทษอภัยหมด,ตั้งต้นชีวิตใหม่ ,หากข้าราชการไทยคนใด พ่อค้าเจ้าสัวใดยังมีพฤติกรรมชั่วเลวเหมือนเดิม โทษอาญาหนักแน่นอน,อาจยึดทรัพย์ทั้งตระกูล,ประหารชีวิตพร้อม,ส่วย เถื่อนทหารนายพลใดยังรับไม่ซื่อคือตายสถานเดียว,อะไรไม่ถูกต้องทำให้ถูกต้อง,สุดท้ายคนไทยจะเป็นหัวโขนอะไรใดๆจะรักเข้าใจกันหมด,สามัคคีร่วมแรงใจลงใจกันทั่วประเทศ,เรา..ทั้งประเทศไทยประชาชนคนไทยจะเสมือนเม็ดทรายเป็นเม็ดหินหลายลูกรวมกองกันเป็นภูเขาเงินภูเขาทองภูเขาเพชรที่แข็วแกร่งกว่าใดๆมิปานแน่นอน ตั้งสง่าใหญ่โตองอาจประดับคู่เคียงข้างโลกอย่างอารยะธรรมใดๆเสมอเหมือนมิมีแน่นอนในยุคปัจจุบันนี้,ยุคคนเหนือมนุษย์รวมสาระพัดทุกๆศาสตราจักรวาลอาจมารวมไว้ที่ไทยเรานี้,จะล้ำๆต่างดาวยุคอารยะธรรมใดๆก็ตามThe godsใดๆที่ผ่านมาเหยียบโลกนี้มากมายเพียงใดก็ตาม,สนามหลวงแห่งกายเนื้อนี้คนไทยเราตีแตกหมดนั้นเอง,จะโคตรสุดยอดอัจฉริยะขนาดไหนอีก,บรรลุธรรมจักรวาลเป็นว่าเล่นนั้นเอง,โดยต่างดาวใดๆที่มาเยือนมายึดครองโลกมากมายหลายล้านล้านปีก็ยังกระทำไม่ได้เช่นคนไทยเราทำได้นับจากยุคนี้ร.10เราเป็นต้นไปนั้นเอง., อภัยหนี้ อภัยโทษ จึงคือจุดเริ่มต้นของการปลดปล่อยจิตวิญญาณ. https://youtube.com/shorts/laYhDaCK47s?si=k-m4UrsIFSNUBfd1
    0 Comments 0 Shares 109 Views 0 Reviews
  • https://youtu.be/uzxI31cfM4A
    https://youtu.be/uzxI31cfM4A
    0 Comments 0 Shares 25 Views 0 Reviews
  • “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง”

    PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ

    ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0

    นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง

    PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว

    ข้อมูลสำคัญจากข่าว
    PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง
    แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16
    สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว
    คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028

    เทคโนโลยีและการออกแบบ
    ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า
    มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ
    เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน
    ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง

    ข้อมูลเสริมจากภายนอก
    PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน
    การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM
    การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป
    PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก

    https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    🚀 “PCIe 8.0 มาแน่ปี 2028 — แบนด์วิดท์ทะลุ 1 TB/s พร้อมเปิดฉากยุคใหม่ของการเชื่อมต่ออุปกรณ์ความเร็วสูง” PCI-SIG ได้ประกาศความคืบหน้าครั้งสำคัญของมาตรฐาน PCI Express รุ่นถัดไป โดย PCIe 8.0 จะสามารถส่งข้อมูลได้ถึง 256 GT/s ต่อทิศทาง ซึ่งเทียบเท่ากับแบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อตแบบ x16 เต็มรูปแบบ ขณะนี้สเปกเวอร์ชัน 0.3 ได้ถูกปล่อยให้สมาชิกองค์กรตรวจสอบแล้ว ถือเป็นก้าวแรกของการพัฒนาที่คาดว่าจะเสร็จสมบูรณ์ในปี 2028 โดย PCIe 8.0 จะยังคงใช้เทคนิคการส่งสัญญาณแบบ PAM4 เช่นเดียวกับ PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้นเป็นสองเท่าเมื่อเทียบกับ PCIe 7.0 และมากกว่าสี่เท่าเมื่อเทียบกับ PCIe 6.0 นอกจากความเร็วแล้ว ทีมวิศวกรยังเน้นเรื่องการใช้พลังงานอย่างมีประสิทธิภาพ การปรับปรุงโปรโตคอล และการออกแบบหัวเชื่อมต่อใหม่เพื่อรองรับการใช้งานในอนาคต โดยเฉพาะการเชื่อมต่อแบบออปติกที่กำลังถูกพิจารณาอย่างจริงจัง เพราะสามารถลดการใช้พลังงานและขยายระยะการเชื่อมต่อได้ แต่ยังมีข้อจำกัดด้านต้นทุนและความเข้ากันได้ที่ต้องแก้ไขก่อนนำมาใช้จริง PCIe 8.0 ถูกออกแบบมาเพื่อรองรับงานที่ต้องการแบนด์วิดท์สูงมาก เช่น AI/ML, Quantum Computing, Edge และระบบเครือข่ายความเร็วสูง โดยผู้ผลิตฮาร์ดแวร์เริ่มวางแผนการออกแบบชิป สวิตช์ และระบบที่จะใช้ประโยชน์จากมาตรฐานใหม่นี้แล้ว ✅ ข้อมูลสำคัญจากข่าว ➡️ PCIe 8.0 จะมีความเร็วสูงสุด 256 GT/s ต่อทิศทาง ➡️ แบนด์วิดท์รวมแบบ bidirectional สูงสุดถึง 1 TB/s เมื่อใช้สล็อต x16 ➡️ สเปกเวอร์ชัน 0.3 ถูกปล่อยให้สมาชิกตรวจสอบแล้ว ➡️ คาดว่าจะเปิดตัวเวอร์ชันเต็มในปี 2028 ✅ เทคโนโลยีและการออกแบบ ➡️ ใช้ PAM4 signaling เหมือน PCIe 6.0 และ 7.0 แต่เพิ่มอัตราบิตขึ้น 2 เท่า ➡️ มีการพิจารณาใช้การเชื่อมต่อแบบออปติกเพื่อลดพลังงานและเพิ่มระยะ ➡️ เน้นการปรับปรุงโปรโตคอลและประสิทธิภาพพลังงาน ➡️ ออกแบบให้รองรับงาน AI, HPC, Edge, Quantum และเครือข่ายความเร็วสูง ✅ ข้อมูลเสริมจากภายนอก ➡️ PCIe 7.0 เปิดตัวในปี 2025 และ PCIe 6.0 ยังอยู่ในช่วงเริ่มใช้งาน ➡️ การเชื่อมต่อแบบออปติกอาจใช้หัวเชื่อมแบบ MPO/MTP และเทคนิค WDM ➡️ การพัฒนา PCIe 8.0 จะส่งผลต่อเซิร์ฟเวอร์และดาต้าเซ็นเตอร์ก่อนเข้าสู่ตลาดผู้ใช้ทั่วไป ➡️ PCIe 8.0 x1 จะมีความเร็วเทียบเท่ากับ PCIe 5.0 x8 ซึ่งเหมาะกับอุปกรณ์ขนาดเล็ก https://www.techpowerup.com/341169/pci-sig-confirms-pcie-8-0-will-deliver-1-tb-s-bidirectional-bandwidth-first-spec-draft-now-available
    WWW.TECHPOWERUP.COM
    PCI-SIG Confirms PCIe 8.0 Will Deliver 1 TB/s Bidirectional Bandwidth, First Spec Draft Now Available
    PCI-SIG has announced a clear step forward for peripheral connectivity: PCIe 8.0 is being developed to run at 256 GT/s, which translates to about 512 GB/s in each direction and roughly 1 TB/s of simultaneous bidirectional bandwidth in a full x16 slot. Version 0.3 of the PCIe 8.0 specification has be...
    0 Comments 0 Shares 89 Views 0 Reviews
  • “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่”

    ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps

    หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที

    อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป

    ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่

    ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference

    ข้อมูลสำคัญจากข่าว
    Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin
    ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack
    Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack
    SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต

    การแข่งขันและกลยุทธ์
    Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน
    Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps
    AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์
    CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ

    ข้อมูลเสริมจากภายนอก
    JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน
    การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต
    Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร
    การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น

    https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    ⚡ “Nvidia เร่งดัน HBM4 ความเร็ว 10Gbps รับมือ AMD MI450 — เมื่อสงครามแบนด์วิดท์กลายเป็นเดิมพันของ AI ยุคใหม่” ในปี 2025 Nvidia กำลังเดินเกมรุกเพื่อเตรียมรับมือกับการเปิดตัวแพลตฟอร์ม MI450 Helios ของ AMD ที่จะมาถึงในปี 2026 โดยเน้นไปที่การเพิ่มความเร็วของหน่วยความจำ HBM4 ให้สูงถึง 10Gbps ต่อพิน ซึ่งมากกว่ามาตรฐานของ JEDEC ที่กำหนดไว้ที่ 8Gbps หากสำเร็จ ความเร็วนี้จะทำให้แบนด์วิดท์ต่อ stack เพิ่มจาก 2TB/s เป็น 2.56TB/s และเมื่อใช้ 6 stack ต่อ GPU จะได้แบนด์วิดท์รวมถึง 15TB/s ซึ่งเป็นตัวเลขที่น่าทึ่งสำหรับงาน AI inference ขนาดใหญ่ โดยเฉพาะในแพลตฟอร์ม Rubin CPX ที่ออกแบบมาเพื่อการประมวลผลระดับ petabyte ต่อวินาที อย่างไรก็ตาม การผลักดันความเร็วนี้ไม่ใช่เรื่องง่าย เพราะยิ่งเร็วก็ยิ่งต้องใช้พลังงานมากขึ้น มีข้อจำกัดด้าน timing และความเสถียรของ base die ซึ่งทำให้ Nvidia อาจต้องแบ่งรุ่น Rubin ออกเป็นหลายระดับ โดยใช้ HBM4 ที่เร็วที่สุดเฉพาะในรุ่น CPX และใช้รุ่นมาตรฐานในรุ่นทั่วไป ในด้านซัพพลายเออร์ SK hynix ยังคงเป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia แต่ Samsung กำลังเร่งพัฒนา base die ด้วยเทคโนโลยี 4nm FinFET ซึ่งอาจให้ความเร็วสูงกว่าและใช้พลังงานน้อยลง ส่วน Micron ก็เริ่มส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันว่าจะถึง 10Gbps หรือไม่ ฝั่ง AMD ก็ไม่น้อยหน้า โดย MI450 จะใช้ HBM4 สูงสุดถึง 432GB ต่อ GPU ซึ่งเน้นความจุมากกว่าแบนด์วิดท์ และมาพร้อมสถาปัตยกรรม CDNA 4 ที่ออกแบบมาเพื่อแข่งขันกับ Rubin โดยตรงในงาน inference ✅ ข้อมูลสำคัญจากข่าว ➡️ Nvidia กำลังผลักดัน HBM4 ให้เร็วถึง 10Gbps ต่อพิน เพื่อใช้ในแพลตฟอร์ม Rubin ➡️ ความเร็วนี้จะให้แบนด์วิดท์สูงถึง 15TB/s ต่อ GPU เมื่อใช้ 6 stack ➡️ Rubin CPX มีเป้าหมายแบนด์วิดท์รวม 1.7PB/s ต่อ rack ➡️ SK hynix เป็นผู้ผลิตหลักของ HBM4 ให้ Nvidia ในช่วงแรกของการผลิต ✅ การแข่งขันและกลยุทธ์ ➡️ Samsung พัฒนา base die ด้วยเทคโนโลยี 4nm FinFET เพื่อเพิ่มความเร็วและลดพลังงาน ➡️ Micron ส่งตัวอย่าง HBM4 ที่มีแบนด์วิดท์เกิน 2TB/s แต่ยังไม่ยืนยันความเร็ว 10Gbps ➡️ AMD MI450 ใช้ HBM4 สูงสุด 432GB ต่อ GPU เน้นความจุมากกว่าแบนด์วิดท์ ➡️ CDNA 4 ของ AMD ออกแบบมาเพื่อแข่งขันกับ Rubin ในงาน inference โดยเฉพาะ ✅ ข้อมูลเสริมจากภายนอก ➡️ JEDEC กำหนดมาตรฐาน HBM4 ที่ 8Gbps ต่อพิน ➡️ การเพิ่มความเร็ว I/O ส่งผลต่อพลังงาน ความร้อน และ yield ของการผลิต ➡️ Nvidia อาจแบ่งรุ่น Rubin ตามระดับความเร็วของ HBM4 เพื่อควบคุมต้นทุนและความเสถียร ➡️ การรับรองซัพพลายเออร์แบบแบ่งเฟสช่วยให้ Nvidia ขยายการผลิตได้อย่างยืดหยุ่น https://www.tomshardware.com/pc-components/gpus/nvidia-wants-10gbps-hbm4-to-rival-amd-mi450
    WWW.TOMSHARDWARE.COM
    Nvidia wants 10Gbps HBM4 to blunt AMD’s MI450, report claims — company said to be pushing suppliers for more bandwidth
    Nvidia’s Rubin platform bets big on 10Gb/s HBM4, but speed brings supply risk, and AMD’s MI450 is around the corner.
    0 Comments 0 Shares 75 Views 0 Reviews
  • “Athlon 3000G กลับมาอีกครั้งในปี 2025 — ซีพียู Zen รุ่นเล็กที่ยังไม่ยอมเกษียณ พร้อมแพ็กเกจใหม่และพัดลมอัปเกรด”

    แม้จะเปิดตัวมาตั้งแต่ปี 2019 แต่ AMD ก็ยังไม่ยอมปล่อยให้ Athlon 3000G หายไปจากตลาด ล่าสุดในปี 2025 มีการรีลอนช์ซีพียูรุ่นนี้อีกครั้งในญี่ปุ่น ด้วยแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง โดยใช้หมายเลขชิ้นส่วน YD3000C6FHSBX ซึ่งบ่งบอกว่าเป็นเวอร์ชันที่ใช้ “Dali die” — สถาปัตยกรรมที่แยกออกมาจาก Raven Ridge และผลิตด้วยกระบวนการ 14nm เช่นเดิม

    Athlon 3000G เป็นซีพียูแบบ dual-core ที่ปลดล็อกการโอเวอร์คล็อก มี 4 threads, L3 cache ขนาด 4MB, TDP 35W และความเร็วพื้นฐาน 3.5GHz พร้อมกราฟิกในตัว Vega 3 ที่มี 192 คอร์ และความเร็ว 1.1GHz แม้จะเป็นรุ่นเล็ก แต่ก็ยังสามารถใช้งานทั่วไปได้ดี โดยเฉพาะในงานสำนักงานหรือเครื่อง HTPC

    สิ่งที่น่าสนใจคือ แม้จะเป็นซีพียู AM4 แต่ Athlon 3000G ไม่สามารถใช้งานร่วมกับเมนบอร์ดชิปเซ็ต B550 และ A520 ได้ในหลายกรณี เนื่องจากพื้นที่เฟิร์มแวร์ของเมนบอร์ดรุ่นใหม่ไม่รองรับซีพียูเก่าอย่างเต็มรูปแบบ และบางรุ่นไม่มี microcode สำหรับรุ่นนี้เลย

    AMD ไม่ใช่รายเดียวที่ใช้กลยุทธ์รีลอนช์ซีพียูเก่า — Intel ก็เพิ่งเปิดตัว Core i5-110 ที่ใช้สถาปัตยกรรม Comet Lake 14nm เช่นกัน ซึ่งแสดงให้เห็นว่าตลาดยังมีความต้องการซีพียูราคาประหยัดสำหรับงานพื้นฐานอยู่เสมอ

    ข้อมูลสำคัญจากข่าว
    AMD รีลอนช์ Athlon 3000G ในปี 2025 พร้อมแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง
    ใช้ Dali die ซึ่งเป็นสถาปัตยกรรมแยกจาก Raven Ridge แต่ยังอยู่บนกระบวนการผลิต 14nm
    สเปกหลัก: 2 คอร์ 4 เธรด, L3 cache 4MB, TDP 35W, ความเร็ว 3.5GHz
    มาพร้อม iGPU Vega 3: 192 คอร์, ความเร็ว 1.1GHz

    ความเคลื่อนไหวในตลาด
    วางจำหน่ายในญี่ปุ่นที่ราคา ¥5,790 หรือประมาณ $40
    AMD เคยเปิดตัวเวอร์ชันใหม่ในปี 2023 โดยใช้ die Dali เช่นกัน
    Intel ก็ใช้กลยุทธ์คล้ายกันกับ Core i5-110 ที่ใช้สถาปัตยกรรมเก่า
    Ryzen 5 5500X3D และ 5600F ก็เป็นตัวอย่างของซีพียูที่ล็อกเฉพาะภูมิภาค

    ข้อมูลเสริมจากภายนอก
    Athlon 3000G มีหลายเวอร์ชัน เช่น Raven Ridge และ Picasso ซึ่งอาจมีผลต่อการรองรับ Windows 11
    บางเวอร์ชันมี CPUID ต่างกัน ทำให้การตรวจสอบผ่าน CPU-Z อาจแสดงผลไม่ตรงกัน2
    Dali die มีเพียง 2 คอร์จริง ต่างจาก Raven Ridge ที่มี 4 คอร์แต่ปิดไป 2 คอร์
    Vega 3 iGPU ยังสามารถใช้งานทั่วไปได้ดี แม้จะไม่เหมาะกับเกมหนัก

    https://www.tomshardware.com/pc-components/cpus/amd-relaunches-usd40-athlon-3000g-cpu-with-new-packaging-and-cooler-zen-refuses-to-retire-even-in-2025
    🧊 “Athlon 3000G กลับมาอีกครั้งในปี 2025 — ซีพียู Zen รุ่นเล็กที่ยังไม่ยอมเกษียณ พร้อมแพ็กเกจใหม่และพัดลมอัปเกรด” แม้จะเปิดตัวมาตั้งแต่ปี 2019 แต่ AMD ก็ยังไม่ยอมปล่อยให้ Athlon 3000G หายไปจากตลาด ล่าสุดในปี 2025 มีการรีลอนช์ซีพียูรุ่นนี้อีกครั้งในญี่ปุ่น ด้วยแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง โดยใช้หมายเลขชิ้นส่วน YD3000C6FHSBX ซึ่งบ่งบอกว่าเป็นเวอร์ชันที่ใช้ “Dali die” — สถาปัตยกรรมที่แยกออกมาจาก Raven Ridge และผลิตด้วยกระบวนการ 14nm เช่นเดิม Athlon 3000G เป็นซีพียูแบบ dual-core ที่ปลดล็อกการโอเวอร์คล็อก มี 4 threads, L3 cache ขนาด 4MB, TDP 35W และความเร็วพื้นฐาน 3.5GHz พร้อมกราฟิกในตัว Vega 3 ที่มี 192 คอร์ และความเร็ว 1.1GHz แม้จะเป็นรุ่นเล็ก แต่ก็ยังสามารถใช้งานทั่วไปได้ดี โดยเฉพาะในงานสำนักงานหรือเครื่อง HTPC สิ่งที่น่าสนใจคือ แม้จะเป็นซีพียู AM4 แต่ Athlon 3000G ไม่สามารถใช้งานร่วมกับเมนบอร์ดชิปเซ็ต B550 และ A520 ได้ในหลายกรณี เนื่องจากพื้นที่เฟิร์มแวร์ของเมนบอร์ดรุ่นใหม่ไม่รองรับซีพียูเก่าอย่างเต็มรูปแบบ และบางรุ่นไม่มี microcode สำหรับรุ่นนี้เลย AMD ไม่ใช่รายเดียวที่ใช้กลยุทธ์รีลอนช์ซีพียูเก่า — Intel ก็เพิ่งเปิดตัว Core i5-110 ที่ใช้สถาปัตยกรรม Comet Lake 14nm เช่นกัน ซึ่งแสดงให้เห็นว่าตลาดยังมีความต้องการซีพียูราคาประหยัดสำหรับงานพื้นฐานอยู่เสมอ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD รีลอนช์ Athlon 3000G ในปี 2025 พร้อมแพ็กเกจใหม่และพัดลม Wraith รุ่นปรับปรุง ➡️ ใช้ Dali die ซึ่งเป็นสถาปัตยกรรมแยกจาก Raven Ridge แต่ยังอยู่บนกระบวนการผลิต 14nm ➡️ สเปกหลัก: 2 คอร์ 4 เธรด, L3 cache 4MB, TDP 35W, ความเร็ว 3.5GHz ➡️ มาพร้อม iGPU Vega 3: 192 คอร์, ความเร็ว 1.1GHz ✅ ความเคลื่อนไหวในตลาด ➡️ วางจำหน่ายในญี่ปุ่นที่ราคา ¥5,790 หรือประมาณ $40 ➡️ AMD เคยเปิดตัวเวอร์ชันใหม่ในปี 2023 โดยใช้ die Dali เช่นกัน ➡️ Intel ก็ใช้กลยุทธ์คล้ายกันกับ Core i5-110 ที่ใช้สถาปัตยกรรมเก่า ➡️ Ryzen 5 5500X3D และ 5600F ก็เป็นตัวอย่างของซีพียูที่ล็อกเฉพาะภูมิภาค ✅ ข้อมูลเสริมจากภายนอก ➡️ Athlon 3000G มีหลายเวอร์ชัน เช่น Raven Ridge และ Picasso ซึ่งอาจมีผลต่อการรองรับ Windows 11 ➡️ บางเวอร์ชันมี CPUID ต่างกัน ทำให้การตรวจสอบผ่าน CPU-Z อาจแสดงผลไม่ตรงกัน2 ➡️ Dali die มีเพียง 2 คอร์จริง ต่างจาก Raven Ridge ที่มี 4 คอร์แต่ปิดไป 2 คอร์ ➡️ Vega 3 iGPU ยังสามารถใช้งานทั่วไปได้ดี แม้จะไม่เหมาะกับเกมหนัก https://www.tomshardware.com/pc-components/cpus/amd-relaunches-usd40-athlon-3000g-cpu-with-new-packaging-and-cooler-zen-refuses-to-retire-even-in-2025
    WWW.TOMSHARDWARE.COM
    AMD relaunches $40 dual-core Athlon 3000G CPU with new packaging and cooler — Zen refuses to retire even in 2025
    Despite being an AM4 CPU, stores have warned that the chip is not compatible with B550 and A520 chipset AM4 motherboards.
    0 Comments 0 Shares 85 Views 0 Reviews
  • ประเทศเราขนาดนี้เหรอนี้,ถ้าจริง สถาบันการเลือกตั้งอันตรายมาก,เสมือนถูกแทรกแซงให้ภาคประชาชนอ่อนกำลังลงไปทุกที,สถาบันชาติคือประชาชน จะถูกทำลายโดยตัวแทนของภาคประชาชนที่ไม่ซื่อสัตย์แล้วทุจริตอำนาจตรงของประชาชน ไม่ดำรงตนไว้เพื่อปกป้องชาติคือประชาชนของประเทศไทยตนเองคือส่วนใหญ่ แต่ปกป้องผลประโยชน์นายทุนเจ้าสัวที่กอบโกยสาระพัดอย่างจากอิงอำนาจนักการเมืองที่มาจากการเลือกตั้งของประชาชน เสมือนเจ้าของกิจการเหล่านี้ปล้นความมั่งคงของภาคประชาชนทางตรงและทางอ้อมผ่านอำนาจการปกครอง ไม่ว่าจะในนามเอกชนไทยและเอกชนต่างชาติที่มาในสาระพัดรูปแบบที่ลงทุนในไทยแล้วกอบโกยรายได้รายรับมหาศาลออกจากแผ่นดินไทยของประชาชนคนไทยที่อำนาจรัฐไปยกสิทธิที่ไทยเสียเปรียบคือประชาชนเสียเปรียบในการมีตังมีเงินมากมายมหาศาลต้องถูกปล้นชิงแย่งชิงผูกขาดเอาำปจากประชาชนคนไทยซึ่งมาจากเอกชนไทยเองเจ้าสังเจ้าของกิจการบริษัทแม่บริษัทลูกน้อยใหญ่แตกไลน์สาขาออกมาเพื่อช่วงชิงความได้เปรียบจากประชาชนธรรมดาไปและเอกชนต่างชาติทั้งหมดด้วย,
    ..นี้คือการทำลายอิสระเจตจำนงเสรีของการดำเนินชีวิตของประชาชนไทยชัดเจน,ไม่ยอมยกเลิกmou43,44,tor46อีก,สามารถประกาศในนามนายกฯที่32เองแต่ผู้เดียวในอำนาจเต็มตนว่าจะยกเลิกmouนี้ทันที และตนในนามนายกฯประเทศไทยจะรับผิดชอบแต่เพียงผู้เดียวหากมีอะไรเกิดขึ้น แต่ในนามนายกฯไทยพิจารณาชัดเจนแล้วว่าสามารถยกเลิกฝ่ายเดียวได้สิทธิขาดได้ซึ่งเพื่อปกป้องดินแดนอธิปไตยไทยเหนือสูงสุดอื่นใดไว้ก่อน,พร้อมมีหลักเขตแดน1:1ชัดเจน74เสาปักหมุดเขตแดนไว้แล้ว.,mouนี้เป็นอันโมฆะไป,นี้นายกฯไทยต้องแบบนี้,เมื่อสิทธิขาดหนังหน้ามีอำนาจยุบสภาฯได้พะสายกเลิกmou ไม่มีครม.ห่าเหวอะไรก็ได้ ประชาชนยืนข้างนายกฯทั้งประเทศอยู่แล้ว สมัยหน้าคนไทยทั้งประเทศกาเลือกอีกล่ะ,สำคัญคือกล้ามั้ย เก่งมั้ย ใจถึงมั้ย หรือขี้ขลาดตาขาว เอาผลประโยชน์ส่วนตัวเป็นที่ตั้ง,ถ้าเป็นเช่นนั้น เชื่อว่ากรรมติดจรวดมาอย่างรวดเร็วแน่นอน,กูรูดีๆเก่งๆเขาไม่เอาไว้เช่นกัน รวมถึงประชาชนด้วย,สื่อทำหน้าที่ด้วย เจ้าสัวใหญ่โตทำผิดต้องมีจิตสำนึกรายงานข่าวความเป็นจริงด้วย หน่วยงานด่านมีข้อมูลสามารถให้ข้อมูลสื่อได้ ไม่เป็นความลับอะไรหรอก,,กฎหมายหมิ่นประมาทสมควรยกเลิกอย่างยิ่ง.

    https://youtube.com/shorts/E22zAM4RPBI?si=wuxycG9I8IlAWOAb
    ประเทศเราขนาดนี้เหรอนี้,ถ้าจริง สถาบันการเลือกตั้งอันตรายมาก,เสมือนถูกแทรกแซงให้ภาคประชาชนอ่อนกำลังลงไปทุกที,สถาบันชาติคือประชาชน จะถูกทำลายโดยตัวแทนของภาคประชาชนที่ไม่ซื่อสัตย์แล้วทุจริตอำนาจตรงของประชาชน ไม่ดำรงตนไว้เพื่อปกป้องชาติคือประชาชนของประเทศไทยตนเองคือส่วนใหญ่ แต่ปกป้องผลประโยชน์นายทุนเจ้าสัวที่กอบโกยสาระพัดอย่างจากอิงอำนาจนักการเมืองที่มาจากการเลือกตั้งของประชาชน เสมือนเจ้าของกิจการเหล่านี้ปล้นความมั่งคงของภาคประชาชนทางตรงและทางอ้อมผ่านอำนาจการปกครอง ไม่ว่าจะในนามเอกชนไทยและเอกชนต่างชาติที่มาในสาระพัดรูปแบบที่ลงทุนในไทยแล้วกอบโกยรายได้รายรับมหาศาลออกจากแผ่นดินไทยของประชาชนคนไทยที่อำนาจรัฐไปยกสิทธิที่ไทยเสียเปรียบคือประชาชนเสียเปรียบในการมีตังมีเงินมากมายมหาศาลต้องถูกปล้นชิงแย่งชิงผูกขาดเอาำปจากประชาชนคนไทยซึ่งมาจากเอกชนไทยเองเจ้าสังเจ้าของกิจการบริษัทแม่บริษัทลูกน้อยใหญ่แตกไลน์สาขาออกมาเพื่อช่วงชิงความได้เปรียบจากประชาชนธรรมดาไปและเอกชนต่างชาติทั้งหมดด้วย, ..นี้คือการทำลายอิสระเจตจำนงเสรีของการดำเนินชีวิตของประชาชนไทยชัดเจน,ไม่ยอมยกเลิกmou43,44,tor46อีก,สามารถประกาศในนามนายกฯที่32เองแต่ผู้เดียวในอำนาจเต็มตนว่าจะยกเลิกmouนี้ทันที และตนในนามนายกฯประเทศไทยจะรับผิดชอบแต่เพียงผู้เดียวหากมีอะไรเกิดขึ้น แต่ในนามนายกฯไทยพิจารณาชัดเจนแล้วว่าสามารถยกเลิกฝ่ายเดียวได้สิทธิขาดได้ซึ่งเพื่อปกป้องดินแดนอธิปไตยไทยเหนือสูงสุดอื่นใดไว้ก่อน,พร้อมมีหลักเขตแดน1:1ชัดเจน74เสาปักหมุดเขตแดนไว้แล้ว.,mouนี้เป็นอันโมฆะไป,นี้นายกฯไทยต้องแบบนี้,เมื่อสิทธิขาดหนังหน้ามีอำนาจยุบสภาฯได้พะสายกเลิกmou ไม่มีครม.ห่าเหวอะไรก็ได้ ประชาชนยืนข้างนายกฯทั้งประเทศอยู่แล้ว สมัยหน้าคนไทยทั้งประเทศกาเลือกอีกล่ะ,สำคัญคือกล้ามั้ย เก่งมั้ย ใจถึงมั้ย หรือขี้ขลาดตาขาว เอาผลประโยชน์ส่วนตัวเป็นที่ตั้ง,ถ้าเป็นเช่นนั้น เชื่อว่ากรรมติดจรวดมาอย่างรวดเร็วแน่นอน,กูรูดีๆเก่งๆเขาไม่เอาไว้เช่นกัน รวมถึงประชาชนด้วย,สื่อทำหน้าที่ด้วย เจ้าสัวใหญ่โตทำผิดต้องมีจิตสำนึกรายงานข่าวความเป็นจริงด้วย หน่วยงานด่านมีข้อมูลสามารถให้ข้อมูลสื่อได้ ไม่เป็นความลับอะไรหรอก,,กฎหมายหมิ่นประมาทสมควรยกเลิกอย่างยิ่ง. https://youtube.com/shorts/E22zAM4RPBI?si=wuxycG9I8IlAWOAb
    0 Comments 0 Shares 182 Views 0 Reviews
  • 5 ไอเดียสุดสร้างสรรค์สำหรับ Raspberry Pi เครื่องเก่าของคุณ — เปลี่ยนบอร์ดเล็กให้กลายเป็นอุปกรณ์ทรงพลัง

    แม้ Raspberry Pi รุ่นเก่าจะดูธรรมดาเมื่อเทียบกับรุ่นใหม่อย่าง Pi 5 ที่มีพัดลมในตัว แต่ความสามารถของมันยังคงน่าทึ่ง หากคุณมีบอร์ดที่นอนนิ่งอยู่ในลิ้นชัก ลองนำมันกลับมาใช้ใหม่ด้วยโปรเจกต์ที่ทั้งสนุกและมีประโยชน์ ไม่ว่าจะเป็นการสร้างเราเตอร์พกพา สถานีตรวจอากาศ หรือแม้แต่เซิร์ฟเวอร์เกมส่วนตัว

    บทความนี้แนะนำ 5 โปรเจกต์ที่น่าสนใจ ซึ่งสามารถทำได้แม้ใช้ Raspberry Pi รุ่นเก่า โดยแต่ละโปรเจกต์มีแนวทางการใช้งานที่แตกต่างกัน ตั้งแต่การใช้ OpenWrt เพื่อสร้างเราเตอร์ ไปจนถึงการติดตั้ง Pi-hole เพื่อบล็อกโฆษณาทั้งเครือข่าย

    สร้างเราเตอร์พกพาด้วย Raspberry Pi
    ใช้ Raspberry Pi CM4 ร่วมกับโมเด็ม 4G และ OpenWrt
    สามารถทำงานได้ใกล้เคียงกับเราเตอร์ Verizon Hotspot
    เหมาะสำหรับการเดินทางหรือใช้แทนเราเตอร์บ้านที่ล้าสมัย

    สร้างสถานีตรวจอากาศส่วนตัว
    ใช้ Raspberry Pi Zero W ร่วมกับ Weather HAT หรือเซ็นเซอร์แยก
    แสดงข้อมูลบนหน้าจอและสร้างแดชบอร์ดออนไลน์ได้
    ช่วยให้เข้าใจสภาพอากาศในพื้นที่ของตนเองมากขึ้น

    เปลี่ยน Pi ให้เป็นเซิร์ฟเวอร์เกม Minecraft
    ใช้ Raspberry Pi 3 หรือ 4 ติดตั้ง Nukkit server
    รองรับผู้เล่นสูงสุด 10 คนในเครือข่ายเดียวกัน
    เหมาะสำหรับเกมที่ใช้ทรัพยากรต่ำ เช่น Minecraft หรือเกมอินดี้

    ใช้ Pi เป็นอุปกรณ์สตรีมเกมผ่านคลาวด์
    ติดตั้ง Chromium เพื่อเข้าถึง Xbox Cloud Gaming หรือ Steam Link
    เชื่อมต่อกับทีวีผ่าน HDMI เพื่อเล่นเกมแบบสตรีม
    แนะนำให้ใช้สาย LAN และจอยแบบมีสายเพื่อลด latency

    ติดตั้ง Pi-hole เพื่อบล็อกโฆษณาทั้งเครือข่าย
    กรองโดเมนโฆษณาและมัลแวร์ก่อนถึงอุปกรณ์
    ใช้งานง่ายและสามารถตั้งค่าได้ภายในไม่กี่ชั่วโมง
    เหมาะสำหรับบ้านที่มีหลายอุปกรณ์และต้องการความปลอดภัย

    https://www.slashgear.com/1967517/creative-uses-for-old-raspberry-pi/
    📰 5 ไอเดียสุดสร้างสรรค์สำหรับ Raspberry Pi เครื่องเก่าของคุณ — เปลี่ยนบอร์ดเล็กให้กลายเป็นอุปกรณ์ทรงพลัง แม้ Raspberry Pi รุ่นเก่าจะดูธรรมดาเมื่อเทียบกับรุ่นใหม่อย่าง Pi 5 ที่มีพัดลมในตัว แต่ความสามารถของมันยังคงน่าทึ่ง หากคุณมีบอร์ดที่นอนนิ่งอยู่ในลิ้นชัก ลองนำมันกลับมาใช้ใหม่ด้วยโปรเจกต์ที่ทั้งสนุกและมีประโยชน์ ไม่ว่าจะเป็นการสร้างเราเตอร์พกพา สถานีตรวจอากาศ หรือแม้แต่เซิร์ฟเวอร์เกมส่วนตัว บทความนี้แนะนำ 5 โปรเจกต์ที่น่าสนใจ ซึ่งสามารถทำได้แม้ใช้ Raspberry Pi รุ่นเก่า โดยแต่ละโปรเจกต์มีแนวทางการใช้งานที่แตกต่างกัน ตั้งแต่การใช้ OpenWrt เพื่อสร้างเราเตอร์ ไปจนถึงการติดตั้ง Pi-hole เพื่อบล็อกโฆษณาทั้งเครือข่าย ✅ สร้างเราเตอร์พกพาด้วย Raspberry Pi ➡️ ใช้ Raspberry Pi CM4 ร่วมกับโมเด็ม 4G และ OpenWrt ➡️ สามารถทำงานได้ใกล้เคียงกับเราเตอร์ Verizon Hotspot ➡️ เหมาะสำหรับการเดินทางหรือใช้แทนเราเตอร์บ้านที่ล้าสมัย ✅ สร้างสถานีตรวจอากาศส่วนตัว ➡️ ใช้ Raspberry Pi Zero W ร่วมกับ Weather HAT หรือเซ็นเซอร์แยก ➡️ แสดงข้อมูลบนหน้าจอและสร้างแดชบอร์ดออนไลน์ได้ ➡️ ช่วยให้เข้าใจสภาพอากาศในพื้นที่ของตนเองมากขึ้น ✅ เปลี่ยน Pi ให้เป็นเซิร์ฟเวอร์เกม Minecraft ➡️ ใช้ Raspberry Pi 3 หรือ 4 ติดตั้ง Nukkit server ➡️ รองรับผู้เล่นสูงสุด 10 คนในเครือข่ายเดียวกัน ➡️ เหมาะสำหรับเกมที่ใช้ทรัพยากรต่ำ เช่น Minecraft หรือเกมอินดี้ ✅ ใช้ Pi เป็นอุปกรณ์สตรีมเกมผ่านคลาวด์ ➡️ ติดตั้ง Chromium เพื่อเข้าถึง Xbox Cloud Gaming หรือ Steam Link ➡️ เชื่อมต่อกับทีวีผ่าน HDMI เพื่อเล่นเกมแบบสตรีม ➡️ แนะนำให้ใช้สาย LAN และจอยแบบมีสายเพื่อลด latency ✅ ติดตั้ง Pi-hole เพื่อบล็อกโฆษณาทั้งเครือข่าย ➡️ กรองโดเมนโฆษณาและมัลแวร์ก่อนถึงอุปกรณ์ ➡️ ใช้งานง่ายและสามารถตั้งค่าได้ภายในไม่กี่ชั่วโมง ➡️ เหมาะสำหรับบ้านที่มีหลายอุปกรณ์และต้องการความปลอดภัย https://www.slashgear.com/1967517/creative-uses-for-old-raspberry-pi/
    WWW.SLASHGEAR.COM
    5 Creative Uses For Your Old Raspberry Pi - SlashGear
    Turn an unused Raspberry Pi into something useful with projects like a travel router, weather station, game server, streaming hub, or ad blocker.
    0 Comments 0 Shares 130 Views 0 Reviews
  • คนไทยเราจริงๆระดับมันสมองไม่แพ้ใครในโลกนะ,เอาง่ายๆ มวยไทย กับกังฟูจีนที่อวดโชว์ไทยว่าสุดยอดเหนือการต่อสู้คนไทย เอาเข้าจริงแบบไม่หักแม่ไม้อาวุธเข่าศอกเราออก แบบจัดเต็มเหมือนกังฟู ,จีนก็จีนเถอะหลับตั้งแต่ยกแรกกันเลย, ศักยภาพคนไทยจึงไม่ธรรมดานะ,แต่นักการเมืองเราชั่ว ข้าราชการเราเลวมีมากเกินไป ไปนั่งในตำแหน่งหัวหน้ามากเกินไปจึงชั่วเลวเป็นอันมากซวยคือการพัฒนาการบุคคลในชาติเราเสื่อมถอยลง,เช่นมีบ่อน้ำมันเต็มประเทศก็ไปยกให้อเมริกาให้ฝรั่งให้ต่างชาติมากมายเสีย ,ทำเองขายเองลงทุนเอง ค่อยๆทำค่อยๆสร้าง จ้างบริษัทต่างชาติอื่นมาทำให้ เนื้อปิโตรเลียมก็เป็นของไทย ขายเอง จ่ายค่าจ้างไปเหลือเก็บกว่าสิบล้านล้านบาทต่อปี,มีตังมาพัฒนาบุคลากรคนไทย ส่งเสริมองค์เรียนรู้คนไทยต่อยอดนวัตกรรมด้วยเงินทุนเราเองมหาศาล ทำสิบๆปีตั้งแต่ปี2523ขุดจริงขายจริง2525-2530 นับจากปี30ถึงปี68ก็38ปีๆละเฉลี่ยต่ำๆคือ5ล้านล้านบาทก็เป็นเงินคือ190ล้านล้านบาท เงินน้อยๆที่ไหนเข้าคลังหลวงของประเทศ ไม่รวมบ่อทองคำ เพชรพลอยแร่ธาตุต่างๆอีกตรึม,นี้คือกระบวนการขายชาติขายบ้านขายเมืองขายวัตถุดิบพัฒนาชาติให้เจริญรุ่งเรืองชัดเจน,
    ..ขุดคลองคอดกระ ทำแลนด์บริดจ์เงินทุนเราเหลือล้นที่จะสร้างจะทำ,นี้คือการปกครองที่เลวที่ชั่วของจริงถึงปัจจุบันและไม่ยอมแก้ไขสิ่งที่ผิดพลาดห่าเหวอะไรจริง,สัญญาปีศาจซาตานนี้ต้องเผาไฟทิ้งโมฆะทันที,ยุคฝรั่งเอาเปรียบ ต่างชาติต่างประเทศเอาเปรียบชิงได้เปรียบรังแกชาติอื่นต้องจบไปได้แล้ว.,ยุคล่าอาณานิคมยังจบไป,ยุคปล้นชิงแย่งชิงทรัพยากรชาติอื่นอย่างเอารัดเอาเปรียบผ่านสัญญาชั่วเลวนี้ต้องจบไปด้วยเช่นกัน.

    ..เยาวชนไทย ครูบาอาจารย์คนไทยเราไม่กากนะ,อาจเชื่อมจิตติดต่อนวัตกรรมต่างดาวแลกเปลี่ยนกันได้,ที่ล้ำๆไปอีก,หรือระบบโหลดองค์รู้สาระพัดผ่านคนเขากะลาประมาณนั้น,อยากรู้อะไรก็รู้หมด บางคนรู้วงจรชีวิตเขาคนอื่นโน้น ทำนั้นทำนี้มาผืดถูกชั่วเลวรู้หมดแต่เขาไปพูด,ภูมิจักรวาลสายมูกายมนุษย์ธรรมดา มิใช่สายบรรลุธรรมนิพพานนักบวชก็ว่า,ไทยเราถ้าจะทำอะไรไม่แพ้ใครหรอก,อยากเกิดก็เปิดมา ประมาณนั้น,อนาคตเพื่อปกป้องตนเอง เราอาจเริ่มผลิตยานรบอวกาศจริงจังด้วย ปืนลำแสงผ่านดาวเทียม ระเบิดEMPทำลายวงจรAIทั้งหมดนั้นเอง.,ซึ่งใช้ระเบิดโดรนศัตรูก็ได้,ลำแสงระเบิดEMPก็ว่า,ความถี่พิเศษมีพลังงานทำลายล้างด้วยในตัวผ่านคลื่น.



    https://youtube.com/watch?v=iYwyhs2m40k&si=dHKjVDFF_1s7CdTG
    คนไทยเราจริงๆระดับมันสมองไม่แพ้ใครในโลกนะ,เอาง่ายๆ มวยไทย กับกังฟูจีนที่อวดโชว์ไทยว่าสุดยอดเหนือการต่อสู้คนไทย เอาเข้าจริงแบบไม่หักแม่ไม้อาวุธเข่าศอกเราออก แบบจัดเต็มเหมือนกังฟู ,จีนก็จีนเถอะหลับตั้งแต่ยกแรกกันเลย, ศักยภาพคนไทยจึงไม่ธรรมดานะ,แต่นักการเมืองเราชั่ว ข้าราชการเราเลวมีมากเกินไป ไปนั่งในตำแหน่งหัวหน้ามากเกินไปจึงชั่วเลวเป็นอันมากซวยคือการพัฒนาการบุคคลในชาติเราเสื่อมถอยลง,เช่นมีบ่อน้ำมันเต็มประเทศก็ไปยกให้อเมริกาให้ฝรั่งให้ต่างชาติมากมายเสีย ,ทำเองขายเองลงทุนเอง ค่อยๆทำค่อยๆสร้าง จ้างบริษัทต่างชาติอื่นมาทำให้ เนื้อปิโตรเลียมก็เป็นของไทย ขายเอง จ่ายค่าจ้างไปเหลือเก็บกว่าสิบล้านล้านบาทต่อปี,มีตังมาพัฒนาบุคลากรคนไทย ส่งเสริมองค์เรียนรู้คนไทยต่อยอดนวัตกรรมด้วยเงินทุนเราเองมหาศาล ทำสิบๆปีตั้งแต่ปี2523ขุดจริงขายจริง2525-2530 นับจากปี30ถึงปี68ก็38ปีๆละเฉลี่ยต่ำๆคือ5ล้านล้านบาทก็เป็นเงินคือ190ล้านล้านบาท เงินน้อยๆที่ไหนเข้าคลังหลวงของประเทศ ไม่รวมบ่อทองคำ เพชรพลอยแร่ธาตุต่างๆอีกตรึม,นี้คือกระบวนการขายชาติขายบ้านขายเมืองขายวัตถุดิบพัฒนาชาติให้เจริญรุ่งเรืองชัดเจน, ..ขุดคลองคอดกระ ทำแลนด์บริดจ์เงินทุนเราเหลือล้นที่จะสร้างจะทำ,นี้คือการปกครองที่เลวที่ชั่วของจริงถึงปัจจุบันและไม่ยอมแก้ไขสิ่งที่ผิดพลาดห่าเหวอะไรจริง,สัญญาปีศาจซาตานนี้ต้องเผาไฟทิ้งโมฆะทันที,ยุคฝรั่งเอาเปรียบ ต่างชาติต่างประเทศเอาเปรียบชิงได้เปรียบรังแกชาติอื่นต้องจบไปได้แล้ว.,ยุคล่าอาณานิคมยังจบไป,ยุคปล้นชิงแย่งชิงทรัพยากรชาติอื่นอย่างเอารัดเอาเปรียบผ่านสัญญาชั่วเลวนี้ต้องจบไปด้วยเช่นกัน. ..เยาวชนไทย ครูบาอาจารย์คนไทยเราไม่กากนะ,อาจเชื่อมจิตติดต่อนวัตกรรมต่างดาวแลกเปลี่ยนกันได้,ที่ล้ำๆไปอีก,หรือระบบโหลดองค์รู้สาระพัดผ่านคนเขากะลาประมาณนั้น,อยากรู้อะไรก็รู้หมด บางคนรู้วงจรชีวิตเขาคนอื่นโน้น ทำนั้นทำนี้มาผืดถูกชั่วเลวรู้หมดแต่เขาไปพูด,ภูมิจักรวาลสายมูกายมนุษย์ธรรมดา มิใช่สายบรรลุธรรมนิพพานนักบวชก็ว่า,ไทยเราถ้าจะทำอะไรไม่แพ้ใครหรอก,อยากเกิดก็เปิดมา ประมาณนั้น,อนาคตเพื่อปกป้องตนเอง เราอาจเริ่มผลิตยานรบอวกาศจริงจังด้วย ปืนลำแสงผ่านดาวเทียม ระเบิดEMPทำลายวงจรAIทั้งหมดนั้นเอง.,ซึ่งใช้ระเบิดโดรนศัตรูก็ได้,ลำแสงระเบิดEMPก็ว่า,ความถี่พิเศษมีพลังงานทำลายล้างด้วยในตัวผ่านคลื่น. https://youtube.com/watch?v=iYwyhs2m40k&si=dHKjVDFF_1s7CdTG
    0 Comments 0 Shares 192 Views 0 Reviews
  • ว่าแล้วแปลก ขึ้นข่าวโชว์ผิดปกติ,มทภ.2 จะถ่านรูปค้ำประกันรุ่นพี่ที่สายสัมพันธ์ดีในฝั่งมันบ่อนในเขมรจริงเหรอ,มีคนตระกูลชินด้วย,มาทั้งแก๊งครบสูตร,
    ..โดรนถ้าจะทำจริง รัฐบาลเราตั้งโรงงานโดรนเองเลย ควบคุมการสร้างเองโดยกองทัพทหารไทย,แบ่งเป็นโดรนภาคประชาชนและภาคทหาร ประชาชนร่วมบริจาคได้ตลอดเวลาเข้ากองทุนโดรนแห่งชาติโดยมีมทภ.2เป็นประธาน ค้ำประกันโดยบิ๊งกุ้งแม้เกษียณราชการไปก็สามารถนั่งเป็นประธานด้านความมั่นคงที่กองทุนโดรนแห่งชาติได้ สามารถขับเคลื่อนยุทธการกองทัพไทยรอบด้านจากโดรน ,ยิงขีปนาวุธโดยโดรน,อากาศยานปืนกลโดรน,ปืนลำแสงโดรน, สถานนีต่อต้านโดรนแต่ละตำบลหมู่บ้าน 80,000หมู่บ้านเบื้องต้นรัศมีปกป้องหมู่บ้านเมื่อโดรนศัตรูรุกรานคือยิงได้ไกล5-10กม.ทั้งแนวราบและแนวดิ่ง,หอคอยต่อต้านโดรนประจำหมู่บ้านทั่วประเทศ,ยิงเครื่องบินรบกวนคลื่นอิเล็กทรอนิกส์ได้นั้นเอง,เพราะอนาคตโดรนนี้จะอันตรายมาก,ต่างชาติมีโดรนAIจิ๋วแล้ว,ใครดูthe matrixก็โดรนเครื่องจักรกลแบบนี้ล่ะ,สามารถล็อคพิกัดเป้าหมายมนุษย์ได้ ถูกตัวมนุษย์ระเบิดตัวเองเลย โดรนพลีชีพขนาดจิ๋ว,สามารถระเบิดกลางสมองเป้าหมายได้อย่างแม่นยำ,ใหญ่กว่าฝาเอ็มร้อยนิดหน่อยแค่นั้น,ยิ่งมนุษย์ฉีดกราฟีนเข้าตัวจากวัคซีนโควิด มันกดปุ่มอาจบินมาระเบิดสมองเราทันทีแต่ละคนได้สบายๆ,กราฟีนบอกพิกัดชี้พิกัดเป้าหมายให้โดรนพลีชีพจิ๋วนี้นั้นเอง.,กองทุนโดรนแห่งชาติจึงสำคัญมาในยุคนี้,เพราะแต่ละหมู่บ้านสามารถปกป้องโดรนศัตรูทุกๆรูปแบบได้ อาจกดปุ่มระเบิดEMPประจำหมู่บ้านตนทำลายโดรนนั้นได้,หรือคล้ายๆเครื่องปิดสัญญาณคลื่นมือถือนั้นล่ะ,แต่นี้ทำลายวงจรAIของทุกๆโดรนที่บินเข้ามาหมู่บ้านเราได้เลยนั่นเองหรือเปิดกำแพงคลื่นป้องกันโดรนตลอดเวลาก็ได้,เราจึงต้องตั้งศูนย์พัฒนาต่อต้านโดรนศัตรูไปด้วยในกองทุนโดรนแห่งชาตินี้,คนไทยจึงสามารถร่วมบริจาคช่วยกันได้ตลอดเวลา ยอดบริจาคก็สามารถแจ้งเป็นสาธารณะ ใช้อะไรไปทางไหนก็สามารถบอกได้หมด,ส่วนลงรายละเอียดอาจไม่จำเป็นเพราะคือความมั่นคงของชาติศัตรูจะรู้,กองทุนโดรนแห่งชาติ สามารถผลิตอาวุธขีปนาวุธประจำโดรนเราได้อีก,แบบกระสุนไม่จำกัด ลูกขีปนาวุธไม่จำกัด มีแบบโดรนเจ็ต บินไกลบินเร็วข้ามทวีปก็ได้,เช่นโดรนเราบินไกลถึงอาหรับ ยิงขีปนาวุธออกจากโดรน ขีปนาวุธพุงไปอีกถึงฝรั่งเศสเป็นต้น หรือโดรนเราบินไปถึงทวีปแอฟริกาใจกลาง จากนั้นขีปนาวุธจากโดรนส่งตัวไปถึง DCอเมริกันก็ว่า,หรือโดรนเจ๊ตเราบินเลยญี่ปุ่นไป ส่งขีปนาวุธจากโดรนบินต่อไปอีกถึง50รัฐของอเมริกาก็ได้เป็นต้น,คือศักยภาพเราสามารถทำได้อยู่แล้ว แต่เราจะเป็นไปทางนั้นมั้ย แต่เราสร้างทำผลิตเพื่อปกป้องตนเองได้,สำคัญคือต้องร่วมกันกำจัดคนหนักแผ่นดินประจำประเทศไทยเรากันจริงๆจังๆแค่นั้น.ชาติจะไร้ไส้ศึกทันที.,ความมั่นคงทางอธิปไตยไทยเราจะแข็งแกร่งในตัวมันเองด้วย,แบบจะไม่มีของปลอม วัตถุดิบปลอมๆมาผสมในเพชรกล้าแห่งแผ่นดินประเทศไทยเราเลย,มีแต่เพชรเพียวๆใจเพชรเต็มประเทศไทย ไม่ว่าจะนับถือศาสนาใดๆเราร่วมรวมเป็นหนึ่งเดียวนั้นเอง.,คือคนไทย คือคนของแผ่นดินไทยร่วมกัน.

    https://youtube.com/watch?v=Ocsr2SRqi_I&si=eW9D-U9fOzi6TnM4
    ว่าแล้วแปลก ขึ้นข่าวโชว์ผิดปกติ,มทภ.2 จะถ่านรูปค้ำประกันรุ่นพี่ที่สายสัมพันธ์ดีในฝั่งมันบ่อนในเขมรจริงเหรอ,มีคนตระกูลชินด้วย,มาทั้งแก๊งครบสูตร, ..โดรนถ้าจะทำจริง รัฐบาลเราตั้งโรงงานโดรนเองเลย ควบคุมการสร้างเองโดยกองทัพทหารไทย,แบ่งเป็นโดรนภาคประชาชนและภาคทหาร ประชาชนร่วมบริจาคได้ตลอดเวลาเข้ากองทุนโดรนแห่งชาติโดยมีมทภ.2เป็นประธาน ค้ำประกันโดยบิ๊งกุ้งแม้เกษียณราชการไปก็สามารถนั่งเป็นประธานด้านความมั่นคงที่กองทุนโดรนแห่งชาติได้ สามารถขับเคลื่อนยุทธการกองทัพไทยรอบด้านจากโดรน ,ยิงขีปนาวุธโดยโดรน,อากาศยานปืนกลโดรน,ปืนลำแสงโดรน, สถานนีต่อต้านโดรนแต่ละตำบลหมู่บ้าน 80,000หมู่บ้านเบื้องต้นรัศมีปกป้องหมู่บ้านเมื่อโดรนศัตรูรุกรานคือยิงได้ไกล5-10กม.ทั้งแนวราบและแนวดิ่ง,หอคอยต่อต้านโดรนประจำหมู่บ้านทั่วประเทศ,ยิงเครื่องบินรบกวนคลื่นอิเล็กทรอนิกส์ได้นั้นเอง,เพราะอนาคตโดรนนี้จะอันตรายมาก,ต่างชาติมีโดรนAIจิ๋วแล้ว,ใครดูthe matrixก็โดรนเครื่องจักรกลแบบนี้ล่ะ,สามารถล็อคพิกัดเป้าหมายมนุษย์ได้ ถูกตัวมนุษย์ระเบิดตัวเองเลย โดรนพลีชีพขนาดจิ๋ว,สามารถระเบิดกลางสมองเป้าหมายได้อย่างแม่นยำ,ใหญ่กว่าฝาเอ็มร้อยนิดหน่อยแค่นั้น,ยิ่งมนุษย์ฉีดกราฟีนเข้าตัวจากวัคซีนโควิด มันกดปุ่มอาจบินมาระเบิดสมองเราทันทีแต่ละคนได้สบายๆ,กราฟีนบอกพิกัดชี้พิกัดเป้าหมายให้โดรนพลีชีพจิ๋วนี้นั้นเอง.,กองทุนโดรนแห่งชาติจึงสำคัญมาในยุคนี้,เพราะแต่ละหมู่บ้านสามารถปกป้องโดรนศัตรูทุกๆรูปแบบได้ อาจกดปุ่มระเบิดEMPประจำหมู่บ้านตนทำลายโดรนนั้นได้,หรือคล้ายๆเครื่องปิดสัญญาณคลื่นมือถือนั้นล่ะ,แต่นี้ทำลายวงจรAIของทุกๆโดรนที่บินเข้ามาหมู่บ้านเราได้เลยนั่นเองหรือเปิดกำแพงคลื่นป้องกันโดรนตลอดเวลาก็ได้,เราจึงต้องตั้งศูนย์พัฒนาต่อต้านโดรนศัตรูไปด้วยในกองทุนโดรนแห่งชาตินี้,คนไทยจึงสามารถร่วมบริจาคช่วยกันได้ตลอดเวลา ยอดบริจาคก็สามารถแจ้งเป็นสาธารณะ ใช้อะไรไปทางไหนก็สามารถบอกได้หมด,ส่วนลงรายละเอียดอาจไม่จำเป็นเพราะคือความมั่นคงของชาติศัตรูจะรู้,กองทุนโดรนแห่งชาติ สามารถผลิตอาวุธขีปนาวุธประจำโดรนเราได้อีก,แบบกระสุนไม่จำกัด ลูกขีปนาวุธไม่จำกัด มีแบบโดรนเจ็ต บินไกลบินเร็วข้ามทวีปก็ได้,เช่นโดรนเราบินไกลถึงอาหรับ ยิงขีปนาวุธออกจากโดรน ขีปนาวุธพุงไปอีกถึงฝรั่งเศสเป็นต้น หรือโดรนเราบินไปถึงทวีปแอฟริกาใจกลาง จากนั้นขีปนาวุธจากโดรนส่งตัวไปถึง DCอเมริกันก็ว่า,หรือโดรนเจ๊ตเราบินเลยญี่ปุ่นไป ส่งขีปนาวุธจากโดรนบินต่อไปอีกถึง50รัฐของอเมริกาก็ได้เป็นต้น,คือศักยภาพเราสามารถทำได้อยู่แล้ว แต่เราจะเป็นไปทางนั้นมั้ย แต่เราสร้างทำผลิตเพื่อปกป้องตนเองได้,สำคัญคือต้องร่วมกันกำจัดคนหนักแผ่นดินประจำประเทศไทยเรากันจริงๆจังๆแค่นั้น.ชาติจะไร้ไส้ศึกทันที.,ความมั่นคงทางอธิปไตยไทยเราจะแข็งแกร่งในตัวมันเองด้วย,แบบจะไม่มีของปลอม วัตถุดิบปลอมๆมาผสมในเพชรกล้าแห่งแผ่นดินประเทศไทยเราเลย,มีแต่เพชรเพียวๆใจเพชรเต็มประเทศไทย ไม่ว่าจะนับถือศาสนาใดๆเราร่วมรวมเป็นหนึ่งเดียวนั้นเอง.,คือคนไทย คือคนของแผ่นดินไทยร่วมกัน. https://youtube.com/watch?v=Ocsr2SRqi_I&si=eW9D-U9fOzi6TnM4
    0 Comments 0 Shares 222 Views 0 Reviews
  • เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี”

    Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน

    ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่

    แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure

    AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป

    Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง
    กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning
    xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload
    Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware

    จุดแข็งของ AMD ในตลาด AI
    MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7
    มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s
    ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน

    การขยาย ecosystem ของ AMD
    ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก
    มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ
    OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid

    แผนการเปิดตัว MI450 และ Helios rack
    ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G
    รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps
    ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput

    https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    🎙️ เรื่องเล่าจาก CUDA ถึง ROCm: เมื่อ Elon Musk บอกว่า “AMD ก็ทำงานได้ดี” Elon Musk ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า AMD Instinct ทำงาน “ค่อนข้างดี” สำหรับโมเดล AI ขนาดเล็กถึงกลาง เช่น inference, fine-tuning และ foundation model ที่ไม่ใหญ่มาก แม้ว่า NVIDIA จะยังคงเป็นตัวเลือกหลักสำหรับงาน training ขนาดใหญ่ แต่คำชมจาก Elon ก็ถือเป็นสัญญาณว่า AMD กำลังไล่ทัน ที่ผ่านมา NVIDIA ครองตลาดด้วย CUDA ซึ่งเป็น ecosystem แบบ lock-in ที่ทำให้ผู้พัฒนาไม่สามารถเปลี่ยนไปใช้แพลตฟอร์มอื่นได้ง่าย ๆ แต่ AMD กำลังตอบโต้ด้วย ROCm ที่เปิดกว้างและพัฒนาอย่างรวดเร็ว โดยเฉพาะในรุ่น MI300 และ MI355X ที่ xAI ของ Elon ก็ใช้งานอยู่ แม้ AMD จะยังไม่ได้รับความนิยมจาก Big Tech เท่ากับ NVIDIA แต่ก็เริ่มมีการใช้งานใน hyperscaler และ cloud provider มากขึ้น เช่น Oracle Cloud และ Dell ที่เริ่มนำ MI350 Series ไปใช้ใน rack-scale AI infrastructure AMD ยังเตรียมเปิดตัว MI450 และ Helios rack ที่จะใช้ HBM4 และ EPYC Venice CPU เพื่อเร่งงาน training ขนาดใหญ่ โดยตั้งเป้าให้ลูกค้า “ไม่มีข้ออ้าง” ที่จะไม่เลือก AMD อีกต่อไป ✅ Elon Musk สนับสนุน AMD สำหรับโมเดล AI ขนาดเล็กถึงกลาง ➡️ กล่าวว่า AMD ทำงานได้ดีสำหรับ inference และ fine-tuning ➡️ xAI ของ Elon ใช้ AMD Instinct MI300/MI355X ในบาง workload ➡️ Tesla ก็เคยร่วมมือกับ AMD ในด้าน hardware ✅ จุดแข็งของ AMD ในตลาด AI ➡️ MI355X ใช้สถาปัตยกรรม CDNA 4 และ ROCm 7 ➡️ มี HBM3E สูงสุด 288 GB และ bandwidth สูงถึง 8 TB/s ➡️ ประสิทธิภาพ inference สูงขึ้นถึง 35 เท่าเมื่อเทียบกับรุ่นก่อน ✅ การขยาย ecosystem ของ AMD ➡️ ROCm รองรับโมเดลใหญ่ เช่น LLaMA และ DeepSeek ตั้งแต่วันแรก ➡️ มี developer cloud สำหรับนักพัฒนา AI โดยเฉพาะ ➡️ OEM อย่าง Dell, HPE, Supermicro เริ่มนำ MI350 Series ไปใช้ในระบบ on-prem และ hybrid ✅ แผนการเปิดตัว MI450 และ Helios rack ➡️ ใช้ HBM4 และ EPYC Venice CPU พร้อม NIC Vulcano 800G ➡️ รองรับ 72 GPU ต่อ rack และให้ bandwidth สูงถึง 1.4 PBps ➡️ ตั้งเป้าให้ประสิทธิภาพสูงกว่า NVIDIA Vera Rubin ถึง 50% ในด้าน memory และ throughput https://wccftech.com/elon-musk-endorses-amd-for-small-to-medium-ai-models/
    WCCFTECH.COM
    Elon Musk ‘Endorses’ AMD's AI Hardware for Small to Medium AI Models, Implying That There's Potential to Ease Reliance on NVIDIA
    Billionaire Elon Musk has tweeted on the performance of AMD's AI hardware, claiming that it is sufficient for small and medium AI models.
    0 Comments 0 Shares 173 Views 0 Reviews
  • เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน

    ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์

    ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps

    Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA

    AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน

    การเปิดตัว Instinct MI450 และ Helios rack
    MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB
    Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC
    ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops

    จุดเปลี่ยนของ AMD ในตลาด AI
    MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI
    ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA
    AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป

    การออกแบบเพื่อ hyperscale และ rack-scale
    Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น
    รองรับ memory capacity มากกว่า Vera Rubin ถึง 50%
    ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack

    https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    🎙️ เรื่องเล่าจาก MI355X สู่ MI450: เมื่อ AMD ประกาศว่า “ไม่มีข้ออ้าง” สำหรับการเลือกใช้ AI ของตน ในงาน Goldman Sachs Communacopia Technology Conference ปี 2025 Forrest Norrod รองประธานฝ่าย Data Center ของ AMD ได้ประกาศอย่างมั่นใจว่า Instinct MI450 จะเป็นจุดเปลี่ยนของ AMD ในตลาด AI โดยเปรียบเทียบว่าเป็น “Milan Moment” เหมือนที่ EPYC Milan เคยเปลี่ยนเกมในตลาดเซิร์ฟเวอร์ ที่ผ่านมา AMD ทำได้ดีในด้าน inference ด้วย MI300, MI325 และ MI355 แต่ยังตามหลัง NVIDIA ในด้าน training เพราะเปิดตัวช้ากว่า แต่ MI450 จะเปลี่ยนสิ่งนั้น โดยมาพร้อมสถาปัตยกรรมใหม่, HBM4 สูงสุด 432 GB ต่อ GPU, และการเชื่อมต่อแบบ rack-scale ผ่าน Helios rack ที่ให้แบนด์วิดธ์สูงถึง 1.4 PBps Helios rack จะใช้ GPU MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU รุ่นใหม่ที่มีถึง 256 คอร์ และ NIC Vulcano 800G ซึ่งทั้งหมดนี้จะทำงานร่วมกันผ่าน ROCm software stack ที่ AMD พัฒนาขึ้นเพื่อให้เทียบเท่ากับ CUDA ของ NVIDIA AMD ยังเน้นว่า Helios rack จะให้ประสิทธิภาพการฝึกโมเดล AI สูงกว่า Vera Rubin ของ NVIDIA ถึง 50% ในด้าน memory capacity และ bandwidth โดยใช้ดีไซน์แบบ double-wide rack เพื่อเพิ่มความหนาแน่นและประสิทธิภาพการระบายความร้อน ✅ การเปิดตัว Instinct MI450 และ Helios rack ➡️ MI450 เป็น GPU สำหรับ AI training ที่ใช้ HBM4 สูงสุด 432 GB ➡️ Helios rack ใช้ MI400 จำนวน 72 ตัว พร้อม EPYC Venice CPU และ Vulcano NIC ➡️ ให้แบนด์วิดธ์รวม 1.4 PBps และ tensor performance สูงถึง 31 exaflops ✅ จุดเปลี่ยนของ AMD ในตลาด AI ➡️ MI450 ถูกเปรียบเทียบว่าเป็น “Milan Moment” ของฝั่ง AI ➡️ ROCm software stack ได้รับการปรับปรุงเพื่อเทียบเท่า CUDA ➡️ AMD ตั้งเป้าให้ลูกค้าไม่มีข้ออ้างในการเลือก NVIDIA อีกต่อไป ✅ การออกแบบเพื่อ hyperscale และ rack-scale ➡️ Helios rack ใช้ดีไซน์ double-wide เพื่อเพิ่มความหนาแน่น ➡️ รองรับ memory capacity มากกว่า Vera Rubin ถึง 50% ➡️ ใช้ระบบแบบ unified platform ที่รวม CPU, GPU, NIC และ software stack https://wccftech.com/with-the-mi450-amd-says-there-will-be-no-excuses-no-hesitation-in-choosing-team-red-over-nvidia/
    WCCFTECH.COM
    With the Next-Gen MI450 AI Lineup, AMD Says There Will Be ‘No Excuses, No Hesitation’ in Choosing Team Red Over NVIDIA In AI Workloads
    AMD's Instinct MI450 will be a 'decisive' release, as according to the firm's executive, the AI playground would be leveled with NVIDIA.
    0 Comments 0 Shares 158 Views 0 Reviews
  • “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล”

    SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน

    HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ

    SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้

    นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น

    การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง

    จุดเด่นของ HBM4 จาก SK hynix
    เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน
    เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า
    ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40%
    เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69%

    เทคโนโลยีการผลิตและมาตรฐาน
    ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน
    ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต
    ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps
    พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้

    ข้อมูลเสริมจากภายนอก
    HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E
    ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD
    ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล
    SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด

    https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    🚀 “SK hynix เปิดตัว HBM4 พร้อมผลิตจริง — หน่วยความจำ AI ที่เร็วที่สุดในโลก พร้อมลดพลังงานศูนย์ข้อมูล” SK hynix ประกาศความสำเร็จในการพัฒนาและเตรียมการผลิตหน่วยความจำ HBM4 เป็นรายแรกของโลกเมื่อวันที่ 12 กันยายน 2025 โดยชิปนี้ถูกออกแบบมาเพื่อรองรับงานประมวลผล AI ที่ต้องการความเร็วสูงและประสิทธิภาพด้านพลังงานอย่างเข้มข้น โดยถือเป็นก้าวสำคัญที่ช่วยปลดล็อกข้อจำกัดของโครงสร้างพื้นฐาน AI ในปัจจุบัน HBM4 มีการปรับปรุงครั้งใหญ่จากรุ่นก่อนหน้า โดยเพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่น HBM3E ถึงสองเท่า ส่งผลให้แบนด์วิดธ์เพิ่มขึ้นอย่างมหาศาล และประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิมถึง 40% ซึ่งช่วยลดต้นทุนการดำเนินงานของศูนย์ข้อมูลได้อย่างมีนัยสำคัญ SK hynix ระบุว่า HBM4 สามารถเพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% และมีความเร็วในการทำงานเกินมาตรฐาน JEDEC ที่ 8 Gbps โดยสามารถทำงานได้มากกว่า 10 Gbps ซึ่งถือเป็นระดับที่สูงที่สุดในอุตสาหกรรม ณ ขณะนี้ นอกจากนี้ยังใช้กระบวนการผลิตขั้นสูง MR-MUF (Mass Reflow Molded Underfill) และเทคโนโลยี 1bnm ซึ่งเป็นเจเนอเรชันที่ 5 ของกระบวนการ 10 นาโนเมตร เพื่อเพิ่มความเสถียรในการผลิตและลดความเสี่ยงจากการบิดตัวของชิปที่ซ้อนกันหลายชั้น การเปิดตัว HBM4 ส่งผลให้หุ้นของ SK hynix พุ่งขึ้นทันทีเกือบ 6% และสร้างความเชื่อมั่นว่า SK hynix จะกลายเป็นผู้นำด้านหน่วยความจำสำหรับยุค AI อย่างแท้จริง ✅ จุดเด่นของ HBM4 จาก SK hynix ➡️ เป็นหน่วยความจำรุ่นใหม่สำหรับงาน AI ที่มีแบนด์วิดธ์สูงและประหยัดพลังงาน ➡️ เพิ่มจำนวนช่องสัญญาณ I/O เป็น 2,048 ช่อง — มากกว่ารุ่นก่อนหน้า 2 เท่า ➡️ ประสิทธิภาพด้านพลังงานดีขึ้นกว่าเดิม 40% ➡️ เพิ่มประสิทธิภาพของบริการ AI ได้สูงสุดถึง 69% ✅ เทคโนโลยีการผลิตและมาตรฐาน ➡️ ใช้กระบวนการ MR-MUF เพื่อควบคุมการบิดตัวและระบายความร้อน ➡️ ใช้เทคโนโลยี 1bnm (เจเนอเรชันที่ 5 ของ 10nm) เพื่อเพิ่มความเสถียรในการผลิต ➡️ ความเร็วในการทำงานเกิน 10 Gbps — สูงกว่ามาตรฐาน JEDEC ที่ 8 Gbps ➡️ พร้อมเข้าสู่การผลิตเชิงพาณิชย์แล้วในโรงงานที่อินชอน ประเทศเกาหลีใต้ ✅ ข้อมูลเสริมจากภายนอก ➡️ HBM4 เป็นรุ่นที่ 6 ต่อจาก HBM, HBM2, HBM2E, HBM3 และ HBM3E ➡️ ใช้ใน GPU และ AI accelerator รุ่นใหม่จาก NVIDIA และ AMD ➡️ ตลาดหน่วยความจำ AI เติบโตอย่างรวดเร็วจากความต้องการของศูนย์ข้อมูล ➡️ SK hynix แซง Samsung ขึ้นเป็นผู้นำด้าน DRAM ในไตรมาสล่าสุด https://www.techpowerup.com/340924/sk-hynix-completes-worlds-first-hbm4-development-and-readies-mass-production
    WWW.TECHPOWERUP.COM
    SK Hynix Completes World's First HBM4 Development and Readies Mass Production
    SK hynix Inc. announced today that it has completed development and finished preparation of HBM4, a next generation memory product for ultra-high performance AI, mass production for the world's first time. SK hynix said that the company has successfully completed development and based on this tec...
    0 Comments 0 Shares 213 Views 0 Reviews
  • “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว”

    Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6

    A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3%

    ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD

    แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10%

    ประสิทธิภาพของ A19 Pro
    คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4
    คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro
    ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50%
    ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน

    ประสิทธิภาพด้านกราฟิก
    GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน
    ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec
    ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M
    รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี

    ข้อมูลเสริมจากภายนอก
    A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling
    Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด
    ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้
    เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ

    คำเตือนและข้อจำกัด
    คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน
    A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน
    Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์
    การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน
    การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน

    https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    🚀 “Apple A19 Pro แรงทะลุเดสก์ท็อป — ชิป iPhone 17 Pro ใหม่ แซง Ryzen 9 ในการทดสอบแบบแกนเดียว” Apple ยังคงเดินหน้าสร้างความประหลาดใจในวงการชิปสมาร์ตโฟน ล่าสุดกับการเปิดตัว A19 Pro สำหรับ iPhone 17 Pro และ Pro Max ที่ไม่เพียงแค่แรงกว่า A18 Pro รุ่นก่อนหน้า แต่ยังสามารถเอาชนะชิปเดสก์ท็อประดับสูงอย่าง AMD Ryzen 9 9950X ได้ในการทดสอบแบบ single-thread บน Geekbench 6 A19 Pro ใช้สถาปัตยกรรมแบบ 2P+4E (2 แกนประสิทธิภาพ + 4 แกนประหยัดพลังงาน) ความเร็วสูงสุด 4.26 GHz พร้อมปรับปรุง branch prediction และเพิ่ม front-end bandwidth ทำให้ประสิทธิภาพต่อรอบคำสั่งดีขึ้นอย่างชัดเจน โดยคะแนน single-thread อยู่ที่ 3,895 ซึ่งสูงกว่า Ryzen 9 9950X ถึง 11.8% และสูงกว่า Apple M4 ถึง 5.3% ด้านกราฟิก A19 Pro ก็ไม่น้อยหน้า ด้วย GPU แบบ 6-cluster ที่ทำคะแนนได้ถึง 45,657 บน Geekbench Metal — เพิ่มขึ้นจาก A18 Pro ถึง 37% และใกล้เคียงกับ GPU ใน iPad Air รุ่น M2/M3 รวมถึง Radeon 890M ของ AMD แม้คะแนน multi-thread จะยังตามหลังชิปเดสก์ท็อปอย่าง Ryzen และ Core i9 แต่ก็ถือว่าแรงขึ้นจากรุ่นก่อนถึง 12% และเพียงพอต่อการใช้งานทั่วไปบนมือถือ โดย Apple ยังใช้เทคโนโลยีการผลิต N3P จาก TSMC ซึ่งช่วยเพิ่มความหนาแน่นของทรานซิสเตอร์และลดการใช้พลังงานได้ถึง 10% ✅ ประสิทธิภาพของ A19 Pro ➡️ คะแนน single-thread Geekbench 6 สูงถึง 3,895 — แซง Ryzen 9 9950X และ Apple M4 ➡️ คะแนน multi-thread อยู่ที่ 9,746 — เพิ่มขึ้น 12% จาก A18 Pro ➡️ ใช้สถาปัตยกรรม 2P+4E ความเร็วสูงสุด 4.26 GHz พร้อม cache ใหญ่ขึ้น 50% ➡️ ผลิตด้วยเทคโนโลยี N3P จาก TSMC — เพิ่มประสิทธิภาพและลดพลังงาน ✅ ประสิทธิภาพด้านกราฟิก ➡️ GPU แบบ 6-cluster ทำคะแนน Metal ได้ 45,657 — เพิ่มขึ้น 37% จากรุ่นก่อน ➡️ ความเร็วในการประมวลผลภาพ เช่น Gaussian Blur สูงถึง 3.53 Gpixels/sec ➡️ ประสิทธิภาพใกล้เคียงกับ iPad Air รุ่น M2/M3 และ Radeon 890M ➡️ รองรับงานหนัก เช่น depth-of-field, face detection, particle physics ได้ดี ✅ ข้อมูลเสริมจากภายนอก ➡️ A19 Pro ถูกใช้ใน iPhone 17 Pro และ Pro Max พร้อม vapor chamber cooling ➡️ Apple เน้นการเพิ่ม IPC มากกว่าการเร่งความถี่สูงสุด ➡️ ชิปนี้ยังไม่สามารถแซง Ryzen 9 หรือ Core i9 ในงาน multi-thread ได้ ➡️ เหมาะกับงานที่เน้นประสิทธิภาพต่อแกน เช่น เกม, AI inference, การตัดต่อ ‼️ คำเตือนและข้อจำกัด ⛔ คะแนน Geekbench ยังไม่สะท้อนประสิทธิภาพจริงในทุกแอปพลิเคชัน ⛔ A19 Pro ยังตามหลัง Ryzen 9 และ Core i9 ในงาน multi-thread อย่างชัดเจน ⛔ Apple ไม่เปิดเผยรายละเอียด GPU อย่างเป็นทางการ — ข้อมูลยังไม่สมบูรณ์ ⛔ การเพิ่มประสิทธิภาพจากรุ่นก่อนหน้าอยู่ที่ 11–12% ซึ่งน้อยกว่ารุ่นก่อน ⛔ การเปรียบเทียบกับชิปเดสก์ท็อปต้องพิจารณบริบทการใช้งานที่ต่างกัน https://www.tomshardware.com/pc-components/cpus/apples-a19-pro-beats-ryzen-9-9950x-in-single-thread-geekbench-tests-iphone-17-pro-chip-packs-11-12-percent-cpu-performance-bump-gpu-performance-up-37-percent-over-predecessor
    0 Comments 0 Shares 193 Views 0 Reviews
  • อเมริกาและฝรั่งเศสบวกญี่ปุ่นรุกฆาตจีนแล้ว โดยสมรังสีคือแกนนำนอมินีของฝรั่งเศสซึ่งฝรั่งเศสคือศัตรูของไทยมาโดยตลอดถึงปัจจุบัน อยากได้อ่าวไทยบ่อน้ำมันเราก็ฝรั่งเศสหัวหอกแกนนำเบื้องหน้าและเบื้องหลังทั้งหมดตลอดพรรคอนาคตใหม่พรรคก้าวไกลสืบไปสืบมาเชื่อมประเทศฝรั่งเศสที่จะล้มล้างสถาบันพระมหากษัตริย์ในไทยเราชัดเจน แก้ไข ม.112คือสิ่งชัดเจน.,อเมริกาค้ำหลังให้ฝรั่งเศสด้วยโดยแสดงบทแอ็คชั่นตามข่าวสดๆร้อนๆนี้นั้นล่ะ แม้ดูทรงว่าดีจริงในการกำจัดฮุนเซนเขมร แต่ฮุนเซนอาจร่วมแสดงบทละครด้วยใครจะรู้ อาจพลิกมาฆ่าสมรังสีได้,ด้วยผลประโยชน์ซึ่งแน่นอนเหี้ยพวกนี้หมายอ่าวไทยเราด้วยแน่นอนกว่า20ล้านล้านบาทถึงกว่า100ล้านล้านบาทด้วย.,,ญี่ปุ่นมาบีบเปิดด่านช่วยเขมรอีก,
    ..จีนต้องประสานรัสเชียยิงระเบิดถล่มฝรั่งเศสเลยจะไร้ดัดจริตลดกำลังมายุ่งวุ่นวายในเขมรไปมาก สม รังสีจะอ่อนกำลังลงทันที,จีนกระชิบสหายรัสเชียเปิดฝรั่งเศสก่อนล่วงหน้าได้ อย่างไงก็ตัดกำลังมิให้ฝรั่งเศสเตรียมเสบียงเตรียมความพร้อมทันกาลเพื่อมาถล่มรัสเชียแน่นอนอยู่แล้วในอนาคตอันใกล้ซึ่งฝรั่งเศสประกาศบอกประชาชนมันให้เตรียมพร้อมแล้วด้วย.,จีนจะตัดกำลังอเมริกาอีกตัวเด็ดปีกแขนขามาช่วยอเมริกาได้,เกาหลีเหนือยิงขีปนาวุธถล่มญี่ปุ่นอีก ยิ่งตัดแขนขาไปอีกตัวด้วย,เวียดนามยิงถล่มฟิลิปปินส์แน่นอนในอนาคตเพราะเวียดนามคนฝ่ายรัสเชียและฝ่ายจีน,เขมรจะถูกลาวกับไทยจัดการแทน ยึดเขมรเด็ดขาดเลย,ลดปัญหาความไม่สงบสุขทันทีระหว่างไทยกับเขมร,เขมรกับลาว ,เขมรกับเวียดนาม.,อเมริกาและฝรั่งเศสจะเข้ามาจัดการเขมรไม่ได้,จีนจะเข้ามาจัดการเขมรไม่ได้ จะมีลาวกับไทยแค่นั้นที่จัดการเขมรได้ให้เอเชียให้อาเชียนหมดความขัดแย้งจริงในภูมิภาคนี้.

    ..

    https://youtube.com/watch?v=nqcvH6Gy9qA&si=m4WaJ8AoJllG5KpC
    อเมริกาและฝรั่งเศสบวกญี่ปุ่นรุกฆาตจีนแล้ว โดยสมรังสีคือแกนนำนอมินีของฝรั่งเศสซึ่งฝรั่งเศสคือศัตรูของไทยมาโดยตลอดถึงปัจจุบัน อยากได้อ่าวไทยบ่อน้ำมันเราก็ฝรั่งเศสหัวหอกแกนนำเบื้องหน้าและเบื้องหลังทั้งหมดตลอดพรรคอนาคตใหม่พรรคก้าวไกลสืบไปสืบมาเชื่อมประเทศฝรั่งเศสที่จะล้มล้างสถาบันพระมหากษัตริย์ในไทยเราชัดเจน แก้ไข ม.112คือสิ่งชัดเจน.,อเมริกาค้ำหลังให้ฝรั่งเศสด้วยโดยแสดงบทแอ็คชั่นตามข่าวสดๆร้อนๆนี้นั้นล่ะ แม้ดูทรงว่าดีจริงในการกำจัดฮุนเซนเขมร แต่ฮุนเซนอาจร่วมแสดงบทละครด้วยใครจะรู้ อาจพลิกมาฆ่าสมรังสีได้,ด้วยผลประโยชน์ซึ่งแน่นอนเหี้ยพวกนี้หมายอ่าวไทยเราด้วยแน่นอนกว่า20ล้านล้านบาทถึงกว่า100ล้านล้านบาทด้วย.,,ญี่ปุ่นมาบีบเปิดด่านช่วยเขมรอีก, ..จีนต้องประสานรัสเชียยิงระเบิดถล่มฝรั่งเศสเลยจะไร้ดัดจริตลดกำลังมายุ่งวุ่นวายในเขมรไปมาก สม รังสีจะอ่อนกำลังลงทันที,จีนกระชิบสหายรัสเชียเปิดฝรั่งเศสก่อนล่วงหน้าได้ อย่างไงก็ตัดกำลังมิให้ฝรั่งเศสเตรียมเสบียงเตรียมความพร้อมทันกาลเพื่อมาถล่มรัสเชียแน่นอนอยู่แล้วในอนาคตอันใกล้ซึ่งฝรั่งเศสประกาศบอกประชาชนมันให้เตรียมพร้อมแล้วด้วย.,จีนจะตัดกำลังอเมริกาอีกตัวเด็ดปีกแขนขามาช่วยอเมริกาได้,เกาหลีเหนือยิงขีปนาวุธถล่มญี่ปุ่นอีก ยิ่งตัดแขนขาไปอีกตัวด้วย,เวียดนามยิงถล่มฟิลิปปินส์แน่นอนในอนาคตเพราะเวียดนามคนฝ่ายรัสเชียและฝ่ายจีน,เขมรจะถูกลาวกับไทยจัดการแทน ยึดเขมรเด็ดขาดเลย,ลดปัญหาความไม่สงบสุขทันทีระหว่างไทยกับเขมร,เขมรกับลาว ,เขมรกับเวียดนาม.,อเมริกาและฝรั่งเศสจะเข้ามาจัดการเขมรไม่ได้,จีนจะเข้ามาจัดการเขมรไม่ได้ จะมีลาวกับไทยแค่นั้นที่จัดการเขมรได้ให้เอเชียให้อาเชียนหมดความขัดแย้งจริงในภูมิภาคนี้. .. https://youtube.com/watch?v=nqcvH6Gy9qA&si=m4WaJ8AoJllG5KpC
    0 Comments 0 Shares 220 Views 0 Reviews
  • นายกฯหนู ค.ว.ยแบบไหน.ไปตั้ง,คนนี้มาเป็นรมต.,สมองมีมั้ย,ผลงานกากๆที่ผ่านมาตำตามองไม่เห็นเหรอว่าสิ้นฝีมือกากไร้ประสิทธิภาพมาก,คนของลุงตู่ก็จริง แต่ชาติต้องมาก่อน ประชาชนเจ็บซ้ำเสือกมีหน้ากระตือรือร้นเร่งเปิดด่าน มันยิงทหารเราตายมากมายบาดเจ็บเกือบพันพิการอีกตรึม เด็กๆตายคา7/11มรึงตายเกือบหมดทั้งครอบครัวเสือกทีมคณะชั่วเลวทั้งหมดนี้ที่เจรจาเสือกไม่ใส่จิตใส่ใจจดจำ ชั่วเลวทั้งคณะมาด,นายกฯหนูเหี้ยกากกระจอกจริงๆไม่จำด้วย,เสียหมามากกำลังได้คะแนนนิยมคนละครึ่งแก้ตัวว่าทำดีจริง,ตกหมาตายเพราะความโง่เขลาใช้คนเสือกไม่ดูผลงานคน,เรา..ประชาชนครไทยไม่ต้องการให้เปิดด่าน ให้ปิดด่านถาวรแบบมทภ.2พูดชัดเจนไม่มีกำหนดจนกว่าบ้านเมืองสงบสุข,สร้างรั้ว800กม.เสร็จตลอดแนวพรมแดนค่อยคุยกันหรือคนไทยเราหายโกรธคนเนรคุณคนทรยศหักหลังเขมรชาติสันดานเลวชั่วนี้,ที่เข้ามาทำงานก็ดีเป็นทหารเขมรก็ดี มันต่างคิดในใจว่าสิ่งที่มันสร้างมันมารับจ้างสร้างบนแผ่นดินไทยตึกบ้านทั้งหมดมันว่าเป็นของมันด้วยที่สร้างขึ้นมีโอกาสมีกำลังมันจะเข้ามายึดกรุงเทพฯทันที นี้คนเขมรทำงานในไทยมันคิดอย่างนี้จริง ทหารเขมรยิ่งชัดเจนด้วย,มันล้างสมองปลูกฝังคนเขมรชัดเจนจนเป็นอุดมการณ์เดียวกันแล้ว,เขมรในไทยทั้งหมดที่ก้มหัวทำงานในไทยมันแค่รอโอกาสแค่นั้น,ไส้ศึกภายในพร้อมรวมตัวกับทหารเขมรแนวหน้ามันหากรุกมาถึงกรุงเทพฯเรา.ปักธงเขมรโน้นในกลางกรุง,ทีมเจรจาคณะที่โง่เขลา ทหารที่ไปด้วยก็โง่เขลาในทั้งทีมเจรจา ไปเสือกเปิดช่องให้มันทางวาจา มันต่างห่าอะไรกับผู้ว่าฯสระแก้ว,พวกนี้ไม่มีความบริสุทธิ์ใจในอธิปไตยไทยตนเอง,นายกฯหนูสามารถถูกประชาชนกล่าวหาว่าไม่จริงใจไม่ซื่อสัตย์ต่ออธิปไตยตนได้ในทางเนื้องานที่แสดงออกจากคนของตนที่ส่งให้ไปตัดสินใจแทน,ซึ่งพูดอ้างชัดเจนว่านายกฯให้ตัดสินใจแทนได้เต็มที่,นี้คือขี้ข้า ส่งขี้ข้ามาตายแทนแม่ทัพชั่วก่อน,ไม่กระทบกระเทือนตนได้นั้นเอง.
    https://youtube.com/shorts/8bjMEPgtwZs?si=PMdhR9ggxK6QjM4R
    นายกฯหนู ค.ว.ยแบบไหน.ไปตั้ง,คนนี้มาเป็นรมต.,สมองมีมั้ย,ผลงานกากๆที่ผ่านมาตำตามองไม่เห็นเหรอว่าสิ้นฝีมือกากไร้ประสิทธิภาพมาก,คนของลุงตู่ก็จริง แต่ชาติต้องมาก่อน ประชาชนเจ็บซ้ำเสือกมีหน้ากระตือรือร้นเร่งเปิดด่าน มันยิงทหารเราตายมากมายบาดเจ็บเกือบพันพิการอีกตรึม เด็กๆตายคา7/11มรึงตายเกือบหมดทั้งครอบครัวเสือกทีมคณะชั่วเลวทั้งหมดนี้ที่เจรจาเสือกไม่ใส่จิตใส่ใจจดจำ ชั่วเลวทั้งคณะมาด,นายกฯหนูเหี้ยกากกระจอกจริงๆไม่จำด้วย,เสียหมามากกำลังได้คะแนนนิยมคนละครึ่งแก้ตัวว่าทำดีจริง,ตกหมาตายเพราะความโง่เขลาใช้คนเสือกไม่ดูผลงานคน,เรา..ประชาชนครไทยไม่ต้องการให้เปิดด่าน ให้ปิดด่านถาวรแบบมทภ.2พูดชัดเจนไม่มีกำหนดจนกว่าบ้านเมืองสงบสุข,สร้างรั้ว800กม.เสร็จตลอดแนวพรมแดนค่อยคุยกันหรือคนไทยเราหายโกรธคนเนรคุณคนทรยศหักหลังเขมรชาติสันดานเลวชั่วนี้,ที่เข้ามาทำงานก็ดีเป็นทหารเขมรก็ดี มันต่างคิดในใจว่าสิ่งที่มันสร้างมันมารับจ้างสร้างบนแผ่นดินไทยตึกบ้านทั้งหมดมันว่าเป็นของมันด้วยที่สร้างขึ้นมีโอกาสมีกำลังมันจะเข้ามายึดกรุงเทพฯทันที นี้คนเขมรทำงานในไทยมันคิดอย่างนี้จริง ทหารเขมรยิ่งชัดเจนด้วย,มันล้างสมองปลูกฝังคนเขมรชัดเจนจนเป็นอุดมการณ์เดียวกันแล้ว,เขมรในไทยทั้งหมดที่ก้มหัวทำงานในไทยมันแค่รอโอกาสแค่นั้น,ไส้ศึกภายในพร้อมรวมตัวกับทหารเขมรแนวหน้ามันหากรุกมาถึงกรุงเทพฯเรา.ปักธงเขมรโน้นในกลางกรุง,ทีมเจรจาคณะที่โง่เขลา ทหารที่ไปด้วยก็โง่เขลาในทั้งทีมเจรจา ไปเสือกเปิดช่องให้มันทางวาจา มันต่างห่าอะไรกับผู้ว่าฯสระแก้ว,พวกนี้ไม่มีความบริสุทธิ์ใจในอธิปไตยไทยตนเอง,นายกฯหนูสามารถถูกประชาชนกล่าวหาว่าไม่จริงใจไม่ซื่อสัตย์ต่ออธิปไตยตนได้ในทางเนื้องานที่แสดงออกจากคนของตนที่ส่งให้ไปตัดสินใจแทน,ซึ่งพูดอ้างชัดเจนว่านายกฯให้ตัดสินใจแทนได้เต็มที่,นี้คือขี้ข้า ส่งขี้ข้ามาตายแทนแม่ทัพชั่วก่อน,ไม่กระทบกระเทือนตนได้นั้นเอง. https://youtube.com/shorts/8bjMEPgtwZs?si=PMdhR9ggxK6QjM4R
    0 Comments 0 Shares 199 Views 0 Reviews
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 Comments 0 Shares 204 Views 0 Reviews
  • “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด”

    ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว

    เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4

    Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่:

    Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT

    LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย

    เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล

    นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง

    Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น”

    แนวคิดการใช้ LLM แบบ local บน macOS
    ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก
    ปลอดภัยกว่าและควบคุมข้อมูลได้เอง
    ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB

    เครื่องมือที่ใช้
    Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF
    LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX
    LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง

    โมเดลที่แนะนำ
    Gemma 3 4B QAT: เร็วและคุณภาพดี
    Qwen3 4B Thinking: มี reasoning และขนาดเล็ก
    GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง
    Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS

    ฟีเจอร์พิเศษใน LM Studio
    MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory
    Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้
    Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า
    Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้

    ข้อมูลเสริมจากภายนอก
    LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2
    GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple
    โมเดล reasoning ใช้เวลานานและกิน context window มาก
    Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น

    https://blog.6nok.org/experimenting-with-local-llms-on-macos/
    🧠 “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด” ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4 Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่: Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น” ✅ แนวคิดการใช้ LLM แบบ local บน macOS ➡️ ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก ➡️ ปลอดภัยกว่าและควบคุมข้อมูลได้เอง ➡️ ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB ✅ เครื่องมือที่ใช้ ➡️ Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF ➡️ LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX ➡️ LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง ✅ โมเดลที่แนะนำ ➡️ Gemma 3 4B QAT: เร็วและคุณภาพดี ➡️ Qwen3 4B Thinking: มี reasoning และขนาดเล็ก ➡️ GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง ➡️ Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS ✅ ฟีเจอร์พิเศษใน LM Studio ➡️ MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory ➡️ Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้ ➡️ Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า ➡️ Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2 ➡️ GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple ➡️ โมเดล reasoning ใช้เวลานานและกิน context window มาก ➡️ Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น https://blog.6nok.org/experimenting-with-local-llms-on-macos/
    BLOG.6NOK.ORG
    Experimenting with local LLMs on macOS
    A developer's guide to downloading and running LLMs on macOS, for experimentation and privacy.
    0 Comments 0 Shares 195 Views 0 Reviews
  • https://youtu.be/Cm4MygASZ88?si=qjVZgCqY1akEKMn9
    https://youtu.be/Cm4MygASZ88?si=qjVZgCqY1akEKMn9
    0 Comments 0 Shares 38 Views 0 Reviews
  • 555,fc fc เกรงใจแม่บ้านท่านด้วย.

    https://youtube.com/shorts/fby94wNwmlw?si=MM4lFpg75tsujSR-
    555,fc fc เกรงใจแม่บ้านท่านด้วย. https://youtube.com/shorts/fby94wNwmlw?si=MM4lFpg75tsujSR-
    0 Comments 0 Shares 109 Views 0 Reviews
  • VIDEO025 ซีรีย์จีนพากย์ไทยเรื่อง : คุณหนูตัวแทนรัก
    ฝดูซีรีย์จีนพากย์ไทยผ่าน แอป telegram :
    ซีรีย์จีนอัพเดตทุกวัน 1000 กว่าเรื่อง
    Google Play
    ลิ้งค์ดาสน์โหลด : https://play.google.com/store/apps/details?id=org.telegram.messenger&pcampaignid=web_share
    สำหรบสมาชิกทีมีแอป Telegra อยู่แล้วคลิ๊กทีลิ้งคี้ : :/https/t.me/pkextremechinaseries

    ฝากกดกดติดตามและกดแชร์เพจ Facebook ของเราด้วยนะครับ
    https://www.facebook.com/profile.php?id=100063955424118
    https://www.facebook.com/profile.php?id=61580101866932
    https://www.facebook.com/hmextremechinaseries
    https://www.facebook.com/hieamaochinaseriesv2
    https://www.facebook.com/pkextreme2025
    https://www.facebook.com/thepsurachinaseriesv1

    ฝากสนับสนุนแอดมินด้วยนะครับตามความสมัครใจ
    https://promptpay.io/0638814705
    หรือสแกน QR CODE ท้ายคลิป ขอบคุณครับ

    กดลิ้งค์ด้านล่างเพื่อดูซีรีย์
    https://www.dropbox.com/scl/fi/wtm9rctbz6lksm47dbeum/025.-31-08-2025.mp4?rlkey=1p6ksmgv5v0x79ek5fdtkaqak&st=nyuqi6ex&dl=0
    https://www.bilibili.tv/th/space/1130517569
    #ร้านเฮียเมาเจ้พรตลาดปัฐวิกรณ์โครงการใหม่
    #โกดังเฮียเมาตลาดปัฐวิกรณ์โครงการใหม่
    #เฮียเมาซีรีย์จีน
    #เฮียเมาซีรีย์จีนV2
    #PKExtremeรวมซีรีย์
    #เทพสุราซีรีย์จีนV1
    #ดูจนตาเหลือกรวมซีรีย์

    VIDEO025 ซีรีย์จีนพากย์ไทยเรื่อง : คุณหนูตัวแทนรัก ฝดูซีรีย์จีนพากย์ไทยผ่าน แอป telegram : ซีรีย์จีนอัพเดตทุกวัน 1000 กว่าเรื่อง Google Play ลิ้งค์ดาสน์โหลด : https://play.google.com/store/apps/details?id=org.telegram.messenger&pcampaignid=web_share สำหรบสมาชิกทีมีแอป Telegra อยู่แล้วคลิ๊กทีลิ้งคี้ : :/https/t.me/pkextremechinaseries ฝากกดกดติดตามและกดแชร์เพจ Facebook ของเราด้วยนะครับ https://www.facebook.com/profile.php?id=100063955424118 https://www.facebook.com/profile.php?id=61580101866932 https://www.facebook.com/hmextremechinaseries https://www.facebook.com/hieamaochinaseriesv2 https://www.facebook.com/pkextreme2025 https://www.facebook.com/thepsurachinaseriesv1 ฝากสนับสนุนแอดมินด้วยนะครับตามความสมัครใจ https://promptpay.io/0638814705 หรือสแกน QR CODE ท้ายคลิป ขอบคุณครับ กดลิ้งค์ด้านล่างเพื่อดูซีรีย์ https://www.dropbox.com/scl/fi/wtm9rctbz6lksm47dbeum/025.-31-08-2025.mp4?rlkey=1p6ksmgv5v0x79ek5fdtkaqak&st=nyuqi6ex&dl=0 https://www.bilibili.tv/th/space/1130517569 #ร้านเฮียเมาเจ้พรตลาดปัฐวิกรณ์โครงการใหม่ #โกดังเฮียเมาตลาดปัฐวิกรณ์โครงการใหม่ #เฮียเมาซีรีย์จีน #เฮียเมาซีรีย์จีนV2 #PKExtremeรวมซีรีย์ #เทพสุราซีรีย์จีนV1 #ดูจนตาเหลือกรวมซีรีย์
    PLAY.GOOGLE.COM
    Telegram - Apps on Google Play
    Telegram is a messaging app with a focus on speed and security.
    0 Comments 0 Shares 290 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 219 Views 0 Reviews
  • เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด

    AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง

    ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%

    แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น

    AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference

    สเปกของ AMD MI500 MegaPod
    ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU
    แบ่งเป็น 64 compute tray และ 18 UALink switch tray
    ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน

    เทคโนโลยีที่ใช้ใน MI500 และ Verano
    MI500 ใช้ TSMC N2P node และ CoWoS-L packaging
    Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง
    รองรับ ROCm 7, FP8, Flash Attention 3

    การเปรียบเทียบกับ Nvidia NVL576
    NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS
    AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%
    ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ

    การออกแบบเพื่อประสิทธิภาพและความเย็น
    ใช้ liquid cooling ทั้ง compute และ networking tray
    ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่
    เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่

    https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    🎙️ เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference ✅ สเปกของ AMD MI500 MegaPod ➡️ ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU ➡️ แบ่งเป็น 64 compute tray และ 18 UALink switch tray ➡️ ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน ✅ เทคโนโลยีที่ใช้ใน MI500 และ Verano ➡️ MI500 ใช้ TSMC N2P node และ CoWoS-L packaging ➡️ Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง ➡️ รองรับ ROCm 7, FP8, Flash Attention 3 ✅ การเปรียบเทียบกับ Nvidia NVL576 ➡️ NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS ➡️ AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% ➡️ ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ ✅ การออกแบบเพื่อประสิทธิภาพและความเย็น ➡️ ใช้ liquid cooling ทั้ง compute และ networking tray ➡️ ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่ ➡️ เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่ https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    0 Comments 0 Shares 175 Views 0 Reviews
  • เขมรเป็นเมืองขึ้นของไทยทั้งประเทศแต่ใดมา,อนาคตเขมรจะสิ้นชาติแน่นอน,ไทยจะไม่เก็บไว้อีกเป็นภัยคุกคามเรา,เราจะยึดคืนพื้นที่ทั้งหมดที่เคยเป็นของไทยที่ฝรั่งเศสเอาไปทั้งเฉพาะในเขตเขมรปัจจุบัน,ส่วนลาว เวียดนาม ที่ฝรั่งเศสเอาไปเช่นกันถือว่าเป็นขอยกเว้น,และลาวกับเวียดนามจะตกลงกันเองในพื้นที่ที่เหลือหลังจากไทยเอาส่วนที่เป็นของไทยกลับมาแล้ว.,คนเขมรทั้งหมด ไทยจะไม่เอาสักคนไว้บนแผ่นดินที่ไทยได้คืนมา,จะผลักดันออกจากพื้นที่ให้หมด,ก่อนลาวเวียดนามมารับส่วนแบ่งที่เหลือและให้ลาวเวียดนามจัดการคนเขมรเอง.

    https://youtube.com/watch?v=Bed3HOWMrtM&si=G6m4-bHmvuHTJ4Ck
    เขมรเป็นเมืองขึ้นของไทยทั้งประเทศแต่ใดมา,อนาคตเขมรจะสิ้นชาติแน่นอน,ไทยจะไม่เก็บไว้อีกเป็นภัยคุกคามเรา,เราจะยึดคืนพื้นที่ทั้งหมดที่เคยเป็นของไทยที่ฝรั่งเศสเอาไปทั้งเฉพาะในเขตเขมรปัจจุบัน,ส่วนลาว เวียดนาม ที่ฝรั่งเศสเอาไปเช่นกันถือว่าเป็นขอยกเว้น,และลาวกับเวียดนามจะตกลงกันเองในพื้นที่ที่เหลือหลังจากไทยเอาส่วนที่เป็นของไทยกลับมาแล้ว.,คนเขมรทั้งหมด ไทยจะไม่เอาสักคนไว้บนแผ่นดินที่ไทยได้คืนมา,จะผลักดันออกจากพื้นที่ให้หมด,ก่อนลาวเวียดนามมารับส่วนแบ่งที่เหลือและให้ลาวเวียดนามจัดการคนเขมรเอง. https://youtube.com/watch?v=Bed3HOWMrtM&si=G6m4-bHmvuHTJ4Ck
    0 Comments 0 Shares 149 Views 0 Reviews
  • เรื่องเล่าจาก Corsair และ Pavehawk: เมื่อการประมวลผล AI ไม่ต้องพึ่ง HBM อีกต่อไป

    ในยุคที่ HBM (High Bandwidth Memory) กลายเป็นหัวใจของการเทรนโมเดล AI ขนาดใหญ่ บริษัท D-Matrix กลับเลือกเดินเส้นทางที่ต่างออกไป—โดยมุ่งเน้นไปที่ “AI inference” ซึ่งเป็นภาระงานที่กำลังกลายเป็นศูนย์กลางของการใช้งานจริงในองค์กร

    แทนที่จะใช้ HBM ที่มีราคาสูงและ supply จำกัด D-Matrix พัฒนา Corsair ซึ่งเป็น inference accelerator แบบ chiplet ที่ใช้ LPDDR5 ขนาด 256GB และ SRAM 2GB ร่วมกับสถาปัตยกรรมใหม่ที่เรียกว่า 3DIMC (3D Digital In-Memory Compute)

    เทคโนโลยีนี้ถูกนำไปใช้ใน Pavehawk ซึ่งเป็นซิลิคอนรุ่นใหม่ที่ใช้ logic die จาก TSMC N5 และ DRAM แบบ stacked หลายชั้น เพื่อให้ compute และ memory อยู่ใกล้กันมากที่สุด ลด latency และพลังงานที่ใช้ในการเคลื่อนย้ายข้อมูล

    D-Matrix อ้างว่า Pavehawk มี bandwidth และ energy efficiency ต่อ stack สูงกว่า HBM4 ถึง 10 เท่า และสามารถขยายความจุได้มากกว่าด้วยต้นทุนที่ต่ำกว่า ทำให้เหมาะกับการ deploy ใน data center ที่ต้องการ inference ขนาดใหญ่แต่ไม่สามารถจ่ายราคาของ HBM ได้

    แนวคิดนี้ยังสอดคล้องกับเทรนด์ของอุตสาหกรรมที่เริ่มหันมาใช้ interconnect แบบ CXL และการรวม controller เข้ากับ accelerator เพื่อให้ compute และ memory ทำงานร่วมกันได้อย่างแนบแน่น

    แนวทางของ D-Matrix ในการออกแบบ inference accelerator
    Corsair ใช้ LPDDR5 256GB + SRAM 2GB แบบ chiplet-based
    ไม่ใช้ HBM แต่เน้นการ co-package ระหว่าง compute และ memory
    เหมาะกับ AI inference ที่ต้องการประสิทธิภาพสูงแต่ต้นทุนต่ำ

    เทคโนโลยี 3DIMC และ Pavehawk
    ใช้ logic die จาก TSMC N5 ร่วมกับ DRAM แบบ stacked หลายชั้น
    ลด latency และพลังงานในการเคลื่อนย้ายข้อมูล
    ให้ bandwidth และ energy efficiency สูงกว่า HBM4 ถึง 10 เท่า

    บริบทของอุตสาหกรรม AI
    Inference กำลังกลายเป็น workload หลักขององค์กร (คาดว่าจะเกิน 85% ภายใน 2–3 ปี)
    HBM มีราคาสูงและ supply จำกัด โดยเฉพาะสำหรับบริษัทขนาดเล็ก
    การรวม compute และ memory เป็นแนวทางที่หลายบริษัทเริ่มทดลอง เช่น CXL-based accelerator

    จุดเด่นของแนวคิด stacked DRAM + logic
    เพิ่มความจุและ bandwidth ได้โดยไม่ต้องใช้ HBM
    ลดต้นทุนและพลังงานในระดับ data center
    เหมาะกับการ deploy inference ที่ต้องการ scale แบบประหยัด

    https://www.techradar.com/pro/security/after-sandisk-d-matrix-is-proposing-an-intriguing-alternative-to-the-big-hbm-ai-puzzle-with-10x-better-performance-with-10x-better-energy-efficiency
    🎙️ เรื่องเล่าจาก Corsair และ Pavehawk: เมื่อการประมวลผล AI ไม่ต้องพึ่ง HBM อีกต่อไป ในยุคที่ HBM (High Bandwidth Memory) กลายเป็นหัวใจของการเทรนโมเดล AI ขนาดใหญ่ บริษัท D-Matrix กลับเลือกเดินเส้นทางที่ต่างออกไป—โดยมุ่งเน้นไปที่ “AI inference” ซึ่งเป็นภาระงานที่กำลังกลายเป็นศูนย์กลางของการใช้งานจริงในองค์กร แทนที่จะใช้ HBM ที่มีราคาสูงและ supply จำกัด D-Matrix พัฒนา Corsair ซึ่งเป็น inference accelerator แบบ chiplet ที่ใช้ LPDDR5 ขนาด 256GB และ SRAM 2GB ร่วมกับสถาปัตยกรรมใหม่ที่เรียกว่า 3DIMC (3D Digital In-Memory Compute) เทคโนโลยีนี้ถูกนำไปใช้ใน Pavehawk ซึ่งเป็นซิลิคอนรุ่นใหม่ที่ใช้ logic die จาก TSMC N5 และ DRAM แบบ stacked หลายชั้น เพื่อให้ compute และ memory อยู่ใกล้กันมากที่สุด ลด latency และพลังงานที่ใช้ในการเคลื่อนย้ายข้อมูล D-Matrix อ้างว่า Pavehawk มี bandwidth และ energy efficiency ต่อ stack สูงกว่า HBM4 ถึง 10 เท่า และสามารถขยายความจุได้มากกว่าด้วยต้นทุนที่ต่ำกว่า ทำให้เหมาะกับการ deploy ใน data center ที่ต้องการ inference ขนาดใหญ่แต่ไม่สามารถจ่ายราคาของ HBM ได้ แนวคิดนี้ยังสอดคล้องกับเทรนด์ของอุตสาหกรรมที่เริ่มหันมาใช้ interconnect แบบ CXL และการรวม controller เข้ากับ accelerator เพื่อให้ compute และ memory ทำงานร่วมกันได้อย่างแนบแน่น ✅ แนวทางของ D-Matrix ในการออกแบบ inference accelerator ➡️ Corsair ใช้ LPDDR5 256GB + SRAM 2GB แบบ chiplet-based ➡️ ไม่ใช้ HBM แต่เน้นการ co-package ระหว่าง compute และ memory ➡️ เหมาะกับ AI inference ที่ต้องการประสิทธิภาพสูงแต่ต้นทุนต่ำ ✅ เทคโนโลยี 3DIMC และ Pavehawk ➡️ ใช้ logic die จาก TSMC N5 ร่วมกับ DRAM แบบ stacked หลายชั้น ➡️ ลด latency และพลังงานในการเคลื่อนย้ายข้อมูล ➡️ ให้ bandwidth และ energy efficiency สูงกว่า HBM4 ถึง 10 เท่า ✅ บริบทของอุตสาหกรรม AI ➡️ Inference กำลังกลายเป็น workload หลักขององค์กร (คาดว่าจะเกิน 85% ภายใน 2–3 ปี) ➡️ HBM มีราคาสูงและ supply จำกัด โดยเฉพาะสำหรับบริษัทขนาดเล็ก ➡️ การรวม compute และ memory เป็นแนวทางที่หลายบริษัทเริ่มทดลอง เช่น CXL-based accelerator ✅ จุดเด่นของแนวคิด stacked DRAM + logic ➡️ เพิ่มความจุและ bandwidth ได้โดยไม่ต้องใช้ HBM ➡️ ลดต้นทุนและพลังงานในระดับ data center ➡️ เหมาะกับการ deploy inference ที่ต้องการ scale แบบประหยัด https://www.techradar.com/pro/security/after-sandisk-d-matrix-is-proposing-an-intriguing-alternative-to-the-big-hbm-ai-puzzle-with-10x-better-performance-with-10x-better-energy-efficiency
    0 Comments 0 Shares 185 Views 0 Reviews
More Results