• ปลาจิ๊งจิ๊างงา ปลาจิ๊งจ๊างสมุนไพร …อร่อยเหมือนเดิม เพิ่มเติมความหลากหลาย… สั่งเลย สะอาด อร่อย ถูกใจทั้งครอบครัวววว ปลาจิ๊งจ๊างงา ใน Tiktok https://vt.tiktok.com/ZSABUhWne/ปลาจิ๊งจ๊างงา ใน Shopee https://s.shopee.co.th/3VaIRVrOorปลาจิ๊งจ๊างสมุนไพร ใน Tiktok https://vt.tiktok.com/ZSABUHDcE/ปลาจิ๊งจ๊างสมุนไพร ใน Shopee https://s.shopee.co.th/4VSpdKImmRถามว่าอร่อยกี่โมงก่อนนน…ความอร่อยลงตัวที่ห้ามไม่หยุด ฉุดไม่อยู่ส่งตรงถึงหน้าบ้าน ต้องร้านเราเลยครับ… กดสั่งซื้อในตะกร้าได้เลยยยยยร้านกินจุ๊บจิ๊บ อร่อย สดใหม่ ส่งไว ได้คุณภาพ⭕️ กดดูรายละเอียดสินค้าและเลือกชมสินค้าอื่นๆของเราได้ทั้งสองช่องทาง1. Shopee : shopee.co.th/kinjubjibshop2. TikTok : https://www.tiktok.com/@kinjubjibshop?_t=ZS-8yDIw0654gK&_r=1เลือกช้อปได้ตามความชอบและคูปองของแต่ละช่องทางได้เลยค่ะ#นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา #ปลาเกล็ดขาวอบกรอบ #กุนเชียงปลา #กุนเชียงหมู #ของอร่อยต้องลอง #อร่อยดีบอกต่อ #อร่อยกี่โมง #คือจึ้งมาก #ปลาซิวกรอบ #ปลาซิวกรอบ #ปลากระพงทุบ #ปลาเกล็ดขาว #ปลาข้างเหลือง #กิมสั่วงา #ถุงใส่กับข้าว #ถุงppหนา #ถุงพลาสติก #ถุงร้อน#ถุงเย็น #นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา #ปลาเกล็ดขาวอบกรอบ #กุนเชียงปลา #กุนเชียงหมู #ของอร่อยต้องลอง #อร่อยดีบอกต่อ #อร่อยกี่โมง #คือจึ้งมาก#นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา #ปลาเกล็ดขาวอบกรอบ #กุนเชียงปลา #กุนเชียงหมู #ของอร่อยต้องลอง #อร่อยดีบอกต่อ #อร่อยกี่โมง #ปลาซิวกรอบ #ปลากระพงทุบ #ปลาข้างเหลือง #หอยลายอบกรอบ #ปลาข้างเหลือง #ปลาซิวทอดกรอบ #หมึกกระตอย #หมึกกะตอยตากแห้ง #ร้านกินจุ๊บจิ๊บ #ปลาข้าวสารแห้ง #อาหารทะเลแห้ง #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา
    ปลาจิ๊งจิ๊างงา ปลาจิ๊งจ๊างสมุนไพร …อร่อยเหมือนเดิม เพิ่มเติมความหลากหลาย… สั่งเลย สะอาด อร่อย ถูกใจทั้งครอบครัวววว ปลาจิ๊งจ๊างงา ใน Tiktok https://vt.tiktok.com/ZSABUhWne/ปลาจิ๊งจ๊างงา ใน Shopee https://s.shopee.co.th/3VaIRVrOorปลาจิ๊งจ๊างสมุนไพร ใน Tiktok https://vt.tiktok.com/ZSABUHDcE/ปลาจิ๊งจ๊างสมุนไพร ใน Shopee https://s.shopee.co.th/4VSpdKImmRถามว่าอร่อยกี่โมงก่อนนน…ความอร่อยลงตัวที่ห้ามไม่หยุด ฉุดไม่อยู่ส่งตรงถึงหน้าบ้าน ต้องร้านเราเลยครับ… กดสั่งซื้อในตะกร้าได้เลยยยยย😍ร้านกินจุ๊บจิ๊บ อร่อย สดใหม่ ส่งไว ได้คุณภาพ😍🌶️♨️⭕️ กดดูรายละเอียดสินค้าและเลือกชมสินค้าอื่นๆของเราได้ทั้งสองช่องทาง1. Shopee : shopee.co.th/kinjubjibshop2. TikTok : https://www.tiktok.com/@kinjubjibshop?_t=ZS-8yDIw0654gK&_r=1เลือกช้อปได้ตามความชอบและคูปองของแต่ละช่องทางได้เลยค่ะ#นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา #ปลาเกล็ดขาวอบกรอบ #กุนเชียงปลา #กุนเชียงหมู #ของอร่อยต้องลอง #อร่อยดีบอกต่อ #อร่อยกี่โมง #คือจึ้งมาก #ปลาซิวกรอบ #ปลาซิวกรอบ #ปลากระพงทุบ #ปลาเกล็ดขาว #ปลาข้างเหลือง #กิมสั่วงา #ถุงใส่กับข้าว #ถุงppหนา #ถุงพลาสติก #ถุงร้อน#ถุงเย็น #นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา #ปลาเกล็ดขาวอบกรอบ #กุนเชียงปลา #กุนเชียงหมู #ของอร่อยต้องลอง #อร่อยดีบอกต่อ #อร่อยกี่โมง #คือจึ้งมาก#นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา #ปลาเกล็ดขาวอบกรอบ #กุนเชียงปลา #กุนเชียงหมู #ของอร่อยต้องลอง #อร่อยดีบอกต่อ #อร่อยกี่โมง #ปลาซิวกรอบ #ปลากระพงทุบ #ปลาข้างเหลือง #หอยลายอบกรอบ #ปลาข้างเหลือง #ปลาซิวทอดกรอบ #หมึกกระตอย #หมึกกะตอยตากแห้ง #ร้านกินจุ๊บจิ๊บ #ปลาข้าวสารแห้ง #อาหารทะเลแห้ง #kinjubjibshop #ปลาจิ๊งจ๊างไม่งา
    0 Comments 0 Shares 614 Views 0 0 Reviews
  • พลเอก ณัฐพล นาคพาณิชย์ รมช.กลาโหม เผยถึงการผ่อนปรนเปิดด่านชายแดนไทย-กัมพูชา ไม่ได้ผ่อนปรนบุคคล แต่ผ่อนปรนการขนส่งสินค้า ในส่วนของบุคคลยังไม่สามารถข้ามไปมาได้ ขณะที่รถขนส่งสินค้าก็ไม่ได้ปล่อยเสรี มีการจำกัดจำนวน หากสังคมไม่ยอมรับอาจผ่อนปรนเป็นกรณี เช่น 2-3 เที่ยว แต่หากสังคมเห็นด้วยว่าเศรษฐกิจต้องขับเคลื่อนก็อาจผ่อนปรนเป็น 20- 30 เที่ยว หรือหากไม่ได้เลยก็ต้องพิจารณากันใหม่ ซึ่งต้นเหตุการเปิดด่านเกิดจากประเทศที่สามที่แจ้งว่าไทย-กัมพูชา ขัดแย้งกัน เขาเกี่ยวอะไรด้วย ทำให้เขาเดือดร้อน อยากให้เปิดด่านจันทบุรี-ตราด ซึ่งไทยและกัมพูชาก็เห็นด้วย ส่วนการรุกล้ำพื้นที่จะใช้กรณีบ้านหนองจาน จังหวัดสระแก้ว เป็นพื้นที่นำร่อง ซึ่งต้องนำแผนที่ไปให้กัมพูชาตรวจสอบ เรื่องเขตแดนทางกัมพูชาต้องการให้เข้าสู่เวทีประชุมเจบีซีก่อน

    -อำนาจอยู่ที่ผู้ปฏิบัติ
    -ตรวจสอบแน่แต่รอก่อน
    -อาจขยายผลถึง"ทักษิณ"
    -เสี่ยงน้ำท่วมเสียหาย 2 พันล.
    พลเอก ณัฐพล นาคพาณิชย์ รมช.กลาโหม เผยถึงการผ่อนปรนเปิดด่านชายแดนไทย-กัมพูชา ไม่ได้ผ่อนปรนบุคคล แต่ผ่อนปรนการขนส่งสินค้า ในส่วนของบุคคลยังไม่สามารถข้ามไปมาได้ ขณะที่รถขนส่งสินค้าก็ไม่ได้ปล่อยเสรี มีการจำกัดจำนวน หากสังคมไม่ยอมรับอาจผ่อนปรนเป็นกรณี เช่น 2-3 เที่ยว แต่หากสังคมเห็นด้วยว่าเศรษฐกิจต้องขับเคลื่อนก็อาจผ่อนปรนเป็น 20- 30 เที่ยว หรือหากไม่ได้เลยก็ต้องพิจารณากันใหม่ ซึ่งต้นเหตุการเปิดด่านเกิดจากประเทศที่สามที่แจ้งว่าไทย-กัมพูชา ขัดแย้งกัน เขาเกี่ยวอะไรด้วย ทำให้เขาเดือดร้อน อยากให้เปิดด่านจันทบุรี-ตราด ซึ่งไทยและกัมพูชาก็เห็นด้วย ส่วนการรุกล้ำพื้นที่จะใช้กรณีบ้านหนองจาน จังหวัดสระแก้ว เป็นพื้นที่นำร่อง ซึ่งต้องนำแผนที่ไปให้กัมพูชาตรวจสอบ เรื่องเขตแดนทางกัมพูชาต้องการให้เข้าสู่เวทีประชุมเจบีซีก่อน -อำนาจอยู่ที่ผู้ปฏิบัติ -ตรวจสอบแน่แต่รอก่อน -อาจขยายผลถึง"ทักษิณ" -เสี่ยงน้ำท่วมเสียหาย 2 พันล.
    Like
    2
    0 Comments 0 Shares 538 Views 0 0 Reviews
  • “AI สร้างอดีตที่เราไม่เคยมี — เมื่อความคิดถึงยุค 90 กลายเป็นภาพจำปลอมที่คนรุ่นใหม่หลงรัก”

    ในยุคที่โลกจริงเต็มไปด้วยความวุ่นวายและความไม่แน่นอน ผู้คนจำนวนมากหันกลับไปหาความทรงจำในอดีตเพื่อปลอบใจตนเอง และตอนนี้ AI ได้กลายเป็นเครื่องมือหลักในการสร้าง “อดีตจำลอง” ที่ทั้งสวยงามและน่าหลงใหล แม้จะไม่เคยเกิดขึ้นจริงก็ตาม

    บน TikTok และ Instagram มีคลิปวิดีโอจำนวนมากที่จำลองบรรยากาศยุค 80 และ 90 ด้วยภาพที่ดูเหมือนหลุดมาจากเทป VHS หรือโฆษณาเก่า — แต่ทั้งหมดถูกสร้างขึ้นด้วย AI เช่น Midjourney, DaVinci Resolve และ Photoshop โดยผู้สร้างเนื้อหาชื่อดังอย่าง Nostalgia Cat, Purest Nostalgia และ Maximal Nostalgia

    คลิปเหล่านี้มักมีตัวละครวัยรุ่นที่พูดประโยคชวนฝัน เช่น “ไม่มีแชต ไม่มี DM มีแต่เรื่องราวรอบกองไฟจนเช้า” ทั้งที่ยุค 2000 ก็มีมือถือแล้วก็ตาม ความย้อนแยงนี้ไม่ได้ทำให้ผู้ชมรู้สึกแปลก — กลับยิ่งเพิ่มความรู้สึก “คิดถึง” ที่ไม่ต้องอิงความจริง

    ผู้สร้างเนื้อหาอย่าง Josh Crowe และ Tavaius Dawson ยอมรับว่าไม่ได้ตั้งใจให้เนื้อหาถูกต้องทางประวัติศาสตร์ แต่เน้น “ความรู้สึกดี” และ “พื้นที่ปลอดภัย” สำหรับผู้ชม โดยมีผู้ติดตามเพิ่มขึ้นหลักแสนต่อเดือน และบางคลิปมียอดวิวถึง 27 ล้านครั้ง

    นักวิจารณ์วัฒนธรรมบางคน เช่น Christine Rosen เตือนว่า การจมอยู่กับภาพจำปลอมอาจทำให้เรายิ่งห่างจากความจริง และความรู้สึกคิดถึงนั้นอาจไม่ได้ช่วยเยียวยา แต่กลับทำให้รู้สึกแย่ลงเมื่อกลับสู่โลกจริง

    การสร้างเนื้อหาแนวย้อนยุคด้วย AI
    ใช้เครื่องมืออย่าง Midjourney, DaVinci Resolve และ Photoshop
    สร้างภาพจำยุค 80–90 ด้วยเทคนิค VHS, Polaroid และ 35mm film
    ตัวละครในคลิปเป็น AI ทั้งหมด รวมถึงบทพูดและฉาก
    เน้นความรู้สึก “คิดถึง” มากกว่าความถูกต้องทางประวัติศาสตร์

    ผู้สร้างเนื้อหาและกระแสตอบรับ
    Nostalgia Cat, Purest Nostalgia และ Maximal Nostalgia มีผู้ติดตามหลักแสน
    Josh Crowe ใช้ภาพจริงผสมกับ prompt engineering เพื่อสร้างฉาก
    Tavaius Dawson เขียนสคริปต์และ storyboard สำหรับแต่ละคลิป
    ผู้ชมจากทั่วโลก เช่น ยูเครนและอิสราเอล ส่งข้อความขอบคุณที่ช่วยเยียวยาจิตใจ

    ความรู้สึกคิดถึงในยุคดิจิทัล
    คนรุ่นใหม่ที่ไม่เคยอยู่ในยุคนั้นกลับรู้สึกผูกพันกับภาพจำที่สร้างขึ้น
    นักวิจัยเช่น Clay Routledge พบว่าเยาวชนมีแนวโน้ม “คิดถึงอดีต” มากขึ้น
    AI กลายเป็นเครื่องมือสร้าง “ความทรงจำจำลอง” ที่มีพลังทางอารมณ์
    ความนิยมของเนื้อหาแนวย้อนยุคเพิ่มขึ้นในช่วงที่โลกจริงเต็มไปด้วยความเครียด

    ข้อมูลเสริมจากภายนอก
    Vanilla Ice แสดงความคิดเห็นว่า “คอมพิวเตอร์ทำลายโลก” ในคลิป AI ย้อนยุค
    นักพัฒนาเว็บอย่าง Scott Anderson พบว่าตนเองดูคลิป AI โดยไม่รู้ตัว
    Christine Rosen เตือนว่า “ความคิดถึงที่สร้างด้วย AI อาจทำให้เรารู้สึกแย่ลง”
    ความนิยมของคลิปแนวย้อนยุคสะท้อนความต้องการ “ความมั่นคงทางอารมณ์”

    https://www.thestar.com.my/tech/tech-news/2025/09/11/remember-when-things-were-better-in-the-90s-ai-does-too
    📼 “AI สร้างอดีตที่เราไม่เคยมี — เมื่อความคิดถึงยุค 90 กลายเป็นภาพจำปลอมที่คนรุ่นใหม่หลงรัก” ในยุคที่โลกจริงเต็มไปด้วยความวุ่นวายและความไม่แน่นอน ผู้คนจำนวนมากหันกลับไปหาความทรงจำในอดีตเพื่อปลอบใจตนเอง และตอนนี้ AI ได้กลายเป็นเครื่องมือหลักในการสร้าง “อดีตจำลอง” ที่ทั้งสวยงามและน่าหลงใหล แม้จะไม่เคยเกิดขึ้นจริงก็ตาม บน TikTok และ Instagram มีคลิปวิดีโอจำนวนมากที่จำลองบรรยากาศยุค 80 และ 90 ด้วยภาพที่ดูเหมือนหลุดมาจากเทป VHS หรือโฆษณาเก่า — แต่ทั้งหมดถูกสร้างขึ้นด้วย AI เช่น Midjourney, DaVinci Resolve และ Photoshop โดยผู้สร้างเนื้อหาชื่อดังอย่าง Nostalgia Cat, Purest Nostalgia และ Maximal Nostalgia คลิปเหล่านี้มักมีตัวละครวัยรุ่นที่พูดประโยคชวนฝัน เช่น “ไม่มีแชต ไม่มี DM มีแต่เรื่องราวรอบกองไฟจนเช้า” ทั้งที่ยุค 2000 ก็มีมือถือแล้วก็ตาม ความย้อนแยงนี้ไม่ได้ทำให้ผู้ชมรู้สึกแปลก — กลับยิ่งเพิ่มความรู้สึก “คิดถึง” ที่ไม่ต้องอิงความจริง ผู้สร้างเนื้อหาอย่าง Josh Crowe และ Tavaius Dawson ยอมรับว่าไม่ได้ตั้งใจให้เนื้อหาถูกต้องทางประวัติศาสตร์ แต่เน้น “ความรู้สึกดี” และ “พื้นที่ปลอดภัย” สำหรับผู้ชม โดยมีผู้ติดตามเพิ่มขึ้นหลักแสนต่อเดือน และบางคลิปมียอดวิวถึง 27 ล้านครั้ง นักวิจารณ์วัฒนธรรมบางคน เช่น Christine Rosen เตือนว่า การจมอยู่กับภาพจำปลอมอาจทำให้เรายิ่งห่างจากความจริง และความรู้สึกคิดถึงนั้นอาจไม่ได้ช่วยเยียวยา แต่กลับทำให้รู้สึกแย่ลงเมื่อกลับสู่โลกจริง ✅ การสร้างเนื้อหาแนวย้อนยุคด้วย AI ➡️ ใช้เครื่องมืออย่าง Midjourney, DaVinci Resolve และ Photoshop ➡️ สร้างภาพจำยุค 80–90 ด้วยเทคนิค VHS, Polaroid และ 35mm film ➡️ ตัวละครในคลิปเป็น AI ทั้งหมด รวมถึงบทพูดและฉาก ➡️ เน้นความรู้สึก “คิดถึง” มากกว่าความถูกต้องทางประวัติศาสตร์ ✅ ผู้สร้างเนื้อหาและกระแสตอบรับ ➡️ Nostalgia Cat, Purest Nostalgia และ Maximal Nostalgia มีผู้ติดตามหลักแสน ➡️ Josh Crowe ใช้ภาพจริงผสมกับ prompt engineering เพื่อสร้างฉาก ➡️ Tavaius Dawson เขียนสคริปต์และ storyboard สำหรับแต่ละคลิป ➡️ ผู้ชมจากทั่วโลก เช่น ยูเครนและอิสราเอล ส่งข้อความขอบคุณที่ช่วยเยียวยาจิตใจ ✅ ความรู้สึกคิดถึงในยุคดิจิทัล ➡️ คนรุ่นใหม่ที่ไม่เคยอยู่ในยุคนั้นกลับรู้สึกผูกพันกับภาพจำที่สร้างขึ้น ➡️ นักวิจัยเช่น Clay Routledge พบว่าเยาวชนมีแนวโน้ม “คิดถึงอดีต” มากขึ้น ➡️ AI กลายเป็นเครื่องมือสร้าง “ความทรงจำจำลอง” ที่มีพลังทางอารมณ์ ➡️ ความนิยมของเนื้อหาแนวย้อนยุคเพิ่มขึ้นในช่วงที่โลกจริงเต็มไปด้วยความเครียด ✅ ข้อมูลเสริมจากภายนอก ➡️ Vanilla Ice แสดงความคิดเห็นว่า “คอมพิวเตอร์ทำลายโลก” ในคลิป AI ย้อนยุค ➡️ นักพัฒนาเว็บอย่าง Scott Anderson พบว่าตนเองดูคลิป AI โดยไม่รู้ตัว ➡️ Christine Rosen เตือนว่า “ความคิดถึงที่สร้างด้วย AI อาจทำให้เรารู้สึกแย่ลง” ➡️ ความนิยมของคลิปแนวย้อนยุคสะท้อนความต้องการ “ความมั่นคงทางอารมณ์” https://www.thestar.com.my/tech/tech-news/2025/09/11/remember-when-things-were-better-in-the-90s-ai-does-too
    WWW.THESTAR.COM.MY
    Remember when things were better in the '90s? AI does, too
    Dubious videos about the glory of bygone eras are creating nostalgia for those too young to fact check them.
    0 Comments 0 Shares 336 Views 0 Reviews
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 Comments 0 Shares 297 Views 0 Reviews
  • “Intel ยืนยันรีเฟรช Arrow Lake ปี 2026 ก่อนเปิดตัว Nova Lake ปลายปี — ยอมรับมีช่องโหว่ในตลาดเดสก์ท็อป แต่มั่นใจแผนระยะยาว”

    ในงานประชุมเทคโนโลยีของ Goldman Sachs ล่าสุด Intel ได้ออกมายืนยันแผนการเปิดตัวซีพียูรุ่นใหม่ โดยจะเริ่มจากการรีเฟรช Arrow Lake ในช่วงครึ่งแรกของปี 2026 ก่อนจะเปิดตัว Nova Lake ซึ่งเป็นสถาปัตยกรรมใหม่อย่างแท้จริงในช่วงปลายปีเดียวกัน และอาจลากยาวไปถึงต้นปี 2027

    John Pitzer รองประธานฝ่ายนักลงทุนสัมพันธ์ของ Intel ยอมรับว่า “มีช่องโหว่ที่ต้องเติมเต็มในตลาดเดสก์ท็อป” โดยเฉพาะเมื่อ AMD ยังคงครองตำแหน่งผู้นำด้านประสิทธิภาพการเล่นเกมด้วย Ryzen 9000 และเตรียมเปิดตัว Zen 6 ภายในปีหน้า ซึ่งอาจทำให้ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake รุ่นรีเฟรชให้มากขึ้น

    Arrow Lake Refresh จะยังคงใช้แพลตฟอร์ม LGA1851 เดิม และคาดว่าจะอยู่ในตระกูล Core Ultra Series 2 โดยมีการปรับปรุงด้าน binning และความเร็ว boost clock แต่ยังไม่เปลี่ยนแปลงจำนวนคอร์หลักมากนัก ส่วน Nova Lake จะใช้ซ็อกเก็ตใหม่ LGA1954 และเป็น Core Ultra Series 4 ที่มาพร้อมสถาปัตยกรรมใหม่ทั้งหมด เช่น Coyote Cove P-core และ Arctic Wolf E-core รวมถึงการรองรับการประมวลผลแบบ multi-tile

    แม้จะมีข่าวลือว่า Nova Lake จะใช้เทคโนโลยีการผลิตระดับ 2nm จาก TSMC แต่ Intel ก็ยังคงใช้ 18A node สำหรับบางรุ่น และเตรียมเปิดตัวเวอร์ชันโมบายในปี 2027 ตามหลังรุ่นเดสก์ท็อป

    แผนการเปิดตัวซีพียูของ Intel
    Arrow Lake Refresh เปิดตัวครึ่งแรกของปี 2026
    Nova Lake เปิดตัวปลายปี 2026 และต่อเนื่องถึงต้นปี 2027
    Arrow Lake ใช้แพลตฟอร์ม LGA1851 เดิม
    Nova Lake ใช้ซ็อกเก็ตใหม่ LGA1954 และสถาปัตยกรรมใหม่ทั้งหมด

    รายละเอียดทางเทคนิค
    Arrow Lake Refresh ปรับปรุง binning และ boost clock
    Nova Lake ใช้ Coyote Cove P-core และ Arctic Wolf E-core
    รองรับ multi-tile และกราฟิก Xe3 “Celestial”
    คาดว่าจะมีรุ่นสูงสุดถึง 52 คอร์ในเวอร์ชันเดสก์ท็อป

    สถานการณ์การแข่งขันกับ AMD
    AMD Ryzen 9000 ยังคงครองตำแหน่งผู้นำด้านเกม
    Zen 6 คาดว่าจะเปิดตัวก่อนสิ้นปี 2026
    AMD อาจเปิดตัวเวอร์ชันโมบายในปี 2027
    Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake Refresh

    ข้อมูลเสริมจากภายนอก
    Panther Lake จะเปิดตัวก่อน Arrow Lake Refresh สำหรับตลาดโน้ตบุ๊ก
    Nova Lake จะเป็นซีพียูรุ่นแรกของ Intel ที่ใช้ multi-compute die
    Intel อาจใช้ 14A node สำหรับลูกค้าภายนอกในอนาคต
    Core Ultra Series 3 จะใช้กับ Panther Lake และ Series 4 กับ Nova Lake

    https://www.tomshardware.com/pc-components/cpus/intel-confirms-arrow-lake-refresh-set-for-2026-nova-lake-later-that-year-company-admits-there-are-holes-to-fill-on-the-desktop-front-says-it-is-confident-in-the-roadmap
    🧩 “Intel ยืนยันรีเฟรช Arrow Lake ปี 2026 ก่อนเปิดตัว Nova Lake ปลายปี — ยอมรับมีช่องโหว่ในตลาดเดสก์ท็อป แต่มั่นใจแผนระยะยาว” ในงานประชุมเทคโนโลยีของ Goldman Sachs ล่าสุด Intel ได้ออกมายืนยันแผนการเปิดตัวซีพียูรุ่นใหม่ โดยจะเริ่มจากการรีเฟรช Arrow Lake ในช่วงครึ่งแรกของปี 2026 ก่อนจะเปิดตัว Nova Lake ซึ่งเป็นสถาปัตยกรรมใหม่อย่างแท้จริงในช่วงปลายปีเดียวกัน และอาจลากยาวไปถึงต้นปี 2027 John Pitzer รองประธานฝ่ายนักลงทุนสัมพันธ์ของ Intel ยอมรับว่า “มีช่องโหว่ที่ต้องเติมเต็มในตลาดเดสก์ท็อป” โดยเฉพาะเมื่อ AMD ยังคงครองตำแหน่งผู้นำด้านประสิทธิภาพการเล่นเกมด้วย Ryzen 9000 และเตรียมเปิดตัว Zen 6 ภายในปีหน้า ซึ่งอาจทำให้ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake รุ่นรีเฟรชให้มากขึ้น Arrow Lake Refresh จะยังคงใช้แพลตฟอร์ม LGA1851 เดิม และคาดว่าจะอยู่ในตระกูล Core Ultra Series 2 โดยมีการปรับปรุงด้าน binning และความเร็ว boost clock แต่ยังไม่เปลี่ยนแปลงจำนวนคอร์หลักมากนัก ส่วน Nova Lake จะใช้ซ็อกเก็ตใหม่ LGA1954 และเป็น Core Ultra Series 4 ที่มาพร้อมสถาปัตยกรรมใหม่ทั้งหมด เช่น Coyote Cove P-core และ Arctic Wolf E-core รวมถึงการรองรับการประมวลผลแบบ multi-tile แม้จะมีข่าวลือว่า Nova Lake จะใช้เทคโนโลยีการผลิตระดับ 2nm จาก TSMC แต่ Intel ก็ยังคงใช้ 18A node สำหรับบางรุ่น และเตรียมเปิดตัวเวอร์ชันโมบายในปี 2027 ตามหลังรุ่นเดสก์ท็อป ✅ แผนการเปิดตัวซีพียูของ Intel ➡️ Arrow Lake Refresh เปิดตัวครึ่งแรกของปี 2026 ➡️ Nova Lake เปิดตัวปลายปี 2026 และต่อเนื่องถึงต้นปี 2027 ➡️ Arrow Lake ใช้แพลตฟอร์ม LGA1851 เดิม ➡️ Nova Lake ใช้ซ็อกเก็ตใหม่ LGA1954 และสถาปัตยกรรมใหม่ทั้งหมด ✅ รายละเอียดทางเทคนิค ➡️ Arrow Lake Refresh ปรับปรุง binning และ boost clock ➡️ Nova Lake ใช้ Coyote Cove P-core และ Arctic Wolf E-core ➡️ รองรับ multi-tile และกราฟิก Xe3 “Celestial” ➡️ คาดว่าจะมีรุ่นสูงสุดถึง 52 คอร์ในเวอร์ชันเดสก์ท็อป ✅ สถานการณ์การแข่งขันกับ AMD ➡️ AMD Ryzen 9000 ยังคงครองตำแหน่งผู้นำด้านเกม ➡️ Zen 6 คาดว่าจะเปิดตัวก่อนสิ้นปี 2026 ➡️ AMD อาจเปิดตัวเวอร์ชันโมบายในปี 2027 ➡️ Intel ต้องเร่งสร้างความน่าสนใจให้กับ Arrow Lake Refresh ✅ ข้อมูลเสริมจากภายนอก ➡️ Panther Lake จะเปิดตัวก่อน Arrow Lake Refresh สำหรับตลาดโน้ตบุ๊ก ➡️ Nova Lake จะเป็นซีพียูรุ่นแรกของ Intel ที่ใช้ multi-compute die ➡️ Intel อาจใช้ 14A node สำหรับลูกค้าภายนอกในอนาคต ➡️ Core Ultra Series 3 จะใช้กับ Panther Lake และ Series 4 กับ Nova Lake https://www.tomshardware.com/pc-components/cpus/intel-confirms-arrow-lake-refresh-set-for-2026-nova-lake-later-that-year-company-admits-there-are-holes-to-fill-on-the-desktop-front-says-it-is-confident-in-the-roadmap
    0 Comments 0 Shares 310 Views 0 Reviews
  • “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference”

    NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน

    ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency

    ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด

    ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก

    ความสามารถของ Blackwell Ultra GB300
    เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200
    เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า
    ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS
    หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU

    เทคนิคซอฟต์แวร์ที่ใช้
    ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput
    ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล
    shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ
    ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps

    ผลการทดสอบ MLPerf v5.1
    GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper
    เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving
    ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI
    เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก

    ข้อมูลเสริมจากภายนอก
    DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก
    Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง
    Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน
    Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference

    https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    🚀 “NVIDIA Blackwell Ultra GB300 ทำลายสถิติ MLPerf — เร็วขึ้น 45% ใน DeepSeek R1 พร้อมเทคนิคใหม่ที่เปลี่ยนเกม AI inference” NVIDIA ประกาศความสำเร็จครั้งใหญ่ในการทดสอบ MLPerf v5.1 โดยชิป Blackwell Ultra GB300 NVL72 rack-scale system สามารถทำความเร็วในการประมวลผล inference ได้สูงกว่ารุ่นก่อนหน้า GB200 ถึง 45% ในโมเดล DeepSeek R1 ซึ่งเป็นหนึ่งในโมเดล AI ขนาดใหญ่ที่ซับซ้อนที่สุดในปัจจุบัน ความสำเร็จนี้เกิดจากการผสานระหว่างฮาร์ดแวร์ที่ทรงพลังและการปรับแต่งซอฟต์แวร์อย่างลึกซึ้ง โดย GB300 ใช้ tensor core ที่มีประสิทธิภาพสูงขึ้นถึง 2 เท่าในส่วน attention-layer และเพิ่ม FLOPS ด้าน AI compute อีก 1.5 เท่า พร้อมหน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ในด้านซอฟต์แวร์ NVIDIA ใช้ฟอร์แมต NVFP4 ซึ่งเป็น floating point แบบ 4-bit ที่ออกแบบมาเฉพาะสำหรับงาน AI reasoning โดยสามารถลดขนาดโมเดลและเพิ่ม throughput ได้โดยไม่เสียความแม่นยำ นอกจากนี้ยังใช้เทคนิคการ “shard” โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพโดยไม่เพิ่ม latency ระบบ GB300 NVL72 ยังมีแบนด์วิดท์รวมถึง 130 TBps ด้วย NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU แต่ละตัว ทำให้สามารถสื่อสารกันได้อย่างรวดเร็วและไม่มีคอขวด ทั้งหมดนี้เป็นส่วนหนึ่งของแนวคิด “AI Factory” ที่ NVIDIA ผลักดัน โดยเชื่อว่าการเพิ่ม throughput ในการประมวลผล AI จะช่วยเพิ่มรายได้ ลดต้นทุน และทำให้ระบบมีประสิทธิภาพสูงสุดในยุคที่ข้อมูลกลายเป็นสินทรัพย์หลัก ✅ ความสามารถของ Blackwell Ultra GB300 ➡️ เพิ่มความเร็ว inference ใน DeepSeek R1 ได้ถึง 45% เมื่อเทียบกับ GB200 ➡️ เร็วกว่า Hopper GPU รุ่นก่อนหน้าถึง 5 เท่า ➡️ ใช้ tensor core ที่มี 2X attention-layer acceleration และ 1.5X AI compute FLOPS ➡️ หน่วยความจำ HBM3e สูงสุด 288GB ต่อ GPU ✅ เทคนิคซอฟต์แวร์ที่ใช้ ➡️ ใช้ NVFP4 format เพื่อลดขนาดโมเดลและเพิ่ม throughput ➡️ ใช้ TensorRT Model Optimizer และ TensorRT-LLM library เพื่อปรับแต่งโมเดล ➡️ shard โมเดล Llama 3.1 405B ข้ามหลาย GPU เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ NVLink fabric ความเร็ว 1.8 TBps ระหว่าง GPU รวมเป็น 130 TBps ✅ ผลการทดสอบ MLPerf v5.1 ➡️ GB300 NVL72 ทำลายสถิติใน DeepSeek R1, Llama 3.1 405B, Llama 3.1 8B และ Whisper ➡️ เพิ่ม throughput ต่อ GPU ได้เกือบ 50% ด้วยเทคนิค disaggregated serving ➡️ ลด latency และเพิ่มประสิทธิภาพในงาน interactive AI ➡️ เหมาะกับการใช้งานในระบบ AI Factory ที่ต้องการประมวลผลจำนวนมาก ✅ ข้อมูลเสริมจากภายนอก ➡️ DeepSeek R1 เป็นโมเดล MoE ขนาด 671B parameter ที่ต้องใช้ compute สูงมาก ➡️ Whisper กลายเป็นโมเดลแปลงเสียงยอดนิยมบน HuggingFace ด้วยยอดดาวน์โหลดเกือบ 5 ล้านครั้ง ➡️ Llama 3.1 405B มีความต้องการด้าน latency และ throughput สูงกว่ารุ่นก่อน ➡️ Hopper GPU เริ่มล้าสมัยเมื่อเทียบกับ Blackwell Ultra ในงาน inference https://www.tomshardware.com/pc-components/gpus/nvidia-claims-software-and-hardware-upgrades-allow-blackwell-ultra-gb300-to-dominate-mlperf-benchmarks-touts-45-percent-deepseek-r-1-inference-throughput-increase-over-gb200
    0 Comments 0 Shares 321 Views 0 Reviews
  • “ประมูลพลาดหรือโชคชะตา? ผู้ใช้ Reddit ได้พีซีมูลค่า $8,000 ในราคาแค่ $23 — เมื่อเคสเปล่ากลายเป็นเวิร์กสเตชันระดับเทพ”

    เรื่องนี้เริ่มต้นจากการประมูลออนไลน์เล็ก ๆ ในเมืองโคลัมบัส รัฐโอไฮโอ ที่ผู้ขายตั้งรายการว่าเป็น “เคส Fractal Design Define 7 XL” พร้อมภาพสต็อกจากเว็บไซต์ผู้ผลิต ไม่มีใครรู้เลยว่าภายในเคสนั้นมีอะไรซ่อนอยู่ — จนกระทั่งผู้ใช้ Reddit ชื่อ LlamadeusGame ชนะการประมูลในราคาเพียง $23.50 และพบว่ามันคือพีซีระดับเวิร์กสเตชันที่เคยขายในราคา $8,000

    ภายในเคสมีฮาร์ดแวร์ระดับสูงที่ยังทรงพลังแม้จะไม่ใช่รุ่นล่าสุด ได้แก่ AMD Ryzen Threadripper 3960X แบบ 24 คอร์, แรม DDR4 ขนาด 256GB, การ์ดจอ RTX 3080 Ti และเมนบอร์ด Aorus Pro Wi-Fi TRX40 — ทั้งหมดนี้ยังมีไฟล์ของเจ้าของเดิมอยู่ในเครื่อง ซึ่งคาดว่าอาจเป็นเครื่องที่ถูกส่งซ่อมหรือเทิร์นคืนแล้วหลุดเข้าสู่ระบบประมูลโดยไม่ได้ตั้งใจ

    ผู้ใช้รายนี้ตั้งใจจะใช้เคสสำหรับสร้างเครื่องพัฒนา AI แต่เมื่อพบว่าฮาร์ดแวร์ภายในยังใช้งานได้ดี ก็เปลี่ยนแผนมาใช้ CPU, RAM และเมนบอร์ดเดิม ส่วนการ์ดจอจะถูกเปลี่ยน เพราะแม้ RTX 3080 Ti จะยังแรงสำหรับเกม แต่ไม่เหมาะกับงาน AI เทียบกับรุ่นใหม่ ๆ

    ชุมชน Reddit ต่างอิจฉาและยืนยันว่าเคสนี้น่าจะมาจากบริษัท Puget Systems ที่ผลิตเวิร์กสเตชันระดับมืออาชีพ โดยมีพนักงานของบริษัทมายืนยันในคอมเมนต์ว่าเครื่องนี้น่าจะขายในปี 2021 ในราคาประมาณ $8,000

    รายละเอียดของพีซีที่ได้จากการประมูล
    เคส Fractal Design Define 7 XL พร้อมฮาร์ดแวร์ภายในครบชุด
    CPU: AMD Ryzen Threadripper 3960X (24-core, 48-thread)
    RAM: DDR4 ขนาด 256GB
    GPU: NVIDIA RTX 3080 Ti (12GB VRAM)
    เมนบอร์ด: Aorus Pro Wi-Fi TRX40

    ที่มาของเครื่องและการใช้งาน
    คาดว่าเป็นเครื่องเวิร์กสเตชันจาก Puget Systems
    อาจถูกส่งคืนหรือหลุดจากระบบซ่อมโดยไม่ได้ตั้งใจ
    ผู้ใช้พบไฟล์ของเจ้าของเดิมในเครื่อง
    นำมาใช้สร้างเครื่องพัฒนา AI โดยเปลี่ยนเฉพาะ GPU

    ความคุ้มค่าของการประมูล
    ราคาประมูลเพียง $23.50 เทียบกับมูลค่าเดิม $8,000
    เคสเปล่าก็ยังมีมูลค่าราว $250 หากไม่มีฮาร์ดแวร์
    การ์ดจอ RTX 3080 Ti ยังมีราคาสูงในตลาดมือสอง
    Threadripper 3960X ยังแรงกว่า CPU ผู้บริโภคทั่วไปหลายรุ่น

    ข้อมูลเสริมจากภายนอก
    RTX 3080 Ti เทียบเท่า RTX 5070 ในด้าน rasterization
    RAM 256GB เหมาะกับงานตัดต่อภาพหรือวิดีโอระดับมืออาชีพ
    Threadripper 3960X เปิดตัวในปี 2019 ด้วยราคา $1,400
    Puget Systems เป็นแบรนด์ที่นิยมในกลุ่มผู้ใช้มืออาชีพด้านกราฟิกและ AI

    https://www.tomshardware.com/desktops/gaming-pcs/lucky-bidder-scoops-usd8-000-pc-for-usd23-at-auction-mislabelled-fractal-design-case-listing-had-24-core-threadripper-3960x-256gb-of-memory-and-an-rtx-3080-ti-inside
    💸 “ประมูลพลาดหรือโชคชะตา? ผู้ใช้ Reddit ได้พีซีมูลค่า $8,000 ในราคาแค่ $23 — เมื่อเคสเปล่ากลายเป็นเวิร์กสเตชันระดับเทพ” เรื่องนี้เริ่มต้นจากการประมูลออนไลน์เล็ก ๆ ในเมืองโคลัมบัส รัฐโอไฮโอ ที่ผู้ขายตั้งรายการว่าเป็น “เคส Fractal Design Define 7 XL” พร้อมภาพสต็อกจากเว็บไซต์ผู้ผลิต ไม่มีใครรู้เลยว่าภายในเคสนั้นมีอะไรซ่อนอยู่ — จนกระทั่งผู้ใช้ Reddit ชื่อ LlamadeusGame ชนะการประมูลในราคาเพียง $23.50 และพบว่ามันคือพีซีระดับเวิร์กสเตชันที่เคยขายในราคา $8,000 ภายในเคสมีฮาร์ดแวร์ระดับสูงที่ยังทรงพลังแม้จะไม่ใช่รุ่นล่าสุด ได้แก่ AMD Ryzen Threadripper 3960X แบบ 24 คอร์, แรม DDR4 ขนาด 256GB, การ์ดจอ RTX 3080 Ti และเมนบอร์ด Aorus Pro Wi-Fi TRX40 — ทั้งหมดนี้ยังมีไฟล์ของเจ้าของเดิมอยู่ในเครื่อง ซึ่งคาดว่าอาจเป็นเครื่องที่ถูกส่งซ่อมหรือเทิร์นคืนแล้วหลุดเข้าสู่ระบบประมูลโดยไม่ได้ตั้งใจ ผู้ใช้รายนี้ตั้งใจจะใช้เคสสำหรับสร้างเครื่องพัฒนา AI แต่เมื่อพบว่าฮาร์ดแวร์ภายในยังใช้งานได้ดี ก็เปลี่ยนแผนมาใช้ CPU, RAM และเมนบอร์ดเดิม ส่วนการ์ดจอจะถูกเปลี่ยน เพราะแม้ RTX 3080 Ti จะยังแรงสำหรับเกม แต่ไม่เหมาะกับงาน AI เทียบกับรุ่นใหม่ ๆ ชุมชน Reddit ต่างอิจฉาและยืนยันว่าเคสนี้น่าจะมาจากบริษัท Puget Systems ที่ผลิตเวิร์กสเตชันระดับมืออาชีพ โดยมีพนักงานของบริษัทมายืนยันในคอมเมนต์ว่าเครื่องนี้น่าจะขายในปี 2021 ในราคาประมาณ $8,000 ✅ รายละเอียดของพีซีที่ได้จากการประมูล ➡️ เคส Fractal Design Define 7 XL พร้อมฮาร์ดแวร์ภายในครบชุด ➡️ CPU: AMD Ryzen Threadripper 3960X (24-core, 48-thread) ➡️ RAM: DDR4 ขนาด 256GB ➡️ GPU: NVIDIA RTX 3080 Ti (12GB VRAM) ➡️ เมนบอร์ด: Aorus Pro Wi-Fi TRX40 ✅ ที่มาของเครื่องและการใช้งาน ➡️ คาดว่าเป็นเครื่องเวิร์กสเตชันจาก Puget Systems ➡️ อาจถูกส่งคืนหรือหลุดจากระบบซ่อมโดยไม่ได้ตั้งใจ ➡️ ผู้ใช้พบไฟล์ของเจ้าของเดิมในเครื่อง ➡️ นำมาใช้สร้างเครื่องพัฒนา AI โดยเปลี่ยนเฉพาะ GPU ✅ ความคุ้มค่าของการประมูล ➡️ ราคาประมูลเพียง $23.50 เทียบกับมูลค่าเดิม $8,000 ➡️ เคสเปล่าก็ยังมีมูลค่าราว $250 หากไม่มีฮาร์ดแวร์ ➡️ การ์ดจอ RTX 3080 Ti ยังมีราคาสูงในตลาดมือสอง ➡️ Threadripper 3960X ยังแรงกว่า CPU ผู้บริโภคทั่วไปหลายรุ่น ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 3080 Ti เทียบเท่า RTX 5070 ในด้าน rasterization ➡️ RAM 256GB เหมาะกับงานตัดต่อภาพหรือวิดีโอระดับมืออาชีพ ➡️ Threadripper 3960X เปิดตัวในปี 2019 ด้วยราคา $1,400 ➡️ Puget Systems เป็นแบรนด์ที่นิยมในกลุ่มผู้ใช้มืออาชีพด้านกราฟิกและ AI https://www.tomshardware.com/desktops/gaming-pcs/lucky-bidder-scoops-usd8-000-pc-for-usd23-at-auction-mislabelled-fractal-design-case-listing-had-24-core-threadripper-3960x-256gb-of-memory-and-an-rtx-3080-ti-inside
    0 Comments 0 Shares 262 Views 0 Reviews
  • “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป”

    ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล

    เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว

    ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods

    แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์

    การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง

    วิธีการอัปเกรด RTX 4090 เป็น 48GB
    ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style
    ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่
    ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB
    ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน

    ประสิทธิภาพและการใช้งาน
    สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล
    ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม
    ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU
    ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร

    ข้อมูลเสริมจากภายนอก
    การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39%
    GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning
    PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน
    เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง

    https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    🧠 “เปลี่ยน RTX 4090 เป็นการ์ด AI 48GB ด้วยชุดอัปเกรด $142 — เมื่อโรงงานจีนสร้าง GPU ระดับดาต้าเซ็นเตอร์จากเกมมิ่งแฟลกชิป” ในยุคที่การประมวลผล AI ต้องการหน่วยความจำมหาศาล การ์ดจอเกมมิ่งระดับสูงอย่าง RTX 4090 ก็ถูกนำมาดัดแปลงให้กลายเป็น GPU สำหรับงาน AI โดยเฉพาะในจีนที่มีข้อจำกัดด้านการนำเข้าอุปกรณ์ AI จากสหรัฐฯ โรงงานหลายแห่งจึงเริ่ม “แปลงร่าง” RTX 4090 ให้กลายเป็นการ์ด 48GB ที่สามารถรันโมเดลขนาดใหญ่ได้อย่างลื่นไหล เทคนิคนี้เริ่มจากการใช้ชุดอัปเกรดที่ขายในจีนในราคาเพียง $142 ซึ่งประกอบด้วย PCB แบบ clamshell ที่รองรับการติดตั้งชิปหน่วยความจำทั้งสองด้าน (เหมือนกับ RTX 3090) และระบบระบายความร้อนแบบ blower-style ที่เหมาะกับเซิร์ฟเวอร์ GPU หลายตัว ช่างเทคนิคชื่อ VIK-on ได้สาธิตการถอดชิป AD102 และ GDDR6X ขนาด 2GB จำนวน 12 ตัวจากการ์ด MSI RTX 4090 Suprim แล้วนำไปติดตั้งบน PCB ใหม่ พร้อมอัปโหลดเฟิร์มแวร์ที่ถูกดัดแปลงให้รองรับหน่วยความจำ 48GB โดยใช้เครื่องมือภายในของ NVIDIA ที่หลุดออกมา เช่น MATS และ Mods แม้จะต้องใช้ทักษะการบัดกรีระดับสูงและอุปกรณ์เฉพาะทาง แต่ผลลัพธ์คือการ์ด RTX 4090 ที่สามารถรันโมเดล LLM ขนาด 70B ได้อย่างเสถียร โดยไม่ต้องพึ่งการ์ดระดับดาต้าเซ็นเตอร์ที่มีราคาหลายพันดอลลาร์ การ์ดที่ถูกดัดแปลงนี้ยังสามารถใช้งานกับไดรเวอร์ NVIDIA ได้ตามปกติ และมีการทดสอบความร้อนและประสิทธิภาพผ่าน Furmark, 3DMark และแอปพลิเคชัน AI เพื่อยืนยันว่าใช้งานได้จริง ✅ วิธีการอัปเกรด RTX 4090 เป็น 48GB ➡️ ใช้ชุดอัปเกรด $142 ที่มี PCB แบบ clamshell และระบบระบายความร้อน blower-style ➡️ ถอดชิป AD102 และ GDDR6X จากการ์ดเดิมแล้วติดตั้งบน PCB ใหม่ ➡️ ใช้เฟิร์มแวร์ดัดแปลงเพื่อให้ระบบรู้จักหน่วยความจำ 48GB ➡️ ใช้ชิปหน่วยความจำจากการ์ดเสียเพื่อลดต้นทุน ✅ ประสิทธิภาพและการใช้งาน ➡️ สามารถรันโมเดล LLM ขนาด 70B ได้อย่างลื่นไหล ➡️ ใช้งานกับไดรเวอร์ NVIDIA ได้โดยไม่ต้องแก้ไขเพิ่มเติม ➡️ ระบบระบายความร้อน blower-style เหมาะกับเซิร์ฟเวอร์หลาย GPU ➡️ ทดสอบผ่าน Furmark, 3DMark และแอป AI เพื่อยืนยันความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ การ์ด RTX 4090 48GB ขายในจีนราว $3,320 — ถูกกว่าดาต้าเซ็นเตอร์ GPU ถึง 39% ➡️ GPU AD102 มีประสิทธิภาพสูงในงาน AI และ deep learning ➡️ PCB แบบ clamshell เคยใช้ใน RTX 3090 เพื่อรองรับหน่วยความจำสองด้าน ➡️ เฟิร์มแวร์ NVIDIA มีระบบตรวจสอบ device ID เพื่อป้องกันการดัดแปลง https://www.tomshardware.com/pc-components/gpus/usd142-upgrade-kit-and-spare-modules-turn-nvidia-rtx-4090-24gb-to-48gb-ai-card-technician-explains-how-chinese-factories-turn-gaming-flagships-into-highly-desirable-ai-gpus
    0 Comments 0 Shares 253 Views 0 Reviews
  • “สหรัฐฯ ตั้งค่าหัว $11 ล้าน ล่าตัวแฮกเกอร์ยูเครน Volodymyr Tymoshchuk — ผู้อยู่เบื้องหลังการโจมตีไซเบอร์มูลค่า $18 พันล้านทั่วโลก”

    Volodymyr Tymoshchuk ชายชาวยูเครนวัย 28 ปี กลายเป็นเป้าหมายอันดับต้น ๆ ของหน่วยงานความมั่นคงไซเบอร์ทั่วโลก หลังจากถูกกล่าวหาว่าเป็นหัวหน้าทีมแฮกเกอร์ที่อยู่เบื้องหลังการโจมตีด้วย ransomware ชุดใหญ่ ได้แก่ MegaCortex, LockerGoga และ Nefilim ซึ่งสร้างความเสียหายให้กับบริษัทกว่า 250 แห่งในสหรัฐฯ และอีกหลายร้อยแห่งทั่วโลก รวมมูลค่าความเสียหายกว่า $18 พันล้าน

    หนึ่งในเหตุการณ์ที่โด่งดังที่สุดคือการโจมตีบริษัทพลังงานหมุนเวียน Norsk Hydro ในปี 2019 ซึ่งทำให้ระบบของบริษัทกว่า 170 แห่งทั่วโลกหยุดชะงัก และสร้างความเสียหายกว่า $81 ล้าน. Tymoshchuk ถูกกล่าวหาว่าใช้เครื่องมือเจาะระบบอย่าง Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่ายของเหยื่อเป็นเวลาหลายเดือนก่อนปล่อย ransomware

    หลังจาก LockerGoga และ MegaCortex ถูกถอดรหัสโดยหน่วยงานความมั่นคง Tymoshchuk ก็หันไปพัฒนา Nefilim ซึ่งเน้นโจมตีบริษัทที่มีมูลค่ามากกว่า $100 ล้าน โดยขายสิทธิ์การเข้าถึงให้กับแฮกเกอร์รายอื่น แลกกับส่วนแบ่ง 20% จากเงินค่าไถ่ที่ได้รับ

    ล่าสุด กระทรวงยุติธรรมสหรัฐฯ ได้ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลที่นำไปสู่การจับกุม Tymoshchuk และเปิดเผยรายชื่อเหยื่อบางส่วนในคำฟ้องที่ถูกเปิดเผยเมื่อวันที่ 9 กันยายน 2025 โดยเขาถูกตั้งข้อหาทั้งหมด 7 กระทง รวมถึงการทำลายข้อมูลโดยเจตนา การเข้าถึงระบบโดยไม่ได้รับอนุญาต และการข่มขู่เปิดเผยข้อมูลส่วนตัว

    ข้อมูลจากข่าวการตั้งค่าหัว
    สหรัฐฯ ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลนำไปสู่การจับกุม Tymoshchuk
    ถูกกล่าวหาว่าอยู่เบื้องหลัง ransomware MegaCortex, LockerGoga และ Nefilim
    สร้างความเสียหายรวมกว่า $18 พันล้านทั่วโลก
    หน่วยงานที่ร่วมมือ ได้แก่ FBI, DOJ, Europol และรัฐบาลฝรั่งเศส, เยอรมนี, นอร์เวย์

    รายละเอียดการโจมตี
    MegaCortex เปลี่ยนรหัสผ่าน Windows และเข้ารหัสไฟล์ของเหยื่อ
    LockerGoga โจมตี Norsk Hydro ทำให้ระบบกว่า 170 แห่งหยุดชะงัก
    Nefilim เน้นโจมตีบริษัทมูลค่ามากกว่า $100 ล้าน และขายสิทธิ์ให้แฮกเกอร์อื่น
    ใช้เครื่องมือเจาะระบบ เช่น Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่าย

    ข้อมูลเสริมจากภายนอก
    Tymoshchuk ใช้นามแฝงหลายชื่อ เช่น “deadforz”, “Boba”, “msfv”, “farnetwork”
    Europol จัดให้เขาอยู่ในรายชื่อ “Most Wanted” ของยุโรป
    การโจมตีบางครั้งทำให้บริษัทต้องจ่ายค่าไถ่เกิน $1 ล้านต่อครั้ง
    คำฟ้องระบุว่าเขาอาจถูกลงโทษสูงสุดถึงจำคุกตลอดชีวิต หากถูกจับและตัดสินว่าผิด

    คำเตือนและข้อจำกัด
    Tymoshchuk ยังไม่ถูกจับ — ยังคงหลบหนีและอาจมีการโจมตีเพิ่มเติม
    การโจมตีแบบแฝงตัวหลายเดือนทำให้ตรวจจับได้ยาก
    บริษัทที่ถูกโจมตีมักไม่มีทางเลือกอื่นนอกจากจ่ายค่าไถ่
    การใช้เครื่องมือเจาะระบบที่ถูกต้องตามกฎหมายในทางผิด ทำให้การป้องกันซับซ้อน
    การเปิดเผยข้อมูลส่วนตัวของเหยื่อเป็นภัยร้ายแรงต่อความมั่นคงองค์กร

    https://www.tomshardware.com/tech-industry/cyber-security/u-s-places-usd11-million-bounty-on-ukrainian-ransomware-mastermind-tymoshchuk-allegedly-stole-usd18-billion-from-large-companies-over-3-years
    🕵️‍♂️ “สหรัฐฯ ตั้งค่าหัว $11 ล้าน ล่าตัวแฮกเกอร์ยูเครน Volodymyr Tymoshchuk — ผู้อยู่เบื้องหลังการโจมตีไซเบอร์มูลค่า $18 พันล้านทั่วโลก” Volodymyr Tymoshchuk ชายชาวยูเครนวัย 28 ปี กลายเป็นเป้าหมายอันดับต้น ๆ ของหน่วยงานความมั่นคงไซเบอร์ทั่วโลก หลังจากถูกกล่าวหาว่าเป็นหัวหน้าทีมแฮกเกอร์ที่อยู่เบื้องหลังการโจมตีด้วย ransomware ชุดใหญ่ ได้แก่ MegaCortex, LockerGoga และ Nefilim ซึ่งสร้างความเสียหายให้กับบริษัทกว่า 250 แห่งในสหรัฐฯ และอีกหลายร้อยแห่งทั่วโลก รวมมูลค่าความเสียหายกว่า $18 พันล้าน หนึ่งในเหตุการณ์ที่โด่งดังที่สุดคือการโจมตีบริษัทพลังงานหมุนเวียน Norsk Hydro ในปี 2019 ซึ่งทำให้ระบบของบริษัทกว่า 170 แห่งทั่วโลกหยุดชะงัก และสร้างความเสียหายกว่า $81 ล้าน. Tymoshchuk ถูกกล่าวหาว่าใช้เครื่องมือเจาะระบบอย่าง Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่ายของเหยื่อเป็นเวลาหลายเดือนก่อนปล่อย ransomware หลังจาก LockerGoga และ MegaCortex ถูกถอดรหัสโดยหน่วยงานความมั่นคง Tymoshchuk ก็หันไปพัฒนา Nefilim ซึ่งเน้นโจมตีบริษัทที่มีมูลค่ามากกว่า $100 ล้าน โดยขายสิทธิ์การเข้าถึงให้กับแฮกเกอร์รายอื่น แลกกับส่วนแบ่ง 20% จากเงินค่าไถ่ที่ได้รับ ล่าสุด กระทรวงยุติธรรมสหรัฐฯ ได้ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลที่นำไปสู่การจับกุม Tymoshchuk และเปิดเผยรายชื่อเหยื่อบางส่วนในคำฟ้องที่ถูกเปิดเผยเมื่อวันที่ 9 กันยายน 2025 โดยเขาถูกตั้งข้อหาทั้งหมด 7 กระทง รวมถึงการทำลายข้อมูลโดยเจตนา การเข้าถึงระบบโดยไม่ได้รับอนุญาต และการข่มขู่เปิดเผยข้อมูลส่วนตัว ✅ ข้อมูลจากข่าวการตั้งค่าหัว ➡️ สหรัฐฯ ตั้งค่าหัว $11 ล้าน สำหรับข้อมูลนำไปสู่การจับกุม Tymoshchuk ➡️ ถูกกล่าวหาว่าอยู่เบื้องหลัง ransomware MegaCortex, LockerGoga และ Nefilim ➡️ สร้างความเสียหายรวมกว่า $18 พันล้านทั่วโลก ➡️ หน่วยงานที่ร่วมมือ ได้แก่ FBI, DOJ, Europol และรัฐบาลฝรั่งเศส, เยอรมนี, นอร์เวย์ ✅ รายละเอียดการโจมตี ➡️ MegaCortex เปลี่ยนรหัสผ่าน Windows และเข้ารหัสไฟล์ของเหยื่อ ➡️ LockerGoga โจมตี Norsk Hydro ทำให้ระบบกว่า 170 แห่งหยุดชะงัก ➡️ Nefilim เน้นโจมตีบริษัทมูลค่ามากกว่า $100 ล้าน และขายสิทธิ์ให้แฮกเกอร์อื่น ➡️ ใช้เครื่องมือเจาะระบบ เช่น Metasploit และ Cobalt Strike เพื่อแฝงตัวในเครือข่าย ✅ ข้อมูลเสริมจากภายนอก ➡️ Tymoshchuk ใช้นามแฝงหลายชื่อ เช่น “deadforz”, “Boba”, “msfv”, “farnetwork” ➡️ Europol จัดให้เขาอยู่ในรายชื่อ “Most Wanted” ของยุโรป ➡️ การโจมตีบางครั้งทำให้บริษัทต้องจ่ายค่าไถ่เกิน $1 ล้านต่อครั้ง ➡️ คำฟ้องระบุว่าเขาอาจถูกลงโทษสูงสุดถึงจำคุกตลอดชีวิต หากถูกจับและตัดสินว่าผิด ‼️ คำเตือนและข้อจำกัด ⛔ Tymoshchuk ยังไม่ถูกจับ — ยังคงหลบหนีและอาจมีการโจมตีเพิ่มเติม ⛔ การโจมตีแบบแฝงตัวหลายเดือนทำให้ตรวจจับได้ยาก ⛔ บริษัทที่ถูกโจมตีมักไม่มีทางเลือกอื่นนอกจากจ่ายค่าไถ่ ⛔ การใช้เครื่องมือเจาะระบบที่ถูกต้องตามกฎหมายในทางผิด ทำให้การป้องกันซับซ้อน ⛔ การเปิดเผยข้อมูลส่วนตัวของเหยื่อเป็นภัยร้ายแรงต่อความมั่นคงองค์กร https://www.tomshardware.com/tech-industry/cyber-security/u-s-places-usd11-million-bounty-on-ukrainian-ransomware-mastermind-tymoshchuk-allegedly-stole-usd18-billion-from-large-companies-over-3-years
    WWW.TOMSHARDWARE.COM
    U.S. places $11 million bounty on Ukrainian ransomware mastermind — Tymoshchuk allegedly stole $18 billion from large companies over 3 years
    Volodymyr Tymoshchuk is accused of masterminding ransomware that disrupted 250 companies in the United States alone.
    0 Comments 0 Shares 360 Views 0 Reviews
  • “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ”

    จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ

    แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน

    แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ

    นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป

    ความคืบหน้าการผลิตชิป AI ในจีน
    Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026
    SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class
    Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B
    SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027

    ปัญหาด้านหน่วยความจำ HBM
    Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน
    คาดว่า HBM จะหมดภายในสิ้นปี 2025
    CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป
    YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM

    การลงทุนและแผนระยะยาว
    Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง
    ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน
    หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ
    เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้
    CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน
    Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI
    จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    🇨🇳 “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ” จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป ✅ ความคืบหน้าการผลิตชิป AI ในจีน ➡️ Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026 ➡️ SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class ➡️ Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B ➡️ SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027 ✅ ปัญหาด้านหน่วยความจำ HBM ➡️ Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน ➡️ คาดว่า HBM จะหมดภายในสิ้นปี 2025 ➡️ CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป ➡️ YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM ✅ การลงทุนและแผนระยะยาว ➡️ Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง ➡️ ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน ➡️ หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ ➡️ เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้ ➡️ CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน ➡️ Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI ➡️ จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    0 Comments 0 Shares 322 Views 0 Reviews
  • 'ศศิกานต์' ยัน 'พีระพันธุ์' บริสุทธิ์! ศาล รธน. ตีตกคำร้องถือหุ้น ปิดฉากเกมการเมือง!
    https://www.thai-tai.tv/news/21420/
    .
    #ไทยไท #พีระพันธุ์สาลีรัฐวิภาค #รวมไทยสร้างชาติ #ศาลรัฐธรรมนูญ #ข่าวการเมือง #ข่าววันนี้
    'ศศิกานต์' ยัน 'พีระพันธุ์' บริสุทธิ์! ศาล รธน. ตีตกคำร้องถือหุ้น ปิดฉากเกมการเมือง! https://www.thai-tai.tv/news/21420/ . #ไทยไท #พีระพันธุ์สาลีรัฐวิภาค #รวมไทยสร้างชาติ #ศาลรัฐธรรมนูญ #ข่าวการเมือง #ข่าววันนี้
    0 Comments 0 Shares 165 Views 0 Reviews
  • “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร”

    ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง

    ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง

    Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด

    หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C

    การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก

    การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle
    TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park
    เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง
    ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ
    เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก

    ความสำคัญของ pellicle ใน EUV
    ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง
    ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์
    EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C
    pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง

    เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา
    ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน
    ลด optical absorption และ wavefront distortion
    รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง
    เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm

    ข้อมูลเสริมจากภายนอก
    ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui
    EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ
    ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี
    การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect

    https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    🔬 “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร” ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก ✅ การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle ➡️ TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park ➡️ เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง ➡️ ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ ➡️ เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก ✅ ความสำคัญของ pellicle ใน EUV ➡️ ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง ➡️ ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์ ➡️ EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C ➡️ pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง ✅ เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา ➡️ ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน ➡️ ลด optical absorption และ wavefront distortion ➡️ รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง ➡️ เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm ✅ ข้อมูลเสริมจากภายนอก ➡️ ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui ➡️ EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ ➡️ ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี ➡️ การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    WWW.TECHPOWERUP.COM
    TSMC Repurposing Old Fabs to Bring EUV Pellicle Production In-House
    TSMC is repurposing its old, wound-down, 8-inch Fab 3 in Hsinchu Science Park to produce extreme ultraviolet pellicles, bringing this production in-house. An EUV pellicle is a thin, highly transparent membrane stretched above a photomask to prevent particles from contacting the mask during EUV expos...
    0 Comments 0 Shares 228 Views 0 Reviews
  • https://youtu.be/FIRWckqVruo?si=tjHMhvq13KrPW6UL
    https://youtu.be/FIRWckqVruo?si=tjHMhvq13KrPW6UL
    0 Comments 0 Shares 45 Views 0 Reviews
  • ว่าที่ รมว.กลาโหม โอ้อวดชัยชนะบนโต๊ะเจรจา แต่ชีวิตจริง ทหารไทยยังต้องเสี่ยงขาขาด
    #คิงส์โพธิ์แดง
    #เขมรไว้ใจไม่ได้
    ว่าที่ รมว.กลาโหม โอ้อวดชัยชนะบนโต๊ะเจรจา แต่ชีวิตจริง ทหารไทยยังต้องเสี่ยงขาขาด #คิงส์โพธิ์แดง #เขมรไว้ใจไม่ได้
    0 Comments 0 Shares 214 Views 0 Reviews
  • ‘สมชาย’! โพสต์จี้ ‘รมว.ยุติธรรม’! ทำไมต้องปรับพื้นที่ รพ.ราชทัณฑ์! ชี้อาจเกี่ยวข้องกับนักโทษ VVIP!
    https://www.thai-tai.tv/news/21421/
    .
    #ไทยไท #สมชายแสวงการ #กระทรวงยุติธรรม #กรมราชทัณฑ์ #เรือนจำคลองเปรม #ข่าวการเมือง #ข่าววันนี้
    ‘สมชาย’! โพสต์จี้ ‘รมว.ยุติธรรม’! ทำไมต้องปรับพื้นที่ รพ.ราชทัณฑ์! ชี้อาจเกี่ยวข้องกับนักโทษ VVIP! https://www.thai-tai.tv/news/21421/ . #ไทยไท #สมชายแสวงการ #กระทรวงยุติธรรม #กรมราชทัณฑ์ #เรือนจำคลองเปรม #ข่าวการเมือง #ข่าววันนี้
    0 Comments 0 Shares 203 Views 0 Reviews
  • ♣ สนามบินเตโช ตาขเมา กัมพูชา รองรับนักท่องเที่ยว หรือรองรับผีพณัณ สแกมเมอร์ คอลเซนเตอร์ แถมตกเป็นทาสเจ้าหนี้ให้กับจีน แบบไม่ต้องผุดไม่ต้องเกิด
    #7ดอกจิก
    ♣ สนามบินเตโช ตาขเมา กัมพูชา รองรับนักท่องเที่ยว หรือรองรับผีพณัณ สแกมเมอร์ คอลเซนเตอร์ แถมตกเป็นทาสเจ้าหนี้ให้กับจีน แบบไม่ต้องผุดไม่ต้องเกิด #7ดอกจิก
    Like
    1
    0 Comments 0 Shares 206 Views 0 Reviews
  • ญี่ปุ่น!!! ตอบคนไทยด่วน
    รับงานเขมรมาบีบไทย ให้เปิดด่านจริงมั้ย ญี่ปุ่นเอาความสัมพันธ์ 138 ปีกับไทย มาแลกให้ชนชาติจังไรหรือ
    #7ดอกจิก
    ญี่ปุ่น!!! ตอบคนไทยด่วน รับงานเขมรมาบีบไทย ให้เปิดด่านจริงมั้ย ญี่ปุ่นเอาความสัมพันธ์ 138 ปีกับไทย มาแลกให้ชนชาติจังไรหรือ #7ดอกจิก
    0 Comments 0 Shares 132 Views 0 Reviews
  • เจอแล้วหนึ่ง ประเทศที่3 ตามที่บิ๊กเล็กอ้างอยากให้เปิดด่านค้าขาย มันจะเป็นชนชาติไหนไปไม่ได้นอกจาก "ชาติชั่ว" กลัวเสียผลประโยชน์มากกว่าอธิปไตย
    #คิงส์โพธิ์แดง
    #ปิดด่านถาวร
    เจอแล้วหนึ่ง ประเทศที่3 ตามที่บิ๊กเล็กอ้างอยากให้เปิดด่านค้าขาย มันจะเป็นชนชาติไหนไปไม่ได้นอกจาก "ชาติชั่ว" กลัวเสียผลประโยชน์มากกว่าอธิปไตย #คิงส์โพธิ์แดง #ปิดด่านถาวร
    Like
    Haha
    2
    0 Comments 0 Shares 178 Views 0 Reviews
  • ทหารไทย มีนายพลทหารที่ไม่รักประขาชนรักชาติบ้านเมืองจริง ใช้ตำแหน่งทางทหารตนทำลายทำร้ายชาติไทยของคนไทยทั้งประเทศบนคราบความเป็นทหารที่ตัวมันใช้ก่อการ,
    ..ยุติขบวนการเจรจาแบบลักษณะทันที,ให้ทหารไทยคุยกับทหารเขมรเอง,ทหารแบบแม่ทัพภาค2สมควรเป็นประธานตัวแทนประเทศไทยไปตบหัวเขมรเอามันมานั่งเคลียร์กันจริงจัง,แล้วจับมาดูการทำเขตแดนให้ตรงกันทั้งสองฝ่ายให้จบ,คณะกากๆแบบนี้ เกิดการประชุมมาหลายครั้งแล้วส่อแต่สมยอมให้เขมรตลอดมาถือว่าทรยศต่อแผ่นดินอธิปไตยตนชัดเจนแล้ว,
    ..ตนเองฝ่ายไทยต้องคุยเรื่องเขตแดนให้จบ สร้างรั้วพรมแดนให้จบก่อน การทะเลาะเรื่องใครมาล้ำเขตใครก็จะสิ้นสุดทันที กับระเบิดกู้ตอนไหนก็ได้ ฝ่ายไทยกู้เองก็ได้ตลอดแผ่นดินไทยโดยเขมรต้องจ่ายชดเชยจ่ายการทำงานเก็บกู้ที่ทหารเขมรมาวางกับระเบิดฝั่งไทยดินแดนไทยนี้ทั้งหมด ส่วนฝั่งมรึงเขมรจะไม่เก็บกู้ก็เรื่องของมรึง,ทีมเจรจาต้องทำงานเชิงนี้ให้สำเร็จ กระทรวงต่างประเทศต้องจบเรื่องนี้ทันทีด้วย มันสมควรจบเรื่องพรมแดนลักษณะนี้นานแล้ว และไม่จบต้องทำให้จบทันที,ทำไม่ได้ก็ยุบกระทรวงการต่างประเทศทิ้งไปล้างอิทธิพลขัดขวางการทำงานนี้ทั้งหมด,ตั้งเป็นกระทรวงใหม่ได้,จริงๆเรื่องนี้สามารถทำเสร็จไปนานแล้วแต่ไม่พยายามทำในรัฐบาลที่ผ่านๆมาทั้งหมด,เราจะมาปกครองแบบกากๆเดิมๆไม่สมควรแล้ว เขตแดนทั่วแผ่นดินไทยสมควรจบและชัดเจนทั้งหมดได้แล้วในพ.ศ.นี้,ตัดงบประมาณคมนาคมภายในประเทศทันที กว่าแสนล้านต่อปี ถนนดีๆก็ขุดทิ้งสร้างใหม่แดกงบประมาณทุกๆปี,โกงกินเป็นว่าเล่น,ไทยต้องรื้อรีเซ็ตระบบใหม่ทั้งหมด โดยเฉพาะกระทรวงกลาโหมตอนนี้ ซึ่งน่าอนาถใจมาก มีการเมืองบนเขียงกองทัพไทยแบบนี้ใช้ไม่ได้.

    https://youtube.com/shorts/LKo5wcuLtPY?si=yjrJKEFzyrwg2FsJ
    ทหารไทย มีนายพลทหารที่ไม่รักประขาชนรักชาติบ้านเมืองจริง ใช้ตำแหน่งทางทหารตนทำลายทำร้ายชาติไทยของคนไทยทั้งประเทศบนคราบความเป็นทหารที่ตัวมันใช้ก่อการ, ..ยุติขบวนการเจรจาแบบลักษณะทันที,ให้ทหารไทยคุยกับทหารเขมรเอง,ทหารแบบแม่ทัพภาค2สมควรเป็นประธานตัวแทนประเทศไทยไปตบหัวเขมรเอามันมานั่งเคลียร์กันจริงจัง,แล้วจับมาดูการทำเขตแดนให้ตรงกันทั้งสองฝ่ายให้จบ,คณะกากๆแบบนี้ เกิดการประชุมมาหลายครั้งแล้วส่อแต่สมยอมให้เขมรตลอดมาถือว่าทรยศต่อแผ่นดินอธิปไตยตนชัดเจนแล้ว, ..ตนเองฝ่ายไทยต้องคุยเรื่องเขตแดนให้จบ สร้างรั้วพรมแดนให้จบก่อน การทะเลาะเรื่องใครมาล้ำเขตใครก็จะสิ้นสุดทันที กับระเบิดกู้ตอนไหนก็ได้ ฝ่ายไทยกู้เองก็ได้ตลอดแผ่นดินไทยโดยเขมรต้องจ่ายชดเชยจ่ายการทำงานเก็บกู้ที่ทหารเขมรมาวางกับระเบิดฝั่งไทยดินแดนไทยนี้ทั้งหมด ส่วนฝั่งมรึงเขมรจะไม่เก็บกู้ก็เรื่องของมรึง,ทีมเจรจาต้องทำงานเชิงนี้ให้สำเร็จ กระทรวงต่างประเทศต้องจบเรื่องนี้ทันทีด้วย มันสมควรจบเรื่องพรมแดนลักษณะนี้นานแล้ว และไม่จบต้องทำให้จบทันที,ทำไม่ได้ก็ยุบกระทรวงการต่างประเทศทิ้งไปล้างอิทธิพลขัดขวางการทำงานนี้ทั้งหมด,ตั้งเป็นกระทรวงใหม่ได้,จริงๆเรื่องนี้สามารถทำเสร็จไปนานแล้วแต่ไม่พยายามทำในรัฐบาลที่ผ่านๆมาทั้งหมด,เราจะมาปกครองแบบกากๆเดิมๆไม่สมควรแล้ว เขตแดนทั่วแผ่นดินไทยสมควรจบและชัดเจนทั้งหมดได้แล้วในพ.ศ.นี้,ตัดงบประมาณคมนาคมภายในประเทศทันที กว่าแสนล้านต่อปี ถนนดีๆก็ขุดทิ้งสร้างใหม่แดกงบประมาณทุกๆปี,โกงกินเป็นว่าเล่น,ไทยต้องรื้อรีเซ็ตระบบใหม่ทั้งหมด โดยเฉพาะกระทรวงกลาโหมตอนนี้ ซึ่งน่าอนาถใจมาก มีการเมืองบนเขียงกองทัพไทยแบบนี้ใช้ไม่ได้. https://youtube.com/shorts/LKo5wcuLtPY?si=yjrJKEFzyrwg2FsJ
    0 Comments 0 Shares 379 Views 0 Reviews
  • “Microsoft ผนึกกำลัง Nebius สร้างโครงสร้างพื้นฐาน AI มูลค่า $17.4 พันล้าน — ขยายศูนย์ข้อมูลในสหรัฐฯ รับยุค AI เต็มรูปแบบ”

    ในยุคที่ความต้องการด้านการประมวลผล AI พุ่งทะยานอย่างไม่หยุดยั้ง Microsoft ได้ประกาศความร่วมมือครั้งใหญ่กับ Nebius บริษัทโครงสร้างพื้นฐาน AI สัญชาติเนเธอร์แลนด์ (อดีตส่วนหนึ่งของ Yandex) เพื่อสร้างศูนย์ข้อมูลใหม่ในเมือง Vineland รัฐนิวเจอร์ซีย์ โดยมีมูลค่าสัญญาเบื้องต้นอยู่ที่ $17.4 พันล้าน และอาจขยายถึง $19.4 พันล้านหากมีการเพิ่มบริการหรือความจุในอนาคต

    ศูนย์ข้อมูลแห่งนี้จะให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ซึ่ง Microsoft ต้องการอย่างเร่งด่วนเพื่อรองรับการเติบโตของบริการ AI ทั้งภายในบริษัทและลูกค้าบน Azure โดยเฉพาะในช่วงที่บริษัทเผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลเดิม

    Nebius ซึ่งมีสำนักงานใหญ่อยู่ในอัมสเตอร์ดัม และได้รับการสนับสนุนจาก Nvidia และ Accel จะใช้เงินจากสัญญานี้ร่วมกับเงินกู้ระยะสั้นที่มีเงื่อนไขพิเศษจาก Microsoft เพื่อเร่งการก่อสร้างและขยายธุรกิจ AI cloud ของตน โดยคาดว่าจะเติบโตอย่างรวดเร็วในปี 2026 เป็นต้นไป

    ข้อตกลงนี้ยังสะท้อนถึงการแข่งขันในตลาดโครงสร้างพื้นฐาน AI ที่รุนแรงขึ้น โดยก่อนหน้านี้ Microsoft เคยพึ่งพา CoreWeave สำหรับ GPU capacity แต่ไม่ได้ทำสัญญาระยะยาวเช่นนี้ ทำให้ OpenAI เข้าซื้อสิทธิ์จาก CoreWeave ไปแทน

    รายละเอียดข้อตกลงระหว่าง Microsoft และ Nebius
    มูลค่าสัญญาเบื้องต้น $17.4 พันล้าน ขยายได้ถึง $19.4 พันล้าน
    ระยะเวลาสัญญายาวถึงปี 2031
    เริ่มต้นด้วยการสร้างศูนย์ข้อมูลใหม่ใน Vineland, New Jersey
    ให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ

    จุดแข็งของ Nebius
    เป็นบริษัทที่แยกตัวจาก Yandex และมุ่งเน้นด้าน AI cloud infrastructure
    ได้รับการสนับสนุนจาก Nvidia และ Accel
    มีศูนย์ R&D ในยุโรป อเมริกา และอิสราเอล
    มีแพลตฟอร์ม cloud ที่ออกแบบมาเฉพาะสำหรับงาน AI เช่น training และ deployment

    ผลกระทบและการเติบโต
    หุ้นของ Nebius พุ่งขึ้นกว่า 40% หลังประกาศข้อตกลง
    รายได้ Q2 เพิ่มขึ้น 625% เมื่อเทียบกับปีก่อนหน้า
    Microsoft ได้รับความจุเพิ่มเติมเพื่อรองรับบริการ AI ที่เติบโตอย่างรวดเร็ว
    Nebius เตรียมขยายศูนย์ข้อมูลในหลายประเทศ เช่น ฟินแลนด์ อิสราเอล และอังกฤษ

    ข้อมูลเสริมจากภายนอก
    Microsoft เผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลในปี 2025
    OpenAI ทำสัญญา multibillion กับ CoreWeave เพื่อ GPU capacity
    Nvidia คาดว่าโครงสร้างพื้นฐาน AI จะมีมูลค่ารวมถึง $3–4 พันล้านภายในปี 2030
    Microsoft กำลังสำรวจเทคโนโลยี optical computing เพื่อลดพลังงานในการประมวลผล AI

    https://www.techradar.com/pro/nebius-and-microsoft-to-collaborate-on-multi-billion-ai-infrastructure-agreement
    🌐 “Microsoft ผนึกกำลัง Nebius สร้างโครงสร้างพื้นฐาน AI มูลค่า $17.4 พันล้าน — ขยายศูนย์ข้อมูลในสหรัฐฯ รับยุค AI เต็มรูปแบบ” ในยุคที่ความต้องการด้านการประมวลผล AI พุ่งทะยานอย่างไม่หยุดยั้ง Microsoft ได้ประกาศความร่วมมือครั้งใหญ่กับ Nebius บริษัทโครงสร้างพื้นฐาน AI สัญชาติเนเธอร์แลนด์ (อดีตส่วนหนึ่งของ Yandex) เพื่อสร้างศูนย์ข้อมูลใหม่ในเมือง Vineland รัฐนิวเจอร์ซีย์ โดยมีมูลค่าสัญญาเบื้องต้นอยู่ที่ $17.4 พันล้าน และอาจขยายถึง $19.4 พันล้านหากมีการเพิ่มบริการหรือความจุในอนาคต ศูนย์ข้อมูลแห่งนี้จะให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ซึ่ง Microsoft ต้องการอย่างเร่งด่วนเพื่อรองรับการเติบโตของบริการ AI ทั้งภายในบริษัทและลูกค้าบน Azure โดยเฉพาะในช่วงที่บริษัทเผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลเดิม Nebius ซึ่งมีสำนักงานใหญ่อยู่ในอัมสเตอร์ดัม และได้รับการสนับสนุนจาก Nvidia และ Accel จะใช้เงินจากสัญญานี้ร่วมกับเงินกู้ระยะสั้นที่มีเงื่อนไขพิเศษจาก Microsoft เพื่อเร่งการก่อสร้างและขยายธุรกิจ AI cloud ของตน โดยคาดว่าจะเติบโตอย่างรวดเร็วในปี 2026 เป็นต้นไป ข้อตกลงนี้ยังสะท้อนถึงการแข่งขันในตลาดโครงสร้างพื้นฐาน AI ที่รุนแรงขึ้น โดยก่อนหน้านี้ Microsoft เคยพึ่งพา CoreWeave สำหรับ GPU capacity แต่ไม่ได้ทำสัญญาระยะยาวเช่นนี้ ทำให้ OpenAI เข้าซื้อสิทธิ์จาก CoreWeave ไปแทน ✅ รายละเอียดข้อตกลงระหว่าง Microsoft และ Nebius ➡️ มูลค่าสัญญาเบื้องต้น $17.4 พันล้าน ขยายได้ถึง $19.4 พันล้าน ➡️ ระยะเวลาสัญญายาวถึงปี 2031 ➡️ เริ่มต้นด้วยการสร้างศูนย์ข้อมูลใหม่ใน Vineland, New Jersey ➡️ ให้บริการ GPU infrastructure สำหรับงาน AI โดยเฉพาะ ✅ จุดแข็งของ Nebius ➡️ เป็นบริษัทที่แยกตัวจาก Yandex และมุ่งเน้นด้าน AI cloud infrastructure ➡️ ได้รับการสนับสนุนจาก Nvidia และ Accel ➡️ มีศูนย์ R&D ในยุโรป อเมริกา และอิสราเอล ➡️ มีแพลตฟอร์ม cloud ที่ออกแบบมาเฉพาะสำหรับงาน AI เช่น training และ deployment ✅ ผลกระทบและการเติบโต ➡️ หุ้นของ Nebius พุ่งขึ้นกว่า 40% หลังประกาศข้อตกลง ➡️ รายได้ Q2 เพิ่มขึ้น 625% เมื่อเทียบกับปีก่อนหน้า ➡️ Microsoft ได้รับความจุเพิ่มเติมเพื่อรองรับบริการ AI ที่เติบโตอย่างรวดเร็ว ➡️ Nebius เตรียมขยายศูนย์ข้อมูลในหลายประเทศ เช่น ฟินแลนด์ อิสราเอล และอังกฤษ ✅ ข้อมูลเสริมจากภายนอก ➡️ Microsoft เผชิญข้อจำกัดด้านความจุของศูนย์ข้อมูลในปี 2025 ➡️ OpenAI ทำสัญญา multibillion กับ CoreWeave เพื่อ GPU capacity ➡️ Nvidia คาดว่าโครงสร้างพื้นฐาน AI จะมีมูลค่ารวมถึง $3–4 พันล้านภายในปี 2030 ➡️ Microsoft กำลังสำรวจเทคโนโลยี optical computing เพื่อลดพลังงานในการประมวลผล AI https://www.techradar.com/pro/nebius-and-microsoft-to-collaborate-on-multi-billion-ai-infrastructure-agreement
    0 Comments 0 Shares 177 Views 0 Reviews
  • ฮุนเซนไม่ถอนอาวุธหนัก
    แถมเพิ่มกำลังทหาร
    ชายแดนทุกหน่วย
    เติม BHQ กว่า 5 พัน
    ส่วนทหารไทยทยอยถอน
    #คิงส์โพธิ์แดง
    ฮุนเซนไม่ถอนอาวุธหนัก แถมเพิ่มกำลังทหาร ชายแดนทุกหน่วย เติม BHQ กว่า 5 พัน ส่วนทหารไทยทยอยถอน #คิงส์โพธิ์แดง
    Angry
    1
    1 Comments 0 Shares 176 Views 0 Reviews
  • https://youtu.be/dU5AAT5oIOg?si=c2HrdEPGciKsG8TX
    https://youtu.be/dU5AAT5oIOg?si=c2HrdEPGciKsG8TX
    0 Comments 0 Shares 59 Views 0 Reviews
  • ‘เสธ.ทหาร’ ลั่น! กัมพูชาต้องถอนกำลังก่อน! ชี้หากไม่ทำ อย่าหวังเปิดด่าน! ย้ำต้องแสดงความจริงใจ
    https://www.thai-tai.tv/news/21422/
    .
    #ไทยไท #พลอมนัสจันดี #กองทัพไทย #ชายแดนไทยกัมพูชา #ภูมะเขือ #GBC #ข่าวการเมือง #ข่าววันนี้
    ‘เสธ.ทหาร’ ลั่น! กัมพูชาต้องถอนกำลังก่อน! ชี้หากไม่ทำ อย่าหวังเปิดด่าน! ย้ำต้องแสดงความจริงใจ https://www.thai-tai.tv/news/21422/ . #ไทยไท #พลอมนัสจันดี #กองทัพไทย #ชายแดนไทยกัมพูชา #ภูมะเขือ #GBC #ข่าวการเมือง #ข่าววันนี้
    0 Comments 0 Shares 245 Views 0 Reviews
  • “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้”

    Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ

    Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s

    การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน

    ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation

    แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ

    จุดเด่นของ Intel Arc Pro B50
    ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines
    หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า
    แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS
    ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม

    ประสิทธิภาพในการใช้งานจริง
    Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy
    Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ
    Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง
    MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation

    ความเหมาะสมกับงานมืออาชีพ
    ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk
    มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง
    เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์
    ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน

    ข้อมูลเสริมจากภายนอก
    Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8
    มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit
    มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ
    Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน

    https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    🎨 “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้” Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ ✅ จุดเด่นของ Intel Arc Pro B50 ➡️ ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines ➡️ หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า ➡️ แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS ➡️ ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม ✅ ประสิทธิภาพในการใช้งานจริง ➡️ Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy ➡️ Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ ➡️ Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง ➡️ MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation ✅ ความเหมาะสมกับงานมืออาชีพ ➡️ ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk ➡️ มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง ➡️ เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์ ➡️ ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8 ➡️ มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit ➡️ มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ ➡️ Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    0 Comments 0 Shares 295 Views 0 Reviews
  • “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย”

    OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้

    Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า

    นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย

    OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure

    จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock
    รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation
    รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1
    มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง
    รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain

    การออกแบบและการใช้งาน
    ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี
    ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว
    เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด
    ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม

    ข้อมูลเสริมจากภายนอก
    Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน
    MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ
    OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ
    เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด

    https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    ⚡ “OWC เปิดตัว Thunderbolt 5 Dock ที่รวมพอร์ต 10GbE สองช่องเป็น 20Gbps — ทางออกใหม่สำหรับงาน NAS และเวิร์กโฟลว์หลายเครือข่าย” OWC (Other World Computing) เปิดตัวอุปกรณ์เชื่อมต่อระดับมืออาชีพรุ่นใหม่ Thunderbolt 5 Dual 10GbE Network Dock ที่มาพร้อมฟีเจอร์ไม่เหมือนใคร: การรวมพอร์ต Ethernet ความเร็ว 10Gbps สองช่องให้กลายเป็นลิงก์เสมือนที่มีความเร็วสูงถึง 20Gbps ผ่านเทคนิค link aggregation ซึ่งเป็นครั้งแรกในวงการ docking station ที่สามารถทำได้แบบนี้ Dock รุ่นนี้ออกแบบมาเพื่อมืออาชีพที่ต้องจัดการกับเวิร์กโฟลว์ที่ใช้ข้อมูลขนาดใหญ่ เช่น การตัดต่อวิดีโอ 8K, การสตรีมแบบ NDI, การจัดการ NAS หรือแม้แต่การควบคุม VM cluster ผ่านเครือข่ายหลายชุด โดยสามารถเชื่อมต่อกับเครือข่ายได้ถึง 3 ชุดพร้อมกันผ่านพอร์ต 10GbE สองช่อง และพอร์ต 2.5GbE ด้านหน้า นอกจาก Ethernet แล้ว ยังมีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง รองรับการเชื่อมต่อกับอุปกรณ์รุ่นใหม่และรุ่นเก่าได้พร้อมกัน รวมถึงการต่อจอ 8K ได้สูงสุดถึง 3 จอผ่านการ daisy chain ตัวเครื่องผลิตจากอะลูมิเนียมแบบไม่มีพัดลม ทำให้ทำงานเงียบและเย็น เหมาะกับการใช้งานในสตูดิโอหรือสำนักงานที่ต้องการความเรียบร้อย OWC ตั้งราคาขายไว้ที่ $499 ซึ่งถือว่าไม่แพงเมื่อเทียบกับความสามารถที่ให้มา โดยเฉพาะในยุคที่การทำงานผ่าน NAS และเครือข่ายความเร็วสูงกลายเป็นเรื่องจำเป็นในทุกสายงาน ตั้งแต่สื่อดิจิทัลไปจนถึง IT infrastructure ✅ จุดเด่นของ OWC Thunderbolt 5 Dual 10GbE Network Dock ➡️ รวมพอร์ต 10GbE สองช่องเป็นลิงก์เสมือน 20Gbps ด้วย link aggregation ➡️ รองรับการเชื่อมต่อเครือข่าย 3 ชุดพร้อมกัน: 10GbE x2 + 2.5GbE x1 ➡️ มีพอร์ต Thunderbolt 5 จำนวน 3 ช่อง และ USB 10Gbps อีก 4 ช่อง ➡️ รองรับการต่อจอ 8K ได้สูงสุด 3 จอผ่าน daisy chain ✅ การออกแบบและการใช้งาน ➡️ ตัวเครื่องเป็นอะลูมิเนียมแบบ fanless — ทำงานเงียบและระบายความร้อนดี ➡️ ใช้งานได้ทั้ง Mac และ PC ผ่านสาย Thunderbolt 5 เส้นเดียว ➡️ เหมาะกับงาน NAS, NDI, VM cluster, และการจัดการเครือข่ายหลายชุด ➡️ ลดความยุ่งยากจากการใช้ adapter หลายตัวในระบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ Thunderbolt 5 มีแบนด์วิดท์สูงถึง 80Gbps — รองรับการใช้งานหลายอุปกรณ์พร้อมกัน ➡️ MacBook M3 Pro รองรับจอ 6K ได้ 2 จอ ส่วน M3 Max รองรับได้ถึง 4 จอ ➡️ OWC Jellyfish NAS เป็นหนึ่งในระบบที่ใช้ dock นี้ได้เต็มประสิทธิภาพ ➡️ เหมาะกับสตูดิโอขนาดเล็กที่ต้องการความเร็วระดับเซิร์ฟเวอร์แต่มีพื้นที่จำกัด https://www.techradar.com/pro/this-thunderbolt-5-docking-station-can-do-something-no-other-can-combine-two-10gbe-lan-ports-to-deliver-a-virtual-20gbps-connection
    0 Comments 0 Shares 209 Views 0 Reviews