• “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลโดยเฉพาะในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน inference หรือการประมวลผลโมเดล AI ที่ผ่านการฝึกมาแล้ว โดยใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งเคยใช้ในซีพียู Core Ultra 300-series รุ่น Panther Lake

    จุดเด่นของ Crescent Island คือการมาพร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งมากกว่าการ์ดจอทั่วไปหลายเท่า โดยใช้ชิป LPDDR5X จำนวน 20 ตัว ซึ่งแต่ละตัวมีความจุ 8Gb และเชื่อมต่อผ่านอินเทอร์เฟซรวม 640 บิต หรืออาจเป็นการแบ่งเป็น 2 GPU ที่เชื่อมต่อผ่าน 320 บิตต่อฝั่ง

    การออกแบบนี้ช่วยให้สามารถรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น และยังเหมาะกับการใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ซึ่งช่วยลดต้นทุนและพลังงาน

    Intel วางแผนจะเริ่มส่งตัวอย่าง Crescent Island ให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และอาจเปิดเผยข้อมูลเพิ่มเติมในงาน OCP หรือ SC25 ที่จะจัดขึ้นในอนาคต

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ใช้ชิป LPDDR5X จำนวน 20 ตัว เชื่อมต่อผ่านอินเทอร์เฟซ 640 บิต หรือแบ่งเป็น 2 GPU
    รองรับข้อมูลหลากหลายประเภทสำหรับงาน AI
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    เริ่มส่งตัวอย่างในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    ยังไม่มีข้อมูลประสิทธิภาพที่ชัดเจนจาก Intel
    การใช้ LPDDR5X อาจมีข้อจำกัดด้านการเชื่อมต่อเมื่อเทียบกับ GDDR6
    หากใช้ 2 GPU ต้องมีการจัดการซอฟต์แวร์ที่ซับซ้อนมากขึ้น
    การใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศอาจมีข้อจำกัดด้านพลังงานและความร้อนในบางกรณี

    https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลโดยเฉพาะในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน inference หรือการประมวลผลโมเดล AI ที่ผ่านการฝึกมาแล้ว โดยใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งเคยใช้ในซีพียู Core Ultra 300-series รุ่น Panther Lake จุดเด่นของ Crescent Island คือการมาพร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งมากกว่าการ์ดจอทั่วไปหลายเท่า โดยใช้ชิป LPDDR5X จำนวน 20 ตัว ซึ่งแต่ละตัวมีความจุ 8Gb และเชื่อมต่อผ่านอินเทอร์เฟซรวม 640 บิต หรืออาจเป็นการแบ่งเป็น 2 GPU ที่เชื่อมต่อผ่าน 320 บิตต่อฝั่ง การออกแบบนี้ช่วยให้สามารถรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น และยังเหมาะกับการใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ซึ่งช่วยลดต้นทุนและพลังงาน Intel วางแผนจะเริ่มส่งตัวอย่าง Crescent Island ให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และอาจเปิดเผยข้อมูลเพิ่มเติมในงาน OCP หรือ SC25 ที่จะจัดขึ้นในอนาคต ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ใช้ชิป LPDDR5X จำนวน 20 ตัว เชื่อมต่อผ่านอินเทอร์เฟซ 640 บิต หรือแบ่งเป็น 2 GPU ➡️ รองรับข้อมูลหลากหลายประเภทสำหรับงาน AI ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ เริ่มส่งตัวอย่างในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ ยังไม่มีข้อมูลประสิทธิภาพที่ชัดเจนจาก Intel ⛔ การใช้ LPDDR5X อาจมีข้อจำกัดด้านการเชื่อมต่อเมื่อเทียบกับ GDDR6 ⛔ หากใช้ 2 GPU ต้องมีการจัดการซอฟต์แวร์ที่ซับซ้อนมากขึ้น ⛔ การใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศอาจมีข้อจำกัดด้านพลังงานและความร้อนในบางกรณี https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • “Scalable แต่เปลือง — เมื่อสตาร์ทอัพยุคใหม่สร้างระบบแบบ Google แต่มีลูกค้าแค่ 2 คน”

    Stavros เปิดบทความด้วยการเสียดสีว่า “ทุกคนเป็นวิศวกรจาก FAANG” เพราะไม่ว่าจะเป็นสตาร์ทอัพเล็กหรือใหญ่ ทุกคนดูเหมือนจะสร้างระบบแบบเดียวกัน: ใช้ AWS/GCP, มี microservices เป็นสิบ, ใช้ orchestrator ซับซ้อน, autoscaling พร้อมระบบ distributed datastore ที่อ่านข้อมูลช้าลงตามเวลาที่เขียนล่าสุด

    เขาตั้งคำถามว่า “ทำไมทุกคนถึงรีบแก้ปัญหา scalability ก่อนจะมีลูกค้าจริง?” ทั้งที่ปัญหาแรกของสตาร์ทอัพควรจะเป็น “จะอยู่รอดได้อีก 2 เดือนหรือไม่” ไม่ใช่ “จะรองรับผู้ใช้ล้านคนได้อย่างไร”

    Stavros เสนอว่าแทนที่จะสร้าง distributed monolith ที่ซับซ้อนตั้งแต่วันแรก เราควรเริ่มจาก monolith ที่มีโครงสร้างดี ใช้ module ที่แยกกันชัดเจน มี interface แบบ statically typed และใช้ type checker เพื่อควบคุมการเปลี่ยนแปลง API ได้อย่างปลอดภัย

    เขายอมรับว่าการใช้ monolith มีข้อเสีย เช่น ไม่สามารถ scale เฉพาะ module ได้ง่าย แต่ข้อดีคือความเร็ว ความเรียบง่าย และความสามารถในการเปลี่ยนแปลงแบบ atomic โดยไม่ต้อง version API หรือ debug payload ที่ซับซ้อน

    สตาร์ทอัพยุคใหม่มักสร้างระบบแบบ FAANG โดยไม่จำเป็น
    ใช้ microservices, distributed datastore, autoscaling ตั้งแต่วันแรก

    ปัญหาแรกของสตาร์ทอัพควรเป็น “การอยู่รอด” ไม่ใช่ “scalability”
    แต่ scalability ง่ายกว่าและดูเท่กว่าในเรซูเม่

    ระบบที่ซับซ้อนมีต้นทุนสูง ทั้งด้านเงินและเวลา
    โดยเฉพาะเมื่อยังไม่มีผู้ใช้จริง

    Stavros เสนอให้ใช้ monolith ที่มี module แยกกันชัดเจน
    ใช้ interface แบบ statically typed และ type checker

    ข้อดีของ monolith คือความเร็วและความสามารถในการเปลี่ยน API ได้ทันที
    ไม่ต้อง version endpoint หรือ debug dict ซับซ้อน

    การใช้ monorepo ไม่จำเป็น แต่ช่วยให้ deploy แบบ atomic ได้ง่าย
    เป็น trade-off ที่แต่ละทีมต้องตัดสินใจเอง

    การสร้างระบบซับซ้อนตั้งแต่ต้นอาจทำให้สตาร์ทอัพล้มก่อนจะมีผู้ใช้จริง
    เพราะใช้ทรัพยากรไปกับสิ่งที่ยังไม่จำเป็น

    การออกแบบเพื่อ “เรซูเม่” มากกว่าความต้องการจริงของธุรกิจ
    ทำให้ระบบเต็มไปด้วยเทคโนโลยีที่ไม่ก่อให้เกิดรายได้

    การใช้ distributed architecture โดยไม่จำเป็น
    ทำให้เกิดความซับซ้อนที่ไม่คุ้มค่าในระยะเริ่มต้น

    การหลีกเลี่ยง monolith เพราะกลัว “ball of yarn”
    อาจทำให้พลาดโอกาสในการสร้างระบบที่เร็วและง่ายต่อการดูแล

    https://www.stavros.io/posts/why-is-everything-so-scalable/
    🧱 “Scalable แต่เปลือง — เมื่อสตาร์ทอัพยุคใหม่สร้างระบบแบบ Google แต่มีลูกค้าแค่ 2 คน” Stavros เปิดบทความด้วยการเสียดสีว่า “ทุกคนเป็นวิศวกรจาก FAANG” เพราะไม่ว่าจะเป็นสตาร์ทอัพเล็กหรือใหญ่ ทุกคนดูเหมือนจะสร้างระบบแบบเดียวกัน: ใช้ AWS/GCP, มี microservices เป็นสิบ, ใช้ orchestrator ซับซ้อน, autoscaling พร้อมระบบ distributed datastore ที่อ่านข้อมูลช้าลงตามเวลาที่เขียนล่าสุด เขาตั้งคำถามว่า “ทำไมทุกคนถึงรีบแก้ปัญหา scalability ก่อนจะมีลูกค้าจริง?” ทั้งที่ปัญหาแรกของสตาร์ทอัพควรจะเป็น “จะอยู่รอดได้อีก 2 เดือนหรือไม่” ไม่ใช่ “จะรองรับผู้ใช้ล้านคนได้อย่างไร” Stavros เสนอว่าแทนที่จะสร้าง distributed monolith ที่ซับซ้อนตั้งแต่วันแรก เราควรเริ่มจาก monolith ที่มีโครงสร้างดี ใช้ module ที่แยกกันชัดเจน มี interface แบบ statically typed และใช้ type checker เพื่อควบคุมการเปลี่ยนแปลง API ได้อย่างปลอดภัย เขายอมรับว่าการใช้ monolith มีข้อเสีย เช่น ไม่สามารถ scale เฉพาะ module ได้ง่าย แต่ข้อดีคือความเร็ว ความเรียบง่าย และความสามารถในการเปลี่ยนแปลงแบบ atomic โดยไม่ต้อง version API หรือ debug payload ที่ซับซ้อน ✅ สตาร์ทอัพยุคใหม่มักสร้างระบบแบบ FAANG โดยไม่จำเป็น ➡️ ใช้ microservices, distributed datastore, autoscaling ตั้งแต่วันแรก ✅ ปัญหาแรกของสตาร์ทอัพควรเป็น “การอยู่รอด” ไม่ใช่ “scalability” ➡️ แต่ scalability ง่ายกว่าและดูเท่กว่าในเรซูเม่ ✅ ระบบที่ซับซ้อนมีต้นทุนสูง ทั้งด้านเงินและเวลา ➡️ โดยเฉพาะเมื่อยังไม่มีผู้ใช้จริง ✅ Stavros เสนอให้ใช้ monolith ที่มี module แยกกันชัดเจน ➡️ ใช้ interface แบบ statically typed และ type checker ✅ ข้อดีของ monolith คือความเร็วและความสามารถในการเปลี่ยน API ได้ทันที ➡️ ไม่ต้อง version endpoint หรือ debug dict ซับซ้อน ✅ การใช้ monorepo ไม่จำเป็น แต่ช่วยให้ deploy แบบ atomic ได้ง่าย ➡️ เป็น trade-off ที่แต่ละทีมต้องตัดสินใจเอง ‼️ การสร้างระบบซับซ้อนตั้งแต่ต้นอาจทำให้สตาร์ทอัพล้มก่อนจะมีผู้ใช้จริง ⛔ เพราะใช้ทรัพยากรไปกับสิ่งที่ยังไม่จำเป็น ‼️ การออกแบบเพื่อ “เรซูเม่” มากกว่าความต้องการจริงของธุรกิจ ⛔ ทำให้ระบบเต็มไปด้วยเทคโนโลยีที่ไม่ก่อให้เกิดรายได้ ‼️ การใช้ distributed architecture โดยไม่จำเป็น ⛔ ทำให้เกิดความซับซ้อนที่ไม่คุ้มค่าในระยะเริ่มต้น ‼️ การหลีกเลี่ยง monolith เพราะกลัว “ball of yarn” ⛔ อาจทำให้พลาดโอกาสในการสร้างระบบที่เร็วและง่ายต่อการดูแล https://www.stavros.io/posts/why-is-everything-so-scalable/
    0 ความคิดเห็น 0 การแบ่งปัน 67 มุมมอง 0 รีวิว
  • "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต”

    แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave”

    ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck

    Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่

    แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI

    AMD พัฒนา APU สถาปัตยกรรม ARM
    โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด
    ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม.
    เหมาะกับ embedded systems และอุปกรณ์พกพา

    สเปกเบื้องต้นของ Sound Wave
    ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck
    big.LITTLE architecture: 2 P-Core + 4 E-Core
    กราฟิก RDNA 3.5 สูงสุด 4 CUs
    TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า

    ความเป็นไปได้ในการใช้งาน
    อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT
    รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่
    อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace

    แนวโน้มตลาด ARM
    ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์
    Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop
    AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM

    https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    🌀 "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต” แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave” ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่ แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI ✅ AMD พัฒนา APU สถาปัตยกรรม ARM ➡️ โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด ➡️ ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม. ➡️ เหมาะกับ embedded systems และอุปกรณ์พกพา ✅ สเปกเบื้องต้นของ Sound Wave ➡️ ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck ➡️ big.LITTLE architecture: 2 P-Core + 4 E-Core ➡️ กราฟิก RDNA 3.5 สูงสุด 4 CUs ➡️ TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า ✅ ความเป็นไปได้ในการใช้งาน ➡️ อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT ➡️ รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่ ➡️ อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace ✅ แนวโน้มตลาด ARM ➡️ ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์ ➡️ Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop ➡️ AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    WWW.TECHPOWERUP.COM
    AMD "Sound Wave" Arm-Powered APU Appears in Shipping Manifests
    Despite AMD's assertion that the Arm ISA doesn't provide any inherent efficiency advantage and that power savings are primarily dependent on the package and design, it seems AMD is developing an Arm-based SoC codenamed "Sound Wave." Recent shipping manifests, noted by X user @Olrak29_, indicate that...
    0 ความคิดเห็น 0 การแบ่งปัน 89 มุมมอง 0 รีวิว
  • “Crimson Collective เจาะระบบ AWS ด้วย TruffleHog — ขโมยข้อมูล 570GB จาก Red Hat และเริ่มขยายเป้าหมายสู่คลาวด์ทั่วโลก”

    กลุ่มแฮกเกอร์ Crimson Collective ซึ่งเคยสร้างความเสียหายครั้งใหญ่ให้กับ Red Hat ด้วยการขโมยข้อมูลกว่า 570GB จาก GitLab repository ภายในองค์กร กำลังขยายเป้าหมายไปยังระบบคลาวด์ของ Amazon Web Services (AWS) โดยใช้เครื่องมือโอเพ่นซอร์สชื่อ TruffleHog ในการค้นหาคีย์ลับและข้อมูลรับรองที่หลุดจากโค้ดหรือ repository สาธารณะ

    เมื่อได้ข้อมูลรับรองของ AWS แล้ว กลุ่มนี้จะใช้ API เพื่อสร้าง IAM users และ access keys ใหม่ พร้อมแนบ policy ระดับสูงอย่าง AdministratorAccess เพื่อยกระดับสิทธิ์ จากนั้นจะทำการสำรวจโครงสร้างระบบของเหยื่อ เช่น EC2, S3, RDS และ EBS เพื่อวางแผนการขโมยข้อมูลและการเรียกค่าไถ่

    ในกรณีของ Red Hat ข้อมูลที่ถูกขโมยรวมถึง Customer Engagement Records (CER) จำนวน 800 รายการ ซึ่งเป็นเอกสารภายในที่มีข้อมูลโครงสร้างระบบของลูกค้า เช่น network architecture, system configuration, credentials และคำแนะนำในการแก้ปัญหา

    นักวิจัยจาก Rapid7 พบว่า Crimson Collective ใช้หลาย IP address และมีการ reuse บาง IP ในหลายเหตุการณ์ ทำให้สามารถติดตามพฤติกรรมได้บางส่วน นอกจากนี้ยังมีการส่งอีเมลเรียกค่าไถ่ผ่านระบบ AWS Simple Email Service (SES) ภายในบัญชีที่ถูกเจาะ

    AWS แนะนำให้ผู้ใช้ใช้ credentials แบบ short-term และ least privilege พร้อมตั้ง IAM policy ที่จำกัดสิทธิ์อย่างเข้มงวด และหากสงสัยว่าข้อมูลรับรองอาจหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำทันที

    ข้อมูลสำคัญจากข่าว
    Crimson Collective ขโมยข้อมูล 570GB จาก Red Hat โดยใช้ TruffleHog
    ข้อมูลที่ถูกขโมยรวมถึง 800 CER ที่มีข้อมูลโครงสร้างระบบของลูกค้า
    กลุ่มนี้ขยายเป้าหมายไปยัง AWS โดยใช้ credentials ที่หลุดจาก repository
    ใช้ API สร้าง IAM users และ access keys พร้อมแนบ AdministratorAccess
    สำรวจ EC2, S3, RDS, EBS เพื่อวางแผนการขโมยข้อมูล
    ส่งอีเมลเรียกค่าไถ่ผ่าน AWS SES ภายในบัญชีที่ถูกเจาะ
    Rapid7 พบการใช้หลาย IP และการ reuse IP ในหลายเหตุการณ์
    AWS แนะนำให้ใช้ credentials แบบ short-term และ least privilege
    หากสงสัยว่าข้อมูลหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำ

    ข้อมูลเสริมจากภายนอก
    TruffleHog เป็นเครื่องมือโอเพ่นซอร์สที่ใช้ค้นหาคีย์ลับในโค้ดและ repository
    IAM (Identity and Access Management) เป็นระบบจัดการสิทธิ์ใน AWS
    AdministratorAccess เป็น policy ที่ให้สิทธิ์เต็มรูปแบบในบัญชี AWS
    CER ของ Red Hat มักมีข้อมูลละเอียดที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร
    การใช้ SES ภายในบัญชีที่ถูกเจาะช่วยให้แฮกเกอร์ส่งอีเมลได้โดยไม่ถูกบล็อก

    https://www.techradar.com/pro/security/red-hat-hackers-crimson-collective-are-now-going-after-aws-instances
    🛡️ “Crimson Collective เจาะระบบ AWS ด้วย TruffleHog — ขโมยข้อมูล 570GB จาก Red Hat และเริ่มขยายเป้าหมายสู่คลาวด์ทั่วโลก” กลุ่มแฮกเกอร์ Crimson Collective ซึ่งเคยสร้างความเสียหายครั้งใหญ่ให้กับ Red Hat ด้วยการขโมยข้อมูลกว่า 570GB จาก GitLab repository ภายในองค์กร กำลังขยายเป้าหมายไปยังระบบคลาวด์ของ Amazon Web Services (AWS) โดยใช้เครื่องมือโอเพ่นซอร์สชื่อ TruffleHog ในการค้นหาคีย์ลับและข้อมูลรับรองที่หลุดจากโค้ดหรือ repository สาธารณะ เมื่อได้ข้อมูลรับรองของ AWS แล้ว กลุ่มนี้จะใช้ API เพื่อสร้าง IAM users และ access keys ใหม่ พร้อมแนบ policy ระดับสูงอย่าง AdministratorAccess เพื่อยกระดับสิทธิ์ จากนั้นจะทำการสำรวจโครงสร้างระบบของเหยื่อ เช่น EC2, S3, RDS และ EBS เพื่อวางแผนการขโมยข้อมูลและการเรียกค่าไถ่ ในกรณีของ Red Hat ข้อมูลที่ถูกขโมยรวมถึง Customer Engagement Records (CER) จำนวน 800 รายการ ซึ่งเป็นเอกสารภายในที่มีข้อมูลโครงสร้างระบบของลูกค้า เช่น network architecture, system configuration, credentials และคำแนะนำในการแก้ปัญหา นักวิจัยจาก Rapid7 พบว่า Crimson Collective ใช้หลาย IP address และมีการ reuse บาง IP ในหลายเหตุการณ์ ทำให้สามารถติดตามพฤติกรรมได้บางส่วน นอกจากนี้ยังมีการส่งอีเมลเรียกค่าไถ่ผ่านระบบ AWS Simple Email Service (SES) ภายในบัญชีที่ถูกเจาะ AWS แนะนำให้ผู้ใช้ใช้ credentials แบบ short-term และ least privilege พร้อมตั้ง IAM policy ที่จำกัดสิทธิ์อย่างเข้มงวด และหากสงสัยว่าข้อมูลรับรองอาจหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำทันที ✅ ข้อมูลสำคัญจากข่าว ➡️ Crimson Collective ขโมยข้อมูล 570GB จาก Red Hat โดยใช้ TruffleHog ➡️ ข้อมูลที่ถูกขโมยรวมถึง 800 CER ที่มีข้อมูลโครงสร้างระบบของลูกค้า ➡️ กลุ่มนี้ขยายเป้าหมายไปยัง AWS โดยใช้ credentials ที่หลุดจาก repository ➡️ ใช้ API สร้าง IAM users และ access keys พร้อมแนบ AdministratorAccess ➡️ สำรวจ EC2, S3, RDS, EBS เพื่อวางแผนการขโมยข้อมูล ➡️ ส่งอีเมลเรียกค่าไถ่ผ่าน AWS SES ภายในบัญชีที่ถูกเจาะ ➡️ Rapid7 พบการใช้หลาย IP และการ reuse IP ในหลายเหตุการณ์ ➡️ AWS แนะนำให้ใช้ credentials แบบ short-term และ least privilege ➡️ หากสงสัยว่าข้อมูลหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำ ✅ ข้อมูลเสริมจากภายนอก ➡️ TruffleHog เป็นเครื่องมือโอเพ่นซอร์สที่ใช้ค้นหาคีย์ลับในโค้ดและ repository ➡️ IAM (Identity and Access Management) เป็นระบบจัดการสิทธิ์ใน AWS ➡️ AdministratorAccess เป็น policy ที่ให้สิทธิ์เต็มรูปแบบในบัญชี AWS ➡️ CER ของ Red Hat มักมีข้อมูลละเอียดที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร ➡️ การใช้ SES ภายในบัญชีที่ถูกเจาะช่วยให้แฮกเกอร์ส่งอีเมลได้โดยไม่ถูกบล็อก https://www.techradar.com/pro/security/red-hat-hackers-crimson-collective-are-now-going-after-aws-instances
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • “AMD เปิดตัว Radiance Cores, Neural Arrays และ Universal Compression — เทคโนโลยีใหม่ที่จะเปลี่ยนโลกกราฟิกเกมยุคถัดไป”

    AMD และ Sony ร่วมกันเปิดเผยเทคโนโลยีใหม่ 3 รายการที่จะถูกฝังอยู่ในสถาปัตยกรรมกราฟิก RDNA รุ่นถัดไป ได้แก่ Radiance Cores, Neural Arrays และ Universal Compression โดยทั้งหมดนี้ถูกออกแบบมาเพื่อยกระดับการเรนเดอร์ภาพแบบเรียลไทม์, การอัปสเกลด้วย AI และการจัดการแบนด์วิดธ์หน่วยความจำให้มีประสิทธิภาพสูงสุด

    Radiance Cores คือฮาร์ดแวร์เฉพาะสำหรับการประมวลผล ray tracing และ path tracing โดยแยกออกจาก shader cores เพื่อให้สามารถจัดการกับการเคลื่อนที่ของแสง (ray traversal) ได้เร็วขึ้นและแม่นยำขึ้น ซึ่งช่วยลดภาระของ CPU และเพิ่มประสิทธิภาพของ GPU ในการ shading และ lighting

    Neural Arrays คือการเชื่อมต่อ compute units (CU) ภายใน GPU ให้ทำงานร่วมกันแบบ AI engine เดียว ซึ่งช่วยให้สามารถประมวลผลโมเดล machine learning ขนาดใหญ่ได้อย่างมีประสิทธิภาพมากขึ้น โดยเฉพาะในงาน neural rendering, frame generation และ denoising สำหรับฉากที่ใช้ ray tracing

    Universal Compression เป็นระบบบีบอัดข้อมูลภายใน GPU ที่สามารถจัดการกับข้อมูลทุกประเภทได้แบบอัตโนมัติ ช่วยลดการใช้แบนด์วิดธ์หน่วยความจำ และเพิ่มความเร็วในการโหลด texture และโมเดลกราฟิก

    Mark Cerny สถาปนิกของ PlayStation และ Jack Huynh รองประธาน AMD ระบุว่า เทคโนโลยีเหล่านี้จะถูกนำไปใช้ใน GPU และ SoC รุ่นถัดไป รวมถึงคอนโซล PlayStation รุ่นใหม่ ซึ่งจะช่วยให้เกมมีความสมจริงระดับภาพยนตร์ และสามารถเรนเดอร์ฉากซับซ้อนได้แบบเรียลไทม์

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัวเทคโนโลยีใหม่ 3 รายการ: Radiance Cores, Neural Arrays และ Universal Compression
    Radiance Cores เป็นฮาร์ดแวร์เฉพาะสำหรับ ray/path tracing โดยแยกจาก shader cores
    Neural Arrays เชื่อม compute units ให้ทำงานร่วมกันแบบ AI engine เดียว
    Universal Compression บีบอัดข้อมูลทุกประเภทภายใน GPU เพื่อลดการใช้แบนด์วิดธ์
    เทคโนโลยีเหล่านี้จะถูกใช้ใน RDNA GPU รุ่นถัดไปและ SoC สำหรับ PlayStation
    ช่วยเพิ่มประสิทธิภาพการเรนเดอร์, อัปสเกล, และโหลด texture ได้เร็วขึ้น
    รองรับงาน neural rendering, frame generation และ denoising แบบเรียลไทม์
    Mark Cerny และ Jack Huynh ยืนยันว่าเทคโนโลยีจะเปลี่ยนโฉมกราฟิกเกมในอนาคต

    ข้อมูลเสริมจากภายนอก
    Radiance Cores คล้ายกับ RT Cores ของ Nvidia ที่ใช้ในการ์ดจอ RTX
    Neural Arrays จะช่วยให้ FSR และ PSSR มีคุณภาพสูงขึ้นและทำงานเร็วขึ้น
    Universal Compression มาแทน Delta Color Compression ที่ใช้ใน RDNA รุ่นก่อน
    การแยก ray traversal ออกจาก shader ช่วยลด latency และเพิ่ม frame rate
    Project Amethyst คือความร่วมมือระยะยาวระหว่าง AMD และ Sony เพื่อพัฒนา AI สำหรับเกม

    https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
    🎮 “AMD เปิดตัว Radiance Cores, Neural Arrays และ Universal Compression — เทคโนโลยีใหม่ที่จะเปลี่ยนโลกกราฟิกเกมยุคถัดไป” AMD และ Sony ร่วมกันเปิดเผยเทคโนโลยีใหม่ 3 รายการที่จะถูกฝังอยู่ในสถาปัตยกรรมกราฟิก RDNA รุ่นถัดไป ได้แก่ Radiance Cores, Neural Arrays และ Universal Compression โดยทั้งหมดนี้ถูกออกแบบมาเพื่อยกระดับการเรนเดอร์ภาพแบบเรียลไทม์, การอัปสเกลด้วย AI และการจัดการแบนด์วิดธ์หน่วยความจำให้มีประสิทธิภาพสูงสุด Radiance Cores คือฮาร์ดแวร์เฉพาะสำหรับการประมวลผล ray tracing และ path tracing โดยแยกออกจาก shader cores เพื่อให้สามารถจัดการกับการเคลื่อนที่ของแสง (ray traversal) ได้เร็วขึ้นและแม่นยำขึ้น ซึ่งช่วยลดภาระของ CPU และเพิ่มประสิทธิภาพของ GPU ในการ shading และ lighting Neural Arrays คือการเชื่อมต่อ compute units (CU) ภายใน GPU ให้ทำงานร่วมกันแบบ AI engine เดียว ซึ่งช่วยให้สามารถประมวลผลโมเดล machine learning ขนาดใหญ่ได้อย่างมีประสิทธิภาพมากขึ้น โดยเฉพาะในงาน neural rendering, frame generation และ denoising สำหรับฉากที่ใช้ ray tracing Universal Compression เป็นระบบบีบอัดข้อมูลภายใน GPU ที่สามารถจัดการกับข้อมูลทุกประเภทได้แบบอัตโนมัติ ช่วยลดการใช้แบนด์วิดธ์หน่วยความจำ และเพิ่มความเร็วในการโหลด texture และโมเดลกราฟิก Mark Cerny สถาปนิกของ PlayStation และ Jack Huynh รองประธาน AMD ระบุว่า เทคโนโลยีเหล่านี้จะถูกนำไปใช้ใน GPU และ SoC รุ่นถัดไป รวมถึงคอนโซล PlayStation รุ่นใหม่ ซึ่งจะช่วยให้เกมมีความสมจริงระดับภาพยนตร์ และสามารถเรนเดอร์ฉากซับซ้อนได้แบบเรียลไทม์ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัวเทคโนโลยีใหม่ 3 รายการ: Radiance Cores, Neural Arrays และ Universal Compression ➡️ Radiance Cores เป็นฮาร์ดแวร์เฉพาะสำหรับ ray/path tracing โดยแยกจาก shader cores ➡️ Neural Arrays เชื่อม compute units ให้ทำงานร่วมกันแบบ AI engine เดียว ➡️ Universal Compression บีบอัดข้อมูลทุกประเภทภายใน GPU เพื่อลดการใช้แบนด์วิดธ์ ➡️ เทคโนโลยีเหล่านี้จะถูกใช้ใน RDNA GPU รุ่นถัดไปและ SoC สำหรับ PlayStation ➡️ ช่วยเพิ่มประสิทธิภาพการเรนเดอร์, อัปสเกล, และโหลด texture ได้เร็วขึ้น ➡️ รองรับงาน neural rendering, frame generation และ denoising แบบเรียลไทม์ ➡️ Mark Cerny และ Jack Huynh ยืนยันว่าเทคโนโลยีจะเปลี่ยนโฉมกราฟิกเกมในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Radiance Cores คล้ายกับ RT Cores ของ Nvidia ที่ใช้ในการ์ดจอ RTX ➡️ Neural Arrays จะช่วยให้ FSR และ PSSR มีคุณภาพสูงขึ้นและทำงานเร็วขึ้น ➡️ Universal Compression มาแทน Delta Color Compression ที่ใช้ใน RDNA รุ่นก่อน ➡️ การแยก ray traversal ออกจาก shader ช่วยลด latency และเพิ่ม frame rate ➡️ Project Amethyst คือความร่วมมือระยะยาวระหว่าง AMD และ Sony เพื่อพัฒนา AI สำหรับเกม https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
    WCCFTECH.COM
    AMD Unveils Radiance Cores, Neural Arrays & Universal Compression For Next-Gen RDNA GPU Architecture: Faster RT, Better Upscaling, & Lower Bandwidth Needs
    AMD has just announced three key features of its next-gen RDNA architecture: Neural Arrays, Radiance Cores & Universal Compression.
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • “Pixel Watch 4: สมาร์ตวอชที่ไม่ต้องพยายามก็ชนะใจ — ดีไซน์หรู ฟีเจอร์ครบ แบตอึด พร้อม Gemini บนข้อมือ”

    Google เปิดตัว Pixel Watch 4 อย่างเป็นทางการในวันที่ 9 ตุลาคม 2025 โดยยังคงรักษาดีไซน์โดมสุดหรูที่เป็นเอกลักษณ์ พร้อมปรับปรุงหลายจุดให้กลายเป็นสมาร์ตวอชที่ “ใช้งานจริง” ได้มากกว่าการเป็นแค่เครื่องแจ้งเตือน

    สิ่งแรกที่โดดเด่นคือแบตเตอรี่ที่ใช้งานได้จริงถึง 2 วันเต็ม แม้เปิด Always-On Display และใช้หลาย complications ก็ยังอยู่รอดได้สบาย ๆ โดยใช้สถาปัตยกรรมแบบ dual-chip ที่แบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ซึ่งช่วยลดภาระการประมวลผลและยืดอายุแบตได้อย่างมีประสิทธิภาพ

    Pixel Watch 4 ยังมาพร้อม Gemini ซึ่งเป็น AI ผู้ช่วยที่ฉลาดขึ้นกว่า Google Assistant เดิม โดยสามารถตั้ง shortcut บน Tile เพื่อสั่งงานได้ทันที เช่น เปิดไฟห้อง หรือถามเวลาการแข่งขันกีฬา น่าเสียดายที่ฟีเจอร์ Magic Cue ซึ่งดึงข้อมูลส่วนตัวมาแสดงอัตโนมัติ ยังไม่รองรับบนตัวนาฬิกา

    ด้านดีไซน์ Google ปรับหน้าจอให้เป็นโดมทั้งกระจกและพาเนลจริง ๆ ซึ่งต่างจากรุ่นก่อนที่โค้งแค่ขอบ ทำให้เกิดเอฟเฟกต์ “ลอย” ของ UI ที่ดูนุ่มนวลและลื่นไหล โดยใช้ Material 3 Expressive ที่จัดวางปุ่มและ Tiles ได้อย่างสนุกและใช้งานง่าย

    สำหรับการติดตามสุขภาพ Pixel Watch 4 ยังใช้ระบบ Fitbit เป็นหลัก โดยเพิ่มฟีเจอร์ใหม่ เช่น ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน และมีการแจ้งเตือนแบบสั่นที่ปรับปรุงให้แม่นยำและไม่รบกวนคนข้าง ๆ

    สุดท้ายคือการรองรับการเชื่อมต่อผ่านดาวเทียม ซึ่งแม้จะยังไม่ได้ทดสอบจริง แต่ถือเป็นฟีเจอร์สำรองที่มีประโยชน์ในสถานการณ์ฉุกเฉิน เช่น หลงทางในพื้นที่ไม่มีสัญญาณมือถือ

    ข้อมูลสำคัญจากข่าว
    Pixel Watch 4 เปิดตัววันที่ 9 ตุลาคม 2025
    ใช้แบตเตอรี่ได้จริง 2 วัน แม้เปิด Always-On Display และหลาย complications
    ใช้สถาปัตยกรรม dual-chip เพื่อแบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก
    รองรับ Gemini บนข้อมือ พร้อมตั้ง shortcut บน Tile ได้
    ไม่รองรับ Magic Cue บนตัวนาฬิกา
    ดีไซน์หน้าจอแบบโดมจริงทั้งกระจกและพาเนล
    ใช้ Material 3 Expressive ในการจัดวาง UI
    ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน
    รองรับการเชื่อมต่อผ่านดาวเทียมในกรณีฉุกเฉิน
    ราคาเริ่มต้นที่ $349.99 เท่ากับรุ่นก่อน

    ข้อมูลเสริมจากภายนอก
    Gemini เป็น AI ผู้ช่วยรุ่นใหม่ของ Google ที่เน้นการเข้าใจบริบทและคำสั่งซับซ้อน
    Material 3 Expressive เป็นแนวทางออกแบบ UI ที่เน้นความสนุกและความลื่นไหล
    Dual-chip architecture เคยใช้ใน OnePlus Watch 2 และช่วยยืดแบตได้จริง
    การเชื่อมต่อผ่านดาวเทียมเริ่มเป็นมาตรฐานในอุปกรณ์สวมใส่ระดับสูง
    Fitbit Premium ยังเป็นระบบหลักในการวิเคราะห์สุขภาพบน Pixel Watch

    https://www.slashgear.com/1992014/google-pixel-watch-4-review/
    ⌚ “Pixel Watch 4: สมาร์ตวอชที่ไม่ต้องพยายามก็ชนะใจ — ดีไซน์หรู ฟีเจอร์ครบ แบตอึด พร้อม Gemini บนข้อมือ” Google เปิดตัว Pixel Watch 4 อย่างเป็นทางการในวันที่ 9 ตุลาคม 2025 โดยยังคงรักษาดีไซน์โดมสุดหรูที่เป็นเอกลักษณ์ พร้อมปรับปรุงหลายจุดให้กลายเป็นสมาร์ตวอชที่ “ใช้งานจริง” ได้มากกว่าการเป็นแค่เครื่องแจ้งเตือน สิ่งแรกที่โดดเด่นคือแบตเตอรี่ที่ใช้งานได้จริงถึง 2 วันเต็ม แม้เปิด Always-On Display และใช้หลาย complications ก็ยังอยู่รอดได้สบาย ๆ โดยใช้สถาปัตยกรรมแบบ dual-chip ที่แบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ซึ่งช่วยลดภาระการประมวลผลและยืดอายุแบตได้อย่างมีประสิทธิภาพ Pixel Watch 4 ยังมาพร้อม Gemini ซึ่งเป็น AI ผู้ช่วยที่ฉลาดขึ้นกว่า Google Assistant เดิม โดยสามารถตั้ง shortcut บน Tile เพื่อสั่งงานได้ทันที เช่น เปิดไฟห้อง หรือถามเวลาการแข่งขันกีฬา น่าเสียดายที่ฟีเจอร์ Magic Cue ซึ่งดึงข้อมูลส่วนตัวมาแสดงอัตโนมัติ ยังไม่รองรับบนตัวนาฬิกา ด้านดีไซน์ Google ปรับหน้าจอให้เป็นโดมทั้งกระจกและพาเนลจริง ๆ ซึ่งต่างจากรุ่นก่อนที่โค้งแค่ขอบ ทำให้เกิดเอฟเฟกต์ “ลอย” ของ UI ที่ดูนุ่มนวลและลื่นไหล โดยใช้ Material 3 Expressive ที่จัดวางปุ่มและ Tiles ได้อย่างสนุกและใช้งานง่าย สำหรับการติดตามสุขภาพ Pixel Watch 4 ยังใช้ระบบ Fitbit เป็นหลัก โดยเพิ่มฟีเจอร์ใหม่ เช่น ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน และมีการแจ้งเตือนแบบสั่นที่ปรับปรุงให้แม่นยำและไม่รบกวนคนข้าง ๆ สุดท้ายคือการรองรับการเชื่อมต่อผ่านดาวเทียม ซึ่งแม้จะยังไม่ได้ทดสอบจริง แต่ถือเป็นฟีเจอร์สำรองที่มีประโยชน์ในสถานการณ์ฉุกเฉิน เช่น หลงทางในพื้นที่ไม่มีสัญญาณมือถือ ✅ ข้อมูลสำคัญจากข่าว ➡️ Pixel Watch 4 เปิดตัววันที่ 9 ตุลาคม 2025 ➡️ ใช้แบตเตอรี่ได้จริง 2 วัน แม้เปิด Always-On Display และหลาย complications ➡️ ใช้สถาปัตยกรรม dual-chip เพื่อแบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ➡️ รองรับ Gemini บนข้อมือ พร้อมตั้ง shortcut บน Tile ได้ ➡️ ไม่รองรับ Magic Cue บนตัวนาฬิกา ➡️ ดีไซน์หน้าจอแบบโดมจริงทั้งกระจกและพาเนล ➡️ ใช้ Material 3 Expressive ในการจัดวาง UI ➡️ ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน ➡️ รองรับการเชื่อมต่อผ่านดาวเทียมในกรณีฉุกเฉิน ➡️ ราคาเริ่มต้นที่ $349.99 เท่ากับรุ่นก่อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini เป็น AI ผู้ช่วยรุ่นใหม่ของ Google ที่เน้นการเข้าใจบริบทและคำสั่งซับซ้อน ➡️ Material 3 Expressive เป็นแนวทางออกแบบ UI ที่เน้นความสนุกและความลื่นไหล ➡️ Dual-chip architecture เคยใช้ใน OnePlus Watch 2 และช่วยยืดแบตได้จริง ➡️ การเชื่อมต่อผ่านดาวเทียมเริ่มเป็นมาตรฐานในอุปกรณ์สวมใส่ระดับสูง ➡️ Fitbit Premium ยังเป็นระบบหลักในการวิเคราะห์สุขภาพบน Pixel Watch https://www.slashgear.com/1992014/google-pixel-watch-4-review/
    WWW.SLASHGEAR.COM
    Google Made The Best Smartwatch For Android, And It Did It Without Gimmicks - SlashGear
    Google's Pixel Watch 4 is the best WearOS smartwatch yet -- and it might very well be the most beautiful smartwatch ever made.
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • “TSMC เปิดราคาชิป 2nm — แพงขึ้นไม่มาก แต่มีเงื่อนไขซ่อนอยู่ที่ลูกค้าต้องรับมือ”

    หลังจากมีข่าวลือว่าชิป 2nm จาก TSMC จะมีราคาสูงกว่ารุ่น 3nm ถึง 50% ล่าสุดมีรายงานใหม่ระบุว่าราคาจริงของแผ่นเวเฟอร์ 2nm จะเพิ่มขึ้นเพียง 10–20% เท่านั้นเมื่อเทียบกับรุ่น 3nm อย่าง N3P และ N3E แต่ความจริงที่ซ่อนอยู่คือ TSMC กำลังปรับราคาของเวเฟอร์ 3nm ให้สูงขึ้นด้วย ทำให้ช่องว่างระหว่างรุ่นดูแคบลง

    ราคาของเวเฟอร์ 2nm ยังคงอยู่ที่ประมาณ $30,000 ต่อแผ่น ซึ่งเป็นราคาที่สูงมากสำหรับการผลิตชิปในระดับผู้บริโภค โดยเฉพาะเมื่อเทียบกับเวเฟอร์ 3nm ที่เคยอยู่ที่ $25,000–$27,000 แต่กำลังถูกปรับขึ้นเพื่อให้การเปลี่ยนผ่านไปยัง 2nm ดู “สมเหตุสมผล”

    Qualcomm และ MediaTek เป็นสองบริษัทที่ได้รับผลกระทบจากการเปลี่ยนไปใช้ N3P โดยต้องจ่ายเพิ่มถึง 16–24% สำหรับชิปรุ่นใหม่ เช่น Snapdragon 8 Elite Gen 5 และ Dimensity 9500 ขณะที่ Qualcomm เตรียมย้ายไปใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6 ในปีหน้า

    แม้ราคาจะไม่พุ่งแรงอย่างที่คาด แต่ผลกระทบต่อราคาสินค้า เช่น สมาร์ตโฟนและแท็บเล็ต ยังคงมีอยู่ เพราะต้นทุนการผลิตที่สูงขึ้นจะถูกผลักไปยังผู้บริโภค โดยเฉพาะในยุคที่การผลิตชิปต้องใช้เทคโนโลยีขั้นสูง เช่น Gate-All-Around และ EUV ที่มีต้นทุนสูงมาก

    ข้อมูลสำคัญจากข่าว
    ราคาของเวเฟอร์ 2nm อยู่ที่ประมาณ $30,000 ต่อแผ่น
    เพิ่มขึ้นจากเวเฟอร์ 3nm เพียง 10–20% ไม่ใช่ 50% ตามข่าวลือ
    TSMC ปรับราคาของเวเฟอร์ 3nm เช่น N3E และ N3P ให้สูงขึ้น
    Qualcomm และ MediaTek ได้รับผลกระทบจากราคาที่เพิ่มขึ้น
    Qualcomm เตรียมใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6
    ราคาสินค้าอิเล็กทรอนิกส์จะเพิ่มขึ้นตามต้นทุนเวเฟอร์
    การผลิตชิป 2nm ใช้เทคโนโลยี Gate-All-Around และ EUV
    TSMC เริ่มผลิต 2nm ในไตรมาสสุดท้ายของปี 2025

    ข้อมูลเสริมจากภายนอก
    Gate-All-Around เป็นเทคโนโลยีทรานซิสเตอร์ที่ลดการรั่วไหลของกระแสไฟ
    EUV (Extreme Ultraviolet Lithography) เป็นเทคนิคพิมพ์ลวดลายที่ใช้แสงความยาวคลื่นสั้น
    การผลิตเวเฟอร์ในสหรัฐฯ เช่นที่โรงงานใน Arizona มีต้นทุนสูงกว่าที่ไต้หวันถึง 20–30%
    Apple และ AMD เป็นลูกค้าหลักของ TSMC ที่เตรียมใช้ 2nm ในผลิตภัณฑ์ปี 2026
    Chiplet architecture ช่วยลดต้นทุนโดยใช้เวเฟอร์ขั้นสูงเฉพาะในส่วนสำคัญของชิป

    https://wccftech.com/tsmc-2nm-wafers-to-be-10-to-20-percent-more-expensive-than-3nm/
    💰 “TSMC เปิดราคาชิป 2nm — แพงขึ้นไม่มาก แต่มีเงื่อนไขซ่อนอยู่ที่ลูกค้าต้องรับมือ” หลังจากมีข่าวลือว่าชิป 2nm จาก TSMC จะมีราคาสูงกว่ารุ่น 3nm ถึง 50% ล่าสุดมีรายงานใหม่ระบุว่าราคาจริงของแผ่นเวเฟอร์ 2nm จะเพิ่มขึ้นเพียง 10–20% เท่านั้นเมื่อเทียบกับรุ่น 3nm อย่าง N3P และ N3E แต่ความจริงที่ซ่อนอยู่คือ TSMC กำลังปรับราคาของเวเฟอร์ 3nm ให้สูงขึ้นด้วย ทำให้ช่องว่างระหว่างรุ่นดูแคบลง ราคาของเวเฟอร์ 2nm ยังคงอยู่ที่ประมาณ $30,000 ต่อแผ่น ซึ่งเป็นราคาที่สูงมากสำหรับการผลิตชิปในระดับผู้บริโภค โดยเฉพาะเมื่อเทียบกับเวเฟอร์ 3nm ที่เคยอยู่ที่ $25,000–$27,000 แต่กำลังถูกปรับขึ้นเพื่อให้การเปลี่ยนผ่านไปยัง 2nm ดู “สมเหตุสมผล” Qualcomm และ MediaTek เป็นสองบริษัทที่ได้รับผลกระทบจากการเปลี่ยนไปใช้ N3P โดยต้องจ่ายเพิ่มถึง 16–24% สำหรับชิปรุ่นใหม่ เช่น Snapdragon 8 Elite Gen 5 และ Dimensity 9500 ขณะที่ Qualcomm เตรียมย้ายไปใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6 ในปีหน้า แม้ราคาจะไม่พุ่งแรงอย่างที่คาด แต่ผลกระทบต่อราคาสินค้า เช่น สมาร์ตโฟนและแท็บเล็ต ยังคงมีอยู่ เพราะต้นทุนการผลิตที่สูงขึ้นจะถูกผลักไปยังผู้บริโภค โดยเฉพาะในยุคที่การผลิตชิปต้องใช้เทคโนโลยีขั้นสูง เช่น Gate-All-Around และ EUV ที่มีต้นทุนสูงมาก ✅ ข้อมูลสำคัญจากข่าว ➡️ ราคาของเวเฟอร์ 2nm อยู่ที่ประมาณ $30,000 ต่อแผ่น ➡️ เพิ่มขึ้นจากเวเฟอร์ 3nm เพียง 10–20% ไม่ใช่ 50% ตามข่าวลือ ➡️ TSMC ปรับราคาของเวเฟอร์ 3nm เช่น N3E และ N3P ให้สูงขึ้น ➡️ Qualcomm และ MediaTek ได้รับผลกระทบจากราคาที่เพิ่มขึ้น ➡️ Qualcomm เตรียมใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6 ➡️ ราคาสินค้าอิเล็กทรอนิกส์จะเพิ่มขึ้นตามต้นทุนเวเฟอร์ ➡️ การผลิตชิป 2nm ใช้เทคโนโลยี Gate-All-Around และ EUV ➡️ TSMC เริ่มผลิต 2nm ในไตรมาสสุดท้ายของปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Gate-All-Around เป็นเทคโนโลยีทรานซิสเตอร์ที่ลดการรั่วไหลของกระแสไฟ ➡️ EUV (Extreme Ultraviolet Lithography) เป็นเทคนิคพิมพ์ลวดลายที่ใช้แสงความยาวคลื่นสั้น ➡️ การผลิตเวเฟอร์ในสหรัฐฯ เช่นที่โรงงานใน Arizona มีต้นทุนสูงกว่าที่ไต้หวันถึง 20–30% ➡️ Apple และ AMD เป็นลูกค้าหลักของ TSMC ที่เตรียมใช้ 2nm ในผลิตภัณฑ์ปี 2026 ➡️ Chiplet architecture ช่วยลดต้นทุนโดยใช้เวเฟอร์ขั้นสูงเฉพาะในส่วนสำคัญของชิป https://wccftech.com/tsmc-2nm-wafers-to-be-10-to-20-percent-more-expensive-than-3nm/
    WCCFTECH.COM
    TSMC’s 2nm Customers Can Take A Breather; Wafers Reportedly Only 10-20 Percent More Expensive Than 3nm But There Is A Catch
    A new report states that instead of TSMC’s 2nm wafers being 50 percent more expensive than 3nm, they will be between 10-20 percent pricier
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • “Apple M5 Pro และ M5 Max อาจเปลี่ยนดีไซน์ชิปครั้งใหญ่ — แยก CPU กับ GPU เพื่อการปรับแต่งเฉพาะตัว”

    Apple กำลังเตรียมเปิดตัวชิป M5 Pro และ M5 Max ที่อาจมาพร้อมการเปลี่ยนแปลงครั้งสำคัญในด้านสถาปัตยกรรม โดยแหล่งข่าวระบุว่า Apple จะใช้ดีไซน์ใหม่ที่แยกบล็อก CPU และ GPU ออกจากกัน ซึ่งเปิดโอกาสให้ผู้ใช้สามารถเลือกจำนวนคอร์ของแต่ละส่วนได้ตามต้องการ เช่น เลือก GPU แบบจัดเต็มแต่ใช้ CPU เท่ารุ่นพื้นฐาน หรือกลับกัน

    ชิปทั้งสองรุ่นจะใช้เทคโนโลยีการบรรจุแบบ SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอนที่ช่วยให้มีความหนาแน่นสูงขึ้น ลดขนาดและน้ำหนักของแพ็กเกจ เหมาะกับเครื่องพกพาอย่าง MacBook Pro และยังช่วยให้ระบายความร้อนได้ดีขึ้นด้วยแผ่นสัมผัสที่เปิดออก

    M5 Pro และ M5 Max จะผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ซึ่งเป็นรุ่นที่พัฒนาต่อจาก N3E ที่ใช้ในชิป M4 และ A18 Bionic โดยคาดว่าจะให้ประสิทธิภาพสูงขึ้นและประหยัดพลังงานมากขึ้น

    อย่างไรก็ตาม ชิป M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH นี้ ทำให้ M5 Pro และ M5 Max กลายเป็นรุ่นพิเศษที่มีความสามารถในการปรับแต่งสูงกว่า และอาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน โดยมีข่าวลือว่าการเปิดตัว M5 Pro และ M5 Max จะล่าช้าออกไป

    แม้จะมีความล่าช้า แต่ Apple ก็ยังไม่มีคู่แข่งที่สามารถเทียบเคียงได้ในด้านประสิทธิภาพ โดย M4 Max ยังคงเหนือกว่า Snapdragon X2 Elite Extreme ทั้งในด้าน single-core และ multi-core รวมถึงการประมวลผลกราฟิกใน 3DMark

    ข้อมูลสำคัญจากข่าว
    M5 Pro และ M5 Max อาจใช้ดีไซน์ชิปใหม่ที่แยก CPU กับ GPU ออกจากกัน
    ผู้ใช้สามารถเลือกจำนวนคอร์ของ CPU และ GPU ได้ตามต้องการ
    ใช้เทคโนโลยี SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอน
    ช่วยลดขนาดและน้ำหนักของแพ็กเกจ เพิ่มความหนาแน่นของชิ้นส่วน
    เพิ่มประสิทธิภาพการระบายความร้อนด้วยแผ่นสัมผัสที่เปิดออก
    ผลิตบนเทคโนโลยี 3nm N3P ของ TSMC
    M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH
    อาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน
    M4 Max ยังเหนือกว่า Snapdragon X2 Elite Extreme ในหลายการทดสอบ

    ข้อมูลเสริมจากภายนอก
    SoIC-MH เป็นเทคโนโลยี 2.5D ที่ช่วยให้การเชื่อมต่อระหว่างชิปมีความหนาแน่นสูง
    การแยก CPU กับ GPU อาจช่วยให้ประสิทธิภาพ AI inference ดีขึ้น
    Unified Memory Architecture (UMA) อาจถูกยกเลิกในดีไซน์ใหม่นี้
    การแยกหน่วยความจำระหว่าง CPU กับ GPU อาจเพิ่มความยืดหยุ่นในการใช้งาน
    Apple อาจใช้ดีไซน์ใหม่นี้เพื่อรองรับ Private Cloud Compute สำหรับงาน AI

    https://wccftech.com/apple-m5-pro-and-m5-max-new-chip-design-with-separate-cpu-and-gpu-blocks/
    🧩 “Apple M5 Pro และ M5 Max อาจเปลี่ยนดีไซน์ชิปครั้งใหญ่ — แยก CPU กับ GPU เพื่อการปรับแต่งเฉพาะตัว” Apple กำลังเตรียมเปิดตัวชิป M5 Pro และ M5 Max ที่อาจมาพร้อมการเปลี่ยนแปลงครั้งสำคัญในด้านสถาปัตยกรรม โดยแหล่งข่าวระบุว่า Apple จะใช้ดีไซน์ใหม่ที่แยกบล็อก CPU และ GPU ออกจากกัน ซึ่งเปิดโอกาสให้ผู้ใช้สามารถเลือกจำนวนคอร์ของแต่ละส่วนได้ตามต้องการ เช่น เลือก GPU แบบจัดเต็มแต่ใช้ CPU เท่ารุ่นพื้นฐาน หรือกลับกัน ชิปทั้งสองรุ่นจะใช้เทคโนโลยีการบรรจุแบบ SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอนที่ช่วยให้มีความหนาแน่นสูงขึ้น ลดขนาดและน้ำหนักของแพ็กเกจ เหมาะกับเครื่องพกพาอย่าง MacBook Pro และยังช่วยให้ระบายความร้อนได้ดีขึ้นด้วยแผ่นสัมผัสที่เปิดออก M5 Pro และ M5 Max จะผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ซึ่งเป็นรุ่นที่พัฒนาต่อจาก N3E ที่ใช้ในชิป M4 และ A18 Bionic โดยคาดว่าจะให้ประสิทธิภาพสูงขึ้นและประหยัดพลังงานมากขึ้น อย่างไรก็ตาม ชิป M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH นี้ ทำให้ M5 Pro และ M5 Max กลายเป็นรุ่นพิเศษที่มีความสามารถในการปรับแต่งสูงกว่า และอาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน โดยมีข่าวลือว่าการเปิดตัว M5 Pro และ M5 Max จะล่าช้าออกไป แม้จะมีความล่าช้า แต่ Apple ก็ยังไม่มีคู่แข่งที่สามารถเทียบเคียงได้ในด้านประสิทธิภาพ โดย M4 Max ยังคงเหนือกว่า Snapdragon X2 Elite Extreme ทั้งในด้าน single-core และ multi-core รวมถึงการประมวลผลกราฟิกใน 3DMark ✅ ข้อมูลสำคัญจากข่าว ➡️ M5 Pro และ M5 Max อาจใช้ดีไซน์ชิปใหม่ที่แยก CPU กับ GPU ออกจากกัน ➡️ ผู้ใช้สามารถเลือกจำนวนคอร์ของ CPU และ GPU ได้ตามต้องการ ➡️ ใช้เทคโนโลยี SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอน ➡️ ช่วยลดขนาดและน้ำหนักของแพ็กเกจ เพิ่มความหนาแน่นของชิ้นส่วน ➡️ เพิ่มประสิทธิภาพการระบายความร้อนด้วยแผ่นสัมผัสที่เปิดออก ➡️ ผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ➡️ M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH ➡️ อาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน ➡️ M4 Max ยังเหนือกว่า Snapdragon X2 Elite Extreme ในหลายการทดสอบ ✅ ข้อมูลเสริมจากภายนอก ➡️ SoIC-MH เป็นเทคโนโลยี 2.5D ที่ช่วยให้การเชื่อมต่อระหว่างชิปมีความหนาแน่นสูง ➡️ การแยก CPU กับ GPU อาจช่วยให้ประสิทธิภาพ AI inference ดีขึ้น ➡️ Unified Memory Architecture (UMA) อาจถูกยกเลิกในดีไซน์ใหม่นี้ ➡️ การแยกหน่วยความจำระหว่าง CPU กับ GPU อาจเพิ่มความยืดหยุ่นในการใช้งาน ➡️ Apple อาจใช้ดีไซน์ใหม่นี้เพื่อรองรับ Private Cloud Compute สำหรับงาน AI https://wccftech.com/apple-m5-pro-and-m5-max-new-chip-design-with-separate-cpu-and-gpu-blocks/
    WCCFTECH.COM
    Apple’s M5 Pro & M5 Max Rumored To Share New Chip Design With Separate CPU, GPU Blocks, Allowing For Unique Configurations, May Not Arrive With Regular M5
    It might be possible to enable unique configurations with the M5 Pro and M5 Max, as both Apple Silicon are rumored to feature a brand new design
    0 ความคิดเห็น 0 การแบ่งปัน 207 มุมมอง 0 รีวิว
  • “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์”

    Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน

    Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป

    Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน

    ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา

    นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake

    ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids
    Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core
    รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile
    Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์
    Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์
    ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids
    มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น
    Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core
    Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์

    ข้อมูลเสริมจากภายนอก
    Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน
    Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont
    Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading
    APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก
    การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่

    https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    🧠 “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์” Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids ➡️ Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core ➡️ รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile ➡️ Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์ ➡️ Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์ ➡️ ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids ➡️ มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น ➡️ Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core ➡️ Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน ➡️ Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont ➡️ Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading ➡️ APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก ➡️ การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่ https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    0 ความคิดเห็น 0 การแบ่งปัน 249 มุมมอง 0 รีวิว
  • “Alphawave Semi ผนึกกำลัง TSMC เปิดตัว UCIe 3D IP — ปลดล็อกขีดจำกัดการเชื่อมต่อชิปในยุค AI”

    Alphawave Semi บริษัทผู้นำด้านเทคโนโลยีการเชื่อมต่อความเร็วสูง ประกาศความสำเร็จในการ tape-out ชิป UCIe 3D IP รุ่นใหม่บนแพลตฟอร์ม 3DFabric ของ TSMC โดยใช้เทคโนโลยี SoIC-X ซึ่งเป็นการบรรจุชิปแบบ 3D ขั้นสูงที่ช่วยให้การเชื่อมต่อระหว่างชิปมีประสิทธิภาพสูงขึ้นอย่างก้าวกระโดด

    ชิปใหม่นี้รองรับการเชื่อมต่อแบบ face-to-face (F2F) และให้ประสิทธิภาพด้านพลังงานดีขึ้นถึง 10 เท่าเมื่อเทียบกับการเชื่อมต่อแบบ 2.5D เดิม พร้อมเพิ่มความหนาแน่นของสัญญาณได้ถึง 5 เท่า ซึ่งถือเป็นการตอบโจทย์โดยตรงต่อความต้องการของระบบ AI และ HPC ที่ต้องการแบนด์วิดธ์สูงและการจัดการพลังงานที่มีประสิทธิภาพ

    ในยุคที่ Moore’s Law เริ่มไม่สามารถรองรับความซับซ้อนของโมเดล AI ได้อีกต่อไป การออกแบบชิปแบบเดิมที่สื่อสารกันผ่านขอบของแพ็กเกจเริ่มกลายเป็นข้อจำกัด Alphawave จึงเลือกแนวทางใหม่ด้วยการออกแบบชิปแบบ disaggregated architecture โดยใช้การวางชิปหลายตัวในแนวนอน หรือซ้อนกันในแนวตั้ง เพื่อเพิ่มแบนด์วิดธ์และลดการใช้พลังงาน

    ชิป UCIe-3D รุ่นใหม่นี้ใช้ bottom die ขนาด 5nm ที่รองรับ TSVs (Through-Silicon Vias) เพื่อส่งพลังงานและกราวด์ไปยัง top die ขนาด 3nm ซึ่งช่วยให้การจัดการพลังงานภายในชิปมีประสิทธิภาพมากขึ้น นอกจากนี้ Alphawave ยังมีชุดเครื่องมือ 3DIO ที่ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D เป็นไปอย่างรวดเร็วและแม่นยำ

    ความร่วมมือครั้งนี้ยังรวมถึง Siemens ซึ่งนำแพลตฟอร์ม Calibre เข้ามาช่วยในการวิเคราะห์พารามิเตอร์ไฟฟ้าและความร้อนในระยะเริ่มต้น เพื่อให้ระบบมีความเสถียรและเชื่อถือได้มากขึ้น

    ข้อมูลสำคัญจากข่าว
    Alphawave Semi ประสบความสำเร็จในการ tape-out ชิป UCIe 3D IP บนแพลตฟอร์ม TSMC 3DFabric
    ใช้เทคโนโลยี SoIC-X สำหรับการบรรจุชิปแบบ 3D ขั้นสูง
    รองรับการเชื่อมต่อแบบ face-to-face (F2F)
    ประสิทธิภาพด้านพลังงานดีขึ้น 10 เท่า และความหนาแน่นของสัญญาณเพิ่มขึ้น 5 เท่า
    ใช้ bottom die ขนาด 5nm และ top die ขนาด 3nm โดยเชื่อมผ่าน TSVs
    ช่วยแก้ปัญหาคอขวดด้านแบนด์วิดธ์และพลังงานในระบบ AI และ HPC
    Siemens ร่วมพัฒนาแพลตฟอร์มการออกแบบและตรวจสอบร่วมกับ Alphawave
    ชุดเครื่องมือ 3DIO ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D มีประสิทธิภาพ
    การออกแบบแบบ disaggregated architecture เป็นแนวทางใหม่แทน SoC แบบเดิม

    ข้อมูลเสริมจากภายนอก
    UCIe (Universal Chiplet Interconnect Express) เป็นมาตรฐานใหม่สำหรับการเชื่อมต่อชิปแบบ chiplet
    SoIC-X ของ TSMC เป็นเทคโนโลยีการบรรจุชิปแบบ 3D ที่ใช้ในระดับองค์กรและ hyperscaler
    TSVs ช่วยให้การส่งพลังงานและข้อมูลระหว่างชิปมีความเร็วและประสิทธิภาพสูง
    การออกแบบแบบ chiplet ช่วยให้สามารถอัปเกรดเฉพาะส่วนของชิปได้โดยไม่ต้องสร้างใหม่ทั้งหมด
    Siemens Calibre เป็นแพลตฟอร์มที่ใช้วิเคราะห์ความถูกต้องของวงจรในระดับนาโนเมตร

    https://www.techpowerup.com/341533/alphawave-semi-delivers-cutting-edge-ucie-chiplet-ip-on-tsmc-3dfabric-platform
    🔗 “Alphawave Semi ผนึกกำลัง TSMC เปิดตัว UCIe 3D IP — ปลดล็อกขีดจำกัดการเชื่อมต่อชิปในยุค AI” Alphawave Semi บริษัทผู้นำด้านเทคโนโลยีการเชื่อมต่อความเร็วสูง ประกาศความสำเร็จในการ tape-out ชิป UCIe 3D IP รุ่นใหม่บนแพลตฟอร์ม 3DFabric ของ TSMC โดยใช้เทคโนโลยี SoIC-X ซึ่งเป็นการบรรจุชิปแบบ 3D ขั้นสูงที่ช่วยให้การเชื่อมต่อระหว่างชิปมีประสิทธิภาพสูงขึ้นอย่างก้าวกระโดด ชิปใหม่นี้รองรับการเชื่อมต่อแบบ face-to-face (F2F) และให้ประสิทธิภาพด้านพลังงานดีขึ้นถึง 10 เท่าเมื่อเทียบกับการเชื่อมต่อแบบ 2.5D เดิม พร้อมเพิ่มความหนาแน่นของสัญญาณได้ถึง 5 เท่า ซึ่งถือเป็นการตอบโจทย์โดยตรงต่อความต้องการของระบบ AI และ HPC ที่ต้องการแบนด์วิดธ์สูงและการจัดการพลังงานที่มีประสิทธิภาพ ในยุคที่ Moore’s Law เริ่มไม่สามารถรองรับความซับซ้อนของโมเดล AI ได้อีกต่อไป การออกแบบชิปแบบเดิมที่สื่อสารกันผ่านขอบของแพ็กเกจเริ่มกลายเป็นข้อจำกัด Alphawave จึงเลือกแนวทางใหม่ด้วยการออกแบบชิปแบบ disaggregated architecture โดยใช้การวางชิปหลายตัวในแนวนอน หรือซ้อนกันในแนวตั้ง เพื่อเพิ่มแบนด์วิดธ์และลดการใช้พลังงาน ชิป UCIe-3D รุ่นใหม่นี้ใช้ bottom die ขนาด 5nm ที่รองรับ TSVs (Through-Silicon Vias) เพื่อส่งพลังงานและกราวด์ไปยัง top die ขนาด 3nm ซึ่งช่วยให้การจัดการพลังงานภายในชิปมีประสิทธิภาพมากขึ้น นอกจากนี้ Alphawave ยังมีชุดเครื่องมือ 3DIO ที่ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D เป็นไปอย่างรวดเร็วและแม่นยำ ความร่วมมือครั้งนี้ยังรวมถึง Siemens ซึ่งนำแพลตฟอร์ม Calibre เข้ามาช่วยในการวิเคราะห์พารามิเตอร์ไฟฟ้าและความร้อนในระยะเริ่มต้น เพื่อให้ระบบมีความเสถียรและเชื่อถือได้มากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Alphawave Semi ประสบความสำเร็จในการ tape-out ชิป UCIe 3D IP บนแพลตฟอร์ม TSMC 3DFabric ➡️ ใช้เทคโนโลยี SoIC-X สำหรับการบรรจุชิปแบบ 3D ขั้นสูง ➡️ รองรับการเชื่อมต่อแบบ face-to-face (F2F) ➡️ ประสิทธิภาพด้านพลังงานดีขึ้น 10 เท่า และความหนาแน่นของสัญญาณเพิ่มขึ้น 5 เท่า ➡️ ใช้ bottom die ขนาด 5nm และ top die ขนาด 3nm โดยเชื่อมผ่าน TSVs ➡️ ช่วยแก้ปัญหาคอขวดด้านแบนด์วิดธ์และพลังงานในระบบ AI และ HPC ➡️ Siemens ร่วมพัฒนาแพลตฟอร์มการออกแบบและตรวจสอบร่วมกับ Alphawave ➡️ ชุดเครื่องมือ 3DIO ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D มีประสิทธิภาพ ➡️ การออกแบบแบบ disaggregated architecture เป็นแนวทางใหม่แทน SoC แบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ UCIe (Universal Chiplet Interconnect Express) เป็นมาตรฐานใหม่สำหรับการเชื่อมต่อชิปแบบ chiplet ➡️ SoIC-X ของ TSMC เป็นเทคโนโลยีการบรรจุชิปแบบ 3D ที่ใช้ในระดับองค์กรและ hyperscaler ➡️ TSVs ช่วยให้การส่งพลังงานและข้อมูลระหว่างชิปมีความเร็วและประสิทธิภาพสูง ➡️ การออกแบบแบบ chiplet ช่วยให้สามารถอัปเกรดเฉพาะส่วนของชิปได้โดยไม่ต้องสร้างใหม่ทั้งหมด ➡️ Siemens Calibre เป็นแพลตฟอร์มที่ใช้วิเคราะห์ความถูกต้องของวงจรในระดับนาโนเมตร https://www.techpowerup.com/341533/alphawave-semi-delivers-cutting-edge-ucie-chiplet-ip-on-tsmc-3dfabric-platform
    WWW.TECHPOWERUP.COM
    Alphawave Semi Delivers Cutting-Edge UCIe Chiplet IP on TSMC 3DFabric Platform
    Alphawave Semi (LSE: AWE), a global leader in high-speed connectivity and compute silicon for the world's technology infrastructure, has announced the successful tape-out of its cutting edge UCIe 3D IP on the advanced TSMC SoIC (SoIC-X) technology in the 3DFabric platform. This achievement builds on...
    0 ความคิดเห็น 0 การแบ่งปัน 174 มุมมอง 0 รีวิว
  • “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ”

    DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม

    จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ

    นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน

    แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face
    เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท
    ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว
    ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า
    ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI
    ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง
    โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License
    มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง
    เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด

    ข้อมูลเสริมจากภายนอก
    Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ
    Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล
    การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง
    DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง
    ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ

    https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    🧠 “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ” DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face ➡️ เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท ➡️ ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว ➡️ ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า ➡️ ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI ➡️ ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง ➡️ โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License ➡️ มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง ➡️ เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด ✅ ข้อมูลเสริมจากภายนอก ➡️ Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ ➡️ Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล ➡️ การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง ➡️ DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง ➡️ ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    WWW.THESTAR.COM.MY
    DeepSeek releases model it calls 'intermediate step' towards 'next-generation architecture'
    BEIJING (Reuters) -Chinese AI developer DeepSeek has released its latest model which it said was an "experimental release" that was more efficient to train and better at processing long sequences of text than previous iterations.
    0 ความคิดเห็น 0 การแบ่งปัน 253 มุมมอง 0 รีวิว
  • “AMD จดสิทธิบัตร HB-DIMM อีกครั้ง — แต่เทคโนโลยีนี้อาจไม่มา เพราะ MRDIMM แซงหน้าไปแล้ว”

    เมื่อเร็ว ๆ นี้ AMD ได้จดสิทธิบัตรใหม่ในชื่อ “High-bandwidth memory module architecture” ซึ่งหลายคนเข้าใจว่าเป็นการเปิดตัวเทคโนโลยี RAM แบบใหม่ที่ใช้ DDR5 เป็นฐาน โดยเรียกว่า HB-DIMM (High-Bandwidth DIMM) แต่แท้จริงแล้ว สิทธิบัตรนี้เป็นเพียงการต่อยอดจากเอกสารเดิมที่ยื่นไว้ตั้งแต่ปี 2022 และถูกแทนที่ด้วยเทคโนโลยี MRDIMM ไปแล้วตั้งแต่ปี 2023

    HB-DIMM เป็นแนวคิดที่ใช้ “pseudo-channels” หรือช่องสัญญาณจำลองภายในโมดูลเดียว เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ได้ถึงสองเท่า โดยไม่ต้องเปลี่ยนชิป DRAM แต่ต้องเพิ่มชิ้นส่วน เช่น data buffers และ RCD (Register Clock Driver) ซึ่งทำให้ HB-DIMM มีศักยภาพเหนือกว่า RDIMM และ CUDIMM แบบเดิม

    อย่างไรก็ตาม เทคโนโลยีนี้ได้ถูกนำไปพัฒนาเป็นมาตรฐานใหม่ชื่อ MRDIMM (Multiplexed-Rank DIMM) โดย JEDEC ซึ่งรวมแนวคิดของ HB-DIMM และ MCR-DIMM (จาก Intel และ SK hynix) เข้าด้วยกัน เพื่อหลีกเลี่ยงการเกิดมาตรฐานที่ไม่เข้ากันในตลาด

    MRDIMM ได้รับการสนับสนุนจาก Intel และ AMD แล้ว โดย Intel ใช้ในซีพียู Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ที่มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ซึ่งตรงกับความเร็วที่ JEDEC ระบุไว้สำหรับ MRDIMM รุ่นที่สอง

    แม้จะมีประสิทธิภาพสูง แต่ MRDIMM ยังมีราคาสูงมาก โดยแพงกว่ารุ่น DDR5 RDIMM ทั่วไปถึง 28–114% ต่อ GB ซึ่งอาจเป็นอุปสรรคต่อการนำมาใช้ในระบบทั่วไป

    ข้อมูลสำคัญจากข่าว
    AMD จดสิทธิบัตร HB-DIMM อีกครั้งในปี 2025 แต่เป็นการต่อยอดจากเอกสารเดิม
    HB-DIMM ใช้ pseudo-channels เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5
    ต้องใช้ชิ้นส่วนเพิ่ม เช่น data buffers และ RCD เพื่อให้ทำงานได้
    แนวคิด HB-DIMM ถูกนำไปพัฒนาเป็นมาตรฐาน MRDIMM โดย JEDEC
    MRDIMM รวมแนวคิดจาก HB-DIMM และ MCR-DIMM เพื่อหลีกเลี่ยงความไม่เข้ากัน
    Intel ใช้ MRDIMM ใน Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’
    EPYC ‘Venice’ มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต
    MRDIMM รุ่นที่สองมีความเร็วสูงถึง 12,800 Mbps ตามมาตรฐาน JEDEC
    MRDIMM มีราคาสูงกว่ารุ่น DDR5 RDIMM ถึง 28–114% ต่อ GB

    ข้อมูลเสริมจากภายนอก
    HB-DIMM ไม่ใช่เทคโนโลยีใหม่ แต่เป็นแนวคิดที่ถูกพัฒนาไปแล้ว
    JEDEC เป็นองค์กรที่กำหนดมาตรฐานหน่วยความจำระดับโลก
    pseudo-channels ช่วยให้สามารถเข้าถึงข้อมูลแบบขนานภายในโมดูลเดียว
    MRDIMM ช่วยลด latency และเพิ่ม throughput ในงานที่ใช้หน่วยความจำหนัก
    AMD และ Intel มีแนวโน้มร่วมมือกันมากขึ้นในด้านมาตรฐานหน่วยความจำ

    https://www.tomshardware.com/pc-components/ram/amds-memory-patent-outlining-a-new-improved-ram-made-from-ddr5-memory-isnt-a-new-development-hb-dimms-already-superseded-probably-wont-come-to-market
    🧠 “AMD จดสิทธิบัตร HB-DIMM อีกครั้ง — แต่เทคโนโลยีนี้อาจไม่มา เพราะ MRDIMM แซงหน้าไปแล้ว” เมื่อเร็ว ๆ นี้ AMD ได้จดสิทธิบัตรใหม่ในชื่อ “High-bandwidth memory module architecture” ซึ่งหลายคนเข้าใจว่าเป็นการเปิดตัวเทคโนโลยี RAM แบบใหม่ที่ใช้ DDR5 เป็นฐาน โดยเรียกว่า HB-DIMM (High-Bandwidth DIMM) แต่แท้จริงแล้ว สิทธิบัตรนี้เป็นเพียงการต่อยอดจากเอกสารเดิมที่ยื่นไว้ตั้งแต่ปี 2022 และถูกแทนที่ด้วยเทคโนโลยี MRDIMM ไปแล้วตั้งแต่ปี 2023 HB-DIMM เป็นแนวคิดที่ใช้ “pseudo-channels” หรือช่องสัญญาณจำลองภายในโมดูลเดียว เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ได้ถึงสองเท่า โดยไม่ต้องเปลี่ยนชิป DRAM แต่ต้องเพิ่มชิ้นส่วน เช่น data buffers และ RCD (Register Clock Driver) ซึ่งทำให้ HB-DIMM มีศักยภาพเหนือกว่า RDIMM และ CUDIMM แบบเดิม อย่างไรก็ตาม เทคโนโลยีนี้ได้ถูกนำไปพัฒนาเป็นมาตรฐานใหม่ชื่อ MRDIMM (Multiplexed-Rank DIMM) โดย JEDEC ซึ่งรวมแนวคิดของ HB-DIMM และ MCR-DIMM (จาก Intel และ SK hynix) เข้าด้วยกัน เพื่อหลีกเลี่ยงการเกิดมาตรฐานที่ไม่เข้ากันในตลาด MRDIMM ได้รับการสนับสนุนจาก Intel และ AMD แล้ว โดย Intel ใช้ในซีพียู Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ที่มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ซึ่งตรงกับความเร็วที่ JEDEC ระบุไว้สำหรับ MRDIMM รุ่นที่สอง แม้จะมีประสิทธิภาพสูง แต่ MRDIMM ยังมีราคาสูงมาก โดยแพงกว่ารุ่น DDR5 RDIMM ทั่วไปถึง 28–114% ต่อ GB ซึ่งอาจเป็นอุปสรรคต่อการนำมาใช้ในระบบทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD จดสิทธิบัตร HB-DIMM อีกครั้งในปี 2025 แต่เป็นการต่อยอดจากเอกสารเดิม ➡️ HB-DIMM ใช้ pseudo-channels เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ➡️ ต้องใช้ชิ้นส่วนเพิ่ม เช่น data buffers และ RCD เพื่อให้ทำงานได้ ➡️ แนวคิด HB-DIMM ถูกนำไปพัฒนาเป็นมาตรฐาน MRDIMM โดย JEDEC ➡️ MRDIMM รวมแนวคิดจาก HB-DIMM และ MCR-DIMM เพื่อหลีกเลี่ยงความไม่เข้ากัน ➡️ Intel ใช้ MRDIMM ใน Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ➡️ EPYC ‘Venice’ มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ➡️ MRDIMM รุ่นที่สองมีความเร็วสูงถึง 12,800 Mbps ตามมาตรฐาน JEDEC ➡️ MRDIMM มีราคาสูงกว่ารุ่น DDR5 RDIMM ถึง 28–114% ต่อ GB ✅ ข้อมูลเสริมจากภายนอก ➡️ HB-DIMM ไม่ใช่เทคโนโลยีใหม่ แต่เป็นแนวคิดที่ถูกพัฒนาไปแล้ว ➡️ JEDEC เป็นองค์กรที่กำหนดมาตรฐานหน่วยความจำระดับโลก ➡️ pseudo-channels ช่วยให้สามารถเข้าถึงข้อมูลแบบขนานภายในโมดูลเดียว ➡️ MRDIMM ช่วยลด latency และเพิ่ม throughput ในงานที่ใช้หน่วยความจำหนัก ➡️ AMD และ Intel มีแนวโน้มร่วมมือกันมากขึ้นในด้านมาตรฐานหน่วยความจำ https://www.tomshardware.com/pc-components/ram/amds-memory-patent-outlining-a-new-improved-ram-made-from-ddr5-memory-isnt-a-new-development-hb-dimms-already-superseded-probably-wont-come-to-market
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • “Snapdragon X2 Elite Extreme: ชิป Arm 3nm ตัวแรกแตะ 5GHz — Qualcomm เปิดเกมรุกตลาด PC ด้วยพลัง AI และประสิทธิภาพล้นขอบ”

    ที่งาน Snapdragon Summit 2025 ณ ฮาวาย Qualcomm เปิดตัวชิปตระกูลใหม่สำหรับ PC คือ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นรุ่นต่อยอดจาก X Elite รุ่นแรกที่เปิดตัวเมื่อปี 2023 โดยครั้งนี้ Qualcomm ตั้งใจยกระดับชิป Arm สำหรับ Windows PC ให้เทียบชั้นกับ x86 จาก Intel และ AMD

    Snapdragon X2 Elite Extreme เป็นชิประดับสูงสุดในซีรีส์นี้ โดยมี 18 คอร์ แบ่งเป็น 12 คอร์ “Prime” ที่สามารถเร่งความเร็วได้ถึง 5.0GHz (บน 2 คอร์) และอีก 6 คอร์ “Performance” ที่ทำงานที่ 3.6GHz ถือเป็นชิป Arm ตัวแรกที่แตะความเร็วระดับนี้บน PC

    ชิปทั้งหมดผลิตด้วยเทคโนโลยี 3nm และใช้สถาปัตยกรรม Oryon รุ่นที่ 3 ซึ่ง Qualcomm เคลมว่ามีประสิทธิภาพสูงกว่าคู่แข่งถึง 75% ที่พลังงานเท่ากัน และประหยัดพลังงานกว่าเดิมถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า

    ด้านกราฟิก ชิปใหม่มาพร้อม Adreno GPU รุ่นล่าสุดที่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า รองรับ ray tracing และการเรนเดอร์ภาพระดับสูง ส่วน NPU (Neural Processing Unit) ก็แรงไม่แพ้กัน โดยมีพลังประมวลผลถึง 80 TOPS ซึ่งสูงกว่ารุ่นก่อนหน้าถึง 78% และถูกออกแบบมาเพื่อรองรับ Copilot+ และงาน AI แบบเรียลไทม์

    Snapdragon X2 Elite Extreme ยังมีการออกแบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU คล้ายกับ Apple M-Series ซึ่งช่วยเพิ่มความเร็วในการประมวลผลและลด latency ในการทำงานร่วมกันของระบบ

    Qualcomm ระบุว่าอุปกรณ์ที่ใช้ชิปนี้จะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 โดยคาดว่าจะมีทั้งโน้ตบุ๊กระดับโปร, แท็บเล็ต, และ mini PC จากผู้ผลิตชั้นนำ เช่น Microsoft, Samsung, Dell, HP และ Lenovo

    ข้อมูลสำคัญจากข่าว
    Snapdragon X2 Elite Extreme เป็นชิป Arm ตัวแรกที่แตะ 5.0GHz บน 2 คอร์
    มีทั้งหมด 18 คอร์ (12 Prime + 6 Performance) และผลิตด้วยเทคโนโลยี 3nm
    ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 พร้อมแคชรวม 53MB
    GPU Adreno รุ่นใหม่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า
    NPU มีพลังประมวลผล 80 TOPS รองรับงาน AI และ Copilot+
    รองรับ LPDDR5X สูงสุด 128GB และแบนด์วิดธ์ 228 GB/s
    มีโมเด็ม Snapdragon X75 รองรับ 5G สูงสุด 10Gbps และ Wi-Fi 7
    ระบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU ช่วยลด latency
    คาดว่าจะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 ทั้งในโน้ตบุ๊กและ mini PC

    ข้อมูลเสริมจากภายนอก
    Oryon เป็นสถาปัตยกรรมที่ Qualcomm พัฒนาขึ้นเองหลังจากซื้อกิจการ Nuvia
    Unified memory architecture ช่วยให้การประมวลผลภาพและข้อมูล AI เร็วขึ้น
    NPU ที่มี 80 TOPS ถือเป็นระดับสูงสุดในตลาด PC ณ ปัจจุบัน
    ARM-based PC มีข้อได้เปรียบด้านพลังงานและความบางเบา
    Qualcomm พยายามผลักดัน Windows on ARM ให้เป็นมาตรฐานใหม่สำหรับโน้ตบุ๊ก

    https://www.tomshardware.com/pc-components/cpus/qualcomms-new-snapdragon-x2-elite-extreme-and-elite-chips-for-pcs-stretch-up-to-a-record-5-ghz-3nm-arm-chips-sport-new-oryon-prime-cores
    ⚡ “Snapdragon X2 Elite Extreme: ชิป Arm 3nm ตัวแรกแตะ 5GHz — Qualcomm เปิดเกมรุกตลาด PC ด้วยพลัง AI และประสิทธิภาพล้นขอบ” ที่งาน Snapdragon Summit 2025 ณ ฮาวาย Qualcomm เปิดตัวชิปตระกูลใหม่สำหรับ PC คือ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นรุ่นต่อยอดจาก X Elite รุ่นแรกที่เปิดตัวเมื่อปี 2023 โดยครั้งนี้ Qualcomm ตั้งใจยกระดับชิป Arm สำหรับ Windows PC ให้เทียบชั้นกับ x86 จาก Intel และ AMD Snapdragon X2 Elite Extreme เป็นชิประดับสูงสุดในซีรีส์นี้ โดยมี 18 คอร์ แบ่งเป็น 12 คอร์ “Prime” ที่สามารถเร่งความเร็วได้ถึง 5.0GHz (บน 2 คอร์) และอีก 6 คอร์ “Performance” ที่ทำงานที่ 3.6GHz ถือเป็นชิป Arm ตัวแรกที่แตะความเร็วระดับนี้บน PC ชิปทั้งหมดผลิตด้วยเทคโนโลยี 3nm และใช้สถาปัตยกรรม Oryon รุ่นที่ 3 ซึ่ง Qualcomm เคลมว่ามีประสิทธิภาพสูงกว่าคู่แข่งถึง 75% ที่พลังงานเท่ากัน และประหยัดพลังงานกว่าเดิมถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า ด้านกราฟิก ชิปใหม่มาพร้อม Adreno GPU รุ่นล่าสุดที่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า รองรับ ray tracing และการเรนเดอร์ภาพระดับสูง ส่วน NPU (Neural Processing Unit) ก็แรงไม่แพ้กัน โดยมีพลังประมวลผลถึง 80 TOPS ซึ่งสูงกว่ารุ่นก่อนหน้าถึง 78% และถูกออกแบบมาเพื่อรองรับ Copilot+ และงาน AI แบบเรียลไทม์ Snapdragon X2 Elite Extreme ยังมีการออกแบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU คล้ายกับ Apple M-Series ซึ่งช่วยเพิ่มความเร็วในการประมวลผลและลด latency ในการทำงานร่วมกันของระบบ Qualcomm ระบุว่าอุปกรณ์ที่ใช้ชิปนี้จะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 โดยคาดว่าจะมีทั้งโน้ตบุ๊กระดับโปร, แท็บเล็ต, และ mini PC จากผู้ผลิตชั้นนำ เช่น Microsoft, Samsung, Dell, HP และ Lenovo ✅ ข้อมูลสำคัญจากข่าว ➡️ Snapdragon X2 Elite Extreme เป็นชิป Arm ตัวแรกที่แตะ 5.0GHz บน 2 คอร์ ➡️ มีทั้งหมด 18 คอร์ (12 Prime + 6 Performance) และผลิตด้วยเทคโนโลยี 3nm ➡️ ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 พร้อมแคชรวม 53MB ➡️ GPU Adreno รุ่นใหม่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า ➡️ NPU มีพลังประมวลผล 80 TOPS รองรับงาน AI และ Copilot+ ➡️ รองรับ LPDDR5X สูงสุด 128GB และแบนด์วิดธ์ 228 GB/s ➡️ มีโมเด็ม Snapdragon X75 รองรับ 5G สูงสุด 10Gbps และ Wi-Fi 7 ➡️ ระบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU ช่วยลด latency ➡️ คาดว่าจะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 ทั้งในโน้ตบุ๊กและ mini PC ✅ ข้อมูลเสริมจากภายนอก ➡️ Oryon เป็นสถาปัตยกรรมที่ Qualcomm พัฒนาขึ้นเองหลังจากซื้อกิจการ Nuvia ➡️ Unified memory architecture ช่วยให้การประมวลผลภาพและข้อมูล AI เร็วขึ้น ➡️ NPU ที่มี 80 TOPS ถือเป็นระดับสูงสุดในตลาด PC ณ ปัจจุบัน ➡️ ARM-based PC มีข้อได้เปรียบด้านพลังงานและความบางเบา ➡️ Qualcomm พยายามผลักดัน Windows on ARM ให้เป็นมาตรฐานใหม่สำหรับโน้ตบุ๊ก https://www.tomshardware.com/pc-components/cpus/qualcomms-new-snapdragon-x2-elite-extreme-and-elite-chips-for-pcs-stretch-up-to-a-record-5-ghz-3nm-arm-chips-sport-new-oryon-prime-cores
    0 ความคิดเห็น 0 การแบ่งปัน 225 มุมมอง 0 รีวิว
  • “Linux อาจรองรับ Multi-Kernel ในอนาคต — เปิดทางให้ระบบปฏิบัติการหลายตัวรันพร้อมกันบนเครื่องเดียว”

    ในโลกที่ระบบปฏิบัติการ Linux ถูกใช้ตั้งแต่สมาร์ตโฟนไปจนถึงซูเปอร์คอมพิวเตอร์ โครงสร้างแบบ monolithic kernel ที่ใช้มายาวนานกำลังถูกท้าทายด้วยแนวคิดใหม่จากบริษัท Multikernel Technologies ที่เสนอให้ Linux รองรับ “multi-kernel architecture” หรือการรันเคอร์เนลหลายตัวพร้อมกันบนเครื่องเดียว

    แนวคิดนี้ถูกนำเสนอผ่าน RFC (Request for Comments) บน Linux Kernel Mailing List โดยหวังให้ชุมชนร่วมกันพิจารณาและให้ข้อเสนอแนะ โดยหลักการคือการแบ่ง CPU cores ออกเป็นกลุ่ม ๆ แล้วให้แต่ละกลุ่มรันเคอร์เนลของตัวเองอย่างอิสระ พร้อมจัดการ process และ memory แยกจากกัน แต่ยังสามารถสื่อสารกันผ่านระบบ Inter-Processor Interrupt (IPI) ที่ออกแบบมาเฉพาะ

    ข้อดีของระบบนี้คือการแยกงานออกจากกันอย่างแท้จริง เช่น เคอร์เนลหนึ่งอาจใช้สำหรับงาน real-time อีกตัวสำหรับงานทั่วไป หรือแม้แต่สร้างเคอร์เนลเฉพาะสำหรับงานที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสหรือการควบคุมอุปกรณ์ทางการแพทย์

    Multikernel ยังใช้โครงสร้างพื้นฐานจาก kexec ซึ่งช่วยให้สามารถโหลดเคอร์เนลหลายตัวได้แบบ dynamic โดยไม่ต้องรีบูตเครื่องทั้งหมด และยังมีระบบ Kernel Hand-Over (KHO) ที่อาจเปิดทางให้การอัปเดตเคอร์เนลแบบไร้ downtime ในอนาคต

    แม้ยังอยู่ในขั้นทดลอง และยังต้องปรับปรุงอีกมาก แต่แนวคิดนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีคิดเกี่ยวกับระบบปฏิบัติการ Linux ไปโดยสิ้นเชิง

    ข้อมูลสำคัญจากข่าว
    Multikernel Technologies เสนอแนวคิด multi-kernel ผ่าน RFC บน LKML
    ระบบนี้ให้เคอร์เนลหลายตัวรันพร้อมกันบนเครื่องเดียว โดยแบ่ง CPU cores
    เคอร์เนลแต่ละตัวจัดการ process และ memory ของตัวเอง
    ใช้ระบบ IPI สำหรับการสื่อสารระหว่างเคอร์เนล
    ใช้โครงสร้างจาก kexec เพื่อโหลดเคอร์เนลหลายตัวแบบ dynamic
    มีแนวคิด Kernel Hand-Over สำหรับการอัปเดตแบบไร้ downtime
    เหมาะกับงานที่ต้องการแยก workload เช่น real-time, security-critical, หรือ AI
    ยังอยู่ในขั้น RFC และเปิดรับข้อเสนอแนะจากชุมชน Linux

    ข้อมูลเสริมจากภายนอก
    ระบบ multi-kernel เคยถูกทดลองในงานวิจัย เช่น Barrelfish และ Helios OS
    การแยก workload ที่ระดับเคอร์เนลให้ความปลอดภัยมากกว่าการใช้ container หรือ VM
    kexec เป็นระบบที่ช่วยให้สามารถเปลี่ยนเคอร์เนลโดยไม่ต้องรีบูตเครื่อง
    IPI (Inter-Processor Interrupt) เป็นกลไกที่ใช้ในระบบ SMP สำหรับการสื่อสารระหว่าง CPU
    หากแนวคิดนี้ได้รับการยอมรับ อาจนำไปสู่การสร้าง Linux รุ่นพิเศษสำหรับงานเฉพาะทาง

    https://news.itsfoss.com/linux-multikernel-proposal/
    🧠 “Linux อาจรองรับ Multi-Kernel ในอนาคต — เปิดทางให้ระบบปฏิบัติการหลายตัวรันพร้อมกันบนเครื่องเดียว” ในโลกที่ระบบปฏิบัติการ Linux ถูกใช้ตั้งแต่สมาร์ตโฟนไปจนถึงซูเปอร์คอมพิวเตอร์ โครงสร้างแบบ monolithic kernel ที่ใช้มายาวนานกำลังถูกท้าทายด้วยแนวคิดใหม่จากบริษัท Multikernel Technologies ที่เสนอให้ Linux รองรับ “multi-kernel architecture” หรือการรันเคอร์เนลหลายตัวพร้อมกันบนเครื่องเดียว แนวคิดนี้ถูกนำเสนอผ่าน RFC (Request for Comments) บน Linux Kernel Mailing List โดยหวังให้ชุมชนร่วมกันพิจารณาและให้ข้อเสนอแนะ โดยหลักการคือการแบ่ง CPU cores ออกเป็นกลุ่ม ๆ แล้วให้แต่ละกลุ่มรันเคอร์เนลของตัวเองอย่างอิสระ พร้อมจัดการ process และ memory แยกจากกัน แต่ยังสามารถสื่อสารกันผ่านระบบ Inter-Processor Interrupt (IPI) ที่ออกแบบมาเฉพาะ ข้อดีของระบบนี้คือการแยกงานออกจากกันอย่างแท้จริง เช่น เคอร์เนลหนึ่งอาจใช้สำหรับงาน real-time อีกตัวสำหรับงานทั่วไป หรือแม้แต่สร้างเคอร์เนลเฉพาะสำหรับงานที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสหรือการควบคุมอุปกรณ์ทางการแพทย์ Multikernel ยังใช้โครงสร้างพื้นฐานจาก kexec ซึ่งช่วยให้สามารถโหลดเคอร์เนลหลายตัวได้แบบ dynamic โดยไม่ต้องรีบูตเครื่องทั้งหมด และยังมีระบบ Kernel Hand-Over (KHO) ที่อาจเปิดทางให้การอัปเดตเคอร์เนลแบบไร้ downtime ในอนาคต แม้ยังอยู่ในขั้นทดลอง และยังต้องปรับปรุงอีกมาก แต่แนวคิดนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีคิดเกี่ยวกับระบบปฏิบัติการ Linux ไปโดยสิ้นเชิง ✅ ข้อมูลสำคัญจากข่าว ➡️ Multikernel Technologies เสนอแนวคิด multi-kernel ผ่าน RFC บน LKML ➡️ ระบบนี้ให้เคอร์เนลหลายตัวรันพร้อมกันบนเครื่องเดียว โดยแบ่ง CPU cores ➡️ เคอร์เนลแต่ละตัวจัดการ process และ memory ของตัวเอง ➡️ ใช้ระบบ IPI สำหรับการสื่อสารระหว่างเคอร์เนล ➡️ ใช้โครงสร้างจาก kexec เพื่อโหลดเคอร์เนลหลายตัวแบบ dynamic ➡️ มีแนวคิด Kernel Hand-Over สำหรับการอัปเดตแบบไร้ downtime ➡️ เหมาะกับงานที่ต้องการแยก workload เช่น real-time, security-critical, หรือ AI ➡️ ยังอยู่ในขั้น RFC และเปิดรับข้อเสนอแนะจากชุมชน Linux ✅ ข้อมูลเสริมจากภายนอก ➡️ ระบบ multi-kernel เคยถูกทดลองในงานวิจัย เช่น Barrelfish และ Helios OS ➡️ การแยก workload ที่ระดับเคอร์เนลให้ความปลอดภัยมากกว่าการใช้ container หรือ VM ➡️ kexec เป็นระบบที่ช่วยให้สามารถเปลี่ยนเคอร์เนลโดยไม่ต้องรีบูตเครื่อง ➡️ IPI (Inter-Processor Interrupt) เป็นกลไกที่ใช้ในระบบ SMP สำหรับการสื่อสารระหว่าง CPU ➡️ หากแนวคิดนี้ได้รับการยอมรับ อาจนำไปสู่การสร้าง Linux รุ่นพิเศษสำหรับงานเฉพาะทาง https://news.itsfoss.com/linux-multikernel-proposal/
    NEWS.ITSFOSS.COM
    New Proposal Looks to Make Linux Multi-Kernel Friendly
    If approved, Linux could one day run multiple kernels simultaneously.
    0 ความคิดเห็น 0 การแบ่งปัน 171 มุมมอง 0 รีวิว
  • Comet: เบราว์เซอร์ AI ตัวแรกที่มาพร้อมระบบความปลอดภัยจาก 1Password — เมื่อผู้ช่วยส่วนตัวออนไลน์ต้องปลอดภัยตั้งแต่ต้นทาง

    ในยุคที่เบราว์เซอร์ไม่ใช่แค่เครื่องมือค้นหา แต่กลายเป็นผู้ช่วยส่วนตัวที่ “คิด วิเคราะห์ และตัดสินใจ” ได้เอง Comet จาก Perplexity คือเบราว์เซอร์ AI ตัวใหม่ที่ออกแบบมาเพื่อเปลี่ยนประสบการณ์ออนไลน์ให้ฉลาดขึ้น โดยใช้ AI ในการเข้าใจเจตนาและนำเสนอข้อมูลแบบตรงจุด แต่ความสามารถนี้ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สูงขึ้น

    เพื่อรับมือกับความท้าทายนี้ Perplexity ได้จับมือกับ 1Password ผู้นำด้านการจัดการรหัสผ่าน เพื่อฝังระบบความปลอดภัยระดับสูงเข้าไปใน Comet ตั้งแต่ต้น โดยผู้ใช้สามารถติดตั้งส่วนขยายของ 1Password เพื่อจัดการรหัสผ่าน, passkeys, และข้อมูลล็อกอินต่าง ๆ ได้อย่างปลอดภัยผ่านระบบ end-to-end encryption และ zero-knowledge architecture

    Comet ยังเน้นการเก็บข้อมูลแบบ local storage โดยไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Perplexity ทำให้ผู้ใช้สามารถควบคุมสิ่งที่ AI เข้าถึงได้อย่างชัดเจน และลดความเสี่ยงจากการรั่วไหลของข้อมูลส่วนตัว

    ความร่วมมือครั้งนี้สะท้อนแนวคิดใหม่ของการพัฒนา AI — ไม่ใช่แค่ “ฉลาด” แต่ต้อง “ปลอดภัยโดยออกแบบ” เพื่อให้ผู้ใช้สามารถไว้วางใจและใช้งานได้อย่างมั่นใจในโลกออนไลน์ที่เต็มไปด้วยภัยคุกคาม

    Comet คือเบราว์เซอร์ AI ที่ออกแบบมาเพื่อเป็นผู้ช่วยส่วนตัวออนไลน์
    ใช้ AI วิเคราะห์เจตนาและนำเสนอข้อมูลแบบตรงจุด
    เปลี่ยนเบราว์เซอร์จากเครื่องมือแบบ passive เป็นระบบที่ “คิดและตัดสินใจ” ได้

    ความร่วมมือระหว่าง Perplexity และ 1Password
    ฝังระบบ credential security เข้าไปใน Comet โดยตรง
    ใช้ end-to-end encryption และ zero-knowledge architecture

    ส่วนขยาย 1Password สำหรับ Comet
    รองรับการล็อกอิน, autofill, และจัดการรหัสผ่านแบบปลอดภัย
    ซิงค์ข้อมูลข้ามอุปกรณ์และเบราว์เซอร์ได้
    สร้าง passkeys และรหัสผ่านที่แข็งแรงได้ทันที

    Comet เน้นความเป็นส่วนตัวของผู้ใช้
    เก็บข้อมูลการใช้งานไว้ในเครื่อง ไม่ส่งไปยังเซิร์ฟเวอร์
    ผู้ใช้สามารถควบคุมว่า AI เข้าถึงข้อมูลใด เมื่อใด และทำไม

    แนวคิด “ปลอดภัยโดยออกแบบ” สำหรับ AI
    ไม่ให้ LLM เข้าถึงรหัสผ่านโดยตรง
    ใช้ระบบ authorization ที่มีการกำหนดสิทธิ์แบบ deterministic
    ทุกการเข้าถึงต้องมี audit trail เพื่อความโปร่งใส

    คำเตือนเกี่ยวกับการใช้เบราว์เซอร์ AI
    หากไม่มีระบบความปลอดภัยที่ดี AI อาจเข้าถึงข้อมูลสำคัญโดยไม่ได้ตั้งใจ
    การใช้ LLM โดยไม่มีการควบคุมสิทธิ์ อาจทำให้เกิดการรั่วไหลของ credentials
    ผู้ใช้ต้องเข้าใจว่า AI ไม่ควรได้รับ “raw secrets” ผ่าน prompt หรือ embedding
    หากไม่มี audit trail องค์กรจะไม่สามารถตรวจสอบการเข้าถึงย้อนหลังได้

    https://www.techradar.com/pro/security/1password-and-perplexity-partner-on-comet-ai-browser-a-full-time-personal-assistant-with-security-by-default
    📰 Comet: เบราว์เซอร์ AI ตัวแรกที่มาพร้อมระบบความปลอดภัยจาก 1Password — เมื่อผู้ช่วยส่วนตัวออนไลน์ต้องปลอดภัยตั้งแต่ต้นทาง ในยุคที่เบราว์เซอร์ไม่ใช่แค่เครื่องมือค้นหา แต่กลายเป็นผู้ช่วยส่วนตัวที่ “คิด วิเคราะห์ และตัดสินใจ” ได้เอง Comet จาก Perplexity คือเบราว์เซอร์ AI ตัวใหม่ที่ออกแบบมาเพื่อเปลี่ยนประสบการณ์ออนไลน์ให้ฉลาดขึ้น โดยใช้ AI ในการเข้าใจเจตนาและนำเสนอข้อมูลแบบตรงจุด แต่ความสามารถนี้ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สูงขึ้น เพื่อรับมือกับความท้าทายนี้ Perplexity ได้จับมือกับ 1Password ผู้นำด้านการจัดการรหัสผ่าน เพื่อฝังระบบความปลอดภัยระดับสูงเข้าไปใน Comet ตั้งแต่ต้น โดยผู้ใช้สามารถติดตั้งส่วนขยายของ 1Password เพื่อจัดการรหัสผ่าน, passkeys, และข้อมูลล็อกอินต่าง ๆ ได้อย่างปลอดภัยผ่านระบบ end-to-end encryption และ zero-knowledge architecture Comet ยังเน้นการเก็บข้อมูลแบบ local storage โดยไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Perplexity ทำให้ผู้ใช้สามารถควบคุมสิ่งที่ AI เข้าถึงได้อย่างชัดเจน และลดความเสี่ยงจากการรั่วไหลของข้อมูลส่วนตัว ความร่วมมือครั้งนี้สะท้อนแนวคิดใหม่ของการพัฒนา AI — ไม่ใช่แค่ “ฉลาด” แต่ต้อง “ปลอดภัยโดยออกแบบ” เพื่อให้ผู้ใช้สามารถไว้วางใจและใช้งานได้อย่างมั่นใจในโลกออนไลน์ที่เต็มไปด้วยภัยคุกคาม ✅ Comet คือเบราว์เซอร์ AI ที่ออกแบบมาเพื่อเป็นผู้ช่วยส่วนตัวออนไลน์ ➡️ ใช้ AI วิเคราะห์เจตนาและนำเสนอข้อมูลแบบตรงจุด ➡️ เปลี่ยนเบราว์เซอร์จากเครื่องมือแบบ passive เป็นระบบที่ “คิดและตัดสินใจ” ได้ ✅ ความร่วมมือระหว่าง Perplexity และ 1Password ➡️ ฝังระบบ credential security เข้าไปใน Comet โดยตรง ➡️ ใช้ end-to-end encryption และ zero-knowledge architecture ✅ ส่วนขยาย 1Password สำหรับ Comet ➡️ รองรับการล็อกอิน, autofill, และจัดการรหัสผ่านแบบปลอดภัย ➡️ ซิงค์ข้อมูลข้ามอุปกรณ์และเบราว์เซอร์ได้ ➡️ สร้าง passkeys และรหัสผ่านที่แข็งแรงได้ทันที ✅ Comet เน้นความเป็นส่วนตัวของผู้ใช้ ➡️ เก็บข้อมูลการใช้งานไว้ในเครื่อง ไม่ส่งไปยังเซิร์ฟเวอร์ ➡️ ผู้ใช้สามารถควบคุมว่า AI เข้าถึงข้อมูลใด เมื่อใด และทำไม ✅ แนวคิด “ปลอดภัยโดยออกแบบ” สำหรับ AI ➡️ ไม่ให้ LLM เข้าถึงรหัสผ่านโดยตรง ➡️ ใช้ระบบ authorization ที่มีการกำหนดสิทธิ์แบบ deterministic ➡️ ทุกการเข้าถึงต้องมี audit trail เพื่อความโปร่งใส ‼️ คำเตือนเกี่ยวกับการใช้เบราว์เซอร์ AI ⛔ หากไม่มีระบบความปลอดภัยที่ดี AI อาจเข้าถึงข้อมูลสำคัญโดยไม่ได้ตั้งใจ ⛔ การใช้ LLM โดยไม่มีการควบคุมสิทธิ์ อาจทำให้เกิดการรั่วไหลของ credentials ⛔ ผู้ใช้ต้องเข้าใจว่า AI ไม่ควรได้รับ “raw secrets” ผ่าน prompt หรือ embedding ⛔ หากไม่มี audit trail องค์กรจะไม่สามารถตรวจสอบการเข้าถึงย้อนหลังได้ https://www.techradar.com/pro/security/1password-and-perplexity-partner-on-comet-ai-browser-a-full-time-personal-assistant-with-security-by-default
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า”

    Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด

    Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ

    ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ

    ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360

    แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก

    ข้อมูลสำคัญจากข่าว
    Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake
    ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz)
    ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB
    ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ

    ผลการทดสอบประสิทธิภาพ
    Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%)
    Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400)
    iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี
    ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก

    ข้อมูลเสริมจากภายนอก
    ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel
    ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360
    รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB
    ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    ⚙️ “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า” Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360 แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก ✅ ข้อมูลสำคัญจากข่าว ➡️ Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake ➡️ ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz) ➡️ ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB ➡️ ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ ✅ ผลการทดสอบประสิทธิภาพ ➡️ Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%) ➡️ Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400) ➡️ iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี ➡️ ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก ✅ ข้อมูลเสริมจากภายนอก ➡️ ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel ➡️ ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360 ➡️ รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB ➡️ ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    0 ความคิดเห็น 0 การแบ่งปัน 221 มุมมอง 0 รีวิว
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI

    ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ

    ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น

    นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย

    ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด

    แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว

    การเปิดตัว AORUS RTX 5060 Ti AI BOX
    ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture
    ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE
    เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4

    ความสามารถในการทำงานแบบ docking station
    มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0
    มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain
    รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist

    จุดเด่นด้านการใช้งานและประสิทธิภาพ
    ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4
    เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB
    รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง

    https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    🎙️ เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว ✅ การเปิดตัว AORUS RTX 5060 Ti AI BOX ➡️ ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture ➡️ ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE ➡️ เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4 ✅ ความสามารถในการทำงานแบบ docking station ➡️ มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0 ➡️ มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain ➡️ รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist ✅ จุดเด่นด้านการใช้งานและประสิทธิภาพ ➡️ ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4 ➡️ เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB ➡️ รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    WWW.TECHPOWERUP.COM
    GIGABYTE Introduces AORUS RTX 5060 Ti AI BOX eGPU
    GIGABYTE has unveiled the AORUS RTX 5060 Ti AI BOX eGPU during today's Beyond Edge online event. This external graphics solution features NVIDIA's desktop-grade GeForce RTX 5060 Ti with 16 GB VRAM in a compact 117 x 243 x 45 mm form factor. Unlike most existing eGPUs that rely on mobile AMD Radeon R...
    0 ความคิดเห็น 0 การแบ่งปัน 191 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel

    Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm

    การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล

    Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU

    การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024

    การลาออกของ Ronak Singhal
    ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน
    เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี
    เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration

    การปรับโครงสร้างองค์กรของ Intel
    CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก
    แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG
    ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti

    การเปลี่ยนแปลงในทีม Data Center
    Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm
    Justin Hotard ลาออกไปเป็น CEO ของ Nokia
    Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off

    บทบาทของ Singhal ที่มีผลต่อ Intel
    ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร
    มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture
    เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI

    https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    🎙️ เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024 ✅ การลาออกของ Ronak Singhal ➡️ ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน ➡️ เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี ➡️ เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration ✅ การปรับโครงสร้างองค์กรของ Intel ➡️ CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก ➡️ แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG ➡️ ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti ✅ การเปลี่ยนแปลงในทีม Data Center ➡️ Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm ➡️ Justin Hotard ลาออกไปเป็น CEO ของ Nokia ➡️ Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off ✅ บทบาทของ Singhal ที่มีผลต่อ Intel ➡️ ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร ➡️ มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture ➡️ เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    0 ความคิดเห็น 0 การแบ่งปัน 240 มุมมอง 0 รีวิว
  • “เมื่อ AI กลายเป็นผู้ช่วยของแฮกเกอร์ — 80% ของแรนซัมแวร์ในปี 2025 ใช้ AI สร้างมัลแวร์ ปลอมเสียง และเจาะระบบแบบไร้รอย”

    ภัยไซเบอร์ในปี 2025 ไม่ได้มาในรูปแบบเดิมอีกต่อไป เพราะตอนนี้แฮกเกอร์ใช้ AI เป็นเครื่องมือหลักในการสร้างแรนซัมแวร์ที่ทั้งฉลาดและอันตรายกว่าเดิม จากการศึกษาของ MIT Sloan และ Safe Security พบว่า 80% ของการโจมตีด้วยแรนซัมแวร์ในช่วงปีที่ผ่านมา มีการใช้ AI เข้ามาเกี่ยวข้อง ไม่ว่าจะเป็นการสร้างมัลแวร์อัตโนมัติ, ปลอมเสียงด้วย deepfake, หรือแม้แต่การเจาะระบบผ่าน CAPTCHA และรหัสผ่านด้วย LLM

    AI ไม่ได้แค่ช่วยให้แฮกเกอร์ทำงานเร็วขึ้น แต่ยังทำให้การโจมตีมีความแม่นยำและยากต่อการตรวจจับมากขึ้น เช่น การปลอมตัวเป็นฝ่ายบริการลูกค้าด้วยเสียงที่เหมือนจริง หรือการสร้างอีเมลฟิชชิ่งที่ดูน่าเชื่อถือจนแม้แต่ผู้เชี่ยวชาญยังหลงกล

    Michael Siegel นักวิจัยจาก CAMS เตือนว่า “ผู้โจมตีต้องการแค่ช่องโหว่เดียว แต่ผู้ป้องกันต้องปิดทุกช่องทาง” ซึ่งกลายเป็นความท้าทายที่รุนแรงขึ้นเมื่อ AI ทำให้การโจมตีขยายตัวได้ในระดับที่มนุษย์ตามไม่ทัน

    เพื่อรับมือกับภัยคุกคามนี้ นักวิจัยเสนอแนวทางป้องกันแบบ 3 เสาหลัก ได้แก่

    1️⃣ ระบบ hygiene อัตโนมัติ เช่น โค้ดที่ซ่อมตัวเอง, ระบบ patch อัตโนมัติ และการตรวจสอบพื้นผิวการโจมตีแบบต่อเนื่อง

    2️⃣ ระบบป้องกันแบบหลอกล่อและอัตโนมัติ เช่น การเปลี่ยนเป้าหมายตลอดเวลา และการใช้ข้อมูลปลอมเพื่อหลอกแฮกเกอร์

    3️⃣ การรายงานและ oversight แบบ real-time เพื่อให้ผู้บริหารเห็นภาพรวมของภัยคุกคามและตัดสินใจได้ทันเวลา

    สถานการณ์ภัยไซเบอร์ในปี 2025
    80% ของแรนซัมแวร์ใช้ AI ในการสร้างมัลแวร์ ฟิชชิ่ง และ deepfake
    ใช้ LLM ในการเจาะรหัสผ่าน, bypass CAPTCHA และเขียนโค้ดอัตโนมัติ
    ปลอมเสียงเป็นฝ่ายบริการลูกค้าเพื่อหลอกเหยื่อผ่านโทรศัพท์
    AI ทำให้การโจมตีขยายตัวเร็วและแม่นยำกว่าที่เคย

    แนวทางป้องกันที่แนะนำ
    เสาหลักที่ 1: ระบบ hygiene อัตโนมัติ เช่น self-healing code และ zero-trust architecture
    เสาหลักที่ 2: ระบบป้องกันแบบหลอกล่อ เช่น moving-target defense และข้อมูลปลอม
    เสาหลักที่ 3: การ oversight แบบ real-time เพื่อให้ผู้บริหารตัดสินใจได้ทัน
    ต้องใช้หลายชั้นร่วมกัน ไม่ใช่แค่เครื่องมือ AI ฝั่งป้องกันอย่างเดียว

    ข้อมูลเสริมจากภายนอก
    Deepfake phishing หรือ “vishing” เพิ่มขึ้น 1,633% ใน Q1 ปี 2025
    การโจมตีแบบ adversary-in-the-middle เพิ่มขึ้น — ขโมย session cookie เพื่อข้าม 2FA
    การโจมตีระบบ OT (Operational Technology) เช่นโรงงานและโครงสร้างพื้นฐานเพิ่มขึ้น
    จำนวนการโจมตี ransomware เพิ่มขึ้น 132% แม้ยอดจ่ายค่าไถ่จะลดลง

    https://www.techradar.com/pro/security/only-20-of-ransomware-is-not-powered-by-ai-but-expect-that-number-to-drop-even-further-in-2025
    🧨 “เมื่อ AI กลายเป็นผู้ช่วยของแฮกเกอร์ — 80% ของแรนซัมแวร์ในปี 2025 ใช้ AI สร้างมัลแวร์ ปลอมเสียง และเจาะระบบแบบไร้รอย” ภัยไซเบอร์ในปี 2025 ไม่ได้มาในรูปแบบเดิมอีกต่อไป เพราะตอนนี้แฮกเกอร์ใช้ AI เป็นเครื่องมือหลักในการสร้างแรนซัมแวร์ที่ทั้งฉลาดและอันตรายกว่าเดิม จากการศึกษาของ MIT Sloan และ Safe Security พบว่า 80% ของการโจมตีด้วยแรนซัมแวร์ในช่วงปีที่ผ่านมา มีการใช้ AI เข้ามาเกี่ยวข้อง ไม่ว่าจะเป็นการสร้างมัลแวร์อัตโนมัติ, ปลอมเสียงด้วย deepfake, หรือแม้แต่การเจาะระบบผ่าน CAPTCHA และรหัสผ่านด้วย LLM AI ไม่ได้แค่ช่วยให้แฮกเกอร์ทำงานเร็วขึ้น แต่ยังทำให้การโจมตีมีความแม่นยำและยากต่อการตรวจจับมากขึ้น เช่น การปลอมตัวเป็นฝ่ายบริการลูกค้าด้วยเสียงที่เหมือนจริง หรือการสร้างอีเมลฟิชชิ่งที่ดูน่าเชื่อถือจนแม้แต่ผู้เชี่ยวชาญยังหลงกล Michael Siegel นักวิจัยจาก CAMS เตือนว่า “ผู้โจมตีต้องการแค่ช่องโหว่เดียว แต่ผู้ป้องกันต้องปิดทุกช่องทาง” ซึ่งกลายเป็นความท้าทายที่รุนแรงขึ้นเมื่อ AI ทำให้การโจมตีขยายตัวได้ในระดับที่มนุษย์ตามไม่ทัน เพื่อรับมือกับภัยคุกคามนี้ นักวิจัยเสนอแนวทางป้องกันแบบ 3 เสาหลัก ได้แก่ 1️⃣ ระบบ hygiene อัตโนมัติ เช่น โค้ดที่ซ่อมตัวเอง, ระบบ patch อัตโนมัติ และการตรวจสอบพื้นผิวการโจมตีแบบต่อเนื่อง 2️⃣ ระบบป้องกันแบบหลอกล่อและอัตโนมัติ เช่น การเปลี่ยนเป้าหมายตลอดเวลา และการใช้ข้อมูลปลอมเพื่อหลอกแฮกเกอร์ 3️⃣ การรายงานและ oversight แบบ real-time เพื่อให้ผู้บริหารเห็นภาพรวมของภัยคุกคามและตัดสินใจได้ทันเวลา ✅ สถานการณ์ภัยไซเบอร์ในปี 2025 ➡️ 80% ของแรนซัมแวร์ใช้ AI ในการสร้างมัลแวร์ ฟิชชิ่ง และ deepfake ➡️ ใช้ LLM ในการเจาะรหัสผ่าน, bypass CAPTCHA และเขียนโค้ดอัตโนมัติ ➡️ ปลอมเสียงเป็นฝ่ายบริการลูกค้าเพื่อหลอกเหยื่อผ่านโทรศัพท์ ➡️ AI ทำให้การโจมตีขยายตัวเร็วและแม่นยำกว่าที่เคย ✅ แนวทางป้องกันที่แนะนำ ➡️ เสาหลักที่ 1: ระบบ hygiene อัตโนมัติ เช่น self-healing code และ zero-trust architecture ➡️ เสาหลักที่ 2: ระบบป้องกันแบบหลอกล่อ เช่น moving-target defense และข้อมูลปลอม ➡️ เสาหลักที่ 3: การ oversight แบบ real-time เพื่อให้ผู้บริหารตัดสินใจได้ทัน ➡️ ต้องใช้หลายชั้นร่วมกัน ไม่ใช่แค่เครื่องมือ AI ฝั่งป้องกันอย่างเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ Deepfake phishing หรือ “vishing” เพิ่มขึ้น 1,633% ใน Q1 ปี 2025 ➡️ การโจมตีแบบ adversary-in-the-middle เพิ่มขึ้น — ขโมย session cookie เพื่อข้าม 2FA ➡️ การโจมตีระบบ OT (Operational Technology) เช่นโรงงานและโครงสร้างพื้นฐานเพิ่มขึ้น ➡️ จำนวนการโจมตี ransomware เพิ่มขึ้น 132% แม้ยอดจ่ายค่าไถ่จะลดลง https://www.techradar.com/pro/security/only-20-of-ransomware-is-not-powered-by-ai-but-expect-that-number-to-drop-even-further-in-2025
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 ความคิดเห็น 0 การแบ่งปัน 257 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Navi 44 ถึง XL: เมื่อชื่อที่ไม่ควรมีอยู่ กลับกลายเป็นจุดเริ่มต้นของการคาดเดา

    ในเอกสาร ROCm 6.4.2 ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการประมวลผล GPU ของ AMD มีการระบุชื่อ Radeon RX 9060 XL ว่าเป็นหนึ่งในรุ่นที่รองรับ แม้ว่า AMD จะยังไม่เคยประกาศ GPU รุ่นนี้อย่างเป็นทางการ และไม่มีข้อมูลใด ๆ ปรากฏในเว็บไซต์หรือข่าวเปิดตัว

    สิ่งที่ทำให้เรื่องนี้น่าสนใจคือ ROCm ระบุชื่อรุ่น RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT และ RX 9060 XL แต่กลับไม่มี RX 9060 รุ่นธรรมดา ซึ่งทำให้หลายคนสงสัยว่า “XL” อาจเป็นชื่อที่ใช้แทน RX 9060 ธรรมดา หรือเป็นการพิมพ์ผิดที่เกิดจากการสับสนระหว่างชื่อรุ่นกับชื่อชิป

    AMD เคยใช้คำว่า “XL” ในอดีต เช่น Radeon X1800XL หรือในชิป OEM-only แต่ได้เลิกใช้คำนี้ในชื่อผลิตภัณฑ์ตั้งแต่ยุค HD 3000 เป็นต้นมา อย่างไรก็ตาม ชิป Navi 31 XL ก็ยังใช้คำนี้เพื่อระบุรุ่นที่ถูกลดสเปก ซึ่งทำให้เกิดความเป็นไปได้ว่า RX 9060 XL อาจหมายถึงรุ่นที่ใช้ชิป Navi 44 XL

    นอกจากนี้ ยังมีข้อผิดพลาดในเอกสาร ROCm ที่ระบุว่า GPU ตระกูล RX 9000 ใช้สถาปัตยกรรม RDNA 3 ทั้งที่จริงแล้วเป็น RDNA 4 ซึ่งมีการเปลี่ยนแปลงสำคัญ เช่น matrix accelerator ที่รองรับ FP8, ระบบ cache ใหม่, และ ray tracing engine ที่ปรับปรุงใหม่ทั้งหมด

    แม้จะมีความเป็นไปได้ว่า RX 9060 XL คือชื่อจริงของ GPU ที่ยังไม่เปิดตัว แต่หลายฝ่าย—including VideoCardz และ Wccftech—มองว่าอาจเป็นแค่การพิมพ์ผิดจาก RX 9060 ธรรมดา ซึ่งใช้ชิป Navi 44 แบบลดสเปก และไม่มีความจำเป็นที่ AMD จะเปิดตัว SKU ใหม่ในช่วงที่ยอดขาย GPU ยังไม่สูงมาก

    การปรากฏของชื่อ Radeon RX 9060 XL
    พบในเอกสาร ROCm 6.4.2 ของ AMD
    ไม่มีการประกาศหรือเปิดตัวอย่างเป็นทางการ
    อาจเป็นการพิมพ์ผิดจาก RX 9060 ธรรมดา

    ความเป็นไปได้ของชื่อ “XL”
    เคยใช้ในอดีตกับรุ่น OEM หรือรุ่นลดสเปก
    ปัจจุบันยังใช้ในชื่อชิป เช่น Navi 31 XL
    RX 9060 XL อาจหมายถึงรุ่นที่ใช้ Navi 44 XL

    ข้อผิดพลาดในเอกสาร ROCm
    ระบุว่า RX 9000 ใช้ RDNA 3 ทั้งที่จริงเป็น RDNA 4
    RDNA 4 มีฟีเจอร์ใหม่ เช่น matrix accelerator FP8 และ ray tracing engine ใหม่
    เป็นการเปลี่ยนแปลงระดับ instruction set architecture

    สถานการณ์ตลาด GPU ของ AMD
    AMD ขาย GPU desktop ได้ประมาณ 700,000–750,000 ตัวในครึ่งปีแรก
    อาจไม่มีซิลิคอนเหลือพอสำหรับการผลิตรุ่นลดสเปกเพิ่ม
    ไม่มีข่าวว่าจะเปิดตัว RX 9000 รุ่นใหม่ในเร็ว ๆ นี้

    https://www.tomshardware.com/pc-components/gpus/amd-lists-mystery-radeon-9060-xl-model-in-rocm-documents-but-it-is-more-likely-to-be-a-typo-than-a-new-sku
    🎙️ เรื่องเล่าจาก Navi 44 ถึง XL: เมื่อชื่อที่ไม่ควรมีอยู่ กลับกลายเป็นจุดเริ่มต้นของการคาดเดา ในเอกสาร ROCm 6.4.2 ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการประมวลผล GPU ของ AMD มีการระบุชื่อ Radeon RX 9060 XL ว่าเป็นหนึ่งในรุ่นที่รองรับ แม้ว่า AMD จะยังไม่เคยประกาศ GPU รุ่นนี้อย่างเป็นทางการ และไม่มีข้อมูลใด ๆ ปรากฏในเว็บไซต์หรือข่าวเปิดตัว สิ่งที่ทำให้เรื่องนี้น่าสนใจคือ ROCm ระบุชื่อรุ่น RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT และ RX 9060 XL แต่กลับไม่มี RX 9060 รุ่นธรรมดา ซึ่งทำให้หลายคนสงสัยว่า “XL” อาจเป็นชื่อที่ใช้แทน RX 9060 ธรรมดา หรือเป็นการพิมพ์ผิดที่เกิดจากการสับสนระหว่างชื่อรุ่นกับชื่อชิป AMD เคยใช้คำว่า “XL” ในอดีต เช่น Radeon X1800XL หรือในชิป OEM-only แต่ได้เลิกใช้คำนี้ในชื่อผลิตภัณฑ์ตั้งแต่ยุค HD 3000 เป็นต้นมา อย่างไรก็ตาม ชิป Navi 31 XL ก็ยังใช้คำนี้เพื่อระบุรุ่นที่ถูกลดสเปก ซึ่งทำให้เกิดความเป็นไปได้ว่า RX 9060 XL อาจหมายถึงรุ่นที่ใช้ชิป Navi 44 XL นอกจากนี้ ยังมีข้อผิดพลาดในเอกสาร ROCm ที่ระบุว่า GPU ตระกูล RX 9000 ใช้สถาปัตยกรรม RDNA 3 ทั้งที่จริงแล้วเป็น RDNA 4 ซึ่งมีการเปลี่ยนแปลงสำคัญ เช่น matrix accelerator ที่รองรับ FP8, ระบบ cache ใหม่, และ ray tracing engine ที่ปรับปรุงใหม่ทั้งหมด แม้จะมีความเป็นไปได้ว่า RX 9060 XL คือชื่อจริงของ GPU ที่ยังไม่เปิดตัว แต่หลายฝ่าย—including VideoCardz และ Wccftech—มองว่าอาจเป็นแค่การพิมพ์ผิดจาก RX 9060 ธรรมดา ซึ่งใช้ชิป Navi 44 แบบลดสเปก และไม่มีความจำเป็นที่ AMD จะเปิดตัว SKU ใหม่ในช่วงที่ยอดขาย GPU ยังไม่สูงมาก ✅ การปรากฏของชื่อ Radeon RX 9060 XL ➡️ พบในเอกสาร ROCm 6.4.2 ของ AMD ➡️ ไม่มีการประกาศหรือเปิดตัวอย่างเป็นทางการ ➡️ อาจเป็นการพิมพ์ผิดจาก RX 9060 ธรรมดา ✅ ความเป็นไปได้ของชื่อ “XL” ➡️ เคยใช้ในอดีตกับรุ่น OEM หรือรุ่นลดสเปก ➡️ ปัจจุบันยังใช้ในชื่อชิป เช่น Navi 31 XL ➡️ RX 9060 XL อาจหมายถึงรุ่นที่ใช้ Navi 44 XL ✅ ข้อผิดพลาดในเอกสาร ROCm ➡️ ระบุว่า RX 9000 ใช้ RDNA 3 ทั้งที่จริงเป็น RDNA 4 ➡️ RDNA 4 มีฟีเจอร์ใหม่ เช่น matrix accelerator FP8 และ ray tracing engine ใหม่ ➡️ เป็นการเปลี่ยนแปลงระดับ instruction set architecture ✅ สถานการณ์ตลาด GPU ของ AMD ➡️ AMD ขาย GPU desktop ได้ประมาณ 700,000–750,000 ตัวในครึ่งปีแรก ➡️ อาจไม่มีซิลิคอนเหลือพอสำหรับการผลิตรุ่นลดสเปกเพิ่ม ➡️ ไม่มีข่าวว่าจะเปิดตัว RX 9000 รุ่นใหม่ในเร็ว ๆ นี้ https://www.tomshardware.com/pc-components/gpus/amd-lists-mystery-radeon-9060-xl-model-in-rocm-documents-but-it-is-more-likely-to-be-a-typo-than-a-new-sku
    WWW.TOMSHARDWARE.COM
    AMD lists mystery Radeon 9060 XL model in ROCm documents, but it is more likely to be a typo than a new SKU
    This non-existent Radeon RX 9060 XL GPU is listed in AMD's ROCm 6.4.2 software stack.
    0 ความคิดเห็น 0 การแบ่งปัน 228 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง

    จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI

    แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ

    Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก

    ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก

    ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่”

    การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส
    32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy
    ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง
    ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ

    พฤติกรรมของนักพัฒนารุ่นใหม่
    มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน
    มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า
    มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ

    ความรู้สึกและแรงจูงใจ
    นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก
    นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ
    ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น

    ความตระหนักด้านสิ่งแวดล้อม
    80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด
    นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้
    เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่

    https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    🎙️ เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่” ✅ การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส ➡️ 32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy ➡️ ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง ➡️ ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ ✅ พฤติกรรมของนักพัฒนารุ่นใหม่ ➡️ มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน ➡️ มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า ➡️ มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ ✅ ความรู้สึกและแรงจูงใจ ➡️ นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก ➡️ นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ ➡️ ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น ✅ ความตระหนักด้านสิ่งแวดล้อม ➡️ 80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ➡️ นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ ➡️ เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่ https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    0 ความคิดเห็น 0 การแบ่งปัน 260 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 ความคิดเห็น 0 การแบ่งปัน 326 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Sanity: เมื่อ AI กลายเป็นทีมงานที่ลืมทุกอย่างทุกเช้า แต่ยังช่วยให้เราส่งงานได้เร็วขึ้น 2–3 เท่า

    Vincent Quigley วิศวกรอาวุโสจาก Sanity ได้แชร์ประสบการณ์ 6 สัปดาห์ในการใช้ Claude Code ผ่าน Agent Client Protocol (ACP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้ AI agent ทำงานร่วมกับ editor ได้อย่างลื่นไหล โดยเฉพาะใน Zed editor ที่รองรับ Claude แบบ native แล้ว

    เขาเปรียบ Claude Code ว่าเป็น “นักพัฒนาฝึกหัดที่ลืมทุกอย่างทุกเช้า” และนั่นคือเหตุผลที่ workflow ของเขาเปลี่ยนไปอย่างสิ้นเชิง: ไม่ใช่การรอให้ AI สร้างโค้ดที่สมบูรณ์ในครั้งเดียว แต่คือการทำงานร่วมกันแบบ iterative ที่เริ่มจาก “95% ขยะ” แล้วค่อย ๆ refine จนกลายเป็นโค้ดที่ใช้ได้จริง

    Vincent ใช้ Claude.md เป็นไฟล์บริบทที่รวม architecture, pattern, gotchas และลิงก์เอกสาร เพื่อให้ Claude เริ่มต้นจาก attempt ที่สองแทนที่จะต้องอธิบายใหม่ทุกครั้ง และยังเชื่อม Claude เข้ากับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only เพื่อให้ AI เข้าใจระบบได้ลึกขึ้น

    เขายังใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา และใช้ multibuffer ใน Zed เพื่อ review โค้ดแบบ granular—เลือกได้ว่าจะรับหรือปฏิเสธแต่ละ hunk พร้อม task list ที่แสดงใน sidebar แบบ real-time

    แม้ Claude จะช่วย review โค้ดได้ดี แต่ Vincent ย้ำว่า “วิศวกรต้องรับผิดชอบโค้ดที่ตัวเองส่ง” ไม่ว่าจะเขียนเองหรือ AI เขียนให้ และการไม่มี emotional attachment กับโค้ดที่ไม่ได้พิมพ์เอง กลับทำให้ review ได้ตรงจุดและกล้าลบสิ่งที่ไม่ดีมากขึ้น

    วิธีทำงานร่วมกับ Claude Code
    ใช้ Claude.md เพื่อสร้างบริบทให้ AI เข้าใจระบบ
    เชื่อม Claude กับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only
    ใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา

    การทำงานใน Zed ผ่าน ACP
    Claude Code ทำงานแบบ native ผ่าน Agent Client Protocol (ACP)
    รองรับ multibuffer review, syntax highlight, และ task list ใน sidebar
    สามารถใช้ slash command เพื่อสร้าง workflow แบบกำหนดเอง

    กระบวนการ iterative ที่ใช้ Claude
    Attempt แรก: 95% ขยะ แต่ช่วยให้เข้าใจระบบ
    Attempt สอง: เริ่มมีโครงสร้างที่ใช้ได้
    Attempt สาม: ได้โค้ดที่สามารถนำไป iterate ต่อได้จริง

    การ review โค้ดที่ AI สร้าง
    Claude ช่วยตรวจ test coverage, bug และเสนอ improvement
    วิศวกรต้อง review และรับผิดชอบโค้ดที่ส่ง
    ไม่มี emotional attachment ทำให้ review ได้ตรงจุดและกล้าลบมากขึ้น

    ผลลัพธ์และต้นทุน
    ส่งงานได้เร็วขึ้น 2–3 เท่า
    ลดเวลาทำ boilerplate และงานซ้ำ
    ค่าใช้จ่ายประมาณ $1000–1500 ต่อเดือนต่อวิศวกรที่ใช้ AI เต็มรูปแบบ

    https://www.sanity.io/blog/first-attempt-will-be-95-garbage
    🎙️ เรื่องเล่าจาก Sanity: เมื่อ AI กลายเป็นทีมงานที่ลืมทุกอย่างทุกเช้า แต่ยังช่วยให้เราส่งงานได้เร็วขึ้น 2–3 เท่า Vincent Quigley วิศวกรอาวุโสจาก Sanity ได้แชร์ประสบการณ์ 6 สัปดาห์ในการใช้ Claude Code ผ่าน Agent Client Protocol (ACP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้ AI agent ทำงานร่วมกับ editor ได้อย่างลื่นไหล โดยเฉพาะใน Zed editor ที่รองรับ Claude แบบ native แล้ว เขาเปรียบ Claude Code ว่าเป็น “นักพัฒนาฝึกหัดที่ลืมทุกอย่างทุกเช้า” และนั่นคือเหตุผลที่ workflow ของเขาเปลี่ยนไปอย่างสิ้นเชิง: ไม่ใช่การรอให้ AI สร้างโค้ดที่สมบูรณ์ในครั้งเดียว แต่คือการทำงานร่วมกันแบบ iterative ที่เริ่มจาก “95% ขยะ” แล้วค่อย ๆ refine จนกลายเป็นโค้ดที่ใช้ได้จริง Vincent ใช้ Claude.md เป็นไฟล์บริบทที่รวม architecture, pattern, gotchas และลิงก์เอกสาร เพื่อให้ Claude เริ่มต้นจาก attempt ที่สองแทนที่จะต้องอธิบายใหม่ทุกครั้ง และยังเชื่อม Claude เข้ากับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only เพื่อให้ AI เข้าใจระบบได้ลึกขึ้น เขายังใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา และใช้ multibuffer ใน Zed เพื่อ review โค้ดแบบ granular—เลือกได้ว่าจะรับหรือปฏิเสธแต่ละ hunk พร้อม task list ที่แสดงใน sidebar แบบ real-time แม้ Claude จะช่วย review โค้ดได้ดี แต่ Vincent ย้ำว่า “วิศวกรต้องรับผิดชอบโค้ดที่ตัวเองส่ง” ไม่ว่าจะเขียนเองหรือ AI เขียนให้ และการไม่มี emotional attachment กับโค้ดที่ไม่ได้พิมพ์เอง กลับทำให้ review ได้ตรงจุดและกล้าลบสิ่งที่ไม่ดีมากขึ้น ✅ วิธีทำงานร่วมกับ Claude Code ➡️ ใช้ Claude.md เพื่อสร้างบริบทให้ AI เข้าใจระบบ ➡️ เชื่อม Claude กับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only ➡️ ใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา ✅ การทำงานใน Zed ผ่าน ACP ➡️ Claude Code ทำงานแบบ native ผ่าน Agent Client Protocol (ACP) ➡️ รองรับ multibuffer review, syntax highlight, และ task list ใน sidebar ➡️ สามารถใช้ slash command เพื่อสร้าง workflow แบบกำหนดเอง ✅ กระบวนการ iterative ที่ใช้ Claude ➡️ Attempt แรก: 95% ขยะ แต่ช่วยให้เข้าใจระบบ ➡️ Attempt สอง: เริ่มมีโครงสร้างที่ใช้ได้ ➡️ Attempt สาม: ได้โค้ดที่สามารถนำไป iterate ต่อได้จริง ✅ การ review โค้ดที่ AI สร้าง ➡️ Claude ช่วยตรวจ test coverage, bug และเสนอ improvement ➡️ วิศวกรต้อง review และรับผิดชอบโค้ดที่ส่ง ➡️ ไม่มี emotional attachment ทำให้ review ได้ตรงจุดและกล้าลบมากขึ้น ✅ ผลลัพธ์และต้นทุน ➡️ ส่งงานได้เร็วขึ้น 2–3 เท่า ➡️ ลดเวลาทำ boilerplate และงานซ้ำ ➡️ ค่าใช้จ่ายประมาณ $1000–1500 ต่อเดือนต่อวิศวกรที่ใช้ AI เต็มรูปแบบ https://www.sanity.io/blog/first-attempt-will-be-95-garbage
    WWW.SANITY.IO
    First attempt will be 95% garbage: A staff engineer's 6-week journey with Claude Code | Sanity
    This started as an internal Sanity workshop where I demoed how I actually use AI. Spoiler: it's running multiple agents like a small team with daily amnesia.
    0 ความคิดเห็น 0 การแบ่งปัน 275 มุมมอง 0 รีวิว
Pages Boosts