• “Snapdragon X2 Elite Extreme: ชิป Arm 3nm ตัวแรกแตะ 5GHz — Qualcomm เปิดเกมรุกตลาด PC ด้วยพลัง AI และประสิทธิภาพล้นขอบ”

    ที่งาน Snapdragon Summit 2025 ณ ฮาวาย Qualcomm เปิดตัวชิปตระกูลใหม่สำหรับ PC คือ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นรุ่นต่อยอดจาก X Elite รุ่นแรกที่เปิดตัวเมื่อปี 2023 โดยครั้งนี้ Qualcomm ตั้งใจยกระดับชิป Arm สำหรับ Windows PC ให้เทียบชั้นกับ x86 จาก Intel และ AMD

    Snapdragon X2 Elite Extreme เป็นชิประดับสูงสุดในซีรีส์นี้ โดยมี 18 คอร์ แบ่งเป็น 12 คอร์ “Prime” ที่สามารถเร่งความเร็วได้ถึง 5.0GHz (บน 2 คอร์) และอีก 6 คอร์ “Performance” ที่ทำงานที่ 3.6GHz ถือเป็นชิป Arm ตัวแรกที่แตะความเร็วระดับนี้บน PC

    ชิปทั้งหมดผลิตด้วยเทคโนโลยี 3nm และใช้สถาปัตยกรรม Oryon รุ่นที่ 3 ซึ่ง Qualcomm เคลมว่ามีประสิทธิภาพสูงกว่าคู่แข่งถึง 75% ที่พลังงานเท่ากัน และประหยัดพลังงานกว่าเดิมถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า

    ด้านกราฟิก ชิปใหม่มาพร้อม Adreno GPU รุ่นล่าสุดที่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า รองรับ ray tracing และการเรนเดอร์ภาพระดับสูง ส่วน NPU (Neural Processing Unit) ก็แรงไม่แพ้กัน โดยมีพลังประมวลผลถึง 80 TOPS ซึ่งสูงกว่ารุ่นก่อนหน้าถึง 78% และถูกออกแบบมาเพื่อรองรับ Copilot+ และงาน AI แบบเรียลไทม์

    Snapdragon X2 Elite Extreme ยังมีการออกแบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU คล้ายกับ Apple M-Series ซึ่งช่วยเพิ่มความเร็วในการประมวลผลและลด latency ในการทำงานร่วมกันของระบบ

    Qualcomm ระบุว่าอุปกรณ์ที่ใช้ชิปนี้จะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 โดยคาดว่าจะมีทั้งโน้ตบุ๊กระดับโปร, แท็บเล็ต, และ mini PC จากผู้ผลิตชั้นนำ เช่น Microsoft, Samsung, Dell, HP และ Lenovo

    ข้อมูลสำคัญจากข่าว
    Snapdragon X2 Elite Extreme เป็นชิป Arm ตัวแรกที่แตะ 5.0GHz บน 2 คอร์
    มีทั้งหมด 18 คอร์ (12 Prime + 6 Performance) และผลิตด้วยเทคโนโลยี 3nm
    ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 พร้อมแคชรวม 53MB
    GPU Adreno รุ่นใหม่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า
    NPU มีพลังประมวลผล 80 TOPS รองรับงาน AI และ Copilot+
    รองรับ LPDDR5X สูงสุด 128GB และแบนด์วิดธ์ 228 GB/s
    มีโมเด็ม Snapdragon X75 รองรับ 5G สูงสุด 10Gbps และ Wi-Fi 7
    ระบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU ช่วยลด latency
    คาดว่าจะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 ทั้งในโน้ตบุ๊กและ mini PC

    ข้อมูลเสริมจากภายนอก
    Oryon เป็นสถาปัตยกรรมที่ Qualcomm พัฒนาขึ้นเองหลังจากซื้อกิจการ Nuvia
    Unified memory architecture ช่วยให้การประมวลผลภาพและข้อมูล AI เร็วขึ้น
    NPU ที่มี 80 TOPS ถือเป็นระดับสูงสุดในตลาด PC ณ ปัจจุบัน
    ARM-based PC มีข้อได้เปรียบด้านพลังงานและความบางเบา
    Qualcomm พยายามผลักดัน Windows on ARM ให้เป็นมาตรฐานใหม่สำหรับโน้ตบุ๊ก

    https://www.tomshardware.com/pc-components/cpus/qualcomms-new-snapdragon-x2-elite-extreme-and-elite-chips-for-pcs-stretch-up-to-a-record-5-ghz-3nm-arm-chips-sport-new-oryon-prime-cores
    ⚡ “Snapdragon X2 Elite Extreme: ชิป Arm 3nm ตัวแรกแตะ 5GHz — Qualcomm เปิดเกมรุกตลาด PC ด้วยพลัง AI และประสิทธิภาพล้นขอบ” ที่งาน Snapdragon Summit 2025 ณ ฮาวาย Qualcomm เปิดตัวชิปตระกูลใหม่สำหรับ PC คือ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นรุ่นต่อยอดจาก X Elite รุ่นแรกที่เปิดตัวเมื่อปี 2023 โดยครั้งนี้ Qualcomm ตั้งใจยกระดับชิป Arm สำหรับ Windows PC ให้เทียบชั้นกับ x86 จาก Intel และ AMD Snapdragon X2 Elite Extreme เป็นชิประดับสูงสุดในซีรีส์นี้ โดยมี 18 คอร์ แบ่งเป็น 12 คอร์ “Prime” ที่สามารถเร่งความเร็วได้ถึง 5.0GHz (บน 2 คอร์) และอีก 6 คอร์ “Performance” ที่ทำงานที่ 3.6GHz ถือเป็นชิป Arm ตัวแรกที่แตะความเร็วระดับนี้บน PC ชิปทั้งหมดผลิตด้วยเทคโนโลยี 3nm และใช้สถาปัตยกรรม Oryon รุ่นที่ 3 ซึ่ง Qualcomm เคลมว่ามีประสิทธิภาพสูงกว่าคู่แข่งถึง 75% ที่พลังงานเท่ากัน และประหยัดพลังงานกว่าเดิมถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า ด้านกราฟิก ชิปใหม่มาพร้อม Adreno GPU รุ่นล่าสุดที่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า รองรับ ray tracing และการเรนเดอร์ภาพระดับสูง ส่วน NPU (Neural Processing Unit) ก็แรงไม่แพ้กัน โดยมีพลังประมวลผลถึง 80 TOPS ซึ่งสูงกว่ารุ่นก่อนหน้าถึง 78% และถูกออกแบบมาเพื่อรองรับ Copilot+ และงาน AI แบบเรียลไทม์ Snapdragon X2 Elite Extreme ยังมีการออกแบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU คล้ายกับ Apple M-Series ซึ่งช่วยเพิ่มความเร็วในการประมวลผลและลด latency ในการทำงานร่วมกันของระบบ Qualcomm ระบุว่าอุปกรณ์ที่ใช้ชิปนี้จะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 โดยคาดว่าจะมีทั้งโน้ตบุ๊กระดับโปร, แท็บเล็ต, และ mini PC จากผู้ผลิตชั้นนำ เช่น Microsoft, Samsung, Dell, HP และ Lenovo ✅ ข้อมูลสำคัญจากข่าว ➡️ Snapdragon X2 Elite Extreme เป็นชิป Arm ตัวแรกที่แตะ 5.0GHz บน 2 คอร์ ➡️ มีทั้งหมด 18 คอร์ (12 Prime + 6 Performance) และผลิตด้วยเทคโนโลยี 3nm ➡️ ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 พร้อมแคชรวม 53MB ➡️ GPU Adreno รุ่นใหม่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า ➡️ NPU มีพลังประมวลผล 80 TOPS รองรับงาน AI และ Copilot+ ➡️ รองรับ LPDDR5X สูงสุด 128GB และแบนด์วิดธ์ 228 GB/s ➡️ มีโมเด็ม Snapdragon X75 รองรับ 5G สูงสุด 10Gbps และ Wi-Fi 7 ➡️ ระบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU ช่วยลด latency ➡️ คาดว่าจะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 ทั้งในโน้ตบุ๊กและ mini PC ✅ ข้อมูลเสริมจากภายนอก ➡️ Oryon เป็นสถาปัตยกรรมที่ Qualcomm พัฒนาขึ้นเองหลังจากซื้อกิจการ Nuvia ➡️ Unified memory architecture ช่วยให้การประมวลผลภาพและข้อมูล AI เร็วขึ้น ➡️ NPU ที่มี 80 TOPS ถือเป็นระดับสูงสุดในตลาด PC ณ ปัจจุบัน ➡️ ARM-based PC มีข้อได้เปรียบด้านพลังงานและความบางเบา ➡️ Qualcomm พยายามผลักดัน Windows on ARM ให้เป็นมาตรฐานใหม่สำหรับโน้ตบุ๊ก https://www.tomshardware.com/pc-components/cpus/qualcomms-new-snapdragon-x2-elite-extreme-and-elite-chips-for-pcs-stretch-up-to-a-record-5-ghz-3nm-arm-chips-sport-new-oryon-prime-cores
    0 Comments 0 Shares 84 Views 0 Reviews
  • “Linux อาจรองรับ Multi-Kernel ในอนาคต — เปิดทางให้ระบบปฏิบัติการหลายตัวรันพร้อมกันบนเครื่องเดียว”

    ในโลกที่ระบบปฏิบัติการ Linux ถูกใช้ตั้งแต่สมาร์ตโฟนไปจนถึงซูเปอร์คอมพิวเตอร์ โครงสร้างแบบ monolithic kernel ที่ใช้มายาวนานกำลังถูกท้าทายด้วยแนวคิดใหม่จากบริษัท Multikernel Technologies ที่เสนอให้ Linux รองรับ “multi-kernel architecture” หรือการรันเคอร์เนลหลายตัวพร้อมกันบนเครื่องเดียว

    แนวคิดนี้ถูกนำเสนอผ่าน RFC (Request for Comments) บน Linux Kernel Mailing List โดยหวังให้ชุมชนร่วมกันพิจารณาและให้ข้อเสนอแนะ โดยหลักการคือการแบ่ง CPU cores ออกเป็นกลุ่ม ๆ แล้วให้แต่ละกลุ่มรันเคอร์เนลของตัวเองอย่างอิสระ พร้อมจัดการ process และ memory แยกจากกัน แต่ยังสามารถสื่อสารกันผ่านระบบ Inter-Processor Interrupt (IPI) ที่ออกแบบมาเฉพาะ

    ข้อดีของระบบนี้คือการแยกงานออกจากกันอย่างแท้จริง เช่น เคอร์เนลหนึ่งอาจใช้สำหรับงาน real-time อีกตัวสำหรับงานทั่วไป หรือแม้แต่สร้างเคอร์เนลเฉพาะสำหรับงานที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสหรือการควบคุมอุปกรณ์ทางการแพทย์

    Multikernel ยังใช้โครงสร้างพื้นฐานจาก kexec ซึ่งช่วยให้สามารถโหลดเคอร์เนลหลายตัวได้แบบ dynamic โดยไม่ต้องรีบูตเครื่องทั้งหมด และยังมีระบบ Kernel Hand-Over (KHO) ที่อาจเปิดทางให้การอัปเดตเคอร์เนลแบบไร้ downtime ในอนาคต

    แม้ยังอยู่ในขั้นทดลอง และยังต้องปรับปรุงอีกมาก แต่แนวคิดนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีคิดเกี่ยวกับระบบปฏิบัติการ Linux ไปโดยสิ้นเชิง

    ข้อมูลสำคัญจากข่าว
    Multikernel Technologies เสนอแนวคิด multi-kernel ผ่าน RFC บน LKML
    ระบบนี้ให้เคอร์เนลหลายตัวรันพร้อมกันบนเครื่องเดียว โดยแบ่ง CPU cores
    เคอร์เนลแต่ละตัวจัดการ process และ memory ของตัวเอง
    ใช้ระบบ IPI สำหรับการสื่อสารระหว่างเคอร์เนล
    ใช้โครงสร้างจาก kexec เพื่อโหลดเคอร์เนลหลายตัวแบบ dynamic
    มีแนวคิด Kernel Hand-Over สำหรับการอัปเดตแบบไร้ downtime
    เหมาะกับงานที่ต้องการแยก workload เช่น real-time, security-critical, หรือ AI
    ยังอยู่ในขั้น RFC และเปิดรับข้อเสนอแนะจากชุมชน Linux

    ข้อมูลเสริมจากภายนอก
    ระบบ multi-kernel เคยถูกทดลองในงานวิจัย เช่น Barrelfish และ Helios OS
    การแยก workload ที่ระดับเคอร์เนลให้ความปลอดภัยมากกว่าการใช้ container หรือ VM
    kexec เป็นระบบที่ช่วยให้สามารถเปลี่ยนเคอร์เนลโดยไม่ต้องรีบูตเครื่อง
    IPI (Inter-Processor Interrupt) เป็นกลไกที่ใช้ในระบบ SMP สำหรับการสื่อสารระหว่าง CPU
    หากแนวคิดนี้ได้รับการยอมรับ อาจนำไปสู่การสร้าง Linux รุ่นพิเศษสำหรับงานเฉพาะทาง

    https://news.itsfoss.com/linux-multikernel-proposal/
    🧠 “Linux อาจรองรับ Multi-Kernel ในอนาคต — เปิดทางให้ระบบปฏิบัติการหลายตัวรันพร้อมกันบนเครื่องเดียว” ในโลกที่ระบบปฏิบัติการ Linux ถูกใช้ตั้งแต่สมาร์ตโฟนไปจนถึงซูเปอร์คอมพิวเตอร์ โครงสร้างแบบ monolithic kernel ที่ใช้มายาวนานกำลังถูกท้าทายด้วยแนวคิดใหม่จากบริษัท Multikernel Technologies ที่เสนอให้ Linux รองรับ “multi-kernel architecture” หรือการรันเคอร์เนลหลายตัวพร้อมกันบนเครื่องเดียว แนวคิดนี้ถูกนำเสนอผ่าน RFC (Request for Comments) บน Linux Kernel Mailing List โดยหวังให้ชุมชนร่วมกันพิจารณาและให้ข้อเสนอแนะ โดยหลักการคือการแบ่ง CPU cores ออกเป็นกลุ่ม ๆ แล้วให้แต่ละกลุ่มรันเคอร์เนลของตัวเองอย่างอิสระ พร้อมจัดการ process และ memory แยกจากกัน แต่ยังสามารถสื่อสารกันผ่านระบบ Inter-Processor Interrupt (IPI) ที่ออกแบบมาเฉพาะ ข้อดีของระบบนี้คือการแยกงานออกจากกันอย่างแท้จริง เช่น เคอร์เนลหนึ่งอาจใช้สำหรับงาน real-time อีกตัวสำหรับงานทั่วไป หรือแม้แต่สร้างเคอร์เนลเฉพาะสำหรับงานที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสหรือการควบคุมอุปกรณ์ทางการแพทย์ Multikernel ยังใช้โครงสร้างพื้นฐานจาก kexec ซึ่งช่วยให้สามารถโหลดเคอร์เนลหลายตัวได้แบบ dynamic โดยไม่ต้องรีบูตเครื่องทั้งหมด และยังมีระบบ Kernel Hand-Over (KHO) ที่อาจเปิดทางให้การอัปเดตเคอร์เนลแบบไร้ downtime ในอนาคต แม้ยังอยู่ในขั้นทดลอง และยังต้องปรับปรุงอีกมาก แต่แนวคิดนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีคิดเกี่ยวกับระบบปฏิบัติการ Linux ไปโดยสิ้นเชิง ✅ ข้อมูลสำคัญจากข่าว ➡️ Multikernel Technologies เสนอแนวคิด multi-kernel ผ่าน RFC บน LKML ➡️ ระบบนี้ให้เคอร์เนลหลายตัวรันพร้อมกันบนเครื่องเดียว โดยแบ่ง CPU cores ➡️ เคอร์เนลแต่ละตัวจัดการ process และ memory ของตัวเอง ➡️ ใช้ระบบ IPI สำหรับการสื่อสารระหว่างเคอร์เนล ➡️ ใช้โครงสร้างจาก kexec เพื่อโหลดเคอร์เนลหลายตัวแบบ dynamic ➡️ มีแนวคิด Kernel Hand-Over สำหรับการอัปเดตแบบไร้ downtime ➡️ เหมาะกับงานที่ต้องการแยก workload เช่น real-time, security-critical, หรือ AI ➡️ ยังอยู่ในขั้น RFC และเปิดรับข้อเสนอแนะจากชุมชน Linux ✅ ข้อมูลเสริมจากภายนอก ➡️ ระบบ multi-kernel เคยถูกทดลองในงานวิจัย เช่น Barrelfish และ Helios OS ➡️ การแยก workload ที่ระดับเคอร์เนลให้ความปลอดภัยมากกว่าการใช้ container หรือ VM ➡️ kexec เป็นระบบที่ช่วยให้สามารถเปลี่ยนเคอร์เนลโดยไม่ต้องรีบูตเครื่อง ➡️ IPI (Inter-Processor Interrupt) เป็นกลไกที่ใช้ในระบบ SMP สำหรับการสื่อสารระหว่าง CPU ➡️ หากแนวคิดนี้ได้รับการยอมรับ อาจนำไปสู่การสร้าง Linux รุ่นพิเศษสำหรับงานเฉพาะทาง https://news.itsfoss.com/linux-multikernel-proposal/
    NEWS.ITSFOSS.COM
    New Proposal Looks to Make Linux Multi-Kernel Friendly
    If approved, Linux could one day run multiple kernels simultaneously.
    0 Comments 0 Shares 76 Views 0 Reviews
  • Comet: เบราว์เซอร์ AI ตัวแรกที่มาพร้อมระบบความปลอดภัยจาก 1Password — เมื่อผู้ช่วยส่วนตัวออนไลน์ต้องปลอดภัยตั้งแต่ต้นทาง

    ในยุคที่เบราว์เซอร์ไม่ใช่แค่เครื่องมือค้นหา แต่กลายเป็นผู้ช่วยส่วนตัวที่ “คิด วิเคราะห์ และตัดสินใจ” ได้เอง Comet จาก Perplexity คือเบราว์เซอร์ AI ตัวใหม่ที่ออกแบบมาเพื่อเปลี่ยนประสบการณ์ออนไลน์ให้ฉลาดขึ้น โดยใช้ AI ในการเข้าใจเจตนาและนำเสนอข้อมูลแบบตรงจุด แต่ความสามารถนี้ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สูงขึ้น

    เพื่อรับมือกับความท้าทายนี้ Perplexity ได้จับมือกับ 1Password ผู้นำด้านการจัดการรหัสผ่าน เพื่อฝังระบบความปลอดภัยระดับสูงเข้าไปใน Comet ตั้งแต่ต้น โดยผู้ใช้สามารถติดตั้งส่วนขยายของ 1Password เพื่อจัดการรหัสผ่าน, passkeys, และข้อมูลล็อกอินต่าง ๆ ได้อย่างปลอดภัยผ่านระบบ end-to-end encryption และ zero-knowledge architecture

    Comet ยังเน้นการเก็บข้อมูลแบบ local storage โดยไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Perplexity ทำให้ผู้ใช้สามารถควบคุมสิ่งที่ AI เข้าถึงได้อย่างชัดเจน และลดความเสี่ยงจากการรั่วไหลของข้อมูลส่วนตัว

    ความร่วมมือครั้งนี้สะท้อนแนวคิดใหม่ของการพัฒนา AI — ไม่ใช่แค่ “ฉลาด” แต่ต้อง “ปลอดภัยโดยออกแบบ” เพื่อให้ผู้ใช้สามารถไว้วางใจและใช้งานได้อย่างมั่นใจในโลกออนไลน์ที่เต็มไปด้วยภัยคุกคาม

    Comet คือเบราว์เซอร์ AI ที่ออกแบบมาเพื่อเป็นผู้ช่วยส่วนตัวออนไลน์
    ใช้ AI วิเคราะห์เจตนาและนำเสนอข้อมูลแบบตรงจุด
    เปลี่ยนเบราว์เซอร์จากเครื่องมือแบบ passive เป็นระบบที่ “คิดและตัดสินใจ” ได้

    ความร่วมมือระหว่าง Perplexity และ 1Password
    ฝังระบบ credential security เข้าไปใน Comet โดยตรง
    ใช้ end-to-end encryption และ zero-knowledge architecture

    ส่วนขยาย 1Password สำหรับ Comet
    รองรับการล็อกอิน, autofill, และจัดการรหัสผ่านแบบปลอดภัย
    ซิงค์ข้อมูลข้ามอุปกรณ์และเบราว์เซอร์ได้
    สร้าง passkeys และรหัสผ่านที่แข็งแรงได้ทันที

    Comet เน้นความเป็นส่วนตัวของผู้ใช้
    เก็บข้อมูลการใช้งานไว้ในเครื่อง ไม่ส่งไปยังเซิร์ฟเวอร์
    ผู้ใช้สามารถควบคุมว่า AI เข้าถึงข้อมูลใด เมื่อใด และทำไม

    แนวคิด “ปลอดภัยโดยออกแบบ” สำหรับ AI
    ไม่ให้ LLM เข้าถึงรหัสผ่านโดยตรง
    ใช้ระบบ authorization ที่มีการกำหนดสิทธิ์แบบ deterministic
    ทุกการเข้าถึงต้องมี audit trail เพื่อความโปร่งใส

    คำเตือนเกี่ยวกับการใช้เบราว์เซอร์ AI
    หากไม่มีระบบความปลอดภัยที่ดี AI อาจเข้าถึงข้อมูลสำคัญโดยไม่ได้ตั้งใจ
    การใช้ LLM โดยไม่มีการควบคุมสิทธิ์ อาจทำให้เกิดการรั่วไหลของ credentials
    ผู้ใช้ต้องเข้าใจว่า AI ไม่ควรได้รับ “raw secrets” ผ่าน prompt หรือ embedding
    หากไม่มี audit trail องค์กรจะไม่สามารถตรวจสอบการเข้าถึงย้อนหลังได้

    https://www.techradar.com/pro/security/1password-and-perplexity-partner-on-comet-ai-browser-a-full-time-personal-assistant-with-security-by-default
    📰 Comet: เบราว์เซอร์ AI ตัวแรกที่มาพร้อมระบบความปลอดภัยจาก 1Password — เมื่อผู้ช่วยส่วนตัวออนไลน์ต้องปลอดภัยตั้งแต่ต้นทาง ในยุคที่เบราว์เซอร์ไม่ใช่แค่เครื่องมือค้นหา แต่กลายเป็นผู้ช่วยส่วนตัวที่ “คิด วิเคราะห์ และตัดสินใจ” ได้เอง Comet จาก Perplexity คือเบราว์เซอร์ AI ตัวใหม่ที่ออกแบบมาเพื่อเปลี่ยนประสบการณ์ออนไลน์ให้ฉลาดขึ้น โดยใช้ AI ในการเข้าใจเจตนาและนำเสนอข้อมูลแบบตรงจุด แต่ความสามารถนี้ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สูงขึ้น เพื่อรับมือกับความท้าทายนี้ Perplexity ได้จับมือกับ 1Password ผู้นำด้านการจัดการรหัสผ่าน เพื่อฝังระบบความปลอดภัยระดับสูงเข้าไปใน Comet ตั้งแต่ต้น โดยผู้ใช้สามารถติดตั้งส่วนขยายของ 1Password เพื่อจัดการรหัสผ่าน, passkeys, และข้อมูลล็อกอินต่าง ๆ ได้อย่างปลอดภัยผ่านระบบ end-to-end encryption และ zero-knowledge architecture Comet ยังเน้นการเก็บข้อมูลแบบ local storage โดยไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Perplexity ทำให้ผู้ใช้สามารถควบคุมสิ่งที่ AI เข้าถึงได้อย่างชัดเจน และลดความเสี่ยงจากการรั่วไหลของข้อมูลส่วนตัว ความร่วมมือครั้งนี้สะท้อนแนวคิดใหม่ของการพัฒนา AI — ไม่ใช่แค่ “ฉลาด” แต่ต้อง “ปลอดภัยโดยออกแบบ” เพื่อให้ผู้ใช้สามารถไว้วางใจและใช้งานได้อย่างมั่นใจในโลกออนไลน์ที่เต็มไปด้วยภัยคุกคาม ✅ Comet คือเบราว์เซอร์ AI ที่ออกแบบมาเพื่อเป็นผู้ช่วยส่วนตัวออนไลน์ ➡️ ใช้ AI วิเคราะห์เจตนาและนำเสนอข้อมูลแบบตรงจุด ➡️ เปลี่ยนเบราว์เซอร์จากเครื่องมือแบบ passive เป็นระบบที่ “คิดและตัดสินใจ” ได้ ✅ ความร่วมมือระหว่าง Perplexity และ 1Password ➡️ ฝังระบบ credential security เข้าไปใน Comet โดยตรง ➡️ ใช้ end-to-end encryption และ zero-knowledge architecture ✅ ส่วนขยาย 1Password สำหรับ Comet ➡️ รองรับการล็อกอิน, autofill, และจัดการรหัสผ่านแบบปลอดภัย ➡️ ซิงค์ข้อมูลข้ามอุปกรณ์และเบราว์เซอร์ได้ ➡️ สร้าง passkeys และรหัสผ่านที่แข็งแรงได้ทันที ✅ Comet เน้นความเป็นส่วนตัวของผู้ใช้ ➡️ เก็บข้อมูลการใช้งานไว้ในเครื่อง ไม่ส่งไปยังเซิร์ฟเวอร์ ➡️ ผู้ใช้สามารถควบคุมว่า AI เข้าถึงข้อมูลใด เมื่อใด และทำไม ✅ แนวคิด “ปลอดภัยโดยออกแบบ” สำหรับ AI ➡️ ไม่ให้ LLM เข้าถึงรหัสผ่านโดยตรง ➡️ ใช้ระบบ authorization ที่มีการกำหนดสิทธิ์แบบ deterministic ➡️ ทุกการเข้าถึงต้องมี audit trail เพื่อความโปร่งใส ‼️ คำเตือนเกี่ยวกับการใช้เบราว์เซอร์ AI ⛔ หากไม่มีระบบความปลอดภัยที่ดี AI อาจเข้าถึงข้อมูลสำคัญโดยไม่ได้ตั้งใจ ⛔ การใช้ LLM โดยไม่มีการควบคุมสิทธิ์ อาจทำให้เกิดการรั่วไหลของ credentials ⛔ ผู้ใช้ต้องเข้าใจว่า AI ไม่ควรได้รับ “raw secrets” ผ่าน prompt หรือ embedding ⛔ หากไม่มี audit trail องค์กรจะไม่สามารถตรวจสอบการเข้าถึงย้อนหลังได้ https://www.techradar.com/pro/security/1password-and-perplexity-partner-on-comet-ai-browser-a-full-time-personal-assistant-with-security-by-default
    0 Comments 0 Shares 164 Views 0 Reviews
  • “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า”

    Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด

    Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ

    ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ

    ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360

    แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก

    ข้อมูลสำคัญจากข่าว
    Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake
    ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz)
    ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB
    ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ

    ผลการทดสอบประสิทธิภาพ
    Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%)
    Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400)
    iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี
    ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก

    ข้อมูลเสริมจากภายนอก
    ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel
    ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360
    รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB
    ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    ⚙️ “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า” Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360 แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก ✅ ข้อมูลสำคัญจากข่าว ➡️ Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake ➡️ ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz) ➡️ ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB ➡️ ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ ✅ ผลการทดสอบประสิทธิภาพ ➡️ Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%) ➡️ Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400) ➡️ iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี ➡️ ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก ✅ ข้อมูลเสริมจากภายนอก ➡️ ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel ➡️ ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360 ➡️ รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB ➡️ ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    0 Comments 0 Shares 140 Views 0 Reviews
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 Comments 0 Shares 164 Views 0 Reviews
  • เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI

    ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ

    ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น

    นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย

    ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด

    แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว

    การเปิดตัว AORUS RTX 5060 Ti AI BOX
    ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture
    ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE
    เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4

    ความสามารถในการทำงานแบบ docking station
    มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0
    มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain
    รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist

    จุดเด่นด้านการใช้งานและประสิทธิภาพ
    ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4
    เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB
    รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง

    https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    🎙️ เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว ✅ การเปิดตัว AORUS RTX 5060 Ti AI BOX ➡️ ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture ➡️ ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE ➡️ เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4 ✅ ความสามารถในการทำงานแบบ docking station ➡️ มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0 ➡️ มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain ➡️ รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist ✅ จุดเด่นด้านการใช้งานและประสิทธิภาพ ➡️ ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4 ➡️ เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB ➡️ รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    WWW.TECHPOWERUP.COM
    GIGABYTE Introduces AORUS RTX 5060 Ti AI BOX eGPU
    GIGABYTE has unveiled the AORUS RTX 5060 Ti AI BOX eGPU during today's Beyond Edge online event. This external graphics solution features NVIDIA's desktop-grade GeForce RTX 5060 Ti with 16 GB VRAM in a compact 117 x 243 x 45 mm form factor. Unlike most existing eGPUs that rely on mobile AMD Radeon R...
    0 Comments 0 Shares 155 Views 0 Reviews
  • เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel

    Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm

    การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล

    Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU

    การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024

    การลาออกของ Ronak Singhal
    ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน
    เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี
    เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration

    การปรับโครงสร้างองค์กรของ Intel
    CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก
    แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG
    ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti

    การเปลี่ยนแปลงในทีม Data Center
    Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm
    Justin Hotard ลาออกไปเป็น CEO ของ Nokia
    Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off

    บทบาทของ Singhal ที่มีผลต่อ Intel
    ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร
    มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture
    เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI

    https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    🎙️ เรื่องเล่าจาก Nehalem ถึง Nova Lake: เมื่อผู้นำด้านสถาปัตยกรรมของ Xeon ตัดสินใจเดินออกจาก Intel Ronak Singhal ซึ่งอยู่กับ Intel มานานถึง 28 ปี และเป็นผู้มีบทบาทสำคัญในการออกแบบ CPU ระดับตำนานอย่าง Nehalem, Haswell และ Broadwell ได้ลาออกจากตำแหน่ง Chief Architect ของ Xeon หลังจากรับตำแหน่งได้เพียง 8 เดือน โดยเขาเป็นคนที่สองที่รับตำแหน่งนี้ต่อจาก Sailesh Kottapalli ซึ่งก็ลาออกไปก่อนหน้านี้เพื่อร่วมทีมเซิร์ฟเวอร์ของ Qualcomm การลาออกของ Singhal เกิดขึ้นในช่วงที่ Intel กำลังปรับโครงสร้างองค์กรครั้งใหญ่ โดย CEO คนใหม่ Lip-Bu Tan ได้แต่งตั้ง Kevork Kechichian อดีตผู้บริหารจาก Arm ให้เป็นหัวหน้ากลุ่ม Data Center Group (DCG) เพื่อเร่งการเปลี่ยนแปลงและเน้นการพัฒนา CPU เป็นแกนหลักของธุรกิจศูนย์ข้อมูล Singhal เคยดูแลทั้งแผนกลยุทธ์ Xeon, การออกแบบแพลตฟอร์ม, ระบบหน่วยความจำ, ความปลอดภัย และการเร่ง AI ซึ่งถือว่าเป็นบทบาทที่ครอบคลุมมากกว่าการออกแบบชิปทั่วไป และเขายังถือสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับสถาปัตยกรรม CPU การเปลี่ยนแปลงนี้สะท้อนถึงแรงสั่นสะเทือนในทีม Data Center ของ Intel ที่มีการเปลี่ยนตัวผู้บริหารหลายคนในเวลาไม่ถึงปี เช่น Justin Hotard ที่ลาออกไปเป็น CEO ของ Nokia และ Sandra Rivera ที่ย้ายไปเป็น CEO ของ Altera ซึ่งถูกแยกออกจาก Intel ในปี 2024 ✅ การลาออกของ Ronak Singhal ➡️ ลาออกหลังรับตำแหน่ง Chief Architect ของ Xeon ได้เพียง 8 เดือน ➡️ เป็นผู้นำด้านสถาปัตยกรรมที่อยู่กับ Intel มานาน 28 ปี ➡️ เคยดูแล Nehalem, Haswell, Broadwell และระบบ AI acceleration ✅ การปรับโครงสร้างองค์กรของ Intel ➡️ CEO Lip-Bu Tan เร่งปรับโครงสร้างเพื่อเน้น CPU เป็นแกนหลัก ➡️ แต่งตั้ง Kevork Kechichian จาก Arm เป็นหัวหน้า DCG ➡️ ย้ายทีม accelerator ไปอยู่ภายใต้การดูแลของ Sachin Katti ✅ การเปลี่ยนแปลงในทีม Data Center ➡️ Sailesh Kottapalli ลาออกไปอยู่กับ Qualcomm ➡️ Justin Hotard ลาออกไปเป็น CEO ของ Nokia ➡️ Sandra Rivera ย้ายไปเป็น CEO ของ Altera ที่ถูก spin-off ✅ บทบาทของ Singhal ที่มีผลต่อ Intel ➡️ ดูแลกลยุทธ์ Xeon และการออกแบบแพลตฟอร์มระดับองค์กร ➡️ มีสิทธิบัตรกว่า 30 ฉบับเกี่ยวกับ CPU architecture ➡️ เป็นสถาปนิกที่ครอบคลุมทั้งด้าน core, memory, security และ AI https://www.tomshardware.com/pc-components/cpus/intel-xeon-chief-architect-leaves-just-8-months-after-appointment-ronak-singhal-latest-departure-in-ongoing-shakeup
    0 Comments 0 Shares 190 Views 0 Reviews
  • “เมื่อ AI กลายเป็นผู้ช่วยของแฮกเกอร์ — 80% ของแรนซัมแวร์ในปี 2025 ใช้ AI สร้างมัลแวร์ ปลอมเสียง และเจาะระบบแบบไร้รอย”

    ภัยไซเบอร์ในปี 2025 ไม่ได้มาในรูปแบบเดิมอีกต่อไป เพราะตอนนี้แฮกเกอร์ใช้ AI เป็นเครื่องมือหลักในการสร้างแรนซัมแวร์ที่ทั้งฉลาดและอันตรายกว่าเดิม จากการศึกษาของ MIT Sloan และ Safe Security พบว่า 80% ของการโจมตีด้วยแรนซัมแวร์ในช่วงปีที่ผ่านมา มีการใช้ AI เข้ามาเกี่ยวข้อง ไม่ว่าจะเป็นการสร้างมัลแวร์อัตโนมัติ, ปลอมเสียงด้วย deepfake, หรือแม้แต่การเจาะระบบผ่าน CAPTCHA และรหัสผ่านด้วย LLM

    AI ไม่ได้แค่ช่วยให้แฮกเกอร์ทำงานเร็วขึ้น แต่ยังทำให้การโจมตีมีความแม่นยำและยากต่อการตรวจจับมากขึ้น เช่น การปลอมตัวเป็นฝ่ายบริการลูกค้าด้วยเสียงที่เหมือนจริง หรือการสร้างอีเมลฟิชชิ่งที่ดูน่าเชื่อถือจนแม้แต่ผู้เชี่ยวชาญยังหลงกล

    Michael Siegel นักวิจัยจาก CAMS เตือนว่า “ผู้โจมตีต้องการแค่ช่องโหว่เดียว แต่ผู้ป้องกันต้องปิดทุกช่องทาง” ซึ่งกลายเป็นความท้าทายที่รุนแรงขึ้นเมื่อ AI ทำให้การโจมตีขยายตัวได้ในระดับที่มนุษย์ตามไม่ทัน

    เพื่อรับมือกับภัยคุกคามนี้ นักวิจัยเสนอแนวทางป้องกันแบบ 3 เสาหลัก ได้แก่

    1️⃣ ระบบ hygiene อัตโนมัติ เช่น โค้ดที่ซ่อมตัวเอง, ระบบ patch อัตโนมัติ และการตรวจสอบพื้นผิวการโจมตีแบบต่อเนื่อง

    2️⃣ ระบบป้องกันแบบหลอกล่อและอัตโนมัติ เช่น การเปลี่ยนเป้าหมายตลอดเวลา และการใช้ข้อมูลปลอมเพื่อหลอกแฮกเกอร์

    3️⃣ การรายงานและ oversight แบบ real-time เพื่อให้ผู้บริหารเห็นภาพรวมของภัยคุกคามและตัดสินใจได้ทันเวลา

    สถานการณ์ภัยไซเบอร์ในปี 2025
    80% ของแรนซัมแวร์ใช้ AI ในการสร้างมัลแวร์ ฟิชชิ่ง และ deepfake
    ใช้ LLM ในการเจาะรหัสผ่าน, bypass CAPTCHA และเขียนโค้ดอัตโนมัติ
    ปลอมเสียงเป็นฝ่ายบริการลูกค้าเพื่อหลอกเหยื่อผ่านโทรศัพท์
    AI ทำให้การโจมตีขยายตัวเร็วและแม่นยำกว่าที่เคย

    แนวทางป้องกันที่แนะนำ
    เสาหลักที่ 1: ระบบ hygiene อัตโนมัติ เช่น self-healing code และ zero-trust architecture
    เสาหลักที่ 2: ระบบป้องกันแบบหลอกล่อ เช่น moving-target defense และข้อมูลปลอม
    เสาหลักที่ 3: การ oversight แบบ real-time เพื่อให้ผู้บริหารตัดสินใจได้ทัน
    ต้องใช้หลายชั้นร่วมกัน ไม่ใช่แค่เครื่องมือ AI ฝั่งป้องกันอย่างเดียว

    ข้อมูลเสริมจากภายนอก
    Deepfake phishing หรือ “vishing” เพิ่มขึ้น 1,633% ใน Q1 ปี 2025
    การโจมตีแบบ adversary-in-the-middle เพิ่มขึ้น — ขโมย session cookie เพื่อข้าม 2FA
    การโจมตีระบบ OT (Operational Technology) เช่นโรงงานและโครงสร้างพื้นฐานเพิ่มขึ้น
    จำนวนการโจมตี ransomware เพิ่มขึ้น 132% แม้ยอดจ่ายค่าไถ่จะลดลง

    https://www.techradar.com/pro/security/only-20-of-ransomware-is-not-powered-by-ai-but-expect-that-number-to-drop-even-further-in-2025
    🧨 “เมื่อ AI กลายเป็นผู้ช่วยของแฮกเกอร์ — 80% ของแรนซัมแวร์ในปี 2025 ใช้ AI สร้างมัลแวร์ ปลอมเสียง และเจาะระบบแบบไร้รอย” ภัยไซเบอร์ในปี 2025 ไม่ได้มาในรูปแบบเดิมอีกต่อไป เพราะตอนนี้แฮกเกอร์ใช้ AI เป็นเครื่องมือหลักในการสร้างแรนซัมแวร์ที่ทั้งฉลาดและอันตรายกว่าเดิม จากการศึกษาของ MIT Sloan และ Safe Security พบว่า 80% ของการโจมตีด้วยแรนซัมแวร์ในช่วงปีที่ผ่านมา มีการใช้ AI เข้ามาเกี่ยวข้อง ไม่ว่าจะเป็นการสร้างมัลแวร์อัตโนมัติ, ปลอมเสียงด้วย deepfake, หรือแม้แต่การเจาะระบบผ่าน CAPTCHA และรหัสผ่านด้วย LLM AI ไม่ได้แค่ช่วยให้แฮกเกอร์ทำงานเร็วขึ้น แต่ยังทำให้การโจมตีมีความแม่นยำและยากต่อการตรวจจับมากขึ้น เช่น การปลอมตัวเป็นฝ่ายบริการลูกค้าด้วยเสียงที่เหมือนจริง หรือการสร้างอีเมลฟิชชิ่งที่ดูน่าเชื่อถือจนแม้แต่ผู้เชี่ยวชาญยังหลงกล Michael Siegel นักวิจัยจาก CAMS เตือนว่า “ผู้โจมตีต้องการแค่ช่องโหว่เดียว แต่ผู้ป้องกันต้องปิดทุกช่องทาง” ซึ่งกลายเป็นความท้าทายที่รุนแรงขึ้นเมื่อ AI ทำให้การโจมตีขยายตัวได้ในระดับที่มนุษย์ตามไม่ทัน เพื่อรับมือกับภัยคุกคามนี้ นักวิจัยเสนอแนวทางป้องกันแบบ 3 เสาหลัก ได้แก่ 1️⃣ ระบบ hygiene อัตโนมัติ เช่น โค้ดที่ซ่อมตัวเอง, ระบบ patch อัตโนมัติ และการตรวจสอบพื้นผิวการโจมตีแบบต่อเนื่อง 2️⃣ ระบบป้องกันแบบหลอกล่อและอัตโนมัติ เช่น การเปลี่ยนเป้าหมายตลอดเวลา และการใช้ข้อมูลปลอมเพื่อหลอกแฮกเกอร์ 3️⃣ การรายงานและ oversight แบบ real-time เพื่อให้ผู้บริหารเห็นภาพรวมของภัยคุกคามและตัดสินใจได้ทันเวลา ✅ สถานการณ์ภัยไซเบอร์ในปี 2025 ➡️ 80% ของแรนซัมแวร์ใช้ AI ในการสร้างมัลแวร์ ฟิชชิ่ง และ deepfake ➡️ ใช้ LLM ในการเจาะรหัสผ่าน, bypass CAPTCHA และเขียนโค้ดอัตโนมัติ ➡️ ปลอมเสียงเป็นฝ่ายบริการลูกค้าเพื่อหลอกเหยื่อผ่านโทรศัพท์ ➡️ AI ทำให้การโจมตีขยายตัวเร็วและแม่นยำกว่าที่เคย ✅ แนวทางป้องกันที่แนะนำ ➡️ เสาหลักที่ 1: ระบบ hygiene อัตโนมัติ เช่น self-healing code และ zero-trust architecture ➡️ เสาหลักที่ 2: ระบบป้องกันแบบหลอกล่อ เช่น moving-target defense และข้อมูลปลอม ➡️ เสาหลักที่ 3: การ oversight แบบ real-time เพื่อให้ผู้บริหารตัดสินใจได้ทัน ➡️ ต้องใช้หลายชั้นร่วมกัน ไม่ใช่แค่เครื่องมือ AI ฝั่งป้องกันอย่างเดียว ✅ ข้อมูลเสริมจากภายนอก ➡️ Deepfake phishing หรือ “vishing” เพิ่มขึ้น 1,633% ใน Q1 ปี 2025 ➡️ การโจมตีแบบ adversary-in-the-middle เพิ่มขึ้น — ขโมย session cookie เพื่อข้าม 2FA ➡️ การโจมตีระบบ OT (Operational Technology) เช่นโรงงานและโครงสร้างพื้นฐานเพิ่มขึ้น ➡️ จำนวนการโจมตี ransomware เพิ่มขึ้น 132% แม้ยอดจ่ายค่าไถ่จะลดลง https://www.techradar.com/pro/security/only-20-of-ransomware-is-not-powered-by-ai-but-expect-that-number-to-drop-even-further-in-2025
    0 Comments 0 Shares 222 Views 0 Reviews
  • “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ”

    ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase)

    Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง

    แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน

    Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า

    Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ

    สถาปัตยกรรม Disaggregated Inference
    แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound)
    เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล
    เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ
    ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์

    ข้อมูลทางเทคนิคของ Rubin CPX
    พลังประมวลผล 30 petaFLOPs ด้วย NVFP4
    หน่วยความจำ GDDR7 ขนาด 128 GB
    ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet
    ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง

    ระบบ Vera Rubin NVL144 CPX
    ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว
    หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s
    พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า
    รองรับการประมวลผล AI ระดับโรงงาน (AI Factory)

    ข้อมูลเสริมจากภายนอก
    Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis
    ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out
    NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ
    ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง

    https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    🧠 “NVIDIA เปิดตัว Rubin CPX: ชิป AI ที่แยกงานประมวลผลออกเป็นสองเฟส — ยกระดับการตอบสนองโมเดลยาวล้านโทเคนแบบไม่ต้องรอ” ในยุคที่ AI ไม่ได้แค่ตอบคำถามสั้น ๆ แต่ต้องเข้าใจบทสนทนายาว ๆ โค้ดทั้งโปรเจกต์ หรือวิดีโอความยาวเป็นชั่วโมง NVIDIA ได้เปิดตัวสถาปัตยกรรมใหม่ที่เรียกว่า “Disaggregated Inference” ซึ่งแยกงานประมวลผลออกเป็นสองเฟสหลัก: เฟสบริบท (Context Phase) และเฟสสร้างผลลัพธ์ (Generation Phase) Rubin CPX คือ GPU รุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับเฟสบริบท ซึ่งต้องใช้พลังประมวลผลสูงเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาล เช่น โค้ดทั้ง repository หรือบทสนทนาในหลาย session โดย Rubin CPX ให้พลังถึง 30 petaFLOPs ด้วย NVFP4 และใช้หน่วยความจำ GDDR7 ขนาด 128 GB — ต่างจาก Rubin GPU รุ่นหลักที่ใช้ HBM4 ขนาด 288 GB เพื่อรองรับเฟสสร้างผลลัพธ์ที่ต้องการแบนด์วิดท์สูง แนวคิดนี้ไม่ใช่แค่ทฤษฎี เพราะ NVIDIA ได้พิสูจน์แล้วผ่านการทดสอบ MLPerf โดยใช้เทคนิค “Disaggregated Serving” ที่แยกงาน context และ generation ออกจากกัน ทำให้ throughput ต่อ GPU เพิ่มขึ้นเกือบ 50% และลด latency ได้อย่างชัดเจน Rubin CPX จะถูกนำไปใช้ในระบบ Vera Rubin NVL144 CPX rack ซึ่งประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว, หน่วยความจำ 100 TB และแบนด์วิดท์ 1.7 PB/s — ให้พลังรวมถึง 8 exaFLOPs ซึ่งสูงกว่า GB300 NVL72 ถึง 7.5 เท่า Jensen Huang ซีอีโอของ NVIDIA ระบุว่า Rubin CPX คือ “GPU CUDA ตัวแรกที่ออกแบบมาเพื่อ AI ที่ต้องใช้บริบทยาวมหาศาล” และจะเป็นหัวใจของยุคใหม่ที่ AI ไม่ใช่แค่ autocomplete แต่เป็นผู้ช่วยที่เข้าใจงานทั้งระบบ ✅ สถาปัตยกรรม Disaggregated Inference ➡️ แยกงาน inference ออกเป็น 2 เฟส: Context (compute-bound) และ Generation (memory-bound) ➡️ เฟสบริบทใช้ Rubin CPX ที่เน้นพลังประมวลผล ➡️ เฟสสร้างผลลัพธ์ใช้ Rubin GPU ที่เน้นแบนด์วิดท์หน่วยความจำ ➡️ ลด latency และเพิ่ม throughput โดยไม่ต้องใช้ GPU แบบอเนกประสงค์ ✅ ข้อมูลทางเทคนิคของ Rubin CPX ➡️ พลังประมวลผล 30 petaFLOPs ด้วย NVFP4 ➡️ หน่วยความจำ GDDR7 ขนาด 128 GB ➡️ ใช้ดีไซน์แบบ monolithic die ต่างจาก Rubin GPU ที่เป็น dual-die chiplet ➡️ ออกแบบมาเพื่องานที่มีบริบทยาว เช่น โค้ดทั้งโปรเจกต์หรือวิดีโอหลายชั่วโมง ✅ ระบบ Vera Rubin NVL144 CPX ➡️ ประกอบด้วย Rubin GPU 144 ตัว, Rubin CPX 144 ตัว, Vera CPU 36 ตัว ➡️ หน่วยความจำรวม 100 TB และแบนด์วิดท์ 1.7 PB/s ➡️ พลังรวม 8 exaFLOPs — สูงกว่า GB300 NVL72 ถึง 7.5 เท่า ➡️ รองรับการประมวลผล AI ระดับโรงงาน (AI Factory) ✅ ข้อมูลเสริมจากภายนอก ➡️ Rubin CPX ใช้ในงานที่ต้องประมวลผลล้านโทเคน เช่น video search, code analysis ➡️ ใช้ร่วมกับ InfiniBand หรือ Spectrum-X Ethernet สำหรับการ scale-out ➡️ NVIDIA ใช้ Dynamo orchestration layer เพื่อจัดการการแยกงานแบบอัจฉริยะ ➡️ ผลการทดสอบ MLPerf ล่าสุดแสดงว่า Disaggregated Serving เพิ่มประสิทธิภาพได้จริง https://www.tomshardware.com/tech-industry/semiconductors/nvidia-rubin-cpx-forms-one-half-of-new-disaggregated-ai-inference-architecture-approach-splits-work-between-compute-and-bandwidth-optimized-chips-for-best-performance
    0 Comments 0 Shares 215 Views 0 Reviews
  • เรื่องเล่าจาก Navi 44 ถึง XL: เมื่อชื่อที่ไม่ควรมีอยู่ กลับกลายเป็นจุดเริ่มต้นของการคาดเดา

    ในเอกสาร ROCm 6.4.2 ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการประมวลผล GPU ของ AMD มีการระบุชื่อ Radeon RX 9060 XL ว่าเป็นหนึ่งในรุ่นที่รองรับ แม้ว่า AMD จะยังไม่เคยประกาศ GPU รุ่นนี้อย่างเป็นทางการ และไม่มีข้อมูลใด ๆ ปรากฏในเว็บไซต์หรือข่าวเปิดตัว

    สิ่งที่ทำให้เรื่องนี้น่าสนใจคือ ROCm ระบุชื่อรุ่น RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT และ RX 9060 XL แต่กลับไม่มี RX 9060 รุ่นธรรมดา ซึ่งทำให้หลายคนสงสัยว่า “XL” อาจเป็นชื่อที่ใช้แทน RX 9060 ธรรมดา หรือเป็นการพิมพ์ผิดที่เกิดจากการสับสนระหว่างชื่อรุ่นกับชื่อชิป

    AMD เคยใช้คำว่า “XL” ในอดีต เช่น Radeon X1800XL หรือในชิป OEM-only แต่ได้เลิกใช้คำนี้ในชื่อผลิตภัณฑ์ตั้งแต่ยุค HD 3000 เป็นต้นมา อย่างไรก็ตาม ชิป Navi 31 XL ก็ยังใช้คำนี้เพื่อระบุรุ่นที่ถูกลดสเปก ซึ่งทำให้เกิดความเป็นไปได้ว่า RX 9060 XL อาจหมายถึงรุ่นที่ใช้ชิป Navi 44 XL

    นอกจากนี้ ยังมีข้อผิดพลาดในเอกสาร ROCm ที่ระบุว่า GPU ตระกูล RX 9000 ใช้สถาปัตยกรรม RDNA 3 ทั้งที่จริงแล้วเป็น RDNA 4 ซึ่งมีการเปลี่ยนแปลงสำคัญ เช่น matrix accelerator ที่รองรับ FP8, ระบบ cache ใหม่, และ ray tracing engine ที่ปรับปรุงใหม่ทั้งหมด

    แม้จะมีความเป็นไปได้ว่า RX 9060 XL คือชื่อจริงของ GPU ที่ยังไม่เปิดตัว แต่หลายฝ่าย—including VideoCardz และ Wccftech—มองว่าอาจเป็นแค่การพิมพ์ผิดจาก RX 9060 ธรรมดา ซึ่งใช้ชิป Navi 44 แบบลดสเปก และไม่มีความจำเป็นที่ AMD จะเปิดตัว SKU ใหม่ในช่วงที่ยอดขาย GPU ยังไม่สูงมาก

    การปรากฏของชื่อ Radeon RX 9060 XL
    พบในเอกสาร ROCm 6.4.2 ของ AMD
    ไม่มีการประกาศหรือเปิดตัวอย่างเป็นทางการ
    อาจเป็นการพิมพ์ผิดจาก RX 9060 ธรรมดา

    ความเป็นไปได้ของชื่อ “XL”
    เคยใช้ในอดีตกับรุ่น OEM หรือรุ่นลดสเปก
    ปัจจุบันยังใช้ในชื่อชิป เช่น Navi 31 XL
    RX 9060 XL อาจหมายถึงรุ่นที่ใช้ Navi 44 XL

    ข้อผิดพลาดในเอกสาร ROCm
    ระบุว่า RX 9000 ใช้ RDNA 3 ทั้งที่จริงเป็น RDNA 4
    RDNA 4 มีฟีเจอร์ใหม่ เช่น matrix accelerator FP8 และ ray tracing engine ใหม่
    เป็นการเปลี่ยนแปลงระดับ instruction set architecture

    สถานการณ์ตลาด GPU ของ AMD
    AMD ขาย GPU desktop ได้ประมาณ 700,000–750,000 ตัวในครึ่งปีแรก
    อาจไม่มีซิลิคอนเหลือพอสำหรับการผลิตรุ่นลดสเปกเพิ่ม
    ไม่มีข่าวว่าจะเปิดตัว RX 9000 รุ่นใหม่ในเร็ว ๆ นี้

    https://www.tomshardware.com/pc-components/gpus/amd-lists-mystery-radeon-9060-xl-model-in-rocm-documents-but-it-is-more-likely-to-be-a-typo-than-a-new-sku
    🎙️ เรื่องเล่าจาก Navi 44 ถึง XL: เมื่อชื่อที่ไม่ควรมีอยู่ กลับกลายเป็นจุดเริ่มต้นของการคาดเดา ในเอกสาร ROCm 6.4.2 ซึ่งเป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการประมวลผล GPU ของ AMD มีการระบุชื่อ Radeon RX 9060 XL ว่าเป็นหนึ่งในรุ่นที่รองรับ แม้ว่า AMD จะยังไม่เคยประกาศ GPU รุ่นนี้อย่างเป็นทางการ และไม่มีข้อมูลใด ๆ ปรากฏในเว็บไซต์หรือข่าวเปิดตัว สิ่งที่ทำให้เรื่องนี้น่าสนใจคือ ROCm ระบุชื่อรุ่น RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT และ RX 9060 XL แต่กลับไม่มี RX 9060 รุ่นธรรมดา ซึ่งทำให้หลายคนสงสัยว่า “XL” อาจเป็นชื่อที่ใช้แทน RX 9060 ธรรมดา หรือเป็นการพิมพ์ผิดที่เกิดจากการสับสนระหว่างชื่อรุ่นกับชื่อชิป AMD เคยใช้คำว่า “XL” ในอดีต เช่น Radeon X1800XL หรือในชิป OEM-only แต่ได้เลิกใช้คำนี้ในชื่อผลิตภัณฑ์ตั้งแต่ยุค HD 3000 เป็นต้นมา อย่างไรก็ตาม ชิป Navi 31 XL ก็ยังใช้คำนี้เพื่อระบุรุ่นที่ถูกลดสเปก ซึ่งทำให้เกิดความเป็นไปได้ว่า RX 9060 XL อาจหมายถึงรุ่นที่ใช้ชิป Navi 44 XL นอกจากนี้ ยังมีข้อผิดพลาดในเอกสาร ROCm ที่ระบุว่า GPU ตระกูล RX 9000 ใช้สถาปัตยกรรม RDNA 3 ทั้งที่จริงแล้วเป็น RDNA 4 ซึ่งมีการเปลี่ยนแปลงสำคัญ เช่น matrix accelerator ที่รองรับ FP8, ระบบ cache ใหม่, และ ray tracing engine ที่ปรับปรุงใหม่ทั้งหมด แม้จะมีความเป็นไปได้ว่า RX 9060 XL คือชื่อจริงของ GPU ที่ยังไม่เปิดตัว แต่หลายฝ่าย—including VideoCardz และ Wccftech—มองว่าอาจเป็นแค่การพิมพ์ผิดจาก RX 9060 ธรรมดา ซึ่งใช้ชิป Navi 44 แบบลดสเปก และไม่มีความจำเป็นที่ AMD จะเปิดตัว SKU ใหม่ในช่วงที่ยอดขาย GPU ยังไม่สูงมาก ✅ การปรากฏของชื่อ Radeon RX 9060 XL ➡️ พบในเอกสาร ROCm 6.4.2 ของ AMD ➡️ ไม่มีการประกาศหรือเปิดตัวอย่างเป็นทางการ ➡️ อาจเป็นการพิมพ์ผิดจาก RX 9060 ธรรมดา ✅ ความเป็นไปได้ของชื่อ “XL” ➡️ เคยใช้ในอดีตกับรุ่น OEM หรือรุ่นลดสเปก ➡️ ปัจจุบันยังใช้ในชื่อชิป เช่น Navi 31 XL ➡️ RX 9060 XL อาจหมายถึงรุ่นที่ใช้ Navi 44 XL ✅ ข้อผิดพลาดในเอกสาร ROCm ➡️ ระบุว่า RX 9000 ใช้ RDNA 3 ทั้งที่จริงเป็น RDNA 4 ➡️ RDNA 4 มีฟีเจอร์ใหม่ เช่น matrix accelerator FP8 และ ray tracing engine ใหม่ ➡️ เป็นการเปลี่ยนแปลงระดับ instruction set architecture ✅ สถานการณ์ตลาด GPU ของ AMD ➡️ AMD ขาย GPU desktop ได้ประมาณ 700,000–750,000 ตัวในครึ่งปีแรก ➡️ อาจไม่มีซิลิคอนเหลือพอสำหรับการผลิตรุ่นลดสเปกเพิ่ม ➡️ ไม่มีข่าวว่าจะเปิดตัว RX 9000 รุ่นใหม่ในเร็ว ๆ นี้ https://www.tomshardware.com/pc-components/gpus/amd-lists-mystery-radeon-9060-xl-model-in-rocm-documents-but-it-is-more-likely-to-be-a-typo-than-a-new-sku
    WWW.TOMSHARDWARE.COM
    AMD lists mystery Radeon 9060 XL model in ROCm documents, but it is more likely to be a typo than a new SKU
    This non-existent Radeon RX 9060 XL GPU is listed in AMD's ROCm 6.4.2 software stack.
    0 Comments 0 Shares 202 Views 0 Reviews
  • เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง

    จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI

    แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ

    Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก

    ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก

    ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่”

    การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส
    32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy
    ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง
    ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ

    พฤติกรรมของนักพัฒนารุ่นใหม่
    มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน
    มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า
    มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ

    ความรู้สึกและแรงจูงใจ
    นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก
    นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ
    ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น

    ความตระหนักด้านสิ่งแวดล้อม
    80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด
    นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้
    เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่

    https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    🎙️ เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่” ✅ การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส ➡️ 32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy ➡️ ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง ➡️ ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ ✅ พฤติกรรมของนักพัฒนารุ่นใหม่ ➡️ มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน ➡️ มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า ➡️ มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ ✅ ความรู้สึกและแรงจูงใจ ➡️ นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก ➡️ นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ ➡️ ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น ✅ ความตระหนักด้านสิ่งแวดล้อม ➡️ 80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ➡️ นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ ➡️ เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่ https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    0 Comments 0 Shares 216 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 238 Views 0 Reviews
  • เรื่องเล่าจาก Sanity: เมื่อ AI กลายเป็นทีมงานที่ลืมทุกอย่างทุกเช้า แต่ยังช่วยให้เราส่งงานได้เร็วขึ้น 2–3 เท่า

    Vincent Quigley วิศวกรอาวุโสจาก Sanity ได้แชร์ประสบการณ์ 6 สัปดาห์ในการใช้ Claude Code ผ่าน Agent Client Protocol (ACP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้ AI agent ทำงานร่วมกับ editor ได้อย่างลื่นไหล โดยเฉพาะใน Zed editor ที่รองรับ Claude แบบ native แล้ว

    เขาเปรียบ Claude Code ว่าเป็น “นักพัฒนาฝึกหัดที่ลืมทุกอย่างทุกเช้า” และนั่นคือเหตุผลที่ workflow ของเขาเปลี่ยนไปอย่างสิ้นเชิง: ไม่ใช่การรอให้ AI สร้างโค้ดที่สมบูรณ์ในครั้งเดียว แต่คือการทำงานร่วมกันแบบ iterative ที่เริ่มจาก “95% ขยะ” แล้วค่อย ๆ refine จนกลายเป็นโค้ดที่ใช้ได้จริง

    Vincent ใช้ Claude.md เป็นไฟล์บริบทที่รวม architecture, pattern, gotchas และลิงก์เอกสาร เพื่อให้ Claude เริ่มต้นจาก attempt ที่สองแทนที่จะต้องอธิบายใหม่ทุกครั้ง และยังเชื่อม Claude เข้ากับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only เพื่อให้ AI เข้าใจระบบได้ลึกขึ้น

    เขายังใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา และใช้ multibuffer ใน Zed เพื่อ review โค้ดแบบ granular—เลือกได้ว่าจะรับหรือปฏิเสธแต่ละ hunk พร้อม task list ที่แสดงใน sidebar แบบ real-time

    แม้ Claude จะช่วย review โค้ดได้ดี แต่ Vincent ย้ำว่า “วิศวกรต้องรับผิดชอบโค้ดที่ตัวเองส่ง” ไม่ว่าจะเขียนเองหรือ AI เขียนให้ และการไม่มี emotional attachment กับโค้ดที่ไม่ได้พิมพ์เอง กลับทำให้ review ได้ตรงจุดและกล้าลบสิ่งที่ไม่ดีมากขึ้น

    วิธีทำงานร่วมกับ Claude Code
    ใช้ Claude.md เพื่อสร้างบริบทให้ AI เข้าใจระบบ
    เชื่อม Claude กับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only
    ใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา

    การทำงานใน Zed ผ่าน ACP
    Claude Code ทำงานแบบ native ผ่าน Agent Client Protocol (ACP)
    รองรับ multibuffer review, syntax highlight, และ task list ใน sidebar
    สามารถใช้ slash command เพื่อสร้าง workflow แบบกำหนดเอง

    กระบวนการ iterative ที่ใช้ Claude
    Attempt แรก: 95% ขยะ แต่ช่วยให้เข้าใจระบบ
    Attempt สอง: เริ่มมีโครงสร้างที่ใช้ได้
    Attempt สาม: ได้โค้ดที่สามารถนำไป iterate ต่อได้จริง

    การ review โค้ดที่ AI สร้าง
    Claude ช่วยตรวจ test coverage, bug และเสนอ improvement
    วิศวกรต้อง review และรับผิดชอบโค้ดที่ส่ง
    ไม่มี emotional attachment ทำให้ review ได้ตรงจุดและกล้าลบมากขึ้น

    ผลลัพธ์และต้นทุน
    ส่งงานได้เร็วขึ้น 2–3 เท่า
    ลดเวลาทำ boilerplate และงานซ้ำ
    ค่าใช้จ่ายประมาณ $1000–1500 ต่อเดือนต่อวิศวกรที่ใช้ AI เต็มรูปแบบ

    https://www.sanity.io/blog/first-attempt-will-be-95-garbage
    🎙️ เรื่องเล่าจาก Sanity: เมื่อ AI กลายเป็นทีมงานที่ลืมทุกอย่างทุกเช้า แต่ยังช่วยให้เราส่งงานได้เร็วขึ้น 2–3 เท่า Vincent Quigley วิศวกรอาวุโสจาก Sanity ได้แชร์ประสบการณ์ 6 สัปดาห์ในการใช้ Claude Code ผ่าน Agent Client Protocol (ACP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้ AI agent ทำงานร่วมกับ editor ได้อย่างลื่นไหล โดยเฉพาะใน Zed editor ที่รองรับ Claude แบบ native แล้ว เขาเปรียบ Claude Code ว่าเป็น “นักพัฒนาฝึกหัดที่ลืมทุกอย่างทุกเช้า” และนั่นคือเหตุผลที่ workflow ของเขาเปลี่ยนไปอย่างสิ้นเชิง: ไม่ใช่การรอให้ AI สร้างโค้ดที่สมบูรณ์ในครั้งเดียว แต่คือการทำงานร่วมกันแบบ iterative ที่เริ่มจาก “95% ขยะ” แล้วค่อย ๆ refine จนกลายเป็นโค้ดที่ใช้ได้จริง Vincent ใช้ Claude.md เป็นไฟล์บริบทที่รวม architecture, pattern, gotchas และลิงก์เอกสาร เพื่อให้ Claude เริ่มต้นจาก attempt ที่สองแทนที่จะต้องอธิบายใหม่ทุกครั้ง และยังเชื่อม Claude เข้ากับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only เพื่อให้ AI เข้าใจระบบได้ลึกขึ้น เขายังใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา และใช้ multibuffer ใน Zed เพื่อ review โค้ดแบบ granular—เลือกได้ว่าจะรับหรือปฏิเสธแต่ละ hunk พร้อม task list ที่แสดงใน sidebar แบบ real-time แม้ Claude จะช่วย review โค้ดได้ดี แต่ Vincent ย้ำว่า “วิศวกรต้องรับผิดชอบโค้ดที่ตัวเองส่ง” ไม่ว่าจะเขียนเองหรือ AI เขียนให้ และการไม่มี emotional attachment กับโค้ดที่ไม่ได้พิมพ์เอง กลับทำให้ review ได้ตรงจุดและกล้าลบสิ่งที่ไม่ดีมากขึ้น ✅ วิธีทำงานร่วมกับ Claude Code ➡️ ใช้ Claude.md เพื่อสร้างบริบทให้ AI เข้าใจระบบ ➡️ เชื่อม Claude กับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only ➡️ ใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา ✅ การทำงานใน Zed ผ่าน ACP ➡️ Claude Code ทำงานแบบ native ผ่าน Agent Client Protocol (ACP) ➡️ รองรับ multibuffer review, syntax highlight, และ task list ใน sidebar ➡️ สามารถใช้ slash command เพื่อสร้าง workflow แบบกำหนดเอง ✅ กระบวนการ iterative ที่ใช้ Claude ➡️ Attempt แรก: 95% ขยะ แต่ช่วยให้เข้าใจระบบ ➡️ Attempt สอง: เริ่มมีโครงสร้างที่ใช้ได้ ➡️ Attempt สาม: ได้โค้ดที่สามารถนำไป iterate ต่อได้จริง ✅ การ review โค้ดที่ AI สร้าง ➡️ Claude ช่วยตรวจ test coverage, bug และเสนอ improvement ➡️ วิศวกรต้อง review และรับผิดชอบโค้ดที่ส่ง ➡️ ไม่มี emotional attachment ทำให้ review ได้ตรงจุดและกล้าลบมากขึ้น ✅ ผลลัพธ์และต้นทุน ➡️ ส่งงานได้เร็วขึ้น 2–3 เท่า ➡️ ลดเวลาทำ boilerplate และงานซ้ำ ➡️ ค่าใช้จ่ายประมาณ $1000–1500 ต่อเดือนต่อวิศวกรที่ใช้ AI เต็มรูปแบบ https://www.sanity.io/blog/first-attempt-will-be-95-garbage
    WWW.SANITY.IO
    First attempt will be 95% garbage: A staff engineer's 6-week journey with Claude Code | Sanity
    This started as an internal Sanity workshop where I demoed how I actually use AI. Spoiler: it's running multiple agents like a small team with daily amnesia.
    0 Comments 0 Shares 219 Views 0 Reviews
  • The neoclassical architecture with a Portuguese influence style cover with the blue and white azulejo tiles wall
    The neoclassical architecture with a Portuguese influence style cover with the blue and white azulejo tiles wall
    0 Comments 0 Shares 91 Views 0 Reviews
  • เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch

    แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026

    ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays

    แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง

    Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่

    โครงสร้างของ Instinct MI500 UAL256
    ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs
    แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking
    ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray

    สถาปัตยกรรมของ Verano CPU
    ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่
    ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet
    ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ

    เทคโนโลยีการเชื่อมต่อภายในระบบ
    Vulcano switch ผลิตบน TSMC 3nm node
    รองรับ external throughput ระดับ 800G
    ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU

    แผนการเปิดตัว
    MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026
    MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027
    เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC

    https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    🎙️ เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026 ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่ ✅ โครงสร้างของ Instinct MI500 UAL256 ➡️ ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs ➡️ แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking ➡️ ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray ✅ สถาปัตยกรรมของ Verano CPU ➡️ ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่ ➡️ ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet ➡️ ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ ✅ เทคโนโลยีการเชื่อมต่อภายในระบบ ➡️ Vulcano switch ผลิตบน TSMC 3nm node ➡️ รองรับ external throughput ระดับ 800G ➡️ ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU ✅ แผนการเปิดตัว ➡️ MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026 ➡️ MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027 ➡️ เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    WWW.TECHPOWERUP.COM
    AMD Instinct MI500 UAL256 Mega Pod to Scale up to 256 GPUs, 64 "Verano" CPUs
    While AMD hasn't launched its upcoming Instinct MI400 series of accelerators yet, the company has started preparing its supply chain for what comes after. Thanks to SemiAnalysis, we have a clearer picture of what AMD's Instinct MI500 UAL256 rack will look like. At the base of each compute node, ther...
    0 Comments 0 Shares 171 Views 0 Reviews
  • เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ

    ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect

    สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว

    องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ

    บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง

    การเปลี่ยนแปลงของบทบาทในสายงาน IT
    ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI
    งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่
    บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว

    ทักษะใหม่ที่จำเป็นในยุค AI
    AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก
    ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน
    การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์

    การเปลี่ยนแปลงในระดับองค์กร
    CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์
    CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset
    การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น

    แนวโน้มการจ้างงานและการเติบโต
    92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI
    ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด
    การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน

    https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    🎙️ เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง ✅ การเปลี่ยนแปลงของบทบาทในสายงาน IT ➡️ ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI ➡️ งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่ ➡️ บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว ✅ ทักษะใหม่ที่จำเป็นในยุค AI ➡️ AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก ➡️ ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน ➡️ การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์ ✅ การเปลี่ยนแปลงในระดับองค์กร ➡️ CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์ ➡️ CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset ➡️ การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น ✅ แนวโน้มการจ้างงานและการเติบโต ➡️ 92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI ➡️ ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด ➡️ การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    US.RESOURCES.CSOONLINE.COM
    Spotlight report: IT careers in the AI era | Foundry Editorial
    Download the September 2025 issue of the Enterprise Spotlight from the editors of CIO, Computerworld, CSO, InfoWorld, and Network World.
    0 Comments 0 Shares 236 Views 0 Reviews
  • GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC

    ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm

    GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว

    หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C

    DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก
    ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว
    CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB
    GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing
    ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32)
    รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA
    แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C
    มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU
    รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ
    ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM
    TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป
    DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่
    รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos

    ข้อมูลเสริมจากภายนอก
    DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud
    ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน
    NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก
    DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan
    ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency

    https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    🧠 GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก ➡️ ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว ➡️ CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB ➡️ GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing ➡️ ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32) ➡️ รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA ➡️ แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C ➡️ มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU ➡️ รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ ➡️ ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM ➡️ TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป ➡️ DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่ ➡️ รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos ✅ ข้อมูลเสริมจากภายนอก ➡️ DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud ➡️ ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน ➡️ NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก ➡️ DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan ➡️ ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    WCCFTECH.COM
    NVIDIA Dissects Its GB10 Superchip For DGX AI PCs: 3nm With 20 ARM v9.2 CPU Cores, 1000 TOPS NVFP4 Blackwell GPU, LPDDR5x-9400 Memory Support, 140W TDP
    NVIDIA has just detailed its GB10 Superchip with Blackwell GPU, which is being used to power several DGX AI Mini supercomputers.
    0 Comments 0 Shares 255 Views 0 Reviews
  • IBM Power11 – ซีพียูที่ไม่แค่แรง แต่ฉลาดและปลอดภัยในยุคหลังควอนตัม

    IBM ไม่ได้วิ่งตามเทรนด์เล็ก ๆ อย่างการลดขนาดชิปไปที่ 5nm แต่เลือกใช้เทคโนโลยี 7nm ที่ “ปรับแต่งแล้ว” จาก Samsung เพื่อให้ได้ความเร็วที่เหนือกว่า พร้อมกับการใช้เทคนิค 2.5D stacking ผ่าน iCube interposer ที่ช่วยให้การส่งพลังงานและข้อมูลภายในชิปมีประสิทธิภาพมากขึ้น

    Power11 ยังคงใช้โครงสร้างพื้นฐานจาก Power10 ด้วยจำนวน 16 คอร์ต่อชิป และแคช 160MB แต่สามารถขยายเป็นระบบ dual socket ที่มีได้ถึง 60 คอร์ และความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz ซึ่งเหมาะกับงานเซิร์ฟเวอร์ที่ต้องการประสิทธิภาพสูง

    ที่น่าตื่นเต้นคือการฝังหน่วย Multiply-Matrix-Accumulator (MMA) ไว้ในแต่ละคอร์ เพื่อรองรับงาน AI โดยไม่ต้องพึ่ง GPU เสมอไป และยังสามารถเชื่อมต่อกับ Spyre Accelerator เพื่อเพิ่มพลังการประมวลผล AI ได้อีก

    ด้านหน่วยความจำก็มีการเปลี่ยนแปลงครั้งใหญ่ โดย Power11 รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต ซึ่งมากกว่า Power10 ถึง 4 เท่า ทั้งในด้านแบนด์วิดท์และความจุ และยังรองรับ DDR4 และเตรียมพร้อมสำหรับ DDR6 ในอนาคต

    สุดท้าย IBM ยังได้ฝังระบบ Quantum Safe Security เพื่อเตรียมรับมือกับภัยคุกคามจากการประมวลผลควอนตัมในอนาคต ซึ่งเป็นการป้องกันข้อมูลในระดับที่ลึกกว่าเดิม และเริ่มนำไปใช้ในระบบ Z mainframe แล้ว

    สรุปเนื้อหาเป็นหัวข้อ
    IBM เปิดตัว Power11 CPU ในงาน Hot Chips 2025 พร้อมเทคโนโลยี 2.5D stacking จาก Samsung
    ใช้ enhanced 7nm node แทนการเปลี่ยนไปใช้ 5nm เพื่อเน้นความเร็วมากกว่าความหนาแน่น
    มี 16 คอร์ต่อชิป และแคช 160MB พร้อมรองรับ dual socket สูงสุด 60 คอร์
    ความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz สำหรับงานเซิร์ฟเวอร์ที่ต้องการ throughput สูง
    ฝังหน่วย Multiply-Matrix-Accumulator (MMA) เพื่อรองรับงาน AI โดยตรง
    รองรับ Spyre Accelerator สำหรับการประมวลผล AI เพิ่มเติมผ่าน GPU หรือ ASIC
    ประสิทธิภาพเพิ่มขึ้น 50% ในระบบขนาดเล็ก, 30% ในระดับกลาง และ 14% ในระดับสูง
    รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต เพิ่มแบนด์วิดท์และความจุ 4 เท่าจาก Power10
    รองรับทั้ง DDR4 และ DDR5 พร้อมเตรียมรองรับ DDR6 ในอนาคต
    ฝังระบบ Quantum Safe Security เพื่อป้องกันภัยจากการประมวลผลควอนตัม
    IBM เตรียมเปิดตัว CPU รุ่นถัดไปที่ใช้ triplet architecture และนวัตกรรมด้านความร้อน

    ข้อมูลเสริมจากภายนอก
    IBM เลือกใช้ iCube interposer จาก Samsung เพื่อเพิ่มประสิทธิภาพการส่งพลังงานภายในชิป
    OMI Memory Architecture ของ Power11 รองรับแบนด์วิดท์สูงถึง 1200 GB/s และความจุ 8TB ต่อซ็อกเก็ต
    IBM ไม่เน้นใช้ HBM เพราะแม้จะเร็วแต่มีข้อจำกัดด้านความจุ
    Power11 รองรับการเชื่อมต่อ PCIe กับ accelerator ภายนอกอย่าง Spyre ได้อย่างยืดหยุ่น
    ระบบความปลอดภัย Quantum Safe เริ่มนำไปใช้ใน IBM Z mainframe แล้ว

    https://wccftech.com/ibm-power11-cpu-2-5d-stacking-enhanced-7nm-node-samsung-higher-clocks-memory/
    🧠 IBM Power11 – ซีพียูที่ไม่แค่แรง แต่ฉลาดและปลอดภัยในยุคหลังควอนตัม IBM ไม่ได้วิ่งตามเทรนด์เล็ก ๆ อย่างการลดขนาดชิปไปที่ 5nm แต่เลือกใช้เทคโนโลยี 7nm ที่ “ปรับแต่งแล้ว” จาก Samsung เพื่อให้ได้ความเร็วที่เหนือกว่า พร้อมกับการใช้เทคนิค 2.5D stacking ผ่าน iCube interposer ที่ช่วยให้การส่งพลังงานและข้อมูลภายในชิปมีประสิทธิภาพมากขึ้น Power11 ยังคงใช้โครงสร้างพื้นฐานจาก Power10 ด้วยจำนวน 16 คอร์ต่อชิป และแคช 160MB แต่สามารถขยายเป็นระบบ dual socket ที่มีได้ถึง 60 คอร์ และความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz ซึ่งเหมาะกับงานเซิร์ฟเวอร์ที่ต้องการประสิทธิภาพสูง ที่น่าตื่นเต้นคือการฝังหน่วย Multiply-Matrix-Accumulator (MMA) ไว้ในแต่ละคอร์ เพื่อรองรับงาน AI โดยไม่ต้องพึ่ง GPU เสมอไป และยังสามารถเชื่อมต่อกับ Spyre Accelerator เพื่อเพิ่มพลังการประมวลผล AI ได้อีก ด้านหน่วยความจำก็มีการเปลี่ยนแปลงครั้งใหญ่ โดย Power11 รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต ซึ่งมากกว่า Power10 ถึง 4 เท่า ทั้งในด้านแบนด์วิดท์และความจุ และยังรองรับ DDR4 และเตรียมพร้อมสำหรับ DDR6 ในอนาคต สุดท้าย IBM ยังได้ฝังระบบ Quantum Safe Security เพื่อเตรียมรับมือกับภัยคุกคามจากการประมวลผลควอนตัมในอนาคต ซึ่งเป็นการป้องกันข้อมูลในระดับที่ลึกกว่าเดิม และเริ่มนำไปใช้ในระบบ Z mainframe แล้ว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ IBM เปิดตัว Power11 CPU ในงาน Hot Chips 2025 พร้อมเทคโนโลยี 2.5D stacking จาก Samsung ➡️ ใช้ enhanced 7nm node แทนการเปลี่ยนไปใช้ 5nm เพื่อเน้นความเร็วมากกว่าความหนาแน่น ➡️ มี 16 คอร์ต่อชิป และแคช 160MB พร้อมรองรับ dual socket สูงสุด 60 คอร์ ➡️ ความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz สำหรับงานเซิร์ฟเวอร์ที่ต้องการ throughput สูง ➡️ ฝังหน่วย Multiply-Matrix-Accumulator (MMA) เพื่อรองรับงาน AI โดยตรง ➡️ รองรับ Spyre Accelerator สำหรับการประมวลผล AI เพิ่มเติมผ่าน GPU หรือ ASIC ➡️ ประสิทธิภาพเพิ่มขึ้น 50% ในระบบขนาดเล็ก, 30% ในระดับกลาง และ 14% ในระดับสูง ➡️ รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต เพิ่มแบนด์วิดท์และความจุ 4 เท่าจาก Power10 ➡️ รองรับทั้ง DDR4 และ DDR5 พร้อมเตรียมรองรับ DDR6 ในอนาคต ➡️ ฝังระบบ Quantum Safe Security เพื่อป้องกันภัยจากการประมวลผลควอนตัม ➡️ IBM เตรียมเปิดตัว CPU รุ่นถัดไปที่ใช้ triplet architecture และนวัตกรรมด้านความร้อน ✅ ข้อมูลเสริมจากภายนอก ➡️ IBM เลือกใช้ iCube interposer จาก Samsung เพื่อเพิ่มประสิทธิภาพการส่งพลังงานภายในชิป ➡️ OMI Memory Architecture ของ Power11 รองรับแบนด์วิดท์สูงถึง 1200 GB/s และความจุ 8TB ต่อซ็อกเก็ต ➡️ IBM ไม่เน้นใช้ HBM เพราะแม้จะเร็วแต่มีข้อจำกัดด้านความจุ ➡️ Power11 รองรับการเชื่อมต่อ PCIe กับ accelerator ภายนอกอย่าง Spyre ได้อย่างยืดหยุ่น ➡️ ระบบความปลอดภัย Quantum Safe เริ่มนำไปใช้ใน IBM Z mainframe แล้ว https://wccftech.com/ibm-power11-cpu-2-5d-stacking-enhanced-7nm-node-samsung-higher-clocks-memory/
    WCCFTECH.COM
    IBM Power11 CPU Brings 2.5D Stacking On Enhanced 7nm Node From Samsung, Higher Clocks, Memory Uplifts
    IBM detailed its Power11 CPU at Hot Chips 2025, bringing 2.5D Stacking, higher clock speeds, and memory with AI acceleration.
    0 Comments 0 Shares 200 Views 0 Reviews
  • เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้”

    ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง

    หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ”

    ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล

    แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090

    แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป

    สรุปเนื้อหาเป็นหัวข้อ
    Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202
    Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด
    Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070
    RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ
    Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090
    การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง
    ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้”
    ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน
    การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป

    ข้อมูลเสริมจากภายนอก
    GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC
    การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย
    Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling
    Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม
    ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์

    https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    🎙️ เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้” ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ” ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090 แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202 ➡️ Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด ➡️ Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070 ➡️ RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ ➡️ Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090 ➡️ การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง ➡️ ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 ➡️ Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้” ➡️ ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน ➡️ การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC ➡️ การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย ➡️ Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling ➡️ Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม ➡️ ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์ https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    0 Comments 0 Shares 192 Views 0 Reviews
  • มัลแวร์ที่สร้างโดย AI: ภัยเงียบที่ปรับตัวได้และไม่มีวันหยุด
    ในปี 2025 โลกไซเบอร์กำลังเผชิญกับศัตรูรูปแบบใหม่—มัลแวร์ที่สร้างโดย Generative AI (GenAI) ซึ่งสามารถเรียนรู้ ปรับเปลี่ยน และหลบหลีกระบบป้องกันได้อย่างมีประสิทธิภาพ

    CrowdStrike รายงานว่าแฮกเกอร์จากเกาหลีเหนือ รัสเซีย และอิหร่านใช้ AI สร้างมัลแวร์ที่สามารถเจาะระบบองค์กร สร้างเรซูเม่ปลอม และแม้แต่สัมภาษณ์งานด้วย deepfake เพื่อแฝงตัวเข้าไปในบริษัท

    มัลแวร์เหล่านี้ไม่เพียงแต่หลบหลีกการตรวจจับแบบเดิมได้ แต่ยังสามารถปรับเปลี่ยนตัวเองแบบ “polymorphic” คือเปลี่ยนโค้ดตลอดเวลาเพื่อไม่ให้ถูกจับได้

    AI ยังช่วยสร้างอีเมล phishing ที่เหมือนจริงมากจนผู้ใช้ทั่วไปแยกไม่ออก และสามารถวิเคราะห์ระบบเป้าหมายเพื่อหาช่องโหว่แบบเรียลไทม์

    สิ่งที่น่ากลัวที่สุดคือ “ไม่มีแพตช์” แบบเดิมที่จะแก้ไขได้ เพราะมัลแวร์เหล่านี้ไม่หยุดนิ่ง และสามารถปรับตัวตามการป้องกันที่องค์กรใช้

    ลักษณะของมัลแวร์ที่สร้างโดย AI
    ใช้ GenAI สร้างมัลแวร์ที่เรียนรู้และปรับเปลี่ยนตัวเองได้
    สามารถสร้าง deepfake เพื่อแฝงตัวในองค์กร
    ใช้ AI สร้าง phishing email ที่เหมือนจริงมาก
    ปรับโค้ดแบบ polymorphic เพื่อหลบหลีกการตรวจจับ
    วิเคราะห์ระบบเป้าหมายและปรับกลยุทธ์โจมตีแบบเรียลไทม์
    ไม่มีแพตช์แบบเดิมที่สามารถแก้ไขได้

    ข้อมูลเสริมจากภายนอก
    มัลแวร์ AI สามารถหลบเลี่ยงระบบ EDR โดยแฝงตัวใน process ของระบบ
    ใช้ adversarial ML เพื่อหลอกระบบตรวจจับพฤติกรรม
    แฮกเกอร์ระดับล่างสามารถใช้ AI สร้างมัลแวร์ได้โดยไม่ต้องมีความรู้ลึก
    การป้องกันต้องใช้ AI ฝั่งดีที่สามารถวิเคราะห์และตอบโต้แบบอัตโนมัติ
    Zero Trust Architecture และ Multi-Factor Authentication เป็นแนวทางป้องกันที่จำเป็น
    ระบบ NGAV และ AI-powered EDR เป็นเครื่องมือใหม่ที่องค์กรควรใช้

    https://www.thestar.com.my/tech/tech-news/2025/08/17/no-patch-available-ai-made-malware-could-overwhelm-cyber-defences
    🕷️ มัลแวร์ที่สร้างโดย AI: ภัยเงียบที่ปรับตัวได้และไม่มีวันหยุด ในปี 2025 โลกไซเบอร์กำลังเผชิญกับศัตรูรูปแบบใหม่—มัลแวร์ที่สร้างโดย Generative AI (GenAI) ซึ่งสามารถเรียนรู้ ปรับเปลี่ยน และหลบหลีกระบบป้องกันได้อย่างมีประสิทธิภาพ CrowdStrike รายงานว่าแฮกเกอร์จากเกาหลีเหนือ รัสเซีย และอิหร่านใช้ AI สร้างมัลแวร์ที่สามารถเจาะระบบองค์กร สร้างเรซูเม่ปลอม และแม้แต่สัมภาษณ์งานด้วย deepfake เพื่อแฝงตัวเข้าไปในบริษัท มัลแวร์เหล่านี้ไม่เพียงแต่หลบหลีกการตรวจจับแบบเดิมได้ แต่ยังสามารถปรับเปลี่ยนตัวเองแบบ “polymorphic” คือเปลี่ยนโค้ดตลอดเวลาเพื่อไม่ให้ถูกจับได้ AI ยังช่วยสร้างอีเมล phishing ที่เหมือนจริงมากจนผู้ใช้ทั่วไปแยกไม่ออก และสามารถวิเคราะห์ระบบเป้าหมายเพื่อหาช่องโหว่แบบเรียลไทม์ สิ่งที่น่ากลัวที่สุดคือ “ไม่มีแพตช์” แบบเดิมที่จะแก้ไขได้ เพราะมัลแวร์เหล่านี้ไม่หยุดนิ่ง และสามารถปรับตัวตามการป้องกันที่องค์กรใช้ ✅ ลักษณะของมัลแวร์ที่สร้างโดย AI ➡️ ใช้ GenAI สร้างมัลแวร์ที่เรียนรู้และปรับเปลี่ยนตัวเองได้ ➡️ สามารถสร้าง deepfake เพื่อแฝงตัวในองค์กร ➡️ ใช้ AI สร้าง phishing email ที่เหมือนจริงมาก ➡️ ปรับโค้ดแบบ polymorphic เพื่อหลบหลีกการตรวจจับ ➡️ วิเคราะห์ระบบเป้าหมายและปรับกลยุทธ์โจมตีแบบเรียลไทม์ ➡️ ไม่มีแพตช์แบบเดิมที่สามารถแก้ไขได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ มัลแวร์ AI สามารถหลบเลี่ยงระบบ EDR โดยแฝงตัวใน process ของระบบ ➡️ ใช้ adversarial ML เพื่อหลอกระบบตรวจจับพฤติกรรม ➡️ แฮกเกอร์ระดับล่างสามารถใช้ AI สร้างมัลแวร์ได้โดยไม่ต้องมีความรู้ลึก ➡️ การป้องกันต้องใช้ AI ฝั่งดีที่สามารถวิเคราะห์และตอบโต้แบบอัตโนมัติ ➡️ Zero Trust Architecture และ Multi-Factor Authentication เป็นแนวทางป้องกันที่จำเป็น ➡️ ระบบ NGAV และ AI-powered EDR เป็นเครื่องมือใหม่ที่องค์กรควรใช้ https://www.thestar.com.my/tech/tech-news/2025/08/17/no-patch-available-ai-made-malware-could-overwhelm-cyber-defences
    WWW.THESTAR.COM.MY
    No patch available: AI-made malware could overwhelm cyber-defences
    The "growing weaponisation" of generative artificial intelligence (GenAI) could make older forms of cybersecurity and virus scanning obsolete.
    0 Comments 0 Shares 198 Views 0 Reviews
  • ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน?

    Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6

    เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws

    แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม

    โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์
    ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6

    ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก
    ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M

    Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก
    มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์
    ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด

    Architecture ที่ใช้คือ GPT-style transformer 2–3 layers
    ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้

    ไม่ใช้ dropout หรือ mixture-of-experts
    เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด

    การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI
    เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud

    เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น
    รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma

    OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้
    มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง

    การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง
    เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token

    https://www.seangoedecke.com/model-on-a-mbp/
    🧠💻 ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน? Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6 เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม ✅ โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์ ➡️ ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6 ✅ ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก ➡️ ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M ✅ Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก ➡️ มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย ✅ ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ➡️ ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด ✅ Architecture ที่ใช้คือ GPT-style transformer 2–3 layers ➡️ ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้ ✅ ไม่ใช้ dropout หรือ mixture-of-experts ➡️ เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด ✅ การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI ➡️ เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud ✅ เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น ➡️ รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma ✅ OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้ ➡️ มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง ✅ การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง ➡️ เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token https://www.seangoedecke.com/model-on-a-mbp/
    0 Comments 0 Shares 282 Views 0 Reviews
  • เมื่อ AI เขียนโค้ดได้เก่งกว่ามนุษย์ แล้วนักพัฒนาจะอยู่ตรงไหนในโลกใหม่ของการเขียนโปรแกรม?

    ผลสำรวจจาก Clutch และ Stack Overflow ปี 2025 เผยว่า 53% ของนักพัฒนามองว่า AI โดยเฉพาะ LLMs (Large Language Models) สามารถเขียนโค้ดได้ดีกว่ามนุษย์ทั่วไป และ 80% ใช้ AI coding tools เป็นส่วนหนึ่งของ workflow ประจำวัน

    แม้จะมีความนิยมเพิ่มขึ้น แต่ความเชื่อมั่นกลับลดลงอย่างเห็นได้ชัด โดยมีเพียง 29% ที่เชื่อมั่นในความถูกต้องของโค้ดที่ AI สร้างขึ้น และ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก เพราะมันสร้าง bug ที่ยากต่อการตรวจจับ

    นักพัฒนาหลายคนยังคงใช้ AI เพราะมันช่วยเพิ่ม productivity ได้จริง โดยเฉพาะในงานที่ซ้ำซาก เช่น boilerplate code หรือการแปลงโครงสร้างข้อมูล แต่เมื่อพูดถึงงานที่ซับซ้อน เช่น system architecture หรือ security-critical code นักพัฒนายังต้องการ “มนุษย์อีกคน” เพื่อช่วยตรวจสอบ

    GitHub CEO ยังกล่าวว่า “นักพัฒนาในอนาคตไม่ใช่คนพิมพ์โค้ด แต่เป็น creative director ของโค้ด” และคาดว่า 90% ของการเขียนโค้ดจะถูก AI ทำแทนภายใน 5 ปี

    53% ของนักพัฒนาเชื่อว่า AI เขียนโค้ดได้ดีกว่ามนุษย์
    โดยเฉพาะในงานที่ซ้ำซากและโครงสร้างพื้นฐาน

    80% ของนักพัฒนาใช้ AI coding tools เป็นประจำ
    เช่น GitHub Copilot, Amazon CodeWhisperer, ChatGPT

    45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก
    สร้าง bug ที่ยากต่อการตรวจจับ โดยเฉพาะสำหรับนักพัฒนาใหม่

    75% ของนักพัฒนาเลือกถามมนุษย์เมื่อไม่มั่นใจในคำตอบของ AI
    แสดงถึงความต้องการ human verification ในระบบที่สำคัญ

    GitHub คาดว่า 90% ของโค้ดจะถูก AI เขียนภายใน 5 ปี
    นักพัฒนาต้องเปลี่ยนบทบาทเป็นผู้ออกแบบและควบคุมคุณภาพ

    79% เชื่อว่าทักษะด้าน AI จะกลายเป็นข้อกำหนดพื้นฐานของนักพัฒนา
    และ 45% มองว่า AI จะลดอุปสรรคสำหรับนักพัฒนาใหม่

    Stack Overflow พบว่า 46% ของนักพัฒนาไม่เชื่อมั่นในความถูกต้องของ AI
    โดยเฉพาะในงานที่ซับซ้อนหรือมีความเสี่ยงสูง

    “Vibe coding” หรือการใช้ prompt สร้างแอปทั้งตัวยังไม่เป็นที่ยอมรับ
    72% ของนักพัฒนาไม่ใช้แนวทางนี้ในงานจริง

    AI coding tools ช่วยให้เรียนรู้ภาษาใหม่และเทคนิคใหม่ได้เร็วขึ้น
    44% ของนักพัฒนาใช้ AI เพื่อเรียนรู้สิ่งใหม่ในปีที่ผ่านมา

    การใช้ AI อย่างมีสติ เช่น “sparring partner” ช่วยพัฒนาทักษะได้จริง
    ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ช่วยในการคิดและแก้ปัญหา

    โค้ดจาก AI ที่ “เกือบถูก” อาจสร้าง bug ที่ยากต่อการตรวจสอบ
    โดยเฉพาะในระบบที่มีความเสี่ยงสูง เช่น security หรือ backend

    ความเชื่อมั่นใน AI ลดลงจาก 40% เหลือเพียง 29% ในปี 2025
    แสดงถึงความกังวลเรื่องคุณภาพและความน่าเชื่อถือ

    นักพัฒนาใหม่อาจพึ่ง AI มากเกินไปจนขาดความเข้าใจพื้นฐาน
    เสี่ยงต่อการสร้างระบบที่ไม่มีความมั่นคงหรือยืดหยุ่น

    ตลาดงานระดับเริ่มต้นอาจหายไปเมื่อ AI เขียนโค้ดแทน
    หากไม่มีการฝึกฝนและพัฒนา นักพัฒนาอาจถูกแทนที่โดยสมบูรณ์

    https://www.techradar.com/pro/are-you-better-at-coding-than-ai-developers-dont-think-so
    🧠💻 เมื่อ AI เขียนโค้ดได้เก่งกว่ามนุษย์ แล้วนักพัฒนาจะอยู่ตรงไหนในโลกใหม่ของการเขียนโปรแกรม? ผลสำรวจจาก Clutch และ Stack Overflow ปี 2025 เผยว่า 53% ของนักพัฒนามองว่า AI โดยเฉพาะ LLMs (Large Language Models) สามารถเขียนโค้ดได้ดีกว่ามนุษย์ทั่วไป และ 80% ใช้ AI coding tools เป็นส่วนหนึ่งของ workflow ประจำวัน แม้จะมีความนิยมเพิ่มขึ้น แต่ความเชื่อมั่นกลับลดลงอย่างเห็นได้ชัด โดยมีเพียง 29% ที่เชื่อมั่นในความถูกต้องของโค้ดที่ AI สร้างขึ้น และ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก เพราะมันสร้าง bug ที่ยากต่อการตรวจจับ นักพัฒนาหลายคนยังคงใช้ AI เพราะมันช่วยเพิ่ม productivity ได้จริง โดยเฉพาะในงานที่ซ้ำซาก เช่น boilerplate code หรือการแปลงโครงสร้างข้อมูล แต่เมื่อพูดถึงงานที่ซับซ้อน เช่น system architecture หรือ security-critical code นักพัฒนายังต้องการ “มนุษย์อีกคน” เพื่อช่วยตรวจสอบ GitHub CEO ยังกล่าวว่า “นักพัฒนาในอนาคตไม่ใช่คนพิมพ์โค้ด แต่เป็น creative director ของโค้ด” และคาดว่า 90% ของการเขียนโค้ดจะถูก AI ทำแทนภายใน 5 ปี ✅ 53% ของนักพัฒนาเชื่อว่า AI เขียนโค้ดได้ดีกว่ามนุษย์ ➡️ โดยเฉพาะในงานที่ซ้ำซากและโครงสร้างพื้นฐาน ✅ 80% ของนักพัฒนาใช้ AI coding tools เป็นประจำ ➡️ เช่น GitHub Copilot, Amazon CodeWhisperer, ChatGPT ✅ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก ➡️ สร้าง bug ที่ยากต่อการตรวจจับ โดยเฉพาะสำหรับนักพัฒนาใหม่ ✅ 75% ของนักพัฒนาเลือกถามมนุษย์เมื่อไม่มั่นใจในคำตอบของ AI ➡️ แสดงถึงความต้องการ human verification ในระบบที่สำคัญ ✅ GitHub คาดว่า 90% ของโค้ดจะถูก AI เขียนภายใน 5 ปี ➡️ นักพัฒนาต้องเปลี่ยนบทบาทเป็นผู้ออกแบบและควบคุมคุณภาพ ✅ 79% เชื่อว่าทักษะด้าน AI จะกลายเป็นข้อกำหนดพื้นฐานของนักพัฒนา ➡️ และ 45% มองว่า AI จะลดอุปสรรคสำหรับนักพัฒนาใหม่ ✅ Stack Overflow พบว่า 46% ของนักพัฒนาไม่เชื่อมั่นในความถูกต้องของ AI ➡️ โดยเฉพาะในงานที่ซับซ้อนหรือมีความเสี่ยงสูง ✅ “Vibe coding” หรือการใช้ prompt สร้างแอปทั้งตัวยังไม่เป็นที่ยอมรับ ➡️ 72% ของนักพัฒนาไม่ใช้แนวทางนี้ในงานจริง ✅ AI coding tools ช่วยให้เรียนรู้ภาษาใหม่และเทคนิคใหม่ได้เร็วขึ้น ➡️ 44% ของนักพัฒนาใช้ AI เพื่อเรียนรู้สิ่งใหม่ในปีที่ผ่านมา ✅ การใช้ AI อย่างมีสติ เช่น “sparring partner” ช่วยพัฒนาทักษะได้จริง ➡️ ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ช่วยในการคิดและแก้ปัญหา ‼️ โค้ดจาก AI ที่ “เกือบถูก” อาจสร้าง bug ที่ยากต่อการตรวจสอบ ⛔ โดยเฉพาะในระบบที่มีความเสี่ยงสูง เช่น security หรือ backend ‼️ ความเชื่อมั่นใน AI ลดลงจาก 40% เหลือเพียง 29% ในปี 2025 ⛔ แสดงถึงความกังวลเรื่องคุณภาพและความน่าเชื่อถือ ‼️ นักพัฒนาใหม่อาจพึ่ง AI มากเกินไปจนขาดความเข้าใจพื้นฐาน ⛔ เสี่ยงต่อการสร้างระบบที่ไม่มีความมั่นคงหรือยืดหยุ่น ‼️ ตลาดงานระดับเริ่มต้นอาจหายไปเมื่อ AI เขียนโค้ดแทน ⛔ หากไม่มีการฝึกฝนและพัฒนา นักพัฒนาอาจถูกแทนที่โดยสมบูรณ์ https://www.techradar.com/pro/are-you-better-at-coding-than-ai-developers-dont-think-so
    0 Comments 0 Shares 338 Views 0 Reviews
  • เรื่องเล่าจากโลกปลอมที่เหมือนจริง: เมื่อ AI ถูกใช้สร้างเว็บรัฐบาลปลอมเพื่อหลอกประชาชน

    ในบราซิล นักวิจัยจาก ThreatLabz พบว่ามีการใช้ Generative AI สร้างเว็บไซต์ปลอมที่เลียนแบบเว็บของหน่วยงานรัฐบาลอย่างแนบเนียน โดยเฉพาะเว็บไซต์ของกรมการขนส่งและกระทรวงศึกษาธิการ ซึ่งถูกใช้เพื่อหลอกขโมยข้อมูลส่วนตัวและเงินจากประชาชน

    เว็บไซต์ปลอมเหล่านี้มีหน้าตาเหมือนของจริงแทบทุกจุด ยกเว้นแค่ URL ที่เปลี่ยนเล็กน้อย เช่น “govbrs[.]com” แทนที่จะเป็น “gov.br” และยังใช้เทคนิค SEO poisoning เพื่อดันอันดับใน Google ให้ขึ้นมาอยู่บนสุด ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บจริง

    เมื่อเหยื่อเข้าเว็บ พวกเขาจะถูกขอให้กรอกหมายเลข CPF (คล้ายเลขบัตรประชาชน) และข้อมูลส่วนตัวอื่น ๆ ก่อนจะถูกหลอกให้จ่ายเงินผ่านระบบ Pix ซึ่งเงินจะถูกส่งตรงไปยังบัญชีของแฮกเกอร์

    ที่น่าตกใจคือ โค้ดของเว็บไซต์ปลอมเหล่านี้มีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite AI โดยมีการใช้ TailwindCSS และคำอธิบายโค้ดที่เป็น template ซึ่งบ่งชี้ว่าแฮกเกอร์ใช้ prompt เพื่อสั่งให้ AI “สร้างเว็บที่เหมือนของจริง”

    แฮกเกอร์ใช้ Generative AI สร้างเว็บไซต์ปลอมเลียนแบบเว็บรัฐบาลบราซิล
    เช่น เว็บกรมการขนส่งและกระทรวงศึกษาธิการ

    ใช้ URL ปลอมที่คล้ายของจริง เช่น govbrs[.]com
    ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บทางการ

    ใช้เทคนิค SEO poisoning เพื่อดันเว็บปลอมขึ้นอันดับต้น ๆ
    เพิ่มความน่าเชื่อถือและโอกาสในการหลอกเหยื่อ

    เหยื่อต้องกรอกหมายเลข CPF และข้อมูลส่วนตัว
    ก่อนถูกหลอกให้จ่ายเงินผ่านระบบ Pix

    โค้ดของเว็บปลอมมีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite
    มีการใช้ TailwindCSS และคำอธิบายโค้ดแบบ template

    นักวิจัยเตือนว่าแม้ตอนนี้จะขโมยเงินไม่มาก แต่มีศักยภาพในการสร้างความเสียหายมหาศาล
    แนะนำให้ใช้ Zero Trust architecture และ best practices เพื่อป้องกัน

    https://www.techradar.com/pro/security/hackers-are-now-mimicking-government-websites-using-ai-everything-you-need-to-know-to-stay-safe
    🌐🕵️‍♂️ เรื่องเล่าจากโลกปลอมที่เหมือนจริง: เมื่อ AI ถูกใช้สร้างเว็บรัฐบาลปลอมเพื่อหลอกประชาชน ในบราซิล นักวิจัยจาก ThreatLabz พบว่ามีการใช้ Generative AI สร้างเว็บไซต์ปลอมที่เลียนแบบเว็บของหน่วยงานรัฐบาลอย่างแนบเนียน โดยเฉพาะเว็บไซต์ของกรมการขนส่งและกระทรวงศึกษาธิการ ซึ่งถูกใช้เพื่อหลอกขโมยข้อมูลส่วนตัวและเงินจากประชาชน เว็บไซต์ปลอมเหล่านี้มีหน้าตาเหมือนของจริงแทบทุกจุด ยกเว้นแค่ URL ที่เปลี่ยนเล็กน้อย เช่น “govbrs[.]com” แทนที่จะเป็น “gov.br” และยังใช้เทคนิค SEO poisoning เพื่อดันอันดับใน Google ให้ขึ้นมาอยู่บนสุด ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บจริง เมื่อเหยื่อเข้าเว็บ พวกเขาจะถูกขอให้กรอกหมายเลข CPF (คล้ายเลขบัตรประชาชน) และข้อมูลส่วนตัวอื่น ๆ ก่อนจะถูกหลอกให้จ่ายเงินผ่านระบบ Pix ซึ่งเงินจะถูกส่งตรงไปยังบัญชีของแฮกเกอร์ ที่น่าตกใจคือ โค้ดของเว็บไซต์ปลอมเหล่านี้มีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite AI โดยมีการใช้ TailwindCSS และคำอธิบายโค้ดที่เป็น template ซึ่งบ่งชี้ว่าแฮกเกอร์ใช้ prompt เพื่อสั่งให้ AI “สร้างเว็บที่เหมือนของจริง” ✅ แฮกเกอร์ใช้ Generative AI สร้างเว็บไซต์ปลอมเลียนแบบเว็บรัฐบาลบราซิล ➡️ เช่น เว็บกรมการขนส่งและกระทรวงศึกษาธิการ ✅ ใช้ URL ปลอมที่คล้ายของจริง เช่น govbrs[.]com ➡️ ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บทางการ ✅ ใช้เทคนิค SEO poisoning เพื่อดันเว็บปลอมขึ้นอันดับต้น ๆ ➡️ เพิ่มความน่าเชื่อถือและโอกาสในการหลอกเหยื่อ ✅ เหยื่อต้องกรอกหมายเลข CPF และข้อมูลส่วนตัว ➡️ ก่อนถูกหลอกให้จ่ายเงินผ่านระบบ Pix ✅ โค้ดของเว็บปลอมมีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite ➡️ มีการใช้ TailwindCSS และคำอธิบายโค้ดแบบ template ✅ นักวิจัยเตือนว่าแม้ตอนนี้จะขโมยเงินไม่มาก แต่มีศักยภาพในการสร้างความเสียหายมหาศาล ➡️ แนะนำให้ใช้ Zero Trust architecture และ best practices เพื่อป้องกัน https://www.techradar.com/pro/security/hackers-are-now-mimicking-government-websites-using-ai-everything-you-need-to-know-to-stay-safe
    WWW.TECHRADAR.COM
    Hackers are now mimicking government websites using AI - everything you need to know to stay safe
    Multiple Brazilian government sites were cloned, and more could be on the way
    0 Comments 0 Shares 299 Views 0 Reviews
  • เรื่องเล่าจากห้องประชุม: CISO ผู้นำความมั่นคงไซเบอร์ที่องค์กรยุคใหม่ขาดไม่ได้

    ในยุคที่ข้อมูลคือทรัพย์สินที่มีค่าที่สุดขององค์กร ตำแหน่ง “CISO” หรือ Chief Information Security Officer จึงกลายเป็นหนึ่งในบทบาทที่สำคัญที่สุดในระดับผู้บริหาร โดยมีหน้าที่ดูแลความปลอดภัยของข้อมูลและระบบดิจิทัลทั้งหมดขององค์กร

    แต่รู้ไหมว่า...มีเพียง 45% ของบริษัทในอเมริกาเหนือเท่านั้นที่มี CISO และในบริษัทที่มีรายได้เกินพันล้านดอลลาร์ ตัวเลขนี้ลดลงเหลือเพียง 15%! หลายองค์กรยังมองว่า cybersecurity เป็นแค่ต้นทุนด้าน IT ไม่ใช่ความเสี่ยงเชิงกลยุทธ์ ทำให้ CISO บางคนต้องรายงานต่อ CIO หรือ CSO แทนที่จะได้ที่นั่งในห้องประชุมผู้บริหาร

    CISO ที่มีอำนาจจริงจะต้องรับผิดชอบตั้งแต่การวางนโยบายความปลอดภัย การจัดการความเสี่ยง การตอบสนองเหตุการณ์ ไปจนถึงการสื่อสารกับบอร์ดและผู้ถือหุ้น พวกเขาต้องมีทั้งความรู้ด้านเทคนิค เช่น DNS, VPN, firewall และความเข้าใจในกฎหมายอย่าง GDPR, HIPAA, SOX รวมถึงทักษะการบริหารและการสื่อสารเชิงธุรกิจ

    ในปี 2025 บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI, การควบรวมกิจการ และการเปลี่ยนผ่านดิจิทัล ทำให้พวกเขากลายเป็น “ผู้ขับเคลื่อนกลยุทธ์องค์กร” ไม่ใช่แค่ “ผู้เฝ้าประตูระบบ”

    CISO คือผู้บริหารระดับสูงที่รับผิดชอบด้านความปลอดภัยของข้อมูล
    ดูแลทั้งระบบ IT, นโยบาย, การตอบสนองเหตุการณ์ และการบริหารความเสี่ยง

    มีเพียง 45% ของบริษัทในอเมริกาเหนือที่มี CISO
    และเพียง 15% ของบริษัทที่มีรายได้เกิน $1B ที่มี CISO ในระดับ C-suite

    CISO ที่รายงานตรงต่อ CEO หรือบอร์ดจะมีอิทธิพลมากกว่า
    ช่วยให้การตัดสินใจด้านความปลอดภัยมีน้ำหนักในเชิงกลยุทธ์

    หน้าที่หลักของ CISO ได้แก่:
    Security operations, Cyber risk, Data loss prevention, Architecture, IAM, Program management, Forensics, Governance

    คุณสมบัติของ CISO ที่ดีต้องมีทั้งพื้นฐานเทคนิคและทักษะธุรกิจ
    เช่น ความเข้าใจใน DNS, VPN, ethical hacking, compliance และการสื่อสารกับผู้บริหาร

    บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI และการควบรวมกิจการ
    ทำให้กลายเป็นผู้ขับเคลื่อนกลยุทธ์องค์กร ไม่ใช่แค่ฝ่ายเทคนิค

    มีการแบ่งประเภท CISO เป็น 3 กลุ่ม: Strategic, Functional, Tactical
    Strategic CISO มีอิทธิพลสูงสุดในองค์กรและได้รับค่าตอบแทนสูง

    ความท้าทายใหม่ของ CISO ได้แก่ภัยคุกคามจาก AI, ransomware และ social engineering
    ต้องใช้แนวทางป้องกันที่ปรับตัวได้และเน้นการฝึกอบรมพนักงาน

    การมี CISO ที่มี visibility ในบอร์ดช่วยเพิ่มความพึงพอใจในงานและโอกาสเติบโต
    เช่น การสร้างความสัมพันธ์กับบอร์ดนอกการประชุม

    https://www.csoonline.com/article/566757/what-is-a-ciso-responsibilities-and-requirements-for-this-vital-leadership-role.html
    🛡️🏢 เรื่องเล่าจากห้องประชุม: CISO ผู้นำความมั่นคงไซเบอร์ที่องค์กรยุคใหม่ขาดไม่ได้ ในยุคที่ข้อมูลคือทรัพย์สินที่มีค่าที่สุดขององค์กร ตำแหน่ง “CISO” หรือ Chief Information Security Officer จึงกลายเป็นหนึ่งในบทบาทที่สำคัญที่สุดในระดับผู้บริหาร โดยมีหน้าที่ดูแลความปลอดภัยของข้อมูลและระบบดิจิทัลทั้งหมดขององค์กร แต่รู้ไหมว่า...มีเพียง 45% ของบริษัทในอเมริกาเหนือเท่านั้นที่มี CISO และในบริษัทที่มีรายได้เกินพันล้านดอลลาร์ ตัวเลขนี้ลดลงเหลือเพียง 15%! หลายองค์กรยังมองว่า cybersecurity เป็นแค่ต้นทุนด้าน IT ไม่ใช่ความเสี่ยงเชิงกลยุทธ์ ทำให้ CISO บางคนต้องรายงานต่อ CIO หรือ CSO แทนที่จะได้ที่นั่งในห้องประชุมผู้บริหาร CISO ที่มีอำนาจจริงจะต้องรับผิดชอบตั้งแต่การวางนโยบายความปลอดภัย การจัดการความเสี่ยง การตอบสนองเหตุการณ์ ไปจนถึงการสื่อสารกับบอร์ดและผู้ถือหุ้น พวกเขาต้องมีทั้งความรู้ด้านเทคนิค เช่น DNS, VPN, firewall และความเข้าใจในกฎหมายอย่าง GDPR, HIPAA, SOX รวมถึงทักษะการบริหารและการสื่อสารเชิงธุรกิจ ในปี 2025 บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI, การควบรวมกิจการ และการเปลี่ยนผ่านดิจิทัล ทำให้พวกเขากลายเป็น “ผู้ขับเคลื่อนกลยุทธ์องค์กร” ไม่ใช่แค่ “ผู้เฝ้าประตูระบบ” ✅ CISO คือผู้บริหารระดับสูงที่รับผิดชอบด้านความปลอดภัยของข้อมูล ➡️ ดูแลทั้งระบบ IT, นโยบาย, การตอบสนองเหตุการณ์ และการบริหารความเสี่ยง ✅ มีเพียง 45% ของบริษัทในอเมริกาเหนือที่มี CISO ➡️ และเพียง 15% ของบริษัทที่มีรายได้เกิน $1B ที่มี CISO ในระดับ C-suite ✅ CISO ที่รายงานตรงต่อ CEO หรือบอร์ดจะมีอิทธิพลมากกว่า ➡️ ช่วยให้การตัดสินใจด้านความปลอดภัยมีน้ำหนักในเชิงกลยุทธ์ ✅ หน้าที่หลักของ CISO ได้แก่: ➡️ Security operations, Cyber risk, Data loss prevention, Architecture, IAM, Program management, Forensics, Governance ✅ คุณสมบัติของ CISO ที่ดีต้องมีทั้งพื้นฐานเทคนิคและทักษะธุรกิจ ➡️ เช่น ความเข้าใจใน DNS, VPN, ethical hacking, compliance และการสื่อสารกับผู้บริหาร ✅ บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI และการควบรวมกิจการ ➡️ ทำให้กลายเป็นผู้ขับเคลื่อนกลยุทธ์องค์กร ไม่ใช่แค่ฝ่ายเทคนิค ✅ มีการแบ่งประเภท CISO เป็น 3 กลุ่ม: Strategic, Functional, Tactical ➡️ Strategic CISO มีอิทธิพลสูงสุดในองค์กรและได้รับค่าตอบแทนสูง ✅ ความท้าทายใหม่ของ CISO ได้แก่ภัยคุกคามจาก AI, ransomware และ social engineering ➡️ ต้องใช้แนวทางป้องกันที่ปรับตัวได้และเน้นการฝึกอบรมพนักงาน ✅ การมี CISO ที่มี visibility ในบอร์ดช่วยเพิ่มความพึงพอใจในงานและโอกาสเติบโต ➡️ เช่น การสร้างความสัมพันธ์กับบอร์ดนอกการประชุม https://www.csoonline.com/article/566757/what-is-a-ciso-responsibilities-and-requirements-for-this-vital-leadership-role.html
    WWW.CSOONLINE.COM
    What is a CISO? The top IT security leader role explained
    The chief information security officer (CISO) is the executive responsible for an organization’s information and data security. Here’s what it takes to succeed in this role.
    0 Comments 0 Shares 364 Views 0 Reviews
  • เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029

    ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า

    Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth

    แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป

    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4
    เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC

    Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s
    ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น

    ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS
    เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด

    ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่
    ลด latency และเพิ่ม bandwidth ในการใช้งานจริง

    คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030
    ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC

    PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน
    เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่

    คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS
    ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization

    SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู
    ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้

    เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น
    ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต

    https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    🚀💾 เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029 ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป ✅ Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4 ➡️ เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC ✅ Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s ➡️ ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น ✅ ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS ➡️ เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด ✅ ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่ ➡️ ลด latency และเพิ่ม bandwidth ในการใช้งานจริง ✅ คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030 ➡️ ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC ✅ PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน ➡️ เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่ ✅ คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS ➡️ ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization ✅ SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู ➡️ ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้ ✅ เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น ➡️ ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    0 Comments 0 Shares 282 Views 0 Reviews
More Results