• เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง

    จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI

    แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ

    Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก

    ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก

    ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่”

    การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส
    32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy
    ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง
    ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ

    พฤติกรรมของนักพัฒนารุ่นใหม่
    มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน
    มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า
    มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ

    ความรู้สึกและแรงจูงใจ
    นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก
    นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ
    ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น

    ความตระหนักด้านสิ่งแวดล้อม
    80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด
    นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้
    เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่

    https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    🎙️ เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่” ✅ การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส ➡️ 32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy ➡️ ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง ➡️ ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ ✅ พฤติกรรมของนักพัฒนารุ่นใหม่ ➡️ มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน ➡️ มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า ➡️ มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ ✅ ความรู้สึกและแรงจูงใจ ➡️ นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก ➡️ นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ ➡️ ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น ✅ ความตระหนักด้านสิ่งแวดล้อม ➡️ 80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ➡️ นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ ➡️ เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่ https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    0 Comments 0 Shares 39 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 50 Views 0 Reviews
  • เรื่องเล่าจาก Sanity: เมื่อ AI กลายเป็นทีมงานที่ลืมทุกอย่างทุกเช้า แต่ยังช่วยให้เราส่งงานได้เร็วขึ้น 2–3 เท่า

    Vincent Quigley วิศวกรอาวุโสจาก Sanity ได้แชร์ประสบการณ์ 6 สัปดาห์ในการใช้ Claude Code ผ่าน Agent Client Protocol (ACP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้ AI agent ทำงานร่วมกับ editor ได้อย่างลื่นไหล โดยเฉพาะใน Zed editor ที่รองรับ Claude แบบ native แล้ว

    เขาเปรียบ Claude Code ว่าเป็น “นักพัฒนาฝึกหัดที่ลืมทุกอย่างทุกเช้า” และนั่นคือเหตุผลที่ workflow ของเขาเปลี่ยนไปอย่างสิ้นเชิง: ไม่ใช่การรอให้ AI สร้างโค้ดที่สมบูรณ์ในครั้งเดียว แต่คือการทำงานร่วมกันแบบ iterative ที่เริ่มจาก “95% ขยะ” แล้วค่อย ๆ refine จนกลายเป็นโค้ดที่ใช้ได้จริง

    Vincent ใช้ Claude.md เป็นไฟล์บริบทที่รวม architecture, pattern, gotchas และลิงก์เอกสาร เพื่อให้ Claude เริ่มต้นจาก attempt ที่สองแทนที่จะต้องอธิบายใหม่ทุกครั้ง และยังเชื่อม Claude เข้ากับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only เพื่อให้ AI เข้าใจระบบได้ลึกขึ้น

    เขายังใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา และใช้ multibuffer ใน Zed เพื่อ review โค้ดแบบ granular—เลือกได้ว่าจะรับหรือปฏิเสธแต่ละ hunk พร้อม task list ที่แสดงใน sidebar แบบ real-time

    แม้ Claude จะช่วย review โค้ดได้ดี แต่ Vincent ย้ำว่า “วิศวกรต้องรับผิดชอบโค้ดที่ตัวเองส่ง” ไม่ว่าจะเขียนเองหรือ AI เขียนให้ และการไม่มี emotional attachment กับโค้ดที่ไม่ได้พิมพ์เอง กลับทำให้ review ได้ตรงจุดและกล้าลบสิ่งที่ไม่ดีมากขึ้น

    วิธีทำงานร่วมกับ Claude Code
    ใช้ Claude.md เพื่อสร้างบริบทให้ AI เข้าใจระบบ
    เชื่อม Claude กับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only
    ใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา

    การทำงานใน Zed ผ่าน ACP
    Claude Code ทำงานแบบ native ผ่าน Agent Client Protocol (ACP)
    รองรับ multibuffer review, syntax highlight, และ task list ใน sidebar
    สามารถใช้ slash command เพื่อสร้าง workflow แบบกำหนดเอง

    กระบวนการ iterative ที่ใช้ Claude
    Attempt แรก: 95% ขยะ แต่ช่วยให้เข้าใจระบบ
    Attempt สอง: เริ่มมีโครงสร้างที่ใช้ได้
    Attempt สาม: ได้โค้ดที่สามารถนำไป iterate ต่อได้จริง

    การ review โค้ดที่ AI สร้าง
    Claude ช่วยตรวจ test coverage, bug และเสนอ improvement
    วิศวกรต้อง review และรับผิดชอบโค้ดที่ส่ง
    ไม่มี emotional attachment ทำให้ review ได้ตรงจุดและกล้าลบมากขึ้น

    ผลลัพธ์และต้นทุน
    ส่งงานได้เร็วขึ้น 2–3 เท่า
    ลดเวลาทำ boilerplate และงานซ้ำ
    ค่าใช้จ่ายประมาณ $1000–1500 ต่อเดือนต่อวิศวกรที่ใช้ AI เต็มรูปแบบ

    https://www.sanity.io/blog/first-attempt-will-be-95-garbage
    🎙️ เรื่องเล่าจาก Sanity: เมื่อ AI กลายเป็นทีมงานที่ลืมทุกอย่างทุกเช้า แต่ยังช่วยให้เราส่งงานได้เร็วขึ้น 2–3 เท่า Vincent Quigley วิศวกรอาวุโสจาก Sanity ได้แชร์ประสบการณ์ 6 สัปดาห์ในการใช้ Claude Code ผ่าน Agent Client Protocol (ACP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้ AI agent ทำงานร่วมกับ editor ได้อย่างลื่นไหล โดยเฉพาะใน Zed editor ที่รองรับ Claude แบบ native แล้ว เขาเปรียบ Claude Code ว่าเป็น “นักพัฒนาฝึกหัดที่ลืมทุกอย่างทุกเช้า” และนั่นคือเหตุผลที่ workflow ของเขาเปลี่ยนไปอย่างสิ้นเชิง: ไม่ใช่การรอให้ AI สร้างโค้ดที่สมบูรณ์ในครั้งเดียว แต่คือการทำงานร่วมกันแบบ iterative ที่เริ่มจาก “95% ขยะ” แล้วค่อย ๆ refine จนกลายเป็นโค้ดที่ใช้ได้จริง Vincent ใช้ Claude.md เป็นไฟล์บริบทที่รวม architecture, pattern, gotchas และลิงก์เอกสาร เพื่อให้ Claude เริ่มต้นจาก attempt ที่สองแทนที่จะต้องอธิบายใหม่ทุกครั้ง และยังเชื่อม Claude เข้ากับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only เพื่อให้ AI เข้าใจระบบได้ลึกขึ้น เขายังใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา และใช้ multibuffer ใน Zed เพื่อ review โค้ดแบบ granular—เลือกได้ว่าจะรับหรือปฏิเสธแต่ละ hunk พร้อม task list ที่แสดงใน sidebar แบบ real-time แม้ Claude จะช่วย review โค้ดได้ดี แต่ Vincent ย้ำว่า “วิศวกรต้องรับผิดชอบโค้ดที่ตัวเองส่ง” ไม่ว่าจะเขียนเองหรือ AI เขียนให้ และการไม่มี emotional attachment กับโค้ดที่ไม่ได้พิมพ์เอง กลับทำให้ review ได้ตรงจุดและกล้าลบสิ่งที่ไม่ดีมากขึ้น ✅ วิธีทำงานร่วมกับ Claude Code ➡️ ใช้ Claude.md เพื่อสร้างบริบทให้ AI เข้าใจระบบ ➡️ เชื่อม Claude กับ Linear, Notion, GitHub และฐานข้อมูลแบบ read-only ➡️ ใช้ Claude หลาย instance พร้อมกัน โดยแบ่งงานเป็นคนละปัญหา ✅ การทำงานใน Zed ผ่าน ACP ➡️ Claude Code ทำงานแบบ native ผ่าน Agent Client Protocol (ACP) ➡️ รองรับ multibuffer review, syntax highlight, และ task list ใน sidebar ➡️ สามารถใช้ slash command เพื่อสร้าง workflow แบบกำหนดเอง ✅ กระบวนการ iterative ที่ใช้ Claude ➡️ Attempt แรก: 95% ขยะ แต่ช่วยให้เข้าใจระบบ ➡️ Attempt สอง: เริ่มมีโครงสร้างที่ใช้ได้ ➡️ Attempt สาม: ได้โค้ดที่สามารถนำไป iterate ต่อได้จริง ✅ การ review โค้ดที่ AI สร้าง ➡️ Claude ช่วยตรวจ test coverage, bug และเสนอ improvement ➡️ วิศวกรต้อง review และรับผิดชอบโค้ดที่ส่ง ➡️ ไม่มี emotional attachment ทำให้ review ได้ตรงจุดและกล้าลบมากขึ้น ✅ ผลลัพธ์และต้นทุน ➡️ ส่งงานได้เร็วขึ้น 2–3 เท่า ➡️ ลดเวลาทำ boilerplate และงานซ้ำ ➡️ ค่าใช้จ่ายประมาณ $1000–1500 ต่อเดือนต่อวิศวกรที่ใช้ AI เต็มรูปแบบ https://www.sanity.io/blog/first-attempt-will-be-95-garbage
    WWW.SANITY.IO
    First attempt will be 95% garbage: A staff engineer's 6-week journey with Claude Code | Sanity
    This started as an internal Sanity workshop where I demoed how I actually use AI. Spoiler: it's running multiple agents like a small team with daily amnesia.
    0 Comments 0 Shares 60 Views 0 Reviews
  • The neoclassical architecture with a Portuguese influence style cover with the blue and white azulejo tiles wall
    The neoclassical architecture with a Portuguese influence style cover with the blue and white azulejo tiles wall
    0 Comments 0 Shares 40 Views 0 Reviews
  • เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch

    แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026

    ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays

    แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง

    Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่

    โครงสร้างของ Instinct MI500 UAL256
    ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs
    แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking
    ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray

    สถาปัตยกรรมของ Verano CPU
    ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่
    ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet
    ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ

    เทคโนโลยีการเชื่อมต่อภายในระบบ
    Vulcano switch ผลิตบน TSMC 3nm node
    รองรับ external throughput ระดับ 800G
    ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU

    แผนการเปิดตัว
    MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026
    MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027
    เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC

    https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    🎙️ เรื่องเล่าจาก UAL256: เมื่อ AMD สร้างระบบ rack-scale ที่ไม่ใช่แค่แรง แต่ “เชื่อมโยงทุกอย่าง” ด้วย Ultra Ethernet และ Vulcano switch แม้ AMD ยังไม่เปิดตัว Instinct MI400 อย่างเป็นทางการ แต่บริษัทก็เริ่มเผยโครงสร้างของรุ่นถัดไป—Instinct MI500 UAL256 ซึ่งเป็น rack-scale system รุ่นที่สอง ต่อจาก MI450X “Helios” ที่จะเปิดตัวในปี 2026 ในระบบ UAL256 แต่ละ compute node จะประกอบด้วย 1 CPU รหัส “Verano” ที่ใช้สถาปัตยกรรม Zen 7 และ 4 GPU รุ่น MI500 โดยรวมแล้ว Mega Pod หนึ่งชุดจะมี 64 CPU และ 256 GPU กระจายอยู่ในสองแร็คหลัก (32-node ต่อแร็ค) และเชื่อมต่อกันด้วยแร็คกลางที่มี 18 networking trays แต่ละ tray จะใช้ Vulcano switch ASICs จำนวน 4 ตัว ที่รองรับ throughput ระดับ 800G ต่อ tray และผลิตบนเทคโนโลยี 3nm ของ TSMC ซึ่งถือเป็นการยกระดับการเชื่อมต่อภายใน rack-scale system อย่างแท้จริง Verano CPU จะใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink และ Ultra Ethernet ซึ่งเป็นมาตรฐานใหม่ที่ AMD กำลังผลักดันให้เป็นโครงสร้างพื้นฐานของ AI/HPC ในยุคถัดไป โดยยังไม่ยืนยันว่าจะเพิ่มจำนวนคอร์เกิน 256 cores ต่อแพ็กเกจเหมือน Venice หรือไม่ ✅ โครงสร้างของ Instinct MI500 UAL256 ➡️ ประกอบด้วย 64 Verano CPUs และ 256 MI500 GPUs ➡️ แบ่งเป็นสองแร็คหลัก (32-node ต่อแร็ค) และแร็คกลางสำหรับ networking ➡️ ใช้ Vulcano switch ASICs ที่รองรับ 800G throughput ต่อ tray ✅ สถาปัตยกรรมของ Verano CPU ➡️ ใช้ Zen 7 microarchitecture ที่เน้น IPC และ instruction set ใหม่ ➡️ ยังคงใช้ Socket SP7 และรองรับ PCIe Gen 6, UALink, Ultra Ethernet ➡️ ยังไม่ยืนยันว่าจะเพิ่ม core count เกิน 256 cores ต่อแพ็กเกจ ✅ เทคโนโลยีการเชื่อมต่อภายในระบบ ➡️ Vulcano switch ผลิตบน TSMC 3nm node ➡️ รองรับ external throughput ระดับ 800G ➡️ ใช้ Ultra Ethernet เป็นโครงสร้างหลักในการเชื่อมต่อ GPU/CPU ✅ แผนการเปิดตัว ➡️ MI450X “Helios” จะเปิดตัวในครึ่งหลังของปี 2026 ➡️ MI500 UAL256 Mega Pod จะเปิดตัวในปี 2027 ➡️ เป็นระบบ rack-scale รุ่นที่สองของ AMD สำหรับ AI และ HPC https://www.techpowerup.com/340598/amd-instinct-mi500-ual256-mega-pod-to-scale-up-to-256-gpus-64-verano-cpus
    WWW.TECHPOWERUP.COM
    AMD Instinct MI500 UAL256 Mega Pod to Scale up to 256 GPUs, 64 "Verano" CPUs
    While AMD hasn't launched its upcoming Instinct MI400 series of accelerators yet, the company has started preparing its supply chain for what comes after. Thanks to SemiAnalysis, we have a clearer picture of what AMD's Instinct MI500 UAL256 rack will look like. At the base of each compute node, ther...
    0 Comments 0 Shares 69 Views 0 Reviews
  • เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ

    ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect

    สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว

    องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ

    บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง

    การเปลี่ยนแปลงของบทบาทในสายงาน IT
    ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI
    งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่
    บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว

    ทักษะใหม่ที่จำเป็นในยุค AI
    AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก
    ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน
    การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์

    การเปลี่ยนแปลงในระดับองค์กร
    CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์
    CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset
    การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น

    แนวโน้มการจ้างงานและการเติบโต
    92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI
    ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด
    การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน

    https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    🎙️ เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง ✅ การเปลี่ยนแปลงของบทบาทในสายงาน IT ➡️ ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI ➡️ งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่ ➡️ บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว ✅ ทักษะใหม่ที่จำเป็นในยุค AI ➡️ AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก ➡️ ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน ➡️ การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์ ✅ การเปลี่ยนแปลงในระดับองค์กร ➡️ CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์ ➡️ CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset ➡️ การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น ✅ แนวโน้มการจ้างงานและการเติบโต ➡️ 92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI ➡️ ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด ➡️ การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    US.RESOURCES.CSOONLINE.COM
    Spotlight report: IT careers in the AI era | Foundry Editorial
    Download the September 2025 issue of the Enterprise Spotlight from the editors of CIO, Computerworld, CSO, InfoWorld, and Network World.
    0 Comments 0 Shares 83 Views 0 Reviews
  • GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC

    ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm

    GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว

    หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C

    DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5

    สรุปเนื้อหาเป็นหัวข้อ
    NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก
    ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว
    CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB
    GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing
    ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32)
    รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA
    แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C
    มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU
    รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ
    ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM
    TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป
    DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่
    รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos

    ข้อมูลเสริมจากภายนอก
    DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud
    ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน
    NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก
    DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan
    ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency

    https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    🧠 GB10 Superchip – สมองกลระดับซูเปอร์คอมพิวเตอร์ในร่าง Mini PC ลองนึกภาพว่าคุณสามารถฝึกโมเดล AI ขนาด 200 พันล้านพารามิเตอร์ได้จากโต๊ะทำงานของคุณเอง โดยไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ขนาดใหญ่ นั่นคือสิ่งที่ NVIDIA พยายามทำให้เป็นจริงผ่าน DGX Spark ที่ใช้ GB10 Superchip ซึ่งรวม CPU และ GPU ไว้ในแพ็กเกจเดียวกันด้วยเทคโนโลยี 2.5D packaging บนสถาปัตยกรรม 3nm GB10 ประกอบด้วย 20 คอร์ ARM v9.2 แบ่งเป็น 2 กลุ่ม พร้อมแคช L2 ส่วนตัวและ L3 ขนาด 32MB รวม GPU Blackwell รุ่นใหม่ที่ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และรองรับ DLSS 4 กับ Ray Tracing ในตัว หน่วยความจำ LPDDR5x แบบ Unified Memory Architecture (UMA) ขนาด 128GB ทำให้ CPU และ GPU เข้าถึงข้อมูลร่วมกันได้อย่างรวดเร็ว โดยมีแบนด์วิดท์รวมสูงถึง 600 GB/s ผ่าน NVLINK C2C DGX Spark ยังรองรับการเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 NIC เพื่อขยายการประมวลผล AI ไปถึงโมเดลขนาด 405 พันล้านพารามิเตอร์ และสามารถใช้งานร่วมกับซอฟต์แวร์ AI เต็มรูปแบบของ NVIDIA เช่น CUDA, TensorRT, vLLM และ GR00T N1.5 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ NVIDIA เปิดตัว GB10 Superchip ในงาน Hot Chips 2025 สำหรับ DGX Spark – AI PC ขนาดเล็ก ➡️ ใช้เทคโนโลยี 3nm จาก TSMC และ 2.5D packaging รวม CPU และ GPU ในแพ็กเกจเดียว ➡️ CPU มี 20 คอร์ ARM v9.2 พร้อมแคช L2 และ L3 รวม 32MB ➡️ GPU ใช้สถาปัตยกรรม Blackwell พร้อม Tensor Core Gen 5 และ Ray Tracing ➡️ ให้พลังประมวลผล AI สูงถึง 1000 TOPS (FP4) และ 31 TFLOPs (FP32) ➡️ รองรับ LPDDR5x ความเร็ว 9400 MT/s ความจุสูงสุด 128GB แบบ UMA ➡️ แบนด์วิดท์รวมของระบบสูงถึง 600 GB/s ผ่าน NVLINK C2C ➡️ มี System Level Cache ขนาด 16MB สำหรับการแชร์ข้อมูลระหว่าง CPU และ GPU ➡️ รองรับการเชื่อมต่อ PCIe Gen5, USB, Ethernet และแสดงผล 4K/8K ได้หลายจอ ➡️ ระบบความปลอดภัยมี Dual Secure Root, fTPM และ discrete TPM ➡️ TDP ของชิปอยู่ที่ 140W เหมาะกับการใช้งานบนโต๊ะทำงานทั่วไป ➡️ DGX Spark สามารถเชื่อมต่อหลายเครื่องผ่าน ConnectX-7 เพื่อรองรับโมเดล AI ขนาดใหญ่ ➡️ รองรับการใช้งานร่วมกับโมเดล AI จาก Meta, Google, DeepSeek และ NVIDIA Cosmos ✅ ข้อมูลเสริมจากภายนอก ➡️ DGX Spark เป็นการต่อยอดจาก Project DIGITS และใช้แพลตฟอร์มเดียวกับ DGX Cloud ➡️ ขนาดเครื่องเล็กเพียง 150 x 150 x 50.5 มม. เหมาะกับการวางบนโต๊ะทำงาน ➡️ NVIDIA เตรียมขยาย GB10 ไปสู่แพลตฟอร์มผู้บริโภค เช่น N1X และ N1 SoC สำหรับโน้ตบุ๊ก ➡️ DGX Spark รองรับการใช้งานกับแพลตฟอร์ม Isaac, Metropolis และ Holoscan ➡️ ใช้ ConnectX NIC ผ่าน PCIe Gen5 x8 เพื่อเชื่อมต่อหลายระบบแบบ low-latency https://wccftech.com/nvidia-gb10-superchip-soc-3nm-20-arm-v9-2-cpu-cores-nvfp4-blackwell-gpu-lpddr5x-9400-memory-140w-tdp/
    WCCFTECH.COM
    NVIDIA Dissects Its GB10 Superchip For DGX AI PCs: 3nm With 20 ARM v9.2 CPU Cores, 1000 TOPS NVFP4 Blackwell GPU, LPDDR5x-9400 Memory Support, 140W TDP
    NVIDIA has just detailed its GB10 Superchip with Blackwell GPU, which is being used to power several DGX AI Mini supercomputers.
    0 Comments 0 Shares 186 Views 0 Reviews
  • IBM Power11 – ซีพียูที่ไม่แค่แรง แต่ฉลาดและปลอดภัยในยุคหลังควอนตัม

    IBM ไม่ได้วิ่งตามเทรนด์เล็ก ๆ อย่างการลดขนาดชิปไปที่ 5nm แต่เลือกใช้เทคโนโลยี 7nm ที่ “ปรับแต่งแล้ว” จาก Samsung เพื่อให้ได้ความเร็วที่เหนือกว่า พร้อมกับการใช้เทคนิค 2.5D stacking ผ่าน iCube interposer ที่ช่วยให้การส่งพลังงานและข้อมูลภายในชิปมีประสิทธิภาพมากขึ้น

    Power11 ยังคงใช้โครงสร้างพื้นฐานจาก Power10 ด้วยจำนวน 16 คอร์ต่อชิป และแคช 160MB แต่สามารถขยายเป็นระบบ dual socket ที่มีได้ถึง 60 คอร์ และความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz ซึ่งเหมาะกับงานเซิร์ฟเวอร์ที่ต้องการประสิทธิภาพสูง

    ที่น่าตื่นเต้นคือการฝังหน่วย Multiply-Matrix-Accumulator (MMA) ไว้ในแต่ละคอร์ เพื่อรองรับงาน AI โดยไม่ต้องพึ่ง GPU เสมอไป และยังสามารถเชื่อมต่อกับ Spyre Accelerator เพื่อเพิ่มพลังการประมวลผล AI ได้อีก

    ด้านหน่วยความจำก็มีการเปลี่ยนแปลงครั้งใหญ่ โดย Power11 รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต ซึ่งมากกว่า Power10 ถึง 4 เท่า ทั้งในด้านแบนด์วิดท์และความจุ และยังรองรับ DDR4 และเตรียมพร้อมสำหรับ DDR6 ในอนาคต

    สุดท้าย IBM ยังได้ฝังระบบ Quantum Safe Security เพื่อเตรียมรับมือกับภัยคุกคามจากการประมวลผลควอนตัมในอนาคต ซึ่งเป็นการป้องกันข้อมูลในระดับที่ลึกกว่าเดิม และเริ่มนำไปใช้ในระบบ Z mainframe แล้ว

    สรุปเนื้อหาเป็นหัวข้อ
    IBM เปิดตัว Power11 CPU ในงาน Hot Chips 2025 พร้อมเทคโนโลยี 2.5D stacking จาก Samsung
    ใช้ enhanced 7nm node แทนการเปลี่ยนไปใช้ 5nm เพื่อเน้นความเร็วมากกว่าความหนาแน่น
    มี 16 คอร์ต่อชิป และแคช 160MB พร้อมรองรับ dual socket สูงสุด 60 คอร์
    ความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz สำหรับงานเซิร์ฟเวอร์ที่ต้องการ throughput สูง
    ฝังหน่วย Multiply-Matrix-Accumulator (MMA) เพื่อรองรับงาน AI โดยตรง
    รองรับ Spyre Accelerator สำหรับการประมวลผล AI เพิ่มเติมผ่าน GPU หรือ ASIC
    ประสิทธิภาพเพิ่มขึ้น 50% ในระบบขนาดเล็ก, 30% ในระดับกลาง และ 14% ในระดับสูง
    รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต เพิ่มแบนด์วิดท์และความจุ 4 เท่าจาก Power10
    รองรับทั้ง DDR4 และ DDR5 พร้อมเตรียมรองรับ DDR6 ในอนาคต
    ฝังระบบ Quantum Safe Security เพื่อป้องกันภัยจากการประมวลผลควอนตัม
    IBM เตรียมเปิดตัว CPU รุ่นถัดไปที่ใช้ triplet architecture และนวัตกรรมด้านความร้อน

    ข้อมูลเสริมจากภายนอก
    IBM เลือกใช้ iCube interposer จาก Samsung เพื่อเพิ่มประสิทธิภาพการส่งพลังงานภายในชิป
    OMI Memory Architecture ของ Power11 รองรับแบนด์วิดท์สูงถึง 1200 GB/s และความจุ 8TB ต่อซ็อกเก็ต
    IBM ไม่เน้นใช้ HBM เพราะแม้จะเร็วแต่มีข้อจำกัดด้านความจุ
    Power11 รองรับการเชื่อมต่อ PCIe กับ accelerator ภายนอกอย่าง Spyre ได้อย่างยืดหยุ่น
    ระบบความปลอดภัย Quantum Safe เริ่มนำไปใช้ใน IBM Z mainframe แล้ว

    https://wccftech.com/ibm-power11-cpu-2-5d-stacking-enhanced-7nm-node-samsung-higher-clocks-memory/
    🧠 IBM Power11 – ซีพียูที่ไม่แค่แรง แต่ฉลาดและปลอดภัยในยุคหลังควอนตัม IBM ไม่ได้วิ่งตามเทรนด์เล็ก ๆ อย่างการลดขนาดชิปไปที่ 5nm แต่เลือกใช้เทคโนโลยี 7nm ที่ “ปรับแต่งแล้ว” จาก Samsung เพื่อให้ได้ความเร็วที่เหนือกว่า พร้อมกับการใช้เทคนิค 2.5D stacking ผ่าน iCube interposer ที่ช่วยให้การส่งพลังงานและข้อมูลภายในชิปมีประสิทธิภาพมากขึ้น Power11 ยังคงใช้โครงสร้างพื้นฐานจาก Power10 ด้วยจำนวน 16 คอร์ต่อชิป และแคช 160MB แต่สามารถขยายเป็นระบบ dual socket ที่มีได้ถึง 60 คอร์ และความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz ซึ่งเหมาะกับงานเซิร์ฟเวอร์ที่ต้องการประสิทธิภาพสูง ที่น่าตื่นเต้นคือการฝังหน่วย Multiply-Matrix-Accumulator (MMA) ไว้ในแต่ละคอร์ เพื่อรองรับงาน AI โดยไม่ต้องพึ่ง GPU เสมอไป และยังสามารถเชื่อมต่อกับ Spyre Accelerator เพื่อเพิ่มพลังการประมวลผล AI ได้อีก ด้านหน่วยความจำก็มีการเปลี่ยนแปลงครั้งใหญ่ โดย Power11 รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต ซึ่งมากกว่า Power10 ถึง 4 เท่า ทั้งในด้านแบนด์วิดท์และความจุ และยังรองรับ DDR4 และเตรียมพร้อมสำหรับ DDR6 ในอนาคต สุดท้าย IBM ยังได้ฝังระบบ Quantum Safe Security เพื่อเตรียมรับมือกับภัยคุกคามจากการประมวลผลควอนตัมในอนาคต ซึ่งเป็นการป้องกันข้อมูลในระดับที่ลึกกว่าเดิม และเริ่มนำไปใช้ในระบบ Z mainframe แล้ว 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ IBM เปิดตัว Power11 CPU ในงาน Hot Chips 2025 พร้อมเทคโนโลยี 2.5D stacking จาก Samsung ➡️ ใช้ enhanced 7nm node แทนการเปลี่ยนไปใช้ 5nm เพื่อเน้นความเร็วมากกว่าความหนาแน่น ➡️ มี 16 คอร์ต่อชิป และแคช 160MB พร้อมรองรับ dual socket สูงสุด 60 คอร์ ➡️ ความเร็วเพิ่มจาก 4.0 GHz เป็น 4.3 GHz สำหรับงานเซิร์ฟเวอร์ที่ต้องการ throughput สูง ➡️ ฝังหน่วย Multiply-Matrix-Accumulator (MMA) เพื่อรองรับงาน AI โดยตรง ➡️ รองรับ Spyre Accelerator สำหรับการประมวลผล AI เพิ่มเติมผ่าน GPU หรือ ASIC ➡️ ประสิทธิภาพเพิ่มขึ้น 50% ในระบบขนาดเล็ก, 30% ในระดับกลาง และ 14% ในระดับสูง ➡️ รองรับ DDR5 ได้ถึง 32 พอร์ตต่อซ็อกเก็ต เพิ่มแบนด์วิดท์และความจุ 4 เท่าจาก Power10 ➡️ รองรับทั้ง DDR4 และ DDR5 พร้อมเตรียมรองรับ DDR6 ในอนาคต ➡️ ฝังระบบ Quantum Safe Security เพื่อป้องกันภัยจากการประมวลผลควอนตัม ➡️ IBM เตรียมเปิดตัว CPU รุ่นถัดไปที่ใช้ triplet architecture และนวัตกรรมด้านความร้อน ✅ ข้อมูลเสริมจากภายนอก ➡️ IBM เลือกใช้ iCube interposer จาก Samsung เพื่อเพิ่มประสิทธิภาพการส่งพลังงานภายในชิป ➡️ OMI Memory Architecture ของ Power11 รองรับแบนด์วิดท์สูงถึง 1200 GB/s และความจุ 8TB ต่อซ็อกเก็ต ➡️ IBM ไม่เน้นใช้ HBM เพราะแม้จะเร็วแต่มีข้อจำกัดด้านความจุ ➡️ Power11 รองรับการเชื่อมต่อ PCIe กับ accelerator ภายนอกอย่าง Spyre ได้อย่างยืดหยุ่น ➡️ ระบบความปลอดภัย Quantum Safe เริ่มนำไปใช้ใน IBM Z mainframe แล้ว https://wccftech.com/ibm-power11-cpu-2-5d-stacking-enhanced-7nm-node-samsung-higher-clocks-memory/
    WCCFTECH.COM
    IBM Power11 CPU Brings 2.5D Stacking On Enhanced 7nm Node From Samsung, Higher Clocks, Memory Uplifts
    IBM detailed its Power11 CPU at Hot Chips 2025, bringing 2.5D Stacking, higher clock speeds, and memory with AI acceleration.
    0 Comments 0 Shares 179 Views 0 Reviews
  • เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้”

    ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง

    หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ”

    ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล

    แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090

    แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป

    สรุปเนื้อหาเป็นหัวข้อ
    Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202
    Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด
    Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070
    RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ
    Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090
    การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง
    ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้”
    ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน
    การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป

    ข้อมูลเสริมจากภายนอก
    GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC
    การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย
    Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling
    Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม
    ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์

    https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    🎙️ เมื่อ Noctua อยากทำ RTX 5090 รุ่นพิเศษ แต่ Nvidia บอกว่า “ไม่มีชิปให้” ถ้าคุณเป็นแฟนของ Noctua คุณคงรู้ดีว่าแบรนด์นี้ขึ้นชื่อเรื่องพัดลมสีน้ำตาลที่เงียบและเย็นสุดขั้ว ล่าสุดพวกเขาร่วมมือกับ ASUS เปิดตัว RTX 5080 Noctua Edition ที่มาพร้อมพัดลม NF-A12x25 G2 ถึง 3 ตัว และฮีตซิงก์ขนาดมหึมา 11 ท่อระบายความร้อน ซึ่งให้ผลลัพธ์ยอดเยี่ยมทั้งด้านอุณหภูมิและเสียง หลายคนจึงถามว่า “แล้วทำไมไม่มีรุ่น RTX 5090 Noctua Edition?” คำตอบจาก Noctua คือ “อยากทำมาก แต่ Nvidia ไม่มีชิป GB202 ให้พอ” ชิป GB202 เป็นหัวใจของ RTX 5090 และยังถูกใช้ในการ์ดระดับเวิร์กสเตชันอย่าง RTX Pro 6000 ด้วย ทำให้ความต้องการสูงมาก โดยเฉพาะในตลาด AI ที่มีการนำ RTX 5090 ไปดัดแปลงเป็นการ์ดสำหรับงานประมวลผล แม้ Noctua จะยังไม่ปิดประตูเสียทีเดียว พวกเขายังมีแผนออกแบบฮีตซิงก์ใหม่ที่อาจใช้ vapor chamber แบบเดียวกับ ROG Astral และเปลี่ยนท่อระบายความร้อนทั้งหมดเป็นขนาด 8 มม. เพื่อรองรับ TDP สูงถึง 575W ของ RTX 5090 แต่ในความเป็นจริง การ์ด RTX 5090 Noctua Edition อาจไม่เกิดขึ้นในเร็ว ๆ นี้ และถ้าเกิดขึ้นจริง ราคาก็อาจทะลุ $3,000 หรือมากกว่านั้น เพราะต้นทุนสูงและความหายากของชิป 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Noctua ต้องการผลิต RTX 5090 Noctua Edition แต่ติดปัญหาขาดแคลนชิป GB202 ➡️ Nvidia ใช้ GB202 ใน RTX 5090 และการ์ดเวิร์กสเตชัน RTX Pro 6000 ทำให้ชิปขาดตลาด ➡️ Noctua เคยผลิตการ์ดร่วมกับ ASUS เช่น RTX 5080, 4080 Super, 3080 และ 3070 ➡️ RTX 5080 Noctua Edition มีพัดลม 3 ตัวและฮีตซิงก์ 11 ท่อ ให้ผลลัพธ์เย็นและเงียบ ➡️ Noctua อาจใช้ vapor chamber และท่อ 8 มม. หากได้ผลิตรุ่น RTX 5090 ➡️ การ์ด RTX 5090 มี TDP สูงถึง 575W เหมาะกับระบบระบายความร้อนขั้นสูง ➡️ ราคาของ RTX 5080 Noctua Edition สูงถึง €1,649 ในยุโรป และอาจสูงกว่าสำหรับรุ่น 5090 ➡️ Noctua ยืนยันว่า “อยากทำ” แต่ “ตอนนี้ยังเป็นไปไม่ได้” ➡️ ความต้องการ GB202 สูงมากจากตลาด AI และเวิร์กสเตชัน ➡️ การ์ด RTX 5090 ยังมีราคาสูงกว่าราคาตั้ง (MSRP) หลายร้อยดอลลาร์ในตลาดทั่วไป ✅ ข้อมูลเสริมจากภายนอก ➡️ GB202 เป็นชิปที่ใช้ใน Blackwell architecture ซึ่งเน้นงาน AI และ HPC ➡️ การ์ด blower-style RTX 5090 ถูกนำไปใช้ในเซิร์ฟเวอร์ AI อย่างแพร่หลาย ➡️ Noctua มีชื่อเสียงด้านการระบายความร้อนแบบ air-cooling ที่เทียบเท่า water-cooling ➡️ Vapor chamber ช่วยกระจายความร้อนได้ดีกว่าท่อฮีตซิงก์แบบเดิม ➡️ ตลาด GPU ระดับสูงกำลังถูกแย่งชิปโดยอุตสาหกรรม AI มากกว่ากลุ่มเกมเมอร์ https://www.tomshardware.com/pc-components/gpus/noctua-says-nvidia-doesnt-have-enough-dies-to-make-big-brown-rtx-5090-rtx-5090-noctua-edition-may-never-see-the-light-of-day
    0 Comments 0 Shares 166 Views 0 Reviews
  • มัลแวร์ที่สร้างโดย AI: ภัยเงียบที่ปรับตัวได้และไม่มีวันหยุด
    ในปี 2025 โลกไซเบอร์กำลังเผชิญกับศัตรูรูปแบบใหม่—มัลแวร์ที่สร้างโดย Generative AI (GenAI) ซึ่งสามารถเรียนรู้ ปรับเปลี่ยน และหลบหลีกระบบป้องกันได้อย่างมีประสิทธิภาพ

    CrowdStrike รายงานว่าแฮกเกอร์จากเกาหลีเหนือ รัสเซีย และอิหร่านใช้ AI สร้างมัลแวร์ที่สามารถเจาะระบบองค์กร สร้างเรซูเม่ปลอม และแม้แต่สัมภาษณ์งานด้วย deepfake เพื่อแฝงตัวเข้าไปในบริษัท

    มัลแวร์เหล่านี้ไม่เพียงแต่หลบหลีกการตรวจจับแบบเดิมได้ แต่ยังสามารถปรับเปลี่ยนตัวเองแบบ “polymorphic” คือเปลี่ยนโค้ดตลอดเวลาเพื่อไม่ให้ถูกจับได้

    AI ยังช่วยสร้างอีเมล phishing ที่เหมือนจริงมากจนผู้ใช้ทั่วไปแยกไม่ออก และสามารถวิเคราะห์ระบบเป้าหมายเพื่อหาช่องโหว่แบบเรียลไทม์

    สิ่งที่น่ากลัวที่สุดคือ “ไม่มีแพตช์” แบบเดิมที่จะแก้ไขได้ เพราะมัลแวร์เหล่านี้ไม่หยุดนิ่ง และสามารถปรับตัวตามการป้องกันที่องค์กรใช้

    ลักษณะของมัลแวร์ที่สร้างโดย AI
    ใช้ GenAI สร้างมัลแวร์ที่เรียนรู้และปรับเปลี่ยนตัวเองได้
    สามารถสร้าง deepfake เพื่อแฝงตัวในองค์กร
    ใช้ AI สร้าง phishing email ที่เหมือนจริงมาก
    ปรับโค้ดแบบ polymorphic เพื่อหลบหลีกการตรวจจับ
    วิเคราะห์ระบบเป้าหมายและปรับกลยุทธ์โจมตีแบบเรียลไทม์
    ไม่มีแพตช์แบบเดิมที่สามารถแก้ไขได้

    ข้อมูลเสริมจากภายนอก
    มัลแวร์ AI สามารถหลบเลี่ยงระบบ EDR โดยแฝงตัวใน process ของระบบ
    ใช้ adversarial ML เพื่อหลอกระบบตรวจจับพฤติกรรม
    แฮกเกอร์ระดับล่างสามารถใช้ AI สร้างมัลแวร์ได้โดยไม่ต้องมีความรู้ลึก
    การป้องกันต้องใช้ AI ฝั่งดีที่สามารถวิเคราะห์และตอบโต้แบบอัตโนมัติ
    Zero Trust Architecture และ Multi-Factor Authentication เป็นแนวทางป้องกันที่จำเป็น
    ระบบ NGAV และ AI-powered EDR เป็นเครื่องมือใหม่ที่องค์กรควรใช้

    https://www.thestar.com.my/tech/tech-news/2025/08/17/no-patch-available-ai-made-malware-could-overwhelm-cyber-defences
    🕷️ มัลแวร์ที่สร้างโดย AI: ภัยเงียบที่ปรับตัวได้และไม่มีวันหยุด ในปี 2025 โลกไซเบอร์กำลังเผชิญกับศัตรูรูปแบบใหม่—มัลแวร์ที่สร้างโดย Generative AI (GenAI) ซึ่งสามารถเรียนรู้ ปรับเปลี่ยน และหลบหลีกระบบป้องกันได้อย่างมีประสิทธิภาพ CrowdStrike รายงานว่าแฮกเกอร์จากเกาหลีเหนือ รัสเซีย และอิหร่านใช้ AI สร้างมัลแวร์ที่สามารถเจาะระบบองค์กร สร้างเรซูเม่ปลอม และแม้แต่สัมภาษณ์งานด้วย deepfake เพื่อแฝงตัวเข้าไปในบริษัท มัลแวร์เหล่านี้ไม่เพียงแต่หลบหลีกการตรวจจับแบบเดิมได้ แต่ยังสามารถปรับเปลี่ยนตัวเองแบบ “polymorphic” คือเปลี่ยนโค้ดตลอดเวลาเพื่อไม่ให้ถูกจับได้ AI ยังช่วยสร้างอีเมล phishing ที่เหมือนจริงมากจนผู้ใช้ทั่วไปแยกไม่ออก และสามารถวิเคราะห์ระบบเป้าหมายเพื่อหาช่องโหว่แบบเรียลไทม์ สิ่งที่น่ากลัวที่สุดคือ “ไม่มีแพตช์” แบบเดิมที่จะแก้ไขได้ เพราะมัลแวร์เหล่านี้ไม่หยุดนิ่ง และสามารถปรับตัวตามการป้องกันที่องค์กรใช้ ✅ ลักษณะของมัลแวร์ที่สร้างโดย AI ➡️ ใช้ GenAI สร้างมัลแวร์ที่เรียนรู้และปรับเปลี่ยนตัวเองได้ ➡️ สามารถสร้าง deepfake เพื่อแฝงตัวในองค์กร ➡️ ใช้ AI สร้าง phishing email ที่เหมือนจริงมาก ➡️ ปรับโค้ดแบบ polymorphic เพื่อหลบหลีกการตรวจจับ ➡️ วิเคราะห์ระบบเป้าหมายและปรับกลยุทธ์โจมตีแบบเรียลไทม์ ➡️ ไม่มีแพตช์แบบเดิมที่สามารถแก้ไขได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ มัลแวร์ AI สามารถหลบเลี่ยงระบบ EDR โดยแฝงตัวใน process ของระบบ ➡️ ใช้ adversarial ML เพื่อหลอกระบบตรวจจับพฤติกรรม ➡️ แฮกเกอร์ระดับล่างสามารถใช้ AI สร้างมัลแวร์ได้โดยไม่ต้องมีความรู้ลึก ➡️ การป้องกันต้องใช้ AI ฝั่งดีที่สามารถวิเคราะห์และตอบโต้แบบอัตโนมัติ ➡️ Zero Trust Architecture และ Multi-Factor Authentication เป็นแนวทางป้องกันที่จำเป็น ➡️ ระบบ NGAV และ AI-powered EDR เป็นเครื่องมือใหม่ที่องค์กรควรใช้ https://www.thestar.com.my/tech/tech-news/2025/08/17/no-patch-available-ai-made-malware-could-overwhelm-cyber-defences
    WWW.THESTAR.COM.MY
    No patch available: AI-made malware could overwhelm cyber-defences
    The "growing weaponisation" of generative artificial intelligence (GenAI) could make older forms of cybersecurity and virus scanning obsolete.
    0 Comments 0 Shares 176 Views 0 Reviews
  • ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน?

    Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6

    เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws

    แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม

    โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์
    ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6

    ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก
    ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M

    Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก
    มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย

    ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์
    ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด

    Architecture ที่ใช้คือ GPT-style transformer 2–3 layers
    ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้

    ไม่ใช้ dropout หรือ mixture-of-experts
    เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด

    การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI
    เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud

    เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น
    รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma

    OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้
    มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง

    การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง
    เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token

    https://www.seangoedecke.com/model-on-a-mbp/
    🧠💻 ถ้าคุณมีแค่ MacBook Pro กับเวลา 5 นาที — คุณจะฝึก AI ได้แค่ไหน? Sean Goedecke ตั้งคำถามเล่น ๆ ว่า “ถ้ามีแค่ MacBook Pro กับเวลา 5 นาที จะฝึกโมเดล AI ที่แข็งแกร่งที่สุดได้แค่ไหน?” คำตอบคือ โมเดล GPT-style ขนาด 1.8 ล้านพารามิเตอร์ ที่ฝึกด้วยชุดข้อมูล TinyStories ประมาณ 20 ล้าน token ซึ่งให้ผลลัพธ์ที่ “ไม่แย่เลย” ด้วย perplexity ประมาณ 9.6 เขาเริ่มจากการทดลองหลายแบบ ทั้ง transformers, LSTM และแม้แต่ diffusion models แต่พบว่า transformers แบบเรียบง่ายให้ผลดีที่สุด โดยใช้ Apple MPS (Metal Performance Shaders) เพื่อเร่งความเร็วการฝึก และเลือก dataset ที่เหมาะกับโมเดลเล็ก เช่น TinyStories ซึ่งมีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย เขายังพบว่าเทคนิคอย่าง gradient accumulation หรือ torch.compile ไม่ช่วยเพิ่มประสิทธิภาพในกรณีนี้ และการเลือกขนาดโมเดลที่เหมาะสมสำคัญกว่าการใช้เทคนิคซับซ้อน โดยขนาดที่ดีที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ซึ่งสอดคล้องกับ Chinchilla scaling laws แม้จะเป็นการทดลองที่ดู “ไร้สาระ” แต่ก็ให้บทเรียนสำคัญว่า การฝึกโมเดลเล็กในเวลาจำกัดสามารถให้ผลลัพธ์ที่น่าทึ่งได้ หากเลือก dataset และ architecture อย่างเหมาะสม ✅ โมเดลที่ดีที่สุดใน 5 นาทีคือ GPT-style ขนาด ~1.8M พารามิเตอร์ ➡️ ฝึกด้วย TinyStories ~20M token ได้ perplexity ~9.6 ✅ ใช้ Apple MPS เพื่อเร่งความเร็วการฝึก ➡️ ได้ความเร็ว ~100K token/วินาที สำหรับโมเดลขนาด 1M ✅ Dataset ที่ใช้คือ TinyStories ซึ่งเหมาะกับโมเดลเล็ก ➡️ มีโครงสร้างเรื่องราวชัดเจนและภาษาง่าย ✅ ขนาดโมเดลที่เหมาะสมที่สุดอยู่ระหว่าง 1M–1.5M พารามิเตอร์ ➡️ ให้อัตราการเรียนรู้และความแม่นยำดีที่สุดในเวลาจำกัด ✅ Architecture ที่ใช้คือ GPT-style transformer 2–3 layers ➡️ ใช้ SwiGLU activation และ positional embeddings แบบเรียนรู้ได้ ✅ ไม่ใช้ dropout หรือ mixture-of-experts ➡️ เพราะเป้าหมายคือให้โมเดลเรียนรู้เร็วที่สุดในเวลาจำกัด ✅ การฝึกโมเดลเล็กมีประโยชน์ในงาน edge computing และ embedded AI ➡️ เช่น รันบนมือถือหรืออุปกรณ์ IoT โดยไม่ต้องพึ่ง cloud ✅ เครื่องมืออย่าง Ollama และ LM Studio ช่วยให้ฝึกโมเดลได้ง่ายขึ้น ➡️ รองรับการโหลดโมเดล open-source เช่น Phi-2, Mistral, Gemma ✅ OpenAI เปิดตัว GPT-OSS ซึ่งสามารถรันบนเครื่องส่วนตัวได้ ➡️ มีเวอร์ชันเล็กสำหรับงานเฉพาะทางและการทดลอง ✅ การฝึกโมเดลในเวลาจำกัดช่วยทดสอบ scaling laws ได้จริง ➡️ เช่น Chinchilla law ที่แนะนำขนาดโมเดลตามจำนวน token https://www.seangoedecke.com/model-on-a-mbp/
    0 Comments 0 Shares 246 Views 0 Reviews
  • เมื่อ AI เขียนโค้ดได้เก่งกว่ามนุษย์ แล้วนักพัฒนาจะอยู่ตรงไหนในโลกใหม่ของการเขียนโปรแกรม?

    ผลสำรวจจาก Clutch และ Stack Overflow ปี 2025 เผยว่า 53% ของนักพัฒนามองว่า AI โดยเฉพาะ LLMs (Large Language Models) สามารถเขียนโค้ดได้ดีกว่ามนุษย์ทั่วไป และ 80% ใช้ AI coding tools เป็นส่วนหนึ่งของ workflow ประจำวัน

    แม้จะมีความนิยมเพิ่มขึ้น แต่ความเชื่อมั่นกลับลดลงอย่างเห็นได้ชัด โดยมีเพียง 29% ที่เชื่อมั่นในความถูกต้องของโค้ดที่ AI สร้างขึ้น และ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก เพราะมันสร้าง bug ที่ยากต่อการตรวจจับ

    นักพัฒนาหลายคนยังคงใช้ AI เพราะมันช่วยเพิ่ม productivity ได้จริง โดยเฉพาะในงานที่ซ้ำซาก เช่น boilerplate code หรือการแปลงโครงสร้างข้อมูล แต่เมื่อพูดถึงงานที่ซับซ้อน เช่น system architecture หรือ security-critical code นักพัฒนายังต้องการ “มนุษย์อีกคน” เพื่อช่วยตรวจสอบ

    GitHub CEO ยังกล่าวว่า “นักพัฒนาในอนาคตไม่ใช่คนพิมพ์โค้ด แต่เป็น creative director ของโค้ด” และคาดว่า 90% ของการเขียนโค้ดจะถูก AI ทำแทนภายใน 5 ปี

    53% ของนักพัฒนาเชื่อว่า AI เขียนโค้ดได้ดีกว่ามนุษย์
    โดยเฉพาะในงานที่ซ้ำซากและโครงสร้างพื้นฐาน

    80% ของนักพัฒนาใช้ AI coding tools เป็นประจำ
    เช่น GitHub Copilot, Amazon CodeWhisperer, ChatGPT

    45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก
    สร้าง bug ที่ยากต่อการตรวจจับ โดยเฉพาะสำหรับนักพัฒนาใหม่

    75% ของนักพัฒนาเลือกถามมนุษย์เมื่อไม่มั่นใจในคำตอบของ AI
    แสดงถึงความต้องการ human verification ในระบบที่สำคัญ

    GitHub คาดว่า 90% ของโค้ดจะถูก AI เขียนภายใน 5 ปี
    นักพัฒนาต้องเปลี่ยนบทบาทเป็นผู้ออกแบบและควบคุมคุณภาพ

    79% เชื่อว่าทักษะด้าน AI จะกลายเป็นข้อกำหนดพื้นฐานของนักพัฒนา
    และ 45% มองว่า AI จะลดอุปสรรคสำหรับนักพัฒนาใหม่

    Stack Overflow พบว่า 46% ของนักพัฒนาไม่เชื่อมั่นในความถูกต้องของ AI
    โดยเฉพาะในงานที่ซับซ้อนหรือมีความเสี่ยงสูง

    “Vibe coding” หรือการใช้ prompt สร้างแอปทั้งตัวยังไม่เป็นที่ยอมรับ
    72% ของนักพัฒนาไม่ใช้แนวทางนี้ในงานจริง

    AI coding tools ช่วยให้เรียนรู้ภาษาใหม่และเทคนิคใหม่ได้เร็วขึ้น
    44% ของนักพัฒนาใช้ AI เพื่อเรียนรู้สิ่งใหม่ในปีที่ผ่านมา

    การใช้ AI อย่างมีสติ เช่น “sparring partner” ช่วยพัฒนาทักษะได้จริง
    ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ช่วยในการคิดและแก้ปัญหา

    โค้ดจาก AI ที่ “เกือบถูก” อาจสร้าง bug ที่ยากต่อการตรวจสอบ
    โดยเฉพาะในระบบที่มีความเสี่ยงสูง เช่น security หรือ backend

    ความเชื่อมั่นใน AI ลดลงจาก 40% เหลือเพียง 29% ในปี 2025
    แสดงถึงความกังวลเรื่องคุณภาพและความน่าเชื่อถือ

    นักพัฒนาใหม่อาจพึ่ง AI มากเกินไปจนขาดความเข้าใจพื้นฐาน
    เสี่ยงต่อการสร้างระบบที่ไม่มีความมั่นคงหรือยืดหยุ่น

    ตลาดงานระดับเริ่มต้นอาจหายไปเมื่อ AI เขียนโค้ดแทน
    หากไม่มีการฝึกฝนและพัฒนา นักพัฒนาอาจถูกแทนที่โดยสมบูรณ์

    https://www.techradar.com/pro/are-you-better-at-coding-than-ai-developers-dont-think-so
    🧠💻 เมื่อ AI เขียนโค้ดได้เก่งกว่ามนุษย์ แล้วนักพัฒนาจะอยู่ตรงไหนในโลกใหม่ของการเขียนโปรแกรม? ผลสำรวจจาก Clutch และ Stack Overflow ปี 2025 เผยว่า 53% ของนักพัฒนามองว่า AI โดยเฉพาะ LLMs (Large Language Models) สามารถเขียนโค้ดได้ดีกว่ามนุษย์ทั่วไป และ 80% ใช้ AI coding tools เป็นส่วนหนึ่งของ workflow ประจำวัน แม้จะมีความนิยมเพิ่มขึ้น แต่ความเชื่อมั่นกลับลดลงอย่างเห็นได้ชัด โดยมีเพียง 29% ที่เชื่อมั่นในความถูกต้องของโค้ดที่ AI สร้างขึ้น และ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก เพราะมันสร้าง bug ที่ยากต่อการตรวจจับ นักพัฒนาหลายคนยังคงใช้ AI เพราะมันช่วยเพิ่ม productivity ได้จริง โดยเฉพาะในงานที่ซ้ำซาก เช่น boilerplate code หรือการแปลงโครงสร้างข้อมูล แต่เมื่อพูดถึงงานที่ซับซ้อน เช่น system architecture หรือ security-critical code นักพัฒนายังต้องการ “มนุษย์อีกคน” เพื่อช่วยตรวจสอบ GitHub CEO ยังกล่าวว่า “นักพัฒนาในอนาคตไม่ใช่คนพิมพ์โค้ด แต่เป็น creative director ของโค้ด” และคาดว่า 90% ของการเขียนโค้ดจะถูก AI ทำแทนภายใน 5 ปี ✅ 53% ของนักพัฒนาเชื่อว่า AI เขียนโค้ดได้ดีกว่ามนุษย์ ➡️ โดยเฉพาะในงานที่ซ้ำซากและโครงสร้างพื้นฐาน ✅ 80% ของนักพัฒนาใช้ AI coding tools เป็นประจำ ➡️ เช่น GitHub Copilot, Amazon CodeWhisperer, ChatGPT ✅ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก ➡️ สร้าง bug ที่ยากต่อการตรวจจับ โดยเฉพาะสำหรับนักพัฒนาใหม่ ✅ 75% ของนักพัฒนาเลือกถามมนุษย์เมื่อไม่มั่นใจในคำตอบของ AI ➡️ แสดงถึงความต้องการ human verification ในระบบที่สำคัญ ✅ GitHub คาดว่า 90% ของโค้ดจะถูก AI เขียนภายใน 5 ปี ➡️ นักพัฒนาต้องเปลี่ยนบทบาทเป็นผู้ออกแบบและควบคุมคุณภาพ ✅ 79% เชื่อว่าทักษะด้าน AI จะกลายเป็นข้อกำหนดพื้นฐานของนักพัฒนา ➡️ และ 45% มองว่า AI จะลดอุปสรรคสำหรับนักพัฒนาใหม่ ✅ Stack Overflow พบว่า 46% ของนักพัฒนาไม่เชื่อมั่นในความถูกต้องของ AI ➡️ โดยเฉพาะในงานที่ซับซ้อนหรือมีความเสี่ยงสูง ✅ “Vibe coding” หรือการใช้ prompt สร้างแอปทั้งตัวยังไม่เป็นที่ยอมรับ ➡️ 72% ของนักพัฒนาไม่ใช้แนวทางนี้ในงานจริง ✅ AI coding tools ช่วยให้เรียนรู้ภาษาใหม่และเทคนิคใหม่ได้เร็วขึ้น ➡️ 44% ของนักพัฒนาใช้ AI เพื่อเรียนรู้สิ่งใหม่ในปีที่ผ่านมา ✅ การใช้ AI อย่างมีสติ เช่น “sparring partner” ช่วยพัฒนาทักษะได้จริง ➡️ ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ช่วยในการคิดและแก้ปัญหา ‼️ โค้ดจาก AI ที่ “เกือบถูก” อาจสร้าง bug ที่ยากต่อการตรวจสอบ ⛔ โดยเฉพาะในระบบที่มีความเสี่ยงสูง เช่น security หรือ backend ‼️ ความเชื่อมั่นใน AI ลดลงจาก 40% เหลือเพียง 29% ในปี 2025 ⛔ แสดงถึงความกังวลเรื่องคุณภาพและความน่าเชื่อถือ ‼️ นักพัฒนาใหม่อาจพึ่ง AI มากเกินไปจนขาดความเข้าใจพื้นฐาน ⛔ เสี่ยงต่อการสร้างระบบที่ไม่มีความมั่นคงหรือยืดหยุ่น ‼️ ตลาดงานระดับเริ่มต้นอาจหายไปเมื่อ AI เขียนโค้ดแทน ⛔ หากไม่มีการฝึกฝนและพัฒนา นักพัฒนาอาจถูกแทนที่โดยสมบูรณ์ https://www.techradar.com/pro/are-you-better-at-coding-than-ai-developers-dont-think-so
    0 Comments 0 Shares 304 Views 0 Reviews
  • เรื่องเล่าจากโลกปลอมที่เหมือนจริง: เมื่อ AI ถูกใช้สร้างเว็บรัฐบาลปลอมเพื่อหลอกประชาชน

    ในบราซิล นักวิจัยจาก ThreatLabz พบว่ามีการใช้ Generative AI สร้างเว็บไซต์ปลอมที่เลียนแบบเว็บของหน่วยงานรัฐบาลอย่างแนบเนียน โดยเฉพาะเว็บไซต์ของกรมการขนส่งและกระทรวงศึกษาธิการ ซึ่งถูกใช้เพื่อหลอกขโมยข้อมูลส่วนตัวและเงินจากประชาชน

    เว็บไซต์ปลอมเหล่านี้มีหน้าตาเหมือนของจริงแทบทุกจุด ยกเว้นแค่ URL ที่เปลี่ยนเล็กน้อย เช่น “govbrs[.]com” แทนที่จะเป็น “gov.br” และยังใช้เทคนิค SEO poisoning เพื่อดันอันดับใน Google ให้ขึ้นมาอยู่บนสุด ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บจริง

    เมื่อเหยื่อเข้าเว็บ พวกเขาจะถูกขอให้กรอกหมายเลข CPF (คล้ายเลขบัตรประชาชน) และข้อมูลส่วนตัวอื่น ๆ ก่อนจะถูกหลอกให้จ่ายเงินผ่านระบบ Pix ซึ่งเงินจะถูกส่งตรงไปยังบัญชีของแฮกเกอร์

    ที่น่าตกใจคือ โค้ดของเว็บไซต์ปลอมเหล่านี้มีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite AI โดยมีการใช้ TailwindCSS และคำอธิบายโค้ดที่เป็น template ซึ่งบ่งชี้ว่าแฮกเกอร์ใช้ prompt เพื่อสั่งให้ AI “สร้างเว็บที่เหมือนของจริง”

    แฮกเกอร์ใช้ Generative AI สร้างเว็บไซต์ปลอมเลียนแบบเว็บรัฐบาลบราซิล
    เช่น เว็บกรมการขนส่งและกระทรวงศึกษาธิการ

    ใช้ URL ปลอมที่คล้ายของจริง เช่น govbrs[.]com
    ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บทางการ

    ใช้เทคนิค SEO poisoning เพื่อดันเว็บปลอมขึ้นอันดับต้น ๆ
    เพิ่มความน่าเชื่อถือและโอกาสในการหลอกเหยื่อ

    เหยื่อต้องกรอกหมายเลข CPF และข้อมูลส่วนตัว
    ก่อนถูกหลอกให้จ่ายเงินผ่านระบบ Pix

    โค้ดของเว็บปลอมมีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite
    มีการใช้ TailwindCSS และคำอธิบายโค้ดแบบ template

    นักวิจัยเตือนว่าแม้ตอนนี้จะขโมยเงินไม่มาก แต่มีศักยภาพในการสร้างความเสียหายมหาศาล
    แนะนำให้ใช้ Zero Trust architecture และ best practices เพื่อป้องกัน

    https://www.techradar.com/pro/security/hackers-are-now-mimicking-government-websites-using-ai-everything-you-need-to-know-to-stay-safe
    🌐🕵️‍♂️ เรื่องเล่าจากโลกปลอมที่เหมือนจริง: เมื่อ AI ถูกใช้สร้างเว็บรัฐบาลปลอมเพื่อหลอกประชาชน ในบราซิล นักวิจัยจาก ThreatLabz พบว่ามีการใช้ Generative AI สร้างเว็บไซต์ปลอมที่เลียนแบบเว็บของหน่วยงานรัฐบาลอย่างแนบเนียน โดยเฉพาะเว็บไซต์ของกรมการขนส่งและกระทรวงศึกษาธิการ ซึ่งถูกใช้เพื่อหลอกขโมยข้อมูลส่วนตัวและเงินจากประชาชน เว็บไซต์ปลอมเหล่านี้มีหน้าตาเหมือนของจริงแทบทุกจุด ยกเว้นแค่ URL ที่เปลี่ยนเล็กน้อย เช่น “govbrs[.]com” แทนที่จะเป็น “gov.br” และยังใช้เทคนิค SEO poisoning เพื่อดันอันดับใน Google ให้ขึ้นมาอยู่บนสุด ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บจริง เมื่อเหยื่อเข้าเว็บ พวกเขาจะถูกขอให้กรอกหมายเลข CPF (คล้ายเลขบัตรประชาชน) และข้อมูลส่วนตัวอื่น ๆ ก่อนจะถูกหลอกให้จ่ายเงินผ่านระบบ Pix ซึ่งเงินจะถูกส่งตรงไปยังบัญชีของแฮกเกอร์ ที่น่าตกใจคือ โค้ดของเว็บไซต์ปลอมเหล่านี้มีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite AI โดยมีการใช้ TailwindCSS และคำอธิบายโค้ดที่เป็น template ซึ่งบ่งชี้ว่าแฮกเกอร์ใช้ prompt เพื่อสั่งให้ AI “สร้างเว็บที่เหมือนของจริง” ✅ แฮกเกอร์ใช้ Generative AI สร้างเว็บไซต์ปลอมเลียนแบบเว็บรัฐบาลบราซิล ➡️ เช่น เว็บกรมการขนส่งและกระทรวงศึกษาธิการ ✅ ใช้ URL ปลอมที่คล้ายของจริง เช่น govbrs[.]com ➡️ ทำให้ผู้ใช้เข้าใจผิดว่าเป็นเว็บทางการ ✅ ใช้เทคนิค SEO poisoning เพื่อดันเว็บปลอมขึ้นอันดับต้น ๆ ➡️ เพิ่มความน่าเชื่อถือและโอกาสในการหลอกเหยื่อ ✅ เหยื่อต้องกรอกหมายเลข CPF และข้อมูลส่วนตัว ➡️ ก่อนถูกหลอกให้จ่ายเงินผ่านระบบ Pix ✅ โค้ดของเว็บปลอมมีลักษณะเหมือนถูกสร้างโดย AI เช่น Deepsite ➡️ มีการใช้ TailwindCSS และคำอธิบายโค้ดแบบ template ✅ นักวิจัยเตือนว่าแม้ตอนนี้จะขโมยเงินไม่มาก แต่มีศักยภาพในการสร้างความเสียหายมหาศาล ➡️ แนะนำให้ใช้ Zero Trust architecture และ best practices เพื่อป้องกัน https://www.techradar.com/pro/security/hackers-are-now-mimicking-government-websites-using-ai-everything-you-need-to-know-to-stay-safe
    WWW.TECHRADAR.COM
    Hackers are now mimicking government websites using AI - everything you need to know to stay safe
    Multiple Brazilian government sites were cloned, and more could be on the way
    0 Comments 0 Shares 254 Views 0 Reviews
  • เรื่องเล่าจากห้องประชุม: CISO ผู้นำความมั่นคงไซเบอร์ที่องค์กรยุคใหม่ขาดไม่ได้

    ในยุคที่ข้อมูลคือทรัพย์สินที่มีค่าที่สุดขององค์กร ตำแหน่ง “CISO” หรือ Chief Information Security Officer จึงกลายเป็นหนึ่งในบทบาทที่สำคัญที่สุดในระดับผู้บริหาร โดยมีหน้าที่ดูแลความปลอดภัยของข้อมูลและระบบดิจิทัลทั้งหมดขององค์กร

    แต่รู้ไหมว่า...มีเพียง 45% ของบริษัทในอเมริกาเหนือเท่านั้นที่มี CISO และในบริษัทที่มีรายได้เกินพันล้านดอลลาร์ ตัวเลขนี้ลดลงเหลือเพียง 15%! หลายองค์กรยังมองว่า cybersecurity เป็นแค่ต้นทุนด้าน IT ไม่ใช่ความเสี่ยงเชิงกลยุทธ์ ทำให้ CISO บางคนต้องรายงานต่อ CIO หรือ CSO แทนที่จะได้ที่นั่งในห้องประชุมผู้บริหาร

    CISO ที่มีอำนาจจริงจะต้องรับผิดชอบตั้งแต่การวางนโยบายความปลอดภัย การจัดการความเสี่ยง การตอบสนองเหตุการณ์ ไปจนถึงการสื่อสารกับบอร์ดและผู้ถือหุ้น พวกเขาต้องมีทั้งความรู้ด้านเทคนิค เช่น DNS, VPN, firewall และความเข้าใจในกฎหมายอย่าง GDPR, HIPAA, SOX รวมถึงทักษะการบริหารและการสื่อสารเชิงธุรกิจ

    ในปี 2025 บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI, การควบรวมกิจการ และการเปลี่ยนผ่านดิจิทัล ทำให้พวกเขากลายเป็น “ผู้ขับเคลื่อนกลยุทธ์องค์กร” ไม่ใช่แค่ “ผู้เฝ้าประตูระบบ”

    CISO คือผู้บริหารระดับสูงที่รับผิดชอบด้านความปลอดภัยของข้อมูล
    ดูแลทั้งระบบ IT, นโยบาย, การตอบสนองเหตุการณ์ และการบริหารความเสี่ยง

    มีเพียง 45% ของบริษัทในอเมริกาเหนือที่มี CISO
    และเพียง 15% ของบริษัทที่มีรายได้เกิน $1B ที่มี CISO ในระดับ C-suite

    CISO ที่รายงานตรงต่อ CEO หรือบอร์ดจะมีอิทธิพลมากกว่า
    ช่วยให้การตัดสินใจด้านความปลอดภัยมีน้ำหนักในเชิงกลยุทธ์

    หน้าที่หลักของ CISO ได้แก่:
    Security operations, Cyber risk, Data loss prevention, Architecture, IAM, Program management, Forensics, Governance

    คุณสมบัติของ CISO ที่ดีต้องมีทั้งพื้นฐานเทคนิคและทักษะธุรกิจ
    เช่น ความเข้าใจใน DNS, VPN, ethical hacking, compliance และการสื่อสารกับผู้บริหาร

    บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI และการควบรวมกิจการ
    ทำให้กลายเป็นผู้ขับเคลื่อนกลยุทธ์องค์กร ไม่ใช่แค่ฝ่ายเทคนิค

    มีการแบ่งประเภท CISO เป็น 3 กลุ่ม: Strategic, Functional, Tactical
    Strategic CISO มีอิทธิพลสูงสุดในองค์กรและได้รับค่าตอบแทนสูง

    ความท้าทายใหม่ของ CISO ได้แก่ภัยคุกคามจาก AI, ransomware และ social engineering
    ต้องใช้แนวทางป้องกันที่ปรับตัวได้และเน้นการฝึกอบรมพนักงาน

    การมี CISO ที่มี visibility ในบอร์ดช่วยเพิ่มความพึงพอใจในงานและโอกาสเติบโต
    เช่น การสร้างความสัมพันธ์กับบอร์ดนอกการประชุม

    https://www.csoonline.com/article/566757/what-is-a-ciso-responsibilities-and-requirements-for-this-vital-leadership-role.html
    🛡️🏢 เรื่องเล่าจากห้องประชุม: CISO ผู้นำความมั่นคงไซเบอร์ที่องค์กรยุคใหม่ขาดไม่ได้ ในยุคที่ข้อมูลคือทรัพย์สินที่มีค่าที่สุดขององค์กร ตำแหน่ง “CISO” หรือ Chief Information Security Officer จึงกลายเป็นหนึ่งในบทบาทที่สำคัญที่สุดในระดับผู้บริหาร โดยมีหน้าที่ดูแลความปลอดภัยของข้อมูลและระบบดิจิทัลทั้งหมดขององค์กร แต่รู้ไหมว่า...มีเพียง 45% ของบริษัทในอเมริกาเหนือเท่านั้นที่มี CISO และในบริษัทที่มีรายได้เกินพันล้านดอลลาร์ ตัวเลขนี้ลดลงเหลือเพียง 15%! หลายองค์กรยังมองว่า cybersecurity เป็นแค่ต้นทุนด้าน IT ไม่ใช่ความเสี่ยงเชิงกลยุทธ์ ทำให้ CISO บางคนต้องรายงานต่อ CIO หรือ CSO แทนที่จะได้ที่นั่งในห้องประชุมผู้บริหาร CISO ที่มีอำนาจจริงจะต้องรับผิดชอบตั้งแต่การวางนโยบายความปลอดภัย การจัดการความเสี่ยง การตอบสนองเหตุการณ์ ไปจนถึงการสื่อสารกับบอร์ดและผู้ถือหุ้น พวกเขาต้องมีทั้งความรู้ด้านเทคนิค เช่น DNS, VPN, firewall และความเข้าใจในกฎหมายอย่าง GDPR, HIPAA, SOX รวมถึงทักษะการบริหารและการสื่อสารเชิงธุรกิจ ในปี 2025 บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI, การควบรวมกิจการ และการเปลี่ยนผ่านดิจิทัล ทำให้พวกเขากลายเป็น “ผู้ขับเคลื่อนกลยุทธ์องค์กร” ไม่ใช่แค่ “ผู้เฝ้าประตูระบบ” ✅ CISO คือผู้บริหารระดับสูงที่รับผิดชอบด้านความปลอดภัยของข้อมูล ➡️ ดูแลทั้งระบบ IT, นโยบาย, การตอบสนองเหตุการณ์ และการบริหารความเสี่ยง ✅ มีเพียง 45% ของบริษัทในอเมริกาเหนือที่มี CISO ➡️ และเพียง 15% ของบริษัทที่มีรายได้เกิน $1B ที่มี CISO ในระดับ C-suite ✅ CISO ที่รายงานตรงต่อ CEO หรือบอร์ดจะมีอิทธิพลมากกว่า ➡️ ช่วยให้การตัดสินใจด้านความปลอดภัยมีน้ำหนักในเชิงกลยุทธ์ ✅ หน้าที่หลักของ CISO ได้แก่: ➡️ Security operations, Cyber risk, Data loss prevention, Architecture, IAM, Program management, Forensics, Governance ✅ คุณสมบัติของ CISO ที่ดีต้องมีทั้งพื้นฐานเทคนิคและทักษะธุรกิจ ➡️ เช่น ความเข้าใจใน DNS, VPN, ethical hacking, compliance และการสื่อสารกับผู้บริหาร ✅ บทบาทของ CISO ขยายไปสู่การกำกับดูแล AI และการควบรวมกิจการ ➡️ ทำให้กลายเป็นผู้ขับเคลื่อนกลยุทธ์องค์กร ไม่ใช่แค่ฝ่ายเทคนิค ✅ มีการแบ่งประเภท CISO เป็น 3 กลุ่ม: Strategic, Functional, Tactical ➡️ Strategic CISO มีอิทธิพลสูงสุดในองค์กรและได้รับค่าตอบแทนสูง ✅ ความท้าทายใหม่ของ CISO ได้แก่ภัยคุกคามจาก AI, ransomware และ social engineering ➡️ ต้องใช้แนวทางป้องกันที่ปรับตัวได้และเน้นการฝึกอบรมพนักงาน ✅ การมี CISO ที่มี visibility ในบอร์ดช่วยเพิ่มความพึงพอใจในงานและโอกาสเติบโต ➡️ เช่น การสร้างความสัมพันธ์กับบอร์ดนอกการประชุม https://www.csoonline.com/article/566757/what-is-a-ciso-responsibilities-and-requirements-for-this-vital-leadership-role.html
    WWW.CSOONLINE.COM
    What is a CISO? The top IT security leader role explained
    The chief information security officer (CISO) is the executive responsible for an organization’s information and data security. Here’s what it takes to succeed in this role.
    0 Comments 0 Shares 335 Views 0 Reviews
  • เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029

    ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า

    Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth

    แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป

    Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4
    เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC

    Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s
    ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น

    ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS
    เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด

    ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่
    ลด latency และเพิ่ม bandwidth ในการใช้งานจริง

    คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030
    ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC

    PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน
    เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่

    คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS
    ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization

    SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู
    ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้

    เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น
    ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต

    https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    🚀💾 เรื่องเล่าจากโลกหน่วยความจำ: Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD PCIe 6.0 สำหรับผู้ใช้ทั่วไป — เร็วแรงทะลุ 25 GB/s แต่ต้องรอถึงปี 2029 ในงาน Future Memory & Storage Conference ล่าสุด Silicon Motion ได้เผยโฉม “Neptune” คอนโทรลเลอร์ SSD รุ่นใหม่ที่รองรับ PCIe 6.0 x4 สำหรับเครื่องลูกข่าย (client PC) โดยสามารถอ่านข้อมูลแบบต่อเนื่องได้เร็วกว่า 25 GB/s และรองรับการอ่านแบบสุ่มถึง 3.5 ล้าน IOPS ซึ่งถือว่าเร็วกว่า SSD PCIe 5.0 ที่ดีที่สุดในตลาดตอนนี้หลายเท่า Neptune ใช้เทคโนโลยี NAND 8 ช่อง พร้อมความเร็วอินเทอร์เฟซสูงถึง 4800 MT/s และรองรับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น นอกจากนี้ยังมีฟีเจอร์ Separate Command Architecture (SCA) ที่ช่วยให้การส่งคำสั่งและที่อยู่ใน NAND เป็นแบบขนาน ลด latency และเพิ่ม bandwidth แม้จะน่าตื่นเต้น แต่ผลิตภัณฑ์จริงจะเริ่มผลิตในปี 2028 และวางจำหน่ายจริงในปี 2029 หรืออาจลากไปถึง 2030 เนื่องจากผู้ผลิต PC อย่าง AMD และ Intel ยังไม่แสดงความสนใจใน PCIe 6.0 สำหรับผู้ใช้ทั่วไป ✅ Silicon Motion เปิดตัวคอนโทรลเลอร์ SSD รุ่น Neptune รองรับ PCIe 6.0 x4 ➡️ เป็นคอนโทรลเลอร์ PCIe Gen6 ตัวแรกสำหรับ client PC ✅ Neptune รองรับ NAND 8 ช่อง ความเร็วสูงสุด 4800 MT/s ➡️ ใช้กับ NAND แบบ 3D ที่มีมากกว่า 400 ชั้น ✅ ความเร็วการอ่านต่อเนื่องมากกว่า 25 GB/s และสุ่มได้ 3.5 ล้าน IOPS ➡️ เร็วกว่าคอนโทรลเลอร์ PCIe 5.0 อย่างเห็นได้ชัด ✅ ใช้เทคโนโลยี SCA เพื่อแยกเส้นทางคำสั่งและที่อยู่ ➡️ ลด latency และเพิ่ม bandwidth ในการใช้งานจริง ✅ คาดว่าจะเริ่มผลิตในปี 2028 และวางจำหน่ายในปี 2029–2030 ➡️ ขึ้นอยู่กับความพร้อมของตลาดและการยอมรับจากผู้ผลิต PC ✅ PCIe 6.0 มีแบนด์วิดธ์สูงถึง 64 GT/s ต่อเลน ➡️ เหมาะสำหรับงาน AI, HPC และการประมวลผลข้อมูลขนาดใหญ่ ✅ คอนโทรลเลอร์ SM8466 สำหรับองค์กรมีความเร็วสูงถึง 28 GB/s และ 7 ล้าน IOPS ➡️ ใช้ NAND 16 ช่องและฟีเจอร์ระดับ enterprise เช่น encryption และ virtualization ✅ SSD PCIe 6.0 ยังต้องการการออกแบบระบบที่รองรับ เช่น เมนบอร์ดและซีพียู ➡️ ทำให้การใช้งานในตลาดทั่วไปยังไม่เกิดขึ้นเร็ว ๆ นี้ ✅ เทคโนโลยี NAND แบบ stacked layers กำลังพัฒนาไปถึง 500 ชั้น ➡️ ช่วยเพิ่มความจุและลดต้นทุนต่อ GB ในอนาคต https://www.tomshardware.com/tech-industry/silicon-motion-gives-a-glimpse-of-its-pcie-6-0-controller-for-client-ssds-25-gb-s-sequential-reads-3-5-million-random-iops-coming-2028-2029
    0 Comments 0 Shares 260 Views 0 Reviews
  • เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia

    ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง

    CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ

    การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย

    Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ

    แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว

    Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU
    เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด

    CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous
    มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI

    Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน
    เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend

    การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia
    จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล

    Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ
    โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA

    CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia
    นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น

    Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia
    โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์

    การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง
    เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว

    รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ
    เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    🧠💻 เรื่องเล่าจากโลก AI: Huawei เปิดซอร์สเครื่องมือพัฒนา GPU เพื่อท้าชน Nvidia ในโลกของการประมวลผล AI ที่ Nvidia ครองตลาดมานานด้วยแพลตฟอร์ม CUDA ที่ปิดซอร์สและผูกขาด Huawei กำลังเดินเกมใหม่เพื่อท้าทายอำนาจนั้น ด้วยการประกาศเปิดซอร์สเครื่องมือพัฒนา CANN (Compute Architecture for Neural Networks) สำหรับชิป Ascend AI GPU ของตนเอง CANN เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI บนชิป Ascend ได้ง่ายขึ้น โดยมีอินเทอร์เฟซหลายระดับคล้ายกับ CUDA ของ Nvidia แต่ต่างกันตรงที่ Huawei เลือกเปิดซอร์ส เพื่อให้ชุมชนนักพัฒนาสามารถเข้าถึง ปรับแต่ง และขยายความสามารถได้อย่างอิสระ การตัดสินใจนี้เกิดขึ้นท่ามกลางแรงกดดันจากรัฐบาลจีนที่ต้องการลดการพึ่งพาเทคโนโลยีจากตะวันตก โดยเฉพาะหลังจากที่หน่วยงาน CAC ของจีนเริ่มสอบสวนชิป H20 ของ Nvidia จากข้อกังวลด้านความปลอดภัย Huawei ได้หารือกับมหาวิทยาลัย บริษัท AI ชั้นนำ และพันธมิตรธุรกิจในจีน เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend โดยหวังว่าจะเร่งการพัฒนาและเพิ่มการใช้งานในประเทศ ซึ่งเป็นตลาดที่มีความต้องการสูงและกำลังมองหาทางเลือกใหม่ที่ไม่ขึ้นกับสหรัฐฯ แม้ CANN จะยังไม่เทียบเท่า CUDA ที่มีประสบการณ์กว่า 20 ปี แต่การเปิดซอร์สครั้งนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนสมดุลของอุตสาหกรรม AI ในระยะยาว ✅ Huawei ประกาศเปิดซอร์สชุดเครื่องมือ CANN สำหรับชิป Ascend AI GPU ➡️ เพื่อแข่งขันกับ CUDA ของ Nvidia ที่เป็นระบบปิด ✅ CANN เป็นสถาปัตยกรรมการประมวลผลแบบ heterogeneous ➡️ มีอินเทอร์เฟซหลายระดับสำหรับการพัฒนาแอปพลิเคชัน AI ✅ Huawei ได้หารือกับมหาวิทยาลัยและบริษัท AI ชั้นนำในจีน ➡️ เพื่อสร้างระบบนิเวศแบบเปิดรอบชิป Ascend ✅ การเปิดซอร์ส CANN เกิดขึ้นหลังจากจีนเริ่มสอบสวนชิป H20 ของ Nvidia ➡️ จากข้อกังวลด้านความปลอดภัยและการติดตามข้อมูล ✅ Huawei หวังว่า CANN จะช่วยเร่งนวัตกรรมและเพิ่มการใช้งานในประเทศ ➡️ โดยเฉพาะในกลุ่มนักพัฒนาและองค์กรที่ต้องการทางเลือกจาก CUDA ✅ CUDA เป็นแพลตฟอร์มที่ผูกขาดกับฮาร์ดแวร์ของ Nvidia ➡️ นักพัฒนาต้องใช้ GPU ของ Nvidia เท่านั้น ✅ Huawei Ascend 910C เป็นชิปที่มีประสิทธิภาพใกล้เคียงกับ Nvidia ➡️ โดยเฉพาะในงาน inference และการประมวลผลแบบเรียลไทม์ ✅ การเปิดซอร์สช่วยให้ชุมชนสามารถพัฒนาและปรับปรุงเครื่องมือได้เอง ➡️ เพิ่มความยืดหยุ่นและลดการพึ่งพาบริษัทเดียว ✅ รัฐบาลจีนสนับสนุนการพัฒนาเทคโนโลยีภายในประเทศ ➡️ เพื่อสร้างความมั่นคงทางเทคโนโลยีและลดการพึ่งพาสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/huawei-is-making-its-ascend-ai-gpu-software-toolkit-open-source-to-better-compete-against-cuda
    WWW.TOMSHARDWARE.COM
    Huawei is making its Ascend AI GPU software toolkit open-source to better compete against CUDA
    Huawei is getting better at making AI GPUs. Now it wants to increase adoption of its technology on the software side
    0 Comments 0 Shares 329 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Node.js 2025 – จาก CommonJS สู่โลกใหม่ที่สะอาดกว่าและฉลาดกว่า

    ในปี 2025 Node.js ได้เปลี่ยนโฉมไปอย่างมากจากยุคที่เต็มไปด้วย callback และ require แบบ CommonJS สู่ยุคใหม่ที่ใช้ ES Modules (ESM) เป็นมาตรฐาน พร้อมรองรับฟีเจอร์ระดับเว็บเบราว์เซอร์ เช่น fetch API และ top-level await โดยไม่ต้องพึ่งพาไลบรารีภายนอกอีกต่อไป

    การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่อง syntax แต่เป็นการปรับแนวคิดการพัฒนาให้สอดคล้องกับมาตรฐานเว็บสมัยใหม่ ทำให้โค้ดสะอาดขึ้น เข้าใจง่ายขึ้น และลดความซับซ้อนในการจัดการ dependency

    นอกจากนี้ Node.js ยังนำเสนอแนวทางใหม่ในการจัดการกับ asynchronous data ผ่าน async iteration และการใช้ Proxy-based observables เพื่อสร้างระบบ reactive โดยไม่ต้องพึ่ง state management ที่ยุ่งยาก

    ES Modules (ESM) กลายเป็นมาตรฐานใหม่แทน CommonJS
    ใช้ import/export แทน require/module.exports
    รองรับ static analysis และ tree-shaking ได้ดีขึ้น

    ใช้ node: prefix เพื่อแยก built-in modules ออกจาก npm packages
    เช่น import { readFile } from 'node:fs/promises'
    ลดความสับสนและเพิ่มความชัดเจนในการจัดการ dependency

    รองรับ top-level await โดยไม่ต้องใช้ async wrapper function
    ทำให้โค้ด initialization ง่ายขึ้นและอ่านง่ายขึ้น
    เหมาะกับการโหลด config หรือข้อมูลก่อนเริ่มเซิร์ฟเวอร์

    Fetch API ถูกนำมาใช้ใน Node.js โดยไม่ต้องติดตั้ง axios หรือ node-fetch
    รองรับการเรียก HTTP แบบ native
    มีฟีเจอร์ timeout และ cancellation ในตัว

    แนวคิด async iteration และ for-await-of กลายเป็นมาตรฐานในการจัดการ stream
    เหมาะกับ real-time data และ paginated APIs
    ลดการพึ่งพาไลบรารีภายนอก

    Proxy-based observables เริ่มได้รับความนิยมในการสร้างระบบ reactive
    ใช้ JavaScript Proxy เพื่อสังเกตการเปลี่ยนแปลงของ state
    ลด boilerplate และไม่ต้องใช้ state management library หนัก ๆ

    Deno กำลังกลายเป็น runtime เสริมที่น่าสนใจควบคู่กับ Node.js
    ใช้ ESM เป็นหลักตั้งแต่ต้น
    มีระบบ permission และ security ที่เข้มงวดกว่า

    Serverless architecture ยังคงนิยมใช้ Node.js เป็นหลักในปี 2025
    รองรับ AWS Lambda, Vercel, Cloudflare Workers
    เหมาะกับแอปพลิเคชันที่ต้องการความเร็วและความยืดหยุ่น

    JavaScript กำลังพัฒนา pattern matching แบบ native
    คล้ายกับ switch statement ที่อ่านง่ายและทรงพลัง
    อยู่ในขั้น proposal แต่เป็นเทรนด์ที่ควรจับตามอง

    https://kashw1n.com/blog/nodejs-2025/
    🎙️ เรื่องเล่าจากข่าว: Node.js 2025 – จาก CommonJS สู่โลกใหม่ที่สะอาดกว่าและฉลาดกว่า ในปี 2025 Node.js ได้เปลี่ยนโฉมไปอย่างมากจากยุคที่เต็มไปด้วย callback และ require แบบ CommonJS สู่ยุคใหม่ที่ใช้ ES Modules (ESM) เป็นมาตรฐาน พร้อมรองรับฟีเจอร์ระดับเว็บเบราว์เซอร์ เช่น fetch API และ top-level await โดยไม่ต้องพึ่งพาไลบรารีภายนอกอีกต่อไป การเปลี่ยนแปลงนี้ไม่ใช่แค่เรื่อง syntax แต่เป็นการปรับแนวคิดการพัฒนาให้สอดคล้องกับมาตรฐานเว็บสมัยใหม่ ทำให้โค้ดสะอาดขึ้น เข้าใจง่ายขึ้น และลดความซับซ้อนในการจัดการ dependency นอกจากนี้ Node.js ยังนำเสนอแนวทางใหม่ในการจัดการกับ asynchronous data ผ่าน async iteration และการใช้ Proxy-based observables เพื่อสร้างระบบ reactive โดยไม่ต้องพึ่ง state management ที่ยุ่งยาก ✅ ES Modules (ESM) กลายเป็นมาตรฐานใหม่แทน CommonJS ➡️ ใช้ import/export แทน require/module.exports ➡️ รองรับ static analysis และ tree-shaking ได้ดีขึ้น ✅ ใช้ node: prefix เพื่อแยก built-in modules ออกจาก npm packages ➡️ เช่น import { readFile } from 'node:fs/promises' ➡️ ลดความสับสนและเพิ่มความชัดเจนในการจัดการ dependency ✅ รองรับ top-level await โดยไม่ต้องใช้ async wrapper function ➡️ ทำให้โค้ด initialization ง่ายขึ้นและอ่านง่ายขึ้น ➡️ เหมาะกับการโหลด config หรือข้อมูลก่อนเริ่มเซิร์ฟเวอร์ ✅ Fetch API ถูกนำมาใช้ใน Node.js โดยไม่ต้องติดตั้ง axios หรือ node-fetch ➡️ รองรับการเรียก HTTP แบบ native ➡️ มีฟีเจอร์ timeout และ cancellation ในตัว ✅ แนวคิด async iteration และ for-await-of กลายเป็นมาตรฐานในการจัดการ stream ➡️ เหมาะกับ real-time data และ paginated APIs ➡️ ลดการพึ่งพาไลบรารีภายนอก ✅ Proxy-based observables เริ่มได้รับความนิยมในการสร้างระบบ reactive ➡️ ใช้ JavaScript Proxy เพื่อสังเกตการเปลี่ยนแปลงของ state ➡️ ลด boilerplate และไม่ต้องใช้ state management library หนัก ๆ ✅ Deno กำลังกลายเป็น runtime เสริมที่น่าสนใจควบคู่กับ Node.js ➡️ ใช้ ESM เป็นหลักตั้งแต่ต้น ➡️ มีระบบ permission และ security ที่เข้มงวดกว่า ✅ Serverless architecture ยังคงนิยมใช้ Node.js เป็นหลักในปี 2025 ➡️ รองรับ AWS Lambda, Vercel, Cloudflare Workers ➡️ เหมาะกับแอปพลิเคชันที่ต้องการความเร็วและความยืดหยุ่น ✅ JavaScript กำลังพัฒนา pattern matching แบบ native ➡️ คล้ายกับ switch statement ที่อ่านง่ายและทรงพลัง ➡️ อยู่ในขั้น proposal แต่เป็นเทรนด์ที่ควรจับตามอง https://kashw1n.com/blog/nodejs-2025/
    0 Comments 0 Shares 320 Views 0 Reviews
  • เรื่องเล่าจากเคอร์เนล: เมื่อ Linux กลายเป็นแพลตฟอร์มที่ปลอดภัยที่สุดสำหรับงานลับสุดยอด

    ในเดือนกรกฎาคม 2025 Linux Kernel 6.16 ได้เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์ ซึ่งเป็นการรวมเทคโนโลยี Secure Encrypted Virtualization (SEV) และ Virtual Trusted Platform Module (vTPM) เข้าด้วยกัน เพื่อสร้างสภาพแวดล้อมการทำงานที่ปลอดภัยและแยกออกจากระบบโฮสต์โดยสิ้นเชิง

    vTPM คือ TPM แบบเสมือนที่ทำงานภายใน VM โดยถูกเข้ารหัสและแยกออกจาก hypervisor ด้วยเทคโนโลยี SEV-SNP ของ AMD ทำให้สามารถใช้ฟีเจอร์อย่าง Secure Boot, Measured Boot และ Remote Attestation ได้อย่างปลอดภัยในระบบคลาวด์หรือองค์กรที่ต้องการความมั่นคงสูง

    ฟีเจอร์นี้เหมาะกับองค์กรในภาคการเงิน, สาธารณสุข, และภาครัฐ ที่ต้องการความมั่นใจว่าข้อมูลสำคัญจะไม่ถูกเข้าถึงโดยผู้ให้บริการคลาวด์หรือระบบโฮสต์ที่ไม่ไว้วางใจ

    Linux Kernel 6.16 เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์
    รองรับการสร้าง vTPM ภายใน VM ที่ถูกเข้ารหัสด้วย SEV-SNP
    ใช้โปรโตคอลจาก AMD SVSM spec เพื่อให้ guest OS ติดต่อกับ vTPM ได้

    vTPM ทำงานในหน่วยความจำที่ถูกแยกและเข้ารหัสโดยฮาร์ดแวร์
    ป้องกันการเข้าถึงจาก hypervisor และ guest OS
    รองรับ TPM 2.0 เต็มรูปแบบ เช่น PCRs และการเข้ารหัสคีย์

    รองรับการตรวจสอบความน่าเชื่อถือของระบบ (attestation) และ Secure Boot
    เหมาะกับการใช้งานใน Zero Trust Architecture
    ช่วยให้มั่นใจว่า VM ทำงานในสภาพแวดล้อมที่ปลอดภัยจริง

    เหมาะกับองค์กรที่ต้องการความปลอดภัยระดับสูง เช่น การเงิน, สาธารณสุข, และภาครัฐ
    รองรับการปฏิบัติตามข้อกำหนดด้านความปลอดภัยและการเข้ารหัส
    ลดการพึ่งพาเฟิร์มแวร์หรือ TPM แบบ proprietary

    สามารถใช้งานร่วมกับ hypervisor อย่าง KVM และเครื่องมือจัดการ VM บน Linux
    รองรับการตั้งค่า kernel เช่น CONFIG_TCG_SVSM=y
    มีเครื่องมือสำหรับตรวจสอบสถานะการเข้ารหัสและการทำงานของ vTPM

    การใช้งาน vTPM ต้องมีการตั้งค่าฮาร์ดแวร์และ BIOS ที่รองรับ SEV-SNP
    หาก CPU หรือ BIOS ไม่รองรับ จะไม่สามารถเปิดใช้งานฟีเจอร์นี้ได้
    ต้องตรวจสอบว่าเปิดใช้งาน Secure Memory Encryption แล้ว

    การเข้ารหัสและการตรวจสอบแบบฮาร์ดแวร์อาจเพิ่มภาระการประมวลผล
    มี overhead ด้านประสิทธิภาพ โดยเฉพาะใน workload ที่ใช้ vTPM หนัก
    ต้องวางแผนการจัดสรรทรัพยากรอย่างรอบคอบ

    การตั้งค่า kernel และการคอมไพล์ต้องแม่นยำเพื่อให้ vTPM ทำงานได้สมบูรณ์
    ต้องเปิดใช้งานโมดูลที่เกี่ยวข้อง เช่น CONFIG_KVM_AMD_SEV
    หากตั้งค่าผิด อาจทำให้ VM ไม่สามารถบูตหรือใช้งาน vTPM ได้

    การตรวจสอบความน่าเชื่อถือ (attestation) ต้องใช้เครื่องมือเฉพาะและการทดสอบอย่างละเอียด
    ต้องใช้ AMD SEV tools และ kernel boot parameters เช่น amd_sev.debug=1
    หากไม่ตรวจสอบอย่างถูกต้อง อาจเกิดช่องโหว่ด้านความปลอดภัย

    https://linuxconfig.org/comprehensive-amd-sev-vtpm-support-in-linux-kernel-6-16-enhances-confidential-computing
    🔐 เรื่องเล่าจากเคอร์เนล: เมื่อ Linux กลายเป็นแพลตฟอร์มที่ปลอดภัยที่สุดสำหรับงานลับสุดยอด ในเดือนกรกฎาคม 2025 Linux Kernel 6.16 ได้เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์ ซึ่งเป็นการรวมเทคโนโลยี Secure Encrypted Virtualization (SEV) และ Virtual Trusted Platform Module (vTPM) เข้าด้วยกัน เพื่อสร้างสภาพแวดล้อมการทำงานที่ปลอดภัยและแยกออกจากระบบโฮสต์โดยสิ้นเชิง vTPM คือ TPM แบบเสมือนที่ทำงานภายใน VM โดยถูกเข้ารหัสและแยกออกจาก hypervisor ด้วยเทคโนโลยี SEV-SNP ของ AMD ทำให้สามารถใช้ฟีเจอร์อย่าง Secure Boot, Measured Boot และ Remote Attestation ได้อย่างปลอดภัยในระบบคลาวด์หรือองค์กรที่ต้องการความมั่นคงสูง ฟีเจอร์นี้เหมาะกับองค์กรในภาคการเงิน, สาธารณสุข, และภาครัฐ ที่ต้องการความมั่นใจว่าข้อมูลสำคัญจะไม่ถูกเข้าถึงโดยผู้ให้บริการคลาวด์หรือระบบโฮสต์ที่ไม่ไว้วางใจ ✅ Linux Kernel 6.16 เพิ่มการรองรับ AMD SEV vTPM อย่างสมบูรณ์ ➡️ รองรับการสร้าง vTPM ภายใน VM ที่ถูกเข้ารหัสด้วย SEV-SNP ➡️ ใช้โปรโตคอลจาก AMD SVSM spec เพื่อให้ guest OS ติดต่อกับ vTPM ได้ ✅ vTPM ทำงานในหน่วยความจำที่ถูกแยกและเข้ารหัสโดยฮาร์ดแวร์ ➡️ ป้องกันการเข้าถึงจาก hypervisor และ guest OS ➡️ รองรับ TPM 2.0 เต็มรูปแบบ เช่น PCRs และการเข้ารหัสคีย์ ✅ รองรับการตรวจสอบความน่าเชื่อถือของระบบ (attestation) และ Secure Boot ➡️ เหมาะกับการใช้งานใน Zero Trust Architecture ➡️ ช่วยให้มั่นใจว่า VM ทำงานในสภาพแวดล้อมที่ปลอดภัยจริง ✅ เหมาะกับองค์กรที่ต้องการความปลอดภัยระดับสูง เช่น การเงิน, สาธารณสุข, และภาครัฐ ➡️ รองรับการปฏิบัติตามข้อกำหนดด้านความปลอดภัยและการเข้ารหัส ➡️ ลดการพึ่งพาเฟิร์มแวร์หรือ TPM แบบ proprietary ✅ สามารถใช้งานร่วมกับ hypervisor อย่าง KVM และเครื่องมือจัดการ VM บน Linux ➡️ รองรับการตั้งค่า kernel เช่น CONFIG_TCG_SVSM=y ➡️ มีเครื่องมือสำหรับตรวจสอบสถานะการเข้ารหัสและการทำงานของ vTPM ‼️ การใช้งาน vTPM ต้องมีการตั้งค่าฮาร์ดแวร์และ BIOS ที่รองรับ SEV-SNP ⛔ หาก CPU หรือ BIOS ไม่รองรับ จะไม่สามารถเปิดใช้งานฟีเจอร์นี้ได้ ⛔ ต้องตรวจสอบว่าเปิดใช้งาน Secure Memory Encryption แล้ว ‼️ การเข้ารหัสและการตรวจสอบแบบฮาร์ดแวร์อาจเพิ่มภาระการประมวลผล ⛔ มี overhead ด้านประสิทธิภาพ โดยเฉพาะใน workload ที่ใช้ vTPM หนัก ⛔ ต้องวางแผนการจัดสรรทรัพยากรอย่างรอบคอบ ‼️ การตั้งค่า kernel และการคอมไพล์ต้องแม่นยำเพื่อให้ vTPM ทำงานได้สมบูรณ์ ⛔ ต้องเปิดใช้งานโมดูลที่เกี่ยวข้อง เช่น CONFIG_KVM_AMD_SEV ⛔ หากตั้งค่าผิด อาจทำให้ VM ไม่สามารถบูตหรือใช้งาน vTPM ได้ ‼️ การตรวจสอบความน่าเชื่อถือ (attestation) ต้องใช้เครื่องมือเฉพาะและการทดสอบอย่างละเอียด ⛔ ต้องใช้ AMD SEV tools และ kernel boot parameters เช่น amd_sev.debug=1 ⛔ หากไม่ตรวจสอบอย่างถูกต้อง อาจเกิดช่องโหว่ด้านความปลอดภัย https://linuxconfig.org/comprehensive-amd-sev-vtpm-support-in-linux-kernel-6-16-enhances-confidential-computing
    LINUXCONFIG.ORG
    Comprehensive AMD SEV vTPM Support in Linux Kernel 6.16 Enhances Confidential Computing
    Linux kernel 6.16 introduces comprehensive AMD SEV vTPM support, enhancing virtual machine security and confidential computing capabilities with hardware-backed attestation and secure boot verification.
    0 Comments 0 Shares 281 Views 0 Reviews
  • เรื่องเล่าจากสนามทดสอบ: เมื่อ Intel และ AMD แลกหมัดกันทั้ง CPU และ GPU

    ในเดือนกรกฎาคม 2025 เว็บไซต์ Wccftech รายงานผลการเปรียบเทียบระหว่าง Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 ซึ่งเป็นซีพียูระดับกลางสำหรับโน้ตบุ๊กที่ใช้สถาปัตยกรรมใหม่ล่าสุด—Arrow Lake และ Krackan Point ตามลำดับ

    ผลการทดสอบจาก Geekerwan พบว่า ทั้งสองรุ่นมีประสิทธิภาพใกล้เคียงกันในงานทั่วไปและเกม โดย Intel มีข้อได้เปรียบด้าน “ความร้อน” ที่ต่ำกว่าอย่างชัดเจน ส่วน AMD ก็มีข้อได้เปรียบด้าน “จำนวนเธรด” และความเร็ว GPU ที่สูงกว่า

    ด้านกราฟิกในตัว (iGPU) Intel Arc 130T และ AMD Radeon 860M ก็แลกหมัดกันอย่างสูสี โดย Arc 130T มีคะแนนรวมสูงกว่าในหลายเบนช์มาร์ก แต่ Radeon 860M กลับทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ปรับกราฟิกสูง

    Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 มีประสิทธิภาพใกล้เคียงกันในงานทั่วไป
    Intel มี 14 คอร์ (ไม่มี hyperthreading) ส่วน AMD มี 8 คอร์ 16 เธรด
    Intel ใช้สถาปัตยกรรม Arrow Lake-H ส่วน AMD ใช้ Zen 5 + Zen 5c

    ผลทดสอบ Cinebench R23 แสดงว่า Intel ดีกว่าเล็กน้อยที่กำลังไฟสูง (60–80W)
    AMD ดีกว่าในช่วงกำลังไฟต่ำ (10–25W)
    Intel เร็วกว่า ~2.5% โดยรวม

    Intel Core Ultra 5 225H มีอุณหภูมิสูงสุดต่ำกว่า Ryzen AI 7 350 อย่างชัดเจน
    Intel อยู่ที่ <90°C ขณะโหลดเต็ม
    AMD แตะ 100°C ทำให้เครื่องร้อนกว่า

    Intel Arc 130T และ AMD Radeon 860M มีประสิทธิภาพใกล้เคียงกันในเกม
    Arc 130T ใช้ Xe2 architecture, 896 shaders, 3.9 TFLOPS
    Radeon 860M ใช้ RDNA 3.5, 512 shaders, 3.1 TFLOPS

    Arc 130T ทำคะแนนสูงกว่าใน 3DMark และ Geekbench GPU tests
    สูงกว่า Radeon 860M ถึง 42% ใน Geekbench Compute
    แต่ Radeon 860M ทำเฟรมเรตดีกว่าในบางเกม เช่น F1 24 และ GTA V

    โน้ตบุ๊กรุ่น Ideapad Pro 5 มีทั้งเวอร์ชัน Intel และ AMD ให้เลือก
    ใช้ชิปทั้งสองรุ่นในบอดี้เดียวกัน
    เหมาะกับผู้ใช้ทั่วไปและเกมเมอร์สายประหยัด

    แม้ Arc 130T จะมีคะแนนเบนช์มาร์กสูง แต่ยังไม่ชนะ Radeon 860M ในทุกเกม
    Radeon 860M ทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ใช้กราฟิกหนัก
    Arc 130T เหมาะกับงาน AI และการประมวลผลมากกว่าเกมระดับสูง

    Ryzen AI 7 350 มีอุณหภูมิสูงกว่า อาจกระทบต่ออายุการใช้งานในโน้ตบุ๊กบางรุ่น
    อุณหภูมิแตะ 100°C ในการทดสอบ Cinebench R23
    อาจทำให้เครื่องร้อนและลดประสิทธิภาพเมื่อใช้งานต่อเนื่อง

    Intel Core Ultra 5 225H ไม่มี hyperthreading แม้จะมีคอร์มากกว่า
    มี 14 คอร์แต่แค่ 14 เธรด ขณะที่ AMD มี 8 คอร์ 16 เธรด
    อาจเสียเปรียบในงานที่ใช้เธรดจำนวนมาก เช่น การเรนเดอร์หรือ AI

    ทั้งสองรุ่นยังไม่เหมาะกับเกม 4K หรือกราฟิกระดับ Ultra
    เฟรมเรตเฉลี่ยอยู่ที่ 20–30 FPS ใน 1080p Ultra
    เหมาะกับเกมที่ปรับกราฟิกระดับ Low–Medium มากกว่า

    https://wccftech.com/core-ultra-5-225h-trades-blows-with-ryzen-ai-7-350-but-with-better-thermals/
    ⚔️ เรื่องเล่าจากสนามทดสอบ: เมื่อ Intel และ AMD แลกหมัดกันทั้ง CPU และ GPU ในเดือนกรกฎาคม 2025 เว็บไซต์ Wccftech รายงานผลการเปรียบเทียบระหว่าง Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 ซึ่งเป็นซีพียูระดับกลางสำหรับโน้ตบุ๊กที่ใช้สถาปัตยกรรมใหม่ล่าสุด—Arrow Lake และ Krackan Point ตามลำดับ ผลการทดสอบจาก Geekerwan พบว่า ทั้งสองรุ่นมีประสิทธิภาพใกล้เคียงกันในงานทั่วไปและเกม โดย Intel มีข้อได้เปรียบด้าน “ความร้อน” ที่ต่ำกว่าอย่างชัดเจน ส่วน AMD ก็มีข้อได้เปรียบด้าน “จำนวนเธรด” และความเร็ว GPU ที่สูงกว่า ด้านกราฟิกในตัว (iGPU) Intel Arc 130T และ AMD Radeon 860M ก็แลกหมัดกันอย่างสูสี โดย Arc 130T มีคะแนนรวมสูงกว่าในหลายเบนช์มาร์ก แต่ Radeon 860M กลับทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ปรับกราฟิกสูง ✅ Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 มีประสิทธิภาพใกล้เคียงกันในงานทั่วไป ➡️ Intel มี 14 คอร์ (ไม่มี hyperthreading) ส่วน AMD มี 8 คอร์ 16 เธรด ➡️ Intel ใช้สถาปัตยกรรม Arrow Lake-H ส่วน AMD ใช้ Zen 5 + Zen 5c ✅ ผลทดสอบ Cinebench R23 แสดงว่า Intel ดีกว่าเล็กน้อยที่กำลังไฟสูง (60–80W) ➡️ AMD ดีกว่าในช่วงกำลังไฟต่ำ (10–25W) ➡️ Intel เร็วกว่า ~2.5% โดยรวม ✅ Intel Core Ultra 5 225H มีอุณหภูมิสูงสุดต่ำกว่า Ryzen AI 7 350 อย่างชัดเจน ➡️ Intel อยู่ที่ <90°C ขณะโหลดเต็ม ➡️ AMD แตะ 100°C ทำให้เครื่องร้อนกว่า ✅ Intel Arc 130T และ AMD Radeon 860M มีประสิทธิภาพใกล้เคียงกันในเกม ➡️ Arc 130T ใช้ Xe2 architecture, 896 shaders, 3.9 TFLOPS ➡️ Radeon 860M ใช้ RDNA 3.5, 512 shaders, 3.1 TFLOPS ✅ Arc 130T ทำคะแนนสูงกว่าใน 3DMark และ Geekbench GPU tests ➡️ สูงกว่า Radeon 860M ถึง 42% ใน Geekbench Compute ➡️ แต่ Radeon 860M ทำเฟรมเรตดีกว่าในบางเกม เช่น F1 24 และ GTA V ✅ โน้ตบุ๊กรุ่น Ideapad Pro 5 มีทั้งเวอร์ชัน Intel และ AMD ให้เลือก ➡️ ใช้ชิปทั้งสองรุ่นในบอดี้เดียวกัน ➡️ เหมาะกับผู้ใช้ทั่วไปและเกมเมอร์สายประหยัด ‼️ แม้ Arc 130T จะมีคะแนนเบนช์มาร์กสูง แต่ยังไม่ชนะ Radeon 860M ในทุกเกม ⛔ Radeon 860M ทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ใช้กราฟิกหนัก ⛔ Arc 130T เหมาะกับงาน AI และการประมวลผลมากกว่าเกมระดับสูง ‼️ Ryzen AI 7 350 มีอุณหภูมิสูงกว่า อาจกระทบต่ออายุการใช้งานในโน้ตบุ๊กบางรุ่น ⛔ อุณหภูมิแตะ 100°C ในการทดสอบ Cinebench R23 ⛔ อาจทำให้เครื่องร้อนและลดประสิทธิภาพเมื่อใช้งานต่อเนื่อง ‼️ Intel Core Ultra 5 225H ไม่มี hyperthreading แม้จะมีคอร์มากกว่า ⛔ มี 14 คอร์แต่แค่ 14 เธรด ขณะที่ AMD มี 8 คอร์ 16 เธรด ⛔ อาจเสียเปรียบในงานที่ใช้เธรดจำนวนมาก เช่น การเรนเดอร์หรือ AI ‼️ ทั้งสองรุ่นยังไม่เหมาะกับเกม 4K หรือกราฟิกระดับ Ultra ⛔ เฟรมเรตเฉลี่ยอยู่ที่ 20–30 FPS ใน 1080p Ultra ⛔ เหมาะกับเกมที่ปรับกราฟิกระดับ Low–Medium มากกว่า https://wccftech.com/core-ultra-5-225h-trades-blows-with-ryzen-ai-7-350-but-with-better-thermals/
    WCCFTECH.COM
    Core Ultra 5 225H Trades Blows With Ryzen AI 7 350 But With Better Thermals; Arc 130T Comes On Par With Radeon 860M
    The Intel Core Ultra 5 225H was benchmarked against Ryzen AI 7 350 and delivered equivalent synthetic and gaming performance but with better temperatures.
    0 Comments 0 Shares 223 Views 0 Reviews
  • เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่

    7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น:
    - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA)
    - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3
    - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference
    - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น
    - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้
    - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n

    DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache
    ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง
    MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement
    ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference

    DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers
    ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน
    การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย
    หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert

    OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block
    ช่วยเสถียรภาพในการฝึกและลด loss
    QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง
    ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน

    Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ
    ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น
    Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป
    เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่

    Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก
    แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ
    Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก
    ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก

    Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม
    ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3

    Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense)
    Active parameter มีแค่ 17B แม้ model จะมี 400B

    Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B
    รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน

    SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย
    แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน
    การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ
    เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา

    https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    🎙️ เรื่องเล่าจากโลก LLMs: พาไปส่องโครงสร้างภายในของโมเดล AI ยักษ์ยุคใหม่ 7 ปีผ่านไปจาก GPT-2 ถึงวันนี้ แม้โมเดลจะดูคล้ายกันมาก แต่ภายใต้ “กลไกเล็ก ๆ” กลับมีการเปลี่ยนแปลงครั้งใหญ่ในเรื่องประสิทธิภาพและหน่วยความจำ เช่น: - เปลี่ยนจาก Multi-Head Attention (MHA) เป็น Grouped-Query Attention (GQA) - ใช้ Multi-Head Latent Attention (MLA) ในบางโมเดล เช่น DeepSeek V3 - การใช้ Mixture-of-Experts (MoE) เพื่อเพิ่มพารามิเตอร์โดยไม่เพิ่มต้นทุน inference - การปรับตำแหน่งของ Normalization Layer เพื่อให้โมเดลเสถียรขึ้น - ใช้ Sliding Window Attention และ QK-Norm เพื่อประหยัด KV cache และเร่งการเรียนรู้ - ลดขนาดโมเดลโดยยังให้ความสามารถสูง เช่น SmolLM3 กับ Gemma 3n ✅ DeepSeek V3 ใช้ Multi-Head Latent Attention (MLA) แทน GQA เพื่อประหยัด KV cache ➡️ ขณะเดียวกันยังให้ผลลัพธ์ดีกว่า MHA และใช้พารามิเตอร์น้อยลง ‼️ MLA แม้มีผลดี แต่ยังใหม่และซับซ้อนในการ implement ⛔ ต้องใช้การบีบอัดและ projection ซึ่งเพิ่มขั้นตอนในการ inference ✅ DeepSeek V3 ใช้ Mixture-of-Experts (MoE) ที่มี 256 expert layers ➡️ ใช้เพียง 9 expert ต่อ token ขณะ inference ทำให้ประหยัดพลังงาน ‼️ การใช้ MoE ทำให้ parameter ทั้งหมดเยอะมาก แม้จะใช้จริงเพียงส่วนน้อย ⛔ หากระบบ routing ไม่ดีหรือไม่เสถียร อาจเกิด undertraining ในบาง expert ✅ OLMo 2 ใช้ Post-Norm แบบใหม่ และเพิ่ม QK-Norm ภายใน attention block ➡️ ช่วยเสถียรภาพในการฝึกและลด loss ‼️ QK-Norm และการสลับ Pre/Post-Norm ต้องทดลองอย่างระวัง ⛔ ถ้าใช้ผิดจังหวะอาจทำให้ training loss แปรปรวน ✅ Gemma 3 ใช้ Sliding Window Attention เพื่อลดการใช้หน่วยความจำ ➡️ ลดขนาด window เหลือ 1024 token และมี Global Attention เฉพาะบางชั้น ‼️ Sliding Window Attention ลด memory แต่ไม่ลด latency เสมอไป ⛔ เพราะยังต้องประมวลผลแบบ local ซึ่งไม่สามารถใช้ FlashAttention ได้เต็มที่ ✅ Gemma 3n ใช้ Per-Layer Embedding เพื่อให้ inference บนอุปกรณ์เล็ก ➡️ แยก parameter บางส่วนไว้บน CPU หรือ SSD แล้วโหลดตามต้องการ ‼️ Per-Layer Embedding ทำให้พารามิเตอร์ถูกสตรีมจากอุปกรณ์ภายนอก ⛔ ถ้า bandwidth หรือ latency สูงเกินไปจะกระทบต่อการ inference อย่างหนัก ✅ Mistral Small 3.1 เลิกใช้ Sliding Attention เพื่อรองรับ FlashAttention แบบเต็ม ➡️ ทำให้ inference เร็วขึ้นแม้จะมีพารามิเตอร์ใกล้เคียงกับ Gemma 3 ✅ Llama 4 ใช้ MoE แบบ alternated (สลับชั้น MoE กับ Dense) ➡️ Active parameter มีแค่ 17B แม้ model จะมี 400B ✅ Qwen3 มีรุ่น dense ขนาดเล็กมาก (เช่น 0.6B) และ MoE ขนาดใหญ่ถึง 235B ➡️ รุ่น MoE ไม่มี shared expert แต่ยังใช้ GQA เหมือนรุ่นก่อน ✅ SmolLM3 ใช้ NoPE (No Positional Embeddings) แบบไม่ระบุตำแหน่งเลย ➡️ แสดงให้เห็นว่าไม่ต้องใช้ embedding ก็สามารถเรียนรู้ลำดับได้บางส่วน ‼️ การไม่มี Positional Embedding (เช่น NoPE) อาจกระทบโมเดลใน task ที่ต้องอิงลำดับ ⛔ เช่นการสรุปเนื้อหายาว หรือการจัดเรียงข้อมูลตามเวลา https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison
    MAGAZINE.SEBASTIANRASCHKA.COM
    The Big LLM Architecture Comparison
    From DeepSeek-V3 to Kimi K2: A Look At Modern LLM Architecture Design
    0 Comments 0 Shares 301 Views 0 Reviews
  • เรื่องเล่าจากสนามทดลอง: สร้างซอฟต์แวร์กับ AI แบบไม่รู้ว่าทำไปเพื่ออะไร แต่ก็เวิร์ก

    Scott เล่าถึงการสร้างเว็บแอปชื่อ Protocollie ภายใน 4 วัน — โดยไม่เขียนโค้ดเอง, ไม่รู้ภาษาที่ใช้, และไม่รู้แน่ว่าทำซ้ำได้ไหม มันเกิดจากการ “โยนสคริปต์ใส่ Claude แล้วดูว่ามันจะตอบกลับมายังไง”

    เขาอธิบายว่าเรากำลังอยู่ในช่วงที่ทุกคนคือ "Junior Developer แบบถาวร" เพราะ AI เปลี่ยนเร็วเกินกว่าประสบการณ์จะตามทัน — ทำให้ทักษะที่สำคัญไม่ใช่ syntax, algorithm, หรือ architecture อีกต่อไป แต่คือ:

    “โครงสร้างของความต้องการ” (Structured Wishing) “จินตนาการที่แม่นยำ” (Precise Imagination)

    เขาแชร์ระบบงานที่ใช้จริง ซึ่งประกอบด้วย 4 เอกสารที่เกิดขึ้นจากการ “ลืม-แล้วแก้-แล้วเขียนบันทึก” มากกว่าการวางแผน:

    1️⃣ Architecture Overview – อธิบายว่าระบบคืออะไรในแบบที่ “ไม่แน่ใจ”

    2️⃣ Technical Considerations – เป็นรายการของสิ่งที่เคยหงุดหงิดกับ Claude

    3️⃣ Workflow Process – ให้ Claude เขียน “พิธีกรรม” ที่ใช้ทำงานร่วมกันไว้

    4️⃣ Story Breakdown – หั่นงานเป็นช่วง 15-30 นาที เพื่อให้ Claude ไม่ลืมทุกอย่าง

    และเขายังพูดถึงการ “ทำงานแบบเวลาเบี้ยว” ที่ Claude สร้างโค้ดได้เป็นหมื่นบรรทัดในขณะที่เขากินข้าว เช็กกลับแค่ 5 นาที แล้วปรับคำสั่งเพียงหนึ่งบรรทัด ทุกอย่างดูไม่เหมือน “งานเขียนโปรแกรม” อีกต่อไป

    ผู้เขียนสร้างแอป Protocollie ใน 4 วัน ด้วยภาษาที่ไม่เชี่ยวชาญ และไม่ได้เขียนโค้ดเอง
    ใช้ Claude ช่วยคิดและเขียนทั้งหมด เพียงแค่เขาชี้เป้าหมายและตรวจงาน

    แบ่งระบบการทำงานออกเป็น 4 เอกสารที่เกิดขึ้นจาก “การลืม” และ “การซ่อม”
    ได้แก่ภาพรวม, ข้อเทคนิค, ขั้นตอนงาน, และการแบ่งงานเป็นช่วงเวลา

    สัมผัสว่า AI ทำงานไวผิดปกติ — แค่ขอสิ่งหนึ่งแล้วไปใช้ชีวิต มันจะกลับมาพร้อมผลลัพธ์มหาศาล
    เปรียบ Claude เป็น Junior Developer ที่ไม่เบื่อ ไม่ช้า และไม่มี Twitter

    แนวคิดหลักคือ “การทดลองร่วม” — ไม่มีสูตรสำเร็จหรือเส้นทางเดิม
    ทุกคนกำลังโยน spaghetti ใส่กำแพง แล้วดูว่าจะมีอะไรติดบ้าง

    ระบบเอกสารที่ใช้ถูกอัปโหลดไว้บน GitHub เป็น “หลักฐานของบางสิ่งที่เคยเวิร์ก”
    ไม่ใช่คู่มือ ไม่ใช่ template แต่เป็นแค่รอยทางให้คนอื่นดูแล้วเลือกเอง

    ไม่มีใครเป็นผู้เชี่ยวชาญในการสร้างซอฟต์แวร์ร่วมกับ AI
    แม้คนเก่งที่สุดก็ยังเพิ่งเริ่มต้น เพราะ AI เปลี่ยนเร็วกว่า "ความเป็นผู้รู้"

    ระบบที่เวิร์กในหนึ่งสัปดาห์อาจใช้ไม่ได้เลยในอีกสองสัปดาห์
    ทุกสิ่งคือ data point ของการทดลอง ไม่มีอะไรถาวร

    การวางแผนแบบ "พยายามให้มีแผน" อาจกลายเป็นแค่การแสดงสมมุติ
    เช่น การเรียกไฟล์ว่า architecture ไม่ได้แปลว่าเรามีโครงสร้างจริง

    ความเร็วในการสร้างซอฟต์แวร์แบบนี้อาจทำให้รู้สึกว่า "เรากำลังโกง" หรือ "มันไม่จริง"
    แต่ความจริงคือรูปแบบการทำงานกำลังเปลี่ยนไปอย่างถอนราก

    https://worksonmymachine.substack.com/p/nobody-knows-how-to-build-with-ai
    🎙️ เรื่องเล่าจากสนามทดลอง: สร้างซอฟต์แวร์กับ AI แบบไม่รู้ว่าทำไปเพื่ออะไร แต่ก็เวิร์ก Scott เล่าถึงการสร้างเว็บแอปชื่อ Protocollie ภายใน 4 วัน — โดยไม่เขียนโค้ดเอง, ไม่รู้ภาษาที่ใช้, และไม่รู้แน่ว่าทำซ้ำได้ไหม มันเกิดจากการ “โยนสคริปต์ใส่ Claude แล้วดูว่ามันจะตอบกลับมายังไง” เขาอธิบายว่าเรากำลังอยู่ในช่วงที่ทุกคนคือ "Junior Developer แบบถาวร" เพราะ AI เปลี่ยนเร็วเกินกว่าประสบการณ์จะตามทัน — ทำให้ทักษะที่สำคัญไม่ใช่ syntax, algorithm, หรือ architecture อีกต่อไป แต่คือ: 🔖🔖“โครงสร้างของความต้องการ” (Structured Wishing) “จินตนาการที่แม่นยำ” (Precise Imagination) เขาแชร์ระบบงานที่ใช้จริง ซึ่งประกอบด้วย 4 เอกสารที่เกิดขึ้นจากการ “ลืม-แล้วแก้-แล้วเขียนบันทึก” มากกว่าการวางแผน: 1️⃣ Architecture Overview – อธิบายว่าระบบคืออะไรในแบบที่ “ไม่แน่ใจ” 2️⃣ Technical Considerations – เป็นรายการของสิ่งที่เคยหงุดหงิดกับ Claude 3️⃣ Workflow Process – ให้ Claude เขียน “พิธีกรรม” ที่ใช้ทำงานร่วมกันไว้ 4️⃣ Story Breakdown – หั่นงานเป็นช่วง 15-30 นาที เพื่อให้ Claude ไม่ลืมทุกอย่าง และเขายังพูดถึงการ “ทำงานแบบเวลาเบี้ยว” ที่ Claude สร้างโค้ดได้เป็นหมื่นบรรทัดในขณะที่เขากินข้าว เช็กกลับแค่ 5 นาที แล้วปรับคำสั่งเพียงหนึ่งบรรทัด ทุกอย่างดูไม่เหมือน “งานเขียนโปรแกรม” อีกต่อไป ✅ ผู้เขียนสร้างแอป Protocollie ใน 4 วัน ด้วยภาษาที่ไม่เชี่ยวชาญ และไม่ได้เขียนโค้ดเอง ➡️ ใช้ Claude ช่วยคิดและเขียนทั้งหมด เพียงแค่เขาชี้เป้าหมายและตรวจงาน ✅ แบ่งระบบการทำงานออกเป็น 4 เอกสารที่เกิดขึ้นจาก “การลืม” และ “การซ่อม” ➡️ ได้แก่ภาพรวม, ข้อเทคนิค, ขั้นตอนงาน, และการแบ่งงานเป็นช่วงเวลา ✅ สัมผัสว่า AI ทำงานไวผิดปกติ — แค่ขอสิ่งหนึ่งแล้วไปใช้ชีวิต มันจะกลับมาพร้อมผลลัพธ์มหาศาล ➡️ เปรียบ Claude เป็น Junior Developer ที่ไม่เบื่อ ไม่ช้า และไม่มี Twitter ✅ แนวคิดหลักคือ “การทดลองร่วม” — ไม่มีสูตรสำเร็จหรือเส้นทางเดิม ➡️ ทุกคนกำลังโยน spaghetti ใส่กำแพง แล้วดูว่าจะมีอะไรติดบ้าง ✅ ระบบเอกสารที่ใช้ถูกอัปโหลดไว้บน GitHub เป็น “หลักฐานของบางสิ่งที่เคยเวิร์ก” ➡️ ไม่ใช่คู่มือ ไม่ใช่ template แต่เป็นแค่รอยทางให้คนอื่นดูแล้วเลือกเอง ‼️ ไม่มีใครเป็นผู้เชี่ยวชาญในการสร้างซอฟต์แวร์ร่วมกับ AI ⛔ แม้คนเก่งที่สุดก็ยังเพิ่งเริ่มต้น เพราะ AI เปลี่ยนเร็วกว่า "ความเป็นผู้รู้" ‼️ ระบบที่เวิร์กในหนึ่งสัปดาห์อาจใช้ไม่ได้เลยในอีกสองสัปดาห์ ⛔ ทุกสิ่งคือ data point ของการทดลอง ไม่มีอะไรถาวร ‼️ การวางแผนแบบ "พยายามให้มีแผน" อาจกลายเป็นแค่การแสดงสมมุติ ⛔ เช่น การเรียกไฟล์ว่า architecture ไม่ได้แปลว่าเรามีโครงสร้างจริง ‼️ ความเร็วในการสร้างซอฟต์แวร์แบบนี้อาจทำให้รู้สึกว่า "เรากำลังโกง" หรือ "มันไม่จริง" ⛔ แต่ความจริงคือรูปแบบการทำงานกำลังเปลี่ยนไปอย่างถอนราก https://worksonmymachine.substack.com/p/nobody-knows-how-to-build-with-ai
    WORKSONMYMACHINE.SUBSTACK.COM
    Nobody Knows How To Build With AI Yet
    The future of software development might just be jazz. Everyone improvising. Nobody following the sheet music.
    0 Comments 0 Shares 304 Views 0 Reviews
  • AMD Zen 6 – ซีพียูยุคใหม่ที่เพิ่มคอร์ เพิ่มแคช และปรับโครงสร้างให้ฉลาดขึ้น

    AMD กำลังเตรียมเปิดตัวโปรเซสเซอร์ Ryzen รุ่นใหม่ที่ใช้สถาปัตยกรรม Zen 6 โดยล่าสุดมีการส่งตัวอย่าง (engineering samples) ให้กับพันธมิตรในอุตสาหกรรมแล้ว เช่น ผู้ผลิตเมนบอร์ดและนักพัฒนาซอฟต์แวร์ปรับแต่ง

    Zen 6 จะเป็นการ “พัฒนาเชิงวิวัฒนาการ” จาก Zen 5 มากกว่าการเปลี่ยนแปลงแบบพลิกโฉม โดยมีจุดเด่นหลายด้าน:
    - จำนวนคอร์ต่อ CCD เพิ่มขึ้นเป็น 12 คอร์ในรุ่น Classic และ 16 คอร์ในรุ่น Dense
    - แคช L3 ต่อ CCD เพิ่มขึ้นเป็น 48 MB
    - มีการออกแบบ memory controller แบบใหม่เป็น “dual IMC” แม้จะยังใช้ dual-channel เหมือนเดิม
    - รองรับ DDR5 ความเร็วสูงขึ้น
    - ไม่มีการเปลี่ยนแปลงใหญ่ในระบบ Boost หรือ Curve Optimizer ทำให้ซอฟต์แวร์ปรับแต่งเดิมยังใช้ได้

    แม้จะยังไม่ประกาศวันเปิดตัวอย่างเป็นทางการ แต่คาดว่า Zen 6 จะวางจำหน่ายช่วงกลางถึงปลายปี 2026 ซึ่งจะชนกับ Intel Nova Lake-S ที่มีสูงสุดถึง 52 คอร์

    ข้อมูลจากข่าว
    - AMD ส่งตัวอย่าง Zen 6 ให้พันธมิตรแล้ว เช่น ผู้ผลิตเมนบอร์ด
    - Zen 6 เป็นการพัฒนาต่อจาก Zen 5 แบบ “วิวัฒนาการ” ไม่ใช่ “ปฏิวัติ”
    - CCD รุ่นใหม่มี 12–16 คอร์ และแคช L3 สูงสุด 48 MB ต่อ CCD
    - มีการออกแบบ dual IMC แต่ยังใช้ dual-channel memory layout
    - รองรับ DDR5 ความเร็วสูงขึ้น
    - ไม่มีการเปลี่ยนแปลงใน Boost Algorithms และ Curve Optimizer
    - คาดว่า Zen 6 จะเปิดตัวกลางถึงปลายปี 2026
    - อาจมีรุ่นสูงสุดถึง 24 คอร์ 48 เธรด พร้อมแคชรวม 96 MB หรือมากกว่านั้นในรุ่น X3D

    คำเตือนและข้อควรระวัง
    - Zen 6 ยังไม่เข้าสู่ขั้นตอน “tape-out” อย่างเป็นทางการ อาจมีความล่าช้าในการผลิต
    - การเพิ่มจำนวนคอร์และแคชอาจทำให้ต้นทุนสูงขึ้น และต้องใช้เมนบอร์ดที่รองรับ
    - dual IMC อาจทำให้บางเมนบอร์ดรุ่นเก่าไม่สามารถใช้ได้เต็มประสิทธิภาพ
    - การแข่งขันกับ Intel Nova Lake-S ที่มี 52 คอร์อาจทำให้ AMD ต้องเร่งพัฒนาให้ทัน
    - ผู้ใช้ทั่วไปอาจไม่เห็นประโยชน์จากจำนวนคอร์ที่เพิ่มขึ้น หากไม่ได้ใช้งานแบบมัลติทาสก์หรือประมวลผลหนัก

    https://wccftech.com/amd-ryzen-zen-6-cpu-samples-distributed-architecture-evolution-more-cores-per-ccd-new-dual-imc-design/
    AMD Zen 6 – ซีพียูยุคใหม่ที่เพิ่มคอร์ เพิ่มแคช และปรับโครงสร้างให้ฉลาดขึ้น AMD กำลังเตรียมเปิดตัวโปรเซสเซอร์ Ryzen รุ่นใหม่ที่ใช้สถาปัตยกรรม Zen 6 โดยล่าสุดมีการส่งตัวอย่าง (engineering samples) ให้กับพันธมิตรในอุตสาหกรรมแล้ว เช่น ผู้ผลิตเมนบอร์ดและนักพัฒนาซอฟต์แวร์ปรับแต่ง Zen 6 จะเป็นการ “พัฒนาเชิงวิวัฒนาการ” จาก Zen 5 มากกว่าการเปลี่ยนแปลงแบบพลิกโฉม โดยมีจุดเด่นหลายด้าน: - จำนวนคอร์ต่อ CCD เพิ่มขึ้นเป็น 12 คอร์ในรุ่น Classic และ 16 คอร์ในรุ่น Dense - แคช L3 ต่อ CCD เพิ่มขึ้นเป็น 48 MB - มีการออกแบบ memory controller แบบใหม่เป็น “dual IMC” แม้จะยังใช้ dual-channel เหมือนเดิม - รองรับ DDR5 ความเร็วสูงขึ้น - ไม่มีการเปลี่ยนแปลงใหญ่ในระบบ Boost หรือ Curve Optimizer ทำให้ซอฟต์แวร์ปรับแต่งเดิมยังใช้ได้ แม้จะยังไม่ประกาศวันเปิดตัวอย่างเป็นทางการ แต่คาดว่า Zen 6 จะวางจำหน่ายช่วงกลางถึงปลายปี 2026 ซึ่งจะชนกับ Intel Nova Lake-S ที่มีสูงสุดถึง 52 คอร์ ✅ ข้อมูลจากข่าว - AMD ส่งตัวอย่าง Zen 6 ให้พันธมิตรแล้ว เช่น ผู้ผลิตเมนบอร์ด - Zen 6 เป็นการพัฒนาต่อจาก Zen 5 แบบ “วิวัฒนาการ” ไม่ใช่ “ปฏิวัติ” - CCD รุ่นใหม่มี 12–16 คอร์ และแคช L3 สูงสุด 48 MB ต่อ CCD - มีการออกแบบ dual IMC แต่ยังใช้ dual-channel memory layout - รองรับ DDR5 ความเร็วสูงขึ้น - ไม่มีการเปลี่ยนแปลงใน Boost Algorithms และ Curve Optimizer - คาดว่า Zen 6 จะเปิดตัวกลางถึงปลายปี 2026 - อาจมีรุ่นสูงสุดถึง 24 คอร์ 48 เธรด พร้อมแคชรวม 96 MB หรือมากกว่านั้นในรุ่น X3D ‼️ คำเตือนและข้อควรระวัง - Zen 6 ยังไม่เข้าสู่ขั้นตอน “tape-out” อย่างเป็นทางการ อาจมีความล่าช้าในการผลิต - การเพิ่มจำนวนคอร์และแคชอาจทำให้ต้นทุนสูงขึ้น และต้องใช้เมนบอร์ดที่รองรับ - dual IMC อาจทำให้บางเมนบอร์ดรุ่นเก่าไม่สามารถใช้ได้เต็มประสิทธิภาพ - การแข่งขันกับ Intel Nova Lake-S ที่มี 52 คอร์อาจทำให้ AMD ต้องเร่งพัฒนาให้ทัน - ผู้ใช้ทั่วไปอาจไม่เห็นประโยชน์จากจำนวนคอร์ที่เพิ่มขึ้น หากไม่ได้ใช้งานแบบมัลติทาสก์หรือประมวลผลหนัก https://wccftech.com/amd-ryzen-zen-6-cpu-samples-distributed-architecture-evolution-more-cores-per-ccd-new-dual-imc-design/
    WCCFTECH.COM
    AMD Ryzen "Zen 6" CPU Samples Already Distributed, Architecture To Be A "Evolution" With More Cores Per CCD, New "Dual" IMC Design
    New details for next-gen AMD Ryzen CPUs based on the Zen 6 architecture have been revealed by 1usmus, pointing to an evolutionary design.
    0 Comments 0 Shares 356 Views 0 Reviews
  • MIPS จากตำนาน RISC สู่การเริ่มต้นใหม่ในอ้อมแขนของ GlobalFoundries

    ย้อนกลับไปในยุค 1980s MIPS คือหนึ่งในผู้บุกเบิกสถาปัตยกรรม RISC (Reduced Instruction Set Computing) โดยมี John Hennessy จาก Stanford เป็นผู้ร่วมออกแบบ และเปิดตัว CPU รุ่นแรกคือ R2000 ซึ่งมีเพียง 110,000 ทรานซิสเตอร์ แต่สามารถทำงานได้เร็วถึง 15MHz

    MIPS เคยเป็นคู่แข่งของ Intel และ Arm และมีบทบาทสำคัญในอุปกรณ์ระดับสูง เช่น:
    - Workstation ของ Silicon Graphics
    - เครื่องเล่นเกม Sony PlayStation รุ่นแรก
    - ยานสำรวจอวกาศ New Horizons ของ NASA

    แต่หลังจากนั้น MIPS ก็เปลี่ยนมือหลายครั้ง—ผ่าน Silicon Graphics, Imagination Technologies, Tallwood Ventures และ Wave Computing ก่อนจะล้มละลายและกลับมาอีกครั้งในปี 2020 โดยหันไปใช้สถาปัตยกรรม RISC-V แบบโอเพนซอร์ส

    แม้จะเปิดตัวซีรีส์ eVocore และ Atlas Explorer เพื่อเจาะตลาด AI และ edge computing แต่ก็ไม่สามารถสร้างแรงกระเพื่อมได้มากนัก จนล่าสุด GlobalFoundries เข้าซื้อกิจการ และจะให้ MIPS ดำเนินงานเป็นหน่วยธุรกิจอิสระที่เน้น AI, อุตสาหกรรม และระบบอัตโนมัติ

    ข้อมูลจากข่าว
    - MIPS เคยเป็นผู้นำด้าน RISC และอยู่เบื้องหลัง PlayStation รุ่นแรกและภารกิจของ NASA
    - เปิดตัว CPU รุ่นแรก R2000 ในปี 1986 และ R3000 ในปี 1988
    - ถูกซื้อโดย GlobalFoundries ซึ่งเคยเป็นโรงงานผลิตชิปของ AMD
    - MIPS จะดำเนินงานเป็นหน่วยธุรกิจอิสระภายใต้ GlobalFoundries
    - เป้าหมายใหม่คือ AI, ระบบอัตโนมัติ และ edge computing
    - เคยเปลี่ยนมาใช้ RISC-V architecture เพื่อกลับเข้าสู่ตลาด
    - CEO ของ MIPS มองว่าการเข้าร่วม GlobalFoundries คือ “การเริ่มต้นบทใหม่ที่กล้าหาญ”

    คำเตือนและข้อควรระวัง
    - แม้จะมีประวัติยิ่งใหญ่ แต่ MIPS ยังไม่สามารถสร้างแรงกระเพื่อมในตลาด AI ได้จริง
    - การเปลี่ยนมือบ่อยครั้งสะท้อนถึงความไม่มั่นคงของโมเดลธุรกิจ
    - RISC-V แม้จะเป็นมาตรฐานเปิด แต่ยังมีความไม่แน่นอนในด้าน ecosystem และการสนับสนุนเชิงพาณิชย์
    - การพึ่งพา GlobalFoundries อาจทำให้ MIPS ต้องปรับตัวตามกลยุทธ์ของบริษัทแม่
    - ผู้พัฒนาและองค์กรที่ใช้ IP ของ MIPS ควรติดตามการเปลี่ยนแปลงอย่างใกล้ชิด เพื่อประเมินผลกระทบในระยะยาว

    https://www.techradar.com/pro/arms-legendary-rival-was-in-the-original-playstation-now-in-a-twist-of-fate-mips-has-been-sold-to-amds-former-foundry
    MIPS จากตำนาน RISC สู่การเริ่มต้นใหม่ในอ้อมแขนของ GlobalFoundries ย้อนกลับไปในยุค 1980s MIPS คือหนึ่งในผู้บุกเบิกสถาปัตยกรรม RISC (Reduced Instruction Set Computing) โดยมี John Hennessy จาก Stanford เป็นผู้ร่วมออกแบบ และเปิดตัว CPU รุ่นแรกคือ R2000 ซึ่งมีเพียง 110,000 ทรานซิสเตอร์ แต่สามารถทำงานได้เร็วถึง 15MHz MIPS เคยเป็นคู่แข่งของ Intel และ Arm และมีบทบาทสำคัญในอุปกรณ์ระดับสูง เช่น: - Workstation ของ Silicon Graphics - เครื่องเล่นเกม Sony PlayStation รุ่นแรก - ยานสำรวจอวกาศ New Horizons ของ NASA แต่หลังจากนั้น MIPS ก็เปลี่ยนมือหลายครั้ง—ผ่าน Silicon Graphics, Imagination Technologies, Tallwood Ventures และ Wave Computing ก่อนจะล้มละลายและกลับมาอีกครั้งในปี 2020 โดยหันไปใช้สถาปัตยกรรม RISC-V แบบโอเพนซอร์ส แม้จะเปิดตัวซีรีส์ eVocore และ Atlas Explorer เพื่อเจาะตลาด AI และ edge computing แต่ก็ไม่สามารถสร้างแรงกระเพื่อมได้มากนัก จนล่าสุด GlobalFoundries เข้าซื้อกิจการ และจะให้ MIPS ดำเนินงานเป็นหน่วยธุรกิจอิสระที่เน้น AI, อุตสาหกรรม และระบบอัตโนมัติ ✅ ข้อมูลจากข่าว - MIPS เคยเป็นผู้นำด้าน RISC และอยู่เบื้องหลัง PlayStation รุ่นแรกและภารกิจของ NASA - เปิดตัว CPU รุ่นแรก R2000 ในปี 1986 และ R3000 ในปี 1988 - ถูกซื้อโดย GlobalFoundries ซึ่งเคยเป็นโรงงานผลิตชิปของ AMD - MIPS จะดำเนินงานเป็นหน่วยธุรกิจอิสระภายใต้ GlobalFoundries - เป้าหมายใหม่คือ AI, ระบบอัตโนมัติ และ edge computing - เคยเปลี่ยนมาใช้ RISC-V architecture เพื่อกลับเข้าสู่ตลาด - CEO ของ MIPS มองว่าการเข้าร่วม GlobalFoundries คือ “การเริ่มต้นบทใหม่ที่กล้าหาญ” ‼️ คำเตือนและข้อควรระวัง - แม้จะมีประวัติยิ่งใหญ่ แต่ MIPS ยังไม่สามารถสร้างแรงกระเพื่อมในตลาด AI ได้จริง - การเปลี่ยนมือบ่อยครั้งสะท้อนถึงความไม่มั่นคงของโมเดลธุรกิจ - RISC-V แม้จะเป็นมาตรฐานเปิด แต่ยังมีความไม่แน่นอนในด้าน ecosystem และการสนับสนุนเชิงพาณิชย์ - การพึ่งพา GlobalFoundries อาจทำให้ MIPS ต้องปรับตัวตามกลยุทธ์ของบริษัทแม่ - ผู้พัฒนาและองค์กรที่ใช้ IP ของ MIPS ควรติดตามการเปลี่ยนแปลงอย่างใกล้ชิด เพื่อประเมินผลกระทบในระยะยาว https://www.techradar.com/pro/arms-legendary-rival-was-in-the-original-playstation-now-in-a-twist-of-fate-mips-has-been-sold-to-amds-former-foundry
    0 Comments 0 Shares 420 Views 0 Reviews
  • Medusa Ridge – AMD เตรียมปล่อย Ryzen Zen 6 ที่เร็วขึ้น ฉลาดขึ้น และรองรับแรมแรงกว่าเดิม

    AMD กำลังส่งตัวอย่างโปรเซสเซอร์รุ่นใหม่ “Medusa Ridge” ที่ใช้สถาปัตยกรรม Zen 6 ให้กับพันธมิตร เช่น OEM และนักออกแบบแพลตฟอร์ม โดยมีการอัปเกรดทั้งในส่วนของ CCD (Core Complex Die) และ cIOD (Client I/O Die)

    Zen 6 จะผลิตบนเทคโนโลยี TSMC N2 (2 นาโนเมตร) ซึ่งมีความหนาแน่นของทรานซิสเตอร์สูงกว่ารุ่นก่อนอย่าง Zen 5 ที่ใช้ N4P ทำให้มีโอกาสเพิ่มจำนวนคอร์ต่อ CCD ได้ถึง 12 คอร์ พร้อมแคช L3 ขนาด 48 MB ต่อ CCD

    ยังไม่ชัดเจนว่า AMD จะใช้การจัดวางแบบ CCX เดียว 12 คอร์ หรือแบ่งเป็น 2 CCX (6 คอร์ + 24 MB L3 ต่อ CCX) แต่ไม่ว่าจะเป็นแบบใด ก็ถือเป็นการเพิ่มประสิทธิภาพอย่างมีนัยสำคัญ

    ส่วน cIOD ก็มีการอัปเกรดจาก 6 นาโนเมตรเป็น 5 หรือ 4 นาโนเมตร โดยเน้นการปรับปรุง memory controller ใหม่แบบ “dual memory controller architecture” ซึ่งยังคงใช้ 2 ช่อง DDR5 ต่อซ็อกเก็ต แต่สามารถรองรับความเร็วแรมที่สูงขึ้น เพื่อไล่ตาม Intel ให้ทัน

    แม้เทคโนโลยีการเร่งความเร็วซีพียู เช่น PBO และ Curve Optimizer จะยังไม่มีการเปลี่ยนแปลง แต่การสนับสนุนจากซอฟต์แวร์ Hydra ก็ยังคงใช้งานได้ตามปกติ

    ข้อมูลจากข่าว
    - AMD กำลังส่งตัวอย่างโปรเซสเซอร์ “Medusa Ridge” ที่ใช้ Zen 6 ให้พันธมิตร
    - Zen 6 ผลิตบนเทคโนโลยี TSMC N2 (2 นาโนเมตร) ซึ่งมีความหนาแน่นสูง
    - คาดว่าจะเพิ่มจำนวนคอร์ต่อ CCD เป็น 12 คอร์ พร้อมแคช L3 ขนาด 48 MB
    - ยังไม่ชัดเจนว่าจะใช้ CCX เดียวหรือแบ่งเป็น 2 CCX ต่อ CCD
    - cIOD ถูกอัปเกรดเป็น 5 หรือ 4 นาโนเมตร พร้อม dual memory controller architecture
    - รองรับ DDR5 2 ช่องต่อซ็อกเก็ต แต่สามารถเพิ่มความเร็วแรมได้มากขึ้น
    - ไม่มีการเปลี่ยนแปลงในเทคโนโลยี PBO และ Curve Optimizer
    - Hydra tuning software ยังคงรองรับ Zen 6 ได้ตามปกติ

    คำเตือนและข้อควรระวัง
    - ยังไม่มีการประกาศ “tape-out” อย่างเป็นทางการของ Zen 6 จาก AMD
    - การเพิ่มจำนวนคอร์และแคชอาจทำให้ต้นทุนสูงขึ้น และต้องใช้เมนบอร์ดที่รองรับ
    - การเปลี่ยนแปลงใน memory controller อาจทำให้เมนบอร์ดรุ่นเก่าไม่สามารถใช้ได้เต็มประสิทธิภาพ
    - การใช้เทคโนโลยี 2 นาโนเมตรยังอยู่ในช่วง risk production อาจมีความล่าช้าในการผลิตจริง
    - ผู้ใช้ทั่วไปอาจไม่เห็นประโยชน์จากจำนวนคอร์ที่เพิ่มขึ้น หากไม่ได้ใช้งานแบบมัลติทาสก์หรือประมวลผลหนัก


    https://www.techpowerup.com/338854/amd-sampling-next-gen-ryzen-desktop-medusa-ridge-sees-incremental-ipc-upgrade-new-ciod
    Medusa Ridge – AMD เตรียมปล่อย Ryzen Zen 6 ที่เร็วขึ้น ฉลาดขึ้น และรองรับแรมแรงกว่าเดิม AMD กำลังส่งตัวอย่างโปรเซสเซอร์รุ่นใหม่ “Medusa Ridge” ที่ใช้สถาปัตยกรรม Zen 6 ให้กับพันธมิตร เช่น OEM และนักออกแบบแพลตฟอร์ม โดยมีการอัปเกรดทั้งในส่วนของ CCD (Core Complex Die) และ cIOD (Client I/O Die) Zen 6 จะผลิตบนเทคโนโลยี TSMC N2 (2 นาโนเมตร) ซึ่งมีความหนาแน่นของทรานซิสเตอร์สูงกว่ารุ่นก่อนอย่าง Zen 5 ที่ใช้ N4P ทำให้มีโอกาสเพิ่มจำนวนคอร์ต่อ CCD ได้ถึง 12 คอร์ พร้อมแคช L3 ขนาด 48 MB ต่อ CCD ยังไม่ชัดเจนว่า AMD จะใช้การจัดวางแบบ CCX เดียว 12 คอร์ หรือแบ่งเป็น 2 CCX (6 คอร์ + 24 MB L3 ต่อ CCX) แต่ไม่ว่าจะเป็นแบบใด ก็ถือเป็นการเพิ่มประสิทธิภาพอย่างมีนัยสำคัญ ส่วน cIOD ก็มีการอัปเกรดจาก 6 นาโนเมตรเป็น 5 หรือ 4 นาโนเมตร โดยเน้นการปรับปรุง memory controller ใหม่แบบ “dual memory controller architecture” ซึ่งยังคงใช้ 2 ช่อง DDR5 ต่อซ็อกเก็ต แต่สามารถรองรับความเร็วแรมที่สูงขึ้น เพื่อไล่ตาม Intel ให้ทัน แม้เทคโนโลยีการเร่งความเร็วซีพียู เช่น PBO และ Curve Optimizer จะยังไม่มีการเปลี่ยนแปลง แต่การสนับสนุนจากซอฟต์แวร์ Hydra ก็ยังคงใช้งานได้ตามปกติ ✅ ข้อมูลจากข่าว - AMD กำลังส่งตัวอย่างโปรเซสเซอร์ “Medusa Ridge” ที่ใช้ Zen 6 ให้พันธมิตร - Zen 6 ผลิตบนเทคโนโลยี TSMC N2 (2 นาโนเมตร) ซึ่งมีความหนาแน่นสูง - คาดว่าจะเพิ่มจำนวนคอร์ต่อ CCD เป็น 12 คอร์ พร้อมแคช L3 ขนาด 48 MB - ยังไม่ชัดเจนว่าจะใช้ CCX เดียวหรือแบ่งเป็น 2 CCX ต่อ CCD - cIOD ถูกอัปเกรดเป็น 5 หรือ 4 นาโนเมตร พร้อม dual memory controller architecture - รองรับ DDR5 2 ช่องต่อซ็อกเก็ต แต่สามารถเพิ่มความเร็วแรมได้มากขึ้น - ไม่มีการเปลี่ยนแปลงในเทคโนโลยี PBO และ Curve Optimizer - Hydra tuning software ยังคงรองรับ Zen 6 ได้ตามปกติ ‼️ คำเตือนและข้อควรระวัง - ยังไม่มีการประกาศ “tape-out” อย่างเป็นทางการของ Zen 6 จาก AMD - การเพิ่มจำนวนคอร์และแคชอาจทำให้ต้นทุนสูงขึ้น และต้องใช้เมนบอร์ดที่รองรับ - การเปลี่ยนแปลงใน memory controller อาจทำให้เมนบอร์ดรุ่นเก่าไม่สามารถใช้ได้เต็มประสิทธิภาพ - การใช้เทคโนโลยี 2 นาโนเมตรยังอยู่ในช่วง risk production อาจมีความล่าช้าในการผลิตจริง - ผู้ใช้ทั่วไปอาจไม่เห็นประโยชน์จากจำนวนคอร์ที่เพิ่มขึ้น หากไม่ได้ใช้งานแบบมัลติทาสก์หรือประมวลผลหนัก https://www.techpowerup.com/338854/amd-sampling-next-gen-ryzen-desktop-medusa-ridge-sees-incremental-ipc-upgrade-new-ciod
    WWW.TECHPOWERUP.COM
    AMD Sampling Next-Gen Ryzen Desktop "Medusa Ridge," Sees Incremental IPC Upgrade, New cIOD
    AMD is reportedly sampling its next-generation Ryzen desktop processor powered by the "Zen 6" microarchitecture, codenamed "Medusa Ridge," to close industry partners, such as platform designers and OEMs, says Yuri Bubliy, aka 1usmus, author of the Hydra tuning software, and the now-retired DRAM Calc...
    0 Comments 0 Shares 360 Views 0 Reviews
  • Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม

    Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ

    Intel พยายามปรับตัวหลายด้าน เช่น:
    - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้
    - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้
    - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC

    แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ

    Intel จึงวางแผนเปลี่ยนกลยุทธ์:
    - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม)
    - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple

    Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น”

    ข้อมูลจากข่าว
    - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป
    - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ
    - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake
    - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training
    - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน
    - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่
    - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company

    คำเตือนและข้อควรระวัง
    - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร
    - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร
    - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration
    - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain
    - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า

    https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    Intel ยอมรับ “สายเกินไป” ที่จะไล่ทัน AI – จากผู้นำกลายเป็นผู้ตาม Lip-Bu Tan CEO คนใหม่ของ Intel กล่าวในวงประชุมพนักงานทั่วโลกว่า “เมื่อ 20–30 ปีก่อน เราคือผู้นำ แต่ตอนนี้โลกเปลี่ยนไป เราไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกแล้ว” คำพูดนี้สะท้อนถึงความเปลี่ยนแปลงครั้งใหญ่ของบริษัทที่เคยครองตลาด CPU อย่างเบ็ดเสร็จ Intel พยายามปรับตัวหลายด้าน เช่น: - สร้างสถาปัตยกรรม hybrid แบบ big.LITTLE เหมือน ARM แต่ไม่สามารถแย่งส่วนแบ่งตลาดจาก AMD ได้ - เปิดตัว GPU ที่ล่าช้าและไม่สามารถแข่งขันกับ Nvidia ได้ - Outsource การผลิตชิปบางส่วนไปยัง TSMC ตั้งแต่ปี 2023 โดยล่าสุดในปี 2025 มีถึง 30% ของการผลิตที่ทำโดย TSMC แม้จะลงทุนมหาศาลใน R&D แต่ Intel ก็ยังขาดความเร็วและความเฉียบคมในการแข่งขัน โดยเฉพาะในตลาด AI ที่ Nvidia ครองอยู่เกือบเบ็ดเสร็จ Intel จึงวางแผนเปลี่ยนกลยุทธ์: - หันไปเน้น edge AI และ agentic AI (AI ที่ทำงานอัตโนมัติโดยไม่ต้องมีมนุษย์ควบคุม) - ลดขนาดองค์กรและปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยน Intel เป็นบริษัท fabless แบบ AMD และ Apple Tan ยอมรับว่า “การฝึกโมเดล AI สำหรับ training ใน data center เรามาช้าเกินไป” แต่ยังมีความหวังใน edge AI และการเปลี่ยนวัฒนธรรมองค์กรให้ “ถ่อมตัวและฟังตลาดมากขึ้น” ✅ ข้อมูลจากข่าว - CEO Intel ยอมรับว่าไม่ติดอันดับ 10 บริษัทเซมิคอนดักเตอร์อีกต่อไป - Intel พยายามปรับตัวด้วย hybrid architecture และ GPU แต่ไม่ประสบความสำเร็จ - มีการ outsource การผลิตชิปไปยัง TSMC มากขึ้น โดยเฉพาะใน Meteor Lake และ Lunar Lake - Intel ขาดความสามารถในการแข่งขันในตลาด AI โดยเฉพาะด้าน training - บริษัทปลดพนักงานหลายพันคนทั่วโลกเพื่อลดต้นทุน - วางแผนเน้น edge AI และ agentic AI เป็นกลยุทธ์ใหม่ - อาจแยกธุรกิจ foundry ออกเป็นบริษัทลูก และเปลี่ยนเป็น fabless company ‼️ คำเตือนและข้อควรระวัง - การยอมรับว่า “สายเกินไป” ในตลาด AI อาจส่งผลต่อความเชื่อมั่นของนักลงทุนและพันธมิตร - การปลดพนักงานจำนวนมากอาจกระทบต่อขวัญกำลังใจและนวัตกรรมภายในองค์กร - การพึ่งพา TSMC ในการผลิตชิปอาจทำให้ Intel เสียความได้เปรียบด้าน vertical integration - การเปลี่ยนเป็นบริษัท fabless ต้องใช้เวลาและอาจมีความเสี่ยงด้าน supply chain - Edge AI ยังเป็นตลาดที่ไม่แน่นอน และต้องแข่งขันกับผู้เล่นรายใหม่ที่คล่องตัวกว่า https://www.tomshardware.com/tech-industry/intel-ceo-says-its-too-late-for-them-to-catch-up-with-ai-competition-claims-intel-has-fallen-out-of-the-top-10-semiconductor-companies-as-the-firm-lays-off-thousands-across-the-world
    0 Comments 0 Shares 473 Views 0 Reviews
More Results