• Medusa Halo – APU ที่อาจเปลี่ยนเกมทั้งวงการ

    ในปี 2027 AMD เตรียมเปิดตัว APU รุ่นใหม่ที่ชื่อว่า Medusa Halo ซึ่งอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์ เพราะมันไม่ใช่แค่ชิปประมวลผลทั่วไป แต่เป็น APU ที่รวมพลังของ Zen 6 CPU และ RDNA 5 GPU ไว้ในตัวเดียวกันอย่างทรงพลัง

    จากข้อมูลที่รั่วออกมาโดย Moore’s Law is Dead ชิปนี้จะใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC คือ N2P สำหรับ CPU และ N3P สำหรับ I/O die โดยรุ่นพื้นฐานจะมี 12 คอร์ Zen 6 และ 2 คอร์ Zen 6 LP สำหรับงานเบา ๆ ส่วนรุ่นสูงสุดอาจมีเพิ่มอีก 12 คอร์ ทำให้รวมได้ถึง 24 หรือ 26 คอร์

    ด้านกราฟิก Medusa Halo จะมาพร้อม 48 คอร์ประมวลผล (CUs) บนสถาปัตยกรรม RDNA 5 ซึ่งมีประสิทธิภาพใกล้เคียงกับการ์ดจอแยกระดับกลางอย่าง RTX 5070 Ti และมีแคช L2 ถึง 20 MB

    หน่วยความจำก็ไม่น้อยหน้า โดยรองรับ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ซึ่งให้แบนด์วิดธ์สูงมาก เหมาะกับงานกราฟิกและ AI ที่ต้องการความเร็วในการเข้าถึงข้อมูล

    นอกจากนี้ยังมีรุ่นเล็กชื่อ Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก โดยมี 14 คอร์ CPU และ 24 CUs GPU พร้อมแคช L2 10 MB และคอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรืออาจอัปเกรดเป็น 192-bit LPDDR6

    สรุปเนื้อหาเป็นหัวข้อ
    AMD เตรียมเปิดตัว APU รุ่น Medusa Halo ในปี 2027
    ใช้ Zen 6 CPU chiplets บนเทคโนโลยี TSMC N2P และ I/O die บน N3P
    รุ่นพื้นฐานมี 12 Zen 6 cores + 2 Zen 6 LP cores
    รุ่นสูงสุดอาจมีเพิ่มอีก 12-core CCD รวมเป็น 24–26 cores
    GPU ภายในใช้ RDNA 5 จำนวน 48 CUs พร้อม L2 cache ขนาด 20 MB
    ประสิทธิภาพกราฟิกใกล้เคียงกับ RTX 5070 Ti
    รองรับหน่วยความจำ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit
    มีรุ่น Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก
    Medusa Halo Mini มี 14 คอร์ CPU และ 24 CUs GPU พร้อม L2 cache 10 MB
    ใช้คอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรือ 192-bit LPDDR6

    ข้อมูลเสริมจากภายนอก
    RDNA 5 อาจเป็นสถาปัตยกรรมเดียวกับที่ใช้ในการ์ดจอแยกรุ่น PTX 1060 XT
    Infinity Fabric รุ่นใหม่ใน Zen 6 จะเร็วขึ้นและประหยัดพลังงานมากขึ้น
    TSMC N2P ให้ประสิทธิภาพเพิ่มขึ้น 20% หรือลดการใช้พลังงานได้ถึง 36%
    การรวม GPU ระดับกลางไว้ใน APU จะช่วยลดต้นทุนและขนาดของระบบ
    AMD อาจใช้แนวทางเดียวกันใน Xbox Magnus APU สำหรับคอนโซลรุ่นใหม่

    https://www.techpowerup.com/340216/amd-medusa-halo-apu-leak-reveals-up-to-24-cores-and-48-rdna-5-cus
    🎙️ Medusa Halo – APU ที่อาจเปลี่ยนเกมทั้งวงการ ในปี 2027 AMD เตรียมเปิดตัว APU รุ่นใหม่ที่ชื่อว่า Medusa Halo ซึ่งอาจกลายเป็นจุดเปลี่ยนสำคัญของวงการคอมพิวเตอร์ เพราะมันไม่ใช่แค่ชิปประมวลผลทั่วไป แต่เป็น APU ที่รวมพลังของ Zen 6 CPU และ RDNA 5 GPU ไว้ในตัวเดียวกันอย่างทรงพลัง จากข้อมูลที่รั่วออกมาโดย Moore’s Law is Dead ชิปนี้จะใช้เทคโนโลยีการผลิตขั้นสูงจาก TSMC คือ N2P สำหรับ CPU และ N3P สำหรับ I/O die โดยรุ่นพื้นฐานจะมี 12 คอร์ Zen 6 และ 2 คอร์ Zen 6 LP สำหรับงานเบา ๆ ส่วนรุ่นสูงสุดอาจมีเพิ่มอีก 12 คอร์ ทำให้รวมได้ถึง 24 หรือ 26 คอร์ ด้านกราฟิก Medusa Halo จะมาพร้อม 48 คอร์ประมวลผล (CUs) บนสถาปัตยกรรม RDNA 5 ซึ่งมีประสิทธิภาพใกล้เคียงกับการ์ดจอแยกระดับกลางอย่าง RTX 5070 Ti และมีแคช L2 ถึง 20 MB หน่วยความจำก็ไม่น้อยหน้า โดยรองรับ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ซึ่งให้แบนด์วิดธ์สูงมาก เหมาะกับงานกราฟิกและ AI ที่ต้องการความเร็วในการเข้าถึงข้อมูล นอกจากนี้ยังมีรุ่นเล็กชื่อ Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก โดยมี 14 คอร์ CPU และ 24 CUs GPU พร้อมแคช L2 10 MB และคอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรืออาจอัปเกรดเป็น 192-bit LPDDR6 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ AMD เตรียมเปิดตัว APU รุ่น Medusa Halo ในปี 2027 ➡️ ใช้ Zen 6 CPU chiplets บนเทคโนโลยี TSMC N2P และ I/O die บน N3P ➡️ รุ่นพื้นฐานมี 12 Zen 6 cores + 2 Zen 6 LP cores ➡️ รุ่นสูงสุดอาจมีเพิ่มอีก 12-core CCD รวมเป็น 24–26 cores ➡️ GPU ภายในใช้ RDNA 5 จำนวน 48 CUs พร้อม L2 cache ขนาด 20 MB ➡️ ประสิทธิภาพกราฟิกใกล้เคียงกับ RTX 5070 Ti ➡️ รองรับหน่วยความจำ LPDDR6 แบบ 384-bit หรือ LPDDR5X แบบ 256-bit ➡️ มีรุ่น Medusa Halo Mini สำหรับโน้ตบุ๊กและพีซีขนาดเล็ก ➡️ Medusa Halo Mini มี 14 คอร์ CPU และ 24 CUs GPU พร้อม L2 cache 10 MB ➡️ ใช้คอนโทรลเลอร์หน่วยความจำแบบ 128-bit LPDDR5X หรือ 192-bit LPDDR6 ✅ ข้อมูลเสริมจากภายนอก ➡️ RDNA 5 อาจเป็นสถาปัตยกรรมเดียวกับที่ใช้ในการ์ดจอแยกรุ่น PTX 1060 XT ➡️ Infinity Fabric รุ่นใหม่ใน Zen 6 จะเร็วขึ้นและประหยัดพลังงานมากขึ้น ➡️ TSMC N2P ให้ประสิทธิภาพเพิ่มขึ้น 20% หรือลดการใช้พลังงานได้ถึง 36% ➡️ การรวม GPU ระดับกลางไว้ใน APU จะช่วยลดต้นทุนและขนาดของระบบ ➡️ AMD อาจใช้แนวทางเดียวกันใน Xbox Magnus APU สำหรับคอนโซลรุ่นใหม่ https://www.techpowerup.com/340216/amd-medusa-halo-apu-leak-reveals-up-to-24-cores-and-48-rdna-5-cus
    WWW.TECHPOWERUP.COM
    AMD Medusa Halo APU Leak Reveals Up to 24 Cores and 48 RDNA 5 CUs
    A fresh leak has shed light on AMD's next-gen Medusa Halo APU that is set to launch in 2027 as the company's top-of-the-line chip (dismissing previous rumors about AMD cancelling Medusa Halo APU). Moore's Law is Dead has shared information suggesting Medusa Halo will pack Zen 6 CPU chiplets made usi...
    0 Comments 0 Shares 79 Views 0 Reviews
  • iKKO MindOne: สมาร์ตโฟนจิ๋วที่อัดแน่นด้วย AI และอินเทอร์เน็ตฟรี

    ลองจินตนาการว่าคุณมีสมาร์ตโฟนขนาดเท่าบัตรเครดิต แต่สามารถทำงานได้เหมือนเครื่องมือระดับมืออาชีพ ทั้งแปลภาษาแบบเรียลไทม์ บันทึกเสียงเป็นข้อความ และสรุปเนื้อหาอัตโนมัติ—ทั้งหมดนี้โดยไม่ต้องเสียค่าสมัครสมาชิกใด ๆ

    นั่นคือสิ่งที่ iKKO MindOne เสนอไว้ในแคมเปญระดมทุนที่ระดมได้มากกว่า 1.2 ล้านดอลลาร์ ตัวเครื่องมีขนาด 86×72×8.9 มม. ใช้หน้าจอ AMOLED ขนาด 4.02 นิ้ว พร้อมกระจกแซฟไฟร์กันรอยระดับ 9H และกล้อง Sony 50MP ที่หมุนได้ 180° ใช้ได้ทั้งหน้าและหลัง

    ที่โดดเด่นคือระบบ vSIM แบบคู่: NovaLink ให้ใช้งาน AI ฟรีในกว่า 60 ประเทศ ส่วน vSIM แบบเสียเงินครอบคลุมกว่า 140 ประเทศสำหรับการใช้งานเต็มรูปแบบ เช่น ดูวิดีโอหรือท่องเว็บ นอกจากนี้ยังมีช่องใส่ nano SIM สำหรับ 4G+ LTE ที่เลือกใช้แทน 5G เพื่อความเสถียรและประหยัดพลังงาน

    ระบบปฏิบัติการมีสองชุด: Android 15 สำหรับแอปทั่วไป และ iKKO AI OS สำหรับงานที่ต้องการสมาธิและความปลอดภัย โดยสามารถสลับผ่านปุ่มจริง และนำแอป Android เข้าไปใช้ในโหมด AI ได้

    อุปกรณ์เสริมอย่างเคสคีย์บอร์ด QWERTY ยังเพิ่มแบตเตอรี่เสริม 500mAh, DAC คุณภาพสูง Cirrus Logic CS43198 และช่องหูฟัง 3.5 มม. สำหรับคนที่ต้องการเสียงคุณภาพและการพิมพ์แบบ tactile

    ข้อมูลพื้นฐานของ iKKO MindOne
    ขนาด 86×72×8.9 มม. หนาเท่าบัตรเครดิต
    หน้าจอ AMOLED 4.02 นิ้ว พร้อมกระจกแซฟไฟร์ระดับ 9H
    กล้อง Sony 50MP หมุนได้ 180° ใช้ได้ทั้งหน้าและหลัง

    ระบบการเชื่อมต่อและอินเทอร์เน็ต
    ใช้ระบบ vSIM แบบคู่: NovaLink (ฟรี AI) และ vSIM แบบเสียเงิน
    ครอบคลุมกว่า 140 ประเทศสำหรับการใช้งานเต็มรูปแบบ
    รองรับ nano SIM สำหรับ 4G+ LTE ทั่วโลก
    เลือกใช้ 4G+ แทน 5G เพื่อความเสถียรและลดความร้อน

    ระบบปฏิบัติการและฟีเจอร์ AI
    ใช้ Android 15 และ iKKO AI OS สลับได้ผ่านปุ่มจริง
    รองรับ Google Mobile Services และอัปเดต Android 3 รุ่น + แพตช์ 5 ปี
    ฟีเจอร์ AI: แปลภาษา, สรุปเนื้อหา, บันทึกเสียงเป็นข้อความ, จดโน้ตอัตโนมัติ
    ไม่มีค่าสมัครสมาชิก และไม่เก็บข้อมูลส่วนตัว

    อุปกรณ์เสริมและการใช้งาน
    เคสคีย์บอร์ด QWERTY พร้อมแบตเตอรี่เสริม 500mAh
    DAC Cirrus Logic CS43198 และช่องหูฟัง 3.5 มม. สำหรับเสียงคุณภาพสูง
    เหมาะกับนักเดินทาง นักเรียน และผู้ใช้ที่ต้องการความคล่องตัว

    ยังไม่มีข้อมูลสเปก CPU และ RAM อย่างเป็นทางการ
    การใช้งานอินเทอร์เน็ตฟรีจำกัดเฉพาะฟีเจอร์ AI เท่านั้น ไม่รวมการท่องเว็บหรือดูวิดีโอ
    เคสคีย์บอร์ดเพิ่มขนาดและน้ำหนักของเครื่อง
    ยังไม่ชัดเจนว่าคุณภาพการผลิตจริงจะตรงกับที่โฆษณาหรือไม่
    การใช้งานในบางประเทศอาจมีข้อจำกัดด้านเครือข่ายหรือกฎหมาย

    https://www.techradar.com/pro/crowdfunded-ai-smartphone-with-free-global-internet-detachable-keyboard-and-square-screen-gets-over-usd1-million-pledge-and-its-strangely-mesmerizing
    🧠 iKKO MindOne: สมาร์ตโฟนจิ๋วที่อัดแน่นด้วย AI และอินเทอร์เน็ตฟรี ลองจินตนาการว่าคุณมีสมาร์ตโฟนขนาดเท่าบัตรเครดิต แต่สามารถทำงานได้เหมือนเครื่องมือระดับมืออาชีพ ทั้งแปลภาษาแบบเรียลไทม์ บันทึกเสียงเป็นข้อความ และสรุปเนื้อหาอัตโนมัติ—ทั้งหมดนี้โดยไม่ต้องเสียค่าสมัครสมาชิกใด ๆ นั่นคือสิ่งที่ iKKO MindOne เสนอไว้ในแคมเปญระดมทุนที่ระดมได้มากกว่า 1.2 ล้านดอลลาร์ ตัวเครื่องมีขนาด 86×72×8.9 มม. ใช้หน้าจอ AMOLED ขนาด 4.02 นิ้ว พร้อมกระจกแซฟไฟร์กันรอยระดับ 9H และกล้อง Sony 50MP ที่หมุนได้ 180° ใช้ได้ทั้งหน้าและหลัง ที่โดดเด่นคือระบบ vSIM แบบคู่: NovaLink ให้ใช้งาน AI ฟรีในกว่า 60 ประเทศ ส่วน vSIM แบบเสียเงินครอบคลุมกว่า 140 ประเทศสำหรับการใช้งานเต็มรูปแบบ เช่น ดูวิดีโอหรือท่องเว็บ นอกจากนี้ยังมีช่องใส่ nano SIM สำหรับ 4G+ LTE ที่เลือกใช้แทน 5G เพื่อความเสถียรและประหยัดพลังงาน ระบบปฏิบัติการมีสองชุด: Android 15 สำหรับแอปทั่วไป และ iKKO AI OS สำหรับงานที่ต้องการสมาธิและความปลอดภัย โดยสามารถสลับผ่านปุ่มจริง และนำแอป Android เข้าไปใช้ในโหมด AI ได้ อุปกรณ์เสริมอย่างเคสคีย์บอร์ด QWERTY ยังเพิ่มแบตเตอรี่เสริม 500mAh, DAC คุณภาพสูง Cirrus Logic CS43198 และช่องหูฟัง 3.5 มม. สำหรับคนที่ต้องการเสียงคุณภาพและการพิมพ์แบบ tactile ✅ ข้อมูลพื้นฐานของ iKKO MindOne ➡️ ขนาด 86×72×8.9 มม. หนาเท่าบัตรเครดิต ➡️ หน้าจอ AMOLED 4.02 นิ้ว พร้อมกระจกแซฟไฟร์ระดับ 9H ➡️ กล้อง Sony 50MP หมุนได้ 180° ใช้ได้ทั้งหน้าและหลัง ✅ ระบบการเชื่อมต่อและอินเทอร์เน็ต ➡️ ใช้ระบบ vSIM แบบคู่: NovaLink (ฟรี AI) และ vSIM แบบเสียเงิน ➡️ ครอบคลุมกว่า 140 ประเทศสำหรับการใช้งานเต็มรูปแบบ ➡️ รองรับ nano SIM สำหรับ 4G+ LTE ทั่วโลก ➡️ เลือกใช้ 4G+ แทน 5G เพื่อความเสถียรและลดความร้อน ✅ ระบบปฏิบัติการและฟีเจอร์ AI ➡️ ใช้ Android 15 และ iKKO AI OS สลับได้ผ่านปุ่มจริง ➡️ รองรับ Google Mobile Services และอัปเดต Android 3 รุ่น + แพตช์ 5 ปี ➡️ ฟีเจอร์ AI: แปลภาษา, สรุปเนื้อหา, บันทึกเสียงเป็นข้อความ, จดโน้ตอัตโนมัติ ➡️ ไม่มีค่าสมัครสมาชิก และไม่เก็บข้อมูลส่วนตัว ✅ อุปกรณ์เสริมและการใช้งาน ➡️ เคสคีย์บอร์ด QWERTY พร้อมแบตเตอรี่เสริม 500mAh ➡️ DAC Cirrus Logic CS43198 และช่องหูฟัง 3.5 มม. สำหรับเสียงคุณภาพสูง ➡️ เหมาะกับนักเดินทาง นักเรียน และผู้ใช้ที่ต้องการความคล่องตัว ⛔ ยังไม่มีข้อมูลสเปก CPU และ RAM อย่างเป็นทางการ ⛔ การใช้งานอินเทอร์เน็ตฟรีจำกัดเฉพาะฟีเจอร์ AI เท่านั้น ไม่รวมการท่องเว็บหรือดูวิดีโอ ⛔ เคสคีย์บอร์ดเพิ่มขนาดและน้ำหนักของเครื่อง ⛔ ยังไม่ชัดเจนว่าคุณภาพการผลิตจริงจะตรงกับที่โฆษณาหรือไม่ ⛔ การใช้งานในบางประเทศอาจมีข้อจำกัดด้านเครือข่ายหรือกฎหมาย https://www.techradar.com/pro/crowdfunded-ai-smartphone-with-free-global-internet-detachable-keyboard-and-square-screen-gets-over-usd1-million-pledge-and-its-strangely-mesmerizing
    0 Comments 0 Shares 205 Views 0 Reviews
  • เมื่อ iGPU ได้พลังเพิ่ม: Intel เปิดให้ปรับ VRAM ได้สูงสุดถึง 87% ของ RAM

    ในเดือนสิงหาคม 2025 Intel ได้ปล่อยไดรเวอร์กราฟิกเวอร์ชัน 32.0.101.6987 ที่มาพร้อมฟีเจอร์ใหม่ชื่อว่า “Shared GPU Memory Override” ซึ่งเปิดให้ผู้ใช้โน้ตบุ๊กที่มีชิป Intel Core Ultra ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง

    โดยปกติ iGPU จะใช้ RAM ร่วมกับระบบ และ Windows จะจัดสรรให้ประมาณครึ่งหนึ่งของ RAM ทั้งหมด แต่ฟีเจอร์ใหม่นี้เปิดให้ผู้ใช้ปรับได้สูงสุดถึง 87% ของ RAM ทั้งหมด เพื่อใช้เป็น VRAM สำหรับงานกราฟิก เช่น เล่นเกม หรือรันโมเดล AI ขนาดใหญ่

    ผู้ใช้สามารถปรับผ่านแอป Intel Graphics Software ด้วยการเลื่อนสไลเดอร์ แล้วรีบูตเครื่องเพื่อให้การตั้งค่ามีผล ฟีเจอร์นี้รองรับเฉพาะ Core Ultra Series 2 (Arrow Lake) และต้องมี RAM อย่างน้อย 10GB

    ฟีเจอร์นี้คล้ายกับที่ AMD เคยเปิดให้ใช้ใน Ryzen AI Max+ ซึ่งสามารถจัดสรรได้ถึง 112GB จาก 128GB สำหรับงาน AI โดยเฉพาะ

    อย่างไรก็ตาม การจัดสรร RAM มากเกินไปให้กับ iGPU อาจทำให้ CPU ขาดแคลนหน่วยความจำ ส่งผลให้ระบบช้าลง โดยเฉพาะในงานที่ใช้ CPU หนัก หรือเปิดหลายโปรแกรมพร้อมกัน

    สรุปเนื้อหาเป็นหัวข้อ
    ฟีเจอร์ Shared GPU Memory Override จาก Intel
    เปิดให้ผู้ใช้ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง
    รองรับสูงสุดถึง 87% ของ RAM ทั้งหมด
    ใช้งานผ่าน Intel Graphics Software โดยต้องรีบูตเครื่องหลังปรับ

    เงื่อนไขการใช้งาน
    รองรับเฉพาะ Intel Core Ultra Series 2 (Arrow Lake)
    ต้องมี RAM อย่างน้อย 10GB
    ใช้ได้เฉพาะกับ iGPU ในเครื่องที่ไม่มีการ์ดจอแยก

    ประโยชน์ที่ได้รับ
    เพิ่มประสิทธิภาพในการเล่นเกมที่ใช้ VRAM สูง เช่น Doom: The Dark Ages, Battlefield 6
    รองรับงาน AI เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local
    ปรับแต่งได้ตาม workload ที่ต้องการ เช่น ray tracing หรือ AI inference

    การเปรียบเทียบกับ AMD
    AMD มีฟีเจอร์คล้ายกันชื่อ Variable Graphics Memory
    Ryzen AI Max+ สามารถจัดสรรได้ถึง 112GB จาก 128GB
    Intel เริ่มตามทันในด้านการจัดการ unified memory สำหรับงาน AI

    https://www.tomshardware.com/pc-components/gpu-drivers/intels-new-graphics-driver-lets-you-dedicate-up-to-87-percent-of-laptop-memory-capacity-to-the-igpu-for-vram-core-ultra-cpus-get-shared-gpu-memory-override-feature
    🧠 เมื่อ iGPU ได้พลังเพิ่ม: Intel เปิดให้ปรับ VRAM ได้สูงสุดถึง 87% ของ RAM ในเดือนสิงหาคม 2025 Intel ได้ปล่อยไดรเวอร์กราฟิกเวอร์ชัน 32.0.101.6987 ที่มาพร้อมฟีเจอร์ใหม่ชื่อว่า “Shared GPU Memory Override” ซึ่งเปิดให้ผู้ใช้โน้ตบุ๊กที่มีชิป Intel Core Ultra ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง โดยปกติ iGPU จะใช้ RAM ร่วมกับระบบ และ Windows จะจัดสรรให้ประมาณครึ่งหนึ่งของ RAM ทั้งหมด แต่ฟีเจอร์ใหม่นี้เปิดให้ผู้ใช้ปรับได้สูงสุดถึง 87% ของ RAM ทั้งหมด เพื่อใช้เป็น VRAM สำหรับงานกราฟิก เช่น เล่นเกม หรือรันโมเดล AI ขนาดใหญ่ ผู้ใช้สามารถปรับผ่านแอป Intel Graphics Software ด้วยการเลื่อนสไลเดอร์ แล้วรีบูตเครื่องเพื่อให้การตั้งค่ามีผล ฟีเจอร์นี้รองรับเฉพาะ Core Ultra Series 2 (Arrow Lake) และต้องมี RAM อย่างน้อย 10GB ฟีเจอร์นี้คล้ายกับที่ AMD เคยเปิดให้ใช้ใน Ryzen AI Max+ ซึ่งสามารถจัดสรรได้ถึง 112GB จาก 128GB สำหรับงาน AI โดยเฉพาะ อย่างไรก็ตาม การจัดสรร RAM มากเกินไปให้กับ iGPU อาจทำให้ CPU ขาดแคลนหน่วยความจำ ส่งผลให้ระบบช้าลง โดยเฉพาะในงานที่ใช้ CPU หนัก หรือเปิดหลายโปรแกรมพร้อมกัน 📌 สรุปเนื้อหาเป็นหัวข้อ ✅ ฟีเจอร์ Shared GPU Memory Override จาก Intel ➡️ เปิดให้ผู้ใช้ปรับแต่งการจัดสรร RAM ให้กับ iGPU ได้ด้วยตัวเอง ➡️ รองรับสูงสุดถึง 87% ของ RAM ทั้งหมด ➡️ ใช้งานผ่าน Intel Graphics Software โดยต้องรีบูตเครื่องหลังปรับ ✅ เงื่อนไขการใช้งาน ➡️ รองรับเฉพาะ Intel Core Ultra Series 2 (Arrow Lake) ➡️ ต้องมี RAM อย่างน้อย 10GB ➡️ ใช้ได้เฉพาะกับ iGPU ในเครื่องที่ไม่มีการ์ดจอแยก ✅ ประโยชน์ที่ได้รับ ➡️ เพิ่มประสิทธิภาพในการเล่นเกมที่ใช้ VRAM สูง เช่น Doom: The Dark Ages, Battlefield 6 ➡️ รองรับงาน AI เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local ➡️ ปรับแต่งได้ตาม workload ที่ต้องการ เช่น ray tracing หรือ AI inference ✅ การเปรียบเทียบกับ AMD ➡️ AMD มีฟีเจอร์คล้ายกันชื่อ Variable Graphics Memory ➡️ Ryzen AI Max+ สามารถจัดสรรได้ถึง 112GB จาก 128GB ➡️ Intel เริ่มตามทันในด้านการจัดการ unified memory สำหรับงาน AI https://www.tomshardware.com/pc-components/gpu-drivers/intels-new-graphics-driver-lets-you-dedicate-up-to-87-percent-of-laptop-memory-capacity-to-the-igpu-for-vram-core-ultra-cpus-get-shared-gpu-memory-override-feature
    0 Comments 0 Shares 178 Views 0 Reviews
  • ⚡️ Gemma 3 270M — โมเดล AI ขนาดเล็กที่ฉลาดเกินตัว และประหยัดพลังงานสุดขีด

    Google เปิดตัว Gemma 3 270M ซึ่งเป็นโมเดล AI ขนาดเล็กเพียง 270 ล้านพารามิเตอร์ แต่มีความสามารถในการทำงานเฉพาะทางได้อย่างแม่นยำและมีประสิทธิภาพสูง โดยออกแบบมาเพื่อการ fine-tune สำหรับงานที่ชัดเจน เช่น การจัดโครงสร้างข้อความ การวิเคราะห์ความรู้สึก หรือการสกัดข้อมูลจากข้อความ

    Gemma 3 270M มีจุดเด่นคือการประหยัดพลังงานอย่างมาก — จากการทดสอบบน Pixel 9 Pro พบว่าโมเดลแบบ INT4 ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา นอกจากนี้ยังรองรับการ quantization-aware training (QAT) ทำให้สามารถรันบนอุปกรณ์ที่มีทรัพยากรจำกัดได้โดยไม่เสียประสิทธิภาพ

    แม้จะไม่เหมาะกับการสนทนาเชิงลึกแบบโมเดลขนาดใหญ่ แต่ Gemma 3 270M เหมาะอย่างยิ่งสำหรับการสร้างระบบที่เร็ว เบา และปลอดภัย โดยสามารถรันแบบ on-device ได้ทั้งหมด ซึ่งช่วยรักษาความเป็นส่วนตัวของผู้ใช้

    ตัวอย่างการใช้งานจริง เช่น Adaptive ML ที่ใช้ Gemma 3 4B ในการจัดการเนื้อหาหลายภาษาให้กับ SK Telecom ได้ผลลัพธ์ดีกว่าโมเดลขนาดใหญ่ที่ใช้กันทั่วไป แสดงให้เห็นว่าการเลือกโมเดลที่เหมาะกับงานมีความสำคัญมากกว่าขนาดของโมเดล

    Gemma 3 270M เป็นโมเดลขนาด 270 ล้านพารามิเตอร์
    ประกอบด้วย 170M embedding และ 100M transformer blocks

    รองรับ vocabulary ขนาด 256,000 token
    ช่วยให้เข้าใจคำเฉพาะและภาษายากได้ดี

    ใช้พลังงานต่ำมากเมื่อรันบน Pixel 9 Pro
    ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา

    รองรับ INT4 quantization และ QAT checkpoints
    รันบนอุปกรณ์เล็กได้โดยไม่เสียประสิทธิภาพ

    เหมาะกับงานเฉพาะทาง เช่น การจัดโครงสร้างข้อความและการสกัดข้อมูล
    ทำงานได้เร็วและแม่นยำเมื่อ fine-tune แล้ว

    มีทั้งเวอร์ชัน pre-trained และ instruction-tuned ให้เลือกใช้
    พร้อมใช้งานผ่าน Hugging Face, Kaggle, Docker และ Vertex AI

    Gemma 3 270M เป็นส่วนหนึ่งของตระกูล Gemma 3 ที่รองรับหลายภาษา
    มี support มากกว่า 140 ภาษา

    สามารถรันบนอุปกรณ์ edge เช่น สมาร์ตโฟนหรือโน้ตบุ๊ก
    เหมาะกับงานที่ต้องการความเป็นส่วนตัว

    โมเดลขนาดเล็กช่วยลดค่าใช้จ่ายในการ inference
    เหมาะกับการ deploy ในระบบ production ขนาดใหญ่

    มีตัวอย่างการใช้งานในงานสร้างสรรค์ เช่น Bedtime Story Generator
    ใช้ Gemma 3 270M รันผ่าน Transformers.js แบบ offline

    https://developers.googleblog.com/en/introducing-gemma-3-270m/
    🧠⚡️ Gemma 3 270M — โมเดล AI ขนาดเล็กที่ฉลาดเกินตัว และประหยัดพลังงานสุดขีด Google เปิดตัว Gemma 3 270M ซึ่งเป็นโมเดล AI ขนาดเล็กเพียง 270 ล้านพารามิเตอร์ แต่มีความสามารถในการทำงานเฉพาะทางได้อย่างแม่นยำและมีประสิทธิภาพสูง โดยออกแบบมาเพื่อการ fine-tune สำหรับงานที่ชัดเจน เช่น การจัดโครงสร้างข้อความ การวิเคราะห์ความรู้สึก หรือการสกัดข้อมูลจากข้อความ Gemma 3 270M มีจุดเด่นคือการประหยัดพลังงานอย่างมาก — จากการทดสอบบน Pixel 9 Pro พบว่าโมเดลแบบ INT4 ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา นอกจากนี้ยังรองรับการ quantization-aware training (QAT) ทำให้สามารถรันบนอุปกรณ์ที่มีทรัพยากรจำกัดได้โดยไม่เสียประสิทธิภาพ แม้จะไม่เหมาะกับการสนทนาเชิงลึกแบบโมเดลขนาดใหญ่ แต่ Gemma 3 270M เหมาะอย่างยิ่งสำหรับการสร้างระบบที่เร็ว เบา และปลอดภัย โดยสามารถรันแบบ on-device ได้ทั้งหมด ซึ่งช่วยรักษาความเป็นส่วนตัวของผู้ใช้ ตัวอย่างการใช้งานจริง เช่น Adaptive ML ที่ใช้ Gemma 3 4B ในการจัดการเนื้อหาหลายภาษาให้กับ SK Telecom ได้ผลลัพธ์ดีกว่าโมเดลขนาดใหญ่ที่ใช้กันทั่วไป แสดงให้เห็นว่าการเลือกโมเดลที่เหมาะกับงานมีความสำคัญมากกว่าขนาดของโมเดล ✅ Gemma 3 270M เป็นโมเดลขนาด 270 ล้านพารามิเตอร์ ➡️ ประกอบด้วย 170M embedding และ 100M transformer blocks ✅ รองรับ vocabulary ขนาด 256,000 token ➡️ ช่วยให้เข้าใจคำเฉพาะและภาษายากได้ดี ✅ ใช้พลังงานต่ำมากเมื่อรันบน Pixel 9 Pro ➡️ ใช้แบตเตอรี่เพียง 0.75% สำหรับ 25 บทสนทนา ✅ รองรับ INT4 quantization และ QAT checkpoints ➡️ รันบนอุปกรณ์เล็กได้โดยไม่เสียประสิทธิภาพ ✅ เหมาะกับงานเฉพาะทาง เช่น การจัดโครงสร้างข้อความและการสกัดข้อมูล ➡️ ทำงานได้เร็วและแม่นยำเมื่อ fine-tune แล้ว ✅ มีทั้งเวอร์ชัน pre-trained และ instruction-tuned ให้เลือกใช้ ➡️ พร้อมใช้งานผ่าน Hugging Face, Kaggle, Docker และ Vertex AI ✅ Gemma 3 270M เป็นส่วนหนึ่งของตระกูล Gemma 3 ที่รองรับหลายภาษา ➡️ มี support มากกว่า 140 ภาษา ✅ สามารถรันบนอุปกรณ์ edge เช่น สมาร์ตโฟนหรือโน้ตบุ๊ก ➡️ เหมาะกับงานที่ต้องการความเป็นส่วนตัว ✅ โมเดลขนาดเล็กช่วยลดค่าใช้จ่ายในการ inference ➡️ เหมาะกับการ deploy ในระบบ production ขนาดใหญ่ ✅ มีตัวอย่างการใช้งานในงานสร้างสรรค์ เช่น Bedtime Story Generator ➡️ ใช้ Gemma 3 270M รันผ่าน Transformers.js แบบ offline https://developers.googleblog.com/en/introducing-gemma-3-270m/
    DEVELOPERS.GOOGLEBLOG.COM
    Introducing Gemma 3 270M: The compact model for hyper-efficient AI- Google Developers Blog
    Explore Gemma 3 270M, a compact, energy-efficient AI model for task-specific fine-tuning, offering strong instruction-following and production-ready quantization.
    0 Comments 0 Shares 161 Views 0 Reviews
  • เรื่องเล่าจากโลกของคนจัดการงาน: ลองมาหมดทุกแอป แต่สุดท้ายกลับไปใช้ไฟล์ .txt

    Alireza Bashiri นักพัฒนาและนักเขียนสายเทคโนโลยี ได้ทดลองใช้แอปจัดการงานทุกตัวที่คุณนึกออก—Notion, Todoist, Things 3, Trello, OmniFocus, Asana ฯลฯ เขาเคยถึงขั้นสร้างแอปของตัวเอง แต่สุดท้ายกลับพบว่า “ไฟล์ .txt ธรรมดา” คือสิ่งที่ตอบโจทย์ที่สุด

    เขาเล่าว่าแต่ละแอปมีข้อดี แต่ก็มีข้อจำกัด เช่น ต้องเสียเงินรายเดือน ระบบซิงก์พัง หรือใช้เวลาจัดการระบบมากกว่าทำงานจริง จุดเปลี่ยนคือวันที่โทรศัพท์ดับ เขาเขียนงานลงบนกระดาษโน้ต และทำทุกอย่างสำเร็จโดยไม่ต้องพึ่งแอปใด ๆ

    ตอนนี้เขาใช้ไฟล์ชื่อ todo.txt เป็นศูนย์กลางของทุกอย่างในชีวิตการทำงาน โดยแบ่งเวลา กำหนดงาน และจดบันทึกสิ่งที่เกิดขึ้นในแต่ละวันไว้ในไฟล์เดียว กลายเป็นระบบที่เรียบง่ายแต่ทรงพลัง

    Alireza Bashiri ทดลองใช้แอปจัดการงานหลายตัวแต่ไม่เวิร์ก
    เช่น Notion, Todoist, Trello, OmniFocus, Things 3

    เขากลับมาใช้ไฟล์ .txt ธรรมดาในการจัดการงาน
    ใช้ชื่อว่า todo.txt และเขียนงานตามเวลาในแต่ละวัน

    จุดเปลี่ยนคือวันที่โทรศัพท์ดับ เขาใช้กระดาษโน้ตแทน
    ทำงานสำเร็จโดยไม่ต้องใช้แอปใด ๆ

    ระบบใหม่ของเขาเรียบง่าย: เขียนงานตามเวลา ลบเมื่อเสร็จ
    ใช้ sub-bullets สำหรับโน้ต และอัปเดตงานระหว่างวัน

    เขาได้รับแรงบันดาลใจจาก Jeff Huang ที่ใช้ไฟล์ .txt มานานกว่า 14 ปี
    ทำให้มั่นใจว่าวิธีนี้ไม่ใช่เรื่องแปลก

    Productivity apps มีฟีเจอร์หลากหลาย เช่น ปฏิทิน, การแจ้งเตือน, การทำงานร่วมกัน
    แต่บางครั้งซับซ้อนเกินไปสำหรับผู้ใช้ทั่วไป

    แอปอย่าง Notion และ Asana เหมาะกับทีมมากกว่าคนทำงานคนเดียว
    มีระบบ collaboration และ project management ที่ซับซ้อน

    Motion และ Pumble เป็นแอปใหม่ที่รวมหลายฟีเจอร์ไว้ในตัวเดียว
    เช่น การจัดการเวลา, การสื่อสาร, การจดบันทึกด้วย AI

    การใช้ไฟล์ .txt ช่วยลดภาระทางจิตใจจากการจัดการระบบ
    ทำให้โฟกัสกับงานจริงได้มากขึ้น

    แอปบางตัวมีค่าใช้จ่ายรายเดือนที่สูง
    เช่น Things 3 และ OmniFocus ที่ต้องซื้อแบบพรีเมียม

    การพึ่งพาแอปมากเกินไปอาจทำให้ขาดความยืดหยุ่น
    หากอุปกรณ์พังหรือไม่มีอินเทอร์เน็ต อาจทำงานไม่ได้

    การจัดการงานผ่านแอปอาจกลายเป็น “งานซ้อนงาน”
    เสียเวลาไปกับการจัดระเบียบมากกว่าการลงมือทำ

    https://www.al3rez.com/todo-txt-journey
    📓🧠 เรื่องเล่าจากโลกของคนจัดการงาน: ลองมาหมดทุกแอป แต่สุดท้ายกลับไปใช้ไฟล์ .txt Alireza Bashiri นักพัฒนาและนักเขียนสายเทคโนโลยี ได้ทดลองใช้แอปจัดการงานทุกตัวที่คุณนึกออก—Notion, Todoist, Things 3, Trello, OmniFocus, Asana ฯลฯ เขาเคยถึงขั้นสร้างแอปของตัวเอง แต่สุดท้ายกลับพบว่า “ไฟล์ .txt ธรรมดา” คือสิ่งที่ตอบโจทย์ที่สุด เขาเล่าว่าแต่ละแอปมีข้อดี แต่ก็มีข้อจำกัด เช่น ต้องเสียเงินรายเดือน ระบบซิงก์พัง หรือใช้เวลาจัดการระบบมากกว่าทำงานจริง จุดเปลี่ยนคือวันที่โทรศัพท์ดับ เขาเขียนงานลงบนกระดาษโน้ต และทำทุกอย่างสำเร็จโดยไม่ต้องพึ่งแอปใด ๆ ตอนนี้เขาใช้ไฟล์ชื่อ todo.txt เป็นศูนย์กลางของทุกอย่างในชีวิตการทำงาน โดยแบ่งเวลา กำหนดงาน และจดบันทึกสิ่งที่เกิดขึ้นในแต่ละวันไว้ในไฟล์เดียว กลายเป็นระบบที่เรียบง่ายแต่ทรงพลัง ✅ Alireza Bashiri ทดลองใช้แอปจัดการงานหลายตัวแต่ไม่เวิร์ก ➡️ เช่น Notion, Todoist, Trello, OmniFocus, Things 3 ✅ เขากลับมาใช้ไฟล์ .txt ธรรมดาในการจัดการงาน ➡️ ใช้ชื่อว่า todo.txt และเขียนงานตามเวลาในแต่ละวัน ✅ จุดเปลี่ยนคือวันที่โทรศัพท์ดับ เขาใช้กระดาษโน้ตแทน ➡️ ทำงานสำเร็จโดยไม่ต้องใช้แอปใด ๆ ✅ ระบบใหม่ของเขาเรียบง่าย: เขียนงานตามเวลา ลบเมื่อเสร็จ ➡️ ใช้ sub-bullets สำหรับโน้ต และอัปเดตงานระหว่างวัน ✅ เขาได้รับแรงบันดาลใจจาก Jeff Huang ที่ใช้ไฟล์ .txt มานานกว่า 14 ปี ➡️ ทำให้มั่นใจว่าวิธีนี้ไม่ใช่เรื่องแปลก ✅ Productivity apps มีฟีเจอร์หลากหลาย เช่น ปฏิทิน, การแจ้งเตือน, การทำงานร่วมกัน ➡️ แต่บางครั้งซับซ้อนเกินไปสำหรับผู้ใช้ทั่วไป ✅ แอปอย่าง Notion และ Asana เหมาะกับทีมมากกว่าคนทำงานคนเดียว ➡️ มีระบบ collaboration และ project management ที่ซับซ้อน ✅ Motion และ Pumble เป็นแอปใหม่ที่รวมหลายฟีเจอร์ไว้ในตัวเดียว ➡️ เช่น การจัดการเวลา, การสื่อสาร, การจดบันทึกด้วย AI ✅ การใช้ไฟล์ .txt ช่วยลดภาระทางจิตใจจากการจัดการระบบ ➡️ ทำให้โฟกัสกับงานจริงได้มากขึ้น ‼️ แอปบางตัวมีค่าใช้จ่ายรายเดือนที่สูง ⛔ เช่น Things 3 และ OmniFocus ที่ต้องซื้อแบบพรีเมียม ‼️ การพึ่งพาแอปมากเกินไปอาจทำให้ขาดความยืดหยุ่น ⛔ หากอุปกรณ์พังหรือไม่มีอินเทอร์เน็ต อาจทำงานไม่ได้ ‼️ การจัดการงานผ่านแอปอาจกลายเป็น “งานซ้อนงาน” ⛔ เสียเวลาไปกับการจัดระเบียบมากกว่าการลงมือทำ https://www.al3rez.com/todo-txt-journey
    0 Comments 0 Shares 167 Views 0 Reviews
  • เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล

    ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์

    Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร

    นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์

    แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง

    Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026
    เป็นส่วนหนึ่งของ Core Ultra 400 Series

    รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E)
    พร้อม GPU Xe3 จำนวน 4 คอร์

    รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์
    เหมาะสำหรับโน้ตบุ๊กระดับกลาง

    รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์
    ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์

    ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU)
    รองรับงาน AI, ML และ cloud computing

    https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    🧠💻 เรื่องเล่าจากขุมพลังโน้ตบุ๊ก: Intel Nova Lake Mobile ซีพียู 28 คอร์ที่อาจเปลี่ยนเกม AI และการประมวลผล ในปี 2025 มีข่าวหลุดออกมาว่า Intel เตรียมเปิดตัวซีพียูตระกูลใหม่ชื่อ “Nova Lake” สำหรับโน้ตบุ๊ก ซึ่งจะเป็นส่วนหนึ่งของ Core Ultra 400 Series โดยมีรุ่นสูงสุดคือ Nova Lake-HX ที่มาพร้อม 28 คอร์! ประกอบด้วย 8 P-Core (Coyote Cove), 16 E-Core (Arctic Wolf), และ 4 LP-E Core บน low-power island พร้อม GPU แบบ Xe3 อีก 4 คอร์ Nova Lake ถูกออกแบบมาเพื่อรองรับงานประมวลผลหนัก เช่น AI, ML, cloud computing และงานแบบ composable infrastructure โดยใช้สถาปัตยกรรมใหม่ทั้งหมด และมีการร่วมมือกับ Intel ในการทดสอบ full-stack เพื่อให้ใช้งานได้จริงในระดับองค์กร นอกจากรุ่น HX ยังมีรุ่น H และ U สำหรับโน้ตบุ๊กทั่วไป โดยรุ่น H จะมีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ส่วนรุ่น U สำหรับโน้ตบุ๊กราคาประหยัดจะเริ่มต้นที่ 6 คอร์ (2 P + 4 LP-E) และ GPU 2 Xe3 คอร์ แม้จะยังไม่มี benchmark อย่างเป็นทางการ แต่การรวมคอร์หลายประเภทไว้ในชิปเดียว พร้อมการจัดการพลังงานที่ดีขึ้น อาจทำให้ Nova Lake เป็นตัวเปลี่ยนเกมในตลาดโน้ตบุ๊กระดับสูง ✅ Intel เตรียมเปิดตัว Nova Lake Mobile CPU ในปี 2026 ➡️ เป็นส่วนหนึ่งของ Core Ultra 400 Series ✅ รุ่นสูงสุดคือ Nova Lake-HX มีรวม 28 คอร์ (8P + 16E + 4LP-E) ➡️ พร้อม GPU Xe3 จำนวน 4 คอร์ ✅ รุ่น Nova Lake-H มีสูงสุด 16 คอร์ และ GPU สูงสุด 12 Xe3 คอร์ ➡️ เหมาะสำหรับโน้ตบุ๊กระดับกลาง ✅ รุ่น Nova Lake-U สำหรับโน้ตบุ๊กราคาประหยัดเริ่มต้นที่ 6 คอร์ ➡️ ประกอบด้วย 2P + 4LP-E และ GPU 2 Xe3 คอร์ ✅ ใช้สถาปัตยกรรมใหม่ทั้งหมด: Coyote Cove (P), Arctic Wolf (E), Celestial (GPU) ➡️ รองรับงาน AI, ML และ cloud computing https://wccftech.com/intel-nova-lake-mobile-cpu-lineup-leak-entry-level-skus-starting-6-cores-nova-lake-hx-28-cores/
    WCCFTECH.COM
    Intel Nova Lake Mobile CPU Lineup Leaks Out: Entry-Level SKUs Starting at 6 Cores, Nova Lake-HX With 28 Cores
    Core configurations of Intel's next-generation Nova Lake CPUs have leaked out, which point to up to 28 CPU cores & 12 GPU cores.
    0 Comments 0 Shares 160 Views 0 Reviews
  • เรื่องเล่าจากโลกโอเพ่นซอร์ส: Ubuntu 24.04.3 LTS มาแล้ว พร้อมรองรับฮาร์ดแวร์ใหม่และอัปเดตความปลอดภัยแบบจัดเต็ม

    วันที่ 8 สิงหาคม 2025 Canonical ได้ปล่อย Ubuntu 24.04.3 LTS ซึ่งเป็น point release ล่าสุดของเวอร์ชัน Noble Numbat โดยมีจุดเด่นคือการ backport Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04 เพื่อให้ผู้ใช้ LTS ได้สัมผัสกับการรองรับฮาร์ดแวร์ใหม่โดยไม่ต้องเสียเสถียรภาพระยะยาว

    เวอร์ชันนี้รองรับทั้ง Desktop, Server และ Cloud รวมถึงรสชาติอื่น ๆ ของ Ubuntu เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu และ Ubuntu Studio โดย Ubuntu Studio มีการเปลี่ยนจาก low-latency kernel มาใช้ generic kernel ที่ปรับแต่งให้บูตเร็วแต่ยังคงความสามารถด้าน real-time สำหรับงานมัลติมีเดีย

    การอัปเดตนี้ยังมาพร้อมกับสื่อการติดตั้งใหม่ที่ลดการดาวน์โหลดหลังติดตั้ง และรวมแพตช์ความปลอดภัยที่สะสมมาตั้งแต่เวอร์ชัน 24.04.1 ทำให้เหมาะกับองค์กรที่ต้องการระบบเสถียรแต่รองรับฮาร์ดแวร์ใหม่

    Ubuntu 24.04.3 LTS เปิดตัวอย่างเป็นทางการเมื่อ 8 สิงหาคม 2025
    เป็น point release ล่าสุดของ Ubuntu 24.04 LTS (Noble Numbat)

    ใช้ Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04
    เพิ่มการรองรับฮาร์ดแวร์ใหม่และประสิทธิภาพด้านกราฟิก

    รองรับ Desktop, Server, Cloud และ Ubuntu flavours ทั้งหมด
    เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu, Ubuntu Studio

    Ubuntu Studio เปลี่ยนจาก low-latency kernel มาใช้ generic kernel
    พร้อม boot parameter ที่ยังคงความสามารถด้าน real-time

    สื่อการติดตั้งใหม่ช่วยลดการดาวน์โหลดหลังติดตั้ง
    เหมาะสำหรับองค์กรที่ต้องการ deploy ระบบจำนวนมาก

    Ubuntu 24.04.3 LTS จะได้รับการสนับสนุนถึงปี 2029
    เป็น LTS ที่มีระยะเวลาสนับสนุน 5 ปีเต็ม

    Kernel 6.14 รองรับฮาร์ดแวร์ใหม่ เช่น GPU รุ่นล่าสุดและอุปกรณ์ PCIe Gen5
    เหมาะกับผู้ใช้ที่ใช้โน้ตบุ๊กรุ่นใหม่หรือเซิร์ฟเวอร์ระดับสูง

    Mesa 25.0 ปรับปรุงการรองรับ Vulkan และ OpenGL
    เพิ่มประสิทธิภาพในเกมและแอปพลิเคชันกราฟิก

    Ubuntu LTS เป็นตัวเลือกหลักขององค์กรและสถาบันการศึกษา
    เพราะมีรอบอัปเดตที่คาดการณ์ได้และความเสถียรสูง

    Ubuntu 24.04.4 LTS จะออกในเดือนกุมภาพันธ์ 2026
    คาดว่าจะใช้ kernel และ Mesa จาก Ubuntu 25.10

    https://linuxconfig.org/ubuntu-24-04-3-lts-release-enhanced-hardware-support-and-security-updates
    🐧⚙️ เรื่องเล่าจากโลกโอเพ่นซอร์ส: Ubuntu 24.04.3 LTS มาแล้ว พร้อมรองรับฮาร์ดแวร์ใหม่และอัปเดตความปลอดภัยแบบจัดเต็ม วันที่ 8 สิงหาคม 2025 Canonical ได้ปล่อย Ubuntu 24.04.3 LTS ซึ่งเป็น point release ล่าสุดของเวอร์ชัน Noble Numbat โดยมีจุดเด่นคือการ backport Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04 เพื่อให้ผู้ใช้ LTS ได้สัมผัสกับการรองรับฮาร์ดแวร์ใหม่โดยไม่ต้องเสียเสถียรภาพระยะยาว เวอร์ชันนี้รองรับทั้ง Desktop, Server และ Cloud รวมถึงรสชาติอื่น ๆ ของ Ubuntu เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu และ Ubuntu Studio โดย Ubuntu Studio มีการเปลี่ยนจาก low-latency kernel มาใช้ generic kernel ที่ปรับแต่งให้บูตเร็วแต่ยังคงความสามารถด้าน real-time สำหรับงานมัลติมีเดีย การอัปเดตนี้ยังมาพร้อมกับสื่อการติดตั้งใหม่ที่ลดการดาวน์โหลดหลังติดตั้ง และรวมแพตช์ความปลอดภัยที่สะสมมาตั้งแต่เวอร์ชัน 24.04.1 ทำให้เหมาะกับองค์กรที่ต้องการระบบเสถียรแต่รองรับฮาร์ดแวร์ใหม่ ✅ Ubuntu 24.04.3 LTS เปิดตัวอย่างเป็นทางการเมื่อ 8 สิงหาคม 2025 ➡️ เป็น point release ล่าสุดของ Ubuntu 24.04 LTS (Noble Numbat) ✅ ใช้ Linux kernel 6.14 และ Mesa 25.0 จาก Ubuntu 25.04 ➡️ เพิ่มการรองรับฮาร์ดแวร์ใหม่และประสิทธิภาพด้านกราฟิก ✅ รองรับ Desktop, Server, Cloud และ Ubuntu flavours ทั้งหมด ➡️ เช่น Kubuntu, Ubuntu MATE, Lubuntu, Xubuntu, Ubuntu Studio ✅ Ubuntu Studio เปลี่ยนจาก low-latency kernel มาใช้ generic kernel ➡️ พร้อม boot parameter ที่ยังคงความสามารถด้าน real-time ✅ สื่อการติดตั้งใหม่ช่วยลดการดาวน์โหลดหลังติดตั้ง ➡️ เหมาะสำหรับองค์กรที่ต้องการ deploy ระบบจำนวนมาก ✅ Ubuntu 24.04.3 LTS จะได้รับการสนับสนุนถึงปี 2029 ➡️ เป็น LTS ที่มีระยะเวลาสนับสนุน 5 ปีเต็ม ✅ Kernel 6.14 รองรับฮาร์ดแวร์ใหม่ เช่น GPU รุ่นล่าสุดและอุปกรณ์ PCIe Gen5 ➡️ เหมาะกับผู้ใช้ที่ใช้โน้ตบุ๊กรุ่นใหม่หรือเซิร์ฟเวอร์ระดับสูง ✅ Mesa 25.0 ปรับปรุงการรองรับ Vulkan และ OpenGL ➡️ เพิ่มประสิทธิภาพในเกมและแอปพลิเคชันกราฟิก ✅ Ubuntu LTS เป็นตัวเลือกหลักขององค์กรและสถาบันการศึกษา ➡️ เพราะมีรอบอัปเดตที่คาดการณ์ได้และความเสถียรสูง ✅ Ubuntu 24.04.4 LTS จะออกในเดือนกุมภาพันธ์ 2026 ➡️ คาดว่าจะใช้ kernel และ Mesa จาก Ubuntu 25.10 https://linuxconfig.org/ubuntu-24-04-3-lts-release-enhanced-hardware-support-and-security-updates
    LINUXCONFIG.ORG
    Ubuntu 24.04.3 LTS Release: Enhanced Hardware Support and Security Updates
    Discover the new features and updates in the Ubuntu 24.04.3 LTS release, including improved hardware support, security updates, and performance optimizations. Ideal for users seeking long-term stability with modern hardware compatibility.
    0 Comments 0 Shares 212 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ Google ถูกหลอกด้วยเสียง และข้อมูลลูกค้าก็หลุดไป

    ในเดือนมิถุนายน 2025 Google ได้ยืนยันว่าเกิดเหตุข้อมูลรั่วไหลจากระบบ Salesforce ภายในของบริษัท ซึ่งใช้เก็บข้อมูลลูกค้าธุรกิจขนาดกลางและขนาดเล็ก โดยกลุ่มแฮกเกอร์ชื่อดัง ShinyHunters (หรือ UNC6040) ใช้เทคนิค “vishing” หรือการหลอกลวงผ่านเสียงโทรศัพท์ เพื่อหลอกพนักงานให้อนุมัติแอปปลอมที่แฝงตัวเป็นเครื่องมือ Salesforce Data Loader

    เมื่อได้รับสิทธิ์เข้าถึงแล้ว แฮกเกอร์สามารถดูดข้อมูลออกจากระบบได้ในช่วงเวลาสั้น ๆ ก่อนที่ Google จะตรวจพบและตัดการเข้าถึง โดยข้อมูลที่ถูกขโมยนั้นเป็นข้อมูลพื้นฐาน เช่น ชื่อบริษัท เบอร์โทร และโน้ตประกอบ ซึ่ง Google ระบุว่าเป็นข้อมูลที่ “ส่วนใหญ่เปิดเผยอยู่แล้ว”

    อย่างไรก็ตาม เหตุการณ์นี้สะท้อนถึงความเปราะบางของระบบที่พึ่งพามนุษย์เป็นด่านแรก และเป็นส่วนหนึ่งของแคมเปญโจมตีที่กว้างขึ้น ซึ่งมีเป้าหมายเป็นบริษัทที่ใช้ Salesforce เช่น Chanel, Dior, Pandora, Qantas และ Allianz โดยกลุ่ม UNC6240 ซึ่งเชื่อว่าเป็นแขนงของ ShinyHunters จะตามมาด้วยการขู่เรียกค่าไถ่ภายใน 72 ชั่วโมง พร้อมขู่ว่าจะเปิดเผยข้อมูลผ่านเว็บไซต์ “Data Leak Site”

    Google ยืนยันว่าระบบ Salesforce ภายในถูกเจาะข้อมูล
    เกิดขึ้นในเดือนมิถุนายน 2025 โดยกลุ่ม UNC6040

    ข้อมูลที่ถูกขโมยเป็นข้อมูลพื้นฐานของลูกค้าธุรกิจ SMB
    เช่น ชื่อบริษัท เบอร์โทร และโน้ตประกอบ

    แฮกเกอร์ใช้เทคนิค vishing หลอกพนักงานผ่านโทรศัพท์
    โดยปลอมตัวเป็นฝ่าย IT และให้ติดตั้งแอปปลอม

    แอปปลอมถูกระบุว่าเป็น Salesforce Data Loader หรือชื่อหลอกเช่น “My Ticket Portal”
    ใช้ OAuth เพื่อเข้าถึงข้อมูลโดยไม่ถูกตรวจจับ

    Google ตัดการเข้าถึงได้ภายใน “ช่วงเวลาสั้น ๆ”
    และแจ้งลูกค้าที่ได้รับผลกระทบทันที

    กลุ่ม UNC6240 ตามมาด้วยการขู่เรียกค่าไถ่
    โดยส่งอีเมลหรือโทรศัพท์เรียกเงินในรูปแบบ Bitcoin ภายใน 72 ชั่วโมง

    ShinyHunters เคยโจมตี Snowflake, AT&T, PowerSchool และ Oracle Cloud
    เป็นกลุ่มที่มีประวัติการเจาะระบบระดับสูง

    Salesforce ยืนยันว่าแพลตฟอร์มไม่มีช่องโหว่
    ปัญหาเกิดจากการหลอกลวงผู้ใช้ ไม่ใช่ระบบ

    การเชื่อมต่อแอปภายนอกใน Salesforce ใช้รหัส 8 หลัก
    เป็นช่องทางที่แฮกเกอร์ใช้หลอกให้เชื่อมต่อกับแอปปลอม

    บริษัทที่ตกเป็นเหยื่อมีทั้งแบรนด์หรูและสายการบิน
    เช่น Chanel, Dior, Louis Vuitton, Qantas และ Allianz

    Google แนะนำให้ใช้ MFA, จำกัดสิทธิ์ และฝึกอบรมพนักงาน
    เพื่อป้องกันการโจมตีแบบ social engineering

    https://hackread.com/google-salesforce-data-breach-shinyhunters-vishing-scam/
    📞🕵️‍♂️ เรื่องเล่าจากโลกไซเบอร์: เมื่อ Google ถูกหลอกด้วยเสียง และข้อมูลลูกค้าก็หลุดไป ในเดือนมิถุนายน 2025 Google ได้ยืนยันว่าเกิดเหตุข้อมูลรั่วไหลจากระบบ Salesforce ภายในของบริษัท ซึ่งใช้เก็บข้อมูลลูกค้าธุรกิจขนาดกลางและขนาดเล็ก โดยกลุ่มแฮกเกอร์ชื่อดัง ShinyHunters (หรือ UNC6040) ใช้เทคนิค “vishing” หรือการหลอกลวงผ่านเสียงโทรศัพท์ เพื่อหลอกพนักงานให้อนุมัติแอปปลอมที่แฝงตัวเป็นเครื่องมือ Salesforce Data Loader เมื่อได้รับสิทธิ์เข้าถึงแล้ว แฮกเกอร์สามารถดูดข้อมูลออกจากระบบได้ในช่วงเวลาสั้น ๆ ก่อนที่ Google จะตรวจพบและตัดการเข้าถึง โดยข้อมูลที่ถูกขโมยนั้นเป็นข้อมูลพื้นฐาน เช่น ชื่อบริษัท เบอร์โทร และโน้ตประกอบ ซึ่ง Google ระบุว่าเป็นข้อมูลที่ “ส่วนใหญ่เปิดเผยอยู่แล้ว” อย่างไรก็ตาม เหตุการณ์นี้สะท้อนถึงความเปราะบางของระบบที่พึ่งพามนุษย์เป็นด่านแรก และเป็นส่วนหนึ่งของแคมเปญโจมตีที่กว้างขึ้น ซึ่งมีเป้าหมายเป็นบริษัทที่ใช้ Salesforce เช่น Chanel, Dior, Pandora, Qantas และ Allianz โดยกลุ่ม UNC6240 ซึ่งเชื่อว่าเป็นแขนงของ ShinyHunters จะตามมาด้วยการขู่เรียกค่าไถ่ภายใน 72 ชั่วโมง พร้อมขู่ว่าจะเปิดเผยข้อมูลผ่านเว็บไซต์ “Data Leak Site” ✅ Google ยืนยันว่าระบบ Salesforce ภายในถูกเจาะข้อมูล ➡️ เกิดขึ้นในเดือนมิถุนายน 2025 โดยกลุ่ม UNC6040 ✅ ข้อมูลที่ถูกขโมยเป็นข้อมูลพื้นฐานของลูกค้าธุรกิจ SMB ➡️ เช่น ชื่อบริษัท เบอร์โทร และโน้ตประกอบ ✅ แฮกเกอร์ใช้เทคนิค vishing หลอกพนักงานผ่านโทรศัพท์ ➡️ โดยปลอมตัวเป็นฝ่าย IT และให้ติดตั้งแอปปลอม ✅ แอปปลอมถูกระบุว่าเป็น Salesforce Data Loader หรือชื่อหลอกเช่น “My Ticket Portal” ➡️ ใช้ OAuth เพื่อเข้าถึงข้อมูลโดยไม่ถูกตรวจจับ ✅ Google ตัดการเข้าถึงได้ภายใน “ช่วงเวลาสั้น ๆ” ➡️ และแจ้งลูกค้าที่ได้รับผลกระทบทันที ✅ กลุ่ม UNC6240 ตามมาด้วยการขู่เรียกค่าไถ่ ➡️ โดยส่งอีเมลหรือโทรศัพท์เรียกเงินในรูปแบบ Bitcoin ภายใน 72 ชั่วโมง ✅ ShinyHunters เคยโจมตี Snowflake, AT&T, PowerSchool และ Oracle Cloud ➡️ เป็นกลุ่มที่มีประวัติการเจาะระบบระดับสูง ✅ Salesforce ยืนยันว่าแพลตฟอร์มไม่มีช่องโหว่ ➡️ ปัญหาเกิดจากการหลอกลวงผู้ใช้ ไม่ใช่ระบบ ✅ การเชื่อมต่อแอปภายนอกใน Salesforce ใช้รหัส 8 หลัก ➡️ เป็นช่องทางที่แฮกเกอร์ใช้หลอกให้เชื่อมต่อกับแอปปลอม ✅ บริษัทที่ตกเป็นเหยื่อมีทั้งแบรนด์หรูและสายการบิน ➡️ เช่น Chanel, Dior, Louis Vuitton, Qantas และ Allianz ✅ Google แนะนำให้ใช้ MFA, จำกัดสิทธิ์ และฝึกอบรมพนักงาน ➡️ เพื่อป้องกันการโจมตีแบบ social engineering https://hackread.com/google-salesforce-data-breach-shinyhunters-vishing-scam/
    HACKREAD.COM
    Google Confirms Salesforce Data Breach by ShinyHunters via Vishing Scam
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 280 Views 0 Reviews
  • เรื่องเล่าจากโลก GPU มืออาชีพ: RTX Pro 5000 Blackwell Mobile ที่แรงเทียบเท่า RTX 5090

    Nvidia เปิดตัว RTX Pro 5000 Blackwell Mobile GPU สำหรับโน้ตบุ๊กสายเวิร์กสเตชัน โดยใช้สถาปัตยกรรม Blackwell รุ่นล่าสุดที่เน้นงานระดับมืออาชีพ เช่น AI, การจำลอง, การออกแบบ 3D และการเรนเดอร์ขั้นสูง

    แม้จะเป็นรุ่นสำหรับโน้ตบุ๊ก แต่ประสิทธิภาพกลับใกล้เคียงกับ RTX 5090 Laptop GPU ซึ่งเป็นรุ่นเกมมิ่งระดับสูง โดย RTX Pro 5000 Mobile มี 10,496 CUDA cores, 328 Tensor cores และ 82 RT cores พร้อมหน่วยความจำ GDDR7 ขนาด 24GB บนบัส 256-bit ให้แบนด์วิดธ์ 896 GB/s

    ผลการทดสอบ OpenCL พบว่า RTX Pro 5000 Mobile แรงกว่า RTX 5000 Ada Generation ถึง 14% และยังเหนือกว่า RTX 5090 เล็กน้อย แม้จะมีข้อจำกัดด้านพลังงานและอินเทอร์เฟซหน่วยความจำที่แคบกว่า

    Dell ได้เปิดตัวโน้ตบุ๊กรุ่น Pro Max 18 Plus ที่ใช้ GPU ตัวนี้ร่วมกับ Core Ultra 9 285HX และ DDR5-6400 ขายที่ราคา $6,121.47 ซึ่งถือว่าเป็นโน้ตบุ๊กระดับสูงสำหรับมืออาชีพโดยเฉพาะ

    RTX Pro 5000 Blackwell Mobile ใช้สถาปัตยกรรม Blackwell
    มี 10,496 CUDA cores และ 24GB GDDR7 memory

    แบนด์วิดธ์หน่วยความจำอยู่ที่ 896 GB/s
    ใช้บัส 256-bit ซึ่งแคบกว่ารุ่นเดสก์ท็อป

    ผลทดสอบ OpenCL แรงกว่า RTX 5000 Ada Generation 14%
    และแรงกว่า RTX 5090 Laptop GPU ประมาณ 2%

    Dell Pro Max 18 Plus ใช้ GPU นี้ร่วมกับ Core Ultra 9 285HX
    ขายที่ราคา $6,121.47 สำหรับรุ่นสูงสุด

    GPU นี้รองรับฟีเจอร์ระดับมืออาชีพ เช่น ECC และ Tensor cores
    เหมาะสำหรับงาน AI, simulation และการออกแบบขั้นสูง

    GPU นี้มี 328 Tensor cores และ 82 RT cores
    รองรับการเร่งความเร็วงาน machine learning และ ray tracing

    ใช้เทคโนโลยีการผลิต 5nm จาก TSMC
    มีทรานซิสเตอร์มากถึง 45,600 ล้านตัว

    รองรับ PCIe 5.0 และ DisplayPort 2.1b
    แม้จะไม่มีพอร์ตแสดงผลโดยตรง แต่ใช้ผ่านระบบโน้ตบุ๊ก

    มีประสิทธิภาพ FP32 สูงถึง 49.8 TFLOPs และ AI TOPS ที่ 1824
    เหมาะกับงานที่ต้องการการคำนวณหนักและแม่นยำ

    มีรุ่นย่อย RTX Pro 1000–5000 สำหรับตลาดต่างระดับ
    รุ่นต่ำสุดมีเพียง 1,792 CUDA cores และบัสแค่ 96-bit

    https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-pro-5000-blackwell-laptop-gpu-beats-previous-gen-by-14-percent-in-opencl-benchmark-professional-mobile-chip-performs-like-a-laptop-rtx-5090
    🎮💼 เรื่องเล่าจากโลก GPU มืออาชีพ: RTX Pro 5000 Blackwell Mobile ที่แรงเทียบเท่า RTX 5090 Nvidia เปิดตัว RTX Pro 5000 Blackwell Mobile GPU สำหรับโน้ตบุ๊กสายเวิร์กสเตชัน โดยใช้สถาปัตยกรรม Blackwell รุ่นล่าสุดที่เน้นงานระดับมืออาชีพ เช่น AI, การจำลอง, การออกแบบ 3D และการเรนเดอร์ขั้นสูง แม้จะเป็นรุ่นสำหรับโน้ตบุ๊ก แต่ประสิทธิภาพกลับใกล้เคียงกับ RTX 5090 Laptop GPU ซึ่งเป็นรุ่นเกมมิ่งระดับสูง โดย RTX Pro 5000 Mobile มี 10,496 CUDA cores, 328 Tensor cores และ 82 RT cores พร้อมหน่วยความจำ GDDR7 ขนาด 24GB บนบัส 256-bit ให้แบนด์วิดธ์ 896 GB/s ผลการทดสอบ OpenCL พบว่า RTX Pro 5000 Mobile แรงกว่า RTX 5000 Ada Generation ถึง 14% และยังเหนือกว่า RTX 5090 เล็กน้อย แม้จะมีข้อจำกัดด้านพลังงานและอินเทอร์เฟซหน่วยความจำที่แคบกว่า Dell ได้เปิดตัวโน้ตบุ๊กรุ่น Pro Max 18 Plus ที่ใช้ GPU ตัวนี้ร่วมกับ Core Ultra 9 285HX และ DDR5-6400 ขายที่ราคา $6,121.47 ซึ่งถือว่าเป็นโน้ตบุ๊กระดับสูงสำหรับมืออาชีพโดยเฉพาะ ✅ RTX Pro 5000 Blackwell Mobile ใช้สถาปัตยกรรม Blackwell ➡️ มี 10,496 CUDA cores และ 24GB GDDR7 memory ✅ แบนด์วิดธ์หน่วยความจำอยู่ที่ 896 GB/s ➡️ ใช้บัส 256-bit ซึ่งแคบกว่ารุ่นเดสก์ท็อป ✅ ผลทดสอบ OpenCL แรงกว่า RTX 5000 Ada Generation 14% ➡️ และแรงกว่า RTX 5090 Laptop GPU ประมาณ 2% ✅ Dell Pro Max 18 Plus ใช้ GPU นี้ร่วมกับ Core Ultra 9 285HX ➡️ ขายที่ราคา $6,121.47 สำหรับรุ่นสูงสุด ✅ GPU นี้รองรับฟีเจอร์ระดับมืออาชีพ เช่น ECC และ Tensor cores ➡️ เหมาะสำหรับงาน AI, simulation และการออกแบบขั้นสูง ✅ GPU นี้มี 328 Tensor cores และ 82 RT cores ➡️ รองรับการเร่งความเร็วงาน machine learning และ ray tracing ✅ ใช้เทคโนโลยีการผลิต 5nm จาก TSMC ➡️ มีทรานซิสเตอร์มากถึง 45,600 ล้านตัว ✅ รองรับ PCIe 5.0 และ DisplayPort 2.1b ➡️ แม้จะไม่มีพอร์ตแสดงผลโดยตรง แต่ใช้ผ่านระบบโน้ตบุ๊ก ✅ มีประสิทธิภาพ FP32 สูงถึง 49.8 TFLOPs และ AI TOPS ที่ 1824 ➡️ เหมาะกับงานที่ต้องการการคำนวณหนักและแม่นยำ ✅ มีรุ่นย่อย RTX Pro 1000–5000 สำหรับตลาดต่างระดับ ➡️ รุ่นต่ำสุดมีเพียง 1,792 CUDA cores และบัสแค่ 96-bit https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-pro-5000-blackwell-laptop-gpu-beats-previous-gen-by-14-percent-in-opencl-benchmark-professional-mobile-chip-performs-like-a-laptop-rtx-5090
    0 Comments 0 Shares 212 Views 0 Reviews
  • สรุปเหตุการณ์: คดี “ขโมยเทคโนโลยี 2 นาโนเมตร” ของ TSMC

    เหตุการณ์เกิดขึ้น:
    วิศวกรของ TSMC ทั้งในตำแหน่ง "พนักงานปัจจุบันและอดีต" ใช้โทรศัพท์มือถือถ่ายภาพ หน้าจอโน้ตบุ๊กบริษัท ขณะทำงานที่บ้าน (ช่วง Work from Home)

    พวกเขานำข้อมูลลับของกระบวนการผลิตชิป ระดับ 2 นาโนเมตร ไปส่งให้กับ วิศวกรของบริษัท Tokyo Electron (TEL) ซึ่งเป็นบริษัทอุปกรณ์เซมิคอนดักเตอร์รายใหญ่ของญี่ปุ่น

    วิศวกรคนนี้เคยทำงานที่ TSMC และได้ลาออกแล้ว

    วิธีการถูกจับได้อย่างไร?
    ระบบความปลอดภัยของ TSMC ตรวจพบพฤติกรรมที่น่าสงสัย:
    ระบบมีการ วิเคราะห์พฤติกรรมการใช้งานไฟล์ เช่น ระยะเวลาที่ดูเอกสาร, ความเร็วในการเปลี่ยนหน้า
    หากการดูข้อมูล “เร็วและสม่ำเสมอเกินไป” เช่น เปลี่ยนหน้าทุก ๆ 5 วินาทีเหมือนถ่ายรูป — ระบบจะสงสัยว่าอาจกำลังลักลอบถ่ายภาพ

    อีกทั้งยังมี ระบบ AI จำลองพฤติกรรมของผู้ใช้ เพื่อคาดการณ์ว่าอาจกำลังมีการพยายามขโมยข้อมูล

    ทำไมถูกเรียกว่า “ขโมยแบบโง่ๆ” ?
    การขโมยแบบใช้มือถือส่วนตัวถ่ายหน้าจอ ถือว่า ล้าสมัยและถูกจับได้ง่ายมาก

    ระบบของ TSMC มีการตรวจสอบทั้งในระดับซอฟต์แวร์และฮาร์ดแวร์ รวมถึงพฤติกรรมผู้ใช้ (Behavior Analytics)

    การใช้มือถือถ่ายหน้าจอโน้ตบุ๊กที่บริษัทแจกนั้น ยิ่งง่ายต่อการตรวจจับ เพราะบริษัทสามารถติดตามได้

    ผลกระทบและการดำเนินคดี
    ข้อมูลที่รั่วไหลเกี่ยวข้องกับเทคโนโลยี 2 นาโนเมตร ซึ่งเป็นเทคโนโลยีล้ำหน้าระดับโลกของ TSMC

    คดีนี้ทำให้เจ้าหน้าที่จากสำนักงานอัยการพิเศษด้านทรัพย์สินทางปัญญา บุกจับและควบคุมตัวพนักงานที่เกี่ยวข้องหลายราย

    3 คนจากทั้งหมด ถูกตั้งข้อหาภายใต้ กฎหมายความมั่นคงแห่งชาติ

    โยงถึงญี่ปุ่น: TEL และ Rapidus
    ข้อมูลทั้งหมดรั่วไหลไปถึงอดีตพนักงานของ Tokyo Electron (TEL)

    TEL มีความสัมพันธ์แนบแน่นกับโครงการ Rapidus ของรัฐบาลญี่ปุ่น ที่พยายามไล่ตามเทคโนโลยีเซมิคอนดักเตอร์ระดับ 2 นาโนเมตรให้ทัน TSMC

    แม้ยังไม่มีหลักฐานชัดเจนว่า Rapidus เกี่ยวข้องโดยตรง แต่ความเชื่อมโยงนี้ทำให้เกิดความ “น่าสงสัย” และสร้างความตึงเครียดทางธุรกิจ

    บทเรียนจากกรณีนี้
    1. ระบบรักษาความปลอดภัยของ TSMC นั้นล้ำสมัยมาก
    ไม่เพียงห้ามถ่ายภาพในโรงงาน แต่ยังตรวจจับพฤติกรรมแม้ในช่วงทำงานจากบ้าน
    ใช้ AI วิเคราะห์รูปแบบการดูไฟล์ เพื่อหาความผิดปกติ

    2. การพยายามขโมยข้อมูลด้วยวิธีพื้นๆ นั้นไม่เพียงพออีกต่อไป
    แม้บางคนพยายามหลีกเลี่ยงโดยถ่ายจากจอมอนิเตอร์ของตัวเองแทนโน้ตบุ๊กบริษัท แต่บริษัทก็คิดไว้แล้ว

    3. วัฒนธรรมองค์กรต้องเข้มแข็ง
    ความจงรักภักดีและจริยธรรมของพนักงานเป็นสิ่งสำคัญ เพราะแม้เทคโนโลยีจะดีแค่ไหน ก็ยังพ่ายต่อ “ใจคน” หากไม่มีจริยธรรม

    #ลุงเขียนหลานอ่าน
    🧠 สรุปเหตุการณ์: คดี “ขโมยเทคโนโลยี 2 นาโนเมตร” ของ TSMC 🕵️‍♂️ เหตุการณ์เกิดขึ้น: ▶️ วิศวกรของ TSMC ทั้งในตำแหน่ง "พนักงานปัจจุบันและอดีต" ใช้โทรศัพท์มือถือถ่ายภาพ หน้าจอโน้ตบุ๊กบริษัท ขณะทำงานที่บ้าน (ช่วง Work from Home) ▶️ พวกเขานำข้อมูลลับของกระบวนการผลิตชิป ระดับ 2 นาโนเมตร ไปส่งให้กับ วิศวกรของบริษัท Tokyo Electron (TEL) ซึ่งเป็นบริษัทอุปกรณ์เซมิคอนดักเตอร์รายใหญ่ของญี่ปุ่น ▶️ วิศวกรคนนี้เคยทำงานที่ TSMC และได้ลาออกแล้ว 🔍 วิธีการถูกจับได้อย่างไร? ⭕ ระบบความปลอดภัยของ TSMC ตรวจพบพฤติกรรมที่น่าสงสัย: ▶️ ระบบมีการ วิเคราะห์พฤติกรรมการใช้งานไฟล์ เช่น ระยะเวลาที่ดูเอกสาร, ความเร็วในการเปลี่ยนหน้า ▶️ หากการดูข้อมูล “เร็วและสม่ำเสมอเกินไป” เช่น เปลี่ยนหน้าทุก ๆ 5 วินาทีเหมือนถ่ายรูป — ระบบจะสงสัยว่าอาจกำลังลักลอบถ่ายภาพ ⭕ อีกทั้งยังมี ระบบ AI จำลองพฤติกรรมของผู้ใช้ เพื่อคาดการณ์ว่าอาจกำลังมีการพยายามขโมยข้อมูล 🤦‍♂️ ทำไมถูกเรียกว่า “ขโมยแบบโง่ๆ” ? ✅ การขโมยแบบใช้มือถือส่วนตัวถ่ายหน้าจอ ถือว่า ล้าสมัยและถูกจับได้ง่ายมาก ✅ ระบบของ TSMC มีการตรวจสอบทั้งในระดับซอฟต์แวร์และฮาร์ดแวร์ รวมถึงพฤติกรรมผู้ใช้ (Behavior Analytics) ✅ การใช้มือถือถ่ายหน้าจอโน้ตบุ๊กที่บริษัทแจกนั้น ยิ่งง่ายต่อการตรวจจับ เพราะบริษัทสามารถติดตามได้ ⚠️ ผลกระทบและการดำเนินคดี ⭕ ข้อมูลที่รั่วไหลเกี่ยวข้องกับเทคโนโลยี 2 นาโนเมตร ซึ่งเป็นเทคโนโลยีล้ำหน้าระดับโลกของ TSMC ⭕ คดีนี้ทำให้เจ้าหน้าที่จากสำนักงานอัยการพิเศษด้านทรัพย์สินทางปัญญา บุกจับและควบคุมตัวพนักงานที่เกี่ยวข้องหลายราย ⭕ 3 คนจากทั้งหมด ถูกตั้งข้อหาภายใต้ กฎหมายความมั่นคงแห่งชาติ 🇯🇵 โยงถึงญี่ปุ่น: TEL และ Rapidus ⭕ ข้อมูลทั้งหมดรั่วไหลไปถึงอดีตพนักงานของ Tokyo Electron (TEL) ⭕ TEL มีความสัมพันธ์แนบแน่นกับโครงการ Rapidus ของรัฐบาลญี่ปุ่น ที่พยายามไล่ตามเทคโนโลยีเซมิคอนดักเตอร์ระดับ 2 นาโนเมตรให้ทัน TSMC ⭕ แม้ยังไม่มีหลักฐานชัดเจนว่า Rapidus เกี่ยวข้องโดยตรง แต่ความเชื่อมโยงนี้ทำให้เกิดความ “น่าสงสัย” และสร้างความตึงเครียดทางธุรกิจ 🔍 บทเรียนจากกรณีนี้ 🔐 1. ระบบรักษาความปลอดภัยของ TSMC นั้นล้ำสมัยมาก ▶️ ไม่เพียงห้ามถ่ายภาพในโรงงาน แต่ยังตรวจจับพฤติกรรมแม้ในช่วงทำงานจากบ้าน ▶️ ใช้ AI วิเคราะห์รูปแบบการดูไฟล์ เพื่อหาความผิดปกติ 📵 2. การพยายามขโมยข้อมูลด้วยวิธีพื้นๆ นั้นไม่เพียงพออีกต่อไป ▶️ แม้บางคนพยายามหลีกเลี่ยงโดยถ่ายจากจอมอนิเตอร์ของตัวเองแทนโน้ตบุ๊กบริษัท แต่บริษัทก็คิดไว้แล้ว 🚫 3. วัฒนธรรมองค์กรต้องเข้มแข็ง ▶️ ความจงรักภักดีและจริยธรรมของพนักงานเป็นสิ่งสำคัญ เพราะแม้เทคโนโลยีจะดีแค่ไหน ก็ยังพ่ายต่อ “ใจคน” หากไม่มีจริยธรรม #ลุงเขียนหลานอ่าน
    1 Comments 0 Shares 295 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อชิปความปลอดภัยกลายเป็นช่องโหว่ใน Dell กว่าร้อยรุ่น

    ใครจะคิดว่า “ชิปความปลอดภัย” ที่ออกแบบมาเพื่อปกป้องข้อมูลสำคัญอย่างรหัสผ่านและลายนิ้วมือ จะกลายเป็นจุดอ่อนที่เปิดทางให้แฮกเกอร์เข้าควบคุมเครื่องได้แบบถาวร ล่าสุด Cisco Talos ได้เปิดเผยช่องโหว่ร้ายแรงใน Dell ControlVault3 และ ControlVault3+ ซึ่งเป็นชิปที่ใช้ในโน้ตบุ๊ค Dell กว่า 100 รุ่น โดยเฉพาะในซีรีส์ Latitude และ Precision ที่นิยมใช้ในองค์กรและหน่วยงานรัฐบาล

    ช่องโหว่เหล่านี้ถูกตั้งชื่อว่า “ReVault” และมีทั้งหมด 5 รายการ ได้แก่ CVE-2025-24311, CVE-2025-25050, CVE-2025-25215, CVE-2025-24922 และ CVE-2025-24919 ซึ่งเปิดโอกาสให้แฮกเกอร์สามารถ:

    - เข้าถึงเครื่องแบบถาวร แม้จะติดตั้ง Windows ใหม่ก็ยังไม่หาย
    - เจาะระบบผ่านการเข้าถึงทางกายภาพ เช่น เปิดเครื่องแล้วเชื่อมต่อผ่าน USB
    - ปลอมลายนิ้วมือให้ระบบยอมรับได้ทุกนิ้ว

    Dell ได้ออกอัปเดตเฟิร์มแวร์เพื่อแก้ไขช่องโหว่เหล่านี้ตั้งแต่วันที่ 13 มิถุนายน 2025 และแนะนำให้ผู้ใช้รีบอัปเดตทันที รวมถึงพิจารณาปิดการใช้งาน ControlVault หากไม่ได้ใช้ฟีเจอร์ลายนิ้วมือหรือ smart card

    นอกจากนี้ Cisco ยังร่วมมือกับ Hugging Face เพื่อสแกนมัลแวร์ในโมเดล AI ที่เผยแพร่สู่สาธารณะ โดยใช้ ClamAV รุ่นพิเศษ ซึ่งเป็นอีกก้าวสำคัญในการป้องกันภัยในห่วงโซ่ซัพพลายของ AI

    Cisco Talos พบช่องโหว่ใน Dell ControlVault3 และ ControlVault3+
    ส่งผลกระทบต่อโน้ตบุ๊ค Dell กว่า 100 รุ่นทั่วโลก

    ช่องโหว่ถูกตั้งชื่อว่า “ReVault” และมีทั้งหมด 5 รายการ CVE
    รวมถึง CVE-2025-24311, 25050, 25215, 24922, 24919

    ช่องโหว่เปิดทางให้แฮกเกอร์เข้าถึงเครื่องแบบถาวร
    แม้จะติดตั้ง Windows ใหม่ก็ยังไม่สามารถลบมัลแวร์ได้

    การโจมตีสามารถทำได้ผ่านการเข้าถึงทางกายภาพ
    เช่น เชื่อมต่อผ่าน USB โดยไม่ต้องรู้รหัสผ่านหรือปลดล็อก

    Dell ออกอัปเดตเฟิร์มแวร์และแจ้งลูกค้าเมื่อ 13 มิถุนายน 2025
    แนะนำให้รีบอัปเดตและตรวจสอบ Security Advisory DSA-2025-053

    Cisco ร่วมมือกับ Hugging Face สแกนมัลแวร์ในโมเดล AI
    ใช้ ClamAV รุ่นพิเศษ สแกนไฟล์สาธารณะทั้งหมดฟรี

    ช่องโหว่เกิดจาก Broadcom BCM5820X ที่ใช้ในชิป ControlVault
    พบในโน้ตบุ๊ค Dell รุ่นธุรกิจ เช่น Latitude และ Precision

    ช่องโหว่รวมถึง unsafe-deserialization และ stack overflow
    ทำให้ผู้ใช้ที่ไม่มีสิทธิ์ admin ก็สามารถรันโค้ดอันตรายได้

    ControlVault เป็น secure enclave สำหรับเก็บข้อมูลลับ
    เช่น รหัสผ่าน ลายนิ้วมือ และรหัสความปลอดภัย

    โน้ตบุ๊ครุ่น Rugged ของ Dell ก็ได้รับผลกระทบเช่นกัน
    ใช้ในอุตสาหกรรมที่ต้องการความปลอดภัยสูง เช่น รัฐบาล

    https://hackread.com/dell-laptop-models-vulnerabilities-impacting-millions/
    🧠💻 เรื่องเล่าจากโลกไซเบอร์: เมื่อชิปความปลอดภัยกลายเป็นช่องโหว่ใน Dell กว่าร้อยรุ่น ใครจะคิดว่า “ชิปความปลอดภัย” ที่ออกแบบมาเพื่อปกป้องข้อมูลสำคัญอย่างรหัสผ่านและลายนิ้วมือ จะกลายเป็นจุดอ่อนที่เปิดทางให้แฮกเกอร์เข้าควบคุมเครื่องได้แบบถาวร ล่าสุด Cisco Talos ได้เปิดเผยช่องโหว่ร้ายแรงใน Dell ControlVault3 และ ControlVault3+ ซึ่งเป็นชิปที่ใช้ในโน้ตบุ๊ค Dell กว่า 100 รุ่น โดยเฉพาะในซีรีส์ Latitude และ Precision ที่นิยมใช้ในองค์กรและหน่วยงานรัฐบาล ช่องโหว่เหล่านี้ถูกตั้งชื่อว่า “ReVault” และมีทั้งหมด 5 รายการ ได้แก่ CVE-2025-24311, CVE-2025-25050, CVE-2025-25215, CVE-2025-24922 และ CVE-2025-24919 ซึ่งเปิดโอกาสให้แฮกเกอร์สามารถ: - เข้าถึงเครื่องแบบถาวร แม้จะติดตั้ง Windows ใหม่ก็ยังไม่หาย - เจาะระบบผ่านการเข้าถึงทางกายภาพ เช่น เปิดเครื่องแล้วเชื่อมต่อผ่าน USB - ปลอมลายนิ้วมือให้ระบบยอมรับได้ทุกนิ้ว Dell ได้ออกอัปเดตเฟิร์มแวร์เพื่อแก้ไขช่องโหว่เหล่านี้ตั้งแต่วันที่ 13 มิถุนายน 2025 และแนะนำให้ผู้ใช้รีบอัปเดตทันที รวมถึงพิจารณาปิดการใช้งาน ControlVault หากไม่ได้ใช้ฟีเจอร์ลายนิ้วมือหรือ smart card นอกจากนี้ Cisco ยังร่วมมือกับ Hugging Face เพื่อสแกนมัลแวร์ในโมเดล AI ที่เผยแพร่สู่สาธารณะ โดยใช้ ClamAV รุ่นพิเศษ ซึ่งเป็นอีกก้าวสำคัญในการป้องกันภัยในห่วงโซ่ซัพพลายของ AI ✅ Cisco Talos พบช่องโหว่ใน Dell ControlVault3 และ ControlVault3+ ➡️ ส่งผลกระทบต่อโน้ตบุ๊ค Dell กว่า 100 รุ่นทั่วโลก ✅ ช่องโหว่ถูกตั้งชื่อว่า “ReVault” และมีทั้งหมด 5 รายการ CVE ➡️ รวมถึง CVE-2025-24311, 25050, 25215, 24922, 24919 ✅ ช่องโหว่เปิดทางให้แฮกเกอร์เข้าถึงเครื่องแบบถาวร ➡️ แม้จะติดตั้ง Windows ใหม่ก็ยังไม่สามารถลบมัลแวร์ได้ ✅ การโจมตีสามารถทำได้ผ่านการเข้าถึงทางกายภาพ ➡️ เช่น เชื่อมต่อผ่าน USB โดยไม่ต้องรู้รหัสผ่านหรือปลดล็อก ✅ Dell ออกอัปเดตเฟิร์มแวร์และแจ้งลูกค้าเมื่อ 13 มิถุนายน 2025 ➡️ แนะนำให้รีบอัปเดตและตรวจสอบ Security Advisory DSA-2025-053 ✅ Cisco ร่วมมือกับ Hugging Face สแกนมัลแวร์ในโมเดล AI ➡️ ใช้ ClamAV รุ่นพิเศษ สแกนไฟล์สาธารณะทั้งหมดฟรี ✅ ช่องโหว่เกิดจาก Broadcom BCM5820X ที่ใช้ในชิป ControlVault ➡️ พบในโน้ตบุ๊ค Dell รุ่นธุรกิจ เช่น Latitude และ Precision ✅ ช่องโหว่รวมถึง unsafe-deserialization และ stack overflow ➡️ ทำให้ผู้ใช้ที่ไม่มีสิทธิ์ admin ก็สามารถรันโค้ดอันตรายได้ ✅ ControlVault เป็น secure enclave สำหรับเก็บข้อมูลลับ ➡️ เช่น รหัสผ่าน ลายนิ้วมือ และรหัสความปลอดภัย ✅ โน้ตบุ๊ครุ่น Rugged ของ Dell ก็ได้รับผลกระทบเช่นกัน ➡️ ใช้ในอุตสาหกรรมที่ต้องการความปลอดภัยสูง เช่น รัฐบาล https://hackread.com/dell-laptop-models-vulnerabilities-impacting-millions/
    HACKREAD.COM
    Over 100 Dell Laptop Models Plagued by Vulnerabilities Impacting Millions
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 247 Views 0 Reviews
  • เรื่องเล่าจากข่าว: โน้ตบุ๊กเกมมิ่งที่จับคู่ CPU-GPU แบบย้อนยุค—ประหยัดหรือพลาด?

    แบรนด์จีนชื่อ Sakuromoto เปิดตัวโน้ตบุ๊กเกมมิ่งสองรุ่นที่สร้างความงุนงงให้กับวงการ:

    รุ่นแรกชื่อ “Inter Book” ใช้ชิปกราฟิก GeForce GTX 1060 ซึ่งเปิดตัวตั้งแต่ปี 2016 จับคู่กับซีพียู Intel N95 ระดับเริ่มต้นจากตระกูล Alder Lake-N ที่มีเพียง 4 คอร์

    รุ่นที่สองชื่อ “Rescue Series” ใช้ซีพียูระดับสูง Core i9-12900H แบบ 14 คอร์ แต่กลับจับคู่กับ GPU MX550 ซึ่งเป็นชิปกราฟิกระดับล่างที่อ่อนแอกว่า GTX 1060 เสียอีก

    ทั้งสองรุ่นมีการตลาดที่ “เกินจริง” เช่น บอกว่า N95 เป็น “Core i9-class” และหน้าจอ 1080p เป็น “4K-class” ซึ่งสร้างความสับสนให้กับผู้บริโภค

    แม้จะดูแปลก แต่ก็มีเหตุผลเบื้องหลัง—อาจเป็นการนำชิ้นส่วนเก่ามาใช้ใหม่เพื่อลดต้นทุนหรือช่วยลดขยะอิเล็กทรอนิกส์ แต่ก็ต้องแลกกับประสิทธิภาพที่ไม่สมดุลและประสบการณ์เล่นเกมที่ไม่น่าประทับใจ

    Sakuromoto เปิดตัวโน้ตบุ๊กเกมมิ่งสองรุ่นที่ใช้ชิ้นส่วนเก่า
    Inter Book ใช้ GTX 1060 + Intel N95
    Rescue Series ใช้ Core i9-12900H + MX550

    GTX 1060 เป็น GPU จากปี 2016 ที่ยังพอเล่นเกมระดับกลางได้
    มี VRAM 6 GB GDDR5
    เล่นเกม 1080p ได้ในระดับกลาง

    Intel N95 เป็นซีพียูระดับเริ่มต้นที่มีเพียง 4 คอร์
    ใช้พลังงานต่ำเพียง 15W
    ไม่เหมาะกับงานหนักหรือเกมที่ใช้ CPU สูง

    MX550 เป็น GPU ระดับล่างที่อ่อนแอกว่า GTX 1060
    มี 1024 shaders และ VRAM 4 GB
    เหมาะกับงานเบา เช่น ตัดต่อภาพหรือวิดีโอเบื้องต้น

    โน้ตบุ๊กทั้งสองรุ่นมีการตลาดที่เกินจริง
    เรียก N95 ว่า “Core i9-class”
    หน้าจอ 1080p ถูกเรียกว่า “4K-class”

    อาจเป็นการนำชิ้นส่วนเก่ามาใช้ใหม่เพื่อลดต้นทุน
    ช่วยลดขยะอิเล็กทรอนิกส์
    อาจเหมาะกับผู้ใช้ทั่วไปที่ไม่ได้เน้นเกมหนัก

    https://wccftech.com/chinese-manufacturer-uses-gtx-1060-by-releasing-an-entry-level-laptop-with-intel-n95/
    🎙️ เรื่องเล่าจากข่าว: โน้ตบุ๊กเกมมิ่งที่จับคู่ CPU-GPU แบบย้อนยุค—ประหยัดหรือพลาด? แบรนด์จีนชื่อ Sakuromoto เปิดตัวโน้ตบุ๊กเกมมิ่งสองรุ่นที่สร้างความงุนงงให้กับวงการ: ▶️ รุ่นแรกชื่อ “Inter Book” ใช้ชิปกราฟิก GeForce GTX 1060 ซึ่งเปิดตัวตั้งแต่ปี 2016 จับคู่กับซีพียู Intel N95 ระดับเริ่มต้นจากตระกูล Alder Lake-N ที่มีเพียง 4 คอร์ ▶️ รุ่นที่สองชื่อ “Rescue Series” ใช้ซีพียูระดับสูง Core i9-12900H แบบ 14 คอร์ แต่กลับจับคู่กับ GPU MX550 ซึ่งเป็นชิปกราฟิกระดับล่างที่อ่อนแอกว่า GTX 1060 เสียอีก ทั้งสองรุ่นมีการตลาดที่ “เกินจริง” เช่น บอกว่า N95 เป็น “Core i9-class” และหน้าจอ 1080p เป็น “4K-class” ซึ่งสร้างความสับสนให้กับผู้บริโภค แม้จะดูแปลก แต่ก็มีเหตุผลเบื้องหลัง—อาจเป็นการนำชิ้นส่วนเก่ามาใช้ใหม่เพื่อลดต้นทุนหรือช่วยลดขยะอิเล็กทรอนิกส์ แต่ก็ต้องแลกกับประสิทธิภาพที่ไม่สมดุลและประสบการณ์เล่นเกมที่ไม่น่าประทับใจ ✅ Sakuromoto เปิดตัวโน้ตบุ๊กเกมมิ่งสองรุ่นที่ใช้ชิ้นส่วนเก่า ➡️ Inter Book ใช้ GTX 1060 + Intel N95 ➡️ Rescue Series ใช้ Core i9-12900H + MX550 ✅ GTX 1060 เป็น GPU จากปี 2016 ที่ยังพอเล่นเกมระดับกลางได้ ➡️ มี VRAM 6 GB GDDR5 ➡️ เล่นเกม 1080p ได้ในระดับกลาง ✅ Intel N95 เป็นซีพียูระดับเริ่มต้นที่มีเพียง 4 คอร์ ➡️ ใช้พลังงานต่ำเพียง 15W ➡️ ไม่เหมาะกับงานหนักหรือเกมที่ใช้ CPU สูง ✅ MX550 เป็น GPU ระดับล่างที่อ่อนแอกว่า GTX 1060 ➡️ มี 1024 shaders และ VRAM 4 GB ➡️ เหมาะกับงานเบา เช่น ตัดต่อภาพหรือวิดีโอเบื้องต้น ✅ โน้ตบุ๊กทั้งสองรุ่นมีการตลาดที่เกินจริง ➡️ เรียก N95 ว่า “Core i9-class” ➡️ หน้าจอ 1080p ถูกเรียกว่า “4K-class” ✅ อาจเป็นการนำชิ้นส่วนเก่ามาใช้ใหม่เพื่อลดต้นทุน ➡️ ช่วยลดขยะอิเล็กทรอนิกส์ ➡️ อาจเหมาะกับผู้ใช้ทั่วไปที่ไม่ได้เน้นเกมหนัก https://wccftech.com/chinese-manufacturer-uses-gtx-1060-by-releasing-an-entry-level-laptop-with-intel-n95/
    WCCFTECH.COM
    Chinese Manufacturer Pairs GTX 1060 With Intel N95 Processor For Its Gaming Laptop; Uses Even A Weirder Combo Of Core i9 12900H+MX550 In Another Model
    Sakuramoto has been producing gaming laptops with weird CPU-GPU combos as seen recently. One of its offerings included GTX 1060 and N95.
    0 Comments 0 Shares 227 Views 0 Reviews
  • เรื่องเล่าจากข่าว: MLPerf Client 1.0 — เครื่องมือทดสอบ AI บนเครื่องส่วนตัวที่ใช้ง่ายขึ้นและครอบคลุมมากขึ้น

    ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน แต่หลายคนยังใช้โมเดลผ่านระบบคลาวด์ เช่น ChatGPT หรือ Gemini ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดด้านความเป็นส่วนตัวและการควบคุม

    MLPerf Client 1.0 จึงถูกพัฒนาโดย MLCommons เพื่อให้ผู้ใช้สามารถทดสอบประสิทธิภาพของโมเดล AI บนเครื่องของตัวเอง—ไม่ว่าจะเป็นโน้ตบุ๊ก, เดสก์ท็อป หรือเวิร์กสเตชัน โดยเวอร์ชันใหม่นี้มาพร้อม GUI ที่ใช้งานง่าย และรองรับโมเดลใหม่ ๆ เช่น Llama 3.1, Phi 3.5 และ Phi 4 Reasoning

    นอกจากนี้ยังรองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่าย เช่น AMD, Intel, NVIDIA, Apple และ Qualcomm ผ่าน SDK และ execution path ที่หลากหลาย รวมถึงสามารถทดสอบงานที่ซับซ้อน เช่น การสรุปเนื้อหาด้วย context window ขนาด 8000 tokens

    MLPerf Client 1.0 เปิดตัวพร้อม GUI ใช้งานง่ายสำหรับผู้ใช้ทั่วไป
    ไม่ต้องใช้ command line เหมือนเวอร์ชันก่อน
    มีระบบมอนิเตอร์ทรัพยากรแบบเรียลไทม์

    รองรับโมเดลใหม่หลายตัว เช่น Llama 2, Llama 3.1, Phi 3.5 และ Phi 4 Reasoning
    ครอบคลุมทั้งโมเดลขนาดเล็กและใหญ่
    ทดสอบได้ทั้งการสนทนา, การเขียนโค้ด และการสรุปเนื้อหา

    สามารถทดสอบงานที่ใช้ context window ขนาดใหญ่ เช่น 4000 และ 8000 tokens
    เหมาะกับการวัดประสิทธิภาพในงานสรุปเนื้อหายาว
    ต้องใช้ GPU ที่มี VRAM อย่างน้อย 16GB

    รองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่ายผ่าน execution path ต่าง ๆ
    เช่น ONNX Runtime, OpenVINO, MLX, Llama.cpp
    ครอบคลุมทั้ง GPU, NPU และ CPU hybrid

    สามารถดาวน์โหลดและใช้งานฟรีผ่าน GitHub
    รองรับ Windows และ macOS
    เหมาะกับนักพัฒนา, นักวิจัย และผู้ใช้ทั่วไป

    การทดสอบบาง workload ต้องใช้ฮาร์ดแวร์ระดับสูง เช่น GPU 16GB VRAM ขึ้นไป
    ผู้ใช้ทั่วไปอาจไม่สามารถรันได้ครบทุกชุดทดสอบ
    ต้องตรวจสอบสเปกก่อนใช้งาน

    การเปรียบเทียบผลลัพธ์ระหว่างอุปกรณ์ต่าง ๆ อาจไม่แม่นยำหากไม่ได้ตั้งค่าระบบให้เหมือนกัน
    ต้องใช้ configuration ที่เทียบเคียงได้
    ไม่ควรใช้ผลลัพธ์เพื่อสรุปคุณภาพของฮาร์ดแวร์โดยตรง

    การใช้ execution path ที่ไม่เหมาะกับอุปกรณ์อาจทำให้ผลลัพธ์ผิดเพี้ยน
    เช่น ใช้ path สำหรับ GPU บนระบบที่ไม่มี GPU
    ต้องเลือก path ให้ตรงกับฮาร์ดแวร์ที่ใช้งานจริง

    การทดสอบโมเดลขนาดใหญ่อาจใช้เวลานานและกินทรัพยากรสูง
    อาจทำให้เครื่องร้อนหรือหน่วง
    ควรใช้ในสภาพแวดล้อมที่ควบคุมได้

    https://www.tomshardware.com/software/mlperf-client-1-0-ai-benchmark-released-new-testing-toolkit-sports-a-gui-covers-more-models-and-tasks-and-supports-more-hardware-acceleration-paths
    🎙️ เรื่องเล่าจากข่าว: MLPerf Client 1.0 — เครื่องมือทดสอบ AI บนเครื่องส่วนตัวที่ใช้ง่ายขึ้นและครอบคลุมมากขึ้น ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน แต่หลายคนยังใช้โมเดลผ่านระบบคลาวด์ เช่น ChatGPT หรือ Gemini ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดด้านความเป็นส่วนตัวและการควบคุม MLPerf Client 1.0 จึงถูกพัฒนาโดย MLCommons เพื่อให้ผู้ใช้สามารถทดสอบประสิทธิภาพของโมเดล AI บนเครื่องของตัวเอง—ไม่ว่าจะเป็นโน้ตบุ๊ก, เดสก์ท็อป หรือเวิร์กสเตชัน โดยเวอร์ชันใหม่นี้มาพร้อม GUI ที่ใช้งานง่าย และรองรับโมเดลใหม่ ๆ เช่น Llama 3.1, Phi 3.5 และ Phi 4 Reasoning นอกจากนี้ยังรองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่าย เช่น AMD, Intel, NVIDIA, Apple และ Qualcomm ผ่าน SDK และ execution path ที่หลากหลาย รวมถึงสามารถทดสอบงานที่ซับซ้อน เช่น การสรุปเนื้อหาด้วย context window ขนาด 8000 tokens ✅ MLPerf Client 1.0 เปิดตัวพร้อม GUI ใช้งานง่ายสำหรับผู้ใช้ทั่วไป ➡️ ไม่ต้องใช้ command line เหมือนเวอร์ชันก่อน ➡️ มีระบบมอนิเตอร์ทรัพยากรแบบเรียลไทม์ ✅ รองรับโมเดลใหม่หลายตัว เช่น Llama 2, Llama 3.1, Phi 3.5 และ Phi 4 Reasoning ➡️ ครอบคลุมทั้งโมเดลขนาดเล็กและใหญ่ ➡️ ทดสอบได้ทั้งการสนทนา, การเขียนโค้ด และการสรุปเนื้อหา ✅ สามารถทดสอบงานที่ใช้ context window ขนาดใหญ่ เช่น 4000 และ 8000 tokens ➡️ เหมาะกับการวัดประสิทธิภาพในงานสรุปเนื้อหายาว ➡️ ต้องใช้ GPU ที่มี VRAM อย่างน้อย 16GB ✅ รองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่ายผ่าน execution path ต่าง ๆ ➡️ เช่น ONNX Runtime, OpenVINO, MLX, Llama.cpp ➡️ ครอบคลุมทั้ง GPU, NPU และ CPU hybrid ✅ สามารถดาวน์โหลดและใช้งานฟรีผ่าน GitHub ➡️ รองรับ Windows และ macOS ➡️ เหมาะกับนักพัฒนา, นักวิจัย และผู้ใช้ทั่วไป ‼️ การทดสอบบาง workload ต้องใช้ฮาร์ดแวร์ระดับสูง เช่น GPU 16GB VRAM ขึ้นไป ⛔ ผู้ใช้ทั่วไปอาจไม่สามารถรันได้ครบทุกชุดทดสอบ ⛔ ต้องตรวจสอบสเปกก่อนใช้งาน ‼️ การเปรียบเทียบผลลัพธ์ระหว่างอุปกรณ์ต่าง ๆ อาจไม่แม่นยำหากไม่ได้ตั้งค่าระบบให้เหมือนกัน ⛔ ต้องใช้ configuration ที่เทียบเคียงได้ ⛔ ไม่ควรใช้ผลลัพธ์เพื่อสรุปคุณภาพของฮาร์ดแวร์โดยตรง ‼️ การใช้ execution path ที่ไม่เหมาะกับอุปกรณ์อาจทำให้ผลลัพธ์ผิดเพี้ยน ⛔ เช่น ใช้ path สำหรับ GPU บนระบบที่ไม่มี GPU ⛔ ต้องเลือก path ให้ตรงกับฮาร์ดแวร์ที่ใช้งานจริง ‼️ การทดสอบโมเดลขนาดใหญ่อาจใช้เวลานานและกินทรัพยากรสูง ⛔ อาจทำให้เครื่องร้อนหรือหน่วง ⛔ ควรใช้ในสภาพแวดล้อมที่ควบคุมได้ https://www.tomshardware.com/software/mlperf-client-1-0-ai-benchmark-released-new-testing-toolkit-sports-a-gui-covers-more-models-and-tasks-and-supports-more-hardware-acceleration-paths
    0 Comments 0 Shares 283 Views 0 Reviews
  • เรื่องเล่าจากข่าว: AMD เตรียมเปิดตัวชิป NPU แบบแยก เพื่อท้าชน GPU ในยุค AI PC

    ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลบนพีซี ผู้ผลิตชิปต่างเร่งพัฒนา NPU (Neural Processing Unit) เพื่อรองรับงาน AI โดยเฉพาะ ซึ่ง AMD ก็ไม่ยอมน้อยหน้า ล่าสุดมีการเปิดเผยว่า AMD กำลังพิจารณาเปิดตัว “Discrete NPU” หรือชิป NPU แบบแยกชิ้น ไม่ฝังอยู่ใน CPU หรือ GPU เหมือนที่ผ่านมา

    Rahul Tikoo หัวหน้าฝ่าย CPU ของ AMD ระบุว่า บริษัทกำลังพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาสของชิป NPU แบบแยก ซึ่งจะช่วยให้พีซีสามารถประมวลผล AI ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ต้องพึ่ง GPU ที่กินไฟและสร้างความร้อนสูง

    แนวคิดนี้เกิดขึ้นหลังจาก Dell เปิดตัวแล็ปท็อป Pro Max Plus ที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร และมีประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์

    AMD เองก็มีพื้นฐานจากเทคโนโลยี Xilinx ที่ใช้สร้าง NPU ฝังใน Ryzen รุ่นใหม่ และมีโครงการ Gaia ที่ช่วยให้สามารถรันโมเดล LLM ขนาดใหญ่บนเครื่องพีซีได้โดยตรง

    AMD เตรียมเปิดตัวชิป NPU แบบแยกสำหรับพีซีในอนาคต
    ไม่ใช่ GPU แต่เป็นตัวเร่ง AI โดยเฉพาะ
    อยู่ระหว่างการพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาส

    ชิป NPU แบบแยกจะช่วยลดภาระของ CPU และ GPU ในการประมวลผล AI
    เหมาะสำหรับงาน inference และการรันโมเดล LLM บนเครื่อง
    ช่วยให้พีซีบางเบายังคงมีประสิทธิภาพสูงด้าน AI

    AMD มีพื้นฐานจากเทคโนโลยี Xilinx และโครงการ Gaia สำหรับการรันโมเดล AI บน Ryzen
    ใช้ NPU tile ที่สามารถสร้างได้ถึง 50 TOPS ต่อชิ้น
    สามารถรวมหลาย tile เพื่อเพิ่มประสิทธิภาพได้

    Dell เปิดตัวแล็ปท็อปที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร
    มี 16 AI cores และหน่วยความจำ 32GB ต่อการ์ด
    ประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์

    Discrete NPU จะช่วยลดความต้องการ GPU ระดับสูงในตลาด
    ทำให้ราคาการ์ดจอสำหรับเกมเมอร์ลดลง
    เป็นทางเลือกใหม่สำหรับผู้ใช้งาน AI โดยเฉพาะ

    AMD XDNA 2 NPU มีประสิทธิภาพสูงถึง 50 TOPS และออกแบบให้ประหยัดพลังงาน
    ใช้ engine tile แบบแยกที่สามารถประมวลผลได้อย่างอิสระ
    รองรับการปรับแต่งโครงสร้างการประมวลผล AI ได้ตามต้องการ

    Intel Lunar Lake NPU 4 มีประสิทธิภาพสูงถึง 48 TOPS และออกแบบให้มีพลังงานต่ำ
    ใช้สถาปัตยกรรมแบบ parallel inference pipeline
    มี SHAVE DSP ที่ช่วยเพิ่มประสิทธิภาพการประมวลผล

    Qualcomm Snapdragon X Elite มี NPU 45 TOPS และมีประสิทธิภาพสูงในพลังงานต่ำ
    เหมาะกับโน้ตบุ๊กบางเบาและใช้งาน AI แบบต่อเนื่อง
    เป็นผู้นำในด้านประสิทธิภาพต่อวัตต์

    Discrete NPU อาจกลายเป็นอุปกรณ์เสริมใหม่ในพีซี เหมือนกับการ์ดจอในอดีต
    ช่วยให้ผู้ใช้สามารถเลือกอัปเกรดเฉพาะด้าน AI ได้
    อาจกลายเป็นมาตรฐานใหม่ในยุค AI PC

    Discrete NPU อาจกลายเป็นส่วนประกอบที่กินไฟและสร้างความร้อน หากออกแบบไม่ดี
    หากไม่ประหยัดพลังงาน จะไม่ต่างจาก GPU ที่มีปัญหาเรื่องความร้อน
    อาจไม่เหมาะกับพีซีบางเบาหรือโน้ตบุ๊ก

    ยังไม่มีข้อมูลชัดเจนว่า AMD จะเปิดตัวเมื่อใด และจะมีประสิทธิภาพเท่าใด
    อยู่ภายใต้ NDA และยังไม่มีแผนเปิดเผย
    อาจใช้เวลานานกว่าจะเข้าสู่ตลาดจริง

    การพัฒนา NPU แบบแยกต้องมี ecosystem ซอฟต์แวร์ที่รองรับอย่างเต็มรูปแบบ
    หากไม่มีเครื่องมือพัฒนาและไลบรารีที่พร้อมใช้งาน จะไม่สามารถแข่งขันได้
    ต้องมีการร่วมมือกับนักพัฒนาและผู้ผลิตซอฟต์แวร์อย่างใกล้ชิด

    ผู้ใช้งานทั่วไปอาจยังไม่เห็นความจำเป็นของ NPU แบบแยกในชีวิตประจำวัน
    ฟีเจอร์ AI บน Windows ยังจำกัดและไม่ใช่จุดขายหลัก
    อาจเหมาะกับผู้ใช้ระดับมืออาชีพมากกว่าผู้ใช้ทั่วไป

    https://www.techspot.com/news/108894-amd-signals-push-discrete-npus-rival-gpus-ai.html
    🎙️ เรื่องเล่าจากข่าว: AMD เตรียมเปิดตัวชิป NPU แบบแยก เพื่อท้าชน GPU ในยุค AI PC ในยุคที่ AI กลายเป็นหัวใจของการประมวลผลบนพีซี ผู้ผลิตชิปต่างเร่งพัฒนา NPU (Neural Processing Unit) เพื่อรองรับงาน AI โดยเฉพาะ ซึ่ง AMD ก็ไม่ยอมน้อยหน้า ล่าสุดมีการเปิดเผยว่า AMD กำลังพิจารณาเปิดตัว “Discrete NPU” หรือชิป NPU แบบแยกชิ้น ไม่ฝังอยู่ใน CPU หรือ GPU เหมือนที่ผ่านมา Rahul Tikoo หัวหน้าฝ่าย CPU ของ AMD ระบุว่า บริษัทกำลังพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาสของชิป NPU แบบแยก ซึ่งจะช่วยให้พีซีสามารถประมวลผล AI ได้อย่างมีประสิทธิภาพมากขึ้น โดยไม่ต้องพึ่ง GPU ที่กินไฟและสร้างความร้อนสูง แนวคิดนี้เกิดขึ้นหลังจาก Dell เปิดตัวแล็ปท็อป Pro Max Plus ที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร และมีประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์ AMD เองก็มีพื้นฐานจากเทคโนโลยี Xilinx ที่ใช้สร้าง NPU ฝังใน Ryzen รุ่นใหม่ และมีโครงการ Gaia ที่ช่วยให้สามารถรันโมเดล LLM ขนาดใหญ่บนเครื่องพีซีได้โดยตรง ✅ AMD เตรียมเปิดตัวชิป NPU แบบแยกสำหรับพีซีในอนาคต ➡️ ไม่ใช่ GPU แต่เป็นตัวเร่ง AI โดยเฉพาะ ➡️ อยู่ระหว่างการพูดคุยกับลูกค้าเกี่ยวกับการใช้งานและโอกาส ✅ ชิป NPU แบบแยกจะช่วยลดภาระของ CPU และ GPU ในการประมวลผล AI ➡️ เหมาะสำหรับงาน inference และการรันโมเดล LLM บนเครื่อง ➡️ ช่วยให้พีซีบางเบายังคงมีประสิทธิภาพสูงด้าน AI ✅ AMD มีพื้นฐานจากเทคโนโลยี Xilinx และโครงการ Gaia สำหรับการรันโมเดล AI บน Ryzen ➡️ ใช้ NPU tile ที่สามารถสร้างได้ถึง 50 TOPS ต่อชิ้น ➡️ สามารถรวมหลาย tile เพื่อเพิ่มประสิทธิภาพได้ ✅ Dell เปิดตัวแล็ปท็อปที่ใช้การ์ด Qualcomm AI 100 ซึ่งเป็น NPU แบบแยกตัวแรกในระดับองค์กร ➡️ มี 16 AI cores และหน่วยความจำ 32GB ต่อการ์ด ➡️ ประสิทธิภาพสูงถึง 450 TOPS ในพลังงานเพียง 75 วัตต์ ✅ Discrete NPU จะช่วยลดความต้องการ GPU ระดับสูงในตลาด ➡️ ทำให้ราคาการ์ดจอสำหรับเกมเมอร์ลดลง ➡️ เป็นทางเลือกใหม่สำหรับผู้ใช้งาน AI โดยเฉพาะ ✅ AMD XDNA 2 NPU มีประสิทธิภาพสูงถึง 50 TOPS และออกแบบให้ประหยัดพลังงาน ➡️ ใช้ engine tile แบบแยกที่สามารถประมวลผลได้อย่างอิสระ ➡️ รองรับการปรับแต่งโครงสร้างการประมวลผล AI ได้ตามต้องการ ✅ Intel Lunar Lake NPU 4 มีประสิทธิภาพสูงถึง 48 TOPS และออกแบบให้มีพลังงานต่ำ ➡️ ใช้สถาปัตยกรรมแบบ parallel inference pipeline ➡️ มี SHAVE DSP ที่ช่วยเพิ่มประสิทธิภาพการประมวลผล ✅ Qualcomm Snapdragon X Elite มี NPU 45 TOPS และมีประสิทธิภาพสูงในพลังงานต่ำ ➡️ เหมาะกับโน้ตบุ๊กบางเบาและใช้งาน AI แบบต่อเนื่อง ➡️ เป็นผู้นำในด้านประสิทธิภาพต่อวัตต์ ✅ Discrete NPU อาจกลายเป็นอุปกรณ์เสริมใหม่ในพีซี เหมือนกับการ์ดจอในอดีต ➡️ ช่วยให้ผู้ใช้สามารถเลือกอัปเกรดเฉพาะด้าน AI ได้ ➡️ อาจกลายเป็นมาตรฐานใหม่ในยุค AI PC ‼️ Discrete NPU อาจกลายเป็นส่วนประกอบที่กินไฟและสร้างความร้อน หากออกแบบไม่ดี ⛔ หากไม่ประหยัดพลังงาน จะไม่ต่างจาก GPU ที่มีปัญหาเรื่องความร้อน ⛔ อาจไม่เหมาะกับพีซีบางเบาหรือโน้ตบุ๊ก ‼️ ยังไม่มีข้อมูลชัดเจนว่า AMD จะเปิดตัวเมื่อใด และจะมีประสิทธิภาพเท่าใด ⛔ อยู่ภายใต้ NDA และยังไม่มีแผนเปิดเผย ⛔ อาจใช้เวลานานกว่าจะเข้าสู่ตลาดจริง ‼️ การพัฒนา NPU แบบแยกต้องมี ecosystem ซอฟต์แวร์ที่รองรับอย่างเต็มรูปแบบ ⛔ หากไม่มีเครื่องมือพัฒนาและไลบรารีที่พร้อมใช้งาน จะไม่สามารถแข่งขันได้ ⛔ ต้องมีการร่วมมือกับนักพัฒนาและผู้ผลิตซอฟต์แวร์อย่างใกล้ชิด ‼️ ผู้ใช้งานทั่วไปอาจยังไม่เห็นความจำเป็นของ NPU แบบแยกในชีวิตประจำวัน ⛔ ฟีเจอร์ AI บน Windows ยังจำกัดและไม่ใช่จุดขายหลัก ⛔ อาจเหมาะกับผู้ใช้ระดับมืออาชีพมากกว่าผู้ใช้ทั่วไป https://www.techspot.com/news/108894-amd-signals-push-discrete-npus-rival-gpus-ai.html
    WWW.TECHSPOT.COM
    AMD signals push for discrete NPUs to rival GPUs in AI-powered PCs
    AMD is exploring whether PCs could benefit from a new kind of accelerator: a discrete neural processing unit. The company has long relied on GPUs for demanding...
    0 Comments 0 Shares 215 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ FBI ปิดบัญชี Chaos ด้วย Bitcoin

    ในเดือนเมษายน 2025 FBI Dallas ได้ยึด Bitcoin จำนวน 20.2891382 BTC จากกระเป๋าเงินดิจิทัลของสมาชิกกลุ่ม Chaos ransomware ที่ใช้ชื่อว่า “Hors” ซึ่งเชื่อมโยงกับการโจมตีไซเบอร์และเรียกค่าไถ่จากเหยื่อในรัฐเท็กซัสและพื้นที่อื่น ๆ

    Chaos เป็นกลุ่มแรนซัมแวร์แบบ RaaS (Ransomware-as-a-Service) ที่เพิ่งเกิดขึ้นในเดือนกุมภาพันธ์ 2025 โดยเชื่อว่าเป็นการรวมตัวของอดีตสมาชิกกลุ่ม BlackSuit ซึ่งถูกปราบปรามโดยปฏิบัติการระหว่างประเทศชื่อ “Operation Checkmate”

    กลุ่ม Chaos ใช้เทคนิคการโจมตีแบบ double extortion คือการเข้ารหัสไฟล์ของเหยื่อและขโมยข้อมูลเพื่อข่มขู่เปิดเผยหากไม่จ่ายค่าไถ่ โดยเรียกเงินสูงถึง $300,000 ต่อราย และใช้วิธีหลอกลวงผ่านโทรศัพท์ให้เหยื่อเปิด Microsoft Quick Assist เพื่อให้แฮกเกอร์เข้าถึงระบบ

    FBI Dallas ยึด Bitcoin มูลค่ากว่า $2.4 ล้านจากสมาชิกกลุ่ม Chaos
    ยึดจากกระเป๋าเงินดิจิทัลของ “Hors” ผู้ต้องสงสัยโจมตีไซเบอร์ในเท็กซัส
    ยื่นคำร้องขอยึดทรัพย์แบบพลเรือนเพื่อโอนเข้ารัฐบาลสหรัฐฯ

    Chaos ransomware เป็นกลุ่มใหม่ที่เกิดขึ้นหลัง BlackSuit ถูกปราบปราม
    มีลักษณะการโจมตีคล้าย BlackSuit เช่น การเข้ารหัสไฟล์และข่มขู่เปิดเผยข้อมูล
    ใช้ชื่อ “.chaos” เป็นนามสกุลไฟล์ที่ถูกเข้ารหัส และ “readme.chaos.txt” เป็นโน้ตเรียกค่าไถ่

    ใช้เทคนิคหลอกลวงผ่านโทรศัพท์และซอฟต์แวร์ช่วยเหลือระยะไกล
    หลอกเหยื่อให้เปิด Microsoft Quick Assist เพื่อให้แฮกเกอร์เข้าถึงระบบ
    ใช้เครื่องมือ RMM เช่น AnyDesk และ ScreenConnect เพื่อคงการเข้าถึง

    หากเหยื่อจ่ายเงิน จะได้รับ decryptor และรายงานช่องโหว่ของระบบ
    สัญญาว่าจะลบข้อมูลที่ขโมยไปและไม่โจมตีซ้ำ
    หากไม่จ่าย จะถูกข่มขู่ด้วยการเปิดเผยข้อมูลและโจมตี DDoS

    Chaos สามารถโจมตีระบบ Windows, Linux, ESXi และ NAS ได้
    ใช้การเข้ารหัสแบบ selective encryption เพื่อเพิ่มความเร็ว
    มีระบบป้องกันการวิเคราะห์และหลบเลี่ยง sandbox/debugger

    การใช้เครื่องมือช่วยเหลือระยะไกลอาจเปิดช่องให้แฮกเกอร์เข้าถึงระบบ
    Microsoft Quick Assist ถูกใช้เป็นช่องทางหลักในการหลอกเหยื่อ
    ผู้ใช้ควรตรวจสอบตัวตนผู้ขอความช่วยเหลือก่อนให้สิทธิ์เข้าถึง

    การไม่จ่ายค่าไถ่อาจนำไปสู่การเปิดเผยข้อมูลและโจมตีเพิ่มเติม
    Chaos ข่มขู่จะเปิดเผยข้อมูลต่อสาธารณะและโจมตี DDoS
    ส่งผลต่อชื่อเสียงและความเชื่อมั่นขององค์กร

    การใช้สกุลเงินดิจิทัลไม่สามารถปกปิดตัวตนได้เสมอไป
    FBI สามารถติดตามและยึด Bitcoin ผ่านการวิเคราะห์บล็อกเชน
    การใช้ crypto ไม่ได้หมายถึงความปลอดภัยจากการถูกจับกุม

    กลุ่มแรนซัมแวร์มีแนวโน้มเปลี่ยนชื่อและกลับมาใหม่หลังถูกปราบปราม
    Chaos อาจเป็นการรีแบรนด์จาก BlackSuit ซึ่งเดิมคือ Royal และ Conti
    การปราบปรามต้องต่อเนื่องและครอบคลุมทั้งโครงสร้างพื้นฐานและการเงิน

    https://www.tomshardware.com/tech-industry/cryptocurrency/fbi-seizes-usd2-4-million-in-bitcoin-from-member-of-recently-ascendant-chaos-ransomware-group
    🎙️ เรื่องเล่าจากโลกไซเบอร์: เมื่อ FBI ปิดบัญชี Chaos ด้วย Bitcoin ในเดือนเมษายน 2025 FBI Dallas ได้ยึด Bitcoin จำนวน 20.2891382 BTC จากกระเป๋าเงินดิจิทัลของสมาชิกกลุ่ม Chaos ransomware ที่ใช้ชื่อว่า “Hors” ซึ่งเชื่อมโยงกับการโจมตีไซเบอร์และเรียกค่าไถ่จากเหยื่อในรัฐเท็กซัสและพื้นที่อื่น ๆ Chaos เป็นกลุ่มแรนซัมแวร์แบบ RaaS (Ransomware-as-a-Service) ที่เพิ่งเกิดขึ้นในเดือนกุมภาพันธ์ 2025 โดยเชื่อว่าเป็นการรวมตัวของอดีตสมาชิกกลุ่ม BlackSuit ซึ่งถูกปราบปรามโดยปฏิบัติการระหว่างประเทศชื่อ “Operation Checkmate” กลุ่ม Chaos ใช้เทคนิคการโจมตีแบบ double extortion คือการเข้ารหัสไฟล์ของเหยื่อและขโมยข้อมูลเพื่อข่มขู่เปิดเผยหากไม่จ่ายค่าไถ่ โดยเรียกเงินสูงถึง $300,000 ต่อราย และใช้วิธีหลอกลวงผ่านโทรศัพท์ให้เหยื่อเปิด Microsoft Quick Assist เพื่อให้แฮกเกอร์เข้าถึงระบบ ✅ FBI Dallas ยึด Bitcoin มูลค่ากว่า $2.4 ล้านจากสมาชิกกลุ่ม Chaos ➡️ ยึดจากกระเป๋าเงินดิจิทัลของ “Hors” ผู้ต้องสงสัยโจมตีไซเบอร์ในเท็กซัส ➡️ ยื่นคำร้องขอยึดทรัพย์แบบพลเรือนเพื่อโอนเข้ารัฐบาลสหรัฐฯ ✅ Chaos ransomware เป็นกลุ่มใหม่ที่เกิดขึ้นหลัง BlackSuit ถูกปราบปราม ➡️ มีลักษณะการโจมตีคล้าย BlackSuit เช่น การเข้ารหัสไฟล์และข่มขู่เปิดเผยข้อมูล ➡️ ใช้ชื่อ “.chaos” เป็นนามสกุลไฟล์ที่ถูกเข้ารหัส และ “readme.chaos.txt” เป็นโน้ตเรียกค่าไถ่ ✅ ใช้เทคนิคหลอกลวงผ่านโทรศัพท์และซอฟต์แวร์ช่วยเหลือระยะไกล ➡️ หลอกเหยื่อให้เปิด Microsoft Quick Assist เพื่อให้แฮกเกอร์เข้าถึงระบบ ➡️ ใช้เครื่องมือ RMM เช่น AnyDesk และ ScreenConnect เพื่อคงการเข้าถึง ✅ หากเหยื่อจ่ายเงิน จะได้รับ decryptor และรายงานช่องโหว่ของระบบ ➡️ สัญญาว่าจะลบข้อมูลที่ขโมยไปและไม่โจมตีซ้ำ ➡️ หากไม่จ่าย จะถูกข่มขู่ด้วยการเปิดเผยข้อมูลและโจมตี DDoS ✅ Chaos สามารถโจมตีระบบ Windows, Linux, ESXi และ NAS ได้ ➡️ ใช้การเข้ารหัสแบบ selective encryption เพื่อเพิ่มความเร็ว ➡️ มีระบบป้องกันการวิเคราะห์และหลบเลี่ยง sandbox/debugger ‼️ การใช้เครื่องมือช่วยเหลือระยะไกลอาจเปิดช่องให้แฮกเกอร์เข้าถึงระบบ ⛔ Microsoft Quick Assist ถูกใช้เป็นช่องทางหลักในการหลอกเหยื่อ ⛔ ผู้ใช้ควรตรวจสอบตัวตนผู้ขอความช่วยเหลือก่อนให้สิทธิ์เข้าถึง ‼️ การไม่จ่ายค่าไถ่อาจนำไปสู่การเปิดเผยข้อมูลและโจมตีเพิ่มเติม ⛔ Chaos ข่มขู่จะเปิดเผยข้อมูลต่อสาธารณะและโจมตี DDoS ⛔ ส่งผลต่อชื่อเสียงและความเชื่อมั่นขององค์กร ‼️ การใช้สกุลเงินดิจิทัลไม่สามารถปกปิดตัวตนได้เสมอไป ⛔ FBI สามารถติดตามและยึด Bitcoin ผ่านการวิเคราะห์บล็อกเชน ⛔ การใช้ crypto ไม่ได้หมายถึงความปลอดภัยจากการถูกจับกุม ‼️ กลุ่มแรนซัมแวร์มีแนวโน้มเปลี่ยนชื่อและกลับมาใหม่หลังถูกปราบปราม ⛔ Chaos อาจเป็นการรีแบรนด์จาก BlackSuit ซึ่งเดิมคือ Royal และ Conti ⛔ การปราบปรามต้องต่อเนื่องและครอบคลุมทั้งโครงสร้างพื้นฐานและการเงิน https://www.tomshardware.com/tech-industry/cryptocurrency/fbi-seizes-usd2-4-million-in-bitcoin-from-member-of-recently-ascendant-chaos-ransomware-group
    0 Comments 0 Shares 318 Views 0 Reviews
  • เรื่องเล่าจากสมุดโน้ตดิจิทัล: เมื่อ OneNote ฟังเสียงผู้ใช้และปรับปรุงให้ตรงใจ

    หลายปีที่ผ่านมา ผู้ใช้ OneNote ต้องเจอกับข้อจำกัดที่น่าหงุดหงิด เช่น ไม่สามารถรวมเซลล์ในตารางได้เหมือน Excel หรือ Word และเมื่อคัดลอกข้อความจากเว็บหรืออีเมล ก็จะติดฟอร์แมตแปลก ๆ มาด้วย ทำให้โน้ตดูรกและไม่เป็นระเบียบ

    แต่ในเดือนกรกฎาคม 2025 Microsoft ได้ปล่อยฟีเจอร์ใหม่สองอย่างที่ตอบโจทย์ผู้ใช้โดยตรง:

    1️⃣ Merge Table Cells – รวมเซลล์ในตารางได้ทั้งแนวนอนและแนวตั้ง เพื่อจัดโครงสร้างข้อมูลให้ดูดีและเข้าใจง่าย

    2️⃣ Paste Text Only Shortcut – วางข้อความแบบไม่มีฟอร์แมตด้วย Ctrl+Shift+V (Windows) หรือ Cmd+Shift+V (Mac) เพื่อให้โน้ตสะอาดและเป็นระเบียบ

    ฟีเจอร์เหล่านี้เปิดให้ใช้งานแล้วในเวอร์ชัน Insider บน Windows, Mac และ iPad ส่วน iPhone, Android และเว็บยังรองรับแค่การแสดงผล merged cells แต่ยังสร้างไม่ได้

    OneNote เพิ่มฟีเจอร์ Merge Table Cells ที่ผู้ใช้เรียกร้องมานาน
    รวมเซลล์ได้ทั้งแนวนอนและแนวตั้ง
    ใช้งานผ่านคลิกขวา หรือเมนู Table บน ribbon

    รองรับการรวมเซลล์บน Windows, Mac และ iPad แล้ว
    iPhone, Android และเว็บสามารถแสดง merged cells ได้ แต่ยังสร้างไม่ได้
    ฟีเจอร์กำลังทยอยปล่อยให้ผู้ใช้ทั่วไป

    เพิ่มทางลัด Paste Text Only เพื่อวางข้อความแบบไม่มีฟอร์แมต
    ใช้ Ctrl+Shift+V (Windows) หรือ Cmd+Shift+V (Mac)
    มีให้เลือกในเมนูคลิกขวา และเมนู Home > Paste > Keep Text Only

    ข้อความที่วางจะรับฟอร์แมตจาก OneNote ไม่ใช่จากต้นทาง
    ลดปัญหาฟอนต์ไม่ตรง สีพื้นหลังแปลก ๆ หรือลิงก์ไม่พึงประสงค์
    เหมาะกับการรวบรวมข้อมูลจากหลายแหล่งให้ดูสะอาดและสอดคล้องกัน

    ฟีเจอร์ทั้งสองเป็นการตอบสนองเสียงผู้ใช้โดยตรง
    Microsoft ยืนยันว่าเป็นฟีเจอร์ที่ได้รับการร้องขอมากที่สุด
    เปิดให้ทดลองใช้งานในกลุ่ม Insider ก่อนปล่อยสู่ผู้ใช้ทั่วไป

    https://www.neowin.net/news/onenote-is-finally-getting-two-highly-requested-features/
    📝 เรื่องเล่าจากสมุดโน้ตดิจิทัล: เมื่อ OneNote ฟังเสียงผู้ใช้และปรับปรุงให้ตรงใจ หลายปีที่ผ่านมา ผู้ใช้ OneNote ต้องเจอกับข้อจำกัดที่น่าหงุดหงิด เช่น ไม่สามารถรวมเซลล์ในตารางได้เหมือน Excel หรือ Word และเมื่อคัดลอกข้อความจากเว็บหรืออีเมล ก็จะติดฟอร์แมตแปลก ๆ มาด้วย ทำให้โน้ตดูรกและไม่เป็นระเบียบ แต่ในเดือนกรกฎาคม 2025 Microsoft ได้ปล่อยฟีเจอร์ใหม่สองอย่างที่ตอบโจทย์ผู้ใช้โดยตรง: 1️⃣ Merge Table Cells – รวมเซลล์ในตารางได้ทั้งแนวนอนและแนวตั้ง เพื่อจัดโครงสร้างข้อมูลให้ดูดีและเข้าใจง่าย 2️⃣ Paste Text Only Shortcut – วางข้อความแบบไม่มีฟอร์แมตด้วย Ctrl+Shift+V (Windows) หรือ Cmd+Shift+V (Mac) เพื่อให้โน้ตสะอาดและเป็นระเบียบ ฟีเจอร์เหล่านี้เปิดให้ใช้งานแล้วในเวอร์ชัน Insider บน Windows, Mac และ iPad ส่วน iPhone, Android และเว็บยังรองรับแค่การแสดงผล merged cells แต่ยังสร้างไม่ได้ ✅ OneNote เพิ่มฟีเจอร์ Merge Table Cells ที่ผู้ใช้เรียกร้องมานาน ➡️ รวมเซลล์ได้ทั้งแนวนอนและแนวตั้ง ➡️ ใช้งานผ่านคลิกขวา หรือเมนู Table บน ribbon ✅ รองรับการรวมเซลล์บน Windows, Mac และ iPad แล้ว ➡️ iPhone, Android และเว็บสามารถแสดง merged cells ได้ แต่ยังสร้างไม่ได้ ➡️ ฟีเจอร์กำลังทยอยปล่อยให้ผู้ใช้ทั่วไป ✅ เพิ่มทางลัด Paste Text Only เพื่อวางข้อความแบบไม่มีฟอร์แมต ➡️ ใช้ Ctrl+Shift+V (Windows) หรือ Cmd+Shift+V (Mac) ➡️ มีให้เลือกในเมนูคลิกขวา และเมนู Home > Paste > Keep Text Only ✅ ข้อความที่วางจะรับฟอร์แมตจาก OneNote ไม่ใช่จากต้นทาง ➡️ ลดปัญหาฟอนต์ไม่ตรง สีพื้นหลังแปลก ๆ หรือลิงก์ไม่พึงประสงค์ ➡️ เหมาะกับการรวบรวมข้อมูลจากหลายแหล่งให้ดูสะอาดและสอดคล้องกัน ✅ ฟีเจอร์ทั้งสองเป็นการตอบสนองเสียงผู้ใช้โดยตรง ➡️ Microsoft ยืนยันว่าเป็นฟีเจอร์ที่ได้รับการร้องขอมากที่สุด ➡️ เปิดให้ทดลองใช้งานในกลุ่ม Insider ก่อนปล่อยสู่ผู้ใช้ทั่วไป https://www.neowin.net/news/onenote-is-finally-getting-two-highly-requested-features/
    WWW.NEOWIN.NET
    OneNote is finally getting two highly requested features
    Microsoft is bringing two important features to OneNote, but they are currently exclusive to Insiders on certain platforms only.
    0 Comments 0 Shares 218 Views 0 Reviews
  • เรื่องเล่าจากสนามทดสอบ: เมื่อ Intel และ AMD แลกหมัดกันทั้ง CPU และ GPU

    ในเดือนกรกฎาคม 2025 เว็บไซต์ Wccftech รายงานผลการเปรียบเทียบระหว่าง Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 ซึ่งเป็นซีพียูระดับกลางสำหรับโน้ตบุ๊กที่ใช้สถาปัตยกรรมใหม่ล่าสุด—Arrow Lake และ Krackan Point ตามลำดับ

    ผลการทดสอบจาก Geekerwan พบว่า ทั้งสองรุ่นมีประสิทธิภาพใกล้เคียงกันในงานทั่วไปและเกม โดย Intel มีข้อได้เปรียบด้าน “ความร้อน” ที่ต่ำกว่าอย่างชัดเจน ส่วน AMD ก็มีข้อได้เปรียบด้าน “จำนวนเธรด” และความเร็ว GPU ที่สูงกว่า

    ด้านกราฟิกในตัว (iGPU) Intel Arc 130T และ AMD Radeon 860M ก็แลกหมัดกันอย่างสูสี โดย Arc 130T มีคะแนนรวมสูงกว่าในหลายเบนช์มาร์ก แต่ Radeon 860M กลับทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ปรับกราฟิกสูง

    Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 มีประสิทธิภาพใกล้เคียงกันในงานทั่วไป
    Intel มี 14 คอร์ (ไม่มี hyperthreading) ส่วน AMD มี 8 คอร์ 16 เธรด
    Intel ใช้สถาปัตยกรรม Arrow Lake-H ส่วน AMD ใช้ Zen 5 + Zen 5c

    ผลทดสอบ Cinebench R23 แสดงว่า Intel ดีกว่าเล็กน้อยที่กำลังไฟสูง (60–80W)
    AMD ดีกว่าในช่วงกำลังไฟต่ำ (10–25W)
    Intel เร็วกว่า ~2.5% โดยรวม

    Intel Core Ultra 5 225H มีอุณหภูมิสูงสุดต่ำกว่า Ryzen AI 7 350 อย่างชัดเจน
    Intel อยู่ที่ <90°C ขณะโหลดเต็ม
    AMD แตะ 100°C ทำให้เครื่องร้อนกว่า

    Intel Arc 130T และ AMD Radeon 860M มีประสิทธิภาพใกล้เคียงกันในเกม
    Arc 130T ใช้ Xe2 architecture, 896 shaders, 3.9 TFLOPS
    Radeon 860M ใช้ RDNA 3.5, 512 shaders, 3.1 TFLOPS

    Arc 130T ทำคะแนนสูงกว่าใน 3DMark และ Geekbench GPU tests
    สูงกว่า Radeon 860M ถึง 42% ใน Geekbench Compute
    แต่ Radeon 860M ทำเฟรมเรตดีกว่าในบางเกม เช่น F1 24 และ GTA V

    โน้ตบุ๊กรุ่น Ideapad Pro 5 มีทั้งเวอร์ชัน Intel และ AMD ให้เลือก
    ใช้ชิปทั้งสองรุ่นในบอดี้เดียวกัน
    เหมาะกับผู้ใช้ทั่วไปและเกมเมอร์สายประหยัด

    แม้ Arc 130T จะมีคะแนนเบนช์มาร์กสูง แต่ยังไม่ชนะ Radeon 860M ในทุกเกม
    Radeon 860M ทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ใช้กราฟิกหนัก
    Arc 130T เหมาะกับงาน AI และการประมวลผลมากกว่าเกมระดับสูง

    Ryzen AI 7 350 มีอุณหภูมิสูงกว่า อาจกระทบต่ออายุการใช้งานในโน้ตบุ๊กบางรุ่น
    อุณหภูมิแตะ 100°C ในการทดสอบ Cinebench R23
    อาจทำให้เครื่องร้อนและลดประสิทธิภาพเมื่อใช้งานต่อเนื่อง

    Intel Core Ultra 5 225H ไม่มี hyperthreading แม้จะมีคอร์มากกว่า
    มี 14 คอร์แต่แค่ 14 เธรด ขณะที่ AMD มี 8 คอร์ 16 เธรด
    อาจเสียเปรียบในงานที่ใช้เธรดจำนวนมาก เช่น การเรนเดอร์หรือ AI

    ทั้งสองรุ่นยังไม่เหมาะกับเกม 4K หรือกราฟิกระดับ Ultra
    เฟรมเรตเฉลี่ยอยู่ที่ 20–30 FPS ใน 1080p Ultra
    เหมาะกับเกมที่ปรับกราฟิกระดับ Low–Medium มากกว่า

    https://wccftech.com/core-ultra-5-225h-trades-blows-with-ryzen-ai-7-350-but-with-better-thermals/
    ⚔️ เรื่องเล่าจากสนามทดสอบ: เมื่อ Intel และ AMD แลกหมัดกันทั้ง CPU และ GPU ในเดือนกรกฎาคม 2025 เว็บไซต์ Wccftech รายงานผลการเปรียบเทียบระหว่าง Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 ซึ่งเป็นซีพียูระดับกลางสำหรับโน้ตบุ๊กที่ใช้สถาปัตยกรรมใหม่ล่าสุด—Arrow Lake และ Krackan Point ตามลำดับ ผลการทดสอบจาก Geekerwan พบว่า ทั้งสองรุ่นมีประสิทธิภาพใกล้เคียงกันในงานทั่วไปและเกม โดย Intel มีข้อได้เปรียบด้าน “ความร้อน” ที่ต่ำกว่าอย่างชัดเจน ส่วน AMD ก็มีข้อได้เปรียบด้าน “จำนวนเธรด” และความเร็ว GPU ที่สูงกว่า ด้านกราฟิกในตัว (iGPU) Intel Arc 130T และ AMD Radeon 860M ก็แลกหมัดกันอย่างสูสี โดย Arc 130T มีคะแนนรวมสูงกว่าในหลายเบนช์มาร์ก แต่ Radeon 860M กลับทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ปรับกราฟิกสูง ✅ Intel Core Ultra 5 225H และ AMD Ryzen AI 7 350 มีประสิทธิภาพใกล้เคียงกันในงานทั่วไป ➡️ Intel มี 14 คอร์ (ไม่มี hyperthreading) ส่วน AMD มี 8 คอร์ 16 เธรด ➡️ Intel ใช้สถาปัตยกรรม Arrow Lake-H ส่วน AMD ใช้ Zen 5 + Zen 5c ✅ ผลทดสอบ Cinebench R23 แสดงว่า Intel ดีกว่าเล็กน้อยที่กำลังไฟสูง (60–80W) ➡️ AMD ดีกว่าในช่วงกำลังไฟต่ำ (10–25W) ➡️ Intel เร็วกว่า ~2.5% โดยรวม ✅ Intel Core Ultra 5 225H มีอุณหภูมิสูงสุดต่ำกว่า Ryzen AI 7 350 อย่างชัดเจน ➡️ Intel อยู่ที่ <90°C ขณะโหลดเต็ม ➡️ AMD แตะ 100°C ทำให้เครื่องร้อนกว่า ✅ Intel Arc 130T และ AMD Radeon 860M มีประสิทธิภาพใกล้เคียงกันในเกม ➡️ Arc 130T ใช้ Xe2 architecture, 896 shaders, 3.9 TFLOPS ➡️ Radeon 860M ใช้ RDNA 3.5, 512 shaders, 3.1 TFLOPS ✅ Arc 130T ทำคะแนนสูงกว่าใน 3DMark และ Geekbench GPU tests ➡️ สูงกว่า Radeon 860M ถึง 42% ใน Geekbench Compute ➡️ แต่ Radeon 860M ทำเฟรมเรตดีกว่าในบางเกม เช่น F1 24 และ GTA V ✅ โน้ตบุ๊กรุ่น Ideapad Pro 5 มีทั้งเวอร์ชัน Intel และ AMD ให้เลือก ➡️ ใช้ชิปทั้งสองรุ่นในบอดี้เดียวกัน ➡️ เหมาะกับผู้ใช้ทั่วไปและเกมเมอร์สายประหยัด ‼️ แม้ Arc 130T จะมีคะแนนเบนช์มาร์กสูง แต่ยังไม่ชนะ Radeon 860M ในทุกเกม ⛔ Radeon 860M ทำเฟรมเรตได้ดีกว่าในบางเกม AAA ที่ใช้กราฟิกหนัก ⛔ Arc 130T เหมาะกับงาน AI และการประมวลผลมากกว่าเกมระดับสูง ‼️ Ryzen AI 7 350 มีอุณหภูมิสูงกว่า อาจกระทบต่ออายุการใช้งานในโน้ตบุ๊กบางรุ่น ⛔ อุณหภูมิแตะ 100°C ในการทดสอบ Cinebench R23 ⛔ อาจทำให้เครื่องร้อนและลดประสิทธิภาพเมื่อใช้งานต่อเนื่อง ‼️ Intel Core Ultra 5 225H ไม่มี hyperthreading แม้จะมีคอร์มากกว่า ⛔ มี 14 คอร์แต่แค่ 14 เธรด ขณะที่ AMD มี 8 คอร์ 16 เธรด ⛔ อาจเสียเปรียบในงานที่ใช้เธรดจำนวนมาก เช่น การเรนเดอร์หรือ AI ‼️ ทั้งสองรุ่นยังไม่เหมาะกับเกม 4K หรือกราฟิกระดับ Ultra ⛔ เฟรมเรตเฉลี่ยอยู่ที่ 20–30 FPS ใน 1080p Ultra ⛔ เหมาะกับเกมที่ปรับกราฟิกระดับ Low–Medium มากกว่า https://wccftech.com/core-ultra-5-225h-trades-blows-with-ryzen-ai-7-350-but-with-better-thermals/
    WCCFTECH.COM
    Core Ultra 5 225H Trades Blows With Ryzen AI 7 350 But With Better Thermals; Arc 130T Comes On Par With Radeon 860M
    The Intel Core Ultra 5 225H was benchmarked against Ryzen AI 7 350 and delivered equivalent synthetic and gaming performance but with better temperatures.
    0 Comments 0 Shares 204 Views 0 Reviews
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 Comments 0 Shares 240 Views 0 Reviews
  • เรื่องเล่าจากโลกเลเซอร์: เมื่อแสงกลายเป็นทางลัดของข้อมูล

    TechRadar รายงานความก้าวหน้าครั้งสำคัญในการพัฒนา “ชิปโฟโตนิกส์” ที่ใช้เลเซอร์ควอนตัมดอท (Quantum Dot Lasers) ซึ่งสามารถทำงานบนซิลิคอนได้โดยตรง โดยไม่ต้องออกแบบระบบใหม่ทั้งหมด และยังทนความร้อนได้ดีเยี่ยม เหมาะกับการใช้งานจริงในศูนย์ข้อมูลและอุปกรณ์อัจฉริยะในอนาคต

    ลองจินตนาการว่าในอนาคต ชิปที่อยู่ในสมาร์ทโฟนหรือโน้ตบุ๊กของคุณจะไม่ส่งข้อมูลด้วยไฟฟ้า แต่ใช้ “แสง” แทน ซึ่งเร็วกว่าและประหยัดพลังงานมากกว่า แต่ปัญหาคือการรวมเลเซอร์เข้ากับซิลิคอนนั้นยากมาก เพราะวัสดุไม่เข้ากัน

    ทีมนักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย นำโดย Rosalyn Koscica ได้แก้ปัญหานี้ด้วย 3 กลยุทธ์:

    1️⃣ ใช้การเติบโตแบบสองขั้นตอน (MOCVD + MBE) เพื่อสร้างเลเซอร์ควอนตัมดอทบนซิลิคอน

    2️⃣ เติมช่องว่างด้วยโพลิเมอร์เพื่อลดการกระจายของแสง

    3️⃣ ใช้การออกแบบเลเซอร์แบบ pocket laser ที่เล็กและแม่นยำ

    ผลลัพธ์คือเลเซอร์ที่ทำงานได้ในช่วง O-band (เหมาะกับการสื่อสารข้อมูล) ทนความร้อนได้ถึง 105°C และมีอายุการใช้งานกว่า 6 ปี โดยไม่ต้องใช้ระบบระบายความร้อนที่ซับซ้อน

    ที่สำคัญคือกระบวนการนี้สามารถผลิตในโรงงานเซมิคอนดักเตอร์ทั่วไปได้เลย ไม่ต้องเปลี่ยนโครงสร้างชิป ทำให้มีโอกาสผลิตในระดับอุตสาหกรรมได้ง่ายขึ้น

    https://www.techradar.com/pro/a-new-trick-for-merging-lasers-with-silicon-could-finally-make-photonic-chips-cheap-fast-and-ready-for-mass-production
    🎙️ เรื่องเล่าจากโลกเลเซอร์: เมื่อแสงกลายเป็นทางลัดของข้อมูล TechRadar รายงานความก้าวหน้าครั้งสำคัญในการพัฒนา “ชิปโฟโตนิกส์” ที่ใช้เลเซอร์ควอนตัมดอท (Quantum Dot Lasers) ซึ่งสามารถทำงานบนซิลิคอนได้โดยตรง โดยไม่ต้องออกแบบระบบใหม่ทั้งหมด และยังทนความร้อนได้ดีเยี่ยม เหมาะกับการใช้งานจริงในศูนย์ข้อมูลและอุปกรณ์อัจฉริยะในอนาคต ลองจินตนาการว่าในอนาคต ชิปที่อยู่ในสมาร์ทโฟนหรือโน้ตบุ๊กของคุณจะไม่ส่งข้อมูลด้วยไฟฟ้า แต่ใช้ “แสง” แทน ซึ่งเร็วกว่าและประหยัดพลังงานมากกว่า แต่ปัญหาคือการรวมเลเซอร์เข้ากับซิลิคอนนั้นยากมาก เพราะวัสดุไม่เข้ากัน ทีมนักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย นำโดย Rosalyn Koscica ได้แก้ปัญหานี้ด้วย 3 กลยุทธ์: 1️⃣ ใช้การเติบโตแบบสองขั้นตอน (MOCVD + MBE) เพื่อสร้างเลเซอร์ควอนตัมดอทบนซิลิคอน 2️⃣ เติมช่องว่างด้วยโพลิเมอร์เพื่อลดการกระจายของแสง 3️⃣ ใช้การออกแบบเลเซอร์แบบ pocket laser ที่เล็กและแม่นยำ ผลลัพธ์คือเลเซอร์ที่ทำงานได้ในช่วง O-band (เหมาะกับการสื่อสารข้อมูล) ทนความร้อนได้ถึง 105°C และมีอายุการใช้งานกว่า 6 ปี โดยไม่ต้องใช้ระบบระบายความร้อนที่ซับซ้อน ที่สำคัญคือกระบวนการนี้สามารถผลิตในโรงงานเซมิคอนดักเตอร์ทั่วไปได้เลย ไม่ต้องเปลี่ยนโครงสร้างชิป ทำให้มีโอกาสผลิตในระดับอุตสาหกรรมได้ง่ายขึ้น https://www.techradar.com/pro/a-new-trick-for-merging-lasers-with-silicon-could-finally-make-photonic-chips-cheap-fast-and-ready-for-mass-production
    0 Comments 0 Shares 225 Views 0 Reviews
  • เรื่องเล่าจากมัลแวร์ที่ปลอมตัวเป็น Chrome: เมื่อ Interlock แรนซัมแวร์ใช้ CAPTCHA หลอกให้รันคำสั่งเอง

    Interlock ถูกตรวจพบครั้งแรกในเดือนกันยายน 2024 และมีการโจมตีเพิ่มขึ้นในช่วงกลางปี 2025 โดย FBI พบว่า:
    - กลุ่มนี้พัฒนาแรนซัมแวร์สำหรับทั้ง Windows และ Linux
    - เน้นโจมตีระบบ virtual machine (VM) และใช้เทคนิคใหม่ในการเข้าถึงระบบ

    เทคนิคที่ใช้มีความแปลกใหม่ เช่น:
    - “Drive-by download” จากเว็บไซต์ที่ถูกแฮก โดยปลอมเป็นอัปเดตของ Chrome, Edge, FortiClient หรือ Cisco Secure Client
    - “ClickFix” — หลอกให้ผู้ใช้คลิก CAPTCHA ปลอม แล้วคัดลอกคำสั่งไปวางในหน้าต่าง Run ของระบบ

    เมื่อเข้าระบบได้แล้ว Interlock จะ:
    - ใช้ web shell และ Cobalt Strike เพื่อควบคุมระบบ
    - ขโมยข้อมูล เช่น username, password และใช้ keylogger บันทึกการพิมพ์
    - เข้ารหัสไฟล์และเปลี่ยนนามสกุลเป็น .interlock หรือ .1nt3rlock
    - ส่งโน้ตร้องขอค่าไถ่ผ่านเว็บไซต์ .onion โดยไม่ระบุจำนวนเงิน
    - ข่มขู่ว่าจะเปิดเผยข้อมูลหากไม่จ่ายค่าไถ่เป็น Bitcoin — และเคยทำจริงหลายครั้ง

    FBI, CISA, HHS และ MS-ISAC แนะนำให้ทุกองค์กรเร่งดำเนินมาตรการป้องกัน เช่น:
    - ใช้ DNS filtering และ firewall เพื่อป้องกันการเข้าถึงเว็บอันตราย
    - อัปเดตระบบและซอฟต์แวร์ทั้งหมด
    - ใช้ MFA และจัดการสิทธิ์การเข้าถึงอย่างเข้มงวด
    - แบ่งเครือข่ายเพื่อลดการแพร่กระจาย
    - สำรองข้อมูลแบบ offline และไม่สามารถแก้ไขได้ (immutable backup)

    FBI และ CISA เตือนภัย Interlock ransomware ที่โจมตีองค์กรและโครงสร้างพื้นฐานสำคัญ
    ใช้เทคนิค double extortion คือทั้งเข้ารหัสและข่มขู่เปิดเผยข้อมูล

    Interlock พัฒนาแรนซัมแวร์สำหรับ Windows และ Linux โดยเน้นโจมตี VM
    ใช้เทคนิคใหม่ เช่น drive-by download และ ClickFix

    ClickFix คือการหลอกให้ผู้ใช้คลิก CAPTCHA ปลอม แล้วรันคำสั่งอันตรายเอง
    เป็นการใช้ social engineering ที่แยบยลและยากต่อการตรวจจับ

    หลังเข้าระบบ Interlock ใช้ Cobalt Strike และ web shell เพื่อควบคุมและขโมยข้อมูล
    รวมถึงการใช้ keylogger เพื่อดักจับการพิมพ์

    ไฟล์ที่ถูกเข้ารหัสจะมีนามสกุล .interlock หรือ .1nt3rlock
    โน้ตร้องขอค่าไถ่ไม่ระบุจำนวนเงิน แต่ให้ติดต่อผ่าน Tor

    หน่วยงานแนะนำให้ใช้ DNS filtering, MFA, network segmentation และ backup แบบ immutable
    พร้อมทรัพยากรฟรีจากโครงการ #StopRansomware

    https://hackread.com/fbi-cisa-interlock-ransomware-target-critical-infrastructure/
    🎙️ เรื่องเล่าจากมัลแวร์ที่ปลอมตัวเป็น Chrome: เมื่อ Interlock แรนซัมแวร์ใช้ CAPTCHA หลอกให้รันคำสั่งเอง Interlock ถูกตรวจพบครั้งแรกในเดือนกันยายน 2024 และมีการโจมตีเพิ่มขึ้นในช่วงกลางปี 2025 โดย FBI พบว่า: - กลุ่มนี้พัฒนาแรนซัมแวร์สำหรับทั้ง Windows และ Linux - เน้นโจมตีระบบ virtual machine (VM) และใช้เทคนิคใหม่ในการเข้าถึงระบบ เทคนิคที่ใช้มีความแปลกใหม่ เช่น: - “Drive-by download” จากเว็บไซต์ที่ถูกแฮก โดยปลอมเป็นอัปเดตของ Chrome, Edge, FortiClient หรือ Cisco Secure Client - “ClickFix” — หลอกให้ผู้ใช้คลิก CAPTCHA ปลอม แล้วคัดลอกคำสั่งไปวางในหน้าต่าง Run ของระบบ เมื่อเข้าระบบได้แล้ว Interlock จะ: - ใช้ web shell และ Cobalt Strike เพื่อควบคุมระบบ - ขโมยข้อมูล เช่น username, password และใช้ keylogger บันทึกการพิมพ์ - เข้ารหัสไฟล์และเปลี่ยนนามสกุลเป็น .interlock หรือ .1nt3rlock - ส่งโน้ตร้องขอค่าไถ่ผ่านเว็บไซต์ .onion โดยไม่ระบุจำนวนเงิน - ข่มขู่ว่าจะเปิดเผยข้อมูลหากไม่จ่ายค่าไถ่เป็น Bitcoin — และเคยทำจริงหลายครั้ง FBI, CISA, HHS และ MS-ISAC แนะนำให้ทุกองค์กรเร่งดำเนินมาตรการป้องกัน เช่น: - ใช้ DNS filtering และ firewall เพื่อป้องกันการเข้าถึงเว็บอันตราย - อัปเดตระบบและซอฟต์แวร์ทั้งหมด - ใช้ MFA และจัดการสิทธิ์การเข้าถึงอย่างเข้มงวด - แบ่งเครือข่ายเพื่อลดการแพร่กระจาย - สำรองข้อมูลแบบ offline และไม่สามารถแก้ไขได้ (immutable backup) ✅ FBI และ CISA เตือนภัย Interlock ransomware ที่โจมตีองค์กรและโครงสร้างพื้นฐานสำคัญ ➡️ ใช้เทคนิค double extortion คือทั้งเข้ารหัสและข่มขู่เปิดเผยข้อมูล ✅ Interlock พัฒนาแรนซัมแวร์สำหรับ Windows และ Linux โดยเน้นโจมตี VM ➡️ ใช้เทคนิคใหม่ เช่น drive-by download และ ClickFix ✅ ClickFix คือการหลอกให้ผู้ใช้คลิก CAPTCHA ปลอม แล้วรันคำสั่งอันตรายเอง ➡️ เป็นการใช้ social engineering ที่แยบยลและยากต่อการตรวจจับ ✅ หลังเข้าระบบ Interlock ใช้ Cobalt Strike และ web shell เพื่อควบคุมและขโมยข้อมูล ➡️ รวมถึงการใช้ keylogger เพื่อดักจับการพิมพ์ ✅ ไฟล์ที่ถูกเข้ารหัสจะมีนามสกุล .interlock หรือ .1nt3rlock ➡️ โน้ตร้องขอค่าไถ่ไม่ระบุจำนวนเงิน แต่ให้ติดต่อผ่าน Tor ✅ หน่วยงานแนะนำให้ใช้ DNS filtering, MFA, network segmentation และ backup แบบ immutable ➡️ พร้อมทรัพยากรฟรีจากโครงการ #StopRansomware https://hackread.com/fbi-cisa-interlock-ransomware-target-critical-infrastructure/
    HACKREAD.COM
    FBI and CISA Warn of Interlock Ransomware Targeting Critical Infrastructure
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 309 Views 0 Reviews
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 Comments 0 Shares 273 Views 0 Reviews
  • เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่

    GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก

    GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ:
    - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18%
    - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20%
    - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4%

    การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB

    XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้

    GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W
    ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม

    GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti
    มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก

    เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก
    เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3

    การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB
    ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล

    XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต
    ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ

    https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    🎙️ เรื่องเล่าจากโน้ตบุ๊กแรงทะลุขีดจำกัด: เมื่อการดัดแปลงพลังงานปลดล็อกเฟรมเรตที่ซ่อนอยู่ GPU GeForce RTX 5090 Laptop ใช้ชิป GB203 ตัวเดียวกับ RTX 5080 และ 5070 Ti โดยมี 10,496 CUDA cores แต่ถูกจำกัดพลังงานไว้ที่ 95–150W + 25W จาก Dynamic Boost เพื่อควบคุมความร้อนและการใช้พลังงานในโน้ตบุ๊ก GizmoSlipTech ได้ทำการเพิ่มพลังงานโดยใช้ “shunt mod” ซึ่งเป็นการเพิ่มตัวต้านทานเพื่อหลอกระบบให้จ่ายไฟมากขึ้น — ทำให้ TGP พุ่งจาก 175W เป็น 250W (เพิ่มขึ้น 43%) และผลลัพธ์คือ: - เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% - เกมที่ใช้ GPU หนัก เช่น Cyberpunk 2077, Witcher 3, Rainbow Six Siege เพิ่มขึ้นกว่า 20% - เกมที่ใช้ CPU หนัก เช่น Shadow of the Tomb Raider เพิ่มขึ้นเพียง 4% การทดสอบนี้ทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 ที่ใช้ Core Ultra 9 275HX และ RAM DDR5-7200 ขนาด 48GB XMG ผู้ผลิตโน้ตบุ๊กเกมมิ่งรายหนึ่งแสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต — โดยระบุว่าระบบระบายความร้อนของตนสามารถรับมือได้ ✅ GizmoSlipTech ดัดแปลง RTX 5090 Laptop GPU ด้วย shunt mod เพื่อเพิ่ม TGP จาก 175W เป็น 250W ➡️ ส่งผลให้ประสิทธิภาพเพิ่มขึ้นสูงสุดถึง 40% ในบางเกม ✅ GPU รุ่นนี้ใช้ชิป GB203 เหมือนกับ RTX 5080 และ 5070 Ti ➡️ มี 10,496 CUDA cores แต่ถูกจำกัดพลังงานเพื่อใช้งานในโน้ตบุ๊ก ✅ เฟรมเรตเฉลี่ยเพิ่มขึ้น 18% โดยเฉพาะในเกมที่ใช้ GPU หนัก ➡️ เช่น Cyberpunk 2077, Rainbow Six Siege, Witcher 3 ✅ การทดสอบทำบนโน้ตบุ๊ก Eluktronics Hydroc 16 G2 พร้อม Core Ultra 9 และ RAM 48GB ➡️ ใช้แอปพลิเคชัน Amuse และการตั้งค่าหลายแบบในการวัดผล ✅ XMG แสดงความสนใจที่จะรองรับ TGP สูงขึ้น หาก Nvidia อนุญาต ➡️ ระบบระบายความร้อนของ XMG สามารถควบคุมอุณหภูมิได้ต่ำกว่า 80°C ด้วยลม และต่ำกว่า 70°C ด้วยน้ำ https://www.tomshardware.com/pc-components/gpus/geforce-rtx-5090-laptop-gpu-shunt-mod-increases-performance-by-up-to-40-percent-175-tgp-boosted-to-250w-to-unlock-extra-performance
    0 Comments 0 Shares 184 Views 0 Reviews
  • เรื่องเล่าจากโน้ตบุ๊กยุคใหม่: เมื่อ AI สร้างภาพได้เองโดยไม่ต้องต่อเน็ต

    ก่อนหน้านี้ การใช้ Stable Diffusion ต้องใช้ GPU ที่แรงมาก หรือเชื่อมต่อ cloud เพื่อประมวลผลภาพ แต่ตอนนี้ AMD และ Stability AI ได้พัฒนาโมเดลใหม่ชื่อ block FP16 SD 3.0 Medium ที่สามารถรันบน NPU ได้โดยตรง — โดยใช้หน่วยความจำเพียง 9 GB และทำงานได้บนโน้ตบุ๊กที่มี RAM 24 GB ขึ้นไป

    ระบบนี้ทำงานผ่านแอป Amuse 3.1 โดย Tensorstack ซึ่งมีโหมด HQ ที่ใช้ pipeline แบบสองขั้นตอน:

    1️⃣ สร้างภาพขนาด 1024×1024 พิกเซล
    2️⃣ Upscale เป็น 2048×2048 พิกเซล โดยใช้พลังของ XDNA 2 NPU

    ผู้ใช้สามารถเลือกได้ว่าจะใช้ GPU หรือ NPU ในการประมวลผล และสามารถเปิดใช้งานได้ง่าย ๆ ด้วยการติดตั้งไดรเวอร์ Adrenalin ล่าสุด แล้วเปิด Amuse 3.1 Beta และปรับโหมด EZ ให้เป็น HQ พร้อมเปิดการ offload ไปยัง XDNA 2

    AMD และ Stability AI เปิดตัวโมเดล block FP16 SD 3.0 Medium สำหรับการสร้างภาพ AI แบบ local
    ทำงานบน NPU ของ Ryzen AI XDNA 2 โดยไม่ต้องใช้ GPU หรือ cloud

    ใช้หน่วยความจำเพียง 9 GB และทำงานได้บนโน้ตบุ๊กที่มี RAM 24 GB ขึ้นไป
    ลดข้อจำกัดด้านฮาร์ดแวร์และเปิดโอกาสให้ผู้ใช้ทั่วไปเข้าถึง AI image generation

    ระบบใช้ pipeline สองขั้นตอนเพื่อ upscale ภาพจาก 2MP เป็น 4MP
    ให้ภาพที่มีความละเอียดสูงขึ้นโดยไม่ต้องใช้พลัง GPU

    แอป Amuse 3.1 รองรับการเลือกใช้ GPU หรือ NPU ได้ตามต้องการ
    ผู้ใช้สามารถเปิดโหมด HQ และเปิดการ offload ไปยัง XDNA 2 ได้ง่าย ๆ

    โมเดลนี้ใช้ precision แบบ FP16 แต่ให้ประสิทธิภาพเทียบเท่า INT8
    เป็นการพัฒนาเชิงเทคนิคที่ช่วยลดการใช้พลังงานและเพิ่มความเร็ว

    ก่อนหน้านี้ Amuse ต้องใช้ GPU เท่านั้น ทำให้การใช้งานจำกัด
    ตอนนี้สามารถใช้ NPU ได้ ทำให้โน้ตบุ๊กทั่วไปก็สามารถสร้างภาพ AI ได้

    โมเดล block FP16 SD 3.0 Medium ยังต้องการ RAM ขั้นต่ำ 24 GB
    โน้ตบุ๊กทั่วไปที่มี RAM 8–16 GB อาจไม่สามารถใช้งานได้เต็มประสิทธิภาพ

    การเปิดใช้งาน NPU ต้องใช้ไดรเวอร์ Adrenalin ล่าสุดและตั้งค่าผ่าน Amuse 3.1 Beta
    หากไม่ได้อัปเดตหรือตั้งค่าถูกต้อง อาจไม่สามารถใช้ฟีเจอร์นี้ได้

    แม้จะไม่ต้องใช้ GPU แต่การประมวลผลภาพยังใช้เวลาหลายนาทีต่อภาพ
    ผู้ใช้ควรคาดหวังว่า NPU ยังไม่เร็วเท่า GPU ระดับสูง

    การใช้โมเดล AI บนเครื่องอาจมีข้อจำกัดด้านความปลอดภัยและการควบคุมเนื้อหา
    ควรมีระบบตรวจสอบการใช้งานเพื่อป้องกันการสร้างภาพที่ไม่เหมาะสม

    https://www.techpowerup.com/339112/amd-and-stability-ai-enable-local-ai-image-generation-on-npu-powered-laptops
    🎙️ เรื่องเล่าจากโน้ตบุ๊กยุคใหม่: เมื่อ AI สร้างภาพได้เองโดยไม่ต้องต่อเน็ต ก่อนหน้านี้ การใช้ Stable Diffusion ต้องใช้ GPU ที่แรงมาก หรือเชื่อมต่อ cloud เพื่อประมวลผลภาพ แต่ตอนนี้ AMD และ Stability AI ได้พัฒนาโมเดลใหม่ชื่อ block FP16 SD 3.0 Medium ที่สามารถรันบน NPU ได้โดยตรง — โดยใช้หน่วยความจำเพียง 9 GB และทำงานได้บนโน้ตบุ๊กที่มี RAM 24 GB ขึ้นไป ระบบนี้ทำงานผ่านแอป Amuse 3.1 โดย Tensorstack ซึ่งมีโหมด HQ ที่ใช้ pipeline แบบสองขั้นตอน: 1️⃣ สร้างภาพขนาด 1024×1024 พิกเซล 2️⃣ Upscale เป็น 2048×2048 พิกเซล โดยใช้พลังของ XDNA 2 NPU ผู้ใช้สามารถเลือกได้ว่าจะใช้ GPU หรือ NPU ในการประมวลผล และสามารถเปิดใช้งานได้ง่าย ๆ ด้วยการติดตั้งไดรเวอร์ Adrenalin ล่าสุด แล้วเปิด Amuse 3.1 Beta และปรับโหมด EZ ให้เป็น HQ พร้อมเปิดการ offload ไปยัง XDNA 2 ✅ AMD และ Stability AI เปิดตัวโมเดล block FP16 SD 3.0 Medium สำหรับการสร้างภาพ AI แบบ local ➡️ ทำงานบน NPU ของ Ryzen AI XDNA 2 โดยไม่ต้องใช้ GPU หรือ cloud ✅ ใช้หน่วยความจำเพียง 9 GB และทำงานได้บนโน้ตบุ๊กที่มี RAM 24 GB ขึ้นไป ➡️ ลดข้อจำกัดด้านฮาร์ดแวร์และเปิดโอกาสให้ผู้ใช้ทั่วไปเข้าถึง AI image generation ✅ ระบบใช้ pipeline สองขั้นตอนเพื่อ upscale ภาพจาก 2MP เป็น 4MP ➡️ ให้ภาพที่มีความละเอียดสูงขึ้นโดยไม่ต้องใช้พลัง GPU ✅ แอป Amuse 3.1 รองรับการเลือกใช้ GPU หรือ NPU ได้ตามต้องการ ➡️ ผู้ใช้สามารถเปิดโหมด HQ และเปิดการ offload ไปยัง XDNA 2 ได้ง่าย ๆ ✅ โมเดลนี้ใช้ precision แบบ FP16 แต่ให้ประสิทธิภาพเทียบเท่า INT8 ➡️ เป็นการพัฒนาเชิงเทคนิคที่ช่วยลดการใช้พลังงานและเพิ่มความเร็ว ✅ ก่อนหน้านี้ Amuse ต้องใช้ GPU เท่านั้น ทำให้การใช้งานจำกัด ➡️ ตอนนี้สามารถใช้ NPU ได้ ทำให้โน้ตบุ๊กทั่วไปก็สามารถสร้างภาพ AI ได้ ‼️ โมเดล block FP16 SD 3.0 Medium ยังต้องการ RAM ขั้นต่ำ 24 GB ⛔ โน้ตบุ๊กทั่วไปที่มี RAM 8–16 GB อาจไม่สามารถใช้งานได้เต็มประสิทธิภาพ ‼️ การเปิดใช้งาน NPU ต้องใช้ไดรเวอร์ Adrenalin ล่าสุดและตั้งค่าผ่าน Amuse 3.1 Beta ⛔ หากไม่ได้อัปเดตหรือตั้งค่าถูกต้อง อาจไม่สามารถใช้ฟีเจอร์นี้ได้ ‼️ แม้จะไม่ต้องใช้ GPU แต่การประมวลผลภาพยังใช้เวลาหลายนาทีต่อภาพ ⛔ ผู้ใช้ควรคาดหวังว่า NPU ยังไม่เร็วเท่า GPU ระดับสูง ‼️ การใช้โมเดล AI บนเครื่องอาจมีข้อจำกัดด้านความปลอดภัยและการควบคุมเนื้อหา ⛔ ควรมีระบบตรวจสอบการใช้งานเพื่อป้องกันการสร้างภาพที่ไม่เหมาะสม https://www.techpowerup.com/339112/amd-and-stability-ai-enable-local-ai-image-generation-on-npu-powered-laptops
    WWW.TECHPOWERUP.COM
    AMD and Stability AI Enable Local AI Image Generation on NPU-Powered Laptops
    AMD and Stability AI made an announcement today about their joint effort to adapt Stable Diffusion 3.0 Medium for Stability Amuse AI art creator. This move allows for better picture generation and text handling abilities to run on Neural Processing Units (NPUs). Earlier, at Computex 2024, AMD showed...
    0 Comments 0 Shares 214 Views 0 Reviews
  • เรื่องเล่าจากผู้ใช้เก่า: Notepad กลายเป็นเวทีโฆษณา Copilot ไปแล้วหรือ?

    ผู้เขียนเป็นผู้ใช้ Notepad แบบจริงจัง เขาใช้สำหรับจดรหัสผ่านชั่วคราว เก็บค่า hex สี และโน้ตประชุม โดยชื่นชอบความ “ไม่วุ่นวาย” ของมัน — เปิดเร็ว ไม่ต้องเลือกเทมเพลต ไม่ต้องมี splash screen

    แต่ในช่วง 3–4 ปีที่ผ่านมา Notepad ได้รับฟีเจอร์ใหม่มากมาย:
    - เริ่มจากดีไซน์ใหม่ (Fluent UI) ในปี 2021
    - เพิ่ม dark mode, tabbed interface
    - มีฟีเจอร์ save อัตโนมัติ, character counter และ spell checker
    - จากนั้นเริ่มบูรณาการ Copilot เช่น Explain with Copilot, AI Rewrite, text summarization

    แม้ฟีเจอร์ใหม่จะมีประโยชน์ แต่ผู้เขียนรู้สึกว่า "Notepad ไม่ได้เรียบง่ายอีกต่อไป" มันกลับกลายเป็น แพลตฟอร์มที่แสดงฟีเจอร์ AI ของ Microsoft มากกว่าเครื่องมือที่ผู้ใช้ควบคุมเอง

    เขาเสียดายที่ WordPad ถูกยกเลิกไปในปีเดียวกัน ทำให้ฟีเจอร์ของ Word, OneNote และ Notepad เริ่ม “เบลอ” จนไม่รู้ว่าแต่ละตัวควรทำอะไร — และมองว่า Notepad ควรกลับไปเป็น “ตัวเลือกเบา ๆ” สำหรับคนที่ไม่ต้องการใช้ AI

    https://www.neowin.net/editorials/notepad-is-losing-its-focus/
    🎙️ เรื่องเล่าจากผู้ใช้เก่า: Notepad กลายเป็นเวทีโฆษณา Copilot ไปแล้วหรือ? ผู้เขียนเป็นผู้ใช้ Notepad แบบจริงจัง เขาใช้สำหรับจดรหัสผ่านชั่วคราว เก็บค่า hex สี และโน้ตประชุม โดยชื่นชอบความ “ไม่วุ่นวาย” ของมัน — เปิดเร็ว ไม่ต้องเลือกเทมเพลต ไม่ต้องมี splash screen แต่ในช่วง 3–4 ปีที่ผ่านมา Notepad ได้รับฟีเจอร์ใหม่มากมาย: - เริ่มจากดีไซน์ใหม่ (Fluent UI) ในปี 2021 - เพิ่ม dark mode, tabbed interface - มีฟีเจอร์ save อัตโนมัติ, character counter และ spell checker - จากนั้นเริ่มบูรณาการ Copilot เช่น Explain with Copilot, AI Rewrite, text summarization แม้ฟีเจอร์ใหม่จะมีประโยชน์ แต่ผู้เขียนรู้สึกว่า "Notepad ไม่ได้เรียบง่ายอีกต่อไป" มันกลับกลายเป็น แพลตฟอร์มที่แสดงฟีเจอร์ AI ของ Microsoft มากกว่าเครื่องมือที่ผู้ใช้ควบคุมเอง เขาเสียดายที่ WordPad ถูกยกเลิกไปในปีเดียวกัน ทำให้ฟีเจอร์ของ Word, OneNote และ Notepad เริ่ม “เบลอ” จนไม่รู้ว่าแต่ละตัวควรทำอะไร — และมองว่า Notepad ควรกลับไปเป็น “ตัวเลือกเบา ๆ” สำหรับคนที่ไม่ต้องการใช้ AI https://www.neowin.net/editorials/notepad-is-losing-its-focus/
    WWW.NEOWIN.NET
    Notepad is losing its focus
    Notepad used to be a simple note-taking app without any distractions. Now it's becoming an ad platform for Copilot.
    0 Comments 0 Shares 209 Views 0 Reviews
  • เรื่องเล่าจาก USB: ถ้าโลกล่มสลาย จะพก LLM หรือ Wikipedia ไว้ช่วยชีวิต?

    ผู้เขียนเริ่มต้นจากบทความของ MIT Tech Review ที่พูดถึงการใช้ LLM บนอุปกรณ์ของตนเองในสถานการณ์ฉุกเฉิน และมีคนกล่าวว่า LLM ก็เหมือน "Wikipedia แบบบีบอัดและผิด ๆ หน่อย ๆ" บน USB

    เขาจึงทดลองเปรียบเทียบ “ขนาดไฟล์” ของโมเดล LLM จากห้องสมุด Ollama ที่สามารถใช้บนเครื่องทั่วไป กับ “Wikipedia ออฟไลน์” จาก Kiwix ซึ่งไม่มีภาพ เพื่อให้เปรียบเทียบได้ใกล้เคียงขึ้น

    ผลลัพธ์พบว่า:
    - Wikipedia เวอร์ชัน 50K บทความยอดนิยม (Best of Wikipedia) มีขนาด 1.93 GB
    - ขณะที่โมเดล Llama 3.2 ขนาด 3B มีขนาด 2.0 GB — แทบเท่ากัน!
    - Wikipedia ฉบับเต็มมีขนาด 57.18 GB ซึ่งใหญ่กว่าโมเดล LLM ขนาด 32B (ประมาณ 20 GB) ไปมาก

    ผู้เขียนชี้ว่าการเปรียบเทียบนี้ไม่แม่นยำนัก เพราะทั้งสองใช้คนละเทคโนโลยี คนละวัตถุประสงค์ — แต่ก็ชวนคิดว่า "แหล่งความรู้แบบไหน" ที่เราควรเลือกเก็บไว้ในโลกที่ไม่มีอินเทอร์เน็ต

    นอกจากนี้ยังเตือนว่า:
    - LLM ต้องใช้ RAM และ CPU มากกว่า Wikipedia ออฟไลน์
    - Wikipedia อาจรันบนโน้ตบุ๊กรุ่นเก่าได้ง่ายกว่า
    - ความสามารถของ LLM ขึ้นกับว่าเราเลือก “ขนาด” และ “การเทรน” ที่เหมาะแค่ไหน

    สุดท้ายผู้เขียนสรุปว่า บางทีควรโหลดไว้ทั้งคู่เลยก็ได้

    https://evanhahn.com/local-llms-versus-offline-wikipedia/
    🎙️ เรื่องเล่าจาก USB: ถ้าโลกล่มสลาย จะพก LLM หรือ Wikipedia ไว้ช่วยชีวิต? ผู้เขียนเริ่มต้นจากบทความของ MIT Tech Review ที่พูดถึงการใช้ LLM บนอุปกรณ์ของตนเองในสถานการณ์ฉุกเฉิน และมีคนกล่าวว่า LLM ก็เหมือน "Wikipedia แบบบีบอัดและผิด ๆ หน่อย ๆ" บน USB เขาจึงทดลองเปรียบเทียบ “ขนาดไฟล์” ของโมเดล LLM จากห้องสมุด Ollama ที่สามารถใช้บนเครื่องทั่วไป กับ “Wikipedia ออฟไลน์” จาก Kiwix ซึ่งไม่มีภาพ เพื่อให้เปรียบเทียบได้ใกล้เคียงขึ้น 📊 ผลลัพธ์พบว่า: - Wikipedia เวอร์ชัน 50K บทความยอดนิยม (Best of Wikipedia) มีขนาด 1.93 GB - ขณะที่โมเดล Llama 3.2 ขนาด 3B มีขนาด 2.0 GB — แทบเท่ากัน! - Wikipedia ฉบับเต็มมีขนาด 57.18 GB ซึ่งใหญ่กว่าโมเดล LLM ขนาด 32B (ประมาณ 20 GB) ไปมาก ผู้เขียนชี้ว่าการเปรียบเทียบนี้ไม่แม่นยำนัก เพราะทั้งสองใช้คนละเทคโนโลยี คนละวัตถุประสงค์ — แต่ก็ชวนคิดว่า "แหล่งความรู้แบบไหน" ที่เราควรเลือกเก็บไว้ในโลกที่ไม่มีอินเทอร์เน็ต นอกจากนี้ยังเตือนว่า: - LLM ต้องใช้ RAM และ CPU มากกว่า Wikipedia ออฟไลน์ - Wikipedia อาจรันบนโน้ตบุ๊กรุ่นเก่าได้ง่ายกว่า - ความสามารถของ LLM ขึ้นกับว่าเราเลือก “ขนาด” และ “การเทรน” ที่เหมาะแค่ไหน สุดท้ายผู้เขียนสรุปว่า บางทีควรโหลดไว้ทั้งคู่เลยก็ได้ 😊 https://evanhahn.com/local-llms-versus-offline-wikipedia/
    1 Comments 0 Shares 192 Views 0 Reviews
More Results