• ระวังภัยเงียบ! รู้จัก Account Takeover (ATO) และวิธีป้องกันก่อนข้อมูลคุณจะถูกยึดครอง

    การยึดครองบัญชีผู้ใช้ (Account Takeover หรือ ATO) คือภัยไซเบอร์ที่กำลังระบาดอย่างรวดเร็ว โดยในปี 2023 มีความเสียหายทั่วโลกจาก ATO สูงถึง 13 พันล้านดอลลาร์ และเพิ่มขึ้นกว่า 354% ต่อปี

    ATO คือการที่แฮกเกอร์สามารถเข้าควบคุมบัญชีผู้ใช้โดยไม่ต้องใช้วิธีเจาะระบบแบบรุนแรง แต่ใช้การหลอกลวงและช่องโหว่พฤติกรรม เช่น การใช้ข้อมูลจากการรั่วไหล การหลอกถามรหัสผ่าน หรือการใช้มัลแวร์เพื่อดักจับข้อมูล

    เมื่อบัญชีถูกยึด แฮกเกอร์สามารถใช้เพื่อ:
    เข้าถึงระบบภายในองค์กร
    ขายข้อมูลในตลาดมืด
    ส่งอีเมลฟิชชิ่งจากบัญชีที่ดูน่าเชื่อถือ
    ทำธุรกรรมทางการเงินหรือหลอกลวงผู้อื่น

    กลุ่มเป้าหมายหลัก ได้แก่ ธนาคาร, แพลตฟอร์มคริปโต, อีคอมเมิร์ซ, โรงพยาบาล, บริษัทเทคโนโลยี และมหาวิทยาลัย โดยเฉพาะบัญชีที่มีสิทธิ์เข้าถึงสูงหรือมีข้อมูลสำคัญ

    ความหมายของ Account Takeover (ATO)
    การที่ผู้ไม่หวังดีเข้าควบคุมบัญชีผู้ใช้โดยไม่ได้รับอนุญาต
    ใช้การหลอกลวงมากกว่าการเจาะระบบโดยตรง

    ความเสียหายจาก ATO
    ความเสียหายทางการเงินสูงถึง 13 พันล้านดอลลาร์ในปี 2023
    ส่งผลต่อชื่อเสียงและความเชื่อมั่นขององค์กร
    อาจนำไปสู่การโจมตีอื่น ๆ เช่น ransomware หรือการจารกรรมข้อมูล

    กลุ่มเป้าหมายที่เสี่ยง
    ธนาคาร, แพลตฟอร์มคริปโต, อีคอมเมิร์ซ, โรงพยาบาล, บริษัท SaaS, มหาวิทยาลัย
    บัญชีที่มีข้อมูลส่วนตัวหรือสิทธิ์เข้าถึงสูง

    วิธีการโจมตี
    ใช้ข้อมูลจากการรั่วไหล
    หลอกถามรหัสผ่านผ่าน vishing, smishing, pretexting
    ใช้มัลแวร์ เช่น Emotet หรือ TrickBot ใช้เทคนิค credential stuffing, password spraying, session hijacking, SIM swapping

    วิธีป้องกัน
    ใช้ Multi-Factor Authentication (MFA) ที่ปลอดภัย เช่น hardware token หรือ TOTP
    ตั้งรหัสผ่านที่ซับซ้อนและไม่ซ้ำกัน
    ใช้ Zero Trust Architecture เพื่อลดสิทธิ์การเข้าถึง
    ตรวจสอบพฤติกรรมการเข้าสู่ระบบอย่างสม่ำเสมอ
    ใช้การยืนยันตัวตนด้วยไบโอเมตริกซ์และระบบตรวจจับการมีชีวิต (liveness detection)

    https://hackread.com/account-takeover-what-is-it-how-to-fight-it/
    🔐 ระวังภัยเงียบ! รู้จัก Account Takeover (ATO) และวิธีป้องกันก่อนข้อมูลคุณจะถูกยึดครอง การยึดครองบัญชีผู้ใช้ (Account Takeover หรือ ATO) คือภัยไซเบอร์ที่กำลังระบาดอย่างรวดเร็ว โดยในปี 2023 มีความเสียหายทั่วโลกจาก ATO สูงถึง 13 พันล้านดอลลาร์ และเพิ่มขึ้นกว่า 354% ต่อปี ATO คือการที่แฮกเกอร์สามารถเข้าควบคุมบัญชีผู้ใช้โดยไม่ต้องใช้วิธีเจาะระบบแบบรุนแรง แต่ใช้การหลอกลวงและช่องโหว่พฤติกรรม เช่น การใช้ข้อมูลจากการรั่วไหล การหลอกถามรหัสผ่าน หรือการใช้มัลแวร์เพื่อดักจับข้อมูล เมื่อบัญชีถูกยึด แฮกเกอร์สามารถใช้เพื่อ: 🕵️‍♀️ เข้าถึงระบบภายในองค์กร 🕵️‍♀️ ขายข้อมูลในตลาดมืด 🕵️‍♀️ ส่งอีเมลฟิชชิ่งจากบัญชีที่ดูน่าเชื่อถือ 🕵️‍♀️ ทำธุรกรรมทางการเงินหรือหลอกลวงผู้อื่น กลุ่มเป้าหมายหลัก ได้แก่ ธนาคาร, แพลตฟอร์มคริปโต, อีคอมเมิร์ซ, โรงพยาบาล, บริษัทเทคโนโลยี และมหาวิทยาลัย โดยเฉพาะบัญชีที่มีสิทธิ์เข้าถึงสูงหรือมีข้อมูลสำคัญ ✅ ความหมายของ Account Takeover (ATO) ➡️ การที่ผู้ไม่หวังดีเข้าควบคุมบัญชีผู้ใช้โดยไม่ได้รับอนุญาต ➡️ ใช้การหลอกลวงมากกว่าการเจาะระบบโดยตรง ✅ ความเสียหายจาก ATO ➡️ ความเสียหายทางการเงินสูงถึง 13 พันล้านดอลลาร์ในปี 2023 ➡️ ส่งผลต่อชื่อเสียงและความเชื่อมั่นขององค์กร ➡️ อาจนำไปสู่การโจมตีอื่น ๆ เช่น ransomware หรือการจารกรรมข้อมูล ✅ กลุ่มเป้าหมายที่เสี่ยง ➡️ ธนาคาร, แพลตฟอร์มคริปโต, อีคอมเมิร์ซ, โรงพยาบาล, บริษัท SaaS, มหาวิทยาลัย ➡️ บัญชีที่มีข้อมูลส่วนตัวหรือสิทธิ์เข้าถึงสูง ✅ วิธีการโจมตี ➡️ ใช้ข้อมูลจากการรั่วไหล ➡️ หลอกถามรหัสผ่านผ่าน vishing, smishing, pretexting ➡️ ใช้มัลแวร์ เช่น Emotet หรือ TrickBot ➡️ ใช้เทคนิค credential stuffing, password spraying, session hijacking, SIM swapping ✅ วิธีป้องกัน ➡️ ใช้ Multi-Factor Authentication (MFA) ที่ปลอดภัย เช่น hardware token หรือ TOTP ➡️ ตั้งรหัสผ่านที่ซับซ้อนและไม่ซ้ำกัน ➡️ ใช้ Zero Trust Architecture เพื่อลดสิทธิ์การเข้าถึง ➡️ ตรวจสอบพฤติกรรมการเข้าสู่ระบบอย่างสม่ำเสมอ ➡️ ใช้การยืนยันตัวตนด้วยไบโอเมตริกซ์และระบบตรวจจับการมีชีวิต (liveness detection) https://hackread.com/account-takeover-what-is-it-how-to-fight-it/
    HACKREAD.COM
    Account Takeover: What Is It and How to Fight It
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 58 มุมมอง 0 รีวิว
  • “อย่าเก็บรหัสผ่านไว้ในเบราว์เซอร์” — คำเตือนจากผู้เชี่ยวชาญด้านความปลอดภัย

    หลายคนอาจรู้สึกสะดวกเมื่อเบราว์เซอร์เสนอให้ “บันทึกรหัสผ่านไว้ใช้ครั้งหน้า” แต่ความสะดวกนั้นอาจแลกมาด้วยความเสี่ยงที่คุณไม่ทันระวัง บทความจาก SlashGear ได้ชี้ให้เห็นถึงข้อเสียของการใช้เบราว์เซอร์เป็นตัวจัดการรหัสผ่าน พร้อมแนะนำทางเลือกที่ปลอดภัยกว่าอย่างการใช้ password manager โดยเฉพาะแบบ dedicated

    เบราว์เซอร์จัดเก็บรหัสผ่านในโฟลเดอร์โปรไฟล์ท้องถิ่น
    แล้วซิงก์ไปยังเซิร์ฟเวอร์ของ Google หรือ Microsoft โดยไม่มีการเข้ารหัสแบบ end-to-end

    ไม่มีระบบ vault ที่เข้ารหัสลับแบบเต็มรูปแบบ
    ทำให้รหัสผ่านเสี่ยงต่อการถูกเข้าถึงหากบัญชีถูกแฮกหรือมีมัลแวร์

    เบราว์เซอร์อาจ autofill รหัสผ่านในเว็บไซต์ปลอม
    เสี่ยงต่อการถูกโจมตีแบบ phishing

    Dedicated password manager ใช้การเข้ารหัสระดับสูง
    เช่น AES-256 และ zero-knowledge architecture ที่ปลอดภัยกว่า

    ตัวจัดการรหัสผ่านแบบเฉพาะมีระบบแจ้งเตือนการรั่วไหล
    ช่วยให้ผู้ใช้รู้ทันเมื่อข้อมูลถูกละเมิด

    Apple Keychain ใช้ end-to-end encryption
    แม้จะปลอดภัยกว่าเบราว์เซอร์ทั่วไป แต่ยังไม่เทียบเท่า dedicated password manager

    Google Password Manager มีฟีเจอร์ on-device encryption
    ผู้ใช้สามารถเลือกให้รหัสผ่านถูกเข้ารหัสเฉพาะในอุปกรณ์ของตน

    หากบัญชี Google ถูกล็อกหรือสูญหาย อาจสูญเสียรหัสผ่านทั้งหมด
    เพราะการเข้ารหัสผูกกับบัญชีและอุปกรณ์

    เบราว์เซอร์อาจ autofill รหัสผ่านในหน้าเว็บปลอม
    ทำให้ผู้ใช้ตกเป็นเหยื่อ phishing ได้ง่าย

    มัลแวร์สามารถขโมยรหัสผ่านจากเบราว์เซอร์ได้ง่ายกว่า
    เช่น RedLine Stealer และ Raccoon ที่เจาะข้อมูลจาก browser storage

    https://www.slashgear.com/2010389/you-shouldnt-store-passwords-in-web-browser/
    🔐 “อย่าเก็บรหัสผ่านไว้ในเบราว์เซอร์” — คำเตือนจากผู้เชี่ยวชาญด้านความปลอดภัย หลายคนอาจรู้สึกสะดวกเมื่อเบราว์เซอร์เสนอให้ “บันทึกรหัสผ่านไว้ใช้ครั้งหน้า” แต่ความสะดวกนั้นอาจแลกมาด้วยความเสี่ยงที่คุณไม่ทันระวัง บทความจาก SlashGear ได้ชี้ให้เห็นถึงข้อเสียของการใช้เบราว์เซอร์เป็นตัวจัดการรหัสผ่าน พร้อมแนะนำทางเลือกที่ปลอดภัยกว่าอย่างการใช้ password manager โดยเฉพาะแบบ dedicated ✅ เบราว์เซอร์จัดเก็บรหัสผ่านในโฟลเดอร์โปรไฟล์ท้องถิ่น ➡️ แล้วซิงก์ไปยังเซิร์ฟเวอร์ของ Google หรือ Microsoft โดยไม่มีการเข้ารหัสแบบ end-to-end ✅ ไม่มีระบบ vault ที่เข้ารหัสลับแบบเต็มรูปแบบ ➡️ ทำให้รหัสผ่านเสี่ยงต่อการถูกเข้าถึงหากบัญชีถูกแฮกหรือมีมัลแวร์ ✅ เบราว์เซอร์อาจ autofill รหัสผ่านในเว็บไซต์ปลอม ➡️ เสี่ยงต่อการถูกโจมตีแบบ phishing ✅ Dedicated password manager ใช้การเข้ารหัสระดับสูง ➡️ เช่น AES-256 และ zero-knowledge architecture ที่ปลอดภัยกว่า ✅ ตัวจัดการรหัสผ่านแบบเฉพาะมีระบบแจ้งเตือนการรั่วไหล ➡️ ช่วยให้ผู้ใช้รู้ทันเมื่อข้อมูลถูกละเมิด ✅ Apple Keychain ใช้ end-to-end encryption ➡️ แม้จะปลอดภัยกว่าเบราว์เซอร์ทั่วไป แต่ยังไม่เทียบเท่า dedicated password manager ✅ Google Password Manager มีฟีเจอร์ on-device encryption ➡️ ผู้ใช้สามารถเลือกให้รหัสผ่านถูกเข้ารหัสเฉพาะในอุปกรณ์ของตน ‼️ หากบัญชี Google ถูกล็อกหรือสูญหาย อาจสูญเสียรหัสผ่านทั้งหมด ⛔ เพราะการเข้ารหัสผูกกับบัญชีและอุปกรณ์ ‼️ เบราว์เซอร์อาจ autofill รหัสผ่านในหน้าเว็บปลอม ⛔ ทำให้ผู้ใช้ตกเป็นเหยื่อ phishing ได้ง่าย ‼️ มัลแวร์สามารถขโมยรหัสผ่านจากเบราว์เซอร์ได้ง่ายกว่า ⛔ เช่น RedLine Stealer และ Raccoon ที่เจาะข้อมูลจาก browser storage https://www.slashgear.com/2010389/you-shouldnt-store-passwords-in-web-browser/
    WWW.SLASHGEAR.COM
    You Shouldn't Store Passwords In Your Web Browser — Here's Why - SlashGear
    It's easy to think that the password managers your web browser recommends you to use are secure enough, but it's not as simple as you might imagine.
    0 ความคิดเห็น 0 การแบ่งปัน 108 มุมมอง 0 รีวิว
  • AMD เปิดตัว Sound Wave APU บนสถาปัตยกรรม ARM ผลิตด้วย TSMC 3nm เตรียมลุยตลาดมือถือและ Windows on ARM!

    AMD ก้าวเข้าสู่ตลาด ARM อย่างเป็นทางการด้วย APU รุ่นใหม่ชื่อ “Sound Wave” ที่ใช้สถาปัตยกรรม ARM64 และผลิตด้วยเทคโนโลยี TSMC 3nm โดยมีเป้าหมายสำหรับอุปกรณ์พกพา, โน้ตบุ๊ก Windows on ARM และอุปกรณ์ edge AI

    ข้อมูลจาก customs manifest และแหล่งข่าววงในเผยว่า AMD กำลังทดสอบ APU รุ่นใหม่ชื่อ “Sound Wave” ซึ่งใช้สถาปัตยกรรม ARM64 แทน x86 ที่ AMD ใช้มานานหลายทศวรรษ โดยผลิตบนเทคโนโลยี TSMC 3nm N3B ซึ่งเป็นรุ่นเดียวกับที่ใช้ใน Apple M3 และ Snapdragon X Elite

    จุดเด่นของ Sound Wave APU:
    ใช้ ARM64 architecture: เป็นครั้งแรกที่ AMD พัฒนา APU บน ARM แทน x86
    ผลิตด้วย TSMC 3nm N3B: เทคโนโลยีระดับสูงที่ให้ประสิทธิภาพต่อวัตต์ดีเยี่ยม
    รองรับ Windows on ARM: คาดว่าอาจใช้ในโน้ตบุ๊ก ultrathin หรือ Surface รุ่นใหม่
    มี NPU สำหรับ AI: รองรับฟีเจอร์ AI PC เต็มรูปแบบ เช่น Copilot และ LLM inference
    อาจมี iGPU Radeon รุ่นใหม่: เพื่อรองรับงานกราฟิกและเกมเบื้องต้น

    การเข้าสู่ตลาด ARM ของ AMD ถือเป็นการตอบสนองต่อแนวโน้มที่ Microsoft และ Qualcomm กำลังผลักดัน Windows on ARM อย่างหนัก โดยเฉพาะในกลุ่ม ultrabook และอุปกรณ์ edge computing ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ

    นี่คือก้าวสำคัญของ AMD ที่อาจเปลี่ยนโฉมตลาดโน้ตบุ๊กและอุปกรณ์พกพาในอีกไม่กี่ปีข้างหน้า และหาก Sound Wave APU ทำได้ดี… เราอาจได้เห็น AMD ในสมาร์ทโฟนหรือแท็บเล็ตในอนาคตก็เป็นได้.

    รายละเอียดของ Sound Wave APU
    ใช้สถาปัตยกรรม ARM64 แทน x86
    ผลิตด้วย TSMC 3nm N3B node
    รองรับ Windows on ARM และ edge AI
    มี NPU สำหรับงาน AI และ inference
    อาจมี iGPU Radeon สำหรับงานกราฟิกเบื้องต้น

    บริบทของตลาด
    Microsoft ผลักดัน Windows on ARM อย่างจริงจัง
    Qualcomm เปิดตัว Snapdragon X Elite สำหรับโน้ตบุ๊ก
    Apple ใช้ ARM มานานแล้วใน Mac และ iPad
    AMD ต้องปรับตัวเพื่อแข่งขันในตลาด ultrathin และ low-power

    คำเตือนจากข่าวนี้
    ยังไม่มีข้อมูลทางการจาก AMD เกี่ยวกับสเปกเต็มหรือวันเปิดตัว
    การเข้าสู่ตลาด ARM ต้องใช้เวลาในการพัฒนา ecosystem และ driver
    ต้องพิสูจน์ว่า Sound Wave APU จะสู้กับ Apple M3 และ Snapdragon X Elite ได้จริง

    https://www.guru3d.com/story/amd-enters-arm-market-with-sound-wave-apu-built-on-tsmc-3nm-process/
    📱🚀 AMD เปิดตัว Sound Wave APU บนสถาปัตยกรรม ARM ผลิตด้วย TSMC 3nm เตรียมลุยตลาดมือถือและ Windows on ARM! AMD ก้าวเข้าสู่ตลาด ARM อย่างเป็นทางการด้วย APU รุ่นใหม่ชื่อ “Sound Wave” ที่ใช้สถาปัตยกรรม ARM64 และผลิตด้วยเทคโนโลยี TSMC 3nm โดยมีเป้าหมายสำหรับอุปกรณ์พกพา, โน้ตบุ๊ก Windows on ARM และอุปกรณ์ edge AI ข้อมูลจาก customs manifest และแหล่งข่าววงในเผยว่า AMD กำลังทดสอบ APU รุ่นใหม่ชื่อ “Sound Wave” ซึ่งใช้สถาปัตยกรรม ARM64 แทน x86 ที่ AMD ใช้มานานหลายทศวรรษ โดยผลิตบนเทคโนโลยี TSMC 3nm N3B ซึ่งเป็นรุ่นเดียวกับที่ใช้ใน Apple M3 และ Snapdragon X Elite จุดเด่นของ Sound Wave APU: 🎗️ ใช้ ARM64 architecture: เป็นครั้งแรกที่ AMD พัฒนา APU บน ARM แทน x86 🎗️ ผลิตด้วย TSMC 3nm N3B: เทคโนโลยีระดับสูงที่ให้ประสิทธิภาพต่อวัตต์ดีเยี่ยม 🎗️ รองรับ Windows on ARM: คาดว่าอาจใช้ในโน้ตบุ๊ก ultrathin หรือ Surface รุ่นใหม่ 🎗️ มี NPU สำหรับ AI: รองรับฟีเจอร์ AI PC เต็มรูปแบบ เช่น Copilot และ LLM inference 🎗️ อาจมี iGPU Radeon รุ่นใหม่: เพื่อรองรับงานกราฟิกและเกมเบื้องต้น การเข้าสู่ตลาด ARM ของ AMD ถือเป็นการตอบสนองต่อแนวโน้มที่ Microsoft และ Qualcomm กำลังผลักดัน Windows on ARM อย่างหนัก โดยเฉพาะในกลุ่ม ultrabook และอุปกรณ์ edge computing ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ นี่คือก้าวสำคัญของ AMD ที่อาจเปลี่ยนโฉมตลาดโน้ตบุ๊กและอุปกรณ์พกพาในอีกไม่กี่ปีข้างหน้า และหาก Sound Wave APU ทำได้ดี… เราอาจได้เห็น AMD ในสมาร์ทโฟนหรือแท็บเล็ตในอนาคตก็เป็นได้. ✅ รายละเอียดของ Sound Wave APU ➡️ ใช้สถาปัตยกรรม ARM64 แทน x86 ➡️ ผลิตด้วย TSMC 3nm N3B node ➡️ รองรับ Windows on ARM และ edge AI ➡️ มี NPU สำหรับงาน AI และ inference ➡️ อาจมี iGPU Radeon สำหรับงานกราฟิกเบื้องต้น ✅ บริบทของตลาด ➡️ Microsoft ผลักดัน Windows on ARM อย่างจริงจัง ➡️ Qualcomm เปิดตัว Snapdragon X Elite สำหรับโน้ตบุ๊ก ➡️ Apple ใช้ ARM มานานแล้วใน Mac และ iPad ➡️ AMD ต้องปรับตัวเพื่อแข่งขันในตลาด ultrathin และ low-power ‼️ คำเตือนจากข่าวนี้ ⛔ ยังไม่มีข้อมูลทางการจาก AMD เกี่ยวกับสเปกเต็มหรือวันเปิดตัว ⛔ การเข้าสู่ตลาด ARM ต้องใช้เวลาในการพัฒนา ecosystem และ driver ⛔ ต้องพิสูจน์ว่า Sound Wave APU จะสู้กับ Apple M3 และ Snapdragon X Elite ได้จริง https://www.guru3d.com/story/amd-enters-arm-market-with-sound-wave-apu-built-on-tsmc-3nm-process/
    WWW.GURU3D.COM
    AMD Could Enter ARM Market with Sound Wave APU Built on TSMC 3nm Process
    AMD is expanding its processor portfolio beyond the x86 architecture with its first ARM-based APU, internally known as “Sound Wave. ” The chip’s existence was uncovered through customs import records, confirming several details about its design and purpose.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • Google แนะนำแนวทาง “Functional Core, Imperative Shell” เพื่อเขียนโค้ดให้สะอาด ทดสอบง่าย และปรับขยายได้

    บทความจาก Google Testing Blog เสนอแนวคิดการแยกโค้ดออกเป็นสองส่วน: Functional Core ที่เป็นฟังก์ชันบริสุทธิ์ (pure functions) และ Imperative Shell ที่จัดการ side effects เช่น I/O, database, หรือ network — เพื่อให้โค้ดมีความสามารถในการทดสอบและดูแลรักษาได้ดีขึ้น.

    แนวคิดหลักจากบทความ

    Functional Core คือส่วนที่ไม่มี side effects
    ประกอบด้วยฟังก์ชันที่รับข้อมูลเข้าและคืนผลลัพธ์โดยไม่เปลี่ยนแปลงสถานะภายนอก
    สามารถทดสอบได้ง่ายและนำกลับมาใช้ซ้ำได้

    Imperative Shell คือส่วนที่จัดการกับโลกภายนอก
    เช่น การส่งอีเมล, อ่านข้อมูลจาก database, หรือเขียนไฟล์
    ใช้ผลลัพธ์จาก Functional Core เพื่อดำเนินการจริง

    ตัวอย่างจากบทความ: การส่งอีเมลแจ้งเตือนผู้ใช้หมดอายุ
    โค้ดเดิมผสม logic กับ side effects ทำให้ทดสอบยาก
    โค้ดใหม่แยก logic ออกมาเป็นฟังก์ชัน getExpiredUsers() และ generateExpiryEmails()
    Shell ใช้ฟังก์ชันเหล่านี้เพื่อส่งอีเมลจริงผ่าน email.bulkSend(...)

    ข้อดีของแนวทางนี้
    ทดสอบง่าย: ไม่ต้อง mock database หรือ network
    ปรับขยายง่าย: เพิ่มฟีเจอร์ใหม่โดยเขียนฟังก์ชันใหม่ใน core
    ดูแลรักษาง่าย

    ตัวอย่างโค้ดเปรียบเทียบ

    ก่อน (ผสม logic กับ side effects):

    function sendUserExpiryEmail() {
    for (const user of db.getUsers()) {
    if (user.subscriptionEndDate > Date.now()) continue;
    if (user.isFreeTrial) continue;
    email.send(user.email, "Your account has expired " + user.name + ".");
    }
    }

    หลัง (แยก core และ shell):

    function getExpiredUsers(users, cutoff) {
    return users.filter(user => user.subscriptionEndDate <= cutoff && !user.isFreeTrial);
    }

    function generateExpiryEmails(users) {
    return users.map(user => [user.email, "Your account has expired " + user.name + "."]);
    }

    email.bulkSend(generateExpiryEmails(getExpiredUsers(db.getUsers(), Date.now())));

    การใช้แนวทาง Functional Core, Imperative Shell ช่วยให้โค้ดมีโครงสร้างที่ชัดเจนและยืดหยุ่น — เหมาะสำหรับทีมที่ต้องการลดความซับซ้อนและเพิ่มคุณภาพในการทดสอบและดูแลระบบในระยะยาว

    สาระเพิ่มเติมจากแนวทาง functional programming
    แนวคิดนี้คล้ายกับ “Hexagonal Architecture” หรือ “Clean Architecture” ที่แยก domain logic ออกจาก infrastructure
    ภาษา functional เช่น Haskell, F#, หรือ Elm ใช้แนวทางนี้เป็นหลัก
    ใน JavaScript/TypeScript ก็สามารถนำไปใช้ได้ โดยใช้ pure functions ร่วมกับ async shell
    ช่วยลดการใช้ mock ใน unit test เพราะ core ไม่ต้องพึ่ง database หรือ network

    https://testing.googleblog.com/2025/10/simplify-your-code-functional-core.html
    🧼🧠 Google แนะนำแนวทาง “Functional Core, Imperative Shell” เพื่อเขียนโค้ดให้สะอาด ทดสอบง่าย และปรับขยายได้ บทความจาก Google Testing Blog เสนอแนวคิดการแยกโค้ดออกเป็นสองส่วน: Functional Core ที่เป็นฟังก์ชันบริสุทธิ์ (pure functions) และ Imperative Shell ที่จัดการ side effects เช่น I/O, database, หรือ network — เพื่อให้โค้ดมีความสามารถในการทดสอบและดูแลรักษาได้ดีขึ้น. ✅ แนวคิดหลักจากบทความ ✅ Functional Core คือส่วนที่ไม่มี side effects ➡️ ประกอบด้วยฟังก์ชันที่รับข้อมูลเข้าและคืนผลลัพธ์โดยไม่เปลี่ยนแปลงสถานะภายนอก ➡️ สามารถทดสอบได้ง่ายและนำกลับมาใช้ซ้ำได้ ✅ Imperative Shell คือส่วนที่จัดการกับโลกภายนอก ➡️ เช่น การส่งอีเมล, อ่านข้อมูลจาก database, หรือเขียนไฟล์ ➡️ ใช้ผลลัพธ์จาก Functional Core เพื่อดำเนินการจริง ✅ ตัวอย่างจากบทความ: การส่งอีเมลแจ้งเตือนผู้ใช้หมดอายุ ➡️ โค้ดเดิมผสม logic กับ side effects ทำให้ทดสอบยาก ➡️ โค้ดใหม่แยก logic ออกมาเป็นฟังก์ชัน getExpiredUsers() และ generateExpiryEmails() ➡️ Shell ใช้ฟังก์ชันเหล่านี้เพื่อส่งอีเมลจริงผ่าน email.bulkSend(...) ✅ ข้อดีของแนวทางนี้ ➡️ ทดสอบง่าย: ไม่ต้อง mock database หรือ network ➡️ ปรับขยายง่าย: เพิ่มฟีเจอร์ใหม่โดยเขียนฟังก์ชันใหม่ใน core ➡️ ดูแลรักษาง่าย 🛠️ ตัวอย่างโค้ดเปรียบเทียบ 🔖 ก่อน (ผสม logic กับ side effects): function sendUserExpiryEmail() { for (const user of db.getUsers()) { if (user.subscriptionEndDate > Date.now()) continue; if (user.isFreeTrial) continue; email.send(user.email, "Your account has expired " + user.name + "."); } } 🔖 หลัง (แยก core และ shell): function getExpiredUsers(users, cutoff) { return users.filter(user => user.subscriptionEndDate <= cutoff && !user.isFreeTrial); } function generateExpiryEmails(users) { return users.map(user => [user.email, "Your account has expired " + user.name + "."]); } email.bulkSend(generateExpiryEmails(getExpiredUsers(db.getUsers(), Date.now()))); การใช้แนวทาง Functional Core, Imperative Shell ช่วยให้โค้ดมีโครงสร้างที่ชัดเจนและยืดหยุ่น — เหมาะสำหรับทีมที่ต้องการลดความซับซ้อนและเพิ่มคุณภาพในการทดสอบและดูแลระบบในระยะยาว ✅ สาระเพิ่มเติมจากแนวทาง functional programming ➡️ แนวคิดนี้คล้ายกับ “Hexagonal Architecture” หรือ “Clean Architecture” ที่แยก domain logic ออกจาก infrastructure ➡️ ภาษา functional เช่น Haskell, F#, หรือ Elm ใช้แนวทางนี้เป็นหลัก ➡️ ใน JavaScript/TypeScript ก็สามารถนำไปใช้ได้ โดยใช้ pure functions ร่วมกับ async shell ➡️ ช่วยลดการใช้ mock ใน unit test เพราะ core ไม่ต้องพึ่ง database หรือ network https://testing.googleblog.com/2025/10/simplify-your-code-functional-core.html
    TESTING.GOOGLEBLOG.COM
    Simplify Your Code: Functional Core, Imperative Shell
    This article was adapted from a Google Tech on the Toilet (TotT) episode. You can download a printer-friendly version of this TotT epis...
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • Tenstorrent เปิดตัว Open Chiplet Atlas Ecosystem ปฏิวัติการออกแบบชิปแบบเปิดและเชื่อมต่อได้ทุกค่าย

    Tenstorrent ประกาศเปิดตัว Open Chiplet Atlas Ecosystem (OCA) ในงานที่ซานฟรานซิสโก โดยมีเป้าหมายเพื่อ “เปิดเสรี” การออกแบบชิปแบบ chiplet ให้สามารถเชื่อมต่อกันได้อย่างอิสระ ลดต้นทุน และเร่งนวัตกรรมในอุตสาหกรรมเซมิคอนดักเตอร์

    แนวคิดหลักของ OCA Ecosystem

    OCA ไม่ใช่แค่แพลตฟอร์มใหม่ แต่เป็น “มาตรฐานเปิด” ที่ครอบคลุมทุกชั้นของการออกแบบ chiplet ตั้งแต่ระดับกายภาพไปจนถึงซอฟต์แวร์ โดยมี 3 เสาหลักสำคัญ:
    Architecture: สถาปัตยกรรมเปิดที่กำหนดมาตรฐานการเชื่อมต่อ chiplet ใน 5 ชั้น ได้แก่ Physical, Transport, Protocol, System และ Software
    Harness: เฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้นักออกแบบสามารถสร้าง chiplet ที่เชื่อมต่อได้ทันที โดยไม่ต้องพัฒนา logic ซ้ำ
    Compliance: โปรแกรมตรวจสอบความเข้ากันได้ทั้งก่อนและหลังการผลิต รวมถึง “Golden Chiplet” สำหรับทดสอบ และกิจกรรม “Plugfests” เพื่อทดลองใช้งานร่วมกัน

    จุดเด่นของ OCA Ecosystem
    ลดต้นทุนการพัฒนาและเร่งเวลาออกสู่ตลาด
    รองรับการออกแบบ chiplet แบบ multivendor โดยไม่ติด vendor lock-in
    เหมาะกับผลิตภัณฑ์หลากหลาย เช่น AI accelerators, ยานยนต์, และดาต้าเซ็นเตอร์

    ความร่วมมือระดับโลก
    มีพันธมิตรมากกว่า 50 รายจากบริษัทเซมิคอนดักเตอร์และมหาวิทยาลัยชั้นนำ
    ตัวอย่างเช่น LG, Rapidus, Axelera AI, BSC, ITRI, และมหาวิทยาลัยโตเกียว
    สนับสนุนโดยนักวิจัยจาก Oxford, HKUST, UC Riverside และ Shanghai Jiao Tong

    ความเห็นจากผู้นำอุตสาหกรรม
    BOS Semiconductors เน้นความสำคัญของความเข้ากันได้ระยะยาวในอุตสาหกรรมยานยนต์
    BSC ชี้ว่า OCA จะช่วยให้เกิดความหลากหลายในการประมวลผล
    Rapidus มองว่า OCA จะช่วยลดความซับซ้อนในการผลิตและเปิดโอกาสให้ลูกค้าเลือก chiplet จากหลายค่าย

    https://www.techpowerup.com/342293/tenstorrent-announces-open-chiplet-atlas-ecosystem
    🧩🔗 Tenstorrent เปิดตัว Open Chiplet Atlas Ecosystem ปฏิวัติการออกแบบชิปแบบเปิดและเชื่อมต่อได้ทุกค่าย Tenstorrent ประกาศเปิดตัว Open Chiplet Atlas Ecosystem (OCA) ในงานที่ซานฟรานซิสโก โดยมีเป้าหมายเพื่อ “เปิดเสรี” การออกแบบชิปแบบ chiplet ให้สามารถเชื่อมต่อกันได้อย่างอิสระ ลดต้นทุน และเร่งนวัตกรรมในอุตสาหกรรมเซมิคอนดักเตอร์ 🧠 แนวคิดหลักของ OCA Ecosystem OCA ไม่ใช่แค่แพลตฟอร์มใหม่ แต่เป็น “มาตรฐานเปิด” ที่ครอบคลุมทุกชั้นของการออกแบบ chiplet ตั้งแต่ระดับกายภาพไปจนถึงซอฟต์แวร์ โดยมี 3 เสาหลักสำคัญ: 💠 Architecture: สถาปัตยกรรมเปิดที่กำหนดมาตรฐานการเชื่อมต่อ chiplet ใน 5 ชั้น ได้แก่ Physical, Transport, Protocol, System และ Software 💠 Harness: เฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้นักออกแบบสามารถสร้าง chiplet ที่เชื่อมต่อได้ทันที โดยไม่ต้องพัฒนา logic ซ้ำ 💠 Compliance: โปรแกรมตรวจสอบความเข้ากันได้ทั้งก่อนและหลังการผลิต รวมถึง “Golden Chiplet” สำหรับทดสอบ และกิจกรรม “Plugfests” เพื่อทดลองใช้งานร่วมกัน ✅ จุดเด่นของ OCA Ecosystem ➡️ ลดต้นทุนการพัฒนาและเร่งเวลาออกสู่ตลาด ➡️ รองรับการออกแบบ chiplet แบบ multivendor โดยไม่ติด vendor lock-in ➡️ เหมาะกับผลิตภัณฑ์หลากหลาย เช่น AI accelerators, ยานยนต์, และดาต้าเซ็นเตอร์ ✅ ความร่วมมือระดับโลก ➡️ มีพันธมิตรมากกว่า 50 รายจากบริษัทเซมิคอนดักเตอร์และมหาวิทยาลัยชั้นนำ ➡️ ตัวอย่างเช่น LG, Rapidus, Axelera AI, BSC, ITRI, และมหาวิทยาลัยโตเกียว ➡️ สนับสนุนโดยนักวิจัยจาก Oxford, HKUST, UC Riverside และ Shanghai Jiao Tong ✅ ความเห็นจากผู้นำอุตสาหกรรม ➡️ BOS Semiconductors เน้นความสำคัญของความเข้ากันได้ระยะยาวในอุตสาหกรรมยานยนต์ ➡️ BSC ชี้ว่า OCA จะช่วยให้เกิดความหลากหลายในการประมวลผล ➡️ Rapidus มองว่า OCA จะช่วยลดความซับซ้อนในการผลิตและเปิดโอกาสให้ลูกค้าเลือก chiplet จากหลายค่าย https://www.techpowerup.com/342293/tenstorrent-announces-open-chiplet-atlas-ecosystem
    WWW.TECHPOWERUP.COM
    Tenstorrent Announces Open Chiplet Atlas Ecosystem
    Announced at their recent event in San Francisco, the OCA Ecosystem will democratize chip design, lower development costs, and accelerate innovation, enabling heterogeneous chiplets for plug-and-play interoperability. There are now more than 50 partners involved in the ecosystem, from leading semico...
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้

    Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น

    Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A

    Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake

    การเปิดตัวสถาปัตยกรรม Nova Lake
    เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake
    ออกแบบใหม่ทั้ง CPU และ GPU
    รองรับการประมวลผล AI และ edge computing
    ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm)

    การเปิดตัวชิป Panther Lake
    เป็นชิปรุ่นแรกในไลน์ Nova Lake
    เตรียมเปิดตัวภายในปีนี้
    ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel

    การอัปเกรดซอฟต์แวร์
    Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake
    เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing
    ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ

    ข้อควรระวังและความท้าทาย
    การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem
    ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake
    การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก
    การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel

    https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    ⚙️ Intel เตรียมเปิดตัว Nova Lake – สถาปัตยกรรมใหม่พร้อมซอฟต์แวร์อัปเกรดครั้งใหญ่ และชิป Panther Lake รุ่นแรกภายในปีนี้ Intel กำลังเตรียมเปิดตัวสถาปัตยกรรมใหม่ชื่อว่า “Nova Lake” ซึ่งจะเป็นก้าวสำคัญในยุคหลัง Meteor Lake และ Lunar Lake โดย Nova Lake จะมาพร้อมการออกแบบใหม่หมดทั้งฝั่ง CPU และ GPU รวมถึงการอัปเกรดซอฟต์แวร์ครั้งใหญ่เพื่อรองรับการประมวลผลแบบ AI และการใช้งานที่หลากหลายมากขึ้น Nova Lake จะใช้เทคโนโลยีการผลิต Intel 18A ซึ่งเป็นกระบวนการระดับ 1.8 นาโนเมตร และจะเริ่มใช้ในผลิตภัณฑ์ฝั่ง Client และ Server ตั้งแต่ปี 2026 เป็นต้นไป โดยจะมีการเปิดตัวชิป Panther Lake รุ่นแรกภายในปีนี้ ซึ่งเป็นการเริ่มต้นของไลน์ผลิตภัณฑ์ใหม่ที่ใช้เทคโนโลยี 18A Intel ยังเน้นการพัฒนา “ซอฟต์แวร์ที่ปรับแต่งสำหรับสถาปัตยกรรมใหม่” เพื่อให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่ โดยเฉพาะในด้าน AI, การประมวลผลแบบ edge และการใช้งานในระบบคลาวด์ ซึ่งจะเป็นหัวใจสำคัญของผลิตภัณฑ์ในยุค Nova Lake ✅ การเปิดตัวสถาปัตยกรรม Nova Lake ➡️ เป็นสถาปัตยกรรมใหม่หลัง Meteor Lake และ Lunar Lake ➡️ ออกแบบใหม่ทั้ง CPU และ GPU ➡️ รองรับการประมวลผล AI และ edge computing ➡️ ใช้เทคโนโลยีการผลิต Intel 18A (1.8nm) ✅ การเปิดตัวชิป Panther Lake ➡️ เป็นชิปรุ่นแรกในไลน์ Nova Lake ➡️ เตรียมเปิดตัวภายในปีนี้ ➡️ ใช้เทคโนโลยี 18A และรองรับซอฟต์แวร์ใหม่ของ Intel ✅ การอัปเกรดซอฟต์แวร์ ➡️ Intel พัฒนา software stack ใหม่เพื่อรองรับ Nova Lake ➡️ เน้นการใช้งานด้าน AI, คลาวด์ และ edge computing ➡️ ช่วยให้ฮาร์ดแวร์ทำงานได้เต็มประสิทธิภาพ ‼️ ข้อควรระวังและความท้าทาย ⛔ การเปลี่ยนสถาปัตยกรรมอาจต้องใช้เวลาในการปรับ ecosystem ⛔ ซอฟต์แวร์เก่าอาจไม่รองรับฟีเจอร์ใหม่ของ Nova Lake ⛔ การผลิตด้วยเทคโนโลยี 18A ต้องใช้ความแม่นยำสูงและต้นทุนมาก ⛔ การแข่งขันกับ AMD และ ARM ยังคงเป็นแรงกดดันต่อ Intel https://wccftech.com/intel-nova-lake-cpus-new-architecture-software-upgrades-first-panther-lake-skus-this-year-18a-next-three-client-server-products/
    WCCFTECH.COM
    Intel Nova Lake CPUs Bring New Architecture & Software Upgrades, First Panther Lake SKUs This Year, 18A To Cover At least Next-Three Client & Server Products
    Intel talked about its upcoming Panther Lake, Nova Lake, Coral Rapids CPUs, and its Foundry plans involving 18A & 14A during its Q3 call.
    0 ความคิดเห็น 0 การแบ่งปัน 161 มุมมอง 0 รีวิว
  • “Clonezilla Live 3.3.0-33 มาแล้ว! รองรับการโคลน MTD และ eMMC พร้อมเครื่องมือใหม่เพียบ”

    Clonezilla Live เวอร์ชัน 3.3.0-33 เพิ่งเปิดตัว โดยเป็นระบบ live OS สำหรับการโคลนดิสก์และพาร์ทิชันที่อิงจาก Debian และใช้ Linux kernel 6.16 จุดเด่นของเวอร์ชันนี้คือการเพิ่มการรองรับการโคลนอุปกรณ์ MTD block และ eMMC boot ในโหมดผู้เชี่ยวชาญ (expert mode) ซึ่งเป็นประโยชน์มากสำหรับงาน embedded system และอุปกรณ์ IoT

    นอกจากนี้ยังมีเครื่องมือใหม่ชื่อว่า ocs-blkdev-sorter ที่ช่วยให้ udev สร้าง alias block device ใน /dev/ocs-disks/ ได้สะดวกขึ้น และ ocs-live-time-sync สำหรับซิงค์เวลาในระบบผ่าน ocs-live-netcfg

    ยังมีการเพิ่มตัวเลือก -uoab ใน ocs-sr และ ocs-live-feed-img เพื่อให้เลือก alias block device ได้จาก UI แบบข้อความ และเครื่องมือใหม่อีกหลายตัว เช่น ocs-cmd-screen-sample, ocs-live-gen-ubrd, และ ocs-blk-dev-info ที่ให้ข้อมูล block device ในรูปแบบ JSON

    ด้านระบบยังมีการเพิ่มแพ็กเกจสำคัญ เช่น atd, cron, upower, และ dhcpcd-base รวมถึงปรับปรุงการตั้งค่า locale และ keymap ให้เลือกได้จาก shell login โดยใช้ fbterm เป็นค่าเริ่มต้น

    สุดท้าย Clonezilla Live 3.3.0-33 ยังอัปเดตสคริปต์ต่าง ๆ เช่น ocs-iso-2-onie, ocs-cvt-dev, และ ocs-live-swap-kernel เพื่อรองรับการใช้งานที่ซับซ้อนมากขึ้น พร้อมปรับปรุงประสิทธิภาพและแก้บั๊กหลายจุด

    ความสามารถใหม่ใน Clonezilla Live 3.3.0-33
    รองรับการโคลน MTD block และ eMMC boot device ใน expert mode
    เพิ่ม ocs-blkdev-sorter สำหรับสร้าง alias block device
    เพิ่ม ocs-live-time-sync สำหรับซิงค์เวลา
    เพิ่ม ocs-cmd-screen-sample และ ocs-live-gen-ubrd
    เพิ่ม ocs-blk-dev-info สำหรับแสดงข้อมูล block device แบบ JSON

    การปรับปรุงระบบและ UI
    เพิ่มตัวเลือก -uoab ใน UI แบบข้อความ
    ปรับ locale และ keymap ให้เลือกจาก shell login ด้วย fbterm
    ปรับปรุง ocs-iso-2-onie, ocs-cvt-dev, ocs-live-swap-kernel
    เพิ่มการรองรับ CPU architecture ในชื่อไฟล์ ISO/ZIP
    ปรับปรุงการแสดงผลของ ocs-scan-disk และ ocs-get-dev-info

    แพ็กเกจและระบบพื้นฐาน
    เพิ่มแพ็กเกจ atd, cron, upower, dhcpcd-base
    ใช้ Debian Sid (ณ วันที่ 17 ต.ค. 2025) เป็นฐานระบบ
    อัปเดต Partclone เป็นเวอร์ชัน 0.3.38 (แก้บั๊กเกี่ยวกับ btrfs)
    ปรับ grub.cfg ให้ใช้ efitextmode 0
    เพิ่มกลไกตั้งค่า timezone จาก BIOS หากไม่มีอินเทอร์เน็ต

    https://9to5linux.com/clonezilla-live-3-3-0-33-adds-support-for-cloning-mtd-block-and-emmc-boot-devices
    💾 “Clonezilla Live 3.3.0-33 มาแล้ว! รองรับการโคลน MTD และ eMMC พร้อมเครื่องมือใหม่เพียบ” Clonezilla Live เวอร์ชัน 3.3.0-33 เพิ่งเปิดตัว โดยเป็นระบบ live OS สำหรับการโคลนดิสก์และพาร์ทิชันที่อิงจาก Debian และใช้ Linux kernel 6.16 จุดเด่นของเวอร์ชันนี้คือการเพิ่มการรองรับการโคลนอุปกรณ์ MTD block และ eMMC boot ในโหมดผู้เชี่ยวชาญ (expert mode) ซึ่งเป็นประโยชน์มากสำหรับงาน embedded system และอุปกรณ์ IoT นอกจากนี้ยังมีเครื่องมือใหม่ชื่อว่า ocs-blkdev-sorter ที่ช่วยให้ udev สร้าง alias block device ใน /dev/ocs-disks/ ได้สะดวกขึ้น และ ocs-live-time-sync สำหรับซิงค์เวลาในระบบผ่าน ocs-live-netcfg ยังมีการเพิ่มตัวเลือก -uoab ใน ocs-sr และ ocs-live-feed-img เพื่อให้เลือก alias block device ได้จาก UI แบบข้อความ และเครื่องมือใหม่อีกหลายตัว เช่น ocs-cmd-screen-sample, ocs-live-gen-ubrd, และ ocs-blk-dev-info ที่ให้ข้อมูล block device ในรูปแบบ JSON ด้านระบบยังมีการเพิ่มแพ็กเกจสำคัญ เช่น atd, cron, upower, และ dhcpcd-base รวมถึงปรับปรุงการตั้งค่า locale และ keymap ให้เลือกได้จาก shell login โดยใช้ fbterm เป็นค่าเริ่มต้น สุดท้าย Clonezilla Live 3.3.0-33 ยังอัปเดตสคริปต์ต่าง ๆ เช่น ocs-iso-2-onie, ocs-cvt-dev, และ ocs-live-swap-kernel เพื่อรองรับการใช้งานที่ซับซ้อนมากขึ้น พร้อมปรับปรุงประสิทธิภาพและแก้บั๊กหลายจุด ✅ ความสามารถใหม่ใน Clonezilla Live 3.3.0-33 ➡️ รองรับการโคลน MTD block และ eMMC boot device ใน expert mode ➡️ เพิ่ม ocs-blkdev-sorter สำหรับสร้าง alias block device ➡️ เพิ่ม ocs-live-time-sync สำหรับซิงค์เวลา ➡️ เพิ่ม ocs-cmd-screen-sample และ ocs-live-gen-ubrd ➡️ เพิ่ม ocs-blk-dev-info สำหรับแสดงข้อมูล block device แบบ JSON ✅ การปรับปรุงระบบและ UI ➡️ เพิ่มตัวเลือก -uoab ใน UI แบบข้อความ ➡️ ปรับ locale และ keymap ให้เลือกจาก shell login ด้วย fbterm ➡️ ปรับปรุง ocs-iso-2-onie, ocs-cvt-dev, ocs-live-swap-kernel ➡️ เพิ่มการรองรับ CPU architecture ในชื่อไฟล์ ISO/ZIP ➡️ ปรับปรุงการแสดงผลของ ocs-scan-disk และ ocs-get-dev-info ✅ แพ็กเกจและระบบพื้นฐาน ➡️ เพิ่มแพ็กเกจ atd, cron, upower, dhcpcd-base ➡️ ใช้ Debian Sid (ณ วันที่ 17 ต.ค. 2025) เป็นฐานระบบ ➡️ อัปเดต Partclone เป็นเวอร์ชัน 0.3.38 (แก้บั๊กเกี่ยวกับ btrfs) ➡️ ปรับ grub.cfg ให้ใช้ efitextmode 0 ➡️ เพิ่มกลไกตั้งค่า timezone จาก BIOS หากไม่มีอินเทอร์เน็ต https://9to5linux.com/clonezilla-live-3-3-0-33-adds-support-for-cloning-mtd-block-and-emmc-boot-devices
    9TO5LINUX.COM
    Clonezilla Live 3.3.0-33 Adds Support for Cloning MTD Block and eMMC Boot Devices - 9to5Linux
    Clonezilla Live 3.3.0-33 open-source and free disk cloning/imaging tool is now available for download with various changes and updated components.
    0 ความคิดเห็น 0 การแบ่งปัน 161 มุมมอง 0 รีวิว
  • “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB

    Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลโดยเฉพาะในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน inference หรือการประมวลผลโมเดล AI ที่ผ่านการฝึกมาแล้ว โดยใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งเคยใช้ในซีพียู Core Ultra 300-series รุ่น Panther Lake

    จุดเด่นของ Crescent Island คือการมาพร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งมากกว่าการ์ดจอทั่วไปหลายเท่า โดยใช้ชิป LPDDR5X จำนวน 20 ตัว ซึ่งแต่ละตัวมีความจุ 8Gb และเชื่อมต่อผ่านอินเทอร์เฟซรวม 640 บิต หรืออาจเป็นการแบ่งเป็น 2 GPU ที่เชื่อมต่อผ่าน 320 บิตต่อฝั่ง

    การออกแบบนี้ช่วยให้สามารถรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น และยังเหมาะกับการใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ซึ่งช่วยลดต้นทุนและพลังงาน

    Intel วางแผนจะเริ่มส่งตัวอย่าง Crescent Island ให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และอาจเปิดเผยข้อมูลเพิ่มเติมในงาน OCP หรือ SC25 ที่จะจัดขึ้นในอนาคต

    ข้อมูลในข่าว
    Intel เปิดตัว GPU “Crescent Island” สำหรับงาน inference โดยเฉพาะ
    ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3
    มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB
    ใช้ชิป LPDDR5X จำนวน 20 ตัว เชื่อมต่อผ่านอินเทอร์เฟซ 640 บิต หรือแบ่งเป็น 2 GPU
    รองรับข้อมูลหลากหลายประเภทสำหรับงาน AI
    ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ
    เริ่มส่งตัวอย่างในครึ่งหลังของปี 2026

    คำเตือนจากข้อมูลข่าว
    ยังไม่มีข้อมูลประสิทธิภาพที่ชัดเจนจาก Intel
    การใช้ LPDDR5X อาจมีข้อจำกัดด้านการเชื่อมต่อเมื่อเทียบกับ GDDR6
    หากใช้ 2 GPU ต้องมีการจัดการซอฟต์แวร์ที่ซับซ้อนมากขึ้น
    การใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศอาจมีข้อจำกัดด้านพลังงานและความร้อนในบางกรณี

    https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
    🧠 “Intel เปิดตัว Crescent Island” — GPU สำหรับงาน AI โดยเฉพาะ พร้อมหน่วยความจำ 160GB Intel ประกาศเปิดตัว GPU รุ่นใหม่สำหรับศูนย์ข้อมูลโดยเฉพาะในชื่อ “Crescent Island” ซึ่งออกแบบมาเพื่อรองรับงาน inference หรือการประมวลผลโมเดล AI ที่ผ่านการฝึกมาแล้ว โดยใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ซึ่งเคยใช้ในซีพียู Core Ultra 300-series รุ่น Panther Lake จุดเด่นของ Crescent Island คือการมาพร้อมหน่วยความจำ LPDDR5X ขนาดมหาศาลถึง 160GB ซึ่งมากกว่าการ์ดจอทั่วไปหลายเท่า โดยใช้ชิป LPDDR5X จำนวน 20 ตัว ซึ่งแต่ละตัวมีความจุ 8Gb และเชื่อมต่อผ่านอินเทอร์เฟซรวม 640 บิต หรืออาจเป็นการแบ่งเป็น 2 GPU ที่เชื่อมต่อผ่าน 320 บิตต่อฝั่ง การออกแบบนี้ช่วยให้สามารถรองรับข้อมูลหลากหลายประเภทที่ใช้ในงาน inference ได้ดีขึ้น และยังเหมาะกับการใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ซึ่งช่วยลดต้นทุนและพลังงาน Intel วางแผนจะเริ่มส่งตัวอย่าง Crescent Island ให้ลูกค้าในช่วงครึ่งหลังของปี 2026 และอาจเปิดเผยข้อมูลเพิ่มเติมในงาน OCP หรือ SC25 ที่จะจัดขึ้นในอนาคต ✅ ข้อมูลในข่าว ➡️ Intel เปิดตัว GPU “Crescent Island” สำหรับงาน inference โดยเฉพาะ ➡️ ใช้สถาปัตยกรรม Xe3P ที่พัฒนาต่อจาก Xe3 ➡️ มาพร้อมหน่วยความจำ LPDDR5X ขนาด 160GB ➡️ ใช้ชิป LPDDR5X จำนวน 20 ตัว เชื่อมต่อผ่านอินเทอร์เฟซ 640 บิต หรือแบ่งเป็น 2 GPU ➡️ รองรับข้อมูลหลากหลายประเภทสำหรับงาน AI ➡️ ออกแบบให้เหมาะกับเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศ ➡️ เริ่มส่งตัวอย่างในครึ่งหลังของปี 2026 ‼️ คำเตือนจากข้อมูลข่าว ⛔ ยังไม่มีข้อมูลประสิทธิภาพที่ชัดเจนจาก Intel ⛔ การใช้ LPDDR5X อาจมีข้อจำกัดด้านการเชื่อมต่อเมื่อเทียบกับ GDDR6 ⛔ หากใช้ 2 GPU ต้องมีการจัดการซอฟต์แวร์ที่ซับซ้อนมากขึ้น ⛔ การใช้งานในเซิร์ฟเวอร์แบบระบายความร้อนด้วยอากาศอาจมีข้อจำกัดด้านพลังงานและความร้อนในบางกรณี https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • “Scalable แต่เปลือง — เมื่อสตาร์ทอัพยุคใหม่สร้างระบบแบบ Google แต่มีลูกค้าแค่ 2 คน”

    Stavros เปิดบทความด้วยการเสียดสีว่า “ทุกคนเป็นวิศวกรจาก FAANG” เพราะไม่ว่าจะเป็นสตาร์ทอัพเล็กหรือใหญ่ ทุกคนดูเหมือนจะสร้างระบบแบบเดียวกัน: ใช้ AWS/GCP, มี microservices เป็นสิบ, ใช้ orchestrator ซับซ้อน, autoscaling พร้อมระบบ distributed datastore ที่อ่านข้อมูลช้าลงตามเวลาที่เขียนล่าสุด

    เขาตั้งคำถามว่า “ทำไมทุกคนถึงรีบแก้ปัญหา scalability ก่อนจะมีลูกค้าจริง?” ทั้งที่ปัญหาแรกของสตาร์ทอัพควรจะเป็น “จะอยู่รอดได้อีก 2 เดือนหรือไม่” ไม่ใช่ “จะรองรับผู้ใช้ล้านคนได้อย่างไร”

    Stavros เสนอว่าแทนที่จะสร้าง distributed monolith ที่ซับซ้อนตั้งแต่วันแรก เราควรเริ่มจาก monolith ที่มีโครงสร้างดี ใช้ module ที่แยกกันชัดเจน มี interface แบบ statically typed และใช้ type checker เพื่อควบคุมการเปลี่ยนแปลง API ได้อย่างปลอดภัย

    เขายอมรับว่าการใช้ monolith มีข้อเสีย เช่น ไม่สามารถ scale เฉพาะ module ได้ง่าย แต่ข้อดีคือความเร็ว ความเรียบง่าย และความสามารถในการเปลี่ยนแปลงแบบ atomic โดยไม่ต้อง version API หรือ debug payload ที่ซับซ้อน

    สตาร์ทอัพยุคใหม่มักสร้างระบบแบบ FAANG โดยไม่จำเป็น
    ใช้ microservices, distributed datastore, autoscaling ตั้งแต่วันแรก

    ปัญหาแรกของสตาร์ทอัพควรเป็น “การอยู่รอด” ไม่ใช่ “scalability”
    แต่ scalability ง่ายกว่าและดูเท่กว่าในเรซูเม่

    ระบบที่ซับซ้อนมีต้นทุนสูง ทั้งด้านเงินและเวลา
    โดยเฉพาะเมื่อยังไม่มีผู้ใช้จริง

    Stavros เสนอให้ใช้ monolith ที่มี module แยกกันชัดเจน
    ใช้ interface แบบ statically typed และ type checker

    ข้อดีของ monolith คือความเร็วและความสามารถในการเปลี่ยน API ได้ทันที
    ไม่ต้อง version endpoint หรือ debug dict ซับซ้อน

    การใช้ monorepo ไม่จำเป็น แต่ช่วยให้ deploy แบบ atomic ได้ง่าย
    เป็น trade-off ที่แต่ละทีมต้องตัดสินใจเอง

    การสร้างระบบซับซ้อนตั้งแต่ต้นอาจทำให้สตาร์ทอัพล้มก่อนจะมีผู้ใช้จริง
    เพราะใช้ทรัพยากรไปกับสิ่งที่ยังไม่จำเป็น

    การออกแบบเพื่อ “เรซูเม่” มากกว่าความต้องการจริงของธุรกิจ
    ทำให้ระบบเต็มไปด้วยเทคโนโลยีที่ไม่ก่อให้เกิดรายได้

    การใช้ distributed architecture โดยไม่จำเป็น
    ทำให้เกิดความซับซ้อนที่ไม่คุ้มค่าในระยะเริ่มต้น

    การหลีกเลี่ยง monolith เพราะกลัว “ball of yarn”
    อาจทำให้พลาดโอกาสในการสร้างระบบที่เร็วและง่ายต่อการดูแล

    https://www.stavros.io/posts/why-is-everything-so-scalable/
    🧱 “Scalable แต่เปลือง — เมื่อสตาร์ทอัพยุคใหม่สร้างระบบแบบ Google แต่มีลูกค้าแค่ 2 คน” Stavros เปิดบทความด้วยการเสียดสีว่า “ทุกคนเป็นวิศวกรจาก FAANG” เพราะไม่ว่าจะเป็นสตาร์ทอัพเล็กหรือใหญ่ ทุกคนดูเหมือนจะสร้างระบบแบบเดียวกัน: ใช้ AWS/GCP, มี microservices เป็นสิบ, ใช้ orchestrator ซับซ้อน, autoscaling พร้อมระบบ distributed datastore ที่อ่านข้อมูลช้าลงตามเวลาที่เขียนล่าสุด เขาตั้งคำถามว่า “ทำไมทุกคนถึงรีบแก้ปัญหา scalability ก่อนจะมีลูกค้าจริง?” ทั้งที่ปัญหาแรกของสตาร์ทอัพควรจะเป็น “จะอยู่รอดได้อีก 2 เดือนหรือไม่” ไม่ใช่ “จะรองรับผู้ใช้ล้านคนได้อย่างไร” Stavros เสนอว่าแทนที่จะสร้าง distributed monolith ที่ซับซ้อนตั้งแต่วันแรก เราควรเริ่มจาก monolith ที่มีโครงสร้างดี ใช้ module ที่แยกกันชัดเจน มี interface แบบ statically typed และใช้ type checker เพื่อควบคุมการเปลี่ยนแปลง API ได้อย่างปลอดภัย เขายอมรับว่าการใช้ monolith มีข้อเสีย เช่น ไม่สามารถ scale เฉพาะ module ได้ง่าย แต่ข้อดีคือความเร็ว ความเรียบง่าย และความสามารถในการเปลี่ยนแปลงแบบ atomic โดยไม่ต้อง version API หรือ debug payload ที่ซับซ้อน ✅ สตาร์ทอัพยุคใหม่มักสร้างระบบแบบ FAANG โดยไม่จำเป็น ➡️ ใช้ microservices, distributed datastore, autoscaling ตั้งแต่วันแรก ✅ ปัญหาแรกของสตาร์ทอัพควรเป็น “การอยู่รอด” ไม่ใช่ “scalability” ➡️ แต่ scalability ง่ายกว่าและดูเท่กว่าในเรซูเม่ ✅ ระบบที่ซับซ้อนมีต้นทุนสูง ทั้งด้านเงินและเวลา ➡️ โดยเฉพาะเมื่อยังไม่มีผู้ใช้จริง ✅ Stavros เสนอให้ใช้ monolith ที่มี module แยกกันชัดเจน ➡️ ใช้ interface แบบ statically typed และ type checker ✅ ข้อดีของ monolith คือความเร็วและความสามารถในการเปลี่ยน API ได้ทันที ➡️ ไม่ต้อง version endpoint หรือ debug dict ซับซ้อน ✅ การใช้ monorepo ไม่จำเป็น แต่ช่วยให้ deploy แบบ atomic ได้ง่าย ➡️ เป็น trade-off ที่แต่ละทีมต้องตัดสินใจเอง ‼️ การสร้างระบบซับซ้อนตั้งแต่ต้นอาจทำให้สตาร์ทอัพล้มก่อนจะมีผู้ใช้จริง ⛔ เพราะใช้ทรัพยากรไปกับสิ่งที่ยังไม่จำเป็น ‼️ การออกแบบเพื่อ “เรซูเม่” มากกว่าความต้องการจริงของธุรกิจ ⛔ ทำให้ระบบเต็มไปด้วยเทคโนโลยีที่ไม่ก่อให้เกิดรายได้ ‼️ การใช้ distributed architecture โดยไม่จำเป็น ⛔ ทำให้เกิดความซับซ้อนที่ไม่คุ้มค่าในระยะเริ่มต้น ‼️ การหลีกเลี่ยง monolith เพราะกลัว “ball of yarn” ⛔ อาจทำให้พลาดโอกาสในการสร้างระบบที่เร็วและง่ายต่อการดูแล https://www.stavros.io/posts/why-is-everything-so-scalable/
    0 ความคิดเห็น 0 การแบ่งปัน 185 มุมมอง 0 รีวิว
  • "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต”

    แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave”

    ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck

    Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่

    แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI

    AMD พัฒนา APU สถาปัตยกรรม ARM
    โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด
    ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม.
    เหมาะกับ embedded systems และอุปกรณ์พกพา

    สเปกเบื้องต้นของ Sound Wave
    ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck
    big.LITTLE architecture: 2 P-Core + 4 E-Core
    กราฟิก RDNA 3.5 สูงสุด 4 CUs
    TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า

    ความเป็นไปได้ในการใช้งาน
    อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT
    รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่
    อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace

    แนวโน้มตลาด ARM
    ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์
    Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop
    AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM

    https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    🌀 "AMD Sound Wave – APU พลัง ARM ที่อาจเปลี่ยนเกมพกพาในอนาคต” แม้ AMD เคยยืนยันว่า ARM ไม่ได้มีข้อได้เปรียบด้านประสิทธิภาพเหนือ x86 โดยตรง แต่ล่าสุดกลับมีข้อมูลจาก shipping manifest ที่เผยว่า AMD กำลังพัฒนา SoC ใหม่ที่ใช้สถาปัตยกรรม ARM ภายใต้โค้ดเนม “Sound Wave” ชิปนี้มาในแพ็กเกจ BGA 1074 ขนาดเล็กเพียง 32 × 27 มม. เหมาะกับอุปกรณ์พกพาอย่างแล็ปท็อปหรือเกมคอนโซลแบบ handheld โดยใช้ซ็อกเก็ต FF5 ซึ่งเป็นรุ่นใหม่ที่มาแทน FF3 ที่เคยใช้ใน Steam Deck Sound Wave คาดว่าจะใช้สถาปัตยกรรมแบบ big.LITTLE โดยมี 2 P-Core และ 4 E-Core รวมเป็น 6 คอร์ พร้อมกราฟิก RDNA 3.5 สูงสุด 4 CUs และทำงานในพลังงานเพียง 10W ซึ่งเหมาะกับการเล่นเกมต่อเนื่องบนแบตเตอรี่ แม้ยังไม่มีข้อมูลชัดเจนว่า AMD จะนำชิปนี้ไปใช้ในผลิตภัณฑ์ใด แต่การเคลื่อนไหวนี้สะท้อนถึงการแข่งขันที่ร้อนแรงในตลาด ARM ระหว่าง AMD, Qualcomm และ NVIDIA ที่ต่างเตรียมเปิดตัวชิปใหม่สำหรับอุปกรณ์พกพาและ AI ✅ AMD พัฒนา APU สถาปัตยกรรม ARM ➡️ โค้ดเนม “Sound Wave” ปรากฏใน shipping manifest ล่าสุด ➡️ ใช้แพ็กเกจ BGA 1074 ขนาด 32 × 27 มม. ➡️ เหมาะกับ embedded systems และอุปกรณ์พกพา ✅ สเปกเบื้องต้นของ Sound Wave ➡️ ใช้ซ็อกเก็ต FF5 แทน FF3 ที่เคยใช้ใน Steam Deck ➡️ big.LITTLE architecture: 2 P-Core + 4 E-Core ➡️ กราฟิก RDNA 3.5 สูงสุด 4 CUs ➡️ TDP เพียง 10W พร้อมตัวเลือกปรับแต่งตามลูกค้า ✅ ความเป็นไปได้ในการใช้งาน ➡️ อาจใช้ใน handheld gaming, Chromebook หรืออุปกรณ์ IoT ➡️ รองรับการเล่นเกมต่อเนื่องบนแบตเตอรี่ ➡️ อาจเป็นคู่แข่งของ Snapdragon X Elite และ NVIDIA Grace ✅ แนวโน้มตลาด ARM ➡️ ARM กำลังขยายจากมือถือสู่ PC และเซิร์ฟเวอร์ ➡️ Apple M-series เป็นตัวอย่างความสำเร็จของ ARM บน desktop ➡️ AMD อาจใช้ Sound Wave เป็นจุดเริ่มต้นในการบุกตลาด ARM https://www.techpowerup.com/341848/amd-sound-wave-arm-powered-apu-appears-in-shipping-manifests
    WWW.TECHPOWERUP.COM
    AMD "Sound Wave" Arm-Powered APU Appears in Shipping Manifests
    Despite AMD's assertion that the Arm ISA doesn't provide any inherent efficiency advantage and that power savings are primarily dependent on the package and design, it seems AMD is developing an Arm-based SoC codenamed "Sound Wave." Recent shipping manifests, noted by X user @Olrak29_, indicate that...
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • “Crimson Collective เจาะระบบ AWS ด้วย TruffleHog — ขโมยข้อมูล 570GB จาก Red Hat และเริ่มขยายเป้าหมายสู่คลาวด์ทั่วโลก”

    กลุ่มแฮกเกอร์ Crimson Collective ซึ่งเคยสร้างความเสียหายครั้งใหญ่ให้กับ Red Hat ด้วยการขโมยข้อมูลกว่า 570GB จาก GitLab repository ภายในองค์กร กำลังขยายเป้าหมายไปยังระบบคลาวด์ของ Amazon Web Services (AWS) โดยใช้เครื่องมือโอเพ่นซอร์สชื่อ TruffleHog ในการค้นหาคีย์ลับและข้อมูลรับรองที่หลุดจากโค้ดหรือ repository สาธารณะ

    เมื่อได้ข้อมูลรับรองของ AWS แล้ว กลุ่มนี้จะใช้ API เพื่อสร้าง IAM users และ access keys ใหม่ พร้อมแนบ policy ระดับสูงอย่าง AdministratorAccess เพื่อยกระดับสิทธิ์ จากนั้นจะทำการสำรวจโครงสร้างระบบของเหยื่อ เช่น EC2, S3, RDS และ EBS เพื่อวางแผนการขโมยข้อมูลและการเรียกค่าไถ่

    ในกรณีของ Red Hat ข้อมูลที่ถูกขโมยรวมถึง Customer Engagement Records (CER) จำนวน 800 รายการ ซึ่งเป็นเอกสารภายในที่มีข้อมูลโครงสร้างระบบของลูกค้า เช่น network architecture, system configuration, credentials และคำแนะนำในการแก้ปัญหา

    นักวิจัยจาก Rapid7 พบว่า Crimson Collective ใช้หลาย IP address และมีการ reuse บาง IP ในหลายเหตุการณ์ ทำให้สามารถติดตามพฤติกรรมได้บางส่วน นอกจากนี้ยังมีการส่งอีเมลเรียกค่าไถ่ผ่านระบบ AWS Simple Email Service (SES) ภายในบัญชีที่ถูกเจาะ

    AWS แนะนำให้ผู้ใช้ใช้ credentials แบบ short-term และ least privilege พร้อมตั้ง IAM policy ที่จำกัดสิทธิ์อย่างเข้มงวด และหากสงสัยว่าข้อมูลรับรองอาจหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำทันที

    ข้อมูลสำคัญจากข่าว
    Crimson Collective ขโมยข้อมูล 570GB จาก Red Hat โดยใช้ TruffleHog
    ข้อมูลที่ถูกขโมยรวมถึง 800 CER ที่มีข้อมูลโครงสร้างระบบของลูกค้า
    กลุ่มนี้ขยายเป้าหมายไปยัง AWS โดยใช้ credentials ที่หลุดจาก repository
    ใช้ API สร้าง IAM users และ access keys พร้อมแนบ AdministratorAccess
    สำรวจ EC2, S3, RDS, EBS เพื่อวางแผนการขโมยข้อมูล
    ส่งอีเมลเรียกค่าไถ่ผ่าน AWS SES ภายในบัญชีที่ถูกเจาะ
    Rapid7 พบการใช้หลาย IP และการ reuse IP ในหลายเหตุการณ์
    AWS แนะนำให้ใช้ credentials แบบ short-term และ least privilege
    หากสงสัยว่าข้อมูลหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำ

    ข้อมูลเสริมจากภายนอก
    TruffleHog เป็นเครื่องมือโอเพ่นซอร์สที่ใช้ค้นหาคีย์ลับในโค้ดและ repository
    IAM (Identity and Access Management) เป็นระบบจัดการสิทธิ์ใน AWS
    AdministratorAccess เป็น policy ที่ให้สิทธิ์เต็มรูปแบบในบัญชี AWS
    CER ของ Red Hat มักมีข้อมูลละเอียดที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร
    การใช้ SES ภายในบัญชีที่ถูกเจาะช่วยให้แฮกเกอร์ส่งอีเมลได้โดยไม่ถูกบล็อก

    https://www.techradar.com/pro/security/red-hat-hackers-crimson-collective-are-now-going-after-aws-instances
    🛡️ “Crimson Collective เจาะระบบ AWS ด้วย TruffleHog — ขโมยข้อมูล 570GB จาก Red Hat และเริ่มขยายเป้าหมายสู่คลาวด์ทั่วโลก” กลุ่มแฮกเกอร์ Crimson Collective ซึ่งเคยสร้างความเสียหายครั้งใหญ่ให้กับ Red Hat ด้วยการขโมยข้อมูลกว่า 570GB จาก GitLab repository ภายในองค์กร กำลังขยายเป้าหมายไปยังระบบคลาวด์ของ Amazon Web Services (AWS) โดยใช้เครื่องมือโอเพ่นซอร์สชื่อ TruffleHog ในการค้นหาคีย์ลับและข้อมูลรับรองที่หลุดจากโค้ดหรือ repository สาธารณะ เมื่อได้ข้อมูลรับรองของ AWS แล้ว กลุ่มนี้จะใช้ API เพื่อสร้าง IAM users และ access keys ใหม่ พร้อมแนบ policy ระดับสูงอย่าง AdministratorAccess เพื่อยกระดับสิทธิ์ จากนั้นจะทำการสำรวจโครงสร้างระบบของเหยื่อ เช่น EC2, S3, RDS และ EBS เพื่อวางแผนการขโมยข้อมูลและการเรียกค่าไถ่ ในกรณีของ Red Hat ข้อมูลที่ถูกขโมยรวมถึง Customer Engagement Records (CER) จำนวน 800 รายการ ซึ่งเป็นเอกสารภายในที่มีข้อมูลโครงสร้างระบบของลูกค้า เช่น network architecture, system configuration, credentials และคำแนะนำในการแก้ปัญหา นักวิจัยจาก Rapid7 พบว่า Crimson Collective ใช้หลาย IP address และมีการ reuse บาง IP ในหลายเหตุการณ์ ทำให้สามารถติดตามพฤติกรรมได้บางส่วน นอกจากนี้ยังมีการส่งอีเมลเรียกค่าไถ่ผ่านระบบ AWS Simple Email Service (SES) ภายในบัญชีที่ถูกเจาะ AWS แนะนำให้ผู้ใช้ใช้ credentials แบบ short-term และ least privilege พร้อมตั้ง IAM policy ที่จำกัดสิทธิ์อย่างเข้มงวด และหากสงสัยว่าข้อมูลรับรองอาจหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำทันที ✅ ข้อมูลสำคัญจากข่าว ➡️ Crimson Collective ขโมยข้อมูล 570GB จาก Red Hat โดยใช้ TruffleHog ➡️ ข้อมูลที่ถูกขโมยรวมถึง 800 CER ที่มีข้อมูลโครงสร้างระบบของลูกค้า ➡️ กลุ่มนี้ขยายเป้าหมายไปยัง AWS โดยใช้ credentials ที่หลุดจาก repository ➡️ ใช้ API สร้าง IAM users และ access keys พร้อมแนบ AdministratorAccess ➡️ สำรวจ EC2, S3, RDS, EBS เพื่อวางแผนการขโมยข้อมูล ➡️ ส่งอีเมลเรียกค่าไถ่ผ่าน AWS SES ภายในบัญชีที่ถูกเจาะ ➡️ Rapid7 พบการใช้หลาย IP และการ reuse IP ในหลายเหตุการณ์ ➡️ AWS แนะนำให้ใช้ credentials แบบ short-term และ least privilege ➡️ หากสงสัยว่าข้อมูลหลุด ควรดำเนินการตามขั้นตอนที่ AWS แนะนำ ✅ ข้อมูลเสริมจากภายนอก ➡️ TruffleHog เป็นเครื่องมือโอเพ่นซอร์สที่ใช้ค้นหาคีย์ลับในโค้ดและ repository ➡️ IAM (Identity and Access Management) เป็นระบบจัดการสิทธิ์ใน AWS ➡️ AdministratorAccess เป็น policy ที่ให้สิทธิ์เต็มรูปแบบในบัญชี AWS ➡️ CER ของ Red Hat มักมีข้อมูลละเอียดที่ใช้ในการให้คำปรึกษาแก่ลูกค้าองค์กร ➡️ การใช้ SES ภายในบัญชีที่ถูกเจาะช่วยให้แฮกเกอร์ส่งอีเมลได้โดยไม่ถูกบล็อก https://www.techradar.com/pro/security/red-hat-hackers-crimson-collective-are-now-going-after-aws-instances
    0 ความคิดเห็น 0 การแบ่งปัน 278 มุมมอง 0 รีวิว
  • “AMD เปิดตัว Radiance Cores, Neural Arrays และ Universal Compression — เทคโนโลยีใหม่ที่จะเปลี่ยนโลกกราฟิกเกมยุคถัดไป”

    AMD และ Sony ร่วมกันเปิดเผยเทคโนโลยีใหม่ 3 รายการที่จะถูกฝังอยู่ในสถาปัตยกรรมกราฟิก RDNA รุ่นถัดไป ได้แก่ Radiance Cores, Neural Arrays และ Universal Compression โดยทั้งหมดนี้ถูกออกแบบมาเพื่อยกระดับการเรนเดอร์ภาพแบบเรียลไทม์, การอัปสเกลด้วย AI และการจัดการแบนด์วิดธ์หน่วยความจำให้มีประสิทธิภาพสูงสุด

    Radiance Cores คือฮาร์ดแวร์เฉพาะสำหรับการประมวลผล ray tracing และ path tracing โดยแยกออกจาก shader cores เพื่อให้สามารถจัดการกับการเคลื่อนที่ของแสง (ray traversal) ได้เร็วขึ้นและแม่นยำขึ้น ซึ่งช่วยลดภาระของ CPU และเพิ่มประสิทธิภาพของ GPU ในการ shading และ lighting

    Neural Arrays คือการเชื่อมต่อ compute units (CU) ภายใน GPU ให้ทำงานร่วมกันแบบ AI engine เดียว ซึ่งช่วยให้สามารถประมวลผลโมเดล machine learning ขนาดใหญ่ได้อย่างมีประสิทธิภาพมากขึ้น โดยเฉพาะในงาน neural rendering, frame generation และ denoising สำหรับฉากที่ใช้ ray tracing

    Universal Compression เป็นระบบบีบอัดข้อมูลภายใน GPU ที่สามารถจัดการกับข้อมูลทุกประเภทได้แบบอัตโนมัติ ช่วยลดการใช้แบนด์วิดธ์หน่วยความจำ และเพิ่มความเร็วในการโหลด texture และโมเดลกราฟิก

    Mark Cerny สถาปนิกของ PlayStation และ Jack Huynh รองประธาน AMD ระบุว่า เทคโนโลยีเหล่านี้จะถูกนำไปใช้ใน GPU และ SoC รุ่นถัดไป รวมถึงคอนโซล PlayStation รุ่นใหม่ ซึ่งจะช่วยให้เกมมีความสมจริงระดับภาพยนตร์ และสามารถเรนเดอร์ฉากซับซ้อนได้แบบเรียลไทม์

    ข้อมูลสำคัญจากข่าว
    AMD เปิดตัวเทคโนโลยีใหม่ 3 รายการ: Radiance Cores, Neural Arrays และ Universal Compression
    Radiance Cores เป็นฮาร์ดแวร์เฉพาะสำหรับ ray/path tracing โดยแยกจาก shader cores
    Neural Arrays เชื่อม compute units ให้ทำงานร่วมกันแบบ AI engine เดียว
    Universal Compression บีบอัดข้อมูลทุกประเภทภายใน GPU เพื่อลดการใช้แบนด์วิดธ์
    เทคโนโลยีเหล่านี้จะถูกใช้ใน RDNA GPU รุ่นถัดไปและ SoC สำหรับ PlayStation
    ช่วยเพิ่มประสิทธิภาพการเรนเดอร์, อัปสเกล, และโหลด texture ได้เร็วขึ้น
    รองรับงาน neural rendering, frame generation และ denoising แบบเรียลไทม์
    Mark Cerny และ Jack Huynh ยืนยันว่าเทคโนโลยีจะเปลี่ยนโฉมกราฟิกเกมในอนาคต

    ข้อมูลเสริมจากภายนอก
    Radiance Cores คล้ายกับ RT Cores ของ Nvidia ที่ใช้ในการ์ดจอ RTX
    Neural Arrays จะช่วยให้ FSR และ PSSR มีคุณภาพสูงขึ้นและทำงานเร็วขึ้น
    Universal Compression มาแทน Delta Color Compression ที่ใช้ใน RDNA รุ่นก่อน
    การแยก ray traversal ออกจาก shader ช่วยลด latency และเพิ่ม frame rate
    Project Amethyst คือความร่วมมือระยะยาวระหว่าง AMD และ Sony เพื่อพัฒนา AI สำหรับเกม

    https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
    🎮 “AMD เปิดตัว Radiance Cores, Neural Arrays และ Universal Compression — เทคโนโลยีใหม่ที่จะเปลี่ยนโลกกราฟิกเกมยุคถัดไป” AMD และ Sony ร่วมกันเปิดเผยเทคโนโลยีใหม่ 3 รายการที่จะถูกฝังอยู่ในสถาปัตยกรรมกราฟิก RDNA รุ่นถัดไป ได้แก่ Radiance Cores, Neural Arrays และ Universal Compression โดยทั้งหมดนี้ถูกออกแบบมาเพื่อยกระดับการเรนเดอร์ภาพแบบเรียลไทม์, การอัปสเกลด้วย AI และการจัดการแบนด์วิดธ์หน่วยความจำให้มีประสิทธิภาพสูงสุด Radiance Cores คือฮาร์ดแวร์เฉพาะสำหรับการประมวลผล ray tracing และ path tracing โดยแยกออกจาก shader cores เพื่อให้สามารถจัดการกับการเคลื่อนที่ของแสง (ray traversal) ได้เร็วขึ้นและแม่นยำขึ้น ซึ่งช่วยลดภาระของ CPU และเพิ่มประสิทธิภาพของ GPU ในการ shading และ lighting Neural Arrays คือการเชื่อมต่อ compute units (CU) ภายใน GPU ให้ทำงานร่วมกันแบบ AI engine เดียว ซึ่งช่วยให้สามารถประมวลผลโมเดล machine learning ขนาดใหญ่ได้อย่างมีประสิทธิภาพมากขึ้น โดยเฉพาะในงาน neural rendering, frame generation และ denoising สำหรับฉากที่ใช้ ray tracing Universal Compression เป็นระบบบีบอัดข้อมูลภายใน GPU ที่สามารถจัดการกับข้อมูลทุกประเภทได้แบบอัตโนมัติ ช่วยลดการใช้แบนด์วิดธ์หน่วยความจำ และเพิ่มความเร็วในการโหลด texture และโมเดลกราฟิก Mark Cerny สถาปนิกของ PlayStation และ Jack Huynh รองประธาน AMD ระบุว่า เทคโนโลยีเหล่านี้จะถูกนำไปใช้ใน GPU และ SoC รุ่นถัดไป รวมถึงคอนโซล PlayStation รุ่นใหม่ ซึ่งจะช่วยให้เกมมีความสมจริงระดับภาพยนตร์ และสามารถเรนเดอร์ฉากซับซ้อนได้แบบเรียลไทม์ ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD เปิดตัวเทคโนโลยีใหม่ 3 รายการ: Radiance Cores, Neural Arrays และ Universal Compression ➡️ Radiance Cores เป็นฮาร์ดแวร์เฉพาะสำหรับ ray/path tracing โดยแยกจาก shader cores ➡️ Neural Arrays เชื่อม compute units ให้ทำงานร่วมกันแบบ AI engine เดียว ➡️ Universal Compression บีบอัดข้อมูลทุกประเภทภายใน GPU เพื่อลดการใช้แบนด์วิดธ์ ➡️ เทคโนโลยีเหล่านี้จะถูกใช้ใน RDNA GPU รุ่นถัดไปและ SoC สำหรับ PlayStation ➡️ ช่วยเพิ่มประสิทธิภาพการเรนเดอร์, อัปสเกล, และโหลด texture ได้เร็วขึ้น ➡️ รองรับงาน neural rendering, frame generation และ denoising แบบเรียลไทม์ ➡️ Mark Cerny และ Jack Huynh ยืนยันว่าเทคโนโลยีจะเปลี่ยนโฉมกราฟิกเกมในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Radiance Cores คล้ายกับ RT Cores ของ Nvidia ที่ใช้ในการ์ดจอ RTX ➡️ Neural Arrays จะช่วยให้ FSR และ PSSR มีคุณภาพสูงขึ้นและทำงานเร็วขึ้น ➡️ Universal Compression มาแทน Delta Color Compression ที่ใช้ใน RDNA รุ่นก่อน ➡️ การแยก ray traversal ออกจาก shader ช่วยลด latency และเพิ่ม frame rate ➡️ Project Amethyst คือความร่วมมือระยะยาวระหว่าง AMD และ Sony เพื่อพัฒนา AI สำหรับเกม https://wccftech.com/amd-unveils-radiance-cores-neural-arrays-universal-compression-next-gen-rdna-gpu-architecture/
    WCCFTECH.COM
    AMD Unveils Radiance Cores, Neural Arrays & Universal Compression For Next-Gen RDNA GPU Architecture: Faster RT, Better Upscaling, & Lower Bandwidth Needs
    AMD has just announced three key features of its next-gen RDNA architecture: Neural Arrays, Radiance Cores & Universal Compression.
    0 ความคิดเห็น 0 การแบ่งปัน 248 มุมมอง 0 รีวิว
  • “Pixel Watch 4: สมาร์ตวอชที่ไม่ต้องพยายามก็ชนะใจ — ดีไซน์หรู ฟีเจอร์ครบ แบตอึด พร้อม Gemini บนข้อมือ”

    Google เปิดตัว Pixel Watch 4 อย่างเป็นทางการในวันที่ 9 ตุลาคม 2025 โดยยังคงรักษาดีไซน์โดมสุดหรูที่เป็นเอกลักษณ์ พร้อมปรับปรุงหลายจุดให้กลายเป็นสมาร์ตวอชที่ “ใช้งานจริง” ได้มากกว่าการเป็นแค่เครื่องแจ้งเตือน

    สิ่งแรกที่โดดเด่นคือแบตเตอรี่ที่ใช้งานได้จริงถึง 2 วันเต็ม แม้เปิด Always-On Display และใช้หลาย complications ก็ยังอยู่รอดได้สบาย ๆ โดยใช้สถาปัตยกรรมแบบ dual-chip ที่แบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ซึ่งช่วยลดภาระการประมวลผลและยืดอายุแบตได้อย่างมีประสิทธิภาพ

    Pixel Watch 4 ยังมาพร้อม Gemini ซึ่งเป็น AI ผู้ช่วยที่ฉลาดขึ้นกว่า Google Assistant เดิม โดยสามารถตั้ง shortcut บน Tile เพื่อสั่งงานได้ทันที เช่น เปิดไฟห้อง หรือถามเวลาการแข่งขันกีฬา น่าเสียดายที่ฟีเจอร์ Magic Cue ซึ่งดึงข้อมูลส่วนตัวมาแสดงอัตโนมัติ ยังไม่รองรับบนตัวนาฬิกา

    ด้านดีไซน์ Google ปรับหน้าจอให้เป็นโดมทั้งกระจกและพาเนลจริง ๆ ซึ่งต่างจากรุ่นก่อนที่โค้งแค่ขอบ ทำให้เกิดเอฟเฟกต์ “ลอย” ของ UI ที่ดูนุ่มนวลและลื่นไหล โดยใช้ Material 3 Expressive ที่จัดวางปุ่มและ Tiles ได้อย่างสนุกและใช้งานง่าย

    สำหรับการติดตามสุขภาพ Pixel Watch 4 ยังใช้ระบบ Fitbit เป็นหลัก โดยเพิ่มฟีเจอร์ใหม่ เช่น ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน และมีการแจ้งเตือนแบบสั่นที่ปรับปรุงให้แม่นยำและไม่รบกวนคนข้าง ๆ

    สุดท้ายคือการรองรับการเชื่อมต่อผ่านดาวเทียม ซึ่งแม้จะยังไม่ได้ทดสอบจริง แต่ถือเป็นฟีเจอร์สำรองที่มีประโยชน์ในสถานการณ์ฉุกเฉิน เช่น หลงทางในพื้นที่ไม่มีสัญญาณมือถือ

    ข้อมูลสำคัญจากข่าว
    Pixel Watch 4 เปิดตัววันที่ 9 ตุลาคม 2025
    ใช้แบตเตอรี่ได้จริง 2 วัน แม้เปิด Always-On Display และหลาย complications
    ใช้สถาปัตยกรรม dual-chip เพื่อแบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก
    รองรับ Gemini บนข้อมือ พร้อมตั้ง shortcut บน Tile ได้
    ไม่รองรับ Magic Cue บนตัวนาฬิกา
    ดีไซน์หน้าจอแบบโดมจริงทั้งกระจกและพาเนล
    ใช้ Material 3 Expressive ในการจัดวาง UI
    ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน
    รองรับการเชื่อมต่อผ่านดาวเทียมในกรณีฉุกเฉิน
    ราคาเริ่มต้นที่ $349.99 เท่ากับรุ่นก่อน

    ข้อมูลเสริมจากภายนอก
    Gemini เป็น AI ผู้ช่วยรุ่นใหม่ของ Google ที่เน้นการเข้าใจบริบทและคำสั่งซับซ้อน
    Material 3 Expressive เป็นแนวทางออกแบบ UI ที่เน้นความสนุกและความลื่นไหล
    Dual-chip architecture เคยใช้ใน OnePlus Watch 2 และช่วยยืดแบตได้จริง
    การเชื่อมต่อผ่านดาวเทียมเริ่มเป็นมาตรฐานในอุปกรณ์สวมใส่ระดับสูง
    Fitbit Premium ยังเป็นระบบหลักในการวิเคราะห์สุขภาพบน Pixel Watch

    https://www.slashgear.com/1992014/google-pixel-watch-4-review/
    ⌚ “Pixel Watch 4: สมาร์ตวอชที่ไม่ต้องพยายามก็ชนะใจ — ดีไซน์หรู ฟีเจอร์ครบ แบตอึด พร้อม Gemini บนข้อมือ” Google เปิดตัว Pixel Watch 4 อย่างเป็นทางการในวันที่ 9 ตุลาคม 2025 โดยยังคงรักษาดีไซน์โดมสุดหรูที่เป็นเอกลักษณ์ พร้อมปรับปรุงหลายจุดให้กลายเป็นสมาร์ตวอชที่ “ใช้งานจริง” ได้มากกว่าการเป็นแค่เครื่องแจ้งเตือน สิ่งแรกที่โดดเด่นคือแบตเตอรี่ที่ใช้งานได้จริงถึง 2 วันเต็ม แม้เปิด Always-On Display และใช้หลาย complications ก็ยังอยู่รอดได้สบาย ๆ โดยใช้สถาปัตยกรรมแบบ dual-chip ที่แบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ซึ่งช่วยลดภาระการประมวลผลและยืดอายุแบตได้อย่างมีประสิทธิภาพ Pixel Watch 4 ยังมาพร้อม Gemini ซึ่งเป็น AI ผู้ช่วยที่ฉลาดขึ้นกว่า Google Assistant เดิม โดยสามารถตั้ง shortcut บน Tile เพื่อสั่งงานได้ทันที เช่น เปิดไฟห้อง หรือถามเวลาการแข่งขันกีฬา น่าเสียดายที่ฟีเจอร์ Magic Cue ซึ่งดึงข้อมูลส่วนตัวมาแสดงอัตโนมัติ ยังไม่รองรับบนตัวนาฬิกา ด้านดีไซน์ Google ปรับหน้าจอให้เป็นโดมทั้งกระจกและพาเนลจริง ๆ ซึ่งต่างจากรุ่นก่อนที่โค้งแค่ขอบ ทำให้เกิดเอฟเฟกต์ “ลอย” ของ UI ที่ดูนุ่มนวลและลื่นไหล โดยใช้ Material 3 Expressive ที่จัดวางปุ่มและ Tiles ได้อย่างสนุกและใช้งานง่าย สำหรับการติดตามสุขภาพ Pixel Watch 4 ยังใช้ระบบ Fitbit เป็นหลัก โดยเพิ่มฟีเจอร์ใหม่ เช่น ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน และมีการแจ้งเตือนแบบสั่นที่ปรับปรุงให้แม่นยำและไม่รบกวนคนข้าง ๆ สุดท้ายคือการรองรับการเชื่อมต่อผ่านดาวเทียม ซึ่งแม้จะยังไม่ได้ทดสอบจริง แต่ถือเป็นฟีเจอร์สำรองที่มีประโยชน์ในสถานการณ์ฉุกเฉิน เช่น หลงทางในพื้นที่ไม่มีสัญญาณมือถือ ✅ ข้อมูลสำคัญจากข่าว ➡️ Pixel Watch 4 เปิดตัววันที่ 9 ตุลาคม 2025 ➡️ ใช้แบตเตอรี่ได้จริง 2 วัน แม้เปิด Always-On Display และหลาย complications ➡️ ใช้สถาปัตยกรรม dual-chip เพื่อแบ่งงานระหว่างชิปประหยัดพลังงานกับชิปหลัก ➡️ รองรับ Gemini บนข้อมือ พร้อมตั้ง shortcut บน Tile ได้ ➡️ ไม่รองรับ Magic Cue บนตัวนาฬิกา ➡️ ดีไซน์หน้าจอแบบโดมจริงทั้งกระจกและพาเนล ➡️ ใช้ Material 3 Expressive ในการจัดวาง UI ➡️ ใช้โทรศัพท์เป็น dashboard สำหรับการปั่นจักรยาน ➡️ รองรับการเชื่อมต่อผ่านดาวเทียมในกรณีฉุกเฉิน ➡️ ราคาเริ่มต้นที่ $349.99 เท่ากับรุ่นก่อน ✅ ข้อมูลเสริมจากภายนอก ➡️ Gemini เป็น AI ผู้ช่วยรุ่นใหม่ของ Google ที่เน้นการเข้าใจบริบทและคำสั่งซับซ้อน ➡️ Material 3 Expressive เป็นแนวทางออกแบบ UI ที่เน้นความสนุกและความลื่นไหล ➡️ Dual-chip architecture เคยใช้ใน OnePlus Watch 2 และช่วยยืดแบตได้จริง ➡️ การเชื่อมต่อผ่านดาวเทียมเริ่มเป็นมาตรฐานในอุปกรณ์สวมใส่ระดับสูง ➡️ Fitbit Premium ยังเป็นระบบหลักในการวิเคราะห์สุขภาพบน Pixel Watch https://www.slashgear.com/1992014/google-pixel-watch-4-review/
    WWW.SLASHGEAR.COM
    Google Made The Best Smartwatch For Android, And It Did It Without Gimmicks - SlashGear
    Google's Pixel Watch 4 is the best WearOS smartwatch yet -- and it might very well be the most beautiful smartwatch ever made.
    0 ความคิดเห็น 0 การแบ่งปัน 246 มุมมอง 0 รีวิว
  • “TSMC เปิดราคาชิป 2nm — แพงขึ้นไม่มาก แต่มีเงื่อนไขซ่อนอยู่ที่ลูกค้าต้องรับมือ”

    หลังจากมีข่าวลือว่าชิป 2nm จาก TSMC จะมีราคาสูงกว่ารุ่น 3nm ถึง 50% ล่าสุดมีรายงานใหม่ระบุว่าราคาจริงของแผ่นเวเฟอร์ 2nm จะเพิ่มขึ้นเพียง 10–20% เท่านั้นเมื่อเทียบกับรุ่น 3nm อย่าง N3P และ N3E แต่ความจริงที่ซ่อนอยู่คือ TSMC กำลังปรับราคาของเวเฟอร์ 3nm ให้สูงขึ้นด้วย ทำให้ช่องว่างระหว่างรุ่นดูแคบลง

    ราคาของเวเฟอร์ 2nm ยังคงอยู่ที่ประมาณ $30,000 ต่อแผ่น ซึ่งเป็นราคาที่สูงมากสำหรับการผลิตชิปในระดับผู้บริโภค โดยเฉพาะเมื่อเทียบกับเวเฟอร์ 3nm ที่เคยอยู่ที่ $25,000–$27,000 แต่กำลังถูกปรับขึ้นเพื่อให้การเปลี่ยนผ่านไปยัง 2nm ดู “สมเหตุสมผล”

    Qualcomm และ MediaTek เป็นสองบริษัทที่ได้รับผลกระทบจากการเปลี่ยนไปใช้ N3P โดยต้องจ่ายเพิ่มถึง 16–24% สำหรับชิปรุ่นใหม่ เช่น Snapdragon 8 Elite Gen 5 และ Dimensity 9500 ขณะที่ Qualcomm เตรียมย้ายไปใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6 ในปีหน้า

    แม้ราคาจะไม่พุ่งแรงอย่างที่คาด แต่ผลกระทบต่อราคาสินค้า เช่น สมาร์ตโฟนและแท็บเล็ต ยังคงมีอยู่ เพราะต้นทุนการผลิตที่สูงขึ้นจะถูกผลักไปยังผู้บริโภค โดยเฉพาะในยุคที่การผลิตชิปต้องใช้เทคโนโลยีขั้นสูง เช่น Gate-All-Around และ EUV ที่มีต้นทุนสูงมาก

    ข้อมูลสำคัญจากข่าว
    ราคาของเวเฟอร์ 2nm อยู่ที่ประมาณ $30,000 ต่อแผ่น
    เพิ่มขึ้นจากเวเฟอร์ 3nm เพียง 10–20% ไม่ใช่ 50% ตามข่าวลือ
    TSMC ปรับราคาของเวเฟอร์ 3nm เช่น N3E และ N3P ให้สูงขึ้น
    Qualcomm และ MediaTek ได้รับผลกระทบจากราคาที่เพิ่มขึ้น
    Qualcomm เตรียมใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6
    ราคาสินค้าอิเล็กทรอนิกส์จะเพิ่มขึ้นตามต้นทุนเวเฟอร์
    การผลิตชิป 2nm ใช้เทคโนโลยี Gate-All-Around และ EUV
    TSMC เริ่มผลิต 2nm ในไตรมาสสุดท้ายของปี 2025

    ข้อมูลเสริมจากภายนอก
    Gate-All-Around เป็นเทคโนโลยีทรานซิสเตอร์ที่ลดการรั่วไหลของกระแสไฟ
    EUV (Extreme Ultraviolet Lithography) เป็นเทคนิคพิมพ์ลวดลายที่ใช้แสงความยาวคลื่นสั้น
    การผลิตเวเฟอร์ในสหรัฐฯ เช่นที่โรงงานใน Arizona มีต้นทุนสูงกว่าที่ไต้หวันถึง 20–30%
    Apple และ AMD เป็นลูกค้าหลักของ TSMC ที่เตรียมใช้ 2nm ในผลิตภัณฑ์ปี 2026
    Chiplet architecture ช่วยลดต้นทุนโดยใช้เวเฟอร์ขั้นสูงเฉพาะในส่วนสำคัญของชิป

    https://wccftech.com/tsmc-2nm-wafers-to-be-10-to-20-percent-more-expensive-than-3nm/
    💰 “TSMC เปิดราคาชิป 2nm — แพงขึ้นไม่มาก แต่มีเงื่อนไขซ่อนอยู่ที่ลูกค้าต้องรับมือ” หลังจากมีข่าวลือว่าชิป 2nm จาก TSMC จะมีราคาสูงกว่ารุ่น 3nm ถึง 50% ล่าสุดมีรายงานใหม่ระบุว่าราคาจริงของแผ่นเวเฟอร์ 2nm จะเพิ่มขึ้นเพียง 10–20% เท่านั้นเมื่อเทียบกับรุ่น 3nm อย่าง N3P และ N3E แต่ความจริงที่ซ่อนอยู่คือ TSMC กำลังปรับราคาของเวเฟอร์ 3nm ให้สูงขึ้นด้วย ทำให้ช่องว่างระหว่างรุ่นดูแคบลง ราคาของเวเฟอร์ 2nm ยังคงอยู่ที่ประมาณ $30,000 ต่อแผ่น ซึ่งเป็นราคาที่สูงมากสำหรับการผลิตชิปในระดับผู้บริโภค โดยเฉพาะเมื่อเทียบกับเวเฟอร์ 3nm ที่เคยอยู่ที่ $25,000–$27,000 แต่กำลังถูกปรับขึ้นเพื่อให้การเปลี่ยนผ่านไปยัง 2nm ดู “สมเหตุสมผล” Qualcomm และ MediaTek เป็นสองบริษัทที่ได้รับผลกระทบจากการเปลี่ยนไปใช้ N3P โดยต้องจ่ายเพิ่มถึง 16–24% สำหรับชิปรุ่นใหม่ เช่น Snapdragon 8 Elite Gen 5 และ Dimensity 9500 ขณะที่ Qualcomm เตรียมย้ายไปใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6 ในปีหน้า แม้ราคาจะไม่พุ่งแรงอย่างที่คาด แต่ผลกระทบต่อราคาสินค้า เช่น สมาร์ตโฟนและแท็บเล็ต ยังคงมีอยู่ เพราะต้นทุนการผลิตที่สูงขึ้นจะถูกผลักไปยังผู้บริโภค โดยเฉพาะในยุคที่การผลิตชิปต้องใช้เทคโนโลยีขั้นสูง เช่น Gate-All-Around และ EUV ที่มีต้นทุนสูงมาก ✅ ข้อมูลสำคัญจากข่าว ➡️ ราคาของเวเฟอร์ 2nm อยู่ที่ประมาณ $30,000 ต่อแผ่น ➡️ เพิ่มขึ้นจากเวเฟอร์ 3nm เพียง 10–20% ไม่ใช่ 50% ตามข่าวลือ ➡️ TSMC ปรับราคาของเวเฟอร์ 3nm เช่น N3E และ N3P ให้สูงขึ้น ➡️ Qualcomm และ MediaTek ได้รับผลกระทบจากราคาที่เพิ่มขึ้น ➡️ Qualcomm เตรียมใช้ N2P สำหรับ Snapdragon 8 Elite Gen 6 ➡️ ราคาสินค้าอิเล็กทรอนิกส์จะเพิ่มขึ้นตามต้นทุนเวเฟอร์ ➡️ การผลิตชิป 2nm ใช้เทคโนโลยี Gate-All-Around และ EUV ➡️ TSMC เริ่มผลิต 2nm ในไตรมาสสุดท้ายของปี 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ Gate-All-Around เป็นเทคโนโลยีทรานซิสเตอร์ที่ลดการรั่วไหลของกระแสไฟ ➡️ EUV (Extreme Ultraviolet Lithography) เป็นเทคนิคพิมพ์ลวดลายที่ใช้แสงความยาวคลื่นสั้น ➡️ การผลิตเวเฟอร์ในสหรัฐฯ เช่นที่โรงงานใน Arizona มีต้นทุนสูงกว่าที่ไต้หวันถึง 20–30% ➡️ Apple และ AMD เป็นลูกค้าหลักของ TSMC ที่เตรียมใช้ 2nm ในผลิตภัณฑ์ปี 2026 ➡️ Chiplet architecture ช่วยลดต้นทุนโดยใช้เวเฟอร์ขั้นสูงเฉพาะในส่วนสำคัญของชิป https://wccftech.com/tsmc-2nm-wafers-to-be-10-to-20-percent-more-expensive-than-3nm/
    WCCFTECH.COM
    TSMC’s 2nm Customers Can Take A Breather; Wafers Reportedly Only 10-20 Percent More Expensive Than 3nm But There Is A Catch
    A new report states that instead of TSMC’s 2nm wafers being 50 percent more expensive than 3nm, they will be between 10-20 percent pricier
    0 ความคิดเห็น 0 การแบ่งปัน 280 มุมมอง 0 รีวิว
  • “Apple M5 Pro และ M5 Max อาจเปลี่ยนดีไซน์ชิปครั้งใหญ่ — แยก CPU กับ GPU เพื่อการปรับแต่งเฉพาะตัว”

    Apple กำลังเตรียมเปิดตัวชิป M5 Pro และ M5 Max ที่อาจมาพร้อมการเปลี่ยนแปลงครั้งสำคัญในด้านสถาปัตยกรรม โดยแหล่งข่าวระบุว่า Apple จะใช้ดีไซน์ใหม่ที่แยกบล็อก CPU และ GPU ออกจากกัน ซึ่งเปิดโอกาสให้ผู้ใช้สามารถเลือกจำนวนคอร์ของแต่ละส่วนได้ตามต้องการ เช่น เลือก GPU แบบจัดเต็มแต่ใช้ CPU เท่ารุ่นพื้นฐาน หรือกลับกัน

    ชิปทั้งสองรุ่นจะใช้เทคโนโลยีการบรรจุแบบ SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอนที่ช่วยให้มีความหนาแน่นสูงขึ้น ลดขนาดและน้ำหนักของแพ็กเกจ เหมาะกับเครื่องพกพาอย่าง MacBook Pro และยังช่วยให้ระบายความร้อนได้ดีขึ้นด้วยแผ่นสัมผัสที่เปิดออก

    M5 Pro และ M5 Max จะผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ซึ่งเป็นรุ่นที่พัฒนาต่อจาก N3E ที่ใช้ในชิป M4 และ A18 Bionic โดยคาดว่าจะให้ประสิทธิภาพสูงขึ้นและประหยัดพลังงานมากขึ้น

    อย่างไรก็ตาม ชิป M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH นี้ ทำให้ M5 Pro และ M5 Max กลายเป็นรุ่นพิเศษที่มีความสามารถในการปรับแต่งสูงกว่า และอาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน โดยมีข่าวลือว่าการเปิดตัว M5 Pro และ M5 Max จะล่าช้าออกไป

    แม้จะมีความล่าช้า แต่ Apple ก็ยังไม่มีคู่แข่งที่สามารถเทียบเคียงได้ในด้านประสิทธิภาพ โดย M4 Max ยังคงเหนือกว่า Snapdragon X2 Elite Extreme ทั้งในด้าน single-core และ multi-core รวมถึงการประมวลผลกราฟิกใน 3DMark

    ข้อมูลสำคัญจากข่าว
    M5 Pro และ M5 Max อาจใช้ดีไซน์ชิปใหม่ที่แยก CPU กับ GPU ออกจากกัน
    ผู้ใช้สามารถเลือกจำนวนคอร์ของ CPU และ GPU ได้ตามต้องการ
    ใช้เทคโนโลยี SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอน
    ช่วยลดขนาดและน้ำหนักของแพ็กเกจ เพิ่มความหนาแน่นของชิ้นส่วน
    เพิ่มประสิทธิภาพการระบายความร้อนด้วยแผ่นสัมผัสที่เปิดออก
    ผลิตบนเทคโนโลยี 3nm N3P ของ TSMC
    M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH
    อาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน
    M4 Max ยังเหนือกว่า Snapdragon X2 Elite Extreme ในหลายการทดสอบ

    ข้อมูลเสริมจากภายนอก
    SoIC-MH เป็นเทคโนโลยี 2.5D ที่ช่วยให้การเชื่อมต่อระหว่างชิปมีความหนาแน่นสูง
    การแยก CPU กับ GPU อาจช่วยให้ประสิทธิภาพ AI inference ดีขึ้น
    Unified Memory Architecture (UMA) อาจถูกยกเลิกในดีไซน์ใหม่นี้
    การแยกหน่วยความจำระหว่าง CPU กับ GPU อาจเพิ่มความยืดหยุ่นในการใช้งาน
    Apple อาจใช้ดีไซน์ใหม่นี้เพื่อรองรับ Private Cloud Compute สำหรับงาน AI

    https://wccftech.com/apple-m5-pro-and-m5-max-new-chip-design-with-separate-cpu-and-gpu-blocks/
    🧩 “Apple M5 Pro และ M5 Max อาจเปลี่ยนดีไซน์ชิปครั้งใหญ่ — แยก CPU กับ GPU เพื่อการปรับแต่งเฉพาะตัว” Apple กำลังเตรียมเปิดตัวชิป M5 Pro และ M5 Max ที่อาจมาพร้อมการเปลี่ยนแปลงครั้งสำคัญในด้านสถาปัตยกรรม โดยแหล่งข่าวระบุว่า Apple จะใช้ดีไซน์ใหม่ที่แยกบล็อก CPU และ GPU ออกจากกัน ซึ่งเปิดโอกาสให้ผู้ใช้สามารถเลือกจำนวนคอร์ของแต่ละส่วนได้ตามต้องการ เช่น เลือก GPU แบบจัดเต็มแต่ใช้ CPU เท่ารุ่นพื้นฐาน หรือกลับกัน ชิปทั้งสองรุ่นจะใช้เทคโนโลยีการบรรจุแบบ SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอนที่ช่วยให้มีความหนาแน่นสูงขึ้น ลดขนาดและน้ำหนักของแพ็กเกจ เหมาะกับเครื่องพกพาอย่าง MacBook Pro และยังช่วยให้ระบายความร้อนได้ดีขึ้นด้วยแผ่นสัมผัสที่เปิดออก M5 Pro และ M5 Max จะผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ซึ่งเป็นรุ่นที่พัฒนาต่อจาก N3E ที่ใช้ในชิป M4 และ A18 Bionic โดยคาดว่าจะให้ประสิทธิภาพสูงขึ้นและประหยัดพลังงานมากขึ้น อย่างไรก็ตาม ชิป M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH นี้ ทำให้ M5 Pro และ M5 Max กลายเป็นรุ่นพิเศษที่มีความสามารถในการปรับแต่งสูงกว่า และอาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน โดยมีข่าวลือว่าการเปิดตัว M5 Pro และ M5 Max จะล่าช้าออกไป แม้จะมีความล่าช้า แต่ Apple ก็ยังไม่มีคู่แข่งที่สามารถเทียบเคียงได้ในด้านประสิทธิภาพ โดย M4 Max ยังคงเหนือกว่า Snapdragon X2 Elite Extreme ทั้งในด้าน single-core และ multi-core รวมถึงการประมวลผลกราฟิกใน 3DMark ✅ ข้อมูลสำคัญจากข่าว ➡️ M5 Pro และ M5 Max อาจใช้ดีไซน์ชิปใหม่ที่แยก CPU กับ GPU ออกจากกัน ➡️ ผู้ใช้สามารถเลือกจำนวนคอร์ของ CPU และ GPU ได้ตามต้องการ ➡️ ใช้เทคโนโลยี SoIC-MH จาก TSMC ซึ่งเป็นการวางชิปแบบแนวนอน ➡️ ช่วยลดขนาดและน้ำหนักของแพ็กเกจ เพิ่มความหนาแน่นของชิ้นส่วน ➡️ เพิ่มประสิทธิภาพการระบายความร้อนด้วยแผ่นสัมผัสที่เปิดออก ➡️ ผลิตบนเทคโนโลยี 3nm N3P ของ TSMC ➡️ M5 รุ่นพื้นฐานจะไม่ได้รับเทคโนโลยี SoIC-MH ➡️ อาจเป็นครั้งแรกที่ Apple ไม่เปิดตัวชิปทั้งสามรุ่นพร้อมกัน ➡️ M4 Max ยังเหนือกว่า Snapdragon X2 Elite Extreme ในหลายการทดสอบ ✅ ข้อมูลเสริมจากภายนอก ➡️ SoIC-MH เป็นเทคโนโลยี 2.5D ที่ช่วยให้การเชื่อมต่อระหว่างชิปมีความหนาแน่นสูง ➡️ การแยก CPU กับ GPU อาจช่วยให้ประสิทธิภาพ AI inference ดีขึ้น ➡️ Unified Memory Architecture (UMA) อาจถูกยกเลิกในดีไซน์ใหม่นี้ ➡️ การแยกหน่วยความจำระหว่าง CPU กับ GPU อาจเพิ่มความยืดหยุ่นในการใช้งาน ➡️ Apple อาจใช้ดีไซน์ใหม่นี้เพื่อรองรับ Private Cloud Compute สำหรับงาน AI https://wccftech.com/apple-m5-pro-and-m5-max-new-chip-design-with-separate-cpu-and-gpu-blocks/
    WCCFTECH.COM
    Apple’s M5 Pro & M5 Max Rumored To Share New Chip Design With Separate CPU, GPU Blocks, Allowing For Unique Configurations, May Not Arrive With Regular M5
    It might be possible to enable unique configurations with the M5 Pro and M5 Max, as both Apple Silicon are rumored to feature a brand new design
    0 ความคิดเห็น 0 การแบ่งปัน 255 มุมมอง 0 รีวิว
  • “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์”

    Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน

    Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป

    Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน

    ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา

    นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake

    ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง

    ข้อมูลสำคัญจากข่าว
    Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids
    Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core
    รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile
    Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์
    Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์
    ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids
    มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น
    Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core
    Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์

    ข้อมูลเสริมจากภายนอก
    Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน
    Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont
    Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading
    APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก
    การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่

    https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    🧠 “Intel เปิดตัวสถาปัตยกรรมใหม่ Nova Lake และ Diamond Rapids — ยุคใหม่ของ CPU ที่เน้น AI, ประสิทธิภาพ และความหนาแน่นของคอร์” Intel ยืนยันอย่างเป็นทางการถึงสถาปัตยกรรมใหม่สำหรับ CPU รุ่นถัดไปในปี 2026 โดยแบ่งออกเป็นสองสายหลัก ได้แก่ Nova Lake สำหรับผู้ใช้ทั่วไป และ Diamond Rapids สำหรับเซิร์ฟเวอร์ โดยข้อมูลนี้ปรากฏในเอกสาร ISA Reference ล่าสุดของ Intel ซึ่งช่วยยืนยันข่าวลือก่อนหน้านี้อย่างชัดเจน Nova Lake จะใช้ P-Core แบบใหม่ชื่อว่า Coyote Cove และ E-Core ชื่อ Arctic Wolf ซึ่งถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพต่อคอร์ (IPC) และลดการใช้พลังงาน โดยจะรองรับแพลตฟอร์มใหม่ผ่านซ็อกเก็ต LGA 1954 และมี GPU แบบฝังรุ่นใหม่ที่ใช้ Xe3 tile สำหรับกราฟิกที่ดีขึ้นในโน้ตบุ๊กและเดสก์ท็อป Nova Lake-S สำหรับเดสก์ท็อปจะมีจำนวนคอร์สูงสุดถึง 52 คอร์ ขณะที่รุ่น HX สำหรับโน้ตบุ๊กจะมีสูงสุด 28 คอร์ และอาจมีรุ่น Nova Lake-AX สำหรับตลาด APU ที่เคยมีข่าวว่าจะเป็นคู่แข่งกับ AMD Strix Halo แต่ตอนนี้ยังอยู่ในสถานะไม่แน่นอน ฝั่งเซิร์ฟเวอร์ Diamond Rapids จะใช้ P-Core แบบ Panther Cove ซึ่งเน้นการเพิ่มความหนาแน่นของคอร์ โดยอาจมีสูงถึง 192–256 คอร์ แต่จะไม่มีฟีเจอร์ Hyper-Threading (SMT) ในรุ่นแรก ซึ่ง Intel ยืนยันว่าจะนำกลับมาในรุ่น Coral Rapids ที่ตามมา นอกจากนี้ยังมีการกล่าวถึง Panther Cove-X ซึ่งอาจเป็นรุ่นประสิทธิภาพสูงสำหรับเวิร์กสเตชัน และ Wildcat Lake ซึ่งจะมาแทน Twin Lake ในกลุ่ม APU ระดับเริ่มต้น โดยใช้ Cougar Cove P-Core และ Darkmont E-Core เช่นเดียวกับ Panther Lake ทั้งหมดนี้สะท้อนถึงยุทธศาสตร์ของ Intel ที่เน้นการขยายจำนวนคอร์ ปรับปรุงสถาปัตยกรรม และเตรียมพร้อมสำหรับยุค AI ที่ต้องการการประมวลผลแบบกระจายและมีประสิทธิภาพสูง ✅ ข้อมูลสำคัญจากข่าว ➡️ Intel ยืนยันสถาปัตยกรรมใหม่สำหรับ CPU ปี 2026 ได้แก่ Nova Lake และ Diamond Rapids ➡️ Nova Lake ใช้ Coyote Cove P-Core และ Arctic Wolf E-Core ➡️ รองรับซ็อกเก็ตใหม่ LGA 1954 และ GPU แบบ Xe3 tile ➡️ Nova Lake-S มีสูงสุด 52 คอร์ ส่วนรุ่น HX มีสูงสุด 28 คอร์ ➡️ Diamond Rapids ใช้ Panther Cove P-Core และเน้นความหนาแน่นของคอร์ ➡️ ไม่มี SMT ใน Diamond Rapids แต่จะกลับมาใน Coral Rapids ➡️ มีการกล่าวถึง Panther Cove-X สำหรับเวิร์กสเตชัน และ Wildcat Lake สำหรับ APU ระดับเริ่มต้น ➡️ Wildcat Lake ใช้ Cougar Cove P-Core และ Darkmont E-Core ➡️ Intel เตรียมแข่งขันกับ AMD Zen 6 ทั้งในตลาดผู้ใช้ทั่วไปและเซิร์ฟเวอร์ ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe3 tile เป็น GPU แบบฝังรุ่นใหม่ที่เน้นประสิทธิภาพและการประหยัดพลังงาน ➡️ Panther Lake เป็นรุ่นก่อนหน้า Nova Lake ที่ใช้ Cougar Cove และ Darkmont ➡️ Coral Rapids จะนำ SMT กลับมาเพื่อรองรับงานเซิร์ฟเวอร์ที่ต้องการ multithreading ➡️ APU คือชิปที่รวม CPU และ GPU ไว้ในตัวเดียว เหมาะกับงานที่ต้องการกราฟิกแต่ไม่ใช้การ์ดจอแยก ➡️ การเพิ่มจำนวนคอร์ช่วยให้รองรับงานแบบ parallel ได้ดีขึ้น เช่น AI, simulation, และการประมวลผลข้อมูลขนาดใหญ่ https://www.tomshardware.com/pc-components/cpus/intels-next-gen-nova-lake-and-diamond-rapids-microarchitectures-get-official-confirmation-latest-isa-reference-doc-details-the-p-cores-and-e-cores-upcoming-cpus-will-use
    0 ความคิดเห็น 0 การแบ่งปัน 326 มุมมอง 0 รีวิว
  • “Alphawave Semi ผนึกกำลัง TSMC เปิดตัว UCIe 3D IP — ปลดล็อกขีดจำกัดการเชื่อมต่อชิปในยุค AI”

    Alphawave Semi บริษัทผู้นำด้านเทคโนโลยีการเชื่อมต่อความเร็วสูง ประกาศความสำเร็จในการ tape-out ชิป UCIe 3D IP รุ่นใหม่บนแพลตฟอร์ม 3DFabric ของ TSMC โดยใช้เทคโนโลยี SoIC-X ซึ่งเป็นการบรรจุชิปแบบ 3D ขั้นสูงที่ช่วยให้การเชื่อมต่อระหว่างชิปมีประสิทธิภาพสูงขึ้นอย่างก้าวกระโดด

    ชิปใหม่นี้รองรับการเชื่อมต่อแบบ face-to-face (F2F) และให้ประสิทธิภาพด้านพลังงานดีขึ้นถึง 10 เท่าเมื่อเทียบกับการเชื่อมต่อแบบ 2.5D เดิม พร้อมเพิ่มความหนาแน่นของสัญญาณได้ถึง 5 เท่า ซึ่งถือเป็นการตอบโจทย์โดยตรงต่อความต้องการของระบบ AI และ HPC ที่ต้องการแบนด์วิดธ์สูงและการจัดการพลังงานที่มีประสิทธิภาพ

    ในยุคที่ Moore’s Law เริ่มไม่สามารถรองรับความซับซ้อนของโมเดล AI ได้อีกต่อไป การออกแบบชิปแบบเดิมที่สื่อสารกันผ่านขอบของแพ็กเกจเริ่มกลายเป็นข้อจำกัด Alphawave จึงเลือกแนวทางใหม่ด้วยการออกแบบชิปแบบ disaggregated architecture โดยใช้การวางชิปหลายตัวในแนวนอน หรือซ้อนกันในแนวตั้ง เพื่อเพิ่มแบนด์วิดธ์และลดการใช้พลังงาน

    ชิป UCIe-3D รุ่นใหม่นี้ใช้ bottom die ขนาด 5nm ที่รองรับ TSVs (Through-Silicon Vias) เพื่อส่งพลังงานและกราวด์ไปยัง top die ขนาด 3nm ซึ่งช่วยให้การจัดการพลังงานภายในชิปมีประสิทธิภาพมากขึ้น นอกจากนี้ Alphawave ยังมีชุดเครื่องมือ 3DIO ที่ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D เป็นไปอย่างรวดเร็วและแม่นยำ

    ความร่วมมือครั้งนี้ยังรวมถึง Siemens ซึ่งนำแพลตฟอร์ม Calibre เข้ามาช่วยในการวิเคราะห์พารามิเตอร์ไฟฟ้าและความร้อนในระยะเริ่มต้น เพื่อให้ระบบมีความเสถียรและเชื่อถือได้มากขึ้น

    ข้อมูลสำคัญจากข่าว
    Alphawave Semi ประสบความสำเร็จในการ tape-out ชิป UCIe 3D IP บนแพลตฟอร์ม TSMC 3DFabric
    ใช้เทคโนโลยี SoIC-X สำหรับการบรรจุชิปแบบ 3D ขั้นสูง
    รองรับการเชื่อมต่อแบบ face-to-face (F2F)
    ประสิทธิภาพด้านพลังงานดีขึ้น 10 เท่า และความหนาแน่นของสัญญาณเพิ่มขึ้น 5 เท่า
    ใช้ bottom die ขนาด 5nm และ top die ขนาด 3nm โดยเชื่อมผ่าน TSVs
    ช่วยแก้ปัญหาคอขวดด้านแบนด์วิดธ์และพลังงานในระบบ AI และ HPC
    Siemens ร่วมพัฒนาแพลตฟอร์มการออกแบบและตรวจสอบร่วมกับ Alphawave
    ชุดเครื่องมือ 3DIO ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D มีประสิทธิภาพ
    การออกแบบแบบ disaggregated architecture เป็นแนวทางใหม่แทน SoC แบบเดิม

    ข้อมูลเสริมจากภายนอก
    UCIe (Universal Chiplet Interconnect Express) เป็นมาตรฐานใหม่สำหรับการเชื่อมต่อชิปแบบ chiplet
    SoIC-X ของ TSMC เป็นเทคโนโลยีการบรรจุชิปแบบ 3D ที่ใช้ในระดับองค์กรและ hyperscaler
    TSVs ช่วยให้การส่งพลังงานและข้อมูลระหว่างชิปมีความเร็วและประสิทธิภาพสูง
    การออกแบบแบบ chiplet ช่วยให้สามารถอัปเกรดเฉพาะส่วนของชิปได้โดยไม่ต้องสร้างใหม่ทั้งหมด
    Siemens Calibre เป็นแพลตฟอร์มที่ใช้วิเคราะห์ความถูกต้องของวงจรในระดับนาโนเมตร

    https://www.techpowerup.com/341533/alphawave-semi-delivers-cutting-edge-ucie-chiplet-ip-on-tsmc-3dfabric-platform
    🔗 “Alphawave Semi ผนึกกำลัง TSMC เปิดตัว UCIe 3D IP — ปลดล็อกขีดจำกัดการเชื่อมต่อชิปในยุค AI” Alphawave Semi บริษัทผู้นำด้านเทคโนโลยีการเชื่อมต่อความเร็วสูง ประกาศความสำเร็จในการ tape-out ชิป UCIe 3D IP รุ่นใหม่บนแพลตฟอร์ม 3DFabric ของ TSMC โดยใช้เทคโนโลยี SoIC-X ซึ่งเป็นการบรรจุชิปแบบ 3D ขั้นสูงที่ช่วยให้การเชื่อมต่อระหว่างชิปมีประสิทธิภาพสูงขึ้นอย่างก้าวกระโดด ชิปใหม่นี้รองรับการเชื่อมต่อแบบ face-to-face (F2F) และให้ประสิทธิภาพด้านพลังงานดีขึ้นถึง 10 เท่าเมื่อเทียบกับการเชื่อมต่อแบบ 2.5D เดิม พร้อมเพิ่มความหนาแน่นของสัญญาณได้ถึง 5 เท่า ซึ่งถือเป็นการตอบโจทย์โดยตรงต่อความต้องการของระบบ AI และ HPC ที่ต้องการแบนด์วิดธ์สูงและการจัดการพลังงานที่มีประสิทธิภาพ ในยุคที่ Moore’s Law เริ่มไม่สามารถรองรับความซับซ้อนของโมเดล AI ได้อีกต่อไป การออกแบบชิปแบบเดิมที่สื่อสารกันผ่านขอบของแพ็กเกจเริ่มกลายเป็นข้อจำกัด Alphawave จึงเลือกแนวทางใหม่ด้วยการออกแบบชิปแบบ disaggregated architecture โดยใช้การวางชิปหลายตัวในแนวนอน หรือซ้อนกันในแนวตั้ง เพื่อเพิ่มแบนด์วิดธ์และลดการใช้พลังงาน ชิป UCIe-3D รุ่นใหม่นี้ใช้ bottom die ขนาด 5nm ที่รองรับ TSVs (Through-Silicon Vias) เพื่อส่งพลังงานและกราวด์ไปยัง top die ขนาด 3nm ซึ่งช่วยให้การจัดการพลังงานภายในชิปมีประสิทธิภาพมากขึ้น นอกจากนี้ Alphawave ยังมีชุดเครื่องมือ 3DIO ที่ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D เป็นไปอย่างรวดเร็วและแม่นยำ ความร่วมมือครั้งนี้ยังรวมถึง Siemens ซึ่งนำแพลตฟอร์ม Calibre เข้ามาช่วยในการวิเคราะห์พารามิเตอร์ไฟฟ้าและความร้อนในระยะเริ่มต้น เพื่อให้ระบบมีความเสถียรและเชื่อถือได้มากขึ้น ✅ ข้อมูลสำคัญจากข่าว ➡️ Alphawave Semi ประสบความสำเร็จในการ tape-out ชิป UCIe 3D IP บนแพลตฟอร์ม TSMC 3DFabric ➡️ ใช้เทคโนโลยี SoIC-X สำหรับการบรรจุชิปแบบ 3D ขั้นสูง ➡️ รองรับการเชื่อมต่อแบบ face-to-face (F2F) ➡️ ประสิทธิภาพด้านพลังงานดีขึ้น 10 เท่า และความหนาแน่นของสัญญาณเพิ่มขึ้น 5 เท่า ➡️ ใช้ bottom die ขนาด 5nm และ top die ขนาด 3nm โดยเชื่อมผ่าน TSVs ➡️ ช่วยแก้ปัญหาคอขวดด้านแบนด์วิดธ์และพลังงานในระบบ AI และ HPC ➡️ Siemens ร่วมพัฒนาแพลตฟอร์มการออกแบบและตรวจสอบร่วมกับ Alphawave ➡️ ชุดเครื่องมือ 3DIO ช่วยให้การออกแบบและตรวจสอบชิปแบบ 3D มีประสิทธิภาพ ➡️ การออกแบบแบบ disaggregated architecture เป็นแนวทางใหม่แทน SoC แบบเดิม ✅ ข้อมูลเสริมจากภายนอก ➡️ UCIe (Universal Chiplet Interconnect Express) เป็นมาตรฐานใหม่สำหรับการเชื่อมต่อชิปแบบ chiplet ➡️ SoIC-X ของ TSMC เป็นเทคโนโลยีการบรรจุชิปแบบ 3D ที่ใช้ในระดับองค์กรและ hyperscaler ➡️ TSVs ช่วยให้การส่งพลังงานและข้อมูลระหว่างชิปมีความเร็วและประสิทธิภาพสูง ➡️ การออกแบบแบบ chiplet ช่วยให้สามารถอัปเกรดเฉพาะส่วนของชิปได้โดยไม่ต้องสร้างใหม่ทั้งหมด ➡️ Siemens Calibre เป็นแพลตฟอร์มที่ใช้วิเคราะห์ความถูกต้องของวงจรในระดับนาโนเมตร https://www.techpowerup.com/341533/alphawave-semi-delivers-cutting-edge-ucie-chiplet-ip-on-tsmc-3dfabric-platform
    WWW.TECHPOWERUP.COM
    Alphawave Semi Delivers Cutting-Edge UCIe Chiplet IP on TSMC 3DFabric Platform
    Alphawave Semi (LSE: AWE), a global leader in high-speed connectivity and compute silicon for the world's technology infrastructure, has announced the successful tape-out of its cutting edge UCIe 3D IP on the advanced TSMC SoIC (SoIC-X) technology in the 3DFabric platform. This achievement builds on...
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ”

    DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม

    จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ

    นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน

    แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง

    ข้อมูลสำคัญจากข่าว
    DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face
    เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท
    ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว
    ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า
    ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI
    ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง
    โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License
    มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง
    เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด

    ข้อมูลเสริมจากภายนอก
    Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ
    Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล
    การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง
    DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง
    ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ

    https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    🧠 “DeepSeek-V3.2-Exp เปิดตัวแล้ว — โมเดล AI จีนที่ท้าชน OpenAI ด้วยประสิทธิภาพสูงและต้นทุนต่ำ” DeepSeek บริษัท AI จากเมืองหางโจว ประเทศจีน ได้เปิดตัวโมเดลใหม่ชื่อว่า DeepSeek-V3.2-Exp ซึ่งถูกระบุว่าเป็น “ขั้นกลาง” ก่อนเข้าสู่สถาปัตยกรรมรุ่นถัดไปที่บริษัทกำลังพัฒนาอยู่ โมเดลนี้ถูกปล่อยผ่านแพลตฟอร์ม Hugging Face และถือเป็นการทดลองเชิงเทคนิคที่มุ่งเน้นการเพิ่มประสิทธิภาพในการฝึกและการประมวลผลข้อความยาว โดยไม่เน้นการไล่คะแนนบน leaderboard แบบเดิม จุดเด่นของ V3.2-Exp คือการใช้กลไกใหม่ที่เรียกว่า DeepSeek Sparse Attention (DSA) ซึ่งช่วยลดต้นทุนการคำนวณอย่างมาก และยังคงคุณภาพของผลลัพธ์ไว้ใกล้เคียงกับรุ่นก่อนหน้าอย่าง V3.1-Terminus โดยทีมงานได้ตั้งค่าการฝึกให้เหมือนกันทุกประการ เพื่อพิสูจน์ว่า “ความเร็วและประสิทธิภาพ” คือสิ่งที่พัฒนาได้จริง โดยไม่ต้องแลกกับคุณภาพ นอกจากนี้ DeepSeek ยังประกาศลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับคู่แข่งทั้งในประเทศ เช่น Alibaba Qwen และระดับโลกอย่าง OpenAI ซึ่งถือเป็นการเปิดศึกด้านราคาในตลาดโมเดลภาษาอย่างชัดเจน แม้โมเดลนี้จะยังไม่ใช่รุ่น “next-gen” ที่หลายคนรอคอย แต่ก็ถือเป็นการกลับมาอย่างมั่นใจของ DeepSeek หลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด เนื่องจากปัญหาด้านฮาร์ดแวร์ โดยเฉพาะการฝึกบนชิป Ascend ของ Huawei ที่ไม่สามารถทำงานได้ตามเป้า ทำให้ต้องกลับมาใช้ Nvidia อีกครั้ง ✅ ข้อมูลสำคัญจากข่าว ➡️ DeepSeek เปิดตัวโมเดลใหม่ชื่อ DeepSeek-V3.2-Exp บน Hugging Face ➡️ เป็นการทดลองเพื่อเตรียมเข้าสู่สถาปัตยกรรมรุ่นถัดไปของบริษัท ➡️ ใช้กลไก DeepSeek Sparse Attention (DSA) เพื่อเพิ่มประสิทธิภาพการประมวลผลข้อความยาว ➡️ ตั้งค่าการฝึกเหมือนกับ V3.1-Terminus เพื่อพิสูจน์ว่า DSA ให้ผลลัพธ์เทียบเท่าแต่เร็วกว่า ➡️ ลดราคาการใช้งาน API ลงกว่า 50% เพื่อแข่งขันกับ Alibaba และ OpenAI ➡️ ไม่เน้นการไล่คะแนน benchmark แต่เน้นการพิสูจน์ประสิทธิภาพจริง ➡️ โมเดลเปิดให้ใช้งานแบบ open-source ภายใต้ MIT License ➡️ มีการปล่อย kernel สำหรับงานวิจัยและการใช้งานประสิทธิภาพสูง ➡️ เป็นการกลับมาอีกครั้งหลังจากโมเดล R2 ถูกเลื่อนออกไปอย่างไม่มีกำหนด ✅ ข้อมูลเสริมจากภายนอก ➡️ Sparse Attention เป็นเทคนิคที่ช่วยลดการคำนวณในโมเดล Transformer โดยเลือกเฉพาะข้อมูลสำคัญ ➡️ Hugging Face เป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกใช้ในการเผยแพร่และทดลองโมเดล ➡️ การลดราคาการใช้งาน API เป็นกลยุทธ์ที่ใช้บ่อยในการเปิดตลาดใหม่หรือแย่งส่วนแบ่งจากคู่แข่ง ➡️ DeepSeek เคยสร้างความฮือฮาใน Silicon Valley ด้วยโมเดล V3 และ R1 ที่มีประสิทธิภาพสูง ➡️ ปัญหาการฝึกบนชิป Ascend ของ Huawei สะท้อนความท้าทายของจีนในการพึ่งพาฮาร์ดแวร์ภายในประเทศ https://www.thestar.com.my/tech/tech-news/2025/09/29/deepseek-releases-model-it-calls-039intermediate-step039-towards-039next-generation-architecture039
    WWW.THESTAR.COM.MY
    DeepSeek releases model it calls 'intermediate step' towards 'next-generation architecture'
    BEIJING (Reuters) -Chinese AI developer DeepSeek has released its latest model which it said was an "experimental release" that was more efficient to train and better at processing long sequences of text than previous iterations.
    0 ความคิดเห็น 0 การแบ่งปัน 313 มุมมอง 0 รีวิว
  • “AMD จดสิทธิบัตร HB-DIMM อีกครั้ง — แต่เทคโนโลยีนี้อาจไม่มา เพราะ MRDIMM แซงหน้าไปแล้ว”

    เมื่อเร็ว ๆ นี้ AMD ได้จดสิทธิบัตรใหม่ในชื่อ “High-bandwidth memory module architecture” ซึ่งหลายคนเข้าใจว่าเป็นการเปิดตัวเทคโนโลยี RAM แบบใหม่ที่ใช้ DDR5 เป็นฐาน โดยเรียกว่า HB-DIMM (High-Bandwidth DIMM) แต่แท้จริงแล้ว สิทธิบัตรนี้เป็นเพียงการต่อยอดจากเอกสารเดิมที่ยื่นไว้ตั้งแต่ปี 2022 และถูกแทนที่ด้วยเทคโนโลยี MRDIMM ไปแล้วตั้งแต่ปี 2023

    HB-DIMM เป็นแนวคิดที่ใช้ “pseudo-channels” หรือช่องสัญญาณจำลองภายในโมดูลเดียว เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ได้ถึงสองเท่า โดยไม่ต้องเปลี่ยนชิป DRAM แต่ต้องเพิ่มชิ้นส่วน เช่น data buffers และ RCD (Register Clock Driver) ซึ่งทำให้ HB-DIMM มีศักยภาพเหนือกว่า RDIMM และ CUDIMM แบบเดิม

    อย่างไรก็ตาม เทคโนโลยีนี้ได้ถูกนำไปพัฒนาเป็นมาตรฐานใหม่ชื่อ MRDIMM (Multiplexed-Rank DIMM) โดย JEDEC ซึ่งรวมแนวคิดของ HB-DIMM และ MCR-DIMM (จาก Intel และ SK hynix) เข้าด้วยกัน เพื่อหลีกเลี่ยงการเกิดมาตรฐานที่ไม่เข้ากันในตลาด

    MRDIMM ได้รับการสนับสนุนจาก Intel และ AMD แล้ว โดย Intel ใช้ในซีพียู Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ที่มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ซึ่งตรงกับความเร็วที่ JEDEC ระบุไว้สำหรับ MRDIMM รุ่นที่สอง

    แม้จะมีประสิทธิภาพสูง แต่ MRDIMM ยังมีราคาสูงมาก โดยแพงกว่ารุ่น DDR5 RDIMM ทั่วไปถึง 28–114% ต่อ GB ซึ่งอาจเป็นอุปสรรคต่อการนำมาใช้ในระบบทั่วไป

    ข้อมูลสำคัญจากข่าว
    AMD จดสิทธิบัตร HB-DIMM อีกครั้งในปี 2025 แต่เป็นการต่อยอดจากเอกสารเดิม
    HB-DIMM ใช้ pseudo-channels เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5
    ต้องใช้ชิ้นส่วนเพิ่ม เช่น data buffers และ RCD เพื่อให้ทำงานได้
    แนวคิด HB-DIMM ถูกนำไปพัฒนาเป็นมาตรฐาน MRDIMM โดย JEDEC
    MRDIMM รวมแนวคิดจาก HB-DIMM และ MCR-DIMM เพื่อหลีกเลี่ยงความไม่เข้ากัน
    Intel ใช้ MRDIMM ใน Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’
    EPYC ‘Venice’ มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต
    MRDIMM รุ่นที่สองมีความเร็วสูงถึง 12,800 Mbps ตามมาตรฐาน JEDEC
    MRDIMM มีราคาสูงกว่ารุ่น DDR5 RDIMM ถึง 28–114% ต่อ GB

    ข้อมูลเสริมจากภายนอก
    HB-DIMM ไม่ใช่เทคโนโลยีใหม่ แต่เป็นแนวคิดที่ถูกพัฒนาไปแล้ว
    JEDEC เป็นองค์กรที่กำหนดมาตรฐานหน่วยความจำระดับโลก
    pseudo-channels ช่วยให้สามารถเข้าถึงข้อมูลแบบขนานภายในโมดูลเดียว
    MRDIMM ช่วยลด latency และเพิ่ม throughput ในงานที่ใช้หน่วยความจำหนัก
    AMD และ Intel มีแนวโน้มร่วมมือกันมากขึ้นในด้านมาตรฐานหน่วยความจำ

    https://www.tomshardware.com/pc-components/ram/amds-memory-patent-outlining-a-new-improved-ram-made-from-ddr5-memory-isnt-a-new-development-hb-dimms-already-superseded-probably-wont-come-to-market
    🧠 “AMD จดสิทธิบัตร HB-DIMM อีกครั้ง — แต่เทคโนโลยีนี้อาจไม่มา เพราะ MRDIMM แซงหน้าไปแล้ว” เมื่อเร็ว ๆ นี้ AMD ได้จดสิทธิบัตรใหม่ในชื่อ “High-bandwidth memory module architecture” ซึ่งหลายคนเข้าใจว่าเป็นการเปิดตัวเทคโนโลยี RAM แบบใหม่ที่ใช้ DDR5 เป็นฐาน โดยเรียกว่า HB-DIMM (High-Bandwidth DIMM) แต่แท้จริงแล้ว สิทธิบัตรนี้เป็นเพียงการต่อยอดจากเอกสารเดิมที่ยื่นไว้ตั้งแต่ปี 2022 และถูกแทนที่ด้วยเทคโนโลยี MRDIMM ไปแล้วตั้งแต่ปี 2023 HB-DIMM เป็นแนวคิดที่ใช้ “pseudo-channels” หรือช่องสัญญาณจำลองภายในโมดูลเดียว เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ได้ถึงสองเท่า โดยไม่ต้องเปลี่ยนชิป DRAM แต่ต้องเพิ่มชิ้นส่วน เช่น data buffers และ RCD (Register Clock Driver) ซึ่งทำให้ HB-DIMM มีศักยภาพเหนือกว่า RDIMM และ CUDIMM แบบเดิม อย่างไรก็ตาม เทคโนโลยีนี้ได้ถูกนำไปพัฒนาเป็นมาตรฐานใหม่ชื่อ MRDIMM (Multiplexed-Rank DIMM) โดย JEDEC ซึ่งรวมแนวคิดของ HB-DIMM และ MCR-DIMM (จาก Intel และ SK hynix) เข้าด้วยกัน เพื่อหลีกเลี่ยงการเกิดมาตรฐานที่ไม่เข้ากันในตลาด MRDIMM ได้รับการสนับสนุนจาก Intel และ AMD แล้ว โดย Intel ใช้ในซีพียู Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ที่มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ซึ่งตรงกับความเร็วที่ JEDEC ระบุไว้สำหรับ MRDIMM รุ่นที่สอง แม้จะมีประสิทธิภาพสูง แต่ MRDIMM ยังมีราคาสูงมาก โดยแพงกว่ารุ่น DDR5 RDIMM ทั่วไปถึง 28–114% ต่อ GB ซึ่งอาจเป็นอุปสรรคต่อการนำมาใช้ในระบบทั่วไป ✅ ข้อมูลสำคัญจากข่าว ➡️ AMD จดสิทธิบัตร HB-DIMM อีกครั้งในปี 2025 แต่เป็นการต่อยอดจากเอกสารเดิม ➡️ HB-DIMM ใช้ pseudo-channels เพื่อเพิ่มอัตราการส่งข้อมูลของ DDR5 ➡️ ต้องใช้ชิ้นส่วนเพิ่ม เช่น data buffers และ RCD เพื่อให้ทำงานได้ ➡️ แนวคิด HB-DIMM ถูกนำไปพัฒนาเป็นมาตรฐาน MRDIMM โดย JEDEC ➡️ MRDIMM รวมแนวคิดจาก HB-DIMM และ MCR-DIMM เพื่อหลีกเลี่ยงความไม่เข้ากัน ➡️ Intel ใช้ MRDIMM ใน Xeon 6 และ AMD เตรียมใช้ใน EPYC ‘Venice’ ➡️ EPYC ‘Venice’ มีแบนด์วิดท์สูงถึง 1.6 TB/s ต่อซ็อกเก็ต ➡️ MRDIMM รุ่นที่สองมีความเร็วสูงถึง 12,800 Mbps ตามมาตรฐาน JEDEC ➡️ MRDIMM มีราคาสูงกว่ารุ่น DDR5 RDIMM ถึง 28–114% ต่อ GB ✅ ข้อมูลเสริมจากภายนอก ➡️ HB-DIMM ไม่ใช่เทคโนโลยีใหม่ แต่เป็นแนวคิดที่ถูกพัฒนาไปแล้ว ➡️ JEDEC เป็นองค์กรที่กำหนดมาตรฐานหน่วยความจำระดับโลก ➡️ pseudo-channels ช่วยให้สามารถเข้าถึงข้อมูลแบบขนานภายในโมดูลเดียว ➡️ MRDIMM ช่วยลด latency และเพิ่ม throughput ในงานที่ใช้หน่วยความจำหนัก ➡️ AMD และ Intel มีแนวโน้มร่วมมือกันมากขึ้นในด้านมาตรฐานหน่วยความจำ https://www.tomshardware.com/pc-components/ram/amds-memory-patent-outlining-a-new-improved-ram-made-from-ddr5-memory-isnt-a-new-development-hb-dimms-already-superseded-probably-wont-come-to-market
    0 ความคิดเห็น 0 การแบ่งปัน 236 มุมมอง 0 รีวิว
  • “Snapdragon X2 Elite Extreme: ชิป Arm 3nm ตัวแรกแตะ 5GHz — Qualcomm เปิดเกมรุกตลาด PC ด้วยพลัง AI และประสิทธิภาพล้นขอบ”

    ที่งาน Snapdragon Summit 2025 ณ ฮาวาย Qualcomm เปิดตัวชิปตระกูลใหม่สำหรับ PC คือ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นรุ่นต่อยอดจาก X Elite รุ่นแรกที่เปิดตัวเมื่อปี 2023 โดยครั้งนี้ Qualcomm ตั้งใจยกระดับชิป Arm สำหรับ Windows PC ให้เทียบชั้นกับ x86 จาก Intel และ AMD

    Snapdragon X2 Elite Extreme เป็นชิประดับสูงสุดในซีรีส์นี้ โดยมี 18 คอร์ แบ่งเป็น 12 คอร์ “Prime” ที่สามารถเร่งความเร็วได้ถึง 5.0GHz (บน 2 คอร์) และอีก 6 คอร์ “Performance” ที่ทำงานที่ 3.6GHz ถือเป็นชิป Arm ตัวแรกที่แตะความเร็วระดับนี้บน PC

    ชิปทั้งหมดผลิตด้วยเทคโนโลยี 3nm และใช้สถาปัตยกรรม Oryon รุ่นที่ 3 ซึ่ง Qualcomm เคลมว่ามีประสิทธิภาพสูงกว่าคู่แข่งถึง 75% ที่พลังงานเท่ากัน และประหยัดพลังงานกว่าเดิมถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า

    ด้านกราฟิก ชิปใหม่มาพร้อม Adreno GPU รุ่นล่าสุดที่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า รองรับ ray tracing และการเรนเดอร์ภาพระดับสูง ส่วน NPU (Neural Processing Unit) ก็แรงไม่แพ้กัน โดยมีพลังประมวลผลถึง 80 TOPS ซึ่งสูงกว่ารุ่นก่อนหน้าถึง 78% และถูกออกแบบมาเพื่อรองรับ Copilot+ และงาน AI แบบเรียลไทม์

    Snapdragon X2 Elite Extreme ยังมีการออกแบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU คล้ายกับ Apple M-Series ซึ่งช่วยเพิ่มความเร็วในการประมวลผลและลด latency ในการทำงานร่วมกันของระบบ

    Qualcomm ระบุว่าอุปกรณ์ที่ใช้ชิปนี้จะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 โดยคาดว่าจะมีทั้งโน้ตบุ๊กระดับโปร, แท็บเล็ต, และ mini PC จากผู้ผลิตชั้นนำ เช่น Microsoft, Samsung, Dell, HP และ Lenovo

    ข้อมูลสำคัญจากข่าว
    Snapdragon X2 Elite Extreme เป็นชิป Arm ตัวแรกที่แตะ 5.0GHz บน 2 คอร์
    มีทั้งหมด 18 คอร์ (12 Prime + 6 Performance) และผลิตด้วยเทคโนโลยี 3nm
    ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 พร้อมแคชรวม 53MB
    GPU Adreno รุ่นใหม่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า
    NPU มีพลังประมวลผล 80 TOPS รองรับงาน AI และ Copilot+
    รองรับ LPDDR5X สูงสุด 128GB และแบนด์วิดธ์ 228 GB/s
    มีโมเด็ม Snapdragon X75 รองรับ 5G สูงสุด 10Gbps และ Wi-Fi 7
    ระบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU ช่วยลด latency
    คาดว่าจะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 ทั้งในโน้ตบุ๊กและ mini PC

    ข้อมูลเสริมจากภายนอก
    Oryon เป็นสถาปัตยกรรมที่ Qualcomm พัฒนาขึ้นเองหลังจากซื้อกิจการ Nuvia
    Unified memory architecture ช่วยให้การประมวลผลภาพและข้อมูล AI เร็วขึ้น
    NPU ที่มี 80 TOPS ถือเป็นระดับสูงสุดในตลาด PC ณ ปัจจุบัน
    ARM-based PC มีข้อได้เปรียบด้านพลังงานและความบางเบา
    Qualcomm พยายามผลักดัน Windows on ARM ให้เป็นมาตรฐานใหม่สำหรับโน้ตบุ๊ก

    https://www.tomshardware.com/pc-components/cpus/qualcomms-new-snapdragon-x2-elite-extreme-and-elite-chips-for-pcs-stretch-up-to-a-record-5-ghz-3nm-arm-chips-sport-new-oryon-prime-cores
    ⚡ “Snapdragon X2 Elite Extreme: ชิป Arm 3nm ตัวแรกแตะ 5GHz — Qualcomm เปิดเกมรุกตลาด PC ด้วยพลัง AI และประสิทธิภาพล้นขอบ” ที่งาน Snapdragon Summit 2025 ณ ฮาวาย Qualcomm เปิดตัวชิปตระกูลใหม่สำหรับ PC คือ Snapdragon X2 Elite และ X2 Elite Extreme ซึ่งเป็นรุ่นต่อยอดจาก X Elite รุ่นแรกที่เปิดตัวเมื่อปี 2023 โดยครั้งนี้ Qualcomm ตั้งใจยกระดับชิป Arm สำหรับ Windows PC ให้เทียบชั้นกับ x86 จาก Intel และ AMD Snapdragon X2 Elite Extreme เป็นชิประดับสูงสุดในซีรีส์นี้ โดยมี 18 คอร์ แบ่งเป็น 12 คอร์ “Prime” ที่สามารถเร่งความเร็วได้ถึง 5.0GHz (บน 2 คอร์) และอีก 6 คอร์ “Performance” ที่ทำงานที่ 3.6GHz ถือเป็นชิป Arm ตัวแรกที่แตะความเร็วระดับนี้บน PC ชิปทั้งหมดผลิตด้วยเทคโนโลยี 3nm และใช้สถาปัตยกรรม Oryon รุ่นที่ 3 ซึ่ง Qualcomm เคลมว่ามีประสิทธิภาพสูงกว่าคู่แข่งถึง 75% ที่พลังงานเท่ากัน และประหยัดพลังงานกว่าเดิมถึง 43% เมื่อเทียบกับรุ่นก่อนหน้า ด้านกราฟิก ชิปใหม่มาพร้อม Adreno GPU รุ่นล่าสุดที่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า รองรับ ray tracing และการเรนเดอร์ภาพระดับสูง ส่วน NPU (Neural Processing Unit) ก็แรงไม่แพ้กัน โดยมีพลังประมวลผลถึง 80 TOPS ซึ่งสูงกว่ารุ่นก่อนหน้าถึง 78% และถูกออกแบบมาเพื่อรองรับ Copilot+ และงาน AI แบบเรียลไทม์ Snapdragon X2 Elite Extreme ยังมีการออกแบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU คล้ายกับ Apple M-Series ซึ่งช่วยเพิ่มความเร็วในการประมวลผลและลด latency ในการทำงานร่วมกันของระบบ Qualcomm ระบุว่าอุปกรณ์ที่ใช้ชิปนี้จะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 โดยคาดว่าจะมีทั้งโน้ตบุ๊กระดับโปร, แท็บเล็ต, และ mini PC จากผู้ผลิตชั้นนำ เช่น Microsoft, Samsung, Dell, HP และ Lenovo ✅ ข้อมูลสำคัญจากข่าว ➡️ Snapdragon X2 Elite Extreme เป็นชิป Arm ตัวแรกที่แตะ 5.0GHz บน 2 คอร์ ➡️ มีทั้งหมด 18 คอร์ (12 Prime + 6 Performance) และผลิตด้วยเทคโนโลยี 3nm ➡️ ใช้สถาปัตยกรรม Oryon รุ่นที่ 3 พร้อมแคชรวม 53MB ➡️ GPU Adreno รุ่นใหม่มีประสิทธิภาพต่อวัตต์เพิ่มขึ้น 2.3 เท่า ➡️ NPU มีพลังประมวลผล 80 TOPS รองรับงาน AI และ Copilot+ ➡️ รองรับ LPDDR5X สูงสุด 128GB และแบนด์วิดธ์ 228 GB/s ➡️ มีโมเด็ม Snapdragon X75 รองรับ 5G สูงสุด 10Gbps และ Wi-Fi 7 ➡️ ระบบหน่วยความจำแบบ unified ระหว่าง CPU และ GPU ช่วยลด latency ➡️ คาดว่าจะเริ่มวางจำหน่ายในครึ่งแรกของปี 2026 ทั้งในโน้ตบุ๊กและ mini PC ✅ ข้อมูลเสริมจากภายนอก ➡️ Oryon เป็นสถาปัตยกรรมที่ Qualcomm พัฒนาขึ้นเองหลังจากซื้อกิจการ Nuvia ➡️ Unified memory architecture ช่วยให้การประมวลผลภาพและข้อมูล AI เร็วขึ้น ➡️ NPU ที่มี 80 TOPS ถือเป็นระดับสูงสุดในตลาด PC ณ ปัจจุบัน ➡️ ARM-based PC มีข้อได้เปรียบด้านพลังงานและความบางเบา ➡️ Qualcomm พยายามผลักดัน Windows on ARM ให้เป็นมาตรฐานใหม่สำหรับโน้ตบุ๊ก https://www.tomshardware.com/pc-components/cpus/qualcomms-new-snapdragon-x2-elite-extreme-and-elite-chips-for-pcs-stretch-up-to-a-record-5-ghz-3nm-arm-chips-sport-new-oryon-prime-cores
    0 ความคิดเห็น 0 การแบ่งปัน 247 มุมมอง 0 รีวิว
  • “Linux อาจรองรับ Multi-Kernel ในอนาคต — เปิดทางให้ระบบปฏิบัติการหลายตัวรันพร้อมกันบนเครื่องเดียว”

    ในโลกที่ระบบปฏิบัติการ Linux ถูกใช้ตั้งแต่สมาร์ตโฟนไปจนถึงซูเปอร์คอมพิวเตอร์ โครงสร้างแบบ monolithic kernel ที่ใช้มายาวนานกำลังถูกท้าทายด้วยแนวคิดใหม่จากบริษัท Multikernel Technologies ที่เสนอให้ Linux รองรับ “multi-kernel architecture” หรือการรันเคอร์เนลหลายตัวพร้อมกันบนเครื่องเดียว

    แนวคิดนี้ถูกนำเสนอผ่าน RFC (Request for Comments) บน Linux Kernel Mailing List โดยหวังให้ชุมชนร่วมกันพิจารณาและให้ข้อเสนอแนะ โดยหลักการคือการแบ่ง CPU cores ออกเป็นกลุ่ม ๆ แล้วให้แต่ละกลุ่มรันเคอร์เนลของตัวเองอย่างอิสระ พร้อมจัดการ process และ memory แยกจากกัน แต่ยังสามารถสื่อสารกันผ่านระบบ Inter-Processor Interrupt (IPI) ที่ออกแบบมาเฉพาะ

    ข้อดีของระบบนี้คือการแยกงานออกจากกันอย่างแท้จริง เช่น เคอร์เนลหนึ่งอาจใช้สำหรับงาน real-time อีกตัวสำหรับงานทั่วไป หรือแม้แต่สร้างเคอร์เนลเฉพาะสำหรับงานที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสหรือการควบคุมอุปกรณ์ทางการแพทย์

    Multikernel ยังใช้โครงสร้างพื้นฐานจาก kexec ซึ่งช่วยให้สามารถโหลดเคอร์เนลหลายตัวได้แบบ dynamic โดยไม่ต้องรีบูตเครื่องทั้งหมด และยังมีระบบ Kernel Hand-Over (KHO) ที่อาจเปิดทางให้การอัปเดตเคอร์เนลแบบไร้ downtime ในอนาคต

    แม้ยังอยู่ในขั้นทดลอง และยังต้องปรับปรุงอีกมาก แต่แนวคิดนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีคิดเกี่ยวกับระบบปฏิบัติการ Linux ไปโดยสิ้นเชิง

    ข้อมูลสำคัญจากข่าว
    Multikernel Technologies เสนอแนวคิด multi-kernel ผ่าน RFC บน LKML
    ระบบนี้ให้เคอร์เนลหลายตัวรันพร้อมกันบนเครื่องเดียว โดยแบ่ง CPU cores
    เคอร์เนลแต่ละตัวจัดการ process และ memory ของตัวเอง
    ใช้ระบบ IPI สำหรับการสื่อสารระหว่างเคอร์เนล
    ใช้โครงสร้างจาก kexec เพื่อโหลดเคอร์เนลหลายตัวแบบ dynamic
    มีแนวคิด Kernel Hand-Over สำหรับการอัปเดตแบบไร้ downtime
    เหมาะกับงานที่ต้องการแยก workload เช่น real-time, security-critical, หรือ AI
    ยังอยู่ในขั้น RFC และเปิดรับข้อเสนอแนะจากชุมชน Linux

    ข้อมูลเสริมจากภายนอก
    ระบบ multi-kernel เคยถูกทดลองในงานวิจัย เช่น Barrelfish และ Helios OS
    การแยก workload ที่ระดับเคอร์เนลให้ความปลอดภัยมากกว่าการใช้ container หรือ VM
    kexec เป็นระบบที่ช่วยให้สามารถเปลี่ยนเคอร์เนลโดยไม่ต้องรีบูตเครื่อง
    IPI (Inter-Processor Interrupt) เป็นกลไกที่ใช้ในระบบ SMP สำหรับการสื่อสารระหว่าง CPU
    หากแนวคิดนี้ได้รับการยอมรับ อาจนำไปสู่การสร้าง Linux รุ่นพิเศษสำหรับงานเฉพาะทาง

    https://news.itsfoss.com/linux-multikernel-proposal/
    🧠 “Linux อาจรองรับ Multi-Kernel ในอนาคต — เปิดทางให้ระบบปฏิบัติการหลายตัวรันพร้อมกันบนเครื่องเดียว” ในโลกที่ระบบปฏิบัติการ Linux ถูกใช้ตั้งแต่สมาร์ตโฟนไปจนถึงซูเปอร์คอมพิวเตอร์ โครงสร้างแบบ monolithic kernel ที่ใช้มายาวนานกำลังถูกท้าทายด้วยแนวคิดใหม่จากบริษัท Multikernel Technologies ที่เสนอให้ Linux รองรับ “multi-kernel architecture” หรือการรันเคอร์เนลหลายตัวพร้อมกันบนเครื่องเดียว แนวคิดนี้ถูกนำเสนอผ่าน RFC (Request for Comments) บน Linux Kernel Mailing List โดยหวังให้ชุมชนร่วมกันพิจารณาและให้ข้อเสนอแนะ โดยหลักการคือการแบ่ง CPU cores ออกเป็นกลุ่ม ๆ แล้วให้แต่ละกลุ่มรันเคอร์เนลของตัวเองอย่างอิสระ พร้อมจัดการ process และ memory แยกจากกัน แต่ยังสามารถสื่อสารกันผ่านระบบ Inter-Processor Interrupt (IPI) ที่ออกแบบมาเฉพาะ ข้อดีของระบบนี้คือการแยกงานออกจากกันอย่างแท้จริง เช่น เคอร์เนลหนึ่งอาจใช้สำหรับงาน real-time อีกตัวสำหรับงานทั่วไป หรือแม้แต่สร้างเคอร์เนลเฉพาะสำหรับงานที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสหรือการควบคุมอุปกรณ์ทางการแพทย์ Multikernel ยังใช้โครงสร้างพื้นฐานจาก kexec ซึ่งช่วยให้สามารถโหลดเคอร์เนลหลายตัวได้แบบ dynamic โดยไม่ต้องรีบูตเครื่องทั้งหมด และยังมีระบบ Kernel Hand-Over (KHO) ที่อาจเปิดทางให้การอัปเดตเคอร์เนลแบบไร้ downtime ในอนาคต แม้ยังอยู่ในขั้นทดลอง และยังต้องปรับปรุงอีกมาก แต่แนวคิดนี้ถือเป็นก้าวสำคัญที่อาจเปลี่ยนวิธีคิดเกี่ยวกับระบบปฏิบัติการ Linux ไปโดยสิ้นเชิง ✅ ข้อมูลสำคัญจากข่าว ➡️ Multikernel Technologies เสนอแนวคิด multi-kernel ผ่าน RFC บน LKML ➡️ ระบบนี้ให้เคอร์เนลหลายตัวรันพร้อมกันบนเครื่องเดียว โดยแบ่ง CPU cores ➡️ เคอร์เนลแต่ละตัวจัดการ process และ memory ของตัวเอง ➡️ ใช้ระบบ IPI สำหรับการสื่อสารระหว่างเคอร์เนล ➡️ ใช้โครงสร้างจาก kexec เพื่อโหลดเคอร์เนลหลายตัวแบบ dynamic ➡️ มีแนวคิด Kernel Hand-Over สำหรับการอัปเดตแบบไร้ downtime ➡️ เหมาะกับงานที่ต้องการแยก workload เช่น real-time, security-critical, หรือ AI ➡️ ยังอยู่ในขั้น RFC และเปิดรับข้อเสนอแนะจากชุมชน Linux ✅ ข้อมูลเสริมจากภายนอก ➡️ ระบบ multi-kernel เคยถูกทดลองในงานวิจัย เช่น Barrelfish และ Helios OS ➡️ การแยก workload ที่ระดับเคอร์เนลให้ความปลอดภัยมากกว่าการใช้ container หรือ VM ➡️ kexec เป็นระบบที่ช่วยให้สามารถเปลี่ยนเคอร์เนลโดยไม่ต้องรีบูตเครื่อง ➡️ IPI (Inter-Processor Interrupt) เป็นกลไกที่ใช้ในระบบ SMP สำหรับการสื่อสารระหว่าง CPU ➡️ หากแนวคิดนี้ได้รับการยอมรับ อาจนำไปสู่การสร้าง Linux รุ่นพิเศษสำหรับงานเฉพาะทาง https://news.itsfoss.com/linux-multikernel-proposal/
    NEWS.ITSFOSS.COM
    New Proposal Looks to Make Linux Multi-Kernel Friendly
    If approved, Linux could one day run multiple kernels simultaneously.
    0 ความคิดเห็น 0 การแบ่งปัน 189 มุมมอง 0 รีวิว
  • Comet: เบราว์เซอร์ AI ตัวแรกที่มาพร้อมระบบความปลอดภัยจาก 1Password — เมื่อผู้ช่วยส่วนตัวออนไลน์ต้องปลอดภัยตั้งแต่ต้นทาง

    ในยุคที่เบราว์เซอร์ไม่ใช่แค่เครื่องมือค้นหา แต่กลายเป็นผู้ช่วยส่วนตัวที่ “คิด วิเคราะห์ และตัดสินใจ” ได้เอง Comet จาก Perplexity คือเบราว์เซอร์ AI ตัวใหม่ที่ออกแบบมาเพื่อเปลี่ยนประสบการณ์ออนไลน์ให้ฉลาดขึ้น โดยใช้ AI ในการเข้าใจเจตนาและนำเสนอข้อมูลแบบตรงจุด แต่ความสามารถนี้ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สูงขึ้น

    เพื่อรับมือกับความท้าทายนี้ Perplexity ได้จับมือกับ 1Password ผู้นำด้านการจัดการรหัสผ่าน เพื่อฝังระบบความปลอดภัยระดับสูงเข้าไปใน Comet ตั้งแต่ต้น โดยผู้ใช้สามารถติดตั้งส่วนขยายของ 1Password เพื่อจัดการรหัสผ่าน, passkeys, และข้อมูลล็อกอินต่าง ๆ ได้อย่างปลอดภัยผ่านระบบ end-to-end encryption และ zero-knowledge architecture

    Comet ยังเน้นการเก็บข้อมูลแบบ local storage โดยไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Perplexity ทำให้ผู้ใช้สามารถควบคุมสิ่งที่ AI เข้าถึงได้อย่างชัดเจน และลดความเสี่ยงจากการรั่วไหลของข้อมูลส่วนตัว

    ความร่วมมือครั้งนี้สะท้อนแนวคิดใหม่ของการพัฒนา AI — ไม่ใช่แค่ “ฉลาด” แต่ต้อง “ปลอดภัยโดยออกแบบ” เพื่อให้ผู้ใช้สามารถไว้วางใจและใช้งานได้อย่างมั่นใจในโลกออนไลน์ที่เต็มไปด้วยภัยคุกคาม

    Comet คือเบราว์เซอร์ AI ที่ออกแบบมาเพื่อเป็นผู้ช่วยส่วนตัวออนไลน์
    ใช้ AI วิเคราะห์เจตนาและนำเสนอข้อมูลแบบตรงจุด
    เปลี่ยนเบราว์เซอร์จากเครื่องมือแบบ passive เป็นระบบที่ “คิดและตัดสินใจ” ได้

    ความร่วมมือระหว่าง Perplexity และ 1Password
    ฝังระบบ credential security เข้าไปใน Comet โดยตรง
    ใช้ end-to-end encryption และ zero-knowledge architecture

    ส่วนขยาย 1Password สำหรับ Comet
    รองรับการล็อกอิน, autofill, และจัดการรหัสผ่านแบบปลอดภัย
    ซิงค์ข้อมูลข้ามอุปกรณ์และเบราว์เซอร์ได้
    สร้าง passkeys และรหัสผ่านที่แข็งแรงได้ทันที

    Comet เน้นความเป็นส่วนตัวของผู้ใช้
    เก็บข้อมูลการใช้งานไว้ในเครื่อง ไม่ส่งไปยังเซิร์ฟเวอร์
    ผู้ใช้สามารถควบคุมว่า AI เข้าถึงข้อมูลใด เมื่อใด และทำไม

    แนวคิด “ปลอดภัยโดยออกแบบ” สำหรับ AI
    ไม่ให้ LLM เข้าถึงรหัสผ่านโดยตรง
    ใช้ระบบ authorization ที่มีการกำหนดสิทธิ์แบบ deterministic
    ทุกการเข้าถึงต้องมี audit trail เพื่อความโปร่งใส

    คำเตือนเกี่ยวกับการใช้เบราว์เซอร์ AI
    หากไม่มีระบบความปลอดภัยที่ดี AI อาจเข้าถึงข้อมูลสำคัญโดยไม่ได้ตั้งใจ
    การใช้ LLM โดยไม่มีการควบคุมสิทธิ์ อาจทำให้เกิดการรั่วไหลของ credentials
    ผู้ใช้ต้องเข้าใจว่า AI ไม่ควรได้รับ “raw secrets” ผ่าน prompt หรือ embedding
    หากไม่มี audit trail องค์กรจะไม่สามารถตรวจสอบการเข้าถึงย้อนหลังได้

    https://www.techradar.com/pro/security/1password-and-perplexity-partner-on-comet-ai-browser-a-full-time-personal-assistant-with-security-by-default
    📰 Comet: เบราว์เซอร์ AI ตัวแรกที่มาพร้อมระบบความปลอดภัยจาก 1Password — เมื่อผู้ช่วยส่วนตัวออนไลน์ต้องปลอดภัยตั้งแต่ต้นทาง ในยุคที่เบราว์เซอร์ไม่ใช่แค่เครื่องมือค้นหา แต่กลายเป็นผู้ช่วยส่วนตัวที่ “คิด วิเคราะห์ และตัดสินใจ” ได้เอง Comet จาก Perplexity คือเบราว์เซอร์ AI ตัวใหม่ที่ออกแบบมาเพื่อเปลี่ยนประสบการณ์ออนไลน์ให้ฉลาดขึ้น โดยใช้ AI ในการเข้าใจเจตนาและนำเสนอข้อมูลแบบตรงจุด แต่ความสามารถนี้ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สูงขึ้น เพื่อรับมือกับความท้าทายนี้ Perplexity ได้จับมือกับ 1Password ผู้นำด้านการจัดการรหัสผ่าน เพื่อฝังระบบความปลอดภัยระดับสูงเข้าไปใน Comet ตั้งแต่ต้น โดยผู้ใช้สามารถติดตั้งส่วนขยายของ 1Password เพื่อจัดการรหัสผ่าน, passkeys, และข้อมูลล็อกอินต่าง ๆ ได้อย่างปลอดภัยผ่านระบบ end-to-end encryption และ zero-knowledge architecture Comet ยังเน้นการเก็บข้อมูลแบบ local storage โดยไม่ส่งข้อมูลไปยังเซิร์ฟเวอร์ของ Perplexity ทำให้ผู้ใช้สามารถควบคุมสิ่งที่ AI เข้าถึงได้อย่างชัดเจน และลดความเสี่ยงจากการรั่วไหลของข้อมูลส่วนตัว ความร่วมมือครั้งนี้สะท้อนแนวคิดใหม่ของการพัฒนา AI — ไม่ใช่แค่ “ฉลาด” แต่ต้อง “ปลอดภัยโดยออกแบบ” เพื่อให้ผู้ใช้สามารถไว้วางใจและใช้งานได้อย่างมั่นใจในโลกออนไลน์ที่เต็มไปด้วยภัยคุกคาม ✅ Comet คือเบราว์เซอร์ AI ที่ออกแบบมาเพื่อเป็นผู้ช่วยส่วนตัวออนไลน์ ➡️ ใช้ AI วิเคราะห์เจตนาและนำเสนอข้อมูลแบบตรงจุด ➡️ เปลี่ยนเบราว์เซอร์จากเครื่องมือแบบ passive เป็นระบบที่ “คิดและตัดสินใจ” ได้ ✅ ความร่วมมือระหว่าง Perplexity และ 1Password ➡️ ฝังระบบ credential security เข้าไปใน Comet โดยตรง ➡️ ใช้ end-to-end encryption และ zero-knowledge architecture ✅ ส่วนขยาย 1Password สำหรับ Comet ➡️ รองรับการล็อกอิน, autofill, และจัดการรหัสผ่านแบบปลอดภัย ➡️ ซิงค์ข้อมูลข้ามอุปกรณ์และเบราว์เซอร์ได้ ➡️ สร้าง passkeys และรหัสผ่านที่แข็งแรงได้ทันที ✅ Comet เน้นความเป็นส่วนตัวของผู้ใช้ ➡️ เก็บข้อมูลการใช้งานไว้ในเครื่อง ไม่ส่งไปยังเซิร์ฟเวอร์ ➡️ ผู้ใช้สามารถควบคุมว่า AI เข้าถึงข้อมูลใด เมื่อใด และทำไม ✅ แนวคิด “ปลอดภัยโดยออกแบบ” สำหรับ AI ➡️ ไม่ให้ LLM เข้าถึงรหัสผ่านโดยตรง ➡️ ใช้ระบบ authorization ที่มีการกำหนดสิทธิ์แบบ deterministic ➡️ ทุกการเข้าถึงต้องมี audit trail เพื่อความโปร่งใส ‼️ คำเตือนเกี่ยวกับการใช้เบราว์เซอร์ AI ⛔ หากไม่มีระบบความปลอดภัยที่ดี AI อาจเข้าถึงข้อมูลสำคัญโดยไม่ได้ตั้งใจ ⛔ การใช้ LLM โดยไม่มีการควบคุมสิทธิ์ อาจทำให้เกิดการรั่วไหลของ credentials ⛔ ผู้ใช้ต้องเข้าใจว่า AI ไม่ควรได้รับ “raw secrets” ผ่าน prompt หรือ embedding ⛔ หากไม่มี audit trail องค์กรจะไม่สามารถตรวจสอบการเข้าถึงย้อนหลังได้ https://www.techradar.com/pro/security/1password-and-perplexity-partner-on-comet-ai-browser-a-full-time-personal-assistant-with-security-by-default
    0 ความคิดเห็น 0 การแบ่งปัน 239 มุมมอง 0 รีวิว
  • “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า”

    Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด

    Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ

    ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ

    ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360

    แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก

    ข้อมูลสำคัญจากข่าว
    Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake
    ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz)
    ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB
    ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ

    ผลการทดสอบประสิทธิภาพ
    Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%)
    Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400)
    iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี
    ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก

    ข้อมูลเสริมจากภายนอก
    ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel
    ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360
    รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB
    ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm

    https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    ⚙️ “Intel Core Ultra 3 205: ซีพียูระดับเริ่มต้นที่ไม่ธรรมดา — แรงเกินคาด แซง Core i3 และ i5 รุ่นก่อนหน้า” Intel กำลังกลับมาอย่างน่าสนใจในตลาดซีพียูระดับเริ่มต้น ด้วยการเปิดตัว Core Ultra 3 205 ซึ่งเป็นรุ่นล่างสุดของตระกูล Arrow Lake สำหรับเดสก์ท็อป แม้ยังไม่วางจำหน่ายอย่างเป็นทางการ แต่รีวิวจาก Bulls Lab ในเกาหลีใต้ได้เผยให้เห็นถึงประสิทธิภาพที่น่าทึ่งเกินคาด Core Ultra 3 205 ใช้สถาปัตยกรรมแบบ hybrid มี 4 P-core ที่เร่งได้ถึง 4.9 GHz และ 4 E-core ที่เร่งได้ถึง 4.4 GHz เมื่อจับคู่กับเมนบอร์ด H810 และแรม DDR5 32GB พบว่าสามารถใช้งานทั่วไปได้ลื่นไหล เปิดหลายแท็บเบราว์เซอร์พร้อมกัน และดูวิดีโอ YouTube 8K โดยใช้พลังงานต่ำ ผลการทดสอบ Cinebench R23 พบว่าได้คะแนน multi-core สูงถึง 13,394 ซึ่งมากกว่า Core i3-14100 ถึง 48% และคะแนน single-core ที่ 1,983 ก็ยังเหนือกว่า Core i5-14400 ด้วยซ้ำ นอกจากนี้ iGPU ที่ติดมากับชิปยังใช้ Xe-core 2 ตัว ทำให้เล่นเกมเบา ๆ อย่าง DOTA และ Valorant ได้สบาย ๆ ราคาที่คาดการณ์อยู่ที่ประมาณ $140 หรือ 199,000 วอน ซึ่งถือว่าเหมาะสำหรับผู้ที่ต้องการประกอบเครื่องราคาประหยัด โดย Bulls Lab ยังพบว่ามีพีซีสำเร็จรูปที่ใช้ชิปนี้พร้อม RAM 8GB และ SSD 500GB วางขายในราคาเพียง $360 แม้จะดูน่าสนใจ แต่ Intel ยังไม่เปิดตัวชิปนี้ในช่องทางจำหน่ายอย่างเป็นทางการ และอาจวางขายเฉพาะในตลาด OEM หรือพีซีสำเร็จรูปเท่านั้น ซึ่งอาจทำให้ผู้ประกอบเครื่อง DIY เข้าถึงได้ยาก ✅ ข้อมูลสำคัญจากข่าว ➡️ Core Ultra 3 205 เป็นซีพียูระดับเริ่มต้นในตระกูล Arrow Lake ➡️ ใช้ hybrid architecture: 4 P-core (สูงสุด 4.9 GHz) + 4 E-core (สูงสุด 4.4 GHz) ➡️ ทดสอบกับเมนบอร์ด H810 และ RAM DDR5 32GB ➡️ ใช้งานทั่วไปลื่นไหล ดู YouTube 8K ได้โดยใช้พลังงานต่ำ ✅ ผลการทดสอบประสิทธิภาพ ➡️ Cinebench R23 multi-core: 13,394 คะแนน (สูงกว่า Core i3-14100 ถึง 48%) ➡️ Single-core: 1,983 คะแนน (เหนือกว่า Core i5-14400) ➡️ iGPU ใช้ Xe-core 2 ตัว เล่นเกมเบา ๆ ได้ดี ➡️ ประสิทธิภาพใกล้เคียงกับ Core Ultra 5 225 ในด้านกราฟิก ✅ ข้อมูลเสริมจากภายนอก ➡️ ใช้พลังงานสูงสุด 65W — แนะนำให้ใช้ฮีตซิงก์จากผู้ผลิตอื่นแทนของ Intel ➡️ ราคา CPU ประมาณ $140 และพีซีสำเร็จรูปอยู่ที่ $360 ➡️ รองรับ DDR5 ความเร็วสูงถึง 6400 MHz และมี L2 cache ขนาด 16MB ➡️ ผลิตบนกระบวนการ 3nm — เล็กกว่า Core i3-14100 ที่ใช้ 10nm https://www.tomshardware.com/pc-components/cpus/intel-core-ultra-3-205-delivers-impressive-results-in-early-review-reportedly-surpasses-previous-gen-core-i3-14100-and-core-i5-14400
    0 ความคิดเห็น 0 การแบ่งปัน 270 มุมมอง 0 รีวิว
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 ความคิดเห็น 0 การแบ่งปัน 233 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI

    ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ

    ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น

    นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย

    ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด

    แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว

    การเปิดตัว AORUS RTX 5060 Ti AI BOX
    ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture
    ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE
    เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4

    ความสามารถในการทำงานแบบ docking station
    มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0
    มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain
    รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist

    จุดเด่นด้านการใช้งานและประสิทธิภาพ
    ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4
    เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB
    รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง

    https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    🎙️ เรื่องเล่าจากกล่องเล็ก ๆ ที่ซ่อนพลังระดับเดสก์ท็อป: เมื่อ eGPU กลายเป็นศูนย์กลางของการเล่นเกมและทำงาน AI ในงาน Beyond Edge ล่าสุด GIGABYTE ได้เปิดตัว AORUS RTX 5060 Ti AI BOX ซึ่งเป็น eGPU ที่ใช้ GPU เดสก์ท็อปจริง ไม่ใช่ชิปโน้ตบุ๊กแบบที่ eGPU ส่วนใหญ่ใช้ โดยมาพร้อมกับ RTX 5060 Ti รุ่น 16 GB ที่ใช้สถาปัตยกรรม Blackwell และ DLSS 4 ทำให้สามารถเร่งงานกราฟิกและ AI ได้อย่างเต็มประสิทธิภาพ ตัวกล่องมีขนาดเล็กเพียง 117 x 243 x 45 mm แต่ใส่ระบบระบายความร้อน WINDFORCE มาเต็มรูปแบบ พร้อมพอร์ต Thunderbolt 5 ที่ให้แบนด์วิดธ์ PCIe 4.0 x4 ซึ่งช้ากว่า PCIe 4.0 x16 บนเดสก์ท็อปเพียง 5% เท่านั้น นอกจากการเร่งกราฟิกแล้ว กล่องนี้ยังทำหน้าที่เป็น docking station โดยมีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง รองรับ Power Delivery 3.0 สำหรับชาร์จเร็ว, พอร์ต Ethernet สำหรับเชื่อมต่อเครือข่าย และสามารถ daisy-chain ผ่าน Thunderbolt 5 ได้อีกด้วย ที่น่าสนใจคือการรองรับโหมด USB4 ซึ่งสามารถทำงานร่วมกับกราฟิกในตัวของโน้ตบุ๊กผ่าน Project G-Assist เพื่อแบ่งโหลดงานระหว่าง GPU ภายนอกและภายในได้อย่างชาญฉลาด แม้ยังไม่มีการประกาศราคาหรือวันวางจำหน่าย แต่คาดว่าราคาจะสูงกว่าการ์ดเดสก์ท็อป RTX 5060 Ti ที่อยู่ราว $460 เนื่องจากมีฟีเจอร์เสริมมากมายและการใช้ GPU เต็มตัว ✅ การเปิดตัว AORUS RTX 5060 Ti AI BOX ➡️ ใช้ GPU เดสก์ท็อป RTX 5060 Ti 16 GB พร้อม DLSS 4 และ Blackwell architecture ➡️ ขนาดกะทัดรัด 117 x 243 x 45 mm พร้อมระบบระบายความร้อน WINDFORCE ➡️ เชื่อมต่อผ่าน Thunderbolt 5 ให้แบนด์วิดธ์ PCIe 4.0 x4 ✅ ความสามารถในการทำงานแบบ docking station ➡️ มีพอร์ต USB 3.2 Gen 2 จำนวน 3 ช่อง พร้อม Power Delivery 3.0 ➡️ มีพอร์ต Ethernet และรองรับ Thunderbolt 5 daisy-chain ➡️ รองรับโหมด USB4 สำหรับการทำงานร่วมกับกราฟิกในตัวผ่าน Project G-Assist ✅ จุดเด่นด้านการใช้งานและประสิทธิภาพ ➡️ ประสิทธิภาพใกล้เคียงกับการ์ดเดสก์ท็อป แม้ใช้ PCIe 4.0 x4 ➡️ เพิ่ม VRAM เป็น 16 GB มากกว่ารุ่นโน้ตบุ๊กที่มีแค่ 8 GB ➡️ รองรับงานกราฟิก, เกม, และ AI ได้ในระดับสูง https://www.techpowerup.com/340944/gigabyte-introduces-aorus-rtx-5060-ti-ai-box-egpu
    WWW.TECHPOWERUP.COM
    GIGABYTE Introduces AORUS RTX 5060 Ti AI BOX eGPU
    GIGABYTE has unveiled the AORUS RTX 5060 Ti AI BOX eGPU during today's Beyond Edge online event. This external graphics solution features NVIDIA's desktop-grade GeForce RTX 5060 Ti with 16 GB VRAM in a compact 117 x 243 x 45 mm form factor. Unlike most existing eGPUs that rely on mobile AMD Radeon R...
    0 ความคิดเห็น 0 การแบ่งปัน 201 มุมมอง 0 รีวิว
Pages Boosts