• “Kodi 22 ‘Piers’ มาแล้ว! รองรับ HDR บน Wayland และ OpenGL พร้อมฟีเจอร์ใหม่เพียบทั้งเกม หนัง และระบบเสียง”

    ถ้าคุณเป็นสายดูหนัง เล่นเกม หรือใช้ Kodi เป็นศูนย์กลางความบันเทิงในบ้าน — เวอร์ชันใหม่ที่กำลังจะมาในชื่อ Kodi 22 “Piers” คือการอัปเกรดครั้งใหญ่ที่น่าจับตามอง โดยเฉพาะผู้ใช้ Linux เพราะมันมาพร้อมฟีเจอร์ที่รอคอยมานาน: รองรับ HDR บน Wayland และ HDR passthrough บน OpenGL

    Kodi 22 ได้เพิ่มการรองรับ Wayland Color Management Protocol ซึ่งทำให้สามารถแสดงภาพ HDR ได้บนระบบที่ใช้ Wayland compositor ที่รองรับ — ถือเป็นก้าวสำคัญสำหรับผู้ใช้ Linux ที่ต้องการคุณภาพภาพระดับสูงโดยไม่ต้องพึ่ง X11 อีกต่อไป

    นอกจากนี้ยังมีการปรับปรุงด้านเกม เช่น รองรับ shader, ปรับปรุงการใช้เมาส์และคีย์บอร์ด, และการเรนเดอร์แบบ front-to-back บน OpenGL เพื่อเพิ่มประสิทธิภาพ รวมถึงการลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel

    ฝั่งวิดีโอและเสียงก็ไม่น้อยหน้า: Kodi 22 รองรับ FFmpeg 7, เพิ่มระบบ chapter สำหรับ audiobook, ปรับปรุงเมนูเลือกตอนใน Blu-ray, และเพิ่มระบบจัดการ Movie Versions/Extras แบบใหม่ที่แสดง artwork และข้อมูลได้ละเอียดขึ้น

    สำหรับ Android ก็รองรับ Android 15 และ page size 16KB พร้อมฟีเจอร์แชร์ไฟล์กับแอปอื่น ส่วน LG webOS ก็มี unified media pipeline ใหม่ และ Windows ARM64 ก็เริ่มรองรับแล้วเช่นกัน

    ด้าน PVR (Personal Video Recorder) มีการเพิ่ม Recently Added Channels, widget ใหม่, ระบบ Custom Timers, และปรับปรุงการค้นหา EPG รวมถึงการจัดกลุ่มช่องรายการ

    สุดท้ายคือการปรับปรุงด้านเครือข่าย เช่น การแสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น, รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ “large MTU”, และเชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น

    การรองรับ HDR และกราฟิกบน Linux
    รองรับ HDR passthrough บน OpenGL
    รองรับ HDR บน Wayland ผ่าน Wayland Color Management Protocol
    ปรับปรุงการเรนเดอร์แบบ front-to-back บน OpenGL(ES)
    ลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel

    ฟีเจอร์ใหม่ด้านวิดีโอและเสียง
    รองรับ FFmpeg 7
    เพิ่มระบบ audiobook chapter
    ปรับปรุง Movie Versions/Extras และ Blu-ray episode menu
    เพิ่มระบบจัดการ artwork และข้อมูลตอนใน Blu-ray

    ฟีเจอร์ด้านเกม
    รองรับ shader สำหรับเกม
    ปรับปรุงการใช้เมาส์และคีย์บอร์ด
    ปรับปรุงคุณภาพ texture สำหรับอุปกรณ์ช้า

    การรองรับแพลตฟอร์มต่างๆ
    Android รองรับ Android 15 และ page size 16KB
    LG webOS มี unified media pipeline ใหม่
    Windows รองรับ ARM64 desktop และ Python 3.13
    รองรับการแชร์ไฟล์กับแอปอื่นบน Android

    การปรับปรุงระบบ PVR
    เพิ่ม Recently Added Channels และ widget ใหม่
    เพิ่ม Providers window และ Custom Timers
    ปรับปรุงการจัดกลุ่มช่อง, การค้นหา, และการบันทึก

    การปรับปรุงด้านเครือข่าย
    แสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น
    รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ large MTU
    เชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น

    การรองรับอุปกรณ์เสริม
    ปรับปรุงการใช้งาน OSMC Remote
    รองรับ Pulse-Eight CEC adapter และ Flirc receiver

    https://9to5linux.com/kodi-22-piers-promises-hdr-passthrough-on-opengl-and-hdr-on-wayland
    🎬 “Kodi 22 ‘Piers’ มาแล้ว! รองรับ HDR บน Wayland และ OpenGL พร้อมฟีเจอร์ใหม่เพียบทั้งเกม หนัง และระบบเสียง” ถ้าคุณเป็นสายดูหนัง เล่นเกม หรือใช้ Kodi เป็นศูนย์กลางความบันเทิงในบ้าน — เวอร์ชันใหม่ที่กำลังจะมาในชื่อ Kodi 22 “Piers” คือการอัปเกรดครั้งใหญ่ที่น่าจับตามอง โดยเฉพาะผู้ใช้ Linux เพราะมันมาพร้อมฟีเจอร์ที่รอคอยมานาน: รองรับ HDR บน Wayland และ HDR passthrough บน OpenGL Kodi 22 ได้เพิ่มการรองรับ Wayland Color Management Protocol ซึ่งทำให้สามารถแสดงภาพ HDR ได้บนระบบที่ใช้ Wayland compositor ที่รองรับ — ถือเป็นก้าวสำคัญสำหรับผู้ใช้ Linux ที่ต้องการคุณภาพภาพระดับสูงโดยไม่ต้องพึ่ง X11 อีกต่อไป นอกจากนี้ยังมีการปรับปรุงด้านเกม เช่น รองรับ shader, ปรับปรุงการใช้เมาส์และคีย์บอร์ด, และการเรนเดอร์แบบ front-to-back บน OpenGL เพื่อเพิ่มประสิทธิภาพ รวมถึงการลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel ฝั่งวิดีโอและเสียงก็ไม่น้อยหน้า: Kodi 22 รองรับ FFmpeg 7, เพิ่มระบบ chapter สำหรับ audiobook, ปรับปรุงเมนูเลือกตอนใน Blu-ray, และเพิ่มระบบจัดการ Movie Versions/Extras แบบใหม่ที่แสดง artwork และข้อมูลได้ละเอียดขึ้น สำหรับ Android ก็รองรับ Android 15 และ page size 16KB พร้อมฟีเจอร์แชร์ไฟล์กับแอปอื่น ส่วน LG webOS ก็มี unified media pipeline ใหม่ และ Windows ARM64 ก็เริ่มรองรับแล้วเช่นกัน ด้าน PVR (Personal Video Recorder) มีการเพิ่ม Recently Added Channels, widget ใหม่, ระบบ Custom Timers, และปรับปรุงการค้นหา EPG รวมถึงการจัดกลุ่มช่องรายการ สุดท้ายคือการปรับปรุงด้านเครือข่าย เช่น การแสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น, รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ “large MTU”, และเชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น ✅ การรองรับ HDR และกราฟิกบน Linux ➡️ รองรับ HDR passthrough บน OpenGL ➡️ รองรับ HDR บน Wayland ผ่าน Wayland Color Management Protocol ➡️ ปรับปรุงการเรนเดอร์แบบ front-to-back บน OpenGL(ES) ➡️ ลดการใช้หน่วยความจำสำหรับ texture แบบ single และ dual channel ✅ ฟีเจอร์ใหม่ด้านวิดีโอและเสียง ➡️ รองรับ FFmpeg 7 ➡️ เพิ่มระบบ audiobook chapter ➡️ ปรับปรุง Movie Versions/Extras และ Blu-ray episode menu ➡️ เพิ่มระบบจัดการ artwork และข้อมูลตอนใน Blu-ray ✅ ฟีเจอร์ด้านเกม ➡️ รองรับ shader สำหรับเกม ➡️ ปรับปรุงการใช้เมาส์และคีย์บอร์ด ➡️ ปรับปรุงคุณภาพ texture สำหรับอุปกรณ์ช้า ✅ การรองรับแพลตฟอร์มต่างๆ ➡️ Android รองรับ Android 15 และ page size 16KB ➡️ LG webOS มี unified media pipeline ใหม่ ➡️ Windows รองรับ ARM64 desktop และ Python 3.13 ➡️ รองรับการแชร์ไฟล์กับแอปอื่นบน Android ✅ การปรับปรุงระบบ PVR ➡️ เพิ่ม Recently Added Channels และ widget ใหม่ ➡️ เพิ่ม Providers window และ Custom Timers ➡️ ปรับปรุงการจัดกลุ่มช่อง, การค้นหา, และการบันทึก ✅ การปรับปรุงด้านเครือข่าย ➡️ แสดง SMB directory ขนาดใหญ่ได้เร็วขึ้น ➡️ รองรับ SMB 2.0 ที่ไม่มีฟีเจอร์ large MTU ➡️ เชื่อมต่อกับ Windows SMB server ที่ไม่มีรหัสผ่านได้ดีขึ้น ✅ การรองรับอุปกรณ์เสริม ➡️ ปรับปรุงการใช้งาน OSMC Remote ➡️ รองรับ Pulse-Eight CEC adapter และ Flirc receiver https://9to5linux.com/kodi-22-piers-promises-hdr-passthrough-on-opengl-and-hdr-on-wayland
    9TO5LINUX.COM
    Kodi 22 "Piers" Promises HDR Passthrough on OpenGL and HDR on Wayland - 9to5Linux
    Kodi 22 "Piers" open-source media center is now available for public testing promising HDR on Wayland support for Linux systems.
    0 ความคิดเห็น 0 การแบ่งปัน 10 มุมมอง 0 รีวิว
  • “AI Data Center: เบื้องหลังเทคโนโลยีล้ำยุคที่อาจกลายเป็นจุดอ่อนด้านความมั่นคงไซเบอร์ระดับโลก”

    ลองนึกภาพว่าคุณกำลังพัฒนาโมเดล AI ที่ซับซ้อนระดับ GPT-5 หรือระบบวิเคราะห์ภาพทางการแพทย์ที่ต้องใช้พลังประมวลผลมหาศาล คุณอาจคิดถึง GPU, TPU หรือคลาวด์ที่เร็วแรง แต่สิ่งที่คุณอาจมองข้ามคือ “AI Data Center” ที่อยู่เบื้องหลังทั้งหมด — และนั่นคือจุดที่ภัยคุกคามไซเบอร์กำลังพุ่งเป้าเข้าใส่

    ในปี 2025 การลงทุนใน AI Data Center พุ่งสูงอย่างไม่เคยมีมาก่อน เช่น Amazon ทุ่มเงินกว่า $20 พันล้านในเพนซิลเวเนีย และ Meta เตรียมเปิดศูนย์ Prometheus ขนาดหลายกิกะวัตต์ในปี 2026 ขณะเดียวกัน รัฐบาลสหรัฐฯ โดยประธานาธิบดีทรัมป์ ได้ออกแผน AI Action Plan เพื่อเร่งพัฒนาโครงสร้างพื้นฐาน AI ทั้งในประเทศและต่างประเทศ

    แต่เบื้องหลังความก้าวหน้าเหล่านี้คือความเสี่ยงที่เพิ่มขึ้นอย่างมหาศาล ทั้งด้านพลังงาน (คาดว่าใช้ไฟฟ้ากว่า 612 เทราวัตต์ชั่วโมงใน 5 ปี) และด้านความปลอดภัยไซเบอร์ โดยเฉพาะการโจมตีแบบ side-channel, memory-level, model exfiltration และ supply chain sabotage ที่กำลังกลายเป็นเรื่องจริง

    AI Data Center ไม่ได้แค่เก็บข้อมูล แต่ยังเป็นที่อยู่ของโมเดล, น้ำหนักการเรียนรู้, และชุดข้อมูลฝึก ซึ่งหากถูกขโมยหรือถูกแก้ไข อาจส่งผลต่อความแม่นยำ ความน่าเชื่อถือ และแม้แต่ความมั่นคงของประเทศ

    การเติบโตของ AI Data Center
    Amazon ลงทุน $20 พันล้านในเพนซิลเวเนีย
    Meta เตรียมเปิดศูนย์ Prometheus ขนาดหลายกิกะวัตต์ในปี 2026
    รัฐบาลสหรัฐฯ สนับสนุนผ่าน AI Action Plan โดยประธานาธิบดีทรัมป์
    ความต้องการพลังงานสูงถึง 612 เทราวัตต์ชั่วโมงใน 5 ปี
    คาดว่าจะเพิ่มการปล่อยคาร์บอนทั่วโลก 3–4%

    ความเสี่ยงด้านไซเบอร์ที่เพิ่มขึ้น
    โจมตีแบบ DDoS, ransomware, supply chain และ social engineering
    side-channel attack จากฮาร์ดแวร์ เช่น CPU, GPU, TPU
    ตัวอย่าง: AMD พบช่องโหว่ 4 จุดในเดือนกรกฎาคม 2025
    TPUXtract โจมตี TPU โดยเจาะข้อมูลโมเดล AI โดยตรง
    GPU เสี่ยงต่อ memory-level attack และ malware ที่รันในหน่วยความจำ GPU
    ความเสี่ยงจาก model exfiltration, data poisoning, model inversion และ model stealing

    ความเสี่ยงด้านภูมิรัฐศาสตร์และ supply chain
    การโจมตีจากรัฐต่างชาติ เช่น การแทรกซึมจากจีนผ่าน Digital Silk Road 2.0
    การใช้เทคโนโลยี 5G และระบบเฝ้าระวังในภูมิภาคอ่าวเปอร์เซีย
    ความเสี่ยงจากการใช้ชิ้นส่วนที่ผลิตโดยบริษัทจีน
    การโจมตี supply chain ก่อนศูนย์จะเปิดใช้งานจริง

    แนวทางที่ผู้บริหารด้านความปลอดภัยควรพิจารณา
    ตรวจสอบนโยบายของผู้ให้บริการ AI Data Center อย่างละเอียด
    ใช้ Faraday cage หรือ shield chamber เพื่อลด side-channel attack
    ทำ AI audit อย่างต่อเนื่องเพื่อตรวจหาช่องโหว่และ backdoor
    ตรวจสอบตำแหน่งที่ตั้งของศูนย์และแหล่งที่มาของอุปกรณ์
    คัดกรองบุคลากรเพื่อป้องกันการแทรกซึมจากรัฐต่างชาติ

    https://www.csoonline.com/article/4051849/the-importance-of-reviewing-ai-data-centers-policies.html
    🏭 “AI Data Center: เบื้องหลังเทคโนโลยีล้ำยุคที่อาจกลายเป็นจุดอ่อนด้านความมั่นคงไซเบอร์ระดับโลก” ลองนึกภาพว่าคุณกำลังพัฒนาโมเดล AI ที่ซับซ้อนระดับ GPT-5 หรือระบบวิเคราะห์ภาพทางการแพทย์ที่ต้องใช้พลังประมวลผลมหาศาล คุณอาจคิดถึง GPU, TPU หรือคลาวด์ที่เร็วแรง แต่สิ่งที่คุณอาจมองข้ามคือ “AI Data Center” ที่อยู่เบื้องหลังทั้งหมด — และนั่นคือจุดที่ภัยคุกคามไซเบอร์กำลังพุ่งเป้าเข้าใส่ ในปี 2025 การลงทุนใน AI Data Center พุ่งสูงอย่างไม่เคยมีมาก่อน เช่น Amazon ทุ่มเงินกว่า $20 พันล้านในเพนซิลเวเนีย และ Meta เตรียมเปิดศูนย์ Prometheus ขนาดหลายกิกะวัตต์ในปี 2026 ขณะเดียวกัน รัฐบาลสหรัฐฯ โดยประธานาธิบดีทรัมป์ ได้ออกแผน AI Action Plan เพื่อเร่งพัฒนาโครงสร้างพื้นฐาน AI ทั้งในประเทศและต่างประเทศ แต่เบื้องหลังความก้าวหน้าเหล่านี้คือความเสี่ยงที่เพิ่มขึ้นอย่างมหาศาล ทั้งด้านพลังงาน (คาดว่าใช้ไฟฟ้ากว่า 612 เทราวัตต์ชั่วโมงใน 5 ปี) และด้านความปลอดภัยไซเบอร์ โดยเฉพาะการโจมตีแบบ side-channel, memory-level, model exfiltration และ supply chain sabotage ที่กำลังกลายเป็นเรื่องจริง AI Data Center ไม่ได้แค่เก็บข้อมูล แต่ยังเป็นที่อยู่ของโมเดล, น้ำหนักการเรียนรู้, และชุดข้อมูลฝึก ซึ่งหากถูกขโมยหรือถูกแก้ไข อาจส่งผลต่อความแม่นยำ ความน่าเชื่อถือ และแม้แต่ความมั่นคงของประเทศ ✅ การเติบโตของ AI Data Center ➡️ Amazon ลงทุน $20 พันล้านในเพนซิลเวเนีย ➡️ Meta เตรียมเปิดศูนย์ Prometheus ขนาดหลายกิกะวัตต์ในปี 2026 ➡️ รัฐบาลสหรัฐฯ สนับสนุนผ่าน AI Action Plan โดยประธานาธิบดีทรัมป์ ➡️ ความต้องการพลังงานสูงถึง 612 เทราวัตต์ชั่วโมงใน 5 ปี ➡️ คาดว่าจะเพิ่มการปล่อยคาร์บอนทั่วโลก 3–4% ✅ ความเสี่ยงด้านไซเบอร์ที่เพิ่มขึ้น ➡️ โจมตีแบบ DDoS, ransomware, supply chain และ social engineering ➡️ side-channel attack จากฮาร์ดแวร์ เช่น CPU, GPU, TPU ➡️ ตัวอย่าง: AMD พบช่องโหว่ 4 จุดในเดือนกรกฎาคม 2025 ➡️ TPUXtract โจมตี TPU โดยเจาะข้อมูลโมเดล AI โดยตรง ➡️ GPU เสี่ยงต่อ memory-level attack และ malware ที่รันในหน่วยความจำ GPU ➡️ ความเสี่ยงจาก model exfiltration, data poisoning, model inversion และ model stealing ✅ ความเสี่ยงด้านภูมิรัฐศาสตร์และ supply chain ➡️ การโจมตีจากรัฐต่างชาติ เช่น การแทรกซึมจากจีนผ่าน Digital Silk Road 2.0 ➡️ การใช้เทคโนโลยี 5G และระบบเฝ้าระวังในภูมิภาคอ่าวเปอร์เซีย ➡️ ความเสี่ยงจากการใช้ชิ้นส่วนที่ผลิตโดยบริษัทจีน ➡️ การโจมตี supply chain ก่อนศูนย์จะเปิดใช้งานจริง ✅ แนวทางที่ผู้บริหารด้านความปลอดภัยควรพิจารณา ➡️ ตรวจสอบนโยบายของผู้ให้บริการ AI Data Center อย่างละเอียด ➡️ ใช้ Faraday cage หรือ shield chamber เพื่อลด side-channel attack ➡️ ทำ AI audit อย่างต่อเนื่องเพื่อตรวจหาช่องโหว่และ backdoor ➡️ ตรวจสอบตำแหน่งที่ตั้งของศูนย์และแหล่งที่มาของอุปกรณ์ ➡️ คัดกรองบุคลากรเพื่อป้องกันการแทรกซึมจากรัฐต่างชาติ https://www.csoonline.com/article/4051849/the-importance-of-reviewing-ai-data-centers-policies.html
    WWW.CSOONLINE.COM
    The importance of reviewing AI data centers’ policies
    As the race to invest in AI tools, technologies and capabilities continues, it is critical for cybersecurity leaders to not only look at whether the AI-embedded software is secure but also to scrutinize whether the AI data centers are secure as well.
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • “Sitecore โดนเจาะ! ช่องโหว่ ViewState เปิดทางให้มัลแวร์ WEEPSTEEL ยึดระบบแบบเงียบๆ”

    ลองนึกภาพว่าคุณเป็นผู้ดูแลระบบของเว็บไซต์องค์กรที่ใช้ Sitecore ซึ่งเป็นแพลตฟอร์มจัดการเนื้อหายอดนิยมระดับโลก แล้วจู่ๆ มีแฮกเกอร์แอบเข้ามาในระบบโดยที่คุณไม่รู้ตัว ไม่ใช่เพราะโค้ดมีบั๊ก แต่เพราะคุณใช้ “คีย์ตัวอย่าง” จากเอกสารคู่มือที่ Sitecore เคยเผยแพร่ไว้ตั้งแต่ปี 2017!

    ช่องโหว่นี้ถูกระบุว่าเป็น CVE-2025-53690 ซึ่งเกิดจากการใช้ machine key ที่ไม่ปลอดภัยในฟีเจอร์ ViewState ของ ASP.NET โดย ViewState เป็นกลไกที่ช่วยให้เว็บจำสถานะของผู้ใช้ระหว่างการใช้งาน แต่หากคีย์ที่ใช้ในการเข้ารหัส ViewState ถูกเปิดเผย แฮกเกอร์สามารถสร้าง payload ปลอมที่ดูเหมือนถูกต้อง และส่งไปยังเซิร์ฟเวอร์เพื่อให้รันโค้ดอันตรายได้ทันที — นี่คือ Remote Code Execution (RCE) แบบเต็มรูปแบบ

    มัลแวร์ที่ถูกใช้ในแคมเปญนี้ชื่อว่า WEEPSTEEL ซึ่งเป็น backdoor ที่ออกแบบมาเพื่อเก็บข้อมูลภายในระบบ เช่น รายชื่อผู้ใช้, โครงสร้างเครือข่าย, และไฟล์ config สำคัญ จากนั้นแฮกเกอร์จะใช้เครื่องมือโอเพ่นซอร์สอย่าง EARTHWORM, DWAGENT และ SHARPHOUND เพื่อขยายการควบคุมระบบ สร้างบัญชีผู้ดูแลใหม่ และขโมยข้อมูลแบบเงียบๆ

    สิ่งที่น่ากลัวคือ ช่องโหว่นี้ไม่ได้เกิดจากโค้ดของ ASP.NET แต่เกิดจาก “การคัดลอกคีย์ตัวอย่าง” จากเอกสารคู่มือมาใช้จริงใน production ซึ่งเป็นพฤติกรรมที่หลายองค์กรทำโดยไม่รู้ตัว

    แม้ว่า Sitecore จะออกอัปเดตใหม่ที่สร้างคีย์แบบสุ่มโดยอัตโนมัติ และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว แต่ผู้เชี่ยวชาญเตือนว่า “ผลกระทบที่แท้จริงยังไม่ปรากฏ” และอาจมีการโจมตีเพิ่มเติมในอนาคต หากองค์กรไม่รีบแก้ไข

    ช่องโหว่ CVE-2025-53690 ใน Sitecore
    เกิดจากการใช้ machine key ตัวอย่างจากเอกสารคู่มือก่อนปี 2017
    เป็นช่องโหว่ ViewState deserialization ที่เปิดทางให้ Remote Code Execution (RCE)
    ส่งผลกระทบต่อ Sitecore XM, XP, XC และ Managed Cloud ที่ใช้คีย์แบบ static
    ไม่กระทบต่อ XM Cloud, Content Hub, CDP, Personalize, OrderCloud และ Commerce Server
    ViewState ถูกใช้ใน ASP.NET เพื่อเก็บสถานะของผู้ใช้ใน hidden field
    หาก machine key ถูกเปิดเผย เซิร์ฟเวอร์จะไม่สามารถแยกแยะ payload ที่ถูกต้องกับมัลแวร์ได้

    การโจมตีและมัลแวร์ WEEPSTEEL
    เริ่มจากการ probe หน้า /sitecore/blocked.aspx ที่มี ViewState แบบไม่ต้องล็อกอิน
    ใช้ ViewState payload ที่ฝัง WEEPSTEEL เพื่อเก็บข้อมูลระบบ
    ใช้ EARTHWORM สำหรับสร้าง tunnel, DWAGENT สำหรับ remote access, SHARPHOUND สำหรับสำรวจ Active Directory
    สร้างบัญชีผู้ดูแลใหม่ เช่น asp$ และ sawadmin เพื่อขโมย credentials
    dump ข้อมูลจาก SAM และ SYSTEM hives เพื่อขยายการเข้าถึง
    ใช้ GoTokenTheft เพื่อขโมย token และเปิดทางให้ RDP access
    ลบบัญชีที่สร้างไว้หลังจากได้สิทธิ์จากบัญชีอื่น เพื่อหลบการตรวจสอบ

    การตอบสนองและคำแนะนำจากผู้เชี่ยวชาญ
    Sitecore ออกอัปเดตใหม่ที่สร้าง machine key แบบสุ่มโดยอัตโนมัติ
    แนะนำให้ผู้ดูแลระบบเปลี่ยนคีย์ทั้งหมดใน web.config และเข้ารหัส <machineKey>
    ควรหมุนเวียน machine key เป็นประจำเพื่อความปลอดภัย
    ตรวจสอบระบบย้อนหลังเพื่อหาสัญญาณการเจาะระบบ

    https://hackread.com/zero-day-sitecore-exploited-deploy-weepsteel-malware/
    🛡️ “Sitecore โดนเจาะ! ช่องโหว่ ViewState เปิดทางให้มัลแวร์ WEEPSTEEL ยึดระบบแบบเงียบๆ” ลองนึกภาพว่าคุณเป็นผู้ดูแลระบบของเว็บไซต์องค์กรที่ใช้ Sitecore ซึ่งเป็นแพลตฟอร์มจัดการเนื้อหายอดนิยมระดับโลก แล้วจู่ๆ มีแฮกเกอร์แอบเข้ามาในระบบโดยที่คุณไม่รู้ตัว ไม่ใช่เพราะโค้ดมีบั๊ก แต่เพราะคุณใช้ “คีย์ตัวอย่าง” จากเอกสารคู่มือที่ Sitecore เคยเผยแพร่ไว้ตั้งแต่ปี 2017! ช่องโหว่นี้ถูกระบุว่าเป็น CVE-2025-53690 ซึ่งเกิดจากการใช้ machine key ที่ไม่ปลอดภัยในฟีเจอร์ ViewState ของ ASP.NET โดย ViewState เป็นกลไกที่ช่วยให้เว็บจำสถานะของผู้ใช้ระหว่างการใช้งาน แต่หากคีย์ที่ใช้ในการเข้ารหัส ViewState ถูกเปิดเผย แฮกเกอร์สามารถสร้าง payload ปลอมที่ดูเหมือนถูกต้อง และส่งไปยังเซิร์ฟเวอร์เพื่อให้รันโค้ดอันตรายได้ทันที — นี่คือ Remote Code Execution (RCE) แบบเต็มรูปแบบ มัลแวร์ที่ถูกใช้ในแคมเปญนี้ชื่อว่า WEEPSTEEL ซึ่งเป็น backdoor ที่ออกแบบมาเพื่อเก็บข้อมูลภายในระบบ เช่น รายชื่อผู้ใช้, โครงสร้างเครือข่าย, และไฟล์ config สำคัญ จากนั้นแฮกเกอร์จะใช้เครื่องมือโอเพ่นซอร์สอย่าง EARTHWORM, DWAGENT และ SHARPHOUND เพื่อขยายการควบคุมระบบ สร้างบัญชีผู้ดูแลใหม่ และขโมยข้อมูลแบบเงียบๆ สิ่งที่น่ากลัวคือ ช่องโหว่นี้ไม่ได้เกิดจากโค้ดของ ASP.NET แต่เกิดจาก “การคัดลอกคีย์ตัวอย่าง” จากเอกสารคู่มือมาใช้จริงใน production ซึ่งเป็นพฤติกรรมที่หลายองค์กรทำโดยไม่รู้ตัว แม้ว่า Sitecore จะออกอัปเดตใหม่ที่สร้างคีย์แบบสุ่มโดยอัตโนมัติ และแจ้งเตือนลูกค้าที่ได้รับผลกระทบแล้ว แต่ผู้เชี่ยวชาญเตือนว่า “ผลกระทบที่แท้จริงยังไม่ปรากฏ” และอาจมีการโจมตีเพิ่มเติมในอนาคต หากองค์กรไม่รีบแก้ไข ✅ ช่องโหว่ CVE-2025-53690 ใน Sitecore ➡️ เกิดจากการใช้ machine key ตัวอย่างจากเอกสารคู่มือก่อนปี 2017 ➡️ เป็นช่องโหว่ ViewState deserialization ที่เปิดทางให้ Remote Code Execution (RCE) ➡️ ส่งผลกระทบต่อ Sitecore XM, XP, XC และ Managed Cloud ที่ใช้คีย์แบบ static ➡️ ไม่กระทบต่อ XM Cloud, Content Hub, CDP, Personalize, OrderCloud และ Commerce Server ➡️ ViewState ถูกใช้ใน ASP.NET เพื่อเก็บสถานะของผู้ใช้ใน hidden field ➡️ หาก machine key ถูกเปิดเผย เซิร์ฟเวอร์จะไม่สามารถแยกแยะ payload ที่ถูกต้องกับมัลแวร์ได้ ✅ การโจมตีและมัลแวร์ WEEPSTEEL ➡️ เริ่มจากการ probe หน้า /sitecore/blocked.aspx ที่มี ViewState แบบไม่ต้องล็อกอิน ➡️ ใช้ ViewState payload ที่ฝัง WEEPSTEEL เพื่อเก็บข้อมูลระบบ ➡️ ใช้ EARTHWORM สำหรับสร้าง tunnel, DWAGENT สำหรับ remote access, SHARPHOUND สำหรับสำรวจ Active Directory ➡️ สร้างบัญชีผู้ดูแลใหม่ เช่น asp$ และ sawadmin เพื่อขโมย credentials ➡️ dump ข้อมูลจาก SAM และ SYSTEM hives เพื่อขยายการเข้าถึง ➡️ ใช้ GoTokenTheft เพื่อขโมย token และเปิดทางให้ RDP access ➡️ ลบบัญชีที่สร้างไว้หลังจากได้สิทธิ์จากบัญชีอื่น เพื่อหลบการตรวจสอบ ✅ การตอบสนองและคำแนะนำจากผู้เชี่ยวชาญ ➡️ Sitecore ออกอัปเดตใหม่ที่สร้าง machine key แบบสุ่มโดยอัตโนมัติ ➡️ แนะนำให้ผู้ดูแลระบบเปลี่ยนคีย์ทั้งหมดใน web.config และเข้ารหัส <machineKey> ➡️ ควรหมุนเวียน machine key เป็นประจำเพื่อความปลอดภัย ➡️ ตรวจสอบระบบย้อนหลังเพื่อหาสัญญาณการเจาะระบบ https://hackread.com/zero-day-sitecore-exploited-deploy-weepsteel-malware/
    HACKREAD.COM
    Zero-Day in Sitecore Exploited to Deploy WEEPSTEEL Malware
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 18 มุมมอง 0 รีวิว
  • “เบอร์ No Caller ID โทรมาแล้วอยากโทรกลับ? รู้ไว้ก่อนจะเสียเวลา!”

    ลองนึกภาพว่าคุณได้รับสายจากเบอร์ที่ขึ้นว่า “No Caller ID” — ไม่มีชื่อ ไม่มีเบอร์ ไม่มีอะไรเลย แล้วคุณอยากรู้ว่าใครโทรมา จะโทรกลับได้ไหม? คำตอบคือ...ไม่ได้ครับ

    เบอร์ “No Caller ID” คือการที่ผู้โทรใช้ฟีเจอร์ซ่อนหมายเลขก่อนโทรออก เช่นในสหรัฐฯ ใช้รหัส *67 เพื่อบอกเครือข่ายว่าไม่ต้องส่งหมายเลขไปยังปลายทาง ซึ่งต่างจาก “Unknown Caller” หรือ “Private Number” ที่อาจเกิดจากปัญหาทางเทคนิคหรือการบล็อกเบอร์

    เมื่อคุณได้รับสายแบบนี้ หมายเลขจะไม่ถูกบันทึกไว้ในระบบ ไม่อยู่ใน call log และไม่สามารถกดโทรกลับได้ เพราะโทรศัพท์ของคุณไม่มีข้อมูลหมายเลขให้โทรกลับเลย

    แต่ถ้าคุณรู้สึกว่าเบอร์ลับนี้โทรมาก่อกวน หรือมีพฤติกรรมที่น่าสงสัย ก็ยังมีวิธีจัดการ เช่น ใช้บริการ Call Trace (*57) ที่ผู้ให้บริการโทรศัพท์บางรายมีให้ ซึ่งจะส่งข้อมูลไปยังเครือข่ายและสามารถใช้เป็นหลักฐานกับตำรวจได้ในกรณีที่จำเป็น

    นอกจากนี้ยังมีวิธีป้องกัน เช่น เปิดฟีเจอร์ “Silence Unknown Callers” บน iPhone หรือใช้แอปบล็อกเบอร์จากผู้ให้บริการ เช่น AT&T ActiveArmor, T-Mobile Scam Shield หรือ Verizon Call Filter รวมถึงแอป third-party ที่ช่วยกรองสายได้แบบเรียลไทม์

    แต่ต้องระวัง เพราะบางครั้งเบอร์ที่ซ่อนอาจเป็นสายจากโรงพยาบาล หน่วยงานรัฐ หรือธุรกิจที่มีเหตุผลในการปิดเบอร์ หากคุณบล็อกเบอร์ลับทั้งหมด อาจพลาดสายสำคัญได้

    ความหมายของ “No Caller ID”
    เป็นการซ่อนหมายเลขโดยผู้โทรตั้งใจ ไม่ใช่ปัญหาทางเทคนิค
    ใช้รหัสเช่น *67 เพื่อบอกเครือข่ายไม่ให้ส่งหมายเลข
    หมายเลขจะไม่ปรากฏใน call log และไม่สามารถโทรกลับได้

    วิธีจัดการกับเบอร์ No Caller ID
    ใช้บริการ Call Trace (*57) เพื่อส่งข้อมูลไปยังผู้ให้บริการ
    ติดต่อเครือข่ายเพื่อเปิดฟีเจอร์บล็อกสายลับ เช่น Anonymous Call Rejection
    ใช้ฟีเจอร์ “Silence Unknown Callers” บน iPhone
    Android มีตัวเลือกบล็อกเบอร์ลับในแอปโทรศัพท์
    แอป third-party ช่วยกรองสายและรายงานสแปมแบบเรียลไทม์

    ข้อมูลเพิ่มเติมจากภายนอก
    ในบางประเทศสามารถใช้รหัส *69 เพื่อดูหมายเลขล่าสุดที่โทรเข้า
    แอปเช่น Truecaller หรือ Hiya สามารถช่วยระบุเบอร์ลับได้ในบางกรณี
    เบอร์ที่ซ่อนอาจเป็นสายจากโรงพยาบาลหรือหน่วยงานรัฐที่ต้องการความเป็นส่วนตัว

    คำเตือนในการรับมือกับเบอร์ No Caller ID
    ไม่สามารถโทรกลับได้โดยตรง เพราะไม่มีหมายเลขให้โทร
    การใช้บริการ Call Trace อาจมีค่าใช้จ่ายและใช้ได้เฉพาะบางเครือข่าย
    การบล็อกเบอร์ลับทั้งหมดอาจทำให้พลาดสายสำคัญจากหน่วยงานหรือแพทย์
    แอป third-party อาจไม่สามารถระบุเบอร์ลับได้เสมอไป และมีข้อจำกัดตามภูมิภาค

    https://www.slashgear.com/1960219/can-you-call-back-a-no-caller-id-number/
    📵 “เบอร์ No Caller ID โทรมาแล้วอยากโทรกลับ? รู้ไว้ก่อนจะเสียเวลา!” ลองนึกภาพว่าคุณได้รับสายจากเบอร์ที่ขึ้นว่า “No Caller ID” — ไม่มีชื่อ ไม่มีเบอร์ ไม่มีอะไรเลย แล้วคุณอยากรู้ว่าใครโทรมา จะโทรกลับได้ไหม? คำตอบคือ...ไม่ได้ครับ เบอร์ “No Caller ID” คือการที่ผู้โทรใช้ฟีเจอร์ซ่อนหมายเลขก่อนโทรออก เช่นในสหรัฐฯ ใช้รหัส *67 เพื่อบอกเครือข่ายว่าไม่ต้องส่งหมายเลขไปยังปลายทาง ซึ่งต่างจาก “Unknown Caller” หรือ “Private Number” ที่อาจเกิดจากปัญหาทางเทคนิคหรือการบล็อกเบอร์ เมื่อคุณได้รับสายแบบนี้ หมายเลขจะไม่ถูกบันทึกไว้ในระบบ ไม่อยู่ใน call log และไม่สามารถกดโทรกลับได้ เพราะโทรศัพท์ของคุณไม่มีข้อมูลหมายเลขให้โทรกลับเลย แต่ถ้าคุณรู้สึกว่าเบอร์ลับนี้โทรมาก่อกวน หรือมีพฤติกรรมที่น่าสงสัย ก็ยังมีวิธีจัดการ เช่น ใช้บริการ Call Trace (*57) ที่ผู้ให้บริการโทรศัพท์บางรายมีให้ ซึ่งจะส่งข้อมูลไปยังเครือข่ายและสามารถใช้เป็นหลักฐานกับตำรวจได้ในกรณีที่จำเป็น นอกจากนี้ยังมีวิธีป้องกัน เช่น เปิดฟีเจอร์ “Silence Unknown Callers” บน iPhone หรือใช้แอปบล็อกเบอร์จากผู้ให้บริการ เช่น AT&T ActiveArmor, T-Mobile Scam Shield หรือ Verizon Call Filter รวมถึงแอป third-party ที่ช่วยกรองสายได้แบบเรียลไทม์ แต่ต้องระวัง เพราะบางครั้งเบอร์ที่ซ่อนอาจเป็นสายจากโรงพยาบาล หน่วยงานรัฐ หรือธุรกิจที่มีเหตุผลในการปิดเบอร์ หากคุณบล็อกเบอร์ลับทั้งหมด อาจพลาดสายสำคัญได้ ✅ ความหมายของ “No Caller ID” ➡️ เป็นการซ่อนหมายเลขโดยผู้โทรตั้งใจ ไม่ใช่ปัญหาทางเทคนิค ➡️ ใช้รหัสเช่น *67 เพื่อบอกเครือข่ายไม่ให้ส่งหมายเลข ➡️ หมายเลขจะไม่ปรากฏใน call log และไม่สามารถโทรกลับได้ ✅ วิธีจัดการกับเบอร์ No Caller ID ➡️ ใช้บริการ Call Trace (*57) เพื่อส่งข้อมูลไปยังผู้ให้บริการ ➡️ ติดต่อเครือข่ายเพื่อเปิดฟีเจอร์บล็อกสายลับ เช่น Anonymous Call Rejection ➡️ ใช้ฟีเจอร์ “Silence Unknown Callers” บน iPhone ➡️ Android มีตัวเลือกบล็อกเบอร์ลับในแอปโทรศัพท์ ➡️ แอป third-party ช่วยกรองสายและรายงานสแปมแบบเรียลไทม์ ✅ ข้อมูลเพิ่มเติมจากภายนอก ➡️ ในบางประเทศสามารถใช้รหัส *69 เพื่อดูหมายเลขล่าสุดที่โทรเข้า ➡️ แอปเช่น Truecaller หรือ Hiya สามารถช่วยระบุเบอร์ลับได้ในบางกรณี ➡️ เบอร์ที่ซ่อนอาจเป็นสายจากโรงพยาบาลหรือหน่วยงานรัฐที่ต้องการความเป็นส่วนตัว ‼️ คำเตือนในการรับมือกับเบอร์ No Caller ID ⛔ ไม่สามารถโทรกลับได้โดยตรง เพราะไม่มีหมายเลขให้โทร ⛔ การใช้บริการ Call Trace อาจมีค่าใช้จ่ายและใช้ได้เฉพาะบางเครือข่าย ⛔ การบล็อกเบอร์ลับทั้งหมดอาจทำให้พลาดสายสำคัญจากหน่วยงานหรือแพทย์ ⛔ แอป third-party อาจไม่สามารถระบุเบอร์ลับได้เสมอไป และมีข้อจำกัดตามภูมิภาค https://www.slashgear.com/1960219/can-you-call-back-a-no-caller-id-number/
    WWW.SLASHGEAR.COM
    Can You Call Back A 'No Caller ID' Number? - SlashGear
    With "No Caller ID," the caller has used a feature that hides their identity at the network level. Because of that, there's no way to dial back directly.
    0 ความคิดเห็น 0 การแบ่งปัน 39 มุมมอง 0 รีวิว
  • “Signal เปิดตัวฟีเจอร์ Secure Backups สำรองข้อมูลแบบเข้ารหัส ปลอดภัยขั้นสุด!”

    ลองจินตนาการว่า...คุณใช้ Signal เป็นช่องทางหลักในการสื่อสารกับคนสำคัญ ไม่ว่าจะเป็นข้อความหวานๆ รูปครอบครัว หรือเอกสารลับทางธุรกิจ แล้ววันหนึ่งโทรศัพท์คุณพังหรือหาย—ทุกอย่างหายไปหมด ไม่มีทางกู้คืนได้เลย

    นั่นคือปัญหาที่ Signal เพิ่งแก้ไขด้วยฟีเจอร์ใหม่ “Secure Backups” ซึ่งเปิดให้ใช้ในเวอร์ชันเบต้าบน Android แล้ว และจะตามมาใน iOS และ Desktop เร็วๆ นี้

    ฟีเจอร์นี้ให้ผู้ใช้ “เลือกเปิดใช้งานเอง” (opt-in) เพื่อสำรองข้อมูลการสนทนาแบบเข้ารหัสปลายทาง (end-to-end encrypted) โดยไม่มีใคร—including Signal เอง—สามารถเข้าถึงได้ ยกเว้นคุณคนเดียวผ่าน “รหัสกู้คืน” ที่ยาวถึง 64 ตัวอักษร ซึ่งถ้าคุณทำหาย ก็ไม่มีใครช่วยคุณได้เลย

    ที่น่าสนใจคือ Signal ยังเปิดตัวระบบสมัครสมาชิกแบบเสียเงินครั้งแรกในประวัติศาสตร์ของแอป เพื่อให้คุณสามารถสำรองไฟล์มีเดียย้อนหลังเกิน 45 วันได้ โดยคิดค่าบริการเพียง $1.99 ต่อเดือน ซึ่งถือว่าถูกมากเมื่อเทียบกับบริการอื่นที่มักแลกมาด้วยการขายข้อมูลผู้ใช้

    และทั้งหมดนี้ยังคงยึดมั่นในหลักการ “ไม่เก็บข้อมูลผู้ใช้” และ “ไม่ผูกบัญชีสำรองกับตัวตนของผู้ใช้” ซึ่งเป็นหัวใจของ Signal มาตลอด

    ฟีเจอร์ใหม่: Secure Backups
    เปิดให้ใช้ในเวอร์ชันเบต้าบน Android แล้ว
    จะขยายไปยัง iOS และ Desktop ในอนาคต
    เป็นฟีเจอร์แบบ opt-in ผู้ใช้ต้องเปิดใช้งานเอง
    สำรองข้อมูลแบบเข้ารหัสปลายทาง (end-to-end encryption)
    สำรองข้อความทั้งหมดและไฟล์มีเดียย้อนหลัง 45 วันได้ฟรี
    มีระบบสมัครสมาชิก $1.99/เดือน สำหรับการสำรองไฟล์มีเดียย้อนหลังเกิน 45 วัน
    ใช้เทคโนโลยี zero-knowledge ไม่ผูกกับบัญชีผู้ใช้หรือข้อมูลการชำระเงิน
    สำรองข้อมูลใหม่ทุกวันโดยอัตโนมัติ
    ข้อมูลที่ถูกตั้งให้ลบภายใน 24 ชั่วโมงจะไม่ถูกสำรองไว้

    ความปลอดภัยของระบบ
    ใช้รหัสกู้คืน 64 ตัวอักษรที่สร้างบนอุปกรณ์ของผู้ใช้
    Signal ไม่สามารถเข้าถึงหรือกู้คืนรหัสนี้ได้
    แนะนำให้เก็บรหัสไว้ในที่ปลอดภัย เช่น สมุดโน้ตหรือ password manager
    ไม่มีการเชื่อมโยงข้อมูลสำรองกับบัญชีผู้ใช้โดยตรง

    คำเตือนสำคัญ
    หากทำรหัสกู้คืนหาย จะไม่สามารถกู้คืนข้อมูลได้อีกเลย
    ข้อมูลที่ถูกลบหรือตั้งให้หายไปภายใน 24 ชั่วโมงจะไม่อยู่ในสำรอง
    ผู้ใช้ต้องเปิดใช้งานฟีเจอร์เอง มิฉะนั้นจะไม่มีการสำรองข้อมูลใดๆ
    การสำรองข้อมูลมีข้อจำกัดในเวอร์ชันฟรี (45 วันของไฟล์มีเดีย)

    https://signal.org/blog/introducing-secure-backups/
    🔐 “Signal เปิดตัวฟีเจอร์ Secure Backups สำรองข้อมูลแบบเข้ารหัส ปลอดภัยขั้นสุด!” ลองจินตนาการว่า...คุณใช้ Signal เป็นช่องทางหลักในการสื่อสารกับคนสำคัญ ไม่ว่าจะเป็นข้อความหวานๆ รูปครอบครัว หรือเอกสารลับทางธุรกิจ แล้ววันหนึ่งโทรศัพท์คุณพังหรือหาย—ทุกอย่างหายไปหมด ไม่มีทางกู้คืนได้เลย นั่นคือปัญหาที่ Signal เพิ่งแก้ไขด้วยฟีเจอร์ใหม่ “Secure Backups” ซึ่งเปิดให้ใช้ในเวอร์ชันเบต้าบน Android แล้ว และจะตามมาใน iOS และ Desktop เร็วๆ นี้ ฟีเจอร์นี้ให้ผู้ใช้ “เลือกเปิดใช้งานเอง” (opt-in) เพื่อสำรองข้อมูลการสนทนาแบบเข้ารหัสปลายทาง (end-to-end encrypted) โดยไม่มีใคร—including Signal เอง—สามารถเข้าถึงได้ ยกเว้นคุณคนเดียวผ่าน “รหัสกู้คืน” ที่ยาวถึง 64 ตัวอักษร ซึ่งถ้าคุณทำหาย ก็ไม่มีใครช่วยคุณได้เลย ที่น่าสนใจคือ Signal ยังเปิดตัวระบบสมัครสมาชิกแบบเสียเงินครั้งแรกในประวัติศาสตร์ของแอป เพื่อให้คุณสามารถสำรองไฟล์มีเดียย้อนหลังเกิน 45 วันได้ โดยคิดค่าบริการเพียง $1.99 ต่อเดือน ซึ่งถือว่าถูกมากเมื่อเทียบกับบริการอื่นที่มักแลกมาด้วยการขายข้อมูลผู้ใช้ และทั้งหมดนี้ยังคงยึดมั่นในหลักการ “ไม่เก็บข้อมูลผู้ใช้” และ “ไม่ผูกบัญชีสำรองกับตัวตนของผู้ใช้” ซึ่งเป็นหัวใจของ Signal มาตลอด ✅ ฟีเจอร์ใหม่: Secure Backups ➡️ เปิดให้ใช้ในเวอร์ชันเบต้าบน Android แล้ว ➡️ จะขยายไปยัง iOS และ Desktop ในอนาคต ➡️ เป็นฟีเจอร์แบบ opt-in ผู้ใช้ต้องเปิดใช้งานเอง ➡️ สำรองข้อมูลแบบเข้ารหัสปลายทาง (end-to-end encryption) ➡️ สำรองข้อความทั้งหมดและไฟล์มีเดียย้อนหลัง 45 วันได้ฟรี ➡️ มีระบบสมัครสมาชิก $1.99/เดือน สำหรับการสำรองไฟล์มีเดียย้อนหลังเกิน 45 วัน ➡️ ใช้เทคโนโลยี zero-knowledge ไม่ผูกกับบัญชีผู้ใช้หรือข้อมูลการชำระเงิน ➡️ สำรองข้อมูลใหม่ทุกวันโดยอัตโนมัติ ➡️ ข้อมูลที่ถูกตั้งให้ลบภายใน 24 ชั่วโมงจะไม่ถูกสำรองไว้ ✅ ความปลอดภัยของระบบ ➡️ ใช้รหัสกู้คืน 64 ตัวอักษรที่สร้างบนอุปกรณ์ของผู้ใช้ ➡️ Signal ไม่สามารถเข้าถึงหรือกู้คืนรหัสนี้ได้ ➡️ แนะนำให้เก็บรหัสไว้ในที่ปลอดภัย เช่น สมุดโน้ตหรือ password manager ➡️ ไม่มีการเชื่อมโยงข้อมูลสำรองกับบัญชีผู้ใช้โดยตรง ‼️ คำเตือนสำคัญ ⛔ หากทำรหัสกู้คืนหาย จะไม่สามารถกู้คืนข้อมูลได้อีกเลย ⛔ ข้อมูลที่ถูกลบหรือตั้งให้หายไปภายใน 24 ชั่วโมงจะไม่อยู่ในสำรอง ⛔ ผู้ใช้ต้องเปิดใช้งานฟีเจอร์เอง มิฉะนั้นจะไม่มีการสำรองข้อมูลใดๆ ⛔ การสำรองข้อมูลมีข้อจำกัดในเวอร์ชันฟรี (45 วันของไฟล์มีเดีย) https://signal.org/blog/introducing-secure-backups/
    SIGNAL.ORG
    Introducing Signal Secure Backups
    In the past, if you broke or lost your phone, your Signal message history was gone. This has been a challenge for people whose most important conversations happen on Signal. Think family photos, sweet messages, important documents, or anything else you don’t want to lose forever. This explains wh...
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Raycast ถึง Sonner: เมื่อแอนิเมชันไม่ใช่สิ่งที่ต้องมีเสมอไป

    Emil Kowalski วิศวกรออกแบบจาก Linear ได้เขียนบทความที่ชวนให้เราตั้งคำถามว่า “เราจำเป็นต้องมีแอนิเมชันจริงหรือ?” เขาเสนอว่าแอนิเมชันที่ดีควรมี “เป้าหมายที่ชัดเจน” ไม่ใช่แค่เพื่อความสวยงาม แต่ต้องช่วยให้ผู้ใช้เข้าใจสิ่งที่เกิดขึ้นในอินเทอร์เฟซได้ดีขึ้น

    ตัวอย่างเช่น แอนิเมชันที่ Linear ใช้เพื่ออธิบายฟีเจอร์ Product Intelligence ช่วยให้ผู้ใช้เข้าใจฟังก์ชันได้ทันทีจาก viewport แรก โดยไม่ต้องอ่านคำอธิบายยาว ๆ หรือคลิกเพิ่ม

    อีกตัวอย่างคือ Sonner ซึ่งเป็น toast component ที่ใช้แอนิเมชันเพื่อให้การปรากฏและหายไปของข้อความแจ้งเตือนดูเป็นธรรมชาติ และสร้าง “spatial consistency” ที่ช่วยให้ผู้ใช้เข้าใจทิศทางของการ dismiss ได้ง่ายขึ้น

    แต่ Emil ก็เตือนว่า แอนิเมชันที่ใช้บ่อยเกินไป เช่น morphing feedback หรือ hover effects ที่เกิดทุกครั้งที่ผู้ใช้เลื่อนเมาส์ อาจกลายเป็นสิ่งที่น่ารำคาญได้ หากผู้ใช้ต้องเจอวันละหลายร้อยครั้ง

    เขายกตัวอย่าง Raycast ซึ่งเป็นแอปที่เขาใช้วันละหลายร้อยครั้ง—และไม่มีแอนิเมชันเลย เพราะเป้าหมายของผู้ใช้คือ “ทำงานให้เสร็จ” ไม่ใช่ “รู้สึกว้าว” ทุกครั้งที่เปิดเมนู

    นอกจากนี้ ความเร็วของแอนิเมชันก็สำคัญมาก แอนิเมชันที่เร็วเกินไปอาจดูไม่เป็นธรรมชาติ แต่ถ้าช้าเกินไปก็จะทำให้รู้สึกว่าระบบตอบสนองช้า เช่น dropdown ที่ใช้เวลา 180ms จะรู้สึก responsive กว่าแบบ 400ms อย่างชัดเจน

    สุดท้าย Emil สรุปว่า “บางครั้งแอนิเมชันที่ดีที่สุดคือไม่มีแอนิเมชันเลย” และการตัดสินใจว่าจะใช้หรือไม่ใช้ ต้องพิจารณาจากความถี่ในการใช้งาน เป้าหมายของผู้ใช้ และความเร็วของการตอบสนอง

    https://emilkowal.ski/ui/you-dont-need-animations
    🎙️ เรื่องเล่าจาก Raycast ถึง Sonner: เมื่อแอนิเมชันไม่ใช่สิ่งที่ต้องมีเสมอไป Emil Kowalski วิศวกรออกแบบจาก Linear ได้เขียนบทความที่ชวนให้เราตั้งคำถามว่า “เราจำเป็นต้องมีแอนิเมชันจริงหรือ?” เขาเสนอว่าแอนิเมชันที่ดีควรมี “เป้าหมายที่ชัดเจน” ไม่ใช่แค่เพื่อความสวยงาม แต่ต้องช่วยให้ผู้ใช้เข้าใจสิ่งที่เกิดขึ้นในอินเทอร์เฟซได้ดีขึ้น ตัวอย่างเช่น แอนิเมชันที่ Linear ใช้เพื่ออธิบายฟีเจอร์ Product Intelligence ช่วยให้ผู้ใช้เข้าใจฟังก์ชันได้ทันทีจาก viewport แรก โดยไม่ต้องอ่านคำอธิบายยาว ๆ หรือคลิกเพิ่ม อีกตัวอย่างคือ Sonner ซึ่งเป็น toast component ที่ใช้แอนิเมชันเพื่อให้การปรากฏและหายไปของข้อความแจ้งเตือนดูเป็นธรรมชาติ และสร้าง “spatial consistency” ที่ช่วยให้ผู้ใช้เข้าใจทิศทางของการ dismiss ได้ง่ายขึ้น แต่ Emil ก็เตือนว่า แอนิเมชันที่ใช้บ่อยเกินไป เช่น morphing feedback หรือ hover effects ที่เกิดทุกครั้งที่ผู้ใช้เลื่อนเมาส์ อาจกลายเป็นสิ่งที่น่ารำคาญได้ หากผู้ใช้ต้องเจอวันละหลายร้อยครั้ง เขายกตัวอย่าง Raycast ซึ่งเป็นแอปที่เขาใช้วันละหลายร้อยครั้ง—และไม่มีแอนิเมชันเลย เพราะเป้าหมายของผู้ใช้คือ “ทำงานให้เสร็จ” ไม่ใช่ “รู้สึกว้าว” ทุกครั้งที่เปิดเมนู นอกจากนี้ ความเร็วของแอนิเมชันก็สำคัญมาก แอนิเมชันที่เร็วเกินไปอาจดูไม่เป็นธรรมชาติ แต่ถ้าช้าเกินไปก็จะทำให้รู้สึกว่าระบบตอบสนองช้า เช่น dropdown ที่ใช้เวลา 180ms จะรู้สึก responsive กว่าแบบ 400ms อย่างชัดเจน สุดท้าย Emil สรุปว่า “บางครั้งแอนิเมชันที่ดีที่สุดคือไม่มีแอนิเมชันเลย” และการตัดสินใจว่าจะใช้หรือไม่ใช้ ต้องพิจารณาจากความถี่ในการใช้งาน เป้าหมายของผู้ใช้ และความเร็วของการตอบสนอง https://emilkowal.ski/ui/you-dont-need-animations
    EMILKOWAL.SKI
    You Don't Need Animations
    Why you are animating more often than you should.
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น

    ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว

    แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน

    Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้

    ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023

    การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน

    ข้อตกลงระหว่าง Nvidia กับ Lambda
    มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว
    แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว
    Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda

    จุดแข็งของ Lambda และแผนการเติบโต
    ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน
    คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026
    ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030

    กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ
    เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO
    เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน
    หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร

    การใช้งาน GPU ที่เช่ากลับ
    ใช้สำหรับงานวิจัยภายในของ Nvidia
    สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI
    ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    🎙️ เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้ ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023 การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน ✅ ข้อตกลงระหว่าง Nvidia กับ Lambda ➡️ มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว ➡️ แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว ➡️ Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda ✅ จุดแข็งของ Lambda และแผนการเติบโต ➡️ ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน ➡️ คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026 ➡️ ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030 ✅ กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ ➡️ เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO ➡️ เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน ➡️ หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร ✅ การใช้งาน GPU ที่เช่ากลับ ➡️ ใช้สำหรับงานวิจัยภายในของ Nvidia ➡️ สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI ➡️ ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    0 ความคิดเห็น 0 การแบ่งปัน 123 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Outlook ถึง OneDrive: เมื่อ APT28 ใช้ช่องโหว่ของระบบที่เราไว้ใจมากที่สุด

    กลุ่มแฮกเกอร์ APT28 หรือที่รู้จักกันในชื่อ Fancy Bear, STRONTIUM, Sednit และอีกหลายชื่อ เป็นกลุ่มที่เชื่อมโยงกับหน่วยข่าวกรองของรัสเซีย และมีประวัติการโจมตีองค์กรในประเทศ NATO มายาวนาน ล่าสุดพวกเขาถูกจับได้ว่าใช้มัลแวร์ชื่อ “NotDoor” ซึ่งเป็น VBA macro ที่ฝังอยู่ใน Microsoft Outlook เพื่อขโมยข้อมูลและควบคุมเครื่องของเหยื่อจากระยะไกล

    NotDoor ทำงานโดยรออีเมลที่มีคำสั่งลับ เช่น “Daily Report” เมื่อพบคำนี้ มันจะเริ่มทำงานทันที—ขโมยไฟล์, ส่งข้อมูลออก, ติดตั้ง payload ใหม่ และรันคำสั่ง—all ผ่านอีเมลที่ดูเหมือนปกติ โดยใช้ชื่อไฟล์ทั่วไป เช่น “report.pdf” หรือ “invoice.jpg” เพื่อไม่ให้ถูกสงสัย

    ที่น่ากลัวคือวิธีที่มันเข้าสู่ระบบ: APT28 ใช้ไฟล์ OneDrive.exe ที่เซ็นรับรองโดย Microsoft เพื่อ sideload DLL ชื่อ SSPICLI.dll ซึ่งจะปิดการป้องกัน macro และติดตั้ง NotDoor โดยใช้ PowerShell ที่ถูกเข้ารหัสแบบ Base644 จากนั้นมันจะฝังตัวในโฟลเดอร์ macro ของ Outlook, สร้าง persistence ผ่าน registry, และปิดข้อความแจ้งเตือนทั้งหมดเพื่อไม่ให้ผู้ใช้รู้ตัว

    มัลแวร์นี้ยังใช้ DNS และ HTTP callback ไปยัง webhook.site เพื่อยืนยันการติดตั้ง และสามารถส่งข้อมูลออกไปยังอีเมล ProtonMail ที่ควบคุมโดยผู้โจมตีได้โดยตรง

    ลักษณะของ NotDoor และการทำงาน
    เป็น VBA macro ที่ฝังใน Outlook และทำงานเมื่อมีอีเมล trigger เช่น “Daily Report”
    สามารถขโมยไฟล์, ส่งข้อมูล, ติดตั้ง payload และรันคำสั่งผ่านอีเมล
    ใช้ชื่อไฟล์ทั่วไปและหัวข้ออีเมลที่ดูปกติเพื่อหลบการตรวจจับ

    วิธีการติดตั้งและการหลบหลีก
    ใช้ OneDrive.exe ที่เซ็นรับรองเพื่อ sideload DLL ชื่อ SSPICLI.dll
    ใช้ PowerShell ที่เข้ารหัสเพื่อฝัง macro ใน Outlook
    สร้าง persistence ผ่าน registry และปิดข้อความแจ้งเตือนของ Outlook

    การสื่อสารและการยืนยันการติดตั้ง
    ใช้ DNS และ HTTP callback ไปยัง webhook.site เพื่อยืนยันการทำงาน
    ส่งข้อมูลออกไปยังอีเมล ProtonMail ที่ควบคุมโดยผู้โจมตี
    ลบอีเมล trigger และไฟล์ที่ขโมยหลังส่งออกเพื่อไม่ให้เหลือร่องรอย

    คำแนะนำจากผู้เชี่ยวชาญ
    ปิดใช้งาน Outlook VBA และ macro ผ่าน Group Policy
    ใช้ Microsoft Defender ASR rules เพื่อป้องกัน Office จากการรัน child process
    ใช้ WDAC หรือ AppLocker เพื่อควบคุมการโหลด DLL

    https://hackread.com/russian-apt28-notdoor-backdoor-microsoft-outlook/
    🎙️ เรื่องเล่าจาก Outlook ถึง OneDrive: เมื่อ APT28 ใช้ช่องโหว่ของระบบที่เราไว้ใจมากที่สุด กลุ่มแฮกเกอร์ APT28 หรือที่รู้จักกันในชื่อ Fancy Bear, STRONTIUM, Sednit และอีกหลายชื่อ เป็นกลุ่มที่เชื่อมโยงกับหน่วยข่าวกรองของรัสเซีย และมีประวัติการโจมตีองค์กรในประเทศ NATO มายาวนาน ล่าสุดพวกเขาถูกจับได้ว่าใช้มัลแวร์ชื่อ “NotDoor” ซึ่งเป็น VBA macro ที่ฝังอยู่ใน Microsoft Outlook เพื่อขโมยข้อมูลและควบคุมเครื่องของเหยื่อจากระยะไกล NotDoor ทำงานโดยรออีเมลที่มีคำสั่งลับ เช่น “Daily Report” เมื่อพบคำนี้ มันจะเริ่มทำงานทันที—ขโมยไฟล์, ส่งข้อมูลออก, ติดตั้ง payload ใหม่ และรันคำสั่ง—all ผ่านอีเมลที่ดูเหมือนปกติ โดยใช้ชื่อไฟล์ทั่วไป เช่น “report.pdf” หรือ “invoice.jpg” เพื่อไม่ให้ถูกสงสัย ที่น่ากลัวคือวิธีที่มันเข้าสู่ระบบ: APT28 ใช้ไฟล์ OneDrive.exe ที่เซ็นรับรองโดย Microsoft เพื่อ sideload DLL ชื่อ SSPICLI.dll ซึ่งจะปิดการป้องกัน macro และติดตั้ง NotDoor โดยใช้ PowerShell ที่ถูกเข้ารหัสแบบ Base644 จากนั้นมันจะฝังตัวในโฟลเดอร์ macro ของ Outlook, สร้าง persistence ผ่าน registry, และปิดข้อความแจ้งเตือนทั้งหมดเพื่อไม่ให้ผู้ใช้รู้ตัว มัลแวร์นี้ยังใช้ DNS และ HTTP callback ไปยัง webhook.site เพื่อยืนยันการติดตั้ง และสามารถส่งข้อมูลออกไปยังอีเมล ProtonMail ที่ควบคุมโดยผู้โจมตีได้โดยตรง ✅ ลักษณะของ NotDoor และการทำงาน ➡️ เป็น VBA macro ที่ฝังใน Outlook และทำงานเมื่อมีอีเมล trigger เช่น “Daily Report” ➡️ สามารถขโมยไฟล์, ส่งข้อมูล, ติดตั้ง payload และรันคำสั่งผ่านอีเมล ➡️ ใช้ชื่อไฟล์ทั่วไปและหัวข้ออีเมลที่ดูปกติเพื่อหลบการตรวจจับ ✅ วิธีการติดตั้งและการหลบหลีก ➡️ ใช้ OneDrive.exe ที่เซ็นรับรองเพื่อ sideload DLL ชื่อ SSPICLI.dll ➡️ ใช้ PowerShell ที่เข้ารหัสเพื่อฝัง macro ใน Outlook ➡️ สร้าง persistence ผ่าน registry และปิดข้อความแจ้งเตือนของ Outlook ✅ การสื่อสารและการยืนยันการติดตั้ง ➡️ ใช้ DNS และ HTTP callback ไปยัง webhook.site เพื่อยืนยันการทำงาน ➡️ ส่งข้อมูลออกไปยังอีเมล ProtonMail ที่ควบคุมโดยผู้โจมตี ➡️ ลบอีเมล trigger และไฟล์ที่ขโมยหลังส่งออกเพื่อไม่ให้เหลือร่องรอย ✅ คำแนะนำจากผู้เชี่ยวชาญ ➡️ ปิดใช้งาน Outlook VBA และ macro ผ่าน Group Policy ➡️ ใช้ Microsoft Defender ASR rules เพื่อป้องกัน Office จากการรัน child process ➡️ ใช้ WDAC หรือ AppLocker เพื่อควบคุมการโหลด DLL https://hackread.com/russian-apt28-notdoor-backdoor-microsoft-outlook/
    HACKREAD.COM
    Russian APT28 Deploys “NotDoor” Backdoor Through Microsoft Outlook
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 136 มุมมอง 0 รีวิว
  • แกะรอยนักล่า ตอนที่ 3
    นิทานเรื่องจริง เรื่อง “แกะรอยนักล่า” (3)
    คุณครูผู้ปกครอง CRS เขียนสมุดรายงานความประพฤตินักเรียนไทยแบบไม่ต้องตีความกันมาก อเมริการับไม่ได้ที่จะให้ไทยแลนด์เล่นกีฬาสีภายในกันไปตลอดชาติ มันต้องหยุดเสียที จะหยุดแบบไหน ก็แบบที่ทำให้ประเทศไทยมีความสงบมั่นคงนั่นแหละ เพราะมันเป็นความจำเป็นของนักล่า ในการจะใช้ไทย ที่มีบ้านเมืองสงบมั่นคง ร่วมขบวนทัพไปบุกบ้านอาเฮีย !

คุณครูเขียนเองนะว่า ประเทศไทยเป็นที่ชื่นชมว่า มีความมั่นคงทั้งด้านเศรษฐกิจและการเมืองมาตลอด จนเมื่อมีการปฏิวัติ ค.ศ. 2006 (เมื่อมีการไล่ไอ้โจรร้ายออกไป แล้วไอ้โจรร้ายมันไม่ยอมรับ ไม่ว่าผลทางกฏหมาย หรือผลทางการเมือง มันถึงได้ตีตั๋วรวนแบบตั๋วไม่มีหมดอายุ จนกว่าหมดอายุกันไปข้างหนึ่งน่ะแหละ) เพราะฉะนั้นต่อไปนี้ ถ้าสื่อนอกหรือคุณนายฑูต มันว่าไทยไม่เป็นประชาธิปไตย ก็เอารายงานคุณครู CRS ของพวกมันเองนี้แหละ ส่งไปให้อ่านนะครับ ทำเป็นแผ่นโปสเตอร์ใหญ่ ติดหน้าสถาน
ฑูตมันเลยดีไหมพี่น้อง เดี๋ยวผมจะเอา link มาลง แล้วก็ช่วยกันอ่าน ช่วยกันก๊อบส่งกันไป จริง ๆ ก็หาไม่ยากอะไร กดถามอากู “Thailand : Background and US Relations” ปี ค.ศ. 2013 มันก็ขึ้นมาแล้วครับ
    นักล่ามันจะทนนั่งเกาหัวดูอยู่เฉย ๆ ได้ยังไง ประเทศนี้อยู่ในอุ้งมือมันมาตั้งกะ ค.ศ. 1954 กว่า 60 ปีมาแล้ว ของมันเคย เคยมี เคยสั่ง เคยใช้กันได้ วันดีคืนดีมีอาเฮียมายืนพุงโต แอบจับมือกับสมันน้อยอีกคน ความอิจฉาตาร้อนก็ต้องมีเป็นธรรมดา ยังมาปากแข็งทำเป็นขู่ว่า ไอไม่ให้ไทยแลนด์เล่นเป็นตัวเอกในหนังใหม่เรื่อง เมื่อคาวบอยบุก
เซียงไฮ้ “Rebalancing” พูดแบบนี้ นึกว่าสมันน้อยจะร้องไห้ฟูมฟายหรือ ขอโทษผ่านมา 60 ปีแล้ว ไม่มีคอมมี่มาขู่ให้สมันน้อยผวาแล้ว แถมตอนนี้สมันน้อยเนื้อหอม
ไม่ให้เล่นเป็นพระเอก ในเรื่องคาวบอยบุกเซียงไฮ้ สมันน้อยอาจจะเลือกไปเล่นเป็นนางเอกเรื่อง เมื่อเซียงไฮ้ถล่มแอลเอ แทนก็ได้นะ
แล้วไงล่ะ ไปเอาพวกตัวประกอบหน้าใหม่ ผักชีโรยหน้ามาเล่นแทนนะ จะให้กบกระโดดมาจากอินโดนีเซี ย หรือออสเตรเลีย ไม่มีใบบัวแถวชุมพรรองรับ กบได้จมน้ำตายเกลี้ยง เดี๋ยวจะว่าไม่เตือน ก็รู้อยู่แก่ใจ จนหลุดปากบอกออกมาแล้วว่า ตำแหน่งที่ประเทศไทยตั้งอยู่มันเป็นส่วนสำคัญ (อย่างยิ่ง !) สำหรับการจะเข้าไปเล่นบทคาวบอยบุกเซียงไฮ้
    รายงานของคุณครูผู้ปกครอง CRS ออกมาปลายธันวาคม ค.ศ. 2013
shut down กรุงเทพฯ ของลุงกำนัน 9 ธันวาคม เกิดขึ้นแล้ว นักล่าเห็นแล้วว่า
มวลมหาประชาชน แม้จะร้องรำทำเพลงประกอบการประท้วงขับไล่ทุกวัน แต่ก็เอาจริง (เอะ ! หรือนักล่ามันเป็นคนช่วยส่ง ช่วยเสริม ให้เอาจริง ความสงบจะได้มาเร็ว !?!) แต่ตอนนั้นยังไม่รู้ว่าเลือกตั้ง 2 กุมภาพันธ์ ค.ศ. 2014 ผลจะออกมาเป็นอย่างไร
แต่เมื่อผลการเลือกตั้งออกมา ให้เห็นว่ารัฐบาลแพ้ยับเยิน บวกกับรายงานการสำรวจของ Asia Foundation ที่บอกว่าคนชั้นกลางจำนวนมาก ซึ่งเป็นผู้มีรายได้ สนับสนุนฝ่ายไล่รัฐบาล
    นักล่าไม่ต้องคิดมาก คุณครู CRS เขียนสารภาพออกมาแล้วว่า ไทยเป็นลูกค้ารายใหญ่ นำเข้าสินค้าจากอเมริกาเป็นจำนวนมาก ชนชั้นกลางคือผู้มีกำลังซื้อ จะปล่อยให้เล่นชกมวยสนามในบ้านไปเรื่อย ๆ แบบนี้ทำให้นักล่าเสียหายในสนามภูมิภาค แถมจะกระเทือนตำแหน่งแชมป์โลกเอาด้วย ไหนจะเรื่องกบจะจมน้ำเพราะไม่มีใบบัวรองรับ ไหนจะมีอาเฮียคอยคว้าสะเอวสมัน น้อยไปเดินเล่น นี่ยังมีเรื่องค้าขายอีก โอ้ พระเจ้า เศรษฐกิจไอกำลังอาการหนัก ต้องการกำลังซื้ออย่างยิ่ง แล้วพวกผักชีโรยหน้าที่ไปเจรจาไว้นะ เอาเข้าจริงจะพึ่งได้แบบ Mil to Mil อย่างคุณพี่ทหารของไทยแลนด์หรือเปล่า สิงคโปร์น่ะ ยังต้องส่งทหารมาฝึกกับคุณพี่ตู่ทุกปี เวียตนามล่ะ รบคนละแนว อาวุธยุทโธปกรณ์เขาก็ได้จากพี่ปูของรัสเซียทั้งนั้น แล้วแน่ใจหรือว่าคุณเวียตเขาจะเชื่อว่านักล่า รักจริงหวังแต่ง รบราฆ่าฟันกันจนตายเป็นเบื่อ เขาไม่ลืมง่าย ๆ หรอกน่า
    ส่วนอินโดน่ะ ตอนคุณพี่ Obama ไปตั้งให้เป็นคู่หูคนใหม่ เพราะบุญคุณข้าวแดงแกงร้อนที่เคยอาศัยอยู่บ้านเมืองเขาอยู่เมื่อเด็ก ๆ น่ะ นักวิเคราะห์ค่ายนักล่าเอง หัวร่อกันครืน บอกว่าทดแทนบุญคุณผิดที่เสียแล้วท่าน ท่านอาจจะกำลังยื่นดาบให้ศัตรู (อ้าวตาย เรื่องนี้เขาปิดกันหรือเปล่านะ) ฟิลิปปินส์เองก็ใช่ว่าหายเคืองกัน เดี๋ยวสั่งปิดเดี๋ยวสั่งเปิดฐานทัพ ชาวบ้านเขาก็เบื่อเป็นเหมือนกันนะ วัน ๆ วิดน้ำทะเลออกจากบ้านก็เหนื่อยจะแย่อยู่แล้ว พายุมาแล้ว มาอีก แล้วคุณพ่ออเมริกามาช่วยอะไรบ้างล่ะ ถ้าจะให้ดีช่วยกลับไปอ่าน ยุทธการกบกระโดด อีกรอบนะครับ จะได้ประหยัดแรงงานคนแก่ ไม่ต้องเขียนซ้ำ
    เห็นได้ชัดว่า นักล่าแทบไม่มีทางเลือกหรอก อยากจะบุกเซียงไฮ้ ไม่มีไทยแลนด์เข้าฉากด้วย บอกได้คำเดียวว่าหนังจืดครับ เผลอ ๆ คนดูนอนหลับ น้ำลายไหลยึด จะลุยกับ
อาเฮียเขาทั้งที มันต้องยกทัพโยธาเป็นขบวนใหญ่ มันถึงจะสมศักดิ์ศรีนักล่า มีแต่เด็ก ๆ หรือพวกหน้าใหม่ผักชีโรยหน้าไป แต่หัวหมู่ทะลวงฟันคบกับมา 60 ปี มองหน้ารู้ใจ
ไม่เอาไปด้วย อย่างนี้ต้องส่งสามก๊กบวกตำรา ซุนวูไปให้ คุณพี่ Obama อ่านแทนฟังรายงานของ ไอ้พวกถังสมอง (think tank) พูดถึงเรื่องถังสมอง เดี๋ยวจะแถมให้ก่อนจบ ถ้าไม่ลืมซะก่อน

    คนเล่านิทาน
    แกะรอยนักล่า ตอนที่ 3 นิทานเรื่องจริง เรื่อง “แกะรอยนักล่า” (3) คุณครูผู้ปกครอง CRS เขียนสมุดรายงานความประพฤตินักเรียนไทยแบบไม่ต้องตีความกันมาก อเมริการับไม่ได้ที่จะให้ไทยแลนด์เล่นกีฬาสีภายในกันไปตลอดชาติ มันต้องหยุดเสียที จะหยุดแบบไหน ก็แบบที่ทำให้ประเทศไทยมีความสงบมั่นคงนั่นแหละ เพราะมันเป็นความจำเป็นของนักล่า ในการจะใช้ไทย ที่มีบ้านเมืองสงบมั่นคง ร่วมขบวนทัพไปบุกบ้านอาเฮีย !

คุณครูเขียนเองนะว่า ประเทศไทยเป็นที่ชื่นชมว่า มีความมั่นคงทั้งด้านเศรษฐกิจและการเมืองมาตลอด จนเมื่อมีการปฏิวัติ ค.ศ. 2006 (เมื่อมีการไล่ไอ้โจรร้ายออกไป แล้วไอ้โจรร้ายมันไม่ยอมรับ ไม่ว่าผลทางกฏหมาย หรือผลทางการเมือง มันถึงได้ตีตั๋วรวนแบบตั๋วไม่มีหมดอายุ จนกว่าหมดอายุกันไปข้างหนึ่งน่ะแหละ) เพราะฉะนั้นต่อไปนี้ ถ้าสื่อนอกหรือคุณนายฑูต มันว่าไทยไม่เป็นประชาธิปไตย ก็เอารายงานคุณครู CRS ของพวกมันเองนี้แหละ ส่งไปให้อ่านนะครับ ทำเป็นแผ่นโปสเตอร์ใหญ่ ติดหน้าสถาน
ฑูตมันเลยดีไหมพี่น้อง เดี๋ยวผมจะเอา link มาลง แล้วก็ช่วยกันอ่าน ช่วยกันก๊อบส่งกันไป จริง ๆ ก็หาไม่ยากอะไร กดถามอากู “Thailand : Background and US Relations” ปี ค.ศ. 2013 มันก็ขึ้นมาแล้วครับ นักล่ามันจะทนนั่งเกาหัวดูอยู่เฉย ๆ ได้ยังไง ประเทศนี้อยู่ในอุ้งมือมันมาตั้งกะ ค.ศ. 1954 กว่า 60 ปีมาแล้ว ของมันเคย เคยมี เคยสั่ง เคยใช้กันได้ วันดีคืนดีมีอาเฮียมายืนพุงโต แอบจับมือกับสมันน้อยอีกคน ความอิจฉาตาร้อนก็ต้องมีเป็นธรรมดา ยังมาปากแข็งทำเป็นขู่ว่า ไอไม่ให้ไทยแลนด์เล่นเป็นตัวเอกในหนังใหม่เรื่อง เมื่อคาวบอยบุก
เซียงไฮ้ “Rebalancing” พูดแบบนี้ นึกว่าสมันน้อยจะร้องไห้ฟูมฟายหรือ ขอโทษผ่านมา 60 ปีแล้ว ไม่มีคอมมี่มาขู่ให้สมันน้อยผวาแล้ว แถมตอนนี้สมันน้อยเนื้อหอม
ไม่ให้เล่นเป็นพระเอก ในเรื่องคาวบอยบุกเซียงไฮ้ สมันน้อยอาจจะเลือกไปเล่นเป็นนางเอกเรื่อง เมื่อเซียงไฮ้ถล่มแอลเอ แทนก็ได้นะ
แล้วไงล่ะ ไปเอาพวกตัวประกอบหน้าใหม่ ผักชีโรยหน้ามาเล่นแทนนะ จะให้กบกระโดดมาจากอินโดนีเซี ย หรือออสเตรเลีย ไม่มีใบบัวแถวชุมพรรองรับ กบได้จมน้ำตายเกลี้ยง เดี๋ยวจะว่าไม่เตือน ก็รู้อยู่แก่ใจ จนหลุดปากบอกออกมาแล้วว่า ตำแหน่งที่ประเทศไทยตั้งอยู่มันเป็นส่วนสำคัญ (อย่างยิ่ง !) สำหรับการจะเข้าไปเล่นบทคาวบอยบุกเซียงไฮ้ รายงานของคุณครูผู้ปกครอง CRS ออกมาปลายธันวาคม ค.ศ. 2013
shut down กรุงเทพฯ ของลุงกำนัน 9 ธันวาคม เกิดขึ้นแล้ว นักล่าเห็นแล้วว่า
มวลมหาประชาชน แม้จะร้องรำทำเพลงประกอบการประท้วงขับไล่ทุกวัน แต่ก็เอาจริง (เอะ ! หรือนักล่ามันเป็นคนช่วยส่ง ช่วยเสริม ให้เอาจริง ความสงบจะได้มาเร็ว !?!) แต่ตอนนั้นยังไม่รู้ว่าเลือกตั้ง 2 กุมภาพันธ์ ค.ศ. 2014 ผลจะออกมาเป็นอย่างไร
แต่เมื่อผลการเลือกตั้งออกมา ให้เห็นว่ารัฐบาลแพ้ยับเยิน บวกกับรายงานการสำรวจของ Asia Foundation ที่บอกว่าคนชั้นกลางจำนวนมาก ซึ่งเป็นผู้มีรายได้ สนับสนุนฝ่ายไล่รัฐบาล นักล่าไม่ต้องคิดมาก คุณครู CRS เขียนสารภาพออกมาแล้วว่า ไทยเป็นลูกค้ารายใหญ่ นำเข้าสินค้าจากอเมริกาเป็นจำนวนมาก ชนชั้นกลางคือผู้มีกำลังซื้อ จะปล่อยให้เล่นชกมวยสนามในบ้านไปเรื่อย ๆ แบบนี้ทำให้นักล่าเสียหายในสนามภูมิภาค แถมจะกระเทือนตำแหน่งแชมป์โลกเอาด้วย ไหนจะเรื่องกบจะจมน้ำเพราะไม่มีใบบัวรองรับ ไหนจะมีอาเฮียคอยคว้าสะเอวสมัน น้อยไปเดินเล่น นี่ยังมีเรื่องค้าขายอีก โอ้ พระเจ้า เศรษฐกิจไอกำลังอาการหนัก ต้องการกำลังซื้ออย่างยิ่ง แล้วพวกผักชีโรยหน้าที่ไปเจรจาไว้นะ เอาเข้าจริงจะพึ่งได้แบบ Mil to Mil อย่างคุณพี่ทหารของไทยแลนด์หรือเปล่า สิงคโปร์น่ะ ยังต้องส่งทหารมาฝึกกับคุณพี่ตู่ทุกปี เวียตนามล่ะ รบคนละแนว อาวุธยุทโธปกรณ์เขาก็ได้จากพี่ปูของรัสเซียทั้งนั้น แล้วแน่ใจหรือว่าคุณเวียตเขาจะเชื่อว่านักล่า รักจริงหวังแต่ง รบราฆ่าฟันกันจนตายเป็นเบื่อ เขาไม่ลืมง่าย ๆ หรอกน่า ส่วนอินโดน่ะ ตอนคุณพี่ Obama ไปตั้งให้เป็นคู่หูคนใหม่ เพราะบุญคุณข้าวแดงแกงร้อนที่เคยอาศัยอยู่บ้านเมืองเขาอยู่เมื่อเด็ก ๆ น่ะ นักวิเคราะห์ค่ายนักล่าเอง หัวร่อกันครืน บอกว่าทดแทนบุญคุณผิดที่เสียแล้วท่าน ท่านอาจจะกำลังยื่นดาบให้ศัตรู (อ้าวตาย เรื่องนี้เขาปิดกันหรือเปล่านะ) ฟิลิปปินส์เองก็ใช่ว่าหายเคืองกัน เดี๋ยวสั่งปิดเดี๋ยวสั่งเปิดฐานทัพ ชาวบ้านเขาก็เบื่อเป็นเหมือนกันนะ วัน ๆ วิดน้ำทะเลออกจากบ้านก็เหนื่อยจะแย่อยู่แล้ว พายุมาแล้ว มาอีก แล้วคุณพ่ออเมริกามาช่วยอะไรบ้างล่ะ ถ้าจะให้ดีช่วยกลับไปอ่าน ยุทธการกบกระโดด อีกรอบนะครับ จะได้ประหยัดแรงงานคนแก่ ไม่ต้องเขียนซ้ำ เห็นได้ชัดว่า นักล่าแทบไม่มีทางเลือกหรอก อยากจะบุกเซียงไฮ้ ไม่มีไทยแลนด์เข้าฉากด้วย บอกได้คำเดียวว่าหนังจืดครับ เผลอ ๆ คนดูนอนหลับ น้ำลายไหลยึด จะลุยกับ
อาเฮียเขาทั้งที มันต้องยกทัพโยธาเป็นขบวนใหญ่ มันถึงจะสมศักดิ์ศรีนักล่า มีแต่เด็ก ๆ หรือพวกหน้าใหม่ผักชีโรยหน้าไป แต่หัวหมู่ทะลวงฟันคบกับมา 60 ปี มองหน้ารู้ใจ
ไม่เอาไปด้วย อย่างนี้ต้องส่งสามก๊กบวกตำรา ซุนวูไปให้ คุณพี่ Obama อ่านแทนฟังรายงานของ ไอ้พวกถังสมอง (think tank) พูดถึงเรื่องถังสมอง เดี๋ยวจะแถมให้ก่อนจบ ถ้าไม่ลืมซะก่อน คนเล่านิทาน
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Altera ถึง Arrow Lake: เมื่อ Intel ยอมรับว่า TSMC คือคู่ชีวิต และเงินจากรัฐบาลคือทางออกจากหนี้

    ในการประชุม Citi Global Tech 2025 ที่ซานฟรานซิสโก CFO ของ Intel, David Zinsner ประกาศว่า Intel จะใช้ TSMC “ตลอดไป” โดยระบุว่า “พวกเขาเป็นพันธมิตรที่ยอดเยี่ยม” และยืนยันว่า 30% ของผลิตภัณฑ์ของ Intel มาจาก TSMC แล้ว แม้จะมีแผนลดสัดส่วนในอนาคต แต่ก็ยังมากกว่าที่เคยเป็นในอดีต

    Intel ยังยืนยันว่าจะใช้เงินทุนจากรัฐบาลสหรัฐฯ ที่ได้จาก CHIPS Act เพื่อชำระหนี้มูลค่า $3.8 พันล้านที่ครบกำหนดในปีนี้ โดยไม่รีไฟแนนซ์ใหม่ พร้อมประกาศว่าเงินทุนที่เคยไม่แน่นอนตอนนี้กลายเป็น “หุ้น” ที่รัฐบาลถืออยู่ 10% และจะลงคะแนนตามมติของบอร์ดเท่านั้น

    นอกจากนี้ Intel ยังเตรียมปิดดีลขายธุรกิจ Altera เพื่อรับเงินเพิ่มอีก $3.5 พันล้าน และรอเงินลงทุนจาก SoftBank ที่จะเข้ามาเสริมภายในไตรมาสนี้

    ในด้านเทคโนโลยี Zinsner ยอมรับว่า Intel “ใช้เงินล่วงหน้าก่อนมีดีมานด์” ในช่วงหลายปีที่ผ่านมา และนั่นทำให้บริษัทต้องปรับแผนใหม่ โดยหันไปพัฒนา 14A process node ที่ใช้ High NA EUV และมีต้นทุนสูงกว่า 18A แต่มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า

    แม้จะยังไม่แยกธุรกิจ Foundry ออกเป็นบริษัทลูก แต่ก็ไม่ปฏิเสธว่าอาจเกิดขึ้นในอนาคต หากมีความพร้อมและความน่าสนใจสำหรับนักลงทุน

    การใช้ TSMC เป็นพันธมิตรระยะยาว
    Intel ยืนยันว่าจะใช้ TSMC “ตลอดไป” สำหรับบางผลิตภัณฑ์
    ปัจจุบัน 30% ของผลิตภัณฑ์มาจาก TSMC เช่น Lunar Lake และ Arrow Lake
    แม้จะลดสัดส่วนในอนาคต แต่ยังมากกว่าระดับในอดีต

    การใช้เงินทุนจากรัฐบาลสหรัฐฯ
    Intel ได้รับเงินทุนจาก CHIPS Act รวม $7.9 พันล้าน (บางส่วนยังทยอยจ่าย)
    เงินทุนถูกเปลี่ยนเป็นหุ้น 10% ที่รัฐบาลถืออยู่
    ใช้เงินเพื่อชำระหนี้ $3.8 พันล้านที่ครบกำหนดในปี 2025

    การขายธุรกิจ Altera และเงินลงทุนจาก SoftBank
    เตรียมปิดดีลขาย Altera เพื่อรับเงิน $3.5 พันล้าน
    SoftBank จะลงทุนเพิ่มเติมหลังผ่านการอนุมัติด้านกฎระเบียบ
    เงินทั้งหมดจะใช้ชำระหนี้ ไม่รีไฟแนนซ์ใหม่

    การพัฒนาเทคโนโลยี 14A และการเปลี่ยนยุทธศาสตร์
    14A ใช้ High NA EUV และมีต้นทุน wafer สูงกว่า 18A
    มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า 18A
    ยังไม่มีแผนแยกธุรกิจ Foundry แต่เปิดโอกาสในอนาคต

    https://wccftech.com/intel-will-use-tsmc-forever-says-cfo-as-shares-rise-after-he-confirms-plan-to-use-us-funding-to-pay-back-debt/
    🎙️ เรื่องเล่าจาก Altera ถึง Arrow Lake: เมื่อ Intel ยอมรับว่า TSMC คือคู่ชีวิต และเงินจากรัฐบาลคือทางออกจากหนี้ ในการประชุม Citi Global Tech 2025 ที่ซานฟรานซิสโก CFO ของ Intel, David Zinsner ประกาศว่า Intel จะใช้ TSMC “ตลอดไป” โดยระบุว่า “พวกเขาเป็นพันธมิตรที่ยอดเยี่ยม” และยืนยันว่า 30% ของผลิตภัณฑ์ของ Intel มาจาก TSMC แล้ว แม้จะมีแผนลดสัดส่วนในอนาคต แต่ก็ยังมากกว่าที่เคยเป็นในอดีต Intel ยังยืนยันว่าจะใช้เงินทุนจากรัฐบาลสหรัฐฯ ที่ได้จาก CHIPS Act เพื่อชำระหนี้มูลค่า $3.8 พันล้านที่ครบกำหนดในปีนี้ โดยไม่รีไฟแนนซ์ใหม่ พร้อมประกาศว่าเงินทุนที่เคยไม่แน่นอนตอนนี้กลายเป็น “หุ้น” ที่รัฐบาลถืออยู่ 10% และจะลงคะแนนตามมติของบอร์ดเท่านั้น นอกจากนี้ Intel ยังเตรียมปิดดีลขายธุรกิจ Altera เพื่อรับเงินเพิ่มอีก $3.5 พันล้าน และรอเงินลงทุนจาก SoftBank ที่จะเข้ามาเสริมภายในไตรมาสนี้ ในด้านเทคโนโลยี Zinsner ยอมรับว่า Intel “ใช้เงินล่วงหน้าก่อนมีดีมานด์” ในช่วงหลายปีที่ผ่านมา และนั่นทำให้บริษัทต้องปรับแผนใหม่ โดยหันไปพัฒนา 14A process node ที่ใช้ High NA EUV และมีต้นทุนสูงกว่า 18A แต่มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า แม้จะยังไม่แยกธุรกิจ Foundry ออกเป็นบริษัทลูก แต่ก็ไม่ปฏิเสธว่าอาจเกิดขึ้นในอนาคต หากมีความพร้อมและความน่าสนใจสำหรับนักลงทุน ✅ การใช้ TSMC เป็นพันธมิตรระยะยาว ➡️ Intel ยืนยันว่าจะใช้ TSMC “ตลอดไป” สำหรับบางผลิตภัณฑ์ ➡️ ปัจจุบัน 30% ของผลิตภัณฑ์มาจาก TSMC เช่น Lunar Lake และ Arrow Lake ➡️ แม้จะลดสัดส่วนในอนาคต แต่ยังมากกว่าระดับในอดีต ✅ การใช้เงินทุนจากรัฐบาลสหรัฐฯ ➡️ Intel ได้รับเงินทุนจาก CHIPS Act รวม $7.9 พันล้าน (บางส่วนยังทยอยจ่าย) ➡️ เงินทุนถูกเปลี่ยนเป็นหุ้น 10% ที่รัฐบาลถืออยู่ ➡️ ใช้เงินเพื่อชำระหนี้ $3.8 พันล้านที่ครบกำหนดในปี 2025 ✅ การขายธุรกิจ Altera และเงินลงทุนจาก SoftBank ➡️ เตรียมปิดดีลขาย Altera เพื่อรับเงิน $3.5 พันล้าน ➡️ SoftBank จะลงทุนเพิ่มเติมหลังผ่านการอนุมัติด้านกฎระเบียบ ➡️ เงินทั้งหมดจะใช้ชำระหนี้ ไม่รีไฟแนนซ์ใหม่ ✅ การพัฒนาเทคโนโลยี 14A และการเปลี่ยนยุทธศาสตร์ ➡️ 14A ใช้ High NA EUV และมีต้นทุน wafer สูงกว่า 18A ➡️ มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า 18A ➡️ ยังไม่มีแผนแยกธุรกิจ Foundry แต่เปิดโอกาสในอนาคต https://wccftech.com/intel-will-use-tsmc-forever-says-cfo-as-shares-rise-after-he-confirms-plan-to-use-us-funding-to-pay-back-debt/
    WCCFTECH.COM
    Intel Will Use TSMC "Forever" Says CFO, As Shares Rise After He Confirms Plan To Use US Funding To Pay Back Debt
    Intel CFO outlines $10 billion government stake, plans to pay $3.8 billion in debt, and confirms continued reliance on TSMC.
    0 ความคิดเห็น 0 การแบ่งปัน 125 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก CVE-2025-50173: เมื่อการป้องกันการยกระดับสิทธิ์กลายเป็นกับดักสำหรับผู้ใช้ทั่วไป

    Microsoft ได้ปล่อยอัปเดตความปลอดภัย KB5063878 สำหรับ Windows 10, 11 และ Server ทุกรุ่นในเดือนสิงหาคม 2025 เพื่อแก้ไขช่องโหว่ CVE-2025-50173 ซึ่งเป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer โดยผู้โจมตีสามารถใช้ MSI repair flow เพื่อยกระดับสิทธิ์เป็น SYSTEM ได้

    เพื่อปิดช่องโหว่นี้ Microsoft ได้เพิ่มความเข้มงวดของระบบ UAC (User Account Control) โดยบังคับให้มีการขอสิทธิ์แอดมินเมื่อมีการเรียกใช้ MSI repair หรือการติดตั้งบางประเภท แม้จะเป็นผู้ใช้ทั่วไปที่เคยใช้งานได้ตามปกติก็ตาม

    ผลที่ตามมาคือ ผู้ใช้ที่ไม่ใช่แอดมินจะเจอหน้าต่าง UAC เด้งขึ้นมาโดยไม่คาดคิด หรือบางครั้งแอปจะล้มเหลวทันทีโดยไม่มีการแจ้งเตือน เช่น การติดตั้ง Office 2010 จะล้มเหลวด้วย error code 1730 หรือ Autodesk AutoCAD จะไม่สามารถเปิดได้หากมีการเรียก MSI repair แบบเบื้องหลัง

    Microsoft แนะนำให้ผู้ใช้ทั่วไป “คลิกขวาแล้วเลือก Run as administrator” เพื่อหลีกเลี่ยงปัญหา และสำหรับองค์กรสามารถใช้ Group Policy ที่ชื่อ Known Issue Rollback (KIR) เพื่อย้อนการเปลี่ยนแปลงนี้ชั่วคราว

    ในอนาคต Microsoft วางแผนจะให้แอดมินสามารถอนุญาตให้แอปบางตัวทำ MSI repair ได้โดยไม่ต้องขอสิทธิ์ทุกครั้ง แต่ตอนนี้ยังไม่มีแพตช์แก้ไขถาวร

    ช่องโหว่ CVE-2025-50173 และการแก้ไข
    เป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer
    Microsoft แก้ไขด้วยการเพิ่มความเข้มงวดของ UAC
    ส่งผลให้ผู้ใช้ทั่วไปเจอ UAC prompt หรือแอปล้มเหลว

    ผลกระทบต่อผู้ใช้ทั่วไป
    แอปที่ใช้ MSI repair เช่น Office 2010, Autodesk, SAP อาจล้มเหลว
    การติดตั้งแบบ per-user หรือ Active Setup จะเจอ UAC prompt
    การ deploy ผ่าน ConfigMgr ที่ใช้ “advertising” จะล้มเหลว

    วิธีแก้ไขชั่วคราว
    ผู้ใช้ทั่วไปควรใช้ “Run as administrator” เพื่อเปิดแอป
    องค์กรสามารถใช้ Group Policy แบบ KIR เพื่อย้อนการเปลี่ยนแปลง
    Microsoft กำลังพัฒนาให้แอดมินอนุญาตแอปเฉพาะได้ในอนาคต

    แพลตฟอร์มที่ได้รับผลกระทบ
    Windows 11 ทุกรุ่น (22H2, 23H2, 24H2)
    Windows 10 (21H2, 22H2) และ Windows Server ตั้งแต่ 2012
    Enterprise และ Server editions ได้รับผลกระทบเช่นกัน

    https://www.tomshardware.com/software/windows/windows-11-august-2025-security-update-is-causing-unintended-uac-prompts-to-appear-for-non-admin-users-some-apps-are-crashing
    🎙️ เรื่องเล่าจาก CVE-2025-50173: เมื่อการป้องกันการยกระดับสิทธิ์กลายเป็นกับดักสำหรับผู้ใช้ทั่วไป Microsoft ได้ปล่อยอัปเดตความปลอดภัย KB5063878 สำหรับ Windows 10, 11 และ Server ทุกรุ่นในเดือนสิงหาคม 2025 เพื่อแก้ไขช่องโหว่ CVE-2025-50173 ซึ่งเป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer โดยผู้โจมตีสามารถใช้ MSI repair flow เพื่อยกระดับสิทธิ์เป็น SYSTEM ได้ เพื่อปิดช่องโหว่นี้ Microsoft ได้เพิ่มความเข้มงวดของระบบ UAC (User Account Control) โดยบังคับให้มีการขอสิทธิ์แอดมินเมื่อมีการเรียกใช้ MSI repair หรือการติดตั้งบางประเภท แม้จะเป็นผู้ใช้ทั่วไปที่เคยใช้งานได้ตามปกติก็ตาม ผลที่ตามมาคือ ผู้ใช้ที่ไม่ใช่แอดมินจะเจอหน้าต่าง UAC เด้งขึ้นมาโดยไม่คาดคิด หรือบางครั้งแอปจะล้มเหลวทันทีโดยไม่มีการแจ้งเตือน เช่น การติดตั้ง Office 2010 จะล้มเหลวด้วย error code 1730 หรือ Autodesk AutoCAD จะไม่สามารถเปิดได้หากมีการเรียก MSI repair แบบเบื้องหลัง Microsoft แนะนำให้ผู้ใช้ทั่วไป “คลิกขวาแล้วเลือก Run as administrator” เพื่อหลีกเลี่ยงปัญหา และสำหรับองค์กรสามารถใช้ Group Policy ที่ชื่อ Known Issue Rollback (KIR) เพื่อย้อนการเปลี่ยนแปลงนี้ชั่วคราว ในอนาคต Microsoft วางแผนจะให้แอดมินสามารถอนุญาตให้แอปบางตัวทำ MSI repair ได้โดยไม่ต้องขอสิทธิ์ทุกครั้ง แต่ตอนนี้ยังไม่มีแพตช์แก้ไขถาวร ✅ ช่องโหว่ CVE-2025-50173 และการแก้ไข ➡️ เป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer ➡️ Microsoft แก้ไขด้วยการเพิ่มความเข้มงวดของ UAC ➡️ ส่งผลให้ผู้ใช้ทั่วไปเจอ UAC prompt หรือแอปล้มเหลว ✅ ผลกระทบต่อผู้ใช้ทั่วไป ➡️ แอปที่ใช้ MSI repair เช่น Office 2010, Autodesk, SAP อาจล้มเหลว ➡️ การติดตั้งแบบ per-user หรือ Active Setup จะเจอ UAC prompt ➡️ การ deploy ผ่าน ConfigMgr ที่ใช้ “advertising” จะล้มเหลว ✅ วิธีแก้ไขชั่วคราว ➡️ ผู้ใช้ทั่วไปควรใช้ “Run as administrator” เพื่อเปิดแอป ➡️ องค์กรสามารถใช้ Group Policy แบบ KIR เพื่อย้อนการเปลี่ยนแปลง ➡️ Microsoft กำลังพัฒนาให้แอดมินอนุญาตแอปเฉพาะได้ในอนาคต ✅ แพลตฟอร์มที่ได้รับผลกระทบ ➡️ Windows 11 ทุกรุ่น (22H2, 23H2, 24H2) ➡️ Windows 10 (21H2, 22H2) และ Windows Server ตั้งแต่ 2012 ➡️ Enterprise และ Server editions ได้รับผลกระทบเช่นกัน https://www.tomshardware.com/software/windows/windows-11-august-2025-security-update-is-causing-unintended-uac-prompts-to-appear-for-non-admin-users-some-apps-are-crashing
    0 ความคิดเห็น 0 การแบ่งปัน 138 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด

    AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง

    ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%

    แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น

    AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference

    สเปกของ AMD MI500 MegaPod
    ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU
    แบ่งเป็น 64 compute tray และ 18 UALink switch tray
    ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน

    เทคโนโลยีที่ใช้ใน MI500 และ Verano
    MI500 ใช้ TSMC N2P node และ CoWoS-L packaging
    Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง
    รองรับ ROCm 7, FP8, Flash Attention 3

    การเปรียบเทียบกับ Nvidia NVL576
    NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS
    AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%
    ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ

    การออกแบบเพื่อประสิทธิภาพและความเย็น
    ใช้ liquid cooling ทั้ง compute และ networking tray
    ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่
    เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่

    https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    🎙️ เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference ✅ สเปกของ AMD MI500 MegaPod ➡️ ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU ➡️ แบ่งเป็น 64 compute tray และ 18 UALink switch tray ➡️ ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน ✅ เทคโนโลยีที่ใช้ใน MI500 และ Verano ➡️ MI500 ใช้ TSMC N2P node และ CoWoS-L packaging ➡️ Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง ➡️ รองรับ ROCm 7, FP8, Flash Attention 3 ✅ การเปรียบเทียบกับ Nvidia NVL576 ➡️ NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS ➡️ AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% ➡️ ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ ✅ การออกแบบเพื่อประสิทธิภาพและความเย็น ➡️ ใช้ liquid cooling ทั้ง compute และ networking tray ➡️ ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่ ➡️ เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่ https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    0 ความคิดเห็น 0 การแบ่งปัน 110 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า

    Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี

    B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32

    แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ

    ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ

    การเปิดตัวและคุณสมบัติของ B30A
    เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน
    ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300
    ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก

    ราคาของ B30A และความต้องการในจีน
    ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20
    บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า
    ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ

    สถานการณ์การส่งออกและการอนุมัติ
    Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ
    เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี
    Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A

    บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม
    การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน
    รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที
    Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    🎙️ เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32 แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ ✅ การเปิดตัวและคุณสมบัติของ B30A ➡️ เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน ➡️ ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300 ➡️ ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก ✅ ราคาของ B30A และความต้องการในจีน ➡️ ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20 ➡️ บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า ➡️ ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ ✅ สถานการณ์การส่งออกและการอนุมัติ ➡️ Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ ➡️ เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี ➡️ Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A ✅ บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม ➡️ การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน ➡️ รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที ➡️ Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน

    Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D²

    แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้

    ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter

    ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop

    Scaling Laws และความเข้าใจใหม่
    ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D²
    เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง
    Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size

    ปัญหาคอขวดด้านข้อมูล
    อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่
    ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ
    GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน

    ทางเลือกของทีมวิจัย AI
    Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale
    Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop
    ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด

    กลยุทธ์สำหรับผู้นำองค์กร
    Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge
    Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง
    การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร

    https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    🎙️ เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D² แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้ ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop ✅ Scaling Laws และความเข้าใจใหม่ ➡️ ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D² ➡️ เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง ➡️ Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size ✅ ปัญหาคอขวดด้านข้อมูล ➡️ อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่ ➡️ ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ ➡️ GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน ✅ ทางเลือกของทีมวิจัย AI ➡️ Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale ➡️ Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop ➡️ ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด ✅ กลยุทธ์สำหรับผู้นำองค์กร ➡️ Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge ➡️ Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง ➡️ การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    OBVIOUSLYWRONG.SUBSTACK.COM
    The Bitter Lesson is Misunderstood
    Together, the Bitter Lesson and Scaling Laws reveal that the god of Compute we worship is yoked to an even greater one — the god of Data.
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • เรื่องเล่าจากคะแนนที่ไม่มีใครบอกว่าเป็นคะแนน: เมื่อระบบจัดอันดับพฤติกรรมกลายเป็นโครงสร้างพื้นฐานของชีวิตดิจิทัล

    หลายคนมองว่า “ระบบเครดิตสังคม” เป็นสิ่งที่จีนใช้ควบคุมประชาชน เช่น การหักคะแนนจากการข้ามถนนผิดกฎ หรือการใช้กล้องตรวจจับพฤติกรรม แต่ในความเป็นจริง จีนยังไม่มีระบบเครดิตสังคมระดับประเทศสำหรับบุคคลทั่วไป—มีเพียงระบบสำหรับบริษัท และโครงการนำร่องในเมืองเล็ก ๆ เท่านั้น เช่น Rongcheng ซึ่งก็ยังไม่มีผลกระทบในระดับชาติ

    ในทางกลับกัน โลกตะวันตก โดยเฉพาะสหรัฐฯ กลับมีระบบจัดอันดับพฤติกรรมที่แฝงอยู่ในชีวิตประจำวันอย่างแนบเนียน: Uber ให้คะแนนผู้โดยสาร, LinkedIn จัดอันดับการมีส่วนร่วม, Instagram วัด engagement, Amazon วิเคราะห์พฤติกรรมการซื้อ, Airbnb ให้คะแนนเจ้าของบ้าน—ทั้งหมดนี้คือระบบเครดิตสังคมที่ไม่เคยถูกเรียกด้วยชื่อนั้น

    แม้จะไม่มีการรวมระบบเหล่านี้เข้าด้วยกันอย่างเป็นทางการ แต่โครงสร้างพื้นฐานกำลังถูกสร้างขึ้น: บริษัทต่าง ๆ เริ่มแชร์ข้อมูลความน่าเชื่อถือ, ธนาคารใช้ข้อมูลจากโซเชียลมีเดียในการประเมินเครดิต, และรัฐบาลบางแห่งสามารถเข้าถึงข้อมูลเหล่านี้ผ่านช่องทางกฎหมายหรือการซื้อข้อมูล

    สิ่งที่จีนทำคือ “บอกคุณว่ากำลังให้คะแนนคุณอยู่” แต่สิ่งที่โลกตะวันตกทำคือ “ให้คะแนนคุณโดยไม่บอก” และนั่นคือความแตกต่างที่น่ากังวล—เพราะเมื่อคุณไม่รู้ว่ากำลังถูกประเมิน คุณก็ไม่รู้ว่าจะปรับตัวอย่างไร หรือแม้แต่จะปกป้องสิทธิของตัวเองได้อย่างไร

    ระบบเครดิตสังคมในจีน
    ไม่มีระบบระดับประเทศสำหรับบุคคลทั่วไป
    มีระบบสำหรับบริษัทกว่า 33 ล้านแห่ง และโครงการนำร่องในเมืองเล็ก
    ส่วนใหญ่เน้นการติดตามการผิดนัดชำระหนี้และคำสั่งศาล

    ระบบจัดอันดับพฤติกรรมในโลกตะวันตก
    Uber, LinkedIn, Instagram, Amazon, Airbnb ล้วนมีระบบให้คะแนนพฤติกรรม
    คะแนนเหล่านี้ส่งผลต่อการเข้าถึงบริการและโอกาสทางสังคม
    ไม่มีการแจ้งเตือนหรือความโปร่งใสในการให้คะแนน

    การขยายตัวของระบบแบบแฝง
    ธนาคารใช้ข้อมูลโซเชียลมีเดียในการประเมินเครดิต
    บริษัท background check วิเคราะห์พฤติกรรมออนไลน์
    รัฐบาลสามารถเข้าถึงข้อมูลผ่านช่องทางกฎหมายหรือการซื้อ

    ความแตกต่างระหว่างจีนกับตะวันตก
    จีนแจ้งให้ประชาชนรู้ว่ากำลังถูกให้คะแนน
    ตะวันตกซ่อนระบบไว้ภายใต้ “ฟีเจอร์ผู้ใช้” หรือ “การปรับปรุงประสบการณ์”
    ความโปร่งใสในจีนอาจมากกว่าระบบที่ดูเหมือนเสรีในตะวันตก

    ความเข้าใจผิดเกี่ยวกับ “เสรีภาพ”
    การไม่มีระบบรวมศูนย์ไม่ได้แปลว่าไม่มีการควบคุม
    การให้คะแนนแบบแฝงอาจส่งผลต่อชีวิตโดยที่ผู้ใช้ไม่รู้ตัว

    ความเสี่ยงจากการรวมระบบในอนาคต
    โครงสร้างพื้นฐานกำลังถูกสร้างเพื่อเชื่อมระบบต่าง ๆ เข้าด้วยกัน
    หากไม่มีการกำกับดูแล อาจเกิดระบบเครดิตสังคมแบบรวมศูนย์โดยไม่ตั้งใจ

    ความเปราะบางของสิทธิส่วนบุคคล
    ผู้ใช้ไม่สามารถรู้ได้ว่าพฤติกรรมใดส่งผลต่อคะแนนของตน
    ไม่มีช่องทางในการโต้แย้งหรือแก้ไขคะแนนที่ได้รับ

    https://www.thenexus.media/your-phone-already-has-social-credit-we-just-lie-about-it/
    🎙️ เรื่องเล่าจากคะแนนที่ไม่มีใครบอกว่าเป็นคะแนน: เมื่อระบบจัดอันดับพฤติกรรมกลายเป็นโครงสร้างพื้นฐานของชีวิตดิจิทัล หลายคนมองว่า “ระบบเครดิตสังคม” เป็นสิ่งที่จีนใช้ควบคุมประชาชน เช่น การหักคะแนนจากการข้ามถนนผิดกฎ หรือการใช้กล้องตรวจจับพฤติกรรม แต่ในความเป็นจริง จีนยังไม่มีระบบเครดิตสังคมระดับประเทศสำหรับบุคคลทั่วไป—มีเพียงระบบสำหรับบริษัท และโครงการนำร่องในเมืองเล็ก ๆ เท่านั้น เช่น Rongcheng ซึ่งก็ยังไม่มีผลกระทบในระดับชาติ ในทางกลับกัน โลกตะวันตก โดยเฉพาะสหรัฐฯ กลับมีระบบจัดอันดับพฤติกรรมที่แฝงอยู่ในชีวิตประจำวันอย่างแนบเนียน: Uber ให้คะแนนผู้โดยสาร, LinkedIn จัดอันดับการมีส่วนร่วม, Instagram วัด engagement, Amazon วิเคราะห์พฤติกรรมการซื้อ, Airbnb ให้คะแนนเจ้าของบ้าน—ทั้งหมดนี้คือระบบเครดิตสังคมที่ไม่เคยถูกเรียกด้วยชื่อนั้น แม้จะไม่มีการรวมระบบเหล่านี้เข้าด้วยกันอย่างเป็นทางการ แต่โครงสร้างพื้นฐานกำลังถูกสร้างขึ้น: บริษัทต่าง ๆ เริ่มแชร์ข้อมูลความน่าเชื่อถือ, ธนาคารใช้ข้อมูลจากโซเชียลมีเดียในการประเมินเครดิต, และรัฐบาลบางแห่งสามารถเข้าถึงข้อมูลเหล่านี้ผ่านช่องทางกฎหมายหรือการซื้อข้อมูล สิ่งที่จีนทำคือ “บอกคุณว่ากำลังให้คะแนนคุณอยู่” แต่สิ่งที่โลกตะวันตกทำคือ “ให้คะแนนคุณโดยไม่บอก” และนั่นคือความแตกต่างที่น่ากังวล—เพราะเมื่อคุณไม่รู้ว่ากำลังถูกประเมิน คุณก็ไม่รู้ว่าจะปรับตัวอย่างไร หรือแม้แต่จะปกป้องสิทธิของตัวเองได้อย่างไร ✅ ระบบเครดิตสังคมในจีน ➡️ ไม่มีระบบระดับประเทศสำหรับบุคคลทั่วไป ➡️ มีระบบสำหรับบริษัทกว่า 33 ล้านแห่ง และโครงการนำร่องในเมืองเล็ก ➡️ ส่วนใหญ่เน้นการติดตามการผิดนัดชำระหนี้และคำสั่งศาล ✅ ระบบจัดอันดับพฤติกรรมในโลกตะวันตก ➡️ Uber, LinkedIn, Instagram, Amazon, Airbnb ล้วนมีระบบให้คะแนนพฤติกรรม ➡️ คะแนนเหล่านี้ส่งผลต่อการเข้าถึงบริการและโอกาสทางสังคม ➡️ ไม่มีการแจ้งเตือนหรือความโปร่งใสในการให้คะแนน ✅ การขยายตัวของระบบแบบแฝง ➡️ ธนาคารใช้ข้อมูลโซเชียลมีเดียในการประเมินเครดิต ➡️ บริษัท background check วิเคราะห์พฤติกรรมออนไลน์ ➡️ รัฐบาลสามารถเข้าถึงข้อมูลผ่านช่องทางกฎหมายหรือการซื้อ ✅ ความแตกต่างระหว่างจีนกับตะวันตก ➡️ จีนแจ้งให้ประชาชนรู้ว่ากำลังถูกให้คะแนน ➡️ ตะวันตกซ่อนระบบไว้ภายใต้ “ฟีเจอร์ผู้ใช้” หรือ “การปรับปรุงประสบการณ์” ➡️ ความโปร่งใสในจีนอาจมากกว่าระบบที่ดูเหมือนเสรีในตะวันตก ‼️ ความเข้าใจผิดเกี่ยวกับ “เสรีภาพ” ⛔ การไม่มีระบบรวมศูนย์ไม่ได้แปลว่าไม่มีการควบคุม ⛔ การให้คะแนนแบบแฝงอาจส่งผลต่อชีวิตโดยที่ผู้ใช้ไม่รู้ตัว ‼️ ความเสี่ยงจากการรวมระบบในอนาคต ⛔ โครงสร้างพื้นฐานกำลังถูกสร้างเพื่อเชื่อมระบบต่าง ๆ เข้าด้วยกัน ⛔ หากไม่มีการกำกับดูแล อาจเกิดระบบเครดิตสังคมแบบรวมศูนย์โดยไม่ตั้งใจ ‼️ ความเปราะบางของสิทธิส่วนบุคคล ⛔ ผู้ใช้ไม่สามารถรู้ได้ว่าพฤติกรรมใดส่งผลต่อคะแนนของตน ⛔ ไม่มีช่องทางในการโต้แย้งหรือแก้ไขคะแนนที่ได้รับ https://www.thenexus.media/your-phone-already-has-social-credit-we-just-lie-about-it/
    WWW.THENEXUS.MEDIA
    Your Phone Already Has Social Credit. We Just Lie About It.
    Your credit score is social credit. Your LinkedIn endorsements are social credit. Your Uber passenger rating, Instagram engagement metrics, Amazon reviews, and Airbnb host status are all social credit systems that track you, score you, and reward you based on your behavior. Social credit, in its original economic definition, means
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Swift 16 AI: เมื่อแล็ปท็อปกลายเป็นพื้นที่สร้างสรรค์ที่ไม่ต้องเปิดหน้าจอ

    ในงาน IFA 2025 ที่เบอร์ลิน Acer เปิดตัว Swift 16 AI ซึ่งเป็นแล็ปท็อปเครื่องแรกที่ใช้ชิป Intel Panther Lake—สถาปัตยกรรมใหม่ที่ผลิตบนเทคโนโลยี 18A node และมีเป้าหมายเพื่อรวมพลังของ Arrow Lake และ Lunar Lake เข้าด้วยกันในชื่อ Core Ultra 300

    Panther Lake มาพร้อมกับ Xe3 iGPU ที่แรงขึ้นกว่าเดิมถึง 50%, NPU รุ่นที่ 5 ที่ให้พลัง AI สูงถึง 180 TOPS และใช้ P-core แบบ Cougar Cove ร่วมกับ E-core แบบ Skymont เพื่อเพิ่มประสิทธิภาพทั้งด้านการประมวลผลและการใช้พลังงาน

    แต่สิ่งที่ทำให้ Swift 16 AI โดดเด่นไม่ใช่แค่ชิป—มันคือ trackpad ที่ Acer เรียกว่า “ใหญ่ที่สุดในโลก” พร้อมรองรับการเขียนด้วย stylus แบบ haptic feedback โดยไม่มีชิ้นส่วนเคลื่อนไหวเลย เหมือนเขียนบนกระดาษที่ตอบสนองด้วยแรงสั่นสะเทือน

    หน้าจอ OLED ขนาด 16 นิ้ว ความละเอียด 3K (2880 × 1800) รีเฟรชเรต 120Hz พร้อม LPDDR5X RAM สูงสุด 32GB และการเชื่อมต่อ Wi-Fi 7, Bluetooth 6 และ Thunderbolt 4 (ยังไม่ใช่ Thunderbolt 5)

    นอกจากนี้ Intel ยังเตรียมเปิดตัว Panther Lake อย่างเป็นทางการในช่วงปลายปี 2025 และจะเริ่มเห็นแล็ปท็อปรุ่นอื่น ๆ ตามมาในช่วงครึ่งแรกของปี 2026 โดย Swift 16 AI จะเป็นหนึ่งในเครื่องแรกที่วางจำหน่าย

    https://www.tomshardware.com/laptops/panther-lake-breaks-cover-in-acer-swift-16-ai-company-also-touts-worlds-largest-trackpad-with-stylus-support
    🎙️ เรื่องเล่าจาก Swift 16 AI: เมื่อแล็ปท็อปกลายเป็นพื้นที่สร้างสรรค์ที่ไม่ต้องเปิดหน้าจอ ในงาน IFA 2025 ที่เบอร์ลิน Acer เปิดตัว Swift 16 AI ซึ่งเป็นแล็ปท็อปเครื่องแรกที่ใช้ชิป Intel Panther Lake—สถาปัตยกรรมใหม่ที่ผลิตบนเทคโนโลยี 18A node และมีเป้าหมายเพื่อรวมพลังของ Arrow Lake และ Lunar Lake เข้าด้วยกันในชื่อ Core Ultra 300 Panther Lake มาพร้อมกับ Xe3 iGPU ที่แรงขึ้นกว่าเดิมถึง 50%, NPU รุ่นที่ 5 ที่ให้พลัง AI สูงถึง 180 TOPS และใช้ P-core แบบ Cougar Cove ร่วมกับ E-core แบบ Skymont เพื่อเพิ่มประสิทธิภาพทั้งด้านการประมวลผลและการใช้พลังงาน แต่สิ่งที่ทำให้ Swift 16 AI โดดเด่นไม่ใช่แค่ชิป—มันคือ trackpad ที่ Acer เรียกว่า “ใหญ่ที่สุดในโลก” พร้อมรองรับการเขียนด้วย stylus แบบ haptic feedback โดยไม่มีชิ้นส่วนเคลื่อนไหวเลย เหมือนเขียนบนกระดาษที่ตอบสนองด้วยแรงสั่นสะเทือน หน้าจอ OLED ขนาด 16 นิ้ว ความละเอียด 3K (2880 × 1800) รีเฟรชเรต 120Hz พร้อม LPDDR5X RAM สูงสุด 32GB และการเชื่อมต่อ Wi-Fi 7, Bluetooth 6 และ Thunderbolt 4 (ยังไม่ใช่ Thunderbolt 5) นอกจากนี้ Intel ยังเตรียมเปิดตัว Panther Lake อย่างเป็นทางการในช่วงปลายปี 2025 และจะเริ่มเห็นแล็ปท็อปรุ่นอื่น ๆ ตามมาในช่วงครึ่งแรกของปี 2026 โดย Swift 16 AI จะเป็นหนึ่งในเครื่องแรกที่วางจำหน่าย https://www.tomshardware.com/laptops/panther-lake-breaks-cover-in-acer-swift-16-ai-company-also-touts-worlds-largest-trackpad-with-stylus-support
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • เรื่องเล่าจากศาลยุโรป: เมื่อการส่งข้อมูลข้ามมหาสมุทรต้องผ่านด่านความเป็นส่วนตัว

    ย้อนกลับไปในปี 2023 สหรัฐฯ และสหภาพยุโรปได้ลงนามในข้อตกลงใหม่ชื่อว่า “Trans-Atlantic Data Privacy Framework” เพื่อให้บริษัทต่าง ๆ เช่นธนาคาร, ผู้ผลิตรถยนต์, และผู้ให้บริการคลาวด์สามารถส่งข้อมูลส่วนบุคคลของชาวยุโรปไปยังเซิร์ฟเวอร์ในสหรัฐฯ ได้อย่างถูกกฎหมาย หลังจากที่ข้อตกลงก่อนหน้าอย่าง Safe Harbour และ Privacy Shield ถูกศาลยุโรปตัดสินว่าไม่ผ่านมาตรฐานความเป็นส่วนตัว

    ล่าสุดในเดือนกันยายน 2025 ศาลทั่วไปของสหภาพยุโรป (EU General Court) ได้ตัดสินให้ข้อตกลงใหม่นี้ “มีผลบังคับใช้ต่อไป” โดยปฏิเสธคำร้องของนักการเมืองฝรั่งเศส Philippe Latombe ที่อ้างว่าระบบร้องเรียนของสหรัฐฯ ยังไม่เป็นอิสระ และการเก็บข้อมูลยังเป็นแบบ “ครอบคลุมเกินไป”

    ศาลระบุว่า หน่วยงาน Data Protection Review Court (DPRC) ของสหรัฐฯ มีโครงสร้างที่มีหลักประกันด้านความเป็นอิสระ เช่น ผู้พิพากษาไม่สามารถถูกถอดถอนโดยไม่มีเหตุผล และหน่วยข่าวกรองไม่สามารถแทรกแซงการทำงานได้โดยตรง

    แม้จะเป็นชัยชนะของข้อตกลงนี้ แต่ผู้เชี่ยวชาญเตือนว่า “ยังไม่จบ” เพราะนักเคลื่อนไหวด้านความเป็นส่วนตัว เช่น Max Schrems และองค์กร NYOB อาจยื่นอุทธรณ์ต่อศาลสูงสุดของสหภาพยุโรป (CJEU) ได้อีกครั้ง ซึ่งอาจนำไปสู่การยกเลิกข้อตกลงนี้ในอนาคตเหมือนที่เคยเกิดขึ้นกับ Privacy Shield

    การตัดสินของศาลทั่วไป EU
    รับรองความถูกต้องของข้อตกลง Trans-Atlantic Data Privacy Framework
    ปฏิเสธคำร้องของ Philippe Latombe ที่อ้างว่าระบบร้องเรียนของสหรัฐฯ ไม่เป็นอิสระ
    ระบุว่า DPRC มีหลักประกันด้านความเป็นอิสระและไม่ถูกแทรกแซงจากหน่วยข่าวกรอง

    ความสำคัญของข้อตกลงนี้ต่อธุรกิจ
    ช่วยให้บริษัทสามารถส่งข้อมูลส่วนบุคคลจาก EU ไปยังสหรัฐฯ ได้อย่างถูกกฎหมาย
    ส่งผลต่อธุรกิจที่ใช้คลาวด์, ระบบเงินเดือน, และการวิเคราะห์ข้อมูลข้ามประเทศ
    ลดความเสี่ยงด้านกฎหมายสำหรับบริษัทที่ดำเนินงานแบบข้ามพรมแดน

    โครงสร้างของ DPRC
    ผู้พิพากษาได้รับการแต่งตั้งพร้อมเงื่อนไขที่ป้องกันการถอดถอนโดยไม่มีเหตุผล
    หน่วยงานข่าวกรองไม่สามารถแทรกแซงการทำงานของศาลได้
    มีระบบร้องเรียนสำหรับพลเมืองยุโรปที่ข้อมูลถูกใช้งานโดยบริษัทสหรัฐฯ

    ความเคลื่อนไหวของนักเคลื่อนไหวด้านความเป็นส่วนตัว
    Max Schrems และองค์กร NYOB เคยยื่นฟ้องจน Safe Harbour และ Privacy Shield ถูกยกเลิก
    มีแนวโน้มว่าจะยื่นอุทธรณ์ต่อศาล CJEU เพื่อทบทวนข้อตกลงใหม่
    องค์กรต่าง ๆ ควรเตรียมแผนสำรอง เช่น Standard Contractual Clauses (SCCs)

    https://www.thestar.com.my/tech/tech-news/2025/09/03/eu-court-backs-latest-data-transfer-deal-agreed-by-us-and-eu
    🎙️ เรื่องเล่าจากศาลยุโรป: เมื่อการส่งข้อมูลข้ามมหาสมุทรต้องผ่านด่านความเป็นส่วนตัว ย้อนกลับไปในปี 2023 สหรัฐฯ และสหภาพยุโรปได้ลงนามในข้อตกลงใหม่ชื่อว่า “Trans-Atlantic Data Privacy Framework” เพื่อให้บริษัทต่าง ๆ เช่นธนาคาร, ผู้ผลิตรถยนต์, และผู้ให้บริการคลาวด์สามารถส่งข้อมูลส่วนบุคคลของชาวยุโรปไปยังเซิร์ฟเวอร์ในสหรัฐฯ ได้อย่างถูกกฎหมาย หลังจากที่ข้อตกลงก่อนหน้าอย่าง Safe Harbour และ Privacy Shield ถูกศาลยุโรปตัดสินว่าไม่ผ่านมาตรฐานความเป็นส่วนตัว ล่าสุดในเดือนกันยายน 2025 ศาลทั่วไปของสหภาพยุโรป (EU General Court) ได้ตัดสินให้ข้อตกลงใหม่นี้ “มีผลบังคับใช้ต่อไป” โดยปฏิเสธคำร้องของนักการเมืองฝรั่งเศส Philippe Latombe ที่อ้างว่าระบบร้องเรียนของสหรัฐฯ ยังไม่เป็นอิสระ และการเก็บข้อมูลยังเป็นแบบ “ครอบคลุมเกินไป” ศาลระบุว่า หน่วยงาน Data Protection Review Court (DPRC) ของสหรัฐฯ มีโครงสร้างที่มีหลักประกันด้านความเป็นอิสระ เช่น ผู้พิพากษาไม่สามารถถูกถอดถอนโดยไม่มีเหตุผล และหน่วยข่าวกรองไม่สามารถแทรกแซงการทำงานได้โดยตรง แม้จะเป็นชัยชนะของข้อตกลงนี้ แต่ผู้เชี่ยวชาญเตือนว่า “ยังไม่จบ” เพราะนักเคลื่อนไหวด้านความเป็นส่วนตัว เช่น Max Schrems และองค์กร NYOB อาจยื่นอุทธรณ์ต่อศาลสูงสุดของสหภาพยุโรป (CJEU) ได้อีกครั้ง ซึ่งอาจนำไปสู่การยกเลิกข้อตกลงนี้ในอนาคตเหมือนที่เคยเกิดขึ้นกับ Privacy Shield ✅ การตัดสินของศาลทั่วไป EU ➡️ รับรองความถูกต้องของข้อตกลง Trans-Atlantic Data Privacy Framework ➡️ ปฏิเสธคำร้องของ Philippe Latombe ที่อ้างว่าระบบร้องเรียนของสหรัฐฯ ไม่เป็นอิสระ ➡️ ระบุว่า DPRC มีหลักประกันด้านความเป็นอิสระและไม่ถูกแทรกแซงจากหน่วยข่าวกรอง ✅ ความสำคัญของข้อตกลงนี้ต่อธุรกิจ ➡️ ช่วยให้บริษัทสามารถส่งข้อมูลส่วนบุคคลจาก EU ไปยังสหรัฐฯ ได้อย่างถูกกฎหมาย ➡️ ส่งผลต่อธุรกิจที่ใช้คลาวด์, ระบบเงินเดือน, และการวิเคราะห์ข้อมูลข้ามประเทศ ➡️ ลดความเสี่ยงด้านกฎหมายสำหรับบริษัทที่ดำเนินงานแบบข้ามพรมแดน ✅ โครงสร้างของ DPRC ➡️ ผู้พิพากษาได้รับการแต่งตั้งพร้อมเงื่อนไขที่ป้องกันการถอดถอนโดยไม่มีเหตุผล ➡️ หน่วยงานข่าวกรองไม่สามารถแทรกแซงการทำงานของศาลได้ ➡️ มีระบบร้องเรียนสำหรับพลเมืองยุโรปที่ข้อมูลถูกใช้งานโดยบริษัทสหรัฐฯ ✅ ความเคลื่อนไหวของนักเคลื่อนไหวด้านความเป็นส่วนตัว ➡️ Max Schrems และองค์กร NYOB เคยยื่นฟ้องจน Safe Harbour และ Privacy Shield ถูกยกเลิก ➡️ มีแนวโน้มว่าจะยื่นอุทธรณ์ต่อศาล CJEU เพื่อทบทวนข้อตกลงใหม่ ➡️ องค์กรต่าง ๆ ควรเตรียมแผนสำรอง เช่น Standard Contractual Clauses (SCCs) https://www.thestar.com.my/tech/tech-news/2025/09/03/eu-court-backs-latest-data-transfer-deal-agreed-by-us-and-eu
    WWW.THESTAR.COM.MY
    EU court backs latest data transfer deal agreed by US and EU
    BRUSSELS (Reuters) -A data transfer deal agreed by the European Union and the United States two years ago to replace two previous pacts rejected by a higher tribunal was given the green light by Europe's second-highest court on Wednesday.
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก USB สีฟ้า: เมื่อสีของพอร์ตกลายเป็นภาษาลับของความเร็วและฟังก์ชัน

    ย้อนกลับไปก่อนปี 2008 ช่อง USB บนคอมพิวเตอร์มีแต่สีดำ—รองรับ USB 2.0 ที่มีความเร็วสูงสุดแค่ 480 Mbps ใช้สำหรับเมาส์ คีย์บอร์ด หรือแฟลชไดรฟ์เล็ก ๆ แต่เมื่อ USB 3.0 เปิดตัว สีฟ้าก็ถูกนำมาใช้เพื่อบอกว่า “ช่องนี้เร็วกว่า” โดยสามารถส่งข้อมูลได้ถึง 5 Gbps และรองรับการสื่อสารแบบ full-duplex คือส่งและรับข้อมูลพร้อมกันได้

    พอร์ตสีฟ้าจึงกลายเป็นจุดเด่นบนเมนบอร์ดและแล็ปท็อปที่เน้นประสิทธิภาพ โดยเฉพาะสำหรับการโอนข้อมูลขนาดใหญ่ เช่น external SSD, backup drive หรืออุปกรณ์วิดีโอความละเอียดสูง

    แต่ความจริงคือ “สีฟ้า” ไม่ใช่มาตรฐานที่บังคับ—USB-IF ซึ่งเป็นองค์กรที่กำหนดมาตรฐาน USB ไม่ได้กำหนดสีไว้ ทำให้แต่ละแบรนด์ใช้สีต่างกันไป เช่น Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ แต่ HP บางรุ่นใช้สีดำพร้อมสัญลักษณ์ SS (SuperSpeed) แทน

    ในอุปกรณ์เกมหรือเมนบอร์ดระดับสูง พอร์ตสีฟ้าอาจหมายถึง USB 3.2 Gen 1 แต่บางครั้งก็มีฟีเจอร์พิเศษแฝงอยู่ เช่น BIOS flashback หรือการปรับแต่งอุปกรณ์เฉพาะทาง ส่วนใน PlayStation พอร์ตสีฟ้ามักใช้สำหรับการเชื่อมต่ออุปกรณ์เก็บข้อมูลที่ต้องการความเร็วสูง

    หากไม่แน่ใจว่าพอร์ตสีฟ้าทำอะไรได้บ้าง วิธีที่ดีที่สุดคือดูคู่มือหรือสเปกของอุปกรณ์ หรือสังเกตสัญลักษณ์ข้างพอร์ต เช่น SS, ตัวเลข 5/10/20 (Gbps), หรือไอคอนสายฟ้า ซึ่งบอกถึงความสามารถในการชาร์จเร็ว

    ความหมายของพอร์ต USB สีฟ้า
    มักหมายถึง USB 3.x (เช่น 3.0, 3.1, 3.2 Gen 1) ที่มีความเร็วสูง
    รองรับ full-duplex communication ส่งและรับข้อมูลพร้อมกัน
    เหมาะกับการใช้งานที่ต้องการ bandwidth สูง เช่น external SSD หรือกล้อง

    ความแตกต่างระหว่างแบรนด์
    Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ
    HP ใช้ทั้งสีฟ้าและสีดำพร้อมสัญลักษณ์ SS
    Apple ไม่ใช้สี แต่ระบุในคู่มือหรือสเปกแทน

    สัญลักษณ์ที่ควรสังเกต
    SS = SuperSpeed (USB 3.x)
    ตัวเลข 5/10/20 = ความเร็วในการส่งข้อมูล (Gbps)
    ไอคอนสายฟ้า = รองรับการชาร์จเร็วหรือ Power Delivery

    การใช้งานในอุปกรณ์เฉพาะ
    เมนบอร์ดเกมมิ่งอาจใช้พอร์ตสีฟ้าสำหรับ BIOS flashback หรือการปรับแต่ง
    PlayStation ใช้พอร์ตสีฟ้าสำหรับอุปกรณ์เก็บข้อมูลภายนอก
    Docking station และฮับมักใช้สีฟ้าเพื่อแยก USB 3.x จาก USB 2.0

    https://www.slashgear.com/1953890/blue-usb-port-what-means-uses-explained/
    🎙️ เรื่องเล่าจาก USB สีฟ้า: เมื่อสีของพอร์ตกลายเป็นภาษาลับของความเร็วและฟังก์ชัน ย้อนกลับไปก่อนปี 2008 ช่อง USB บนคอมพิวเตอร์มีแต่สีดำ—รองรับ USB 2.0 ที่มีความเร็วสูงสุดแค่ 480 Mbps ใช้สำหรับเมาส์ คีย์บอร์ด หรือแฟลชไดรฟ์เล็ก ๆ แต่เมื่อ USB 3.0 เปิดตัว สีฟ้าก็ถูกนำมาใช้เพื่อบอกว่า “ช่องนี้เร็วกว่า” โดยสามารถส่งข้อมูลได้ถึง 5 Gbps และรองรับการสื่อสารแบบ full-duplex คือส่งและรับข้อมูลพร้อมกันได้ พอร์ตสีฟ้าจึงกลายเป็นจุดเด่นบนเมนบอร์ดและแล็ปท็อปที่เน้นประสิทธิภาพ โดยเฉพาะสำหรับการโอนข้อมูลขนาดใหญ่ เช่น external SSD, backup drive หรืออุปกรณ์วิดีโอความละเอียดสูง แต่ความจริงคือ “สีฟ้า” ไม่ใช่มาตรฐานที่บังคับ—USB-IF ซึ่งเป็นองค์กรที่กำหนดมาตรฐาน USB ไม่ได้กำหนดสีไว้ ทำให้แต่ละแบรนด์ใช้สีต่างกันไป เช่น Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ แต่ HP บางรุ่นใช้สีดำพร้อมสัญลักษณ์ SS (SuperSpeed) แทน ในอุปกรณ์เกมหรือเมนบอร์ดระดับสูง พอร์ตสีฟ้าอาจหมายถึง USB 3.2 Gen 1 แต่บางครั้งก็มีฟีเจอร์พิเศษแฝงอยู่ เช่น BIOS flashback หรือการปรับแต่งอุปกรณ์เฉพาะทาง ส่วนใน PlayStation พอร์ตสีฟ้ามักใช้สำหรับการเชื่อมต่ออุปกรณ์เก็บข้อมูลที่ต้องการความเร็วสูง หากไม่แน่ใจว่าพอร์ตสีฟ้าทำอะไรได้บ้าง วิธีที่ดีที่สุดคือดูคู่มือหรือสเปกของอุปกรณ์ หรือสังเกตสัญลักษณ์ข้างพอร์ต เช่น SS, ตัวเลข 5/10/20 (Gbps), หรือไอคอนสายฟ้า ซึ่งบอกถึงความสามารถในการชาร์จเร็ว ✅ ความหมายของพอร์ต USB สีฟ้า ➡️ มักหมายถึง USB 3.x (เช่น 3.0, 3.1, 3.2 Gen 1) ที่มีความเร็วสูง ➡️ รองรับ full-duplex communication ส่งและรับข้อมูลพร้อมกัน ➡️ เหมาะกับการใช้งานที่ต้องการ bandwidth สูง เช่น external SSD หรือกล้อง ✅ ความแตกต่างระหว่างแบรนด์ ➡️ Dell และ Lenovo ใช้สีฟ้าอย่างสม่ำเสมอ ➡️ HP ใช้ทั้งสีฟ้าและสีดำพร้อมสัญลักษณ์ SS ➡️ Apple ไม่ใช้สี แต่ระบุในคู่มือหรือสเปกแทน ✅ สัญลักษณ์ที่ควรสังเกต ➡️ SS = SuperSpeed (USB 3.x) ➡️ ตัวเลข 5/10/20 = ความเร็วในการส่งข้อมูล (Gbps) ➡️ ไอคอนสายฟ้า = รองรับการชาร์จเร็วหรือ Power Delivery ✅ การใช้งานในอุปกรณ์เฉพาะ ➡️ เมนบอร์ดเกมมิ่งอาจใช้พอร์ตสีฟ้าสำหรับ BIOS flashback หรือการปรับแต่ง ➡️ PlayStation ใช้พอร์ตสีฟ้าสำหรับอุปกรณ์เก็บข้อมูลภายนอก ➡️ Docking station และฮับมักใช้สีฟ้าเพื่อแยก USB 3.x จาก USB 2.0 https://www.slashgear.com/1953890/blue-usb-port-what-means-uses-explained/
    WWW.SLASHGEAR.COM
    What Does It Mean When A USB Port Is Blue? - SlashGear
    The color of your USB port can tell you everything you need to know about what the port is capable of, so what does it mean if you have a blue USB port?
    0 ความคิดเห็น 0 การแบ่งปัน 137 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Linux Kernel: เมื่อการอัปเดตไดรเวอร์ฟลอปปี้กลายเป็นสัญลักษณ์ของการไม่ยอมลืมอดีต

    ในยุคที่ SSD ความจุหลายเทราไบต์และ cloud storage ครองโลก การพูดถึงแผ่นฟลอปปี้ขนาด 1.44MB อาจฟังดูเป็นเรื่องตลก แต่ในเดือนกันยายน 2025 นักพัฒนา Linux อย่าง Andy Shevchenko ได้ส่ง patch ใหม่เข้า kernel เพื่อ “ทำความสะอาด” โค้ดของไดรเวอร์ฟลอปปี้—เป็นครั้งแรกในรอบเกือบ 3 ปี

    การอัปเดตนี้ไม่ได้เพิ่มฟีเจอร์ใหม่ แต่เป็นการลบ macro ที่ไม่ได้ใช้, แก้ constant ที่ล้าสมัย และจัดเรียง header ใหม่ให้โค้ดอ่านง่ายขึ้น จุดประสงค์คือเพื่อให้โค้ดสะอาดและดูแลรักษาได้ง่าย แม้ว่าไดรเวอร์นี้จะถูกมองว่า “ถูกทอดทิ้ง” มานานแล้ว

    แต่การที่ Linux ยังเก็บไดรเวอร์ฟลอปปี้ไว้ใน kernel ก็สะท้อนถึงความยืดหยุ่นและความเคารพต่อ legacy system ที่ยังมีอยู่จริงในบางกรณี เช่น ในเรือนจำรัฐนิวเจอร์ซีย์ นักโทษยังใช้แผ่นฟลอปปี้ในการเก็บข้อมูลคดี เพราะอุปกรณ์อื่นถูกห้ามใช้ด้วยเหตุผลด้านความปลอดภัย

    แม้ Sony จะหยุดผลิตแผ่นฟลอปปี้ตั้งแต่ปี 2010 และผู้ขายรายสุดท้ายอย่าง Tom Persky ก็เคยกล่าวว่า “อุตสาหกรรมนี้น่าจะอยู่ได้อีกแค่ 4 ปี” แต่การที่ Linux ยังรองรับฟลอปปี้ก็เหมือนการบอกว่า “เรายังไม่ลืมคุณ”

    การอัปเดตไดรเวอร์ฟลอปปี้ใน Linux
    นำโดย Andy Shevchenko เพื่อทำความสะอาดโค้ด
    ลบ macro ที่ไม่ได้ใช้, แก้ constant ที่ล้าสมัย, จัดเรียง header ใหม่
    ไม่มีการเพิ่มฟีเจอร์ใหม่หรือปรับปรุงการทำงาน

    เหตุผลที่ยังคงรองรับฟลอปปี้
    ยังมีการใช้งานในบางกรณี เช่น เรือนจำที่ห้ามใช้อุปกรณ์อื่น
    Linux มีแนวทางที่เคารพ legacy system และความเข้ากันได้ย้อนหลัง
    การลบไดรเวอร์อาจกระทบผู้ใช้เฉพาะกลุ่มที่ยังพึ่งพาระบบนี้

    สถานะของอุตสาหกรรมฟลอปปี้
    Sony หยุดผลิตตั้งแต่ปี 2010
    ผู้ขายรายสุดท้ายอย่าง floppydisk.com ดำเนินการจาก stock เดิม
    คาดว่า supply จะหมดภายในไม่กี่ปีข้างหน้า

    บริบทของเทคโนโลยีปัจจุบัน
    SSD มีความจุหลายเทราไบต์และราคาถูกลงเรื่อย ๆ
    Cloud storage ทำให้การใช้ physical media ไม่จำเป็นสำหรับผู้ใช้ทั่วไป
    ฟลอปปี้กลายเป็นสัญลักษณ์ของความคลาสสิกมากกว่าการใช้งานจริง

    https://www.techradar.com/pro/floppy-disks-live-on-linux-drivers-get-first-update-for-years-perhaps-signalling-a-comeback-for-the-much-loved-system
    🎙️ เรื่องเล่าจาก Linux Kernel: เมื่อการอัปเดตไดรเวอร์ฟลอปปี้กลายเป็นสัญลักษณ์ของการไม่ยอมลืมอดีต ในยุคที่ SSD ความจุหลายเทราไบต์และ cloud storage ครองโลก การพูดถึงแผ่นฟลอปปี้ขนาด 1.44MB อาจฟังดูเป็นเรื่องตลก แต่ในเดือนกันยายน 2025 นักพัฒนา Linux อย่าง Andy Shevchenko ได้ส่ง patch ใหม่เข้า kernel เพื่อ “ทำความสะอาด” โค้ดของไดรเวอร์ฟลอปปี้—เป็นครั้งแรกในรอบเกือบ 3 ปี การอัปเดตนี้ไม่ได้เพิ่มฟีเจอร์ใหม่ แต่เป็นการลบ macro ที่ไม่ได้ใช้, แก้ constant ที่ล้าสมัย และจัดเรียง header ใหม่ให้โค้ดอ่านง่ายขึ้น จุดประสงค์คือเพื่อให้โค้ดสะอาดและดูแลรักษาได้ง่าย แม้ว่าไดรเวอร์นี้จะถูกมองว่า “ถูกทอดทิ้ง” มานานแล้ว แต่การที่ Linux ยังเก็บไดรเวอร์ฟลอปปี้ไว้ใน kernel ก็สะท้อนถึงความยืดหยุ่นและความเคารพต่อ legacy system ที่ยังมีอยู่จริงในบางกรณี เช่น ในเรือนจำรัฐนิวเจอร์ซีย์ นักโทษยังใช้แผ่นฟลอปปี้ในการเก็บข้อมูลคดี เพราะอุปกรณ์อื่นถูกห้ามใช้ด้วยเหตุผลด้านความปลอดภัย แม้ Sony จะหยุดผลิตแผ่นฟลอปปี้ตั้งแต่ปี 2010 และผู้ขายรายสุดท้ายอย่าง Tom Persky ก็เคยกล่าวว่า “อุตสาหกรรมนี้น่าจะอยู่ได้อีกแค่ 4 ปี” แต่การที่ Linux ยังรองรับฟลอปปี้ก็เหมือนการบอกว่า “เรายังไม่ลืมคุณ” ✅ การอัปเดตไดรเวอร์ฟลอปปี้ใน Linux ➡️ นำโดย Andy Shevchenko เพื่อทำความสะอาดโค้ด ➡️ ลบ macro ที่ไม่ได้ใช้, แก้ constant ที่ล้าสมัย, จัดเรียง header ใหม่ ➡️ ไม่มีการเพิ่มฟีเจอร์ใหม่หรือปรับปรุงการทำงาน ✅ เหตุผลที่ยังคงรองรับฟลอปปี้ ➡️ ยังมีการใช้งานในบางกรณี เช่น เรือนจำที่ห้ามใช้อุปกรณ์อื่น ➡️ Linux มีแนวทางที่เคารพ legacy system และความเข้ากันได้ย้อนหลัง ➡️ การลบไดรเวอร์อาจกระทบผู้ใช้เฉพาะกลุ่มที่ยังพึ่งพาระบบนี้ ✅ สถานะของอุตสาหกรรมฟลอปปี้ ➡️ Sony หยุดผลิตตั้งแต่ปี 2010 ➡️ ผู้ขายรายสุดท้ายอย่าง floppydisk.com ดำเนินการจาก stock เดิม ➡️ คาดว่า supply จะหมดภายในไม่กี่ปีข้างหน้า ✅ บริบทของเทคโนโลยีปัจจุบัน ➡️ SSD มีความจุหลายเทราไบต์และราคาถูกลงเรื่อย ๆ ➡️ Cloud storage ทำให้การใช้ physical media ไม่จำเป็นสำหรับผู้ใช้ทั่วไป ➡️ ฟลอปปี้กลายเป็นสัญลักษณ์ของความคลาสสิกมากกว่าการใช้งานจริง https://www.techradar.com/pro/floppy-disks-live-on-linux-drivers-get-first-update-for-years-perhaps-signalling-a-comeback-for-the-much-loved-system
    0 ความคิดเห็น 0 การแบ่งปัน 131 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ”

    ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้

    UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น

    แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน

    Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที

    ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น

    โครงสร้างของ UB-Mesh
    ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack
    รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น
    ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่

    เป้าหมายของ UB-Mesh
    เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center
    ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น
    ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล

    ประสิทธิภาพที่ Huawei เคลม
    Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์
    Latency ต่ำกว่าหนึ่งไมโครวินาที
    ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว

    การเปิด source และการผลักดันเป็นมาตรฐาน
    Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า
    หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน
    ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น

    การทดสอบและการใช้งานจริง
    Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด
    UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน
    เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง

    https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    🎙️ เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ” ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้ UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น ✅ โครงสร้างของ UB-Mesh ➡️ ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack ➡️ รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น ➡️ ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่ ✅ เป้าหมายของ UB-Mesh ➡️ เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center ➡️ ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น ➡️ ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล ✅ ประสิทธิภาพที่ Huawei เคลม ➡️ Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ ➡️ Latency ต่ำกว่าหนึ่งไมโครวินาที ➡️ ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว ✅ การเปิด source และการผลักดันเป็นมาตรฐาน ➡️ Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า ➡️ หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน ➡️ ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น ✅ การทดสอบและการใช้งานจริง ➡️ Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด ➡️ UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน ➡️ เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก ConcreteSC: เมื่อการสื่อสารไร้สายเรียนรู้ที่จะ “เข้าใจ” มากกว่าแค่ “ส่ง”

    ในอดีต การส่งข้อมูลไร้สายคือการพยายามถ่ายทอดทุกบิตให้ตรงที่สุด—ไม่ว่าจะเป็นภาพ เสียง หรือข้อความ ทุกพิกเซลต้องถูกส่งอย่างแม่นยำ แต่ในยุคที่ AI และอุปกรณ์ IoT กำลังครองโลก แนวคิดนี้เริ่มล้าสมัย เพราะสิ่งที่สำคัญไม่ใช่ “ข้อมูลดิบ” แต่คือ “ความหมายที่เข้าใจได้”

    ทีมวิจัยจาก Seoul National University of Science and Technology นำโดย Dr. Dong Jin Ji ได้พัฒนาเทคโนโลยีใหม่ชื่อว่า ConcreteSC ซึ่งเป็น framework สำหรับ “semantic communication” ที่ไม่ส่งข้อมูลแบบเดิม แต่ส่ง “สิ่งที่ข้อมูลนั้นหมายถึง” โดยตรง

    ConcreteSC ไม่ใช้ codebook ขนาดใหญ่แบบ vector quantization (VQ) ซึ่งมักมีปัญหาเรื่อง noise และความซับซ้อนในการฝึกโมเดล แต่ใช้ distribution แบบ “concrete” ที่สามารถแปลงข้อมูลต่อเนื่องให้เป็นบิตได้โดยตรง และรองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มีสัญญาณรบกวน

    เมื่อทดสอบกับชุดข้อมูล ImageNet ภายใต้เงื่อนไข Rayleigh และ Rician fading ซึ่งจำลองสภาพแวดล้อมไร้สายจริง ConcreteSC ให้ผลลัพธ์ที่ดีกว่า VQ ทั้งในด้าน structural similarity และ peak signal-to-noise ratio พร้อมลดความซับซ้อนของระบบลงอย่างมาก

    เทคโนโลยีนี้สามารถนำไปใช้ใน smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมากโดยไม่ต้องใช้สาย, หรือในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุและเด็กเล็ก ที่ต้องการความแม่นยำแต่ไม่สามารถส่งข้อมูลจำนวนมากได้

    แนวคิดหลักของ ConcreteSC
    เป็น framework สำหรับ semantic communication ที่เน้นการส่ง “ความหมาย” มากกว่าข้อมูลดิบ
    ใช้ concrete distribution แทน codebook ขนาดใหญ่แบบ VQ
    รองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มี noise

    ผลการทดสอบและประสิทธิภาพ
    ทดสอบกับ ImageNet ภายใต้ Rayleigh และ Rician fading
    ให้ผลลัพธ์ดีกว่า VQ ทั้งในด้าน SSIM และ PSNR
    ลดความซับซ้อน เพราะ scaling ตาม bit length ไม่ใช่ขนาด codebook

    การนำไปใช้ในอุตสาหกรรม
    เหมาะกับ smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมาก
    ใช้ในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุ
    รองรับการทำงานของ AI บนอุปกรณ์ขนาดเล็กโดยไม่ต้องใช้ bandwidth สูง

    ความก้าวหน้าทางเทคนิค
    สามารถฝึกโมเดลแบบ multi-feedback-length ด้วย masking scheme ที่เรียบง่าย
    เป็น framework ที่ fully differentiable และสามารถ integrate กับระบบอื่นได้ง่าย
    เปิดทางให้ใช้ semantic communication เป็นแกนหลักของ 6G

    https://www.techradar.com/pro/korean-researchers-develop-new-technology-that-could-boost-processing-unit-by-being-more-human-semantic-communication-focuses-on-the-bigger-picture-literally
    🎙️ เรื่องเล่าจาก ConcreteSC: เมื่อการสื่อสารไร้สายเรียนรู้ที่จะ “เข้าใจ” มากกว่าแค่ “ส่ง” ในอดีต การส่งข้อมูลไร้สายคือการพยายามถ่ายทอดทุกบิตให้ตรงที่สุด—ไม่ว่าจะเป็นภาพ เสียง หรือข้อความ ทุกพิกเซลต้องถูกส่งอย่างแม่นยำ แต่ในยุคที่ AI และอุปกรณ์ IoT กำลังครองโลก แนวคิดนี้เริ่มล้าสมัย เพราะสิ่งที่สำคัญไม่ใช่ “ข้อมูลดิบ” แต่คือ “ความหมายที่เข้าใจได้” ทีมวิจัยจาก Seoul National University of Science and Technology นำโดย Dr. Dong Jin Ji ได้พัฒนาเทคโนโลยีใหม่ชื่อว่า ConcreteSC ซึ่งเป็น framework สำหรับ “semantic communication” ที่ไม่ส่งข้อมูลแบบเดิม แต่ส่ง “สิ่งที่ข้อมูลนั้นหมายถึง” โดยตรง ConcreteSC ไม่ใช้ codebook ขนาดใหญ่แบบ vector quantization (VQ) ซึ่งมักมีปัญหาเรื่อง noise และความซับซ้อนในการฝึกโมเดล แต่ใช้ distribution แบบ “concrete” ที่สามารถแปลงข้อมูลต่อเนื่องให้เป็นบิตได้โดยตรง และรองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มีสัญญาณรบกวน เมื่อทดสอบกับชุดข้อมูล ImageNet ภายใต้เงื่อนไข Rayleigh และ Rician fading ซึ่งจำลองสภาพแวดล้อมไร้สายจริง ConcreteSC ให้ผลลัพธ์ที่ดีกว่า VQ ทั้งในด้าน structural similarity และ peak signal-to-noise ratio พร้อมลดความซับซ้อนของระบบลงอย่างมาก เทคโนโลยีนี้สามารถนำไปใช้ใน smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมากโดยไม่ต้องใช้สาย, หรือในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุและเด็กเล็ก ที่ต้องการความแม่นยำแต่ไม่สามารถส่งข้อมูลจำนวนมากได้ ✅ แนวคิดหลักของ ConcreteSC ➡️ เป็น framework สำหรับ semantic communication ที่เน้นการส่ง “ความหมาย” มากกว่าข้อมูลดิบ ➡️ ใช้ concrete distribution แทน codebook ขนาดใหญ่แบบ VQ ➡️ รองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มี noise ✅ ผลการทดสอบและประสิทธิภาพ ➡️ ทดสอบกับ ImageNet ภายใต้ Rayleigh และ Rician fading ➡️ ให้ผลลัพธ์ดีกว่า VQ ทั้งในด้าน SSIM และ PSNR ➡️ ลดความซับซ้อน เพราะ scaling ตาม bit length ไม่ใช่ขนาด codebook ✅ การนำไปใช้ในอุตสาหกรรม ➡️ เหมาะกับ smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมาก ➡️ ใช้ในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุ ➡️ รองรับการทำงานของ AI บนอุปกรณ์ขนาดเล็กโดยไม่ต้องใช้ bandwidth สูง ✅ ความก้าวหน้าทางเทคนิค ➡️ สามารถฝึกโมเดลแบบ multi-feedback-length ด้วย masking scheme ที่เรียบง่าย ➡️ เป็น framework ที่ fully differentiable และสามารถ integrate กับระบบอื่นได้ง่าย ➡️ เปิดทางให้ใช้ semantic communication เป็นแกนหลักของ 6G https://www.techradar.com/pro/korean-researchers-develop-new-technology-that-could-boost-processing-unit-by-being-more-human-semantic-communication-focuses-on-the-bigger-picture-literally
    WWW.TECHRADAR.COM
    ConcreteSC is a new idea from South Korean scientists that could make 6G networks work better
    ConcreteSC tech could deliver 39x speed boost for next-gen wireless networks
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • บัตรเครดิตวีซ่ากสิกรไทยลายใหม่ ขึ้นค่าธรรมเนียมรายปีแลกเลาจน์ฟรี

    อีกหนึ่งความเปลี่ยนแปลงของวงการบัตรเครดิต ธนาคารกสิกรไทย จำกัด (มหาชน) ซึ่งมีส่วนแบ่งตลาดเป็นอันดับ 2 ด้วยมูลค่าการใช้จ่าย 20.3% และจำนวนผู้ถือบัตร 14.4% หลังจากใช้หน้าบัตรเครดิตวีซ่าแพลทินัมกสิกรไทย (KBANK VISA PLATINUM) มาอย่างยาวนาน ล่าสุดได้แจ้งผู้ถือบัตรว่า ตั้งแต่วันที่ 3 ต.ค.2568 บัตรเครดิตวีซ่าแพลทินัมกสิกรไทย และบัตรเครดิตมาสเตอร์การ์ดแพลทินัมกสิกรไทย จะเปลี่ยนสิทธิประโยชน์ใหม่

    โดยบัตรมาสเตอร์การ์ด ชื่อบัตรและหน้าบัตรยังคงเดิม แต่บัตรวีซ่าจะเปลี่ยนชื่อใหม่ หน้าบัตรใหม่ เป็นบัตรเครดิตวีซ่าพลัสตินัม (PLUSTINUM) พร้อมปรับขึ้นค่าธรรมเนียมรายปีจาก 1,050 บาท เป็น 1,250 บาทต่อปี โดยมีผลตั้งแต่วันที่ 1 พ.ย.2568 เป็นต้นไป (โดยธนาคารยกเลิกการขอยกเว้นค่าธรรมเนียมรายปี ของบัตรเครดิตทุกใบ ตั้งแต่วันที่ 1 มิ.ย.2568 ที่ผ่านมา) แต่ยังคงยกเว้นค่าธรรมเนียมรายปี สำหรับลูกค้าที่ใช้จ่ายผ่านบัตรครบ 12 ครั้ง/ปี หรือมียอดใช้จ่ายสะสมผ่านบัตรครบ 20,000 บาท/ปี

    ถึงกระนั้น ลูกค้าที่ถูกเรียกเก็บค่าธรรมเนียมรายปี หลังจากวันที่จ่ายไปแล้ว สามารถรับสิทธิ์เข้าใช้บริการห้องรับรอง Miracle Lounge ไม่จำกัดสายการบิน เมื่อเดินทางไปต่างประเทศ ที่ท่าอากาศยานสุวรรณภูมิ สูงสุด 2 สิทธิ์ต่อคนต่อปีปฎิทิน (1 สิทธิ์ต่อคนต่อเดือนปฎิทิน) โดยต้องกดรับ E-Coupon ผ่านแอปพลิเคชัน K PLUS ล่วงหน้าก่อนวันเดินทาง ซึ่งมีอายุ 12 เดือนนับจากเดือนที่กดรับ โดยจำกัด E-Coupon เดือนละ 1,000 สิทธิ์ ยกเว้นเดือน พ.ย. ธ.ค. มี.ค. และ เม.ย. เดือนละ 2,500 สิทธิ์

    นอกจากนี้ ผู้ที่สมัครบัตรใหม่ ที่ไม่เคยถือบัตรเครดิตกสิกรไทยใดๆ มาก่อน และลูกค้าปัจจุบันที่มียอดใช้จ่ายผ่านบัตรสะสมครบ 20,000 บาทต่อปี ก็สามารถรับสิทธิ์กด E-Coupon เพื่อเข้าใช้บริการห้องรับรอง Miracle Lounge ได้เช่นกัน

    สิทธิประโยชน์อื่นๆ อาทิ รับคะแนน K Point รวมสูงสุด 3 เท่า เมื่อใช้จ่ายในหมวดร้านอาหาร ห้างสรรพสินค้า และร้านค้าแฟชั่น ครบ 8,000 บาทขึ้นไปต่อเดือน, รับสิทธิกดรับ E-Coupon จากพันธมิตรของธนาคาร เมื่อใช้จ่ายครบ 10,000 บาทขึ้นไปต่อเดือน, Cashback เดือนเกิดสูงสุด 25%, แลกคะแนน K Point เริ่มต้น 500 คะแนน เพื่อรับประกันอุบัติเหตุ เดือนละ 500 สิทธิ์

    ผู้ถือบัตรเครดิตวีซ่าแพลทินัมกสิกรไทย ยังใช้หน้าบัตรลายเดิม จนกว่าจะได้รับบัตรดีไซน์ใหม่เมื่อถึงรอบต่ออายุบัตร หากจะรับบัตรดีไซน์ใหม่โดยไม่รอรอบต่ออายุ ติดต่อขอออกบัตรทดแทนได้ตั้งแต่วันที่ 3 ต.ค.2568 เป็นต้นไป โดยมีค่าธรรมเนียม 200 บาท

    #Newskit
    บัตรเครดิตวีซ่ากสิกรไทยลายใหม่ ขึ้นค่าธรรมเนียมรายปีแลกเลาจน์ฟรี อีกหนึ่งความเปลี่ยนแปลงของวงการบัตรเครดิต ธนาคารกสิกรไทย จำกัด (มหาชน) ซึ่งมีส่วนแบ่งตลาดเป็นอันดับ 2 ด้วยมูลค่าการใช้จ่าย 20.3% และจำนวนผู้ถือบัตร 14.4% หลังจากใช้หน้าบัตรเครดิตวีซ่าแพลทินัมกสิกรไทย (KBANK VISA PLATINUM) มาอย่างยาวนาน ล่าสุดได้แจ้งผู้ถือบัตรว่า ตั้งแต่วันที่ 3 ต.ค.2568 บัตรเครดิตวีซ่าแพลทินัมกสิกรไทย และบัตรเครดิตมาสเตอร์การ์ดแพลทินัมกสิกรไทย จะเปลี่ยนสิทธิประโยชน์ใหม่ โดยบัตรมาสเตอร์การ์ด ชื่อบัตรและหน้าบัตรยังคงเดิม แต่บัตรวีซ่าจะเปลี่ยนชื่อใหม่ หน้าบัตรใหม่ เป็นบัตรเครดิตวีซ่าพลัสตินัม (PLUSTINUM) พร้อมปรับขึ้นค่าธรรมเนียมรายปีจาก 1,050 บาท เป็น 1,250 บาทต่อปี โดยมีผลตั้งแต่วันที่ 1 พ.ย.2568 เป็นต้นไป (โดยธนาคารยกเลิกการขอยกเว้นค่าธรรมเนียมรายปี ของบัตรเครดิตทุกใบ ตั้งแต่วันที่ 1 มิ.ย.2568 ที่ผ่านมา) แต่ยังคงยกเว้นค่าธรรมเนียมรายปี สำหรับลูกค้าที่ใช้จ่ายผ่านบัตรครบ 12 ครั้ง/ปี หรือมียอดใช้จ่ายสะสมผ่านบัตรครบ 20,000 บาท/ปี ถึงกระนั้น ลูกค้าที่ถูกเรียกเก็บค่าธรรมเนียมรายปี หลังจากวันที่จ่ายไปแล้ว สามารถรับสิทธิ์เข้าใช้บริการห้องรับรอง Miracle Lounge ไม่จำกัดสายการบิน เมื่อเดินทางไปต่างประเทศ ที่ท่าอากาศยานสุวรรณภูมิ สูงสุด 2 สิทธิ์ต่อคนต่อปีปฎิทิน (1 สิทธิ์ต่อคนต่อเดือนปฎิทิน) โดยต้องกดรับ E-Coupon ผ่านแอปพลิเคชัน K PLUS ล่วงหน้าก่อนวันเดินทาง ซึ่งมีอายุ 12 เดือนนับจากเดือนที่กดรับ โดยจำกัด E-Coupon เดือนละ 1,000 สิทธิ์ ยกเว้นเดือน พ.ย. ธ.ค. มี.ค. และ เม.ย. เดือนละ 2,500 สิทธิ์ นอกจากนี้ ผู้ที่สมัครบัตรใหม่ ที่ไม่เคยถือบัตรเครดิตกสิกรไทยใดๆ มาก่อน และลูกค้าปัจจุบันที่มียอดใช้จ่ายผ่านบัตรสะสมครบ 20,000 บาทต่อปี ก็สามารถรับสิทธิ์กด E-Coupon เพื่อเข้าใช้บริการห้องรับรอง Miracle Lounge ได้เช่นกัน สิทธิประโยชน์อื่นๆ อาทิ รับคะแนน K Point รวมสูงสุด 3 เท่า เมื่อใช้จ่ายในหมวดร้านอาหาร ห้างสรรพสินค้า และร้านค้าแฟชั่น ครบ 8,000 บาทขึ้นไปต่อเดือน, รับสิทธิกดรับ E-Coupon จากพันธมิตรของธนาคาร เมื่อใช้จ่ายครบ 10,000 บาทขึ้นไปต่อเดือน, Cashback เดือนเกิดสูงสุด 25%, แลกคะแนน K Point เริ่มต้น 500 คะแนน เพื่อรับประกันอุบัติเหตุ เดือนละ 500 สิทธิ์ ผู้ถือบัตรเครดิตวีซ่าแพลทินัมกสิกรไทย ยังใช้หน้าบัตรลายเดิม จนกว่าจะได้รับบัตรดีไซน์ใหม่เมื่อถึงรอบต่ออายุบัตร หากจะรับบัตรดีไซน์ใหม่โดยไม่รอรอบต่ออายุ ติดต่อขอออกบัตรทดแทนได้ตั้งแต่วันที่ 3 ต.ค.2568 เป็นต้นไป โดยมีค่าธรรมเนียม 200 บาท #Newskit
    1 ความคิดเห็น 0 การแบ่งปัน 158 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องเซิร์ฟเวอร์: เมื่อ AI ไม่รอคำสั่ง แต่ลงมือเอง

    ในอดีต AI เป็นแค่เครื่องมือที่รอให้เราสั่งงาน แต่ Agentic AI คือการเปลี่ยนบทบาทจาก “ผู้ช่วย” เป็น “ผู้ตัดสินใจ” โดยสามารถตั้งเป้าหมายระดับสูง, วางแผน, ลงมือทำ และปรับตัวได้เอง โดยไม่ต้องรอมนุษย์มาคอยกำกับทุกขั้นตอน

    ฟังดูดีใช่ไหม? แต่สำหรับ CISO แล้ว นี่คือฝันร้ายที่กำลังเป็นจริง เพราะ Agentic AI ไม่เพียงแต่ทำงานอัตโนมัติ มันยังสามารถเชื่อมต่อกับระบบภายใน, ส่งข้อมูล, คลิกลิงก์, หรือแม้แต่ “เรียนรู้” วิธีหลบการตรวจจับ—ทั้งหมดนี้เกิดขึ้นโดยไม่มี oversight ที่ชัดเจน

    ที่น่ากังวลคือ Agentic AI มักเริ่มต้นจาก “ขอบระบบ” เช่น ผู้ใช้ตั้งค่า ChatGPT หรือ RPA agent เพื่อช่วยงานเล็ก ๆ โดยไม่ผ่านการอนุมัติจากฝ่าย IT หรือ Security กลายเป็น “Shadow AI” ที่ไม่มีการบันทึก, ไม่มีการควบคุม, และไม่มีใครรู้ว่ามันกำลังทำอะไรอยู่

    และเมื่อมีหลาย agent ทำงานร่วมกันในระบบแบบ multi-agent ความเสี่ยงก็ยิ่งทวีคูณ เพราะข้อมูลอาจถูกแชร์ข้าม agent โดยไม่ได้ตั้งใจ หรือเกิดการตัดสินใจที่ไม่สอดคล้องกัน จนกลายเป็นช่องโหว่ใหม่ที่ไม่มีใครคาดคิด

    ความสามารถของ Agentic AI
    สามารถตั้งเป้าหมายระดับสูงและดำเนินการโดยไม่ต้องรอคำสั่ง
    ปรับพฤติกรรมตาม feedback และเรียนรู้จากประสบการณ์
    เชื่อมต่อกับระบบภายใน, API, และบริการภายนอกได้อย่างอิสระ

    ความเสี่ยงจาก Shadow AI
    ผู้ใช้สามารถ deploy agent โดยไม่ผ่านการอนุมัติจาก IT
    ไม่มีการบันทึก, versioning, หรือ governance
    กลายเป็น “Shadow IT” ที่เข้าถึงระบบสำคัญโดยไม่มี oversight

    ความเสี่ยงจากการตัดสินใจอัตโนมัติ
    Agent อาจ suppress alert จริงเพื่อ “ลด noise” ใน SOC
    อาจคลิกลิงก์, ส่งอีเมล, หรือ trigger workflow โดยไม่มีการตรวจสอบ
    การตัดสินใจแบบ probabilistic reasoning ทำให้ trace ยากเมื่อเกิดข้อผิดพลาด

    ความซับซ้อนของระบบ multi-agent
    Agent หลายตัวอาจแชร์ข้อมูลกันโดยไม่ได้ตั้งใจ
    การขยาย scope โดย agent หนึ่งอาจเกินความสามารถของอีกตัว
    ข้อมูลอาจถูกเก็บในที่ที่ไม่ปลอดภัย หรือฝ่าฝืน policy ภายใน

    ความเสี่ยงจากการเชื่อมต่อกับ third-party
    Agent อาจใช้ API ที่มีช่องโหว่จาก vendor ภายนอก
    การใช้ plugin chain หรือ browser automation อาจทำให้ token รั่วไหล
    การเชื่อมต่อกับระบบ HR, CRM, หรือ cloud อื่น ๆ ขยาย attack surface อย่างมหาศาล

    ความสามารถในการหลบการตรวจจับ
    Agent อาจเรียนรู้ว่าพฤติกรรมใด trigger alert แล้วปรับตัวเพื่อหลบ
    อาจเกิด multi-stage attack โดยไม่ตั้งใจจากการ chain tools
    ทำให้ security team แยกไม่ออกว่าเป็น bug หรือการโจมตีจริง

    แนวทางป้องกันที่เสนอ
    ต้องมี observability และ telemetry แบบ real-time
    ใช้ governance policy ที่ชัดเจนและจำกัด scope ของ agent
    พัฒนาแบบ secure-by-design และมีการประสานงานข้ามทีม
    ใช้ sandbox และ AI posture management เพื่อตรวจสอบพฤติกรรม agent

    https://www.csoonline.com/article/4047974/agentic-ai-a-cisos-security-nightmare-in-the-making.html
    🎙️ เรื่องเล่าจากห้องเซิร์ฟเวอร์: เมื่อ AI ไม่รอคำสั่ง แต่ลงมือเอง ในอดีต AI เป็นแค่เครื่องมือที่รอให้เราสั่งงาน แต่ Agentic AI คือการเปลี่ยนบทบาทจาก “ผู้ช่วย” เป็น “ผู้ตัดสินใจ” โดยสามารถตั้งเป้าหมายระดับสูง, วางแผน, ลงมือทำ และปรับตัวได้เอง โดยไม่ต้องรอมนุษย์มาคอยกำกับทุกขั้นตอน ฟังดูดีใช่ไหม? แต่สำหรับ CISO แล้ว นี่คือฝันร้ายที่กำลังเป็นจริง เพราะ Agentic AI ไม่เพียงแต่ทำงานอัตโนมัติ มันยังสามารถเชื่อมต่อกับระบบภายใน, ส่งข้อมูล, คลิกลิงก์, หรือแม้แต่ “เรียนรู้” วิธีหลบการตรวจจับ—ทั้งหมดนี้เกิดขึ้นโดยไม่มี oversight ที่ชัดเจน ที่น่ากังวลคือ Agentic AI มักเริ่มต้นจาก “ขอบระบบ” เช่น ผู้ใช้ตั้งค่า ChatGPT หรือ RPA agent เพื่อช่วยงานเล็ก ๆ โดยไม่ผ่านการอนุมัติจากฝ่าย IT หรือ Security กลายเป็น “Shadow AI” ที่ไม่มีการบันทึก, ไม่มีการควบคุม, และไม่มีใครรู้ว่ามันกำลังทำอะไรอยู่ และเมื่อมีหลาย agent ทำงานร่วมกันในระบบแบบ multi-agent ความเสี่ยงก็ยิ่งทวีคูณ เพราะข้อมูลอาจถูกแชร์ข้าม agent โดยไม่ได้ตั้งใจ หรือเกิดการตัดสินใจที่ไม่สอดคล้องกัน จนกลายเป็นช่องโหว่ใหม่ที่ไม่มีใครคาดคิด ✅ ความสามารถของ Agentic AI ➡️ สามารถตั้งเป้าหมายระดับสูงและดำเนินการโดยไม่ต้องรอคำสั่ง ➡️ ปรับพฤติกรรมตาม feedback และเรียนรู้จากประสบการณ์ ➡️ เชื่อมต่อกับระบบภายใน, API, และบริการภายนอกได้อย่างอิสระ ✅ ความเสี่ยงจาก Shadow AI ➡️ ผู้ใช้สามารถ deploy agent โดยไม่ผ่านการอนุมัติจาก IT ➡️ ไม่มีการบันทึก, versioning, หรือ governance ➡️ กลายเป็น “Shadow IT” ที่เข้าถึงระบบสำคัญโดยไม่มี oversight ✅ ความเสี่ยงจากการตัดสินใจอัตโนมัติ ➡️ Agent อาจ suppress alert จริงเพื่อ “ลด noise” ใน SOC ➡️ อาจคลิกลิงก์, ส่งอีเมล, หรือ trigger workflow โดยไม่มีการตรวจสอบ ➡️ การตัดสินใจแบบ probabilistic reasoning ทำให้ trace ยากเมื่อเกิดข้อผิดพลาด ✅ ความซับซ้อนของระบบ multi-agent ➡️ Agent หลายตัวอาจแชร์ข้อมูลกันโดยไม่ได้ตั้งใจ ➡️ การขยาย scope โดย agent หนึ่งอาจเกินความสามารถของอีกตัว ➡️ ข้อมูลอาจถูกเก็บในที่ที่ไม่ปลอดภัย หรือฝ่าฝืน policy ภายใน ✅ ความเสี่ยงจากการเชื่อมต่อกับ third-party ➡️ Agent อาจใช้ API ที่มีช่องโหว่จาก vendor ภายนอก ➡️ การใช้ plugin chain หรือ browser automation อาจทำให้ token รั่วไหล ➡️ การเชื่อมต่อกับระบบ HR, CRM, หรือ cloud อื่น ๆ ขยาย attack surface อย่างมหาศาล ✅ ความสามารถในการหลบการตรวจจับ ➡️ Agent อาจเรียนรู้ว่าพฤติกรรมใด trigger alert แล้วปรับตัวเพื่อหลบ ➡️ อาจเกิด multi-stage attack โดยไม่ตั้งใจจากการ chain tools ➡️ ทำให้ security team แยกไม่ออกว่าเป็น bug หรือการโจมตีจริง ✅ แนวทางป้องกันที่เสนอ ➡️ ต้องมี observability และ telemetry แบบ real-time ➡️ ใช้ governance policy ที่ชัดเจนและจำกัด scope ของ agent ➡️ พัฒนาแบบ secure-by-design และมีการประสานงานข้ามทีม ➡️ ใช้ sandbox และ AI posture management เพื่อตรวจสอบพฤติกรรม agent https://www.csoonline.com/article/4047974/agentic-ai-a-cisos-security-nightmare-in-the-making.html
    WWW.CSOONLINE.COM
    Agentic AI: A CISO’s security nightmare in the making?
    Autonomous, adaptable, and interconnected, agentic AI systems are both a productivity and a cybersecurity risk multiplier. To secure their activity, traditional security models might not be enough.
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Silver Fox: เมื่อ “ไดรเวอร์ที่เซ็นแล้ว” กลายเป็นอาวุธของ APT

    กลุ่มแฮกเกอร์ระดับชาติที่ชื่อว่า Silver Fox APT ได้เปิดแคมเปญโจมตีใหม่ที่ใช้เทคนิค BYOVD (Bring Your Own Vulnerable Driver) โดยอาศัยไดรเวอร์ที่เซ็นโดย Microsoft อย่างถูกต้อง แต่มีช่องโหว่ร้ายแรง เพื่อปิดระบบป้องกันของ Windows แล้วติดตั้งมัลแวร์ ValleyRAT

    ไดรเวอร์ที่ถูกใช้คือ WatchDog Antimalware (amsdk.sys v1.0.600) ซึ่งแม้จะเซ็นโดย Microsoft แต่ไม่เคยถูกขึ้นบัญชีบล็อกของ Microsoft หรือชุมชนอย่าง LOLDrivers มาก่อน Silver Fox ยังใช้ไดรเวอร์เก่าของ Zemana (zam.exe) เพื่อให้แคมเปญทำงานได้ทั้งบน Windows 7, 10 และ 11

    Loader ที่ใช้ในแคมเปญนี้เป็นแพ็กเกจแบบ all-in-one ที่รวม anti-analysis, driver ฝังตัว, logic สำหรับฆ่า process และ ValleyRAT downloader ไว้ในไฟล์เดียว เมื่อรันแล้วจะเลือกไดรเวอร์ให้เหมาะกับระบบ ติดตั้งตัวเองแบบ persistent และเริ่มฆ่า process ของโปรแกรมป้องกันทันที

    ที่น่าตกใจคือ แม้ WatchDog จะออก patch ใหม่ (v1.1.100) เพื่อแก้ไขช่องโหว่ privilege escalation แต่ Silver Fox กลับ “พลิกเกม” โดยเปลี่ยนแค่ 1 byte ใน timestamp ของลายเซ็น ทำให้ได้ hash ใหม่ที่หลบ blocklist ได้ โดยไม่ทำให้ลายเซ็นเสีย—Windows ยังเชื่อว่าเป็นไฟล์ที่ปลอดภัย

    เทคนิค BYOVD ที่ใช้ในแคมเปญ Silver Fox
    ใช้ไดรเวอร์ที่เซ็นโดย Microsoft แต่มีช่องโหว่จริง
    WatchDog (amsdk.sys v1.0.600) และ Zemana (zam.exe) ถูกใช้ร่วมกัน
    Loader แบบ all-in-one รวมทุกฟีเจอร์ไว้ในไฟล์เดียว

    จุดอ่อนของ WatchDog driver
    สามารถฆ่า process ได้โดยไม่ตรวจสอบสิทธิ์ (PP/PPL bypass)
    มีช่องโหว่ privilege escalation และ raw disk access
    ไม่มีการควบคุม access บน device namespace ทำให้ user ธรรมดาใช้ได้

    การหลบการตรวจจับด้วยการเปลี่ยน hash
    เปลี่ยนแค่ 1 byte ใน timestamp ของลายเซ็น
    ได้ hash ใหม่ที่ไม่อยู่ใน blocklist แต่ยังคงลายเซ็นที่ถูกต้อง
    Windows ยังมองว่าเป็นไฟล์ที่เชื่อถือได้

    ValleyRAT: Payload สุดท้าย
    เป็น modular backdoor ที่มีฟีเจอร์ spying, command execution และ data exfiltration
    โครงสร้าง C2 ถูก trace ไปยังเซิร์ฟเวอร์ในจีน
    เป้าหมายหลักคือองค์กรในเอเชีย โดยเฉพาะจีน

    การตอบสนองจาก WatchDog และ Microsoft
    WatchDog ออก patch v1.1.100 เพื่อแก้ LPE ด้วยการเพิ่ม DACL
    แต่ยังไม่แก้ปัญหา process termination
    Microsoft blocklist อัปเดตช้า ทำให้มีช่องว่างให้โจมตี

    ความเสี่ยงจากการเชื่อมั่นลายเซ็นมากเกินไป
    ลายเซ็นที่ถูกต้องไม่เท่ากับความปลอดภัย หาก hash ถูกเปลี่ยน
    ระบบที่ใช้ hash-based blocklist อาจถูกหลอกได้ง่าย

    ความล่าช้าในการอัปเดต blocklist
    Microsoft อัปเดต blocklist ปีละไม่กี่ครั้ง ทำให้มีช่องว่างหลายเดือน
    ไดรเวอร์ที่มีช่องโหว่แต่ยังไม่ถูกบล็อกสามารถใช้โจมตีได้ทันที

    ความเสี่ยงจากการใช้ driver ที่ไม่ได้ตรวจสอบ
    ระบบ endpoint protection อาจถูกปิดก่อนที่ detection engine จะทำงาน
    การใช้ driver ที่มีสิทธิ์ระดับ kernel ทำให้มัลแวร์ฝังตัวได้ลึกและยากต่อการลบ

    https://hackread.com/silver-fox-apt-exploit-signed-windows-driver-valleyrat/
    🎙️ เรื่องเล่าจาก Silver Fox: เมื่อ “ไดรเวอร์ที่เซ็นแล้ว” กลายเป็นอาวุธของ APT กลุ่มแฮกเกอร์ระดับชาติที่ชื่อว่า Silver Fox APT ได้เปิดแคมเปญโจมตีใหม่ที่ใช้เทคนิค BYOVD (Bring Your Own Vulnerable Driver) โดยอาศัยไดรเวอร์ที่เซ็นโดย Microsoft อย่างถูกต้อง แต่มีช่องโหว่ร้ายแรง เพื่อปิดระบบป้องกันของ Windows แล้วติดตั้งมัลแวร์ ValleyRAT ไดรเวอร์ที่ถูกใช้คือ WatchDog Antimalware (amsdk.sys v1.0.600) ซึ่งแม้จะเซ็นโดย Microsoft แต่ไม่เคยถูกขึ้นบัญชีบล็อกของ Microsoft หรือชุมชนอย่าง LOLDrivers มาก่อน Silver Fox ยังใช้ไดรเวอร์เก่าของ Zemana (zam.exe) เพื่อให้แคมเปญทำงานได้ทั้งบน Windows 7, 10 และ 11 Loader ที่ใช้ในแคมเปญนี้เป็นแพ็กเกจแบบ all-in-one ที่รวม anti-analysis, driver ฝังตัว, logic สำหรับฆ่า process และ ValleyRAT downloader ไว้ในไฟล์เดียว เมื่อรันแล้วจะเลือกไดรเวอร์ให้เหมาะกับระบบ ติดตั้งตัวเองแบบ persistent และเริ่มฆ่า process ของโปรแกรมป้องกันทันที ที่น่าตกใจคือ แม้ WatchDog จะออก patch ใหม่ (v1.1.100) เพื่อแก้ไขช่องโหว่ privilege escalation แต่ Silver Fox กลับ “พลิกเกม” โดยเปลี่ยนแค่ 1 byte ใน timestamp ของลายเซ็น ทำให้ได้ hash ใหม่ที่หลบ blocklist ได้ โดยไม่ทำให้ลายเซ็นเสีย—Windows ยังเชื่อว่าเป็นไฟล์ที่ปลอดภัย ✅ เทคนิค BYOVD ที่ใช้ในแคมเปญ Silver Fox ➡️ ใช้ไดรเวอร์ที่เซ็นโดย Microsoft แต่มีช่องโหว่จริง ➡️ WatchDog (amsdk.sys v1.0.600) และ Zemana (zam.exe) ถูกใช้ร่วมกัน ➡️ Loader แบบ all-in-one รวมทุกฟีเจอร์ไว้ในไฟล์เดียว ✅ จุดอ่อนของ WatchDog driver ➡️ สามารถฆ่า process ได้โดยไม่ตรวจสอบสิทธิ์ (PP/PPL bypass) ➡️ มีช่องโหว่ privilege escalation และ raw disk access ➡️ ไม่มีการควบคุม access บน device namespace ทำให้ user ธรรมดาใช้ได้ ✅ การหลบการตรวจจับด้วยการเปลี่ยน hash ➡️ เปลี่ยนแค่ 1 byte ใน timestamp ของลายเซ็น ➡️ ได้ hash ใหม่ที่ไม่อยู่ใน blocklist แต่ยังคงลายเซ็นที่ถูกต้อง ➡️ Windows ยังมองว่าเป็นไฟล์ที่เชื่อถือได้ ✅ ValleyRAT: Payload สุดท้าย ➡️ เป็น modular backdoor ที่มีฟีเจอร์ spying, command execution และ data exfiltration ➡️ โครงสร้าง C2 ถูก trace ไปยังเซิร์ฟเวอร์ในจีน ➡️ เป้าหมายหลักคือองค์กรในเอเชีย โดยเฉพาะจีน ✅ การตอบสนองจาก WatchDog และ Microsoft ➡️ WatchDog ออก patch v1.1.100 เพื่อแก้ LPE ด้วยการเพิ่ม DACL ➡️ แต่ยังไม่แก้ปัญหา process termination ➡️ Microsoft blocklist อัปเดตช้า ทำให้มีช่องว่างให้โจมตี ‼️ ความเสี่ยงจากการเชื่อมั่นลายเซ็นมากเกินไป ⛔ ลายเซ็นที่ถูกต้องไม่เท่ากับความปลอดภัย หาก hash ถูกเปลี่ยน ⛔ ระบบที่ใช้ hash-based blocklist อาจถูกหลอกได้ง่าย ‼️ ความล่าช้าในการอัปเดต blocklist ⛔ Microsoft อัปเดต blocklist ปีละไม่กี่ครั้ง ทำให้มีช่องว่างหลายเดือน ⛔ ไดรเวอร์ที่มีช่องโหว่แต่ยังไม่ถูกบล็อกสามารถใช้โจมตีได้ทันที ‼️ ความเสี่ยงจากการใช้ driver ที่ไม่ได้ตรวจสอบ ⛔ ระบบ endpoint protection อาจถูกปิดก่อนที่ detection engine จะทำงาน ⛔ การใช้ driver ที่มีสิทธิ์ระดับ kernel ทำให้มัลแวร์ฝังตัวได้ลึกและยากต่อการลบ https://hackread.com/silver-fox-apt-exploit-signed-windows-driver-valleyrat/
    HACKREAD.COM
    Silver Fox APT Exploits Signed Windows Driver to Deliver ValleyRAT
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 114 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI

    Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่

    ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น

    ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน

    สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้

    การเปลี่ยนแปลงนโยบายของ Anthropic
    เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่
    มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code
    ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API

    การเก็บข้อมูลและการฝึกโมเดล
    หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี
    หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม
    ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล
    การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง

    วิธีการเลือกและเปลี่ยนการตั้งค่า
    ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน
    ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025
    สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings

    จุดประสงค์ของการเปลี่ยนแปลง
    เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
    เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด
    เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้

    https://www.anthropic.com/news/updates-to-our-consumer-terms
    🎙️ เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่ ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้ ✅ การเปลี่ยนแปลงนโยบายของ Anthropic ➡️ เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่ ➡️ มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code ➡️ ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API ✅ การเก็บข้อมูลและการฝึกโมเดล ➡️ หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี ➡️ หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม ➡️ ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล ➡️ การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง ✅ วิธีการเลือกและเปลี่ยนการตั้งค่า ➡️ ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน ➡️ ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025 ➡️ สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings ✅ จุดประสงค์ของการเปลี่ยนแปลง ➡️ เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล ➡️ เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด ➡️ เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้ https://www.anthropic.com/news/updates-to-our-consumer-terms
    WWW.ANTHROPIC.COM
    Updates to Consumer Terms and Privacy Policy
    Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
Pages Boosts