• “Raspberry Pi OS รีเบสสู่ Debian 13 ‘Trixie’ — ปรับโฉมใหม่หมด เพิ่มความยืดหยุ่น พร้อมฟีเจอร์จัดการระบบแบบรวมศูนย์”

    Raspberry Pi OS ซึ่งเป็นระบบปฏิบัติการยอดนิยมสำหรับบอร์ด Raspberry Pi ได้รับการอัปเดตครั้งใหญ่ในเดือนตุลาคม 2025 โดยรีเบสไปใช้ Debian 13 “Trixie” เป็นฐานหลัก พร้อมยังคงใช้ Linux Kernel 6.12 LTS เพื่อความเสถียรในระยะยาว การเปลี่ยนแปลงครั้งนี้ไม่เพียงแค่ปรับปรุงด้านเทคนิค แต่ยังมาพร้อมกับการออกแบบใหม่ที่ทันสมัยและฟีเจอร์จัดการระบบที่รวมศูนย์มากขึ้น

    หนึ่งในจุดเด่นของเวอร์ชันใหม่นี้คือการปรับโครงสร้างการติดตั้งแพ็กเกจให้เป็นแบบ modular ซึ่งช่วยให้ผู้ใช้สามารถปรับแต่งภาพ ISO ได้ง่ายขึ้น เช่น การแปลงจากเวอร์ชัน Lite ไปเป็น Desktop หรือกลับกัน ซึ่งไม่เคยรองรับอย่างเป็นทางการมาก่อน

    ด้านการออกแบบ UI มีการเพิ่มธีม GTK ใหม่ 2 แบบ ได้แก่ PiXtrix (โหมดสว่าง) และ PiXonyx (โหมดมืด) พร้อมไอคอนใหม่และฟอนต์ระบบ “Nunito Sans Light” ที่ให้ความรู้สึกทันสมัยมากขึ้น รวมถึงภาพพื้นหลังใหม่ที่เข้ากับธีมโดยรวม

    ระบบ taskbar ได้รับการปรับปรุงด้วย System Monitor plugin สำหรับแจ้งเตือนพลังงานและสถานะอื่น ๆ และมีการรวม Clock plugin ให้ใช้งานร่วมกันระหว่าง wf-panel-pi และ lxpanel-pi ซึ่งเป็นเวอร์ชัน fork ของ LXDE Panel ที่ตัดปลั๊กอินที่ไม่รองรับออกไป

    ที่สำคัญคือการเปิดตัว Control Centre แบบใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในที่เดียว แทนที่แอปแยกย่อยเดิม เช่น Raspberry Pi Configuration, Appearance Settings, Mouse and Keyboard Settings ฯลฯ ทำให้การจัดการระบบสะดวกขึ้นมาก

    ยังมีการเพิ่มเครื่องมือ command-line ใหม่ ได้แก่ rpi-keyboard-config และ rpi-keyboard-fw-update สำหรับปรับแต่งและอัปเดตคีย์บอร์ดโดยเฉพาะ ส่วนแอป Bookshelf ก็ได้รับการปรับปรุงให้แสดงเนื้อหาพิเศษสำหรับผู้สนับสนุน พร้อมระบบปลดล็อกผ่านการ “Contribute”

    ข้อมูลสำคัญจากข่าว
    Raspberry Pi OS รีเบสไปใช้ Debian 13 “Trixie” พร้อม Linux Kernel 6.12 LTS
    ปรับโครงสร้างแพ็กเกจให้เป็นแบบ modular เพื่อความยืดหยุ่นในการติดตั้ง
    เพิ่มธีม GTK ใหม่ 2 แบบ: PiXtrix และ PiXonyx พร้อมไอคอนและฟอนต์ใหม่
    Taskbar มี System Monitor plugin และ Clock plugin แบบรวมศูนย์
    LXDE Panel ถูก fork เป็น lxpanel-pi และลบปลั๊กอินที่ไม่รองรับ
    เปิดตัว Control Centre ใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในแอปเดียว
    เพิ่มเครื่องมือ command-line: rpi-keyboard-config และ rpi-keyboard-fw-update
    แอป Bookshelf แสดงเนื้อหาพิเศษพร้อมระบบปลดล็อกผ่านการสนับสนุน
    รองรับ Raspberry Pi ทุกรุ่น ตั้งแต่ 1A+ ถึง CM4 และ Zero 2 W
    ผู้ใช้สามารถอัปเดตผ่านคำสั่ง sudo apt update && sudo apt full-upgrade

    ข้อมูลเสริมจากภายนอก
    Debian 13 “Trixie” มาพร้อมการปรับปรุงด้านความปลอดภัยและการรองรับฮาร์ดแวร์ใหม่
    Modular package layout ช่วยให้การสร้าง image แบบ custom ง่ายขึ้นมาก
    ฟอนต์ Nunito Sans Light เป็นฟอนต์แบบ open-source ที่เน้นความอ่านง่าย
    Control Centre แบบรวมศูนย์เป็นแนวทางที่นิยมในระบบ desktop สมัยใหม่ เช่น GNOME และ KDE
    การ fork lxpanel ช่วยให้ทีม Raspberry Pi สามารถควบคุมการพัฒนาได้เต็มที่

    https://9to5linux.com/raspberry-pi-os-is-now-based-on-debian-13-trixie-with-fresh-new-look
    🍓 “Raspberry Pi OS รีเบสสู่ Debian 13 ‘Trixie’ — ปรับโฉมใหม่หมด เพิ่มความยืดหยุ่น พร้อมฟีเจอร์จัดการระบบแบบรวมศูนย์” Raspberry Pi OS ซึ่งเป็นระบบปฏิบัติการยอดนิยมสำหรับบอร์ด Raspberry Pi ได้รับการอัปเดตครั้งใหญ่ในเดือนตุลาคม 2025 โดยรีเบสไปใช้ Debian 13 “Trixie” เป็นฐานหลัก พร้อมยังคงใช้ Linux Kernel 6.12 LTS เพื่อความเสถียรในระยะยาว การเปลี่ยนแปลงครั้งนี้ไม่เพียงแค่ปรับปรุงด้านเทคนิค แต่ยังมาพร้อมกับการออกแบบใหม่ที่ทันสมัยและฟีเจอร์จัดการระบบที่รวมศูนย์มากขึ้น หนึ่งในจุดเด่นของเวอร์ชันใหม่นี้คือการปรับโครงสร้างการติดตั้งแพ็กเกจให้เป็นแบบ modular ซึ่งช่วยให้ผู้ใช้สามารถปรับแต่งภาพ ISO ได้ง่ายขึ้น เช่น การแปลงจากเวอร์ชัน Lite ไปเป็น Desktop หรือกลับกัน ซึ่งไม่เคยรองรับอย่างเป็นทางการมาก่อน ด้านการออกแบบ UI มีการเพิ่มธีม GTK ใหม่ 2 แบบ ได้แก่ PiXtrix (โหมดสว่าง) และ PiXonyx (โหมดมืด) พร้อมไอคอนใหม่และฟอนต์ระบบ “Nunito Sans Light” ที่ให้ความรู้สึกทันสมัยมากขึ้น รวมถึงภาพพื้นหลังใหม่ที่เข้ากับธีมโดยรวม ระบบ taskbar ได้รับการปรับปรุงด้วย System Monitor plugin สำหรับแจ้งเตือนพลังงานและสถานะอื่น ๆ และมีการรวม Clock plugin ให้ใช้งานร่วมกันระหว่าง wf-panel-pi และ lxpanel-pi ซึ่งเป็นเวอร์ชัน fork ของ LXDE Panel ที่ตัดปลั๊กอินที่ไม่รองรับออกไป ที่สำคัญคือการเปิดตัว Control Centre แบบใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในที่เดียว แทนที่แอปแยกย่อยเดิม เช่น Raspberry Pi Configuration, Appearance Settings, Mouse and Keyboard Settings ฯลฯ ทำให้การจัดการระบบสะดวกขึ้นมาก ยังมีการเพิ่มเครื่องมือ command-line ใหม่ ได้แก่ rpi-keyboard-config และ rpi-keyboard-fw-update สำหรับปรับแต่งและอัปเดตคีย์บอร์ดโดยเฉพาะ ส่วนแอป Bookshelf ก็ได้รับการปรับปรุงให้แสดงเนื้อหาพิเศษสำหรับผู้สนับสนุน พร้อมระบบปลดล็อกผ่านการ “Contribute” ✅ ข้อมูลสำคัญจากข่าว ➡️ Raspberry Pi OS รีเบสไปใช้ Debian 13 “Trixie” พร้อม Linux Kernel 6.12 LTS ➡️ ปรับโครงสร้างแพ็กเกจให้เป็นแบบ modular เพื่อความยืดหยุ่นในการติดตั้ง ➡️ เพิ่มธีม GTK ใหม่ 2 แบบ: PiXtrix และ PiXonyx พร้อมไอคอนและฟอนต์ใหม่ ➡️ Taskbar มี System Monitor plugin และ Clock plugin แบบรวมศูนย์ ➡️ LXDE Panel ถูก fork เป็น lxpanel-pi และลบปลั๊กอินที่ไม่รองรับ ➡️ เปิดตัว Control Centre ใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในแอปเดียว ➡️ เพิ่มเครื่องมือ command-line: rpi-keyboard-config และ rpi-keyboard-fw-update ➡️ แอป Bookshelf แสดงเนื้อหาพิเศษพร้อมระบบปลดล็อกผ่านการสนับสนุน ➡️ รองรับ Raspberry Pi ทุกรุ่น ตั้งแต่ 1A+ ถึง CM4 และ Zero 2 W ➡️ ผู้ใช้สามารถอัปเดตผ่านคำสั่ง sudo apt update && sudo apt full-upgrade ✅ ข้อมูลเสริมจากภายนอก ➡️ Debian 13 “Trixie” มาพร้อมการปรับปรุงด้านความปลอดภัยและการรองรับฮาร์ดแวร์ใหม่ ➡️ Modular package layout ช่วยให้การสร้าง image แบบ custom ง่ายขึ้นมาก ➡️ ฟอนต์ Nunito Sans Light เป็นฟอนต์แบบ open-source ที่เน้นความอ่านง่าย ➡️ Control Centre แบบรวมศูนย์เป็นแนวทางที่นิยมในระบบ desktop สมัยใหม่ เช่น GNOME และ KDE ➡️ การ fork lxpanel ช่วยให้ทีม Raspberry Pi สามารถควบคุมการพัฒนาได้เต็มที่ https://9to5linux.com/raspberry-pi-os-is-now-based-on-debian-13-trixie-with-fresh-new-look
    9TO5LINUX.COM
    Raspberry Pi OS Is Now Based on Debian 13 "Trixie" with Fresh New Look - 9to5Linux
    Raspberry Pi OS 2025-10-01 is now available for download with based on Debian 13 "Trixie" and featuring new GTK and icon themes.
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Stanford เปิดตัว Megakernel สำหรับ Llama-70B — ใช้ GPU เต็มประสิทธิภาพ แซง SGLang ไปกว่า 22%”

    ทีมนักวิจัยจาก Hazy Research แห่งมหาวิทยาลัย Stanford ได้เปิดตัว “Megakernel” สำหรับการ inference โมเดล Llama-70B โดยใช้ GPU H100 แบบเต็มประสิทธิภาพ ซึ่งสามารถแซงระบบยอดนิยมอย่าง SGLang ได้ถึง 22% ในการทดสอบชุดคำสั่งจาก ShareGPT

    แนวคิดหลักคือการรวมการประมวลผลทั้งหมดของโมเดลไว้ใน “megakernel” เดียว แทนที่จะใช้หลาย kernel แบบเดิม ซึ่งมักมีช่วงเวลาที่ GPU ว่างเปล่าและไม่ได้ทำงาน ทีมงานจึงออกแบบระบบ interpreter ที่สามารถ pipeline คำสั่งต่าง ๆ ได้อย่างต่อเนื่อง ทั้งในระดับ SM (Streaming Multiprocessor), ระหว่าง SM หลายตัว และระหว่าง GPU หลายตัว

    การออกแบบนี้ช่วยให้สามารถ overlap การโหลดข้อมูล, การคำนวณ, และการสื่อสารระหว่าง GPU ได้พร้อมกัน ทำให้ใช้ทรัพยากรของ GPU ได้เต็มที่ ไม่ว่าจะเป็น tensor core, memory bandwidth หรือ NVLink

    นอกจากนี้ยังมีการปรับโครงสร้างของ Llama-70B ให้เหมาะกับการทำงานแบบ parallel โดยใช้เทคนิค “distributed transpose” แทน reduce-scatter เพื่อลดการสื่อสารระหว่าง GPU ลงถึง 8 เท่า แม้จะแลกกับการใช้หน่วยความจำเพิ่มขึ้น 9GB ต่อ GPU

    ระบบนี้ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น inference engine ที่ออกแบบมาเพื่องาน throughput สูง โดยสามารถจัดการ batch ขนาดใหญ่ได้อย่างมีประสิทธิภาพ และใช้ CPU เพียงเล็กน้อยในการจัดคิวคำสั่ง

    ผลการทดสอบแสดงให้เห็นว่า Megakernel สามารถประมวลผลคำสั่งได้เร็วกว่า SGLang อย่างชัดเจน ทั้งในด้าน input, output และ throughput รวม โดยเฉพาะเมื่อใช้ batch ขนาดใหญ่ เช่น 8,192 prompt

    ข้อมูลสำคัญจากข่าว
    Megakernel ถูกออกแบบเพื่อ inference Llama-70B บน GPU H100
    ใช้ระบบ interpreter ที่ pipeline คำสั่งได้ทั้งใน SM, ระหว่าง SM และ GPU
    ลดช่วงเวลาที่ GPU ไม่ได้ทำงาน ด้วยการ overlap การโหลด, คำนวณ และสื่อสาร
    ใช้ distributed transpose แทน reduce-scatter เพื่อลด network traffic
    เพิ่มประสิทธิภาพการทำงานแบบ data-parallel โดย replicate O-projection matrix
    Megakernel ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น engine สำหรับงาน throughput สูง
    ผลการทดสอบแสดงว่า Megakernel แซง SGLang ไปกว่า 22% ในชุดคำสั่ง ShareGPT
    ใช้ global work queue และ interleaving เพื่อจัดการคำสั่งแบบ dynamic

    ข้อมูลเสริมจากภายนอก
    SM (Streaming Multiprocessor) คือหน่วยย่อยของ GPU ที่ทำงานแบบ parallel
    NVLink เป็นเทคโนโลยีเชื่อมต่อระหว่าง GPU ที่มี bandwidth สูง
    Reduce-scatter เป็นเทคนิคการรวมข้อมูลจากหลาย GPU แต่มีค่าใช้จ่ายด้าน network
    Distributed transpose ช่วยลดการสื่อสารโดยเปลี่ยนรูปแบบการจัดข้อมูล
    Tokasaurus รองรับการทำงานแบบ tensor-parallel และ pipeline-parallel

    https://hazyresearch.stanford.edu/blog/2025-09-28-tp-llama-main
    ⚙️ “Stanford เปิดตัว Megakernel สำหรับ Llama-70B — ใช้ GPU เต็มประสิทธิภาพ แซง SGLang ไปกว่า 22%” ทีมนักวิจัยจาก Hazy Research แห่งมหาวิทยาลัย Stanford ได้เปิดตัว “Megakernel” สำหรับการ inference โมเดล Llama-70B โดยใช้ GPU H100 แบบเต็มประสิทธิภาพ ซึ่งสามารถแซงระบบยอดนิยมอย่าง SGLang ได้ถึง 22% ในการทดสอบชุดคำสั่งจาก ShareGPT แนวคิดหลักคือการรวมการประมวลผลทั้งหมดของโมเดลไว้ใน “megakernel” เดียว แทนที่จะใช้หลาย kernel แบบเดิม ซึ่งมักมีช่วงเวลาที่ GPU ว่างเปล่าและไม่ได้ทำงาน ทีมงานจึงออกแบบระบบ interpreter ที่สามารถ pipeline คำสั่งต่าง ๆ ได้อย่างต่อเนื่อง ทั้งในระดับ SM (Streaming Multiprocessor), ระหว่าง SM หลายตัว และระหว่าง GPU หลายตัว การออกแบบนี้ช่วยให้สามารถ overlap การโหลดข้อมูล, การคำนวณ, และการสื่อสารระหว่าง GPU ได้พร้อมกัน ทำให้ใช้ทรัพยากรของ GPU ได้เต็มที่ ไม่ว่าจะเป็น tensor core, memory bandwidth หรือ NVLink นอกจากนี้ยังมีการปรับโครงสร้างของ Llama-70B ให้เหมาะกับการทำงานแบบ parallel โดยใช้เทคนิค “distributed transpose” แทน reduce-scatter เพื่อลดการสื่อสารระหว่าง GPU ลงถึง 8 เท่า แม้จะแลกกับการใช้หน่วยความจำเพิ่มขึ้น 9GB ต่อ GPU ระบบนี้ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น inference engine ที่ออกแบบมาเพื่องาน throughput สูง โดยสามารถจัดการ batch ขนาดใหญ่ได้อย่างมีประสิทธิภาพ และใช้ CPU เพียงเล็กน้อยในการจัดคิวคำสั่ง ผลการทดสอบแสดงให้เห็นว่า Megakernel สามารถประมวลผลคำสั่งได้เร็วกว่า SGLang อย่างชัดเจน ทั้งในด้าน input, output และ throughput รวม โดยเฉพาะเมื่อใช้ batch ขนาดใหญ่ เช่น 8,192 prompt ✅ ข้อมูลสำคัญจากข่าว ➡️ Megakernel ถูกออกแบบเพื่อ inference Llama-70B บน GPU H100 ➡️ ใช้ระบบ interpreter ที่ pipeline คำสั่งได้ทั้งใน SM, ระหว่าง SM และ GPU ➡️ ลดช่วงเวลาที่ GPU ไม่ได้ทำงาน ด้วยการ overlap การโหลด, คำนวณ และสื่อสาร ➡️ ใช้ distributed transpose แทน reduce-scatter เพื่อลด network traffic ➡️ เพิ่มประสิทธิภาพการทำงานแบบ data-parallel โดย replicate O-projection matrix ➡️ Megakernel ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น engine สำหรับงาน throughput สูง ➡️ ผลการทดสอบแสดงว่า Megakernel แซง SGLang ไปกว่า 22% ในชุดคำสั่ง ShareGPT ➡️ ใช้ global work queue และ interleaving เพื่อจัดการคำสั่งแบบ dynamic ✅ ข้อมูลเสริมจากภายนอก ➡️ SM (Streaming Multiprocessor) คือหน่วยย่อยของ GPU ที่ทำงานแบบ parallel ➡️ NVLink เป็นเทคโนโลยีเชื่อมต่อระหว่าง GPU ที่มี bandwidth สูง ➡️ Reduce-scatter เป็นเทคนิคการรวมข้อมูลจากหลาย GPU แต่มีค่าใช้จ่ายด้าน network ➡️ Distributed transpose ช่วยลดการสื่อสารโดยเปลี่ยนรูปแบบการจัดข้อมูล ➡️ Tokasaurus รองรับการทำงานแบบ tensor-parallel และ pipeline-parallel https://hazyresearch.stanford.edu/blog/2025-09-28-tp-llama-main
    0 ความคิดเห็น 0 การแบ่งปัน 113 มุมมอง 0 รีวิว
  • “ช่องโหว่ RCE ร้ายแรงใน Apache Fory’s Python Module — เมื่อการ deserialize กลายเป็นประตูหลังให้แฮกเกอร์”

    Apache Fory ซึ่งเป็นเฟรมเวิร์ก serialization แบบ multi-language ที่เน้นประสิทธิภาพสูง ได้เปิดเผยช่องโหว่ร้ายแรงในโมดูล Python ที่ชื่อว่า “pyfory” โดยช่องโหว่นี้ถูกระบุในรหัส CVE-2025-61622 และมีระดับความรุนแรง “Critical” ด้วยคะแนน CVSS สูงสุดถึง 9.8

    ช่องโหว่นี้เกิดจากการใช้ fallback serializer ที่เรียกว่า “pickle” ซึ่งเป็นกลไกใน Python สำหรับการแปลงข้อมูลให้สามารถจัดเก็บและส่งต่อได้ แต่หากนำไปใช้กับข้อมูลที่ไม่ได้รับการตรวจสอบหรือมาจากแหล่งที่ไม่เชื่อถือ ก็สามารถเปิดช่องให้แฮกเกอร์ส่งข้อมูลที่ถูกออกแบบมาเพื่อเรียกใช้ pickle.loads() ซึ่งจะนำไปสู่การรันโค้ดอันตรายจากระยะไกล (Remote Code Execution)

    ช่องโหว่นี้ส่งผลกระทบต่อ pyfory ตั้งแต่เวอร์ชัน 0.5.0 ถึง 0.12.2 โดยเฉพาะในแอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองหรือป้องกันอย่างเหมาะสม

    ทีม Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 ซึ่งได้ลบ fallback pickle serializer ออกไปโดยสิ้นเชิง เพื่อปิดช่องทางการโจมตีนี้ และแนะนำให้ผู้ใช้อัปเดตทันทีโดยไม่มีวิธีแก้ไขชั่วคราว (workaround)

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-61622 เป็น Remote Code Execution (RCE) ในโมดูล pyfory ของ Apache Fory
    เกิดจากการใช้ fallback serializer แบบ pickle โดยไม่มีการป้องกัน
    ผู้โจมตีสามารถส่งข้อมูลที่บังคับให้ระบบใช้ pickle.loads() ซึ่งเปิดทางให้รันโค้ดอันตราย
    ส่งผลกระทบต่อเวอร์ชัน 0.5.0 ถึง 0.12.2 ของ pyfory
    แอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองจะเสี่ยงสูง
    Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 โดยลบ pickle fallback ออกไป
    ไม่มี workaround ชั่วคราว ต้องอัปเดตแพตช์ทันที

    ข้อมูลเสริมจากภายนอก
    pickle ใน Python เป็นเครื่องมือ serialization ที่ทรงพลังแต่มีความเสี่ยงสูง
    การใช้ pickle กับข้อมูลที่ไม่ได้รับการตรวจสอบถือเป็นแนวทางที่ไม่ปลอดภัย
    ช่องโหว่ลักษณะนี้เคยถูกใช้ในมัลแวร์และการโจมตีแบบ supply chain
    Apache Fory เป็นเฟรมเวิร์กที่ใช้ในระบบ distributed และ AI pipeline หลายแห่ง
    การลบ fallback serializer เป็นแนวทางที่ปลอดภัยที่สุดในการป้องกัน RCE

    https://securityonline.info/critical-rce-flaw-in-apache-forys-python-module-cve-2025-61622/
    🐍 “ช่องโหว่ RCE ร้ายแรงใน Apache Fory’s Python Module — เมื่อการ deserialize กลายเป็นประตูหลังให้แฮกเกอร์” Apache Fory ซึ่งเป็นเฟรมเวิร์ก serialization แบบ multi-language ที่เน้นประสิทธิภาพสูง ได้เปิดเผยช่องโหว่ร้ายแรงในโมดูล Python ที่ชื่อว่า “pyfory” โดยช่องโหว่นี้ถูกระบุในรหัส CVE-2025-61622 และมีระดับความรุนแรง “Critical” ด้วยคะแนน CVSS สูงสุดถึง 9.8 ช่องโหว่นี้เกิดจากการใช้ fallback serializer ที่เรียกว่า “pickle” ซึ่งเป็นกลไกใน Python สำหรับการแปลงข้อมูลให้สามารถจัดเก็บและส่งต่อได้ แต่หากนำไปใช้กับข้อมูลที่ไม่ได้รับการตรวจสอบหรือมาจากแหล่งที่ไม่เชื่อถือ ก็สามารถเปิดช่องให้แฮกเกอร์ส่งข้อมูลที่ถูกออกแบบมาเพื่อเรียกใช้ pickle.loads() ซึ่งจะนำไปสู่การรันโค้ดอันตรายจากระยะไกล (Remote Code Execution) ช่องโหว่นี้ส่งผลกระทบต่อ pyfory ตั้งแต่เวอร์ชัน 0.5.0 ถึง 0.12.2 โดยเฉพาะในแอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองหรือป้องกันอย่างเหมาะสม ทีม Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 ซึ่งได้ลบ fallback pickle serializer ออกไปโดยสิ้นเชิง เพื่อปิดช่องทางการโจมตีนี้ และแนะนำให้ผู้ใช้อัปเดตทันทีโดยไม่มีวิธีแก้ไขชั่วคราว (workaround) ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-61622 เป็น Remote Code Execution (RCE) ในโมดูล pyfory ของ Apache Fory ➡️ เกิดจากการใช้ fallback serializer แบบ pickle โดยไม่มีการป้องกัน ➡️ ผู้โจมตีสามารถส่งข้อมูลที่บังคับให้ระบบใช้ pickle.loads() ซึ่งเปิดทางให้รันโค้ดอันตราย ➡️ ส่งผลกระทบต่อเวอร์ชัน 0.5.0 ถึง 0.12.2 ของ pyfory ➡️ แอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองจะเสี่ยงสูง ➡️ Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 โดยลบ pickle fallback ออกไป ➡️ ไม่มี workaround ชั่วคราว ต้องอัปเดตแพตช์ทันที ✅ ข้อมูลเสริมจากภายนอก ➡️ pickle ใน Python เป็นเครื่องมือ serialization ที่ทรงพลังแต่มีความเสี่ยงสูง ➡️ การใช้ pickle กับข้อมูลที่ไม่ได้รับการตรวจสอบถือเป็นแนวทางที่ไม่ปลอดภัย ➡️ ช่องโหว่ลักษณะนี้เคยถูกใช้ในมัลแวร์และการโจมตีแบบ supply chain ➡️ Apache Fory เป็นเฟรมเวิร์กที่ใช้ในระบบ distributed และ AI pipeline หลายแห่ง ➡️ การลบ fallback serializer เป็นแนวทางที่ปลอดภัยที่สุดในการป้องกัน RCE https://securityonline.info/critical-rce-flaw-in-apache-forys-python-module-cve-2025-61622/
    SECURITYONLINE.INFO
    Critical RCE Flaw in Apache Fory’s Python Module (CVE-2025-61622)
    Apache Fory has a critical RCE vulnerability (CVE-2025-61622) in its pyfory module. An attacker can exploit an unguarded pickle fallback to execute arbitrary code.
    0 ความคิดเห็น 0 การแบ่งปัน 127 มุมมอง 0 รีวิว
  • “Cloudflare ป้องกัน DDoS ขนาด 22.2 Tbps ได้สำเร็จ — โลกไซเบอร์เข้าสู่ยุค ‘โจมตีระดับมหึมา’ ที่ต้องพึ่ง AI ป้องกันแบบเรียลไทม์”

    ในเดือนกันยายน 2025 Cloudflare ได้ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยมีมา โดยการโจมตีครั้งนี้มีขนาดถึง 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที ซึ่งมากกว่าการโจมตีครั้งก่อนหน้าถึงสองเท่า และกินเวลาทั้งหมดเพียง 40 วินาทีเท่านั้น

    แม้จะเป็นช่วงเวลาสั้น ๆ แต่ปริมาณข้อมูลที่ถูกส่งมานั้นเทียบเท่ากับการสตรีมวิดีโอ 4K จำนวนหนึ่งล้านรายการพร้อมกัน หรือการรีเฟรชหน้าเว็บจากทุกคนบนโลกพร้อมกัน 1.3 ครั้งต่อวินาที ซึ่งแสดงให้เห็นถึงความรุนแรงและความเร็วของการโจมตีในยุคใหม่

    Cloudflare ระบุว่าการป้องกันครั้งนี้ดำเนินการโดยระบบอัตโนมัติทั้งหมด โดยไม่ต้องอาศัยการตอบสนองจากมนุษย์เลย ซึ่งสะท้อนถึงความสำคัญของการใช้ AI และระบบ machine learning ในการป้องกันภัยไซเบอร์ที่เกิดขึ้นในระดับ “machine speed”

    การโจมตีครั้งนี้ถูกระบุว่าเป็นการโจมตีแบบ “UDP carpet bomb” ที่มุ่งเป้าไปยัง IP เดียว โดยใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที และสูงสุดถึง 47,000 พอร์ต โดยมีแหล่งที่มาจากกว่า 404,000 IP ทั่วโลก ซึ่งไม่ใช่การปลอมแปลง IP แต่เป็นการใช้ botnet จริงที่ชื่อว่า AISURU

    AISURU เป็น botnet ที่ประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก เช่น เราเตอร์, กล้อง IP, DVR และ NVR โดยมีการแพร่กระจายผ่านช่องโหว่ในเฟิร์มแวร์ของผู้ผลิตหลายราย เช่น Totolink, D-Link, Zyxel และ Realtek

    ข้อมูลสำคัญจากข่าว
    Cloudflare ป้องกันการโจมตี DDoS ขนาด 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที
    การโจมตีใช้เวลาเพียง 40 วินาที แต่มีปริมาณข้อมูลมหาศาล
    ระบบของ Cloudflare ตรวจจับและป้องกันโดยอัตโนมัติ ไม่ต้องใช้มนุษย์
    เป็นการโจมตีแบบ UDP carpet bomb targeting IP เดียว
    ใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที สูงสุด 47,000 พอร์ต
    แหล่งที่มาจากกว่า 404,000 IP ที่ไม่ถูกปลอมแปลง
    Botnet ที่ใช้คือ AISURU ซึ่งประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก
    AISURU แพร่ผ่านช่องโหว่ในเฟิร์มแวร์ของ Totolink, Realtek, D-Link, Zyxel และอื่น ๆ
    Cloudflare เคยป้องกันการโจมตีขนาด 11.5 Tbps และ 7.3 Tbps ก่อนหน้านี้ในปีเดียวกัน

    ข้อมูลเสริมจากภายนอก
    DDoS แบบ “hit-and-run” คือการโจมตีระยะสั้นแต่รุนแรง เพื่อหลบหลีกการตอบสนอง
    ระบบ legacy scrubbing center ไม่สามารถรับมือกับการโจมตีระดับนี้ได้ทัน
    การใช้ AI และ machine learning เป็นแนวทางใหม่ในการป้องกันภัยไซเบอร์
    Botnet ที่ใช้ IoT เป็นฐานมีแนวโน้มเพิ่มขึ้น เพราะอุปกรณ์เหล่านี้มักมีระบบความปลอดภัยต่ำ
    AISURU เคยถูกใช้โจมตีแพลตฟอร์มเกม Black Myth: Wukong และขายบริการผ่าน Telegram

    https://hackread.com/cloudflare-blocks-22-2-tbps-ddos-attack/
    🌐 “Cloudflare ป้องกัน DDoS ขนาด 22.2 Tbps ได้สำเร็จ — โลกไซเบอร์เข้าสู่ยุค ‘โจมตีระดับมหึมา’ ที่ต้องพึ่ง AI ป้องกันแบบเรียลไทม์” ในเดือนกันยายน 2025 Cloudflare ได้ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยมีมา โดยการโจมตีครั้งนี้มีขนาดถึง 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที ซึ่งมากกว่าการโจมตีครั้งก่อนหน้าถึงสองเท่า และกินเวลาทั้งหมดเพียง 40 วินาทีเท่านั้น แม้จะเป็นช่วงเวลาสั้น ๆ แต่ปริมาณข้อมูลที่ถูกส่งมานั้นเทียบเท่ากับการสตรีมวิดีโอ 4K จำนวนหนึ่งล้านรายการพร้อมกัน หรือการรีเฟรชหน้าเว็บจากทุกคนบนโลกพร้อมกัน 1.3 ครั้งต่อวินาที ซึ่งแสดงให้เห็นถึงความรุนแรงและความเร็วของการโจมตีในยุคใหม่ Cloudflare ระบุว่าการป้องกันครั้งนี้ดำเนินการโดยระบบอัตโนมัติทั้งหมด โดยไม่ต้องอาศัยการตอบสนองจากมนุษย์เลย ซึ่งสะท้อนถึงความสำคัญของการใช้ AI และระบบ machine learning ในการป้องกันภัยไซเบอร์ที่เกิดขึ้นในระดับ “machine speed” การโจมตีครั้งนี้ถูกระบุว่าเป็นการโจมตีแบบ “UDP carpet bomb” ที่มุ่งเป้าไปยัง IP เดียว โดยใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที และสูงสุดถึง 47,000 พอร์ต โดยมีแหล่งที่มาจากกว่า 404,000 IP ทั่วโลก ซึ่งไม่ใช่การปลอมแปลง IP แต่เป็นการใช้ botnet จริงที่ชื่อว่า AISURU AISURU เป็น botnet ที่ประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก เช่น เราเตอร์, กล้อง IP, DVR และ NVR โดยมีการแพร่กระจายผ่านช่องโหว่ในเฟิร์มแวร์ของผู้ผลิตหลายราย เช่น Totolink, D-Link, Zyxel และ Realtek ✅ ข้อมูลสำคัญจากข่าว ➡️ Cloudflare ป้องกันการโจมตี DDoS ขนาด 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที ➡️ การโจมตีใช้เวลาเพียง 40 วินาที แต่มีปริมาณข้อมูลมหาศาล ➡️ ระบบของ Cloudflare ตรวจจับและป้องกันโดยอัตโนมัติ ไม่ต้องใช้มนุษย์ ➡️ เป็นการโจมตีแบบ UDP carpet bomb targeting IP เดียว ➡️ ใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที สูงสุด 47,000 พอร์ต ➡️ แหล่งที่มาจากกว่า 404,000 IP ที่ไม่ถูกปลอมแปลง ➡️ Botnet ที่ใช้คือ AISURU ซึ่งประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก ➡️ AISURU แพร่ผ่านช่องโหว่ในเฟิร์มแวร์ของ Totolink, Realtek, D-Link, Zyxel และอื่น ๆ ➡️ Cloudflare เคยป้องกันการโจมตีขนาด 11.5 Tbps และ 7.3 Tbps ก่อนหน้านี้ในปีเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ DDoS แบบ “hit-and-run” คือการโจมตีระยะสั้นแต่รุนแรง เพื่อหลบหลีกการตอบสนอง ➡️ ระบบ legacy scrubbing center ไม่สามารถรับมือกับการโจมตีระดับนี้ได้ทัน ➡️ การใช้ AI และ machine learning เป็นแนวทางใหม่ในการป้องกันภัยไซเบอร์ ➡️ Botnet ที่ใช้ IoT เป็นฐานมีแนวโน้มเพิ่มขึ้น เพราะอุปกรณ์เหล่านี้มักมีระบบความปลอดภัยต่ำ ➡️ AISURU เคยถูกใช้โจมตีแพลตฟอร์มเกม Black Myth: Wukong และขายบริการผ่าน Telegram https://hackread.com/cloudflare-blocks-22-2-tbps-ddos-attack/
    HACKREAD.COM
    Cloudflare Blocks Record 22.2 Tbps DDoS Attack
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 175 มุมมอง 0 รีวิว
  • “Cap’n Web: RPC ยุคใหม่สำหรับเบราว์เซอร์ — เขียนโค้ดเหมือนเรียกฟังก์ชันปกติ แต่ทำงานข้ามเครือข่ายได้ทันที”

    Cloudflare เปิดตัว Cap’n Web ระบบ RPC (Remote Procedure Call) ใหม่ที่เขียนด้วย TypeScript ล้วน ๆ โดยออกแบบมาเพื่อใช้งานในเบราว์เซอร์, Cloudflare Workers, Node.js และทุก runtime ที่รองรับ JavaScript สมัยใหม่ จุดเด่นคือการใช้งานง่ายมาก — ไม่ต้องมี schema, ไม่ต้องมี boilerplate และใช้ JSON เป็นพื้นฐานในการสื่อสาร

    Cap’n Web เป็นญาติทางจิตวิญญาณของ Cap’n Proto ที่ Kenton Varda เคยสร้างไว้เมื่อสิบปีก่อน แต่ถูกออกแบบใหม่ให้เหมาะกับโลกเว็บ โดยเน้นความสามารถแบบ object-capability เช่น การส่งฟังก์ชันหรืออ็อบเจกต์ข้ามเครือข่ายแบบ reference, การเรียกแบบสองทาง (bidirectional), และการใช้ promise pipelining เพื่อลดจำนวนรอบการสื่อสาร

    ระบบนี้ยังรองรับการใช้งานแบบ batch ผ่าน HTTP และ WebSocket ได้ทันที โดยสามารถส่งคำสั่งหลายชุดในรอบเดียว และใช้ promise ที่ยังไม่ resolve เป็น input ของคำสั่งถัดไปได้ทันที ซึ่งช่วยลด latency อย่างมาก

    Cap’n Web ยังมีระบบความปลอดภัยแบบ capability-based ที่ช่วยให้การยืนยันตัวตนและการควบคุมสิทธิ์ทำได้ในระดับ object เช่น การเรียก authenticate() แล้วได้ session object ที่มีสิทธิ์เฉพาะตัว ไม่สามารถปลอมแปลงได้

    ที่น่าทึ่งคือ Cap’n Web รองรับการ map array แบบไม่ต้องเพิ่มรอบการสื่อสาร โดยใช้เทคนิค record-replay เพื่อแปลง callback เป็นชุดคำสั่งที่สามารถรันฝั่งเซิร์ฟเวอร์ได้โดยไม่ต้อง round-trip กลับไปยัง client

    ทั้งหมดนี้ทำให้ Cap’n Web เป็นระบบ RPC ที่ “คิดแบบ JavaScript” อย่างแท้จริง และอาจเป็นทางเลือกใหม่แทน GraphQL สำหรับแอปที่ต้องการความโต้ตอบแบบ real-time และโครงสร้าง API ที่ยืดหยุ่น

    ข้อมูลสำคัญจากข่าว
    Cap’n Web เป็น RPC system แบบใหม่ที่เขียนด้วย TypeScript ล้วน
    ใช้ JSON เป็นพื้นฐานในการสื่อสาร พร้อม pre/post-processing สำหรับ type พิเศษ
    รองรับ WebSocket, HTTP, postMessage และสามารถขยายไปยัง transport อื่นได้
    ขนาดไฟล์หลังบีบอัดต่ำกว่า 10kB และไม่มี dependency

    ความสามารถหลักของ Cap’n Web
    รองรับ bidirectional calling — server เรียก client ได้ และกลับกัน
    ส่งฟังก์ชันและอ็อบเจกต์แบบ reference ข้ามเครือข่ายได้
    ใช้ promise pipelining เพื่อลดจำนวน network round trip
    รองรับ capability-based security เช่น session object ที่ไม่สามารถปลอมได้
    รองรับ HTTP batch mode สำหรับการเรียกหลายคำสั่งในรอบเดียว
    รองรับ array.map() แบบไม่ต้อง round-trip โดยใช้ DSL ที่แปลงจาก callback

    การใช้งานกับ TypeScript
    สามารถประกาศ interface เดียวแล้วใช้ทั้ง client และ server ได้
    รองรับ auto-complete และ type checking แบบ end-to-end
    สามารถใช้ร่วมกับระบบ runtime type-checking เช่น Zod ได้

    ข้อมูลเสริมจากภายนอก
    Cap’n Proto เป็นระบบ RPC ที่ใช้ในระบบ distributed ขนาดใหญ่ เช่น Sandstorm
    GraphQL แก้ปัญหา waterfall ของ REST แต่มีข้อจำกัดด้าน composability
    Cap’n Web แก้ปัญหาเดียวกันโดยไม่ต้องใช้ schema หรือ tooling ใหม่
    Cloudflare ใช้ Cap’n Web ใน Wrangler และเริ่มทดลองใน frontend apps แล้ว

    https://blog.cloudflare.com/capnweb-javascript-rpc-library/
    🔗 “Cap’n Web: RPC ยุคใหม่สำหรับเบราว์เซอร์ — เขียนโค้ดเหมือนเรียกฟังก์ชันปกติ แต่ทำงานข้ามเครือข่ายได้ทันที” Cloudflare เปิดตัว Cap’n Web ระบบ RPC (Remote Procedure Call) ใหม่ที่เขียนด้วย TypeScript ล้วน ๆ โดยออกแบบมาเพื่อใช้งานในเบราว์เซอร์, Cloudflare Workers, Node.js และทุก runtime ที่รองรับ JavaScript สมัยใหม่ จุดเด่นคือการใช้งานง่ายมาก — ไม่ต้องมี schema, ไม่ต้องมี boilerplate และใช้ JSON เป็นพื้นฐานในการสื่อสาร Cap’n Web เป็นญาติทางจิตวิญญาณของ Cap’n Proto ที่ Kenton Varda เคยสร้างไว้เมื่อสิบปีก่อน แต่ถูกออกแบบใหม่ให้เหมาะกับโลกเว็บ โดยเน้นความสามารถแบบ object-capability เช่น การส่งฟังก์ชันหรืออ็อบเจกต์ข้ามเครือข่ายแบบ reference, การเรียกแบบสองทาง (bidirectional), และการใช้ promise pipelining เพื่อลดจำนวนรอบการสื่อสาร ระบบนี้ยังรองรับการใช้งานแบบ batch ผ่าน HTTP และ WebSocket ได้ทันที โดยสามารถส่งคำสั่งหลายชุดในรอบเดียว และใช้ promise ที่ยังไม่ resolve เป็น input ของคำสั่งถัดไปได้ทันที ซึ่งช่วยลด latency อย่างมาก Cap’n Web ยังมีระบบความปลอดภัยแบบ capability-based ที่ช่วยให้การยืนยันตัวตนและการควบคุมสิทธิ์ทำได้ในระดับ object เช่น การเรียก authenticate() แล้วได้ session object ที่มีสิทธิ์เฉพาะตัว ไม่สามารถปลอมแปลงได้ ที่น่าทึ่งคือ Cap’n Web รองรับการ map array แบบไม่ต้องเพิ่มรอบการสื่อสาร โดยใช้เทคนิค record-replay เพื่อแปลง callback เป็นชุดคำสั่งที่สามารถรันฝั่งเซิร์ฟเวอร์ได้โดยไม่ต้อง round-trip กลับไปยัง client ทั้งหมดนี้ทำให้ Cap’n Web เป็นระบบ RPC ที่ “คิดแบบ JavaScript” อย่างแท้จริง และอาจเป็นทางเลือกใหม่แทน GraphQL สำหรับแอปที่ต้องการความโต้ตอบแบบ real-time และโครงสร้าง API ที่ยืดหยุ่น ✅ ข้อมูลสำคัญจากข่าว ➡️ Cap’n Web เป็น RPC system แบบใหม่ที่เขียนด้วย TypeScript ล้วน ➡️ ใช้ JSON เป็นพื้นฐานในการสื่อสาร พร้อม pre/post-processing สำหรับ type พิเศษ ➡️ รองรับ WebSocket, HTTP, postMessage และสามารถขยายไปยัง transport อื่นได้ ➡️ ขนาดไฟล์หลังบีบอัดต่ำกว่า 10kB และไม่มี dependency ✅ ความสามารถหลักของ Cap’n Web ➡️ รองรับ bidirectional calling — server เรียก client ได้ และกลับกัน ➡️ ส่งฟังก์ชันและอ็อบเจกต์แบบ reference ข้ามเครือข่ายได้ ➡️ ใช้ promise pipelining เพื่อลดจำนวน network round trip ➡️ รองรับ capability-based security เช่น session object ที่ไม่สามารถปลอมได้ ➡️ รองรับ HTTP batch mode สำหรับการเรียกหลายคำสั่งในรอบเดียว ➡️ รองรับ array.map() แบบไม่ต้อง round-trip โดยใช้ DSL ที่แปลงจาก callback ✅ การใช้งานกับ TypeScript ➡️ สามารถประกาศ interface เดียวแล้วใช้ทั้ง client และ server ได้ ➡️ รองรับ auto-complete และ type checking แบบ end-to-end ➡️ สามารถใช้ร่วมกับระบบ runtime type-checking เช่น Zod ได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Cap’n Proto เป็นระบบ RPC ที่ใช้ในระบบ distributed ขนาดใหญ่ เช่น Sandstorm ➡️ GraphQL แก้ปัญหา waterfall ของ REST แต่มีข้อจำกัดด้าน composability ➡️ Cap’n Web แก้ปัญหาเดียวกันโดยไม่ต้องใช้ schema หรือ tooling ใหม่ ➡️ Cloudflare ใช้ Cap’n Web ใน Wrangler และเริ่มทดลองใน frontend apps แล้ว https://blog.cloudflare.com/capnweb-javascript-rpc-library/
    BLOG.CLOUDFLARE.COM
    Cap'n Web: A new RPC system for browsers and web servers
    Cap'n Web is a new open source, JavaScript-native RPC protocol for use in browsers and web servers. It provides the expressive power of Cap'n Proto, but with no schemas and no boilerplate.
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • “Local-First Apps ยังไม่เกิดจริง เพราะการ Sync ไม่ง่ายอย่างที่คิด — แต่ SQLite + HLC + CRDT อาจเป็นคำตอบ”

    แอปพลิเคชันแบบ Local-First หรือ Offline-First เคยถูกมองว่าเป็นอนาคตของการใช้งานซอฟต์แวร์ ด้วยคุณสมบัติที่โหลดเร็ว ใช้แบบไม่ต้องต่อเน็ต และให้ความเป็นส่วนตัวสูงสุด แต่ในความเป็นจริง แอปที่รองรับการทำงานแบบออฟไลน์จริง ๆ ยังมีน้อยมาก เพราะการ “ซิงก์ข้อมูล” ระหว่างอุปกรณ์หลายเครื่องนั้นยากกว่าที่คิด

    Marco Bambini ผู้ก่อตั้ง SQLite Cloud อธิบายว่า การสร้างแอปแบบ Local-First คือการสร้างระบบกระจาย (Distributed System) ที่ต้องให้หลายอุปกรณ์สามารถแก้ไขข้อมูลแบบออฟไลน์ และสุดท้ายต้องรวมข้อมูลให้ตรงกันโดยไม่สูญเสียอะไรเลย ซึ่งมีสองปัญหาหลักที่ต้องแก้คือ:

    1️⃣ ลำดับเหตุการณ์ไม่แน่นอน (Unreliable Ordering) อุปกรณ์แต่ละเครื่องมีเวลาไม่ตรงกัน และเหตุการณ์เกิดขึ้นไม่พร้อมกัน หากนำข้อมูลมารวมโดยไม่จัดลำดับให้ดี อาจเกิดความขัดแย้ง เช่น เครื่อง A ตั้งค่า x = 3 ส่วนเครื่อง B ตั้ง x = 5 แล้วใครควร “ชนะ”?

    วิธีแก้คือ Hybrid Logical Clocks (HLC) — ระบบ timestamp ที่รวมเวลาเครื่องจริงกับตัวนับเหตุการณ์ เพื่อให้สามารถเรียงลำดับเหตุการณ์ได้แม้ไม่มีนาฬิกากลาง

    2️⃣ ความขัดแย้งของข้อมูล (Conflicts) แม้จะจัดลำดับได้แล้ว แต่ถ้าอุปกรณ์สองเครื่องแก้ไขข้อมูลเดียวกัน เช่น ยอดเงินในบัญชี แล้วซิงก์เข้ามา อาจเกิดการเขียนทับและข้อมูลหาย

    วิธีแก้คือ CRDTs (Conflict-Free Replicated Data Types) — โครงสร้างข้อมูลที่สามารถรวมกันได้โดยไม่สูญเสียข้อมูล เช่น ใช้กลยุทธ์ Last-Write-Wins (LWW) ที่ให้ข้อมูลล่าสุดเป็นฝ่ายชนะ

    เพื่อให้ระบบนี้ทำงานได้จริง SQLite ถูกเลือกเป็นฐานข้อมูลหลัก เพราะมีความเสถียร ใช้งานง่าย และมีอยู่ในทุกแพลตฟอร์ม โดย Bambini ได้สร้าง SQLite extension ที่เก็บทุกการเปลี่ยนแปลงเป็น “ข้อความ” พร้อม timestamp จาก HLC และใช้ CRDT ในการตัดสินว่าเปลี่ยนแปลงใดควรนำมาใช้

    ผลลัพธ์คือระบบที่สามารถทำงานออฟไลน์ได้เป็นสัปดาห์โดยไม่สูญเสียข้อมูล และเมื่อกลับมาออนไลน์ก็สามารถรวมข้อมูลได้อย่างแม่นยำโดยไม่ต้องใช้เซิร์ฟเวอร์กลาง

    ข้อมูลสำคัญจากข่าว
    Local-First Apps ยังไม่แพร่หลายเพราะการซิงก์ข้อมูลระหว่างอุปกรณ์ทำได้ยาก
    ปัญหาหลักคือการจัดลำดับเหตุการณ์และการแก้ไขความขัดแย้งของข้อมูล
    ใช้ Hybrid Logical Clocks (HLC) เพื่อจัดลำดับเหตุการณ์แบบกระจาย
    ใช้ CRDTs เพื่อรวมข้อมูลโดยไม่สูญเสียหรือเขียนทับกัน

    แนวทางการแก้ปัญหา
    SQLite ถูกใช้เป็นฐานข้อมูลหลักเพราะเสถียรและมีอยู่ทุกแพลตฟอร์ม
    ทุกการเปลี่ยนแปลงถูกเก็บเป็นข้อความพร้อม timestamp
    ใช้กลยุทธ์ Last-Write-Wins (LWW) เพื่อเลือกข้อมูลล่าสุด
    ระบบสามารถทำงานออฟไลน์ได้นานโดยไม่สูญเสียข้อมูล

    ข้อมูลเสริมจากภายนอก
    Turso และ cr-sqlite เป็นตัวอย่างของระบบที่ใช้ SQLite ในการซิงก์แบบ Local-First
    CRDTs ถูกใช้ในระบบ collaboration เช่น Automerge และ Yjs
    HLCs ถูกใช้ในระบบฐานข้อมูลกระจาย เช่น CockroachDB และ Spanner
    Local-First Apps ช่วยลดการพึ่งพาเซิร์ฟเวอร์กลางและเพิ่มความเป็นส่วนตัว

    https://marcobambini.substack.com/p/why-local-first-apps-havent-become
    📱 “Local-First Apps ยังไม่เกิดจริง เพราะการ Sync ไม่ง่ายอย่างที่คิด — แต่ SQLite + HLC + CRDT อาจเป็นคำตอบ” แอปพลิเคชันแบบ Local-First หรือ Offline-First เคยถูกมองว่าเป็นอนาคตของการใช้งานซอฟต์แวร์ ด้วยคุณสมบัติที่โหลดเร็ว ใช้แบบไม่ต้องต่อเน็ต และให้ความเป็นส่วนตัวสูงสุด แต่ในความเป็นจริง แอปที่รองรับการทำงานแบบออฟไลน์จริง ๆ ยังมีน้อยมาก เพราะการ “ซิงก์ข้อมูล” ระหว่างอุปกรณ์หลายเครื่องนั้นยากกว่าที่คิด Marco Bambini ผู้ก่อตั้ง SQLite Cloud อธิบายว่า การสร้างแอปแบบ Local-First คือการสร้างระบบกระจาย (Distributed System) ที่ต้องให้หลายอุปกรณ์สามารถแก้ไขข้อมูลแบบออฟไลน์ และสุดท้ายต้องรวมข้อมูลให้ตรงกันโดยไม่สูญเสียอะไรเลย ซึ่งมีสองปัญหาหลักที่ต้องแก้คือ: 1️⃣ ลำดับเหตุการณ์ไม่แน่นอน (Unreliable Ordering) อุปกรณ์แต่ละเครื่องมีเวลาไม่ตรงกัน และเหตุการณ์เกิดขึ้นไม่พร้อมกัน หากนำข้อมูลมารวมโดยไม่จัดลำดับให้ดี อาจเกิดความขัดแย้ง เช่น เครื่อง A ตั้งค่า x = 3 ส่วนเครื่อง B ตั้ง x = 5 แล้วใครควร “ชนะ”? 🔧 วิธีแก้คือ Hybrid Logical Clocks (HLC) — ระบบ timestamp ที่รวมเวลาเครื่องจริงกับตัวนับเหตุการณ์ เพื่อให้สามารถเรียงลำดับเหตุการณ์ได้แม้ไม่มีนาฬิกากลาง 2️⃣ ความขัดแย้งของข้อมูล (Conflicts) แม้จะจัดลำดับได้แล้ว แต่ถ้าอุปกรณ์สองเครื่องแก้ไขข้อมูลเดียวกัน เช่น ยอดเงินในบัญชี แล้วซิงก์เข้ามา อาจเกิดการเขียนทับและข้อมูลหาย 🔧 วิธีแก้คือ CRDTs (Conflict-Free Replicated Data Types) — โครงสร้างข้อมูลที่สามารถรวมกันได้โดยไม่สูญเสียข้อมูล เช่น ใช้กลยุทธ์ Last-Write-Wins (LWW) ที่ให้ข้อมูลล่าสุดเป็นฝ่ายชนะ เพื่อให้ระบบนี้ทำงานได้จริง SQLite ถูกเลือกเป็นฐานข้อมูลหลัก เพราะมีความเสถียร ใช้งานง่าย และมีอยู่ในทุกแพลตฟอร์ม โดย Bambini ได้สร้าง SQLite extension ที่เก็บทุกการเปลี่ยนแปลงเป็น “ข้อความ” พร้อม timestamp จาก HLC และใช้ CRDT ในการตัดสินว่าเปลี่ยนแปลงใดควรนำมาใช้ ผลลัพธ์คือระบบที่สามารถทำงานออฟไลน์ได้เป็นสัปดาห์โดยไม่สูญเสียข้อมูล และเมื่อกลับมาออนไลน์ก็สามารถรวมข้อมูลได้อย่างแม่นยำโดยไม่ต้องใช้เซิร์ฟเวอร์กลาง ✅ ข้อมูลสำคัญจากข่าว ➡️ Local-First Apps ยังไม่แพร่หลายเพราะการซิงก์ข้อมูลระหว่างอุปกรณ์ทำได้ยาก ➡️ ปัญหาหลักคือการจัดลำดับเหตุการณ์และการแก้ไขความขัดแย้งของข้อมูล ➡️ ใช้ Hybrid Logical Clocks (HLC) เพื่อจัดลำดับเหตุการณ์แบบกระจาย ➡️ ใช้ CRDTs เพื่อรวมข้อมูลโดยไม่สูญเสียหรือเขียนทับกัน ✅ แนวทางการแก้ปัญหา ➡️ SQLite ถูกใช้เป็นฐานข้อมูลหลักเพราะเสถียรและมีอยู่ทุกแพลตฟอร์ม ➡️ ทุกการเปลี่ยนแปลงถูกเก็บเป็นข้อความพร้อม timestamp ➡️ ใช้กลยุทธ์ Last-Write-Wins (LWW) เพื่อเลือกข้อมูลล่าสุด ➡️ ระบบสามารถทำงานออฟไลน์ได้นานโดยไม่สูญเสียข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ Turso และ cr-sqlite เป็นตัวอย่างของระบบที่ใช้ SQLite ในการซิงก์แบบ Local-First ➡️ CRDTs ถูกใช้ในระบบ collaboration เช่น Automerge และ Yjs ➡️ HLCs ถูกใช้ในระบบฐานข้อมูลกระจาย เช่น CockroachDB และ Spanner ➡️ Local-First Apps ช่วยลดการพึ่งพาเซิร์ฟเวอร์กลางและเพิ่มความเป็นส่วนตัว https://marcobambini.substack.com/p/why-local-first-apps-havent-become
    MARCOBAMBINI.SUBSTACK.COM
    Why Local-First Apps Haven’t Become Popular?
    Offline-first apps promise instant loading and privacy, but in practice, very few apps get offline support because getting sync right is surprisingly hard.
    0 ความคิดเห็น 0 การแบ่งปัน 202 มุมมอง 0 รีวิว
  • “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า”

    Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000

    แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้

    ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย

    ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า

    Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark”

    ข้อมูลสำคัญจากข่าว
    Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB
    ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000
    คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน
    ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B

    การเปรียบเทียบกับคลัสเตอร์ Framework
    คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า
    Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน
    Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม
    การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร

    ข้อมูลเสริมจากภายนอก
    Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec
    Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่
    UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก
    บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง

    https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    🧠 “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า” Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000 แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้ ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark” ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB ➡️ ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000 ➡️ คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ➡️ ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B ✅ การเปรียบเทียบกับคลัสเตอร์ Framework ➡️ คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า ➡️ Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน ➡️ Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม ➡️ การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec ➡️ Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่ ➡️ UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก ➡️ บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    0 ความคิดเห็น 0 การแบ่งปัน 214 มุมมอง 0 รีวิว
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 ความคิดเห็น 0 การแบ่งปัน 187 มุมมอง 0 รีวิว
  • “DOOMQL: เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — เมื่อฐานข้อมูลกลายเป็นเครื่องมือสร้างโลก 3D”

    ใครจะคิดว่า SQL ซึ่งเป็นภาษาที่ใช้จัดการฐานข้อมูล จะสามารถใช้สร้างเกมยิงแบบ DOOM ได้ ล่าสุด Lukas Vogel นักวิทยาศาสตร์คอมพิวเตอร์และผู้ร่วมก่อตั้ง CedarDB ได้สร้างเกมชื่อ “DOOMQL” ซึ่งเป็นเกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย “pure SQL” ทั้งหมด โดยใช้เวลาเพียงหนึ่งเดือนระหว่างการลาคลอด

    DOOMQL ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตจากผู้เล่นและแสดงภาพ ส่วนการประมวลผลทั้งหมด — ตั้งแต่การเรนเดอร์ภาพ 3D, การเคลื่อนไหวของศัตรู, ไปจนถึงการจัดการสถานะเกม — ถูกเขียนด้วย SQL ล้วน ๆ บนฐานข้อมูล CedarDB ซึ่งทำให้เกมสามารถรันได้ที่ 30 FPS บนความละเอียด 128x64 พิกเซล

    ความพิเศษของ DOOMQL คือการใช้ฐานข้อมูลเป็น “เซิร์ฟเวอร์เกม” โดยอาศัยคุณสมบัติของ SQL เช่น transaction isolation เพื่อให้ผู้เล่นแต่ละคนเห็นสถานะเกมที่สอดคล้องกัน แม้จะมีผู้เล่นหลายคนพร้อมกัน และยังสามารถ “โกง” ได้โดยการส่งคำสั่ง SQL ตรงเข้าไปในฐานข้อมูล

    Vogel ได้แรงบันดาลใจจากโปรเจกต์ DuckDB-DOOM ซึ่งใช้ SQL ร่วมกับ JavaScript ในการเรนเดอร์ภาพ แต่เขามองว่าการใช้ JavaScript เป็น “การโกง” และต้องการพิสูจน์ว่า SQL เพียงอย่างเดียวก็สามารถสร้างเกมได้จริง แม้จะยอมรับว่า “มันอาจจะเป็นไอเดียที่แย่” ในแง่ของการดูแลรักษาและดีบัก

    จุดเด่นของ DOOMQL
    เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — ไม่มี JavaScript หรือ engine ภายนอก
    ใช้ CedarDB เป็นฐานข้อมูลหลักในการจัดการสถานะและเรนเดอร์ภาพ
    รันที่ 30 FPS บนความละเอียด 128x64 พิกเซล — เร็วกว่ารุ่น DuckDB ที่รันได้เพียง 8 FPS
    ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตและแสดงภาพ

    สถาปัตยกรรมของเกม
    ข้อมูลทั้งหมดอยู่ในตาราง SQL เช่น map, players, mobs, inputs, sprites
    การเรนเดอร์ใช้ stack ของ SQL views ที่ทำ raycasting และ sprite projection
    game loop เป็น shell script ที่รัน SQL file ประมาณ 30 ครั้งต่อวินาที
    ผู้เล่นสามารถส่งคำสั่ง SQL เพื่อเปลี่ยนสถานะเกมหรือ “โกง” ได้โดยตรง

    ข้อมูลเสริมจากภายนอก
    DuckDB-DOOM เป็นโปรเจกต์ก่อนหน้า ที่ใช้ SQL ร่วมกับ JavaScript และ WebAssembly
    DOOMQL ได้รับความสนใจจากนักพัฒนาและนักวิจัยด้านฐานข้อมูล
    CedarDB เป็นฐานข้อมูลที่ออกแบบมาเพื่อประสิทธิภาพสูงในการ query แบบ real-time
    Vogel วางแผนเพิ่มฟีเจอร์ เช่น power-ups, อาวุธหลายแบบ, AI ฝ่ายตรงข้าม และระบบ sprite ที่ดีขึ้น

    https://www.tomshardware.com/video-games/retro-gaming/doom-multiplayer-tribute-gets-coded-in-pure-sql-and-runs-at-30fps-made-from-just-150-lines-of-code-in-less-than-a-month
    🧠 “DOOMQL: เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — เมื่อฐานข้อมูลกลายเป็นเครื่องมือสร้างโลก 3D” ใครจะคิดว่า SQL ซึ่งเป็นภาษาที่ใช้จัดการฐานข้อมูล จะสามารถใช้สร้างเกมยิงแบบ DOOM ได้ ล่าสุด Lukas Vogel นักวิทยาศาสตร์คอมพิวเตอร์และผู้ร่วมก่อตั้ง CedarDB ได้สร้างเกมชื่อ “DOOMQL” ซึ่งเป็นเกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย “pure SQL” ทั้งหมด โดยใช้เวลาเพียงหนึ่งเดือนระหว่างการลาคลอด DOOMQL ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตจากผู้เล่นและแสดงภาพ ส่วนการประมวลผลทั้งหมด — ตั้งแต่การเรนเดอร์ภาพ 3D, การเคลื่อนไหวของศัตรู, ไปจนถึงการจัดการสถานะเกม — ถูกเขียนด้วย SQL ล้วน ๆ บนฐานข้อมูล CedarDB ซึ่งทำให้เกมสามารถรันได้ที่ 30 FPS บนความละเอียด 128x64 พิกเซล ความพิเศษของ DOOMQL คือการใช้ฐานข้อมูลเป็น “เซิร์ฟเวอร์เกม” โดยอาศัยคุณสมบัติของ SQL เช่น transaction isolation เพื่อให้ผู้เล่นแต่ละคนเห็นสถานะเกมที่สอดคล้องกัน แม้จะมีผู้เล่นหลายคนพร้อมกัน และยังสามารถ “โกง” ได้โดยการส่งคำสั่ง SQL ตรงเข้าไปในฐานข้อมูล Vogel ได้แรงบันดาลใจจากโปรเจกต์ DuckDB-DOOM ซึ่งใช้ SQL ร่วมกับ JavaScript ในการเรนเดอร์ภาพ แต่เขามองว่าการใช้ JavaScript เป็น “การโกง” และต้องการพิสูจน์ว่า SQL เพียงอย่างเดียวก็สามารถสร้างเกมได้จริง แม้จะยอมรับว่า “มันอาจจะเป็นไอเดียที่แย่” ในแง่ของการดูแลรักษาและดีบัก ✅ จุดเด่นของ DOOMQL ➡️ เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — ไม่มี JavaScript หรือ engine ภายนอก ➡️ ใช้ CedarDB เป็นฐานข้อมูลหลักในการจัดการสถานะและเรนเดอร์ภาพ ➡️ รันที่ 30 FPS บนความละเอียด 128x64 พิกเซล — เร็วกว่ารุ่น DuckDB ที่รันได้เพียง 8 FPS ➡️ ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตและแสดงภาพ ✅ สถาปัตยกรรมของเกม ➡️ ข้อมูลทั้งหมดอยู่ในตาราง SQL เช่น map, players, mobs, inputs, sprites ➡️ การเรนเดอร์ใช้ stack ของ SQL views ที่ทำ raycasting และ sprite projection ➡️ game loop เป็น shell script ที่รัน SQL file ประมาณ 30 ครั้งต่อวินาที ➡️ ผู้เล่นสามารถส่งคำสั่ง SQL เพื่อเปลี่ยนสถานะเกมหรือ “โกง” ได้โดยตรง ✅ ข้อมูลเสริมจากภายนอก ➡️ DuckDB-DOOM เป็นโปรเจกต์ก่อนหน้า ที่ใช้ SQL ร่วมกับ JavaScript และ WebAssembly ➡️ DOOMQL ได้รับความสนใจจากนักพัฒนาและนักวิจัยด้านฐานข้อมูล ➡️ CedarDB เป็นฐานข้อมูลที่ออกแบบมาเพื่อประสิทธิภาพสูงในการ query แบบ real-time ➡️ Vogel วางแผนเพิ่มฟีเจอร์ เช่น power-ups, อาวุธหลายแบบ, AI ฝ่ายตรงข้าม และระบบ sprite ที่ดีขึ้น https://www.tomshardware.com/video-games/retro-gaming/doom-multiplayer-tribute-gets-coded-in-pure-sql-and-runs-at-30fps-made-from-just-150-lines-of-code-in-less-than-a-month
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • “บริการป้องกัน DDoS กลายเป็นเหยื่อของการโจมตี DDoS ขนาดมหึมา — FastNetMon ตรวจจับได้ทันก่อนระบบล่ม”

    ในเหตุการณ์ที่ชวนให้ตั้งคำถามถึงความมั่นคงของโครงสร้างอินเทอร์เน็ต บริการป้องกัน DDoS รายหนึ่งในยุโรปตะวันตกกลับกลายเป็นเป้าหมายของการโจมตี DDoS ขนาดใหญ่ที่สุดครั้งหนึ่งในประวัติศาสตร์ โดยมีปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps) ซึ่งเป็นการโจมตีแบบ UDP flood ที่มาจากอุปกรณ์ลูกค้าทั่วโลกกว่า 11,000 เครือข่าย2.

    แม้จะเป็นบริการที่ออกแบบมาเพื่อป้องกันการโจมตีลักษณะนี้ แต่ครั้งนี้ก็ต้องพึ่งพาการช่วยเหลือจาก FastNetMon ซึ่งสามารถตรวจจับและบรรเทาการโจมตีได้ภายในไม่กี่วินาที ด้วยแพลตฟอร์มที่ใช้ algorithm แบบ C++ ที่ปรับแต่งมาเพื่อการวิเคราะห์ทราฟฟิกแบบเรียลไทม์

    สิ่งที่ทำให้การโจมตีครั้งนี้น่ากังวลคือการใช้ “อุปกรณ์ทั่วไปในบ้าน” เช่น เราเตอร์และ IoT ที่ถูกแฮกมาเป็นเครื่องมือโจมตี ซึ่งสะท้อนถึงแนวโน้มใหม่ของการ weaponize อุปกรณ์ผู้บริโภคในระดับมหาศาล โดย FastNetMon เตือนว่า หากไม่มีการกรองทราฟฟิกที่ระดับ ISP การโจมตีลักษณะนี้จะยิ่งขยายตัวและควบคุมได้ยาก

    แม้จะไม่ใช่การโจมตีที่ใหญ่ที่สุดในแง่ของ bandwidth (Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 พันล้านแพ็กเก็ตต่อวินาที) แต่การโจมตีครั้งนี้ก็ถือเป็นหนึ่งในระดับ packet-rate ที่ใหญ่ที่สุดเท่าที่เคยเปิดเผยต่อสาธารณะ และเป็นสัญญาณเตือนว่าโลกไซเบอร์กำลังเข้าสู่ยุคที่การโจมตีสามารถเกิดขึ้นจากอุปกรณ์ที่เราใช้อยู่ทุกวัน

    รายละเอียดของการโจมตี DDoS ครั้งใหญ่
    เป้าหมายคือผู้ให้บริการ DDoS scrubbing ในยุโรปตะวันตก
    ปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps)
    ใช้เทคนิค UDP flood จากอุปกรณ์ CPE ที่ถูกแฮก เช่น IoT และเราเตอร์
    มาจากกว่า 11,000 เครือข่ายทั่วโลก — สะท้อนการกระจายตัวระดับมหาศาล

    การตอบสนองของ FastNetMon
    ใช้แพลตฟอร์ม Advanced ที่เขียนด้วย C++ สำหรับการตรวจจับแบบเรียลไทม์
    ตรวจจับได้ภายในไม่กี่วินาที — ป้องกันระบบล่มได้ทัน
    ใช้ ACL บน edge routers เพื่อบล็อกทราฟฟิกที่เป็นอันตราย
    เตือนให้มีการกรองทราฟฟิกที่ระดับ ISP เพื่อป้องกันการโจมตีในอนาคต

    ข้อมูลเสริมจากภายนอก
    Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 Bpps เพียงไม่กี่วันก่อนหน้า
    UDP เป็นโปรโตคอลที่นิยมใช้โจมตี เพราะไม่ต้องมี handshake แบบ TCP
    อุปกรณ์ CPE ที่ไม่ได้รับการอัปเดตหรือมีรหัสผ่านเริ่มต้น เป็นเป้าหมายหลักของการแฮก
    การโจมตีแบบ packet-rate flood มุ่งทำลาย state table และ buffer ของอุปกรณ์เครือข่าย

    https://www.tomshardware.com/tech-industry/cyber-security/ddos-scrubbing-service-ironic-target-of-massive-attack-it-was-built-to-prevent-hit-with-1-5-billion-packets-per-second-from-more-than-11-000-distributed-networks
    🌐 “บริการป้องกัน DDoS กลายเป็นเหยื่อของการโจมตี DDoS ขนาดมหึมา — FastNetMon ตรวจจับได้ทันก่อนระบบล่ม” ในเหตุการณ์ที่ชวนให้ตั้งคำถามถึงความมั่นคงของโครงสร้างอินเทอร์เน็ต บริการป้องกัน DDoS รายหนึ่งในยุโรปตะวันตกกลับกลายเป็นเป้าหมายของการโจมตี DDoS ขนาดใหญ่ที่สุดครั้งหนึ่งในประวัติศาสตร์ โดยมีปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps) ซึ่งเป็นการโจมตีแบบ UDP flood ที่มาจากอุปกรณ์ลูกค้าทั่วโลกกว่า 11,000 เครือข่าย2. แม้จะเป็นบริการที่ออกแบบมาเพื่อป้องกันการโจมตีลักษณะนี้ แต่ครั้งนี้ก็ต้องพึ่งพาการช่วยเหลือจาก FastNetMon ซึ่งสามารถตรวจจับและบรรเทาการโจมตีได้ภายในไม่กี่วินาที ด้วยแพลตฟอร์มที่ใช้ algorithm แบบ C++ ที่ปรับแต่งมาเพื่อการวิเคราะห์ทราฟฟิกแบบเรียลไทม์ สิ่งที่ทำให้การโจมตีครั้งนี้น่ากังวลคือการใช้ “อุปกรณ์ทั่วไปในบ้าน” เช่น เราเตอร์และ IoT ที่ถูกแฮกมาเป็นเครื่องมือโจมตี ซึ่งสะท้อนถึงแนวโน้มใหม่ของการ weaponize อุปกรณ์ผู้บริโภคในระดับมหาศาล โดย FastNetMon เตือนว่า หากไม่มีการกรองทราฟฟิกที่ระดับ ISP การโจมตีลักษณะนี้จะยิ่งขยายตัวและควบคุมได้ยาก แม้จะไม่ใช่การโจมตีที่ใหญ่ที่สุดในแง่ของ bandwidth (Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 พันล้านแพ็กเก็ตต่อวินาที) แต่การโจมตีครั้งนี้ก็ถือเป็นหนึ่งในระดับ packet-rate ที่ใหญ่ที่สุดเท่าที่เคยเปิดเผยต่อสาธารณะ และเป็นสัญญาณเตือนว่าโลกไซเบอร์กำลังเข้าสู่ยุคที่การโจมตีสามารถเกิดขึ้นจากอุปกรณ์ที่เราใช้อยู่ทุกวัน ✅ รายละเอียดของการโจมตี DDoS ครั้งใหญ่ ➡️ เป้าหมายคือผู้ให้บริการ DDoS scrubbing ในยุโรปตะวันตก ➡️ ปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps) ➡️ ใช้เทคนิค UDP flood จากอุปกรณ์ CPE ที่ถูกแฮก เช่น IoT และเราเตอร์ ➡️ มาจากกว่า 11,000 เครือข่ายทั่วโลก — สะท้อนการกระจายตัวระดับมหาศาล ✅ การตอบสนองของ FastNetMon ➡️ ใช้แพลตฟอร์ม Advanced ที่เขียนด้วย C++ สำหรับการตรวจจับแบบเรียลไทม์ ➡️ ตรวจจับได้ภายในไม่กี่วินาที — ป้องกันระบบล่มได้ทัน ➡️ ใช้ ACL บน edge routers เพื่อบล็อกทราฟฟิกที่เป็นอันตราย ➡️ เตือนให้มีการกรองทราฟฟิกที่ระดับ ISP เพื่อป้องกันการโจมตีในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 Bpps เพียงไม่กี่วันก่อนหน้า ➡️ UDP เป็นโปรโตคอลที่นิยมใช้โจมตี เพราะไม่ต้องมี handshake แบบ TCP ➡️ อุปกรณ์ CPE ที่ไม่ได้รับการอัปเดตหรือมีรหัสผ่านเริ่มต้น เป็นเป้าหมายหลักของการแฮก ➡️ การโจมตีแบบ packet-rate flood มุ่งทำลาย state table และ buffer ของอุปกรณ์เครือข่าย https://www.tomshardware.com/tech-industry/cyber-security/ddos-scrubbing-service-ironic-target-of-massive-attack-it-was-built-to-prevent-hit-with-1-5-billion-packets-per-second-from-more-than-11-000-distributed-networks
    0 ความคิดเห็น 0 การแบ่งปัน 242 มุมมอง 0 รีวิว
  • “ย้อนอดีตสู่อนาคต: ทำไมการจัดรูปแบบโค้ดควรเป็นเรื่องไม่จำเป็นตั้งแต่ยุค 80”

    ลองจินตนาการว่า...คุณกำลังเขียนโค้ดในปี 2025 แต่ยังต้องมานั่งเถียงกันเรื่องการเว้นวรรค, การใช้ tab หรือ space, หรือแม้แต่การตั้งค่า eslint ที่ทำให้ทีมปวดหัว ทั้งที่ปัญหาเหล่านี้ “ถูกแก้ไปแล้วตั้งแต่ยุค 80”!

    บทความนี้เล่าย้อนถึงประสบการณ์ของผู้เขียนกับครูสอนคอมพิวเตอร์ในโรงเรียนมัธยมที่เคยทำงานกับคอมไพเลอร์ภาษา Ada และ Rational R1000 ซึ่งเป็น workstation ที่ล้ำหน้ามากในยุคนั้น โดยใช้ระบบที่เรียกว่า DIANA (Descriptive Intermediate Attributed Notation for Ada) แทนการเก็บ source code แบบข้อความธรรมดา

    DIANA เป็น IR (Intermediate Representation) ที่สามารถแสดงผลในรูปแบบใดก็ได้ตามที่ผู้ใช้ต้องการ โดยไม่ต้องสนใจเรื่องการจัดรูปแบบโค้ดเลย เพราะสิ่งที่แสดงออกมาเป็นเพียง “ภาพพิมพ์สวยๆ” ของโครงสร้างโปรแกรมที่แท้จริง ซึ่งถูกจัดเก็บเป็นต้นไม้ข้อมูล (program tree) และแก้ไขได้โดยตรงผ่าน editor แบบ projectional editing

    Rational R1000 ยังมีฟีเจอร์ล้ำยุค เช่น incremental compilation, semantic analysis, version control และ debugging ที่ฝังอยู่ในระบบตั้งแต่ต้น ซึ่งช่วยให้การพัฒนาโปรแกรมขนาดใหญ่เป็นไปอย่างรวดเร็วและแม่นยำ

    แม้วันนี้เราจะมีเครื่องมือที่ดีขึ้น เช่น Claude ที่ช่วย refactor โค้ดได้ง่าย แต่ในเรื่องของการจัดรูปแบบ เรากลับถอยหลัง เพราะยังต้องเสียเวลาไปกับการตั้งค่าลินเตอร์และการตกแต่งโค้ด ทั้งที่เทคโนโลยีในอดีตเคยทำให้สิ่งเหล่านี้ “ไม่จำเป็น” มาแล้ว

    แนวคิดจากยุค 80 ที่ล้ำหน้ากว่าปัจจุบัน
    DIANA เป็น IR ที่ใช้แทนการเก็บ source code แบบข้อความ
    ผู้ใช้สามารถตั้งค่าการแสดงผลโค้ดได้ตามใจ โดยไม่กระทบต่อการทำงาน
    Rational R1000 ใช้ DIANA เป็นแกนหลักในการพัฒนาโปรแกรม
    ระบบสามารถแก้ไขโครงสร้างโปรแกรมโดยตรงผ่าน projectional editing
    ไม่ต้องเถียงเรื่อง tab vs space หรือ eslint-config อีกต่อไป

    ฟีเจอร์ล้ำยุคของ Rational R1000
    มี incremental compilation สำหรับภาษา strongly typed
    รองรับ semantic analysis และ version control ในตัว
    ใช้ในการพัฒนาโปรแกรมระดับชาติ เช่น ISS และ F-22
    เป็นต้นกำเนิดของ UML โดย Grady Booch
    IDE ที่ฝังอยู่ในระบบสามารถ debug และ refactor ได้ทันที

    บทเรียนสำหรับยุคปัจจุบัน
    Claude และ AI agent ช่วยให้ refactor โค้ดได้ง่ายขึ้น
    แต่การจัดรูปแบบโค้ดยังเป็นปัญหาที่ไม่ควรมีอีกต่อไป
    ควรพิจารณาแนวทางใหม่ เช่น projectional editing หรือการใช้ IR

    คำเตือนเกี่ยวกับการพึ่งพาเครื่องมือจัดรูปแบบ
    การถกเถียงเรื่อง formatting อาจทำให้เสียเวลาโดยไม่จำเป็น
    การบังคับใช้ eslint หรือ prettier อาจสร้างความขัดแย้งในทีม
    การยึดติดกับรูปแบบโค้ดอาจบดบังเป้าหมายที่แท้จริงของการพัฒนา
    การไม่เข้าใจโครงสร้างภายในของโค้ด อาจทำให้ refactor ผิดพลาด

    https://maxleiter.com/blog/formatting
    🧾 “ย้อนอดีตสู่อนาคต: ทำไมการจัดรูปแบบโค้ดควรเป็นเรื่องไม่จำเป็นตั้งแต่ยุค 80” ลองจินตนาการว่า...คุณกำลังเขียนโค้ดในปี 2025 แต่ยังต้องมานั่งเถียงกันเรื่องการเว้นวรรค, การใช้ tab หรือ space, หรือแม้แต่การตั้งค่า eslint ที่ทำให้ทีมปวดหัว ทั้งที่ปัญหาเหล่านี้ “ถูกแก้ไปแล้วตั้งแต่ยุค 80”! บทความนี้เล่าย้อนถึงประสบการณ์ของผู้เขียนกับครูสอนคอมพิวเตอร์ในโรงเรียนมัธยมที่เคยทำงานกับคอมไพเลอร์ภาษา Ada และ Rational R1000 ซึ่งเป็น workstation ที่ล้ำหน้ามากในยุคนั้น โดยใช้ระบบที่เรียกว่า DIANA (Descriptive Intermediate Attributed Notation for Ada) แทนการเก็บ source code แบบข้อความธรรมดา DIANA เป็น IR (Intermediate Representation) ที่สามารถแสดงผลในรูปแบบใดก็ได้ตามที่ผู้ใช้ต้องการ โดยไม่ต้องสนใจเรื่องการจัดรูปแบบโค้ดเลย เพราะสิ่งที่แสดงออกมาเป็นเพียง “ภาพพิมพ์สวยๆ” ของโครงสร้างโปรแกรมที่แท้จริง ซึ่งถูกจัดเก็บเป็นต้นไม้ข้อมูล (program tree) และแก้ไขได้โดยตรงผ่าน editor แบบ projectional editing Rational R1000 ยังมีฟีเจอร์ล้ำยุค เช่น incremental compilation, semantic analysis, version control และ debugging ที่ฝังอยู่ในระบบตั้งแต่ต้น ซึ่งช่วยให้การพัฒนาโปรแกรมขนาดใหญ่เป็นไปอย่างรวดเร็วและแม่นยำ แม้วันนี้เราจะมีเครื่องมือที่ดีขึ้น เช่น Claude ที่ช่วย refactor โค้ดได้ง่าย แต่ในเรื่องของการจัดรูปแบบ เรากลับถอยหลัง เพราะยังต้องเสียเวลาไปกับการตั้งค่าลินเตอร์และการตกแต่งโค้ด ทั้งที่เทคโนโลยีในอดีตเคยทำให้สิ่งเหล่านี้ “ไม่จำเป็น” มาแล้ว ✅ แนวคิดจากยุค 80 ที่ล้ำหน้ากว่าปัจจุบัน ➡️ DIANA เป็น IR ที่ใช้แทนการเก็บ source code แบบข้อความ ➡️ ผู้ใช้สามารถตั้งค่าการแสดงผลโค้ดได้ตามใจ โดยไม่กระทบต่อการทำงาน ➡️ Rational R1000 ใช้ DIANA เป็นแกนหลักในการพัฒนาโปรแกรม ➡️ ระบบสามารถแก้ไขโครงสร้างโปรแกรมโดยตรงผ่าน projectional editing ➡️ ไม่ต้องเถียงเรื่อง tab vs space หรือ eslint-config อีกต่อไป ✅ ฟีเจอร์ล้ำยุคของ Rational R1000 ➡️ มี incremental compilation สำหรับภาษา strongly typed ➡️ รองรับ semantic analysis และ version control ในตัว ➡️ ใช้ในการพัฒนาโปรแกรมระดับชาติ เช่น ISS และ F-22 ➡️ เป็นต้นกำเนิดของ UML โดย Grady Booch ➡️ IDE ที่ฝังอยู่ในระบบสามารถ debug และ refactor ได้ทันที ✅ บทเรียนสำหรับยุคปัจจุบัน ➡️ Claude และ AI agent ช่วยให้ refactor โค้ดได้ง่ายขึ้น ➡️ แต่การจัดรูปแบบโค้ดยังเป็นปัญหาที่ไม่ควรมีอีกต่อไป ➡️ ควรพิจารณาแนวทางใหม่ เช่น projectional editing หรือการใช้ IR ‼️ คำเตือนเกี่ยวกับการพึ่งพาเครื่องมือจัดรูปแบบ ⛔ การถกเถียงเรื่อง formatting อาจทำให้เสียเวลาโดยไม่จำเป็น ⛔ การบังคับใช้ eslint หรือ prettier อาจสร้างความขัดแย้งในทีม ⛔ การยึดติดกับรูปแบบโค้ดอาจบดบังเป้าหมายที่แท้จริงของการพัฒนา ⛔ การไม่เข้าใจโครงสร้างภายในของโค้ด อาจทำให้ refactor ผิดพลาด https://maxleiter.com/blog/formatting
    MAXLEITER.COM
    Max Leiter
    and we knew this back in the 80s
    0 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว

    Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ

    ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime

    ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น

    ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7

    นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที

    สเปกหลักของ GIGABYTE XL44-SX2-AAS1
    ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
    แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
    ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว

    ความสามารถด้านการเชื่อมต่อและประมวลผล
    รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
    มี 2×400GbE external connections สำหรับ data center traffic
    รองรับ GPU-to-GPU direct communication สำหรับ distributed AI

    ฮาร์ดแวร์ระดับ data center
    Dual Intel Xeon 6700/6500 series CPU
    รองรับ DDR5 DIMM สูงสุด 32 แถว
    พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium

    ซอฟต์แวร์และการใช้งาน
    มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
    รองรับงาน AI inference, physical AI, 3D simulation, video processing
    ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization

    การใช้งานในอุตสาหกรรม
    เหมาะกับ smart manufacturing, financial modeling, medical research
    รองรับ LLM inference และการสร้าง digital twins
    พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025

    https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7 นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที ✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1 ➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว ➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32 ➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว ✅ ความสามารถด้านการเชื่อมต่อและประมวลผล ➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU ➡️ มี 2×400GbE external connections สำหรับ data center traffic ➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI ✅ ฮาร์ดแวร์ระดับ data center ➡️ Dual Intel Xeon 6700/6500 series CPU ➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว ➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium ✅ ซอฟต์แวร์และการใช้งาน ➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos ➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing ➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization ✅ การใช้งานในอุตสาหกรรม ➡️ เหมาะกับ smart manufacturing, financial modeling, medical research ➡️ รองรับ LLM inference และการสร้าง digital twins ➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025 https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    WWW.TECHPOWERUP.COM
    Giga Computing Expands NVIDIA RTX PRO Server Portfolio
    Giga Computing, a subsidiary of GIGABYTE Group, today announced the availability of the XL44-SX2-AAS1 server, integrating NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs with the NVIDIA BlueField-3 DPU and NVIDIA ConnectX-8 SuperNICs, this breakthrough platform unifies computing and high-speed dat...
    0 ความคิดเห็น 0 การแบ่งปัน 232 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก 11.5 Tbps: เมื่อ DDoS ไม่ใช่แค่การโจมตี แต่คือการทดสอบโครงสร้างพื้นฐานของโลกออนไลน์

    ในเดือนกันยายน 2025 Cloudflare ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยบันทึกไว้ โดยมีความแรงถึง 11.5 Tbps และกินเวลาราว 35 วินาที แม้จะสั้น แต่ก็เพียงพอที่จะทำให้โครงสร้างพื้นฐานของอินเทอร์เน็ต “สะเทือน” หากไม่มีระบบป้องกันที่แข็งแกร่ง

    การโจมตีครั้งนี้มาในรูปแบบ UDP flood ซึ่งเป็นการส่งข้อมูลแบบไร้การเชื่อมต่อจากอุปกรณ์ที่ถูกแฮ็ก เช่น IoT และ cloud VM จากหลายผู้ให้บริการ โดยในช่วงแรกมีการระบุว่า Google Cloud เป็นแหล่งหลักของทราฟฟิก แต่ภายหลังพบว่าเป็นการรวมกันจากหลายแหล่งที่ถูกควบคุมโดย botnet

    เพื่อให้เห็นภาพ—11.5 Tbps เทียบเท่ากับการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน หรือการดาวน์โหลดข้อมูลหลายสิบเทราไบต์ในเวลาไม่ถึงนาที

    แม้จะเป็นการโจมตีที่ใหญ่ที่สุด แต่ Cloudflare ระบุว่า “ขนาด” ไม่ใช่สิ่งสำคัญที่สุด การโจมตีที่อันตรายจริงคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง ซึ่งสามารถทำให้ API ล่ม, เว็บไซต์ไม่ตอบสนอง หรือธุรกิจหยุดชะงักได้

    RETN ซึ่งเป็นผู้ให้บริการเครือข่ายระดับโลกเสริมว่า สิ่งที่วัดผลได้จริงคือ “ระบบยังออนไลน์อยู่หรือไม่” และพวกเขาได้เพิ่มความสามารถในการกรองข้อมูล (scrubbing capacity) มากกว่า 5000% เพื่อรับมือกับการโจมตีระดับนี้

    รายละเอียดของการโจมตี
    เป็น DDoS แบบ UDP flood ที่มีความแรงสูงสุด 11.5 Tbps
    กินเวลาประมาณ 35 วินาทีโดยไม่มีผลกระทบต่อบริการของ Cloudflare
    ทราฟฟิกมาจากอุปกรณ์ IoT และ cloud VM ที่ถูกควบคุมโดย botnet

    ความหมายของขนาดการโจมตี
    เทียบเท่าการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน
    เป็นการทดสอบความสามารถของระบบอินเทอร์เน็ตระดับโลก
    Cloudflare เคยรับมือกับการโจมตี 7.3 Tbps ในเดือนมิถุนายน และ 5.6 Tbps ในปี 2024

    มุมมองจากผู้เชี่ยวชาญ
    William Manzione จาก RETN ระบุว่า “ขนาดไม่ใช่ทุกอย่าง”
    การโจมตีที่อันตรายคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง
    RETN เพิ่ม scrubbing capacity มากกว่า 5000% เพื่อรับมือกับ multi-terabit flood

    ประสิทธิภาพของระบบป้องกัน
    Cloudflare ใช้ระบบอัตโนมัติในการตรวจจับและบล็อกการโจมตี
    ไม่มีการหยุดชะงักของเว็บไซต์หรือ API ของลูกค้า
    แสดงถึงความสามารถในการป้องกันแบบ real-time ที่มีประสิทธิภาพสูง

    https://hackread.com/cloudflare-mitigates-largest-ddos-attack-11-5-tbps/
    🎙️ เรื่องเล่าจาก 11.5 Tbps: เมื่อ DDoS ไม่ใช่แค่การโจมตี แต่คือการทดสอบโครงสร้างพื้นฐานของโลกออนไลน์ ในเดือนกันยายน 2025 Cloudflare ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยบันทึกไว้ โดยมีความแรงถึง 11.5 Tbps และกินเวลาราว 35 วินาที แม้จะสั้น แต่ก็เพียงพอที่จะทำให้โครงสร้างพื้นฐานของอินเทอร์เน็ต “สะเทือน” หากไม่มีระบบป้องกันที่แข็งแกร่ง การโจมตีครั้งนี้มาในรูปแบบ UDP flood ซึ่งเป็นการส่งข้อมูลแบบไร้การเชื่อมต่อจากอุปกรณ์ที่ถูกแฮ็ก เช่น IoT และ cloud VM จากหลายผู้ให้บริการ โดยในช่วงแรกมีการระบุว่า Google Cloud เป็นแหล่งหลักของทราฟฟิก แต่ภายหลังพบว่าเป็นการรวมกันจากหลายแหล่งที่ถูกควบคุมโดย botnet เพื่อให้เห็นภาพ—11.5 Tbps เทียบเท่ากับการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน หรือการดาวน์โหลดข้อมูลหลายสิบเทราไบต์ในเวลาไม่ถึงนาที แม้จะเป็นการโจมตีที่ใหญ่ที่สุด แต่ Cloudflare ระบุว่า “ขนาด” ไม่ใช่สิ่งสำคัญที่สุด การโจมตีที่อันตรายจริงคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง ซึ่งสามารถทำให้ API ล่ม, เว็บไซต์ไม่ตอบสนอง หรือธุรกิจหยุดชะงักได้ RETN ซึ่งเป็นผู้ให้บริการเครือข่ายระดับโลกเสริมว่า สิ่งที่วัดผลได้จริงคือ “ระบบยังออนไลน์อยู่หรือไม่” และพวกเขาได้เพิ่มความสามารถในการกรองข้อมูล (scrubbing capacity) มากกว่า 5000% เพื่อรับมือกับการโจมตีระดับนี้ ✅ รายละเอียดของการโจมตี ➡️ เป็น DDoS แบบ UDP flood ที่มีความแรงสูงสุด 11.5 Tbps ➡️ กินเวลาประมาณ 35 วินาทีโดยไม่มีผลกระทบต่อบริการของ Cloudflare ➡️ ทราฟฟิกมาจากอุปกรณ์ IoT และ cloud VM ที่ถูกควบคุมโดย botnet ✅ ความหมายของขนาดการโจมตี ➡️ เทียบเท่าการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน ➡️ เป็นการทดสอบความสามารถของระบบอินเทอร์เน็ตระดับโลก ➡️ Cloudflare เคยรับมือกับการโจมตี 7.3 Tbps ในเดือนมิถุนายน และ 5.6 Tbps ในปี 2024 ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ William Manzione จาก RETN ระบุว่า “ขนาดไม่ใช่ทุกอย่าง” ➡️ การโจมตีที่อันตรายคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง ➡️ RETN เพิ่ม scrubbing capacity มากกว่า 5000% เพื่อรับมือกับ multi-terabit flood ✅ ประสิทธิภาพของระบบป้องกัน ➡️ Cloudflare ใช้ระบบอัตโนมัติในการตรวจจับและบล็อกการโจมตี ➡️ ไม่มีการหยุดชะงักของเว็บไซต์หรือ API ของลูกค้า ➡️ แสดงถึงความสามารถในการป้องกันแบบ real-time ที่มีประสิทธิภาพสูง https://hackread.com/cloudflare-mitigates-largest-ddos-attack-11-5-tbps/
    HACKREAD.COM
    Cloudflare Mitigates Largest Ever Recorded DDoS Attack at 11.5 Tbps
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • Mythic Words From Mythologies Around The World

    It’s in human nature to tell stories and in many ways, our stories—our mythologies—work their way into every aspect of our daily lives, from meme culture to the language we speak. You may be familiar with some of the words derived from the names of Greek and Roman gods and characters (herculean, echo, narcissist, to name a few). But some of the words with similar origins are more obscure and may surprise you, and still others are drawn from completely different cultural lineages! Many of our modern words are inspired not only by Greco-Roman mythos but also by West African, Indigenous, Far East Asian, and Nordic folktales, gods, heroes, and legends.

    Here’s a closer look at some of our everyday words and the many diverse mythologies that have contributed to their use and interpretation today.

    California

    While many of us might view the Golden State as the land of sunshine, mild winters, and plenty, this idyllic image of California is first glimpsed in Garci Rodríguez de Montalvo’s novel Las Sergas de Esplandián (“The Adventures of Esplandián”) from the 1500s. At a time when Spanish invasion and exploration of the Americas was at its peak, Las Sergas de Esplandián describes a fictional island ruled by Queen Calafia of the Indies, hence the name “California.” It’s possible Rodríguez de Montalvo derived California from the Arabic khalif or khalifa (a spiritual leader of Islam), or the term Califerne from the 11th-century epic French poem The Song of Roland. When the Spanish first encountered the Baja California peninsula, it was initially believed to be an island and so was dubbed for the fictional island in Rodríguez de Montalvo’s novel. Eventually, this name would apply to the region that we now know as California in the US and Baja California in Mexico today.

    chimeric

    Chimeric is an adjective used to describe something “imaginary, fanciful” or in the context of biology, chimeric describes an organism “having parts of different origins.” The word chimeric is derived from the name of an ancient Greek monster, the chimera. Typically depicted as a having both a goat and lion head sprouting from its back and a serpent as a tail, the chimera was a terrifying and formidable opponent.

    hell

    While this word may call to mind Christianity and the realm of demons and condemned souls, hell is also associated with another concept of the underworld. According to Norse mythology, the prominent god Odin appointed the goddess and daughter of Loki, Hel, to preside over the realm of the dead. Hel’s name subsequently became associated as the word for the underworld itself. The word hell entered Old English sometime before the year 900 CE.

    hurricane

    When a windstorm whips up torrential rains, it can definitely seem like a god’s fury has been called down. This might explain why hurricane is derived from a Taíno storm god, Hurakán. The Taíno were an Indigenous tribe of the Caribbean, so it certainly makes sense that their deities would hold the name now associated with major tropical storms. Working its way from Spanish into English, hurricane was likely first recorded in English around the mid-1500s.

    Nike

    Typically depicted with wings, Nike was the Greek goddess of victory. Her influence was not limited to athletics, and she could oversee any field from art to music to war. Nike is said to have earned this title as one of the first deities to offer her allegiance to Zeus during the Titanomachy, the great battle between the Titans and gods for Mount Olympus. Of course, with a winning streak like that, it’s no wonder a popular sports apparel company would name itself after her.

    plutocracy

    Plutocracy means “the rule or power of wealth” or “of the wealthy, particularly a government or state in which the wealthy class rules.” The pluto in plutocracy comes from the Roman god of wealth, Pluto. Often known best by his Greek name, Hades, Pluto also presided over the underworld. Where does the wealth factor in? Precious metals and gems are typically found underground. The word plutocracy was recorded in the English language around 1645–1655.

    protean

    The adjective protean [ proh-tee-uhn ] describes how something readily assumes different forms, shapes, or characteristics. Something that is protean is “extremely variable.” This word originates from the name of Proteus, a minor Greek sea god who served under Poseidon. Proteus was prophetic and said to be able to gaze into the past, present, and future. However, he was pretty stingy with his knowledge, so most challengers would have to surprise him and wrestle him—while Proteus continually transformed into different (usually dangerous) shapes, such as a lion or a snake! If the challenger held on throughout the transformations, Proteus would answer their question truthfully before jumping back into the sea.

    quetzalcoatlus

    Quetzalcoatlus is a genus of pterosaur from the Late Cretaceous period. Its remains were discovered in 1971 in Texas. As a flying dinosaur from the Americas, its name derives from the god Quetzalcóatl, or “the feathered serpent,” in Nahuatl. Often depicted as exactly that (in addition to having incarnations that ranged from axolotls to dogs to corn), Quetzalcóatl was a prominent god of creation and order in the pantheon of the Mexica people. His domain included powerful and sustaining forces such as the sun, the wind, agriculture, wisdom, and writing.

    ragnarok

    Popping up everywhere from video games to blockbuster movies, the word ragnarok [ rahg-nuh-rok ] just sounds cool. It’s typically used as a synonym for the end of the world—and that’s what it originally referred to. In Norse mythology, this apocalyptic moment will occur when three roosters crow and the monster hound, Garmr, breaks free of his cave. A frightening battle among gods ensues along with natural disasters. The Old Norse word Ragnarǫk that it derives from is a compound of “gods” (ragna) and “fate” (rok).

    Subaru

    Known in most of the English-speaking world as a popular car manufacturer, Subaru is a Japanese word for the Seven Sisters, or Pleiades, constellation. The Subaru logo even features the six stars visible to the naked eye in the constellation. In 2021, astronomers Ray and Barnaby Norris proposed that the constellation referred to as “Seven Sisters” by various ancient peoples (which today looks like six visible stars) once had a seventh visible star whose light has been swallowed up by the light of another.

    Tuesday/Wednesday/Thursday/Friday/Saturday

    If we want an example of mythology rooted in our day-to-day, we needn’t look any further than the days of the week. Initially, Romans named their days of the week after the planets, which included the sun and the moon (Sunday and Monday). As the Roman Empire expanded to include Germanic-speaking peoples, the names of the weekdays were adapted to reflect the names of gods familiar to the local populations.

    Today, five out of seven days of the week are linked to the names of mythological gods, four of which are Old Germanic/Norse in origin. Tuesday is rooted in the name of the Norse god of war and justice, Tyr. Wednesday descends from Woden (alternatively, Odin), a widely revered Germanic-Norse god who presided over healing, wisdom, death, war, poetry, and sorcery. Thursday is derived from the thunder god Thor. Finally, Friday owes its name to Frigg, the goddess of marriage, prophecy, clairvoyance, and motherhood. The outlier of the weekday group is Saturday, which traces its name back to Saturn, the Roman god of time, wealth, and renewal.

    While scholars are uncertain as to when the Germanic-Norse adaptations of the days of the week were introduced, it is estimated to have occurred between 200-500 CE to predate the spread of Christianity and the final collapse of the Roman Empire.

    weird

    While weird today generally means “bizarre” or “unusual,” its older use has been to refer to something that is “uncanny” or relating to the supernatural. This links into the original definition of weird, or then wyrd, as being able to control fate or destiny. The Old English derivation of the Germanic word was first recorded before 900 CE as wyrd; then in Middle English as the phrase werde sisters, which referred to the Fates. According to Greek mythology, the three goddesses known as the Fates control the destinies of the lives of man. In the early 1600s, Shakespeare’s Macbeth, used werde sisters to refer to these witches in the play.

    © 2025, Aakkhra, All rights reserved.
    Mythic Words From Mythologies Around The World It’s in human nature to tell stories and in many ways, our stories—our mythologies—work their way into every aspect of our daily lives, from meme culture to the language we speak. You may be familiar with some of the words derived from the names of Greek and Roman gods and characters (herculean, echo, narcissist, to name a few). But some of the words with similar origins are more obscure and may surprise you, and still others are drawn from completely different cultural lineages! Many of our modern words are inspired not only by Greco-Roman mythos but also by West African, Indigenous, Far East Asian, and Nordic folktales, gods, heroes, and legends. Here’s a closer look at some of our everyday words and the many diverse mythologies that have contributed to their use and interpretation today. California While many of us might view the Golden State as the land of sunshine, mild winters, and plenty, this idyllic image of California is first glimpsed in Garci Rodríguez de Montalvo’s novel Las Sergas de Esplandián (“The Adventures of Esplandián”) from the 1500s. At a time when Spanish invasion and exploration of the Americas was at its peak, Las Sergas de Esplandián describes a fictional island ruled by Queen Calafia of the Indies, hence the name “California.” It’s possible Rodríguez de Montalvo derived California from the Arabic khalif or khalifa (a spiritual leader of Islam), or the term Califerne from the 11th-century epic French poem The Song of Roland. When the Spanish first encountered the Baja California peninsula, it was initially believed to be an island and so was dubbed for the fictional island in Rodríguez de Montalvo’s novel. Eventually, this name would apply to the region that we now know as California in the US and Baja California in Mexico today. chimeric Chimeric is an adjective used to describe something “imaginary, fanciful” or in the context of biology, chimeric describes an organism “having parts of different origins.” The word chimeric is derived from the name of an ancient Greek monster, the chimera. Typically depicted as a having both a goat and lion head sprouting from its back and a serpent as a tail, the chimera was a terrifying and formidable opponent. hell While this word may call to mind Christianity and the realm of demons and condemned souls, hell is also associated with another concept of the underworld. According to Norse mythology, the prominent god Odin appointed the goddess and daughter of Loki, Hel, to preside over the realm of the dead. Hel’s name subsequently became associated as the word for the underworld itself. The word hell entered Old English sometime before the year 900 CE. hurricane When a windstorm whips up torrential rains, it can definitely seem like a god’s fury has been called down. This might explain why hurricane is derived from a Taíno storm god, Hurakán. The Taíno were an Indigenous tribe of the Caribbean, so it certainly makes sense that their deities would hold the name now associated with major tropical storms. Working its way from Spanish into English, hurricane was likely first recorded in English around the mid-1500s. Nike Typically depicted with wings, Nike was the Greek goddess of victory. Her influence was not limited to athletics, and she could oversee any field from art to music to war. Nike is said to have earned this title as one of the first deities to offer her allegiance to Zeus during the Titanomachy, the great battle between the Titans and gods for Mount Olympus. Of course, with a winning streak like that, it’s no wonder a popular sports apparel company would name itself after her. plutocracy Plutocracy means “the rule or power of wealth” or “of the wealthy, particularly a government or state in which the wealthy class rules.” The pluto in plutocracy comes from the Roman god of wealth, Pluto. Often known best by his Greek name, Hades, Pluto also presided over the underworld. Where does the wealth factor in? Precious metals and gems are typically found underground. The word plutocracy was recorded in the English language around 1645–1655. protean The adjective protean [ proh-tee-uhn ] describes how something readily assumes different forms, shapes, or characteristics. Something that is protean is “extremely variable.” This word originates from the name of Proteus, a minor Greek sea god who served under Poseidon. Proteus was prophetic and said to be able to gaze into the past, present, and future. However, he was pretty stingy with his knowledge, so most challengers would have to surprise him and wrestle him—while Proteus continually transformed into different (usually dangerous) shapes, such as a lion or a snake! If the challenger held on throughout the transformations, Proteus would answer their question truthfully before jumping back into the sea. quetzalcoatlus Quetzalcoatlus is a genus of pterosaur from the Late Cretaceous period. Its remains were discovered in 1971 in Texas. As a flying dinosaur from the Americas, its name derives from the god Quetzalcóatl, or “the feathered serpent,” in Nahuatl. Often depicted as exactly that (in addition to having incarnations that ranged from axolotls to dogs to corn), Quetzalcóatl was a prominent god of creation and order in the pantheon of the Mexica people. His domain included powerful and sustaining forces such as the sun, the wind, agriculture, wisdom, and writing. ragnarok Popping up everywhere from video games to blockbuster movies, the word ragnarok [ rahg-nuh-rok ] just sounds cool. It’s typically used as a synonym for the end of the world—and that’s what it originally referred to. In Norse mythology, this apocalyptic moment will occur when three roosters crow and the monster hound, Garmr, breaks free of his cave. A frightening battle among gods ensues along with natural disasters. The Old Norse word Ragnarǫk that it derives from is a compound of “gods” (ragna) and “fate” (rok). Subaru Known in most of the English-speaking world as a popular car manufacturer, Subaru is a Japanese word for the Seven Sisters, or Pleiades, constellation. The Subaru logo even features the six stars visible to the naked eye in the constellation. In 2021, astronomers Ray and Barnaby Norris proposed that the constellation referred to as “Seven Sisters” by various ancient peoples (which today looks like six visible stars) once had a seventh visible star whose light has been swallowed up by the light of another. Tuesday/Wednesday/Thursday/Friday/Saturday If we want an example of mythology rooted in our day-to-day, we needn’t look any further than the days of the week. Initially, Romans named their days of the week after the planets, which included the sun and the moon (Sunday and Monday). As the Roman Empire expanded to include Germanic-speaking peoples, the names of the weekdays were adapted to reflect the names of gods familiar to the local populations. Today, five out of seven days of the week are linked to the names of mythological gods, four of which are Old Germanic/Norse in origin. Tuesday is rooted in the name of the Norse god of war and justice, Tyr. Wednesday descends from Woden (alternatively, Odin), a widely revered Germanic-Norse god who presided over healing, wisdom, death, war, poetry, and sorcery. Thursday is derived from the thunder god Thor. Finally, Friday owes its name to Frigg, the goddess of marriage, prophecy, clairvoyance, and motherhood. The outlier of the weekday group is Saturday, which traces its name back to Saturn, the Roman god of time, wealth, and renewal. While scholars are uncertain as to when the Germanic-Norse adaptations of the days of the week were introduced, it is estimated to have occurred between 200-500 CE to predate the spread of Christianity and the final collapse of the Roman Empire. weird While weird today generally means “bizarre” or “unusual,” its older use has been to refer to something that is “uncanny” or relating to the supernatural. This links into the original definition of weird, or then wyrd, as being able to control fate or destiny. The Old English derivation of the Germanic word was first recorded before 900 CE as wyrd; then in Middle English as the phrase werde sisters, which referred to the Fates. According to Greek mythology, the three goddesses known as the Fates control the destinies of the lives of man. In the early 1600s, Shakespeare’s Macbeth, used werde sisters to refer to these witches in the play. © 2025, Aakkhra, All rights reserved.
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 658 มุมมอง 0 รีวิว
  • Rapper Bot – จากเครือข่ายโจมตีระดับโลก สู่การล่มสลายด้วยหมายจับเดียว

    ในเดือนสิงหาคม 2025 Ethan Foltz ชายวัย 22 ปีจากรัฐโอเรกอน ถูกจับกุมโดยเจ้าหน้าที่ของกระทรวงยุติธรรมสหรัฐฯ (DoJ) หลังถูกกล่าวหาว่าเป็นผู้สร้างและบริหาร “Rapper Bot” เครือข่าย DDoS-for-hire ที่ถูกใช้ในการโจมตีมากกว่า 370,000 ครั้งทั่วโลก

    Rapper Bot เป็นมัลแวร์ที่แพร่กระจายผ่านอุปกรณ์ทั่วไป เช่น DVR และ WiFi router โดยแฮกเกอร์สามารถควบคุมอุปกรณ์เหล่านี้ได้มากถึง 95,000 เครื่อง และใช้เป็นฐานยิงข้อมูลมหาศาลเพื่อโจมตีเป้าหมายแบบ DDoS (Distributed Denial of Service)

    เป้าหมายของการโจมตีมีตั้งแต่หน่วยงานรัฐบาล สื่อสังคมออนไลน์ ไปจนถึงบริษัทเทคโนโลยีในสหรัฐฯ โดยบางครั้งการโจมตีมีขนาดสูงถึง 6 Tbps ซึ่งสามารถทำให้ระบบล่มได้ภายในไม่กี่วินาที

    Foltzถูกกล่าวหาว่าให้บริการเช่าเครือข่ายนี้แก่ลูกค้าทั่วโลกในรูปแบบ “DDoS-for-hire” และบางรายยังใช้เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อด้วย

    การจับกุมครั้งนี้เป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ซึ่งเป็นความร่วมมือระหว่างหน่วยงานระหว่างประเทศในการปราบปรามบริการ DDoS-for-hire โดยก่อนหน้านี้ในปี 2024 มีการยึดโดเมนที่เกี่ยวข้องถึง 27 แห่ง

    สรุปเนื้อหาเป็นหัวข้อ
    Ethan Foltz อายุ 22 ปี ถูกจับในรัฐโอเรกอน ฐานสร้างและบริหาร Rapper Bot
    Rapper Bot เป็นเครือข่าย DDoS-for-hire ที่ควบคุมอุปกรณ์ได้ถึง 95,000 เครื่อง
    ใช้มัลแวร์เจาะ DVR และ WiFi router เพื่อสร้าง botnet
    มีการโจมตีมากกว่า 370,000 ครั้งต่อ 18,000 เหยื่อใน 80 ประเทศ
    ขนาดการโจมตีสูงสุดถึง 6 Tbps ซึ่งถือว่าใหญ่ที่สุดในประวัติศาสตร์ DDoS
    เป้าหมายรวมถึงหน่วยงานรัฐบาล สื่อสังคม และบริษัทเทคโนโลยีสหรัฐฯ
    ลูกค้าบางรายใช้ Rapper Bot เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อ
    การจับกุมเป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ที่ปราบปรามบริการ DDoS-for-hire
    หลังการจับกุม ไม่มีรายงานการโจมตีจาก Rapper Bot เพิ่มเติม
    Foltz ถูกตั้งข้อหาสนับสนุนการบุกรุกระบบคอมพิวเตอร์ และอาจถูกจำคุกสูงสุด 10 ปี

    ข้อมูลเสริมจากภายนอก
    DDoS ขนาด 2–3 Tbps สามารถทำให้เว็บไซต์หรือบริการล่มได้ภายในไม่กี่วินาที
    ค่าเสียหายจากการโจมตี 30 วินาทีอาจสูงถึง $10,000 ต่อครั้ง
    Botnet ที่ใช้ IoT device เป็นเป้าหมายหลัก เพราะมีความปลอดภัยต่ำ
    Rapper Bot เคยถูกเรียกอีกชื่อว่า “Eleven Eleven Botnet” และ “CowBot”
    การจับกุมครั้งนี้ได้รับการสนับสนุนจากหน่วยงานความมั่นคงของกระทรวงกลาโหมสหรัฐฯ

    https://www.techradar.com/pro/security/hacker-behind-rapper-bot-ddos-for-hire-botnet-which-carried-out-over-370-000-attacks-arrested
    🎙️ Rapper Bot – จากเครือข่ายโจมตีระดับโลก สู่การล่มสลายด้วยหมายจับเดียว ในเดือนสิงหาคม 2025 Ethan Foltz ชายวัย 22 ปีจากรัฐโอเรกอน ถูกจับกุมโดยเจ้าหน้าที่ของกระทรวงยุติธรรมสหรัฐฯ (DoJ) หลังถูกกล่าวหาว่าเป็นผู้สร้างและบริหาร “Rapper Bot” เครือข่าย DDoS-for-hire ที่ถูกใช้ในการโจมตีมากกว่า 370,000 ครั้งทั่วโลก Rapper Bot เป็นมัลแวร์ที่แพร่กระจายผ่านอุปกรณ์ทั่วไป เช่น DVR และ WiFi router โดยแฮกเกอร์สามารถควบคุมอุปกรณ์เหล่านี้ได้มากถึง 95,000 เครื่อง และใช้เป็นฐานยิงข้อมูลมหาศาลเพื่อโจมตีเป้าหมายแบบ DDoS (Distributed Denial of Service) เป้าหมายของการโจมตีมีตั้งแต่หน่วยงานรัฐบาล สื่อสังคมออนไลน์ ไปจนถึงบริษัทเทคโนโลยีในสหรัฐฯ โดยบางครั้งการโจมตีมีขนาดสูงถึง 6 Tbps ซึ่งสามารถทำให้ระบบล่มได้ภายในไม่กี่วินาที Foltzถูกกล่าวหาว่าให้บริการเช่าเครือข่ายนี้แก่ลูกค้าทั่วโลกในรูปแบบ “DDoS-for-hire” และบางรายยังใช้เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อด้วย การจับกุมครั้งนี้เป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ซึ่งเป็นความร่วมมือระหว่างหน่วยงานระหว่างประเทศในการปราบปรามบริการ DDoS-for-hire โดยก่อนหน้านี้ในปี 2024 มีการยึดโดเมนที่เกี่ยวข้องถึง 27 แห่ง 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Ethan Foltz อายุ 22 ปี ถูกจับในรัฐโอเรกอน ฐานสร้างและบริหาร Rapper Bot ➡️ Rapper Bot เป็นเครือข่าย DDoS-for-hire ที่ควบคุมอุปกรณ์ได้ถึง 95,000 เครื่อง ➡️ ใช้มัลแวร์เจาะ DVR และ WiFi router เพื่อสร้าง botnet ➡️ มีการโจมตีมากกว่า 370,000 ครั้งต่อ 18,000 เหยื่อใน 80 ประเทศ ➡️ ขนาดการโจมตีสูงสุดถึง 6 Tbps ซึ่งถือว่าใหญ่ที่สุดในประวัติศาสตร์ DDoS ➡️ เป้าหมายรวมถึงหน่วยงานรัฐบาล สื่อสังคม และบริษัทเทคโนโลยีสหรัฐฯ ➡️ ลูกค้าบางรายใช้ Rapper Bot เพื่อข่มขู่เรียกค่าไถ่จากเหยื่อ ➡️ การจับกุมเป็นส่วนหนึ่งของปฏิบัติการ PowerOFF ที่ปราบปรามบริการ DDoS-for-hire ➡️ หลังการจับกุม ไม่มีรายงานการโจมตีจาก Rapper Bot เพิ่มเติม ➡️ Foltz ถูกตั้งข้อหาสนับสนุนการบุกรุกระบบคอมพิวเตอร์ และอาจถูกจำคุกสูงสุด 10 ปี ✅ ข้อมูลเสริมจากภายนอก ➡️ DDoS ขนาด 2–3 Tbps สามารถทำให้เว็บไซต์หรือบริการล่มได้ภายในไม่กี่วินาที ➡️ ค่าเสียหายจากการโจมตี 30 วินาทีอาจสูงถึง $10,000 ต่อครั้ง ➡️ Botnet ที่ใช้ IoT device เป็นเป้าหมายหลัก เพราะมีความปลอดภัยต่ำ ➡️ Rapper Bot เคยถูกเรียกอีกชื่อว่า “Eleven Eleven Botnet” และ “CowBot” ➡️ การจับกุมครั้งนี้ได้รับการสนับสนุนจากหน่วยงานความมั่นคงของกระทรวงกลาโหมสหรัฐฯ https://www.techradar.com/pro/security/hacker-behind-rapper-bot-ddos-for-hire-botnet-which-carried-out-over-370-000-attacks-arrested
    0 ความคิดเห็น 0 การแบ่งปัน 320 มุมมอง 0 รีวิว
  • เรื่องเล่าจากความตั้งใจล้วน ๆ: สร้างเว็บเสิร์ชเอนจินจากศูนย์ใน 2 เดือน ด้วย embedding 3 พันล้านรายการ

    Wilson Lin นักพัฒนาสายเดี่ยวตัดสินใจท้าทายตัวเองด้วยโปรเจกต์สุดโหด—สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายในเวลาแค่ 2 เดือน โดยไม่มีโครงสร้างพื้นฐาน ไม่มีทีม และไม่มีประสบการณ์ด้าน search engine มาก่อน จุดเริ่มต้นของเขาคือความไม่พอใจต่อเสิร์ชเอนจินปัจจุบันที่เต็มไปด้วย SEO spam และผลลัพธ์ที่ไม่ตรงกับความต้องการจริง

    เขาเลือกใช้โมเดล SBERT เพื่อสร้าง neural embeddings กว่า 3 พันล้านรายการ โดยใช้ GPU ถึง 200 ตัว และสร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า ด้วยระบบ crawler ที่สามารถดึงข้อมูลได้ถึง 50,000 หน้า/วินาที

    ระบบ backend ใช้ RocksDB และ HNSW ที่ถูกแบ่ง shard บน 200 คอร์, RAM 4 TB และ SSD 82 TB โดยมี latency เฉลี่ยต่อคำค้นอยู่ที่ประมาณ 500 มิลลิวินาที

    เขายังออกแบบระบบให้รองรับ query ที่ซับซ้อน เช่น “ฉันอยากใช้ S3 แทน Postgres แต่ต้องการ tag คอมเมนต์กับไฟล์ในอีก column” ซึ่ง search engine ทั่วไปไม่สามารถตอบได้ แต่ระบบของเขาสามารถเข้าใจบริบทและตอบได้อย่างแม่นยำ

    Wilson Lin สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายใน 2 เดือน
    ใช้ GPU 200 ตัวสร้าง SBERT embeddings กว่า 3 พันล้านรายการ

    ระบบ crawler ดึงข้อมูลได้ 50,000 หน้า/วินาที
    สร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า

    ใช้ RocksDB และ HNSW บน 200 คอร์, RAM 4 TB, SSD 82 TB
    latency เฉลี่ยต่อ query อยู่ที่ 500 มิลลิวินาที

    รองรับ query ซับซ้อนที่ search engine ทั่วไปไม่เข้าใจ
    เช่นคำถามที่มีบริบทหลายชั้นและความหมายแฝง

    มีระบบ semantic context และ statement chaining เพื่อเข้าใจความหมาย
    ช่วยให้ผลลัพธ์ตรงกับเจตนาของผู้ใช้มากขึ้น

    เปิดให้ทดลองใช้งานผ่าน live demo
    เป็นตัวอย่างของ search engine ที่ไม่พึ่ง keyword matching

    Semantic search ใช้ vector embeddings เพื่อเข้าใจความหมายของข้อความ
    ต่างจาก keyword search ที่จับคำตรงตัว

    การสร้าง search engine ต้องใช้ความรู้หลายด้าน
    เช่น NLP, ML, distributed systems, performance engineering

    ระบบ semantic search สามารถเข้าใจความสัมพันธ์ระหว่างคำ
    เช่น “dog” กับ “puppy” หรือ “laptop” กับ “computer”

    การสร้าง golden dataset สำหรับ training เป็นความท้าทายใหญ่
    เพราะต้องมีข้อมูลที่สะท้อนความหมายจริงของคำค้น

    https://blog.wilsonl.in/search-engine/
    🔍🧠 เรื่องเล่าจากความตั้งใจล้วน ๆ: สร้างเว็บเสิร์ชเอนจินจากศูนย์ใน 2 เดือน ด้วย embedding 3 พันล้านรายการ Wilson Lin นักพัฒนาสายเดี่ยวตัดสินใจท้าทายตัวเองด้วยโปรเจกต์สุดโหด—สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายในเวลาแค่ 2 เดือน โดยไม่มีโครงสร้างพื้นฐาน ไม่มีทีม และไม่มีประสบการณ์ด้าน search engine มาก่อน จุดเริ่มต้นของเขาคือความไม่พอใจต่อเสิร์ชเอนจินปัจจุบันที่เต็มไปด้วย SEO spam และผลลัพธ์ที่ไม่ตรงกับความต้องการจริง เขาเลือกใช้โมเดล SBERT เพื่อสร้าง neural embeddings กว่า 3 พันล้านรายการ โดยใช้ GPU ถึง 200 ตัว และสร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า ด้วยระบบ crawler ที่สามารถดึงข้อมูลได้ถึง 50,000 หน้า/วินาที ระบบ backend ใช้ RocksDB และ HNSW ที่ถูกแบ่ง shard บน 200 คอร์, RAM 4 TB และ SSD 82 TB โดยมี latency เฉลี่ยต่อคำค้นอยู่ที่ประมาณ 500 มิลลิวินาที เขายังออกแบบระบบให้รองรับ query ที่ซับซ้อน เช่น “ฉันอยากใช้ S3 แทน Postgres แต่ต้องการ tag คอมเมนต์กับไฟล์ในอีก column” ซึ่ง search engine ทั่วไปไม่สามารถตอบได้ แต่ระบบของเขาสามารถเข้าใจบริบทและตอบได้อย่างแม่นยำ ✅ Wilson Lin สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายใน 2 เดือน ➡️ ใช้ GPU 200 ตัวสร้าง SBERT embeddings กว่า 3 พันล้านรายการ ✅ ระบบ crawler ดึงข้อมูลได้ 50,000 หน้า/วินาที ➡️ สร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า ✅ ใช้ RocksDB และ HNSW บน 200 คอร์, RAM 4 TB, SSD 82 TB ➡️ latency เฉลี่ยต่อ query อยู่ที่ 500 มิลลิวินาที ✅ รองรับ query ซับซ้อนที่ search engine ทั่วไปไม่เข้าใจ ➡️ เช่นคำถามที่มีบริบทหลายชั้นและความหมายแฝง ✅ มีระบบ semantic context และ statement chaining เพื่อเข้าใจความหมาย ➡️ ช่วยให้ผลลัพธ์ตรงกับเจตนาของผู้ใช้มากขึ้น ✅ เปิดให้ทดลองใช้งานผ่าน live demo ➡️ เป็นตัวอย่างของ search engine ที่ไม่พึ่ง keyword matching ✅ Semantic search ใช้ vector embeddings เพื่อเข้าใจความหมายของข้อความ ➡️ ต่างจาก keyword search ที่จับคำตรงตัว ✅ การสร้าง search engine ต้องใช้ความรู้หลายด้าน ➡️ เช่น NLP, ML, distributed systems, performance engineering ✅ ระบบ semantic search สามารถเข้าใจความสัมพันธ์ระหว่างคำ ➡️ เช่น “dog” กับ “puppy” หรือ “laptop” กับ “computer” ✅ การสร้าง golden dataset สำหรับ training เป็นความท้าทายใหญ่ ➡️ เพราะต้องมีข้อมูลที่สะท้อนความหมายจริงของคำค้น https://blog.wilsonl.in/search-engine/
    0 ความคิดเห็น 0 การแบ่งปัน 319 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกโปรโตคอล: MCP กับการละเลยหลักการ RPC ที่สั่งสมมากว่า 40 ปี

    Model Context Protocol หรือ MCP ถูกเสนอให้เป็น “USB-C สำหรับ AI tools” ด้วยความเรียบง่ายที่ทำให้นักพัฒนาสามารถเชื่อมต่อเครื่องมือ AI ได้ภายในไม่กี่ชั่วโมง แต่ Julien Simon ผู้เชี่ยวชาญด้าน distributed systems เตือนว่า ความง่ายนี้อาจกลายเป็นระเบิดเวลาในระบบ production ขององค์กร

    MCP ใช้ JSON-RPC 2.0 เป็นพื้นฐาน โดยไม่บังคับใช้ schema หรือการตรวจสอบชนิดข้อมูลแบบเข้มงวด ทำให้เกิดปัญหาเมื่อเครื่องมือ AI รับข้อมูลผิดประเภท เช่น timestamp ที่ควรเป็น ISO-8601 กลับกลายเป็น Unix epoch ซึ่งอาจทำให้โมเดล “หลอน” หรือให้คำตอบผิดพลาดโดยไม่แจ้งข้อผิดพลาด

    ในอดีต RPC อย่าง UNIX RPC, CORBA, REST และ gRPC ได้พัฒนาหลักการที่ช่วยให้ระบบต่างภาษาและต่างสถาปัตยกรรมสามารถสื่อสารกันได้อย่างปลอดภัย เช่นการใช้ IDL, XDR, และการตรวจสอบชนิดข้อมูลตั้งแต่ขั้นตอน build-time แต่ MCP กลับละเลยสิ่งเหล่านี้ทั้งหมด

    ผลคือองค์กรที่รีบใช้ MCP เพราะกระแส AI อาจต้องเผชิญกับปัญหาการแปลข้อมูลผิดพลาด การจัดการข้อผิดพลาดที่ไม่สอดคล้องกัน และการ debug ที่ต้องใช้ความรู้เฉพาะในแต่ละภาษา ไม่ใช่แค่ความเข้าใจในโปรโตคอล

    MCP ถูกเสนอให้เป็นโปรโตคอลกลางสำหรับการเชื่อมต่อ AI tools
    ใช้ JSON-RPC 2.0 เป็นพื้นฐานการสื่อสาร

    MCP ไม่บังคับใช้ schema หรือการตรวจสอบชนิดข้อมูลแบบเข้มงวด
    ทำให้เกิดปัญหาเมื่อข้อมูลไม่ตรงตามที่เครื่องมือคาดหวัง

    Julien Simon เตือนว่า MCP ละเลยหลักการ RPC ที่สั่งสมมากว่า 40 ปี
    เช่น IDL, XDR, การตรวจสอบชนิดข้อมูล และการจัดการข้อผิดพลาด

    MCP ถูกนำไปใช้ใน production โดยองค์กรที่เร่งตามกระแส AI
    แม้จะยังไม่พร้อมในด้านความเสถียรและความปลอดภัย

    ความแตกต่างในการ encode JSON ระหว่างภาษา เช่น Python กับ JavaScript
    ทำให้เกิดปัญหาการแปลข้อมูลและการ debug ที่ซับซ้อน

    https://julsimon.medium.com/why-mcps-disregard-for-40-years-of-rpc-best-practices-will-burn-enterprises-8ef85ce5bc9b
    🧠📡 เรื่องเล่าจากโลกโปรโตคอล: MCP กับการละเลยหลักการ RPC ที่สั่งสมมากว่า 40 ปี Model Context Protocol หรือ MCP ถูกเสนอให้เป็น “USB-C สำหรับ AI tools” ด้วยความเรียบง่ายที่ทำให้นักพัฒนาสามารถเชื่อมต่อเครื่องมือ AI ได้ภายในไม่กี่ชั่วโมง แต่ Julien Simon ผู้เชี่ยวชาญด้าน distributed systems เตือนว่า ความง่ายนี้อาจกลายเป็นระเบิดเวลาในระบบ production ขององค์กร MCP ใช้ JSON-RPC 2.0 เป็นพื้นฐาน โดยไม่บังคับใช้ schema หรือการตรวจสอบชนิดข้อมูลแบบเข้มงวด ทำให้เกิดปัญหาเมื่อเครื่องมือ AI รับข้อมูลผิดประเภท เช่น timestamp ที่ควรเป็น ISO-8601 กลับกลายเป็น Unix epoch ซึ่งอาจทำให้โมเดล “หลอน” หรือให้คำตอบผิดพลาดโดยไม่แจ้งข้อผิดพลาด ในอดีต RPC อย่าง UNIX RPC, CORBA, REST และ gRPC ได้พัฒนาหลักการที่ช่วยให้ระบบต่างภาษาและต่างสถาปัตยกรรมสามารถสื่อสารกันได้อย่างปลอดภัย เช่นการใช้ IDL, XDR, และการตรวจสอบชนิดข้อมูลตั้งแต่ขั้นตอน build-time แต่ MCP กลับละเลยสิ่งเหล่านี้ทั้งหมด ผลคือองค์กรที่รีบใช้ MCP เพราะกระแส AI อาจต้องเผชิญกับปัญหาการแปลข้อมูลผิดพลาด การจัดการข้อผิดพลาดที่ไม่สอดคล้องกัน และการ debug ที่ต้องใช้ความรู้เฉพาะในแต่ละภาษา ไม่ใช่แค่ความเข้าใจในโปรโตคอล ✅ MCP ถูกเสนอให้เป็นโปรโตคอลกลางสำหรับการเชื่อมต่อ AI tools ➡️ ใช้ JSON-RPC 2.0 เป็นพื้นฐานการสื่อสาร ✅ MCP ไม่บังคับใช้ schema หรือการตรวจสอบชนิดข้อมูลแบบเข้มงวด ➡️ ทำให้เกิดปัญหาเมื่อข้อมูลไม่ตรงตามที่เครื่องมือคาดหวัง ✅ Julien Simon เตือนว่า MCP ละเลยหลักการ RPC ที่สั่งสมมากว่า 40 ปี ➡️ เช่น IDL, XDR, การตรวจสอบชนิดข้อมูล และการจัดการข้อผิดพลาด ✅ MCP ถูกนำไปใช้ใน production โดยองค์กรที่เร่งตามกระแส AI ➡️ แม้จะยังไม่พร้อมในด้านความเสถียรและความปลอดภัย ✅ ความแตกต่างในการ encode JSON ระหว่างภาษา เช่น Python กับ JavaScript ➡️ ทำให้เกิดปัญหาการแปลข้อมูลและการ debug ที่ซับซ้อน https://julsimon.medium.com/why-mcps-disregard-for-40-years-of-rpc-best-practices-will-burn-enterprises-8ef85ce5bc9b
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: SK hynix แซง Samsung ขึ้นเป็นเบอร์หนึ่งของโลก—ชัยชนะจาก HBM ที่ขับเคลื่อน AI

    ในไตรมาส 2 ปี 2025 SK hynix สร้างประวัติศาสตร์ด้วยรายได้จากธุรกิจหน่วยความจำสูงถึง $9.66 พันล้าน แซงหน้า Samsung ที่ทำได้ $8.94 พันล้าน และครองส่วนแบ่งตลาด 36.2% เทียบกับ 33.5% ของคู่แข่ง นี่เป็นครั้งแรกที่ SK hynix ขึ้นนำตั้งแต่ก่อตั้งในปี 1983

    เบื้องหลังความสำเร็จคือการรุกเข้าสู่ตลาด High-Bandwidth Memory (HBM) อย่างรวดเร็ว โดยเฉพาะ HBM3 และ HBM3E ที่กลายเป็นหัวใจของการประมวลผล AI บน GPU ของ Nvidia เช่น B300 และ L40S

    ในขณะที่ Samsung ยังครองตลาด NAND และ DRAM แบบดั้งเดิม แต่กลับล่าช้าในการส่งมอบ HBM3E ให้ลูกค้า ทำให้เสียโอกาสในตลาดที่เติบโตเร็วที่สุดในยุค AI

    https://www.tomshardware.com/tech-industry/sk-hynix-dethrones-samsung-to-become-worlds-top-selling-memory-maker-for-the-first-time-success-mostly-attributed-to-its-hbm3-dominance-for-nvidias-ai-gpus
    🎙️ เรื่องเล่าจากข่าว: SK hynix แซง Samsung ขึ้นเป็นเบอร์หนึ่งของโลก—ชัยชนะจาก HBM ที่ขับเคลื่อน AI ในไตรมาส 2 ปี 2025 SK hynix สร้างประวัติศาสตร์ด้วยรายได้จากธุรกิจหน่วยความจำสูงถึง $9.66 พันล้าน แซงหน้า Samsung ที่ทำได้ $8.94 พันล้าน และครองส่วนแบ่งตลาด 36.2% เทียบกับ 33.5% ของคู่แข่ง นี่เป็นครั้งแรกที่ SK hynix ขึ้นนำตั้งแต่ก่อตั้งในปี 1983 เบื้องหลังความสำเร็จคือการรุกเข้าสู่ตลาด High-Bandwidth Memory (HBM) อย่างรวดเร็ว โดยเฉพาะ HBM3 และ HBM3E ที่กลายเป็นหัวใจของการประมวลผล AI บน GPU ของ Nvidia เช่น B300 และ L40S ในขณะที่ Samsung ยังครองตลาด NAND และ DRAM แบบดั้งเดิม แต่กลับล่าช้าในการส่งมอบ HBM3E ให้ลูกค้า ทำให้เสียโอกาสในตลาดที่เติบโตเร็วที่สุดในยุค AI https://www.tomshardware.com/tech-industry/sk-hynix-dethrones-samsung-to-become-worlds-top-selling-memory-maker-for-the-first-time-success-mostly-attributed-to-its-hbm3-dominance-for-nvidias-ai-gpus
    0 ความคิดเห็น 0 การแบ่งปัน 244 มุมมอง 0 รีวิว
  • เรื่องเล่าจากแนวรบไซเบอร์: เมื่อยูเครนโจมตีรัสเซียด้วยข้อมูลแทนกระสุน

    ในช่วงปลายเดือนกรกฎาคม 2025 ยูเครนได้เปิดปฏิบัติการไซเบอร์สองแนวพร้อมกัน:

    1️⃣ การโจมตีแหลมไครเมีย หน่วยข่าวกรองทหารยูเครน (HUR) เปิดปฏิบัติการพิเศษด้วยการโจมตีแบบ DDoS (Distributed Denial-of-Service) ใส่ระบบสารสนเทศของหน่วยงานปกครองรัสเซียในไครเมีย ส่งผลให้ระบบเครือข่ายและข้อมูลของรัฐบาลท้องถิ่นเป็นอัมพาต พร้อมกับการขโมยข้อมูลกว่า 100TB ก่อนลบข้อมูลทั้งหมดออกจากเซิร์ฟเวอร์

    2️⃣ การโจมตีสายการบิน Aeroflot กลุ่มแฮกเกอร์ Silent Crow และ Belarusian Cyber Partisans อ้างว่าได้แทรกซึมระบบของ Aeroflot มานานกว่า 1 ปี ก่อนจะทำลายเซิร์ฟเวอร์กว่า 7,000 เครื่อง ทำให้ต้องยกเลิกเที่ยวบินกว่า 100 เที่ยว และเว็บไซต์ของบริษัทใช้งานไม่ได้3

    ทั้งสองปฏิบัติการนี้เกิดขึ้นหลังจากยูเครนร่วมมือกับกลุ่ม BO Team และ Ukrainian Cyber Alliance โจมตีบริษัท Gaskar Group ผู้ผลิตโดรนรายใหญ่ของรัสเซีย ทำลายข้อมูลกว่า 47TB และทำให้การผลิตโดรนหยุดชะงัก

    ยูเครนโจมตีไซเบอร์ใส่หน่วยงานรัสเซียในแหลมไครเมีย
    ใช้ DDoS ทำให้ระบบเครือข่ายของรัฐบาลท้องถิ่นเป็นอัมพาต
    ขโมยข้อมูลกว่า 100TB ก่อนลบออกจากเซิร์ฟเวอร์ทั้งหมด

    สายการบิน Aeroflot ถูกโจมตีโดย Silent Crow และ Cyber Partisans
    ทำลายเซิร์ฟเวอร์กว่า 7,000 เครื่อง และระบบ IT ทั้งหมดของบริษัท3
    ยกเลิกเที่ยวบินกว่า 100 เที่ยว และเว็บไซต์ใช้งานไม่ได้

    กลุ่มแฮกเกอร์ Silent Crow แทรกซึมระบบ Aeroflot มานานกว่า 1 ปี
    ขโมยข้อมูลผู้โดยสาร, อีเมลภายใน, และไฟล์เสียงการสื่อสาร6
    ขู่ว่าจะเปิดเผยข้อมูลส่วนตัวของผู้โดยสารทั้งหมดในอนาคต

    การโจมตี Gaskar Group ทำให้การผลิตโดรนของรัสเซียหยุดชะงัก
    ข้อมูลการออกแบบโดรนและซอร์สโค้ดถูกขโมยและส่งให้กองทัพยูเครน5
    ระบบบัญชี, การผลิต และอินเทอร์เน็ตของบริษัทถูกทำลาย

    ยูเครนใช้ไซเบอร์เป็นยุทธศาสตร์หลักในการทำสงคราม
    มุ่งโจมตีโครงสร้างพื้นฐานของรัสเซียแทนการปะทะโดยตรง
    สร้างความเสียหายเชิงยุทธศาสตร์โดยไม่ต้องใช้ระเบิด

    การโจมตีไซเบอร์อาจส่งผลกระทบต่อพลเรือนและข้อมูลส่วนบุคคล
    ข้อมูลผู้โดยสาร Aeroflot ถูกขโมยและอาจถูกเปิดเผยสาธารณะ3
    เสี่ยงต่อการละเมิดสิทธิส่วนบุคคลและความปลอดภัยของประชาชน

    การโจมตีโครงสร้างพื้นฐานอาจนำไปสู่การตอบโต้ที่รุนแรงจากรัสเซีย
    รัสเซียอาจเพิ่มมาตรการตอบโต้ทางไซเบอร์หรือทางทหาร
    เสี่ยงต่อการขยายความขัดแย้งไปยังประเทศพันธมิตร

    การใช้ DDoS เป็นเครื่องมือเบี่ยงเบนความสนใจอาจทำให้การป้องกันล่าช้า
    องค์กรอาจไม่ทันสังเกตการโจมตีหลักที่เกิดขึ้นพร้อมกัน
    ต้องใช้ทรัพยากรเพิ่มในการตรวจสอบและป้องกันหลายแนวทาง

    การโจมตีแบบทำลายข้อมูลอาจทำให้การฟื้นฟูระบบเป็นไปได้ยาก
    Aeroflot และ Gaskar อาจต้องใช้เวลาหลายเดือนในการกู้คืนระบบ
    หากไม่มีสำรองข้อมูลแบบออฟไลน์ อาจสูญเสียข้อมูลถาวร

    https://www.tomshardware.com/tech-industry/cyber-security/ukraine-strikes-back-at-russia-launches-cyberattack-on-forces-in-crimea-as-independent-hackers-target-airline-aeroflot-grounding-dozens-of-planes
    🎙️ เรื่องเล่าจากแนวรบไซเบอร์: เมื่อยูเครนโจมตีรัสเซียด้วยข้อมูลแทนกระสุน ในช่วงปลายเดือนกรกฎาคม 2025 ยูเครนได้เปิดปฏิบัติการไซเบอร์สองแนวพร้อมกัน: 1️⃣ การโจมตีแหลมไครเมีย หน่วยข่าวกรองทหารยูเครน (HUR) เปิดปฏิบัติการพิเศษด้วยการโจมตีแบบ DDoS (Distributed Denial-of-Service) ใส่ระบบสารสนเทศของหน่วยงานปกครองรัสเซียในไครเมีย ส่งผลให้ระบบเครือข่ายและข้อมูลของรัฐบาลท้องถิ่นเป็นอัมพาต พร้อมกับการขโมยข้อมูลกว่า 100TB ก่อนลบข้อมูลทั้งหมดออกจากเซิร์ฟเวอร์ 2️⃣ การโจมตีสายการบิน Aeroflot กลุ่มแฮกเกอร์ Silent Crow และ Belarusian Cyber Partisans อ้างว่าได้แทรกซึมระบบของ Aeroflot มานานกว่า 1 ปี ก่อนจะทำลายเซิร์ฟเวอร์กว่า 7,000 เครื่อง ทำให้ต้องยกเลิกเที่ยวบินกว่า 100 เที่ยว และเว็บไซต์ของบริษัทใช้งานไม่ได้3 ทั้งสองปฏิบัติการนี้เกิดขึ้นหลังจากยูเครนร่วมมือกับกลุ่ม BO Team และ Ukrainian Cyber Alliance โจมตีบริษัท Gaskar Group ผู้ผลิตโดรนรายใหญ่ของรัสเซีย ทำลายข้อมูลกว่า 47TB และทำให้การผลิตโดรนหยุดชะงัก ✅ ยูเครนโจมตีไซเบอร์ใส่หน่วยงานรัสเซียในแหลมไครเมีย ➡️ ใช้ DDoS ทำให้ระบบเครือข่ายของรัฐบาลท้องถิ่นเป็นอัมพาต ➡️ ขโมยข้อมูลกว่า 100TB ก่อนลบออกจากเซิร์ฟเวอร์ทั้งหมด ✅ สายการบิน Aeroflot ถูกโจมตีโดย Silent Crow และ Cyber Partisans ➡️ ทำลายเซิร์ฟเวอร์กว่า 7,000 เครื่อง และระบบ IT ทั้งหมดของบริษัท3 ➡️ ยกเลิกเที่ยวบินกว่า 100 เที่ยว และเว็บไซต์ใช้งานไม่ได้ ✅ กลุ่มแฮกเกอร์ Silent Crow แทรกซึมระบบ Aeroflot มานานกว่า 1 ปี ➡️ ขโมยข้อมูลผู้โดยสาร, อีเมลภายใน, และไฟล์เสียงการสื่อสาร6 ➡️ ขู่ว่าจะเปิดเผยข้อมูลส่วนตัวของผู้โดยสารทั้งหมดในอนาคต ✅ การโจมตี Gaskar Group ทำให้การผลิตโดรนของรัสเซียหยุดชะงัก ➡️ ข้อมูลการออกแบบโดรนและซอร์สโค้ดถูกขโมยและส่งให้กองทัพยูเครน5 ➡️ ระบบบัญชี, การผลิต และอินเทอร์เน็ตของบริษัทถูกทำลาย ✅ ยูเครนใช้ไซเบอร์เป็นยุทธศาสตร์หลักในการทำสงคราม ➡️ มุ่งโจมตีโครงสร้างพื้นฐานของรัสเซียแทนการปะทะโดยตรง ➡️ สร้างความเสียหายเชิงยุทธศาสตร์โดยไม่ต้องใช้ระเบิด ‼️ การโจมตีไซเบอร์อาจส่งผลกระทบต่อพลเรือนและข้อมูลส่วนบุคคล ⛔ ข้อมูลผู้โดยสาร Aeroflot ถูกขโมยและอาจถูกเปิดเผยสาธารณะ3 ⛔ เสี่ยงต่อการละเมิดสิทธิส่วนบุคคลและความปลอดภัยของประชาชน ‼️ การโจมตีโครงสร้างพื้นฐานอาจนำไปสู่การตอบโต้ที่รุนแรงจากรัสเซีย ⛔ รัสเซียอาจเพิ่มมาตรการตอบโต้ทางไซเบอร์หรือทางทหาร ⛔ เสี่ยงต่อการขยายความขัดแย้งไปยังประเทศพันธมิตร ‼️ การใช้ DDoS เป็นเครื่องมือเบี่ยงเบนความสนใจอาจทำให้การป้องกันล่าช้า ⛔ องค์กรอาจไม่ทันสังเกตการโจมตีหลักที่เกิดขึ้นพร้อมกัน ⛔ ต้องใช้ทรัพยากรเพิ่มในการตรวจสอบและป้องกันหลายแนวทาง ‼️ การโจมตีแบบทำลายข้อมูลอาจทำให้การฟื้นฟูระบบเป็นไปได้ยาก ⛔ Aeroflot และ Gaskar อาจต้องใช้เวลาหลายเดือนในการกู้คืนระบบ ⛔ หากไม่มีสำรองข้อมูลแบบออฟไลน์ อาจสูญเสียข้อมูลถาวร https://www.tomshardware.com/tech-industry/cyber-security/ukraine-strikes-back-at-russia-launches-cyberattack-on-forces-in-crimea-as-independent-hackers-target-airline-aeroflot-grounding-dozens-of-planes
    WWW.TOMSHARDWARE.COM
    Ukraine strikes back at Russia — launches cyberattack on forces in Crimea as independent hackers target airline Aeroflot, grounding dozens of planes
    The first was a sustained distributed denial-of-service attack on Crimean forces; the second was reportedly destructive.
    0 ความคิดเห็น 0 การแบ่งปัน 418 มุมมอง 0 รีวิว
  • เรื่องเล่าจากศูนย์ข้อมูล: เมื่อจีนมีพลังคอมพิวเตอร์เหลือใช้ แต่ยังขายไม่ได้

    Tom’s Hardware รายงานว่า จีนกำลังพัฒนาเครือข่ายระดับประเทศเพื่อขายพลังประมวลผลส่วนเกินจากศูนย์ข้อมูล ที่ไม่ได้ใช้งานเต็มประสิทธิภาพ โดยมีเป้าหมายเพื่อเพิ่มการใช้ทรัพยากรให้คุ้มค่าและสนับสนุนการเติบโตของ AI และคลาวด์ในประเทศ แต่ก็เผชิญกับอุปสรรคสำคัญ เช่น ความล่าช้าในการเชื่อมต่อ (latency) และ ความหลากหลายของฮาร์ดแวร์ ที่ทำให้การรวมระบบเป็นเรื่องยาก

    จีนเคยผลักดันยุทธศาสตร์ “Eastern Data, Western Computing” โดยให้สร้างศูนย์ข้อมูลในพื้นที่ตะวันตกที่ค่าไฟถูก เพื่อรองรับความต้องการจากเมืองเศรษฐกิจฝั่งตะวันออก แต่ความจริงกลับไม่เป็นไปตามแผน:
    - ศูนย์ข้อมูลหลายแห่งใช้งานเพียง 20–30% ของความสามารถ
    - รัฐลงทุนไปกว่า $3.4 พันล้านในปี 2024 แต่ผลตอบแทนยังไม่คุ้ม
    - มีโครงการถูกยกเลิกกว่า 100 แห่งใน 18 เดือนที่ผ่านมา

    เพื่อแก้ปัญหา รัฐบาลจีนจึงเตรียมสร้าง เครือข่ายคลาวด์ระดับชาติ โดยรวมพลังประมวลผลที่เหลือจากศูนย์ต่าง ๆ มาให้บริการผ่านระบบรวมศูนย์ โดยร่วมมือกับ China Mobile, China Telecom และ China Unicom

    แต่ก็มีอุปสรรคใหญ่:
    - ความล่าช้าในการเชื่อมต่อจากศูนย์ข้อมูลในพื้นที่ห่างไกล
    - ความหลากหลายของฮาร์ดแวร์ เช่น บางแห่งใช้ Nvidia CUDA บางแห่งใช้ Huawei CANN ทำให้รวมกันไม่ได้ง่าย

    แม้จะมีความท้าทาย แต่รัฐบาลยังคงมุ่งมั่น เพราะเชื่อว่าแนวทางนี้จะช่วยให้การลงทุนใน AI และคลาวด์มีประสิทธิภาพมากขึ้น

    ศูนย์ข้อมูลในพื้นที่ห่างไกลมักมีค่าไฟถูก แต่ latency สูง
    ไม่เหมาะกับงานที่ต้องการความเร็วตอบสนองทันที

    การรวมพลังประมวลผลแบบ distributed computing ต้องใช้ระบบจัดการที่ซับซ้อน
    เช่น Kubernetes, scheduling algorithms และระบบ billing ที่แม่นยำ

    ความหลากหลายของฮาร์ดแวร์ในคลาวด์อาจต้องใช้ containerization หรือ virtualization
    เพื่อให้ผู้ใช้งานเลือกได้ว่าจะใช้ GPU แบบไหน

    การสร้างเครือข่ายคลาวด์ระดับชาติอาจช่วยลดการพึ่งพา hyperscalers ต่างชาติ
    เช่น AWS, Azure และ Google Cloud

    https://www.tomshardware.com/desktops/servers/china-is-developing-nation-spanning-network-to-sell-surplus-data-center-compute-power-latency-disparate-hardware-are-key-hurdles
    🎙️ เรื่องเล่าจากศูนย์ข้อมูล: เมื่อจีนมีพลังคอมพิวเตอร์เหลือใช้ แต่ยังขายไม่ได้ Tom’s Hardware รายงานว่า จีนกำลังพัฒนาเครือข่ายระดับประเทศเพื่อขายพลังประมวลผลส่วนเกินจากศูนย์ข้อมูล ที่ไม่ได้ใช้งานเต็มประสิทธิภาพ โดยมีเป้าหมายเพื่อเพิ่มการใช้ทรัพยากรให้คุ้มค่าและสนับสนุนการเติบโตของ AI และคลาวด์ในประเทศ แต่ก็เผชิญกับอุปสรรคสำคัญ เช่น ความล่าช้าในการเชื่อมต่อ (latency) และ ความหลากหลายของฮาร์ดแวร์ ที่ทำให้การรวมระบบเป็นเรื่องยาก จีนเคยผลักดันยุทธศาสตร์ “Eastern Data, Western Computing” โดยให้สร้างศูนย์ข้อมูลในพื้นที่ตะวันตกที่ค่าไฟถูก เพื่อรองรับความต้องการจากเมืองเศรษฐกิจฝั่งตะวันออก แต่ความจริงกลับไม่เป็นไปตามแผน: - ศูนย์ข้อมูลหลายแห่งใช้งานเพียง 20–30% ของความสามารถ - รัฐลงทุนไปกว่า $3.4 พันล้านในปี 2024 แต่ผลตอบแทนยังไม่คุ้ม - มีโครงการถูกยกเลิกกว่า 100 แห่งใน 18 เดือนที่ผ่านมา เพื่อแก้ปัญหา รัฐบาลจีนจึงเตรียมสร้าง เครือข่ายคลาวด์ระดับชาติ โดยรวมพลังประมวลผลที่เหลือจากศูนย์ต่าง ๆ มาให้บริการผ่านระบบรวมศูนย์ โดยร่วมมือกับ China Mobile, China Telecom และ China Unicom แต่ก็มีอุปสรรคใหญ่: - ความล่าช้าในการเชื่อมต่อจากศูนย์ข้อมูลในพื้นที่ห่างไกล - ความหลากหลายของฮาร์ดแวร์ เช่น บางแห่งใช้ Nvidia CUDA บางแห่งใช้ Huawei CANN ทำให้รวมกันไม่ได้ง่าย แม้จะมีความท้าทาย แต่รัฐบาลยังคงมุ่งมั่น เพราะเชื่อว่าแนวทางนี้จะช่วยให้การลงทุนใน AI และคลาวด์มีประสิทธิภาพมากขึ้น 💡 ศูนย์ข้อมูลในพื้นที่ห่างไกลมักมีค่าไฟถูก แต่ latency สูง ➡️ ไม่เหมาะกับงานที่ต้องการความเร็วตอบสนองทันที 💡 การรวมพลังประมวลผลแบบ distributed computing ต้องใช้ระบบจัดการที่ซับซ้อน ➡️ เช่น Kubernetes, scheduling algorithms และระบบ billing ที่แม่นยำ 💡 ความหลากหลายของฮาร์ดแวร์ในคลาวด์อาจต้องใช้ containerization หรือ virtualization ➡️ เพื่อให้ผู้ใช้งานเลือกได้ว่าจะใช้ GPU แบบไหน 💡 การสร้างเครือข่ายคลาวด์ระดับชาติอาจช่วยลดการพึ่งพา hyperscalers ต่างชาติ ➡️ เช่น AWS, Azure และ Google Cloud https://www.tomshardware.com/desktops/servers/china-is-developing-nation-spanning-network-to-sell-surplus-data-center-compute-power-latency-disparate-hardware-are-key-hurdles
    0 ความคิดเห็น 0 การแบ่งปัน 393 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลก Valve: Gabe Newell ทำงานเพราะมันสนุก ดำน้ำทุกวัน และอยู่บนเรือ!

    ในบทสัมภาษณ์สุดเซอร์ไพรส์โดยช่อง Zalkar Saliev บน YouTube ที่เน้นถ่ายทอดแนวคิดของผู้ชายที่ประสบความสำเร็จ Gabe Newell (เกบ นิวเวลล์) ผู้ร่วมก่อตั้งและ CEO ของบริษัท Valve Corporation ซึ่งเป็นหนึ่งในบริษัทชั้นนำด้านเกมและแพลตฟอร์มดิจิทัลในโลก ได้เล่าถึงกิจวัตรประจำวันที่ “เหมือนชีวิตหลังเกษียณ” แต่ยังทำงานไม่หยุด

    ชีวิตประจำวันของเขา:
    - ตื่นนอน → ทำงาน → ดำน้ำ → ทำงานเพิ่ม → ดำน้ำรอบสองหรือไปยิม → ใช้ชีวิตกับคนบนเรือ → ทำงานต่อ
    - เขาทำงานทุกวันจาก “ห้องนอน” บนเรือ และบอกว่า “มันไม่รู้สึกเหมือนงานเลย เพราะสนุกมาก”

    นอกจากงานที่ Valve เขายัง:
    - สนับสนุนบริษัท Starfish Neuroscience คู่แข่งของ Neuralink ที่พัฒนาอินเทอร์เฟซสมองแบบ distributed และไม่รุกล้ำ
    - ทำงานกับอุปกรณ์ตรวจจับเชื้อโรคในอากาศ
    - แสดงความคิดเห็นเกี่ยวกับ generative AI ที่ช่วยให้ “คนไม่รู้โปรแกรม” กลายเป็นนักพัฒนาที่มีคุณค่ามากกว่าคนที่เขียนโค้ดมา 10 ปี

    ให้คำแนะนำธุรกิจว่า “อย่าเริ่มจากการเขียน proposal หาเงิน แต่จงสร้างคุณค่าให้คนก่อน แล้วทุนจะตามมาเอง”

    https://www.techspot.com/news/108718-gabe-newell-works-fun-scuba-dives-daily-surprise.html
    🎙️ เรื่องเล่าจากโลก Valve: Gabe Newell ทำงานเพราะมันสนุก ดำน้ำทุกวัน และอยู่บนเรือ! ในบทสัมภาษณ์สุดเซอร์ไพรส์โดยช่อง Zalkar Saliev บน YouTube ที่เน้นถ่ายทอดแนวคิดของผู้ชายที่ประสบความสำเร็จ Gabe Newell (เกบ นิวเวลล์) ผู้ร่วมก่อตั้งและ CEO ของบริษัท Valve Corporation ซึ่งเป็นหนึ่งในบริษัทชั้นนำด้านเกมและแพลตฟอร์มดิจิทัลในโลก 🎮🚀 ได้เล่าถึงกิจวัตรประจำวันที่ “เหมือนชีวิตหลังเกษียณ” แต่ยังทำงานไม่หยุด 🧭 ชีวิตประจำวันของเขา: - ตื่นนอน → ทำงาน → ดำน้ำ → ทำงานเพิ่ม → ดำน้ำรอบสองหรือไปยิม → ใช้ชีวิตกับคนบนเรือ → ทำงานต่อ - เขาทำงานทุกวันจาก “ห้องนอน” บนเรือ และบอกว่า “มันไม่รู้สึกเหมือนงานเลย เพราะสนุกมาก” นอกจากงานที่ Valve เขายัง: - สนับสนุนบริษัท Starfish Neuroscience คู่แข่งของ Neuralink ที่พัฒนาอินเทอร์เฟซสมองแบบ distributed และไม่รุกล้ำ - ทำงานกับอุปกรณ์ตรวจจับเชื้อโรคในอากาศ - แสดงความคิดเห็นเกี่ยวกับ generative AI ที่ช่วยให้ “คนไม่รู้โปรแกรม” กลายเป็นนักพัฒนาที่มีคุณค่ามากกว่าคนที่เขียนโค้ดมา 10 ปี ให้คำแนะนำธุรกิจว่า “อย่าเริ่มจากการเขียน proposal หาเงิน แต่จงสร้างคุณค่าให้คนก่อน แล้วทุนจะตามมาเอง” https://www.techspot.com/news/108718-gabe-newell-works-fun-scuba-dives-daily-surprise.html
    WWW.TECHSPOT.COM
    Gabe Newell says he works for fun and scuba dives daily in surprise YouTube interview
    In what seems like a major coup, Zalkar Saliev, a YouTube channel that had just 19 subscribers, managed to briefly speak to Newell. You'd be forgiven for...
    0 ความคิดเห็น 0 การแบ่งปัน 346 มุมมอง 0 รีวิว
  • AMD Zen 6 – ซีพียูยุคใหม่ที่เพิ่มคอร์ เพิ่มแคช และปรับโครงสร้างให้ฉลาดขึ้น

    AMD กำลังเตรียมเปิดตัวโปรเซสเซอร์ Ryzen รุ่นใหม่ที่ใช้สถาปัตยกรรม Zen 6 โดยล่าสุดมีการส่งตัวอย่าง (engineering samples) ให้กับพันธมิตรในอุตสาหกรรมแล้ว เช่น ผู้ผลิตเมนบอร์ดและนักพัฒนาซอฟต์แวร์ปรับแต่ง

    Zen 6 จะเป็นการ “พัฒนาเชิงวิวัฒนาการ” จาก Zen 5 มากกว่าการเปลี่ยนแปลงแบบพลิกโฉม โดยมีจุดเด่นหลายด้าน:
    - จำนวนคอร์ต่อ CCD เพิ่มขึ้นเป็น 12 คอร์ในรุ่น Classic และ 16 คอร์ในรุ่น Dense
    - แคช L3 ต่อ CCD เพิ่มขึ้นเป็น 48 MB
    - มีการออกแบบ memory controller แบบใหม่เป็น “dual IMC” แม้จะยังใช้ dual-channel เหมือนเดิม
    - รองรับ DDR5 ความเร็วสูงขึ้น
    - ไม่มีการเปลี่ยนแปลงใหญ่ในระบบ Boost หรือ Curve Optimizer ทำให้ซอฟต์แวร์ปรับแต่งเดิมยังใช้ได้

    แม้จะยังไม่ประกาศวันเปิดตัวอย่างเป็นทางการ แต่คาดว่า Zen 6 จะวางจำหน่ายช่วงกลางถึงปลายปี 2026 ซึ่งจะชนกับ Intel Nova Lake-S ที่มีสูงสุดถึง 52 คอร์

    ข้อมูลจากข่าว
    - AMD ส่งตัวอย่าง Zen 6 ให้พันธมิตรแล้ว เช่น ผู้ผลิตเมนบอร์ด
    - Zen 6 เป็นการพัฒนาต่อจาก Zen 5 แบบ “วิวัฒนาการ” ไม่ใช่ “ปฏิวัติ”
    - CCD รุ่นใหม่มี 12–16 คอร์ และแคช L3 สูงสุด 48 MB ต่อ CCD
    - มีการออกแบบ dual IMC แต่ยังใช้ dual-channel memory layout
    - รองรับ DDR5 ความเร็วสูงขึ้น
    - ไม่มีการเปลี่ยนแปลงใน Boost Algorithms และ Curve Optimizer
    - คาดว่า Zen 6 จะเปิดตัวกลางถึงปลายปี 2026
    - อาจมีรุ่นสูงสุดถึง 24 คอร์ 48 เธรด พร้อมแคชรวม 96 MB หรือมากกว่านั้นในรุ่น X3D

    คำเตือนและข้อควรระวัง
    - Zen 6 ยังไม่เข้าสู่ขั้นตอน “tape-out” อย่างเป็นทางการ อาจมีความล่าช้าในการผลิต
    - การเพิ่มจำนวนคอร์และแคชอาจทำให้ต้นทุนสูงขึ้น และต้องใช้เมนบอร์ดที่รองรับ
    - dual IMC อาจทำให้บางเมนบอร์ดรุ่นเก่าไม่สามารถใช้ได้เต็มประสิทธิภาพ
    - การแข่งขันกับ Intel Nova Lake-S ที่มี 52 คอร์อาจทำให้ AMD ต้องเร่งพัฒนาให้ทัน
    - ผู้ใช้ทั่วไปอาจไม่เห็นประโยชน์จากจำนวนคอร์ที่เพิ่มขึ้น หากไม่ได้ใช้งานแบบมัลติทาสก์หรือประมวลผลหนัก

    https://wccftech.com/amd-ryzen-zen-6-cpu-samples-distributed-architecture-evolution-more-cores-per-ccd-new-dual-imc-design/
    AMD Zen 6 – ซีพียูยุคใหม่ที่เพิ่มคอร์ เพิ่มแคช และปรับโครงสร้างให้ฉลาดขึ้น AMD กำลังเตรียมเปิดตัวโปรเซสเซอร์ Ryzen รุ่นใหม่ที่ใช้สถาปัตยกรรม Zen 6 โดยล่าสุดมีการส่งตัวอย่าง (engineering samples) ให้กับพันธมิตรในอุตสาหกรรมแล้ว เช่น ผู้ผลิตเมนบอร์ดและนักพัฒนาซอฟต์แวร์ปรับแต่ง Zen 6 จะเป็นการ “พัฒนาเชิงวิวัฒนาการ” จาก Zen 5 มากกว่าการเปลี่ยนแปลงแบบพลิกโฉม โดยมีจุดเด่นหลายด้าน: - จำนวนคอร์ต่อ CCD เพิ่มขึ้นเป็น 12 คอร์ในรุ่น Classic และ 16 คอร์ในรุ่น Dense - แคช L3 ต่อ CCD เพิ่มขึ้นเป็น 48 MB - มีการออกแบบ memory controller แบบใหม่เป็น “dual IMC” แม้จะยังใช้ dual-channel เหมือนเดิม - รองรับ DDR5 ความเร็วสูงขึ้น - ไม่มีการเปลี่ยนแปลงใหญ่ในระบบ Boost หรือ Curve Optimizer ทำให้ซอฟต์แวร์ปรับแต่งเดิมยังใช้ได้ แม้จะยังไม่ประกาศวันเปิดตัวอย่างเป็นทางการ แต่คาดว่า Zen 6 จะวางจำหน่ายช่วงกลางถึงปลายปี 2026 ซึ่งจะชนกับ Intel Nova Lake-S ที่มีสูงสุดถึง 52 คอร์ ✅ ข้อมูลจากข่าว - AMD ส่งตัวอย่าง Zen 6 ให้พันธมิตรแล้ว เช่น ผู้ผลิตเมนบอร์ด - Zen 6 เป็นการพัฒนาต่อจาก Zen 5 แบบ “วิวัฒนาการ” ไม่ใช่ “ปฏิวัติ” - CCD รุ่นใหม่มี 12–16 คอร์ และแคช L3 สูงสุด 48 MB ต่อ CCD - มีการออกแบบ dual IMC แต่ยังใช้ dual-channel memory layout - รองรับ DDR5 ความเร็วสูงขึ้น - ไม่มีการเปลี่ยนแปลงใน Boost Algorithms และ Curve Optimizer - คาดว่า Zen 6 จะเปิดตัวกลางถึงปลายปี 2026 - อาจมีรุ่นสูงสุดถึง 24 คอร์ 48 เธรด พร้อมแคชรวม 96 MB หรือมากกว่านั้นในรุ่น X3D ‼️ คำเตือนและข้อควรระวัง - Zen 6 ยังไม่เข้าสู่ขั้นตอน “tape-out” อย่างเป็นทางการ อาจมีความล่าช้าในการผลิต - การเพิ่มจำนวนคอร์และแคชอาจทำให้ต้นทุนสูงขึ้น และต้องใช้เมนบอร์ดที่รองรับ - dual IMC อาจทำให้บางเมนบอร์ดรุ่นเก่าไม่สามารถใช้ได้เต็มประสิทธิภาพ - การแข่งขันกับ Intel Nova Lake-S ที่มี 52 คอร์อาจทำให้ AMD ต้องเร่งพัฒนาให้ทัน - ผู้ใช้ทั่วไปอาจไม่เห็นประโยชน์จากจำนวนคอร์ที่เพิ่มขึ้น หากไม่ได้ใช้งานแบบมัลติทาสก์หรือประมวลผลหนัก https://wccftech.com/amd-ryzen-zen-6-cpu-samples-distributed-architecture-evolution-more-cores-per-ccd-new-dual-imc-design/
    WCCFTECH.COM
    AMD Ryzen "Zen 6" CPU Samples Already Distributed, Architecture To Be A "Evolution" With More Cores Per CCD, New "Dual" IMC Design
    New details for next-gen AMD Ryzen CPUs based on the Zen 6 architecture have been revealed by 1usmus, pointing to an evolutionary design.
    0 ความคิดเห็น 0 การแบ่งปัน 382 มุมมอง 0 รีวิว
  • คิดดูว่าคุณนั่งเล่นเน็ตอยู่ดี ๆ แล้วมีข้อมูลระดับ 37TB พุ่งใส่บ้านคุณภายในไม่ถึงนาที — นั่นแหละครับคือสิ่งที่หนึ่งในลูกค้าของ Cloudflare ต้องเผชิญ

    การโจมตีนี้เป็น DDoS (Distributed Denial of Service) แบบที่เรียกว่า UDP flood คือยิงข้อมูลปลอม ๆ ด้วยโปรโตคอล UDP ซึ่งไม่ต้องรอการตอบรับ (unverified delivery) — มันเร็ว จึงเหมาะกับแอปอย่างเกมออนไลน์, วิดีโอสตรีมมิ่ง แต่เมื่อใช้โจมตี ก็รุนแรงสุด ๆ

    นอกจากนั้นยังมีการใช้ reflection/amplification attack ด้วย คือแอบปลอม IP ของเป้าหมาย แล้วไปเรียกข้อมูลจากบุคคลที่สาม (เช่นเซิร์ฟเวอร์เวลา NTP หรือ QOTD protocol) เพื่อให้เซิร์ฟเวอร์เหล่านั้นช่วยส่งข้อมูล "ซ้ำ" กลับไปโจมตีเป้าหมายอีกรอบ

    ที่น่าห่วงคือ แม้จะมีเทคโนโลยีป้องกันแล้ว แต่แฮกเกอร์ใช้ botnet ขนาดใหญ่ที่มีคอมพิวเตอร์นับแสนเครื่องทั่วโลกมาร่วมมือกันยิงข้อมูล — ซึ่งเป็นต้นทุนต่ำมาก แต่สามารถทำลายธุรกิจทั้งเว็บได้ในพริบตา

    Cloudflare ยืนยันป้องกันการโจมตี DDoS ใหญ่ที่สุดในประวัติศาสตร์สำเร็จ  
    • ปริมาณข้อมูล 37.4 TB ภายใน 45 วินาที หรือประมาณ 7.3 Tbps

    เป็นการโจมตีแบบ UDP flood และมีการใช้ reflection/amplification attack  
    • ใช้เซิร์ฟเวอร์ภายนอก เช่น NTP, QOTD, Echo ช่วยโจมตี

    เทคนิค UDP flood เป็นที่นิยม เพราะ UDP ไม่ต้องจับมือกับเครื่องปลายทาง ทำให้โจมตีได้เร็ว  
    • เป้าหมายต้องตอบกลับทุก packet ทำให้ล่มได้ง่าย

    ขนาดการโจมตีครั้งนี้ใหญ่กว่าเหตุการณ์ก่อนหน้า เช่น 6.5 Tbps ในเดือนเมษายน 2025 และ 5.6 Tbps ในปี 2024

    แฮกเกอร์ใช้ botnet ขนาดใหญ่ ซึ่งต้นทุนถูก แต่สามารถโจมตีแบบ mass-scale ได้มหาศาล  • อาจใช้เพื่อรีดไถ (extortion) หรือทดสอบระบบเป้าหมาย

    https://www.tomshardware.com/tech-industry/cyber-security/massive-ddos-attack-delivered-37-4tb-in-45-seconds-equivalent-to-10-000-hd-movies-to-one-victim-ip-address-cloudflare-blocks-largest-cyber-assault-ever-recorded
    คิดดูว่าคุณนั่งเล่นเน็ตอยู่ดี ๆ แล้วมีข้อมูลระดับ 37TB พุ่งใส่บ้านคุณภายในไม่ถึงนาที — นั่นแหละครับคือสิ่งที่หนึ่งในลูกค้าของ Cloudflare ต้องเผชิญ การโจมตีนี้เป็น DDoS (Distributed Denial of Service) แบบที่เรียกว่า UDP flood คือยิงข้อมูลปลอม ๆ ด้วยโปรโตคอล UDP ซึ่งไม่ต้องรอการตอบรับ (unverified delivery) — มันเร็ว จึงเหมาะกับแอปอย่างเกมออนไลน์, วิดีโอสตรีมมิ่ง แต่เมื่อใช้โจมตี ก็รุนแรงสุด ๆ นอกจากนั้นยังมีการใช้ reflection/amplification attack ด้วย คือแอบปลอม IP ของเป้าหมาย แล้วไปเรียกข้อมูลจากบุคคลที่สาม (เช่นเซิร์ฟเวอร์เวลา NTP หรือ QOTD protocol) เพื่อให้เซิร์ฟเวอร์เหล่านั้นช่วยส่งข้อมูล "ซ้ำ" กลับไปโจมตีเป้าหมายอีกรอบ ที่น่าห่วงคือ แม้จะมีเทคโนโลยีป้องกันแล้ว แต่แฮกเกอร์ใช้ botnet ขนาดใหญ่ที่มีคอมพิวเตอร์นับแสนเครื่องทั่วโลกมาร่วมมือกันยิงข้อมูล — ซึ่งเป็นต้นทุนต่ำมาก แต่สามารถทำลายธุรกิจทั้งเว็บได้ในพริบตา ✅ Cloudflare ยืนยันป้องกันการโจมตี DDoS ใหญ่ที่สุดในประวัติศาสตร์สำเร็จ   • ปริมาณข้อมูล 37.4 TB ภายใน 45 วินาที หรือประมาณ 7.3 Tbps ✅ เป็นการโจมตีแบบ UDP flood และมีการใช้ reflection/amplification attack   • ใช้เซิร์ฟเวอร์ภายนอก เช่น NTP, QOTD, Echo ช่วยโจมตี ✅ เทคนิค UDP flood เป็นที่นิยม เพราะ UDP ไม่ต้องจับมือกับเครื่องปลายทาง ทำให้โจมตีได้เร็ว   • เป้าหมายต้องตอบกลับทุก packet ทำให้ล่มได้ง่าย ✅ ขนาดการโจมตีครั้งนี้ใหญ่กว่าเหตุการณ์ก่อนหน้า เช่น 6.5 Tbps ในเดือนเมษายน 2025 และ 5.6 Tbps ในปี 2024 ✅ แฮกเกอร์ใช้ botnet ขนาดใหญ่ ซึ่งต้นทุนถูก แต่สามารถโจมตีแบบ mass-scale ได้มหาศาล  • อาจใช้เพื่อรีดไถ (extortion) หรือทดสอบระบบเป้าหมาย https://www.tomshardware.com/tech-industry/cyber-security/massive-ddos-attack-delivered-37-4tb-in-45-seconds-equivalent-to-10-000-hd-movies-to-one-victim-ip-address-cloudflare-blocks-largest-cyber-assault-ever-recorded
    0 ความคิดเห็น 0 การแบ่งปัน 280 มุมมอง 0 รีวิว
  • เรื่องนี้เริ่มจากระบบชื่อ VexTrio ที่เหมือน “ตัวกลางกระจายทราฟฟิกแบบมืด” (Traffic Distribution System – TDS) ซึ่งแฮกเกอร์ใช้เพื่อพาผู้ใช้ไปยังเพจหลอก, โฆษณาปลอม, หรือ malware

    พวกเขาทำงานร่วมกับระบบโฆษณาที่ดูเหมือนถูกกฎหมายอย่าง Los Pollos, Partners House และ RichAds โดยแนบ JavaScript แฝงลงในเว็บ WordPress ผ่าน plugin ที่มีช่องโหว่ แล้วใช้ DNS TXT record เป็นช่องสื่อสารลับว่าจะเปลี่ยนเส้นทางผู้ใช้ไปไหน

    จุดพีคคือ...บางโฆษณาและ push notification ที่คุณเห็น มาจาก แพลตฟอร์มจริง ๆ เช่น Google Firebase หรือระบบ affiliate network ที่ถูกใช้เป็นหลังบ้านของแคมเปญ! ไม่ใช่การหลอกผ่าน phishing หรือมัลแวร์จาก email โดยตรงเหมือนเมื่อก่อน

    ที่น่าห่วงคือ มันอาจดูเหมือน CAPTCHA ธรรมดา, ป๊อปอัปเตือนว่า "มีไวรัส", หรือแบนเนอร์ว่า "คุณได้รับรางวัล" แต่ถ้าคลิกเปิดการแจ้งเตือนปุ๊บ — โค้ดฝั่งแฮกเกอร์จะรอส่งมัลแวร์หรือ phishing link เข้ามาทันที 😵‍💫

    มีเครือข่ายการเปลี่ยนเส้นทางสู่มัลแวร์ระดับโลกผ่านระบบที่ดูถูกต้องตามกฎหมาย  
    • ใช้ระบบ TDS ชื่อ VexTrio, Help, Disposable  
    • พ่วงเข้ากับ adtech เช่น RichAds, Los Pollos, Partners House

    ช่องทางแพร่ระบาดมักผ่าน WordPress plugin ที่ถูกแฮก  
    • ใส่ JavaScript ซ่อนไว้ให้ redirect แบบแนบเนียน  
    • ใช้ DNS TXT records เป็นระบบควบคุมคำสั่ง

    Push Notification กลายเป็นช่องโจมตีใหม่  
    • หลอกด้วย CAPTCHA ปลอมให้ผู้ใช้กด “ยอมรับการแจ้งเตือน”  • หลังจากนั้นจะส่งมัลแวร์ได้ผ่านเบราว์เซอร์โดยไม่เตือน

    โค้ดมัลแวร์ reuse script ร่วมกันหลายโดเมน  
    • มีพฤติกรรมคล้ายกัน เช่น ปิดปุ่ม back, redirect หลายชั้น, ปลอมหน้า sweepstake

    ระบบหลอกลวงอาจส่งผ่านบริการถูกกฎหมาย เช่น Google Firebase  
    • ทำให้ Antivirus บางระบบตรวจจับไม่ได้

    พบความผิดปกติจากการวิเคราะห์ DNS มากกว่า 4.5 ล้าน response  
    • ระหว่าง ส.ค.–ธ.ค. 2024 โดย Infoblox Threat Intelligence

    แม้จะเข้าเว็บจริง แต่เบราว์เซอร์อาจแสดง Push Notification หรือเบอร์หลอกโดยไม่รู้ตัว  
    • โดยเฉพาะถ้าเคย “ยอมรับแจ้งเตือน” มาก่อนจากหน้า CAPTCHA ปลอม

    DNS TXT record ถูกใช้เป็น backchannel สำหรับสั่งงาน malware  
    • ระบบความปลอดภัยที่ไม่ตรวจ DNS anomalies อาจมองไม่เห็นเลย

    แพลตฟอร์มโฆษณาที่ “ดูถูกต้อง” ก็อาจเป็นคนกลางในระบบ malware  
    • เพราะรู้จักตัวตนของ “affiliate” ที่ส่ง traffic อยู่แล้ว แต่ไม่จัดการ

    หากใช้ WordPress ต้องหมั่นอัปเดต plugin และตรวจความผิดปกติของ DNS/JS script  
    • โดยเฉพาะถ้ามี script ที่ไม่รู้จัก ฝังอยู่ในไฟล์ footer หรือ functions.php

    https://www.techradar.com/pro/security/wordpress-hackers-are-teaming-up-with-commercial-adtech-firms-to-distribute-malware-to-millions-of-users-heres-how-to-stay-safe
    เรื่องนี้เริ่มจากระบบชื่อ VexTrio ที่เหมือน “ตัวกลางกระจายทราฟฟิกแบบมืด” (Traffic Distribution System – TDS) ซึ่งแฮกเกอร์ใช้เพื่อพาผู้ใช้ไปยังเพจหลอก, โฆษณาปลอม, หรือ malware พวกเขาทำงานร่วมกับระบบโฆษณาที่ดูเหมือนถูกกฎหมายอย่าง Los Pollos, Partners House และ RichAds โดยแนบ JavaScript แฝงลงในเว็บ WordPress ผ่าน plugin ที่มีช่องโหว่ แล้วใช้ DNS TXT record เป็นช่องสื่อสารลับว่าจะเปลี่ยนเส้นทางผู้ใช้ไปไหน จุดพีคคือ...บางโฆษณาและ push notification ที่คุณเห็น มาจาก แพลตฟอร์มจริง ๆ เช่น Google Firebase หรือระบบ affiliate network ที่ถูกใช้เป็นหลังบ้านของแคมเปญ! ไม่ใช่การหลอกผ่าน phishing หรือมัลแวร์จาก email โดยตรงเหมือนเมื่อก่อน ที่น่าห่วงคือ มันอาจดูเหมือน CAPTCHA ธรรมดา, ป๊อปอัปเตือนว่า "มีไวรัส", หรือแบนเนอร์ว่า "คุณได้รับรางวัล" แต่ถ้าคลิกเปิดการแจ้งเตือนปุ๊บ — โค้ดฝั่งแฮกเกอร์จะรอส่งมัลแวร์หรือ phishing link เข้ามาทันที 😵‍💫 ✅ มีเครือข่ายการเปลี่ยนเส้นทางสู่มัลแวร์ระดับโลกผ่านระบบที่ดูถูกต้องตามกฎหมาย   • ใช้ระบบ TDS ชื่อ VexTrio, Help, Disposable   • พ่วงเข้ากับ adtech เช่น RichAds, Los Pollos, Partners House ✅ ช่องทางแพร่ระบาดมักผ่าน WordPress plugin ที่ถูกแฮก   • ใส่ JavaScript ซ่อนไว้ให้ redirect แบบแนบเนียน   • ใช้ DNS TXT records เป็นระบบควบคุมคำสั่ง ✅ Push Notification กลายเป็นช่องโจมตีใหม่   • หลอกด้วย CAPTCHA ปลอมให้ผู้ใช้กด “ยอมรับการแจ้งเตือน”  • หลังจากนั้นจะส่งมัลแวร์ได้ผ่านเบราว์เซอร์โดยไม่เตือน ✅ โค้ดมัลแวร์ reuse script ร่วมกันหลายโดเมน   • มีพฤติกรรมคล้ายกัน เช่น ปิดปุ่ม back, redirect หลายชั้น, ปลอมหน้า sweepstake ✅ ระบบหลอกลวงอาจส่งผ่านบริการถูกกฎหมาย เช่น Google Firebase   • ทำให้ Antivirus บางระบบตรวจจับไม่ได้ ✅ พบความผิดปกติจากการวิเคราะห์ DNS มากกว่า 4.5 ล้าน response   • ระหว่าง ส.ค.–ธ.ค. 2024 โดย Infoblox Threat Intelligence ‼️ แม้จะเข้าเว็บจริง แต่เบราว์เซอร์อาจแสดง Push Notification หรือเบอร์หลอกโดยไม่รู้ตัว   • โดยเฉพาะถ้าเคย “ยอมรับแจ้งเตือน” มาก่อนจากหน้า CAPTCHA ปลอม ‼️ DNS TXT record ถูกใช้เป็น backchannel สำหรับสั่งงาน malware   • ระบบความปลอดภัยที่ไม่ตรวจ DNS anomalies อาจมองไม่เห็นเลย ‼️ แพลตฟอร์มโฆษณาที่ “ดูถูกต้อง” ก็อาจเป็นคนกลางในระบบ malware   • เพราะรู้จักตัวตนของ “affiliate” ที่ส่ง traffic อยู่แล้ว แต่ไม่จัดการ ‼️ หากใช้ WordPress ต้องหมั่นอัปเดต plugin และตรวจความผิดปกติของ DNS/JS script   • โดยเฉพาะถ้ามี script ที่ไม่รู้จัก ฝังอยู่ในไฟล์ footer หรือ functions.php https://www.techradar.com/pro/security/wordpress-hackers-are-teaming-up-with-commercial-adtech-firms-to-distribute-malware-to-millions-of-users-heres-how-to-stay-safe
    0 ความคิดเห็น 0 การแบ่งปัน 400 มุมมอง 0 รีวิว
  • ข่าวล่าสุดเกี่ยวกับการจับมือกันระหว่าง Telegram และ xAI ของ Elon Musk เพื่อกระจายการใช้งาน Grok ในแพลตฟอร์มแชทที่มีผู้ใช้กว่า 1 พันล้านคนทั่วโลก นับเป็นดีลที่อาจส่งผลต่อวงการ AI อย่างมีนัยสำคัญ

    Grok เป็น AI แชตบอทที่พัฒนาโดย xAI มีแนวทางที่แตกต่างจากคู่แข่งอย่าง ChatGPT หรือ Gemini โดย Grok มีแนวโน้มจะเน้นการตอบกลับแบบไม่เหมือนใครและเน้นการเสียดสีและความขบขัน

    การขยายฐานผู้ใช้ผ่าน Telegram อาจช่วยให้ xAI ได้ข้อมูลการโต้ตอบจากผู้ใช้จำนวนมาก ซึ่งเป็นปัจจัยสำคัญในการพัฒนาโมเดล AI และอาจเป็นแนวทางเดียวกับที่ Meta ใช้ข้อมูลสาธารณะจากผู้ใช้เพื่อฝึก AI ของตน


    ข้อมูลจากข่าว
    - xAI จ่ายเงิน 300 ล้านเหรียญ ให้ Telegram เพื่อเปิดตัว Grok ในแพลตฟอร์ม
    - ดีลนี้มีอายุ 1 ปี และ Telegram จะได้รับ ครึ่งหนึ่งของรายได้จากการสมัครสมาชิกผ่านแอป
    - Elon Musk กล่าวว่า ยังไม่มีการลงนามในข้อตกลงอย่างเป็นทางการ แต่ Durov ระบุว่า ทั้งสองฝ่ายตกลงกันในหลักการแล้ว
    - xAI หวังใช้ข้อมูลที่ Telegram อาจให้มาเพื่อพัฒนาโมเดล AI ของตน

    คำเตือนที่ควรพิจารณา
    - ความเป็นส่วนตัวของข้อมูลผู้ใช้อาจเป็นประเด็นสำคัญ เนื่องจาก X มีนโยบายการใช้โพสต์สาธารณะเพื่อฝึก AI แต่ยังไม่ชัดเจนว่า xAI จะใช้ข้อมูลจาก Telegram ในลักษณะเดียวกันหรือไม่
    - นักลงทุนที่สนใจ AI ของ Musk ควรติดตามรายละเอียดดีลนี้อย่างใกล้ชิด เนื่องจากยังไม่มีสัญญาอย่างเป็นทางการ
    - การแข่งขันในตลาด AI กำลังดุเดือด บริษัทต่างๆ เช่น OpenAI, Google, และ Meta ต่างเร่งพัฒนา AI ของตน การที่ xAI เข้าสู่ Telegram อาจเป็นความท้าทายทั้งด้านเทคนิคและธุรกิจ

    นี่เป็นก้าวสำคัญของ xAI และ Telegram ในการนำ AI สู่แพลตฟอร์มแชทขนาดใหญ่ ซึ่งอาจส่งผลต่อแนวทางการใช้ AI ในอนาคต อย่างไรก็ตาม ข้อมูลและผลกระทบต่อผู้ใช้อาจต้องได้รับการติดตามอย่างใกล้ชิด

    https://www.thestar.com.my/tech/tech-news/2025/05/28/telegram-musk039s-xai-partner-to-distribute-grok-to-messaging-app039s-users
    ข่าวล่าสุดเกี่ยวกับการจับมือกันระหว่าง Telegram และ xAI ของ Elon Musk เพื่อกระจายการใช้งาน Grok ในแพลตฟอร์มแชทที่มีผู้ใช้กว่า 1 พันล้านคนทั่วโลก นับเป็นดีลที่อาจส่งผลต่อวงการ AI อย่างมีนัยสำคัญ Grok เป็น AI แชตบอทที่พัฒนาโดย xAI มีแนวทางที่แตกต่างจากคู่แข่งอย่าง ChatGPT หรือ Gemini โดย Grok มีแนวโน้มจะเน้นการตอบกลับแบบไม่เหมือนใครและเน้นการเสียดสีและความขบขัน การขยายฐานผู้ใช้ผ่าน Telegram อาจช่วยให้ xAI ได้ข้อมูลการโต้ตอบจากผู้ใช้จำนวนมาก ซึ่งเป็นปัจจัยสำคัญในการพัฒนาโมเดล AI และอาจเป็นแนวทางเดียวกับที่ Meta ใช้ข้อมูลสาธารณะจากผู้ใช้เพื่อฝึก AI ของตน ✅ ข้อมูลจากข่าว - xAI จ่ายเงิน 300 ล้านเหรียญ ให้ Telegram เพื่อเปิดตัว Grok ในแพลตฟอร์ม - ดีลนี้มีอายุ 1 ปี และ Telegram จะได้รับ ครึ่งหนึ่งของรายได้จากการสมัครสมาชิกผ่านแอป - Elon Musk กล่าวว่า ยังไม่มีการลงนามในข้อตกลงอย่างเป็นทางการ แต่ Durov ระบุว่า ทั้งสองฝ่ายตกลงกันในหลักการแล้ว - xAI หวังใช้ข้อมูลที่ Telegram อาจให้มาเพื่อพัฒนาโมเดล AI ของตน ‼️ คำเตือนที่ควรพิจารณา - ความเป็นส่วนตัวของข้อมูลผู้ใช้อาจเป็นประเด็นสำคัญ เนื่องจาก X มีนโยบายการใช้โพสต์สาธารณะเพื่อฝึก AI แต่ยังไม่ชัดเจนว่า xAI จะใช้ข้อมูลจาก Telegram ในลักษณะเดียวกันหรือไม่ - นักลงทุนที่สนใจ AI ของ Musk ควรติดตามรายละเอียดดีลนี้อย่างใกล้ชิด เนื่องจากยังไม่มีสัญญาอย่างเป็นทางการ - การแข่งขันในตลาด AI กำลังดุเดือด บริษัทต่างๆ เช่น OpenAI, Google, และ Meta ต่างเร่งพัฒนา AI ของตน การที่ xAI เข้าสู่ Telegram อาจเป็นความท้าทายทั้งด้านเทคนิคและธุรกิจ นี่เป็นก้าวสำคัญของ xAI และ Telegram ในการนำ AI สู่แพลตฟอร์มแชทขนาดใหญ่ ซึ่งอาจส่งผลต่อแนวทางการใช้ AI ในอนาคต อย่างไรก็ตาม ข้อมูลและผลกระทบต่อผู้ใช้อาจต้องได้รับการติดตามอย่างใกล้ชิด https://www.thestar.com.my/tech/tech-news/2025/05/28/telegram-musk039s-xai-partner-to-distribute-grok-to-messaging-app039s-users
    WWW.THESTAR.COM.MY
    Telegram, Musk-owned xAI partner to distribute Grok to messaging app's users
    (Reuters) -Elon Musk's AI startup xAI will pay Telegram $300 million to deploy its Grok chatbot on the messaging app, aiming to tap the platform's more than one billion users and sharpen its competitive edge in the booming artificial intelligence market.
    0 ความคิดเห็น 0 การแบ่งปัน 372 มุมมอง 0 รีวิว
Pages Boosts