• “Biwin เปิดตัว Amber CB500 การ์ด CFexpress Type B ตัวแรกของโลกที่ผ่านมาตรฐาน VPG800 — เขียน 8K RAW ได้ลื่นไหลไม่สะดุด”

    Biwin ผู้ผลิตหน่วยความจำระดับมืออาชีพจากจีน ประกาศเปิดตัวการ์ด CFexpress 4.0 Type B รุ่นใหม่ในชื่อ Amber CB500 ซึ่งกลายเป็นการ์ดตัวแรกของโลกที่ได้รับการรับรองมาตรฐาน VPG800 จาก CompactFlash Association โดยสามารถเขียนข้อมูลต่อเนื่องได้ที่ความเร็ว 800 MB/s อย่างมั่นคง เหมาะสำหรับงานวิดีโอระดับมืออาชีพที่ต้องการความเสถียรสูงสุด

    Amber CB500 ถูกออกแบบมาเพื่อรองรับการถ่ายวิดีโอ 4K, 6K, 8K และแม้แต่ 12K RAW ด้วยความเร็วอ่านสูงสุด 3750 MB/s และเขียนสูงสุด 3500 MB/s เมื่อใช้งานร่วมกับเครื่องอ่าน Biwin Amber RB510 จะสามารถถ่ายโอนข้อมูลได้เร็วถึง 40 Gb/s ช่วยลดเวลาในขั้นตอน post-production ได้อย่างมีประสิทธิภาพ

    การ์ดรุ่นนี้ยังมาพร้อมโครงสร้างอลูมิเนียมอัลลอยด์และเจลนำความร้อน เพื่อป้องกันความร้อนสะสมระหว่างการใช้งานต่อเนื่อง พร้อมระบบป้องกันระดับสูง เช่น ทนความร้อน -12°C ถึง +72°C, กันกระแทก, กันรอย, กันแม่เหล็ก และกันรังสี X-ray

    นอกจากนี้ Amber CB500 ยังรองรับการใช้งานกับกล้องระดับโปรหลากหลายแบรนด์ เช่น Canon, Nikon, RED, Blackmagic, DJI, Hasselblad และ Panasonic ทำให้เป็นตัวเลือกที่น่าสนใจสำหรับผู้สร้างคอนเทนต์ที่ต้องการความเร็ว ความเสถียร และความทนทานในทุกสถานการณ์

    จุดเด่นของ Biwin Amber CB500
    เป็นการ์ด CFexpress Type B ตัวแรกที่ได้รับการรับรอง VPG800
    รองรับการเขียนต่อเนื่องที่ 800 MB/s สำหรับงานวิดีโอระดับมืออาชีพ
    ความเร็วอ่านสูงสุด 3750 MB/s และเขียนสูงสุด 3500 MB/s
    รองรับการถ่ายวิดีโอ 4K, 6K, 8K และ 12K RAW แบบไม่สะดุด

    การออกแบบเพื่อความทนทานและประสิทธิภาพ
    โครงสร้างอลูมิเนียมอัลลอยด์และเจลนำความร้อนช่วยระบายความร้อน
    ทนต่ออุณหภูมิ -12°C ถึง +72°C และป้องกันแรงกระแทก
    กันรอยขีดข่วน, กันแม่เหล็ก, กันรังสี X-ray และทนต่อการใช้งานหนัก
    รองรับการใช้งานกับกล้องระดับโปรหลายแบรนด์

    การใช้งานในสายงานมืออาชีพ
    เหมาะสำหรับงานถ่ายวิดีโอแบบ multi-camera, live broadcast และ virtual production
    ลดเวลาในการถ่ายโอนข้อมูลและเร่งขั้นตอน post-production
    มีความจุให้เลือกตั้งแต่ 128 GB ถึง 1 TB
    รองรับการใช้งานกับเครื่องอ่าน Biwin Amber RB510 ที่ให้ความเร็วสูงถึง 40 Gb/s

    ข้อมูลเสริมจากภายนอก
    VPG800 เป็นมาตรฐานใหม่ใน Video Performance Guarantee Profile 5.0
    การ์ด CFexpress 4.0 Type B ใช้ PCIe Gen 4×2 เพื่อเพิ่มแบนด์วิดธ์
    Biwin เป็นหนึ่งในผู้ผลิตหน่วยความจำที่มีประสบการณ์ยาวนานในอุตสาหกรรม
    การ์ดนี้ผ่านการทดสอบในสภาพแวดล้อมจริงโดย Biwin Labs

    https://www.techpowerup.com/341218/biwin-introduces-amber-cb500-cfexpress-type-b-card
    📸 “Biwin เปิดตัว Amber CB500 การ์ด CFexpress Type B ตัวแรกของโลกที่ผ่านมาตรฐาน VPG800 — เขียน 8K RAW ได้ลื่นไหลไม่สะดุด” Biwin ผู้ผลิตหน่วยความจำระดับมืออาชีพจากจีน ประกาศเปิดตัวการ์ด CFexpress 4.0 Type B รุ่นใหม่ในชื่อ Amber CB500 ซึ่งกลายเป็นการ์ดตัวแรกของโลกที่ได้รับการรับรองมาตรฐาน VPG800 จาก CompactFlash Association โดยสามารถเขียนข้อมูลต่อเนื่องได้ที่ความเร็ว 800 MB/s อย่างมั่นคง เหมาะสำหรับงานวิดีโอระดับมืออาชีพที่ต้องการความเสถียรสูงสุด Amber CB500 ถูกออกแบบมาเพื่อรองรับการถ่ายวิดีโอ 4K, 6K, 8K และแม้แต่ 12K RAW ด้วยความเร็วอ่านสูงสุด 3750 MB/s และเขียนสูงสุด 3500 MB/s เมื่อใช้งานร่วมกับเครื่องอ่าน Biwin Amber RB510 จะสามารถถ่ายโอนข้อมูลได้เร็วถึง 40 Gb/s ช่วยลดเวลาในขั้นตอน post-production ได้อย่างมีประสิทธิภาพ การ์ดรุ่นนี้ยังมาพร้อมโครงสร้างอลูมิเนียมอัลลอยด์และเจลนำความร้อน เพื่อป้องกันความร้อนสะสมระหว่างการใช้งานต่อเนื่อง พร้อมระบบป้องกันระดับสูง เช่น ทนความร้อน -12°C ถึง +72°C, กันกระแทก, กันรอย, กันแม่เหล็ก และกันรังสี X-ray นอกจากนี้ Amber CB500 ยังรองรับการใช้งานกับกล้องระดับโปรหลากหลายแบรนด์ เช่น Canon, Nikon, RED, Blackmagic, DJI, Hasselblad และ Panasonic ทำให้เป็นตัวเลือกที่น่าสนใจสำหรับผู้สร้างคอนเทนต์ที่ต้องการความเร็ว ความเสถียร และความทนทานในทุกสถานการณ์ ✅ จุดเด่นของ Biwin Amber CB500 ➡️ เป็นการ์ด CFexpress Type B ตัวแรกที่ได้รับการรับรอง VPG800 ➡️ รองรับการเขียนต่อเนื่องที่ 800 MB/s สำหรับงานวิดีโอระดับมืออาชีพ ➡️ ความเร็วอ่านสูงสุด 3750 MB/s และเขียนสูงสุด 3500 MB/s ➡️ รองรับการถ่ายวิดีโอ 4K, 6K, 8K และ 12K RAW แบบไม่สะดุด ✅ การออกแบบเพื่อความทนทานและประสิทธิภาพ ➡️ โครงสร้างอลูมิเนียมอัลลอยด์และเจลนำความร้อนช่วยระบายความร้อน ➡️ ทนต่ออุณหภูมิ -12°C ถึง +72°C และป้องกันแรงกระแทก ➡️ กันรอยขีดข่วน, กันแม่เหล็ก, กันรังสี X-ray และทนต่อการใช้งานหนัก ➡️ รองรับการใช้งานกับกล้องระดับโปรหลายแบรนด์ ✅ การใช้งานในสายงานมืออาชีพ ➡️ เหมาะสำหรับงานถ่ายวิดีโอแบบ multi-camera, live broadcast และ virtual production ➡️ ลดเวลาในการถ่ายโอนข้อมูลและเร่งขั้นตอน post-production ➡️ มีความจุให้เลือกตั้งแต่ 128 GB ถึง 1 TB ➡️ รองรับการใช้งานกับเครื่องอ่าน Biwin Amber RB510 ที่ให้ความเร็วสูงถึง 40 Gb/s ✅ ข้อมูลเสริมจากภายนอก ➡️ VPG800 เป็นมาตรฐานใหม่ใน Video Performance Guarantee Profile 5.0 ➡️ การ์ด CFexpress 4.0 Type B ใช้ PCIe Gen 4×2 เพื่อเพิ่มแบนด์วิดธ์ ➡️ Biwin เป็นหนึ่งในผู้ผลิตหน่วยความจำที่มีประสบการณ์ยาวนานในอุตสาหกรรม ➡️ การ์ดนี้ผ่านการทดสอบในสภาพแวดล้อมจริงโดย Biwin Labs https://www.techpowerup.com/341218/biwin-introduces-amber-cb500-cfexpress-type-b-card
    WWW.TECHPOWERUP.COM
    Biwin Introduces Amber CB500 CFexpress Type B Card
    Biwin announces that its Amber CB500 CFexpress Type B card has become the world's first CFexpress Type B card to receive VPG800 certification from the CompactFlash Association. With sustained write speeds of 800 MB/s guaranteed, the CB500 empowers filmmakers, cinematographers, and content creators t...
    0 Comments 0 Shares 30 Views 0 Reviews
  • “Furi Labs เปิดตัว FLX1s — สมาร์ตโฟน Linux พร้อมสวิตช์ตัดไมค์ กล้อง และโมเด็ม เพื่อความเป็นส่วนตัวระดับสูง”

    ในยุคที่ความเป็นส่วนตัวกลายเป็นสิ่งหายาก Furi Labs บริษัทจากฮ่องกงได้เปิดตัวสมาร์ตโฟน Linux รุ่นใหม่ชื่อ FLX1s ที่มาพร้อมแนวคิด “ควบคุมฮาร์ดแวร์ด้วยมือคุณ” โดยมีสวิตช์ตัดการทำงานของไมโครโฟน กล้อง และโมเด็ม/จีพีเอส แบบฮาร์ดแวร์ทั้งหมด เพื่อให้ผู้ใช้มั่นใจว่าไม่มีการแอบฟังหรือติดตามโดยไม่ได้รับอนุญาต

    FLX1s ใช้ชิป MediaTek Dimensity 900 พร้อม RAM 8GB และพื้นที่เก็บข้อมูล 128GB รองรับ microSD สูงสุด 1TB แม้สเปกจะไม่เทียบเท่าเรือธง แต่ก็เพียงพอสำหรับการใช้งานทั่วไป โดยเฉพาะเมื่อเน้นเรื่องความปลอดภัยและความเป็นส่วนตัวเป็นหลัก

    ระบบปฏิบัติการที่ใช้คือ FuriOS ซึ่งพัฒนาบนพื้นฐาน Debian และ Mobian รองรับการใช้งานหลายระบบพร้อมกันผ่าน KVM virtualization และสามารถรันแอป Android ผ่าน container แยกที่ไม่เชื่อมต่อกับระบบหลัก เพิ่มความปลอดภัยอีกชั้น

    หน้าจอขนาด 6.7 นิ้ว ความละเอียด 1600x720 รีเฟรชเรต 90Hz พร้อมกระจก AGC Dragontrail กล้องหลัง 20MP + 2MP macro และกล้องหน้า 13MP แบตเตอรี่ 5,000mAh รองรับ 5G, Wi-Fi 6, Bluetooth 5.2 และพอร์ต USB-C 2.0 ตัวเครื่องใช้โครงสร้างแบบ polycarbonate + metal buttons

    FLX1s เปิดให้พรีออร์เดอร์ในราคา $550 โดยล็อตแรกขายหมดแล้ว และล็อตที่สองจะเริ่มผลิตภายในตุลาคม 2025

    ข้อมูลสำคัญจากข่าว
    FLX1s เป็นสมาร์ตโฟน Linux จาก Furi Labs ที่เน้นความเป็นส่วนตัว
    มีสวิตช์ฮาร์ดแวร์ 3 ตัวสำหรับตัดไมค์ กล้อง และโมเด็ม/จีพีเอส
    ใช้ชิป MediaTek Dimensity 900, RAM 8GB, ROM 128GB, รองรับ microSD สูงสุด 1TB
    รัน FuriOS ซึ่งเป็น Debian-based OS รองรับ multi-boot และ virtualization

    ฟีเจอร์เด่นของระบบและฮาร์ดแวร์
    รองรับแอป Android ผ่าน container แยกจากระบบหลัก
    หน้าจอ 6.7 นิ้ว @90Hz พร้อมกระจก AGC Dragontrail
    กล้องหลัง 20MP + 2MP macro, กล้องหน้า 13MP
    แบตเตอรี่ 5,000mAh, รองรับ 5G, Wi-Fi 6, Bluetooth 5.2
    พอร์ต USB-C 2.0, ไม่มีช่องหูฟัง, ตัวเครื่องใช้ polycarbonate + metal buttons
    เปิดพรีออร์เดอร์ในราคา $550 โดยล็อตแรกขายหมดแล้ว

    ข้อมูลเสริมจากภายนอก
    FLX1s ใช้ Halium และ Libhybris เพื่อให้ Linux ใช้ไดรเวอร์ Android ได้
    ระบบโทรศัพท์ใช้ stack ofono2mm และ GNOME Calls
    รองรับ Ubuntu Touch และระบบอื่นผ่าน KVM
    ไม่มีการส่ง telemetry หรือเชื่อมต่อกับคลาวด์โดยอัตโนมัติ
    Furi Labs เปิดซอร์สโค้ดทั้งหมดบน GitHub เพื่อให้ชุมชนร่วมพัฒนา

    https://news.itsfoss.com/furi-labs-flx1s/
    📱 “Furi Labs เปิดตัว FLX1s — สมาร์ตโฟน Linux พร้อมสวิตช์ตัดไมค์ กล้อง และโมเด็ม เพื่อความเป็นส่วนตัวระดับสูง” ในยุคที่ความเป็นส่วนตัวกลายเป็นสิ่งหายาก Furi Labs บริษัทจากฮ่องกงได้เปิดตัวสมาร์ตโฟน Linux รุ่นใหม่ชื่อ FLX1s ที่มาพร้อมแนวคิด “ควบคุมฮาร์ดแวร์ด้วยมือคุณ” โดยมีสวิตช์ตัดการทำงานของไมโครโฟน กล้อง และโมเด็ม/จีพีเอส แบบฮาร์ดแวร์ทั้งหมด เพื่อให้ผู้ใช้มั่นใจว่าไม่มีการแอบฟังหรือติดตามโดยไม่ได้รับอนุญาต FLX1s ใช้ชิป MediaTek Dimensity 900 พร้อม RAM 8GB และพื้นที่เก็บข้อมูล 128GB รองรับ microSD สูงสุด 1TB แม้สเปกจะไม่เทียบเท่าเรือธง แต่ก็เพียงพอสำหรับการใช้งานทั่วไป โดยเฉพาะเมื่อเน้นเรื่องความปลอดภัยและความเป็นส่วนตัวเป็นหลัก ระบบปฏิบัติการที่ใช้คือ FuriOS ซึ่งพัฒนาบนพื้นฐาน Debian และ Mobian รองรับการใช้งานหลายระบบพร้อมกันผ่าน KVM virtualization และสามารถรันแอป Android ผ่าน container แยกที่ไม่เชื่อมต่อกับระบบหลัก เพิ่มความปลอดภัยอีกชั้น หน้าจอขนาด 6.7 นิ้ว ความละเอียด 1600x720 รีเฟรชเรต 90Hz พร้อมกระจก AGC Dragontrail กล้องหลัง 20MP + 2MP macro และกล้องหน้า 13MP แบตเตอรี่ 5,000mAh รองรับ 5G, Wi-Fi 6, Bluetooth 5.2 และพอร์ต USB-C 2.0 ตัวเครื่องใช้โครงสร้างแบบ polycarbonate + metal buttons FLX1s เปิดให้พรีออร์เดอร์ในราคา $550 โดยล็อตแรกขายหมดแล้ว และล็อตที่สองจะเริ่มผลิตภายในตุลาคม 2025 ✅ ข้อมูลสำคัญจากข่าว ➡️ FLX1s เป็นสมาร์ตโฟน Linux จาก Furi Labs ที่เน้นความเป็นส่วนตัว ➡️ มีสวิตช์ฮาร์ดแวร์ 3 ตัวสำหรับตัดไมค์ กล้อง และโมเด็ม/จีพีเอส ➡️ ใช้ชิป MediaTek Dimensity 900, RAM 8GB, ROM 128GB, รองรับ microSD สูงสุด 1TB ➡️ รัน FuriOS ซึ่งเป็น Debian-based OS รองรับ multi-boot และ virtualization ✅ ฟีเจอร์เด่นของระบบและฮาร์ดแวร์ ➡️ รองรับแอป Android ผ่าน container แยกจากระบบหลัก ➡️ หน้าจอ 6.7 นิ้ว @90Hz พร้อมกระจก AGC Dragontrail ➡️ กล้องหลัง 20MP + 2MP macro, กล้องหน้า 13MP ➡️ แบตเตอรี่ 5,000mAh, รองรับ 5G, Wi-Fi 6, Bluetooth 5.2 ➡️ พอร์ต USB-C 2.0, ไม่มีช่องหูฟัง, ตัวเครื่องใช้ polycarbonate + metal buttons ➡️ เปิดพรีออร์เดอร์ในราคา $550 โดยล็อตแรกขายหมดแล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ FLX1s ใช้ Halium และ Libhybris เพื่อให้ Linux ใช้ไดรเวอร์ Android ได้ ➡️ ระบบโทรศัพท์ใช้ stack ofono2mm และ GNOME Calls ➡️ รองรับ Ubuntu Touch และระบบอื่นผ่าน KVM ➡️ ไม่มีการส่ง telemetry หรือเชื่อมต่อกับคลาวด์โดยอัตโนมัติ ➡️ Furi Labs เปิดซอร์สโค้ดทั้งหมดบน GitHub เพื่อให้ชุมชนร่วมพัฒนา https://news.itsfoss.com/furi-labs-flx1s/
    NEWS.ITSFOSS.COM
    This $550 Linux Phone Has Kill Switches That Protect Your Privacy
    This smartphone has hardware switches for the microphone, cameras, and modem/GPS.
    0 Comments 0 Shares 33 Views 0 Reviews
  • Windows NT 3.5: จุดเปลี่ยนที่ทำให้ Microsoft ก้าวสู่โลกองค์กร — จาก “Daytona” สู่รากฐานของ Windows ยุคใหม่

    ย้อนกลับไปเมื่อ 31 ปีก่อน วันที่ 21 กันยายน 1994 Microsoft ได้เปิดตัว Windows NT 3.5 ซึ่งเป็นเวอร์ชันที่เปลี่ยนภาพลักษณ์ของ Windows จากระบบสำหรับผู้ใช้ทั่วไป สู่ระบบปฏิบัติการที่องค์กรเริ่มให้ความสนใจอย่างจริงจัง โดยใช้โค้ดเนมว่า “Daytona” เพื่อสื่อถึงความเร็วและประสิทธิภาพที่เหนือกว่าเวอร์ชันก่อนหน้า

    Windows NT 3.5 ถูกออกแบบใหม่จากรากฐาน โดยทีมของ Dave Cutler ที่เคยพัฒนา VMS จาก DEC ได้สร้างระบบ fully 32-bit พร้อม kernel แบบ hybrid, memory protection และ preemptive multitasking ซึ่งเป็นคุณสมบัติที่ระบบปฏิบัติการระดับองค์กรต้องการในยุคนั้น

    แม้หน้าตาจะยังคล้าย Windows 3.1 ด้วย Program Manager และ File Manager แบบเดิม แต่ภายใน NT 3.5 ได้ปรับปรุงระบบเครือข่ายครั้งใหญ่ เช่น TCP/IP stack ที่เขียนใหม่ทั้งหมด พร้อม Winsock, FTP, Telnet และ Remote Access Service ทำให้สามารถเชื่อมต่ออินเทอร์เน็ตได้อย่างมีประสิทธิภาพในยุคที่อินเทอร์เน็ตเพิ่งเริ่มเข้าสู่สาธารณะ

    ที่สำคัญ NT 3.5 ไม่ได้จำกัดอยู่แค่สถาปัตยกรรม x86 แต่ยังรองรับ MIPS, Alpha และ PowerPC ผ่านระบบ HAL (Hardware Abstraction Layer) ซึ่งเป็นแนวคิดล้ำยุคในตอนนั้น และกลายเป็นรากฐานของความสามารถ cross-platform ใน Windows ยุคหลัง

    แม้จะยังไม่เหมาะกับโน้ตบุ๊กในยุคนั้นเพราะขาด driver สำหรับ PCMCIA และต้องการ RAM สูงกว่ามาตรฐานทั่วไป แต่ NT 3.5 ก็ได้รับการยอมรับในฐานะระบบที่ “จริงจัง” และเป็นจุดเริ่มต้นของสาย Windows NT ที่นำไปสู่ Windows 2000, XP และ Windows 11 ในปัจจุบัน

    Windows NT 3.5 เปิดตัวเมื่อ 21 กันยายน 1994
    ใช้โค้ดเนม “Daytona” เพื่อสื่อถึงความเร็วและประสิทธิภาพ
    เป็นเวอร์ชันที่เปลี่ยน NT จากแนวคิดสู่ผลิตภัณฑ์จริง

    พัฒนาโดยทีมของ Dave Cutler จาก DEC
    ใช้สถาปัตยกรรม fully 32-bit / kernel แบบ hybrid
    มี memory protection และ preemptive multitasking

    ปรับปรุงระบบเครือข่ายครั้งใหญ่
    TCP/IP stack ใหม่ / Winsock / FTP / Telnet / RAS
    รองรับการเชื่อมต่ออินเทอร์เน็ตในยุคเริ่มต้น

    รองรับหลายสถาปัตยกรรมผ่าน HAL
    x86, MIPS, Alpha, PowerPC
    แนวคิด cross-platform ที่นำไปสู่ Windows ยุคใหม่

    มีสองรุ่น: Workstation และ Server
    Workstation รองรับผู้ใช้พร้อมกัน 10 คน / ไม่รองรับ Mac
    Server รองรับฟีเจอร์เครือข่ายเต็มรูปแบบ

    เป็นรากฐานของ Windows XP และ Windows 11
    NT 3.5 ปูทางสู่ NT 4.0, Windows 2000 และ XP
    โค้ดเบส NT ยังคงใช้ใน Windows 11 ปัจจุบัน

    https://www.tomshardware.com/software/windows/microsofts-pivotal-windows-nt-3-5-release-made-it-a-serious-contender-31-years-ago-today
    📰 Windows NT 3.5: จุดเปลี่ยนที่ทำให้ Microsoft ก้าวสู่โลกองค์กร — จาก “Daytona” สู่รากฐานของ Windows ยุคใหม่ ย้อนกลับไปเมื่อ 31 ปีก่อน วันที่ 21 กันยายน 1994 Microsoft ได้เปิดตัว Windows NT 3.5 ซึ่งเป็นเวอร์ชันที่เปลี่ยนภาพลักษณ์ของ Windows จากระบบสำหรับผู้ใช้ทั่วไป สู่ระบบปฏิบัติการที่องค์กรเริ่มให้ความสนใจอย่างจริงจัง โดยใช้โค้ดเนมว่า “Daytona” เพื่อสื่อถึงความเร็วและประสิทธิภาพที่เหนือกว่าเวอร์ชันก่อนหน้า Windows NT 3.5 ถูกออกแบบใหม่จากรากฐาน โดยทีมของ Dave Cutler ที่เคยพัฒนา VMS จาก DEC ได้สร้างระบบ fully 32-bit พร้อม kernel แบบ hybrid, memory protection และ preemptive multitasking ซึ่งเป็นคุณสมบัติที่ระบบปฏิบัติการระดับองค์กรต้องการในยุคนั้น แม้หน้าตาจะยังคล้าย Windows 3.1 ด้วย Program Manager และ File Manager แบบเดิม แต่ภายใน NT 3.5 ได้ปรับปรุงระบบเครือข่ายครั้งใหญ่ เช่น TCP/IP stack ที่เขียนใหม่ทั้งหมด พร้อม Winsock, FTP, Telnet และ Remote Access Service ทำให้สามารถเชื่อมต่ออินเทอร์เน็ตได้อย่างมีประสิทธิภาพในยุคที่อินเทอร์เน็ตเพิ่งเริ่มเข้าสู่สาธารณะ ที่สำคัญ NT 3.5 ไม่ได้จำกัดอยู่แค่สถาปัตยกรรม x86 แต่ยังรองรับ MIPS, Alpha และ PowerPC ผ่านระบบ HAL (Hardware Abstraction Layer) ซึ่งเป็นแนวคิดล้ำยุคในตอนนั้น และกลายเป็นรากฐานของความสามารถ cross-platform ใน Windows ยุคหลัง แม้จะยังไม่เหมาะกับโน้ตบุ๊กในยุคนั้นเพราะขาด driver สำหรับ PCMCIA และต้องการ RAM สูงกว่ามาตรฐานทั่วไป แต่ NT 3.5 ก็ได้รับการยอมรับในฐานะระบบที่ “จริงจัง” และเป็นจุดเริ่มต้นของสาย Windows NT ที่นำไปสู่ Windows 2000, XP และ Windows 11 ในปัจจุบัน ✅ Windows NT 3.5 เปิดตัวเมื่อ 21 กันยายน 1994 ➡️ ใช้โค้ดเนม “Daytona” เพื่อสื่อถึงความเร็วและประสิทธิภาพ ➡️ เป็นเวอร์ชันที่เปลี่ยน NT จากแนวคิดสู่ผลิตภัณฑ์จริง ✅ พัฒนาโดยทีมของ Dave Cutler จาก DEC ➡️ ใช้สถาปัตยกรรม fully 32-bit / kernel แบบ hybrid ➡️ มี memory protection และ preemptive multitasking ✅ ปรับปรุงระบบเครือข่ายครั้งใหญ่ ➡️ TCP/IP stack ใหม่ / Winsock / FTP / Telnet / RAS ➡️ รองรับการเชื่อมต่ออินเทอร์เน็ตในยุคเริ่มต้น ✅ รองรับหลายสถาปัตยกรรมผ่าน HAL ➡️ x86, MIPS, Alpha, PowerPC ➡️ แนวคิด cross-platform ที่นำไปสู่ Windows ยุคใหม่ ✅ มีสองรุ่น: Workstation และ Server ➡️ Workstation รองรับผู้ใช้พร้อมกัน 10 คน / ไม่รองรับ Mac ➡️ Server รองรับฟีเจอร์เครือข่ายเต็มรูปแบบ ✅ เป็นรากฐานของ Windows XP และ Windows 11 ➡️ NT 3.5 ปูทางสู่ NT 4.0, Windows 2000 และ XP ➡️ โค้ดเบส NT ยังคงใช้ใน Windows 11 ปัจจุบัน https://www.tomshardware.com/software/windows/microsofts-pivotal-windows-nt-3-5-release-made-it-a-serious-contender-31-years-ago-today
    WWW.TOMSHARDWARE.COM
    Microsoft’s pivotal Windows NT 3.5 release made it a serious contender, 31 years ago today
    'Daytona' tuned, trimmed, and accelerated Microsoft's clean-slate fully-32-bit OS.
    0 Comments 0 Shares 95 Views 0 Reviews
  • AI ไม่ได้ช่วยให้เด็กใหม่เปล่งประกาย — กลับกลายเป็นเครื่องมือเสริมพลังให้รุ่นใหญ่

    ในช่วงแรกของกระแส AI หลายคนเชื่อว่าเครื่องมืออย่าง Copilot, Claude หรือ Gemini จะช่วยให้ “นักพัฒนาใหม่” หรือ junior developer สามารถสร้างงานคุณภาพได้โดยไม่ต้องพึ่งพารุ่นพี่มากนัก แต่เมื่อเวลาผ่านไป ความจริงกลับสวนทาง — AI กลายเป็นเครื่องมือที่เสริมพลังให้ senior developer ทำงานได้เร็วขึ้น มีประสิทธิภาพมากขึ้น และควบคุมคุณภาพได้ดีกว่าเดิม

    AI ทำงานได้ดีในด้านการสร้างโค้ดซ้ำ ๆ, สร้างโครงสร้างพื้นฐาน, ทดลองแนวทางใหม่ ๆ และตรวจสอบเบื้องต้น แต่สิ่งเหล่านี้จะมีประโยชน์สูงสุดเมื่อผู้ใช้ “รู้ว่าต้องการอะไร” และ “รู้ว่าผลลัพธ์ควรเป็นแบบไหน” ซึ่งเป็นทักษะที่มักอยู่ในมือของนักพัฒนารุ่นใหญ่

    ในทางกลับกัน junior developer ที่ยังไม่เข้าใจบริบทของระบบหรือหลักการออกแบบ อาจใช้ AI ได้เพียงระดับพื้นฐาน และเสี่ยงต่อการสร้างโค้ดที่เต็มไปด้วยช่องโหว่ เช่น สถาปัตยกรรมที่อ่อนแอ, abstraction ที่ผิด, หรือแม้แต่บั๊กด้านความปลอดภัยที่มองไม่เห็น

    การเขียน prompt ที่ดี, การตรวจสอบโค้ดที่ AI สร้าง, และการวางโครงสร้างระบบ — ล้วนเป็นสิ่งที่ต้องอาศัยประสบการณ์และวิจารณญาณ ซึ่ง AI ยังไม่สามารถแทนที่ได้ และหากไม่มี senior คอยดูแล การใช้ AI อาจกลายเป็นการสร้าง “หนี้เทคนิค” มากกว่าการเพิ่มประสิทธิภาพ

    แม้จะมีข้อดี เช่น การช่วยให้ junior ทดลองไอเดียเร็วขึ้น หรือเติมช่องว่างความรู้ในงานข้ามสาย แต่ในภาพรวม AI กลับทำให้ “อำนาจการผลิตซอฟต์แวร์” กระจุกตัวอยู่ในมือของผู้มีประสบการณ์มากขึ้น และอาจทำให้โอกาสของนักพัฒนาใหม่หดตัวลง หากองค์กรไม่ปรับวิธีการฝึกและดูแล

    AI ช่วยงานด้านโค้ดที่ซ้ำซ้อนและโครงสร้างพื้นฐานได้ดี
    เช่น สร้าง boilerplate, ลอง implementation ใหม่, ตรวจสอบเบื้องต้น
    ทำให้การส่งฟีเจอร์เร็วขึ้น หากรู้ว่าต้องการอะไร

    Senior developer ได้ประโยชน์สูงสุดจาก AI
    มีความเข้าใจระบบและสามารถใช้ AI อย่างมีประสิทธิภาพ
    สามารถตรวจสอบและแก้ไขโค้ดที่ AI สร้างได้อย่างแม่นยำ

    Junior developer ยังใช้ AI ได้ แต่มีข้อจำกัด
    ขาดทักษะในการเขียน prompt และตรวจสอบผลลัพธ์
    เสี่ยงต่อการสร้างโค้ดที่มีบั๊กหรือโครงสร้างไม่ดี

    AI ยังไม่สามารถออกแบบสถาปัตยกรรมหรือ abstraction ที่ดี
    ต้องอาศัยมนุษย์ในการวางโครงสร้างระบบ
    หากเริ่มต้นผิด อาจเกิดหนี้เทคนิคที่แก้ยากในระยะยาว

    การใช้ AI ควรอยู่ภายใต้การดูแลของผู้มีประสบการณ์
    เพื่อป้องกันการเรียนรู้ผิด ๆ และการสร้างความเสียหาย
    ควรใช้ในงานที่มีความเสี่ยงต่ำ เช่น test, prototype, routine

    https://elma.dev/notes/ai-makes-seniors-stronger/
    📰 AI ไม่ได้ช่วยให้เด็กใหม่เปล่งประกาย — กลับกลายเป็นเครื่องมือเสริมพลังให้รุ่นใหญ่ ในช่วงแรกของกระแส AI หลายคนเชื่อว่าเครื่องมืออย่าง Copilot, Claude หรือ Gemini จะช่วยให้ “นักพัฒนาใหม่” หรือ junior developer สามารถสร้างงานคุณภาพได้โดยไม่ต้องพึ่งพารุ่นพี่มากนัก แต่เมื่อเวลาผ่านไป ความจริงกลับสวนทาง — AI กลายเป็นเครื่องมือที่เสริมพลังให้ senior developer ทำงานได้เร็วขึ้น มีประสิทธิภาพมากขึ้น และควบคุมคุณภาพได้ดีกว่าเดิม AI ทำงานได้ดีในด้านการสร้างโค้ดซ้ำ ๆ, สร้างโครงสร้างพื้นฐาน, ทดลองแนวทางใหม่ ๆ และตรวจสอบเบื้องต้น แต่สิ่งเหล่านี้จะมีประโยชน์สูงสุดเมื่อผู้ใช้ “รู้ว่าต้องการอะไร” และ “รู้ว่าผลลัพธ์ควรเป็นแบบไหน” ซึ่งเป็นทักษะที่มักอยู่ในมือของนักพัฒนารุ่นใหญ่ ในทางกลับกัน junior developer ที่ยังไม่เข้าใจบริบทของระบบหรือหลักการออกแบบ อาจใช้ AI ได้เพียงระดับพื้นฐาน และเสี่ยงต่อการสร้างโค้ดที่เต็มไปด้วยช่องโหว่ เช่น สถาปัตยกรรมที่อ่อนแอ, abstraction ที่ผิด, หรือแม้แต่บั๊กด้านความปลอดภัยที่มองไม่เห็น การเขียน prompt ที่ดี, การตรวจสอบโค้ดที่ AI สร้าง, และการวางโครงสร้างระบบ — ล้วนเป็นสิ่งที่ต้องอาศัยประสบการณ์และวิจารณญาณ ซึ่ง AI ยังไม่สามารถแทนที่ได้ และหากไม่มี senior คอยดูแล การใช้ AI อาจกลายเป็นการสร้าง “หนี้เทคนิค” มากกว่าการเพิ่มประสิทธิภาพ แม้จะมีข้อดี เช่น การช่วยให้ junior ทดลองไอเดียเร็วขึ้น หรือเติมช่องว่างความรู้ในงานข้ามสาย แต่ในภาพรวม AI กลับทำให้ “อำนาจการผลิตซอฟต์แวร์” กระจุกตัวอยู่ในมือของผู้มีประสบการณ์มากขึ้น และอาจทำให้โอกาสของนักพัฒนาใหม่หดตัวลง หากองค์กรไม่ปรับวิธีการฝึกและดูแล ✅ AI ช่วยงานด้านโค้ดที่ซ้ำซ้อนและโครงสร้างพื้นฐานได้ดี ➡️ เช่น สร้าง boilerplate, ลอง implementation ใหม่, ตรวจสอบเบื้องต้น ➡️ ทำให้การส่งฟีเจอร์เร็วขึ้น หากรู้ว่าต้องการอะไร ✅ Senior developer ได้ประโยชน์สูงสุดจาก AI ➡️ มีความเข้าใจระบบและสามารถใช้ AI อย่างมีประสิทธิภาพ ➡️ สามารถตรวจสอบและแก้ไขโค้ดที่ AI สร้างได้อย่างแม่นยำ ✅ Junior developer ยังใช้ AI ได้ แต่มีข้อจำกัด ➡️ ขาดทักษะในการเขียน prompt และตรวจสอบผลลัพธ์ ➡️ เสี่ยงต่อการสร้างโค้ดที่มีบั๊กหรือโครงสร้างไม่ดี ✅ AI ยังไม่สามารถออกแบบสถาปัตยกรรมหรือ abstraction ที่ดี ➡️ ต้องอาศัยมนุษย์ในการวางโครงสร้างระบบ ➡️ หากเริ่มต้นผิด อาจเกิดหนี้เทคนิคที่แก้ยากในระยะยาว ✅ การใช้ AI ควรอยู่ภายใต้การดูแลของผู้มีประสบการณ์ ➡️ เพื่อป้องกันการเรียนรู้ผิด ๆ และการสร้างความเสียหาย ➡️ ควรใช้ในงานที่มีความเสี่ยงต่ำ เช่น test, prototype, routine https://elma.dev/notes/ai-makes-seniors-stronger/
    0 Comments 0 Shares 78 Views 0 Reviews
  • “Apollo A6000 คืนชีพ Amiga ยุคใหม่ — FPGA 68080 แรงกว่าเดิม 400 เท่า พร้อมรันเกมคลาสสิกและระบบใหม่ในเครื่องเดียว”

    หลังจากที่ Commodore ล้มละลายไปเมื่อ 31 ปีก่อน และทิ้งให้แฟน Amiga ต้องพึ่งพาเครื่องเก่าและอีมูเลเตอร์มานาน ในที่สุด Apollo Computing จากเยอรมนีก็ได้เปิดตัว “Apollo A6000” — เครื่อง Amiga ยุคใหม่ที่ออกแบบมาเพื่อเป็น “Next-gen Amiga ที่แท้จริง” โดยใช้เทคโนโลยี FPGA เพื่อจำลองสถาปัตยกรรม Motorola 68000 อย่างสมบูรณ์ พร้อมเพิ่มประสิทธิภาพแบบก้าวกระโดด

    หัวใจของเครื่องคือชิป V4 AC68080 ที่ใช้เวลาในการพัฒนานานกว่า 10 ปี โดยผ่านการ reverse-engineer ทั้งชุดคำสั่งและโครงสร้างของ Amiga ดั้งเดิม พร้อมเสริมด้วยชุดคำสั่ง AMMX ที่ช่วยให้การประมวลผลกราฟิกและเสียงเร็วขึ้นอย่างมาก ตัวเครื่องมี RAM ถึง 2GB (Fast RAM) และ 12MB (Chip RAM) ซึ่งมากกว่ารุ่น A600 เดิมถึง 404 เท่า

    Apollo A6000 ยังมาพร้อมกับระบบปฏิบัติการ ApolloOS ที่สามารถรันซอฟต์แวร์ Amiga OS 3.x ได้เต็มรูปแบบ รวมถึงเกม Atari และ MacOS รุ่นเก่าได้อีกด้วย ตัวเครื่องมีพอร์ตเชื่อมต่อทันสมัย เช่น HDMI, USB, Ethernet, SD card, CF card และยังรองรับอุปกรณ์คลาสสิกอย่างเมาส์และจอยสติ๊กแบบ Amiga

    ดีไซน์ภายนอกยังคงความคลาสสิกของ Amiga A600 ด้วยเคส 3D พิมพ์แบบ FDM และคีย์บอร์ดกลไกที่ใช้สวิตช์ Cherry MX พร้อมฝาครอบ ABS เพื่อความทนทานและสัมผัสแบบเรโทร

    แม้ราคาจะสูงถึง €960 หรือประมาณ $1,128 แต่เครื่องล็อตแรกจำนวน 40 เครื่องก็ขายหมดภายในไม่กี่ชั่วโมง และ Apollo เตรียมเปิดรับออร์เดอร์ใหม่ในเดือนตุลาคมนี้

    ข้อมูลสำคัญจากข่าว
    Apollo A6000 เป็นเครื่อง Amiga ยุคใหม่ที่ใช้ FPGA จำลองสถาปัตยกรรม 68000
    ใช้ชิป V4 AC68080 พร้อมชุดคำสั่ง AMMX ที่พัฒนาโดย Apollo เอง
    RAM รวม 2GB Fast RAM และ 12MB Chip RAM มากกว่ารุ่น A600 เดิมถึง 404 เท่า
    รัน ApolloOS ที่รองรับ Amiga OS 3.x, Atari และ MacOS รุ่นเก่า

    ฮาร์ดแวร์และการออกแบบ
    มีพอร์ต HDMI, USB, Ethernet, SD card, CF card และพอร์ตคลาสสิกของ Amiga
    เคสพิมพ์ 3D แบบ FDM พร้อมคีย์บอร์ดกลไก Cherry MX และฝาครอบ ABS
    รองรับการใช้งานทันทีแบบ plug-and-play พร้อมเกมและเดโมในตัว
    ขายล็อตแรก 40 เครื่องในราคา €960 และเตรียมเปิดรับออร์เดอร์ใหม่เร็ว ๆ นี้

    ข้อมูลเสริมจากภายนอก
    FPGA ช่วยให้สามารถจำลองฮาร์ดแวร์เก่าได้อย่างแม่นยำและปรับแต่งได้
    AMMX เป็นชุดคำสั่งที่เพิ่มประสิทธิภาพด้านมัลติมีเดียให้กับ 68080
    Apollo เคยผลิตบอร์ด Vampire สำหรับ Amiga รุ่นเก่ามาก่อน
    ความนิยมของ Amiga ยังคงอยู่ในกลุ่มนักพัฒนาและนักสะสมทั่วโลก

    https://www.tomshardware.com/video-games/retro-gaming/proper-next-gen-amiga-launched-by-apollo-computing-promises-full-fpga-powered-backwards-compatibility-with-its-new-68080-chip
    🕹️ “Apollo A6000 คืนชีพ Amiga ยุคใหม่ — FPGA 68080 แรงกว่าเดิม 400 เท่า พร้อมรันเกมคลาสสิกและระบบใหม่ในเครื่องเดียว” หลังจากที่ Commodore ล้มละลายไปเมื่อ 31 ปีก่อน และทิ้งให้แฟน Amiga ต้องพึ่งพาเครื่องเก่าและอีมูเลเตอร์มานาน ในที่สุด Apollo Computing จากเยอรมนีก็ได้เปิดตัว “Apollo A6000” — เครื่อง Amiga ยุคใหม่ที่ออกแบบมาเพื่อเป็น “Next-gen Amiga ที่แท้จริง” โดยใช้เทคโนโลยี FPGA เพื่อจำลองสถาปัตยกรรม Motorola 68000 อย่างสมบูรณ์ พร้อมเพิ่มประสิทธิภาพแบบก้าวกระโดด หัวใจของเครื่องคือชิป V4 AC68080 ที่ใช้เวลาในการพัฒนานานกว่า 10 ปี โดยผ่านการ reverse-engineer ทั้งชุดคำสั่งและโครงสร้างของ Amiga ดั้งเดิม พร้อมเสริมด้วยชุดคำสั่ง AMMX ที่ช่วยให้การประมวลผลกราฟิกและเสียงเร็วขึ้นอย่างมาก ตัวเครื่องมี RAM ถึง 2GB (Fast RAM) และ 12MB (Chip RAM) ซึ่งมากกว่ารุ่น A600 เดิมถึง 404 เท่า Apollo A6000 ยังมาพร้อมกับระบบปฏิบัติการ ApolloOS ที่สามารถรันซอฟต์แวร์ Amiga OS 3.x ได้เต็มรูปแบบ รวมถึงเกม Atari และ MacOS รุ่นเก่าได้อีกด้วย ตัวเครื่องมีพอร์ตเชื่อมต่อทันสมัย เช่น HDMI, USB, Ethernet, SD card, CF card และยังรองรับอุปกรณ์คลาสสิกอย่างเมาส์และจอยสติ๊กแบบ Amiga ดีไซน์ภายนอกยังคงความคลาสสิกของ Amiga A600 ด้วยเคส 3D พิมพ์แบบ FDM และคีย์บอร์ดกลไกที่ใช้สวิตช์ Cherry MX พร้อมฝาครอบ ABS เพื่อความทนทานและสัมผัสแบบเรโทร แม้ราคาจะสูงถึง €960 หรือประมาณ $1,128 แต่เครื่องล็อตแรกจำนวน 40 เครื่องก็ขายหมดภายในไม่กี่ชั่วโมง และ Apollo เตรียมเปิดรับออร์เดอร์ใหม่ในเดือนตุลาคมนี้ ✅ ข้อมูลสำคัญจากข่าว ➡️ Apollo A6000 เป็นเครื่อง Amiga ยุคใหม่ที่ใช้ FPGA จำลองสถาปัตยกรรม 68000 ➡️ ใช้ชิป V4 AC68080 พร้อมชุดคำสั่ง AMMX ที่พัฒนาโดย Apollo เอง ➡️ RAM รวม 2GB Fast RAM และ 12MB Chip RAM มากกว่ารุ่น A600 เดิมถึง 404 เท่า ➡️ รัน ApolloOS ที่รองรับ Amiga OS 3.x, Atari และ MacOS รุ่นเก่า ✅ ฮาร์ดแวร์และการออกแบบ ➡️ มีพอร์ต HDMI, USB, Ethernet, SD card, CF card และพอร์ตคลาสสิกของ Amiga ➡️ เคสพิมพ์ 3D แบบ FDM พร้อมคีย์บอร์ดกลไก Cherry MX และฝาครอบ ABS ➡️ รองรับการใช้งานทันทีแบบ plug-and-play พร้อมเกมและเดโมในตัว ➡️ ขายล็อตแรก 40 เครื่องในราคา €960 และเตรียมเปิดรับออร์เดอร์ใหม่เร็ว ๆ นี้ ✅ ข้อมูลเสริมจากภายนอก ➡️ FPGA ช่วยให้สามารถจำลองฮาร์ดแวร์เก่าได้อย่างแม่นยำและปรับแต่งได้ ➡️ AMMX เป็นชุดคำสั่งที่เพิ่มประสิทธิภาพด้านมัลติมีเดียให้กับ 68080 ➡️ Apollo เคยผลิตบอร์ด Vampire สำหรับ Amiga รุ่นเก่ามาก่อน ➡️ ความนิยมของ Amiga ยังคงอยู่ในกลุ่มนักพัฒนาและนักสะสมทั่วโลก https://www.tomshardware.com/video-games/retro-gaming/proper-next-gen-amiga-launched-by-apollo-computing-promises-full-fpga-powered-backwards-compatibility-with-its-new-68080-chip
    WWW.TOMSHARDWARE.COM
    ‘Proper next-gen Amiga’ launched by Apollo Computing — promises full FPGA-powered backwards compatibility with its new 68080 chip
    Thirty-one years after Commodore went bankrupt, ceasing development of next-generation Amiga computers, a German Amiga accelerator company steps up.
    0 Comments 0 Shares 108 Views 0 Reviews
  • “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า”

    Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000

    แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้

    ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย

    ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า

    Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark”

    ข้อมูลสำคัญจากข่าว
    Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB
    ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000
    คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน
    ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B

    การเปรียบเทียบกับคลัสเตอร์ Framework
    คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า
    Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน
    Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม
    การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร

    ข้อมูลเสริมจากภายนอก
    Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec
    Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่
    UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก
    บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง

    https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    🧠 “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า” Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000 แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้ ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark” ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB ➡️ ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000 ➡️ คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ➡️ ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B ✅ การเปรียบเทียบกับคลัสเตอร์ Framework ➡️ คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า ➡️ Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน ➡️ Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม ➡️ การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec ➡️ Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่ ➡️ UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก ➡️ บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    0 Comments 0 Shares 108 Views 0 Reviews
  • “แผนที่โลกกลับหัว: Robert Simmon ท้าทายความเคยชิน — เมื่อ ‘ใต้’ ขึ้นมาอยู่บนสุด โลกก็เปลี่ยนไป”

    ถ้าคุณหลับตาแล้วนึกถึงแผนที่โลก ภาพที่ปรากฏในหัวน่าจะเป็นแบบที่เราคุ้นเคย: อเมริกาเหนือและยุโรปอยู่ด้านบน แอฟริกาอยู่ตรงกลาง และออสเตรเลียกับแอนตาร์กติกาอยู่ด้านล่าง แต่ Robert Simmon นักทำแผนที่ผู้เคยร่วมงานกับ NASA Earth Observatory และ Planet Labs ได้ตั้งคำถามว่า “ทำไมต้องเป็นแบบนั้น?” และเขาได้ตอบด้วยการสร้างแผนที่โลกแบบ “south-up” หรือ “ใต้ขึ้นบน” ที่พลิกทุกอย่างกลับหัว

    แผนที่ของ Simmon ยังคงถูกต้องทางภูมิศาสตร์ทุกประการ มีประเทศ ทะเลสาบ เมือง และถนนครบถ้วน พร้อมแผนที่ย่อยแสดงชีวนิเวศของโลก การใช้ที่ดิน และความลึกของมหาสมุทร แต่เมื่อมองด้วยทิศใต้เป็นด้านบน ทุกอย่างดูแปลกตาและชวนให้ตั้งคำถามว่า “ทำไมเราถึงยึดติดกับการวางทิศเหนือไว้ด้านบน?”

    ความจริงคือ แผนที่ในอดีตไม่ได้มีทิศเหนืออยู่ด้านบนเสมอไป ในยุคจีนโบราณ เช่น สมัยราชวงศ์ฮั่นและถัง นักเดินเรือใช้เข็มแม่เหล็กที่ชี้ไปทางใต้เป็นหลัก และแผนที่จำนวนมากในยุโรปยุคกลางก็มีทิศตะวันออกหรือใต้เป็นด้านบน การที่ทิศเหนือกลายเป็นมาตรฐานเกิดจากอิทธิพลของ Ptolemy ซึ่งเป็นผู้กำหนดเส้นละติจูดและลองจิจูด ทำให้แผนที่ที่ตามมารับเอาทิศเหนือไว้ด้านบนโดยอัตโนมัติ

    นอกจากนี้ยังมีมิติทางจิตวิทยา: เรามักมองว่าสิ่งที่อยู่ด้านบนคือ “ดี” และสิ่งที่อยู่ด้านล่างคือ “แย่” ซึ่งส่งผลต่อการรับรู้ทางภูมิศาสตร์ เช่น การมองว่าประเทศทางเหนือมีสถานะสูงกว่าโดยไม่รู้ตัว การเปลี่ยนแผนที่ให้ใต้ขึ้นบนจึงไม่ใช่แค่การกลับหัวภาพ — แต่เป็นการกลับหัวความคิด

    ข้อมูลสำคัญจากข่าว
    Robert Simmon สร้างแผนที่โลกแบบ south-up เพื่อท้าทายความเคยชิน
    แผนที่มีข้อมูลครบถ้วน เช่น ประเทศ เมือง ถนน มหาสมุทร และแผนที่ย่อย
    การวางทิศใต้ไว้ด้านบนทำให้ผู้ดูรู้สึกแปลกตาและตั้งคำถามกับมาตรฐานเดิม
    แผนที่นี้ถูกส่งเข้าร่วมโครงการ Maps.com เพื่อเผยแพร่สู่สาธารณะ

    ประวัติศาสตร์และหลักการ
    ในอดีตแผนที่มีทิศใต้หรือทิศตะวันออกเป็นด้านบน ไม่ใช่ทิศเหนือเสมอไป
    นักเดินเรือจีนโบราณใช้เข็มแม่เหล็กที่ชี้ไปทางใต้เป็นหลัก
    Ptolemy เป็นผู้กำหนดระบบละติจูด–ลองจิจูด ทำให้ทิศเหนือกลายเป็นมาตรฐาน
    การวางทิศบนแผนที่มีผลต่อการรับรู้ทางจิตวิทยาและสังคม

    ข้อมูลเสริมจากภายนอก
    การใช้แผนที่ south-up ถูกนำไปใช้ในห้องเรียนเพื่อกระตุ้นการคิดเชิงวิพากษ์
    นักวิจัยพบว่าเมื่อใช้แผนที่แบบ south-up อคติทางภูมิศาสตร์ลดลง
    ภาษาอังกฤษมีคำพูดที่สะท้อนอคติ เช่น “up north” กับ “down south”
    แผนที่แบบกลับหัวเคยถูกใช้เป็นสัญลักษณ์ทางการเมืองในศตวรรษที่ 20

    https://www.maps.com/this-map-is-not-upside-down/
    🗺️ “แผนที่โลกกลับหัว: Robert Simmon ท้าทายความเคยชิน — เมื่อ ‘ใต้’ ขึ้นมาอยู่บนสุด โลกก็เปลี่ยนไป” ถ้าคุณหลับตาแล้วนึกถึงแผนที่โลก ภาพที่ปรากฏในหัวน่าจะเป็นแบบที่เราคุ้นเคย: อเมริกาเหนือและยุโรปอยู่ด้านบน แอฟริกาอยู่ตรงกลาง และออสเตรเลียกับแอนตาร์กติกาอยู่ด้านล่าง แต่ Robert Simmon นักทำแผนที่ผู้เคยร่วมงานกับ NASA Earth Observatory และ Planet Labs ได้ตั้งคำถามว่า “ทำไมต้องเป็นแบบนั้น?” และเขาได้ตอบด้วยการสร้างแผนที่โลกแบบ “south-up” หรือ “ใต้ขึ้นบน” ที่พลิกทุกอย่างกลับหัว แผนที่ของ Simmon ยังคงถูกต้องทางภูมิศาสตร์ทุกประการ มีประเทศ ทะเลสาบ เมือง และถนนครบถ้วน พร้อมแผนที่ย่อยแสดงชีวนิเวศของโลก การใช้ที่ดิน และความลึกของมหาสมุทร แต่เมื่อมองด้วยทิศใต้เป็นด้านบน ทุกอย่างดูแปลกตาและชวนให้ตั้งคำถามว่า “ทำไมเราถึงยึดติดกับการวางทิศเหนือไว้ด้านบน?” ความจริงคือ แผนที่ในอดีตไม่ได้มีทิศเหนืออยู่ด้านบนเสมอไป ในยุคจีนโบราณ เช่น สมัยราชวงศ์ฮั่นและถัง นักเดินเรือใช้เข็มแม่เหล็กที่ชี้ไปทางใต้เป็นหลัก และแผนที่จำนวนมากในยุโรปยุคกลางก็มีทิศตะวันออกหรือใต้เป็นด้านบน การที่ทิศเหนือกลายเป็นมาตรฐานเกิดจากอิทธิพลของ Ptolemy ซึ่งเป็นผู้กำหนดเส้นละติจูดและลองจิจูด ทำให้แผนที่ที่ตามมารับเอาทิศเหนือไว้ด้านบนโดยอัตโนมัติ นอกจากนี้ยังมีมิติทางจิตวิทยา: เรามักมองว่าสิ่งที่อยู่ด้านบนคือ “ดี” และสิ่งที่อยู่ด้านล่างคือ “แย่” ซึ่งส่งผลต่อการรับรู้ทางภูมิศาสตร์ เช่น การมองว่าประเทศทางเหนือมีสถานะสูงกว่าโดยไม่รู้ตัว การเปลี่ยนแผนที่ให้ใต้ขึ้นบนจึงไม่ใช่แค่การกลับหัวภาพ — แต่เป็นการกลับหัวความคิด ✅ ข้อมูลสำคัญจากข่าว ➡️ Robert Simmon สร้างแผนที่โลกแบบ south-up เพื่อท้าทายความเคยชิน ➡️ แผนที่มีข้อมูลครบถ้วน เช่น ประเทศ เมือง ถนน มหาสมุทร และแผนที่ย่อย ➡️ การวางทิศใต้ไว้ด้านบนทำให้ผู้ดูรู้สึกแปลกตาและตั้งคำถามกับมาตรฐานเดิม ➡️ แผนที่นี้ถูกส่งเข้าร่วมโครงการ Maps.com เพื่อเผยแพร่สู่สาธารณะ ✅ ประวัติศาสตร์และหลักการ ➡️ ในอดีตแผนที่มีทิศใต้หรือทิศตะวันออกเป็นด้านบน ไม่ใช่ทิศเหนือเสมอไป ➡️ นักเดินเรือจีนโบราณใช้เข็มแม่เหล็กที่ชี้ไปทางใต้เป็นหลัก ➡️ Ptolemy เป็นผู้กำหนดระบบละติจูด–ลองจิจูด ทำให้ทิศเหนือกลายเป็นมาตรฐาน ➡️ การวางทิศบนแผนที่มีผลต่อการรับรู้ทางจิตวิทยาและสังคม ✅ ข้อมูลเสริมจากภายนอก ➡️ การใช้แผนที่ south-up ถูกนำไปใช้ในห้องเรียนเพื่อกระตุ้นการคิดเชิงวิพากษ์ ➡️ นักวิจัยพบว่าเมื่อใช้แผนที่แบบ south-up อคติทางภูมิศาสตร์ลดลง ➡️ ภาษาอังกฤษมีคำพูดที่สะท้อนอคติ เช่น “up north” กับ “down south” ➡️ แผนที่แบบกลับหัวเคยถูกใช้เป็นสัญลักษณ์ทางการเมืองในศตวรรษที่ 20 https://www.maps.com/this-map-is-not-upside-down/
    WWW.MAPS.COM
    This Map Is Not Upside Down
    While conventional and commonplace today, maps have not always had north at the top. And they don't need to.
    0 Comments 0 Shares 69 Views 0 Reviews
  • “NASA ผนึกกำลัง Google เปิดสายด่วนวิกฤตอาหารโลก — ใช้ภาพดาวเทียมและ AI คาดการณ์ภัยพิบัติก่อนเกิด”

    หลังจากสงครามรัสเซีย–ยูเครนเริ่มต้นขึ้นในปี 2022 นักวิทยาศาสตร์ด้านพืชผล Inbal Becker-Reshef จาก NASA ได้รับจดหมายจากรัฐบาลยูเครน ขอให้ช่วยประเมินความเสียหายของผลผลิตข้าวสาลีและธัญพืชที่สูญหายไปจากการรุกรานของกองทัพรัสเซีย นั่นคือจุดเริ่มต้นของการใช้ภาพถ่ายดาวเทียมและการประมวลผลด้วย AI เพื่อวิเคราะห์ผลกระทบต่อการเกษตรในพื้นที่สงคราม

    ในปี 2025 Becker-Reshef และทีมงานกว่า 20 คนได้เปิดตัว “สายด่วนวิกฤตอาหารโลก” ซึ่งเป็นศูนย์ประเมินผลผลิตพืชผลแบบเร่งด่วนระดับโลก โดยได้รับเงินทุนเริ่มต้นกว่า 7.7 ล้านดอลลาร์จาก Google.org, Microsoft AI for Good Lab, Planet Labs, NASA และองค์การอาหารแห่งสหประชาชาติ (FAO) จุดประสงค์คือให้รัฐบาล หน่วยงานช่วยเหลือ และสมาคมเกษตรสามารถส่งคำขอวิเคราะห์พื้นที่ที่ได้รับผลกระทบจากภัยพิบัติหรือความขัดแย้ง เพื่อรับข้อมูลล่วงหน้าในการเตรียมรับมือ

    ระบบนี้ใช้ภาพจากดาวเทียมที่ถูกวิเคราะห์ด้วยโมเดล AI เพื่อคาดการณ์ความเสี่ยงด้านอาหารในอนาคต เช่น การสูญเสียผลผลิตจากน้ำท่วม, ภัยแล้ง, ไฟป่า หรือสงคราม ซึ่งในปีเดียวกันนี้มีเหตุการณ์รุนแรงเกิดขึ้นทั่วโลก เช่น น้ำท่วมในปากีสถานที่ทำให้ประชาชนกว่า 4 ล้านคนต้องอพยพ และผลผลิตข้าวกับอ้อยถูกทำลาย

    แนวคิดนี้เป็นส่วนหนึ่งของโครงการ NASA Harvest ซึ่งมีเป้าหมายในการใช้ข้อมูลจากอวกาศเพื่อเสริมสร้างความมั่นคงทางอาหารทั่วโลก โดยเฉพาะในพื้นที่ที่ไม่สามารถเก็บข้อมูลภาคพื้นดินได้ เช่น เขตสงครามหรือพื้นที่ที่มีภัยพิบัติรุนแรง

    ข้อมูลสำคัญจากข่าว
    NASA เปิดสายด่วนวิกฤตอาหารโลกโดยใช้ภาพดาวเทียมและ AI วิเคราะห์
    ได้รับเงินทุนเริ่มต้นกว่า 7.7 ล้านดอลลาร์จาก Google, Microsoft, Planet Labs และ FAO
    ใช้ภาพจากอวกาศเพื่อคาดการณ์ความเสี่ยงด้านอาหารล่วงหน้า
    ศูนย์นี้สามารถรับคำขอจากรัฐบาลและหน่วยงานช่วยเหลือทั่วโลก

    จุดเริ่มต้นและแรงบันดาลใจ
    เริ่มต้นจากคำขอของรัฐบาลยูเครนให้ช่วยประเมินผลผลิตที่สูญหายจากสงคราม
    Becker-Reshef เป็นหัวหน้าทีม NASA Harvest และอาจารย์ที่มหาวิทยาลัยในฝรั่งเศส
    ทีมงานมีนักวิทยาศาสตร์กว่า 20 คนที่เชี่ยวชาญด้านการเกษตรและการวิเคราะห์ภาพดาวเทียม
    ใช้ข้อมูลจากดาวเทียมแทนการเก็บข้อมูลภาคพื้นดินในพื้นที่อันตราย

    ข้อมูลเสริมจากภายนอก
    NASA Harvest เป็นโครงการที่ใช้ข้อมูลอวกาศเพื่อเสริมความมั่นคงทางอาหาร
    ภาพดาวเทียมสามารถช่วยวิเคราะห์ผลผลิต, การหมุนเวียนพืช, และความเสี่ยงจากภัยพิบัติ
    บริษัทเอกชนอย่าง John Deere และ CNH Industrial เริ่มลงทุนในเทคโนโลยีดาวเทียมเพื่อการเกษตร
    การใช้ AI ร่วมกับภาพดาวเทียมช่วยให้การตอบสนองต่อวิกฤตเร็วขึ้นและแม่นยำขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/09/17/nasa-scientist-starts-food-crisis-hotline-with-tech-giant-funding
    🌍 “NASA ผนึกกำลัง Google เปิดสายด่วนวิกฤตอาหารโลก — ใช้ภาพดาวเทียมและ AI คาดการณ์ภัยพิบัติก่อนเกิด” หลังจากสงครามรัสเซีย–ยูเครนเริ่มต้นขึ้นในปี 2022 นักวิทยาศาสตร์ด้านพืชผล Inbal Becker-Reshef จาก NASA ได้รับจดหมายจากรัฐบาลยูเครน ขอให้ช่วยประเมินความเสียหายของผลผลิตข้าวสาลีและธัญพืชที่สูญหายไปจากการรุกรานของกองทัพรัสเซีย นั่นคือจุดเริ่มต้นของการใช้ภาพถ่ายดาวเทียมและการประมวลผลด้วย AI เพื่อวิเคราะห์ผลกระทบต่อการเกษตรในพื้นที่สงคราม ในปี 2025 Becker-Reshef และทีมงานกว่า 20 คนได้เปิดตัว “สายด่วนวิกฤตอาหารโลก” ซึ่งเป็นศูนย์ประเมินผลผลิตพืชผลแบบเร่งด่วนระดับโลก โดยได้รับเงินทุนเริ่มต้นกว่า 7.7 ล้านดอลลาร์จาก Google.org, Microsoft AI for Good Lab, Planet Labs, NASA และองค์การอาหารแห่งสหประชาชาติ (FAO) จุดประสงค์คือให้รัฐบาล หน่วยงานช่วยเหลือ และสมาคมเกษตรสามารถส่งคำขอวิเคราะห์พื้นที่ที่ได้รับผลกระทบจากภัยพิบัติหรือความขัดแย้ง เพื่อรับข้อมูลล่วงหน้าในการเตรียมรับมือ ระบบนี้ใช้ภาพจากดาวเทียมที่ถูกวิเคราะห์ด้วยโมเดล AI เพื่อคาดการณ์ความเสี่ยงด้านอาหารในอนาคต เช่น การสูญเสียผลผลิตจากน้ำท่วม, ภัยแล้ง, ไฟป่า หรือสงคราม ซึ่งในปีเดียวกันนี้มีเหตุการณ์รุนแรงเกิดขึ้นทั่วโลก เช่น น้ำท่วมในปากีสถานที่ทำให้ประชาชนกว่า 4 ล้านคนต้องอพยพ และผลผลิตข้าวกับอ้อยถูกทำลาย แนวคิดนี้เป็นส่วนหนึ่งของโครงการ NASA Harvest ซึ่งมีเป้าหมายในการใช้ข้อมูลจากอวกาศเพื่อเสริมสร้างความมั่นคงทางอาหารทั่วโลก โดยเฉพาะในพื้นที่ที่ไม่สามารถเก็บข้อมูลภาคพื้นดินได้ เช่น เขตสงครามหรือพื้นที่ที่มีภัยพิบัติรุนแรง ✅ ข้อมูลสำคัญจากข่าว ➡️ NASA เปิดสายด่วนวิกฤตอาหารโลกโดยใช้ภาพดาวเทียมและ AI วิเคราะห์ ➡️ ได้รับเงินทุนเริ่มต้นกว่า 7.7 ล้านดอลลาร์จาก Google, Microsoft, Planet Labs และ FAO ➡️ ใช้ภาพจากอวกาศเพื่อคาดการณ์ความเสี่ยงด้านอาหารล่วงหน้า ➡️ ศูนย์นี้สามารถรับคำขอจากรัฐบาลและหน่วยงานช่วยเหลือทั่วโลก ✅ จุดเริ่มต้นและแรงบันดาลใจ ➡️ เริ่มต้นจากคำขอของรัฐบาลยูเครนให้ช่วยประเมินผลผลิตที่สูญหายจากสงคราม ➡️ Becker-Reshef เป็นหัวหน้าทีม NASA Harvest และอาจารย์ที่มหาวิทยาลัยในฝรั่งเศส ➡️ ทีมงานมีนักวิทยาศาสตร์กว่า 20 คนที่เชี่ยวชาญด้านการเกษตรและการวิเคราะห์ภาพดาวเทียม ➡️ ใช้ข้อมูลจากดาวเทียมแทนการเก็บข้อมูลภาคพื้นดินในพื้นที่อันตราย ✅ ข้อมูลเสริมจากภายนอก ➡️ NASA Harvest เป็นโครงการที่ใช้ข้อมูลอวกาศเพื่อเสริมความมั่นคงทางอาหาร ➡️ ภาพดาวเทียมสามารถช่วยวิเคราะห์ผลผลิต, การหมุนเวียนพืช, และความเสี่ยงจากภัยพิบัติ ➡️ บริษัทเอกชนอย่าง John Deere และ CNH Industrial เริ่มลงทุนในเทคโนโลยีดาวเทียมเพื่อการเกษตร ➡️ การใช้ AI ร่วมกับภาพดาวเทียมช่วยให้การตอบสนองต่อวิกฤตเร็วขึ้นและแม่นยำขึ้น https://www.thestar.com.my/tech/tech-news/2025/09/17/nasa-scientist-starts-food-crisis-hotline-with-tech-giant-funding
    WWW.THESTAR.COM.MY
    NASA scientist starts food crisis hotline with tech giant funding
    Right after Russia's full-scale invasion of Ukraine, crop scientist Inbal Becker-Reshef got a letter from officials in Kyiv. They wanted to figure out how much wheat and other grains were lost to Vladimir Putin's occupying forces.
    0 Comments 0 Shares 199 Views 0 Reviews
  • “Loongson 9A1000: ก้าวแรกของ GPU จีนสู่ความเป็นอิสระ — ประสิทธิภาพระดับ RX 550 พร้อมพลัง AI 40 TOPS”

    หลังจากพัฒนาอย่างเงียบ ๆ มาตั้งแต่ปี 2023 บริษัท Loongson Technology ได้ประกาศความคืบหน้าครั้งสำคัญในเดือนกันยายน 2025 กับ GPU รุ่นแรกของบริษัทชื่อว่า “Loongson 9A1000” ซึ่งเตรียมเข้าสู่กระบวนการ tapeout หรือการส่งแบบไปผลิตจริงในไตรมาสที่ 3 ของปีนี้ ถือเป็นการเปิดตัวอย่างเป็นทางการของ Loongson ในตลาดกราฟิกการ์ด หลังจากที่เคยเน้นเฉพาะด้านซีพียูมาก่อน

    9A1000 ถูกวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น โดยมีประสิทธิภาพใกล้เคียงกับ AMD Radeon RX 550 ซึ่งเปิดตัวมาตั้งแต่ปี 2017 แต่สิ่งที่น่าสนใจคือการรองรับการเร่งความเร็วด้าน AI ด้วยพลังประมวลผลสูงถึง 40 TOPS ซึ่งใกล้เคียงกับ NPU รุ่นใหม่ของ AMD อย่าง XDNA 2 ที่ให้ได้ถึง 50 TOPS

    Loongson ยังเผยว่าได้ปรับปรุงสถาปัตยกรรมภายในหลายจุด เช่น ลดพื้นที่ของ stream processor ลง 20% เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลงถึง 70% GPU นี้รองรับ API อย่าง OpenGL 4.0 และ OpenCL ES 3.2 และมีประสิทธิภาพสูงกว่ากราฟิกในตัว LG200 ที่อยู่ในซีพียู 2K3000 ถึง 4 เท่า

    แม้จะยังไม่มีข้อมูลสเปกเต็ม แต่ Loongson ก็ประกาศแผนต่อยอดด้วยรุ่น 9A2000 ที่จะเร็วกว่า 9A1000 ถึง 10 เท่า และมีประสิทธิภาพใกล้เคียงกับ NVIDIA RTX 2080 รวมถึงรุ่น 9A3000 ที่อยู่ในแผนพัฒนาแล้วเช่นกัน

    การเปิดตัวนี้สะท้อนความพยายามของจีนในการสร้าง ecosystem ด้าน GPU ที่พึ่งพาตนเองได้ โดยมีบริษัทอื่น ๆ เช่น Moore Threads, Biren และ Lisuan ร่วมแข่งขันในตลาด แม้หลายสตาร์ทอัพจะล้มเหลวไปก่อนหน้านี้ แต่ Loongson ยังคงเดินหน้าด้วยความมั่นคงและเป้าหมายระยะยาว

    ข้อมูลสำคัญจากข่าว
    Loongson 9A1000 เป็น GPU รุ่นแรกของบริษัท เตรียมเข้าสู่ขั้นตอน tapeout ใน Q3 ปี 2025
    พัฒนาเริ่มต้นตั้งแต่ปี 2023 และวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น
    ประสิทธิภาพใกล้เคียง AMD RX 550 พร้อมรองรับ AI acceleration
    ให้พลังประมวลผล AI สูงถึง 40 TOPS ใกล้เคียงกับ AMD XDNA 2 NPU

    จุดเด่นด้านสถาปัตยกรรม
    ลดพื้นที่ stream processor ลง 20% เพื่อเพิ่มประสิทธิภาพ
    เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลง 70%
    รองรับ OpenGL 4.0 และ OpenCL ES 3.2
    เร็วกว่กราฟิกในตัว LG200 ถึง 4 เท่า

    แผนพัฒนารุ่นต่อไป
    Loongson 9A2000 จะเร็วกว่า 9A1000 ถึง 10 เท่า และใกล้เคียง RTX 2080
    Loongson 9A3000 อยู่ในแผนพัฒนา แต่ยังไม่มีข้อมูลสเปก
    Loongson เข้าร่วมแข่งขันในตลาด GPU จีนร่วมกับ Moore Threads, Biren และ Lisuan

    ข้อมูลเสริมจากภายนอก
    RX 550 เป็นกราฟิกการ์ดระดับเริ่มต้นที่เปิดตัวในปี 2017
    40 TOPS ถือว่าเพียงพอสำหรับงาน AI inference ระดับเบื้องต้น เช่น การรู้จำภาพหรือเสียง
    การลดพลังงานในโหลดต่ำช่วยให้เหมาะกับงาน edge computing และ embedded systems
    การเข้าสู่ตลาด GPU ถือเป็นการขยายขอบเขตธุรกิจของ Loongson จากเดิมที่เน้นซีพียู

    https://www.tomshardware.com/pc-components/gpus/chinas-entry-level-gpu-with-amd-rx-550-level-of-performance-is-ready-for-tapeout-loongson-9a1000-is-finally-off-the-drawing-board-and-headed-to-fabs
    🎮 “Loongson 9A1000: ก้าวแรกของ GPU จีนสู่ความเป็นอิสระ — ประสิทธิภาพระดับ RX 550 พร้อมพลัง AI 40 TOPS” หลังจากพัฒนาอย่างเงียบ ๆ มาตั้งแต่ปี 2023 บริษัท Loongson Technology ได้ประกาศความคืบหน้าครั้งสำคัญในเดือนกันยายน 2025 กับ GPU รุ่นแรกของบริษัทชื่อว่า “Loongson 9A1000” ซึ่งเตรียมเข้าสู่กระบวนการ tapeout หรือการส่งแบบไปผลิตจริงในไตรมาสที่ 3 ของปีนี้ ถือเป็นการเปิดตัวอย่างเป็นทางการของ Loongson ในตลาดกราฟิกการ์ด หลังจากที่เคยเน้นเฉพาะด้านซีพียูมาก่อน 9A1000 ถูกวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น โดยมีประสิทธิภาพใกล้เคียงกับ AMD Radeon RX 550 ซึ่งเปิดตัวมาตั้งแต่ปี 2017 แต่สิ่งที่น่าสนใจคือการรองรับการเร่งความเร็วด้าน AI ด้วยพลังประมวลผลสูงถึง 40 TOPS ซึ่งใกล้เคียงกับ NPU รุ่นใหม่ของ AMD อย่าง XDNA 2 ที่ให้ได้ถึง 50 TOPS Loongson ยังเผยว่าได้ปรับปรุงสถาปัตยกรรมภายในหลายจุด เช่น ลดพื้นที่ของ stream processor ลง 20% เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลงถึง 70% GPU นี้รองรับ API อย่าง OpenGL 4.0 และ OpenCL ES 3.2 และมีประสิทธิภาพสูงกว่ากราฟิกในตัว LG200 ที่อยู่ในซีพียู 2K3000 ถึง 4 เท่า แม้จะยังไม่มีข้อมูลสเปกเต็ม แต่ Loongson ก็ประกาศแผนต่อยอดด้วยรุ่น 9A2000 ที่จะเร็วกว่า 9A1000 ถึง 10 เท่า และมีประสิทธิภาพใกล้เคียงกับ NVIDIA RTX 2080 รวมถึงรุ่น 9A3000 ที่อยู่ในแผนพัฒนาแล้วเช่นกัน การเปิดตัวนี้สะท้อนความพยายามของจีนในการสร้าง ecosystem ด้าน GPU ที่พึ่งพาตนเองได้ โดยมีบริษัทอื่น ๆ เช่น Moore Threads, Biren และ Lisuan ร่วมแข่งขันในตลาด แม้หลายสตาร์ทอัพจะล้มเหลวไปก่อนหน้านี้ แต่ Loongson ยังคงเดินหน้าด้วยความมั่นคงและเป้าหมายระยะยาว ✅ ข้อมูลสำคัญจากข่าว ➡️ Loongson 9A1000 เป็น GPU รุ่นแรกของบริษัท เตรียมเข้าสู่ขั้นตอน tapeout ใน Q3 ปี 2025 ➡️ พัฒนาเริ่มต้นตั้งแต่ปี 2023 และวางตำแหน่งเป็นกราฟิกการ์ดระดับเริ่มต้น ➡️ ประสิทธิภาพใกล้เคียง AMD RX 550 พร้อมรองรับ AI acceleration ➡️ ให้พลังประมวลผล AI สูงถึง 40 TOPS ใกล้เคียงกับ AMD XDNA 2 NPU ✅ จุดเด่นด้านสถาปัตยกรรม ➡️ ลดพื้นที่ stream processor ลง 20% เพื่อเพิ่มประสิทธิภาพ ➡️ เพิ่มความถี่การทำงานขึ้น 25% และลดการใช้พลังงานในโหลดต่ำลง 70% ➡️ รองรับ OpenGL 4.0 และ OpenCL ES 3.2 ➡️ เร็วกว่กราฟิกในตัว LG200 ถึง 4 เท่า ✅ แผนพัฒนารุ่นต่อไป ➡️ Loongson 9A2000 จะเร็วกว่า 9A1000 ถึง 10 เท่า และใกล้เคียง RTX 2080 ➡️ Loongson 9A3000 อยู่ในแผนพัฒนา แต่ยังไม่มีข้อมูลสเปก ➡️ Loongson เข้าร่วมแข่งขันในตลาด GPU จีนร่วมกับ Moore Threads, Biren และ Lisuan ✅ ข้อมูลเสริมจากภายนอก ➡️ RX 550 เป็นกราฟิกการ์ดระดับเริ่มต้นที่เปิดตัวในปี 2017 ➡️ 40 TOPS ถือว่าเพียงพอสำหรับงาน AI inference ระดับเบื้องต้น เช่น การรู้จำภาพหรือเสียง ➡️ การลดพลังงานในโหลดต่ำช่วยให้เหมาะกับงาน edge computing และ embedded systems ➡️ การเข้าสู่ตลาด GPU ถือเป็นการขยายขอบเขตธุรกิจของ Loongson จากเดิมที่เน้นซีพียู https://www.tomshardware.com/pc-components/gpus/chinas-entry-level-gpu-with-amd-rx-550-level-of-performance-is-ready-for-tapeout-loongson-9a1000-is-finally-off-the-drawing-board-and-headed-to-fabs
    0 Comments 0 Shares 174 Views 0 Reviews
  • “TSMC เลี้ยงผึ้งผลิตน้ำผึ้ง ‘Ji Mi’ รอบโรงงาน — เมื่อเทคโนโลยีจับมือธรรมชาติ สร้างความยั่งยืนแบบหวานล้ำ”

    ใครจะคิดว่าโรงงานผลิตชิปที่ใหญ่ที่สุดในโลกจะกลายเป็นแหล่งผลิตน้ำผึ้ง? แต่ TSMC บริษัทเซมิคอนดักเตอร์ยักษ์ใหญ่จากไต้หวันได้พิสูจน์แล้วว่า “ความยั่งยืน” ไม่ใช่แค่คำพูดสวยหรู แต่สามารถสร้างผลลัพธ์ที่จับต้องได้ — และอร่อยด้วย

    ในงาน ‘2025 Asia Pacific Sustainability Expo’ TSMC ได้เปิดตัวน้ำผึ้งแบรนด์ “Ji Mi” ที่ผลิตจากรังผึ้งซึ่งตั้งอยู่รอบโรงงานของบริษัท โดยร่วมมือกับมหาวิทยาลัย Tunghai และกลุ่มผู้เลี้ยงผึ้งท้องถิ่น การกลับมาของผึ้งในพื้นที่โรงงานเกิดจากการฟื้นฟูพืชพรรณพื้นถิ่นที่เหมาะสมกับระบบนิเวศ ซึ่งเป็นผลจากการสำรวจสิ่งแวดล้อมอย่างละเอียด

    น้ำผึ้ง Ji Mi มีหลายรสชาติ ขึ้นอยู่กับชนิดของดอกไม้ที่ปลูกไว้รอบโรงงานแต่ละแห่ง นอกจากผึ้งแล้ว ยังมีสัญญาณอื่น ๆ ที่บ่งบอกว่าธรรมชาติกำลังฟื้นตัว เช่น การกลับมาของปลาท้องถิ่นอย่าง silver goby และแม้แต่หิ่งห้อย ซึ่งถือเป็นตัวชี้วัดความสะอาดของแหล่งน้ำในไต้หวันที่เข้มงวดมาก

    TSMC ยังเผยว่าการจัดการทรัพยากรน้ำในโรงงานใหม่สามารถรีไซเคิลได้มากกว่า 90% และมีอัตราการรีไซเคิลของเสียสูงถึง 97% โดยมีศูนย์ Zero Waste ในเมืองไถจงที่สามารถเปลี่ยนของเสียให้กลายเป็นวัตถุดิบอิเล็กทรอนิกส์ได้อีกครั้ง ถือเป็นการผลักดันเศรษฐกิจหมุนเวียนอย่างเป็นรูปธรรม

    https://www.tomshardware.com/tech-industry/semiconductors/tsm-bee-tsmc-gets-into-the-honey-business-after-working-with-local-beekeepers-to-establish-hives-around-its-fabs
    🍯 “TSMC เลี้ยงผึ้งผลิตน้ำผึ้ง ‘Ji Mi’ รอบโรงงาน — เมื่อเทคโนโลยีจับมือธรรมชาติ สร้างความยั่งยืนแบบหวานล้ำ” ใครจะคิดว่าโรงงานผลิตชิปที่ใหญ่ที่สุดในโลกจะกลายเป็นแหล่งผลิตน้ำผึ้ง? แต่ TSMC บริษัทเซมิคอนดักเตอร์ยักษ์ใหญ่จากไต้หวันได้พิสูจน์แล้วว่า “ความยั่งยืน” ไม่ใช่แค่คำพูดสวยหรู แต่สามารถสร้างผลลัพธ์ที่จับต้องได้ — และอร่อยด้วย ในงาน ‘2025 Asia Pacific Sustainability Expo’ TSMC ได้เปิดตัวน้ำผึ้งแบรนด์ “Ji Mi” ที่ผลิตจากรังผึ้งซึ่งตั้งอยู่รอบโรงงานของบริษัท โดยร่วมมือกับมหาวิทยาลัย Tunghai และกลุ่มผู้เลี้ยงผึ้งท้องถิ่น การกลับมาของผึ้งในพื้นที่โรงงานเกิดจากการฟื้นฟูพืชพรรณพื้นถิ่นที่เหมาะสมกับระบบนิเวศ ซึ่งเป็นผลจากการสำรวจสิ่งแวดล้อมอย่างละเอียด น้ำผึ้ง Ji Mi มีหลายรสชาติ ขึ้นอยู่กับชนิดของดอกไม้ที่ปลูกไว้รอบโรงงานแต่ละแห่ง นอกจากผึ้งแล้ว ยังมีสัญญาณอื่น ๆ ที่บ่งบอกว่าธรรมชาติกำลังฟื้นตัว เช่น การกลับมาของปลาท้องถิ่นอย่าง silver goby และแม้แต่หิ่งห้อย ซึ่งถือเป็นตัวชี้วัดความสะอาดของแหล่งน้ำในไต้หวันที่เข้มงวดมาก TSMC ยังเผยว่าการจัดการทรัพยากรน้ำในโรงงานใหม่สามารถรีไซเคิลได้มากกว่า 90% และมีอัตราการรีไซเคิลของเสียสูงถึง 97% โดยมีศูนย์ Zero Waste ในเมืองไถจงที่สามารถเปลี่ยนของเสียให้กลายเป็นวัตถุดิบอิเล็กทรอนิกส์ได้อีกครั้ง ถือเป็นการผลักดันเศรษฐกิจหมุนเวียนอย่างเป็นรูปธรรม https://www.tomshardware.com/tech-industry/semiconductors/tsm-bee-tsmc-gets-into-the-honey-business-after-working-with-local-beekeepers-to-establish-hives-around-its-fabs
    WWW.TOMSHARDWARE.COM
    TSM-Bee? TSMC gets into the honey business after working with local beekeepers to establish hives around its fabs
    TSMC branded honey is available in several flavors, depending on the flora around a particular fab.
    0 Comments 0 Shares 173 Views 0 Reviews
  • เรื่องเล่าจากการค้นหาซอฟต์แวร์ถึงการถูกควบคุมเครื่อง: เมื่อการคลิกผิดเพียงครั้งเดียวอาจเปิดประตูให้แฮกเกอร์เข้ามา

    ในเดือนสิงหาคม 2025 FortiGuard Labs ได้เปิดเผยแคมเปญโจมตีแบบใหม่ที่ใช้เทคนิค SEO Poisoning เพื่อหลอกผู้ใช้ Windows ที่พูดภาษาจีนให้ดาวน์โหลดมัลแวร์ โดยแฮกเกอร์สร้างเว็บไซต์ปลอมที่ดูเหมือนเว็บของผู้ให้บริการซอฟต์แวร์จริง และใช้ปลั๊กอินพิเศษดันอันดับเว็บไซต์ให้ขึ้นไปอยู่บนสุดของผลการค้นหา

    เมื่อผู้ใช้เข้าเว็บและดาวน์โหลดไฟล์ติดตั้ง จะพบว่าไฟล์นั้นมีทั้งแอปจริงและมัลแวร์แฝงอยู่ ทำให้ผู้ใช้ไม่รู้ตัวว่าติดมัลแวร์แล้ว โดยมัลแวร์จะตรวจสอบก่อนว่าเครื่องนั้นอยู่ในสภาพแวดล้อมวิจัยหรือ sandbox หรือไม่ หากพบว่าเป็นเครื่องทดสอบ มันจะหยุดทำงานทันทีเพื่อหลบเลี่ยงการถูกวิเคราะห์

    มัลแวร์ที่ถูกฝังไว้มีสองตัวหลักคือ Hiddengh0st ซึ่งใช้ควบคุมเครื่องจากระยะไกล และ Winos ซึ่งเน้นขโมยข้อมูล เช่น คีย์ที่พิมพ์, ข้อมูล clipboard, และข้อมูลจากกระเป๋าคริปโตอย่าง Tether และ Ethereum

    เพื่อให้มัลแวร์อยู่ในเครื่องได้นานที่สุด มันจะเปลี่ยนไฟล์ระบบและสร้างไฟล์ใหม่ที่เปิดตัวเองทุกครั้งที่เปิดเครื่อง พร้อมใช้เทคนิคหลอกตา เช่น การเปลี่ยนตัวอักษรในโดเมน (เช่น “google.com” กับ “ɢoogle.com”) เพื่อให้ผู้ใช้ไม่ทันสังเกต

    วิธีการโจมตีแบบ SEO Poisoning
    สร้างเว็บไซต์ปลอมที่เลียนแบบเว็บซอฟต์แวร์จริง
    ใช้ปลั๊กอินดันอันดับเว็บปลอมให้ขึ้นผลการค้นหา
    ผู้ใช้เข้าใจผิดว่าเป็นเว็บจริงและดาวน์โหลดไฟล์ติดตั้ง

    ลักษณะของมัลแวร์ที่ใช้
    Hiddengh0st: ควบคุมเครื่องจากระยะไกล
    Winos: ขโมยข้อมูลส่วนตัวและข้อมูลคริปโต
    ตรวจสอบสภาพแวดล้อมก่อนทำงานเพื่อหลบเลี่ยงการตรวจจับ

    เทคนิคการหลอกลวงเพิ่มเติม
    ใช้โดเมนที่คล้ายกัน เช่น “ɢoogle.com” แทน “google.com”
    ฝังมัลแวร์ไว้ในไฟล์ติดตั้งที่มีแอปจริงร่วมด้วย
    เปลี่ยนไฟล์ระบบและสร้างไฟล์ใหม่เพื่อเปิดตัวเองอัตโนมัติ

    https://hackread.com/seo-poisoning-attack-windows-hiddengh0st-winos-malware/
    🎙️ เรื่องเล่าจากการค้นหาซอฟต์แวร์ถึงการถูกควบคุมเครื่อง: เมื่อการคลิกผิดเพียงครั้งเดียวอาจเปิดประตูให้แฮกเกอร์เข้ามา ในเดือนสิงหาคม 2025 FortiGuard Labs ได้เปิดเผยแคมเปญโจมตีแบบใหม่ที่ใช้เทคนิค SEO Poisoning เพื่อหลอกผู้ใช้ Windows ที่พูดภาษาจีนให้ดาวน์โหลดมัลแวร์ โดยแฮกเกอร์สร้างเว็บไซต์ปลอมที่ดูเหมือนเว็บของผู้ให้บริการซอฟต์แวร์จริง และใช้ปลั๊กอินพิเศษดันอันดับเว็บไซต์ให้ขึ้นไปอยู่บนสุดของผลการค้นหา เมื่อผู้ใช้เข้าเว็บและดาวน์โหลดไฟล์ติดตั้ง จะพบว่าไฟล์นั้นมีทั้งแอปจริงและมัลแวร์แฝงอยู่ ทำให้ผู้ใช้ไม่รู้ตัวว่าติดมัลแวร์แล้ว โดยมัลแวร์จะตรวจสอบก่อนว่าเครื่องนั้นอยู่ในสภาพแวดล้อมวิจัยหรือ sandbox หรือไม่ หากพบว่าเป็นเครื่องทดสอบ มันจะหยุดทำงานทันทีเพื่อหลบเลี่ยงการถูกวิเคราะห์ มัลแวร์ที่ถูกฝังไว้มีสองตัวหลักคือ Hiddengh0st ซึ่งใช้ควบคุมเครื่องจากระยะไกล และ Winos ซึ่งเน้นขโมยข้อมูล เช่น คีย์ที่พิมพ์, ข้อมูล clipboard, และข้อมูลจากกระเป๋าคริปโตอย่าง Tether และ Ethereum เพื่อให้มัลแวร์อยู่ในเครื่องได้นานที่สุด มันจะเปลี่ยนไฟล์ระบบและสร้างไฟล์ใหม่ที่เปิดตัวเองทุกครั้งที่เปิดเครื่อง พร้อมใช้เทคนิคหลอกตา เช่น การเปลี่ยนตัวอักษรในโดเมน (เช่น “google.com” กับ “ɢoogle.com”) เพื่อให้ผู้ใช้ไม่ทันสังเกต ✅ วิธีการโจมตีแบบ SEO Poisoning ➡️ สร้างเว็บไซต์ปลอมที่เลียนแบบเว็บซอฟต์แวร์จริง ➡️ ใช้ปลั๊กอินดันอันดับเว็บปลอมให้ขึ้นผลการค้นหา ➡️ ผู้ใช้เข้าใจผิดว่าเป็นเว็บจริงและดาวน์โหลดไฟล์ติดตั้ง ✅ ลักษณะของมัลแวร์ที่ใช้ ➡️ Hiddengh0st: ควบคุมเครื่องจากระยะไกล ➡️ Winos: ขโมยข้อมูลส่วนตัวและข้อมูลคริปโต ➡️ ตรวจสอบสภาพแวดล้อมก่อนทำงานเพื่อหลบเลี่ยงการตรวจจับ ✅ เทคนิคการหลอกลวงเพิ่มเติม ➡️ ใช้โดเมนที่คล้ายกัน เช่น “ɢoogle.com” แทน “google.com” ➡️ ฝังมัลแวร์ไว้ในไฟล์ติดตั้งที่มีแอปจริงร่วมด้วย ➡️ เปลี่ยนไฟล์ระบบและสร้างไฟล์ใหม่เพื่อเปิดตัวเองอัตโนมัติ https://hackread.com/seo-poisoning-attack-windows-hiddengh0st-winos-malware/
    HACKREAD.COM
    SEO Poisoning Attack Hits Windows Users With Hiddengh0st and Winos Malware
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 153 Views 0 Reviews
  • “ChillyHell กลับมาหลอน macOS อีกครั้ง — มัลแวร์ผ่านการรับรองจาก Apple แอบใช้ Google.com บังหน้า”

    มัลแวร์ macOS ที่เคยเงียบหายไปอย่าง ChillyHell กลับมาอีกครั้งในปี 2025 พร้อมความสามารถที่ซับซ้อนและแนบเนียนกว่าเดิม โดยนักวิจัยจาก Jamf Threat Labs พบตัวอย่างใหม่ที่ถูกอัปโหลดขึ้น VirusTotal เมื่อเดือนพฤษภาคม ซึ่งน่าตกใจคือมันมีคะแนนตรวจจับเป็น “ศูนย์” และยังผ่านกระบวนการ notarization ของ Apple อย่างถูกต้อง ทำให้สามารถรันบน macOS ได้โดยไม่ถูกเตือนจาก Gatekeeper

    ChillyHell เป็นมัลแวร์แบบ backdoor ที่มีโครงสร้างแบบ modular เขียนด้วย C++ สำหรับเครื่อง Intel-based Mac โดยสามารถติดตั้งตัวเองแบบถาวรผ่าน 3 วิธี ได้แก่ LaunchAgent, LaunchDaemon และ shell profile injection เช่น .zshrc หรือ .bash_profile เพื่อให้เริ่มทำงานทุกครั้งที่เปิดเครื่องหรือเปิดเทอร์มินัลใหม่

    เมื่อทำงานแล้ว มัลแวร์จะเชื่อมต่อกับเซิร์ฟเวอร์ควบคุมผ่าน DNS หรือ HTTP โดยใช้ IP ที่ถูก hardcoded ไว้ และสามารถรับคำสั่งจากผู้โจมตี เช่น เปิด reverse shell, ดาวน์โหลด payload ใหม่, อัปเดตตัวเอง หรือแม้แต่ใช้ brute-force เพื่อเจาะรหัสผ่านของผู้ใช้ โดยมีโมดูลเฉพาะสำหรับการโจมตี Kerberos authentication

    เพื่อหลบเลี่ยงการตรวจจับ ChillyHell ใช้เทคนิค timestomping เพื่อเปลี่ยนวันที่ของไฟล์ให้ดูเก่า และเปิดหน้า Google.com ในเบราว์เซอร์เพื่อเบี่ยงเบนความสนใจของผู้ใช้ ทำให้ดูเหมือนว่าไม่มีอะไรผิดปกติเกิดขึ้น

    แม้ Apple จะรีบเพิกถอนใบรับรองนักพัฒนาที่เกี่ยวข้องทันทีหลังได้รับรายงานจาก Jamf แต่เหตุการณ์นี้สะท้อนถึงช่องโหว่สำคัญในระบบความปลอดภัยของ macOS ที่ไม่สามารถป้องกันมัลแวร์ที่ได้รับการรับรองอย่างเป็นทางการได้

    รายละเอียดของมัลแวร์ ChillyHell
    เป็น backdoor แบบ modular เขียนด้วย C++ สำหรับ Intel-based Macs
    ผ่านการ notarization ของ Apple ตั้งแต่ปี 2021 โดยไม่มีการตรวจพบ
    ถูกอัปโหลดขึ้น VirusTotal ในปี 2025 โดยมีคะแนนตรวจจับเป็นศูนย์
    ถูกพบว่าเคยถูกโฮสต์บน Dropbox แบบสาธารณะตั้งแต่ปี 2021

    วิธีการติดตั้งและการทำงาน
    ติดตั้งตัวเองแบบถาวรผ่าน LaunchAgent, LaunchDaemon และ shell profile injection
    เชื่อมต่อกับเซิร์ฟเวอร์ควบคุมผ่าน DNS และ HTTP ด้วย IP ที่ถูก hardcoded
    ใช้โมดูลต่าง ๆ เช่น reverse shell, payload loader, updater และ brute-force password cracker
    ใช้เทคนิค timestomping เพื่อเปลี่ยนวันที่ไฟล์ให้ดูเก่าและหลบเลี่ยงการตรวจสอบ

    กลยุทธ์ในการหลบซ่อน
    เปิดหน้า Google.com ในเบราว์เซอร์เพื่อเบี่ยงเบนความสนใจของผู้ใช้
    ปรับพฤติกรรมการสื่อสารกับเซิร์ฟเวอร์เพื่อหลบเลี่ยงการตรวจจับ
    ใช้ shell command เช่น touch -c -a -t เพื่อเปลี่ยน timestamp หากไม่มีสิทธิ์ระบบ
    ทำงานแบบเงียบ ๆ โดยไม่มีการแจ้งเตือนหรือพฤติกรรมผิดปกติที่ชัดเจน

    ข้อมูลเสริมจากภายนอก
    ChillyHell เคยถูกเชื่อมโยงกับกลุ่ม UNC4487 ที่โจมตีเว็บไซต์ในยูเครน
    มัลแวร์นี้มีความสามารถคล้าย RAT (Remote Access Trojan) แต่ซับซ้อนกว่า
    Modular backdoor ที่มี brute-force capability ถือว่าแปลกใหม่ใน macOS
    Jamf และ Apple ร่วมมือกันเพิกถอนใบรับรองนักพัฒนาที่เกี่ยวข้องทันที

    https://hackread.com/chillyhell-macos-malware-resurfaces-google-com-decoy/
    🧨 “ChillyHell กลับมาหลอน macOS อีกครั้ง — มัลแวร์ผ่านการรับรองจาก Apple แอบใช้ Google.com บังหน้า” มัลแวร์ macOS ที่เคยเงียบหายไปอย่าง ChillyHell กลับมาอีกครั้งในปี 2025 พร้อมความสามารถที่ซับซ้อนและแนบเนียนกว่าเดิม โดยนักวิจัยจาก Jamf Threat Labs พบตัวอย่างใหม่ที่ถูกอัปโหลดขึ้น VirusTotal เมื่อเดือนพฤษภาคม ซึ่งน่าตกใจคือมันมีคะแนนตรวจจับเป็น “ศูนย์” และยังผ่านกระบวนการ notarization ของ Apple อย่างถูกต้อง ทำให้สามารถรันบน macOS ได้โดยไม่ถูกเตือนจาก Gatekeeper ChillyHell เป็นมัลแวร์แบบ backdoor ที่มีโครงสร้างแบบ modular เขียนด้วย C++ สำหรับเครื่อง Intel-based Mac โดยสามารถติดตั้งตัวเองแบบถาวรผ่าน 3 วิธี ได้แก่ LaunchAgent, LaunchDaemon และ shell profile injection เช่น .zshrc หรือ .bash_profile เพื่อให้เริ่มทำงานทุกครั้งที่เปิดเครื่องหรือเปิดเทอร์มินัลใหม่ เมื่อทำงานแล้ว มัลแวร์จะเชื่อมต่อกับเซิร์ฟเวอร์ควบคุมผ่าน DNS หรือ HTTP โดยใช้ IP ที่ถูก hardcoded ไว้ และสามารถรับคำสั่งจากผู้โจมตี เช่น เปิด reverse shell, ดาวน์โหลด payload ใหม่, อัปเดตตัวเอง หรือแม้แต่ใช้ brute-force เพื่อเจาะรหัสผ่านของผู้ใช้ โดยมีโมดูลเฉพาะสำหรับการโจมตี Kerberos authentication เพื่อหลบเลี่ยงการตรวจจับ ChillyHell ใช้เทคนิค timestomping เพื่อเปลี่ยนวันที่ของไฟล์ให้ดูเก่า และเปิดหน้า Google.com ในเบราว์เซอร์เพื่อเบี่ยงเบนความสนใจของผู้ใช้ ทำให้ดูเหมือนว่าไม่มีอะไรผิดปกติเกิดขึ้น แม้ Apple จะรีบเพิกถอนใบรับรองนักพัฒนาที่เกี่ยวข้องทันทีหลังได้รับรายงานจาก Jamf แต่เหตุการณ์นี้สะท้อนถึงช่องโหว่สำคัญในระบบความปลอดภัยของ macOS ที่ไม่สามารถป้องกันมัลแวร์ที่ได้รับการรับรองอย่างเป็นทางการได้ ✅ รายละเอียดของมัลแวร์ ChillyHell ➡️ เป็น backdoor แบบ modular เขียนด้วย C++ สำหรับ Intel-based Macs ➡️ ผ่านการ notarization ของ Apple ตั้งแต่ปี 2021 โดยไม่มีการตรวจพบ ➡️ ถูกอัปโหลดขึ้น VirusTotal ในปี 2025 โดยมีคะแนนตรวจจับเป็นศูนย์ ➡️ ถูกพบว่าเคยถูกโฮสต์บน Dropbox แบบสาธารณะตั้งแต่ปี 2021 ✅ วิธีการติดตั้งและการทำงาน ➡️ ติดตั้งตัวเองแบบถาวรผ่าน LaunchAgent, LaunchDaemon และ shell profile injection ➡️ เชื่อมต่อกับเซิร์ฟเวอร์ควบคุมผ่าน DNS และ HTTP ด้วย IP ที่ถูก hardcoded ➡️ ใช้โมดูลต่าง ๆ เช่น reverse shell, payload loader, updater และ brute-force password cracker ➡️ ใช้เทคนิค timestomping เพื่อเปลี่ยนวันที่ไฟล์ให้ดูเก่าและหลบเลี่ยงการตรวจสอบ ✅ กลยุทธ์ในการหลบซ่อน ➡️ เปิดหน้า Google.com ในเบราว์เซอร์เพื่อเบี่ยงเบนความสนใจของผู้ใช้ ➡️ ปรับพฤติกรรมการสื่อสารกับเซิร์ฟเวอร์เพื่อหลบเลี่ยงการตรวจจับ ➡️ ใช้ shell command เช่น touch -c -a -t เพื่อเปลี่ยน timestamp หากไม่มีสิทธิ์ระบบ ➡️ ทำงานแบบเงียบ ๆ โดยไม่มีการแจ้งเตือนหรือพฤติกรรมผิดปกติที่ชัดเจน ✅ ข้อมูลเสริมจากภายนอก ➡️ ChillyHell เคยถูกเชื่อมโยงกับกลุ่ม UNC4487 ที่โจมตีเว็บไซต์ในยูเครน ➡️ มัลแวร์นี้มีความสามารถคล้าย RAT (Remote Access Trojan) แต่ซับซ้อนกว่า ➡️ Modular backdoor ที่มี brute-force capability ถือว่าแปลกใหม่ใน macOS ➡️ Jamf และ Apple ร่วมมือกันเพิกถอนใบรับรองนักพัฒนาที่เกี่ยวข้องทันที https://hackread.com/chillyhell-macos-malware-resurfaces-google-com-decoy/
    HACKREAD.COM
    ChillyHell macOS Malware Resurfaces, Using Google.com as a Decoy
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 238 Views 0 Reviews
  • “openSUSE เตรียมถอด Bcachefs ออกจาก Tumbleweed ใน Linux 6.17 — เมื่อความขัดแย้งในชุมชน kernel กลายเป็นเหตุผลทางเทคนิค”

    openSUSE ประกาศเตรียมปิดการรองรับระบบไฟล์ Bcachefs ในดิสโทร Tumbleweed และ Slowroll ตั้งแต่เวอร์ชัน Linux kernel 6.17 เป็นต้นไป ซึ่งจะปล่อยในช่วงปลายเดือนกันยายนหรือต้นตุลาคม 2025 โดยเหตุผลหลักมาจากการที่ Linus Torvalds และทีมหลักของ Linux kernel เปลี่ยนสถานะของ Bcachefs จาก “supported” เป็น “externally maintained” เนื่องจากผู้ดูแล Bcachefs ปฏิเสธที่จะปฏิบัติตามมาตรฐานการแก้บั๊กและการจัดการเวอร์ชันของ kernel

    การเปลี่ยนสถานะนี้หมายความว่า Bcachefs จะไม่ได้รับการอัปเดตหรือ commit ใหม่ใน kernel หลักอีกต่อไป ทำให้ดิสโทรที่ใช้ kernel รุ่นล่าสุด เช่น openSUSE ตัดสินใจปิดการรองรับเพื่อหลีกเลี่ยงปัญหาด้านความเสถียรและความปลอดภัย โดย Jiri Slaby จาก SUSE Labs ระบุว่า ผู้ใช้ที่ยังต้องการใช้งาน Bcachefs ควรติดตามคำแนะนำจาก upstream และอาจต้องสร้าง Kernel Module Package (KMP) ด้วยตนเอง

    แม้ openSUSE จะไม่ลบ Bcachefs ออกจาก kernel ทันที แต่จะไม่ดูแล patch หรือ backport ใด ๆ อีกต่อไป และจะเปิดใช้งานอีกครั้งก็ต่อเมื่อผู้ดูแล Bcachefs ปรับปรุงพฤติกรรมและกลับมาร่วมมือกับชุมชน kernel อย่างเหมาะสม

    การเปลี่ยนแปลงใน openSUSE Tumbleweed
    ปิดการรองรับ Bcachefs ตั้งแต่ Linux kernel 6.17 เป็นต้นไป
    ส่งผลต่อผู้ใช้ openSUSE Tumbleweed และ Slowroll โดยตรง
    Linux 6.16 ยังใช้งาน Bcachefs ได้ตามปกติ — ไม่ได้รับผลกระทบ
    ผู้ใช้ที่ต้องการใช้งานต่อควรหลีกเลี่ยงการอัปเดตเป็น 6.17

    เหตุผลเบื้องหลังการตัดสินใจ
    Linus Torvalds เปลี่ยนสถานะ Bcachefs เป็น “externally maintained”
    ทีมหลักของ kernel ไม่รับ commit ใหม่จาก Bcachefs อีกต่อไป
    ผู้ดูแล Bcachefs ปฏิเสธการปฏิบัติตามมาตรฐานการแก้บั๊กและเวอร์ชัน
    openSUSE ไม่ดูแลระบบไฟล์ที่ไม่ได้รับการสนับสนุนจาก upstream

    ทางเลือกสำหรับผู้ใช้ Bcachefs
    ติดตามคำแนะนำจาก upstream Bcachefs สำหรับการติดตั้งแบบ manual
    อาจต้องสร้าง KMP (Kernel Module Package) ด้วยตนเอง
    openSUSE ไม่สนับสนุน DKMS modules เนื่องจากไม่เหมาะกับ rolling release
    ควรพิจารณาย้ายข้อมูลไปยังระบบไฟล์อื่นที่ได้รับการสนับสนุน

    ข้อมูลเสริมจากภายนอก
    Kent Overstreet ผู้ดูแล Bcachefs เคยขอเลื่อนการถอดออกจาก kernel 6.17 เป็น 6.18
    มีความขัดแย้งระหว่าง Kent กับนักพัฒนา kernel หลายคน เช่น Josef Bacik และ Theodore Ts’o
    ปัญหาไม่ได้อยู่ที่คุณภาพของ Bcachefs แต่เป็นพฤติกรรมของผู้ดูแลที่ถูกมองว่า “เป็นพิษ”
    Linus Torvalds ระบุว่า “เขาและ Kent จบกันแล้ว” — สะท้อนความตึงเครียดในชุมชน

    https://9to5linux.com/opensuse-to-disable-bcachefs-file-system-support-in-tumbleweed-with-linux-6-17
    🧩 “openSUSE เตรียมถอด Bcachefs ออกจาก Tumbleweed ใน Linux 6.17 — เมื่อความขัดแย้งในชุมชน kernel กลายเป็นเหตุผลทางเทคนิค” openSUSE ประกาศเตรียมปิดการรองรับระบบไฟล์ Bcachefs ในดิสโทร Tumbleweed และ Slowroll ตั้งแต่เวอร์ชัน Linux kernel 6.17 เป็นต้นไป ซึ่งจะปล่อยในช่วงปลายเดือนกันยายนหรือต้นตุลาคม 2025 โดยเหตุผลหลักมาจากการที่ Linus Torvalds และทีมหลักของ Linux kernel เปลี่ยนสถานะของ Bcachefs จาก “supported” เป็น “externally maintained” เนื่องจากผู้ดูแล Bcachefs ปฏิเสธที่จะปฏิบัติตามมาตรฐานการแก้บั๊กและการจัดการเวอร์ชันของ kernel การเปลี่ยนสถานะนี้หมายความว่า Bcachefs จะไม่ได้รับการอัปเดตหรือ commit ใหม่ใน kernel หลักอีกต่อไป ทำให้ดิสโทรที่ใช้ kernel รุ่นล่าสุด เช่น openSUSE ตัดสินใจปิดการรองรับเพื่อหลีกเลี่ยงปัญหาด้านความเสถียรและความปลอดภัย โดย Jiri Slaby จาก SUSE Labs ระบุว่า ผู้ใช้ที่ยังต้องการใช้งาน Bcachefs ควรติดตามคำแนะนำจาก upstream และอาจต้องสร้าง Kernel Module Package (KMP) ด้วยตนเอง แม้ openSUSE จะไม่ลบ Bcachefs ออกจาก kernel ทันที แต่จะไม่ดูแล patch หรือ backport ใด ๆ อีกต่อไป และจะเปิดใช้งานอีกครั้งก็ต่อเมื่อผู้ดูแล Bcachefs ปรับปรุงพฤติกรรมและกลับมาร่วมมือกับชุมชน kernel อย่างเหมาะสม ✅ การเปลี่ยนแปลงใน openSUSE Tumbleweed ➡️ ปิดการรองรับ Bcachefs ตั้งแต่ Linux kernel 6.17 เป็นต้นไป ➡️ ส่งผลต่อผู้ใช้ openSUSE Tumbleweed และ Slowroll โดยตรง ➡️ Linux 6.16 ยังใช้งาน Bcachefs ได้ตามปกติ — ไม่ได้รับผลกระทบ ➡️ ผู้ใช้ที่ต้องการใช้งานต่อควรหลีกเลี่ยงการอัปเดตเป็น 6.17 ✅ เหตุผลเบื้องหลังการตัดสินใจ ➡️ Linus Torvalds เปลี่ยนสถานะ Bcachefs เป็น “externally maintained” ➡️ ทีมหลักของ kernel ไม่รับ commit ใหม่จาก Bcachefs อีกต่อไป ➡️ ผู้ดูแล Bcachefs ปฏิเสธการปฏิบัติตามมาตรฐานการแก้บั๊กและเวอร์ชัน ➡️ openSUSE ไม่ดูแลระบบไฟล์ที่ไม่ได้รับการสนับสนุนจาก upstream ✅ ทางเลือกสำหรับผู้ใช้ Bcachefs ➡️ ติดตามคำแนะนำจาก upstream Bcachefs สำหรับการติดตั้งแบบ manual ➡️ อาจต้องสร้าง KMP (Kernel Module Package) ด้วยตนเอง ➡️ openSUSE ไม่สนับสนุน DKMS modules เนื่องจากไม่เหมาะกับ rolling release ➡️ ควรพิจารณาย้ายข้อมูลไปยังระบบไฟล์อื่นที่ได้รับการสนับสนุน ✅ ข้อมูลเสริมจากภายนอก ➡️ Kent Overstreet ผู้ดูแล Bcachefs เคยขอเลื่อนการถอดออกจาก kernel 6.17 เป็น 6.18 ➡️ มีความขัดแย้งระหว่าง Kent กับนักพัฒนา kernel หลายคน เช่น Josef Bacik และ Theodore Ts’o ➡️ ปัญหาไม่ได้อยู่ที่คุณภาพของ Bcachefs แต่เป็นพฤติกรรมของผู้ดูแลที่ถูกมองว่า “เป็นพิษ” ➡️ Linus Torvalds ระบุว่า “เขาและ Kent จบกันแล้ว” — สะท้อนความตึงเครียดในชุมชน https://9to5linux.com/opensuse-to-disable-bcachefs-file-system-support-in-tumbleweed-with-linux-6-17
    9TO5LINUX.COM
    openSUSE to Disable Bcachefs File System Support in Tumbleweed with Linux 6.17 - 9to5Linux
    openSUSE devs plan to disable support for the Bcachefs file system in openSUSE Tumbleweed with the upcoming Linux 6.17 kernel update.
    0 Comments 0 Shares 173 Views 0 Reviews
  • “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร”

    ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง

    ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง

    Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด

    หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C

    การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก

    การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle
    TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park
    เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง
    ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ
    เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก

    ความสำคัญของ pellicle ใน EUV
    ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง
    ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์
    EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C
    pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง

    เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา
    ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน
    ลด optical absorption และ wavefront distortion
    รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง
    เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm

    ข้อมูลเสริมจากภายนอก
    ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui
    EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ
    ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี
    การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect

    https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    🔬 “TSMC พลิกโรงงานเก่า สร้างสายการผลิต EUV Pellicle — ก้าวใหม่สู่การควบคุมคุณภาพชิประดับนาโนเมตร” ในโลกของการผลิตเซมิคอนดักเตอร์ขั้นสูง เทคโนโลยี EUV (Extreme Ultraviolet Lithography) คือหัวใจของการสร้างชิประดับ 2 นาโนเมตรและต่ำกว่า แต่สิ่งที่มักถูกมองข้ามคือ “pellicle” — แผ่นฟิล์มบางใสที่ยืดอยู่เหนือ photomask เพื่อป้องกันฝุ่นและอนุภาคระหว่างการยิงแสง EUV ซึ่งหากไม่มี pellicle อาจทำให้เกิดข้อผิดพลาดซ้ำซ้อนบนแผ่นเวเฟอร์ และลด yield อย่างรุนแรง ล่าสุด TSMC ได้ประกาศนำโรงงานเก่า Fab 3 ขนาด 8 นิ้วใน Hsinchu Science Park กลับมาใช้งานใหม่ เพื่อผลิต EUV pellicle ด้วยตนเอง โดยไม่พึ่งพาซัพพลายเออร์ภายนอกอีกต่อไป เป้าหมายคือการลดต้นทุนต่อชิ้น เพิ่มความสามารถในการควบคุมคุณภาพ และทำให้การใช้งาน pellicle ในระดับ mass production เป็นไปได้จริง Pellicle สำหรับ EUV มีราคาสูงถึง $30,000 ต่อชิ้น เทียบกับ pellicle สำหรับ DUV ที่มีราคาเพียง $600 ซึ่งทำให้หลายโรงงานลังเลที่จะใช้แบบครอบคลุม ส่งผลให้เกิดช่องว่างด้าน yield ในบางกรณี TSMC จึงต้องการลดต้นทุนและเพิ่มความถี่ในการเปลี่ยน pellicle เพื่อรักษาคุณภาพ photomask ให้สูงสุด หนึ่งในเทคโนโลยีที่ TSMC กำลังพัฒนา คือการใช้ “carbon nanotube membrane” ซึ่งมีคุณสมบัติทนความร้อนสูง โปร่งแสง และไม่บิดเบือนคลื่นแสง — เหมาะกับการใช้งานในสภาพแวดล้อมที่มีแสง EUV ความเข้มสูงถึง 400W และอุณหภูมิใกล้ 1,000°C การผลิต pellicle ภายในยังสอดคล้องกับการเร่งพัฒนาเทคโนโลยี N2 และ A16 ของ TSMC ซึ่งต้องการ yield ที่สูงขึ้นเพื่อรักษาความเป็นผู้นำในตลาดชิประดับนาโนเมตร และลดความเสี่ยงจากการพึ่งพาซัพพลายเชนภายนอก ✅ การปรับโรงงาน Fab 3 เพื่อผลิต EUV pellicle ➡️ TSMC นำโรงงานเก่าขนาด 8 นิ้วกลับมาใช้งานใน Hsinchu Science Park ➡️ เป้าหมายคือผลิต pellicle สำหรับ EUV lithography ด้วยตนเอง ➡️ ลดต้นทุนต่อชิ้น และเพิ่มความถี่ในการเปลี่ยนเพื่อรักษาคุณภาพ ➡️ เพิ่มความสามารถในการควบคุม yield และลดการพึ่งพาซัพพลายภายนอก ✅ ความสำคัญของ pellicle ใน EUV ➡️ ป้องกันฝุ่นและอนุภาคจาก photomask ระหว่างการยิงแสง ➡️ ลดความเสี่ยงในการเกิด defect ซ้ำซ้อนบนเวเฟอร์ ➡️ EUV ใช้แหล่งแสง 400W และอุณหภูมิสูงถึง 1,000°C ➡️ pellicle ต้องทนความร้อนและไม่บิดเบือนคลื่นแสง ✅ เทคโนโลยีใหม่ที่ TSMC กำลังพัฒนา ➡️ ใช้ carbon nanotube membrane ที่โปร่งแสงและทนทาน ➡️ ลด optical absorption และ wavefront distortion ➡️ รองรับการใช้งานใน N2 และ A16 node ที่ต้องการ yield สูง ➡️ เป็นกุญแจสำคัญในการแข่งขันกับ Intel และ Rapidus ในระดับ 2nm ✅ ข้อมูลเสริมจากภายนอก ➡️ ASML เคยเป็นผู้ผลิต pellicle รายเดียว แต่เริ่มถ่ายโอนให้ Mitsui ➡️ EUV pellicle เคยไม่พร้อมใช้งานในช่วงเริ่มต้น 7nm ทำให้ yield ต่ำ ➡️ ราคาของ photomask EUV สูงถึง $300,000 — ต้องการการปกป้องที่ดี ➡️ การใช้ pellicle ช่วยลดความต้องการ metrology และการตรวจสอบ defect https://www.techpowerup.com/340862/tsmc-repurposing-old-fabs-to-bring-euv-pellicle-production-in-house
    WWW.TECHPOWERUP.COM
    TSMC Repurposing Old Fabs to Bring EUV Pellicle Production In-House
    TSMC is repurposing its old, wound-down, 8-inch Fab 3 in Hsinchu Science Park to produce extreme ultraviolet pellicles, bringing this production in-house. An EUV pellicle is a thin, highly transparent membrane stretched above a photomask to prevent particles from contacting the mask during EUV expos...
    0 Comments 0 Shares 167 Views 0 Reviews
  • “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ”

    จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ

    แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน

    แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ

    นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป

    ความคืบหน้าการผลิตชิป AI ในจีน
    Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026
    SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class
    Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B
    SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027

    ปัญหาด้านหน่วยความจำ HBM
    Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน
    คาดว่า HBM จะหมดภายในสิ้นปี 2025
    CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป
    YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM

    การลงทุนและแผนระยะยาว
    Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง
    ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน
    หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ
    เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ

    ข้อมูลเสริมจากภายนอก
    NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้
    CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน
    Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI
    จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    🇨🇳 “จีนเร่งผลิตชิป AI ในประเทศ แต่ติดขัดสองด่านใหญ่ — โรงงานผลิตขั้นสูงและหน่วยความจำ HBM ยังเป็นอุปสรรคสำคัญ” จีนกำลังเดินหน้าสร้างความพึ่งพาตนเองด้านฮาร์ดแวร์ AI อย่างจริงจัง โดยบริษัทชั้นนำอย่าง Huawei และ Cambricon ได้เริ่มเร่งผลิตตัวเร่ง AI (AI accelerators) ภายในโรงงานในประเทศ โดยคาดว่าจะผลิตได้มากกว่า 1 ล้านชิ้นภายในปี 2026 ซึ่งถือเป็นก้าวสำคัญในการลดการพึ่งพา NVIDIA และผู้ผลิตต่างชาติ แต่ความทะเยอทะยานนี้ยังติดขัดจากสองอุปสรรคใหญ่ ได้แก่ ความสามารถของโรงงานผลิตเซมิคอนดักเตอร์ขั้นสูง (เช่น SMIC) และการขาดแคลนหน่วยความจำ HBM ซึ่งจำเป็นต่อการทำงานของชิป AI ระดับสูง โดยเฉพาะรุ่น Ascend 910B และ 910C ที่ Huawei ใช้ในศูนย์ข้อมูลของตน แม้ SMIC จะเริ่มผลิตชิป Ascend ได้ในระดับ 7nm-class แต่ยังมีข้อจำกัดด้าน yield และระยะเวลาการผลิตที่ยาวนานกว่ามาตรฐานโลกถึงสองเท่า ขณะที่ HBM ซึ่งเคยสต็อกไว้จาก Samsung กว่า 11 ล้านชุด ก็กำลังจะหมดลงภายในสิ้นปี 2025 และผู้ผลิตในประเทศอย่าง CXMT ยังไม่สามารถผลิตได้ในระดับที่เพียงพอ นอกจากนี้ Huawei ยังถูกกล่าวหาว่าเคยใช้บริษัทตัวแทนในการสั่งผลิตชิปจาก TSMC โดยหลบเลี่ยงข้อจำกัดจากสหรัฐฯ ซึ่งทำให้เกิดความตึงเครียดในอุตสาหกรรม และผลักดันให้จีนต้องเร่งสร้างโรงงานของตนเอง พร้อมลงทุนกว่า 9 พันล้านดอลลาร์ในอุปกรณ์ผลิตชิป ✅ ความคืบหน้าการผลิตชิป AI ในจีน ➡️ Huawei และ Cambricon ตั้งเป้าผลิต AI accelerators กว่า 1 ล้านชิ้นในปี 2026 ➡️ SMIC เริ่มผลิตชิป Ascend 910B และ 910C ด้วยเทคโนโลยี 7nm-class ➡️ Huawei เคยใช้ TSMC ผ่านบริษัทตัวแทนเพื่อผลิตชิป Ascend 910B ➡️ SMIC เพิ่มกำลังผลิตจาก 20,000 เป็น 80,000 wafers ต่อเดือนภายในปี 2027 ✅ ปัญหาด้านหน่วยความจำ HBM ➡️ Huawei เคยสต็อก HBM จาก Samsung กว่า 11.7 ล้านชุดก่อนถูกแบน ➡️ คาดว่า HBM จะหมดภายในสิ้นปี 2025 ➡️ CXMT ผลิต HBM ได้เพียง 2.2 ล้านชุดในปี 2026 — รองรับได้แค่ 250,000–400,000 ชิป ➡️ YMTC เตรียมเข้าสู่ตลาด DRAM และใช้เทคโนโลยี Xtacking เพื่อผลิต HBM ✅ การลงทุนและแผนระยะยาว ➡️ Huawei ลงทุนกว่า $9 พันล้านในอุปกรณ์ผลิตชิปเพื่อสร้างโรงงานของตนเอง ➡️ ก่อตั้งบริษัท SiCarrier เพื่อผลิตเครื่องมือสำหรับโรงงาน ➡️ หากสำเร็จ จะช่วยลดภาระ SMIC และเพิ่มความสามารถในการผลิตในประเทศ ➡️ เป้าหมายคือการสร้างระบบผลิตชิปแบบครบวงจรโดยไม่พึ่งต่างชาติ ✅ ข้อมูลเสริมจากภายนอก ➡️ NVIDIA ยังสามารถส่งชิป AI รุ่นลดสเปก เช่น H20 และ B30A ให้จีนได้ ➡️ CUDA ของ NVIDIA ยังเป็นอุปสรรคต่อการเปลี่ยนไปใช้ฮาร์ดแวร์จีน ➡️ Huawei พัฒนา CANN เป็นทางเลือกแทน CUDA สำหรับงาน AI ➡️ จีนมีแผนสร้างศูนย์ข้อมูล AI 39 แห่ง โดยใช้ GPU ที่ถูกจำกัดจากสหรัฐฯ https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-chip-champions-ramp-up-production-of-ai-accelerators-at-domestic-fabs-but-hbm-and-fab-production-capacity-are-towering-bottlenecks
    0 Comments 0 Shares 206 Views 0 Reviews
  • “Alterego เปิดตัวอุปกรณ์สวมใส่ ‘ใกล้เคียงโทรจิต’ พิมพ์ด้วยความคิด คุยเงียบๆ ได้ และแปลภาษาแบบไร้เสียง — ก้าวใหม่ของการสื่อสารมนุษย์กับ AI”

    ถ้าคุณเคยฝันถึงการสื่อสารแบบไม่ต้องพูด ไม่ต้องพิมพ์ แค่ “คิด” แล้วคำพูดก็ปรากฏ — ตอนนี้มันไม่ใช่แค่จินตนาการอีกต่อไป เพราะสตาร์ทอัพชื่อ Alterego ได้เปิดตัวอุปกรณ์สวมใส่ที่อ้างว่าเป็น “wearable ใกล้เคียงโทรจิตตัวแรกของโลก” ที่สามารถพิมพ์ข้อความด้วยความคิด ควบคุมอุปกรณ์แบบไร้มือ และสื่อสารกับคนอื่นแบบเงียบๆ ได้

    อุปกรณ์นี้พัฒนาโดย Arnav Kapur จาก MIT Media Lab และ Max Newlon จาก Harvard Innovation Labs โดยใช้เทคโนโลยีที่เรียกว่า “Silent Sense” ซึ่งไม่ใช่การอ่านความคิดโดยตรง แต่เป็นการตรวจจับสัญญาณประสาทกล้ามเนื้อที่สมองส่งไปยังระบบพูด ก่อนที่เราจะเปล่งเสียงออกมา — ทำให้สามารถแปลงความตั้งใจเป็นคำสั่งหรือข้อความได้ทันที

    ในวิดีโอสาธิต Kapur ใช้อุปกรณ์นี้พิมพ์ข้อความโดยไม่แตะคีย์บอร์ด ตั้งเตือนในมือถือ และถามคำถามเกี่ยวกับภาพที่เห็นผ่านกล้องขนาดเล็กในตัวอุปกรณ์ จากนั้นเขาสื่อสารแบบเงียบๆ กับผู้ร่วมก่อตั้งผ่าน bone-conduction audio โดยไม่มีเสียงใดๆ ออกมา

    ที่น่าทึ่งคือการแปลภาษาแบบไร้เสียง — Kapur พูดภาษาอังกฤษ แล้วผู้ร่วมสนทนาที่พูดภาษาจีนเข้าใจทันทีผ่านระบบแปลในตัว ซึ่งอาจเป็นประโยชน์มหาศาลสำหรับผู้ที่มีปัญหาด้านการพูด เช่น ALS หรือผู้พิการทางเสียง

    แม้จะดูเหมือนหลุดมาจากนิยายไซไฟ แต่ Alterego ยืนยันว่าอุปกรณ์นี้ไม่อ่านความคิดลึกๆ และไม่มีการเก็บข้อมูลสมองโดยตรง ต่างจากเทคโนโลยีฝังชิปอย่าง Neuralink หรือ EMG แบบสายรัดข้อมือของ Meta — โดยเน้นความปลอดภัยและการควบคุมจากผู้ใช้เป็นหลัก

    ความสามารถของอุปกรณ์ Alterego
    พิมพ์ข้อความด้วยความคิดโดยไม่ต้องใช้คีย์บอร์ด
    สื่อสารแบบเงียบๆ กับผู้อื่นผ่าน bone-conduction audio
    ควบคุมอุปกรณ์และแอปพลิเคชันแบบไร้มือ
    ค้นหาข้อมูลจากอินเทอร์เน็ตแบบไร้เสียง
    ถามคำถามเกี่ยวกับสิ่งรอบตัวผ่านกล้องในตัว
    แปลภาษาแบบเรียลไทม์โดยไม่ต้องพูดออกเสียง
    ช่วยฟื้นฟูการพูดสำหรับผู้มีปัญหาด้านเสียงหรือระบบประสาท

    เทคโนโลยีเบื้องหลัง
    ใช้การตรวจจับสัญญาณประสาทกล้ามเนื้อจากใบหน้าและลำคอ
    ไม่ใช่การอ่านคลื่นสมองหรือ EEG
    ส่งข้อมูลผ่าน bone-conduction กลับไปยังผู้ใช้
    พัฒนาโดยทีมจาก MIT และ Harvard Innovation Labs

    การใช้งานจริงในวิดีโอสาธิต
    พิมพ์ข้อความ ตั้งเตือน และถามคำถามจากภาพ
    สื่อสารแบบเงียบกับผู้ร่วมก่อตั้ง
    แปลภาษาอังกฤษ–จีนแบบไร้เสียง
    ใช้กล้องในตัวเพื่อเข้าใจสิ่งแวดล้อม

    ข้อมูลเสริมจากภายนอก
    เทคโนโลยีนี้เคยถูกนำเสนอใน TED ปี 2019
    เป็นทางเลือกที่ไม่ต้องฝังชิปหรือใช้สายรัดกล้ามเนื้อ
    เหมาะกับผู้ใช้งานในพื้นที่เสียงดัง เช่น โรงงานหรือสนามบิน
    อาจเป็นจุดเปลี่ยนของการสื่อสารมนุษย์กับ AI ในอนาคต

    https://www.tomshardware.com/peripherals/wearable-tech/alterego-demoes-worlds-first-near-telepathic-wearable-that-enables-typing-at-the-speed-of-thought-other-abilities-device-said-to-enable-silent-communication-with-others-control-devices-hands-free-and-restore-speech-for-impaired
    🧠 “Alterego เปิดตัวอุปกรณ์สวมใส่ ‘ใกล้เคียงโทรจิต’ พิมพ์ด้วยความคิด คุยเงียบๆ ได้ และแปลภาษาแบบไร้เสียง — ก้าวใหม่ของการสื่อสารมนุษย์กับ AI” ถ้าคุณเคยฝันถึงการสื่อสารแบบไม่ต้องพูด ไม่ต้องพิมพ์ แค่ “คิด” แล้วคำพูดก็ปรากฏ — ตอนนี้มันไม่ใช่แค่จินตนาการอีกต่อไป เพราะสตาร์ทอัพชื่อ Alterego ได้เปิดตัวอุปกรณ์สวมใส่ที่อ้างว่าเป็น “wearable ใกล้เคียงโทรจิตตัวแรกของโลก” ที่สามารถพิมพ์ข้อความด้วยความคิด ควบคุมอุปกรณ์แบบไร้มือ และสื่อสารกับคนอื่นแบบเงียบๆ ได้ อุปกรณ์นี้พัฒนาโดย Arnav Kapur จาก MIT Media Lab และ Max Newlon จาก Harvard Innovation Labs โดยใช้เทคโนโลยีที่เรียกว่า “Silent Sense” ซึ่งไม่ใช่การอ่านความคิดโดยตรง แต่เป็นการตรวจจับสัญญาณประสาทกล้ามเนื้อที่สมองส่งไปยังระบบพูด ก่อนที่เราจะเปล่งเสียงออกมา — ทำให้สามารถแปลงความตั้งใจเป็นคำสั่งหรือข้อความได้ทันที ในวิดีโอสาธิต Kapur ใช้อุปกรณ์นี้พิมพ์ข้อความโดยไม่แตะคีย์บอร์ด ตั้งเตือนในมือถือ และถามคำถามเกี่ยวกับภาพที่เห็นผ่านกล้องขนาดเล็กในตัวอุปกรณ์ จากนั้นเขาสื่อสารแบบเงียบๆ กับผู้ร่วมก่อตั้งผ่าน bone-conduction audio โดยไม่มีเสียงใดๆ ออกมา ที่น่าทึ่งคือการแปลภาษาแบบไร้เสียง — Kapur พูดภาษาอังกฤษ แล้วผู้ร่วมสนทนาที่พูดภาษาจีนเข้าใจทันทีผ่านระบบแปลในตัว ซึ่งอาจเป็นประโยชน์มหาศาลสำหรับผู้ที่มีปัญหาด้านการพูด เช่น ALS หรือผู้พิการทางเสียง แม้จะดูเหมือนหลุดมาจากนิยายไซไฟ แต่ Alterego ยืนยันว่าอุปกรณ์นี้ไม่อ่านความคิดลึกๆ และไม่มีการเก็บข้อมูลสมองโดยตรง ต่างจากเทคโนโลยีฝังชิปอย่าง Neuralink หรือ EMG แบบสายรัดข้อมือของ Meta — โดยเน้นความปลอดภัยและการควบคุมจากผู้ใช้เป็นหลัก ✅ ความสามารถของอุปกรณ์ Alterego ➡️ พิมพ์ข้อความด้วยความคิดโดยไม่ต้องใช้คีย์บอร์ด ➡️ สื่อสารแบบเงียบๆ กับผู้อื่นผ่าน bone-conduction audio ➡️ ควบคุมอุปกรณ์และแอปพลิเคชันแบบไร้มือ ➡️ ค้นหาข้อมูลจากอินเทอร์เน็ตแบบไร้เสียง ➡️ ถามคำถามเกี่ยวกับสิ่งรอบตัวผ่านกล้องในตัว ➡️ แปลภาษาแบบเรียลไทม์โดยไม่ต้องพูดออกเสียง ➡️ ช่วยฟื้นฟูการพูดสำหรับผู้มีปัญหาด้านเสียงหรือระบบประสาท ✅ เทคโนโลยีเบื้องหลัง ➡️ ใช้การตรวจจับสัญญาณประสาทกล้ามเนื้อจากใบหน้าและลำคอ ➡️ ไม่ใช่การอ่านคลื่นสมองหรือ EEG ➡️ ส่งข้อมูลผ่าน bone-conduction กลับไปยังผู้ใช้ ➡️ พัฒนาโดยทีมจาก MIT และ Harvard Innovation Labs ✅ การใช้งานจริงในวิดีโอสาธิต ➡️ พิมพ์ข้อความ ตั้งเตือน และถามคำถามจากภาพ ➡️ สื่อสารแบบเงียบกับผู้ร่วมก่อตั้ง ➡️ แปลภาษาอังกฤษ–จีนแบบไร้เสียง ➡️ ใช้กล้องในตัวเพื่อเข้าใจสิ่งแวดล้อม ✅ ข้อมูลเสริมจากภายนอก ➡️ เทคโนโลยีนี้เคยถูกนำเสนอใน TED ปี 2019 ➡️ เป็นทางเลือกที่ไม่ต้องฝังชิปหรือใช้สายรัดกล้ามเนื้อ ➡️ เหมาะกับผู้ใช้งานในพื้นที่เสียงดัง เช่น โรงงานหรือสนามบิน ➡️ อาจเป็นจุดเปลี่ยนของการสื่อสารมนุษย์กับ AI ในอนาคต https://www.tomshardware.com/peripherals/wearable-tech/alterego-demoes-worlds-first-near-telepathic-wearable-that-enables-typing-at-the-speed-of-thought-other-abilities-device-said-to-enable-silent-communication-with-others-control-devices-hands-free-and-restore-speech-for-impaired
    0 Comments 0 Shares 214 Views 0 Reviews
  • “Republic จับมือ Incentiv สร้าง Web3 ที่ง่ายและให้รางวัลทุกการมีส่วนร่วม — ไม่ใช่แค่สำหรับนักพัฒนา แต่สำหรับทุกคน”

    ถ้าคุณเคยรู้สึกว่าโลก Web3 นั้นซับซ้อนเกินไป มีแต่คนวงในที่ได้ประโยชน์ และคุณไม่แน่ใจว่าจะเริ่มต้นตรงไหน — ความร่วมมือระหว่าง Republic และ Incentiv อาจเป็นจุดเปลี่ยนที่ทำให้ Web3 กลายเป็นพื้นที่ที่ทุกคนเข้าถึงได้ง่าย และได้รับรางวัลจากการมีส่วนร่วมอย่างแท้จริง

    Republic ซึ่งเป็นแพลตฟอร์มระดับโลกด้านการลงทุนและการเร่งการเติบโตของ Web3 ได้ประกาศจับมือกับ Incentiv ซึ่งเป็นบล็อกเชน Layer 1 ที่รองรับ EVM โดยมีเป้าหมายร่วมกันในการสร้างระบบเศรษฐกิจดิจิทัลที่ “ให้รางวัลทุกการมีส่วนร่วม” ไม่ว่าจะเป็นนักพัฒนา, ผู้ใช้งาน, ผู้ให้สภาพคล่อง หรือแม้แต่คนที่ช่วยขยายเครือข่าย

    Incentiv มีจุดเด่นคือการรวมเทคโนโลยี Advanced Account Abstraction เข้าไว้ในระดับโปรโตคอล พร้อมโมเดลเศรษฐกิจแบบ regenerative ที่กระจายมูลค่าอย่างโปร่งใสไปยังทุกฝ่ายที่มีบทบาทในระบบ — ไม่ใช่แค่คนที่ถือโทเคนเยอะที่สุด

    ระบบนี้ขับเคลื่อนด้วย Incentiv+ Engine ซึ่งเป็นกลไกกลางที่จัดสรรรางวัลตาม “ผลกระทบที่วัดได้จริง” เช่น จำนวนธุรกรรมที่สร้าง, การพัฒนาโค้ด, การให้บริการ หรือการแนะนำผู้ใช้ใหม่ โดยมีฟีเจอร์เสริมที่ช่วยให้ใช้งานง่ายขึ้น เช่น passkey login, การกู้คืนกระเป๋าเงิน, การรวมธุรกรรมหลายรายการ, การจ่ายค่าธรรมเนียมด้วยโทเคนเดียว และกฎการโอนผ่าน TransferGate

    Republic ซึ่งเคยมีบทบาทสำคัญในการผลักดันโปรเจกต์อย่าง Avalanche และ Supra จะเข้ามาให้คำปรึกษาเชิงกลยุทธ์ พร้อมเปิดเครือข่ายระดับโลกที่ลงทุนไปแล้วกว่า $2.6 พันล้านใน 150 ประเทศ เพื่อช่วยให้ Incentiv เข้าถึงผู้ใช้งานจริงในระดับสากล

    ปัจจุบัน Incentiv มีผู้ใช้งานใน testnet แล้วกว่า 1.3 ล้านกระเป๋าเงิน และเตรียมเปิดตัว mainnet พร้อม token generation event ในเร็วๆ นี้ — ถือเป็นก้าวสำคัญในการสร้าง Web3 ที่ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของ “คุณค่าที่ทุกคนมีสิทธิ์ได้รับ”

    ความร่วมมือระหว่าง Republic และ Incentiv
    Republic ให้คำปรึกษาเชิงกลยุทธ์ผ่าน Republic Research
    สนับสนุนการเติบโตของ Incentiv ด้วยเครือข่ายที่ลงทุนกว่า $2.6 พันล้านใน 150 ประเทศ
    เป้าหมายคือสร้าง Web3 ที่ง่าย ยั่งยืน และให้รางวัลทุกการมีส่วนร่วม

    จุดเด่นของ Incentiv blockchain
    เป็น Layer 1 ที่รองรับ EVM และออกแบบเพื่อการใช้งานจริง
    ใช้ Advanced Account Abstraction ในระดับโปรโตคอล
    มีโมเดลเศรษฐกิจแบบ regenerative ที่กระจายมูลค่าอย่างโปร่งใส
    รางวัลถูกจัดสรรตามผลกระทบที่วัดได้จริงผ่าน Incentiv+ Engine

    ฟีเจอร์ที่ช่วยให้ใช้งานง่าย
    Passkey log-in และการกู้คืนกระเป๋าเงิน
    Bundled transactions และ unified token fee payments
    TransferGate transaction rules สำหรับควบคุมการโอน
    ระบบรางวัลรวมที่กระตุ้นการมีส่วนร่วมอย่างต่อเนื่อง

    ข้อมูลเสริมจากภายนอก
    Republic เคยสนับสนุนโปรเจกต์อย่าง Avalanche และ Supra
    Incentiv มีผู้ใช้งาน testnet แล้วกว่า 1.3 ล้านกระเป๋าเงิน
    เตรียมเปิดตัว mainnet และ token generation event ในเร็วๆ นี้
    เป้าหมายคือสร้าง Web3 ที่ทุกคนเข้าถึงได้ ไม่ใช่แค่คนวงใน

    คำเตือนสำหรับผู้ใช้งานและนักลงทุน
    ระบบรางวัลที่อิงผลกระทบต้องมีการวัดผลที่แม่นยำ — หากไม่ชัดเจนอาจเกิดความเหลื่อมล้ำ
    การรวมฟีเจอร์หลายอย่างในโปรโตคอลอาจเพิ่มความซับซ้อนด้านความปลอดภัย
    การเปิด mainnet และ token event อาจมีความผันผวนด้านราคาในช่วงแรก
    ผู้ใช้ใหม่อาจยังไม่เข้าใจระบบ TransferGate หรือ bundled transactions
    หากไม่มีการกำกับดูแลที่ดี อาจเกิดการใช้ระบบเพื่อผลประโยชน์เฉพาะกลุ่ม

    https://hackread.com/republic-incentiv-partner-reward-web3-participation/
    🌐 “Republic จับมือ Incentiv สร้าง Web3 ที่ง่ายและให้รางวัลทุกการมีส่วนร่วม — ไม่ใช่แค่สำหรับนักพัฒนา แต่สำหรับทุกคน” ถ้าคุณเคยรู้สึกว่าโลก Web3 นั้นซับซ้อนเกินไป มีแต่คนวงในที่ได้ประโยชน์ และคุณไม่แน่ใจว่าจะเริ่มต้นตรงไหน — ความร่วมมือระหว่าง Republic และ Incentiv อาจเป็นจุดเปลี่ยนที่ทำให้ Web3 กลายเป็นพื้นที่ที่ทุกคนเข้าถึงได้ง่าย และได้รับรางวัลจากการมีส่วนร่วมอย่างแท้จริง Republic ซึ่งเป็นแพลตฟอร์มระดับโลกด้านการลงทุนและการเร่งการเติบโตของ Web3 ได้ประกาศจับมือกับ Incentiv ซึ่งเป็นบล็อกเชน Layer 1 ที่รองรับ EVM โดยมีเป้าหมายร่วมกันในการสร้างระบบเศรษฐกิจดิจิทัลที่ “ให้รางวัลทุกการมีส่วนร่วม” ไม่ว่าจะเป็นนักพัฒนา, ผู้ใช้งาน, ผู้ให้สภาพคล่อง หรือแม้แต่คนที่ช่วยขยายเครือข่าย Incentiv มีจุดเด่นคือการรวมเทคโนโลยี Advanced Account Abstraction เข้าไว้ในระดับโปรโตคอล พร้อมโมเดลเศรษฐกิจแบบ regenerative ที่กระจายมูลค่าอย่างโปร่งใสไปยังทุกฝ่ายที่มีบทบาทในระบบ — ไม่ใช่แค่คนที่ถือโทเคนเยอะที่สุด ระบบนี้ขับเคลื่อนด้วย Incentiv+ Engine ซึ่งเป็นกลไกกลางที่จัดสรรรางวัลตาม “ผลกระทบที่วัดได้จริง” เช่น จำนวนธุรกรรมที่สร้าง, การพัฒนาโค้ด, การให้บริการ หรือการแนะนำผู้ใช้ใหม่ โดยมีฟีเจอร์เสริมที่ช่วยให้ใช้งานง่ายขึ้น เช่น passkey login, การกู้คืนกระเป๋าเงิน, การรวมธุรกรรมหลายรายการ, การจ่ายค่าธรรมเนียมด้วยโทเคนเดียว และกฎการโอนผ่าน TransferGate Republic ซึ่งเคยมีบทบาทสำคัญในการผลักดันโปรเจกต์อย่าง Avalanche และ Supra จะเข้ามาให้คำปรึกษาเชิงกลยุทธ์ พร้อมเปิดเครือข่ายระดับโลกที่ลงทุนไปแล้วกว่า $2.6 พันล้านใน 150 ประเทศ เพื่อช่วยให้ Incentiv เข้าถึงผู้ใช้งานจริงในระดับสากล ปัจจุบัน Incentiv มีผู้ใช้งานใน testnet แล้วกว่า 1.3 ล้านกระเป๋าเงิน และเตรียมเปิดตัว mainnet พร้อม token generation event ในเร็วๆ นี้ — ถือเป็นก้าวสำคัญในการสร้าง Web3 ที่ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของ “คุณค่าที่ทุกคนมีสิทธิ์ได้รับ” ✅ ความร่วมมือระหว่าง Republic และ Incentiv ➡️ Republic ให้คำปรึกษาเชิงกลยุทธ์ผ่าน Republic Research ➡️ สนับสนุนการเติบโตของ Incentiv ด้วยเครือข่ายที่ลงทุนกว่า $2.6 พันล้านใน 150 ประเทศ ➡️ เป้าหมายคือสร้าง Web3 ที่ง่าย ยั่งยืน และให้รางวัลทุกการมีส่วนร่วม ✅ จุดเด่นของ Incentiv blockchain ➡️ เป็น Layer 1 ที่รองรับ EVM และออกแบบเพื่อการใช้งานจริง ➡️ ใช้ Advanced Account Abstraction ในระดับโปรโตคอล ➡️ มีโมเดลเศรษฐกิจแบบ regenerative ที่กระจายมูลค่าอย่างโปร่งใส ➡️ รางวัลถูกจัดสรรตามผลกระทบที่วัดได้จริงผ่าน Incentiv+ Engine ✅ ฟีเจอร์ที่ช่วยให้ใช้งานง่าย ➡️ Passkey log-in และการกู้คืนกระเป๋าเงิน ➡️ Bundled transactions และ unified token fee payments ➡️ TransferGate transaction rules สำหรับควบคุมการโอน ➡️ ระบบรางวัลรวมที่กระตุ้นการมีส่วนร่วมอย่างต่อเนื่อง ✅ ข้อมูลเสริมจากภายนอก ➡️ Republic เคยสนับสนุนโปรเจกต์อย่าง Avalanche และ Supra ➡️ Incentiv มีผู้ใช้งาน testnet แล้วกว่า 1.3 ล้านกระเป๋าเงิน ➡️ เตรียมเปิดตัว mainnet และ token generation event ในเร็วๆ นี้ ➡️ เป้าหมายคือสร้าง Web3 ที่ทุกคนเข้าถึงได้ ไม่ใช่แค่คนวงใน ‼️ คำเตือนสำหรับผู้ใช้งานและนักลงทุน ⛔ ระบบรางวัลที่อิงผลกระทบต้องมีการวัดผลที่แม่นยำ — หากไม่ชัดเจนอาจเกิดความเหลื่อมล้ำ ⛔ การรวมฟีเจอร์หลายอย่างในโปรโตคอลอาจเพิ่มความซับซ้อนด้านความปลอดภัย ⛔ การเปิด mainnet และ token event อาจมีความผันผวนด้านราคาในช่วงแรก ⛔ ผู้ใช้ใหม่อาจยังไม่เข้าใจระบบ TransferGate หรือ bundled transactions ⛔ หากไม่มีการกำกับดูแลที่ดี อาจเกิดการใช้ระบบเพื่อผลประโยชน์เฉพาะกลุ่ม https://hackread.com/republic-incentiv-partner-reward-web3-participation/
    HACKREAD.COM
    Republic and Incentiv Partner to Simplify and Reward Web3 Participation
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 237 Views 0 Reviews
  • “ควอนตัมคอมพิวติ้งอาจปลดล็อก Bitcoin มูลค่า 879 พันล้านดอลลาร์! กระเป๋าเงินที่ถูกลืมอาจกลายเป็นขุมทรัพย์แห่งอนาคต”

    ลองจินตนาการว่า Bitcoin ที่คุณเคยได้ยินว่าหายไปแล้ว — เพราะเจ้าของลืมรหัส หรือเสียชีวิตโดยไม่มีใครเข้าถึงได้ — วันหนึ่งกลับถูกปลดล็อกขึ้นมาอีกครั้งด้วยเทคโนโลยีควอนตัมคอมพิวติ้งที่ทรงพลังพอจะเจาะระบบเข้ารหัส AES ได้สำเร็จ…นั่นคือสิ่งที่นักวิเคราะห์หลายคนเริ่มพูดถึงในปี 2025

    จุดเริ่มต้นของความกังวลนี้มาจากความก้าวหน้าของชิปควอนตัม “Willow” จาก Google ที่สามารถทำงานบางอย่างได้ในเวลาไม่ถึง 5 นาที — เทียบกับซูเปอร์คอมพิวเตอร์ปัจจุบันที่ต้องใช้เวลาถึง 10^25 ปีในการทำงานเดียวกัน แม้ Willow จะมีเพียง 105 qubits แต่ก็แสดงให้เห็นว่าการพัฒนาเทคโนโลยีนี้กำลังเร่งขึ้นอย่างรวดเร็ว

    ตามการวิเคราะห์ของ Ronan Manly จาก Sound Money Report มี Bitcoin จำนวนมหาศาลระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่ถูกเก็บไว้ในกระเป๋าเงินที่ไม่มีการเคลื่อนไหวเลย — คิดเป็น 11% ถึง 37% ของจำนวน Bitcoin ทั้งหมดในระบบ ซึ่งส่วนใหญ่เกิดจากการลืมรหัส หรือเจ้าของเสียชีวิตโดยไม่มีการถ่ายทอดข้อมูล

    หากควอนตัมคอมพิวเตอร์สามารถเจาะระบบ AES ได้จริงในอนาคต กระเป๋าเงินเหล่านี้อาจถูกปลดล็อก และ Bitcoin มูลค่ารวมกว่า 879 พันล้านดอลลาร์ (ตามราคาปัจจุบันที่ ~$112,000 ต่อเหรียญ) อาจถูกนำออกมาใช้ — ซึ่งอาจทำให้ตลาดเกิดการเทขายครั้งใหญ่ และเข้าสู่ภาวะขาลงโดยไม่ต้องมีปัจจัยอื่นใดเลย

    แม้ผู้ใช้ Bitcoin ส่วนใหญ่จะเปลี่ยนไปใช้กระเป๋าเงินที่ปลอดภัยต่อควอนตัมแล้ว แต่กระเป๋าเงินที่ถูกลืมและไม่มีเจ้าของจะยังคงเสี่ยงต่อการถูกเจาะในอนาคต หากไม่มีการอัปเกรดหรือเปลี่ยนระบบเข้ารหัส

    ความก้าวหน้าของควอนตัมคอมพิวติ้ง
    Google Willow chip ทำงานบางอย่างได้ใน 5 นาที เทียบกับ 10^25 ปีของซูเปอร์คอมพิวเตอร์
    Willow มี 105 qubits และสามารถลดข้อผิดพลาดเมื่อเพิ่มจำนวน qubits
    เทคโนโลยีนี้ได้รับความสนใจจาก Elon Musk และ Sam Altman

    ความเสี่ยงต่อ Bitcoin
    Bitcoin ใช้การเข้ารหัส AES และ elliptic curve cryptography (ECC)
    หากควอนตัมคอมพิวเตอร์สามารถเจาะ AES ได้ จะสามารถเข้าถึงกระเป๋าเงินที่ถูกลืม
    คาดว่ามี Bitcoin ระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่อยู่ในกระเป๋าเงินนิ่ง
    มูลค่ารวมของ Bitcoin ที่อาจถูกปลดล็อกสูงถึง $879 พันล้าน

    กระเป๋าเงินนิ่ง (Dormant Wallets)
    เกิดจากการลืมรหัส, การเสียชีวิต, หรือการเก็บไว้โดยไม่มีการเคลื่อนไหว
    ส่วนใหญ่ไม่สามารถอัปเกรดระบบเข้ารหัสได้
    อาจกลายเป็นเป้าหมายหลักของการเจาะระบบในอนาคต

    ข้อมูลเสริมจากภายนอก
    ECC และ SHA-256 ยังปลอดภัยกว่า RSA แต่ก็เริ่มถูกตั้งคำถามจากนักวิจัยควอนตัม
    Quantum-safe wallets กำลังถูกพัฒนา เช่น lattice-based cryptography
    นักพัฒนา Bitcoin เริ่มเตรียมแผนรับมือ “Q-Day” หรือวันที่ควอนตัมคอมพิวเตอร์สามารถเจาะระบบได้จริง

    https://wccftech.com/quantum-computing-could-leave-a-shocking-879-billion-of-bitcoin-up-for-grabs-heres-how/
    💥 “ควอนตัมคอมพิวติ้งอาจปลดล็อก Bitcoin มูลค่า 879 พันล้านดอลลาร์! กระเป๋าเงินที่ถูกลืมอาจกลายเป็นขุมทรัพย์แห่งอนาคต” ลองจินตนาการว่า Bitcoin ที่คุณเคยได้ยินว่าหายไปแล้ว — เพราะเจ้าของลืมรหัส หรือเสียชีวิตโดยไม่มีใครเข้าถึงได้ — วันหนึ่งกลับถูกปลดล็อกขึ้นมาอีกครั้งด้วยเทคโนโลยีควอนตัมคอมพิวติ้งที่ทรงพลังพอจะเจาะระบบเข้ารหัส AES ได้สำเร็จ…นั่นคือสิ่งที่นักวิเคราะห์หลายคนเริ่มพูดถึงในปี 2025 จุดเริ่มต้นของความกังวลนี้มาจากความก้าวหน้าของชิปควอนตัม “Willow” จาก Google ที่สามารถทำงานบางอย่างได้ในเวลาไม่ถึง 5 นาที — เทียบกับซูเปอร์คอมพิวเตอร์ปัจจุบันที่ต้องใช้เวลาถึง 10^25 ปีในการทำงานเดียวกัน แม้ Willow จะมีเพียง 105 qubits แต่ก็แสดงให้เห็นว่าการพัฒนาเทคโนโลยีนี้กำลังเร่งขึ้นอย่างรวดเร็ว ตามการวิเคราะห์ของ Ronan Manly จาก Sound Money Report มี Bitcoin จำนวนมหาศาลระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่ถูกเก็บไว้ในกระเป๋าเงินที่ไม่มีการเคลื่อนไหวเลย — คิดเป็น 11% ถึง 37% ของจำนวน Bitcoin ทั้งหมดในระบบ ซึ่งส่วนใหญ่เกิดจากการลืมรหัส หรือเจ้าของเสียชีวิตโดยไม่มีการถ่ายทอดข้อมูล หากควอนตัมคอมพิวเตอร์สามารถเจาะระบบ AES ได้จริงในอนาคต กระเป๋าเงินเหล่านี้อาจถูกปลดล็อก และ Bitcoin มูลค่ารวมกว่า 879 พันล้านดอลลาร์ (ตามราคาปัจจุบันที่ ~$112,000 ต่อเหรียญ) อาจถูกนำออกมาใช้ — ซึ่งอาจทำให้ตลาดเกิดการเทขายครั้งใหญ่ และเข้าสู่ภาวะขาลงโดยไม่ต้องมีปัจจัยอื่นใดเลย แม้ผู้ใช้ Bitcoin ส่วนใหญ่จะเปลี่ยนไปใช้กระเป๋าเงินที่ปลอดภัยต่อควอนตัมแล้ว แต่กระเป๋าเงินที่ถูกลืมและไม่มีเจ้าของจะยังคงเสี่ยงต่อการถูกเจาะในอนาคต หากไม่มีการอัปเกรดหรือเปลี่ยนระบบเข้ารหัส ✅ ความก้าวหน้าของควอนตัมคอมพิวติ้ง ➡️ Google Willow chip ทำงานบางอย่างได้ใน 5 นาที เทียบกับ 10^25 ปีของซูเปอร์คอมพิวเตอร์ ➡️ Willow มี 105 qubits และสามารถลดข้อผิดพลาดเมื่อเพิ่มจำนวน qubits ➡️ เทคโนโลยีนี้ได้รับความสนใจจาก Elon Musk และ Sam Altman ✅ ความเสี่ยงต่อ Bitcoin ➡️ Bitcoin ใช้การเข้ารหัส AES และ elliptic curve cryptography (ECC) ➡️ หากควอนตัมคอมพิวเตอร์สามารถเจาะ AES ได้ จะสามารถเข้าถึงกระเป๋าเงินที่ถูกลืม ➡️ คาดว่ามี Bitcoin ระหว่าง 2.3 ถึง 7.8 ล้าน BTC ที่อยู่ในกระเป๋าเงินนิ่ง ➡️ มูลค่ารวมของ Bitcoin ที่อาจถูกปลดล็อกสูงถึง $879 พันล้าน ✅ กระเป๋าเงินนิ่ง (Dormant Wallets) ➡️ เกิดจากการลืมรหัส, การเสียชีวิต, หรือการเก็บไว้โดยไม่มีการเคลื่อนไหว ➡️ ส่วนใหญ่ไม่สามารถอัปเกรดระบบเข้ารหัสได้ ➡️ อาจกลายเป็นเป้าหมายหลักของการเจาะระบบในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ ECC และ SHA-256 ยังปลอดภัยกว่า RSA แต่ก็เริ่มถูกตั้งคำถามจากนักวิจัยควอนตัม ➡️ Quantum-safe wallets กำลังถูกพัฒนา เช่น lattice-based cryptography ➡️ นักพัฒนา Bitcoin เริ่มเตรียมแผนรับมือ “Q-Day” หรือวันที่ควอนตัมคอมพิวเตอร์สามารถเจาะระบบได้จริง https://wccftech.com/quantum-computing-could-leave-a-shocking-879-billion-of-bitcoin-up-for-grabs-heres-how/
    WCCFTECH.COM
    Quantum Computing Could Leave A Shocking $879 Billion Of Bitcoin Up For Grabs - Here's How!
    A large proportion of Bitcoin's circulating supply is currently sitting in dormant wallets that are susceptible to quantum computing hacks.
    0 Comments 0 Shares 227 Views 0 Reviews
  • “TSMC ปั้นคนท้องถิ่น! ขยายโครงการฝึกงานในรัฐแอริโซนา รับมือโรงงานผลิตชิป 4nm–2nm ที่กำลังบูม”

    ลองจินตนาการว่าคุณเป็นนักศึกษาด้านวิศวกรรมไฟฟ้า หรือวิทยาการคอมพิวเตอร์ในสหรัฐฯ แล้ววันหนึ่งคุณได้รับโอกาสฝึกงานกับ TSMC — บริษัทผลิตชิปที่ใหญ่ที่สุดในโลก ซึ่งกำลังสร้างโรงงานใหม่ในรัฐแอริโซนาเพื่อผลิตชิประดับ 4nm และ 2nm ที่ใช้ใน AI, GPU และอุปกรณ์ล้ำยุคของ Apple, Nvidia และ AMD

    ในฤดูร้อนปี 2025 นี้ TSMC ได้ขยายโครงการฝึกงานในรัฐแอริโซนาอย่างมหาศาล โดยรับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ซึ่งเพิ่มขึ้นจาก 130 คนเมื่อปีที่แล้ว และจากเพียง 16 คนในปี 2023 — ถือเป็นการเติบโตแบบก้าวกระโดดเพื่อเตรียมบุคลากรรองรับโรงงานผลิตชิปที่กำลังเร่งเปิดใช้งาน

    โรงงานแห่งแรกในเมืองฟีนิกซ์เริ่มผลิตชิป 4nm แล้วตั้งแต่ต้นปีนี้ และกำลังสร้างโรงงานที่สองและสามตามแผนที่ได้รับเงินสนับสนุนจาก CHIPS Act ของรัฐบาลสหรัฐฯ มูลค่ากว่า 6.6 พันล้านดอลลาร์ โดยคาดว่าโรงงานทั้งสามจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง และเป็นหัวใจของห่วงโซ่อุปทานชิปในประเทศ

    นอกจากฝึกงานแล้ว TSMC ยังร่วมมือกับมหาวิทยาลัย Arizona State University (ASU) และหน่วยงานรัฐเพื่อเปิดหลักสูตรเร่งรัด 15 สัปดาห์สำหรับช่างเทคนิคในโรงงาน พร้อมทุนวิจัยระดับบัณฑิตศึกษา และศูนย์ฝึกอบรมด้านการบรรจุชิป (advanced packaging) ร่วมกับ Amkor ในเมือง Peoria

    การขยายโครงการฝึกงานของ TSMC
    รับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ
    เพิ่มขึ้นจาก 130 คนในปี 2024 และ 16 คนในปี 2023
    มีนักศึกษาจาก ASU เข้าร่วมกว่า 30 คน
    เป็นส่วนหนึ่งของการเตรียมบุคลากรสำหรับโรงงานผลิตชิประดับ 4nm และ 2nm

    โรงงานผลิตชิปในรัฐแอริโซนา
    โรงงานแรกเริ่มผลิตชิป 4nm แล้วในต้นปี 2025
    โรงงานที่สองและสามอยู่ระหว่างการก่อสร้าง
    ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่า $6.6 พันล้าน
    คาดว่าจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง
    เป็นการลงทุนรวมกว่า $65 พันล้าน ถือเป็นการลงทุนจากต่างประเทศที่ใหญ่ที่สุดในประวัติศาสตร์รัฐแอริโซนา

    ความร่วมมือด้านการศึกษาและการฝึกอบรม
    ASU เปิดหลักสูตรวิจัยระดับปริญญาตรีและบัณฑิตด้านเซมิคอนดักเตอร์
    รัฐแอริโซนาเปิดโปรแกรมฝึกอบรมช่างเทคนิคแบบเร่งรัด 15 สัปดาห์
    Amkor เปิดศูนย์บรรจุชิปมูลค่า $2 พันล้านในเมือง Peoria
    รองรับเทคโนโลยี CoWoS และ InFO สำหรับ GPU และ AI accelerators

    https://www.tomshardware.com/tech-industry/semiconductors/tsmc-increases-arizona-internships-to-feed-fabs
    🏗️ “TSMC ปั้นคนท้องถิ่น! ขยายโครงการฝึกงานในรัฐแอริโซนา รับมือโรงงานผลิตชิป 4nm–2nm ที่กำลังบูม” ลองจินตนาการว่าคุณเป็นนักศึกษาด้านวิศวกรรมไฟฟ้า หรือวิทยาการคอมพิวเตอร์ในสหรัฐฯ แล้ววันหนึ่งคุณได้รับโอกาสฝึกงานกับ TSMC — บริษัทผลิตชิปที่ใหญ่ที่สุดในโลก ซึ่งกำลังสร้างโรงงานใหม่ในรัฐแอริโซนาเพื่อผลิตชิประดับ 4nm และ 2nm ที่ใช้ใน AI, GPU และอุปกรณ์ล้ำยุคของ Apple, Nvidia และ AMD ในฤดูร้อนปี 2025 นี้ TSMC ได้ขยายโครงการฝึกงานในรัฐแอริโซนาอย่างมหาศาล โดยรับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ซึ่งเพิ่มขึ้นจาก 130 คนเมื่อปีที่แล้ว และจากเพียง 16 คนในปี 2023 — ถือเป็นการเติบโตแบบก้าวกระโดดเพื่อเตรียมบุคลากรรองรับโรงงานผลิตชิปที่กำลังเร่งเปิดใช้งาน โรงงานแห่งแรกในเมืองฟีนิกซ์เริ่มผลิตชิป 4nm แล้วตั้งแต่ต้นปีนี้ และกำลังสร้างโรงงานที่สองและสามตามแผนที่ได้รับเงินสนับสนุนจาก CHIPS Act ของรัฐบาลสหรัฐฯ มูลค่ากว่า 6.6 พันล้านดอลลาร์ โดยคาดว่าโรงงานทั้งสามจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง และเป็นหัวใจของห่วงโซ่อุปทานชิปในประเทศ นอกจากฝึกงานแล้ว TSMC ยังร่วมมือกับมหาวิทยาลัย Arizona State University (ASU) และหน่วยงานรัฐเพื่อเปิดหลักสูตรเร่งรัด 15 สัปดาห์สำหรับช่างเทคนิคในโรงงาน พร้อมทุนวิจัยระดับบัณฑิตศึกษา และศูนย์ฝึกอบรมด้านการบรรจุชิป (advanced packaging) ร่วมกับ Amkor ในเมือง Peoria ✅ การขยายโครงการฝึกงานของ TSMC ➡️ รับนักศึกษากว่า 200 คนจาก 60 มหาวิทยาลัยทั่วสหรัฐฯ ➡️ เพิ่มขึ้นจาก 130 คนในปี 2024 และ 16 คนในปี 2023 ➡️ มีนักศึกษาจาก ASU เข้าร่วมกว่า 30 คน ➡️ เป็นส่วนหนึ่งของการเตรียมบุคลากรสำหรับโรงงานผลิตชิประดับ 4nm และ 2nm ✅ โรงงานผลิตชิปในรัฐแอริโซนา ➡️ โรงงานแรกเริ่มผลิตชิป 4nm แล้วในต้นปี 2025 ➡️ โรงงานที่สองและสามอยู่ระหว่างการก่อสร้าง ➡️ ได้รับเงินสนับสนุนจาก CHIPS Act มูลค่า $6.6 พันล้าน ➡️ คาดว่าจะสร้างงานโดยตรงกว่า 6,000 ตำแหน่ง ➡️ เป็นการลงทุนรวมกว่า $65 พันล้าน ถือเป็นการลงทุนจากต่างประเทศที่ใหญ่ที่สุดในประวัติศาสตร์รัฐแอริโซนา ✅ ความร่วมมือด้านการศึกษาและการฝึกอบรม ➡️ ASU เปิดหลักสูตรวิจัยระดับปริญญาตรีและบัณฑิตด้านเซมิคอนดักเตอร์ ➡️ รัฐแอริโซนาเปิดโปรแกรมฝึกอบรมช่างเทคนิคแบบเร่งรัด 15 สัปดาห์ ➡️ Amkor เปิดศูนย์บรรจุชิปมูลค่า $2 พันล้านในเมือง Peoria ➡️ รองรับเทคโนโลยี CoWoS และ InFO สำหรับ GPU และ AI accelerators https://www.tomshardware.com/tech-industry/semiconductors/tsmc-increases-arizona-internships-to-feed-fabs
    WWW.TOMSHARDWARE.COM
    TSMC increases Arizona internships to feed its Phoenix fabs — CHIPS-fueled supply chain begins to take shape
    A wave of homegrown talent arrives just as TSMC’s 4nm ramp-up in Arizona turns into a three-fab silicon supercluster.
    0 Comments 0 Shares 216 Views 0 Reviews
  • “MostereRAT: มัลแวร์สายลับยุคใหม่ ใช้ AnyDesk และ TightVNC ยึดเครื่อง Windows แบบเงียบๆ!”

    ลองจินตนาการว่าคุณเปิดอีเมลจากลูกค้าใหม่ที่ดูน่าเชื่อถือ มีไฟล์แนบเป็นเอกสาร Word ดูไม่มีพิษภัย แต่ทันทีที่คุณเปิดไฟล์นั้น…คุณได้เปิดประตูให้แฮกเกอร์เข้ามานั่งอยู่ในเครื่องคุณโดยไม่รู้ตัว

    นี่คือสิ่งที่เกิดขึ้นกับมัลแวร์ตัวใหม่ชื่อว่า “MostereRAT” ซึ่งถูกค้นพบโดยนักวิจัยจาก FortiGuard Labs และกำลังโจมตีผู้ใช้ Windows โดยเฉพาะในประเทศญี่ปุ่นผ่านแคมเปญฟิชชิ่งที่แนบเนียนมาก

    เมื่อเหยื่อคลิกลิงก์ในอีเมล มัลแวร์จะดาวน์โหลดไฟล์ Word ที่มี archive ซ่อนอยู่ภายใน และเมื่อเปิดไฟล์นั้น โปรแกรมอันตรายจะถูกติดตั้งทันที โดยใช้เทคนิคหลบเลี่ยงการตรวจจับขั้นสูง เช่น เขียนด้วยภาษา Easy Programming Language (EPL) ซึ่งเป็นภาษาสำหรับผู้ใช้จีนที่เครื่องมือวิเคราะห์มัลแวร์ทั่วไปไม่ค่อยรองรับ

    จากนั้น MostereRAT จะปิดการทำงานของโปรแกรมป้องกันไวรัส, บล็อกการอัปเดต Windows และใช้การเข้ารหัสแบบ mutual TLS (mTLS) เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม (C2) ทำให้แทบไม่มีใครตรวจจับได้

    ที่น่ากลัวคือ มันใช้โปรแกรมที่ถูกต้องตามกฎหมายอย่าง AnyDesk และ TightVNC เพื่อควบคุมเครื่องของเหยื่อแบบเต็มรูปแบบ พร้อมสร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับผู้ดูแลระบบ เพื่อให้กลับเข้ามาได้แม้เหยื่อจะพยายามลบมัลแวร์ออกไปแล้ว

    ลักษณะของ MostereRAT
    เป็น Remote Access Trojan (RAT) ที่ให้แฮกเกอร์ควบคุมเครื่องจากระยะไกล
    ถูกส่งผ่านอีเมลฟิชชิ่งที่ปลอมเป็นธุรกิจจริง
    ใช้ไฟล์ Word ที่มี archive ซ่อนอยู่เพื่อหลอกให้เหยื่อเปิด
    เขียนด้วยภาษา Easy Programming Language (EPL) เพื่อหลบการตรวจจับ
    ปิดการทำงานของโปรแกรมป้องกันและบล็อกการอัปเดต Windows
    ใช้การเข้ารหัสแบบ mTLS เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม
    ติดตั้งโปรแกรม AnyDesk และ TightVNC เพื่อควบคุมเครื่องเหยื่อ
    สร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับ admin เพื่อรักษาการเข้าถึง
    พัฒนามาจาก banking trojan ที่เคยพบในปี 2020

    คำแนะนำจากผู้เชี่ยวชาญ
    ควรตั้งค่าบราวเซอร์ให้ถามก่อนดาวน์โหลดไฟล์จากแหล่งที่ไม่รู้จัก
    จำกัดสิทธิ์ผู้ใช้ในระบบ ไม่ควรให้สิทธิ์ระดับ SYSTEM หรือ TrustedInstaller
    ใช้นโยบายควบคุมแอปพลิเคชันเพื่อป้องกันการรันโปรแกรมที่ไม่ได้รับอนุญาต
    อัปเดตระบบและโปรแกรมป้องกันไวรัสอย่างสม่ำเสมอ

    คำเตือนสำหรับผู้ใช้ Windows
    การคลิกลิงก์ในอีเมลที่ดูน่าเชื่อถืออาจเปิดทางให้มัลแวร์เข้ามา
    โปรแกรม AnyDesk และ TightVNC แม้จะถูกต้องตามกฎหมาย แต่สามารถถูกใช้ในทางร้ายได้
    การปิดการทำงานของ Windows Security โดยมัลแวร์จะทำให้ระบบไร้การป้องกัน
    บัญชีผู้ใช้ลับที่ถูกสร้างขึ้นอาจยังอยู่แม้จะลบมัลแวร์ไปแล้ว
    การใช้ภาษา EPL ทำให้เครื่องมือวิเคราะห์ทั่วไปไม่สามารถตรวจจับได้

    https://hackread.com/mostererat-windows-anydesk-tightvnc-access/
    🕵️‍♂️ “MostereRAT: มัลแวร์สายลับยุคใหม่ ใช้ AnyDesk และ TightVNC ยึดเครื่อง Windows แบบเงียบๆ!” ลองจินตนาการว่าคุณเปิดอีเมลจากลูกค้าใหม่ที่ดูน่าเชื่อถือ มีไฟล์แนบเป็นเอกสาร Word ดูไม่มีพิษภัย แต่ทันทีที่คุณเปิดไฟล์นั้น…คุณได้เปิดประตูให้แฮกเกอร์เข้ามานั่งอยู่ในเครื่องคุณโดยไม่รู้ตัว นี่คือสิ่งที่เกิดขึ้นกับมัลแวร์ตัวใหม่ชื่อว่า “MostereRAT” ซึ่งถูกค้นพบโดยนักวิจัยจาก FortiGuard Labs และกำลังโจมตีผู้ใช้ Windows โดยเฉพาะในประเทศญี่ปุ่นผ่านแคมเปญฟิชชิ่งที่แนบเนียนมาก เมื่อเหยื่อคลิกลิงก์ในอีเมล มัลแวร์จะดาวน์โหลดไฟล์ Word ที่มี archive ซ่อนอยู่ภายใน และเมื่อเปิดไฟล์นั้น โปรแกรมอันตรายจะถูกติดตั้งทันที โดยใช้เทคนิคหลบเลี่ยงการตรวจจับขั้นสูง เช่น เขียนด้วยภาษา Easy Programming Language (EPL) ซึ่งเป็นภาษาสำหรับผู้ใช้จีนที่เครื่องมือวิเคราะห์มัลแวร์ทั่วไปไม่ค่อยรองรับ จากนั้น MostereRAT จะปิดการทำงานของโปรแกรมป้องกันไวรัส, บล็อกการอัปเดต Windows และใช้การเข้ารหัสแบบ mutual TLS (mTLS) เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม (C2) ทำให้แทบไม่มีใครตรวจจับได้ ที่น่ากลัวคือ มันใช้โปรแกรมที่ถูกต้องตามกฎหมายอย่าง AnyDesk และ TightVNC เพื่อควบคุมเครื่องของเหยื่อแบบเต็มรูปแบบ พร้อมสร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับผู้ดูแลระบบ เพื่อให้กลับเข้ามาได้แม้เหยื่อจะพยายามลบมัลแวร์ออกไปแล้ว ✅ ลักษณะของ MostereRAT ➡️ เป็น Remote Access Trojan (RAT) ที่ให้แฮกเกอร์ควบคุมเครื่องจากระยะไกล ➡️ ถูกส่งผ่านอีเมลฟิชชิ่งที่ปลอมเป็นธุรกิจจริง ➡️ ใช้ไฟล์ Word ที่มี archive ซ่อนอยู่เพื่อหลอกให้เหยื่อเปิด ➡️ เขียนด้วยภาษา Easy Programming Language (EPL) เพื่อหลบการตรวจจับ ➡️ ปิดการทำงานของโปรแกรมป้องกันและบล็อกการอัปเดต Windows ➡️ ใช้การเข้ารหัสแบบ mTLS เพื่อซ่อนการสื่อสารกับเซิร์ฟเวอร์ควบคุม ➡️ ติดตั้งโปรแกรม AnyDesk และ TightVNC เพื่อควบคุมเครื่องเหยื่อ ➡️ สร้างบัญชีผู้ใช้ลับที่มีสิทธิ์ระดับ admin เพื่อรักษาการเข้าถึง ➡️ พัฒนามาจาก banking trojan ที่เคยพบในปี 2020 ✅ คำแนะนำจากผู้เชี่ยวชาญ ➡️ ควรตั้งค่าบราวเซอร์ให้ถามก่อนดาวน์โหลดไฟล์จากแหล่งที่ไม่รู้จัก ➡️ จำกัดสิทธิ์ผู้ใช้ในระบบ ไม่ควรให้สิทธิ์ระดับ SYSTEM หรือ TrustedInstaller ➡️ ใช้นโยบายควบคุมแอปพลิเคชันเพื่อป้องกันการรันโปรแกรมที่ไม่ได้รับอนุญาต ➡️ อัปเดตระบบและโปรแกรมป้องกันไวรัสอย่างสม่ำเสมอ ‼️ คำเตือนสำหรับผู้ใช้ Windows ⛔ การคลิกลิงก์ในอีเมลที่ดูน่าเชื่อถืออาจเปิดทางให้มัลแวร์เข้ามา ⛔ โปรแกรม AnyDesk และ TightVNC แม้จะถูกต้องตามกฎหมาย แต่สามารถถูกใช้ในทางร้ายได้ ⛔ การปิดการทำงานของ Windows Security โดยมัลแวร์จะทำให้ระบบไร้การป้องกัน ⛔ บัญชีผู้ใช้ลับที่ถูกสร้างขึ้นอาจยังอยู่แม้จะลบมัลแวร์ไปแล้ว ⛔ การใช้ภาษา EPL ทำให้เครื่องมือวิเคราะห์ทั่วไปไม่สามารถตรวจจับได้ https://hackread.com/mostererat-windows-anydesk-tightvnc-access/
    HACKREAD.COM
    MostereRAT Targets Windows, Uses AnyDesk and TightVNC for Full Access
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 148 Views 0 Reviews
  • Why Capitalizing “Native American” Matters

    These days, social media is glut with excited folks who are sending off their cheek swabs to find out just what’s hiding in their DNA. Will they find out they had an ancestor on the Mayflower? Or, maybe they have a Native American ancestor?

    That would make them Native American too, right? Well, the definition of Native American is a lot more complicated than the genetics chart you get from your standard DNA testing center. You see, the term Native American refers to many, many different groups of people and not all of them identify with this term.

    Before we get to that, though, let’s start with the capitalization issue.

    Native American with a capital N

    The lexicographers have distinguished between native Americans and Native Americans. The first version, with the lowercase n, applies to anyone who was born here in the United States. After all, when used as an adjective, native is defined as “being the place or environment in which a person was born or a thing came into being.” If you were born in the United States of America, you are native to the country. Lowercase native American is an adjective that modifies the noun American. The lowercase native American is a noun phrase that describes someone as being an American citizen who is native to the United States.

    Simply being born in the good old US of A doesn’t make someone a Native American (capital N). Those two words are both capitalized because, when used together, they form what grammar experts refer to as a proper noun, or “a noun that is used to denote a particular person, place, or thing.” The term Native American is a very broad label that refers to a federally recognized category of Americans who are indigenous to the land that is now the United States (although some also extend the word’s usage to include all the the Indigenous Peoples of North and South America), and they make up at least two percent of the US population. They’re not just native to this area in the sense of having been born on American soil, but they have established American Indian or Alaska Native ancestry. As a general term, Native American is often used collectively to refer to the many different tribes of Indigenous Peoples who lived in the Americas long before the arrival of European colonizers. In reality, Native Americans are not a monolith, and they belong to many different tribes with their own cultures and languages. Note the words Native American should always be used together. It’s considered disparaging and offensive to refer to a group of people who are Native American simply as natives.

    Another good example of common nouns vs. proper nouns is New York City. When it’s written with a capital C, it’s specifically referring to the area that encompasses the five boroughs. When it’s written with a lowercase c, as in a New York city, it can refer to any large metropolis located anywhere in the state.

    DNA isn’t a definition

    So, all you need is a DNA test, and your ancestry falls under the definition of Native American, right? Well, that’s complicated.

    While the United States Department of Interior has its own rules regarding who qualifies for membership and enrollment in a tribe, the members of the tribes themselves don’t often agree with the government responsible for taking their lands and forcing them to live on reservations in the first place. Nor is there consensus among the more than 574 federally recognized tribal nations in the United States on what DNA results are required to establish heritage.

    Both the United Nations and Indigenous Peoples worldwide have denounced certain attempts at tracing human origins through DNA, including the Human Genome Diversity Project.

    If you feel that you have proven without a doubt that your lineage is Native American, you’ll have to turn to the individual tribe itself for the official opinion on the matter. And, even with a DNA test, you may find that you may be native American but not necessarily Native American.

    What about Indian?

    The department of the US federal government that oversees relations with the many Native American tribes is named the Bureau of Indian Affairs. The United States Census uses the term American Indian to refer to a person who identifies themself as a Native American. The term Indian referring to Native Americans has largely fallen out of general usage, and many Native American Peoples consider this term offensive. That being said, there are a significant number of Native American tribes and individuals that use the word Indian or the phrase American Indian to identify themselves.

    Even more common, though, is a group using the specific name of their tribe—especially the name used in their own language—to identify themselves. For example, a member of the Navajo tribe may refer to their particular group as Diné.

    As is often the case when it comes to language, people often have their own personal choice as to which words they prefer. If you are unsure about what words to use, the best choice is always to ask someone what they prefer.

    Native to Alaska

    The term Native American is sometimes used to include some Eskimo and Aleut peoples, specifically those whose families are native to the area now known as Alaska. The United States government uses the term Native Alaskan, and many other organizations prefer the term Alaska Native. Eskimo is still used as a self-designation by some people, while others consider it derogatory. Still other peoples will often prefer the specific name for their own people, tribe, or community—typically preferring a word from their own language. As is always the case, it’s best to let the person in question share their preferred terminology.

    © 2025, Aakkhra, All rights reserved.
    Why Capitalizing “Native American” Matters These days, social media is glut with excited folks who are sending off their cheek swabs to find out just what’s hiding in their DNA. Will they find out they had an ancestor on the Mayflower? Or, maybe they have a Native American ancestor? That would make them Native American too, right? Well, the definition of Native American is a lot more complicated than the genetics chart you get from your standard DNA testing center. You see, the term Native American refers to many, many different groups of people and not all of them identify with this term. Before we get to that, though, let’s start with the capitalization issue. Native American with a capital N The lexicographers have distinguished between native Americans and Native Americans. The first version, with the lowercase n, applies to anyone who was born here in the United States. After all, when used as an adjective, native is defined as “being the place or environment in which a person was born or a thing came into being.” If you were born in the United States of America, you are native to the country. Lowercase native American is an adjective that modifies the noun American. The lowercase native American is a noun phrase that describes someone as being an American citizen who is native to the United States. Simply being born in the good old US of A doesn’t make someone a Native American (capital N). Those two words are both capitalized because, when used together, they form what grammar experts refer to as a proper noun, or “a noun that is used to denote a particular person, place, or thing.” The term Native American is a very broad label that refers to a federally recognized category of Americans who are indigenous to the land that is now the United States (although some also extend the word’s usage to include all the the Indigenous Peoples of North and South America), and they make up at least two percent of the US population. They’re not just native to this area in the sense of having been born on American soil, but they have established American Indian or Alaska Native ancestry. As a general term, Native American is often used collectively to refer to the many different tribes of Indigenous Peoples who lived in the Americas long before the arrival of European colonizers. In reality, Native Americans are not a monolith, and they belong to many different tribes with their own cultures and languages. Note the words Native American should always be used together. It’s considered disparaging and offensive to refer to a group of people who are Native American simply as natives. Another good example of common nouns vs. proper nouns is New York City. When it’s written with a capital C, it’s specifically referring to the area that encompasses the five boroughs. When it’s written with a lowercase c, as in a New York city, it can refer to any large metropolis located anywhere in the state. DNA isn’t a definition So, all you need is a DNA test, and your ancestry falls under the definition of Native American, right? Well, that’s complicated. While the United States Department of Interior has its own rules regarding who qualifies for membership and enrollment in a tribe, the members of the tribes themselves don’t often agree with the government responsible for taking their lands and forcing them to live on reservations in the first place. Nor is there consensus among the more than 574 federally recognized tribal nations in the United States on what DNA results are required to establish heritage. Both the United Nations and Indigenous Peoples worldwide have denounced certain attempts at tracing human origins through DNA, including the Human Genome Diversity Project. If you feel that you have proven without a doubt that your lineage is Native American, you’ll have to turn to the individual tribe itself for the official opinion on the matter. And, even with a DNA test, you may find that you may be native American but not necessarily Native American. What about Indian? The department of the US federal government that oversees relations with the many Native American tribes is named the Bureau of Indian Affairs. The United States Census uses the term American Indian to refer to a person who identifies themself as a Native American. The term Indian referring to Native Americans has largely fallen out of general usage, and many Native American Peoples consider this term offensive. That being said, there are a significant number of Native American tribes and individuals that use the word Indian or the phrase American Indian to identify themselves. Even more common, though, is a group using the specific name of their tribe—especially the name used in their own language—to identify themselves. For example, a member of the Navajo tribe may refer to their particular group as Diné. As is often the case when it comes to language, people often have their own personal choice as to which words they prefer. If you are unsure about what words to use, the best choice is always to ask someone what they prefer. Native to Alaska The term Native American is sometimes used to include some Eskimo and Aleut peoples, specifically those whose families are native to the area now known as Alaska. The United States government uses the term Native Alaskan, and many other organizations prefer the term Alaska Native. Eskimo is still used as a self-designation by some people, while others consider it derogatory. Still other peoples will often prefer the specific name for their own people, tribe, or community—typically preferring a word from their own language. As is always the case, it’s best to let the person in question share their preferred terminology. © 2025, Aakkhra, All rights reserved.
    0 Comments 0 Shares 402 Views 0 Reviews
  • เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools

    ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้

    ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ

    ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก

    สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น

    Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน

    การเปิดตัว agentic frameworks จากจีน
    Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1
    ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม
    Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม

    ความสามารถของ Youtu-Agent
    ทำคะแนน 71.47% บน WebWalkerQA benchmark
    ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์
    มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ

    ความนิยมและการเปรียบเทียบ
    Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง
    LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว
    IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI

    การขยาย ecosystem ของ Tencent
    เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก
    ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer
    เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC

    https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    🎙️ เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้ ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน ✅ การเปิดตัว agentic frameworks จากจีน ➡️ Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1 ➡️ ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม ➡️ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม ✅ ความสามารถของ Youtu-Agent ➡️ ทำคะแนน 71.47% บน WebWalkerQA benchmark ➡️ ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์ ➡️ มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ ✅ ความนิยมและการเปรียบเทียบ ➡️ Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง ➡️ LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว ➡️ IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI ✅ การขยาย ecosystem ของ Tencent ➡️ เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก ➡️ ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer ➡️ เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    WWW.THESTAR.COM.MY
    China advances in AI agentic tools as Tencent, ByteDance weigh in
    Tencent is the latest to join the fray after the Shenzhen-based company open-sourced its new Youtu-Agent agentic framework on Tuesday.
    0 Comments 0 Shares 262 Views 0 Reviews
  • เรื่องเล่าจาก Grokking: เมื่อ AI กลายเป็นเครื่องมือขยายมัลแวร์โดยไม่รู้ตัว

    นักวิจัยจาก Guardio Labs ได้เปิดเผยเทคนิคใหม่ที่เรียกว่า “Grokking” ซึ่งเป็นการใช้ช่องโหว่ในระบบของแพลตฟอร์ม X (เดิมคือ Twitter) ร่วมกับ AI ผู้ช่วยชื่อ Grok เพื่อเผยแพร่ลิงก์อันตรายโดยหลบเลี่ยงระบบตรวจสอบของแพลตฟอร์ม

    วิธีการเริ่มต้นจากการโพสต์โฆษณาวิดีโอที่ดูน่าสนใจหรือมีเนื้อหายั่วยุ โดยไม่มีลิงก์ในเนื้อหาโพสต์หลัก ซึ่งช่วยให้หลบการตรวจสอบจากระบบของ X ได้ จากนั้นผู้โจมตีจะซ่อนลิงก์มัลแวร์ไว้ในช่อง “From:” metadata ซึ่งเป็นจุดที่ระบบไม่สแกน

    ขั้นตอนที่แยบยลที่สุดคือ การตอบกลับโพสต์นั้นโดยถาม Grok ว่า “ลิงก์ของวิดีโอนี้คืออะไร” Grok ซึ่งเป็นบัญชีระบบที่มีความน่าเชื่อถือสูง จะอ่าน metadata และตอบกลับด้วยลิงก์เต็มที่สามารถคลิกได้ทันที—กลายเป็นการ “พูดออกมา” แทนผู้โจมตี

    ผลคือ ลิงก์ที่ควรถูกบล็อกกลับถูกเผยแพร่โดย AI ที่ผู้ใช้เชื่อถือ และได้รับการขยายผลผ่าน SEO, การแสดงผลในฟีด และการคลิกจากผู้ใช้ที่ไม่รู้ตัว โดยบางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง

    ลิงก์เหล่านี้นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอม หรือดาวน์โหลดมัลแวร์ประเภท infostealer ที่ขโมยข้อมูลจากเครื่องของเหยื่อ โดยใช้เทคนิค smartlink monetization ผ่านเครือข่ายโฆษณาที่ไม่ปลอดภัย

    นักวิจัยยังพบว่าแคมเปญนี้มีความเป็นระบบสูง มีบัญชีหลายร้อยบัญชีที่โพสต์ซ้ำ ๆ จนกว่าจะถูกแบน และมีการใช้ Grok เป็น “เครื่องขยายเสียง” ของมัลแวร์อย่างต่อเนื่อง

    เทคนิค Grokking ที่ถูกค้นพบ
    โฆษณาวิดีโอไม่มีลิงก์ในโพสต์หลักเพื่อหลบการตรวจสอบ
    ซ่อนลิงก์มัลแวร์ในช่อง “From:” metadata ของวิดีโอ
    ใช้ Grok ตอบกลับเพื่อเผยแพร่ลิงก์ในรูปแบบที่คลิกได้

    บทบาทของ Grok ในการขยายผล
    Grok เป็นบัญชีระบบที่มีความน่าเชื่อถือสูงในแพลตฟอร์ม X
    การตอบกลับของ Grokช่วยเพิ่มความน่าเชื่อถือและการมองเห็นของลิงก์
    ลิงก์ได้รับการขยายผลผ่าน SEO และการแสดงผลในฟีดของผู้ใช้

    ผลกระทบและการแพร่กระจาย
    ลิงก์นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอมและมัลแวร์ infostealer
    ใช้เครือข่ายโฆษณาแบบ smartlink monetization ที่ไม่ปลอดภัย
    บางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง

    มุมมองจากผู้เชี่ยวชาญ
    Grokกลายเป็น “megaphone” ของมัลแวร์โดยไม่ตั้งใจ
    AI ที่ออกแบบมาเพื่อช่วยเหลือสามารถถูกหลอกให้เผยแพร่ภัยคุกคาม
    แนะนำให้แพลตฟอร์มสแกน metadata และเพิ่มการกรองคำตอบของ AI

    https://hackread.com/scammers-exploit-grok-ai-video-ad-scam-x-malware/
    🎙️ เรื่องเล่าจาก Grokking: เมื่อ AI กลายเป็นเครื่องมือขยายมัลแวร์โดยไม่รู้ตัว นักวิจัยจาก Guardio Labs ได้เปิดเผยเทคนิคใหม่ที่เรียกว่า “Grokking” ซึ่งเป็นการใช้ช่องโหว่ในระบบของแพลตฟอร์ม X (เดิมคือ Twitter) ร่วมกับ AI ผู้ช่วยชื่อ Grok เพื่อเผยแพร่ลิงก์อันตรายโดยหลบเลี่ยงระบบตรวจสอบของแพลตฟอร์ม วิธีการเริ่มต้นจากการโพสต์โฆษณาวิดีโอที่ดูน่าสนใจหรือมีเนื้อหายั่วยุ โดยไม่มีลิงก์ในเนื้อหาโพสต์หลัก ซึ่งช่วยให้หลบการตรวจสอบจากระบบของ X ได้ จากนั้นผู้โจมตีจะซ่อนลิงก์มัลแวร์ไว้ในช่อง “From:” metadata ซึ่งเป็นจุดที่ระบบไม่สแกน ขั้นตอนที่แยบยลที่สุดคือ การตอบกลับโพสต์นั้นโดยถาม Grok ว่า “ลิงก์ของวิดีโอนี้คืออะไร” Grok ซึ่งเป็นบัญชีระบบที่มีความน่าเชื่อถือสูง จะอ่าน metadata และตอบกลับด้วยลิงก์เต็มที่สามารถคลิกได้ทันที—กลายเป็นการ “พูดออกมา” แทนผู้โจมตี ผลคือ ลิงก์ที่ควรถูกบล็อกกลับถูกเผยแพร่โดย AI ที่ผู้ใช้เชื่อถือ และได้รับการขยายผลผ่าน SEO, การแสดงผลในฟีด และการคลิกจากผู้ใช้ที่ไม่รู้ตัว โดยบางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง ลิงก์เหล่านี้นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอม หรือดาวน์โหลดมัลแวร์ประเภท infostealer ที่ขโมยข้อมูลจากเครื่องของเหยื่อ โดยใช้เทคนิค smartlink monetization ผ่านเครือข่ายโฆษณาที่ไม่ปลอดภัย นักวิจัยยังพบว่าแคมเปญนี้มีความเป็นระบบสูง มีบัญชีหลายร้อยบัญชีที่โพสต์ซ้ำ ๆ จนกว่าจะถูกแบน และมีการใช้ Grok เป็น “เครื่องขยายเสียง” ของมัลแวร์อย่างต่อเนื่อง ✅ เทคนิค Grokking ที่ถูกค้นพบ ➡️ โฆษณาวิดีโอไม่มีลิงก์ในโพสต์หลักเพื่อหลบการตรวจสอบ ➡️ ซ่อนลิงก์มัลแวร์ในช่อง “From:” metadata ของวิดีโอ ➡️ ใช้ Grok ตอบกลับเพื่อเผยแพร่ลิงก์ในรูปแบบที่คลิกได้ ✅ บทบาทของ Grok ในการขยายผล ➡️ Grok เป็นบัญชีระบบที่มีความน่าเชื่อถือสูงในแพลตฟอร์ม X ➡️ การตอบกลับของ Grokช่วยเพิ่มความน่าเชื่อถือและการมองเห็นของลิงก์ ➡️ ลิงก์ได้รับการขยายผลผ่าน SEO และการแสดงผลในฟีดของผู้ใช้ ✅ ผลกระทบและการแพร่กระจาย ➡️ ลิงก์นำไปสู่เว็บไซต์ที่มี CAPTCHA ปลอมและมัลแวร์ infostealer ➡️ ใช้เครือข่ายโฆษณาแบบ smartlink monetization ที่ไม่ปลอดภัย ➡️ บางแคมเปญมีผู้ชมมากกว่า 5 ล้านครั้ง ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ Grokกลายเป็น “megaphone” ของมัลแวร์โดยไม่ตั้งใจ ➡️ AI ที่ออกแบบมาเพื่อช่วยเหลือสามารถถูกหลอกให้เผยแพร่ภัยคุกคาม ➡️ แนะนำให้แพลตฟอร์มสแกน metadata และเพิ่มการกรองคำตอบของ AI https://hackread.com/scammers-exploit-grok-ai-video-ad-scam-x-malware/
    HACKREAD.COM
    Scammers Exploit Grok AI With Video Ad Scam to Push Malware on X
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 173 Views 0 Reviews
  • เรื่องเล่าจาก Influencer ที่ไม่มีวันแก่: เมื่อ AI กลายเป็นคนดังที่แบรนด์รักและ FTC เริ่มไม่ไว้ใจ

    Lil Miquela เปิดตัวในปี 2016 ในฐานะ “วัยรุ่นบราซิล-อเมริกันจากแคลิฟอร์เนีย” ที่มีชีวิตอยู่บน Instagram เท่านั้น แต่เธอกลับกลายเป็นคนดังที่มีผู้ติดตามกว่า 2.4 ล้านคน ปรากฏตัวบนปกนิตยสาร, ร่วมแคมเปญกับ Calvin Klein และ Prada, และแม้แต่ถ่ายเซลฟี่กับ Nancy Pelosi ที่งานดนตรีในซานฟรานซิสโกเมื่อเดือนก่อน

    แต่เบื้องหลังของ Lil Miquela คือโมเดล AI ที่สร้างโดยบริษัท Dapper Labs ซึ่งใช้เทคนิคการเรนเดอร์ภาพและการเขียนบทสนทนาให้เหมือนมนุษย์จริง ๆ จนผู้ติดตามหลายคนไม่รู้ว่าเธอไม่ใช่คนจริง

    การเติบโตของ “AI influencer” ไม่ได้หยุดแค่ Miquela—ยังมี Shudu, Milla Sofia และอีกหลายคนที่ถูกสร้างขึ้นเพื่อเป็นตัวแทนแบรนด์โดยเฉพาะ และนั่นทำให้ FTC (คณะกรรมการการค้าของสหรัฐฯ) ต้องออกกฎใหม่ในปี 2023 โดยระบุว่า virtual influencer ที่ “ดูเหมือนคนจริง” และ “พูดในลักษณะที่ผู้บริโภคอาจเข้าใจว่าเป็นประสบการณ์ส่วนตัว” จะต้องปฏิบัติตามกฎการโฆษณาเหมือน influencer จริงทุกประการ3

    นั่นหมายความว่า AI influencer ต้องเปิดเผยความเกี่ยวข้องกับแบรนด์, ห้ามพูดราวกับเคยใช้สินค้าจริง, และแบรนด์ต้องรับผิดชอบต่อสิ่งที่ AI พูด—แม้จะเป็นโมเดลที่ไม่มีความรู้สึกหรือประสบการณ์จริงก็ตาม

    การเติบโตของ AI influencer
    Lil Miquela เปิดตัวในปี 2016 และมีผู้ติดตามกว่า 2.4 ล้านคน
    ปรากฏตัวในแคมเปญของแบรนด์ใหญ่ เช่น Calvin Klein และ Prada
    มีการโต้ตอบกับบุคคลจริง เช่น Nancy Pelosi ในงานดนตรี

    การกำกับดูแลจาก FTC
    FTC อัปเดต Endorsement Guide ให้ครอบคลุม virtual influencer
    ต้องเปิดเผยความเกี่ยวข้องกับแบรนด์อย่างชัดเจน
    ห้ามพูดราวกับมีประสบการณ์ส่วนตัวกับสินค้า

    ตัวอย่าง virtual influencer ที่มีอิทธิพล
    Shudu, Milla Sofia, Lu do Magalu เป็นตัวอย่างของ AI ที่มีผู้ติดตามหลักล้าน
    ถูกใช้เป็นตัวแทนแบรนด์ในหลายประเทศ
    บางรายถูกสร้างโดยแบรนด์เองเพื่อควบคุมภาพลักษณ์และข้อความ

    แนวโน้มของตลาดและเทคโนโลยี
    AI influencer ช่วยลดต้นทุนการตลาดและควบคุมเนื้อหาได้เต็มที่
    ใช้เทคโนโลยีเรนเดอร์ภาพและ NLP เพื่อสร้างบทสนทนาเหมือนจริง
    แบรนด์ขนาดเล็กสามารถสร้าง content ระดับสตูดิโอได้ด้วยงบจำกัด

    https://www.thestar.com.my/tech/tech-news/2025/09/04/theyre-famous-theyre-everywhere-and-theyre-fake
    🎙️ เรื่องเล่าจาก Influencer ที่ไม่มีวันแก่: เมื่อ AI กลายเป็นคนดังที่แบรนด์รักและ FTC เริ่มไม่ไว้ใจ Lil Miquela เปิดตัวในปี 2016 ในฐานะ “วัยรุ่นบราซิล-อเมริกันจากแคลิฟอร์เนีย” ที่มีชีวิตอยู่บน Instagram เท่านั้น แต่เธอกลับกลายเป็นคนดังที่มีผู้ติดตามกว่า 2.4 ล้านคน ปรากฏตัวบนปกนิตยสาร, ร่วมแคมเปญกับ Calvin Klein และ Prada, และแม้แต่ถ่ายเซลฟี่กับ Nancy Pelosi ที่งานดนตรีในซานฟรานซิสโกเมื่อเดือนก่อน แต่เบื้องหลังของ Lil Miquela คือโมเดล AI ที่สร้างโดยบริษัท Dapper Labs ซึ่งใช้เทคนิคการเรนเดอร์ภาพและการเขียนบทสนทนาให้เหมือนมนุษย์จริง ๆ จนผู้ติดตามหลายคนไม่รู้ว่าเธอไม่ใช่คนจริง การเติบโตของ “AI influencer” ไม่ได้หยุดแค่ Miquela—ยังมี Shudu, Milla Sofia และอีกหลายคนที่ถูกสร้างขึ้นเพื่อเป็นตัวแทนแบรนด์โดยเฉพาะ และนั่นทำให้ FTC (คณะกรรมการการค้าของสหรัฐฯ) ต้องออกกฎใหม่ในปี 2023 โดยระบุว่า virtual influencer ที่ “ดูเหมือนคนจริง” และ “พูดในลักษณะที่ผู้บริโภคอาจเข้าใจว่าเป็นประสบการณ์ส่วนตัว” จะต้องปฏิบัติตามกฎการโฆษณาเหมือน influencer จริงทุกประการ3 นั่นหมายความว่า AI influencer ต้องเปิดเผยความเกี่ยวข้องกับแบรนด์, ห้ามพูดราวกับเคยใช้สินค้าจริง, และแบรนด์ต้องรับผิดชอบต่อสิ่งที่ AI พูด—แม้จะเป็นโมเดลที่ไม่มีความรู้สึกหรือประสบการณ์จริงก็ตาม ✅ การเติบโตของ AI influencer ➡️ Lil Miquela เปิดตัวในปี 2016 และมีผู้ติดตามกว่า 2.4 ล้านคน ➡️ ปรากฏตัวในแคมเปญของแบรนด์ใหญ่ เช่น Calvin Klein และ Prada ➡️ มีการโต้ตอบกับบุคคลจริง เช่น Nancy Pelosi ในงานดนตรี ✅ การกำกับดูแลจาก FTC ➡️ FTC อัปเดต Endorsement Guide ให้ครอบคลุม virtual influencer ➡️ ต้องเปิดเผยความเกี่ยวข้องกับแบรนด์อย่างชัดเจน ➡️ ห้ามพูดราวกับมีประสบการณ์ส่วนตัวกับสินค้า ✅ ตัวอย่าง virtual influencer ที่มีอิทธิพล ➡️ Shudu, Milla Sofia, Lu do Magalu เป็นตัวอย่างของ AI ที่มีผู้ติดตามหลักล้าน ➡️ ถูกใช้เป็นตัวแทนแบรนด์ในหลายประเทศ ➡️ บางรายถูกสร้างโดยแบรนด์เองเพื่อควบคุมภาพลักษณ์และข้อความ ✅ แนวโน้มของตลาดและเทคโนโลยี ➡️ AI influencer ช่วยลดต้นทุนการตลาดและควบคุมเนื้อหาได้เต็มที่ ➡️ ใช้เทคโนโลยีเรนเดอร์ภาพและ NLP เพื่อสร้างบทสนทนาเหมือนจริง ➡️ แบรนด์ขนาดเล็กสามารถสร้าง content ระดับสตูดิโอได้ด้วยงบจำกัด https://www.thestar.com.my/tech/tech-news/2025/09/04/theyre-famous-theyre-everywhere-and-theyre-fake
    WWW.THESTAR.COM.MY
    They're famous. They're everywhere. And they're fake.
    Influencers like Lil' Miquela and Mia Zelu have millions of followers and generate serious income, despite being created with artificial intelligence.
    0 Comments 0 Shares 200 Views 0 Reviews
  • เรื่องเล่าจาก stress-ng: เมื่อ 50% CPU utilization อาจหมายถึง 80% ของงานจริงที่ระบบทำได้
    Brendan Long จาก MITRE Labs ได้ทดลองกับเครื่อง Ryzen 9 5900X โดยใช้ stress-ng เพื่อทดสอบว่า %CPU utilization ที่ระบบรายงานนั้นสัมพันธ์กับงานจริงที่เครื่องทำได้มากน้อยแค่ไหน ผลลัพธ์กลับชวนให้ตั้งคำถามกับสิ่งที่เราคิดว่า “เข้าใจดี” มาตลอด

    เขารัน stress-ng ด้วย worker 24 ตัวที่ทำงานในระดับ utilization ต่าง ๆ และอีกชุดที่รัน 1–24 worker ที่ 100% utilization เพื่อดูว่าระบบจัดการงานอย่างไร และพบว่า:

    ในงานทั่วไป เช่น CPU benchmark ทั่วไป: ที่ระบบรายงานว่าใช้ CPU 50% จริง ๆ แล้วเครื่องทำงานได้ถึง 60–65% ของความสามารถสูงสุด

    ในงานคำนวณ 64-bit integer: 50% utilization กลับเท่ากับ 65–85% ของงานจริง

    ในงาน matrix math ที่ใช้ SIMD หนัก ๆ: 50% utilization เท่ากับ 80–100% ของงานจริง—และการเพิ่ม worker ไม่ได้เพิ่มงานเลย แต่แค่ทำให้ตัวเลข utilization สูงขึ้น

    สาเหตุหลักคือ hyperthreading และ turbo boost:

    Hyperthreading ทำให้ core เสมือนแชร์ทรัพยากรกับ core จริง เมื่อใช้เกินจำนวน core จริง ประสิทธิภาพจะลดลงอย่างไม่เป็นเชิงเส้น

    Turbo boost ทำให้ CPU ลดความเร็วเมื่อมี core ทำงานมากขึ้น เพื่อควบคุมความร้อนและพลังงาน ส่งผลให้การคำนวณ utilization (busy cycles / total cycles) ผิดเพี้ยนไป

    Brendan สรุปว่า %CPU utilization ไม่สามารถใช้เป็นตัวแทนของ “งานจริง” ได้ และแนะนำให้วัดจาก benchmark ที่ดูจำนวนงานที่ทำได้จริง เช่น Bogo ops หรือ latency ของระบบแทน

    https://www.brendanlong.com/cpu-utilization-is-a-lie.html
    🎙️ เรื่องเล่าจาก stress-ng: เมื่อ 50% CPU utilization อาจหมายถึง 80% ของงานจริงที่ระบบทำได้ Brendan Long จาก MITRE Labs ได้ทดลองกับเครื่อง Ryzen 9 5900X โดยใช้ stress-ng เพื่อทดสอบว่า %CPU utilization ที่ระบบรายงานนั้นสัมพันธ์กับงานจริงที่เครื่องทำได้มากน้อยแค่ไหน ผลลัพธ์กลับชวนให้ตั้งคำถามกับสิ่งที่เราคิดว่า “เข้าใจดี” มาตลอด เขารัน stress-ng ด้วย worker 24 ตัวที่ทำงานในระดับ utilization ต่าง ๆ และอีกชุดที่รัน 1–24 worker ที่ 100% utilization เพื่อดูว่าระบบจัดการงานอย่างไร และพบว่า: ℹ️ ในงานทั่วไป เช่น CPU benchmark ทั่วไป: ที่ระบบรายงานว่าใช้ CPU 50% จริง ๆ แล้วเครื่องทำงานได้ถึง 60–65% ของความสามารถสูงสุด ℹ️ ในงานคำนวณ 64-bit integer: 50% utilization กลับเท่ากับ 65–85% ของงานจริง ℹ️ ในงาน matrix math ที่ใช้ SIMD หนัก ๆ: 50% utilization เท่ากับ 80–100% ของงานจริง—และการเพิ่ม worker ไม่ได้เพิ่มงานเลย แต่แค่ทำให้ตัวเลข utilization สูงขึ้น สาเหตุหลักคือ hyperthreading และ turbo boost: ℹ️ Hyperthreading ทำให้ core เสมือนแชร์ทรัพยากรกับ core จริง เมื่อใช้เกินจำนวน core จริง ประสิทธิภาพจะลดลงอย่างไม่เป็นเชิงเส้น ℹ️ Turbo boost ทำให้ CPU ลดความเร็วเมื่อมี core ทำงานมากขึ้น เพื่อควบคุมความร้อนและพลังงาน ส่งผลให้การคำนวณ utilization (busy cycles / total cycles) ผิดเพี้ยนไป Brendan สรุปว่า %CPU utilization ไม่สามารถใช้เป็นตัวแทนของ “งานจริง” ได้ และแนะนำให้วัดจาก benchmark ที่ดูจำนวนงานที่ทำได้จริง เช่น Bogo ops หรือ latency ของระบบแทน https://www.brendanlong.com/cpu-utilization-is-a-lie.html
    WWW.BRENDANLONG.COM
    %CPU Utilization Is A Lie
    I deal with a lot of servers at work, and one thing everyone wants to know about their servers is how close they are to being at max utilization. It should be easy, right? Just pull up top or another system monitor tool, look at network, memory and CPU utilization …
    0 Comments 0 Shares 183 Views 0 Reviews
More Results