• เรื่องเล่าจากโลกของ Embedding: เมื่อข้อความกลายเป็นตัวเลขที่มีความหมาย

    ลองจินตนาการว่าเราให้โมเดลภาษาอย่าง Llama2 หรือ Mistral อ่านประโยคหนึ่ง เช่น “แมวกระโดดขึ้นโต๊ะ” แล้วถามว่า “เข้าใจไหม?” โมเดลจะไม่ตอบว่า “เข้าใจ” แบบมนุษย์ แต่จะเปลี่ยนประโยคนั้นเป็นชุดตัวเลขที่เรียกว่า embedding ซึ่งเป็นการแปลงข้อความให้กลายเป็น “ความหมายในเชิงคณิตศาสตร์”

    ใน Hugging Face Space นี้ hesamation ได้อธิบายว่า embedding คือการนำข้อความผ่านกระบวนการหลายขั้นตอนในโมเดล LLM เพื่อให้ได้เวกเตอร์ที่สื่อถึงความหมายของข้อความนั้น โดยใช้เทคนิคการ pooling เช่น การเฉลี่ย (average), การใช้ token พิเศษ [CLS], หรือการเลือกค่ามากสุด (max pooling)

    นอกจากนี้ยังมีการอธิบายว่า embedding ไม่ใช่แค่ตัวเลขธรรมดา แต่เป็นการสรุปความหมาย, บริบท, และโครงสร้างของข้อความในรูปแบบที่โมเดลเข้าใจได้ และสามารถนำไปใช้ในงานต่าง ๆ เช่น การค้นหาความคล้ายคลึง, การจัดกลุ่มข้อมูล, หรือการตอบคำถาม

    Embedding คือการแปลงข้อความให้เป็นเวกเตอร์ที่มีความหมาย
    ใช้ในงาน NLP เช่น การค้นหา, การจัดกลุ่ม, การตอบคำถาม

    โมเดล LLM เช่น Llama2 และ Mistral สร้าง embedding จาก hidden states หลายชั้น
    hidden states มีรูปแบบ [batch_size, number_of_tokens, embedding_size]
    ต้องใช้เทคนิค pooling เพื่อให้ได้ embedding เดียวต่อข้อความ

    เทคนิค pooling มีหลายแบบให้เลือกใช้ตามบริบทของงาน
    เช่น average pooling, max pooling, [CLS] token pooling
    attention_mask ใช้เพื่อกรอง token ที่เป็น padding

    embedding เป็นพื้นฐานสำคัญของการเข้าใจภาษาธรรมชาติในโมเดล AI
    ช่วยให้โมเดลเข้าใจความหมายและบริบทของข้อความ
    เป็นจุดเริ่มต้นของการประมวลผลข้อมูลเชิงภาษา

    การเลือก pooling strategy ที่ไม่เหมาะสมอาจทำให้ embedding ไม่สะท้อนความหมายที่แท้จริง
    เช่น การใช้ average pooling กับข้อความที่มี padding มาก อาจทำให้ผลลัพธ์ผิดเพี้ยน
    ต้องใช้ attention_mask เพื่อกรอง token ที่ไม่สำคัญ

    การใช้ embedding จากโมเดลที่ไม่รองรับงานเฉพาะทาง อาจให้ผลลัพธ์ไม่แม่นยำ
    เช่น ใช้ embedding จากโมเดลทั่วไปกับงานทางการแพทย์หรือกฎหมาย
    ควรเลือกโมเดลที่ fine-tune มาเพื่อบริบทนั้นโดยเฉพาะ

    การใช้ embedding โดยไม่เข้าใจโครงสร้างของ hidden states อาจทำให้เกิดข้อผิดพลาดในการประมวลผล
    เช่น การเลือก hidden state ชั้นที่ไม่เหมาะสม
    ควรศึกษาว่าแต่ละชั้นของโมเดลมีความหมายอย่างไร

    https://huggingface.co/spaces/hesamation/primer-llm-embedding
    🧠 เรื่องเล่าจากโลกของ Embedding: เมื่อข้อความกลายเป็นตัวเลขที่มีความหมาย ลองจินตนาการว่าเราให้โมเดลภาษาอย่าง Llama2 หรือ Mistral อ่านประโยคหนึ่ง เช่น “แมวกระโดดขึ้นโต๊ะ” แล้วถามว่า “เข้าใจไหม?” โมเดลจะไม่ตอบว่า “เข้าใจ” แบบมนุษย์ แต่จะเปลี่ยนประโยคนั้นเป็นชุดตัวเลขที่เรียกว่า embedding ซึ่งเป็นการแปลงข้อความให้กลายเป็น “ความหมายในเชิงคณิตศาสตร์” ใน Hugging Face Space นี้ hesamation ได้อธิบายว่า embedding คือการนำข้อความผ่านกระบวนการหลายขั้นตอนในโมเดล LLM เพื่อให้ได้เวกเตอร์ที่สื่อถึงความหมายของข้อความนั้น โดยใช้เทคนิคการ pooling เช่น การเฉลี่ย (average), การใช้ token พิเศษ [CLS], หรือการเลือกค่ามากสุด (max pooling) นอกจากนี้ยังมีการอธิบายว่า embedding ไม่ใช่แค่ตัวเลขธรรมดา แต่เป็นการสรุปความหมาย, บริบท, และโครงสร้างของข้อความในรูปแบบที่โมเดลเข้าใจได้ และสามารถนำไปใช้ในงานต่าง ๆ เช่น การค้นหาความคล้ายคลึง, การจัดกลุ่มข้อมูล, หรือการตอบคำถาม ✅ Embedding คือการแปลงข้อความให้เป็นเวกเตอร์ที่มีความหมาย ➡️ ใช้ในงาน NLP เช่น การค้นหา, การจัดกลุ่ม, การตอบคำถาม ✅ โมเดล LLM เช่น Llama2 และ Mistral สร้าง embedding จาก hidden states หลายชั้น ➡️ hidden states มีรูปแบบ [batch_size, number_of_tokens, embedding_size] ➡️ ต้องใช้เทคนิค pooling เพื่อให้ได้ embedding เดียวต่อข้อความ ✅ เทคนิค pooling มีหลายแบบให้เลือกใช้ตามบริบทของงาน ➡️ เช่น average pooling, max pooling, [CLS] token pooling ➡️ attention_mask ใช้เพื่อกรอง token ที่เป็น padding ✅ embedding เป็นพื้นฐานสำคัญของการเข้าใจภาษาธรรมชาติในโมเดล AI ➡️ ช่วยให้โมเดลเข้าใจความหมายและบริบทของข้อความ ➡️ เป็นจุดเริ่มต้นของการประมวลผลข้อมูลเชิงภาษา ‼️ การเลือก pooling strategy ที่ไม่เหมาะสมอาจทำให้ embedding ไม่สะท้อนความหมายที่แท้จริง ⛔ เช่น การใช้ average pooling กับข้อความที่มี padding มาก อาจทำให้ผลลัพธ์ผิดเพี้ยน ⛔ ต้องใช้ attention_mask เพื่อกรอง token ที่ไม่สำคัญ ‼️ การใช้ embedding จากโมเดลที่ไม่รองรับงานเฉพาะทาง อาจให้ผลลัพธ์ไม่แม่นยำ ⛔ เช่น ใช้ embedding จากโมเดลทั่วไปกับงานทางการแพทย์หรือกฎหมาย ⛔ ควรเลือกโมเดลที่ fine-tune มาเพื่อบริบทนั้นโดยเฉพาะ ‼️ การใช้ embedding โดยไม่เข้าใจโครงสร้างของ hidden states อาจทำให้เกิดข้อผิดพลาดในการประมวลผล ⛔ เช่น การเลือก hidden state ชั้นที่ไม่เหมาะสม ⛔ ควรศึกษาว่าแต่ละชั้นของโมเดลมีความหมายอย่างไร https://huggingface.co/spaces/hesamation/primer-llm-embedding
    HUGGINGFACE.CO
    LLM Embeddings Explained: A Visual and Intuitive Guide - a Hugging Face Space by hesamation
    This app explains how language models transform text into meaningful representations through embeddings. It provides a visual guide to help you understand traditional and modern language model tech...
    0 Comments 0 Shares 91 Views 0 Reviews
  • เรื่องเล่าจากวงการชิป: เมื่อ “แฟลช” จะมาแทน “แรม” ในงาน AI

    ลองจินตนาการว่า GPU สำหรับงาน AI ไม่ต้องพึ่ง DRAM แบบ HBM ที่แพงและจำกัดความจุอีกต่อไป แต่ใช้แฟลชความเร็วสูงที่มีความจุระดับ SSD—นั่นคือเป้าหมายของ Sandisk กับเทคโนโลยี HBF (High Bandwidth Flash)

    Sandisk ได้ตั้งคณะกรรมการที่ปรึกษาด้านเทคนิค โดยดึงสองตำนานแห่งวงการคอมพิวเตอร์มาเป็นผู้นำ ได้แก่ Prof. David Patterson ผู้ร่วมพัฒนา RISC และ RAID และ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ AMD และ Intel เพื่อผลักดัน HBF ให้กลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI

    HBF ใช้ NAND Flash แบบ BiCS ร่วมกับเทคนิค CBA wafer bonding และการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ทำให้สามารถให้แบนด์วิดธ์ระดับ HBM ได้ แต่มีความจุสูงถึง 4TB ต่อ GPU และต้นทุนต่ำกว่าอย่างมหาศาล

    Sandisk เปิดตัวเทคโนโลยี HBF (High Bandwidth Flash) เพื่อใช้แทน HBM ในงาน AI
    ใช้ NAND Flash แบบ BiCS ร่วมกับ CBA wafer bonding
    รองรับการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ

    HBF ให้แบนด์วิดธ์ระดับเดียวกับ HBM แต่มีความจุสูงกว่า 8 เท่าในต้นทุนใกล้เคียงกัน
    GPU ที่ใช้ HBF สามารถมี VRAM ได้ถึง 4TB
    หากใช้ร่วมกับ HBM จะได้รวมสูงสุดถึง 3TB

    Sandisk ตั้งคณะกรรมการที่ปรึกษาโดยมี David Patterson และ Raja Koduri เป็นผู้นำ
    Patterson คือผู้ร่วมพัฒนา RISC และ RAID
    Koduri เคยเป็นหัวหน้าฝ่ายกราฟิกของ AMD และ Intel

    HBF ถูกออกแบบมาเพื่อรองรับงาน AI ทั้งในดาต้าเซ็นเตอร์และ edge computing
    Patterson ระบุว่า HBF จะช่วยลดต้นทุนของงาน AI ที่ปัจจุบันยังแพงเกินไป
    Koduri ระบุว่า HBF จะพลิกโฉม edge AI โดยให้แบนด์วิดธ์และความจุสูงในอุปกรณ์ขนาดเล็ก

    HBF ใช้ electrical interface เดียวกับ HBM และต้องปรับ protocol เพียงเล็กน้อย
    ทำให้สามารถนำไปใช้กับ GPU ได้ง่ายขึ้น
    ไม่จำเป็นต้องออกแบบระบบใหม่ทั้งหมด

    เปิดตัวครั้งแรกในงาน Future FWD 2025 พร้อมแผนพัฒนา HBF รุ่นต่อไป
    มี roadmap เพิ่มความจุและแบนด์วิดธ์ในอนาคต
    อาจมี trade-off ด้านการใช้พลังงาน

    HBF ยังไม่ใช่ตัวแทนโดยตรงของ HBM และมีข้อจำกัดด้าน latency
    NAND Flash มี latency สูงกว่า DRAM
    เหมาะกับงาน inference และ training มากกว่างานที่ต้องตอบสนองเร็ว

    การใช้งาน HBF ต้องอาศัยการสนับสนุนจากผู้ผลิต GPU โดยตรง
    ต้องใช้ interposer ที่เชื่อมต่อกับ GPU โดยเฉพาะ
    หาก NVIDIA ไม่รับรอง HBF อาจจำกัดการใช้งานในตลาด

    ยังไม่มีการประกาศวันเปิดตัวหรือผลิตภัณฑ์ที่ใช้ HBF อย่างเป็นทางการ
    อยู่ในขั้นตอนการพัฒนาและทดสอบ
    ต้องรอการยอมรับจากอุตสาหกรรมก่อนใช้งานจริง

    การแข่งขันกับผู้ผลิต HBM อย่าง Samsung และ SK Hynix ยังเข้มข้น
    HBM มี ecosystem ที่แข็งแกร่งและได้รับการสนับสนุนจาก NVIDIA
    Sandisk ต้องผลักดัน HBF ให้เป็นมาตรฐานเปิดเพื่อหลีกเลี่ยงการผูกขาด

    https://www.techradar.com/pro/sandisk-recruits-risc-cofounder-amd-graphics-legend-to-spearhead-cheaper-rival-to-hbm-high-bandwidth-flash-could-bring-ssd-capacities-to-ai-gpus-without-the-cost
    ⚡ เรื่องเล่าจากวงการชิป: เมื่อ “แฟลช” จะมาแทน “แรม” ในงาน AI ลองจินตนาการว่า GPU สำหรับงาน AI ไม่ต้องพึ่ง DRAM แบบ HBM ที่แพงและจำกัดความจุอีกต่อไป แต่ใช้แฟลชความเร็วสูงที่มีความจุระดับ SSD—นั่นคือเป้าหมายของ Sandisk กับเทคโนโลยี HBF (High Bandwidth Flash) Sandisk ได้ตั้งคณะกรรมการที่ปรึกษาด้านเทคนิค โดยดึงสองตำนานแห่งวงการคอมพิวเตอร์มาเป็นผู้นำ ได้แก่ Prof. David Patterson ผู้ร่วมพัฒนา RISC และ RAID และ Raja Koduri อดีตหัวหน้าฝ่ายกราฟิกของ AMD และ Intel เพื่อผลักดัน HBF ให้กลายเป็นมาตรฐานใหม่ของหน่วยความจำสำหรับ AI HBF ใช้ NAND Flash แบบ BiCS ร่วมกับเทคนิค CBA wafer bonding และการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ทำให้สามารถให้แบนด์วิดธ์ระดับ HBM ได้ แต่มีความจุสูงถึง 4TB ต่อ GPU และต้นทุนต่ำกว่าอย่างมหาศาล ✅ Sandisk เปิดตัวเทคโนโลยี HBF (High Bandwidth Flash) เพื่อใช้แทน HBM ในงาน AI ➡️ ใช้ NAND Flash แบบ BiCS ร่วมกับ CBA wafer bonding ➡️ รองรับการจัดเรียงชิปแบบ 16 ชั้นต่อแพ็กเกจ ✅ HBF ให้แบนด์วิดธ์ระดับเดียวกับ HBM แต่มีความจุสูงกว่า 8 เท่าในต้นทุนใกล้เคียงกัน ➡️ GPU ที่ใช้ HBF สามารถมี VRAM ได้ถึง 4TB ➡️ หากใช้ร่วมกับ HBM จะได้รวมสูงสุดถึง 3TB ✅ Sandisk ตั้งคณะกรรมการที่ปรึกษาโดยมี David Patterson และ Raja Koduri เป็นผู้นำ ➡️ Patterson คือผู้ร่วมพัฒนา RISC และ RAID ➡️ Koduri เคยเป็นหัวหน้าฝ่ายกราฟิกของ AMD และ Intel ✅ HBF ถูกออกแบบมาเพื่อรองรับงาน AI ทั้งในดาต้าเซ็นเตอร์และ edge computing ➡️ Patterson ระบุว่า HBF จะช่วยลดต้นทุนของงาน AI ที่ปัจจุบันยังแพงเกินไป ➡️ Koduri ระบุว่า HBF จะพลิกโฉม edge AI โดยให้แบนด์วิดธ์และความจุสูงในอุปกรณ์ขนาดเล็ก ✅ HBF ใช้ electrical interface เดียวกับ HBM และต้องปรับ protocol เพียงเล็กน้อย ➡️ ทำให้สามารถนำไปใช้กับ GPU ได้ง่ายขึ้น ➡️ ไม่จำเป็นต้องออกแบบระบบใหม่ทั้งหมด ✅ เปิดตัวครั้งแรกในงาน Future FWD 2025 พร้อมแผนพัฒนา HBF รุ่นต่อไป ➡️ มี roadmap เพิ่มความจุและแบนด์วิดธ์ในอนาคต ➡️ อาจมี trade-off ด้านการใช้พลังงาน ‼️ HBF ยังไม่ใช่ตัวแทนโดยตรงของ HBM และมีข้อจำกัดด้าน latency ⛔ NAND Flash มี latency สูงกว่า DRAM ⛔ เหมาะกับงาน inference และ training มากกว่างานที่ต้องตอบสนองเร็ว ‼️ การใช้งาน HBF ต้องอาศัยการสนับสนุนจากผู้ผลิต GPU โดยตรง ⛔ ต้องใช้ interposer ที่เชื่อมต่อกับ GPU โดยเฉพาะ ⛔ หาก NVIDIA ไม่รับรอง HBF อาจจำกัดการใช้งานในตลาด ‼️ ยังไม่มีการประกาศวันเปิดตัวหรือผลิตภัณฑ์ที่ใช้ HBF อย่างเป็นทางการ ⛔ อยู่ในขั้นตอนการพัฒนาและทดสอบ ⛔ ต้องรอการยอมรับจากอุตสาหกรรมก่อนใช้งานจริง ‼️ การแข่งขันกับผู้ผลิต HBM อย่าง Samsung และ SK Hynix ยังเข้มข้น ⛔ HBM มี ecosystem ที่แข็งแกร่งและได้รับการสนับสนุนจาก NVIDIA ⛔ Sandisk ต้องผลักดัน HBF ให้เป็นมาตรฐานเปิดเพื่อหลีกเลี่ยงการผูกขาด https://www.techradar.com/pro/sandisk-recruits-risc-cofounder-amd-graphics-legend-to-spearhead-cheaper-rival-to-hbm-high-bandwidth-flash-could-bring-ssd-capacities-to-ai-gpus-without-the-cost
    0 Comments 0 Shares 131 Views 0 Reviews
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 Comments 0 Shares 116 Views 0 Reviews
  • เรื่องเล่าจากโลกออนไลน์: เมื่อ “เกม” และ “VPN” กลายเป็นเครื่องมือหลบกฎหมาย

    ลองจินตนาการว่าคุณอยู่ในสหราชอาณาจักรและต้องการเข้าถึงเว็บไซต์ผู้ใหญ่หรือเนื้อหาที่จำกัดอายุ แต่ระบบใหม่ภายใต้กฎหมาย Online Safety Act บังคับให้คุณต้องส่งภาพใบหน้า, บัตรประชาชน หรือแม้แต่เปิดปากต่อหน้ากล้องเพื่อพิสูจน์ว่าคุณเป็นผู้ใหญ่จริงๆ

    ผู้ใช้จำนวนมากไม่พอใจและเริ่มหาทางหลบเลี่ยง—บางคนใช้ VPN เพื่อเปลี่ยนตำแหน่ง IP ไปยังประเทศอื่น แต่ที่สร้างเสียงฮือฮาคือการใช้ “ภาพจากเกม Death Stranding” โดยปรับสีหน้าในโหมดถ่ายภาพของตัวละคร Sam Porter Bridges แล้วใช้ภาพนั้นแทนใบหน้าจริงในการยืนยันอายุบน Discord และแพลตฟอร์มอื่น

    กฎหมาย Online Safety Act เริ่มบังคับใช้ในสหราชอาณาจักรเมื่อ 25 กรกฎาคม 2025
    บังคับให้เว็บไซต์ผู้ใหญ่และแพลตฟอร์มโซเชียลมีเดียใช้ระบบตรวจสอบอายุที่เข้มงวด
    ไม่สามารถใช้แค่การคลิก “ฉันอายุเกิน 18” ได้อีกต่อไป

    ระบบตรวจสอบอายุต้องใช้ข้อมูลจริง เช่น ภาพใบหน้า, วิดีโอ, บัตรประชาชน หรือข้อมูลธนาคาร
    Discord ใช้ระบบ K-ID ที่ต้องให้ผู้ใช้เปิดปากต่อหน้ากล้องเพื่อพิสูจน์ว่าเป็นคนจริง
    Reddit, Pornhub, XHamster และแพลตฟอร์มอื่นเริ่มใช้ระบบนี้แล้ว

    ผู้ใช้จำนวนมากหันไปใช้ VPN เพื่อหลบเลี่ยงการตรวจสอบ
    Proton VPN รายงานการสมัครใช้งานจาก UK เพิ่มขึ้น 1,400% ภายในวันเดียว
    Google Search คำว่า “Proton” เพิ่มขึ้นเกือบ 100 เท่าในวันเดียว

    ผู้ใช้บางคนใช้ภาพจากเกม Death Stranding เพื่อหลอกระบบตรวจสอบอายุ
    ใช้โหมดถ่ายภาพปรับสีหน้าตัวละครให้เหมือนคนจริง
    PC Gamer ยืนยันว่าเทคนิคนี้ใช้ได้จริง โดยถือกล้องมือถือถ่ายภาพจากหน้าจอเกม

    ผู้ใช้ยังใช้ภาพจากโมเดลมีมชื่อดัง “Hide the Pain Harold” เพื่อผ่านการตรวจสอบเบื้องต้น
    แต่ระบบยังต้องการการเคลื่อนไหว เช่น การเปิดปาก เพื่อยืนยันว่าเป็นคนจริง

    การใช้ VPN หรือภาพปลอมเพื่อหลบเลี่ยงการตรวจสอบอายุอาจละเมิดข้อกำหนดของแพลตฟอร์ม
    Ofcom ระบุว่าการส่งเสริมการใช้ VPN เพื่อหลบเลี่ยงกฎหมายเป็นสิ่งต้องห้าม
    แพลตฟอร์มอาจแบนบัญชีที่ใช้วิธีหลอกลวง

    ระบบตรวจสอบอายุอาจละเมิดความเป็นส่วนตัวของผู้ใช้
    ต้องส่งข้อมูลส่วนตัว เช่น ภาพใบหน้า, บัตรประชาชน หรือข้อมูลทางการเงิน
    ผู้ใช้บางคนไม่มั่นใจว่าข้อมูลจะถูกเก็บไว้อย่างปลอดภัย

    การใช้ภาพจากเกมหรือโมเดลปลอมอาจทำให้ระบบตรวจสอบผิดพลาด
    อาจเปิดช่องให้ผู้เยาว์เข้าถึงเนื้อหาที่ไม่เหมาะสม
    ลดความน่าเชื่อถือของระบบตรวจสอบอายุโดยรวม

    การบังคับใช้กฎหมายอาจกระทบเสรีภาพในการเข้าถึงเนื้อหาออนไลน์
    มีผู้ลงชื่อในคำร้องขอให้ยกเลิกกฎหมายนี้มากกว่า 280,000 คน
    บางเว็บไซต์เลือกปิดบริการใน UK แทนที่จะปรับตัวตามกฎหมาย

    https://www.techspot.com/news/108819-brits-circumventing-uk-age-verification-vpns-death-stranding.html
    🕵️‍♂️ เรื่องเล่าจากโลกออนไลน์: เมื่อ “เกม” และ “VPN” กลายเป็นเครื่องมือหลบกฎหมาย ลองจินตนาการว่าคุณอยู่ในสหราชอาณาจักรและต้องการเข้าถึงเว็บไซต์ผู้ใหญ่หรือเนื้อหาที่จำกัดอายุ แต่ระบบใหม่ภายใต้กฎหมาย Online Safety Act บังคับให้คุณต้องส่งภาพใบหน้า, บัตรประชาชน หรือแม้แต่เปิดปากต่อหน้ากล้องเพื่อพิสูจน์ว่าคุณเป็นผู้ใหญ่จริงๆ ผู้ใช้จำนวนมากไม่พอใจและเริ่มหาทางหลบเลี่ยง—บางคนใช้ VPN เพื่อเปลี่ยนตำแหน่ง IP ไปยังประเทศอื่น แต่ที่สร้างเสียงฮือฮาคือการใช้ “ภาพจากเกม Death Stranding” โดยปรับสีหน้าในโหมดถ่ายภาพของตัวละคร Sam Porter Bridges แล้วใช้ภาพนั้นแทนใบหน้าจริงในการยืนยันอายุบน Discord และแพลตฟอร์มอื่น ✅ กฎหมาย Online Safety Act เริ่มบังคับใช้ในสหราชอาณาจักรเมื่อ 25 กรกฎาคม 2025 ➡️ บังคับให้เว็บไซต์ผู้ใหญ่และแพลตฟอร์มโซเชียลมีเดียใช้ระบบตรวจสอบอายุที่เข้มงวด ➡️ ไม่สามารถใช้แค่การคลิก “ฉันอายุเกิน 18” ได้อีกต่อไป ✅ ระบบตรวจสอบอายุต้องใช้ข้อมูลจริง เช่น ภาพใบหน้า, วิดีโอ, บัตรประชาชน หรือข้อมูลธนาคาร ➡️ Discord ใช้ระบบ K-ID ที่ต้องให้ผู้ใช้เปิดปากต่อหน้ากล้องเพื่อพิสูจน์ว่าเป็นคนจริง ➡️ Reddit, Pornhub, XHamster และแพลตฟอร์มอื่นเริ่มใช้ระบบนี้แล้ว ✅ ผู้ใช้จำนวนมากหันไปใช้ VPN เพื่อหลบเลี่ยงการตรวจสอบ ➡️ Proton VPN รายงานการสมัครใช้งานจาก UK เพิ่มขึ้น 1,400% ภายในวันเดียว ➡️ Google Search คำว่า “Proton” เพิ่มขึ้นเกือบ 100 เท่าในวันเดียว ✅ ผู้ใช้บางคนใช้ภาพจากเกม Death Stranding เพื่อหลอกระบบตรวจสอบอายุ ➡️ ใช้โหมดถ่ายภาพปรับสีหน้าตัวละครให้เหมือนคนจริง ➡️ PC Gamer ยืนยันว่าเทคนิคนี้ใช้ได้จริง โดยถือกล้องมือถือถ่ายภาพจากหน้าจอเกม ✅ ผู้ใช้ยังใช้ภาพจากโมเดลมีมชื่อดัง “Hide the Pain Harold” เพื่อผ่านการตรวจสอบเบื้องต้น ➡️ แต่ระบบยังต้องการการเคลื่อนไหว เช่น การเปิดปาก เพื่อยืนยันว่าเป็นคนจริง ‼️ การใช้ VPN หรือภาพปลอมเพื่อหลบเลี่ยงการตรวจสอบอายุอาจละเมิดข้อกำหนดของแพลตฟอร์ม ⛔ Ofcom ระบุว่าการส่งเสริมการใช้ VPN เพื่อหลบเลี่ยงกฎหมายเป็นสิ่งต้องห้าม ⛔ แพลตฟอร์มอาจแบนบัญชีที่ใช้วิธีหลอกลวง ‼️ ระบบตรวจสอบอายุอาจละเมิดความเป็นส่วนตัวของผู้ใช้ ⛔ ต้องส่งข้อมูลส่วนตัว เช่น ภาพใบหน้า, บัตรประชาชน หรือข้อมูลทางการเงิน ⛔ ผู้ใช้บางคนไม่มั่นใจว่าข้อมูลจะถูกเก็บไว้อย่างปลอดภัย ‼️ การใช้ภาพจากเกมหรือโมเดลปลอมอาจทำให้ระบบตรวจสอบผิดพลาด ⛔ อาจเปิดช่องให้ผู้เยาว์เข้าถึงเนื้อหาที่ไม่เหมาะสม ⛔ ลดความน่าเชื่อถือของระบบตรวจสอบอายุโดยรวม ‼️ การบังคับใช้กฎหมายอาจกระทบเสรีภาพในการเข้าถึงเนื้อหาออนไลน์ ⛔ มีผู้ลงชื่อในคำร้องขอให้ยกเลิกกฎหมายนี้มากกว่า 280,000 คน ⛔ บางเว็บไซต์เลือกปิดบริการใน UK แทนที่จะปรับตัวตามกฎหมาย https://www.techspot.com/news/108819-brits-circumventing-uk-age-verification-vpns-death-stranding.html
    WWW.TECHSPOT.COM
    Brits are circumventing UK age verification with VPNs and Death Stranding photos
    Proton VPN reported a 1,400% increase in logins from the UK on Friday. The company attributed the surge to the stricter enforcement of the Online Safety Act,...
    0 Comments 0 Shares 130 Views 0 Reviews
  • เรื่องเล่าจากจักรวาล: เมื่อ “กาแล็กซีวัยเด็ก” มีรูปร่างเหมือนผู้ใหญ่

    ลองจินตนาการว่าคุณมองย้อนกลับไปในจักรวาลเมื่อ 11 พันล้านปีก่อน—ยุคที่ทุกอย่างยังวุ่นวายและไม่เป็นระเบียบ แล้วพบว่ามี “กาแล็กซีวัยเด็ก” ที่มีรูปร่างเหมือนทางช้างเผือกในปัจจุบัน ทั้งมีแขนเกลียวและแกนกลางแบบ barred spiral ที่สมบูรณ์

    นี่คือ J0107a กาแล็กซีขนาดมหึมาที่นักดาราศาสตร์พบโดยบังเอิญขณะศึกษากาแล็กซี VV114 โดยใช้กล้อง JWST และ ALMA ซึ่งเผยให้เห็นว่า J0107a มีมวลมากกว่าทางช้างเผือกถึง 10 เท่า และกำลังสร้างดาวใหม่เร็วกว่าเราถึง 300 เท่า โดยไม่มีร่องรอยของการชนหรือรวมตัวกับกาแล็กซีอื่น

    J0107a เป็นกาแล็กซี barred spiral ที่เก่าแก่ที่สุดเท่าที่เคยค้นพบ
    เกิดขึ้นเมื่อ 11.1 พันล้านปีก่อน หรือเพียง 2.6 พันล้านปีหลัง Big Bang
    มีมวลมากกว่าทางช้างเผือก 10 เท่า และสร้างดาวใหม่ 300–600 ดวงต่อปี

    โครงสร้างของ J0107a คล้ายกับกาแล็กซีสมัยใหม่อย่างทางช้างเผือก
    มีแกนกลางแบบ bar ที่ช่วยดึงก๊าซเข้าสู่ศูนย์กลาง
    มีการไหลของก๊าซด้วยความเร็วหลายร้อยกิโลเมตรต่อวินาที

    ปริมาณก๊าซในแกนกลางของ J0107a สูงกว่ากาแล็กซีทั่วไปหลายเท่า
    ในกาแล็กซีปัจจุบัน bar มีก๊าซน้อยกว่า 10% ของมวลรวม
    แต่ใน J0107a มีถึง 50% ซึ่งเป็นเชื้อเพลิงหลักในการสร้างดาว

    ไม่มีร่องรอยของการชนหรือรวมตัวกับกาแล็กซีอื่น
    นักวิจัยเชื่อว่าก๊าซมาจาก “cold streams” จากโครงสร้างใยจักรวาล (cosmic web)
    ก๊าซหมุนเข้ามาอย่างสงบและก่อให้เกิดโครงสร้างแบบ disk และ bar

    การค้นพบนี้เปลี่ยนความเข้าใจเกี่ยวกับวิวัฒนาการของกาแล็กซี
    แสดงว่ากาแล็กซีขนาดใหญ่สามารถเกิดจากการไหลของก๊าซโดยไม่ต้องชนกัน
    บาร์อาจมีบทบาทสำคัญในการสร้างดาวตั้งแต่ยุคแรกของจักรวาล

    แบบจำลองเก่าของวิวัฒนาการกาแล็กซีอาจไม่ครอบคลุมความจริง
    ทฤษฎีเดิมเชื่อว่ากาแล็กซีขนาดใหญ่เกิดจากการชนและรวมตัว
    การค้นพบ J0107a แสดงว่ากาแล็กซีสามารถเติบโตอย่างสงบได้เช่นกัน

    การสังเกตการณ์กาแล็กซีในยุคแรกยังมีข้อจำกัดด้านเทคโนโลยี
    แม้ JWST จะมีความสามารถสูง แต่การวิเคราะห์สเปกตรัมยังท้าทาย
    ต้องใช้กล้องคลื่นวิทยุอย่าง ALMA เพื่อศึกษาการเคลื่อนที่ของก๊าซ

    การมีบาร์ในกาแล็กซียุคต้นอาจทำให้เกิดการสร้างดาวอย่างรุนแรง
    การไหลของก๊าซเข้าสู่ศูนย์กลางอาจเร่งการเกิดดาวจนหมดเชื้อเพลิงเร็ว
    อาจเปลี่ยนกาแล็กซีให้กลายเป็น elliptical เร็วกว่าที่คาด

    การเปรียบเทียบกับทางช้างเผือกอาจทำให้เข้าใจผิดว่า J0107a มีวิวัฒนาการเหมือนกัน
    แม้รูปร่างคล้ายกัน แต่สภาพแวดล้อมและความหนาแน่นของก๊าซต่างกันมาก
    ต้องระวังในการสรุปว่ากาแล็กซีในยุคแรกจะมีพฤติกรรมเหมือนกาแล็กซีปัจจุบัน

    https://www.neowin.net/news/billion-years-old-question-answered-by-gigantic-galaxy-that-births-stars-300-times-faster/
    🌌 เรื่องเล่าจากจักรวาล: เมื่อ “กาแล็กซีวัยเด็ก” มีรูปร่างเหมือนผู้ใหญ่ ลองจินตนาการว่าคุณมองย้อนกลับไปในจักรวาลเมื่อ 11 พันล้านปีก่อน—ยุคที่ทุกอย่างยังวุ่นวายและไม่เป็นระเบียบ แล้วพบว่ามี “กาแล็กซีวัยเด็ก” ที่มีรูปร่างเหมือนทางช้างเผือกในปัจจุบัน ทั้งมีแขนเกลียวและแกนกลางแบบ barred spiral ที่สมบูรณ์ นี่คือ J0107a กาแล็กซีขนาดมหึมาที่นักดาราศาสตร์พบโดยบังเอิญขณะศึกษากาแล็กซี VV114 โดยใช้กล้อง JWST และ ALMA ซึ่งเผยให้เห็นว่า J0107a มีมวลมากกว่าทางช้างเผือกถึง 10 เท่า และกำลังสร้างดาวใหม่เร็วกว่าเราถึง 300 เท่า โดยไม่มีร่องรอยของการชนหรือรวมตัวกับกาแล็กซีอื่น ✅ J0107a เป็นกาแล็กซี barred spiral ที่เก่าแก่ที่สุดเท่าที่เคยค้นพบ ➡️ เกิดขึ้นเมื่อ 11.1 พันล้านปีก่อน หรือเพียง 2.6 พันล้านปีหลัง Big Bang ➡️ มีมวลมากกว่าทางช้างเผือก 10 เท่า และสร้างดาวใหม่ 300–600 ดวงต่อปี ✅ โครงสร้างของ J0107a คล้ายกับกาแล็กซีสมัยใหม่อย่างทางช้างเผือก ➡️ มีแกนกลางแบบ bar ที่ช่วยดึงก๊าซเข้าสู่ศูนย์กลาง ➡️ มีการไหลของก๊าซด้วยความเร็วหลายร้อยกิโลเมตรต่อวินาที ✅ ปริมาณก๊าซในแกนกลางของ J0107a สูงกว่ากาแล็กซีทั่วไปหลายเท่า ➡️ ในกาแล็กซีปัจจุบัน bar มีก๊าซน้อยกว่า 10% ของมวลรวม ➡️ แต่ใน J0107a มีถึง 50% ซึ่งเป็นเชื้อเพลิงหลักในการสร้างดาว ✅ ไม่มีร่องรอยของการชนหรือรวมตัวกับกาแล็กซีอื่น ➡️ นักวิจัยเชื่อว่าก๊าซมาจาก “cold streams” จากโครงสร้างใยจักรวาล (cosmic web) ➡️ ก๊าซหมุนเข้ามาอย่างสงบและก่อให้เกิดโครงสร้างแบบ disk และ bar ✅ การค้นพบนี้เปลี่ยนความเข้าใจเกี่ยวกับวิวัฒนาการของกาแล็กซี ➡️ แสดงว่ากาแล็กซีขนาดใหญ่สามารถเกิดจากการไหลของก๊าซโดยไม่ต้องชนกัน ➡️ บาร์อาจมีบทบาทสำคัญในการสร้างดาวตั้งแต่ยุคแรกของจักรวาล ‼️ แบบจำลองเก่าของวิวัฒนาการกาแล็กซีอาจไม่ครอบคลุมความจริง ⛔ ทฤษฎีเดิมเชื่อว่ากาแล็กซีขนาดใหญ่เกิดจากการชนและรวมตัว ⛔ การค้นพบ J0107a แสดงว่ากาแล็กซีสามารถเติบโตอย่างสงบได้เช่นกัน ‼️ การสังเกตการณ์กาแล็กซีในยุคแรกยังมีข้อจำกัดด้านเทคโนโลยี ⛔ แม้ JWST จะมีความสามารถสูง แต่การวิเคราะห์สเปกตรัมยังท้าทาย ⛔ ต้องใช้กล้องคลื่นวิทยุอย่าง ALMA เพื่อศึกษาการเคลื่อนที่ของก๊าซ ‼️ การมีบาร์ในกาแล็กซียุคต้นอาจทำให้เกิดการสร้างดาวอย่างรุนแรง ⛔ การไหลของก๊าซเข้าสู่ศูนย์กลางอาจเร่งการเกิดดาวจนหมดเชื้อเพลิงเร็ว ⛔ อาจเปลี่ยนกาแล็กซีให้กลายเป็น elliptical เร็วกว่าที่คาด ‼️ การเปรียบเทียบกับทางช้างเผือกอาจทำให้เข้าใจผิดว่า J0107a มีวิวัฒนาการเหมือนกัน ⛔ แม้รูปร่างคล้ายกัน แต่สภาพแวดล้อมและความหนาแน่นของก๊าซต่างกันมาก ⛔ ต้องระวังในการสรุปว่ากาแล็กซีในยุคแรกจะมีพฤติกรรมเหมือนกาแล็กซีปัจจุบัน https://www.neowin.net/news/billion-years-old-question-answered-by-gigantic-galaxy-that-births-stars-300-times-faster/
    WWW.NEOWIN.NET
    Billion years old question answered by gigantic galaxy that births stars 300 times faster
    An ancient galaxy throws astronomers a curveball as it confuses them, but may also have the answer to a question billions of years old.
    0 Comments 0 Shares 151 Views 0 Reviews
  • เรื่องเล่าจากโลก Windows: เมื่อ “การติดตั้งใหม่” อาจไม่ปลอดภัยเท่าที่คิด

    ลองจินตนาการว่าคุณเพิ่งติดตั้ง Windows ใหม่จากไฟล์ ISO ที่ดาวน์โหลดไว้เมื่อหลายเดือนก่อน—ทุกอย่างดูสะอาดและสดใหม่ แต่เบื้องหลังนั้น Microsoft Defender ที่ติดมากับภาพติดตั้งอาจล้าสมัย และไม่สามารถป้องกันภัยคุกคามล่าสุดได้ทันที

    Microsoft จึงออกอัปเดตใหม่สำหรับภาพติดตั้ง Windows (ISO และ VHD) โดยใช้แพ็กเกจ Defender เวอร์ชัน 1.431.452.0 เพื่ออุดช่องโหว่ในช่วง “ชั่วโมงแรก” หลังการติดตั้ง ซึ่งเป็นช่วงที่ระบบยังไม่ได้รับการอัปเดตผ่าน Windows Update และเสี่ยงต่อการโจมตีจากมัลแวร์ทันทีที่เชื่อมต่ออินเทอร์เน็ต

    Microsoft ออก Defender Update สำหรับภาพติดตั้ง Windows 11/10 และ Server
    ใช้แพ็กเกจเวอร์ชัน 1.431.452.0 ที่รวม client, engine และ signature ล่าสุด
    รองรับ Windows 11, Windows 10 (ทุก edition), Server 2022, 2019 และ 2016

    แพ็กเกจนี้ช่วยปิดช่องโหว่จากการใช้ ISO เก่าในการติดตั้งระบบใหม่
    ป้องกันมัลแวร์ที่อาจโจมตีทันทีหลังการติดตั้ง
    ลดความเสี่ยงในช่วงที่ระบบยังไม่ได้รับการอัปเดตผ่าน Windows Update

    รายละเอียดเวอร์ชันที่รวมอยู่ในแพ็กเกจ
    Platform version: 4.18.25060.7
    Engine version: 1.1.25060.6
    Security intelligence version: 1.431.452.0

    การอัปเดตนี้รวมการตรวจจับภัยคุกคามใหม่ เช่น backdoor, phishing, trojan หลายชนิด
    เพิ่มการป้องกันภัยคุกคามที่เพิ่งค้นพบในช่วงสัปดาห์ที่ผ่านมา
    ช่วยให้ระบบพร้อมรับมือกับภัยคุกคามทันทีหลังการติดตั้ง

    สามารถใช้ PowerShell และเครื่องมือ DefenderUpdateWinImage.ps1 ในการติดตั้งออฟไลน์
    รองรับการอัปเดตภาพติดตั้งแบบ WIM และ VHD
    เหมาะสำหรับผู้ดูแลระบบและองค์กรที่ใช้ deployment แบบกำหนดเอง

    การใช้ ISO เก่าโดยไม่อัปเดต Defender อาจเปิดช่องให้มัลแวร์โจมตีทันทีหลังติดตั้ง
    ระบบอาจไม่มี signature ล่าสุดในการตรวจจับภัยคุกคาม
    เสี่ยงต่อการติดมัลแวร์ก่อนที่ Windows Update จะทำงาน

    การอัปเดตภาพติดตั้งต้องใช้ขั้นตอนทางเทคนิคที่ซับซ้อน
    ต้องใช้ PowerShell, DISM และสิทธิ์ผู้ดูแลระบบ
    หากทำผิดขั้นตอนอาจทำให้ภาพติดตั้งเสียหายหรือไม่ปลอดภัย

    การไม่อัปเดตภาพติดตั้งเป็นประจำอาจทำให้ระบบใหม่ไม่ปลอดภัย
    Microsoft แนะนำให้อัปเดตทุก 3 เดือน
    หากละเลย อาจใช้ภาพติดตั้งที่มีช่องโหว่โดยไม่รู้ตัว

    การอัปเดต Defender ไม่สามารถป้องกันภัยแบบ zero-day ได้ทั้งหมด
    ยังต้องพึ่งการอัปเดตระบบและนโยบายความปลอดภัยเพิ่มเติม
    ควรใช้แนวทาง “defense-in-depth” เพื่อเสริมความปลอดภัยหลายชั้น

    https://www.neowin.net/news/microsoft-shares-defender-update-for-new-windows-1110-iso-installs/
    🛡️ เรื่องเล่าจากโลก Windows: เมื่อ “การติดตั้งใหม่” อาจไม่ปลอดภัยเท่าที่คิด ลองจินตนาการว่าคุณเพิ่งติดตั้ง Windows ใหม่จากไฟล์ ISO ที่ดาวน์โหลดไว้เมื่อหลายเดือนก่อน—ทุกอย่างดูสะอาดและสดใหม่ แต่เบื้องหลังนั้น Microsoft Defender ที่ติดมากับภาพติดตั้งอาจล้าสมัย และไม่สามารถป้องกันภัยคุกคามล่าสุดได้ทันที Microsoft จึงออกอัปเดตใหม่สำหรับภาพติดตั้ง Windows (ISO และ VHD) โดยใช้แพ็กเกจ Defender เวอร์ชัน 1.431.452.0 เพื่ออุดช่องโหว่ในช่วง “ชั่วโมงแรก” หลังการติดตั้ง ซึ่งเป็นช่วงที่ระบบยังไม่ได้รับการอัปเดตผ่าน Windows Update และเสี่ยงต่อการโจมตีจากมัลแวร์ทันทีที่เชื่อมต่ออินเทอร์เน็ต ✅ Microsoft ออก Defender Update สำหรับภาพติดตั้ง Windows 11/10 และ Server ➡️ ใช้แพ็กเกจเวอร์ชัน 1.431.452.0 ที่รวม client, engine และ signature ล่าสุด ➡️ รองรับ Windows 11, Windows 10 (ทุก edition), Server 2022, 2019 และ 2016 ✅ แพ็กเกจนี้ช่วยปิดช่องโหว่จากการใช้ ISO เก่าในการติดตั้งระบบใหม่ ➡️ ป้องกันมัลแวร์ที่อาจโจมตีทันทีหลังการติดตั้ง ➡️ ลดความเสี่ยงในช่วงที่ระบบยังไม่ได้รับการอัปเดตผ่าน Windows Update ✅ รายละเอียดเวอร์ชันที่รวมอยู่ในแพ็กเกจ ➡️ Platform version: 4.18.25060.7 ➡️ Engine version: 1.1.25060.6 ➡️ Security intelligence version: 1.431.452.0 ✅ การอัปเดตนี้รวมการตรวจจับภัยคุกคามใหม่ เช่น backdoor, phishing, trojan หลายชนิด ➡️ เพิ่มการป้องกันภัยคุกคามที่เพิ่งค้นพบในช่วงสัปดาห์ที่ผ่านมา ➡️ ช่วยให้ระบบพร้อมรับมือกับภัยคุกคามทันทีหลังการติดตั้ง ✅ สามารถใช้ PowerShell และเครื่องมือ DefenderUpdateWinImage.ps1 ในการติดตั้งออฟไลน์ ➡️ รองรับการอัปเดตภาพติดตั้งแบบ WIM และ VHD ➡️ เหมาะสำหรับผู้ดูแลระบบและองค์กรที่ใช้ deployment แบบกำหนดเอง ‼️ การใช้ ISO เก่าโดยไม่อัปเดต Defender อาจเปิดช่องให้มัลแวร์โจมตีทันทีหลังติดตั้ง ⛔ ระบบอาจไม่มี signature ล่าสุดในการตรวจจับภัยคุกคาม ⛔ เสี่ยงต่อการติดมัลแวร์ก่อนที่ Windows Update จะทำงาน ‼️ การอัปเดตภาพติดตั้งต้องใช้ขั้นตอนทางเทคนิคที่ซับซ้อน ⛔ ต้องใช้ PowerShell, DISM และสิทธิ์ผู้ดูแลระบบ ⛔ หากทำผิดขั้นตอนอาจทำให้ภาพติดตั้งเสียหายหรือไม่ปลอดภัย ‼️ การไม่อัปเดตภาพติดตั้งเป็นประจำอาจทำให้ระบบใหม่ไม่ปลอดภัย ⛔ Microsoft แนะนำให้อัปเดตทุก 3 เดือน ⛔ หากละเลย อาจใช้ภาพติดตั้งที่มีช่องโหว่โดยไม่รู้ตัว ‼️ การอัปเดต Defender ไม่สามารถป้องกันภัยแบบ zero-day ได้ทั้งหมด ⛔ ยังต้องพึ่งการอัปเดตระบบและนโยบายความปลอดภัยเพิ่มเติม ⛔ ควรใช้แนวทาง “defense-in-depth” เพื่อเสริมความปลอดภัยหลายชั้น https://www.neowin.net/news/microsoft-shares-defender-update-for-new-windows-1110-iso-installs/
    WWW.NEOWIN.NET
    Microsoft shares Defender update for new Windows 11/10 ISO installs
    Microsoft has a new Defender anti-virus update for Windows 11 and 10 images. The new update patches several flaws.
    0 Comments 0 Shares 116 Views 0 Reviews
  • เรื่องเล่าจากโลก AI: เมื่อ Copilot “มีหน้า” และ “มีอารมณ์” เหมือนเพื่อนร่วมงาน

    ลองจินตนาการว่าคุณคุยกับผู้ช่วย AI แล้วมันยิ้มให้คุณเมื่อคุณถามคำถามดีๆ หรือขมวดคิ้วเมื่อคุณขอให้มันทำอะไรยากๆ—นี่ไม่ใช่แค่เสียงตอบกลับแบบเดิมอีกต่อไป เพราะ Microsoft ได้เปิดตัวฟีเจอร์ใหม่ชื่อว่า “Copilot Appearance” ที่ให้ Copilot มีใบหน้า มีการแสดงออก และมี “ความทรงจำ” ในการสนทนา

    ฟีเจอร์นี้เปิดให้ทดลองใช้ใน Copilot Labs เฉพาะผู้ใช้บางกลุ่มในสหรัฐฯ อังกฤษ และแคนาดา โดยสามารถเปิดใช้งานผ่าน Voice Mode บนเว็บ Copilot เพื่อให้การสนทนาเป็นธรรมชาติและมีชีวิตชีวามากขึ้น

    Copilot Appearance คือฟีเจอร์ทดลองที่เพิ่มใบหน้าและอารมณ์ให้กับ Copilot
    แสดงออกแบบเรียลไทม์ เช่น ยิ้ม, พยักหน้า, ขมวดคิ้ว ตามบริบทของการสนทนา
    ใช้ร่วมกับ Voice Mode เพื่อให้การพูดคุยมีความเป็นมนุษย์มากขึ้น

    ฟีเจอร์นี้เปิดให้ทดลองเฉพาะใน Copilot Labs สำหรับผู้ใช้ใน 3 ประเทศ
    สหรัฐอเมริกา, สหราชอาณาจักร และแคนาดา
    ต้องเปิดใช้งานผ่าน Voice Settings บนเว็บ copilot.microsoft.com

    Copilot Appearance ไม่ใช่ Clippy 2.0 แต่เป็น blob มีใบหน้าแบบนามธรรม
    ไม่ปรากฏตัวแบบกวนใจ แต่ตอบสนองเมื่อผู้ใช้เริ่มต้นสนทนา
    มีความสามารถในการจดจำบทสนทนาเพื่อสร้างความต่อเนื่อง

    แนวคิดเบื้องหลังคือการสร้าง “ผู้ช่วยดิจิทัลที่มีตัวตนถาวร”
    Microsoft ต้องการให้ Copilot มี “ห้องของตัวเอง” และ “อายุ” ที่สะสมตามเวลา
    เรียกว่า “digital patina” เพื่อให้รู้สึกว่า AI มีประวัติและความสัมพันธ์กับผู้ใช้

    การออกแบบเน้นความเรียบง่าย ไม่รบกวนผู้ใช้เหมือนผู้ช่วยเก่าอย่าง Clippy
    ไม่มีการปรากฏตัวแบบสุ่มหรือแทรกแซง
    เป็นเพื่อนร่วมงานที่อยู่เบื้องหลังอย่างเงียบๆ แต่พร้อมช่วยเหลือ

    การเพิ่มบุคลิกภาพให้ AI อาจทำให้ผู้ใช้เกิดความผูกพันเกินควร
    เสี่ยงต่อการพึ่งพาทางอารมณ์หรือเข้าใจผิดว่าเป็นเพื่อนจริง
    อาจเกิดผลกระทบทางจิตใจในระยะยาว โดยเฉพาะกับผู้ใช้ที่เปราะบาง

    ฟีเจอร์นี้ยังอยู่ในขั้นทดลองและจำกัดเฉพาะบางกลุ่มผู้ใช้
    ไม่สามารถใช้ได้ในแอปมือถือ, Windows, หรือบัญชีองค์กร
    ผู้ใช้ทั่วไปอาจต้องรอการเปิดตัวอย่างเป็นทางการ

    การแสดงออกของ AI อาจถูกตีความผิดหรือสร้างความไม่สบายใจ
    หาก AI แสดงอารมณ์ไม่เหมาะสม เช่น ขมวดคิ้วหรือถอนหายใจ อาจทำให้ผู้ใช้รู้สึกแย่
    ต้องมีการออกแบบอย่างระมัดระวังเพื่อหลีกเลี่ยงการสื่อสารผิดพลาด

    การเพิ่มความเป็นมนุษย์ให้ AI ต้องควบคุมอย่างรอบคอบเพื่อไม่ให้เกิดการละเมิดความเป็นส่วนตัว
    การจดจำบทสนทนาอาจนำไปสู่การเก็บข้อมูลส่วนบุคคล
    ต้องมีนโยบายความเป็นส่วนตัวที่ชัดเจนและโปร่งใส

    https://www.neowin.net/news/microsoft-gives-copilot-visual-appearance-with-real-time-expressions-and-emotions/
    🤖 เรื่องเล่าจากโลก AI: เมื่อ Copilot “มีหน้า” และ “มีอารมณ์” เหมือนเพื่อนร่วมงาน ลองจินตนาการว่าคุณคุยกับผู้ช่วย AI แล้วมันยิ้มให้คุณเมื่อคุณถามคำถามดีๆ หรือขมวดคิ้วเมื่อคุณขอให้มันทำอะไรยากๆ—นี่ไม่ใช่แค่เสียงตอบกลับแบบเดิมอีกต่อไป เพราะ Microsoft ได้เปิดตัวฟีเจอร์ใหม่ชื่อว่า “Copilot Appearance” ที่ให้ Copilot มีใบหน้า มีการแสดงออก และมี “ความทรงจำ” ในการสนทนา ฟีเจอร์นี้เปิดให้ทดลองใช้ใน Copilot Labs เฉพาะผู้ใช้บางกลุ่มในสหรัฐฯ อังกฤษ และแคนาดา โดยสามารถเปิดใช้งานผ่าน Voice Mode บนเว็บ Copilot เพื่อให้การสนทนาเป็นธรรมชาติและมีชีวิตชีวามากขึ้น ✅ Copilot Appearance คือฟีเจอร์ทดลองที่เพิ่มใบหน้าและอารมณ์ให้กับ Copilot ➡️ แสดงออกแบบเรียลไทม์ เช่น ยิ้ม, พยักหน้า, ขมวดคิ้ว ตามบริบทของการสนทนา ➡️ ใช้ร่วมกับ Voice Mode เพื่อให้การพูดคุยมีความเป็นมนุษย์มากขึ้น ✅ ฟีเจอร์นี้เปิดให้ทดลองเฉพาะใน Copilot Labs สำหรับผู้ใช้ใน 3 ประเทศ ➡️ สหรัฐอเมริกา, สหราชอาณาจักร และแคนาดา ➡️ ต้องเปิดใช้งานผ่าน Voice Settings บนเว็บ copilot.microsoft.com ✅ Copilot Appearance ไม่ใช่ Clippy 2.0 แต่เป็น blob มีใบหน้าแบบนามธรรม ➡️ ไม่ปรากฏตัวแบบกวนใจ แต่ตอบสนองเมื่อผู้ใช้เริ่มต้นสนทนา ➡️ มีความสามารถในการจดจำบทสนทนาเพื่อสร้างความต่อเนื่อง ✅ แนวคิดเบื้องหลังคือการสร้าง “ผู้ช่วยดิจิทัลที่มีตัวตนถาวร” ➡️ Microsoft ต้องการให้ Copilot มี “ห้องของตัวเอง” และ “อายุ” ที่สะสมตามเวลา ➡️ เรียกว่า “digital patina” เพื่อให้รู้สึกว่า AI มีประวัติและความสัมพันธ์กับผู้ใช้ ✅ การออกแบบเน้นความเรียบง่าย ไม่รบกวนผู้ใช้เหมือนผู้ช่วยเก่าอย่าง Clippy ➡️ ไม่มีการปรากฏตัวแบบสุ่มหรือแทรกแซง ➡️ เป็นเพื่อนร่วมงานที่อยู่เบื้องหลังอย่างเงียบๆ แต่พร้อมช่วยเหลือ ‼️ การเพิ่มบุคลิกภาพให้ AI อาจทำให้ผู้ใช้เกิดความผูกพันเกินควร ⛔ เสี่ยงต่อการพึ่งพาทางอารมณ์หรือเข้าใจผิดว่าเป็นเพื่อนจริง ⛔ อาจเกิดผลกระทบทางจิตใจในระยะยาว โดยเฉพาะกับผู้ใช้ที่เปราะบาง ‼️ ฟีเจอร์นี้ยังอยู่ในขั้นทดลองและจำกัดเฉพาะบางกลุ่มผู้ใช้ ⛔ ไม่สามารถใช้ได้ในแอปมือถือ, Windows, หรือบัญชีองค์กร ⛔ ผู้ใช้ทั่วไปอาจต้องรอการเปิดตัวอย่างเป็นทางการ ‼️ การแสดงออกของ AI อาจถูกตีความผิดหรือสร้างความไม่สบายใจ ⛔ หาก AI แสดงอารมณ์ไม่เหมาะสม เช่น ขมวดคิ้วหรือถอนหายใจ อาจทำให้ผู้ใช้รู้สึกแย่ ⛔ ต้องมีการออกแบบอย่างระมัดระวังเพื่อหลีกเลี่ยงการสื่อสารผิดพลาด ‼️ การเพิ่มความเป็นมนุษย์ให้ AI ต้องควบคุมอย่างรอบคอบเพื่อไม่ให้เกิดการละเมิดความเป็นส่วนตัว ⛔ การจดจำบทสนทนาอาจนำไปสู่การเก็บข้อมูลส่วนบุคคล ⛔ ต้องมีนโยบายความเป็นส่วนตัวที่ชัดเจนและโปร่งใส https://www.neowin.net/news/microsoft-gives-copilot-visual-appearance-with-real-time-expressions-and-emotions/
    WWW.NEOWIN.NET
    Microsoft gives Copilot visual appearance with real-time expressions and emotions
    Microsoft now lets certain Copilot users try the new Appearance feature that gives the assistant real-time expressions, emotions, and conversational memory.
    0 Comments 0 Shares 153 Views 0 Reviews
  • เรื่องเล่าจากโลก Linux: เมื่อ “Greenboot” เปลี่ยนภาษาเพื่อความปลอดภัยที่เหนือกว่า

    ลองจินตนาการว่าคุณอัปเดตระบบปฏิบัติการแล้วเครื่องบูตไม่ขึ้น—Greenboot คือเครื่องมือที่ช่วยตรวจสอบสุขภาพระบบทุกครั้งที่บูต เพื่อป้องกันเหตุการณ์แบบนั้น โดยเดิมทีเขียนด้วย Bash แต่ตอนนี้ Red Hat กำลังรีไรต์ใหม่ด้วยภาษา Rust ซึ่งปลอดภัยกว่าและมีประสิทธิภาพสูงกว่า

    Greenboot ทำงานร่วมกับ systemd โดยรันสคริปต์ตรวจสอบในโฟลเดอร์ต่างๆ เช่น required.d, red.d, และ green.d หากสคริปต์สำคัญล้มเหลว ระบบจะรีบูตและอาจย้อนกลับไปยังเวอร์ชันก่อนหน้าเพื่อความเสถียร

    การรีไรต์ครั้งนี้ไม่ใช่แค่เปลี่ยนภาษา แต่เป็นการขยายการรองรับจาก rpm-ostree ไปยัง bootc ซึ่งเป็นระบบใหม่ที่เน้นความปลอดภัยและการอัปเดตแบบ atomic ใน Fedora IoT

    Greenboot ถูกรีไรต์จาก Bash เป็น Rust โดยทีมงาน Red Hat2
    โครงการเริ่มต้นในปี 2018 จาก Google Summer of Code
    เวอร์ชันใหม่ชื่อ “Greenboot-RS” จะรวมอยู่ใน Fedora 43

    Greenboot ทำหน้าที่ตรวจสอบสุขภาพระบบทุกครั้งที่บูต
    รันสคริปต์ใน /etc/greenboot/check/required.d/ หากล้มเหลวจะรีบูต
    หากล้มเหลวหลายครั้งจะรันสคริปต์ใน red.d และย้อนกลับไปยัง deployment ก่อนหน้า

    เมื่อระบบผ่านการตรวจสอบ จะรันสคริปต์ใน green.d และตั้ง GRUB ว่า boot สำเร็จ
    ใช้ GRUB environment variable เพื่อบันทึกสถานะการบูต
    แสดงข้อความ “Boot Status is GREEN – Health Check SUCCESS” ใน MOTD

    การเปลี่ยนมาใช้ Rust ช่วยเพิ่มความปลอดภัยและลดช่องโหว่ด้านหน่วยความจำ
    Rust เป็นภาษา memory-safe ที่ช่วยลดบั๊กประเภท buffer overflow และ use-after-free
    เป็นแนวโน้มเดียวกับโครงการอื่น เช่น sudo-rs และ systemd-rs

    Greenboot-RS รองรับทั้ง rpm-ostree และ bootc systems
    bootc เป็นระบบใหม่ที่เน้นการอัปเดตแบบปลอดภัยและย้อนกลับได้
    ช่วยให้ Fedora IoT มีความเสถียรและปลอดภัยมากขึ้น

    การอัปเกรดจาก Greenboot เดิมเป็น Greenboot-RS จะเป็นไปอย่างราบรื่น
    ผู้ใช้สามารถใช้คำสั่ง rpm-ostree upgrade หรือ bootc upgrade ได้ทันที
    ไม่มีผลกระทบต่อผู้ใช้เดิม

    การเปลี่ยนภาษาอาจทำให้เกิดบั๊กใหม่หรือปัญหาความเข้ากันได้
    แม้จะพยายามรักษาฟังก์ชันเดิม แต่การเขียนใหม่อาจมีพฤติกรรมต่างออกไป
    ต้องมีการทดสอบอย่างละเอียดก่อนใช้งานในระบบจริง

    ผู้ดูแลระบบต้องเข้าใจการทำงานของ Greenboot-RS เพื่อแก้ไขปัญหาได้ทันที
    หากสคริปต์ใน required.d ล้มเหลว ระบบจะรีบูตซ้ำ อาจทำให้เข้าใช้งานไม่ได้
    ต้องรู้วิธีตรวจสอบ MOTD และ GRUB variable เพื่อวิเคราะห์ปัญหา

    การใช้ bootc ยังเป็นเทคโนโลยีใหม่ที่ต้องเรียนรู้เพิ่มเติม
    ผู้ใช้ที่คุ้นเคยกับ rpm-ostree อาจต้องปรับตัวกับแนวคิดของ bootc
    การจัดการ deployment และ rollback อาจซับซ้อนขึ้น

    https://www.neowin.net/news/another-linux-utility-is-being-rewritten-in-rust/
    🛠️ เรื่องเล่าจากโลก Linux: เมื่อ “Greenboot” เปลี่ยนภาษาเพื่อความปลอดภัยที่เหนือกว่า ลองจินตนาการว่าคุณอัปเดตระบบปฏิบัติการแล้วเครื่องบูตไม่ขึ้น—Greenboot คือเครื่องมือที่ช่วยตรวจสอบสุขภาพระบบทุกครั้งที่บูต เพื่อป้องกันเหตุการณ์แบบนั้น โดยเดิมทีเขียนด้วย Bash แต่ตอนนี้ Red Hat กำลังรีไรต์ใหม่ด้วยภาษา Rust ซึ่งปลอดภัยกว่าและมีประสิทธิภาพสูงกว่า Greenboot ทำงานร่วมกับ systemd โดยรันสคริปต์ตรวจสอบในโฟลเดอร์ต่างๆ เช่น required.d, red.d, และ green.d หากสคริปต์สำคัญล้มเหลว ระบบจะรีบูตและอาจย้อนกลับไปยังเวอร์ชันก่อนหน้าเพื่อความเสถียร การรีไรต์ครั้งนี้ไม่ใช่แค่เปลี่ยนภาษา แต่เป็นการขยายการรองรับจาก rpm-ostree ไปยัง bootc ซึ่งเป็นระบบใหม่ที่เน้นความปลอดภัยและการอัปเดตแบบ atomic ใน Fedora IoT ✅ Greenboot ถูกรีไรต์จาก Bash เป็น Rust โดยทีมงาน Red Hat2 ➡️ โครงการเริ่มต้นในปี 2018 จาก Google Summer of Code ➡️ เวอร์ชันใหม่ชื่อ “Greenboot-RS” จะรวมอยู่ใน Fedora 43 ✅ Greenboot ทำหน้าที่ตรวจสอบสุขภาพระบบทุกครั้งที่บูต ➡️ รันสคริปต์ใน /etc/greenboot/check/required.d/ หากล้มเหลวจะรีบูต ➡️ หากล้มเหลวหลายครั้งจะรันสคริปต์ใน red.d และย้อนกลับไปยัง deployment ก่อนหน้า ✅ เมื่อระบบผ่านการตรวจสอบ จะรันสคริปต์ใน green.d และตั้ง GRUB ว่า boot สำเร็จ ➡️ ใช้ GRUB environment variable เพื่อบันทึกสถานะการบูต ➡️ แสดงข้อความ “Boot Status is GREEN – Health Check SUCCESS” ใน MOTD ✅ การเปลี่ยนมาใช้ Rust ช่วยเพิ่มความปลอดภัยและลดช่องโหว่ด้านหน่วยความจำ ➡️ Rust เป็นภาษา memory-safe ที่ช่วยลดบั๊กประเภท buffer overflow และ use-after-free ➡️ เป็นแนวโน้มเดียวกับโครงการอื่น เช่น sudo-rs และ systemd-rs ✅ Greenboot-RS รองรับทั้ง rpm-ostree และ bootc systems ➡️ bootc เป็นระบบใหม่ที่เน้นการอัปเดตแบบปลอดภัยและย้อนกลับได้ ➡️ ช่วยให้ Fedora IoT มีความเสถียรและปลอดภัยมากขึ้น ✅ การอัปเกรดจาก Greenboot เดิมเป็น Greenboot-RS จะเป็นไปอย่างราบรื่น ➡️ ผู้ใช้สามารถใช้คำสั่ง rpm-ostree upgrade หรือ bootc upgrade ได้ทันที ➡️ ไม่มีผลกระทบต่อผู้ใช้เดิม ‼️ การเปลี่ยนภาษาอาจทำให้เกิดบั๊กใหม่หรือปัญหาความเข้ากันได้ ⛔ แม้จะพยายามรักษาฟังก์ชันเดิม แต่การเขียนใหม่อาจมีพฤติกรรมต่างออกไป ⛔ ต้องมีการทดสอบอย่างละเอียดก่อนใช้งานในระบบจริง ‼️ ผู้ดูแลระบบต้องเข้าใจการทำงานของ Greenboot-RS เพื่อแก้ไขปัญหาได้ทันที ⛔ หากสคริปต์ใน required.d ล้มเหลว ระบบจะรีบูตซ้ำ อาจทำให้เข้าใช้งานไม่ได้ ⛔ ต้องรู้วิธีตรวจสอบ MOTD และ GRUB variable เพื่อวิเคราะห์ปัญหา ‼️ การใช้ bootc ยังเป็นเทคโนโลยีใหม่ที่ต้องเรียนรู้เพิ่มเติม ⛔ ผู้ใช้ที่คุ้นเคยกับ rpm-ostree อาจต้องปรับตัวกับแนวคิดของ bootc ⛔ การจัดการ deployment และ rollback อาจซับซ้อนขึ้น https://www.neowin.net/news/another-linux-utility-is-being-rewritten-in-rust/
    WWW.NEOWIN.NET
    Another Linux utility is being rewritten in Rust
    Rust continues to shine in the Linux world, with yet another core utility now being rewritten in the language.
    0 Comments 0 Shares 134 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ “งานไอที” กลายเป็นช่องทางส่งเงินให้โครงการนิวเคลียร์เกาหลีเหนือ

    ลองจินตนาการว่าคุณเป็นบริษัทเทคโนโลยีในสหรัฐฯ ที่จ้างพนักงานไอทีทำงานจากระยะไกล โดยเชื่อว่าเขาเป็นพลเมืองอเมริกัน แต่จริงๆ แล้ว เขาคือเจ้าหน้าที่จากเกาหลีเหนือที่ใช้ตัวตนปลอม และเงินเดือนที่คุณจ่ายไปนั้นถูกส่งตรงไปยังรัฐบาลเปียงยางเพื่อใช้ในโครงการอาวุธนิวเคลียร์!

    นี่คือสิ่งที่เกิดขึ้นจริงในคดีของ Christina Marie Chapman หญิงวัย 50 ปีจากรัฐแอริโซนา ที่ถูกตัดสินจำคุก 8.5 ปีในเดือนกรกฎาคม 2025 จากการช่วยเหลือเจ้าหน้าที่ไอทีของเกาหลีเหนือให้ได้งานในบริษัทสหรัฐฯ กว่า 309 แห่ง รวมถึงบริษัทระดับ Fortune 500 โดยใช้เทคนิคที่เรียกว่า “ฟาร์มแล็ปท็อป” เพื่อหลอกให้บริษัทเชื่อว่าพนักงานเหล่านั้นทำงานจากในประเทศ

    Christina Chapman ถูกตัดสินจำคุก 102 เดือน ฐานช่วยเหลือขบวนการหลอกลวงงานไอทีให้เกาหลีเหนือ
    รับโทษจำคุก 8.5 ปี พร้อมถูกควบคุมหลังพ้นโทษอีก 3 ปี
    ต้องยึดทรัพย์ $284,555.92 และจ่ายค่าปรับ $176,850

    ขบวนการนี้สร้างรายได้ให้เกาหลีเหนือกว่า $17.1 ล้าน
    ใช้ตัวตนปลอมของชาวอเมริกัน 68 คน
    ส่งข้อมูลเท็จไปยังหน่วยงานรัฐกว่า 100 ครั้ง

    Chapman ดำเนินการ “ฟาร์มแล็ปท็อป” ที่บ้านของเธอ
    รับเครื่องจากบริษัทสหรัฐฯ แล้วให้เจ้าหน้าที่เกาหลีเหนือเข้าระบบจากต่างประเทศ
    ส่งแล็ปท็อป 49 เครื่องไปยังเมืองชายแดนจีน-เกาหลีเหนือ

    บริษัทที่ถูกหลอกรวมถึงเครือข่ายโทรทัศน์รายใหญ่, บริษัทเทคโนโลยีใน Silicon Valley, ผู้ผลิตรถยนต์และอากาศยาน
    มีความพยายามเข้าถึงหน่วยงานรัฐบาลสหรัฐฯ 2 แห่ง แต่ถูกสกัดไว้ได้
    บางบริษัทถูกขบวนการนี้ “เลือกเป้าหมาย” โดยเฉพาะ

    รายได้จากงานไอทีถูกส่งกลับไปยังเกาหลีเหนือผ่านการฟอกเงิน
    Chapman รับเงินเดือนแทน, ปลอมลายเซ็น, ฝากเช็ค และโอนเงินไปต่างประเทศ
    รายได้ถูกแจ้งเท็จต่อ IRS และ Social Security

    FBI และ IRS เป็นผู้สืบสวนหลักในคดีนี้
    ยึดแล็ปท็อปกว่า 90 เครื่องจากบ้านของ Chapman
    ถือเป็นหนึ่งในคดีใหญ่ที่สุดที่เกี่ยวข้องกับการหลอกลวงงานไอทีของเกาหลีเหนือ

    รัฐบาลสหรัฐฯ ออกคำแนะนำใหม่สำหรับบริษัทในการตรวจสอบพนักงานระยะไกล
    ตรวจสอบเอกสารตัวตน, ประวัติการศึกษาและการทำงาน
    ใช้วิดีโอสัมภาษณ์แบบเปิดกล้องและตรวจสอบภาพพื้นหลัง

    บริษัทที่ไม่ตรวจสอบพนักงานระยะไกลอย่างเข้มงวดเสี่ยงต่อการถูกแทรกซึม
    อาจถูกขโมยข้อมูล, ติดมัลแวร์ หรือถูกใช้เป็นช่องทางฟอกเงิน
    การใช้บริษัทจัดหางานภายนอกเพิ่มความเสี่ยง

    การใช้ตัวตนปลอมสร้างภาระให้กับพลเมืองสหรัฐฯ ที่ถูกขโมยข้อมูล
    เกิดภาระภาษีเท็จและข้อมูลผิดพลาดในระบบราชการ
    สร้างความเสียหายทางจิตใจและการเงินแก่ผู้ถูกแอบอ้าง

    รายได้จากงานไอทีถูกนำไปใช้สนับสนุนโครงการอาวุธของเกาหลีเหนือ
    เป็นการละเมิดมาตรการคว่ำบาตรของสหรัฐฯ และสหประชาชาติ
    ส่งผลต่อความมั่นคงระดับโลก

    การใช้ AI และเทคโนโลยีใหม่เพิ่มความซับซ้อนในการปลอมตัว
    มีการใช้ AI เปลี่ยนภาพเอกสาร, ปรับเสียง และสร้างวิดีโอปลอม
    ทำให้การตรวจสอบตัวตนยากขึ้นสำหรับบริษัททั่วไป

    https://hackread.com/arizona-woman-jailed-help-north-korea-it-job-scam/
    🧑‍💻 เรื่องเล่าจากโลกไซเบอร์: เมื่อ “งานไอที” กลายเป็นช่องทางส่งเงินให้โครงการนิวเคลียร์เกาหลีเหนือ ลองจินตนาการว่าคุณเป็นบริษัทเทคโนโลยีในสหรัฐฯ ที่จ้างพนักงานไอทีทำงานจากระยะไกล โดยเชื่อว่าเขาเป็นพลเมืองอเมริกัน แต่จริงๆ แล้ว เขาคือเจ้าหน้าที่จากเกาหลีเหนือที่ใช้ตัวตนปลอม และเงินเดือนที่คุณจ่ายไปนั้นถูกส่งตรงไปยังรัฐบาลเปียงยางเพื่อใช้ในโครงการอาวุธนิวเคลียร์! นี่คือสิ่งที่เกิดขึ้นจริงในคดีของ Christina Marie Chapman หญิงวัย 50 ปีจากรัฐแอริโซนา ที่ถูกตัดสินจำคุก 8.5 ปีในเดือนกรกฎาคม 2025 จากการช่วยเหลือเจ้าหน้าที่ไอทีของเกาหลีเหนือให้ได้งานในบริษัทสหรัฐฯ กว่า 309 แห่ง รวมถึงบริษัทระดับ Fortune 500 โดยใช้เทคนิคที่เรียกว่า “ฟาร์มแล็ปท็อป” เพื่อหลอกให้บริษัทเชื่อว่าพนักงานเหล่านั้นทำงานจากในประเทศ ✅ Christina Chapman ถูกตัดสินจำคุก 102 เดือน ฐานช่วยเหลือขบวนการหลอกลวงงานไอทีให้เกาหลีเหนือ ➡️ รับโทษจำคุก 8.5 ปี พร้อมถูกควบคุมหลังพ้นโทษอีก 3 ปี ➡️ ต้องยึดทรัพย์ $284,555.92 และจ่ายค่าปรับ $176,850 ✅ ขบวนการนี้สร้างรายได้ให้เกาหลีเหนือกว่า $17.1 ล้าน ➡️ ใช้ตัวตนปลอมของชาวอเมริกัน 68 คน ➡️ ส่งข้อมูลเท็จไปยังหน่วยงานรัฐกว่า 100 ครั้ง ✅ Chapman ดำเนินการ “ฟาร์มแล็ปท็อป” ที่บ้านของเธอ ➡️ รับเครื่องจากบริษัทสหรัฐฯ แล้วให้เจ้าหน้าที่เกาหลีเหนือเข้าระบบจากต่างประเทศ ➡️ ส่งแล็ปท็อป 49 เครื่องไปยังเมืองชายแดนจีน-เกาหลีเหนือ ✅ บริษัทที่ถูกหลอกรวมถึงเครือข่ายโทรทัศน์รายใหญ่, บริษัทเทคโนโลยีใน Silicon Valley, ผู้ผลิตรถยนต์และอากาศยาน ➡️ มีความพยายามเข้าถึงหน่วยงานรัฐบาลสหรัฐฯ 2 แห่ง แต่ถูกสกัดไว้ได้ ➡️ บางบริษัทถูกขบวนการนี้ “เลือกเป้าหมาย” โดยเฉพาะ ✅ รายได้จากงานไอทีถูกส่งกลับไปยังเกาหลีเหนือผ่านการฟอกเงิน ➡️ Chapman รับเงินเดือนแทน, ปลอมลายเซ็น, ฝากเช็ค และโอนเงินไปต่างประเทศ ➡️ รายได้ถูกแจ้งเท็จต่อ IRS และ Social Security ✅ FBI และ IRS เป็นผู้สืบสวนหลักในคดีนี้ ➡️ ยึดแล็ปท็อปกว่า 90 เครื่องจากบ้านของ Chapman ➡️ ถือเป็นหนึ่งในคดีใหญ่ที่สุดที่เกี่ยวข้องกับการหลอกลวงงานไอทีของเกาหลีเหนือ ✅ รัฐบาลสหรัฐฯ ออกคำแนะนำใหม่สำหรับบริษัทในการตรวจสอบพนักงานระยะไกล ➡️ ตรวจสอบเอกสารตัวตน, ประวัติการศึกษาและการทำงาน ➡️ ใช้วิดีโอสัมภาษณ์แบบเปิดกล้องและตรวจสอบภาพพื้นหลัง ‼️ บริษัทที่ไม่ตรวจสอบพนักงานระยะไกลอย่างเข้มงวดเสี่ยงต่อการถูกแทรกซึม ⛔ อาจถูกขโมยข้อมูล, ติดมัลแวร์ หรือถูกใช้เป็นช่องทางฟอกเงิน ⛔ การใช้บริษัทจัดหางานภายนอกเพิ่มความเสี่ยง ‼️ การใช้ตัวตนปลอมสร้างภาระให้กับพลเมืองสหรัฐฯ ที่ถูกขโมยข้อมูล ⛔ เกิดภาระภาษีเท็จและข้อมูลผิดพลาดในระบบราชการ ⛔ สร้างความเสียหายทางจิตใจและการเงินแก่ผู้ถูกแอบอ้าง ‼️ รายได้จากงานไอทีถูกนำไปใช้สนับสนุนโครงการอาวุธของเกาหลีเหนือ ⛔ เป็นการละเมิดมาตรการคว่ำบาตรของสหรัฐฯ และสหประชาชาติ ⛔ ส่งผลต่อความมั่นคงระดับโลก ‼️ การใช้ AI และเทคโนโลยีใหม่เพิ่มความซับซ้อนในการปลอมตัว ⛔ มีการใช้ AI เปลี่ยนภาพเอกสาร, ปรับเสียง และสร้างวิดีโอปลอม ⛔ ทำให้การตรวจสอบตัวตนยากขึ้นสำหรับบริษัททั่วไป https://hackread.com/arizona-woman-jailed-help-north-korea-it-job-scam/
    HACKREAD.COM
    Arizona Woman Jailed for Helping North Korea in $17M IT Job Scam
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 136 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ “เงินปลอม” ถูกขายผ่าน Facebook แบบไม่ต้องหลบซ่อน

    ลองจินตนาการว่าคุณเลื่อนดู Instagram แล้วเจอโพสต์ขายธนบัตรปลอมแบบ “A1 quality” พร้อมวิดีโอโชว์กองเงินปลอม และยังมีบริการส่งถึงบ้านแบบเก็บเงินปลายทาง (COD)! นี่ไม่ใช่ฉากในหนังอาชญากรรม แต่เป็นเรื่องจริงที่เกิดขึ้นในอินเดีย

    ทีม STRIKE ของบริษัท CloudSEK ได้เปิดโปงขบวนการเงินปลอมมูลค่ากว่า ₹17.5 crore (ประมาณ 2 ล้านดอลลาร์) ที่ดำเนินการอย่างเปิดเผยผ่าน Facebook, Instagram, Telegram และ YouTube โดยใช้เทคนิค OSINT และ HUMINT เพื่อระบุตัวผู้กระทำผิด พร้อมส่งข้อมูลให้หน่วยงานรัฐเพื่อดำเนินคดี

    ขบวนการเงินปลอมมูลค่า ₹17.5 crore ถูกเปิดโปงโดย CloudSEK ในช่วง 6 เดือน
    ดำเนินการระหว่างธันวาคม 2024 ถึงมิถุนายน 2025
    ใช้แพลตฟอร์ม XVigil ตรวจจับโพสต์และบัญชีต้องสงสัย

    มีการตรวจพบโพสต์โปรโมทเงินปลอมกว่า 4,500 โพสต์ และบัญชีผู้ขายกว่า 750 บัญชี
    พบเบอร์โทรศัพท์ที่เกี่ยวข้องกว่า 410 หมายเลข
    ใช้ Meta Ads และโซเชียลมีเดียเพื่อเข้าถึงผู้ซื้อโดยตรง

    ผู้ขายใช้เทคนิคสร้างความน่าเชื่อถือ เช่น วิดีโอคอลโชว์เงินปลอม และภาพเขียนมือ
    ใช้คำรหัสเช่น “A1 note” และ “second currency” เพื่อหลบการตรวจจับ
    มีการใช้ WhatsApp เพื่อเจรจาและส่งภาพหลักฐาน

    การผลิตธนบัตรปลอมใช้เครื่องมือระดับมืออาชีพ
    ใช้ Adobe Photoshop, เครื่องพิมพ์อุตสาหกรรม และกระดาษพิเศษที่มีลายน้ำ Mahatma Gandhi
    ธนบัตรปลอมสามารถหลอกเครื่องตรวจจับได้ในบางกรณี

    ผู้ต้องสงสัยถูกระบุจากภาพใบหน้า, GPS, และบัญชีโซเชียลมีเดีย
    พบการดำเนินการในหมู่บ้าน Jamade (Dhule, Maharashtra) และเมือง Pune
    ผู้ต้องสงสัยใช้ชื่อปลอม เช่น Vivek Kumar, Karan Pawar, Sachin Deeva

    CloudSEK ส่งข้อมูลให้หน่วยงานรัฐเพื่อดำเนินการทางกฎหมาย
    รวมถึงภาพใบหน้า, หมายเลขโทรศัพท์, ตำแหน่ง GPS และหลักฐานดิจิทัล
    มีการแนะนำให้ Meta ตรวจสอบและลบโฆษณาที่เกี่ยวข้อง

    การขายเงินปลอมผ่านโซเชียลมีเดียเป็นภัยต่อเศรษฐกิจและความมั่นคงของชาติ
    อาจทำให้เกิดเงินเฟ้อและความไม่เชื่อมั่นในระบบการเงิน
    ส่งผลกระทบต่อธุรกิจรายย่อยและประชาชนทั่วไป

    แพลตฟอร์มโซเชียลมีเดียยังมีช่องโหว่ในการตรวจจับการฉ้อโกงทางการเงิน
    โฆษณาเงินปลอมสามารถหลุดรอดการตรวจสอบได้
    การใช้แฮชแท็กและคำรหัสช่วยให้ผู้ขายหลบเลี่ยงการแบน

    การซื้อขายเงินปลอมอาจนำไปสู่การถูกหลอกหรือถูกปล้น
    มีรายงานว่าผู้ซื้อบางรายถูกโกงหรือถูกข่มขู่
    การทำธุรกรรมแบบพบตัวอาจเสี่ยงต่ออาชญากรรม

    การปลอมแปลงธนบัตรเป็นอาชญากรรมร้ายแรงตามกฎหมายอินเดีย
    เข้าข่ายผิดตาม Bharatiya Nyaya Sanhita (BNS) มาตรา 176–179
    และผิดตาม IT Act มาตรา 66D และ 69A หากเผยแพร่ผ่านอินเทอร์เน็ต

    https://hackread.com/researchers-online-fake-currency-operation-in-india/
    💰 เรื่องเล่าจากโลกไซเบอร์: เมื่อ “เงินปลอม” ถูกขายผ่าน Facebook แบบไม่ต้องหลบซ่อน ลองจินตนาการว่าคุณเลื่อนดู Instagram แล้วเจอโพสต์ขายธนบัตรปลอมแบบ “A1 quality” พร้อมวิดีโอโชว์กองเงินปลอม และยังมีบริการส่งถึงบ้านแบบเก็บเงินปลายทาง (COD)! นี่ไม่ใช่ฉากในหนังอาชญากรรม แต่เป็นเรื่องจริงที่เกิดขึ้นในอินเดีย ทีม STRIKE ของบริษัท CloudSEK ได้เปิดโปงขบวนการเงินปลอมมูลค่ากว่า ₹17.5 crore (ประมาณ 2 ล้านดอลลาร์) ที่ดำเนินการอย่างเปิดเผยผ่าน Facebook, Instagram, Telegram และ YouTube โดยใช้เทคนิค OSINT และ HUMINT เพื่อระบุตัวผู้กระทำผิด พร้อมส่งข้อมูลให้หน่วยงานรัฐเพื่อดำเนินคดี ✅ ขบวนการเงินปลอมมูลค่า ₹17.5 crore ถูกเปิดโปงโดย CloudSEK ในช่วง 6 เดือน ➡️ ดำเนินการระหว่างธันวาคม 2024 ถึงมิถุนายน 2025 ➡️ ใช้แพลตฟอร์ม XVigil ตรวจจับโพสต์และบัญชีต้องสงสัย ✅ มีการตรวจพบโพสต์โปรโมทเงินปลอมกว่า 4,500 โพสต์ และบัญชีผู้ขายกว่า 750 บัญชี ➡️ พบเบอร์โทรศัพท์ที่เกี่ยวข้องกว่า 410 หมายเลข ➡️ ใช้ Meta Ads และโซเชียลมีเดียเพื่อเข้าถึงผู้ซื้อโดยตรง ✅ ผู้ขายใช้เทคนิคสร้างความน่าเชื่อถือ เช่น วิดีโอคอลโชว์เงินปลอม และภาพเขียนมือ ➡️ ใช้คำรหัสเช่น “A1 note” และ “second currency” เพื่อหลบการตรวจจับ ➡️ มีการใช้ WhatsApp เพื่อเจรจาและส่งภาพหลักฐาน ✅ การผลิตธนบัตรปลอมใช้เครื่องมือระดับมืออาชีพ ➡️ ใช้ Adobe Photoshop, เครื่องพิมพ์อุตสาหกรรม และกระดาษพิเศษที่มีลายน้ำ Mahatma Gandhi ➡️ ธนบัตรปลอมสามารถหลอกเครื่องตรวจจับได้ในบางกรณี ✅ ผู้ต้องสงสัยถูกระบุจากภาพใบหน้า, GPS, และบัญชีโซเชียลมีเดีย ➡️ พบการดำเนินการในหมู่บ้าน Jamade (Dhule, Maharashtra) และเมือง Pune ➡️ ผู้ต้องสงสัยใช้ชื่อปลอม เช่น Vivek Kumar, Karan Pawar, Sachin Deeva ✅ CloudSEK ส่งข้อมูลให้หน่วยงานรัฐเพื่อดำเนินการทางกฎหมาย ➡️ รวมถึงภาพใบหน้า, หมายเลขโทรศัพท์, ตำแหน่ง GPS และหลักฐานดิจิทัล ➡️ มีการแนะนำให้ Meta ตรวจสอบและลบโฆษณาที่เกี่ยวข้อง ‼️ การขายเงินปลอมผ่านโซเชียลมีเดียเป็นภัยต่อเศรษฐกิจและความมั่นคงของชาติ ⛔ อาจทำให้เกิดเงินเฟ้อและความไม่เชื่อมั่นในระบบการเงิน ⛔ ส่งผลกระทบต่อธุรกิจรายย่อยและประชาชนทั่วไป ‼️ แพลตฟอร์มโซเชียลมีเดียยังมีช่องโหว่ในการตรวจจับการฉ้อโกงทางการเงิน ⛔ โฆษณาเงินปลอมสามารถหลุดรอดการตรวจสอบได้ ⛔ การใช้แฮชแท็กและคำรหัสช่วยให้ผู้ขายหลบเลี่ยงการแบน ‼️ การซื้อขายเงินปลอมอาจนำไปสู่การถูกหลอกหรือถูกปล้น ⛔ มีรายงานว่าผู้ซื้อบางรายถูกโกงหรือถูกข่มขู่ ⛔ การทำธุรกรรมแบบพบตัวอาจเสี่ยงต่ออาชญากรรม ‼️ การปลอมแปลงธนบัตรเป็นอาชญากรรมร้ายแรงตามกฎหมายอินเดีย ⛔ เข้าข่ายผิดตาม Bharatiya Nyaya Sanhita (BNS) มาตรา 176–179 ⛔ และผิดตาม IT Act มาตรา 66D และ 69A หากเผยแพร่ผ่านอินเทอร์เน็ต https://hackread.com/researchers-online-fake-currency-operation-in-india/
    HACKREAD.COM
    Researchers Expose Massive Online Fake Currency Operation in India
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 168 Views 0 Reviews
  • เรื่องเล่าจากโลกดิจิทัล: เมื่อ “บ้านของเรา” อาจไม่ใช่ที่ดีที่สุดสำหรับข้อมูลของเรา

    ลองจินตนาการว่าคุณซื้อหนังสือดิจิทัลจาก Kindle มา 400 เล่ม แล้ววันหนึ่ง Amazon ประกาศว่าไม่สามารถดาวน์โหลดไฟล์เหล่านั้นมาเก็บไว้ในคอมพิวเตอร์ได้อีกต่อไป คุณยังเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น—แปลว่าคุณไม่ได้ “เป็นเจ้าของ” หนังสือเหล่านั้นจริงๆ แต่แค่ “เช่า” สิทธิ์ในการอ่าน

    นี่คือจุดเริ่มต้นของการตั้งคำถามว่า “เรายังเป็นเจ้าของข้อมูลของตัวเองอยู่หรือเปล่า?” และนำไปสู่การทดลองของผู้เขียนบทความ ที่ตัดสินใจสร้าง “คลาวด์ส่วนตัว” ขึ้นมาเองในบ้าน โดยใช้เซิร์ฟเวอร์เก่าและซอฟต์แวร์โอเพ่นซอร์ส เช่น Immich (แทน Google Photos), Nextcloud (แทน Google Drive), Jellyfin (แทน Netflix) และ Audiobookshelf (แทน Audible)

    แต่หลังจากลงทุนลงแรงไปหลายสัปดาห์ เขากลับพบว่าแม้จะได้อิสระและความเป็นเจ้าของ แต่การดูแลระบบทั้งหมดด้วยตัวเองนั้น “ไม่ใช่อนาคตที่เหมาะกับทุกคน”

    Amazon ปรับนโยบาย Kindle: ผู้ใช้ไม่สามารถดาวน์โหลดไฟล์หนังสือได้อีก
    ผู้ใช้สามารถเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น
    Amazon เปลี่ยนคำว่า “ซื้อหนังสือ” เป็น “ซื้อสิทธิ์การใช้งาน”

    แนวคิด Self-Hosting คือการตั้งเซิร์ฟเวอร์และบริการต่างๆ ด้วยตัวเอง
    ใช้ฮาร์ดแวร์ของตนเอง ติดตั้งระบบปฏิบัติการและแอปพลิเคชัน
    ดูแลความปลอดภัย การสำรองข้อมูล และการอัปเดตทั้งหมดด้วยตัวเอง

    ผู้เขียนสร้างคลาวด์ส่วนตัวด้วยเซิร์ฟเวอร์ Lenovo และซอฟต์แวร์โอเพ่นซอร์ส
    ใช้ Proxmox, Docker, Snapraid, MergerFS และ Tailscale
    ติดตั้งบริการต่างๆ เช่น Immich, Jellyfin, Nextcloud และ Audiobookshelf

    ข้อดีของ Self-Hosting คือความเป็นเจ้าของและความยืดหยุ่น
    ไม่มีการเก็บข้อมูลโดยบริษัทใหญ่
    สามารถปรับแต่งระบบได้ตามต้องการ

    Self-Hosting ต้องใช้ความรู้ทางเทคนิคสูงและเวลามาก
    การตั้งค่าเซิร์ฟเวอร์และบริการต่างๆ ใช้เวลาหลายสัปดาห์
    ต้องเข้าใจ Docker, Linux, VPN และระบบไฟล์

    ความผิดพลาดในการตั้งค่าอาจทำให้ข้อมูลสูญหายหรือระบบล่ม
    ไม่มีทีมซัพพอร์ตเหมือนบริการคลาวด์
    ต้องรับผิดชอบทุกอย่างเองเมื่อเกิดปัญหา

    การดูแลระบบอย่างต่อเนื่องเป็นภาระที่ไม่เหมาะกับผู้ใช้ทั่วไป
    ต้องอัปเดตซอฟต์แวร์และตรวจสอบความปลอดภัยสม่ำเสมอ
    หากไม่มีเวลาหรือความรู้ อาจกลายเป็นภาระมากกว่าประโยชน์

    แม้จะปลอดภัยจากบริษัทใหญ่ แต่ก็เสี่ยงจากการโจมตีไซเบอร์หากตั้งค่าไม่ดี
    การเปิดพอร์ตหรือใช้รหัสผ่านอ่อนอาจถูกแฮกได้ง่าย
    ต้องมีระบบสำรองข้อมูลและไฟร์วอลล์ที่ดี

    https://www.drewlyton.com/story/the-future-is-not-self-hosted/
    🏠 เรื่องเล่าจากโลกดิจิทัล: เมื่อ “บ้านของเรา” อาจไม่ใช่ที่ดีที่สุดสำหรับข้อมูลของเรา ลองจินตนาการว่าคุณซื้อหนังสือดิจิทัลจาก Kindle มา 400 เล่ม แล้ววันหนึ่ง Amazon ประกาศว่าไม่สามารถดาวน์โหลดไฟล์เหล่านั้นมาเก็บไว้ในคอมพิวเตอร์ได้อีกต่อไป คุณยังเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น—แปลว่าคุณไม่ได้ “เป็นเจ้าของ” หนังสือเหล่านั้นจริงๆ แต่แค่ “เช่า” สิทธิ์ในการอ่าน นี่คือจุดเริ่มต้นของการตั้งคำถามว่า “เรายังเป็นเจ้าของข้อมูลของตัวเองอยู่หรือเปล่า?” และนำไปสู่การทดลองของผู้เขียนบทความ ที่ตัดสินใจสร้าง “คลาวด์ส่วนตัว” ขึ้นมาเองในบ้าน โดยใช้เซิร์ฟเวอร์เก่าและซอฟต์แวร์โอเพ่นซอร์ส เช่น Immich (แทน Google Photos), Nextcloud (แทน Google Drive), Jellyfin (แทน Netflix) และ Audiobookshelf (แทน Audible) แต่หลังจากลงทุนลงแรงไปหลายสัปดาห์ เขากลับพบว่าแม้จะได้อิสระและความเป็นเจ้าของ แต่การดูแลระบบทั้งหมดด้วยตัวเองนั้น “ไม่ใช่อนาคตที่เหมาะกับทุกคน” ✅ Amazon ปรับนโยบาย Kindle: ผู้ใช้ไม่สามารถดาวน์โหลดไฟล์หนังสือได้อีก ➡️ ผู้ใช้สามารถเข้าถึงหนังสือได้ผ่านแอป Kindle เท่านั้น ➡️ Amazon เปลี่ยนคำว่า “ซื้อหนังสือ” เป็น “ซื้อสิทธิ์การใช้งาน” ✅ แนวคิด Self-Hosting คือการตั้งเซิร์ฟเวอร์และบริการต่างๆ ด้วยตัวเอง ➡️ ใช้ฮาร์ดแวร์ของตนเอง ติดตั้งระบบปฏิบัติการและแอปพลิเคชัน ➡️ ดูแลความปลอดภัย การสำรองข้อมูล และการอัปเดตทั้งหมดด้วยตัวเอง ✅ ผู้เขียนสร้างคลาวด์ส่วนตัวด้วยเซิร์ฟเวอร์ Lenovo และซอฟต์แวร์โอเพ่นซอร์ส ➡️ ใช้ Proxmox, Docker, Snapraid, MergerFS และ Tailscale ➡️ ติดตั้งบริการต่างๆ เช่น Immich, Jellyfin, Nextcloud และ Audiobookshelf ✅ ข้อดีของ Self-Hosting คือความเป็นเจ้าของและความยืดหยุ่น ➡️ ไม่มีการเก็บข้อมูลโดยบริษัทใหญ่ ➡️ สามารถปรับแต่งระบบได้ตามต้องการ ‼️ Self-Hosting ต้องใช้ความรู้ทางเทคนิคสูงและเวลามาก ⛔ การตั้งค่าเซิร์ฟเวอร์และบริการต่างๆ ใช้เวลาหลายสัปดาห์ ⛔ ต้องเข้าใจ Docker, Linux, VPN และระบบไฟล์ ‼️ ความผิดพลาดในการตั้งค่าอาจทำให้ข้อมูลสูญหายหรือระบบล่ม ⛔ ไม่มีทีมซัพพอร์ตเหมือนบริการคลาวด์ ⛔ ต้องรับผิดชอบทุกอย่างเองเมื่อเกิดปัญหา ‼️ การดูแลระบบอย่างต่อเนื่องเป็นภาระที่ไม่เหมาะกับผู้ใช้ทั่วไป ⛔ ต้องอัปเดตซอฟต์แวร์และตรวจสอบความปลอดภัยสม่ำเสมอ ⛔ หากไม่มีเวลาหรือความรู้ อาจกลายเป็นภาระมากกว่าประโยชน์ ‼️ แม้จะปลอดภัยจากบริษัทใหญ่ แต่ก็เสี่ยงจากการโจมตีไซเบอร์หากตั้งค่าไม่ดี ⛔ การเปิดพอร์ตหรือใช้รหัสผ่านอ่อนอาจถูกแฮกได้ง่าย ⛔ ต้องมีระบบสำรองข้อมูลและไฟร์วอลล์ที่ดี https://www.drewlyton.com/story/the-future-is-not-self-hosted/
    WWW.DREWLYTON.COM
    The Future is NOT Self-Hosted
    Hey friends 👋, A few months ago, Amazon announced that Kindle users would no longer be able to download and back up their book libraries to their computers. Thankfully, I still have access to my library because I saw this video by Jared Henderson warning of the change and downloaded all
    0 Comments 0 Shares 177 Views 0 Reviews
  • เรื่องเล่าจากโลก AI: “ราคาคำตอบ” ที่คุณอาจไม่เคยคิด

    ลองจินตนาการว่า AI ที่คุณใช้ตอบคำถามหรือเขียนบทความนั้น คิดค่าบริการเป็น “จำนวนคำ” ที่มันอ่านและเขียนออกมา—หรือที่เรียกว่า “token” ซึ่งแต่ละ token คือเศษคำประมาณ 3–4 ตัวอักษร

    ในปี 2025 นี้ ตลาด LLM API แข่งขันกันดุเดือด ผู้ให้บริการอย่าง OpenAI, Google, Anthropic และ xAI ต่างออกโมเดลใหม่พร้อมราคาที่หลากหลาย ตั้งแต่ราคาถูกสุดเพียง $0.07 ต่อ 1 ล้าน token ไปจนถึง $600 ต่อ 1 ล้าน token สำหรับโมเดลระดับสูงสุด!

    สิ่งที่น่าสนใจคือ “ราคาสำหรับการตอบ” (output token) มักแพงกว่าการถาม (input token) ถึง 3–5 เท่า ทำให้การออกแบบ prompt ที่กระชับและฉลาดกลายเป็นกลยุทธ์สำคัญในการลดต้นทุน

    โมเดลราคาถูกที่สุดในตลาดตอนนี้ ได้แก่ Google Gemini 2.0 Flash-Lite และ OpenAI GPT-4.1-nano
    ราคา input token อยู่ที่ $0.07–$0.10 ต่อ 1 ล้าน token
    ราคา output token อยู่ที่ $0.30–$0.40 ต่อ 1 ล้าน token

    โมเดลระดับกลางที่คุ้มค่า เช่น GPT-4o-mini และ Claude Haiku 3
    ราคา input token อยู่ที่ $0.15–$0.25
    ราคา output token อยู่ที่ $0.60–$1.25

    โมเดลระดับสูง เช่น Claude Opus 4 และ GPT-o1-pro มีราคาสูงมาก
    Claude Opus 4: $15 (input) / $75 (output)
    GPT-o1-pro: $150 (input) / $600 (output)

    แนวโน้มการตั้งราคาคือการแยก input กับ output token อย่างชัดเจน
    output token แพงกว่า input token หลายเท่า
    ส่งเสริมการใช้เทคนิค RAG (Retrieval-Augmented Generation) เพื่อประหยัด

    ข้อมูลอัปเดตล่าสุดเมื่อวันที่ 27 กรกฎาคม 2025
    แหล่งข้อมูลมาจากเว็บไซต์ทางการของผู้ให้บริการแต่ละราย
    มีการเปรียบเทียบมากกว่า 30 โมเดลจากหลายค่าย

    การใช้โมเดลที่มี output token แพงอาจทำให้ต้นทุนพุ่งสูงโดยไม่รู้ตัว
    หากไม่จำกัดความยาวคำตอบหรือใช้ prompt ที่ไม่กระชับ อาจเสียเงินมากเกินจำเป็น
    ควรตั้งค่า max_tokens และ temperature ให้เหมาะสม

    การเปรียบเทียบราคาโดยไม่ดูคุณภาพอาจทำให้เลือกโมเดลไม่เหมาะกับงาน
    โมเดลราคาถูกอาจไม่เหมาะกับงาน reasoning หรือการเขียนเชิงลึก
    ควรพิจารณาความสามารถของโมเดลควบคู่กับราคา

    การเปลี่ยนแปลงราคาบ่อยครั้งอาจทำให้ข้อมูลล้าสมัยเร็ว
    ควรตรวจสอบราคาจากเว็บไซต์ทางการก่อนใช้งานจริง
    การใช้ข้อมูลเก่าอาจทำให้คำนวณต้นทุนผิดพลาด

    การใช้โมเดลที่มี context window ใหญ่เกินความจำเป็นอาจสิ้นเปลือง
    โมเดลที่รองรับ context 1M tokens มักมีราคาสูง
    หากงานไม่ต้องการ context ยาว ควรเลือกโมเดลที่เล็กลง

    https://pricepertoken.com/
    💸 เรื่องเล่าจากโลก AI: “ราคาคำตอบ” ที่คุณอาจไม่เคยคิด ลองจินตนาการว่า AI ที่คุณใช้ตอบคำถามหรือเขียนบทความนั้น คิดค่าบริการเป็น “จำนวนคำ” ที่มันอ่านและเขียนออกมา—หรือที่เรียกว่า “token” ซึ่งแต่ละ token คือเศษคำประมาณ 3–4 ตัวอักษร ในปี 2025 นี้ ตลาด LLM API แข่งขันกันดุเดือด ผู้ให้บริการอย่าง OpenAI, Google, Anthropic และ xAI ต่างออกโมเดลใหม่พร้อมราคาที่หลากหลาย ตั้งแต่ราคาถูกสุดเพียง $0.07 ต่อ 1 ล้าน token ไปจนถึง $600 ต่อ 1 ล้าน token สำหรับโมเดลระดับสูงสุด! สิ่งที่น่าสนใจคือ “ราคาสำหรับการตอบ” (output token) มักแพงกว่าการถาม (input token) ถึง 3–5 เท่า ทำให้การออกแบบ prompt ที่กระชับและฉลาดกลายเป็นกลยุทธ์สำคัญในการลดต้นทุน ✅ โมเดลราคาถูกที่สุดในตลาดตอนนี้ ได้แก่ Google Gemini 2.0 Flash-Lite และ OpenAI GPT-4.1-nano ➡️ ราคา input token อยู่ที่ $0.07–$0.10 ต่อ 1 ล้าน token ➡️ ราคา output token อยู่ที่ $0.30–$0.40 ต่อ 1 ล้าน token ✅ โมเดลระดับกลางที่คุ้มค่า เช่น GPT-4o-mini และ Claude Haiku 3 ➡️ ราคา input token อยู่ที่ $0.15–$0.25 ➡️ ราคา output token อยู่ที่ $0.60–$1.25 ✅ โมเดลระดับสูง เช่น Claude Opus 4 และ GPT-o1-pro มีราคาสูงมาก ➡️ Claude Opus 4: $15 (input) / $75 (output) ➡️ GPT-o1-pro: $150 (input) / $600 (output) ✅ แนวโน้มการตั้งราคาคือการแยก input กับ output token อย่างชัดเจน ➡️ output token แพงกว่า input token หลายเท่า ➡️ ส่งเสริมการใช้เทคนิค RAG (Retrieval-Augmented Generation) เพื่อประหยัด ✅ ข้อมูลอัปเดตล่าสุดเมื่อวันที่ 27 กรกฎาคม 2025 ➡️ แหล่งข้อมูลมาจากเว็บไซต์ทางการของผู้ให้บริการแต่ละราย ➡️ มีการเปรียบเทียบมากกว่า 30 โมเดลจากหลายค่าย ‼️ การใช้โมเดลที่มี output token แพงอาจทำให้ต้นทุนพุ่งสูงโดยไม่รู้ตัว ⛔ หากไม่จำกัดความยาวคำตอบหรือใช้ prompt ที่ไม่กระชับ อาจเสียเงินมากเกินจำเป็น ⛔ ควรตั้งค่า max_tokens และ temperature ให้เหมาะสม ‼️ การเปรียบเทียบราคาโดยไม่ดูคุณภาพอาจทำให้เลือกโมเดลไม่เหมาะกับงาน ⛔ โมเดลราคาถูกอาจไม่เหมาะกับงาน reasoning หรือการเขียนเชิงลึก ⛔ ควรพิจารณาความสามารถของโมเดลควบคู่กับราคา ‼️ การเปลี่ยนแปลงราคาบ่อยครั้งอาจทำให้ข้อมูลล้าสมัยเร็ว ⛔ ควรตรวจสอบราคาจากเว็บไซต์ทางการก่อนใช้งานจริง ⛔ การใช้ข้อมูลเก่าอาจทำให้คำนวณต้นทุนผิดพลาด ‼️ การใช้โมเดลที่มี context window ใหญ่เกินความจำเป็นอาจสิ้นเปลือง ⛔ โมเดลที่รองรับ context 1M tokens มักมีราคาสูง ⛔ หากงานไม่ต้องการ context ยาว ควรเลือกโมเดลที่เล็กลง https://pricepertoken.com/
    0 Comments 0 Shares 109 Views 0 Reviews
  • เรื่องเล่าจากเบื้องหลัง AI: เมื่อ “Copilot” ถูกเจาะทะลุถึงราก

    ลองจินตนาการว่า AI ผู้ช่วยอัจฉริยะของคุณ—Microsoft Copilot—ที่ควรจะปลอดภัย กลับกลายเป็นช่องทางให้แฮกเกอร์เข้าถึงระบบเบื้องหลังได้ในระดับ root! เรื่องนี้เกิดขึ้นจริงในเดือนเมษายน 2025 เมื่อ Microsoft เปิดตัวฟีเจอร์ใหม่: Python sandbox ที่รันผ่าน Jupyter Notebook เพื่อให้ผู้ใช้สามารถเขียนโค้ดและวิเคราะห์ข้อมูลได้สะดวกขึ้น

    แต่ฟีเจอร์นี้กลับเปิดช่องให้แฮกเกอร์จาก Eye Security ใช้เทคนิคง่ายๆ—แค่ปลอมไฟล์ชื่อ “pgrep” แล้ววางไว้ในโฟลเดอร์ที่ระบบค้นหาเป็นอันดับแรก—ก็สามารถหลอกให้ระบบรันโค้ดของตนในสิทธิ์ root ได้ทันที!

    แม้จะไม่มีข้อมูลสำคัญรั่วไหล แต่เหตุการณ์นี้สะท้อนถึงความเปราะบางของ AI sandbox ที่แม้จะออกแบบมาอย่างดี ก็ยังมีจุดอ่อนที่ถูกมองข้าม

    Copilot เปิดตัว Python sandbox ผ่าน Jupyter Notebook ในเดือนเมษายน 2025
    ใช้ Jupyter Notebook syntax (%command) เพื่อรันโค้ดใน backend
    รันใน container ที่ใช้ผู้ใช้ชื่อ “ubuntu” ซึ่งอยู่ในกลุ่ม sudo แต่ไม่มี binary ของ sudo

    ช่องโหว่เกิดจากการใช้คำสั่ง pgrep โดยไม่ระบุ path แบบเต็มใน script ที่รันเป็น root
    ระบบค้นหาไฟล์ pgrep จาก $PATH ซึ่งมีโฟลเดอร์ที่ผู้ใช้สามารถเขียนไฟล์ได้
    แฮกเกอร์สร้างไฟล์ pgrep ปลอมที่รันโค้ด Python เพื่ออ่านคำสั่งจากไฟล์และรันด้วย popen

    แฮกเกอร์สามารถเข้าถึง root ภายใน container ได้สำเร็จ
    ใช้ช่องโหว่ใน script entrypoint.sh ที่รัน keepAliveJupyterSvc.sh ด้วยสิทธิ์ root
    สามารถสำรวจไฟล์ระบบและรันคำสั่งได้ในระดับสูงสุด

    Microsoft ได้รับรายงานช่องโหว่ในเดือนเมษายน และออก patch แก้ไขในเดือนกรกฎาคม 2025
    ช่องโหว่ถูกจัดระดับ “moderate severity”
    ไม่มีการให้รางวัล bug bounty แต่มีการยอมรับในหน้า researcher acknowledgments

    ระบบ container ของ Copilot มีการป้องกันที่ดี ไม่พบการรั่วไหลของข้อมูลสำคัญ
    ไม่มีไฟล์สำคัญใน /root และไม่มีช่องทาง breakout จาก container
    ระบบใช้ OverlayFS และจำกัด network ด้วย /32 netmask

    AI sandbox แม้จะปลอดภัย ก็ยังมีช่องโหว่จากการตั้งค่าที่ผิดพลาด
    การไม่ระบุ path แบบเต็มใน script ที่รันด้วยสิทธิ์ root เป็นช่องทางให้แฮกเกอร์แทรกไฟล์ปลอม
    โฟลเดอร์ที่ผู้ใช้สามารถเขียนไฟล์ได้ไม่ควรถูกจัดไว้ใน $PATH ก่อนโฟลเดอร์ระบบ

    การให้สิทธิ์ root ในบางส่วนของ container เป็นความเสี่ยงที่ควรหลีกเลี่ยง
    แม้จะรันส่วนใหญ่ด้วยสิทธิ์ผู้ใช้ทั่วไป แต่บาง script ยังรันเป็น root โดยไม่จำเป็น
    การ drop privileges ควรทำตั้งแต่ต้นและไม่ย้อนกลับ

    การเปิดให้ผู้ใช้ upload ไฟล์โดยไม่มีการตรวจสอบอย่างเข้มงวดเป็นช่องทางโจมตี
    ไฟล์ที่ upload เข้ามาอาจถูกใช้เป็น payload สำหรับการโจมตี
    การตรวจสอบชื่อไฟล์และเนื้อหาควรทำก่อนการรันทุกครั้ง

    การไม่ให้รางวัล bug bounty อาจลดแรงจูงใจในการรายงานช่องโหว่จากนักวิจัยอิสระ
    ช่องโหว่ระดับ root access ควรได้รับการตอบแทนเพื่อส่งเสริมการเปิดเผยอย่างรับผิดชอบ
    การไม่ให้รางวัลอาจทำให้นักวิจัยหันไปสนใจแพลตฟอร์มอื่นที่ให้ผลตอบแทนดีกว่า

    https://research.eye.security/how-we-rooted-copilot/
    🧠 เรื่องเล่าจากเบื้องหลัง AI: เมื่อ “Copilot” ถูกเจาะทะลุถึงราก ลองจินตนาการว่า AI ผู้ช่วยอัจฉริยะของคุณ—Microsoft Copilot—ที่ควรจะปลอดภัย กลับกลายเป็นช่องทางให้แฮกเกอร์เข้าถึงระบบเบื้องหลังได้ในระดับ root! เรื่องนี้เกิดขึ้นจริงในเดือนเมษายน 2025 เมื่อ Microsoft เปิดตัวฟีเจอร์ใหม่: Python sandbox ที่รันผ่าน Jupyter Notebook เพื่อให้ผู้ใช้สามารถเขียนโค้ดและวิเคราะห์ข้อมูลได้สะดวกขึ้น แต่ฟีเจอร์นี้กลับเปิดช่องให้แฮกเกอร์จาก Eye Security ใช้เทคนิคง่ายๆ—แค่ปลอมไฟล์ชื่อ “pgrep” แล้ววางไว้ในโฟลเดอร์ที่ระบบค้นหาเป็นอันดับแรก—ก็สามารถหลอกให้ระบบรันโค้ดของตนในสิทธิ์ root ได้ทันที! แม้จะไม่มีข้อมูลสำคัญรั่วไหล แต่เหตุการณ์นี้สะท้อนถึงความเปราะบางของ AI sandbox ที่แม้จะออกแบบมาอย่างดี ก็ยังมีจุดอ่อนที่ถูกมองข้าม ✅ Copilot เปิดตัว Python sandbox ผ่าน Jupyter Notebook ในเดือนเมษายน 2025 ➡️ ใช้ Jupyter Notebook syntax (%command) เพื่อรันโค้ดใน backend ➡️ รันใน container ที่ใช้ผู้ใช้ชื่อ “ubuntu” ซึ่งอยู่ในกลุ่ม sudo แต่ไม่มี binary ของ sudo ✅ ช่องโหว่เกิดจากการใช้คำสั่ง pgrep โดยไม่ระบุ path แบบเต็มใน script ที่รันเป็น root ➡️ ระบบค้นหาไฟล์ pgrep จาก $PATH ซึ่งมีโฟลเดอร์ที่ผู้ใช้สามารถเขียนไฟล์ได้ ➡️ แฮกเกอร์สร้างไฟล์ pgrep ปลอมที่รันโค้ด Python เพื่ออ่านคำสั่งจากไฟล์และรันด้วย popen ✅ แฮกเกอร์สามารถเข้าถึง root ภายใน container ได้สำเร็จ ➡️ ใช้ช่องโหว่ใน script entrypoint.sh ที่รัน keepAliveJupyterSvc.sh ด้วยสิทธิ์ root ➡️ สามารถสำรวจไฟล์ระบบและรันคำสั่งได้ในระดับสูงสุด ✅ Microsoft ได้รับรายงานช่องโหว่ในเดือนเมษายน และออก patch แก้ไขในเดือนกรกฎาคม 2025 ➡️ ช่องโหว่ถูกจัดระดับ “moderate severity” ➡️ ไม่มีการให้รางวัล bug bounty แต่มีการยอมรับในหน้า researcher acknowledgments ✅ ระบบ container ของ Copilot มีการป้องกันที่ดี ไม่พบการรั่วไหลของข้อมูลสำคัญ ➡️ ไม่มีไฟล์สำคัญใน /root และไม่มีช่องทาง breakout จาก container ➡️ ระบบใช้ OverlayFS และจำกัด network ด้วย /32 netmask ‼️ AI sandbox แม้จะปลอดภัย ก็ยังมีช่องโหว่จากการตั้งค่าที่ผิดพลาด ⛔ การไม่ระบุ path แบบเต็มใน script ที่รันด้วยสิทธิ์ root เป็นช่องทางให้แฮกเกอร์แทรกไฟล์ปลอม ⛔ โฟลเดอร์ที่ผู้ใช้สามารถเขียนไฟล์ได้ไม่ควรถูกจัดไว้ใน $PATH ก่อนโฟลเดอร์ระบบ ‼️ การให้สิทธิ์ root ในบางส่วนของ container เป็นความเสี่ยงที่ควรหลีกเลี่ยง ⛔ แม้จะรันส่วนใหญ่ด้วยสิทธิ์ผู้ใช้ทั่วไป แต่บาง script ยังรันเป็น root โดยไม่จำเป็น ⛔ การ drop privileges ควรทำตั้งแต่ต้นและไม่ย้อนกลับ ‼️ การเปิดให้ผู้ใช้ upload ไฟล์โดยไม่มีการตรวจสอบอย่างเข้มงวดเป็นช่องทางโจมตี ⛔ ไฟล์ที่ upload เข้ามาอาจถูกใช้เป็น payload สำหรับการโจมตี ⛔ การตรวจสอบชื่อไฟล์และเนื้อหาควรทำก่อนการรันทุกครั้ง ‼️ การไม่ให้รางวัล bug bounty อาจลดแรงจูงใจในการรายงานช่องโหว่จากนักวิจัยอิสระ ⛔ ช่องโหว่ระดับ root access ควรได้รับการตอบแทนเพื่อส่งเสริมการเปิดเผยอย่างรับผิดชอบ ⛔ การไม่ให้รางวัลอาจทำให้นักวิจัยหันไปสนใจแพลตฟอร์มอื่นที่ให้ผลตอบแทนดีกว่า https://research.eye.security/how-we-rooted-copilot/
    RESEARCH.EYE.SECURITY
    How we Rooted Copilot - Eye Research
    Read how we explored the Python sandbox in Copilot and got root on the underlying container
    0 Comments 0 Shares 141 Views 0 Reviews
  • เรื่องเล่าจากโลกเพชร: เมื่อ “เพชรในห้องแล็บ” เขย่าอุตสาหกรรมที่เคยมั่นคง

    ลองจินตนาการว่าคุณกำลังเลือกแหวนหมั้น แล้วพบว่าเพชรที่สวยงามขนาด 2 กะรัต ราคาเพียง 3,500 ดอลลาร์—แทนที่จะเป็น 35,000 ดอลลาร์แบบเดิม นี่คือผลพวงจากการเติบโตของ “เพชรที่ผลิตในห้องแล็บ” ที่กำลังเปลี่ยนวิธีคิดของผู้บริโภคทั่วโลก

    จากเดิมที่เพชรธรรมชาติเป็นสัญลักษณ์ของความรักและสถานะ วันนี้ผู้บริโภคหันมาเลือกเพชรแล็บเพราะราคาถูกกว่า ผลิตได้อย่างมีจริยธรรม และไม่มีประวัติ “เพชรเลือด” ที่เกี่ยวข้องกับแรงงานเด็กหรือการสนับสนุนสงคราม

    ผลกระทบเริ่มชัดเจนในแคนาดา—ประเทศผู้ผลิตเพชรอันดับ 3 ของโลก—เมื่อบริษัท Burgundy Diamond Mines ต้องปิดเหมือง Point Lake และปลดพนักงานหลายร้อยคน เพราะราคาตลาดตกต่ำและต้นทุนสูงเกินไป

    Lab-Grown Diamonds กำลังแย่งส่วนแบ่งตลาดจากเพชรธรรมชาติ
    เพชรแล็บมีราคาถูกกว่า 85% และผลิตได้รวดเร็วในห้องแล็บ
    ผู้บริโภคสามารถซื้อเพชรขนาดใหญ่ขึ้นในราคาที่เข้าถึงได้

    ผู้บริโภคยุคใหม่ให้ความสำคัญกับจริยธรรมและสิ่งแวดล้อม
    หลีกเลี่ยง “เพชรเลือด” ที่เกี่ยวข้องกับแรงงานเด็กและสงคราม
    เพชรแล็บไม่มีการทำลายสิ่งแวดล้อมจากการขุดเหมือง

    อุตสาหกรรมเหมืองเพชรในแคนาดาได้รับผลกระทบหนัก
    บริษัท Burgundy Diamond Mines ปิดเหมือง Point Lake และปลดพนักงาน
    ราคาขายปลีกของเพชรธรรมชาติลดลง 26% ในช่วง 2 ปีที่ผ่านมา

    เทคโนโลยีการผลิตเพชรแล็บพัฒนาอย่างรวดเร็ว
    สามารถปรับแต่งรูปทรง สี และคุณสมบัติได้ตามต้องการ
    ทำให้เพชรแล็บมีความหลากหลายและน่าสนใจมากขึ้น

    ผู้บริโภคยุคใหม่ เช่น Millennials และ Gen Z นิยมเพชรแล็บมากขึ้น
    ให้ความสำคัญกับความคุ้มค่าและความโปร่งใส
    ไม่ยึดติดกับแนวคิดว่า “เพชรธรรมชาติเท่านั้นที่แท้จริง”

    การเปลี่ยนแปลงนี้ส่งผลกระทบต่อแรงงานในอุตสาหกรรมเหมืองเพชร
    การปิดเหมืองทำให้เกิดการว่างงานจำนวนมากในพื้นที่ห่างไกล
    ชุมชนที่พึ่งพาอุตสาหกรรมเพชรอาจเผชิญกับวิกฤตเศรษฐกิจ

    เพชรแล็บยังมีข้อถกเถียงเรื่องการใช้พลังงานสูงในการผลิต
    แม้จะไม่ขุดเหมือง แต่การผลิตต้องใช้พลังงานจำนวนมาก
    หากใช้พลังงานจากฟอสซิล อาจมีผลกระทบต่อสิ่งแวดล้อมเช่นกัน

    ความแตกต่างด้าน “ความรู้สึก” และ “คุณค่า” ยังมีอยู่
    ผู้เชี่ยวชาญบางคนเชื่อว่าเพชรธรรมชาติมี “ความซับซ้อน” ที่เพชรแล็บไม่มี
    เพชรธรรมชาติเป็น “เศษส่วนของโลกใต้พิภพ” ที่มีความเป็นเอกลักษณ์

    การลดราคาของเพชรธรรมชาติอาจทำให้สูญเสียความเป็นสินทรัพย์ลงทุน
    ราคาตกต่อเนื่องทำให้เพชรธรรมชาติไม่เป็นที่นิยมในฐานะการลงทุน
    อาจส่งผลต่อแบรนด์หรูที่เคยใช้เพชรธรรมชาติเป็นจุดขาย

    https://www.cbc.ca/news/business/lab-grown-diamonds-1.7592336
    💎 เรื่องเล่าจากโลกเพชร: เมื่อ “เพชรในห้องแล็บ” เขย่าอุตสาหกรรมที่เคยมั่นคง ลองจินตนาการว่าคุณกำลังเลือกแหวนหมั้น แล้วพบว่าเพชรที่สวยงามขนาด 2 กะรัต ราคาเพียง 3,500 ดอลลาร์—แทนที่จะเป็น 35,000 ดอลลาร์แบบเดิม นี่คือผลพวงจากการเติบโตของ “เพชรที่ผลิตในห้องแล็บ” ที่กำลังเปลี่ยนวิธีคิดของผู้บริโภคทั่วโลก จากเดิมที่เพชรธรรมชาติเป็นสัญลักษณ์ของความรักและสถานะ วันนี้ผู้บริโภคหันมาเลือกเพชรแล็บเพราะราคาถูกกว่า ผลิตได้อย่างมีจริยธรรม และไม่มีประวัติ “เพชรเลือด” ที่เกี่ยวข้องกับแรงงานเด็กหรือการสนับสนุนสงคราม ผลกระทบเริ่มชัดเจนในแคนาดา—ประเทศผู้ผลิตเพชรอันดับ 3 ของโลก—เมื่อบริษัท Burgundy Diamond Mines ต้องปิดเหมือง Point Lake และปลดพนักงานหลายร้อยคน เพราะราคาตลาดตกต่ำและต้นทุนสูงเกินไป ✅ Lab-Grown Diamonds กำลังแย่งส่วนแบ่งตลาดจากเพชรธรรมชาติ ➡️ เพชรแล็บมีราคาถูกกว่า 85% และผลิตได้รวดเร็วในห้องแล็บ ➡️ ผู้บริโภคสามารถซื้อเพชรขนาดใหญ่ขึ้นในราคาที่เข้าถึงได้ ✅ ผู้บริโภคยุคใหม่ให้ความสำคัญกับจริยธรรมและสิ่งแวดล้อม ➡️ หลีกเลี่ยง “เพชรเลือด” ที่เกี่ยวข้องกับแรงงานเด็กและสงคราม ➡️ เพชรแล็บไม่มีการทำลายสิ่งแวดล้อมจากการขุดเหมือง ✅ อุตสาหกรรมเหมืองเพชรในแคนาดาได้รับผลกระทบหนัก ➡️ บริษัท Burgundy Diamond Mines ปิดเหมือง Point Lake และปลดพนักงาน ➡️ ราคาขายปลีกของเพชรธรรมชาติลดลง 26% ในช่วง 2 ปีที่ผ่านมา ✅ เทคโนโลยีการผลิตเพชรแล็บพัฒนาอย่างรวดเร็ว ➡️ สามารถปรับแต่งรูปทรง สี และคุณสมบัติได้ตามต้องการ ➡️ ทำให้เพชรแล็บมีความหลากหลายและน่าสนใจมากขึ้น ✅ ผู้บริโภคยุคใหม่ เช่น Millennials และ Gen Z นิยมเพชรแล็บมากขึ้น ➡️ ให้ความสำคัญกับความคุ้มค่าและความโปร่งใส ➡️ ไม่ยึดติดกับแนวคิดว่า “เพชรธรรมชาติเท่านั้นที่แท้จริง” ‼️ การเปลี่ยนแปลงนี้ส่งผลกระทบต่อแรงงานในอุตสาหกรรมเหมืองเพชร ⛔ การปิดเหมืองทำให้เกิดการว่างงานจำนวนมากในพื้นที่ห่างไกล ⛔ ชุมชนที่พึ่งพาอุตสาหกรรมเพชรอาจเผชิญกับวิกฤตเศรษฐกิจ ‼️ เพชรแล็บยังมีข้อถกเถียงเรื่องการใช้พลังงานสูงในการผลิต ⛔ แม้จะไม่ขุดเหมือง แต่การผลิตต้องใช้พลังงานจำนวนมาก ⛔ หากใช้พลังงานจากฟอสซิล อาจมีผลกระทบต่อสิ่งแวดล้อมเช่นกัน ‼️ ความแตกต่างด้าน “ความรู้สึก” และ “คุณค่า” ยังมีอยู่ ⛔ ผู้เชี่ยวชาญบางคนเชื่อว่าเพชรธรรมชาติมี “ความซับซ้อน” ที่เพชรแล็บไม่มี ⛔ เพชรธรรมชาติเป็น “เศษส่วนของโลกใต้พิภพ” ที่มีความเป็นเอกลักษณ์ ‼️ การลดราคาของเพชรธรรมชาติอาจทำให้สูญเสียความเป็นสินทรัพย์ลงทุน ⛔ ราคาตกต่อเนื่องทำให้เพชรธรรมชาติไม่เป็นที่นิยมในฐานะการลงทุน ⛔ อาจส่งผลต่อแบรนด์หรูที่เคยใช้เพชรธรรมชาติเป็นจุดขาย https://www.cbc.ca/news/business/lab-grown-diamonds-1.7592336
    WWW.CBC.CA
    The natural diamond industry is getting rocked. You can thank the lab-grown variety for that | CBC News
    As consumers have grown less worried about whether their diamonds are mined or made, many have turned to cost-friendly lab grown diamonds. And that’s having a big impact on the diamond mining industry — including for Canada.
    0 Comments 0 Shares 137 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ “หมากรุก” กลายเป็นเกมล่าระหว่างตำรวจกับแฮกเกอร์

    ลองจินตนาการว่าโลกไซเบอร์คือกระดานหมากรุก และกลุ่มแฮกเกอร์ชื่อ BlackSuit คือ “ราชา” ที่เดินเกมโจมตีองค์กรทั่วโลกมานานกว่า 2 ปี ด้วยกลยุทธ์ “ดับเบิลเอ็กซ์ทอร์ชัน” (Double Extortion) ที่ไม่เพียงล็อกไฟล์ แต่ยังขโมยข้อมูลแล้วขู่จะเปิดเผยหากไม่จ่ายค่าไถ่

    แต่แล้วในเดือนกรกฎาคม 2025 “Operation Checkmate” ก็เกิดขึ้น—ปฏิบัติการระหว่างประเทศที่นำโดย FBI, Europol และหน่วยงานจากกว่า 9 ประเทศ ร่วมกันยึดโดเมน .onion ของ BlackSuit ที่ใช้เจรจาเรียกค่าไถ่และเผยแพร่ข้อมูลเหยื่อบนดาร์กเว็บ

    นี่คือชัยชนะครั้งใหญ่ของโลกไซเบอร์ แต่ก็เป็นเพียง “การรุกฆาตชั่วคราว” เพราะนักวิจัยพบว่าอดีตสมาชิก BlackSuit ได้เริ่มต้นกลุ่มใหม่ชื่อ “Chaos ransomware” ที่ใช้เทคนิคคล้ายกัน และเริ่มโจมตีองค์กรในสหรัฐฯ และยุโรปแล้ว

    หน่วยงานระหว่างประเทศร่วมกันยึดโดเมนของ BlackSuit ransomware
    โดเมน .onion ที่ใช้เจรจาและเผยแพร่ข้อมูลเหยื่อถูกยึดโดย FBI และ Homeland Security
    มีหน่วยงานจากสหรัฐฯ, อังกฤษ, เยอรมนี, ยูเครน, แคนาดา และ Bitdefender ร่วมปฏิบัติการ

    BlackSuit เป็นกลุ่มแรนซัมแวร์ที่รีแบรนด์มาจาก Royal และ Conti
    เริ่มต้นจาก Quantum → Zeon → Royal → BlackSuit
    มีประวัติเรียกค่าไถ่รวมกว่า $500 ล้าน และโจมตีองค์กรกว่า 350 แห่ง

    กลยุทธ์หลักของ BlackSuit คือ Double Extortion
    ล็อกไฟล์และขโมยข้อมูลเพื่อขู่เปิดเผย
    ใช้ดาร์กเว็บเป็นช่องทางเจรจาและเผยแพร่ข้อมูลเหยื่อ

    เหยื่อที่โดดเด่น ได้แก่ Kadokawa, ZooTampa, Octapharma และเมือง Dallas มีการขโมยข้อมูลหลายเทราไบต์และทำให้ระบบบริการสาธารณะล่ม

    https://hackread.com/operation-checkmate-dark-web-blacksuit-ransomware-seized/
    🎯 เรื่องเล่าจากโลกไซเบอร์: เมื่อ “หมากรุก” กลายเป็นเกมล่าระหว่างตำรวจกับแฮกเกอร์ ลองจินตนาการว่าโลกไซเบอร์คือกระดานหมากรุก และกลุ่มแฮกเกอร์ชื่อ BlackSuit คือ “ราชา” ที่เดินเกมโจมตีองค์กรทั่วโลกมานานกว่า 2 ปี ด้วยกลยุทธ์ “ดับเบิลเอ็กซ์ทอร์ชัน” (Double Extortion) ที่ไม่เพียงล็อกไฟล์ แต่ยังขโมยข้อมูลแล้วขู่จะเปิดเผยหากไม่จ่ายค่าไถ่ แต่แล้วในเดือนกรกฎาคม 2025 “Operation Checkmate” ก็เกิดขึ้น—ปฏิบัติการระหว่างประเทศที่นำโดย FBI, Europol และหน่วยงานจากกว่า 9 ประเทศ ร่วมกันยึดโดเมน .onion ของ BlackSuit ที่ใช้เจรจาเรียกค่าไถ่และเผยแพร่ข้อมูลเหยื่อบนดาร์กเว็บ นี่คือชัยชนะครั้งใหญ่ของโลกไซเบอร์ แต่ก็เป็นเพียง “การรุกฆาตชั่วคราว” เพราะนักวิจัยพบว่าอดีตสมาชิก BlackSuit ได้เริ่มต้นกลุ่มใหม่ชื่อ “Chaos ransomware” ที่ใช้เทคนิคคล้ายกัน และเริ่มโจมตีองค์กรในสหรัฐฯ และยุโรปแล้ว ✅ หน่วยงานระหว่างประเทศร่วมกันยึดโดเมนของ BlackSuit ransomware ➡️ โดเมน .onion ที่ใช้เจรจาและเผยแพร่ข้อมูลเหยื่อถูกยึดโดย FBI และ Homeland Security ➡️ มีหน่วยงานจากสหรัฐฯ, อังกฤษ, เยอรมนี, ยูเครน, แคนาดา และ Bitdefender ร่วมปฏิบัติการ ✅ BlackSuit เป็นกลุ่มแรนซัมแวร์ที่รีแบรนด์มาจาก Royal และ Conti ➡️ เริ่มต้นจาก Quantum → Zeon → Royal → BlackSuit ➡️ มีประวัติเรียกค่าไถ่รวมกว่า $500 ล้าน และโจมตีองค์กรกว่า 350 แห่ง ✅ กลยุทธ์หลักของ BlackSuit คือ Double Extortion ➡️ ล็อกไฟล์และขโมยข้อมูลเพื่อขู่เปิดเผย ➡️ ใช้ดาร์กเว็บเป็นช่องทางเจรจาและเผยแพร่ข้อมูลเหยื่อ ✅ เหยื่อที่โดดเด่น ได้แก่ Kadokawa, ZooTampa, Octapharma และเมือง Dallas ➡️ มีการขโมยข้อมูลหลายเทราไบต์และทำให้ระบบบริการสาธารณะล่ม https://hackread.com/operation-checkmate-dark-web-blacksuit-ransomware-seized/
    HACKREAD.COM
    Operation Checkmate: BlackSuit Ransomware’s Dark Web Domains Seized
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 153 Views 0 Reviews
  • เรื่องเล่าจากโลกไซเบอร์: เมื่อ “การรู้เร็ว” คืออาวุธลับขององค์กร

    ลองจินตนาการว่าองค์กรของคุณมีระบบความปลอดภัยครบครัน แต่กลับรู้ว่าข้อมูลบัญชีผู้ใช้งานถูกแฮก...จากอีเมลเรียกค่าไถ่ หรือจากฝ่ายซัพพอร์ตที่แจ้งว่ามีคนล็อกอินผิดปกติ!

    นั่นคือปัญหาที่ xonPlus ต้องการแก้—แพลตฟอร์มใหม่ที่เพิ่งเปิดตัวจากทีมเบื้องหลัง XposedOrNot ซึ่งเป็นเครื่องมือโอเพ่นซอร์สสำหรับตรวจสอบการรั่วไหลของข้อมูลที่มีผู้ใช้หลายล้านคนทั่วโลก

    xonPlus ทำให้ทีมรักษาความปลอดภัยสามารถรู้ได้ทันทีเมื่ออีเมลหรือโดเมนขององค์กรปรากฏในฐานข้อมูลรั่วไหลหรือฟอรั่มในดาร์กเว็บ พร้อมแจ้งเตือนภายในไม่กี่นาทีหลังจากพบข้อมูลรั่วจริง

    ระบบนี้ไม่เพียงแค่ตรวจจับ แต่ยังเชื่อมต่อกับเครื่องมือที่องค์กรใช้อยู่แล้ว เช่น SIEM, Slack, Microsoft Teams และอีเมล เพื่อให้การตอบสนองเป็นไปอย่างรวดเร็วและมีประสิทธิภาพ

    จุดเด่นของ xonPlus ที่ปรากฏในข่าว
    แจ้งเตือนการรั่วไหลของข้อมูลแบบเรียลไทม์
    ตรวจพบข้อมูลบัญชีที่รั่วใน breach dumps หรือ dark web
    แจ้งเตือนภายในไม่กี่นาที พร้อมแหล่งที่มาและคำแนะนำ

    สร้างบนฐานข้อมูลของ XposedOrNot
    ใช้ข้อมูลจากการติดตาม breach กว่า 10 พันล้านรายการใน 8 ปี
    รองรับการค้นหาหลายล้านครั้งทั่วโลก

    โครงสร้างที่ปลอดภัยระดับองค์กร
    ใช้ Cloudflare และ Google Cloud เป็นโครงสร้างพื้นฐาน
    รองรับการใช้งานระดับ enterprise ด้วยความเร็วและความเสถียรสูง

    เชื่อมต่อกับระบบที่องค์กรใช้อยู่แล้ว
    รองรับการเชื่อมต่อกับ SIEM, Slack, Microsoft Teams และอีเมล
    มี API สำหรับนักพัฒนา พร้อมระบบ log และ token

    รองรับการตรวจสอบหลายโดเมนและอีเมลจำนวนมาก
    ตั้งค่า threshold การแจ้งเตือนได้ตามต้องการ
    ใช้งานได้ทั้งองค์กรใหญ่และทีมเล็กที่ไม่มี SOC

    มีโมเดลการใช้งานที่ยืดหยุ่นและราคาคุ้มค่า
    ค่าบริการแบบรายเดือนที่โปร่งใส
    ประหยัดกว่าระบบ threat intel แบบเดิมถึง 5–10 เท่า

    องค์กรที่ไม่มีระบบแจ้งเตือนแบบเรียลไทม์เสี่ยงสูง
    อาจรู้ตัวช้าเมื่อข้อมูลบัญชีถูกแฮก
    การตอบสนองล่าช้าอาจนำไปสู่การเข้าถึงระบบภายในโดยผู้ไม่หวังดี

    การพึ่งพาเครื่องมือแบบเดิมอาจไม่ทันต่อภัยคุกคามยุคใหม่
    ระบบที่ต้องตั้งค่าซับซ้อนและสัญญาระยะยาวอาจไม่เหมาะกับทีมเล็ก
    การไม่มี API หรือการเชื่อมต่อกับระบบที่ใช้อยู่แล้วทำให้การตอบสนองช้า

    การไม่ตรวจสอบข้อมูลใน dark web เป็นช่องโหว่สำคัญ
    ข้อมูลที่รั่วอาจถูกใช้โจมตีแบบ account takeover หรือ ransomware
    การไม่รู้ว่าข้อมูลขององค์กรอยู่ในมือใครคือความเสี่ยงที่ควบคุมไม่ได้

    https://hackread.com/xonplus-launches-real-time-breach-alerting-platform-for-enterprise-credential-exposure/
    🧠 เรื่องเล่าจากโลกไซเบอร์: เมื่อ “การรู้เร็ว” คืออาวุธลับขององค์กร ลองจินตนาการว่าองค์กรของคุณมีระบบความปลอดภัยครบครัน แต่กลับรู้ว่าข้อมูลบัญชีผู้ใช้งานถูกแฮก...จากอีเมลเรียกค่าไถ่ หรือจากฝ่ายซัพพอร์ตที่แจ้งว่ามีคนล็อกอินผิดปกติ! นั่นคือปัญหาที่ xonPlus ต้องการแก้—แพลตฟอร์มใหม่ที่เพิ่งเปิดตัวจากทีมเบื้องหลัง XposedOrNot ซึ่งเป็นเครื่องมือโอเพ่นซอร์สสำหรับตรวจสอบการรั่วไหลของข้อมูลที่มีผู้ใช้หลายล้านคนทั่วโลก xonPlus ทำให้ทีมรักษาความปลอดภัยสามารถรู้ได้ทันทีเมื่ออีเมลหรือโดเมนขององค์กรปรากฏในฐานข้อมูลรั่วไหลหรือฟอรั่มในดาร์กเว็บ พร้อมแจ้งเตือนภายในไม่กี่นาทีหลังจากพบข้อมูลรั่วจริง ระบบนี้ไม่เพียงแค่ตรวจจับ แต่ยังเชื่อมต่อกับเครื่องมือที่องค์กรใช้อยู่แล้ว เช่น SIEM, Slack, Microsoft Teams และอีเมล เพื่อให้การตอบสนองเป็นไปอย่างรวดเร็วและมีประสิทธิภาพ ⭕ จุดเด่นของ xonPlus ที่ปรากฏในข่าว ✅ แจ้งเตือนการรั่วไหลของข้อมูลแบบเรียลไทม์ ➡️ ตรวจพบข้อมูลบัญชีที่รั่วใน breach dumps หรือ dark web ➡️ แจ้งเตือนภายในไม่กี่นาที พร้อมแหล่งที่มาและคำแนะนำ ✅ สร้างบนฐานข้อมูลของ XposedOrNot ➡️ ใช้ข้อมูลจากการติดตาม breach กว่า 10 พันล้านรายการใน 8 ปี ➡️ รองรับการค้นหาหลายล้านครั้งทั่วโลก ✅ โครงสร้างที่ปลอดภัยระดับองค์กร ➡️ ใช้ Cloudflare และ Google Cloud เป็นโครงสร้างพื้นฐาน ➡️ รองรับการใช้งานระดับ enterprise ด้วยความเร็วและความเสถียรสูง ✅ เชื่อมต่อกับระบบที่องค์กรใช้อยู่แล้ว ➡️ รองรับการเชื่อมต่อกับ SIEM, Slack, Microsoft Teams และอีเมล ➡️ มี API สำหรับนักพัฒนา พร้อมระบบ log และ token ✅ รองรับการตรวจสอบหลายโดเมนและอีเมลจำนวนมาก ➡️ ตั้งค่า threshold การแจ้งเตือนได้ตามต้องการ ➡️ ใช้งานได้ทั้งองค์กรใหญ่และทีมเล็กที่ไม่มี SOC ✅ มีโมเดลการใช้งานที่ยืดหยุ่นและราคาคุ้มค่า ➡️ ค่าบริการแบบรายเดือนที่โปร่งใส ➡️ ประหยัดกว่าระบบ threat intel แบบเดิมถึง 5–10 เท่า ‼️ องค์กรที่ไม่มีระบบแจ้งเตือนแบบเรียลไทม์เสี่ยงสูง ⛔ อาจรู้ตัวช้าเมื่อข้อมูลบัญชีถูกแฮก ⛔ การตอบสนองล่าช้าอาจนำไปสู่การเข้าถึงระบบภายในโดยผู้ไม่หวังดี ‼️ การพึ่งพาเครื่องมือแบบเดิมอาจไม่ทันต่อภัยคุกคามยุคใหม่ ⛔ ระบบที่ต้องตั้งค่าซับซ้อนและสัญญาระยะยาวอาจไม่เหมาะกับทีมเล็ก ⛔ การไม่มี API หรือการเชื่อมต่อกับระบบที่ใช้อยู่แล้วทำให้การตอบสนองช้า ‼️ การไม่ตรวจสอบข้อมูลใน dark web เป็นช่องโหว่สำคัญ ⛔ ข้อมูลที่รั่วอาจถูกใช้โจมตีแบบ account takeover หรือ ransomware ⛔ การไม่รู้ว่าข้อมูลขององค์กรอยู่ในมือใครคือความเสี่ยงที่ควบคุมไม่ได้ https://hackread.com/xonplus-launches-real-time-breach-alerting-platform-for-enterprise-credential-exposure/
    0 Comments 0 Shares 143 Views 0 Reviews
  • เรื่องเล่าจากข่าว: Meta ดึง “สมองเบื้องหลัง ChatGPT” มาสร้าง AI ที่ฉลาดกว่ามนุษย์

    ลองจินตนาการว่า Meta ไม่ได้แค่สร้างแอปโซเชียล แต่กำลังสร้าง “AI ที่ฉลาดระดับมนุษย์” หรือที่เรียกว่า Superintelligence — และเพื่อให้ฝันนี้เป็นจริง Mark Zuckerberg จึงดึงตัว Shengjia Zhao นักวิจัยระดับตำนานจาก OpenAI ผู้ร่วมสร้าง ChatGPT และ GPT-4 มาเป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Meta Superintelligence Lab

    Zhao ไม่ใช่แค่ผู้ร่วมสร้างโมเดล AI ที่คนทั่วโลกใช้ แต่ยังเป็นผู้นำด้าน “AI reasoning” หรือความสามารถในการคิดวิเคราะห์ของโมเดล ซึ่งเป็นหัวใจสำคัญของการพัฒนา AI ที่เข้าใจโลกได้จริง

    Meta ตั้งห้องแล็บนี้ขึ้นมาเพื่อรวมงานวิจัยจากโมเดล Llama และเป้าหมายระยะยาวในการสร้าง “ปัญญาประดิษฐ์ทั่วไป” (AGI) โดยแยกออกจากแล็บ FAIR ที่นำโดย Yann LeCun เพื่อให้มีความคล่องตัวและโฟกัสกับการสร้างโมเดลระดับแนวหน้า

    Meta แต่งตั้ง Shengjia Zhao เป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Superintelligence Lab
    Zhao เป็นผู้ร่วมสร้าง ChatGPT, GPT-4 และโมเดลย่อยของ OpenAI เช่น 4.1 และ o3
    เคยเป็นนักวิจัยหลักด้าน synthetic data และ AI reasoning ที่ OpenAI

    Superintelligence Lab เป็นหน่วยงานใหม่ของ Meta ที่เน้นการสร้าง AGI
    แยกจากแล็บ FAIR ที่เน้นวิจัยระยะยาว
    มีเป้าหมายสร้าง “full general intelligence” และเปิดเผยงานวิจัยเป็น open source

    Zhao จะทำงานร่วมกับ CEO Mark Zuckerberg และ Chief AI Officer Alexandr Wang
    Wang เคยเป็น CEO ของ Scale AI และถูกดึงตัวมาร่วมทีม
    Zhao จะกำหนดทิศทางงานวิจัยและเป้าหมายทางวิทยาศาสตร์ของแล็บ

    Meta เร่งดึงนักวิจัยจาก OpenAI และบริษัทคู่แข่ง
    มีการเสนอบรรจุเงินเดือนระดับ 8–9 หลัก พร้อมข้อเสนอที่หมดอายุในไม่กี่วัน
    เป็นส่วนหนึ่งของ “สงครามแย่งสมอง” ในวงการ AI

    Superintelligence Lab จะรวมงานจากโมเดล Llama และวิจัยระยะยาว
    เน้นการพัฒนาโมเดล reasoning ที่สามารถคิดวิเคราะห์ได้ลึก
    เตรียมใช้คลัสเตอร์ Prometheus ขนาด 1 กิกะวัตต์ในโอไฮโอสำหรับเทรนโมเดล

    https://www.thestar.com.my/tech/tech-news/2025/07/26/meta-names-chatgpt-co-creator-as-chief-scientist-of-superintelligence-lab
    🧠 เรื่องเล่าจากข่าว: Meta ดึง “สมองเบื้องหลัง ChatGPT” มาสร้าง AI ที่ฉลาดกว่ามนุษย์ ลองจินตนาการว่า Meta ไม่ได้แค่สร้างแอปโซเชียล แต่กำลังสร้าง “AI ที่ฉลาดระดับมนุษย์” หรือที่เรียกว่า Superintelligence — และเพื่อให้ฝันนี้เป็นจริง Mark Zuckerberg จึงดึงตัว Shengjia Zhao นักวิจัยระดับตำนานจาก OpenAI ผู้ร่วมสร้าง ChatGPT และ GPT-4 มาเป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Meta Superintelligence Lab Zhao ไม่ใช่แค่ผู้ร่วมสร้างโมเดล AI ที่คนทั่วโลกใช้ แต่ยังเป็นผู้นำด้าน “AI reasoning” หรือความสามารถในการคิดวิเคราะห์ของโมเดล ซึ่งเป็นหัวใจสำคัญของการพัฒนา AI ที่เข้าใจโลกได้จริง Meta ตั้งห้องแล็บนี้ขึ้นมาเพื่อรวมงานวิจัยจากโมเดล Llama และเป้าหมายระยะยาวในการสร้าง “ปัญญาประดิษฐ์ทั่วไป” (AGI) โดยแยกออกจากแล็บ FAIR ที่นำโดย Yann LeCun เพื่อให้มีความคล่องตัวและโฟกัสกับการสร้างโมเดลระดับแนวหน้า ✅ Meta แต่งตั้ง Shengjia Zhao เป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Superintelligence Lab ➡️ Zhao เป็นผู้ร่วมสร้าง ChatGPT, GPT-4 และโมเดลย่อยของ OpenAI เช่น 4.1 และ o3 ➡️ เคยเป็นนักวิจัยหลักด้าน synthetic data และ AI reasoning ที่ OpenAI ✅ Superintelligence Lab เป็นหน่วยงานใหม่ของ Meta ที่เน้นการสร้าง AGI ➡️ แยกจากแล็บ FAIR ที่เน้นวิจัยระยะยาว ➡️ มีเป้าหมายสร้าง “full general intelligence” และเปิดเผยงานวิจัยเป็น open source ✅ Zhao จะทำงานร่วมกับ CEO Mark Zuckerberg และ Chief AI Officer Alexandr Wang ➡️ Wang เคยเป็น CEO ของ Scale AI และถูกดึงตัวมาร่วมทีม ➡️ Zhao จะกำหนดทิศทางงานวิจัยและเป้าหมายทางวิทยาศาสตร์ของแล็บ ✅ Meta เร่งดึงนักวิจัยจาก OpenAI และบริษัทคู่แข่ง ➡️ มีการเสนอบรรจุเงินเดือนระดับ 8–9 หลัก พร้อมข้อเสนอที่หมดอายุในไม่กี่วัน ➡️ เป็นส่วนหนึ่งของ “สงครามแย่งสมอง” ในวงการ AI ✅ Superintelligence Lab จะรวมงานจากโมเดล Llama และวิจัยระยะยาว ➡️ เน้นการพัฒนาโมเดล reasoning ที่สามารถคิดวิเคราะห์ได้ลึก ➡️ เตรียมใช้คลัสเตอร์ Prometheus ขนาด 1 กิกะวัตต์ในโอไฮโอสำหรับเทรนโมเดล https://www.thestar.com.my/tech/tech-news/2025/07/26/meta-names-chatgpt-co-creator-as-chief-scientist-of-superintelligence-lab
    WWW.THESTAR.COM.MY
    Meta names ChatGPT co-creator as chief scientist of Superintelligence Lab
    NEW YORK (Reuters) -Meta Platforms has appointed Shengjia Zhao, co-creator of ChatGPT, as chief scientist of its Superintelligence Lab, CEO Mark Zuckerberg said on Friday, as the company accelerates its push into advanced AI.
    0 Comments 0 Shares 159 Views 0 Reviews
  • เรื่องเล่าจากข่าว: เมื่อ Intel ตัดสินใจ “ตัดแขน” เพื่อรักษาหัวใจ

    ลองจินตนาการว่าคุณเป็นบริษัทที่เคยครองโลกด้านชิป PC แต่วันนี้ยอดขายตกต่ำ กำไรหาย และคู่แข่งอย่าง NVIDIA กับ AMD กำลังแซงหน้า — คุณจะทำยังไง?

    Intel ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan เลือกใช้วิธี “ตัดส่วนที่ไม่ใช่หัวใจ” เพื่อรักษาแกนหลักของธุรกิจ โดยล่าสุดประกาศแยกธุรกิจเครือข่ายและการสื่อสาร (Network & Edge Group หรือ NEX) ออกเป็นบริษัทอิสระ พร้อมเปิดรับนักลงทุนภายนอก

    NEX เคยสร้างรายได้ถึง $5.8 พันล้านในปี 2024 หรือประมาณ 11% ของรายได้รวมของ Intel แต่ถูกมองว่าไม่ใช่ “แกนหลัก” ในยุคที่ AI และชิป PC กลับมาเป็นจุดแข็งที่ต้องเร่งฟื้นฟู

    Intel จะยังคงถือหุ้นบางส่วนในบริษัทใหม่ เพื่อเก็บเกี่ยวผลตอบแทนในอนาคต แต่จะไม่บริหารโดยตรงอีกต่อไป

    Intel เตรียมแยกธุรกิจเครือข่ายและการสื่อสารออกเป็นบริษัทอิสระ
    หน่วยงาน NEX เคยสร้างรายได้ $5.8 พันล้านในปี 2024
    คิดเป็น 11% ของรายได้รวมของ Intel

    CEO Lip-Bu Tan ใช้กลยุทธ์ “Back to Core”
    เน้นธุรกิจหลักคือชิป PC และศูนย์ข้อมูล
    ลดการลงทุนในธุรกิจที่ไม่ใช่แกนหลัก เช่น telecom infrastructure

    Intel จะยังคงเป็น “ผู้ลงทุนหลัก” ในบริษัทใหม่
    คล้ายกับกรณีขายหุ้น Altera ให้ Silver Lake
    เปิดรับนักลงทุนภายนอกเพื่อเร่งการเติบโต

    เป้าหมายคือการฟื้นฟูกำไรและลดต้นทุน
    Intel ขาดทุนต่อเนื่อง 6 ไตรมาส รวม $1.25 พันล้านในไตรมาสล่าสุด
    มีแผนลดค่าใช้จ่าย $10 พันล้าน และปลดพนักงาน 20,000 คน

    การแยก NEX จะช่วยให้ Intel โฟกัสกับ AI และโรงงานผลิตชิป
    เงินที่ได้จะนำไปลงทุนในโรงงานที่โอไฮโอและ R&D ด้าน AI
    ตั้งเป้าให้ธุรกิจ foundry มีกำไรภายในปี 2030

    บริษัทใหม่จะเน้น Ethernet, edge security และ AI networking
    แข่งกับ Broadcom, Marvell, AMD และ NVIDIA
    มีอิสระในการตัดสินใจและนวัตกรรมเร็วขึ้น

    https://www.thestar.com.my/tech/tech-news/2025/07/26/intel-to-separate-networking-unit-as-new-ceo-tan-overhauls-business
    🧠 เรื่องเล่าจากข่าว: เมื่อ Intel ตัดสินใจ “ตัดแขน” เพื่อรักษาหัวใจ ลองจินตนาการว่าคุณเป็นบริษัทที่เคยครองโลกด้านชิป PC แต่วันนี้ยอดขายตกต่ำ กำไรหาย และคู่แข่งอย่าง NVIDIA กับ AMD กำลังแซงหน้า — คุณจะทำยังไง? Intel ภายใต้การนำของ CEO คนใหม่ Lip-Bu Tan เลือกใช้วิธี “ตัดส่วนที่ไม่ใช่หัวใจ” เพื่อรักษาแกนหลักของธุรกิจ โดยล่าสุดประกาศแยกธุรกิจเครือข่ายและการสื่อสาร (Network & Edge Group หรือ NEX) ออกเป็นบริษัทอิสระ พร้อมเปิดรับนักลงทุนภายนอก NEX เคยสร้างรายได้ถึง $5.8 พันล้านในปี 2024 หรือประมาณ 11% ของรายได้รวมของ Intel แต่ถูกมองว่าไม่ใช่ “แกนหลัก” ในยุคที่ AI และชิป PC กลับมาเป็นจุดแข็งที่ต้องเร่งฟื้นฟู Intel จะยังคงถือหุ้นบางส่วนในบริษัทใหม่ เพื่อเก็บเกี่ยวผลตอบแทนในอนาคต แต่จะไม่บริหารโดยตรงอีกต่อไป ✅ Intel เตรียมแยกธุรกิจเครือข่ายและการสื่อสารออกเป็นบริษัทอิสระ ➡️ หน่วยงาน NEX เคยสร้างรายได้ $5.8 พันล้านในปี 2024 ➡️ คิดเป็น 11% ของรายได้รวมของ Intel ✅ CEO Lip-Bu Tan ใช้กลยุทธ์ “Back to Core” ➡️ เน้นธุรกิจหลักคือชิป PC และศูนย์ข้อมูล ➡️ ลดการลงทุนในธุรกิจที่ไม่ใช่แกนหลัก เช่น telecom infrastructure ✅ Intel จะยังคงเป็น “ผู้ลงทุนหลัก” ในบริษัทใหม่ ➡️ คล้ายกับกรณีขายหุ้น Altera ให้ Silver Lake ➡️ เปิดรับนักลงทุนภายนอกเพื่อเร่งการเติบโต ✅ เป้าหมายคือการฟื้นฟูกำไรและลดต้นทุน ➡️ Intel ขาดทุนต่อเนื่อง 6 ไตรมาส รวม $1.25 พันล้านในไตรมาสล่าสุด ➡️ มีแผนลดค่าใช้จ่าย $10 พันล้าน และปลดพนักงาน 20,000 คน ✅ การแยก NEX จะช่วยให้ Intel โฟกัสกับ AI และโรงงานผลิตชิป ➡️ เงินที่ได้จะนำไปลงทุนในโรงงานที่โอไฮโอและ R&D ด้าน AI ➡️ ตั้งเป้าให้ธุรกิจ foundry มีกำไรภายในปี 2030 ✅ บริษัทใหม่จะเน้น Ethernet, edge security และ AI networking ➡️ แข่งกับ Broadcom, Marvell, AMD และ NVIDIA ➡️ มีอิสระในการตัดสินใจและนวัตกรรมเร็วขึ้น https://www.thestar.com.my/tech/tech-news/2025/07/26/intel-to-separate-networking-unit-as-new-ceo-tan-overhauls-business
    WWW.THESTAR.COM.MY
    Intel to separate networking unit as new CEO Tan overhauls business
    (Reuters) -Intel is planning to separate its networking and communications unit into a stand-alone company and has begun the process of identifying investors, the chipmaker said on Friday, as new CEO Lip-Bu Tan looks to streamline its operations.
    0 Comments 0 Shares 146 Views 0 Reviews
  • เรื่องเล่าจากข่าว: เมื่อมนุษย์เริ่ม “พูดเหมือน AI” โดยไม่รู้ตัว

    ลองจินตนาการว่าเพื่อนคุณพูดว่า “เราควร delve เข้าไปในประเด็นนี้อย่าง meticulous” — ฟังดูฉลาดใช่ไหม? แต่คุณอาจแอบสงสัยว่า…นี่เขาคิดเอง หรือเขาใช้ ChatGPT บ่อยเกินไป?

    งานวิจัยล่าสุดจากสถาบัน Max Planck Institute for Human Development ในเยอรมนีพบว่า มนุษย์กำลังเริ่มพูดเหมือน ChatGPT — ไม่ใช่แค่เขียน แต่ “พูดออกมา” ด้วยคำศัพท์และโครงสร้างประโยคที่คล้ายกับ AI อย่างชัดเจน

    นักวิจัยเรียกคำเหล่านี้ว่า “GPT words” เช่น delve, comprehend, meticulous, realm, swift, underscore และ boast ซึ่งพบว่าเพิ่มขึ้นอย่างมีนัยสำคัญในวิดีโอ YouTube และพอดแคสต์กว่า 1 ล้านรายการหลังจาก ChatGPT เปิดตัว

    นี่ไม่ใช่แค่การเลียนแบบภาษาธรรมดา แต่เป็น “วงจรสะท้อนทางวัฒนธรรม” ที่มนุษย์สอน AI แล้ว AI ก็ย้อนกลับมาสอนมนุษย์อีกที — และอาจเปลี่ยนแปลงวิธีคิด การสื่อสาร และแม้แต่ตัวตนของเราในระยะยาว

    มนุษย์เริ่มพูดเหมือน ChatGPT อย่างชัดเจน
    ใช้คำศัพท์ที่ AI นิยม เช่น “delve”, “realm”, “meticulous”, “swift”, “boast”
    พบในวิดีโอ YouTube และพอดแคสต์กว่า 1.1 ล้านรายการ

    งานวิจัยจาก Max Planck Institute ใช้ข้อมูลขนาดใหญ่
    วิเคราะห์ก่อนและหลังการเปิดตัว ChatGPT ในปี 2022
    ใช้ GPT-4, GPT-3.5-turbo, GPT-4-turbo และ GPT-4o ในการวิเคราะห์

    เกิด “วงจรสะท้อนทางวัฒนธรรม” ระหว่างมนุษย์กับ AI
    AI เรียนรู้จากมนุษย์ แล้วมนุษย์ก็เริ่มเลียนแบบภาษาของ AI
    เป็นการเปลี่ยนแปลงที่อาจส่งผลต่อวัฒนธรรมและอัตลักษณ์

    ChatGPT มีแนวโน้มใช้ภาษาทางการและวิชาการ
    ต่างจาก AI อื่น เช่น Gemini ที่ใช้ภาษาพูดมากกว่า
    ส่งผลให้ผู้ใช้ ChatGPT เริ่มพูดด้วยโครงสร้างประโยคที่เป็นทางการมากขึ้น

    นักวิจัยชี้ว่าเรามักเลียนแบบคนที่ดู “ฉลาด” หรือ “มีอำนาจ”
    AI ถูกมองว่าเป็นแหล่งข้อมูลที่น่าเชื่อถือ
    ทำให้ผู้ใช้เริ่มเลียนแบบภาษาของ AI โดยไม่รู้ตัว

    https://www.thestar.com.my/tech/tech-news/2025/07/26/people-are-starting-to-talk-more-like-chatgpt
    🧠 เรื่องเล่าจากข่าว: เมื่อมนุษย์เริ่ม “พูดเหมือน AI” โดยไม่รู้ตัว ลองจินตนาการว่าเพื่อนคุณพูดว่า “เราควร delve เข้าไปในประเด็นนี้อย่าง meticulous” — ฟังดูฉลาดใช่ไหม? แต่คุณอาจแอบสงสัยว่า…นี่เขาคิดเอง หรือเขาใช้ ChatGPT บ่อยเกินไป? งานวิจัยล่าสุดจากสถาบัน Max Planck Institute for Human Development ในเยอรมนีพบว่า มนุษย์กำลังเริ่มพูดเหมือน ChatGPT — ไม่ใช่แค่เขียน แต่ “พูดออกมา” ด้วยคำศัพท์และโครงสร้างประโยคที่คล้ายกับ AI อย่างชัดเจน นักวิจัยเรียกคำเหล่านี้ว่า “GPT words” เช่น delve, comprehend, meticulous, realm, swift, underscore และ boast ซึ่งพบว่าเพิ่มขึ้นอย่างมีนัยสำคัญในวิดีโอ YouTube และพอดแคสต์กว่า 1 ล้านรายการหลังจาก ChatGPT เปิดตัว นี่ไม่ใช่แค่การเลียนแบบภาษาธรรมดา แต่เป็น “วงจรสะท้อนทางวัฒนธรรม” ที่มนุษย์สอน AI แล้ว AI ก็ย้อนกลับมาสอนมนุษย์อีกที — และอาจเปลี่ยนแปลงวิธีคิด การสื่อสาร และแม้แต่ตัวตนของเราในระยะยาว ✅ มนุษย์เริ่มพูดเหมือน ChatGPT อย่างชัดเจน ➡️ ใช้คำศัพท์ที่ AI นิยม เช่น “delve”, “realm”, “meticulous”, “swift”, “boast” ➡️ พบในวิดีโอ YouTube และพอดแคสต์กว่า 1.1 ล้านรายการ ✅ งานวิจัยจาก Max Planck Institute ใช้ข้อมูลขนาดใหญ่ ➡️ วิเคราะห์ก่อนและหลังการเปิดตัว ChatGPT ในปี 2022 ➡️ ใช้ GPT-4, GPT-3.5-turbo, GPT-4-turbo และ GPT-4o ในการวิเคราะห์ ✅ เกิด “วงจรสะท้อนทางวัฒนธรรม” ระหว่างมนุษย์กับ AI ➡️ AI เรียนรู้จากมนุษย์ แล้วมนุษย์ก็เริ่มเลียนแบบภาษาของ AI ➡️ เป็นการเปลี่ยนแปลงที่อาจส่งผลต่อวัฒนธรรมและอัตลักษณ์ ✅ ChatGPT มีแนวโน้มใช้ภาษาทางการและวิชาการ ➡️ ต่างจาก AI อื่น เช่น Gemini ที่ใช้ภาษาพูดมากกว่า ➡️ ส่งผลให้ผู้ใช้ ChatGPT เริ่มพูดด้วยโครงสร้างประโยคที่เป็นทางการมากขึ้น ✅ นักวิจัยชี้ว่าเรามักเลียนแบบคนที่ดู “ฉลาด” หรือ “มีอำนาจ” ➡️ AI ถูกมองว่าเป็นแหล่งข้อมูลที่น่าเชื่อถือ ➡️ ทำให้ผู้ใช้เริ่มเลียนแบบภาษาของ AI โดยไม่รู้ตัว https://www.thestar.com.my/tech/tech-news/2025/07/26/people-are-starting-to-talk-more-like-chatgpt
    WWW.THESTAR.COM.MY
    People are starting to talk more like ChatGPT
    A new study found that ChatGPT is changing our speech patterns, with its favourite words popping up more frequently in our conversations.
    0 Comments 0 Shares 128 Views 0 Reviews
  • เรื่องเล่าจากข่าว: เมื่อ “ความจำดีเกินไป” กลายเป็นภัยต่อความเป็นส่วนตัว

    ลองจินตนาการว่า Windows บันทึกภาพหน้าจอของคุณทุก ๆ 5 วินาที เพื่อให้คุณสามารถย้อนดูสิ่งที่เคยทำได้เหมือนมี “ความจำถ่ายภาพ” แบบ AI — ฟังดูสะดวกใช่ไหม? แต่สำหรับนักพัฒนาแอปที่ใส่ใจเรื่องความเป็นส่วนตัว เช่น Signal, Brave และ AdGuard นี่คือ “ฝันร้ายด้านความเป็นส่วนตัว” ที่ต้องรีบจัดการ

    ฟีเจอร์ Windows Recall ถูกออกแบบมาให้บันทึกภาพหน้าจออย่างต่อเนื่องเพื่อช่วยให้ผู้ใช้ค้นหาสิ่งที่เคยเห็นหรือทำได้ง่ายขึ้น แต่ปัญหาคือมันอาจบันทึกข้อมูลที่ละเอียดอ่อน เช่น รหัสผ่าน, ข้อมูลทางการเงิน, หรือข้อความส่วนตัว โดยไม่ได้รับความยินยอมจากผู้เกี่ยวข้อง

    Signal เป็นแอปแรกที่บล็อกไม่ให้ Recall จับภาพหน้าต่างแชทของตนได้ และล่าสุด Brave กับ AdGuard ก็ประกาศใช้วิธีการของตัวเองในการป้องกันไม่ให้ Recall บันทึกข้อมูลจากแอปของพวกเขาเช่นกัน

    Windows Recall คือฟีเจอร์ใหม่ของ Microsoft ที่บันทึกภาพหน้าจอทุกไม่กี่วินาที
    ใช้ AI เพื่อช่วยค้นหาข้อมูลที่เคยเห็นหรือทำบนเครื่อง
    ข้อมูลถูกเก็บไว้ในเครื่องและวิเคราะห์แบบออฟไลน์

    Signal, Brave และ AdGuard ออกมาต่อต้านฟีเจอร์นี้
    Signal ใช้ DRM API เพื่อป้องกันการจับภาพหน้าต่างแชท
    Brave ใช้ SetInputScope API เพื่อบล็อก Recall จากการจับภาพทุกแท็บในเบราว์เซอร์
    AdGuard เพิ่มตัวเลือก “Disable Windows Recall” ในเวอร์ชันล่าสุด

    Microsoft อนุญาตให้นักพัฒนาใช้ API เพื่อบล็อก Recall
    เป็นการตอบสนองต่อเสียงวิจารณ์จากผู้ใช้และนักวิจัยด้านความปลอดภัย
    แต่ยังมีข้อจำกัดในการควบคุมระดับแอปที่ไม่ใช่เบราว์เซอร์

    Brave ตั้งค่าบล็อก Recall เป็นค่าเริ่มต้น
    ผู้ใช้สามารถเปิดใช้งานได้เองหากต้องการ
    เป็นการปกป้องความเป็นส่วนตัวโดยไม่ต้องพึ่งผู้ใช้ตัดสินใจเองทุกครั้ง

    https://www.techspot.com/news/108817-privacy-apps-signal-brave-adguard-push-back-against.html
    🧠 เรื่องเล่าจากข่าว: เมื่อ “ความจำดีเกินไป” กลายเป็นภัยต่อความเป็นส่วนตัว ลองจินตนาการว่า Windows บันทึกภาพหน้าจอของคุณทุก ๆ 5 วินาที เพื่อให้คุณสามารถย้อนดูสิ่งที่เคยทำได้เหมือนมี “ความจำถ่ายภาพ” แบบ AI — ฟังดูสะดวกใช่ไหม? แต่สำหรับนักพัฒนาแอปที่ใส่ใจเรื่องความเป็นส่วนตัว เช่น Signal, Brave และ AdGuard นี่คือ “ฝันร้ายด้านความเป็นส่วนตัว” ที่ต้องรีบจัดการ ฟีเจอร์ Windows Recall ถูกออกแบบมาให้บันทึกภาพหน้าจออย่างต่อเนื่องเพื่อช่วยให้ผู้ใช้ค้นหาสิ่งที่เคยเห็นหรือทำได้ง่ายขึ้น แต่ปัญหาคือมันอาจบันทึกข้อมูลที่ละเอียดอ่อน เช่น รหัสผ่าน, ข้อมูลทางการเงิน, หรือข้อความส่วนตัว โดยไม่ได้รับความยินยอมจากผู้เกี่ยวข้อง Signal เป็นแอปแรกที่บล็อกไม่ให้ Recall จับภาพหน้าต่างแชทของตนได้ และล่าสุด Brave กับ AdGuard ก็ประกาศใช้วิธีการของตัวเองในการป้องกันไม่ให้ Recall บันทึกข้อมูลจากแอปของพวกเขาเช่นกัน ✅ Windows Recall คือฟีเจอร์ใหม่ของ Microsoft ที่บันทึกภาพหน้าจอทุกไม่กี่วินาที ➡️ ใช้ AI เพื่อช่วยค้นหาข้อมูลที่เคยเห็นหรือทำบนเครื่อง ➡️ ข้อมูลถูกเก็บไว้ในเครื่องและวิเคราะห์แบบออฟไลน์ ✅ Signal, Brave และ AdGuard ออกมาต่อต้านฟีเจอร์นี้ ➡️ Signal ใช้ DRM API เพื่อป้องกันการจับภาพหน้าต่างแชท ➡️ Brave ใช้ SetInputScope API เพื่อบล็อก Recall จากการจับภาพทุกแท็บในเบราว์เซอร์ ➡️ AdGuard เพิ่มตัวเลือก “Disable Windows Recall” ในเวอร์ชันล่าสุด ✅ Microsoft อนุญาตให้นักพัฒนาใช้ API เพื่อบล็อก Recall ➡️ เป็นการตอบสนองต่อเสียงวิจารณ์จากผู้ใช้และนักวิจัยด้านความปลอดภัย ➡️ แต่ยังมีข้อจำกัดในการควบคุมระดับแอปที่ไม่ใช่เบราว์เซอร์ ✅ Brave ตั้งค่าบล็อก Recall เป็นค่าเริ่มต้น ➡️ ผู้ใช้สามารถเปิดใช้งานได้เองหากต้องการ ➡️ เป็นการปกป้องความเป็นส่วนตัวโดยไม่ต้องพึ่งผู้ใช้ตัดสินใจเองทุกครั้ง https://www.techspot.com/news/108817-privacy-apps-signal-brave-adguard-push-back-against.html
    WWW.TECHSPOT.COM
    Privacy apps Signal, Brave, and AdGuard push back against Windows Recall
    Signal was one of the first apps to block Windows Recall from capturing screenshots of its interface, and more developers have since followed suit. This week, both...
    0 Comments 0 Shares 146 Views 0 Reviews
  • เรื่องเล่าจากข่าว: เกมเอาชีวิตรอดที่ “ขโมยชีวิตดิจิทัล” ของคุณ

    ลองจินตนาการว่าคุณโหลดเกมเอาชีวิตรอดชื่อ Chemia จาก Steam เพื่อเล่นในช่วง Early Access แต่แทนที่จะได้สนุกกับการสร้างฐานและฝ่าฟันภัยพิบัติ คุณกลับโดนขโมยข้อมูลส่วนตัวและคริปโตแบบไม่รู้ตัว — นี่คือสิ่งที่เกิดขึ้นจริง!

    บริษัทความปลอดภัยไซเบอร์ Prodaft เปิดเผยว่าเกม Chemia ถูกฝังมัลแวร์ 3 สายพันธุ์ ได้แก่:
    - Fickle Stealer: ขโมยข้อมูลจากเบราว์เซอร์, password manager และ crypto wallet
    - Vidar Stealer: มัลแวร์แบบบริการ (Malware-as-a-Service) ที่เชื่อมต่อผ่านโซเชียลมีเดีย
    - HijackLoader: ตัวโหลดมัลแวร์ที่สามารถติดตั้งภัยคุกคามอื่นในอนาคต

    เกมนี้ถูกแจกผ่านระบบ Playtest ของ Steam ซึ่งต้องขอสิทธิ์เข้าถึงก่อนเล่น ทำให้ดูเหมือนปลอดภัย แต่จริง ๆ แล้วเป็นช่องทางที่แฮกเกอร์ใช้หลบเลี่ยงการตรวจสอบของแพลตฟอร์ม

    เกม Chemia ถูกใช้เป็นช่องทางแพร่มัลแวร์
    ฝังมัลแวร์ 3 ชนิด: Fickle Stealer, Vidar Stealer, HijackLoader
    มัลแวร์ทำงานเมื่อผู้ใช้เปิดเกม โดยรันควบคู่กับแอปพลิเคชันจริง

    มัลแวร์แต่ละตัวมีหน้าที่เฉพาะ
    Fickle Stealer: ใช้ PowerShell ขโมยข้อมูลระบบและไฟล์สำคัญ
    Vidar Stealer: เชื่อมต่อผ่านโซเชียลมีเดียเพื่อส่งข้อมูล
    HijackLoader: ใช้ติดตั้งมัลแวร์อื่นในอนาคต

    เกมถูกแจกผ่านระบบ Playtest ของ Steam
    ต้องขอสิทธิ์ก่อนเล่น ทำให้ดูเหมือนปลอดภัย
    ไม่มีรีวิวหรือข้อมูลจากนักพัฒนาอื่น ทำให้ตรวจสอบยาก

    นักพัฒนา Aether Forge Studios ไม่มีตัวตนชัดเจน
    ไม่มีเว็บไซต์หรือโซเชียลมีเดียที่เชื่อมโยงกับเกม
    อาจเป็นบัญชีปลอมที่ใช้หลอกลวงผู้ใช้

    Prodaft เผยว่าแฮกเกอร์ชื่อ EncryptHub อยู่เบื้องหลัง
    เคยมีประวัติการโจมตีแบบ spear-phishing ตั้งแต่ปี 2024
    แชร์ Indicators of Compromise (IOCs) บน GitHub เพื่อช่วยตรวจสอบ

    เกมบนแพลตฟอร์มที่เชื่อถือได้ก็อาจไม่ปลอดภัย
    Steam ไม่สามารถตรวจสอบมัลแวร์ในทุกเกมได้ทันที
    ผู้ใช้มักเชื่อว่าการโหลดจาก Steam คือ “ปลอดภัยโดยอัตโนมัติ”

    มัลแวร์สามารถขโมยข้อมูลสำคัญได้ทันทีที่เปิดเกม
    ข้อมูลที่ถูกขโมยรวมถึงรหัสผ่าน, session token, และ crypto wallet
    อาจนำไปสู่การสูญเสียทางการเงินและการขโมยตัวตน

    ระบบ Early Access และ Playtest อาจถูกใช้เป็นช่องทางโจมตี
    เกมที่ยังไม่เปิดตัวเต็มรูปแบบอาจไม่มีการตรวจสอบเข้มงวด
    แฮกเกอร์ใช้ช่องโหว่นี้ในการฝังโค้ดอันตราย

    ผู้ใช้ที่เคยเล่น Chemia ควรตรวจสอบระบบทันที
    ลบเกมออกจากเครื่อง
    สแกนมัลแวร์เต็มระบบ
    เปลี่ยนรหัสผ่านทุกบัญชีที่เคยล็อกอินระหว่างเล่นเกม

    https://www.tomshardware.com/tech-industry/cyber-security/hacker-plants-three-strains-of-malware-in-a-steam-early-access-game-called-chemia-security-company-found-crypto-jacking-infostealers-and-a-backdoor-to-install-yet-more-malware-in-the-future
    🧠 เรื่องเล่าจากข่าว: เกมเอาชีวิตรอดที่ “ขโมยชีวิตดิจิทัล” ของคุณ ลองจินตนาการว่าคุณโหลดเกมเอาชีวิตรอดชื่อ Chemia จาก Steam เพื่อเล่นในช่วง Early Access แต่แทนที่จะได้สนุกกับการสร้างฐานและฝ่าฟันภัยพิบัติ คุณกลับโดนขโมยข้อมูลส่วนตัวและคริปโตแบบไม่รู้ตัว — นี่คือสิ่งที่เกิดขึ้นจริง! บริษัทความปลอดภัยไซเบอร์ Prodaft เปิดเผยว่าเกม Chemia ถูกฝังมัลแวร์ 3 สายพันธุ์ ได้แก่: - Fickle Stealer: ขโมยข้อมูลจากเบราว์เซอร์, password manager และ crypto wallet - Vidar Stealer: มัลแวร์แบบบริการ (Malware-as-a-Service) ที่เชื่อมต่อผ่านโซเชียลมีเดีย - HijackLoader: ตัวโหลดมัลแวร์ที่สามารถติดตั้งภัยคุกคามอื่นในอนาคต เกมนี้ถูกแจกผ่านระบบ Playtest ของ Steam ซึ่งต้องขอสิทธิ์เข้าถึงก่อนเล่น ทำให้ดูเหมือนปลอดภัย แต่จริง ๆ แล้วเป็นช่องทางที่แฮกเกอร์ใช้หลบเลี่ยงการตรวจสอบของแพลตฟอร์ม ✅ เกม Chemia ถูกใช้เป็นช่องทางแพร่มัลแวร์ ➡️ ฝังมัลแวร์ 3 ชนิด: Fickle Stealer, Vidar Stealer, HijackLoader ➡️ มัลแวร์ทำงานเมื่อผู้ใช้เปิดเกม โดยรันควบคู่กับแอปพลิเคชันจริง ✅ มัลแวร์แต่ละตัวมีหน้าที่เฉพาะ ➡️ Fickle Stealer: ใช้ PowerShell ขโมยข้อมูลระบบและไฟล์สำคัญ ➡️ Vidar Stealer: เชื่อมต่อผ่านโซเชียลมีเดียเพื่อส่งข้อมูล ➡️ HijackLoader: ใช้ติดตั้งมัลแวร์อื่นในอนาคต ✅ เกมถูกแจกผ่านระบบ Playtest ของ Steam ➡️ ต้องขอสิทธิ์ก่อนเล่น ทำให้ดูเหมือนปลอดภัย ➡️ ไม่มีรีวิวหรือข้อมูลจากนักพัฒนาอื่น ทำให้ตรวจสอบยาก ✅ นักพัฒนา Aether Forge Studios ไม่มีตัวตนชัดเจน ➡️ ไม่มีเว็บไซต์หรือโซเชียลมีเดียที่เชื่อมโยงกับเกม ➡️ อาจเป็นบัญชีปลอมที่ใช้หลอกลวงผู้ใช้ ✅ Prodaft เผยว่าแฮกเกอร์ชื่อ EncryptHub อยู่เบื้องหลัง ➡️ เคยมีประวัติการโจมตีแบบ spear-phishing ตั้งแต่ปี 2024 ➡️ แชร์ Indicators of Compromise (IOCs) บน GitHub เพื่อช่วยตรวจสอบ ‼️ เกมบนแพลตฟอร์มที่เชื่อถือได้ก็อาจไม่ปลอดภัย ⛔ Steam ไม่สามารถตรวจสอบมัลแวร์ในทุกเกมได้ทันที ⛔ ผู้ใช้มักเชื่อว่าการโหลดจาก Steam คือ “ปลอดภัยโดยอัตโนมัติ” ‼️ มัลแวร์สามารถขโมยข้อมูลสำคัญได้ทันทีที่เปิดเกม ⛔ ข้อมูลที่ถูกขโมยรวมถึงรหัสผ่าน, session token, และ crypto wallet ⛔ อาจนำไปสู่การสูญเสียทางการเงินและการขโมยตัวตน ‼️ ระบบ Early Access และ Playtest อาจถูกใช้เป็นช่องทางโจมตี ⛔ เกมที่ยังไม่เปิดตัวเต็มรูปแบบอาจไม่มีการตรวจสอบเข้มงวด ⛔ แฮกเกอร์ใช้ช่องโหว่นี้ในการฝังโค้ดอันตราย ‼️ ผู้ใช้ที่เคยเล่น Chemia ควรตรวจสอบระบบทันที ⛔ ลบเกมออกจากเครื่อง ⛔ สแกนมัลแวร์เต็มระบบ ⛔ เปลี่ยนรหัสผ่านทุกบัญชีที่เคยล็อกอินระหว่างเล่นเกม https://www.tomshardware.com/tech-industry/cyber-security/hacker-plants-three-strains-of-malware-in-a-steam-early-access-game-called-chemia-security-company-found-crypto-jacking-infostealers-and-a-backdoor-to-install-yet-more-malware-in-the-future
    0 Comments 0 Shares 190 Views 0 Reviews
  • เรื่องเล่าจากข่าว: เรือที่ “คิดเองได้” กำลังจะเปลี่ยนโลกการขนส่ง

    ลองจินตนาการว่าเรือขนส่งขนาดมหึมา 750 ฟุต ที่บรรทุกรถยนต์กว่า 7,000 คัน กำลังแล่นข้ามมหาสมุทรโดยไม่ต้องมีคนควบคุม — นี่ไม่ใช่นิยายไซไฟ แต่คือแผนจริงของ Hyundai Glovis ที่ร่วมมือกับ Avikus บริษัทเทคโนโลยีในเครือ HD Hyundai เพื่อเปลี่ยนเรือขนส่งให้กลายเป็น “เรืออัตโนมัติที่ขับเคลื่อนด้วย AI”

    ระบบที่ใช้ชื่อว่า HiNAS (Hyundai Intelligent Navigation Assistant System) จะถูกติดตั้งในเรือ 7 ลำภายในปี 2026 โดยเป็นระบบระดับ MASS Level-2 ที่สามารถควบคุมระยะไกลและปรับเส้นทางแบบเรียลไทม์ผ่าน AI แม้จะยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่ก็ถือเป็นก้าวใหญ่ของอุตสาหกรรมเดินเรือ

    เป้าหมายของโครงการนี้คือการลดการใช้เชื้อเพลิง เพิ่มประสิทธิภาพการเดินทาง และลดความผิดพลาดจากมนุษย์ ซึ่งเป็นสาเหตุหลักของอุบัติเหตุทางทะเล

    Hyundai Glovis ร่วมมือกับ Avikus พัฒนาเรือขนส่งอัตโนมัติ
    ใช้ระบบ HiNAS ที่พัฒนาโดย Avikus ในเครือ HD Hyundai
    ติดตั้งในเรือขนส่งรถยนต์ 7 ลำภายในกลางปี 2026

    ระบบ HiNAS เป็น MASS Level-2
    รองรับการควบคุมระยะไกลและปรับเส้นทางด้วย AI
    ยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่สามารถตัดสินใจได้เองบางส่วน

    เรือ Sunrise จะเป็นเรือขนส่ง AI ที่ใหญ่ที่สุดในโลก
    ยาว 229.9 เมตร บรรทุกได้ 7,000 คัน
    เป็นเรือแรกที่ติดตั้งระบบ AI แบบเต็มรูปแบบ

    เป้าหมายคือเพิ่มประสิทธิภาพและลดต้นทุน
    ลดการใช้เชื้อเพลิงได้ถึง 3.9% จากการทดลอง
    ลดความเสี่ยงจากอุบัติเหตุที่เกิดจากมนุษย์

    เป็นส่วนหนึ่งของแผนลงทุน $6.5 พันล้านของ Glovis
    เพื่อเปลี่ยนองค์กรสู่ “Smart Logistics Company” ภายในปี 2030
    รวมถึงเป้าหมาย Net Zero ภายในปี 2045

    Avikus เคยสร้างประวัติศาสตร์ด้วยการนำเรือ LNG ข้ามมหาสมุทรแบบอัตโนมัติ
    ในปี 2022 เรือ LNG ขนาด 300 เมตรเดินทางข้ามมหาสมุทรแอตแลนติกด้วยระบบ AI
    ลดการปล่อยคาร์บอน 5% และเพิ่มประสิทธิภาพเชื้อเพลิง 7%

    https://www.techradar.com/pro/shipping-giant-set-to-roll-out-worlds-first-ai-controlled-autonomous-car-carrying-ships-at-750-ft-long-and-weighing-almost-100-000-tons-its-probably-the-largest-ai-driven-vessel-ever
    🧠 เรื่องเล่าจากข่าว: เรือที่ “คิดเองได้” กำลังจะเปลี่ยนโลกการขนส่ง ลองจินตนาการว่าเรือขนส่งขนาดมหึมา 750 ฟุต ที่บรรทุกรถยนต์กว่า 7,000 คัน กำลังแล่นข้ามมหาสมุทรโดยไม่ต้องมีคนควบคุม — นี่ไม่ใช่นิยายไซไฟ แต่คือแผนจริงของ Hyundai Glovis ที่ร่วมมือกับ Avikus บริษัทเทคโนโลยีในเครือ HD Hyundai เพื่อเปลี่ยนเรือขนส่งให้กลายเป็น “เรืออัตโนมัติที่ขับเคลื่อนด้วย AI” ระบบที่ใช้ชื่อว่า HiNAS (Hyundai Intelligent Navigation Assistant System) จะถูกติดตั้งในเรือ 7 ลำภายในปี 2026 โดยเป็นระบบระดับ MASS Level-2 ที่สามารถควบคุมระยะไกลและปรับเส้นทางแบบเรียลไทม์ผ่าน AI แม้จะยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่ก็ถือเป็นก้าวใหญ่ของอุตสาหกรรมเดินเรือ เป้าหมายของโครงการนี้คือการลดการใช้เชื้อเพลิง เพิ่มประสิทธิภาพการเดินทาง และลดความผิดพลาดจากมนุษย์ ซึ่งเป็นสาเหตุหลักของอุบัติเหตุทางทะเล ✅ Hyundai Glovis ร่วมมือกับ Avikus พัฒนาเรือขนส่งอัตโนมัติ ➡️ ใช้ระบบ HiNAS ที่พัฒนาโดย Avikus ในเครือ HD Hyundai ➡️ ติดตั้งในเรือขนส่งรถยนต์ 7 ลำภายในกลางปี 2026 ✅ ระบบ HiNAS เป็น MASS Level-2 ➡️ รองรับการควบคุมระยะไกลและปรับเส้นทางด้วย AI ➡️ ยังไม่ใช่ระบบไร้คนขับเต็มรูปแบบ แต่สามารถตัดสินใจได้เองบางส่วน ✅ เรือ Sunrise จะเป็นเรือขนส่ง AI ที่ใหญ่ที่สุดในโลก ➡️ ยาว 229.9 เมตร บรรทุกได้ 7,000 คัน ➡️ เป็นเรือแรกที่ติดตั้งระบบ AI แบบเต็มรูปแบบ ✅ เป้าหมายคือเพิ่มประสิทธิภาพและลดต้นทุน ➡️ ลดการใช้เชื้อเพลิงได้ถึง 3.9% จากการทดลอง ➡️ ลดความเสี่ยงจากอุบัติเหตุที่เกิดจากมนุษย์ ✅ เป็นส่วนหนึ่งของแผนลงทุน $6.5 พันล้านของ Glovis ➡️ เพื่อเปลี่ยนองค์กรสู่ “Smart Logistics Company” ภายในปี 2030 ➡️ รวมถึงเป้าหมาย Net Zero ภายในปี 2045 ✅ Avikus เคยสร้างประวัติศาสตร์ด้วยการนำเรือ LNG ข้ามมหาสมุทรแบบอัตโนมัติ ➡️ ในปี 2022 เรือ LNG ขนาด 300 เมตรเดินทางข้ามมหาสมุทรแอตแลนติกด้วยระบบ AI ➡️ ลดการปล่อยคาร์บอน 5% และเพิ่มประสิทธิภาพเชื้อเพลิง 7% https://www.techradar.com/pro/shipping-giant-set-to-roll-out-worlds-first-ai-controlled-autonomous-car-carrying-ships-at-750-ft-long-and-weighing-almost-100-000-tons-its-probably-the-largest-ai-driven-vessel-ever
    0 Comments 0 Shares 174 Views 0 Reviews
  • เรื่องเล่าจากข่าว: “แพนด้าน่ารัก” ที่แอบขุดคริปโตในเครื่องคุณ

    ลองจินตนาการว่าคุณเปิดภาพแพนด้าน่ารักจากเว็บแชร์รูปภาพ แล้วเบื้องหลังภาพนั้นกลับมีมัลแวร์ที่กำลังใช้ CPU และ GPU ของคุณขุดคริปโตอยู่เงียบ ๆ — นี่คือสิ่งที่เกิดขึ้นจริงกับมัลแวร์ตัวใหม่ชื่อว่า Koske

    Koske เป็นมัลแวร์บน Linux ที่ใช้เทคนิค “polyglot file” คือไฟล์ที่สามารถเป็นได้ทั้งภาพและโค้ดในเวลาเดียวกัน โดยแฮกเกอร์จะฝัง shell script และโค้ด C สำหรับ rootkit ไว้ท้ายไฟล์ JPEG ที่ดูเหมือนภาพแพนด้าธรรมดา เมื่อเปิดด้วยโปรแกรม interpreter มันจะรันโค้ดในหน่วยความจำทันที โดยไม่ทิ้งร่องรอยบนดิสก์

    เป้าหมายของ Koske คือการขุดคริปโตมากกว่า 18 สกุล เช่น Monero, Ravencoin, Nexa และ Zano โดยเลือกใช้ miner ที่เหมาะกับฮาร์ดแวร์ของเหยื่อ ไม่ว่าจะเป็น CPU หรือ GPU และสามารถสลับเหรียญหรือพูลได้อัตโนมัติหากมีปัญหา

    ที่น่ากลัวคือ Koske แสดงพฤติกรรมที่ “คล้าย AI” เช่น การตรวจสอบการเชื่อมต่อ GitHub หลายชั้น การแก้ไข DNS และ proxy อัตโนมัติ และการค้นหา proxy ที่ใช้งานได้จาก GitHub — ทั้งหมดนี้ชี้ว่าอาจมีการใช้ LLM หรือระบบอัตโนมัติช่วยพัฒนาโค้ด

    Koske เป็นมัลแวร์ Linux ที่ใช้ภาพแพนด้าเป็นตัวหลอก
    ใช้เทคนิค polyglot file ฝังโค้ดไว้ท้ายไฟล์ JPEG
    เมื่อเปิดด้วย interpreter จะรันโค้ดในหน่วยความจำทันที

    เป้าหมายหลักคือการขุดคริปโต
    รองรับมากกว่า 18 สกุล เช่น Monero, Ravencoin, Nexa, Zano
    เลือก miner ตามฮาร์ดแวร์ของเหยื่อ (CPU/GPU)
    สลับพูลหรือเหรียญอัตโนมัติหากมีปัญหา

    ใช้ภาพจากเว็บแชร์รูปภาพที่ถูกต้องตามกฎหมาย
    เช่น OVH images, freeimage, postimage
    ทำให้หลบเลี่ยงการตรวจจับได้ง่าย

    แสดงพฤติกรรมคล้าย AI ในการปรับตัว
    ตรวจสอบการเชื่อมต่อ GitHub ด้วย curl, wget, TCP
    รีเซ็ต proxy, flush iptables, เปลี่ยน DNS เป็น Cloudflare/Google
    ค้นหา proxy ที่ใช้งานได้จาก GitHub lists

    พบร่องรอยของต้นทางจากเซอร์เบียและสโลวัก
    IP จากเซอร์เบีย, สคริปต์มีคำเซอร์เบีย, GitHub repo ใช้ภาษาสโลวัก
    ชื่อ “Koske” อาจมาจากคำว่า “กระดูก” ในภาษาท้องถิ่น

    นักวิจัยเชื่อว่าโค้ดถูกช่วยเขียนโดย AI
    โค้ดมีโครงสร้างดี ความเห็นชัดเจน และใช้เทคนิคป้องกันตัวเอง
    ทำให้การวิเคราะห์และระบุผู้เขียนยากขึ้น

    มัลแวร์ Koske สามารถหลบเลี่ยงการตรวจจับได้อย่างมีประสิทธิภาพ
    รันในหน่วยความจำโดยไม่เขียนลงดิสก์
    ใช้ rootkit ซ่อน process และไฟล์จากเครื่องมือทั่วไป

    การเปิดภาพจากแหล่งที่ไม่น่าเชื่อถืออาจเป็นช่องทางติดมัลแวร์
    ภาพที่ดู “น่ารัก” อาจมีโค้ดอันตรายซ่อนอยู่
    ไม่ควรเปิดไฟล์จาก URL ที่ไม่รู้จักผ่าน interpreter หรือ shell

    มัลแวร์นี้ใช้ทรัพยากรเครื่องอย่างหนัก
    ทำให้ค่าไฟและค่า cloud compute สูงขึ้นโดยไม่รู้ตัว
    ส่งผลต่อประสิทธิภาพของระบบและความปลอดภัย

    เป็นตัวอย่างของภัยคุกคามยุคใหม่ที่ใช้ AI เป็นเครื่องมือ
    การใช้ LLM ในการสร้างมัลแวร์ทำให้มันปรับตัวได้ดีขึ้น
    อาจเป็นจุดเริ่มต้นของมัลแวร์ที่ “เรียนรู้” และ “ปรับตัว” ได้แบบเรียลไทม์

    https://www.techradar.com/pro/security/a-damaging-new-linux-malware-is-hiding-in-cute-animal-photos
    🧠 เรื่องเล่าจากข่าว: “แพนด้าน่ารัก” ที่แอบขุดคริปโตในเครื่องคุณ ลองจินตนาการว่าคุณเปิดภาพแพนด้าน่ารักจากเว็บแชร์รูปภาพ แล้วเบื้องหลังภาพนั้นกลับมีมัลแวร์ที่กำลังใช้ CPU และ GPU ของคุณขุดคริปโตอยู่เงียบ ๆ — นี่คือสิ่งที่เกิดขึ้นจริงกับมัลแวร์ตัวใหม่ชื่อว่า Koske Koske เป็นมัลแวร์บน Linux ที่ใช้เทคนิค “polyglot file” คือไฟล์ที่สามารถเป็นได้ทั้งภาพและโค้ดในเวลาเดียวกัน โดยแฮกเกอร์จะฝัง shell script และโค้ด C สำหรับ rootkit ไว้ท้ายไฟล์ JPEG ที่ดูเหมือนภาพแพนด้าธรรมดา เมื่อเปิดด้วยโปรแกรม interpreter มันจะรันโค้ดในหน่วยความจำทันที โดยไม่ทิ้งร่องรอยบนดิสก์ เป้าหมายของ Koske คือการขุดคริปโตมากกว่า 18 สกุล เช่น Monero, Ravencoin, Nexa และ Zano โดยเลือกใช้ miner ที่เหมาะกับฮาร์ดแวร์ของเหยื่อ ไม่ว่าจะเป็น CPU หรือ GPU และสามารถสลับเหรียญหรือพูลได้อัตโนมัติหากมีปัญหา ที่น่ากลัวคือ Koske แสดงพฤติกรรมที่ “คล้าย AI” เช่น การตรวจสอบการเชื่อมต่อ GitHub หลายชั้น การแก้ไข DNS และ proxy อัตโนมัติ และการค้นหา proxy ที่ใช้งานได้จาก GitHub — ทั้งหมดนี้ชี้ว่าอาจมีการใช้ LLM หรือระบบอัตโนมัติช่วยพัฒนาโค้ด ✅ Koske เป็นมัลแวร์ Linux ที่ใช้ภาพแพนด้าเป็นตัวหลอก ➡️ ใช้เทคนิค polyglot file ฝังโค้ดไว้ท้ายไฟล์ JPEG ➡️ เมื่อเปิดด้วย interpreter จะรันโค้ดในหน่วยความจำทันที ✅ เป้าหมายหลักคือการขุดคริปโต ➡️ รองรับมากกว่า 18 สกุล เช่น Monero, Ravencoin, Nexa, Zano ➡️ เลือก miner ตามฮาร์ดแวร์ของเหยื่อ (CPU/GPU) ➡️ สลับพูลหรือเหรียญอัตโนมัติหากมีปัญหา ✅ ใช้ภาพจากเว็บแชร์รูปภาพที่ถูกต้องตามกฎหมาย ➡️ เช่น OVH images, freeimage, postimage ➡️ ทำให้หลบเลี่ยงการตรวจจับได้ง่าย ✅ แสดงพฤติกรรมคล้าย AI ในการปรับตัว ➡️ ตรวจสอบการเชื่อมต่อ GitHub ด้วย curl, wget, TCP ➡️ รีเซ็ต proxy, flush iptables, เปลี่ยน DNS เป็น Cloudflare/Google ➡️ ค้นหา proxy ที่ใช้งานได้จาก GitHub lists ✅ พบร่องรอยของต้นทางจากเซอร์เบียและสโลวัก ➡️ IP จากเซอร์เบีย, สคริปต์มีคำเซอร์เบีย, GitHub repo ใช้ภาษาสโลวัก ➡️ ชื่อ “Koske” อาจมาจากคำว่า “กระดูก” ในภาษาท้องถิ่น ✅ นักวิจัยเชื่อว่าโค้ดถูกช่วยเขียนโดย AI ➡️ โค้ดมีโครงสร้างดี ความเห็นชัดเจน และใช้เทคนิคป้องกันตัวเอง ➡️ ทำให้การวิเคราะห์และระบุผู้เขียนยากขึ้น ‼️ มัลแวร์ Koske สามารถหลบเลี่ยงการตรวจจับได้อย่างมีประสิทธิภาพ ⛔ รันในหน่วยความจำโดยไม่เขียนลงดิสก์ ⛔ ใช้ rootkit ซ่อน process และไฟล์จากเครื่องมือทั่วไป ‼️ การเปิดภาพจากแหล่งที่ไม่น่าเชื่อถืออาจเป็นช่องทางติดมัลแวร์ ⛔ ภาพที่ดู “น่ารัก” อาจมีโค้ดอันตรายซ่อนอยู่ ⛔ ไม่ควรเปิดไฟล์จาก URL ที่ไม่รู้จักผ่าน interpreter หรือ shell ‼️ มัลแวร์นี้ใช้ทรัพยากรเครื่องอย่างหนัก ⛔ ทำให้ค่าไฟและค่า cloud compute สูงขึ้นโดยไม่รู้ตัว ⛔ ส่งผลต่อประสิทธิภาพของระบบและความปลอดภัย ‼️ เป็นตัวอย่างของภัยคุกคามยุคใหม่ที่ใช้ AI เป็นเครื่องมือ ⛔ การใช้ LLM ในการสร้างมัลแวร์ทำให้มันปรับตัวได้ดีขึ้น ⛔ อาจเป็นจุดเริ่มต้นของมัลแวร์ที่ “เรียนรู้” และ “ปรับตัว” ได้แบบเรียลไทม์ https://www.techradar.com/pro/security/a-damaging-new-linux-malware-is-hiding-in-cute-animal-photos
    0 Comments 0 Shares 183 Views 0 Reviews
  • เรื่องเล่าจากข่าว: “แรม 256GB” ไม่ใช่แค่เยอะ…แต่มันคือพลังของยุค AI

    ลองจินตนาการว่าคุณกำลังตัดต่อวิดีโอ 8K พร้อมกับรันโมเดล AI และเปิดเกม AAA ไปด้วย — ถ้าเครื่องคุณยังใช้แรม 32GB หรือ 64GB อาจจะถึงเวลาอัปเกรดแล้ว เพราะ TeamGroup เพิ่งเปิดตัว “แรม DDR5 ความจุ 256GB” แบบ Quad-Channel ที่ออกแบบมาเพื่อรองรับงานหนักระดับเทพโดยเฉพาะ

    ภายใต้แบรนด์ T-FORCE และ T-CREATE มีสองรุ่นให้เลือก:
    - T-FORCE DELTA RGB DDR5-6000 CL32 สำหรับสายเกมเมอร์ที่ต้องการทั้งความเร็วและความสวยงาม
    - T-CREATE EXPERT DDR5-5600 CL42 สำหรับสายครีเอเตอร์ที่เน้นความเสถียรและประสิทธิภาพระยะยาว

    ทั้งสองรุ่นใช้โมดูล 64GB จำนวน 4 ตัว รวมเป็น 256GB และผ่านการทดสอบกับแพลตฟอร์ม AMD X870 ซึ่งรองรับ Ryzen 9000 Series ได้อย่างสมบูรณ์

    สาระจากข่าว
    TeamGroup เปิดตัวแรม DDR5 ความจุ 256GB
    ใช้โมดูล 64GB จำนวน 4 ตัวในชุด Quad-Channel
    มีสองซีรีส์: T-FORCE สำหรับเกมเมอร์ และ T-CREATE สำหรับครีเอเตอร์

    T-FORCE DELTA RGB DDR5-6000 CL32
    ความเร็วสูงสุด 6000 MT/s พร้อม latency ต่ำ CL32
    รองรับ AMD EXPO สำหรับการโอเวอร์คล็อกผ่าน BIOS
    มีไฟ RGB และฮีตซิงก์ดีไซน์สวยงาม

    T-CREATE EXPERT DDR5-5600 CL42
    ความเร็ว 5600 MT/s พร้อม latency CL42
    ไม่มี RGB เน้นดีไซน์เรียบง่ายและความเสถียร
    เหมาะสำหรับงานหนัก เช่น 3D rendering, video editing, AI workloads

    ผ่านการทดสอบกับ AMD X870 platform
    รองรับ Ryzen 9000 Series และเมนบอร์ดรุ่นใหม่
    เพิ่มความมั่นใจในความเข้ากันได้และเสถียรภาพ

    เตรียมวางจำหน่ายทั่วโลกในเดือนกันยายน 2025
    ยังไม่เปิดเผยราคา แต่คาดว่าจะสูงตามความจุและสเปก

    https://wccftech.com/teamgroup-shows-off-its-ultra-capacity-256gb-quad-channel-ddr5-memory-kit-for-intensive-workloads/
    🧠 เรื่องเล่าจากข่าว: “แรม 256GB” ไม่ใช่แค่เยอะ…แต่มันคือพลังของยุค AI ลองจินตนาการว่าคุณกำลังตัดต่อวิดีโอ 8K พร้อมกับรันโมเดล AI และเปิดเกม AAA ไปด้วย — ถ้าเครื่องคุณยังใช้แรม 32GB หรือ 64GB อาจจะถึงเวลาอัปเกรดแล้ว เพราะ TeamGroup เพิ่งเปิดตัว “แรม DDR5 ความจุ 256GB” แบบ Quad-Channel ที่ออกแบบมาเพื่อรองรับงานหนักระดับเทพโดยเฉพาะ ภายใต้แบรนด์ T-FORCE และ T-CREATE มีสองรุ่นให้เลือก: - T-FORCE DELTA RGB DDR5-6000 CL32 สำหรับสายเกมเมอร์ที่ต้องการทั้งความเร็วและความสวยงาม - T-CREATE EXPERT DDR5-5600 CL42 สำหรับสายครีเอเตอร์ที่เน้นความเสถียรและประสิทธิภาพระยะยาว ทั้งสองรุ่นใช้โมดูล 64GB จำนวน 4 ตัว รวมเป็น 256GB และผ่านการทดสอบกับแพลตฟอร์ม AMD X870 ซึ่งรองรับ Ryzen 9000 Series ได้อย่างสมบูรณ์ ✅ สาระจากข่าว ✅ TeamGroup เปิดตัวแรม DDR5 ความจุ 256GB ➡️ ใช้โมดูล 64GB จำนวน 4 ตัวในชุด Quad-Channel ➡️ มีสองซีรีส์: T-FORCE สำหรับเกมเมอร์ และ T-CREATE สำหรับครีเอเตอร์ ✅ T-FORCE DELTA RGB DDR5-6000 CL32 ➡️ ความเร็วสูงสุด 6000 MT/s พร้อม latency ต่ำ CL32 ➡️ รองรับ AMD EXPO สำหรับการโอเวอร์คล็อกผ่าน BIOS ➡️ มีไฟ RGB และฮีตซิงก์ดีไซน์สวยงาม ✅ T-CREATE EXPERT DDR5-5600 CL42 ➡️ ความเร็ว 5600 MT/s พร้อม latency CL42 ➡️ ไม่มี RGB เน้นดีไซน์เรียบง่ายและความเสถียร ➡️ เหมาะสำหรับงานหนัก เช่น 3D rendering, video editing, AI workloads ✅ ผ่านการทดสอบกับ AMD X870 platform ➡️ รองรับ Ryzen 9000 Series และเมนบอร์ดรุ่นใหม่ ➡️ เพิ่มความมั่นใจในความเข้ากันได้และเสถียรภาพ ✅ เตรียมวางจำหน่ายทั่วโลกในเดือนกันยายน 2025 ➡️ ยังไม่เปิดเผยราคา แต่คาดว่าจะสูงตามความจุและสเปก https://wccftech.com/teamgroup-shows-off-its-ultra-capacity-256gb-quad-channel-ddr5-memory-kit-for-intensive-workloads/
    WCCFTECH.COM
    TeamGroup Shows Off Its Ultra-Capacity 256GB Quad-Channel DDR5 Memory Kit For Intensive Workloads
    TeamGroup has unveiled its new lineup of ultra high-capacity DDR5 memory under the T-Force and T-Create series, bringing 256 GB DDR5 RAM kits.
    0 Comments 0 Shares 141 Views 0 Reviews
  • เรื่องเล่าจากข่าว: เมื่อ “ซ่อมชิป” กลายเป็นธุรกิจทองคำในจีน

    ลองจินตนาการว่าคุณมีชิป AI ระดับเทพอย่าง NVIDIA H100 หรือ A100 ที่ถูกใช้งานหนักมาหลายปีในศูนย์ข้อมูล แต่ไม่สามารถส่งซ่อมกับผู้ผลิตได้ เพราะมันเป็น “สินค้าต้องห้าม” จากการแบนของสหรัฐฯ แล้วจะทำยังไง?

    คำตอบคือ: ส่งไปซ่อมใน “อู่ลับ” ที่จีน!

    แม้ชิปเหล่านี้จะถูกแบนไม่ให้ขายในจีนตั้งแต่ปี 2022 แต่กลับมีธุรกิจซ่อมชิป AI เกิดขึ้นอย่างคึกคัก โดยเฉพาะในเมืองเซินเจิ้น มีบริษัทเล็ก ๆ กว่า 12 แห่งที่รับซ่อมชิป H100 และ A100 แบบเต็มรูปแบบ ทั้งตรวจสอบ ซ่อมพัดลม เปลี่ยนแผงวงจร และทดสอบในสภาพแวดล้อมจำลองศูนย์ข้อมูล

    บางแห่งซ่อมได้ถึง 500 ชิปต่อเดือน และคิดค่าบริการสูงถึง $2,800 ต่อชิ้น ซึ่งยังถูกกว่าการซื้อชิปใหม่ที่ราคาสูงถึง $50,000 ต่อชิ้นในตลาดมืด

    แม้ NVIDIA จะออกชิป H20 รุ่นลดสเปกเพื่อขายในจีน แต่ก็ยังไม่ตอบโจทย์การฝึกโมเดล AI ขนาดใหญ่ ทำให้หลายบริษัทเลือกใช้ชิปเก่าแบบ “ซ่อมแล้วใช้ต่อ” แทน

    ธุรกิจซ่อมชิป AI NVIDIA ในจีนเติบโตอย่างรวดเร็ว
    มีบริษัทกว่า 12 แห่งในเซินเจิ้นรับซ่อมชิป H100 และ A100
    บางแห่งซ่อมได้ถึง 500 ชิ้นต่อเดือน

    บริการซ่อมครอบคลุมหลายด้าน
    ตรวจสอบซอฟต์แวร์ ซ่อมพัดลม แก้ไขแผงวงจร
    ทดสอบในห้องที่จำลองศูนย์ข้อมูลจริง

    ราคาซ่อมอยู่ที่ $1,400–$2,800 ต่อชิ้น
    ถูกกว่าการซื้อใหม่ที่อาจสูงถึง $50,000 ต่อชิ้น
    บางบริษัทคิดค่าซ่อมประมาณ 10% ของราคาชิปเดิม

    ชิป H100 และ A100 ยังเป็นที่ต้องการสูง
    ใช้ในการฝึกโมเดล AI ขนาดใหญ่
    แม้จะมีรุ่น H20 ที่ถูกกว่า แต่ยังไม่ตอบโจทย์ด้านประสิทธิภาพ

    อายุการใช้งานชิปอยู่ที่ 2–5 ปี
    การใช้งานหนักตลอด 24/7 ทำให้ชิปเสื่อมเร็ว
    การซ่อมช่วยยืดอายุการใช้งานได้อีกหลายเดือนหรือปี

    https://wccftech.com/chinas-gpu-repair-business-is-booming-right-now-as-the-illegally-acquired-nvidia-chips-are-being-repaired-in-shocking-numbers/
    🧠 เรื่องเล่าจากข่าว: เมื่อ “ซ่อมชิป” กลายเป็นธุรกิจทองคำในจีน ลองจินตนาการว่าคุณมีชิป AI ระดับเทพอย่าง NVIDIA H100 หรือ A100 ที่ถูกใช้งานหนักมาหลายปีในศูนย์ข้อมูล แต่ไม่สามารถส่งซ่อมกับผู้ผลิตได้ เพราะมันเป็น “สินค้าต้องห้าม” จากการแบนของสหรัฐฯ แล้วจะทำยังไง? คำตอบคือ: ส่งไปซ่อมใน “อู่ลับ” ที่จีน! แม้ชิปเหล่านี้จะถูกแบนไม่ให้ขายในจีนตั้งแต่ปี 2022 แต่กลับมีธุรกิจซ่อมชิป AI เกิดขึ้นอย่างคึกคัก โดยเฉพาะในเมืองเซินเจิ้น มีบริษัทเล็ก ๆ กว่า 12 แห่งที่รับซ่อมชิป H100 และ A100 แบบเต็มรูปแบบ ทั้งตรวจสอบ ซ่อมพัดลม เปลี่ยนแผงวงจร และทดสอบในสภาพแวดล้อมจำลองศูนย์ข้อมูล บางแห่งซ่อมได้ถึง 500 ชิปต่อเดือน และคิดค่าบริการสูงถึง $2,800 ต่อชิ้น ซึ่งยังถูกกว่าการซื้อชิปใหม่ที่ราคาสูงถึง $50,000 ต่อชิ้นในตลาดมืด แม้ NVIDIA จะออกชิป H20 รุ่นลดสเปกเพื่อขายในจีน แต่ก็ยังไม่ตอบโจทย์การฝึกโมเดล AI ขนาดใหญ่ ทำให้หลายบริษัทเลือกใช้ชิปเก่าแบบ “ซ่อมแล้วใช้ต่อ” แทน ✅ ธุรกิจซ่อมชิป AI NVIDIA ในจีนเติบโตอย่างรวดเร็ว ➡️ มีบริษัทกว่า 12 แห่งในเซินเจิ้นรับซ่อมชิป H100 และ A100 ➡️ บางแห่งซ่อมได้ถึง 500 ชิ้นต่อเดือน ✅ บริการซ่อมครอบคลุมหลายด้าน ➡️ ตรวจสอบซอฟต์แวร์ ซ่อมพัดลม แก้ไขแผงวงจร ➡️ ทดสอบในห้องที่จำลองศูนย์ข้อมูลจริง ✅ ราคาซ่อมอยู่ที่ $1,400–$2,800 ต่อชิ้น ➡️ ถูกกว่าการซื้อใหม่ที่อาจสูงถึง $50,000 ต่อชิ้น ➡️ บางบริษัทคิดค่าซ่อมประมาณ 10% ของราคาชิปเดิม ✅ ชิป H100 และ A100 ยังเป็นที่ต้องการสูง ➡️ ใช้ในการฝึกโมเดล AI ขนาดใหญ่ ➡️ แม้จะมีรุ่น H20 ที่ถูกกว่า แต่ยังไม่ตอบโจทย์ด้านประสิทธิภาพ ✅ อายุการใช้งานชิปอยู่ที่ 2–5 ปี ➡️ การใช้งานหนักตลอด 24/7 ทำให้ชิปเสื่อมเร็ว ➡️ การซ่อมช่วยยืดอายุการใช้งานได้อีกหลายเดือนหรือปี https://wccftech.com/chinas-gpu-repair-business-is-booming-right-now-as-the-illegally-acquired-nvidia-chips-are-being-repaired-in-shocking-numbers/
    WCCFTECH.COM
    China's "GPU Repair" Business Is Booming Right Now As The Illegally Acquired NVIDIA H100 & A100 AI Chips Are Being Repaired In Shocking Numbers
    Apart from the "smuggling business" in China, repairers seem to be earning hefty sums of money by providing services for NVIDIA's AI chips.
    0 Comments 0 Shares 107 Views 0 Reviews
More Results