• เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย

    มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science)

    จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ

    เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021

    SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์

    ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์

    NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย

    การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC
    เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025
    ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops
    ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า

    เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance
    บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร
    แสดงผลแบบ visualization และค้นหาด้วย history ID
    ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง

    เป้าหมายของระบบนี้
    ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้
    ลดความผิดพลาดจากการบันทึกด้วยมือ
    เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย

    แผนการขยายในอนาคต
    NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์
    ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data
    อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย

    https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    🎙️ เรื่องเล่าจาก OCTOPUS ถึง SCUP-HPC: เมื่อซูเปอร์คอมพิวเตอร์กลายเป็นผู้บันทึกความจริงของงานวิจัย มหาวิทยาลัยโอซาก้า D3 Center ร่วมกับ NEC เปิดตัว OCTOPUS (Osaka University Compute and sTOrage Platform Urging open Science) ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่มีพลังการประมวลผล 2.293 petaflops โดยใช้ 140 โหนดของ NEC LX201Ein-1 ที่ออกแบบมาเพื่อรองรับงานวิจัยแบบเปิด (Open Science) จุดเด่นของ OCTOPUS ไม่ใช่แค่ความเร็ว แต่คือระบบ “provenance management” ที่สามารถบันทึกและติดตามกระบวนการคำนวณทั้งหมด เช่น ข้อมูลใดถูกใช้ โปรแกรมใดเรียกใช้ และผลลัพธ์ใดถูกสร้างขึ้น โดยไม่กระทบต่อประสิทธิภาพของระบบ เทคโนโลยีนี้ชื่อว่า SCUP-HPC (Scientific Computing Unifying Provenance – High Performance Computing) ซึ่งพัฒนาโดยทีมของ Susumu Date จากห้องวิจัยร่วมระหว่าง NEC และมหาวิทยาลัยโอซาก้า โดยเริ่มต้นในปี 2021 SCUP-HPC ช่วยให้ผู้ใช้สามารถค้นหาประวัติการคำนวณด้วย ID เฉพาะ และแสดงผลแบบ visualization ได้ ทำให้นักวิจัยสามารถใส่รหัสประวัติการคำนวณในบทความวิชาการ เพื่อยืนยันว่าใช้ OCTOPUS จริงในการสร้างผลลัพธ์ ระบบนี้ยังช่วยแก้ปัญหาการบันทึกข้อมูลด้วยมือที่อาจผิดพลาดหรือไม่ครบถ้วน ซึ่งเป็นปัญหาใหญ่ในงานวิจัยที่ต้องการความโปร่งใสและตรวจสอบได้ โดยเฉพาะในยุคที่ AI และ Big Data กลายเป็นเครื่องมือหลักของนักวิทยาศาสตร์ NEC ยังมีแผนจะนำ SCUP-HPC ไปใช้เชิงพาณิชย์ในอนาคต และจะขยายแพลตฟอร์มนี้ไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI อย่างเต็มรูปแบบ ภายใต้แนวคิด “NEC BluStellar” ที่เน้นการสร้างโครงสร้างพื้นฐานข้อมูลเพื่อการวิจัย ✅ การเปิดตัว OCTOPUS โดยมหาวิทยาลัยโอซาก้าและ NEC ➡️ เริ่มทดลองใช้งานในเดือนกันยายน และเปิดใช้งานเต็มรูปแบบในเดือนธันวาคม 2025 ➡️ ใช้ 140 โหนดของ NEC LX201Ein-1 มีพลังการประมวลผล 2.293 petaflops ➡️ ประสิทธิภาพสูงกว่าระบบเดิมประมาณ 1.5 เท่า ✅ เทคโนโลยี SCUP-HPC สำหรับการจัดการ provenance ➡️ บันทึกว่าโปรแกรมใดใช้ข้อมูลใด และสร้างผลลัพธ์อะไร ➡️ แสดงผลแบบ visualization และค้นหาด้วย history ID ➡️ ช่วยให้นักวิจัยใส่รหัสการคำนวณในบทความเพื่อยืนยันความถูกต้อง ✅ เป้าหมายของระบบนี้ ➡️ ส่งเสริม Open Science โดยให้ข้อมูลวิจัยสามารถตรวจสอบและแบ่งปันได้ ➡️ ลดความผิดพลาดจากการบันทึกด้วยมือ ➡️ เพิ่มความโปร่งใสและความน่าเชื่อถือของงานวิจัย ✅ แผนการขยายในอนาคต ➡️ NEC เตรียมนำ SCUP-HPC ไปใช้เชิงพาณิชย์ ➡️ ขยายไปสู่การใช้งานในอุตสาหกรรมและงานวิจัยด้าน AI/Big Data ➡️ อยู่ภายใต้แนวคิด NEC BluStellar เพื่อสร้างโครงสร้างพื้นฐานข้อมูลวิจัย https://www.techpowerup.com/340936/nec-provides-computing-power-for-octopus-supercomputer-at-osaka-university
    WWW.TECHPOWERUP.COM
    NEC Provides Computing Power for OCTOPUS Supercomputer at Osaka University
    The University of Osaka D3 Center will begin trial operations of the "Osaka University Compute and sTOrage Platform Urging open Science" (OCTOPUS), a computational and data platform promoting open science built by NEC Corporation (NEC; TSE: 6701), starting this September, with full-scale operations ...
    0 ความคิดเห็น 0 การแบ่งปัน 34 มุมมอง 0 รีวิว
  • “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ”

    AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576.

    MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency

    แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ

    AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM

    โครงสร้างของ AMD MegaPod
    ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking
    มีทั้งหมด 64 CPU Verano และ 256 GPU MI500
    ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm
    ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ

    จุดเด่นด้านเทคโนโลยี
    MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine
    Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery
    ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads
    ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload

    การเปรียบเทียบกับ Nvidia SuperPod
    MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576
    Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว
    AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency
    การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU

    ข้อมูลเสริมจากภายนอก
    AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice
    MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging
    ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS
    Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray

    https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    🚀 “AMD MegaPod 256-GPU ท้าชน Nvidia SuperPod — ยุทธศาสตร์ใหม่ในสงคราม HPC ที่ไม่ใช่แค่เรื่องจำนวน แต่คือการควบคุมโครงสร้างทั้งระบบ” AMD กำลังเตรียมเปิดตัวระบบประมวลผลขนาดใหญ่ระดับ rack-scale ที่ชื่อว่า “MegaPod” ซึ่งจะใช้ GPU รุ่นใหม่ Instinct MI500 จำนวนถึง 256 ตัว พร้อมกับ CPU EPYC “Verano” รุ่นล่าสุด โดยวางแผนเปิดใช้งานในปี 2027 เพื่อแข่งขันกับ Nvidia SuperPod ที่ใช้ GPU Vera Rubin ในระบบ NVL576. MegaPod จะประกอบด้วย 3 แร็คหลัก โดยแร็คด้านข้างแต่ละฝั่งจะมี 32 ถาดประมวลผล (compute trays) ซึ่งแต่ละถาดจะมี 1 CPU Verano และ 4 GPU MI500 รวมเป็น 64 CPU และ 256 GPU ทั้งระบบ ส่วนแร็คกลางจะใช้สำหรับการเชื่อมต่อเครือข่าย โดยใช้การ์ด Vulcano ที่พัฒนาจาก Pensando รองรับแบนด์วิดท์สูงถึง 800GbE ต่อ tray และใช้เทคโนโลยี TSMC 3nm เพื่อเพิ่มประสิทธิภาพและลด latency แม้ AMD จะมีจำนวนแพ็กเกจ GPU มากกว่า Nvidia (256 vs 144) แต่ Nvidia ใช้การรวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริงถึง 576 ตัวในระบบ NVL576 ซึ่งทำให้การเปรียบเทียบไม่ตรงไปตรงมา และขึ้นอยู่กับการออกแบบสถาปัตยกรรมและการจัดการ throughput มากกว่าตัวเลขดิบ AMD ยังวางแผนใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อระหว่าง GPU และ CPU พร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพด้าน AI training และ inference โดยเฉพาะในงาน computer vision และ LLM ✅ โครงสร้างของ AMD MegaPod ➡️ ประกอบด้วย 3 แร็ค: 2 แร็คด้านข้างสำหรับ compute trays และ 1 แร็คกลางสำหรับ networking ➡️ มีทั้งหมด 64 CPU Verano และ 256 GPU MI500 ➡️ ใช้การ์ด Vulcano ที่รองรับ 800GbE ต่อ tray และผลิตด้วย TSMC 3nm ➡️ ใช้เทคโนโลยี UALink และ Ultra Ethernet เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ✅ จุดเด่นด้านเทคโนโลยี ➡️ MI500 ใช้สถาปัตยกรรมใหม่พร้อม FP8 และ XMX matrix engine ➡️ Verano CPU ใช้ Zen 7 และ PCIe Gen6 พร้อม backside power delivery ➡️ ROCm 7 รองรับ Flash Attention 3 และ containerized LLM workloads ➡️ ระบบออกแบบให้รองรับ AI training ขนาดใหญ่และ HPC workload ✅ การเปรียบเทียบกับ Nvidia SuperPod ➡️ MegaPod มี 256 physical GPU packages เทียบกับ 144 ของ NVL576 ➡️ Nvidia รวม 4 GPU ต่อแพ็กเกจ ทำให้มี GPU จริง 576 ตัว ➡️ AMD ใช้ single-GPU packages — เน้นความยืดหยุ่นและการควบคุม latency ➡️ การเปรียบเทียบขึ้นอยู่กับ throughput และ network efficiency มากกว่าตัวเลข GPU ✅ ข้อมูลเสริมจากภายนอก ➡️ AMD เคยเปิดตัว Helios rack system ในปี 2026 ด้วย MI400 และ EPYC Venice ➡️ MI500 จะใช้ TSMC N2P หรือ A16 node พร้อม CoWoS-L packaging ➡️ ระบบ MegaPod คาดว่าจะให้ FP4 performance สูงกว่า 3 exaFLOPS ➡️ Vulcano switch ASIC มี throughput สูงถึง 102.4Tbps ต่อ tray https://www.techradar.com/pro/amd-megapod-set-to-face-nvidias-superpod-with-a-256-gpu-rack-full-with-instinct-mi500-chips
    0 ความคิดเห็น 0 การแบ่งปัน 112 มุมมอง 0 รีวิว
  • “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้”

    Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ

    Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s

    การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน

    ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation

    แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ

    จุดเด่นของ Intel Arc Pro B50
    ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines
    หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า
    แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS
    ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม

    ประสิทธิภาพในการใช้งานจริง
    Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy
    Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ
    Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง
    MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation

    ความเหมาะสมกับงานมืออาชีพ
    ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk
    มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง
    เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์
    ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน

    ข้อมูลเสริมจากภายนอก
    Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8
    มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit
    มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ
    Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน

    https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    🎨 “Intel Arc Pro B50 พลิกเกมเวิร์กสเตชัน — แซงหน้า Nvidia RTX A1000 ทั้งด้าน AI และงานสร้างสรรค์ ด้วยราคาที่จับต้องได้” Intel สร้างความประหลาดใจให้กับวงการเวิร์กสเตชันด้วยการเปิดตัว Arc Pro B50 การ์ดจอระดับมืออาชีพรุ่นใหม่ที่แม้จะมีขนาดเล็กและราคาย่อมเยา แต่กลับสามารถเอาชนะ Nvidia RTX A1000 ได้ในหลายด้าน ทั้งงาน AI, การเรนเดอร์ Blender และแอป Adobe ที่ใช้ GPU หนัก ๆ Arc Pro B50 ใช้สถาปัตยกรรม Xe2 รุ่นใหม่ ซึ่งเป็นพื้นฐานเดียวกับซีรีส์ Battlemage สำหรับผู้บริโภค โดยมี 16 Xe2 cores และ 128 XMX matrix engines พร้อมหน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ที่มีเพียง 8GB และให้แบนด์วิดท์สูงถึง 224GB/s การ์ดนี้ออกแบบมาให้มีขนาดเล็กเพียง 168 มม. ใช้พลังงานแค่ 70W ไม่ต้องต่อไฟเพิ่ม และมาพร้อมพอร์ต Mini DisplayPort 2.1 ถึง 4 ช่อง ซึ่งเหนือกว่าพอร์ต 1.4a ของ A1000 อย่างชัดเจน ในการทดสอบจริง Arc Pro B50 ทำคะแนนเหนือกว่า A1000 ในหลายแอป เช่น Photoshop (ดีกว่า 7%), Premiere Pro (ดีกว่า 20%) และ Blender (ดีกว่า 20%) ซึ่งเป็นพื้นที่ที่ Nvidia เคยครองตลาดมาโดยตลอด นอกจากนี้ยังทำคะแนนสูงกว่าใน MLPerf และ Procyon AI benchmarks โดยเฉพาะด้าน computer vision และ text generation แม้จะมีจุดอ่อนในบางแอป เช่น Revit และ Inventor ที่ A1000 ยังทำงานได้เร็วกว่า แต่ในภาพรวม Arc Pro B50 ถือเป็นการ์ดที่ให้ความคุ้มค่าสูงมากในราคาเพียง $350 และได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ ✅ จุดเด่นของ Intel Arc Pro B50 ➡️ ใช้สถาปัตยกรรม Xe2 พร้อม 16 Xe2 cores และ 128 XMX engines ➡️ หน่วยความจำ GDDR6 ขนาด 16GB — มากกว่า A1000 ถึง 2 เท่า ➡️ แบนด์วิดท์ 224GB/s และ FP8 compute สูงถึง 170 TOPS ➡️ ขนาดเล็ก 168 มม. ใช้พลังงานเพียง 70W ไม่ต้องต่อไฟเพิ่ม ✅ ประสิทธิภาพในการใช้งานจริง ➡️ Photoshop ดีกว่า A1000 ประมาณ 7% โดยเฉพาะงาน GPU-heavy ➡️ Premiere Pro ดีกว่าเกือบ 20% ในงานตัดต่อวิดีโอ ➡️ Blender เรนเดอร์เร็วกว่า A1000 ถึง 20% — พลิกเกมจากเดิมที่ Nvidia ครอง ➡️ MLPerf และ Procyon AI แสดงผลลัพธ์ดีกว่าในงาน computer vision และ text generation ✅ ความเหมาะสมกับงานมืออาชีพ ➡️ ได้รับการรับรองจากซอฟต์แวร์มืออาชีพกว่า 50 รายการ เช่น Adobe, Autodesk ➡️ มีพอร์ต Mini DisplayPort 2.1 จำนวน 4 ช่อง — รองรับจอความละเอียดสูง ➡️ เหมาะกับงาน CAD, การตัดต่อ, โมเดล AI ขนาดเล็ก และงานสร้างสรรค์ ➡️ ราคาขายเพียง $350 — คุ้มค่ากว่าการ์ดระดับเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ Xe2 cores รองรับ SIMD16 — ดีกว่ารุ่นก่อนที่รองรับแค่ SIMD8 ➡️ มี dual media engine รองรับการเข้ารหัส/ถอดรหัสวิดีโอ 8K 10-bit ➡️ มีการพัฒนา containerized Linux สำหรับงาน LLM โดยเฉพาะ ➡️ Arc Pro B50 ใช้ GPU BMG-G21 ที่ Intel ปรับแต่งให้เหมาะกับต้นทุน https://www.techradar.com/pro/an-impressive-little-gpu-reviewers-surprised-by-intel-arc-pro-b50-gpus-superior-display-against-nvidias-rtx-a1000
    0 ความคิดเห็น 0 การแบ่งปัน 126 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้

    ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์

    ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว

    ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว

    GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์

    สเปกของ Acer Veriton GN100
    ใช้ Nvidia GB10 Grace Blackwell Superchip
    CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725)
    GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP
    RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB

    ความสามารถด้าน AI
    รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง
    ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT
    รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama

    การเชื่อมต่อและการขยาย
    มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1
    เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่
    รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล

    การออกแบบและการใช้งาน
    ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย
    มี Kensington lock สำหรับความปลอดภัย
    ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    🎙️ เรื่องเล่าจาก Project Digits: เมื่อพลังระดับเซิร์ฟเวอร์ถูกย่อส่วนให้พกพาได้ ในงาน IFA 2025 Acer เปิดตัว Veriton GN100 ซึ่งเป็นเวอร์ชันของ Project Digits ที่ใช้ชิป Nvidia GB10 Grace Blackwell Superchip โดยออกแบบมาเพื่อเป็น “AI mini workstation” สำหรับนักพัฒนา, นักวิจัย, มหาวิทยาลัย และองค์กรที่ต้องการประมวลผลโมเดลขนาดใหญ่โดยไม่ต้องพึ่งคลาวด์ ตัวเครื่องมีขนาดเพียง 150 × 150 × 50.5 มม. แต่ภายในบรรจุพลังระดับเซิร์ฟเวอร์: CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725), GPU Blackwell ที่ให้พลัง FP4 สูงถึง 1 PFLOP, RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB พร้อมระบบเข้ารหัสในตัว ที่โดดเด่นคือการรองรับ NVFP4 ซึ่งเป็นมาตรฐานใหม่ของ Nvidia สำหรับการประมวลผล AI แบบ FP4 ที่มีประสิทธิภาพสูงและความแม่นยำใกล้เคียงกับ BF16 แต่ใช้พลังงานน้อยกว่า ทำให้สามารถเทรนโมเดลขนาดใหญ่ได้ในเครื่องเดียว GN100 ยังมาพร้อมกับ Nvidia AI software stack เต็มรูปแบบ เช่น CUDA, cuDNN, TensorRT และรองรับ framework ยอดนิยมอย่าง PyTorch, TensorFlow, JAX และ Ollama โดยสามารถเชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดสูงสุดถึง 405 พันล้านพารามิเตอร์ ✅ สเปกของ Acer Veriton GN100 ➡️ ใช้ Nvidia GB10 Grace Blackwell Superchip ➡️ CPU ARM 20 คอร์ (10 Cortex-X925 + 10 A725) ➡️ GPU Blackwell รองรับ FP4 ได้ถึง 1 PFLOP ➡️ RAM LPDDR5X ขนาด 128GB และ SSD NVMe สูงสุด 4TB ✅ ความสามารถด้าน AI ➡️ รองรับ NVFP4 สำหรับการประมวลผล AI ที่มีประสิทธิภาพสูง ➡️ ใช้ Nvidia AI software stack เช่น CUDA, cuDNN, TensorRT ➡️ รองรับ framework ยอดนิยม เช่น PyTorch, TensorFlow, JAX, Ollama ✅ การเชื่อมต่อและการขยาย ➡️ มี USB-C 4 ช่อง, HDMI 2.1b, Ethernet, Wi-Fi 7 และ Bluetooth 5.1 ➡️ เชื่อมต่อสองเครื่องผ่าน ConnectX-7 NIC เพื่อรองรับโมเดลขนาดใหญ่ ➡️ รองรับการทำงานร่วมกับระบบคลาวด์หรือศูนย์ข้อมูล ✅ การออกแบบและการใช้งาน ➡️ ขนาดเล็กเพียง 150 × 150 × 50.5 มม. เหมาะกับโต๊ะทำงานหรือห้องวิจัย ➡️ มี Kensington lock สำหรับความปลอดภัย ➡️ ราคาเริ่มต้นที่ $3,999 ในอเมริกาเหนือ https://www.tomshardware.com/tech-industry/artificial-intelligence/acer-unveils-project-digits-supercomputer-featuring-nvidias-gb10-superchip-with-128gb-of-lpddr5x
    WWW.TOMSHARDWARE.COM
    Acer unveils Project Digits supercomputer featuring Nvidia's GB10 superchip with 128GB of LPDDR5x
    Acer joins Asus, Lenovo, and Dell with its third-party Project Digits variation.
    0 ความคิดเห็น 0 การแบ่งปัน 160 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก NomadGo: เมื่อการนับของในร้านกลายเป็นงานของ AI ที่ไม่เคยเหนื่อย

    Starbucks ประกาศในเดือนกันยายน 2025 ว่าจะนำระบบนับสินค้าด้วย AI ไปใช้ในร้านที่บริษัทเป็นเจ้าของกว่า 11,000 แห่งทั่วอเมริกาเหนือภายในสิ้นเดือนนี้ โดยใช้แท็บเล็ตที่ติดตั้งซอฟต์แวร์จากบริษัท NomadGo ซึ่งสามารถสแกนชั้นวางสินค้าและนับจำนวนของอัตโนมัติ พร้อมแจ้งเตือนเมื่อสินค้าใกล้หมด เช่น cold foam, oat milk หรือ caramel drizzle

    Deb Hall Lefevre, CTO ของ Starbucks ระบุว่า ระบบนี้ช่วยให้พนักงานใช้เวลาน้อยลงในห้องเก็บของ และมีเวลามากขึ้นในการชงกาแฟและพูดคุยกับลูกค้า โดยระบบนี้ทำให้การนับสต็อกเกิดขึ้นบ่อยขึ้นถึง 8 เท่าเมื่อเทียบกับวิธีเดิม

    NomadGo ใช้เทคโนโลยีผสมผสานระหว่าง 3D spatial intelligence, computer vision และ augmented reality เพื่อให้แท็บเล็ตสามารถ “มองเห็น” และเข้าใจสิ่งที่อยู่บนชั้นวางได้แบบเรียลไทม์

    นอกจากระบบนับสต็อกแล้ว Starbucks ยังได้เปิดตัว Green Dot Assist ซึ่งเป็นผู้ช่วยเสมือนสำหรับพนักงาน และ Smart Queue ที่ใช้ AI เพื่อจัดลำดับการเตรียมเครื่องดื่มให้เร็วและมีประสิทธิภาพมากขึ้น ทั้งหมดนี้เป็นส่วนหนึ่งของแผนการปรับปรุงซัพพลายเชนและประสบการณ์ลูกค้าด้วย AI

    การใช้งาน AI ในการนับสต็อก
    ใช้แท็บเล็ตสแกนชั้นวางสินค้าและนับจำนวนอัตโนมัติ
    แจ้งเตือนเมื่อสินค้าใกล้หมด เช่น cold foam, oat milk, caramel drizzle
    เพิ่มความถี่ในการนับสต็อกมากขึ้นถึง 8 เท่า

    เทคโนโลยีของ NomadGo
    ใช้ 3D spatial intelligence, computer vision และ augmented reality
    ทำให้แท็บเล็ตสามารถเข้าใจสิ่งของในพื้นที่จริงได้แบบเรียลไทม์
    เคยให้บริการกับร้านแฟรนไชส์ของ Taco Bell และ KFC

    ผลกระทบต่อการทำงานในร้าน
    พนักงานใช้เวลาน้อยลงในห้องเก็บของ
    มีเวลามากขึ้นในการชงกาแฟและพูดคุยกับลูกค้า
    เพิ่มความแม่นยำในการเติมสินค้าและลดของขาด

    เทคโนโลยีอื่นที่ Starbucks ใช้ร่วมกัน
    Green Dot Assist: ผู้ช่วยเสมือนสำหรับพนักงาน
    Smart Queue: ระบบจัดลำดับการเตรียมเครื่องดื่มด้วย AI
    ทั้งหมดเป็นส่วนหนึ่งของแผนปรับปรุงซัพพลายเชนและประสบการณ์ลูกค้า

    https://www.thestar.com.my/tech/tech-news/2025/09/03/starbucks-rolls-out-ai-for-inventory-counting
    🎙️ เรื่องเล่าจาก NomadGo: เมื่อการนับของในร้านกลายเป็นงานของ AI ที่ไม่เคยเหนื่อย Starbucks ประกาศในเดือนกันยายน 2025 ว่าจะนำระบบนับสินค้าด้วย AI ไปใช้ในร้านที่บริษัทเป็นเจ้าของกว่า 11,000 แห่งทั่วอเมริกาเหนือภายในสิ้นเดือนนี้ โดยใช้แท็บเล็ตที่ติดตั้งซอฟต์แวร์จากบริษัท NomadGo ซึ่งสามารถสแกนชั้นวางสินค้าและนับจำนวนของอัตโนมัติ พร้อมแจ้งเตือนเมื่อสินค้าใกล้หมด เช่น cold foam, oat milk หรือ caramel drizzle Deb Hall Lefevre, CTO ของ Starbucks ระบุว่า ระบบนี้ช่วยให้พนักงานใช้เวลาน้อยลงในห้องเก็บของ และมีเวลามากขึ้นในการชงกาแฟและพูดคุยกับลูกค้า โดยระบบนี้ทำให้การนับสต็อกเกิดขึ้นบ่อยขึ้นถึง 8 เท่าเมื่อเทียบกับวิธีเดิม NomadGo ใช้เทคโนโลยีผสมผสานระหว่าง 3D spatial intelligence, computer vision และ augmented reality เพื่อให้แท็บเล็ตสามารถ “มองเห็น” และเข้าใจสิ่งที่อยู่บนชั้นวางได้แบบเรียลไทม์ นอกจากระบบนับสต็อกแล้ว Starbucks ยังได้เปิดตัว Green Dot Assist ซึ่งเป็นผู้ช่วยเสมือนสำหรับพนักงาน และ Smart Queue ที่ใช้ AI เพื่อจัดลำดับการเตรียมเครื่องดื่มให้เร็วและมีประสิทธิภาพมากขึ้น ทั้งหมดนี้เป็นส่วนหนึ่งของแผนการปรับปรุงซัพพลายเชนและประสบการณ์ลูกค้าด้วย AI ✅ การใช้งาน AI ในการนับสต็อก ➡️ ใช้แท็บเล็ตสแกนชั้นวางสินค้าและนับจำนวนอัตโนมัติ ➡️ แจ้งเตือนเมื่อสินค้าใกล้หมด เช่น cold foam, oat milk, caramel drizzle ➡️ เพิ่มความถี่ในการนับสต็อกมากขึ้นถึง 8 เท่า ✅ เทคโนโลยีของ NomadGo ➡️ ใช้ 3D spatial intelligence, computer vision และ augmented reality ➡️ ทำให้แท็บเล็ตสามารถเข้าใจสิ่งของในพื้นที่จริงได้แบบเรียลไทม์ ➡️ เคยให้บริการกับร้านแฟรนไชส์ของ Taco Bell และ KFC ✅ ผลกระทบต่อการทำงานในร้าน ➡️ พนักงานใช้เวลาน้อยลงในห้องเก็บของ ➡️ มีเวลามากขึ้นในการชงกาแฟและพูดคุยกับลูกค้า ➡️ เพิ่มความแม่นยำในการเติมสินค้าและลดของขาด ✅ เทคโนโลยีอื่นที่ Starbucks ใช้ร่วมกัน ➡️ Green Dot Assist: ผู้ช่วยเสมือนสำหรับพนักงาน ➡️ Smart Queue: ระบบจัดลำดับการเตรียมเครื่องดื่มด้วย AI ➡️ ทั้งหมดเป็นส่วนหนึ่งของแผนปรับปรุงซัพพลายเชนและประสบการณ์ลูกค้า https://www.thestar.com.my/tech/tech-news/2025/09/03/starbucks-rolls-out-ai-for-inventory-counting
    WWW.THESTAR.COM.MY
    Starbucks rolls out AI for inventory counting
    -Starbucks is rolling out a new system for counting inventory that uses artificial intelligence technology to its more than 11,000 company-owned stores in North America by the end of September, the global coffee chain announced on Wednesday.
    0 ความคิดเห็น 0 การแบ่งปัน 115 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสมองถึงซิลิคอน: เมื่อจีนเปิดศึก BCI ด้วยแผน 17 ข้อจาก 7 กระทรวง

    ในเดือนสิงหาคม 2025 รัฐบาลจีนได้เผยแพร่เอกสารนโยบายขนาดใหญ่ชื่อ “Implementation Plan for Promoting Innovation and Development of the Brain-Computer Interface (BCI) Industry” ซึ่งเป็นแผนยุทธศาสตร์ระดับชาติที่มีเป้าหมายชัดเจน: สร้างอุตสาหกรรม BCI ที่แข่งขันได้ในระดับโลกภายใน 5 ปี และผลักดันให้เทคโนโลยีนี้เข้าสู่การใช้งานจริงภายในปี 2027

    แผนนี้ไม่ใช่แค่การวิจัย แต่เป็นการบูรณาการระหว่าง 7 กระทรวงที่รวมการวางแผนอุตสาหกรรม, การกำกับดูแลทางการแพทย์, และการควบคุมการวิจัยไว้ใน playbook เดียว เพื่อเร่งการอนุมัติและลดเวลาจากห้องแล็บสู่ตลาดให้เหลือเพียงไม่กี่ปี—ต่างจากสหรัฐฯ ที่ต้องผ่านด่าน FDA หลายชั้น

    ในแผนมี 17 ข้อที่ครอบคลุมตั้งแต่การพัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ, การออกแบบอิเล็กโทรดที่ลดการเกิดแผล, การสร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time ไปจนถึงการผลิตอุปกรณ์แบบ non-invasive สำหรับตลาดผู้บริโภค เช่น อุปกรณ์ตรวจความตื่นตัวของคนขับรถ หรือหมวกนิรภัยที่ตรวจจับอันตรายในเหมือง

    ที่สำคัญคือ จีนได้เริ่มทดลองจริงแล้ว—ผู้ป่วยที่ได้รับการฝังอิเล็กโทรดสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิดล้วน ๆ โดยใช้อิเล็กโทรด 128 ช่องที่ออกแบบให้เสถียรและลดการอักเสบในระยะยาว

    แผนยุทธศาสตร์ BCI ของจีน
    มีชื่อว่า “Implementation Plan for Promoting Innovation and Development of the BCI Industry”
    ร่วมกันจัดทำโดย 7 กระทรวงของรัฐบาลจีน
    ตั้งเป้าให้มีการใช้งานจริงในคลินิกภายในปี 2027 และมีบริษัทชั้นนำภายในปี 2030

    รายละเอียดของแผน 17 ข้อ
    พัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ
    ออกแบบอิเล็กโทรดที่ลดการเกิดแผลและอยู่ในสมองได้นาน
    สร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time
    ขยายสายการผลิตอุปกรณ์ non-invasive สำหรับผู้บริโภค

    ความคืบหน้าทางเทคนิค
    ทีมวิจัยจีนพัฒนาอิเล็กโทรด 128 ช่องที่เสถียรและลดการอักเสบ
    ผู้ป่วยสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิด
    มีการทดลองในสัตว์, ลิง, และมนุษย์แล้ว

    การขยายสู่ตลาดผู้บริโภค
    สนับสนุนอุปกรณ์ non-invasive เช่น หมวกนิรภัยอัจฉริยะและเซนเซอร์ตรวจความตื่นตัว
    วางตำแหน่ง BCI เป็นทั้งเทคโนโลยีการแพทย์และแพลตฟอร์มอิเล็กทรอนิกส์สำหรับผู้บริโภค
    คาดว่าจะมีผู้ป่วย 1–2 ล้านคนที่ได้รับประโยชน์จาก BCI ภายในไม่กี่ปี

    https://www.tomshardware.com/tech-industry/china-bci-blueprint
    🎙️ เรื่องเล่าจากสมองถึงซิลิคอน: เมื่อจีนเปิดศึก BCI ด้วยแผน 17 ข้อจาก 7 กระทรวง ในเดือนสิงหาคม 2025 รัฐบาลจีนได้เผยแพร่เอกสารนโยบายขนาดใหญ่ชื่อ “Implementation Plan for Promoting Innovation and Development of the Brain-Computer Interface (BCI) Industry” ซึ่งเป็นแผนยุทธศาสตร์ระดับชาติที่มีเป้าหมายชัดเจน: สร้างอุตสาหกรรม BCI ที่แข่งขันได้ในระดับโลกภายใน 5 ปี และผลักดันให้เทคโนโลยีนี้เข้าสู่การใช้งานจริงภายในปี 2027 แผนนี้ไม่ใช่แค่การวิจัย แต่เป็นการบูรณาการระหว่าง 7 กระทรวงที่รวมการวางแผนอุตสาหกรรม, การกำกับดูแลทางการแพทย์, และการควบคุมการวิจัยไว้ใน playbook เดียว เพื่อเร่งการอนุมัติและลดเวลาจากห้องแล็บสู่ตลาดให้เหลือเพียงไม่กี่ปี—ต่างจากสหรัฐฯ ที่ต้องผ่านด่าน FDA หลายชั้น ในแผนมี 17 ข้อที่ครอบคลุมตั้งแต่การพัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ, การออกแบบอิเล็กโทรดที่ลดการเกิดแผล, การสร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time ไปจนถึงการผลิตอุปกรณ์แบบ non-invasive สำหรับตลาดผู้บริโภค เช่น อุปกรณ์ตรวจความตื่นตัวของคนขับรถ หรือหมวกนิรภัยที่ตรวจจับอันตรายในเหมือง ที่สำคัญคือ จีนได้เริ่มทดลองจริงแล้ว—ผู้ป่วยที่ได้รับการฝังอิเล็กโทรดสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิดล้วน ๆ โดยใช้อิเล็กโทรด 128 ช่องที่ออกแบบให้เสถียรและลดการอักเสบในระยะยาว ✅ แผนยุทธศาสตร์ BCI ของจีน ➡️ มีชื่อว่า “Implementation Plan for Promoting Innovation and Development of the BCI Industry” ➡️ ร่วมกันจัดทำโดย 7 กระทรวงของรัฐบาลจีน ➡️ ตั้งเป้าให้มีการใช้งานจริงในคลินิกภายในปี 2027 และมีบริษัทชั้นนำภายในปี 2030 ✅ รายละเอียดของแผน 17 ข้อ ➡️ พัฒนา chip ฝังสมองที่ใช้พลังงานต่ำ ➡️ ออกแบบอิเล็กโทรดที่ลดการเกิดแผลและอยู่ในสมองได้นาน ➡️ สร้างอัลกอริธึมถอดรหัสความคิดแบบ real-time ➡️ ขยายสายการผลิตอุปกรณ์ non-invasive สำหรับผู้บริโภค ✅ ความคืบหน้าทางเทคนิค ➡️ ทีมวิจัยจีนพัฒนาอิเล็กโทรด 128 ช่องที่เสถียรและลดการอักเสบ ➡️ ผู้ป่วยสามารถเล่นหมากรุกและใช้งานแอปมือถือด้วยความคิด ➡️ มีการทดลองในสัตว์, ลิง, และมนุษย์แล้ว ✅ การขยายสู่ตลาดผู้บริโภค ➡️ สนับสนุนอุปกรณ์ non-invasive เช่น หมวกนิรภัยอัจฉริยะและเซนเซอร์ตรวจความตื่นตัว ➡️ วางตำแหน่ง BCI เป็นทั้งเทคโนโลยีการแพทย์และแพลตฟอร์มอิเล็กทรอนิกส์สำหรับผู้บริโภค ➡️ คาดว่าจะมีผู้ป่วย 1–2 ล้านคนที่ได้รับประโยชน์จาก BCI ภายในไม่กี่ปี https://www.tomshardware.com/tech-industry/china-bci-blueprint
    WWW.TOMSHARDWARE.COM
    China plans to outpace Neuralink with a state-backed brain chip blitz — seven ministries, a 17-point roadmap, and clinical trials where patients play chess
    Plan aims to streamline approval by bringing regulators in at the beginning, potentially shaving years off the lab-to-market timeline.
    0 ความคิดเห็น 0 การแบ่งปัน 169 มุมมอง 0 รีวิว
  • จากอัมพาตสู่การควบคุมดิจิทัลด้วย “ความคิด”

    ย้อนกลับไปในปี 2016 Noland Arbaugh ประสบอุบัติเหตุจากการดำน้ำ ทำให้เขาเป็นอัมพาตตั้งแต่ช่วงไหล่ลงไป และใช้ชีวิตบนรถเข็นมานานหลายปี จนกระทั่งในเดือนกุมภาพันธ์ 2024 เขากลายเป็นมนุษย์คนแรกที่ได้รับการฝังชิปสมองจาก Neuralink บริษัทของ Elon Musk

    การผ่าตัดใช้เวลาน้อยกว่าสองชั่วโมง โดยหุ่นยนต์ของ Neuralink ฝังชิปขนาดเท่าเหรียญเข้าไปในสมอง พร้อมเชื่อมเส้นใยขนาดเล็กกว่าเส้นผมกว่า 1,000 เส้นเข้ากับเซลล์ประสาทในสมองส่วนควบคุมการเคลื่อนไหว

    ผลลัพธ์คือ Arbaugh สามารถควบคุมคอมพิวเตอร์ด้วยความคิด เช่น เล่น Mario Kart, เปิด–ปิดเครื่องฟอกอากาศ, ควบคุมทีวี และพิมพ์ข้อความโดยไม่ต้องขยับร่างกายเลยแม้แต่นิ้วเดียว

    เขาใช้ระบบนี้วันละประมาณ 10 ชั่วโมง และบอกว่า “ง่ายมาก” ในการเรียนรู้วิธีใช้งาน วันแรกที่ลองใช้ เขาสามารถทำลายสถิติโลกปี 2017 ด้านความเร็วและความแม่นยำในการควบคุมเคอร์เซอร์ด้วย BCI

    แม้จะมีปัญหาในช่วงแรก เช่น เส้นใยบางส่วนหลุดออกจากเนื้อสมอง ทำให้ประสิทธิภาพลดลง แต่ทีม Neuralink ก็สามารถปรับแต่งระบบให้กลับมาใช้งานได้เกือบเต็มรูปแบบ

    ปัจจุบัน Arbaugh กลับไปเรียนที่วิทยาลัยในรัฐแอริโซนา และเริ่มวางแผนเปิดธุรกิจของตัวเอง พร้อมรับงานพูดในที่สาธารณะ เขาบอกว่า “ผมรู้สึกว่าตัวเองมีศักยภาพอีกครั้ง” และเชื่อว่าการทดลองนี้จะช่วยคนอื่นได้ในอนาคต แม้จะมีความเสี่ยงก็ตาม

    สรุปเนื้อหาเป็นหัวข้อ
    Noland Arbaugh เป็นมนุษย์คนแรกที่ได้รับการฝังชิปสมองจาก Neuralink ในปี 2024
    การผ่าตัดใช้หุ่นยนต์ฝังชิปและเชื่อมเส้นใยกว่า 1,000 เส้นเข้ากับเซลล์ประสาท
    ชิปสามารถแปลสัญญาณสมองเป็นคำสั่งดิจิทัลเพื่อควบคุมอุปกรณ์ต่าง ๆ
    Arbaugh สามารถเล่นเกม, พิมพ์ข้อความ, และควบคุมเครื่องใช้ไฟฟ้าด้วยความคิด
    ใช้งานระบบวันละประมาณ 10 ชั่วโมง และเรียนรู้ได้ง่าย
    วันแรกที่ใช้งาน Arbaugh ทำลายสถิติโลกด้านการควบคุมเคอร์เซอร์ด้วย BCI
    ปัจจุบันเขากลับไปเรียนและเริ่มวางแผนเปิดธุรกิจของตัวเอง
    เขาเชื่อว่าการทดลองนี้จะช่วยคนอื่นได้ แม้จะมีความเสี่ยง
    Neuralink ใช้ระบบชาร์จแบบไร้สายผ่านหมวกที่ฝังขดลวดไว้
    ระบบได้รับการปรับปรุงให้สามารถใช้งานขณะชาร์จได้แล้ว

    ข้อมูลเสริมจากภายนอก
    BCI (Brain-Computer Interface) เป็นเทคโนโลยีที่มีการศึกษามานานกว่า 50 ปี
    บริษัทอื่น เช่น Synchron และ Blackrock Neurotech ก็มีการทดลองฝังชิปสมองเช่นกัน
    Neuralink ใช้การฝังใน motor cortex ซึ่งเป็นบริเวณควบคุมการเคลื่อนไหวโดยตรง
    ชิปของ Neuralink เป็นแบบไร้สาย ต่างจากบางบริษัทที่ยังใช้สายเชื่อมต่อผ่านกะโหลก
    การฝังชิปสมองอาจเป็นก้าวสำคัญในการฟื้นฟูผู้ป่วยอัมพาตและโรคทางระบบประสาท

    https://fortune.com/2025/08/23/neuralink-participant-1-noland-arbaugh-18-months-post-surgery-life-changed-elon-musk/
    🧠 จากอัมพาตสู่การควบคุมดิจิทัลด้วย “ความคิด” ย้อนกลับไปในปี 2016 Noland Arbaugh ประสบอุบัติเหตุจากการดำน้ำ ทำให้เขาเป็นอัมพาตตั้งแต่ช่วงไหล่ลงไป และใช้ชีวิตบนรถเข็นมานานหลายปี จนกระทั่งในเดือนกุมภาพันธ์ 2024 เขากลายเป็นมนุษย์คนแรกที่ได้รับการฝังชิปสมองจาก Neuralink บริษัทของ Elon Musk การผ่าตัดใช้เวลาน้อยกว่าสองชั่วโมง โดยหุ่นยนต์ของ Neuralink ฝังชิปขนาดเท่าเหรียญเข้าไปในสมอง พร้อมเชื่อมเส้นใยขนาดเล็กกว่าเส้นผมกว่า 1,000 เส้นเข้ากับเซลล์ประสาทในสมองส่วนควบคุมการเคลื่อนไหว ผลลัพธ์คือ Arbaugh สามารถควบคุมคอมพิวเตอร์ด้วยความคิด เช่น เล่น Mario Kart, เปิด–ปิดเครื่องฟอกอากาศ, ควบคุมทีวี และพิมพ์ข้อความโดยไม่ต้องขยับร่างกายเลยแม้แต่นิ้วเดียว เขาใช้ระบบนี้วันละประมาณ 10 ชั่วโมง และบอกว่า “ง่ายมาก” ในการเรียนรู้วิธีใช้งาน วันแรกที่ลองใช้ เขาสามารถทำลายสถิติโลกปี 2017 ด้านความเร็วและความแม่นยำในการควบคุมเคอร์เซอร์ด้วย BCI แม้จะมีปัญหาในช่วงแรก เช่น เส้นใยบางส่วนหลุดออกจากเนื้อสมอง ทำให้ประสิทธิภาพลดลง แต่ทีม Neuralink ก็สามารถปรับแต่งระบบให้กลับมาใช้งานได้เกือบเต็มรูปแบบ ปัจจุบัน Arbaugh กลับไปเรียนที่วิทยาลัยในรัฐแอริโซนา และเริ่มวางแผนเปิดธุรกิจของตัวเอง พร้อมรับงานพูดในที่สาธารณะ เขาบอกว่า “ผมรู้สึกว่าตัวเองมีศักยภาพอีกครั้ง” และเชื่อว่าการทดลองนี้จะช่วยคนอื่นได้ในอนาคต แม้จะมีความเสี่ยงก็ตาม 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Noland Arbaugh เป็นมนุษย์คนแรกที่ได้รับการฝังชิปสมองจาก Neuralink ในปี 2024 ➡️ การผ่าตัดใช้หุ่นยนต์ฝังชิปและเชื่อมเส้นใยกว่า 1,000 เส้นเข้ากับเซลล์ประสาท ➡️ ชิปสามารถแปลสัญญาณสมองเป็นคำสั่งดิจิทัลเพื่อควบคุมอุปกรณ์ต่าง ๆ ➡️ Arbaugh สามารถเล่นเกม, พิมพ์ข้อความ, และควบคุมเครื่องใช้ไฟฟ้าด้วยความคิด ➡️ ใช้งานระบบวันละประมาณ 10 ชั่วโมง และเรียนรู้ได้ง่าย ➡️ วันแรกที่ใช้งาน Arbaugh ทำลายสถิติโลกด้านการควบคุมเคอร์เซอร์ด้วย BCI ➡️ ปัจจุบันเขากลับไปเรียนและเริ่มวางแผนเปิดธุรกิจของตัวเอง ➡️ เขาเชื่อว่าการทดลองนี้จะช่วยคนอื่นได้ แม้จะมีความเสี่ยง ➡️ Neuralink ใช้ระบบชาร์จแบบไร้สายผ่านหมวกที่ฝังขดลวดไว้ ➡️ ระบบได้รับการปรับปรุงให้สามารถใช้งานขณะชาร์จได้แล้ว ✅ ข้อมูลเสริมจากภายนอก ➡️ BCI (Brain-Computer Interface) เป็นเทคโนโลยีที่มีการศึกษามานานกว่า 50 ปี ➡️ บริษัทอื่น เช่น Synchron และ Blackrock Neurotech ก็มีการทดลองฝังชิปสมองเช่นกัน ➡️ Neuralink ใช้การฝังใน motor cortex ซึ่งเป็นบริเวณควบคุมการเคลื่อนไหวโดยตรง ➡️ ชิปของ Neuralink เป็นแบบไร้สาย ต่างจากบางบริษัทที่ยังใช้สายเชื่อมต่อผ่านกะโหลก ➡️ การฝังชิปสมองอาจเป็นก้าวสำคัญในการฟื้นฟูผู้ป่วยอัมพาตและโรคทางระบบประสาท https://fortune.com/2025/08/23/neuralink-participant-1-noland-arbaugh-18-months-post-surgery-life-changed-elon-musk/
    FORTUNE.COM
    Neuralink’s first study participant says his whole life has changed
    Noland Arbaugh became P1 at Neuralink last year and it’s opened up a host of opportunities for him.
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale

    ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก

    FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด

    ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์

    นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก

    สรุปเนื้อหาเป็นหัวข้อ
    FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale
    เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia
    ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion
    เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ
    ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ
    งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน
    ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision
    เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม
    ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล
    ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience

    ข้อมูลเสริมจากภายนอก
    MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI
    Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก
    NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต
    ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI
    มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน
    FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ

    https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    🎙️ FugakuNEXT – ก้าวกระโดดของญี่ปุ่นสู่ซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ย้อนกลับไปเมื่อปี 2020 ญี่ปุ่นเปิดตัว “Fugaku” ซูเปอร์คอมพิวเตอร์ที่เคยครองอันดับหนึ่งของโลก และมีบทบาทสำคัญในการรับมือกับโควิด-19 ผ่านการจำลองสถานการณ์ต่าง ๆ แต่วันนี้ ญี่ปุ่นกำลังเตรียมก้าวครั้งใหม่ที่ยิ่งใหญ่กว่าเดิมกับ “FugakuNEXT” ซึ่งตั้งเป้าเป็นซูเปอร์คอมพิวเตอร์ระดับ zetta-scale ตัวแรกของโลก FugakuNEXT เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia โดยจะใช้ CPU รุ่นใหม่ชื่อ MONAKA-X ที่พัฒนาโดย Fujitsu ร่วมกับ GPU จาก Nvidia ซึ่งจะออกแบบระบบเชื่อมต่อ NVLink Fusion เพื่อให้ CPU และ GPU ทำงานร่วมกันอย่างใกล้ชิด ระบบนี้จะไม่ใช่แค่เครื่องจำลองทางฟิสิกส์แบบเดิม แต่จะเป็นแพลตฟอร์ม AI-HPC ที่สามารถใช้ AI ในการสร้างสมมติฐาน วิจัย และจำลองการทดลองได้โดยอัตโนมัติ เป้าหมายคือเพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม โดยยังคงใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ นอกจากจะเป็นเครื่องมือวิทยาศาสตร์ FugakuNEXT ยังเป็นการลงทุนเชิงยุทธศาสตร์ของญี่ปุ่นเพื่อเสริมความแข็งแกร่งด้านเทคโนโลยีเซมิคอนดักเตอร์ และสร้างมาตรฐานใหม่ของการประมวลผลระดับโลก 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ FugakuNEXT เป็นซูเปอร์คอมพิวเตอร์รุ่นใหม่ของญี่ปุ่นที่ตั้งเป้าเข้าสู่ระดับ zetta-scale ➡️ เป็นความร่วมมือระหว่าง RIKEN, Fujitsu และ Nvidia ➡️ ใช้ CPU MONAKA-X จาก Fujitsu และ GPU จาก Nvidia พร้อม NVLink Fusion ➡️ เป็นครั้งแรกที่ญี่ปุ่นใช้ GPU เป็นแกนหลักในระบบซูเปอร์คอมพิวเตอร์ระดับชาติ ➡️ ตั้งเป้าเปิดใช้งานในปี 2030 ที่ศูนย์ RIKEN เมืองโกเบ ➡️ งบประมาณพัฒนาเกิน 110 พันล้านเยน หรือประมาณ $740 ล้าน ➡️ ประสิทธิภาพสูงสุดคาดว่าจะอยู่ที่ 600 exaFLOPS ใน FP8 sparse precision ➡️ เพิ่มประสิทธิภาพการใช้งานจริงถึง 100 เท่าเมื่อเทียบกับ Fugaku เดิม ➡️ ใช้พลังงานเท่าเดิมที่ 40 เมกะวัตต์ แต่ได้ประสิทธิภาพสูงขึ้นมหาศาล ➡️ ระบบจะรองรับงาน AI เช่น climate modeling, drug discovery, disaster resilience ✅ ข้อมูลเสริมจากภายนอก ➡️ MONAKA-X เป็นรุ่นต่อยอดจาก MONAKA ที่เน้น SIMD และ matrix engine สำหรับ AI ➡️ Nvidia อาจใช้ GPU รุ่น Feynman Ultra ที่มี Tensor Core เป็นหลัก ➡️ NVLink Fusion อาจมีแบนด์วิดธ์สูงถึงหลาย TB/s ต่อพอร์ต ➡️ ซอฟต์แวร์จะใช้ CUDA-X, TensorRT และ NeMo สำหรับงาน AI ➡️ มีการใช้ Physics-Informed Neural Networks (PINNs) เพื่อแทนการคำนวณที่ซับซ้อน ➡️ FugakuNEXT เป็นส่วนหนึ่งของยุทธศาสตร์ญี่ปุ่นในการลดการพึ่งพาเทคโนโลยีต่างชาติ https://www.tomshardware.com/tech-industry/supercomputers/nvidia-gpus-and-fujitsu-arm-cpus-will-power-japans-next-usd750m-zetta-scale-supercomputer-fugakunext-aims-to-revolutionize-ai-driven-science-and-global-research
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • มีอดีตลูกน้องที่ลาออกไปเป็น freelancer มาถามลุงให้จัด spec ให้หน่อย เขาใช้ software พวก ANSYS Mechanical หรือ Autodesk Simulation ลุงเลยเสนอ spec นี้ไป ขอขอบคุณร้าน Advice สำหรับข้อมูลราคา

    #spec #computer #advice #ลุงจัดหลานจ่าย
    มีอดีตลูกน้องที่ลาออกไปเป็น freelancer มาถามลุงให้จัด spec ให้หน่อย เขาใช้ software พวก ANSYS Mechanical หรือ Autodesk Simulation ลุงเลยเสนอ spec นี้ไป ขอขอบคุณร้าน Advice สำหรับข้อมูลราคา #spec #computer #advice #ลุงจัดหลานจ่าย
    0 ความคิดเห็น 0 การแบ่งปัน 151 มุมมอง 0 รีวิว
  • เมื่อกล้องหน้าร้านกลายเป็นเครื่องมือสแกนใบหน้า – และลูกค้าไม่รู้ตัว

    Benjamin Jankowski ลูกค้าประจำของ Home Depot ในรัฐอิลลินอยส์ สังเกตเห็นสิ่งผิดปกติระหว่างใช้เครื่อง self-checkout ที่ร้านในชิคาโก เขาเห็นกล้องและหน้าจอที่แสดงกรอบสีเขียวรอบใบหน้าของเขา ซึ่งทำให้เขาเชื่อว่าระบบกำลังสแกนและบันทึกข้อมูลใบหน้าโดยไม่ได้รับอนุญาต

    เขาจึงตัดสินใจฟ้อง Home Depot ในรูปแบบ class action โดยกล่าวหาว่าบริษัทละเมิดกฎหมาย Biometric Information Privacy Act (BIPA) ของรัฐอิลลินอยส์ ซึ่งกำหนดให้บริษัทต้องแจ้งลูกค้าอย่างชัดเจนก่อนเก็บข้อมูลชีวภาพ เช่น รูปทรงใบหน้า และต้องได้รับ “ความยินยอมเป็นลายลักษณ์อักษร”

    คดีนี้เปิดเผยว่า Home Depot เริ่มใช้เทคโนโลยี “computer vision” ตั้งแต่ปี 2023 เพื่อป้องกันการขโมยสินค้า โดยขยายการใช้งานในปี 2024 ไปยังเครื่อง self-checkout ทั่วรัฐอิลลินอยส์ แต่ไม่มีการแจ้งลูกค้าอย่างเป็นทางการ และไม่มีนโยบายการจัดเก็บข้อมูลที่เปิดเผยต่อสาธารณะ

    Jankowski ต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว และเรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา

    กรณีนี้เกิดขึ้นหลังจากที่ Rite Aid ถูกแบนไม่ให้ใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี เนื่องจากการใช้งานที่ “ประมาท” และสร้างผลกระทบต่อผู้บริโภค เช่น การระบุผิดพลาดและการเก็บข้อมูลโดยไม่ได้รับอนุญาต

    สรุปเนื้อหาเป็นหัวข้อ
    ลูกค้าชื่อ Benjamin Jankowski ฟ้อง Home Depot ฐานใช้เทคโนโลยีจดจำใบหน้าโดยไม่แจ้ง
    เขาเห็นกรอบสีเขียวรอบใบหน้าบนหน้าจอ self-checkout ที่ร้านในชิคาโก
    ไม่มีป้ายแจ้งหรือคำเตือนเกี่ยวกับการสแกนใบหน้า
    Home Depot เริ่มใช้ “computer vision” ในปี 2023 และขยายในปี 2024 เพื่อป้องกันการขโมย
    ระบบนี้เก็บข้อมูลรูปทรงใบหน้า (facial geometry) ซึ่งถือเป็นข้อมูลชีวภาพตามกฎหมาย BIPA
    BIPA กำหนดให้บริษัทต้องแจ้งลูกค้าและขอความยินยอมเป็นลายลักษณ์อักษรก่อนเก็บข้อมูล
    Jankowski เรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา
    เขาต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว
    คดีนี้เกิดขึ้นในรัฐอิลลินอยส์ ซึ่งมีกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวด

    ข้อมูลเสริมจากภายนอก
    Rite Aid ถูกแบนจากการใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี หลังจากใช้งานโดยประมาท
    ระบบของ Rite Aid เคยสร้าง false positives หลายพันครั้ง และเก็บภาพลูกค้าโดยไม่แจ้ง
    กฎหมาย BIPA ของรัฐอิลลินอยส์ถือเป็นหนึ่งในกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวดที่สุดในสหรัฐฯ
    เทคโนโลยีจดจำใบหน้าเริ่มถูกใช้อย่างแพร่หลายในร้านค้าปลีกเพื่อป้องกันการขโมย
    นักกฎหมายเตือนว่าการใช้เทคโนโลยีนี้โดยไม่แจ้งอาจนำไปสู่คดี class action จำนวนมาก

    https://petapixel.com/2025/08/20/home-depot-sued-for-secretly-using-facial-recognition-technology-on-self-checkout-cameras/
    🎙️ เมื่อกล้องหน้าร้านกลายเป็นเครื่องมือสแกนใบหน้า – และลูกค้าไม่รู้ตัว Benjamin Jankowski ลูกค้าประจำของ Home Depot ในรัฐอิลลินอยส์ สังเกตเห็นสิ่งผิดปกติระหว่างใช้เครื่อง self-checkout ที่ร้านในชิคาโก เขาเห็นกล้องและหน้าจอที่แสดงกรอบสีเขียวรอบใบหน้าของเขา ซึ่งทำให้เขาเชื่อว่าระบบกำลังสแกนและบันทึกข้อมูลใบหน้าโดยไม่ได้รับอนุญาต เขาจึงตัดสินใจฟ้อง Home Depot ในรูปแบบ class action โดยกล่าวหาว่าบริษัทละเมิดกฎหมาย Biometric Information Privacy Act (BIPA) ของรัฐอิลลินอยส์ ซึ่งกำหนดให้บริษัทต้องแจ้งลูกค้าอย่างชัดเจนก่อนเก็บข้อมูลชีวภาพ เช่น รูปทรงใบหน้า และต้องได้รับ “ความยินยอมเป็นลายลักษณ์อักษร” คดีนี้เปิดเผยว่า Home Depot เริ่มใช้เทคโนโลยี “computer vision” ตั้งแต่ปี 2023 เพื่อป้องกันการขโมยสินค้า โดยขยายการใช้งานในปี 2024 ไปยังเครื่อง self-checkout ทั่วรัฐอิลลินอยส์ แต่ไม่มีการแจ้งลูกค้าอย่างเป็นทางการ และไม่มีนโยบายการจัดเก็บข้อมูลที่เปิดเผยต่อสาธารณะ Jankowski ต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว และเรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา กรณีนี้เกิดขึ้นหลังจากที่ Rite Aid ถูกแบนไม่ให้ใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี เนื่องจากการใช้งานที่ “ประมาท” และสร้างผลกระทบต่อผู้บริโภค เช่น การระบุผิดพลาดและการเก็บข้อมูลโดยไม่ได้รับอนุญาต 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ ลูกค้าชื่อ Benjamin Jankowski ฟ้อง Home Depot ฐานใช้เทคโนโลยีจดจำใบหน้าโดยไม่แจ้ง ➡️ เขาเห็นกรอบสีเขียวรอบใบหน้าบนหน้าจอ self-checkout ที่ร้านในชิคาโก ➡️ ไม่มีป้ายแจ้งหรือคำเตือนเกี่ยวกับการสแกนใบหน้า ➡️ Home Depot เริ่มใช้ “computer vision” ในปี 2023 และขยายในปี 2024 เพื่อป้องกันการขโมย ➡️ ระบบนี้เก็บข้อมูลรูปทรงใบหน้า (facial geometry) ซึ่งถือเป็นข้อมูลชีวภาพตามกฎหมาย BIPA ➡️ BIPA กำหนดให้บริษัทต้องแจ้งลูกค้าและขอความยินยอมเป็นลายลักษณ์อักษรก่อนเก็บข้อมูล ➡️ Jankowski เรียกร้องค่าชดเชย $1,000 ต่อการละเมิดแบบประมาท และ $5,000 ต่อการละเมิดโดยเจตนา ➡️ เขาต้องการเป็นตัวแทนของลูกค้าทั้งหมดที่ถูกสแกนใบหน้าโดยไม่รู้ตัว ➡️ คดีนี้เกิดขึ้นในรัฐอิลลินอยส์ ซึ่งมีกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวด ✅ ข้อมูลเสริมจากภายนอก ➡️ Rite Aid ถูกแบนจากการใช้เทคโนโลยีจดจำใบหน้าเป็นเวลา 5 ปี หลังจากใช้งานโดยประมาท ➡️ ระบบของ Rite Aid เคยสร้าง false positives หลายพันครั้ง และเก็บภาพลูกค้าโดยไม่แจ้ง ➡️ กฎหมาย BIPA ของรัฐอิลลินอยส์ถือเป็นหนึ่งในกฎหมายคุ้มครองข้อมูลชีวภาพที่เข้มงวดที่สุดในสหรัฐฯ ➡️ เทคโนโลยีจดจำใบหน้าเริ่มถูกใช้อย่างแพร่หลายในร้านค้าปลีกเพื่อป้องกันการขโมย ➡️ นักกฎหมายเตือนว่าการใช้เทคโนโลยีนี้โดยไม่แจ้งอาจนำไปสู่คดี class action จำนวนมาก https://petapixel.com/2025/08/20/home-depot-sued-for-secretly-using-facial-recognition-technology-on-self-checkout-cameras/
    PETAPIXEL.COM
    Home Depot Sued for 'Secretly' Using Facial Recognition Technology on Self-Checkout Cameras
    The Home Depot customer says he noticed the camera at a recent trip to the store.
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 286 มุมมอง 0 รีวิว
  • ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070

    ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?”

    จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima

    ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม

    อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ

    RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง

    ประสิทธิภาพของแต่ละรุ่น
    RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K
    Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS
    Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS
    Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS
    RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25%
    RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า

    ข้อมูลเสริมจากภายนอก
    RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7
    รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น
    RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ
    RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p
    RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ
    การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา

    https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    🎯 ศึกกราฟิกการ์ดระดับกลาง: จาก RTX 2070 สู่ RTX 5070 ในโลกของเกมพีซี กราฟิกการ์ดระดับกลางของ NVIDIA ถือเป็นจุดสมดุลระหว่างราคาและประสิทธิภาพ และในปี 2025 นี้ RTX 5070 ได้เปิดตัวพร้อมความแรงที่เหนือกว่าเดิม แต่คำถามคือ “คุ้มไหมถ้าอัปเกรด?” จากการทดสอบของ ComputerBase และ NanoReview พบว่า RTX 5070 มีประสิทธิภาพสูงสุดในกลุ่ม โดยเฉพาะในเกมที่ใช้ ray tracing และความละเอียด 4K เช่น Cyberpunk 2077, Horizon Forbidden West และ Ghost of Tsushima ที่ความละเอียด 1080p การเปลี่ยนแปลงไม่ชัดเจนมากนัก เพราะเกมมักถูกจำกัดด้วย CPU แต่ที่ 4K ความต่างเริ่มชัดเจน—RTX 5070 ทำเฟรมเรตได้สูงกว่า RTX 4070 ถึง 20–30% ในหลายเกม อย่างไรก็ตาม RTX 4070 กลับโดดเด่นในด้าน “ประสิทธิภาพต่อวัตต์” และ “ความเย็น” ทำให้เหมาะกับผู้เล่นที่ต้องการความสมดุลระหว่างแรงกับความเงียบ RTX 3070 และ 2070 ยังถือว่า “เล่นได้ดี” ในหลายเกม แต่เริ่มตามไม่ทันในงานที่ใช้ ray tracing หนัก ๆ หรือความละเอียดสูง ✅ ประสิทธิภาพของแต่ละรุ่น ➡️ RTX 5070 ทำเฟรมเรตสูงสุดในทุกความละเอียด โดยเฉพาะ 4K ➡️ Cyberpunk 2077 ที่ 4K: 2070 = 19 FPS, 3070 = 31 FPS, 4070 = 48 FPS, 5070 = 63 FPS ➡️ Ratchet & Clank: 2070 = 19 FPS, 4070 = 92 FPS, 5070 = 119 FPS ➡️ Overwatch 2 ที่ 4K: 2070 = 99 FPS, 5070 = 275 FPS ➡️ RTX 4070 มีประสิทธิภาพต่อวัตต์สูงกว่า 5070 ถึง 25% ➡️ RTX 5070 ใช้พลังงานมากขึ้น (231W) แต่ให้เฟรมเรตสูงกว่า ✅ ข้อมูลเสริมจากภายนอก ➡️ RTX 5070 ใช้สถาปัตยกรรมใหม่ 4nm และหน่วยความจำ GDDR7 ➡️ รองรับ DLSS 4 ที่ใช้โมเดล Transformer ทำให้ภาพลื่นขึ้น ➡️ RTX 4070 เหมาะกับผู้เล่นที่เน้นความเย็นและเสียงเงียบ ➡️ RTX 3070 ยังเล่นเกม AAA ได้ดีที่ 1080p และ 1440p ➡️ RTX 2070 เริ่มล้าหลังในเกมที่ใช้ ray tracing หนัก ๆ ➡️ การอัปเกรดจาก 4070 ไป 5070 อาจไม่คุ้มในแง่ประสิทธิภาพต่อราคา https://www.tomshardware.com/pc-components/gpus/nvidias-midrange-gpus-through-the-years-revisited-pitting-the-rtx-5070-versus-the-4070-3070-and-2070-in-an-all-encompassing-gaming-showdown
    0 ความคิดเห็น 0 การแบ่งปัน 240 มุมมอง 0 รีวิว
  • เคสคอมพิวเตอร์ฟรีจาก Teenage Engineering: ดีไซน์ล้ำ งบศูนย์บาท
    Teenage Engineering บริษัทดีไซน์สุดแนวจากสวีเดนที่เคยสร้างชื่อจากเครื่องดนตรีพกพาและอุปกรณ์อิเล็กทรอนิกส์สุดครีเอทีฟ กลับมาอีกครั้งกับโปรเจกต์ใหม่ที่ชวนให้คนในวงการพีซีต้องหันมามอง นั่นคือ “Computer–2” เคสคอมพิวเตอร์ขนาด mini-ITX ที่แจกฟรี! ใช่ครับ ฟรีจริง ๆ (ยกเว้นค่าส่ง)

    เคสนี้ถูกออกแบบให้ประกอบจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว โดยใช้ “living hinges” และ “snap hooks” ที่สามารถประกอบได้โดยไม่ต้องใช้เครื่องมือหรือสกรูใด ๆ ทั้งสิ้น แค่ “กดแล้วคลิก” ก็เสร็จเรียบร้อย

    แม้จะดูเรียบง่าย แต่ Computer–2 รองรับฮาร์ดแวร์จริงจังได้พอสมควร เช่น
    - เมนบอร์ดขนาด mini-ITX
    - พาวเวอร์ซัพพลายแบบ SFX
    - การ์ดจอแบบ dual-slot ที่ยาวไม่เกิน 180 มม.
    - พัดลมขนาด 80 มม.
    - และฮีตซิงก์ซีพียูแบบ low-profile

    Teenage Engineering ตั้งเป้าให้เคสนี้เป็น “เคสคอมพิวเตอร์ที่ถูกที่สุดในโลก” และพวกเขาก็ทำสำเร็จ ด้วยต้นทุนที่ “เท่ากับศูนย์” โดยไม่รวมอุปกรณ์ภายใน

    อย่างไรก็ตาม เคสนี้ก็มีข้อจำกัดอยู่ไม่น้อย เช่น ความแข็งแรงที่อาจไม่เหมาะกับการพกพาไปงาน LAN party หรือการใช้งานระยะยาว รวมถึงระบบระบายความร้อนที่อาจไม่เพียงพอสำหรับฮาร์ดแวร์แรง ๆ

    Teenage Engineering เปิดตัวเคส Computer–2 แจกฟรี
    เคสทำจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว
    ใช้ snap hooks และ living hinges ประกอบโดยไม่ต้องใช้เครื่องมือ
    แจกฟรีแบบจำกัดจำนวน (1 ชิ้นต่อคน) โดยต้องจ่ายค่าส่งเอง

    รองรับฮาร์ดแวร์ขนาดเล็กแต่ใช้งานได้จริง
    รองรับเมนบอร์ด mini-ITX และพาวเวอร์ซัพพลายแบบ SFX
    รองรับการ์ดจอ dual-slot ยาวไม่เกิน 180 มม.
    รองรับพัดลมขนาด 80 มม. และฮีตซิงก์แบบ low-profile

    แนวคิดการออกแบบเพื่อความเรียบง่ายและต้นทุนต่ำ
    ไม่มีพอร์ต I/O ด้านหน้า มีเพียงสวิตช์เปิดปิดและไฟ LED
    ไม่มีสกรูหรือเครื่องมือใด ๆ ในการประกอบ
    เป็นการทดลองด้านดีไซน์และการตลาดของบริษัท

    https://www.tomshardware.com/pc-components/pc-cases/free-mini-itx-case-made-of-one-sheet-of-translucent-plastic-arrives-stock-evaporates-instantly-teenage-engineerings-foldable-computer-2-sports-odd-layout-with-the-gpu-above-the-motherboard
    🧩 เคสคอมพิวเตอร์ฟรีจาก Teenage Engineering: ดีไซน์ล้ำ งบศูนย์บาท Teenage Engineering บริษัทดีไซน์สุดแนวจากสวีเดนที่เคยสร้างชื่อจากเครื่องดนตรีพกพาและอุปกรณ์อิเล็กทรอนิกส์สุดครีเอทีฟ กลับมาอีกครั้งกับโปรเจกต์ใหม่ที่ชวนให้คนในวงการพีซีต้องหันมามอง นั่นคือ “Computer–2” เคสคอมพิวเตอร์ขนาด mini-ITX ที่แจกฟรี! ใช่ครับ ฟรีจริง ๆ (ยกเว้นค่าส่ง) เคสนี้ถูกออกแบบให้ประกอบจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว โดยใช้ “living hinges” และ “snap hooks” ที่สามารถประกอบได้โดยไม่ต้องใช้เครื่องมือหรือสกรูใด ๆ ทั้งสิ้น แค่ “กดแล้วคลิก” ก็เสร็จเรียบร้อย แม้จะดูเรียบง่าย แต่ Computer–2 รองรับฮาร์ดแวร์จริงจังได้พอสมควร เช่น - เมนบอร์ดขนาด mini-ITX - พาวเวอร์ซัพพลายแบบ SFX - การ์ดจอแบบ dual-slot ที่ยาวไม่เกิน 180 มม. - พัดลมขนาด 80 มม. - และฮีตซิงก์ซีพียูแบบ low-profile Teenage Engineering ตั้งเป้าให้เคสนี้เป็น “เคสคอมพิวเตอร์ที่ถูกที่สุดในโลก” และพวกเขาก็ทำสำเร็จ ด้วยต้นทุนที่ “เท่ากับศูนย์” โดยไม่รวมอุปกรณ์ภายใน อย่างไรก็ตาม เคสนี้ก็มีข้อจำกัดอยู่ไม่น้อย เช่น ความแข็งแรงที่อาจไม่เหมาะกับการพกพาไปงาน LAN party หรือการใช้งานระยะยาว รวมถึงระบบระบายความร้อนที่อาจไม่เพียงพอสำหรับฮาร์ดแวร์แรง ๆ ✅ Teenage Engineering เปิดตัวเคส Computer–2 แจกฟรี ➡️ เคสทำจากแผ่นพลาสติกโปร่งแสงเพียงแผ่นเดียว ➡️ ใช้ snap hooks และ living hinges ประกอบโดยไม่ต้องใช้เครื่องมือ ➡️ แจกฟรีแบบจำกัดจำนวน (1 ชิ้นต่อคน) โดยต้องจ่ายค่าส่งเอง ✅ รองรับฮาร์ดแวร์ขนาดเล็กแต่ใช้งานได้จริง ➡️ รองรับเมนบอร์ด mini-ITX และพาวเวอร์ซัพพลายแบบ SFX ➡️ รองรับการ์ดจอ dual-slot ยาวไม่เกิน 180 มม. ➡️ รองรับพัดลมขนาด 80 มม. และฮีตซิงก์แบบ low-profile ✅ แนวคิดการออกแบบเพื่อความเรียบง่ายและต้นทุนต่ำ ➡️ ไม่มีพอร์ต I/O ด้านหน้า มีเพียงสวิตช์เปิดปิดและไฟ LED ➡️ ไม่มีสกรูหรือเครื่องมือใด ๆ ในการประกอบ ➡️ เป็นการทดลองด้านดีไซน์และการตลาดของบริษัท https://www.tomshardware.com/pc-components/pc-cases/free-mini-itx-case-made-of-one-sheet-of-translucent-plastic-arrives-stock-evaporates-instantly-teenage-engineerings-foldable-computer-2-sports-odd-layout-with-the-gpu-above-the-motherboard
    0 ความคิดเห็น 0 การแบ่งปัน 239 มุมมอง 0 รีวิว
  • เรื่องเล่าจากความตั้งใจล้วน ๆ: สร้างเว็บเสิร์ชเอนจินจากศูนย์ใน 2 เดือน ด้วย embedding 3 พันล้านรายการ

    Wilson Lin นักพัฒนาสายเดี่ยวตัดสินใจท้าทายตัวเองด้วยโปรเจกต์สุดโหด—สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายในเวลาแค่ 2 เดือน โดยไม่มีโครงสร้างพื้นฐาน ไม่มีทีม และไม่มีประสบการณ์ด้าน search engine มาก่อน จุดเริ่มต้นของเขาคือความไม่พอใจต่อเสิร์ชเอนจินปัจจุบันที่เต็มไปด้วย SEO spam และผลลัพธ์ที่ไม่ตรงกับความต้องการจริง

    เขาเลือกใช้โมเดล SBERT เพื่อสร้าง neural embeddings กว่า 3 พันล้านรายการ โดยใช้ GPU ถึง 200 ตัว และสร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า ด้วยระบบ crawler ที่สามารถดึงข้อมูลได้ถึง 50,000 หน้า/วินาที

    ระบบ backend ใช้ RocksDB และ HNSW ที่ถูกแบ่ง shard บน 200 คอร์, RAM 4 TB และ SSD 82 TB โดยมี latency เฉลี่ยต่อคำค้นอยู่ที่ประมาณ 500 มิลลิวินาที

    เขายังออกแบบระบบให้รองรับ query ที่ซับซ้อน เช่น “ฉันอยากใช้ S3 แทน Postgres แต่ต้องการ tag คอมเมนต์กับไฟล์ในอีก column” ซึ่ง search engine ทั่วไปไม่สามารถตอบได้ แต่ระบบของเขาสามารถเข้าใจบริบทและตอบได้อย่างแม่นยำ

    Wilson Lin สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายใน 2 เดือน
    ใช้ GPU 200 ตัวสร้าง SBERT embeddings กว่า 3 พันล้านรายการ

    ระบบ crawler ดึงข้อมูลได้ 50,000 หน้า/วินาที
    สร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า

    ใช้ RocksDB และ HNSW บน 200 คอร์, RAM 4 TB, SSD 82 TB
    latency เฉลี่ยต่อ query อยู่ที่ 500 มิลลิวินาที

    รองรับ query ซับซ้อนที่ search engine ทั่วไปไม่เข้าใจ
    เช่นคำถามที่มีบริบทหลายชั้นและความหมายแฝง

    มีระบบ semantic context และ statement chaining เพื่อเข้าใจความหมาย
    ช่วยให้ผลลัพธ์ตรงกับเจตนาของผู้ใช้มากขึ้น

    เปิดให้ทดลองใช้งานผ่าน live demo
    เป็นตัวอย่างของ search engine ที่ไม่พึ่ง keyword matching

    Semantic search ใช้ vector embeddings เพื่อเข้าใจความหมายของข้อความ
    ต่างจาก keyword search ที่จับคำตรงตัว

    การสร้าง search engine ต้องใช้ความรู้หลายด้าน
    เช่น NLP, ML, distributed systems, performance engineering

    ระบบ semantic search สามารถเข้าใจความสัมพันธ์ระหว่างคำ
    เช่น “dog” กับ “puppy” หรือ “laptop” กับ “computer”

    การสร้าง golden dataset สำหรับ training เป็นความท้าทายใหญ่
    เพราะต้องมีข้อมูลที่สะท้อนความหมายจริงของคำค้น

    https://blog.wilsonl.in/search-engine/
    🔍🧠 เรื่องเล่าจากความตั้งใจล้วน ๆ: สร้างเว็บเสิร์ชเอนจินจากศูนย์ใน 2 เดือน ด้วย embedding 3 พันล้านรายการ Wilson Lin นักพัฒนาสายเดี่ยวตัดสินใจท้าทายตัวเองด้วยโปรเจกต์สุดโหด—สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายในเวลาแค่ 2 เดือน โดยไม่มีโครงสร้างพื้นฐาน ไม่มีทีม และไม่มีประสบการณ์ด้าน search engine มาก่อน จุดเริ่มต้นของเขาคือความไม่พอใจต่อเสิร์ชเอนจินปัจจุบันที่เต็มไปด้วย SEO spam และผลลัพธ์ที่ไม่ตรงกับความต้องการจริง เขาเลือกใช้โมเดล SBERT เพื่อสร้าง neural embeddings กว่า 3 พันล้านรายการ โดยใช้ GPU ถึง 200 ตัว และสร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า ด้วยระบบ crawler ที่สามารถดึงข้อมูลได้ถึง 50,000 หน้า/วินาที ระบบ backend ใช้ RocksDB และ HNSW ที่ถูกแบ่ง shard บน 200 คอร์, RAM 4 TB และ SSD 82 TB โดยมี latency เฉลี่ยต่อคำค้นอยู่ที่ประมาณ 500 มิลลิวินาที เขายังออกแบบระบบให้รองรับ query ที่ซับซ้อน เช่น “ฉันอยากใช้ S3 แทน Postgres แต่ต้องการ tag คอมเมนต์กับไฟล์ในอีก column” ซึ่ง search engine ทั่วไปไม่สามารถตอบได้ แต่ระบบของเขาสามารถเข้าใจบริบทและตอบได้อย่างแม่นยำ ✅ Wilson Lin สร้างเว็บเสิร์ชเอนจินจากศูนย์ภายใน 2 เดือน ➡️ ใช้ GPU 200 ตัวสร้าง SBERT embeddings กว่า 3 พันล้านรายการ ✅ ระบบ crawler ดึงข้อมูลได้ 50,000 หน้า/วินาที ➡️ สร้าง index จากหน้าเว็บกว่า 280 ล้านหน้า ✅ ใช้ RocksDB และ HNSW บน 200 คอร์, RAM 4 TB, SSD 82 TB ➡️ latency เฉลี่ยต่อ query อยู่ที่ 500 มิลลิวินาที ✅ รองรับ query ซับซ้อนที่ search engine ทั่วไปไม่เข้าใจ ➡️ เช่นคำถามที่มีบริบทหลายชั้นและความหมายแฝง ✅ มีระบบ semantic context และ statement chaining เพื่อเข้าใจความหมาย ➡️ ช่วยให้ผลลัพธ์ตรงกับเจตนาของผู้ใช้มากขึ้น ✅ เปิดให้ทดลองใช้งานผ่าน live demo ➡️ เป็นตัวอย่างของ search engine ที่ไม่พึ่ง keyword matching ✅ Semantic search ใช้ vector embeddings เพื่อเข้าใจความหมายของข้อความ ➡️ ต่างจาก keyword search ที่จับคำตรงตัว ✅ การสร้าง search engine ต้องใช้ความรู้หลายด้าน ➡️ เช่น NLP, ML, distributed systems, performance engineering ✅ ระบบ semantic search สามารถเข้าใจความสัมพันธ์ระหว่างคำ ➡️ เช่น “dog” กับ “puppy” หรือ “laptop” กับ “computer” ✅ การสร้าง golden dataset สำหรับ training เป็นความท้าทายใหญ่ ➡️ เพราะต้องมีข้อมูลที่สะท้อนความหมายจริงของคำค้น https://blog.wilsonl.in/search-engine/
    0 ความคิดเห็น 0 การแบ่งปัน 252 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก

    ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS

    ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง

    แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว

    ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้
    ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต

    ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม
    เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้

    ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม
    มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy

    แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson
    เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้

    ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม
    เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้

    ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable
    ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี

    คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้
    ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง

    Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง
    แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้

    Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส
    เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม

    https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    🎲🔐 เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว ✅ ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้ ➡️ ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต ✅ ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม ➡️ เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้ ✅ ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม ➡️ มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy ✅ แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson ➡️ เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้ ✅ ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม ➡️ เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้ ✅ ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable ➡️ ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี ✅ คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้ ➡️ ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง ✅ Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง ➡️ แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้ ✅ Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส ➡️ เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    WWW.NEOWIN.NET
    Quantum computer does something for first time, creates "certified truly random" numbers
    Researchers achieve a breakthrough using quantum computing to generate and certify randomness, solving a problem classical computers can't tackle alone.
    0 ความคิดเห็น 0 การแบ่งปัน 317 มุมมอง 0 รีวิว
  • เรื่องเล่าจากนักพัฒนา: เมื่อ AI ที่เราให้แขนขา กลับหันหลังให้เรา

    Robin Grell นักพัฒนาไลบรารีชื่อ “enigo” ซึ่งใช้สำหรับควบคุมคอมพิวเตอร์ผ่านการจำลองการกดแป้นพิมพ์และเมาส์ ได้ค้นพบว่า Anthropic บริษัท AI มูลค่ากว่า 60 พันล้านดอลลาร์ ได้นำไลบรารีของเขาไปใช้ในแอป Claude Desktop โดยไม่แจ้งให้ทราบล่วงหน้า

    Claude Desktop เป็นแอปที่ให้ Claude AI ควบคุมคอมพิวเตอร์ได้โดยตรง เช่น การคัดลอกข้อมูลจากเบราว์เซอร์ไปยังสเปรดชีต ซึ่งฟีเจอร์นี้เรียกว่า “Computer Use” และยังอยู่ในช่วงเบต้า โดย enigo ถูกใช้ทั้งในเวอร์ชัน macOS และ Windows

    Robin รู้สึกภูมิใจที่ไลบรารีของเขาได้รับเลือกจากบริษัทใหญ่ แต่ก็รู้สึกเจ็บปวดเมื่อเขาถูกปฏิเสธจากการสมัครงานกับ Anthropic แม้จะเป็นผู้สร้างเครื่องมือที่พวกเขาใช้ก็ตาม

    ที่น่าสนใจคือ enigo เป็นไลบรารีโอเพ่นซอร์สภายใต้ MIT license ซึ่งหมายความว่าใครก็สามารถใช้ได้ฟรีโดยไม่ต้องจ่ายเงิน ทำให้ Robin ไม่ได้รับผลตอบแทนใด ๆ นอกจากดาวบน GitHub และยอดดาวน์โหลดบน crates.io

    Anthropic ใช้ไลบรารี “enigo” ใน Claude Desktop
    ใช้สำหรับควบคุมคอมพิวเตอร์ผ่านฟีเจอร์ “Computer Use”

    enigo รองรับทั้ง macOS และ Windows
    ยืนยันได้จากการตรวจสอบไฟล์ Claude Desktop

    enigo เป็นไลบรารีที่เขียนด้วยภาษา Rust
    รองรับหลายระบบปฏิบัติการโดยไม่ต้องใช้ root

    Claude Desktop เป็นแอป Electron ที่ให้ AI ควบคุมคอมพิวเตอร์
    ใช้สำหรับงานอัตโนมัติ เช่น คัดลอกข้อมูลหรือควบคุมแอป

    enigo มีดาวมากกว่า 1,200 บน GitHub และถูกดาวน์โหลดเกือบ 300,000 ครั้ง
    เป็นไลบรารียอดนิยมบน crates.io

    Claude Desktop รองรับการติดตั้ง extension เพื่อเชื่อมต่อกับแอปในเครื่อง
    เช่น ปฏิทิน, อีเมล, ไฟล์ระบบ และ iMessage

    ฟีเจอร์ “Computer Use” ยังอยู่ในช่วงเบต้า
    ต้องเปิดใช้งานด้วย header พิเศษ

    Claude สามารถควบคุมเมาส์, คีย์บอร์ด และจับภาพหน้าจอ
    ช่วยให้ AI ทำงานอัตโนมัติได้เหมือนมนุษย์

    Anthropic มีระบบ MCP สำหรับจัดการ extension บน Claude Desktop
    รองรับการอัปเดตอัตโนมัติและการตั้งค่าที่ง่าย

    นักพัฒนาโอเพ่นซอร์สอาจไม่ได้รับผลตอบแทนจากการใช้งานเชิงพาณิชย์
    แม้จะมีบริษัทใหญ่ใช้ผลงาน แต่ก็ไม่มีข้อผูกพันทางการเงิน

    การใช้ไลบรารีโอเพ่นซอร์สในผลิตภัณฑ์เชิงพาณิชย์อาจไม่แจ้งเจ้าของ
    ทำให้เกิดความรู้สึกถูกละเลยหรือไม่ให้เครดิต

    การสมัครงานในบริษัทที่ใช้ผลงานของคุณไม่รับประกันว่าจะได้รับการตอบรับ
    แม้จะมีคุณสมบัติเหมาะสม ก็อาจถูกปฏิเสธโดยไม่มีเหตุผลชัดเจน

    https://grell.dev/blog/ai_rejection
    🤖💔 เรื่องเล่าจากนักพัฒนา: เมื่อ AI ที่เราให้แขนขา กลับหันหลังให้เรา Robin Grell นักพัฒนาไลบรารีชื่อ “enigo” ซึ่งใช้สำหรับควบคุมคอมพิวเตอร์ผ่านการจำลองการกดแป้นพิมพ์และเมาส์ ได้ค้นพบว่า Anthropic บริษัท AI มูลค่ากว่า 60 พันล้านดอลลาร์ ได้นำไลบรารีของเขาไปใช้ในแอป Claude Desktop โดยไม่แจ้งให้ทราบล่วงหน้า Claude Desktop เป็นแอปที่ให้ Claude AI ควบคุมคอมพิวเตอร์ได้โดยตรง เช่น การคัดลอกข้อมูลจากเบราว์เซอร์ไปยังสเปรดชีต ซึ่งฟีเจอร์นี้เรียกว่า “Computer Use” และยังอยู่ในช่วงเบต้า โดย enigo ถูกใช้ทั้งในเวอร์ชัน macOS และ Windows Robin รู้สึกภูมิใจที่ไลบรารีของเขาได้รับเลือกจากบริษัทใหญ่ แต่ก็รู้สึกเจ็บปวดเมื่อเขาถูกปฏิเสธจากการสมัครงานกับ Anthropic แม้จะเป็นผู้สร้างเครื่องมือที่พวกเขาใช้ก็ตาม ที่น่าสนใจคือ enigo เป็นไลบรารีโอเพ่นซอร์สภายใต้ MIT license ซึ่งหมายความว่าใครก็สามารถใช้ได้ฟรีโดยไม่ต้องจ่ายเงิน ทำให้ Robin ไม่ได้รับผลตอบแทนใด ๆ นอกจากดาวบน GitHub และยอดดาวน์โหลดบน crates.io ✅ Anthropic ใช้ไลบรารี “enigo” ใน Claude Desktop ➡️ ใช้สำหรับควบคุมคอมพิวเตอร์ผ่านฟีเจอร์ “Computer Use” ✅ enigo รองรับทั้ง macOS และ Windows ➡️ ยืนยันได้จากการตรวจสอบไฟล์ Claude Desktop ✅ enigo เป็นไลบรารีที่เขียนด้วยภาษา Rust ➡️ รองรับหลายระบบปฏิบัติการโดยไม่ต้องใช้ root ✅ Claude Desktop เป็นแอป Electron ที่ให้ AI ควบคุมคอมพิวเตอร์ ➡️ ใช้สำหรับงานอัตโนมัติ เช่น คัดลอกข้อมูลหรือควบคุมแอป ✅ enigo มีดาวมากกว่า 1,200 บน GitHub และถูกดาวน์โหลดเกือบ 300,000 ครั้ง ➡️ เป็นไลบรารียอดนิยมบน crates.io ✅ Claude Desktop รองรับการติดตั้ง extension เพื่อเชื่อมต่อกับแอปในเครื่อง ➡️ เช่น ปฏิทิน, อีเมล, ไฟล์ระบบ และ iMessage ✅ ฟีเจอร์ “Computer Use” ยังอยู่ในช่วงเบต้า ➡️ ต้องเปิดใช้งานด้วย header พิเศษ ✅ Claude สามารถควบคุมเมาส์, คีย์บอร์ด และจับภาพหน้าจอ ➡️ ช่วยให้ AI ทำงานอัตโนมัติได้เหมือนมนุษย์ ✅ Anthropic มีระบบ MCP สำหรับจัดการ extension บน Claude Desktop ➡️ รองรับการอัปเดตอัตโนมัติและการตั้งค่าที่ง่าย ‼️ นักพัฒนาโอเพ่นซอร์สอาจไม่ได้รับผลตอบแทนจากการใช้งานเชิงพาณิชย์ ⛔ แม้จะมีบริษัทใหญ่ใช้ผลงาน แต่ก็ไม่มีข้อผูกพันทางการเงิน ‼️ การใช้ไลบรารีโอเพ่นซอร์สในผลิตภัณฑ์เชิงพาณิชย์อาจไม่แจ้งเจ้าของ ⛔ ทำให้เกิดความรู้สึกถูกละเลยหรือไม่ให้เครดิต ‼️ การสมัครงานในบริษัทที่ใช้ผลงานของคุณไม่รับประกันว่าจะได้รับการตอบรับ ⛔ แม้จะมีคุณสมบัติเหมาะสม ก็อาจถูกปฏิเสธโดยไม่มีเหตุผลชัดเจน https://grell.dev/blog/ai_rejection
    GRELL.DEV
    I gave the AI arms and legs – then it rejected me | Robin Grell
    How I helped Claude AI extend its capabilities only for the same AI to reject my job application.
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • ทำไมต้อง "Gripen"

    เครื่องบิน JAS Gripen ได้รับการรีวิวจริงไปแล้วครั้งแรกในโลกโดยประเทศไทยของเรานี่เอง รีวิวใส่กัมพูชาชนิดที่ว่า โลกเห็นแล้วต้องชื่นชมในศักยภาพ

    หลายคนรู้จัก F-16 ได้ยินชื่อนี้มานานหลายสิบปี แต่เพิ่งมาได้ยินชื่อ Gripen เมื่อไม่นานมานี้ และทำไมเราถึงใช้ Gripen ในภารกิจนี้ และวางแผนจะนำมาทดแทน F-16 มันดีกว่ายังไง?
    .
    ประวัติของ Gripen
    ประเทศสวีเดนคือผู้ให้กำเนิด Gripen ซึ่งถูกพัฒนามาจากปลายยุค 1970 หลังจากกองทัพอากาศสวีเดินเล็งเห็นว่า เครื่องบินรบรุ่นเก่าของสวีเดินเริ่มล้าสมัย สวีเดินจึงคิดผลิตเครื่องบินรุ่นใหม่ "ขึ้นมาเอง" เพราะไม่อยากพึ่งพาประเทศอื่นมากเกินไป ด้วยการก่อตั้งโครงการ "JAS" ในปี 1979
    โครงการ JAS มาจากคำว่า J = (Jakt) ยัคต์ แปลว่า ขับไล่ A= (Attack) แอทแทค แปลว่าโจมตี และ S = Spaning (สแปนนิ่ง) แปลว่า ลาดตระเวน คือแนวคิดที่จะพัฒนาเครื่องบินรบล้ำสมัยล้ำยุค ที่ใช้เครื่องบินเพียง 1 ลำ แต่สามารถปฏิบัติภารกิจได้ทั้ง 3 แบบในลำเดียว เที่ยวเดียวได้

    ปี 1982 บริษัท SAAB ได้รับหน้าที่พัฒนาโครางการนี้ แต่เนื่องจากโปรเจคนี้ใหญ่มา และต้องการความเป็น "ที่สุด" จึงได้ระดมสมองร่วมกับอีกหลายบริษัท เข้ามาดูแลความเป็นที่สุดในด้านต่างๆ ได้แก่ บริษัท Ericsson เข้ามาช่วยพัฒนาระบบเรดาห์และการบิน บริษัท Volvo Aero เข้ามาช่วยปรับแต่งเครื่องยนตร์ และบริษัท FFV มาดูเรื่องระบบอาวุธและอุปกรณ์ทางการทหาร
    ปี 1988 เครื่องต้นแบบลำแรกสำเร็จ แต่เมื่อบินทดสอบกลับไม่สำเร็จจนพังไป หลังจากทดลองจนเสร็จสมบูรณ์แบบ Gripen ลำแรกก็พร้อมประจำการได้ในปี 1996
    .
    ความสามารถอันเป็นที่สุดของ Gripen
    ทำหน้าที่ได้ถึง 3 หน้าที่ใน 1 ลำ
    1. เป็นเครื่องบินขับไล่ - ต่อสู้เครื่องบินศัตรูจากกลางอากาศได้
    2. เป็นเครื่องบินโจมตี - โจมตีภาคพื้นดิน ฐานทัพ บังเกอร์ รถถัง
    3. เป็นเครื่องบินลาดตระเวณ สอดแนม - บินไปถ่ยาภาพและสอดแนมตำแหน่งศัตรูได้
    .
    * ปกติเครื่องบินรบ 1 หน้าที่จะแยกเป็น 1 ลำไป แต่ Gripen สามารถปฏิบัติภารกิจได้ต่อเนื่อง เป็น Swing-Role อย่างเช่น ลาดตระเวณอยู่ แต่เจอศัตรู ก็เปลี่ยนเป็นโหมดต่อสู้ทางอากาศได้ และสลับไปสอดแนมต่อก็ยังได้ในการบินเที่ยวเดียว หรือจะสลับทำทั้ง 3 หน้าที่คือไปสอดแนม โจมตีศัตรูบนอากาศ และพื้นดินก็ยังได้
    .
    มีระบบ "TIDLS" อันทันสมัย สามารถเชื่อมต่อข้อมูลกัน ทุกลำเหมือนมี "ตาเดียวกัน" ทำให้ทุกลำโจมตีได้ร่วมกัน เช่น ลำนี้ตรวจเจอศัตรูแต่มุมยิงไม่ได้ ก็ให้อีกลำยิงแทน และตรวจจับศัตรูได้หลากหลายเป้าหมาย แม้ในสภาพอากาศไม่เป็นใจเช่นมีหมอก มีพายุ มีฝุ่น
    .
    มีระบบ EW คือระบบป้องกันตัวเอง สามารถรู้ได้ว่าเรดาห์ศัตรูตรวจเจอก็จะแจ้งเตือน หรือเมื่อถูกโจมตีด้วยมิซไซล์ ก็จะแจ้งเตือน มีการยิงเป้าหลอก แท่งความร้อนหลอกมิซไซล์ รวมถึงมีระบบส่งคลื่นสัญญาณรบกวน ทั้งหมดนี้ ยังสามารถเชื่อมระบบการโจมตีร่วมกับกองทัพเรือและกองทัพบกได้ด้วย
    .
    มีระบบ AI ช่วยการตัดสินใจให้นักบิน เพราะเวลารบ นักบินต้องตัดสินใจรวดเร็วมากในขณะที่ยังต้องควบคุมการบินและวิเคราะห์การรบ แต่ Gripen มี Mission Computer ที่จะรวบรวมระบบจากทุกลำมาตัดสินใจการรบแทนให้ มันวิเคราะห์สถานการณ์แบบ Realime ได้ เช่น จะเลือกล็อคเป้าเป้าหมายที่เหมาะสมที่สุดให้โจมตีก่อน มีหน้าจอขนาดใหญ่ แสดงถึงการโจมตี เส้นทางการหลบหนี ตำแหน่งของเพื่อนร่วมฝูง ทำให้นักบินเข้าใจได้ทันทีไม่ต้องเสียเวลาคิดอะไรมาก Gripen คิดให้หมดและคิดเป็นทีม
    .
    Gripen มีความยืดหยุ่นที่จะ Upgrade เครื่องได้หลากหลาย ทำให้ไม่ตกยุค สามารถปรับแต่งระบบต่างๆ ได้ตลอด เช่น อัพเกรดให้เชื่อมต่อกับเรือรบในระบบอื่นได้ มีระบบฝึกการบินภายในตัวเครื่องเองโดยไม่ต้องบินขึ้น ไม่ต้องไปซื้อระบบจำลองการบินเพิ่ม สแกนตัวเอง ดูแลสุขภาพตัวเองได้ อะไรมีปัญหา อะไหล่ชิ้นไหนใกล้เสื่อม จึงมีอายุการใช้งานที่ยาวนาน
    .
    Gripen มีความพร้อมรบ ต้องการพื้นที่ลงจอดได้แม้แต่ถนนยาวไม่ถึ่งกิโล สามารถออกรบซ้ำได้ภายใน 10 นาที เพราะเติมเชื้อเพลิง-ติดอาวุธได้แบบสั้นๆ (ใช้คนติดตั้งได้แค่ 5 คน) ต้นทุนการบินต่อชั่วโมงก็ต่ำ เทียบกับ F-16 แล้ว ถูกกว่าเกือบครึ่ง
    .
    ณ ปัจจุบัน Gripen มีอยู่ที่ประเทศสวีเดนผู้ให้กำเนิด ทั้งหมด 156 ลำ รองมาคือบราซิล 36 ลำ แอฟริกาใต้ 26 ลำ ฮังการีและเช็ค 14 ลำ และต่อไป เราจะมีเป็นลำดับที่ 5 คือ 12 ลำ และเราคือประเทศแรกของโลกที่ได้นำออกไปใช้ในสถานการณ์จริง!
    .
    Gripen ของกองทัพอากาศไทย ปี 2008-2010 เราจัดซื้อ Gripen ทั้งหมดแล้ว 12 ลำ แต่เราได้ดีลจากบริษัท SAAB ด้วยการเสนอการถ่ายทอดเทคโนโลยีให้ และจะจัดตั้งศูนย์วิจัยและพัฒนาเทคโนโลยีและอากาศยานให้ ซึ่งมีมูลค่าสูงมาก อีกทั้งยังจะมาลงทุนผลิตอะไหล่เพื่อขายให้กับประเทศอื่นได้ด้วย เราจึงได้ทั้งการลงทุน ความรู้ การจ้างงาน ซึ่งนับเป็นมูลค่าหลายแสนล้านบาท
    .
    ปี 2025 เราได้ทำการจัดซื้อล็อตใหม่ ซึ่งจะทยอยซื้อ ทยอยส่งมอบ เสร็จสิ้นในปี 2034 ทำให้ในปีนั้น เราจะมีฝูงบิน Gripen ถึง 24 ลำด้วยกัน!!!

    .
    CR:กองทัพอากาศไทยเครื่องบินขับไล่ Jas-39 Saab Gripen ทำการลงจอดและบินขึ้นจากถนนทางหลวงหมายเลข 4287 จังหวัดสงขลา 27 กุมภาพันธ์ 2568
    #RTAF
    🇹🇭ทำไมต้อง "Gripen" 🇸🇪 เครื่องบิน JAS Gripen ได้รับการรีวิวจริงไปแล้วครั้งแรกในโลกโดยประเทศไทยของเรานี่เอง รีวิวใส่กัมพูชาชนิดที่ว่า โลกเห็นแล้วต้องชื่นชมในศักยภาพ หลายคนรู้จัก F-16 ได้ยินชื่อนี้มานานหลายสิบปี แต่เพิ่งมาได้ยินชื่อ Gripen เมื่อไม่นานมานี้ และทำไมเราถึงใช้ Gripen ในภารกิจนี้ และวางแผนจะนำมาทดแทน F-16 มันดีกว่ายังไง? . 🇸🇪 🇸🇪 🇸🇪 ประวัติของ Gripen ประเทศสวีเดนคือผู้ให้กำเนิด Gripen ซึ่งถูกพัฒนามาจากปลายยุค 1970 หลังจากกองทัพอากาศสวีเดินเล็งเห็นว่า เครื่องบินรบรุ่นเก่าของสวีเดินเริ่มล้าสมัย สวีเดินจึงคิดผลิตเครื่องบินรุ่นใหม่ "ขึ้นมาเอง" เพราะไม่อยากพึ่งพาประเทศอื่นมากเกินไป ด้วยการก่อตั้งโครงการ "JAS" ในปี 1979 โครงการ JAS มาจากคำว่า J = (Jakt) ยัคต์ แปลว่า ขับไล่ A= (Attack) แอทแทค แปลว่าโจมตี และ S = Spaning (สแปนนิ่ง) แปลว่า ลาดตระเวน คือแนวคิดที่จะพัฒนาเครื่องบินรบล้ำสมัยล้ำยุค ที่ใช้เครื่องบินเพียง 1 ลำ แต่สามารถปฏิบัติภารกิจได้ทั้ง 3 แบบในลำเดียว เที่ยวเดียวได้ ปี 1982 บริษัท SAAB ได้รับหน้าที่พัฒนาโครางการนี้ แต่เนื่องจากโปรเจคนี้ใหญ่มา และต้องการความเป็น "ที่สุด" จึงได้ระดมสมองร่วมกับอีกหลายบริษัท เข้ามาดูแลความเป็นที่สุดในด้านต่างๆ ได้แก่ บริษัท Ericsson เข้ามาช่วยพัฒนาระบบเรดาห์และการบิน บริษัท Volvo Aero เข้ามาช่วยปรับแต่งเครื่องยนตร์ และบริษัท FFV มาดูเรื่องระบบอาวุธและอุปกรณ์ทางการทหาร ปี 1988 เครื่องต้นแบบลำแรกสำเร็จ แต่เมื่อบินทดสอบกลับไม่สำเร็จจนพังไป หลังจากทดลองจนเสร็จสมบูรณ์แบบ Gripen ลำแรกก็พร้อมประจำการได้ในปี 1996 . 🇸🇪 🇸🇪 🇸🇪 ความสามารถอันเป็นที่สุดของ Gripen 🇸🇪 🇸🇪 🇸🇪 🇸🇪 ทำหน้าที่ได้ถึง 3 หน้าที่ใน 1 ลำ 1. เป็นเครื่องบินขับไล่ - ต่อสู้เครื่องบินศัตรูจากกลางอากาศได้ 2. เป็นเครื่องบินโจมตี - โจมตีภาคพื้นดิน ฐานทัพ บังเกอร์ รถถัง 3. เป็นเครื่องบินลาดตระเวณ สอดแนม - บินไปถ่ยาภาพและสอดแนมตำแหน่งศัตรูได้ . * ปกติเครื่องบินรบ 1 หน้าที่จะแยกเป็น 1 ลำไป แต่ Gripen สามารถปฏิบัติภารกิจได้ต่อเนื่อง เป็น Swing-Role อย่างเช่น ลาดตระเวณอยู่ แต่เจอศัตรู ก็เปลี่ยนเป็นโหมดต่อสู้ทางอากาศได้ และสลับไปสอดแนมต่อก็ยังได้ในการบินเที่ยวเดียว หรือจะสลับทำทั้ง 3 หน้าที่คือไปสอดแนม โจมตีศัตรูบนอากาศ และพื้นดินก็ยังได้ . 🇸🇪 มีระบบ "TIDLS" อันทันสมัย สามารถเชื่อมต่อข้อมูลกัน ทุกลำเหมือนมี "ตาเดียวกัน" ทำให้ทุกลำโจมตีได้ร่วมกัน เช่น ลำนี้ตรวจเจอศัตรูแต่มุมยิงไม่ได้ ก็ให้อีกลำยิงแทน และตรวจจับศัตรูได้หลากหลายเป้าหมาย แม้ในสภาพอากาศไม่เป็นใจเช่นมีหมอก มีพายุ มีฝุ่น . 🇸🇪 มีระบบ EW คือระบบป้องกันตัวเอง สามารถรู้ได้ว่าเรดาห์ศัตรูตรวจเจอก็จะแจ้งเตือน หรือเมื่อถูกโจมตีด้วยมิซไซล์ ก็จะแจ้งเตือน มีการยิงเป้าหลอก แท่งความร้อนหลอกมิซไซล์ รวมถึงมีระบบส่งคลื่นสัญญาณรบกวน ทั้งหมดนี้ ยังสามารถเชื่อมระบบการโจมตีร่วมกับกองทัพเรือและกองทัพบกได้ด้วย . 🇸🇪 มีระบบ AI ช่วยการตัดสินใจให้นักบิน เพราะเวลารบ นักบินต้องตัดสินใจรวดเร็วมากในขณะที่ยังต้องควบคุมการบินและวิเคราะห์การรบ แต่ Gripen มี Mission Computer ที่จะรวบรวมระบบจากทุกลำมาตัดสินใจการรบแทนให้ มันวิเคราะห์สถานการณ์แบบ Realime ได้ เช่น จะเลือกล็อคเป้าเป้าหมายที่เหมาะสมที่สุดให้โจมตีก่อน มีหน้าจอขนาดใหญ่ แสดงถึงการโจมตี เส้นทางการหลบหนี ตำแหน่งของเพื่อนร่วมฝูง ทำให้นักบินเข้าใจได้ทันทีไม่ต้องเสียเวลาคิดอะไรมาก Gripen คิดให้หมดและคิดเป็นทีม . 🇸🇪 Gripen มีความยืดหยุ่นที่จะ Upgrade เครื่องได้หลากหลาย ทำให้ไม่ตกยุค สามารถปรับแต่งระบบต่างๆ ได้ตลอด เช่น อัพเกรดให้เชื่อมต่อกับเรือรบในระบบอื่นได้ มีระบบฝึกการบินภายในตัวเครื่องเองโดยไม่ต้องบินขึ้น ไม่ต้องไปซื้อระบบจำลองการบินเพิ่ม สแกนตัวเอง ดูแลสุขภาพตัวเองได้ อะไรมีปัญหา อะไหล่ชิ้นไหนใกล้เสื่อม จึงมีอายุการใช้งานที่ยาวนาน . 🇸🇪 Gripen มีความพร้อมรบ ต้องการพื้นที่ลงจอดได้แม้แต่ถนนยาวไม่ถึ่งกิโล สามารถออกรบซ้ำได้ภายใน 10 นาที เพราะเติมเชื้อเพลิง-ติดอาวุธได้แบบสั้นๆ (ใช้คนติดตั้งได้แค่ 5 คน) ต้นทุนการบินต่อชั่วโมงก็ต่ำ เทียบกับ F-16 แล้ว ถูกกว่าเกือบครึ่ง . 🇸🇪 ณ ปัจจุบัน Gripen มีอยู่ที่ประเทศสวีเดนผู้ให้กำเนิด ทั้งหมด 156 ลำ รองมาคือบราซิล 36 ลำ แอฟริกาใต้ 26 ลำ ฮังการีและเช็ค 14 ลำ และต่อไป เราจะมีเป็นลำดับที่ 5 คือ 12 ลำ และเราคือประเทศแรกของโลกที่ได้นำออกไปใช้ในสถานการณ์จริง! . 🇸🇪 Gripen ของกองทัพอากาศไทย ปี 2008-2010 เราจัดซื้อ Gripen ทั้งหมดแล้ว 12 ลำ แต่เราได้ดีลจากบริษัท SAAB ด้วยการเสนอการถ่ายทอดเทคโนโลยีให้ และจะจัดตั้งศูนย์วิจัยและพัฒนาเทคโนโลยีและอากาศยานให้ ซึ่งมีมูลค่าสูงมาก อีกทั้งยังจะมาลงทุนผลิตอะไหล่เพื่อขายให้กับประเทศอื่นได้ด้วย เราจึงได้ทั้งการลงทุน ความรู้ การจ้างงาน ซึ่งนับเป็นมูลค่าหลายแสนล้านบาท . 🇸🇪 ปี 2025 เราได้ทำการจัดซื้อล็อตใหม่ ซึ่งจะทยอยซื้อ ทยอยส่งมอบ เสร็จสิ้นในปี 2034 ทำให้ในปีนั้น เราจะมีฝูงบิน Gripen ถึง 24 ลำด้วยกัน!!! . CR:กองทัพอากาศไทยเครื่องบินขับไล่ Jas-39 Saab Gripen ทำการลงจอดและบินขึ้นจากถนนทางหลวงหมายเลข 4287 จังหวัดสงขลา 27 กุมภาพันธ์ 2568 #RTAF
    Love
    1
    0 ความคิดเห็น 0 การแบ่งปัน 573 มุมมอง 0 0 รีวิว
  • เรื่องเล่าจากห้องนักบิน: ทำไมเราควรเลิกใช้ “AI Copilot” แล้วหันมาใช้ “AI HUD”

    ในปี 1992 Mark Weiser เคยวิจารณ์แนวคิด “AI copilot” ว่าเป็นการออกแบบที่ผิดทิศ เพราะมันทำให้ผู้ใช้ต้องคอยสนใจและโต้ตอบกับผู้ช่วยเสมือนอย่างต่อเนื่อง ซึ่งขัดกับเป้าหมายของเขาในการสร้าง “invisible computer” หรือคอมพิวเตอร์ที่กลมกลืนกับชีวิตประจำวันจนเราแทบไม่รู้ว่ามันอยู่ตรงนั้น

    Weiser เสนอแนวคิดใหม่ว่าแทนที่จะมีผู้ช่วยที่คอยตะโกนบอกว่า “ชนแล้ว! เลี้ยวขวา!” เราควรออกแบบห้องนักบินให้ผู้ขับขี่ “เห็น” ความเสี่ยงได้เอง—เหมือนกับ HUD (Head-Up Display) ที่แสดงข้อมูลสำคัญไว้ตรงหน้าตา โดยไม่ต้องละสายตา

    Geoffrey Litt นำแนวคิดนี้มาเปรียบเทียบกับการออกแบบซอฟต์แวร์ในยุค AI เช่น spellcheck ที่ไม่ต้องพูดคุยกับผู้ใช้ แต่แค่แสดงเส้นแดงใต้คำผิด หรือ debugger UI ที่ช่วยให้เห็นการทำงานของโปรแกรมแบบเรียลไทม์—ทั้งหมดนี้คือ “HUD” ที่ให้ผู้ใช้มี “ประสาทสัมผัสใหม่” โดยไม่ต้องเสียสมาธิ

    Mark Weiser เสนอแนวคิด “invisible computer” ที่ไม่รบกวนผู้ใช้
    เป้าหมายคือให้เทคโนโลยีเป็นส่วนหนึ่งของร่างกาย ไม่ใช่สิ่งที่ต้องคอยสั่งงาน
    HUD คือเครื่องมือที่ช่วยให้ผู้ใช้รับรู้ข้อมูลโดยไม่ต้องโต้ตอบ

    Geoffrey Litt เสนอให้ใช้ HUD แทน Copilot ในการออกแบบ AI
    HUD ช่วยเพิ่ม “ประสาทสัมผัส” ให้ผู้ใช้ เช่น spellcheck หรือ debugger UI
    ไม่ต้องสนทนา ไม่ต้องสั่งงาน—แค่รับรู้และตัดสินใจได้ดีขึ้น

    Copilot เหมาะกับงานที่เป็นกิจวัตรและคาดเดาได้
    เช่น การบินระดับปกติ หรือการจัดการงานซ้ำ ๆ
    แต่ HUD เหมาะกับสถานการณ์ที่ต้องการความเข้าใจลึก เช่น การแก้บั๊ก หรือวิเคราะห์ข้อมูล

    แนวคิด HUD สอดคล้องกับงานวิจัยด้าน “Agency + Automation”
    ช่วยให้ผู้ใช้มีอำนาจในการตัดสินใจมากขึ้น
    ลดการพึ่งพา AI แบบผู้ช่วยที่อาจรบกวนสมาธิ


    https://www.geoffreylitt.com/2025/07/27/enough-ai-copilots-we-need-ai-huds
    🧠 เรื่องเล่าจากห้องนักบิน: ทำไมเราควรเลิกใช้ “AI Copilot” แล้วหันมาใช้ “AI HUD” ในปี 1992 Mark Weiser เคยวิจารณ์แนวคิด “AI copilot” ว่าเป็นการออกแบบที่ผิดทิศ เพราะมันทำให้ผู้ใช้ต้องคอยสนใจและโต้ตอบกับผู้ช่วยเสมือนอย่างต่อเนื่อง ซึ่งขัดกับเป้าหมายของเขาในการสร้าง “invisible computer” หรือคอมพิวเตอร์ที่กลมกลืนกับชีวิตประจำวันจนเราแทบไม่รู้ว่ามันอยู่ตรงนั้น Weiser เสนอแนวคิดใหม่ว่าแทนที่จะมีผู้ช่วยที่คอยตะโกนบอกว่า “ชนแล้ว! เลี้ยวขวา!” เราควรออกแบบห้องนักบินให้ผู้ขับขี่ “เห็น” ความเสี่ยงได้เอง—เหมือนกับ HUD (Head-Up Display) ที่แสดงข้อมูลสำคัญไว้ตรงหน้าตา โดยไม่ต้องละสายตา Geoffrey Litt นำแนวคิดนี้มาเปรียบเทียบกับการออกแบบซอฟต์แวร์ในยุค AI เช่น spellcheck ที่ไม่ต้องพูดคุยกับผู้ใช้ แต่แค่แสดงเส้นแดงใต้คำผิด หรือ debugger UI ที่ช่วยให้เห็นการทำงานของโปรแกรมแบบเรียลไทม์—ทั้งหมดนี้คือ “HUD” ที่ให้ผู้ใช้มี “ประสาทสัมผัสใหม่” โดยไม่ต้องเสียสมาธิ ✅ Mark Weiser เสนอแนวคิด “invisible computer” ที่ไม่รบกวนผู้ใช้ ➡️ เป้าหมายคือให้เทคโนโลยีเป็นส่วนหนึ่งของร่างกาย ไม่ใช่สิ่งที่ต้องคอยสั่งงาน ➡️ HUD คือเครื่องมือที่ช่วยให้ผู้ใช้รับรู้ข้อมูลโดยไม่ต้องโต้ตอบ ✅ Geoffrey Litt เสนอให้ใช้ HUD แทน Copilot ในการออกแบบ AI ➡️ HUD ช่วยเพิ่ม “ประสาทสัมผัส” ให้ผู้ใช้ เช่น spellcheck หรือ debugger UI ➡️ ไม่ต้องสนทนา ไม่ต้องสั่งงาน—แค่รับรู้และตัดสินใจได้ดีขึ้น ✅ Copilot เหมาะกับงานที่เป็นกิจวัตรและคาดเดาได้ ➡️ เช่น การบินระดับปกติ หรือการจัดการงานซ้ำ ๆ ➡️ แต่ HUD เหมาะกับสถานการณ์ที่ต้องการความเข้าใจลึก เช่น การแก้บั๊ก หรือวิเคราะห์ข้อมูล ✅ แนวคิด HUD สอดคล้องกับงานวิจัยด้าน “Agency + Automation” ➡️ ช่วยให้ผู้ใช้มีอำนาจในการตัดสินใจมากขึ้น ➡️ ลดการพึ่งพา AI แบบผู้ช่วยที่อาจรบกวนสมาธิ https://www.geoffreylitt.com/2025/07/27/enough-ai-copilots-we-need-ai-huds
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเบื้องหลัง AI: จะเลือก SaaS หรือ On-Premise ดี?

    การทำ Data Annotation คือการติดป้ายกำกับข้อมูลดิบ เช่น รูปภาพ, ข้อความ, เสียง หรือวิดีโอ เพื่อให้โมเดล AI เข้าใจและเรียนรู้ได้อย่างแม่นยำ เช่น การตรวจจับวัตถุ, การวิเคราะห์ความรู้สึก, หรือการรู้จำเสียงพูด

    แต่การเลือกว่าจะใช้แพลตฟอร์มแบบ SaaS หรือ On-Premise ไม่ใช่แค่เรื่องเทคนิค — มันเกี่ยวกับความเร็ว, งบประมาณ, ความปลอดภัย และขอบเขตของโครงการ

    SaaS: เร็ว ง่าย แต่ต้องแลกกับความยืดหยุ่น
    - เหมาะกับทีมที่ต้องการเริ่มงานเร็ว, ไม่มีทีม IT, หรือทำโปรเจกต์ระยะสั้น
    - ไม่ต้องติดตั้งระบบเอง ผู้ให้บริการดูแลทั้งหมด
    - รองรับการทำงานร่วมกันจากหลายสถานที่

    แต่ก็มีข้อจำกัด เช่น:
    - ข้อมูลต้องผ่านคลาวด์ของผู้ให้บริการ อาจไม่เหมาะกับข้อมูลอ่อนไหว
    - ปรับแต่งระบบได้จำกัด
    - ค่าใช้จ่ายสะสมจากการจ่ายรายเดือน
    - ขึ้นอยู่กับ uptime และการสนับสนุนของผู้ให้บริการ

    On-Premise: ควบคุมเต็มที่ แต่ต้องลงทุน
    - เหมาะกับองค์กรที่มีข้อมูลอ่อนไหว เช่น ด้านสุขภาพ, การเงิน, หรือรัฐบาล
    - ปรับแต่งระบบได้ตามต้องการ
    - ไม่มีค่าใช้จ่ายรายเดือนระยะยาว
    - ควบคุมความพร้อมใช้งานได้เอง

    แต่ก็มีข้อจำกัด เช่น:
    - ต้องใช้ทีมเทคนิคในการติดตั้งและดูแล
    - ใช้เวลานานในการเริ่มต้น
    - ค่าใช้จ่ายเริ่มต้นสูง
    - ต้องดูแลเรื่องความปลอดภัยและการอัปเดตเอง

    Data Annotation คือการติดป้ายกำกับข้อมูลดิบเพื่อให้ AI เรียนรู้
    ใช้ในงาน computer vision, NLP, speech recognition และ robotics

    SaaS คือแพลตฟอร์มที่เข้าถึงผ่านคลาวด์ โดยผู้ให้บริการดูแลระบบ
    เหมาะกับทีมที่ต้องการเริ่มงานเร็วและไม่มีทีม IT

    SaaS มีข้อดี เช่น setup เร็ว, อัปเดตอัตโนมัติ, ขยายระบบง่าย
    รองรับการทำงานร่วมกันจากหลายสถานที่

    SaaS มีข้อจำกัด เช่น ความปลอดภัยของข้อมูล, ปรับแต่งได้น้อย
    ค่าใช้จ่ายสะสมและพึ่งพาผู้ให้บริการ

    On-Premise คือระบบที่ติดตั้งในเซิร์ฟเวอร์ขององค์กรเอง
    เหมาะกับข้อมูลอ่อนไหวและต้องการปรับแต่งระบบ

    On-Premise มีข้อดี เช่น ควบคุมข้อมูล, ปรับแต่งได้เต็มที่, ไม่มีค่าใช้จ่ายรายเดือน
    ไม่ขึ้นอยู่กับ uptime ของผู้ให้บริการ

    On-Premise มีข้อจำกัด เช่น setup ยาก, ต้องดูแลระบบเอง
    ใช้เวลานานและต้องลงทุนสูง

    https://hackread.com/on-premise-vs-saas-data-annotation-platforms-compared/
    🎙️ เรื่องเล่าจากเบื้องหลัง AI: จะเลือก SaaS หรือ On-Premise ดี? การทำ Data Annotation คือการติดป้ายกำกับข้อมูลดิบ เช่น รูปภาพ, ข้อความ, เสียง หรือวิดีโอ เพื่อให้โมเดล AI เข้าใจและเรียนรู้ได้อย่างแม่นยำ เช่น การตรวจจับวัตถุ, การวิเคราะห์ความรู้สึก, หรือการรู้จำเสียงพูด แต่การเลือกว่าจะใช้แพลตฟอร์มแบบ SaaS หรือ On-Premise ไม่ใช่แค่เรื่องเทคนิค — มันเกี่ยวกับความเร็ว, งบประมาณ, ความปลอดภัย และขอบเขตของโครงการ 🧩 SaaS: เร็ว ง่าย แต่ต้องแลกกับความยืดหยุ่น - เหมาะกับทีมที่ต้องการเริ่มงานเร็ว, ไม่มีทีม IT, หรือทำโปรเจกต์ระยะสั้น - ไม่ต้องติดตั้งระบบเอง ผู้ให้บริการดูแลทั้งหมด - รองรับการทำงานร่วมกันจากหลายสถานที่ แต่ก็มีข้อจำกัด เช่น: - ข้อมูลต้องผ่านคลาวด์ของผู้ให้บริการ อาจไม่เหมาะกับข้อมูลอ่อนไหว - ปรับแต่งระบบได้จำกัด - ค่าใช้จ่ายสะสมจากการจ่ายรายเดือน - ขึ้นอยู่กับ uptime และการสนับสนุนของผู้ให้บริการ 🛠️ On-Premise: ควบคุมเต็มที่ แต่ต้องลงทุน - เหมาะกับองค์กรที่มีข้อมูลอ่อนไหว เช่น ด้านสุขภาพ, การเงิน, หรือรัฐบาล - ปรับแต่งระบบได้ตามต้องการ - ไม่มีค่าใช้จ่ายรายเดือนระยะยาว - ควบคุมความพร้อมใช้งานได้เอง แต่ก็มีข้อจำกัด เช่น: - ต้องใช้ทีมเทคนิคในการติดตั้งและดูแล - ใช้เวลานานในการเริ่มต้น - ค่าใช้จ่ายเริ่มต้นสูง - ต้องดูแลเรื่องความปลอดภัยและการอัปเดตเอง ✅ Data Annotation คือการติดป้ายกำกับข้อมูลดิบเพื่อให้ AI เรียนรู้ ➡️ ใช้ในงาน computer vision, NLP, speech recognition และ robotics ✅ SaaS คือแพลตฟอร์มที่เข้าถึงผ่านคลาวด์ โดยผู้ให้บริการดูแลระบบ ➡️ เหมาะกับทีมที่ต้องการเริ่มงานเร็วและไม่มีทีม IT ✅ SaaS มีข้อดี เช่น setup เร็ว, อัปเดตอัตโนมัติ, ขยายระบบง่าย ➡️ รองรับการทำงานร่วมกันจากหลายสถานที่ ✅ SaaS มีข้อจำกัด เช่น ความปลอดภัยของข้อมูล, ปรับแต่งได้น้อย ➡️ ค่าใช้จ่ายสะสมและพึ่งพาผู้ให้บริการ ✅ On-Premise คือระบบที่ติดตั้งในเซิร์ฟเวอร์ขององค์กรเอง ➡️ เหมาะกับข้อมูลอ่อนไหวและต้องการปรับแต่งระบบ ✅ On-Premise มีข้อดี เช่น ควบคุมข้อมูล, ปรับแต่งได้เต็มที่, ไม่มีค่าใช้จ่ายรายเดือน ➡️ ไม่ขึ้นอยู่กับ uptime ของผู้ให้บริการ ✅ On-Premise มีข้อจำกัด เช่น setup ยาก, ต้องดูแลระบบเอง ➡️ ใช้เวลานานและต้องลงทุนสูง https://hackread.com/on-premise-vs-saas-data-annotation-platforms-compared/
    HACKREAD.COM
    On-Premise vs SaaS Data Annotation Platforms Compared
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 ความคิดเห็น 0 การแบ่งปัน 299 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกมืดของ UIA: เมื่อเครื่องมือสำหรับผู้พิการถูกใช้เป็นช่องทางลอบโจมตี

    UI Automation (UIA) เป็นระบบที่ Microsoft ออกแบบเพื่อช่วยให้เทคโนโลยีผู้ช่วย (assistive technologies) เช่น screen reader เข้าถึง UI ของซอฟต์แวร์ต่าง ๆ ได้ — แต่แฮกเกอร์พบว่า UIA สามารถใช้ “สแกน” หน้าต่างของโปรแกรมอื่น เพื่อดึงข้อมูลจากฟิลด์ต่าง ๆ ได้ โดยไม่ต้องเข้าถึง API หรือระบบเครือข่าย

    มัลแวร์ Coyote รุ่นล่าสุดจึงใช้ UIA ในการ:
    - ตรวจสอบว่าเหย้อติดต่อกับธนาคารหรือเว็บคริปโตหรือไม่ โดยวิเคราะห์ชื่อหน้าต่าง
    - หากไม่พบชื่อในลิสต์ 75 สถาบันที่ถูกตั้งไว้ล่วงหน้า จะใช้ UIA สแกน sub-elements เพื่อตรวจจับ field ที่น่าจะเกี่ยวกับการเงิน
    - ดึงข้อมูล เช่น username, password, หรือ address bar ได้โดยตรงผ่าน COM object ของ UIA

    เทคนิคนี้ช่วยให้มัลแวร์:
    - หลบหลีก endpoint detection software ได้ดีขึ้น
    - ทำงานได้ทั้งแบบ online และ offline
    - มีความยืดหยุ่นในการเข้าถึงหลายแอปและหลาย browser โดยไม่ต้องรู้โครงสร้างล่วงหน้า

    Coyote Trojan รุ่นใหม่ใช้ Microsoft UI Automation (UIA) ในการขโมยข้อมูลจากธนาคารและคริปโต
    ถือเป็นมัลแวร์ตัวแรกที่นำ UIA ไปใช้จริงจากแนวคิด proof-of-concept

    UIA เป็น framework ที่ช่วยให้โปรแกรมเข้าถึง UI ของแอปอื่นผ่าน COM object
    ทำให้สามารถอ่าน content ใน input field, address bar, และ sub-element ของหน้าต่างได้

    Coyote ตรวจสอบชื่อหน้าต่างว่าเกี่ยวข้องกับสถาบันการเงินหรือไม่
    หากไม่ตรง จะใช้ UIA “ไต่” โครงสร้างหน้าต่างเพื่อหาข้อมูลแทน

    มัลแวร์มีลิสต์สถาบันการเงิน 75 แห่ง ซึ่งรวมถึงธนาคารและ crypto exchange
    มีการ mapping เป็นหมวดหมู่ภายใน เพื่อใช้เลือกเป้าหมายและเทคนิคการโจมตี

    Coyote ยังส่งข้อมูลเครื่องกลับไปยัง C2 เช่น username, computer name, browser
    แม้อยู่แบบ offline ก็ยังตรวจสอบและเก็บข้อมูลไว้ได้โดยไม่ต้องสื่อสารตลอดเวลา

    Akamai มีคำแนะนำให้ตรวจสอบ DLL ที่โหลด เช่น UIAutomationCore.dll
    และใช้ osquery ตรวจสอบ named pipe ที่เกี่ยวข้องกับ UIA เพื่อจับพฤติกรรมผิดปกติ

    https://hackread.com/coyote-trojan-use-microsoft-ui-automation-bank-attacks/
    🎙️ เรื่องเล่าจากโลกมืดของ UIA: เมื่อเครื่องมือสำหรับผู้พิการถูกใช้เป็นช่องทางลอบโจมตี UI Automation (UIA) เป็นระบบที่ Microsoft ออกแบบเพื่อช่วยให้เทคโนโลยีผู้ช่วย (assistive technologies) เช่น screen reader เข้าถึง UI ของซอฟต์แวร์ต่าง ๆ ได้ — แต่แฮกเกอร์พบว่า UIA สามารถใช้ “สแกน” หน้าต่างของโปรแกรมอื่น เพื่อดึงข้อมูลจากฟิลด์ต่าง ๆ ได้ โดยไม่ต้องเข้าถึง API หรือระบบเครือข่าย มัลแวร์ Coyote รุ่นล่าสุดจึงใช้ UIA ในการ: - ตรวจสอบว่าเหย้อติดต่อกับธนาคารหรือเว็บคริปโตหรือไม่ โดยวิเคราะห์ชื่อหน้าต่าง - หากไม่พบชื่อในลิสต์ 75 สถาบันที่ถูกตั้งไว้ล่วงหน้า จะใช้ UIA สแกน sub-elements เพื่อตรวจจับ field ที่น่าจะเกี่ยวกับการเงิน - ดึงข้อมูล เช่น username, password, หรือ address bar ได้โดยตรงผ่าน COM object ของ UIA เทคนิคนี้ช่วยให้มัลแวร์: - หลบหลีก endpoint detection software ได้ดีขึ้น - ทำงานได้ทั้งแบบ online และ offline - มีความยืดหยุ่นในการเข้าถึงหลายแอปและหลาย browser โดยไม่ต้องรู้โครงสร้างล่วงหน้า ✅ Coyote Trojan รุ่นใหม่ใช้ Microsoft UI Automation (UIA) ในการขโมยข้อมูลจากธนาคารและคริปโต ➡️ ถือเป็นมัลแวร์ตัวแรกที่นำ UIA ไปใช้จริงจากแนวคิด proof-of-concept ✅ UIA เป็น framework ที่ช่วยให้โปรแกรมเข้าถึง UI ของแอปอื่นผ่าน COM object ➡️ ทำให้สามารถอ่าน content ใน input field, address bar, และ sub-element ของหน้าต่างได้ ✅ Coyote ตรวจสอบชื่อหน้าต่างว่าเกี่ยวข้องกับสถาบันการเงินหรือไม่ ➡️ หากไม่ตรง จะใช้ UIA “ไต่” โครงสร้างหน้าต่างเพื่อหาข้อมูลแทน ✅ มัลแวร์มีลิสต์สถาบันการเงิน 75 แห่ง ซึ่งรวมถึงธนาคารและ crypto exchange ➡️ มีการ mapping เป็นหมวดหมู่ภายใน เพื่อใช้เลือกเป้าหมายและเทคนิคการโจมตี ✅ Coyote ยังส่งข้อมูลเครื่องกลับไปยัง C2 เช่น username, computer name, browser ➡️ แม้อยู่แบบ offline ก็ยังตรวจสอบและเก็บข้อมูลไว้ได้โดยไม่ต้องสื่อสารตลอดเวลา ✅ Akamai มีคำแนะนำให้ตรวจสอบ DLL ที่โหลด เช่น UIAutomationCore.dll ➡️ และใช้ osquery ตรวจสอบ named pipe ที่เกี่ยวข้องกับ UIA เพื่อจับพฤติกรรมผิดปกติ https://hackread.com/coyote-trojan-use-microsoft-ui-automation-bank-attacks/
    HACKREAD.COM
    Coyote Trojan First to Use Microsoft UI Automation in Bank Attacks
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 276 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเบื้องหลังระบบรัฐ: เมื่อ “นักพัฒนาจากต่างแดน” เข้าใกล้ระบบความมั่นคงเกินไป

    ข่าวต้นทางเริ่มจากการสืบสวนของ ProPublica ที่พบว่า Microsoft อนุญาตให้ “วิศวกรจากจีน” ทำงานร่วมกับระบบสำหรับลูกค้ารัฐบาลสหรัฐฯ โดยเฉพาะ DoD cloud — แม้จะมีการใช้ระบบ digital escorts ที่เป็นพลเมืองสหรัฐฯ คอยดูแล แต่รายงานพบว่า:

    ผู้คุมบางคนไม่มีความรู้เชิงเทคนิคเพียงพอที่จะรู้ว่าสิ่งที่ถูกพัฒนาคือโค้ดปกติหรือ backdoor

    นี่คือช่องโหว่ร้ายแรง และไม่มีหน่วยงานของรัฐทราบว่าการจัดการลักษณะนี้เคยเกิดขึ้นมาก่อน

    แม้ยังไม่มีหลักฐานว่ามีการ “แฝงมัลแวร์หรือระบบสอดแนม” จากวิศวกรกลุ่มนี้ แต่ความเสี่ยงด้านการข่าวกรองระดับชาติถือว่าสูงมาก — ส่งผลให้:
    - รัฐมนตรีกลาโหมโพสต์ว่า “วิศวกรจากต่างประเทศต้องไม่เข้าถึงระบบของ DoD ไม่ว่าจะมาจากชาติไหน”
    - Microsoft ต้องปรับนโยบายทันที โดยยืนยันว่าทีมงานจากประเทศจีนจะไม่สามารถเข้าไปยุ่งเกี่ยวกับลูกค้ารัฐบาลสหรัฐฯ ได้อีก

    Microsoft เคยให้วิศวกรจากจีนร่วมงานกับระบบของกระทรวงกลาโหมสหรัฐฯ
    ผ่านระบบ “digital escort” คือพนักงานสหรัฐคอยดูแลขณะทำงานร่วม

    ระบบ digital escort ถูกวิจารณ์ว่าไม่มีประสิทธิภาพจริง
    เพราะผู้ดูแลบางคนไม่มีความรู้ technical เพียงพอที่จะตรวจโค้ด

    Microsoft ยืนยันว่าได้แจ้งรัฐบาลเกี่ยวกับระบบนี้แล้ว
    แต่ทั้งเจ้าหน้าที่เก่าและปัจจุบันบอกว่า “ไม่เคยรู้มาก่อน”

    รัฐมนตรีกลาโหมสหรัฐฯ โพสต์แสดงจุดยืนว่าไม่ควรให้วิศวกรต่างชาติเข้าถึง DoD เลย
    ชี้ว่าระบบความมั่นคงต้องมีมาตรฐานการคัดกรองสูงกว่านี้

    Microsoft ออกแถลงการณ์ว่า ได้ยุติการให้ทีมจากประเทศจีนทำงานในโปรเจกรัฐบาลสหรัฐฯ แล้ว
    และจะปรับระบบความปลอดภัยร่วมกับหน่วยงานความมั่นคงเพื่อป้องกันช่องโหว่เพิ่มเติม

    https://www.tomshardware.com/tech-industry/cyber-security/microsoft-to-stop-using-engineers-in-china-to-work-on-u-s-defense-computer-systems-in-wake-of-investigative-report-fears-of-exploitation-by-foreign-intelligence-services-spurs-immediate-change
    🎙️ เรื่องเล่าจากเบื้องหลังระบบรัฐ: เมื่อ “นักพัฒนาจากต่างแดน” เข้าใกล้ระบบความมั่นคงเกินไป ข่าวต้นทางเริ่มจากการสืบสวนของ ProPublica ที่พบว่า Microsoft อนุญาตให้ “วิศวกรจากจีน” ทำงานร่วมกับระบบสำหรับลูกค้ารัฐบาลสหรัฐฯ โดยเฉพาะ DoD cloud — แม้จะมีการใช้ระบบ digital escorts ที่เป็นพลเมืองสหรัฐฯ คอยดูแล แต่รายงานพบว่า: 🔖 ผู้คุมบางคนไม่มีความรู้เชิงเทคนิคเพียงพอที่จะรู้ว่าสิ่งที่ถูกพัฒนาคือโค้ดปกติหรือ backdoor นี่คือช่องโหว่ร้ายแรง และไม่มีหน่วยงานของรัฐทราบว่าการจัดการลักษณะนี้เคยเกิดขึ้นมาก่อน แม้ยังไม่มีหลักฐานว่ามีการ “แฝงมัลแวร์หรือระบบสอดแนม” จากวิศวกรกลุ่มนี้ แต่ความเสี่ยงด้านการข่าวกรองระดับชาติถือว่าสูงมาก — ส่งผลให้: - รัฐมนตรีกลาโหมโพสต์ว่า “วิศวกรจากต่างประเทศต้องไม่เข้าถึงระบบของ DoD ไม่ว่าจะมาจากชาติไหน” - Microsoft ต้องปรับนโยบายทันที โดยยืนยันว่าทีมงานจากประเทศจีนจะไม่สามารถเข้าไปยุ่งเกี่ยวกับลูกค้ารัฐบาลสหรัฐฯ ได้อีก ✅ Microsoft เคยให้วิศวกรจากจีนร่วมงานกับระบบของกระทรวงกลาโหมสหรัฐฯ ➡️ ผ่านระบบ “digital escort” คือพนักงานสหรัฐคอยดูแลขณะทำงานร่วม ✅ ระบบ digital escort ถูกวิจารณ์ว่าไม่มีประสิทธิภาพจริง ➡️ เพราะผู้ดูแลบางคนไม่มีความรู้ technical เพียงพอที่จะตรวจโค้ด ✅ Microsoft ยืนยันว่าได้แจ้งรัฐบาลเกี่ยวกับระบบนี้แล้ว ➡️ แต่ทั้งเจ้าหน้าที่เก่าและปัจจุบันบอกว่า “ไม่เคยรู้มาก่อน” ✅ รัฐมนตรีกลาโหมสหรัฐฯ โพสต์แสดงจุดยืนว่าไม่ควรให้วิศวกรต่างชาติเข้าถึง DoD เลย ➡️ ชี้ว่าระบบความมั่นคงต้องมีมาตรฐานการคัดกรองสูงกว่านี้ ✅ Microsoft ออกแถลงการณ์ว่า ได้ยุติการให้ทีมจากประเทศจีนทำงานในโปรเจกรัฐบาลสหรัฐฯ แล้ว ➡️ และจะปรับระบบความปลอดภัยร่วมกับหน่วยงานความมั่นคงเพื่อป้องกันช่องโหว่เพิ่มเติม https://www.tomshardware.com/tech-industry/cyber-security/microsoft-to-stop-using-engineers-in-china-to-work-on-u-s-defense-computer-systems-in-wake-of-investigative-report-fears-of-exploitation-by-foreign-intelligence-services-spurs-immediate-change
    0 ความคิดเห็น 0 การแบ่งปัน 368 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกควอนตัม: เดนมาร์กเตรียมสร้าง “Magne” คอมพิวเตอร์ควอนตัมที่ทรงพลังที่สุดในโลก

    มูลนิธิ Novo Nordisk Foundation ร่วมกับกองทุนรัฐของเดนมาร์ก (EIFO) ประกาศลงทุน 80 ล้านยูโร (ประมาณ 93 ล้านดอลลาร์สหรัฐ) ในโครงการ QuNorth เพื่อสร้างคอมพิวเตอร์ควอนตัมที่ทรงพลังที่สุดในโลก โดยมีเป้าหมายเพื่อเร่งการค้นพบใหม่ในด้านเภสัชกรรม เคมี และวัสดุศาสตร์

    คอมพิวเตอร์ควอนตัมเครื่องนี้จะมีชื่อว่า “Magne” ตามชื่อบุตรของเทพธอร์ในตำนานนอร์ส ซึ่งเป็นสัญลักษณ์ของพลังมหาศาล โดยจะเริ่มก่อสร้างในฤดูใบไม้ร่วงปีนี้ และคาดว่าจะพร้อมใช้งานภายในสิ้นปี 2026

    Microsoft ซึ่งมีห้องวิจัยควอนตัมใหญ่ที่สุดในเดนมาร์ก จะเป็นผู้พัฒนาซอฟต์แวร์ ส่วน Atom Computing จะรับหน้าที่สร้างฮาร์ดแวร์ โดยเริ่มต้นด้วย 50 logical qubits ซึ่งเป็นระดับที่เริ่มแสดง “quantum advantage” หรือความสามารถที่เหนือกว่าคอมพิวเตอร์ทั่วไป

    Jason Zander รองประธานของ Microsoft ระบุว่า เมื่อถึงระดับ 100 qubits จะสามารถแก้ปัญหาทางวิทยาศาสตร์ได้ และเมื่อถึง 1,000 qubits จะสามารถแก้ปัญหาทางเคมีและฟิสิกส์ที่ซับซ้อนได้อย่างแท้จริง

    เดนมาร์กลงทุน 80 ล้านยูโรในโครงการ QuNorth
    เพื่อสร้างคอมพิวเตอร์ควอนตัมที่ทรงพลังที่สุดในโลก

    คอมพิวเตอร์จะมีชื่อว่า “Magne” ตามตำนานนอร์ส
    สื่อถึงพลังและความแข็งแกร่งของระบบ

    Microsoft จะพัฒนาซอฟต์แวร์ควอนตัม
    โดยใช้ประสบการณ์จากห้องวิจัยควอนตัมในเดนมาร์ก

    Atom Computing จะสร้างฮาร์ดแวร์ของระบบ
    เริ่มต้นด้วย 50 logical qubits

    50 qubits คือระดับที่เริ่มแสดง quantum advantage
    สามารถแก้ปัญหาที่คอมพิวเตอร์ทั่วไปทำไม่ได้

    เมื่อถึง 100–1,000 qubits จะสามารถแก้ปัญหาทางวิทยาศาสตร์และเคมีขั้นสูง
    เช่น การจำลองโมเลกุลหรือวัสดุใหม่ที่ซับซ้อน

    https://www.thestar.com.my/tech/tech-news/2025/07/17/denmark-aims-to-host-worlds-most-powerful-quantum-computer
    🎙️ เรื่องเล่าจากโลกควอนตัม: เดนมาร์กเตรียมสร้าง “Magne” คอมพิวเตอร์ควอนตัมที่ทรงพลังที่สุดในโลก มูลนิธิ Novo Nordisk Foundation ร่วมกับกองทุนรัฐของเดนมาร์ก (EIFO) ประกาศลงทุน 80 ล้านยูโร (ประมาณ 93 ล้านดอลลาร์สหรัฐ) ในโครงการ QuNorth เพื่อสร้างคอมพิวเตอร์ควอนตัมที่ทรงพลังที่สุดในโลก โดยมีเป้าหมายเพื่อเร่งการค้นพบใหม่ในด้านเภสัชกรรม เคมี และวัสดุศาสตร์ คอมพิวเตอร์ควอนตัมเครื่องนี้จะมีชื่อว่า “Magne” ตามชื่อบุตรของเทพธอร์ในตำนานนอร์ส ซึ่งเป็นสัญลักษณ์ของพลังมหาศาล โดยจะเริ่มก่อสร้างในฤดูใบไม้ร่วงปีนี้ และคาดว่าจะพร้อมใช้งานภายในสิ้นปี 2026 Microsoft ซึ่งมีห้องวิจัยควอนตัมใหญ่ที่สุดในเดนมาร์ก จะเป็นผู้พัฒนาซอฟต์แวร์ ส่วน Atom Computing จะรับหน้าที่สร้างฮาร์ดแวร์ โดยเริ่มต้นด้วย 50 logical qubits ซึ่งเป็นระดับที่เริ่มแสดง “quantum advantage” หรือความสามารถที่เหนือกว่าคอมพิวเตอร์ทั่วไป Jason Zander รองประธานของ Microsoft ระบุว่า เมื่อถึงระดับ 100 qubits จะสามารถแก้ปัญหาทางวิทยาศาสตร์ได้ และเมื่อถึง 1,000 qubits จะสามารถแก้ปัญหาทางเคมีและฟิสิกส์ที่ซับซ้อนได้อย่างแท้จริง ✅ เดนมาร์กลงทุน 80 ล้านยูโรในโครงการ QuNorth ➡️ เพื่อสร้างคอมพิวเตอร์ควอนตัมที่ทรงพลังที่สุดในโลก ✅ คอมพิวเตอร์จะมีชื่อว่า “Magne” ตามตำนานนอร์ส ➡️ สื่อถึงพลังและความแข็งแกร่งของระบบ ✅ Microsoft จะพัฒนาซอฟต์แวร์ควอนตัม ➡️ โดยใช้ประสบการณ์จากห้องวิจัยควอนตัมในเดนมาร์ก ✅ Atom Computing จะสร้างฮาร์ดแวร์ของระบบ ➡️ เริ่มต้นด้วย 50 logical qubits ✅ 50 qubits คือระดับที่เริ่มแสดง quantum advantage ➡️ สามารถแก้ปัญหาที่คอมพิวเตอร์ทั่วไปทำไม่ได้ ✅ เมื่อถึง 100–1,000 qubits จะสามารถแก้ปัญหาทางวิทยาศาสตร์และเคมีขั้นสูง ➡️ เช่น การจำลองโมเลกุลหรือวัสดุใหม่ที่ซับซ้อน https://www.thestar.com.my/tech/tech-news/2025/07/17/denmark-aims-to-host-worlds-most-powerful-quantum-computer
    WWW.THESTAR.COM.MY
    Denmark aims to host world’s most powerful quantum computer
    STOCKHOLM/COPENHAGEN (Reuters) -The Novo Nordisk Foundation and Denmark's state-owned credit fund said on Thursday they will invest in what they say will be the world's most powerful quantum computer, aiming to revolutionize areas such as drug discovery and materials science.Quantum computing holds the promise of carrying out calculations that would take today's systems millions of years and could unlock discoveries in medicine, chemistry and many other fields where near-infinite seas of possible combinations of molecules confound classical computers.
    0 ความคิดเห็น 0 การแบ่งปัน 282 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกจำลอง: Windows XP กลับมาอีกครั้ง…ในเว็บเบราว์เซอร์

    ผู้ใช้ Reddit ชื่อ u/ducbao414 ได้สร้างโปรเจกต์ชื่อ Win32.run ซึ่งเป็นการจำลอง Windows XP ให้สามารถใช้งานผ่านเว็บได้ โดยมีทั้งหน้าจอบูต, ไฟล์ระบบ, โปรแกรมพื้นฐานอย่าง Paint, Minesweeper, My Computer และแม้แต่ Internet Explorer ที่มี “ดีเลย์ปลอม” เพื่อความสมจริง

    โปรเจกต์นี้ใช้เทคโนโลยีเว็บอย่าง Svelte และ Tailwind CSS ในการสร้างขึ้นเมื่อหลายปีก่อน แต่ถูกยกเลิกไปเนื่องจาก SvelteKit มีการเปลี่ยนแปลงที่ทำให้ขยายฟีเจอร์ได้ยาก ปัจจุบันผู้พัฒนาได้ย้ายไปใช้ NextJS แล้ว แต่ Win32.run ยังสามารถเข้าถึงได้ผ่านเว็บไซต์และ GitHub

    แม้จะไม่ใช่ระบบปฏิบัติการจริง และบางปุ่มจะไม่ทำงาน แต่ความแม่นยำในการจำลอง UI และประสบการณ์ใช้งานทำให้หลายคนรู้สึกเหมือนได้ย้อนเวลากลับไปใช้ Windows XP อีกครั้ง

    Win32.run เป็นโปรเจกต์จำลอง Windows XP บนเว็บเบราว์เซอร์
    มีหน้าจอบูต, โปรแกรมพื้นฐาน, และ UI ที่ใกล้เคียงของจริง

    สร้างโดยผู้ใช้ Reddit ชื่อ u/ducbao414
    ใช้เทคโนโลยี Svelte และ Tailwind CSS

    มีฟีเจอร์เช่น Paint, My Computer, Minesweeper, IE พร้อมดีเลย์ปลอม
    เพื่อสร้างประสบการณ์ที่สมจริงแบบยุค 2000

    ไม่ใช่ระบบปฏิบัติการจริงหรือการจำลองแบบเต็มรูปแบบ
    เป็นการจำลองด้วย HTML/CSS/JS เพื่อความบันเทิง

    โปรเจกต์ถูกยกเลิกเนื่องจาก SvelteKit มี breaking changes
    ผู้พัฒนาเปลี่ยนไปใช้ NextJS แต่ยังเปิดให้เข้าถึง Win32.run ได้

    โค้ดของโปรเจกต์สามารถดูได้บน GitHub
    เปิดให้ศึกษาหรือนำไปต่อยอดได้ตามต้องการ

    https://www.neowin.net/news/this-mindblowing-project-lets-you-run-windows-xp-on-the-web/
    🎙️ เรื่องเล่าจากโลกจำลอง: Windows XP กลับมาอีกครั้ง…ในเว็บเบราว์เซอร์ ผู้ใช้ Reddit ชื่อ u/ducbao414 ได้สร้างโปรเจกต์ชื่อ Win32.run ซึ่งเป็นการจำลอง Windows XP ให้สามารถใช้งานผ่านเว็บได้ โดยมีทั้งหน้าจอบูต, ไฟล์ระบบ, โปรแกรมพื้นฐานอย่าง Paint, Minesweeper, My Computer และแม้แต่ Internet Explorer ที่มี “ดีเลย์ปลอม” เพื่อความสมจริง โปรเจกต์นี้ใช้เทคโนโลยีเว็บอย่าง Svelte และ Tailwind CSS ในการสร้างขึ้นเมื่อหลายปีก่อน แต่ถูกยกเลิกไปเนื่องจาก SvelteKit มีการเปลี่ยนแปลงที่ทำให้ขยายฟีเจอร์ได้ยาก ปัจจุบันผู้พัฒนาได้ย้ายไปใช้ NextJS แล้ว แต่ Win32.run ยังสามารถเข้าถึงได้ผ่านเว็บไซต์และ GitHub แม้จะไม่ใช่ระบบปฏิบัติการจริง และบางปุ่มจะไม่ทำงาน แต่ความแม่นยำในการจำลอง UI และประสบการณ์ใช้งานทำให้หลายคนรู้สึกเหมือนได้ย้อนเวลากลับไปใช้ Windows XP อีกครั้ง ✅ Win32.run เป็นโปรเจกต์จำลอง Windows XP บนเว็บเบราว์เซอร์ ➡️ มีหน้าจอบูต, โปรแกรมพื้นฐาน, และ UI ที่ใกล้เคียงของจริง ✅ สร้างโดยผู้ใช้ Reddit ชื่อ u/ducbao414 ➡️ ใช้เทคโนโลยี Svelte และ Tailwind CSS ✅ มีฟีเจอร์เช่น Paint, My Computer, Minesweeper, IE พร้อมดีเลย์ปลอม ➡️ เพื่อสร้างประสบการณ์ที่สมจริงแบบยุค 2000 ✅ ไม่ใช่ระบบปฏิบัติการจริงหรือการจำลองแบบเต็มรูปแบบ ➡️ เป็นการจำลองด้วย HTML/CSS/JS เพื่อความบันเทิง ✅ โปรเจกต์ถูกยกเลิกเนื่องจาก SvelteKit มี breaking changes ➡️ ผู้พัฒนาเปลี่ยนไปใช้ NextJS แต่ยังเปิดให้เข้าถึง Win32.run ได้ ✅ โค้ดของโปรเจกต์สามารถดูได้บน GitHub ➡️ เปิดให้ศึกษาหรือนำไปต่อยอดได้ตามต้องการ https://www.neowin.net/news/this-mindblowing-project-lets-you-run-windows-xp-on-the-web/
    WWW.NEOWIN.NET
    This mindblowing project lets you run Windows XP on the web
    A talented developer has simulated a significant portion of Windows XP on the web, and you can access and you can play around with it using a simple link.
    0 ความคิดเห็น 0 การแบ่งปัน 280 มุมมอง 0 รีวิว
Pages Boosts