• ‘ทองคำ’ Super Bullish 30/07/68 #กะเทาะหุ้น #ทองคำ #Super Bullish #ตลาดหุ้น #เศรษฐกิจ
    ‘ทองคำ’ Super Bullish 30/07/68 #กะเทาะหุ้น #ทองคำ #Super Bullish #ตลาดหุ้น #เศรษฐกิจ
    Like
    2
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 0 รีวิว
  • เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD

    ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC”

    N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว!

    แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง

    N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek
    ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU
    มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725

    GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070
    ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB
    รองรับงาน AI, เกม และการประมวลผลทั่วไป

    ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361
    สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M
    แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น

    เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W
    เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป
    เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป

    คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026
    อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ
    Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่

    ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก
    เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026
    ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข

    ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ
    ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory
    ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่

    การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์
    โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า
    ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา

    การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น
    Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน
    NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง

    https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    🧠 เรื่องเล่าจากห้องแล็บ: เมื่อ NVIDIA เตรียมส่ง N1X SoC ลงสนามแข่งกับ Apple และ AMD ลองจินตนาการว่าแล็ปท็อปเครื่องบางเบาของคุณสามารถเล่นเกมระดับ RTX 4070 ได้โดยใช้พลังงานแค่ครึ่งเดียว และยังมีแบตเตอรี่ที่อึดขึ้นอีกหลายชั่วโมง—นั่นคือเป้าหมายของ NVIDIA กับชิปใหม่ชื่อว่า “N1X SoC” N1X เป็นชิปแบบ ARM ที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek โดยใช้สถาปัตยกรรมเดียวกับ GB10 Superchip ที่ใช้ใน AI mini-PC อย่าง DGX Spark แต่ปรับให้เหมาะกับผู้บริโภคทั่วไป โดยรวม CPU แบบ 20-core และ GPU แบบ Blackwell ที่มี CUDA core เท่ากับ RTX 5070 ถึง 6,144 ตัว! แม้จะยังเป็นตัวต้นแบบ แต่ผลทดสอบจาก Geekbench ก็แสดงให้เห็นว่า iGPU ของ N1X แรงกว่า Apple M3 Max และ AMD 890M แล้ว และถ้าเปิดตัวจริงในปี 2026 ก็อาจเป็นชิป ARM ตัวแรกที่ท้าชน Intel และ AMD ได้อย่างจริงจัง ✅ N1X SoC เป็นชิป ARM สำหรับแล็ปท็อปที่พัฒนาโดย NVIDIA ร่วมกับ MediaTek ➡️ ใช้สถาปัตยกรรม Grace CPU + Blackwell GPU ➡️ มี 20-core CPU แบ่งเป็น 10 Cortex-X925 + 10 Cortex-A725 ✅ GPU ภายในมี 48 SMs หรือ 6,144 CUDA cores เท่ากับ RTX 5070 ➡️ ใช้ LPDDR5X แบบ unified memory สูงสุด 128GB ➡️ รองรับงาน AI, เกม และการประมวลผลทั่วไป ✅ ผลทดสอบ Geekbench แสดงคะแนน OpenCL ที่ 46,361 ➡️ สูงกว่า iGPU ของ Apple M3 Max และ AMD 890M ➡️ แม้ยังเป็นตัวต้นแบบที่รันที่ 1.05 GHz เท่านั้น ✅ เป้าหมายคือแล็ปท็อปบางเบาที่มีประสิทธิภาพระดับ RTX 4070 แต่ใช้พลังงานเพียง 65W–120W ➡️ เทียบกับ RTX 4070 ที่ใช้พลังงาน 120W ขึ้นไป ➡️ เหมาะกับเกมเมอร์, นักพัฒนา AI และผู้ใช้ทั่วไป ✅ คาดว่าจะเปิดตัวในไตรมาส 1 ปี 2026 ➡️ อาจเปิดตัวพร้อม Windows เวอร์ชันใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ Dell Alienware อาจเป็นแบรนด์แรกที่ใช้ชิปนี้ในโน้ตบุ๊กเกมรุ่นใหม่ ‼️ ยังไม่มีวันเปิดตัวแน่นอน และอาจเลื่อนออกไปอีก ⛔ เดิมคาดว่าจะเปิดตัวปลายปี 2025 แต่เลื่อนเป็น Q1 2026 ⛔ ปัญหาด้านฮาร์ดแวร์และการออกแบบยังต้องแก้ไข ‼️ ประสิทธิภาพยังไม่เสถียร เพราะเป็นตัวต้นแบบ ⛔ ความเร็วสัญญาณนาฬิกายังต่ำ และไม่มี GDDR memory ⛔ ต้องรอเวอร์ชันจริงเพื่อดูประสิทธิภาพเต็มที่ ‼️ การใช้ ARM บน Windows ยังมีปัญหาด้านความเข้ากันได้กับซอฟต์แวร์ ⛔ โปรแกรมบางตัวอาจยังไม่รองรับหรือทำงานช้า ⛔ ต้องพึ่งพาการพัฒนา ecosystem จาก Microsoft และนักพัฒนา ‼️ การแข่งขันกับ Apple, AMD และ Intel ยังเข้มข้น ⛔ Apple M4, AMD Ryzen AI MAX และ Intel AX series ก็มีแผนเปิดตัวในช่วงเวลาเดียวกัน ⛔ NVIDIA ต้องพิสูจน์ว่า ARM ของตนสามารถทดแทน x86 ได้จริง https://www.tomshardware.com/pc-components/gpus/nvidia-n1x-soc-leaks-with-the-same-number-of-cuda-cores-as-an-rtx-5070-n1x-specs-align-with-the-gb10-superchip
    0 ความคิดเห็น 0 การแบ่งปัน 102 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกฮาร์ดแวร์: เมื่อ SK hynix ปลุกพลังใหม่ให้การ์ดจอ RTX 50 Super ด้วย GDDR7 ขนาด 3GB

    ลองนึกภาพว่าคุณกำลังประกอบคอมใหม่เพื่อเล่นเกมระดับ AAA หรือทำงาน AI ที่กินทรัพยากรหนักๆ แต่การ์ดจอรุ่นล่าสุดกลับมี VRAM แค่ 12GB หรือ 16GB ซึ่งอาจไม่พอในอีกไม่กี่ปีข้างหน้า

    นั่นคือเหตุผลที่ SK hynix ประกาศพัฒนาโมดูลหน่วยความจำ GDDR7 ขนาด 3GB ต่อชิป ซึ่งมากกว่ามาตรฐานเดิมที่ใช้กันมายาวนานถึง 2GB ต่อชิปตั้งแต่ยุค GDDR5! การเปลี่ยนแปลงนี้เปิดทางให้ NVIDIA เตรียมเปิดตัวการ์ดจอ GeForce RTX 50 Super รุ่นใหม่ที่มี VRAM สูงถึง 18GB และ 24GB โดยไม่ต้องเพิ่มจำนวนชิปมากมาย

    นอกจากจะเพิ่มความจุแล้ว ยังช่วยลดต้นทุน ลดความร้อน และลดการใช้พลังงานอีกด้วย ถือเป็นการเปลี่ยนแปลงที่น่าจับตามองในวงการเกมและ AI เลยทีเดียว

    SK hynix ยืนยันการพัฒนาโมดูล GDDR7 ขนาด 3GB ต่อชิป (24Gb)
    เพิ่มจากมาตรฐานเดิมที่ใช้ 2GB ต่อชิป (16Gb) มานานหลายปี
    ช่วยให้การ์ดจอสามารถมี VRAM สูงขึ้นโดยไม่ต้องเพิ่มจำนวนชิป

    NVIDIA คาดว่าจะใช้ชิปใหม่ในซีรีส์ RTX 50 Super ที่กำลังจะเปิดตัวปลายปี 2025 หรือต้นปี 2026
    RTX 5070 Super อาจมี VRAM 18GB (6 ชิป x 3GB)
    RTX 5080 Super และ 5070 Ti Super อาจมี VRAM 24GB (8 ชิป x 3GB)

    การ์ดจอ RTX 50 รุ่นปัจจุบันยังใช้ VRAM เท่าเดิมกับ RTX 40 เพราะใช้ชิป 2GB
    RTX 5070 ใช้บัส 192-bit กับ 6 ชิป = 12GB
    RTX 5080 ใช้บัส 256-bit กับ 8 ชิป = 16GB

    AMD Radeon RX 9070 มี VRAM 16GB และบัส 256-bit ทำให้บางเกมแรงกว่า RTX 5070
    หากขายในราคาเท่ากันจะเป็นคู่แข่งที่น่ากลัว

    Micron และ Samsung ก็มีแผนผลิตชิป GDDR7 ขนาด 3GB เช่นกัน
    Samsung เริ่มขายในจีนแล้ว แต่ช้าเกินไปสำหรับ RTX 50 รุ่นแรก

    การเพิ่ม VRAM ไม่ได้หมายถึงประสิทธิภาพจะเพิ่มขึ้นเสมอไป
    RTX 5070 Super อาจเพิ่มแค่ไม่กี่ร้อย CUDA cores เท่านั้น
    การเปลี่ยนแปลงอาจเน้นด้านความจุมากกว่าความเร็วจริง

    การ์ดจอที่มี VRAM สูงอาจมีราคาสูงขึ้นตามไปด้วย
    แม้จะลดจำนวนชิป แต่ต้นทุนชิป 3GB ยังสูงกว่าชิป 2GB
    อาจทำให้รุ่น Super ไม่ใช่ตัวเลือกที่คุ้มค่าสำหรับทุกคน

    การใช้ชิปใหม่อาจทำให้เกิดความไม่เข้ากันกับบางระบบหรือซอฟต์แวร์ในช่วงแรก
    ต้องรอการอัปเดตไดรเวอร์และการทดสอบจากผู้ใช้งานจริง
    อาจมีปัญหาเรื่องความร้อนหรือการโอเวอร์คล็อกในบางรุ่น

    https://www.techspot.com/news/108820-sk-hynix-confirms-3gb-gddr7-modules-paving-way.html
    🎮 เรื่องเล่าจากโลกฮาร์ดแวร์: เมื่อ SK hynix ปลุกพลังใหม่ให้การ์ดจอ RTX 50 Super ด้วย GDDR7 ขนาด 3GB ลองนึกภาพว่าคุณกำลังประกอบคอมใหม่เพื่อเล่นเกมระดับ AAA หรือทำงาน AI ที่กินทรัพยากรหนักๆ แต่การ์ดจอรุ่นล่าสุดกลับมี VRAM แค่ 12GB หรือ 16GB ซึ่งอาจไม่พอในอีกไม่กี่ปีข้างหน้า นั่นคือเหตุผลที่ SK hynix ประกาศพัฒนาโมดูลหน่วยความจำ GDDR7 ขนาด 3GB ต่อชิป ซึ่งมากกว่ามาตรฐานเดิมที่ใช้กันมายาวนานถึง 2GB ต่อชิปตั้งแต่ยุค GDDR5! การเปลี่ยนแปลงนี้เปิดทางให้ NVIDIA เตรียมเปิดตัวการ์ดจอ GeForce RTX 50 Super รุ่นใหม่ที่มี VRAM สูงถึง 18GB และ 24GB โดยไม่ต้องเพิ่มจำนวนชิปมากมาย นอกจากจะเพิ่มความจุแล้ว ยังช่วยลดต้นทุน ลดความร้อน และลดการใช้พลังงานอีกด้วย ถือเป็นการเปลี่ยนแปลงที่น่าจับตามองในวงการเกมและ AI เลยทีเดียว ✅ SK hynix ยืนยันการพัฒนาโมดูล GDDR7 ขนาด 3GB ต่อชิป (24Gb) ➡️ เพิ่มจากมาตรฐานเดิมที่ใช้ 2GB ต่อชิป (16Gb) มานานหลายปี ➡️ ช่วยให้การ์ดจอสามารถมี VRAM สูงขึ้นโดยไม่ต้องเพิ่มจำนวนชิป ✅ NVIDIA คาดว่าจะใช้ชิปใหม่ในซีรีส์ RTX 50 Super ที่กำลังจะเปิดตัวปลายปี 2025 หรือต้นปี 2026 ➡️ RTX 5070 Super อาจมี VRAM 18GB (6 ชิป x 3GB) ➡️ RTX 5080 Super และ 5070 Ti Super อาจมี VRAM 24GB (8 ชิป x 3GB) ✅ การ์ดจอ RTX 50 รุ่นปัจจุบันยังใช้ VRAM เท่าเดิมกับ RTX 40 เพราะใช้ชิป 2GB ➡️ RTX 5070 ใช้บัส 192-bit กับ 6 ชิป = 12GB ➡️ RTX 5080 ใช้บัส 256-bit กับ 8 ชิป = 16GB ✅ AMD Radeon RX 9070 มี VRAM 16GB และบัส 256-bit ทำให้บางเกมแรงกว่า RTX 5070 ➡️ หากขายในราคาเท่ากันจะเป็นคู่แข่งที่น่ากลัว ✅ Micron และ Samsung ก็มีแผนผลิตชิป GDDR7 ขนาด 3GB เช่นกัน ➡️ Samsung เริ่มขายในจีนแล้ว แต่ช้าเกินไปสำหรับ RTX 50 รุ่นแรก ‼️ การเพิ่ม VRAM ไม่ได้หมายถึงประสิทธิภาพจะเพิ่มขึ้นเสมอไป ⛔ RTX 5070 Super อาจเพิ่มแค่ไม่กี่ร้อย CUDA cores เท่านั้น ⛔ การเปลี่ยนแปลงอาจเน้นด้านความจุมากกว่าความเร็วจริง ‼️ การ์ดจอที่มี VRAM สูงอาจมีราคาสูงขึ้นตามไปด้วย ⛔ แม้จะลดจำนวนชิป แต่ต้นทุนชิป 3GB ยังสูงกว่าชิป 2GB ⛔ อาจทำให้รุ่น Super ไม่ใช่ตัวเลือกที่คุ้มค่าสำหรับทุกคน ‼️ การใช้ชิปใหม่อาจทำให้เกิดความไม่เข้ากันกับบางระบบหรือซอฟต์แวร์ในช่วงแรก ⛔ ต้องรอการอัปเดตไดรเวอร์และการทดสอบจากผู้ใช้งานจริง ⛔ อาจมีปัญหาเรื่องความร้อนหรือการโอเวอร์คล็อกในบางรุ่น https://www.techspot.com/news/108820-sk-hynix-confirms-3gb-gddr7-modules-paving-way.html
    WWW.TECHSPOT.COM
    SK hynix confirms 3GB GDDR7 modules, paving way for RTX 50 Super VRAM boost
    SK hynix has confirmed plans to develop GDDR7 memory modules with a maximum capacity of 24Gb (3GB), an upgrade from the long-standing 16Gb (2GB) standard dating back...
    0 ความคิดเห็น 0 การแบ่งปัน 96 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกไซเบอร์: หนังสือที่เปลี่ยนผู้นำให้กลายเป็นนักคิดเชิงกลยุทธ์

    ลองนึกภาพว่าคุณเป็น CISO (Chief Information Security Officer) ที่ต้องรับมือกับภัยคุกคามไซเบอร์ตลอดเวลา ทั้งการโจมตีแบบใหม่ ความเสี่ยงจากพฤติกรรมมนุษย์ และแรงกดดันจากผู้บริหารระดับสูง คุณจะพึ่งพาอะไรเพื่อพัฒนาทักษะการตัดสินใจและความเป็นผู้นำ?

    คำตอบของผู้นำหลายคนคือ “หนังสือ” — ไม่ใช่แค่คู่มือเทคนิค แต่เป็นแหล่งความรู้ที่ช่วยให้พวกเขาเข้าใจความเสี่ยง มนุษย์ และตัวเองได้ลึกซึ้งขึ้น

    จากการสำรวจของ CSO Online พบว่า CISO ชั้นนำแนะนำหนังสือหลากหลายแนว ตั้งแต่จิตวิทยาการตัดสินใจอย่าง Thinking, Fast and Slow ไปจนถึงการวัดความเสี่ยงแบบใหม่ใน How to Measure Anything in Cybersecurity Risk และแม้แต่หนังสืออย่าง The Art of Deception ที่เผยกลยุทธ์ของแฮกเกอร์ในการหลอกล่อมนุษย์

    สิ่งที่น่าสนใจคือ หลายคนยังแนะนำหนังสือที่ไม่เกี่ยวกับไซเบอร์โดยตรง เช่น The Alchemist หรือ Our Town เพื่อเตือนตัวเองให้กลับมาโฟกัสกับชีวิตและความหมายที่แท้จริง

    หนังสือที่ช่วยพัฒนาทักษะการวัดและจัดการความเสี่ยง

    How to Measure Anything in Cybersecurity Risk โดย Douglas Hubbard & Richard Seiersen
    เสนอวิธีวัดความเสี่ยงแบบกึ่งปริมาณที่แม่นยำกว่าการใช้ risk matrix
    ได้รับการแนะนำจากหลาย CISO เช่น Daniel Schatz และ James Blake

    Superforecasting โดย Philip Tetlock & Dan Gardner
    เจาะลึกศาสตร์แห่งการพยากรณ์อนาคตอย่างมีหลักการ
    มีตัวอย่างจริงและแนวทางสร้างการคาดการณ์ที่แม่นยำ

    หนังสือที่ช่วยลด “เสียงรบกวน” ในการตัดสินใจ

    Thinking, Fast and Slow โดย Daniel Kahneman
    อธิบายระบบคิดแบบเร็ว (System 1) และช้า (System 2)
    ช่วยให้เข้าใจอคติและข้อผิดพลาดในการตัดสินใจ

    Noise โดย Kahneman และทีม
    วิเคราะห์ว่าทำไมมนุษย์ถึงตัดสินใจผิดเพราะ “เสียงรบกวน”
    เสนอวิธีลดความผิดพลาดในการประเมินสถานการณ์

    Yeah, But โดย Marc Wolfe
    ช่วยให้ผู้นำจัดการกับเสียงในหัวที่ขัดขวางการเปลี่ยนแปลง
    ส่งเสริมความชัดเจนในการคิดและการนำทีม

    Digital Minimalism โดย Cal Newport
    ส่งเสริมการใช้เทคโนโลยีอย่างมีสติ
    ช่วยปกป้องเวลาและความสนใจของผู้นำ

    Better Than Before โดย Gretchen Rubin
    เสนอกรอบการสร้างนิสัยที่ดีเพื่อสนับสนุนเป้าหมายชีวิตและงาน

    หนังสือที่เน้นความเสี่ยงจากพฤติกรรมมนุษย์

    The Art of Deception โดย Kevin Mitnick
    เผยกลยุทธ์ social engineering ที่แฮกเกอร์ใช้หลอกมนุษย์
    ยังคงเป็นหนังสือพื้นฐานที่มีคุณค่าแม้จะตีพิมพ์มานาน

    Secrets and Lies โดย Bruce Schneier
    อธิบายความซับซ้อนของความปลอดภัยดิจิทัล
    เน้นว่าการจัดการพฤติกรรมมนุษย์สำคัญไม่แพ้เทคโนโลยี

    Human Hacked โดย Len Noe
    เจาะลึกผลกระทบของ AI ต่อการตัดสินใจของมนุษย์
    เตือนถึงผลลัพธ์ที่ไม่คาดคิดจากการผสานมนุษย์กับเทคโนโลยี

    ความเสี่ยงจากการละเลยพฤติกรรมมนุษย์ในระบบความปลอดภัย
    องค์กรที่เน้นเทคโนโลยีอย่างเดียวอาจพลาดช่องโหว่จากมนุษย์
    การไม่เข้าใจ social engineering ทำให้ระบบถูกเจาะง่ายขึ้น

    หนังสือที่ช่วยพัฒนาภาวะผู้นำ

    Dare to Lead โดย Brené Brown
    เน้นความกล้าหาญทางอารมณ์และความยืดหยุ่น
    ส่งเสริมวัฒนธรรมองค์กรที่เปิดกว้างและรับผิดชอบ

    Radical Candor โดย Kim Scott
    เสนอกรอบการให้ feedback ที่ตรงไปตรงมาแต่มีความเห็นอกเห็นใจ
    ช่วยสร้างวัฒนธรรมการสื่อสารที่มีประสิทธิภาพ

    ความเสี่ยงจากการเป็นผู้นำที่ขาดความเห็นอกเห็นใจ
    ผู้นำที่เน้นเทคนิคแต่ละเลยมนุษย์อาจสร้างทีมที่ไม่ยั่งยืน
    การขาด feedback ที่มีคุณภาพทำให้ทีมขาดการพัฒนา

    หนังสือที่เตือนให้กลับมาโฟกัสกับชีวิต

    Our Town โดย Thornton Wilder
    เตือนให้เห็นคุณค่าของชีวิตประจำวันและความสัมพันธ์
    ช่วยให้ผู้นำกลับมาโฟกัสกับสิ่งสำคัญนอกเหนือจากงาน

    The Alchemist โดย Paulo Coelho
    เรื่องราวการเดินทางตามความฝันที่เต็มไปด้วยบทเรียนชีวิต
    สะท้อนความกล้าหาญในการเลือกเส้นทางที่ไม่เป็นไปตามกรอบเดิม

    Get Out of I.T. While You Can โดย Craig Schiefelbein
    ท้าทายให้ผู้นำไอทีทบทวนบทบาทและคุณค่าของตน
    กระตุ้นให้สร้างผลกระทบเชิงกลยุทธ์มากกว่าการทำงานเชิงเทคนิค

    https://www.csoonline.com/article/4027000/the-books-shaping-todays-cybersecurity-leaders.html
    📚 เรื่องเล่าจากโลกไซเบอร์: หนังสือที่เปลี่ยนผู้นำให้กลายเป็นนักคิดเชิงกลยุทธ์ ลองนึกภาพว่าคุณเป็น CISO (Chief Information Security Officer) ที่ต้องรับมือกับภัยคุกคามไซเบอร์ตลอดเวลา ทั้งการโจมตีแบบใหม่ ความเสี่ยงจากพฤติกรรมมนุษย์ และแรงกดดันจากผู้บริหารระดับสูง คุณจะพึ่งพาอะไรเพื่อพัฒนาทักษะการตัดสินใจและความเป็นผู้นำ? คำตอบของผู้นำหลายคนคือ “หนังสือ” — ไม่ใช่แค่คู่มือเทคนิค แต่เป็นแหล่งความรู้ที่ช่วยให้พวกเขาเข้าใจความเสี่ยง มนุษย์ และตัวเองได้ลึกซึ้งขึ้น จากการสำรวจของ CSO Online พบว่า CISO ชั้นนำแนะนำหนังสือหลากหลายแนว ตั้งแต่จิตวิทยาการตัดสินใจอย่าง Thinking, Fast and Slow ไปจนถึงการวัดความเสี่ยงแบบใหม่ใน How to Measure Anything in Cybersecurity Risk และแม้แต่หนังสืออย่าง The Art of Deception ที่เผยกลยุทธ์ของแฮกเกอร์ในการหลอกล่อมนุษย์ สิ่งที่น่าสนใจคือ หลายคนยังแนะนำหนังสือที่ไม่เกี่ยวกับไซเบอร์โดยตรง เช่น The Alchemist หรือ Our Town เพื่อเตือนตัวเองให้กลับมาโฟกัสกับชีวิตและความหมายที่แท้จริง 📙📖 หนังสือที่ช่วยพัฒนาทักษะการวัดและจัดการความเสี่ยง ⭕ ✅ How to Measure Anything in Cybersecurity Risk โดย Douglas Hubbard & Richard Seiersen ➡️ เสนอวิธีวัดความเสี่ยงแบบกึ่งปริมาณที่แม่นยำกว่าการใช้ risk matrix ➡️ ได้รับการแนะนำจากหลาย CISO เช่น Daniel Schatz และ James Blake ✅ Superforecasting โดย Philip Tetlock & Dan Gardner ➡️ เจาะลึกศาสตร์แห่งการพยากรณ์อนาคตอย่างมีหลักการ ➡️ มีตัวอย่างจริงและแนวทางสร้างการคาดการณ์ที่แม่นยำ ⭐📖 หนังสือที่ช่วยลด “เสียงรบกวน” ในการตัดสินใจ ⭕ ✅ Thinking, Fast and Slow โดย Daniel Kahneman ➡️ อธิบายระบบคิดแบบเร็ว (System 1) และช้า (System 2) ➡️ ช่วยให้เข้าใจอคติและข้อผิดพลาดในการตัดสินใจ ✅ Noise โดย Kahneman และทีม ➡️ วิเคราะห์ว่าทำไมมนุษย์ถึงตัดสินใจผิดเพราะ “เสียงรบกวน” ➡️ เสนอวิธีลดความผิดพลาดในการประเมินสถานการณ์ ✅ Yeah, But โดย Marc Wolfe ➡️ ช่วยให้ผู้นำจัดการกับเสียงในหัวที่ขัดขวางการเปลี่ยนแปลง ➡️ ส่งเสริมความชัดเจนในการคิดและการนำทีม ✅ Digital Minimalism โดย Cal Newport ➡️ ส่งเสริมการใช้เทคโนโลยีอย่างมีสติ ➡️ ช่วยปกป้องเวลาและความสนใจของผู้นำ ✅ Better Than Before โดย Gretchen Rubin ➡️ เสนอกรอบการสร้างนิสัยที่ดีเพื่อสนับสนุนเป้าหมายชีวิตและงาน 🙎‍♂️📖 หนังสือที่เน้นความเสี่ยงจากพฤติกรรมมนุษย์ ⭕ ✅ The Art of Deception โดย Kevin Mitnick ➡️ เผยกลยุทธ์ social engineering ที่แฮกเกอร์ใช้หลอกมนุษย์ ➡️ ยังคงเป็นหนังสือพื้นฐานที่มีคุณค่าแม้จะตีพิมพ์มานาน ✅ Secrets and Lies โดย Bruce Schneier ➡️ อธิบายความซับซ้อนของความปลอดภัยดิจิทัล ➡️ เน้นว่าการจัดการพฤติกรรมมนุษย์สำคัญไม่แพ้เทคโนโลยี ✅ Human Hacked โดย Len Noe ➡️ เจาะลึกผลกระทบของ AI ต่อการตัดสินใจของมนุษย์ ➡️ เตือนถึงผลลัพธ์ที่ไม่คาดคิดจากการผสานมนุษย์กับเทคโนโลยี ‼️ ความเสี่ยงจากการละเลยพฤติกรรมมนุษย์ในระบบความปลอดภัย ⛔ องค์กรที่เน้นเทคโนโลยีอย่างเดียวอาจพลาดช่องโหว่จากมนุษย์ ⛔ การไม่เข้าใจ social engineering ทำให้ระบบถูกเจาะง่ายขึ้น 🔝📖 หนังสือที่ช่วยพัฒนาภาวะผู้นำ ⭕ ✅ Dare to Lead โดย Brené Brown ➡️ เน้นความกล้าหาญทางอารมณ์และความยืดหยุ่น ➡️ ส่งเสริมวัฒนธรรมองค์กรที่เปิดกว้างและรับผิดชอบ ✅ Radical Candor โดย Kim Scott ➡️ เสนอกรอบการให้ feedback ที่ตรงไปตรงมาแต่มีความเห็นอกเห็นใจ ➡️ ช่วยสร้างวัฒนธรรมการสื่อสารที่มีประสิทธิภาพ ‼️ ความเสี่ยงจากการเป็นผู้นำที่ขาดความเห็นอกเห็นใจ ⛔ ผู้นำที่เน้นเทคนิคแต่ละเลยมนุษย์อาจสร้างทีมที่ไม่ยั่งยืน ⛔ การขาด feedback ที่มีคุณภาพทำให้ทีมขาดการพัฒนา 🔎📖 หนังสือที่เตือนให้กลับมาโฟกัสกับชีวิต ⭕ ✅ Our Town โดย Thornton Wilder ➡️ เตือนให้เห็นคุณค่าของชีวิตประจำวันและความสัมพันธ์ ➡️ ช่วยให้ผู้นำกลับมาโฟกัสกับสิ่งสำคัญนอกเหนือจากงาน ✅ The Alchemist โดย Paulo Coelho ➡️ เรื่องราวการเดินทางตามความฝันที่เต็มไปด้วยบทเรียนชีวิต ➡️ สะท้อนความกล้าหาญในการเลือกเส้นทางที่ไม่เป็นไปตามกรอบเดิม ✅ Get Out of I.T. While You Can โดย Craig Schiefelbein ➡️ ท้าทายให้ผู้นำไอทีทบทวนบทบาทและคุณค่าของตน ➡️ กระตุ้นให้สร้างผลกระทบเชิงกลยุทธ์มากกว่าการทำงานเชิงเทคนิค https://www.csoonline.com/article/4027000/the-books-shaping-todays-cybersecurity-leaders.html
    WWW.CSOONLINE.COM
    The books shaping today’s cybersecurity leaders
    Cybersecurity leaders reveal the books that have influenced how they lead, think, and manage security in the enterprise — and their own lives.
    0 ความคิดเห็น 0 การแบ่งปัน 193 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: Meta ดึง “สมองเบื้องหลัง ChatGPT” มาสร้าง AI ที่ฉลาดกว่ามนุษย์

    ลองจินตนาการว่า Meta ไม่ได้แค่สร้างแอปโซเชียล แต่กำลังสร้าง “AI ที่ฉลาดระดับมนุษย์” หรือที่เรียกว่า Superintelligence — และเพื่อให้ฝันนี้เป็นจริง Mark Zuckerberg จึงดึงตัว Shengjia Zhao นักวิจัยระดับตำนานจาก OpenAI ผู้ร่วมสร้าง ChatGPT และ GPT-4 มาเป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Meta Superintelligence Lab

    Zhao ไม่ใช่แค่ผู้ร่วมสร้างโมเดล AI ที่คนทั่วโลกใช้ แต่ยังเป็นผู้นำด้าน “AI reasoning” หรือความสามารถในการคิดวิเคราะห์ของโมเดล ซึ่งเป็นหัวใจสำคัญของการพัฒนา AI ที่เข้าใจโลกได้จริง

    Meta ตั้งห้องแล็บนี้ขึ้นมาเพื่อรวมงานวิจัยจากโมเดล Llama และเป้าหมายระยะยาวในการสร้าง “ปัญญาประดิษฐ์ทั่วไป” (AGI) โดยแยกออกจากแล็บ FAIR ที่นำโดย Yann LeCun เพื่อให้มีความคล่องตัวและโฟกัสกับการสร้างโมเดลระดับแนวหน้า

    Meta แต่งตั้ง Shengjia Zhao เป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Superintelligence Lab
    Zhao เป็นผู้ร่วมสร้าง ChatGPT, GPT-4 และโมเดลย่อยของ OpenAI เช่น 4.1 และ o3
    เคยเป็นนักวิจัยหลักด้าน synthetic data และ AI reasoning ที่ OpenAI

    Superintelligence Lab เป็นหน่วยงานใหม่ของ Meta ที่เน้นการสร้าง AGI
    แยกจากแล็บ FAIR ที่เน้นวิจัยระยะยาว
    มีเป้าหมายสร้าง “full general intelligence” และเปิดเผยงานวิจัยเป็น open source

    Zhao จะทำงานร่วมกับ CEO Mark Zuckerberg และ Chief AI Officer Alexandr Wang
    Wang เคยเป็น CEO ของ Scale AI และถูกดึงตัวมาร่วมทีม
    Zhao จะกำหนดทิศทางงานวิจัยและเป้าหมายทางวิทยาศาสตร์ของแล็บ

    Meta เร่งดึงนักวิจัยจาก OpenAI และบริษัทคู่แข่ง
    มีการเสนอบรรจุเงินเดือนระดับ 8–9 หลัก พร้อมข้อเสนอที่หมดอายุในไม่กี่วัน
    เป็นส่วนหนึ่งของ “สงครามแย่งสมอง” ในวงการ AI

    Superintelligence Lab จะรวมงานจากโมเดล Llama และวิจัยระยะยาว
    เน้นการพัฒนาโมเดล reasoning ที่สามารถคิดวิเคราะห์ได้ลึก
    เตรียมใช้คลัสเตอร์ Prometheus ขนาด 1 กิกะวัตต์ในโอไฮโอสำหรับเทรนโมเดล

    https://www.thestar.com.my/tech/tech-news/2025/07/26/meta-names-chatgpt-co-creator-as-chief-scientist-of-superintelligence-lab
    🧠 เรื่องเล่าจากข่าว: Meta ดึง “สมองเบื้องหลัง ChatGPT” มาสร้าง AI ที่ฉลาดกว่ามนุษย์ ลองจินตนาการว่า Meta ไม่ได้แค่สร้างแอปโซเชียล แต่กำลังสร้าง “AI ที่ฉลาดระดับมนุษย์” หรือที่เรียกว่า Superintelligence — และเพื่อให้ฝันนี้เป็นจริง Mark Zuckerberg จึงดึงตัว Shengjia Zhao นักวิจัยระดับตำนานจาก OpenAI ผู้ร่วมสร้าง ChatGPT และ GPT-4 มาเป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Meta Superintelligence Lab Zhao ไม่ใช่แค่ผู้ร่วมสร้างโมเดล AI ที่คนทั่วโลกใช้ แต่ยังเป็นผู้นำด้าน “AI reasoning” หรือความสามารถในการคิดวิเคราะห์ของโมเดล ซึ่งเป็นหัวใจสำคัญของการพัฒนา AI ที่เข้าใจโลกได้จริง Meta ตั้งห้องแล็บนี้ขึ้นมาเพื่อรวมงานวิจัยจากโมเดล Llama และเป้าหมายระยะยาวในการสร้าง “ปัญญาประดิษฐ์ทั่วไป” (AGI) โดยแยกออกจากแล็บ FAIR ที่นำโดย Yann LeCun เพื่อให้มีความคล่องตัวและโฟกัสกับการสร้างโมเดลระดับแนวหน้า ✅ Meta แต่งตั้ง Shengjia Zhao เป็นหัวหน้าทีมนักวิทยาศาสตร์ของ Superintelligence Lab ➡️ Zhao เป็นผู้ร่วมสร้าง ChatGPT, GPT-4 และโมเดลย่อยของ OpenAI เช่น 4.1 และ o3 ➡️ เคยเป็นนักวิจัยหลักด้าน synthetic data และ AI reasoning ที่ OpenAI ✅ Superintelligence Lab เป็นหน่วยงานใหม่ของ Meta ที่เน้นการสร้าง AGI ➡️ แยกจากแล็บ FAIR ที่เน้นวิจัยระยะยาว ➡️ มีเป้าหมายสร้าง “full general intelligence” และเปิดเผยงานวิจัยเป็น open source ✅ Zhao จะทำงานร่วมกับ CEO Mark Zuckerberg และ Chief AI Officer Alexandr Wang ➡️ Wang เคยเป็น CEO ของ Scale AI และถูกดึงตัวมาร่วมทีม ➡️ Zhao จะกำหนดทิศทางงานวิจัยและเป้าหมายทางวิทยาศาสตร์ของแล็บ ✅ Meta เร่งดึงนักวิจัยจาก OpenAI และบริษัทคู่แข่ง ➡️ มีการเสนอบรรจุเงินเดือนระดับ 8–9 หลัก พร้อมข้อเสนอที่หมดอายุในไม่กี่วัน ➡️ เป็นส่วนหนึ่งของ “สงครามแย่งสมอง” ในวงการ AI ✅ Superintelligence Lab จะรวมงานจากโมเดล Llama และวิจัยระยะยาว ➡️ เน้นการพัฒนาโมเดล reasoning ที่สามารถคิดวิเคราะห์ได้ลึก ➡️ เตรียมใช้คลัสเตอร์ Prometheus ขนาด 1 กิกะวัตต์ในโอไฮโอสำหรับเทรนโมเดล https://www.thestar.com.my/tech/tech-news/2025/07/26/meta-names-chatgpt-co-creator-as-chief-scientist-of-superintelligence-lab
    WWW.THESTAR.COM.MY
    Meta names ChatGPT co-creator as chief scientist of Superintelligence Lab
    NEW YORK (Reuters) -Meta Platforms has appointed Shengjia Zhao, co-creator of ChatGPT, as chief scientist of its Superintelligence Lab, CEO Mark Zuckerberg said on Friday, as the company accelerates its push into advanced AI.
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • In nestled sunflowers bloom with my super adorable buddy.
    In nestled sunflowers bloom with my super adorable buddy.
    0 ความคิดเห็น 0 การแบ่งปัน 125 มุมมอง 0 รีวิว
  • ลุงนี้ร้อง "อ้าววววว..." เลย

    เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม

    N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง

    เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์

    รายงานล่าสุดจาก DigiTimes ระบุว่า:
    - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ
    - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่
    - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate

    Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer

    นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น:
    - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto
    - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot
    - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก
    - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026

    Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026
    เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex

    สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ
    ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X

    ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง
    ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป

    Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน
    รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด

    N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS
    ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek

    OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI
    ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป

    Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google
    คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์

    https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    ลุงนี้ร้อง "อ้าววววว..." เลย 🎙️ เรื่องเล่าจากชิปที่รอเวลา: เมื่อ AI PC ต้องรอทั้ง Windows และตลาดให้พร้อม N1X เป็นแพลตฟอร์ม AI PC ที่ร่วมพัฒนาโดย Nvidia และ MediaTek โดยมีเป้าหมายเพื่อแข่งขันกับ Intel, AMD และ Qualcomm ในตลาดพีซีที่รองรับการประมวลผล AI โดยตรง เดิมทีคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่กลับไม่ปรากฏในงาน Computex ล่าสุด ทำให้เกิดข้อสงสัยเรื่องความพร้อมของผลิตภัณฑ์ รายงานล่าสุดจาก DigiTimes ระบุว่า: - Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับฟีเจอร์ AI เต็มรูปแบบ - ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังไม่ฟื้นตัวเต็มที่ - Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงานจาก SemiAccurate Nvidia และ MediaTek จึงเลือกเน้นตลาดองค์กรก่อน โดยหวังว่าจะมีการยอมรับในกลุ่ม commercial ก่อนขยายไปยัง consumer นอกจากนี้ ทั้งสองบริษัทยังร่วมมือกันในหลายโครงการ เช่น: - Automotive AI ผ่านแพลตฟอร์ม Dimensity Auto - Edge AI ด้วย Nvidia TAO Toolkit และ MediaTek NeuroPilot - การพัฒนา DGX Spark — AI supercomputer ขนาดเล็ก - การร่วมมือในโครงการ Google v7e TPU ที่จะผลิตจริงในปี 2026 ✅ Nvidia และ MediaTek เลื่อนเปิดตัวแพลตฟอร์ม N1X AI PC ไปเป็น Q1 ปี 2026 ➡️ เดิมคาดว่าจะเปิดตัวใน Q3 ปี 2025 แต่ไม่ปรากฏในงาน Computex ✅ สาเหตุหลักคือ Microsoft ยังไม่พร้อมเปิดตัวระบบปฏิบัติการใหม่ที่รองรับ AI เต็มรูปแบบ ➡️ ส่งผลให้ ecosystem โดยรวมยังไม่พร้อมสำหรับการเปิดตัว N1X ✅ ความต้องการในตลาดโน้ตบุ๊กและเดสก์ท็อปยังอ่อนตัวลง ➡️ ทำให้การเปิดตัวใน consumer segment ถูกเลื่อนออกไป ✅ Nvidia ยังต้องปรับแก้ชิปจากข้อบกพร่องเดิมที่เคยมีรายงาน ➡️ รวมถึงการปรับกลยุทธ์ด้านการผลิตและการตลาด ✅ N1X มีพลังประมวลผล AI สูงถึง 180–200 TOPS ➡️ ถือเป็นการเข้าสู่ตลาดพีซีครั้งใหญ่ที่สุดของ MediaTek ✅ OEM และ ODM หลายรายเตรียมออกแบบผลิตภัณฑ์รองรับ N1X เช่น Dell, HP, Lenovo, Asus, MSI ➡️ ทั้งในรูปแบบโน้ตบุ๊กและเดสก์ท็อป ✅ Nvidia และ MediaTek ร่วมมือในหลายโครงการ เช่น automotive AI, edge AI, และ TPU ของ Google ➡️ คาดว่าจะสร้างรายได้รวมกว่า $4 พันล้านดอลลาร์ https://www.tomshardware.com/tech-industry/semiconductors/nvidias-desktop-pc-chip-holdup-purportedly-tied-to-windows-delays-ongoing-chip-revisions-and-weakening-demand-also-blamed
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา

    ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์

    ExpertCenter Pro ET900N G3 มีจุดเด่นคือ:
    - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra
    - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI
    - พลังประมวลผลสูงถึง 20 PFLOPS
    - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s)

    นอกจากนี้ยังมีความสามารถในการขยาย:
    - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม
    - M.2 SSD 3 ช่อง
    - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU

    แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่

    Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra
    เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS

    ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB
    รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference

    ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra
    เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025

    รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s
    เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง

    มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง
    รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล

    ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU
    ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง

    Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation
    ไม่จำกัดเฉพาะ DGX อีกต่อไป

    Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว
    ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack

    https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    🎙️ เรื่องเล่าจากเดสก์ท็อปที่แรงกว่าเซิร์ฟเวอร์: เมื่อซูเปอร์ชิป AI มาอยู่ในเครื่องธรรมดา ก่อนหน้านี้ Nvidia GB300 Grace Blackwell Ultra ถูกใช้เฉพาะใน DGX Station สำหรับองค์กรขนาดใหญ่ แต่ตอนนี้ Asus, Lambda และ OEM รายอื่นเริ่มนำชิปนี้มาใช้ในเวิร์กสเตชันทั่วไป — เพื่อให้ผู้ใช้งาน AI ระดับมืออาชีพเข้าถึงพลังประมวลผลแบบไม่ต้องพึ่งคลาวด์ ExpertCenter Pro ET900N G3 มีจุดเด่นคือ: - ใช้ CPU Grace (ARM-based) + GPU Blackwell Ultra - หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB - Tensor Core รุ่นใหม่ที่รองรับ FP4 สำหรับงาน AI - พลังประมวลผลสูงถึง 20 PFLOPS - รองรับ DGX OS และ ConnectX-8 SuperNIC (800 Gb/s) นอกจากนี้ยังมีความสามารถในการขยาย: - PCIe x16 จำนวน 3 ช่องสำหรับ GPU เพิ่มเติม - M.2 SSD 3 ช่อง - ระบบจ่ายไฟสูงสุด 1,800W สำหรับ GPU แม้หน้าตาจะดูเรียบง่าย แต่ประสิทธิภาพเทียบได้กับเซิร์ฟเวอร์ระดับ rack ที่ใช้ในศูนย์ข้อมูล AI ขนาดใหญ่ ✅ Asus เปิดตัว ExpertCenter Pro ET900N G3 ใช้ชิป Nvidia GB300 Grace Blackwell Ultra ➡️ เป็นเวิร์กสเตชันเดสก์ท็อปที่มีพลังประมวลผลสูงถึง 20 PFLOPS ✅ ใช้หน่วยความจำรวม LPDDR5X + HBM3E สูงสุด 784GB ➡️ รองรับงาน AI ขนาดใหญ่ เช่นการเทรนโมเดลและ inference ✅ ใช้ CPU Grace (ARM-based) ร่วมกับ GPU Blackwell Ultra ➡️ เป็นแพลตฟอร์มเดียวกับ DGX Station ที่เปิดตัวใน GTC 2025 ✅ รองรับ DGX OS และ ConnectX-8 SuperNIC ความเร็ว 800 Gb/s ➡️ เหมาะสำหรับงานที่ต้องการการเชื่อมต่อความเร็วสูง ✅ มีช่อง PCIe x16 จำนวน 3 ช่อง และ M.2 SSD 3 ช่อง ➡️ รองรับการขยาย GPU และพื้นที่จัดเก็บข้อมูล ✅ ระบบจ่ายไฟรองรับสูงสุด 1,800W สำหรับ GPU ➡️ ใช้หัวต่อ 12V-2×6 แบบใหม่ที่รองรับการ์ดระดับสูง ✅ Nvidia ร่วมมือกับ OEM เช่น Asus, Dell, Lambda เพื่อขยายตลาด AI workstation ➡️ ไม่จำกัดเฉพาะ DGX อีกต่อไป ✅ Dell เริ่มใช้ GB300 NVL72 ในศูนย์ข้อมูล CoreWeave แล้ว ➡️ ให้พลัง FP4 inference สูงถึง 1.1 exaFLOPS ต่อ rack https://www.tomshardware.com/pc-components/gpus/asus-brings-nvidias-gb300-blackwell-ultra-desktop-superchip-to-workstations-features-up-to-784gb-of-coherent-memory-20-pflops-ai-performance
    0 ความคิดเห็น 0 การแบ่งปัน 156 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Silicon Valley: เมื่อ AI ไม่ได้แค่เปลี่ยนเทคโนโลยี แต่เปลี่ยนความสัมพันธ์ของคน

    กรณีที่เด่นที่สุดเกิดกับ Windsurf บริษัทสตาร์ทอัพ AI ที่กำลังจะขายให้ OpenAI ในมูลค่า $3B — แต่ CEO Varun Mohan กลับ ล้มดีล และลาออกไปร่วมทีม Google พร้อมพาทีมงานหลักบางส่วนตามไปด้วย

    ข่าวนี้กระทบแรง เพราะทีมงาน Windsurf ส่วนใหญ่หวังว่าจะได้เงิน payout จากการเข้าซื้อ และบางคนถึงขั้นถ่ายวิดีโอโหมโรงไว้แล้วเพื่อเฉลิมฉลอง — กลับกลายเป็นคลิปบันทึก “การล่มสลาย” ของบริษัท

    แต่ภายในไม่กี่วัน Cognition บริษัท AI ที่เล็กกว่าแต่กำลังโตไวก็เข้ามาซื้อ Windsurf แทน โดย CEO Jeff Wang บอกว่าจะจ่ายเงินให้พนักงานทุกคนไม่ว่าจะอยู่มานานแค่ไหน — สร้างบรรยากาศ “คืนชีวิต” ให้ทีมงานอีกครั้ง

    ด้าน Meta กลายเป็นผู้เล่นที่ดุเดือดที่สุด — Mark Zuckerberg ทุ่มตัวเองลงไปล่าผู้เชี่ยวชาญจาก OpenAI, Google DeepMind, Apple และ Anthropic ด้วยข้อเสนอที่มากกว่า $300 ล้านภายใน 4 ปี (จ่ายปีแรกถึงหนึ่งในสาม)

    แต่แม้จะทุ่มเงินมากขนาดนั้น Meta ก็ยังขาด “หัวหน้าฝ่ายวิจัย” และยังไม่ได้ตัวบุคคลสำคัญที่ต้องการ เช่นในกรณีของ Safe Superintelligence ที่ Daniel Gross ถูก Meta ล่อตัวไป จนทิ้งผู้ร่วมก่อตั้ง Ilya Sutskever ไปอย่างเจ็บปวด

    เทียบอีกเคสคือ Alexandr Wang ผู้ก่อตั้ง Scale AI ที่เคยเป็นดาวรุ่ง — ถูก Meta ดึงตัวไปเปิดแล็บใหม่และลงทุน $14B กับบริษัทของเขา แต่ผลคือ Scale สูญเสียดีลสำคัญกับ OpenAI และ Google พร้อมต้องปลดพนักงาน 14% ในเวลาสั้น ๆ

    เสียงสะท้อนจาก Sam Altman ของ OpenAI บอกว่า “ภูมิใจในความยึดมั่นพันธกิจในวงการนี้” แต่มองเห็น “การล่าโดยพวกจอมทัพ mercenaries” ที่ทำให้วงการเปลี่ยนจากความฝัน มาเป็นเรื่องของเงินและอำนาจ

    Windsurf เคยอยู่ระหว่างดีลขายให้ OpenAI มูลค่า $3B แต่ CEO เลิกดีลกลางทาง
    Varun Mohan ไปเข้าร่วมทีม Google พร้อมพาทีมหลักตามไป

    ภายในไม่กี่วัน Cognition เข้าซื้อ Windsurf และให้พนักงานทุกคนได้ส่วนแบ่ง
    ทำให้กำลังใจกลับมาแม้ดีลแรกถูกล้มกลางทาง

    Meta เสนอค่าตอบแทนมากกว่า $300M ต่อคนในบางกรณีเพื่อดึงนักวิจัย AI
    แบ่งจ่ายปีแรกหนึ่งในสามเป็นการจูงใจ

    Mark Zuckerberg ลงมาล่าผู้เชี่ยวชาญด้วยตัวเอง ไม่ใช่แค่ส่งทีม HR
    มีเป้าหมายสร้างแล็บเพื่อ AI ระดับ “superintelligence”

    Alexandr Wang จาก Scale AI ถูก Meta ดึงตัว — ส่งผลให้ Scale เสียดีลสำคัญ
    บริษัทประกาศปลดพนักงาน 14% หลังจากนั้น

    Daniel Gross จาก Safe Superintelligence ถูกดึงตัว ทำให้ Sutskever ต้องแยกทาง
    กระทบต่อทีมวิจัยที่เคยมีพันธกิจร่วมกัน

    https://www.techspot.com/news/108733-silicon-valley-ai-boom-turns-battle-brains-ndash.html
    🎙️ เรื่องเล่าจาก Silicon Valley: เมื่อ AI ไม่ได้แค่เปลี่ยนเทคโนโลยี แต่เปลี่ยนความสัมพันธ์ของคน กรณีที่เด่นที่สุดเกิดกับ Windsurf บริษัทสตาร์ทอัพ AI ที่กำลังจะขายให้ OpenAI ในมูลค่า $3B — แต่ CEO Varun Mohan กลับ ล้มดีล และลาออกไปร่วมทีม Google พร้อมพาทีมงานหลักบางส่วนตามไปด้วย ข่าวนี้กระทบแรง เพราะทีมงาน Windsurf ส่วนใหญ่หวังว่าจะได้เงิน payout จากการเข้าซื้อ และบางคนถึงขั้นถ่ายวิดีโอโหมโรงไว้แล้วเพื่อเฉลิมฉลอง — กลับกลายเป็นคลิปบันทึก “การล่มสลาย” ของบริษัท แต่ภายในไม่กี่วัน Cognition บริษัท AI ที่เล็กกว่าแต่กำลังโตไวก็เข้ามาซื้อ Windsurf แทน โดย CEO Jeff Wang บอกว่าจะจ่ายเงินให้พนักงานทุกคนไม่ว่าจะอยู่มานานแค่ไหน — สร้างบรรยากาศ “คืนชีวิต” ให้ทีมงานอีกครั้ง ด้าน Meta กลายเป็นผู้เล่นที่ดุเดือดที่สุด — Mark Zuckerberg ทุ่มตัวเองลงไปล่าผู้เชี่ยวชาญจาก OpenAI, Google DeepMind, Apple และ Anthropic ด้วยข้อเสนอที่มากกว่า $300 ล้านภายใน 4 ปี (จ่ายปีแรกถึงหนึ่งในสาม) แต่แม้จะทุ่มเงินมากขนาดนั้น Meta ก็ยังขาด “หัวหน้าฝ่ายวิจัย” และยังไม่ได้ตัวบุคคลสำคัญที่ต้องการ เช่นในกรณีของ Safe Superintelligence ที่ Daniel Gross ถูก Meta ล่อตัวไป จนทิ้งผู้ร่วมก่อตั้ง Ilya Sutskever ไปอย่างเจ็บปวด เทียบอีกเคสคือ Alexandr Wang ผู้ก่อตั้ง Scale AI ที่เคยเป็นดาวรุ่ง — ถูก Meta ดึงตัวไปเปิดแล็บใหม่และลงทุน $14B กับบริษัทของเขา แต่ผลคือ Scale สูญเสียดีลสำคัญกับ OpenAI และ Google พร้อมต้องปลดพนักงาน 14% ในเวลาสั้น ๆ เสียงสะท้อนจาก Sam Altman ของ OpenAI บอกว่า “ภูมิใจในความยึดมั่นพันธกิจในวงการนี้” แต่มองเห็น “การล่าโดยพวกจอมทัพ mercenaries” ที่ทำให้วงการเปลี่ยนจากความฝัน มาเป็นเรื่องของเงินและอำนาจ ✅ Windsurf เคยอยู่ระหว่างดีลขายให้ OpenAI มูลค่า $3B แต่ CEO เลิกดีลกลางทาง ➡️ Varun Mohan ไปเข้าร่วมทีม Google พร้อมพาทีมหลักตามไป ✅ ภายในไม่กี่วัน Cognition เข้าซื้อ Windsurf และให้พนักงานทุกคนได้ส่วนแบ่ง ➡️ ทำให้กำลังใจกลับมาแม้ดีลแรกถูกล้มกลางทาง ✅ Meta เสนอค่าตอบแทนมากกว่า $300M ต่อคนในบางกรณีเพื่อดึงนักวิจัย AI ➡️ แบ่งจ่ายปีแรกหนึ่งในสามเป็นการจูงใจ ✅ Mark Zuckerberg ลงมาล่าผู้เชี่ยวชาญด้วยตัวเอง ไม่ใช่แค่ส่งทีม HR ➡️ มีเป้าหมายสร้างแล็บเพื่อ AI ระดับ “superintelligence” ✅ Alexandr Wang จาก Scale AI ถูก Meta ดึงตัว — ส่งผลให้ Scale เสียดีลสำคัญ ➡️ บริษัทประกาศปลดพนักงาน 14% หลังจากนั้น ✅ Daniel Gross จาก Safe Superintelligence ถูกดึงตัว ทำให้ Sutskever ต้องแยกทาง ➡️ กระทบต่อทีมวิจัยที่เคยมีพันธกิจร่วมกัน https://www.techspot.com/news/108733-silicon-valley-ai-boom-turns-battle-brains-ndash.html
    WWW.TECHSPOT.COM
    Silicon Valley's AI boom turns into a battle for brains – and billions
    Nowhere has that power struggle played out more dramatically than inside Windsurf, a fast-growing AI company that had, until recently, been seen as a rising star.
    0 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกรีโทรที่กลับมาแบบ Next-Gen: Analogue 3D คืนชีพ Nintendo 64 อย่างสง่างาม

    หากย้อนกลับไปปี 1996 ตอนที่ Nintendo 64 เปิดตัวพร้อมเกม Super Mario 64 และ Pilotwings 64 โลกเกมเริ่มเข้าสู่ยุค 3D อย่างเต็มตัว แม้จะใช้ตลับแทนแผ่น CD เหมือนคู่แข่งอย่าง PlayStation แต่มันก็สร้างความคลาสสิกที่อยู่ในใจคอเกมหลายล้านคนมาจนถึงทุกวันนี้

    ล่าสุด Analogue บริษัทที่เชี่ยวชาญด้านฮาร์ดแวร์รีโทรแบบ “ระดับพรีเมียม” ได้เตรียมวางจำหน่าย Analogue 3D ในเดือนสิงหาคม 2025 หลังจากเลื่อนจากต้นปีเนื่องจากเรื่องภาษีอย่างกะทันหัน แต่ข่าวดีคือบริษัทจะรับภาระค่าใช้จ่ายเพิ่มเอง ไม่คิดจากลูกค้า

    จุดเด่นของเครื่องนี้คือการสร้างจาก FPGA (Field Programmable Gate Array) ไม่ใช่การจำลองด้วยซอฟต์แวร์ ทำให้มันสามารถเล่นตลับเกม N64 ได้โดยตรง พร้อมรองรับ 4K resolution และอุปกรณ์เสริมแท้ของยุคนั้น เช่น Expansion Pak

    ไม่ใช่แค่ “เครื่องที่สวย” แต่ยังมาพร้อมเทคโนโลยีใหม่ ๆ เช่น:
    - Bluetooth Low Energy
    - Wi-Fi แบบ Dual Band
    - HDMI output
    - รองรับ SD card 16GB และสาย USB-C

    ราคาเปิดตัวอยู่ที่ $249.99 มีให้เลือกสองสี — ดำและขาว และขายหมดเกลี้ยงไปแล้ว ไม่มีการเปิดพรีออเดอร์เพิ่มในตอนนี้

    https://www.techspot.com/news/108724-analogue-modern-take-nintendo-64-ship-august.html
    🎙️ เรื่องเล่าจากโลกรีโทรที่กลับมาแบบ Next-Gen: Analogue 3D คืนชีพ Nintendo 64 อย่างสง่างาม หากย้อนกลับไปปี 1996 ตอนที่ Nintendo 64 เปิดตัวพร้อมเกม Super Mario 64 และ Pilotwings 64 โลกเกมเริ่มเข้าสู่ยุค 3D อย่างเต็มตัว แม้จะใช้ตลับแทนแผ่น CD เหมือนคู่แข่งอย่าง PlayStation แต่มันก็สร้างความคลาสสิกที่อยู่ในใจคอเกมหลายล้านคนมาจนถึงทุกวันนี้ ล่าสุด Analogue บริษัทที่เชี่ยวชาญด้านฮาร์ดแวร์รีโทรแบบ “ระดับพรีเมียม” ได้เตรียมวางจำหน่าย Analogue 3D ในเดือนสิงหาคม 2025 หลังจากเลื่อนจากต้นปีเนื่องจากเรื่องภาษีอย่างกะทันหัน แต่ข่าวดีคือบริษัทจะรับภาระค่าใช้จ่ายเพิ่มเอง ไม่คิดจากลูกค้า จุดเด่นของเครื่องนี้คือการสร้างจาก FPGA (Field Programmable Gate Array) ไม่ใช่การจำลองด้วยซอฟต์แวร์ ทำให้มันสามารถเล่นตลับเกม N64 ได้โดยตรง พร้อมรองรับ 4K resolution และอุปกรณ์เสริมแท้ของยุคนั้น เช่น Expansion Pak ไม่ใช่แค่ “เครื่องที่สวย” แต่ยังมาพร้อมเทคโนโลยีใหม่ ๆ เช่น: - Bluetooth Low Energy - Wi-Fi แบบ Dual Band - HDMI output - รองรับ SD card 16GB และสาย USB-C ราคาเปิดตัวอยู่ที่ $249.99 มีให้เลือกสองสี — ดำและขาว และขายหมดเกลี้ยงไปแล้ว ไม่มีการเปิดพรีออเดอร์เพิ่มในตอนนี้ https://www.techspot.com/news/108724-analogue-modern-take-nintendo-64-ship-august.html
    WWW.TECHSPOT.COM
    Analogue's 4K-ready Nintendo 64 remake ships this August
    The Analogue 3D, if you recall, is essentially an FPGA version of Nintendo's legendary console. The original system hit North American on September 29, 1996, with just...
    0 ความคิดเห็น 0 การแบ่งปัน 216 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกความเร็วเหนือเสียง: X-59 ของ NASA กับภารกิจลดเสียงบูมให้เงียบลง

    NASA ร่วมกับ Lockheed Martin พัฒนาเครื่องบิน X-59 ตั้งแต่ปี 2023 โดยมีเป้าหมายเพื่อทดสอบการบินเหนือเสียงแบบเงียบ ซึ่งจะช่วยให้การเดินทางด้วยความเร็วเหนือเสียงสามารถกลับมาใช้งานเชิงพาณิชย์ได้โดยไม่รบกวนชุมชน

    ล่าสุดเมื่อวันที่ 10 กรกฎาคม 2025 X-59 ได้เริ่มทดสอบการวิ่งบนรันเวย์ที่ฐานทัพอากาศ Plant 42 ในเมือง Palmdale รัฐแคลิฟอร์เนีย โดยใช้พลังงานภายในของตัวเครื่องเป็นครั้งแรก ซึ่งเป็นขั้นตอนสำคัญก่อนการบินจริง

    X-59 มีดีไซน์พิเศษ เช่น:
    - ไม่มีหน้าต่างด้านหน้า เพราะจมูกเครื่องบินยาวมาก
    - ใช้ระบบกล้องและจอภาพแทนการมองด้วยสายตา
    - ความยาวเกือบ 100 เมตร โดยจมูกเครื่องคิดเป็น 1 ใน 3
    - ออกแบบให้ shockwave ไม่รวมกันที่ท้ายเครื่อง เพื่อลดเสียงบูม

    ภารกิจ Quesst จะทดสอบการบินที่ความเร็ว 1.5 เท่าของเสียง และประเมินว่าเสียงบูมที่เกิดขึ้นจะเงียบพอสำหรับการใช้งานในเมืองหรือไม่

    https://wccftech.com/nasa-gears-up-to-fly-supersonic-jet-to-test-quiet-sonic-booms/
    🎙️ เรื่องเล่าจากโลกความเร็วเหนือเสียง: X-59 ของ NASA กับภารกิจลดเสียงบูมให้เงียบลง NASA ร่วมกับ Lockheed Martin พัฒนาเครื่องบิน X-59 ตั้งแต่ปี 2023 โดยมีเป้าหมายเพื่อทดสอบการบินเหนือเสียงแบบเงียบ ซึ่งจะช่วยให้การเดินทางด้วยความเร็วเหนือเสียงสามารถกลับมาใช้งานเชิงพาณิชย์ได้โดยไม่รบกวนชุมชน ล่าสุดเมื่อวันที่ 10 กรกฎาคม 2025 X-59 ได้เริ่มทดสอบการวิ่งบนรันเวย์ที่ฐานทัพอากาศ Plant 42 ในเมือง Palmdale รัฐแคลิฟอร์เนีย โดยใช้พลังงานภายในของตัวเครื่องเป็นครั้งแรก ซึ่งเป็นขั้นตอนสำคัญก่อนการบินจริง X-59 มีดีไซน์พิเศษ เช่น: - ไม่มีหน้าต่างด้านหน้า เพราะจมูกเครื่องบินยาวมาก - ใช้ระบบกล้องและจอภาพแทนการมองด้วยสายตา - ความยาวเกือบ 100 เมตร โดยจมูกเครื่องคิดเป็น 1 ใน 3 - ออกแบบให้ shockwave ไม่รวมกันที่ท้ายเครื่อง เพื่อลดเสียงบูม ภารกิจ Quesst จะทดสอบการบินที่ความเร็ว 1.5 เท่าของเสียง และประเมินว่าเสียงบูมที่เกิดขึ้นจะเงียบพอสำหรับการใช้งานในเมืองหรือไม่ https://wccftech.com/nasa-gears-up-to-fly-supersonic-jet-to-test-quiet-sonic-booms/
    WCCFTECH.COM
    NASA Gears Up To Fly Supersonic Jet To Test Quiet Sonic Booms
    NASA's X-59 supersonic test plane starts taxi tests, marking progress in its quiet flight research mission.
    0 ความคิดเห็น 0 การแบ่งปัน 209 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิปโน้ตบุ๊ก: Nova Lake-AX จาก Intel กับภารกิจโค่น Strix Halo

    Intel กำลังพัฒนา Nova Lake-AX ซึ่งเป็นชิปโน้ตบุ๊กแบบ APU ที่รวม CPU และ GPU ไว้ในตัวเดียว โดยมีเป้าหมายเพื่อแข่งขันกับ AMD Strix Halo ที่สามารถให้ประสิทธิภาพกราฟิกเทียบเท่าการ์ดจอแยกระดับ RTX 4070

    Nova Lake-AX จะเป็นครั้งแรกที่ Intel ใช้รหัส “AX” ในสายผลิตภัณฑ์ โดยคาดว่าจะมีสเปกใกล้เคียงกับ Core Ultra 9 285HX ที่มี GPU 4 คอร์ และ Arrow Lake-HX ที่มี 6–8 P-core และ 8–16 E-core โดยไม่มี hyperthreading เพื่อประหยัดพลังงาน

    ในฝั่ง AMD Strix Halo รุ่นสูงสุดคือ Ryzen AI Max+ 395 ที่มี 40 GPU compute units และรองรับ RAM แบบ soldered สูงสุดถึง 128GB ซึ่งให้ประสิทธิภาพสูงแต่ไม่สามารถอัปเกรด RAM ได้

    Nova Lake-AX คาดว่าจะใช้แพ็กเกจ BGA2540 แบบเดียวกับ Panther Lake-HX และเปิดตัวในปี 2026 โดยรุ่นสำหรับโน้ตบุ๊กอาจวางจำหน่ายจริงในต้นปี 2027

    Intel เตรียมเปิดตัวชิปโน้ตบุ๊ก Nova Lake-AX แบบ APU
    รวม CPU และ GPU ไว้ในตัวเดียวเพื่อรองรับงานกราฟิกระดับสูง

    Nova Lake-AX ถูกออกแบบมาเพื่อแข่งขันกับ AMD Strix Halo
    โดยเฉพาะรุ่น Ryzen AI Max+ 395 ที่มี GPU 40 compute units

    เป็นครั้งแรกที่ Intel ใช้รหัส “AX” ในสายผลิตภัณฑ์
    สื่อถึงชิปที่เน้นกราฟิกในระดับสูงสำหรับเกมและงานสร้างสรรค์

    Arrow Lake-HX ไม่มี hyperthreading เพื่อประหยัดพลังงาน
    มี 6–8 P-core และ 8–16 E-core พร้อม TDP 55–160W

    AMD Strix Halo รองรับ RAM แบบ soldered สูงสุด 128GB
    ให้ประสิทธิภาพสูงแต่ไม่สามารถอัปเกรด RAM ได้ภายหลัง

    Nova Lake-AX คาดว่าจะใช้แพ็กเกจ BGA2540
    แบบเดียวกับ Panther Lake-HX สำหรับโน้ตบุ๊กระดับสูง

    ชิป Nova Lake คาดว่าจะเปิดตัวในปี 2026
    รุ่นโน้ตบุ๊กอาจวางจำหน่ายจริงในต้นปี 2027

    https://www.tomshardware.com/pc-components/cpus/intel-reportedly-prepping-supercharged-nova-lake-ax-mobile-chips-for-gaming-team-blues-high-performance-apu-to-rival-amds-strix-halo
    🎙️ เรื่องเล่าจากโลกชิปโน้ตบุ๊ก: Nova Lake-AX จาก Intel กับภารกิจโค่น Strix Halo Intel กำลังพัฒนา Nova Lake-AX ซึ่งเป็นชิปโน้ตบุ๊กแบบ APU ที่รวม CPU และ GPU ไว้ในตัวเดียว โดยมีเป้าหมายเพื่อแข่งขันกับ AMD Strix Halo ที่สามารถให้ประสิทธิภาพกราฟิกเทียบเท่าการ์ดจอแยกระดับ RTX 4070 Nova Lake-AX จะเป็นครั้งแรกที่ Intel ใช้รหัส “AX” ในสายผลิตภัณฑ์ โดยคาดว่าจะมีสเปกใกล้เคียงกับ Core Ultra 9 285HX ที่มี GPU 4 คอร์ และ Arrow Lake-HX ที่มี 6–8 P-core และ 8–16 E-core โดยไม่มี hyperthreading เพื่อประหยัดพลังงาน ในฝั่ง AMD Strix Halo รุ่นสูงสุดคือ Ryzen AI Max+ 395 ที่มี 40 GPU compute units และรองรับ RAM แบบ soldered สูงสุดถึง 128GB ซึ่งให้ประสิทธิภาพสูงแต่ไม่สามารถอัปเกรด RAM ได้ Nova Lake-AX คาดว่าจะใช้แพ็กเกจ BGA2540 แบบเดียวกับ Panther Lake-HX และเปิดตัวในปี 2026 โดยรุ่นสำหรับโน้ตบุ๊กอาจวางจำหน่ายจริงในต้นปี 2027 ✅ Intel เตรียมเปิดตัวชิปโน้ตบุ๊ก Nova Lake-AX แบบ APU ➡️ รวม CPU และ GPU ไว้ในตัวเดียวเพื่อรองรับงานกราฟิกระดับสูง ✅ Nova Lake-AX ถูกออกแบบมาเพื่อแข่งขันกับ AMD Strix Halo ➡️ โดยเฉพาะรุ่น Ryzen AI Max+ 395 ที่มี GPU 40 compute units ✅ เป็นครั้งแรกที่ Intel ใช้รหัส “AX” ในสายผลิตภัณฑ์ ➡️ สื่อถึงชิปที่เน้นกราฟิกในระดับสูงสำหรับเกมและงานสร้างสรรค์ ✅ Arrow Lake-HX ไม่มี hyperthreading เพื่อประหยัดพลังงาน ➡️ มี 6–8 P-core และ 8–16 E-core พร้อม TDP 55–160W ✅ AMD Strix Halo รองรับ RAM แบบ soldered สูงสุด 128GB ➡️ ให้ประสิทธิภาพสูงแต่ไม่สามารถอัปเกรด RAM ได้ภายหลัง ✅ Nova Lake-AX คาดว่าจะใช้แพ็กเกจ BGA2540 ➡️ แบบเดียวกับ Panther Lake-HX สำหรับโน้ตบุ๊กระดับสูง ✅ ชิป Nova Lake คาดว่าจะเปิดตัวในปี 2026 ➡️ รุ่นโน้ตบุ๊กอาจวางจำหน่ายจริงในต้นปี 2027 https://www.tomshardware.com/pc-components/cpus/intel-reportedly-prepping-supercharged-nova-lake-ax-mobile-chips-for-gaming-team-blues-high-performance-apu-to-rival-amds-strix-halo
    0 ความคิดเห็น 0 การแบ่งปัน 209 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกกราฟิกเกม: Intel เปิดตัว CGVQM เครื่องมือ AI วัดคุณภาพภาพเกมแบบเรียลไทม์

    ในยุคที่เกมสมัยใหม่ใช้เทคนิคเรนเดอร์ขั้นสูง เช่น supersampling, denoising, frame interpolation และ shading แบบปรับอัตราอัตโนมัติ การประเมินคุณภาพภาพด้วยสายตาอาจไม่แม่นยำพอ Intel จึงเปิดตัว CGVQM ซึ่งเป็นโมเดล AI ที่สามารถวิเคราะห์และให้คะแนนคุณภาพภาพของเกมได้อย่างแม่นยำและเป็นกลาง

    CGVQM ประกอบด้วย 2 ส่วนหลัก:
    1️⃣ ชุดข้อมูลวิดีโอ CGVQD ที่รวบรวมตัวอย่างภาพผิดเพี้ยนจากเทคนิคเรนเดอร์ต่าง ๆ
    2️⃣ โมเดล AI แบบ 3D-ResNet ที่ถูกฝึกให้รู้จักความผิดเพี้ยน เช่น ghosting, flicker, aliasing และ disocclusion โดยเทียบกับการให้คะแนนจากมนุษย์

    ผลการทดสอบพบว่า CGVQM-5 มีความแม่นยำใกล้เคียงกับการประเมินของมนุษย์ ส่วน CGVQM-2 ก็ยังติดอันดับ 3 จากเครื่องมือทั้งหมดที่นำมาทดสอบ

    เครื่องมือนี้เปิดให้ใช้งานฟรีบน GitHub ในรูปแบบ PyTorch application และสามารถนำไปใช้วิเคราะห์คุณภาพภาพของเกมหรือแอปพลิเคชันกราฟิกแบบเรียลไทม์ได้ทันที

    Intel เปิดตัว CGVQM เครื่องมือ AI สำหรับวัดคุณภาพภาพเกม
    ใช้โมเดล 3D convolutional neural network (3D-ResNet-18)

    CGVQM ประเมินภาพผิดเพี้ยนจากเทคนิคเรนเดอร์สมัยใหม่
    เช่น DLSS, FSR, XeSS, Gaussian splatting, frame gen, denoising

    สร้างชุดข้อมูล CGVQD เพื่อฝึกโมเดล AI
    ประกอบด้วยวิดีโอที่มี distortions หลากหลายรูปแบบ

    ใช้การให้คะแนนจากมนุษย์เป็น baseline
    เพื่อฝึกโมเดลให้เข้าใจความรู้สึกต่อภาพผิดเพี้ยน

    CGVQM-5 มีความแม่นยำใกล้เคียงกับมนุษย์
    ส่วน CGVQM-2 ก็ยังติดอันดับ 3 จากเครื่องมือที่ทดสอบ

    เปิดให้ใช้งานฟรีบน GitHub ในรูปแบบ PyTorch
    เหมาะสำหรับนักพัฒนาเกมและนักวิจัยด้านกราฟิก

    CGVQM ยังไม่เป็นมาตรฐานอุตสาหกรรม
    ต้องรอการยอมรับจากนักพัฒนาและผู้ผลิตเกมในวงกว้าง

    โมเดล AI อาจไม่แม่นยำกับวิดีโอที่อยู่นอกชุดข้อมูลฝึก
    แม้จะมีความสามารถในการ generalize แต่ยังต้องทดสอบเพิ่มเติม

    การใช้โมเดล 3D-CNN ต้องใช้ทรัพยากรค่อนข้างสูง
    อาจไม่เหมาะกับการประเมินแบบเรียลไทม์ในระบบที่จำกัด

    ยังไม่มีการเปรียบเทียบกับโมเดลแบบ transformer อย่างละเอียด
    ซึ่งอาจให้ผลลัพธ์ที่ดีกว่าในอนาคตแต่ต้องใช้พลังประมวลผลมาก

    https://www.tomshardware.com/video-games/pc-gaming/intel-releases-new-tool-to-measure-gaming-image-quality-in-real-time-ai-tool-measures-impact-of-upscalers-frame-gen-others-computer-graphics-video-quality-metric-now-available-on-github
    🎙️ เรื่องเล่าจากโลกกราฟิกเกม: Intel เปิดตัว CGVQM เครื่องมือ AI วัดคุณภาพภาพเกมแบบเรียลไทม์ ในยุคที่เกมสมัยใหม่ใช้เทคนิคเรนเดอร์ขั้นสูง เช่น supersampling, denoising, frame interpolation และ shading แบบปรับอัตราอัตโนมัติ การประเมินคุณภาพภาพด้วยสายตาอาจไม่แม่นยำพอ Intel จึงเปิดตัว CGVQM ซึ่งเป็นโมเดล AI ที่สามารถวิเคราะห์และให้คะแนนคุณภาพภาพของเกมได้อย่างแม่นยำและเป็นกลาง CGVQM ประกอบด้วย 2 ส่วนหลัก: 1️⃣ ชุดข้อมูลวิดีโอ CGVQD ที่รวบรวมตัวอย่างภาพผิดเพี้ยนจากเทคนิคเรนเดอร์ต่าง ๆ 2️⃣ โมเดล AI แบบ 3D-ResNet ที่ถูกฝึกให้รู้จักความผิดเพี้ยน เช่น ghosting, flicker, aliasing และ disocclusion โดยเทียบกับการให้คะแนนจากมนุษย์ ผลการทดสอบพบว่า CGVQM-5 มีความแม่นยำใกล้เคียงกับการประเมินของมนุษย์ ส่วน CGVQM-2 ก็ยังติดอันดับ 3 จากเครื่องมือทั้งหมดที่นำมาทดสอบ เครื่องมือนี้เปิดให้ใช้งานฟรีบน GitHub ในรูปแบบ PyTorch application และสามารถนำไปใช้วิเคราะห์คุณภาพภาพของเกมหรือแอปพลิเคชันกราฟิกแบบเรียลไทม์ได้ทันที ✅ Intel เปิดตัว CGVQM เครื่องมือ AI สำหรับวัดคุณภาพภาพเกม ➡️ ใช้โมเดล 3D convolutional neural network (3D-ResNet-18) ✅ CGVQM ประเมินภาพผิดเพี้ยนจากเทคนิคเรนเดอร์สมัยใหม่ ➡️ เช่น DLSS, FSR, XeSS, Gaussian splatting, frame gen, denoising ✅ สร้างชุดข้อมูล CGVQD เพื่อฝึกโมเดล AI ➡️ ประกอบด้วยวิดีโอที่มี distortions หลากหลายรูปแบบ ✅ ใช้การให้คะแนนจากมนุษย์เป็น baseline ➡️ เพื่อฝึกโมเดลให้เข้าใจความรู้สึกต่อภาพผิดเพี้ยน ✅ CGVQM-5 มีความแม่นยำใกล้เคียงกับมนุษย์ ➡️ ส่วน CGVQM-2 ก็ยังติดอันดับ 3 จากเครื่องมือที่ทดสอบ ✅ เปิดให้ใช้งานฟรีบน GitHub ในรูปแบบ PyTorch ➡️ เหมาะสำหรับนักพัฒนาเกมและนักวิจัยด้านกราฟิก ‼️ CGVQM ยังไม่เป็นมาตรฐานอุตสาหกรรม ⛔ ต้องรอการยอมรับจากนักพัฒนาและผู้ผลิตเกมในวงกว้าง ‼️ โมเดล AI อาจไม่แม่นยำกับวิดีโอที่อยู่นอกชุดข้อมูลฝึก ⛔ แม้จะมีความสามารถในการ generalize แต่ยังต้องทดสอบเพิ่มเติม ‼️ การใช้โมเดล 3D-CNN ต้องใช้ทรัพยากรค่อนข้างสูง ⛔ อาจไม่เหมาะกับการประเมินแบบเรียลไทม์ในระบบที่จำกัด ‼️ ยังไม่มีการเปรียบเทียบกับโมเดลแบบ transformer อย่างละเอียด ⛔ ซึ่งอาจให้ผลลัพธ์ที่ดีกว่าในอนาคตแต่ต้องใช้พลังประมวลผลมาก https://www.tomshardware.com/video-games/pc-gaming/intel-releases-new-tool-to-measure-gaming-image-quality-in-real-time-ai-tool-measures-impact-of-upscalers-frame-gen-others-computer-graphics-video-quality-metric-now-available-on-github
    WWW.TOMSHARDWARE.COM
    Intel releases new tool to measure gaming image quality — AI tool measures impact of upscalers, frame gen, others; Computer Graphics Video Quality Metric now available on GitHub
    New dataset and companion AI model chart a new path forward for objectively quantifying image quality from modern rendering techniques
    0 ความคิดเห็น 0 การแบ่งปัน 307 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกชิปเก่า: Rise mP6 266—ชิปที่หายากที่สุดในตระกูล x86

    ในปี 1998 บริษัท Rise Technology เปิดตัวชิป mP6 266 หลังจากใช้เวลาพัฒนานานถึง 5 ปี โดยหวังจะเป็นคู่แข่งของ Intel และ AMD ในยุคที่ Socket 7 ยังเป็นมาตรฐานของเมนบอร์ด

    ชิปนี้ถูกออกแบบให้รองรับชุดคำสั่ง MMX และทำงานบนเมนบอร์ด Super Socket 7 เช่น Asus P5A-B ที่ใช้ชิปเซ็ต ALi Aladdin V ซึ่งรองรับ CPU จากหลายค่ายในยุคนั้น เช่น Intel Pentium MMX, AMD K6, Cyrix MII และ WinChip

    แม้ชื่อจะระบุว่า “266” แต่จริง ๆ แล้วความเร็วของชิปอยู่ที่ 200MHz โดยใช้เทคนิค “P-rating” เพื่อให้ดูเทียบเท่า Pentium 266 ของ Intel ซึ่งเป็นกลยุทธ์ที่ AMD และ Cyrix ก็เคยใช้เช่นกัน

    Rise mP6 มีแรงดันไฟสูงถึง 2.832V แต่ใช้พลังงานเพียง 8.54W ทำให้สามารถใช้ระบบระบายความร้อนแบบ passive ได้ในยุคนั้น

    ชิปนี้หายากมากในปัจจุบัน เพราะ Rise ถอนตัวจากธุรกิจ CPU ในปี 1999 ทำให้มีจำนวนจำกัดในตลาดมือสอง และกลายเป็นของสะสมที่นักสะสมชิปอย่าง “konkretor” ภูมิใจนำเสนอ

    Rise mP6 266 เปิดตัวในปี 1998 หลังพัฒนา 5 ปี
    เป็นชิป x86 ที่รองรับ MMX และใช้กับเมนบอร์ด Super Socket 7

    ใช้เทคนิค P-rating เพื่อให้ดูเทียบเท่า Pentium 266
    แม้ความเร็วจริงจะอยู่ที่ 200MHz

    เมนบอร์ด Asus P5A-B รองรับ CPU จากหลายค่ายในยุคนั้น
    Intel, AMD, Cyrix, WinChip

    ชิปใช้แรงดันไฟ 2.832V และมี TDP เพียง 8.54W
    ทำให้ใช้ระบบระบายความร้อนแบบ passive ได้

    ชิปถูกผลิตโดย TSMC ด้วยกระบวนการ 250nm
    มีเอกสารข้อมูลของรุ่น 333 และ 366 MHz ยังหลงเหลืออยู่

    ชิปที่นำมาโชว์ถูกซื้อจาก eBay ประเทศจีน
    เป็นของใหม่เก่าเก็บ (new old stock) ไม่มีเรื่องราวพิเศษ

    Rise ถอนตัวจากธุรกิจ CPU ในปี 1999
    ทำให้ชิปตระกูลนี้ไม่มีการสนับสนุนหรือพัฒนาเพิ่มเติม

    ความเร็วที่ระบุในชื่อรุ่นอาจทำให้ผู้ใช้เข้าใจผิด
    เช่น “266” แต่ทำงานจริงที่ 200MHz

    ไม่มีข้อมูลทางเทคนิคอย่างละเอียดสำหรับรุ่น 266 โดยตรง
    ต้องอ้างอิงจากรุ่นใกล้เคียง เช่น 333 และ 366 MHz

    ชิปนี้ไม่เหมาะสำหรับการใช้งานจริงในยุคปัจจุบัน
    เหมาะสำหรับการสะสมหรือการทดลองเชิงประวัติศาสตร์เท่านั้น

    https://www.tomshardware.com/pc-components/cpus/chip-collector-showcases-rarest-x86-cpu-in-their-hoard-rise-mp6-266-ticked-along-at-200mhz-in-1998
    🎙️ เรื่องเล่าจากโลกชิปเก่า: Rise mP6 266—ชิปที่หายากที่สุดในตระกูล x86 ในปี 1998 บริษัท Rise Technology เปิดตัวชิป mP6 266 หลังจากใช้เวลาพัฒนานานถึง 5 ปี โดยหวังจะเป็นคู่แข่งของ Intel และ AMD ในยุคที่ Socket 7 ยังเป็นมาตรฐานของเมนบอร์ด ชิปนี้ถูกออกแบบให้รองรับชุดคำสั่ง MMX และทำงานบนเมนบอร์ด Super Socket 7 เช่น Asus P5A-B ที่ใช้ชิปเซ็ต ALi Aladdin V ซึ่งรองรับ CPU จากหลายค่ายในยุคนั้น เช่น Intel Pentium MMX, AMD K6, Cyrix MII และ WinChip แม้ชื่อจะระบุว่า “266” แต่จริง ๆ แล้วความเร็วของชิปอยู่ที่ 200MHz โดยใช้เทคนิค “P-rating” เพื่อให้ดูเทียบเท่า Pentium 266 ของ Intel ซึ่งเป็นกลยุทธ์ที่ AMD และ Cyrix ก็เคยใช้เช่นกัน Rise mP6 มีแรงดันไฟสูงถึง 2.832V แต่ใช้พลังงานเพียง 8.54W ทำให้สามารถใช้ระบบระบายความร้อนแบบ passive ได้ในยุคนั้น ชิปนี้หายากมากในปัจจุบัน เพราะ Rise ถอนตัวจากธุรกิจ CPU ในปี 1999 ทำให้มีจำนวนจำกัดในตลาดมือสอง และกลายเป็นของสะสมที่นักสะสมชิปอย่าง “konkretor” ภูมิใจนำเสนอ ✅ Rise mP6 266 เปิดตัวในปี 1998 หลังพัฒนา 5 ปี ➡️ เป็นชิป x86 ที่รองรับ MMX และใช้กับเมนบอร์ด Super Socket 7 ✅ ใช้เทคนิค P-rating เพื่อให้ดูเทียบเท่า Pentium 266 ➡️ แม้ความเร็วจริงจะอยู่ที่ 200MHz ✅ เมนบอร์ด Asus P5A-B รองรับ CPU จากหลายค่ายในยุคนั้น ➡️ Intel, AMD, Cyrix, WinChip ✅ ชิปใช้แรงดันไฟ 2.832V และมี TDP เพียง 8.54W ➡️ ทำให้ใช้ระบบระบายความร้อนแบบ passive ได้ ✅ ชิปถูกผลิตโดย TSMC ด้วยกระบวนการ 250nm ➡️ มีเอกสารข้อมูลของรุ่น 333 และ 366 MHz ยังหลงเหลืออยู่ ✅ ชิปที่นำมาโชว์ถูกซื้อจาก eBay ประเทศจีน ➡️ เป็นของใหม่เก่าเก็บ (new old stock) ไม่มีเรื่องราวพิเศษ ‼️ Rise ถอนตัวจากธุรกิจ CPU ในปี 1999 ⛔ ทำให้ชิปตระกูลนี้ไม่มีการสนับสนุนหรือพัฒนาเพิ่มเติม ‼️ ความเร็วที่ระบุในชื่อรุ่นอาจทำให้ผู้ใช้เข้าใจผิด ⛔ เช่น “266” แต่ทำงานจริงที่ 200MHz ‼️ ไม่มีข้อมูลทางเทคนิคอย่างละเอียดสำหรับรุ่น 266 โดยตรง ⛔ ต้องอ้างอิงจากรุ่นใกล้เคียง เช่น 333 และ 366 MHz ‼️ ชิปนี้ไม่เหมาะสำหรับการใช้งานจริงในยุคปัจจุบัน ⛔ เหมาะสำหรับการสะสมหรือการทดลองเชิงประวัติศาสตร์เท่านั้น https://www.tomshardware.com/pc-components/cpus/chip-collector-showcases-rarest-x86-cpu-in-their-hoard-rise-mp6-266-ticked-along-at-200mhz-in-1998
    WWW.TOMSHARDWARE.COM
    Chip collector showcases 'rarest x86 CPU' in their hoard — Rise mP6 266 ticked along at 200MHz in 1998
    This CPU launched in 1998 after five years in development, but Rise would exit the CPU business in 1999.
    0 ความคิดเห็น 0 การแบ่งปัน 241 มุมมอง 0 รีวิว
  • เมื่อวันที่ 10 กรกฎาคม 2025 Elon Musk และทีม xAI เปิดตัว Grok 4 ซึ่งเป็นโมเดล AI แบบมัลติโหมดรุ่นล่าสุด โดยมีจุดเด่นด้านการเข้าใจภาษา การแก้โจทย์คณิตศาสตร์ และการให้เหตุผลอย่างลึกซึ้ง

    Grok 4 มีหลายเวอร์ชัน โดยเวอร์ชัน “Heavy” ที่ใช้เครื่องมือหลายตัวพร้อมกัน (multi-agent tools) ทำคะแนนได้สูงมากในหลายการทดสอบ เช่น:
    - Humanity’s Last Exam (HLE): Grok 4 Heavy ทำคะแนนได้ 44.4% สูงกว่า Gemini 2.5 Pro ที่ใช้เครื่องมือ (26.9%)
    - ARC-AGI-2: Grok 4 ได้ 16.2% ซึ่งสูงกว่า Claude Opus 4 เกือบเท่าตัว
    - MMLU: ได้คะแนน 86.6% และมี Intelligence Index สูงถึง 73 ซึ่งนำหน้าทั้ง OpenAI และ Google

    ในด้าน STEM และการเขียนโค้ด:
    - GPQA: Grok 4 ได้ 87.5%, ส่วน Grok 4 Heavy ได้ 88.9%
    - AIME: Grok 4 Heavy ได้คะแนนเต็ม 100%
    - SWE-Bench: Grok 4 Code (จะเปิดตัวเดือนสิงหาคม) ทำคะแนนได้ 72–75%

    Elon Musk ระบุว่า Grok 4 “แทบไม่เคยตอบผิดในข้อสอบฟิสิกส์หรือคณิตศาสตร์เลย” และสามารถตรวจจับข้อผิดพลาดในคำถามได้ด้วย

    ด้านราคาการใช้งาน:
    - API ราคาเท่า Grok 3: $3/$15 ต่อ 1 ล้าน tokens

    แพ็กเกจผู้ใช้ทั่วไป:
    - ฟรี: เข้าถึง Grok 3 แบบจำกัด
    - SuperGrok ($30/เดือน): เข้าถึง Grok 3 และ Grok 4
    - SuperGrok Heavy ($300/เดือน): เข้าถึง Grok 3, Grok 4 และ Grok 4 Heavy

    https://www.neowin.net/news/elon-musks-xai-launches-grok-4-claiming-top-spot-among-industry-ai-models/
    เมื่อวันที่ 10 กรกฎาคม 2025 Elon Musk และทีม xAI เปิดตัว Grok 4 ซึ่งเป็นโมเดล AI แบบมัลติโหมดรุ่นล่าสุด โดยมีจุดเด่นด้านการเข้าใจภาษา การแก้โจทย์คณิตศาสตร์ และการให้เหตุผลอย่างลึกซึ้ง Grok 4 มีหลายเวอร์ชัน โดยเวอร์ชัน “Heavy” ที่ใช้เครื่องมือหลายตัวพร้อมกัน (multi-agent tools) ทำคะแนนได้สูงมากในหลายการทดสอบ เช่น: - Humanity’s Last Exam (HLE): Grok 4 Heavy ทำคะแนนได้ 44.4% สูงกว่า Gemini 2.5 Pro ที่ใช้เครื่องมือ (26.9%) - ARC-AGI-2: Grok 4 ได้ 16.2% ซึ่งสูงกว่า Claude Opus 4 เกือบเท่าตัว - MMLU: ได้คะแนน 86.6% และมี Intelligence Index สูงถึง 73 ซึ่งนำหน้าทั้ง OpenAI และ Google ในด้าน STEM และการเขียนโค้ด: - GPQA: Grok 4 ได้ 87.5%, ส่วน Grok 4 Heavy ได้ 88.9% - AIME: Grok 4 Heavy ได้คะแนนเต็ม 100% - SWE-Bench: Grok 4 Code (จะเปิดตัวเดือนสิงหาคม) ทำคะแนนได้ 72–75% Elon Musk ระบุว่า Grok 4 “แทบไม่เคยตอบผิดในข้อสอบฟิสิกส์หรือคณิตศาสตร์เลย” และสามารถตรวจจับข้อผิดพลาดในคำถามได้ด้วย ด้านราคาการใช้งาน: - API ราคาเท่า Grok 3: $3/$15 ต่อ 1 ล้าน tokens แพ็กเกจผู้ใช้ทั่วไป: - ฟรี: เข้าถึง Grok 3 แบบจำกัด - SuperGrok ($30/เดือน): เข้าถึง Grok 3 และ Grok 4 - SuperGrok Heavy ($300/เดือน): เข้าถึง Grok 3, Grok 4 และ Grok 4 Heavy https://www.neowin.net/news/elon-musks-xai-launches-grok-4-claiming-top-spot-among-industry-ai-models/
    WWW.NEOWIN.NET
    Elon Musk's xAI launches Grok 4, claiming top spot among industry AI models
    Elon Musk's xAI has launched its new flagship AI model, Grok-4, which demonstrates leading performance in various academic, reasoning, and coding benchmarks.
    0 ความคิดเห็น 0 การแบ่งปัน 199 มุมมอง 0 รีวิว
  • ใครที่เคยเล่น Doom บน SNES มาก่อน จะรู้ดีว่ามันเหมือนพยายามยัดเกม 3D สุดโหดใส่เครื่องอายุ 10 ปีที่แทบจะไม่ไหว → เฟรมตก, ภาพเบลอ, และตัดเนื้อหาจนแทบเหลือแค่โครง

    แต่ปี 2025 นี้ — Limited Run Games ทำเกินคำว่า “รีเมก” → พวกเขาร่วมมือกับ Randal Linden (ผู้นำทีมพอร์ตเวอร์ชัน SNES เดิม) → สร้างตลับใหม่ที่มี co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz ช่วยประมวลผล → เหมือนเพิ่มสมองให้ SNES — ฟีเจอร์อย่าง circle strafing, enemy respawning, 14 ด่านใหม่ และความลื่นไหลเกินคาดจึงเกิดขึ้นได้!

    แถมมี คอนโทรลเลอร์แบบมีระบบสั่น ให้เลือกซื้อเพิ่มด้วย → ใช้มอเตอร์สั่น 2 ตัวแบบตลับสาย → สะใจเหมือนมือระเบิดศพในยุค 90 จริง ๆ

    Limited Run Games เปิดพรีออร์เดอร์ Doom SNES รุ่นใหม่ วันที่ 11 ก.ค. 2025  
    • จำหน่ายเป็นตลับจริงบน Super Nintendo  
    • เลือกได้ทั้งรุ่น Standard และ Collector’s Edition

    ตัวเกมมีการปรับปรุงหลายจุด:  
    • เพิ่ม 14 ด่านใหม่  
    • รองรับ circle strafing และ enemy respawn  
    • เกมลื่นไหลกว่ารุ่นเดิมชัดเจน  
    • รองรับฟีเจอร์ rumble ผ่านคอนโทรลเลอร์สายรุ่นใหม่

    ใช้ co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz  
    • ทำหน้าที่เหมือน SuperFX chip เพิ่มพลังให้ SNES  
    • ช่วยประมวลผลภาพและการเคลื่อนไหว

    ราคา:  
    • รุ่น Standard: $99.99 → มาพร้อมตลับสี gun-metal, กล่อง retro, คู่มือ, และโปสเตอร์  
    • รุ่น Collector’s Edition: $174.99 → ตลับลายเลือด+โลหะ, กล่อง premium, คู่มือ, โปสเตอร์ (มีเพียง 666 ชุด)  
    • Rumble Controller แยกขาย: $34.99

    พรีออร์เดอร์ปิดวันที่ 10 ส.ค. 2025

    https://www.techspot.com/news/108614-doom-returns-snes-physical-form-thanks-limited-run.html
    ใครที่เคยเล่น Doom บน SNES มาก่อน จะรู้ดีว่ามันเหมือนพยายามยัดเกม 3D สุดโหดใส่เครื่องอายุ 10 ปีที่แทบจะไม่ไหว → เฟรมตก, ภาพเบลอ, และตัดเนื้อหาจนแทบเหลือแค่โครง แต่ปี 2025 นี้ — Limited Run Games ทำเกินคำว่า “รีเมก” → พวกเขาร่วมมือกับ Randal Linden (ผู้นำทีมพอร์ตเวอร์ชัน SNES เดิม) → สร้างตลับใหม่ที่มี co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz ช่วยประมวลผล → เหมือนเพิ่มสมองให้ SNES — ฟีเจอร์อย่าง circle strafing, enemy respawning, 14 ด่านใหม่ และความลื่นไหลเกินคาดจึงเกิดขึ้นได้! แถมมี คอนโทรลเลอร์แบบมีระบบสั่น ให้เลือกซื้อเพิ่มด้วย → ใช้มอเตอร์สั่น 2 ตัวแบบตลับสาย → สะใจเหมือนมือระเบิดศพในยุค 90 จริง ๆ ✅ Limited Run Games เปิดพรีออร์เดอร์ Doom SNES รุ่นใหม่ วันที่ 11 ก.ค. 2025   • จำหน่ายเป็นตลับจริงบน Super Nintendo   • เลือกได้ทั้งรุ่น Standard และ Collector’s Edition ✅ ตัวเกมมีการปรับปรุงหลายจุด:   • เพิ่ม 14 ด่านใหม่   • รองรับ circle strafing และ enemy respawn   • เกมลื่นไหลกว่ารุ่นเดิมชัดเจน   • รองรับฟีเจอร์ rumble ผ่านคอนโทรลเลอร์สายรุ่นใหม่ ✅ ใช้ co-processor Raspberry Pi RP2350B ความเร็ว 150 MHz   • ทำหน้าที่เหมือน SuperFX chip เพิ่มพลังให้ SNES   • ช่วยประมวลผลภาพและการเคลื่อนไหว ✅ ราคา:   • รุ่น Standard: $99.99 → มาพร้อมตลับสี gun-metal, กล่อง retro, คู่มือ, และโปสเตอร์   • รุ่น Collector’s Edition: $174.99 → ตลับลายเลือด+โลหะ, กล่อง premium, คู่มือ, โปสเตอร์ (มีเพียง 666 ชุด)   • Rumble Controller แยกขาย: $34.99 ✅ พรีออร์เดอร์ปิดวันที่ 10 ส.ค. 2025 https://www.techspot.com/news/108614-doom-returns-snes-physical-form-thanks-limited-run.html
    WWW.TECHSPOT.COM
    Doom returns to the SNES in physical form thanks to Limited Run Games
    Doom SNES 2025 was spearheaded by Randal Linden, who worked on the original port of the game that came out in 1995. As Time Extension explains, the...
    0 ความคิดเห็น 0 การแบ่งปัน 177 มุมมอง 0 รีวิว
  • หนึ่งในอุปสรรคของการพัฒนาแผงโซลาร์เซลล์คือการวัด “คุณสมบัติแสง” ของวัสดุใหม่แต่ละชนิดต้องใช้เวลาและแรงงานมหาศาล → นักวิจัย MIT จึงสร้างหุ่นยนต์ที่สามารถวิเคราะห์วัสดุโดยอัตโนมัติ ทั้งการถ่ายภาพ, คำนวณจุดสัมผัส, และวัดการนำไฟฟ้าเมื่อโดนแสง (photoconductance)

    มันไม่ใช้วิธีแบบเดาสุ่ม — แต่นำความรู้จากนักเคมีและนักวัสดุมาป้อนเข้าโมเดล AI → เพื่อให้หุ่นยนต์ “เลือกจุดที่ควรแตะ” ด้วยวิธี self-supervised learning → แถมยังใช้ path planning แบบสุ่มนิด ๆ เพื่อหาทางเดินที่สั้นที่สุดระหว่างจุดวัดต่าง ๆ

    ผลลัพธ์คือ → วัดค่าได้มากกว่า 125 จุดต่อชั่วโมง → ในเวลา 24 ชั่วโมง เก็บข้อมูลได้มากกว่า 3,000 จุด → แถมแม่นกว่าวิธี AI แบบเดิมที่เคยใช้ในการค้นหาวัสดุใหม่

    เป้าหมายคือการนำหุ่นยนต์นี้ไปใช้กับ “perovskite” — วัสดุโซลาร์เซลล์รุ่นใหม่ที่ราคาถูกแต่มีแนวโน้มประสิทธิภาพสูง → ถ้าแล็บนี้ทำงานได้ดีจริง ก็เท่ากับเปิดทางให้วงการแผงโซลาร์เซลล์พัฒนาเร็วขึ้นหลายเท่าแบบไม่ต้องรอมนุษย์วัดทีละจุดอีกต่อไป!

    MIT พัฒนาระบบหุ่นยนต์อัตโนมัติสำหรับวัดคุณสมบัติของวัสดุเซมิคอนดักเตอร์โดยตรง  
    • ใช้ AI วางจุดสัมผัสและวัด photoconductance  
    • เหมาะกับวัสดุที่ต้องสัมผัสจริง เช่น perovskite ที่ใช้ในแผงโซลาร์เซลล์

    ระบบมี 3 ส่วนหลัก:  
    • กล้อง + vision model แยกรูปร่างวัสดุ  
    • Neural network วางจุดที่ควรวัด → แบบไม่ต้องใช้ข้อมูล training  
    • Path planner วางแผนเส้นทางเดินให้หุ่นยนต์แตะวัสดุแบบเร็วที่สุด

    ความสามารถสูงกว่าเดิม:  
    • เก็บข้อมูลได้ 125 จุด/ชม. → รวม 3,000 จุดใน 1 วัน  
    • แม่นยำกว่า AI วิธีเก่า 7 แบบ  
    • วัดจุดที่บ่งบอกทั้งประสิทธิภาพสูง และจุดที่วัสดุเริ่มเสื่อม

    เป้าหมายเพื่อใช้สร้าง “ห้องแล็บอัตโนมัติเต็มรูปแบบ” สำหรับค้นพบวัสดุใหม่ในอนาคต  
    • ได้รับการสนับสนุนจากหลายองค์กร เช่น First Solar, US DoE, Eni, MathWorks

    https://www.techspot.com/news/108604-autonomous-mit-robot-helps-discover-better-materials-solar.html
    หนึ่งในอุปสรรคของการพัฒนาแผงโซลาร์เซลล์คือการวัด “คุณสมบัติแสง” ของวัสดุใหม่แต่ละชนิดต้องใช้เวลาและแรงงานมหาศาล → นักวิจัย MIT จึงสร้างหุ่นยนต์ที่สามารถวิเคราะห์วัสดุโดยอัตโนมัติ ทั้งการถ่ายภาพ, คำนวณจุดสัมผัส, และวัดการนำไฟฟ้าเมื่อโดนแสง (photoconductance) มันไม่ใช้วิธีแบบเดาสุ่ม — แต่นำความรู้จากนักเคมีและนักวัสดุมาป้อนเข้าโมเดล AI → เพื่อให้หุ่นยนต์ “เลือกจุดที่ควรแตะ” ด้วยวิธี self-supervised learning → แถมยังใช้ path planning แบบสุ่มนิด ๆ เพื่อหาทางเดินที่สั้นที่สุดระหว่างจุดวัดต่าง ๆ ผลลัพธ์คือ → วัดค่าได้มากกว่า 125 จุดต่อชั่วโมง → ในเวลา 24 ชั่วโมง เก็บข้อมูลได้มากกว่า 3,000 จุด → แถมแม่นกว่าวิธี AI แบบเดิมที่เคยใช้ในการค้นหาวัสดุใหม่ เป้าหมายคือการนำหุ่นยนต์นี้ไปใช้กับ “perovskite” — วัสดุโซลาร์เซลล์รุ่นใหม่ที่ราคาถูกแต่มีแนวโน้มประสิทธิภาพสูง → ถ้าแล็บนี้ทำงานได้ดีจริง ก็เท่ากับเปิดทางให้วงการแผงโซลาร์เซลล์พัฒนาเร็วขึ้นหลายเท่าแบบไม่ต้องรอมนุษย์วัดทีละจุดอีกต่อไป! ✅ MIT พัฒนาระบบหุ่นยนต์อัตโนมัติสำหรับวัดคุณสมบัติของวัสดุเซมิคอนดักเตอร์โดยตรง   • ใช้ AI วางจุดสัมผัสและวัด photoconductance   • เหมาะกับวัสดุที่ต้องสัมผัสจริง เช่น perovskite ที่ใช้ในแผงโซลาร์เซลล์ ✅ ระบบมี 3 ส่วนหลัก:   • กล้อง + vision model แยกรูปร่างวัสดุ   • Neural network วางจุดที่ควรวัด → แบบไม่ต้องใช้ข้อมูล training   • Path planner วางแผนเส้นทางเดินให้หุ่นยนต์แตะวัสดุแบบเร็วที่สุด ✅ ความสามารถสูงกว่าเดิม:   • เก็บข้อมูลได้ 125 จุด/ชม. → รวม 3,000 จุดใน 1 วัน   • แม่นยำกว่า AI วิธีเก่า 7 แบบ   • วัดจุดที่บ่งบอกทั้งประสิทธิภาพสูง และจุดที่วัสดุเริ่มเสื่อม ✅ เป้าหมายเพื่อใช้สร้าง “ห้องแล็บอัตโนมัติเต็มรูปแบบ” สำหรับค้นพบวัสดุใหม่ในอนาคต   • ได้รับการสนับสนุนจากหลายองค์กร เช่น First Solar, US DoE, Eni, MathWorks https://www.techspot.com/news/108604-autonomous-mit-robot-helps-discover-better-materials-solar.html
    WWW.TECHSPOT.COM
    New MIT robot could unlock next-generation solar panel technology
    At the heart of the system is a robotic probe capable of measuring photoconductance, a property that reveals how a material responds to light. By integrating expert...
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • ลองนึกถึงเซิร์ฟเวอร์ที่สมัยก่อนต้องใช้ชิป 32 คอร์, แรม 8 แชนแนล เต็มแร็ก แต่ตอนนี้… AMD ออกรุ่นน้องใหม่ EPYC 4585PX ในซีรีส์ “Grado” ซึ่งใช้แค่ 2 แถวแรม DDR5 + ระบบจิ๋ว ๆ แบบ NAS ก็ยังแรงกว่า → ในการทดสอบโดย Phoronix บน Ubuntu 25.04 พบว่า:
    - ชิปรุ่นเล็กตัวนี้แรงกว่าชิปรุ่นท็อปดั้งเดิม EPYC 7601 ถึง 2.69 เท่า
    - แถมประสิทธิภาพต่อวัตต์ดีกว่า 2.85 เท่า
    - ใช้พลังงานรวมน้อยลง (จาก 238W → เหลือ 225W) ทั้งที่ CPU เปล่า ๆ กินไฟพอ ๆ กัน

    ถือว่าเป็นบทพิสูจน์ว่า “สถาปัตยกรรมใหม่เจ๋งกว่าการอัดจำนวน” → EPYC 4585PX บนบอร์ดเล็ก ๆ + DDR5 เพียง 2 แถว ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในอดีต → เหมาะมากสำหรับ NAS, เซิร์ฟเวอร์ประหยัดพลังงาน หรือ infra ที่ต้องการพื้นที่–ความเย็นน้อย

    EPYC 4585PX (ซีรีส์ EPYC 4005 “Grado”) แรงกว่า EPYC 7601 ถึง 2.69 เท่า  
    • ทดสอบบน Ubuntu 25.04 กับ 200+ เวิร์กโหลด: HPC, คอมไพล์, วิดีโอ, สคริปต์ ฯลฯ

    ประสิทธิภาพต่อวัตต์ (Performance/Watt) ดีกว่า 2.85 เท่า  
    • สะท้อนประสิทธิภาพของสถาปัตยกรรมที่พัฒนาแล้ว

    วัดพลังงานทั้งระบบ: EPYC 4585PX ใช้ 225W vs EPYC 7601 ใช้ 238W  
    • แสดงให้เห็นว่าประหยัดขึ้นทั้งระบบ ไม่ใช่แค่ตัวชิป

    แม้มีแค่ 2 แถวแรม DDR5 แต่ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในหลาย ๆ งาน  
    • ชี้ว่าความสามารถของแรมไม่ได้วัดแค่จากจำนวนแชนแนล

    ระบบทดสอบใช้ Supermicro board + RAM น้อย → เหมาะกับ NAS หรือ SOHO infra มาก

    Grado เป็นซีรีส์ประหยัดพลังงาน ราคาถูกกว่า EPYC 9005 สูงมาก แต่ประสิทธิภาพน่าประทับใจ

    https://www.techradar.com/pro/16-core-amd-epyc-4005-cpu-is-almost-3x-faster-than-amds-first-server-flagship-and-i-cant-believe-what-a-bargain-that-is
    ลองนึกถึงเซิร์ฟเวอร์ที่สมัยก่อนต้องใช้ชิป 32 คอร์, แรม 8 แชนแนล เต็มแร็ก แต่ตอนนี้… AMD ออกรุ่นน้องใหม่ EPYC 4585PX ในซีรีส์ “Grado” ซึ่งใช้แค่ 2 แถวแรม DDR5 + ระบบจิ๋ว ๆ แบบ NAS ก็ยังแรงกว่า → ในการทดสอบโดย Phoronix บน Ubuntu 25.04 พบว่า: - ชิปรุ่นเล็กตัวนี้แรงกว่าชิปรุ่นท็อปดั้งเดิม EPYC 7601 ถึง 2.69 เท่า - แถมประสิทธิภาพต่อวัตต์ดีกว่า 2.85 เท่า - ใช้พลังงานรวมน้อยลง (จาก 238W → เหลือ 225W) ทั้งที่ CPU เปล่า ๆ กินไฟพอ ๆ กัน ถือว่าเป็นบทพิสูจน์ว่า “สถาปัตยกรรมใหม่เจ๋งกว่าการอัดจำนวน” → EPYC 4585PX บนบอร์ดเล็ก ๆ + DDR5 เพียง 2 แถว ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในอดีต → เหมาะมากสำหรับ NAS, เซิร์ฟเวอร์ประหยัดพลังงาน หรือ infra ที่ต้องการพื้นที่–ความเย็นน้อย ✅ EPYC 4585PX (ซีรีส์ EPYC 4005 “Grado”) แรงกว่า EPYC 7601 ถึง 2.69 เท่า   • ทดสอบบน Ubuntu 25.04 กับ 200+ เวิร์กโหลด: HPC, คอมไพล์, วิดีโอ, สคริปต์ ฯลฯ ✅ ประสิทธิภาพต่อวัตต์ (Performance/Watt) ดีกว่า 2.85 เท่า   • สะท้อนประสิทธิภาพของสถาปัตยกรรมที่พัฒนาแล้ว ✅ วัดพลังงานทั้งระบบ: EPYC 4585PX ใช้ 225W vs EPYC 7601 ใช้ 238W   • แสดงให้เห็นว่าประหยัดขึ้นทั้งระบบ ไม่ใช่แค่ตัวชิป ✅ แม้มีแค่ 2 แถวแรม DDR5 แต่ยังชนะเซิร์ฟเวอร์ 8 แชนแนลในหลาย ๆ งาน   • ชี้ว่าความสามารถของแรมไม่ได้วัดแค่จากจำนวนแชนแนล ✅ ระบบทดสอบใช้ Supermicro board + RAM น้อย → เหมาะกับ NAS หรือ SOHO infra มาก ✅ Grado เป็นซีรีส์ประหยัดพลังงาน ราคาถูกกว่า EPYC 9005 สูงมาก แต่ประสิทธิภาพน่าประทับใจ https://www.techradar.com/pro/16-core-amd-epyc-4005-cpu-is-almost-3x-faster-than-amds-first-server-flagship-and-i-cant-believe-what-a-bargain-that-is
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 ความคิดเห็น 0 การแบ่งปัน 210 มุมมอง 0 รีวิว
  • หลายคนรู้จัก Grammarly ในฐานะผู้ช่วยตรวจแกรมมาร์ แต่ตอนนี้บริษัทกำลังกลายร่างเป็น “ศูนย์กลาง AI ด้านการสื่อสารในองค์กร” เลยครับ โดยการซื้อ Superhuman ครั้งนี้ไม่ใช่แค่เรื่องอีเมล — มันคือชิ้นส่วนต่อจิ๊กซอว์สู่ผลิตภัณฑ์ครบวงจรที่รวม AI, เอกสาร, อีเมล, ปฏิทิน และอื่น ๆ เข้าไว้ด้วยกัน

    Superhuman เคยเป็นแอปอีเมลสุดพรีเมียมที่มี waitlist ยาวเหยียด ด้วยจุดขายความเร็วและดีไซน์เฉียบ แต่หลังจากที่ Google และ Microsoft พัฒนา AI ใน Gmail / Outlook มากขึ้น Superhuman ก็เจอความท้าทายไม่น้อย

    Grammarly ที่เพิ่งได้ทุน $1 พันล้านจาก General Catalyst เลยฉวยโอกาสนี้ซื้อ Superhuman เข้ามา พร้อมวางแผนใหญ่:
    - ดึงทีมและเทคโนโลยี Superhuman มาสร้าง “AI agents” ที่จะช่วยคุณเขียน ตอบ ค้นหา และจัดการเมลอย่างอัตโนมัติ
    - ใช้ข้อมูลจากเอกสาร + อีเมล + ปฏิทิน เพื่อสร้างผู้ช่วยเสมือนที่ “เข้าใจงานและบริบทของคุณจริง ๆ”

    CEO คนใหม่ของ Grammarly คือ Shishir Mehrotra (อดีตผู้ร่วมก่อตั้ง Coda) ซึ่งก็เคยปั้น Coda ให้เป็น workspace platform มาก่อน ดังนั้นนี่อาจเป็นการสร้าง “Coda + Email + AI = Grammarly ยุคใหม่” ก็เป็นได้ครับ!

    Grammarly ซื้อกิจการ Superhuman เพื่อลุยตลาด AI Productivity Suite  
    • ยังไม่เปิดเผยมูลค่าการซื้อ แต่ Superhuman เคยมีมูลค่าบริษัท $825 ล้าน  
    • มีรายได้ ~$35 ล้าน/ปี และผู้ใช้หลักอยู่ในกลุ่มองค์กร/มืออาชีพ

    Grammarly ได้ทุน $1 พันล้านจาก General Catalyst เมื่อไม่นานมานี้  
    • ใช้สำหรับขยายผลิตภัณฑ์ + สร้าง ecosystem ด้านการทำงานด้วย AI

    Superhuman จะยังคงแบรนด์เดิมและทีมเดิมอยู่ใน Grammarly  
    • CEO Rahul Vohra จะย้ายมานั่งใน Grammarly พร้อมทีม ~100 คน  
    • แผนจะขยายจากอีเมลสู่ปฏิทิน, งาน (Tasks), และการทำงานร่วมกัน (Collab tools)

    วิสัยทัศน์คือสร้าง “AI Agents” ที่เข้าใจทั้งอีเมล เอกสาร และบริบทการทำงานของผู้ใช้  
    • ใช้ช่วยเขียน ตอบอีเมล วิเคราะห์บริบท และลดเวลาค้นหาข้อมูลจากระบบต่าง ๆ  
    • แข่งขันกับ Copilot ของ Microsoft, Duet AI ของ Google, Salesforce Slack AI, และอื่น ๆ

    Superhuman ระบุว่าปัจจุบันผู้ใช้ส่งเมลได้เร็วขึ้น 72% และใช้งาน AI เขียนอีเมลเพิ่ม 5 เท่าในปีที่ผ่านมา

    https://www.thestar.com.my/tech/tech-news/2025/07/01/exclusive-grammarly-acquires-email-startup-superhuman-in-ai-platform-push
    หลายคนรู้จัก Grammarly ในฐานะผู้ช่วยตรวจแกรมมาร์ แต่ตอนนี้บริษัทกำลังกลายร่างเป็น “ศูนย์กลาง AI ด้านการสื่อสารในองค์กร” เลยครับ โดยการซื้อ Superhuman ครั้งนี้ไม่ใช่แค่เรื่องอีเมล — มันคือชิ้นส่วนต่อจิ๊กซอว์สู่ผลิตภัณฑ์ครบวงจรที่รวม AI, เอกสาร, อีเมล, ปฏิทิน และอื่น ๆ เข้าไว้ด้วยกัน Superhuman เคยเป็นแอปอีเมลสุดพรีเมียมที่มี waitlist ยาวเหยียด ด้วยจุดขายความเร็วและดีไซน์เฉียบ แต่หลังจากที่ Google และ Microsoft พัฒนา AI ใน Gmail / Outlook มากขึ้น Superhuman ก็เจอความท้าทายไม่น้อย Grammarly ที่เพิ่งได้ทุน $1 พันล้านจาก General Catalyst เลยฉวยโอกาสนี้ซื้อ Superhuman เข้ามา พร้อมวางแผนใหญ่: - ดึงทีมและเทคโนโลยี Superhuman มาสร้าง “AI agents” ที่จะช่วยคุณเขียน ตอบ ค้นหา และจัดการเมลอย่างอัตโนมัติ - ใช้ข้อมูลจากเอกสาร + อีเมล + ปฏิทิน เพื่อสร้างผู้ช่วยเสมือนที่ “เข้าใจงานและบริบทของคุณจริง ๆ” CEO คนใหม่ของ Grammarly คือ Shishir Mehrotra (อดีตผู้ร่วมก่อตั้ง Coda) ซึ่งก็เคยปั้น Coda ให้เป็น workspace platform มาก่อน ดังนั้นนี่อาจเป็นการสร้าง “Coda + Email + AI = Grammarly ยุคใหม่” ก็เป็นได้ครับ! ✅ Grammarly ซื้อกิจการ Superhuman เพื่อลุยตลาด AI Productivity Suite   • ยังไม่เปิดเผยมูลค่าการซื้อ แต่ Superhuman เคยมีมูลค่าบริษัท $825 ล้าน   • มีรายได้ ~$35 ล้าน/ปี และผู้ใช้หลักอยู่ในกลุ่มองค์กร/มืออาชีพ ✅ Grammarly ได้ทุน $1 พันล้านจาก General Catalyst เมื่อไม่นานมานี้   • ใช้สำหรับขยายผลิตภัณฑ์ + สร้าง ecosystem ด้านการทำงานด้วย AI ✅ Superhuman จะยังคงแบรนด์เดิมและทีมเดิมอยู่ใน Grammarly   • CEO Rahul Vohra จะย้ายมานั่งใน Grammarly พร้อมทีม ~100 คน   • แผนจะขยายจากอีเมลสู่ปฏิทิน, งาน (Tasks), และการทำงานร่วมกัน (Collab tools) ✅ วิสัยทัศน์คือสร้าง “AI Agents” ที่เข้าใจทั้งอีเมล เอกสาร และบริบทการทำงานของผู้ใช้   • ใช้ช่วยเขียน ตอบอีเมล วิเคราะห์บริบท และลดเวลาค้นหาข้อมูลจากระบบต่าง ๆ   • แข่งขันกับ Copilot ของ Microsoft, Duet AI ของ Google, Salesforce Slack AI, และอื่น ๆ ✅ Superhuman ระบุว่าปัจจุบันผู้ใช้ส่งเมลได้เร็วขึ้น 72% และใช้งาน AI เขียนอีเมลเพิ่ม 5 เท่าในปีที่ผ่านมา https://www.thestar.com.my/tech/tech-news/2025/07/01/exclusive-grammarly-acquires-email-startup-superhuman-in-ai-platform-push
    WWW.THESTAR.COM.MY
    Grammarly to acquire email startup Superhuman in AI platform push
    (Corrects the year Grammarly was founded in paragraph 3, and the spelling of CEO's first name in paragraph 6;)
    0 ความคิดเห็น 0 การแบ่งปัน 346 มุมมอง 0 รีวิว
  • AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า!

    แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช!

    สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว

    ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ:
    - ลดปริมาณข้อมูลที่ต้อง snapshot
    - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น

    สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้

    AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ  
    • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่

    เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง  
    • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต

    Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล  
    • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว

    AMD ออก patch แก้ปัญหาด้วยวิธี:  
    • ลดพื้นที่ที่ต้อง snapshot  
    • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume  
    • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก

    เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:  
    • ลดพลังงานในช่วง downtime  
    • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)  
    • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center

    https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    AMD ผลิตการ์ด Instinct ซึ่งเป็น GPU สำหรับซูเปอร์คอมพิวเตอร์และงานเทรน AI โดยเฉพาะ ด้วย VRAM สูงถึง 192GB ต่อการ์ด และในบางเซิร์ฟเวอร์ติดตั้งถึง 8 ใบ รวมเป็น VRAM มากถึง 1.5 TB — เยอะกว่าคอมทั่วไปหลายสิบเท่า! แต่เมื่อมีคนพยายามทำให้ระบบ Linux “จำศีล” เพื่อประหยัดไฟตอนไม่ได้ใช้งาน เช่น ช่วงเวลากลางคืน หรือเพื่อรองรับภาวะไฟฟ้าล้นกริด กลับพบว่า...ระบบแครช! สาเหตุมาจากว่า Linux ต้อง “ย้าย VRAM ทั้งหมดมาเก็บใน RAM ก่อน” แล้วจึง snapshot memory ไปเขียนลงดิสก์เพื่อเรียกกลับเมื่อเปิดเครื่อง — ปรากฏว่า VRAM 1.5TB + RAM อีกมากมาย ทำให้ระบบต้องใช้พื้นที่ snapshot เกิน 3TB ในบางกรณี → เกินขนาดของ RAM/Storage → ฮิเบอร์เนตล้มเหลว ทีมวิศวกรของ AMD จึงเสนอ patch สำหรับ Linux ที่จะ: - ลดปริมาณข้อมูลที่ต้อง snapshot - ข้ามการ restore VRAM บางส่วนเมื่อปลุกระบบขึ้น (thaw) เพื่อให้กลับมาใช้งานเร็วขึ้น สาเหตุที่มีคนพยายาม hibernate เซิร์ฟเวอร์เหล่านี้ เพราะถ้าไม่ปิด ก็เปลืองไฟระดับโรงไฟฟ้าย่อม ๆ แถมยังเสี่ยงต่อเหตุการณ์แบบ blackout แบบที่เกิดในสเปนเมื่อไม่นานมานี้ ✅ AMD Instinct เป็น GPU สำหรับ AI ที่มี VRAM สูงถึง 192GB/ใบ   • ใช้ในซูเปอร์คอมพิวเตอร์, data center, และงานเทรนโมเดล LLM ขนาดใหญ่ ✅ เซิร์ฟเวอร์ที่ติดตั้ง Instinct GPU 8 ใบ จะมี VRAM รวม ~1.5TB ต่อเครื่อง   • ทำให้ระบบต้องจัดการ memory ขนาดใหญ่มากระหว่างฮิเบอร์เนต ✅ Linux ต้องย้าย VRAM เข้าสู่ RAM เพื่อ snapshot ลงดิสก์ในการจำศีล   • ส่งผลให้ต้องใช้ RAM/disk เกินกว่าที่เครื่องมีจริง → ฮิเบอร์เนตล้มเหลว ✅ AMD ออก patch แก้ปัญหาด้วยวิธี:   • ลดพื้นที่ที่ต้อง snapshot   • ข้ามการโหลด buffer VRAM บางส่วนกลับมาระหว่าง resume   • ช่วยลดเวลา thaw (resume) เหลือไม่ถึง 1 ชั่วโมง จากเดิมที่อาจต้องรอนานมาก ✅ เหตุผลที่ต้อง hibernate เซิร์ฟเวอร์แม้จะเป็น AI server:   • ลดพลังงานในช่วง downtime   • ช่วยรักษาเสถียรภาพของโครงข่ายไฟฟ้า (power grid)   • เคยมี blackout ในสเปนซึ่งเชื่อมโยงกับโหลดของ data center https://www.tomshardware.com/tech-industry/supercomputers/massive-vram-pools-on-amd-instinct-accelerators-drown-linuxs-hibernation-process-1-5-tb-of-memory-per-server-creates-headaches
    0 ความคิดเห็น 0 การแบ่งปัน 224 มุมมอง 0 รีวิว
  • Meta เคยเป็นบริษัทที่ขับเคลื่อนอินเทอร์เน็ตสมัยใหม่ — มี Facebook ครองโลก, ซื้อ Instagram มาต่อยอด, ทุ่มเงินซื้อ WhatsApp พร้อมสัญญาว่าจะไม่มีโฆษณา…แต่สุดท้ายทุกอย่างกำลังย้อนกลับ

    WhatsApp ตอนนี้มีโฆษณา Metaverse ทุ่มเงินหลายพันล้านเหรียญ → ยังไม่เห็นผล Libra (คริปโตของ Meta) → ตาย แม้แต่ AI — LLaMA ยังตามหลัง ChatGPT, Claude และ Gemini อยู่หลายร้อยแต้ม

    นักเขียนบทความนี้ (Howard Yu) วิเคราะห์ว่า Mark Zuckerberg เรียนรู้เชิงธุรกิจเก่งมาก แต่ “ไม่เคยเรียนรู้จากผลกระทบที่ Meta ก่อในสังคม” เช่น การถูกใช้เป็นเครื่องมือปลุกปั่น, ปัญหาสุขภาพจิตวัยรุ่น, และกรณีรุนแรงอย่างความขัดแย้งในเมียนมา

    บทวิเคราะห์เปรียบเทียบ Mark กับ Steve Jobs ไว้อย่างน่าสนใจ:
    - Jobs เคยผิดพลาด, เคยล้ม, เคยถูกไล่ออกจาก Apple
    - แต่เขากลับมาใหม่ด้วยการ “เติบโตทางจิตใจ” ไม่ใช่แค่ทางเทคโนโลยี
    - เขายอมฟังคนอื่น, สร้างทีมที่เก่งกว่า, ไม่พยายามควบคุมทุกอย่าง → และสร้าง Apple ยุคใหม่ที่ยิ่งใหญ่กว่าตัวเขาเอง

    ส่วน Zuckerberg ใช้อำนาจหุ้นพิเศษ (super-voting shares) ทำให้ไม่มีใครปลดเขาได้ → ไม่มีแรงกดดันให้เติบโต เปลี่ยนแปลง หรือยอมรับความผิดพลาด → ผลลัพธ์คือ Meta วนลูปเดิม ๆ — ปรับ feed เพิ่ม engagement → ขายโฆษณา → repeat

    Meta เคยล้มเหลวหลายโปรเจกต์ใหญ่:  
    • Facebook phone → ล้มเหลว  
    • Free Basics → ถูกแบนในอินเดีย  
    • Libra → ถูกต่อต้านโดยรัฐบาล  
    • Metaverse → ทุ่มเงินมหาศาล แต่ยังไม่คืนทุน

    AI ของ Meta (LLaMA 4) ยังตามหลัง OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini)  
    • คะแนน Elo ห่างคู่แข่งหลายสิบถึงหลายร้อยแต้ม  
    • แม้ใช้ open-source เป็นยุทธศาสตร์หลัก แต่ยังไม่ดึงใจนักพัฒนาเท่าที่ควร

    ผู้เขียนชี้ว่า Zuckerberg ไม่เคยเรียนรู้จาก ‘ผลเสียต่อสังคม’ ที่ Meta สร้างไว้:  
    • กรณี Facebook ในเมียนมา → ปล่อยให้ Hate speech ลุกลาม  
    • Facebook ถูกใช้ในการปลุกระดม, ปั่นเลือกตั้ง (Cambridge Analytica)  
    • ระบบโฆษณาใช้ microtargeting เพื่อกด turnout กลุ่มเป้าหมายบางกลุ่ม

    โครงสร้างอำนาจของ Meta = Zuckerberg คุมทุกอย่าง:  
    • เขาถือหุ้น 13% แต่มีสิทธิ์โหวตกว่า 50%  
    • ไม่มีใครปลดเขาได้ จึงไม่จำเป็นต้องรับผิดชอบต่อใคร

    เปรียบเทียบกับ Steve Jobs:  
    • Jobs ล้มเหลว, ถูกไล่ออกจาก Apple  
    • แต่กลับมาใหม่แบบถ่อมตนและเรียนรู้  
    • สร้างวัฒนธรรมที่ Apple แข็งแรงพอจะอยู่ได้แม้เขาจากไป

    Meta แม้จะยังทำเงินได้มากจากโฆษณา แต่กำลัง “ไร้วิสัยทัศน์ที่สดใหม่” สำหรับโลกยุคหลังโฆษณา

    https://www.thestar.com.my/tech/tech-news/2025/07/01/why-mark-zuckerberg-and-meta-cant-build-the-future
    Meta เคยเป็นบริษัทที่ขับเคลื่อนอินเทอร์เน็ตสมัยใหม่ — มี Facebook ครองโลก, ซื้อ Instagram มาต่อยอด, ทุ่มเงินซื้อ WhatsApp พร้อมสัญญาว่าจะไม่มีโฆษณา…แต่สุดท้ายทุกอย่างกำลังย้อนกลับ WhatsApp ตอนนี้มีโฆษณา Metaverse ทุ่มเงินหลายพันล้านเหรียญ → ยังไม่เห็นผล Libra (คริปโตของ Meta) → ตาย แม้แต่ AI — LLaMA ยังตามหลัง ChatGPT, Claude และ Gemini อยู่หลายร้อยแต้ม นักเขียนบทความนี้ (Howard Yu) วิเคราะห์ว่า Mark Zuckerberg เรียนรู้เชิงธุรกิจเก่งมาก แต่ “ไม่เคยเรียนรู้จากผลกระทบที่ Meta ก่อในสังคม” เช่น การถูกใช้เป็นเครื่องมือปลุกปั่น, ปัญหาสุขภาพจิตวัยรุ่น, และกรณีรุนแรงอย่างความขัดแย้งในเมียนมา บทวิเคราะห์เปรียบเทียบ Mark กับ Steve Jobs ไว้อย่างน่าสนใจ: - Jobs เคยผิดพลาด, เคยล้ม, เคยถูกไล่ออกจาก Apple - แต่เขากลับมาใหม่ด้วยการ “เติบโตทางจิตใจ” ไม่ใช่แค่ทางเทคโนโลยี - เขายอมฟังคนอื่น, สร้างทีมที่เก่งกว่า, ไม่พยายามควบคุมทุกอย่าง → และสร้าง Apple ยุคใหม่ที่ยิ่งใหญ่กว่าตัวเขาเอง ส่วน Zuckerberg ใช้อำนาจหุ้นพิเศษ (super-voting shares) ทำให้ไม่มีใครปลดเขาได้ → ไม่มีแรงกดดันให้เติบโต เปลี่ยนแปลง หรือยอมรับความผิดพลาด → ผลลัพธ์คือ Meta วนลูปเดิม ๆ — ปรับ feed เพิ่ม engagement → ขายโฆษณา → repeat ✅ Meta เคยล้มเหลวหลายโปรเจกต์ใหญ่:   • Facebook phone → ล้มเหลว   • Free Basics → ถูกแบนในอินเดีย   • Libra → ถูกต่อต้านโดยรัฐบาล   • Metaverse → ทุ่มเงินมหาศาล แต่ยังไม่คืนทุน ✅ AI ของ Meta (LLaMA 4) ยังตามหลัง OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini)   • คะแนน Elo ห่างคู่แข่งหลายสิบถึงหลายร้อยแต้ม   • แม้ใช้ open-source เป็นยุทธศาสตร์หลัก แต่ยังไม่ดึงใจนักพัฒนาเท่าที่ควร ✅ ผู้เขียนชี้ว่า Zuckerberg ไม่เคยเรียนรู้จาก ‘ผลเสียต่อสังคม’ ที่ Meta สร้างไว้:   • กรณี Facebook ในเมียนมา → ปล่อยให้ Hate speech ลุกลาม   • Facebook ถูกใช้ในการปลุกระดม, ปั่นเลือกตั้ง (Cambridge Analytica)   • ระบบโฆษณาใช้ microtargeting เพื่อกด turnout กลุ่มเป้าหมายบางกลุ่ม ✅ โครงสร้างอำนาจของ Meta = Zuckerberg คุมทุกอย่าง:   • เขาถือหุ้น 13% แต่มีสิทธิ์โหวตกว่า 50%   • ไม่มีใครปลดเขาได้ จึงไม่จำเป็นต้องรับผิดชอบต่อใคร ✅ เปรียบเทียบกับ Steve Jobs:   • Jobs ล้มเหลว, ถูกไล่ออกจาก Apple   • แต่กลับมาใหม่แบบถ่อมตนและเรียนรู้   • สร้างวัฒนธรรมที่ Apple แข็งแรงพอจะอยู่ได้แม้เขาจากไป ✅ Meta แม้จะยังทำเงินได้มากจากโฆษณา แต่กำลัง “ไร้วิสัยทัศน์ที่สดใหม่” สำหรับโลกยุคหลังโฆษณา https://www.thestar.com.my/tech/tech-news/2025/07/01/why-mark-zuckerberg-and-meta-cant-build-the-future
    WWW.THESTAR.COM.MY
    Why Mark Zuckerberg and Meta can't build the future
    Here's how absolute power trapped Facebook's parent company — and how Steve Jobs broke free.
    0 ความคิดเห็น 0 การแบ่งปัน 403 มุมมอง 0 รีวิว
  • หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว

    DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p

    สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น

    DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว  
    • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction  
    • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ

    Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)  
    • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น  
    • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน

    ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป  
    • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น

    สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App  
    • ไปที่ Graphics > DLSS Override > เลือก Latest  
    • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater

    Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)  
    • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade

    รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)  
    • โดยเฉพาะในโหมด 4K upscaling

    https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    หลายคนอาจเคยได้ยินชื่อ DLSS ว่าคือระบบ “ขยายภาพความละเอียดต่ำให้ดูเหมือน 4K” ได้แบบเนียน ๆ ด้วย AI — ที่ผ่านมา DLSS 2 กับ 3 ใช้ neural network แบบเก่า (convolutional) ซึ่งแม้จะดีมาก แต่ก็มีข้อเสีย เช่น ภาพเบลอ, ghosting, หรือเส้นขอบภาพสั่น ๆ เวลาเคลื่อนไหว DLSS 4 แก้ปัญหานั้นด้วยการใช้ “Transformer” แบบเดียวกับที่ใช้ในโมเดลภาษาอย่าง GPT — ทำให้ AI เข้าใจภาพทั้งเฟรมแบบลึกขึ้น ผลลัพธ์คือ ภาพที่ขึ้นคมชัดกว่าเดิม แม้จะอัปจากเฟรมต่ำ ๆ เช่น 540p สิ่งสำคัญคือ DLSS 4 นี้ ไม่จำกัดเฉพาะ RTX 50 แต่ รองรับตั้งแต่ RTX 20 ขึ้นไปด้วย! แค่ไม่สามารถใช้ฟีเจอร์ frame generation ที่ผูกกับฮาร์ดแวร์ใหม่ได้เท่านั้น ✅ DLSS 4 เวอร์ชันใหม่ที่ใช้ Transformer model ออกจากสถานะเบต้าแล้ว   • อยู่ในชุด SDK หลักของ Nvidia DLSS Super Resolution + Ray Reconstruction   • พร้อมให้ผู้พัฒนาเกมใช้ได้อย่างเป็นทางการ ✅ Transformer model เข้ามาแทน CNN ที่ใช้มาตั้งแต่ DLSS 2 (ปี 2020)   • ลดปัญหาภาพเบลอ, ghosting, เส้นขอบสั่น   • ทำให้การอัปภาพจากครึ่งความละเอียด (performance mode) ดูดีขึ้นชัดเจน ✅ ไม่ต้องมี RTX 50 ก็ใช้ได้ — รองรับตั้งแต่ RTX 20 Series ขึ้นไป   • ฟีเจอร์ frame generation (multi-frame) ยังคง exclusive สำหรับ RTX 50 เท่านั้น ✅ สามารถบังคับใช้ DLSS 4 Transformer กับเกมเก่าได้ผ่าน Nvidia App   • ไปที่ Graphics > DLSS Override > เลือก Latest   • หรือใช้แอป 3rd party เช่น DLSS Swapper, DLSS Updater ✅ Diablo IV เตรียมเป็นเกมใหญ่เกมถัดไปที่อัปเดต DLSS 4 อย่างเป็นทางการในซีซัน 9 (1 ก.ค.)   • เกมอื่นที่ใช้เบต้าอยู่แล้ว เช่น Doom: The Dark Ages, Dune: Awakening, Stellar Blade ✅ รีวิวชี้ว่า DLSS 4 Transformer คุณภาพดีกว่า FSR 4 (ของ AMD)   • โดยเฉพาะในโหมด 4K upscaling https://www.techspot.com/news/108452-nvidia-dlss-4-transformer-model-exits-beta-set.html
    WWW.TECHSPOT.COM
    Nvidia DLSS 4 transformer model exits beta, set to bring improved graphics to more games
    The latest version of Nvidia's DLSS Super Resolution and Ray Reconstruction SDK, released on Wednesday, brings the transformer model out of beta. Promoting the upscaling technology into...
    0 ความคิดเห็น 0 การแบ่งปัน 284 มุมมอง 0 รีวิว
  • ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง

    ระบบนี้ประกอบด้วย:
    - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง
    - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที

    ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า"

    เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง)

    https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    ฟังดูเหมือน Sci-Fi เลยใช่ไหมครับ? X Display คือบริษัทจาก North Carolina ที่ทำเทคโนโลยี MicroLED แต่รอบนี้เขาเอา “แนวคิดจอแสดงผล” มาประยุกต์ใหม่ ไม่ได้ไว้โชว์ภาพให้คนดู แต่กลายเป็นช่องสื่อสารสำหรับ เครื่องคุยกับเครื่อง ระบบนี้ประกอบด้วย: - ตัวส่งข้อมูล: ใช้ emitters หลายพันตัว ส่งแสงหลายความยาวคลื่นพร้อมกัน → เขียนข้อมูลเป็น “เฟรมของแสง” ต่อเนื่อง - ตัวรับข้อมูล: กล้องความเร็วสูงพิเศษ (เหมือน “ตา” ของอีกเครื่อง) จับเฟรมแสง แล้วแปลงกลับเป็นดิจิทัลอีกที ผลลัพธ์คือการส่งข้อมูลแบบไร้สายในศูนย์ข้อมูลความเร็วสูง โดย ไม่ต้องใช้สาย fiber เลย และทาง X Display เคลมว่า "ประหยัดพลังงานกว่าทรานซีฟเวอร์ 800G แบบดั้งเดิม 2–3 เท่า" เทคโนโลยีนี้ไม่เหมาะกับเกมเมอร์หรืองานกราฟิกทั่วไป — แต่มาเพื่องานใหญ่อย่าง AI data center, supercomputer clusters, optical networking และ ระบบ LiFi (ส่งข้อมูลผ่านแสง) https://www.techspot.com/news/108424-x-display-made-ultra-fast-cable-free-display.html
    WWW.TECHSPOT.COM
    X Display unveils ultra-fast, cable-free display that turns data into light
    X Display is focused on developing and licensing new intellectual property related to MicroLED and other display technologies. The North Carolina-based developer recently unveiled a novel application...
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์

    แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ”

    สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64)

    ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง

    https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    เดิมทีสหรัฐออกกฎห้ามส่งออกชิป AI ระดับสูง เช่น H100 และ A100 ไปยังจีนมาตั้งแต่ปี 2022 เพราะกลัวว่าจะถูกนำไปใช้ในงานด้านทหารหรือข่าวกรอง โดยเฉพาะในช่วงที่จีนเร่งพัฒนา AI และ supercomputer สำหรับงานยุทธศาสตร์ แต่ล่าสุดมีรายงานจากเจ้าหน้าที่ระดับสูงของกระทรวงต่างประเทศสหรัฐที่บอกว่า “DeepSeek สนับสนุนงานด้านทหาร-ข่าวกรองของจีนอย่างเต็มตัว และอาจ หาทางหลบเลี่ยงข้อจำกัดการส่งออกโดยใช้บริษัทในเอเชียตะวันออกเฉียงใต้เป็นฉากบังหน้า เพื่อเข้าถึงชิป Nvidia อย่างผิดกฎ” สิ่งที่น่าตกใจคือมี “ความเป็นไปได้ว่า DeepSeek ได้ชิป H100 หลังจากสหรัฐแบนไปแล้ว” — แม้ Nvidia จะออกมาปฏิเสธเสียงแข็งว่า DeepSeek ใช้เฉพาะ H800 ซึ่งเป็นเวอร์ชัน “ลดความสามารถ” สำหรับจีนโดยเฉพาะ (ลดแบนด์วิธ NVLink, ไม่มี FP64) ที่ผ่านมาเคยมีรายงานว่า “บริษัทจีนขนฮาร์ดดิสก์ในกระเป๋าเดินทางไปเช่ารันเซิร์ฟเวอร์ที่มาเลเซีย” เพื่อฝึกโมเดล AI แบบเลี่ยงแบน และตอนนี้ DeepSeek เองก็อาจกำลังใช้วิธีคล้าย ๆ กัน โดยเจาะเข้า ศูนย์ข้อมูลในเอเชียตะวันออกเฉียงใต้เพื่อเข้าถึงชิปในระยะไกล โดยไม่ต้องนำเข้าทางตรง https://www.tomshardware.com/tech-industry/semiconductors/chinese-ai-firm-deepseek-reportedly-using-shell-companies-to-try-and-evade-u-s-chip-restrictions-allegedly-procured-unknown-number-of-h100-ai-gpus-after-ban-but-nvidia-denies-the-claim
    0 ความคิดเห็น 0 การแบ่งปัน 314 มุมมอง 0 รีวิว
Pages Boosts