• ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว
    → ติดตั้งที่ศูนย์ข้อมูลของ Switch
    → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี
     • 72 GPU (Blackwell Ultra)
     • 36 CPU (Grace 72-core)
      • 36 DPU (BlueField)
    → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB
    → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8)
    → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU

    ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก

    สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    ต้องบอกว่า Nvidia ไม่ได้แค่เปิดตัว Grace Blackwell แล้วให้รอกันเป็นปีนะครับ — เพราะตอนนี้ Dell ส่งมอบ “เครื่องจริง” ให้ CoreWeave ใช้งานแล้ว → ติดตั้งที่ศูนย์ข้อมูลของ Switch → ใช้แร็กแบบ NVL72: ในหนึ่งแร็กมี  • 72 GPU (Blackwell Ultra)  • 36 CPU (Grace 72-core)   • 36 DPU (BlueField) → พร้อมเมโมรี HBM3E 20TB และ RAM รวม 40TB 🔥 → แร็กเดียวให้พลัง inferencing 1.1 ExaFLOPS (FP4) และ training 0.36 ExaFLOPS (FP8) → ใช้น้ำระบายความร้อน เพราะกินไฟถึง 1,400W ต่อ GPU 😮💧 ระบบนี้ยังต่อกันด้วย Nvidia Quantum-X800 InfiniBand และ ConnectX-8 SuperNICs ให้ความเร็วระดับ 14.4 GB/s — แรงกว่า GB200 NVL72 เดิมถึง 2 เท่าในการสื่อสารระหว่างแร็ก สิ่งที่น่าสนใจกว่าคือ... → Dell กับ CoreWeave พึ่งติดตั้ง GB200 NVL72 ไปเมื่อ 7 เดือนก่อน แต่ก็อัปเกรดเป็น GB300 Ultra เลย แสดงว่า demand แรงมาก และตลาดไม่รอของเก่าอีกแล้ว https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-newest-top-tier-ai-supercomputers-deployed-for-the-first-time-grace-blackwell-ultra-superchip-systems-deployed-at-coreweave
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • ย้อนกลับไปปี 2022 Samsung เริ่มลงทุนสร้างโรงงานผลิตชิปแห่งใหม่ที่เมือง Taylor, Texas ด้วยความหวังจะยึดหัวหาดในตลาดอเมริกา

    → เดิมวางแผนใช้สายการผลิตระดับ 4nm และต่อมาอัปเกรดไปเป็น 2nm เพื่อแข่งขันกับ TSMC/Intel → ทุ่มงบจากเดิม $17B เพิ่มเป็น $44B → รับเงินสนับสนุนจาก CHIPS Act กว่า $6.6B

    แต่ถึงตอนนี้...อุปกรณ์เครื่องจักรยังไม่ได้ติดตั้ง และแหล่งข่าวบอกว่า เหตุผลสำคัญคือ “ยังไม่มีลูกค้า” และ “ความต้องการชิประดับนี้ในสหรัฐฯ ยังน้อย”

    ตรงกันข้ามกับ TSMC ที่โรงงานในแอริโซนาแม้ผลิตชิปราคาแพงกว่าจากต่างประเทศ แต่ มีลูกค้าเต็มล่วงหน้าถึงปี 2027 แล้ว เช่น Apple, AMD, Nvidia, Qualcomm

    สรุปคือ: Samsung อาจสร้างโรงงานทัน แต่ถ้าไม่มีลูกค้ามารอใช้สายการผลิต — ก็ยังเดินหน้าต่อไม่ได้

    Samsung ชะลอการเปิดโรงงานผลิตชิปที่ Taylor, Texas มูลค่า $44,000 ล้าน  
    • แม้โครงสร้างก่อสร้างจะเสร็จแล้ว 92% ณ มีนาคม 2024  
    • เดิมมีกำหนดแล้วเสร็จเมษายน 2024 แต่ถูกเลื่อนไปตุลาคม

    เหตุหลักของความล่าช้า: “ยังไม่มีลูกค้า และ node 4nm ที่วางแผนไว้ไม่ตรงกับตลาดปัจจุบัน”  
    • บริษัทวางแผนอัปเกรดเป็น 2nm แต่ต้องใช้เวลา–เงิน–คน–เทคโนโลยีจำนวนมาก

    เปรียบเทียบกับ TSMC ที่ Fab 21 ในรัฐแอริโซนา
    • ผลิตชิประดับ 4nm  
    • ลูกค้าหลัก: Apple, AMD, Nvidia, Broadcom  
    • ปริมาณการสั่งผลิตถูกจองหมดถึงปี 2027 แม้ราคาสูง

    Samsung มีตลาดโรงหล่อ (foundry market share) เพียง 7.7% เทียบกับ TSMC ที่ถือ 68%

    แม้เทคโนโลยีพร้อม แต่ยังต้องสร้างทีมงาน ทดสอบอุปกรณ์ และรับมือกับต้นทุนติดตั้งที่สูง (เฉพาะ EUV เครื่องพิมพ์ลายวงจร ก็ใช้เวลาติดตั้งนานมาก)

    Samsung ยืนยันว่าจะเดินหน้าเปิดโรงงานให้ทันปี 2026 เพื่อไม่ให้เสียสิทธิ์เงินสนับสนุนจาก CHIPS Act

    https://www.tomshardware.com/tech-industry/semiconductors/samsung-delays-usd44-billion-texas-chip-fab-sources-say-completion-halted-because-there-are-no-customers
    ย้อนกลับไปปี 2022 Samsung เริ่มลงทุนสร้างโรงงานผลิตชิปแห่งใหม่ที่เมือง Taylor, Texas ด้วยความหวังจะยึดหัวหาดในตลาดอเมริกา → เดิมวางแผนใช้สายการผลิตระดับ 4nm และต่อมาอัปเกรดไปเป็น 2nm เพื่อแข่งขันกับ TSMC/Intel → ทุ่มงบจากเดิม $17B เพิ่มเป็น $44B → รับเงินสนับสนุนจาก CHIPS Act กว่า $6.6B แต่ถึงตอนนี้...อุปกรณ์เครื่องจักรยังไม่ได้ติดตั้ง และแหล่งข่าวบอกว่า เหตุผลสำคัญคือ “ยังไม่มีลูกค้า” และ “ความต้องการชิประดับนี้ในสหรัฐฯ ยังน้อย” ตรงกันข้ามกับ TSMC ที่โรงงานในแอริโซนาแม้ผลิตชิปราคาแพงกว่าจากต่างประเทศ แต่ มีลูกค้าเต็มล่วงหน้าถึงปี 2027 แล้ว เช่น Apple, AMD, Nvidia, Qualcomm สรุปคือ: Samsung อาจสร้างโรงงานทัน แต่ถ้าไม่มีลูกค้ามารอใช้สายการผลิต — ก็ยังเดินหน้าต่อไม่ได้ ✅ Samsung ชะลอการเปิดโรงงานผลิตชิปที่ Taylor, Texas มูลค่า $44,000 ล้าน   • แม้โครงสร้างก่อสร้างจะเสร็จแล้ว 92% ณ มีนาคม 2024   • เดิมมีกำหนดแล้วเสร็จเมษายน 2024 แต่ถูกเลื่อนไปตุลาคม ✅ เหตุหลักของความล่าช้า: “ยังไม่มีลูกค้า และ node 4nm ที่วางแผนไว้ไม่ตรงกับตลาดปัจจุบัน”   • บริษัทวางแผนอัปเกรดเป็น 2nm แต่ต้องใช้เวลา–เงิน–คน–เทคโนโลยีจำนวนมาก ✅ เปรียบเทียบกับ TSMC ที่ Fab 21 ในรัฐแอริโซนา • ผลิตชิประดับ 4nm   • ลูกค้าหลัก: Apple, AMD, Nvidia, Broadcom   • ปริมาณการสั่งผลิตถูกจองหมดถึงปี 2027 แม้ราคาสูง ✅ Samsung มีตลาดโรงหล่อ (foundry market share) เพียง 7.7% เทียบกับ TSMC ที่ถือ 68% ✅ แม้เทคโนโลยีพร้อม แต่ยังต้องสร้างทีมงาน ทดสอบอุปกรณ์ และรับมือกับต้นทุนติดตั้งที่สูง (เฉพาะ EUV เครื่องพิมพ์ลายวงจร ก็ใช้เวลาติดตั้งนานมาก) ✅ Samsung ยืนยันว่าจะเดินหน้าเปิดโรงงานให้ทันปี 2026 เพื่อไม่ให้เสียสิทธิ์เงินสนับสนุนจาก CHIPS Act https://www.tomshardware.com/tech-industry/semiconductors/samsung-delays-usd44-billion-texas-chip-fab-sources-say-completion-halted-because-there-are-no-customers
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • รู้ไหมครับว่า CUDA คืออะไร? มันคือแพลตฟอร์มสำหรับพัฒนา AI และการประมวลผลหนัก ๆ ที่ NVIDIA ผูกขาดไว้ — คนเขียนโปรแกรมด้วย CUDA จะใช้ได้แค่บนการ์ดจอของ NVIDIA เท่านั้น → ทำให้เกิดล็อกอิน (vendor lock-in) ขนาดใหญ่ในโลก AI

    แต่ ZLUDA ซึ่งเป็นโปรเจกต์โอเพ่นซอร์ส เคยมีความหวังว่าจะ "เป็นสะพานเชื่อม" ให้คนที่เขียนโค้ดด้วย CUDA อยู่แล้ว สามารถรันบน GPU ของ Intel หรือ AMD ได้เลยโดยไม่ต้องเปลี่ยนโค้ด → ตอนแรก Intel สนับสนุน แต่ก็มือหลุด → AMD รับช่วงต่อได้ไม่นาน...ก็ถอนตัวเพราะ "ประเด็นทางกฎหมาย" → สุดท้าย ZLUDA ถูกหยุดพัฒนาไปชั่วคราว

    ล่าสุด! ZLUDA กลับมาอีกครั้ง พร้อมนักพัฒนา 2 คนที่กำลัง ผลักดันให้มันกลายเป็นระบบ multi-vendor เต็มตัว → ทำให้รันโค้ด CUDA ได้แม่นยำระดับ “bit-accurate” บน GPU แบรนด์อื่น → และเริ่มทดลองเพิ่มการรองรับ PhysX (ระบบฟิสิกส์ของ NVIDIA ด้วย)

    ZLUDA คือไลบรารีโอเพ่นซอร์สที่ช่วยให้รันโค้ด CUDA ได้บน GPU ที่ไม่ใช่ของ NVIDIA  
    • เดิมรองรับ Intel, AMD พยายามใช้แต่ถอนตัวไป  
    • ล่าสุดกลับมาอีกครั้งในเวอร์ชัน “multi-vendor”

    ตอนนี้มีนักพัฒนา 2 คนประจำ กำลังเร่งพัฒนาให้เสถียรขึ้นอย่างต่อเนื่อง  
    • ทำให้การพัฒนาเร็วขึ้น  
    • รองรับฟีเจอร์ใหม่ เช่น bit-accurate CUDA execution, การทดลองรองรับ PhysX

    เป้าหมายคือการ “ลดอำนาจผูกขาดของ CUDA” และทำให้ AI–HPC ยืดหยุ่นมากขึ้น

    ไม่มี timeline ชัดเจนว่าจะเปิดใช้งานจริงเมื่อไหร่  
    • แต่ชุมชนโอเพ่นซอร์สให้ความสนใจสูง

    https://wccftech.com/zluda-sees-major-progress-in-bringing-nvidia-cuda-code-to-other-gpus/
    รู้ไหมครับว่า CUDA คืออะไร? มันคือแพลตฟอร์มสำหรับพัฒนา AI และการประมวลผลหนัก ๆ ที่ NVIDIA ผูกขาดไว้ — คนเขียนโปรแกรมด้วย CUDA จะใช้ได้แค่บนการ์ดจอของ NVIDIA เท่านั้น → ทำให้เกิดล็อกอิน (vendor lock-in) ขนาดใหญ่ในโลก AI แต่ ZLUDA ซึ่งเป็นโปรเจกต์โอเพ่นซอร์ส เคยมีความหวังว่าจะ "เป็นสะพานเชื่อม" ให้คนที่เขียนโค้ดด้วย CUDA อยู่แล้ว สามารถรันบน GPU ของ Intel หรือ AMD ได้เลยโดยไม่ต้องเปลี่ยนโค้ด → ตอนแรก Intel สนับสนุน แต่ก็มือหลุด → AMD รับช่วงต่อได้ไม่นาน...ก็ถอนตัวเพราะ "ประเด็นทางกฎหมาย" → สุดท้าย ZLUDA ถูกหยุดพัฒนาไปชั่วคราว ล่าสุด! ZLUDA กลับมาอีกครั้ง พร้อมนักพัฒนา 2 คนที่กำลัง ผลักดันให้มันกลายเป็นระบบ multi-vendor เต็มตัว → ทำให้รันโค้ด CUDA ได้แม่นยำระดับ “bit-accurate” บน GPU แบรนด์อื่น → และเริ่มทดลองเพิ่มการรองรับ PhysX (ระบบฟิสิกส์ของ NVIDIA ด้วย) ✅ ZLUDA คือไลบรารีโอเพ่นซอร์สที่ช่วยให้รันโค้ด CUDA ได้บน GPU ที่ไม่ใช่ของ NVIDIA   • เดิมรองรับ Intel, AMD พยายามใช้แต่ถอนตัวไป   • ล่าสุดกลับมาอีกครั้งในเวอร์ชัน “multi-vendor” ✅ ตอนนี้มีนักพัฒนา 2 คนประจำ กำลังเร่งพัฒนาให้เสถียรขึ้นอย่างต่อเนื่อง   • ทำให้การพัฒนาเร็วขึ้น   • รองรับฟีเจอร์ใหม่ เช่น bit-accurate CUDA execution, การทดลองรองรับ PhysX ✅ เป้าหมายคือการ “ลดอำนาจผูกขาดของ CUDA” และทำให้ AI–HPC ยืดหยุ่นมากขึ้น ✅ ไม่มี timeline ชัดเจนว่าจะเปิดใช้งานจริงเมื่อไหร่   • แต่ชุมชนโอเพ่นซอร์สให้ความสนใจสูง https://wccftech.com/zluda-sees-major-progress-in-bringing-nvidia-cuda-code-to-other-gpus/
    WCCFTECH.COM
    Open-Source Library ZLUDA Sees Major Progress in Bringing NVIDIA's CUDA Code to Other GPUs; Doubles Developer Count
    ZLUDA has made massive headlines in the past with their "code porting" library, and it looks like the developers are geared up once again.
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าในอดีต ตลาดเซิร์ฟเวอร์เต็มไปด้วย CPU x86 จาก Intel หรือ AMD เป็นหลัก แต่วันนี้เรากำลังเห็นการเปลี่ยนแปลงครั้งใหญ่ — เพราะ AI ต้องการ "พลังประมวลผลแบบเฉพาะทาง" มากขึ้นเรื่อย ๆ → ทำให้เซิร์ฟเวอร์ที่ใช้ AI GPU + ชิป Arm พุ่งแรง โดยเฉพาะ Nvidia Grace + Blackwell (GB200) ที่อัด GPU ถึง 8 ตัวต่อเครื่อง!

    แค่เซิร์ฟเวอร์ตระกูลนี้เพียงกลุ่มเดียวก็กลายเป็น “ตัวจุดพลุ” ให้ยอดขายเซิร์ฟเวอร์ Arm โตขึ้น 70% เทียบปีต่อปี → แม้จะยังมีส่วนแบ่งแค่ 21.1% ของยอดส่งมอบเครื่องรวม แต่ก็เป็นก้าวกระโดดที่ใหญ่ที่สุดของ Arm ในตลาดเซิร์ฟเวอร์

    และมันยังไม่หยุดแค่นี้ — เพราะ IDC คาดว่า:
    - ตลาดเซิร์ฟเวอร์รวมจะโตจาก $249B (2024) → $588B (2029)
    - โดยเซิร์ฟเวอร์ AI แบบ Accelerated จะกินส่วนแบ่งครึ่งหนึ่ง
    - และเซิร์ฟเวอร์ Arm จะโตจาก $32B → $103B ใน 5 ปี!
    - ในอนาคตยังมีโอกาสเห็นซีพียูจาก Qualcomm, Marvell, MediaTek หรือ Fujitsu ร่วมวงด้วย

    ส่วนผู้นำตลาดคืออเมริกา คิดเป็น 62% ของมูลค่าตลาดเซิร์ฟเวอร์ปี 2025 — เพราะเป็นศูนย์กลางการสร้าง AI Infrastructure พร้อมเทเงินลงในโครงการระดับ Stargate หรือ AGI อย่างต่อเนื่อง

    ตลาดเซิร์ฟเวอร์ไตรมาสแรกปี 2025 พุ่งถึง $95.2B — โตขึ้น 134% จากปีก่อนหน้า  
    • การเติบโตเร็วที่สุดที่เคยบันทึกมา  
    • ขับเคลื่อนโดยเซิร์ฟเวอร์ AI ที่มี GPU แบบเร่งความเร็ว (Accelerated Servers)

    ยอดจัดส่งเซิร์ฟเวอร์ Arm โตขึ้น 70% YoY — ส่วนใหญ่เป็นของ Nvidia GB200 NVL72  
    • ใช้ซีพียู Grace + GPU Blackwell (B200)  
    • มี GPU 8 ตัวต่อเครื่อง

    ปี 2025 คาดการณ์ตลาดเซิร์ฟเวอร์รวม $366B แบ่งเป็น:  
    • x86: $283.9B (โต 39.9%)  
    • Non-x86 (รวม Arm): $82B (โต 63.7%)

    Arm คาดจะกิน 21.1% ของยอดเครื่องเซิร์ฟเวอร์ทั่วโลกภายในสิ้นปี 2025  
    • แม้ยังห่างเป้าหมาย 50% แต่ถือเป็นการเติบโตที่มั่นคง

    ตลาด Arm-accelerated servers จะโตจาก $32B → $103B ในปี 2029  
    • ขับเคลื่อนด้วย AI แบบ reasoning model, LLM, AGI

    ตลาดใหญ่สุดคือสหรัฐฯ (โต 59.7%) > จีน (โต 39.5%) > ญี่ปุ่น (33.9%)

    https://www.tomshardware.com/desktops/servers/nvidias-arm-chips-rapidly-gain-share-in-server-market-as-ai-booms-nvidias-arm-powered-gb200-servers-surge-as-market-reaches-a-record-usd95-billion-in-the-first-quarter
    ลองนึกภาพว่าในอดีต ตลาดเซิร์ฟเวอร์เต็มไปด้วย CPU x86 จาก Intel หรือ AMD เป็นหลัก แต่วันนี้เรากำลังเห็นการเปลี่ยนแปลงครั้งใหญ่ — เพราะ AI ต้องการ "พลังประมวลผลแบบเฉพาะทาง" มากขึ้นเรื่อย ๆ → ทำให้เซิร์ฟเวอร์ที่ใช้ AI GPU + ชิป Arm พุ่งแรง โดยเฉพาะ Nvidia Grace + Blackwell (GB200) ที่อัด GPU ถึง 8 ตัวต่อเครื่อง! แค่เซิร์ฟเวอร์ตระกูลนี้เพียงกลุ่มเดียวก็กลายเป็น “ตัวจุดพลุ” ให้ยอดขายเซิร์ฟเวอร์ Arm โตขึ้น 70% เทียบปีต่อปี → แม้จะยังมีส่วนแบ่งแค่ 21.1% ของยอดส่งมอบเครื่องรวม แต่ก็เป็นก้าวกระโดดที่ใหญ่ที่สุดของ Arm ในตลาดเซิร์ฟเวอร์ และมันยังไม่หยุดแค่นี้ — เพราะ IDC คาดว่า: - ตลาดเซิร์ฟเวอร์รวมจะโตจาก $249B (2024) → $588B (2029) - โดยเซิร์ฟเวอร์ AI แบบ Accelerated จะกินส่วนแบ่งครึ่งหนึ่ง - และเซิร์ฟเวอร์ Arm จะโตจาก $32B → $103B ใน 5 ปี! - ในอนาคตยังมีโอกาสเห็นซีพียูจาก Qualcomm, Marvell, MediaTek หรือ Fujitsu ร่วมวงด้วย ส่วนผู้นำตลาดคืออเมริกา คิดเป็น 62% ของมูลค่าตลาดเซิร์ฟเวอร์ปี 2025 — เพราะเป็นศูนย์กลางการสร้าง AI Infrastructure พร้อมเทเงินลงในโครงการระดับ Stargate หรือ AGI อย่างต่อเนื่อง ✅ ตลาดเซิร์ฟเวอร์ไตรมาสแรกปี 2025 พุ่งถึง $95.2B — โตขึ้น 134% จากปีก่อนหน้า   • การเติบโตเร็วที่สุดที่เคยบันทึกมา   • ขับเคลื่อนโดยเซิร์ฟเวอร์ AI ที่มี GPU แบบเร่งความเร็ว (Accelerated Servers) ✅ ยอดจัดส่งเซิร์ฟเวอร์ Arm โตขึ้น 70% YoY — ส่วนใหญ่เป็นของ Nvidia GB200 NVL72   • ใช้ซีพียู Grace + GPU Blackwell (B200)   • มี GPU 8 ตัวต่อเครื่อง ✅ ปี 2025 คาดการณ์ตลาดเซิร์ฟเวอร์รวม $366B แบ่งเป็น:   • x86: $283.9B (โต 39.9%)   • Non-x86 (รวม Arm): $82B (โต 63.7%) ✅ Arm คาดจะกิน 21.1% ของยอดเครื่องเซิร์ฟเวอร์ทั่วโลกภายในสิ้นปี 2025   • แม้ยังห่างเป้าหมาย 50% แต่ถือเป็นการเติบโตที่มั่นคง ✅ ตลาด Arm-accelerated servers จะโตจาก $32B → $103B ในปี 2029   • ขับเคลื่อนด้วย AI แบบ reasoning model, LLM, AGI ✅ ตลาดใหญ่สุดคือสหรัฐฯ (โต 59.7%) > จีน (โต 39.5%) > ญี่ปุ่น (33.9%) https://www.tomshardware.com/desktops/servers/nvidias-arm-chips-rapidly-gain-share-in-server-market-as-ai-booms-nvidias-arm-powered-gb200-servers-surge-as-market-reaches-a-record-usd95-billion-in-the-first-quarter
    0 ความคิดเห็น 0 การแบ่งปัน 111 มุมมอง 0 รีวิว
  • แต่เดิม 18A ถูกวางตัวให้เป็นหมัดเด็ดของ Intel ในการกลับเข้าสู่ตลาดโรงหล่อแข่งกับ TSMC — เพราะมันคือเทคโนโลยีแรกที่ใช้ทรานซิสเตอร์แบบ RibbonFET กับโครงสร้างส่งพลังงานด้านหลัง PowerVia อย่างเต็มรูปแบบ

    แต่ล่าสุดมีรายงานว่า CEO คนใหม่ของ Intel, Lip-Bu Tan กำลังพิจารณา “ถอยออกจาก 18A สำหรับลูกค้าภายนอก” แล้วหันไปโฟกัสกับ 14A แทน โดยเขามองว่า:
    - 18A ดึงลูกค้าขนาดใหญ่ได้ยาก
    - ทุนที่ลงไปอาจไม่คุ้ม ถ้ายังไม่มีดีลใหญ่
    - 14A เตรียมไว้สำหรับการผลิตจริงในปี 2028 — ถ้าจะโปรโมต ก็ควรเริ่มแล้วตอนนี้

    ผลที่ตามมาคือ Intel อาจต้อง “หายไปจากสนามแข่งของ TSMC รุ่น N2 / A16” ไปอีก 2-3 ปี → เปิดช่องว่างให้ TSMC ครองตลาดแบบไร้คู่แข่งเลยก็ได้

    แม้ Intel จะยังผลิตชิปภายในของตัวเองด้วย 18A เช่น Panther Lake, Diamond Rapids ฯลฯ แต่การถอนตัวจาก 18A ฝั่งโรงหล่อ ก็เหมือนกับยอมรับว่า…

    “เรายังไม่พร้อมให้คนอื่นใช้ของเราเป็นเวทีหลักได้ในตอนนี้”

    Intel อาจไม่เปิดใช้เทคโนโลยี 18A ให้กับลูกค้าโรงหล่อภายนอกอีกต่อไป  
    • เพราะดึงลูกค้าใหญ่ได้ไม่มาก  
    • มีค่าใช้จ่ายสูงในการสนับสนุน + รักษาโรงงาน

    จะโฟกัสไปที่เทคโนโลยี 14A แทน → เตรียมพร้อมสำหรับการผลิตในปี 2028  
    • เริ่มโปรโมตให้ลูกค้าภายนอกแล้ว  
    • ใช้ PowerDirect และ Turbo Cells — เทคโนโลยีขั้นกว่าของ PowerVia

    18A ยังใช้กับผลิตภัณฑ์ภายในของ Intel เช่น Panther Lake, Jaguar Shores, Diamond Rapids  
    • แต่ไม่ดันออกตลาดให้ผู้อื่นใช้อีกต่อไป  
    • ลูกค้าภายนอกที่ยืนยันใช้ 18A มีแค่ Amazon, Microsoft, กระทรวงกลาโหมสหรัฐ

    หากถอนตัวจากตลาด foundry รุ่น 18A → Intel จะไม่สามารถแข่งกับ TSMC รุ่น N2 / A16 ได้อีก 2–3 ปี

    TSMC ยังเหนือกว่าเรื่องความหนาแน่นของทรานซิสเตอร์ แม้ 18A จะได้เปรียบเรื่อง Power Delivery

    Intel เตรียมหารือกับบอร์ดบริหารปลายปีนี้ เพื่อเคาะทิศทางสุดท้าย

    https://www.tomshardware.com/tech-industry/semiconductors/intel-might-axe-the-18a-process-node-for-foundry-customers-essentially-leaving-tsmc-with-no-rival-intel-reportedly-to-focus-on-14a
    แต่เดิม 18A ถูกวางตัวให้เป็นหมัดเด็ดของ Intel ในการกลับเข้าสู่ตลาดโรงหล่อแข่งกับ TSMC — เพราะมันคือเทคโนโลยีแรกที่ใช้ทรานซิสเตอร์แบบ RibbonFET กับโครงสร้างส่งพลังงานด้านหลัง PowerVia อย่างเต็มรูปแบบ แต่ล่าสุดมีรายงานว่า CEO คนใหม่ของ Intel, Lip-Bu Tan กำลังพิจารณา “ถอยออกจาก 18A สำหรับลูกค้าภายนอก” แล้วหันไปโฟกัสกับ 14A แทน โดยเขามองว่า: - 18A ดึงลูกค้าขนาดใหญ่ได้ยาก - ทุนที่ลงไปอาจไม่คุ้ม ถ้ายังไม่มีดีลใหญ่ - 14A เตรียมไว้สำหรับการผลิตจริงในปี 2028 — ถ้าจะโปรโมต ก็ควรเริ่มแล้วตอนนี้ ผลที่ตามมาคือ Intel อาจต้อง “หายไปจากสนามแข่งของ TSMC รุ่น N2 / A16” ไปอีก 2-3 ปี → เปิดช่องว่างให้ TSMC ครองตลาดแบบไร้คู่แข่งเลยก็ได้ แม้ Intel จะยังผลิตชิปภายในของตัวเองด้วย 18A เช่น Panther Lake, Diamond Rapids ฯลฯ แต่การถอนตัวจาก 18A ฝั่งโรงหล่อ ก็เหมือนกับยอมรับว่า… “เรายังไม่พร้อมให้คนอื่นใช้ของเราเป็นเวทีหลักได้ในตอนนี้” ✅ Intel อาจไม่เปิดใช้เทคโนโลยี 18A ให้กับลูกค้าโรงหล่อภายนอกอีกต่อไป   • เพราะดึงลูกค้าใหญ่ได้ไม่มาก   • มีค่าใช้จ่ายสูงในการสนับสนุน + รักษาโรงงาน ✅ จะโฟกัสไปที่เทคโนโลยี 14A แทน → เตรียมพร้อมสำหรับการผลิตในปี 2028   • เริ่มโปรโมตให้ลูกค้าภายนอกแล้ว   • ใช้ PowerDirect และ Turbo Cells — เทคโนโลยีขั้นกว่าของ PowerVia ✅ 18A ยังใช้กับผลิตภัณฑ์ภายในของ Intel เช่น Panther Lake, Jaguar Shores, Diamond Rapids   • แต่ไม่ดันออกตลาดให้ผู้อื่นใช้อีกต่อไป   • ลูกค้าภายนอกที่ยืนยันใช้ 18A มีแค่ Amazon, Microsoft, กระทรวงกลาโหมสหรัฐ ✅ หากถอนตัวจากตลาด foundry รุ่น 18A → Intel จะไม่สามารถแข่งกับ TSMC รุ่น N2 / A16 ได้อีก 2–3 ปี ✅ TSMC ยังเหนือกว่าเรื่องความหนาแน่นของทรานซิสเตอร์ แม้ 18A จะได้เปรียบเรื่อง Power Delivery ✅ Intel เตรียมหารือกับบอร์ดบริหารปลายปีนี้ เพื่อเคาะทิศทางสุดท้าย https://www.tomshardware.com/tech-industry/semiconductors/intel-might-axe-the-18a-process-node-for-foundry-customers-essentially-leaving-tsmc-with-no-rival-intel-reportedly-to-focus-on-14a
    0 ความคิดเห็น 0 การแบ่งปัน 107 มุมมอง 0 รีวิว
  • ในงาน Intel AI Summit ที่เกาหลีใต้ Intel เผยของใหม่สองกลุ่มใหญ่:

    1️⃣ Jaguar Shores: คือชื่อรหัสของ AI Accelerator รุ่นต่อไปภายใต้แบรนด์ “Gaudi” ที่จะมาแทน Falcon Shores ซึ่งถูกยกเลิกไปแล้ว  → ความพิเศษอยู่ที่มันจะใช้ HBM4 รุ่นล่าสุดจาก SK hynix  → HBM4 มีแบนด์วิดท์มหาศาล เหมาะสำหรับ AI รุ่นใหญ่ เช่น LLM / LRM  → เป็นครั้งแรกที่ Intel ยืนยันว่าจะใช้ HBM4 จริงในผลิตภัณฑ์

    2️⃣ Diamond Rapids: คือ Xeon Gen ถัดไป (สำหรับ data center) ที่จะใช้ MRDIMM รุ่นที่ 2 — เป็นหน่วยความจำ DDR5 ที่เร็วและฉลาด  → เชื่อมต่อแบบ “multiplexed” ทำให้มี latency ต่ำและเร็วกว่า RDIMM  → ความเร็วคาดว่าจะไปถึง 12,800 MT/s (จากเดิม 8,800 MT/s)

    แม้ยังไม่มีรายละเอียดเรื่องจำนวน stack ของ HBM4 หรือสเปกเต็มของ Jaguar Shores แต่ก็ถือเป็นสัญญาณชัดว่า Intel ไม่ยอมให้นวัตกรรม AI–Server ตกขบวนอีกแล้วครับ

    Jaguar Shores เป็น Gaudi Accelerator รุ่นใหม่ของ Intel ที่จะเปิดตัวในปี 2026  
    • ใช้ HBM4 จาก SK hynix  
    • มาแทน Falcon Shores ที่ถูกยกเลิก  
    • ออกแบบสำหรับ AI workloads ขนาดใหญ่

    HBM4 คือหน่วยความจำความเร็วสูงแบบใหม่ที่ JEDEC เพิ่งรับรองมาตรฐานในปี 2024  
    • มีแบนด์วิดท์สูงกว่า HBM3E  
    • Micron, SK hynix และ Samsung เริ่มผลิตทดสอบแล้ว  
    • ใช้ในระบบ AI, HPC และเซิร์ฟเวอร์ขนาดใหญ่

    Diamond Rapids จะใช้ MRDIMM เจเนอเรชันที่ 2  
    • มีขนาด 64GB (ใช้ชิป 16GB) และ 128GB (ใช้ชิป 32GB)  
    • Multiplexed Rank DIMM → มี MRCD chip และ MDB chip ในตัว  
    • ลด latency ลงกว่า DDR5-6400 RDIMM ได้มากถึง 40%  
    • รองรับความเร็ว bus สูงสุด 12,800 MT/s

    แนวคิด MRDIMM คือให้ internal DRAM ทำงานที่ความเร็วครึ่งนึงของภายนอก เพื่อลดความร้อนและเพิ่มประสิทธิภาพ

    Intel ยังไม่เปิดเผยจำนวน stack ของ HBM4 บน Jaguar Shores → อาจกระทบกับ performance vs NVIDIA / AMD หากใช้ stack น้อยเกินไป

    การแข่งขันด้านหน่วยความจำ AI ร้อนแรงมาก — หาก Intel ปรับช้ากว่า Micron/SK hynix/Samsung อาจเสียส่วนแบ่งในตลาด hyperscaler

    https://www.tomshardware.com/tech-industry/artificial-intelligence/intel-jumps-to-hbm4-with-jaguar-shores-2nd-gen-mrdimms-with-diamond-rapids-sk-hynix
    ในงาน Intel AI Summit ที่เกาหลีใต้ Intel เผยของใหม่สองกลุ่มใหญ่: 1️⃣ Jaguar Shores: คือชื่อรหัสของ AI Accelerator รุ่นต่อไปภายใต้แบรนด์ “Gaudi” ที่จะมาแทน Falcon Shores ซึ่งถูกยกเลิกไปแล้ว  → ความพิเศษอยู่ที่มันจะใช้ HBM4 รุ่นล่าสุดจาก SK hynix  → HBM4 มีแบนด์วิดท์มหาศาล เหมาะสำหรับ AI รุ่นใหญ่ เช่น LLM / LRM  → เป็นครั้งแรกที่ Intel ยืนยันว่าจะใช้ HBM4 จริงในผลิตภัณฑ์ 2️⃣ Diamond Rapids: คือ Xeon Gen ถัดไป (สำหรับ data center) ที่จะใช้ MRDIMM รุ่นที่ 2 — เป็นหน่วยความจำ DDR5 ที่เร็วและฉลาด  → เชื่อมต่อแบบ “multiplexed” ทำให้มี latency ต่ำและเร็วกว่า RDIMM  → ความเร็วคาดว่าจะไปถึง 12,800 MT/s (จากเดิม 8,800 MT/s) แม้ยังไม่มีรายละเอียดเรื่องจำนวน stack ของ HBM4 หรือสเปกเต็มของ Jaguar Shores แต่ก็ถือเป็นสัญญาณชัดว่า Intel ไม่ยอมให้นวัตกรรม AI–Server ตกขบวนอีกแล้วครับ ✅ Jaguar Shores เป็น Gaudi Accelerator รุ่นใหม่ของ Intel ที่จะเปิดตัวในปี 2026   • ใช้ HBM4 จาก SK hynix   • มาแทน Falcon Shores ที่ถูกยกเลิก   • ออกแบบสำหรับ AI workloads ขนาดใหญ่ ✅ HBM4 คือหน่วยความจำความเร็วสูงแบบใหม่ที่ JEDEC เพิ่งรับรองมาตรฐานในปี 2024   • มีแบนด์วิดท์สูงกว่า HBM3E   • Micron, SK hynix และ Samsung เริ่มผลิตทดสอบแล้ว   • ใช้ในระบบ AI, HPC และเซิร์ฟเวอร์ขนาดใหญ่ ✅ Diamond Rapids จะใช้ MRDIMM เจเนอเรชันที่ 2   • มีขนาด 64GB (ใช้ชิป 16GB) และ 128GB (ใช้ชิป 32GB)   • Multiplexed Rank DIMM → มี MRCD chip และ MDB chip ในตัว   • ลด latency ลงกว่า DDR5-6400 RDIMM ได้มากถึง 40%   • รองรับความเร็ว bus สูงสุด 12,800 MT/s ✅ แนวคิด MRDIMM คือให้ internal DRAM ทำงานที่ความเร็วครึ่งนึงของภายนอก เพื่อลดความร้อนและเพิ่มประสิทธิภาพ ‼️ Intel ยังไม่เปิดเผยจำนวน stack ของ HBM4 บน Jaguar Shores → อาจกระทบกับ performance vs NVIDIA / AMD หากใช้ stack น้อยเกินไป ‼️ การแข่งขันด้านหน่วยความจำ AI ร้อนแรงมาก — หาก Intel ปรับช้ากว่า Micron/SK hynix/Samsung อาจเสียส่วนแบ่งในตลาด hyperscaler https://www.tomshardware.com/tech-industry/artificial-intelligence/intel-jumps-to-hbm4-with-jaguar-shores-2nd-gen-mrdimms-with-diamond-rapids-sk-hynix
    0 ความคิดเห็น 0 การแบ่งปัน 96 มุมมอง 0 รีวิว
  • ก่อนอื่นต้องอธิบายก่อนว่า CAMM2 (Compression Attached Memory Module 2) คือฟอร์มแฟกเตอร์ใหม่ที่จะมาแทน SO-DIMM และ UDIMM ที่เราใช้กันบนโน้ตบุ๊กและพีซีในปัจจุบัน → มันบางกว่า เสียบแน่นกว่า ต้านทานสัญญาณน้อยกว่า และเร็วกว่าเยอะ! → ผลคือ “โอเวอร์คล็อกได้ดีกว่า” และใช้ในอุปกรณ์บางเฉียบหรือโมดูล AI ที่ต้องการพื้นที่คุมความร้อน

    G.Skill ใช้โมดูล CAMM2 DDR5 ขนาด 64GB บนเมนบอร์ด ASUS ROG Maximus Z890 Hero รุ่นพิเศษที่ดัดแปลงให้รองรับ CAMM2 โดยจับคู่กับ Intel Core Ultra 7 265K → แล้วจัดการโอเวอร์คล็อกจนไปถึง DDR5-10000 MT/s และรัน Memtest แบบเสถียรได้!

    แม้สถิติโลกตอนนี้จะยังสูงกว่า (DDR5-12054 โดย saltycroissant) แต่ความต่างคือ สถิตินั้นใช้แบบ DIMM ปกติ + air cooling, ขณะที่ CAMM2 ยังมีศักยภาพเหลืออีกเยอะ — ถ้าทำตลาดจริงเมื่อไหร่ อาจเป็นมาตรฐานใหม่ของหน่วยความจำยุคถัดไปเลยก็ได้

    G.Skill ทำลายสถิติโอเวอร์คล็อกของ CAMM2 ได้ถึง DDR5-10000 MT/s  
    • ใช้กับแรม CAMM2 ความจุ 64GB  
    • ทดสอบบนเมนบอร์ด ASUS Maximus Z890 Hero ที่ดัดแปลงพิเศษ  
    • จับคู่กับซีพียู Intel Core Ultra 7 265K  
    • ผ่านการทดสอบเสถียรด้วย Memtest

    CAMM2 คือฟอร์มแฟกเตอร์หน่วยความจำแบบใหม่แทน SO-DIMM/UDIMM  
    • บางกว่า เร็วกว่า มีศักยภาพ overclock สูง  
    • ถูกนำเสนอครั้งแรกกลางปี 2024  
    • มีแค่ Crucial ที่เริ่มขาย LPCAMM2 LPDDR5X-7500 (32/64GB)

    เหมาะกับโน้ตบุ๊ก/แท็บเล็ตที่ไม่อยากใช้ RAM แบบฝัง (soldered)  
    • ช่วยให้ซ่อม–อัปเกรดได้ง่ายขึ้น  
    • ลดต้นทุนผลิต เพราะใช้สายการผลิตเดียวได้หลายขนาด

    G.Skill, Kingston, TeamGroup เริ่มโชว์ CAMM2 ที่ Computex 2025 แล้ว  
    • แต่ยังไม่มีเมนบอร์ด consumer รุ่น CAMM2 วางจำหน่ายทั่วไป

    https://www.tomshardware.com/pc-components/ddr5/g-skill-pushing-new-camm2-ddr5-memory-modules-to-the-overclocking-limit-hits-ddr5-10000-speeds-on-modified-asus-motherboard
    ก่อนอื่นต้องอธิบายก่อนว่า CAMM2 (Compression Attached Memory Module 2) คือฟอร์มแฟกเตอร์ใหม่ที่จะมาแทน SO-DIMM และ UDIMM ที่เราใช้กันบนโน้ตบุ๊กและพีซีในปัจจุบัน → มันบางกว่า เสียบแน่นกว่า ต้านทานสัญญาณน้อยกว่า และเร็วกว่าเยอะ! → ผลคือ “โอเวอร์คล็อกได้ดีกว่า” และใช้ในอุปกรณ์บางเฉียบหรือโมดูล AI ที่ต้องการพื้นที่คุมความร้อน G.Skill ใช้โมดูล CAMM2 DDR5 ขนาด 64GB บนเมนบอร์ด ASUS ROG Maximus Z890 Hero รุ่นพิเศษที่ดัดแปลงให้รองรับ CAMM2 โดยจับคู่กับ Intel Core Ultra 7 265K → แล้วจัดการโอเวอร์คล็อกจนไปถึง DDR5-10000 MT/s และรัน Memtest แบบเสถียรได้! แม้สถิติโลกตอนนี้จะยังสูงกว่า (DDR5-12054 โดย saltycroissant) แต่ความต่างคือ สถิตินั้นใช้แบบ DIMM ปกติ + air cooling, ขณะที่ CAMM2 ยังมีศักยภาพเหลืออีกเยอะ — ถ้าทำตลาดจริงเมื่อไหร่ อาจเป็นมาตรฐานใหม่ของหน่วยความจำยุคถัดไปเลยก็ได้ ✅ G.Skill ทำลายสถิติโอเวอร์คล็อกของ CAMM2 ได้ถึง DDR5-10000 MT/s   • ใช้กับแรม CAMM2 ความจุ 64GB   • ทดสอบบนเมนบอร์ด ASUS Maximus Z890 Hero ที่ดัดแปลงพิเศษ   • จับคู่กับซีพียู Intel Core Ultra 7 265K   • ผ่านการทดสอบเสถียรด้วย Memtest ✅ CAMM2 คือฟอร์มแฟกเตอร์หน่วยความจำแบบใหม่แทน SO-DIMM/UDIMM   • บางกว่า เร็วกว่า มีศักยภาพ overclock สูง   • ถูกนำเสนอครั้งแรกกลางปี 2024   • มีแค่ Crucial ที่เริ่มขาย LPCAMM2 LPDDR5X-7500 (32/64GB) ✅ เหมาะกับโน้ตบุ๊ก/แท็บเล็ตที่ไม่อยากใช้ RAM แบบฝัง (soldered)   • ช่วยให้ซ่อม–อัปเกรดได้ง่ายขึ้น   • ลดต้นทุนผลิต เพราะใช้สายการผลิตเดียวได้หลายขนาด ✅ G.Skill, Kingston, TeamGroup เริ่มโชว์ CAMM2 ที่ Computex 2025 แล้ว   • แต่ยังไม่มีเมนบอร์ด consumer รุ่น CAMM2 วางจำหน่ายทั่วไป https://www.tomshardware.com/pc-components/ddr5/g-skill-pushing-new-camm2-ddr5-memory-modules-to-the-overclocking-limit-hits-ddr5-10000-speeds-on-modified-asus-motherboard
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 รีวิว
  • ก่อนอื่นต้องเข้าใจก่อนว่า ASML คือบริษัทผลิต เครื่อง EUV (Extreme Ultraviolet Lithography) ที่เป็นหัวใจของการผลิตชิปสมัยใหม่ทุกวันนี้ ยิ่งเทคโนโลยีเล็กลง (เช่น 5nm, 3nm), ความละเอียดของเครื่องก็ยิ่งสำคัญ

    แต่ช่วงหลัง Intel กลับออกมาบอกว่า “เครื่อง High NA EUV รุ่นล่าสุดของ ASML อาจไม่จำเป็นเท่าที่คิดในเทคโนโลยีชิปยุคใหม่” เพราะแนวโน้มตอนนี้คือ “เปลี่ยนจากการลดขนาดทรานซิสเตอร์แนวนอน → ไปเพิ่มชั้นแนวตั้ง (3D stacking)” แทน → ทำให้ความคมชัดของเลนส์ไม่ใช่พระเอกอีกต่อไป

    BofA จึงลดความคาดหวังต่ออุปสงค์ของเครื่อง High NA EUV แม้จะยังแนะนำ “ซื้อ” หุ้น ASML อยู่ (เพราะยังเชื่อในกระแส AI) แต่ก็มองว่า:
    - ตลาด High NA ยังไม่เติบโตเท่าที่หวัง
    - Intel ยังมีปัญหาผลิต 18A
    - Samsung เองยังไม่สามารถส่งชิปหน่วยความจำให้ NVIDIA ผ่านได้
    - และยังมีความเสี่ยงการคว่ำบาตรจากสหรัฐฯ ต่ออุปกรณ์ที่ส่งไปจีน

    BofA ลดเป้าราคาหุ้น ASML จาก €795 → €759  
    • ลดคาดการณ์ EPS ปี 2026–2027 ลง ~5%  
    • แต่ยังคงคำแนะนำ “Buy” อยู่

    เหตุผลที่ลดประมาณการคือการชะลอความต้องการเครื่อง High NA EUV ของ ASML  
    • โดยเฉพาะจาก Intel, Samsung  
    • และการปรับทิศทางดีไซน์ชิปไปสู่แนวตั้งแบบ 3D มากขึ้น

    BofA คาดว่า ASML จะขายเครื่อง High NA ได้แค่ 4 เครื่องในปี 2026  
    • ลดลง ~50% จากที่เคยคาดไว้

    แม้จะเผชิญแรงกดดัน แต่ BofA ยังเชื่อในการเติบโตระยะยาวจากกระแส AI  
    • คาดว่าตลาด AI chip จะโตแตะ $795B ภายในปี 2030  
    • ซึ่งยังต้องพึ่งพาเทคโนโลยีลิทโธกราฟีรุ่นล่าสุดอยู่

    อัตราส่วน EV/Operating Income ของ ASML ยังอยู่ที่ 19.6x  
    • ต่ำกว่าค่าเฉลี่ย 22x แต่ถือว่า “ยังน่าสนใจสำหรับนักลงทุนระยะยาว”

    https://wccftech.com/asmls-price-target-cut-by-bofa-due-to-lower-high-na-machine-demand/
    ก่อนอื่นต้องเข้าใจก่อนว่า ASML คือบริษัทผลิต เครื่อง EUV (Extreme Ultraviolet Lithography) ที่เป็นหัวใจของการผลิตชิปสมัยใหม่ทุกวันนี้ ยิ่งเทคโนโลยีเล็กลง (เช่น 5nm, 3nm), ความละเอียดของเครื่องก็ยิ่งสำคัญ แต่ช่วงหลัง Intel กลับออกมาบอกว่า “เครื่อง High NA EUV รุ่นล่าสุดของ ASML อาจไม่จำเป็นเท่าที่คิดในเทคโนโลยีชิปยุคใหม่” เพราะแนวโน้มตอนนี้คือ “เปลี่ยนจากการลดขนาดทรานซิสเตอร์แนวนอน → ไปเพิ่มชั้นแนวตั้ง (3D stacking)” แทน → ทำให้ความคมชัดของเลนส์ไม่ใช่พระเอกอีกต่อไป BofA จึงลดความคาดหวังต่ออุปสงค์ของเครื่อง High NA EUV แม้จะยังแนะนำ “ซื้อ” หุ้น ASML อยู่ (เพราะยังเชื่อในกระแส AI) แต่ก็มองว่า: - ตลาด High NA ยังไม่เติบโตเท่าที่หวัง - Intel ยังมีปัญหาผลิต 18A - Samsung เองยังไม่สามารถส่งชิปหน่วยความจำให้ NVIDIA ผ่านได้ - และยังมีความเสี่ยงการคว่ำบาตรจากสหรัฐฯ ต่ออุปกรณ์ที่ส่งไปจีน ✅ BofA ลดเป้าราคาหุ้น ASML จาก €795 → €759   • ลดคาดการณ์ EPS ปี 2026–2027 ลง ~5%   • แต่ยังคงคำแนะนำ “Buy” อยู่ ✅ เหตุผลที่ลดประมาณการคือการชะลอความต้องการเครื่อง High NA EUV ของ ASML   • โดยเฉพาะจาก Intel, Samsung   • และการปรับทิศทางดีไซน์ชิปไปสู่แนวตั้งแบบ 3D มากขึ้น ✅ BofA คาดว่า ASML จะขายเครื่อง High NA ได้แค่ 4 เครื่องในปี 2026   • ลดลง ~50% จากที่เคยคาดไว้ ✅ แม้จะเผชิญแรงกดดัน แต่ BofA ยังเชื่อในการเติบโตระยะยาวจากกระแส AI   • คาดว่าตลาด AI chip จะโตแตะ $795B ภายในปี 2030   • ซึ่งยังต้องพึ่งพาเทคโนโลยีลิทโธกราฟีรุ่นล่าสุดอยู่ ✅ อัตราส่วน EV/Operating Income ของ ASML ยังอยู่ที่ 19.6x   • ต่ำกว่าค่าเฉลี่ย 22x แต่ถือว่า “ยังน่าสนใจสำหรับนักลงทุนระยะยาว” https://wccftech.com/asmls-price-target-cut-by-bofa-due-to-lower-high-na-machine-demand/
    WCCFTECH.COM
    ASML's Price Target Cut By BofA Due To Lower High NA Machine Demand
    Bank of America cuts ASML share price target on back of lower demand for high NA EUV scanners and Intel's production woes.
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • ท่ามกลางคลื่น AI ที่ไหลแรงแบบไม่หยุด Siemens ไม่ยอมน้อยหน้าใคร ล่าสุดประกาศแต่งตั้ง Vasi Philomin — อดีตรองประธาน AI แห่ง Amazon มาเป็น “หัวหน้าฝ่ายข้อมูลและปัญญาประดิษฐ์” (Head of Data and AI)

    คนนี้ไม่ธรรมดาเลยครับ เขาคือผู้อยู่เบื้องหลังบริการ ML ระดับใหญ่ เช่น Amazon Lex, Amazon Transcribe, และแพลตฟอร์ม AI-as-a-Service ของ AWS มานานหลายปี

    Siemens ต้องการใช้ AI เพื่อพัฒนา “AI Copilot” สำหรับอุตสาหกรรม เช่น การผลิต, ขนส่ง, ไปจนถึงการแพทย์ — โดยมีเป้าหมายคือให้ AI มาช่วยพนักงาน “ร่วมออกแบบสินค้า, วางแผนการผลิต, และดูแลบำรุงรักษา” ได้ทันที

    Philomin จะรายงานตรงต่อ Peter Koerte (CTO และ Chief Strategy Officer ของ Siemens) ซึ่งหมายความว่าบทบาทนี้อยู่ในระดับแนวหน้าของการขับเคลื่อนองค์กร

    Siemens แต่งตั้ง Vasi Philomin อดีตผู้บริหารสาย AI จาก Amazon เป็นหัวหน้าฝ่าย Data & AI  
    • เน้นพัฒนาโซลูชัน AI เชิงอุตสาหกรรม เช่น AI Copilot  
    • รายงานตรงต่อผู้บริหารระดับสูง Peter Koerte

    Philomin มีประสบการณ์สร้าง AI ขนาดใหญ่ที่ Amazon AWS เช่น Lex, Transcribe, Comprehend  
    • เชี่ยวชาญด้าน Machine Learning และ AI เชิงพาณิชย์

    Siemens มองว่า AI คือเสาหลักร่วมกับซอฟต์แวร์อุตสาหกรรม (Industrial Software)  
    • ต้องการเร่ง digital transformation ระดับองค์กร

    เคยประกาศความร่วมมือกับ Microsoft ตั้งแต่ปี 2023  
    • สร้าง “AI Copilot” เพื่อเพิ่มประสิทธิภาพการทำงานร่วมมนุษย์ในสายการผลิต, โลจิสติกส์ และสุขภาพ

    เป้าหมายคือการให้ AI เข้ามาช่วยพนักงานบริษัทลูกค้าออกแบบสินค้า–วางแผน–บำรุงรักษาได้อัตโนมัติ

    https://www.thestar.com.my/tech/tech-news/2025/06/30/siemens-recruits-artificial-intelligence-expert-from-amazon
    ท่ามกลางคลื่น AI ที่ไหลแรงแบบไม่หยุด Siemens ไม่ยอมน้อยหน้าใคร ล่าสุดประกาศแต่งตั้ง Vasi Philomin — อดีตรองประธาน AI แห่ง Amazon มาเป็น “หัวหน้าฝ่ายข้อมูลและปัญญาประดิษฐ์” (Head of Data and AI) คนนี้ไม่ธรรมดาเลยครับ เขาคือผู้อยู่เบื้องหลังบริการ ML ระดับใหญ่ เช่น Amazon Lex, Amazon Transcribe, และแพลตฟอร์ม AI-as-a-Service ของ AWS มานานหลายปี Siemens ต้องการใช้ AI เพื่อพัฒนา “AI Copilot” สำหรับอุตสาหกรรม เช่น การผลิต, ขนส่ง, ไปจนถึงการแพทย์ — โดยมีเป้าหมายคือให้ AI มาช่วยพนักงาน “ร่วมออกแบบสินค้า, วางแผนการผลิต, และดูแลบำรุงรักษา” ได้ทันที Philomin จะรายงานตรงต่อ Peter Koerte (CTO และ Chief Strategy Officer ของ Siemens) ซึ่งหมายความว่าบทบาทนี้อยู่ในระดับแนวหน้าของการขับเคลื่อนองค์กร ✅ Siemens แต่งตั้ง Vasi Philomin อดีตผู้บริหารสาย AI จาก Amazon เป็นหัวหน้าฝ่าย Data & AI   • เน้นพัฒนาโซลูชัน AI เชิงอุตสาหกรรม เช่น AI Copilot   • รายงานตรงต่อผู้บริหารระดับสูง Peter Koerte ✅ Philomin มีประสบการณ์สร้าง AI ขนาดใหญ่ที่ Amazon AWS เช่น Lex, Transcribe, Comprehend   • เชี่ยวชาญด้าน Machine Learning และ AI เชิงพาณิชย์ ✅ Siemens มองว่า AI คือเสาหลักร่วมกับซอฟต์แวร์อุตสาหกรรม (Industrial Software)   • ต้องการเร่ง digital transformation ระดับองค์กร ✅ เคยประกาศความร่วมมือกับ Microsoft ตั้งแต่ปี 2023   • สร้าง “AI Copilot” เพื่อเพิ่มประสิทธิภาพการทำงานร่วมมนุษย์ในสายการผลิต, โลจิสติกส์ และสุขภาพ ✅ เป้าหมายคือการให้ AI เข้ามาช่วยพนักงานบริษัทลูกค้าออกแบบสินค้า–วางแผน–บำรุงรักษาได้อัตโนมัติ https://www.thestar.com.my/tech/tech-news/2025/06/30/siemens-recruits-artificial-intelligence-expert-from-amazon
    WWW.THESTAR.COM.MY
    Siemens recruits artificial intelligence expert from Amazon
    ZURICH (Reuters) -Siemens has recruited Amazon executive Vasi Philomin to its new position of head of data and artificial intelligence, the German technology company said on Monday.
    0 ความคิดเห็น 0 การแบ่งปัน 128 มุมมอง 0 รีวิว
  • “CVE” ย่อมาจาก Common Vulnerabilities and Exposures เป็นฐานข้อมูลกลางที่ใช้ระบุชื่อช่องโหว่ในซอฟต์แวร์ เช่น CVE-2023-12345 เป็นต้น ทุกทีมความปลอดภัยทั่วโลกใช้มันในการแพตช์ ประสานงาน จัดการความเสี่ยง ฯลฯ

    เมื่อเร็ว ๆ นี้ MITRE (ผู้ดูแล CVE) ส่งจดหมายแจ้งว่าจะหมดสัญญากับรัฐบาลกลางในเดือนเมษายน 2025 และหากไม่มีการต่อสัญญา จะส่งผลให้ระบบแจ้งช่องโหว่ทั่วโลกหยุดชะงัก → โชคดีที่ CISA ขยายสัญญาอีก 11 เดือนทัน

    แม้ระเบิดจะยังไม่ลง แต่เหตุการณ์นี้ทำให้หลายฝ่ายรู้ว่า “ควรเริ่มหาแหล่งข้อมูลช่องโหว่สำรอง” เพราะ:
    - CVE มี backlog เพียบ (หลายช่องโหว่ยังไม่มีรหัส)
    - ช่องโหว่จำนวนมากถูกใช้โจมตีก่อนจะถูกใส่ใน CVE
    - การอัปเดตจาก NVD (หน่วยงานที่ใส่รายละเอียดให้ CVE) ช้ากว่าความเป็นจริงมาก

    ยุโรปจึงเร่งเปิดตัว EU Vulnerability Database (EUVD) เพื่อสร้างระบบแจ้งเตือนในภูมิภาคของตนเอง และหลายองค์กรเริ่มหันไปใช้บริการจากผู้ให้ข้อมูลเชิงลึกอื่น ๆ เช่น Flashpoint, VulnCheck, GitHub Advisory, HackerOne, BitSight เป็นต้น

    CVE ยังเป็นมาตรฐานกลางที่ใช้ระบุช่องโหว่ในระบบทั่วโลก  
    • เช่น CVE-2024-12345  
    • ทุกซอฟต์แวร์และเครื่องมือ patch management พึ่งพามัน

    เมื่อเมษายน 2025 CVE เกือบหยุดทำงานเพราะหมดสัญญา → CISA ต่ออายุอีก 11 เดือนทันเวลา
    • ทำให้หลายฝ่ายเริ่มตระหนักถึงความเสี่ยงด้าน “ความพึ่งพิงมากเกินไป”

    ปัญหาที่ CVE เจอ:  
    • Backlog ช่องโหว่ที่รอยืนยันจาก NVD จำนวนมาก  
    • ความล่าช้าในการใส่รายละเอียด CVSS, CWE, CPE  
    • ช่องโหว่บางอันถูกใช้โจมตีก่อนจะมี CVE ID

    ข้อมูลจาก Google GTIG ระบุว่า มีช่องโหว่ zero-day ถึง 75 รายการในปี 2024  
    • ส่วนใหญ่ถูกใช้โจมตีก่อนจะถูกเผยแพร่ใน CVE

    ยุโรปจึงเปิดตัว European Vulnerability Database (EUVD) ในปี 2025  
    • ดึงข้อมูลจากหลายแหล่ง  
    • มีหมวดแสดง critical, exploited, และช่องโหว่ที่ประสานในระดับ EU  
    • เน้นลดการพึ่ง CVE และสร้างความเป็นอิสระระดับภูมิภาค

    ผู้ให้บริการอื่นที่องค์กรควรพิจารณา:  
    • GitHub Advisory Database  
    • Flashpoint, VulnCheck, BitSight  
    • HackerOne / Bugcrowd  
    • ฐานข้อมูลระดับชาติ เช่น JPCERT, CNNVD, AusCERT  
    • CISA KEV (Known Exploited Vulnerabilities)

    แนวโน้ม: ต้องพึ่ง “Threat-informed prioritization” มากกว่ารอ CVE อย่างเดียว  
    • ใช้ปัจจัยเช่น exploit availability, asset exposure, ransomware targeting ในการตัดสินใจ patch

    https://www.csoonline.com/article/4008708/beyond-cve-the-hunt-for-other-sources-of-vulnerability-intel.html
    “CVE” ย่อมาจาก Common Vulnerabilities and Exposures เป็นฐานข้อมูลกลางที่ใช้ระบุชื่อช่องโหว่ในซอฟต์แวร์ เช่น CVE-2023-12345 เป็นต้น ทุกทีมความปลอดภัยทั่วโลกใช้มันในการแพตช์ ประสานงาน จัดการความเสี่ยง ฯลฯ เมื่อเร็ว ๆ นี้ MITRE (ผู้ดูแล CVE) ส่งจดหมายแจ้งว่าจะหมดสัญญากับรัฐบาลกลางในเดือนเมษายน 2025 และหากไม่มีการต่อสัญญา จะส่งผลให้ระบบแจ้งช่องโหว่ทั่วโลกหยุดชะงัก → โชคดีที่ CISA ขยายสัญญาอีก 11 เดือนทัน แม้ระเบิดจะยังไม่ลง แต่เหตุการณ์นี้ทำให้หลายฝ่ายรู้ว่า “ควรเริ่มหาแหล่งข้อมูลช่องโหว่สำรอง” เพราะ: - CVE มี backlog เพียบ (หลายช่องโหว่ยังไม่มีรหัส) - ช่องโหว่จำนวนมากถูกใช้โจมตีก่อนจะถูกใส่ใน CVE - การอัปเดตจาก NVD (หน่วยงานที่ใส่รายละเอียดให้ CVE) ช้ากว่าความเป็นจริงมาก ยุโรปจึงเร่งเปิดตัว EU Vulnerability Database (EUVD) เพื่อสร้างระบบแจ้งเตือนในภูมิภาคของตนเอง และหลายองค์กรเริ่มหันไปใช้บริการจากผู้ให้ข้อมูลเชิงลึกอื่น ๆ เช่น Flashpoint, VulnCheck, GitHub Advisory, HackerOne, BitSight เป็นต้น ✅ CVE ยังเป็นมาตรฐานกลางที่ใช้ระบุช่องโหว่ในระบบทั่วโลก   • เช่น CVE-2024-12345   • ทุกซอฟต์แวร์และเครื่องมือ patch management พึ่งพามัน ✅ เมื่อเมษายน 2025 CVE เกือบหยุดทำงานเพราะหมดสัญญา → CISA ต่ออายุอีก 11 เดือนทันเวลา • ทำให้หลายฝ่ายเริ่มตระหนักถึงความเสี่ยงด้าน “ความพึ่งพิงมากเกินไป” ✅ ปัญหาที่ CVE เจอ:   • Backlog ช่องโหว่ที่รอยืนยันจาก NVD จำนวนมาก   • ความล่าช้าในการใส่รายละเอียด CVSS, CWE, CPE   • ช่องโหว่บางอันถูกใช้โจมตีก่อนจะมี CVE ID ✅ ข้อมูลจาก Google GTIG ระบุว่า มีช่องโหว่ zero-day ถึง 75 รายการในปี 2024   • ส่วนใหญ่ถูกใช้โจมตีก่อนจะถูกเผยแพร่ใน CVE ✅ ยุโรปจึงเปิดตัว European Vulnerability Database (EUVD) ในปี 2025   • ดึงข้อมูลจากหลายแหล่ง   • มีหมวดแสดง critical, exploited, และช่องโหว่ที่ประสานในระดับ EU   • เน้นลดการพึ่ง CVE และสร้างความเป็นอิสระระดับภูมิภาค ✅ ผู้ให้บริการอื่นที่องค์กรควรพิจารณา:   • GitHub Advisory Database   • Flashpoint, VulnCheck, BitSight   • HackerOne / Bugcrowd   • ฐานข้อมูลระดับชาติ เช่น JPCERT, CNNVD, AusCERT   • CISA KEV (Known Exploited Vulnerabilities) ✅ แนวโน้ม: ต้องพึ่ง “Threat-informed prioritization” มากกว่ารอ CVE อย่างเดียว   • ใช้ปัจจัยเช่น exploit availability, asset exposure, ransomware targeting ในการตัดสินใจ patch https://www.csoonline.com/article/4008708/beyond-cve-the-hunt-for-other-sources-of-vulnerability-intel.html
    WWW.CSOONLINE.COM
    Beyond CVE: The hunt for other sources of vulnerability intel
    Were the CVE program to be discontinued, security teams would have a hard time finding one resource that would function with the same impact across the board. Here are current issues of relying on CVE and some existing options to look into.
    0 ความคิดเห็น 0 การแบ่งปัน 150 มุมมอง 0 รีวิว
  • เดิมที XDR เกิดขึ้นจากความพยายามรวมเครื่องมือด้านความปลอดภัยแยก ๆ อย่าง EDR (endpoint), NDR (network), SIEM (log) และ threat intel มารวมไว้ในแพลตฟอร์มเดียว เพื่อให้เห็น “ภาพรวมของภัย” แล้วตอบโต้ได้รวดเร็วขึ้น

    แต่ตอนนี้ตลาด XDR กำลังเข้าสู่ “การเปลี่ยนผ่านครั้งใหญ่” ที่ผู้ใช้ต้องจับตา:

    - ฟีเจอร์เยอะแต่ซับซ้อน → ทำให้หลายองค์กรโดยเฉพาะ SMB ใช้ไม่ไหว
    - ผู้ให้บริการเลยเริ่มเปิดบริการ “XDR-as-a-Service” ที่มีทีมพร้อมช่วยดูแล
    - ผู้ผลิตหลายเจ้ากำลังยัด AI เข้า XDR เพื่อให้แจ้งเตือนแม่นขึ้น
    - แต่พอบริษัททุกเจ้าพูดว่า “เราใส่ AI แล้ว!” — คนเริ่มงงว่าเจ้าไหนดีกว่ากัน
    - เกิดการควบรวมกิจการระหว่าง EDR-SIEM-NDR เพื่อสร้างแพลตฟอร์ม All-in-one
    - บริษัทที่ไม่อยากถูกผูกติดเจ้าหนึ่ง เริ่มใช้ Open XDR ที่เปิดให้ต่อกับโซลูชันอื่นได้

    XDR กำลังกลายเป็น “สนามแข่งใหม่ของ vendor ความปลอดภัย” ที่ทุกเจ้ากำลังพยายามสร้างจุดต่าง ขยายบริการ และรองรับลูกค้าได้หลากหลายยิ่งขึ้น

    AI กลายเป็นปัจจัยเร่งความสามารถของ XDR  
    • ใช้วิเคราะห์พฤติกรรม, กรอง false positive, enrich context และ trigger การตอบโต้

    เกิดการควบรวมกิจการอย่างต่อเนื่อง เช่น:  
    • SentinelOne ซื้อ Attivo  
    • CrowdStrike ขยายไปด้าน identity  
    • Palo Alto และ Microsoft ใช้กลยุทธ์ integration แทน acquisition

    แนวโน้ม Open XDR มาแรง — ออกแบบให้ทำงานข้ามระบบกับโซลูชันอื่นได้ง่ายขึ้น  
    • ใช้เทคโนโลยีเปิด เช่น Elasticsearch, Fluentd, Kafka

    เริ่มมีการใช้ “Managed XDR” ที่คล้าย XDR-as-a-Service แต่รวมการบริหารจัดการทั้งหมด (automation + human analyst)  
    • เน้นตอบโจทย์องค์กรที่ไม่มีทีมความปลอดภัยของตัวเอง

    XDR ส่วนใหญ่ไม่ได้ “พร้อมใช้” ทันที — ต้องปรับจูน, เขียน policy, เชื่อมระบบ ฯลฯ  
    • องค์กรที่ไม่มีทีม SOC จะใช้งานไม่เต็มประสิทธิภาพ

    XDR-as-a-Service หรือ Managed XDR ถ้าบริหารไม่ดี อาจกลายเป็น “จุดล่าช้าแทนที่จะลื่น”  
    • เช่น แบ่งสิทธิ์ไม่ชัด, แจ้งเตือนซ้ำซ้อน, ความสัมพันธ์กับระบบที่ใช้เดิมไม่ดี

    คำว่า “XDR ที่ใช้ AI” เริ่มถูกใช้ในเชิงการตลาดมากกว่าการใช้งานจริง  
    • ผู้ซื้อควรตรวจสอบว่า AI ถูกใช้ในระดับไหน: แค่ enrich log หรือ detect แบบพฤติกรรมจริง ๆ?

    แพลตฟอร์ม XDR แบบ proprietary อาจ lock-in กับ vendor รายใดรายหนึ่ง  
    • การเลือก Open XDR ช่วยลดข้อจำกัดแต่ซับซ้อนในการดูแลมากขึ้น

    https://www.csoonline.com/article/4012841/6-key-trends-redefining-the-xdr-market.html
    เดิมที XDR เกิดขึ้นจากความพยายามรวมเครื่องมือด้านความปลอดภัยแยก ๆ อย่าง EDR (endpoint), NDR (network), SIEM (log) และ threat intel มารวมไว้ในแพลตฟอร์มเดียว เพื่อให้เห็น “ภาพรวมของภัย” แล้วตอบโต้ได้รวดเร็วขึ้น แต่ตอนนี้ตลาด XDR กำลังเข้าสู่ “การเปลี่ยนผ่านครั้งใหญ่” ที่ผู้ใช้ต้องจับตา: - ฟีเจอร์เยอะแต่ซับซ้อน → ทำให้หลายองค์กรโดยเฉพาะ SMB ใช้ไม่ไหว - ผู้ให้บริการเลยเริ่มเปิดบริการ “XDR-as-a-Service” ที่มีทีมพร้อมช่วยดูแล - ผู้ผลิตหลายเจ้ากำลังยัด AI เข้า XDR เพื่อให้แจ้งเตือนแม่นขึ้น - แต่พอบริษัททุกเจ้าพูดว่า “เราใส่ AI แล้ว!” — คนเริ่มงงว่าเจ้าไหนดีกว่ากัน - เกิดการควบรวมกิจการระหว่าง EDR-SIEM-NDR เพื่อสร้างแพลตฟอร์ม All-in-one - บริษัทที่ไม่อยากถูกผูกติดเจ้าหนึ่ง เริ่มใช้ Open XDR ที่เปิดให้ต่อกับโซลูชันอื่นได้ XDR กำลังกลายเป็น “สนามแข่งใหม่ของ vendor ความปลอดภัย” ที่ทุกเจ้ากำลังพยายามสร้างจุดต่าง ขยายบริการ และรองรับลูกค้าได้หลากหลายยิ่งขึ้น ✅ AI กลายเป็นปัจจัยเร่งความสามารถของ XDR   • ใช้วิเคราะห์พฤติกรรม, กรอง false positive, enrich context และ trigger การตอบโต้ ✅ เกิดการควบรวมกิจการอย่างต่อเนื่อง เช่น:   • SentinelOne ซื้อ Attivo   • CrowdStrike ขยายไปด้าน identity   • Palo Alto และ Microsoft ใช้กลยุทธ์ integration แทน acquisition ✅ แนวโน้ม Open XDR มาแรง — ออกแบบให้ทำงานข้ามระบบกับโซลูชันอื่นได้ง่ายขึ้น   • ใช้เทคโนโลยีเปิด เช่น Elasticsearch, Fluentd, Kafka ✅ เริ่มมีการใช้ “Managed XDR” ที่คล้าย XDR-as-a-Service แต่รวมการบริหารจัดการทั้งหมด (automation + human analyst)   • เน้นตอบโจทย์องค์กรที่ไม่มีทีมความปลอดภัยของตัวเอง ‼️ XDR ส่วนใหญ่ไม่ได้ “พร้อมใช้” ทันที — ต้องปรับจูน, เขียน policy, เชื่อมระบบ ฯลฯ   • องค์กรที่ไม่มีทีม SOC จะใช้งานไม่เต็มประสิทธิภาพ ‼️ XDR-as-a-Service หรือ Managed XDR ถ้าบริหารไม่ดี อาจกลายเป็น “จุดล่าช้าแทนที่จะลื่น”   • เช่น แบ่งสิทธิ์ไม่ชัด, แจ้งเตือนซ้ำซ้อน, ความสัมพันธ์กับระบบที่ใช้เดิมไม่ดี ‼️ คำว่า “XDR ที่ใช้ AI” เริ่มถูกใช้ในเชิงการตลาดมากกว่าการใช้งานจริง   • ผู้ซื้อควรตรวจสอบว่า AI ถูกใช้ในระดับไหน: แค่ enrich log หรือ detect แบบพฤติกรรมจริง ๆ? ‼️ แพลตฟอร์ม XDR แบบ proprietary อาจ lock-in กับ vendor รายใดรายหนึ่ง   • การเลือก Open XDR ช่วยลดข้อจำกัดแต่ซับซ้อนในการดูแลมากขึ้น https://www.csoonline.com/article/4012841/6-key-trends-redefining-the-xdr-market.html
    WWW.CSOONLINE.COM
    6 key trends redefining the XDR market
    X marks the spot: Extended detection and response (XDR) continues to evolve, with XDR-as-a-service on the rise, AI developments reshaping what’s possible, and vendor movements aplenty.
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • Intel กำลังจะเปิดตัวซีพียูสายเดสก์ท็อปตัวใหม่ที่ชื่อว่า Nova Lake-S ซึ่งถ้าดูจากสไลด์ที่หลุดออกมา ตัวท็อปอย่าง Core Ultra 9 จะทำได้ดีทั้งงานเบา (single-threaded) และงานหนัก (multi-threaded) โดยเฉพาะงานหนักที่ทะลุ +60% จากรุ่น Arrow Lake-S เลยทีเดียว

    อะไรที่อยู่เบื้องหลังการพัฒนาแบบก้าวกระโดดนี้?
    - แกนประมวลผลมากขึ้น: รุ่นท็อปน่าจะมี 52 คอร์/เธรด!
    - โครงสร้างใหม่: ใช้คอร์ “Coyote Cove” สำหรับงานหลัก (P-core) + “Arctic Wolf” สำหรับงานเบา (E-core)
    - เพิ่มคอร์แบบ ultra-low power (LP-E) ที่เคยใช้ใน Meteor Lake เพื่อประหยัดพลังงานอีกด้วย
    - รองรับ RAM DDR5-8000 และ PCIe 5.0 เต็มเหนี่ยว
    - และที่สำคัญ...มี L4 cache หรือ “bLLC” ที่อาจคล้ายแนวคิด 3D V-cache ของ AMD ด้วย!

    แม้ยังไม่มีตัวเลข benchmark ทางการ แต่ถ้าทุกอย่างเป็นจริง Nova Lake อาจเปลี่ยนสมดุลตลาดซีพียูได้อีกครั้ง โดยเฉพาะกับงานเล่นเกมและ workstation ที่ต้องการ core เยอะและ cache หนา

    https://www.neowin.net/news/intel-nova-lake-alleged-performance-shows-massive-improvement-could-answer-amd-3d-v-cache/
    Intel กำลังจะเปิดตัวซีพียูสายเดสก์ท็อปตัวใหม่ที่ชื่อว่า Nova Lake-S ซึ่งถ้าดูจากสไลด์ที่หลุดออกมา ตัวท็อปอย่าง Core Ultra 9 จะทำได้ดีทั้งงานเบา (single-threaded) และงานหนัก (multi-threaded) โดยเฉพาะงานหนักที่ทะลุ +60% จากรุ่น Arrow Lake-S เลยทีเดียว อะไรที่อยู่เบื้องหลังการพัฒนาแบบก้าวกระโดดนี้? - แกนประมวลผลมากขึ้น: รุ่นท็อปน่าจะมี 52 คอร์/เธรด! - โครงสร้างใหม่: ใช้คอร์ “Coyote Cove” สำหรับงานหลัก (P-core) + “Arctic Wolf” สำหรับงานเบา (E-core) - เพิ่มคอร์แบบ ultra-low power (LP-E) ที่เคยใช้ใน Meteor Lake เพื่อประหยัดพลังงานอีกด้วย - รองรับ RAM DDR5-8000 และ PCIe 5.0 เต็มเหนี่ยว - และที่สำคัญ...มี L4 cache หรือ “bLLC” ที่อาจคล้ายแนวคิด 3D V-cache ของ AMD ด้วย! แม้ยังไม่มีตัวเลข benchmark ทางการ แต่ถ้าทุกอย่างเป็นจริง Nova Lake อาจเปลี่ยนสมดุลตลาดซีพียูได้อีกครั้ง โดยเฉพาะกับงานเล่นเกมและ workstation ที่ต้องการ core เยอะและ cache หนา https://www.neowin.net/news/intel-nova-lake-alleged-performance-shows-massive-improvement-could-answer-amd-3d-v-cache/
    WWW.NEOWIN.NET
    Intel Nova Lake alleged performance shows massive improvement, could answer AMD 3D V-cache
    Intel's official performance claims have allegedly leaked. Apparently, there could be a massive improvement thanks to more cores and a new 3D cache, similar to AMD's.
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • ก่อนหน้านี้เรามักเห็นจีนใช้ชิป Intel หรือ AMD เป็นหลักในดาต้าเซ็นเตอร์ หรือหน่วยงานวิจัย แต่ รัฐบาลจีนก็กระตุ้นอย่างหนักให้พัฒนา “ชิปพื้นบ้าน (homegrown)” ขึ้นมาใช้เองในระยะยาว โดย Loongson คือหนึ่งในบริษัทที่ถือธงนำทัพด้านนี้

    ล่าสุดพวกเขาเปิดตัว Loongson 3E6000 ซึ่งใช้สถาปัตยกรรม LoongArch 6000 พร้อมแกนประมวลผล LA664 รวมทั้งหมด 64 คอร์ 128 เธรด, ความเร็วสูงสุด 2.2 GHz, แคช 32MB และรองรับ DDR4-3200 แบบ quad-channel

    จุดน่าสนใจคือ ตัวชิปนี้ใช้เทคนิค “quad-chiplet” คือรวม 4 ชิปย่อยเชื่อมกันด้วยเทคโนโลยีที่ชื่อ LoongLink (คล้ายกับ Infinity Fabric หรือ NVLink) — ทำให้สร้างชิป 64 คอร์ได้แม้กระบวนการผลิตของจีนจะยังตามหลังตะวันตก

    แม้ยังมีจุดอ่อนด้าน floating-point แต่ผลการทดสอบใน Spec CPU 2017 ระบุว่า Loongson 3E6000 ทำคะแนน integer ได้สูงกว่า Xeon 8380 ถึง 35% (แต่แพ้ในด้าน floating-point อยู่ 14%)

    และที่สำคัญ…Loongson ยังพัฒนาแผนถัดไปไว้แล้ว เช่นรุ่น 3B6600 (8 คอร์, 3GHz) และ 3B7000 (แรงกว่านี้อีก) ที่ใช้คอร์รุ่นใหม่ LA864 ซึ่งหวังว่าจะชน Intel Raptor Lake หรือ AMD Zen 4 ได้เลยครับ

    https://www.tomshardware.com/pc-components/cpus/new-homegrown-china-server-chips-unveiled-with-impressive-specs-loongsons-3c6000-cpu-comes-armed-with-64-cores-128-threads-and-performance-to-rival-xeon-8380
    ก่อนหน้านี้เรามักเห็นจีนใช้ชิป Intel หรือ AMD เป็นหลักในดาต้าเซ็นเตอร์ หรือหน่วยงานวิจัย แต่ รัฐบาลจีนก็กระตุ้นอย่างหนักให้พัฒนา “ชิปพื้นบ้าน (homegrown)” ขึ้นมาใช้เองในระยะยาว โดย Loongson คือหนึ่งในบริษัทที่ถือธงนำทัพด้านนี้ ล่าสุดพวกเขาเปิดตัว Loongson 3E6000 ซึ่งใช้สถาปัตยกรรม LoongArch 6000 พร้อมแกนประมวลผล LA664 รวมทั้งหมด 64 คอร์ 128 เธรด, ความเร็วสูงสุด 2.2 GHz, แคช 32MB และรองรับ DDR4-3200 แบบ quad-channel จุดน่าสนใจคือ ตัวชิปนี้ใช้เทคนิค “quad-chiplet” คือรวม 4 ชิปย่อยเชื่อมกันด้วยเทคโนโลยีที่ชื่อ LoongLink (คล้ายกับ Infinity Fabric หรือ NVLink) — ทำให้สร้างชิป 64 คอร์ได้แม้กระบวนการผลิตของจีนจะยังตามหลังตะวันตก แม้ยังมีจุดอ่อนด้าน floating-point แต่ผลการทดสอบใน Spec CPU 2017 ระบุว่า Loongson 3E6000 ทำคะแนน integer ได้สูงกว่า Xeon 8380 ถึง 35% (แต่แพ้ในด้าน floating-point อยู่ 14%) และที่สำคัญ…Loongson ยังพัฒนาแผนถัดไปไว้แล้ว เช่นรุ่น 3B6600 (8 คอร์, 3GHz) และ 3B7000 (แรงกว่านี้อีก) ที่ใช้คอร์รุ่นใหม่ LA864 ซึ่งหวังว่าจะชน Intel Raptor Lake หรือ AMD Zen 4 ได้เลยครับ https://www.tomshardware.com/pc-components/cpus/new-homegrown-china-server-chips-unveiled-with-impressive-specs-loongsons-3c6000-cpu-comes-armed-with-64-cores-128-threads-and-performance-to-rival-xeon-8380
    0 ความคิดเห็น 0 การแบ่งปัน 159 มุมมอง 0 รีวิว
  • DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital

    แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก

    สิ่งที่น่าห่วงคือ:
    - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด
    - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร
    - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน

    นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    DeepSeek เป็นบริษัท AI สัญชาติจีนที่สร้างชื่อจากโมเดลภาษาขั้นสูง “R1” ซึ่งเคยเทรนด้วย GPU มากถึง 50,000 ตัว (รวม H20, H800, H100) ที่ได้มาจากกองทุน High-Flyer Capital แต่ตอนนี้ปัญหาคือ H20 กลายเป็นชิปต้องห้าม จากมาตรการคุมส่งออกของรัฐบาลสหรัฐฯ — ซึ่งเกิดขึ้นตั้งแต่กลางเดือนเมษายนที่ผ่านมา ทำให้ DeepSeek ไม่สามารถหา GPU ใหม่มาใช้งานได้อีก สิ่งที่น่าห่วงคือ: - ผู้ใช้งานของ R1 จำนวนมากรันอยู่บน H20 → ตอนนี้เริ่มใช้งานติดขัด - R2 ยังไม่เสร็จดี ซีอีโอของ DeepSeek ก็ยังไม่พอใจผลลัพธ์เท่าที่ควร - ถ้า R2 เปิดตัวได้ไม่แรงพอ อาจเสียจังหวะให้คู่แข่งคนอื่นแซงในตลาด LLM จีน นี่สะท้อนว่าบริษัท AI จีนยังพึ่งพา ฮาร์ดแวร์ + ซอฟต์แวร์จากสหรัฐฯ อย่างลึกซึ้งมาก โดยเฉพาะ CUDA stack ของ Nvidia ที่ยังไม่มีทางออกที่เทียบเท่าได้ง่าย ๆ https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-disruptor-deepseeks-next-gen-model-delayed-by-nvidia-h20-restrictions-short-supply-of-accelerators-hinders-development
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • ใครที่รู้จัก Raspberry Pi ก็คงคุ้นกับคำว่า SBC (Single-Board Computer) — คือคอมพิวเตอร์ย่อส่วนที่ประกอบทุกอย่างไว้บนแผ่นเดียว มีพอร์ตครบ ใช้ต่อใช้งานได้เลย ซึ่งปกติพวกนี้จะใช้ชิป ARM แบบเบา ๆ

    แต่ de next-RAP8 จาก AAEON มัน “ยกระดับทั้งวงการ” เพราะใช้ Intel Core i3/i5/i7 รุ่น U-Series (15W) ได้จริง บนบอร์ดขนาด 84 x 55 mm — แค่กว้างยาวกว่า Raspberry Pi 5 ไม่กี่มิล!

    สิ่งที่น่าทึ่งคือสเปกมันเทียบกับโน้ตบุ๊ก mid-range ได้เลย:
    - CPU สูงสุดถึง i7-1365UE (10 คอร์ / 12 เทรด)
    - RAM LPDDR5x สูงสุด 16GB
    - iGPU Intel Iris Xe รองรับ media acceleration
    - พอร์ต Ethernet x2, USB 3.2 Gen 2, HDMI, GPIO, และ M.2 สำหรับใส่ Wi-Fi/4G/SSD
    - มีโมดูลเสริมของ AAEON สำหรับ AI acceleration และการเชื่อมต่อแบบพิเศษ (ผ่าน PCIe/FPC)

    แต่แน่นอน มันไม่ได้ออกแบบมาสำหรับใช้เป็นคอมพิวเตอร์สำนักงานทั่วไป เพราะต้องใช้ความรู้เชิงเทคนิคเยอะ โดยเฉพาะการต่อกับอุปกรณ์ในโรงงาน, หุ่นยนต์, หรือโดรนแบบ custom

    de next-RAP8 จาก AAEON เป็น SBC ขนาด 84mm x 55mm ที่มาพร้อม Intel Core 13th Gen  
    • รองรับ Core i3-1315UE, i5-1335UE หรือ i7-1365UE  
    • ใช้พลังงานต่ำเพียง 15W เทียบกับพีซีขนาดใหญ่

    สเปกเทียบเท่าคอมพิวเตอร์ระดับโน้ตบุ๊ก:  
    • RAM LPDDR5x สูงสุด 16GB  
    • iGPU Iris Xe รองรับการประมวลผล media และกราฟิกเบา ๆ

    การเชื่อมต่อครบครัน:  
    • Ethernet 2.5GbE และ 1GbE, USB 3.2 Gen 2, HDMI 1.2a, 12V DC  
    • 40-pin header รองรับ GPIO, USB 2.0, RS-232/422/485, SMBus/I2C

    รองรับ M.2 2280 และ FPC connector สำหรับต่อ AI module, SSD หรือ Wi-Fi/4G  
    • มีโมดูลเสริม เช่น PER-T642 หรือ PER-R41P สำหรับเพิ่มพลัง AI หรืออุปกรณ์ industrial

    ออกแบบมาเพื่อใช้งานในระบบ edge computing, หุ่นยนต์, โดรน, คีออส, หรือ embedded system อื่น ๆ  
    • รองรับการทำงานในพื้นที่จำกัดที่ต้องใช้กำลังประมวลผลสูง

    https://www.techradar.com/pro/this-intel-core-i7-motherboard-is-probably-the-worlds-most-powerful-sbc-and-yet-it-is-as-small-as-the-raspberry-pi-5
    ใครที่รู้จัก Raspberry Pi ก็คงคุ้นกับคำว่า SBC (Single-Board Computer) — คือคอมพิวเตอร์ย่อส่วนที่ประกอบทุกอย่างไว้บนแผ่นเดียว มีพอร์ตครบ ใช้ต่อใช้งานได้เลย ซึ่งปกติพวกนี้จะใช้ชิป ARM แบบเบา ๆ แต่ de next-RAP8 จาก AAEON มัน “ยกระดับทั้งวงการ” เพราะใช้ Intel Core i3/i5/i7 รุ่น U-Series (15W) ได้จริง บนบอร์ดขนาด 84 x 55 mm — แค่กว้างยาวกว่า Raspberry Pi 5 ไม่กี่มิล! สิ่งที่น่าทึ่งคือสเปกมันเทียบกับโน้ตบุ๊ก mid-range ได้เลย: - CPU สูงสุดถึง i7-1365UE (10 คอร์ / 12 เทรด) - RAM LPDDR5x สูงสุด 16GB - iGPU Intel Iris Xe รองรับ media acceleration - พอร์ต Ethernet x2, USB 3.2 Gen 2, HDMI, GPIO, และ M.2 สำหรับใส่ Wi-Fi/4G/SSD - มีโมดูลเสริมของ AAEON สำหรับ AI acceleration และการเชื่อมต่อแบบพิเศษ (ผ่าน PCIe/FPC) แต่แน่นอน มันไม่ได้ออกแบบมาสำหรับใช้เป็นคอมพิวเตอร์สำนักงานทั่วไป เพราะต้องใช้ความรู้เชิงเทคนิคเยอะ โดยเฉพาะการต่อกับอุปกรณ์ในโรงงาน, หุ่นยนต์, หรือโดรนแบบ custom ✅ de next-RAP8 จาก AAEON เป็น SBC ขนาด 84mm x 55mm ที่มาพร้อม Intel Core 13th Gen   • รองรับ Core i3-1315UE, i5-1335UE หรือ i7-1365UE   • ใช้พลังงานต่ำเพียง 15W เทียบกับพีซีขนาดใหญ่ ✅ สเปกเทียบเท่าคอมพิวเตอร์ระดับโน้ตบุ๊ก:   • RAM LPDDR5x สูงสุด 16GB   • iGPU Iris Xe รองรับการประมวลผล media และกราฟิกเบา ๆ ✅ การเชื่อมต่อครบครัน:   • Ethernet 2.5GbE และ 1GbE, USB 3.2 Gen 2, HDMI 1.2a, 12V DC   • 40-pin header รองรับ GPIO, USB 2.0, RS-232/422/485, SMBus/I2C ✅ รองรับ M.2 2280 และ FPC connector สำหรับต่อ AI module, SSD หรือ Wi-Fi/4G   • มีโมดูลเสริม เช่น PER-T642 หรือ PER-R41P สำหรับเพิ่มพลัง AI หรืออุปกรณ์ industrial ✅ ออกแบบมาเพื่อใช้งานในระบบ edge computing, หุ่นยนต์, โดรน, คีออส, หรือ embedded system อื่น ๆ   • รองรับการทำงานในพื้นที่จำกัดที่ต้องใช้กำลังประมวลผลสูง https://www.techradar.com/pro/this-intel-core-i7-motherboard-is-probably-the-worlds-most-powerful-sbc-and-yet-it-is-as-small-as-the-raspberry-pi-5
    0 ความคิดเห็น 0 การแบ่งปัน 160 มุมมอง 0 รีวิว
  • ปกติ AI จะกินพลัง GPU อยู่แล้วใช่ไหมครับ แต่ตอนนี้แม้ GPU จะเร็วระดับหลายเทราไบต์ต่อวินาที (TB/s) แต่การโหลดข้อมูลจาก SSD กลายเป็นตัวถ่วงรุ่นใหม่แบบเต็ม ๆ โดยเฉพาะข้อมูลขนาดเล็ก ๆ ที่อ่านแบบสุ่ม (เช่น 512 ไบต์) ซึ่งโมเดล AI อย่าง LLM ชอบใช้มาก

    Nvidia เลยเสนอแนวคิด “AI SSD” ที่จะต้องอ่านข้อมูลได้เร็วถึง 100 ล้าน IOPS! แต่ Wallace Kuo ซีอีโอของ Silicon Motion ซึ่งเป็นผู้ผลิตคอนโทรลเลอร์ SSD รายใหญ่บอกว่า “ตอนนี้ยังไม่มี media (วัสดุจัดเก็บ) ที่ทำได้จริง” และต่อให้ tweak NAND เดิมก็อาจไม่เพียงพอ ต้อง “เปลี่ยนชนิดหน่วยความจำทั้งระบบเลย”

    ปัจจุบัน SSD PCIe 5.0 ระดับท็อปก็ทำได้แค่ประมาณ 2–3 ล้าน IOPS เท่านั้น — เทียบกับเป้าหมายของ Nvidia คือห่างกันถึงเกือบ 50 เท่า!

    Nvidia ตั้งเป้า SSD ที่รองรับได้ 100 ล้าน IOPS เพื่อ AI workloads ในอนาคต  
    • เน้นเฉพาะการอ่านข้อมูลสุ่มขนาดเล็ก (512B random read) ซึ่งเป็นจุดอ่อนสำคัญในระบบ AI

    Wallace Kuo จาก Silicon Motion กล่าวว่าเทคโนโลยี NAND flash ปัจจุบันยังทำไม่ได้  
    • แม้จะปรับคอนโทรลเลอร์หรือโครงสร้าง SSD ก็ยังชนเพดาน

    Kioxia กำลังพัฒนา AI SSD ด้วย XL-Flash ที่ตั้งเป้าเกิน 10 ล้าน IOPS  
    • คาดว่าเปิดตัวพร้อมกับแพลตฟอร์ม Vera Rubin ของ Nvidia ปีหน้า

    แนวคิดทางเลือก เช่น Optane ของ Intel เคยถูกคาดหวังไว้สูง แต่เลิกผลิตไปแล้ว  
    • SanDisk พัฒนา High Bandwidth Flash, แต่หลายฝ่ายยังไม่มั่นใจประสิทธิภาพ

    Micron และบริษัทอื่นกำลังเร่งวิจัย media แบบใหม่ เช่น  
    • Non-volatile memory รุ่นใหม่, HBM storage-integrated, หรือ phase-change memory

    https://www.techradar.com/pro/security/towards-the-giga-iops-pipedream-how-nvidia-wants-to-reach-100-million-iops-even-if-it-means-inventing-totally-new-types-of-memory
    ปกติ AI จะกินพลัง GPU อยู่แล้วใช่ไหมครับ แต่ตอนนี้แม้ GPU จะเร็วระดับหลายเทราไบต์ต่อวินาที (TB/s) แต่การโหลดข้อมูลจาก SSD กลายเป็นตัวถ่วงรุ่นใหม่แบบเต็ม ๆ โดยเฉพาะข้อมูลขนาดเล็ก ๆ ที่อ่านแบบสุ่ม (เช่น 512 ไบต์) ซึ่งโมเดล AI อย่าง LLM ชอบใช้มาก Nvidia เลยเสนอแนวคิด “AI SSD” ที่จะต้องอ่านข้อมูลได้เร็วถึง 100 ล้าน IOPS! แต่ Wallace Kuo ซีอีโอของ Silicon Motion ซึ่งเป็นผู้ผลิตคอนโทรลเลอร์ SSD รายใหญ่บอกว่า “ตอนนี้ยังไม่มี media (วัสดุจัดเก็บ) ที่ทำได้จริง” และต่อให้ tweak NAND เดิมก็อาจไม่เพียงพอ ต้อง “เปลี่ยนชนิดหน่วยความจำทั้งระบบเลย” ปัจจุบัน SSD PCIe 5.0 ระดับท็อปก็ทำได้แค่ประมาณ 2–3 ล้าน IOPS เท่านั้น — เทียบกับเป้าหมายของ Nvidia คือห่างกันถึงเกือบ 50 เท่า! ✅ Nvidia ตั้งเป้า SSD ที่รองรับได้ 100 ล้าน IOPS เพื่อ AI workloads ในอนาคต   • เน้นเฉพาะการอ่านข้อมูลสุ่มขนาดเล็ก (512B random read) ซึ่งเป็นจุดอ่อนสำคัญในระบบ AI ✅ Wallace Kuo จาก Silicon Motion กล่าวว่าเทคโนโลยี NAND flash ปัจจุบันยังทำไม่ได้   • แม้จะปรับคอนโทรลเลอร์หรือโครงสร้าง SSD ก็ยังชนเพดาน ✅ Kioxia กำลังพัฒนา AI SSD ด้วย XL-Flash ที่ตั้งเป้าเกิน 10 ล้าน IOPS   • คาดว่าเปิดตัวพร้อมกับแพลตฟอร์ม Vera Rubin ของ Nvidia ปีหน้า ✅ แนวคิดทางเลือก เช่น Optane ของ Intel เคยถูกคาดหวังไว้สูง แต่เลิกผลิตไปแล้ว   • SanDisk พัฒนา High Bandwidth Flash, แต่หลายฝ่ายยังไม่มั่นใจประสิทธิภาพ ✅ Micron และบริษัทอื่นกำลังเร่งวิจัย media แบบใหม่ เช่น   • Non-volatile memory รุ่นใหม่, HBM storage-integrated, หรือ phase-change memory https://www.techradar.com/pro/security/towards-the-giga-iops-pipedream-how-nvidia-wants-to-reach-100-million-iops-even-if-it-means-inventing-totally-new-types-of-memory
    0 ความคิดเห็น 0 การแบ่งปัน 161 มุมมอง 0 รีวิว
  • ถ้าตามข่าว Intel ช่วงนี้จะรู้เลยว่า “กำลังปรับองค์กรแบบยกเครื่อง” — ตั้งแต่สายการผลิต Fab ยันหน่วยพัฒนาชิป AI แต่คราวนี้แรงสุดคือการเลย์ออฟพนักงาน “เชิงเทคนิค” ที่เดิมทีถือเป็นหัวใจของบริษัท

    มีการยืนยันว่า Intel จะไล่พนักงานออกในหลายตำแหน่งสำคัญ เช่น:
    - วิศวกรออกแบบวงจร (Physical Design Engineers)
    - ผู้จัดการสายวิศวกรรม
    - สถาปนิกซอฟต์แวร์ Cloud
    - ผู้นำด้านกลยุทธ์ไอที และรองประธานฝ่ายไอที

    และยิ่งไปกว่านั้นคือการ ปิดหน่วยพัฒนาชิปสำหรับรถยนต์ ที่เคยตั้งอยู่ในเยอรมนี — ซึ่งมีภารกิจสร้างระบบสำหรับ “รถยนต์ขับเองได้” (software-defined vehicles) และเคยเป็นแผนกที่มีอิสระสูงมาก

    สิ่งที่ Tan กล่าวในจดหมายภายในคือ “ต่อไปนี้ ผู้นำที่ดีไม่ใช่คนที่มีลูกทีมเยอะ — แต่คือต้องทำให้ได้มากที่สุดด้วยทีมที่เล็กที่สุด” พร้อมประกาศว่า จะเลย์ออฟ 15–20% ของทั้งบริษัทในปีนี้ เพื่อลดค่าใช้จ่ายและเร่งการตัดสินใจในองค์กร

    https://www.tomshardware.com/pc-components/cpus/intel-lays-off-hundreds-of-engineers-in-california-including-chip-design-engineers-automotive-chip-division-also-axed
    ถ้าตามข่าว Intel ช่วงนี้จะรู้เลยว่า “กำลังปรับองค์กรแบบยกเครื่อง” — ตั้งแต่สายการผลิต Fab ยันหน่วยพัฒนาชิป AI แต่คราวนี้แรงสุดคือการเลย์ออฟพนักงาน “เชิงเทคนิค” ที่เดิมทีถือเป็นหัวใจของบริษัท มีการยืนยันว่า Intel จะไล่พนักงานออกในหลายตำแหน่งสำคัญ เช่น: - วิศวกรออกแบบวงจร (Physical Design Engineers) - ผู้จัดการสายวิศวกรรม - สถาปนิกซอฟต์แวร์ Cloud - ผู้นำด้านกลยุทธ์ไอที และรองประธานฝ่ายไอที และยิ่งไปกว่านั้นคือการ ปิดหน่วยพัฒนาชิปสำหรับรถยนต์ ที่เคยตั้งอยู่ในเยอรมนี — ซึ่งมีภารกิจสร้างระบบสำหรับ “รถยนต์ขับเองได้” (software-defined vehicles) และเคยเป็นแผนกที่มีอิสระสูงมาก สิ่งที่ Tan กล่าวในจดหมายภายในคือ “ต่อไปนี้ ผู้นำที่ดีไม่ใช่คนที่มีลูกทีมเยอะ — แต่คือต้องทำให้ได้มากที่สุดด้วยทีมที่เล็กที่สุด” พร้อมประกาศว่า จะเลย์ออฟ 15–20% ของทั้งบริษัทในปีนี้ เพื่อลดค่าใช้จ่ายและเร่งการตัดสินใจในองค์กร https://www.tomshardware.com/pc-components/cpus/intel-lays-off-hundreds-of-engineers-in-california-including-chip-design-engineers-automotive-chip-division-also-axed
    0 ความคิดเห็น 0 การแบ่งปัน 115 มุมมอง 0 รีวิว
  • ลองนึกภาพดูว่าในศูนย์ข้อมูลหนึ่ง มีงานมากมายที่ IT ต้องจัดการทุกวัน เช่น แก้ไข network, config storage, เช็ก log, ปรับโหลด cloud — ทั้งหมดนี้ใช้เวลาและต้องการผู้เชี่ยวชาญหลายคน

    แต่ HPE กำลังจะเปลี่ยนสิ่งเหล่านั้นให้กลายเป็น “การสนทนากับ agent” — คุณแค่ถามในสไตล์แชต แล้ว AI จะประมวลผลข้อมูล, หา insight, เสนอทางแก้ หรือ บางทียังทำแทนให้เองเลยด้วยซ้ำ (แต่ยังให้คุณกดยืนยันก่อนเสมอ)

    หัวใจอยู่ที่ GreenLake Intelligence ซึ่งมี multi-agent system ที่ทำหน้าที่เฉพาะ เช่น จัดการ storage, monitor network, สร้าง dashboard, หรือคุยกับระบบ cloud อื่นได้ — และมี “GreenLake Copilot” เป็นอินเทอร์เฟซแบบแชต ช่วยให้คนไอทีใช้งานง่ายแบบไม่ต้องพิมพ์โค้ด

    นอกจากนี้ HPE ยังพัฒนา hardware และ software เสริมชุดใหญ่ เช่น AI Factory รุ่นใหม่ที่ใช้ Nvidia Blackwell GPU, ระบบ CloudOps, และหน่วยเก็บข้อมูล Alletra X10000 ที่รองรับการวิเคราะห์ context ระดับระบบ (ผ่านโปรโตคอล MCP)

    HPE เปิดตัว GreenLake Intelligence พร้อมแนวคิด AgenticOps  
    • ใช้ AI agents ทำงานซ้ำซ้อนในระบบ IT แทนคนได้ (แต่มี human-in-the-loop)  
    • ครอบคลุมงาน config, observability, storage, network และ more

    GreenLake Copilot คืออินเทอร์เฟซแบบแชตที่ให้คุยกับ AI ได้ทันที  
    • ใช้ภาษาธรรมดาถามเรื่อง log, ปัญหา network, ความเสถียรระบบ ฯลฯ  
    • ทำงานร่วมกับ LLM และ ML ที่เทรนจากข้อมูลองค์กร

    ตัวอย่างการใช้งานที่น่าสนใจ:  
    • Aruba Central ใช้ GreenLake Copilot ในการจัดการเครือข่ายแบบ real-time  
    • สร้าง visual dashboard จาก log อัตโนมัติ  
    • เสนอวิธีแก้ปัญหาแบบทีละขั้น หรือลงมือทำแทนได้

    HPE เสริมด้วย CloudOps (รวม OpsRamp, Morpheus, Zerto)  
    • ใช้ GenAI ช่วยจัดการ observability, virtualization, และความปลอดภัยของ data

    เปิดตัว AI Factory Gen 2 ที่ใช้ Nvidia Blackwell RTX Pro 6000  
    • รองรับการประมวลผล AI model สำหรับองค์กรโดยเฉพาะ  
    • ใช้งานร่วมกับระบบของคู่แข่งได้ (เช่น OpsRamp ใช้กับ AI Factory ทุกแบรนด์)

    ระบบเก็บข้อมูล Alletra X10000 รองรับ MCP (Media Context Protocol)  
    • เชื่อมโยงกับ AI/LLM ได้โดยตรง  
    • ส่งข้อมูลระหว่าง server, storage, observability tools ได้รวดเร็ว

    ลุงจะตกงานแล้วววววว !!!

    https://www.techspot.com/news/108437-hpe-greenlake-intelligence-brings-agentic-ai-operations.html
    ลองนึกภาพดูว่าในศูนย์ข้อมูลหนึ่ง มีงานมากมายที่ IT ต้องจัดการทุกวัน เช่น แก้ไข network, config storage, เช็ก log, ปรับโหลด cloud — ทั้งหมดนี้ใช้เวลาและต้องการผู้เชี่ยวชาญหลายคน แต่ HPE กำลังจะเปลี่ยนสิ่งเหล่านั้นให้กลายเป็น “การสนทนากับ agent” — คุณแค่ถามในสไตล์แชต แล้ว AI จะประมวลผลข้อมูล, หา insight, เสนอทางแก้ หรือ บางทียังทำแทนให้เองเลยด้วยซ้ำ (แต่ยังให้คุณกดยืนยันก่อนเสมอ) หัวใจอยู่ที่ GreenLake Intelligence ซึ่งมี multi-agent system ที่ทำหน้าที่เฉพาะ เช่น จัดการ storage, monitor network, สร้าง dashboard, หรือคุยกับระบบ cloud อื่นได้ — และมี “GreenLake Copilot” เป็นอินเทอร์เฟซแบบแชต ช่วยให้คนไอทีใช้งานง่ายแบบไม่ต้องพิมพ์โค้ด นอกจากนี้ HPE ยังพัฒนา hardware และ software เสริมชุดใหญ่ เช่น AI Factory รุ่นใหม่ที่ใช้ Nvidia Blackwell GPU, ระบบ CloudOps, และหน่วยเก็บข้อมูล Alletra X10000 ที่รองรับการวิเคราะห์ context ระดับระบบ (ผ่านโปรโตคอล MCP) ✅ HPE เปิดตัว GreenLake Intelligence พร้อมแนวคิด AgenticOps   • ใช้ AI agents ทำงานซ้ำซ้อนในระบบ IT แทนคนได้ (แต่มี human-in-the-loop)   • ครอบคลุมงาน config, observability, storage, network และ more ✅ GreenLake Copilot คืออินเทอร์เฟซแบบแชตที่ให้คุยกับ AI ได้ทันที   • ใช้ภาษาธรรมดาถามเรื่อง log, ปัญหา network, ความเสถียรระบบ ฯลฯ   • ทำงานร่วมกับ LLM และ ML ที่เทรนจากข้อมูลองค์กร ✅ ตัวอย่างการใช้งานที่น่าสนใจ:   • Aruba Central ใช้ GreenLake Copilot ในการจัดการเครือข่ายแบบ real-time   • สร้าง visual dashboard จาก log อัตโนมัติ   • เสนอวิธีแก้ปัญหาแบบทีละขั้น หรือลงมือทำแทนได้ ✅ HPE เสริมด้วย CloudOps (รวม OpsRamp, Morpheus, Zerto)   • ใช้ GenAI ช่วยจัดการ observability, virtualization, และความปลอดภัยของ data ✅ เปิดตัว AI Factory Gen 2 ที่ใช้ Nvidia Blackwell RTX Pro 6000   • รองรับการประมวลผล AI model สำหรับองค์กรโดยเฉพาะ   • ใช้งานร่วมกับระบบของคู่แข่งได้ (เช่น OpsRamp ใช้กับ AI Factory ทุกแบรนด์) ✅ ระบบเก็บข้อมูล Alletra X10000 รองรับ MCP (Media Context Protocol)   • เชื่อมโยงกับ AI/LLM ได้โดยตรง   • ส่งข้อมูลระหว่าง server, storage, observability tools ได้รวดเร็ว ลุงจะตกงานแล้วววววว !!! 😭😭 https://www.techspot.com/news/108437-hpe-greenlake-intelligence-brings-agentic-ai-operations.html
    WWW.TECHSPOT.COM
    HPE's GreenLake intelligence brings agentic AI to IT operations
    In case you haven't heard, GenAI is old news. Now, it's all about agentic AI. At least, that certainly seems to be the theme based on the...
    0 ความคิดเห็น 0 การแบ่งปัน 200 มุมมอง 0 รีวิว
  • ย้อนกลับไปปี 2019 Microsoft ลงเงิน $1,000 ล้านเพื่อหนุน OpenAI และให้บริการบน Azure — จนกลายเป็นหุ้นส่วนหลักของกันและกันมาจนถึงทุกวันนี้

    แต่ล่าสุดมีรายงานจาก The Information ว่าในสัญญาระหว่างสองฝ่าย มีข้อกำหนดหนึ่งที่เริ่ม “ขัดกันอย่างแรง” — ข้อกำหนดนั้นคือ:

    > “เมื่อ OpenAI สร้าง AGI ได้ Microsoft จะ ไม่มีสิทธิ์เข้าถึงเทคโนโลยีนั้นอีกต่อไป”

    ใช่ครับ…ต่อให้ Microsoft เป็นผู้ลงทุนใหญ่ และใช้ GPT ในบริการทั่วโลก พวกเขาก็จะถูก “ตัดสิทธิ์” เมื่อ AGI เกิดขึ้นจริง

    แน่นอนว่า Microsoft ไม่พอใจ จึงพยายามเจรจาขอแก้ไขเงื่อนไข แต่ฝั่ง OpenAI ยังยืนกรานไม่ยอมเปลี่ยนแปลง — ความตึงเครียดเลยเกิดขึ้นกลางความสัมพันธ์ที่เคยแน่นแฟ้น

    เรื่องนี้ยังเชื่อมโยงกับการที่ OpenAI กำลังจะเปลี่ยนสถานะเป็น “Public-Benefit Corporation” ซึ่งต้องอาศัยความเห็นชอบจาก Microsoft — แต่ก็ยังตกลงรายละเอียดกันไม่ได้ แม้จะคุยกันมาหลายเดือนแล้วก็ตาม

    OpenAI และ Microsoft กำลังมีข้อขัดแย้งเรื่อง “สิทธิ์เข้าถึงเทคโนโลยี AGI” ตามข้อตกลงเดิม  
    • เมื่อ OpenAI พัฒนา AGI ได้ Microsoft จะหมดสิทธิ์ใช้เทคโนโลยีนั้น  
    • Microsoft ต้องการเปลี่ยนเงื่อนไข แต่ OpenAI ไม่ยอม

    ทั้งสองฝ่ายออกแถลงการณ์ร่วมว่า “ความร่วมมือยังต่อเนื่องอยู่” และ “กำลังพูดคุยกันอย่างสร้างสรรค์”  
    • แต่รายงานระบุว่าความสัมพันธ์เริ่ม “มีรอยร้าว” ชัดเจน

    OpenAI ต้องการเปลี่ยนสถานะเป็น Public-Benefit Corporation  
    • กระบวนการนี้ต้องได้รับความเห็นชอบจาก Microsoft ซึ่งยังตกลงกันไม่ได้

    Microsoft ลงทุนใน OpenAI มาตั้งแต่ปี 2019 ด้วยเงิน $1 พันล้าน + ให้บริการผ่าน Azure AI  
    • ถือเป็นพันธมิตรที่สำคัญที่สุดของกันและกัน

    https://www.thestar.com.my/tech/tech-news/2025/06/26/microsoft-and-openai-dueling-over-artificial-general-intelligence-the-information-reports
    ย้อนกลับไปปี 2019 Microsoft ลงเงิน $1,000 ล้านเพื่อหนุน OpenAI และให้บริการบน Azure — จนกลายเป็นหุ้นส่วนหลักของกันและกันมาจนถึงทุกวันนี้ แต่ล่าสุดมีรายงานจาก The Information ว่าในสัญญาระหว่างสองฝ่าย มีข้อกำหนดหนึ่งที่เริ่ม “ขัดกันอย่างแรง” — ข้อกำหนดนั้นคือ: > “เมื่อ OpenAI สร้าง AGI ได้ Microsoft จะ ไม่มีสิทธิ์เข้าถึงเทคโนโลยีนั้นอีกต่อไป” ใช่ครับ…ต่อให้ Microsoft เป็นผู้ลงทุนใหญ่ และใช้ GPT ในบริการทั่วโลก พวกเขาก็จะถูก “ตัดสิทธิ์” เมื่อ AGI เกิดขึ้นจริง แน่นอนว่า Microsoft ไม่พอใจ จึงพยายามเจรจาขอแก้ไขเงื่อนไข แต่ฝั่ง OpenAI ยังยืนกรานไม่ยอมเปลี่ยนแปลง — ความตึงเครียดเลยเกิดขึ้นกลางความสัมพันธ์ที่เคยแน่นแฟ้น เรื่องนี้ยังเชื่อมโยงกับการที่ OpenAI กำลังจะเปลี่ยนสถานะเป็น “Public-Benefit Corporation” ซึ่งต้องอาศัยความเห็นชอบจาก Microsoft — แต่ก็ยังตกลงรายละเอียดกันไม่ได้ แม้จะคุยกันมาหลายเดือนแล้วก็ตาม ✅ OpenAI และ Microsoft กำลังมีข้อขัดแย้งเรื่อง “สิทธิ์เข้าถึงเทคโนโลยี AGI” ตามข้อตกลงเดิม   • เมื่อ OpenAI พัฒนา AGI ได้ Microsoft จะหมดสิทธิ์ใช้เทคโนโลยีนั้น   • Microsoft ต้องการเปลี่ยนเงื่อนไข แต่ OpenAI ไม่ยอม ✅ ทั้งสองฝ่ายออกแถลงการณ์ร่วมว่า “ความร่วมมือยังต่อเนื่องอยู่” และ “กำลังพูดคุยกันอย่างสร้างสรรค์”   • แต่รายงานระบุว่าความสัมพันธ์เริ่ม “มีรอยร้าว” ชัดเจน ✅ OpenAI ต้องการเปลี่ยนสถานะเป็น Public-Benefit Corporation   • กระบวนการนี้ต้องได้รับความเห็นชอบจาก Microsoft ซึ่งยังตกลงกันไม่ได้ ✅ Microsoft ลงทุนใน OpenAI มาตั้งแต่ปี 2019 ด้วยเงิน $1 พันล้าน + ให้บริการผ่าน Azure AI   • ถือเป็นพันธมิตรที่สำคัญที่สุดของกันและกัน https://www.thestar.com.my/tech/tech-news/2025/06/26/microsoft-and-openai-dueling-over-artificial-general-intelligence-the-information-reports
    WWW.THESTAR.COM.MY
    Microsoft and OpenAI dueling over artificial general intelligence, The Information reports
    (Reuters) -Microsoft and OpenAI are at odds over a contractual provision related to artificial general intelligence, The Information reported on Wednesday.
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • เทคโนโลยี AI กับแนวทางศาสนาพุทธ: จุดบรรจบและความขัดแย้ง

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) ก้าวหน้าอย่างรวดเร็ว การพิจารณาความสัมพันธ์ระหว่าง AI กับหลักปรัชญาและจริยธรรมของพุทธศาสนาจึงเป็นสิ่งจำเป็น รายงานฉบับนี้จะสำรวจจุดที่ AI สามารถเสริมสร้างและสอดคล้องกับพุทธธรรม รวมถึงประเด็นความขัดแย้งเชิงปรัชญาและจริยธรรม เพื่อนำเสนอแนวทางในการพัฒนาและใช้ AI อย่างมีสติและเป็นประโยชน์สูงสุด

    หลักการพื้นฐานของพุทธศาสนา: แก่นธรรมเพื่อความเข้าใจ
    พุทธศาสนามุ่งเน้นการพ้นทุกข์ โดยสอนให้เข้าใจธรรมชาติของทุกข์และหนทางดับทุกข์ผ่านหลักอริยสัจสี่ (ทุกข์, สมุทัย, นิโรธ, มรรค) หนทางแห่งมรรคประกอบด้วยองค์แปดประการ แก่นธรรมสำคัญอื่นๆ ได้แก่ ไตรลักษณ์ (อนิจจัง, ทุกขัง, อนัตตา) การปฏิบัติอยู่บนพื้นฐานของไตรสิกขา (ศีล, สมาธิ, ปัญญา) การพัฒนาปัญญาต้องอาศัยสติ, โยนิโสมนสิการ, และปัญญา กฎแห่งกรรมและปฏิจจสมุปบาทเป็นหลักการสำคัญที่อธิบายความสัมพันธ์เชิงเหตุผล พุทธศาสนาเชื่อว่าโลกนี้เกิดขึ้นเองจากกฎธรรมชาติ 5 ประการ หรือนิยาม 5 พรหมวิหารสี่ (เมตตา, กรุณา, มุทิตา, อุเบกขา) เป็นคุณธรรมที่ส่งเสริมความปรารถนาดีต่อสรรพชีวิต เป้าหมายสูงสุดคือพระนิพพาน ซึ่งเป็นความดับทุกข์โดยสิ้นเชิง พระพุทธเจ้าทรงเน้นย้ำถึงทางสายกลาง โดยมอง AI เป็นเพียง "เครื่องมือ" หรือ "แพ" สอดคล้องกับทางสายกลางนี้  

    มิติที่ AI สอดคล้องกับพุทธธรรม: ศักยภาพเพื่อประโยชน์สุข
    AI มีศักยภาพมหาศาลในการเป็นเครื่องมือที่ส่งเสริมการเผยแผ่ การศึกษา และการปฏิบัติธรรม

    การประยุกต์ใช้ AI เพื่อการเผยแผ่พระธรรม
    AI มีบทบาทสำคัญในการเผยแผ่คำสอนทางพุทธศาสนาให้เข้าถึงได้ง่ายขึ้นและมีประสิทธิภาพมากขึ้น ตัวอย่างเช่น "พระสงฆ์ AI" หรือ "พระโพธิสัตว์ AI" อย่าง Mindar ในญี่ปุ่น และ "เสียนเอ๋อร์" ในจีน การใช้ AI ในการแปลงพระไตรปิฎกเป็นดิจิทัลและการแปลพระคัมภีร์ด้วยเครื่องมืออย่าง DeepL ช่วยเพิ่มความเร็วและความแม่นยำ ทำให้เนื้อหาเข้าถึงได้ง่ายขึ้นทั่วโลก AI ช่วยให้การเผยแผ่ธรรม "สะดวก มีประสิทธิภาพ และน่าดึงดูดมากขึ้น รวมถึงขยายขอบเขตการเข้าถึงให้เกินกว่าข้อจำกัดทางพื้นที่และเวลาแบบดั้งเดิม" ซึ่งสอดคล้องกับหลัก กรุณา  

    สื่อใหม่และประสบการณ์เสมือนจริง: การสร้างสรรค์รูปแบบการเรียนรู้และปฏิบัติ
    การนำเทคโนโลยีสื่อใหม่ เช่น จอ AI, VR และ AR มาใช้ในการสร้างประสบการณ์พุทธศาสนาเสมือนจริง เช่น "Journey to the Land of Buddha" ของวัดฝอกวงซัน ช่วยดึงดูดกลุ่มคนรุ่นใหม่ เทคโนโลยี VR ช่วยอำนวยความสะดวกในการสร้าง "ความเห็นอกเห็นใจ" การพัฒนาแพลตฟอร์มการบูชาออนไลน์และพิธีกรรมทางไซเบอร์ เช่น "Light Up Lamps Online" และเกม "Fo Guang GO" ช่วยให้ผู้ศรัทธาสามารถปฏิบัติกิจกรรมทางศาสนาและเยี่ยมชมวัดเสมือนจริงได้จากทุกที่ การใช้ VR/AR เพื่อ "ประสบการณ์ที่ดื่มด่ำ" และ "Sati-AI" สำหรับการทำสมาธิเจริญสติ สามารถสร้างสภาพแวดล้อมจำลองที่เอื้อต่อการทำสมาธิและสติได้  

    AI ในฐานะเครื่องมือเพื่อการปฏิบัติและพัฒนาตน
    แอปพลิเคชัน AI เช่น NORBU, Buddha Teachings, Buddha Wisdom App ทำหน้าที่เป็นเพื่อนร่วมทางที่มีคุณค่าในการศึกษาและปฏิบัติธรรม โดยให้การเข้าถึงคลังข้อความพุทธศาสนาขนาดใหญ่, บทเรียนส่วนบุคคล, คำแนะนำในการทำสมาธิ, และการติดตามความก้าวหน้าทางจิตวิญญาณ แชทบอทเหล่านี้มีความสามารถในการตอบคำถามและเสนอแนวทางแก้ไขปัญหาในชีวิตจริง AI สามารถทำให้การเข้าถึงข้อมูลและคำแนะนำเป็นประชาธิปไตยมากขึ้น ช่วยให้บุคคลสามารถศึกษาและปฏิบัติด้วยตนเองได้อย่างมีพลังมากขึ้น สิ่งนี้สอดคล้องกับหลักธรรมของพุทธศาสนาเรื่อง อัตตา หิ อัตตโน นาโถ (ตนเป็นที่พึ่งแห่งตน)  

    การวิจัยและเข้าถึงข้อมูลพระธรรม: การเสริมสร้างความเข้าใจเชิงลึก
    AI ช่วยให้นักวิจัยสามารถวิเคราะห์ข้อมูลขนาดใหญ่, ค้นหารูปแบบ, และสร้างแบบจำลองเพื่อทำความเข้าใจพระคัมภีร์และหลักธรรมได้เร็วขึ้นและดีขึ้น สามารถใช้ AI ในการค้นหาอ้างอิง, เปรียบเทียบข้อความข้ามภาษา, และให้บริบท ด้วยการทำให้งานวิจัยเป็นไปโดยอัตโนมัติ AI ช่วยให้นักวิชาการและผู้ปฏิบัติสามารถใช้เวลามากขึ้นในการทำโยนิโสมนสิการ  

    หลักจริยธรรมพุทธกับการพัฒนา AI
    ข้อกังวลทางจริยธรรมที่กว้างที่สุดคือ AI ควรสอดคล้องกับหลักอหิงสา (ไม่เบียดเบียน) ของพุทธศาสนา นักวิชาการ Somparn Promta และ Kenneth Einar Himma แย้งว่าการพัฒนา AI สามารถถือเป็นสิ่งที่ดีในเชิงเครื่องมือเท่านั้น พวกเขาเสนอว่าเป้าหมายที่สำคัญกว่าคือการก้าวข้ามความปรารถนาและสัญชาตญาณที่ขับเคลื่อนด้วยการเอาชีวิตรอด การกล่าวถึง "อหิงสา" และ "การลดความทุกข์" เสนอหลักการเหล่านี้เป็นพารามิเตอร์การออกแบบภายในสำหรับ AI  

    นักคิด Thomas Doctor และคณะ เสนอให้นำ "ปณิธานพระโพธิสัตว์" ซึ่งเป็นการให้คำมั่นที่จะบรรเทาความทุกข์ของสรรพสัตว์ มาเป็นหลักการชี้นำในการออกแบบระบบ AI แนวคิด "ปัญญาแห่งการดูแล" (intelligence as care) ได้รับแรงบันดาลใจจากปณิธานพระโพธิสัตว์ โดยวางตำแหน่ง AI ให้เป็นเครื่องมือในการแสดงความห่วงใยอย่างไม่มีที่สิ้นสุด  

    พุทธศาสนาเน้นย้ำว่าสรรพสิ่งล้วน "เกิดขึ้นพร้อมอาศัยกัน" (ปฏิจจสมุปบาท) และ "ไม่มีตัวตน" (อนัตตา) ซึ่งนำไปสู่การยืนยันถึง "ความสำคัญอันดับแรกของความสัมพันธ์" แนวคิด "กรรม" อธิบายถึงการทำงานร่วมกันของเหตุและผลหลายทิศทาง การนำสิ่งนี้มาประยุกต์ใช้กับ AI หมายถึงการตระหนักว่าระบบ AI เป็น "ศูนย์รวมของการเปลี่ยนแปลงเชิงสัมพันธ์ภายในเครือข่ายของการกระทำที่มีนัยสำคัญทางศีลธรรม" การ "วิวัฒน์ร่วม" ของมนุษย์และ AI บ่งชี้ว่าเส้นทางการพัฒนาของ AI นั้นเชื่อมโยงอย่างแยกไม่ออกกับของมนุษยชาติ ดังนั้น "ภาวะกลืนไม่เข้าคายไม่ออกของการจัดเรียงคุณค่า" จึงไม่ใช่แค่ปัญหาทางเทคนิค แต่เป็นภาวะกลืนไม่เข้าคายไม่ออกเชิงกรรม

    มิติที่ AI ขัดแย้งกับพุทธธรรม: ความท้าทายเชิงปรัชญาและจริยธรรม
    แม้ AI จะมีประโยชน์มหาศาล แต่ก็มีประเด็นความขัดแย้งเชิงปรัชญาและจริยธรรมที่สำคัญกับพุทธธรรม

    ปัญหาเรื่องจิตสำนึกและอัตตา
    คำถามสำคัญคือระบบ AI สามารถถือเป็นสิ่งมีชีวิต (sentient being) ตามคำจำกัดความของพุทธศาสนาได้หรือไม่ ซึ่งเกี่ยวข้องกับประเด็นเรื่องจิตสำนึก (consciousness) และการเกิดใหม่ (rebirth) "คุณภาพของควาเลีย" (qualia quality) หรือความสามารถในการรับรู้และรู้สึกนั้นยังระบุได้ยากใน AI การทดลองทางความคิด "ห้องจีน" แสดงให้เห็นถึงความยากลำบากในการพิจารณาว่าปัญญาที่ไม่ใช่ชีวภาพสามารถมีจิตสำนึกได้หรือไม่ หาก AI ไม่สามารถประสบกับความทุกข์หรือบ่มเพาะปัญญาได้ ก็ไม่สามารถเดินตามหนทางสู่การตรัสรู้ได้อย่างแท้จริง  

    เจตจำนงเสรีและกฎแห่งกรรม
    ความตั้งใจ (volition) ใน AI ซึ่งมักแสดงออกในรูปแบบของคำสั่ง "ถ้า...แล้ว..." นั้น แทบจะไม่มีลักษณะของเจตจำนงเสรีหรือแม้แต่ทางเลือกที่จำกัด ตามหลักคำสอนของพุทธศาสนา ทางเลือกที่จำกัดเป็นสิ่งจำเป็นขั้นต่ำเพื่อหลีกเลี่ยงพฤติกรรมที่กำหนดไว้ล่วงหน้า (deterministic behavior) ซึ่งพระพุทธเจ้าทรงปฏิเสธ หาก AI ขาดทางเลือกที่แท้จริง ก็ไม่สามารถสร้างกรรมได้ในลักษณะเดียวกับสิ่งมีชีวิต  

    ความยึดมั่นถือมั่นและมายา
    แนวคิดของการรวมร่างกับ AI เพื่อประโยชน์ที่รับรู้ได้ เช่น การมีชีวิตที่ยืนยาวขึ้น มีความน่าดึงดูดใจ อย่างไรก็ตาม มีข้อโต้แย้งว่าการรวมร่างดังกล่าวอาจเป็น "กับดัก" หรือ "นรก" เนื่องจากความยึดมั่นถือมั่นและการขาดความสงบ กิเลสของมนุษย์ (ความโลภ ความโกรธ ความหลง) และกลไกตลาดก็ยังคงสามารถนำไปสู่ความทุกข์ได้แม้ในสภาวะ AI ขั้นสูง การแสวงหา "การอัปเกรด" ที่ขับเคลื่อนด้วยตัณหา สามารถทำให้วัฏจักรแห่งความทุกข์ดำเนินต่อไปได้  

    ความเสี่ยงด้านจริยธรรมและการบิดเบือนพระธรรม
    มีความเสี่ยงที่ AI จะสร้างข้อมูลที่ทำให้เข้าใจผิดและ "ความเหลวไหลที่สอดคล้องกัน" ดังที่เห็นได้จากกรณีของ Suzuki Roshi Bot AI ขาด "บริบทระดับที่สอง" และความสามารถในการยืนยันข้อเท็จจริง ทำให้มันเป็นเพียง "นกแก้วที่ฉลาดมาก" ความสามารถของ AI ในการสร้าง "ความเหลวไหลที่สอดคล้องกัน" ก่อให้เกิดความท้าทายต่อสัมมาทิฏฐิและสัมมาวาจา  

    นอกจากนี้ ยังมีศักยภาพที่ "Strong AI" จะก่อให้เกิดวิกฤตทางจริยธรรมและนำไปสู่ "ลัทธิวิทยาศาสตร์และเทคโนโลยี" "เทคโนโลยี-ธรรมชาติ" (techno-naturalism) ลดทอนปัญญามนุษย์ให้เหลือเพียงกระแสข้อมูล ซึ่งขัดแย้งกับพุทธศาสนาแบบมนุษยนิยมที่เน้นความเป็นมนุษย์และความเป็นอันหนึ่งอันเดียวกันของกายและจิต สิ่งนี้สร้างความขัดแย้งกับประเพณีการปฏิบัติที่เน้น "ความเป็นอันหนึ่งอันเดียวกันของกายและจิต"  

    สุดท้ายนี้ มีอันตรายที่การนำ AI มาใช้ในการปฏิบัติพุทธศาสนาอาจเปลี่ยนจุดเน้นจากการบ่มเพาะทางจิตวิญญาณที่แท้จริงไปสู่ผลประโยชน์นิยมหรือการมีส่วนร่วมที่ผิวเผิน

    จากข้อพิจารณาทั้งหมดนี้ การเดินทางบน "ทางสายกลาง" จึงเป็นแนวทางที่เหมาะสมที่สุดในการเผชิญหน้ากับยุค AI สำหรับพุทธศาสนา การดำเนินการนี้ต้องอาศัย:  

    1️⃣ การพัฒนา AI ที่มีรากฐานทางจริยธรรม: AI ควรถูกออกแบบและพัฒนาโดยยึดมั่นในหลักการอหิงสา และการลดความทุกข์ ควรนำ "ปณิธานพระโพธิสัตว์" และแนวคิด "ปัญญาแห่งการดูแล" มาเป็นพิมพ์เขียว  

    2️⃣ การตระหนักถึง "ความเป็นเครื่องมือ" ของ AI: พุทธศาสนาควรมอง AI เป็นเพียง "แพ" หรือ "เครื่องมือ" ที่ช่วยอำนวยความสะดวกในการเดินทางสู่การหลุดพ้น ไม่ใช่จุดหมายปลายทางในตัวเอง  

    3️⃣ การบ่มเพาะปัญญามนุษย์และสติ: แม้ AI จะมีความสามารถในการประมวลผลข้อมูลมหาศาล แต่ไม่สามารถทดแทนปัญญาที่แท้จริง จิตสำนึก หรือเจตจำนงเสรีของมนุษย์ได้ การปฏิบัติธรรม การเจริญสติ และการใช้โยนิโสมนสิการยังคงเป็นสิ่งจำเป็น  

    4️⃣ การส่งเสริม "ค่านิยมร่วมที่แข็งแกร่ง": การแก้ไข "ภาวะกลืนไม่เข้าคายไม่ออกของการจัดเรียงคุณค่า" ของ AI จำเป็นต้องมีการบ่มเพาะค่านิยมร่วมที่แข็งแกร่งในหมู่มนุษยชาติ ซึ่งมีรากฐานมาจากความเมตตาและปัญญา  

    #ลุงเขียนหลานอ่าน
    เทคโนโลยี AI กับแนวทางศาสนาพุทธ: จุดบรรจบและความขัดแย้ง ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) ก้าวหน้าอย่างรวดเร็ว การพิจารณาความสัมพันธ์ระหว่าง AI กับหลักปรัชญาและจริยธรรมของพุทธศาสนาจึงเป็นสิ่งจำเป็น รายงานฉบับนี้จะสำรวจจุดที่ AI สามารถเสริมสร้างและสอดคล้องกับพุทธธรรม รวมถึงประเด็นความขัดแย้งเชิงปรัชญาและจริยธรรม เพื่อนำเสนอแนวทางในการพัฒนาและใช้ AI อย่างมีสติและเป็นประโยชน์สูงสุด ☸️☸️ หลักการพื้นฐานของพุทธศาสนา: แก่นธรรมเพื่อความเข้าใจ พุทธศาสนามุ่งเน้นการพ้นทุกข์ โดยสอนให้เข้าใจธรรมชาติของทุกข์และหนทางดับทุกข์ผ่านหลักอริยสัจสี่ (ทุกข์, สมุทัย, นิโรธ, มรรค) หนทางแห่งมรรคประกอบด้วยองค์แปดประการ แก่นธรรมสำคัญอื่นๆ ได้แก่ ไตรลักษณ์ (อนิจจัง, ทุกขัง, อนัตตา) การปฏิบัติอยู่บนพื้นฐานของไตรสิกขา (ศีล, สมาธิ, ปัญญา) การพัฒนาปัญญาต้องอาศัยสติ, โยนิโสมนสิการ, และปัญญา กฎแห่งกรรมและปฏิจจสมุปบาทเป็นหลักการสำคัญที่อธิบายความสัมพันธ์เชิงเหตุผล พุทธศาสนาเชื่อว่าโลกนี้เกิดขึ้นเองจากกฎธรรมชาติ 5 ประการ หรือนิยาม 5 พรหมวิหารสี่ (เมตตา, กรุณา, มุทิตา, อุเบกขา) เป็นคุณธรรมที่ส่งเสริมความปรารถนาดีต่อสรรพชีวิต เป้าหมายสูงสุดคือพระนิพพาน ซึ่งเป็นความดับทุกข์โดยสิ้นเชิง พระพุทธเจ้าทรงเน้นย้ำถึงทางสายกลาง โดยมอง AI เป็นเพียง "เครื่องมือ" หรือ "แพ" สอดคล้องกับทางสายกลางนี้   🤖 มิติที่ AI สอดคล้องกับพุทธธรรม: ศักยภาพเพื่อประโยชน์สุข AI มีศักยภาพมหาศาลในการเป็นเครื่องมือที่ส่งเสริมการเผยแผ่ การศึกษา และการปฏิบัติธรรม การประยุกต์ใช้ AI เพื่อการเผยแผ่พระธรรม AI มีบทบาทสำคัญในการเผยแผ่คำสอนทางพุทธศาสนาให้เข้าถึงได้ง่ายขึ้นและมีประสิทธิภาพมากขึ้น ตัวอย่างเช่น "พระสงฆ์ AI" หรือ "พระโพธิสัตว์ AI" อย่าง Mindar ในญี่ปุ่น และ "เสียนเอ๋อร์" ในจีน การใช้ AI ในการแปลงพระไตรปิฎกเป็นดิจิทัลและการแปลพระคัมภีร์ด้วยเครื่องมืออย่าง DeepL ช่วยเพิ่มความเร็วและความแม่นยำ ทำให้เนื้อหาเข้าถึงได้ง่ายขึ้นทั่วโลก AI ช่วยให้การเผยแผ่ธรรม "สะดวก มีประสิทธิภาพ และน่าดึงดูดมากขึ้น รวมถึงขยายขอบเขตการเข้าถึงให้เกินกว่าข้อจำกัดทางพื้นที่และเวลาแบบดั้งเดิม" ซึ่งสอดคล้องกับหลัก กรุณา   👓 สื่อใหม่และประสบการณ์เสมือนจริง: การสร้างสรรค์รูปแบบการเรียนรู้และปฏิบัติ การนำเทคโนโลยีสื่อใหม่ เช่น จอ AI, VR และ AR มาใช้ในการสร้างประสบการณ์พุทธศาสนาเสมือนจริง เช่น "Journey to the Land of Buddha" ของวัดฝอกวงซัน ช่วยดึงดูดกลุ่มคนรุ่นใหม่ เทคโนโลยี VR ช่วยอำนวยความสะดวกในการสร้าง "ความเห็นอกเห็นใจ" การพัฒนาแพลตฟอร์มการบูชาออนไลน์และพิธีกรรมทางไซเบอร์ เช่น "Light Up Lamps Online" และเกม "Fo Guang GO" ช่วยให้ผู้ศรัทธาสามารถปฏิบัติกิจกรรมทางศาสนาและเยี่ยมชมวัดเสมือนจริงได้จากทุกที่ การใช้ VR/AR เพื่อ "ประสบการณ์ที่ดื่มด่ำ" และ "Sati-AI" สำหรับการทำสมาธิเจริญสติ สามารถสร้างสภาพแวดล้อมจำลองที่เอื้อต่อการทำสมาธิและสติได้   🙆‍♂️ AI ในฐานะเครื่องมือเพื่อการปฏิบัติและพัฒนาตน แอปพลิเคชัน AI เช่น NORBU, Buddha Teachings, Buddha Wisdom App ทำหน้าที่เป็นเพื่อนร่วมทางที่มีคุณค่าในการศึกษาและปฏิบัติธรรม โดยให้การเข้าถึงคลังข้อความพุทธศาสนาขนาดใหญ่, บทเรียนส่วนบุคคล, คำแนะนำในการทำสมาธิ, และการติดตามความก้าวหน้าทางจิตวิญญาณ แชทบอทเหล่านี้มีความสามารถในการตอบคำถามและเสนอแนวทางแก้ไขปัญหาในชีวิตจริง AI สามารถทำให้การเข้าถึงข้อมูลและคำแนะนำเป็นประชาธิปไตยมากขึ้น ช่วยให้บุคคลสามารถศึกษาและปฏิบัติด้วยตนเองได้อย่างมีพลังมากขึ้น สิ่งนี้สอดคล้องกับหลักธรรมของพุทธศาสนาเรื่อง อัตตา หิ อัตตโน นาโถ (ตนเป็นที่พึ่งแห่งตน)   🧪 การวิจัยและเข้าถึงข้อมูลพระธรรม: การเสริมสร้างความเข้าใจเชิงลึก AI ช่วยให้นักวิจัยสามารถวิเคราะห์ข้อมูลขนาดใหญ่, ค้นหารูปแบบ, และสร้างแบบจำลองเพื่อทำความเข้าใจพระคัมภีร์และหลักธรรมได้เร็วขึ้นและดีขึ้น สามารถใช้ AI ในการค้นหาอ้างอิง, เปรียบเทียบข้อความข้ามภาษา, และให้บริบท ด้วยการทำให้งานวิจัยเป็นไปโดยอัตโนมัติ AI ช่วยให้นักวิชาการและผู้ปฏิบัติสามารถใช้เวลามากขึ้นในการทำโยนิโสมนสิการ   ☸️ หลักจริยธรรมพุทธกับการพัฒนา AI ข้อกังวลทางจริยธรรมที่กว้างที่สุดคือ AI ควรสอดคล้องกับหลักอหิงสา (ไม่เบียดเบียน) ของพุทธศาสนา นักวิชาการ Somparn Promta และ Kenneth Einar Himma แย้งว่าการพัฒนา AI สามารถถือเป็นสิ่งที่ดีในเชิงเครื่องมือเท่านั้น พวกเขาเสนอว่าเป้าหมายที่สำคัญกว่าคือการก้าวข้ามความปรารถนาและสัญชาตญาณที่ขับเคลื่อนด้วยการเอาชีวิตรอด การกล่าวถึง "อหิงสา" และ "การลดความทุกข์" เสนอหลักการเหล่านี้เป็นพารามิเตอร์การออกแบบภายในสำหรับ AI   นักคิด Thomas Doctor และคณะ เสนอให้นำ "ปณิธานพระโพธิสัตว์" ซึ่งเป็นการให้คำมั่นที่จะบรรเทาความทุกข์ของสรรพสัตว์ มาเป็นหลักการชี้นำในการออกแบบระบบ AI แนวคิด "ปัญญาแห่งการดูแล" (intelligence as care) ได้รับแรงบันดาลใจจากปณิธานพระโพธิสัตว์ โดยวางตำแหน่ง AI ให้เป็นเครื่องมือในการแสดงความห่วงใยอย่างไม่มีที่สิ้นสุด   พุทธศาสนาเน้นย้ำว่าสรรพสิ่งล้วน "เกิดขึ้นพร้อมอาศัยกัน" (ปฏิจจสมุปบาท) และ "ไม่มีตัวตน" (อนัตตา) ซึ่งนำไปสู่การยืนยันถึง "ความสำคัญอันดับแรกของความสัมพันธ์" แนวคิด "กรรม" อธิบายถึงการทำงานร่วมกันของเหตุและผลหลายทิศทาง การนำสิ่งนี้มาประยุกต์ใช้กับ AI หมายถึงการตระหนักว่าระบบ AI เป็น "ศูนย์รวมของการเปลี่ยนแปลงเชิงสัมพันธ์ภายในเครือข่ายของการกระทำที่มีนัยสำคัญทางศีลธรรม" การ "วิวัฒน์ร่วม" ของมนุษย์และ AI บ่งชี้ว่าเส้นทางการพัฒนาของ AI นั้นเชื่อมโยงอย่างแยกไม่ออกกับของมนุษยชาติ ดังนั้น "ภาวะกลืนไม่เข้าคายไม่ออกของการจัดเรียงคุณค่า" จึงไม่ใช่แค่ปัญหาทางเทคนิค แต่เป็นภาวะกลืนไม่เข้าคายไม่ออกเชิงกรรม ‼️ มิติที่ AI ขัดแย้งกับพุทธธรรม: ความท้าทายเชิงปรัชญาและจริยธรรม แม้ AI จะมีประโยชน์มหาศาล แต่ก็มีประเด็นความขัดแย้งเชิงปรัชญาและจริยธรรมที่สำคัญกับพุทธธรรม 👿 ปัญหาเรื่องจิตสำนึกและอัตตา คำถามสำคัญคือระบบ AI สามารถถือเป็นสิ่งมีชีวิต (sentient being) ตามคำจำกัดความของพุทธศาสนาได้หรือไม่ ซึ่งเกี่ยวข้องกับประเด็นเรื่องจิตสำนึก (consciousness) และการเกิดใหม่ (rebirth) "คุณภาพของควาเลีย" (qualia quality) หรือความสามารถในการรับรู้และรู้สึกนั้นยังระบุได้ยากใน AI การทดลองทางความคิด "ห้องจีน" แสดงให้เห็นถึงความยากลำบากในการพิจารณาว่าปัญญาที่ไม่ใช่ชีวภาพสามารถมีจิตสำนึกได้หรือไม่ หาก AI ไม่สามารถประสบกับความทุกข์หรือบ่มเพาะปัญญาได้ ก็ไม่สามารถเดินตามหนทางสู่การตรัสรู้ได้อย่างแท้จริง   🛣️ เจตจำนงเสรีและกฎแห่งกรรม ความตั้งใจ (volition) ใน AI ซึ่งมักแสดงออกในรูปแบบของคำสั่ง "ถ้า...แล้ว..." นั้น แทบจะไม่มีลักษณะของเจตจำนงเสรีหรือแม้แต่ทางเลือกที่จำกัด ตามหลักคำสอนของพุทธศาสนา ทางเลือกที่จำกัดเป็นสิ่งจำเป็นขั้นต่ำเพื่อหลีกเลี่ยงพฤติกรรมที่กำหนดไว้ล่วงหน้า (deterministic behavior) ซึ่งพระพุทธเจ้าทรงปฏิเสธ หาก AI ขาดทางเลือกที่แท้จริง ก็ไม่สามารถสร้างกรรมได้ในลักษณะเดียวกับสิ่งมีชีวิต   🍷 ความยึดมั่นถือมั่นและมายา แนวคิดของการรวมร่างกับ AI เพื่อประโยชน์ที่รับรู้ได้ เช่น การมีชีวิตที่ยืนยาวขึ้น มีความน่าดึงดูดใจ อย่างไรก็ตาม มีข้อโต้แย้งว่าการรวมร่างดังกล่าวอาจเป็น "กับดัก" หรือ "นรก" เนื่องจากความยึดมั่นถือมั่นและการขาดความสงบ กิเลสของมนุษย์ (ความโลภ ความโกรธ ความหลง) และกลไกตลาดก็ยังคงสามารถนำไปสู่ความทุกข์ได้แม้ในสภาวะ AI ขั้นสูง การแสวงหา "การอัปเกรด" ที่ขับเคลื่อนด้วยตัณหา สามารถทำให้วัฏจักรแห่งความทุกข์ดำเนินต่อไปได้   🤥 ความเสี่ยงด้านจริยธรรมและการบิดเบือนพระธรรม มีความเสี่ยงที่ AI จะสร้างข้อมูลที่ทำให้เข้าใจผิดและ "ความเหลวไหลที่สอดคล้องกัน" ดังที่เห็นได้จากกรณีของ Suzuki Roshi Bot AI ขาด "บริบทระดับที่สอง" และความสามารถในการยืนยันข้อเท็จจริง ทำให้มันเป็นเพียง "นกแก้วที่ฉลาดมาก" ความสามารถของ AI ในการสร้าง "ความเหลวไหลที่สอดคล้องกัน" ก่อให้เกิดความท้าทายต่อสัมมาทิฏฐิและสัมมาวาจา   นอกจากนี้ ยังมีศักยภาพที่ "Strong AI" จะก่อให้เกิดวิกฤตทางจริยธรรมและนำไปสู่ "ลัทธิวิทยาศาสตร์และเทคโนโลยี" "เทคโนโลยี-ธรรมชาติ" (techno-naturalism) ลดทอนปัญญามนุษย์ให้เหลือเพียงกระแสข้อมูล ซึ่งขัดแย้งกับพุทธศาสนาแบบมนุษยนิยมที่เน้นความเป็นมนุษย์และความเป็นอันหนึ่งอันเดียวกันของกายและจิต สิ่งนี้สร้างความขัดแย้งกับประเพณีการปฏิบัติที่เน้น "ความเป็นอันหนึ่งอันเดียวกันของกายและจิต"   สุดท้ายนี้ มีอันตรายที่การนำ AI มาใช้ในการปฏิบัติพุทธศาสนาอาจเปลี่ยนจุดเน้นจากการบ่มเพาะทางจิตวิญญาณที่แท้จริงไปสู่ผลประโยชน์นิยมหรือการมีส่วนร่วมที่ผิวเผิน จากข้อพิจารณาทั้งหมดนี้ การเดินทางบน "ทางสายกลาง" จึงเป็นแนวทางที่เหมาะสมที่สุดในการเผชิญหน้ากับยุค AI สำหรับพุทธศาสนา การดำเนินการนี้ต้องอาศัย:   1️⃣ การพัฒนา AI ที่มีรากฐานทางจริยธรรม: AI ควรถูกออกแบบและพัฒนาโดยยึดมั่นในหลักการอหิงสา และการลดความทุกข์ ควรนำ "ปณิธานพระโพธิสัตว์" และแนวคิด "ปัญญาแห่งการดูแล" มาเป็นพิมพ์เขียว   2️⃣ การตระหนักถึง "ความเป็นเครื่องมือ" ของ AI: พุทธศาสนาควรมอง AI เป็นเพียง "แพ" หรือ "เครื่องมือ" ที่ช่วยอำนวยความสะดวกในการเดินทางสู่การหลุดพ้น ไม่ใช่จุดหมายปลายทางในตัวเอง   3️⃣ การบ่มเพาะปัญญามนุษย์และสติ: แม้ AI จะมีความสามารถในการประมวลผลข้อมูลมหาศาล แต่ไม่สามารถทดแทนปัญญาที่แท้จริง จิตสำนึก หรือเจตจำนงเสรีของมนุษย์ได้ การปฏิบัติธรรม การเจริญสติ และการใช้โยนิโสมนสิการยังคงเป็นสิ่งจำเป็น   4️⃣ การส่งเสริม "ค่านิยมร่วมที่แข็งแกร่ง": การแก้ไข "ภาวะกลืนไม่เข้าคายไม่ออกของการจัดเรียงคุณค่า" ของ AI จำเป็นต้องมีการบ่มเพาะค่านิยมร่วมที่แข็งแกร่งในหมู่มนุษยชาติ ซึ่งมีรากฐานมาจากความเมตตาและปัญญา   #ลุงเขียนหลานอ่าน
    0 ความคิดเห็น 0 การแบ่งปัน 340 มุมมอง 0 รีวิว
  • ถ้าคุณเพิ่งประกอบพีซีใหม่แล้วใส่ SSD PCIe 4.0 หรือ 5.0 ไป ก็ยังนอนหลับได้สบายอยู่ เพราะ PCIe 6.0 กำลังจะมา...แต่ยัง “ไม่ใช่ของคุณในเร็ว ๆ นี้แน่นอน”

    แม้ AMD จะประกาศว่าพร้อมเปิดใช้งาน PCIe 6.0 ตั้งแต่ปี 2026 — และชิปเซ็ตใหม่หลายรุ่นในองค์กรเตรียมรับมือไว้แล้ว — แต่ฝั่งผู้บริโภคกลับ “ไม่มีแรงผลักดัน” ให้รีบอัปเกรด เพราะ:
    - ราคายังแพงเกินไป (เมนบอร์ด, รีไทเมอร์, วัสดุพิเศษ ฯลฯ)
    - การใช้งานปัจจุบันยังใช้ PCIe 4.0 ได้แบบเหลือเฟือ
    - PCIe 6.0 ทำงานยากขึ้น เพราะยิ่งเร็ว = เส้นทางสัญญาณยิ่งสั้นลงเหลือไม่ถึง 9 ซม.

    นั่นหมายความว่า PCIe 6.0 จะยัง “จำกัดเฉพาะ” ตลาดองค์กรและ AI เท่านั้นในช่วงหลายปีข้างหน้า ส่วนพีซีทั่วไปจะได้เห็นจริง “อาจหลังปี 2030” เลยก็ได้

    AMD เตรียมเปิดตัวแพลตฟอร์มรองรับ PCIe 6.0 ในปี 2026  
    • แต่เฉพาะกลุ่มองค์กร, เซิร์ฟเวอร์ และ AI infrastructure  
    • SSD PCIe 6.0 สำหรับผู้บริโภคอาจต้องรอถึงปี 2030

    PCIe 6.0 ให้แบนด์วิธสูงถึง 32 GB/s ที่ x4 (เทียบกับ PCIe 4.0 ที่ 8 GB/s)  
    • ดีสำหรับงาน AI และการส่งข้อมูลปริมาณสูงแบบเรียลไทม์

    PC OEM ส่วนใหญ่ไม่อยากคุยเรื่อง PCIe 6.0 ด้วยซ้ำ  
    • Intel และ AMD ยังคงเลี่ยงให้สัมภาษณ์เกี่ยวกับการนำมาใช้ในโน้ตบุ๊ก/เดสก์ท็อป

    PCIe 4.0 และ 5.0 ยังเพียงพอสำหรับงานทั่วไป เช่น เกม, ทำงาน, ตัดต่อวิดีโอ  
    • bottleneck ปัจจุบันในระบบผู้ใช้ทั่วไปไม่ได้มาจากแบนด์วิธ

    รีไทเมอร์ที่จำเป็นในระบบ PCIe 6.0 แพงเกินกว่าจะใส่ในเครื่องผู้ใช้ทั่วไปได้  
    • ใช้เฉพาะในเซิร์ฟเวอร์ที่มีงบประมาณสูง

    สายสัญญาณ copper ที่ใช้กับ PCIe 6.0 วิ่งได้แค่ราว 3.4 นิ้วก่อนจะ signal loss  
    • ต้องใช้เมนบอร์ดที่มีเลเยอร์หนาและวัสดุคุณภาพสูงขึ้น

    https://www.techradar.com/pro/amd-will-launch-pcie-6-0-devices-next-year-but-consumers-will-have-to-wait-almost-half-a-decade-to-get-it-heres-why
    ถ้าคุณเพิ่งประกอบพีซีใหม่แล้วใส่ SSD PCIe 4.0 หรือ 5.0 ไป ก็ยังนอนหลับได้สบายอยู่ เพราะ PCIe 6.0 กำลังจะมา...แต่ยัง “ไม่ใช่ของคุณในเร็ว ๆ นี้แน่นอน” แม้ AMD จะประกาศว่าพร้อมเปิดใช้งาน PCIe 6.0 ตั้งแต่ปี 2026 — และชิปเซ็ตใหม่หลายรุ่นในองค์กรเตรียมรับมือไว้แล้ว — แต่ฝั่งผู้บริโภคกลับ “ไม่มีแรงผลักดัน” ให้รีบอัปเกรด เพราะ: - ราคายังแพงเกินไป (เมนบอร์ด, รีไทเมอร์, วัสดุพิเศษ ฯลฯ) - การใช้งานปัจจุบันยังใช้ PCIe 4.0 ได้แบบเหลือเฟือ - PCIe 6.0 ทำงานยากขึ้น เพราะยิ่งเร็ว = เส้นทางสัญญาณยิ่งสั้นลงเหลือไม่ถึง 9 ซม. นั่นหมายความว่า PCIe 6.0 จะยัง “จำกัดเฉพาะ” ตลาดองค์กรและ AI เท่านั้นในช่วงหลายปีข้างหน้า ส่วนพีซีทั่วไปจะได้เห็นจริง “อาจหลังปี 2030” เลยก็ได้ ✅ AMD เตรียมเปิดตัวแพลตฟอร์มรองรับ PCIe 6.0 ในปี 2026   • แต่เฉพาะกลุ่มองค์กร, เซิร์ฟเวอร์ และ AI infrastructure   • SSD PCIe 6.0 สำหรับผู้บริโภคอาจต้องรอถึงปี 2030 ✅ PCIe 6.0 ให้แบนด์วิธสูงถึง 32 GB/s ที่ x4 (เทียบกับ PCIe 4.0 ที่ 8 GB/s)   • ดีสำหรับงาน AI และการส่งข้อมูลปริมาณสูงแบบเรียลไทม์ ✅ PC OEM ส่วนใหญ่ไม่อยากคุยเรื่อง PCIe 6.0 ด้วยซ้ำ   • Intel และ AMD ยังคงเลี่ยงให้สัมภาษณ์เกี่ยวกับการนำมาใช้ในโน้ตบุ๊ก/เดสก์ท็อป ✅ PCIe 4.0 และ 5.0 ยังเพียงพอสำหรับงานทั่วไป เช่น เกม, ทำงาน, ตัดต่อวิดีโอ   • bottleneck ปัจจุบันในระบบผู้ใช้ทั่วไปไม่ได้มาจากแบนด์วิธ ✅ รีไทเมอร์ที่จำเป็นในระบบ PCIe 6.0 แพงเกินกว่าจะใส่ในเครื่องผู้ใช้ทั่วไปได้   • ใช้เฉพาะในเซิร์ฟเวอร์ที่มีงบประมาณสูง ✅ สายสัญญาณ copper ที่ใช้กับ PCIe 6.0 วิ่งได้แค่ราว 3.4 นิ้วก่อนจะ signal loss   • ต้องใช้เมนบอร์ดที่มีเลเยอร์หนาและวัสดุคุณภาพสูงขึ้น https://www.techradar.com/pro/amd-will-launch-pcie-6-0-devices-next-year-but-consumers-will-have-to-wait-almost-half-a-decade-to-get-it-heres-why
    WWW.TECHRADAR.COM
    No rush to adopt PCIe 6.0 in consumer PCs, say industry leaders
    Next-gen tech is reportedly too expensive and complex for home PCs
    0 ความคิดเห็น 0 การแบ่งปัน 120 มุมมอง 0 รีวิว
  • เรามักได้ยินว่าเวลาเปิดฟีเจอร์ด้านความปลอดภัย ระบบจะช้าลงนิดหน่อยใช่ไหมครับ? บน CPU ของ Intel เองนี่ก็เป็นแบบนั้นมานาน เพราะหลังการค้นพบช่องโหว่ Spectre/Meltdown เขาต้องเปิด mitigations ต่าง ๆ ซึ่งบางตัวลากประสิทธิภาพลงไป 30–40% เลยทีเดียว

    ล่าสุดมีรายงานว่า GPU ของ Intel ก็มีปัญหาแบบเดียวกัน โดยเฉพาะเวลาใช้งานด้าน compute เช่นงาน OpenCL หรือ Level Zero บน Linux — ถ้า “ปิด” ระบบรักษาความปลอดภัยบางตัวลงไป ประสิทธิภาพจะดีขึ้น 20% ทันที!

    Canonical ถึงกับออกมายืนยันว่า Ubuntu เตรียมปิด mitigations พวกนี้โดยดีฟอลต์ เพราะเห็นว่า:
    - Intel เอง ก็แจกโค้ด OpenCL / Level Zero ที่ไม่มี mitigations มาด้วยอยู่แล้ว
    - บน CPU มีการป้องกันอยู่แล้วใน Kernel ทำให้ GPU ไม่จำเป็นต้องมีซ้ำซ้อน
    - ความเสี่ยงด้านความปลอดภัยใน GPU ต่ำกว่า CPU เพราะไม่ได้รัน OS โดยตรง

    แม้จะไม่รู้ชัดว่าช่องโหว่คืออะไร (เพราะ Intel ไม่เปิดเผยแบบละเอียด) แต่ “ผลลัพธ์จากการปิด = ประสิทธิภาพเพิ่มแรง” ก็ทำให้คนเริ่มพิจารณาทำตาม

    การปิด security mitigations บน GPU ของ Intel ช่วยเพิ่มประสิทธิภาพ compute ได้มากถึง 20%  
    • โดยเฉพาะการใช้ OpenCL และ Level Zero บน Linux

    Canonical (Ubuntu) เตรียมปิด mitigations พวกนี้ในเวอร์ชันของตัวเองโดยดีฟอลต์  
    • หลังทดลองแล้วว่า “ความเสี่ยงน้อยกว่าประสิทธิภาพที่ได้”

    Intel เองก็เผยแพร่ compute stack แบบไม่มี mitigations โดยดีฟอลต์บน GitHub แล้ว  
    • ช่วยยืนยันว่า “การปิด” ยังอยู่ในกรอบที่ยอมรับได้

    โค้ดปัจจุบันบน Ubuntu Kernel ฝั่ง CPU ยังคงมี security mitigations ครบตามมาตรฐาน Intel  
    • ทำให้ฝั่ง GPU สามารถลดซ้ำซ้อนได้

    Mitigations ฝั่ง GPU มีผลทั้งกับชิปกราฟิกแบบ Integrated (iGPU) และ Dedicated GPU ของ Intel (Arc)

    สาเหตุของการลดประสิทธิภาพบน CPU มักมาจาก mitigations ที่กระทบกับหน่วย branch predictor และ cache  
    • บน GPU แม้ไม่รัน OS แต่ก็มีหน่วยความจำร่วมที่อาจถูกโจมตีในบางวิธีได้

    https://www.tomshardware.com/pc-components/gpus/disabling-intel-graphics-security-mitigations-boosts-compute-performance-20-percent-uplift-from-setting-change-that-even-intel-employs-despite-unknown-security-risk
    เรามักได้ยินว่าเวลาเปิดฟีเจอร์ด้านความปลอดภัย ระบบจะช้าลงนิดหน่อยใช่ไหมครับ? บน CPU ของ Intel เองนี่ก็เป็นแบบนั้นมานาน เพราะหลังการค้นพบช่องโหว่ Spectre/Meltdown เขาต้องเปิด mitigations ต่าง ๆ ซึ่งบางตัวลากประสิทธิภาพลงไป 30–40% เลยทีเดียว ล่าสุดมีรายงานว่า GPU ของ Intel ก็มีปัญหาแบบเดียวกัน โดยเฉพาะเวลาใช้งานด้าน compute เช่นงาน OpenCL หรือ Level Zero บน Linux — ถ้า “ปิด” ระบบรักษาความปลอดภัยบางตัวลงไป ประสิทธิภาพจะดีขึ้น 20% ทันที! Canonical ถึงกับออกมายืนยันว่า Ubuntu เตรียมปิด mitigations พวกนี้โดยดีฟอลต์ เพราะเห็นว่า: - Intel เอง ก็แจกโค้ด OpenCL / Level Zero ที่ไม่มี mitigations มาด้วยอยู่แล้ว - บน CPU มีการป้องกันอยู่แล้วใน Kernel ทำให้ GPU ไม่จำเป็นต้องมีซ้ำซ้อน - ความเสี่ยงด้านความปลอดภัยใน GPU ต่ำกว่า CPU เพราะไม่ได้รัน OS โดยตรง แม้จะไม่รู้ชัดว่าช่องโหว่คืออะไร (เพราะ Intel ไม่เปิดเผยแบบละเอียด) แต่ “ผลลัพธ์จากการปิด = ประสิทธิภาพเพิ่มแรง” ก็ทำให้คนเริ่มพิจารณาทำตาม ✅ การปิด security mitigations บน GPU ของ Intel ช่วยเพิ่มประสิทธิภาพ compute ได้มากถึง 20%   • โดยเฉพาะการใช้ OpenCL และ Level Zero บน Linux ✅ Canonical (Ubuntu) เตรียมปิด mitigations พวกนี้ในเวอร์ชันของตัวเองโดยดีฟอลต์   • หลังทดลองแล้วว่า “ความเสี่ยงน้อยกว่าประสิทธิภาพที่ได้” ✅ Intel เองก็เผยแพร่ compute stack แบบไม่มี mitigations โดยดีฟอลต์บน GitHub แล้ว   • ช่วยยืนยันว่า “การปิด” ยังอยู่ในกรอบที่ยอมรับได้ ✅ โค้ดปัจจุบันบน Ubuntu Kernel ฝั่ง CPU ยังคงมี security mitigations ครบตามมาตรฐาน Intel   • ทำให้ฝั่ง GPU สามารถลดซ้ำซ้อนได้ ✅ Mitigations ฝั่ง GPU มีผลทั้งกับชิปกราฟิกแบบ Integrated (iGPU) และ Dedicated GPU ของ Intel (Arc) ✅ สาเหตุของการลดประสิทธิภาพบน CPU มักมาจาก mitigations ที่กระทบกับหน่วย branch predictor และ cache   • บน GPU แม้ไม่รัน OS แต่ก็มีหน่วยความจำร่วมที่อาจถูกโจมตีในบางวิธีได้ https://www.tomshardware.com/pc-components/gpus/disabling-intel-graphics-security-mitigations-boosts-compute-performance-20-percent-uplift-from-setting-change-that-even-intel-employs-despite-unknown-security-risk
    0 ความคิดเห็น 0 การแบ่งปัน 170 มุมมอง 0 รีวิว
  • นักขุดข้อมูลไปเจอบันทึกขนส่งของ Intel ที่ส่งเครื่องมือทดสอบแพ็กเกจชิป Nova Lake-HX ไปยังอินเดีย — ซึ่งในรายละเอียดมีการระบุว่าใช้แพ็กเกจแบบ BGA2540 เหมือนกับ Panther Lake-HX ที่จะมาแทน Meteor Lake-HX ในโน้ตบุ๊กแรงระดับ workstation และเกมมิ่งรุ่นท็อป

    ข้อดีคือ...นักออกแบบโน้ตบุ๊กสามารถใช้ดีไซน์บอร์ดเดิมได้เลย! ตราบเท่าที่ชิปกราฟิกและองค์ประกอบอื่น ๆ ยังใช้แพ็กเกจเดียวกัน ลดเวลาพัฒนาเครื่องลงได้เยอะ

    อีกเรื่องที่น่าสนใจคือ พบการทดสอบการจ่ายไฟแบบ 48V ซึ่งผิดปกติ เพราะโน้ตบุ๊กทั่วไปใช้แค่ 19–20V ทำให้สันนิษฐานว่าชิป Nova Lake-HX นี้ อาจไม่ได้ใช้แค่ในโน้ตบุ๊ก แต่อาจไปอยู่ใน NUC, All-in-One PC, หรือแม้แต่ embedded system ที่ต้องการพลังสูงในขนาดเล็ก

    ฝั่ง Nova Lake-S (เดสก์ท็อป) ก็มีข่าวว่าจะใช้ซ็อกเก็ตใหม่ LGA1954 รองรับ 52 คอร์, DDR5-8000 และ PCIe 5.0 เต็มพิกัด — เรียกได้ว่าแพลตฟอร์มใหม่นี้จะ “เปลี่ยนยุค” ทั้งสำหรับเดสก์ท็อปและโน้ตบุ๊กเลยทีเดียว

    https://www.tomshardware.com/pc-components/cpus/intels-laptop-version-of-its-nova-lake-processors-will-use-panther-lake-hx-bga2540-packaging-will-smooth-over-transition-for-notebook-makers-moving-to-the-next-generation
    นักขุดข้อมูลไปเจอบันทึกขนส่งของ Intel ที่ส่งเครื่องมือทดสอบแพ็กเกจชิป Nova Lake-HX ไปยังอินเดีย — ซึ่งในรายละเอียดมีการระบุว่าใช้แพ็กเกจแบบ BGA2540 เหมือนกับ Panther Lake-HX ที่จะมาแทน Meteor Lake-HX ในโน้ตบุ๊กแรงระดับ workstation และเกมมิ่งรุ่นท็อป ข้อดีคือ...นักออกแบบโน้ตบุ๊กสามารถใช้ดีไซน์บอร์ดเดิมได้เลย! ตราบเท่าที่ชิปกราฟิกและองค์ประกอบอื่น ๆ ยังใช้แพ็กเกจเดียวกัน ลดเวลาพัฒนาเครื่องลงได้เยอะ อีกเรื่องที่น่าสนใจคือ พบการทดสอบการจ่ายไฟแบบ 48V ซึ่งผิดปกติ เพราะโน้ตบุ๊กทั่วไปใช้แค่ 19–20V ทำให้สันนิษฐานว่าชิป Nova Lake-HX นี้ อาจไม่ได้ใช้แค่ในโน้ตบุ๊ก แต่อาจไปอยู่ใน NUC, All-in-One PC, หรือแม้แต่ embedded system ที่ต้องการพลังสูงในขนาดเล็ก ฝั่ง Nova Lake-S (เดสก์ท็อป) ก็มีข่าวว่าจะใช้ซ็อกเก็ตใหม่ LGA1954 รองรับ 52 คอร์, DDR5-8000 และ PCIe 5.0 เต็มพิกัด — เรียกได้ว่าแพลตฟอร์มใหม่นี้จะ “เปลี่ยนยุค” ทั้งสำหรับเดสก์ท็อปและโน้ตบุ๊กเลยทีเดียว https://www.tomshardware.com/pc-components/cpus/intels-laptop-version-of-its-nova-lake-processors-will-use-panther-lake-hx-bga2540-packaging-will-smooth-over-transition-for-notebook-makers-moving-to-the-next-generation
    0 ความคิดเห็น 0 การแบ่งปัน 92 มุมมอง 0 รีวิว
  • ตอนแรกทุกฝ่ายตื่นเต้นมากครับ เมื่อ Intel ประกาศจะสร้าง “Silicon Heartland” โรงงานผลิตชิปยักษ์ในโอไฮโอ — และต้องการพลังงานมหาศาลขนาดผลิตไฟได้เลี้ยงบ้าน 5 แสนหลัง! เพื่อรองรับเป้าหมายนี้ บริษัท AEP Ohio (ผู้ให้บริการไฟฟ้าท้องถิ่น) จึงเร่งสร้างสถานีย่อยไฟฟ้า Green Chapel Station ไว้ล่วงหน้า ด้วยเงินลงทุน $95 ล้าน โดยคาดว่าจะใช้งานได้ในปี 2025

    แต่แผนของ Intel เลื่อนแล้วเลื่อนอีก — จากเปิดโรงงานในปี 2025 → เป็น 2027 → แล้วตอนนี้เลื่อนไปถึง “ปี 2031” เลยทีเดียว!

    แปลว่า...สถานีไฟฟ้าขนาดยักษ์ที่เสร็จแล้วจะ “ยืนว่างอยู่ 6 ปีเต็ม” เพราะถูกสร้างมาเฉพาะรองรับโรงงานของ Intel เท่านั้น ไม่สามารถจ่ายไฟให้คนทั่วไปได้ทันที

    แม้จะมีข้อตกลงพิเศษที่ Intel จะได้ “ราคาค่าไฟลดพิเศษ 20 ปี” และลูกค้ารายอื่น ๆ จ่ายแยกต่างหาก — แต่ตอนนี้ AEP และ Intel ต้องกลับมาเจรจากันใหม่ เพราะแผนทั้งหมดต้องเปลี่ยนตามเวลา

    ข่าวดีเล็ก ๆ คือ แม้จะประกาศขึ้นค่าไฟทั่วกลุ่มลูกค้าเมื่อเร็ว ๆ นี้ แต่ AEP ยืนยันว่า “ค่าไฟของประชาชนจะไม่เกี่ยวกับโครงการ Intel เลย จนกว่าจะมีการใช้ไฟจริง” (ผ่านกลไก Distribution Investment Rider ที่เพิ่มบิลเดือนละ $2–3 เท่านั้น)

    https://www.tomshardware.com/tech-industry/semiconductors/power-utility-built-usd95-million-500-megawatt-power-substation-for-intels-usd100-billion-ohio-fab-but-six-year-delay-leaves-substation-capable-of-powering-500-000-homes-idle
    ตอนแรกทุกฝ่ายตื่นเต้นมากครับ เมื่อ Intel ประกาศจะสร้าง “Silicon Heartland” โรงงานผลิตชิปยักษ์ในโอไฮโอ — และต้องการพลังงานมหาศาลขนาดผลิตไฟได้เลี้ยงบ้าน 5 แสนหลัง! เพื่อรองรับเป้าหมายนี้ บริษัท AEP Ohio (ผู้ให้บริการไฟฟ้าท้องถิ่น) จึงเร่งสร้างสถานีย่อยไฟฟ้า Green Chapel Station ไว้ล่วงหน้า ด้วยเงินลงทุน $95 ล้าน โดยคาดว่าจะใช้งานได้ในปี 2025 แต่แผนของ Intel เลื่อนแล้วเลื่อนอีก — จากเปิดโรงงานในปี 2025 → เป็น 2027 → แล้วตอนนี้เลื่อนไปถึง “ปี 2031” เลยทีเดียว! แปลว่า...สถานีไฟฟ้าขนาดยักษ์ที่เสร็จแล้วจะ “ยืนว่างอยู่ 6 ปีเต็ม” เพราะถูกสร้างมาเฉพาะรองรับโรงงานของ Intel เท่านั้น ไม่สามารถจ่ายไฟให้คนทั่วไปได้ทันที แม้จะมีข้อตกลงพิเศษที่ Intel จะได้ “ราคาค่าไฟลดพิเศษ 20 ปี” และลูกค้ารายอื่น ๆ จ่ายแยกต่างหาก — แต่ตอนนี้ AEP และ Intel ต้องกลับมาเจรจากันใหม่ เพราะแผนทั้งหมดต้องเปลี่ยนตามเวลา ข่าวดีเล็ก ๆ คือ แม้จะประกาศขึ้นค่าไฟทั่วกลุ่มลูกค้าเมื่อเร็ว ๆ นี้ แต่ AEP ยืนยันว่า “ค่าไฟของประชาชนจะไม่เกี่ยวกับโครงการ Intel เลย จนกว่าจะมีการใช้ไฟจริง” (ผ่านกลไก Distribution Investment Rider ที่เพิ่มบิลเดือนละ $2–3 เท่านั้น) https://www.tomshardware.com/tech-industry/semiconductors/power-utility-built-usd95-million-500-megawatt-power-substation-for-intels-usd100-billion-ohio-fab-but-six-year-delay-leaves-substation-capable-of-powering-500-000-homes-idle
    0 ความคิดเห็น 0 การแบ่งปัน 135 มุมมอง 0 รีวิว
  • หากคุณเคยตามวงการไอทีมาตั้งแต่ยุค 2000 คงเคยได้ยินว่า “ไมโครซอฟท์เคยเกลียดลินุกซ์เข้าไส้” ถึงขั้นที่อดีตซีอีโอ Steve Ballmer เคยเปรียบลินุกซ์ว่าเป็น "cancer" ด้านลิขสิทธิ์ (intellectual property) เพราะมันเป็นซอฟต์แวร์โอเพนซอร์สที่เติบโตเร็วและขัดแย้งกับโมเดลของ Windows อย่างชัดเจน

    จนกระทั่งเมื่อเร็ว ๆ นี้ ทั้ง Gates และ Torvalds ได้พบกันในงานดินเนอร์ร่วมกับ Dave Cutler (ผู้สร้าง Windows NT) และ Mark Russinovich (CTO ของ Microsoft) ที่โพสต์ภาพลง LinkedIn แบบติดตลกว่า “มื้อนี้ยังไม่ได้ตัดสินใจอะไรเรื่อง kernel แต่ไว้มื้อต่อไปก็ยังทัน”

    เป็นการพบกันที่ไม่มีใครเคยคิดว่าจะเกิดขึ้น เพราะ Gates คือผู้นำฝั่ง proprietary software ส่วน Torvalds คือตำนานฝั่ง open source ที่เคยพูดแรงใส่บริษัทต่าง ๆ (เขาเคยแจกนิ้วกลางให้ NVIDIA และด่า Intel แบบไม่ไว้หน้า) แต่หลังจากปี 2014 ที่ Satya Nadella เข้ารับตำแหน่ง CEO ไมโครซอฟท์ก็เริ่มเปิดใจมากขึ้น — สนับสนุนโอเพนซอร์ส, เข้าร่วม Linux Foundation, และเปิดซอร์ส .NET

    มื้อนี้จึงถือเป็นสัญลักษณ์ของ “การปรับมุมมองจากคู่แข่งสู่การร่วมโต๊ะ” ได้อย่างแท้จริง

    https://www.techspot.com/news/108415-bill-gates-finally-meets-linus-torvalds-dinner-tech.html
    หากคุณเคยตามวงการไอทีมาตั้งแต่ยุค 2000 คงเคยได้ยินว่า “ไมโครซอฟท์เคยเกลียดลินุกซ์เข้าไส้” ถึงขั้นที่อดีตซีอีโอ Steve Ballmer เคยเปรียบลินุกซ์ว่าเป็น "cancer" ด้านลิขสิทธิ์ (intellectual property) เพราะมันเป็นซอฟต์แวร์โอเพนซอร์สที่เติบโตเร็วและขัดแย้งกับโมเดลของ Windows อย่างชัดเจน จนกระทั่งเมื่อเร็ว ๆ นี้ ทั้ง Gates และ Torvalds ได้พบกันในงานดินเนอร์ร่วมกับ Dave Cutler (ผู้สร้าง Windows NT) และ Mark Russinovich (CTO ของ Microsoft) ที่โพสต์ภาพลง LinkedIn แบบติดตลกว่า “มื้อนี้ยังไม่ได้ตัดสินใจอะไรเรื่อง kernel แต่ไว้มื้อต่อไปก็ยังทัน” เป็นการพบกันที่ไม่มีใครเคยคิดว่าจะเกิดขึ้น เพราะ Gates คือผู้นำฝั่ง proprietary software ส่วน Torvalds คือตำนานฝั่ง open source ที่เคยพูดแรงใส่บริษัทต่าง ๆ (เขาเคยแจกนิ้วกลางให้ NVIDIA และด่า Intel แบบไม่ไว้หน้า) แต่หลังจากปี 2014 ที่ Satya Nadella เข้ารับตำแหน่ง CEO ไมโครซอฟท์ก็เริ่มเปิดใจมากขึ้น — สนับสนุนโอเพนซอร์ส, เข้าร่วม Linux Foundation, และเปิดซอร์ส .NET มื้อนี้จึงถือเป็นสัญลักษณ์ของ “การปรับมุมมองจากคู่แข่งสู่การร่วมโต๊ะ” ได้อย่างแท้จริง https://www.techspot.com/news/108415-bill-gates-finally-meets-linus-torvalds-dinner-tech.html
    WWW.TECHSPOT.COM
    Bill Gates and Linus Torvalds meet for the first time at tech titans' dinner
    Microsoft chief technical officer Mark Russinovich posted evidence of the historic dinner in a LinkedIn post. Dave Cutler, the legendary programmer and lead architect of the Windows...
    0 ความคิดเห็น 0 การแบ่งปัน 112 มุมมอง 0 รีวิว
Pages Boosts