• ยกระดับความปลอดภัยในระบบ Serverless ด้วย Zero Trust และ AI — ป้องกันภัยคุกคามยุคใหม่แบบรอบด้าน

    บทความจาก HackRead โดย Rimpy Tewani ผู้เชี่ยวชาญด้านความปลอดภัยระบบคลาวด์ของ AWS เผยแนวทางการป้องกันภัยคุกคามในระบบ Serverless ที่กำลังได้รับความนิยมในองค์กรขนาดใหญ่ โดยเน้นการใช้สถาปัตยกรรม Zero Trust และระบบตรวจจับภัยคุกคามด้วย AI เพื่อรับมือกับการโจมตีที่ซับซ้อนและเกิดขึ้นรวดเร็ว

    ระบบ Serverless ช่วยให้องค์กรสามารถพัฒนาแอปพลิเคชันได้เร็วขึ้นโดยไม่ต้องดูแลเซิร์ฟเวอร์เอง แต่ก็เปิดช่องให้เกิดภัยคุกคามรูปแบบใหม่ เช่น การฉีด event ที่เป็นอันตราย (Function Event Injection), การโจมตีช่วง cold start และการใช้ AI ในการหลบเลี่ยงระบบตรวจจับ

    แนวทางที่แนะนำคือการใช้สถาปัตยกรรม Zero Trust ซึ่งไม่เชื่อถือสิ่งใดโดยอัตโนมัติ แม้จะผ่านการยืนยันตัวตนแล้วก็ตาม ทุกคำขอและทุกฟังก์ชันต้องผ่านการตรวจสอบซ้ำเสมอ

    ระบบป้องกันประกอบด้วยหลายชั้น เช่น AWS WAF, Cognito, การเข้ารหัสข้อมูล, การตรวจสอบแบบเรียลไทม์ และการใช้ AI วิเคราะห์พฤติกรรมผู้ใช้เพื่อประเมินความเสี่ยง

    Zero Trust ในระบบ Serverless
    ไม่เชื่อถือคำขอใด ๆ โดยอัตโนมัติ
    ตรวจสอบทุกฟังก์ชันและ API call แบบเรียลไทม์
    ใช้การยืนยันตัวตนหลายชั้นและการเข้ารหัสข้อมูล

    ภัยคุกคามเฉพาะในระบบ Serverless
    Function Event Injection: ฝัง payload อันตรายผ่าน event
    Cold Start Exploitation: โจมตีช่วงเริ่มต้นที่ระบบยังไม่พร้อม
    Credential Stuffing และ API Abuse เพิ่มขึ้นกว่า 300%

    การใช้ AI ในการป้องกัน
    AWS Cognito วิเคราะห์พฤติกรรมและอุปกรณ์ผู้ใช้
    EventBridge ตรวจจับภัยคุกคามข้ามบริการ
    AI วิเคราะห์ prompt injection และ model poisoning ในระบบ GenAI

    ผลลัพธ์จากการใช้งานจริง
    ลดเวลาในการตอบสนองภัยคุกคามจาก 200 นาทีเหลือ 30 วินาที
    เพิ่ม ROI ด้านความปลอดภัยถึง 240% ภายใน 2 ปี
    ตรวจจับการ takeover บัญชีได้แม่นยำถึง 99.7%

    คำเตือนสำหรับองค์กรที่ใช้ Serverless
    อย่าพึ่งพาการตรวจสอบแบบหลังเกิดเหตุเพียงอย่างเดียว
    ควรใช้ระบบตรวจจับแบบ proactive และ AI วิเคราะห์พฤติกรรม
    ต้องเตรียมรับมือกับภัยคุกคามที่เกิดจากการใช้ GenAI

    https://hackread.com/serverless-security-zero-trust-implementation-ai-threat-detection/
    🛡️ ยกระดับความปลอดภัยในระบบ Serverless ด้วย Zero Trust และ AI — ป้องกันภัยคุกคามยุคใหม่แบบรอบด้าน บทความจาก HackRead โดย Rimpy Tewani ผู้เชี่ยวชาญด้านความปลอดภัยระบบคลาวด์ของ AWS เผยแนวทางการป้องกันภัยคุกคามในระบบ Serverless ที่กำลังได้รับความนิยมในองค์กรขนาดใหญ่ โดยเน้นการใช้สถาปัตยกรรม Zero Trust และระบบตรวจจับภัยคุกคามด้วย AI เพื่อรับมือกับการโจมตีที่ซับซ้อนและเกิดขึ้นรวดเร็ว ระบบ Serverless ช่วยให้องค์กรสามารถพัฒนาแอปพลิเคชันได้เร็วขึ้นโดยไม่ต้องดูแลเซิร์ฟเวอร์เอง แต่ก็เปิดช่องให้เกิดภัยคุกคามรูปแบบใหม่ เช่น การฉีด event ที่เป็นอันตราย (Function Event Injection), การโจมตีช่วง cold start และการใช้ AI ในการหลบเลี่ยงระบบตรวจจับ แนวทางที่แนะนำคือการใช้สถาปัตยกรรม Zero Trust ซึ่งไม่เชื่อถือสิ่งใดโดยอัตโนมัติ แม้จะผ่านการยืนยันตัวตนแล้วก็ตาม ทุกคำขอและทุกฟังก์ชันต้องผ่านการตรวจสอบซ้ำเสมอ ระบบป้องกันประกอบด้วยหลายชั้น เช่น AWS WAF, Cognito, การเข้ารหัสข้อมูล, การตรวจสอบแบบเรียลไทม์ และการใช้ AI วิเคราะห์พฤติกรรมผู้ใช้เพื่อประเมินความเสี่ยง ✅ Zero Trust ในระบบ Serverless ➡️ ไม่เชื่อถือคำขอใด ๆ โดยอัตโนมัติ ➡️ ตรวจสอบทุกฟังก์ชันและ API call แบบเรียลไทม์ ➡️ ใช้การยืนยันตัวตนหลายชั้นและการเข้ารหัสข้อมูล ✅ ภัยคุกคามเฉพาะในระบบ Serverless ➡️ Function Event Injection: ฝัง payload อันตรายผ่าน event ➡️ Cold Start Exploitation: โจมตีช่วงเริ่มต้นที่ระบบยังไม่พร้อม ➡️ Credential Stuffing และ API Abuse เพิ่มขึ้นกว่า 300% ✅ การใช้ AI ในการป้องกัน ➡️ AWS Cognito วิเคราะห์พฤติกรรมและอุปกรณ์ผู้ใช้ ➡️ EventBridge ตรวจจับภัยคุกคามข้ามบริการ ➡️ AI วิเคราะห์ prompt injection และ model poisoning ในระบบ GenAI ✅ ผลลัพธ์จากการใช้งานจริง ➡️ ลดเวลาในการตอบสนองภัยคุกคามจาก 200 นาทีเหลือ 30 วินาที ➡️ เพิ่ม ROI ด้านความปลอดภัยถึง 240% ภายใน 2 ปี ➡️ ตรวจจับการ takeover บัญชีได้แม่นยำถึง 99.7% ‼️ คำเตือนสำหรับองค์กรที่ใช้ Serverless ⛔ อย่าพึ่งพาการตรวจสอบแบบหลังเกิดเหตุเพียงอย่างเดียว ⛔ ควรใช้ระบบตรวจจับแบบ proactive และ AI วิเคราะห์พฤติกรรม ⛔ ต้องเตรียมรับมือกับภัยคุกคามที่เกิดจากการใช้ GenAI https://hackread.com/serverless-security-zero-trust-implementation-ai-threat-detection/
    HACKREAD.COM
    Advanced Serverless Security: Zero Trust Implementation with AI-Powered Threat Detection
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 22 Views 0 Reviews
  • วุฒิสภายืดเวลาอีก 90 วัน ศึกษาเอ็มโอยู ไทย–กัมพูชา ปี 2543–2544 ชี้ข้อกฎหมายซับซ้อน เสี่ยงกระทบความมั่นคงชายแดนและความสัมพันธ์ระหว่างประเทศ

    อ่านต่อ..https://news1live.com/detail/9680000102729

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    วุฒิสภายืดเวลาอีก 90 วัน ศึกษาเอ็มโอยู ไทย–กัมพูชา ปี 2543–2544 ชี้ข้อกฎหมายซับซ้อน เสี่ยงกระทบความมั่นคงชายแดนและความสัมพันธ์ระหว่างประเทศ อ่านต่อ..https://news1live.com/detail/9680000102729 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    Like
    1
    0 Comments 0 Shares 101 Views 0 Reviews
  • 10 ปัญหาใหญ่ที่ CISO และทีมไซเบอร์ต้องเผชิญในปี 2025 — จากภัยคุกคาม AI ถึงงบประมาณที่ไม่พอรับมือ

    บทความจาก CSO Online โดย Mary K. Pratt สรุป 10 ความท้าทายที่ผู้บริหารด้านความปลอดภัยข้อมูล (CISO) และทีมไซเบอร์ต้องเผชิญในยุคที่ภัยคุกคามซับซ้อนขึ้นอย่างรวดเร็ว โดยเฉพาะจาก AI, quantum computing และการโจมตีที่ไม่เลือกเป้าหมายอีกต่อไป

    ในปี 2025 งานของ CISO ไม่ใช่แค่ป้องกันข้อมูล แต่ต้องรับมือกับความเร็วของภัยคุกคามที่เกิดจาก AI, การขาดแคลนบุคลากร, งบประมาณที่ไม่พอ และความคาดหวังจากผู้บริหารที่ต้องการให้ “ทุกอย่างปลอดภัย” โดยไม่เพิ่มทรัพยากร

    ภัยคุกคามจาก AI ไม่ใช่แค่การโจมตีแบบใหม่ แต่ยังรวมถึงข้อมูลที่ AI สร้างขึ้นเอง ซึ่งอาจกลายเป็น “ภัยจากภายใน” โดยไม่ตั้งใจ เช่น ข้อมูลแชตหรือคำสั่งที่หลุดออกไปโดยไม่ผ่านการตรวจสอบ

    นอกจากนี้ยังมีความเสี่ยงจาก quantum computing ที่อาจทำลายระบบเข้ารหัสในอนาคต และการโจมตีที่รุนแรงขึ้นเรื่อย ๆ เช่น การเรียกค่าไถ่จากข้อมูลเด็กในโรงเรียน

    สรุป 10 ปัญหาใหญ่ที่ CISO ต้องเผชิญ

    การรักษาความปลอดภัยของโครงสร้าง AI
    ทีมยังไม่มีเครื่องมือหรือความรู้เพียงพอในการป้องกัน AI
    การใช้งาน AI เติบโตเร็วกว่าการวางมาตรการความปลอดภัย

    การโจมตีด้วย AI ที่เร็วและรุนแรงขึ้น
    เวลาที่แฮกเกอร์ใช้ในการเจาะระบบลดเหลือเพียงไม่กี่วินาที
    ต้องฝึกซ้อมรับมือแทบทุกวัน ไม่ใช่แค่เดือนละครั้ง

    การปกป้องข้อมูลในยุค AI
    ข้อมูลที่ AI สร้างขึ้นเอง เช่น แชตหรือคำสั่ง ต้องได้รับการจัดการ
    หลายองค์กรยังไม่รู้ว่าข้อมูลสำคัญอยู่ที่ไหน

    ภูมิทัศน์ภัยคุกคามที่ขยายตัว
    ระบบเชื่อมโยงกันมากขึ้น ทำให้จุดอ่อนเพิ่มขึ้น
    แฮกเกอร์มี supply chain ของตัวเองและใช้ AI เพิ่มประสิทธิภาพ

    การโจมตีที่โหดร้ายขึ้น
    ไม่มีเป้าหมายที่ “ปลอดภัย” อีกต่อไป เช่น โรงเรียนเด็กเล็กก็ถูกโจมตี
    แฮกเกอร์ไม่สนผลกระทบต่อเหยื่อ

    ข้อจำกัดด้านงบประมาณ
    งบเพิ่มขึ้นแต่ไม่ทันกับความรุนแรงของภัยคุกคาม
    ต้องลดต้นทุนโดยใช้ automation และ outsourcing

    การเตรียมพนักงานให้รับมือกับ phishing ขั้นสูง
    AI สร้างอีเมลหลอกลวงที่เหมือนจริงมาก
    ต้องฝึกซ้อม phishing simulation บ่อยขึ้น และมีบทลงโทษจริง

    ความเสี่ยงจาก quantum computing
    การเข้ารหัสปัจจุบันอาจถูกทำลายในอนาคต
    ต้องเริ่มวางแผนใช้ quantum-safe encryption

    การจัดลำดับความสำคัญ
    มีงานมากเกินไปแต่คนไม่พอ ต้องเลือกทำสิ่งที่สำคัญที่สุด
    ขาดแคลนบุคลากรด้านความปลอดภัยอย่างหนัก

    การประเมินความเสี่ยงให้ถูกต้อง
    ต้องเข้าใจความเสี่ยงที่ธุรกิจยอมรับได้
    ความเข้าใจระหว่าง CISO กับผู้บริหารลดลงจาก 84% เหลือ 64%

    คำเตือนสำหรับองค์กร
    อย่าคิดว่า AI จะปลอดภัยโดยอัตโนมัติ
    อย่ารอให้ quantum computing มาถึงก่อนจะเตรียมระบบ
    อย่ามองข้ามการฝึกพนักงาน แม้จะมีเทคโนโลยีป้องกันแล้ว

    https://www.csoonline.com/article/4077442/the-10-biggest-issues-cisos-and-cyber-teams-face-today-2.html
    🛡️ 10 ปัญหาใหญ่ที่ CISO และทีมไซเบอร์ต้องเผชิญในปี 2025 — จากภัยคุกคาม AI ถึงงบประมาณที่ไม่พอรับมือ บทความจาก CSO Online โดย Mary K. Pratt สรุป 10 ความท้าทายที่ผู้บริหารด้านความปลอดภัยข้อมูล (CISO) และทีมไซเบอร์ต้องเผชิญในยุคที่ภัยคุกคามซับซ้อนขึ้นอย่างรวดเร็ว โดยเฉพาะจาก AI, quantum computing และการโจมตีที่ไม่เลือกเป้าหมายอีกต่อไป ในปี 2025 งานของ CISO ไม่ใช่แค่ป้องกันข้อมูล แต่ต้องรับมือกับความเร็วของภัยคุกคามที่เกิดจาก AI, การขาดแคลนบุคลากร, งบประมาณที่ไม่พอ และความคาดหวังจากผู้บริหารที่ต้องการให้ “ทุกอย่างปลอดภัย” โดยไม่เพิ่มทรัพยากร ภัยคุกคามจาก AI ไม่ใช่แค่การโจมตีแบบใหม่ แต่ยังรวมถึงข้อมูลที่ AI สร้างขึ้นเอง ซึ่งอาจกลายเป็น “ภัยจากภายใน” โดยไม่ตั้งใจ เช่น ข้อมูลแชตหรือคำสั่งที่หลุดออกไปโดยไม่ผ่านการตรวจสอบ นอกจากนี้ยังมีความเสี่ยงจาก quantum computing ที่อาจทำลายระบบเข้ารหัสในอนาคต และการโจมตีที่รุนแรงขึ้นเรื่อย ๆ เช่น การเรียกค่าไถ่จากข้อมูลเด็กในโรงเรียน 📌 สรุป 10 ปัญหาใหญ่ที่ CISO ต้องเผชิญ ✅ การรักษาความปลอดภัยของโครงสร้าง AI ➡️ ทีมยังไม่มีเครื่องมือหรือความรู้เพียงพอในการป้องกัน AI ➡️ การใช้งาน AI เติบโตเร็วกว่าการวางมาตรการความปลอดภัย ✅ การโจมตีด้วย AI ที่เร็วและรุนแรงขึ้น ➡️ เวลาที่แฮกเกอร์ใช้ในการเจาะระบบลดเหลือเพียงไม่กี่วินาที ➡️ ต้องฝึกซ้อมรับมือแทบทุกวัน ไม่ใช่แค่เดือนละครั้ง ✅ การปกป้องข้อมูลในยุค AI ➡️ ข้อมูลที่ AI สร้างขึ้นเอง เช่น แชตหรือคำสั่ง ต้องได้รับการจัดการ ➡️ หลายองค์กรยังไม่รู้ว่าข้อมูลสำคัญอยู่ที่ไหน ✅ ภูมิทัศน์ภัยคุกคามที่ขยายตัว ➡️ ระบบเชื่อมโยงกันมากขึ้น ทำให้จุดอ่อนเพิ่มขึ้น ➡️ แฮกเกอร์มี supply chain ของตัวเองและใช้ AI เพิ่มประสิทธิภาพ ✅ การโจมตีที่โหดร้ายขึ้น ➡️ ไม่มีเป้าหมายที่ “ปลอดภัย” อีกต่อไป เช่น โรงเรียนเด็กเล็กก็ถูกโจมตี ➡️ แฮกเกอร์ไม่สนผลกระทบต่อเหยื่อ ✅ ข้อจำกัดด้านงบประมาณ ➡️ งบเพิ่มขึ้นแต่ไม่ทันกับความรุนแรงของภัยคุกคาม ➡️ ต้องลดต้นทุนโดยใช้ automation และ outsourcing ✅ การเตรียมพนักงานให้รับมือกับ phishing ขั้นสูง ➡️ AI สร้างอีเมลหลอกลวงที่เหมือนจริงมาก ➡️ ต้องฝึกซ้อม phishing simulation บ่อยขึ้น และมีบทลงโทษจริง ✅ ความเสี่ยงจาก quantum computing ➡️ การเข้ารหัสปัจจุบันอาจถูกทำลายในอนาคต ➡️ ต้องเริ่มวางแผนใช้ quantum-safe encryption ✅ การจัดลำดับความสำคัญ ➡️ มีงานมากเกินไปแต่คนไม่พอ ต้องเลือกทำสิ่งที่สำคัญที่สุด ➡️ ขาดแคลนบุคลากรด้านความปลอดภัยอย่างหนัก ✅ การประเมินความเสี่ยงให้ถูกต้อง ➡️ ต้องเข้าใจความเสี่ยงที่ธุรกิจยอมรับได้ ➡️ ความเข้าใจระหว่าง CISO กับผู้บริหารลดลงจาก 84% เหลือ 64% ‼️ คำเตือนสำหรับองค์กร ⛔ อย่าคิดว่า AI จะปลอดภัยโดยอัตโนมัติ ⛔ อย่ารอให้ quantum computing มาถึงก่อนจะเตรียมระบบ ⛔ อย่ามองข้ามการฝึกพนักงาน แม้จะมีเทคโนโลยีป้องกันแล้ว https://www.csoonline.com/article/4077442/the-10-biggest-issues-cisos-and-cyber-teams-face-today-2.html
    WWW.CSOONLINE.COM
    The 10 biggest issues CISOs and cyber teams face today
    From escalating AI-enabled threats to budgets that don’t scale alongside expanding threat landscapes, security leaders are reshaping their agendas to address several key long-standing and emerging concerns.
    0 Comments 0 Shares 28 Views 0 Reviews
  • ศึก "Rare Earth" เดือด! สหรัฐเปิดเกมตัดอิทธิพลจีน ขยายพันธมิตรดึงไทย-มาเลเซียเข้าห่วงโซ่อุปทานยุทธศาสตร์ โลกจับตาไทยจะได้โอกาสทองหรือกลายเป็นสมรภูมิใหม่ของมหาอำนาจ

    อ่านต่อ..https://news1live.com/detail/9680000102725

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด #RareEarth
    ศึก "Rare Earth" เดือด! สหรัฐเปิดเกมตัดอิทธิพลจีน ขยายพันธมิตรดึงไทย-มาเลเซียเข้าห่วงโซ่อุปทานยุทธศาสตร์ โลกจับตาไทยจะได้โอกาสทองหรือกลายเป็นสมรภูมิใหม่ของมหาอำนาจ อ่านต่อ..https://news1live.com/detail/9680000102725 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด #RareEarth
    Like
    Haha
    2
    0 Comments 0 Shares 104 Views 0 Reviews
  • “Vibecoding” คือแนวทางใหม่ที่ใช้ AI สร้างแอปได้ง่ายขึ้น — แม้ไม่รู้โค้ด ก็สร้างเว็บไซต์หรือโปรเจกต์ได้ด้วยภาษาพูด

    บทความจาก The Star อธิบายปรากฏการณ์ “vibecoding” ซึ่งเป็นการใช้ภาษาธรรมชาติพูดคุยกับ AI เพื่อให้ช่วยเขียนโค้ดหรือสร้างแอป โดยไม่ต้องมีพื้นฐานด้านโปรแกรมมิ่งมาก่อน แนวคิดนี้กำลังได้รับความนิยมในหมู่นักพัฒนา นักเรียน และผู้ใช้ทั่วไปที่อยากสร้างสิ่งใหม่ ๆ โดยไม่ต้องเรียนภาษา Java หรือ C++

    “Vibecoding” เป็นคำที่ใช้เรียกการเขียนโค้ดร่วมกับ AI โดยใช้ภาษาพูดหรือคำสั่งง่าย ๆ เช่น “ช่วยสร้างเว็บไซต์ขายเสื้อผ้าให้ฉัน” แล้ว AI จะสร้างโครงสร้าง HTML, CSS หรือแม้แต่ backend ให้ทันที

    แนวคิดนี้เริ่มเป็นที่รู้จักจาก Andrej Karpathy ผู้ร่วมก่อตั้ง OpenAI และถูกนำไปใช้ในหลายวงการ เช่น vibe marketing, vibe analytics และ vibe designing โดย Microsoft ก็ใช้แนวทางนี้ใน Copilot เพื่อช่วยสร้างสไลด์และสเปรดชีต

    Kyle Jensen จาก Yale School of Management กล่าวว่า “AI-assisted software development” ฟังดูเป็นทางการเกินไป แต่ “vibecoding” ให้ความรู้สึกเข้าถึงง่ายและเป็นกันเองมากกว่า

    แม้จะดูง่าย แต่การใช้ AI สร้างแอปก็ยังมีข้อจำกัด เช่น AI อาจสร้างโค้ดผิดพลาด หรือหลุดจากบริบทที่ผู้ใช้ต้องการได้ ดังนั้นผู้ที่มีพื้นฐานด้านโปรแกรมมิ่งจะสามารถควบคุมและแก้ไขได้ดีกว่า

    นักพัฒนาอย่าง Simon Last จาก Notion เปรียบเทียบว่า การใช้ AI เขียนโค้ดก็เหมือน “ดูแลเด็กฝึกงาน” ที่ต้องคอยตรวจสอบและแก้ไขให้ถูกต้อง

    ความหมายของ “vibecoding”
    ใช้ภาษาธรรมชาติสั่ง AI ให้สร้างโค้ดหรือแอป
    ไม่ต้องมีพื้นฐานโปรแกรมมิ่งก็เริ่มต้นได้

    จุดเด่นของแนวทางนี้
    เข้าถึงง่าย เหมาะกับผู้เริ่มต้น
    ใช้ในหลายวงการ เช่น marketing, analytics, design
    Microsoft ใช้ใน Copilot เพื่อสร้างงานนำเสนอและเอกสาร

    ข้อจำกัดของ vibecoding
    AI อาจสร้างโค้ดผิดหรือหลุดบริบท
    ผู้ใช้ที่เข้าใจโค้ดจะสามารถควบคุมได้ดีกว่า
    ต้องมีการตรวจสอบและแก้ไขจากมนุษย์

    มุมมองจากผู้เชี่ยวชาญ
    เปรียบเทียบ AI coding tools กับเด็กฝึกงาน
    เป็นผู้ช่วยที่ดี แต่ยังไม่แทนมนุษย์ได้ทั้งหมด
    ช่วยให้การเรียนรู้เร็วขึ้นและลดความยากในการเริ่มต้น

    คำเตือนสำหรับผู้ใช้ AI สร้างโค้ด
    อย่าพึ่งพา AI โดยไม่ตรวจสอบผลลัพธ์
    ควรเรียนรู้พื้นฐานโค้ดเพื่อควบคุมและแก้ไขได้
    อย่าใช้ AI สร้างระบบที่มีความเสี่ยงสูงโดยไม่มีการตรวจสอบจากผู้เชี่ยวชาญ

    https://www.thestar.com.my/tech/tech-news/2025/10/27/with-vibecoding-ai-can-help-anyone-build-an-app
    🧠 “Vibecoding” คือแนวทางใหม่ที่ใช้ AI สร้างแอปได้ง่ายขึ้น — แม้ไม่รู้โค้ด ก็สร้างเว็บไซต์หรือโปรเจกต์ได้ด้วยภาษาพูด บทความจาก The Star อธิบายปรากฏการณ์ “vibecoding” ซึ่งเป็นการใช้ภาษาธรรมชาติพูดคุยกับ AI เพื่อให้ช่วยเขียนโค้ดหรือสร้างแอป โดยไม่ต้องมีพื้นฐานด้านโปรแกรมมิ่งมาก่อน แนวคิดนี้กำลังได้รับความนิยมในหมู่นักพัฒนา นักเรียน และผู้ใช้ทั่วไปที่อยากสร้างสิ่งใหม่ ๆ โดยไม่ต้องเรียนภาษา Java หรือ C++ “Vibecoding” เป็นคำที่ใช้เรียกการเขียนโค้ดร่วมกับ AI โดยใช้ภาษาพูดหรือคำสั่งง่าย ๆ เช่น “ช่วยสร้างเว็บไซต์ขายเสื้อผ้าให้ฉัน” แล้ว AI จะสร้างโครงสร้าง HTML, CSS หรือแม้แต่ backend ให้ทันที แนวคิดนี้เริ่มเป็นที่รู้จักจาก Andrej Karpathy ผู้ร่วมก่อตั้ง OpenAI และถูกนำไปใช้ในหลายวงการ เช่น vibe marketing, vibe analytics และ vibe designing โดย Microsoft ก็ใช้แนวทางนี้ใน Copilot เพื่อช่วยสร้างสไลด์และสเปรดชีต Kyle Jensen จาก Yale School of Management กล่าวว่า “AI-assisted software development” ฟังดูเป็นทางการเกินไป แต่ “vibecoding” ให้ความรู้สึกเข้าถึงง่ายและเป็นกันเองมากกว่า แม้จะดูง่าย แต่การใช้ AI สร้างแอปก็ยังมีข้อจำกัด เช่น AI อาจสร้างโค้ดผิดพลาด หรือหลุดจากบริบทที่ผู้ใช้ต้องการได้ ดังนั้นผู้ที่มีพื้นฐานด้านโปรแกรมมิ่งจะสามารถควบคุมและแก้ไขได้ดีกว่า นักพัฒนาอย่าง Simon Last จาก Notion เปรียบเทียบว่า การใช้ AI เขียนโค้ดก็เหมือน “ดูแลเด็กฝึกงาน” ที่ต้องคอยตรวจสอบและแก้ไขให้ถูกต้อง ✅ ความหมายของ “vibecoding” ➡️ ใช้ภาษาธรรมชาติสั่ง AI ให้สร้างโค้ดหรือแอป ➡️ ไม่ต้องมีพื้นฐานโปรแกรมมิ่งก็เริ่มต้นได้ ✅ จุดเด่นของแนวทางนี้ ➡️ เข้าถึงง่าย เหมาะกับผู้เริ่มต้น ➡️ ใช้ในหลายวงการ เช่น marketing, analytics, design ➡️ Microsoft ใช้ใน Copilot เพื่อสร้างงานนำเสนอและเอกสาร ✅ ข้อจำกัดของ vibecoding ➡️ AI อาจสร้างโค้ดผิดหรือหลุดบริบท ➡️ ผู้ใช้ที่เข้าใจโค้ดจะสามารถควบคุมได้ดีกว่า ➡️ ต้องมีการตรวจสอบและแก้ไขจากมนุษย์ ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ เปรียบเทียบ AI coding tools กับเด็กฝึกงาน ➡️ เป็นผู้ช่วยที่ดี แต่ยังไม่แทนมนุษย์ได้ทั้งหมด ➡️ ช่วยให้การเรียนรู้เร็วขึ้นและลดความยากในการเริ่มต้น ‼️ คำเตือนสำหรับผู้ใช้ AI สร้างโค้ด ⛔ อย่าพึ่งพา AI โดยไม่ตรวจสอบผลลัพธ์ ⛔ ควรเรียนรู้พื้นฐานโค้ดเพื่อควบคุมและแก้ไขได้ ⛔ อย่าใช้ AI สร้างระบบที่มีความเสี่ยงสูงโดยไม่มีการตรวจสอบจากผู้เชี่ยวชาญ https://www.thestar.com.my/tech/tech-news/2025/10/27/with-vibecoding-ai-can-help-anyone-build-an-app
    WWW.THESTAR.COM.MY
    With 'vibecoding', AI can help anyone build an app
    Bringing on artificial intelligence as a collaborator can make coding feel more accessible to those with little training in it, but there are trade-offs.
    0 Comments 0 Shares 21 Views 0 Reviews
  • Big Tech เตรียมรายงานผลประกอบการท่ามกลางความกังวล “ฟองสบู่ AI” — นักลงทุนเริ่มตั้งคำถามว่า AI โตเร็วเกินไปหรือเปล่า

    บทความจาก The Star รายงานว่า Microsoft, Alphabet, Amazon และ Meta เตรียมประกาศผลประกอบการไตรมาสล่าสุดในช่วงปลายเดือนตุลาคม 2025 โดยนักวิเคราะห์เริ่มตั้งคำถามว่า การเติบโตของธุรกิจ AI ที่รวดเร็วและการลงทุนมหาศาลอาจนำไปสู่ “ฟองสบู่” ที่คล้ายกับยุคดอทคอมหรือไม่

    บริษัทเทคโนโลยีรายใหญ่ของสหรัฐฯ ได้ทุ่มเงินหลายพันล้านดอลลาร์ในช่วง 2 ปีที่ผ่านมาเพื่อพัฒนาและขยายธุรกิจด้าน AI เช่น cloud AI, LLMs, และการประมวลผลแบบ edge แต่ในขณะที่รายได้ยังเติบโต นักลงทุนเริ่มกังวลว่า “ความคาดหวัง” อาจสูงเกิน “ผลลัพธ์จริง”

    Microsoft, Alphabet, Amazon และ Meta ต่างคาดว่าจะรายงานรายได้ที่เพิ่มขึ้นในไตรมาสกรกฎาคม–กันยายน 2025 โดยเฉพาะจากบริการ cloud และโซลูชัน AI สำหรับองค์กร แต่คำถามคือ “การเติบโตนี้ยั่งยืนหรือไม่?”

    นักวิเคราะห์บางรายเปรียบเทียบสถานการณ์กับฟองสบู่ดอทคอมในปี 2000 ที่บริษัทเทคโนโลยีเติบโตเร็วแต่ไม่มีรายได้จริงรองรับ ขณะที่บริษัท AI หลายแห่งยังไม่มีโมเดลธุรกิจที่ชัดเจน

    อย่างไรก็ตาม บริษัทยักษ์ใหญ่ยังคงยืนยันว่าจะลงทุนใน AI ต่อไป เพราะเชื่อว่าเป็นเทคโนโลยีหลักในระยะยาว แม้จะต้องเผชิญกับแรงกดดันจากผู้ถือหุ้นและการตรวจสอบจากหน่วยงานกำกับดูแล

    Big Tech เตรียมรายงานผลประกอบการ
    Microsoft, Alphabet, Amazon และ Meta
    รายได้จาก cloud และ AI ยังเติบโต

    ความกังวลเรื่อง “ฟองสบู่ AI”
    นักลงทุนเริ่มตั้งคำถามถึงความยั่งยืน
    เปรียบเทียบกับฟองสบู่ดอทคอมปี 2000
    บริษัท AI บางแห่งยังไม่มีรายได้จริง

    การลงทุนใน AI ยังไม่หยุด
    บริษัทใหญ่ยังคงทุ่มเงินใน GenAI และโครงสร้างพื้นฐาน
    เชื่อว่า AI เป็นเทคโนโลยีหลักในอนาคต
    ต้องเผชิญแรงกดดันจากผู้ถือหุ้นและหน่วยงานกำกับดูแล

    https://www.thestar.com.my/tech/tech-news/2025/10/27/big-tech-to-report-earnings-under-specter-of-ai-bubble
    📉 Big Tech เตรียมรายงานผลประกอบการท่ามกลางความกังวล “ฟองสบู่ AI” — นักลงทุนเริ่มตั้งคำถามว่า AI โตเร็วเกินไปหรือเปล่า บทความจาก The Star รายงานว่า Microsoft, Alphabet, Amazon และ Meta เตรียมประกาศผลประกอบการไตรมาสล่าสุดในช่วงปลายเดือนตุลาคม 2025 โดยนักวิเคราะห์เริ่มตั้งคำถามว่า การเติบโตของธุรกิจ AI ที่รวดเร็วและการลงทุนมหาศาลอาจนำไปสู่ “ฟองสบู่” ที่คล้ายกับยุคดอทคอมหรือไม่ บริษัทเทคโนโลยีรายใหญ่ของสหรัฐฯ ได้ทุ่มเงินหลายพันล้านดอลลาร์ในช่วง 2 ปีที่ผ่านมาเพื่อพัฒนาและขยายธุรกิจด้าน AI เช่น cloud AI, LLMs, และการประมวลผลแบบ edge แต่ในขณะที่รายได้ยังเติบโต นักลงทุนเริ่มกังวลว่า “ความคาดหวัง” อาจสูงเกิน “ผลลัพธ์จริง” Microsoft, Alphabet, Amazon และ Meta ต่างคาดว่าจะรายงานรายได้ที่เพิ่มขึ้นในไตรมาสกรกฎาคม–กันยายน 2025 โดยเฉพาะจากบริการ cloud และโซลูชัน AI สำหรับองค์กร แต่คำถามคือ “การเติบโตนี้ยั่งยืนหรือไม่?” นักวิเคราะห์บางรายเปรียบเทียบสถานการณ์กับฟองสบู่ดอทคอมในปี 2000 ที่บริษัทเทคโนโลยีเติบโตเร็วแต่ไม่มีรายได้จริงรองรับ ขณะที่บริษัท AI หลายแห่งยังไม่มีโมเดลธุรกิจที่ชัดเจน อย่างไรก็ตาม บริษัทยักษ์ใหญ่ยังคงยืนยันว่าจะลงทุนใน AI ต่อไป เพราะเชื่อว่าเป็นเทคโนโลยีหลักในระยะยาว แม้จะต้องเผชิญกับแรงกดดันจากผู้ถือหุ้นและการตรวจสอบจากหน่วยงานกำกับดูแล ✅ Big Tech เตรียมรายงานผลประกอบการ ➡️ Microsoft, Alphabet, Amazon และ Meta ➡️ รายได้จาก cloud และ AI ยังเติบโต ✅ ความกังวลเรื่อง “ฟองสบู่ AI” ➡️ นักลงทุนเริ่มตั้งคำถามถึงความยั่งยืน ➡️ เปรียบเทียบกับฟองสบู่ดอทคอมปี 2000 ➡️ บริษัท AI บางแห่งยังไม่มีรายได้จริง ✅ การลงทุนใน AI ยังไม่หยุด ➡️ บริษัทใหญ่ยังคงทุ่มเงินใน GenAI และโครงสร้างพื้นฐาน ➡️ เชื่อว่า AI เป็นเทคโนโลยีหลักในอนาคต ➡️ ต้องเผชิญแรงกดดันจากผู้ถือหุ้นและหน่วยงานกำกับดูแล https://www.thestar.com.my/tech/tech-news/2025/10/27/big-tech-to-report-earnings-under-specter-of-ai-bubble
    WWW.THESTAR.COM.MY
    Big Tech to report earnings under specter of AI bubble
    (Reuters) -As America's tech titans report earnings this week, one question looms large: is the artificial intelligence boom that has inflated valuations headed for the next big bubble?
    0 Comments 0 Shares 29 Views 0 Reviews
  • Meta เปิดตัว “Ghost Posts” บน Threads — แชร์ได้แบบไม่ต้องกลัวถูกจดจำ

    Meta เปิดตัวฟีเจอร์ใหม่บนแอป Threads ที่ชื่อว่า “Ghost Posts” ซึ่งเป็นโพสต์ที่หายไปอัตโนมัติภายใน 24 ชั่วโมงหลังจากเผยแพร่ โดยมีเป้าหมายเพื่อให้ผู้ใช้สามารถแชร์ความคิดแบบสดใหม่โดยไม่ต้องกังวลเรื่องความถาวรหรือภาพลักษณ์

    Ghost Posts เป็นฟีเจอร์ที่คล้ายกับ “Stories” บน Instagram และ Facebook แต่ถูกออกแบบมาให้ใช้ใน Threads ซึ่งเป็นแพลตฟอร์มที่เน้นการสนทนาแบบข้อความ ผู้ใช้สามารถเปิดใช้งานฟีเจอร์นี้ได้โดยกดไอคอนรูปผีในหน้าสร้างโพสต์

    โพสต์ที่เป็น Ghost จะปรากฏในฟีดเป็นฟองข้อความสีเทาแบบจุดไข่ปลา เพื่อแยกจากโพสต์ปกติ และจะถูกลบอัตโนมัติหลัง 24 ชั่วโมง โดยไม่ต้องให้ผู้ใช้ลบเอง

    ที่สำคัญคือ การตอบกลับโพสต์แบบ Ghost จะถูกส่งไปยังกล่องข้อความของผู้โพสต์เท่านั้น ไม่แสดงต่อสาธารณะ ทำให้ผู้ใช้สามารถพูดคุยแบบส่วนตัวได้มากขึ้น

    Meta ระบุว่า ฟีเจอร์นี้ช่วยให้ผู้ใช้ “แชร์ความคิดแบบไม่ต้องกลัวว่าจะถูกจดจำหรือถูกตัดสิน” และเป็นการส่งเสริมการใช้งาน Threads ให้หลากหลายขึ้น

    Ghost Posts คืออะไร
    โพสต์ที่หายไปอัตโนมัติภายใน 24 ชั่วโมง
    ใช้ไอคอนรูปผีเพื่อเปิดใช้งานในหน้าสร้างโพสต์
    แสดงเป็นฟองข้อความสีเทาแบบ dotted bubble

    การตอบกลับแบบส่วนตัว
    คอมเมนต์จะถูกส่งไปยังกล่องข้อความของผู้โพสต์
    ไม่แสดงต่อสาธารณะหรือในฟีด

    เป้าหมายของฟีเจอร์
    ส่งเสริมการแชร์ความคิดแบบไม่ต้องกลัวผลกระทบ
    ลดแรงกดดันจากการโพสต์แบบถาวร
    เพิ่มความหลากหลายในการใช้งาน Threads

    คำเตือนสำหรับผู้ใช้
    แม้โพสต์จะหายไป แต่อาจถูกแคปหน้าจอหรือบันทึกโดยผู้อื่น
    ไม่ควรใช้ Ghost Posts เพื่อแชร์ข้อมูลส่วนตัวหรือเนื้อหาละเมิด
    การตอบกลับแบบส่วนตัวอาจทำให้เกิดความเข้าใจผิดหากไม่ระวัง

    https://www.thestar.com.my/tech/tech-news/2025/10/28/meta-launches-039ghost-posts039-that-disappear-after-24-hours-on-threads
    👻 Meta เปิดตัว “Ghost Posts” บน Threads — แชร์ได้แบบไม่ต้องกลัวถูกจดจำ Meta เปิดตัวฟีเจอร์ใหม่บนแอป Threads ที่ชื่อว่า “Ghost Posts” ซึ่งเป็นโพสต์ที่หายไปอัตโนมัติภายใน 24 ชั่วโมงหลังจากเผยแพร่ โดยมีเป้าหมายเพื่อให้ผู้ใช้สามารถแชร์ความคิดแบบสดใหม่โดยไม่ต้องกังวลเรื่องความถาวรหรือภาพลักษณ์ Ghost Posts เป็นฟีเจอร์ที่คล้ายกับ “Stories” บน Instagram และ Facebook แต่ถูกออกแบบมาให้ใช้ใน Threads ซึ่งเป็นแพลตฟอร์มที่เน้นการสนทนาแบบข้อความ ผู้ใช้สามารถเปิดใช้งานฟีเจอร์นี้ได้โดยกดไอคอนรูปผีในหน้าสร้างโพสต์ โพสต์ที่เป็น Ghost จะปรากฏในฟีดเป็นฟองข้อความสีเทาแบบจุดไข่ปลา เพื่อแยกจากโพสต์ปกติ และจะถูกลบอัตโนมัติหลัง 24 ชั่วโมง โดยไม่ต้องให้ผู้ใช้ลบเอง ที่สำคัญคือ การตอบกลับโพสต์แบบ Ghost จะถูกส่งไปยังกล่องข้อความของผู้โพสต์เท่านั้น ไม่แสดงต่อสาธารณะ ทำให้ผู้ใช้สามารถพูดคุยแบบส่วนตัวได้มากขึ้น Meta ระบุว่า ฟีเจอร์นี้ช่วยให้ผู้ใช้ “แชร์ความคิดแบบไม่ต้องกลัวว่าจะถูกจดจำหรือถูกตัดสิน” และเป็นการส่งเสริมการใช้งาน Threads ให้หลากหลายขึ้น ✅ Ghost Posts คืออะไร ➡️ โพสต์ที่หายไปอัตโนมัติภายใน 24 ชั่วโมง ➡️ ใช้ไอคอนรูปผีเพื่อเปิดใช้งานในหน้าสร้างโพสต์ ➡️ แสดงเป็นฟองข้อความสีเทาแบบ dotted bubble ✅ การตอบกลับแบบส่วนตัว ➡️ คอมเมนต์จะถูกส่งไปยังกล่องข้อความของผู้โพสต์ ➡️ ไม่แสดงต่อสาธารณะหรือในฟีด ✅ เป้าหมายของฟีเจอร์ ➡️ ส่งเสริมการแชร์ความคิดแบบไม่ต้องกลัวผลกระทบ ➡️ ลดแรงกดดันจากการโพสต์แบบถาวร ➡️ เพิ่มความหลากหลายในการใช้งาน Threads ‼️ คำเตือนสำหรับผู้ใช้ ⛔ แม้โพสต์จะหายไป แต่อาจถูกแคปหน้าจอหรือบันทึกโดยผู้อื่น ⛔ ไม่ควรใช้ Ghost Posts เพื่อแชร์ข้อมูลส่วนตัวหรือเนื้อหาละเมิด ⛔ การตอบกลับแบบส่วนตัวอาจทำให้เกิดความเข้าใจผิดหากไม่ระวัง https://www.thestar.com.my/tech/tech-news/2025/10/28/meta-launches-039ghost-posts039-that-disappear-after-24-hours-on-threads
    WWW.THESTAR.COM.MY
    Meta launches 'ghost posts' that disappear after 24 hours on Threads
    (Reuters) -Social media giant Meta launched on Monday posts that are automatically archived 24 hours after being uploaded, dubbed "ghost posts," on its Threads app, mimicking a popular feature available on its other platforms.
    0 Comments 0 Shares 23 Views 0 Reviews
  • Foxconn ทุ่มงบ $1.37 พันล้าน สร้างศูนย์ซูเปอร์คอมพิวเตอร์และคลัสเตอร์ AI — ขยายแพลตฟอร์มคลาวด์และเร่งพัฒนาโครงสร้างอัจฉริยะ

    Foxconn หรือ Hon Hai Precision Industry Co Ltd ประกาศแผนลงทุนสูงสุดถึง NT$42 พันล้าน (ประมาณ $1.37 พันล้านดอลลาร์สหรัฐ) เพื่อจัดซื้ออุปกรณ์สำหรับสร้างคลัสเตอร์ AI และศูนย์ซูเปอร์คอมพิวเตอร์ โดยจะใช้เงินทุนของบริษัทเองตั้งแต่เดือนธันวาคม 2025 ถึงธันวาคม 2026

    Foxconn ซึ่งเป็นผู้ผลิตอิเล็กทรอนิกส์รายใหญ่ที่สุดในโลก กำลังเร่งขยายธุรกิจด้าน AI และคลาวด์ โดยการลงทุนครั้งนี้มีเป้าหมายเพื่อเสริมความแข็งแกร่งให้กับแพลตฟอร์มคลาวด์ของบริษัท และเร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ” ที่เป็นยุทธศาสตร์หลักขององค์กร

    แม้จะยังไม่เปิดเผยสถานที่ตั้งของศูนย์ซูเปอร์คอมพิวเตอร์ แต่แผนนี้ต่อยอดจากโครงการก่อนหน้า เช่น การร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน และการผลิตอุปกรณ์ดาต้าเซ็นเตอร์ร่วมกับ SoftBank ที่โรงงานเดิมในรัฐโอไฮโอ สหรัฐฯ ซึ่งเป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริมโครงสร้างพื้นฐาน AI ในอเมริกา

    Foxconn กำลังเปลี่ยนบทบาทจากผู้ผลิตฮาร์ดแวร์แบบดั้งเดิม ไปสู่ผู้ให้บริการโครงสร้างพื้นฐาน AI ระดับโลก โดยเน้นการลงทุนใน compute power, cloud services และ edge AI

    Foxconn ลงทุน $1.37 พันล้านในคลัสเตอร์ AI
    ใช้เงินทุนของบริษัทเอง
    ลงทุนระหว่าง ธ.ค. 2025 – ธ.ค. 2026
    ยังไม่เปิดเผยสถานที่ตั้งของศูนย์

    เป้าหมายของการลงทุน
    ขยายแพลตฟอร์มคลาวด์ของกลุ่ม
    เร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ”
    เสริมศักยภาพด้าน compute และ AI infrastructure

    โครงการที่เกี่ยวข้องก่อนหน้า
    ร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน
    ผลิตอุปกรณ์ดาต้าเซ็นเตอร์กับ SoftBank ที่โอไฮโอ
    เป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริม AI infrastructure ในสหรัฐฯ

    คำเตือนสำหรับผู้ติดตามอุตสาหกรรม AI
    การลงทุนขนาดใหญ่ใน compute power อาจกระตุ้นการแข่งขันด้านพลังงานและทรัพยากร
    การขยายโครงสร้างพื้นฐาน AI ต้องมาพร้อมการจัดการด้านความปลอดภัยและความเป็นส่วนตัว
    การเปลี่ยนบทบาทของผู้ผลิตฮาร์ดแวร์อาจส่งผลต่อห่วงโซ่อุปทานเดิม

    https://www.thestar.com.my/tech/tech-news/2025/10/28/foxconn-to-invest-up-to-137-billion-in-ai-compute-cluster-supercomputing-centre
    🏭 Foxconn ทุ่มงบ $1.37 พันล้าน สร้างศูนย์ซูเปอร์คอมพิวเตอร์และคลัสเตอร์ AI — ขยายแพลตฟอร์มคลาวด์และเร่งพัฒนาโครงสร้างอัจฉริยะ Foxconn หรือ Hon Hai Precision Industry Co Ltd ประกาศแผนลงทุนสูงสุดถึง NT$42 พันล้าน (ประมาณ $1.37 พันล้านดอลลาร์สหรัฐ) เพื่อจัดซื้ออุปกรณ์สำหรับสร้างคลัสเตอร์ AI และศูนย์ซูเปอร์คอมพิวเตอร์ โดยจะใช้เงินทุนของบริษัทเองตั้งแต่เดือนธันวาคม 2025 ถึงธันวาคม 2026 Foxconn ซึ่งเป็นผู้ผลิตอิเล็กทรอนิกส์รายใหญ่ที่สุดในโลก กำลังเร่งขยายธุรกิจด้าน AI และคลาวด์ โดยการลงทุนครั้งนี้มีเป้าหมายเพื่อเสริมความแข็งแกร่งให้กับแพลตฟอร์มคลาวด์ของบริษัท และเร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ” ที่เป็นยุทธศาสตร์หลักขององค์กร แม้จะยังไม่เปิดเผยสถานที่ตั้งของศูนย์ซูเปอร์คอมพิวเตอร์ แต่แผนนี้ต่อยอดจากโครงการก่อนหน้า เช่น การร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน และการผลิตอุปกรณ์ดาต้าเซ็นเตอร์ร่วมกับ SoftBank ที่โรงงานเดิมในรัฐโอไฮโอ สหรัฐฯ ซึ่งเป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริมโครงสร้างพื้นฐาน AI ในอเมริกา Foxconn กำลังเปลี่ยนบทบาทจากผู้ผลิตฮาร์ดแวร์แบบดั้งเดิม ไปสู่ผู้ให้บริการโครงสร้างพื้นฐาน AI ระดับโลก โดยเน้นการลงทุนใน compute power, cloud services และ edge AI ✅ Foxconn ลงทุน $1.37 พันล้านในคลัสเตอร์ AI ➡️ ใช้เงินทุนของบริษัทเอง ➡️ ลงทุนระหว่าง ธ.ค. 2025 – ธ.ค. 2026 ➡️ ยังไม่เปิดเผยสถานที่ตั้งของศูนย์ ✅ เป้าหมายของการลงทุน ➡️ ขยายแพลตฟอร์มคลาวด์ของกลุ่ม ➡️ เร่งพัฒนา “สามแพลตฟอร์มอัจฉริยะ” ➡️ เสริมศักยภาพด้าน compute และ AI infrastructure ✅ โครงการที่เกี่ยวข้องก่อนหน้า ➡️ ร่วมมือกับ Nvidia สร้างศูนย์ AI ในไต้หวัน ➡️ ผลิตอุปกรณ์ดาต้าเซ็นเตอร์กับ SoftBank ที่โอไฮโอ ➡️ เป็นส่วนหนึ่งของโครงการ Stargate เพื่อเสริม AI infrastructure ในสหรัฐฯ ‼️ คำเตือนสำหรับผู้ติดตามอุตสาหกรรม AI ⛔ การลงทุนขนาดใหญ่ใน compute power อาจกระตุ้นการแข่งขันด้านพลังงานและทรัพยากร ⛔ การขยายโครงสร้างพื้นฐาน AI ต้องมาพร้อมการจัดการด้านความปลอดภัยและความเป็นส่วนตัว ⛔ การเปลี่ยนบทบาทของผู้ผลิตฮาร์ดแวร์อาจส่งผลต่อห่วงโซ่อุปทานเดิม https://www.thestar.com.my/tech/tech-news/2025/10/28/foxconn-to-invest-up-to-137-billion-in-ai-compute-cluster-supercomputing-centre
    WWW.THESTAR.COM.MY
    Foxconn to invest up to $1.37 billion in AI compute cluster, supercomputing centre
    TAIPEI (Reuters) -Taiwan's Foxconn said its board of directors has approved an investment plan to procure equipment for a AI compute cluster and a supercomputing centre, that will allow it to spend up to NT$42 billion ($1.37 billion).
    0 Comments 0 Shares 32 Views 0 Reviews
  • กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก

    บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ

    ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา

    เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์

    โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์

    รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี

    โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน
    ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle
    ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี

    ซูเปอร์คอมพิวเตอร์ “Lux”
    ใช้ AMD Instinct MI355X accelerators
    เริ่มใช้งานภายใน 6 เดือน
    เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI

    ซูเปอร์คอมพิวเตอร์ “Discovery”
    ใช้ MI430X-HPC พร้อม Epyc CPU
    เริ่มใช้งานปี 2029
    เน้นงานวิจัยที่ต้องการความแม่นยำสูง

    เป้าหมายของโครงการ
    วิจัยฟิวชันพลังงานและการรักษามะเร็ง
    เสริมความมั่นคงแห่งชาติ
    ใช้ร่วมกันระหว่างภาครัฐและเอกชน

    คำเตือนสำหรับการลงทุนด้าน AI compute
    การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี
    การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย
    ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม

    https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    🚀 กระทรวงพลังงานสหรัฐฯ และ AMD ร่วมลงทุน $1 พันล้าน สร้างซูเปอร์คอมพิวเตอร์ AI สองเครื่อง — หนึ่งในนั้นคือเครื่องที่เร็วที่สุดในโลก บทความจาก Tom’s Hardware รายงานว่า กระทรวงพลังงานสหรัฐฯ (DOE) และ AMD ได้จับมือกันในโครงการมูลค่า $1 พันล้าน เพื่อสร้างซูเปอร์คอมพิวเตอร์สองเครื่องที่ Oak Ridge National Laboratory (ORNL) โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านฟิวชันพลังงาน การรักษามะเร็ง และความมั่นคงแห่งชาติ ซูเปอร์คอมพิวเตอร์เครื่องแรกชื่อว่า “Lux” จะเริ่มใช้งานภายใน 6 เดือน โดยใช้ AMD Instinct MI355X accelerators ที่มีพลังงานบอร์ดสูงถึง 1400 วัตต์ต่อชิ้น Lux จะมีประสิทธิภาพด้าน AI สูงกว่าซูเปอร์คอมพิวเตอร์ปัจจุบันถึง 3 เท่า และถือเป็นการติดตั้งระบบขนาดใหญ่ที่เร็วที่สุดเท่าที่เคยมีมา เครื่องที่สองชื่อว่า “Discovery” จะเริ่มใช้งานในปี 2029 โดยใช้ชิป MI430X-HPC ซึ่งออกแบบให้รองรับการประมวลผลแบบ FP32 และ FP64 สำหรับงานวิจัยที่ต้องการความแม่นยำสูง เช่น ฟิสิกส์และการแพทย์ โครงการนี้เป็นความร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle โดยภาครัฐจะจัดหาสถานที่และพลังงาน ส่วนบริษัทเอกชนจะรับผิดชอบด้านฮาร์ดแวร์และซอฟต์แวร์ รัฐมนตรีพลังงาน Chris Wright ระบุว่า ระบบนี้จะ “เร่งการวิจัยด้านฟิวชันพลังงานและการรักษามะเร็ง” โดยหวังว่าจะสามารถใช้ฟิวชันพลังงานได้จริงภายใน 2–3 ปี และทำให้มะเร็งกลายเป็นโรคที่ควบคุมได้ภายใน 5–8 ปี ✅ โครงการซูเปอร์คอมพิวเตอร์มูลค่า $1 พันล้าน ➡️ ร่วมมือระหว่าง DOE, ORNL, AMD, HPE และ Oracle ➡️ ภาครัฐจัดหาสถานที่และพลังงาน เอกชนจัดหาเทคโนโลยี ✅ ซูเปอร์คอมพิวเตอร์ “Lux” ➡️ ใช้ AMD Instinct MI355X accelerators ➡️ เริ่มใช้งานภายใน 6 เดือน ➡️ เร็วกว่าเครื่องปัจจุบันถึง 3 เท่าในด้าน AI ✅ ซูเปอร์คอมพิวเตอร์ “Discovery” ➡️ ใช้ MI430X-HPC พร้อม Epyc CPU ➡️ เริ่มใช้งานปี 2029 ➡️ เน้นงานวิจัยที่ต้องการความแม่นยำสูง ✅ เป้าหมายของโครงการ ➡️ วิจัยฟิวชันพลังงานและการรักษามะเร็ง ➡️ เสริมความมั่นคงแห่งชาติ ➡️ ใช้ร่วมกันระหว่างภาครัฐและเอกชน ‼️ คำเตือนสำหรับการลงทุนด้าน AI compute ⛔ การใช้พลังงานสูงอาจกระทบต่อสิ่งแวดล้อม หากไม่มีการจัดการที่ดี ⛔ การพึ่งพาบริษัทเอกชนมากเกินไปอาจกระทบต่อความโปร่งใสของงานวิจัย ⛔ ต้องมีการควบคุมการใช้งานเพื่อป้องกันการนำไปใช้ในทางที่ไม่เหมาะสม https://www.tomshardware.com/tech-industry/supercomputers/u-s-department-of-energy-and-amd-cut-a-usd1-billion-deal-for-two-ai-supercomputers-pairing-has-already-birthed-the-two-fastest-machines-on-the-planet
    0 Comments 0 Shares 31 Views 0 Reviews
  • Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia

    Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models

    ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference

    AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ

    ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง

    Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว

    Qualcomm เปิดตัว AI200 และ AI250
    AI200 ใช้งานปี 2026, AI250 ปี 2027
    ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor
    รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing

    ความสามารถด้านฮาร์ดแวร์
    AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW
    AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic
    รองรับ GenAI, confidential computing, และ model encryption

    แพลตฟอร์มซอฟต์แวร์
    รองรับ PyTorch, ONNX, LangChain, vLLM
    มีระบบ onboarding โมเดลแบบคลิกเดียว
    รองรับ disaggregated serving และ virtualization

    คำเตือนสำหรับผู้ใช้งานระดับองค์กร
    ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ
    การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด
    ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    ⚙️ Qualcomm เปิดตัว AI200 และ AI250 — ชิปเร่งการประมวลผล AI สำหรับดาต้าเซ็นเตอร์ ท้าชน AMD และ Nvidia Qualcomm ประกาศเปิดตัวชิปเร่งการประมวลผล AI รุ่นใหม่ AI200 และ AI250 ที่ออกแบบมาเพื่อใช้งานในดาต้าเซ็นเตอร์ โดยใช้สถาปัตยกรรม Hexagon NPU ที่พัฒนามาอย่างต่อเนื่อง พร้อมฟีเจอร์ด้านความปลอดภัยและประสิทธิภาพสูง เพื่อรองรับงาน inference ขนาดใหญ่ เช่น Generative AI และ Transformer models ชิป AI200 จะเริ่มใช้งานในปี 2026 โดยมาพร้อมหน่วยความจำ LPDDR ขนาด 768 GB ต่อแร็ค และระบบระบายความร้อนแบบ liquid cooling รองรับการขยายแบบ scale-up ผ่าน PCIe และ scale-out ผ่าน Ethernet โดยมีพลังงานสูงถึง 160 kW ต่อแร็ค ซึ่งถือว่าแรงมากสำหรับงาน inference AI250 จะเปิดตัวในปี 2027 โดยเพิ่มสถาปัตยกรรม near-memory compute ที่ช่วยเพิ่มแบนด์วิดท์ของหน่วยความจำมากกว่า 10 เท่า และรองรับการแบ่งทรัพยากร compute/memory แบบ dynamic ระหว่างการ์ดต่าง ๆ ทั้งสองรุ่นรองรับการเข้ารหัสโมเดล AI, virtualization, และ confidential computing เพื่อให้เหมาะกับการใช้งานในองค์กรขนาดใหญ่ที่ต้องการความปลอดภัยสูง Qualcomm ยังพัฒนาแพลตฟอร์มซอฟต์แวร์สำหรับ hyperscaler ที่รองรับเครื่องมือยอดนิยม เช่น PyTorch, ONNX, LangChain และ vLLM พร้อมระบบ onboarding โมเดลแบบคลิกเดียว ✅ Qualcomm เปิดตัว AI200 และ AI250 ➡️ AI200 ใช้งานปี 2026, AI250 ปี 2027 ➡️ ใช้ Hexagon NPU ที่รองรับ scalar, vector, tensor ➡️ รองรับ INT2–INT16, FP8–FP16, micro-tile inferencing ✅ ความสามารถด้านฮาร์ดแวร์ ➡️ AI200 มี LPDDR 768 GB ต่อแร็ค, liquid cooling, 160 kW ➡️ AI250 เพิ่ม near-memory compute และการแบ่งทรัพยากรแบบ dynamic ➡️ รองรับ GenAI, confidential computing, และ model encryption ✅ แพลตฟอร์มซอฟต์แวร์ ➡️ รองรับ PyTorch, ONNX, LangChain, vLLM ➡️ มีระบบ onboarding โมเดลแบบคลิกเดียว ➡️ รองรับ disaggregated serving และ virtualization ‼️ คำเตือนสำหรับผู้ใช้งานระดับองค์กร ⛔ ต้องเตรียมระบบระบายความร้อนและพลังงานให้เพียงพอ ⛔ การใช้ AI inference ขนาดใหญ่ต้องมีการจัดการด้านความปลอดภัยอย่างเข้มงวด ⛔ ควรตรวจสอบความเข้ากันได้ของซอฟต์แวร์ก่อนใช้งานจริง https://www.tomshardware.com/tech-industry/artificial-intelligence/qualcomm-unveils-ai200-and-ai250-ai-inference-accelerators-hexagon-takes-on-amd-and-nvidia-in-the-booming-data-center-realm
    0 Comments 0 Shares 29 Views 0 Reviews
  • AMD รีแบรนด์ซีพียู Ryzen 7035 และ 7020 สำหรับโน้ตบุ๊ก — เปลี่ยนชื่อใหม่แต่สเปกเดิม เพื่อปรับภาพลักษณ์ให้ทันยุค

    AMD ประกาศรีแบรนด์ซีพียูโน้ตบุ๊กในกลุ่ม Ryzen 7035 (Zen 3+) และ Ryzen 7020 (Zen 2) โดยเปลี่ยนชื่อรุ่นให้สั้นลงเป็น Ryzen 100 และ Ryzen 10 ตามลำดับ โดยไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ แต่เน้นปรับภาพลักษณ์ให้ดูทันสมัยและสอดคล้องกับผลิตภัณฑ์ใหม่ในกลุ่ม Ryzen AI และ Ryzen 9000

    AMD เลือกใช้วิธีรีแบรนด์ซีพียูโน้ตบุ๊กที่เปิดตัวในปี 2023 โดยเปลี่ยนชื่อจากรุ่นเดิม เช่น Ryzen 7 7735HS เป็น Ryzen 7 170 หรือ Ryzen 5 7520U เป็น Ryzen 5 40 โดยซีพียูเหล่านี้ยังคงใช้สถาปัตยกรรมเดิมคือ Zen 3+ (Rembrandt-R) และ Zen 2 (Mendocino) พร้อมกราฟิก RDNA 2

    การเปลี่ยนชื่อครั้งนี้คล้ายกับแนวทางของ Intel ที่ใช้ชื่อ Core 5 120 แทน Core i5-1135G7 เพื่อให้ดูเรียบง่ายและทันสมัยมากขึ้น แม้จะเป็นชิปรุ่นเก่าก็ตาม

    AMD ระบุว่าการรีแบรนด์นี้เป็นการปรับภาพลักษณ์ให้สอดคล้องกับผลิตภัณฑ์ใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ที่ใช้ชื่อแบบสามหลัก และอาจเป็นการเตรียมความพร้อมสำหรับการเปลี่ยนแปลงระบบการตั้งชื่อในอนาคต

    AMD รีแบรนด์ซีพียูโน้ตบุ๊ก
    Ryzen 7035 (Rembrandt-R) เปลี่ยนเป็น Ryzen 100 series
    Ryzen 7020 (Mendocino) เปลี่ยนเป็น Ryzen 10 series
    ไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ

    ตัวอย่างการเปลี่ยนชื่อ
    Ryzen 7 7735HS → Ryzen 7 170
    Ryzen 5 7535U → Ryzen 5 130
    Ryzen 3 7320U → Ryzen 3 30
    Athlon Gold 7220U → Athlon Gold 20

    เป้าหมายของการรีแบรนด์
    ปรับภาพลักษณ์ให้ทันสมัย
    สอดคล้องกับชื่อรุ่นใหม่ เช่น Ryzen AI 300 และ Ryzen 9000
    อาจเป็นการเตรียมระบบการตั้งชื่อใหม่ในอนาคต

    https://www.tomshardware.com/pc-components/cpus/amd-rebrands-ryzen-7035-7020-series-mobile-processors-zen-2-and-zen-3-chips-receive-new-identities
    🔄 AMD รีแบรนด์ซีพียู Ryzen 7035 และ 7020 สำหรับโน้ตบุ๊ก — เปลี่ยนชื่อใหม่แต่สเปกเดิม เพื่อปรับภาพลักษณ์ให้ทันยุค AMD ประกาศรีแบรนด์ซีพียูโน้ตบุ๊กในกลุ่ม Ryzen 7035 (Zen 3+) และ Ryzen 7020 (Zen 2) โดยเปลี่ยนชื่อรุ่นให้สั้นลงเป็น Ryzen 100 และ Ryzen 10 ตามลำดับ โดยไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ แต่เน้นปรับภาพลักษณ์ให้ดูทันสมัยและสอดคล้องกับผลิตภัณฑ์ใหม่ในกลุ่ม Ryzen AI และ Ryzen 9000 AMD เลือกใช้วิธีรีแบรนด์ซีพียูโน้ตบุ๊กที่เปิดตัวในปี 2023 โดยเปลี่ยนชื่อจากรุ่นเดิม เช่น Ryzen 7 7735HS เป็น Ryzen 7 170 หรือ Ryzen 5 7520U เป็น Ryzen 5 40 โดยซีพียูเหล่านี้ยังคงใช้สถาปัตยกรรมเดิมคือ Zen 3+ (Rembrandt-R) และ Zen 2 (Mendocino) พร้อมกราฟิก RDNA 2 การเปลี่ยนชื่อครั้งนี้คล้ายกับแนวทางของ Intel ที่ใช้ชื่อ Core 5 120 แทน Core i5-1135G7 เพื่อให้ดูเรียบง่ายและทันสมัยมากขึ้น แม้จะเป็นชิปรุ่นเก่าก็ตาม AMD ระบุว่าการรีแบรนด์นี้เป็นการปรับภาพลักษณ์ให้สอดคล้องกับผลิตภัณฑ์ใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ที่ใช้ชื่อแบบสามหลัก และอาจเป็นการเตรียมความพร้อมสำหรับการเปลี่ยนแปลงระบบการตั้งชื่อในอนาคต ✅ AMD รีแบรนด์ซีพียูโน้ตบุ๊ก ➡️ Ryzen 7035 (Rembrandt-R) เปลี่ยนเป็น Ryzen 100 series ➡️ Ryzen 7020 (Mendocino) เปลี่ยนเป็น Ryzen 10 series ➡️ ไม่มีการเปลี่ยนแปลงด้านสเปกหรือประสิทธิภาพ ✅ ตัวอย่างการเปลี่ยนชื่อ ➡️ Ryzen 7 7735HS → Ryzen 7 170 ➡️ Ryzen 5 7535U → Ryzen 5 130 ➡️ Ryzen 3 7320U → Ryzen 3 30 ➡️ Athlon Gold 7220U → Athlon Gold 20 ✅ เป้าหมายของการรีแบรนด์ ➡️ ปรับภาพลักษณ์ให้ทันสมัย ➡️ สอดคล้องกับชื่อรุ่นใหม่ เช่น Ryzen AI 300 และ Ryzen 9000 ➡️ อาจเป็นการเตรียมระบบการตั้งชื่อใหม่ในอนาคต https://www.tomshardware.com/pc-components/cpus/amd-rebrands-ryzen-7035-7020-series-mobile-processors-zen-2-and-zen-3-chips-receive-new-identities
    0 Comments 0 Shares 21 Views 0 Reviews
  • กมธ.ต่างประเทศ จ่อเชิญ อนุทิน-รมว.ต่างประเทศ ชี้แจง MOU แร่แรร์เอิร์ธ เรียกร้องเปิดข้อมูลทั้งหมด
    https://www.thai-tai.tv/news/22079/
    .
    #ไทยไท #สรัสนันท์อรรณนพพร #MOUแร่แรร์เอิร์ธ #กมธต่างประเทศ #อนุทิน #ภูมิรัฐศาสตร์
    กมธ.ต่างประเทศ จ่อเชิญ อนุทิน-รมว.ต่างประเทศ ชี้แจง MOU แร่แรร์เอิร์ธ เรียกร้องเปิดข้อมูลทั้งหมด https://www.thai-tai.tv/news/22079/ . #ไทยไท #สรัสนันท์อรรณนพพร #MOUแร่แรร์เอิร์ธ #กมธต่างประเทศ #อนุทิน #ภูมิรัฐศาสตร์
    0 Comments 0 Shares 10 Views 0 Reviews
  • จีนยังใช้ชิป Nvidia H100 ในโดรนทหารอัตโนมัติ แม้ถูกสหรัฐฯ แบน — DeepSeek ถูกสงสัยว่าเทรนด้วยเทคโนโลยีอเมริกัน

    บทความจาก Tom’s Hardware เผยว่าโดรนทหารอัตโนมัติรุ่น P60 ของ Norinco ซึ่งเป็นบริษัทของรัฐจีน ใช้ระบบ AI ที่ชื่อว่า DeepSeek ในการควบคุมการเคลื่อนที่และสนับสนุนการรบ โดยมีหลักฐานว่าระบบนี้อาจถูกเทรนด้วยชิป Nvidia H100 ที่ถูกสหรัฐฯ แบนการส่งออกไปยังจีนตั้งแต่ปี 2022

    แม้สหรัฐฯ จะจำกัดการส่งออกชิป AI ระดับสูง เช่น Nvidia H100 และ A100 ไปยังจีน แต่การสืบสวนของ Reuters พบว่าหน่วยงานวิจัยของกองทัพจีน เช่น National University of Defense Technology (NUDT) ยังมีการใช้ชิปเหล่านี้ในงานวิจัย โดยมีการกล่าวถึงในสิทธิบัตรกว่า 35 ฉบับ

    หนึ่งในสิทธิบัตรถูกยื่นในเดือนมิถุนายน 2025 ซึ่งอาจหมายถึงการใช้งานหลังจากมีการควบคุมการส่งออกแล้ว แม้จะไม่สามารถยืนยันได้ว่าชิปถูกนำเข้าอย่างถูกกฎหมายหรือผ่านตลาดมือสอง

    DeepSeek ซึ่งเป็นระบบ AI ที่ใช้ในโดรน P60 ถูกสงสัยว่าเทรนด้วยชิป Nvidia แต่รุ่นล่าสุดของมันสามารถทำงานร่วมกับชิป Huawei Ascend และซอฟต์แวร์ CANN ของจีนได้แล้ว

    Nvidia ระบุว่า “การรีไซเคิลชิปเก่าไม่ก่อให้เกิดภัยคุกคามใหม่” และ “การใช้ผลิตภัณฑ์ที่ถูกจำกัดในงานทหารจะไม่สามารถทำงานได้โดยไม่มีซอฟต์แวร์และการสนับสนุน”

    โดรน P60 ของจีนใช้ระบบ AI DeepSeek
    พัฒนาโดย Norinco บริษัทของรัฐ
    เคลื่อนที่ได้ 50 กม./ชม. และมีความสามารถสนับสนุนการรบอัตโนมัติ

    การใช้ชิป Nvidia H100 แม้ถูกแบน
    พบในสิทธิบัตรของ NUDT และสถาบันวิจัยอื่น ๆ
    มีสิทธิบัตรล่าสุดในปี 2025 ที่กล่าวถึง A100
    อาจได้มาจากตลาดมือสองหรือก่อนการควบคุม

    ความพยายามของจีนในการพึ่งพาชิปในประเทศ
    ใช้ Huawei Ascend และซอฟต์แวร์ CANN
    DeepSeek รุ่นใหม่รองรับชิปจีนโดยตรง

    มุมมองจาก Nvidia
    การใช้ชิปเก่าไม่ก่อให้เกิดภัยใหม่
    ไม่มีซอฟต์แวร์หรือการสนับสนุนสำหรับงานทหาร

    คำเตือนด้านความมั่นคง
    การใช้ชิป AI ในงานทหารอาจนำไปสู่การพัฒนาอาวุธอัตโนมัติ
    การควบคุมการส่งออกอาจไม่สามารถหยุดการใช้งานได้จริง
    การพึ่งพาตลาดมือสองเปิดช่องให้เกิดการละเมิดนโยบาย

    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-autonomous-military-combat-drone-powered-by-deepseek-highlights-nvidia-reliance-investigation-reveals-peoples-liberation-army-supporting-institutions-continue-to-use-restricted-h100-chips
    🇨🇳 จีนยังใช้ชิป Nvidia H100 ในโดรนทหารอัตโนมัติ แม้ถูกสหรัฐฯ แบน — DeepSeek ถูกสงสัยว่าเทรนด้วยเทคโนโลยีอเมริกัน บทความจาก Tom’s Hardware เผยว่าโดรนทหารอัตโนมัติรุ่น P60 ของ Norinco ซึ่งเป็นบริษัทของรัฐจีน ใช้ระบบ AI ที่ชื่อว่า DeepSeek ในการควบคุมการเคลื่อนที่และสนับสนุนการรบ โดยมีหลักฐานว่าระบบนี้อาจถูกเทรนด้วยชิป Nvidia H100 ที่ถูกสหรัฐฯ แบนการส่งออกไปยังจีนตั้งแต่ปี 2022 แม้สหรัฐฯ จะจำกัดการส่งออกชิป AI ระดับสูง เช่น Nvidia H100 และ A100 ไปยังจีน แต่การสืบสวนของ Reuters พบว่าหน่วยงานวิจัยของกองทัพจีน เช่น National University of Defense Technology (NUDT) ยังมีการใช้ชิปเหล่านี้ในงานวิจัย โดยมีการกล่าวถึงในสิทธิบัตรกว่า 35 ฉบับ หนึ่งในสิทธิบัตรถูกยื่นในเดือนมิถุนายน 2025 ซึ่งอาจหมายถึงการใช้งานหลังจากมีการควบคุมการส่งออกแล้ว แม้จะไม่สามารถยืนยันได้ว่าชิปถูกนำเข้าอย่างถูกกฎหมายหรือผ่านตลาดมือสอง DeepSeek ซึ่งเป็นระบบ AI ที่ใช้ในโดรน P60 ถูกสงสัยว่าเทรนด้วยชิป Nvidia แต่รุ่นล่าสุดของมันสามารถทำงานร่วมกับชิป Huawei Ascend และซอฟต์แวร์ CANN ของจีนได้แล้ว Nvidia ระบุว่า “การรีไซเคิลชิปเก่าไม่ก่อให้เกิดภัยคุกคามใหม่” และ “การใช้ผลิตภัณฑ์ที่ถูกจำกัดในงานทหารจะไม่สามารถทำงานได้โดยไม่มีซอฟต์แวร์และการสนับสนุน” ✅ โดรน P60 ของจีนใช้ระบบ AI DeepSeek ➡️ พัฒนาโดย Norinco บริษัทของรัฐ ➡️ เคลื่อนที่ได้ 50 กม./ชม. และมีความสามารถสนับสนุนการรบอัตโนมัติ ✅ การใช้ชิป Nvidia H100 แม้ถูกแบน ➡️ พบในสิทธิบัตรของ NUDT และสถาบันวิจัยอื่น ๆ ➡️ มีสิทธิบัตรล่าสุดในปี 2025 ที่กล่าวถึง A100 ➡️ อาจได้มาจากตลาดมือสองหรือก่อนการควบคุม ✅ ความพยายามของจีนในการพึ่งพาชิปในประเทศ ➡️ ใช้ Huawei Ascend และซอฟต์แวร์ CANN ➡️ DeepSeek รุ่นใหม่รองรับชิปจีนโดยตรง ✅ มุมมองจาก Nvidia ➡️ การใช้ชิปเก่าไม่ก่อให้เกิดภัยใหม่ ➡️ ไม่มีซอฟต์แวร์หรือการสนับสนุนสำหรับงานทหาร ‼️ คำเตือนด้านความมั่นคง ⛔ การใช้ชิป AI ในงานทหารอาจนำไปสู่การพัฒนาอาวุธอัตโนมัติ ⛔ การควบคุมการส่งออกอาจไม่สามารถหยุดการใช้งานได้จริง ⛔ การพึ่งพาตลาดมือสองเปิดช่องให้เกิดการละเมิดนโยบาย https://www.tomshardware.com/tech-industry/artificial-intelligence/chinas-autonomous-military-combat-drone-powered-by-deepseek-highlights-nvidia-reliance-investigation-reveals-peoples-liberation-army-supporting-institutions-continue-to-use-restricted-h100-chips
    0 Comments 0 Shares 33 Views 0 Reviews
  • นักวิจัยเยอรมันสร้างพิกเซล OLED ขนาดเล็กที่สุดในโลก — เล็กเพียง 300 นาโนเมตร อาจใช้สร้างจอ 1080p ขนาดแค่ 1 มม.

    ทีมนักวิจัยจากมหาวิทยาลัย Julius-Maximilians-Universität Würzburg ประเทศเยอรมนี พัฒนา OLED พิกเซลขนาดจิ๋วเพียง 300 x 300 นาโนเมตร ซึ่งเล็กกว่าพิกเซลของ micro-OLED ปัจจุบันถึง 10 เท่า และยังให้ความสว่างเทียบเท่าพิกเซล OLED ขนาดปกติ

    ในโลกของอุปกรณ์สวมใส่ เช่น แว่นตา AR/VR หรือสมาร์ตวอทช์ ความต้องการจอแสดงผลที่เล็ก เบา และคมชัดสูงมีมากขึ้นเรื่อย ๆ นักวิจัยกลุ่มนี้จึงพัฒนา OLED แบบใหม่ที่ใช้ “เสาอากาศทองคำ” (gold antenna) ขนาดนาโนเมตร เพื่อฉีดกระแสไฟและขยายแสงในพื้นที่เล็กมาก

    พิกเซลต้นแบบที่พัฒนาขึ้นสามารถแสดงแสงสีส้มได้ และมีความสว่างเทียบเท่าพิกเซล OLED ขนาด 5x5 ไมโครเมตร ซึ่งเป็นขนาดมาตรฐานของ micro-OLED ในปัจจุบัน หากนำพิกเซลขนาด 300 นาโนเมตรนี้มาจัดเรียงเป็นจอ 1080p จะได้จอที่มีขนาดเพียง 1 มิลลิเมตรเท่านั้น!

    อย่างไรก็ตาม เทคโนโลยีนี้ยังอยู่ในขั้นต้น โดยพิกเซลสามารถทำงานได้เพียง 2 สัปดาห์ก่อนเสื่อมสภาพ นักวิจัยจึงกำลังพัฒนาให้รองรับสี RGB เต็มรูปแบบ และเพิ่มประสิทธิภาพการใช้พลังงาน (ปัจจุบันอยู่ที่เพียง 1%)

    พิกเซล OLED ขนาด 300 x 300 นาโนเมตร
    เล็กกว่าพิกเซล micro-OLED ปัจจุบันกว่า 10 เท่า
    ให้ความสว่างเทียบเท่าพิกเซลขนาด 5x5 ไมโครเมตร

    เทคโนโลยีที่ใช้
    เสาอากาศทองคำฉีดกระแสไฟและขยายแสง
    มีฉนวนพิเศษป้องกันการรั่วของทองคำเข้าสู่วัสดุอินทรีย์

    ศักยภาพของเทคโนโลยี
    สร้างจอ 1080p ขนาดเพียง 1 มิลลิเมตร
    เหมาะกับอุปกรณ์สวมใส่ เช่น แว่นตา AR/VR
    ความหนาแน่นของพิกเซลสูงมาก อาจให้ภาพสมจริงระดับใหม่

    ข้อจำกัดปัจจุบัน
    อายุการใช้งานยังสั้น (ประมาณ 2 สัปดาห์)
    ยังแสดงได้เพียงสีส้ม
    ประสิทธิภาพพลังงานต่ำ (1%)

    https://www.tomshardware.com/monitors/researchers-create-worlds-smallest-pixel-measuring-just-300-nanometers-across-could-be-used-to-create-a-1080p-display-measuring-1mm
    🧬 นักวิจัยเยอรมันสร้างพิกเซล OLED ขนาดเล็กที่สุดในโลก — เล็กเพียง 300 นาโนเมตร อาจใช้สร้างจอ 1080p ขนาดแค่ 1 มม. ทีมนักวิจัยจากมหาวิทยาลัย Julius-Maximilians-Universität Würzburg ประเทศเยอรมนี พัฒนา OLED พิกเซลขนาดจิ๋วเพียง 300 x 300 นาโนเมตร ซึ่งเล็กกว่าพิกเซลของ micro-OLED ปัจจุบันถึง 10 เท่า และยังให้ความสว่างเทียบเท่าพิกเซล OLED ขนาดปกติ ในโลกของอุปกรณ์สวมใส่ เช่น แว่นตา AR/VR หรือสมาร์ตวอทช์ ความต้องการจอแสดงผลที่เล็ก เบา และคมชัดสูงมีมากขึ้นเรื่อย ๆ นักวิจัยกลุ่มนี้จึงพัฒนา OLED แบบใหม่ที่ใช้ “เสาอากาศทองคำ” (gold antenna) ขนาดนาโนเมตร เพื่อฉีดกระแสไฟและขยายแสงในพื้นที่เล็กมาก พิกเซลต้นแบบที่พัฒนาขึ้นสามารถแสดงแสงสีส้มได้ และมีความสว่างเทียบเท่าพิกเซล OLED ขนาด 5x5 ไมโครเมตร ซึ่งเป็นขนาดมาตรฐานของ micro-OLED ในปัจจุบัน หากนำพิกเซลขนาด 300 นาโนเมตรนี้มาจัดเรียงเป็นจอ 1080p จะได้จอที่มีขนาดเพียง 1 มิลลิเมตรเท่านั้น! อย่างไรก็ตาม เทคโนโลยีนี้ยังอยู่ในขั้นต้น โดยพิกเซลสามารถทำงานได้เพียง 2 สัปดาห์ก่อนเสื่อมสภาพ นักวิจัยจึงกำลังพัฒนาให้รองรับสี RGB เต็มรูปแบบ และเพิ่มประสิทธิภาพการใช้พลังงาน (ปัจจุบันอยู่ที่เพียง 1%) ✅ พิกเซล OLED ขนาด 300 x 300 นาโนเมตร ➡️ เล็กกว่าพิกเซล micro-OLED ปัจจุบันกว่า 10 เท่า ➡️ ให้ความสว่างเทียบเท่าพิกเซลขนาด 5x5 ไมโครเมตร ✅ เทคโนโลยีที่ใช้ ➡️ เสาอากาศทองคำฉีดกระแสไฟและขยายแสง ➡️ มีฉนวนพิเศษป้องกันการรั่วของทองคำเข้าสู่วัสดุอินทรีย์ ✅ ศักยภาพของเทคโนโลยี ➡️ สร้างจอ 1080p ขนาดเพียง 1 มิลลิเมตร ➡️ เหมาะกับอุปกรณ์สวมใส่ เช่น แว่นตา AR/VR ➡️ ความหนาแน่นของพิกเซลสูงมาก อาจให้ภาพสมจริงระดับใหม่ ✅ ข้อจำกัดปัจจุบัน ➡️ อายุการใช้งานยังสั้น (ประมาณ 2 สัปดาห์) ➡️ ยังแสดงได้เพียงสีส้ม ➡️ ประสิทธิภาพพลังงานต่ำ (1%) https://www.tomshardware.com/monitors/researchers-create-worlds-smallest-pixel-measuring-just-300-nanometers-across-could-be-used-to-create-a-1080p-display-measuring-1mm
    0 Comments 0 Shares 30 Views 0 Reviews
  • Generative AI สร้างดีไซน์เครื่องพิมพ์ 3D แบบ 5 แกนสุดล้ำ — พิมพ์วัตถุซับซ้อนโดยไม่ต้องใช้โครงรองรับ

    บทความจาก Tom’s Hardware เผยว่า Generative Machine และ Aibuild สองบริษัทจากลอนดอนร่วมกันพัฒนาเครื่องพิมพ์ 3D รุ่นใหม่ชื่อว่า GenerationOne 5-axis โดยใช้ Generative AI ออกแบบโครงสร้างและระบบการพิมพ์ที่สามารถเคลื่อนหัวฉีดได้ 5 แกน ทำให้พิมพ์วัตถุซับซ้อนโดยไม่ต้องใช้ support structure และได้ผิวงานที่เรียบกว่าเดิม

    เครื่องพิมพ์ GenerationOne มีดีไซน์คล้าย Bambu Labs A1 Mini แต่เพิ่มความ “organic” ด้วยแขนพยุงที่ดูเหมือนเส้นใยชีวภาพ ตัวเครื่องใช้ linear rails เพื่อความแม่นยำในการเคลื่อนที่ และสามารถเปลี่ยนแพลตฟอร์มพิมพ์ได้อัตโนมัติ

    Generative AI ถูกใช้ในการออกแบบทั้งโครงสร้างเครื่องและระบบควบคุมการพิมพ์ โดยเน้นการพิมพ์แบบ non-conformal คือสามารถหมุนหัวฉีดให้พิมพ์ในทิศทางที่เหมาะสมกับรูปทรงของวัตถุ ซึ่งช่วยให้ชิ้นงานแข็งแรงขึ้นและไม่ต้องใช้โครงรองรับ

    ซอฟต์แวร์ควบคุมที่ใช้เป็นระดับอุตสาหกรรม โดย Aibuild พัฒนาให้รองรับการ slice แบบ parametric, สร้าง toolpath อัตโนมัติ และ optimize การพิมพ์แบบ multi-axis

    แม้ยังไม่มีข้อมูลเรื่องราคา แต่เครื่องจะเปิดตัวแบบจำกัดจำนวนในงาน Formnext Expo ที่แฟรงก์เฟิร์ต วันที่ 18 พฤศจิกายนนี้

    เครื่องพิมพ์ GenerationOne 5-axis
    ใช้ Generative AI ออกแบบทั้งโครงสร้างและระบบพิมพ์
    เคลื่อนหัวฉีดได้ 5 แกน พิมพ์แบบ non-conformal
    ไม่ต้องใช้ support structure และได้ผิวงานเรียบ

    ดีไซน์และโครงสร้าง
    คล้าย Bambu Labs A1 Mini แต่มีแขนพยุงแบบ organic
    ใช้ linear rails เพื่อความแม่นยำ
    แพลตฟอร์มพิมพ์เปลี่ยนได้อัตโนมัติ

    ซอฟต์แวร์ควบคุมระดับอุตสาหกรรม
    รองรับ parametric slicing และ toolpath generation
    optimize การพิมพ์แบบ multi-axis
    พัฒนาโดย Aibuild

    การเปิดตัว
    เปิดตัวแบบจำกัดจำนวนในงาน Formnext Expo วันที่ 18 พ.ย.
    ยังไม่มีข้อมูลเรื่องราคา

    คำเตือนสำหรับผู้สนใจ
    ยังไม่รองรับวัสดุขั้นสูง เช่น carbon fiber หรือ engineering-grade filament
    เหมาะกับ PLA และ PETG เท่านั้นในรุ่นแรก
    ต้องรอข้อมูลเพิ่มเติมเรื่องราคาและการจัดจำหน่าย

    https://www.tomshardware.com/3d-printing/generative-ai-used-to-create-wild-new-3d-printer-design-exotic-collaboration-brings-5-axis-3d-printing-to-the-desktop
    🧠 Generative AI สร้างดีไซน์เครื่องพิมพ์ 3D แบบ 5 แกนสุดล้ำ — พิมพ์วัตถุซับซ้อนโดยไม่ต้องใช้โครงรองรับ บทความจาก Tom’s Hardware เผยว่า Generative Machine และ Aibuild สองบริษัทจากลอนดอนร่วมกันพัฒนาเครื่องพิมพ์ 3D รุ่นใหม่ชื่อว่า GenerationOne 5-axis โดยใช้ Generative AI ออกแบบโครงสร้างและระบบการพิมพ์ที่สามารถเคลื่อนหัวฉีดได้ 5 แกน ทำให้พิมพ์วัตถุซับซ้อนโดยไม่ต้องใช้ support structure และได้ผิวงานที่เรียบกว่าเดิม เครื่องพิมพ์ GenerationOne มีดีไซน์คล้าย Bambu Labs A1 Mini แต่เพิ่มความ “organic” ด้วยแขนพยุงที่ดูเหมือนเส้นใยชีวภาพ ตัวเครื่องใช้ linear rails เพื่อความแม่นยำในการเคลื่อนที่ และสามารถเปลี่ยนแพลตฟอร์มพิมพ์ได้อัตโนมัติ Generative AI ถูกใช้ในการออกแบบทั้งโครงสร้างเครื่องและระบบควบคุมการพิมพ์ โดยเน้นการพิมพ์แบบ non-conformal คือสามารถหมุนหัวฉีดให้พิมพ์ในทิศทางที่เหมาะสมกับรูปทรงของวัตถุ ซึ่งช่วยให้ชิ้นงานแข็งแรงขึ้นและไม่ต้องใช้โครงรองรับ ซอฟต์แวร์ควบคุมที่ใช้เป็นระดับอุตสาหกรรม โดย Aibuild พัฒนาให้รองรับการ slice แบบ parametric, สร้าง toolpath อัตโนมัติ และ optimize การพิมพ์แบบ multi-axis แม้ยังไม่มีข้อมูลเรื่องราคา แต่เครื่องจะเปิดตัวแบบจำกัดจำนวนในงาน Formnext Expo ที่แฟรงก์เฟิร์ต วันที่ 18 พฤศจิกายนนี้ ✅ เครื่องพิมพ์ GenerationOne 5-axis ➡️ ใช้ Generative AI ออกแบบทั้งโครงสร้างและระบบพิมพ์ ➡️ เคลื่อนหัวฉีดได้ 5 แกน พิมพ์แบบ non-conformal ➡️ ไม่ต้องใช้ support structure และได้ผิวงานเรียบ ✅ ดีไซน์และโครงสร้าง ➡️ คล้าย Bambu Labs A1 Mini แต่มีแขนพยุงแบบ organic ➡️ ใช้ linear rails เพื่อความแม่นยำ ➡️ แพลตฟอร์มพิมพ์เปลี่ยนได้อัตโนมัติ ✅ ซอฟต์แวร์ควบคุมระดับอุตสาหกรรม ➡️ รองรับ parametric slicing และ toolpath generation ➡️ optimize การพิมพ์แบบ multi-axis ➡️ พัฒนาโดย Aibuild ✅ การเปิดตัว ➡️ เปิดตัวแบบจำกัดจำนวนในงาน Formnext Expo วันที่ 18 พ.ย. ➡️ ยังไม่มีข้อมูลเรื่องราคา ‼️ คำเตือนสำหรับผู้สนใจ ⛔ ยังไม่รองรับวัสดุขั้นสูง เช่น carbon fiber หรือ engineering-grade filament ⛔ เหมาะกับ PLA และ PETG เท่านั้นในรุ่นแรก ⛔ ต้องรอข้อมูลเพิ่มเติมเรื่องราคาและการจัดจำหน่าย https://www.tomshardware.com/3d-printing/generative-ai-used-to-create-wild-new-3d-printer-design-exotic-collaboration-brings-5-axis-3d-printing-to-the-desktop
    0 Comments 0 Shares 22 Views 0 Reviews
  • Microsoft ซ่อนตัวเลขขาดทุนจาก OpenAI ไว้ในงบ “other, net” มูลค่า $4.7 พันล้าน — นักลงทุนยังไม่รู้ว่าเสียไปเท่าไร

    Microsoft ไม่เปิดเผยตัวเลขขาดทุนจากการลงทุนใน OpenAI โดยรวมไว้ในหมวด “other, net” มูลค่า $4.7 พันล้านในรายงานประจำปีล่าสุด ซึ่งทำให้นักลงทุนไม่สามารถประเมินได้ว่า Microsoft กำลังแบกรับต้นทุน AI มากแค่ไหน

    Microsoft ลงทุนใน OpenAI มูลค่ารวม $13.75 พันล้าน แต่ในงบดุลล่าสุด ณ วันที่ 30 มิถุนายน 2025 กลับรายงานว่า “equity-method investments” มีมูลค่าเพียง $6 พันล้าน ซึ่งเท่ากับปีที่แล้ว นั่นหมายความว่า:

    อาจมีการขาดทุนจาก OpenAI จนมูลค่าการลงทุนเหลือศูนย์
    หรือยังไม่ได้บันทึกเงินลงทุนทั้งหมดในเชิงบัญชี

    ภายใต้หลักการบัญชี GAAP ของสหรัฐฯ หากบริษัทมี “อิทธิพลอย่างมีนัยสำคัญ” (ถือหุ้น 20–50%) ต้องเปิดเผยธุรกรรมที่เกี่ยวข้องอย่างชัดเจน แต่ Microsoft ไม่ได้ระบุชื่อ OpenAI ในรายงานเลย

    แม้จะมีข่าวว่า OpenAI มีมูลค่าตลาดสูงถึง $500 พันล้าน แต่ Microsoft กลับไม่แสดงมูลค่าการถือหุ้นที่สอดคล้องกันในงบการเงิน ทำให้นักลงทุนต้อง “อ่านระหว่างบรรทัด” เพื่อประเมินความเสี่ยง

    Microsoft ซ่อนตัวเลขขาดทุนจาก OpenAI
    รายงานไว้ในหมวด “other, net” มูลค่า $4.7 พันล้าน
    ไม่ระบุชื่อ OpenAI หรือจัดเป็น “related party”

    ความคลุมเครือในงบการเงิน
    มูลค่าการลงทุนใน OpenAI อาจถูกลดเหลือศูนย์
    หรือยังไม่บันทึกเงินลงทุนทั้งหมดในเชิงบัญชี

    ความเสี่ยงต่อภาพลักษณ์และราคาหุ้น
    นักลงทุนไม่สามารถประเมินต้นทุน AI ได้ชัดเจน
    ราคาหุ้น Microsoft ถูกตั้งบนความคาดหวังด้าน AI
    หากไม่มีความโปร่งใส อาจกระทบความเชื่อมั่น

    ข้อตกลงลับระหว่าง Microsoft กับ OpenAI
    มีเงื่อนไขเปลี่ยนแปลงความสัมพันธ์หาก OpenAI พัฒนา AGI
    ยังไม่มีการเปิดเผยรายละเอียดต่อสาธารณะ

    https://www.tomshardware.com/tech-industry/microsofts-openai-math-is-still-a-black-box
    📉 Microsoft ซ่อนตัวเลขขาดทุนจาก OpenAI ไว้ในงบ “other, net” มูลค่า $4.7 พันล้าน — นักลงทุนยังไม่รู้ว่าเสียไปเท่าไร Microsoft ไม่เปิดเผยตัวเลขขาดทุนจากการลงทุนใน OpenAI โดยรวมไว้ในหมวด “other, net” มูลค่า $4.7 พันล้านในรายงานประจำปีล่าสุด ซึ่งทำให้นักลงทุนไม่สามารถประเมินได้ว่า Microsoft กำลังแบกรับต้นทุน AI มากแค่ไหน Microsoft ลงทุนใน OpenAI มูลค่ารวม $13.75 พันล้าน แต่ในงบดุลล่าสุด ณ วันที่ 30 มิถุนายน 2025 กลับรายงานว่า “equity-method investments” มีมูลค่าเพียง $6 พันล้าน ซึ่งเท่ากับปีที่แล้ว นั่นหมายความว่า: ⛔ อาจมีการขาดทุนจาก OpenAI จนมูลค่าการลงทุนเหลือศูนย์ ⛔ หรือยังไม่ได้บันทึกเงินลงทุนทั้งหมดในเชิงบัญชี ภายใต้หลักการบัญชี GAAP ของสหรัฐฯ หากบริษัทมี “อิทธิพลอย่างมีนัยสำคัญ” (ถือหุ้น 20–50%) ต้องเปิดเผยธุรกรรมที่เกี่ยวข้องอย่างชัดเจน แต่ Microsoft ไม่ได้ระบุชื่อ OpenAI ในรายงานเลย แม้จะมีข่าวว่า OpenAI มีมูลค่าตลาดสูงถึง $500 พันล้าน แต่ Microsoft กลับไม่แสดงมูลค่าการถือหุ้นที่สอดคล้องกันในงบการเงิน ทำให้นักลงทุนต้อง “อ่านระหว่างบรรทัด” เพื่อประเมินความเสี่ยง ✅ Microsoft ซ่อนตัวเลขขาดทุนจาก OpenAI ➡️ รายงานไว้ในหมวด “other, net” มูลค่า $4.7 พันล้าน ➡️ ไม่ระบุชื่อ OpenAI หรือจัดเป็น “related party” ✅ ความคลุมเครือในงบการเงิน ➡️ มูลค่าการลงทุนใน OpenAI อาจถูกลดเหลือศูนย์ ➡️ หรือยังไม่บันทึกเงินลงทุนทั้งหมดในเชิงบัญชี ✅ ความเสี่ยงต่อภาพลักษณ์และราคาหุ้น ➡️ นักลงทุนไม่สามารถประเมินต้นทุน AI ได้ชัดเจน ➡️ ราคาหุ้น Microsoft ถูกตั้งบนความคาดหวังด้าน AI ➡️ หากไม่มีความโปร่งใส อาจกระทบความเชื่อมั่น ✅ ข้อตกลงลับระหว่าง Microsoft กับ OpenAI ➡️ มีเงื่อนไขเปลี่ยนแปลงความสัมพันธ์หาก OpenAI พัฒนา AGI ➡️ ยังไม่มีการเปิดเผยรายละเอียดต่อสาธารณะ https://www.tomshardware.com/tech-industry/microsofts-openai-math-is-still-a-black-box
    0 Comments 0 Shares 24 Views 0 Reviews
  • Lenovo Legion บน Linux เตรียมได้โหมด Extreme ที่แท้จริง — แก้ปัญหาพลังงานผิดพลาด พร้อมระบบอนุญาตเฉพาะรุ่นที่รองรับ

    บทความจาก Tom’s Hardware รายงานว่า Lenovo Legion ที่ใช้ระบบปฏิบัติการ Linux กำลังจะได้รับการอัปเดตใหม่ที่เพิ่มโหมด “Extreme” สำหรับการใช้งานประสิทธิภาพสูง โดยจะมีการตรวจสอบรุ่นก่อนอนุญาตให้ใช้งาน เพื่อป้องกันปัญหาความร้อนและการใช้พลังงานเกินขีดจำกัด

    ก่อนหน้านี้ Legion บน Linux มีปัญหาเรื่อง power profile ที่ไม่ตรงกับความสามารถของเครื่อง เช่น โหมด Extreme ถูกเปิดใช้งานในรุ่นที่ไม่รองรับ ทำให้เกิดความไม่เสถียรและอาจทำให้แบตเตอรี่เสียหาย

    นักพัฒนาอิสระ Derek Clark ได้เสนอ patch ใหม่ให้กับ Lenovo WMI GameZone driver ซึ่งเป็นตัวควบคุมโหมดพลังงานบน Linux โดยเปลี่ยนจากระบบ “deny list” เป็น “allow list” หมายความว่า เฉพาะรุ่นที่ผ่านการตรวจสอบแล้วเท่านั้นที่จะสามารถเปิดใช้งานโหมด Extreme ได้

    โหมดนี้จะตั้งค่า PPT/SPL สูงสุด ทำให้ CPU ใช้พลังงานเต็มที่ เหมาะสำหรับการใช้งานขณะเสียบปลั๊กเท่านั้น เพราะอาจกินพลังงานเกินที่แบตเตอรี่จะรับไหว

    ปัญหาเดิมบน Linux
    โหมด Extreme เปิดใช้งานในรุ่นที่ไม่รองรับ
    ทำให้ระบบไม่เสถียรและแบตเตอรี่เสียหาย

    การแก้ไขด้วย patch ใหม่
    เปลี่ยนจาก deny list เป็น allow list
    เฉพาะรุ่นที่ผ่านการตรวจสอบเท่านั้นที่เปิด Extreme ได้
    ใช้กับ Lenovo WMI GameZone driver บน Linux

    ข้อควรระวังในการใช้งาน
    โหมด Extreme ใช้พลังงานสูงมาก
    เหมาะกับการใช้งานแบบเสียบปลั๊กเท่านั้น
    ยังไม่มีรุ่นใดที่ผ่านการตรวจสอบอย่างเป็นทางการ

    คำเตือนสำหรับผู้ใช้ Linux บน Legion
    อย่าเปิดโหมด Extreme หากเครื่องยังไม่อยู่ใน allow list
    ตรวจสอบ patch และรุ่นที่รองรับก่อนใช้งาน
    ใช้โหมดนี้เฉพาะเมื่อต้องการประสิทธิภาพสูงสุดและมีระบบระบายความร้อนเพียงพอ

    https://www.tomshardware.com/software/linux/lenovo-legion-devices-running-linux-set-to-get-new-extreme-mode-that-fixes-previously-broken-power-limits-only-approved-devices-will-be-able-to-run-the-maximum-performance-mode
    ⚡ Lenovo Legion บน Linux เตรียมได้โหมด Extreme ที่แท้จริง — แก้ปัญหาพลังงานผิดพลาด พร้อมระบบอนุญาตเฉพาะรุ่นที่รองรับ บทความจาก Tom’s Hardware รายงานว่า Lenovo Legion ที่ใช้ระบบปฏิบัติการ Linux กำลังจะได้รับการอัปเดตใหม่ที่เพิ่มโหมด “Extreme” สำหรับการใช้งานประสิทธิภาพสูง โดยจะมีการตรวจสอบรุ่นก่อนอนุญาตให้ใช้งาน เพื่อป้องกันปัญหาความร้อนและการใช้พลังงานเกินขีดจำกัด ก่อนหน้านี้ Legion บน Linux มีปัญหาเรื่อง power profile ที่ไม่ตรงกับความสามารถของเครื่อง เช่น โหมด Extreme ถูกเปิดใช้งานในรุ่นที่ไม่รองรับ ทำให้เกิดความไม่เสถียรและอาจทำให้แบตเตอรี่เสียหาย นักพัฒนาอิสระ Derek Clark ได้เสนอ patch ใหม่ให้กับ Lenovo WMI GameZone driver ซึ่งเป็นตัวควบคุมโหมดพลังงานบน Linux โดยเปลี่ยนจากระบบ “deny list” เป็น “allow list” หมายความว่า เฉพาะรุ่นที่ผ่านการตรวจสอบแล้วเท่านั้นที่จะสามารถเปิดใช้งานโหมด Extreme ได้ โหมดนี้จะตั้งค่า PPT/SPL สูงสุด ทำให้ CPU ใช้พลังงานเต็มที่ เหมาะสำหรับการใช้งานขณะเสียบปลั๊กเท่านั้น เพราะอาจกินพลังงานเกินที่แบตเตอรี่จะรับไหว ✅ ปัญหาเดิมบน Linux ➡️ โหมด Extreme เปิดใช้งานในรุ่นที่ไม่รองรับ ➡️ ทำให้ระบบไม่เสถียรและแบตเตอรี่เสียหาย ✅ การแก้ไขด้วย patch ใหม่ ➡️ เปลี่ยนจาก deny list เป็น allow list ➡️ เฉพาะรุ่นที่ผ่านการตรวจสอบเท่านั้นที่เปิด Extreme ได้ ➡️ ใช้กับ Lenovo WMI GameZone driver บน Linux ✅ ข้อควรระวังในการใช้งาน ➡️ โหมด Extreme ใช้พลังงานสูงมาก ➡️ เหมาะกับการใช้งานแบบเสียบปลั๊กเท่านั้น ➡️ ยังไม่มีรุ่นใดที่ผ่านการตรวจสอบอย่างเป็นทางการ ‼️ คำเตือนสำหรับผู้ใช้ Linux บน Legion ⛔ อย่าเปิดโหมด Extreme หากเครื่องยังไม่อยู่ใน allow list ⛔ ตรวจสอบ patch และรุ่นที่รองรับก่อนใช้งาน ⛔ ใช้โหมดนี้เฉพาะเมื่อต้องการประสิทธิภาพสูงสุดและมีระบบระบายความร้อนเพียงพอ https://www.tomshardware.com/software/linux/lenovo-legion-devices-running-linux-set-to-get-new-extreme-mode-that-fixes-previously-broken-power-limits-only-approved-devices-will-be-able-to-run-the-maximum-performance-mode
    0 Comments 0 Shares 27 Views 0 Reviews
  • AMD ขายธุรกิจผลิตโครงสร้างดาต้าเซ็นเตอร์ของ ZT Systems ให้ Sanmina — มุ่งเน้นการออกแบบและเร่งส่งมอบระบบ AI

    AMD ประกาศเสร็จสิ้นข้อตกลงขายธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ให้กับบริษัท Sanmina โดยยังคงทีมออกแบบและสนับสนุนลูกค้าของ ZT Systems ไว้ เพื่อเร่งการพัฒนาระบบ AI สำหรับลูกค้า cloud

    รายละเอียดข้อตกลง
    ผู้ซื้อ: Sanmina (NASDAQ: SANM) บริษัทผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์รายใหญ่ในสหรัฐฯ

    ผู้ขาย: AMD (NASDAQ: AMD)
    สิ่งที่ขาย: ธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems
    สิ่งที่ AMD เก็บไว้: ทีมออกแบบและทีมสนับสนุนลูกค้าของ ZT Systems

    เป้าหมายของ AMD
    เร่งการส่งมอบระบบ AI สำหรับลูกค้า cloud
    ขยายกลยุทธ์ “rack-scale innovation” ซึ่งหมายถึงการออกแบบระบบตั้งแต่ระดับชิป ซอฟต์แวร์ ไปจนถึงระบบเต็มรูปแบบ
    สร้างพันธมิตรเชิงกลยุทธ์กับ Sanmina เพื่อให้เป็นผู้ผลิตหลักสำหรับผลิตภัณฑ์ใหม่ในกลุ่ม rack และ cluster-scale AI

    ผลกระทบที่น่าจับตา
    AMD จะเน้นด้านการออกแบบและซอฟต์แวร์มากขึ้น แทนการผลิตเอง
    Sanmina จะกลายเป็นพันธมิตรหลักด้านการผลิตระบบ AI ขนาดใหญ่
    ลูกค้า cloud และ AI อาจได้รับระบบที่เร็วขึ้นและยืดหยุ่นมากขึ้น จากการรวมจุดแข็งของทั้งสองบริษัท

    https://www.techpowerup.com/342291/amd-sells-zt-systems-data-center-manufacturing-to-sanmina
    🛠️ AMD ขายธุรกิจผลิตโครงสร้างดาต้าเซ็นเตอร์ของ ZT Systems ให้ Sanmina — มุ่งเน้นการออกแบบและเร่งส่งมอบระบบ AI AMD ประกาศเสร็จสิ้นข้อตกลงขายธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ให้กับบริษัท Sanmina โดยยังคงทีมออกแบบและสนับสนุนลูกค้าของ ZT Systems ไว้ เพื่อเร่งการพัฒนาระบบ AI สำหรับลูกค้า cloud 🔍 รายละเอียดข้อตกลง ผู้ซื้อ: Sanmina (NASDAQ: SANM) บริษัทผู้ผลิตอุปกรณ์อิเล็กทรอนิกส์รายใหญ่ในสหรัฐฯ ➡️ ผู้ขาย: AMD (NASDAQ: AMD) ➡️ สิ่งที่ขาย: ธุรกิจการผลิตโครงสร้างพื้นฐานดาต้าเซ็นเตอร์ของ ZT Systems ➡️ สิ่งที่ AMD เก็บไว้: ทีมออกแบบและทีมสนับสนุนลูกค้าของ ZT Systems 🎯 เป้าหมายของ AMD ➡️ เร่งการส่งมอบระบบ AI สำหรับลูกค้า cloud ➡️ ขยายกลยุทธ์ “rack-scale innovation” ซึ่งหมายถึงการออกแบบระบบตั้งแต่ระดับชิป ซอฟต์แวร์ ไปจนถึงระบบเต็มรูปแบบ ➡️ สร้างพันธมิตรเชิงกลยุทธ์กับ Sanmina เพื่อให้เป็นผู้ผลิตหลักสำหรับผลิตภัณฑ์ใหม่ในกลุ่ม rack และ cluster-scale AI 📌 ผลกระทบที่น่าจับตา ➡️ AMD จะเน้นด้านการออกแบบและซอฟต์แวร์มากขึ้น แทนการผลิตเอง ➡️ Sanmina จะกลายเป็นพันธมิตรหลักด้านการผลิตระบบ AI ขนาดใหญ่ ➡️ ลูกค้า cloud และ AI อาจได้รับระบบที่เร็วขึ้นและยืดหยุ่นมากขึ้น จากการรวมจุดแข็งของทั้งสองบริษัท https://www.techpowerup.com/342291/amd-sells-zt-systems-data-center-manufacturing-to-sanmina
    WWW.TECHPOWERUP.COM
    AMD Sells ZT Systems Data Center Manufacturing to Sanmina
    AMD (NASDAQ: AMD) today announced the completion of the agreement to divest the ZT Systems U.S.-headquartered data center infrastructure manufacturing business to Sanmina (NASDAQ: SANM). As part of the transaction, AMD retains ZT Systems' world-class design and customer enablement teams to accelerat...
    0 Comments 0 Shares 21 Views 0 Reviews
  • Phononic เผยเทคโนโลยีระบายความร้อนแบบใหม่ ช่วยเพิ่มพลัง AI GPU ของ NVIDIA คืนทุนได้ในไม่กี่เดือน

    Phononic บริษัทเทคโนโลยีด้านการระบายความร้อน เปิดเผยว่าเทคโนโลยี thermoelectric cooling (TEC) ของตนสามารถเพิ่มประสิทธิภาพของ GPU สำหรับงาน AI ได้อย่างมีนัยสำคัญ โดยเฉพาะกับชิป NVIDIA H100 และ Blackwell รุ่นล่าสุด ซึ่งมีความร้อนสูงมากจากการประมวลผล LLM และ GenAI ที่ซับซ้อน การควบคุมอุณหภูมิอย่างแม่นยำช่วยให้ GPU ทำงานได้เต็มประสิทธิภาพ ลดการ throttling และเพิ่ม throughput ได้อย่างชัดเจน

    Larry Yang, Chief Product Officer ของ Phononic อธิบายว่า GPU สมัยใหม่มีข้อจำกัดด้านความร้อน โดยเฉพาะชิป HBM (High Bandwidth Memory) ที่อยู่ติดกับ GPU ซึ่งมักเป็นจุดร้อนที่สุด หากสามารถลดอุณหภูมิของ HBM ได้ ก็จะช่วยให้ GPU ทำงานได้เร็วขึ้นโดยไม่ต้องเพิ่มจำนวน GPU ส่งผลให้ต้นทุนรวมลดลง และสามารถคืนทุนจากการลงทุนในระบบ AI ได้ภายใน “หลักเดือนเดียว”

    Phononic ใช้เทคโนโลยี solid-state cooling ที่ไม่มีชิ้นส่วนเคลื่อนไหว ตอบสนองเร็วระดับมิลลิวินาที และสามารถควบคุมอุณหภูมิแบบเฉพาะจุด (localized cooling) ได้อย่างแม่นยำ โดยติดตั้ง TEC ไว้บน HBM แต่ละตัว พร้อมระบบควบคุมอัจฉริยะที่ปรับระดับความเย็นตามโหลดงานจริง

    นอกจากนี้ ยังมีการพูดถึงการนำเทคโนโลยีนี้ไปใช้กับ AI ASICs และชิปเครือข่าย เช่น optical transceivers และ switch ASICs ซึ่งมีปัญหาความร้อนคล้ายกัน

    เทคโนโลยี thermoelectric cooling (TEC) ของ Phononic
    ใช้หลักการ solid-state ไม่มีพัดลมหรือของเหลว
    ตอบสนองเร็วระดับมิลลิวินาที ควบคุมอุณหภูมิแบบเฉพาะจุด
    ติดตั้งบน HBM เพื่อป้องกันการ throttling และเพิ่ม performance

    ผลลัพธ์จากการใช้งานกับ GPU NVIDIA
    เพิ่ม throughput ของ H100 และ Blackwell ได้อย่างชัดเจน
    ลดจำนวน GPU ที่ต้องใช้ในระบบ AI
    คืนทุนจากการลงทุนได้ภายใน “single-digit months”

    ปัญหาความร้อนใน AI GPU
    HBM เป็นจุดร้อนหลักในแพ็กเกจ GPU
    ความร้อนสูงทำให้ต้องลดความเร็วการทำงานของ GPU
    การระบายความร้อนที่ดีช่วยให้ใช้ศักยภาพของ GPU ได้เต็มที่

    การขยายไปยังชิปอื่น ๆ
    ใช้กับ optical transceivers และ switch ASICs ได้
    รองรับการใช้งานในดาต้าเซ็นเตอร์ขนาดใหญ่
    มีระบบควบคุมผ่าน API และซอฟต์แวร์ orchestration

    https://wccftech.com/nvidias-ai-gpu-performance-can-be-increased-to-bring-payback-to-the-order-of-single-digit-months-says-phononic-chief-product-officer/
    🧊 Phononic เผยเทคโนโลยีระบายความร้อนแบบใหม่ ช่วยเพิ่มพลัง AI GPU ของ NVIDIA คืนทุนได้ในไม่กี่เดือน Phononic บริษัทเทคโนโลยีด้านการระบายความร้อน เปิดเผยว่าเทคโนโลยี thermoelectric cooling (TEC) ของตนสามารถเพิ่มประสิทธิภาพของ GPU สำหรับงาน AI ได้อย่างมีนัยสำคัญ โดยเฉพาะกับชิป NVIDIA H100 และ Blackwell รุ่นล่าสุด ซึ่งมีความร้อนสูงมากจากการประมวลผล LLM และ GenAI ที่ซับซ้อน การควบคุมอุณหภูมิอย่างแม่นยำช่วยให้ GPU ทำงานได้เต็มประสิทธิภาพ ลดการ throttling และเพิ่ม throughput ได้อย่างชัดเจน Larry Yang, Chief Product Officer ของ Phononic อธิบายว่า GPU สมัยใหม่มีข้อจำกัดด้านความร้อน โดยเฉพาะชิป HBM (High Bandwidth Memory) ที่อยู่ติดกับ GPU ซึ่งมักเป็นจุดร้อนที่สุด หากสามารถลดอุณหภูมิของ HBM ได้ ก็จะช่วยให้ GPU ทำงานได้เร็วขึ้นโดยไม่ต้องเพิ่มจำนวน GPU ส่งผลให้ต้นทุนรวมลดลง และสามารถคืนทุนจากการลงทุนในระบบ AI ได้ภายใน “หลักเดือนเดียว” Phononic ใช้เทคโนโลยี solid-state cooling ที่ไม่มีชิ้นส่วนเคลื่อนไหว ตอบสนองเร็วระดับมิลลิวินาที และสามารถควบคุมอุณหภูมิแบบเฉพาะจุด (localized cooling) ได้อย่างแม่นยำ โดยติดตั้ง TEC ไว้บน HBM แต่ละตัว พร้อมระบบควบคุมอัจฉริยะที่ปรับระดับความเย็นตามโหลดงานจริง นอกจากนี้ ยังมีการพูดถึงการนำเทคโนโลยีนี้ไปใช้กับ AI ASICs และชิปเครือข่าย เช่น optical transceivers และ switch ASICs ซึ่งมีปัญหาความร้อนคล้ายกัน ✅ เทคโนโลยี thermoelectric cooling (TEC) ของ Phononic ➡️ ใช้หลักการ solid-state ไม่มีพัดลมหรือของเหลว ➡️ ตอบสนองเร็วระดับมิลลิวินาที ควบคุมอุณหภูมิแบบเฉพาะจุด ➡️ ติดตั้งบน HBM เพื่อป้องกันการ throttling และเพิ่ม performance ✅ ผลลัพธ์จากการใช้งานกับ GPU NVIDIA ➡️ เพิ่ม throughput ของ H100 และ Blackwell ได้อย่างชัดเจน ➡️ ลดจำนวน GPU ที่ต้องใช้ในระบบ AI ➡️ คืนทุนจากการลงทุนได้ภายใน “single-digit months” ✅ ปัญหาความร้อนใน AI GPU ➡️ HBM เป็นจุดร้อนหลักในแพ็กเกจ GPU ➡️ ความร้อนสูงทำให้ต้องลดความเร็วการทำงานของ GPU ➡️ การระบายความร้อนที่ดีช่วยให้ใช้ศักยภาพของ GPU ได้เต็มที่ ✅ การขยายไปยังชิปอื่น ๆ ➡️ ใช้กับ optical transceivers และ switch ASICs ได้ ➡️ รองรับการใช้งานในดาต้าเซ็นเตอร์ขนาดใหญ่ ➡️ มีระบบควบคุมผ่าน API และซอฟต์แวร์ orchestration https://wccftech.com/nvidias-ai-gpu-performance-can-be-increased-to-bring-payback-to-the-order-of-single-digit-months-says-phononic-chief-product-officer/
    WCCFTECH.COM
    NVIDIA's AI GPU Performance Can Be Increased To Bring Payback To The Order Of "Single Digit Months," Says Phononic Chief Product Officer
    After NVIDIA launched its Rubin AI GPUs last month, we decided to interview Larry Yang, the chief product officer at Phononic. We were wondering about the new chips' cooling requirements given that energy constraints are closely related to AI rollout. Larry is an industry veteran with more than 30 years of experience under his belt. He has previously worked at Google, IBM, Microsoft and Cisco. Our conversation revolved around the cooling requirements for NVIDIA's and other AI chips. It also covered AI ASICs, commonly known as custom AI processors. Related Story NVIDIA’s Latest Rubin AI GPUs Don’t Have To Be […]
    0 Comments 0 Shares 27 Views 0 Reviews
  • รองนายกฯ สุชาติ ดัน “Zero Food Waste” วาระแห่งชาติ สั่งอุทยานฯ ทั่วประเทศ ตั้งเป้าลดขยะอาหาร 50% ภายใน 4 เดือน
    https://www.thai-tai.tv/news/22078/
    .
    #ไทยไท #ZeroFoodWaste #สุชาติชมกลิ่น #ลดขยะอาหาร #วิกฤตโลกร้อน #ก๊าซมีเทน

    รองนายกฯ สุชาติ ดัน “Zero Food Waste” วาระแห่งชาติ สั่งอุทยานฯ ทั่วประเทศ ตั้งเป้าลดขยะอาหาร 50% ภายใน 4 เดือน https://www.thai-tai.tv/news/22078/ . #ไทยไท #ZeroFoodWaste #สุชาติชมกลิ่น #ลดขยะอาหาร #วิกฤตโลกร้อน #ก๊าซมีเทน
    0 Comments 0 Shares 17 Views 0 Reviews
  • เบื้องหลังทรัมป์แทรกแซงไทย มิใช่เพื่อแร่หายาก แต่เพื่อซื้อตัวนายกฯหายาก ที่พร้อมประเคนผลประโยชน์ให้ แถมยังมี ครม.หายาก ช่วยสนับสนุน
    #คิงส์โพธิ์แดง
    เบื้องหลังทรัมป์แทรกแซงไทย มิใช่เพื่อแร่หายาก แต่เพื่อซื้อตัวนายกฯหายาก ที่พร้อมประเคนผลประโยชน์ให้ แถมยังมี ครม.หายาก ช่วยสนับสนุน #คิงส์โพธิ์แดง
    Like
    1
    0 Comments 0 Shares 29 Views 0 Reviews
  • 0 Comments 0 Shares 2 Views 0 Reviews
  • แนวโน้ม SET ยัง Sideway up 28/10/68 #ตลาดหุ้น #หุ้นไทย #ตลาดการลงทุน #Sideway up
    แนวโน้ม SET ยัง Sideway up 28/10/68 #ตลาดหุ้น #หุ้นไทย #ตลาดการลงทุน #Sideway up
    Like
    1
    0 Comments 0 Shares 87 Views 0 0 Reviews
  • นายกฯ คงหมายถึง เรื่องการรถไฟไทยทวงคืนที่ดืนเขากระโดง ว่าเป็นไทยรุกล้ำที่ดินขมรสูง
    #คิงส์โพธิ์แดง
    นายกฯ คงหมายถึง เรื่องการรถไฟไทยทวงคืนที่ดืนเขากระโดง ว่าเป็นไทยรุกล้ำที่ดินขมรสูง #คิงส์โพธิ์แดง
    Like
    1
    0 Comments 0 Shares 27 Views 0 Reviews
  • ปีหน้าน่าจะสิ้นสุดดอกเบี้ยขาลงของสหรัฐ 28/10/68 #ตลาดหุ้น #หุ้นไทย #การลงทุน #ดอกเบี้ย #สหรัฐ
    ปีหน้าน่าจะสิ้นสุดดอกเบี้ยขาลงของสหรัฐ 28/10/68 #ตลาดหุ้น #หุ้นไทย #การลงทุน #ดอกเบี้ย #สหรัฐ
    Like
    1
    0 Comments 0 Shares 83 Views 0 0 Reviews