• นิทานเรื่องจริง เรื่อง “มายากลยุทธ”
    ภาคสอง ตอนเสกกระดาษเป็นน้ำมัน
    ตอนที่ 20 : เจ้ามือมาแล้ว
    ย้อนกลับไประหว่างที่สงครามโลกครั้งที่ 1 กำลังขับเคี้ยวกันอยู่ ประธานาธิบดีอเมริกา Woodrow Wilson นั่งบนกำแพงดูทิศทางลม ไม่ต้องการมีส่วนร่วมในสงครามพวกนักธุรกิจเห็นว่ามัวแต่นั่งดูทางลมแบบนั้น มันจะเข้าทางพวกเราหรือ ว่าแล้วพวกเขาก็รวบรวมพรรคพวก ตั้งคณะกำหนดทิศทางลมแทน ชื่อ “The Inquiry” เพื่อทำการศึกษา (ตามโผ !) และแนะนำประธานาธิบดี Wilson ว่า หาก Kaiser และจักรวรรดิเยอรมันล้มคว่ำ โลกนี้ควรจะมีทิศทางในการเดินเกมการเมืองอย่างไร การเสนอแนะของ The Inquiry ทำผ่าน Col. Edward M. House คนสนิทของประธานาธิบดี Wilson ท่านนายพัน House นี้ เป็นตัวสำคัญในการผลักดันให้เกิด Federal Reserve System
    The Inquiry นี้เองที่เป็นต้นกำเนิดของ The Council on Foreign Relations (CFR) ผู้มีอำนาจและอิทธิพลสูงสุด พวกเขาคือคนถือเข็มทิศ กำหนดทิศทางเดินของอเมริกานั่นเอง CFR เริ่มต้นจากการรวมตัวของนักวิชาการและนักการฑูตจากอังกฤษและอเมริกา เขาตกลงกันในที่ประชุมเมื่อพฤษภาคม ค.ศ. 1919 ว่า พวกเราควรจัดให้มีสถาบันร่วมมือกันระหว่างอังกฤษกับอเมริกา เพื่อ “ดูแล” เกี่ยวกับเรื่องระหว่างประเทศ (International Affairs) หลังจากนั้น ใน ค.ศ. 1921 พวกเขาก็ได้ขยายแนวร่วมไปยังกลุ่ม นักกฎหมายและนักการเงิน และร่วมกันตั้ง The Council on Foreign Relations ขึ้นในปี ค.ศ. 1921
    CFR มีเป้าหมายที่จะกำหนดที่ยืนของอเมริกาในโลกเสียใหม่ จากที่ทำแต่อุตสาหกรรมโดยลำพัง อยู่โดดเดี่ยว เปลี่ยนสภาพเป็นตัวกลไกสำคัญ ในการกำหนดทิศทางการเงินระหว่างประเทศ และกำหนดทิศทางการเดินของอเมริกาที่จะก้าวไปสู่การเป็นจักรวรรดิอเมริกา ซึ่งครอบคลุมทั้งด้านธุรกิจ การเงิน การเมืองระหว่างประเทศ การทหาร สื่อมวลชน และนักวิชาการ ในสังคมระดับสูง และทิศทางดังกล่าวจะต้องทำเป็นนโยบายระดับนานาชาติ โดยมีกลุ่มทุนใหญ่สนับสนุนอยู่ข้างหลัง
    เงินคืออำนาจ อำนาจคือเงิน อย่าถามว่าพวกเขาจะสร้างอำนาจนี้ได้จริงหรือ และเมื่อมีอำนาจแล้วจะใช้อำนาจนี้ไหม จักรวรรดิอเมริกามีจริงหรือไม่ เขาว่าถามแบบนี้ แน่นอน คนถามต้องไม่ใช่เป็นพวก CFR และไม่มีวันได้เป็น ฮา !
    แต่ก่อนจะมีอำนาจ ต้องมีเงินก่อนตามสูตร แล้วนักเล่นกล ก็คิดว่าถึงเวลาแล้วที่อเมริกาจะต้องมีธนาคารกลาง แต่เป็นธนาคารกลางที่พวกเขา ควรเป็น (เจ้ามือ) เจ้าของและควบคุม มันเป็นการร่วมมือกันระหว่างนักการเงิน 2 ฝั่งคาบสมุทร Atlantic
    J P Morgan ร่ายมนต์ให้นักการเมืองฟังว่า เหตุการณ์วิกฤติทางการเงินของอเมริกา เมื่อปี ค.ศ. 1907 น่ะ เพราะพวกคุณไม่มีระบบการเงินที่ดี รัฐบาลก็ไม่มีกระเป๋าเงินของตัวเองที่ใหญ่พอ ตอนเกิดเรื่องนะจำได้มั้ย เราน่ะ J P Morgan เป็นคนให้รัฐบาลยืมเงินนะ จะเสียหน้าแบบนั้นอีกเหรอ คำขู่ได้ผลประธานาธิบดี Wilson มือไม้สั่นรีบออก Federal Reserve Act ในปี ค.ศ. 1913 ผลของกฎหมายฉบับนี้ ทำให้อเมริกาถูกควบคุม โดยผู้มีอำนาจทางการเงิน Federal Reserve Bank หรือ “Fed” (เจ้ามือตัวจริง !) ซึ่งรัฐบาลอเมริกาไม่ได้เป็นเจ้าของ แต่ Fed สามารถที่กำหนดหลักเกณฑ์ ในการพิมพ์เงินดอลล่าร์ได้เอง โดยไม่ต้องผ่าน Congress เยี่ยมจริง ๆ!!!

    คนเล่านิทาน
    นิทานเรื่องจริง เรื่อง “มายากลยุทธ” ภาคสอง ตอนเสกกระดาษเป็นน้ำมัน ตอนที่ 20 : เจ้ามือมาแล้ว ย้อนกลับไประหว่างที่สงครามโลกครั้งที่ 1 กำลังขับเคี้ยวกันอยู่ ประธานาธิบดีอเมริกา Woodrow Wilson นั่งบนกำแพงดูทิศทางลม ไม่ต้องการมีส่วนร่วมในสงครามพวกนักธุรกิจเห็นว่ามัวแต่นั่งดูทางลมแบบนั้น มันจะเข้าทางพวกเราหรือ ว่าแล้วพวกเขาก็รวบรวมพรรคพวก ตั้งคณะกำหนดทิศทางลมแทน ชื่อ “The Inquiry” เพื่อทำการศึกษา (ตามโผ !) และแนะนำประธานาธิบดี Wilson ว่า หาก Kaiser และจักรวรรดิเยอรมันล้มคว่ำ โลกนี้ควรจะมีทิศทางในการเดินเกมการเมืองอย่างไร การเสนอแนะของ The Inquiry ทำผ่าน Col. Edward M. House คนสนิทของประธานาธิบดี Wilson ท่านนายพัน House นี้ เป็นตัวสำคัญในการผลักดันให้เกิด Federal Reserve System The Inquiry นี้เองที่เป็นต้นกำเนิดของ The Council on Foreign Relations (CFR) ผู้มีอำนาจและอิทธิพลสูงสุด พวกเขาคือคนถือเข็มทิศ กำหนดทิศทางเดินของอเมริกานั่นเอง CFR เริ่มต้นจากการรวมตัวของนักวิชาการและนักการฑูตจากอังกฤษและอเมริกา เขาตกลงกันในที่ประชุมเมื่อพฤษภาคม ค.ศ. 1919 ว่า พวกเราควรจัดให้มีสถาบันร่วมมือกันระหว่างอังกฤษกับอเมริกา เพื่อ “ดูแล” เกี่ยวกับเรื่องระหว่างประเทศ (International Affairs) หลังจากนั้น ใน ค.ศ. 1921 พวกเขาก็ได้ขยายแนวร่วมไปยังกลุ่ม นักกฎหมายและนักการเงิน และร่วมกันตั้ง The Council on Foreign Relations ขึ้นในปี ค.ศ. 1921 CFR มีเป้าหมายที่จะกำหนดที่ยืนของอเมริกาในโลกเสียใหม่ จากที่ทำแต่อุตสาหกรรมโดยลำพัง อยู่โดดเดี่ยว เปลี่ยนสภาพเป็นตัวกลไกสำคัญ ในการกำหนดทิศทางการเงินระหว่างประเทศ และกำหนดทิศทางการเดินของอเมริกาที่จะก้าวไปสู่การเป็นจักรวรรดิอเมริกา ซึ่งครอบคลุมทั้งด้านธุรกิจ การเงิน การเมืองระหว่างประเทศ การทหาร สื่อมวลชน และนักวิชาการ ในสังคมระดับสูง และทิศทางดังกล่าวจะต้องทำเป็นนโยบายระดับนานาชาติ โดยมีกลุ่มทุนใหญ่สนับสนุนอยู่ข้างหลัง เงินคืออำนาจ อำนาจคือเงิน อย่าถามว่าพวกเขาจะสร้างอำนาจนี้ได้จริงหรือ และเมื่อมีอำนาจแล้วจะใช้อำนาจนี้ไหม จักรวรรดิอเมริกามีจริงหรือไม่ เขาว่าถามแบบนี้ แน่นอน คนถามต้องไม่ใช่เป็นพวก CFR และไม่มีวันได้เป็น ฮา ! แต่ก่อนจะมีอำนาจ ต้องมีเงินก่อนตามสูตร แล้วนักเล่นกล ก็คิดว่าถึงเวลาแล้วที่อเมริกาจะต้องมีธนาคารกลาง แต่เป็นธนาคารกลางที่พวกเขา ควรเป็น (เจ้ามือ) เจ้าของและควบคุม มันเป็นการร่วมมือกันระหว่างนักการเงิน 2 ฝั่งคาบสมุทร Atlantic J P Morgan ร่ายมนต์ให้นักการเมืองฟังว่า เหตุการณ์วิกฤติทางการเงินของอเมริกา เมื่อปี ค.ศ. 1907 น่ะ เพราะพวกคุณไม่มีระบบการเงินที่ดี รัฐบาลก็ไม่มีกระเป๋าเงินของตัวเองที่ใหญ่พอ ตอนเกิดเรื่องนะจำได้มั้ย เราน่ะ J P Morgan เป็นคนให้รัฐบาลยืมเงินนะ จะเสียหน้าแบบนั้นอีกเหรอ คำขู่ได้ผลประธานาธิบดี Wilson มือไม้สั่นรีบออก Federal Reserve Act ในปี ค.ศ. 1913 ผลของกฎหมายฉบับนี้ ทำให้อเมริกาถูกควบคุม โดยผู้มีอำนาจทางการเงิน Federal Reserve Bank หรือ “Fed” (เจ้ามือตัวจริง !) ซึ่งรัฐบาลอเมริกาไม่ได้เป็นเจ้าของ แต่ Fed สามารถที่กำหนดหลักเกณฑ์ ในการพิมพ์เงินดอลล่าร์ได้เอง โดยไม่ต้องผ่าน Congress เยี่ยมจริง ๆ!!! คนเล่านิทาน
    0 ความคิดเห็น 0 การแบ่งปัน 28 มุมมอง 0 รีวิว
  • ศูนย์ข้อมูลอังกฤษไม่กินน้ำอย่างที่คิด – พลิกภาพจำของเทคโนโลยีที่กระหายน้ำ

    ในยุคที่ AI และคลาวด์กลายเป็นหัวใจของเศรษฐกิจดิจิทัล หลายคนอาจนึกถึงศูนย์ข้อมูลขนาดใหญ่ที่กินไฟมหาศาลและใช้น้ำจำนวนมากเพื่อระบายความร้อน แต่รายงานล่าสุดจาก techUK กลับพลิกภาพนั้นอย่างสิ้นเชิง

    จากการสำรวจศูนย์ข้อมูล 73 แห่งทั่วอังกฤษ พบว่า 64% ใช้น้ำไม่ถึง 10,000 ลูกบาศก์เมตรต่อปี ซึ่งน้อยกว่าศูนย์กีฬา Leisure Center ทั่วไป และใกล้เคียงกับการใช้น้ำของสโมสรฟุตบอลพรีเมียร์ลีก

    ที่สำคัญคือกว่า 51% ของศูนย์ข้อมูลเหล่านี้ใช้ระบบระบายความร้อนแบบไม่ใช้น้ำ (waterless cooling) และอีกจำนวนมากใช้ระบบ closed-loop ที่รีไซเคิลน้ำภายในวงจรปิด ทำให้ 89% ของผู้ให้บริการไม่จำเป็นต้องติดตามการใช้น้ำอีกต่อไป

    แม้จะมีข้อสงสัยว่าตัวเลขเหล่านี้อาจไม่รวมการใช้น้ำทางอ้อม เช่น จากการผลิตไฟฟ้า แต่รายงานก็ชี้ให้เห็นถึงความพยายามของอุตสาหกรรมในการลดผลกระทบต่อสิ่งแวดล้อม และเสนอให้มีการจัดทำ “ดัชนีการใช้ประโยชน์น้ำ” เพื่อวัดความเครียดของแหล่งน้ำในพื้นที่ต่าง ๆ

    ในขณะที่รัฐบาลอังกฤษตั้งเป้าเพิ่มขีดความสามารถด้านการประมวลผล 20 เท่าภายในปี 2030 การออกแบบศูนย์ข้อมูลให้ใช้น้ำน้อยลงจึงเป็นกุญแจสำคัญในการเติบโตอย่างยั่งยืน

    สรุปเนื้อหาเป็นหัวข้อ
    รายงานจาก techUK พบว่า 64% ของศูนย์ข้อมูลในอังกฤษใช้น้ำต่ำกว่า 10,000 ลบ.ม./ปี
    ปริมาณนี้น้อยกว่าศูนย์กีฬา Leisure Center และใกล้เคียงกับสโมสรฟุตบอลพรีเมียร์ลีก
    51% ของศูนย์ข้อมูลใช้ระบบระบายความร้อนแบบไม่ใช้น้ำ (waterless cooling)
    หลายแห่งใช้ระบบ closed-loop ที่รีไซเคิลน้ำภายในวงจร
    89% ของผู้ให้บริการไม่จำเป็นต้องติดตามการใช้น้ำอีกต่อไป
    การระบายความร้อนเป็นปัจจัยหลักที่เคยทำให้ศูนย์ข้อมูลใช้น้ำมาก
    รายงานเสนอให้มีการจัดทำ “ดัชนีการใช้ประโยชน์น้ำ” เพื่อวัดความเครียดของแหล่งน้ำ
    ศูนย์ข้อมูลมีบทบาทสำคัญต่อเศรษฐกิจดิจิทัลและเป้าหมายด้าน AI ของอังกฤษ
    รัฐบาลตั้งเป้าเพิ่มขีดความสามารถด้านการประมวลผล 20 เท่าภายในปี 2030
    ความร่วมมือระหว่างภาครัฐและเอกชนช่วยผลักดันการออกแบบที่ยั่งยืน

    ข้อมูลเสริมจากภายนอก
    ระบบ waterless cooling เช่น immersion cooling และ direct-to-chip กำลังได้รับความนิยม
    Closed-loop systems ใช้ของเหลวพิเศษที่มีจุดเดือดต่ำและหมุนเวียนภายในระบบ
    การใช้พลังงานหมุนเวียนช่วยลดการใช้น้ำทางอ้อมจากการผลิตไฟฟ้า
    ศูนย์ข้อมูลในพื้นที่ที่มีความเครียดด้านน้ำ เช่นลอนดอนและแมนเชสเตอร์ มีแนวโน้มใช้ระบบแห้งมากขึ้น
    การออกแบบศูนย์ข้อมูลแบบ modular ช่วยลด footprint และเพิ่มประสิทธิภาพการใช้น้ำ
    หลายบริษัทเริ่มใช้ AI เพื่อควบคุมระบบระบายความร้อนแบบเรียลไทม์

    https://www.techradar.com/pro/not-as-thirsty-as-we-thought-average-data-center-uses-less-water-than-a-typical-leisure-center-study-claims
    🎙️ ศูนย์ข้อมูลอังกฤษไม่กินน้ำอย่างที่คิด – พลิกภาพจำของเทคโนโลยีที่กระหายน้ำ ในยุคที่ AI และคลาวด์กลายเป็นหัวใจของเศรษฐกิจดิจิทัล หลายคนอาจนึกถึงศูนย์ข้อมูลขนาดใหญ่ที่กินไฟมหาศาลและใช้น้ำจำนวนมากเพื่อระบายความร้อน แต่รายงานล่าสุดจาก techUK กลับพลิกภาพนั้นอย่างสิ้นเชิง จากการสำรวจศูนย์ข้อมูล 73 แห่งทั่วอังกฤษ พบว่า 64% ใช้น้ำไม่ถึง 10,000 ลูกบาศก์เมตรต่อปี ซึ่งน้อยกว่าศูนย์กีฬา Leisure Center ทั่วไป และใกล้เคียงกับการใช้น้ำของสโมสรฟุตบอลพรีเมียร์ลีก ที่สำคัญคือกว่า 51% ของศูนย์ข้อมูลเหล่านี้ใช้ระบบระบายความร้อนแบบไม่ใช้น้ำ (waterless cooling) และอีกจำนวนมากใช้ระบบ closed-loop ที่รีไซเคิลน้ำภายในวงจรปิด ทำให้ 89% ของผู้ให้บริการไม่จำเป็นต้องติดตามการใช้น้ำอีกต่อไป แม้จะมีข้อสงสัยว่าตัวเลขเหล่านี้อาจไม่รวมการใช้น้ำทางอ้อม เช่น จากการผลิตไฟฟ้า แต่รายงานก็ชี้ให้เห็นถึงความพยายามของอุตสาหกรรมในการลดผลกระทบต่อสิ่งแวดล้อม และเสนอให้มีการจัดทำ “ดัชนีการใช้ประโยชน์น้ำ” เพื่อวัดความเครียดของแหล่งน้ำในพื้นที่ต่าง ๆ ในขณะที่รัฐบาลอังกฤษตั้งเป้าเพิ่มขีดความสามารถด้านการประมวลผล 20 เท่าภายในปี 2030 การออกแบบศูนย์ข้อมูลให้ใช้น้ำน้อยลงจึงเป็นกุญแจสำคัญในการเติบโตอย่างยั่งยืน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ รายงานจาก techUK พบว่า 64% ของศูนย์ข้อมูลในอังกฤษใช้น้ำต่ำกว่า 10,000 ลบ.ม./ปี ➡️ ปริมาณนี้น้อยกว่าศูนย์กีฬา Leisure Center และใกล้เคียงกับสโมสรฟุตบอลพรีเมียร์ลีก ➡️ 51% ของศูนย์ข้อมูลใช้ระบบระบายความร้อนแบบไม่ใช้น้ำ (waterless cooling) ➡️ หลายแห่งใช้ระบบ closed-loop ที่รีไซเคิลน้ำภายในวงจร ➡️ 89% ของผู้ให้บริการไม่จำเป็นต้องติดตามการใช้น้ำอีกต่อไป ➡️ การระบายความร้อนเป็นปัจจัยหลักที่เคยทำให้ศูนย์ข้อมูลใช้น้ำมาก ➡️ รายงานเสนอให้มีการจัดทำ “ดัชนีการใช้ประโยชน์น้ำ” เพื่อวัดความเครียดของแหล่งน้ำ ➡️ ศูนย์ข้อมูลมีบทบาทสำคัญต่อเศรษฐกิจดิจิทัลและเป้าหมายด้าน AI ของอังกฤษ ➡️ รัฐบาลตั้งเป้าเพิ่มขีดความสามารถด้านการประมวลผล 20 เท่าภายในปี 2030 ➡️ ความร่วมมือระหว่างภาครัฐและเอกชนช่วยผลักดันการออกแบบที่ยั่งยืน ✅ ข้อมูลเสริมจากภายนอก ➡️ ระบบ waterless cooling เช่น immersion cooling และ direct-to-chip กำลังได้รับความนิยม ➡️ Closed-loop systems ใช้ของเหลวพิเศษที่มีจุดเดือดต่ำและหมุนเวียนภายในระบบ ➡️ การใช้พลังงานหมุนเวียนช่วยลดการใช้น้ำทางอ้อมจากการผลิตไฟฟ้า ➡️ ศูนย์ข้อมูลในพื้นที่ที่มีความเครียดด้านน้ำ เช่นลอนดอนและแมนเชสเตอร์ มีแนวโน้มใช้ระบบแห้งมากขึ้น ➡️ การออกแบบศูนย์ข้อมูลแบบ modular ช่วยลด footprint และเพิ่มประสิทธิภาพการใช้น้ำ ➡️ หลายบริษัทเริ่มใช้ AI เพื่อควบคุมระบบระบายความร้อนแบบเรียลไทม์ https://www.techradar.com/pro/not-as-thirsty-as-we-thought-average-data-center-uses-less-water-than-a-typical-leisure-center-study-claims
    0 ความคิดเห็น 0 การแบ่งปัน 93 มุมมอง 0 รีวิว
  • Jetson AGX Thor – mini PC ที่แรงเกินตัวสำหรับยุค AI

    ถ้าคุณเห็นเจ้าเครื่องเล็ก ๆ นี้วางอยู่บนโต๊ะ คุณอาจคิดว่ามันคือการ์ดจอ RTX รุ่นใหม่ แต่จริง ๆ แล้วมันคือ Jetson AGX Thor — mini PC ที่ Nvidia ออกแบบมาเพื่อรองรับงาน AI ระดับสูงในรูปแบบ edge computing โดยเฉพาะ

    หัวใจของมันคือ Jetson T5000 system-on-module ที่ใช้ GPU สถาปัตยกรรม Blackwell พร้อม 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ให้พลังประมวลผลสูงถึง 2070 TFLOPS (FP4, Sparse) ซึ่งเทียบเท่ากับระบบ data center ขนาดใหญ่

    นอกจาก GPU ยังมี CPU แบบ 14-core Arm Neoverse-V3AE และแรม LPDDR5X ขนาด 128GB พร้อมระบบเชื่อมต่อระดับสูง เช่น 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB และพอร์ต HDMI/DisplayPort สำหรับงานวิดีโอ 4K และ 8K แบบหลายสตรีม

    แม้จะมีขนาดเพียง 24 x 11 x 5.6 ซม. แต่ Jetson AGX Thor ถูกออกแบบมาเพื่อใช้งานในหุ่นยนต์, ระบบ AI ด้านภาพ, และการประมวลผลเซนเซอร์จำนวนมาก โดยรองรับซอฟต์แวร์จากแพลตฟอร์ม Isaac, Metropolis และ Holoscan ของ Nvidia

    สำหรับผู้ที่ต้องการรุ่นเล็กลง ยังมี Jetson T4000 ที่อยู่ระหว่างการพัฒนา ซึ่งให้พลัง 1200 TFLOPS และใช้ GPU 1536 คอร์ พร้อมแรม 64GB — เหมาะสำหรับงานที่ต้องการประสิทธิภาพแต่มีข้อจำกัดด้านพลังงาน

    สรุปเนื้อหาเป็นหัวข้อ
    Nvidia เปิดตัว Jetson AGX Thor Developer Kit พร้อมโมดูล Jetson T5000
    ใช้ GPU Blackwell 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว
    ให้พลังประมวลผลสูงสุด 2070 TFLOPS (FP4, Sparse)
    มี CPU Arm Neoverse-V3AE 14 คอร์ และแรม LPDDR5X ขนาด 128GB
    รองรับการเชื่อมต่อ 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB
    รองรับวิดีโอ 4K และ 8K แบบหลายสตรีมพร้อมพอร์ต HDMI 2.0b และ DisplayPort 1.4a
    ขนาดเครื่อง 243.19 x 112.4 x 56.88 มม. ใหญ่กว่าพีซีธุรกิจทั่วไปแต่ยังถือว่าเล็ก
    รองรับซอฟต์แวร์ Isaac, Metropolis และ Holoscan สำหรับงาน AI
    มีรุ่นเล็ก Jetson T4000 อยู่ระหว่างพัฒนา ให้พลัง 1200 TFLOPS และแรม 64GB
    เปิดให้พรีออเดอร์แล้วในราคา $3,499 โดยจะเริ่มส่งมอบวันที่ 20 พฤศจิกายน 2025

    ข้อมูลเสริมจากภายนอก
    สถาปัตยกรรม Blackwell ถูกออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ
    Jetson AGX Thor ใช้เทคโนโลยี Multi-Instance GPU เพื่อแบ่งงานได้หลายส่วนพร้อมกัน
    Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยออกแบบชิประดับนี้
    การใช้ LPDDR5X ช่วยลด latency และเพิ่ม bandwidth สำหรับงาน AI
    Jetson AGX Thor เหมาะกับงาน edge robotics, autonomous systems และการประมวลผลภาพทางการแพทย์
    Nvidia วางตำแหน่ง Thor ไว้คู่กับ DGX Spark สำหรับงาน AI แบบ desktop และ edge

    https://www.techradar.com/pro/nvidia-quietly-unveiled-its-fastest-mini-pc-ever-capable-of-topping-2070-tflops-and-if-you-squint-enough-you-might-even-think-it-looks-like-an-rtx-5090
    🎙️ Jetson AGX Thor – mini PC ที่แรงเกินตัวสำหรับยุค AI ถ้าคุณเห็นเจ้าเครื่องเล็ก ๆ นี้วางอยู่บนโต๊ะ คุณอาจคิดว่ามันคือการ์ดจอ RTX รุ่นใหม่ แต่จริง ๆ แล้วมันคือ Jetson AGX Thor — mini PC ที่ Nvidia ออกแบบมาเพื่อรองรับงาน AI ระดับสูงในรูปแบบ edge computing โดยเฉพาะ หัวใจของมันคือ Jetson T5000 system-on-module ที่ใช้ GPU สถาปัตยกรรม Blackwell พร้อม 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ให้พลังประมวลผลสูงถึง 2070 TFLOPS (FP4, Sparse) ซึ่งเทียบเท่ากับระบบ data center ขนาดใหญ่ นอกจาก GPU ยังมี CPU แบบ 14-core Arm Neoverse-V3AE และแรม LPDDR5X ขนาด 128GB พร้อมระบบเชื่อมต่อระดับสูง เช่น 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB และพอร์ต HDMI/DisplayPort สำหรับงานวิดีโอ 4K และ 8K แบบหลายสตรีม แม้จะมีขนาดเพียง 24 x 11 x 5.6 ซม. แต่ Jetson AGX Thor ถูกออกแบบมาเพื่อใช้งานในหุ่นยนต์, ระบบ AI ด้านภาพ, และการประมวลผลเซนเซอร์จำนวนมาก โดยรองรับซอฟต์แวร์จากแพลตฟอร์ม Isaac, Metropolis และ Holoscan ของ Nvidia สำหรับผู้ที่ต้องการรุ่นเล็กลง ยังมี Jetson T4000 ที่อยู่ระหว่างการพัฒนา ซึ่งให้พลัง 1200 TFLOPS และใช้ GPU 1536 คอร์ พร้อมแรม 64GB — เหมาะสำหรับงานที่ต้องการประสิทธิภาพแต่มีข้อจำกัดด้านพลังงาน 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Nvidia เปิดตัว Jetson AGX Thor Developer Kit พร้อมโมดูล Jetson T5000 ➡️ ใช้ GPU Blackwell 2560 คอร์ และ Tensor Core รุ่นที่ 5 จำนวน 96 ตัว ➡️ ให้พลังประมวลผลสูงสุด 2070 TFLOPS (FP4, Sparse) ➡️ มี CPU Arm Neoverse-V3AE 14 คอร์ และแรม LPDDR5X ขนาด 128GB ➡️ รองรับการเชื่อมต่อ 4 ช่อง 25GbE, WiFi 6E, NVMe SSD 1TB ➡️ รองรับวิดีโอ 4K และ 8K แบบหลายสตรีมพร้อมพอร์ต HDMI 2.0b และ DisplayPort 1.4a ➡️ ขนาดเครื่อง 243.19 x 112.4 x 56.88 มม. ใหญ่กว่าพีซีธุรกิจทั่วไปแต่ยังถือว่าเล็ก ➡️ รองรับซอฟต์แวร์ Isaac, Metropolis และ Holoscan สำหรับงาน AI ➡️ มีรุ่นเล็ก Jetson T4000 อยู่ระหว่างพัฒนา ให้พลัง 1200 TFLOPS และแรม 64GB ➡️ เปิดให้พรีออเดอร์แล้วในราคา $3,499 โดยจะเริ่มส่งมอบวันที่ 20 พฤศจิกายน 2025 ✅ ข้อมูลเสริมจากภายนอก ➡️ สถาปัตยกรรม Blackwell ถูกออกแบบมาเพื่องาน AI และ HPC โดยเฉพาะ ➡️ Jetson AGX Thor ใช้เทคโนโลยี Multi-Instance GPU เพื่อแบ่งงานได้หลายส่วนพร้อมกัน ➡️ Cadence ใช้ระบบจำลอง Palladium Z3 และ Protium X3 เพื่อช่วยออกแบบชิประดับนี้ ➡️ การใช้ LPDDR5X ช่วยลด latency และเพิ่ม bandwidth สำหรับงาน AI ➡️ Jetson AGX Thor เหมาะกับงาน edge robotics, autonomous systems และการประมวลผลภาพทางการแพทย์ ➡️ Nvidia วางตำแหน่ง Thor ไว้คู่กับ DGX Spark สำหรับงาน AI แบบ desktop และ edge https://www.techradar.com/pro/nvidia-quietly-unveiled-its-fastest-mini-pc-ever-capable-of-topping-2070-tflops-and-if-you-squint-enough-you-might-even-think-it-looks-like-an-rtx-5090
    0 ความคิดเห็น 0 การแบ่งปัน 93 มุมมอง 0 รีวิว
  • Claude Code – เมื่อความเรียบง่ายคือเวทมนตร์ของ AI Agent

    ลองจินตนาการว่าคุณมีผู้ช่วยเขียนโค้ดที่ไม่เพียงแค่ “ฉลาด” แต่ยัง “รู้จักตัวเอง” และ “ไม่วุ่นวาย” นั่นคือความรู้สึกเมื่อใช้ Claude Code – agent ที่ถูกออกแบบมาให้ทำงานร่วมกับ LLM ได้อย่างกลมกลืน โดยไม่ต้องพึ่งพาความซับซ้อนแบบ multi-agent หรือ RAG search ที่มักทำให้ระบบเปราะบาง

    Claude Code ใช้หลักการ “Keep Things Simple, Dummy” โดยมีแค่ loop เดียวในการควบคุมการทำงานทั้งหมด และหากต้องแบ่งงานย่อย ก็จะสร้าง sub-agent ที่ไม่สามารถแตกตัวต่อได้อีก เพื่อรักษาความเข้าใจและความสามารถในการ debug

    สิ่งที่ทำให้ Claude Code โดดเด่นคือการใช้โมเดลขนาดเล็กอย่าง claude-3-5-haiku สำหรับงาน routine เช่น อ่านไฟล์, สรุป git history, หรือแม้แต่การติด label ให้กับแต่ละ keystroke ซึ่งช่วยลดต้นทุนได้ถึง 70–80% เมื่อเทียบกับโมเดลใหญ่

    Claude Code ยังใช้ prompt ที่ยาวและละเอียดมาก โดยมี system prompt ~2,800 tokens, tools ~9,400 tokens และ context file (claude.md) ~1,000–2,000 tokens ที่ส่งไปกับทุกคำสั่ง เพื่อให้ agent เข้าใจบริบทของผู้ใช้อย่างลึกซึ้ง

    นอกจากนี้ยังมีการใช้ XML tags และ Markdown เพื่อจัดโครงสร้าง prompt อย่างชัดเจน เช่น <good-example>, <bad-example>, และ <system-reminder> เพื่อช่วยให้ LLM ตัดสินใจได้แม่นยำขึ้น

    สุดท้าย Claude Code ยังมีระบบ todo list ที่ LLM จัดการเอง ช่วยให้ agent ไม่หลงทางในงานที่ซับซ้อน และสามารถปรับเปลี่ยนแผนได้ตามสถานการณ์

    สรุปเนื้อหาเป็นหัวข้อ
    Claude Code ใช้ control loop เดียว พร้อม sub-agent ที่จำกัดการแตกตัว
    ใช้โมเดลขนาดเล็ก claude-3-5-haiku สำหรับงาน routine เพื่อลดต้นทุน
    system prompt ~2,800 tokens, tools ~9,400 tokens, context file ~1,000–2,000 tokens
    ใช้ claude.md เพื่อเก็บ preferences และข้อจำกัดของผู้ใช้
    ใช้ XML tags เช่น <system-reminder>, <good-example>, <bad-example> เพื่อช่วยตัดสินใจ
    ใช้ Markdown เพื่อจัดโครงสร้าง prompt อย่างชัดเจน
    มีระบบ todo list ที่ LLM จัดการเอง ช่วยให้ agent ไม่หลงทาง
    ปรับ tone และ style ของ agent ผ่าน prompt เช่น ห้ามใช้ emoji เว้นแต่ผู้ใช้ขอ
    ใช้ heuristics และตัวอย่างเพื่อช่วยให้ LLM ตัดสินใจได้แม่นยำ
    Claude Code ถูกนำไปใช้ใน MinusX และมีผลลัพธ์ที่ดีในการพัฒนา agent

    ข้อมูลเสริมจากภายนอก
    GitHub มีคลัง Claude Code subagents สำหรับงานเฉพาะทาง เช่น DevOps, full-stack, data science
    การใช้โมเดลเล็กช่วยลด latency และต้นทุนในระบบ production
    การใช้ context file เช่น claude.md หรือ minusx.md กลายเป็นมาตรฐานใหม่ของ agent
    การหลีกเลี่ยง RAG ช่วยลดความซับซ้อนและจุดล้มเหลวในระบบ
    การออกแบบ agent แบบ single-loop ช่วยให้ debug ง่ายและเสถียรกว่า multi-agent

    https://minusx.ai/blog/decoding-claude-code/
    🎙️ Claude Code – เมื่อความเรียบง่ายคือเวทมนตร์ของ AI Agent ลองจินตนาการว่าคุณมีผู้ช่วยเขียนโค้ดที่ไม่เพียงแค่ “ฉลาด” แต่ยัง “รู้จักตัวเอง” และ “ไม่วุ่นวาย” นั่นคือความรู้สึกเมื่อใช้ Claude Code – agent ที่ถูกออกแบบมาให้ทำงานร่วมกับ LLM ได้อย่างกลมกลืน โดยไม่ต้องพึ่งพาความซับซ้อนแบบ multi-agent หรือ RAG search ที่มักทำให้ระบบเปราะบาง Claude Code ใช้หลักการ “Keep Things Simple, Dummy” โดยมีแค่ loop เดียวในการควบคุมการทำงานทั้งหมด และหากต้องแบ่งงานย่อย ก็จะสร้าง sub-agent ที่ไม่สามารถแตกตัวต่อได้อีก เพื่อรักษาความเข้าใจและความสามารถในการ debug สิ่งที่ทำให้ Claude Code โดดเด่นคือการใช้โมเดลขนาดเล็กอย่าง claude-3-5-haiku สำหรับงาน routine เช่น อ่านไฟล์, สรุป git history, หรือแม้แต่การติด label ให้กับแต่ละ keystroke ซึ่งช่วยลดต้นทุนได้ถึง 70–80% เมื่อเทียบกับโมเดลใหญ่ Claude Code ยังใช้ prompt ที่ยาวและละเอียดมาก โดยมี system prompt ~2,800 tokens, tools ~9,400 tokens และ context file (claude.md) ~1,000–2,000 tokens ที่ส่งไปกับทุกคำสั่ง เพื่อให้ agent เข้าใจบริบทของผู้ใช้อย่างลึกซึ้ง นอกจากนี้ยังมีการใช้ XML tags และ Markdown เพื่อจัดโครงสร้าง prompt อย่างชัดเจน เช่น <good-example>, <bad-example>, และ <system-reminder> เพื่อช่วยให้ LLM ตัดสินใจได้แม่นยำขึ้น สุดท้าย Claude Code ยังมีระบบ todo list ที่ LLM จัดการเอง ช่วยให้ agent ไม่หลงทางในงานที่ซับซ้อน และสามารถปรับเปลี่ยนแผนได้ตามสถานการณ์ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Claude Code ใช้ control loop เดียว พร้อม sub-agent ที่จำกัดการแตกตัว ➡️ ใช้โมเดลขนาดเล็ก claude-3-5-haiku สำหรับงาน routine เพื่อลดต้นทุน ➡️ system prompt ~2,800 tokens, tools ~9,400 tokens, context file ~1,000–2,000 tokens ➡️ ใช้ claude.md เพื่อเก็บ preferences และข้อจำกัดของผู้ใช้ ➡️ ใช้ XML tags เช่น <system-reminder>, <good-example>, <bad-example> เพื่อช่วยตัดสินใจ ➡️ ใช้ Markdown เพื่อจัดโครงสร้าง prompt อย่างชัดเจน ➡️ มีระบบ todo list ที่ LLM จัดการเอง ช่วยให้ agent ไม่หลงทาง ➡️ ปรับ tone และ style ของ agent ผ่าน prompt เช่น ห้ามใช้ emoji เว้นแต่ผู้ใช้ขอ ➡️ ใช้ heuristics และตัวอย่างเพื่อช่วยให้ LLM ตัดสินใจได้แม่นยำ ➡️ Claude Code ถูกนำไปใช้ใน MinusX และมีผลลัพธ์ที่ดีในการพัฒนา agent ✅ ข้อมูลเสริมจากภายนอก ➡️ GitHub มีคลัง Claude Code subagents สำหรับงานเฉพาะทาง เช่น DevOps, full-stack, data science ➡️ การใช้โมเดลเล็กช่วยลด latency และต้นทุนในระบบ production ➡️ การใช้ context file เช่น claude.md หรือ minusx.md กลายเป็นมาตรฐานใหม่ของ agent ➡️ การหลีกเลี่ยง RAG ช่วยลดความซับซ้อนและจุดล้มเหลวในระบบ ➡️ การออกแบบ agent แบบ single-loop ช่วยให้ debug ง่ายและเสถียรกว่า multi-agent https://minusx.ai/blog/decoding-claude-code/
    MINUSX.AI
    What makes Claude Code so damn good (and how to recreate that magic in your agent)!?
    Claude Code is the most delightful AI agent/workflow I have used so far. Not only does it make targeted edits or vibe coding throwaway tools less annoying, ...
    0 ความคิดเห็น 0 การแบ่งปัน 88 มุมมอง 0 รีวิว
  • Interconnectedness of the ecosystem from the summit to the sea
    Interconnectedness of the ecosystem from the summit to the sea
    0 ความคิดเห็น 0 การแบ่งปัน 43 มุมมอง 0 รีวิว
  • เมื่อภาพธรรมดากลายเป็นช่องโหว่ – และ AI ก็ไม่เห็นภัยที่ซ่อนอยู่ในพิกเซล

    ลองจินตนาการว่าคุณอัปโหลดภาพธรรมดา ๆ ไปยังระบบ AI เพื่อให้ช่วยวิเคราะห์ แต่เบื้องหลังภาพนั้นกลับมีคำสั่งลับที่ถูกซ่อนไว้ และเมื่อภาพถูกปรับขนาดโดยระบบก่อนส่งเข้าโมเดล คำสั่งนั้นก็ถูก “ปลุก” ขึ้นมาโดยที่คุณไม่รู้ตัว

    นี่คือสิ่งที่นักวิจัยจาก Trail of Bits ค้นพบและสาธิตผ่านการโจมตีแบบ image scaling prompt injection ซึ่งสามารถใช้ขโมยข้อมูลผู้ใช้จากระบบ AI ที่ใช้งานจริง เช่น Google Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark โดยอาศัยช่องโหว่จากการปรับขนาดภาพ (downscaling) ที่ทำให้คำสั่งที่ซ่อนอยู่ในภาพถูกเปิดเผยเมื่อ resolution เปลี่ยน

    การโจมตีนี้อาศัยหลักการของ Nyquist–Shannon sampling theorem และการวิเคราะห์พฤติกรรมของอัลกอริธึมปรับขนาดภาพ เช่น bicubic, bilinear และ nearest neighbor ซึ่งแต่ละแบบมีจุดอ่อนต่างกัน นักวิจัยจึงสร้างเครื่องมือชื่อ “Anamorpher” เพื่อออกแบบภาพที่สามารถโจมตีระบบ AI ได้โดยเฉพาะ

    ผลลัพธ์คือการโจมตีที่สามารถสั่งให้ AI ทำงานโดยไม่ต้องมีการยืนยันจากผู้ใช้ เช่น ส่งข้อมูลจาก Google Calendar ไปยังอีเมลของแฮกเกอร์ โดยใช้การตั้งค่า trust=True ใน Gemini CLI ซึ่งเป็นค่าดีฟอลต์ที่เปิดช่องให้โจมตีได้ง่าย

    สรุปเนื้อหาเป็นหัวข้อ
    การโจมตีใช้ภาพที่ดูปลอดภัย แต่มีคำสั่งซ่อนอยู่เมื่อถูกปรับขนาด
    ระบบ AI เช่น Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark ถูกโจมตีสำเร็จ
    การโจมตีอาศัยการปรับขนาดภาพที่ทำให้คำสั่งลับถูกเปิดเผย
    ใช้ค่าดีฟอลต์ trust=True ใน Gemini CLI เพื่อข้ามการยืนยันจากผู้ใช้
    คำสั่งในภาพสามารถสั่งให้ AI ส่งข้อมูลผู้ใช้ไปยังแฮกเกอร์ได้
    อัลกอริธึมปรับขนาดภาพที่ถูกใช้ ได้แก่ bicubic, bilinear และ nearest neighbor
    เครื่องมือ “Anamorpher” ถูกพัฒนาเพื่อสร้างภาพโจมตีโดยเฉพาะ
    การโจมตีสามารถใช้กับระบบที่ไม่มีการแสดง preview ของภาพที่ถูกปรับขนาด
    การโจมตีนี้เป็นรูปแบบใหม่ของ multi-modal prompt injection
    นักวิจัยเสนอให้แสดงภาพที่ถูกปรับขนาดให้ผู้ใช้เห็นก่อนส่งเข้าโมเดล

    ข้อมูลเสริมจากภายนอก
    การโจมตีแบบนี้คล้ายกับการฝังคำสั่งใน metadata หรือ steganography แต่ใช้การปรับขนาดแทน
    ระบบ AI บนมือถือและ edge devices มีความเสี่ยงสูงเพราะใช้การปรับขนาดภาพบ่อย
    การโจมตีสามารถใช้ร่วมกับเทคนิคอื่น เช่น semantic injection และ polyglot payloads
    การใช้ภาพ checkerboard, Moiré และ concentric circles ช่วยวิเคราะห์อัลกอริธึมปรับขนาด
    การโจมตีแบบนี้อาจขยายไปยังระบบ voice AI และการแปลงภาพแบบ upscaling ในอนาคต


    https://blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
    🎙️ เมื่อภาพธรรมดากลายเป็นช่องโหว่ – และ AI ก็ไม่เห็นภัยที่ซ่อนอยู่ในพิกเซล ลองจินตนาการว่าคุณอัปโหลดภาพธรรมดา ๆ ไปยังระบบ AI เพื่อให้ช่วยวิเคราะห์ แต่เบื้องหลังภาพนั้นกลับมีคำสั่งลับที่ถูกซ่อนไว้ และเมื่อภาพถูกปรับขนาดโดยระบบก่อนส่งเข้าโมเดล คำสั่งนั้นก็ถูก “ปลุก” ขึ้นมาโดยที่คุณไม่รู้ตัว นี่คือสิ่งที่นักวิจัยจาก Trail of Bits ค้นพบและสาธิตผ่านการโจมตีแบบ image scaling prompt injection ซึ่งสามารถใช้ขโมยข้อมูลผู้ใช้จากระบบ AI ที่ใช้งานจริง เช่น Google Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark โดยอาศัยช่องโหว่จากการปรับขนาดภาพ (downscaling) ที่ทำให้คำสั่งที่ซ่อนอยู่ในภาพถูกเปิดเผยเมื่อ resolution เปลี่ยน การโจมตีนี้อาศัยหลักการของ Nyquist–Shannon sampling theorem และการวิเคราะห์พฤติกรรมของอัลกอริธึมปรับขนาดภาพ เช่น bicubic, bilinear และ nearest neighbor ซึ่งแต่ละแบบมีจุดอ่อนต่างกัน นักวิจัยจึงสร้างเครื่องมือชื่อ “Anamorpher” เพื่อออกแบบภาพที่สามารถโจมตีระบบ AI ได้โดยเฉพาะ ผลลัพธ์คือการโจมตีที่สามารถสั่งให้ AI ทำงานโดยไม่ต้องมีการยืนยันจากผู้ใช้ เช่น ส่งข้อมูลจาก Google Calendar ไปยังอีเมลของแฮกเกอร์ โดยใช้การตั้งค่า trust=True ใน Gemini CLI ซึ่งเป็นค่าดีฟอลต์ที่เปิดช่องให้โจมตีได้ง่าย 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ การโจมตีใช้ภาพที่ดูปลอดภัย แต่มีคำสั่งซ่อนอยู่เมื่อถูกปรับขนาด ➡️ ระบบ AI เช่น Gemini CLI, Vertex AI Studio, Google Assistant และ Genspark ถูกโจมตีสำเร็จ ➡️ การโจมตีอาศัยการปรับขนาดภาพที่ทำให้คำสั่งลับถูกเปิดเผย ➡️ ใช้ค่าดีฟอลต์ trust=True ใน Gemini CLI เพื่อข้ามการยืนยันจากผู้ใช้ ➡️ คำสั่งในภาพสามารถสั่งให้ AI ส่งข้อมูลผู้ใช้ไปยังแฮกเกอร์ได้ ➡️ อัลกอริธึมปรับขนาดภาพที่ถูกใช้ ได้แก่ bicubic, bilinear และ nearest neighbor ➡️ เครื่องมือ “Anamorpher” ถูกพัฒนาเพื่อสร้างภาพโจมตีโดยเฉพาะ ➡️ การโจมตีสามารถใช้กับระบบที่ไม่มีการแสดง preview ของภาพที่ถูกปรับขนาด ➡️ การโจมตีนี้เป็นรูปแบบใหม่ของ multi-modal prompt injection ➡️ นักวิจัยเสนอให้แสดงภาพที่ถูกปรับขนาดให้ผู้ใช้เห็นก่อนส่งเข้าโมเดล ✅ ข้อมูลเสริมจากภายนอก ➡️ การโจมตีแบบนี้คล้ายกับการฝังคำสั่งใน metadata หรือ steganography แต่ใช้การปรับขนาดแทน ➡️ ระบบ AI บนมือถือและ edge devices มีความเสี่ยงสูงเพราะใช้การปรับขนาดภาพบ่อย ➡️ การโจมตีสามารถใช้ร่วมกับเทคนิคอื่น เช่น semantic injection และ polyglot payloads ➡️ การใช้ภาพ checkerboard, Moiré และ concentric circles ช่วยวิเคราะห์อัลกอริธึมปรับขนาด ➡️ การโจมตีแบบนี้อาจขยายไปยังระบบ voice AI และการแปลงภาพแบบ upscaling ในอนาคต https://blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
    BLOG.TRAILOFBITS.COM
    Weaponizing image scaling against production AI systems
    In this blog post, we’ll detail how attackers can exploit image scaling on Gemini CLI, Vertex AI Studio, Gemini’s web and API interfaces, Google Assistant, Genspark, and other production AI systems. We’ll also explain how to mitigate and defend against these attacks, and we’ll introduce Anamorpher, our open-source tool that lets you explore and generate these crafted images.
    0 ความคิดเห็น 0 การแบ่งปัน 122 มุมมอง 0 รีวิว
  • เมื่อรหัสผ่านองค์กรกลายเป็นจุดอ่อน – และแฮกเกอร์ไม่ต้องพยายามมากอีกต่อไป

    ในปี 2025 รายงาน Blue Report ของ Picus Security เผยข้อมูลที่น่าตกใจว่า ใน 46% ขององค์กรที่ทำการทดสอบ มีรหัสผ่านอย่างน้อยหนึ่งชุดถูกเจาะสำเร็จ เพิ่มขึ้นจาก 25% ในปี 2024 ซึ่งสะท้อนถึงปัญหาที่เรื้อรังมานาน: การใช้รหัสผ่านที่อ่อนแอและนโยบายที่ล้าสมัย

    แม้จะมีการรณรงค์เรื่องความปลอดภัยมาหลายปี แต่หลายองค์กรยังคงใช้รหัสผ่านที่เดาง่าย ซ้ำซาก หรือไม่บังคับให้เปลี่ยนรหัสอย่างสม่ำเสมอ บางแห่งยังใช้วิธีเก็บ hash แบบ MD5 หรือ SHA-1 ซึ่งถูกแฮกได้ง่ายด้วยเทคนิค brute-force หรือ rainbow table

    ที่น่ากังวลกว่านั้นคือ การโจมตีด้วยรหัสผ่านที่ถูกขโมย (เช่นจาก phishing หรือ malware) มีอัตราความสำเร็จสูงถึง 98% และการป้องกันการขโมยข้อมูล (data exfiltration) สำเร็จเพียง 3% เท่านั้น ซึ่งลดลงจาก 9% ในปีที่แล้ว

    ผู้เชี่ยวชาญเตือนว่าองค์กรต้องเปลี่ยนจากแนวคิด “ตั้งค่าแล้วปล่อยไว้” ไปสู่การตรวจสอบระบบอย่างต่อเนื่อง และใช้มาตรการเชิงรุก เช่น MFA, การวิเคราะห์พฤติกรรมผู้ใช้, และการจัดการสิทธิ์แบบละเอียด

    สรุปเนื้อหาเป็นหัวข้อ
    46% ขององค์กรที่ทดสอบมีรหัสผ่านถูกเจาะสำเร็จอย่างน้อยหนึ่งชุด
    เพิ่มขึ้นจาก 25% ในปี 2024 สะท้อนถึงการใช้รหัสผ่านที่อ่อนแอและนโยบายล้าสมัย
    การโจมตีด้วยรหัสผ่านที่ถูกขโมยมีอัตราความสำเร็จสูงถึง 98%
    การป้องกันการขโมยข้อมูลสำเร็จเพียง 3% ลดลงจาก 9% ในปีที่แล้ว
    แฮกเกอร์ใช้เทคนิค brute-force, rainbow table, password spraying และ infostealer malware
    การเก็บ hash แบบ MD5 หรือ SHA-1 ไม่ปลอดภัยอีกต่อไป
    ควรใช้ bcrypt, Argon2 หรือ scrypt ร่วมกับ salt และ pepper เพื่อเพิ่มความปลอดภัย
    ช่องโหว่เกิดจากการตั้งค่าระบบที่ไม่ต่อเนื่อง เช่น logging gaps และ detection rule ที่ไม่แม่นยำ
    การตรวจจับพฤติกรรมผิดปกติ เช่น การเคลื่อนไหวภายในระบบ (lateral movement) ยังมีประสิทธิภาพต่ำ
    การใช้ MFA และการจัดการสิทธิ์แบบละเอียดเป็นมาตรการพื้นฐานที่ควรมี

    ข้อมูลเสริมจากภายนอก
    Infostealer malware เพิ่มขึ้น 3 เท่าในปี 2025 และเป็นภัยหลักในการขโมย credentials
    การโจมตีแบบ Valid Accounts (MITRE ATT&CK T1078) เป็นวิธีที่แฮกเกอร์นิยมใช้
    Ransomware เช่น BlackByte, BabLock และ Maori ยังเป็นภัยที่ป้องกันได้ยาก
    การตรวจจับการค้นหาข้อมูลระบบ (System Discovery) มีประสิทธิภาพต่ำกว่า 12%
    การเปลี่ยนแนวคิดเป็น “assume breach” ช่วยให้ตอบสนองต่อภัยคุกคามได้เร็วขึ้น

    https://www.csoonline.com/article/4042464/enterprise-passwords-becoming-even-easier-to-steal-and-abuse.html
    🎙️ เมื่อรหัสผ่านองค์กรกลายเป็นจุดอ่อน – และแฮกเกอร์ไม่ต้องพยายามมากอีกต่อไป ในปี 2025 รายงาน Blue Report ของ Picus Security เผยข้อมูลที่น่าตกใจว่า ใน 46% ขององค์กรที่ทำการทดสอบ มีรหัสผ่านอย่างน้อยหนึ่งชุดถูกเจาะสำเร็จ เพิ่มขึ้นจาก 25% ในปี 2024 ซึ่งสะท้อนถึงปัญหาที่เรื้อรังมานาน: การใช้รหัสผ่านที่อ่อนแอและนโยบายที่ล้าสมัย แม้จะมีการรณรงค์เรื่องความปลอดภัยมาหลายปี แต่หลายองค์กรยังคงใช้รหัสผ่านที่เดาง่าย ซ้ำซาก หรือไม่บังคับให้เปลี่ยนรหัสอย่างสม่ำเสมอ บางแห่งยังใช้วิธีเก็บ hash แบบ MD5 หรือ SHA-1 ซึ่งถูกแฮกได้ง่ายด้วยเทคนิค brute-force หรือ rainbow table ที่น่ากังวลกว่านั้นคือ การโจมตีด้วยรหัสผ่านที่ถูกขโมย (เช่นจาก phishing หรือ malware) มีอัตราความสำเร็จสูงถึง 98% และการป้องกันการขโมยข้อมูล (data exfiltration) สำเร็จเพียง 3% เท่านั้น ซึ่งลดลงจาก 9% ในปีที่แล้ว ผู้เชี่ยวชาญเตือนว่าองค์กรต้องเปลี่ยนจากแนวคิด “ตั้งค่าแล้วปล่อยไว้” ไปสู่การตรวจสอบระบบอย่างต่อเนื่อง และใช้มาตรการเชิงรุก เช่น MFA, การวิเคราะห์พฤติกรรมผู้ใช้, และการจัดการสิทธิ์แบบละเอียด 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ 46% ขององค์กรที่ทดสอบมีรหัสผ่านถูกเจาะสำเร็จอย่างน้อยหนึ่งชุด ➡️ เพิ่มขึ้นจาก 25% ในปี 2024 สะท้อนถึงการใช้รหัสผ่านที่อ่อนแอและนโยบายล้าสมัย ➡️ การโจมตีด้วยรหัสผ่านที่ถูกขโมยมีอัตราความสำเร็จสูงถึง 98% ➡️ การป้องกันการขโมยข้อมูลสำเร็จเพียง 3% ลดลงจาก 9% ในปีที่แล้ว ➡️ แฮกเกอร์ใช้เทคนิค brute-force, rainbow table, password spraying และ infostealer malware ➡️ การเก็บ hash แบบ MD5 หรือ SHA-1 ไม่ปลอดภัยอีกต่อไป ➡️ ควรใช้ bcrypt, Argon2 หรือ scrypt ร่วมกับ salt และ pepper เพื่อเพิ่มความปลอดภัย ➡️ ช่องโหว่เกิดจากการตั้งค่าระบบที่ไม่ต่อเนื่อง เช่น logging gaps และ detection rule ที่ไม่แม่นยำ ➡️ การตรวจจับพฤติกรรมผิดปกติ เช่น การเคลื่อนไหวภายในระบบ (lateral movement) ยังมีประสิทธิภาพต่ำ ➡️ การใช้ MFA และการจัดการสิทธิ์แบบละเอียดเป็นมาตรการพื้นฐานที่ควรมี ✅ ข้อมูลเสริมจากภายนอก ➡️ Infostealer malware เพิ่มขึ้น 3 เท่าในปี 2025 และเป็นภัยหลักในการขโมย credentials ➡️ การโจมตีแบบ Valid Accounts (MITRE ATT&CK T1078) เป็นวิธีที่แฮกเกอร์นิยมใช้ ➡️ Ransomware เช่น BlackByte, BabLock และ Maori ยังเป็นภัยที่ป้องกันได้ยาก ➡️ การตรวจจับการค้นหาข้อมูลระบบ (System Discovery) มีประสิทธิภาพต่ำกว่า 12% ➡️ การเปลี่ยนแนวคิดเป็น “assume breach” ช่วยให้ตอบสนองต่อภัยคุกคามได้เร็วขึ้น https://www.csoonline.com/article/4042464/enterprise-passwords-becoming-even-easier-to-steal-and-abuse.html
    WWW.CSOONLINE.COM
    Enterprise passwords becoming even easier to steal and abuse
    More effective cracking, continued reliance on weak or outdated policies, and security controls against credential leaks being increasingly undermined.
    0 ความคิดเห็น 0 การแบ่งปัน 143 มุมมอง 0 รีวิว
  • เมื่อแชตบอตกลายเป็นช่องทางเจาะระบบ – และคำถามธรรมดาอาจเปิดประตูให้แฮกเกอร์

    Lenovo เปิดตัวแชตบอต Lena เพื่อช่วยลูกค้าในระบบสนับสนุน โดยใช้ GPT-4 เป็นแกนหลักในการตอบคำถาม แต่สิ่งที่ดูเหมือนจะเป็นนวัตกรรมกลับกลายเป็นช่องโหว่ร้ายแรง เมื่อทีมวิจัยจาก Cybernews พบว่า Lena สามารถถูกหลอกให้สร้างโค้ด HTML อันตรายผ่าน prompt เพียง 400 ตัวอักษร

    แฮกเกอร์ใช้เทคนิค prompt injection โดยเริ่มต้นด้วยคำถามเกี่ยวกับสินค้า แล้วแทรกคำสั่งให้ Lena ตอบกลับในรูปแบบ HTML พร้อมฝังโค้ด JavaScript ที่ขโมย session cookie เมื่อภาพไม่สามารถโหลดได้

    เมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา โค้ดนั้นจะทำงานทันทีใน browser ของพวกเขา ทำให้แฮกเกอร์สามารถเข้าถึงระบบสนับสนุนของบริษัทได้โดยไม่ต้องเจาะระบบโดยตรง

    Melissa Ruzzi จาก AppOmni เตือนว่า AI ที่มีสิทธิ์แก้ไขข้อมูลโดยไม่มีการควบคุม อาจกลายเป็นช่องทางโจมตีที่ร้ายแรง และ Arjun Chauhan จาก Everest Group เสริมว่าองค์กรส่วนใหญ่ยังมอง AI เป็น “โครงการทดลอง” มากกว่าระบบที่ต้องมีมาตรการความปลอดภัยจริงจัง

    ช่องโหว่นี้ไม่ใช่แค่การขโมย cookie แต่สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing หรือแม้แต่การฝัง backdoor เพื่อเคลื่อนย้ายภายในเครือข่ายองค์กร

    Lenovo ยอมรับช่องโหว่และแก้ไขทันทีหลังได้รับการแจ้งเตือนจากนักวิจัย แต่เหตุการณ์นี้สะท้อนถึง blind spot ด้านความปลอดภัยของ AI ที่องค์กรทั่วโลกกำลังเผชิญ

    สรุปเนื้อหาเป็นหัวข้อ
    Lenovo chatbot Lena ถูกพบว่ามีช่องโหว่ XSS จากการตอบสนองต่อ prompt ที่ถูกออกแบบมาอย่างเจาะจง
    ช่องโหว่เกิดจากการ sanitization ของ input และ output ที่ไม่เพียงพอ
    แฮกเกอร์สามารถฝังโค้ด JavaScript ผ่าน HTML ที่ Lena สร้างขึ้น
    โค้ดจะทำงานเมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา ทำให้ session cookie ถูกขโมย
    ช่องโหว่นี้สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing และฝัง backdoor
    Lena ใช้ GPT-4 เป็นแกนหลักในการตอบคำถามลูกค้า
    Lenovo ได้รับแจ้งจากนักวิจัยและดำเนินการแก้ไขทันที
    ผู้เชี่ยวชาญเตือนว่า AI ควรได้รับการดูแลด้านความปลอดภัยเทียบเท่ากับแอปพลิเคชันทั่วไป
    ช่องโหว่นี้สะท้อนถึง blind spot ในการออกแบบระบบ AI ที่เน้นความเร็วมากกว่าความปลอดภัย
    การโจมตีใช้ prompt เพียง 400 ตัวอักษรในการเจาะระบบ

    ข้อมูลเสริมจากภายนอก
    Cybernews และ CybersecurityNews รายงานว่า Lena สามารถรันสคริปต์บนเครื่องขององค์กรได้
    ช่องโหว่สามารถขยายผลไปยังระบบอื่นในเครือข่ายผ่าน lateral movement
    OWASP จัด prompt injection เป็นช่องโหว่อันดับหนึ่งใน AI systems
    ปริมาณ bot traffic แซงหน้าการใช้งานของมนุษย์ในปี 2024 คิดเป็น 51% ของทั้งหมด
    การป้องกันต้องใช้ CSP headers, whitelisting, และ context-aware validation

    https://www.csoonline.com/article/4043005/lenovo-chatbot-breach-highlights-ai-security-blind-spots-in-customer-facing-systems.html
    🎙️ เมื่อแชตบอตกลายเป็นช่องทางเจาะระบบ – และคำถามธรรมดาอาจเปิดประตูให้แฮกเกอร์ Lenovo เปิดตัวแชตบอต Lena เพื่อช่วยลูกค้าในระบบสนับสนุน โดยใช้ GPT-4 เป็นแกนหลักในการตอบคำถาม แต่สิ่งที่ดูเหมือนจะเป็นนวัตกรรมกลับกลายเป็นช่องโหว่ร้ายแรง เมื่อทีมวิจัยจาก Cybernews พบว่า Lena สามารถถูกหลอกให้สร้างโค้ด HTML อันตรายผ่าน prompt เพียง 400 ตัวอักษร แฮกเกอร์ใช้เทคนิค prompt injection โดยเริ่มต้นด้วยคำถามเกี่ยวกับสินค้า แล้วแทรกคำสั่งให้ Lena ตอบกลับในรูปแบบ HTML พร้อมฝังโค้ด JavaScript ที่ขโมย session cookie เมื่อภาพไม่สามารถโหลดได้ เมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา โค้ดนั้นจะทำงานทันทีใน browser ของพวกเขา ทำให้แฮกเกอร์สามารถเข้าถึงระบบสนับสนุนของบริษัทได้โดยไม่ต้องเจาะระบบโดยตรง Melissa Ruzzi จาก AppOmni เตือนว่า AI ที่มีสิทธิ์แก้ไขข้อมูลโดยไม่มีการควบคุม อาจกลายเป็นช่องทางโจมตีที่ร้ายแรง และ Arjun Chauhan จาก Everest Group เสริมว่าองค์กรส่วนใหญ่ยังมอง AI เป็น “โครงการทดลอง” มากกว่าระบบที่ต้องมีมาตรการความปลอดภัยจริงจัง ช่องโหว่นี้ไม่ใช่แค่การขโมย cookie แต่สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing หรือแม้แต่การฝัง backdoor เพื่อเคลื่อนย้ายภายในเครือข่ายองค์กร Lenovo ยอมรับช่องโหว่และแก้ไขทันทีหลังได้รับการแจ้งเตือนจากนักวิจัย แต่เหตุการณ์นี้สะท้อนถึง blind spot ด้านความปลอดภัยของ AI ที่องค์กรทั่วโลกกำลังเผชิญ 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ Lenovo chatbot Lena ถูกพบว่ามีช่องโหว่ XSS จากการตอบสนองต่อ prompt ที่ถูกออกแบบมาอย่างเจาะจง ➡️ ช่องโหว่เกิดจากการ sanitization ของ input และ output ที่ไม่เพียงพอ ➡️ แฮกเกอร์สามารถฝังโค้ด JavaScript ผ่าน HTML ที่ Lena สร้างขึ้น ➡️ โค้ดจะทำงานเมื่อเจ้าหน้าที่สนับสนุนเปิดดูการสนทนา ทำให้ session cookie ถูกขโมย ➡️ ช่องโหว่นี้สามารถนำไปสู่การติดตั้ง keylogger, redirect ไปยังเว็บ phishing และฝัง backdoor ➡️ Lena ใช้ GPT-4 เป็นแกนหลักในการตอบคำถามลูกค้า ➡️ Lenovo ได้รับแจ้งจากนักวิจัยและดำเนินการแก้ไขทันที ➡️ ผู้เชี่ยวชาญเตือนว่า AI ควรได้รับการดูแลด้านความปลอดภัยเทียบเท่ากับแอปพลิเคชันทั่วไป ➡️ ช่องโหว่นี้สะท้อนถึง blind spot ในการออกแบบระบบ AI ที่เน้นความเร็วมากกว่าความปลอดภัย ➡️ การโจมตีใช้ prompt เพียง 400 ตัวอักษรในการเจาะระบบ ✅ ข้อมูลเสริมจากภายนอก ➡️ Cybernews และ CybersecurityNews รายงานว่า Lena สามารถรันสคริปต์บนเครื่องขององค์กรได้ ➡️ ช่องโหว่สามารถขยายผลไปยังระบบอื่นในเครือข่ายผ่าน lateral movement ➡️ OWASP จัด prompt injection เป็นช่องโหว่อันดับหนึ่งใน AI systems ➡️ ปริมาณ bot traffic แซงหน้าการใช้งานของมนุษย์ในปี 2024 คิดเป็น 51% ของทั้งหมด ➡️ การป้องกันต้องใช้ CSP headers, whitelisting, และ context-aware validation https://www.csoonline.com/article/4043005/lenovo-chatbot-breach-highlights-ai-security-blind-spots-in-customer-facing-systems.html
    WWW.CSOONLINE.COM
    Lenovo chatbot breach highlights AI security blind spots in customer-facing systems
    Experts say the vulnerability in Lenovo’s GPT-4-powered chatbot reflects a broader enterprise trend: deploying AI tools without applying the same security rigor as traditional applications.
    0 ความคิดเห็น 0 การแบ่งปัน 133 มุมมอง 0 รีวิว
  • Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ

    ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ

    B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้

    ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต

    นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ

    แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50%

    ข้อมูลในข่าว
    Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell
    B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300
    ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100
    มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s
    ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์
    ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ
    Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025
    RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ
    รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15%

    ข้อมูลเสริมจากภายนอก
    H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025
    B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300
    การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe
    Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA
    Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์
    การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย

    https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    🧠 Nvidia B30A – ชิป AI สำหรับจีนที่แรงกว่าเดิม แต่ยังอยู่ในกรอบควบคุมของสหรัฐฯ ในโลกที่เทคโนโลยี AI กลายเป็นสนามแข่งขันระดับโลก Nvidia กำลังเดินเกมใหม่เพื่อรักษาตลาดจีน ซึ่งคิดเป็น 13% ของรายได้บริษัท ด้วยการพัฒนาชิป AI รุ่นใหม่ชื่อว่า “B30A” ที่ออกแบบมาเฉพาะสำหรับตลาดจีน โดยยังคงอยู่ภายใต้ข้อจำกัดการส่งออกของรัฐบาลสหรัฐฯ B30A ใช้สถาปัตยกรรม Blackwell รุ่นล่าสุด และเป็นชิปแบบ “single-die” ซึ่งมีประสิทธิภาพประมาณครึ่งหนึ่งของรุ่นเรือธง B300 ที่ใช้แบบ “dual-die” แต่ยังแรงกว่า H20 ซึ่งเป็นรุ่นที่ Nvidia ได้รับอนุญาตให้ขายในจีนก่อนหน้านี้ ชิป B30A มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์สูงถึง 4TB/s พร้อมเทคโนโลยี NVLink สำหรับเชื่อมต่อระหว่างโปรเซสเซอร์ ซึ่งช่วยให้สามารถสร้างระบบ AI ขนาดใหญ่ได้ แม้จะมีข้อจำกัดบางอย่างในจำนวน NVLink ที่อนุญาต นอกจากนี้ Nvidia ยังเตรียมเปิดตัว RTX 6000D สำหรับงาน inference ซึ่งเป็นรุ่นลดสเปกจาก RTX 6000 เพื่อให้ผ่านเกณฑ์ควบคุมการส่งออก โดยทั้งสองรุ่นคาดว่าจะเริ่มส่งมอบตัวอย่างให้ลูกค้าในจีนได้ภายในเดือนกันยายน 2025 หากได้รับอนุมัติจากรัฐบาลสหรัฐฯ แนวทางนี้เกิดขึ้นหลังจากประธานาธิบดีโดนัลด์ ทรัมป์เสนอให้ Nvidia และ AMD จ่าย 15% ของรายได้จากการขายชิปในจีนให้รัฐบาลสหรัฐฯ เพื่อแลกกับการอนุญาตให้ขายชิปรุ่นใหม่ที่ “ลดประสิทธิภาพลง” ประมาณ 30–50% ✅ ข้อมูลในข่าว ➡️ Nvidia พัฒนา B30A ชิป AI สำหรับตลาดจีน โดยใช้สถาปัตยกรรม Blackwell ➡️ B30A เป็นชิปแบบ single-die ที่มีประสิทธิภาพประมาณครึ่งหนึ่งของ B300 ➡️ ประสิทธิภาพของ B30A สูงกว่า H20 และใกล้เคียงกับ H100 ➡️ มาพร้อมหน่วยความจำ HBM3E ขนาด 144GB และแบนด์วิดท์ 4TB/s ➡️ ใช้เทคโนโลยี NVLink สำหรับการเชื่อมต่อระหว่างโปรเซสเซอร์ ➡️ ออกแบบให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ ➡️ Nvidia เตรียมส่งมอบตัวอย่าง B30A และ RTX 6000D ให้ลูกค้าในจีนภายในกันยายน 2025 ➡️ RTX 6000D เป็นรุ่นลดสเปกสำหรับ inference และกราฟิกระดับมืออาชีพ ➡️ รัฐบาลสหรัฐฯ อาจอนุญาตให้ขายชิปรุ่นใหม่ในจีน หากมีการแบ่งรายได้ 15% ✅ ข้อมูลเสริมจากภายนอก ➡️ H20 ถูกพัฒนาเพื่อให้ผ่านข้อจำกัดการส่งออกในปี 2023 แต่ถูกระงับการขายในเมษายน 2025 ➡️ B30A ใช้เทคโนโลยี CoWoS-S ซึ่งถูกกว่ารุ่น CoWoS-L ที่ใช้ใน B300 ➡️ การออกแบบ single-die ช่วยลดกำลังไฟและเหมาะกับอุปกรณ์ PCIe ➡️ Nvidia ต้องรักษาฐานลูกค้าในจีนเพื่อคง ecosystem ของ CUDA ➡️ Huawei กำลังพัฒนา GPU แข่งกับ Nvidia แม้ยังด้อยในด้านซอฟต์แวร์และแบนด์วิดท์ ➡️ การออกแบบชิปเฉพาะตลาดเป็นกลยุทธ์ที่ใช้ในหลายประเทศ เช่น อินเดียและรัสเซีย https://www.tomshardware.com/pc-components/gpus/nvidia-could-be-readying-b30a-accelerator-for-chinese-market-new-blackwell-chip-reportedly-beats-h20-and-even-h100-while-complying-with-u-s-export-controls
    0 ความคิดเห็น 0 การแบ่งปัน 141 มุมมอง 0 รีวิว
  • NVIDIA: จากการ์ด VGA ไปสู่ GPU และก้าวสู่ NPU หัวใจของ AI

    ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks.

    จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน

    การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล และการคำนวณทางวิทยาศาสตร์ สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI

    เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics และ autonomous vehicles .

    ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T.

    สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง.

    #ลุงเขียนหลานอ่าน
    NVIDIA: จากการ์ด VGA ➡️ ไปสู่ GPU 🚀 และก้าวสู่ NPU หัวใจของ AI ❤️ ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) 🤖 กำลังเปลี่ยนแปลงโลก NVIDIA ได้กลายเป็นบริษัทชั้นนำที่ขับเคลื่อนการปฏิวัติครั้งนี้ บริษัทก่อตั้งขึ้นในปี 1993 โดย Jensen Huang, Chris Malachowsky และ Curtis Priem ด้วยวิสัยทัศน์ในการพัฒนาเทคโนโลยีกราฟิกสำหรับวิดีโอเกม 🎮 แต่เส้นทางของ NVIDIA ไม่ได้หยุดอยู่แค่การแสดงผลภาพ มันวิวัฒนาการจาการ์ดแสดงผล VGA ธรรมดา ไปสู่หน่วยประมวลผลกราฟิก (GPU) ที่ทรงพลัง และสุดท้ายกลายเป็นหัวใจสำคัญของ AI ผ่านเทคโนโลยีที่คล้ายหน่วยประมวลผลเส้นประสาท (NPU) ซึ่งช่วยเร่งการคำนวณสำหรับการเรียนรู้ของเครื่องและ neural networks. 🧠 จุดเริ่มต้นของ NVIDIA เกิดขึ้นในช่วงที่อุตสาหกรรมคอมพิวเตอร์ 💻 กำลังมุ่งเน้นไปที่การแสดงผลกราฟิก ผลิตภัณฑ์แรกอย่าง NV1 ซึ่งเป็น graphics accelerator สำหรับ VGA ไม่ประสบความสำเร็จมากนัก 📉 เนื่องจากใช้รูปแบบ quadrilateral primitives ที่ไม่เข้ากันกับมาตรฐาน DirectX ของ Microsoft ทำให้บริษัทเกือบล้มละลาย 😥 แต่ NVIDIA ฟื้นตัวได้ด้วย RIVA 128 ในปี 1997 ซึ่งเป็นชิปกราฟิกที่รองรับ triangle primitives และขายได้กว่า 1 ล้านหน่วยภายใน 4 เดือน 📈 สิ่งนี้ช่วยให้บริษัทมั่นคงและเข้าสู่ตลาดการ์ดจอ VGA อย่างเต็มตัว. ในขณะนั้น VGA (Video Graphics Array) เป็นมาตรฐานพื้นฐานสำหรับการแสดงผล แต่ NVIDIA มองเห็นศักยภาพในการพัฒนาให้ก้าวไกลกว่านั้น โดยเน้นที่การเร่งความเร็วกราฟิก 3 มิติสำหรับเกมและแอปพลิเคชัน การก้าวกระโดดครั้งใหญ่เกิดขึ้นในปี 1999 เมื่อ NVIDIA เปิดตัว GeForce 256 ซึ่งถูกขนานนามว่าเป็น "GPU แรกของโลก" 🌍 GPU (Graphics Processing Unit) แตกต่างจาก VGA ตรงที่มันไม่ใช่แค่การ์ดแสดงผล แต่เป็นหน่วยประมวลผลแบบขนานที่สามารถจัดการ transformation and lighting (T&L) บนฮาร์ดแวร์ได้เอง ทำให้ประสิทธิภาพกราฟิกเพิ่มขึ้นอย่างมหาศาลและปฏิวัติอุตสาหกรรมเกม. จากนั้น NVIDIA ลงทุนกว่า 1 พันล้านดอลลาร์ 💰 ในการพัฒนา CUDA ในช่วงต้นปี 2000 ซึ่งเป็นแพลตฟอร์มซอฟต์แวร์ที่ช่วยให้ GPU สามารถรันโปรแกรมแบบขนานสำหรับงานคำนวณที่หนักหน่วง เช่น การวิเคราะห์ข้อมูล 📊 และการคำนวณทางวิทยาศาสตร์ 🧪 สิ่งนี้ขยายขอบเขตของ GPU จากแค่กราฟิกไปสู่การประมวลผลทั่วไป โดยในปี 2016 NVIDIA ได้บริจาค DGX-1 ซึ่งเป็น supercomputer ที่ใช้ GPU 8 ตัว ให้กับ OpenAI เพื่อสนับสนุนการพัฒนา AI เมื่อ AI เฟื่องฟู NVIDIA ได้ปรับ GPU ให้เหมาะสมกับงาน deep learning มากขึ้น ด้วยการแนะนำ Tensor Cores ในสถาปัตยกรรม Volta (2017) และ Turing (2018) ซึ่งเป็นหน่วยประมวลผลพิเศษสำหรับการคำนวณ tensor/matrix ที่ใช้ใน neural networks ทำให้ GPU เร่งความเร็วการฝึกและ inference ของโมเดล AI ได้หลายเท่า. Tensor Cores รองรับความแม่นยำแบบ FP16, INT8 และ INT4 ซึ่งเหมาะสำหรับงาน AI ที่ต้องการประสิทธิภาพสูงแต่ใช้พลังงานต่ำ คล้ายกับฟังก์ชันของ NPU (Neural Processing Unit) ที่ออกแบบมาเฉพาะสำหรับการประมวลผล neural networks และ AI inference ในอุปกรณ์ edge. แม้ NVIDIA จะไม่เรียกผลิตภัณฑ์ของตนว่า NPU โดยตรง แต่เทคโนโลยีอย่าง Tensor Cores และ BlueField Data Processing Units (DPUs) ทำหน้าที่คล้ายกัน โดย DPU ช่วยจัดการงาน data center AI เช่น การเร่งข้อมูลและ security สำหรับ AI workloads. นอกจากนี้ ซีรีส์ Jetson สำหรับ embedded systems ยังรวม deep learning accelerators ที่คล้าย NPU สำหรับ robotics 🤖 และ autonomous vehicles 🚗. ในปัจจุบัน NVIDIA ครองตลาด GPU สำหรับ AI มากกว่า 80% และชิปอย่าง H100 และ Blackwell ถูกใช้ใน supercomputers กว่า 75% ของ TOP500 ทำให้บริษัทมีมูลค่าตลาดเกิน 4 ล้านล้านดอลลาร์ในปี 2025. 💰 การพัฒนาเหล่านี้ไม่เพียงแต่ทำให้ NVIDIA เป็นผู้นำใน AI แต่ยังขับเคลื่อนอุตสาหกรรมต่างๆ เช่น การแพทย์ 🩺 การขับขี่อัตโนมัติ และ robotics ด้วยโมเดลอย่าง NVLM 1.0 และ Isaac GR00T. สรุปแล้ว NVIDIA ได้วิวัฒนาการจากผู้ผลิตการ์ด VGA สู่ผู้ประดิษฐ์ GPU และกลายเป็นหัวใจของ AI ผ่านเทคโนโลยีที่คล้าย NPU ซึ่งช่วยให้โลกก้าวสู่ยุคปัญญาประดิษฐ์ที่แท้จริง 👍 การเดินทางนี้แสดงให้เห็นถึงวิสัยทัศน์ในการปรับตัวและนวัตกรรมที่ไม่หยุดยั้ง. 💡 #ลุงเขียนหลานอ่าน
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 204 มุมมอง 0 รีวิว
  • NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น

    กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น

    หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime

    ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ

    ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง

    แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่

    ข้อมูลจากข่าวหลัก
    NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล
    Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา
    Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD
    Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์
    Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย
    Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ
    NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3
    ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร

    ข้อมูลเสริมจากภายนอก
    NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก
    RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่
    Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน
    Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ
    Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด
    Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น

    https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    🚀 NVMe 2.3: ยกระดับ SSD ให้ฉลาดขึ้น ปลอดภัยขึ้น และทนทานต่อความล้มเหลวมากขึ้น กลุ่ม NVM Express ได้เปิดตัวมาตรฐาน NVMe 2.3 ซึ่งเป็นการปรับปรุงครั้งใหญ่ที่ครอบคลุมทั้งชุดคำสั่งการจัดเก็บข้อมูลและโปรโตคอลการส่งข้อมูล เช่น PCIe, RDMA และ TCP โดยมีเป้าหมายเพื่อทำให้ SSD มีความยืดหยุ่นมากขึ้น ประหยัดพลังงาน และสามารถฟื้นตัวจากความล้มเหลวได้ดีขึ้น หนึ่งในฟีเจอร์เด่นคือ Rapid Path Failure Recovery (RPFR) ซึ่งช่วยให้ระบบสามารถเปลี่ยนเส้นทางการสื่อสารไปยังช่องทางสำรองได้ทันทีเมื่อเกิดปัญหาระหว่าง host กับ storage subsystem ลดโอกาสข้อมูลเสียหายและ downtime ด้านการจัดการพลังงาน NVMe 2.3 เพิ่มฟีเจอร์ Power Limit Config ที่ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ได้ และ Self-Reported Drive Power ที่ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ซึ่งเหมาะกับการวางแผนพลังงานและตรวจจับปัญหาแต่เนิ่นๆ ในด้านความปลอดภัย มีฟีเจอร์ Sanitize Per Namespace ที่ช่วยลบข้อมูลเฉพาะบางส่วนของ SSD โดยไม่กระทบข้อมูลอื่น และ Configurable Device Personality ที่ให้ SSD ปรับโหมดการทำงานได้ตามความต้องการ เช่น โหมดประหยัดพลังงานหรือโหมดประสิทธิภาพสูง แม้ฟีเจอร์เหล่านี้จะมีประโยชน์มากในระดับองค์กร แต่การนำไปใช้ใน SSD สำหรับผู้บริโภคทั่วไปยังขึ้นอยู่กับผู้ผลิตว่าจะนำไปใช้อย่างจริงจังหรือไม่ ✅ ข้อมูลจากข่าวหลัก ➡️ NVMe 2.3 เปิดตัวพร้อมอัปเดต 11 รายการในชุดคำสั่งและโปรโตคอลการส่งข้อมูล ➡️ Rapid Path Failure Recovery ช่วยให้ระบบเปลี่ยนเส้นทางการสื่อสารเมื่อเกิดปัญหา ➡️ Power Limit Config ให้ผู้ดูแลระบบกำหนดขีดจำกัดการใช้พลังงานของ SSD ➡️ Self-Reported Drive Power ช่วยให้ SSD รายงานการใช้พลังงานแบบเรียลไทม์ ➡️ Sanitize Per Namespace ลบข้อมูลเฉพาะบางส่วนของ SSD ได้อย่างปลอดภัย ➡️ Configurable Device Personality ให้ SSD ปรับโหมดการทำงานตามความต้องการ ➡️ NVMe Management Interface อัปเดตเป็นเวอร์ชัน 2.1 และ NVMe Boot เป็นเวอร์ชัน 1.3 ➡️ ฟีเจอร์ใหม่เน้นความยืดหยุ่น ความปลอดภัย และการจัดการพลังงานในระดับองค์กร ✅ ข้อมูลเสริมจากภายนอก ➡️ NVMe 2.3 รองรับการใช้งานในศูนย์ข้อมูล, ระบบ AI, และแอปพลิเคชันที่ใช้ข้อมูลหนัก ➡️ RPFR ลดโอกาสข้อมูลเสียหายจากการสื่อสารล้มเหลวในระบบขนาดใหญ่ ➡️ Power Limit Config เหมาะกับเซิร์ฟเวอร์รุ่นเก่าที่มีข้อจำกัดด้านพลังงาน ➡️ Self-Reported Drive Power ช่วยวางแผนพลังงานและตรวจจับปัญหาได้แต่เนิ่นๆ ➡️ Sanitize Per Namespace เหมาะกับการรีไทร์หรือรีไซเคิล SSD โดยไม่ลบข้อมูลทั้งหมด ➡️ Configurable Device Personality ช่วยลดความซับซ้อนในการจัดการ SSD หลายรุ่น https://www.techradar.com/pro/finally-future-ssds-are-set-to-be-more-energy-efficient-and-more-secure-thanks-to-a-new-set-of-guidelines
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • AMD เตรียมเปิดแผนอนาคต Zen 6, RDNA 5, CDNA และ UDNA ในงานใหญ่เดือนพฤศจิกายน

    AMD ประกาศจัดงาน Financial Analyst Day ในวันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก ซึ่งจะเป็นเวทีสำคัญในการเปิดเผยแผนพัฒนาเทคโนโลยีในระยะยาว โดยเฉพาะ CPU ตระกูล Zen รุ่นใหม่, GPU สาย RDNA และ CDNA สำหรับงาน HPC และ AI รวมถึงสถาปัตยกรรมใหม่ชื่อ UDNA ที่จะเป็นหัวใจของ AI accelerators รุ่นถัดไป

    ในฝั่ง CPU AMD จะพูดถึง EPYC “Venice” ที่ใช้ Zen 6 และจะเปิดเผยข้อมูลเพิ่มเติมเกี่ยวกับ EPYC “Verano” ที่คาดว่าจะใช้ Zen 6 หรือ Zen 7 ในปี 2027 และอาจมีการพูดถึง Zen 8 ด้วย

    ด้าน GPU จะมีการเปิดตัว RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI โดย AMD ตั้งเป้ารวมสาย RDNA และ CDNA เข้าด้วยกันในอนาคต เพื่อสร้าง GPU ที่รองรับทั้งเกมและงานประมวลผลระดับสูง

    ในฝั่ง AI และ HPC AMD จะพูดถึง Instinct MI500 accelerators ที่ใช้ UDNA 6 และเทคโนโลยีการเชื่อมต่อแบบใหม่ชื่อ UALink ซึ่งจะช่วยให้ระบบ AI ขนาดใหญ่สามารถเชื่อมต่อกันได้อย่างมีประสิทธิภาพ

    นอกจากนี้ AMD ยังจะเปิดเผยแผนการเงินระยะยาว และกลยุทธ์ในการแข่งขันกับ Nvidia และผู้ผลิตชิปแบบ custom จาก hyperscale cloud providers

    ข้อมูลจากข่าวหลัก
    AMD จะจัดงาน Financial Analyst Day วันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก
    งานนี้จะเปิดเผยแผนระยะยาวของ CPU, GPU, AI accelerators และเทคโนโลยีการเชื่อมต่อ
    CPU EPYC “Venice” ใช้ Zen 6 และจะเปิดเผยข้อมูล EPYC “Verano” ที่อาจใช้ Zen 6 หรือ Zen 7
    อาจมีการพูดถึง Zen 8 สำหรับอนาคตระยะไกล
    GPU RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI จะถูกเปิดเผย
    Instinct MI500 accelerators จะใช้สถาปัตยกรรม UDNA 6
    เทคโนโลยี UALink จะช่วยให้ระบบ AI ขนาดใหญ่เชื่อมต่อกันได้ดีขึ้น
    AMD จะเปิดเผยแผนการเงินระยะยาวและกลยุทธ์แข่งขันกับ Nvidia และผู้ผลิต custom silicon

    ข้อมูลเสริมจากภายนอก
    Zen 6 อาจมีความเร็วทะลุ 7.0GHz และใช้ dual IMC design สำหรับการจัดการหน่วยความจำ
    RDNA 5 คาดว่าจะมี IPC สูงกว่า RDNA 4 ประมาณ 5–10% ที่ความเร็วเท่าเดิม
    ROCm ecosystem จะถูกขยายเพื่อรองรับ AI และ HPC มากขึ้น
    AMD อาจเปิดตัว Radeon RX 10900 XT ที่ใช้ RDNA 5 แข่งกับ RTX 6090
    UDNA จะเป็นจุดรวมของ GPU สายเกมและ HPC ในอนาคต
    AMD มีแผนใช้ advanced packaging technologies เพื่อเพิ่มประสิทธิภาพและลดต้นทุน

    https://www.tomshardware.com/pc-components/cpus/amd-to-disclose-roadmaps-in-mid-november-the-future-of-zen-6-rdna-cdna-and-udna-expected
    🔮 AMD เตรียมเปิดแผนอนาคต Zen 6, RDNA 5, CDNA และ UDNA ในงานใหญ่เดือนพฤศจิกายน AMD ประกาศจัดงาน Financial Analyst Day ในวันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก ซึ่งจะเป็นเวทีสำคัญในการเปิดเผยแผนพัฒนาเทคโนโลยีในระยะยาว โดยเฉพาะ CPU ตระกูล Zen รุ่นใหม่, GPU สาย RDNA และ CDNA สำหรับงาน HPC และ AI รวมถึงสถาปัตยกรรมใหม่ชื่อ UDNA ที่จะเป็นหัวใจของ AI accelerators รุ่นถัดไป ในฝั่ง CPU AMD จะพูดถึง EPYC “Venice” ที่ใช้ Zen 6 และจะเปิดเผยข้อมูลเพิ่มเติมเกี่ยวกับ EPYC “Verano” ที่คาดว่าจะใช้ Zen 6 หรือ Zen 7 ในปี 2027 และอาจมีการพูดถึง Zen 8 ด้วย ด้าน GPU จะมีการเปิดตัว RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI โดย AMD ตั้งเป้ารวมสาย RDNA และ CDNA เข้าด้วยกันในอนาคต เพื่อสร้าง GPU ที่รองรับทั้งเกมและงานประมวลผลระดับสูง ในฝั่ง AI และ HPC AMD จะพูดถึง Instinct MI500 accelerators ที่ใช้ UDNA 6 และเทคโนโลยีการเชื่อมต่อแบบใหม่ชื่อ UALink ซึ่งจะช่วยให้ระบบ AI ขนาดใหญ่สามารถเชื่อมต่อกันได้อย่างมีประสิทธิภาพ นอกจากนี้ AMD ยังจะเปิดเผยแผนการเงินระยะยาว และกลยุทธ์ในการแข่งขันกับ Nvidia และผู้ผลิตชิปแบบ custom จาก hyperscale cloud providers ✅ ข้อมูลจากข่าวหลัก ➡️ AMD จะจัดงาน Financial Analyst Day วันที่ 11 พฤศจิกายน 2025 ที่นิวยอร์ก ➡️ งานนี้จะเปิดเผยแผนระยะยาวของ CPU, GPU, AI accelerators และเทคโนโลยีการเชื่อมต่อ ➡️ CPU EPYC “Venice” ใช้ Zen 6 และจะเปิดเผยข้อมูล EPYC “Verano” ที่อาจใช้ Zen 6 หรือ Zen 7 ➡️ อาจมีการพูดถึง Zen 8 สำหรับอนาคตระยะไกล ➡️ GPU RDNA 5 สำหรับผู้ใช้ทั่วไป และ UDNA 6 สำหรับงาน AI จะถูกเปิดเผย ➡️ Instinct MI500 accelerators จะใช้สถาปัตยกรรม UDNA 6 ➡️ เทคโนโลยี UALink จะช่วยให้ระบบ AI ขนาดใหญ่เชื่อมต่อกันได้ดีขึ้น ➡️ AMD จะเปิดเผยแผนการเงินระยะยาวและกลยุทธ์แข่งขันกับ Nvidia และผู้ผลิต custom silicon ✅ ข้อมูลเสริมจากภายนอก ➡️ Zen 6 อาจมีความเร็วทะลุ 7.0GHz และใช้ dual IMC design สำหรับการจัดการหน่วยความจำ ➡️ RDNA 5 คาดว่าจะมี IPC สูงกว่า RDNA 4 ประมาณ 5–10% ที่ความเร็วเท่าเดิม ➡️ ROCm ecosystem จะถูกขยายเพื่อรองรับ AI และ HPC มากขึ้น ➡️ AMD อาจเปิดตัว Radeon RX 10900 XT ที่ใช้ RDNA 5 แข่งกับ RTX 6090 ➡️ UDNA จะเป็นจุดรวมของ GPU สายเกมและ HPC ในอนาคต ➡️ AMD มีแผนใช้ advanced packaging technologies เพื่อเพิ่มประสิทธิภาพและลดต้นทุน https://www.tomshardware.com/pc-components/cpus/amd-to-disclose-roadmaps-in-mid-november-the-future-of-zen-6-rdna-cdna-and-udna-expected
    0 ความคิดเห็น 0 การแบ่งปัน 157 มุมมอง 0 รีวิว
  • ดาวเทียม Metop-SG: ยุคใหม่ของการพยากรณ์อากาศเพื่อชีวิต

    ในช่วง 15 ปีข้างหน้า ยุโรปจะส่งดาวเทียม Metop Second Generation ขึ้นสู่วงโคจรต่ำของโลกจำนวน 6 ดวง เพื่อยกระดับการพยากรณ์อากาศให้แม่นยำขึ้น และเตือนภัยล่วงหน้าได้เร็วขึ้น โดยเฉพาะเหตุการณ์สุดขั้ว เช่น พายุรุนแรง คลื่นความร้อน และไฟป่า

    ดาวเทียมดวงแรก Metop-SG A1 ถูกปล่อยจากเฟรนช์เกียนาเมื่อวันที่ 13 สิงหาคม 2025 และจะเริ่มเก็บข้อมูลในปีหน้า โดยมีภารกิจร่วมกับ Copernicus Sentinel-5 เพื่อวัดคุณภาพอากาศและติดตามการเปลี่ยนแปลงสภาพภูมิอากาศ

    ดาวเทียมจะโคจรรอบโลกทุก 100 นาทีที่ระดับความสูงประมาณ 800 กม. ครอบคลุมภาพทั่วโลกวันละหลายรอบ พร้อมเครื่องมือวัดอุณหภูมิ ปริมาณฝน เมฆ ลม และมลพิษ ซึ่งจะส่งข้อมูลกลับไปยังสถานีภาคพื้น เช่น จานรับสัญญาณใหม่ที่ Met Office ในอังกฤษ

    ข้อมูลจากดาวเทียมเหล่านี้จะช่วยให้พยากรณ์อากาศล่วงหน้าได้ถึง 10 วัน และตรวจจับสัญญาณเริ่มต้นของพายุหรือภัยพิบัติได้เร็วขึ้น ซึ่งมีความสำคัญอย่างยิ่งในยุคที่สภาพอากาศเปลี่ยนแปลงอย่างรวดเร็วและรุนแรง

    รายละเอียดโครงการ Metop Second Generation
    ดาวเทียม Metop-SG จำนวน 6 ดวงจะถูกส่งขึ้นใน 15 ปีข้างหน้า
    ดาวเทียมดวงแรก Metop-SG A1 ถูกปล่อยเมื่อ 13 ส.ค. 2025 จากเฟรนช์เกียนา
    โคจรที่ระดับ 800 กม. รอบโลกทุก 100 นาที ครอบคลุมภาพทั่วโลก
    ใช้เครื่องมือวัดอุณหภูมิ ฝน เมฆ ลม มลพิษ และคุณภาพอากาศ
    ข้อมูลจะส่งกลับไปยังสถานีภาคพื้น เช่น Met Office ในอังกฤษ
    ช่วยพยากรณ์อากาศล่วงหน้าได้ถึง 10 วัน และตรวจจับภัยพิบัติได้เร็วขึ้น
    เป็นความร่วมมือระหว่าง EUMetSat, ESA, EU, NOAA และองค์กรอวกาศยุโรป

    ข้อมูลเสริมจากภายนอก
    Sentinel-5 บนดาวเทียมจะวัดก๊าซเรือนกระจกและมลพิษในอากาศ
    ดาวเทียมแบบคู่ (A-type และ B-type) ใช้เครื่องมือที่เสริมกันเพื่อเพิ่มความแม่นยำ
    ข้อมูลจากดาวเทียมช่วยเกษตรกรวางแผนการเพาะปลูก และช่วยนักบินนำทาง
    ระบบนี้เป็นส่วนหนึ่งของ Joint Polar System ร่วมกับ NOAA สหรัฐฯ
    การพยากรณ์ที่แม่นยำช่วยลดความเสียหายทางเศรษฐกิจและชีวิต
    คาดว่าโครงการนี้จะให้ผลตอบแทนทางเศรษฐกิจมากกว่า 20 เท่า

    https://www.thestar.com.my/tech/tech-news/2025/08/17/satellite-project-could-save-lives-give-extreme-weather-warnings
    🌪️ ดาวเทียม Metop-SG: ยุคใหม่ของการพยากรณ์อากาศเพื่อชีวิต ในช่วง 15 ปีข้างหน้า ยุโรปจะส่งดาวเทียม Metop Second Generation ขึ้นสู่วงโคจรต่ำของโลกจำนวน 6 ดวง เพื่อยกระดับการพยากรณ์อากาศให้แม่นยำขึ้น และเตือนภัยล่วงหน้าได้เร็วขึ้น โดยเฉพาะเหตุการณ์สุดขั้ว เช่น พายุรุนแรง คลื่นความร้อน และไฟป่า ดาวเทียมดวงแรก Metop-SG A1 ถูกปล่อยจากเฟรนช์เกียนาเมื่อวันที่ 13 สิงหาคม 2025 และจะเริ่มเก็บข้อมูลในปีหน้า โดยมีภารกิจร่วมกับ Copernicus Sentinel-5 เพื่อวัดคุณภาพอากาศและติดตามการเปลี่ยนแปลงสภาพภูมิอากาศ ดาวเทียมจะโคจรรอบโลกทุก 100 นาทีที่ระดับความสูงประมาณ 800 กม. ครอบคลุมภาพทั่วโลกวันละหลายรอบ พร้อมเครื่องมือวัดอุณหภูมิ ปริมาณฝน เมฆ ลม และมลพิษ ซึ่งจะส่งข้อมูลกลับไปยังสถานีภาคพื้น เช่น จานรับสัญญาณใหม่ที่ Met Office ในอังกฤษ ข้อมูลจากดาวเทียมเหล่านี้จะช่วยให้พยากรณ์อากาศล่วงหน้าได้ถึง 10 วัน และตรวจจับสัญญาณเริ่มต้นของพายุหรือภัยพิบัติได้เร็วขึ้น ซึ่งมีความสำคัญอย่างยิ่งในยุคที่สภาพอากาศเปลี่ยนแปลงอย่างรวดเร็วและรุนแรง ✅ รายละเอียดโครงการ Metop Second Generation ➡️ ดาวเทียม Metop-SG จำนวน 6 ดวงจะถูกส่งขึ้นใน 15 ปีข้างหน้า ➡️ ดาวเทียมดวงแรก Metop-SG A1 ถูกปล่อยเมื่อ 13 ส.ค. 2025 จากเฟรนช์เกียนา ➡️ โคจรที่ระดับ 800 กม. รอบโลกทุก 100 นาที ครอบคลุมภาพทั่วโลก ➡️ ใช้เครื่องมือวัดอุณหภูมิ ฝน เมฆ ลม มลพิษ และคุณภาพอากาศ ➡️ ข้อมูลจะส่งกลับไปยังสถานีภาคพื้น เช่น Met Office ในอังกฤษ ➡️ ช่วยพยากรณ์อากาศล่วงหน้าได้ถึง 10 วัน และตรวจจับภัยพิบัติได้เร็วขึ้น ➡️ เป็นความร่วมมือระหว่าง EUMetSat, ESA, EU, NOAA และองค์กรอวกาศยุโรป ✅ ข้อมูลเสริมจากภายนอก ➡️ Sentinel-5 บนดาวเทียมจะวัดก๊าซเรือนกระจกและมลพิษในอากาศ ➡️ ดาวเทียมแบบคู่ (A-type และ B-type) ใช้เครื่องมือที่เสริมกันเพื่อเพิ่มความแม่นยำ ➡️ ข้อมูลจากดาวเทียมช่วยเกษตรกรวางแผนการเพาะปลูก และช่วยนักบินนำทาง ➡️ ระบบนี้เป็นส่วนหนึ่งของ Joint Polar System ร่วมกับ NOAA สหรัฐฯ ➡️ การพยากรณ์ที่แม่นยำช่วยลดความเสียหายทางเศรษฐกิจและชีวิต ➡️ คาดว่าโครงการนี้จะให้ผลตอบแทนทางเศรษฐกิจมากกว่า 20 เท่า https://www.thestar.com.my/tech/tech-news/2025/08/17/satellite-project-could-save-lives-give-extreme-weather-warnings
    WWW.THESTAR.COM.MY
    Satellite project could save lives, give extreme weather warnings
    A series of satellites are set to be launched into space over the next 15 years to help "save lives" and give early warning of increasingly extreme weather, British experts have said.
    0 ความคิดเห็น 0 การแบ่งปัน 183 มุมมอง 0 รีวิว
  • เมื่อสายไฟละลายไม่ใช่เรื่องเล่น ๆ: DIYer สร้างระบบป้องกัน RTX 5090 ด้วยสายไฟพันกันสุดโกลาหล

    ปัญหาสายไฟละลายจากหัวต่อ 16-pin ของการ์ดจอ RTX 4090 และ 5090 กลายเป็นเรื่องจริงที่ผู้ใช้งานหลายคนเจอ โดยเฉพาะเมื่อใช้กับ PSU ที่จ่ายไฟสูงและสาย 12VHPWR ที่ไม่แน่นหนา

    Electronic_Ear6797 จึงสร้างระบบ “RTX 5090 Countermeasures” ที่ดูเหมือนงานศิลปะสายไฟพันกัน แต่มีระบบตรวจจับกระแสเกิน และสั่งให้ PSU ปิดตัวทันทีเมื่อเกิดความเสี่ยง

    ระบบนี้ใช้ชิ้นส่วนอุตสาหกรรม เช่น PLC จาก Mitsubishi, เซนเซอร์วัดกระแส และรีเลย์ไฟฟ้า เพื่อควบคุมการจ่ายไฟอย่างแม่นยำ โดยไม่พึ่งแค่ฟิวส์หรือระบบป้องกันพื้นฐาน

    แม้จะดูยุ่งเหยิง แต่ระบบนี้ช่วยลดความเสี่ยงจากการละลายหัวต่อ ซึ่งเคยเกิดขึ้นจริงกับผู้ใช้งาน RTX 4090 และยังคงเกิดซ้ำกับ RTX 5090 แม้จะเป็นรุ่นใหม่

    ปัญหาที่เกิดขึ้นกับ RTX 5090
    หัวต่อ 16-pin มีความเสี่ยงละลายจากความร้อนสูง
    ปัญหาเริ่มจาก RTX 4090 และยังเกิดซ้ำกับ RTX 5090
    สาย 12VHPWR ที่ไม่แน่นหนาเป็นสาเหตุหลัก

    ระบบป้องกันแบบ DIY
    ใช้ PLC จาก Mitsubishi และเซนเซอร์วัดกระแสไฟฟ้า
    มีรีเลย์ที่สั่งปิด PSU ทันทีเมื่อเกิดกระแสเกิน
    สร้างจากชิ้นส่วนอุตสาหกรรม ไม่ใช่แค่ฟิวส์ธรรมดา

    จุดเด่นของระบบ
    ป้องกันการละลายหัวต่อได้แบบ proactive
    ลดความเสี่ยงจากการใช้งานการ์ดจอระดับสูง
    เป็นตัวอย่างของการแก้ปัญหาด้วยความรู้ด้านไฟฟ้าและระบบควบคุม

    ข้อมูลเสริมจากวงการฮาร์ดแวร์
    Thermal Grizzly มีผลิตภัณฑ์ WireView สำหรับตรวจสอบพลังงาน GPU
    Corsair และ Seasonic เริ่มออกแบบสาย 12VHPWR รุ่นใหม่ที่แน่นหนาขึ้น
    ผู้ผลิตบางรายเริ่มพัฒนา GPU ที่ใช้หัวต่อแบบใหม่เพื่อลดความเสี่ยง

    https://www.tomshardware.com/pc-components/gpus/diyer-creates-rtx-5090-countermeasures-with-cabling-spaghetti-to-mitigate-16-pin-meltdowns-system-automatically-shuts-down-when-the-overcurrent-protection-is-triggered
    🧠 เมื่อสายไฟละลายไม่ใช่เรื่องเล่น ๆ: DIYer สร้างระบบป้องกัน RTX 5090 ด้วยสายไฟพันกันสุดโกลาหล ปัญหาสายไฟละลายจากหัวต่อ 16-pin ของการ์ดจอ RTX 4090 และ 5090 กลายเป็นเรื่องจริงที่ผู้ใช้งานหลายคนเจอ โดยเฉพาะเมื่อใช้กับ PSU ที่จ่ายไฟสูงและสาย 12VHPWR ที่ไม่แน่นหนา Electronic_Ear6797 จึงสร้างระบบ “RTX 5090 Countermeasures” ที่ดูเหมือนงานศิลปะสายไฟพันกัน แต่มีระบบตรวจจับกระแสเกิน และสั่งให้ PSU ปิดตัวทันทีเมื่อเกิดความเสี่ยง ระบบนี้ใช้ชิ้นส่วนอุตสาหกรรม เช่น PLC จาก Mitsubishi, เซนเซอร์วัดกระแส และรีเลย์ไฟฟ้า เพื่อควบคุมการจ่ายไฟอย่างแม่นยำ โดยไม่พึ่งแค่ฟิวส์หรือระบบป้องกันพื้นฐาน แม้จะดูยุ่งเหยิง แต่ระบบนี้ช่วยลดความเสี่ยงจากการละลายหัวต่อ ซึ่งเคยเกิดขึ้นจริงกับผู้ใช้งาน RTX 4090 และยังคงเกิดซ้ำกับ RTX 5090 แม้จะเป็นรุ่นใหม่ ✅ ปัญหาที่เกิดขึ้นกับ RTX 5090 ➡️ หัวต่อ 16-pin มีความเสี่ยงละลายจากความร้อนสูง ➡️ ปัญหาเริ่มจาก RTX 4090 และยังเกิดซ้ำกับ RTX 5090 ➡️ สาย 12VHPWR ที่ไม่แน่นหนาเป็นสาเหตุหลัก ✅ ระบบป้องกันแบบ DIY ➡️ ใช้ PLC จาก Mitsubishi และเซนเซอร์วัดกระแสไฟฟ้า ➡️ มีรีเลย์ที่สั่งปิด PSU ทันทีเมื่อเกิดกระแสเกิน ➡️ สร้างจากชิ้นส่วนอุตสาหกรรม ไม่ใช่แค่ฟิวส์ธรรมดา ✅ จุดเด่นของระบบ ➡️ ป้องกันการละลายหัวต่อได้แบบ proactive ➡️ ลดความเสี่ยงจากการใช้งานการ์ดจอระดับสูง ➡️ เป็นตัวอย่างของการแก้ปัญหาด้วยความรู้ด้านไฟฟ้าและระบบควบคุม ✅ ข้อมูลเสริมจากวงการฮาร์ดแวร์ ➡️ Thermal Grizzly มีผลิตภัณฑ์ WireView สำหรับตรวจสอบพลังงาน GPU ➡️ Corsair และ Seasonic เริ่มออกแบบสาย 12VHPWR รุ่นใหม่ที่แน่นหนาขึ้น ➡️ ผู้ผลิตบางรายเริ่มพัฒนา GPU ที่ใช้หัวต่อแบบใหม่เพื่อลดความเสี่ยง https://www.tomshardware.com/pc-components/gpus/diyer-creates-rtx-5090-countermeasures-with-cabling-spaghetti-to-mitigate-16-pin-meltdowns-system-automatically-shuts-down-when-the-overcurrent-protection-is-triggered
    0 ความคิดเห็น 0 การแบ่งปัน 176 มุมมอง 0 รีวิว
  • Silicon Photonics: เทคโนโลยีแห่งอนาคตที่ยังไม่พร้อมสำหรับวันนี้
    ในขณะที่อุตสาหกรรมคอมพิวเตอร์กำลังมองหาเทคโนโลยีใหม่เพื่อรองรับการประมวลผล AI ขนาดใหญ่ “Silicon Photonics” หรือการส่งข้อมูลด้วยแสงผ่านชิปซิลิกอน ถูกมองว่าเป็นคำตอบสำหรับการเชื่อมต่อที่เร็วขึ้น ประหยัดพลังงาน และลดความร้อน

    แต่ Jensen Huang ซีอีโอของ NVIDIA กลับออกมาแสดงความเห็นว่า “โลกควรอยู่กับทองแดงให้นานที่สุดเท่าที่จะทำได้” เพราะแม้ NVIDIA จะร่วมมือกับ TSMC และพัฒนาเทคโนโลยี photonics เช่น Quantum-X และ Spectrum-X แต่การใช้งานจริงยังต้องใช้เวลาอีกหลายปี

    แม้จะมีการเปิดตัวสวิตช์เครือข่ายแบบ photonics ที่สามารถเชื่อมต่อ GPU หลายล้านตัวใน AI factory ได้ แต่ Jensen ย้ำว่า การเปลี่ยนผ่านจากทองแดงไปสู่แสงต้องใช้การปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด ซึ่งไม่ใช่เรื่องง่ายในระยะสั้น

    ความหมายและศักยภาพของ Silicon Photonics
    เป็นเทคโนโลยีที่ใช้แสงแทนไฟฟ้าในการส่งข้อมูลผ่านชิปซิลิกอน
    ให้แบนด์วิดธ์สูงกว่า ลด latency และประหยัดพลังงานมากกว่าสายทองแดง
    เหมาะกับงาน AI ขนาดใหญ่ที่ต้องการเชื่อมต่อ GPU จำนวนมหาศาล

    จุดยืนของ NVIDIA และ Jensen Huang
    Jensen Huang ระบุว่า Silicon Photonics ยังไม่พร้อมใช้งานจริง
    แนะนำให้ใช้สายทองแดงต่อไปอีกหลายปีเพื่อความเสถียรและต้นทุนต่ำ
    การเปลี่ยนไปใช้ photonics ต้องปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด

    แผนการพัฒนา Photonics ของ NVIDIA
    ร่วมมือกับ TSMC พัฒนาแพลตฟอร์ม COUPE สำหรับการประกอบ photonics
    เปิดตัว Spectrum-X และ Quantum-X switches สำหรับ AI factories
    สวิตช์สามารถส่งข้อมูลได้ถึง 400Tbps และประหยัดพลังงานได้ถึง 3.5 เท่า
    Quantum-X InfiniBand จะวางขายปลายปี 2025 และ Spectrum-X Ethernet ในปี 2026

    Ecosystem และพันธมิตร
    มีพันธมิตรเช่น Coherent, Corning, Foxconn, Lumentum และ SENKO
    TSMC เป็นสมาชิกผู้ก่อตั้ง Silicon Photonics Industry Alliance
    NVIDIA ยังลงทุนในสตาร์ตอัพ Xscape ที่พัฒนาแพลตฟอร์ม photonics สำหรับ AI

    https://wccftech.com/nvidia-ceo-jensen-huang-claims-silicon-photonics-packaging-is-still-years-away/
    🌐 Silicon Photonics: เทคโนโลยีแห่งอนาคตที่ยังไม่พร้อมสำหรับวันนี้ ในขณะที่อุตสาหกรรมคอมพิวเตอร์กำลังมองหาเทคโนโลยีใหม่เพื่อรองรับการประมวลผล AI ขนาดใหญ่ “Silicon Photonics” หรือการส่งข้อมูลด้วยแสงผ่านชิปซิลิกอน ถูกมองว่าเป็นคำตอบสำหรับการเชื่อมต่อที่เร็วขึ้น ประหยัดพลังงาน และลดความร้อน แต่ Jensen Huang ซีอีโอของ NVIDIA กลับออกมาแสดงความเห็นว่า “โลกควรอยู่กับทองแดงให้นานที่สุดเท่าที่จะทำได้” เพราะแม้ NVIDIA จะร่วมมือกับ TSMC และพัฒนาเทคโนโลยี photonics เช่น Quantum-X และ Spectrum-X แต่การใช้งานจริงยังต้องใช้เวลาอีกหลายปี แม้จะมีการเปิดตัวสวิตช์เครือข่ายแบบ photonics ที่สามารถเชื่อมต่อ GPU หลายล้านตัวใน AI factory ได้ แต่ Jensen ย้ำว่า การเปลี่ยนผ่านจากทองแดงไปสู่แสงต้องใช้การปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด ซึ่งไม่ใช่เรื่องง่ายในระยะสั้น ✅ ความหมายและศักยภาพของ Silicon Photonics ➡️ เป็นเทคโนโลยีที่ใช้แสงแทนไฟฟ้าในการส่งข้อมูลผ่านชิปซิลิกอน ➡️ ให้แบนด์วิดธ์สูงกว่า ลด latency และประหยัดพลังงานมากกว่าสายทองแดง ➡️ เหมาะกับงาน AI ขนาดใหญ่ที่ต้องการเชื่อมต่อ GPU จำนวนมหาศาล ✅ จุดยืนของ NVIDIA และ Jensen Huang ➡️ Jensen Huang ระบุว่า Silicon Photonics ยังไม่พร้อมใช้งานจริง ➡️ แนะนำให้ใช้สายทองแดงต่อไปอีกหลายปีเพื่อความเสถียรและต้นทุนต่ำ ➡️ การเปลี่ยนไปใช้ photonics ต้องปรับโครงสร้างสถาปัตยกรรมใหม่ทั้งหมด ✅ แผนการพัฒนา Photonics ของ NVIDIA ➡️ ร่วมมือกับ TSMC พัฒนาแพลตฟอร์ม COUPE สำหรับการประกอบ photonics ➡️ เปิดตัว Spectrum-X และ Quantum-X switches สำหรับ AI factories ➡️ สวิตช์สามารถส่งข้อมูลได้ถึง 400Tbps และประหยัดพลังงานได้ถึง 3.5 เท่า ➡️ Quantum-X InfiniBand จะวางขายปลายปี 2025 และ Spectrum-X Ethernet ในปี 2026 ✅ Ecosystem และพันธมิตร ➡️ มีพันธมิตรเช่น Coherent, Corning, Foxconn, Lumentum และ SENKO ➡️ TSMC เป็นสมาชิกผู้ก่อตั้ง Silicon Photonics Industry Alliance ➡️ NVIDIA ยังลงทุนในสตาร์ตอัพ Xscape ที่พัฒนาแพลตฟอร์ม photonics สำหรับ AI https://wccftech.com/nvidia-ceo-jensen-huang-claims-silicon-photonics-packaging-is-still-years-away/
    WCCFTECH.COM
    NVIDIA CEO Jensen Huang Claims "Silicon Photonics" Packaging Is Still Years Away, Says the World Should Stay on Copper for as Long as Possible
    While the world looks towards silicon photonics for AI computing products, it seems like the NVIDIA CEO isn't too optimistic about it.
    0 ความคิดเห็น 0 การแบ่งปัน 194 มุมมอง 0 รีวิว
  • MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร

    MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB

    การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ

    จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว

    แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก

    สเปกและการออกแบบของ Arc Pro B60 Dual
    ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6
    มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s
    ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21
    เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน
    ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate

    จุดเด่นด้านการใช้งาน
    เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง
    รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV
    ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation
    ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์

    การวางจำหน่ายและราคา
    เปิดตัววันที่ 18 สิงหาคม 2025
    ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU
    ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป
    หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090

    Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด
    ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด
    ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น
    การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป
    หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์

    https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    🧠 MAXSUN Arc Pro B60 Dual 48G Turbo: การ์ดจอคู่สำหรับงาน AI ที่ไม่เหมือนใคร MAXSUN เตรียมเปิดตัวกราฟิกการ์ด Arc Pro B60 Dual 48G Turbo ในวันที่ 18 สิงหาคมนี้ โดยใช้ชิป Intel Arc Pro B60 สองตัวบนบอร์ดเดียว รวมเป็น 48GB GDDR6 VRAM และ 5,120 FP32 cores เหมาะกับงาน AI ขนาดใหญ่ เช่น DeepSeek R 70B หรือ QwQ 32B ที่ต้องใช้หน่วยความจำมากกว่า 40GB การ์ดนี้ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 พร้อมแบนด์วิดธ์ 456 GB/s ต่อ GPU และเชื่อมต่อผ่าน PCIe 5.0 x16 เพื่อรองรับการส่งข้อมูลความเร็วสูง โดยแต่ละ GPU มีหน่วยความจำแยกกัน ทำให้สามารถประมวลผลแบบขนานได้อย่างมีประสิทธิภาพ จุดเด่นคือการออกแบบให้ใช้งานในเวิร์กสเตชันที่ต้องการประสิทธิภาพสูงแต่ไม่อยากพึ่งคลาวด์ โดยใช้สโลแกน “Cut the Cloud. Keep the Power” และมีระบบระบายความร้อนแบบสามชั้น พร้อมรองรับการติดตั้งหลายใบในเครื่องเดียว แต่ Intel กลับมีปัญหาด้านการผลิต B60 อย่างหนัก โดยล็อตแรกถูกจองหมดตั้งแต่ก่อนเปิดตัว และยังไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่านผู้ประกอบระบบ (System Integrators) เท่านั้น ซึ่งอาจทำให้ผู้ใช้ทั่วไปหาซื้อได้ยากมาก ✅ สเปกและการออกแบบของ Arc Pro B60 Dual ➡️ ใช้ชิป Intel Arc Pro B60 สองตัว รวมเป็น 48GB GDDR6 ➡️ มี 5,120 FP32 cores และแบนด์วิดธ์รวม 912 GB/s ➡️ ใช้สถาปัตยกรรม Xe-2 “Battlemage” รุ่น BMG-G21 ➡️ เชื่อมต่อผ่าน PCIe 5.0 x16 รองรับการประมวลผลแบบขนาน ➡️ ระบบระบายความร้อนแบบสามชั้น: blower fan, vapor chamber, metal backplate ✅ จุดเด่นด้านการใช้งาน ➡️ เหมาะกับงาน AI ขนาดใหญ่ เช่น LLMs ที่ต้องใช้ VRAM สูง ➡️ รองรับ PyTorch, vLLM, IPEX-LLM และ Intel ISV ➡️ ใช้งานได้บนเมนบอร์ดทั่วไปที่รองรับ PCIe x16 bifurcation ➡️ ลดต้นทุนการใช้งาน AI ในองค์กรที่ไม่ต้องพึ่งคลาวด์ ✅ การวางจำหน่ายและราคา ➡️ เปิดตัววันที่ 18 สิงหาคม 2025 ➡️ ราคาประมาณ $1,200 สำหรับรุ่น Dual GPU ➡️ ขายผ่านผู้ประกอบระบบเท่านั้น ไม่วางขายทั่วไป ➡️ หากใช้สองใบจะได้ VRAM 96GB ในราคาถูกกว่า RTX 5090 ⛔ Intel มีปัญหาด้านการผลิต B60 ทำให้สินค้าขาดตลาด ⛔ ล็อตแรกถูกจองหมดก่อนเปิดตัว และการผลิตในอนาคตยังจำกัด ⛔ ไม่มีแผนวางขายในร้านค้าทั่วไป จะขายผ่าน System Integrators เท่านั้น ⛔ การ์ดนี้ไม่เหมาะกับงานเกมหรือผู้ใช้ทั่วไป ⛔ หาก Intel ไม่แก้ปัญหาการผลิต อาจกระทบต่อความต่อเนื่องของผลิตภัณฑ์ https://wccftech.com/maxsun-launching-arc-pro-b60-dual-gpu-next-week-intel-facing-inventory-issues-with-b60/
    WCCFTECH.COM
    As MAXSUN Prepares To Launch Arc Pro B60 Dual GPU Next Week, Intel Is Supposedly Facing Inventory Issues With B60
    According to a conversation between a company and MAXSUN's manager, the GPU manufacturer is expected to launch the Arc Pro B60 Dual next week
    0 ความคิดเห็น 0 การแบ่งปัน 210 มุมมอง 0 รีวิว
  • Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์?

    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ

    แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D

    สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร

    อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5

    ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่
    Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra
    รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra”
    คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025

    สเปกที่คาดการณ์ของ M4 Ultra
    CPU 32-core และ GPU 80-core
    ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง
    เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง

    เหตุผลที่ Apple ต้องอัปเกรด Mac Pro
    Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra
    Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง
    การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง

    ความเคลื่อนไหวใน ecosystem ของ Apple
    Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว
    Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น
    มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio

    https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    🚀 Mac Pro M4 Ultra: เครื่องแมคที่แรงที่สุดในประวัติศาสตร์? Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่อาจมาพร้อมกับชิป M4 Ultra ซึ่งเป็นรุ่นต่อยอดจาก M2 Ultra ที่ใช้ใน Mac Pro ปี 2023 โดยมีรหัสภายในว่า “t8152” และชื่อเล่นว่า “Hidra” ซึ่งปรากฏในโค้ดของ Apple ที่ Macworld ตรวจพบ แม้จะยังไม่มีการเปิดตัวอย่างเป็นทางการ แต่มีการคาดการณ์ว่า M4 Ultra จะมี CPU 32-core และ GPU 80-core พร้อมสถาปัตยกรรม 3nm และ Neural Engine ที่ทรงพลังยิ่งขึ้น ซึ่งเหมาะกับงาน AI และการประมวลผลระดับสูง เช่น การตัดต่อวิดีโอ 8K หรือการเรนเดอร์ 3D สิ่งที่น่าสนใจคือ Mac mini ที่ใช้ M4 Pro กลับมีประสิทธิภาพ CPU ดีกว่า Mac Pro รุ่นปัจจุบัน ทำให้ Apple ต้องรีบอัปเกรด Mac Pro เพื่อรักษาภาพลักษณ์ของเครื่องระดับโปร อย่างไรก็ตาม ยังมีข้อสงสัยว่า Apple จะสามารถรวมสองชิป M4 Max เข้าด้วยกันแบบ UltraFusion ได้หรือไม่ เพราะมีรายงานว่า M4 Max ไม่มีตัวเชื่อม UltraFusion เหมือนรุ่นก่อนหน้า ซึ่งอาจทำให้ M4 Ultra ไม่เกิดขึ้นจริง หรือถูกเลื่อนออกไปจนถึงรุ่น M5 ✅ ข้อมูลเกี่ยวกับ Mac Pro รุ่นใหม่ ➡️ Apple กำลังทดสอบ Mac Pro รุ่นใหม่ที่ใช้ชิป M4 Ultra ➡️ รหัสภายในคือ “t8152” และชื่อเล่นว่า “Hidra” ➡️ คาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2025 ✅ สเปกที่คาดการณ์ของ M4 Ultra ➡️ CPU 32-core และ GPU 80-core ➡️ ใช้สถาปัตยกรรม 3nm พร้อม Neural Engine ที่ทรงพลัง ➡️ เหมาะกับงาน AI, การเรนเดอร์ 3D และการตัดต่อวิดีโอระดับสูง ✅ เหตุผลที่ Apple ต้องอัปเกรด Mac Pro ➡️ Mac mini ที่ใช้ M4 Pro มีประสิทธิภาพ CPU ดีกว่า Mac Pro M2 Ultra ➡️ Mac Pro ต้องรักษาภาพลักษณ์เครื่องระดับโปรที่มี PCIe และ RAM สูง ➡️ การอัปเกรดเป็น M4 Ultra จะช่วยให้ Mac Pro กลับมาโดดเด่นอีกครั้ง ✅ ความเคลื่อนไหวใน ecosystem ของ Apple ➡️ Apple เปิดตัว M4 Max และ M3 Ultra ใน Mac Studio แล้ว ➡️ Mac Pro ยังใช้ M2 Ultra ซึ่งล้าหลังกว่ารุ่นอื่น ➡️ มีแนวโน้มว่า M4 Ultra จะถูกใช้ใน Mac Pro ก่อน Mac Studio https://www.techradar.com/computing/macs/apple-could-be-working-on-its-fastest-ever-mac-if-this-mac-pro-with-m4-ultra-rumor-is-true
    0 ความคิดเห็น 0 การแบ่งปัน 195 มุมมอง 0 รีวิว
  • Intel โชว์ชิป Arm บนเทคโนโลยี 18A: เกมใหม่ของโรงงานผลิตชิป

    ในโลกที่ Intel เคยเป็นเจ้าพ่อแห่ง x86 การที่บริษัทลุกขึ้นมาสร้างชิป Arm ด้วยตัวเองถือเป็นการเปลี่ยนเกมครั้งใหญ่ และนั่นคือสิ่งที่เกิดขึ้นกับ “Deer Creek Falls”—ชิป SoC ต้นแบบที่ผลิตบนเทคโนโลยี 18A ซึ่งเป็นกระบวนการผลิตระดับล้ำยุคของ Intel

    ชิปนี้มีโครงสร้างแบบ hybrid ประกอบด้วย 7 คอร์: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน และ 4 คอร์ประหยัดพลังงานขั้นสุด พร้อม PCIe และ memory controller ที่ได้จากพันธมิตรใน ecosystem ซึ่งแสดงให้เห็นว่า Intel พร้อมเปิดรับการออกแบบจากภายนอก ไม่ใช่แค่ x86 อีกต่อไป

    แม้ Intel จะไม่พูดตรง ๆ ว่าเป็นชิป Arm แต่ในวิดีโอที่โชว์การปรับแต่งประสิทธิภาพ มีการพูดถึง AArch64 ซึ่งเป็นชุดคำสั่ง 64-bit ของ Arm อย่างชัดเจน แถมยังโชว์เครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ซึ่งสวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือรองรับลูกค้าภายนอก

    แม้ชิปนี้จะยังไม่ใช่ผลิตภัณฑ์เชิงพาณิชย์ แต่มันคือการส่งสัญญาณว่า Intel Foundry พร้อมรับงานจากลูกค้า Arm และอาจใช้ชิปนี้เป็นตัวดึงดูดให้ Apple หรือ NVIDIA หันมาพิจารณาเทคโนโลยี 14A ที่กำลังจะมา

    การออกแบบของ Deer Creek Falls SoC
    ใช้โครงสร้าง hybrid: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน, 4 คอร์ประหยัดพลังงานขั้นสุด
    รวม PCIe controller และ memory controller จากพันธมิตรใน ecosystem
    ใช้เทคโนโลยี 18A ซึ่งมี RibbonFET และ PowerVia เพิ่มประสิทธิภาพต่อวัตต์

    การยืนยันว่าเป็นชิป Arm
    มีการกล่าวถึง AArch64 ในวิดีโอ ซึ่งเป็นชุดคำสั่งของ Arm
    โครงสร้างคอร์แบบสามระดับคล้าย Snapdragon 8 จาก Qualcomm
    Intel ไม่พูดตรง ๆ ว่าเป็น Arm แต่โครงสร้างและคำศัพท์บ่งชี้ชัดเจน

    เครื่องมือปรับแต่งประสิทธิภาพสำหรับ Arm
    Intel โชว์ชุดเครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ
    แสดงให้เห็นว่า Intel Foundry พร้อมรองรับลูกค้าภายนอก
    สวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือสำหรับ Arm

    เป้าหมายของ Intel Foundry
    ใช้ Deer Creek Falls เป็นตัวโชว์ศักยภาพของโรงงาน
    หวังดึงดูดลูกค้าอย่าง Apple และ NVIDIA ให้ใช้เทคโนโลยี 14A
    รัฐบาลสหรัฐฯ ให้ความสนใจ อาจผลักดันให้เกิดการใช้งานจริงเร็วขึ้น

    https://www.techpowerup.com/339952/intel-showcases-reference-arm-based-soc-manufactured-on-18a-node
    🧠 Intel โชว์ชิป Arm บนเทคโนโลยี 18A: เกมใหม่ของโรงงานผลิตชิป ในโลกที่ Intel เคยเป็นเจ้าพ่อแห่ง x86 การที่บริษัทลุกขึ้นมาสร้างชิป Arm ด้วยตัวเองถือเป็นการเปลี่ยนเกมครั้งใหญ่ และนั่นคือสิ่งที่เกิดขึ้นกับ “Deer Creek Falls”—ชิป SoC ต้นแบบที่ผลิตบนเทคโนโลยี 18A ซึ่งเป็นกระบวนการผลิตระดับล้ำยุคของ Intel ชิปนี้มีโครงสร้างแบบ hybrid ประกอบด้วย 7 คอร์: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน และ 4 คอร์ประหยัดพลังงานขั้นสุด พร้อม PCIe และ memory controller ที่ได้จากพันธมิตรใน ecosystem ซึ่งแสดงให้เห็นว่า Intel พร้อมเปิดรับการออกแบบจากภายนอก ไม่ใช่แค่ x86 อีกต่อไป แม้ Intel จะไม่พูดตรง ๆ ว่าเป็นชิป Arm แต่ในวิดีโอที่โชว์การปรับแต่งประสิทธิภาพ มีการพูดถึง AArch64 ซึ่งเป็นชุดคำสั่ง 64-bit ของ Arm อย่างชัดเจน แถมยังโชว์เครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ซึ่งสวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือรองรับลูกค้าภายนอก แม้ชิปนี้จะยังไม่ใช่ผลิตภัณฑ์เชิงพาณิชย์ แต่มันคือการส่งสัญญาณว่า Intel Foundry พร้อมรับงานจากลูกค้า Arm และอาจใช้ชิปนี้เป็นตัวดึงดูดให้ Apple หรือ NVIDIA หันมาพิจารณาเทคโนโลยี 14A ที่กำลังจะมา ✅ การออกแบบของ Deer Creek Falls SoC ➡️ ใช้โครงสร้าง hybrid: 1 คอร์ประสิทธิภาพสูง, 2 คอร์ประหยัดพลังงาน, 4 คอร์ประหยัดพลังงานขั้นสุด ➡️ รวม PCIe controller และ memory controller จากพันธมิตรใน ecosystem ➡️ ใช้เทคโนโลยี 18A ซึ่งมี RibbonFET และ PowerVia เพิ่มประสิทธิภาพต่อวัตต์ ✅ การยืนยันว่าเป็นชิป Arm ➡️ มีการกล่าวถึง AArch64 ในวิดีโอ ซึ่งเป็นชุดคำสั่งของ Arm ➡️ โครงสร้างคอร์แบบสามระดับคล้าย Snapdragon 8 จาก Qualcomm ➡️ Intel ไม่พูดตรง ๆ ว่าเป็น Arm แต่โครงสร้างและคำศัพท์บ่งชี้ชัดเจน ✅ เครื่องมือปรับแต่งประสิทธิภาพสำหรับ Arm ➡️ Intel โชว์ชุดเครื่องมือปรับแต่งซอฟต์แวร์สำหรับ Arm โดยเฉพาะ ➡️ แสดงให้เห็นว่า Intel Foundry พร้อมรองรับลูกค้าภายนอก ➡️ สวนทางกับข่าวลือว่า Intel ยังไม่มีเครื่องมือสำหรับ Arm ✅ เป้าหมายของ Intel Foundry ➡️ ใช้ Deer Creek Falls เป็นตัวโชว์ศักยภาพของโรงงาน ➡️ หวังดึงดูดลูกค้าอย่าง Apple และ NVIDIA ให้ใช้เทคโนโลยี 14A ➡️ รัฐบาลสหรัฐฯ ให้ความสนใจ อาจผลักดันให้เกิดการใช้งานจริงเร็วขึ้น https://www.techpowerup.com/339952/intel-showcases-reference-arm-based-soc-manufactured-on-18a-node
    WWW.TECHPOWERUP.COM
    Intel Showcases Reference Arm-based SoC Manufactured on 18A Node
    Intel Foundry has been releasing content on its products and services, and today, an interesting update came across. Intel showed a reference "Deer Creek Falls" SoC of what they call a "non-x86" design, manufactured on the 18A node. However, the design is actually Arm-based SoC. Consisting of seven ...
    0 ความคิดเห็น 0 การแบ่งปัน 188 มุมมอง 0 รีวิว
  • Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY

    เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit

    แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY

    การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด

    เทียบกับคู่แข่ง: Nvidia และ Intel

    แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด

    ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก

    การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY
    เดิมจำกัดการขายเฉพาะ OEM และ SI
    ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก
    ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง

    สเปกเด่นของ R9700
    ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators
    VRAM ขนาด 32GB GDDR6 บนบัส 256-bit
    ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4

    การออกแบบและการใช้งาน
    ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์
    รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local
    ใช้ PCIe 5.0 x16 และมีขนาด 2-slot

    เปรียบเทียบกับคู่แข่ง
    RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999
    Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200
    R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI

    https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    🧠 Radeon AI Pro R9700: จากเบื้องหลังสู่มือผู้ใช้ DIY เดิมที AMD เปิดตัว Radeon AI Pro R9700 ในงาน Computex 2025 โดยตั้งใจให้เป็นการ์ดสำหรับงาน AI โดยเฉพาะ เช่นการรันโมเดล LLM ขนาดใหญ่แบบ local โดยใช้สถาปัตยกรรม RDNA 4 และชิป Navi 48 ที่มี 64 Compute Units และ 128 AI Accelerators พร้อม VRAM ขนาด 32GB GDDR6 บนบัส 256-bit แต่ตอนแรกการ์ดนี้จำกัดการขายเฉพาะ OEM และ System Integrator เท่านั้น จนกระทั่งมีผู้ใช้ Reddit รายหนึ่งโพสต์ว่าเขาสามารถซื้อรุ่น Gigabyte “AI Top” ได้จากช่องทางค้าปลีกในราคา $1,324 ซึ่งถือเป็นครั้งแรกที่การ์ดนี้หลุดออกสู่ตลาด DIY การ์ดรุ่นนี้ใช้พัดลมแบบ blower-style ซึ่งเหมาะกับการใช้งานในเซิร์ฟเวอร์หรือแร็คมากกว่าพีซีทั่วไป เพราะสามารถระบายความร้อนได้ดีในสภาพแวดล้อมที่แออัด 📊 เทียบกับคู่แข่ง: Nvidia และ Intel แม้ว่า R9700 จะมี VRAM เท่ากับ Nvidia RTX 5090 (32GB) แต่ราคาถูกกว่าครึ่ง ขณะที่ RTX 5090 มีแบนด์วิดธ์สูงกว่า (1.79TB/s เทียบกับ 644GB/s) และมีจำนวน core มากกว่า (21,760 เทียบกับ 4,096) ทำให้ RTX 5090 เหมาะกับงานที่ต้องการพลังประมวลผลสูงสุด ในฝั่ง Intel ก็มี Arc Pro B60 Dual ที่รวมสอง GPU เข้าด้วยกัน ให้ VRAM รวม 48GB และใช้สถาปัตยกรรม Xe2 “Battlemage” โดยมีราคาประมาณ $1,200 เช่นกัน เหมาะกับงาน inference ขนาดใหญ่ที่ต้องการความจุหน่วยความจำมาก ✅ การเปิดตัว Radeon AI Pro R9700 สู่ตลาด DIY ➡️ เดิมจำกัดการขายเฉพาะ OEM และ SI ➡️ ผู้ใช้ Reddit รายงานว่าได้ซื้อรุ่น Gigabyte “AI Top” จากร้านค้าปลีก ➡️ ราคาอยู่ที่ประมาณ $1,324 รวมภาษีและค่าขนส่ง ✅ สเปกเด่นของ R9700 ➡️ ใช้ชิป Navi 48 พร้อม 64 Compute Units และ 128 AI Accelerators ➡️ VRAM ขนาด 32GB GDDR6 บนบัส 256-bit ➡️ ประสิทธิภาพสูงสุด 96 TFLOPs FP16 และ 1,531 TOPS INT4 ✅ การออกแบบและการใช้งาน ➡️ ใช้พัดลมแบบ blower-style เหมาะกับเซิร์ฟเวอร์ ➡️ รองรับงาน AI inference และ LLM ขนาดใหญ่แบบ local ➡️ ใช้ PCIe 5.0 x16 และมีขนาด 2-slot ✅ เปรียบเทียบกับคู่แข่ง ➡️ RTX 5090 มีพลังประมวลผลสูงกว่า แต่ราคาสูงถึง $1,999 ➡️ Intel Arc Pro B60 Dual มี VRAM 48GB และราคาประมาณ $1,200 ➡️ R9700 มีจุดเด่นด้านความคุ้มค่าและการใช้งาน local AI https://www.tomshardware.com/pc-components/gpus/amds-elusive-radeon-ai-pro-r9700-makes-its-first-retail-appearance-for-the-diy-market-customer-on-reddit-buys-the-gigabyte-ai-top-variant-for-usd1-324
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • Palantir: บริษัทที่ไม่ได้ขายข้อมูล แต่เปลี่ยนข้อมูลเป็นอำนาจ

    หลายคนอาจเคยได้ยินชื่อ Palantir Technologies แล้วนึกถึงการสอดแนม การขุดข้อมูล หรือฐานข้อมูลขนาดมหึมาของข้อมูลส่วนบุคคล แต่จริง ๆ แล้ว Palantir ไม่ได้ทำสิ่งเหล่านั้นโดยตรง บริษัทนี้คือผู้พัฒนาแพลตฟอร์มวิเคราะห์ข้อมูลที่ทรงพลังที่สุดแห่งหนึ่งในโลก โดยมีลูกค้าหลักคือรัฐบาลสหรัฐฯ หน่วยงานด้านความมั่นคง และองค์กรระหว่างประเทศ

    Palantir ก่อตั้งโดย Peter Thiel และทีมงานที่มีแนวคิดเสรีนิยมแบบขวาจัด โดยมีเป้าหมายเพื่อช่วยรัฐบาล “เชื่อมโยงข้อมูลที่กระจัดกระจาย” ให้กลายเป็นภาพรวมที่ใช้ในการตัดสินใจได้อย่างแม่นยำ ไม่ว่าจะเป็นการติดตามผู้ต้องสงสัย การวิเคราะห์งบประมาณ หรือการวางแผนยุทธศาสตร์ทางทหาร

    ในปี 2025 Palantir ได้รับสัญญาจากกองทัพสหรัฐฯ มูลค่ากว่า $10 พันล้าน เพื่อเป็นแกนหลักของระบบข้อมูลในโครงการ SHIELD และ Project Maven ซึ่งใช้ AI วิเคราะห์ภาพจากดาวเทียมและข้อมูลภาคสนามเพื่อสนับสนุนการตัดสินใจในสงครามยุคใหม่

    นอกจากนี้ Palantir ยังมีบทบาทในโครงการที่ถกเถียงกัน เช่น การช่วย ICE (สำนักงานตรวจคนเข้าเมือง) เข้าถึงข้อมูลผู้ใช้ Medicaid เพื่อระบุตัวผู้เข้าเมืองผิดกฎหมาย ซึ่งสร้างความกังวลด้านสิทธิมนุษยชนและความเป็นส่วนตัวอย่างมาก

    ภาพรวมของบริษัท Palantir
    ก่อตั้งโดย Peter Thiel เพื่อพัฒนาแพลตฟอร์มวิเคราะห์ข้อมูลสำหรับรัฐบาล
    ไม่ใช่บริษัทขายข้อมูล แต่เป็นผู้สร้างเครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่
    มีแพลตฟอร์มหลักคือ Gotham (ด้านความมั่นคง) และ Foundry (ด้านธุรกิจ)

    ความร่วมมือกับรัฐบาลสหรัฐฯ
    ได้รับสัญญาจากกองทัพสหรัฐฯ มูลค่า $10 พันล้านในปี 2025
    เป็นแกนหลักของโครงการ SHIELD และ Project Maven ที่ใช้ AI วิเคราะห์ข้อมูลทางทหาร
    ร่วมมือกับ Accenture และ Deloitte เพื่อสร้างระบบ “Enterprise Operating System” สำหรับหน่วยงานรัฐบาล

    การเติบโตทางการเงิน
    รายได้ไตรมาสล่าสุดทะลุ $1 พันล้าน เพิ่มขึ้น 48% จากปีก่อน
    รายได้จากรัฐบาลสหรัฐฯ เพิ่มขึ้น 53% เป็น $426 ล้าน
    มูลค่าบริษัททะลุ $379 พันล้าน แซงหน้า IBM และ Salesforce

    การขยายไปยังภาคธุรกิจ
    รายได้จากภาคธุรกิจสหรัฐฯ เพิ่มขึ้นเกือบ 2 เท่า
    ใช้ Foundry ในการวิเคราะห์ข้อมูลด้านสุขภาพ การเงิน และการผลิต
    มีความร่วมมือกับ SOMPO ในญี่ปุ่นเพื่อใช้ AI ตรวจสอบการเคลมประกัน

    https://www.wired.com/story/palantir-what-the-company-does/
    🧠 Palantir: บริษัทที่ไม่ได้ขายข้อมูล แต่เปลี่ยนข้อมูลเป็นอำนาจ หลายคนอาจเคยได้ยินชื่อ Palantir Technologies แล้วนึกถึงการสอดแนม การขุดข้อมูล หรือฐานข้อมูลขนาดมหึมาของข้อมูลส่วนบุคคล แต่จริง ๆ แล้ว Palantir ไม่ได้ทำสิ่งเหล่านั้นโดยตรง บริษัทนี้คือผู้พัฒนาแพลตฟอร์มวิเคราะห์ข้อมูลที่ทรงพลังที่สุดแห่งหนึ่งในโลก โดยมีลูกค้าหลักคือรัฐบาลสหรัฐฯ หน่วยงานด้านความมั่นคง และองค์กรระหว่างประเทศ Palantir ก่อตั้งโดย Peter Thiel และทีมงานที่มีแนวคิดเสรีนิยมแบบขวาจัด โดยมีเป้าหมายเพื่อช่วยรัฐบาล “เชื่อมโยงข้อมูลที่กระจัดกระจาย” ให้กลายเป็นภาพรวมที่ใช้ในการตัดสินใจได้อย่างแม่นยำ ไม่ว่าจะเป็นการติดตามผู้ต้องสงสัย การวิเคราะห์งบประมาณ หรือการวางแผนยุทธศาสตร์ทางทหาร ในปี 2025 Palantir ได้รับสัญญาจากกองทัพสหรัฐฯ มูลค่ากว่า $10 พันล้าน เพื่อเป็นแกนหลักของระบบข้อมูลในโครงการ SHIELD และ Project Maven ซึ่งใช้ AI วิเคราะห์ภาพจากดาวเทียมและข้อมูลภาคสนามเพื่อสนับสนุนการตัดสินใจในสงครามยุคใหม่ นอกจากนี้ Palantir ยังมีบทบาทในโครงการที่ถกเถียงกัน เช่น การช่วย ICE (สำนักงานตรวจคนเข้าเมือง) เข้าถึงข้อมูลผู้ใช้ Medicaid เพื่อระบุตัวผู้เข้าเมืองผิดกฎหมาย ซึ่งสร้างความกังวลด้านสิทธิมนุษยชนและความเป็นส่วนตัวอย่างมาก ✅ ภาพรวมของบริษัท Palantir ➡️ ก่อตั้งโดย Peter Thiel เพื่อพัฒนาแพลตฟอร์มวิเคราะห์ข้อมูลสำหรับรัฐบาล ➡️ ไม่ใช่บริษัทขายข้อมูล แต่เป็นผู้สร้างเครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่ ➡️ มีแพลตฟอร์มหลักคือ Gotham (ด้านความมั่นคง) และ Foundry (ด้านธุรกิจ) ✅ ความร่วมมือกับรัฐบาลสหรัฐฯ ➡️ ได้รับสัญญาจากกองทัพสหรัฐฯ มูลค่า $10 พันล้านในปี 2025 ➡️ เป็นแกนหลักของโครงการ SHIELD และ Project Maven ที่ใช้ AI วิเคราะห์ข้อมูลทางทหาร ➡️ ร่วมมือกับ Accenture และ Deloitte เพื่อสร้างระบบ “Enterprise Operating System” สำหรับหน่วยงานรัฐบาล ✅ การเติบโตทางการเงิน ➡️ รายได้ไตรมาสล่าสุดทะลุ $1 พันล้าน เพิ่มขึ้น 48% จากปีก่อน ➡️ รายได้จากรัฐบาลสหรัฐฯ เพิ่มขึ้น 53% เป็น $426 ล้าน ➡️ มูลค่าบริษัททะลุ $379 พันล้าน แซงหน้า IBM และ Salesforce ✅ การขยายไปยังภาคธุรกิจ ➡️ รายได้จากภาคธุรกิจสหรัฐฯ เพิ่มขึ้นเกือบ 2 เท่า ➡️ ใช้ Foundry ในการวิเคราะห์ข้อมูลด้านสุขภาพ การเงิน และการผลิต ➡️ มีความร่วมมือกับ SOMPO ในญี่ปุ่นเพื่อใช้ AI ตรวจสอบการเคลมประกัน https://www.wired.com/story/palantir-what-the-company-does/
    WWW.WIRED.COM
    What Does Palantir Actually Do?
    Palantir is often called a data broker, a data miner, or a giant database of personal information. In reality, it’s none of these—but even former employees struggle to explain it.
    0 ความคิดเห็น 0 การแบ่งปัน 159 มุมมอง 0 รีวิว
  • เมื่อการคอมไพล์ไม่ใช่แค่รันคำสั่ง: เครื่องมือใหม่ที่ช่วยให้เห็น “เบื้องหลัง” การ build โปรแกรมแบบเรียลไทม์

    Daniel Hooper นักพัฒนาผู้หลงใหลในการทำงานของระบบปฏิบัติการ ได้สร้างเครื่องมือชื่อว่า “What the Fork” เพื่อช่วยให้เห็นภาพการ build โปรแกรมแบบเรียลไทม์ โดยเฉพาะในโปรเจกต์ขนาดใหญ่ที่ใช้ build system อย่าง make, cargo, gradle, หรือ xcodebuild

    แนวคิดคือ การ build โปรแกรมคือการรันคำสั่งจำนวนมากที่เชื่อมโยงกัน ซึ่งบางครั้งก็มีขั้นตอนที่ไม่จำเป็นหรือซ้ำซ้อน เช่น การเรียก cmake หลายรอบ หรือการไม่ใช้ parallelism ทั้งที่มี CPU หลายคอร์ว่างอยู่

    “What the Fork” จะแสดงผลเป็นกล่อง ๆ บน timeline โดยแต่ละกล่องแทน process ที่ถูกเรียกขึ้นมา พร้อมข้อมูลว่าใช้เวลานานแค่ไหน, รันคำสั่งอะไร, และอยู่ใน directory ไหน ซึ่งช่วยให้เห็นว่า build ใช้ทรัพยากรอย่างไร และตรงไหนที่ควรปรับปรุง

    ที่น่าสนใจคือ เครื่องมือนี้ไม่ได้จำกัดแค่การ build โปรแกรมเท่านั้น เพราะมันใช้การดักฟัง system call อย่าง fork, exec, และ exit ซึ่งหมายความว่าเราสามารถใช้มันวิเคราะห์โปรแกรมใด ๆ ที่เรียก subprocess ได้เช่นกัน

    จุดเด่นของเครื่องมือ What the Fork
    แสดงภาพการ build โปรแกรมแบบเรียลไทม์ด้วย UI ที่เข้าใจง่าย
    รองรับทุกภาษาและ build system เช่น make, cargo, gradle, npm, zig, xcodebuild
    ใช้ system call (fork, exec, exit) ในการติดตาม process ที่ถูกเรียก

    วิธีใช้งานเบื้องต้น
    พิมพ์คำสั่ง wtf นำหน้าคำสั่ง build เช่น wtf make หรือ wtf cargo build
    UI จะแสดงกล่องของแต่ละ process ตามลำดับเวลา พร้อมข้อมูลประกอบ

    ตัวอย่างปัญหาที่พบจากการใช้งานจริง
    cargo ไม่ใช้ parallelism แม้มี CPU หลายคอร์ ทำให้ build ช้ากว่าที่ควร
    cmake เรียกคำสั่งซ้ำซ้อน เช่น ตรวจสอบ path และ OS version หลายสิบครั้ง
    xcodebuild มีช่วง idle หลายนาที ทั้งที่ยังมีงานให้ทำ
    zig build สุ่มลำดับการ build dependency ทำให้บางครั้ง parallelism หายไป

    ประโยชน์ที่เกินกว่าแค่การ build
    สามารถใช้วิเคราะห์โปรแกรมอื่นที่เรียก subprocess ได้ เช่น CI/CD pipeline หรือ server startup
    ช่วยให้ทีม dev เห็นภาพรวมของการทำงาน และปรับปรุงประสิทธิภาพได้ตรงจุด

    https://danielchasehooper.com/posts/syscall-build-snooping/
    🧠 เมื่อการคอมไพล์ไม่ใช่แค่รันคำสั่ง: เครื่องมือใหม่ที่ช่วยให้เห็น “เบื้องหลัง” การ build โปรแกรมแบบเรียลไทม์ Daniel Hooper นักพัฒนาผู้หลงใหลในการทำงานของระบบปฏิบัติการ ได้สร้างเครื่องมือชื่อว่า “What the Fork” เพื่อช่วยให้เห็นภาพการ build โปรแกรมแบบเรียลไทม์ โดยเฉพาะในโปรเจกต์ขนาดใหญ่ที่ใช้ build system อย่าง make, cargo, gradle, หรือ xcodebuild แนวคิดคือ การ build โปรแกรมคือการรันคำสั่งจำนวนมากที่เชื่อมโยงกัน ซึ่งบางครั้งก็มีขั้นตอนที่ไม่จำเป็นหรือซ้ำซ้อน เช่น การเรียก cmake หลายรอบ หรือการไม่ใช้ parallelism ทั้งที่มี CPU หลายคอร์ว่างอยู่ “What the Fork” จะแสดงผลเป็นกล่อง ๆ บน timeline โดยแต่ละกล่องแทน process ที่ถูกเรียกขึ้นมา พร้อมข้อมูลว่าใช้เวลานานแค่ไหน, รันคำสั่งอะไร, และอยู่ใน directory ไหน ซึ่งช่วยให้เห็นว่า build ใช้ทรัพยากรอย่างไร และตรงไหนที่ควรปรับปรุง ที่น่าสนใจคือ เครื่องมือนี้ไม่ได้จำกัดแค่การ build โปรแกรมเท่านั้น เพราะมันใช้การดักฟัง system call อย่าง fork, exec, และ exit ซึ่งหมายความว่าเราสามารถใช้มันวิเคราะห์โปรแกรมใด ๆ ที่เรียก subprocess ได้เช่นกัน ✅ จุดเด่นของเครื่องมือ What the Fork ➡️ แสดงภาพการ build โปรแกรมแบบเรียลไทม์ด้วย UI ที่เข้าใจง่าย ➡️ รองรับทุกภาษาและ build system เช่น make, cargo, gradle, npm, zig, xcodebuild ➡️ ใช้ system call (fork, exec, exit) ในการติดตาม process ที่ถูกเรียก ✅ วิธีใช้งานเบื้องต้น ➡️ พิมพ์คำสั่ง wtf นำหน้าคำสั่ง build เช่น wtf make หรือ wtf cargo build ➡️ UI จะแสดงกล่องของแต่ละ process ตามลำดับเวลา พร้อมข้อมูลประกอบ ✅ ตัวอย่างปัญหาที่พบจากการใช้งานจริง ➡️ cargo ไม่ใช้ parallelism แม้มี CPU หลายคอร์ ทำให้ build ช้ากว่าที่ควร ➡️ cmake เรียกคำสั่งซ้ำซ้อน เช่น ตรวจสอบ path และ OS version หลายสิบครั้ง ➡️ xcodebuild มีช่วง idle หลายนาที ทั้งที่ยังมีงานให้ทำ ➡️ zig build สุ่มลำดับการ build dependency ทำให้บางครั้ง parallelism หายไป ✅ ประโยชน์ที่เกินกว่าแค่การ build ➡️ สามารถใช้วิเคราะห์โปรแกรมอื่นที่เรียก subprocess ได้ เช่น CI/CD pipeline หรือ server startup ➡️ ช่วยให้ทีม dev เห็นภาพรวมของการทำงาน และปรับปรุงประสิทธิภาพได้ตรงจุด https://danielchasehooper.com/posts/syscall-build-snooping/
    DANIELCHASEHOOPER.COM
    I Made A Real-Time Build Visualizer
    Sometimes software takes a long time to compile just due to how much code it has, like in the LLVM project. But often a build is slower than it could be for dumb, fixable reasons. I’ve had the suspicion that most builds are doing dumb stuff, but I had no way to see it. So I’ve been working on a cross-platform tool to help visualize builds, and you can try it!
    0 ความคิดเห็น 0 การแบ่งปัน 178 มุมมอง 0 รีวิว
  • ทำไม OCaml ถึงกลายเป็นภาษาหลักของนักพัฒนาไฟแรงคนหนึ่ง — และอาจเป็นของคุณด้วย

    ผู้เขียนบทความนี้เริ่มใช้ OCaml ตั้งแต่ปี 2012 และหลงรักภาษานี้จนกลายเป็น “OCaml evangelist” ที่พูดถึงมันในงานสัมมนาอย่างสม่ำเสมอ แม้ OCaml จะไม่ใช่ภาษาหลักในอุตสาหกรรม แต่บริษัทใหญ่ ๆ อย่าง Meta, Microsoft, Docker, Bloomberg และ Jane Street กลับใช้มันจริงจังในระบบโปรดักชัน

    OCaml เป็นภาษาที่มีรากฐานจากงานวิจัย แต่ถูกพัฒนาให้เหมาะกับการใช้งานในอุตสาหกรรม โดยมีจุดเด่นคือระบบ type ที่ปลอดภัยและทรงพลัง, รองรับหลาย paradigm ทั้ง functional, imperative, modular และ object-oriented, มีระบบ module ที่ลึกและยืดหยุ่น, และล่าสุดยังรองรับ multi-core และ user-defined effects

    นอกจากภาษาจะดีแล้ว Ecosystem ก็แข็งแรงขึ้นมากในช่วงหลัง มีเครื่องมืออย่าง OPAM (package manager), Dune (build system), Merlin และ LSP (editor tooling), และ Odoc (documentation generator) ที่ช่วยให้การพัฒนาใน OCaml เป็นเรื่องง่ายและสนุก

    แม้จะมีข้อจำกัดบางอย่าง เช่น syntax ที่ไม่คุ้นเคย, ขาด ad-hoc polymorphism, และ module language ที่ซับซ้อน แต่ผู้เขียนเชื่อว่าคุณค่าของ OCaml อยู่ที่ความสามารถในการสื่อสารแนวคิดการออกแบบซอฟต์แวร์ได้อย่างชัดเจน และเป็นภาษาที่ช่วยให้เข้าใจแนวคิดระดับสูงได้ลึกซึ้ง

    ผู้เขียนใช้ OCaml เป็นภาษาหลักตั้งแต่ปี 2012
    ใช้ทั้งในโปรเจกต์ส่วนตัวและงานอาชีพ

    OCaml ถูกใช้งานจริงโดยบริษัทใหญ่หลายแห่ง
    เช่น Meta, Microsoft, Docker, Bloomberg, Jane Street

    OCaml รองรับหลาย paradigm ในการเขียนโปรแกรม
    ทั้ง functional, imperative, modular, object-oriented และ multi-core

    มีระบบ type ที่ปลอดภัยและ expressive มาก
    ช่วยลด bug และออกแบบโค้ดได้ชัดเจน

    ระบบ module ของ OCaml มีความลึกและยืดหยุ่นสูง
    รองรับ encapsulation, functor, และ polymorphism ระดับสูง

    รองรับ user-defined effects ตั้งแต่เวอร์ชัน 5.0
    ช่วยให้จัดการ control flow และ dependency injection ได้ง่าย

    Ecosystem มีเครื่องมือครบครัน
    เช่น OPAM, Dune, Merlin, LSP, Odoc และ library จำนวนมาก

    ชุมชน OCaml มีความเป็นมิตรและเข้าถึงง่าย
    มีผู้เชี่ยวชาญคอยตอบคำถามและให้คำแนะนำอย่างต่อเนื่อง

    OCaml มีจุดเด่นด้าน algebraic data types และ pattern matching
    ทำให้เหมาะกับงานวิเคราะห์โครงสร้างภาษาและ AST

    OCaml ถูกใช้ในงานวิเคราะห์ภาษา เช่น CIL, Frama-C และ FFTW
    เพราะมีเครื่องมือ lexing/parsing ที่ใช้งานง่ายและเร็ว

    OCaml มี compiler ที่เร็วมาก
    ช่วยให้การพัฒนาและ build โค้ดเป็นไปอย่างรวดเร็ว

    OCaml ถูกใช้ในวงการการเงิน เช่น Jane Street
    เพราะมีความปลอดภัยสูงและประสิทธิภาพดี

    https://xvw.lol/en/articles/why-ocaml.html
    🧠💻 ทำไม OCaml ถึงกลายเป็นภาษาหลักของนักพัฒนาไฟแรงคนหนึ่ง — และอาจเป็นของคุณด้วย ผู้เขียนบทความนี้เริ่มใช้ OCaml ตั้งแต่ปี 2012 และหลงรักภาษานี้จนกลายเป็น “OCaml evangelist” ที่พูดถึงมันในงานสัมมนาอย่างสม่ำเสมอ แม้ OCaml จะไม่ใช่ภาษาหลักในอุตสาหกรรม แต่บริษัทใหญ่ ๆ อย่าง Meta, Microsoft, Docker, Bloomberg และ Jane Street กลับใช้มันจริงจังในระบบโปรดักชัน OCaml เป็นภาษาที่มีรากฐานจากงานวิจัย แต่ถูกพัฒนาให้เหมาะกับการใช้งานในอุตสาหกรรม โดยมีจุดเด่นคือระบบ type ที่ปลอดภัยและทรงพลัง, รองรับหลาย paradigm ทั้ง functional, imperative, modular และ object-oriented, มีระบบ module ที่ลึกและยืดหยุ่น, และล่าสุดยังรองรับ multi-core และ user-defined effects นอกจากภาษาจะดีแล้ว Ecosystem ก็แข็งแรงขึ้นมากในช่วงหลัง มีเครื่องมืออย่าง OPAM (package manager), Dune (build system), Merlin และ LSP (editor tooling), และ Odoc (documentation generator) ที่ช่วยให้การพัฒนาใน OCaml เป็นเรื่องง่ายและสนุก แม้จะมีข้อจำกัดบางอย่าง เช่น syntax ที่ไม่คุ้นเคย, ขาด ad-hoc polymorphism, และ module language ที่ซับซ้อน แต่ผู้เขียนเชื่อว่าคุณค่าของ OCaml อยู่ที่ความสามารถในการสื่อสารแนวคิดการออกแบบซอฟต์แวร์ได้อย่างชัดเจน และเป็นภาษาที่ช่วยให้เข้าใจแนวคิดระดับสูงได้ลึกซึ้ง ✅ ผู้เขียนใช้ OCaml เป็นภาษาหลักตั้งแต่ปี 2012 ➡️ ใช้ทั้งในโปรเจกต์ส่วนตัวและงานอาชีพ ✅ OCaml ถูกใช้งานจริงโดยบริษัทใหญ่หลายแห่ง ➡️ เช่น Meta, Microsoft, Docker, Bloomberg, Jane Street ✅ OCaml รองรับหลาย paradigm ในการเขียนโปรแกรม ➡️ ทั้ง functional, imperative, modular, object-oriented และ multi-core ✅ มีระบบ type ที่ปลอดภัยและ expressive มาก ➡️ ช่วยลด bug และออกแบบโค้ดได้ชัดเจน ✅ ระบบ module ของ OCaml มีความลึกและยืดหยุ่นสูง ➡️ รองรับ encapsulation, functor, และ polymorphism ระดับสูง ✅ รองรับ user-defined effects ตั้งแต่เวอร์ชัน 5.0 ➡️ ช่วยให้จัดการ control flow และ dependency injection ได้ง่าย ✅ Ecosystem มีเครื่องมือครบครัน ➡️ เช่น OPAM, Dune, Merlin, LSP, Odoc และ library จำนวนมาก ✅ ชุมชน OCaml มีความเป็นมิตรและเข้าถึงง่าย ➡️ มีผู้เชี่ยวชาญคอยตอบคำถามและให้คำแนะนำอย่างต่อเนื่อง ✅ OCaml มีจุดเด่นด้าน algebraic data types และ pattern matching ➡️ ทำให้เหมาะกับงานวิเคราะห์โครงสร้างภาษาและ AST ✅ OCaml ถูกใช้ในงานวิเคราะห์ภาษา เช่น CIL, Frama-C และ FFTW ➡️ เพราะมีเครื่องมือ lexing/parsing ที่ใช้งานง่ายและเร็ว ✅ OCaml มี compiler ที่เร็วมาก ➡️ ช่วยให้การพัฒนาและ build โค้ดเป็นไปอย่างรวดเร็ว ✅ OCaml ถูกใช้ในวงการการเงิน เช่น Jane Street ➡️ เพราะมีความปลอดภัยสูงและประสิทธิภาพดี https://xvw.lol/en/articles/why-ocaml.html
    XVW.LOL
    Why I chose OCaml as my primary language
    A detailed explanation of why I chose OCaml as the ‘default’ programming language for every project.
    0 ความคิดเห็น 0 การแบ่งปัน 211 มุมมอง 0 รีวิว
  • เมื่อ AI เขียนโค้ดได้เก่งกว่ามนุษย์ แล้วนักพัฒนาจะอยู่ตรงไหนในโลกใหม่ของการเขียนโปรแกรม?

    ผลสำรวจจาก Clutch และ Stack Overflow ปี 2025 เผยว่า 53% ของนักพัฒนามองว่า AI โดยเฉพาะ LLMs (Large Language Models) สามารถเขียนโค้ดได้ดีกว่ามนุษย์ทั่วไป และ 80% ใช้ AI coding tools เป็นส่วนหนึ่งของ workflow ประจำวัน

    แม้จะมีความนิยมเพิ่มขึ้น แต่ความเชื่อมั่นกลับลดลงอย่างเห็นได้ชัด โดยมีเพียง 29% ที่เชื่อมั่นในความถูกต้องของโค้ดที่ AI สร้างขึ้น และ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก เพราะมันสร้าง bug ที่ยากต่อการตรวจจับ

    นักพัฒนาหลายคนยังคงใช้ AI เพราะมันช่วยเพิ่ม productivity ได้จริง โดยเฉพาะในงานที่ซ้ำซาก เช่น boilerplate code หรือการแปลงโครงสร้างข้อมูล แต่เมื่อพูดถึงงานที่ซับซ้อน เช่น system architecture หรือ security-critical code นักพัฒนายังต้องการ “มนุษย์อีกคน” เพื่อช่วยตรวจสอบ

    GitHub CEO ยังกล่าวว่า “นักพัฒนาในอนาคตไม่ใช่คนพิมพ์โค้ด แต่เป็น creative director ของโค้ด” และคาดว่า 90% ของการเขียนโค้ดจะถูก AI ทำแทนภายใน 5 ปี

    53% ของนักพัฒนาเชื่อว่า AI เขียนโค้ดได้ดีกว่ามนุษย์
    โดยเฉพาะในงานที่ซ้ำซากและโครงสร้างพื้นฐาน

    80% ของนักพัฒนาใช้ AI coding tools เป็นประจำ
    เช่น GitHub Copilot, Amazon CodeWhisperer, ChatGPT

    45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก
    สร้าง bug ที่ยากต่อการตรวจจับ โดยเฉพาะสำหรับนักพัฒนาใหม่

    75% ของนักพัฒนาเลือกถามมนุษย์เมื่อไม่มั่นใจในคำตอบของ AI
    แสดงถึงความต้องการ human verification ในระบบที่สำคัญ

    GitHub คาดว่า 90% ของโค้ดจะถูก AI เขียนภายใน 5 ปี
    นักพัฒนาต้องเปลี่ยนบทบาทเป็นผู้ออกแบบและควบคุมคุณภาพ

    79% เชื่อว่าทักษะด้าน AI จะกลายเป็นข้อกำหนดพื้นฐานของนักพัฒนา
    และ 45% มองว่า AI จะลดอุปสรรคสำหรับนักพัฒนาใหม่

    Stack Overflow พบว่า 46% ของนักพัฒนาไม่เชื่อมั่นในความถูกต้องของ AI
    โดยเฉพาะในงานที่ซับซ้อนหรือมีความเสี่ยงสูง

    “Vibe coding” หรือการใช้ prompt สร้างแอปทั้งตัวยังไม่เป็นที่ยอมรับ
    72% ของนักพัฒนาไม่ใช้แนวทางนี้ในงานจริง

    AI coding tools ช่วยให้เรียนรู้ภาษาใหม่และเทคนิคใหม่ได้เร็วขึ้น
    44% ของนักพัฒนาใช้ AI เพื่อเรียนรู้สิ่งใหม่ในปีที่ผ่านมา

    การใช้ AI อย่างมีสติ เช่น “sparring partner” ช่วยพัฒนาทักษะได้จริง
    ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ช่วยในการคิดและแก้ปัญหา

    โค้ดจาก AI ที่ “เกือบถูก” อาจสร้าง bug ที่ยากต่อการตรวจสอบ
    โดยเฉพาะในระบบที่มีความเสี่ยงสูง เช่น security หรือ backend

    ความเชื่อมั่นใน AI ลดลงจาก 40% เหลือเพียง 29% ในปี 2025
    แสดงถึงความกังวลเรื่องคุณภาพและความน่าเชื่อถือ

    นักพัฒนาใหม่อาจพึ่ง AI มากเกินไปจนขาดความเข้าใจพื้นฐาน
    เสี่ยงต่อการสร้างระบบที่ไม่มีความมั่นคงหรือยืดหยุ่น

    ตลาดงานระดับเริ่มต้นอาจหายไปเมื่อ AI เขียนโค้ดแทน
    หากไม่มีการฝึกฝนและพัฒนา นักพัฒนาอาจถูกแทนที่โดยสมบูรณ์

    https://www.techradar.com/pro/are-you-better-at-coding-than-ai-developers-dont-think-so
    🧠💻 เมื่อ AI เขียนโค้ดได้เก่งกว่ามนุษย์ แล้วนักพัฒนาจะอยู่ตรงไหนในโลกใหม่ของการเขียนโปรแกรม? ผลสำรวจจาก Clutch และ Stack Overflow ปี 2025 เผยว่า 53% ของนักพัฒนามองว่า AI โดยเฉพาะ LLMs (Large Language Models) สามารถเขียนโค้ดได้ดีกว่ามนุษย์ทั่วไป และ 80% ใช้ AI coding tools เป็นส่วนหนึ่งของ workflow ประจำวัน แม้จะมีความนิยมเพิ่มขึ้น แต่ความเชื่อมั่นกลับลดลงอย่างเห็นได้ชัด โดยมีเพียง 29% ที่เชื่อมั่นในความถูกต้องของโค้ดที่ AI สร้างขึ้น และ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก เพราะมันสร้าง bug ที่ยากต่อการตรวจจับ นักพัฒนาหลายคนยังคงใช้ AI เพราะมันช่วยเพิ่ม productivity ได้จริง โดยเฉพาะในงานที่ซ้ำซาก เช่น boilerplate code หรือการแปลงโครงสร้างข้อมูล แต่เมื่อพูดถึงงานที่ซับซ้อน เช่น system architecture หรือ security-critical code นักพัฒนายังต้องการ “มนุษย์อีกคน” เพื่อช่วยตรวจสอบ GitHub CEO ยังกล่าวว่า “นักพัฒนาในอนาคตไม่ใช่คนพิมพ์โค้ด แต่เป็น creative director ของโค้ด” และคาดว่า 90% ของการเขียนโค้ดจะถูก AI ทำแทนภายใน 5 ปี ✅ 53% ของนักพัฒนาเชื่อว่า AI เขียนโค้ดได้ดีกว่ามนุษย์ ➡️ โดยเฉพาะในงานที่ซ้ำซากและโครงสร้างพื้นฐาน ✅ 80% ของนักพัฒนาใช้ AI coding tools เป็นประจำ ➡️ เช่น GitHub Copilot, Amazon CodeWhisperer, ChatGPT ✅ 45% ระบุว่า “โค้ดที่เกือบถูก” จาก AI เป็นปัญหาหลัก ➡️ สร้าง bug ที่ยากต่อการตรวจจับ โดยเฉพาะสำหรับนักพัฒนาใหม่ ✅ 75% ของนักพัฒนาเลือกถามมนุษย์เมื่อไม่มั่นใจในคำตอบของ AI ➡️ แสดงถึงความต้องการ human verification ในระบบที่สำคัญ ✅ GitHub คาดว่า 90% ของโค้ดจะถูก AI เขียนภายใน 5 ปี ➡️ นักพัฒนาต้องเปลี่ยนบทบาทเป็นผู้ออกแบบและควบคุมคุณภาพ ✅ 79% เชื่อว่าทักษะด้าน AI จะกลายเป็นข้อกำหนดพื้นฐานของนักพัฒนา ➡️ และ 45% มองว่า AI จะลดอุปสรรคสำหรับนักพัฒนาใหม่ ✅ Stack Overflow พบว่า 46% ของนักพัฒนาไม่เชื่อมั่นในความถูกต้องของ AI ➡️ โดยเฉพาะในงานที่ซับซ้อนหรือมีความเสี่ยงสูง ✅ “Vibe coding” หรือการใช้ prompt สร้างแอปทั้งตัวยังไม่เป็นที่ยอมรับ ➡️ 72% ของนักพัฒนาไม่ใช้แนวทางนี้ในงานจริง ✅ AI coding tools ช่วยให้เรียนรู้ภาษาใหม่และเทคนิคใหม่ได้เร็วขึ้น ➡️ 44% ของนักพัฒนาใช้ AI เพื่อเรียนรู้สิ่งใหม่ในปีที่ผ่านมา ✅ การใช้ AI อย่างมีสติ เช่น “sparring partner” ช่วยพัฒนาทักษะได้จริง ➡️ ไม่ใช่แค่เครื่องมือ แต่เป็นผู้ช่วยในการคิดและแก้ปัญหา ‼️ โค้ดจาก AI ที่ “เกือบถูก” อาจสร้าง bug ที่ยากต่อการตรวจสอบ ⛔ โดยเฉพาะในระบบที่มีความเสี่ยงสูง เช่น security หรือ backend ‼️ ความเชื่อมั่นใน AI ลดลงจาก 40% เหลือเพียง 29% ในปี 2025 ⛔ แสดงถึงความกังวลเรื่องคุณภาพและความน่าเชื่อถือ ‼️ นักพัฒนาใหม่อาจพึ่ง AI มากเกินไปจนขาดความเข้าใจพื้นฐาน ⛔ เสี่ยงต่อการสร้างระบบที่ไม่มีความมั่นคงหรือยืดหยุ่น ‼️ ตลาดงานระดับเริ่มต้นอาจหายไปเมื่อ AI เขียนโค้ดแทน ⛔ หากไม่มีการฝึกฝนและพัฒนา นักพัฒนาอาจถูกแทนที่โดยสมบูรณ์ https://www.techradar.com/pro/are-you-better-at-coding-than-ai-developers-dont-think-so
    0 ความคิดเห็น 0 การแบ่งปัน 266 มุมมอง 0 รีวิว
  • เมื่อรัฐบาลอังกฤษขอให้ประชาชนลบอีเมลและรูปภาพ เพื่อช่วยประหยัดน้ำในช่วงภัยแล้ง

    ในช่วงฤดูร้อนปี 2025 อังกฤษเผชิญกับภัยแล้งครั้งใหญ่ที่สุดนับตั้งแต่ปี 1976 โดยมี 5 พื้นที่เข้าสู่สถานะ “ภัยแล้ง” อย่างเป็นทางการ และอีก 6 พื้นที่มีสภาพอากาศแห้งต่อเนื่อง รัฐบาลจึงประกาศให้สถานการณ์นี้เป็น “เหตุการณ์ระดับชาติ” และขอให้ประชาชนร่วมมือกันลดการใช้น้ำ

    มาตรการทั่วไปที่แนะนำ ได้แก่ การลดเวลาการอาบน้ำ, ไม่รดน้ำสนามหญ้า, ใช้น้ำฝนรดต้นไม้, และซ่อมแซมห้องน้ำที่รั่ว แต่สิ่งที่สร้างความงุนงงคือคำแนะนำให้ “ลบอีเมลและรูปภาพเก่า” เพราะ “ศูนย์ข้อมูลใช้ปริมาณน้ำมหาศาลในการระบายความร้อน”

    แม้จะมีข้อเท็จจริงว่าศูนย์ข้อมูลบางแห่งใช้ระบบระบายความร้อนด้วยน้ำ แต่ผู้เชี่ยวชาญหลายฝ่ายชี้ว่า การลบข้อมูลส่วนตัวของผู้ใช้ทั่วไปแทบไม่มีผลต่อการลดการใช้น้ำในภาพรวม และอาจใช้พลังงานมากกว่าการเก็บไว้เฉย ๆ ด้วยซ้ำ

    นอกจากนี้ ยังมีข้อสังเกตว่า ข้อมูลของผู้ใช้ชาวอังกฤษจำนวนมากถูกเก็บไว้ในศูนย์ข้อมูลต่างประเทศ ซึ่งหมายความว่าการลบข้อมูลอาจไม่ได้ช่วยลดการใช้น้ำในอังกฤษเลย

    รัฐบาลอังกฤษประกาศภัยแล้งเป็น “เหตุการณ์ระดับชาติ”
    หลังจาก 6 เดือนที่แห้งแล้งที่สุดนับตั้งแต่ปี 1976

    5 พื้นที่ในอังกฤษเข้าสู่สถานะภัยแล้ง และอีก 6 พื้นที่มีสภาพแห้งต่อเนื่อง
    ระดับน้ำในแม่น้ำและอ่างเก็บน้ำลดลงอย่างต่อเนื่อง

    รัฐบาลแนะนำให้ประชาชนลบอีเมลและรูปภาพเก่า
    โดยอ้างว่า “ศูนย์ข้อมูลใช้ปริมาณน้ำมหาศาลในการระบายความร้อน”

    มาตรการอื่นที่แนะนำ ได้แก่ ลดเวลาการอาบน้ำ, ใช้น้ำฝน, ซ่อมห้องน้ำรั่ว
    เป็นวิธีที่มีผลต่อการลดการใช้น้ำโดยตรง

    ศูนย์ข้อมูลบางแห่งใช้ระบบ evaporative cooling ที่ใช้น้ำ
    โดยเฉพาะศูนย์ขนาดใหญ่ที่มีการประมวลผลสูง

    ศูนย์ข้อมูลขนาด 1 เมกะวัตต์อาจใช้น้ำถึง 26 ล้านลิตรต่อปี
    เทียบเท่าการใช้น้ำของเมืองขนาดกลาง

    การลบข้อมูลจาก cloud อาจใช้พลังงานมากกว่าการเก็บไว้เฉย ๆ
    เพราะต้องมีการประมวลผลและยืนยันการลบ

    ข้อมูลของผู้ใช้ในอังกฤษอาจถูกเก็บไว้ในศูนย์ข้อมูลต่างประเทศ
    ไม่มีข้อบังคับให้เก็บข้อมูลภายในประเทศ

    การลดการใช้ AI และการประมวลผลขนาดใหญ่มีผลต่อการลดการใช้น้ำมากกว่า
    เช่น การลดการใช้โมเดล generative AI ที่ใช้พลังงานสูง

    https://www.tomshardware.com/tech-industry/uk-government-inexplicably-tells-citizens-to-delete-old-emails-and-pictures-to-save-water-during-national-drought-data-centres-require-vast-amounts-of-water-to-cool-their-systems
    💧📂 เมื่อรัฐบาลอังกฤษขอให้ประชาชนลบอีเมลและรูปภาพ เพื่อช่วยประหยัดน้ำในช่วงภัยแล้ง ในช่วงฤดูร้อนปี 2025 อังกฤษเผชิญกับภัยแล้งครั้งใหญ่ที่สุดนับตั้งแต่ปี 1976 โดยมี 5 พื้นที่เข้าสู่สถานะ “ภัยแล้ง” อย่างเป็นทางการ และอีก 6 พื้นที่มีสภาพอากาศแห้งต่อเนื่อง รัฐบาลจึงประกาศให้สถานการณ์นี้เป็น “เหตุการณ์ระดับชาติ” และขอให้ประชาชนร่วมมือกันลดการใช้น้ำ มาตรการทั่วไปที่แนะนำ ได้แก่ การลดเวลาการอาบน้ำ, ไม่รดน้ำสนามหญ้า, ใช้น้ำฝนรดต้นไม้, และซ่อมแซมห้องน้ำที่รั่ว แต่สิ่งที่สร้างความงุนงงคือคำแนะนำให้ “ลบอีเมลและรูปภาพเก่า” เพราะ “ศูนย์ข้อมูลใช้ปริมาณน้ำมหาศาลในการระบายความร้อน” แม้จะมีข้อเท็จจริงว่าศูนย์ข้อมูลบางแห่งใช้ระบบระบายความร้อนด้วยน้ำ แต่ผู้เชี่ยวชาญหลายฝ่ายชี้ว่า การลบข้อมูลส่วนตัวของผู้ใช้ทั่วไปแทบไม่มีผลต่อการลดการใช้น้ำในภาพรวม และอาจใช้พลังงานมากกว่าการเก็บไว้เฉย ๆ ด้วยซ้ำ นอกจากนี้ ยังมีข้อสังเกตว่า ข้อมูลของผู้ใช้ชาวอังกฤษจำนวนมากถูกเก็บไว้ในศูนย์ข้อมูลต่างประเทศ ซึ่งหมายความว่าการลบข้อมูลอาจไม่ได้ช่วยลดการใช้น้ำในอังกฤษเลย ✅ รัฐบาลอังกฤษประกาศภัยแล้งเป็น “เหตุการณ์ระดับชาติ” ➡️ หลังจาก 6 เดือนที่แห้งแล้งที่สุดนับตั้งแต่ปี 1976 ✅ 5 พื้นที่ในอังกฤษเข้าสู่สถานะภัยแล้ง และอีก 6 พื้นที่มีสภาพแห้งต่อเนื่อง ➡️ ระดับน้ำในแม่น้ำและอ่างเก็บน้ำลดลงอย่างต่อเนื่อง ✅ รัฐบาลแนะนำให้ประชาชนลบอีเมลและรูปภาพเก่า ➡️ โดยอ้างว่า “ศูนย์ข้อมูลใช้ปริมาณน้ำมหาศาลในการระบายความร้อน” ✅ มาตรการอื่นที่แนะนำ ได้แก่ ลดเวลาการอาบน้ำ, ใช้น้ำฝน, ซ่อมห้องน้ำรั่ว ➡️ เป็นวิธีที่มีผลต่อการลดการใช้น้ำโดยตรง ✅ ศูนย์ข้อมูลบางแห่งใช้ระบบ evaporative cooling ที่ใช้น้ำ ➡️ โดยเฉพาะศูนย์ขนาดใหญ่ที่มีการประมวลผลสูง ✅ ศูนย์ข้อมูลขนาด 1 เมกะวัตต์อาจใช้น้ำถึง 26 ล้านลิตรต่อปี ➡️ เทียบเท่าการใช้น้ำของเมืองขนาดกลาง ✅ การลบข้อมูลจาก cloud อาจใช้พลังงานมากกว่าการเก็บไว้เฉย ๆ ➡️ เพราะต้องมีการประมวลผลและยืนยันการลบ ✅ ข้อมูลของผู้ใช้ในอังกฤษอาจถูกเก็บไว้ในศูนย์ข้อมูลต่างประเทศ ➡️ ไม่มีข้อบังคับให้เก็บข้อมูลภายในประเทศ ✅ การลดการใช้ AI และการประมวลผลขนาดใหญ่มีผลต่อการลดการใช้น้ำมากกว่า ➡️ เช่น การลดการใช้โมเดล generative AI ที่ใช้พลังงานสูง https://www.tomshardware.com/tech-industry/uk-government-inexplicably-tells-citizens-to-delete-old-emails-and-pictures-to-save-water-during-national-drought-data-centres-require-vast-amounts-of-water-to-cool-their-systems
    0 ความคิดเห็น 0 การแบ่งปัน 173 มุมมอง 0 รีวิว
  • Patch Tuesday สิงหาคม 2025: Microsoft อุดช่องโหว่ 107 รายการ รวมถึง 13 ช่องโหว่ร้ายแรงแบบ RCE

    Microsoft ปล่อยอัปเดตความปลอดภัยประจำเดือนสิงหาคม 2025 หรือที่เรียกว่า “Patch Tuesday” ซึ่งคราวนี้มีการแก้ไขช่องโหว่ถึง 107 รายการ โดย 13 รายการถูกจัดเป็น “Critical” หรือร้ายแรงที่สุด โดยเฉพาะช่องโหว่แบบ Remote Code Execution (RCE) ที่สามารถให้แฮกเกอร์รันโค้ดจากระยะไกลได้โดยไม่ต้องมีการโต้ตอบจากผู้ใช้

    หนึ่งในช่องโหว่ที่น่ากังวลคือใน Windows Graphics Component (CVE-2025-50165) ที่เปิดช่องให้รันโค้ดผ่านการ dereference pointer ที่ไม่ปลอดภัย และใน DirectX Graphics Kernel (CVE-2025-50176) ที่เกิดจาก type confusion ซึ่งอาจนำไปสู่การเข้าควบคุมระบบโดยผู้ใช้ที่ได้รับสิทธิ์แล้ว

    ช่องโหว่ใน Microsoft Message Queuing (MSMQ) (CVE-2025-50177) ก็ยังคงเป็นปัญหาเรื้อรัง โดยเปิดโอกาสให้ผู้โจมตีที่ไม่ได้รับการยืนยันตัวตนสามารถรันโค้ดได้หากชนะ race condition

    นอกจากนี้ยังมีช่องโหว่ใน Microsoft Office และ Word ที่สามารถถูกโจมตีได้เพียงแค่เปิดไฟล์เอกสารที่เป็นอันตราย เช่น CVE-2025-53731 และ CVE-2025-53784 รวมถึงช่องโหว่ใน GDI+, Hyper-V, NTLM และ Azure ที่เกี่ยวข้องกับการเปิดเผยข้อมูลและการยกระดับสิทธิ์

    Microsoft แก้ไขช่องโหว่ 107 รายการใน Patch Tuesday สิงหาคม 2025
    รวมถึง 13 ช่องโหว่ระดับ Critical ที่ต้องรีบอัปเดตทันที

    ช่องโหว่ RCE หลายรายการสามารถรันโค้ดโดยไม่ต้องโต้ตอบจากผู้ใช้
    เช่นใน Windows Graphics Component, DirectX, MSMQ, Office, Word

    ช่องโหว่ใน Windows NTLM (CVE-2025-53778) อาจให้สิทธิ์ SYSTEM
    เป็นการยกระดับสิทธิ์ที่ร้ายแรงในระบบเครือข่าย

    ช่องโหว่ใน Azure Virtual Machines และ Stack Hub เปิดเผยข้อมูลสำคัญ
    เสี่ยงต่อการรั่วไหลของข้อมูลในระบบคลาวด์

    ช่องโหว่ใน Hyper-V อาจทำให้ VM ถูกควบคุมจากภายนอก
    ส่งผลต่อองค์กรที่ใช้ virtualized environment

    ช่องโหว่ใน Microsoft Word สามารถถูกโจมตีผ่าน Preview Pane
    ไม่ต้องเปิดไฟล์ก็สามารถถูกโจมตีได้

    Microsoft แก้ไขช่องโหว่ zero-day ใน Windows Kerberos (CVE-2025-53779)
    อาจให้ผู้โจมตียกระดับสิทธิ์เป็น domain admin

    RCE และ EoP เป็นช่องโหว่ที่ถูกใช้บ่อยที่สุดในการโจมตีจริง
    เพราะสามารถควบคุมระบบและขยายสิทธิ์ได้

    ช่องโหว่ใน Kerberos กระทบต่อระบบ Active Directory โดยตรง
    เสี่ยงต่อการถูกควบคุมทั้ง domain และ forest

    การโจมตีผ่าน MSMQ และ GDI+ เป็นเทคนิคที่ใช้กันมานาน
    แต่ยังคงพบช่องโหว่ใหม่ในระบบเหล่านี้

    การโจมตีผ่านเอกสาร Office ยังคงเป็นช่องทางยอดนิยม
    เพราะผู้ใช้มักเปิดไฟล์โดยไม่ตรวจสอบความปลอดภัย

    https://hackread.com/patch-tuesday-microsoft-fixes-vulnerabilities-rce-flaws/
    🛡️💻 Patch Tuesday สิงหาคม 2025: Microsoft อุดช่องโหว่ 107 รายการ รวมถึง 13 ช่องโหว่ร้ายแรงแบบ RCE Microsoft ปล่อยอัปเดตความปลอดภัยประจำเดือนสิงหาคม 2025 หรือที่เรียกว่า “Patch Tuesday” ซึ่งคราวนี้มีการแก้ไขช่องโหว่ถึง 107 รายการ โดย 13 รายการถูกจัดเป็น “Critical” หรือร้ายแรงที่สุด โดยเฉพาะช่องโหว่แบบ Remote Code Execution (RCE) ที่สามารถให้แฮกเกอร์รันโค้ดจากระยะไกลได้โดยไม่ต้องมีการโต้ตอบจากผู้ใช้ หนึ่งในช่องโหว่ที่น่ากังวลคือใน Windows Graphics Component (CVE-2025-50165) ที่เปิดช่องให้รันโค้ดผ่านการ dereference pointer ที่ไม่ปลอดภัย และใน DirectX Graphics Kernel (CVE-2025-50176) ที่เกิดจาก type confusion ซึ่งอาจนำไปสู่การเข้าควบคุมระบบโดยผู้ใช้ที่ได้รับสิทธิ์แล้ว ช่องโหว่ใน Microsoft Message Queuing (MSMQ) (CVE-2025-50177) ก็ยังคงเป็นปัญหาเรื้อรัง โดยเปิดโอกาสให้ผู้โจมตีที่ไม่ได้รับการยืนยันตัวตนสามารถรันโค้ดได้หากชนะ race condition นอกจากนี้ยังมีช่องโหว่ใน Microsoft Office และ Word ที่สามารถถูกโจมตีได้เพียงแค่เปิดไฟล์เอกสารที่เป็นอันตราย เช่น CVE-2025-53731 และ CVE-2025-53784 รวมถึงช่องโหว่ใน GDI+, Hyper-V, NTLM และ Azure ที่เกี่ยวข้องกับการเปิดเผยข้อมูลและการยกระดับสิทธิ์ ✅ Microsoft แก้ไขช่องโหว่ 107 รายการใน Patch Tuesday สิงหาคม 2025 ➡️ รวมถึง 13 ช่องโหว่ระดับ Critical ที่ต้องรีบอัปเดตทันที ✅ ช่องโหว่ RCE หลายรายการสามารถรันโค้ดโดยไม่ต้องโต้ตอบจากผู้ใช้ ➡️ เช่นใน Windows Graphics Component, DirectX, MSMQ, Office, Word ✅ ช่องโหว่ใน Windows NTLM (CVE-2025-53778) อาจให้สิทธิ์ SYSTEM ➡️ เป็นการยกระดับสิทธิ์ที่ร้ายแรงในระบบเครือข่าย ✅ ช่องโหว่ใน Azure Virtual Machines และ Stack Hub เปิดเผยข้อมูลสำคัญ ➡️ เสี่ยงต่อการรั่วไหลของข้อมูลในระบบคลาวด์ ✅ ช่องโหว่ใน Hyper-V อาจทำให้ VM ถูกควบคุมจากภายนอก ➡️ ส่งผลต่อองค์กรที่ใช้ virtualized environment ✅ ช่องโหว่ใน Microsoft Word สามารถถูกโจมตีผ่าน Preview Pane ➡️ ไม่ต้องเปิดไฟล์ก็สามารถถูกโจมตีได้ ✅ Microsoft แก้ไขช่องโหว่ zero-day ใน Windows Kerberos (CVE-2025-53779) ➡️ อาจให้ผู้โจมตียกระดับสิทธิ์เป็น domain admin ✅ RCE และ EoP เป็นช่องโหว่ที่ถูกใช้บ่อยที่สุดในการโจมตีจริง ➡️ เพราะสามารถควบคุมระบบและขยายสิทธิ์ได้ ✅ ช่องโหว่ใน Kerberos กระทบต่อระบบ Active Directory โดยตรง ➡️ เสี่ยงต่อการถูกควบคุมทั้ง domain และ forest ✅ การโจมตีผ่าน MSMQ และ GDI+ เป็นเทคนิคที่ใช้กันมานาน ➡️ แต่ยังคงพบช่องโหว่ใหม่ในระบบเหล่านี้ ✅ การโจมตีผ่านเอกสาร Office ยังคงเป็นช่องทางยอดนิยม ➡️ เพราะผู้ใช้มักเปิดไฟล์โดยไม่ตรวจสอบความปลอดภัย https://hackread.com/patch-tuesday-microsoft-fixes-vulnerabilities-rce-flaws/
    HACKREAD.COM
    Patch Tuesday: Microsoft Fixes 107 Vulnerabilities, Including 13 RCE Flaws
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 172 มุมมอง 0 รีวิว
Pages Boosts