• เรื่องเล่าจาก Mike Judge: เมื่อความฝันของการเขียนโค้ดด้วย AI กลายเป็นความผิดหวังที่มีหลักฐานรองรับ

    Mike Judge นักพัฒนาอาวุโสที่มีประสบการณ์กว่า 25 ปี ได้ทดลองใช้งาน AI coding tools อย่างจริงจัง และเริ่มตั้งคำถามหลังอ่านงานวิจัยจาก METR (Model Evaluation & Threat Research) ซึ่งพบว่า นักพัฒนาที่ใช้ AI coding tools ใช้เวลานานขึ้นถึง 19% ในการทำงานจริง—ขัดแย้งกับความเชื่อที่ว่า AI จะช่วยให้เร็วขึ้น

    Mike เริ่มทดลองด้วยตัวเอง โดยใช้วิธีสุ่มว่าจะใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ผลลัพธ์คือ ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ และในหลายกรณี AI ทำให้เขาช้าลงถึง 21% ซึ่งสอดคล้องกับผลการศึกษาของ METR

    เขาตั้งคำถามว่า ถ้า AI coding tools ทำให้คนเขียนโค้ดเร็วขึ้นจริง ทำไมเราไม่เห็น “น้ำท่วม shovelware” หรือซอฟต์แวร์จำนวนมหาศาลที่ควรจะเกิดขึ้นจาก productivity ที่เพิ่มขึ้น? เขาใช้เงินและเวลาในการวิเคราะห์ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แล้วพบว่า—ไม่มีการเติบโตแบบ exponential ในการปล่อยซอฟต์แวร์ใหม่เลย

    ในขณะที่บริษัทเทคโนโลยีต่างพากัน rebrand เป็น “AI-first” และใช้ productivity narrative เพื่อ justify การปลดพนักงานหรือกดเงินเดือน นักพัฒนาหลายคนกลับรู้สึกกดดัน สับสน และผิดหวัง เพราะไม่สามารถใช้ AI ได้อย่างมีประสิทธิภาพตามที่อุตสาหกรรมโฆษณาไว้

    ผลการทดลองของ Mike Judge
    ใช้ AI coding tools แล้วช้าลงโดยเฉลี่ย 21%
    ทดลองสุ่มใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด
    ผลลัพธ์ไม่แตกต่างอย่างมีนัยสำคัญ และไม่เห็นการเพิ่ม productivity

    ข้อมูลจาก METR Study
    นักพัฒนาใช้ AI แล้วช้าลง 19% โดยเฉลี่ยในการทำงานจริง
    ขัดแย้งกับความคาดหวังที่ว่า AI จะช่วยให้เร็วขึ้น 20–25%
    ใช้การทดลองแบบสุ่มควบคุมกับนักพัฒนา open-source ที่มีประสบการณ์สูง

    การวิเคราะห์ข้อมูลการปล่อยซอฟต์แวร์
    ไม่มีการเพิ่มขึ้นของ shovelware หรือซอฟต์แวร์ใหม่จำนวนมาก
    ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แสดงกราฟที่ “แบน”
    ไม่มีสัญญาณของ indie boom หรือการปล่อยแอปแบบสายฟ้าแลบ

    ผลกระทบต่ออุตสาหกรรมและนักพัฒนา
    บริษัทใช้ narrative AI productivity เพื่อปลดพนักงานและลดเงินเดือน
    นักพัฒนารู้สึกกดดันและสับสนจากความคาดหวังที่ไม่ตรงกับความจริง
    การเรียนรู้ prompting ไม่ได้เพิ่มประสิทธิภาพอย่างมีนัยสำคัญ

    https://mikelovesrobots.substack.com/p/wheres-the-shovelware-why-ai-coding
    🎙️ เรื่องเล่าจาก Mike Judge: เมื่อความฝันของการเขียนโค้ดด้วย AI กลายเป็นความผิดหวังที่มีหลักฐานรองรับ Mike Judge นักพัฒนาอาวุโสที่มีประสบการณ์กว่า 25 ปี ได้ทดลองใช้งาน AI coding tools อย่างจริงจัง และเริ่มตั้งคำถามหลังอ่านงานวิจัยจาก METR (Model Evaluation & Threat Research) ซึ่งพบว่า นักพัฒนาที่ใช้ AI coding tools ใช้เวลานานขึ้นถึง 19% ในการทำงานจริง—ขัดแย้งกับความเชื่อที่ว่า AI จะช่วยให้เร็วขึ้น Mike เริ่มทดลองด้วยตัวเอง โดยใช้วิธีสุ่มว่าจะใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ผลลัพธ์คือ ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ และในหลายกรณี AI ทำให้เขาช้าลงถึง 21% ซึ่งสอดคล้องกับผลการศึกษาของ METR เขาตั้งคำถามว่า ถ้า AI coding tools ทำให้คนเขียนโค้ดเร็วขึ้นจริง ทำไมเราไม่เห็น “น้ำท่วม shovelware” หรือซอฟต์แวร์จำนวนมหาศาลที่ควรจะเกิดขึ้นจาก productivity ที่เพิ่มขึ้น? เขาใช้เงินและเวลาในการวิเคราะห์ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แล้วพบว่า—ไม่มีการเติบโตแบบ exponential ในการปล่อยซอฟต์แวร์ใหม่เลย ในขณะที่บริษัทเทคโนโลยีต่างพากัน rebrand เป็น “AI-first” และใช้ productivity narrative เพื่อ justify การปลดพนักงานหรือกดเงินเดือน นักพัฒนาหลายคนกลับรู้สึกกดดัน สับสน และผิดหวัง เพราะไม่สามารถใช้ AI ได้อย่างมีประสิทธิภาพตามที่อุตสาหกรรมโฆษณาไว้ ✅ ผลการทดลองของ Mike Judge ➡️ ใช้ AI coding tools แล้วช้าลงโดยเฉลี่ย 21% ➡️ ทดลองสุ่มใช้ AI หรือไม่ในแต่ละงาน และบันทึกเวลาอย่างละเอียด ➡️ ผลลัพธ์ไม่แตกต่างอย่างมีนัยสำคัญ และไม่เห็นการเพิ่ม productivity ✅ ข้อมูลจาก METR Study ➡️ นักพัฒนาใช้ AI แล้วช้าลง 19% โดยเฉลี่ยในการทำงานจริง ➡️ ขัดแย้งกับความคาดหวังที่ว่า AI จะช่วยให้เร็วขึ้น 20–25% ➡️ ใช้การทดลองแบบสุ่มควบคุมกับนักพัฒนา open-source ที่มีประสบการณ์สูง ✅ การวิเคราะห์ข้อมูลการปล่อยซอฟต์แวร์ ➡️ ไม่มีการเพิ่มขึ้นของ shovelware หรือซอฟต์แวร์ใหม่จำนวนมาก ➡️ ข้อมูลจาก SteamDB, GitHub, Statista และ Verisign แสดงกราฟที่ “แบน” ➡️ ไม่มีสัญญาณของ indie boom หรือการปล่อยแอปแบบสายฟ้าแลบ ✅ ผลกระทบต่ออุตสาหกรรมและนักพัฒนา ➡️ บริษัทใช้ narrative AI productivity เพื่อปลดพนักงานและลดเงินเดือน ➡️ นักพัฒนารู้สึกกดดันและสับสนจากความคาดหวังที่ไม่ตรงกับความจริง ➡️ การเรียนรู้ prompting ไม่ได้เพิ่มประสิทธิภาพอย่างมีนัยสำคัญ https://mikelovesrobots.substack.com/p/wheres-the-shovelware-why-ai-coding
    MIKELOVESROBOTS.SUBSTACK.COM
    Where's the Shovelware? Why AI Coding Claims Don't Add Up
    78% of developers claim AI makes them more productive. 14% say it's a 10x improvement. So where's the flood of new software? Turns out those productivity claims are bullshit.
    0 Comments 0 Shares 96 Views 0 Reviews
  • เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน

    Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D²

    แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้

    ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter

    ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop

    Scaling Laws และความเข้าใจใหม่
    ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D²
    เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง
    Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size

    ปัญหาคอขวดด้านข้อมูล
    อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่
    ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ
    GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน

    ทางเลือกของทีมวิจัย AI
    Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale
    Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop
    ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด

    กลยุทธ์สำหรับผู้นำองค์กร
    Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge
    Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง
    การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร

    https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    🎙️ เรื่องเล่าจาก Scaling Laws: เมื่อ compute ไม่ใช่พระเจ้าองค์เดียว และ data คือสิ่งที่เรากำลังขาดแคลน Kushal Chakrabarti เขียนบทความที่พลิกความเข้าใจเดิมเกี่ยวกับ The Bitter Lesson โดยชี้ว่า เราอ่านบทเรียนนี้ “กลับด้าน” มานานหลายปี เพราะจริง ๆ แล้ว Scaling Laws บอกเราว่า compute (C) ไม่ได้ทำงานลอย ๆ—มันต้องจับคู่กับ data (D) อย่างถูกสัดส่วน และความสัมพันธ์นั้นคือ C ∼ D² แปลว่า ถ้าเราจะเพิ่ม GPU เป็นสองเท่า เราต้องเพิ่มข้อมูลอีก 40% ไม่งั้นก็เหมือนจุดไฟเผาเงินเล่น เพราะ compute ที่มากขึ้นจะไม่มีประโยชน์ถ้าไม่มีข้อมูลที่มากพอให้มันเรียนรู้ ปัญหาคือ เรากินข้อมูลจากอินเทอร์เน็ตไปหมดแล้ว และไม่มี “อินเทอร์เน็ตที่สอง” ให้เทรน GPT-6 ได้อีกต่อไป ข้อมูลที่มีคุณภาพสูงจริง ๆ เหลืออยู่แค่ประมาณ 10 ล้านล้าน token เท่านั้น ซึ่งไม่พอสำหรับโมเดลระดับ 100B+ parameters ที่ต้องใช้ข้อมูลมหาศาลต่อ parameter ดังนั้น ทีม AI ต้องเลือกทางเดินใหม่: จะเป็น “Architect” ที่ออกแบบโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม หรือเป็น “Alchemist” ที่สร้างข้อมูลใหม่จากการเรียนรู้ของโมเดลเอง เช่น self-play, RLHF, หรือ agentic feedback loop ✅ Scaling Laws และความเข้าใจใหม่ ➡️ ความสัมพันธ์ระหว่าง compute กับ data คือ C ∼ D² ➡️ เพิ่ม GPU โดยไม่เพิ่มข้อมูล = ประสิทธิภาพลดลง ➡️ Chinchilla model ของ DeepMind ยืนยันว่า model size ควรสอดคล้องกับ data size ✅ ปัญหาคอขวดด้านข้อมูล ➡️ อินเทอร์เน็ตถูกใช้หมดแล้ว ไม่มีแหล่งข้อมูลใหม่ขนาดใหญ่ ➡️ ข้อมูลคุณภาพสูงเหลือเพียง ~10T token หลังกรองซ้ำและคุณภาพ ➡️ GPT-6 ต้องการข้อมูลระดับ ~20 token ต่อ parameter ซึ่งไม่พอในปัจจุบัน ✅ ทางเลือกของทีมวิจัย AI ➡️ Architect: พัฒนาโมเดลให้ฉลาดขึ้นโดยใช้ข้อมูลเท่าเดิม เช่น Mamba, HRM, ParScale ➡️ Alchemist: สร้างข้อมูลใหม่จาก self-play, RLHF, agentic feedback loop ➡️ ทั้งสองแนวทางต้องทำงานร่วมกันเพื่อผลลัพธ์ที่ดีที่สุด ✅ กลยุทธ์สำหรับผู้นำองค์กร ➡️ Incumbent’s Gambit: ลงทุน 70% กับ Architect เพื่อความมั่นคง และ 30% กับ Alchemist เพื่อ hedge ➡️ Challenger’s Gambit: ลงทุน 70% กับ Alchemist เพื่อ leapfrog และ 30% กับ Architect เพื่อความต่อเนื่อง ➡️ การจัดพอร์ตวิจัยต้องสะท้อนความเสี่ยงและเป้าหมายขององค์กร https://obviouslywrong.substack.com/p/the-bitter-lesson-is-misunderstood
    OBVIOUSLYWRONG.SUBSTACK.COM
    The Bitter Lesson is Misunderstood
    Together, the Bitter Lesson and Scaling Laws reveal that the god of Compute we worship is yoked to an even greater one — the god of Data.
    0 Comments 0 Shares 52 Views 0 Reviews
  • เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า

    Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี

    B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32

    แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ

    ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ

    การเปิดตัวและคุณสมบัติของ B30A
    เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน
    ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300
    ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก

    ราคาของ B30A และความต้องการในจีน
    ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20
    บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า
    ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ

    สถานการณ์การส่งออกและการอนุมัติ
    Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ
    เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี
    Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A

    บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม
    การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน
    รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที
    Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    🎙️ เรื่องเล่าจาก B30A: เมื่อชิปที่ถูกลดสเปกกลายเป็นของหายากที่จีนยอมจ่ายแพงขึ้น 2 เท่า Nvidia กำลังเตรียมส่งมอบ B30A ซึ่งเป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน โดยมีราคาสูงถึง $20,000–$25,000 ต่อชิ้น—มากกว่ารุ่นก่อนหน้า H20 ที่ขายอยู่ที่ $10,000–$12,000 ถึงเท่าตัว2 แม้จะเป็นเวอร์ชันที่ถูกลดสเปกจาก B300 ตัวเต็ม แต่บริษัทจีนอย่าง ByteDance และ Alibaba กลับมองว่า “คุ้มค่า” เพราะ B30A ยังให้ประสิทธิภาพสูงกว่ารุ่นเดิมถึง 6 เท่า และยังคงรองรับซอฟต์แวร์ของ Nvidia ได้ดี B30A ใช้สถาปัตยกรรม Blackwell แบบ single-die ซึ่งเป็นการลดขนาดจาก B300 ที่ใช้ dual-die เพื่อให้ผ่านข้อจำกัดการส่งออกของสหรัฐฯ โดยมีประสิทธิภาพครึ่งหนึ่งของ B300 ในทุกระดับ precision ตั้งแต่ FP4 ไปจนถึง TF32 แม้รัฐบาลจีนจะพยายามผลักดันให้บริษัทในประเทศใช้ชิปภายในประเทศมากขึ้น และมีคำแนะนำให้หยุดซื้อ H20 แต่ความต้องการยังคงสูงมาก จนเกิดการลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านในช่วง 3 เดือนที่ผ่านมา และทำให้เกิด backlog การอนุมัติใบอนุญาตส่งออกที่หนักที่สุดในรอบ 30 ปีที่กระทรวงพาณิชย์สหรัฐฯ ขณะเดียวกัน Nvidia ก็เริ่มลดการผลิต H20 และรอการอนุมัติส่งออก B30A อย่างเป็นทางการ ซึ่งจะกลายเป็นตัวแทนหลักของบริษัทในตลาดจีน หากได้รับไฟเขียวจากรัฐบาลสหรัฐฯ ✅ การเปิดตัวและคุณสมบัติของ B30A ➡️ เป็นชิป AI รุ่นใหม่ที่ออกแบบเฉพาะสำหรับตลาดจีน ➡️ ใช้สถาปัตยกรรม Blackwell แบบ single-die ลดสเปกจาก B300 ➡️ ประสิทธิภาพสูงกว่ารุ่น H20 ถึง 6 เท่า แม้จะถูกลดสเปก ✅ ราคาของ B30A และความต้องการในจีน ➡️ ราคาสูงถึง $20,000–$25,000 ต่อชิ้น เท่าตัวของ H20 ➡️ บริษัทจีนอย่าง ByteDance และ Alibaba ยอมจ่ายเพราะยังคุ้มค่า ➡️ ความต้องการสูงแม้จะมีคำแนะนำจากรัฐบาลให้หยุดซื้อ ✅ สถานการณ์การส่งออกและการอนุมัติ ➡️ Nvidia รอการอนุมัติส่งออก B30A จากรัฐบาลสหรัฐฯ ➡️ เกิด backlog การอนุมัติใบอนุญาตที่หนักที่สุดในรอบ 30 ปี ➡️ Nvidia เริ่มลดการผลิต H20 และเตรียมเปลี่ยนไปใช้ B30A ✅ บริบททางภูมิรัฐศาสตร์และอุตสาหกรรม ➡️ การลักลอบนำเข้าชิป Nvidia มูลค่ากว่า $1 พันล้านใน 3 เดือน ➡️ รัฐบาลจีนผลักดันให้ใช้ชิปในประเทศ แต่ยังไม่สามารถแทนที่ได้ทันที ➡️ Nvidia ยังเป็นผู้เล่นหลักในตลาด AI ของจีนในระยะสั้นถึงกลาง https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-next-gen-ai-chip-could-double-the-price-of-h20-if-china-export-is-approved-chinese-firms-still-consider-nvidias-b30a-a-good-deal
    0 Comments 0 Shares 63 Views 0 Reviews
  • เรื่องเล่าจากบรรทัดแรกของ Microsoft: เมื่อโค้ดที่ Bill Gates เขียนในปี 1976 กลับมาโลดแล่นอีกครั้งในโลกโอเพ่นซอร์ส

    Microsoft ได้เปิดซอร์สโค้ดของ “BASIC for 6502 Microprocessor – Version 1.1” บน GitHub ภายใต้ MIT license ซึ่งหมายความว่าใครก็สามารถดาวน์โหลด แก้ไข แชร์ หรือแม้แต่ขายซ้ำได้อย่างเสรี โค้ดนี้มีความสำคัญทางประวัติศาสตร์อย่างมาก เพราะเป็นรากฐานของซอฟต์แวร์ที่อยู่ในเครื่อง Apple II, Commodore PET, VIC-20 และ Commodore 64—คอมพิวเตอร์ที่ทำให้คนหลายล้านคนเริ่มเขียนโปรแกรมด้วยคำสั่งง่าย ๆ อย่าง:

    10 PRINT “HELLO”
    20 GOTO 10
    RUN

    BASIC เวอร์ชันนี้ถูกพอร์ตโดย Bill Gates และ Ric Weiland ไปยังชิป MOS 6502 ในปี 1976 และถูกใช้ในเครื่องที่ขายดีที่สุดในยุคนั้น เช่น Commodore 64 ซึ่งขายไปมากกว่า 17 ล้านเครื่องทั่วโลก

    ที่น่าสนใจคือ Commodore ได้ซื้อสิทธิ์ใช้โค้ดนี้แบบไม่จำกัดจำนวนเครื่องในราคาเพียง $25,000 โดยไม่มีค่าลิขสิทธิ์รายเครื่อง ซึ่งเป็นดีลที่ดูเล็กในตอนนั้น แต่กลายเป็นการวางรากฐานให้ Microsoft กลายเป็นบริษัทซอฟต์แวร์ที่มีอิทธิพลที่สุดในโลก

    โค้ดที่เปิดเผยนี้มีจำนวน 6,955 บรรทัด เป็นภาษา Assembly สำหรับชิป 6502 และยังมีการแก้ไขระบบ garbage collector ที่ Bill Gates ร่วมพัฒนากับวิศวกรของ Commodore ในปี 1978 รวมถึง easter egg ที่ซ่อนอยู่ใน label STORDO และ STORD0 ซึ่ง Gates ยืนยันว่าเขาใส่ไว้เอง

    การเปิดซอร์ส Microsoft BASIC for 6502
    เปิดเผยบน GitHub ภายใต้ MIT license
    มีทั้งหมด 6,955 บรรทัด เป็นภาษา Assembly สำหรับ MOS 6502
    สามารถใช้งาน แก้ไข และเผยแพร่ได้อย่างเสรี

    ความสำคัญทางประวัติศาสตร์
    เป็นซอฟต์แวร์ตัวแรกของ Microsoft ที่เขียนโดย Bill Gates และ Paul Allen
    ถูกใช้ใน Apple II, Commodore PET, VIC-20, และ C64
    เป็นจุดเริ่มต้นของการเรียนรู้การเขียนโปรแกรมสำหรับคนหลายล้านคน

    ดีลกับ Commodore และผลกระทบ
    Commodore ซื้อสิทธิ์ใช้แบบไม่จำกัดในราคา $25,000
    ไม่มีค่าลิขสิทธิ์รายเครื่อง ทำให้ Microsoft ได้การเผยแพร่ในวงกว้าง
    ช่วยให้ Microsoft สร้างชื่อเสียงในยุคเริ่มต้นของคอมพิวเตอร์ส่วนบุคคล

    รายละเอียดทางเทคนิคและการพัฒนา
    มีการแก้ไข garbage collector ร่วมกับวิศวกรของ Commodore ในปี 1978
    มี easter egg ที่ซ่อนอยู่ใน label STORDO และ STORD0
    รองรับระบบ Apple II, Commodore PET, KIM-1, OSI และ PDP-10 simulation

    https://www.tomshardware.com/software/bill-gates-48-year-old-microsoft-6502-basic-goes-open-source
    🎙️ เรื่องเล่าจากบรรทัดแรกของ Microsoft: เมื่อโค้ดที่ Bill Gates เขียนในปี 1976 กลับมาโลดแล่นอีกครั้งในโลกโอเพ่นซอร์ส Microsoft ได้เปิดซอร์สโค้ดของ “BASIC for 6502 Microprocessor – Version 1.1” บน GitHub ภายใต้ MIT license ซึ่งหมายความว่าใครก็สามารถดาวน์โหลด แก้ไข แชร์ หรือแม้แต่ขายซ้ำได้อย่างเสรี โค้ดนี้มีความสำคัญทางประวัติศาสตร์อย่างมาก เพราะเป็นรากฐานของซอฟต์แวร์ที่อยู่ในเครื่อง Apple II, Commodore PET, VIC-20 และ Commodore 64—คอมพิวเตอร์ที่ทำให้คนหลายล้านคนเริ่มเขียนโปรแกรมด้วยคำสั่งง่าย ๆ อย่าง: 10 PRINT “HELLO” 20 GOTO 10 RUN BASIC เวอร์ชันนี้ถูกพอร์ตโดย Bill Gates และ Ric Weiland ไปยังชิป MOS 6502 ในปี 1976 และถูกใช้ในเครื่องที่ขายดีที่สุดในยุคนั้น เช่น Commodore 64 ซึ่งขายไปมากกว่า 17 ล้านเครื่องทั่วโลก ที่น่าสนใจคือ Commodore ได้ซื้อสิทธิ์ใช้โค้ดนี้แบบไม่จำกัดจำนวนเครื่องในราคาเพียง $25,000 โดยไม่มีค่าลิขสิทธิ์รายเครื่อง ซึ่งเป็นดีลที่ดูเล็กในตอนนั้น แต่กลายเป็นการวางรากฐานให้ Microsoft กลายเป็นบริษัทซอฟต์แวร์ที่มีอิทธิพลที่สุดในโลก โค้ดที่เปิดเผยนี้มีจำนวน 6,955 บรรทัด เป็นภาษา Assembly สำหรับชิป 6502 และยังมีการแก้ไขระบบ garbage collector ที่ Bill Gates ร่วมพัฒนากับวิศวกรของ Commodore ในปี 1978 รวมถึง easter egg ที่ซ่อนอยู่ใน label STORDO และ STORD0 ซึ่ง Gates ยืนยันว่าเขาใส่ไว้เอง ✅ การเปิดซอร์ส Microsoft BASIC for 6502 ➡️ เปิดเผยบน GitHub ภายใต้ MIT license ➡️ มีทั้งหมด 6,955 บรรทัด เป็นภาษา Assembly สำหรับ MOS 6502 ➡️ สามารถใช้งาน แก้ไข และเผยแพร่ได้อย่างเสรี ✅ ความสำคัญทางประวัติศาสตร์ ➡️ เป็นซอฟต์แวร์ตัวแรกของ Microsoft ที่เขียนโดย Bill Gates และ Paul Allen ➡️ ถูกใช้ใน Apple II, Commodore PET, VIC-20, และ C64 ➡️ เป็นจุดเริ่มต้นของการเรียนรู้การเขียนโปรแกรมสำหรับคนหลายล้านคน ✅ ดีลกับ Commodore และผลกระทบ ➡️ Commodore ซื้อสิทธิ์ใช้แบบไม่จำกัดในราคา $25,000 ➡️ ไม่มีค่าลิขสิทธิ์รายเครื่อง ทำให้ Microsoft ได้การเผยแพร่ในวงกว้าง ➡️ ช่วยให้ Microsoft สร้างชื่อเสียงในยุคเริ่มต้นของคอมพิวเตอร์ส่วนบุคคล ✅ รายละเอียดทางเทคนิคและการพัฒนา ➡️ มีการแก้ไข garbage collector ร่วมกับวิศวกรของ Commodore ในปี 1978 ➡️ มี easter egg ที่ซ่อนอยู่ใน label STORDO และ STORD0 ➡️ รองรับระบบ Apple II, Commodore PET, KIM-1, OSI และ PDP-10 simulation https://www.tomshardware.com/software/bill-gates-48-year-old-microsoft-6502-basic-goes-open-source
    WWW.TOMSHARDWARE.COM
    Bill Gates’ 48-year-old Microsoft 6502 BASIC goes open source
    Named after the MOS Technology 6502 CPU, but a port of BASIC for the Altair 8800 microcomputer (1975) which used the Intel 8080 processor.
    0 Comments 0 Shares 59 Views 0 Reviews
  • เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด

    AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง

    ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%

    แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น

    AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference

    สเปกของ AMD MI500 MegaPod
    ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU
    แบ่งเป็น 64 compute tray และ 18 UALink switch tray
    ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน

    เทคโนโลยีที่ใช้ใน MI500 และ Verano
    MI500 ใช้ TSMC N2P node และ CoWoS-L packaging
    Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง
    รองรับ ROCm 7, FP8, Flash Attention 3

    การเปรียบเทียบกับ Nvidia NVL576
    NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS
    AMD MegaPod มีจำนวน GPU มากกว่าถึง 78%
    ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ

    การออกแบบเพื่อประสิทธิภาพและความเย็น
    ใช้ liquid cooling ทั้ง compute และ networking tray
    ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่
    เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่

    https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    🎙️ เรื่องเล่าจาก MI500 UAL256: เมื่อ AMD เตรียมปล่อยระบบ AI ที่ใหญ่กว่า Nvidia ถึง 78% และอาจเปลี่ยนเกมการประมวลผลทั้งหมด AMD กำลังเตรียมเปิดตัว “MI500 Scale Up MegaPod” ในปี 2027 ซึ่งเป็นระบบ rack-scale ที่ประกอบด้วย 256 Instinct MI500-series GPU และ 64 EPYC Verano CPU โดยใช้สถาปัตยกรรมใหม่ชื่อ UAL256 ที่เชื่อมโยงกันผ่าน UALink switch tray ทั้งหมด 18 ชุดในแร็คกลาง ระบบนี้จะมีขนาดใหญ่กว่ารุ่น Helios ที่จะเปิดตัวในปี 2026 ซึ่งมีเพียง 72 GPU และยังใหญ่กว่าระบบ NVL576 ของ Nvidia ที่ใช้ Rubin Ultra GPU เพียง 144 ตัว โดย AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% แม้จะยังไม่มีตัวเลขประสิทธิภาพอย่างเป็นทางการ แต่คาดว่า MI500 จะใช้เทคโนโลยีการผลิตระดับ 2nm (N2P) จาก TSMC พร้อมเทคนิค CoWoS-L และ backside power delivery เพื่อเพิ่มความหนาแน่นและลดการใช้พลังงาน ส่วน Verano CPU ก็จะใช้ Zen 6 หรือ Zen 7 ที่มี core count สูงและ bandwidth มากขึ้น AMD ยังเน้นการใช้ liquid cooling ทั้งใน compute tray และ networking tray เพื่อรองรับความร้อนจาก GPU ที่ใช้พลังงานสูงขึ้นเรื่อย ๆ และจะเปิดตัวพร้อมกับ ROCm 7 ที่รองรับ FP8 และ Flash Attention 3 เพื่อเพิ่มประสิทธิภาพการเทรนและ inference ✅ สเปกของ AMD MI500 MegaPod ➡️ ใช้ 256 Instinct MI500 GPU และ 64 EPYC Verano CPU ➡️ แบ่งเป็น 64 compute tray และ 18 UALink switch tray ➡️ ใช้สถาปัตยกรรม UAL256 แบบ 3 แร็คเชื่อมโยงกัน ✅ เทคโนโลยีที่ใช้ใน MI500 และ Verano ➡️ MI500 ใช้ TSMC N2P node และ CoWoS-L packaging ➡️ Verano CPU ใช้ Zen 6 หรือ Zen 7 พร้อม bandwidth สูง ➡️ รองรับ ROCm 7, FP8, Flash Attention 3 ✅ การเปรียบเทียบกับ Nvidia NVL576 ➡️ NVL576 ใช้ 144 Rubin Ultra GPU พร้อม 147TB HBM4 และ 14,400 FP4 PFLOPS ➡️ AMD MegaPod มีจำนวน GPU มากกว่าถึง 78% ➡️ ยังไม่มีตัวเลข FP4 หรือ HBM4 bandwidth ของ AMD อย่างเป็นทางการ ✅ การออกแบบเพื่อประสิทธิภาพและความเย็น ➡️ ใช้ liquid cooling ทั้ง compute และ networking tray ➡️ ออกแบบเพื่อรองรับการใช้พลังงานสูงและความร้อนจาก GPU รุ่นใหม่ ➡️ เน้น scalability และ energy efficiency สำหรับ data center ขนาดใหญ่ https://www.tomshardware.com/pc-components/gpus/amd-preps-mega-pod-with-256-instinct-mi500-gpus-verano-cpus-leak-suggests-platform-with-better-scalability-than-nvidia-will-arrive-in-2027
    0 Comments 0 Shares 52 Views 0 Reviews
  • เรื่องเล่าจาก Dalian: เมื่อโรงงาน NAND ที่เคยเป็นความหวังของ Intel กลายเป็นสินทรัพย์ที่ถูกจำกัดการเติบโต

    โรงงานผลิต NAND ในเมืองต้าเหลียน ประเทศจีน ซึ่งเดิมเป็นของ Intel และเปิดดำเนินการมาตั้งแต่ปี 2010 ได้ถูกเปลี่ยนชื่ออย่างเป็นทางการเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. เมื่อวันที่ 1 กันยายน 2025 นี่คือขั้นตอนสุดท้ายของการเข้าซื้อกิจการมูลค่า 9 พันล้านดอลลาร์ที่ SK hynix ทำกับ Intel ตั้งแต่ปี 2020

    แม้ SK hynix จะควบคุมโรงงานนี้มาตั้งแต่ปี 2021 และยังคงผลิต NAND แบบ 192-layer สำหรับ SSD QLC ผ่านแบรนด์ Solidigm แต่การเปลี่ยนชื่อครั้งนี้เกิดขึ้นในช่วงเวลาที่สหรัฐฯ เพิ่งประกาศยกเลิกใบอนุญาต VEU (Validated End-User) สำหรับโรงงานในจีนของ SK hynix และ Samsung ซึ่งเคยอนุญาตให้นำเข้าเครื่องมือผลิตชิปจากสหรัฐฯ โดยไม่ต้องขออนุญาตรายครั้ง

    การยกเลิกใบอนุญาตนี้มีผลตั้งแต่วันที่ 31 ธันวาคม 2025 และจะทำให้โรงงาน Dalian ไม่สามารถอัปเกรดไปสู่เทคโนโลยี NAND รุ่นใหม่ เช่น 238-layer หรือ 321-layer ได้อีกต่อไป แม้จะยังสามารถซ่อมบำรุงเครื่องมือเดิมได้ก็ตาม

    SK hynix จึงกลายเป็นเจ้าของโรงงานที่มีข้อจำกัดด้านการเติบโตอย่างชัดเจน และอาจต้องลงทุนสร้างโรงงานใหม่นอกจีน หากต้องการแข่งขันในตลาด NAND ระดับสูง ซึ่งอาจใช้เงินถึง 10–20 พันล้านดอลลาร์

    การเปลี่ยนชื่อและโครงสร้างกรรมสิทธิ์
    โรงงาน Dalian เปลี่ยนชื่อเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd.
    เป็นขั้นตอนสุดท้ายของดีลมูลค่า $9B ที่เริ่มตั้งแต่ปี 2020
    Intel Asia Holding ออกจากสถานะผู้ถือหุ้นตั้งแต่เดือนมีนาคม

    สถานะการผลิตและเทคโนโลยี
    โรงงานยังผลิต NAND แบบ 192-layer สำหรับ SSD QLC
    ใช้เทคโนโลยีที่สืบทอดจาก Intel ผ่านแบรนด์ Solidigm
    ไม่สามารถอัปเกรดไปสู่ 238- หรือ 321-layer NAND ได้

    ผลกระทบจากการยกเลิกใบอนุญาต VEU
    สหรัฐฯ ยกเลิกใบอนุญาต VEU สำหรับ SK hynix และ Samsung ในจีน
    มีผลตั้งแต่ 31 ธันวาคม 2025
    ไม่สามารถนำเข้าเครื่องมือใหม่จากสหรัฐฯ ได้โดยไม่ขออนุญาตรายครั้ง

    ทางเลือกเชิงกลยุทธ์ของ SK hynix
    อาจต้องสร้างโรงงานใหม่นอกจีนเพื่อรองรับ NAND รุ่นใหม่
    คาดว่าต้องใช้เงินลงทุน $10–20B
    ต้องปรับแผนการผลิตและ supply chain อย่างมีนัยสำคัญ

    https://www.tomshardware.com/tech-industry/intel-dalian-plant-now-officially-sk-hynix
    🎙️ เรื่องเล่าจาก Dalian: เมื่อโรงงาน NAND ที่เคยเป็นความหวังของ Intel กลายเป็นสินทรัพย์ที่ถูกจำกัดการเติบโต โรงงานผลิต NAND ในเมืองต้าเหลียน ประเทศจีน ซึ่งเดิมเป็นของ Intel และเปิดดำเนินการมาตั้งแต่ปี 2010 ได้ถูกเปลี่ยนชื่ออย่างเป็นทางการเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. เมื่อวันที่ 1 กันยายน 2025 นี่คือขั้นตอนสุดท้ายของการเข้าซื้อกิจการมูลค่า 9 พันล้านดอลลาร์ที่ SK hynix ทำกับ Intel ตั้งแต่ปี 2020 แม้ SK hynix จะควบคุมโรงงานนี้มาตั้งแต่ปี 2021 และยังคงผลิต NAND แบบ 192-layer สำหรับ SSD QLC ผ่านแบรนด์ Solidigm แต่การเปลี่ยนชื่อครั้งนี้เกิดขึ้นในช่วงเวลาที่สหรัฐฯ เพิ่งประกาศยกเลิกใบอนุญาต VEU (Validated End-User) สำหรับโรงงานในจีนของ SK hynix และ Samsung ซึ่งเคยอนุญาตให้นำเข้าเครื่องมือผลิตชิปจากสหรัฐฯ โดยไม่ต้องขออนุญาตรายครั้ง การยกเลิกใบอนุญาตนี้มีผลตั้งแต่วันที่ 31 ธันวาคม 2025 และจะทำให้โรงงาน Dalian ไม่สามารถอัปเกรดไปสู่เทคโนโลยี NAND รุ่นใหม่ เช่น 238-layer หรือ 321-layer ได้อีกต่อไป แม้จะยังสามารถซ่อมบำรุงเครื่องมือเดิมได้ก็ตาม SK hynix จึงกลายเป็นเจ้าของโรงงานที่มีข้อจำกัดด้านการเติบโตอย่างชัดเจน และอาจต้องลงทุนสร้างโรงงานใหม่นอกจีน หากต้องการแข่งขันในตลาด NAND ระดับสูง ซึ่งอาจใช้เงินถึง 10–20 พันล้านดอลลาร์ ✅ การเปลี่ยนชื่อและโครงสร้างกรรมสิทธิ์ ➡️ โรงงาน Dalian เปลี่ยนชื่อเป็น SK hynix Semiconductor Storage Technology (Dalian) Co., Ltd. ➡️ เป็นขั้นตอนสุดท้ายของดีลมูลค่า $9B ที่เริ่มตั้งแต่ปี 2020 ➡️ Intel Asia Holding ออกจากสถานะผู้ถือหุ้นตั้งแต่เดือนมีนาคม ✅ สถานะการผลิตและเทคโนโลยี ➡️ โรงงานยังผลิต NAND แบบ 192-layer สำหรับ SSD QLC ➡️ ใช้เทคโนโลยีที่สืบทอดจาก Intel ผ่านแบรนด์ Solidigm ➡️ ไม่สามารถอัปเกรดไปสู่ 238- หรือ 321-layer NAND ได้ ✅ ผลกระทบจากการยกเลิกใบอนุญาต VEU ➡️ สหรัฐฯ ยกเลิกใบอนุญาต VEU สำหรับ SK hynix และ Samsung ในจีน ➡️ มีผลตั้งแต่ 31 ธันวาคม 2025 ➡️ ไม่สามารถนำเข้าเครื่องมือใหม่จากสหรัฐฯ ได้โดยไม่ขออนุญาตรายครั้ง ✅ ทางเลือกเชิงกลยุทธ์ของ SK hynix ➡️ อาจต้องสร้างโรงงานใหม่นอกจีนเพื่อรองรับ NAND รุ่นใหม่ ➡️ คาดว่าต้องใช้เงินลงทุน $10–20B ➡️ ต้องปรับแผนการผลิตและ supply chain อย่างมีนัยสำคัญ https://www.tomshardware.com/tech-industry/intel-dalian-plant-now-officially-sk-hynix
    0 Comments 0 Shares 57 Views 0 Reviews
  • เรื่องเล่าจาก Zara: เมื่อ Linux Mint กลายเป็นระบบปฏิบัติการที่ “รู้จักคุณ” มากขึ้น

    Linux Mint 22.2 รหัสชื่อ “Zara” เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025 โดยเป็นเวอร์ชัน Long-Term Support (LTS) ที่จะได้รับอัปเดตจนถึงปี 2029 และสร้างบนฐานของ Ubuntu 24.04 พร้อม Linux Kernel 6.14 จุดเด่นของเวอร์ชันนี้ไม่ใช่แค่ความเสถียร แต่คือการเพิ่มฟีเจอร์ที่ทำให้ผู้ใช้รู้สึกว่า “ระบบเข้าใจเรา” มากขึ้น

    ฟีเจอร์ใหม่ที่โดดเด่นคือ Fingwit—แอปสำหรับจัดการการยืนยันตัวตนด้วยลายนิ้วมือแบบเนทีฟ ซึ่งสามารถใช้ปลดล็อกหน้าจอ, ยืนยันคำสั่ง sudo, และเปิดแอป admin ได้โดยไม่ต้องพึ่งเครื่องมือภายนอกอีกต่อไป

    อีกหนึ่งฟีเจอร์ที่น่าสนใจคือ Sticky Notes ที่ไม่ใช่แค่แอปโพสต์อิทธรรมดา แต่สามารถซิงก์กับแอป Android ชื่อ StyncyNotes ได้ ทำให้คุณสามารถเขียนโน้ตบนคอมแล้วเปิดดูบนมือถือได้ทันที และยังรองรับ Wayland ซึ่งเป็นโปรโตคอลแสดงผลรุ่นใหม่ที่มาแทน X11

    นอกจากนี้ยังมีการปรับปรุงหน้าจอล็อกอินให้ดูทันสมัยขึ้นด้วย blur effect และ user avatar, อัปเดตแอป Hypnotix สำหรับดู IPTV ให้มี Theater Mode และ Borderless Mode, และปรับปรุง Software Manager ให้เข้าใจง่ายขึ้น โดยเพิ่มคำอธิบายระหว่าง Flatpak กับ system packages

    เวอร์ชันและฐานระบบของ Linux Mint 22.2 Zara
    เป็นเวอร์ชัน LTS ที่จะได้รับอัปเดตจนถึงปี 2029
    สร้างบน Ubuntu 24.04 และใช้ Linux Kernel 6.14

    Fingwit: ระบบลายนิ้วมือแบบเนทีฟ
    ใช้ยืนยันตัวตนสำหรับ login, screensaver, sudo, และ pkexec
    ไม่ต้องติดตั้งเครื่องมือภายนอกอีกต่อไป
    UI เรียบง่ายและใช้งานสะดวก

    Sticky Notes และการซิงก์กับมือถือ
    รองรับ Wayland และมีมุมโค้งที่ดูทันสมัย
    ซิงก์กับแอป Android ชื่อ StyncyNotes ผ่าน D-Bus
    เขียนโน้ตบนคอมแล้วเปิดดูบนมือถือได้ทันที

    การปรับปรุงหน้าจอและแอปอื่น ๆ
    หน้าจอล็อกอินมี blur effect และ user avatar
    Hypnotix เพิ่ม Theater Mode และ Borderless Mode
    Software Manager อธิบายความต่างระหว่าง Flatpak กับ system packages

    การอัปเดตและการติดตั้ง
    อัปเดตจาก Mint 22 หรือ 22.1 ได้ง่ายผ่าน Update Manager
    มีให้เลือก 3 desktop environment: Cinnamon 6.4, Xfce 4.18, MATE 1.26

    https://www.tomshardware.com/software/linux/linux-mint-22-2-zara-released-with-native-fingerprint-support-also-has-a-new-syncing-sticky-note-system
    🎙️ เรื่องเล่าจาก Zara: เมื่อ Linux Mint กลายเป็นระบบปฏิบัติการที่ “รู้จักคุณ” มากขึ้น Linux Mint 22.2 รหัสชื่อ “Zara” เปิดตัวอย่างเป็นทางการในเดือนกันยายน 2025 โดยเป็นเวอร์ชัน Long-Term Support (LTS) ที่จะได้รับอัปเดตจนถึงปี 2029 และสร้างบนฐานของ Ubuntu 24.04 พร้อม Linux Kernel 6.14 จุดเด่นของเวอร์ชันนี้ไม่ใช่แค่ความเสถียร แต่คือการเพิ่มฟีเจอร์ที่ทำให้ผู้ใช้รู้สึกว่า “ระบบเข้าใจเรา” มากขึ้น ฟีเจอร์ใหม่ที่โดดเด่นคือ Fingwit—แอปสำหรับจัดการการยืนยันตัวตนด้วยลายนิ้วมือแบบเนทีฟ ซึ่งสามารถใช้ปลดล็อกหน้าจอ, ยืนยันคำสั่ง sudo, และเปิดแอป admin ได้โดยไม่ต้องพึ่งเครื่องมือภายนอกอีกต่อไป อีกหนึ่งฟีเจอร์ที่น่าสนใจคือ Sticky Notes ที่ไม่ใช่แค่แอปโพสต์อิทธรรมดา แต่สามารถซิงก์กับแอป Android ชื่อ StyncyNotes ได้ ทำให้คุณสามารถเขียนโน้ตบนคอมแล้วเปิดดูบนมือถือได้ทันที และยังรองรับ Wayland ซึ่งเป็นโปรโตคอลแสดงผลรุ่นใหม่ที่มาแทน X11 นอกจากนี้ยังมีการปรับปรุงหน้าจอล็อกอินให้ดูทันสมัยขึ้นด้วย blur effect และ user avatar, อัปเดตแอป Hypnotix สำหรับดู IPTV ให้มี Theater Mode และ Borderless Mode, และปรับปรุง Software Manager ให้เข้าใจง่ายขึ้น โดยเพิ่มคำอธิบายระหว่าง Flatpak กับ system packages ✅ เวอร์ชันและฐานระบบของ Linux Mint 22.2 Zara ➡️ เป็นเวอร์ชัน LTS ที่จะได้รับอัปเดตจนถึงปี 2029 ➡️ สร้างบน Ubuntu 24.04 และใช้ Linux Kernel 6.14 ✅ Fingwit: ระบบลายนิ้วมือแบบเนทีฟ ➡️ ใช้ยืนยันตัวตนสำหรับ login, screensaver, sudo, และ pkexec ➡️ ไม่ต้องติดตั้งเครื่องมือภายนอกอีกต่อไป ➡️ UI เรียบง่ายและใช้งานสะดวก ✅ Sticky Notes และการซิงก์กับมือถือ ➡️ รองรับ Wayland และมีมุมโค้งที่ดูทันสมัย ➡️ ซิงก์กับแอป Android ชื่อ StyncyNotes ผ่าน D-Bus ➡️ เขียนโน้ตบนคอมแล้วเปิดดูบนมือถือได้ทันที ✅ การปรับปรุงหน้าจอและแอปอื่น ๆ ➡️ หน้าจอล็อกอินมี blur effect และ user avatar ➡️ Hypnotix เพิ่ม Theater Mode และ Borderless Mode ➡️ Software Manager อธิบายความต่างระหว่าง Flatpak กับ system packages ✅ การอัปเดตและการติดตั้ง ➡️ อัปเดตจาก Mint 22 หรือ 22.1 ได้ง่ายผ่าน Update Manager ➡️ มีให้เลือก 3 desktop environment: Cinnamon 6.4, Xfce 4.18, MATE 1.26 https://www.tomshardware.com/software/linux/linux-mint-22-2-zara-released-with-native-fingerprint-support-also-has-a-new-syncing-sticky-note-system
    0 Comments 0 Shares 39 Views 0 Reviews
  • เรื่องเล่าจากแสงแดดถึง Copilot Key: เมื่อ Logitech สร้างคีย์บอร์ดที่ไม่ต้องชาร์จอีกต่อไป

    Logitech เตรียมเปิดตัว Signature Slim Solar+ ซึ่งเป็นคีย์บอร์ดไร้สายที่มาพร้อมแผงโซลาร์ขนาดเล็กด้านบนแถวปุ่มฟังก์ชัน โดยใช้เทคโนโลยีที่เรียกว่า Logi LightCharge ซึ่งผสานแถบดูดซับแสงเข้ากับแบตเตอรี่แบบประหยัดพลังงาน ทำให้สามารถใช้งานได้นานถึง 10 ปีโดยไม่ต้องชาร์จด้วยสายหรือแท่นชาร์จ

    ดีไซน์ของ Signature Slim Solar+ คล้ายกับ MX Keys S มาก ทั้งขนาดและรูปทรง แต่เบากว่าถึง 14% และผลิตจากพลาสติกรีไซเคิล 70% ตัวคีย์บอร์ดรองรับการเชื่อมต่อกับอุปกรณ์ได้ถึง 3 เครื่องพร้อมกันผ่าน Bluetooth หรือ Logi Bolt USB-C receiver และสามารถสลับอุปกรณ์ได้ด้วยปุ่ม Easy Switch

    ฟีเจอร์เด่นอีกอย่างคือ AI Launch Key ซึ่งเป็นปุ่มเฉพาะสำหรับเรียกใช้งาน Microsoft Copilot บน Windows หรือ Gemini บน ChromeOS โดยสามารถปรับเปลี่ยนให้ทำงานอื่นได้ผ่านแอป Logi Options+

    นอกจากนี้ยังรองรับ Smart Actions ที่ให้ผู้ใช้สร้าง automation เช่น เปิดแอปหลายตัวพร้อมกัน หรือส่งคำสั่งแบบชุดเดียวจบ—all ผ่านปุ่มเดียว

    คุณสมบัติหลักของ Logitech Signature Slim Solar+
    ใช้พลังงานจากแสงธรรมชาติหรือแสงในอาคารผ่านแผงโซลาร์
    แบตเตอรี่มีอายุการใช้งานสูงสุดถึง 10 ปี
    ใช้เทคโนโลยี Logi LightCharge เพื่อดูดซับแสงและจัดการพลังงาน

    ดีไซน์และวัสดุ
    คล้าย MX Keys S แต่เบากว่า 14% และบางกว่าเล็กน้อย
    ผลิตจากพลาสติกรีไซเคิล 70%
    ขนาด 430.8 x 142.9 x 20.2 มม. น้ำหนัก 700 กรัม

    การเชื่อมต่อและการใช้งาน
    รองรับ Bluetooth และ Logi Bolt USB-C receiver
    เชื่อมต่อได้ 3 อุปกรณ์พร้อมกัน และสลับด้วย Easy Switch
    ปุ่ม AI Launch Key เรียกใช้งาน Copilot หรือ Gemini ได้ทันที

    ฟีเจอร์เสริมผ่าน Logi Options+
    ปรับแต่งปุ่มได้ตามต้องการ รวมถึง Smart Actions
    สร้าง automation เช่น เปิดหลายแอปพร้อมกัน หรือส่งคำสั่งชุดเดียว
    รองรับระบบ Android, ChromeOS, Linux, macOS และ Windows

    https://www.tomshardware.com/peripherals/keyboards/solar-powered-logitech-keyboard-appears-on-amazon-mexico-mx-keys-s-look-alike-promises-up-to-10-years-of-power
    🎙️ เรื่องเล่าจากแสงแดดถึง Copilot Key: เมื่อ Logitech สร้างคีย์บอร์ดที่ไม่ต้องชาร์จอีกต่อไป Logitech เตรียมเปิดตัว Signature Slim Solar+ ซึ่งเป็นคีย์บอร์ดไร้สายที่มาพร้อมแผงโซลาร์ขนาดเล็กด้านบนแถวปุ่มฟังก์ชัน โดยใช้เทคโนโลยีที่เรียกว่า Logi LightCharge ซึ่งผสานแถบดูดซับแสงเข้ากับแบตเตอรี่แบบประหยัดพลังงาน ทำให้สามารถใช้งานได้นานถึง 10 ปีโดยไม่ต้องชาร์จด้วยสายหรือแท่นชาร์จ ดีไซน์ของ Signature Slim Solar+ คล้ายกับ MX Keys S มาก ทั้งขนาดและรูปทรง แต่เบากว่าถึง 14% และผลิตจากพลาสติกรีไซเคิล 70% ตัวคีย์บอร์ดรองรับการเชื่อมต่อกับอุปกรณ์ได้ถึง 3 เครื่องพร้อมกันผ่าน Bluetooth หรือ Logi Bolt USB-C receiver และสามารถสลับอุปกรณ์ได้ด้วยปุ่ม Easy Switch ฟีเจอร์เด่นอีกอย่างคือ AI Launch Key ซึ่งเป็นปุ่มเฉพาะสำหรับเรียกใช้งาน Microsoft Copilot บน Windows หรือ Gemini บน ChromeOS โดยสามารถปรับเปลี่ยนให้ทำงานอื่นได้ผ่านแอป Logi Options+ นอกจากนี้ยังรองรับ Smart Actions ที่ให้ผู้ใช้สร้าง automation เช่น เปิดแอปหลายตัวพร้อมกัน หรือส่งคำสั่งแบบชุดเดียวจบ—all ผ่านปุ่มเดียว ✅ คุณสมบัติหลักของ Logitech Signature Slim Solar+ ➡️ ใช้พลังงานจากแสงธรรมชาติหรือแสงในอาคารผ่านแผงโซลาร์ ➡️ แบตเตอรี่มีอายุการใช้งานสูงสุดถึง 10 ปี ➡️ ใช้เทคโนโลยี Logi LightCharge เพื่อดูดซับแสงและจัดการพลังงาน ✅ ดีไซน์และวัสดุ ➡️ คล้าย MX Keys S แต่เบากว่า 14% และบางกว่าเล็กน้อย ➡️ ผลิตจากพลาสติกรีไซเคิล 70% ➡️ ขนาด 430.8 x 142.9 x 20.2 มม. น้ำหนัก 700 กรัม ✅ การเชื่อมต่อและการใช้งาน ➡️ รองรับ Bluetooth และ Logi Bolt USB-C receiver ➡️ เชื่อมต่อได้ 3 อุปกรณ์พร้อมกัน และสลับด้วย Easy Switch ➡️ ปุ่ม AI Launch Key เรียกใช้งาน Copilot หรือ Gemini ได้ทันที ✅ ฟีเจอร์เสริมผ่าน Logi Options+ ➡️ ปรับแต่งปุ่มได้ตามต้องการ รวมถึง Smart Actions ➡️ สร้าง automation เช่น เปิดหลายแอปพร้อมกัน หรือส่งคำสั่งชุดเดียว ➡️ รองรับระบบ Android, ChromeOS, Linux, macOS และ Windows https://www.tomshardware.com/peripherals/keyboards/solar-powered-logitech-keyboard-appears-on-amazon-mexico-mx-keys-s-look-alike-promises-up-to-10-years-of-power
    0 Comments 0 Shares 63 Views 0 Reviews
  • เรื่องเล่าจาก CVE-2025-50173: เมื่อการป้องกันการยกระดับสิทธิ์กลายเป็นกับดักสำหรับผู้ใช้ทั่วไป

    Microsoft ได้ปล่อยอัปเดตความปลอดภัย KB5063878 สำหรับ Windows 10, 11 และ Server ทุกรุ่นในเดือนสิงหาคม 2025 เพื่อแก้ไขช่องโหว่ CVE-2025-50173 ซึ่งเป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer โดยผู้โจมตีสามารถใช้ MSI repair flow เพื่อยกระดับสิทธิ์เป็น SYSTEM ได้

    เพื่อปิดช่องโหว่นี้ Microsoft ได้เพิ่มความเข้มงวดของระบบ UAC (User Account Control) โดยบังคับให้มีการขอสิทธิ์แอดมินเมื่อมีการเรียกใช้ MSI repair หรือการติดตั้งบางประเภท แม้จะเป็นผู้ใช้ทั่วไปที่เคยใช้งานได้ตามปกติก็ตาม

    ผลที่ตามมาคือ ผู้ใช้ที่ไม่ใช่แอดมินจะเจอหน้าต่าง UAC เด้งขึ้นมาโดยไม่คาดคิด หรือบางครั้งแอปจะล้มเหลวทันทีโดยไม่มีการแจ้งเตือน เช่น การติดตั้ง Office 2010 จะล้มเหลวด้วย error code 1730 หรือ Autodesk AutoCAD จะไม่สามารถเปิดได้หากมีการเรียก MSI repair แบบเบื้องหลัง

    Microsoft แนะนำให้ผู้ใช้ทั่วไป “คลิกขวาแล้วเลือก Run as administrator” เพื่อหลีกเลี่ยงปัญหา และสำหรับองค์กรสามารถใช้ Group Policy ที่ชื่อ Known Issue Rollback (KIR) เพื่อย้อนการเปลี่ยนแปลงนี้ชั่วคราว

    ในอนาคต Microsoft วางแผนจะให้แอดมินสามารถอนุญาตให้แอปบางตัวทำ MSI repair ได้โดยไม่ต้องขอสิทธิ์ทุกครั้ง แต่ตอนนี้ยังไม่มีแพตช์แก้ไขถาวร

    ช่องโหว่ CVE-2025-50173 และการแก้ไข
    เป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer
    Microsoft แก้ไขด้วยการเพิ่มความเข้มงวดของ UAC
    ส่งผลให้ผู้ใช้ทั่วไปเจอ UAC prompt หรือแอปล้มเหลว

    ผลกระทบต่อผู้ใช้ทั่วไป
    แอปที่ใช้ MSI repair เช่น Office 2010, Autodesk, SAP อาจล้มเหลว
    การติดตั้งแบบ per-user หรือ Active Setup จะเจอ UAC prompt
    การ deploy ผ่าน ConfigMgr ที่ใช้ “advertising” จะล้มเหลว

    วิธีแก้ไขชั่วคราว
    ผู้ใช้ทั่วไปควรใช้ “Run as administrator” เพื่อเปิดแอป
    องค์กรสามารถใช้ Group Policy แบบ KIR เพื่อย้อนการเปลี่ยนแปลง
    Microsoft กำลังพัฒนาให้แอดมินอนุญาตแอปเฉพาะได้ในอนาคต

    แพลตฟอร์มที่ได้รับผลกระทบ
    Windows 11 ทุกรุ่น (22H2, 23H2, 24H2)
    Windows 10 (21H2, 22H2) และ Windows Server ตั้งแต่ 2012
    Enterprise และ Server editions ได้รับผลกระทบเช่นกัน

    https://www.tomshardware.com/software/windows/windows-11-august-2025-security-update-is-causing-unintended-uac-prompts-to-appear-for-non-admin-users-some-apps-are-crashing
    🎙️ เรื่องเล่าจาก CVE-2025-50173: เมื่อการป้องกันการยกระดับสิทธิ์กลายเป็นกับดักสำหรับผู้ใช้ทั่วไป Microsoft ได้ปล่อยอัปเดตความปลอดภัย KB5063878 สำหรับ Windows 10, 11 และ Server ทุกรุ่นในเดือนสิงหาคม 2025 เพื่อแก้ไขช่องโหว่ CVE-2025-50173 ซึ่งเป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer โดยผู้โจมตีสามารถใช้ MSI repair flow เพื่อยกระดับสิทธิ์เป็น SYSTEM ได้ เพื่อปิดช่องโหว่นี้ Microsoft ได้เพิ่มความเข้มงวดของระบบ UAC (User Account Control) โดยบังคับให้มีการขอสิทธิ์แอดมินเมื่อมีการเรียกใช้ MSI repair หรือการติดตั้งบางประเภท แม้จะเป็นผู้ใช้ทั่วไปที่เคยใช้งานได้ตามปกติก็ตาม ผลที่ตามมาคือ ผู้ใช้ที่ไม่ใช่แอดมินจะเจอหน้าต่าง UAC เด้งขึ้นมาโดยไม่คาดคิด หรือบางครั้งแอปจะล้มเหลวทันทีโดยไม่มีการแจ้งเตือน เช่น การติดตั้ง Office 2010 จะล้มเหลวด้วย error code 1730 หรือ Autodesk AutoCAD จะไม่สามารถเปิดได้หากมีการเรียก MSI repair แบบเบื้องหลัง Microsoft แนะนำให้ผู้ใช้ทั่วไป “คลิกขวาแล้วเลือก Run as administrator” เพื่อหลีกเลี่ยงปัญหา และสำหรับองค์กรสามารถใช้ Group Policy ที่ชื่อ Known Issue Rollback (KIR) เพื่อย้อนการเปลี่ยนแปลงนี้ชั่วคราว ในอนาคต Microsoft วางแผนจะให้แอดมินสามารถอนุญาตให้แอปบางตัวทำ MSI repair ได้โดยไม่ต้องขอสิทธิ์ทุกครั้ง แต่ตอนนี้ยังไม่มีแพตช์แก้ไขถาวร ✅ ช่องโหว่ CVE-2025-50173 และการแก้ไข ➡️ เป็นช่องโหว่ด้านการยกระดับสิทธิ์ผ่าน Windows Installer ➡️ Microsoft แก้ไขด้วยการเพิ่มความเข้มงวดของ UAC ➡️ ส่งผลให้ผู้ใช้ทั่วไปเจอ UAC prompt หรือแอปล้มเหลว ✅ ผลกระทบต่อผู้ใช้ทั่วไป ➡️ แอปที่ใช้ MSI repair เช่น Office 2010, Autodesk, SAP อาจล้มเหลว ➡️ การติดตั้งแบบ per-user หรือ Active Setup จะเจอ UAC prompt ➡️ การ deploy ผ่าน ConfigMgr ที่ใช้ “advertising” จะล้มเหลว ✅ วิธีแก้ไขชั่วคราว ➡️ ผู้ใช้ทั่วไปควรใช้ “Run as administrator” เพื่อเปิดแอป ➡️ องค์กรสามารถใช้ Group Policy แบบ KIR เพื่อย้อนการเปลี่ยนแปลง ➡️ Microsoft กำลังพัฒนาให้แอดมินอนุญาตแอปเฉพาะได้ในอนาคต ✅ แพลตฟอร์มที่ได้รับผลกระทบ ➡️ Windows 11 ทุกรุ่น (22H2, 23H2, 24H2) ➡️ Windows 10 (21H2, 22H2) และ Windows Server ตั้งแต่ 2012 ➡️ Enterprise และ Server editions ได้รับผลกระทบเช่นกัน https://www.tomshardware.com/software/windows/windows-11-august-2025-security-update-is-causing-unintended-uac-prompts-to-appear-for-non-admin-users-some-apps-are-crashing
    0 Comments 0 Shares 63 Views 0 Reviews
  • SONDHITALK : ผู้เฒ่าเล่าเรื่อง Ep309 (live)
    การเมืองเรื่องผลประโยชน์ ศึกชิงเก้าอี้นายกฯ ทำให้เห็นอะไรที่ไม่เคยได้เห็น เละเทะยิ่งกว่าขยะ

    คลิก https://m.youtube.com/watch?v=QzZ_hXhe_x0
    🔴 SONDHITALK : ผู้เฒ่าเล่าเรื่อง Ep309 (live) การเมืองเรื่องผลประโยชน์ ศึกชิงเก้าอี้นายกฯ ทำให้เห็นอะไรที่ไม่เคยได้เห็น เละเทะยิ่งกว่าขยะ • คลิก https://m.youtube.com/watch?v=QzZ_hXhe_x0
    Like
    Love
    Yay
    22
    14 Comments 0 Shares 424 Views 1 Reviews
  • เรื่องเล่าจาก Dragonfly ถึง $10M: เมื่อสหรัฐฯ ประกาศล่าตัวแฮกเกอร์รัฐรัสเซียที่เจาะโครงสร้างพื้นฐานทั่วโลก

    กระทรวงการต่างประเทศสหรัฐฯ ประกาศตั้งรางวัลสูงถึง $10 ล้าน สำหรับผู้ให้ข้อมูลนำไปสู่การจับกุมแฮกเกอร์ชาวรัสเซีย 3 ราย ได้แก่ Marat Tyukov, Mikhail Gavrilov และ Pavel Akulov ซึ่งเป็นเจ้าหน้าที่ของ FSB หน่วยข่าวกรองของรัสเซีย และเป็นสมาชิกของ Center 16 หรือที่รู้จักในวงการไซเบอร์ว่า Dragonfly, Berserk Bear, Energetic Bear และ Crouching Yeti

    ตั้งแต่ปี 2012–2017 กลุ่มนี้ได้เจาะระบบของโรงงานพลังงานกว่า 500 แห่งใน 135 ประเทศ รวมถึงโรงไฟฟ้านิวเคลียร์, ระบบส่งกำลัง, บริษัทน้ำมันและก๊าซ, และแม้แต่หน่วยงานรัฐบาลสหรัฐฯ เช่น Nuclear Regulatory Commission โดยใช้เทคนิคหลากหลาย เช่น spear-phishing, watering hole, supply chain attack และการฝังมัลแวร์ Havex

    หนึ่งในเหตุการณ์ที่ร้ายแรงที่สุดคือการเจาะระบบโรงกลั่นน้ำมันในปี 2017 และติดตั้งมัลแวร์ที่ทำให้ระบบควบคุมความปลอดภัย (ICS) “ดูเหมือนทำงานปกติ” ทั้งที่จริงแล้วสามารถทำให้เกิดอันตรายต่อชีวิตและทรัพย์สินได้ทันที

    แม้ Cisco จะออกแพตช์แก้ไขช่องโหว่ CVE-2018-0171 ตั้งแต่ปี 2018 แต่กลุ่มนี้ยังคงใช้ช่องโหว่นี้เจาะระบบที่ยังใช้อุปกรณ์รุ่นเก่า โดยเฉพาะ Smart Install บน IOS และ IOS XE ซึ่งไม่ต้องมีการยืนยันตัวตนในการเข้าถึง configuration

    การโจมตีล่าสุดยังพบว่ากลุ่มนี้ใช้ช่องโหว่เดิมเพื่อเข้าถึงระบบเครือข่ายของมหาวิทยาลัย, หน่วยงานรัฐท้องถิ่น, ผู้ให้บริการโทรคมนาคม และโรงงานอุตสาหกรรมในหลายประเทศทั่วโลก โดย FBI เตือนว่าองค์กรอาจไม่รู้ตัวเลยว่าระบบถูกเปลี่ยนแปลง จนกว่าจะเกิดการโจมตีขั้นที่สองที่สร้างความเสียหายจริง

    การตั้งรางวัลนำจับโดยสหรัฐฯ
    กระทรวงการต่างประเทศเสนอรางวัล $10M ผ่านโปรแกรม Rewards for Justice
    เป้าหมายคือเจ้าหน้าที่ FSB 3 รายที่เกี่ยวข้องกับการเจาะโครงสร้างพื้นฐาน
    เปิดช่องทางรับข้อมูลผ่าน Tor เพื่อความปลอดภัยของผู้แจ้งเบาะแส

    กลุ่ม Dragonfly และประวัติการโจมตี
    เป็นหน่วย Center 16 ของ FSB มีชื่อเรียกหลายชื่อในวงการไซเบอร์
    เคยเจาะระบบโรงงานพลังงานกว่า 500 แห่งใน 135 ประเทศ
    ใช้เทคนิค Havex, watering hole, spear-phishing และ supply chain attack

    ช่องโหว่ CVE-2018-0171 และการใช้งานล่าสุด
    เป็นช่องโหว่ใน Smart Install ของ Cisco IOS/IOS XE
    เปิดให้เข้าถึง configuration โดยไม่ต้องยืนยันตัวตน
    ยังถูกใช้เจาะระบบที่ใช้อุปกรณ์รุ่นเก่าที่ไม่ได้รับการอัปเดต

    ผลกระทบต่อโครงสร้างพื้นฐาน
    ระบบ ICS/SCADA ถูกเจาะเพื่อเตรียมการโจมตีขั้นที่สอง
    องค์กรอาจไม่รู้ตัวว่าระบบถูกเปลี่ยนแปลง
    มีความเสี่ยงต่อระบบพลังงาน, น้ำ, และการสื่อสารทั่วโลก

    https://www.tomshardware.com/tech-industry/cyber-security/us-offers-usd10m-reward-for-snitching-on-trio-of-russians-who-hacked-critical-infrastructure
    🎙️ เรื่องเล่าจาก Dragonfly ถึง $10M: เมื่อสหรัฐฯ ประกาศล่าตัวแฮกเกอร์รัฐรัสเซียที่เจาะโครงสร้างพื้นฐานทั่วโลก กระทรวงการต่างประเทศสหรัฐฯ ประกาศตั้งรางวัลสูงถึง $10 ล้าน สำหรับผู้ให้ข้อมูลนำไปสู่การจับกุมแฮกเกอร์ชาวรัสเซีย 3 ราย ได้แก่ Marat Tyukov, Mikhail Gavrilov และ Pavel Akulov ซึ่งเป็นเจ้าหน้าที่ของ FSB หน่วยข่าวกรองของรัสเซีย และเป็นสมาชิกของ Center 16 หรือที่รู้จักในวงการไซเบอร์ว่า Dragonfly, Berserk Bear, Energetic Bear และ Crouching Yeti ตั้งแต่ปี 2012–2017 กลุ่มนี้ได้เจาะระบบของโรงงานพลังงานกว่า 500 แห่งใน 135 ประเทศ รวมถึงโรงไฟฟ้านิวเคลียร์, ระบบส่งกำลัง, บริษัทน้ำมันและก๊าซ, และแม้แต่หน่วยงานรัฐบาลสหรัฐฯ เช่น Nuclear Regulatory Commission โดยใช้เทคนิคหลากหลาย เช่น spear-phishing, watering hole, supply chain attack และการฝังมัลแวร์ Havex หนึ่งในเหตุการณ์ที่ร้ายแรงที่สุดคือการเจาะระบบโรงกลั่นน้ำมันในปี 2017 และติดตั้งมัลแวร์ที่ทำให้ระบบควบคุมความปลอดภัย (ICS) “ดูเหมือนทำงานปกติ” ทั้งที่จริงแล้วสามารถทำให้เกิดอันตรายต่อชีวิตและทรัพย์สินได้ทันที แม้ Cisco จะออกแพตช์แก้ไขช่องโหว่ CVE-2018-0171 ตั้งแต่ปี 2018 แต่กลุ่มนี้ยังคงใช้ช่องโหว่นี้เจาะระบบที่ยังใช้อุปกรณ์รุ่นเก่า โดยเฉพาะ Smart Install บน IOS และ IOS XE ซึ่งไม่ต้องมีการยืนยันตัวตนในการเข้าถึง configuration การโจมตีล่าสุดยังพบว่ากลุ่มนี้ใช้ช่องโหว่เดิมเพื่อเข้าถึงระบบเครือข่ายของมหาวิทยาลัย, หน่วยงานรัฐท้องถิ่น, ผู้ให้บริการโทรคมนาคม และโรงงานอุตสาหกรรมในหลายประเทศทั่วโลก โดย FBI เตือนว่าองค์กรอาจไม่รู้ตัวเลยว่าระบบถูกเปลี่ยนแปลง จนกว่าจะเกิดการโจมตีขั้นที่สองที่สร้างความเสียหายจริง ✅ การตั้งรางวัลนำจับโดยสหรัฐฯ ➡️ กระทรวงการต่างประเทศเสนอรางวัล $10M ผ่านโปรแกรม Rewards for Justice ➡️ เป้าหมายคือเจ้าหน้าที่ FSB 3 รายที่เกี่ยวข้องกับการเจาะโครงสร้างพื้นฐาน ➡️ เปิดช่องทางรับข้อมูลผ่าน Tor เพื่อความปลอดภัยของผู้แจ้งเบาะแส ✅ กลุ่ม Dragonfly และประวัติการโจมตี ➡️ เป็นหน่วย Center 16 ของ FSB มีชื่อเรียกหลายชื่อในวงการไซเบอร์ ➡️ เคยเจาะระบบโรงงานพลังงานกว่า 500 แห่งใน 135 ประเทศ ➡️ ใช้เทคนิค Havex, watering hole, spear-phishing และ supply chain attack ✅ ช่องโหว่ CVE-2018-0171 และการใช้งานล่าสุด ➡️ เป็นช่องโหว่ใน Smart Install ของ Cisco IOS/IOS XE ➡️ เปิดให้เข้าถึง configuration โดยไม่ต้องยืนยันตัวตน ➡️ ยังถูกใช้เจาะระบบที่ใช้อุปกรณ์รุ่นเก่าที่ไม่ได้รับการอัปเดต ✅ ผลกระทบต่อโครงสร้างพื้นฐาน ➡️ ระบบ ICS/SCADA ถูกเจาะเพื่อเตรียมการโจมตีขั้นที่สอง ➡️ องค์กรอาจไม่รู้ตัวว่าระบบถูกเปลี่ยนแปลง ➡️ มีความเสี่ยงต่อระบบพลังงาน, น้ำ, และการสื่อสารทั่วโลก https://www.tomshardware.com/tech-industry/cyber-security/us-offers-usd10m-reward-for-snitching-on-trio-of-russians-who-hacked-critical-infrastructure
    0 Comments 0 Shares 108 Views 0 Reviews
  • เรื่องเล่าจาก TS434U: เมื่อกล่องเก็บข้อมูลกลายเป็นอุปกรณ์ที่ “คิดเผื่อ” ให้คุณแล้ว

    SilverStone เปิดตัว TS434U ซึ่งเป็นกล่องเก็บข้อมูลแบบ external ขนาด 4-bay ที่รองรับทั้ง HDD และ SSD ขนาด 3.5 นิ้วและ 2.5 นิ้ว โดยใช้การเชื่อมต่อผ่าน USB 3.2 Gen 2 Type-C ที่ให้ความเร็วสูงสุดถึง 10Gbps พร้อมระบบ hot-swap ที่ให้คุณเปลี่ยนไดรฟ์ได้ทันทีโดยไม่ต้องปิดเครื่อง

    ภายในตัวกล่องใช้ชิปควบคุมจาก ASMedia ได้แก่ ASM2074 และ ASM235CM จำนวน 4 ตัว เพื่อจัดการการเชื่อมต่อของแต่ละไดรฟ์อย่างมีประสิทธิภาพ และยังมีพัดลมขนาด 120 มม. ที่ติดตั้งด้านล่างเพื่อระบายความร้อน พร้อมระบบป้องกันความร้อนเกินแบบ built-in

    ดีไซน์ด้านหน้ามีฝาแม่เหล็กที่สามารถถอดออกและติดไว้ด้านข้างได้ เพื่อให้เข้าถึงไดรฟ์ได้ง่าย และยังช่วยซ่อนไฟ LED ที่แสดงสถานะของพลังงาน พัดลม และการทำงานของแต่ละไดรฟ์ด้วยสีที่แตกต่างกัน

    TS434U ไม่รองรับ hardware RAID แต่สามารถตั้งค่า software RAID ผ่านระบบปฏิบัติการ เช่น macOS Disk Utility หรือ Windows Storage Spaces ได้ตามต้องการ

    คุณสมบัติหลักของ SilverStone TS434U
    รองรับ 4 × 3.5" HDD หรือ 2.5" SSD ด้วย SATA I/II/III
    เชื่อมต่อผ่าน USB 3.2 Gen 2 Type-C ความเร็วสูงสุด 10Gbps
    รองรับ hot-swap เปลี่ยนไดรฟ์ได้ทันทีโดยไม่ต้องปิดเครื่อง

    ระบบภายในและการควบคุม
    ใช้ชิป ASMedia ASM2074 และ ASM235CM × 4
    พัดลม 120 มม. แบบ dual-ball bearing ติดตั้งด้านล่าง
    มีระบบป้องกันความร้อนเกินและ sleep mode ประหยัดพลังงาน

    ดีไซน์และการใช้งาน
    ฝาแม่เหล็กด้านหน้า ถอดและติดด้านข้างได้
    LED แสดงสถานะพลังงาน พัดลม และ HDD แต่ละตัว
    ติดตั้งไดรฟ์แบบ tool-free สำหรับ 3.5" HDD

    การตั้งค่า RAID และการใช้งานร่วมกับระบบ
    ไม่รองรับ hardware RAID ต้องใช้ software RAID ผ่าน OS
    รองรับ macOS, Windows, Linux และระบบอื่น ๆ
    เหมาะกับงานสำรองข้อมูล, สื่อมัลติมีเดีย, และการใช้งานระดับมืออาชีพ

    https://www.techpowerup.com/340672/silverstone-launches-ts434u-external-4-bay-10gbps-sata-hot-swap-hard-drive-enclosure
    🎙️ เรื่องเล่าจาก TS434U: เมื่อกล่องเก็บข้อมูลกลายเป็นอุปกรณ์ที่ “คิดเผื่อ” ให้คุณแล้ว SilverStone เปิดตัว TS434U ซึ่งเป็นกล่องเก็บข้อมูลแบบ external ขนาด 4-bay ที่รองรับทั้ง HDD และ SSD ขนาด 3.5 นิ้วและ 2.5 นิ้ว โดยใช้การเชื่อมต่อผ่าน USB 3.2 Gen 2 Type-C ที่ให้ความเร็วสูงสุดถึง 10Gbps พร้อมระบบ hot-swap ที่ให้คุณเปลี่ยนไดรฟ์ได้ทันทีโดยไม่ต้องปิดเครื่อง ภายในตัวกล่องใช้ชิปควบคุมจาก ASMedia ได้แก่ ASM2074 และ ASM235CM จำนวน 4 ตัว เพื่อจัดการการเชื่อมต่อของแต่ละไดรฟ์อย่างมีประสิทธิภาพ และยังมีพัดลมขนาด 120 มม. ที่ติดตั้งด้านล่างเพื่อระบายความร้อน พร้อมระบบป้องกันความร้อนเกินแบบ built-in ดีไซน์ด้านหน้ามีฝาแม่เหล็กที่สามารถถอดออกและติดไว้ด้านข้างได้ เพื่อให้เข้าถึงไดรฟ์ได้ง่าย และยังช่วยซ่อนไฟ LED ที่แสดงสถานะของพลังงาน พัดลม และการทำงานของแต่ละไดรฟ์ด้วยสีที่แตกต่างกัน TS434U ไม่รองรับ hardware RAID แต่สามารถตั้งค่า software RAID ผ่านระบบปฏิบัติการ เช่น macOS Disk Utility หรือ Windows Storage Spaces ได้ตามต้องการ ✅ คุณสมบัติหลักของ SilverStone TS434U ➡️ รองรับ 4 × 3.5" HDD หรือ 2.5" SSD ด้วย SATA I/II/III ➡️ เชื่อมต่อผ่าน USB 3.2 Gen 2 Type-C ความเร็วสูงสุด 10Gbps ➡️ รองรับ hot-swap เปลี่ยนไดรฟ์ได้ทันทีโดยไม่ต้องปิดเครื่อง ✅ ระบบภายในและการควบคุม ➡️ ใช้ชิป ASMedia ASM2074 และ ASM235CM × 4 ➡️ พัดลม 120 มม. แบบ dual-ball bearing ติดตั้งด้านล่าง ➡️ มีระบบป้องกันความร้อนเกินและ sleep mode ประหยัดพลังงาน ✅ ดีไซน์และการใช้งาน ➡️ ฝาแม่เหล็กด้านหน้า ถอดและติดด้านข้างได้ ➡️ LED แสดงสถานะพลังงาน พัดลม และ HDD แต่ละตัว ➡️ ติดตั้งไดรฟ์แบบ tool-free สำหรับ 3.5" HDD ✅ การตั้งค่า RAID และการใช้งานร่วมกับระบบ ➡️ ไม่รองรับ hardware RAID ต้องใช้ software RAID ผ่าน OS ➡️ รองรับ macOS, Windows, Linux และระบบอื่น ๆ ➡️ เหมาะกับงานสำรองข้อมูล, สื่อมัลติมีเดีย, และการใช้งานระดับมืออาชีพ https://www.techpowerup.com/340672/silverstone-launches-ts434u-external-4-bay-10gbps-sata-hot-swap-hard-drive-enclosure
    WWW.TECHPOWERUP.COM
    SilverStone Launches TS434U External 4-Bay 10Gbps SATA Hot-Swap Hard Drive Enclosure
    SilverStone has launched the TS434U, a compact external hard drive enclosure designed for users who need high-capacity storage with modern connectivity. Measuring 158 mm × 173 mm × 210 mm, it holds up to four 3.5-inch HDDs or 2.5-inch SSDs using regular SATA I/II/III connections with full hot-swap f...
    0 Comments 0 Shares 51 Views 0 Reviews
  • เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว

    Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ

    ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime

    ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น

    ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7

    นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที

    สเปกหลักของ GIGABYTE XL44-SX2-AAS1
    ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
    แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
    ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว

    ความสามารถด้านการเชื่อมต่อและประมวลผล
    รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
    มี 2×400GbE external connections สำหรับ data center traffic
    รองรับ GPU-to-GPU direct communication สำหรับ distributed AI

    ฮาร์ดแวร์ระดับ data center
    Dual Intel Xeon 6700/6500 series CPU
    รองรับ DDR5 DIMM สูงสุด 32 แถว
    พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium

    ซอฟต์แวร์และการใช้งาน
    มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
    รองรับงาน AI inference, physical AI, 3D simulation, video processing
    ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization

    การใช้งานในอุตสาหกรรม
    เหมาะกับ smart manufacturing, financial modeling, medical research
    รองรับ LLM inference และการสร้าง digital twins
    พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025

    https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7 นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที ✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1 ➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว ➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32 ➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว ✅ ความสามารถด้านการเชื่อมต่อและประมวลผล ➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU ➡️ มี 2×400GbE external connections สำหรับ data center traffic ➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI ✅ ฮาร์ดแวร์ระดับ data center ➡️ Dual Intel Xeon 6700/6500 series CPU ➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว ➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium ✅ ซอฟต์แวร์และการใช้งาน ➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos ➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing ➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization ✅ การใช้งานในอุตสาหกรรม ➡️ เหมาะกับ smart manufacturing, financial modeling, medical research ➡️ รองรับ LLM inference และการสร้าง digital twins ➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025 https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    WWW.TECHPOWERUP.COM
    Giga Computing Expands NVIDIA RTX PRO Server Portfolio
    Giga Computing, a subsidiary of GIGABYTE Group, today announced the availability of the XL44-SX2-AAS1 server, integrating NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs with the NVIDIA BlueField-3 DPU and NVIDIA ConnectX-8 SuperNICs, this breakthrough platform unifies computing and high-speed dat...
    0 Comments 0 Shares 56 Views 0 Reviews
  • "ทักษิณ ชินวัตร" สร้างกระแสฮือฮา หลังมีรายงานเดินทางออกนอกประเทศด้วยเครื่องบินส่วนตัว โดยตอนแรกคาดหมายปลายทางสิงคโปร์ แต่เส้นทางบินกลับไปสิ้นสุดที่ดูไบ สหรัฐอาหรับเอมิเรตส์ ยืนยันกลับไทย 8 ก.ย. ตามนัดศาล 9 ก.ย.

    อ่านต่อ..https://news1live.com/detail/9680000084908

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด

    "ทักษิณ ชินวัตร" สร้างกระแสฮือฮา หลังมีรายงานเดินทางออกนอกประเทศด้วยเครื่องบินส่วนตัว โดยตอนแรกคาดหมายปลายทางสิงคโปร์ แต่เส้นทางบินกลับไปสิ้นสุดที่ดูไบ สหรัฐอาหรับเอมิเรตส์ ยืนยันกลับไทย 8 ก.ย. ตามนัดศาล 9 ก.ย. อ่านต่อ..https://news1live.com/detail/9680000084908 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    Like
    Love
    Haha
    3
    0 Comments 0 Shares 230 Views 0 Reviews
  • เรื่องเล่าจาก AI Search: เมื่อ Hostinger แซง AWS และ GoDaddy ส่วน Wix ครองใจคนสร้างเว็บแบบง่ายที่สุด

    ข้อมูลล่าสุดจาก Similarweb และ Google Trends เผยว่า Hostinger มีการปรากฏใน AI-driven search มากกว่า 1.6 ล้านครั้งในช่วงไตรมาสที่ผ่านมา ซึ่งมากกว่า AWS ถึง 3 เท่า และแซง GoDaddy อย่างชัดเจน แม้จะเป็นแบรนด์เล็กกว่าในแง่โครงสร้างพื้นฐาน แต่ Hostinger กลับกลายเป็น “ชื่อที่ AI แนะนำ” บ่อยที่สุดเมื่อผู้ใช้ถามหาเว็บโฮสติ้ง

    สิ่งที่ผลักดัน Hostinger คือการผสานบริการโฮสติ้งเข้ากับเครื่องมือสร้างเว็บไซต์แบบ AI ที่พัฒนาอย่างรวดเร็วหลังจากเข้าซื้อ Zyro โดยเน้นความง่าย ราคาถูก และการใช้งานที่ไม่ต้องมีความรู้ด้านเทคนิคมากนัก

    ในขณะเดียวกัน Wix ยังคงครองตำแหน่งสูงสุดในกลุ่มผู้สร้างเว็บไซต์ โดยมีการโต้ตอบมากกว่า 450,000 ครั้งใน AI search ซึ่งมากกว่า Squarespace ถึง 5 เท่า และเหนือกว่า Weebly อย่างชัดเจน จุดแข็งของ Wix คือระบบ drag-and-drop, เทมเพลตมากกว่า 900 แบบ, และระบบ design automation ที่ช่วยให้ผู้ใช้ทั่วไปสร้างเว็บไซต์ได้ในไม่กี่นาที

    แม้ตัวเลขการปรากฏใน AI search จะไม่เท่ากับยอดขายหรือรายได้โดยตรง แต่ก็สะท้อนถึง “mindshare” หรือการรับรู้แบรนด์ในยุคที่ผู้ใช้พึ่งพา AI ในการค้นหามากขึ้นเรื่อย ๆ

    Hostinger ครองอันดับสูงสุดใน AI search
    มีการปรากฏใน AI-driven search มากกว่า 1.6 ล้านครั้ง
    แซง AWS (ต่ำกว่า 500,000 ครั้ง) และ GoDaddy อย่างชัดเจน
    ได้รับการเชื่อมโยงกับบริการ AI website builder อย่างต่อเนื่อง

    Wix ยังคงเป็นผู้นำด้านการสร้างเว็บไซต์
    มีการโต้ตอบใน AI search มากกว่า 450,000 ครั้ง
    ใช้ระบบ drag-and-drop, automation, และ e-commerce tools
    เหมาะกับผู้ใช้ทั่วไปและธุรกิจขนาดเล็กที่ต้องการความง่าย

    การเปลี่ยนแปลงในพฤติกรรมผู้ใช้
    AI search กลายเป็นช่องทางหลักในการค้นหาบริการดิจิทัล
    ความถี่ในการปรากฏใน AI search เริ่มกลายเป็นตัวชี้วัดความสำเร็จ
    ผู้ใช้ให้ความสำคัญกับความง่ายและความเร็วมากกว่าความลึกทางเทคนิค

    การแข่งขันในตลาดสร้างเว็บไซต์
    Squarespace และ Weebly ยังอยู่ในอันดับรอง แต่มีการโต้ตอบน้อยกว่า Wix
    Hostinger เริ่มแย่งพื้นที่จากผู้เล่นเก่าในกลุ่ม website builder
    การรวม hosting + AI builder กลายเป็นแนวโน้มใหม่ของตลาด

    https://www.techradar.com/pro/hostinger-is-the-top-performing-web-hosting-firm-in-ai-search-while-wix-takes-top-trumps-for-website-builders
    🎙️ เรื่องเล่าจาก AI Search: เมื่อ Hostinger แซง AWS และ GoDaddy ส่วน Wix ครองใจคนสร้างเว็บแบบง่ายที่สุด ข้อมูลล่าสุดจาก Similarweb และ Google Trends เผยว่า Hostinger มีการปรากฏใน AI-driven search มากกว่า 1.6 ล้านครั้งในช่วงไตรมาสที่ผ่านมา ซึ่งมากกว่า AWS ถึง 3 เท่า และแซง GoDaddy อย่างชัดเจน แม้จะเป็นแบรนด์เล็กกว่าในแง่โครงสร้างพื้นฐาน แต่ Hostinger กลับกลายเป็น “ชื่อที่ AI แนะนำ” บ่อยที่สุดเมื่อผู้ใช้ถามหาเว็บโฮสติ้ง สิ่งที่ผลักดัน Hostinger คือการผสานบริการโฮสติ้งเข้ากับเครื่องมือสร้างเว็บไซต์แบบ AI ที่พัฒนาอย่างรวดเร็วหลังจากเข้าซื้อ Zyro โดยเน้นความง่าย ราคาถูก และการใช้งานที่ไม่ต้องมีความรู้ด้านเทคนิคมากนัก ในขณะเดียวกัน Wix ยังคงครองตำแหน่งสูงสุดในกลุ่มผู้สร้างเว็บไซต์ โดยมีการโต้ตอบมากกว่า 450,000 ครั้งใน AI search ซึ่งมากกว่า Squarespace ถึง 5 เท่า และเหนือกว่า Weebly อย่างชัดเจน จุดแข็งของ Wix คือระบบ drag-and-drop, เทมเพลตมากกว่า 900 แบบ, และระบบ design automation ที่ช่วยให้ผู้ใช้ทั่วไปสร้างเว็บไซต์ได้ในไม่กี่นาที แม้ตัวเลขการปรากฏใน AI search จะไม่เท่ากับยอดขายหรือรายได้โดยตรง แต่ก็สะท้อนถึง “mindshare” หรือการรับรู้แบรนด์ในยุคที่ผู้ใช้พึ่งพา AI ในการค้นหามากขึ้นเรื่อย ๆ ✅ Hostinger ครองอันดับสูงสุดใน AI search ➡️ มีการปรากฏใน AI-driven search มากกว่า 1.6 ล้านครั้ง ➡️ แซง AWS (ต่ำกว่า 500,000 ครั้ง) และ GoDaddy อย่างชัดเจน ➡️ ได้รับการเชื่อมโยงกับบริการ AI website builder อย่างต่อเนื่อง ✅ Wix ยังคงเป็นผู้นำด้านการสร้างเว็บไซต์ ➡️ มีการโต้ตอบใน AI search มากกว่า 450,000 ครั้ง ➡️ ใช้ระบบ drag-and-drop, automation, และ e-commerce tools ➡️ เหมาะกับผู้ใช้ทั่วไปและธุรกิจขนาดเล็กที่ต้องการความง่าย ✅ การเปลี่ยนแปลงในพฤติกรรมผู้ใช้ ➡️ AI search กลายเป็นช่องทางหลักในการค้นหาบริการดิจิทัล ➡️ ความถี่ในการปรากฏใน AI search เริ่มกลายเป็นตัวชี้วัดความสำเร็จ ➡️ ผู้ใช้ให้ความสำคัญกับความง่ายและความเร็วมากกว่าความลึกทางเทคนิค ✅ การแข่งขันในตลาดสร้างเว็บไซต์ ➡️ Squarespace และ Weebly ยังอยู่ในอันดับรอง แต่มีการโต้ตอบน้อยกว่า Wix ➡️ Hostinger เริ่มแย่งพื้นที่จากผู้เล่นเก่าในกลุ่ม website builder ➡️ การรวม hosting + AI builder กลายเป็นแนวโน้มใหม่ของตลาด https://www.techradar.com/pro/hostinger-is-the-top-performing-web-hosting-firm-in-ai-search-while-wix-takes-top-trumps-for-website-builders
    0 Comments 0 Shares 50 Views 0 Reviews
  • เรื่องเล่าจาก Inbound 2025: เมื่อ AI ไม่ได้มาแทนคน แต่มาเป็นทีมร่วมงานที่ขับเคลื่อนธุรกิจ

    ในงาน HubSpot Inbound 2025 ที่จัดขึ้นที่ซานฟรานซิสโก มีการเปิดตัวเครื่องมือใหม่กว่า 200 รายการที่เน้นการสร้าง “ทีมลูกผสม” ระหว่างมนุษย์กับ AI โดยมีแนวคิดหลักคือ “The Loop”—กรอบการทำงานที่ประกอบด้วย 3 ขั้นตอน: เชื่อมโยงข้อมูลทั้งหมด, สร้างทีม AI, และเปิดโอกาสให้คนทำงานได้เต็มศักยภาพ

    CEO Yamini Rangan ย้ำว่า organic traffic กำลังตายลง และการตลาดต้องเปลี่ยนจากการไล่ตามคลิก ไปสู่การสร้างความไว้วางใจผ่านช่องทางใหม่ เช่น podcast, newsletter และ social ที่มีความจริงใจมากกว่า

    HubSpot เปิดตัว Data Hub, Smart CRM ที่มี “project object” สำหรับติดตามงานแบบละเอียด และ Breeze agents ที่สามารถสร้างข้อความแบบเฉพาะบุคคลในทุกช่องทางแบบ real-time

    SmartBug, Wistia, AdRoll, Cvent และ Docket ต่างก็โชว์การใช้ AI เพื่อเพิ่มประสิทธิภาพในงานของตน เช่น SmartBug สร้าง AI agent สำหรับการ onboarding และ migration, Wistia ใช้ AI ในการวิเคราะห์วิดีโอ B2B, ส่วน Docket เสนอ AI concierge ที่ช่วยตอบคำถามและเปลี่ยน traffic เป็น lead

    Anthropic ก็เข้าร่วมงาน โดย CEO Dario Amodei พูดถึง Claude ที่เคยถูกใช้ใน ransomware โดยรัฐ แต่ตอนนี้ถูกปรับให้ปลอดภัยขึ้น พร้อมเปิดตัว Claude Code ที่หวังจะเป็น “AWS ของยุค AI”

    แนวคิดหลักจาก HubSpot
    “The Loop” คือกรอบการทำงานใหม่: เชื่อมข้อมูล, สร้างทีม AI, เปิดศักยภาพคน
    เน้น “human authenticity with AI efficiency”
    เปิดตัว Data Hub, Smart CRM, Breeze agents และ NIM microservices

    การเปลี่ยนแปลงในพฤติกรรมการตลาด
    Organic traffic ลดลงอย่างต่อเนื่อง
    HubSpot หันไปลงทุนใน podcast, newsletter และ social เพื่อสร้าง trust
    ผู้บริโภคต้องการเนื้อหาที่จริงใจมากกว่าปริมาณ

    ตัวอย่างการใช้งาน AI จากพันธมิตร
    SmartBug สร้าง AI agent สำหรับการใช้งาน HubSpot แบบครบวงจร
    Wistia ใช้ AI วิเคราะห์วิดีโอและเชื่อมต่อกับ Adobe, Salesforce, Mailchimp
    AdRoll ใช้ machine learning สร้างแคมเปญโฆษณาแบบ multi-channel
    Docket เสนอ AI concierge สำหรับตอบคำถามและเปลี่ยน traffic เป็น lead
    Cvent ใช้ AI ค้นหาโรงแรมและจัดการอีเวนต์แบบครบวงจร

    มุมมองจาก Anthropic
    Claude ยังไม่ฉลาดเกินมนุษย์ แต่ใกล้เคียงระดับปริญญาตรี
    Claude Code ถูกวางเป็น “platform” สำหรับสร้างผลิตภัณฑ์ใหม่
    มีการป้องกันการใช้โมเดลในทางที่ผิด เช่น ransomware

    https://www.techradar.com/pro/live/hubspot-inbound-2025-all-the-news-and-announcements-as-it-happens
    🎙️ เรื่องเล่าจาก Inbound 2025: เมื่อ AI ไม่ได้มาแทนคน แต่มาเป็นทีมร่วมงานที่ขับเคลื่อนธุรกิจ ในงาน HubSpot Inbound 2025 ที่จัดขึ้นที่ซานฟรานซิสโก มีการเปิดตัวเครื่องมือใหม่กว่า 200 รายการที่เน้นการสร้าง “ทีมลูกผสม” ระหว่างมนุษย์กับ AI โดยมีแนวคิดหลักคือ “The Loop”—กรอบการทำงานที่ประกอบด้วย 3 ขั้นตอน: เชื่อมโยงข้อมูลทั้งหมด, สร้างทีม AI, และเปิดโอกาสให้คนทำงานได้เต็มศักยภาพ CEO Yamini Rangan ย้ำว่า organic traffic กำลังตายลง และการตลาดต้องเปลี่ยนจากการไล่ตามคลิก ไปสู่การสร้างความไว้วางใจผ่านช่องทางใหม่ เช่น podcast, newsletter และ social ที่มีความจริงใจมากกว่า HubSpot เปิดตัว Data Hub, Smart CRM ที่มี “project object” สำหรับติดตามงานแบบละเอียด และ Breeze agents ที่สามารถสร้างข้อความแบบเฉพาะบุคคลในทุกช่องทางแบบ real-time SmartBug, Wistia, AdRoll, Cvent และ Docket ต่างก็โชว์การใช้ AI เพื่อเพิ่มประสิทธิภาพในงานของตน เช่น SmartBug สร้าง AI agent สำหรับการ onboarding และ migration, Wistia ใช้ AI ในการวิเคราะห์วิดีโอ B2B, ส่วน Docket เสนอ AI concierge ที่ช่วยตอบคำถามและเปลี่ยน traffic เป็น lead Anthropic ก็เข้าร่วมงาน โดย CEO Dario Amodei พูดถึง Claude ที่เคยถูกใช้ใน ransomware โดยรัฐ แต่ตอนนี้ถูกปรับให้ปลอดภัยขึ้น พร้อมเปิดตัว Claude Code ที่หวังจะเป็น “AWS ของยุค AI” ✅ แนวคิดหลักจาก HubSpot ➡️ “The Loop” คือกรอบการทำงานใหม่: เชื่อมข้อมูล, สร้างทีม AI, เปิดศักยภาพคน ➡️ เน้น “human authenticity with AI efficiency” ➡️ เปิดตัว Data Hub, Smart CRM, Breeze agents และ NIM microservices ✅ การเปลี่ยนแปลงในพฤติกรรมการตลาด ➡️ Organic traffic ลดลงอย่างต่อเนื่อง ➡️ HubSpot หันไปลงทุนใน podcast, newsletter และ social เพื่อสร้าง trust ➡️ ผู้บริโภคต้องการเนื้อหาที่จริงใจมากกว่าปริมาณ ✅ ตัวอย่างการใช้งาน AI จากพันธมิตร ➡️ SmartBug สร้าง AI agent สำหรับการใช้งาน HubSpot แบบครบวงจร ➡️ Wistia ใช้ AI วิเคราะห์วิดีโอและเชื่อมต่อกับ Adobe, Salesforce, Mailchimp ➡️ AdRoll ใช้ machine learning สร้างแคมเปญโฆษณาแบบ multi-channel ➡️ Docket เสนอ AI concierge สำหรับตอบคำถามและเปลี่ยน traffic เป็น lead ➡️ Cvent ใช้ AI ค้นหาโรงแรมและจัดการอีเวนต์แบบครบวงจร ✅ มุมมองจาก Anthropic ➡️ Claude ยังไม่ฉลาดเกินมนุษย์ แต่ใกล้เคียงระดับปริญญาตรี ➡️ Claude Code ถูกวางเป็น “platform” สำหรับสร้างผลิตภัณฑ์ใหม่ ➡️ มีการป้องกันการใช้โมเดลในทางที่ผิด เช่น ransomware https://www.techradar.com/pro/live/hubspot-inbound-2025-all-the-news-and-announcements-as-it-happens
    0 Comments 0 Shares 102 Views 0 Reviews
  • เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา

    ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ

    แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s

    ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory

    การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption

    Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine

    ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า

    สเปกหลักของ Ironwood TPU
    Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป
    หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s
    รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps

    สถิติโลกด้าน shared memory
    ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง
    ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic
    รองรับ workload recovery และ node reconfiguration

    ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ
    มี root of trust, built-in self test, และ logic repair
    ตรวจจับและป้องกัน silent data corruption
    ออกแบบเพื่อ RAS: reliability, availability, serviceability

    การออกแบบด้วย AI และการใช้งาน
    ใช้ AI ในการ optimize ALU และ floorplan
    เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops
    รองรับงาน inference เช่น LLM, recommendation, simulation

    ระบบระบายความร้อนและประสิทธิภาพ
    ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google
    ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency
    ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า

    https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    🎙️ เรื่องเล่าจาก Ironwood: เมื่อ Google สร้างซูเปอร์คอมพิวเตอร์ที่ไม่ใช่แค่เร็ว แต่ “ฉลาดและยืดหยุ่น” ที่สุดเท่าที่เคยมีมา ในงาน Hot Chips 2025 Google ได้เปิดเผยรายละเอียดของ Ironwood TPU ซึ่งเป็นชิปรุ่นที่ 7 ของตระกูล Tensor Processing Unit โดยออกแบบมาเพื่อรองรับงาน inference ขนาดใหญ่โดยเฉพาะ ไม่ใช่การเทรนโมเดลเหมือนรุ่นก่อน ๆ แต่ละชิป Ironwood มีสถาปัตยกรรมแบบ dual-die ให้กำลังประมวลผล FP8 สูงถึง 4,614 TFLOPs และมาพร้อมกับหน่วยความจำ HBM3e ขนาด 192GB ต่อชิป โดยมีแบนด์วิดธ์สูงถึง 7.3TB/s ระบบสามารถขยายได้ถึง 9,216 ชิปต่อหนึ่ง pod โดยไม่ต้องใช้ glue logic และมี I/O bandwidth รวมถึง 1.2TBps ทำให้สามารถสร้างระบบที่มี shared memory ขนาด 1.77PB ได้—ซึ่งถือเป็นสถิติโลกใหม่สำหรับระบบ multi-CPU ที่ใช้ shared memory การเชื่อมต่อระหว่างแร็คใช้ optical circuit switch ที่สามารถ reconfigure ได้เมื่อมี node เสีย พร้อมระบบ checkpoint recovery และฟีเจอร์ด้านความปลอดภัย เช่น root of trust, built-in self test, และการตรวจจับ silent data corruption Ironwood ยังใช้ AI ในการออกแบบตัวเอง เช่น การ optimize ALU circuits และ floorplan พร้อมเพิ่ม SparseCore รุ่นที่ 4 เพื่อเร่งงาน embedding และ collective operations เช่น recommendation engine ระบบระบายความร้อนใช้ cold plate รุ่นที่ 3 ของ Google ซึ่งเป็น liquid cooling แบบเต็มรูปแบบ และมีการปรับแรงดันไฟฟ้าและความถี่แบบ dynamic เพื่อเพิ่มประสิทธิภาพต่อวัตต์ให้ดีกว่ารุ่น Trillium ถึง 2 เท่า ✅ สเปกหลักของ Ironwood TPU ➡️ Dual-die architecture ให้ 4,614 TFLOPs FP8 ต่อชิป ➡️ หน่วยความจำ HBM3e ขนาด 192GB ต่อชิป พร้อมแบนด์วิดธ์ 7.3TB/s ➡️ รองรับการขยายถึง 9,216 ชิปต่อ pod ด้วย I/O bandwidth 1.2TBps ✅ สถิติโลกด้าน shared memory ➡️ ระบบมี shared memory ขนาด 1.77PB แบบ addressable โดยตรง ➡️ ใช้ optical circuit switch เชื่อมต่อแร็คแบบ dynamic ➡️ รองรับ workload recovery และ node reconfiguration ✅ ฟีเจอร์ด้านความปลอดภัยและเสถียรภาพ ➡️ มี root of trust, built-in self test, และ logic repair ➡️ ตรวจจับและป้องกัน silent data corruption ➡️ ออกแบบเพื่อ RAS: reliability, availability, serviceability ✅ การออกแบบด้วย AI และการใช้งาน ➡️ ใช้ AI ในการ optimize ALU และ floorplan ➡️ เพิ่ม SparseCore รุ่นที่ 4 สำหรับ embedding และ collective ops ➡️ รองรับงาน inference เช่น LLM, recommendation, simulation ✅ ระบบระบายความร้อนและประสิทธิภาพ ➡️ ใช้ cold plate liquid cooling รุ่นที่ 3 ของ Google ➡️ ปรับแรงดันและความถี่แบบ dynamic เพื่อเพิ่ม efficiency ➡️ ประสิทธิภาพต่อวัตต์ดีกว่ารุ่น Trillium ถึง 2 เท่า https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
    0 Comments 0 Shares 63 Views 0 Reviews
  • เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง

    จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI

    แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ

    Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก

    ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก

    ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่”

    การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส
    32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy
    ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง
    ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ

    พฤติกรรมของนักพัฒนารุ่นใหม่
    มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน
    มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า
    มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ

    ความรู้สึกและแรงจูงใจ
    นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก
    นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ
    ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น

    ความตระหนักด้านสิ่งแวดล้อม
    80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด
    นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้
    เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่

    https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    🎙️ เรื่องเล่าจาก dopamine hit ถึง debugging: เมื่อคนเขียนโค้ดรุ่นเก๋าใช้ AI อย่างมีชั้นเชิง จากผลสำรวจของ Fastly ที่เผยแพร่ผ่าน TechRadar และ The Register พบว่า นักพัฒนาอาวุโส (มีประสบการณ์มากกว่า 10 ปี) ใช้เครื่องมือสร้างโค้ดด้วย AI เช่น Copilot, Claude, Gemini มากกว่านักพัฒนารุ่นใหม่ถึง 2.5 เท่า โดยประมาณหนึ่งในสามของนักพัฒนาอาวุโสระบุว่า “มากกว่าครึ่ง” ของโค้ดที่พวกเขาส่งขึ้น production มาจาก AI แต่การใช้ AI ไม่ได้หมายถึงการพึ่งพาแบบไร้การตรวจสอบ—นักพัฒนาอาวุโสกลับใช้เวลา “มากขึ้น” ในการตรวจสอบข้อผิดพลาดที่เกิดจาก AI และแก้ไขให้เหมาะสมกับบริบทของระบบจริง โดยเฉพาะในงานที่มีความเสี่ยงสูงหรือมีผลกระทบต่อธุรกิจ Austin Spires จาก Fastly อธิบายว่า นักพัฒนาอาวุโสไม่ได้เขียนโค้ดทั้งวัน แต่ต้องดูแล testing, architecture และ mentoring ด้วย การใช้ AI เพื่อสร้าง prototype อย่างรวดเร็วจึงช่วยให้พวกเขา “ได้ความรู้สึกสนุกแบบเดิมกลับมา”—คล้ายกับ dopamine hit ที่เคยได้จากการเขียนโค้ดด้วยมือในยุคแรก ในทางกลับกัน นักพัฒนารุ่นใหม่ (ประสบการณ์ต่ำกว่า 2 ปี) กลับใช้ AI น้อยกว่า และมักเลือกเขียนโค้ดด้วยมือ เพราะรู้สึกว่า AI ยังไม่เข้าใจบริบทหรือเจตนาของโค้ดที่ต้องการได้ดีพอ ซึ่งสะท้อนถึงความเชื่อมั่นในฝีมือและความต้องการเรียนรู้เชิงลึก ที่น่าสนใจคือ นักพัฒนาอาวุโสยังให้ความสำคัญกับผลกระทบด้านสิ่งแวดล้อมของโค้ดที่เขียน—กว่า 80% ระบุว่าพวกเขาคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ขณะที่นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ และเกือบ 10% ยอมรับว่า “ไม่รู้เลยว่าระบบใช้พลังงานเท่าไหร่” ✅ การใช้งาน AI coding tools ในกลุ่มนักพัฒนาอาวุโส ➡️ 32% ของนักพัฒนาอาวุโสใช้ AI สร้างโค้ดมากกว่าครึ่งของงานที่ deploy ➡️ ใช้ AI เพื่อสร้าง prototype และเร่งงานที่ไม่ต้องการความละเอียดสูง ➡️ ใช้เวลาเพิ่มในการตรวจสอบข้อผิดพลาดจาก AI เพื่อความมั่นใจ ✅ พฤติกรรมของนักพัฒนารุ่นใหม่ ➡️ มีเพียง 13% ที่ใช้ AI coding tools ในระดับเดียวกัน ➡️ มักเลือกเขียนโค้ดด้วยมือเพื่อความเข้าใจและควบคุมที่มากกว่า ➡️ มองว่า AI ยังไม่สามารถเข้าใจเจตนาของโค้ดได้ดีพอ ✅ ความรู้สึกและแรงจูงใจ ➡️ นักพัฒนาอาวุโสรู้สึกว่า AI coding ให้ dopamine hit คล้ายกับการเขียนโค้ดยุคแรก ➡️ นักพัฒนารุ่นใหม่ยังให้คุณค่ากับ “craftsmanship” ของการเขียนโค้ดด้วยมือ ➡️ ทั้งสองกลุ่มมากกว่า 70% เห็นว่า AI ทำให้การทำงานสนุกขึ้น ✅ ความตระหนักด้านสิ่งแวดล้อม ➡️ 80% ของนักพัฒนาอาวุโสคำนึงถึงพลังงานที่ใช้ในการรันโค้ด ➡️ นักพัฒนารุ่นใหม่มีเพียงครึ่งเดียวที่คิดถึงเรื่องนี้ ➡️ เกือบ 10% ยอมรับว่าไม่รู้ว่าระบบใช้พลังงานเท่าไหร่ https://www.techradar.com/pro/they-dont-make-em-like-they-used-to-older-coders-are-more-in-tune-with-vibe-coding-study-claims
    0 Comments 0 Shares 50 Views 0 Reviews
  • เรื่องเล่าจาก Altera ถึง Arrow Lake: เมื่อ Intel ยอมรับว่า TSMC คือคู่ชีวิต และเงินจากรัฐบาลคือทางออกจากหนี้

    ในการประชุม Citi Global Tech 2025 ที่ซานฟรานซิสโก CFO ของ Intel, David Zinsner ประกาศว่า Intel จะใช้ TSMC “ตลอดไป” โดยระบุว่า “พวกเขาเป็นพันธมิตรที่ยอดเยี่ยม” และยืนยันว่า 30% ของผลิตภัณฑ์ของ Intel มาจาก TSMC แล้ว แม้จะมีแผนลดสัดส่วนในอนาคต แต่ก็ยังมากกว่าที่เคยเป็นในอดีต

    Intel ยังยืนยันว่าจะใช้เงินทุนจากรัฐบาลสหรัฐฯ ที่ได้จาก CHIPS Act เพื่อชำระหนี้มูลค่า $3.8 พันล้านที่ครบกำหนดในปีนี้ โดยไม่รีไฟแนนซ์ใหม่ พร้อมประกาศว่าเงินทุนที่เคยไม่แน่นอนตอนนี้กลายเป็น “หุ้น” ที่รัฐบาลถืออยู่ 10% และจะลงคะแนนตามมติของบอร์ดเท่านั้น

    นอกจากนี้ Intel ยังเตรียมปิดดีลขายธุรกิจ Altera เพื่อรับเงินเพิ่มอีก $3.5 พันล้าน และรอเงินลงทุนจาก SoftBank ที่จะเข้ามาเสริมภายในไตรมาสนี้

    ในด้านเทคโนโลยี Zinsner ยอมรับว่า Intel “ใช้เงินล่วงหน้าก่อนมีดีมานด์” ในช่วงหลายปีที่ผ่านมา และนั่นทำให้บริษัทต้องปรับแผนใหม่ โดยหันไปพัฒนา 14A process node ที่ใช้ High NA EUV และมีต้นทุนสูงกว่า 18A แต่มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า

    แม้จะยังไม่แยกธุรกิจ Foundry ออกเป็นบริษัทลูก แต่ก็ไม่ปฏิเสธว่าอาจเกิดขึ้นในอนาคต หากมีความพร้อมและความน่าสนใจสำหรับนักลงทุน

    การใช้ TSMC เป็นพันธมิตรระยะยาว
    Intel ยืนยันว่าจะใช้ TSMC “ตลอดไป” สำหรับบางผลิตภัณฑ์
    ปัจจุบัน 30% ของผลิตภัณฑ์มาจาก TSMC เช่น Lunar Lake และ Arrow Lake
    แม้จะลดสัดส่วนในอนาคต แต่ยังมากกว่าระดับในอดีต

    การใช้เงินทุนจากรัฐบาลสหรัฐฯ
    Intel ได้รับเงินทุนจาก CHIPS Act รวม $7.9 พันล้าน (บางส่วนยังทยอยจ่าย)
    เงินทุนถูกเปลี่ยนเป็นหุ้น 10% ที่รัฐบาลถืออยู่
    ใช้เงินเพื่อชำระหนี้ $3.8 พันล้านที่ครบกำหนดในปี 2025

    การขายธุรกิจ Altera และเงินลงทุนจาก SoftBank
    เตรียมปิดดีลขาย Altera เพื่อรับเงิน $3.5 พันล้าน
    SoftBank จะลงทุนเพิ่มเติมหลังผ่านการอนุมัติด้านกฎระเบียบ
    เงินทั้งหมดจะใช้ชำระหนี้ ไม่รีไฟแนนซ์ใหม่

    การพัฒนาเทคโนโลยี 14A และการเปลี่ยนยุทธศาสตร์
    14A ใช้ High NA EUV และมีต้นทุน wafer สูงกว่า 18A
    มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า 18A
    ยังไม่มีแผนแยกธุรกิจ Foundry แต่เปิดโอกาสในอนาคต

    https://wccftech.com/intel-will-use-tsmc-forever-says-cfo-as-shares-rise-after-he-confirms-plan-to-use-us-funding-to-pay-back-debt/
    🎙️ เรื่องเล่าจาก Altera ถึง Arrow Lake: เมื่อ Intel ยอมรับว่า TSMC คือคู่ชีวิต และเงินจากรัฐบาลคือทางออกจากหนี้ ในการประชุม Citi Global Tech 2025 ที่ซานฟรานซิสโก CFO ของ Intel, David Zinsner ประกาศว่า Intel จะใช้ TSMC “ตลอดไป” โดยระบุว่า “พวกเขาเป็นพันธมิตรที่ยอดเยี่ยม” และยืนยันว่า 30% ของผลิตภัณฑ์ของ Intel มาจาก TSMC แล้ว แม้จะมีแผนลดสัดส่วนในอนาคต แต่ก็ยังมากกว่าที่เคยเป็นในอดีต Intel ยังยืนยันว่าจะใช้เงินทุนจากรัฐบาลสหรัฐฯ ที่ได้จาก CHIPS Act เพื่อชำระหนี้มูลค่า $3.8 พันล้านที่ครบกำหนดในปีนี้ โดยไม่รีไฟแนนซ์ใหม่ พร้อมประกาศว่าเงินทุนที่เคยไม่แน่นอนตอนนี้กลายเป็น “หุ้น” ที่รัฐบาลถืออยู่ 10% และจะลงคะแนนตามมติของบอร์ดเท่านั้น นอกจากนี้ Intel ยังเตรียมปิดดีลขายธุรกิจ Altera เพื่อรับเงินเพิ่มอีก $3.5 พันล้าน และรอเงินลงทุนจาก SoftBank ที่จะเข้ามาเสริมภายในไตรมาสนี้ ในด้านเทคโนโลยี Zinsner ยอมรับว่า Intel “ใช้เงินล่วงหน้าก่อนมีดีมานด์” ในช่วงหลายปีที่ผ่านมา และนั่นทำให้บริษัทต้องปรับแผนใหม่ โดยหันไปพัฒนา 14A process node ที่ใช้ High NA EUV และมีต้นทุนสูงกว่า 18A แต่มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า แม้จะยังไม่แยกธุรกิจ Foundry ออกเป็นบริษัทลูก แต่ก็ไม่ปฏิเสธว่าอาจเกิดขึ้นในอนาคต หากมีความพร้อมและความน่าสนใจสำหรับนักลงทุน ✅ การใช้ TSMC เป็นพันธมิตรระยะยาว ➡️ Intel ยืนยันว่าจะใช้ TSMC “ตลอดไป” สำหรับบางผลิตภัณฑ์ ➡️ ปัจจุบัน 30% ของผลิตภัณฑ์มาจาก TSMC เช่น Lunar Lake และ Arrow Lake ➡️ แม้จะลดสัดส่วนในอนาคต แต่ยังมากกว่าระดับในอดีต ✅ การใช้เงินทุนจากรัฐบาลสหรัฐฯ ➡️ Intel ได้รับเงินทุนจาก CHIPS Act รวม $7.9 พันล้าน (บางส่วนยังทยอยจ่าย) ➡️ เงินทุนถูกเปลี่ยนเป็นหุ้น 10% ที่รัฐบาลถืออยู่ ➡️ ใช้เงินเพื่อชำระหนี้ $3.8 พันล้านที่ครบกำหนดในปี 2025 ✅ การขายธุรกิจ Altera และเงินลงทุนจาก SoftBank ➡️ เตรียมปิดดีลขาย Altera เพื่อรับเงิน $3.5 พันล้าน ➡️ SoftBank จะลงทุนเพิ่มเติมหลังผ่านการอนุมัติด้านกฎระเบียบ ➡️ เงินทั้งหมดจะใช้ชำระหนี้ ไม่รีไฟแนนซ์ใหม่ ✅ การพัฒนาเทคโนโลยี 14A และการเปลี่ยนยุทธศาสตร์ ➡️ 14A ใช้ High NA EUV และมีต้นทุน wafer สูงกว่า 18A ➡️ มีความหวังว่าจะดึงลูกค้าใหม่ได้มากกว่า 18A ➡️ ยังไม่มีแผนแยกธุรกิจ Foundry แต่เปิดโอกาสในอนาคต https://wccftech.com/intel-will-use-tsmc-forever-says-cfo-as-shares-rise-after-he-confirms-plan-to-use-us-funding-to-pay-back-debt/
    WCCFTECH.COM
    Intel Will Use TSMC "Forever" Says CFO, As Shares Rise After He Confirms Plan To Use US Funding To Pay Back Debt
    Intel CFO outlines $10 billion government stake, plans to pay $3.8 billion in debt, and confirms continued reliance on TSMC.
    0 Comments 0 Shares 59 Views 0 Reviews
  • เขมรทำหัวจะปวด เพลงปลุกม็อบ “ดนตรีบางระจัน” (5/9/68)
    #TruthFromThailand
    #scambodia
    #CambodiaEncroachingThailand
    #Hunsenfiredfirst
    #ดนตรีบางระจัน
    #ข่าวด่วน
    #thaitimes
    #news1
    #shorts
    เขมรทำหัวจะปวด เพลงปลุกม็อบ “ดนตรีบางระจัน” (5/9/68) #TruthFromThailand #scambodia #CambodiaEncroachingThailand #Hunsenfiredfirst #ดนตรีบางระจัน #ข่าวด่วน #thaitimes #news1 #shorts
    0 Comments 0 Shares 96 Views 0 0 Reviews
  • 6 กันยายน 2568 วันสารทจีน
    ลิงค์อยู่ในช่องแสดงความคิดเห็น
    6 กันยายน 2568 วันสารทจีน ลิงค์อยู่ในช่องแสดงความคิดเห็น
    2 Comments 0 Shares 22 Views 0 Reviews
  • เห็นคลิปนี้แล้ว สงสารทหารไทย ผู้ใต้บังคับบัญชา (5/9/68)
    #TruthFromThailand
    #SAVEThailand
    #scambodia
    #CambodiaEncroachingThailand
    #ทหารไทย
    #ชายแดนไทย
    #สงครามชายแดน
    #thaitimes
    #news1
    #shorts
    เห็นคลิปนี้แล้ว สงสารทหารไทย ผู้ใต้บังคับบัญชา (5/9/68) #TruthFromThailand #SAVEThailand #scambodia #CambodiaEncroachingThailand #ทหารไทย #ชายแดนไทย #สงครามชายแดน #thaitimes #news1 #shorts
    0 Comments 0 Shares 98 Views 0 0 Reviews
  • แม่ทัพคนไหน ปล่อยเขมรหยามทหารไทยได้เพียงนี้!? (5/9/68)
    #TruthFromThailand
    #SAVEThailand
    #scambodia
    #CambodiaEncroachingThailand
    #ทหารไทย
    #ชายแดนไทย
    #แม่ทัพไทย
    #ศักดิ์ศรีกองทัพ
    #thaitimes
    #news1
    #shorts
    แม่ทัพคนไหน ปล่อยเขมรหยามทหารไทยได้เพียงนี้!? (5/9/68) #TruthFromThailand #SAVEThailand #scambodia #CambodiaEncroachingThailand #ทหารไทย #ชายแดนไทย #แม่ทัพไทย #ศักดิ์ศรีกองทัพ #thaitimes #news1 #shorts
    0 Comments 0 Shares 97 Views 0 0 Reviews
  • FENGSHUI DAILY
    อัพเดตทุกวัน ที่นี่ที่เดียว
    สีเสริมดวง เสริมความเฮง
    ทิศมงคล เวลามงคล
    อย่าลืมดูกัน เมื่อเริ่มวันใหม่
    วันเสาร์ที่ 6 เดือนกันยายน พ.ศ.2568
    ___________________________________
    FengshuiBizDesigner
    ฮวงจุ้ย...ออกแบบได้
    FENGSHUI DAILY อัพเดตทุกวัน ที่นี่ที่เดียว สีเสริมดวง เสริมความเฮง ทิศมงคล เวลามงคล อย่าลืมดูกัน เมื่อเริ่มวันใหม่ วันเสาร์ที่ 6 เดือนกันยายน พ.ศ.2568 ___________________________________ FengshuiBizDesigner ฮวงจุ้ย...ออกแบบได้
    0 Comments 0 Shares 23 Views 0 Reviews
  • มือเศรษฐกิจเมินร่วมครม.
    มีเวลา 4 เดือนสั้นเกิ๊น
    เหมือนเอาชื่อเสียงไปปาทิ้ง
    ได้ชาวเลื้อยคลานทำงานแน่
    #7ดอกจิก
    มือเศรษฐกิจเมินร่วมครม. มีเวลา 4 เดือนสั้นเกิ๊น เหมือนเอาชื่อเสียงไปปาทิ้ง ได้ชาวเลื้อยคลานทำงานแน่ #7ดอกจิก
    0 Comments 0 Shares 34 Views 0 Reviews