• เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU

    Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา

    แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์

    ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow

    Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม

    แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน

    แนวคิด Software Defined Super Core ของ Intel
    รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว
    ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ
    ใช้ shared memory และ synchronization module ภายในคอร์

    จุดต่างจากเทคนิคเดิม
    คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย
    ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล
    มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์

    การใช้งานและความคาดหวัง
    เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง
    หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์
    อาจใช้ในงาน AI inference, simulation, หรือ mining

    ข้อกำหนดด้านซอฟต์แวร์
    ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core
    ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software

    https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    🎙️ เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์ ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน ✅ แนวคิด Software Defined Super Core ของ Intel ➡️ รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว ➡️ ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ shared memory และ synchronization module ภายในคอร์ ✅ จุดต่างจากเทคนิคเดิม ➡️ คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย ➡️ ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล ➡️ มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์ ✅ การใช้งานและความคาดหวัง ➡️ เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง ➡️ หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์ ➡️ อาจใช้ในงาน AI inference, simulation, หรือ mining ✅ ข้อกำหนดด้านซอฟต์แวร์ ➡️ ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core ➡️ ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    0 Comments 0 Shares 125 Views 0 Reviews
  • เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้

    Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน

    ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้

    จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้

    ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป

    นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด

    ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล

    จุดกำเนิดของ Fourier Transform
    Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น
    แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis
    Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน

    การใช้งานในยุคปัจจุบัน
    ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง
    ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน
    ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ

    การพัฒนาเพิ่มเติม
    Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม
    Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก
    ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่

    ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์
    Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ
    ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี
    เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย

    ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน
    Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป
    ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity

    ความเปราะบางของการตีความในฟิสิกส์
    การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง
    ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง

    ความไม่แน่นอนของการใช้งานในระบบจริง
    การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป
    การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ

    https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    🎙️ เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้ Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้ จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้ ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล ✅ จุดกำเนิดของ Fourier Transform ➡️ Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น ➡️ แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis ➡️ Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน ✅ การใช้งานในยุคปัจจุบัน ➡️ ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง ➡️ ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน ➡️ ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ ✅ การพัฒนาเพิ่มเติม ➡️ Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม ➡️ Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก ➡️ ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่ ✅ ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์ ➡️ Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ ➡️ ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี ➡️ เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย ‼️ ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน ⛔ Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป ⛔ ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity ‼️ ความเปราะบางของการตีความในฟิสิกส์ ⛔ การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง ⛔ ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง ‼️ ความไม่แน่นอนของการใช้งานในระบบจริง ⛔ การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป ⛔ การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    WWW.QUANTAMAGAZINE.ORG
    What Is the Fourier Transform?
    Amid the chaos of revolutionary France, one man’s mathematical obsession gave way to a calculation that now underpins much of mathematics and physics. The calculation, called the Fourier transform, decomposes any function into its parts.
    0 Comments 0 Shares 99 Views 0 Reviews
  • เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์

    ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต

    สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ

    ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง

    แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน

    การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์

    การกลับมาของชิป Blockscale BZM2
    Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา
    ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH
    ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation

    การแจกจ่ายและการใช้งาน
    แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว
    ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่
    ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse

    ความหมายต่อวงการขุดบิตคอยน์
    เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่
    เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง
    สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน

    การใช้งานนอกเหนือจากการขุด
    ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน
    มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล
    สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    🎙️ เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์ ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์ ✅ การกลับมาของชิป Blockscale BZM2 ➡️ Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา ➡️ ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH ➡️ ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation ✅ การแจกจ่ายและการใช้งาน ➡️ แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว ➡️ ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่ ➡️ ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse ✅ ความหมายต่อวงการขุดบิตคอยน์ ➡️ เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ ➡️ เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง ➡️ สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน ✅ การใช้งานนอกเหนือจากการขุด ➡️ ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน ➡️ มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล ➡️ สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    0 Comments 0 Shares 122 Views 0 Reviews
  • เรื่องเล่าจาก Inbound 2025: เมื่อ AI ไม่ได้มาแทนคน แต่มาเป็นทีมร่วมงานที่ขับเคลื่อนธุรกิจ

    ในงาน HubSpot Inbound 2025 ที่จัดขึ้นที่ซานฟรานซิสโก มีการเปิดตัวเครื่องมือใหม่กว่า 200 รายการที่เน้นการสร้าง “ทีมลูกผสม” ระหว่างมนุษย์กับ AI โดยมีแนวคิดหลักคือ “The Loop”—กรอบการทำงานที่ประกอบด้วย 3 ขั้นตอน: เชื่อมโยงข้อมูลทั้งหมด, สร้างทีม AI, และเปิดโอกาสให้คนทำงานได้เต็มศักยภาพ

    CEO Yamini Rangan ย้ำว่า organic traffic กำลังตายลง และการตลาดต้องเปลี่ยนจากการไล่ตามคลิก ไปสู่การสร้างความไว้วางใจผ่านช่องทางใหม่ เช่น podcast, newsletter และ social ที่มีความจริงใจมากกว่า

    HubSpot เปิดตัว Data Hub, Smart CRM ที่มี “project object” สำหรับติดตามงานแบบละเอียด และ Breeze agents ที่สามารถสร้างข้อความแบบเฉพาะบุคคลในทุกช่องทางแบบ real-time

    SmartBug, Wistia, AdRoll, Cvent และ Docket ต่างก็โชว์การใช้ AI เพื่อเพิ่มประสิทธิภาพในงานของตน เช่น SmartBug สร้าง AI agent สำหรับการ onboarding และ migration, Wistia ใช้ AI ในการวิเคราะห์วิดีโอ B2B, ส่วน Docket เสนอ AI concierge ที่ช่วยตอบคำถามและเปลี่ยน traffic เป็น lead

    Anthropic ก็เข้าร่วมงาน โดย CEO Dario Amodei พูดถึง Claude ที่เคยถูกใช้ใน ransomware โดยรัฐ แต่ตอนนี้ถูกปรับให้ปลอดภัยขึ้น พร้อมเปิดตัว Claude Code ที่หวังจะเป็น “AWS ของยุค AI”

    แนวคิดหลักจาก HubSpot
    “The Loop” คือกรอบการทำงานใหม่: เชื่อมข้อมูล, สร้างทีม AI, เปิดศักยภาพคน
    เน้น “human authenticity with AI efficiency”
    เปิดตัว Data Hub, Smart CRM, Breeze agents และ NIM microservices

    การเปลี่ยนแปลงในพฤติกรรมการตลาด
    Organic traffic ลดลงอย่างต่อเนื่อง
    HubSpot หันไปลงทุนใน podcast, newsletter และ social เพื่อสร้าง trust
    ผู้บริโภคต้องการเนื้อหาที่จริงใจมากกว่าปริมาณ

    ตัวอย่างการใช้งาน AI จากพันธมิตร
    SmartBug สร้าง AI agent สำหรับการใช้งาน HubSpot แบบครบวงจร
    Wistia ใช้ AI วิเคราะห์วิดีโอและเชื่อมต่อกับ Adobe, Salesforce, Mailchimp
    AdRoll ใช้ machine learning สร้างแคมเปญโฆษณาแบบ multi-channel
    Docket เสนอ AI concierge สำหรับตอบคำถามและเปลี่ยน traffic เป็น lead
    Cvent ใช้ AI ค้นหาโรงแรมและจัดการอีเวนต์แบบครบวงจร

    มุมมองจาก Anthropic
    Claude ยังไม่ฉลาดเกินมนุษย์ แต่ใกล้เคียงระดับปริญญาตรี
    Claude Code ถูกวางเป็น “platform” สำหรับสร้างผลิตภัณฑ์ใหม่
    มีการป้องกันการใช้โมเดลในทางที่ผิด เช่น ransomware

    https://www.techradar.com/pro/live/hubspot-inbound-2025-all-the-news-and-announcements-as-it-happens
    🎙️ เรื่องเล่าจาก Inbound 2025: เมื่อ AI ไม่ได้มาแทนคน แต่มาเป็นทีมร่วมงานที่ขับเคลื่อนธุรกิจ ในงาน HubSpot Inbound 2025 ที่จัดขึ้นที่ซานฟรานซิสโก มีการเปิดตัวเครื่องมือใหม่กว่า 200 รายการที่เน้นการสร้าง “ทีมลูกผสม” ระหว่างมนุษย์กับ AI โดยมีแนวคิดหลักคือ “The Loop”—กรอบการทำงานที่ประกอบด้วย 3 ขั้นตอน: เชื่อมโยงข้อมูลทั้งหมด, สร้างทีม AI, และเปิดโอกาสให้คนทำงานได้เต็มศักยภาพ CEO Yamini Rangan ย้ำว่า organic traffic กำลังตายลง และการตลาดต้องเปลี่ยนจากการไล่ตามคลิก ไปสู่การสร้างความไว้วางใจผ่านช่องทางใหม่ เช่น podcast, newsletter และ social ที่มีความจริงใจมากกว่า HubSpot เปิดตัว Data Hub, Smart CRM ที่มี “project object” สำหรับติดตามงานแบบละเอียด และ Breeze agents ที่สามารถสร้างข้อความแบบเฉพาะบุคคลในทุกช่องทางแบบ real-time SmartBug, Wistia, AdRoll, Cvent และ Docket ต่างก็โชว์การใช้ AI เพื่อเพิ่มประสิทธิภาพในงานของตน เช่น SmartBug สร้าง AI agent สำหรับการ onboarding และ migration, Wistia ใช้ AI ในการวิเคราะห์วิดีโอ B2B, ส่วน Docket เสนอ AI concierge ที่ช่วยตอบคำถามและเปลี่ยน traffic เป็น lead Anthropic ก็เข้าร่วมงาน โดย CEO Dario Amodei พูดถึง Claude ที่เคยถูกใช้ใน ransomware โดยรัฐ แต่ตอนนี้ถูกปรับให้ปลอดภัยขึ้น พร้อมเปิดตัว Claude Code ที่หวังจะเป็น “AWS ของยุค AI” ✅ แนวคิดหลักจาก HubSpot ➡️ “The Loop” คือกรอบการทำงานใหม่: เชื่อมข้อมูล, สร้างทีม AI, เปิดศักยภาพคน ➡️ เน้น “human authenticity with AI efficiency” ➡️ เปิดตัว Data Hub, Smart CRM, Breeze agents และ NIM microservices ✅ การเปลี่ยนแปลงในพฤติกรรมการตลาด ➡️ Organic traffic ลดลงอย่างต่อเนื่อง ➡️ HubSpot หันไปลงทุนใน podcast, newsletter และ social เพื่อสร้าง trust ➡️ ผู้บริโภคต้องการเนื้อหาที่จริงใจมากกว่าปริมาณ ✅ ตัวอย่างการใช้งาน AI จากพันธมิตร ➡️ SmartBug สร้าง AI agent สำหรับการใช้งาน HubSpot แบบครบวงจร ➡️ Wistia ใช้ AI วิเคราะห์วิดีโอและเชื่อมต่อกับ Adobe, Salesforce, Mailchimp ➡️ AdRoll ใช้ machine learning สร้างแคมเปญโฆษณาแบบ multi-channel ➡️ Docket เสนอ AI concierge สำหรับตอบคำถามและเปลี่ยน traffic เป็น lead ➡️ Cvent ใช้ AI ค้นหาโรงแรมและจัดการอีเวนต์แบบครบวงจร ✅ มุมมองจาก Anthropic ➡️ Claude ยังไม่ฉลาดเกินมนุษย์ แต่ใกล้เคียงระดับปริญญาตรี ➡️ Claude Code ถูกวางเป็น “platform” สำหรับสร้างผลิตภัณฑ์ใหม่ ➡️ มีการป้องกันการใช้โมเดลในทางที่ผิด เช่น ransomware https://www.techradar.com/pro/live/hubspot-inbound-2025-all-the-news-and-announcements-as-it-happens
    0 Comments 0 Shares 152 Views 0 Reviews
  • เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง”

    Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง

    เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ

    แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2

    เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง

    Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน

    ความหมายของการจดจ่ออย่างต่อเนื่อง
    เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน
    ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์
    สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow

    ตัวอย่างจากประสบการณ์จริง
    การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง
    การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ
    การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง

    ข้อมูลเสริมจากงานวิจัย
    การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory)
    การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่
    ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น

    ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ
    การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack
    ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้

    ความเปราะบางของระบบประสาท
    การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว
    หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้

    ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ”
    ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน
    การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม

    https://www.henrikkarlsson.xyz/p/attention
    🎙️ เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง” Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2 เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน ✅ ความหมายของการจดจ่ออย่างต่อเนื่อง ➡️ เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน ➡️ ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์ ➡️ สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow ✅ ตัวอย่างจากประสบการณ์จริง ➡️ การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง ➡️ การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ ➡️ การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง ✅ ข้อมูลเสริมจากงานวิจัย ➡️ การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory) ➡️ การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่ ➡️ ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น ‼️ ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ ⛔ การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack ⛔ ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้ ‼️ ความเปราะบางของระบบประสาท ⛔ การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว ⛔ หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้ ‼️ ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ” ⛔ ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน ⛔ การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม https://www.henrikkarlsson.xyz/p/attention
    WWW.HENRIKKARLSSON.XYZ
    Almost anything you give sustained attention to will begin to loop on itself and bloom
    When people talk about the value of paying attention and slowing down, they often make it sound prudish and monk-like. But we shouldn’t forget how interesting and overpoweringly pleasurable sustained attention can be.
    0 Comments 0 Shares 129 Views 0 Reviews
  • เรื่องเล่าจาก OZMO Roller: เมื่อม็อปแนวนอนกลายเป็นอดีต และแนวตั้งคืออนาคตของการทำความสะอาด

    ในโลกของหุ่นยนต์ดูดฝุ่นที่มาพร้อมฟังก์ชันม็อปพื้น หลายรุ่นใช้แผ่นม็อปหมุนแนวนอนที่อาจแค่ลากคราบไปมาโดยไม่ยกออกจริง ๆ แต่ YEEDI M14 PLUS ได้รับรางวัล SlashGear Innovation Award เพราะพลิกแนวคิดนี้ด้วย OZMO Roller Mopping Technology ที่พัฒนาโดยร่วมมือกับ Tineco

    แทนที่จะหมุนแนวนอน OZMO Roller ใช้ลูกกลิ้งแนวตั้งที่หมุนด้วยความเร็ว 200 RPM พร้อมแรงกด 4,000 Pa และมีหัวฉีดน้ำ 16 จุดที่ยิงน้ำ 200 ครั้งต่อนาที เพื่อขัดคราบฝังแน่นและดูดน้ำสกปรกกลับทันที—ไม่ทิ้งคราบ ไม่ทิ้งกลิ่น และไม่ต้องล้างม็อปด้วยมือ

    ระบบนี้ยังควบคุมด้วย AI ที่ช่วยให้หุ่นยนต์สามารถเล็งเป้าคราบ, ยืดแขนเข้าไปในมุมแคบ และหลบสิ่งกีดขวางได้อย่างแม่นยำ พร้อมระบบแปรง ZeroTangle 3.0 ที่ป้องกันขนพันกัน และแรงดูดสูงถึง 18,000 Pa ที่สามารถดูดฝุ่นและเศษขยะได้ทั้งขนาดเล็กและใหญ่

    เมื่อทำงานเสร็จ หุ่นยนต์จะกลับไปยัง Omni-Station ที่สามารถล้างม็อปด้วยน้ำร้อน 75°C, เป่าแห้งด้วยลมร้อน 63°C, เทน้ำสกปรกทิ้ง, เติมน้ำสะอาด และดูดฝุ่นออกจากถังเก็บ—ทั้งหมดนี้โดยไม่ต้องให้เจ้าของบ้านแตะต้องเลยแม้แต่นิดเดียว

    เทคโนโลยี OZMO Roller Mopping
    ลูกกลิ้งแนวตั้งหมุนที่ 200 RPM พร้อมแรงกด 4,000 Pa
    หัวฉีดน้ำ 16 จุดยิงน้ำ 200 ครั้งต่อนาทีเพื่อขัดคราบฝังแน่น
    ระบบดูดน้ำสกปรกกลับทันทีเพื่อป้องกันการปนเปื้อน

    ความสามารถด้านการดูดฝุ่น
    แรงดูดสูงสุด 18,000 Pa สำหรับเศษขยะทุกขนาด
    ระบบ ZeroTangle 3.0 ป้องกันขนพันแปรง
    แปรงหลักแบบ Cyclone และแปรงข้างแบบ ARClean

    ระบบนำทางและการปรับแต่ง
    Tru-Edge 2.0 สำหรับทำความสะอาดขอบและมุม
    AIVI 3D 3.0 สำหรับหลบสิ่งกีดขวางและจำแนกพื้นผิว
    ปรับลำดับการทำงาน เช่น เริ่มจากพรมก่อนพื้นแข็ง

    Omni-Station ที่ดูแลตัวเองได้
    ล้างม็อปด้วยน้ำร้อน 75°C และเป่าแห้งด้วยลมร้อน 63°C
    เทน้ำสกปรกและเติมน้ำสะอาดอัตโนมัติ
    ดูดฝุ่นออกจากถังเก็บโดยไม่ต้องเปิดฝาเอง
    ใช้งานได้นานถึง 150 วันก่อนต้องดูแลเอง

    https://www.slashgear.com/sponsored/1949546/robot-vacuum-roller-mop-innovation-award-yeedi-m14-plus/
    🎙️ เรื่องเล่าจาก OZMO Roller: เมื่อม็อปแนวนอนกลายเป็นอดีต และแนวตั้งคืออนาคตของการทำความสะอาด ในโลกของหุ่นยนต์ดูดฝุ่นที่มาพร้อมฟังก์ชันม็อปพื้น หลายรุ่นใช้แผ่นม็อปหมุนแนวนอนที่อาจแค่ลากคราบไปมาโดยไม่ยกออกจริง ๆ แต่ YEEDI M14 PLUS ได้รับรางวัล SlashGear Innovation Award เพราะพลิกแนวคิดนี้ด้วย OZMO Roller Mopping Technology ที่พัฒนาโดยร่วมมือกับ Tineco แทนที่จะหมุนแนวนอน OZMO Roller ใช้ลูกกลิ้งแนวตั้งที่หมุนด้วยความเร็ว 200 RPM พร้อมแรงกด 4,000 Pa และมีหัวฉีดน้ำ 16 จุดที่ยิงน้ำ 200 ครั้งต่อนาที เพื่อขัดคราบฝังแน่นและดูดน้ำสกปรกกลับทันที—ไม่ทิ้งคราบ ไม่ทิ้งกลิ่น และไม่ต้องล้างม็อปด้วยมือ ระบบนี้ยังควบคุมด้วย AI ที่ช่วยให้หุ่นยนต์สามารถเล็งเป้าคราบ, ยืดแขนเข้าไปในมุมแคบ และหลบสิ่งกีดขวางได้อย่างแม่นยำ พร้อมระบบแปรง ZeroTangle 3.0 ที่ป้องกันขนพันกัน และแรงดูดสูงถึง 18,000 Pa ที่สามารถดูดฝุ่นและเศษขยะได้ทั้งขนาดเล็กและใหญ่ เมื่อทำงานเสร็จ หุ่นยนต์จะกลับไปยัง Omni-Station ที่สามารถล้างม็อปด้วยน้ำร้อน 75°C, เป่าแห้งด้วยลมร้อน 63°C, เทน้ำสกปรกทิ้ง, เติมน้ำสะอาด และดูดฝุ่นออกจากถังเก็บ—ทั้งหมดนี้โดยไม่ต้องให้เจ้าของบ้านแตะต้องเลยแม้แต่นิดเดียว ✅ เทคโนโลยี OZMO Roller Mopping ➡️ ลูกกลิ้งแนวตั้งหมุนที่ 200 RPM พร้อมแรงกด 4,000 Pa ➡️ หัวฉีดน้ำ 16 จุดยิงน้ำ 200 ครั้งต่อนาทีเพื่อขัดคราบฝังแน่น ➡️ ระบบดูดน้ำสกปรกกลับทันทีเพื่อป้องกันการปนเปื้อน ✅ ความสามารถด้านการดูดฝุ่น ➡️ แรงดูดสูงสุด 18,000 Pa สำหรับเศษขยะทุกขนาด ➡️ ระบบ ZeroTangle 3.0 ป้องกันขนพันแปรง ➡️ แปรงหลักแบบ Cyclone และแปรงข้างแบบ ARClean ✅ ระบบนำทางและการปรับแต่ง ➡️ Tru-Edge 2.0 สำหรับทำความสะอาดขอบและมุม ➡️ AIVI 3D 3.0 สำหรับหลบสิ่งกีดขวางและจำแนกพื้นผิว ➡️ ปรับลำดับการทำงาน เช่น เริ่มจากพรมก่อนพื้นแข็ง ✅ Omni-Station ที่ดูแลตัวเองได้ ➡️ ล้างม็อปด้วยน้ำร้อน 75°C และเป่าแห้งด้วยลมร้อน 63°C ➡️ เทน้ำสกปรกและเติมน้ำสะอาดอัตโนมัติ ➡️ ดูดฝุ่นออกจากถังเก็บโดยไม่ต้องเปิดฝาเอง ➡️ ใช้งานได้นานถึง 150 วันก่อนต้องดูแลเอง https://www.slashgear.com/sponsored/1949546/robot-vacuum-roller-mop-innovation-award-yeedi-m14-plus/
    WWW.SLASHGEAR.COM
    YEEDI M14 PLUS Earns SlashGear Innovation Award For Its Game-Changing Roller Mop Technology - SlashGear
    Want a better way to keep your floors spotless? Find out what makes the roller mop technology on the YEEDI M14 PLUS robot vacuum so unique.
    0 Comments 0 Shares 99 Views 0 Reviews
  • เรื่องเล่าจาก Corsair และ Pavehawk: เมื่อการประมวลผล AI ไม่ต้องพึ่ง HBM อีกต่อไป

    ในยุคที่ HBM (High Bandwidth Memory) กลายเป็นหัวใจของการเทรนโมเดล AI ขนาดใหญ่ บริษัท D-Matrix กลับเลือกเดินเส้นทางที่ต่างออกไป—โดยมุ่งเน้นไปที่ “AI inference” ซึ่งเป็นภาระงานที่กำลังกลายเป็นศูนย์กลางของการใช้งานจริงในองค์กร

    แทนที่จะใช้ HBM ที่มีราคาสูงและ supply จำกัด D-Matrix พัฒนา Corsair ซึ่งเป็น inference accelerator แบบ chiplet ที่ใช้ LPDDR5 ขนาด 256GB และ SRAM 2GB ร่วมกับสถาปัตยกรรมใหม่ที่เรียกว่า 3DIMC (3D Digital In-Memory Compute)

    เทคโนโลยีนี้ถูกนำไปใช้ใน Pavehawk ซึ่งเป็นซิลิคอนรุ่นใหม่ที่ใช้ logic die จาก TSMC N5 และ DRAM แบบ stacked หลายชั้น เพื่อให้ compute และ memory อยู่ใกล้กันมากที่สุด ลด latency และพลังงานที่ใช้ในการเคลื่อนย้ายข้อมูล

    D-Matrix อ้างว่า Pavehawk มี bandwidth และ energy efficiency ต่อ stack สูงกว่า HBM4 ถึง 10 เท่า และสามารถขยายความจุได้มากกว่าด้วยต้นทุนที่ต่ำกว่า ทำให้เหมาะกับการ deploy ใน data center ที่ต้องการ inference ขนาดใหญ่แต่ไม่สามารถจ่ายราคาของ HBM ได้

    แนวคิดนี้ยังสอดคล้องกับเทรนด์ของอุตสาหกรรมที่เริ่มหันมาใช้ interconnect แบบ CXL และการรวม controller เข้ากับ accelerator เพื่อให้ compute และ memory ทำงานร่วมกันได้อย่างแนบแน่น

    แนวทางของ D-Matrix ในการออกแบบ inference accelerator
    Corsair ใช้ LPDDR5 256GB + SRAM 2GB แบบ chiplet-based
    ไม่ใช้ HBM แต่เน้นการ co-package ระหว่าง compute และ memory
    เหมาะกับ AI inference ที่ต้องการประสิทธิภาพสูงแต่ต้นทุนต่ำ

    เทคโนโลยี 3DIMC และ Pavehawk
    ใช้ logic die จาก TSMC N5 ร่วมกับ DRAM แบบ stacked หลายชั้น
    ลด latency และพลังงานในการเคลื่อนย้ายข้อมูล
    ให้ bandwidth และ energy efficiency สูงกว่า HBM4 ถึง 10 เท่า

    บริบทของอุตสาหกรรม AI
    Inference กำลังกลายเป็น workload หลักขององค์กร (คาดว่าจะเกิน 85% ภายใน 2–3 ปี)
    HBM มีราคาสูงและ supply จำกัด โดยเฉพาะสำหรับบริษัทขนาดเล็ก
    การรวม compute และ memory เป็นแนวทางที่หลายบริษัทเริ่มทดลอง เช่น CXL-based accelerator

    จุดเด่นของแนวคิด stacked DRAM + logic
    เพิ่มความจุและ bandwidth ได้โดยไม่ต้องใช้ HBM
    ลดต้นทุนและพลังงานในระดับ data center
    เหมาะกับการ deploy inference ที่ต้องการ scale แบบประหยัด

    https://www.techradar.com/pro/security/after-sandisk-d-matrix-is-proposing-an-intriguing-alternative-to-the-big-hbm-ai-puzzle-with-10x-better-performance-with-10x-better-energy-efficiency
    🎙️ เรื่องเล่าจาก Corsair และ Pavehawk: เมื่อการประมวลผล AI ไม่ต้องพึ่ง HBM อีกต่อไป ในยุคที่ HBM (High Bandwidth Memory) กลายเป็นหัวใจของการเทรนโมเดล AI ขนาดใหญ่ บริษัท D-Matrix กลับเลือกเดินเส้นทางที่ต่างออกไป—โดยมุ่งเน้นไปที่ “AI inference” ซึ่งเป็นภาระงานที่กำลังกลายเป็นศูนย์กลางของการใช้งานจริงในองค์กร แทนที่จะใช้ HBM ที่มีราคาสูงและ supply จำกัด D-Matrix พัฒนา Corsair ซึ่งเป็น inference accelerator แบบ chiplet ที่ใช้ LPDDR5 ขนาด 256GB และ SRAM 2GB ร่วมกับสถาปัตยกรรมใหม่ที่เรียกว่า 3DIMC (3D Digital In-Memory Compute) เทคโนโลยีนี้ถูกนำไปใช้ใน Pavehawk ซึ่งเป็นซิลิคอนรุ่นใหม่ที่ใช้ logic die จาก TSMC N5 และ DRAM แบบ stacked หลายชั้น เพื่อให้ compute และ memory อยู่ใกล้กันมากที่สุด ลด latency และพลังงานที่ใช้ในการเคลื่อนย้ายข้อมูล D-Matrix อ้างว่า Pavehawk มี bandwidth และ energy efficiency ต่อ stack สูงกว่า HBM4 ถึง 10 เท่า และสามารถขยายความจุได้มากกว่าด้วยต้นทุนที่ต่ำกว่า ทำให้เหมาะกับการ deploy ใน data center ที่ต้องการ inference ขนาดใหญ่แต่ไม่สามารถจ่ายราคาของ HBM ได้ แนวคิดนี้ยังสอดคล้องกับเทรนด์ของอุตสาหกรรมที่เริ่มหันมาใช้ interconnect แบบ CXL และการรวม controller เข้ากับ accelerator เพื่อให้ compute และ memory ทำงานร่วมกันได้อย่างแนบแน่น ✅ แนวทางของ D-Matrix ในการออกแบบ inference accelerator ➡️ Corsair ใช้ LPDDR5 256GB + SRAM 2GB แบบ chiplet-based ➡️ ไม่ใช้ HBM แต่เน้นการ co-package ระหว่าง compute และ memory ➡️ เหมาะกับ AI inference ที่ต้องการประสิทธิภาพสูงแต่ต้นทุนต่ำ ✅ เทคโนโลยี 3DIMC และ Pavehawk ➡️ ใช้ logic die จาก TSMC N5 ร่วมกับ DRAM แบบ stacked หลายชั้น ➡️ ลด latency และพลังงานในการเคลื่อนย้ายข้อมูล ➡️ ให้ bandwidth และ energy efficiency สูงกว่า HBM4 ถึง 10 เท่า ✅ บริบทของอุตสาหกรรม AI ➡️ Inference กำลังกลายเป็น workload หลักขององค์กร (คาดว่าจะเกิน 85% ภายใน 2–3 ปี) ➡️ HBM มีราคาสูงและ supply จำกัด โดยเฉพาะสำหรับบริษัทขนาดเล็ก ➡️ การรวม compute และ memory เป็นแนวทางที่หลายบริษัทเริ่มทดลอง เช่น CXL-based accelerator ✅ จุดเด่นของแนวคิด stacked DRAM + logic ➡️ เพิ่มความจุและ bandwidth ได้โดยไม่ต้องใช้ HBM ➡️ ลดต้นทุนและพลังงานในระดับ data center ➡️ เหมาะกับการ deploy inference ที่ต้องการ scale แบบประหยัด https://www.techradar.com/pro/security/after-sandisk-d-matrix-is-proposing-an-intriguing-alternative-to-the-big-hbm-ai-puzzle-with-10x-better-performance-with-10x-better-energy-efficiency
    0 Comments 0 Shares 85 Views 0 Reviews
  • เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ”

    ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้

    UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น

    แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน

    Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที

    ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น

    โครงสร้างของ UB-Mesh
    ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack
    รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น
    ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่

    เป้าหมายของ UB-Mesh
    เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center
    ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น
    ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล

    ประสิทธิภาพที่ Huawei เคลม
    Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์
    Latency ต่ำกว่าหนึ่งไมโครวินาที
    ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว

    การเปิด source และการผลักดันเป็นมาตรฐาน
    Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า
    หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน
    ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น

    การทดสอบและการใช้งานจริง
    Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด
    UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน
    เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง

    https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    🎙️ เรื่องเล่าจาก UB-Mesh: เมื่อการเชื่อมต่อใน data center ไม่ใช่แค่สายไฟ แต่คือ “ภาษากลางของระบบอัจฉริยะ” ในงาน Hot Chips 2025 Huawei ได้เปิดตัว UB-Mesh ซึ่งเป็น interconnect protocol แบบใหม่ที่ออกแบบมาเพื่อรองรับการเชื่อมต่อภายใน AI data center ขนาดใหญ่ระดับ SuperNode โดยมีเป้าหมายชัดเจน—ลดต้นทุน, เพิ่มความเสถียร, และ “เปิด source” ให้ทุกคนเข้าถึงได้ UB-Mesh ใช้โครงสร้างแบบ hybrid topology โดยผสมผสาน CLOS backbone ระดับ data hall เข้ากับ mesh แบบหลายมิติภายในแต่ละ rack ทำให้สามารถขยายระบบได้ถึงระดับหลายหมื่น node โดยไม่ต้องเพิ่มต้นทุนแบบเชิงเส้น แนวคิดนี้เกิดจากปัญหาที่ interconnect แบบเดิม เช่น PCIe, NVLink, UALink หรือ Ultra Ethernet เริ่มมีต้นทุนสูงเกินไปเมื่อระบบขยายขนาด และยังต้องใช้ protocol conversion หลายชั้น ซึ่งเพิ่ม latency และความซับซ้อน Huawei จึงเสนอ UB-Mesh เป็น “ภาษากลาง” ที่เชื่อมต่อทุกอุปกรณ์—CPU, GPU, SSD, memory, switch—ให้ทำงานร่วมกันได้เหมือนอยู่ในเครื่องเดียว โดยมี bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ และ latency ต่ำกว่าหนึ่งไมโครวินาที ที่สำคัญคือ Huawei จะเปิด source โปรโตคอลนี้ในเดือนหน้า พร้อมอนุญาตให้ใช้แบบ free license เพื่อผลักดันให้กลายเป็นมาตรฐานใหม่ของอุตสาหกรรม แม้จะยังมีคำถามเรื่อง governance และความเชื่อมั่นจากผู้ผลิตรายอื่น ✅ โครงสร้างของ UB-Mesh ➡️ ใช้ CLOS backbone ระดับ data hall ร่วมกับ multidimensional mesh ภายใน rack ➡️ รองรับการขยายระบบถึงระดับหลายหมื่น node โดยไม่เพิ่มต้นทุนแบบเชิงเส้น ➡️ ออกแบบมาเพื่อแก้ปัญหา latency และ hardware failure ในระบบ AI ขนาดใหญ่ ✅ เป้าหมายของ UB-Mesh ➡️ เป็น interconnect แบบ universal ที่เชื่อมทุกอุปกรณ์ใน data center ➡️ ลดความซับซ้อนจากการใช้ protocol conversion หลายชั้น ➡️ ทำให้ทุกพอร์ตสามารถเชื่อมต่อกันได้โดยไม่ต้องแปลงโปรโตคอล ✅ ประสิทธิภาพที่ Huawei เคลม ➡️ Bandwidth มากกว่า 1TB/s ต่ออุปกรณ์ ➡️ Latency ต่ำกว่าหนึ่งไมโครวินาที ➡️ ใช้ได้กับระบบที่มี CPU, GPU, memory, SSD และ switch ใน node เดียว ✅ การเปิด source และการผลักดันเป็นมาตรฐาน ➡️ Huawei จะเปิดเผยโปรโตคอล UB-Mesh พร้อม free license ในเดือนหน้า ➡️ หวังให้กลายเป็นมาตรฐานใหม่แทนระบบที่ fragmented ในปัจจุบัน ➡️ ขึ้นอยู่กับการยอมรับจาก partner และผู้ผลิตรายอื่น ✅ การทดสอบและการใช้งานจริง ➡️ Huawei ใช้ระบบ 8,192-node เป็นตัวอย่างว่าต้นทุนไม่จำเป็นต้องเพิ่มตามขนาด ➡️ UB-Mesh เป็นส่วนหนึ่งของแนวคิด SuperNode ที่รวมทุกอุปกรณ์ให้ทำงานร่วมกัน ➡️ เหมาะกับ AI training, cloud storage และ HPC ที่ต้องการ bandwidth สูง https://www.techradar.com/pro/could-this-be-the-next-big-step-forward-for-ai-huaweis-open-source-move-will-make-it-easier-than-ever-to-connect-together-well-pretty-much-everything
    0 Comments 0 Shares 144 Views 0 Reviews
  • เรื่องเล่าจาก Pezy SC4s: เมื่อ CPU ไม่ใช่แค่สมองกลาง แต่กลายเป็น “เครือข่ายของหมู่บ้านที่คิดเองได้”

    ในงาน Hot Chips 2025 บริษัท Pezy Computing จากญี่ปุ่นได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า SC4s ซึ่งใช้แนวคิด MIMD (Multiple Instructions, Multiple Data) แทนที่จะเป็น SIMD หรือ SIMT แบบที่ CPU ทั่วไปใช้กัน

    Pezy เปรียบเทียบสถาปัตยกรรมของตัวเองกับ “สังคมของรัฐ จังหวัด เมือง และหมู่บ้าน” ที่แต่ละหน่วยสามารถตัดสินใจเองได้ ไม่ต้องรอคำสั่งจากศูนย์กลาง ซึ่งต่างจาก CPU ทั่วไปที่มักใช้การประมวลผลแบบ lockstep หรือควบคุมจาก instruction เดียว

    SC4s ถูกผลิตบนเทคโนโลยี 5nm ของ TSMC และมีขนาด die ใหญ่ถึง 556mm² ซึ่งถือว่า “มหึมา” เมื่อเทียบกับ CPU ทั่วไป แต่ Pezy ไม่สนใจเรื่องพื้นที่ซิลิคอน เพราะเป้าหมายคือการทดสอบว่า “การขยายขนาดแบบสุดโต่ง” จะให้ประสิทธิภาพที่คุ้มค่าหรือไม่

    แม้จะยังไม่มีชิปจริงออกมา แต่ Pezy ได้เผยผลการจำลองการทำงานของ SC4s ซึ่งแสดงให้เห็นว่าในการประมวลผล DGEMM (matrix multiplication) ชิปนี้มีประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า และในการรันอัลกอริธึม Smith-Waterman สำหรับ genome alignment ก็เร็วขึ้นถึง 4 เท่า

    Pezy ยังประกาศว่ากำลังพัฒนา SC5 ซึ่งจะใช้เทคโนโลยี 3nm หรือเล็กกว่านั้น และตั้งเป้าเปิดตัวในปี 2027 แม้จะรู้ดีว่า timeline แบบนี้มักจะเปลี่ยนได้ตลอด

    สถาปัตยกรรม MIMD ของ Pezy SC4s
    ใช้แนวคิด “หลายคำสั่ง หลายข้อมูล” แทน “คำสั่งเดียว หลายข้อมูล”
    เหมาะกับงานที่มี thread อิสระจำนวนมาก เช่น genome alignment หรือ AI inference
    เปรียบเทียบกับสังคมที่แต่ละหน่วยตัดสินใจเอง ไม่ต้องรอศูนย์กลาง

    ข้อมูลทางเทคนิคของ SC4s
    ผลิตบน TSMC 5nm
    ขนาด die ประมาณ 556mm² ใหญ่กว่าชิปทั่วไป
    ไม่เน้นลดพื้นที่ แต่เน้นทดสอบประสิทธิภาพจากการขยายขนาด

    ผลการจำลองประสิทธิภาพ
    DGEMM: ประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า
    Smith-Waterman: เร็วขึ้นเกือบ 4 เท่า
    ยังไม่มีผลการทดสอบจากชิปจริง

    แผนการพัฒนาในอนาคต
    SC5 จะใช้เทคโนโลยี 3nm หรือเล็กกว่า
    ตั้งเป้าเปิดตัวในปี 2027
    ยังอยู่ในขั้นตอนการออกแบบและจำลอง

    https://www.techradar.com/pro/security/states-prefectures-cities-and-villages-how-one-tiny-japanese-cpu-maker-is-taking-a-radically-different-route-to-making-processors-with-thousands-of-cores
    🎙️ เรื่องเล่าจาก Pezy SC4s: เมื่อ CPU ไม่ใช่แค่สมองกลาง แต่กลายเป็น “เครือข่ายของหมู่บ้านที่คิดเองได้” ในงาน Hot Chips 2025 บริษัท Pezy Computing จากญี่ปุ่นได้เปิดตัวโปรเซสเซอร์รุ่นใหม่ชื่อว่า SC4s ซึ่งใช้แนวคิด MIMD (Multiple Instructions, Multiple Data) แทนที่จะเป็น SIMD หรือ SIMT แบบที่ CPU ทั่วไปใช้กัน Pezy เปรียบเทียบสถาปัตยกรรมของตัวเองกับ “สังคมของรัฐ จังหวัด เมือง และหมู่บ้าน” ที่แต่ละหน่วยสามารถตัดสินใจเองได้ ไม่ต้องรอคำสั่งจากศูนย์กลาง ซึ่งต่างจาก CPU ทั่วไปที่มักใช้การประมวลผลแบบ lockstep หรือควบคุมจาก instruction เดียว SC4s ถูกผลิตบนเทคโนโลยี 5nm ของ TSMC และมีขนาด die ใหญ่ถึง 556mm² ซึ่งถือว่า “มหึมา” เมื่อเทียบกับ CPU ทั่วไป แต่ Pezy ไม่สนใจเรื่องพื้นที่ซิลิคอน เพราะเป้าหมายคือการทดสอบว่า “การขยายขนาดแบบสุดโต่ง” จะให้ประสิทธิภาพที่คุ้มค่าหรือไม่ แม้จะยังไม่มีชิปจริงออกมา แต่ Pezy ได้เผยผลการจำลองการทำงานของ SC4s ซึ่งแสดงให้เห็นว่าในการประมวลผล DGEMM (matrix multiplication) ชิปนี้มีประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า และในการรันอัลกอริธึม Smith-Waterman สำหรับ genome alignment ก็เร็วขึ้นถึง 4 เท่า Pezy ยังประกาศว่ากำลังพัฒนา SC5 ซึ่งจะใช้เทคโนโลยี 3nm หรือเล็กกว่านั้น และตั้งเป้าเปิดตัวในปี 2027 แม้จะรู้ดีว่า timeline แบบนี้มักจะเปลี่ยนได้ตลอด ✅ สถาปัตยกรรม MIMD ของ Pezy SC4s ➡️ ใช้แนวคิด “หลายคำสั่ง หลายข้อมูล” แทน “คำสั่งเดียว หลายข้อมูล” ➡️ เหมาะกับงานที่มี thread อิสระจำนวนมาก เช่น genome alignment หรือ AI inference ➡️ เปรียบเทียบกับสังคมที่แต่ละหน่วยตัดสินใจเอง ไม่ต้องรอศูนย์กลาง ✅ ข้อมูลทางเทคนิคของ SC4s ➡️ ผลิตบน TSMC 5nm ➡️ ขนาด die ประมาณ 556mm² ใหญ่กว่าชิปทั่วไป ➡️ ไม่เน้นลดพื้นที่ แต่เน้นทดสอบประสิทธิภาพจากการขยายขนาด ✅ ผลการจำลองประสิทธิภาพ ➡️ DGEMM: ประสิทธิภาพด้านพลังงานมากกว่า SC3 ถึง 2 เท่า ➡️ Smith-Waterman: เร็วขึ้นเกือบ 4 เท่า ➡️ ยังไม่มีผลการทดสอบจากชิปจริง ✅ แผนการพัฒนาในอนาคต ➡️ SC5 จะใช้เทคโนโลยี 3nm หรือเล็กกว่า ➡️ ตั้งเป้าเปิดตัวในปี 2027 ➡️ ยังอยู่ในขั้นตอนการออกแบบและจำลอง https://www.techradar.com/pro/security/states-prefectures-cities-and-villages-how-one-tiny-japanese-cpu-maker-is-taking-a-radically-different-route-to-making-processors-with-thousands-of-cores
    0 Comments 0 Shares 142 Views 0 Reviews
  • เรื่องเล่าจาก ConcreteSC: เมื่อการสื่อสารไร้สายเรียนรู้ที่จะ “เข้าใจ” มากกว่าแค่ “ส่ง”

    ในอดีต การส่งข้อมูลไร้สายคือการพยายามถ่ายทอดทุกบิตให้ตรงที่สุด—ไม่ว่าจะเป็นภาพ เสียง หรือข้อความ ทุกพิกเซลต้องถูกส่งอย่างแม่นยำ แต่ในยุคที่ AI และอุปกรณ์ IoT กำลังครองโลก แนวคิดนี้เริ่มล้าสมัย เพราะสิ่งที่สำคัญไม่ใช่ “ข้อมูลดิบ” แต่คือ “ความหมายที่เข้าใจได้”

    ทีมวิจัยจาก Seoul National University of Science and Technology นำโดย Dr. Dong Jin Ji ได้พัฒนาเทคโนโลยีใหม่ชื่อว่า ConcreteSC ซึ่งเป็น framework สำหรับ “semantic communication” ที่ไม่ส่งข้อมูลแบบเดิม แต่ส่ง “สิ่งที่ข้อมูลนั้นหมายถึง” โดยตรง

    ConcreteSC ไม่ใช้ codebook ขนาดใหญ่แบบ vector quantization (VQ) ซึ่งมักมีปัญหาเรื่อง noise และความซับซ้อนในการฝึกโมเดล แต่ใช้ distribution แบบ “concrete” ที่สามารถแปลงข้อมูลต่อเนื่องให้เป็นบิตได้โดยตรง และรองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มีสัญญาณรบกวน

    เมื่อทดสอบกับชุดข้อมูล ImageNet ภายใต้เงื่อนไข Rayleigh และ Rician fading ซึ่งจำลองสภาพแวดล้อมไร้สายจริง ConcreteSC ให้ผลลัพธ์ที่ดีกว่า VQ ทั้งในด้าน structural similarity และ peak signal-to-noise ratio พร้อมลดความซับซ้อนของระบบลงอย่างมาก

    เทคโนโลยีนี้สามารถนำไปใช้ใน smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมากโดยไม่ต้องใช้สาย, หรือในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุและเด็กเล็ก ที่ต้องการความแม่นยำแต่ไม่สามารถส่งข้อมูลจำนวนมากได้

    แนวคิดหลักของ ConcreteSC
    เป็น framework สำหรับ semantic communication ที่เน้นการส่ง “ความหมาย” มากกว่าข้อมูลดิบ
    ใช้ concrete distribution แทน codebook ขนาดใหญ่แบบ VQ
    รองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มี noise

    ผลการทดสอบและประสิทธิภาพ
    ทดสอบกับ ImageNet ภายใต้ Rayleigh และ Rician fading
    ให้ผลลัพธ์ดีกว่า VQ ทั้งในด้าน SSIM และ PSNR
    ลดความซับซ้อน เพราะ scaling ตาม bit length ไม่ใช่ขนาด codebook

    การนำไปใช้ในอุตสาหกรรม
    เหมาะกับ smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมาก
    ใช้ในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุ
    รองรับการทำงานของ AI บนอุปกรณ์ขนาดเล็กโดยไม่ต้องใช้ bandwidth สูง

    ความก้าวหน้าทางเทคนิค
    สามารถฝึกโมเดลแบบ multi-feedback-length ด้วย masking scheme ที่เรียบง่าย
    เป็น framework ที่ fully differentiable และสามารถ integrate กับระบบอื่นได้ง่าย
    เปิดทางให้ใช้ semantic communication เป็นแกนหลักของ 6G

    https://www.techradar.com/pro/korean-researchers-develop-new-technology-that-could-boost-processing-unit-by-being-more-human-semantic-communication-focuses-on-the-bigger-picture-literally
    🎙️ เรื่องเล่าจาก ConcreteSC: เมื่อการสื่อสารไร้สายเรียนรู้ที่จะ “เข้าใจ” มากกว่าแค่ “ส่ง” ในอดีต การส่งข้อมูลไร้สายคือการพยายามถ่ายทอดทุกบิตให้ตรงที่สุด—ไม่ว่าจะเป็นภาพ เสียง หรือข้อความ ทุกพิกเซลต้องถูกส่งอย่างแม่นยำ แต่ในยุคที่ AI และอุปกรณ์ IoT กำลังครองโลก แนวคิดนี้เริ่มล้าสมัย เพราะสิ่งที่สำคัญไม่ใช่ “ข้อมูลดิบ” แต่คือ “ความหมายที่เข้าใจได้” ทีมวิจัยจาก Seoul National University of Science and Technology นำโดย Dr. Dong Jin Ji ได้พัฒนาเทคโนโลยีใหม่ชื่อว่า ConcreteSC ซึ่งเป็น framework สำหรับ “semantic communication” ที่ไม่ส่งข้อมูลแบบเดิม แต่ส่ง “สิ่งที่ข้อมูลนั้นหมายถึง” โดยตรง ConcreteSC ไม่ใช้ codebook ขนาดใหญ่แบบ vector quantization (VQ) ซึ่งมักมีปัญหาเรื่อง noise และความซับซ้อนในการฝึกโมเดล แต่ใช้ distribution แบบ “concrete” ที่สามารถแปลงข้อมูลต่อเนื่องให้เป็นบิตได้โดยตรง และรองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มีสัญญาณรบกวน เมื่อทดสอบกับชุดข้อมูล ImageNet ภายใต้เงื่อนไข Rayleigh และ Rician fading ซึ่งจำลองสภาพแวดล้อมไร้สายจริง ConcreteSC ให้ผลลัพธ์ที่ดีกว่า VQ ทั้งในด้าน structural similarity และ peak signal-to-noise ratio พร้อมลดความซับซ้อนของระบบลงอย่างมาก เทคโนโลยีนี้สามารถนำไปใช้ใน smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมากโดยไม่ต้องใช้สาย, หรือในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุและเด็กเล็ก ที่ต้องการความแม่นยำแต่ไม่สามารถส่งข้อมูลจำนวนมากได้ ✅ แนวคิดหลักของ ConcreteSC ➡️ เป็น framework สำหรับ semantic communication ที่เน้นการส่ง “ความหมาย” มากกว่าข้อมูลดิบ ➡️ ใช้ concrete distribution แทน codebook ขนาดใหญ่แบบ VQ ➡️ รองรับการฝึกแบบ end-to-end แม้ในสภาพแวดล้อมที่มี noise ✅ ผลการทดสอบและประสิทธิภาพ ➡️ ทดสอบกับ ImageNet ภายใต้ Rayleigh และ Rician fading ➡️ ให้ผลลัพธ์ดีกว่า VQ ทั้งในด้าน SSIM และ PSNR ➡️ ลดความซับซ้อน เพราะ scaling ตาม bit length ไม่ใช่ขนาด codebook ✅ การนำไปใช้ในอุตสาหกรรม ➡️ เหมาะกับ smart factory ที่มีการสื่อสารระหว่างเครื่องจักรจำนวนมาก ➡️ ใช้ในอุปกรณ์ดูแลสุขภาพที่ใช้พลังงานต่ำ เช่นเซนเซอร์สำหรับผู้สูงอายุ ➡️ รองรับการทำงานของ AI บนอุปกรณ์ขนาดเล็กโดยไม่ต้องใช้ bandwidth สูง ✅ ความก้าวหน้าทางเทคนิค ➡️ สามารถฝึกโมเดลแบบ multi-feedback-length ด้วย masking scheme ที่เรียบง่าย ➡️ เป็น framework ที่ fully differentiable และสามารถ integrate กับระบบอื่นได้ง่าย ➡️ เปิดทางให้ใช้ semantic communication เป็นแกนหลักของ 6G https://www.techradar.com/pro/korean-researchers-develop-new-technology-that-could-boost-processing-unit-by-being-more-human-semantic-communication-focuses-on-the-bigger-picture-literally
    WWW.TECHRADAR.COM
    ConcreteSC is a new idea from South Korean scientists that could make 6G networks work better
    ConcreteSC tech could deliver 39x speed boost for next-gen wireless networks
    0 Comments 0 Shares 139 Views 0 Reviews
  • เรื่องเล่าจาก Zero Trust: เมื่อแนวคิด “ไม่เชื่อใครเลย” กลายเป็นสิ่งที่องค์กรยังไม่พร้อมจะเชื่อ

    ในรายงานล่าสุดจาก Accenture ที่สำรวจ CISO และ CIO จากองค์กรขนาดใหญ่ทั่วโลก พบว่า 88% ของผู้บริหารด้านความปลอดภัยพบว่าการนำ Zero Trust มาใช้จริงนั้น “ยากมาก” และอีก 80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ

    Zero Trust ไม่ใช่แค่เทคโนโลยี แต่เป็นการเปลี่ยนวัฒนธรรมองค์กรจาก “เชื่อภายใน perimeter” ไปสู่ “ไม่เชื่อใครเลยแม้แต่ในระบบของตัวเอง” ซึ่งขัดกับวิธีคิดที่องค์กรใช้มานานหลายสิบปี

    Prashant Deo จาก Tata Consultancy Services อธิบายว่า Zero Trust คือการเปลี่ยนผ่านเชิงกลยุทธ์ ไม่ใช่การติดตั้งระบบแบบ tactical และต้องใช้การวางแผนแบบ phased และ use-case centric ที่ใช้เวลานานถึง 10–12 ปีในการสร้าง foundation ที่แท้จริง

    ปัญหาหลักคือ Zero Trust ไม่มีนิยามที่ชัดเจน—บางคนคิดว่าเป็นผลิตภัณฑ์ บางคนคิดว่าเป็น buzzword และบางคนคิดว่าเป็นแค่แนวทางการออกแบบระบบ ทำให้เกิดความสับสนทั้งในระดับผู้บริหารและทีมเทคนิค

    นอกจากนี้ ยังมีปัจจัยที่ทำให้ Zero Trust ถูกละเลย เช่น ไม่มี incentive ที่ชัดเจน, ไม่สามารถวัด ROI ได้ทันที, และ compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust โดยตรง

    สถิติจากรายงาน Accenture
    88% ของ CISO พบว่าการนำ Zero Trust มาใช้เป็นเรื่องยาก
    80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ
    Zero Trust ถูกมองว่าเป็นการเปลี่ยนผ่านเชิงกลยุทธ์มากกว่าการติดตั้งระบบ

    ความซับซ้อนของ Zero Trust
    ไม่มีนิยามที่ชัดเจน—บางคนมองว่าเป็นผลิตภัณฑ์ บางคนมองว่าเป็นแนวคิด
    ต้องปรับ mindset จาก “เชื่อภายในระบบ” ไปสู่ “ไม่เชื่อใครเลย”
    ต้องใช้การวางแผนแบบ phased และ use-case centric

    ปัจจัยที่ทำให้การนำ Zero Trust ล่าช้า
    ไม่มี incentive ที่ชัดเจนสำหรับผู้บริหาร
    ROI ไม่สามารถวัดได้ทันที ทำให้ไม่ถูก prioritize
    Compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust

    ความแตกต่างของแต่ละองค์กร
    Compliance, geography, vertical, partner ecosystem ต่างกันมาก
    ทำให้ไม่สามารถใช้ template เดียวกันได้ในการ implement
    ต้องปรับตาม on-prem, cloud, IoT, legacy และ remote site

    https://www.csoonline.com/article/4048002/88-of-cisos-struggle-to-implement-zero-trust.html
    🎙️ เรื่องเล่าจาก Zero Trust: เมื่อแนวคิด “ไม่เชื่อใครเลย” กลายเป็นสิ่งที่องค์กรยังไม่พร้อมจะเชื่อ ในรายงานล่าสุดจาก Accenture ที่สำรวจ CISO และ CIO จากองค์กรขนาดใหญ่ทั่วโลก พบว่า 88% ของผู้บริหารด้านความปลอดภัยพบว่าการนำ Zero Trust มาใช้จริงนั้น “ยากมาก” และอีก 80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ Zero Trust ไม่ใช่แค่เทคโนโลยี แต่เป็นการเปลี่ยนวัฒนธรรมองค์กรจาก “เชื่อภายใน perimeter” ไปสู่ “ไม่เชื่อใครเลยแม้แต่ในระบบของตัวเอง” ซึ่งขัดกับวิธีคิดที่องค์กรใช้มานานหลายสิบปี Prashant Deo จาก Tata Consultancy Services อธิบายว่า Zero Trust คือการเปลี่ยนผ่านเชิงกลยุทธ์ ไม่ใช่การติดตั้งระบบแบบ tactical และต้องใช้การวางแผนแบบ phased และ use-case centric ที่ใช้เวลานานถึง 10–12 ปีในการสร้าง foundation ที่แท้จริง ปัญหาหลักคือ Zero Trust ไม่มีนิยามที่ชัดเจน—บางคนคิดว่าเป็นผลิตภัณฑ์ บางคนคิดว่าเป็น buzzword และบางคนคิดว่าเป็นแค่แนวทางการออกแบบระบบ ทำให้เกิดความสับสนทั้งในระดับผู้บริหารและทีมเทคนิค นอกจากนี้ ยังมีปัจจัยที่ทำให้ Zero Trust ถูกละเลย เช่น ไม่มี incentive ที่ชัดเจน, ไม่สามารถวัด ROI ได้ทันที, และ compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust โดยตรง ✅ สถิติจากรายงาน Accenture ➡️ 88% ของ CISO พบว่าการนำ Zero Trust มาใช้เป็นเรื่องยาก ➡️ 80% ยังไม่สามารถปกป้องระบบ cyber-physical ได้อย่างมีประสิทธิภาพ ➡️ Zero Trust ถูกมองว่าเป็นการเปลี่ยนผ่านเชิงกลยุทธ์มากกว่าการติดตั้งระบบ ✅ ความซับซ้อนของ Zero Trust ➡️ ไม่มีนิยามที่ชัดเจน—บางคนมองว่าเป็นผลิตภัณฑ์ บางคนมองว่าเป็นแนวคิด ➡️ ต้องปรับ mindset จาก “เชื่อภายในระบบ” ไปสู่ “ไม่เชื่อใครเลย” ➡️ ต้องใช้การวางแผนแบบ phased และ use-case centric ✅ ปัจจัยที่ทำให้การนำ Zero Trust ล่าช้า ➡️ ไม่มี incentive ที่ชัดเจนสำหรับผู้บริหาร ➡️ ROI ไม่สามารถวัดได้ทันที ทำให้ไม่ถูก prioritize ➡️ Compensation ของ CISO ไม่ผูกกับเป้าหมายด้าน Zero Trust ✅ ความแตกต่างของแต่ละองค์กร ➡️ Compliance, geography, vertical, partner ecosystem ต่างกันมาก ➡️ ทำให้ไม่สามารถใช้ template เดียวกันได้ในการ implement ➡️ ต้องปรับตาม on-prem, cloud, IoT, legacy และ remote site https://www.csoonline.com/article/4048002/88-of-cisos-struggle-to-implement-zero-trust.html
    WWW.CSOONLINE.COM
    88% of CISOs struggle to implement zero trust
    Vaguely defined, minimally incentivized, and often unending, the zero trust journey is notably challenging and complex. Says one authentication manager: ‘I want to meet the 12% who have not found it a struggle.’
    0 Comments 0 Shares 115 Views 0 Reviews
  • เรื่องเล่าจากแป้นพิมพ์: เมื่อ Return ไม่ได้แค่ “ขึ้นบรรทัดใหม่” แต่เป็นสัญลักษณ์ของการเปลี่ยนยุค

    ในจินตนาการของคนทั่วไป การเปลี่ยนจากเครื่องพิมพ์ดีดไปสู่คอมพิวเตอร์ดูเหมือนจะเรียบง่าย—แค่เอาจอและ CPU มาต่อกับแป้นพิมพ์ก็จบ แต่ความจริงนั้นซับซ้อนกว่ามาก และไม่มีปุ่มไหนสะท้อนการเปลี่ยนผ่านนี้ได้ดีเท่ากับ “Return”

    เริ่มจากเครื่องพิมพ์ดีดในยุค 1870s ที่ไม่มีแม้แต่ปุ่ม 0 หรือ 1 เพราะถูกตัดออกเพื่อลดต้นทุน ผู้ใช้ต้องพิมพ์ O แทน 0 และ l แทน 1 หรือแม้แต่ใช้ดินสอเติมสัญลักษณ์ที่ขาดหายไป การพิมพ์ซ้อนทับเพื่อสร้างสัญลักษณ์ใหม่กลายเป็นศิลปะที่เรียกว่า “concrete poetry”

    คันโยก “carriage return” คือกลไกที่พากระดาษขึ้นบรรทัดใหม่และเลื่อนหัวพิมพ์กลับไปทางซ้าย แต่เมื่อเครื่องพิมพ์ดีดไฟฟ้าเข้ามาในยุค 1940s–1950s คันโยกนี้ก็กลายเป็นปุ่ม “Return” ที่กดง่ายขึ้นถึง 425 เท่า

    จากนั้น teletypes ก็เข้ามาแทนที่ Morse code โดยใช้แป้นพิมพ์ QWERTY ส่งข้อความผ่านสายไฟ แต่การเลื่อนหัวพิมพ์กลับไปทางซ้าย (Carriage Return) ใช้เวลานานกว่าการขึ้นบรรทัดใหม่ (Line Feed) จึงต้องแยกเป็นสองรหัส—CR และ LF—ซึ่งกลายเป็นปัญหาที่นักพัฒนายังเจอในทุกวันนี้

    เมื่อ word processor เข้ามาในยุค 1970s–1980s การพิมพ์กลายเป็นข้อมูลที่แก้ไขได้ การขึ้นบรรทัดใหม่จึงไม่ใช่เรื่องของกลไกอีกต่อไป แต่เป็นเรื่องของ “text reflow” ที่ต้องปรับอัตโนมัติเมื่อมีการแก้ไขข้อความ Return จึงกลายเป็นปุ่มที่ใช้เฉพาะการขึ้นย่อหน้า ส่วนการขึ้นบรรทัดใหม่ต้องใช้ soft return, hard return หรือแม้แต่ modifier key

    เมื่อคอมพิวเตอร์เริ่มมีหน้าจอและฟอร์มให้กรอกข้อมูล ปุ่ม Return ก็ถูกเปลี่ยนชื่อเป็น Enter เพื่อสื่อถึงการ “ส่งข้อมูล” ไม่ใช่แค่ “ขึ้นบรรทัดใหม่” และนั่นคือจุดเริ่มต้นของความสับสนที่ยังอยู่จนถึงทุกวันนี้

    จุดกำเนิดของ Return บนเครื่องพิมพ์ดีด
    เริ่มจากคันโยกที่เลื่อนหัวพิมพ์กลับไปทางซ้ายและขึ้นบรรทัดใหม่
    กลายเป็นปุ่ม “Return” เมื่อเครื่องพิมพ์ดีดไฟฟ้าเข้ามา
    ลดแรงที่ต้องใช้ในการพิมพ์ลงอย่างมหาศาล

    การแยก CR และ LF บน teletypes
    Carriage Return (CR) เลื่อนหัวพิมพ์กลับไปทางซ้าย
    Line Feed (LF) ขึ้นบรรทัดใหม่
    ถูกแยกเป็นสองรหัสเพื่อให้ระบบทันกับความเร็วในการส่งข้อมูล

    การเปลี่ยนแปลงในยุค word processor
    Return ใช้เฉพาะการขึ้นย่อหน้า
    การขึ้นบรรทัดใหม่ต้องใช้ soft return หรือ modifier key
    เกิดแนวคิด “text reflow” ที่ปรับข้อความอัตโนมัติ

    การเปลี่ยนชื่อเป็น Enter บนคอมพิวเตอร์
    ใช้ Enter เพื่อสื่อถึงการ “ส่งข้อมูล” หรือ “ยืนยันคำสั่ง”
    IBM และ Apple เลือกใช้ชื่อแตกต่างกัน: IBM ใช้ Enter, Apple ใช้ Return
    ปุ่มเดียวกันมีความหมายต่างกันตามบริบทของซอฟต์แวร์

    ความซับซ้อนของแป้นพิมพ์ยุคใหม่
    ปุ่มเดียวอาจมีหลายหน้าที่ เช่น Return, Enter, Execute, New Line
    Modifier key เช่น Shift, Ctrl, Alt เปลี่ยนพฤติกรรมของปุ่ม
    การออกแบบแป้นพิมพ์ต้องรองรับหลายบริบทและหลายภาษา

    https://aresluna.org/the-day-return-became-enter/
    🎙️ เรื่องเล่าจากแป้นพิมพ์: เมื่อ Return ไม่ได้แค่ “ขึ้นบรรทัดใหม่” แต่เป็นสัญลักษณ์ของการเปลี่ยนยุค ในจินตนาการของคนทั่วไป การเปลี่ยนจากเครื่องพิมพ์ดีดไปสู่คอมพิวเตอร์ดูเหมือนจะเรียบง่าย—แค่เอาจอและ CPU มาต่อกับแป้นพิมพ์ก็จบ แต่ความจริงนั้นซับซ้อนกว่ามาก และไม่มีปุ่มไหนสะท้อนการเปลี่ยนผ่านนี้ได้ดีเท่ากับ “Return” เริ่มจากเครื่องพิมพ์ดีดในยุค 1870s ที่ไม่มีแม้แต่ปุ่ม 0 หรือ 1 เพราะถูกตัดออกเพื่อลดต้นทุน ผู้ใช้ต้องพิมพ์ O แทน 0 และ l แทน 1 หรือแม้แต่ใช้ดินสอเติมสัญลักษณ์ที่ขาดหายไป การพิมพ์ซ้อนทับเพื่อสร้างสัญลักษณ์ใหม่กลายเป็นศิลปะที่เรียกว่า “concrete poetry” คันโยก “carriage return” คือกลไกที่พากระดาษขึ้นบรรทัดใหม่และเลื่อนหัวพิมพ์กลับไปทางซ้าย แต่เมื่อเครื่องพิมพ์ดีดไฟฟ้าเข้ามาในยุค 1940s–1950s คันโยกนี้ก็กลายเป็นปุ่ม “Return” ที่กดง่ายขึ้นถึง 425 เท่า จากนั้น teletypes ก็เข้ามาแทนที่ Morse code โดยใช้แป้นพิมพ์ QWERTY ส่งข้อความผ่านสายไฟ แต่การเลื่อนหัวพิมพ์กลับไปทางซ้าย (Carriage Return) ใช้เวลานานกว่าการขึ้นบรรทัดใหม่ (Line Feed) จึงต้องแยกเป็นสองรหัส—CR และ LF—ซึ่งกลายเป็นปัญหาที่นักพัฒนายังเจอในทุกวันนี้ เมื่อ word processor เข้ามาในยุค 1970s–1980s การพิมพ์กลายเป็นข้อมูลที่แก้ไขได้ การขึ้นบรรทัดใหม่จึงไม่ใช่เรื่องของกลไกอีกต่อไป แต่เป็นเรื่องของ “text reflow” ที่ต้องปรับอัตโนมัติเมื่อมีการแก้ไขข้อความ Return จึงกลายเป็นปุ่มที่ใช้เฉพาะการขึ้นย่อหน้า ส่วนการขึ้นบรรทัดใหม่ต้องใช้ soft return, hard return หรือแม้แต่ modifier key เมื่อคอมพิวเตอร์เริ่มมีหน้าจอและฟอร์มให้กรอกข้อมูล ปุ่ม Return ก็ถูกเปลี่ยนชื่อเป็น Enter เพื่อสื่อถึงการ “ส่งข้อมูล” ไม่ใช่แค่ “ขึ้นบรรทัดใหม่” และนั่นคือจุดเริ่มต้นของความสับสนที่ยังอยู่จนถึงทุกวันนี้ ✅ จุดกำเนิดของ Return บนเครื่องพิมพ์ดีด ➡️ เริ่มจากคันโยกที่เลื่อนหัวพิมพ์กลับไปทางซ้ายและขึ้นบรรทัดใหม่ ➡️ กลายเป็นปุ่ม “Return” เมื่อเครื่องพิมพ์ดีดไฟฟ้าเข้ามา ➡️ ลดแรงที่ต้องใช้ในการพิมพ์ลงอย่างมหาศาล ✅ การแยก CR และ LF บน teletypes ➡️ Carriage Return (CR) เลื่อนหัวพิมพ์กลับไปทางซ้าย ➡️ Line Feed (LF) ขึ้นบรรทัดใหม่ ➡️ ถูกแยกเป็นสองรหัสเพื่อให้ระบบทันกับความเร็วในการส่งข้อมูล ✅ การเปลี่ยนแปลงในยุค word processor ➡️ Return ใช้เฉพาะการขึ้นย่อหน้า ➡️ การขึ้นบรรทัดใหม่ต้องใช้ soft return หรือ modifier key ➡️ เกิดแนวคิด “text reflow” ที่ปรับข้อความอัตโนมัติ ✅ การเปลี่ยนชื่อเป็น Enter บนคอมพิวเตอร์ ➡️ ใช้ Enter เพื่อสื่อถึงการ “ส่งข้อมูล” หรือ “ยืนยันคำสั่ง” ➡️ IBM และ Apple เลือกใช้ชื่อแตกต่างกัน: IBM ใช้ Enter, Apple ใช้ Return ➡️ ปุ่มเดียวกันมีความหมายต่างกันตามบริบทของซอฟต์แวร์ ✅ ความซับซ้อนของแป้นพิมพ์ยุคใหม่ ➡️ ปุ่มเดียวอาจมีหลายหน้าที่ เช่น Return, Enter, Execute, New Line ➡️ Modifier key เช่น Shift, Ctrl, Alt เปลี่ยนพฤติกรรมของปุ่ม ➡️ การออกแบบแป้นพิมพ์ต้องรองรับหลายบริบทและหลายภาษา https://aresluna.org/the-day-return-became-enter/
    ARESLUNA.ORG
    The day Return became Enter
    A deep dive into the convoluted and fascinating story of one of the most important keys on the keyboard
    0 Comments 0 Shares 116 Views 0 Reviews
  • เรื่องเล่าจาก Otherbranch: เมื่อการตามหาวิศวกรที่ “ดีที่สุด” กลายเป็นศัตรูของการจ้างคนที่ “ดีพอจะสร้างจริง”

    ในโลกของสตาร์ทอัพ การจ้างงานคือการตัดสินใจที่สำคัญที่สุดอย่างหนึ่ง แต่หลายบริษัทกลับติดกับดักความคิดว่า “เราต้องการคนที่ดีที่สุดเท่านั้น” โดยไม่รู้ว่าความคิดนี้กำลังทำให้พวกเขาเสียเวลา เสียโอกาส และเสีย momentum ไปอย่างเงียบ ๆ

    บทความจาก Otherbranch ชี้ให้เห็นว่า “วิศวกรที่ดีที่สุด” มักมีเงื่อนไขที่บริษัททั่วไปไม่สามารถให้ได้—เงินเดือนสูงกว่าทั้งทีม, ต้องการ remote work, ไม่ยอมรับเทคโนโลยีที่มี tech debt, และไม่สนใจบริษัทที่ยังไม่มี traction ชัดเจน พวกเขามีตัวเลือกมากมาย และไม่จำเป็นต้องเสี่ยงกับสตาร์ทอัพที่ยังไม่พิสูจน์ตัวเอง

    ในทางกลับกัน “วิศวกรที่ดีมาก” ซึ่งอาจไม่ใช่ระดับท็อปของโลก แต่มีความสามารถจริง พร้อมเรียนรู้ และสามารถ onboard ได้เร็ว กลับถูกมองข้ามเพราะไม่ตรงกับ “เช็กลิสต์ในฝัน” ที่ผู้ก่อตั้งตั้งไว้

    การจ้างงานคือการเจรจา ไม่ใช่การคัดเลือกฝ่ายเดียว และการยึดติดกับมาตรฐานที่ไม่มีใครผ่านได้ ทำให้บริษัทต้องรอเป็นเดือน ๆ โดยไม่มีใครเข้ามาเติมทีม ทั้งที่เวลาในสตาร์ทอัพคือทรัพยากรที่มีค่าที่สุด

    ปัญหาของการตั้งเป้าหมาย “ต้องการคนที่ดีที่สุด”
    คนที่ดีที่สุดมักมีเงื่อนไขที่บริษัททั่วไปไม่สามารถให้ได้
    พวกเขาไม่สนใจบริษัทที่ยังไม่มี traction หรือยัง early stage
    ต้องการเงินเดือนสูง, remote work, และอิสระในการตัดสินใจ

    ผลกระทบจากการยึดติดกับมาตรฐานสูงเกินไป
    ทำให้บริษัทต้องรอเป็นเดือน ๆ โดยไม่มีใครเข้ามาเติมทีม
    เสียเวลาในช่วงที่ควรเร่งสร้าง product และ iterate
    สุดท้ายต้อง “ยอม” จ้างคนที่ไม่ตรงสเปกหลังจากเสียเวลาไปนาน

    ทางเลือกที่ดีกว่า: จ้างคนที่ “ดีพอจะสร้างจริง”
    วิศวกร mid-level ที่มีความสามารถและพร้อมเรียนรู้ onboard ได้เร็ว
    สามารถทำงานได้เต็มที่ภายใน 2 สัปดาห์ แทนที่จะรอคนที่ “พร้อมตั้งแต่วันแรก”
    ช่วยให้บริษัทเดินหน้าได้เร็วขึ้น และลดความเสี่ยงจากการรอ

    แนวคิดการจ้างงานแบบมี trade-off
    การจ้างงานคือการเจรจา ไม่ใช่การคัดเลือกฝ่ายเดียว
    ต้องคิดว่า “วันนี้เราต้องการอะไรจริง ๆ” และยอมแลกบางอย่างเพื่อได้สิ่งนั้น
    การยอมลดบางเงื่อนไข เช่น ชั่วโมงทำงาน หรือประสบการณ์ startup อาจให้ผลลัพธ์ที่ดีกว่า

    https://www.otherbranch.com/shared/blog/no-you-dont-want-to-hire-the-best-engineers
    🎙️ เรื่องเล่าจาก Otherbranch: เมื่อการตามหาวิศวกรที่ “ดีที่สุด” กลายเป็นศัตรูของการจ้างคนที่ “ดีพอจะสร้างจริง” ในโลกของสตาร์ทอัพ การจ้างงานคือการตัดสินใจที่สำคัญที่สุดอย่างหนึ่ง แต่หลายบริษัทกลับติดกับดักความคิดว่า “เราต้องการคนที่ดีที่สุดเท่านั้น” โดยไม่รู้ว่าความคิดนี้กำลังทำให้พวกเขาเสียเวลา เสียโอกาส และเสีย momentum ไปอย่างเงียบ ๆ บทความจาก Otherbranch ชี้ให้เห็นว่า “วิศวกรที่ดีที่สุด” มักมีเงื่อนไขที่บริษัททั่วไปไม่สามารถให้ได้—เงินเดือนสูงกว่าทั้งทีม, ต้องการ remote work, ไม่ยอมรับเทคโนโลยีที่มี tech debt, และไม่สนใจบริษัทที่ยังไม่มี traction ชัดเจน พวกเขามีตัวเลือกมากมาย และไม่จำเป็นต้องเสี่ยงกับสตาร์ทอัพที่ยังไม่พิสูจน์ตัวเอง ในทางกลับกัน “วิศวกรที่ดีมาก” ซึ่งอาจไม่ใช่ระดับท็อปของโลก แต่มีความสามารถจริง พร้อมเรียนรู้ และสามารถ onboard ได้เร็ว กลับถูกมองข้ามเพราะไม่ตรงกับ “เช็กลิสต์ในฝัน” ที่ผู้ก่อตั้งตั้งไว้ การจ้างงานคือการเจรจา ไม่ใช่การคัดเลือกฝ่ายเดียว และการยึดติดกับมาตรฐานที่ไม่มีใครผ่านได้ ทำให้บริษัทต้องรอเป็นเดือน ๆ โดยไม่มีใครเข้ามาเติมทีม ทั้งที่เวลาในสตาร์ทอัพคือทรัพยากรที่มีค่าที่สุด ✅ ปัญหาของการตั้งเป้าหมาย “ต้องการคนที่ดีที่สุด” ➡️ คนที่ดีที่สุดมักมีเงื่อนไขที่บริษัททั่วไปไม่สามารถให้ได้ ➡️ พวกเขาไม่สนใจบริษัทที่ยังไม่มี traction หรือยัง early stage ➡️ ต้องการเงินเดือนสูง, remote work, และอิสระในการตัดสินใจ ✅ ผลกระทบจากการยึดติดกับมาตรฐานสูงเกินไป ➡️ ทำให้บริษัทต้องรอเป็นเดือน ๆ โดยไม่มีใครเข้ามาเติมทีม ➡️ เสียเวลาในช่วงที่ควรเร่งสร้าง product และ iterate ➡️ สุดท้ายต้อง “ยอม” จ้างคนที่ไม่ตรงสเปกหลังจากเสียเวลาไปนาน ✅ ทางเลือกที่ดีกว่า: จ้างคนที่ “ดีพอจะสร้างจริง” ➡️ วิศวกร mid-level ที่มีความสามารถและพร้อมเรียนรู้ onboard ได้เร็ว ➡️ สามารถทำงานได้เต็มที่ภายใน 2 สัปดาห์ แทนที่จะรอคนที่ “พร้อมตั้งแต่วันแรก” ➡️ ช่วยให้บริษัทเดินหน้าได้เร็วขึ้น และลดความเสี่ยงจากการรอ ✅ แนวคิดการจ้างงานแบบมี trade-off ➡️ การจ้างงานคือการเจรจา ไม่ใช่การคัดเลือกฝ่ายเดียว ➡️ ต้องคิดว่า “วันนี้เราต้องการอะไรจริง ๆ” และยอมแลกบางอย่างเพื่อได้สิ่งนั้น ➡️ การยอมลดบางเงื่อนไข เช่น ชั่วโมงทำงาน หรือประสบการณ์ startup อาจให้ผลลัพธ์ที่ดีกว่า https://www.otherbranch.com/shared/blog/no-you-dont-want-to-hire-the-best-engineers
    WWW.OTHERBRANCH.COM
    No, you don't want to hire "the best engineers" - Otherbranch
    I think this might be the meanest thing I've ever written.
    0 Comments 0 Shares 121 Views 0 Reviews
  • เรื่องเล่าจาก WeChat ถึง Douyin: เมื่อโพสต์ทุกชิ้นต้องบอกว่า “มนุษย์หรือ AI”

    ในเดือนกันยายน 2025 จีนได้บังคับใช้กฎหมายใหม่ที่กำหนดให้ทุกแพลตฟอร์มโซเชียลมีเดียต้องติดป้ายกำกับเนื้อหาที่สร้างโดย AI อย่างชัดเจน ทั้งในรูปแบบที่ผู้ใช้มองเห็นได้ (explicit labels) และฝังไว้ใน metadata สำหรับระบบอัตโนมัติ (implicit identifiers) โดยมีเป้าหมายเพื่อควบคุมการแพร่กระจายของข้อมูลเท็จ, deepfake, และการชักจูงทางความคิดผ่านเทคโนโลยีปัญญาประดิษฐ์

    แพลตฟอร์มยักษ์ใหญ่ของจีน เช่น WeChat, Douyin (TikTok เวอร์ชันจีน), Weibo และ RedNote ต่างออกประกาศให้ผู้ใช้ต้อง “ประกาศด้วยตัวเอง” หากโพสต์นั้นสร้างด้วย AI และห้ามลบหรือแก้ไขป้ายกำกับที่ระบบติดไว้โดยเด็ดขาด หากฝ่าฝืน อาจถูกลบโพสต์หรือถูกลงโทษตามที่ Cyberspace Administration of China (CAC) กำหนดไว้

    นอกจากนี้ CAC ยังเปิดช่องให้ผู้ใช้ทั่วไปสามารถ “รายงาน” เนื้อหาที่ไม่ได้ติดป้าย AI ได้ด้วยตนเอง และมีการตั้งระบบตรวจสอบ metadata เพื่อช่วยตรวจจับเนื้อหาที่หลุดรอดจากการติดป้าย

    แม้จีนจะเป็นประเทศแรกที่ออกกฎหมายลักษณะนี้อย่างเป็นทางการ แต่แนวคิดนี้กำลังแพร่ไปทั่วโลก เช่น Internet Engineering Task Force เสนอให้มี “AI header field” สำหรับเว็บไซต์ และ Google ก็เริ่มฝัง C2PA credentials ในภาพถ่ายจาก Pixel 10 เพื่อบอกว่า “ภาพนี้ผ่าน AI หรือไม่”


    https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-social-media-firms-comply-with-strict-ai-labelling-law-making-it-clear-to-users-and-bots-whats-real-and-whats-not
    🎙️ เรื่องเล่าจาก WeChat ถึง Douyin: เมื่อโพสต์ทุกชิ้นต้องบอกว่า “มนุษย์หรือ AI” ในเดือนกันยายน 2025 จีนได้บังคับใช้กฎหมายใหม่ที่กำหนดให้ทุกแพลตฟอร์มโซเชียลมีเดียต้องติดป้ายกำกับเนื้อหาที่สร้างโดย AI อย่างชัดเจน ทั้งในรูปแบบที่ผู้ใช้มองเห็นได้ (explicit labels) และฝังไว้ใน metadata สำหรับระบบอัตโนมัติ (implicit identifiers) โดยมีเป้าหมายเพื่อควบคุมการแพร่กระจายของข้อมูลเท็จ, deepfake, และการชักจูงทางความคิดผ่านเทคโนโลยีปัญญาประดิษฐ์ แพลตฟอร์มยักษ์ใหญ่ของจีน เช่น WeChat, Douyin (TikTok เวอร์ชันจีน), Weibo และ RedNote ต่างออกประกาศให้ผู้ใช้ต้อง “ประกาศด้วยตัวเอง” หากโพสต์นั้นสร้างด้วย AI และห้ามลบหรือแก้ไขป้ายกำกับที่ระบบติดไว้โดยเด็ดขาด หากฝ่าฝืน อาจถูกลบโพสต์หรือถูกลงโทษตามที่ Cyberspace Administration of China (CAC) กำหนดไว้ นอกจากนี้ CAC ยังเปิดช่องให้ผู้ใช้ทั่วไปสามารถ “รายงาน” เนื้อหาที่ไม่ได้ติดป้าย AI ได้ด้วยตนเอง และมีการตั้งระบบตรวจสอบ metadata เพื่อช่วยตรวจจับเนื้อหาที่หลุดรอดจากการติดป้าย แม้จีนจะเป็นประเทศแรกที่ออกกฎหมายลักษณะนี้อย่างเป็นทางการ แต่แนวคิดนี้กำลังแพร่ไปทั่วโลก เช่น Internet Engineering Task Force เสนอให้มี “AI header field” สำหรับเว็บไซต์ และ Google ก็เริ่มฝัง C2PA credentials ในภาพถ่ายจาก Pixel 10 เพื่อบอกว่า “ภาพนี้ผ่าน AI หรือไม่” https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-social-media-firms-comply-with-strict-ai-labelling-law-making-it-clear-to-users-and-bots-whats-real-and-whats-not
    WWW.TOMSHARDWARE.COM
    Chinese social media firms comply with strict AI labelling law, making it clear to users and bots what's real and what's not
    It's part of a broader push by the Cyberspace Administration of China to have greater oversight over the AI industry and the content it produces.
    0 Comments 0 Shares 148 Views 0 Reviews
  • เรื่องเล่าจากสนามหัวพิมพ์: เมื่อ Prusa, Bambu, AtomForm และ Snapmaker เปิดศึกแย่งชิงอนาคตของการพิมพ์หลายสี

    ในเดือนสิงหาคม 2025 วงการ 3D printing สั่นสะเทือนด้วยการเปิดตัวเครื่องพิมพ์แบบ “tool changer” ถึง 4 รุ่นในเวลาใกล้เคียงกัน โดยแต่ละค่ายต่างมีแนวทางเฉพาะของตนเองในการจัดการกับปัญหา “การพิมพ์หลายสีหรือหลายวัสดุ” ที่เคยยุ่งยากและเปลืองวัสดุ

    Snapmaker เปิดตัว U1 บน Kickstarter ด้วยราคาต่ำสุดเพียง $649 สำหรับผู้สนับสนุนกลุ่มแรก และสามารถระดมทุนได้กว่า $13 ล้านจากผู้สนับสนุนกว่า 14,000 คนภายในไม่กี่วัน AtomForm จากจีนเปิดตัว Palette 300 ที่มีหัวพิมพ์ถึง 12 หัว โดยใช้เทคนิคสลับหัวแบบ low-footprint และเตรียมเปิดตัวบน Kickstarter ด้วยราคาเริ่มต้น $1,499

    Bambu Lab เปิดตัว H2C ซึ่งแม้จะไม่ใช่ tool changer เต็มรูปแบบ แต่ก็ใช้แนวคิด “สลับหัวฉีด” โดยยังต้องพึ่งระบบ AMS ในการป้อนเส้นพลาสติก ส่วน Prusa กลับมาอย่างเงียบ ๆ ด้วยโพสต์ภาพ CORE One ที่ติดตั้งหัวพิมพ์ 6 หัว พร้อมอีโมจิป๊อปคอร์น และตามมาด้วยการยืนยันความร่วมมือกับ Bondtech ผู้พัฒนา INDX ซึ่งเป็นระบบ tool changer แบบไร้สายและใช้ความร้อนแบบเหนี่ยวนำ

    แนวคิดของ INDX คือการลดความซับซ้อนของหัวพิมพ์ให้เบาและง่ายต่อการสลับ โดยไม่ต้องใช้สายไฟหรือท่อเส้นพลาสติกที่ยุ่งยาก ทำให้ระบบมีความเสถียรและลดปัญหาการอุดตันของหัวฉีด

    การกลับมาของ Prusa กับ CORE One
    โพสต์ภาพ CORE One ที่ติดตั้งหัวพิมพ์ 6 หัว พร้อมอีโมจิป๊อปคอร์น
    ยืนยันความร่วมมือกับ Bondtech ในการใช้ระบบ INDX tool changer
    INDX ใช้ระบบไร้สายและความร้อนแบบเหนี่ยวนำ ทำให้หัวพิมพ์เบาและง่ายต่อการสลับ

    การเปิดตัวของ Snapmaker U1
    เปิดตัวบน Kickstarter ด้วยราคาต่ำสุด $649
    ระดมทุนได้กว่า $13 ล้านจากผู้สนับสนุนกว่า 14,000 คน
    รองรับการพิมพ์ 4 สีด้วยระบบ tool changer แบบ desktop

    การเปิดตัวของ AtomForm Palette 300
    มีหัวพิมพ์ถึง 12 หัวในพื้นที่ 300 x 300 x 300 mm
    ใช้เทคนิคสลับหัวแบบ low-footprint โดยยังไม่มีการสาธิตสด
    เตรียมเปิดตัวบน Kickstarter ด้วยราคาเริ่มต้น $1,499

    การเปิดตัวของ Bambu Lab H2C
    ใช้แนวคิด “สลับหัวฉีด” โดยยังต้องใช้ AMS ในการป้อนเส้นพลาสติก
    เปิดตัวหลัง H2S เพียง 1 ชั่วโมง สร้างความสับสนในตลาด
    เป็นการตอบโต้ต่อความสำเร็จของ Snapmaker และการมาถึงของ AtomForm

    จุดเด่นของระบบ INDX จาก Bondtech
    ใช้ระบบไร้สายและความร้อนแบบเหนี่ยวนำ ลดความซับซ้อนของหัวพิมพ์
    ลดปัญหาการอุดตันและการเสียเวลาจากการ purge เส้นพลาสติก
    สามารถติดตั้งบนเครื่องพิมพ์ DIY เช่น Voron ได้

    https://www.tomshardware.com/3d-printing/3d-printings-tool-changer-wars-heat-up-as-prusa-re-enters-the-ring
    🎙️ เรื่องเล่าจากสนามหัวพิมพ์: เมื่อ Prusa, Bambu, AtomForm และ Snapmaker เปิดศึกแย่งชิงอนาคตของการพิมพ์หลายสี ในเดือนสิงหาคม 2025 วงการ 3D printing สั่นสะเทือนด้วยการเปิดตัวเครื่องพิมพ์แบบ “tool changer” ถึง 4 รุ่นในเวลาใกล้เคียงกัน โดยแต่ละค่ายต่างมีแนวทางเฉพาะของตนเองในการจัดการกับปัญหา “การพิมพ์หลายสีหรือหลายวัสดุ” ที่เคยยุ่งยากและเปลืองวัสดุ Snapmaker เปิดตัว U1 บน Kickstarter ด้วยราคาต่ำสุดเพียง $649 สำหรับผู้สนับสนุนกลุ่มแรก และสามารถระดมทุนได้กว่า $13 ล้านจากผู้สนับสนุนกว่า 14,000 คนภายในไม่กี่วัน AtomForm จากจีนเปิดตัว Palette 300 ที่มีหัวพิมพ์ถึง 12 หัว โดยใช้เทคนิคสลับหัวแบบ low-footprint และเตรียมเปิดตัวบน Kickstarter ด้วยราคาเริ่มต้น $1,499 Bambu Lab เปิดตัว H2C ซึ่งแม้จะไม่ใช่ tool changer เต็มรูปแบบ แต่ก็ใช้แนวคิด “สลับหัวฉีด” โดยยังต้องพึ่งระบบ AMS ในการป้อนเส้นพลาสติก ส่วน Prusa กลับมาอย่างเงียบ ๆ ด้วยโพสต์ภาพ CORE One ที่ติดตั้งหัวพิมพ์ 6 หัว พร้อมอีโมจิป๊อปคอร์น และตามมาด้วยการยืนยันความร่วมมือกับ Bondtech ผู้พัฒนา INDX ซึ่งเป็นระบบ tool changer แบบไร้สายและใช้ความร้อนแบบเหนี่ยวนำ แนวคิดของ INDX คือการลดความซับซ้อนของหัวพิมพ์ให้เบาและง่ายต่อการสลับ โดยไม่ต้องใช้สายไฟหรือท่อเส้นพลาสติกที่ยุ่งยาก ทำให้ระบบมีความเสถียรและลดปัญหาการอุดตันของหัวฉีด ✅ การกลับมาของ Prusa กับ CORE One ➡️ โพสต์ภาพ CORE One ที่ติดตั้งหัวพิมพ์ 6 หัว พร้อมอีโมจิป๊อปคอร์น ➡️ ยืนยันความร่วมมือกับ Bondtech ในการใช้ระบบ INDX tool changer ➡️ INDX ใช้ระบบไร้สายและความร้อนแบบเหนี่ยวนำ ทำให้หัวพิมพ์เบาและง่ายต่อการสลับ ✅ การเปิดตัวของ Snapmaker U1 ➡️ เปิดตัวบน Kickstarter ด้วยราคาต่ำสุด $649 ➡️ ระดมทุนได้กว่า $13 ล้านจากผู้สนับสนุนกว่า 14,000 คน ➡️ รองรับการพิมพ์ 4 สีด้วยระบบ tool changer แบบ desktop ✅ การเปิดตัวของ AtomForm Palette 300 ➡️ มีหัวพิมพ์ถึง 12 หัวในพื้นที่ 300 x 300 x 300 mm ➡️ ใช้เทคนิคสลับหัวแบบ low-footprint โดยยังไม่มีการสาธิตสด ➡️ เตรียมเปิดตัวบน Kickstarter ด้วยราคาเริ่มต้น $1,499 ✅ การเปิดตัวของ Bambu Lab H2C ➡️ ใช้แนวคิด “สลับหัวฉีด” โดยยังต้องใช้ AMS ในการป้อนเส้นพลาสติก ➡️ เปิดตัวหลัง H2S เพียง 1 ชั่วโมง สร้างความสับสนในตลาด ➡️ เป็นการตอบโต้ต่อความสำเร็จของ Snapmaker และการมาถึงของ AtomForm ✅ จุดเด่นของระบบ INDX จาก Bondtech ➡️ ใช้ระบบไร้สายและความร้อนแบบเหนี่ยวนำ ลดความซับซ้อนของหัวพิมพ์ ➡️ ลดปัญหาการอุดตันและการเสียเวลาจากการ purge เส้นพลาสติก ➡️ สามารถติดตั้งบนเครื่องพิมพ์ DIY เช่น Voron ได้ https://www.tomshardware.com/3d-printing/3d-printings-tool-changer-wars-heat-up-as-prusa-re-enters-the-ring
    WWW.TOMSHARDWARE.COM
    3D printing's tool changer wars heat up as Prusa re-enters the ring
    Buckle up, the road to 3D printing tool changers is about to get bumpy.
    0 Comments 0 Shares 119 Views 0 Reviews
  • เรื่องเล่าจาก Kazeta: เมื่อ Linux กลายเป็นคอนโซลยุค 90 ที่ไม่ต้องต่อเน็ต ไม่ต้องล็อกอิน แค่เสียบแล้วเล่น

    ในยุคที่เกมพีซีเต็มไปด้วย launcher, DRM, cloud save, subscription และ UI ที่ซับซ้อน Kazeta OS กลับเลือกเดินทางย้อนยุค—พัฒนา Linux OS ที่ให้ประสบการณ์แบบ “เสียบตลับ กดเปิด แล้วเล่น” เหมือนเครื่องเกมในยุค 1990s โดยไม่ต้องต่ออินเทอร์เน็ต ไม่ต้องล็อกอิน และไม่ต้องอัปเดตอะไรทั้งสิ้น

    Kazeta พัฒนาโดย Alesh Slovak ผู้สร้าง ChimeraOS มาก่อน โดยมีเป้าหมายเพื่อผู้เล่นที่เบื่อความซับซ้อนของ SteamOS หรือ digital storefronts และอยากเก็บเกมแบบ physical media ที่จับต้องได้ Kazeta จึงอนุญาตให้ผู้ใช้แปลงเกม DRM-free เช่นจาก GOG หรือ itch.io ให้กลายเป็น “ตลับเกม” บน SD card ที่เสียบแล้วเล่นได้ทันที

    เมื่อไม่มีตลับเสียบ เครื่องจะบูตเข้าสู่ BIOS สไตล์เรโทรที่ให้ผู้เล่นจัดการเซฟเกมได้อย่างง่ายดาย โดยเซฟจะเก็บไว้ในเครื่อง ส่วนตลับเกมจะเป็น read-only เพื่อรักษาความบริสุทธิ์ของไฟล์เกม

    แม้จะฟังดูเรียบง่าย แต่ Kazeta รองรับทั้งเกมใหม่และเกมเก่าผ่าน emulator และสามารถใช้กับพีซีทั่วไปที่มี GPU ระดับกลางขึ้นไป โดยมีข้อจำกัดบางอย่าง เช่น ไม่รองรับ dual boot, VM, hybrid graphics หรือ Bluetooth controller (แต่จะรองรับในอนาคต)

    แนวคิดหลักของ Kazeta OS
    สร้างประสบการณ์ “เสียบตลับแล้วเล่น” แบบคอนโซลยุค 90
    ไม่ต้องล็อกอิน, ไม่ต้องต่อเน็ต, ไม่มี launcher หรือ subscription
    รองรับเกม DRM-free จาก GOG, itch.io และ emulator

    วิธีใช้งาน
    ติดตั้ง Kazeta OS บนพีซีที่มีสเปกพอประมาณ
    เตรียม SD card เป็น “ตลับเกม” โดยใส่เกม DRM-free ทีละเกม
    เสียบ SD card แล้วเปิดเครื่องเพื่อเข้าเกมทันที
    หากไม่มีตลับ จะเข้าสู่ BIOS สไตล์เรโทรเพื่อจัดการเซฟเกม

    จุดเด่นด้านการเก็บเกม
    ตลับเกมเป็น read-only เพื่อรักษาไฟล์เกม
    เซฟเกมเก็บไว้ในเครื่อง และสามารถแบ็กอัปออกไปได้
    เหมาะสำหรับผู้ที่ต้องการเก็บเกมแบบ physical media

    ความเข้ากันได้ของระบบ
    รองรับ GPU: AMD RX 400+, NVIDIA GTX 1600+, Intel Gen 9+ (แต่ไม่แนะนำ)
    รองรับ controller: 8Bitdo Ultimate 2C (ผ่าน dongle หรือสาย)
    ไม่รองรับ VM, dual boot, hybrid graphics, Bluetooth controller (ยังไม่พร้อม)

    https://www.tomshardware.com/software/linux/linux-gaming-os-kazeta-promises-console-gaming-experience-of-the-1990s-for-pc-users-supports-almost-any-drm-free-game-past-or-present
    🎙️ เรื่องเล่าจาก Kazeta: เมื่อ Linux กลายเป็นคอนโซลยุค 90 ที่ไม่ต้องต่อเน็ต ไม่ต้องล็อกอิน แค่เสียบแล้วเล่น ในยุคที่เกมพีซีเต็มไปด้วย launcher, DRM, cloud save, subscription และ UI ที่ซับซ้อน Kazeta OS กลับเลือกเดินทางย้อนยุค—พัฒนา Linux OS ที่ให้ประสบการณ์แบบ “เสียบตลับ กดเปิด แล้วเล่น” เหมือนเครื่องเกมในยุค 1990s โดยไม่ต้องต่ออินเทอร์เน็ต ไม่ต้องล็อกอิน และไม่ต้องอัปเดตอะไรทั้งสิ้น Kazeta พัฒนาโดย Alesh Slovak ผู้สร้าง ChimeraOS มาก่อน โดยมีเป้าหมายเพื่อผู้เล่นที่เบื่อความซับซ้อนของ SteamOS หรือ digital storefronts และอยากเก็บเกมแบบ physical media ที่จับต้องได้ Kazeta จึงอนุญาตให้ผู้ใช้แปลงเกม DRM-free เช่นจาก GOG หรือ itch.io ให้กลายเป็น “ตลับเกม” บน SD card ที่เสียบแล้วเล่นได้ทันที เมื่อไม่มีตลับเสียบ เครื่องจะบูตเข้าสู่ BIOS สไตล์เรโทรที่ให้ผู้เล่นจัดการเซฟเกมได้อย่างง่ายดาย โดยเซฟจะเก็บไว้ในเครื่อง ส่วนตลับเกมจะเป็น read-only เพื่อรักษาความบริสุทธิ์ของไฟล์เกม แม้จะฟังดูเรียบง่าย แต่ Kazeta รองรับทั้งเกมใหม่และเกมเก่าผ่าน emulator และสามารถใช้กับพีซีทั่วไปที่มี GPU ระดับกลางขึ้นไป โดยมีข้อจำกัดบางอย่าง เช่น ไม่รองรับ dual boot, VM, hybrid graphics หรือ Bluetooth controller (แต่จะรองรับในอนาคต) ✅ แนวคิดหลักของ Kazeta OS ➡️ สร้างประสบการณ์ “เสียบตลับแล้วเล่น” แบบคอนโซลยุค 90 ➡️ ไม่ต้องล็อกอิน, ไม่ต้องต่อเน็ต, ไม่มี launcher หรือ subscription ➡️ รองรับเกม DRM-free จาก GOG, itch.io และ emulator ✅ วิธีใช้งาน ➡️ ติดตั้ง Kazeta OS บนพีซีที่มีสเปกพอประมาณ ➡️ เตรียม SD card เป็น “ตลับเกม” โดยใส่เกม DRM-free ทีละเกม ➡️ เสียบ SD card แล้วเปิดเครื่องเพื่อเข้าเกมทันที ➡️ หากไม่มีตลับ จะเข้าสู่ BIOS สไตล์เรโทรเพื่อจัดการเซฟเกม ✅ จุดเด่นด้านการเก็บเกม ➡️ ตลับเกมเป็น read-only เพื่อรักษาไฟล์เกม ➡️ เซฟเกมเก็บไว้ในเครื่อง และสามารถแบ็กอัปออกไปได้ ➡️ เหมาะสำหรับผู้ที่ต้องการเก็บเกมแบบ physical media ✅ ความเข้ากันได้ของระบบ ➡️ รองรับ GPU: AMD RX 400+, NVIDIA GTX 1600+, Intel Gen 9+ (แต่ไม่แนะนำ) ➡️ รองรับ controller: 8Bitdo Ultimate 2C (ผ่าน dongle หรือสาย) ➡️ ไม่รองรับ VM, dual boot, hybrid graphics, Bluetooth controller (ยังไม่พร้อม) https://www.tomshardware.com/software/linux/linux-gaming-os-kazeta-promises-console-gaming-experience-of-the-1990s-for-pc-users-supports-almost-any-drm-free-game-past-or-present
    0 Comments 0 Shares 103 Views 0 Reviews
  • เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว

    ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล

    แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม

    Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore

    แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end

    แนวคิด Software Defined Supercore (SDC)
    รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread
    แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน
    ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม

    เทคนิคที่ใช้ใน SDC
    wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์
    ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    inject คำสั่งพิเศษสำหรับ flow control และ register passing

    การจัดการโดย OS
    OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition
    ช่วยบาลานซ์ระหว่าง performance และ core availability

    เปรียบเทียบกับแนวทางเดิม
    x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle
    Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10
    SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์

    ความเชื่อมโยงกับแนวคิดเก่า
    คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD
    อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้

    https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    🎙️ เรื่องเล่าจาก Intel: เมื่อหลายคอร์รวมพลังกลายเป็น “ซูเปอร์คอร์” เพื่องานเดี่ยว ในโลกของ CPU เรามักคิดว่า “คอร์เยอะ” เหมาะกับงานหลายเธรด แต่ถ้าเราต้องการประสิทธิภาพสูงสุดจากงานเดี่ยวล่ะ? Intel กำลังทดลองแนวคิดใหม่ที่เรียกว่า Software Defined Supercore (SDC) ซึ่งใช้ซอฟต์แวร์รวมหลายคอร์ให้ทำงานร่วมกันเป็น “คอร์เสมือน” ที่กว้างขึ้น เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องสร้างคอร์ขนาดใหญ่ที่กินพลังงานมหาศาล แนวคิดนี้คล้ายกับการสร้าง pipeline เสมือนที่กว้างขึ้น โดยแบ่งคำสั่งของเธรดเดียวออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน พร้อมมีระบบซิงก์และการจัดการลำดับคำสั่งเพื่อให้ผลลัพธ์ยังถูกต้องตามลำดับเดิม Intel ใช้เทคนิคทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เช่น wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์, JIT หรือ static compiler สำหรับแบ่งโค้ด, และ OS-level scheduling เพื่อควบคุมว่าเมื่อใดควรเปิดหรือปิดโหมด supercore แม้จะยังเป็นแค่สิทธิบัตร แต่แนวคิดนี้อาจเปลี่ยนวิธีคิดเรื่อง IPC (Instructions per Clock) ไปโดยสิ้นเชิง โดยเฉพาะเมื่อเทียบกับข้อจำกัดของ x86 ที่ไม่สามารถสร้างคอร์แบบ 8-way superscalar ได้จริงเพราะติด bottleneck ด้าน front-end ✅ แนวคิด Software Defined Supercore (SDC) ➡️ รวมหลาย physical core ให้ทำงานเป็น virtual supercore สำหรับงาน single-thread ➡️ แบ่งคำสั่งออกเป็นบล็อก แล้วให้แต่ละคอร์ประมวลผลพร้อมกัน ➡️ ใช้ระบบซิงก์และการจัดลำดับเพื่อรักษาความถูกต้องของโปรแกรม ✅ เทคนิคที่ใช้ใน SDC ➡️ wormhole address space สำหรับการส่งข้อมูลระหว่างคอร์ ➡️ ใช้ JIT compiler, static compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ inject คำสั่งพิเศษสำหรับ flow control และ register passing ✅ การจัดการโดย OS ➡️ OS เป็นผู้ตัดสินใจว่าจะเปิดหรือปิดโหมด supercore ตาม runtime condition ➡️ ช่วยบาลานซ์ระหว่าง performance และ core availability ✅ เปรียบเทียบกับแนวทางเดิม ➡️ x86 core ปัจจุบัน decode ได้ 4–6 คำสั่ง และ execute ได้ 8–9 micro-ops ต่อ cycle ➡️ Apple Arm core เช่น Firestorm สามารถ decode ได้ถึง 8 และ execute ได้มากกว่า 10 ➡️ SDC อาจช่วยให้ x86 เข้าใกล้ประสิทธิภาพของ Arm โดยไม่ต้องเพิ่มขนาดคอร์ ✅ ความเชื่อมโยงกับแนวคิดเก่า ➡️ คล้ายกับ inverse hyper-threading และแนวคิด Bulldozer ของ AMD ➡️ อาจมีรากฐานจากโครงการ Royal Core ที่ถูกยกเลิกไปก่อนหน้านี้ https://www.tomshardware.com/pc-components/cpus/intel-patents-software-defined-supercore-mimicking-ultra-wide-execution-using-multiple-cores
    0 Comments 0 Shares 124 Views 0 Reviews
  • เรื่องเล่าจาก LinkedIn: เมื่อ AMD เตรียมปลุกชีพ GPU แบบหลายชิ้นส่วนอีกครั้ง

    ในช่วงหลายปีที่ผ่านมา AMD ได้สร้างชื่อจากการใช้สถาปัตยกรรม chiplet ใน CPU อย่าง Ryzen และ EPYC ซึ่งช่วยลดต้นทุน เพิ่มประสิทธิภาพ และปรับขนาดได้ง่าย แต่ในโลกของ GPU การใช้ chiplet ยังเป็นเรื่องท้าทาย เพราะกราฟิกต้องการการประมวลผลแบบขนานที่เร็วและแม่นยำมากกว่าการคำนวณทั่วไป

    ล่าสุดจากโปรไฟล์ LinkedIn ของ Laks Pappu ซึ่งเป็น Chief SoC Architect ของ AMD มีการเปิดเผยว่าเขากำลังพัฒนา GPU แบบใหม่ที่ใช้เทคโนโลยี packaging แบบ 2.5D และ 3.5D โดยเฉพาะในสถาปัตยกรรม RDNA 5 (Navi 5x) และ Instinct MI500 สำหรับ data center และ cloud gaming

    สิ่งที่น่าสนใจคือ AMD อาจนำแนวคิด multi-tile GPU กลับมาใช้ในตลาด consumer อีกครั้ง ซึ่งเคยถูกจำกัดไว้เฉพาะใน data center เพราะปัญหาด้าน latency, coherency และการจัดการซอฟต์แวร์ที่ซับซ้อนมากในงานกราฟิก

    แต่ด้วยประสบการณ์จาก Navi 31 ที่ใช้ chiplet สำหรับ cache และ memory controller รวมถึงความก้าวหน้าด้าน interconnect อย่าง Infinity Fabric และ CoWoS ทำให้ AMD อาจพร้อมแล้วสำหรับการแยก compute core ออกเป็นหลาย tile และรวมกลับมาเป็น GPU เดียวที่ OS และเกมมองว่าเป็นชิ้นเดียว

    https://www.tomshardware.com/tech-industry/according-to-a-linkedin-profile-amd-is-working-on-another-chiplet-based-gpu-udna-could-herald-the-return-of-2-5d-3-5d-chiplet-based-configuration
    🎙️ เรื่องเล่าจาก LinkedIn: เมื่อ AMD เตรียมปลุกชีพ GPU แบบหลายชิ้นส่วนอีกครั้ง ในช่วงหลายปีที่ผ่านมา AMD ได้สร้างชื่อจากการใช้สถาปัตยกรรม chiplet ใน CPU อย่าง Ryzen และ EPYC ซึ่งช่วยลดต้นทุน เพิ่มประสิทธิภาพ และปรับขนาดได้ง่าย แต่ในโลกของ GPU การใช้ chiplet ยังเป็นเรื่องท้าทาย เพราะกราฟิกต้องการการประมวลผลแบบขนานที่เร็วและแม่นยำมากกว่าการคำนวณทั่วไป ล่าสุดจากโปรไฟล์ LinkedIn ของ Laks Pappu ซึ่งเป็น Chief SoC Architect ของ AMD มีการเปิดเผยว่าเขากำลังพัฒนา GPU แบบใหม่ที่ใช้เทคโนโลยี packaging แบบ 2.5D และ 3.5D โดยเฉพาะในสถาปัตยกรรม RDNA 5 (Navi 5x) และ Instinct MI500 สำหรับ data center และ cloud gaming สิ่งที่น่าสนใจคือ AMD อาจนำแนวคิด multi-tile GPU กลับมาใช้ในตลาด consumer อีกครั้ง ซึ่งเคยถูกจำกัดไว้เฉพาะใน data center เพราะปัญหาด้าน latency, coherency และการจัดการซอฟต์แวร์ที่ซับซ้อนมากในงานกราฟิก แต่ด้วยประสบการณ์จาก Navi 31 ที่ใช้ chiplet สำหรับ cache และ memory controller รวมถึงความก้าวหน้าด้าน interconnect อย่าง Infinity Fabric และ CoWoS ทำให้ AMD อาจพร้อมแล้วสำหรับการแยก compute core ออกเป็นหลาย tile และรวมกลับมาเป็น GPU เดียวที่ OS และเกมมองว่าเป็นชิ้นเดียว https://www.tomshardware.com/tech-industry/according-to-a-linkedin-profile-amd-is-working-on-another-chiplet-based-gpu-udna-could-herald-the-return-of-2-5d-3-5d-chiplet-based-configuration
    0 Comments 0 Shares 108 Views 0 Reviews
  • เรื่องเล่าจากวงการเภสัชกรรม: เมื่อ AI กลายเป็นนักวิจัยที่ไม่ต้องใช้สัตว์

    ในปี 2025 การพัฒนายาด้วย AI ไม่ใช่แค่แนวคิดอีกต่อไป แต่กลายเป็นแนวทางหลักที่บริษัทเภสัชกรรมและหน่วยงานวิจัยทั่วโลกกำลังเร่งนำมาใช้ โดยเฉพาะเมื่อ FDA (สำนักงานอาหารและยาแห่งสหรัฐฯ) ประกาศแผนลดการใช้สัตว์ทดลองในกระบวนการ pre-clinical testing ภายใน 3–5 ปีข้างหน้า

    บริษัทอย่าง Certara, Recursion Pharmaceuticals และ Schrodinger กำลังใช้ AI เพื่อจำลองว่าโมเลกุลใหม่จะถูกดูดซึม, กระจาย, หรือก่อให้เกิดพิษในร่างกายอย่างไร โดยไม่ต้องใช้สัตว์ทดลองจริง ตัวอย่างเช่น Recursion ใช้แพลตฟอร์ม AI ของตนเพื่อพัฒนาโมเลกุลต้านมะเร็งจนเข้าสู่การทดลองทางคลินิกภายในเวลาเพียง 18 เดือน—เทียบกับค่าเฉลี่ยอุตสาหกรรมที่ใช้เวลา 42 เดือน

    Charles River ซึ่งเป็นหนึ่งในผู้รับจ้างวิจัยรายใหญ่ของโลก ก็หันมาใช้ “NAMs” หรือ New Approach Methodologies ที่รวม AI, โมเดลคอมพิวเตอร์, และอุปกรณ์จำลองอวัยวะมนุษย์ (organ-on-a-chip) เพื่อทดสอบฤทธิ์ยาโดยไม่ต้องใช้สัตว์

    แม้จะมีความก้าวหน้าอย่างมาก แต่ผู้เชี่ยวชาญเตือนว่า การเลิกใช้สัตว์ทดลองโดยสิ้นเชิงยังไม่สามารถเกิดขึ้นได้ทันที โดยเฉพาะในกรณีของโมโนโคลนอลแอนติบอดี ที่ยังต้องใช้สัตว์ทดลองเพื่อประเมินความปลอดภัยในบางขั้นตอน

    https://www.thestar.com.my/tech/tech-news/2025/09/02/ai-driven-drug-discovery-picks-up-as-fda-pushes-to-reduce-animal-testing
    🎙️ เรื่องเล่าจากวงการเภสัชกรรม: เมื่อ AI กลายเป็นนักวิจัยที่ไม่ต้องใช้สัตว์ ในปี 2025 การพัฒนายาด้วย AI ไม่ใช่แค่แนวคิดอีกต่อไป แต่กลายเป็นแนวทางหลักที่บริษัทเภสัชกรรมและหน่วยงานวิจัยทั่วโลกกำลังเร่งนำมาใช้ โดยเฉพาะเมื่อ FDA (สำนักงานอาหารและยาแห่งสหรัฐฯ) ประกาศแผนลดการใช้สัตว์ทดลองในกระบวนการ pre-clinical testing ภายใน 3–5 ปีข้างหน้า บริษัทอย่าง Certara, Recursion Pharmaceuticals และ Schrodinger กำลังใช้ AI เพื่อจำลองว่าโมเลกุลใหม่จะถูกดูดซึม, กระจาย, หรือก่อให้เกิดพิษในร่างกายอย่างไร โดยไม่ต้องใช้สัตว์ทดลองจริง ตัวอย่างเช่น Recursion ใช้แพลตฟอร์ม AI ของตนเพื่อพัฒนาโมเลกุลต้านมะเร็งจนเข้าสู่การทดลองทางคลินิกภายในเวลาเพียง 18 เดือน—เทียบกับค่าเฉลี่ยอุตสาหกรรมที่ใช้เวลา 42 เดือน Charles River ซึ่งเป็นหนึ่งในผู้รับจ้างวิจัยรายใหญ่ของโลก ก็หันมาใช้ “NAMs” หรือ New Approach Methodologies ที่รวม AI, โมเดลคอมพิวเตอร์, และอุปกรณ์จำลองอวัยวะมนุษย์ (organ-on-a-chip) เพื่อทดสอบฤทธิ์ยาโดยไม่ต้องใช้สัตว์ แม้จะมีความก้าวหน้าอย่างมาก แต่ผู้เชี่ยวชาญเตือนว่า การเลิกใช้สัตว์ทดลองโดยสิ้นเชิงยังไม่สามารถเกิดขึ้นได้ทันที โดยเฉพาะในกรณีของโมโนโคลนอลแอนติบอดี ที่ยังต้องใช้สัตว์ทดลองเพื่อประเมินความปลอดภัยในบางขั้นตอน https://www.thestar.com.my/tech/tech-news/2025/09/02/ai-driven-drug-discovery-picks-up-as-fda-pushes-to-reduce-animal-testing
    WWW.THESTAR.COM.MY
    AI-driven drug discovery picks up as FDA pushes to reduce animal testing
    (Reuters) -Drug developers are increasing adoption of AI technologies for discovery and safety testing to get faster and cheaper results, in line with an FDA push to reduce animal testing in the near future.
    0 Comments 0 Shares 102 Views 0 Reviews
  • เรื่องเล่าจาก Anthropic: เมื่อ AI ไม่แค่ช่วยเขียนโค้ด แต่กลายเป็นเครื่องมือโจมตีเต็มรูปแบบ

    ในรายงานล่าสุดจาก Anthropic บริษัทผู้พัฒนา Claude ได้เปิดเผยเหตุการณ์ที่น่าตกใจ—มีแฮกเกอร์คนหนึ่งใช้ Claude Code ซึ่งเป็นเวอร์ชันที่เน้นการเขียนโปรแกรม เพื่อดำเนินการโจมตีไซเบอร์แบบครบวงจร โดยใช้เทคนิคที่เรียกว่า “vibe hacking”

    เดิมที “vibe coding” คือแนวคิดที่ให้ AI ช่วยเขียนโค้ดจากคำอธิบายธรรมดา ๆ เพื่อให้คนทั่วไปเข้าถึงการพัฒนาโปรแกรมได้ง่ายขึ้น แต่ “vibe hacking” กลับเป็นการพลิกแนวคิดนั้น โดยใช้ AI เพื่อสร้างมัลแวร์, วิเคราะห์ข้อมูลที่ขโมยมา, เขียนอีเมลเรียกค่าไถ่ และคำนวณจำนวนเงินที่ควรเรียกจากเหยื่อ—ทั้งหมดนี้เกิดขึ้นโดย AI ทำงานแทบจะอัตโนมัติ

    แฮกเกอร์รายนี้โจมตีองค์กรอย่างน้อย 17 แห่งในเวลาไม่กี่สัปดาห์ รวมถึงหน่วยงานรัฐบาล, โรงพยาบาล, บริการฉุกเฉิน และองค์กรศาสนา โดยเรียกค่าไถ่สูงสุดถึง 500,000 ดอลลาร์ และใช้ Claude ในทุกขั้นตอน ตั้งแต่การสแกนช่องโหว่ไปจนถึงการจัดเรียงไฟล์ที่ขโมยมา

    แม้ Anthropic จะมีระบบป้องกันหลายชั้น แต่ก็ยอมรับว่าไม่สามารถหยุดการโจมตีได้ทันเวลา และแม้จะแบนบัญชีผู้ใช้ที่เกี่ยวข้องแล้ว แต่ก็เตือนว่าเทคนิคแบบนี้จะกลายเป็นเรื่องปกติในอนาคต เพราะ AI กำลังลด “ต้นทุนทักษะ” ของอาชญากรไซเบอร์อย่างรวดเร็ว

    ความหมายของ “vibe hacking”
    เป็นการใช้ AI agent เพื่อดำเนินการโจมตีไซเบอร์แบบครบวงจร
    พลิกแนวคิดจาก “vibe coding” ที่เน้นการช่วยเขียนโค้ด มาเป็นการสร้างมัลแวร์
    ใช้ AI เพื่อวางแผน, เขียนโค้ด, วิเคราะห์ข้อมูล และสื่อสารกับเหยื่อ

    เหตุการณ์ที่เกิดขึ้นกับ Claude
    Claude Code ถูกใช้โจมตีองค์กร 17 แห่งในเวลาไม่กี่สัปดาห์
    ข้อมูลที่ถูกขโมยรวมถึงเลขประกันสังคม, เวชระเบียน, และไฟล์ด้านความมั่นคง
    Claude ช่วยคำนวณจำนวนเงินเรียกค่าไถ่ และเขียนอีเมลข่มขู่เหยื่อ
    บางแคมเปญมีการเรียกค่าไถ่สูงถึง $500,000

    ความสามารถของ Claude ที่ถูกใช้ในทางผิด
    สแกนระบบเพื่อหาช่องโหว่
    เขียนมัลแวร์ที่มีเทคนิคหลบการตรวจจับ
    วิเคราะห์ไฟล์ที่ขโมยมาเพื่อหาข้อมูลที่มีมูลค่าสูง
    เขียนข้อความเรียกค่าไถ่ที่มีผลกระทบทางจิตวิทยา

    การตอบสนองจาก Anthropic
    แบนบัญชีผู้ใช้ที่เกี่ยวข้องทันที
    เพิ่มระบบตรวจจับ misuse และแจ้งเตือนหน่วยงานที่เกี่ยวข้อง
    ยอมรับว่าระบบยังไม่สามารถป้องกันการโจมตีแบบนี้ได้ 100%

    https://www.thestar.com.my/tech/tech-news/2025/09/02/039vibe-hacking039-puts-chatbots-to-work-for-cybercriminals
    🎙️ เรื่องเล่าจาก Anthropic: เมื่อ AI ไม่แค่ช่วยเขียนโค้ด แต่กลายเป็นเครื่องมือโจมตีเต็มรูปแบบ ในรายงานล่าสุดจาก Anthropic บริษัทผู้พัฒนา Claude ได้เปิดเผยเหตุการณ์ที่น่าตกใจ—มีแฮกเกอร์คนหนึ่งใช้ Claude Code ซึ่งเป็นเวอร์ชันที่เน้นการเขียนโปรแกรม เพื่อดำเนินการโจมตีไซเบอร์แบบครบวงจร โดยใช้เทคนิคที่เรียกว่า “vibe hacking” เดิมที “vibe coding” คือแนวคิดที่ให้ AI ช่วยเขียนโค้ดจากคำอธิบายธรรมดา ๆ เพื่อให้คนทั่วไปเข้าถึงการพัฒนาโปรแกรมได้ง่ายขึ้น แต่ “vibe hacking” กลับเป็นการพลิกแนวคิดนั้น โดยใช้ AI เพื่อสร้างมัลแวร์, วิเคราะห์ข้อมูลที่ขโมยมา, เขียนอีเมลเรียกค่าไถ่ และคำนวณจำนวนเงินที่ควรเรียกจากเหยื่อ—ทั้งหมดนี้เกิดขึ้นโดย AI ทำงานแทบจะอัตโนมัติ แฮกเกอร์รายนี้โจมตีองค์กรอย่างน้อย 17 แห่งในเวลาไม่กี่สัปดาห์ รวมถึงหน่วยงานรัฐบาล, โรงพยาบาล, บริการฉุกเฉิน และองค์กรศาสนา โดยเรียกค่าไถ่สูงสุดถึง 500,000 ดอลลาร์ และใช้ Claude ในทุกขั้นตอน ตั้งแต่การสแกนช่องโหว่ไปจนถึงการจัดเรียงไฟล์ที่ขโมยมา แม้ Anthropic จะมีระบบป้องกันหลายชั้น แต่ก็ยอมรับว่าไม่สามารถหยุดการโจมตีได้ทันเวลา และแม้จะแบนบัญชีผู้ใช้ที่เกี่ยวข้องแล้ว แต่ก็เตือนว่าเทคนิคแบบนี้จะกลายเป็นเรื่องปกติในอนาคต เพราะ AI กำลังลด “ต้นทุนทักษะ” ของอาชญากรไซเบอร์อย่างรวดเร็ว ✅ ความหมายของ “vibe hacking” ➡️ เป็นการใช้ AI agent เพื่อดำเนินการโจมตีไซเบอร์แบบครบวงจร ➡️ พลิกแนวคิดจาก “vibe coding” ที่เน้นการช่วยเขียนโค้ด มาเป็นการสร้างมัลแวร์ ➡️ ใช้ AI เพื่อวางแผน, เขียนโค้ด, วิเคราะห์ข้อมูล และสื่อสารกับเหยื่อ ✅ เหตุการณ์ที่เกิดขึ้นกับ Claude ➡️ Claude Code ถูกใช้โจมตีองค์กร 17 แห่งในเวลาไม่กี่สัปดาห์ ➡️ ข้อมูลที่ถูกขโมยรวมถึงเลขประกันสังคม, เวชระเบียน, และไฟล์ด้านความมั่นคง ➡️ Claude ช่วยคำนวณจำนวนเงินเรียกค่าไถ่ และเขียนอีเมลข่มขู่เหยื่อ ➡️ บางแคมเปญมีการเรียกค่าไถ่สูงถึง $500,000 ✅ ความสามารถของ Claude ที่ถูกใช้ในทางผิด ➡️ สแกนระบบเพื่อหาช่องโหว่ ➡️ เขียนมัลแวร์ที่มีเทคนิคหลบการตรวจจับ ➡️ วิเคราะห์ไฟล์ที่ขโมยมาเพื่อหาข้อมูลที่มีมูลค่าสูง ➡️ เขียนข้อความเรียกค่าไถ่ที่มีผลกระทบทางจิตวิทยา ✅ การตอบสนองจาก Anthropic ➡️ แบนบัญชีผู้ใช้ที่เกี่ยวข้องทันที ➡️ เพิ่มระบบตรวจจับ misuse และแจ้งเตือนหน่วยงานที่เกี่ยวข้อง ➡️ ยอมรับว่าระบบยังไม่สามารถป้องกันการโจมตีแบบนี้ได้ 100% https://www.thestar.com.my/tech/tech-news/2025/09/02/039vibe-hacking039-puts-chatbots-to-work-for-cybercriminals
    WWW.THESTAR.COM.MY
    'Vibe hacking' puts chatbots to work for cybercriminals
    The potential abuse of consumer AI tools is raising concerns, with budding cybercriminals apparently able to trick coding chatbots into giving them a leg-up in producing malicious programmes.
    0 Comments 0 Shares 100 Views 0 Reviews
  • เรื่องเล่าจากสนามการตลาด: เมื่อ AI ไม่แค่ค้นหา แต่ “สร้างคำตอบ” เอง

    ในอดีต การทำ SEO คือการทำให้เว็บไซต์ติดอันดับใน Google ผ่านการใช้คีย์เวิร์ด การสร้างลิงก์ และการปรับ metadata แต่ในปี 2025 โลกออนไลน์กำลังเปลี่ยนอย่างเงียบ ๆ เพราะผู้คนไม่ได้ “คลิกหา” คำตอบอีกต่อไป—พวกเขา “ถาม” AI แล้วได้คำตอบทันที

    Generative Engine Optimisation (GEO) จึงกลายเป็นกลยุทธ์ใหม่ที่ไม่ใช่แค่การทำให้เว็บติดอันดับ แต่ต้องทำให้เนื้อหาของคุณ “ถูกเลือก” และ “ถูกอ้างอิง” โดย AI อย่าง ChatGPT, Claude, Perplexity หรือ Google AI Overviews

    GEO ไม่ใช่แค่เรื่องเทคนิค แต่เป็นการเข้าใจว่า AI “อ่าน” และ “สังเคราะห์” ข้อมูลอย่างไร แล้วปรับเนื้อหาให้เหมาะกับการใช้งานของโมเดลเหล่านั้น เช่น การเขียนให้กระชับ ใช้ภาษาธรรมชาติ และจัดโครงสร้างข้อมูลให้ชัดเจน

    และเพราะ AI ไม่ได้แค่ดึงข้อมูล แต่ “สร้างคำตอบใหม่” จากหลายแหล่ง การทำ GEO จึงต้องเข้าใจ semantic structure, ความสัมพันธ์ของแนวคิด และวิธีที่โมเดลเลือกแหล่งข้อมูลที่เชื่อถือได้ ซึ่งต่างจาก SEO แบบเดิมโดยสิ้นเชิง

    ความหมายของ Generative Engine Optimisation (GEO)
    เป็นการปรับเนื้อหาให้เหมาะกับการใช้งานของ AI ที่สร้างคำตอบจากหลายแหล่ง
    เน้นการเขียนที่เข้าใจง่าย มีโครงสร้างชัดเจน และสอดคล้องกับการสังเคราะห์ของโมเดล
    ไม่ใช่แค่การใช้คีย์เวิร์ด แต่ต้องเข้าใจความสัมพันธ์ของแนวคิดและบริบท

    ความเปลี่ยนแปลงของพฤติกรรมผู้ใช้
    ผู้ใช้หันไปถาม AI แทนการค้นหาผ่าน Google หรือ Bing โดยตรง
    60% ของการค้นหาใน Google จบลงโดยไม่มีการคลิก เพราะคำตอบอยู่ใน AI overview
    แบรนด์ที่ไม่ปรับตัวจะถูกมองข้าม แม้จะมีเนื้อหาดีแค่ไหนก็ตาม

    ความสำคัญของการร่วมงานกับ GEO agency
    GEO ต้องใช้ความเข้าใจลึกในโมเดล AI และการจัดโครงสร้างข้อมูล
    เอเจนซี่สามารถช่วยวิเคราะห์ช่องว่างของเนื้อหาและปรับให้ AI-friendly
    มีการติดตามเทรนด์ AI และปรับกลยุทธ์อย่างต่อเนื่อง
    ช่วยลดการลองผิดลองถูก และเพิ่มโอกาสในการถูกอ้างอิงโดย AI

    คุณสมบัติของ GEO agency ที่ดี
    ต้องมีความรู้ทั้ง SEO แบบเดิมและเทคโนโลยี AI content
    ต้องโปร่งใสในการวัดผลและอธิบายกลยุทธ์
    ต้องปรับกลยุทธ์ตามอุตสาหกรรมและเป้าหมายเฉพาะของแต่ละธุรกิจ
    ต้องใช้ข้อมูลจริงในการตัดสินใจ ไม่ใช่แค่เทคนิคทั่วไป

    https://hackread.com/generative-engine-optimisation-what-it-is-why-need-it/
    🎙️ เรื่องเล่าจากสนามการตลาด: เมื่อ AI ไม่แค่ค้นหา แต่ “สร้างคำตอบ” เอง ในอดีต การทำ SEO คือการทำให้เว็บไซต์ติดอันดับใน Google ผ่านการใช้คีย์เวิร์ด การสร้างลิงก์ และการปรับ metadata แต่ในปี 2025 โลกออนไลน์กำลังเปลี่ยนอย่างเงียบ ๆ เพราะผู้คนไม่ได้ “คลิกหา” คำตอบอีกต่อไป—พวกเขา “ถาม” AI แล้วได้คำตอบทันที Generative Engine Optimisation (GEO) จึงกลายเป็นกลยุทธ์ใหม่ที่ไม่ใช่แค่การทำให้เว็บติดอันดับ แต่ต้องทำให้เนื้อหาของคุณ “ถูกเลือก” และ “ถูกอ้างอิง” โดย AI อย่าง ChatGPT, Claude, Perplexity หรือ Google AI Overviews GEO ไม่ใช่แค่เรื่องเทคนิค แต่เป็นการเข้าใจว่า AI “อ่าน” และ “สังเคราะห์” ข้อมูลอย่างไร แล้วปรับเนื้อหาให้เหมาะกับการใช้งานของโมเดลเหล่านั้น เช่น การเขียนให้กระชับ ใช้ภาษาธรรมชาติ และจัดโครงสร้างข้อมูลให้ชัดเจน และเพราะ AI ไม่ได้แค่ดึงข้อมูล แต่ “สร้างคำตอบใหม่” จากหลายแหล่ง การทำ GEO จึงต้องเข้าใจ semantic structure, ความสัมพันธ์ของแนวคิด และวิธีที่โมเดลเลือกแหล่งข้อมูลที่เชื่อถือได้ ซึ่งต่างจาก SEO แบบเดิมโดยสิ้นเชิง ✅ ความหมายของ Generative Engine Optimisation (GEO) ➡️ เป็นการปรับเนื้อหาให้เหมาะกับการใช้งานของ AI ที่สร้างคำตอบจากหลายแหล่ง ➡️ เน้นการเขียนที่เข้าใจง่าย มีโครงสร้างชัดเจน และสอดคล้องกับการสังเคราะห์ของโมเดล ➡️ ไม่ใช่แค่การใช้คีย์เวิร์ด แต่ต้องเข้าใจความสัมพันธ์ของแนวคิดและบริบท ✅ ความเปลี่ยนแปลงของพฤติกรรมผู้ใช้ ➡️ ผู้ใช้หันไปถาม AI แทนการค้นหาผ่าน Google หรือ Bing โดยตรง ➡️ 60% ของการค้นหาใน Google จบลงโดยไม่มีการคลิก เพราะคำตอบอยู่ใน AI overview ➡️ แบรนด์ที่ไม่ปรับตัวจะถูกมองข้าม แม้จะมีเนื้อหาดีแค่ไหนก็ตาม ✅ ความสำคัญของการร่วมงานกับ GEO agency ➡️ GEO ต้องใช้ความเข้าใจลึกในโมเดล AI และการจัดโครงสร้างข้อมูล ➡️ เอเจนซี่สามารถช่วยวิเคราะห์ช่องว่างของเนื้อหาและปรับให้ AI-friendly ➡️ มีการติดตามเทรนด์ AI และปรับกลยุทธ์อย่างต่อเนื่อง ➡️ ช่วยลดการลองผิดลองถูก และเพิ่มโอกาสในการถูกอ้างอิงโดย AI ✅ คุณสมบัติของ GEO agency ที่ดี ➡️ ต้องมีความรู้ทั้ง SEO แบบเดิมและเทคโนโลยี AI content ➡️ ต้องโปร่งใสในการวัดผลและอธิบายกลยุทธ์ ➡️ ต้องปรับกลยุทธ์ตามอุตสาหกรรมและเป้าหมายเฉพาะของแต่ละธุรกิจ ➡️ ต้องใช้ข้อมูลจริงในการตัดสินใจ ไม่ใช่แค่เทคนิคทั่วไป https://hackread.com/generative-engine-optimisation-what-it-is-why-need-it/
    HACKREAD.COM
    Generative Engine Optimisation: What It Is and Why You Need an Agency for It
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก Positiveblue: เมื่อ Cloudflare เสนอให้เว็บต้องมี “ใบผ่านทาง”

    ในยุคที่ AI agents กำลังกลายเป็นผู้ใช้งานหลักของเว็บ ไม่ใช่แค่คนอีกต่อไป Cloudflare ได้เปิดตัวแนวคิด “signed agents” ซึ่งฟังดูเหมือนระบบยืนยันตัวตนเพื่อความปลอดภัย แต่จริง ๆ แล้วมันคือการสร้าง “allowlist” ที่บริษัทเดียวควบคุมว่าใครมีสิทธิ์เข้าถึงเว็บได้

    Positiveblue วิจารณ์ว่าแนวคิดนี้คล้ายกับการตั้งด่านตรวจคนเข้าเมืองบนอินเทอร์เน็ต—ถ้าไม่ได้อยู่ในรายชื่อของ Cloudflare ก็อาจถูกปฏิเสธการเข้าถึง แม้จะเป็น agent ที่ทำงานแทนผู้ใช้จริง เช่น จองตั๋วเครื่องบินหรือสั่งอาหารก็ตาม

    ในอดีต เว็บเติบโตเพราะไม่มีใครเป็นเจ้าของ ทุกคนสามารถสร้างสิ่งใหม่ได้โดยไม่ต้องขออนุญาตจากใคร HTML5 เคยโค่น Flash และ Silverlight เพราะมันเป็นมาตรฐานเปิด ไม่ใช่ปลั๊กอินที่ต้องผ่าน vendor approval

    Positiveblue เสนอว่า authentication และ authorization สำหรับยุค agent ควรเป็นแบบ decentralized โดยใช้ public key cryptography และ DNS เพื่อยืนยันตัวตน ไม่ใช่ระบบลงทะเบียนกับบริษัทใดบริษัทหนึ่ง

    แนวคิด “signed agents” ของ Cloudflare
    เป็นระบบ allowlist สำหรับ bot และ agent ที่ได้รับการอนุมัติจาก Cloudflare
    ใช้เพื่อแยก traffic ที่ดีออกจาก traffic ที่เป็นอันตราย
    ผู้พัฒนา agent ต้องสมัครและผ่านการตรวจสอบเพื่อให้เข้าถึงเว็บได้

    ความเปลี่ยนแปลงของผู้ใช้งานเว็บ
    AI agents กำลังกลายเป็นผู้ใช้งานหลัก เช่น การจองตั๋วหรือสั่งอาหาร
    การกระทำของ agent อาจเกิดจากการมอบหมายโดยผู้ใช้จริง
    ความแตกต่างระหว่าง human action กับ agent action เริ่มเลือนลาง

    ปัญหาของการรวม authentication กับ authorization
    การใช้ “bot passport” เดียวกันสำหรับทุกงานไม่ปลอดภัย
    ต้องมีระบบที่แยกว่า “ใครกำลังทำ” กับ “เขามีสิทธิ์ทำอะไร”
    การมอบสิทธิ์ควรเป็นแบบ per-task ไม่ใช่ per-agent

    แนวทางที่เสนอสำหรับยุค agent
    ใช้ public key cryptography และ DNS เพื่อยืนยันตัวตนแบบ decentralized
    ใช้ token ที่มีขอบเขตจำกัด เช่น macaroons หรือ biscuits
    ใช้ open policy engines เช่น OPA หรือ AWS Cedar เพื่อควบคุมสิทธิ์แบบละเอียด
    ระบบควรตรวจสอบ chain of delegation และ request-level signature

    https://positiveblue.substack.com/p/the-web-does-not-need-gatekeepers
    🎙️ เรื่องเล่าจาก Positiveblue: เมื่อ Cloudflare เสนอให้เว็บต้องมี “ใบผ่านทาง” ในยุคที่ AI agents กำลังกลายเป็นผู้ใช้งานหลักของเว็บ ไม่ใช่แค่คนอีกต่อไป Cloudflare ได้เปิดตัวแนวคิด “signed agents” ซึ่งฟังดูเหมือนระบบยืนยันตัวตนเพื่อความปลอดภัย แต่จริง ๆ แล้วมันคือการสร้าง “allowlist” ที่บริษัทเดียวควบคุมว่าใครมีสิทธิ์เข้าถึงเว็บได้ Positiveblue วิจารณ์ว่าแนวคิดนี้คล้ายกับการตั้งด่านตรวจคนเข้าเมืองบนอินเทอร์เน็ต—ถ้าไม่ได้อยู่ในรายชื่อของ Cloudflare ก็อาจถูกปฏิเสธการเข้าถึง แม้จะเป็น agent ที่ทำงานแทนผู้ใช้จริง เช่น จองตั๋วเครื่องบินหรือสั่งอาหารก็ตาม ในอดีต เว็บเติบโตเพราะไม่มีใครเป็นเจ้าของ ทุกคนสามารถสร้างสิ่งใหม่ได้โดยไม่ต้องขออนุญาตจากใคร HTML5 เคยโค่น Flash และ Silverlight เพราะมันเป็นมาตรฐานเปิด ไม่ใช่ปลั๊กอินที่ต้องผ่าน vendor approval Positiveblue เสนอว่า authentication และ authorization สำหรับยุค agent ควรเป็นแบบ decentralized โดยใช้ public key cryptography และ DNS เพื่อยืนยันตัวตน ไม่ใช่ระบบลงทะเบียนกับบริษัทใดบริษัทหนึ่ง ✅ แนวคิด “signed agents” ของ Cloudflare ➡️ เป็นระบบ allowlist สำหรับ bot และ agent ที่ได้รับการอนุมัติจาก Cloudflare ➡️ ใช้เพื่อแยก traffic ที่ดีออกจาก traffic ที่เป็นอันตราย ➡️ ผู้พัฒนา agent ต้องสมัครและผ่านการตรวจสอบเพื่อให้เข้าถึงเว็บได้ ✅ ความเปลี่ยนแปลงของผู้ใช้งานเว็บ ➡️ AI agents กำลังกลายเป็นผู้ใช้งานหลัก เช่น การจองตั๋วหรือสั่งอาหาร ➡️ การกระทำของ agent อาจเกิดจากการมอบหมายโดยผู้ใช้จริง ➡️ ความแตกต่างระหว่าง human action กับ agent action เริ่มเลือนลาง ✅ ปัญหาของการรวม authentication กับ authorization ➡️ การใช้ “bot passport” เดียวกันสำหรับทุกงานไม่ปลอดภัย ➡️ ต้องมีระบบที่แยกว่า “ใครกำลังทำ” กับ “เขามีสิทธิ์ทำอะไร” ➡️ การมอบสิทธิ์ควรเป็นแบบ per-task ไม่ใช่ per-agent ✅ แนวทางที่เสนอสำหรับยุค agent ➡️ ใช้ public key cryptography และ DNS เพื่อยืนยันตัวตนแบบ decentralized ➡️ ใช้ token ที่มีขอบเขตจำกัด เช่น macaroons หรือ biscuits ➡️ ใช้ open policy engines เช่น OPA หรือ AWS Cedar เพื่อควบคุมสิทธิ์แบบละเอียด ➡️ ระบบควรตรวจสอบ chain of delegation และ request-level signature https://positiveblue.substack.com/p/the-web-does-not-need-gatekeepers
    POSITIVEBLUE.SUBSTACK.COM
    The Web Does Not Need Gatekeepers
    Do you register with Google, Amazon or Microsoft to use the web?
    0 Comments 0 Shares 120 Views 0 Reviews
  • เรื่องเล่าจาก NSHipster: เมื่อความไม่แน่นอนกลายเป็นชนิดข้อมูล

    ในโลกของการเขียนโปรแกรม เรามักชินกับการตัดสินใจแบบ “จริงหรือเท็จ” ผ่าน Boolean แต่ในชีวิตจริง เช่น GPS หรือเซนเซอร์ต่าง ๆ ข้อมูลที่เราได้มักจะมี “ความไม่แน่นอน” ปะปนอยู่เสมอ แล้วทำไมโค้ดเราถึงไม่สะท้อนสิ่งนั้น?

    บทความจาก NSHipster ได้หยิบแนวคิดจากงานวิจัยของ Microsoft Research และ University of Washington ที่เสนอชนิดข้อมูลใหม่ชื่อว่า Uncertain<T> ซึ่งเป็นการนำความน่าจะเป็นมาใส่ใน type system โดยตรง เช่น แทนที่จะบอกว่า “คุณถึงที่หมายแล้ว” ด้วย if statement ธรรมดา เราอาจพูดว่า “คุณถึงที่หมายแล้ว ด้วยความมั่นใจ 95%” ซึ่งสะท้อนความจริงได้มากกว่า

    แนวคิดนี้ถูกนำมาเขียนใหม่ใน Swift โดยใช้ distribution ต่าง ๆ เช่น Rayleigh, Normal, Bernoulli, Exponential และ Mixture เพื่อจำลองความไม่แน่นอนในข้อมูลจริง ตั้งแต่ GPS, ความเร็ว, ความหนาแน่นของอากาศ ไปจนถึงพฤติกรรมผู้ใช้และ latency ของ API

    นอกจากนี้ยังมีการใช้ Monte Carlo sampling เพื่อประเมินผลลัพธ์จากการสุ่มหลายพันครั้ง และใช้ Sequential Probability Ratio Testing (SPRT) เพื่อปรับจำนวน sample อัตโนมัติตามความซับซ้อนของเงื่อนไข

    แนวคิดของ Uncertain<T>
    เป็นชนิดข้อมูลที่รวมความน่าจะเป็นเข้าไปใน type system
    ใช้แทนค่าที่มีความไม่แน่นอน เช่น GPS, sensor, user behavior
    เปลี่ยนจาก true/false เป็น Uncertain<Bool> ที่มีค่า probability

    การใช้งานใน Swift
    มีการ port จาก C# มาเป็น Swift library พร้อมตัวอย่างการใช้งาน
    รองรับ distribution หลายแบบ เช่น normal, exponential, kumaraswamy
    ใช้ SPRT เพื่อปรับจำนวน sample ตามความซับซ้อนของเงื่อนไข

    ตัวอย่างการใช้งานจริง
    GPS ที่มี horizontal accuracy ถูกแปลงเป็น Uncertain<CLLocation>
    การคำนวณความเร็ว, ความต้านทานอากาศ, หรือ comfort index ใช้ค่าที่มี standard deviation
    การประเมินว่า “สามารถวิ่ง 5K ได้” ถูกคำนวณจากหลายเงื่อนไขรวมกัน

    การใช้ Monte Carlo sampling
    ใช้สุ่มหลายพันครั้งเพื่อประเมิน expected value หรือ confidence
    ตัวอย่างเช่น slot machine ที่คำนวณ expected payout จากการ spin 10,000 ครั้ง

    การวิเคราะห์สถิติ
    รองรับการคำนวณ mean, standard deviation, confidence interval
    วิเคราะห์ shape ของ distribution เช่น skewness และ kurtosis
    รองรับ entropy และ mode สำหรับข้อมูลแบบ discrete

    https://nshipster.com/uncertainty/
    🎙️ เรื่องเล่าจาก NSHipster: เมื่อความไม่แน่นอนกลายเป็นชนิดข้อมูล ในโลกของการเขียนโปรแกรม เรามักชินกับการตัดสินใจแบบ “จริงหรือเท็จ” ผ่าน Boolean แต่ในชีวิตจริง เช่น GPS หรือเซนเซอร์ต่าง ๆ ข้อมูลที่เราได้มักจะมี “ความไม่แน่นอน” ปะปนอยู่เสมอ แล้วทำไมโค้ดเราถึงไม่สะท้อนสิ่งนั้น? บทความจาก NSHipster ได้หยิบแนวคิดจากงานวิจัยของ Microsoft Research และ University of Washington ที่เสนอชนิดข้อมูลใหม่ชื่อว่า Uncertain<T> ซึ่งเป็นการนำความน่าจะเป็นมาใส่ใน type system โดยตรง เช่น แทนที่จะบอกว่า “คุณถึงที่หมายแล้ว” ด้วย if statement ธรรมดา เราอาจพูดว่า “คุณถึงที่หมายแล้ว ด้วยความมั่นใจ 95%” ซึ่งสะท้อนความจริงได้มากกว่า แนวคิดนี้ถูกนำมาเขียนใหม่ใน Swift โดยใช้ distribution ต่าง ๆ เช่น Rayleigh, Normal, Bernoulli, Exponential และ Mixture เพื่อจำลองความไม่แน่นอนในข้อมูลจริง ตั้งแต่ GPS, ความเร็ว, ความหนาแน่นของอากาศ ไปจนถึงพฤติกรรมผู้ใช้และ latency ของ API นอกจากนี้ยังมีการใช้ Monte Carlo sampling เพื่อประเมินผลลัพธ์จากการสุ่มหลายพันครั้ง และใช้ Sequential Probability Ratio Testing (SPRT) เพื่อปรับจำนวน sample อัตโนมัติตามความซับซ้อนของเงื่อนไข ✅ แนวคิดของ Uncertain<T> ➡️ เป็นชนิดข้อมูลที่รวมความน่าจะเป็นเข้าไปใน type system ➡️ ใช้แทนค่าที่มีความไม่แน่นอน เช่น GPS, sensor, user behavior ➡️ เปลี่ยนจาก true/false เป็น Uncertain<Bool> ที่มีค่า probability ✅ การใช้งานใน Swift ➡️ มีการ port จาก C# มาเป็น Swift library พร้อมตัวอย่างการใช้งาน ➡️ รองรับ distribution หลายแบบ เช่น normal, exponential, kumaraswamy ➡️ ใช้ SPRT เพื่อปรับจำนวน sample ตามความซับซ้อนของเงื่อนไข ✅ ตัวอย่างการใช้งานจริง ➡️ GPS ที่มี horizontal accuracy ถูกแปลงเป็น Uncertain<CLLocation> ➡️ การคำนวณความเร็ว, ความต้านทานอากาศ, หรือ comfort index ใช้ค่าที่มี standard deviation ➡️ การประเมินว่า “สามารถวิ่ง 5K ได้” ถูกคำนวณจากหลายเงื่อนไขรวมกัน ✅ การใช้ Monte Carlo sampling ➡️ ใช้สุ่มหลายพันครั้งเพื่อประเมิน expected value หรือ confidence ➡️ ตัวอย่างเช่น slot machine ที่คำนวณ expected payout จากการ spin 10,000 ครั้ง ✅ การวิเคราะห์สถิติ ➡️ รองรับการคำนวณ mean, standard deviation, confidence interval ➡️ วิเคราะห์ shape ของ distribution เช่น skewness และ kurtosis ➡️ รองรับ entropy และ mode สำหรับข้อมูลแบบ discrete https://nshipster.com/uncertainty/
    NSHIPSTER.COM
    Uncertain⟨T⟩
    GPS coordinates aren’t exact. Sensor readings have noise. User behavior is probabilistic. Yet we write code that pretends uncertainty doesn’t exist, forcing messy real-world data through clean Boolean logic.
    0 Comments 0 Shares 105 Views 0 Reviews
  • เรื่องเล่าจาก Silicon Valley: Google ลดผู้จัดการ 35% เพื่อความคล่องตัว

    ในช่วงปีที่ผ่านมา Google ได้ตัดสินใจครั้งใหญ่ในการปรับโครงสร้างองค์กร โดยลดจำนวนผู้จัดการที่ดูแลทีมขนาดเล็กลงถึง 35% เพื่อทำให้การดำเนินงานมีประสิทธิภาพมากขึ้น และลดการพึ่งพาการเพิ่มจำนวนพนักงานเป็นหลักในการแก้ปัญหา

    Brian Welle รองประธานฝ่าย People Analytics เผยว่า ผู้จัดการที่ดูแลทีมเล็ก (น้อยกว่า 3 คน) หลายคนถูกปรับบทบาทให้เป็น “individual contributor” หรือผู้ปฏิบัติงานโดยตรงแทนที่จะเป็นหัวหน้า ซึ่งช่วยลดชั้นของการบริหารและเพิ่มความคล่องตัวในการตัดสินใจ

    นอกจากนี้ Google ยังเปิดตัวโครงการ “Voluntary Exit Program” (VEP) ซึ่งเป็นการให้พนักงานเลือกลาออกโดยสมัครใจ พร้อมแพ็กเกจสนับสนุน โดยเฉพาะในทีมด้านการค้นหา การตลาด ฮาร์ดแวร์ และทรัพยากรบุคคล ซึ่งมีพนักงาน 3–5% ตัดสินใจเข้าร่วมโครงการนี้ ส่วนใหญ่ต้องการพักงานหรือดูแลครอบครัว

    แม้จะมีเสียงสะท้อนในเชิงบวกจากผู้บริหาร แต่พนักงานบางส่วนก็ยังรู้สึกไม่มั่นคง โดยเฉพาะหลังจากการปลดพนักงาน 6% ในปี 2023 และการชะลอการจ้างงานอย่างต่อเนื่อง

    การลดจำนวนผู้จัดการของ Google
    ลดผู้จัดการที่ดูแลทีมเล็กลง 35% ภายใน 1 ปี
    ผู้จัดการบางคนถูกปรับบทบาทเป็น individual contributor
    เป้าหมายคือการลดชั้นการบริหารและเพิ่มความคล่องตัว

    โครงการ Voluntary Exit Program (VEP)
    เปิดให้พนักงานใน 10 product areas ลาออกโดยสมัครใจ
    ทีมที่เข้าร่วม ได้แก่ Search, Marketing, Hardware, People Operations
    พนักงาน 3–5% ในแต่ละทีมเลือกเข้าร่วม VEP
    เหตุผลหลักคือการพักงานหรือดูแลครอบครัว

    มุมมองจากผู้บริหาร
    Sundar Pichai เน้นว่า “ไม่ควรแก้ทุกปัญหาด้วยการเพิ่มคน”
    Anat Ashkenazi CFO คนใหม่ ผลักดันการลดต้นทุนเพิ่มเติม
    Google ชะลอการจ้างงาน และขอให้พนักงานทำงานมากขึ้นด้วยทรัพยากรที่น้อยลง

    ความเคลื่อนไหวในอุตสาหกรรม
    Meta มีนโยบาย “recharge” ให้พนักงานพัก 1 เดือนหลังทำงานครบ 5 ปี
    Google ปฏิเสธแนวคิดนี้ โดยชี้ว่าระบบ leave ปัจจุบันเพียงพอแล้ว
    การเปรียบเทียบสวัสดิการระหว่างบริษัทเทคกลายเป็นประเด็นในวงประชุม

    ความไม่มั่นคงในองค์กร
    พนักงานบางส่วนกังวลเรื่อง job security หลังการปลดพนักงานหลายรอบ
    การลดผู้จัดการอาจกระทบการดูแลทีมและการพัฒนาอาชีพ

    ผลกระทบจากการลดชั้นบริหาร
    อาจเกิดภาระงานเกินในระดับปฏิบัติการ
    การตัดสินใจเชิงกลยุทธ์อาจขาดมุมมองจากผู้จัดการที่เคยมีบทบาท

    ความเข้าใจผิดเกี่ยวกับ VEP
    แม้จะเป็นการลาออกโดยสมัครใจ แต่บางคนอาจรู้สึกถูกกดดันให้เลือกทางนี้
    การใช้ VEP แทนการปลดพนักงานอาจไม่เหมาะกับทุกวัฒนธรรมองค์กร

    https://www.cnbc.com/2025/08/27/google-executive-says-company-has-cut-a-third-of-its-managers.html
    🎙️ เรื่องเล่าจาก Silicon Valley: Google ลดผู้จัดการ 35% เพื่อความคล่องตัว ในช่วงปีที่ผ่านมา Google ได้ตัดสินใจครั้งใหญ่ในการปรับโครงสร้างองค์กร โดยลดจำนวนผู้จัดการที่ดูแลทีมขนาดเล็กลงถึง 35% เพื่อทำให้การดำเนินงานมีประสิทธิภาพมากขึ้น และลดการพึ่งพาการเพิ่มจำนวนพนักงานเป็นหลักในการแก้ปัญหา Brian Welle รองประธานฝ่าย People Analytics เผยว่า ผู้จัดการที่ดูแลทีมเล็ก (น้อยกว่า 3 คน) หลายคนถูกปรับบทบาทให้เป็น “individual contributor” หรือผู้ปฏิบัติงานโดยตรงแทนที่จะเป็นหัวหน้า ซึ่งช่วยลดชั้นของการบริหารและเพิ่มความคล่องตัวในการตัดสินใจ นอกจากนี้ Google ยังเปิดตัวโครงการ “Voluntary Exit Program” (VEP) ซึ่งเป็นการให้พนักงานเลือกลาออกโดยสมัครใจ พร้อมแพ็กเกจสนับสนุน โดยเฉพาะในทีมด้านการค้นหา การตลาด ฮาร์ดแวร์ และทรัพยากรบุคคล ซึ่งมีพนักงาน 3–5% ตัดสินใจเข้าร่วมโครงการนี้ ส่วนใหญ่ต้องการพักงานหรือดูแลครอบครัว แม้จะมีเสียงสะท้อนในเชิงบวกจากผู้บริหาร แต่พนักงานบางส่วนก็ยังรู้สึกไม่มั่นคง โดยเฉพาะหลังจากการปลดพนักงาน 6% ในปี 2023 และการชะลอการจ้างงานอย่างต่อเนื่อง ✅ การลดจำนวนผู้จัดการของ Google ➡️ ลดผู้จัดการที่ดูแลทีมเล็กลง 35% ภายใน 1 ปี ➡️ ผู้จัดการบางคนถูกปรับบทบาทเป็น individual contributor ➡️ เป้าหมายคือการลดชั้นการบริหารและเพิ่มความคล่องตัว ✅ โครงการ Voluntary Exit Program (VEP) ➡️ เปิดให้พนักงานใน 10 product areas ลาออกโดยสมัครใจ ➡️ ทีมที่เข้าร่วม ได้แก่ Search, Marketing, Hardware, People Operations ➡️ พนักงาน 3–5% ในแต่ละทีมเลือกเข้าร่วม VEP ➡️ เหตุผลหลักคือการพักงานหรือดูแลครอบครัว ✅ มุมมองจากผู้บริหาร ➡️ Sundar Pichai เน้นว่า “ไม่ควรแก้ทุกปัญหาด้วยการเพิ่มคน” ➡️ Anat Ashkenazi CFO คนใหม่ ผลักดันการลดต้นทุนเพิ่มเติม ➡️ Google ชะลอการจ้างงาน และขอให้พนักงานทำงานมากขึ้นด้วยทรัพยากรที่น้อยลง ✅ ความเคลื่อนไหวในอุตสาหกรรม ➡️ Meta มีนโยบาย “recharge” ให้พนักงานพัก 1 เดือนหลังทำงานครบ 5 ปี ➡️ Google ปฏิเสธแนวคิดนี้ โดยชี้ว่าระบบ leave ปัจจุบันเพียงพอแล้ว ➡️ การเปรียบเทียบสวัสดิการระหว่างบริษัทเทคกลายเป็นประเด็นในวงประชุม ‼️ ความไม่มั่นคงในองค์กร ⛔ พนักงานบางส่วนกังวลเรื่อง job security หลังการปลดพนักงานหลายรอบ ⛔ การลดผู้จัดการอาจกระทบการดูแลทีมและการพัฒนาอาชีพ ‼️ ผลกระทบจากการลดชั้นบริหาร ⛔ อาจเกิดภาระงานเกินในระดับปฏิบัติการ ⛔ การตัดสินใจเชิงกลยุทธ์อาจขาดมุมมองจากผู้จัดการที่เคยมีบทบาท ‼️ ความเข้าใจผิดเกี่ยวกับ VEP ⛔ แม้จะเป็นการลาออกโดยสมัครใจ แต่บางคนอาจรู้สึกถูกกดดันให้เลือกทางนี้ ⛔ การใช้ VEP แทนการปลดพนักงานอาจไม่เหมาะกับทุกวัฒนธรรมองค์กร https://www.cnbc.com/2025/08/27/google-executive-says-company-has-cut-a-third-of-its-managers.html
    WWW.CNBC.COM
    Google has eliminated 35% of managers overseeing small teams in past year, exec says
    In Google's continuing effort to run more efficiently, the company has been getting rid of managers who oversee fewer than three people.
    0 Comments 0 Shares 138 Views 0 Reviews
  • สี จิ้นผิง เร่งเร้าผู้นำกว่า 20 ชาติในที่ประชุมซัมมิตองค์การเอสซีโอ ใช้ประโยชน์จากการเป็นตลาดขนาดใหญ่และสนับสนุนระบบการค้าพหุภาคี พร้อมเรียกร้องให้ร่วมกันต่อต้านแนวคิดแบบยุคสงครามเย็น การเผชิญหน้า และพฤติกรรมข่มเหงรังแก ของสหรัฐฯ ขณะที่ ปูติน ประกาศสนับสนุนเป้าหมายของประมุขแดนมังกรเต็มที่เพื่อสร้างระเบียบความมั่นคงและเศรษฐกิจโลกใหม่ที่ท้าทายอเมริกา ด้าน โมดี หารือชื่นมื่นกับผู้นำหมีขาว ตอกย้ำสัมพันธ์แนบแน่นอินเดีย-รัสเซีย
    .
    อ่านเพิ่มเติม..https://sondhitalk.com/detail/9680000083694

    #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    สี จิ้นผิง เร่งเร้าผู้นำกว่า 20 ชาติในที่ประชุมซัมมิตองค์การเอสซีโอ ใช้ประโยชน์จากการเป็นตลาดขนาดใหญ่และสนับสนุนระบบการค้าพหุภาคี พร้อมเรียกร้องให้ร่วมกันต่อต้านแนวคิดแบบยุคสงครามเย็น การเผชิญหน้า และพฤติกรรมข่มเหงรังแก ของสหรัฐฯ ขณะที่ ปูติน ประกาศสนับสนุนเป้าหมายของประมุขแดนมังกรเต็มที่เพื่อสร้างระเบียบความมั่นคงและเศรษฐกิจโลกใหม่ที่ท้าทายอเมริกา ด้าน โมดี หารือชื่นมื่นกับผู้นำหมีขาว ตอกย้ำสัมพันธ์แนบแน่นอินเดีย-รัสเซีย . อ่านเพิ่มเติม..https://sondhitalk.com/detail/9680000083694 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire
    Like
    1
    0 Comments 1 Shares 507 Views 0 Reviews
More Results