• https://youtu.be/XUcacDbH7jQ?si=FLt6sRoYTWK6738G
    https://youtu.be/XUcacDbH7jQ?si=FLt6sRoYTWK6738G
    0 Comments 0 Shares 143 Views 0 Reviews
  • https://youtu.be/xdoE1-31mD8?si=6mtqGeNSwiniPXS8
    https://youtu.be/xdoE1-31mD8?si=6mtqGeNSwiniPXS8
    0 Comments 0 Shares 116 Views 0 Reviews
  • https://youtube.com/shorts/2JkKx5cWPJQ?si=-k_oPX5IYBp2aTjZ
    https://youtube.com/shorts/2JkKx5cWPJQ?si=-k_oPX5IYBp2aTjZ
    0 Comments 0 Shares 119 Views 0 Reviews
  • https://youtube.com/shorts/3gPWk33sXnA?si=x80euWGEP9N5zDBQ
    https://youtube.com/shorts/3gPWk33sXnA?si=x80euWGEP9N5zDBQ
    0 Comments 0 Shares 142 Views 0 Reviews
  • https://youtube.com/shorts/v_wO0wJk4K4?si=675BquBdw-6rdNI6
    https://youtube.com/shorts/v_wO0wJk4K4?si=675BquBdw-6rdNI6
    0 Comments 0 Shares 104 Views 0 Reviews
  • https://youtube.com/shorts/XhITSDszV7c?si=1fwWZIby8WzwTi7Y
    https://youtube.com/shorts/XhITSDszV7c?si=1fwWZIby8WzwTi7Y
    0 Comments 0 Shares 88 Views 0 Reviews
  • https://youtube.com/shorts/ddHmCBeUo04?si=8PSgYftnrWl7Zbq0
    https://youtube.com/shorts/ddHmCBeUo04?si=8PSgYftnrWl7Zbq0
    0 Comments 0 Shares 117 Views 0 Reviews
  • หลายครั้งที่เราเผลอ"ตัดสินผู้อื่น"
    Cr.Wiwan Boonya
    หลายครั้งที่เราเผลอ"ตัดสินผู้อื่น" Cr.Wiwan Boonya
    0 Comments 0 Shares 63 Views 0 Reviews
  • 0 Comments 0 Shares 39 Views 0 Reviews
  • 0 Comments 0 Shares 41 Views 0 Reviews
  • 0 Comments 0 Shares 39 Views 0 Reviews
  • https://youtube.com/shorts/OnDJkM8wBTY?si=7HTS9ZwpPn8WoLD1
    https://youtube.com/shorts/OnDJkM8wBTY?si=7HTS9ZwpPn8WoLD1
    0 Comments 0 Shares 104 Views 0 Reviews
  • 0 Comments 0 Shares 46 Views 0 Reviews
  • #คัดค้าน #เปิดด่าน #ชายแดนไทยกัมพูชา #คนไทยรู้ทัน #ว่างว่างก็แวะมา
    #คัดค้าน #เปิดด่าน #ชายแดนไทยกัมพูชา #คนไทยรู้ทัน #ว่างว่างก็แวะมา
    0 Comments 0 Shares 206 Views 0 0 Reviews
  • https://youtu.be/_2drCX9p7tE?si=ZFggBXrIQr3Iy1RI
    https://youtu.be/_2drCX9p7tE?si=ZFggBXrIQr3Iy1RI
    0 Comments 0 Shares 58 Views 0 Reviews
  • Her smile
    Her smile
    0 Comments 0 Shares 61 Views 0 Reviews
  • เปิดด่านเมื่อไหร่
    เนวิน มึงได้เป็น เนปาล
    เขากระโดง จะชน เขาเอเวอเรสต์
    คนไทยได้ไล่ตื้บรัฐมนตรี
    #คิงส์โพธิ์แดง
    เปิดด่านเมื่อไหร่ เนวิน มึงได้เป็น เนปาล เขากระโดง จะชน เขาเอเวอเรสต์ คนไทยได้ไล่ตื้บรัฐมนตรี #คิงส์โพธิ์แดง
    Like
    2
    1 Comments 0 Shares 245 Views 0 Reviews
  • “Supabase เปิดสิทธิบัตร OrioleDB ให้ชุมชน Postgres — ยกระดับระบบจัดเก็บข้อมูลด้วย B+-Tree เวอร์ชันทนทาน พร้อมเป้าหมายสู่การรวมเข้ากับต้นน้ำ”

    หลังจาก Supabase เข้าซื้อ OrioleDB มาเมื่อปีก่อน ล่าสุดบริษัทได้ประกาศเปิดสิทธิบัตรสหรัฐฯ หมายเลข 10,325,030 ซึ่งครอบคลุมเทคโนโลยี “Durable multiversion B+-tree” ให้ใช้งานได้ฟรีแบบไม่จำกัดสิทธิ์สำหรับผู้ใช้ OrioleDB ทุกคน รวมถึงโฟร์กเชิงพาณิชย์ โดยมีเป้าหมายเพื่อปกป้องโอเพ่นซอร์สจากการฟ้องร้องด้านทรัพย์สินทางปัญญา และผลักดันให้ OrioleDB กลายเป็นส่วนหนึ่งของ PostgreSQL อย่างแท้จริง

    OrioleDB เป็นระบบจัดเก็บข้อมูลแบบ extension ที่ใช้ Table Access Method API ของ Postgres เพื่อแทนที่ heap storage แบบเดิม โดยออกแบบมาให้ทำงานได้ดีกับฮาร์ดแวร์ยุคใหม่และโครงสร้างคลาวด์ Benchmarks ล่าสุดแสดงให้เห็นว่า OrioleDB เร็วกว่า heap ถึง 5.5 เท่าใน workload แบบ TPC-C

    สิ่งที่ทำให้ OrioleDB โดดเด่นคือการใช้ index-organized tables, การเชื่อมโยงหน้าในหน่วยความจำแบบตรง (no buffer mapping), การใช้ undo log แทน vacuum และการทำ checkpoint แบบ copy-on-write ซึ่งช่วยลด overhead และเพิ่มความเสถียรในการทำงานแบบ concurrent

    Supabase ยังยืนยันว่า OrioleDB จะยังคงเป็นโอเพ่นซอร์ส พร้อมเปิดรับการมีส่วนร่วมจากชุมชน ไม่ว่าจะเป็นการส่งโค้ด ทดสอบ หรือให้ฟีดแบ็ก โดยมีเป้าหมายระยะยาวคือการ upstream เข้าสู่ PostgreSQL source tree เพื่อให้กลายเป็นส่วนหนึ่งของระบบหลักอย่างเป็นทางการ

    การเปิดสิทธิบัตรของ OrioleDB
    Supabase เปิดสิทธิบัตร Durable multiversion B+-tree ให้ใช้งานฟรี
    ครอบคลุมผู้ใช้ทุกคน รวมถึงโฟร์กเชิงพาณิชย์
    ใช้เพื่อปกป้องโอเพ่นซอร์สจากการฟ้องร้องด้าน IP
    เสริมความเข้ากันได้กับ PostgreSQL License

    จุดเด่นของ OrioleDB
    เป็น extension ที่แทนที่ heap storage ด้วย Table Access Method API
    เร็วกว่า heap ถึง 5.5 เท่าใน TPC-C benchmark
    ใช้ index-organized tables และ direct memory mapping
    มี undo log แทน vacuum และใช้ copy-on-write checkpoint

    แนวทางการพัฒนาและเป้าหมาย
    ยังคงเป็นโอเพ่นซอร์ส พร้อมเปิดรับการมีส่วนร่วมจากชุมชน
    เป้าหมายคือ upstream เข้าสู่ PostgreSQL source tree
    พัฒนาให้ทำงานได้บน stock Postgres โดยไม่ต้องแก้ไขมาก
    มีแผนปรับปรุงเอกสารและ onboarding เพื่อให้ใช้งานง่ายขึ้น

    ข้อมูลเสริมจากภายนอก
    PostgreSQL 18 กำลังจะเปิดตัวพร้อมฟีเจอร์ด้าน performance ใหม่
    OrioleDB ยังไม่รองรับ index ประเภท HNSW ของ pg_vector
    มีการพัฒนา bridge สำหรับ Index Access Method เพื่อรองรับ index ทุกประเภท
    Supabase ใช้ OrioleDB เป็น storage engine เริ่มต้นใน image ของตนแล้ว

    https://supabase.com/blog/orioledb-patent-free
    🐘 “Supabase เปิดสิทธิบัตร OrioleDB ให้ชุมชน Postgres — ยกระดับระบบจัดเก็บข้อมูลด้วย B+-Tree เวอร์ชันทนทาน พร้อมเป้าหมายสู่การรวมเข้ากับต้นน้ำ” หลังจาก Supabase เข้าซื้อ OrioleDB มาเมื่อปีก่อน ล่าสุดบริษัทได้ประกาศเปิดสิทธิบัตรสหรัฐฯ หมายเลข 10,325,030 ซึ่งครอบคลุมเทคโนโลยี “Durable multiversion B+-tree” ให้ใช้งานได้ฟรีแบบไม่จำกัดสิทธิ์สำหรับผู้ใช้ OrioleDB ทุกคน รวมถึงโฟร์กเชิงพาณิชย์ โดยมีเป้าหมายเพื่อปกป้องโอเพ่นซอร์สจากการฟ้องร้องด้านทรัพย์สินทางปัญญา และผลักดันให้ OrioleDB กลายเป็นส่วนหนึ่งของ PostgreSQL อย่างแท้จริง OrioleDB เป็นระบบจัดเก็บข้อมูลแบบ extension ที่ใช้ Table Access Method API ของ Postgres เพื่อแทนที่ heap storage แบบเดิม โดยออกแบบมาให้ทำงานได้ดีกับฮาร์ดแวร์ยุคใหม่และโครงสร้างคลาวด์ Benchmarks ล่าสุดแสดงให้เห็นว่า OrioleDB เร็วกว่า heap ถึง 5.5 เท่าใน workload แบบ TPC-C สิ่งที่ทำให้ OrioleDB โดดเด่นคือการใช้ index-organized tables, การเชื่อมโยงหน้าในหน่วยความจำแบบตรง (no buffer mapping), การใช้ undo log แทน vacuum และการทำ checkpoint แบบ copy-on-write ซึ่งช่วยลด overhead และเพิ่มความเสถียรในการทำงานแบบ concurrent Supabase ยังยืนยันว่า OrioleDB จะยังคงเป็นโอเพ่นซอร์ส พร้อมเปิดรับการมีส่วนร่วมจากชุมชน ไม่ว่าจะเป็นการส่งโค้ด ทดสอบ หรือให้ฟีดแบ็ก โดยมีเป้าหมายระยะยาวคือการ upstream เข้าสู่ PostgreSQL source tree เพื่อให้กลายเป็นส่วนหนึ่งของระบบหลักอย่างเป็นทางการ ✅ การเปิดสิทธิบัตรของ OrioleDB ➡️ Supabase เปิดสิทธิบัตร Durable multiversion B+-tree ให้ใช้งานฟรี ➡️ ครอบคลุมผู้ใช้ทุกคน รวมถึงโฟร์กเชิงพาณิชย์ ➡️ ใช้เพื่อปกป้องโอเพ่นซอร์สจากการฟ้องร้องด้าน IP ➡️ เสริมความเข้ากันได้กับ PostgreSQL License ✅ จุดเด่นของ OrioleDB ➡️ เป็น extension ที่แทนที่ heap storage ด้วย Table Access Method API ➡️ เร็วกว่า heap ถึง 5.5 เท่าใน TPC-C benchmark ➡️ ใช้ index-organized tables และ direct memory mapping ➡️ มี undo log แทน vacuum และใช้ copy-on-write checkpoint ✅ แนวทางการพัฒนาและเป้าหมาย ➡️ ยังคงเป็นโอเพ่นซอร์ส พร้อมเปิดรับการมีส่วนร่วมจากชุมชน ➡️ เป้าหมายคือ upstream เข้าสู่ PostgreSQL source tree ➡️ พัฒนาให้ทำงานได้บน stock Postgres โดยไม่ต้องแก้ไขมาก ➡️ มีแผนปรับปรุงเอกสารและ onboarding เพื่อให้ใช้งานง่ายขึ้น ✅ ข้อมูลเสริมจากภายนอก ➡️ PostgreSQL 18 กำลังจะเปิดตัวพร้อมฟีเจอร์ด้าน performance ใหม่ ➡️ OrioleDB ยังไม่รองรับ index ประเภท HNSW ของ pg_vector ➡️ มีการพัฒนา bridge สำหรับ Index Access Method เพื่อรองรับ index ทุกประเภท ➡️ Supabase ใช้ OrioleDB เป็น storage engine เริ่มต้นใน image ของตนแล้ว https://supabase.com/blog/orioledb-patent-free
    SUPABASE.COM
    OrioleDB Patent: now freely available to the Postgres community
    Supabase is explicitly making available a non-exclusive license of the OrioleDB patent to all OrioleDB users in accordance with the OrioleDB license.
    0 Comments 0 Shares 251 Views 0 Reviews
  • SONDHITALK : ผู้เฒ่าเล่าเรื่อง Ep310 (live)
    “ปากท้อง” สำคัญกว่า “แผ่นดิน” หนุนเปิดด่านชายแดน ไทย - กัมพูชา ผลประโยชน์ใคร?

    คลิก https://m.youtube.com/watch?v=1blGsfmD-JQ
    🔴SONDHITALK : ผู้เฒ่าเล่าเรื่อง Ep310 (live) “ปากท้อง” สำคัญกว่า “แผ่นดิน” หนุนเปิดด่านชายแดน ไทย - กัมพูชา ผลประโยชน์ใคร? • คลิก https://m.youtube.com/watch?v=1blGsfmD-JQ
    Like
    Love
    27
    14 Comments 2 Shares 1614 Views 1 Reviews
  • “Thinking Machines แก้ปัญหา LLM ตอบไม่เหมือนกัน — เผยต้นเหตุจาก batch-size ไม่คงที่ ไม่ใช่แค่เรื่อง floating point”

    หลายคนอาจเคยสงสัยว่า ทำไมเวลาใช้โมเดลภาษาอย่าง ChatGPT ถามคำถามเดิมซ้ำ ๆ แล้วได้คำตอบไม่เหมือนกัน ทั้งที่ตั้งค่า temperature เป็น 0 ซึ่งควรจะได้คำตอบที่ “แน่นอน” ทุกครั้ง ล่าสุดทีมวิจัยจาก Thinking Machines Lab ได้ออกบทความเจาะลึกถึงสาเหตุของความไม่แน่นอน (nondeterminism) ในการทำ inference ของ LLM และเสนอแนวทางแก้ไขที่อาจเปลี่ยนมาตรฐานของวงการ AI ไปตลอดกาล.

    บทความนี้ชี้ว่า สาเหตุที่แท้จริงไม่ใช่แค่เรื่อง “floating-point non-associativity” หรือการคำนวณแบบขนานบน GPU ที่ทำให้ผลลัพธ์เปลี่ยนไปตามลำดับการรวมค่า แต่เกิดจากสิ่งที่เรียกว่า “batch-size variance” — กล่าวคือ ผลลัพธ์ของแต่ละคำขอ (request) ขึ้นอยู่กับว่ามีคำขออื่น ๆ เข้ามาพร้อมกันมากแค่ไหน ซึ่งส่งผลให้ batch-size ที่ใช้ใน kernel เปลี่ยนไป และทำให้ผลลัพธ์เปลี่ยนตาม

    เพื่อแก้ปัญหานี้ ทีมงานได้พัฒนา kernel แบบใหม่ที่เรียกว่า “batch-invariant kernels” ซึ่งทำให้ผลลัพธ์ของแต่ละคำขอไม่ขึ้นอยู่กับ batch-size ที่ใช้ในระบบ โดยปรับปรุงการคำนวณใน RMSNorm, matrix multiplication และ attention ให้มีลำดับการรวมค่าที่คงที่ไม่ว่าจะมีคำขอมากหรือน้อย

    ผลการทดลองแสดงให้เห็นว่า เมื่อใช้ batch-invariant kernels แล้ว โมเดลสามารถให้ผลลัพธ์ที่เหมือนกันทุกครั้งแม้จะมีคำขอหลายชุดเข้ามาพร้อมกัน และยังสามารถนำไปใช้ในงาน reinforcement learning แบบ on-policy ได้อย่างแท้จริง ซึ่งเป็นสิ่งที่ไม่เคยทำได้มาก่อน

    สาเหตุของความไม่แน่นอนในการทำ inference ของ LLM
    ไม่ได้เกิดจาก floating-point หรือ atomic add โดยตรง
    เกิดจาก batch-size ที่เปลี่ยนไปตามจำนวนคำขอที่เข้ามาพร้อมกัน
    ทำให้ลำดับการคำนวณใน kernel เปลี่ยนไป และผลลัพธ์เปลี่ยนตาม
    ส่งผลให้แม้จะตั้ง temperature = 0 ก็ยังได้ผลลัพธ์ไม่เหมือนกัน

    แนวทางแก้ไขโดย Thinking Machines
    พัฒนา batch-invariant kernels สำหรับ RMSNorm, matmul และ attention
    ใช้ data-parallel strategy เพื่อให้ลำดับการรวมค่าคงที่
    ปรับ attention kernel ให้ลดค่าจาก KV cache และ current KV อย่างสม่ำเสมอ
    ใช้ fixed-size split แทน fixed-number split เพื่อรักษาลำดับการคำนวณ

    ผลลัพธ์จากการทดลอง
    เมื่อใช้ batch-invariant kernels แล้ว ได้ผลลัพธ์เหมือนกันทุกครั้ง
    สามารถใช้ใน RL แบบ on-policy ได้จริง โดยไม่มี KL divergence
    ลดความจำเป็นในการใช้ importance weighting ใน RL
    แม้จะช้ากว่า kernel ปกติ ~20% แต่ยังอยู่ในระดับที่ใช้งานได้จริง

    ข้อมูลเสริมจากภายนอก
    Thinking Machines ก่อตั้งโดยอดีต CTO ของ OpenAI และมีมูลค่ากว่า $12 พันล้าน
    โครงการนี้ใช้โมเดล Qwen3-8B และ Qwen3-235B ในการทดลอง
    batch-invariant ops ถูกเผยแพร่ผ่าน PyTorch library และ vLLM integration
    แนวคิดนี้อาจเปลี่ยนมาตรฐานของการ deploy LLM ในระดับ production

    https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/
    🧠 “Thinking Machines แก้ปัญหา LLM ตอบไม่เหมือนกัน — เผยต้นเหตุจาก batch-size ไม่คงที่ ไม่ใช่แค่เรื่อง floating point” หลายคนอาจเคยสงสัยว่า ทำไมเวลาใช้โมเดลภาษาอย่าง ChatGPT ถามคำถามเดิมซ้ำ ๆ แล้วได้คำตอบไม่เหมือนกัน ทั้งที่ตั้งค่า temperature เป็น 0 ซึ่งควรจะได้คำตอบที่ “แน่นอน” ทุกครั้ง ล่าสุดทีมวิจัยจาก Thinking Machines Lab ได้ออกบทความเจาะลึกถึงสาเหตุของความไม่แน่นอน (nondeterminism) ในการทำ inference ของ LLM และเสนอแนวทางแก้ไขที่อาจเปลี่ยนมาตรฐานของวงการ AI ไปตลอดกาล. บทความนี้ชี้ว่า สาเหตุที่แท้จริงไม่ใช่แค่เรื่อง “floating-point non-associativity” หรือการคำนวณแบบขนานบน GPU ที่ทำให้ผลลัพธ์เปลี่ยนไปตามลำดับการรวมค่า แต่เกิดจากสิ่งที่เรียกว่า “batch-size variance” — กล่าวคือ ผลลัพธ์ของแต่ละคำขอ (request) ขึ้นอยู่กับว่ามีคำขออื่น ๆ เข้ามาพร้อมกันมากแค่ไหน ซึ่งส่งผลให้ batch-size ที่ใช้ใน kernel เปลี่ยนไป และทำให้ผลลัพธ์เปลี่ยนตาม เพื่อแก้ปัญหานี้ ทีมงานได้พัฒนา kernel แบบใหม่ที่เรียกว่า “batch-invariant kernels” ซึ่งทำให้ผลลัพธ์ของแต่ละคำขอไม่ขึ้นอยู่กับ batch-size ที่ใช้ในระบบ โดยปรับปรุงการคำนวณใน RMSNorm, matrix multiplication และ attention ให้มีลำดับการรวมค่าที่คงที่ไม่ว่าจะมีคำขอมากหรือน้อย ผลการทดลองแสดงให้เห็นว่า เมื่อใช้ batch-invariant kernels แล้ว โมเดลสามารถให้ผลลัพธ์ที่เหมือนกันทุกครั้งแม้จะมีคำขอหลายชุดเข้ามาพร้อมกัน และยังสามารถนำไปใช้ในงาน reinforcement learning แบบ on-policy ได้อย่างแท้จริง ซึ่งเป็นสิ่งที่ไม่เคยทำได้มาก่อน ✅ สาเหตุของความไม่แน่นอนในการทำ inference ของ LLM ➡️ ไม่ได้เกิดจาก floating-point หรือ atomic add โดยตรง ➡️ เกิดจาก batch-size ที่เปลี่ยนไปตามจำนวนคำขอที่เข้ามาพร้อมกัน ➡️ ทำให้ลำดับการคำนวณใน kernel เปลี่ยนไป และผลลัพธ์เปลี่ยนตาม ➡️ ส่งผลให้แม้จะตั้ง temperature = 0 ก็ยังได้ผลลัพธ์ไม่เหมือนกัน ✅ แนวทางแก้ไขโดย Thinking Machines ➡️ พัฒนา batch-invariant kernels สำหรับ RMSNorm, matmul และ attention ➡️ ใช้ data-parallel strategy เพื่อให้ลำดับการรวมค่าคงที่ ➡️ ปรับ attention kernel ให้ลดค่าจาก KV cache และ current KV อย่างสม่ำเสมอ ➡️ ใช้ fixed-size split แทน fixed-number split เพื่อรักษาลำดับการคำนวณ ✅ ผลลัพธ์จากการทดลอง ➡️ เมื่อใช้ batch-invariant kernels แล้ว ได้ผลลัพธ์เหมือนกันทุกครั้ง ➡️ สามารถใช้ใน RL แบบ on-policy ได้จริง โดยไม่มี KL divergence ➡️ ลดความจำเป็นในการใช้ importance weighting ใน RL ➡️ แม้จะช้ากว่า kernel ปกติ ~20% แต่ยังอยู่ในระดับที่ใช้งานได้จริง ✅ ข้อมูลเสริมจากภายนอก ➡️ Thinking Machines ก่อตั้งโดยอดีต CTO ของ OpenAI และมีมูลค่ากว่า $12 พันล้าน ➡️ โครงการนี้ใช้โมเดล Qwen3-8B และ Qwen3-235B ในการทดลอง ➡️ batch-invariant ops ถูกเผยแพร่ผ่าน PyTorch library และ vLLM integration ➡️ แนวคิดนี้อาจเปลี่ยนมาตรฐานของการ deploy LLM ในระดับ production https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/
    THINKINGMACHINES.AI
    Defeating Nondeterminism in LLM Inference
    Reproducibility is a bedrock of scientific progress. However, it’s remarkably difficult to get reproducible results out of large language models. For example, you might observe that asking ChatGPT the same question multiple times provides different results. This by itself is not surprising, since getting a result from a language model involves “sampling”, a process that converts the language model’s output into a probability distribution and probabilistically selects a token. What might be more surprising is that even when we adjust the temperature down to 0This means that the LLM always chooses the highest probability token, which is called greedy sampling. (thus making the sampling theoretically deterministic), LLM APIs are still not deterministic in practice (see past discussions here, here, or here). Even when running inference on your own hardware with an OSS inference library like vLLM or SGLang, sampling still isn’t deterministic (see here or here).
    0 Comments 0 Shares 282 Views 0 Reviews
  • “Doomscrolling: The Game — เมื่อการเลื่อนหน้าจอกลายเป็นเกมที่ทั้งเสียดสีและเสพติด”

    David Friedman นักเขียนจาก Ironic Sans ได้สร้างเกมที่ไม่เหมือนใครในชื่อว่า “Doomscrolling: The Game” ซึ่งได้รับแรงบันดาลใจจากพฤติกรรมของผู้คนที่เลื่อนฟีดข่าวอย่างไม่หยุดยั้งจนรู้สึกหดหู่ หรือที่เรียกว่า doomscrolling โดยเขาตั้งคำถามว่า “ถ้า Doom เป็นเกมที่เล่นด้วยการเลื่อนหน้าจอเท่านั้น จะเป็นอย่างไร?” และคำตอบก็คือเกมนี้ — ที่คุณไม่ต้องกระโดด ไม่ต้องเคลื่อนที่ด้านข้าง แค่เลื่อนลงไปเรื่อย ๆ

    เกมนี้เริ่มต้นจากความล้มเหลว เพราะ GPT-4 ไม่สามารถเข้าใจแนวคิด “เลื่อนลง = พื้นหลังเลื่อนขึ้น” ได้เลย แต่เมื่อ GPT-5 เปิดตัว Friedman กลับมาลองใหม่ และสามารถสร้างต้นแบบเกมได้ภายใน 2 ชั่วโมง โดยใช้ vibe coding และการทดลองผ่าน “lab pages” ที่ให้เขาปรับค่าต่าง ๆ ด้วยตัวเอง เช่น สีพื้นหลัง, รูปแบบใยแมงมุม, หรือดีไซน์แผ่นป้ายข่าว

    ตัวเกมมีระบบที่กระตุ้นให้ผู้เล่นเคลื่อนไหว เช่น อัปเกรดอาวุธทุก 100 ตัวที่ฆ่า, กำแพงไฟที่ไล่ตามถ้าหยุดนานเกินไป, และสิ่งกีดขวางอย่างใยแมงมุมหรือกำแพงอิฐ นอกจากนี้ยังมี “แผ่นป้ายข่าว” ที่แสดงพาดหัวข่าวจริงจาก RSS ของ New York Times เพื่อสร้างบรรยากาศ doomscrolling อย่างแท้จริง — อ่านแล้วหดหู่แต่ก็อดไม่ได้ที่จะเลื่อนต่อ

    แม้ Friedman จะไม่ใช่นักพัฒนาเกมมืออาชีพ แต่เขาใช้ AI เป็นเครื่องมือในการสร้างเกมที่มีเสน่ห์เฉพาะตัว และเปิดให้เล่นฟรีทั้งบนมือถือและเดสก์ท็อป โดยสามารถบันทึกเกมไว้ในหน้าจอหลักให้เหมือนแอปจริงได้

    จุดเด่นของ Doomscrolling: The Game
    เล่นด้วยการเลื่อนหน้าจอเท่านั้น — ไม่มีการเคลื่อนที่ด้านข้างหรือกระโดด
    ได้แรงบันดาลใจจากเกม Doom และพฤติกรรม doomscrolling
    ใช้ GPT-5 ในการสร้างต้นแบบเกมภายในเวลาอันสั้น
    ใช้ vibe coding และ lab pages เพื่อปรับแต่งองค์ประกอบเกม

    ระบบเกมที่กระตุ้นให้เคลื่อนไหว
    อัปเกรดอาวุธทุก 100 ตัวที่ฆ่า
    กำแพงไฟไล่ตามถ้าหยุดนานเกินไป
    มีสิ่งกีดขวาง เช่น ใยแมงมุมและกำแพงอิฐ
    มี health potion และระบบบันทึกระยะทางที่ทำได้

    การผสานข่าวจริงเข้ากับเกม
    ใช้ RSS feed จาก New York Times แสดงพาดหัวข่าวบนแผ่นป้าย
    ข่าวไม่มีผลต่อเกม แต่สร้างบรรยากาศ doomscrolling อย่างแท้จริง
    ผู้เล่นอาจถูกดึงดูดให้หยุดอ่านข่าวระหว่างเล่น
    เป็นการเสียดสีพฤติกรรมเสพข่าวที่ไม่มีวันจบ

    ข้อมูลเสริมจากภายนอก
    เกมนี้เป็นตัวอย่างของ “vibe-coded” project ที่ใช้ AI อย่างสร้างสรรค์
    Friedman ใช้ lab pages เพื่อปรับค่ากราฟิก เช่น ใยแมงมุมและแผ่นป้าย
    เกมสามารถเล่นได้ทั้งบนมือถือและเดสก์ท็อปอย่างลื่นไหล
    มีผู้เล่นบางรายรายงานปัญหาเรื่องการเลื่อนหน้าจอบนบางเบราว์เซอร์

    https://ironicsans.ghost.io/doomscrolling-the-game/
    🕹️ “Doomscrolling: The Game — เมื่อการเลื่อนหน้าจอกลายเป็นเกมที่ทั้งเสียดสีและเสพติด” David Friedman นักเขียนจาก Ironic Sans ได้สร้างเกมที่ไม่เหมือนใครในชื่อว่า “Doomscrolling: The Game” ซึ่งได้รับแรงบันดาลใจจากพฤติกรรมของผู้คนที่เลื่อนฟีดข่าวอย่างไม่หยุดยั้งจนรู้สึกหดหู่ หรือที่เรียกว่า doomscrolling โดยเขาตั้งคำถามว่า “ถ้า Doom เป็นเกมที่เล่นด้วยการเลื่อนหน้าจอเท่านั้น จะเป็นอย่างไร?” และคำตอบก็คือเกมนี้ — ที่คุณไม่ต้องกระโดด ไม่ต้องเคลื่อนที่ด้านข้าง แค่เลื่อนลงไปเรื่อย ๆ เกมนี้เริ่มต้นจากความล้มเหลว เพราะ GPT-4 ไม่สามารถเข้าใจแนวคิด “เลื่อนลง = พื้นหลังเลื่อนขึ้น” ได้เลย แต่เมื่อ GPT-5 เปิดตัว Friedman กลับมาลองใหม่ และสามารถสร้างต้นแบบเกมได้ภายใน 2 ชั่วโมง โดยใช้ vibe coding และการทดลองผ่าน “lab pages” ที่ให้เขาปรับค่าต่าง ๆ ด้วยตัวเอง เช่น สีพื้นหลัง, รูปแบบใยแมงมุม, หรือดีไซน์แผ่นป้ายข่าว ตัวเกมมีระบบที่กระตุ้นให้ผู้เล่นเคลื่อนไหว เช่น อัปเกรดอาวุธทุก 100 ตัวที่ฆ่า, กำแพงไฟที่ไล่ตามถ้าหยุดนานเกินไป, และสิ่งกีดขวางอย่างใยแมงมุมหรือกำแพงอิฐ นอกจากนี้ยังมี “แผ่นป้ายข่าว” ที่แสดงพาดหัวข่าวจริงจาก RSS ของ New York Times เพื่อสร้างบรรยากาศ doomscrolling อย่างแท้จริง — อ่านแล้วหดหู่แต่ก็อดไม่ได้ที่จะเลื่อนต่อ แม้ Friedman จะไม่ใช่นักพัฒนาเกมมืออาชีพ แต่เขาใช้ AI เป็นเครื่องมือในการสร้างเกมที่มีเสน่ห์เฉพาะตัว และเปิดให้เล่นฟรีทั้งบนมือถือและเดสก์ท็อป โดยสามารถบันทึกเกมไว้ในหน้าจอหลักให้เหมือนแอปจริงได้ ✅ จุดเด่นของ Doomscrolling: The Game ➡️ เล่นด้วยการเลื่อนหน้าจอเท่านั้น — ไม่มีการเคลื่อนที่ด้านข้างหรือกระโดด ➡️ ได้แรงบันดาลใจจากเกม Doom และพฤติกรรม doomscrolling ➡️ ใช้ GPT-5 ในการสร้างต้นแบบเกมภายในเวลาอันสั้น ➡️ ใช้ vibe coding และ lab pages เพื่อปรับแต่งองค์ประกอบเกม ✅ ระบบเกมที่กระตุ้นให้เคลื่อนไหว ➡️ อัปเกรดอาวุธทุก 100 ตัวที่ฆ่า ➡️ กำแพงไฟไล่ตามถ้าหยุดนานเกินไป ➡️ มีสิ่งกีดขวาง เช่น ใยแมงมุมและกำแพงอิฐ ➡️ มี health potion และระบบบันทึกระยะทางที่ทำได้ ✅ การผสานข่าวจริงเข้ากับเกม ➡️ ใช้ RSS feed จาก New York Times แสดงพาดหัวข่าวบนแผ่นป้าย ➡️ ข่าวไม่มีผลต่อเกม แต่สร้างบรรยากาศ doomscrolling อย่างแท้จริง ➡️ ผู้เล่นอาจถูกดึงดูดให้หยุดอ่านข่าวระหว่างเล่น ➡️ เป็นการเสียดสีพฤติกรรมเสพข่าวที่ไม่มีวันจบ ✅ ข้อมูลเสริมจากภายนอก ➡️ เกมนี้เป็นตัวอย่างของ “vibe-coded” project ที่ใช้ AI อย่างสร้างสรรค์ ➡️ Friedman ใช้ lab pages เพื่อปรับค่ากราฟิก เช่น ใยแมงมุมและแผ่นป้าย ➡️ เกมสามารถเล่นได้ทั้งบนมือถือและเดสก์ท็อปอย่างลื่นไหล ➡️ มีผู้เล่นบางรายรายงานปัญหาเรื่องการเลื่อนหน้าจอบนบางเบราว์เซอร์ https://ironicsans.ghost.io/doomscrolling-the-game/
    IRONICSANS.GHOST.IO
    Doomscrolling: The Game
    Can a game work where all you do is scroll?
    0 Comments 0 Shares 329 Views 0 Reviews
  • อูเอโนะ อาสึชิ เอกอัครราชทูตญี่ปุ่นประจำกัมพูชา ยอมรับว่าการปิดด่านชายแดนที่ยืดเยื้อระหว่างกัมพูชาและไทย ทำให้บรรดาบริษัทต่างๆของญี่ปุ่นตกอยู่ในสถานการณ์ที่ยากลำบากและการจ้างงานใหม่ๆในกัมพูชาไม่ใช่เรื่องง่ายในสถานการณ์เช่นนี้ คำชี้แจงที่มีออกมา หลังเป็นที่ยืนยันว่าประเทศที่ 3 ซึ่งขอให้ไทยและกัมพูชาเปิดด่าน ท่ามกลางความขัดแย้งที่ยังมีอยู่ ก็คือญี่ปุ่นนั่นเอง

    อ่านต่อ..https://news1live.com/detail/9680000087298

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    อูเอโนะ อาสึชิ เอกอัครราชทูตญี่ปุ่นประจำกัมพูชา ยอมรับว่าการปิดด่านชายแดนที่ยืดเยื้อระหว่างกัมพูชาและไทย ทำให้บรรดาบริษัทต่างๆของญี่ปุ่นตกอยู่ในสถานการณ์ที่ยากลำบากและการจ้างงานใหม่ๆในกัมพูชาไม่ใช่เรื่องง่ายในสถานการณ์เช่นนี้ คำชี้แจงที่มีออกมา หลังเป็นที่ยืนยันว่าประเทศที่ 3 ซึ่งขอให้ไทยและกัมพูชาเปิดด่าน ท่ามกลางความขัดแย้งที่ยังมีอยู่ ก็คือญี่ปุ่นนั่นเอง อ่านต่อ..https://news1live.com/detail/9680000087298 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes #กัมพูชายิงก่อน #ไทยนี้รักสงบแต่ถึงรบไม่ขลาด #CambodiaOpenedFire #เขมรลักลอบวางระเบิด
    Like
    Angry
    5
    2 Comments 0 Shares 534 Views 0 Reviews
  • “ศาลสหรัฐฯ ตัดสิน Verizon ผิดฐานขายข้อมูลตำแหน่งลูกค้าโดยไม่ขออนุญาต — จุดเปลี่ยนสำคัญของสิทธิความเป็นส่วนตัวในยุคดิจิทัล”

    ในคดีที่อาจกลายเป็นหมุดหมายสำคัญของการคุ้มครองข้อมูลส่วนบุคคล ศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ได้มีคำตัดสินเมื่อวันที่ 11 กันยายน 2025 ว่า Verizon กระทำผิดจริงจากการขายข้อมูลตำแหน่งของลูกค้าโดยไม่ได้รับความยินยอมอย่างชัดเจน โดยยืนยันคำสั่งปรับจาก FCC เป็นเงิน 46.9 ล้านดอลลาร์ ซึ่ง Verizon พยายามยื่นอุทธรณ์เพื่อยกเลิกแต่ไม่สำเร็จ

    คดีนี้ย้อนกลับไปถึงปี 2018 เมื่อมีการเปิดเผยว่า Verizon และผู้ให้บริการรายใหญ่อื่น ๆ เช่น AT&T และ T-Mobile ได้ขายข้อมูลตำแหน่งแบบเรียลไทม์ของลูกค้าให้กับบริษัทตัวกลาง เช่น LocationSmart และ Zumigo ซึ่งนำข้อมูลไปขายต่อให้กับหน่วยงานต่าง ๆ รวมถึงบริษัทเอกชนและเจ้าหน้าที่รัฐ โดยไม่มีการตรวจสอบเอกสารหรือขออนุญาตจากลูกค้าอย่างเหมาะสม

    Verizon อ้างว่าข้อมูลตำแหน่งของอุปกรณ์ไม่อยู่ภายใต้การคุ้มครองตามกฎหมาย Communications Act แต่ศาลไม่เห็นด้วย โดยระบุว่าข้อมูลดังกล่าวถือเป็น “customer proprietary network information” ซึ่งต้องได้รับการคุ้มครองตามกฎหมาย และ Verizon เองก็เลือกที่จะจ่ายค่าปรับแทนที่จะขอสิทธิพิจารณาคดีโดยคณะลูกขุน ทำให้ข้ออ้างเรื่องการละเมิดสิทธิการพิจารณาคดีไม่สามารถนำมาใช้ได้

    แม้ AT&T จะชนะคดีในศาลเขตที่ 5 ซึ่งมีแนวโน้มอนุรักษ์นิยมมากกว่า แต่คำตัดสินที่แตกต่างกันในแต่ละเขตศาลทำให้คดีนี้อาจต้องขึ้นสู่ศาลสูงสุดของสหรัฐฯ เพื่อวินิจฉัยให้ชัดเจนว่า FCC มีอำนาจในการลงโทษบริษัทโทรคมนาคมในกรณีละเมิดข้อมูลส่วนบุคคลหรือไม่

    คำตัดสินของศาลอุทธรณ์สหรัฐฯ เขตที่ 2
    ยืนยันคำสั่งปรับ Verizon เป็นเงิน 46.9 ล้านดอลลาร์
    ปฏิเสธข้ออ้างเรื่องสิทธิการพิจารณาคดีโดยคณะลูกขุน
    ระบุว่าข้อมูลตำแหน่งของอุปกรณ์อยู่ภายใต้การคุ้มครองตาม Communications Act
    Verizon เลือกจ่ายค่าปรับแทนการขอพิจารณาคดี ทำให้เสียสิทธิ์การโต้แย้ง

    พฤติกรรมที่นำไปสู่การลงโทษ
    Verizon ขายข้อมูลตำแหน่งผ่านตัวกลางโดยไม่ตรวจสอบเอกสารหรือขออนุญาต
    บริษัทตัวกลาง เช่น Securus Technologies เปิดช่องให้เจ้าหน้าที่รัฐเข้าถึงข้อมูลโดยไม่มีหมายศาล
    มีกรณีที่นายอำเภอในรัฐ Missouri เข้าถึงข้อมูลลูกค้าโดยไม่มีเอกสารทางกฎหมาย
    ระบบการขออนุญาตถูก “มอบหมาย” ให้บริษัทตัวกลางแทนที่จะทำโดย Verizon เอง

    ผลกระทบต่ออุตสาหกรรมโทรคมนาคม
    FCC เคยปรับผู้ให้บริการรายใหญ่รวมเกือบ 200 ล้านดอลลาร์ในปี 2024
    AT&T ชนะคดีในศาลเขตที่ 5 ขณะที่ T-Mobile แพ้ในศาล DC Circuit
    ความขัดแย้งระหว่างเขตศาลอาจนำไปสู่การพิจารณาโดยศาลสูงสุด
    หากศาลสูงรับเรื่อง อาจเปลี่ยนขอบเขตอำนาจของ FCC ในการลงโทษ

    ข้อมูลเสริมจากภายนอก
    ข้อมูลตำแหน่งเคยถูกใช้ในบริการช่วยเหลือฉุกเฉิน, ป้องกันการค้ามนุษย์ และการตรวจจับการฉ้อโกง
    FCC ระบุว่าบริษัทโทรคมนาคมยังคงดำเนินโครงการโดยไม่มีมาตรการป้องกันที่เพียงพอ
    การขายข้อมูลให้กับ bounty hunters และบริษัทเอกชนสร้างความไม่พอใจในสภาคองเกรส
    การเปิดเผยในปี 2018 โดย New York Times เป็นจุดเริ่มต้นของการสอบสวน

    https://arstechnica.com/tech-policy/2025/09/court-rejects-verizon-claim-that-selling-location-data-without-consent-is-legal/
    📍 “ศาลสหรัฐฯ ตัดสิน Verizon ผิดฐานขายข้อมูลตำแหน่งลูกค้าโดยไม่ขออนุญาต — จุดเปลี่ยนสำคัญของสิทธิความเป็นส่วนตัวในยุคดิจิทัล” ในคดีที่อาจกลายเป็นหมุดหมายสำคัญของการคุ้มครองข้อมูลส่วนบุคคล ศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ได้มีคำตัดสินเมื่อวันที่ 11 กันยายน 2025 ว่า Verizon กระทำผิดจริงจากการขายข้อมูลตำแหน่งของลูกค้าโดยไม่ได้รับความยินยอมอย่างชัดเจน โดยยืนยันคำสั่งปรับจาก FCC เป็นเงิน 46.9 ล้านดอลลาร์ ซึ่ง Verizon พยายามยื่นอุทธรณ์เพื่อยกเลิกแต่ไม่สำเร็จ คดีนี้ย้อนกลับไปถึงปี 2018 เมื่อมีการเปิดเผยว่า Verizon และผู้ให้บริการรายใหญ่อื่น ๆ เช่น AT&T และ T-Mobile ได้ขายข้อมูลตำแหน่งแบบเรียลไทม์ของลูกค้าให้กับบริษัทตัวกลาง เช่น LocationSmart และ Zumigo ซึ่งนำข้อมูลไปขายต่อให้กับหน่วยงานต่าง ๆ รวมถึงบริษัทเอกชนและเจ้าหน้าที่รัฐ โดยไม่มีการตรวจสอบเอกสารหรือขออนุญาตจากลูกค้าอย่างเหมาะสม Verizon อ้างว่าข้อมูลตำแหน่งของอุปกรณ์ไม่อยู่ภายใต้การคุ้มครองตามกฎหมาย Communications Act แต่ศาลไม่เห็นด้วย โดยระบุว่าข้อมูลดังกล่าวถือเป็น “customer proprietary network information” ซึ่งต้องได้รับการคุ้มครองตามกฎหมาย และ Verizon เองก็เลือกที่จะจ่ายค่าปรับแทนที่จะขอสิทธิพิจารณาคดีโดยคณะลูกขุน ทำให้ข้ออ้างเรื่องการละเมิดสิทธิการพิจารณาคดีไม่สามารถนำมาใช้ได้ แม้ AT&T จะชนะคดีในศาลเขตที่ 5 ซึ่งมีแนวโน้มอนุรักษ์นิยมมากกว่า แต่คำตัดสินที่แตกต่างกันในแต่ละเขตศาลทำให้คดีนี้อาจต้องขึ้นสู่ศาลสูงสุดของสหรัฐฯ เพื่อวินิจฉัยให้ชัดเจนว่า FCC มีอำนาจในการลงโทษบริษัทโทรคมนาคมในกรณีละเมิดข้อมูลส่วนบุคคลหรือไม่ ✅ คำตัดสินของศาลอุทธรณ์สหรัฐฯ เขตที่ 2 ➡️ ยืนยันคำสั่งปรับ Verizon เป็นเงิน 46.9 ล้านดอลลาร์ ➡️ ปฏิเสธข้ออ้างเรื่องสิทธิการพิจารณาคดีโดยคณะลูกขุน ➡️ ระบุว่าข้อมูลตำแหน่งของอุปกรณ์อยู่ภายใต้การคุ้มครองตาม Communications Act ➡️ Verizon เลือกจ่ายค่าปรับแทนการขอพิจารณาคดี ทำให้เสียสิทธิ์การโต้แย้ง ✅ พฤติกรรมที่นำไปสู่การลงโทษ ➡️ Verizon ขายข้อมูลตำแหน่งผ่านตัวกลางโดยไม่ตรวจสอบเอกสารหรือขออนุญาต ➡️ บริษัทตัวกลาง เช่น Securus Technologies เปิดช่องให้เจ้าหน้าที่รัฐเข้าถึงข้อมูลโดยไม่มีหมายศาล ➡️ มีกรณีที่นายอำเภอในรัฐ Missouri เข้าถึงข้อมูลลูกค้าโดยไม่มีเอกสารทางกฎหมาย ➡️ ระบบการขออนุญาตถูก “มอบหมาย” ให้บริษัทตัวกลางแทนที่จะทำโดย Verizon เอง ✅ ผลกระทบต่ออุตสาหกรรมโทรคมนาคม ➡️ FCC เคยปรับผู้ให้บริการรายใหญ่รวมเกือบ 200 ล้านดอลลาร์ในปี 2024 ➡️ AT&T ชนะคดีในศาลเขตที่ 5 ขณะที่ T-Mobile แพ้ในศาล DC Circuit ➡️ ความขัดแย้งระหว่างเขตศาลอาจนำไปสู่การพิจารณาโดยศาลสูงสุด ➡️ หากศาลสูงรับเรื่อง อาจเปลี่ยนขอบเขตอำนาจของ FCC ในการลงโทษ ✅ ข้อมูลเสริมจากภายนอก ➡️ ข้อมูลตำแหน่งเคยถูกใช้ในบริการช่วยเหลือฉุกเฉิน, ป้องกันการค้ามนุษย์ และการตรวจจับการฉ้อโกง ➡️ FCC ระบุว่าบริษัทโทรคมนาคมยังคงดำเนินโครงการโดยไม่มีมาตรการป้องกันที่เพียงพอ ➡️ การขายข้อมูลให้กับ bounty hunters และบริษัทเอกชนสร้างความไม่พอใจในสภาคองเกรส ➡️ การเปิดเผยในปี 2018 โดย New York Times เป็นจุดเริ่มต้นของการสอบสวน https://arstechnica.com/tech-policy/2025/09/court-rejects-verizon-claim-that-selling-location-data-without-consent-is-legal/
    ARSTECHNICA.COM
    Court rejects Verizon claim that selling location data without consent is legal
    Verizon and T-Mobile lost, but AT&T beat the FCC. SCOTUS may have to step in.
    0 Comments 0 Shares 429 Views 0 Reviews
  • “เบื้องหลังความเร็วของ Bun Install — เมื่อการติดตั้งแพ็กเกจกลายเป็นงานระบบ ไม่ใช่แค่เรื่อง JavaScript”

    ในโลกของนักพัฒนา JavaScript ที่เคยชินกับการรอ npm install จนกาแฟเย็น Bun ได้เข้ามาเปลี่ยนเกมด้วยความเร็วที่เหนือชั้น โดยเฉลี่ยเร็วกว่า npm ถึง 7 เท่า, pnpm 4 เท่า และ yarn 17 เท่า แต่เบื้องหลังความเร็วนี้ไม่ใช่แค่การเขียนโค้ดให้ดีขึ้น — มันคือการออกแบบใหม่ทั้งหมดในระดับระบบปฏิบัติการ

    Bun มองการติดตั้งแพ็กเกจเป็น “ปัญหาด้านระบบ” มากกว่าปัญหา JavaScript โดยลดการใช้ system call ที่สิ้นเปลือง, ใช้การจัดเก็บข้อมูลแบบ binary, และใช้การคัดลอกไฟล์แบบ native ที่เร็วกว่าเดิมหลายเท่า นอกจากนี้ยังใช้ multi-threading เต็มรูปแบบเพื่อให้ทุก core ของ CPU ทำงานพร้อมกัน ต่างจาก npm ที่ใช้แค่ thread เดียว

    Bun เขียนด้วยภาษา Zig ซึ่งสามารถเรียก system call ได้โดยตรง โดยไม่ต้องผ่าน libuv หรือ event loop แบบ Node.js ทำให้การอ่านไฟล์หรือจัดการเครือข่ายเร็วขึ้นอย่างเห็นได้ชัด และยังใช้เทคนิคเช่น clonefile (macOS) หรือ hardlink (Linux) เพื่อคัดลอกไฟล์โดยไม่ต้องอ่านและเขียนใหม่

    นอกจากนี้ Bun ยังใช้การจัดเก็บข้อมูลแบบ Structure of Arrays แทน Object-based ซึ่งช่วยให้ CPU โหลดข้อมูลได้เร็วขึ้นจาก cache โดยไม่ต้องวิ่งไป RAM บ่อย ๆ และยังมีการจัดการ lockfile แบบ cache-friendly ที่ลดการ parsing JSON ซ้ำซ้อน

    สาเหตุที่ Bun install เร็วกว่าเครื่องมืออื่น
    ลดจำนวน system call ที่สิ้นเปลือง เช่น futex และ epoll
    ใช้ Zig เรียก system call โดยตรง ไม่ผ่าน JavaScript runtime
    ใช้ binary manifest แทน JSON เพื่อลดการ parsing
    ใช้ clonefile (macOS) และ hardlink (Linux) เพื่อคัดลอกไฟล์แบบ O(1)

    การจัดการข้อมูลแบบ cache-friendly
    ใช้ Structure of Arrays แทน Object-based เพื่อเพิ่ม cache locality
    ลด pointer chasing ที่ทำให้ CPU ต้องวิ่งไป RAM บ่อย
    lockfile ของ Bun ใช้รูปแบบที่อ่านเร็วและลดการจัดสรรหน่วยความจำ
    ใช้ string buffer เดียวสำหรับข้อมูลซ้ำ เช่นชื่อแพ็กเกจและเวอร์ชัน

    การใช้ multi-core อย่างเต็มประสิทธิภาพ
    Bun ใช้ thread pool แบบ work-stealing ที่ไม่มีการล็อก
    แต่ละ thread มี memory pool ของตัวเอง ลดการรอการจัดสรร
    network thread แยกจาก CPU thread ทำให้ไม่ต้องรอการดาวน์โหลด
    สามารถประมวลผล package.json ได้มากกว่า 140,000 ไฟล์ต่อวินาที

    ข้อมูลเสริมจากภายนอก
    Bun ใช้ libdeflate แทน zlib เพื่อการ decompress ที่เร็วขึ้น
    clonefile และ hardlink เป็นเทคนิค copy-on-write ที่ลดการใช้พื้นที่
    Bun install แบบ cached เร็วกว่า npm install แบบ fresh ถึง 196 เท่า
    Bun สามารถใช้ในโปรเจกต์ Node.js ได้โดยไม่ต้องเปลี่ยน runtime

    https://bun.com/blog/behind-the-scenes-of-bun-install
    ⚙️ “เบื้องหลังความเร็วของ Bun Install — เมื่อการติดตั้งแพ็กเกจกลายเป็นงานระบบ ไม่ใช่แค่เรื่อง JavaScript” ในโลกของนักพัฒนา JavaScript ที่เคยชินกับการรอ npm install จนกาแฟเย็น Bun ได้เข้ามาเปลี่ยนเกมด้วยความเร็วที่เหนือชั้น โดยเฉลี่ยเร็วกว่า npm ถึง 7 เท่า, pnpm 4 เท่า และ yarn 17 เท่า แต่เบื้องหลังความเร็วนี้ไม่ใช่แค่การเขียนโค้ดให้ดีขึ้น — มันคือการออกแบบใหม่ทั้งหมดในระดับระบบปฏิบัติการ Bun มองการติดตั้งแพ็กเกจเป็น “ปัญหาด้านระบบ” มากกว่าปัญหา JavaScript โดยลดการใช้ system call ที่สิ้นเปลือง, ใช้การจัดเก็บข้อมูลแบบ binary, และใช้การคัดลอกไฟล์แบบ native ที่เร็วกว่าเดิมหลายเท่า นอกจากนี้ยังใช้ multi-threading เต็มรูปแบบเพื่อให้ทุก core ของ CPU ทำงานพร้อมกัน ต่างจาก npm ที่ใช้แค่ thread เดียว Bun เขียนด้วยภาษา Zig ซึ่งสามารถเรียก system call ได้โดยตรง โดยไม่ต้องผ่าน libuv หรือ event loop แบบ Node.js ทำให้การอ่านไฟล์หรือจัดการเครือข่ายเร็วขึ้นอย่างเห็นได้ชัด และยังใช้เทคนิคเช่น clonefile (macOS) หรือ hardlink (Linux) เพื่อคัดลอกไฟล์โดยไม่ต้องอ่านและเขียนใหม่ นอกจากนี้ Bun ยังใช้การจัดเก็บข้อมูลแบบ Structure of Arrays แทน Object-based ซึ่งช่วยให้ CPU โหลดข้อมูลได้เร็วขึ้นจาก cache โดยไม่ต้องวิ่งไป RAM บ่อย ๆ และยังมีการจัดการ lockfile แบบ cache-friendly ที่ลดการ parsing JSON ซ้ำซ้อน ✅ สาเหตุที่ Bun install เร็วกว่าเครื่องมืออื่น ➡️ ลดจำนวน system call ที่สิ้นเปลือง เช่น futex และ epoll ➡️ ใช้ Zig เรียก system call โดยตรง ไม่ผ่าน JavaScript runtime ➡️ ใช้ binary manifest แทน JSON เพื่อลดการ parsing ➡️ ใช้ clonefile (macOS) และ hardlink (Linux) เพื่อคัดลอกไฟล์แบบ O(1) ✅ การจัดการข้อมูลแบบ cache-friendly ➡️ ใช้ Structure of Arrays แทน Object-based เพื่อเพิ่ม cache locality ➡️ ลด pointer chasing ที่ทำให้ CPU ต้องวิ่งไป RAM บ่อย ➡️ lockfile ของ Bun ใช้รูปแบบที่อ่านเร็วและลดการจัดสรรหน่วยความจำ ➡️ ใช้ string buffer เดียวสำหรับข้อมูลซ้ำ เช่นชื่อแพ็กเกจและเวอร์ชัน ✅ การใช้ multi-core อย่างเต็มประสิทธิภาพ ➡️ Bun ใช้ thread pool แบบ work-stealing ที่ไม่มีการล็อก ➡️ แต่ละ thread มี memory pool ของตัวเอง ลดการรอการจัดสรร ➡️ network thread แยกจาก CPU thread ทำให้ไม่ต้องรอการดาวน์โหลด ➡️ สามารถประมวลผล package.json ได้มากกว่า 140,000 ไฟล์ต่อวินาที ✅ ข้อมูลเสริมจากภายนอก ➡️ Bun ใช้ libdeflate แทน zlib เพื่อการ decompress ที่เร็วขึ้น ➡️ clonefile และ hardlink เป็นเทคนิค copy-on-write ที่ลดการใช้พื้นที่ ➡️ Bun install แบบ cached เร็วกว่า npm install แบบ fresh ถึง 196 เท่า ➡️ Bun สามารถใช้ในโปรเจกต์ Node.js ได้โดยไม่ต้องเปลี่ยน runtime https://bun.com/blog/behind-the-scenes-of-bun-install
    BUN.COM
    Behind The Scenes of Bun Install
    Learn how Bun is able to cut install times by up to 25×. Bun skips Node.js's overhead with direct system calls, cache-friendly data layouts, OS-level copy-on-write, and full-core parallelism.
    0 Comments 0 Shares 294 Views 0 Reviews
  • “openSUSE เตรียมถอด Bcachefs ออกจาก Tumbleweed ใน Linux 6.17 — เมื่อความขัดแย้งในชุมชน kernel กลายเป็นเหตุผลทางเทคนิค”

    openSUSE ประกาศเตรียมปิดการรองรับระบบไฟล์ Bcachefs ในดิสโทร Tumbleweed และ Slowroll ตั้งแต่เวอร์ชัน Linux kernel 6.17 เป็นต้นไป ซึ่งจะปล่อยในช่วงปลายเดือนกันยายนหรือต้นตุลาคม 2025 โดยเหตุผลหลักมาจากการที่ Linus Torvalds และทีมหลักของ Linux kernel เปลี่ยนสถานะของ Bcachefs จาก “supported” เป็น “externally maintained” เนื่องจากผู้ดูแล Bcachefs ปฏิเสธที่จะปฏิบัติตามมาตรฐานการแก้บั๊กและการจัดการเวอร์ชันของ kernel

    การเปลี่ยนสถานะนี้หมายความว่า Bcachefs จะไม่ได้รับการอัปเดตหรือ commit ใหม่ใน kernel หลักอีกต่อไป ทำให้ดิสโทรที่ใช้ kernel รุ่นล่าสุด เช่น openSUSE ตัดสินใจปิดการรองรับเพื่อหลีกเลี่ยงปัญหาด้านความเสถียรและความปลอดภัย โดย Jiri Slaby จาก SUSE Labs ระบุว่า ผู้ใช้ที่ยังต้องการใช้งาน Bcachefs ควรติดตามคำแนะนำจาก upstream และอาจต้องสร้าง Kernel Module Package (KMP) ด้วยตนเอง

    แม้ openSUSE จะไม่ลบ Bcachefs ออกจาก kernel ทันที แต่จะไม่ดูแล patch หรือ backport ใด ๆ อีกต่อไป และจะเปิดใช้งานอีกครั้งก็ต่อเมื่อผู้ดูแล Bcachefs ปรับปรุงพฤติกรรมและกลับมาร่วมมือกับชุมชน kernel อย่างเหมาะสม

    การเปลี่ยนแปลงใน openSUSE Tumbleweed
    ปิดการรองรับ Bcachefs ตั้งแต่ Linux kernel 6.17 เป็นต้นไป
    ส่งผลต่อผู้ใช้ openSUSE Tumbleweed และ Slowroll โดยตรง
    Linux 6.16 ยังใช้งาน Bcachefs ได้ตามปกติ — ไม่ได้รับผลกระทบ
    ผู้ใช้ที่ต้องการใช้งานต่อควรหลีกเลี่ยงการอัปเดตเป็น 6.17

    เหตุผลเบื้องหลังการตัดสินใจ
    Linus Torvalds เปลี่ยนสถานะ Bcachefs เป็น “externally maintained”
    ทีมหลักของ kernel ไม่รับ commit ใหม่จาก Bcachefs อีกต่อไป
    ผู้ดูแล Bcachefs ปฏิเสธการปฏิบัติตามมาตรฐานการแก้บั๊กและเวอร์ชัน
    openSUSE ไม่ดูแลระบบไฟล์ที่ไม่ได้รับการสนับสนุนจาก upstream

    ทางเลือกสำหรับผู้ใช้ Bcachefs
    ติดตามคำแนะนำจาก upstream Bcachefs สำหรับการติดตั้งแบบ manual
    อาจต้องสร้าง KMP (Kernel Module Package) ด้วยตนเอง
    openSUSE ไม่สนับสนุน DKMS modules เนื่องจากไม่เหมาะกับ rolling release
    ควรพิจารณาย้ายข้อมูลไปยังระบบไฟล์อื่นที่ได้รับการสนับสนุน

    ข้อมูลเสริมจากภายนอก
    Kent Overstreet ผู้ดูแล Bcachefs เคยขอเลื่อนการถอดออกจาก kernel 6.17 เป็น 6.18
    มีความขัดแย้งระหว่าง Kent กับนักพัฒนา kernel หลายคน เช่น Josef Bacik และ Theodore Ts’o
    ปัญหาไม่ได้อยู่ที่คุณภาพของ Bcachefs แต่เป็นพฤติกรรมของผู้ดูแลที่ถูกมองว่า “เป็นพิษ”
    Linus Torvalds ระบุว่า “เขาและ Kent จบกันแล้ว” — สะท้อนความตึงเครียดในชุมชน

    https://9to5linux.com/opensuse-to-disable-bcachefs-file-system-support-in-tumbleweed-with-linux-6-17
    🧩 “openSUSE เตรียมถอด Bcachefs ออกจาก Tumbleweed ใน Linux 6.17 — เมื่อความขัดแย้งในชุมชน kernel กลายเป็นเหตุผลทางเทคนิค” openSUSE ประกาศเตรียมปิดการรองรับระบบไฟล์ Bcachefs ในดิสโทร Tumbleweed และ Slowroll ตั้งแต่เวอร์ชัน Linux kernel 6.17 เป็นต้นไป ซึ่งจะปล่อยในช่วงปลายเดือนกันยายนหรือต้นตุลาคม 2025 โดยเหตุผลหลักมาจากการที่ Linus Torvalds และทีมหลักของ Linux kernel เปลี่ยนสถานะของ Bcachefs จาก “supported” เป็น “externally maintained” เนื่องจากผู้ดูแล Bcachefs ปฏิเสธที่จะปฏิบัติตามมาตรฐานการแก้บั๊กและการจัดการเวอร์ชันของ kernel การเปลี่ยนสถานะนี้หมายความว่า Bcachefs จะไม่ได้รับการอัปเดตหรือ commit ใหม่ใน kernel หลักอีกต่อไป ทำให้ดิสโทรที่ใช้ kernel รุ่นล่าสุด เช่น openSUSE ตัดสินใจปิดการรองรับเพื่อหลีกเลี่ยงปัญหาด้านความเสถียรและความปลอดภัย โดย Jiri Slaby จาก SUSE Labs ระบุว่า ผู้ใช้ที่ยังต้องการใช้งาน Bcachefs ควรติดตามคำแนะนำจาก upstream และอาจต้องสร้าง Kernel Module Package (KMP) ด้วยตนเอง แม้ openSUSE จะไม่ลบ Bcachefs ออกจาก kernel ทันที แต่จะไม่ดูแล patch หรือ backport ใด ๆ อีกต่อไป และจะเปิดใช้งานอีกครั้งก็ต่อเมื่อผู้ดูแล Bcachefs ปรับปรุงพฤติกรรมและกลับมาร่วมมือกับชุมชน kernel อย่างเหมาะสม ✅ การเปลี่ยนแปลงใน openSUSE Tumbleweed ➡️ ปิดการรองรับ Bcachefs ตั้งแต่ Linux kernel 6.17 เป็นต้นไป ➡️ ส่งผลต่อผู้ใช้ openSUSE Tumbleweed และ Slowroll โดยตรง ➡️ Linux 6.16 ยังใช้งาน Bcachefs ได้ตามปกติ — ไม่ได้รับผลกระทบ ➡️ ผู้ใช้ที่ต้องการใช้งานต่อควรหลีกเลี่ยงการอัปเดตเป็น 6.17 ✅ เหตุผลเบื้องหลังการตัดสินใจ ➡️ Linus Torvalds เปลี่ยนสถานะ Bcachefs เป็น “externally maintained” ➡️ ทีมหลักของ kernel ไม่รับ commit ใหม่จาก Bcachefs อีกต่อไป ➡️ ผู้ดูแล Bcachefs ปฏิเสธการปฏิบัติตามมาตรฐานการแก้บั๊กและเวอร์ชัน ➡️ openSUSE ไม่ดูแลระบบไฟล์ที่ไม่ได้รับการสนับสนุนจาก upstream ✅ ทางเลือกสำหรับผู้ใช้ Bcachefs ➡️ ติดตามคำแนะนำจาก upstream Bcachefs สำหรับการติดตั้งแบบ manual ➡️ อาจต้องสร้าง KMP (Kernel Module Package) ด้วยตนเอง ➡️ openSUSE ไม่สนับสนุน DKMS modules เนื่องจากไม่เหมาะกับ rolling release ➡️ ควรพิจารณาย้ายข้อมูลไปยังระบบไฟล์อื่นที่ได้รับการสนับสนุน ✅ ข้อมูลเสริมจากภายนอก ➡️ Kent Overstreet ผู้ดูแล Bcachefs เคยขอเลื่อนการถอดออกจาก kernel 6.17 เป็น 6.18 ➡️ มีความขัดแย้งระหว่าง Kent กับนักพัฒนา kernel หลายคน เช่น Josef Bacik และ Theodore Ts’o ➡️ ปัญหาไม่ได้อยู่ที่คุณภาพของ Bcachefs แต่เป็นพฤติกรรมของผู้ดูแลที่ถูกมองว่า “เป็นพิษ” ➡️ Linus Torvalds ระบุว่า “เขาและ Kent จบกันแล้ว” — สะท้อนความตึงเครียดในชุมชน https://9to5linux.com/opensuse-to-disable-bcachefs-file-system-support-in-tumbleweed-with-linux-6-17
    9TO5LINUX.COM
    openSUSE to Disable Bcachefs File System Support in Tumbleweed with Linux 6.17 - 9to5Linux
    openSUSE devs plan to disable support for the Bcachefs file system in openSUSE Tumbleweed with the upcoming Linux 6.17 kernel update.
    0 Comments 0 Shares 225 Views 0 Reviews