• เรื่องเล่าจากสนามโค้ด: Rust กับพลังที่ซ่อนอยู่ของความมั่นใจ

    Bernard Kolobara ผู้พัฒนาเบื้องหลัง Lubeno ได้แชร์ประสบการณ์ตรงว่า Rust ไม่ได้แค่ปลอดภัย แต่ยังช่วยให้เขาทำงานได้เร็วขึ้นในระยะยาว โดยเฉพาะเมื่อโค้ดเบสเติบโตจนไม่สามารถจำทุกส่วนได้หมด การ refactor โค้ดในภาษาทั่วไปมักทำให้เกิดความลังเล แต่ Rust กลับให้ความมั่นใจว่า “ถ้ามันคอมไพล์ผ่าน ก็ปลอดภัยแล้ว”

    เขาเล่าถึงเหตุการณ์ที่เจอ bug จากการใช้ mutex ร่วมกับ async await ซึ่งดูเหมือนจะไม่เกี่ยวกันเลย แต่ Rust กลับตรวจจับได้ว่า mutex guard ถูกถือข้าม await point ซึ่งอาจทำให้เกิด undefined behavior เพราะ scheduler อาจย้าย thread ไปปลดล็อก mutex บน thread ที่ไม่ใช่ตัวเดิม ซึ่ง Rust ไม่ยอมให้เกิดขึ้นเด็ดขาด

    ในขณะที่ TypeScript กลับปล่อยให้ bug แบบ race condition หลุดไปถึง production โดยไม่เตือนอะไรเลย เช่น การ redirect ด้วย window.location.href ที่ไม่ได้หยุดการทำงานทันที ทำให้คำสั่ง redirect ถัดไปเขียนทับคำสั่งแรกโดยไม่รู้ตัว

    Rust เพิ่ม productivity ผ่านความมั่นใจ
    เมื่อโค้ดเบสใหญ่ขึ้น Rust ช่วยให้กล้า refactor โดยไม่กลัวผลกระทบ
    ความปลอดภัยของ type system และ borrow checker ทำให้มั่นใจว่าโค้ดไม่พัง
    Productivity เพิ่มขึ้นแม้โค้ดจะซับซ้อนขึ้น

    ปัญหา mutex guard กับ async await
    Rust ไม่อนุญาตให้ถือ mutex guard ข้าม await point
    Scheduler อาจย้าย thread ทำให้ unlock เกิดบน thread ที่ไม่ใช่ตัวเดิม
    การแก้ไขคือปลดล็อกก่อน await เพื่อหลีกเลี่ยง undefined behavior

    ความสามารถของ Rust compiler
    ตรวจจับ bug ที่เกิดจากการจัดการ thread และ lifetime ได้แม่นยำ
    บังคับให้เขียนโค้ดที่ปลอดภัยแม้ในสถานการณ์ที่ซับซ้อน
    ระบบ type และ lifetime ทำงานร่วมกันอย่างเป็นระบบ

    ตัวอย่าง bug ใน TypeScript
    การใช้ window.location.href ไม่หยุดการทำงานทันที
    เกิด race condition ที่ redirect ถูกเขียนทับ
    การแก้ไขคือใช้ return เพื่อหยุดการทำงานหลัง redirect

    มุมมองเรื่องการทดสอบ
    Rust ลดความจำเป็นในการเขียน test เพื่อป้องกัน regression
    Compiler ทำหน้าที่เป็น safety net ที่แข็งแกร่ง
    แต่ในบางกรณีที่ type system ไม่ครอบคลุม การเขียน test ก็ยังจำเป็น

    https://lubeno.dev/blog/rusts-productivity-curve
    🎙️ เรื่องเล่าจากสนามโค้ด: Rust กับพลังที่ซ่อนอยู่ของความมั่นใจ Bernard Kolobara ผู้พัฒนาเบื้องหลัง Lubeno ได้แชร์ประสบการณ์ตรงว่า Rust ไม่ได้แค่ปลอดภัย แต่ยังช่วยให้เขาทำงานได้เร็วขึ้นในระยะยาว โดยเฉพาะเมื่อโค้ดเบสเติบโตจนไม่สามารถจำทุกส่วนได้หมด การ refactor โค้ดในภาษาทั่วไปมักทำให้เกิดความลังเล แต่ Rust กลับให้ความมั่นใจว่า “ถ้ามันคอมไพล์ผ่าน ก็ปลอดภัยแล้ว” เขาเล่าถึงเหตุการณ์ที่เจอ bug จากการใช้ mutex ร่วมกับ async await ซึ่งดูเหมือนจะไม่เกี่ยวกันเลย แต่ Rust กลับตรวจจับได้ว่า mutex guard ถูกถือข้าม await point ซึ่งอาจทำให้เกิด undefined behavior เพราะ scheduler อาจย้าย thread ไปปลดล็อก mutex บน thread ที่ไม่ใช่ตัวเดิม ซึ่ง Rust ไม่ยอมให้เกิดขึ้นเด็ดขาด ในขณะที่ TypeScript กลับปล่อยให้ bug แบบ race condition หลุดไปถึง production โดยไม่เตือนอะไรเลย เช่น การ redirect ด้วย window.location.href ที่ไม่ได้หยุดการทำงานทันที ทำให้คำสั่ง redirect ถัดไปเขียนทับคำสั่งแรกโดยไม่รู้ตัว ✅ Rust เพิ่ม productivity ผ่านความมั่นใจ ➡️ เมื่อโค้ดเบสใหญ่ขึ้น Rust ช่วยให้กล้า refactor โดยไม่กลัวผลกระทบ ➡️ ความปลอดภัยของ type system และ borrow checker ทำให้มั่นใจว่าโค้ดไม่พัง ➡️ Productivity เพิ่มขึ้นแม้โค้ดจะซับซ้อนขึ้น ✅ ปัญหา mutex guard กับ async await ➡️ Rust ไม่อนุญาตให้ถือ mutex guard ข้าม await point ➡️ Scheduler อาจย้าย thread ทำให้ unlock เกิดบน thread ที่ไม่ใช่ตัวเดิม ➡️ การแก้ไขคือปลดล็อกก่อน await เพื่อหลีกเลี่ยง undefined behavior ✅ ความสามารถของ Rust compiler ➡️ ตรวจจับ bug ที่เกิดจากการจัดการ thread และ lifetime ได้แม่นยำ ➡️ บังคับให้เขียนโค้ดที่ปลอดภัยแม้ในสถานการณ์ที่ซับซ้อน ➡️ ระบบ type และ lifetime ทำงานร่วมกันอย่างเป็นระบบ ✅ ตัวอย่าง bug ใน TypeScript ➡️ การใช้ window.location.href ไม่หยุดการทำงานทันที ➡️ เกิด race condition ที่ redirect ถูกเขียนทับ ➡️ การแก้ไขคือใช้ return เพื่อหยุดการทำงานหลัง redirect ✅ มุมมองเรื่องการทดสอบ ➡️ Rust ลดความจำเป็นในการเขียน test เพื่อป้องกัน regression ➡️ Compiler ทำหน้าที่เป็น safety net ที่แข็งแกร่ง ➡️ แต่ในบางกรณีที่ type system ไม่ครอบคลุม การเขียน test ก็ยังจำเป็น https://lubeno.dev/blog/rusts-productivity-curve
    LUBENO.DEV
    The unexpected productivity boost of Rust
    Rust is known for having a steep learning curve, but in this post we will be looking at another curve, the one showing developer productivity in relation to the project size.
    0 ความคิดเห็น 0 การแบ่งปัน 21 มุมมอง 0 รีวิว
  • https://youtu.be/al9pmKKBKK0?si=shoqPkLHEQSyMWCu
    https://youtu.be/al9pmKKBKK0?si=shoqPkLHEQSyMWCu
    0 ความคิดเห็น 0 การแบ่งปัน 11 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล้องมือถือ: เมื่อ Meta แอบดูภาพในเครื่องคุณ

    ลองจินตนาการว่า ภาพถ่ายในมือถือของคุณ—ไม่ว่าจะเป็นรูปครอบครัว รูปอาหาร หรือแม้แต่ภาพที่คุณไม่เคยโพสต์—อาจถูกสแกนโดย Meta เพื่อสร้าง “ไอเดียสร้างสรรค์” โดยที่คุณไม่รู้ตัว

    ผู้ใช้ Facebook หลายคนเพิ่งค้นพบว่าในแอปมีการเปิดใช้งานฟีเจอร์ “Camera Roll Sharing Suggestions” ซึ่งอนุญาตให้ Meta เข้าถึงและวิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, หรือรีแคปรายเดือนแบบ AI โดยที่บางคนไม่เคยเห็น popup ขออนุญาตเลยด้วยซ้ำ

    แม้ Meta จะยืนยันว่าฟีเจอร์นี้ “ไม่เปิดโดยอัตโนมัติ” และ “ไม่ใช้เพื่อโฆษณา” แต่ผู้ใช้จำนวนมากกลับพบว่ามันถูกเปิดไว้แล้วในแอปของตัวเอง และไม่แน่ใจว่าตนเคยกดยินยอมหรือไม่

    สิ่งที่น่ากังวลคือ แม้ภาพจะไม่ถูกแชร์ออกไป แต่การที่บริษัทสามารถเข้าถึงและเก็บภาพที่เราไม่เคยตั้งใจให้ใครเห็น ก็ถือเป็นการละเมิดความเป็นส่วนตัวในระดับลึก โดยเฉพาะเมื่อไม่มีการแจ้งเตือนอย่างชัดเจน

    ฟีเจอร์ Camera Roll Sharing Suggestions ของ Meta
    ใช้ AI วิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, และรีแคป
    ข้อมูลที่ใช้รวมถึงวันที่ถ่าย, ใบหน้า, วัตถุ, และสถานที่ในภาพ
    ผลลัพธ์จะมองเห็นได้เฉพาะผู้ใช้ เว้นแต่เลือกแชร์เอง
    Meta ยืนยันว่าไม่ใช้ข้อมูลนี้เพื่อโฆษณา

    วิธีตรวจสอบและปิดฟีเจอร์นี้
    เปิดแอป Facebook แล้วไปที่ Menu > Settings & Privacy > Settings
    เลื่อนลงไปที่ “Camera Roll Sharing Suggestions”
    ปิดสวิตช์สองตัว: “Get camera roll suggestions…” และ “Allow cloud processing…”
    เมื่อปิดแล้ว Meta จะหยุดสแกนภาพใหม่ และลบภาพที่อัปโหลดภายใน 30 วัน

    ข้อมูลเสริมจากภายนอก
    ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบในสหรัฐฯ และแคนาดา ยกเว้นบางรัฐที่มีกฎหมายคุ้มครองข้อมูล
    Meta เคยมีประวัติปัญหาด้านความเป็นส่วนตัว เช่นกรณี Cambridge Analytica
    การสแกนภาพที่ไม่เคยอัปโหลดถือเป็นการขยายขอบเขตการเก็บข้อมูลอย่างเงียบ ๆ

    https://www.zdnet.com/article/meta-might-be-secretly-scanning-your-phones-camera-roll-how-to-check-and-turn-it-off/
    🎙️ เรื่องเล่าจากกล้องมือถือ: เมื่อ Meta แอบดูภาพในเครื่องคุณ ลองจินตนาการว่า ภาพถ่ายในมือถือของคุณ—ไม่ว่าจะเป็นรูปครอบครัว รูปอาหาร หรือแม้แต่ภาพที่คุณไม่เคยโพสต์—อาจถูกสแกนโดย Meta เพื่อสร้าง “ไอเดียสร้างสรรค์” โดยที่คุณไม่รู้ตัว ผู้ใช้ Facebook หลายคนเพิ่งค้นพบว่าในแอปมีการเปิดใช้งานฟีเจอร์ “Camera Roll Sharing Suggestions” ซึ่งอนุญาตให้ Meta เข้าถึงและวิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, หรือรีแคปรายเดือนแบบ AI โดยที่บางคนไม่เคยเห็น popup ขออนุญาตเลยด้วยซ้ำ แม้ Meta จะยืนยันว่าฟีเจอร์นี้ “ไม่เปิดโดยอัตโนมัติ” และ “ไม่ใช้เพื่อโฆษณา” แต่ผู้ใช้จำนวนมากกลับพบว่ามันถูกเปิดไว้แล้วในแอปของตัวเอง และไม่แน่ใจว่าตนเคยกดยินยอมหรือไม่ สิ่งที่น่ากังวลคือ แม้ภาพจะไม่ถูกแชร์ออกไป แต่การที่บริษัทสามารถเข้าถึงและเก็บภาพที่เราไม่เคยตั้งใจให้ใครเห็น ก็ถือเป็นการละเมิดความเป็นส่วนตัวในระดับลึก โดยเฉพาะเมื่อไม่มีการแจ้งเตือนอย่างชัดเจน ✅ ฟีเจอร์ Camera Roll Sharing Suggestions ของ Meta ➡️ ใช้ AI วิเคราะห์ภาพในเครื่องเพื่อเสนอคอลลาจ, อัลบั้มธีม, และรีแคป ➡️ ข้อมูลที่ใช้รวมถึงวันที่ถ่าย, ใบหน้า, วัตถุ, และสถานที่ในภาพ ➡️ ผลลัพธ์จะมองเห็นได้เฉพาะผู้ใช้ เว้นแต่เลือกแชร์เอง ➡️ Meta ยืนยันว่าไม่ใช้ข้อมูลนี้เพื่อโฆษณา ✅ วิธีตรวจสอบและปิดฟีเจอร์นี้ ➡️ เปิดแอป Facebook แล้วไปที่ Menu > Settings & Privacy > Settings ➡️ เลื่อนลงไปที่ “Camera Roll Sharing Suggestions” ➡️ ปิดสวิตช์สองตัว: “Get camera roll suggestions…” และ “Allow cloud processing…” ➡️ เมื่อปิดแล้ว Meta จะหยุดสแกนภาพใหม่ และลบภาพที่อัปโหลดภายใน 30 วัน ✅ ข้อมูลเสริมจากภายนอก ➡️ ฟีเจอร์นี้ยังอยู่ในช่วงทดสอบในสหรัฐฯ และแคนาดา ยกเว้นบางรัฐที่มีกฎหมายคุ้มครองข้อมูล ➡️ Meta เคยมีประวัติปัญหาด้านความเป็นส่วนตัว เช่นกรณี Cambridge Analytica ➡️ การสแกนภาพที่ไม่เคยอัปโหลดถือเป็นการขยายขอบเขตการเก็บข้อมูลอย่างเงียบ ๆ https://www.zdnet.com/article/meta-might-be-secretly-scanning-your-phones-camera-roll-how-to-check-and-turn-it-off/
    WWW.ZDNET.COM
    Meta might be secretly scanning your phone's camera roll - how to check and turn it off
    Some Facebook users have noticed new settings that let Meta analyze and retain your phone's photos. Yes, you read that right.
    0 ความคิดเห็น 0 การแบ่งปัน 23 มุมมอง 0 รีวิว
  • เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI

    Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่

    ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น

    ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน

    สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้

    การเปลี่ยนแปลงนโยบายของ Anthropic
    เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่
    มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code
    ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API

    การเก็บข้อมูลและการฝึกโมเดล
    หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี
    หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม
    ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล
    การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง

    วิธีการเลือกและเปลี่ยนการตั้งค่า
    ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน
    ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025
    สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings

    จุดประสงค์ของการเปลี่ยนแปลง
    เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
    เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด
    เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้

    https://www.anthropic.com/news/updates-to-our-consumer-terms
    🎙️ เรื่องเล่าจากห้องทดลอง Claude: เมื่อข้อมูลของคุณกลายเป็นเชื้อเพลิงให้ AI Anthropic ผู้พัฒนา Claude ได้ประกาศอัปเดตเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวครั้งใหญ่ในเดือนสิงหาคม 2025 โดยเปิดทางให้ผู้ใช้เลือกว่าจะ “อนุญาต” หรือ “ปฏิเสธ” การใช้ข้อมูลของตนเพื่อฝึกโมเดล AI รุ่นใหม่ ก่อนหน้านี้ Claude ไม่ใช้ข้อมูลจากผู้ใช้ทั่วไปในการฝึกโมเดลเลย ยกเว้นกรณีที่มีการส่ง feedback โดยตรง แต่ตอนนี้ Anthropic ต้องการข้อมูลจริงจากการสนทนาและการเขียนโค้ด เพื่อพัฒนาโมเดลให้แม่นยำขึ้น ปลอดภัยขึ้น และเข้าใจมนุษย์มากขึ้น ผู้ใช้ที่เลือก “อนุญาต” จะมีการเก็บข้อมูลได้นานถึง 5 ปี และข้อมูลเหล่านั้นจะถูกนำไปใช้ในการฝึก Claude รุ่นใหม่ ๆ โดยจะมีการกรองข้อมูลที่อ่อนไหวและไม่ขายให้บุคคลที่สาม ส่วนผู้ใช้ที่ “ปฏิเสธ” จะยังคงอยู่ภายใต้การเก็บข้อมูลแบบเดิมคือ 30 วัน สิ่งที่น่าสนใจคือ การตัดสินใจนี้จะมีผลต่อการใช้งาน Claude หลังวันที่ 28 กันยายน 2025 หากไม่เลือกใด ๆ จะไม่สามารถใช้งาน Claude ได้ต่อ และแม้จะเปลี่ยนใจในภายหลัง ข้อมูลที่เคยใช้ฝึกไปแล้วจะไม่สามารถเรียกคืนได้ ✅ การเปลี่ยนแปลงนโยบายของ Anthropic ➡️ เปิดให้ผู้ใช้เลือกว่าจะให้ใช้ข้อมูลเพื่อฝึก Claude หรือไม่ ➡️ มีผลกับผู้ใช้ Claude Free, Pro และ Max รวมถึง Claude Code ➡️ ไม่ครอบคลุมบริการเชิงพาณิชย์ เช่น Claude for Work, Gov, Education หรือ API ✅ การเก็บข้อมูลและการฝึกโมเดล ➡️ หากอนุญาต ข้อมูลจะถูกเก็บได้นานถึง 5 ปี ➡️ หากไม่อนุญาต จะเก็บข้อมูลเพียง 30 วันตามนโยบายเดิม ➡️ ข้อมูลที่ถูกลบจะไม่ถูกใช้ในการฝึกโมเดล ➡️ การฝึกจะใช้เฉพาะแชตใหม่หรือแชตที่กลับมาใช้งานอีกครั้ง ✅ วิธีการเลือกและเปลี่ยนการตั้งค่า ➡️ ผู้ใช้ใหม่สามารถเลือกได้ตอนสมัครใช้งาน ➡️ ผู้ใช้เดิมจะเห็น popup ให้เลือกก่อนวันที่ 28 กันยายน 2025 ➡️ สามารถเปลี่ยนการตั้งค่าได้ตลอดเวลาใน Privacy Settings ✅ จุดประสงค์ของการเปลี่ยนแปลง ➡️ เพื่อปรับปรุงความแม่นยำในการเขียนโค้ด การวิเคราะห์ และการให้เหตุผล ➡️ เพื่อพัฒนาระบบตรวจจับเนื้อหาที่เป็นอันตราย เช่น spam หรือการละเมิด ➡️ เพื่อให้โมเดลตอบสนองได้ดีขึ้นในบริบทจริงของผู้ใช้ https://www.anthropic.com/news/updates-to-our-consumer-terms
    WWW.ANTHROPIC.COM
    Updates to Consumer Terms and Privacy Policy
    Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
    0 ความคิดเห็น 0 การแบ่งปัน 20 มุมมอง 0 รีวิว
  • ก.ล.ต. ให้ CIG ชี้แจงข้อมูลภายใน 4 กันยา 68 02/09/68 #ก.ล.ต. #CIG #ตลาดหุ้น #หุ้นไทย
    ก.ล.ต. ให้ CIG ชี้แจงข้อมูลภายใน 4 กันยา 68 02/09/68 #ก.ล.ต. #CIG #ตลาดหุ้น #หุ้นไทย
    Like
    1
    0 ความคิดเห็น 0 การแบ่งปัน 105 มุมมอง 0 0 รีวิว
  • ลุงเองก็ไม่เข้าใจว่าเขาคิดอะไรกันอยู่ !!

    เรื่องเล่าจาก Synology: จาก NAS ที่เคยรัก สู่ระบบที่บังคับให้รักแบบมีเงื่อนไข

    ผู้ใช้ Synology หลายคน รวมถึงนักเขียนจาก LowEndBox ที่เคยหลงรักความเงียบ ประหยัดพลังงาน และความเสถียรของ NAS รุ่น DS920, DS418 และ DS1522 กำลังรู้สึกผิดหวังอย่างหนัก เพราะ Synology ได้เปลี่ยนนโยบายหลายอย่างที่ทำให้ผู้ใช้รู้สึกว่า “ถูกบังคับ” มากกว่าการได้รับอิสระ

    เริ่มจากข้อจำกัดด้าน Samba ที่หลายคนคิดว่าเป็นแค่การตั้งค่าใน smb.conf แต่จริง ๆ แล้ว Synology ใช้ wrapper พิเศษที่จำกัดจำนวนการเชื่อมต่อแบบ concurrent โดยไม่เปิดให้ผู้ใช้ปรับแต่งได้เอง

    ที่หนักกว่านั้นคือการเปลี่ยนนโยบายด้านฮาร์ดดิสก์: Synology ประกาศว่า NAS รุ่นใหม่ในปี 2025 จะ “ไม่ยอมรับ” ฮาร์ดดิสก์ที่ไม่ใช่ของ Synology หรือไม่ได้รับการรับรอง แม้จะเป็น WD Black ที่มีคุณภาพสูงและรับประกัน 5 ปี ก็อาจถูกปฏิเสธไม่ให้ใช้งานเลย

    นโยบายนี้เริ่มจากรุ่น enterprise และ rack-mounted แต่ตอนนี้ขยายมาถึงรุ่น Plus ที่เป็นที่นิยมในกลุ่มผู้ใช้ทั่วไปและธุรกิจขนาดเล็ก ทำให้หลายคนเริ่มหันไปมองทางเลือกอื่น เช่น TrueNAS, Unraid, Buffalo หรือแม้แต่ Raspberry Pi ที่ให้ความยืดหยุ่นมากกว่า

    การจำกัดการเชื่อมต่อ Samba
    Synology ใช้ wrapper พิเศษรอบ daemon เพื่อจำกัด concurrent connections
    ไม่สามารถปรับแต่งจำนวน connection ได้จาก smb.conf โดยตรง

    นโยบายฮาร์ดดิสก์แบบผูกขาด
    NAS รุ่นใหม่ในปี 2025 จะรองรับเฉพาะฮาร์ดดิสก์ของ Synology หรือที่ได้รับการรับรอง
    ฮาร์ดดิสก์ที่ไม่ผ่านการรับรองจะไม่สามารถสร้าง storage pool ได้
    ฟีเจอร์บางอย่างจะถูกปิด เช่น deduplication, lifespan analysis, และ firmware update อัตโนมัติ
    รุ่น Plus ที่ได้รับผลกระทบ ได้แก่ DS925+, DS1825+ และรุ่นใหม่อื่น ๆ
    รุ่นก่อนปี 2025 เช่น DS1522+ ยังไม่ถูกบังคับใช้

    เหตุผลที่ Synology ให้ไว้
    เพื่อความเสถียรและประสิทธิภาพในการใช้งานระยะยาว
    ลดปัญหาการสนับสนุนจากการใช้ฮาร์ดดิสก์ที่ไม่เข้ากัน
    เพิ่มความปลอดภัยและลดต้นทุนการดูแลระบบ

    ทางเลือกอื่นที่ผู้ใช้กำลังพิจารณา
    TrueNAS และ Unraid ที่ให้ความยืดหยุ่นในการเลือกฮาร์ดแวร์
    UGREEN DXP 6800 Pro ที่รองรับ Unraid/Proxmox และมีสเปกแรงในราคาคุ้มค่า
    Raspberry Pi + USB HDD สำหรับผู้ใช้ที่ต้องการระบบเล็ก ประหยัดพลังงาน

    https://lowendbox.com/blog/they-used-to-be-good-but-now-theyve-turned-to-evil-the-synology-end-game/
    ลุงเองก็ไม่เข้าใจว่าเขาคิดอะไรกันอยู่ !! 🎙️ เรื่องเล่าจาก Synology: จาก NAS ที่เคยรัก สู่ระบบที่บังคับให้รักแบบมีเงื่อนไข ผู้ใช้ Synology หลายคน รวมถึงนักเขียนจาก LowEndBox ที่เคยหลงรักความเงียบ ประหยัดพลังงาน และความเสถียรของ NAS รุ่น DS920, DS418 และ DS1522 กำลังรู้สึกผิดหวังอย่างหนัก เพราะ Synology ได้เปลี่ยนนโยบายหลายอย่างที่ทำให้ผู้ใช้รู้สึกว่า “ถูกบังคับ” มากกว่าการได้รับอิสระ เริ่มจากข้อจำกัดด้าน Samba ที่หลายคนคิดว่าเป็นแค่การตั้งค่าใน smb.conf แต่จริง ๆ แล้ว Synology ใช้ wrapper พิเศษที่จำกัดจำนวนการเชื่อมต่อแบบ concurrent โดยไม่เปิดให้ผู้ใช้ปรับแต่งได้เอง ที่หนักกว่านั้นคือการเปลี่ยนนโยบายด้านฮาร์ดดิสก์: Synology ประกาศว่า NAS รุ่นใหม่ในปี 2025 จะ “ไม่ยอมรับ” ฮาร์ดดิสก์ที่ไม่ใช่ของ Synology หรือไม่ได้รับการรับรอง แม้จะเป็น WD Black ที่มีคุณภาพสูงและรับประกัน 5 ปี ก็อาจถูกปฏิเสธไม่ให้ใช้งานเลย นโยบายนี้เริ่มจากรุ่น enterprise และ rack-mounted แต่ตอนนี้ขยายมาถึงรุ่น Plus ที่เป็นที่นิยมในกลุ่มผู้ใช้ทั่วไปและธุรกิจขนาดเล็ก ทำให้หลายคนเริ่มหันไปมองทางเลือกอื่น เช่น TrueNAS, Unraid, Buffalo หรือแม้แต่ Raspberry Pi ที่ให้ความยืดหยุ่นมากกว่า ✅ การจำกัดการเชื่อมต่อ Samba ➡️ Synology ใช้ wrapper พิเศษรอบ daemon เพื่อจำกัด concurrent connections ➡️ ไม่สามารถปรับแต่งจำนวน connection ได้จาก smb.conf โดยตรง ✅ นโยบายฮาร์ดดิสก์แบบผูกขาด ➡️ NAS รุ่นใหม่ในปี 2025 จะรองรับเฉพาะฮาร์ดดิสก์ของ Synology หรือที่ได้รับการรับรอง ➡️ ฮาร์ดดิสก์ที่ไม่ผ่านการรับรองจะไม่สามารถสร้าง storage pool ได้ ➡️ ฟีเจอร์บางอย่างจะถูกปิด เช่น deduplication, lifespan analysis, และ firmware update อัตโนมัติ ➡️ รุ่น Plus ที่ได้รับผลกระทบ ได้แก่ DS925+, DS1825+ และรุ่นใหม่อื่น ๆ ➡️ รุ่นก่อนปี 2025 เช่น DS1522+ ยังไม่ถูกบังคับใช้ ✅ เหตุผลที่ Synology ให้ไว้ ➡️ เพื่อความเสถียรและประสิทธิภาพในการใช้งานระยะยาว ➡️ ลดปัญหาการสนับสนุนจากการใช้ฮาร์ดดิสก์ที่ไม่เข้ากัน ➡️ เพิ่มความปลอดภัยและลดต้นทุนการดูแลระบบ ✅ ทางเลือกอื่นที่ผู้ใช้กำลังพิจารณา ➡️ TrueNAS และ Unraid ที่ให้ความยืดหยุ่นในการเลือกฮาร์ดแวร์ ➡️ UGREEN DXP 6800 Pro ที่รองรับ Unraid/Proxmox และมีสเปกแรงในราคาคุ้มค่า ➡️ Raspberry Pi + USB HDD สำหรับผู้ใช้ที่ต้องการระบบเล็ก ประหยัดพลังงาน https://lowendbox.com/blog/they-used-to-be-good-but-now-theyve-turned-to-evil-the-synology-end-game/
    LOWENDBOX.COM
    They Used to Be Good, But Now They've Turned to Evil: The Synology End Game
    Find the best cheap server hosting and the best cheap vps hosting, where you only pay a few dollars a month, exclusively on LowEndBox
    0 ความคิดเห็น 0 การแบ่งปัน 28 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก NSHipster: เมื่อความไม่แน่นอนกลายเป็นชนิดข้อมูล

    ในโลกของการเขียนโปรแกรม เรามักชินกับการตัดสินใจแบบ “จริงหรือเท็จ” ผ่าน Boolean แต่ในชีวิตจริง เช่น GPS หรือเซนเซอร์ต่าง ๆ ข้อมูลที่เราได้มักจะมี “ความไม่แน่นอน” ปะปนอยู่เสมอ แล้วทำไมโค้ดเราถึงไม่สะท้อนสิ่งนั้น?

    บทความจาก NSHipster ได้หยิบแนวคิดจากงานวิจัยของ Microsoft Research และ University of Washington ที่เสนอชนิดข้อมูลใหม่ชื่อว่า Uncertain<T> ซึ่งเป็นการนำความน่าจะเป็นมาใส่ใน type system โดยตรง เช่น แทนที่จะบอกว่า “คุณถึงที่หมายแล้ว” ด้วย if statement ธรรมดา เราอาจพูดว่า “คุณถึงที่หมายแล้ว ด้วยความมั่นใจ 95%” ซึ่งสะท้อนความจริงได้มากกว่า

    แนวคิดนี้ถูกนำมาเขียนใหม่ใน Swift โดยใช้ distribution ต่าง ๆ เช่น Rayleigh, Normal, Bernoulli, Exponential และ Mixture เพื่อจำลองความไม่แน่นอนในข้อมูลจริง ตั้งแต่ GPS, ความเร็ว, ความหนาแน่นของอากาศ ไปจนถึงพฤติกรรมผู้ใช้และ latency ของ API

    นอกจากนี้ยังมีการใช้ Monte Carlo sampling เพื่อประเมินผลลัพธ์จากการสุ่มหลายพันครั้ง และใช้ Sequential Probability Ratio Testing (SPRT) เพื่อปรับจำนวน sample อัตโนมัติตามความซับซ้อนของเงื่อนไข

    แนวคิดของ Uncertain<T>
    เป็นชนิดข้อมูลที่รวมความน่าจะเป็นเข้าไปใน type system
    ใช้แทนค่าที่มีความไม่แน่นอน เช่น GPS, sensor, user behavior
    เปลี่ยนจาก true/false เป็น Uncertain<Bool> ที่มีค่า probability

    การใช้งานใน Swift
    มีการ port จาก C# มาเป็น Swift library พร้อมตัวอย่างการใช้งาน
    รองรับ distribution หลายแบบ เช่น normal, exponential, kumaraswamy
    ใช้ SPRT เพื่อปรับจำนวน sample ตามความซับซ้อนของเงื่อนไข

    ตัวอย่างการใช้งานจริง
    GPS ที่มี horizontal accuracy ถูกแปลงเป็น Uncertain<CLLocation>
    การคำนวณความเร็ว, ความต้านทานอากาศ, หรือ comfort index ใช้ค่าที่มี standard deviation
    การประเมินว่า “สามารถวิ่ง 5K ได้” ถูกคำนวณจากหลายเงื่อนไขรวมกัน

    การใช้ Monte Carlo sampling
    ใช้สุ่มหลายพันครั้งเพื่อประเมิน expected value หรือ confidence
    ตัวอย่างเช่น slot machine ที่คำนวณ expected payout จากการ spin 10,000 ครั้ง

    การวิเคราะห์สถิติ
    รองรับการคำนวณ mean, standard deviation, confidence interval
    วิเคราะห์ shape ของ distribution เช่น skewness และ kurtosis
    รองรับ entropy และ mode สำหรับข้อมูลแบบ discrete

    https://nshipster.com/uncertainty/
    🎙️ เรื่องเล่าจาก NSHipster: เมื่อความไม่แน่นอนกลายเป็นชนิดข้อมูล ในโลกของการเขียนโปรแกรม เรามักชินกับการตัดสินใจแบบ “จริงหรือเท็จ” ผ่าน Boolean แต่ในชีวิตจริง เช่น GPS หรือเซนเซอร์ต่าง ๆ ข้อมูลที่เราได้มักจะมี “ความไม่แน่นอน” ปะปนอยู่เสมอ แล้วทำไมโค้ดเราถึงไม่สะท้อนสิ่งนั้น? บทความจาก NSHipster ได้หยิบแนวคิดจากงานวิจัยของ Microsoft Research และ University of Washington ที่เสนอชนิดข้อมูลใหม่ชื่อว่า Uncertain<T> ซึ่งเป็นการนำความน่าจะเป็นมาใส่ใน type system โดยตรง เช่น แทนที่จะบอกว่า “คุณถึงที่หมายแล้ว” ด้วย if statement ธรรมดา เราอาจพูดว่า “คุณถึงที่หมายแล้ว ด้วยความมั่นใจ 95%” ซึ่งสะท้อนความจริงได้มากกว่า แนวคิดนี้ถูกนำมาเขียนใหม่ใน Swift โดยใช้ distribution ต่าง ๆ เช่น Rayleigh, Normal, Bernoulli, Exponential และ Mixture เพื่อจำลองความไม่แน่นอนในข้อมูลจริง ตั้งแต่ GPS, ความเร็ว, ความหนาแน่นของอากาศ ไปจนถึงพฤติกรรมผู้ใช้และ latency ของ API นอกจากนี้ยังมีการใช้ Monte Carlo sampling เพื่อประเมินผลลัพธ์จากการสุ่มหลายพันครั้ง และใช้ Sequential Probability Ratio Testing (SPRT) เพื่อปรับจำนวน sample อัตโนมัติตามความซับซ้อนของเงื่อนไข ✅ แนวคิดของ Uncertain<T> ➡️ เป็นชนิดข้อมูลที่รวมความน่าจะเป็นเข้าไปใน type system ➡️ ใช้แทนค่าที่มีความไม่แน่นอน เช่น GPS, sensor, user behavior ➡️ เปลี่ยนจาก true/false เป็น Uncertain<Bool> ที่มีค่า probability ✅ การใช้งานใน Swift ➡️ มีการ port จาก C# มาเป็น Swift library พร้อมตัวอย่างการใช้งาน ➡️ รองรับ distribution หลายแบบ เช่น normal, exponential, kumaraswamy ➡️ ใช้ SPRT เพื่อปรับจำนวน sample ตามความซับซ้อนของเงื่อนไข ✅ ตัวอย่างการใช้งานจริง ➡️ GPS ที่มี horizontal accuracy ถูกแปลงเป็น Uncertain<CLLocation> ➡️ การคำนวณความเร็ว, ความต้านทานอากาศ, หรือ comfort index ใช้ค่าที่มี standard deviation ➡️ การประเมินว่า “สามารถวิ่ง 5K ได้” ถูกคำนวณจากหลายเงื่อนไขรวมกัน ✅ การใช้ Monte Carlo sampling ➡️ ใช้สุ่มหลายพันครั้งเพื่อประเมิน expected value หรือ confidence ➡️ ตัวอย่างเช่น slot machine ที่คำนวณ expected payout จากการ spin 10,000 ครั้ง ✅ การวิเคราะห์สถิติ ➡️ รองรับการคำนวณ mean, standard deviation, confidence interval ➡️ วิเคราะห์ shape ของ distribution เช่น skewness และ kurtosis ➡️ รองรับ entropy และ mode สำหรับข้อมูลแบบ discrete https://nshipster.com/uncertainty/
    NSHIPSTER.COM
    Uncertain⟨T⟩
    GPS coordinates aren’t exact. Sensor readings have noise. User behavior is probabilistic. Yet we write code that pretends uncertainty doesn’t exist, forcing messy real-world data through clean Boolean logic.
    0 ความคิดเห็น 0 การแบ่งปัน 23 มุมมอง 0 รีวิว
  • https://youtu.be/z5fJhPvPCHo?si=680bEg0K_VOZ9kYg
    https://youtu.be/z5fJhPvPCHo?si=680bEg0K_VOZ9kYg
    0 ความคิดเห็น 0 การแบ่งปัน 20 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสแตนฟอร์ด: เมื่อ AI กลายเป็นตัวกรองคนเข้าสู่โลกการทำงาน

    ในช่วงไม่กี่ปีที่ผ่านมา Generative AI อย่าง ChatGPT, Claude และเครื่องมืออัตโนมัติอื่น ๆ ได้เข้ามาเปลี่ยนวิธีทำงานในหลายอุตสาหกรรมอย่างรวดเร็ว แต่ผลกระทบที่หลายคนยังไม่ทันตั้งตัว คือการ “ลดโอกาส” ของคนรุ่นใหม่ที่เพิ่งเริ่มต้นอาชีพ

    งานวิจัยจาก Stanford Digital Economy Lab วิเคราะห์ข้อมูลจาก ADP ซึ่งเป็นผู้ให้บริการระบบเงินเดือนรายใหญ่ที่สุดในสหรัฐฯ พบว่า ตั้งแต่ปลายปี 2022 ถึงกลางปี 2025 การจ้างงานของคนอายุ 22–25 ปีในสายงานที่ “เสี่ยงต่อการถูกแทนที่ด้วย AI” เช่น customer service, accounting และ software development ลดลงถึง 13% ขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันกลับมีการจ้างงานเพิ่มขึ้น

    เหตุผลหลักคือ AI สามารถแทนที่ “ความรู้แบบท่องจำ” หรือ codified knowledge ที่คนรุ่นใหม่เพิ่งเรียนจบมาได้ง่าย แต่ยังไม่สามารถแทนที่ “ความรู้จากประสบการณ์” หรือ tacit knowledge ที่คนทำงานมานานสะสมไว้ได้

    นอกจากนี้ งานวิจัยยังพบว่าในสายงานที่ AI “เสริม” การทำงาน เช่น การช่วยตรวจสอบโค้ดหรือจัดการข้อมูล การจ้างงานกลับเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสมผสานระหว่างเทคโนโลยีและการตัดสินใจ

    ผลกระทบของ AI ต่อแรงงานอายุน้อย
    คนอายุ 22–25 ปีในสายงานที่เสี่ยงต่อการถูกแทนที่ด้วย AI มีการจ้างงานลดลง 13%
    สายงานที่ได้รับผลกระทบมาก ได้แก่ customer service, accounting, software development
    ในขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันมีการจ้างงานเพิ่มขึ้น

    ความแตกต่างระหว่าง codified กับ tacit knowledge
    AI สามารถแทนที่ความรู้แบบท่องจำจากการศึกษาได้ง่าย
    แต่ยังไม่สามารถแทนที่ความรู้จากประสบการณ์ที่ไม่ได้เขียนไว้ในตำรา

    สายงานที่ AI เสริมมากกว่าทดแทน
    ในงานที่ AI ช่วยเพิ่มประสิทธิภาพ เช่น การวิเคราะห์ข้อมูลหรือช่วยเขียนโค้ด
    การจ้างงานยังคงเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสม

    ความพยายามควบคุมตัวแปรอื่น
    งานวิจัยพยายามตัดปัจจัยแทรก เช่น remote work, การจ้างงานภายนอก, หรือภาวะเศรษฐกิจ
    ผลลัพธ์ยังคงชี้ชัดว่า AI เป็นตัวแปรหลักที่ส่งผลต่อการจ้างงานของคนรุ่นใหม่

    ข้อมูลเสริมจากภายนอก
    การใช้ AI ในองค์กรยังอยู่ในช่วงเริ่มต้น หมายความว่าผลกระทบอาจเพิ่มขึ้นอีกในอนาคต
    นักเศรษฐศาสตร์จาก Goldman Sachs ยืนยันว่าการเปลี่ยนแปลงเริ่มปรากฏในข้อมูลแรงงานแล้ว


    https://www.cnbc.com/2025/08/28/generative-ai-reshapes-us-job-market-stanford-study-shows-entry-level-young-workers.html
    🎙️ เรื่องเล่าจากสแตนฟอร์ด: เมื่อ AI กลายเป็นตัวกรองคนเข้าสู่โลกการทำงาน ในช่วงไม่กี่ปีที่ผ่านมา Generative AI อย่าง ChatGPT, Claude และเครื่องมืออัตโนมัติอื่น ๆ ได้เข้ามาเปลี่ยนวิธีทำงานในหลายอุตสาหกรรมอย่างรวดเร็ว แต่ผลกระทบที่หลายคนยังไม่ทันตั้งตัว คือการ “ลดโอกาส” ของคนรุ่นใหม่ที่เพิ่งเริ่มต้นอาชีพ งานวิจัยจาก Stanford Digital Economy Lab วิเคราะห์ข้อมูลจาก ADP ซึ่งเป็นผู้ให้บริการระบบเงินเดือนรายใหญ่ที่สุดในสหรัฐฯ พบว่า ตั้งแต่ปลายปี 2022 ถึงกลางปี 2025 การจ้างงานของคนอายุ 22–25 ปีในสายงานที่ “เสี่ยงต่อการถูกแทนที่ด้วย AI” เช่น customer service, accounting และ software development ลดลงถึง 13% ขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันกลับมีการจ้างงานเพิ่มขึ้น เหตุผลหลักคือ AI สามารถแทนที่ “ความรู้แบบท่องจำ” หรือ codified knowledge ที่คนรุ่นใหม่เพิ่งเรียนจบมาได้ง่าย แต่ยังไม่สามารถแทนที่ “ความรู้จากประสบการณ์” หรือ tacit knowledge ที่คนทำงานมานานสะสมไว้ได้ นอกจากนี้ งานวิจัยยังพบว่าในสายงานที่ AI “เสริม” การทำงาน เช่น การช่วยตรวจสอบโค้ดหรือจัดการข้อมูล การจ้างงานกลับเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสมผสานระหว่างเทคโนโลยีและการตัดสินใจ ✅ ผลกระทบของ AI ต่อแรงงานอายุน้อย ➡️ คนอายุ 22–25 ปีในสายงานที่เสี่ยงต่อการถูกแทนที่ด้วย AI มีการจ้างงานลดลง 13% ➡️ สายงานที่ได้รับผลกระทบมาก ได้แก่ customer service, accounting, software development ➡️ ในขณะที่คนอายุ 35 ปีขึ้นไปในสายงานเดียวกันมีการจ้างงานเพิ่มขึ้น ✅ ความแตกต่างระหว่าง codified กับ tacit knowledge ➡️ AI สามารถแทนที่ความรู้แบบท่องจำจากการศึกษาได้ง่าย ➡️ แต่ยังไม่สามารถแทนที่ความรู้จากประสบการณ์ที่ไม่ได้เขียนไว้ในตำรา ✅ สายงานที่ AI เสริมมากกว่าทดแทน ➡️ ในงานที่ AI ช่วยเพิ่มประสิทธิภาพ เช่น การวิเคราะห์ข้อมูลหรือช่วยเขียนโค้ด ➡️ การจ้างงานยังคงเพิ่มขึ้น โดยเฉพาะในกลุ่มที่มีทักษะผสม ✅ ความพยายามควบคุมตัวแปรอื่น ➡️ งานวิจัยพยายามตัดปัจจัยแทรก เช่น remote work, การจ้างงานภายนอก, หรือภาวะเศรษฐกิจ ➡️ ผลลัพธ์ยังคงชี้ชัดว่า AI เป็นตัวแปรหลักที่ส่งผลต่อการจ้างงานของคนรุ่นใหม่ ✅ ข้อมูลเสริมจากภายนอก ➡️ การใช้ AI ในองค์กรยังอยู่ในช่วงเริ่มต้น หมายความว่าผลกระทบอาจเพิ่มขึ้นอีกในอนาคต ➡️ นักเศรษฐศาสตร์จาก Goldman Sachs ยืนยันว่าการเปลี่ยนแปลงเริ่มปรากฏในข้อมูลแรงงานแล้ว https://www.cnbc.com/2025/08/28/generative-ai-reshapes-us-job-market-stanford-study-shows-entry-level-young-workers.html
    WWW.CNBC.COM
    AI adoption linked to 13% decline in jobs for young U.S. workers, Stanford study reveals
    A Standford study has found evidence that the widespread adoption of generative AI is impacting the job prospects of early career workers.
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Positiveblue: เมื่อ Cloudflare เสนอให้เว็บต้องมี “ใบผ่านทาง”

    ในยุคที่ AI agents กำลังกลายเป็นผู้ใช้งานหลักของเว็บ ไม่ใช่แค่คนอีกต่อไป Cloudflare ได้เปิดตัวแนวคิด “signed agents” ซึ่งฟังดูเหมือนระบบยืนยันตัวตนเพื่อความปลอดภัย แต่จริง ๆ แล้วมันคือการสร้าง “allowlist” ที่บริษัทเดียวควบคุมว่าใครมีสิทธิ์เข้าถึงเว็บได้

    Positiveblue วิจารณ์ว่าแนวคิดนี้คล้ายกับการตั้งด่านตรวจคนเข้าเมืองบนอินเทอร์เน็ต—ถ้าไม่ได้อยู่ในรายชื่อของ Cloudflare ก็อาจถูกปฏิเสธการเข้าถึง แม้จะเป็น agent ที่ทำงานแทนผู้ใช้จริง เช่น จองตั๋วเครื่องบินหรือสั่งอาหารก็ตาม

    ในอดีต เว็บเติบโตเพราะไม่มีใครเป็นเจ้าของ ทุกคนสามารถสร้างสิ่งใหม่ได้โดยไม่ต้องขออนุญาตจากใคร HTML5 เคยโค่น Flash และ Silverlight เพราะมันเป็นมาตรฐานเปิด ไม่ใช่ปลั๊กอินที่ต้องผ่าน vendor approval

    Positiveblue เสนอว่า authentication และ authorization สำหรับยุค agent ควรเป็นแบบ decentralized โดยใช้ public key cryptography และ DNS เพื่อยืนยันตัวตน ไม่ใช่ระบบลงทะเบียนกับบริษัทใดบริษัทหนึ่ง

    แนวคิด “signed agents” ของ Cloudflare
    เป็นระบบ allowlist สำหรับ bot และ agent ที่ได้รับการอนุมัติจาก Cloudflare
    ใช้เพื่อแยก traffic ที่ดีออกจาก traffic ที่เป็นอันตราย
    ผู้พัฒนา agent ต้องสมัครและผ่านการตรวจสอบเพื่อให้เข้าถึงเว็บได้

    ความเปลี่ยนแปลงของผู้ใช้งานเว็บ
    AI agents กำลังกลายเป็นผู้ใช้งานหลัก เช่น การจองตั๋วหรือสั่งอาหาร
    การกระทำของ agent อาจเกิดจากการมอบหมายโดยผู้ใช้จริง
    ความแตกต่างระหว่าง human action กับ agent action เริ่มเลือนลาง

    ปัญหาของการรวม authentication กับ authorization
    การใช้ “bot passport” เดียวกันสำหรับทุกงานไม่ปลอดภัย
    ต้องมีระบบที่แยกว่า “ใครกำลังทำ” กับ “เขามีสิทธิ์ทำอะไร”
    การมอบสิทธิ์ควรเป็นแบบ per-task ไม่ใช่ per-agent

    แนวทางที่เสนอสำหรับยุค agent
    ใช้ public key cryptography และ DNS เพื่อยืนยันตัวตนแบบ decentralized
    ใช้ token ที่มีขอบเขตจำกัด เช่น macaroons หรือ biscuits
    ใช้ open policy engines เช่น OPA หรือ AWS Cedar เพื่อควบคุมสิทธิ์แบบละเอียด
    ระบบควรตรวจสอบ chain of delegation และ request-level signature

    https://positiveblue.substack.com/p/the-web-does-not-need-gatekeepers
    🎙️ เรื่องเล่าจาก Positiveblue: เมื่อ Cloudflare เสนอให้เว็บต้องมี “ใบผ่านทาง” ในยุคที่ AI agents กำลังกลายเป็นผู้ใช้งานหลักของเว็บ ไม่ใช่แค่คนอีกต่อไป Cloudflare ได้เปิดตัวแนวคิด “signed agents” ซึ่งฟังดูเหมือนระบบยืนยันตัวตนเพื่อความปลอดภัย แต่จริง ๆ แล้วมันคือการสร้าง “allowlist” ที่บริษัทเดียวควบคุมว่าใครมีสิทธิ์เข้าถึงเว็บได้ Positiveblue วิจารณ์ว่าแนวคิดนี้คล้ายกับการตั้งด่านตรวจคนเข้าเมืองบนอินเทอร์เน็ต—ถ้าไม่ได้อยู่ในรายชื่อของ Cloudflare ก็อาจถูกปฏิเสธการเข้าถึง แม้จะเป็น agent ที่ทำงานแทนผู้ใช้จริง เช่น จองตั๋วเครื่องบินหรือสั่งอาหารก็ตาม ในอดีต เว็บเติบโตเพราะไม่มีใครเป็นเจ้าของ ทุกคนสามารถสร้างสิ่งใหม่ได้โดยไม่ต้องขออนุญาตจากใคร HTML5 เคยโค่น Flash และ Silverlight เพราะมันเป็นมาตรฐานเปิด ไม่ใช่ปลั๊กอินที่ต้องผ่าน vendor approval Positiveblue เสนอว่า authentication และ authorization สำหรับยุค agent ควรเป็นแบบ decentralized โดยใช้ public key cryptography และ DNS เพื่อยืนยันตัวตน ไม่ใช่ระบบลงทะเบียนกับบริษัทใดบริษัทหนึ่ง ✅ แนวคิด “signed agents” ของ Cloudflare ➡️ เป็นระบบ allowlist สำหรับ bot และ agent ที่ได้รับการอนุมัติจาก Cloudflare ➡️ ใช้เพื่อแยก traffic ที่ดีออกจาก traffic ที่เป็นอันตราย ➡️ ผู้พัฒนา agent ต้องสมัครและผ่านการตรวจสอบเพื่อให้เข้าถึงเว็บได้ ✅ ความเปลี่ยนแปลงของผู้ใช้งานเว็บ ➡️ AI agents กำลังกลายเป็นผู้ใช้งานหลัก เช่น การจองตั๋วหรือสั่งอาหาร ➡️ การกระทำของ agent อาจเกิดจากการมอบหมายโดยผู้ใช้จริง ➡️ ความแตกต่างระหว่าง human action กับ agent action เริ่มเลือนลาง ✅ ปัญหาของการรวม authentication กับ authorization ➡️ การใช้ “bot passport” เดียวกันสำหรับทุกงานไม่ปลอดภัย ➡️ ต้องมีระบบที่แยกว่า “ใครกำลังทำ” กับ “เขามีสิทธิ์ทำอะไร” ➡️ การมอบสิทธิ์ควรเป็นแบบ per-task ไม่ใช่ per-agent ✅ แนวทางที่เสนอสำหรับยุค agent ➡️ ใช้ public key cryptography และ DNS เพื่อยืนยันตัวตนแบบ decentralized ➡️ ใช้ token ที่มีขอบเขตจำกัด เช่น macaroons หรือ biscuits ➡️ ใช้ open policy engines เช่น OPA หรือ AWS Cedar เพื่อควบคุมสิทธิ์แบบละเอียด ➡️ ระบบควรตรวจสอบ chain of delegation และ request-level signature https://positiveblue.substack.com/p/the-web-does-not-need-gatekeepers
    POSITIVEBLUE.SUBSTACK.COM
    The Web Does Not Need Gatekeepers
    Do you register with Google, Amazon or Microsoft to use the web?
    0 ความคิดเห็น 0 การแบ่งปัน 31 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ

    DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด

    หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ

    ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ

    สถาปัตยกรรมการรัน DeepSeek บน SGLang
    ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs
    throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node
    ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens

    เทคนิค Prefill-Decode Disaggregation (PD)
    แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ
    ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม
    รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase

    Expert Parallelism (EP) ด้วย DeepEP
    ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode
    รองรับ auto mode ที่เลือก dispatch ตาม workload
    ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้

    DeepGEMM สำหรับ MoE computation
    ใช้ Grouped GEMMs แบบ contiguous และ masked layout
    รองรับ CUDA Graph สำหรับ decode phase
    ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel

    Two-Batch Overlap (TBO)
    แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap
    เพิ่ม throughput ได้ถึง 35% และลด peak memory usage
    ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable

    Expert Parallelism Load Balancer (EPLB)
    ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล
    รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72
    เพิ่ม utilization rate และลดการรอ GPU ที่ช้า

    Toolkits เสริมใน SGLang
    DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง
    Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง
    รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน

    https://lmsys.org/blog/2025-05-05-large-scale-ep/
    🎙️ เรื่องเล่าจาก SGLang: เมื่อ DeepSeek ถูกเสิร์ฟด้วยศิลปะของการแยกงานและแบ่งผู้เชี่ยวชาญ DeepSeek เป็นโมเดล LLM ที่ทรงพลังและซับซ้อน ด้วยสถาปัตยกรรมที่ใช้ Multi-head Latent Attention (MLA) และ Mixture of Experts (MoE) ซึ่งทำให้การรัน inference แบบ real-time กลายเป็นความท้าทายระดับสูง แต่ทีม SGLang ได้โชว์ว่า ถ้าออกแบบระบบดีพอ ก็สามารถรัน DeepSeek-V3 บน 96 H100 GPUs ได้อย่างมีประสิทธิภาพสูงสุด หัวใจของความสำเร็จนี้คือการใช้เทคนิค PD Disaggregation (แยกงานระหว่าง prefill และ decode) ร่วมกับ Expert Parallelism (EP) ที่ปรับแต่งอย่างละเอียดผ่าน DeepEP, DeepGEMM และ EPLB เพื่อให้การจัดการ memory, communication และ workload balance เป็นไปอย่างไร้รอยต่อ ผลลัพธ์คือ throughput สูงถึง 52.3k input tokens/sec และ 22.3k output tokens/sec ต่อ node ซึ่งใกล้เคียงกับระบบ production ของ DeepSeek เอง แต่ใช้ต้นทุนเพียง 20% ของ API ทางการ ✅ สถาปัตยกรรมการรัน DeepSeek บน SGLang ➡️ ใช้ 12 nodes × 8 H100 GPUs รวม 96 GPUs ➡️ throughput สูงถึง 52.3k input และ 22.3k output tokens/sec ต่อ node ➡️ ต้นทุน inference อยู่ที่ ~$0.20 ต่อ 1M output tokens ✅ เทคนิค Prefill-Decode Disaggregation (PD) ➡️ แยกการรัน prefill และ decode ออกจากกันเพื่อเพิ่มประสิทธิภาพ ➡️ ลดปัญหา prefill interrupt และ latency จากการจัด batch แบบรวม ➡️ รองรับ dispatch mode ที่ต่างกันสำหรับแต่ละ phase ✅ Expert Parallelism (EP) ด้วย DeepEP ➡️ ใช้ normal dispatch สำหรับ prefill และ low-latency dispatch สำหรับ decode ➡️ รองรับ auto mode ที่เลือก dispatch ตาม workload ➡️ ลด latency และเพิ่ม throughput โดยใช้ expert routing ที่ปรับแต่งได้ ✅ DeepGEMM สำหรับ MoE computation ➡️ ใช้ Grouped GEMMs แบบ contiguous และ masked layout ➡️ รองรับ CUDA Graph สำหรับ decode phase ➡️ ใช้ Triton kernel เพื่อจัดเรียงข้อมูลให้เหมาะกับ GEMM kernel ✅ Two-Batch Overlap (TBO) ➡️ แบ่ง batch เป็นสองส่วนเพื่อให้ computation และ communication overlap ➡️ เพิ่ม throughput ได้ถึง 35% และลด peak memory usage ➡️ ใช้ abstraction layer เพื่อจัดการ micro-batch อย่างสะอาดและ maintainable ✅ Expert Parallelism Load Balancer (EPLB) ➡️ ใช้ expert redundancy เพื่อจัดวาง expert ให้สมดุล ➡️ รองรับ parallelism size ที่ไม่จำกัดแค่ power-of-two เช่น 12 หรือ 72 ➡️ เพิ่ม utilization rate และลดการรอ GPU ที่ช้า ✅ Toolkits เสริมใน SGLang ➡️ DisposableTensor สำหรับจัดการ memory ใน PyTorch โดยตรง ➡️ Expert workload simulator เพื่อประเมิน performance ก่อน deploy จริง ➡️ รองรับการ rebalancing แบบ staged เพื่อไม่ให้รบกวนระบบขณะทำงาน https://lmsys.org/blog/2025-05-05-large-scale-ep/
    LMSYS.ORG
    Deploying DeepSeek with PD Disaggregation and Large-Scale Expert Parallelism on 96 H100 GPUs | LMSYS Org
    DeepSeek is a popular open-source large language model (LLM) praised for its strong performance. However, its large size and unique architecture, which us...
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • ก.ล.ต. ลงโทษทางแพ่ง “พีรพงศ์” กรณี JMT 02/09/68 #ก.ล.ต. #พีรพงศ์ #JMT #หุ้นไทย #ตลาดหุ้น
    ก.ล.ต. ลงโทษทางแพ่ง “พีรพงศ์” กรณี JMT 02/09/68 #ก.ล.ต. #พีรพงศ์ #JMT #หุ้นไทย #ตลาดหุ้น
    Like
    2
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 0 รีวิว
  • เรื่องเล่าจากสนามการตลาด: เมื่อ AI ไม่แค่ค้นหา แต่ “สร้างคำตอบ” เอง

    ในอดีต การทำ SEO คือการทำให้เว็บไซต์ติดอันดับใน Google ผ่านการใช้คีย์เวิร์ด การสร้างลิงก์ และการปรับ metadata แต่ในปี 2025 โลกออนไลน์กำลังเปลี่ยนอย่างเงียบ ๆ เพราะผู้คนไม่ได้ “คลิกหา” คำตอบอีกต่อไป—พวกเขา “ถาม” AI แล้วได้คำตอบทันที

    Generative Engine Optimisation (GEO) จึงกลายเป็นกลยุทธ์ใหม่ที่ไม่ใช่แค่การทำให้เว็บติดอันดับ แต่ต้องทำให้เนื้อหาของคุณ “ถูกเลือก” และ “ถูกอ้างอิง” โดย AI อย่าง ChatGPT, Claude, Perplexity หรือ Google AI Overviews

    GEO ไม่ใช่แค่เรื่องเทคนิค แต่เป็นการเข้าใจว่า AI “อ่าน” และ “สังเคราะห์” ข้อมูลอย่างไร แล้วปรับเนื้อหาให้เหมาะกับการใช้งานของโมเดลเหล่านั้น เช่น การเขียนให้กระชับ ใช้ภาษาธรรมชาติ และจัดโครงสร้างข้อมูลให้ชัดเจน

    และเพราะ AI ไม่ได้แค่ดึงข้อมูล แต่ “สร้างคำตอบใหม่” จากหลายแหล่ง การทำ GEO จึงต้องเข้าใจ semantic structure, ความสัมพันธ์ของแนวคิด และวิธีที่โมเดลเลือกแหล่งข้อมูลที่เชื่อถือได้ ซึ่งต่างจาก SEO แบบเดิมโดยสิ้นเชิง

    ความหมายของ Generative Engine Optimisation (GEO)
    เป็นการปรับเนื้อหาให้เหมาะกับการใช้งานของ AI ที่สร้างคำตอบจากหลายแหล่ง
    เน้นการเขียนที่เข้าใจง่าย มีโครงสร้างชัดเจน และสอดคล้องกับการสังเคราะห์ของโมเดล
    ไม่ใช่แค่การใช้คีย์เวิร์ด แต่ต้องเข้าใจความสัมพันธ์ของแนวคิดและบริบท

    ความเปลี่ยนแปลงของพฤติกรรมผู้ใช้
    ผู้ใช้หันไปถาม AI แทนการค้นหาผ่าน Google หรือ Bing โดยตรง
    60% ของการค้นหาใน Google จบลงโดยไม่มีการคลิก เพราะคำตอบอยู่ใน AI overview
    แบรนด์ที่ไม่ปรับตัวจะถูกมองข้าม แม้จะมีเนื้อหาดีแค่ไหนก็ตาม

    ความสำคัญของการร่วมงานกับ GEO agency
    GEO ต้องใช้ความเข้าใจลึกในโมเดล AI และการจัดโครงสร้างข้อมูล
    เอเจนซี่สามารถช่วยวิเคราะห์ช่องว่างของเนื้อหาและปรับให้ AI-friendly
    มีการติดตามเทรนด์ AI และปรับกลยุทธ์อย่างต่อเนื่อง
    ช่วยลดการลองผิดลองถูก และเพิ่มโอกาสในการถูกอ้างอิงโดย AI

    คุณสมบัติของ GEO agency ที่ดี
    ต้องมีความรู้ทั้ง SEO แบบเดิมและเทคโนโลยี AI content
    ต้องโปร่งใสในการวัดผลและอธิบายกลยุทธ์
    ต้องปรับกลยุทธ์ตามอุตสาหกรรมและเป้าหมายเฉพาะของแต่ละธุรกิจ
    ต้องใช้ข้อมูลจริงในการตัดสินใจ ไม่ใช่แค่เทคนิคทั่วไป

    https://hackread.com/generative-engine-optimisation-what-it-is-why-need-it/
    🎙️ เรื่องเล่าจากสนามการตลาด: เมื่อ AI ไม่แค่ค้นหา แต่ “สร้างคำตอบ” เอง ในอดีต การทำ SEO คือการทำให้เว็บไซต์ติดอันดับใน Google ผ่านการใช้คีย์เวิร์ด การสร้างลิงก์ และการปรับ metadata แต่ในปี 2025 โลกออนไลน์กำลังเปลี่ยนอย่างเงียบ ๆ เพราะผู้คนไม่ได้ “คลิกหา” คำตอบอีกต่อไป—พวกเขา “ถาม” AI แล้วได้คำตอบทันที Generative Engine Optimisation (GEO) จึงกลายเป็นกลยุทธ์ใหม่ที่ไม่ใช่แค่การทำให้เว็บติดอันดับ แต่ต้องทำให้เนื้อหาของคุณ “ถูกเลือก” และ “ถูกอ้างอิง” โดย AI อย่าง ChatGPT, Claude, Perplexity หรือ Google AI Overviews GEO ไม่ใช่แค่เรื่องเทคนิค แต่เป็นการเข้าใจว่า AI “อ่าน” และ “สังเคราะห์” ข้อมูลอย่างไร แล้วปรับเนื้อหาให้เหมาะกับการใช้งานของโมเดลเหล่านั้น เช่น การเขียนให้กระชับ ใช้ภาษาธรรมชาติ และจัดโครงสร้างข้อมูลให้ชัดเจน และเพราะ AI ไม่ได้แค่ดึงข้อมูล แต่ “สร้างคำตอบใหม่” จากหลายแหล่ง การทำ GEO จึงต้องเข้าใจ semantic structure, ความสัมพันธ์ของแนวคิด และวิธีที่โมเดลเลือกแหล่งข้อมูลที่เชื่อถือได้ ซึ่งต่างจาก SEO แบบเดิมโดยสิ้นเชิง ✅ ความหมายของ Generative Engine Optimisation (GEO) ➡️ เป็นการปรับเนื้อหาให้เหมาะกับการใช้งานของ AI ที่สร้างคำตอบจากหลายแหล่ง ➡️ เน้นการเขียนที่เข้าใจง่าย มีโครงสร้างชัดเจน และสอดคล้องกับการสังเคราะห์ของโมเดล ➡️ ไม่ใช่แค่การใช้คีย์เวิร์ด แต่ต้องเข้าใจความสัมพันธ์ของแนวคิดและบริบท ✅ ความเปลี่ยนแปลงของพฤติกรรมผู้ใช้ ➡️ ผู้ใช้หันไปถาม AI แทนการค้นหาผ่าน Google หรือ Bing โดยตรง ➡️ 60% ของการค้นหาใน Google จบลงโดยไม่มีการคลิก เพราะคำตอบอยู่ใน AI overview ➡️ แบรนด์ที่ไม่ปรับตัวจะถูกมองข้าม แม้จะมีเนื้อหาดีแค่ไหนก็ตาม ✅ ความสำคัญของการร่วมงานกับ GEO agency ➡️ GEO ต้องใช้ความเข้าใจลึกในโมเดล AI และการจัดโครงสร้างข้อมูล ➡️ เอเจนซี่สามารถช่วยวิเคราะห์ช่องว่างของเนื้อหาและปรับให้ AI-friendly ➡️ มีการติดตามเทรนด์ AI และปรับกลยุทธ์อย่างต่อเนื่อง ➡️ ช่วยลดการลองผิดลองถูก และเพิ่มโอกาสในการถูกอ้างอิงโดย AI ✅ คุณสมบัติของ GEO agency ที่ดี ➡️ ต้องมีความรู้ทั้ง SEO แบบเดิมและเทคโนโลยี AI content ➡️ ต้องโปร่งใสในการวัดผลและอธิบายกลยุทธ์ ➡️ ต้องปรับกลยุทธ์ตามอุตสาหกรรมและเป้าหมายเฉพาะของแต่ละธุรกิจ ➡️ ต้องใช้ข้อมูลจริงในการตัดสินใจ ไม่ใช่แค่เทคนิคทั่วไป https://hackread.com/generative-engine-optimisation-what-it-is-why-need-it/
    HACKREAD.COM
    Generative Engine Optimisation: What It Is and Why You Need an Agency for It
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 27 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก Trail of Bits: เมื่อภาพที่ดูธรรมดา กลายเป็นประตูสู่การขโมยข้อมูล

    ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด

    ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ

    นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently.

    เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว

    https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
    🎙️ เรื่องเล่าจาก Trail of Bits: เมื่อภาพที่ดูธรรมดา กลายเป็นประตูสู่การขโมยข้อมูล ในโลกที่ AI กลายเป็นผู้ช่วยประจำวันของเรา ไม่ว่าจะเป็น Chatbot, Assistant หรือระบบ CLI การอัปโหลดภาพดูเหมือนจะเป็นเรื่องปลอดภัย แต่ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่ใหม่ที่น่าตกใจ—“image scaling attack” ที่ใช้ภาพความละเอียดสูงซ่อนคำสั่งลับไว้ แล้วปล่อยให้ AI อ่านออกเมื่อภาพถูกย่อขนาด ภาพที่ดูปกติสำหรับมนุษย์ อาจมีข้อความแอบซ่อนอยู่ในพิกเซลที่ถูกจัดวางอย่างจงใจ เมื่อ AI ทำการ downscale ภาพเพื่อประมวลผล คำสั่งที่ซ่อนอยู่จะปรากฏขึ้นในรูปแบบที่โมเดลสามารถอ่านและ “เชื่อว่าเป็นคำสั่งจากผู้ใช้” ได้ทันที โดยไม่ต้องมีการยืนยันใด ๆ นักวิจัยได้สาธิตการโจมตีนี้บนระบบจริง เช่น Gemini CLI, Google Assistant และ Gemini web interface โดยใช้ภาพที่แฝงคำสั่งให้ AI เข้าถึง Google Calendar แล้วส่งข้อมูลไปยังอีเมลของผู้โจมตี—all done silently. เพื่อรับมือกับภัยคุกคามนี้ Trail of Bits ได้เปิดตัวเครื่องมือชื่อ “Anamorpher” ที่สามารถสร้างภาพแบบนี้เพื่อใช้ในการทดสอบระบบ และแนะนำให้ผู้พัฒนา AI แสดง preview ของภาพหลังการ downscale ก่อนดำเนินการใด ๆ พร้อมบังคับให้มีการยืนยันจากผู้ใช้ก่อนทำงานที่อ่อนไหว https://hackread.com/hidden-commands-images-exploit-ai-chatbots-steal-data/
    HACKREAD.COM
    Hidden Commands in Images Exploit AI Chatbots and Steal Data
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 25 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนาม SOC: เมื่อ Threat Intelligence กลายเป็นตัวคูณประสิทธิภาพ

    ในยุคที่การโจมตีไซเบอร์เกิดขึ้นทุกวินาที การตั้ง SOC (Security Operations Center) ให้พร้อมรับมือ 24/7 กลายเป็นภารกิจที่ทั้งหนักและแพง—ไม่ว่าจะเป็นค่าจ้างบุคลากร, ค่าลิขสิทธิ์เครื่องมือ, หรือค่าใช้จ่ายในการตอบสนองต่อเหตุการณ์ แต่สิ่งที่หลายองค์กรยังมองข้ามคือ “ข้อมูลข่าวกรองภัยคุกคาม” หรือ Threat Intelligence (TI) ที่สามารถเปลี่ยน SOC จากระบบที่ “ตอบสนอง” ไปสู่ระบบที่ “ป้องกันล่วงหน้า”

    ANY.RUN ซึ่งเป็นแพลตฟอร์มวิเคราะห์มัลแวร์แบบ interactive ได้เปิดตัว TI Feeds ที่เน้นคุณภาพมากกว่าปริมาณ โดยคัดกรอง Indicator of Compromise (IOC) ที่เกี่ยวข้องจริง พร้อมอัปเดตแบบ real-time และสามารถเชื่อมต่อกับระบบ SIEM, SOAR หรือ detection engine ได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างระบบเดิม

    ผลลัพธ์คือ SOC ที่สามารถตรวจจับภัยคุกคามได้ภายใน 60 วินาที ลดเวลา triage และ investigation ลงกว่า 90% และลดค่าใช้จ่ายจากการตอบสนองเหตุการณ์ได้อย่างมหาศาล

    ปัญหาค่าใช้จ่ายใน SOC แบบเดิม
    ค่าจ้างบุคลากรด้านความปลอดภัยกินงบประมาณถึง 60–70%
    เครื่องมือหลายตัวซ้ำซ้อนและไม่สามารถทำงานร่วมกันได้ดี
    การตอบสนองแบบ reactive ทำให้เสียเวลาและทรัพยากรมาก
    การฝึกอบรมและการตรวจสอบ compliance เพิ่มค่าใช้จ่ายต่อเนื่อง

    บทบาทของ Threat Intelligence ในการลดต้นทุน
    TI ช่วยลด false positives และเพิ่มความแม่นยำในการตรวจจับ
    ทำให้ SOC ทำงานแบบ proactive แทนที่จะรอเหตุการณ์เกิดขึ้น
    ลดเวลาในการสืบสวนและตอบสนองต่อภัยคุกคาม
    ช่วยจัดลำดับความสำคัญของ alert ได้อย่างมีประสิทธิภาพ

    จุดเด่นของ ANY.RUN TI Feeds
    ส่งข้อมูล IOC ที่ผ่านการตรวจสอบแล้วแบบ real-time
    รองรับการเชื่อมต่อกับระบบเดิมโดยไม่ต้องเปลี่ยนโครงสร้าง
    ลดค่าใช้จ่ายในการติดตั้งและปรับแต่งระบบ
    ข้อมูลมาจาก sandbox analysis ที่มีบริบทครบถ้วน
    รองรับการขยายระบบโดยไม่ต้องเพิ่มบุคลากร

    ผลลัพธ์ที่วัดได้จากการใช้งานจริง
    ตรวจจับภัยคุกคามได้ 88% ภายใน 60 วินาที
    ลดเวลา triage ได้ 94% และลดเวลา investigation ได้ 95%
    ลดค่าใช้จ่ายจากการตอบสนองเหตุการณ์ได้อย่างมีนัยสำคัญ

    https://hackread.com/how-live-threat-intelligence-cut-cybersecurity-expenses/
    🎙️ เรื่องเล่าจากสนาม SOC: เมื่อ Threat Intelligence กลายเป็นตัวคูณประสิทธิภาพ ในยุคที่การโจมตีไซเบอร์เกิดขึ้นทุกวินาที การตั้ง SOC (Security Operations Center) ให้พร้อมรับมือ 24/7 กลายเป็นภารกิจที่ทั้งหนักและแพง—ไม่ว่าจะเป็นค่าจ้างบุคลากร, ค่าลิขสิทธิ์เครื่องมือ, หรือค่าใช้จ่ายในการตอบสนองต่อเหตุการณ์ แต่สิ่งที่หลายองค์กรยังมองข้ามคือ “ข้อมูลข่าวกรองภัยคุกคาม” หรือ Threat Intelligence (TI) ที่สามารถเปลี่ยน SOC จากระบบที่ “ตอบสนอง” ไปสู่ระบบที่ “ป้องกันล่วงหน้า” ANY.RUN ซึ่งเป็นแพลตฟอร์มวิเคราะห์มัลแวร์แบบ interactive ได้เปิดตัว TI Feeds ที่เน้นคุณภาพมากกว่าปริมาณ โดยคัดกรอง Indicator of Compromise (IOC) ที่เกี่ยวข้องจริง พร้อมอัปเดตแบบ real-time และสามารถเชื่อมต่อกับระบบ SIEM, SOAR หรือ detection engine ได้ทันที โดยไม่ต้องเปลี่ยนโครงสร้างระบบเดิม ผลลัพธ์คือ SOC ที่สามารถตรวจจับภัยคุกคามได้ภายใน 60 วินาที ลดเวลา triage และ investigation ลงกว่า 90% และลดค่าใช้จ่ายจากการตอบสนองเหตุการณ์ได้อย่างมหาศาล ✅ ปัญหาค่าใช้จ่ายใน SOC แบบเดิม ➡️ ค่าจ้างบุคลากรด้านความปลอดภัยกินงบประมาณถึง 60–70% ➡️ เครื่องมือหลายตัวซ้ำซ้อนและไม่สามารถทำงานร่วมกันได้ดี ➡️ การตอบสนองแบบ reactive ทำให้เสียเวลาและทรัพยากรมาก ➡️ การฝึกอบรมและการตรวจสอบ compliance เพิ่มค่าใช้จ่ายต่อเนื่อง ✅ บทบาทของ Threat Intelligence ในการลดต้นทุน ➡️ TI ช่วยลด false positives และเพิ่มความแม่นยำในการตรวจจับ ➡️ ทำให้ SOC ทำงานแบบ proactive แทนที่จะรอเหตุการณ์เกิดขึ้น ➡️ ลดเวลาในการสืบสวนและตอบสนองต่อภัยคุกคาม ➡️ ช่วยจัดลำดับความสำคัญของ alert ได้อย่างมีประสิทธิภาพ ✅ จุดเด่นของ ANY.RUN TI Feeds ➡️ ส่งข้อมูล IOC ที่ผ่านการตรวจสอบแล้วแบบ real-time ➡️ รองรับการเชื่อมต่อกับระบบเดิมโดยไม่ต้องเปลี่ยนโครงสร้าง ➡️ ลดค่าใช้จ่ายในการติดตั้งและปรับแต่งระบบ ➡️ ข้อมูลมาจาก sandbox analysis ที่มีบริบทครบถ้วน ➡️ รองรับการขยายระบบโดยไม่ต้องเพิ่มบุคลากร ✅ ผลลัพธ์ที่วัดได้จากการใช้งานจริง ➡️ ตรวจจับภัยคุกคามได้ 88% ภายใน 60 วินาที ➡️ ลดเวลา triage ได้ 94% และลดเวลา investigation ได้ 95% ➡️ ลดค่าใช้จ่ายจากการตอบสนองเหตุการณ์ได้อย่างมีนัยสำคัญ https://hackread.com/how-live-threat-intelligence-cut-cybersecurity-expenses/
    HACKREAD.COM
    How Live Threat Intelligence Cuts Cybersecurity Expenses
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 31 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก CrushFTP: เมื่อการแก้บั๊กหนึ่งเปิดทางให้เกิดช่องโหว่อีก

    CrushFTP เป็นซอฟต์แวร์ FTP ที่ได้รับความนิยมในองค์กรทั่วโลก ด้วยความสามารถในการจัดการไฟล์ผ่าน HTTP/S และรองรับโปรโตคอลหลากหลาย แต่ในเดือนกรกฎาคม 2025 นักวิจัยจาก WatchTowr Labs ได้ค้นพบช่องโหว่ร้ายแรง CVE-2025-54309 ซึ่งเปิดทางให้แฮกเกอร์สามารถเข้าถึงสิทธิ์ผู้ดูแลระบบผ่านเว็บอินเทอร์เฟซ โดยไม่ต้องยืนยันตัวตนเลย

    ช่องโหว่นี้เกิดจาก race condition ในการประมวลผลคำขอ HTTP สองชุดที่ถูกส่งต่อเนื่องอย่างรวดเร็ว โดยคำขอแรกมี header ที่ชี้ไปยัง crushadmin (ผู้ดูแลระบบในตัว) ส่วนคำขอที่สองไม่มี header แต่ใช้ session เดียวกัน ถ้าทั้งสองคำขอถูกประมวลผลในลำดับที่เฉพาะเจาะจง เซิร์ฟเวอร์จะเข้าใจผิดว่าเป็นผู้ดูแลระบบ และอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที

    สิ่งที่น่าตกใจคือ CrushFTP ได้แก้ไขช่องโหว่นี้แบบ “เงียบ ๆ” โดยไม่แจ้งผู้ใช้ ทำให้กว่า 30,000 instance บนอินเทอร์เน็ตยังคงเสี่ยงต่อการถูกโจมตี และช่องโหว่นี้ถูกเพิ่มเข้าไปในรายการ CISA Known Exploited Vulnerabilities แล้ว

    รายละเอียดช่องโหว่ CVE-2025-54309
    เป็น race condition ในการประมวลผล HTTP POST สองคำขอที่ใช้ session เดียวกัน
    คำขอแรกมี header AS2-TO: \\crushadmin ส่วนคำขอที่สองไม่มี แต่ใช้ cookie เดิม
    หากลำดับถูกต้อง เซิร์ฟเวอร์จะอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที
    ช่องโหว่เกิดใน CrushFTP v10 ก่อน 10.8.5 และ v11 ก่อน 11.3.4_23

    การค้นพบและการทดสอบโดย WatchTowr Labs
    ใช้ honeypot เฉพาะสำหรับ CrushFTP และตรวจจับการโจมตีแบบ real-time
    วิเคราะห์ traffic แล้วพบรูปแบบคำขอที่ซ้ำกันกว่า 1,000 ครั้ง
    สร้างสคริปต์ PoC ที่สามารถสร้างบัญชีแอดมินใหม่ได้บน instance ที่ยังไม่ patch

    การตอบสนองจาก CrushFTP
    ยอมรับว่าช่องโหว่ถูกใช้โจมตีจริงตั้งแต่ 18 กรกฎาคม 2025
    ระบุว่าการแก้ไขเกิดจากการเปลี่ยนโค้ดเพื่อแก้ปัญหา AS2 โดยไม่รู้ว่ามีช่องโหว่แฝง
    Patch ถูกปล่อยแบบเงียบ ๆ โดยไม่มีการแจ้งเตือนผู้ใช้

    การป้องกันและคำแนะนำ
    อัปเดตเป็น CrushFTP v10.8.5 หรือ v11.3.4_23 ทันที
    เปิดใช้งาน DMZ proxy ซึ่งจะช่วยแยก instance ออกจากเซิร์ฟเวอร์หลัก
    ตรวจสอบ log สำหรับคำขอ POST ที่มี header AS2-TO และ cookie ซ้ำ ๆ
    ใช้ rate limiting และ intrusion detection เพื่อป้องกันการโจมตีแบบ high-frequency

    https://hackread.com/hackers-exploit-crushftp-zero-day-take-over-servers/
    🎙️ เรื่องเล่าจาก CrushFTP: เมื่อการแก้บั๊กหนึ่งเปิดทางให้เกิดช่องโหว่อีก CrushFTP เป็นซอฟต์แวร์ FTP ที่ได้รับความนิยมในองค์กรทั่วโลก ด้วยความสามารถในการจัดการไฟล์ผ่าน HTTP/S และรองรับโปรโตคอลหลากหลาย แต่ในเดือนกรกฎาคม 2025 นักวิจัยจาก WatchTowr Labs ได้ค้นพบช่องโหว่ร้ายแรง CVE-2025-54309 ซึ่งเปิดทางให้แฮกเกอร์สามารถเข้าถึงสิทธิ์ผู้ดูแลระบบผ่านเว็บอินเทอร์เฟซ โดยไม่ต้องยืนยันตัวตนเลย ช่องโหว่นี้เกิดจาก race condition ในการประมวลผลคำขอ HTTP สองชุดที่ถูกส่งต่อเนื่องอย่างรวดเร็ว โดยคำขอแรกมี header ที่ชี้ไปยัง crushadmin (ผู้ดูแลระบบในตัว) ส่วนคำขอที่สองไม่มี header แต่ใช้ session เดียวกัน ถ้าทั้งสองคำขอถูกประมวลผลในลำดับที่เฉพาะเจาะจง เซิร์ฟเวอร์จะเข้าใจผิดว่าเป็นผู้ดูแลระบบ และอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที สิ่งที่น่าตกใจคือ CrushFTP ได้แก้ไขช่องโหว่นี้แบบ “เงียบ ๆ” โดยไม่แจ้งผู้ใช้ ทำให้กว่า 30,000 instance บนอินเทอร์เน็ตยังคงเสี่ยงต่อการถูกโจมตี และช่องโหว่นี้ถูกเพิ่มเข้าไปในรายการ CISA Known Exploited Vulnerabilities แล้ว ✅ รายละเอียดช่องโหว่ CVE-2025-54309 ➡️ เป็น race condition ในการประมวลผล HTTP POST สองคำขอที่ใช้ session เดียวกัน ➡️ คำขอแรกมี header AS2-TO: \\crushadmin ส่วนคำขอที่สองไม่มี แต่ใช้ cookie เดิม ➡️ หากลำดับถูกต้อง เซิร์ฟเวอร์จะอนุญาตให้สร้างบัญชีแอดมินใหม่ได้ทันที ➡️ ช่องโหว่เกิดใน CrushFTP v10 ก่อน 10.8.5 และ v11 ก่อน 11.3.4_23 ✅ การค้นพบและการทดสอบโดย WatchTowr Labs ➡️ ใช้ honeypot เฉพาะสำหรับ CrushFTP และตรวจจับการโจมตีแบบ real-time ➡️ วิเคราะห์ traffic แล้วพบรูปแบบคำขอที่ซ้ำกันกว่า 1,000 ครั้ง ➡️ สร้างสคริปต์ PoC ที่สามารถสร้างบัญชีแอดมินใหม่ได้บน instance ที่ยังไม่ patch ✅ การตอบสนองจาก CrushFTP ➡️ ยอมรับว่าช่องโหว่ถูกใช้โจมตีจริงตั้งแต่ 18 กรกฎาคม 2025 ➡️ ระบุว่าการแก้ไขเกิดจากการเปลี่ยนโค้ดเพื่อแก้ปัญหา AS2 โดยไม่รู้ว่ามีช่องโหว่แฝง ➡️ Patch ถูกปล่อยแบบเงียบ ๆ โดยไม่มีการแจ้งเตือนผู้ใช้ ✅ การป้องกันและคำแนะนำ ➡️ อัปเดตเป็น CrushFTP v10.8.5 หรือ v11.3.4_23 ทันที ➡️ เปิดใช้งาน DMZ proxy ซึ่งจะช่วยแยก instance ออกจากเซิร์ฟเวอร์หลัก ➡️ ตรวจสอบ log สำหรับคำขอ POST ที่มี header AS2-TO และ cookie ซ้ำ ๆ ➡️ ใช้ rate limiting และ intrusion detection เพื่อป้องกันการโจมตีแบบ high-frequency https://hackread.com/hackers-exploit-crushftp-zero-day-take-over-servers/
    HACKREAD.COM
    Hackers Exploit CrushFTP Zero-Day to Take Over Servers
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 28 มุมมอง 0 รีวิว
  • กำลังใจสำคัญมาก,เสมือนสะท้อนไปถึงทั้งกองทัพว่าประเทศไทยและประชาชนคนไทยเราไม่ทิ้งทหารไทยเราทุกๆคน.,และจะปรับปรุงให้ดียิ่งๆขึ้นทั่วอาณาเขตไทยที่กำลังพลที่มีหน้าที่รับผิดชอบนี้ต่อสู้เพื่อชาติไทยเรา แผ่นดินไทยเรา จะเกิดที่ภาคเหนือภาคใต้ตะวันออกตะวันตกอีสานเหนือหรือของจริงที่อีสานใต้เรา..คนไทยจะไม่ทิ้งครอบครัวทหารหาญเราที่เสียสละชีพเพื่อชาติเพื่อประชาชนคนในประเทศไทยเราทั้งหมด,จะต้องไม่เหี้ยแบบการปกครองยุคในอดีตผู้นำผู้ปกครองยุคในอดีตที่รังแกทหารไทยมากอย่างยาวนาน.,ด้อยค่ามองข้ามก็ได้,หรือสนใจน้อยเกินไปนั้นเอง.

    https://youtube.com/shorts/4gcjUqhwDGg?si=EN3B8Uu21fU2T8MZ
    กำลังใจสำคัญมาก,เสมือนสะท้อนไปถึงทั้งกองทัพว่าประเทศไทยและประชาชนคนไทยเราไม่ทิ้งทหารไทยเราทุกๆคน.,และจะปรับปรุงให้ดียิ่งๆขึ้นทั่วอาณาเขตไทยที่กำลังพลที่มีหน้าที่รับผิดชอบนี้ต่อสู้เพื่อชาติไทยเรา แผ่นดินไทยเรา จะเกิดที่ภาคเหนือภาคใต้ตะวันออกตะวันตกอีสานเหนือหรือของจริงที่อีสานใต้เรา..คนไทยจะไม่ทิ้งครอบครัวทหารหาญเราที่เสียสละชีพเพื่อชาติเพื่อประชาชนคนในประเทศไทยเราทั้งหมด,จะต้องไม่เหี้ยแบบการปกครองยุคในอดีตผู้นำผู้ปกครองยุคในอดีตที่รังแกทหารไทยมากอย่างยาวนาน.,ด้อยค่ามองข้ามก็ได้,หรือสนใจน้อยเกินไปนั้นเอง. https://youtube.com/shorts/4gcjUqhwDGg?si=EN3B8Uu21fU2T8MZ
    0 ความคิดเห็น 0 การแบ่งปัน 28 มุมมอง 0 รีวิว
  • เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ

    ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect

    สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว

    องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ

    บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง

    การเปลี่ยนแปลงของบทบาทในสายงาน IT
    ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI
    งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่
    บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว

    ทักษะใหม่ที่จำเป็นในยุค AI
    AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก
    ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน
    การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์

    การเปลี่ยนแปลงในระดับองค์กร
    CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์
    CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset
    การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น

    แนวโน้มการจ้างงานและการเติบโต
    92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI
    ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด
    การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน

    https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    🎙️ เรื่องเล่าจากยุคเปลี่ยนผ่าน: เมื่อ AI ไม่ได้แค่ช่วยงาน แต่เปลี่ยนโครงสร้างอาชีพ IT ทั้งระบบ ในรายงานพิเศษจาก CSO Online ได้ชี้ให้เห็นว่า AI ไม่ได้เป็นแค่เครื่องมือเสริมอีกต่อไป แต่กำลังกลายเป็น “แรงผลักดันหลัก” ที่เปลี่ยนแปลงบทบาทของทุกคนในสายงาน IT ตั้งแต่ developer, SOC analyst, helpdesk, I&O, ไปจนถึง CIO และ enterprise architect สิ่งที่น่าสนใจคือ ไม่ใช่แค่การเปลี่ยนแปลงในระดับเครื่องมือ แต่เป็นการเปลี่ยนแปลงในระดับ “โครงสร้างอาชีพ” และ “ทักษะที่จำเป็น” โดยเฉพาะในตำแหน่งระดับกลางและเริ่มต้น ที่งานซ้ำ ๆ ถูกแทนที่ด้วย automation และ AI agent อย่างรวดเร็ว องค์กรต่าง ๆ เริ่มมองหา “ทักษะใหม่” เช่น AI literacy, rapid engineering, LLM architecture และการเข้าใจ ethical AI แทนทักษะเดิมอย่างการจัดการข้อมูลแบบ manual หรือการเขียนเอกสารซ้ำ ๆ ที่กำลังหมดความสำคัญ บทบาทใหม่อย่าง Chief AI Officer (CAIO) ก็เริ่มปรากฏขึ้น โดยมีหน้าที่ดูแลการนำ AI มาใช้ในระดับกลยุทธ์ ซึ่งเดิมเป็นหน้าที่ของ CIO แต่ตอนนี้กำลังแยกออกมาเป็นสายงานเฉพาะทาง ✅ การเปลี่ยนแปลงของบทบาทในสายงาน IT ➡️ ทุกตำแหน่งในสาย IT ตั้งแต่ helpdesk ถึง CIO กำลังถูกปรับบทบาทจากผลของ AI ➡️ งานที่เคยเป็น manual เช่น content creation, documentation, basic coding กำลังถูกแทนที่ ➡️ บทบาทใหม่ เช่น AI Engineer, CAIO, AI Product Manager กำลังเติบโตอย่างรวดเร็ว ✅ ทักษะใหม่ที่จำเป็นในยุค AI ➡️ AI literacy, ethical AI, LLM architecture, rapid engineering กลายเป็นทักษะหลัก ➡️ ความเข้าใจใน data pipeline และ model behavior สำคัญมากกว่าการเขียนโค้ดพื้นฐาน ➡️ การทำงานร่วมกับ AI agent ต้องใช้ความเข้าใจเชิงระบบและการประเมินผลลัพธ์ ✅ การเปลี่ยนแปลงในระดับองค์กร ➡️ CIO ต้องปรับบทบาทจากการดูแล infrastructure ไปสู่การนำ AI มาใช้เชิงกลยุทธ์ ➡️ CAIO เริ่มมีบทบาทในการวาง roadmap ด้าน AI และการจัดการ data asset ➡️ การจัดการ infrastructure อาจย้ายไปอยู่กับ third-party service มากขึ้น ✅ แนวโน้มการจ้างงานและการเติบโต ➡️ 92% ของตำแหน่ง IT จะถูกเปลี่ยนแปลงระดับสูงหรือปานกลางจากผลของ AI ➡️ ตำแหน่งระดับกลางและเริ่มต้นจะได้รับผลกระทบมากที่สุด ➡️ การ reskill และ upskill กลายเป็นสิ่งจำเป็นสำหรับการอยู่รอดในสายงาน https://us.resources.csoonline.com/resources/spotlight-report-it-careers-in-the-ai-era/
    US.RESOURCES.CSOONLINE.COM
    Spotlight report: IT careers in the AI era | Foundry Editorial
    Download the September 2025 issue of the Enterprise Spotlight from the editors of CIO, Computerworld, CSO, InfoWorld, and Network World.
    0 ความคิดเห็น 0 การแบ่งปัน 31 มุมมอง 0 รีวิว
  • เดือด! ‘เดชอิศม์’ ลั่นพร้อมลาออก สส. หากประชาธิปัตย์จับมือภูมิใจไทย ชี้เป็นพฤติกรรมทรยศชาติ-ประชาชน
    https://www.thai-tai.tv/news/21264/
    .
    #ไทยไท #เดชอิศม์ขาวทอง #ประชาธิปัตย์ #ภูมิใจไทย #ฮั้วสว #จัดตั้งรัฐบาล #ข่าวการเมือง #ข่าววันนี้

    เดือด! ‘เดชอิศม์’ ลั่นพร้อมลาออก สส. หากประชาธิปัตย์จับมือภูมิใจไทย ชี้เป็นพฤติกรรมทรยศชาติ-ประชาชน https://www.thai-tai.tv/news/21264/ . #ไทยไท #เดชอิศม์ขาวทอง #ประชาธิปัตย์ #ภูมิใจไทย #ฮั้วสว #จัดตั้งรัฐบาล #ข่าวการเมือง #ข่าววันนี้
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว
  • รีบดูด่วน!! ล่าสุดบิ๊กกุ้งพูดแบบนี้ รัฐบาลมีสะเทือน (2/9/68)

    #TruthFromThailand
    #บิ๊กกุ้ง
    #แม่ทัพภาค2
    #กองทัพไทย
    #การเมืองไทย
    #ข่าวด่วน
    #ข่าววันนี้
    #ข่าวดัง
    #ThaiTimes
    #news1
    #shorts
    #ThaiPolitics
    #BreakingNews
    รีบดูด่วน!! ล่าสุดบิ๊กกุ้งพูดแบบนี้ รัฐบาลมีสะเทือน (2/9/68) #TruthFromThailand #บิ๊กกุ้ง #แม่ทัพภาค2 #กองทัพไทย #การเมืองไทย #ข่าวด่วน #ข่าววันนี้ #ข่าวดัง #ThaiTimes #news1 #shorts #ThaiPolitics #BreakingNews
    0 ความคิดเห็น 0 การแบ่งปัน 47 มุมมอง 0 0 รีวิว
  • "เฉลิมชัย" ยังไม่คุย "เดชอิศม์" ปมลาออกถ้าจับมือ "ภูมิใจไทย"
    https://www.thai-tai.tv/news/21265/
    .
    #ไทยไท #เฉลิมชัยศรีอ่อน #เดชอิศม์ขาวทอง #พรรคประชาธิปัตย์ #ภูมิใจไทย #ยุบสภา #ข่าวการเมือง #ข่าววันนี้

    "เฉลิมชัย" ยังไม่คุย "เดชอิศม์" ปมลาออกถ้าจับมือ "ภูมิใจไทย" https://www.thai-tai.tv/news/21265/ . #ไทยไท #เฉลิมชัยศรีอ่อน #เดชอิศม์ขาวทอง #พรรคประชาธิปัตย์ #ภูมิใจไทย #ยุบสภา #ข่าวการเมือง #ข่าววันนี้
    0 ความคิดเห็น 0 การแบ่งปัน 23 มุมมอง 0 รีวิว
  • ว่าที่นายกฯหนู และครม.ฝูงหนู ยังไม่ทันเป็นก็มีคดีจ่อรอแล้ว หากผิดฮั้วสว.จริง ก็อาจถูกถอดถอนในข้อหาผิดจริยธรรมร้ายแรง
    #คิงส์โพธิ์แดง
    #เสี่ยหนู
    ว่าที่นายกฯหนู และครม.ฝูงหนู ยังไม่ทันเป็นก็มีคดีจ่อรอแล้ว หากผิดฮั้วสว.จริง ก็อาจถูกถอดถอนในข้อหาผิดจริยธรรมร้ายแรง #คิงส์โพธิ์แดง #เสี่ยหนู
    0 ความคิดเห็น 0 การแบ่งปัน 42 มุมมอง 0 รีวิว
  • รักษาการ แปลว่า ยังปฏิบัติหน้าที่เหมือนเดิม ในระยะเวลาชั่วคราว มิใช่ให้เมิง ปฏิบัติหน้าที่ครึ่งๆ กลางๆ มิใช่นึกจะลาก็หยุด หรือต้องลดเงินเดือนแมร่งในช่วงรักษาการ
    #คิงส์โพธิ์แดง
    รักษาการ แปลว่า ยังปฏิบัติหน้าที่เหมือนเดิม ในระยะเวลาชั่วคราว มิใช่ให้เมิง ปฏิบัติหน้าที่ครึ่งๆ กลางๆ มิใช่นึกจะลาก็หยุด หรือต้องลดเงินเดือนแมร่งในช่วงรักษาการ #คิงส์โพธิ์แดง
    0 ความคิดเห็น 0 การแบ่งปัน 37 มุมมอง 0 รีวิว
  • Costa Serena พาล่องเรือเที่ยว 3 ประเทศสุดฮิตในเอเชีย แพ็คเกจอิสระเดินทางเองเหมาะสำหรับนักเดินทางสาวชิว

    เส้นทาง ฮ่องกง - จีหลง (คีลุง), ไต้หวัน - นาฮะ, โอกินาวะ, ญี่ปุน - คาโงชิมะ, ญี่ปุน - โตเกียว, ญี่ปุ่น

    เดินทาง 21-28 พ.ย. หรือ 19-26 ธ.ค. 2568 และ 16-23 ม.ค. 2569

    ⭕️ ราคาเริ่มต้น : ฿27,800

    ราคานี้รวมครบ
    ห้องพักบนเรือสำราญ
    อาหารทุกมื้อบนเรือ
    ค่าภาษีท่าเรือ

    รหัสแพคเกจทัวร์ : COSP-8D7N-HKG-TYO-2601161
    คลิกดูรายละเอียดโปรแกรม : 78s.me/ee965a

    ดูเรือ COSTA ทั้งหมดได้ที่
    https://78s.me/ccbd30

    ดูแพ็คเกจเรือทั้งหมด
    https://cruisedomain.com/
    LINE ID: @CruiseDomain 78s.me/c54029
    Facebook: CruiseDomain 78s.me/b8a121
    Youtube : CruiseDomain 78s.me/8af620
    : 0 2116 9696 (Auto)

    #เรือCOSTA #เรือCostaSerena #Costacruise #Asia #Hongkong #Taiwan #Keelung #Japan #Naha #ล่องเรือใกล้ไทย #แพ็คเกจล่องเรือสำราญ #CruiseDomain
    🛳️💙 Costa Serena พาล่องเรือเที่ยว 3 ประเทศสุดฮิตในเอเชีย แพ็คเกจอิสระเดินทางเองเหมาะสำหรับนักเดินทางสาวชิว ✨ 🌟 เส้นทาง ฮ่องกง - จีหลง (คีลุง), ไต้หวัน - นาฮะ, โอกินาวะ, ญี่ปุน - คาโงชิมะ, ญี่ปุน - โตเกียว, ญี่ปุ่น 📅 เดินทาง 21-28 พ.ย. หรือ 19-26 ธ.ค. 2568 และ 16-23 ม.ค. 2569 ⭕️ ราคาเริ่มต้น : ฿27,800 ✨ ราคานี้รวมครบ ✅ ห้องพักบนเรือสำราญ ✅ อาหารทุกมื้อบนเรือ ✅ ค่าภาษีท่าเรือ ➡️ รหัสแพคเกจทัวร์ : COSP-8D7N-HKG-TYO-2601161 คลิกดูรายละเอียดโปรแกรม : 78s.me/ee965a ดูเรือ COSTA ทั้งหมดได้ที่ https://78s.me/ccbd30 ✅ ดูแพ็คเกจเรือทั้งหมด https://cruisedomain.com/ LINE ID: @CruiseDomain 78s.me/c54029 Facebook: CruiseDomain 78s.me/b8a121 Youtube : CruiseDomain 78s.me/8af620 ☎️: 0 2116 9696 (Auto) #เรือCOSTA #เรือCostaSerena #Costacruise #Asia #Hongkong #Taiwan #Keelung #Japan #Naha #ล่องเรือใกล้ไทย #แพ็คเกจล่องเรือสำราญ #CruiseDomain
    0 ความคิดเห็น 0 การแบ่งปัน 37 มุมมอง 0 รีวิว
  • ‘วราวุธ’ ชี้ทางออกการเมืองคือยุบสภา คืนอำนาจประชาชน ย้ำจุดยืนยังหนุนเพื่อไทยเป็นแกนนำจัดตั้งรัฐบาล
    https://www.thai-tai.tv/news/21266/
    .
    #ไทยไท #วราวุธศิลปอาชา #ชาติไทยพัฒนา #ยุบสภา #เพื่อไทย #จัดตั้งรัฐบาล #ข่าวการเมือง #ข่าววันนี้

    ‘วราวุธ’ ชี้ทางออกการเมืองคือยุบสภา คืนอำนาจประชาชน ย้ำจุดยืนยังหนุนเพื่อไทยเป็นแกนนำจัดตั้งรัฐบาล https://www.thai-tai.tv/news/21266/ . #ไทยไท #วราวุธศิลปอาชา #ชาติไทยพัฒนา #ยุบสภา #เพื่อไทย #จัดตั้งรัฐบาล #ข่าวการเมือง #ข่าววันนี้
    0 ความคิดเห็น 0 การแบ่งปัน 19 มุมมอง 0 รีวิว