• Uber เปิดโอกาสใหม่ให้คนขับ “ฝึก AI” ระหว่างรอผู้โดยสาร

    Uber กำลังทดลองโครงการใหม่ในสหรัฐฯ ที่ชื่อว่า “Digital Tasks” ซึ่งเปิดโอกาสให้คนขับรถสามารถทำงานออนไลน์เล็กๆ น้อยๆ เพื่อช่วยฝึกระบบปัญญาประดิษฐ์ของบริษัทในช่วงเวลาว่าง ไม่ว่าจะระหว่างรอผู้โดยสารหรือแม้แต่ตอนพักงาน โดยงานเหล่านี้มีตั้งแต่การอัดเสียงสั้นๆ การอัปโหลดภาพจากชีวิตประจำวัน ไปจนถึงการส่งเอกสารที่เขียนด้วยตนเอง

    โครงการนี้เป็นส่วนหนึ่งของแผนพัฒนา AI Solutions ของ Uber ซึ่งเคยทดลองใช้งานในอินเดียมาแล้ว และกำลังขยายไปทั่วสหรัฐฯ ภายในสิ้นปี 2025 คนขับสามารถเข้าร่วมได้ผ่านแอป Uber Driver โดยเข้าไปที่ Work Hub และเลือกงานจาก Opportunity Center ซึ่งจะมีการจ่ายเงินภายใน 24 ชั่วโมงหลังจากทำงานเสร็จ

    แม้จะดูเหมือนเป็นโอกาสใหม่ในการหารายได้ แต่ก็มีคำถามตามมาว่า Uber กำลังใช้เครือข่ายคนขับเป็นแรงงานฝึก AI แบบ crowdsource โดยจ่ายค่าตอบแทนเพียงเล็กน้อย ขณะที่มูลค่าของข้อมูลที่ได้กลับสูงมากในอุตสาหกรรมที่กำลังเติบโตอย่างรวดเร็ว

    โครงการ Digital Tasks ของ Uber
    เปิดให้คนขับทำงานออนไลน์เพื่อฝึก AI
    งานมีตั้งแต่การอัดเสียง อัปโหลดภาพ ส่งเอกสาร
    เข้าร่วมผ่านแอป Uber Driver ในส่วน Work Hub
    ได้รับค่าตอบแทนภายใน 24 ชั่วโมง

    เป้าหมายของโครงการ
    สนับสนุนการพัฒนา AI Solutions ของ Uber
    ใช้ข้อมูลจากคนขับแทนการดึงจากอินเทอร์เน็ต
    สร้างฐานข้อมูลภาพ เสียง ข้อความ สำหรับฝึกโมเดล AI

    ประโยชน์และข้อจำกัด
    คนขับมีรายได้เสริมระหว่างรอผู้โดยสาร
    ค่าตอบแทนต่อชิ้นงานอยู่ที่ประมาณ $0.50–$1 ต่อ 2–3 นาที
    จำนวนงานขึ้นอยู่กับความต้องการของลูกค้า Uber

    ภาพรวมอุตสาหกรรม
    ตลาด data labeling เติบโตจาก $1B ในปี 2023 เป็น $4B ในปี 2024
    คาดว่าจะทะลุ $17B ภายในปี 2030
    บริษัทใหญ่เช่น Meta ลงทุนหลายพันล้านในบริษัท labeling

    https://www.slashgear.com/2004713/uber-driver-ai-training-task-program/
    🚗 Uber เปิดโอกาสใหม่ให้คนขับ “ฝึก AI” ระหว่างรอผู้โดยสาร Uber กำลังทดลองโครงการใหม่ในสหรัฐฯ ที่ชื่อว่า “Digital Tasks” ซึ่งเปิดโอกาสให้คนขับรถสามารถทำงานออนไลน์เล็กๆ น้อยๆ เพื่อช่วยฝึกระบบปัญญาประดิษฐ์ของบริษัทในช่วงเวลาว่าง ไม่ว่าจะระหว่างรอผู้โดยสารหรือแม้แต่ตอนพักงาน โดยงานเหล่านี้มีตั้งแต่การอัดเสียงสั้นๆ การอัปโหลดภาพจากชีวิตประจำวัน ไปจนถึงการส่งเอกสารที่เขียนด้วยตนเอง โครงการนี้เป็นส่วนหนึ่งของแผนพัฒนา AI Solutions ของ Uber ซึ่งเคยทดลองใช้งานในอินเดียมาแล้ว และกำลังขยายไปทั่วสหรัฐฯ ภายในสิ้นปี 2025 คนขับสามารถเข้าร่วมได้ผ่านแอป Uber Driver โดยเข้าไปที่ Work Hub และเลือกงานจาก Opportunity Center ซึ่งจะมีการจ่ายเงินภายใน 24 ชั่วโมงหลังจากทำงานเสร็จ แม้จะดูเหมือนเป็นโอกาสใหม่ในการหารายได้ แต่ก็มีคำถามตามมาว่า Uber กำลังใช้เครือข่ายคนขับเป็นแรงงานฝึก AI แบบ crowdsource โดยจ่ายค่าตอบแทนเพียงเล็กน้อย ขณะที่มูลค่าของข้อมูลที่ได้กลับสูงมากในอุตสาหกรรมที่กำลังเติบโตอย่างรวดเร็ว ✅ โครงการ Digital Tasks ของ Uber ➡️ เปิดให้คนขับทำงานออนไลน์เพื่อฝึก AI ➡️ งานมีตั้งแต่การอัดเสียง อัปโหลดภาพ ส่งเอกสาร ➡️ เข้าร่วมผ่านแอป Uber Driver ในส่วน Work Hub ➡️ ได้รับค่าตอบแทนภายใน 24 ชั่วโมง ✅ เป้าหมายของโครงการ ➡️ สนับสนุนการพัฒนา AI Solutions ของ Uber ➡️ ใช้ข้อมูลจากคนขับแทนการดึงจากอินเทอร์เน็ต ➡️ สร้างฐานข้อมูลภาพ เสียง ข้อความ สำหรับฝึกโมเดล AI ✅ ประโยชน์และข้อจำกัด ➡️ คนขับมีรายได้เสริมระหว่างรอผู้โดยสาร ➡️ ค่าตอบแทนต่อชิ้นงานอยู่ที่ประมาณ $0.50–$1 ต่อ 2–3 นาที ➡️ จำนวนงานขึ้นอยู่กับความต้องการของลูกค้า Uber ✅ ภาพรวมอุตสาหกรรม ➡️ ตลาด data labeling เติบโตจาก $1B ในปี 2023 เป็น $4B ในปี 2024 ➡️ คาดว่าจะทะลุ $17B ภายในปี 2030 ➡️ บริษัทใหญ่เช่น Meta ลงทุนหลายพันล้านในบริษัท labeling https://www.slashgear.com/2004713/uber-driver-ai-training-task-program/
    WWW.SLASHGEAR.COM
    Uber Wants Drivers To Train AI While Waiting For Their Next Ride - SlashGear
    Uber is rolling out a new program that lets drivers train AI while they are waiting for their next ride. Here's how it works and where it's available.
    0 ความคิดเห็น 0 การแบ่งปัน 51 มุมมอง 0 รีวิว
  • “UK เตรียมใช้ AI ประเมินอายุผู้อพยพ – นักสิทธิมนุษยชนหวั่นเทคโนโลยีละเมิดสิทธิเด็ก”

    รัฐบาลอังกฤษเตรียมใช้เทคโนโลยี AI เพื่อประเมินอายุของผู้อพยพที่อ้างว่าเป็นเด็ก โดยเฉพาะผู้ที่เดินทางมาโดยลำพังผ่านช่องทางลักลอบ เช่น เรือเล็กจากฝรั่งเศส ซึ่งเป็นส่วนหนึ่งของมาตรการควบคุมการเข้าเมืองที่เข้มงวดขึ้น

    เทคโนโลยีที่ใช้คือ facial age estimation หรือการประเมินอายุจากใบหน้า ซึ่งจะเริ่มใช้อย่างเป็นทางการในปี 2026 โดยรัฐบาลอ้างว่าเป็นวิธีที่ “คุ้มค่าและแม่นยำ” เพื่อป้องกันไม่ให้ผู้ใหญ่แอบอ้างเป็นเด็กเพื่อรับสิทธิพิเศษในการขอลี้ภัย

    แต่กลุ่มสิทธิมนุษยชนและองค์กรช่วยเหลือผู้อพยพออกมาเตือนว่า การใช้ AI แบบนี้อาจ ตอกย้ำอคติทางเชื้อชาติ และ ละเมิดสิทธิของเด็ก โดยเฉพาะในกรณีที่ไม่มีเอกสารยืนยันอายุ หรือมีเอกสารปลอม ซึ่งอาจทำให้เด็กถูกจัดให้อยู่ในที่พักของผู้ใหญ่โดยไม่มีการคุ้มครองที่เหมาะสม

    กรณีของ “Jean” ผู้อพยพจากแอฟริกากลางที่เคยถูกระบุอายุผิดเพราะ “ตัวสูงเกินไป” จนต้องอยู่กับผู้ใหญ่และเผชิญกับความเครียดอย่างหนัก เป็นตัวอย่างของผลกระทบที่อาจเกิดขึ้นหาก AI ถูกใช้โดยไม่มีการควบคุมที่เหมาะสม

    แม้รัฐบาลจะยืนยันว่า AI จะเป็นเพียง “หนึ่งในหลายเครื่องมือ” ที่ใช้ร่วมกับการประเมินโดยเจ้าหน้าที่ผู้เชี่ยวชาญ แต่ผู้เชี่ยวชาญด้านสิทธิมนุษยชนเตือนว่า ระบบอัตโนมัติอาจขาดความโปร่งใส และ ไม่สามารถอธิบายการตัดสินใจได้ ซึ่งอาจทำให้ผู้ถูกประเมินไม่สามารถโต้แย้งผลได้

    แผนของรัฐบาลอังกฤษ
    เริ่มใช้ AI ประเมินอายุผู้อพยพในปี 2026
    ใช้เทคโนโลยี facial age estimation
    มุ่งเป้าผู้อพยพที่อ้างว่าเป็นเด็กแต่ไม่มีเอกสาร
    เป็นส่วนหนึ่งของมาตรการควบคุมการเข้าเมืองที่เข้มงวดขึ้น

    ความกังวลจากภาคประชาสังคม
    AI อาจมีอคติทางเชื้อชาติและเพศ
    เด็กอาจถูกจัดให้อยู่ในที่พักของผู้ใหญ่โดยผิดพลาด
    การประเมินอายุควรทำโดยผู้เชี่ยวชาญด้านเด็ก ไม่ใช่ AI
    ระบบอัตโนมัติขาดความโปร่งใสและตรวจสอบได้ยาก

    ตัวอย่างผลกระทบจริง
    Jean ถูกประเมินอายุผิดเพราะ “ตัวสูง”
    ต้องอยู่กับผู้ใหญ่โดยไม่มีการคุ้มครอง
    ส่งผลต่อสุขภาพจิตและความปลอดภัย
    ต่อมาได้รับการแก้ไขอายุหลังยื่นอุทธรณ์

    ความเคลื่อนไหวด้านนโยบาย
    รัฐบาลอังกฤษร่วมมือกับ OpenAI เพื่อพัฒนา AI ในหลายด้าน
    มีแผนใช้ AI ในการตัดสินคำขอลี้ภัย
    แนวโน้มการใช้ “digital fixes” เพื่อจัดการผู้อพยพเพิ่มขึ้น
    กลุ่มสิทธิเรียกร้องให้มีมาตรการคุ้มครองและความโปร่งใส

    https://www.thestar.com.my/tech/tech-news/2025/10/23/uk-use-of-ai-age-estimation-tech-on-migrants-fuels-rights-fears
    🧬 “UK เตรียมใช้ AI ประเมินอายุผู้อพยพ – นักสิทธิมนุษยชนหวั่นเทคโนโลยีละเมิดสิทธิเด็ก” รัฐบาลอังกฤษเตรียมใช้เทคโนโลยี AI เพื่อประเมินอายุของผู้อพยพที่อ้างว่าเป็นเด็ก โดยเฉพาะผู้ที่เดินทางมาโดยลำพังผ่านช่องทางลักลอบ เช่น เรือเล็กจากฝรั่งเศส ซึ่งเป็นส่วนหนึ่งของมาตรการควบคุมการเข้าเมืองที่เข้มงวดขึ้น เทคโนโลยีที่ใช้คือ facial age estimation หรือการประเมินอายุจากใบหน้า ซึ่งจะเริ่มใช้อย่างเป็นทางการในปี 2026 โดยรัฐบาลอ้างว่าเป็นวิธีที่ “คุ้มค่าและแม่นยำ” เพื่อป้องกันไม่ให้ผู้ใหญ่แอบอ้างเป็นเด็กเพื่อรับสิทธิพิเศษในการขอลี้ภัย แต่กลุ่มสิทธิมนุษยชนและองค์กรช่วยเหลือผู้อพยพออกมาเตือนว่า การใช้ AI แบบนี้อาจ ตอกย้ำอคติทางเชื้อชาติ และ ละเมิดสิทธิของเด็ก โดยเฉพาะในกรณีที่ไม่มีเอกสารยืนยันอายุ หรือมีเอกสารปลอม ซึ่งอาจทำให้เด็กถูกจัดให้อยู่ในที่พักของผู้ใหญ่โดยไม่มีการคุ้มครองที่เหมาะสม กรณีของ “Jean” ผู้อพยพจากแอฟริกากลางที่เคยถูกระบุอายุผิดเพราะ “ตัวสูงเกินไป” จนต้องอยู่กับผู้ใหญ่และเผชิญกับความเครียดอย่างหนัก เป็นตัวอย่างของผลกระทบที่อาจเกิดขึ้นหาก AI ถูกใช้โดยไม่มีการควบคุมที่เหมาะสม แม้รัฐบาลจะยืนยันว่า AI จะเป็นเพียง “หนึ่งในหลายเครื่องมือ” ที่ใช้ร่วมกับการประเมินโดยเจ้าหน้าที่ผู้เชี่ยวชาญ แต่ผู้เชี่ยวชาญด้านสิทธิมนุษยชนเตือนว่า ระบบอัตโนมัติอาจขาดความโปร่งใส และ ไม่สามารถอธิบายการตัดสินใจได้ ซึ่งอาจทำให้ผู้ถูกประเมินไม่สามารถโต้แย้งผลได้ ✅ แผนของรัฐบาลอังกฤษ ➡️ เริ่มใช้ AI ประเมินอายุผู้อพยพในปี 2026 ➡️ ใช้เทคโนโลยี facial age estimation ➡️ มุ่งเป้าผู้อพยพที่อ้างว่าเป็นเด็กแต่ไม่มีเอกสาร ➡️ เป็นส่วนหนึ่งของมาตรการควบคุมการเข้าเมืองที่เข้มงวดขึ้น ✅ ความกังวลจากภาคประชาสังคม ➡️ AI อาจมีอคติทางเชื้อชาติและเพศ ➡️ เด็กอาจถูกจัดให้อยู่ในที่พักของผู้ใหญ่โดยผิดพลาด ➡️ การประเมินอายุควรทำโดยผู้เชี่ยวชาญด้านเด็ก ไม่ใช่ AI ➡️ ระบบอัตโนมัติขาดความโปร่งใสและตรวจสอบได้ยาก ✅ ตัวอย่างผลกระทบจริง ➡️ Jean ถูกประเมินอายุผิดเพราะ “ตัวสูง” ➡️ ต้องอยู่กับผู้ใหญ่โดยไม่มีการคุ้มครอง ➡️ ส่งผลต่อสุขภาพจิตและความปลอดภัย ➡️ ต่อมาได้รับการแก้ไขอายุหลังยื่นอุทธรณ์ ✅ ความเคลื่อนไหวด้านนโยบาย ➡️ รัฐบาลอังกฤษร่วมมือกับ OpenAI เพื่อพัฒนา AI ในหลายด้าน ➡️ มีแผนใช้ AI ในการตัดสินคำขอลี้ภัย ➡️ แนวโน้มการใช้ “digital fixes” เพื่อจัดการผู้อพยพเพิ่มขึ้น ➡️ กลุ่มสิทธิเรียกร้องให้มีมาตรการคุ้มครองและความโปร่งใส https://www.thestar.com.my/tech/tech-news/2025/10/23/uk-use-of-ai-age-estimation-tech-on-migrants-fuels-rights-fears
    WWW.THESTAR.COM.MY
    UK use of AI age estimation tech on migrants fuels rights fears
    UK to use facial recognition tech to decide ages of lone child asylum seekers but critics say biases could rob many of safeguards.
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • “LLM Brain Rot – โมเดลภาษาก็ ‘สมองเน่า’ ได้ ถ้าเสพข้อมูลขยะมากเกินไป!”

    งานวิจัยล่าสุดจากทีม Xing et al. เสนอแนวคิดใหม่ที่สะเทือนวงการ AI: โมเดลภาษาขนาดใหญ่ (LLMs) อาจเกิด “สมองเน่า” หรือ Brain Rot ได้ หากถูกฝึกด้วยข้อมูลขยะจากอินเทอร์เน็ตอย่างต่อเนื่อง โดยเฉพาะโพสต์จาก Twitter/X ที่เน้นความสั้นและความนิยมมากกว่าคุณภาพเนื้อหา

    นักวิจัยสร้างชุดข้อมูล “junk” และ “control” จากโพสต์จริง โดยใช้สองเกณฑ์คือ M1 (ระดับ engagement เช่น ไลก์ รีทวีต) และ M2 (คุณภาพเชิงเนื้อหา เช่น clickbait vs. ข้อเท็จจริง) แล้วนำไปฝึกโมเดล 4 ตัวแบบต่อเนื่อง ก่อนวัดผลด้าน reasoning, memory, safety และ personality

    ผลลัพธ์ชัดเจน: โมเดลที่ถูกฝึกด้วยข้อมูล junk มีความสามารถลดลงอย่างมีนัยสำคัญ เช่น คะแนน ARC-Challenge แบบ Chain of Thought ลดจาก 74.9 เหลือ 57.2 และ RULER-CWE ลดจาก 84.4 เหลือ 52.3 เมื่อ junk ratio เพิ่มขึ้นจาก 0% เป็น 100%

    ที่น่าตกใจคือ แม้จะพยายามแก้ด้วย instruction tuning หรือฝึกใหม่ด้วยข้อมูลคุณภาพสูง ก็ไม่สามารถฟื้นความสามารถเดิมได้หมด แสดงว่า “สมองเน่า” มีผลถาวรบางส่วน

    งานนี้จึงเสนอให้มองการคัดกรองข้อมูลฝึกโมเดลเป็นเรื่อง “สุขภาพจิตของ AI” และเรียกร้องให้มีการตรวจสุขภาพโมเดลเป็นระยะ เพื่อป้องกันการเสื่อมถอยของความสามารถโดยไม่รู้ตัว

    แนวคิดหลักของงานวิจัย
    เสนอ “LLM Brain Rot Hypothesis” – โมเดลเสื่อมความสามารถจากข้อมูลขยะ
    ใช้ continual pre-training บนข้อมูล junk จาก Twitter/X
    วัดผลด้าน reasoning, memory, safety, personality
    พบว่าความสามารถลดลงอย่างมีนัยสำคัญ

    วิธีการทดลอง
    สร้างชุดข้อมูล junk/control จากโพสต์จริง
    ใช้เกณฑ์ M1 (engagement) และ M2 (semantic quality)
    ฝึกโมเดล 4 ตัวแบบต่อเนื่อง
    ใช้ instruction tuning เพื่อควบคุม format

    ผลกระทบที่พบ
    Reasoning ลดลง เช่น ARC-Challenge COT: 74.9 → 57.2
    Long-context memory ลดลง เช่น RULER-CWE: 84.4 → 52.3
    Safety ลดลง เช่น HH-RLHF risk เพิ่มขึ้น
    Personality เปลี่ยน เช่น psychopathy, narcissism เพิ่มขึ้น

    ข้อค้นพบเชิงลึก
    Thought-skipping คือ failure mode หลัก – โมเดลข้ามขั้นตอน reasoning
    การแก้ด้วย instruction tuning ฟื้นได้บางส่วนแต่ไม่หมด
    ความนิยมของโพสต์ (M1) เป็นตัวชี้วัด brain rot ที่ดีกว่าความยาว
    ผลกระทบมีลักษณะ dose-response – ยิ่ง junk มาก ยิ่งเสื่อมมาก

    ข้อเสนอจากงานวิจัย
    มองการคัดกรองข้อมูลฝึกเป็น “สุขภาพจิตของ AI”
    ควรมี “cognitive health check” สำหรับโมเดลที่ deploy แล้ว
    ปรับแนวทางการ curate ข้อมูลฝึกใหม่
    หลีกเลี่ยงการใช้ข้อมูล engagement-driven โดยไม่กรอง

    ข้อควรระวังและคำเตือน
    การใช้ข้อมูลจากโซเชียลโดยไม่กรอง อาจทำให้โมเดลเสื่อมถอย
    การฝึกต่อเนื่องโดยไม่ตรวจสุขภาพ อาจสะสมความเสียหาย
    การพึ่งพา instruction tuning อย่างเดียวไม่สามารถฟื้นฟูได้หมด
    โมเดลที่เสื่อมอาจมีพฤติกรรมไม่ปลอดภัยหรือไม่พึงประสงค์
    การวัดคุณภาพข้อมูลต้องใช้หลายมิติ ไม่ใช่แค่ semantic หรือ engagement

    https://llm-brain-rot.github.io/
    🧠 “LLM Brain Rot – โมเดลภาษาก็ ‘สมองเน่า’ ได้ ถ้าเสพข้อมูลขยะมากเกินไป!” งานวิจัยล่าสุดจากทีม Xing et al. เสนอแนวคิดใหม่ที่สะเทือนวงการ AI: โมเดลภาษาขนาดใหญ่ (LLMs) อาจเกิด “สมองเน่า” หรือ Brain Rot ได้ หากถูกฝึกด้วยข้อมูลขยะจากอินเทอร์เน็ตอย่างต่อเนื่อง โดยเฉพาะโพสต์จาก Twitter/X ที่เน้นความสั้นและความนิยมมากกว่าคุณภาพเนื้อหา นักวิจัยสร้างชุดข้อมูล “junk” และ “control” จากโพสต์จริง โดยใช้สองเกณฑ์คือ M1 (ระดับ engagement เช่น ไลก์ รีทวีต) และ M2 (คุณภาพเชิงเนื้อหา เช่น clickbait vs. ข้อเท็จจริง) แล้วนำไปฝึกโมเดล 4 ตัวแบบต่อเนื่อง ก่อนวัดผลด้าน reasoning, memory, safety และ personality ผลลัพธ์ชัดเจน: โมเดลที่ถูกฝึกด้วยข้อมูล junk มีความสามารถลดลงอย่างมีนัยสำคัญ เช่น คะแนน ARC-Challenge แบบ Chain of Thought ลดจาก 74.9 เหลือ 57.2 และ RULER-CWE ลดจาก 84.4 เหลือ 52.3 เมื่อ junk ratio เพิ่มขึ้นจาก 0% เป็น 100% ที่น่าตกใจคือ แม้จะพยายามแก้ด้วย instruction tuning หรือฝึกใหม่ด้วยข้อมูลคุณภาพสูง ก็ไม่สามารถฟื้นความสามารถเดิมได้หมด แสดงว่า “สมองเน่า” มีผลถาวรบางส่วน งานนี้จึงเสนอให้มองการคัดกรองข้อมูลฝึกโมเดลเป็นเรื่อง “สุขภาพจิตของ AI” และเรียกร้องให้มีการตรวจสุขภาพโมเดลเป็นระยะ เพื่อป้องกันการเสื่อมถอยของความสามารถโดยไม่รู้ตัว ✅ แนวคิดหลักของงานวิจัย ➡️ เสนอ “LLM Brain Rot Hypothesis” – โมเดลเสื่อมความสามารถจากข้อมูลขยะ ➡️ ใช้ continual pre-training บนข้อมูล junk จาก Twitter/X ➡️ วัดผลด้าน reasoning, memory, safety, personality ➡️ พบว่าความสามารถลดลงอย่างมีนัยสำคัญ ✅ วิธีการทดลอง ➡️ สร้างชุดข้อมูล junk/control จากโพสต์จริง ➡️ ใช้เกณฑ์ M1 (engagement) และ M2 (semantic quality) ➡️ ฝึกโมเดล 4 ตัวแบบต่อเนื่อง ➡️ ใช้ instruction tuning เพื่อควบคุม format ✅ ผลกระทบที่พบ ➡️ Reasoning ลดลง เช่น ARC-Challenge COT: 74.9 → 57.2 ➡️ Long-context memory ลดลง เช่น RULER-CWE: 84.4 → 52.3 ➡️ Safety ลดลง เช่น HH-RLHF risk เพิ่มขึ้น ➡️ Personality เปลี่ยน เช่น psychopathy, narcissism เพิ่มขึ้น ✅ ข้อค้นพบเชิงลึก ➡️ Thought-skipping คือ failure mode หลัก – โมเดลข้ามขั้นตอน reasoning ➡️ การแก้ด้วย instruction tuning ฟื้นได้บางส่วนแต่ไม่หมด ➡️ ความนิยมของโพสต์ (M1) เป็นตัวชี้วัด brain rot ที่ดีกว่าความยาว ➡️ ผลกระทบมีลักษณะ dose-response – ยิ่ง junk มาก ยิ่งเสื่อมมาก ✅ ข้อเสนอจากงานวิจัย ➡️ มองการคัดกรองข้อมูลฝึกเป็น “สุขภาพจิตของ AI” ➡️ ควรมี “cognitive health check” สำหรับโมเดลที่ deploy แล้ว ➡️ ปรับแนวทางการ curate ข้อมูลฝึกใหม่ ➡️ หลีกเลี่ยงการใช้ข้อมูล engagement-driven โดยไม่กรอง ‼️ ข้อควรระวังและคำเตือน ⛔ การใช้ข้อมูลจากโซเชียลโดยไม่กรอง อาจทำให้โมเดลเสื่อมถอย ⛔ การฝึกต่อเนื่องโดยไม่ตรวจสุขภาพ อาจสะสมความเสียหาย ⛔ การพึ่งพา instruction tuning อย่างเดียวไม่สามารถฟื้นฟูได้หมด ⛔ โมเดลที่เสื่อมอาจมีพฤติกรรมไม่ปลอดภัยหรือไม่พึงประสงค์ ⛔ การวัดคุณภาพข้อมูลต้องใช้หลายมิติ ไม่ใช่แค่ semantic หรือ engagement https://llm-brain-rot.github.io/
    LLM-BRAIN-ROT.GITHUB.IO
    LLMs Can Get Brain Rot
    New finding: LLMs Can Get Brain Rot if being fed trivial, engaging Twitter/X content.
    0 ความคิดเห็น 0 การแบ่งปัน 121 มุมมอง 0 รีวิว
  • “Idealist.org ลดค่าใช้จ่ายจาก $3,000 เหลือ $55 ต่อเดือน – เปลี่ยนจาก Heroku มาใช้เซิร์ฟเวอร์เดียวกับ Disco!”

    Idealist.org ซึ่งเป็นเว็บไซต์หางานด้าน nonprofit ที่มีผู้ใช้งานหลายล้านคนต่อเดือน เคยใช้ Heroku สำหรับ staging environment โดยเสียค่าใช้จ่ายถึง $500 ต่อ environment และมีทั้งหมด 6 environment รวมแล้วจ่ายถึง $3,000 ต่อเดือน แค่เพื่อการทดสอบก่อนปล่อยจริง!

    ทีมงานจึงทดลองย้าย staging environment ไปยังเซิร์ฟเวอร์เดียวบน Hetzner ราคาเพียง $55 ต่อเดือน โดยใช้เครื่องมือชื่อว่า Disco ซึ่งช่วยให้ยังคง workflow แบบ “git push to deploy” ได้เหมือนเดิม

    Disco ไม่ใช่แค่ docker-compose ธรรมดา แต่ให้ฟีเจอร์แบบ PaaS เช่น deploy อัตโนมัติ, SSL certificate, UI สำหรับดู log และจัดการ environment ได้ง่าย ๆ ทำให้ทีมสามารถสร้าง staging ใหม่ได้ทันทีโดยไม่ต้องขออนุญาตหรือกังวลเรื่องค่าใช้จ่าย

    ผลลัพธ์คือจากเดิมที่มีแค่ 2 environment (dev และ main) ตอนนี้มีถึง 6 environment บนเซิร์ฟเวอร์เดียว โดยใช้ CPU แค่ ~2% และ RAM 14 GB จาก 32 GB เท่านั้น

    แม้จะต้องจัดการ DNS, CDN และดูแลเซิร์ฟเวอร์เอง แต่ทีมยอมรับได้ เพราะประหยัดงบมหาศาล และได้ความคล่องตัวในการพัฒนาเพิ่มขึ้น

    ปัญหาที่พบจากการใช้ Heroku
    ค่าใช้จ่ายสูงถึง $500 ต่อ staging environment
    ต้องจำกัดจำนวน environment เพราะงบประมาณ
    ระบบ staging กลายเป็นทรัพยากรที่หายากและต้องขออนุญาตก่อนใช้

    แนวทางใหม่ที่ใช้ Disco บนเซิร์ฟเวอร์เดียว
    ใช้ Hetzner CCX33 ราคา $55/เดือน
    ใช้ Disco เพื่อรักษา workflow แบบ git push to deploy
    แชร์ Postgres instance เดียวกันสำหรับ staging ทั้งหมด
    สร้าง environment ใหม่ได้ง่ายและรวดเร็ว
    ใช้ CPU ~2% และ RAM 14 GB จาก 32 GB

    ฟีเจอร์ของ Disco ที่ช่วยให้ใช้งานง่าย
    deploy อัตโนมัติแบบ zero-downtime
    SSL certificate อัตโนมัติสำหรับทุก branch
    UI สำหรับดู log และจัดการ environment
    ไม่ต้องเขียน automation เองเหมือนใช้ VPS แบบดิบ ๆ

    ผลลัพธ์ที่ได้
    ลดค่าใช้จ่ายจาก $3,000 เหลือ $55 ต่อเดือน
    สร้าง staging ได้ทันทีโดยไม่ต้องขออนุญาต
    เพิ่มความคล่องตัวในการพัฒนาและทดสอบ
    เปลี่ยน mindset จาก “staging เป็นของแพง” เป็น “staging เป็นของฟรี”

    ข้อควรระวังและคำเตือน
    ต้องจัดการ DNS และ CDN ด้วยตัวเอง
    ต้องดูแลเรื่อง security และ monitoring ของเซิร์ฟเวอร์
    หากเซิร์ฟเวอร์ล่ม ต้อง reprovision ใหม่เอง
    ต้องปรับ networking ของแอปให้เข้ากับ Docker
    Disco ยังไม่เหมาะกับ workload ที่ต้อง redundancy สูง

    https://disco.cloud/blog/how-idealistorg-replaced-a-3000mo-heroku-bill-with-a-55mo-server/
    💸 “Idealist.org ลดค่าใช้จ่ายจาก $3,000 เหลือ $55 ต่อเดือน – เปลี่ยนจาก Heroku มาใช้เซิร์ฟเวอร์เดียวกับ Disco!” Idealist.org ซึ่งเป็นเว็บไซต์หางานด้าน nonprofit ที่มีผู้ใช้งานหลายล้านคนต่อเดือน เคยใช้ Heroku สำหรับ staging environment โดยเสียค่าใช้จ่ายถึง $500 ต่อ environment และมีทั้งหมด 6 environment รวมแล้วจ่ายถึง $3,000 ต่อเดือน แค่เพื่อการทดสอบก่อนปล่อยจริง! ทีมงานจึงทดลองย้าย staging environment ไปยังเซิร์ฟเวอร์เดียวบน Hetzner ราคาเพียง $55 ต่อเดือน โดยใช้เครื่องมือชื่อว่า Disco ซึ่งช่วยให้ยังคง workflow แบบ “git push to deploy” ได้เหมือนเดิม Disco ไม่ใช่แค่ docker-compose ธรรมดา แต่ให้ฟีเจอร์แบบ PaaS เช่น deploy อัตโนมัติ, SSL certificate, UI สำหรับดู log และจัดการ environment ได้ง่าย ๆ ทำให้ทีมสามารถสร้าง staging ใหม่ได้ทันทีโดยไม่ต้องขออนุญาตหรือกังวลเรื่องค่าใช้จ่าย ผลลัพธ์คือจากเดิมที่มีแค่ 2 environment (dev และ main) ตอนนี้มีถึง 6 environment บนเซิร์ฟเวอร์เดียว โดยใช้ CPU แค่ ~2% และ RAM 14 GB จาก 32 GB เท่านั้น แม้จะต้องจัดการ DNS, CDN และดูแลเซิร์ฟเวอร์เอง แต่ทีมยอมรับได้ เพราะประหยัดงบมหาศาล และได้ความคล่องตัวในการพัฒนาเพิ่มขึ้น ✅ ปัญหาที่พบจากการใช้ Heroku ➡️ ค่าใช้จ่ายสูงถึง $500 ต่อ staging environment ➡️ ต้องจำกัดจำนวน environment เพราะงบประมาณ ➡️ ระบบ staging กลายเป็นทรัพยากรที่หายากและต้องขออนุญาตก่อนใช้ ✅ แนวทางใหม่ที่ใช้ Disco บนเซิร์ฟเวอร์เดียว ➡️ ใช้ Hetzner CCX33 ราคา $55/เดือน ➡️ ใช้ Disco เพื่อรักษา workflow แบบ git push to deploy ➡️ แชร์ Postgres instance เดียวกันสำหรับ staging ทั้งหมด ➡️ สร้าง environment ใหม่ได้ง่ายและรวดเร็ว ➡️ ใช้ CPU ~2% และ RAM 14 GB จาก 32 GB ✅ ฟีเจอร์ของ Disco ที่ช่วยให้ใช้งานง่าย ➡️ deploy อัตโนมัติแบบ zero-downtime ➡️ SSL certificate อัตโนมัติสำหรับทุก branch ➡️ UI สำหรับดู log และจัดการ environment ➡️ ไม่ต้องเขียน automation เองเหมือนใช้ VPS แบบดิบ ๆ ✅ ผลลัพธ์ที่ได้ ➡️ ลดค่าใช้จ่ายจาก $3,000 เหลือ $55 ต่อเดือน ➡️ สร้าง staging ได้ทันทีโดยไม่ต้องขออนุญาต ➡️ เพิ่มความคล่องตัวในการพัฒนาและทดสอบ ➡️ เปลี่ยน mindset จาก “staging เป็นของแพง” เป็น “staging เป็นของฟรี” ‼️ ข้อควรระวังและคำเตือน ⛔ ต้องจัดการ DNS และ CDN ด้วยตัวเอง ⛔ ต้องดูแลเรื่อง security และ monitoring ของเซิร์ฟเวอร์ ⛔ หากเซิร์ฟเวอร์ล่ม ต้อง reprovision ใหม่เอง ⛔ ต้องปรับ networking ของแอปให้เข้ากับ Docker ⛔ Disco ยังไม่เหมาะกับ workload ที่ต้อง redundancy สูง https://disco.cloud/blog/how-idealistorg-replaced-a-3000mo-heroku-bill-with-a-55mo-server/
    DISCO.CLOUD
    How Idealist.org Replaced a $3,000/mo Heroku Bill with a $55/mo Server
    At Disco, we help teams escape expensive PaaS pricing while keeping the developer experience they love. This is the story of how Idealist.org, the world's largest nonprofit job board, tackled a common and expensive challenge: the rising cost of staging environments on Heroku. To give a sense of scale …
    0 ความคิดเห็น 0 การแบ่งปัน 129 มุมมอง 0 รีวิว
  • “ช่องโหว่ CVE-2025-59287 ใน WSUS – แฮกเกอร์เจาะระบบด้วย Cookie ปลอม! เสี่ยง RCE ระดับ SYSTEM”

    ช่องโหว่ใหม่ในระบบ Windows Server Update Services (WSUS) ของ Microsoft ถูกเปิดเผยในเดือนตุลาคม 2025 โดยนักวิจัยจาก HawkTrace ซึ่งระบุว่าเป็นช่องโหว่ระดับ “วิกฤต” รหัส CVE-2025-59287 ได้คะแนน CVSS สูงถึง 9.8 และมี PoC (proof-of-concept) เผยแพร่แล้ว

    ช่องโหว่นี้เกิดจากการที่ WSUS ใช้ฟังก์ชัน BinaryFormatter.Deserialize() เพื่อถอดรหัสข้อมูลใน AuthorizationCookie โดยไม่มีการตรวจสอบประเภทของ object ที่ถูก deserialize ซึ่งเปิดช่องให้แฮกเกอร์สามารถส่ง cookie ปลอมที่มี payload อันตรายเข้ามาได้

    เมื่อ WSUS server ได้รับ cookie ปลอมจาก SOAP request ไปยัง endpoint GetCookie() มันจะถอดรหัสข้อมูลด้วย AES-128-CBC แล้วส่งต่อไปยัง BinaryFormatter.Deserialize() โดยตรง ซึ่งทำให้เกิด Remote Code Execution (RCE) ด้วยสิทธิ์ SYSTEM ได้ทันที โดยไม่ต้องมีการยืนยันตัวตน

    ช่องโหว่นี้ส่งผลกระทบต่อ Windows Server ทุกเวอร์ชันตั้งแต่ 2012 ถึง 2025 รวมถึง Server Core editions และอาจนำไปสู่การโจมตีแบบ supply chain หาก WSUS ถูกใช้เพื่อแจกจ่ายอัปเดตให้เครื่องลูกข่ายจำนวนมาก

    Microsoft ได้ออกแพตช์ใน October 2025 Patch Tuesday เพื่อแก้ไขช่องโหว่นี้แล้ว และแนะนำให้องค์กรรีบอัปเดตทันที เพราะ WSUS เป็นระบบที่มีสิทธิ์สูงและเชื่อมต่อกับเครื่องลูกข่ายจำนวนมาก หากถูกเจาะ อาจนำไปสู่การควบคุมระบบทั้งหมด

    รายละเอียดช่องโหว่ CVE-2025-59287
    เกิดจาก unsafe deserialization ใน AuthorizationCookie
    ใช้ฟังก์ชัน BinaryFormatter.Deserialize() โดยไม่ตรวจสอบ type
    ถอดรหัส cookie ด้วย AES-128-CBC แล้ว deserialize โดยตรง
    เปิดให้เกิด Remote Code Execution ด้วยสิทธิ์ SYSTEM
    ได้คะแนน CVSS สูงถึง 9.8

    พฤติกรรมการโจมตี
    ส่ง SOAP request ไปยัง endpoint GetCookie()
    ใช้ cookie ปลอมที่มี payload อันตราย
    WSUS server ถอดรหัสแล้วรัน payload โดยไม่ตรวจสอบ
    สามารถ bypass authentication ได้
    PoC exploit ถูกเผยแพร่บน GitHub แล้ว

    การตอบสนองจาก Microsoft
    ออกแพตช์ใน October 2025 Patch Tuesday
    แก้ไขการใช้ BinaryFormatter และเพิ่มการตรวจสอบ type
    แนะนำให้อัปเดต WSUS server ทันที
    เตือนว่า WSUS เป็นระบบที่มีสิทธิ์สูงและเสี่ยงต่อ supply chain attack

    ขอบเขตผลกระทบ
    ส่งผลต่อ Windows Server 2012 ถึง 2025 ทุก edition
    รวมถึง Server Core installation
    อาจนำไปสู่การควบคุมเครื่องลูกข่ายทั้งหมด
    เป็นเป้าหมายสำคัญของแฮกเกอร์ระดับองค์กร

    https://securityonline.info/critical-wsus-flaw-cve-2025-59287-cvss-9-8-allows-unauthenticated-rce-via-unsafe-cookie-deserialization-poc-available/
    🛠️ “ช่องโหว่ CVE-2025-59287 ใน WSUS – แฮกเกอร์เจาะระบบด้วย Cookie ปลอม! เสี่ยง RCE ระดับ SYSTEM” ช่องโหว่ใหม่ในระบบ Windows Server Update Services (WSUS) ของ Microsoft ถูกเปิดเผยในเดือนตุลาคม 2025 โดยนักวิจัยจาก HawkTrace ซึ่งระบุว่าเป็นช่องโหว่ระดับ “วิกฤต” รหัส CVE-2025-59287 ได้คะแนน CVSS สูงถึง 9.8 และมี PoC (proof-of-concept) เผยแพร่แล้ว ช่องโหว่นี้เกิดจากการที่ WSUS ใช้ฟังก์ชัน BinaryFormatter.Deserialize() เพื่อถอดรหัสข้อมูลใน AuthorizationCookie โดยไม่มีการตรวจสอบประเภทของ object ที่ถูก deserialize ซึ่งเปิดช่องให้แฮกเกอร์สามารถส่ง cookie ปลอมที่มี payload อันตรายเข้ามาได้ เมื่อ WSUS server ได้รับ cookie ปลอมจาก SOAP request ไปยัง endpoint GetCookie() มันจะถอดรหัสข้อมูลด้วย AES-128-CBC แล้วส่งต่อไปยัง BinaryFormatter.Deserialize() โดยตรง ซึ่งทำให้เกิด Remote Code Execution (RCE) ด้วยสิทธิ์ SYSTEM ได้ทันที โดยไม่ต้องมีการยืนยันตัวตน ช่องโหว่นี้ส่งผลกระทบต่อ Windows Server ทุกเวอร์ชันตั้งแต่ 2012 ถึง 2025 รวมถึง Server Core editions และอาจนำไปสู่การโจมตีแบบ supply chain หาก WSUS ถูกใช้เพื่อแจกจ่ายอัปเดตให้เครื่องลูกข่ายจำนวนมาก Microsoft ได้ออกแพตช์ใน October 2025 Patch Tuesday เพื่อแก้ไขช่องโหว่นี้แล้ว และแนะนำให้องค์กรรีบอัปเดตทันที เพราะ WSUS เป็นระบบที่มีสิทธิ์สูงและเชื่อมต่อกับเครื่องลูกข่ายจำนวนมาก หากถูกเจาะ อาจนำไปสู่การควบคุมระบบทั้งหมด ✅ รายละเอียดช่องโหว่ CVE-2025-59287 ➡️ เกิดจาก unsafe deserialization ใน AuthorizationCookie ➡️ ใช้ฟังก์ชัน BinaryFormatter.Deserialize() โดยไม่ตรวจสอบ type ➡️ ถอดรหัส cookie ด้วย AES-128-CBC แล้ว deserialize โดยตรง ➡️ เปิดให้เกิด Remote Code Execution ด้วยสิทธิ์ SYSTEM ➡️ ได้คะแนน CVSS สูงถึง 9.8 ✅ พฤติกรรมการโจมตี ➡️ ส่ง SOAP request ไปยัง endpoint GetCookie() ➡️ ใช้ cookie ปลอมที่มี payload อันตราย ➡️ WSUS server ถอดรหัสแล้วรัน payload โดยไม่ตรวจสอบ ➡️ สามารถ bypass authentication ได้ ➡️ PoC exploit ถูกเผยแพร่บน GitHub แล้ว ✅ การตอบสนองจาก Microsoft ➡️ ออกแพตช์ใน October 2025 Patch Tuesday ➡️ แก้ไขการใช้ BinaryFormatter และเพิ่มการตรวจสอบ type ➡️ แนะนำให้อัปเดต WSUS server ทันที ➡️ เตือนว่า WSUS เป็นระบบที่มีสิทธิ์สูงและเสี่ยงต่อ supply chain attack ✅ ขอบเขตผลกระทบ ➡️ ส่งผลต่อ Windows Server 2012 ถึง 2025 ทุก edition ➡️ รวมถึง Server Core installation ➡️ อาจนำไปสู่การควบคุมเครื่องลูกข่ายทั้งหมด ➡️ เป็นเป้าหมายสำคัญของแฮกเกอร์ระดับองค์กร https://securityonline.info/critical-wsus-flaw-cve-2025-59287-cvss-9-8-allows-unauthenticated-rce-via-unsafe-cookie-deserialization-poc-available/
    SECURITYONLINE.INFO
    Critical WSUS Flaw (CVE-2025-59287, CVSS 9.8) Allows Unauthenticated RCE via Unsafe Cookie Deserialization, PoC Available
    A Critical RCE flaw (CVE-2025-59287, CVSS 9.8) in WSUS allows unauthenticated attackers SYSTEM access via AuthorizationCookie deserialization. The issue was patched in the October update.
    0 ความคิดเห็น 0 การแบ่งปัน 95 มุมมอง 0 รีวิว
  • Buy Verified Github Accounts

    https://globalseoshop.com/product/buy-github-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp:+1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Github_Accounts
    #Buy_old_Github_Accounts
    #Github_accounts_for_sale
    Buy Verified Github Accounts https://globalseoshop.com/product/buy-github-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Github_Accounts #Buy_old_Github_Accounts #Github_accounts_for_sale
    GLOBALSEOSHOP.COM
    Buy GitHub Accounts
    Buy GitHub Accounts From GlobalSeoShop If you are looking to buy GitHub accounts, look no further than Globalseoshop. With its reliable services and unique offerings, Globalseoshop is the go-to platform for acquiring premium-quality Buy GitHub accounts. When it comes to buying GitHub accounts, Globalseoshop is known for its commitment to providing unique and reliable services. The platform offers a wide range of packages tailored to suit various needs and budgets. Whether you are an individual developer looking for a single account or an organization in need of multiple accounts, Globalseoshop has got you covered One of the key advantages of buy GitHub accounts from Globalseoshop is the high level of account uniqueness. Each account is created using different email addresses, ensuring that they are distinct and authentic. This uniqueness adds great value to the accounts, making them more appealing to potential collaborators and clients. Moreover, Globalseoshop prides itself on its commitment to customer satisfaction. The platform offers a money-back guarantee, ensuring that you receive the desired quality and value from your purchase. Their prompt customer support is always ready to assist you with any queries or concerns. Very Cheap Buy GitHub Accounts Features: Each account is created using different email addresses 100% customer satisfaction Money-back guarantee Accounts from unique IPs Complete Account Access High level of account uniqueness On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 55 มุมมอง 0 รีวิว
  • Buy Verified Github Accounts

    https://globalseoshop.com/product/buy-github-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp:+1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Github_Accounts
    #Buy_old_Github_Accounts
    #Github_accounts_for_sale
    Buy Verified Github Accounts https://globalseoshop.com/product/buy-github-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Github_Accounts #Buy_old_Github_Accounts #Github_accounts_for_sale
    GLOBALSEOSHOP.COM
    Buy GitHub Accounts
    Buy GitHub Accounts From GlobalSeoShop If you are looking to buy GitHub accounts, look no further than Globalseoshop. With its reliable services and unique offerings, Globalseoshop is the go-to platform for acquiring premium-quality Buy GitHub accounts. When it comes to buying GitHub accounts, Globalseoshop is known for its commitment to providing unique and reliable services. The platform offers a wide range of packages tailored to suit various needs and budgets. Whether you are an individual developer looking for a single account or an organization in need of multiple accounts, Globalseoshop has got you covered One of the key advantages of buy GitHub accounts from Globalseoshop is the high level of account uniqueness. Each account is created using different email addresses, ensuring that they are distinct and authentic. This uniqueness adds great value to the accounts, making them more appealing to potential collaborators and clients. Moreover, Globalseoshop prides itself on its commitment to customer satisfaction. The platform offers a money-back guarantee, ensuring that you receive the desired quality and value from your purchase. Their prompt customer support is always ready to assist you with any queries or concerns. Very Cheap Buy GitHub Accounts Features: Each account is created using different email addresses 100% customer satisfaction Money-back guarantee Accounts from unique IPs Complete Account Access High level of account uniqueness On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 66 มุมมอง 0 รีวิว
  • He is now meant to be in charge of Gaza. Do you still not see the link between Digital ID at home & the industrial slaughter required to achieve Greater Israel abroad?

    Grater Israel was the real reason for Covid. That is why the US military ran it (on behalf of Mossad). The Digital ID is meant to punish those who protest against the violence. The war in Ukraine was meant to tie down Russia & prevent it coming to the side of the slaughtered populations where Israel is meant to expand. BlackRock, Palantir, all headed by Greater Israel advocates.

    That is why the US Military ran Operation Warp Speed, that is why Israel was the first country to embrace Pfizer injections, it was all part of the Greater Israel plan.

    They have been working at this since 1948. It was/ is all meant to come to fruition with Digital ID.

    https://x.com/robinmonotti/status/1974786611532460445

    ROBINMG
    He is now meant to be in charge of Gaza. Do you still not see the link between Digital ID at home & the industrial slaughter required to achieve Greater Israel abroad? Grater Israel was the real reason for Covid. That is why the US military ran it (on behalf of Mossad). The Digital ID is meant to punish those who protest against the violence. The war in Ukraine was meant to tie down Russia & prevent it coming to the side of the slaughtered populations where Israel is meant to expand. BlackRock, Palantir, all headed by Greater Israel advocates. That is why the US Military ran Operation Warp Speed, that is why Israel was the first country to embrace Pfizer injections, it was all part of the Greater Israel plan. They have been working at this since 1948. It was/ is all meant to come to fruition with Digital ID. https://x.com/robinmonotti/status/1974786611532460445 📱 ROBINMG
    0 ความคิดเห็น 0 การแบ่งปัน 104 มุมมอง 0 รีวิว
  • วัคซีนใหม่ๆ ที่กำลังจะออกมา จะต้องฉีดหลายๆ เข็ม
    คุณจึงต้องรู้ว่า ใครฉีดอะไรไปเท่าไหร่แล้ว หรือว่ายัง ?
    ดังนั้น คุณจึงต้องมี โครงสร้างพื้นฐาน ทางดิจิตัล ไอดี เพื่อการสาธารณสุข เผื่อว่าจะเกิด โรคระบาดใหญ่ ขึ้นอีกครั้ง

    ________________________________

    ตอนนี้เขาถูกกำหนด ให้รับผิดชอบฉนวนกาซา คุณยังไม่เห็นความเชื่อมโยง ระหว่าง Digital ID ในประเทศ กับการสังหารหมู่ทางอุตสาหกรรม ที่จำเป็นต่อการสร้าง Greater Israel ในต่างประเทศ หรอกหรือ ?

    อิสราเอลที่โหดร้ายยิ่งกว่า คือสาเหตุที่แท้จริงของโควิด นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนินการ (ในนามของมอสสาด) Digital ID ซึ่งมีไว้เพื่อลงโทษ ผู้ที่ประท้วงความรุนแรง สงครามในยูเครน มีไว้เพื่อผูกมัดรัสเซีย และป้องกันไม่ให้รัสเซีย เข้าข้างประชากรที่ถูกสังหาร ซึ่งเป็นที่ที่อิสราเอล ควรขยายอำนาจ

    BlackRock, Palantir ทั้งหมดนำโดยผู้สนับสนุน Greater Israel

    นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนิน Operation Warp Speed ​​นั่นคือเหตุผลที่อิสราเอล เป็นประเทศแรก ที่ยอมรับการฉีดวัคซีนของ Pfizer ซึ่งทั้งหมดนี้ เป็นส่วนหนึ่งของแผน Greater Israel

    พวกเขาดำเนินการเรื่องนี้ มาตั้งแต่ปี 1948 และทั้งหมดนี้ ก็เพื่อให้เกิดผลสำเร็จด้วย Digital ID
    วัคซีนใหม่ๆ ที่กำลังจะออกมา จะต้องฉีดหลายๆ เข็ม คุณจึงต้องรู้ว่า ใครฉีดอะไรไปเท่าไหร่แล้ว หรือว่ายัง ? ดังนั้น คุณจึงต้องมี โครงสร้างพื้นฐาน ทางดิจิตัล ไอดี เพื่อการสาธารณสุข เผื่อว่าจะเกิด โรคระบาดใหญ่ ขึ้นอีกครั้ง 😳 ________________________________ ตอนนี้เขาถูกกำหนด ให้รับผิดชอบฉนวนกาซา คุณยังไม่เห็นความเชื่อมโยง ระหว่าง Digital ID ในประเทศ กับการสังหารหมู่ทางอุตสาหกรรม ที่จำเป็นต่อการสร้าง Greater Israel ในต่างประเทศ หรอกหรือ ? อิสราเอลที่โหดร้ายยิ่งกว่า คือสาเหตุที่แท้จริงของโควิด นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนินการ (ในนามของมอสสาด) Digital ID ซึ่งมีไว้เพื่อลงโทษ ผู้ที่ประท้วงความรุนแรง สงครามในยูเครน มีไว้เพื่อผูกมัดรัสเซีย และป้องกันไม่ให้รัสเซีย เข้าข้างประชากรที่ถูกสังหาร ซึ่งเป็นที่ที่อิสราเอล ควรขยายอำนาจ BlackRock, Palantir ทั้งหมดนำโดยผู้สนับสนุน Greater Israel นั่นคือเหตุผลที่กองทัพสหรัฐฯ ดำเนิน Operation Warp Speed ​​นั่นคือเหตุผลที่อิสราเอล เป็นประเทศแรก ที่ยอมรับการฉีดวัคซีนของ Pfizer ซึ่งทั้งหมดนี้ เป็นส่วนหนึ่งของแผน Greater Israel พวกเขาดำเนินการเรื่องนี้ มาตั้งแต่ปี 1948 และทั้งหมดนี้ ก็เพื่อให้เกิดผลสำเร็จด้วย Digital ID
    0 ความคิดเห็น 0 การแบ่งปัน 132 มุมมอง 0 รีวิว
  • “จากปฏิเสธสู่การยอมรับ – ทำไมธนาคารใหญ่หันมาใช้ Blockchain จริงจังในปี 2025?”

    เมื่อก่อนธนาคารมอง Blockchain ว่าเป็นเทคโนโลยีเสี่ยงที่เชื่อมโยงกับคริปโตและความผันผวน แต่ในปี 2025 ทุกอย่างเปลี่ยนไป ธนาคารยักษ์ใหญ่อย่าง JPMorgan, HSBC และ Citi ไม่ได้แค่ทดลองใช้ Blockchain อีกต่อไป พวกเขากำลัง “สร้างระบบใหม่” บนเทคโนโลยีนี้จริงจัง

    เหตุผลหลักคือ Blockchain ช่วยแก้ปัญหาเก่า ๆ ที่ธนาคารเจอมานาน เช่น การโอนเงินข้ามประเทศที่ใช้เวลาหลายวัน, ค่าธรรมเนียมสูง, และระบบหลังบ้านที่ซับซ้อนและเปลืองทรัพยากร

    ตัวอย่างที่ชัดเจนคือ JPMorgan ใช้แพลตฟอร์ม Kinexys (ชื่อเดิม Onyx) ที่ประมวลผลธุรกรรมกว่า $1.5 ล้านล้านดอลลาร์ และมีการใช้งานเฉลี่ยวันละ $2 พันล้าน โดยใช้ JPM Coin เพื่อให้ลูกค้าธุรกิจโอนเงินแบบ real-time

    นอกจากเรื่องความเร็ว ยังมีเรื่องต้นทุนและความร่วมมือระหว่างธนาคาร เช่น SWIFT กำลังทดลองระบบ settlement ด้วย Blockchain ร่วมกับกว่า 30 สถาบัน และเครือข่าย Canton Network ที่มี Deutsche Bank และ Goldman Sachs ก็เปิดให้ธนาคารแลกเปลี่ยนสินทรัพย์ tokenized ได้โดยตรง

    ธนาคารยังหันมาใช้ Blockchain ในการจัดการข้อมูลลูกค้า เช่น KYC และการตรวจสอบการฉ้อโกง เพราะระบบนี้มีความโปร่งใสสูง ทุกธุรกรรมมี timestamp และสามารถตรวจสอบย้อนหลังได้ง่าย

    แม้จะยังไม่ใช่ทุกธนาคารที่ใช้ Blockchain เต็มรูปแบบ แต่แนวโน้มชัดเจนว่าเทคโนโลยีนี้กำลังกลายเป็น “โครงสร้างพื้นฐานใหม่” ของโลกการเงิน

    เหตุผลที่ธนาคารหันมาใช้ Blockchain
    ลดเวลาในการโอนเงินข้ามประเทศ
    ลดค่าธรรมเนียมและความผิดพลาด
    เพิ่มความโปร่งใสในการตรวจสอบธุรกรรม
    ใช้กับการจัดการข้อมูลลูกค้า เช่น KYC และ fraud detection
    รองรับการแลกเปลี่ยนสินทรัพย์ tokenized แบบ real-time

    ตัวอย่างการใช้งานจริง
    JPMorgan ใช้ Kinexys และ JPM Coin โอนเงินแบบทันที
    SWIFT ทดลองระบบ settlement ด้วย Blockchain
    Deutsche Bank และ BNP Paribas ใช้ Partior และ Canton Network
    HSBC เปิดบริการ tokenized deposit ในฮ่องกง
    Citi ใช้ smart contract เพื่อเร่งการโอนเงินและ trade finance

    ปัจจัยที่ทำให้ Blockchain น่าใช้มากขึ้น
    ระบบ permissioned ที่ใช้พลังงานต่ำ
    กฎระเบียบที่ชัดเจนขึ้นใน EU และสิงคโปร์
    Stablecoin และ digital token ที่มีเงินสดหนุนหลัง
    ธนาคารกลางกว่า 90% กำลังทดลอง CBDC
    เครื่องมือตรวจสอบ smart contract เพื่อความปลอดภัย

    https://hackread.com/why-banks-embrace-blockchain-once-rejected/
    🏦 “จากปฏิเสธสู่การยอมรับ – ทำไมธนาคารใหญ่หันมาใช้ Blockchain จริงจังในปี 2025?” เมื่อก่อนธนาคารมอง Blockchain ว่าเป็นเทคโนโลยีเสี่ยงที่เชื่อมโยงกับคริปโตและความผันผวน แต่ในปี 2025 ทุกอย่างเปลี่ยนไป ธนาคารยักษ์ใหญ่อย่าง JPMorgan, HSBC และ Citi ไม่ได้แค่ทดลองใช้ Blockchain อีกต่อไป พวกเขากำลัง “สร้างระบบใหม่” บนเทคโนโลยีนี้จริงจัง เหตุผลหลักคือ Blockchain ช่วยแก้ปัญหาเก่า ๆ ที่ธนาคารเจอมานาน เช่น การโอนเงินข้ามประเทศที่ใช้เวลาหลายวัน, ค่าธรรมเนียมสูง, และระบบหลังบ้านที่ซับซ้อนและเปลืองทรัพยากร ตัวอย่างที่ชัดเจนคือ JPMorgan ใช้แพลตฟอร์ม Kinexys (ชื่อเดิม Onyx) ที่ประมวลผลธุรกรรมกว่า $1.5 ล้านล้านดอลลาร์ และมีการใช้งานเฉลี่ยวันละ $2 พันล้าน โดยใช้ JPM Coin เพื่อให้ลูกค้าธุรกิจโอนเงินแบบ real-time นอกจากเรื่องความเร็ว ยังมีเรื่องต้นทุนและความร่วมมือระหว่างธนาคาร เช่น SWIFT กำลังทดลองระบบ settlement ด้วย Blockchain ร่วมกับกว่า 30 สถาบัน และเครือข่าย Canton Network ที่มี Deutsche Bank และ Goldman Sachs ก็เปิดให้ธนาคารแลกเปลี่ยนสินทรัพย์ tokenized ได้โดยตรง ธนาคารยังหันมาใช้ Blockchain ในการจัดการข้อมูลลูกค้า เช่น KYC และการตรวจสอบการฉ้อโกง เพราะระบบนี้มีความโปร่งใสสูง ทุกธุรกรรมมี timestamp และสามารถตรวจสอบย้อนหลังได้ง่าย แม้จะยังไม่ใช่ทุกธนาคารที่ใช้ Blockchain เต็มรูปแบบ แต่แนวโน้มชัดเจนว่าเทคโนโลยีนี้กำลังกลายเป็น “โครงสร้างพื้นฐานใหม่” ของโลกการเงิน ✅ เหตุผลที่ธนาคารหันมาใช้ Blockchain ➡️ ลดเวลาในการโอนเงินข้ามประเทศ ➡️ ลดค่าธรรมเนียมและความผิดพลาด ➡️ เพิ่มความโปร่งใสในการตรวจสอบธุรกรรม ➡️ ใช้กับการจัดการข้อมูลลูกค้า เช่น KYC และ fraud detection ➡️ รองรับการแลกเปลี่ยนสินทรัพย์ tokenized แบบ real-time ✅ ตัวอย่างการใช้งานจริง ➡️ JPMorgan ใช้ Kinexys และ JPM Coin โอนเงินแบบทันที ➡️ SWIFT ทดลองระบบ settlement ด้วย Blockchain ➡️ Deutsche Bank และ BNP Paribas ใช้ Partior และ Canton Network ➡️ HSBC เปิดบริการ tokenized deposit ในฮ่องกง ➡️ Citi ใช้ smart contract เพื่อเร่งการโอนเงินและ trade finance ✅ ปัจจัยที่ทำให้ Blockchain น่าใช้มากขึ้น ➡️ ระบบ permissioned ที่ใช้พลังงานต่ำ ➡️ กฎระเบียบที่ชัดเจนขึ้นใน EU และสิงคโปร์ ➡️ Stablecoin และ digital token ที่มีเงินสดหนุนหลัง ➡️ ธนาคารกลางกว่า 90% กำลังทดลอง CBDC ➡️ เครื่องมือตรวจสอบ smart contract เพื่อความปลอดภัย https://hackread.com/why-banks-embrace-blockchain-once-rejected/
    HACKREAD.COM
    Why Banks Are Embracing Blockchain They Once Rejected
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 190 มุมมอง 0 รีวิว
  • “Claude Code เปิดให้ใช้งานบนเว็บ – สั่งงานโค้ดจากเบราว์เซอร์ได้ทันที พร้อมระบบรันแบบ sandbox ปลอดภัยสูง”

    Anthropic เปิดตัวฟีเจอร์ใหม่ชื่อว่า Claude Code on the web ซึ่งเป็นการนำความสามารถด้านการเขียนโค้ดของ Claude มาไว้ในเบราว์เซอร์โดยตรง ไม่ต้องเปิดเทอร์มินัลหรือรัน local environment อีกต่อไป

    ผู้ใช้สามารถเชื่อมต่อกับ GitHub repositories แล้วสั่งงาน Claude ให้แก้บั๊ก, ทำงาน backend, หรือแม้แต่รันหลาย task พร้อมกันแบบ parallel ได้เลย โดยทุก session จะรันใน environment ที่แยกจากกัน พร้อมระบบติดตามความคืบหน้าแบบ real-time และสามารถปรับคำสั่งระหว่างรันได้

    ฟีเจอร์นี้ยังรองรับการใช้งานบนมือถือผ่านแอป iOS ของ Claude ซึ่งเปิดให้ทดลองใช้ในช่วง beta เพื่อเก็บ feedback จากนักพัฒนา

    ด้านความปลอดภัย Claude Code ใช้ระบบ sandbox ที่มีการจำกัด network และ filesystem อย่างเข้มงวด โดย Git interaction จะผ่าน proxy ที่ปลอดภัย และผู้ใช้สามารถกำหนดว่า Claude จะเชื่อมต่อกับ domain ใดได้บ้าง เช่น npm หรือ API ภายนอก

    ฟีเจอร์นี้เปิดให้ใช้งานในรูปแบบ research preview สำหรับผู้ใช้ระดับ Pro และ Max โดยสามารถเริ่มต้นได้ที่ claude.com/code

    Claude Code บนเว็บ
    สั่งงานโค้ดจากเบราว์เซอร์โดยไม่ต้องเปิดเทอร์มินัล
    เชื่อมต่อกับ GitHub repositories ได้โดยตรง
    รันหลาย task พร้อมกันแบบ parallel
    มีระบบติดตามความคืบหน้าและปรับคำสั่งระหว่างรันได้
    สร้าง PR และสรุปการเปลี่ยนแปลงให้อัตโนมัติ

    การใช้งานบนมือถือ
    รองรับผ่านแอป Claude บน iOS
    เปิดให้ทดลองใช้ในช่วง beta
    เก็บ feedback เพื่อปรับปรุงประสบการณ์ใช้งาน

    ความปลอดภัยของระบบ
    รันใน sandbox ที่แยกจากกัน
    จำกัด network และ filesystem
    Git interaction ผ่าน proxy ที่ปลอดภัย
    ผู้ใช้สามารถกำหนด domain ที่ Claude เชื่อมต่อได้
    รองรับการดาวน์โหลด dependency เช่น npm เพื่อรัน test

    การเริ่มต้นใช้งาน
    เปิดให้ใช้ในรูปแบบ research preview
    รองรับผู้ใช้ระดับ Pro และ Max
    เริ่มต้นได้ที่ claude.com/code
    การใช้งานบนคลาวด์แชร์ rate limit กับ Claude Code แบบอื่น

    https://www.anthropic.com/news/claude-code-on-the-web
    💻 “Claude Code เปิดให้ใช้งานบนเว็บ – สั่งงานโค้ดจากเบราว์เซอร์ได้ทันที พร้อมระบบรันแบบ sandbox ปลอดภัยสูง” Anthropic เปิดตัวฟีเจอร์ใหม่ชื่อว่า Claude Code on the web ซึ่งเป็นการนำความสามารถด้านการเขียนโค้ดของ Claude มาไว้ในเบราว์เซอร์โดยตรง ไม่ต้องเปิดเทอร์มินัลหรือรัน local environment อีกต่อไป ผู้ใช้สามารถเชื่อมต่อกับ GitHub repositories แล้วสั่งงาน Claude ให้แก้บั๊ก, ทำงาน backend, หรือแม้แต่รันหลาย task พร้อมกันแบบ parallel ได้เลย โดยทุก session จะรันใน environment ที่แยกจากกัน พร้อมระบบติดตามความคืบหน้าแบบ real-time และสามารถปรับคำสั่งระหว่างรันได้ ฟีเจอร์นี้ยังรองรับการใช้งานบนมือถือผ่านแอป iOS ของ Claude ซึ่งเปิดให้ทดลองใช้ในช่วง beta เพื่อเก็บ feedback จากนักพัฒนา ด้านความปลอดภัย Claude Code ใช้ระบบ sandbox ที่มีการจำกัด network และ filesystem อย่างเข้มงวด โดย Git interaction จะผ่าน proxy ที่ปลอดภัย และผู้ใช้สามารถกำหนดว่า Claude จะเชื่อมต่อกับ domain ใดได้บ้าง เช่น npm หรือ API ภายนอก ฟีเจอร์นี้เปิดให้ใช้งานในรูปแบบ research preview สำหรับผู้ใช้ระดับ Pro และ Max โดยสามารถเริ่มต้นได้ที่ claude.com/code ✅ Claude Code บนเว็บ ➡️ สั่งงานโค้ดจากเบราว์เซอร์โดยไม่ต้องเปิดเทอร์มินัล ➡️ เชื่อมต่อกับ GitHub repositories ได้โดยตรง ➡️ รันหลาย task พร้อมกันแบบ parallel ➡️ มีระบบติดตามความคืบหน้าและปรับคำสั่งระหว่างรันได้ ➡️ สร้าง PR และสรุปการเปลี่ยนแปลงให้อัตโนมัติ ✅ การใช้งานบนมือถือ ➡️ รองรับผ่านแอป Claude บน iOS ➡️ เปิดให้ทดลองใช้ในช่วง beta ➡️ เก็บ feedback เพื่อปรับปรุงประสบการณ์ใช้งาน ✅ ความปลอดภัยของระบบ ➡️ รันใน sandbox ที่แยกจากกัน ➡️ จำกัด network และ filesystem ➡️ Git interaction ผ่าน proxy ที่ปลอดภัย ➡️ ผู้ใช้สามารถกำหนด domain ที่ Claude เชื่อมต่อได้ ➡️ รองรับการดาวน์โหลด dependency เช่น npm เพื่อรัน test ✅ การเริ่มต้นใช้งาน ➡️ เปิดให้ใช้ในรูปแบบ research preview ➡️ รองรับผู้ใช้ระดับ Pro และ Max ➡️ เริ่มต้นได้ที่ claude.com/code ➡️ การใช้งานบนคลาวด์แชร์ rate limit กับ Claude Code แบบอื่น https://www.anthropic.com/news/claude-code-on-the-web
    WWW.ANTHROPIC.COM
    Claude Code on the web
    Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
    0 ความคิดเห็น 0 การแบ่งปัน 145 มุมมอง 0 รีวิว
  • “GitLab ออกแพตช์ด่วน! อุดช่องโหว่ Runner Hijacking (CVE-2025-11702) และ DoS หลายรายการ – เสี่ยงโดนแฮก CI/CD Pipeline”

    GitLab ได้ปล่อยอัปเดตเวอร์ชัน 18.5.1, 18.4.3 และ 18.3.5 สำหรับทั้ง Community Edition (CE) และ Enterprise Edition (EE) เพื่อแก้ไขช่องโหว่ร้ายแรงหลายรายการ โดยเฉพาะช่องโหว่ CVE-2025-11702 ซึ่งเป็นช่องโหว่ระดับสูง (CVSS 8.5) ที่เปิดทางให้ผู้ใช้ที่มีสิทธิ์สามารถ “แฮกรันเนอร์” จากโปรเจกต์อื่นใน GitLab instance เดียวกันได้

    ช่องโหว่นี้เกิดจากการควบคุมสิทธิ์ใน API ของ runner ที่ไม่รัดกุม ทำให้ผู้โจมตีสามารถเข้าควบคุม runner ที่ใช้ในการ build และ deploy ได้ ซึ่งอาจนำไปสู่การขโมย secrets, การ inject โค้ดอันตราย หรือการควบคุม pipeline ทั้งระบบ

    นอกจากนี้ยังมีช่องโหว่ DoS อีก 3 รายการที่เปิดให้ผู้ใช้ที่ไม่ได้รับการยืนยันตัวตนสามารถโจมตีระบบให้ล่มได้ เช่น การส่ง payload พิเศษผ่าน event collector, การใช้ GraphQL ร่วมกับ JSON ที่ผิดรูปแบบ และการอัปโหลดไฟล์ขนาดใหญ่ไปยัง endpoint เฉพาะ

    GitLab ยังแก้ไขช่องโหว่อื่น ๆ เช่น การอนุญาต pipeline โดยไม่ได้รับสิทธิ์ (CVE-2025-11971) และการขอเข้าร่วมโปรเจกต์ผ่าน workflow ที่ผิดพลาด (CVE-2025-6601)

    ช่องโหว่หลักที่ถูกแก้ไข
    CVE-2025-11702 – Runner Hijacking ผ่าน API (CVSS 8.5)
    CVE-2025-10497 – DoS ผ่าน event collector (CVSS 7.5)
    CVE-2025-11447 – DoS ผ่าน GraphQL JSON validation (CVSS 7.5)
    CVE-2025-11974 – DoS ผ่านการอัปโหลดไฟล์ใหญ่ (CVSS 6.5)
    CVE-2025-11971 – Trigger pipeline โดยไม่ได้รับอนุญาต
    CVE-2025-6601 – Workflow error ทำให้เข้าถึงโปรเจกต์โดยไม่ได้รับอนุญาต

    เวอร์ชันที่ได้รับผลกระทบ
    GitLab CE/EE ตั้งแต่ 11.0 ถึงก่อน 18.3.5
    เวอร์ชัน 18.4 ก่อน 18.4.3 และ 18.5 ก่อน 18.5.1
    ผู้ใช้ควรอัปเดตเป็นเวอร์ชันล่าสุดทันที

    ความเสี่ยงต่อระบบ CI/CD
    ผู้โจมตีสามารถควบคุม runner และ pipeline ได้
    อาจขโมย secrets หรือ inject โค้ดอันตราย
    DoS ทำให้ระบบไม่สามารถให้บริการได้
    ส่งผลต่อความต่อเนื่องและความปลอดภัยของการ deploy

    https://securityonline.info/gitlab-patches-high-runner-hijacking-flaw-cve-2025-11702-and-multiple-dos-vulnerabilities/
    🛠️ “GitLab ออกแพตช์ด่วน! อุดช่องโหว่ Runner Hijacking (CVE-2025-11702) และ DoS หลายรายการ – เสี่ยงโดนแฮก CI/CD Pipeline” GitLab ได้ปล่อยอัปเดตเวอร์ชัน 18.5.1, 18.4.3 และ 18.3.5 สำหรับทั้ง Community Edition (CE) และ Enterprise Edition (EE) เพื่อแก้ไขช่องโหว่ร้ายแรงหลายรายการ โดยเฉพาะช่องโหว่ CVE-2025-11702 ซึ่งเป็นช่องโหว่ระดับสูง (CVSS 8.5) ที่เปิดทางให้ผู้ใช้ที่มีสิทธิ์สามารถ “แฮกรันเนอร์” จากโปรเจกต์อื่นใน GitLab instance เดียวกันได้ ช่องโหว่นี้เกิดจากการควบคุมสิทธิ์ใน API ของ runner ที่ไม่รัดกุม ทำให้ผู้โจมตีสามารถเข้าควบคุม runner ที่ใช้ในการ build และ deploy ได้ ซึ่งอาจนำไปสู่การขโมย secrets, การ inject โค้ดอันตราย หรือการควบคุม pipeline ทั้งระบบ นอกจากนี้ยังมีช่องโหว่ DoS อีก 3 รายการที่เปิดให้ผู้ใช้ที่ไม่ได้รับการยืนยันตัวตนสามารถโจมตีระบบให้ล่มได้ เช่น การส่ง payload พิเศษผ่าน event collector, การใช้ GraphQL ร่วมกับ JSON ที่ผิดรูปแบบ และการอัปโหลดไฟล์ขนาดใหญ่ไปยัง endpoint เฉพาะ GitLab ยังแก้ไขช่องโหว่อื่น ๆ เช่น การอนุญาต pipeline โดยไม่ได้รับสิทธิ์ (CVE-2025-11971) และการขอเข้าร่วมโปรเจกต์ผ่าน workflow ที่ผิดพลาด (CVE-2025-6601) ✅ ช่องโหว่หลักที่ถูกแก้ไข ➡️ CVE-2025-11702 – Runner Hijacking ผ่าน API (CVSS 8.5) ➡️ CVE-2025-10497 – DoS ผ่าน event collector (CVSS 7.5) ➡️ CVE-2025-11447 – DoS ผ่าน GraphQL JSON validation (CVSS 7.5) ➡️ CVE-2025-11974 – DoS ผ่านการอัปโหลดไฟล์ใหญ่ (CVSS 6.5) ➡️ CVE-2025-11971 – Trigger pipeline โดยไม่ได้รับอนุญาต ➡️ CVE-2025-6601 – Workflow error ทำให้เข้าถึงโปรเจกต์โดยไม่ได้รับอนุญาต ✅ เวอร์ชันที่ได้รับผลกระทบ ➡️ GitLab CE/EE ตั้งแต่ 11.0 ถึงก่อน 18.3.5 ➡️ เวอร์ชัน 18.4 ก่อน 18.4.3 และ 18.5 ก่อน 18.5.1 ➡️ ผู้ใช้ควรอัปเดตเป็นเวอร์ชันล่าสุดทันที ✅ ความเสี่ยงต่อระบบ CI/CD ➡️ ผู้โจมตีสามารถควบคุม runner และ pipeline ได้ ➡️ อาจขโมย secrets หรือ inject โค้ดอันตราย ➡️ DoS ทำให้ระบบไม่สามารถให้บริการได้ ➡️ ส่งผลต่อความต่อเนื่องและความปลอดภัยของการ deploy https://securityonline.info/gitlab-patches-high-runner-hijacking-flaw-cve-2025-11702-and-multiple-dos-vulnerabilities/
    SECURITYONLINE.INFO
    GitLab Patches High Runner Hijacking Flaw (CVE-2025-11702) and Multiple DoS Vulnerabilities
    GitLab patched a critical runner hijacking flaw (CVE-2025-11702) allowing authenticated users to compromise CI/CD pipelines, plus three unauthenticated DoS vulnerabilities.
    0 ความคิดเห็น 0 การแบ่งปัน 101 มุมมอง 0 รีวิว
  • “DeepSeek-OCR เปลี่ยนข้อความเป็นภาพ ลดการใช้ทรัพยากร AI ได้ถึง 20 เท่า – เปิดทางสู่โมเดลยักษ์ราคาประหยัด!”

    DeepSeek AI จากจีนเปิดตัวโมเดลใหม่ชื่อว่า “DeepSeek-OCR” ที่ใช้เทคนิคสุดล้ำในการจัดการข้อความจำนวนมาก โดยแทนที่จะป้อนข้อความเข้าโมเดลโดยตรง พวกเขาเลือก “แปลงข้อความเป็นภาพ” ก่อน แล้วค่อยให้โมเดลตีความจากภาพนั้นอีกที

    ฟังดูย้อนยุค แต่ผลลัพธ์กลับน่าทึ่ง เพราะวิธีนี้ช่วยลดจำนวน token ที่ต้องใช้ในการประมวลผลได้ถึง 7–20 เท่า! ซึ่งหมายความว่าโมเดลสามารถจัดการข้อมูลปริมาณมหาศาลได้โดยใช้ทรัพยากรน้อยลงมาก ทั้งในด้านเวลาและค่าใช้จ่าย

    ระบบนี้ประกอบด้วยสองส่วนหลัก:
    DeepEncoder: แปลงข้อความเป็นภาพความละเอียดสูง
    DeepSeek3B-MoE-A570M: ทำหน้าที่ตีความภาพเหล่านั้นกลับมาเป็นข้อมูลที่เข้าใจได้

    เทคนิคนี้เหมาะมากกับข้อมูลที่เป็นตาราง กราฟ หรือเอกสารที่มีโครงสร้างซับซ้อน เช่น ข้อมูลทางการเงิน วิทยาศาสตร์ หรือการแพทย์ โดยเฉพาะในงานที่ต้องใช้ context ยาว ๆ

    ในการทดสอบ benchmark พบว่า ถ้าลด token น้อยกว่า 10 เท่า ความแม่นยำยังอยู่ที่ 97% แต่ถ้าลดถึง 20 เท่า ความแม่นยำจะลดลงเหลือ 60% ซึ่งแสดงให้เห็นว่ามีจุดสมดุลที่ต้องเลือกให้เหมาะกับงาน

    DeepSeek-OCR ยังถูกเสนอให้ใช้ในการสร้าง training data สำหรับโมเดลในอนาคต เพราะสามารถจัดการข้อมูลจำนวนมากได้เร็วขึ้น แม้จะมีความเสี่ยงเรื่องความแม่นยำที่ลดลงเล็กน้อย

    จุดเด่นของ DeepSeek-OCR
    แปลงข้อความเป็นภาพก่อนป้อนเข้าโมเดล
    ลดการใช้ token ได้ถึง 7–20 เท่า
    ใช้ DeepEncoder และ DeepSeek3B-MoE-A570M ร่วมกัน
    เหมาะกับข้อมูลที่มีโครงสร้าง เช่น ตาราง กราฟ เอกสาร
    ช่วยลดต้นทุนและเวลาในการประมวลผลโมเดลขนาดใหญ่
    ใช้ได้ดีในงานที่ต้องการ context ยาว เช่น LLM

    ผลการทดสอบและการใช้งาน
    ลด token <10 เท่า → ความแม่นยำ 97%
    ลด token 20 เท่า → ความแม่นยำลดเหลือ 60%
    มีจุดสมดุลระหว่างการลดต้นทุนและความแม่นยำ
    เสนอให้ใช้สร้าง training data สำหรับโมเดลในอนาคต
    เหมาะกับงานด้านการเงิน วิทยาศาสตร์ และการแพทย์

    ความเคลื่อนไหวของ DeepSeek
    เป็นโมเดลจากจีนที่สร้างความฮือฮาในปี 2025
    ใช้ทรัพยากรน้อยกว่า ChatGPT และ Gemini
    เปิดให้ใช้งานผ่าน Hugging Face และ GitHub
    พัฒนาอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพและลดต้นทุน

    https://www.tomshardware.com/tech-industry/artificial-intelligence/new-deepseek-model-drastically-reduces-resource-usage-by-converting-text-and-documents-into-images-vision-text-compression-uses-up-to-20-times-fewer-tokens
    🧠 “DeepSeek-OCR เปลี่ยนข้อความเป็นภาพ ลดการใช้ทรัพยากร AI ได้ถึง 20 เท่า – เปิดทางสู่โมเดลยักษ์ราคาประหยัด!” DeepSeek AI จากจีนเปิดตัวโมเดลใหม่ชื่อว่า “DeepSeek-OCR” ที่ใช้เทคนิคสุดล้ำในการจัดการข้อความจำนวนมาก โดยแทนที่จะป้อนข้อความเข้าโมเดลโดยตรง พวกเขาเลือก “แปลงข้อความเป็นภาพ” ก่อน แล้วค่อยให้โมเดลตีความจากภาพนั้นอีกที ฟังดูย้อนยุค แต่ผลลัพธ์กลับน่าทึ่ง เพราะวิธีนี้ช่วยลดจำนวน token ที่ต้องใช้ในการประมวลผลได้ถึง 7–20 เท่า! ซึ่งหมายความว่าโมเดลสามารถจัดการข้อมูลปริมาณมหาศาลได้โดยใช้ทรัพยากรน้อยลงมาก ทั้งในด้านเวลาและค่าใช้จ่าย ระบบนี้ประกอบด้วยสองส่วนหลัก: 💻 DeepEncoder: แปลงข้อความเป็นภาพความละเอียดสูง 💻 DeepSeek3B-MoE-A570M: ทำหน้าที่ตีความภาพเหล่านั้นกลับมาเป็นข้อมูลที่เข้าใจได้ เทคนิคนี้เหมาะมากกับข้อมูลที่เป็นตาราง กราฟ หรือเอกสารที่มีโครงสร้างซับซ้อน เช่น ข้อมูลทางการเงิน วิทยาศาสตร์ หรือการแพทย์ โดยเฉพาะในงานที่ต้องใช้ context ยาว ๆ ในการทดสอบ benchmark พบว่า ถ้าลด token น้อยกว่า 10 เท่า ความแม่นยำยังอยู่ที่ 97% แต่ถ้าลดถึง 20 เท่า ความแม่นยำจะลดลงเหลือ 60% ซึ่งแสดงให้เห็นว่ามีจุดสมดุลที่ต้องเลือกให้เหมาะกับงาน DeepSeek-OCR ยังถูกเสนอให้ใช้ในการสร้าง training data สำหรับโมเดลในอนาคต เพราะสามารถจัดการข้อมูลจำนวนมากได้เร็วขึ้น แม้จะมีความเสี่ยงเรื่องความแม่นยำที่ลดลงเล็กน้อย ✅ จุดเด่นของ DeepSeek-OCR ➡️ แปลงข้อความเป็นภาพก่อนป้อนเข้าโมเดล ➡️ ลดการใช้ token ได้ถึง 7–20 เท่า ➡️ ใช้ DeepEncoder และ DeepSeek3B-MoE-A570M ร่วมกัน ➡️ เหมาะกับข้อมูลที่มีโครงสร้าง เช่น ตาราง กราฟ เอกสาร ➡️ ช่วยลดต้นทุนและเวลาในการประมวลผลโมเดลขนาดใหญ่ ➡️ ใช้ได้ดีในงานที่ต้องการ context ยาว เช่น LLM ✅ ผลการทดสอบและการใช้งาน ➡️ ลด token <10 เท่า → ความแม่นยำ 97% ➡️ ลด token 20 เท่า → ความแม่นยำลดเหลือ 60% ➡️ มีจุดสมดุลระหว่างการลดต้นทุนและความแม่นยำ ➡️ เสนอให้ใช้สร้าง training data สำหรับโมเดลในอนาคต ➡️ เหมาะกับงานด้านการเงิน วิทยาศาสตร์ และการแพทย์ ✅ ความเคลื่อนไหวของ DeepSeek ➡️ เป็นโมเดลจากจีนที่สร้างความฮือฮาในปี 2025 ➡️ ใช้ทรัพยากรน้อยกว่า ChatGPT และ Gemini ➡️ เปิดให้ใช้งานผ่าน Hugging Face และ GitHub ➡️ พัฒนาอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพและลดต้นทุน https://www.tomshardware.com/tech-industry/artificial-intelligence/new-deepseek-model-drastically-reduces-resource-usage-by-converting-text-and-documents-into-images-vision-text-compression-uses-up-to-20-times-fewer-tokens
    0 ความคิดเห็น 0 การแบ่งปัน 103 มุมมอง 0 รีวิว
  • “TSMC ยังเหนียวแน่น! Qualcomm และ MediaTek ไม่น่าจะเปลี่ยนไปใช้ Samsung สำหรับชิป 2nm – เหตุผลทั้งเทคนิคและเวลา”

    หลายคนอาจเคยได้ยินข่าวลือว่า Qualcomm กับ MediaTek อาจเปลี่ยนไปใช้ Samsung Foundry สำหรับการผลิตชิป 2nm แทน TSMC เพราะราคาที่ TSMC ตั้งไว้สูงถึง $30,000 ต่อแผ่นเวเฟอร์ ทำให้ดูเหมือนว่าทั้งสองบริษัทอาจหาทางเลือกใหม่เพื่อประหยัดต้นทุน

    แต่ล่าสุดมีรายงานจาก DigiTimes ที่อ้างแหล่งข่าวในสายการผลิตว่า “ไม่น่าเป็นไปได้” ที่ Qualcomm และ MediaTek จะเปลี่ยนไปใช้ Samsung ในเร็ว ๆ นี้ โดยมีเหตุผลหลักสองข้อคือ “เรื่องเวลา” และ “ความพร้อมของเทคโนโลยี”

    แม้ว่า MediaTek จะประกาศว่าได้ tape-out ชิป 2nm แล้วและจะเปิดตัวปลายปี 2026 แต่ไม่ได้ระบุว่าใช้โรงงานไหน ซึ่งทำให้เกิดการคาดเดาว่าอาจเป็น Samsung แต่แหล่งข่าวบอกว่า ถ้าจะใช้เทคโนโลยี GAA 2nm ของ Samsung จริง ๆ ก็ต้องรอถึงปี 2027 ถึงจะพร้อมใช้งานในเชิงพาณิชย์

    อีกประเด็นคือเรื่องของการตามให้ทัน Apple ซึ่งเป็นผู้นำด้านเทคโนโลยีการผลิตชิป โดย Qualcomm และ MediaTek ไม่อยากปล่อยให้ Apple นำหน้าไปอีกหนึ่งเจเนอเรชัน จึงเลือกที่จะอยู่กับ TSMC แม้ราคาจะสูง แต่ก็ถือว่า “รับได้” เพื่อรักษาความเร็วและคุณภาพของผลิตภัณฑ์

    นอกจากนี้ยังมีข้อมูลว่า Qualcomm เคยขอ sample ชิป 2nm จาก Samsung เพื่อทดสอบ ซึ่งอาจเป็นการเตรียมความพร้อมสำหรับอนาคตมากกว่าการเปลี่ยนโรงงานในตอนนี้

    สถานการณ์การผลิตชิป 2nm
    TSMC ยังคงเป็นผู้ผลิตหลักของ Qualcomm และ MediaTek
    ราคาชิป 2nm จาก TSMC อยู่ที่ $30,000 ต่อเวเฟอร์
    MediaTek tape-out ชิป 2nm แล้ว เตรียมเปิดตัวปลายปี 2026
    Samsung ยังไม่พร้อมผลิตชิป 2nm GAA จนกว่าจะถึงปี 2027
    Qualcomm เคยขอ sample จาก Samsung เพื่อทดสอบ
    ทั้งสองบริษัทต้องการตามให้ทัน Apple ในด้านเทคโนโลยี
    การอยู่กับ TSMC ช่วยรักษาคุณภาพและความเร็วในการพัฒนา

    ความเคลื่อนไหวในอุตสาหกรรม
    Apple เคยใช้ TSMC N3B สำหรับ M3, M3 Pro และ M3 Max
    Tape-out ของ Apple มีต้นทุนสูงถึง $1 พันล้าน
    Snapdragon 8 Gen 3 และ Dimensity 9300 ใช้ TSMC 3nm รุ่นแรก
    Snapdragon 8 Elite Gen 5 และ Dimensity 9500 มีต้นทุนสูงขึ้น
    อาจมีการใช้ dual-sourcing ในอนาคตระหว่าง TSMC และ Samsung

    https://wccftech.com/qualcomm-and-mediatek-are-unlikely-to-switch-to-samsung-for-2nm-chip-orders/
    🔧 “TSMC ยังเหนียวแน่น! Qualcomm และ MediaTek ไม่น่าจะเปลี่ยนไปใช้ Samsung สำหรับชิป 2nm – เหตุผลทั้งเทคนิคและเวลา” หลายคนอาจเคยได้ยินข่าวลือว่า Qualcomm กับ MediaTek อาจเปลี่ยนไปใช้ Samsung Foundry สำหรับการผลิตชิป 2nm แทน TSMC เพราะราคาที่ TSMC ตั้งไว้สูงถึง $30,000 ต่อแผ่นเวเฟอร์ ทำให้ดูเหมือนว่าทั้งสองบริษัทอาจหาทางเลือกใหม่เพื่อประหยัดต้นทุน แต่ล่าสุดมีรายงานจาก DigiTimes ที่อ้างแหล่งข่าวในสายการผลิตว่า “ไม่น่าเป็นไปได้” ที่ Qualcomm และ MediaTek จะเปลี่ยนไปใช้ Samsung ในเร็ว ๆ นี้ โดยมีเหตุผลหลักสองข้อคือ “เรื่องเวลา” และ “ความพร้อมของเทคโนโลยี” แม้ว่า MediaTek จะประกาศว่าได้ tape-out ชิป 2nm แล้วและจะเปิดตัวปลายปี 2026 แต่ไม่ได้ระบุว่าใช้โรงงานไหน ซึ่งทำให้เกิดการคาดเดาว่าอาจเป็น Samsung แต่แหล่งข่าวบอกว่า ถ้าจะใช้เทคโนโลยี GAA 2nm ของ Samsung จริง ๆ ก็ต้องรอถึงปี 2027 ถึงจะพร้อมใช้งานในเชิงพาณิชย์ อีกประเด็นคือเรื่องของการตามให้ทัน Apple ซึ่งเป็นผู้นำด้านเทคโนโลยีการผลิตชิป โดย Qualcomm และ MediaTek ไม่อยากปล่อยให้ Apple นำหน้าไปอีกหนึ่งเจเนอเรชัน จึงเลือกที่จะอยู่กับ TSMC แม้ราคาจะสูง แต่ก็ถือว่า “รับได้” เพื่อรักษาความเร็วและคุณภาพของผลิตภัณฑ์ นอกจากนี้ยังมีข้อมูลว่า Qualcomm เคยขอ sample ชิป 2nm จาก Samsung เพื่อทดสอบ ซึ่งอาจเป็นการเตรียมความพร้อมสำหรับอนาคตมากกว่าการเปลี่ยนโรงงานในตอนนี้ ✅ สถานการณ์การผลิตชิป 2nm ➡️ TSMC ยังคงเป็นผู้ผลิตหลักของ Qualcomm และ MediaTek ➡️ ราคาชิป 2nm จาก TSMC อยู่ที่ $30,000 ต่อเวเฟอร์ ➡️ MediaTek tape-out ชิป 2nm แล้ว เตรียมเปิดตัวปลายปี 2026 ➡️ Samsung ยังไม่พร้อมผลิตชิป 2nm GAA จนกว่าจะถึงปี 2027 ➡️ Qualcomm เคยขอ sample จาก Samsung เพื่อทดสอบ ➡️ ทั้งสองบริษัทต้องการตามให้ทัน Apple ในด้านเทคโนโลยี ➡️ การอยู่กับ TSMC ช่วยรักษาคุณภาพและความเร็วในการพัฒนา ✅ ความเคลื่อนไหวในอุตสาหกรรม ➡️ Apple เคยใช้ TSMC N3B สำหรับ M3, M3 Pro และ M3 Max ➡️ Tape-out ของ Apple มีต้นทุนสูงถึง $1 พันล้าน ➡️ Snapdragon 8 Gen 3 และ Dimensity 9300 ใช้ TSMC 3nm รุ่นแรก ➡️ Snapdragon 8 Elite Gen 5 และ Dimensity 9500 มีต้นทุนสูงขึ้น ➡️ อาจมีการใช้ dual-sourcing ในอนาคตระหว่าง TSMC และ Samsung https://wccftech.com/qualcomm-and-mediatek-are-unlikely-to-switch-to-samsung-for-2nm-chip-orders/
    WCCFTECH.COM
    Qualcomm, MediaTek Switching To Samsung Foundry For 2nm Chip Orders Seems Unlikely, Supply Chain Sources Believe That Timing Makes The Switch Impossible
    A new report says that supply chain sources are unconvinced that Qualcomm and MediaTek will begin placing 2nm chip orders with Samsung
    0 ความคิดเห็น 0 การแบ่งปัน 71 มุมมอง 0 รีวิว
  • Buy Verified Github Accounts

    https://globalseoshop.com/product/buy-github-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp:+1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Github_Accounts
    #Buy_old_Github_Accounts
    #Github_accounts_for_sale
    Buy Verified Github Accounts https://globalseoshop.com/product/buy-github-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Github_Accounts #Buy_old_Github_Accounts #Github_accounts_for_sale
    GLOBALSEOSHOP.COM
    Buy GitHub Accounts
    Buy GitHub Accounts From GlobalSeoShop If you are looking to buy GitHub accounts, look no further than Globalseoshop. With its reliable services and unique offerings, Globalseoshop is the go-to platform for acquiring premium-quality Buy GitHub accounts. When it comes to buying GitHub accounts, Globalseoshop is known for its commitment to providing unique and reliable services. The platform offers a wide range of packages tailored to suit various needs and budgets. Whether you are an individual developer looking for a single account or an organization in need of multiple accounts, Globalseoshop has got you covered One of the key advantages of buy GitHub accounts from Globalseoshop is the high level of account uniqueness. Each account is created using different email addresses, ensuring that they are distinct and authentic. This uniqueness adds great value to the accounts, making them more appealing to potential collaborators and clients. Moreover, Globalseoshop prides itself on its commitment to customer satisfaction. The platform offers a money-back guarantee, ensuring that you receive the desired quality and value from your purchase. Their prompt customer support is always ready to assist you with any queries or concerns. Very Cheap Buy GitHub Accounts Features: Each account is created using different email addresses 100% customer satisfaction Money-back guarantee Accounts from unique IPs Complete Account Access High level of account uniqueness On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • Buy Verified Github Accounts

    https://globalseoshop.com/product/buy-github-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp:+1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Github_Accounts
    #Buy_old_Github_Accounts
    #Github_accounts_for_sale
    Buy Verified Github Accounts https://globalseoshop.com/product/buy-github-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Github_Accounts #Buy_old_Github_Accounts #Github_accounts_for_sale
    GLOBALSEOSHOP.COM
    Buy GitHub Accounts
    Buy GitHub Accounts From GlobalSeoShop If you are looking to buy GitHub accounts, look no further than Globalseoshop. With its reliable services and unique offerings, Globalseoshop is the go-to platform for acquiring premium-quality Buy GitHub accounts. When it comes to buying GitHub accounts, Globalseoshop is known for its commitment to providing unique and reliable services. The platform offers a wide range of packages tailored to suit various needs and budgets. Whether you are an individual developer looking for a single account or an organization in need of multiple accounts, Globalseoshop has got you covered One of the key advantages of buy GitHub accounts from Globalseoshop is the high level of account uniqueness. Each account is created using different email addresses, ensuring that they are distinct and authentic. This uniqueness adds great value to the accounts, making them more appealing to potential collaborators and clients. Moreover, Globalseoshop prides itself on its commitment to customer satisfaction. The platform offers a money-back guarantee, ensuring that you receive the desired quality and value from your purchase. Their prompt customer support is always ready to assist you with any queries or concerns. Very Cheap Buy GitHub Accounts Features: Each account is created using different email addresses 100% customer satisfaction Money-back guarantee Accounts from unique IPs Complete Account Access High level of account uniqueness On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 31 มุมมอง 0 รีวิว
  • Buy Verified Github Accounts

    https://globalseoshop.com/product/buy-github-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp:+1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Github_Accounts
    #Buy_old_Github_Accounts
    #Github_accounts_for_sale
    Buy Verified Github Accounts https://globalseoshop.com/product/buy-github-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Github_Accounts #Buy_old_Github_Accounts #Github_accounts_for_sale
    GLOBALSEOSHOP.COM
    Buy GitHub Accounts
    Buy GitHub Accounts From GlobalSeoShop If you are looking to buy GitHub accounts, look no further than Globalseoshop. With its reliable services and unique offerings, Globalseoshop is the go-to platform for acquiring premium-quality Buy GitHub accounts. When it comes to buying GitHub accounts, Globalseoshop is known for its commitment to providing unique and reliable services. The platform offers a wide range of packages tailored to suit various needs and budgets. Whether you are an individual developer looking for a single account or an organization in need of multiple accounts, Globalseoshop has got you covered One of the key advantages of buy GitHub accounts from Globalseoshop is the high level of account uniqueness. Each account is created using different email addresses, ensuring that they are distinct and authentic. This uniqueness adds great value to the accounts, making them more appealing to potential collaborators and clients. Moreover, Globalseoshop prides itself on its commitment to customer satisfaction. The platform offers a money-back guarantee, ensuring that you receive the desired quality and value from your purchase. Their prompt customer support is always ready to assist you with any queries or concerns. Very Cheap Buy GitHub Accounts Features: Each account is created using different email addresses 100% customer satisfaction Money-back guarantee Accounts from unique IPs Complete Account Access High level of account uniqueness On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 46 มุมมอง 0 รีวิว
  • “Google Cloud เปิดให้ใช้งาน G4 VM แล้ว — มาพร้อม RTX PRO 6000 Blackwell GPU สำหรับงาน AI และกราฟิกระดับสูง” — เมื่อการประมวลผลแบบมัลติโหมดและฟิสิกส์จำลองกลายเป็นเรื่องง่ายบนคลาวด์

    Google Cloud ประกาศเปิดให้ใช้งาน G4 VM อย่างเป็นทางการ ซึ่งใช้ GPU รุ่นใหม่ล่าสุดจาก NVIDIA คือ RTX PRO 6000 Blackwell Server Edition โดยออกแบบมาเพื่อรองรับงาน AI ที่หลากหลาย ตั้งแต่การ inference ของโมเดลมัลติโหมด ไปจนถึงการจำลองฟิสิกส์ในหุ่นยนต์และการออกแบบผลิตภัณฑ์

    G4 VM รองรับการใช้งานร่วมกับ NVIDIA Omniverse และ Isaac Sim ผ่าน VM image บน Google Cloud Marketplace ทำให้สามารถสร้าง digital twin และฝึกหุ่นยนต์ในสภาพแวดล้อมจำลองได้ทันที

    ใช้ GPU RTX PRO 6000 Blackwell
    มี Tensor Core รุ่นที่ 5 รองรับ FP4 สำหรับ inference ที่เร็วขึ้นและใช้หน่วยความจำน้อย
    มี RT Core รุ่นที่ 4 ให้ ray tracing แบบ real-time ที่เร็วกว่าเดิม 2 เท่า

    รองรับสูงสุด 8 GPU ต่อ VM
    รวมหน่วยความจำ GDDR7 ได้ถึง 768 GB
    เหมาะกับงาน simulation, content creation และ AI agent

    เชื่อมต่อกับบริการอื่นใน Google Cloud ได้โดยตรง
    เช่น Kubernetes Engine, Vertex AI, Dataproc (Spark/Hadoop)

    รองรับซอฟต์แวร์ยอดนิยมในสายวิศวกรรมและกราฟิก
    เช่น AutoCAD, Blender, SolidWorks

    ใช้ร่วมกับ NVIDIA Omniverse ได้
    สร้าง digital twin และฝึกหุ่นยนต์ด้วย Isaac Sim
    ใช้ Cosmos foundation model และ Blueprints สำหรับการจำลอง

    รองรับการ deploy agentic AI ด้วย NVIDIA Nemotron และ NIM
    มี microservices สำหรับ inference ที่ปลอดภัยและเร็ว

    เหมาะกับงาน HPC เช่น genomics และ drug discovery
    บน Blackwell GPU มี throughput สูงกว่าเดิมถึง 6.8 เท่าในงาน alignment

    https://www.techpowerup.com/342057/google-cloud-g4-vms-with-nvidia-rtx-pro-6000-blackwell-gpu-now-generally-available
    ☁️ “Google Cloud เปิดให้ใช้งาน G4 VM แล้ว — มาพร้อม RTX PRO 6000 Blackwell GPU สำหรับงาน AI และกราฟิกระดับสูง” — เมื่อการประมวลผลแบบมัลติโหมดและฟิสิกส์จำลองกลายเป็นเรื่องง่ายบนคลาวด์ Google Cloud ประกาศเปิดให้ใช้งาน G4 VM อย่างเป็นทางการ ซึ่งใช้ GPU รุ่นใหม่ล่าสุดจาก NVIDIA คือ RTX PRO 6000 Blackwell Server Edition โดยออกแบบมาเพื่อรองรับงาน AI ที่หลากหลาย ตั้งแต่การ inference ของโมเดลมัลติโหมด ไปจนถึงการจำลองฟิสิกส์ในหุ่นยนต์และการออกแบบผลิตภัณฑ์ G4 VM รองรับการใช้งานร่วมกับ NVIDIA Omniverse และ Isaac Sim ผ่าน VM image บน Google Cloud Marketplace ทำให้สามารถสร้าง digital twin และฝึกหุ่นยนต์ในสภาพแวดล้อมจำลองได้ทันที ✅ ใช้ GPU RTX PRO 6000 Blackwell ➡️ มี Tensor Core รุ่นที่ 5 รองรับ FP4 สำหรับ inference ที่เร็วขึ้นและใช้หน่วยความจำน้อย ➡️ มี RT Core รุ่นที่ 4 ให้ ray tracing แบบ real-time ที่เร็วกว่าเดิม 2 เท่า ✅ รองรับสูงสุด 8 GPU ต่อ VM ➡️ รวมหน่วยความจำ GDDR7 ได้ถึง 768 GB ➡️ เหมาะกับงาน simulation, content creation และ AI agent ✅ เชื่อมต่อกับบริการอื่นใน Google Cloud ได้โดยตรง ➡️ เช่น Kubernetes Engine, Vertex AI, Dataproc (Spark/Hadoop) ✅ รองรับซอฟต์แวร์ยอดนิยมในสายวิศวกรรมและกราฟิก ➡️ เช่น AutoCAD, Blender, SolidWorks ✅ ใช้ร่วมกับ NVIDIA Omniverse ได้ ➡️ สร้าง digital twin และฝึกหุ่นยนต์ด้วย Isaac Sim ➡️ ใช้ Cosmos foundation model และ Blueprints สำหรับการจำลอง ✅ รองรับการ deploy agentic AI ด้วย NVIDIA Nemotron และ NIM ➡️ มี microservices สำหรับ inference ที่ปลอดภัยและเร็ว ✅ เหมาะกับงาน HPC เช่น genomics และ drug discovery ➡️ บน Blackwell GPU มี throughput สูงกว่าเดิมถึง 6.8 เท่าในงาน alignment https://www.techpowerup.com/342057/google-cloud-g4-vms-with-nvidia-rtx-pro-6000-blackwell-gpu-now-generally-available
    WWW.TECHPOWERUP.COM
    Google Cloud G4 VMs With NVIDIA RTX PRO 6000 Blackwell GPU Now Generally Available
    NVIDIA and Google Cloud are expanding access to accelerated computing to transform the full spectrum of enterprise workloads, from visual computing to agentic and physical AI. Google Cloud today announced the general availability of G4 VMs, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPU...
    0 ความคิดเห็น 0 การแบ่งปัน 97 มุมมอง 0 รีวิว
  • Buy Verified Github Accounts

    https://globalseoshop.com/product/buy-github-accounts/

    On the off chance that you need more data simply thump us-
    Email: Globalseoshop@gmail.com
    WhatsApp:+1(864)7088783
    Skype: GlobalSeoShop
    Telegram: @GlobalSeoShop

    #Buy_Github_Accounts
    #Buy_old_Github_Accounts
    #Github_accounts_for_sale
    Buy Verified Github Accounts https://globalseoshop.com/product/buy-github-accounts/ On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1(864)7088783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop #Buy_Github_Accounts #Buy_old_Github_Accounts #Github_accounts_for_sale
    GLOBALSEOSHOP.COM
    Buy GitHub Accounts
    Buy GitHub Accounts From GlobalSeoShop If you are looking to buy GitHub accounts, look no further than Globalseoshop. With its reliable services and unique offerings, Globalseoshop is the go-to platform for acquiring premium-quality Buy GitHub accounts. When it comes to buying GitHub accounts, Globalseoshop is known for its commitment to providing unique and reliable services. The platform offers a wide range of packages tailored to suit various needs and budgets. Whether you are an individual developer looking for a single account or an organization in need of multiple accounts, Globalseoshop has got you covered One of the key advantages of buy GitHub accounts from Globalseoshop is the high level of account uniqueness. Each account is created using different email addresses, ensuring that they are distinct and authentic. This uniqueness adds great value to the accounts, making them more appealing to potential collaborators and clients. Moreover, Globalseoshop prides itself on its commitment to customer satisfaction. The platform offers a money-back guarantee, ensuring that you receive the desired quality and value from your purchase. Their prompt customer support is always ready to assist you with any queries or concerns. Very Cheap Buy GitHub Accounts Features: Each account is created using different email addresses 100% customer satisfaction Money-back guarantee Accounts from unique IPs Complete Account Access High level of account uniqueness On the off chance that you need more data simply thump us- Email: Globalseoshop@gmail.com WhatsApp:+1 (864) 708-8783 Skype: GlobalSeoShop Telegram: @GlobalSeoShop
    0 ความคิดเห็น 0 การแบ่งปัน 22 มุมมอง 0 รีวิว
  • “SuperTuxKart 1.5 เปิดตัวพร้อมฟีเจอร์ใหม่เพียบ — ปรับกราฟิก, เพิ่ม Egg Hunt และอำลา Story Mode 1.x” — เมื่อเกมแข่งรถโอเพ่นซอร์สสุดคลาสสิกกลับมาอีกครั้ง พร้อมอัปเกรดครั้งใหญ่

    หลังจากห่างหายไปนานกว่า 3 ปี SuperTuxKart 1.5 ได้เปิดตัวอย่างเป็นทางการในเดือนตุลาคม 2025 โดยมาพร้อมการเปลี่ยนแปลงครั้งใหญ่ทั้งด้านกราฟิก, ฟีเจอร์, และระบบการเล่น โดยเฉพาะการอำลา Story Mode เวอร์ชัน 1.x เพื่อเตรียมเข้าสู่ยุคใหม่ของเกม

    หนึ่งในฟีเจอร์เด่นคือ “Egg Hunt” ที่เพิ่มเข้ามาใน 3 สนามใหม่ ได้แก่ Black Forest, Gran Paradisio Island และ The Old Mine ซึ่งเป็นโหมดเล่นสนุกที่ให้ผู้เล่นตามหาไข่ที่ซ่อนอยู่ในสนาม

    ด้านกราฟิกมีการปรับปรุงหลายจุด เช่น:

    เพิ่ม SSAA และ Percentage-Closer Soft Shadows สำหรับ GPU แรง
    ปรับปรุง Vulkan renderer และ Cascaded Shadow Mapping
    เพิ่มเอฟเฟกต์ใหม่สำหรับผู้ใช้ไดรเวอร์วิดีโอรุ่นเก่า
    ปรับคุณภาพภาพใน preset ต่ำและกลางให้ดีขึ้นด้วย anisotropic filtering

    ระบบเสียงก็ได้รับการปรับปรุงเช่นกัน โดยผู้เล่นสามารถควบคุมระดับเสียงได้ละเอียดขึ้น และมีเพลงใหม่สำหรับสนาม Las Dunas Arena และ Las Dunas Soccer

    ฟีเจอร์อื่น ๆ ที่น่าสนใจ:
    ปรับปรุง animation ของ parachute และ bubblegum shield
    เพิ่ม spotlight และ LoD settings เพื่อลดปัญหา popping
    เพิ่มการตั้งค่า FPS สูงสุดในเกม (ไม่จำกัดแค่ 120 FPS บน PC หรือ 30 FPS บน Android อีกต่อไป)
    เพิ่มฟอนต์ใหม่เพื่อรองรับหลายภาษา
    ปรับปรุงระบบ Follow-The-Leader ด้วยเสียงและสีเตือนก่อนถูกคัดออก
    เพิ่ม smooth scrolling สำหรับ Irrlicht และปรับปรุง framerate limiter

    ผู้เล่นสามารถดาวน์โหลด SuperTuxKart 1.5 ได้แล้วทั้งบนระบบ 64-bit และ ARM64 สำหรับ Linux ผ่าน GitHub หรือ Flathub

    https://9to5linux.com/supertuxkart-1-5-open-source-kart-racing-game-released-with-major-changes
    🏎️ “SuperTuxKart 1.5 เปิดตัวพร้อมฟีเจอร์ใหม่เพียบ — ปรับกราฟิก, เพิ่ม Egg Hunt และอำลา Story Mode 1.x” — เมื่อเกมแข่งรถโอเพ่นซอร์สสุดคลาสสิกกลับมาอีกครั้ง พร้อมอัปเกรดครั้งใหญ่ หลังจากห่างหายไปนานกว่า 3 ปี SuperTuxKart 1.5 ได้เปิดตัวอย่างเป็นทางการในเดือนตุลาคม 2025 โดยมาพร้อมการเปลี่ยนแปลงครั้งใหญ่ทั้งด้านกราฟิก, ฟีเจอร์, และระบบการเล่น โดยเฉพาะการอำลา Story Mode เวอร์ชัน 1.x เพื่อเตรียมเข้าสู่ยุคใหม่ของเกม หนึ่งในฟีเจอร์เด่นคือ “Egg Hunt” ที่เพิ่มเข้ามาใน 3 สนามใหม่ ได้แก่ Black Forest, Gran Paradisio Island และ The Old Mine ซึ่งเป็นโหมดเล่นสนุกที่ให้ผู้เล่นตามหาไข่ที่ซ่อนอยู่ในสนาม ด้านกราฟิกมีการปรับปรุงหลายจุด เช่น: 🎗️ เพิ่ม SSAA และ Percentage-Closer Soft Shadows สำหรับ GPU แรง 🎗️ ปรับปรุง Vulkan renderer และ Cascaded Shadow Mapping 🎗️ เพิ่มเอฟเฟกต์ใหม่สำหรับผู้ใช้ไดรเวอร์วิดีโอรุ่นเก่า 🎗️ ปรับคุณภาพภาพใน preset ต่ำและกลางให้ดีขึ้นด้วย anisotropic filtering ระบบเสียงก็ได้รับการปรับปรุงเช่นกัน โดยผู้เล่นสามารถควบคุมระดับเสียงได้ละเอียดขึ้น และมีเพลงใหม่สำหรับสนาม Las Dunas Arena และ Las Dunas Soccer ฟีเจอร์อื่น ๆ ที่น่าสนใจ: 🛻 ปรับปรุง animation ของ parachute และ bubblegum shield 🛻 เพิ่ม spotlight และ LoD settings เพื่อลดปัญหา popping 🛻 เพิ่มการตั้งค่า FPS สูงสุดในเกม (ไม่จำกัดแค่ 120 FPS บน PC หรือ 30 FPS บน Android อีกต่อไป) 🛻 เพิ่มฟอนต์ใหม่เพื่อรองรับหลายภาษา 🛻 ปรับปรุงระบบ Follow-The-Leader ด้วยเสียงและสีเตือนก่อนถูกคัดออก 🛻 เพิ่ม smooth scrolling สำหรับ Irrlicht และปรับปรุง framerate limiter ผู้เล่นสามารถดาวน์โหลด SuperTuxKart 1.5 ได้แล้วทั้งบนระบบ 64-bit และ ARM64 สำหรับ Linux ผ่าน GitHub หรือ Flathub https://9to5linux.com/supertuxkart-1-5-open-source-kart-racing-game-released-with-major-changes
    9TO5LINUX.COM
    SuperTuxKart 1.5 Open-Source Kart Racing Game Released with Major Changes - 9to5Linux
    SuperTuxKart 1.5 free and open-source kart racing game is now available for download as a major update with new features and improvements.
    0 ความคิดเห็น 0 การแบ่งปัน 81 มุมมอง 0 รีวิว
  • ibank e-Savings ธนาคารอิสลามบนแอปฯ เป๋าตัง

    แอปพลิเคชันเป๋าตัง (PaoTang) ซึ่งพัฒนาโดยธนาคารกรุงไทย จำกัด (มหาชน) ที่มีผู้ใช้งานกว่า 40 ล้านราย ถูกวางตำแหน่งให้เป็น Thailand Open Digital Platform ให้บริการทางการเงินและบริการดิจิทัลที่หลากหลายแก่ประชาชน เช่น G-Wallet กระเป๋าอิเล็กทรอนิกส์ภาครัฐ ที่กำลังใช้ดำเนินโครงการคนละครึ่งพลัส, วอลเล็ต สบม. ที่ใช้ซื้อขายพันธบัตรรัฐบาล, บริการซื้อขายหุ้นกู้, Gold Wallet บริการลงทุนทองคำออนไลน์ หนึ่งในนั้นมีบริการ ibank Application ของธนาคารอิสลามแห่งประเทศไทย

    ล่าสุดเปิดตัวผลิตภัณฑ์ ibank e-savings บัญชีเงินรับฝากออมทรัพย์อิเล็กทรอนิกส์ ให้บริการแก่ลูกค้าทุกศาสนา มีจุดเด่นคือรับอัตราผลตอบแทนสูง 2.2% ต่อปี ตั้งแต่บาทแรกถึง 20,000 บาท สามารถโอนเงิน เติมเงิน จ่ายบิล ถอนเงิน ผ่านบริการ ibank Application บนแอปฯ เป๋าตัง ตลอด 24 ชั่วโมง ผู้สนใจสามารถเปิดบัญชีออนไลน์ผ่านแอปฯ เป๋าตัง ได้ทุกที่โดยไม่ต้องไปสาขา ตั้งแต่เวลา 07.00-22.00 น. โดยสแกนใบหน้า กรอกข้อมูล เลือกสาขาที่ต้องการ ไม่จำกัดจำนวนขั้นต่ำในการเปิดบัญชี

    นุจรี ภักดีเจริญ ผู้ช่วยกรรมการผู้จัดการ ผู้บริหารกลุ่มงานธุรกิจรายย่อย ธนาคารอิสลามแห่งประเทศไทย เปิดเผยว่า ไอแบงก์ยกระดับการให้บริการเพื่อเพิ่มความสะดวกสบายให้ลูกค้ามากยิ่งขึ้น บัญชี ibank e-savings นอกจากจะเป็นก้าวสำคัญต่อช่องทางดิจิทัลของธนาคารแล้ว ยังส่งมอบความเชื่อมั่นในคุณค่าที่ผสานความทันสมัยของเทคโนโลยีเข้ากับคุณค่าของความศรัทธาและคุณธรรมตามหลักการเงินอิสลาม (Islamic Finance) และทำธุรกรรมทางการเงินได้ทุกที่ ทุกเวลา เหมือนมีสาขาธนาคารอยู่ในมือ

    นอกจากนี้ ยังมีโปรโมชันพิเศษสำหรับลูกค้าที่เปิดบัญชี ibank e-Savings ระหว่างวันที่ 9 ต.ค. ถึง 15 พ.ย. 2568 และมียอดเงินฝากในบัญชีขั้นต่ำ 10,000 บาท ตลอดระยะเวลาโปรโมชัน ถึงวันที่ 30 พ.ย. 2568 สำหรับลูกค้าที่มียอดเงินฝากสูงสุด 1,000 รายแรก จะได้รับเงินคืน 100 บาท โอนเงินเข้าบัญชี e-Savings ของลูกค้า ภายในวันที่ 31 ธ.ค. 2568

    สำหรับธนาคารอิสลามแห่งประเทศไทย จัดตั้งตาม พ.ร.บ.ธนาคารอิสลามแห่งประเทศไทย ปี 2545 ภายใต้การกำกับดูแลของกระทรวงการคลัง ให้บริการทางการเงินแบบปราศจากดอกเบี้ย เริ่มดำเนินกิจการครั้งแรกเมื่อวันที่ 12 มิ.ย. 2546 โดยมีสำนักงานใหญ่และสาขาแห่งแรกอยู่ที่ย่านคลองตัน กรุงเทพฯ จากนั้นเริ่มทยอยเปิดสาขาในกรุงเทพฯ พื้นที่ภาคใต้ และทุกภาคทั่วประเทศ ปัจจุบันมีสาขาให้บริการในกรุงเทพฯ 15 แห่ง สามจังหวัดชายแดนภาคใต้ 20 แห่ง และสาขาอื่นๆ รวมทั่วประเทศมากกว่า 80 แห่ง

    #Newskit
    ibank e-Savings ธนาคารอิสลามบนแอปฯ เป๋าตัง แอปพลิเคชันเป๋าตัง (PaoTang) ซึ่งพัฒนาโดยธนาคารกรุงไทย จำกัด (มหาชน) ที่มีผู้ใช้งานกว่า 40 ล้านราย ถูกวางตำแหน่งให้เป็น Thailand Open Digital Platform ให้บริการทางการเงินและบริการดิจิทัลที่หลากหลายแก่ประชาชน เช่น G-Wallet กระเป๋าอิเล็กทรอนิกส์ภาครัฐ ที่กำลังใช้ดำเนินโครงการคนละครึ่งพลัส, วอลเล็ต สบม. ที่ใช้ซื้อขายพันธบัตรรัฐบาล, บริการซื้อขายหุ้นกู้, Gold Wallet บริการลงทุนทองคำออนไลน์ หนึ่งในนั้นมีบริการ ibank Application ของธนาคารอิสลามแห่งประเทศไทย ล่าสุดเปิดตัวผลิตภัณฑ์ ibank e-savings บัญชีเงินรับฝากออมทรัพย์อิเล็กทรอนิกส์ ให้บริการแก่ลูกค้าทุกศาสนา มีจุดเด่นคือรับอัตราผลตอบแทนสูง 2.2% ต่อปี ตั้งแต่บาทแรกถึง 20,000 บาท สามารถโอนเงิน เติมเงิน จ่ายบิล ถอนเงิน ผ่านบริการ ibank Application บนแอปฯ เป๋าตัง ตลอด 24 ชั่วโมง ผู้สนใจสามารถเปิดบัญชีออนไลน์ผ่านแอปฯ เป๋าตัง ได้ทุกที่โดยไม่ต้องไปสาขา ตั้งแต่เวลา 07.00-22.00 น. โดยสแกนใบหน้า กรอกข้อมูล เลือกสาขาที่ต้องการ ไม่จำกัดจำนวนขั้นต่ำในการเปิดบัญชี นุจรี ภักดีเจริญ ผู้ช่วยกรรมการผู้จัดการ ผู้บริหารกลุ่มงานธุรกิจรายย่อย ธนาคารอิสลามแห่งประเทศไทย เปิดเผยว่า ไอแบงก์ยกระดับการให้บริการเพื่อเพิ่มความสะดวกสบายให้ลูกค้ามากยิ่งขึ้น บัญชี ibank e-savings นอกจากจะเป็นก้าวสำคัญต่อช่องทางดิจิทัลของธนาคารแล้ว ยังส่งมอบความเชื่อมั่นในคุณค่าที่ผสานความทันสมัยของเทคโนโลยีเข้ากับคุณค่าของความศรัทธาและคุณธรรมตามหลักการเงินอิสลาม (Islamic Finance) และทำธุรกรรมทางการเงินได้ทุกที่ ทุกเวลา เหมือนมีสาขาธนาคารอยู่ในมือ นอกจากนี้ ยังมีโปรโมชันพิเศษสำหรับลูกค้าที่เปิดบัญชี ibank e-Savings ระหว่างวันที่ 9 ต.ค. ถึง 15 พ.ย. 2568 และมียอดเงินฝากในบัญชีขั้นต่ำ 10,000 บาท ตลอดระยะเวลาโปรโมชัน ถึงวันที่ 30 พ.ย. 2568 สำหรับลูกค้าที่มียอดเงินฝากสูงสุด 1,000 รายแรก จะได้รับเงินคืน 100 บาท โอนเงินเข้าบัญชี e-Savings ของลูกค้า ภายในวันที่ 31 ธ.ค. 2568 สำหรับธนาคารอิสลามแห่งประเทศไทย จัดตั้งตาม พ.ร.บ.ธนาคารอิสลามแห่งประเทศไทย ปี 2545 ภายใต้การกำกับดูแลของกระทรวงการคลัง ให้บริการทางการเงินแบบปราศจากดอกเบี้ย เริ่มดำเนินกิจการครั้งแรกเมื่อวันที่ 12 มิ.ย. 2546 โดยมีสำนักงานใหญ่และสาขาแห่งแรกอยู่ที่ย่านคลองตัน กรุงเทพฯ จากนั้นเริ่มทยอยเปิดสาขาในกรุงเทพฯ พื้นที่ภาคใต้ และทุกภาคทั่วประเทศ ปัจจุบันมีสาขาให้บริการในกรุงเทพฯ 15 แห่ง สามจังหวัดชายแดนภาคใต้ 20 แห่ง และสาขาอื่นๆ รวมทั่วประเทศมากกว่า 80 แห่ง #Newskit
    1 ความคิดเห็น 0 การแบ่งปัน 217 มุมมอง 0 รีวิว
  • https://sites.google.com/view/github2/home
    https://sites.google.com/view/github2/home
    Home
    "Unlock Your Potential: Why Investing in Verified Github Accounts is Worth It"
    0 ความคิดเห็น 0 การแบ่งปัน 32 มุมมอง 0 รีวิว
  • "13 อุปกรณ์สุดเซอร์ไพรส์ที่คุณสามารถเสียบเข้าพอร์ต USB ของจอมอนิเตอร์ได้"

    หลายคนอาจไม่รู้ว่าจอมอนิเตอร์ของคุณไม่ได้มีไว้แค่แสดงภาพเท่านั้น แต่ยังสามารถเป็นศูนย์กลางการเชื่อมต่ออุปกรณ์ต่าง ๆ ได้อีกด้วย! บทความจาก SlashGear เผยว่า USB Type-A ที่อยู่ด้านหลังหรือข้างจอสามารถใช้เป็น USB hub หรือ dock ได้อย่างมีประสิทธิภาพ โดยไม่ต้องพึ่งพาพอร์ตบนตัวเครื่อง PC ที่อาจมีจำกัด

    ตั้งแต่การเสียบ dongle ไร้สาย ไปจนถึงพัดลมตั้งโต๊ะ ไฟ RGB ไมโครโฟน กล้องเว็บแคม และแม้แต่เครื่องดูดฝุ่นขนาดจิ๋ว—ทั้งหมดนี้สามารถเชื่อมต่อผ่านพอร์ต USB ของจอได้อย่างง่ายดาย แต่ก็มีข้อควรระวัง เช่น การตรวจสอบกำลังไฟที่อุปกรณ์ใช้ และการทำความสะอาดพอร์ตเพื่อป้องกันการเชื่อมต่อผิดพลาด

    พอร์ต USB บนจอมอนิเตอร์
    มักเป็น USB Type-A ที่รองรับการเชื่อมต่ออุปกรณ์หลากหลาย
    ใช้เป็น USB hub หรือ dock ได้
    ช่วยประหยัดพอร์ตบนตัวเครื่อง PC

    อุปกรณ์ที่สามารถเชื่อมต่อได้
    Dongle สำหรับเมาส์ หูฟัง และ Wi-Fi
    จอยเกม เช่น 8BitDo Ultimate 2C Wireless Controller
    พัดลมตั้งโต๊ะ เช่น Gaiatop USB Desk Fan
    ไฟ RGB เช่น Phopollo Light Strip และ Velted RGB Light Bar
    ไมโครโฟน USB เช่น Logitech Blue Microphone
    เครื่องดูดฝุ่นจิ๋ว เช่น Auloea Portable Mini Vacuum Cleaner
    USB Hub Splitter เช่น Vienon USB Hub
    กล้องเว็บแคม เช่น Logitech Brio 101 HD
    คีย์บอร์ด เมาส์ และลำโพง
    อุปกรณ์ชาร์จ เช่น สมาร์ทโฟนและแท็บเล็ต
    แฟลชไดรฟ์และฮาร์ดดิสก์ภายนอก
    จอแสดงผลขนาดเล็ก เช่น Wownova Temp Monitor
    เครื่องอ่าน SD Card เช่น uni SD Card Reader

    คำเตือนในการใช้งานพอร์ต USB บนจอ
    อย่าเสียบอุปกรณ์ที่ใช้พลังงานสูงเกินไป อาจทำให้วงจรจอเสียหาย
    หากอุปกรณ์ไม่ถูกตรวจพบ อาจเกิดจากพอร์ตเสียหรือมีฝุ่นสะสม
    ความเร็วในการชาร์จอาจไม่เทียบเท่าที่ชาร์จโดยตรงจากปลั๊กไฟ

    สาระเพิ่มเติมจากภายนอก:

    ประโยชน์ของการใช้จอเป็น USB hub
    ลดความยุ่งเหยิงของสายไฟบนโต๊ะ
    เพิ่มความสะดวกในการเข้าถึงอุปกรณ์
    เหมาะสำหรับผู้ที่มีพื้นที่จำกัดหรือใช้โน้ตบุ๊กที่มีพอร์ตน้อย

    แนวโน้มการออกแบบจอภาพยุคใหม่
    จอภาพหลายรุ่นเริ่มมีพอร์ต USB-C และฟีเจอร์ชาร์จเร็ว
    บางรุ่นรองรับการถ่ายโอนข้อมูลและภาพผ่าน USB-C โดยตรง

    https://www.slashgear.com/1996516/surprising-gadgets-can-plug-into-monitor-usb-port/
    🖥️ "13 อุปกรณ์สุดเซอร์ไพรส์ที่คุณสามารถเสียบเข้าพอร์ต USB ของจอมอนิเตอร์ได้" หลายคนอาจไม่รู้ว่าจอมอนิเตอร์ของคุณไม่ได้มีไว้แค่แสดงภาพเท่านั้น แต่ยังสามารถเป็นศูนย์กลางการเชื่อมต่ออุปกรณ์ต่าง ๆ ได้อีกด้วย! บทความจาก SlashGear เผยว่า USB Type-A ที่อยู่ด้านหลังหรือข้างจอสามารถใช้เป็น USB hub หรือ dock ได้อย่างมีประสิทธิภาพ โดยไม่ต้องพึ่งพาพอร์ตบนตัวเครื่อง PC ที่อาจมีจำกัด ตั้งแต่การเสียบ dongle ไร้สาย ไปจนถึงพัดลมตั้งโต๊ะ ไฟ RGB ไมโครโฟน กล้องเว็บแคม และแม้แต่เครื่องดูดฝุ่นขนาดจิ๋ว—ทั้งหมดนี้สามารถเชื่อมต่อผ่านพอร์ต USB ของจอได้อย่างง่ายดาย แต่ก็มีข้อควรระวัง เช่น การตรวจสอบกำลังไฟที่อุปกรณ์ใช้ และการทำความสะอาดพอร์ตเพื่อป้องกันการเชื่อมต่อผิดพลาด ✅ พอร์ต USB บนจอมอนิเตอร์ ➡️ มักเป็น USB Type-A ที่รองรับการเชื่อมต่ออุปกรณ์หลากหลาย ➡️ ใช้เป็น USB hub หรือ dock ได้ ➡️ ช่วยประหยัดพอร์ตบนตัวเครื่อง PC ✅ อุปกรณ์ที่สามารถเชื่อมต่อได้ ➡️ Dongle สำหรับเมาส์ หูฟัง และ Wi-Fi ➡️ จอยเกม เช่น 8BitDo Ultimate 2C Wireless Controller ➡️ พัดลมตั้งโต๊ะ เช่น Gaiatop USB Desk Fan ➡️ ไฟ RGB เช่น Phopollo Light Strip และ Velted RGB Light Bar ➡️ ไมโครโฟน USB เช่น Logitech Blue Microphone ➡️ เครื่องดูดฝุ่นจิ๋ว เช่น Auloea Portable Mini Vacuum Cleaner ➡️ USB Hub Splitter เช่น Vienon USB Hub ➡️ กล้องเว็บแคม เช่น Logitech Brio 101 HD ➡️ คีย์บอร์ด เมาส์ และลำโพง ➡️ อุปกรณ์ชาร์จ เช่น สมาร์ทโฟนและแท็บเล็ต ➡️ แฟลชไดรฟ์และฮาร์ดดิสก์ภายนอก ➡️ จอแสดงผลขนาดเล็ก เช่น Wownova Temp Monitor ➡️ เครื่องอ่าน SD Card เช่น uni SD Card Reader ‼️ คำเตือนในการใช้งานพอร์ต USB บนจอ ⛔ อย่าเสียบอุปกรณ์ที่ใช้พลังงานสูงเกินไป อาจทำให้วงจรจอเสียหาย ⛔ หากอุปกรณ์ไม่ถูกตรวจพบ อาจเกิดจากพอร์ตเสียหรือมีฝุ่นสะสม ⛔ ความเร็วในการชาร์จอาจไม่เทียบเท่าที่ชาร์จโดยตรงจากปลั๊กไฟ 📎 สาระเพิ่มเติมจากภายนอก: ✅ ประโยชน์ของการใช้จอเป็น USB hub ➡️ ลดความยุ่งเหยิงของสายไฟบนโต๊ะ ➡️ เพิ่มความสะดวกในการเข้าถึงอุปกรณ์ ➡️ เหมาะสำหรับผู้ที่มีพื้นที่จำกัดหรือใช้โน้ตบุ๊กที่มีพอร์ตน้อย ✅ แนวโน้มการออกแบบจอภาพยุคใหม่ ➡️ จอภาพหลายรุ่นเริ่มมีพอร์ต USB-C และฟีเจอร์ชาร์จเร็ว ➡️ บางรุ่นรองรับการถ่ายโอนข้อมูลและภาพผ่าน USB-C โดยตรง https://www.slashgear.com/1996516/surprising-gadgets-can-plug-into-monitor-usb-port/
    WWW.SLASHGEAR.COM
    13 Surprising Gadgets You Can Plug Into Your Monitor's USB Port - SlashGear
    Your monitor’s USB ports can do more than you think. Learn how to power, connect, and enhance your setup with smart, space-saving gadgets.
    0 ความคิดเห็น 0 การแบ่งปัน 128 มุมมอง 0 รีวิว
  • "Kubernetes 1 ล้านโหนด: ภารกิจสุดโหดที่กลายเป็นจริง"

    ลองจินตนาการถึง Kubernetes cluster ที่มีถึง 1 ล้านโหนด—ไม่ใช่แค่แนวคิด แต่เป็นการทดลองจริงที่ผลักดันขีดจำกัดของระบบ cloud-native ที่ทรงพลังที่สุดในโลกใบนี้! โครงการ “k8s-1m” โดยผู้เชี่ยวชาญจาก OpenAI และอดีตผู้ร่วมเขียนบทความชื่อดังเรื่องการขยาย Kubernetes สู่ 7,500 โหนด ได้กลับมาอีกครั้ง พร้อมเป้าหมายใหม่ที่ทะเยอทะยานกว่าเดิม: สร้าง cluster ที่มี 1 ล้านโหนดและสามารถจัดการ workload ได้จริง

    เบื้องหลังความสำเร็จนี้คือการแก้ปัญหาทางเทคนิคระดับมหากาพย์ ตั้งแต่การจัดการ IP ด้วย IPv6, การออกแบบระบบ etcd ใหม่ให้รองรับการเขียนระดับแสนครั้งต่อวินาที, ไปจนถึงการสร้าง distributed scheduler ที่สามารถจัดสรร 1 ล้าน pods ได้ภายใน 1 นาที

    แม้จะไม่ใช่ระบบที่พร้อมใช้งานใน production แต่โครงการนี้ได้เปิดเผยขีดจำกัดที่แท้จริงของ Kubernetes และเสนอแนวทางใหม่ในการออกแบบระบบ cloud-native ที่สามารถรองรับ workload ขนาดมหาศาลได้ในอนาคต

    สรุปเนื้อหาจากโครงการ k8s-1m:

    เป้าหมายของโครงการ
    สร้าง Kubernetes cluster ที่มี 1 ล้านโหนด
    ทดสอบขีดจำกัดของระบบ cloud-native
    ไม่เน้นการใช้งานเชิงพาณิชย์ แต่เพื่อการวิจัยและแรงบันดาลใจ

    ปัญหาหลักที่ต้องแก้
    ประสิทธิภาพของ etcd ที่เป็นคอขวด
    ความสามารถของ kube-apiserver ในการจัดการ watch cache
    การจัดการ IP address ด้วย IPv6
    การออกแบบ scheduler ให้กระจายโหลดได้

    เทคนิคที่ใช้ในระบบเครือข่าย
    ใช้ IPv6 แทน IPv4 เพื่อรองรับ IP จำนวนมหาศาล
    สร้าง bridge สำหรับ pod interfaces เพื่อจัดการ MAC address
    ใช้ WireGuard เป็น NAT64 gateway สำหรับบริการที่รองรับเฉพาะ IPv4

    ข้อจำกัดด้านความปลอดภัย
    ไม่ใช้ network policies ระหว่าง workloads เพราะมี prefix มากเกินไป
    ไม่ใช้ firewall ครอบคลุมทุก prefix แต่ใช้ TLS และการจำกัดพอร์ตแทน

    การจัดการ state ด้วย mem_etcd
    สร้าง etcd ใหม่ที่เขียนด้วย Rust ชื่อ mem_etcd
    ลดการใช้ fsync เพื่อเพิ่ม throughput
    ใช้ hash map และ B-tree แยกตาม resource kind
    รองรับการเขียนระดับล้านครั้งต่อวินาที

    คำเตือนเกี่ยวกับ durability
    ลดระดับความทนทานของข้อมูลเพื่อเพิ่มประสิทธิภาพ
    ไม่ใช้ etcd replicas ในบางกรณีเพื่อหลีกเลี่ยงการลด throughput

    การออกแบบ scheduler แบบกระจาย
    ใช้แนวคิด scatter-gather เพื่อกระจายการคำนวณ
    ใช้ relays หลายระดับเพื่อกระจาย pod ไปยัง schedulers
    ใช้ ValidatingWebhook แทน watch stream เพื่อรับ pod ใหม่เร็วขึ้น

    ปัญหา long-tail latency
    บาง scheduler ช้ากว่าค่าเฉลี่ย ทำให้ระบบรอ
    ใช้เทคนิค pinned CPUs และปรับ GC เพื่อลดความล่าช้า
    ตัดสินใจไม่รอ scheduler ที่ช้าเกินไป

    ผลการทดลอง
    สามารถจัดสรร 1 ล้าน pods ได้ในเวลาประมาณ 1 นาที
    mem_etcd รองรับ 100K–125K requests/sec
    kube-apiserver รองรับ 100K lease updates/sec
    ระบบใช้ RAM และ CPU อย่างมีประสิทธิภาพ

    ข้อจำกัดของภาษา Go
    GC ของ Go เป็นคอขวดหลักในการจัดการ object จำนวนมาก
    การเพิ่ม kube-apiserver replicas ไม่ช่วยลด GC load

    ข้อสรุปจากโครงการ
    ขนาด cluster ไม่สำคัญเท่ากับอัตราการเขียนของ resource kind
    Lease updates เป็นภาระหลักของระบบ
    การแยก etcd ตาม resource kind ช่วยเพิ่ม scalability
    การเปลี่ยน backend ของ etcd และปรับ watch cache ช่วยรองรับ 1 ล้านโหนด

    https://bchess.github.io/k8s-1m/
    🖇️ "Kubernetes 1 ล้านโหนด: ภารกิจสุดโหดที่กลายเป็นจริง" ลองจินตนาการถึง Kubernetes cluster ที่มีถึง 1 ล้านโหนด—ไม่ใช่แค่แนวคิด แต่เป็นการทดลองจริงที่ผลักดันขีดจำกัดของระบบ cloud-native ที่ทรงพลังที่สุดในโลกใบนี้! โครงการ “k8s-1m” โดยผู้เชี่ยวชาญจาก OpenAI และอดีตผู้ร่วมเขียนบทความชื่อดังเรื่องการขยาย Kubernetes สู่ 7,500 โหนด ได้กลับมาอีกครั้ง พร้อมเป้าหมายใหม่ที่ทะเยอทะยานกว่าเดิม: สร้าง cluster ที่มี 1 ล้านโหนดและสามารถจัดการ workload ได้จริง เบื้องหลังความสำเร็จนี้คือการแก้ปัญหาทางเทคนิคระดับมหากาพย์ ตั้งแต่การจัดการ IP ด้วย IPv6, การออกแบบระบบ etcd ใหม่ให้รองรับการเขียนระดับแสนครั้งต่อวินาที, ไปจนถึงการสร้าง distributed scheduler ที่สามารถจัดสรร 1 ล้าน pods ได้ภายใน 1 นาที แม้จะไม่ใช่ระบบที่พร้อมใช้งานใน production แต่โครงการนี้ได้เปิดเผยขีดจำกัดที่แท้จริงของ Kubernetes และเสนอแนวทางใหม่ในการออกแบบระบบ cloud-native ที่สามารถรองรับ workload ขนาดมหาศาลได้ในอนาคต สรุปเนื้อหาจากโครงการ k8s-1m: ✅ เป้าหมายของโครงการ ➡️ สร้าง Kubernetes cluster ที่มี 1 ล้านโหนด ➡️ ทดสอบขีดจำกัดของระบบ cloud-native ➡️ ไม่เน้นการใช้งานเชิงพาณิชย์ แต่เพื่อการวิจัยและแรงบันดาลใจ ✅ ปัญหาหลักที่ต้องแก้ ➡️ ประสิทธิภาพของ etcd ที่เป็นคอขวด ➡️ ความสามารถของ kube-apiserver ในการจัดการ watch cache ➡️ การจัดการ IP address ด้วย IPv6 ➡️ การออกแบบ scheduler ให้กระจายโหลดได้ ✅ เทคนิคที่ใช้ในระบบเครือข่าย ➡️ ใช้ IPv6 แทน IPv4 เพื่อรองรับ IP จำนวนมหาศาล ➡️ สร้าง bridge สำหรับ pod interfaces เพื่อจัดการ MAC address ➡️ ใช้ WireGuard เป็น NAT64 gateway สำหรับบริการที่รองรับเฉพาะ IPv4 ‼️ ข้อจำกัดด้านความปลอดภัย ⛔ ไม่ใช้ network policies ระหว่าง workloads เพราะมี prefix มากเกินไป ⛔ ไม่ใช้ firewall ครอบคลุมทุก prefix แต่ใช้ TLS และการจำกัดพอร์ตแทน ✅ การจัดการ state ด้วย mem_etcd ➡️ สร้าง etcd ใหม่ที่เขียนด้วย Rust ชื่อ mem_etcd ➡️ ลดการใช้ fsync เพื่อเพิ่ม throughput ➡️ ใช้ hash map และ B-tree แยกตาม resource kind ➡️ รองรับการเขียนระดับล้านครั้งต่อวินาที ‼️ คำเตือนเกี่ยวกับ durability ⛔ ลดระดับความทนทานของข้อมูลเพื่อเพิ่มประสิทธิภาพ ⛔ ไม่ใช้ etcd replicas ในบางกรณีเพื่อหลีกเลี่ยงการลด throughput ✅ การออกแบบ scheduler แบบกระจาย ➡️ ใช้แนวคิด scatter-gather เพื่อกระจายการคำนวณ ➡️ ใช้ relays หลายระดับเพื่อกระจาย pod ไปยัง schedulers ➡️ ใช้ ValidatingWebhook แทน watch stream เพื่อรับ pod ใหม่เร็วขึ้น ‼️ ปัญหา long-tail latency ⛔ บาง scheduler ช้ากว่าค่าเฉลี่ย ทำให้ระบบรอ ⛔ ใช้เทคนิค pinned CPUs และปรับ GC เพื่อลดความล่าช้า ⛔ ตัดสินใจไม่รอ scheduler ที่ช้าเกินไป ✅ ผลการทดลอง ➡️ สามารถจัดสรร 1 ล้าน pods ได้ในเวลาประมาณ 1 นาที ➡️ mem_etcd รองรับ 100K–125K requests/sec ➡️ kube-apiserver รองรับ 100K lease updates/sec ➡️ ระบบใช้ RAM และ CPU อย่างมีประสิทธิภาพ ‼️ ข้อจำกัดของภาษา Go ⛔ GC ของ Go เป็นคอขวดหลักในการจัดการ object จำนวนมาก ⛔ การเพิ่ม kube-apiserver replicas ไม่ช่วยลด GC load ✅ ข้อสรุปจากโครงการ ➡️ ขนาด cluster ไม่สำคัญเท่ากับอัตราการเขียนของ resource kind ➡️ Lease updates เป็นภาระหลักของระบบ ➡️ การแยก etcd ตาม resource kind ช่วยเพิ่ม scalability ➡️ การเปลี่ยน backend ของ etcd และปรับ watch cache ช่วยรองรับ 1 ล้านโหนด https://bchess.github.io/k8s-1m/
    0 ความคิดเห็น 0 การแบ่งปัน 155 มุมมอง 0 รีวิว
  • “ช่องโหว่ร้ายแรงใน Keras 3 (CVE-2025-49655) เปิดทางให้รันโค้ดอันตรายเพียงแค่โหลดโมเดล” — เมื่อการใช้ deep learning กลายเป็นช่องทางโจมตี และ ‘safe mode’ ก็ไม่ปลอดภัยอีกต่อไป

    นักวิจัยจาก HiddenLayer เปิดเผยช่องโหว่ระดับวิกฤตใน Keras 3 ซึ่งเป็นไลบรารี deep learning ยอดนิยม โดยช่องโหว่นี้มีรหัส CVE-2025-49655 และได้คะแนนความรุนแรง CVSS 9.8 เต็ม 10 — หมายถึงสามารถถูกใช้โจมตีได้ง่ายและมีผลกระทบรุนแรง

    ช่องโหว่นี้เกิดขึ้นในคลาส TorchModuleWrapper ซึ่งใช้ torch.load() ภายในเมธอด from_config() โดยตั้งค่า weights_only=False ทำให้ PyTorch fallback ไปใช้ pickle ซึ่งเป็นกลไก deserialization ที่ไม่ปลอดภัย เพราะสามารถรันโค้ด Python ระหว่างการโหลดอ็อบเจกต์ได้

    นักวิจัยสาธิตการโจมตีโดยสร้าง payload ที่ใช้ __reduce__ เพื่อเรียก os.system() ระหว่างการโหลดโมเดล — แม้จะเปิดใช้งาน “safe mode” ของ Keras ก็ยังไม่สามารถป้องกันได้ เพราะการโหลด config.json ที่ฝัง payload จะรันโค้ดทันที

    ช่องโหว่นี้ส่งผลกระทบต่อ Keras เวอร์ชัน 3.11.0 ถึง 3.11.2 เฉพาะเมื่อใช้ backend เป็น PyTorch (KERAS_BACKEND="torch") ส่วน backend อื่น ๆ เช่น TensorFlow, JAX และ OpenVINO ไม่ได้รับผลกระทบ

    HiddenLayer เตือนว่าช่องโหว่นี้สามารถถูกใช้โจมตี supply chain ของ ML ได้ เช่น การฝัง payload ในโมเดล .keras ที่ดูเหมือนปกติ แล้วเผยแพร่ผ่าน Hugging Face หรือ GitHub — ผู้ใช้ที่โหลดโมเดลจะรันโค้ดอันตรายทันทีโดยไม่รู้ตัว

    ช่องโหว่ CVE-2025-49655 ใน Keras 3 ได้คะแนน CVSS 9.8
    ระดับวิกฤต สามารถรันโค้ดอันตรายได้ทันที

    เกิดจากการใช้ torch.load() พร้อม weights_only=False
    ทำให้ PyTorch ใช้ pickle ซึ่งไม่ปลอดภัย

    ใช้ __reduce__ เพื่อฝังคำสั่ง os.system() ในโมเดล
    รันโค้ดทันทีเมื่อโหลดโมเดล

    “safe mode” ของ Keras ไม่สามารถป้องกันการโจมตีนี้ได้
    เพราะ payload อยู่ใน config.json ที่ถูกโหลดก่อน

    ส่งผลกระทบต่อ Keras 3.11.0–3.11.2 เมื่อใช้ backend เป็น PyTorch
    TensorFlow, JAX, OpenVINO ไม่ได้รับผลกระทบ

    สามารถใช้โจมตี supply chain ของ ML ได้
    เช่น โมเดลที่แชร์ผ่าน Hugging Face หรือ GitHub

    https://securityonline.info/critical-keras-3-rce-flaw-cve-2025-49655-cvss-9-8-allows-code-execution-on-model-load/
    🧠 “ช่องโหว่ร้ายแรงใน Keras 3 (CVE-2025-49655) เปิดทางให้รันโค้ดอันตรายเพียงแค่โหลดโมเดล” — เมื่อการใช้ deep learning กลายเป็นช่องทางโจมตี และ ‘safe mode’ ก็ไม่ปลอดภัยอีกต่อไป นักวิจัยจาก HiddenLayer เปิดเผยช่องโหว่ระดับวิกฤตใน Keras 3 ซึ่งเป็นไลบรารี deep learning ยอดนิยม โดยช่องโหว่นี้มีรหัส CVE-2025-49655 และได้คะแนนความรุนแรง CVSS 9.8 เต็ม 10 — หมายถึงสามารถถูกใช้โจมตีได้ง่ายและมีผลกระทบรุนแรง ช่องโหว่นี้เกิดขึ้นในคลาส TorchModuleWrapper ซึ่งใช้ torch.load() ภายในเมธอด from_config() โดยตั้งค่า weights_only=False ทำให้ PyTorch fallback ไปใช้ pickle ซึ่งเป็นกลไก deserialization ที่ไม่ปลอดภัย เพราะสามารถรันโค้ด Python ระหว่างการโหลดอ็อบเจกต์ได้ นักวิจัยสาธิตการโจมตีโดยสร้าง payload ที่ใช้ __reduce__ เพื่อเรียก os.system() ระหว่างการโหลดโมเดล — แม้จะเปิดใช้งาน “safe mode” ของ Keras ก็ยังไม่สามารถป้องกันได้ เพราะการโหลด config.json ที่ฝัง payload จะรันโค้ดทันที ช่องโหว่นี้ส่งผลกระทบต่อ Keras เวอร์ชัน 3.11.0 ถึง 3.11.2 เฉพาะเมื่อใช้ backend เป็น PyTorch (KERAS_BACKEND="torch") ส่วน backend อื่น ๆ เช่น TensorFlow, JAX และ OpenVINO ไม่ได้รับผลกระทบ HiddenLayer เตือนว่าช่องโหว่นี้สามารถถูกใช้โจมตี supply chain ของ ML ได้ เช่น การฝัง payload ในโมเดล .keras ที่ดูเหมือนปกติ แล้วเผยแพร่ผ่าน Hugging Face หรือ GitHub — ผู้ใช้ที่โหลดโมเดลจะรันโค้ดอันตรายทันทีโดยไม่รู้ตัว ✅ ช่องโหว่ CVE-2025-49655 ใน Keras 3 ได้คะแนน CVSS 9.8 ➡️ ระดับวิกฤต สามารถรันโค้ดอันตรายได้ทันที ✅ เกิดจากการใช้ torch.load() พร้อม weights_only=False ➡️ ทำให้ PyTorch ใช้ pickle ซึ่งไม่ปลอดภัย ✅ ใช้ __reduce__ เพื่อฝังคำสั่ง os.system() ในโมเดล ➡️ รันโค้ดทันทีเมื่อโหลดโมเดล ✅ “safe mode” ของ Keras ไม่สามารถป้องกันการโจมตีนี้ได้ ➡️ เพราะ payload อยู่ใน config.json ที่ถูกโหลดก่อน ✅ ส่งผลกระทบต่อ Keras 3.11.0–3.11.2 เมื่อใช้ backend เป็น PyTorch ➡️ TensorFlow, JAX, OpenVINO ไม่ได้รับผลกระทบ ✅ สามารถใช้โจมตี supply chain ของ ML ได้ ➡️ เช่น โมเดลที่แชร์ผ่าน Hugging Face หรือ GitHub https://securityonline.info/critical-keras-3-rce-flaw-cve-2025-49655-cvss-9-8-allows-code-execution-on-model-load/
    SECURITYONLINE.INFO
    Critical Keras 3 RCE Flaw (CVE-2025-49655, CVSS 9.8) Allows Code Execution on Model Load
    A Critical (CVSS 9.8) RCE flaw in Keras 3’s Torch backend (CVE-2025-49655) allows attackers to execute arbitrary code by loading a malicious model due to insecure deserialization.
    0 ความคิดเห็น 0 การแบ่งปัน 94 มุมมอง 0 รีวิว
Pages Boosts