• สร้าง RAG แบบ Local ได้จริง: ประสบการณ์จาก Skald

    ทีมพัฒนา Skald ได้ทดลองสร้างระบบ RAG (Retrieval-Augmented Generation) แบบ self-hosted ที่ไม่ต้องส่งข้อมูลไปยังบริการของบุคคลที่สาม โดยใช้เทคโนโลยี open-source ทั้งหมด เพื่อตอบโจทย์องค์กรที่ต้องการความเป็นส่วนตัวของข้อมูลแต่ยังต้องการใช้ประโยชน์จาก AI สมัยใหม่

    การทดสอบใช้เนื้อหาจากเว็บไซต์ PostHog ประมาณ 2,000 เอกสาร โดยเปรียบเทียบประสิทธิภาพระหว่าง 3 รูปแบบ: Cloud APIs (Voyage + Claude), Hybrid (Voyage + GPT-OSS 20B), และ Fully Local (Sentence Transformers + GPT-OSS 20B) ผลลัพธ์แสดงให้เห็นว่าระบบ local สามารถทำงานได้จริงและให้ผลลัพธ์ที่ดีในหลายกรณี

    สิ่งที่น่าสนใจคือการ deploy ระบบทั้งหมดใช้เวลาเพียง 8 นาที รวมถึง vector database, reranking, embedding service และ document parser โดยใช้ Postgres + pgvector, Sentence Transformers, และ Docling ตามลำดับ ทำให้เห็นว่าการสร้าง RAG แบบ local ไม่ได้ยากอย่างที่คิด

    ผลการทดสอบพบว่า Cloud setup ได้คะแนน 9.45/10, Hybrid setup ได้ 9.18/10, ส่วน Local setup แบบพื้นฐานได้ 7.10/10 และเมื่อใช้โมเดล multi-lingual ที่ดีกว่าสามารถยกระดับเป็น 8.63/10 ได้ โดยจุดอ่อนหลักคือการตอบคำถามที่ต้องรวบรวมข้อมูลจากหลายเอกสาร แต่สำหรับคำถามแบบ point query ระบบ local ทำงานได้ดีมาก

    สรุปสาระสำคัญ
    องค์ประกอบของ RAG และทางเลือก Open-Source
    Vector Database: Postgres + pgvector (แทน Pinecone, Weaviate)
    Embeddings: Sentence Transformers all-MiniLM-L6-v2 (แทน OpenAI, Voyage)
    LLM: GPT-OSS 20B ผ่าน llama.cpp (แทน GPT-4, Claude)
    Reranker: Sentence Transformers cross-encoder (แทน Cohere, Voyage)
    Document Parser: Docling ผ่าน docling-serve

    ผลการทดสอบประสิทธิภาพ
    Voyage + Claude (Cloud): คะแนนเฉลี่ย 9.45/10 - ผ่านทุกคำถาม
    Voyage + GPT-OSS 20B (Hybrid): คะแนนเฉลี่ย 9.18/10 - ผลลัพธ์ดีมาก
    Local + โมเดลพื้นฐาน: คะแนนเฉลี่ย 7.10/10 - ดีสำหรับ point queries
    Local + โมเดล multi-lingual: คะแนนเฉลี่ย 8.63/10 - ปรับปรุงได้มาก

    ข้อดีของ Local Setup
    Deploy ได้ภายใน 8 นาที รวมทุก component
    ไม่ต้องส่งข้อมูลออกนอกองค์กร - เหมาะกับข้อมูลที่ sensitive
    ใช้เทคโนโลยี open-source ทั้งหมด (MIT-licensed)
    รองรับการทำงานใน air-gapped infrastructure

    จุดแข็งของโมเดล Local
    ตอบคำถามแบบ point query (หาคำตอบจากที่เดียว) ได้ดีมาก
    โมเดลพื้นฐานทำงานเร็วและเหมาะกับภาษาอังกฤษ
    โมเดล multi-lingual (bge-m3) รองรับหลายภาษารวมถึงไทย
    แนวโน้มจะดีขึ้นเรื่อยๆ เมื่อโมเดล open-source พัฒนา

    ข้อจำกัดที่ควรระวัง
    โมเดลพื้นฐานมีปัญหากับคำถามที่คลุมเครือ (ambiguous questions)
    ยังไม่เก่งในการรวบรวมข้อมูลจากหลายเอกสาร (multi-document context)
    โมเดลพื้นฐานรองรับเฉพาะภาษาอังกฤษ - ต้องใช้โมเดล multi-lingual สำหรับภาษาอื่น
    pgvector อาจไม่เหมาะกับ dataset ขนาดใหญ่มากๆ - ต้องพิจารณา vector DB อื่น

    สิ่งที่ต้องเตรียมพร้อม
    ต้องรัน service หลายตัวเพิ่มขึ้นเมื่อเทียบกับการเรียก API
    ต้องมีความรู้ในการ deploy และ manage infrastructure
    อาจต้องปรับแต่ง topK values และเทคนิคอื่นๆ ตาม use case
    ต้องมี hardware เพียงพอ (ทดสอบใช้ g5.2xlarge EC2 สำหรับ LLM)

    https://blog.yakkomajuri.com/blog/local-rag
    🚀 สร้าง RAG แบบ Local ได้จริง: ประสบการณ์จาก Skald ทีมพัฒนา Skald ได้ทดลองสร้างระบบ RAG (Retrieval-Augmented Generation) แบบ self-hosted ที่ไม่ต้องส่งข้อมูลไปยังบริการของบุคคลที่สาม โดยใช้เทคโนโลยี open-source ทั้งหมด เพื่อตอบโจทย์องค์กรที่ต้องการความเป็นส่วนตัวของข้อมูลแต่ยังต้องการใช้ประโยชน์จาก AI สมัยใหม่ การทดสอบใช้เนื้อหาจากเว็บไซต์ PostHog ประมาณ 2,000 เอกสาร โดยเปรียบเทียบประสิทธิภาพระหว่าง 3 รูปแบบ: Cloud APIs (Voyage + Claude), Hybrid (Voyage + GPT-OSS 20B), และ Fully Local (Sentence Transformers + GPT-OSS 20B) ผลลัพธ์แสดงให้เห็นว่าระบบ local สามารถทำงานได้จริงและให้ผลลัพธ์ที่ดีในหลายกรณี สิ่งที่น่าสนใจคือการ deploy ระบบทั้งหมดใช้เวลาเพียง 8 นาที รวมถึง vector database, reranking, embedding service และ document parser โดยใช้ Postgres + pgvector, Sentence Transformers, และ Docling ตามลำดับ ทำให้เห็นว่าการสร้าง RAG แบบ local ไม่ได้ยากอย่างที่คิด ผลการทดสอบพบว่า Cloud setup ได้คะแนน 9.45/10, Hybrid setup ได้ 9.18/10, ส่วน Local setup แบบพื้นฐานได้ 7.10/10 และเมื่อใช้โมเดล multi-lingual ที่ดีกว่าสามารถยกระดับเป็น 8.63/10 ได้ โดยจุดอ่อนหลักคือการตอบคำถามที่ต้องรวบรวมข้อมูลจากหลายเอกสาร แต่สำหรับคำถามแบบ point query ระบบ local ทำงานได้ดีมาก 📌 สรุปสาระสำคัญ ✅ องค์ประกอบของ RAG และทางเลือก Open-Source ➡️ Vector Database: Postgres + pgvector (แทน Pinecone, Weaviate) ➡️ Embeddings: Sentence Transformers all-MiniLM-L6-v2 (แทน OpenAI, Voyage) ➡️ LLM: GPT-OSS 20B ผ่าน llama.cpp (แทน GPT-4, Claude) ➡️ Reranker: Sentence Transformers cross-encoder (แทน Cohere, Voyage) ➡️ Document Parser: Docling ผ่าน docling-serve ✅ ผลการทดสอบประสิทธิภาพ ➡️ Voyage + Claude (Cloud): คะแนนเฉลี่ย 9.45/10 - ผ่านทุกคำถาม ➡️ Voyage + GPT-OSS 20B (Hybrid): คะแนนเฉลี่ย 9.18/10 - ผลลัพธ์ดีมาก ➡️ Local + โมเดลพื้นฐาน: คะแนนเฉลี่ย 7.10/10 - ดีสำหรับ point queries ➡️ Local + โมเดล multi-lingual: คะแนนเฉลี่ย 8.63/10 - ปรับปรุงได้มาก ✅ ข้อดีของ Local Setup ➡️ Deploy ได้ภายใน 8 นาที รวมทุก component ➡️ ไม่ต้องส่งข้อมูลออกนอกองค์กร - เหมาะกับข้อมูลที่ sensitive ➡️ ใช้เทคโนโลยี open-source ทั้งหมด (MIT-licensed) ➡️ รองรับการทำงานใน air-gapped infrastructure ✅ จุดแข็งของโมเดล Local ➡️ ตอบคำถามแบบ point query (หาคำตอบจากที่เดียว) ได้ดีมาก ➡️ โมเดลพื้นฐานทำงานเร็วและเหมาะกับภาษาอังกฤษ ➡️ โมเดล multi-lingual (bge-m3) รองรับหลายภาษารวมถึงไทย ➡️ แนวโน้มจะดีขึ้นเรื่อยๆ เมื่อโมเดล open-source พัฒนา ‼️ ข้อจำกัดที่ควรระวัง ⛔ โมเดลพื้นฐานมีปัญหากับคำถามที่คลุมเครือ (ambiguous questions) ⛔ ยังไม่เก่งในการรวบรวมข้อมูลจากหลายเอกสาร (multi-document context) ⛔ โมเดลพื้นฐานรองรับเฉพาะภาษาอังกฤษ - ต้องใช้โมเดล multi-lingual สำหรับภาษาอื่น ⛔ pgvector อาจไม่เหมาะกับ dataset ขนาดใหญ่มากๆ - ต้องพิจารณา vector DB อื่น ‼️ สิ่งที่ต้องเตรียมพร้อม ⛔ ต้องรัน service หลายตัวเพิ่มขึ้นเมื่อเทียบกับการเรียก API ⛔ ต้องมีความรู้ในการ deploy และ manage infrastructure ⛔ อาจต้องปรับแต่ง topK values และเทคนิคอื่นๆ ตาม use case ⛔ ต้องมี hardware เพียงพอ (ทดสอบใช้ g5.2xlarge EC2 สำหรับ LLM) https://blog.yakkomajuri.com/blog/local-rag
    0 Comments 0 Shares 161 Views 0 Reviews
  • Nitrux 5.0 เปิดตัวอย่างเป็นทางการ – ดิสโทร Linux แบบ Systemd-Free พร้อม Hyprland

    หลังจากพัฒนามาอย่างยาวนาน ทีมงาน Nitrux ได้ประกาศเปิดตัว Nitrux 5.0 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ โดยตัด KDE Plasma ออกและหันมาใช้ Hyprland เป็น Wayland compositor หลัก ทำให้ระบบมีความเบาและตอบสนองได้รวดเร็วขึ้น พร้อมเครื่องมือใหม่ ๆ เช่น Waybar, Wlogout, Crystal Dock และ Wofi ที่ช่วยให้การใช้งานลื่นไหลและทันสมัยมากขึ้น

    Nitrux 5.0 ยังมาพร้อมกับ สองเวอร์ชัน คือ Liquorix kernel สำหรับผู้ใช้ AMD และ CachyOS kernel สำหรับผู้ใช้ NVIDIA โดยทั้งสองรุ่นใช้ Linux kernel 6.17 และมีการปรับแต่งเพื่อให้ประสิทธิภาพสูงสุดในแต่ละแพลตฟอร์ม นอกจากนี้ยังมีการรวมเครื่องมือสำคัญ เช่น PipeWire สำหรับจัดการเสียงและวิดีโอ, NetworkManager สำหรับการเชื่อมต่อเครือข่าย และ Flatpak สำหรับติดตั้งแอปพลิเคชัน

    สิ่งที่โดดเด่นอีกอย่างคือการใช้ OpenRC แทน systemd ทำให้ระบบมีความยืดหยุ่นและเบากว่าเดิม พร้อมฟีเจอร์เสริมอย่าง SCX global vtime CPU scheduler และ Ananicy-cpp daemon ที่ช่วยจัดการทรัพยากร CPU และ RAM อย่างมีประสิทธิภาพ อย่างไรก็ตาม ผู้ใช้ที่ต้องการอัปเกรดจากเวอร์ชันเก่าไม่สามารถทำได้ ต้องติดตั้งใหม่ทั้งหมด

    จุดเด่นของ Nitrux 5.0
    ใช้ Hyprland แทน KDE Plasma
    มีเครื่องมือใหม่ เช่น Waybar, Wlogout, Crystal Dock, Wofi

    ตัวเลือก Kernel
    Liquorix สำหรับ AMD
    CachyOS สำหรับ NVIDIA

    ฟีเจอร์ระบบ
    ใช้ OpenRC แทน systemd
    มี SCX CPU scheduler และ Ananicy-cpp daemon

    คำเตือนสำหรับผู้ใช้
    ไม่สามารถอัปเกรดจากเวอร์ชันเก่า ต้องติดตั้งใหม่
    ผู้ใช้ที่ไม่คุ้นเคยกับ Wayland อาจต้องใช้เวลาเรียนรู้การปรับแต่ง

    https://9to5linux.com/systemd-free-nitrux-5-0-officially-released-with-hyprland-desktop-linux-kernel-6-17
    💻 Nitrux 5.0 เปิดตัวอย่างเป็นทางการ – ดิสโทร Linux แบบ Systemd-Free พร้อม Hyprland หลังจากพัฒนามาอย่างยาวนาน ทีมงาน Nitrux ได้ประกาศเปิดตัว Nitrux 5.0 ซึ่งถือเป็นการเปลี่ยนแปลงครั้งใหญ่ โดยตัด KDE Plasma ออกและหันมาใช้ Hyprland เป็น Wayland compositor หลัก ทำให้ระบบมีความเบาและตอบสนองได้รวดเร็วขึ้น พร้อมเครื่องมือใหม่ ๆ เช่น Waybar, Wlogout, Crystal Dock และ Wofi ที่ช่วยให้การใช้งานลื่นไหลและทันสมัยมากขึ้น Nitrux 5.0 ยังมาพร้อมกับ สองเวอร์ชัน คือ Liquorix kernel สำหรับผู้ใช้ AMD และ CachyOS kernel สำหรับผู้ใช้ NVIDIA โดยทั้งสองรุ่นใช้ Linux kernel 6.17 และมีการปรับแต่งเพื่อให้ประสิทธิภาพสูงสุดในแต่ละแพลตฟอร์ม นอกจากนี้ยังมีการรวมเครื่องมือสำคัญ เช่น PipeWire สำหรับจัดการเสียงและวิดีโอ, NetworkManager สำหรับการเชื่อมต่อเครือข่าย และ Flatpak สำหรับติดตั้งแอปพลิเคชัน สิ่งที่โดดเด่นอีกอย่างคือการใช้ OpenRC แทน systemd ทำให้ระบบมีความยืดหยุ่นและเบากว่าเดิม พร้อมฟีเจอร์เสริมอย่าง SCX global vtime CPU scheduler และ Ananicy-cpp daemon ที่ช่วยจัดการทรัพยากร CPU และ RAM อย่างมีประสิทธิภาพ อย่างไรก็ตาม ผู้ใช้ที่ต้องการอัปเกรดจากเวอร์ชันเก่าไม่สามารถทำได้ ต้องติดตั้งใหม่ทั้งหมด ✅ จุดเด่นของ Nitrux 5.0 ➡️ ใช้ Hyprland แทน KDE Plasma ➡️ มีเครื่องมือใหม่ เช่น Waybar, Wlogout, Crystal Dock, Wofi ✅ ตัวเลือก Kernel ➡️ Liquorix สำหรับ AMD ➡️ CachyOS สำหรับ NVIDIA ✅ ฟีเจอร์ระบบ ➡️ ใช้ OpenRC แทน systemd ➡️ มี SCX CPU scheduler และ Ananicy-cpp daemon ‼️ คำเตือนสำหรับผู้ใช้ ⛔ ไม่สามารถอัปเกรดจากเวอร์ชันเก่า ต้องติดตั้งใหม่ ⛔ ผู้ใช้ที่ไม่คุ้นเคยกับ Wayland อาจต้องใช้เวลาเรียนรู้การปรับแต่ง https://9to5linux.com/systemd-free-nitrux-5-0-officially-released-with-hyprland-desktop-linux-kernel-6-17
    9TO5LINUX.COM
    Systemd-Free Nitrux 5.0 Officially Released with Hyprland Desktop, Linux 6.17 - 9to5Linux
    Nitrux 5.0 distribution is now available for download with Linux kernel 6.17 and full Hyprland desktop environment.
    0 Comments 0 Shares 175 Views 0 Reviews
  • โมเดลเล็กแต่เก่งเกินตัว

    หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์

    โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น:
    อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร
    แอปพลิเคชันที่ต้องการ latency ต่ำ
    การ deploy แบบ local โดยไม่ต้องพึ่ง cloud

    รายละเอียดโมเดล:
    ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token
    รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX
    ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ

    มีทั้งหมด 8 รุ่นย่อย ได้แก่:
    Granite 4.0 H 1B และ H 350M (hybrid-SSM)
    Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม)
    แต่ละรุ่นมีทั้งแบบ base และ instruct

    ผลการทดสอบ:
    Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google
    โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3

    https://news.itsfoss.com/ibm-granite-4-nano/
    🧩 โมเดลเล็กแต่เก่งเกินตัว หลังจากเปิดตัว Granite 4.0 รุ่น Micro, Tiny และ Small ไปเมื่อต้นเดือน IBM ก็เดินหน้าต่อด้วยการเปิดตัว Granite 4.0 Nano ซึ่งเป็นโมเดลที่เล็กที่สุดในซีรีส์นี้ โดยมีจุดเด่นคือ ขนาดเล็ก ประสิทธิภาพสูง และเปิดให้ใช้งานฟรีในเชิงพาณิชย์ โมเดล Nano นี้ถูกออกแบบมาเพื่อใช้งานในสถานการณ์ที่โมเดลขนาดใหญ่ไม่เหมาะสม เช่น: 🎗️ อุปกรณ์ edge ที่มีข้อจำกัดด้านทรัพยากร 🎗️ แอปพลิเคชันที่ต้องการ latency ต่ำ 🎗️ การ deploy แบบ local โดยไม่ต้องพึ่ง cloud รายละเอียดโมเดล: 🎗️ ใช้ข้อมูลฝึกกว่า 15 ล้านล้าน token 🎗️ รองรับ runtime ยอดนิยม เช่น vLLM, llama.cpp, MLX 🎗️ ได้รับการรับรอง ISO 42001 ด้านการพัฒนา AI อย่างรับผิดชอบ มีทั้งหมด 8 รุ่นย่อย ได้แก่: 🎗️ Granite 4.0 H 1B และ H 350M (hybrid-SSM) 🎗️ Granite 4.0 1B และ 350M (transformer แบบดั้งเดิม) 🎗️ แต่ละรุ่นมีทั้งแบบ base และ instruct ผลการทดสอบ: 🎗️ Granite Nano ทำคะแนนเหนือกว่าหลายโมเดลขนาดใกล้เคียง เช่น Qwen ของ Alibaba, LFM ของ LiquidAI และ Gemma ของ Google 🎗️ โดดเด่นในงานที่ต้องใช้ agentic workflows เช่น IFEval และ BFCLv3 https://news.itsfoss.com/ibm-granite-4-nano/
    0 Comments 0 Shares 228 Views 0 Reviews
  • https://youtube.com/shorts/lKIPAaK2Wmc?si=pCPP2H9rAlfH7qV4
    https://youtube.com/shorts/lKIPAaK2Wmc?si=pCPP2H9rAlfH7qV4
    0 Comments 0 Shares 85 Views 0 Reviews
  • “แคลิฟอร์เนียออกกฎหมายใหม่ ให้ผู้ใช้กดปุ่มเดียว ‘Opt-Out’ จากการขายข้อมูล — เว็บเบราว์เซอร์ต้องปรับตัวก่อนปี 2027”

    เมื่อวันที่ 9 ตุลาคม 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมายใหม่ชื่อว่า “California Opt Me Out Act” ซึ่งเป็นการปรับปรุงจากกฎหมาย California Consumer Privacy Act (CCPA) ที่มีมาตั้งแต่ปี 2018 โดยเน้นให้ผู้บริโภคสามารถ “ยกเลิกการอนุญาตให้เว็บไซต์ขายหรือแชร์ข้อมูลส่วนตัว” ได้ง่ายขึ้นผ่านเว็บเบราว์เซอร์โดยตรง

    ก่อนหน้านี้ ผู้ใช้ต้องกดยืนยันการ opt-out ทีละเว็บไซต์ หรือใช้เบราว์เซอร์เฉพาะที่รองรับฟีเจอร์นี้ เช่น Brave หรือใช้ส่วนขยาย (extension) เพิ่มเติม แต่กฎหมายใหม่จะบังคับให้เบราว์เซอร์ทุกตัวที่ใช้งานในแคลิฟอร์เนียต้องมีปุ่ม opt-out ที่หาเจอง่าย และส่งสัญญาณ opt-out preference signal (OOPS) ไปยังเว็บไซต์โดยอัตโนมัติ

    เมื่อเปิดใช้งาน OOPS แล้ว เว็บไซต์จะต้องหยุดการขายหรือแชร์ข้อมูล เช่น ประวัติการเข้าชม, ตำแหน่ง, ความสนใจ และพฤติกรรมการซื้อของผู้ใช้ โดยไม่ต้องให้ผู้ใช้ยืนยันซ้ำในแต่ละเว็บไซต์

    กฎหมายนี้จะมีผลบังคับใช้ในวันที่ 1 มกราคม 2027 และถือเป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์ต้องรองรับการ opt-out แบบ universal ซึ่งนักวิเคราะห์เชื่อว่าจะส่งผลกระทบต่ออุตสาหกรรมโฆษณาออนไลน์อย่างมาก

    นอกจากนี้ยังมีอีกสองกฎหมายที่ลงนามพร้อมกัน ได้แก่

    กฎหมายที่บังคับให้แพลตฟอร์มโซเชียลมีเดียต้องให้ผู้ใช้ยกเลิกบัญชีได้ง่าย และลบข้อมูลทั้งหมดทันที
    กฎหมายที่ปรับปรุงระบบลงทะเบียน data broker โดยให้ผู้ใช้รู้ว่าใครเก็บข้อมูลของตน และนำไปใช้อย่างไร

    ข้อมูลสำคัญจากข่าว
    แคลิฟอร์เนียออกกฎหมาย “Opt Me Out Act” เพื่อให้ผู้ใช้ opt-out ได้ง่ายผ่านเบราว์เซอร์
    กฎหมายบังคับให้เบราว์เซอร์ต้องมีปุ่ม opt-out ที่หาเจอง่ายและส่งสัญญาณ OOPS
    เมื่อเปิดใช้งาน OOPS เว็บไซต์ต้องหยุดขายหรือแชร์ข้อมูลทันที
    กฎหมายมีผลบังคับใช้วันที่ 1 มกราคม 2027
    เป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์รองรับ opt-out แบบ universal
    ผู้ใช้ไม่ต้องติดตั้ง extension หรือใช้เบราว์เซอร์เฉพาะอีกต่อไป
    อีกสองกฎหมายที่ลงนามพร้อมกันเกี่ยวกับการลบบัญชีโซเชียลและการเปิดเผยข้อมูลจาก data broker

    ข้อมูลเสริมจากภายนอก
    OOPS (Opt-Out Preference Signal) เป็นมาตรฐานที่กำหนดโดย CCPA และ CPPA
    Brave และ Firefox เป็นเบราว์เซอร์ที่รองรับ OOPS มานานแล้ว
    Data broker คือบริษัทที่รวบรวมข้อมูลจากหลายแหล่งเพื่อขายให้กับนักโฆษณา
    การ opt-out แบบ universal ช่วยลดความยุ่งยากในการปกป้องข้อมูลส่วนตัว
    กฎหมายนี้อาจกระทบต่อรายได้ของเว็บไซต์ที่พึ่งพาโฆษณาแบบ personalized

    คำเตือนและข้อจำกัด
    กฎหมายมีผลปี 2027 ผู้ใช้ยังต้องใช้ extension หรือเบราว์เซอร์เฉพาะจนกว่าจะถึงวันนั้น
    เบราว์เซอร์ที่ไม่ปรับตัวอาจถูกห้ามใช้งานในแคลิฟอร์เนีย
    เว็บไซต์ที่ไม่รองรับ OOPS อาจละเมิดกฎหมายและถูกลงโทษ
    ผู้ใช้บางรายอาจไม่รู้ว่าต้องเปิดใช้งาน OOPS ด้วยตนเอง
    การ opt-out อาจทำให้เว็บไซต์บางแห่งแสดงเนื้อหาหรือโฆษณาไม่ตรงความสนใจ

    https://therecord.media/california-signs-law-opt-out-browsers
    🛑 “แคลิฟอร์เนียออกกฎหมายใหม่ ให้ผู้ใช้กดปุ่มเดียว ‘Opt-Out’ จากการขายข้อมูล — เว็บเบราว์เซอร์ต้องปรับตัวก่อนปี 2027” เมื่อวันที่ 9 ตุลาคม 2025 ผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom ได้ลงนามในกฎหมายใหม่ชื่อว่า “California Opt Me Out Act” ซึ่งเป็นการปรับปรุงจากกฎหมาย California Consumer Privacy Act (CCPA) ที่มีมาตั้งแต่ปี 2018 โดยเน้นให้ผู้บริโภคสามารถ “ยกเลิกการอนุญาตให้เว็บไซต์ขายหรือแชร์ข้อมูลส่วนตัว” ได้ง่ายขึ้นผ่านเว็บเบราว์เซอร์โดยตรง ก่อนหน้านี้ ผู้ใช้ต้องกดยืนยันการ opt-out ทีละเว็บไซต์ หรือใช้เบราว์เซอร์เฉพาะที่รองรับฟีเจอร์นี้ เช่น Brave หรือใช้ส่วนขยาย (extension) เพิ่มเติม แต่กฎหมายใหม่จะบังคับให้เบราว์เซอร์ทุกตัวที่ใช้งานในแคลิฟอร์เนียต้องมีปุ่ม opt-out ที่หาเจอง่าย และส่งสัญญาณ opt-out preference signal (OOPS) ไปยังเว็บไซต์โดยอัตโนมัติ เมื่อเปิดใช้งาน OOPS แล้ว เว็บไซต์จะต้องหยุดการขายหรือแชร์ข้อมูล เช่น ประวัติการเข้าชม, ตำแหน่ง, ความสนใจ และพฤติกรรมการซื้อของผู้ใช้ โดยไม่ต้องให้ผู้ใช้ยืนยันซ้ำในแต่ละเว็บไซต์ กฎหมายนี้จะมีผลบังคับใช้ในวันที่ 1 มกราคม 2027 และถือเป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์ต้องรองรับการ opt-out แบบ universal ซึ่งนักวิเคราะห์เชื่อว่าจะส่งผลกระทบต่ออุตสาหกรรมโฆษณาออนไลน์อย่างมาก นอกจากนี้ยังมีอีกสองกฎหมายที่ลงนามพร้อมกัน ได้แก่ 🔰 กฎหมายที่บังคับให้แพลตฟอร์มโซเชียลมีเดียต้องให้ผู้ใช้ยกเลิกบัญชีได้ง่าย และลบข้อมูลทั้งหมดทันที 🔰 กฎหมายที่ปรับปรุงระบบลงทะเบียน data broker โดยให้ผู้ใช้รู้ว่าใครเก็บข้อมูลของตน และนำไปใช้อย่างไร ✅ ข้อมูลสำคัญจากข่าว ➡️ แคลิฟอร์เนียออกกฎหมาย “Opt Me Out Act” เพื่อให้ผู้ใช้ opt-out ได้ง่ายผ่านเบราว์เซอร์ ➡️ กฎหมายบังคับให้เบราว์เซอร์ต้องมีปุ่ม opt-out ที่หาเจอง่ายและส่งสัญญาณ OOPS ➡️ เมื่อเปิดใช้งาน OOPS เว็บไซต์ต้องหยุดขายหรือแชร์ข้อมูลทันที ➡️ กฎหมายมีผลบังคับใช้วันที่ 1 มกราคม 2027 ➡️ เป็นกฎหมายแรกในสหรัฐฯ ที่บังคับให้เบราว์เซอร์รองรับ opt-out แบบ universal ➡️ ผู้ใช้ไม่ต้องติดตั้ง extension หรือใช้เบราว์เซอร์เฉพาะอีกต่อไป ➡️ อีกสองกฎหมายที่ลงนามพร้อมกันเกี่ยวกับการลบบัญชีโซเชียลและการเปิดเผยข้อมูลจาก data broker ✅ ข้อมูลเสริมจากภายนอก ➡️ OOPS (Opt-Out Preference Signal) เป็นมาตรฐานที่กำหนดโดย CCPA และ CPPA ➡️ Brave และ Firefox เป็นเบราว์เซอร์ที่รองรับ OOPS มานานแล้ว ➡️ Data broker คือบริษัทที่รวบรวมข้อมูลจากหลายแหล่งเพื่อขายให้กับนักโฆษณา ➡️ การ opt-out แบบ universal ช่วยลดความยุ่งยากในการปกป้องข้อมูลส่วนตัว ➡️ กฎหมายนี้อาจกระทบต่อรายได้ของเว็บไซต์ที่พึ่งพาโฆษณาแบบ personalized ‼️ คำเตือนและข้อจำกัด ⛔ กฎหมายมีผลปี 2027 ผู้ใช้ยังต้องใช้ extension หรือเบราว์เซอร์เฉพาะจนกว่าจะถึงวันนั้น ⛔ เบราว์เซอร์ที่ไม่ปรับตัวอาจถูกห้ามใช้งานในแคลิฟอร์เนีย ⛔ เว็บไซต์ที่ไม่รองรับ OOPS อาจละเมิดกฎหมายและถูกลงโทษ ⛔ ผู้ใช้บางรายอาจไม่รู้ว่าต้องเปิดใช้งาน OOPS ด้วยตนเอง ⛔ การ opt-out อาจทำให้เว็บไซต์บางแห่งแสดงเนื้อหาหรือโฆษณาไม่ตรงความสนใจ https://therecord.media/california-signs-law-opt-out-browsers
    THERECORD.MEDIA
    California enacts law giving consumers ability to universally opt out of data sharing
    The California Consumer Privacy Act, signed in 2018, gave Californians the right to send opt-out signals, but major browsers have not had to make opt-outs simple to use.
    0 Comments 0 Shares 282 Views 0 Reviews
  • 'เตีย บัญ' ตรวจเรือคอร์เวตติดขีปนาวุธ Type 056 ของจีน 2 ลำ คาดแลกสิทธิ์ใช้งานฐานทัพเรือเรียม แต่ยังไร้การกำหนดส่งมอบอย่างแน่ชัด
    https://www.thai-tai.tv/news/21761/
    .
    #เรือรบType056 #จีนกัมพูชา #ฐานทัพเรือเรียม #เตียบัญ #ความช่วยเหลือทางทหาร #ขีปนาวุธ #ความมั่นคงภูมิภาค #CPP
    'เตีย บัญ' ตรวจเรือคอร์เวตติดขีปนาวุธ Type 056 ของจีน 2 ลำ คาดแลกสิทธิ์ใช้งานฐานทัพเรือเรียม แต่ยังไร้การกำหนดส่งมอบอย่างแน่ชัด https://www.thai-tai.tv/news/21761/ . #เรือรบType056 #จีนกัมพูชา #ฐานทัพเรือเรียม #เตียบัญ #ความช่วยเหลือทางทหาร #ขีปนาวุธ #ความมั่นคงภูมิภาค #CPP
    0 Comments 0 Shares 298 Views 0 Reviews
  • https://youtu.be/WgFe-vLcPp4
    https://youtu.be/WgFe-vLcPp4
    0 Comments 0 Shares 100 Views 0 Reviews
  • “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า”

    Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000

    แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้

    ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย

    ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า

    Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark”

    ข้อมูลสำคัญจากข่าว
    Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB
    ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000
    คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน
    ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B

    การเปรียบเทียบกับคลัสเตอร์ Framework
    คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า
    Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน
    Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม
    การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร

    ข้อมูลเสริมจากภายนอก
    Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec
    Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่
    UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก
    บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง

    https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    🧠 “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า” Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000 แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้ ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark” ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB ➡️ ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000 ➡️ คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ➡️ ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B ✅ การเปรียบเทียบกับคลัสเตอร์ Framework ➡️ คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า ➡️ Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน ➡️ Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม ➡️ การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec ➡️ Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่ ➡️ UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก ➡️ บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    0 Comments 0 Shares 372 Views 0 Reviews
  • “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด”

    ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว

    เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4

    Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่:

    Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT

    LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย

    เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล

    นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง

    Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น”

    แนวคิดการใช้ LLM แบบ local บน macOS
    ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก
    ปลอดภัยกว่าและควบคุมข้อมูลได้เอง
    ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB

    เครื่องมือที่ใช้
    Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF
    LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX
    LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง

    โมเดลที่แนะนำ
    Gemma 3 4B QAT: เร็วและคุณภาพดี
    Qwen3 4B Thinking: มี reasoning และขนาดเล็ก
    GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง
    Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS

    ฟีเจอร์พิเศษใน LM Studio
    MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory
    Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้
    Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า
    Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้

    ข้อมูลเสริมจากภายนอก
    LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2
    GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple
    โมเดล reasoning ใช้เวลานานและกิน context window มาก
    Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น

    https://blog.6nok.org/experimenting-with-local-llms-on-macos/
    🧠 “ลองเล่น LLM บน Mac แบบไม่ต้องพึ่งคลาวด์! จากคนไม่อิน AI สู่การสร้างผู้ช่วยส่วนตัวในเครื่อง — ปลอดภัยกว่า เร็วกว่า และสนุกกว่าที่คิด” ถ้าคุณคิดว่า AI ต้องรันบนเซิร์ฟเวอร์ใหญ่ๆ เท่านั้น — บล็อกนี้จะเปลี่ยนความคิดคุณ เพราะผู้เขียน Fatih ซึ่งออกตัวว่า “ไม่อินกับ AI” ได้ทดลองรันโมเดล LLM แบบ local บน MacBook M2 รุ่นปี 2022 โดยไม่ต้องพึ่งคลาวด์เลยแม้แต่นิดเดียว เขาเริ่มจากความสงสัยในกระแส AI ที่ดูจะเกินจริง และไม่เชื่อว่าโมเดลพวกนี้จะมี “ความคิด” หรือ “ความสร้างสรรค์” จริงๆ แต่ก็ยอมรับว่า LLM มีพฤติกรรม emergent ที่น่าสนใจ และสามารถใช้ประโยชน์ได้ เช่น สรุปข้อมูล, เขียนโน้ต, หรือแม้แต่ช่วยระบายความรู้สึกตอนตี 4 Fatih เลือกใช้สองเครื่องมือหลักในการรัน LLM บน macOS ได้แก่: Llama.cpp: ไลบรารีโอเพ่นซอร์สที่รันได้เร็วและปรับแต่งได้เยอะ ติดตั้งผ่าน Nix และใช้โมเดล GGUF เช่น Gemma 3 4B QAT LM Studio: แอป GUI ที่ใช้ง่ายกว่า รองรับทั้ง llama.cpp และ MLX (เอนจิน ML ของ Apple) มีระบบจัดการโมเดล, แชต, และการตั้งค่าที่หลากหลาย เขาแนะนำให้ใช้โมเดลขนาดเล็ก เช่น Qwen3 4B หรือ Gemma 3 12B เพื่อให้รันได้ลื่นบน RAM 16GB โดยไม่ต้องรีบูตเครื่อง และยังสามารถใช้ฟีเจอร์ reasoning, tool use, และ vision ได้ในบางโมเดล นอกจากนี้ LM Studio ยังมีระบบ MCP (Model Capability Provider) ที่ให้โมเดลเรียกใช้เครื่องมือภายนอก เช่น JavaScript sandbox, web search, หรือแม้แต่ memory สำหรับเก็บข้อมูลระยะยาว — ทำให้สามารถสร้าง “agent” ที่คิด วิเคราะห์ และเรียกใช้เครื่องมือได้เอง Fatih ย้ำว่าเขาไม่เชื่อใน AI ที่รันบนคลาวด์ เพราะเสี่ยงต่อการเก็บข้อมูลส่วนตัว และไม่อยากสนับสนุนบริษัทที่มีพฤติกรรมไม่โปร่งใส เขาจึงเลือกใช้โมเดล open-weight ที่รันในเครื่อง และเชื่อว่า “ความลับบางอย่างควรอยู่ในเครื่องเราเท่านั้น” ✅ แนวคิดการใช้ LLM แบบ local บน macOS ➡️ ไม่ต้องพึ่งคลาวด์หรือเซิร์ฟเวอร์ภายนอก ➡️ ปลอดภัยกว่าและควบคุมข้อมูลได้เอง ➡️ ใช้ได้แม้ในเครื่อง MacBook M2 RAM 16GB ✅ เครื่องมือที่ใช้ ➡️ Llama.cpp: โอเพ่นซอร์ส ปรับแต่งได้เยอะ รองรับ GGUF ➡️ LM Studio: GUI ใช้ง่าย รองรับทั้ง llama.cpp และ MLX ➡️ LM Studio มีระบบจัดการแชต, โมเดล, และการตั้งค่าขั้นสูง ✅ โมเดลที่แนะนำ ➡️ Gemma 3 4B QAT: เร็วและคุณภาพดี ➡️ Qwen3 4B Thinking: มี reasoning และขนาดเล็ก ➡️ GPT-OSS 20B: ใหญ่แต่ฉลาดที่สุดในกลุ่มที่รันได้บนเครื่อง ➡️ Phi-4 14B: เคยเป็นตัวโปรดก่อน GPT-OSS ✅ ฟีเจอร์พิเศษใน LM Studio ➡️ MCP: ให้โมเดลเรียกใช้เครื่องมือ เช่น JavaScript, web search, memory ➡️ Vision: โมเดลบางตัวสามารถอ่านภาพและวิเคราะห์ได้ ➡️ Reasoning: โมเดลที่ “คิดก่อนตอบ” แม้จะช้ากว่าแต่แม่นยำกว่า ➡️ Preset: ตั้งค่า system prompt สำหรับบทบาทต่างๆ ได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ LM Studio รองรับ macOS M1–M4 และ Windows/Linux ที่มี AVX2 ➡️ GGUF เป็นฟอร์แมตที่ใช้กับ llama.cpp ส่วน MLX ใช้กับเอนจินของ Apple ➡️ โมเดล reasoning ใช้เวลานานและกิน context window มาก ➡️ Vision model ยังไม่แม่นเท่า OCR จริง แต่ใช้ได้ในงานเบื้องต้น https://blog.6nok.org/experimenting-with-local-llms-on-macos/
    BLOG.6NOK.ORG
    Experimenting with local LLMs on macOS
    A developer's guide to downloading and running LLMs on macOS, for experimentation and privacy.
    0 Comments 0 Shares 307 Views 0 Reviews
  • เรื่องเล่าจากข่าว: MLPerf Client 1.0 — เครื่องมือทดสอบ AI บนเครื่องส่วนตัวที่ใช้ง่ายขึ้นและครอบคลุมมากขึ้น

    ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน แต่หลายคนยังใช้โมเดลผ่านระบบคลาวด์ เช่น ChatGPT หรือ Gemini ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดด้านความเป็นส่วนตัวและการควบคุม

    MLPerf Client 1.0 จึงถูกพัฒนาโดย MLCommons เพื่อให้ผู้ใช้สามารถทดสอบประสิทธิภาพของโมเดล AI บนเครื่องของตัวเอง—ไม่ว่าจะเป็นโน้ตบุ๊ก, เดสก์ท็อป หรือเวิร์กสเตชัน โดยเวอร์ชันใหม่นี้มาพร้อม GUI ที่ใช้งานง่าย และรองรับโมเดลใหม่ ๆ เช่น Llama 3.1, Phi 3.5 และ Phi 4 Reasoning

    นอกจากนี้ยังรองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่าย เช่น AMD, Intel, NVIDIA, Apple และ Qualcomm ผ่าน SDK และ execution path ที่หลากหลาย รวมถึงสามารถทดสอบงานที่ซับซ้อน เช่น การสรุปเนื้อหาด้วย context window ขนาด 8000 tokens

    MLPerf Client 1.0 เปิดตัวพร้อม GUI ใช้งานง่ายสำหรับผู้ใช้ทั่วไป
    ไม่ต้องใช้ command line เหมือนเวอร์ชันก่อน
    มีระบบมอนิเตอร์ทรัพยากรแบบเรียลไทม์

    รองรับโมเดลใหม่หลายตัว เช่น Llama 2, Llama 3.1, Phi 3.5 และ Phi 4 Reasoning
    ครอบคลุมทั้งโมเดลขนาดเล็กและใหญ่
    ทดสอบได้ทั้งการสนทนา, การเขียนโค้ด และการสรุปเนื้อหา

    สามารถทดสอบงานที่ใช้ context window ขนาดใหญ่ เช่น 4000 และ 8000 tokens
    เหมาะกับการวัดประสิทธิภาพในงานสรุปเนื้อหายาว
    ต้องใช้ GPU ที่มี VRAM อย่างน้อย 16GB

    รองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่ายผ่าน execution path ต่าง ๆ
    เช่น ONNX Runtime, OpenVINO, MLX, Llama.cpp
    ครอบคลุมทั้ง GPU, NPU และ CPU hybrid

    สามารถดาวน์โหลดและใช้งานฟรีผ่าน GitHub
    รองรับ Windows และ macOS
    เหมาะกับนักพัฒนา, นักวิจัย และผู้ใช้ทั่วไป

    การทดสอบบาง workload ต้องใช้ฮาร์ดแวร์ระดับสูง เช่น GPU 16GB VRAM ขึ้นไป
    ผู้ใช้ทั่วไปอาจไม่สามารถรันได้ครบทุกชุดทดสอบ
    ต้องตรวจสอบสเปกก่อนใช้งาน

    การเปรียบเทียบผลลัพธ์ระหว่างอุปกรณ์ต่าง ๆ อาจไม่แม่นยำหากไม่ได้ตั้งค่าระบบให้เหมือนกัน
    ต้องใช้ configuration ที่เทียบเคียงได้
    ไม่ควรใช้ผลลัพธ์เพื่อสรุปคุณภาพของฮาร์ดแวร์โดยตรง

    การใช้ execution path ที่ไม่เหมาะกับอุปกรณ์อาจทำให้ผลลัพธ์ผิดเพี้ยน
    เช่น ใช้ path สำหรับ GPU บนระบบที่ไม่มี GPU
    ต้องเลือก path ให้ตรงกับฮาร์ดแวร์ที่ใช้งานจริง

    การทดสอบโมเดลขนาดใหญ่อาจใช้เวลานานและกินทรัพยากรสูง
    อาจทำให้เครื่องร้อนหรือหน่วง
    ควรใช้ในสภาพแวดล้อมที่ควบคุมได้

    https://www.tomshardware.com/software/mlperf-client-1-0-ai-benchmark-released-new-testing-toolkit-sports-a-gui-covers-more-models-and-tasks-and-supports-more-hardware-acceleration-paths
    🎙️ เรื่องเล่าจากข่าว: MLPerf Client 1.0 — เครื่องมือทดสอบ AI บนเครื่องส่วนตัวที่ใช้ง่ายขึ้นและครอบคลุมมากขึ้น ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน แต่หลายคนยังใช้โมเดลผ่านระบบคลาวด์ เช่น ChatGPT หรือ Gemini ซึ่งแม้จะสะดวก แต่ก็มีข้อจำกัดด้านความเป็นส่วนตัวและการควบคุม MLPerf Client 1.0 จึงถูกพัฒนาโดย MLCommons เพื่อให้ผู้ใช้สามารถทดสอบประสิทธิภาพของโมเดล AI บนเครื่องของตัวเอง—ไม่ว่าจะเป็นโน้ตบุ๊ก, เดสก์ท็อป หรือเวิร์กสเตชัน โดยเวอร์ชันใหม่นี้มาพร้อม GUI ที่ใช้งานง่าย และรองรับโมเดลใหม่ ๆ เช่น Llama 3.1, Phi 3.5 และ Phi 4 Reasoning นอกจากนี้ยังรองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่าย เช่น AMD, Intel, NVIDIA, Apple และ Qualcomm ผ่าน SDK และ execution path ที่หลากหลาย รวมถึงสามารถทดสอบงานที่ซับซ้อน เช่น การสรุปเนื้อหาด้วย context window ขนาด 8000 tokens ✅ MLPerf Client 1.0 เปิดตัวพร้อม GUI ใช้งานง่ายสำหรับผู้ใช้ทั่วไป ➡️ ไม่ต้องใช้ command line เหมือนเวอร์ชันก่อน ➡️ มีระบบมอนิเตอร์ทรัพยากรแบบเรียลไทม์ ✅ รองรับโมเดลใหม่หลายตัว เช่น Llama 2, Llama 3.1, Phi 3.5 และ Phi 4 Reasoning ➡️ ครอบคลุมทั้งโมเดลขนาดเล็กและใหญ่ ➡️ ทดสอบได้ทั้งการสนทนา, การเขียนโค้ด และการสรุปเนื้อหา ✅ สามารถทดสอบงานที่ใช้ context window ขนาดใหญ่ เช่น 4000 และ 8000 tokens ➡️ เหมาะกับการวัดประสิทธิภาพในงานสรุปเนื้อหายาว ➡️ ต้องใช้ GPU ที่มี VRAM อย่างน้อย 16GB ✅ รองรับการเร่งความเร็วด้วยฮาร์ดแวร์จากหลายค่ายผ่าน execution path ต่าง ๆ ➡️ เช่น ONNX Runtime, OpenVINO, MLX, Llama.cpp ➡️ ครอบคลุมทั้ง GPU, NPU และ CPU hybrid ✅ สามารถดาวน์โหลดและใช้งานฟรีผ่าน GitHub ➡️ รองรับ Windows และ macOS ➡️ เหมาะกับนักพัฒนา, นักวิจัย และผู้ใช้ทั่วไป ‼️ การทดสอบบาง workload ต้องใช้ฮาร์ดแวร์ระดับสูง เช่น GPU 16GB VRAM ขึ้นไป ⛔ ผู้ใช้ทั่วไปอาจไม่สามารถรันได้ครบทุกชุดทดสอบ ⛔ ต้องตรวจสอบสเปกก่อนใช้งาน ‼️ การเปรียบเทียบผลลัพธ์ระหว่างอุปกรณ์ต่าง ๆ อาจไม่แม่นยำหากไม่ได้ตั้งค่าระบบให้เหมือนกัน ⛔ ต้องใช้ configuration ที่เทียบเคียงได้ ⛔ ไม่ควรใช้ผลลัพธ์เพื่อสรุปคุณภาพของฮาร์ดแวร์โดยตรง ‼️ การใช้ execution path ที่ไม่เหมาะกับอุปกรณ์อาจทำให้ผลลัพธ์ผิดเพี้ยน ⛔ เช่น ใช้ path สำหรับ GPU บนระบบที่ไม่มี GPU ⛔ ต้องเลือก path ให้ตรงกับฮาร์ดแวร์ที่ใช้งานจริง ‼️ การทดสอบโมเดลขนาดใหญ่อาจใช้เวลานานและกินทรัพยากรสูง ⛔ อาจทำให้เครื่องร้อนหรือหน่วง ⛔ ควรใช้ในสภาพแวดล้อมที่ควบคุมได้ https://www.tomshardware.com/software/mlperf-client-1-0-ai-benchmark-released-new-testing-toolkit-sports-a-gui-covers-more-models-and-tasks-and-supports-more-hardware-acceleration-paths
    0 Comments 0 Shares 414 Views 0 Reviews


  • ฮุนเซนกับจักรวาลทุนสีเทา

    บทความโดย สุรวิชช์ วีรวรรณ

    และคำแปลเขมร

    ហ៊ុន សែន និងចក្រវិថីទុនពណ៌ប្រផេះ

    ក្នុងរយៈពេលប៉ុន្មានឆ្នាំចុងក្រោយនេះ ពិភពលោកបានផ្តោតទស្សនៈទៅលើប្រទេសកម្ពុជា មិនមែនថាជាប្រទេសដែលរួចផុតពីសង្គ្រាមស៊ីវិលទេ ប៉ុន្តែជាស្តាប់នៃអាជីវកម្មឧក្រិដ្ឋកម្មសាយបឺ និងបណ្តាញទុនប្រផេះដែលកំពុងលើកកំពស់អំណាចឲ្យក្រុមមនុស្សមួយចំនួននៅក្រោមរបាំងនៃ “សេដ្ឋកិច្ចពិសេស” និងកាស៊ីណូតាមព្រំដែន។ ប្រជាជនជាងម៉ឺននាក់ពីចិន ថៃ មីយ៉ាន់ម៉ា ឡាវ វៀតណាម និងហ្វ៊ីលីពីន ត្រូវបានបញ្ឆោតឲ្យធ្វើការនៅក្នុងមជ្ឈមណ្ឌលបោកប្រាស់តាមអនឡាញ និងត្រូវគេបង្ខំទុកឲ្យធ្វើការដូចជាឈ្លក់បម្រើក្នុងប្រព័ន្ធពាណិជ្ជកម្មទំនើបដែលមិនស្មើភាពនឹងសិទ្ធិមនុស្សទេ។

    នៅកណ្តាលប្រព័ន្ធនេះគឺជាគ្រួសាររបស់អតីតនាយករដ្ឋមន្ត្រី ហ៊ុន សែន ដែលគ្រប់គ្រងប្រទេសកម្ពុជាមកជិត៤០ឆ្នាំ។ ទោះបីជានៅឆ្នាំ២០២៣ លោកបានបញ្ជូនអំណាចទៅឲ្យកូនប្រុសឈ្មោះ ហ៊ុន ម៉ាណែត ក៏ដោយ តែលោកនៅតែជាអ្នកគ្រប់គ្រងខាងក្រោយនៃរបប “ទុនកូនចៅ” និងការផ្តល់អំណាចដល់ក្រុមមនុស្សមួយតិចតួច។ សេដ្ឋកិច្ចកម្ពុជា ត្រូវបានប្រើជាឧបករណ៍សេដ្ឋកិច្ចប្រផេះ និងអំណាច “ឧកញ៉ា” បានក្លាយជានិមិត្តសញ្ញានៃសិទ្ធិពិសេស និងភាពលើសច្បាប់។

    មជ្ឈមណ្ឌលដ៏សំខាន់មួយនៃទុនប្រផេះ គឺក្រុមហ៊ុន “Huione Group” ដែលមានមូលដ្ឋាននៅភ្នំពេញ។ ក្រុមហ៊ុននេះមានអាជីវកម្មសំខាន់ៗដូចជា Huione Pay, Huione Crypto និង Huione Guarantee ដែលត្រូវបានប្រើប្រាស់ដើម្បីលាងប្រាក់ និងផ្លាស់ប្តូរព័ត៌មានបោកប្រាស់ជាសកល។ អង្គការសហប្រជាជាតិ និងយោងតាមរបាយការណ៍សន្តិសុខសហរដ្ឋអាមេរិក បានបង្ហាញថា Huione Guarantee មានប្រតិបត្តិការពាណិជ្ជកម្មរហូតដល់ ២៤,០០០–២៧,០០០លានដុល្លារចាប់តាំងពីឆ្នាំ ២០២១ ហើយគឺជាមជ្ឈមណ្ឌលលាងប្រាក់ធំបំផុតលើពិភពលោក។ មនុស្សដែលពាក់ពន្ធ័ជាមួយក្រុមនេះគឺ “ហ៊ុន តូ” ប្អូនបង្កាត់នាយករដ្ឋមន្ត្រី ហ៊ុន ម៉ាណែត និងជាហៅថ្លៃរបស់ ហ៊ុន សែន។

    ក្រៅពី ហ៊ុន តូ មានក្រុមទុនធំៗទៀតដែលជាប់ទាក់ទងជាមួយគ្រួសារហ៊ុន រួមមាន “លី យុងផាត់” (Ly Yong Phat) ដែលជាអ្នកលេងអាជីវកម្មជនជាតិភាគច្រើនកម្ពុជា-ថៃ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន LYP Group និងសេដ្ឋកិច្ចពិសេសនៅខេត្ត Koh Kong និងបើកដំណើរការកាស៊ីណូជាច្រើន។ ក្នុងឆ្នាំ២០២៤ រដ្ឋាភិបាលអាមេរិកបានចេញវិធានការផ្ដន្ទាទោសលី យុងផាត់ក្រោមច្បាប់ Global Magnitsky Act ដោយសារ ជាប់ពាក់ពន្ធ័នឹងការបង្ខំឲ្យប្រើប្រាស់កម្លាំងពលកម្មក្នុងមជ្ឈមណ្ឌលស្កែម (scam center)។

    លី យុងផាត់ មិនមែនត្រឹមជាអ្នកគាំទ្ររដ្ឋាភិបាលទេ ប៉ុន្តែគាត់មានការតភ្ជាប់គ្រួសារនឹង ហ៊ុន សែន តាមរយៈកូនស្រីរបស់គាត់ដែលរៀបការជាមួយហ៊ុន ជា (Hun Chea) ដែលជាកូនប្រុសរបស់ហ៊ុន សែន។ គាត់ក្លាយជាសមាជិកសំខាន់ម្នាក់នៃ “រាជវង្សអំណាច” ដែលទទួលបានសិទ្ធិពិសេសគ្រប់វិស័យ។

    អ្នកមានឥទ្ធិពលទៀតគឺ “កុក អាន” (Kok An) ជាជនជាតិចិន ដែលជាសមាជិកព្រឹទ្ធសភា CPP និងម្ចាស់កាស៊ីណូ Crown Casino នៅទីក្រុង Poipet និង Sihanoukville។ គាត់ត្រូវបានចោទថាពាក់ពន្ធ័នឹងការជួញដូរមនុស្ស និងកម្លាំងពលកម្មខុសច្បាប់ ប៉ុន្តែម្ចាស់អំណាចមិនសូវចាត់ការណ៍ទេ។

    Try Pheap គឺជាអ្នកធ្វើអាជីវកម្មធំម្នាក់ទៀតដែលបានទទួលសិទិ្ធប្រើប្រាស់ដីព្រៃធំៗ និងធនធានធម្មជាតិ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន Try Pheap Group និងដឹកនាំសេដ្ឋកិច្ចពិសេស Thmor Da ដែលត្រូវបានយោងថាជាគេហដ្ឋានស្កែម។ គាត់ត្រូវបានអាមេរិកផ្ដន្ទាទោសនៅឆ្នាំ ២០១៩ ដោយសារ ទោសកាត់បន្ថយព្រៃឈើខុសច្បាប់ លាងប្រាក់ និងការគំរាមដល់សហគមន៍ជនជាតិដើម។

    Chen Zhi ជាជនជាតិចិនទទួលសញ្ជាតិកម្ពុជា និងជាប្រធានក្រុមហ៊ុន Prince Group។ គាត់បានទទួលតំណែងឧកញ៉ា និងសិទ្ធិពិសេសក្នុងគម្រោងអភិវឌ្ឍន៍នៅតាមបណ្តាខេត្ត ជាពិសេស Sihanoukville ដែលត្រូវបានចោទថាជាគេហដ្ឋាននៃមជ្ឈមណ្ឌលស្កែមធំបំផុតក្នុងប្រទេស។

    តំណែង “ឧកញ៉ា” ដែលអោយដល់មនុស្សទាំងនេះ គឺជាការពង្រឹងសិទ្ធិពិសេសលើច្បាប់។ ទោះបីជាតំណែងនេះជាសិទ្ធិផ្ដល់ដោយព្រះមហាក្សត្រដល់អ្នកឧបត្ថម្ភសាធារណៈ ក្នុងជាក់ស្ដែង វាបានក្លាយជារបប “ទិញអំណាច” ហើយជាសញ្ញានៃការបំប្លែងរដ្ឋឲ្យក្លាយជាគ្រឿងចក្រ សេដ្ឋកិច្ចប្រផេះ។

    ក្រៅពីក្រុមដែលជាប់នឹងគ្រួសារ ហ៊ុន នៅមានឧកញ៉ាផ្សេងទៀតដែលពាក់ពន្ធ័នឹងការលួចលេចដូចជា:

    Choeung Sopheap និង Lau Meng Khin ម្ចាស់ក្រុមហ៊ុន Pheapimex ដែលត្រូវបានចោទថាបង្ខំរំលោភដីសហគមន៍
    Leng Channa ដែលត្រូវដកឋានៈឧកញ៉ា ពីបទលួចលះលុយក្នុងគម្រោងអចលនទ្រព្យ
    Heng Sithy ដែលបង្ហាញអំពើអាសន្នក្នុងប្រព័ន្ធកាស៊ីណូ
    Srey Sina ដែលត្រូវទោសជាប់ជាប់ពន្ធនាគារៗជីវិតពីបទបាញ់សម្លាប់ពលរដ្ឋ

    នេះជាភស្តុតាងថា “ឧកញ៉ា” មិនមែនជាតំណែងសេដ្ឋកិច្ចសង្គមទេ ប៉ុន្តែជាឧបករណ៍អោយអំណាចប្រើច្បាប់ទៅរកផលប្រយោជន៍ផ្ទាល់ខ្លួន។

    អង្គការ UNODC, Human Rights Watch, Humanity Research Consultancy និងសារព័ត៌មានអន្តរជាតិមួយចំនួនរួមទាំង The Times, Reuters, Asia Financial, Wired និង The Guardian បានរាយការណ៍ថា ប្រព័ន្ធស្កែមនេះពាក់ពន្ធ័ជាស្ថាពរជាមួយរដ្ឋកម្ពុជា និងត្រូវការការពារដោយច្បាប់។ វាមានការប្រើប្រាស់បច្ចេកវិទ្យាចុងក្រោយដូចជា AI និង Deepfake ដើម្បីបង្កើនភាពជឿជាក់ និងរបៀបលាងប្រាក់តាមតម្លៃឌីជីថលរួមមាន Huione Pay និង Huione Crypto។

    ចំណាត់ការរដ្ឋបាលរបស់កម្ពុជា មិនសូវបង្ហាញភាពស្មោះត្រង់នៃការតវ៉ា ស្កែមទេ។ ជាធម្មតា រដ្ឋធ្វើការចាប់ឲ្យឃុំខ្លួនតែពលកម្មក្រោម ប៉ុន្តែឱ្យអ្នកដឹកនាំស្កែមគេចផុតពីការចោទប្រកាន់ ទោះមានភស្តុតាងពីជនរងគ្រោះក៏ដោយ។

    អ្វីដែលគួរឱ្យបារម្ភខ្លាំងនោះគឺ ប្រព័ន្ធនយោបាយកំពុងរលាយចូលទៅក្នុងទុនប្រផេះ។ ការត្រួតពិនិត្យដោយអង្គការឯករាជ្យមិនអាចដំណើរការបានពេញលេញទេ ព្រោះក្រុមទុននេះគឺជាអ្នកជួយជ្រោមជ្រែង CPP និងគ្រួសារហ៊ុនតាមរយៈទុនគាំទ្រការអភិវឌ្ឍន៍ និងសេដ្ឋកិច្ចរដ្ឋ។

    ក្រោមរូបរាងនៃសេដ្ឋកិច្ចបើកចំហនិងការអភិវឌ្ឍ ប្រទេសកម្ពុជាកំពុងដើរចូលទៅក្នុងរដ្ឋដែលក្លាយជាឧបករណ៍របស់ទុនឯកជនដែលគ្មានការទទួលខុសត្រូវ ខណៈពលរដ្ឋកំពុងរងគ្រោះនិងគ្មាននរណារងចាំ ក្នុងភាពងងឹតនៃពាណិជ្ជកម្មបោកប្រាស់ដែលមាន “ក្សត្រជាព្រះវិញ្ញាណ” និង “ទុនប្រផេះ” ជាអ្នកនាំផ្លូវ។


    Surawich Verawan

    คลิก>> https://mgronline.com/daily/detail/9680000072299
    ฮุนเซนกับจักรวาลทุนสีเทา บทความโดย สุรวิชช์ วีรวรรณ และคำแปลเขมร ហ៊ុន សែន និងចក្រវិថីទុនពណ៌ប្រផេះ ក្នុងរយៈពេលប៉ុន្មានឆ្នាំចុងក្រោយនេះ ពិភពលោកបានផ្តោតទស្សនៈទៅលើប្រទេសកម្ពុជា មិនមែនថាជាប្រទេសដែលរួចផុតពីសង្គ្រាមស៊ីវិលទេ ប៉ុន្តែជាស្តាប់នៃអាជីវកម្មឧក្រិដ្ឋកម្មសាយបឺ និងបណ្តាញទុនប្រផេះដែលកំពុងលើកកំពស់អំណាចឲ្យក្រុមមនុស្សមួយចំនួននៅក្រោមរបាំងនៃ “សេដ្ឋកិច្ចពិសេស” និងកាស៊ីណូតាមព្រំដែន។ ប្រជាជនជាងម៉ឺននាក់ពីចិន ថៃ មីយ៉ាន់ម៉ា ឡាវ វៀតណាម និងហ្វ៊ីលីពីន ត្រូវបានបញ្ឆោតឲ្យធ្វើការនៅក្នុងមជ្ឈមណ្ឌលបោកប្រាស់តាមអនឡាញ និងត្រូវគេបង្ខំទុកឲ្យធ្វើការដូចជាឈ្លក់បម្រើក្នុងប្រព័ន្ធពាណិជ្ជកម្មទំនើបដែលមិនស្មើភាពនឹងសិទ្ធិមនុស្សទេ។ នៅកណ្តាលប្រព័ន្ធនេះគឺជាគ្រួសាររបស់អតីតនាយករដ្ឋមន្ត្រី ហ៊ុន សែន ដែលគ្រប់គ្រងប្រទេសកម្ពុជាមកជិត៤០ឆ្នាំ។ ទោះបីជានៅឆ្នាំ២០២៣ លោកបានបញ្ជូនអំណាចទៅឲ្យកូនប្រុសឈ្មោះ ហ៊ុន ម៉ាណែត ក៏ដោយ តែលោកនៅតែជាអ្នកគ្រប់គ្រងខាងក្រោយនៃរបប “ទុនកូនចៅ” និងការផ្តល់អំណាចដល់ក្រុមមនុស្សមួយតិចតួច។ សេដ្ឋកិច្ចកម្ពុជា ត្រូវបានប្រើជាឧបករណ៍សេដ្ឋកិច្ចប្រផេះ និងអំណាច “ឧកញ៉ា” បានក្លាយជានិមិត្តសញ្ញានៃសិទ្ធិពិសេស និងភាពលើសច្បាប់។ មជ្ឈមណ្ឌលដ៏សំខាន់មួយនៃទុនប្រផេះ គឺក្រុមហ៊ុន “Huione Group” ដែលមានមូលដ្ឋាននៅភ្នំពេញ។ ក្រុមហ៊ុននេះមានអាជីវកម្មសំខាន់ៗដូចជា Huione Pay, Huione Crypto និង Huione Guarantee ដែលត្រូវបានប្រើប្រាស់ដើម្បីលាងប្រាក់ និងផ្លាស់ប្តូរព័ត៌មានបោកប្រាស់ជាសកល។ អង្គការសហប្រជាជាតិ និងយោងតាមរបាយការណ៍សន្តិសុខសហរដ្ឋអាមេរិក បានបង្ហាញថា Huione Guarantee មានប្រតិបត្តិការពាណិជ្ជកម្មរហូតដល់ ២៤,០០០–២៧,០០០លានដុល្លារចាប់តាំងពីឆ្នាំ ២០២១ ហើយគឺជាមជ្ឈមណ្ឌលលាងប្រាក់ធំបំផុតលើពិភពលោក។ មនុស្សដែលពាក់ពន្ធ័ជាមួយក្រុមនេះគឺ “ហ៊ុន តូ” ប្អូនបង្កាត់នាយករដ្ឋមន្ត្រី ហ៊ុន ម៉ាណែត និងជាហៅថ្លៃរបស់ ហ៊ុន សែន។ ក្រៅពី ហ៊ុន តូ មានក្រុមទុនធំៗទៀតដែលជាប់ទាក់ទងជាមួយគ្រួសារហ៊ុន រួមមាន “លី យុងផាត់” (Ly Yong Phat) ដែលជាអ្នកលេងអាជីវកម្មជនជាតិភាគច្រើនកម្ពុជា-ថៃ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន LYP Group និងសេដ្ឋកិច្ចពិសេសនៅខេត្ត Koh Kong និងបើកដំណើរការកាស៊ីណូជាច្រើន។ ក្នុងឆ្នាំ២០២៤ រដ្ឋាភិបាលអាមេរិកបានចេញវិធានការផ្ដន្ទាទោសលី យុងផាត់ក្រោមច្បាប់ Global Magnitsky Act ដោយសារ ជាប់ពាក់ពន្ធ័នឹងការបង្ខំឲ្យប្រើប្រាស់កម្លាំងពលកម្មក្នុងមជ្ឈមណ្ឌលស្កែម (scam center)។ លី យុងផាត់ មិនមែនត្រឹមជាអ្នកគាំទ្ររដ្ឋាភិបាលទេ ប៉ុន្តែគាត់មានការតភ្ជាប់គ្រួសារនឹង ហ៊ុន សែន តាមរយៈកូនស្រីរបស់គាត់ដែលរៀបការជាមួយហ៊ុន ជា (Hun Chea) ដែលជាកូនប្រុសរបស់ហ៊ុន សែន។ គាត់ក្លាយជាសមាជិកសំខាន់ម្នាក់នៃ “រាជវង្សអំណាច” ដែលទទួលបានសិទ្ធិពិសេសគ្រប់វិស័យ។ អ្នកមានឥទ្ធិពលទៀតគឺ “កុក អាន” (Kok An) ជាជនជាតិចិន ដែលជាសមាជិកព្រឹទ្ធសភា CPP និងម្ចាស់កាស៊ីណូ Crown Casino នៅទីក្រុង Poipet និង Sihanoukville។ គាត់ត្រូវបានចោទថាពាក់ពន្ធ័នឹងការជួញដូរមនុស្ស និងកម្លាំងពលកម្មខុសច្បាប់ ប៉ុន្តែម្ចាស់អំណាចមិនសូវចាត់ការណ៍ទេ។ Try Pheap គឺជាអ្នកធ្វើអាជីវកម្មធំម្នាក់ទៀតដែលបានទទួលសិទិ្ធប្រើប្រាស់ដីព្រៃធំៗ និងធនធានធម្មជាតិ។ គាត់ជាម្ចាស់ក្រុមហ៊ុន Try Pheap Group និងដឹកនាំសេដ្ឋកិច្ចពិសេស Thmor Da ដែលត្រូវបានយោងថាជាគេហដ្ឋានស្កែម។ គាត់ត្រូវបានអាមេរិកផ្ដន្ទាទោសនៅឆ្នាំ ២០១៩ ដោយសារ ទោសកាត់បន្ថយព្រៃឈើខុសច្បាប់ លាងប្រាក់ និងការគំរាមដល់សហគមន៍ជនជាតិដើម។ Chen Zhi ជាជនជាតិចិនទទួលសញ្ជាតិកម្ពុជា និងជាប្រធានក្រុមហ៊ុន Prince Group។ គាត់បានទទួលតំណែងឧកញ៉ា និងសិទ្ធិពិសេសក្នុងគម្រោងអភិវឌ្ឍន៍នៅតាមបណ្តាខេត្ត ជាពិសេស Sihanoukville ដែលត្រូវបានចោទថាជាគេហដ្ឋាននៃមជ្ឈមណ្ឌលស្កែមធំបំផុតក្នុងប្រទេស។ តំណែង “ឧកញ៉ា” ដែលអោយដល់មនុស្សទាំងនេះ គឺជាការពង្រឹងសិទ្ធិពិសេសលើច្បាប់។ ទោះបីជាតំណែងនេះជាសិទ្ធិផ្ដល់ដោយព្រះមហាក្សត្រដល់អ្នកឧបត្ថម្ភសាធារណៈ ក្នុងជាក់ស្ដែង វាបានក្លាយជារបប “ទិញអំណាច” ហើយជាសញ្ញានៃការបំប្លែងរដ្ឋឲ្យក្លាយជាគ្រឿងចក្រ សេដ្ឋកិច្ចប្រផេះ។ ក្រៅពីក្រុមដែលជាប់នឹងគ្រួសារ ហ៊ុន នៅមានឧកញ៉ាផ្សេងទៀតដែលពាក់ពន្ធ័នឹងការលួចលេចដូចជា: Choeung Sopheap និង Lau Meng Khin ម្ចាស់ក្រុមហ៊ុន Pheapimex ដែលត្រូវបានចោទថាបង្ខំរំលោភដីសហគមន៍ Leng Channa ដែលត្រូវដកឋានៈឧកញ៉ា ពីបទលួចលះលុយក្នុងគម្រោងអចលនទ្រព្យ Heng Sithy ដែលបង្ហាញអំពើអាសន្នក្នុងប្រព័ន្ធកាស៊ីណូ Srey Sina ដែលត្រូវទោសជាប់ជាប់ពន្ធនាគារៗជីវិតពីបទបាញ់សម្លាប់ពលរដ្ឋ នេះជាភស្តុតាងថា “ឧកញ៉ា” មិនមែនជាតំណែងសេដ្ឋកិច្ចសង្គមទេ ប៉ុន្តែជាឧបករណ៍អោយអំណាចប្រើច្បាប់ទៅរកផលប្រយោជន៍ផ្ទាល់ខ្លួន។ អង្គការ UNODC, Human Rights Watch, Humanity Research Consultancy និងសារព័ត៌មានអន្តរជាតិមួយចំនួនរួមទាំង The Times, Reuters, Asia Financial, Wired និង The Guardian បានរាយការណ៍ថា ប្រព័ន្ធស្កែមនេះពាក់ពន្ធ័ជាស្ថាពរជាមួយរដ្ឋកម្ពុជា និងត្រូវការការពារដោយច្បាប់។ វាមានការប្រើប្រាស់បច្ចេកវិទ្យាចុងក្រោយដូចជា AI និង Deepfake ដើម្បីបង្កើនភាពជឿជាក់ និងរបៀបលាងប្រាក់តាមតម្លៃឌីជីថលរួមមាន Huione Pay និង Huione Crypto។ ចំណាត់ការរដ្ឋបាលរបស់កម្ពុជា មិនសូវបង្ហាញភាពស្មោះត្រង់នៃការតវ៉ា ស្កែមទេ។ ជាធម្មតា រដ្ឋធ្វើការចាប់ឲ្យឃុំខ្លួនតែពលកម្មក្រោម ប៉ុន្តែឱ្យអ្នកដឹកនាំស្កែមគេចផុតពីការចោទប្រកាន់ ទោះមានភស្តុតាងពីជនរងគ្រោះក៏ដោយ។ អ្វីដែលគួរឱ្យបារម្ភខ្លាំងនោះគឺ ប្រព័ន្ធនយោបាយកំពុងរលាយចូលទៅក្នុងទុនប្រផេះ។ ការត្រួតពិនិត្យដោយអង្គការឯករាជ្យមិនអាចដំណើរការបានពេញលេញទេ ព្រោះក្រុមទុននេះគឺជាអ្នកជួយជ្រោមជ្រែង CPP និងគ្រួសារហ៊ុនតាមរយៈទុនគាំទ្រការអភិវឌ្ឍន៍ និងសេដ្ឋកិច្ចរដ្ឋ។ ក្រោមរូបរាងនៃសេដ្ឋកិច្ចបើកចំហនិងការអភិវឌ្ឍ ប្រទេសកម្ពុជាកំពុងដើរចូលទៅក្នុងរដ្ឋដែលក្លាយជាឧបករណ៍របស់ទុនឯកជនដែលគ្មានការទទួលខុសត្រូវ ខណៈពលរដ្ឋកំពុងរងគ្រោះនិងគ្មាននរណារងចាំ ក្នុងភាពងងឹតនៃពាណិជ្ជកម្មបោកប្រាស់ដែលមាន “ក្សត្រជាព្រះវិញ្ញាណ” និង “ទុនប្រផេះ” ជាអ្នកនាំផ្លូវ។ — Surawich Verawan คลิก>> https://mgronline.com/daily/detail/9680000072299
    MGRONLINE.COM
    ฮุนเซนกับจักรวาลทุนสีเทา
    ในช่วงไม่กี่ปีที่ผ่านมาโลกเริ่มจับตา “กัมพูชา” ไม่ใช่ในฐานะประเทศที่พ้นจากสงครามกลางเมืองแต่ในฐานะ “ศูนย์กลางของอาชญากรรมไซเบอร์” และ “ธุรกิจสแกม”ระดับโลกซึ่งมีเครือข่ายทุนแฝงอยู่ภายใต้หน้ากากของนักธุรกิจสัมปทานเขตเศรษฐกิจพิเศษและ
    Like
    2
    0 Comments 0 Shares 709 Views 0 Reviews
  • นักการเมืองฝ่ายค้านกัมพูชาได้กล่าวหา "ฮุนเซน" ประธานพรรคประชาชนกัมพูชา (CPP) ว่าปลุกปั่นกระแสชาตินิยมต่อต้านไทย แต่เพิกเฉยต่อเวียดนาม แม้ถูกรุกล้ำดินแดนเช่นกัน ทำให้เกิดคำถามเรื่องสองมาตรฐานในจุดยืนด้านนโยบายต่างประเทศของฮุนเซน

    อ่านต่อ..https://news1live.com/detail/9680000061225

    #News1Feed #News1 #Sondhitalk #คุยทุกเรื่องกับสนธิ #Thaitimes
    นักการเมืองฝ่ายค้านกัมพูชาได้กล่าวหา "ฮุนเซน" ประธานพรรคประชาชนกัมพูชา (CPP) ว่าปลุกปั่นกระแสชาตินิยมต่อต้านไทย แต่เพิกเฉยต่อเวียดนาม แม้ถูกรุกล้ำดินแดนเช่นกัน ทำให้เกิดคำถามเรื่องสองมาตรฐานในจุดยืนด้านนโยบายต่างประเทศของฮุนเซน อ่านต่อ..https://news1live.com/detail/9680000061225 #News1Feed #News1 #Sondhitalk #คุยทุกเรื่องกับสนธิ #Thaitimes
    Like
    Haha
    3
    0 Comments 0 Shares 781 Views 0 Reviews
  • แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die)

    ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง

    ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง

    แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม

    AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows  
    • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว)

    การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี  
    • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด  
    • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ

    C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม  
    • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling

    การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น  
    • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ

    Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้  
    • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม

    การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption  
    • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง

    ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ  
    • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป

    ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน  
    • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ

    การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง  
    • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง

    https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    แม้ว่า AMD Ryzen ตระกูล X3D จะให้ประสิทธิภาพที่ยอดเยี่ยมในเกม เพราะมี L3 Cache แบบ 3D stacked ช่วยลด latency ได้มาก แต่ก็มีผู้ใช้บางรายเจอปัญหา “กระตุกยิบ ๆ” หรือ micro-stuttering โดยเฉพาะกับรุ่นที่ใช้ 2 CCD (Core Complex Die) ผู้ใช้บางคนใน Reddit และ YouTube ค้นพบว่า การเข้า BIOS แล้วเปลี่ยนค่า “Global C-State Control” จาก Auto → Enabled อาจช่วยลดอาการกระตุกได้ทันที โดยเฉพาะในเกมที่มีการโหลดข้อมูลต่อเนื่อง ฟีเจอร์ C-State นี้คือระบบที่จัดการ sleep state ของซีพียู เพื่อประหยัดพลังงาน โดยจะ “พัก” ฟังก์ชันบางอย่างเมื่อไม่ใช้งาน เช่น core, I/O หรือ Infinity Fabric (Data Fabric) — แต่ถ้า BIOS ตั้งค่าแบบ Auto ใน X3D บางรุ่น ฟีเจอร์นี้อาจถูกปิดไปเลย ทำให้ซีพียูทำงานแบบ Full power ตลอดเวลาและเกิดความไม่เสถียรในบางช่วง แม้การเบนช์มาร์กด้วยโปรแกรม AIDA64 จะไม่เห็นความต่างชัดเจน แต่ในเกมจริงอาจช่วยได้ โดยเฉพาะถ้า Windows ไม่จัดสรรงานให้ไปยัง CCD ที่มี V-Cache อย่างเหมาะสม ✅ AMD Ryzen X3D บางรุ่นพบอาการกระตุกหรือ micro-stutter บน Windows   • โดยเฉพาะเมื่อใช้เกมที่โหลดข้อมูลถี่ และในรุ่น 2 CCD (มีแคชแค่ฝั่งเดียว) ✅ การเปลี่ยน BIOS Setting “Global C-State Control” → Enabled ช่วยลดการกระตุกในบางกรณี   • Auto อาจปิดฟีเจอร์ไปโดยไม่รู้ตัวในบางเมนบอร์ด   • Enabled จะเปิดการทำงานของ C-State เต็มรูปแบบ ✅ C-State คือฟีเจอร์จัดการพลังงานผ่าน ACPI ให้ OS เลือกพัก core/IO/infinity fabric ได้ตามความเหมาะสม   • ทำงานคู่กับ P-State ที่จัดการ clock/voltage scaling ✅ การเปิด C-State ช่วยให้ Windows จัดการ “Preferred Core” และ CCD ได้ดีขึ้น   • โดยเฉพาะหาก CPPC ไม่ทำงานเต็มประสิทธิภาพ ✅ Tips เพิ่มเติม: การปิดการแสดงผล Power Percent ใน MSI Afterburner ก็ช่วยลด micro-stutter ได้   • เป็นปัญหาที่รู้กันมานาน แม้ใช้ CPU รุ่นไม่ใช่ X3D ก็ตาม ‼️ การเปลี่ยน BIOS โดยไม่รู้ค่าเดิม อาจทำให้ระบบไม่เสถียร หรือมีผลกับ power consumption   • ควรจดค่าก่อนเปลี่ยน และทดสอบใน workload ที่ใช้จริง ‼️ ผลลัพธ์จากการเปลี่ยน Global C-State ยังไม่แน่นอนในทุกเกม/ระบบ   • ไม่มีผลกับ AIDA64 แต่ในเกมอาจแตกต่าง ต้องลองเป็นกรณีไป ‼️ ถ้าใช้ Mainboard รุ่นเก่าหรือ BIOS ไม่อัปเดต อาจไม่มีตัวเลือกนี้ หรือชื่ออาจไม่ตรงกัน   • เช่น อาจใช้ชื่อ CPU Power Saving, C-State Mode, ฯลฯ ‼️ การเปิด C-State ทำให้ CPU เข้าสู่ sleep state ได้ — แม้อาจเพิ่ม efficiency แต่ต้องระวังปัญหาความหน่วงในบางงานเฉพาะทาง   • โดยเฉพาะในการเรนเดอร์หรือทำงานที่ต้อง full load ต่อเนื่อง https://www.neowin.net/news/some-amd-ryzen-users-can-get-free-windows-performance-boost-with-this-simple-system-tweak/
    WWW.NEOWIN.NET
    Some AMD Ryzen users can get free Windows performance boost with this simple system tweak
    AMD Ryzen processor owners, especially X3D ones, may be in for a pleasant surprise as a simple tweak to one of their system settings can help boost performance.
    0 Comments 0 Shares 374 Views 0 Reviews
  • เพจดังแฉทุนเทาฝังรากลึกในปอยเปต-สีหนุวิลล์-อุดรมีชัย ภายใต้การอุปถัมภ์เป็นระบบจากรัฐบาลกัมพูชา โยงลูกพี่ลูกน้องฮุนมาเนต รมต.-คนในพรรค CPP แนะไทยอย่านิ่งเฉย ต้องตัดเน็ตตัดไฟที่ส่งให้ทุนเทา ยกระดับเป็นประเด็นภัยความมั่นคงสากล เรียกร้องนานาชาติช่วยกดดัน ไม่เช่นนั้นจะเป็นเพียง “ผู้เฝ้าชายแดนให้ทุนมืด”

    อ่านต่อ..https://news1live.com/detail/9680000053614

    #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes
    เพจดังแฉทุนเทาฝังรากลึกในปอยเปต-สีหนุวิลล์-อุดรมีชัย ภายใต้การอุปถัมภ์เป็นระบบจากรัฐบาลกัมพูชา โยงลูกพี่ลูกน้องฮุนมาเนต รมต.-คนในพรรค CPP แนะไทยอย่านิ่งเฉย ต้องตัดเน็ตตัดไฟที่ส่งให้ทุนเทา ยกระดับเป็นประเด็นภัยความมั่นคงสากล เรียกร้องนานาชาติช่วยกดดัน ไม่เช่นนั้นจะเป็นเพียง “ผู้เฝ้าชายแดนให้ทุนมืด” อ่านต่อ..https://news1live.com/detail/9680000053614 #News1live #News1 #Sondhitalk #SondhiX #คุยทุกเรื่องกับสนธิ #สนธิเล่าเรื่อง #Thaitimes
    Like
    Haha
    3
    0 Comments 0 Shares 687 Views 0 Reviews
  • https://youtube.com/shorts/iOvNJtDoN3o?si=Ix5HsJCTgwCPPABl
    https://youtube.com/shorts/iOvNJtDoN3o?si=Ix5HsJCTgwCPPABl
    0 Comments 0 Shares 133 Views 0 Reviews
  • Microsoft ได้เปิดตัว BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI ที่มีประสิทธิภาพสูงและใช้หน่วยความจำเพียง 400MB โดยไม่ต้องใช้ GPU โมเดลนี้ใช้เทคนิค ternary quantization ซึ่งช่วยลดขนาดของโมเดลโดยใช้เพียง -1, 0 และ +1 แทนค่าถ่วงน้ำหนักแบบดั้งเดิม ทำให้สามารถทำงานบนฮาร์ดแวร์มาตรฐาน เช่น Apple M2 chip ได้อย่างราบรื่น

    BitNet ใช้หน่วยความจำเพียง 400MB และไม่ต้องใช้ GPU
    - สามารถทำงานบน CPU มาตรฐานโดยไม่ต้องใช้ฮาร์ดแวร์ AI เฉพาะทาง
    - ใช้พลังงานน้อยกว่ารุ่นอื่นถึง 85-96%

    ใช้เทคนิค ternary quantization เพื่อลดขนาดโมเดล
    - แทนค่าถ่วงน้ำหนักด้วย -1, 0 และ +1 แทนที่จะใช้ตัวเลขทศนิยมแบบ 16 หรือ 32 บิต
    - ช่วยให้โมเดลมีประสิทธิภาพสูงขึ้นโดยไม่สูญเสียความแม่นยำ

    BitNet มีพารามิเตอร์ 2 พันล้านตัวและถูกฝึกด้วยข้อมูล 4 ล้านล้านโทเค็น
    - เทียบเท่ากับเนื้อหาของหนังสือ 33 ล้านเล่ม
    - สามารถแข่งขันกับโมเดลชั้นนำ เช่น Llama 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B

    สามารถทำงานบนเฟรมเวิร์ก bitnet.cpp ที่พัฒนาโดย Microsoft
    - เฟรมเวิร์กนี้ช่วยให้โมเดลทำงานได้เร็วขึ้นและใช้ทรัพยากรน้อยลง
    - รองรับเฉพาะ CPU ในปัจจุบัน แต่มีแผนที่จะเพิ่มการรองรับฮาร์ดแวร์อื่นๆ ในอนาคต

    https://www.techspot.com/news/107617-microsoft-bitnet-shows-what-ai-can-do-400mb.html
    Microsoft ได้เปิดตัว BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI ที่มีประสิทธิภาพสูงและใช้หน่วยความจำเพียง 400MB โดยไม่ต้องใช้ GPU โมเดลนี้ใช้เทคนิค ternary quantization ซึ่งช่วยลดขนาดของโมเดลโดยใช้เพียง -1, 0 และ +1 แทนค่าถ่วงน้ำหนักแบบดั้งเดิม ทำให้สามารถทำงานบนฮาร์ดแวร์มาตรฐาน เช่น Apple M2 chip ได้อย่างราบรื่น ✅ BitNet ใช้หน่วยความจำเพียง 400MB และไม่ต้องใช้ GPU - สามารถทำงานบน CPU มาตรฐานโดยไม่ต้องใช้ฮาร์ดแวร์ AI เฉพาะทาง - ใช้พลังงานน้อยกว่ารุ่นอื่นถึง 85-96% ✅ ใช้เทคนิค ternary quantization เพื่อลดขนาดโมเดล - แทนค่าถ่วงน้ำหนักด้วย -1, 0 และ +1 แทนที่จะใช้ตัวเลขทศนิยมแบบ 16 หรือ 32 บิต - ช่วยให้โมเดลมีประสิทธิภาพสูงขึ้นโดยไม่สูญเสียความแม่นยำ ✅ BitNet มีพารามิเตอร์ 2 พันล้านตัวและถูกฝึกด้วยข้อมูล 4 ล้านล้านโทเค็น - เทียบเท่ากับเนื้อหาของหนังสือ 33 ล้านเล่ม - สามารถแข่งขันกับโมเดลชั้นนำ เช่น Llama 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B ✅ สามารถทำงานบนเฟรมเวิร์ก bitnet.cpp ที่พัฒนาโดย Microsoft - เฟรมเวิร์กนี้ช่วยให้โมเดลทำงานได้เร็วขึ้นและใช้ทรัพยากรน้อยลง - รองรับเฉพาะ CPU ในปัจจุบัน แต่มีแผนที่จะเพิ่มการรองรับฮาร์ดแวร์อื่นๆ ในอนาคต https://www.techspot.com/news/107617-microsoft-bitnet-shows-what-ai-can-do-400mb.html
    WWW.TECHSPOT.COM
    Microsoft's BitNet shows what AI can do with just 400MB and no GPU
    The BitNet b1.58 2B4T model was developed by Microsoft's General Artificial Intelligence group and contains two billion parameters – internal values that enable the model to understand...
    0 Comments 0 Shares 296 Views 0 Reviews
  • Microsoft ได้พัฒนา BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI แบบ 1-bit LLM ที่มี 2 พันล้านพารามิเตอร์ และสามารถทำงานได้อย่างมีประสิทธิภาพบน CPU ทั่วไป โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่ารุ่นอื่นๆ ถึง 70%

    BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ
    - ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ
    - ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B

    สามารถทำงานบน CPU ทั่วไป เช่น Apple M2
    - ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า
    - ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่

    BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่
    - ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B
    - มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ

    โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub
    - ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี
    - ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
    Microsoft ได้พัฒนา BitNet b1.58 2B4T ซึ่งเป็นโมเดล AI แบบ 1-bit LLM ที่มี 2 พันล้านพารามิเตอร์ และสามารถทำงานได้อย่างมีประสิทธิภาพบน CPU ทั่วไป โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่ารุ่นอื่นๆ ถึง 70% ✅ BitNet b1.58 2B4T เป็นโมเดล AI แบบ 1-bit ที่ใช้พลังงานต่ำ - ใช้ 1-bit weights ที่มีค่าเพียง -1, 0 และ +1 ซึ่งช่วยลดการใช้หน่วยความจำ - ใช้หน่วยความจำเพียง 400MB เทียบกับ 1.4GB ของ Gemma 3 1B ✅ สามารถทำงานบน CPU ทั่วไป เช่น Apple M2 - ไม่ต้องใช้ GPU หรือ NPU ทำให้สามารถรันโมเดลได้บน ฮาร์ดแวร์ที่มีประสิทธิภาพต่ำกว่า - ช่วยให้ผู้ใช้ทั่วไปสามารถทดลองใช้ AI ได้โดยไม่ต้องใช้เซิร์ฟเวอร์ขนาดใหญ่ ✅ BitNet b1.58 2B4T มีประสิทธิภาพใกล้เคียงกับโมเดล AI ขนาดใหญ่ - ทดสอบเทียบกับ LLaMa 3.2 1B, Gemma 3 1B และ Qwen 2.5 1.5B - มีคะแนนสูงกว่าในบางการทดสอบ เช่น ARC-Challenge และ BoolQ ✅ โมเดลนี้เปิดให้ใช้งานบน Hugging Face และ GitHub - ผู้ใช้สามารถดาวน์โหลดและทดลองใช้ได้ฟรี - ต้องใช้ bitnet.cpp inference framework เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-researchers-build-1-bit-ai-llm-with-2b-parameters-model-small-enough-to-run-on-some-cpus
    0 Comments 0 Shares 299 Views 0 Reviews
  • จับตา "การประชุมสองสภา 2025 " ในบริบทพลวัตด้านอำนาจของจีนที่เปลี่ยนไป #การประชุมสองสภา (Two sessions) กิจกรรมทางการเมืองซึ่งมีความสำคัญที่สุดในรอบปีของจีน จะเปิดฉากขึ้นด้วยการประชุมของ #สภาที่ปรึกษาการเมืองแห่งประชาชนจีน ( CPPCC ) ในวันอังคาร ( 4 มี.ค.) ตามด้วยการประชุม #สภาประชาชนแห่งชาติ (NPC) ในวันพุธ ( 5 มี.ค.)การประชุมสองสภาถือเป็นช่วงเวลาสำคัญในการเฝ้าสังเกตการณ์แผนพัฒนาของจีน โดยในปีนี้จะมีการพิจารณาทบทวน #แผนพัฒนาเศรษฐกิจและสังคมแห่งชาติระยะ 5 ปีฉบับที่ 14 ( 2564-2568 ) เพื่อกำหนดทิศทางนโยบายของประเทศต่อไปด้านนักวิเคราะห์มองว่า การประชุมสองสภาในปี 2568 เกิดขึ้นท่ามกลางบริบทที่พลวัตหรือพลังการเคลื่อนไหวทางอำนาจ ( #power dynamics) ระหว่างสหรัฐฯกับจีนมีความแตกต่างไปอย่างมากจากเมื่อ 5 ปีที่แล้ว ซึ่งจีนประกาศยุทธศาสตร์การพัฒนาและเป็นช่วงรอยต่อระหว่างการสิ้นสุดวาระการบริหารประเทศของรัฐบาลประธานาธิบดี #โดนัลด์ ทรัมป์สมัยแรก การเข้ารับตำแหน่งของประธานาธิบดีโจ ไบเดน และการกลับมารับตำแหน่งประธานาธิบดีสหรัฐฯสมัยที่ 2 ของทรัมป์เมื่อเดือนมกราคมปีนี้แม้ทรัมป์และไบเดนขับเคี่ยวกันในทางการเมือง แต่ก็มีจุดยืนร่วมกันอย่างหนึ่งนั่นก็คือพยายามขัดขวางความก้าวหน้าทางเทคโนโลยีของจีนทุกวิถีทาง สหรัฐฯ มีการกำหนดมาตรการคว่ำบาตรและข้อจำกัดอย่างที่ไม่เคยมีมาก่อนต่อจีน โดยเฉพาะอย่างยิ่งในด้านวิทยาศาสตร์และเทคโนโลยีหลี่ เฉิง อาจารย์ด้านรัฐศาสตร์และผู้อำนวยการก่อตั้งศูนย์จีนร่วมสมัยและโลกแห่งมหาวิทยาลัยฮ่องกงมองว่า แม้ความท้าทายทางเศรษฐกิจภายในประเทศและแรงกดดันจากภายนอกกำลังรุมเร้าจีน แต่การเปลี่ยนแปลงอำนาจบนเวทีโลกไปในทิศทางที่เอื้อต่อจีนนั้นปรากฏชัดเจนยิ่งกว่าที่เคยเป็นมา“ตะวันออกกำลังรุ่งเรือง และตะวันตกกำลังเสื่อมถอย” ตามที่ชาวจีนหลายคนเชื่อนั้นคือสิ่งที่เรากำลังเห็นอยู่ในขณะนี้“จีนได้เปรียบตรงที่เน้นการพัฒนาในระยะยาวมากกว่าผลกำไรในระยะสั้น” อาจารย์เฉิงระบุตามรายงานเผยแพร่เมื่อปีที่แล้วของมูลนิธิเทคโนโลยีสารสนเทศและนวัตกรรม ( Information Technology and Innovation Foundation) ซึ่งเป็นสถาบันคลังสมองในกรุงวอชิงตันนั้น ความพยายามที่ดำเนินมาหลายปีดูเหมือนว่าจะได้รับผลตอบแทนด้วยการที่จีนกลายเป็นผู้นำหรือคู่แข่งขันระดับโลกในด้านเทคโนโลยีขั้นสูง 5 ภาคส่วน ได้แก่ หุ่นยนต์ พลังงานนิวเคลียร์ ยานยนต์ไฟฟ้า ปัญญาประดิษฐ์ และคอมพิวเตอร์ควอนตัม นอกจากนี้จีนยังกำลังตามทันในอีก 4 ด้าน ได้แก่ สารเคมี เครื่องมือเครื่องจักร ยาชีวเภสัชภัณฑ์ ( biopharmaceuticals ) และเซมิคอนดักเตอร์อี้ว์ โจว อาจารย์ผู้เชี่ยวชาญด้านโลกาภิวัตน์และเทคโนโลยีจีนประจำวิทยาลัยวาสซาร์ในสหรัฐฯ มองว่า การประกาศแผนยุทธศาสตร์ Made in China 2025 ของจีนเมื่อปี 2558 ทำให้ความสำเร็จด้านเทคโนโลยีของจีนได้ก้าวไปไกลเกินกว่าที่ใครๆ เคยคาดคิด และเกินความคาดหวังของผู้วางแผนยุทธศาสตร์เองในตอนนั้นด้วยซ้ำนอกจากนี้ จีนยังเพิ่มการใช้อุปกรณ์ขั้นสูง เช่น โดรน เพื่อเร่งขับเคลื่อนการปรับปรุงกองทัพให้ทันสมัยและใช้จุดยืนที่กล้าแสดงออกมากขึ้นในการเผชิญหน้าทางทะเลกับสหรัฐฯจึงคาดกันว่า ความพยายามในการรับมือกับนโยบายของทรัมป์และการพยายามรักษาความก้าวหน้าทางเทคโนโลยีให้เพิ่มมากขึ้น ควบคู่ไปกับความพยายามกระตุ้นเศรษฐกิจ จะเป็นวาระสำคัญในการประชุมสองสมัยครั้งนี้และด้วยบริบทของพลวัตทางอำนาจระหว่างสหรัฐฯกับจีนที่เปลี่ยนไป จึงน่าจับตามองว่า ที่ประชุมจะมีการตัดสินใจและการประกาศนโยบายอย่างใดบ้างการตั้งเป้าหมายจีดีพีเติบโตเป็นหนึ่งในการตั้งเป้าหมายทางเศรษฐกิจที่ถูกจับตามองมากที่สุด รวมถึงการประกาศมาตรการเชิงนโยบายของรัฐบาลที่ตรงเป้าหมายมากขึ้นเพื่อกระตุ้นเศรษฐกิจ ตลอดจนการประกาศนโยบายด้านต่างประเทศ นโยบายด้านปัญญาประดิษฐ์ ( เอไอ ) และนวัตกรรม นโยบายที่คาดว่าจะประกาศเหล่านี้ย่อมส่งผลต่อชีวิตของชาวจีน 1,400 ล้านคนและส่งกระทบต่อต่างชาติด้วยอย่างแน่นอนที่มา : เซาท์ไชน่ามอร์นิงโพสต์ /โกลบอลไทมส์ภาพประกอบข่าว1 ภาพ : เซาท์ไชน่ามอร์นิงโพสต์2 นักข่าวกำลังทำงานที่ศูนย์สื่อมวลชนเพื่อเตรียมความพร้อมในการประชุมสองสภาประจำปีของจีนที่กรุงปักกิ่ง เมื่อวันที่ 27 ก.พ. 2568 - ภาพ : ซินหัว
    จับตา "การประชุมสองสภา 2025 " ในบริบทพลวัตด้านอำนาจของจีนที่เปลี่ยนไป #การประชุมสองสภา (Two sessions) กิจกรรมทางการเมืองซึ่งมีความสำคัญที่สุดในรอบปีของจีน จะเปิดฉากขึ้นด้วยการประชุมของ #สภาที่ปรึกษาการเมืองแห่งประชาชนจีน ( CPPCC ) ในวันอังคาร ( 4 มี.ค.) ตามด้วยการประชุม #สภาประชาชนแห่งชาติ (NPC) ในวันพุธ ( 5 มี.ค.)การประชุมสองสภาถือเป็นช่วงเวลาสำคัญในการเฝ้าสังเกตการณ์แผนพัฒนาของจีน โดยในปีนี้จะมีการพิจารณาทบทวน #แผนพัฒนาเศรษฐกิจและสังคมแห่งชาติระยะ 5 ปีฉบับที่ 14 ( 2564-2568 ) เพื่อกำหนดทิศทางนโยบายของประเทศต่อไปด้านนักวิเคราะห์มองว่า การประชุมสองสภาในปี 2568 เกิดขึ้นท่ามกลางบริบทที่พลวัตหรือพลังการเคลื่อนไหวทางอำนาจ ( #power dynamics) ระหว่างสหรัฐฯกับจีนมีความแตกต่างไปอย่างมากจากเมื่อ 5 ปีที่แล้ว ซึ่งจีนประกาศยุทธศาสตร์การพัฒนาและเป็นช่วงรอยต่อระหว่างการสิ้นสุดวาระการบริหารประเทศของรัฐบาลประธานาธิบดี #โดนัลด์ ทรัมป์สมัยแรก การเข้ารับตำแหน่งของประธานาธิบดีโจ ไบเดน และการกลับมารับตำแหน่งประธานาธิบดีสหรัฐฯสมัยที่ 2 ของทรัมป์เมื่อเดือนมกราคมปีนี้แม้ทรัมป์และไบเดนขับเคี่ยวกันในทางการเมือง แต่ก็มีจุดยืนร่วมกันอย่างหนึ่งนั่นก็คือพยายามขัดขวางความก้าวหน้าทางเทคโนโลยีของจีนทุกวิถีทาง สหรัฐฯ มีการกำหนดมาตรการคว่ำบาตรและข้อจำกัดอย่างที่ไม่เคยมีมาก่อนต่อจีน โดยเฉพาะอย่างยิ่งในด้านวิทยาศาสตร์และเทคโนโลยีหลี่ เฉิง อาจารย์ด้านรัฐศาสตร์และผู้อำนวยการก่อตั้งศูนย์จีนร่วมสมัยและโลกแห่งมหาวิทยาลัยฮ่องกงมองว่า แม้ความท้าทายทางเศรษฐกิจภายในประเทศและแรงกดดันจากภายนอกกำลังรุมเร้าจีน แต่การเปลี่ยนแปลงอำนาจบนเวทีโลกไปในทิศทางที่เอื้อต่อจีนนั้นปรากฏชัดเจนยิ่งกว่าที่เคยเป็นมา“ตะวันออกกำลังรุ่งเรือง และตะวันตกกำลังเสื่อมถอย” ตามที่ชาวจีนหลายคนเชื่อนั้นคือสิ่งที่เรากำลังเห็นอยู่ในขณะนี้“จีนได้เปรียบตรงที่เน้นการพัฒนาในระยะยาวมากกว่าผลกำไรในระยะสั้น” อาจารย์เฉิงระบุตามรายงานเผยแพร่เมื่อปีที่แล้วของมูลนิธิเทคโนโลยีสารสนเทศและนวัตกรรม ( Information Technology and Innovation Foundation) ซึ่งเป็นสถาบันคลังสมองในกรุงวอชิงตันนั้น ความพยายามที่ดำเนินมาหลายปีดูเหมือนว่าจะได้รับผลตอบแทนด้วยการที่จีนกลายเป็นผู้นำหรือคู่แข่งขันระดับโลกในด้านเทคโนโลยีขั้นสูง 5 ภาคส่วน ได้แก่ หุ่นยนต์ พลังงานนิวเคลียร์ ยานยนต์ไฟฟ้า ปัญญาประดิษฐ์ และคอมพิวเตอร์ควอนตัม นอกจากนี้จีนยังกำลังตามทันในอีก 4 ด้าน ได้แก่ สารเคมี เครื่องมือเครื่องจักร ยาชีวเภสัชภัณฑ์ ( biopharmaceuticals ) และเซมิคอนดักเตอร์อี้ว์ โจว อาจารย์ผู้เชี่ยวชาญด้านโลกาภิวัตน์และเทคโนโลยีจีนประจำวิทยาลัยวาสซาร์ในสหรัฐฯ มองว่า การประกาศแผนยุทธศาสตร์ Made in China 2025 ของจีนเมื่อปี 2558 ทำให้ความสำเร็จด้านเทคโนโลยีของจีนได้ก้าวไปไกลเกินกว่าที่ใครๆ เคยคาดคิด และเกินความคาดหวังของผู้วางแผนยุทธศาสตร์เองในตอนนั้นด้วยซ้ำนอกจากนี้ จีนยังเพิ่มการใช้อุปกรณ์ขั้นสูง เช่น โดรน เพื่อเร่งขับเคลื่อนการปรับปรุงกองทัพให้ทันสมัยและใช้จุดยืนที่กล้าแสดงออกมากขึ้นในการเผชิญหน้าทางทะเลกับสหรัฐฯจึงคาดกันว่า ความพยายามในการรับมือกับนโยบายของทรัมป์และการพยายามรักษาความก้าวหน้าทางเทคโนโลยีให้เพิ่มมากขึ้น ควบคู่ไปกับความพยายามกระตุ้นเศรษฐกิจ จะเป็นวาระสำคัญในการประชุมสองสมัยครั้งนี้และด้วยบริบทของพลวัตทางอำนาจระหว่างสหรัฐฯกับจีนที่เปลี่ยนไป จึงน่าจับตามองว่า ที่ประชุมจะมีการตัดสินใจและการประกาศนโยบายอย่างใดบ้างการตั้งเป้าหมายจีดีพีเติบโตเป็นหนึ่งในการตั้งเป้าหมายทางเศรษฐกิจที่ถูกจับตามองมากที่สุด รวมถึงการประกาศมาตรการเชิงนโยบายของรัฐบาลที่ตรงเป้าหมายมากขึ้นเพื่อกระตุ้นเศรษฐกิจ ตลอดจนการประกาศนโยบายด้านต่างประเทศ นโยบายด้านปัญญาประดิษฐ์ ( เอไอ ) และนวัตกรรม นโยบายที่คาดว่าจะประกาศเหล่านี้ย่อมส่งผลต่อชีวิตของชาวจีน 1,400 ล้านคนและส่งกระทบต่อต่างชาติด้วยอย่างแน่นอนที่มา : เซาท์ไชน่ามอร์นิงโพสต์ /โกลบอลไทมส์ภาพประกอบข่าว1 ภาพ : เซาท์ไชน่ามอร์นิงโพสต์2 นักข่าวกำลังทำงานที่ศูนย์สื่อมวลชนเพื่อเตรียมความพร้อมในการประชุมสองสภาประจำปีของจีนที่กรุงปักกิ่ง เมื่อวันที่ 27 ก.พ. 2568 - ภาพ : ซินหัว
    Like
    1
    0 Comments 0 Shares 1293 Views 0 Reviews
  • จากโพสต์ของ ดร.อนันต์ จงแก้ววัฒนา นักไวรัสวิทยา ผู้อำนวยการกลุ่มวิจัยนวัตกรรมสุขภาพสัตว์และการจัดการ ศูนย์พันธุวิศวกรรมและเทคโนโลยีชีวภาพแห่งชาติ(ไบโอเทค) โพสต์ขเกี่ยวกับงานวิจัยวัคซีน mRNA สำหรับรักษามะเร็ง

    และ Dr.Somrot หมอสมรส ได้มาแสดงความเห็นไว้ในโพสต์ของ ดร.อนันต์ ดังนี้:
    ขอบพระคุณอาจารย์มากครับ ในฐานะที่เป็นมะเร็งเอง ก็แอบมีหวัง 🙏🏻
    ขออนุญาตแปลภาษาไทย ให้เพื่อนๆคนทั่วไปอ่านนะครับ (ChatGPT4o)
    สรุปใจความสำคัญ
    1. วัคซีนมะเร็งแบบเฉพาะบุคคล (Personalized Cancer Vaccine): ใช้เทคโนโลยี mRNA เดียวกับที่ใช้ในวัคซีน COVID-19 โดยวัคซีนนี้ออกแบบให้เข้ารหัส neoantigens ซึ่งเป็นโปรตีนเฉพาะที่พบในเซลล์มะเร็งของผู้ป่วยแต่ละคน เพื่อฝึกระบบภูมิคุ้มกันให้โจมตีเซลล์มะเร็งที่เหลืออยู่หลังการผ่าตัด

    2. ผลการทดลองเบื้องต้น: การใช้วัคซีนร่วมกับยา checkpoint inhibitor ในผู้ป่วยมะเร็งผิวหนังชนิด Melanoma ลดความเสี่ยงการกลับมาเป็นซ้ำได้เกือบ 50% และมีแนวโน้มช่วยยืดอายุผู้ป่วยเมื่อเทียบกับการใช้ยาชนิดเดียว นอกจากนี้ยังพบว่าผู้ป่วยสามารถเข้าสู่ภาวะปลอดมะเร็งได้นานกว่า 3 ปี

    3. ขั้นตอนการผลิต: บริษัท Moderna พัฒนาวัคซีนในโรงงานขนาดใหญ่ โดยใช้เครื่องจักรอัจฉริยะที่ออกแบบวัคซีนเฉพาะบุคคลในเวลาอันรวดเร็ว พร้อมทั้งใช้ AI วิเคราะห์ข้อมูลจากฐานข้อมูลทางคลินิกและห้องทดลอง เพื่อคัดเลือก neoantigens ที่มีศักยภาพในการกระตุ้นภูมิคุ้มกันได้ดีที่สุด

    4. ขอบเขตของการใช้งาน: วัคซีนถูกทดสอบในผู้ป่วยที่ผ่านการผ่าตัดมะเร็งในระยะเริ่มต้นและมีความเสี่ยงสูงต่อการกลับมาเป็นซ้ำ เช่น มะเร็งผิวหนัง (Melanoma) มะเร็งปอด และมะเร็งลำไส้ใหญ่ นอกจากนี้ยังมีการทดลองในมะเร็งตับอ่อนและมะเร็งระยะลุกลาม (metastasis) แต่ยังมีข้อจำกัดด้านประสิทธิภาพในระยะที่มะเร็งแพร่กระจายอย่างกว้างขวาง

    5. ข้อดีและข้อจำกัด: วัคซีนเหมาะสมกับมะเร็งระยะเริ่มต้นหรือหลังผ่าตัด เนื่องจากสามารถควบคุมการเติบโตของมะเร็งที่หลงเหลือ แต่ยังขาดประสิทธิภาพในกรณีมะเร็งระยะลุกลาม ซึ่งเซลล์มะเร็งมีการปรับตัวและป้องกันตัวเองจากภูมิคุ้มกัน

    6. แนวทางในอนาคต: การพัฒนาวัคซีนยังต้องการการทดลองเพิ่มเติมในผู้ป่วยจำนวนมากขึ้น เพื่อยืนยันผลลัพธ์และรองรับการใช้งานจริงในตลาด นักวิจัยยังคงมุ่งเน้นการปรับปรุงวัคซีนให้ตอบสนองได้เร็วและครอบคลุมชนิดของมะเร็งที่หลากหลายขึ้น

    https://web.facebook.com/share/p/19cpPdVbFe/
    จากโพสต์ของ ดร.อนันต์ จงแก้ววัฒนา นักไวรัสวิทยา ผู้อำนวยการกลุ่มวิจัยนวัตกรรมสุขภาพสัตว์และการจัดการ ศูนย์พันธุวิศวกรรมและเทคโนโลยีชีวภาพแห่งชาติ(ไบโอเทค) โพสต์ขเกี่ยวกับงานวิจัยวัคซีน mRNA สำหรับรักษามะเร็ง และ Dr.Somrot หมอสมรส ได้มาแสดงความเห็นไว้ในโพสต์ของ ดร.อนันต์ ดังนี้: ขอบพระคุณอาจารย์มากครับ ในฐานะที่เป็นมะเร็งเอง ก็แอบมีหวัง😇 🙏🏻 ขออนุญาตแปลภาษาไทย ให้เพื่อนๆคนทั่วไปอ่านนะครับ (ChatGPT4o) สรุปใจความสำคัญ 1. วัคซีนมะเร็งแบบเฉพาะบุคคล (Personalized Cancer Vaccine): ใช้เทคโนโลยี mRNA เดียวกับที่ใช้ในวัคซีน COVID-19 โดยวัคซีนนี้ออกแบบให้เข้ารหัส neoantigens ซึ่งเป็นโปรตีนเฉพาะที่พบในเซลล์มะเร็งของผู้ป่วยแต่ละคน เพื่อฝึกระบบภูมิคุ้มกันให้โจมตีเซลล์มะเร็งที่เหลืออยู่หลังการผ่าตัด 2. ผลการทดลองเบื้องต้น: การใช้วัคซีนร่วมกับยา checkpoint inhibitor ในผู้ป่วยมะเร็งผิวหนังชนิด Melanoma ลดความเสี่ยงการกลับมาเป็นซ้ำได้เกือบ 50% และมีแนวโน้มช่วยยืดอายุผู้ป่วยเมื่อเทียบกับการใช้ยาชนิดเดียว นอกจากนี้ยังพบว่าผู้ป่วยสามารถเข้าสู่ภาวะปลอดมะเร็งได้นานกว่า 3 ปี 3. ขั้นตอนการผลิต: บริษัท Moderna พัฒนาวัคซีนในโรงงานขนาดใหญ่ โดยใช้เครื่องจักรอัจฉริยะที่ออกแบบวัคซีนเฉพาะบุคคลในเวลาอันรวดเร็ว พร้อมทั้งใช้ AI วิเคราะห์ข้อมูลจากฐานข้อมูลทางคลินิกและห้องทดลอง เพื่อคัดเลือก neoantigens ที่มีศักยภาพในการกระตุ้นภูมิคุ้มกันได้ดีที่สุด 4. ขอบเขตของการใช้งาน: วัคซีนถูกทดสอบในผู้ป่วยที่ผ่านการผ่าตัดมะเร็งในระยะเริ่มต้นและมีความเสี่ยงสูงต่อการกลับมาเป็นซ้ำ เช่น มะเร็งผิวหนัง (Melanoma) มะเร็งปอด และมะเร็งลำไส้ใหญ่ นอกจากนี้ยังมีการทดลองในมะเร็งตับอ่อนและมะเร็งระยะลุกลาม (metastasis) แต่ยังมีข้อจำกัดด้านประสิทธิภาพในระยะที่มะเร็งแพร่กระจายอย่างกว้างขวาง 5. ข้อดีและข้อจำกัด: วัคซีนเหมาะสมกับมะเร็งระยะเริ่มต้นหรือหลังผ่าตัด เนื่องจากสามารถควบคุมการเติบโตของมะเร็งที่หลงเหลือ แต่ยังขาดประสิทธิภาพในกรณีมะเร็งระยะลุกลาม ซึ่งเซลล์มะเร็งมีการปรับตัวและป้องกันตัวเองจากภูมิคุ้มกัน 6. แนวทางในอนาคต: การพัฒนาวัคซีนยังต้องการการทดลองเพิ่มเติมในผู้ป่วยจำนวนมากขึ้น เพื่อยืนยันผลลัพธ์และรองรับการใช้งานจริงในตลาด นักวิจัยยังคงมุ่งเน้นการปรับปรุงวัคซีนให้ตอบสนองได้เร็วและครอบคลุมชนิดของมะเร็งที่หลากหลายขึ้น https://web.facebook.com/share/p/19cpPdVbFe/
    0 Comments 0 Shares 1374 Views 0 Reviews
  • https://youtu.be/ZJEN1g_v7Io?si=nb7TcPPlVmbOUMMw
    https://youtu.be/ZJEN1g_v7Io?si=nb7TcPPlVmbOUMMw
    0 Comments 0 Shares 79 Views 0 Reviews
  • https://youtu.be/PiwqV6p-DNU?si=IAOm0syCcpP4wgEU
    https://youtu.be/PiwqV6p-DNU?si=IAOm0syCcpP4wgEU
    0 Comments 0 Shares 77 Views 0 Reviews
  • พรรคคอมมิวนิสต์จีนลงมติขับหวัง อี้หลินอดีตประธาน CNPC และเลขาธิการพรรคฯออกจากตำแหน่ง

    31 กรกฏาคม2567-รายงานข่าวรอยเตอร์ส ระบุว่า พรรคคอมมิวนิสต์แห่งประเทศจีนได้ขับไล่หวัง อี้หลิน อดีตประธานของบริษัทปิโตรเลียมแห่งชาติจีน และเลขาธิการพรรค ออกจากตำแหน่ง เนื่องจากละเมิดวินัย

    ตามรายงานของ CCTV ซึ่งเป็นหน่วยงานของรัฐ หวังรับสินบนเป็นทรัพย์สินและสินค้าที่มีมูลค่าสูงอย่างผิดกฎหมาย และใช้ประโยชน์จากตำแหน่งของเขาเพื่อเอื้อผู้อื่นแสวงหาผลประโยชน์ในการทำสัญญาโครงการและดำเนินการทางธุรกิจ

    รายงานระบุว่า นอกจากนี้เขายังรับบริการการเดินทางที่จัดเตรียมโดยผู้ประกอบการเอกชนหลายครั้ง

    สื่อของรัฐรายงานว่าคดีของหวังจะถูกส่งต่อไปยังอัยการเพื่อดำเนินการสอบสวนตามกฎหมาย

    ตามประวัติในวิกิพีเดีย ระบุว่า Wáng Yílín เกิดในเดือนกันยายน พ.ศ. 2499 เป็นนักธุรกิจด้านพลังงานน้ำมันชาวจีน ซึ่งเคยดำรงตำแหน่งประธานคณะกรรมการของบริษัทปิโตรเลียมแห่งชาติจีน (CNPC ) และประธานคณะกรรมการของPetroChina

    ในฐานะผู้นำธุรกิจที่มีอิทธิพลมากที่สุดของประเทศขณะนั้น หวังได้ร่วมเดินทางกับสีจิ้นผิงเลขาธิการพรรคคอมมิวนิสต์จีนในการเยือนอย่างเป็นทางการหลายครั้ง รวมถึงอังกฤษฝรั่งเศสคาซัคสถานรัสเซียสหรัฐอาหรับเอมิเรตส์ฯลฯ

    ในเดือนเมษายน พ.ศ. 2554 หวังรับบทบาทเป็นประธานของบริษัท China National Offshore Oil Corporation หรือ CNOOC ซึ่งเป็นบริษัทแม่ของ CNOOC Ltd.

    ในเดือนพฤศจิกายน พ.ศ. 2555 เขาได้รับเลือกเป็นสมาชิก คณะกรรมการกลางการตรวจสอบวินัยครั้งที่ 18ของพรรคคอมมิวนิสต์จีน

    หวัง อี้หลิน เริ่มดำรงตำแหน่งประธานของ CNPC เป็นบริษัทแม่ของ PetroChina ในเดือนเมษายน 2558 และเริ่มดำรงตำแหน่งประธานของ PetroChina ในเดือนมิถุนายน 2558 ในเดือนกรกฎาคม 2560 หวัง อี้หลิน ประธานของ CNPC ได้ดำรงตำแหน่งหัวหน้าคณะผู้แทนแห่งชาติจีนในการประชุมปิโตรเลียมโลกที่อิสตันบูล

    13 มีนาคม2561 หวังได้รับเลือกเป็นประธานร่วมของคณะกรรมการเศรษฐกิจของการประชุมปรึกษาการเมืองของประชาชนจีน (PCC 2018)

    หวังลาออกจากตำแหน่งที่ CNPC ในเดือนมกราคม 2563 เมื่อถึงวัยเกษียณ ตามรายงานของเว็บไซต์ข่าวของรัฐ อย่างไรก็ตาม เขายังคงดำรงตำแหน่งรองผู้อำนวยการคณะกรรมการเศรษฐกิจของสภาที่ปรึกษาการเมืองประชาชนจีน (CPPCC) ซึ่งเป็นหน่วยงานที่ปรึกษาระดับสูงของพรรคคอมมิวนิสต์

    แต่ปัจจุบันหวังไม่มีชื่อเป็นสมาชิกคณะกรรมการเศรษฐกิจอยู่บนเว็บไซต์ขององค์กร และไม่มีชื่อเป็นผู้แทน CPPCC ในรายชื่อปี 2023 ด้วย

    ที่มา : https://www.reuters.com/world/china/chinas-communist-party-expels-former-cnpc-chairman-party-secretary-2024-07-31/?taid=66a9bca477b8640001206c7a&utm_campaign=trueAnthem:+Trending+Content&utm_medium=trueAnthem&utm_source=twitter

    #Thaitimes
    พรรคคอมมิวนิสต์จีนลงมติขับหวัง อี้หลินอดีตประธาน CNPC และเลขาธิการพรรคฯออกจากตำแหน่ง 31 กรกฏาคม2567-รายงานข่าวรอยเตอร์ส ระบุว่า พรรคคอมมิวนิสต์แห่งประเทศจีนได้ขับไล่หวัง อี้หลิน อดีตประธานของบริษัทปิโตรเลียมแห่งชาติจีน และเลขาธิการพรรค ออกจากตำแหน่ง เนื่องจากละเมิดวินัย ตามรายงานของ CCTV ซึ่งเป็นหน่วยงานของรัฐ หวังรับสินบนเป็นทรัพย์สินและสินค้าที่มีมูลค่าสูงอย่างผิดกฎหมาย และใช้ประโยชน์จากตำแหน่งของเขาเพื่อเอื้อผู้อื่นแสวงหาผลประโยชน์ในการทำสัญญาโครงการและดำเนินการทางธุรกิจ รายงานระบุว่า นอกจากนี้เขายังรับบริการการเดินทางที่จัดเตรียมโดยผู้ประกอบการเอกชนหลายครั้ง สื่อของรัฐรายงานว่าคดีของหวังจะถูกส่งต่อไปยังอัยการเพื่อดำเนินการสอบสวนตามกฎหมาย ตามประวัติในวิกิพีเดีย ระบุว่า Wáng Yílín เกิดในเดือนกันยายน พ.ศ. 2499 เป็นนักธุรกิจด้านพลังงานน้ำมันชาวจีน ซึ่งเคยดำรงตำแหน่งประธานคณะกรรมการของบริษัทปิโตรเลียมแห่งชาติจีน (CNPC ) และประธานคณะกรรมการของPetroChina ในฐานะผู้นำธุรกิจที่มีอิทธิพลมากที่สุดของประเทศขณะนั้น หวังได้ร่วมเดินทางกับสีจิ้นผิงเลขาธิการพรรคคอมมิวนิสต์จีนในการเยือนอย่างเป็นทางการหลายครั้ง รวมถึงอังกฤษฝรั่งเศสคาซัคสถานรัสเซียสหรัฐอาหรับเอมิเรตส์ฯลฯ ในเดือนเมษายน พ.ศ. 2554 หวังรับบทบาทเป็นประธานของบริษัท China National Offshore Oil Corporation หรือ CNOOC ซึ่งเป็นบริษัทแม่ของ CNOOC Ltd. ในเดือนพฤศจิกายน พ.ศ. 2555 เขาได้รับเลือกเป็นสมาชิก คณะกรรมการกลางการตรวจสอบวินัยครั้งที่ 18ของพรรคคอมมิวนิสต์จีน หวัง อี้หลิน เริ่มดำรงตำแหน่งประธานของ CNPC เป็นบริษัทแม่ของ PetroChina ในเดือนเมษายน 2558 และเริ่มดำรงตำแหน่งประธานของ PetroChina ในเดือนมิถุนายน 2558 ในเดือนกรกฎาคม 2560 หวัง อี้หลิน ประธานของ CNPC ได้ดำรงตำแหน่งหัวหน้าคณะผู้แทนแห่งชาติจีนในการประชุมปิโตรเลียมโลกที่อิสตันบูล 13 มีนาคม2561 หวังได้รับเลือกเป็นประธานร่วมของคณะกรรมการเศรษฐกิจของการประชุมปรึกษาการเมืองของประชาชนจีน (PCC 2018) หวังลาออกจากตำแหน่งที่ CNPC ในเดือนมกราคม 2563 เมื่อถึงวัยเกษียณ ตามรายงานของเว็บไซต์ข่าวของรัฐ อย่างไรก็ตาม เขายังคงดำรงตำแหน่งรองผู้อำนวยการคณะกรรมการเศรษฐกิจของสภาที่ปรึกษาการเมืองประชาชนจีน (CPPCC) ซึ่งเป็นหน่วยงานที่ปรึกษาระดับสูงของพรรคคอมมิวนิสต์ แต่ปัจจุบันหวังไม่มีชื่อเป็นสมาชิกคณะกรรมการเศรษฐกิจอยู่บนเว็บไซต์ขององค์กร และไม่มีชื่อเป็นผู้แทน CPPCC ในรายชื่อปี 2023 ด้วย ที่มา : https://www.reuters.com/world/china/chinas-communist-party-expels-former-cnpc-chairman-party-secretary-2024-07-31/?taid=66a9bca477b8640001206c7a&utm_campaign=trueAnthem:+Trending+Content&utm_medium=trueAnthem&utm_source=twitter #Thaitimes
    0 Comments 0 Shares 1151 Views 0 Reviews