• “GPT-3 กับ 12,000 มิติแห่งความหมาย — เมื่อคณิตศาสตร์ช่วยให้โมเดลภาษาเข้าใจโลกได้ลึกกว่าที่คิด”

    บทความโดย Nicholas Yoder ได้เปิดเผยเบื้องหลังของคำถามที่ดูเหมือนง่ายแต่ลึกซึ้ง: “โมเดลภาษาอย่าง GPT-3 ที่มี embedding space เพียง 12,288 มิติ สามารถเก็บข้อมูลนับพันล้านแนวคิดได้อย่างไร?” คำตอบไม่ได้อยู่แค่ในวิศวกรรม แต่ซ่อนอยู่ในเรขาคณิตมิติสูงและทฤษฎีคณิตศาสตร์ที่ชื่อว่า Johnson–Lindenstrauss lemma

    ในโลกของเวกเตอร์ การจัดเรียงแบบ “orthogonal” (ตั้งฉาก) มีข้อจำกัด — N มิติสามารถรองรับได้แค่ N เวกเตอร์ที่ตั้งฉากกันเท่านั้น แต่ถ้าเรายอมให้เวกเตอร์มีมุมใกล้เคียง 90° เช่น 85–95° หรือที่เรียกว่า “quasi-orthogonal” ความจุของพื้นที่จะเพิ่มขึ้นอย่างมหาศาล

    Yoder ได้ทดลองสร้างเวกเตอร์ 10,000 ตัวในพื้นที่ 100 มิติ โดยใช้ loss function ที่ดูเรียบง่าย แต่กลับเจอปัญหา “Gradient Trap” และ “99% Solution” ซึ่งทำให้เวกเตอร์บางตัวติดอยู่ในตำแหน่งที่ไม่เหมาะสม แม้จะดูดีในเชิงสถิติ เขาจึงปรับ loss function ให้ลงโทษเวกเตอร์ที่มี dot product สูงขึ้นแบบ exponential และพบว่าแม้จะตั้งเป้ามุมใกล้ 90° แต่ผลลัพธ์จริงกลับอยู่ที่ ~76.5° ซึ่งนำไปสู่การค้นพบขีดจำกัดใหม่ของการบรรจุเวกเตอร์ในมิติสูง

    จากนั้น Yoder ได้เชื่อมโยงกับ Johnson–Lindenstrauss lemma ซึ่งระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำได้โดยไม่เสียโครงสร้างระยะห่างมากนัก โดยจำนวนมิติที่ต้องใช้จะเพิ่มขึ้นแบบลอการิทึมตามจำนวนจุดที่ต้องการฉาย — ทำให้การลดมิติในงานจริง เช่น การจัดการข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา เป็นไปได้อย่างมีประสิทธิภาพ

    เขายังเสนอสูตรประมาณจำนวนเวกเตอร์ที่สามารถจัดวางในพื้นที่ embedding ได้ตามมุมที่ยอมรับได้ เช่น ที่มุม 89° GPT-3 สามารถรองรับได้ ~10⁸ เวกเตอร์ แต่ถ้ายอมลดมุมลงเหลือ 85° จะสามารถรองรับได้มากกว่า 10²⁰⁰ เวกเตอร์ — มากกว่าจำนวนอะตอมในจักรวาลเสียอีก

    ข้อมูลสำคัญจากบทความ
    GPT-3 มี embedding space ขนาด 12,288 มิติ แต่สามารถเก็บแนวคิดได้มหาศาล
    การใช้ quasi-orthogonal vectors (มุมใกล้ 90°) ช่วยเพิ่มความจุของพื้นที่
    การทดลองพบว่า loss function แบบเดิมมีปัญหา gradient trap และ 99% solution
    การปรับ loss function แบบ exponential ช่วยให้เวกเตอร์จัดเรียงได้ดีขึ้น

    การเชื่อมโยงกับทฤษฎี JL lemma
    JL lemma ระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำโดยรักษาระยะห่างได้
    จำนวนมิติที่ต้องใช้เพิ่มขึ้นแบบ log(N)/ε² ตามจำนวนจุดและความคลาดเคลื่อนที่ยอมรับ
    ใช้ในงานจริง เช่น การลดมิติของข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา
    การทดลองพบว่า embedding space สามารถรองรับเวกเตอร์ได้มากกว่าที่คาด

    ข้อมูลเสริมจากภายนอก
    Hadamard matrix และ BCH coding เป็นเทคนิคที่ใช้ในการฉายข้อมูลแบบมีประสิทธิภาพ
    uIP และ SLIP เป็นโปรโตคอลที่ใช้ใน embedded system ที่มีหน่วยความจำจำกัด
    GPT-3 ใช้ embedding space ขนาด 12,288 มิติ ซึ่งถือว่าเล็กเมื่อเทียบกับจำนวนแนวคิดที่ต้องรองรับ
    การจัดเรียงเวกเตอร์ในมิติสูงมีความสัมพันธ์กับ sphere packing และ geometry แบบ non-Euclidean

    https://nickyoder.com/johnson-lindenstrauss/
    🧠 “GPT-3 กับ 12,000 มิติแห่งความหมาย — เมื่อคณิตศาสตร์ช่วยให้โมเดลภาษาเข้าใจโลกได้ลึกกว่าที่คิด” บทความโดย Nicholas Yoder ได้เปิดเผยเบื้องหลังของคำถามที่ดูเหมือนง่ายแต่ลึกซึ้ง: “โมเดลภาษาอย่าง GPT-3 ที่มี embedding space เพียง 12,288 มิติ สามารถเก็บข้อมูลนับพันล้านแนวคิดได้อย่างไร?” คำตอบไม่ได้อยู่แค่ในวิศวกรรม แต่ซ่อนอยู่ในเรขาคณิตมิติสูงและทฤษฎีคณิตศาสตร์ที่ชื่อว่า Johnson–Lindenstrauss lemma ในโลกของเวกเตอร์ การจัดเรียงแบบ “orthogonal” (ตั้งฉาก) มีข้อจำกัด — N มิติสามารถรองรับได้แค่ N เวกเตอร์ที่ตั้งฉากกันเท่านั้น แต่ถ้าเรายอมให้เวกเตอร์มีมุมใกล้เคียง 90° เช่น 85–95° หรือที่เรียกว่า “quasi-orthogonal” ความจุของพื้นที่จะเพิ่มขึ้นอย่างมหาศาล Yoder ได้ทดลองสร้างเวกเตอร์ 10,000 ตัวในพื้นที่ 100 มิติ โดยใช้ loss function ที่ดูเรียบง่าย แต่กลับเจอปัญหา “Gradient Trap” และ “99% Solution” ซึ่งทำให้เวกเตอร์บางตัวติดอยู่ในตำแหน่งที่ไม่เหมาะสม แม้จะดูดีในเชิงสถิติ เขาจึงปรับ loss function ให้ลงโทษเวกเตอร์ที่มี dot product สูงขึ้นแบบ exponential และพบว่าแม้จะตั้งเป้ามุมใกล้ 90° แต่ผลลัพธ์จริงกลับอยู่ที่ ~76.5° ซึ่งนำไปสู่การค้นพบขีดจำกัดใหม่ของการบรรจุเวกเตอร์ในมิติสูง จากนั้น Yoder ได้เชื่อมโยงกับ Johnson–Lindenstrauss lemma ซึ่งระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำได้โดยไม่เสียโครงสร้างระยะห่างมากนัก โดยจำนวนมิติที่ต้องใช้จะเพิ่มขึ้นแบบลอการิทึมตามจำนวนจุดที่ต้องการฉาย — ทำให้การลดมิติในงานจริง เช่น การจัดการข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา เป็นไปได้อย่างมีประสิทธิภาพ เขายังเสนอสูตรประมาณจำนวนเวกเตอร์ที่สามารถจัดวางในพื้นที่ embedding ได้ตามมุมที่ยอมรับได้ เช่น ที่มุม 89° GPT-3 สามารถรองรับได้ ~10⁸ เวกเตอร์ แต่ถ้ายอมลดมุมลงเหลือ 85° จะสามารถรองรับได้มากกว่า 10²⁰⁰ เวกเตอร์ — มากกว่าจำนวนอะตอมในจักรวาลเสียอีก ✅ ข้อมูลสำคัญจากบทความ ➡️ GPT-3 มี embedding space ขนาด 12,288 มิติ แต่สามารถเก็บแนวคิดได้มหาศาล ➡️ การใช้ quasi-orthogonal vectors (มุมใกล้ 90°) ช่วยเพิ่มความจุของพื้นที่ ➡️ การทดลองพบว่า loss function แบบเดิมมีปัญหา gradient trap และ 99% solution ➡️ การปรับ loss function แบบ exponential ช่วยให้เวกเตอร์จัดเรียงได้ดีขึ้น ✅ การเชื่อมโยงกับทฤษฎี JL lemma ➡️ JL lemma ระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำโดยรักษาระยะห่างได้ ➡️ จำนวนมิติที่ต้องใช้เพิ่มขึ้นแบบ log(N)/ε² ตามจำนวนจุดและความคลาดเคลื่อนที่ยอมรับ ➡️ ใช้ในงานจริง เช่น การลดมิติของข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา ➡️ การทดลองพบว่า embedding space สามารถรองรับเวกเตอร์ได้มากกว่าที่คาด ✅ ข้อมูลเสริมจากภายนอก ➡️ Hadamard matrix และ BCH coding เป็นเทคนิคที่ใช้ในการฉายข้อมูลแบบมีประสิทธิภาพ ➡️ uIP และ SLIP เป็นโปรโตคอลที่ใช้ใน embedded system ที่มีหน่วยความจำจำกัด ➡️ GPT-3 ใช้ embedding space ขนาด 12,288 มิติ ซึ่งถือว่าเล็กเมื่อเทียบกับจำนวนแนวคิดที่ต้องรองรับ ➡️ การจัดเรียงเวกเตอร์ในมิติสูงมีความสัมพันธ์กับ sphere packing และ geometry แบบ non-Euclidean https://nickyoder.com/johnson-lindenstrauss/
    NICKYODER.COM
    Beyond Orthogonality: How Language Models Pack Billions of Concepts into 12,000 Dimensions
    In a recent 3Blue1Brown video series on transformer models, Grant Sanderson posed a fascinating question: How can a relatively modest embedding space of 12,288 dimensions (GPT-3) accommodate millions of distinct real-world concepts? The answer lies at the intersection of high-dimensional geometry and a remarkable mathematical result known as the
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • “คะแนนอ่าน-คณิตนักเรียนมัธยมปลายสหรัฐฯ ต่ำสุดในรอบ 20 ปี — สะท้อนวิกฤตการศึกษาที่ลึกกว่าผลกระทบจากโควิด”

    ผลการสอบระดับชาติของสหรัฐฯ หรือที่เรียกว่า “Nation’s Report Card” ล่าสุดเผยให้เห็นภาพที่น่ากังวลอย่างยิ่ง: คะแนนเฉลี่ยของนักเรียนชั้นมัธยมปลายปีสุดท้าย (Grade 12) ในวิชาการอ่านและคณิตศาสตร์ตกลงสู่ระดับต่ำสุดในรอบกว่า 20 ปี โดยเฉพาะในปี 2024 ซึ่งเป็นครั้งแรกที่มีการสอบหลังช่วงการระบาดของโควิด-19

    แม้หลายฝ่ายจะชี้ว่าโควิดมีผลกระทบต่อการเรียนรู้ เช่น การเรียนออนไลน์ การขาดเรียน และความเครียดสะสม แต่ผู้เชี่ยวชาญกลับเตือนว่าแนวโน้มคะแนนตกต่ำนี้เริ่มต้นมานานก่อนโควิดแล้ว และสะท้อนปัญหาเชิงโครงสร้าง เช่น การลดลงของการอ่านหนังสือเล่มยาว การเปลี่ยนแนวการสอนภาษาอังกฤษไปเน้นบทสั้น และการใช้หน้าจอมากเกินไป

    ในวิชาคณิตศาสตร์ พบว่า 45% ของนักเรียนมัธยมปลายสอบได้ต่ำกว่าระดับ “พื้นฐาน” (NAEP Basic) ซึ่งหมายถึงไม่สามารถแก้โจทย์พื้นฐาน เช่น การหาค่าความน่าจะเป็นจากตาราง หรือการคำนวณพื้นที่ได้ ส่วนในวิชาการอ่าน มีถึง 32% ที่ไม่สามารถดึงข้อมูลจากข้อความเพื่อเข้าใจความหมายได้

    ช่องว่างระหว่างนักเรียนที่ทำคะแนนสูงสุดกับต่ำสุดก็เพิ่มขึ้นอย่างชัดเจน โดยเฉพาะในวิชาวิทยาศาสตร์ระดับมัธยมต้น (Grade 8) ซึ่งสะท้อนถึงความเหลื่อมล้ำทางการศึกษา และการขาดกิจกรรมเรียนรู้แบบลงมือทำที่ลดลงหลังโควิด

    แม้จะมีนักเรียนจำนวนมากที่ได้รับการตอบรับเข้ามหาวิทยาลัย แต่ผลสอบกลับชี้ว่าเพียง 33% เท่านั้นที่มีความพร้อมด้านวิชาการสำหรับเรียนคณิตศาสตร์ระดับมหาวิทยาลัย — ลดลงจาก 37% ในปี 2019

    https://apnews.com/article/naep-reading-math-scores-12th-grade-c18d6e3fbc125f12948cc70cb85a520a
    📉 “คะแนนอ่าน-คณิตนักเรียนมัธยมปลายสหรัฐฯ ต่ำสุดในรอบ 20 ปี — สะท้อนวิกฤตการศึกษาที่ลึกกว่าผลกระทบจากโควิด” ผลการสอบระดับชาติของสหรัฐฯ หรือที่เรียกว่า “Nation’s Report Card” ล่าสุดเผยให้เห็นภาพที่น่ากังวลอย่างยิ่ง: คะแนนเฉลี่ยของนักเรียนชั้นมัธยมปลายปีสุดท้าย (Grade 12) ในวิชาการอ่านและคณิตศาสตร์ตกลงสู่ระดับต่ำสุดในรอบกว่า 20 ปี โดยเฉพาะในปี 2024 ซึ่งเป็นครั้งแรกที่มีการสอบหลังช่วงการระบาดของโควิด-19 แม้หลายฝ่ายจะชี้ว่าโควิดมีผลกระทบต่อการเรียนรู้ เช่น การเรียนออนไลน์ การขาดเรียน และความเครียดสะสม แต่ผู้เชี่ยวชาญกลับเตือนว่าแนวโน้มคะแนนตกต่ำนี้เริ่มต้นมานานก่อนโควิดแล้ว และสะท้อนปัญหาเชิงโครงสร้าง เช่น การลดลงของการอ่านหนังสือเล่มยาว การเปลี่ยนแนวการสอนภาษาอังกฤษไปเน้นบทสั้น และการใช้หน้าจอมากเกินไป ในวิชาคณิตศาสตร์ พบว่า 45% ของนักเรียนมัธยมปลายสอบได้ต่ำกว่าระดับ “พื้นฐาน” (NAEP Basic) ซึ่งหมายถึงไม่สามารถแก้โจทย์พื้นฐาน เช่น การหาค่าความน่าจะเป็นจากตาราง หรือการคำนวณพื้นที่ได้ ส่วนในวิชาการอ่าน มีถึง 32% ที่ไม่สามารถดึงข้อมูลจากข้อความเพื่อเข้าใจความหมายได้ ช่องว่างระหว่างนักเรียนที่ทำคะแนนสูงสุดกับต่ำสุดก็เพิ่มขึ้นอย่างชัดเจน โดยเฉพาะในวิชาวิทยาศาสตร์ระดับมัธยมต้น (Grade 8) ซึ่งสะท้อนถึงความเหลื่อมล้ำทางการศึกษา และการขาดกิจกรรมเรียนรู้แบบลงมือทำที่ลดลงหลังโควิด แม้จะมีนักเรียนจำนวนมากที่ได้รับการตอบรับเข้ามหาวิทยาลัย แต่ผลสอบกลับชี้ว่าเพียง 33% เท่านั้นที่มีความพร้อมด้านวิชาการสำหรับเรียนคณิตศาสตร์ระดับมหาวิทยาลัย — ลดลงจาก 37% ในปี 2019 https://apnews.com/article/naep-reading-math-scores-12th-grade-c18d6e3fbc125f12948cc70cb85a520a
    APNEWS.COM
    US high school students lose ground in math and reading, continuing yearslong decline
    A decade-long slide in high school students’ performance in reading and math persisted during the COVID-19 pandemic, with 12th graders’ scores dropping to their lowest level in more than 20 years.
    0 ความคิดเห็น 0 การแบ่งปัน 153 มุมมอง 0 รีวิว
  • “Liquid Glass บนเว็บ: เมื่อแสงหักเหกลายเป็นศิลปะ UI ด้วย CSS และ SVG — สวยระดับ Apple แต่ยังใช้ได้แค่ Chrome!”

    ถ้าคุณเคยเห็นเอฟเฟกต์ Liquid Glass ที่ Apple เปิดตัวในงาน WWDC 2025 แล้วรู้สึกว่า “อยากได้แบบนี้บนเว็บบ้าง” — บทความนี้คือคำตอบที่คุณรอคอย เพราะมันคือการทดลองสร้างเอฟเฟกต์หักเหแสงแบบกระจกโค้งบนเบราว์เซอร์ โดยใช้แค่ CSS, SVG และคณิตศาสตร์ฟิสิกส์พื้นฐาน

    แนวคิดหลักคือการจำลองการหักเหของแสง (refraction) ตามกฎของ Snell–Descartes ซึ่งอธิบายว่ามุมของแสงจะเปลี่ยนไปเมื่อผ่านจากวัสดุหนึ่งไปสู่อีกวัสดุหนึ่ง เช่น จากอากาศเข้าสู่กระจก โดยใช้ค่าดัชนีหักเห (refractive index) เพื่อคำนวณทิศทางใหม่ของแสง

    บทความนี้เลือกใช้รูปทรงวงกลมเป็นพื้นฐาน เพราะง่ายต่อการคำนวณและสามารถขยายเป็นรูปทรงอื่นได้ในอนาคต โดยใช้ฟังก์ชันความสูงของพื้นผิวกระจกเพื่อคำนวณมุมตกกระทบและมุมหักเห จากนั้นสร้าง “สนามเวกเตอร์การเลื่อนตำแหน่ง” (displacement vector field) เพื่อบอกว่าแสงควรเบนไปทางไหน

    เมื่อได้เวกเตอร์แล้ว ก็แปลงเป็นภาพ SVG displacement map โดยใช้สีแดงและเขียวแทนการเลื่อนในแกน X และ Y ตามลำดับ แล้วนำไปใช้ในฟิลเตอร์ SVG เพื่อสร้างเอฟเฟกต์หักเหแสงบนองค์ประกอบ UI จริง เช่น ปุ่ม, สวิตช์, กล่องค้นหา และมิวสิกเพลเยอร์

    สุดท้ายยังเพิ่ม “specular highlight” หรือแสงสะท้อนขอบกระจก เพื่อให้ดูสมจริงยิ่งขึ้น โดยใช้การเบลนด์ภาพ highlight เข้ากับภาพที่ผ่านการหักเหแล้ว — ทั้งหมดนี้ทำงานได้เฉพาะใน Chrome เท่านั้น เพราะยังไม่มีเบราว์เซอร์อื่นรองรับ SVG filter เป็น backdrop-filter

    แนวคิดหลักของ Liquid Glass บนเว็บ
    จำลองการหักเหแสงตามกฎ Snell–Descartes
    ใช้ค่าดัชนีหักเหของวัสดุ เช่น อากาศ (n=1) และกระจก (n=1.5)
    ใช้ฟังก์ชันความสูงของพื้นผิวเพื่อคำนวณมุมตกกระทบ
    สร้าง displacement vector field เพื่อบอกทิศทางการเบนของแสง

    การสร้าง SVG displacement map
    แปลงเวกเตอร์เป็นสีในภาพ SVG โดยใช้ Red = X, Green = Y
    ใช้ <feDisplacementMap /> เพื่อเลื่อนตำแหน่งพิกเซลตามเวกเตอร์
    scale ของฟิลเตอร์ใช้ค่าการเบนสูงสุดที่คำนวณไว้
    สามารถ animate scale เพื่อควบคุมความแรงของเอฟเฟกต์

    การใช้งานใน UI จริง
    ใช้กับองค์ประกอบ UI เช่น ปุ่ม, สวิตช์, กล่องค้นหา, มิวสิกเพลเยอร์
    เพิ่ม specular highlight เพื่อให้ดูมีแสงสะท้อนขอบกระจก
    ใช้ <feBlend /> เพื่อรวมภาพ highlight กับภาพหักเห
    ปรับค่าความเงา, ความอิ่มสี, และระดับการหักเหได้ตามต้องการ

    ข้อมูลเสริมจากภายนอก
    Apple เปิดตัว Liquid Glass ใน WWDC 2025 เป็นส่วนหนึ่งของ iOS 26 และ visionOS
    เอฟเฟกต์นี้มีต้นแบบจาก Dynamic Island และ macOS Aqua
    นักพัฒนาเริ่มสร้างเวอร์ชัน CSS-only เพื่อใช้บนเว็บโดยไม่พึ่ง JavaScript
    GitHub มีโปรเจกต์ทดลองหลายตัว เช่น liquid-glass-effect-macos

    https://kube.io/blog/liquid-glass-css-svg/
    🧊 “Liquid Glass บนเว็บ: เมื่อแสงหักเหกลายเป็นศิลปะ UI ด้วย CSS และ SVG — สวยระดับ Apple แต่ยังใช้ได้แค่ Chrome!” ถ้าคุณเคยเห็นเอฟเฟกต์ Liquid Glass ที่ Apple เปิดตัวในงาน WWDC 2025 แล้วรู้สึกว่า “อยากได้แบบนี้บนเว็บบ้าง” — บทความนี้คือคำตอบที่คุณรอคอย เพราะมันคือการทดลองสร้างเอฟเฟกต์หักเหแสงแบบกระจกโค้งบนเบราว์เซอร์ โดยใช้แค่ CSS, SVG และคณิตศาสตร์ฟิสิกส์พื้นฐาน แนวคิดหลักคือการจำลองการหักเหของแสง (refraction) ตามกฎของ Snell–Descartes ซึ่งอธิบายว่ามุมของแสงจะเปลี่ยนไปเมื่อผ่านจากวัสดุหนึ่งไปสู่อีกวัสดุหนึ่ง เช่น จากอากาศเข้าสู่กระจก โดยใช้ค่าดัชนีหักเห (refractive index) เพื่อคำนวณทิศทางใหม่ของแสง บทความนี้เลือกใช้รูปทรงวงกลมเป็นพื้นฐาน เพราะง่ายต่อการคำนวณและสามารถขยายเป็นรูปทรงอื่นได้ในอนาคต โดยใช้ฟังก์ชันความสูงของพื้นผิวกระจกเพื่อคำนวณมุมตกกระทบและมุมหักเห จากนั้นสร้าง “สนามเวกเตอร์การเลื่อนตำแหน่ง” (displacement vector field) เพื่อบอกว่าแสงควรเบนไปทางไหน เมื่อได้เวกเตอร์แล้ว ก็แปลงเป็นภาพ SVG displacement map โดยใช้สีแดงและเขียวแทนการเลื่อนในแกน X และ Y ตามลำดับ แล้วนำไปใช้ในฟิลเตอร์ SVG เพื่อสร้างเอฟเฟกต์หักเหแสงบนองค์ประกอบ UI จริง เช่น ปุ่ม, สวิตช์, กล่องค้นหา และมิวสิกเพลเยอร์ สุดท้ายยังเพิ่ม “specular highlight” หรือแสงสะท้อนขอบกระจก เพื่อให้ดูสมจริงยิ่งขึ้น โดยใช้การเบลนด์ภาพ highlight เข้ากับภาพที่ผ่านการหักเหแล้ว — ทั้งหมดนี้ทำงานได้เฉพาะใน Chrome เท่านั้น เพราะยังไม่มีเบราว์เซอร์อื่นรองรับ SVG filter เป็น backdrop-filter ✅ แนวคิดหลักของ Liquid Glass บนเว็บ ➡️ จำลองการหักเหแสงตามกฎ Snell–Descartes ➡️ ใช้ค่าดัชนีหักเหของวัสดุ เช่น อากาศ (n=1) และกระจก (n=1.5) ➡️ ใช้ฟังก์ชันความสูงของพื้นผิวเพื่อคำนวณมุมตกกระทบ ➡️ สร้าง displacement vector field เพื่อบอกทิศทางการเบนของแสง ✅ การสร้าง SVG displacement map ➡️ แปลงเวกเตอร์เป็นสีในภาพ SVG โดยใช้ Red = X, Green = Y ➡️ ใช้ <feDisplacementMap /> เพื่อเลื่อนตำแหน่งพิกเซลตามเวกเตอร์ ➡️ scale ของฟิลเตอร์ใช้ค่าการเบนสูงสุดที่คำนวณไว้ ➡️ สามารถ animate scale เพื่อควบคุมความแรงของเอฟเฟกต์ ✅ การใช้งานใน UI จริง ➡️ ใช้กับองค์ประกอบ UI เช่น ปุ่ม, สวิตช์, กล่องค้นหา, มิวสิกเพลเยอร์ ➡️ เพิ่ม specular highlight เพื่อให้ดูมีแสงสะท้อนขอบกระจก ➡️ ใช้ <feBlend /> เพื่อรวมภาพ highlight กับภาพหักเห ➡️ ปรับค่าความเงา, ความอิ่มสี, และระดับการหักเหได้ตามต้องการ ✅ ข้อมูลเสริมจากภายนอก ➡️ Apple เปิดตัว Liquid Glass ใน WWDC 2025 เป็นส่วนหนึ่งของ iOS 26 และ visionOS ➡️ เอฟเฟกต์นี้มีต้นแบบจาก Dynamic Island และ macOS Aqua ➡️ นักพัฒนาเริ่มสร้างเวอร์ชัน CSS-only เพื่อใช้บนเว็บโดยไม่พึ่ง JavaScript ➡️ GitHub มีโปรเจกต์ทดลองหลายตัว เช่น liquid-glass-effect-macos https://kube.io/blog/liquid-glass-css-svg/
    KUBE.IO
    Liquid Glass in the Browser: Refraction with CSS and SVG — kube.io
    Explore how to recreate Apple's stunning Liquid Glass effect using CSS, SVG Displacement Maps, and refraction calculations.
    0 ความคิดเห็น 0 การแบ่งปัน 223 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก ETH Zurich ถึง 1811 ภาษา: เมื่อโมเดลภาษาไม่ได้ถูกสร้างเพื่อแข่งขัน แต่เพื่อให้ทุกคนเข้าถึงได้

    Apertus เป็นโมเดลภาษาใหญ่ (LLM) ที่พัฒนาโดย Swiss National AI Institute (SNAI) ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL โดยมีเป้าหมายเพื่อสร้างโมเดลที่เปิดทุกส่วน—ตั้งแต่โค้ด, น้ำหนักโมเดล, ข้อมูลเทรน, ไปจนถึงสูตรการเทรนเอง

    โมเดลมีสองขนาดคือ 8B และ 70B พารามิเตอร์ โดยเวอร์ชัน 70B ถูกเทรนด้วยข้อมูล 15 ล้านล้าน token จากเว็บ, โค้ด, และคณิตศาสตร์ ผ่านกระบวนการ curriculum learning ที่จัดลำดับเนื้อหาอย่างเป็นระบบ

    Apertus รองรับภาษามากถึง 1811 ภาษา โดย 40% ของข้อมูลเทรนเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ เช่น Swiss German, Romansh และภาษาอื่น ๆ ที่มักถูกละเลยในโมเดลทั่วไป

    โมเดลใช้สถาปัตยกรรม decoder-only transformer พร้อมฟังก์ชัน activation ใหม่ชื่อ xIELU และ optimizer แบบ AdEMAMix ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพการเทรนในระดับ bfloat16 บน GPU GH200 จำนวน 4096 ตัว

    หลังการเทรน โมเดลยังผ่านการ fine-tune แบบมีผู้ดูแล และ alignment ด้วยเทคนิค QRPO เพื่อให้ตอบสนองต่อผู้ใช้ได้ดีขึ้น โดยไม่ละเมิดความเป็นกลางหรือความปลอดภัย

    สิ่งที่โดดเด่นคือ Apertus เคารพสิทธิ์ของเจ้าของข้อมูลอย่างเข้มงวด โดยใช้ระบบ opt-out ที่สามารถย้อนกลับได้ และมีระบบ output filter ที่ผู้ใช้สามารถดาวน์โหลดทุก 6 เดือน เพื่อกรองข้อมูลส่วนบุคคลออกจากผลลัพธ์ของโมเดล

    นอกจากนี้ Apertus ยังถูกออกแบบให้สอดคล้องกับกฎหมายความโปร่งใสของ EU AI Act และกฎหมายคุ้มครองข้อมูลของสวิตเซอร์แลนด์ โดยมีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ทั้งหมด

    ข้อมูลพื้นฐานของ Apertus
    พัฒนาโดย SNAI ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL
    มีสองขนาด: 8B และ 70B พารามิเตอร์
    เทรนด้วยข้อมูล 15T token จากเว็บ, โค้ด, และคณิตศาสตร์

    สถาปัตยกรรมและเทคนิคการเทรน
    ใช้ decoder-only transformer พร้อมฟังก์ชัน xIELU
    ใช้ optimizer AdEMAMix และ precision แบบ bfloat16
    เทรนบน GPU GH200 จำนวน 4096 ตัว

    ความสามารถด้านภาษาและความโปร่งใส
    รองรับ 1811 ภาษา โดย 40% เป็นภาษาที่ไม่ใช่ภาษาอังกฤษ
    ใช้ข้อมูลที่เปิดและเคารพ opt-out ของเจ้าของข้อมูล
    มีระบบ output filter สำหรับลบข้อมูลส่วนบุคคลจากผลลัพธ์

    การใช้งานและการ deploy
    รองรับ context ยาวถึง 65,536 token
    ใช้งานผ่าน Transformers v4.56.0, vLLM, SGLang และ MLX
    มีอินเทอร์เฟซผ่าน Swisscom และ PublicAI สำหรับผู้ใช้ทั่วไป

    การปฏิบัติตามกฎหมายและจริยธรรม
    สอดคล้องกับ EU AI Act และกฎหมายสวิตเซอร์แลนด์
    มีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้
    ไม่ใช้ข้อมูลที่ละเมิดสิทธิ์หรือมีเนื้อหาที่ไม่เหมาะสม

    https://huggingface.co/swiss-ai/Apertus-70B-2509
    🎙️ เรื่องเล่าจาก ETH Zurich ถึง 1811 ภาษา: เมื่อโมเดลภาษาไม่ได้ถูกสร้างเพื่อแข่งขัน แต่เพื่อให้ทุกคนเข้าถึงได้ Apertus เป็นโมเดลภาษาใหญ่ (LLM) ที่พัฒนาโดย Swiss National AI Institute (SNAI) ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL โดยมีเป้าหมายเพื่อสร้างโมเดลที่เปิดทุกส่วน—ตั้งแต่โค้ด, น้ำหนักโมเดล, ข้อมูลเทรน, ไปจนถึงสูตรการเทรนเอง โมเดลมีสองขนาดคือ 8B และ 70B พารามิเตอร์ โดยเวอร์ชัน 70B ถูกเทรนด้วยข้อมูล 15 ล้านล้าน token จากเว็บ, โค้ด, และคณิตศาสตร์ ผ่านกระบวนการ curriculum learning ที่จัดลำดับเนื้อหาอย่างเป็นระบบ Apertus รองรับภาษามากถึง 1811 ภาษา โดย 40% ของข้อมูลเทรนเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ เช่น Swiss German, Romansh และภาษาอื่น ๆ ที่มักถูกละเลยในโมเดลทั่วไป โมเดลใช้สถาปัตยกรรม decoder-only transformer พร้อมฟังก์ชัน activation ใหม่ชื่อ xIELU และ optimizer แบบ AdEMAMix ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพการเทรนในระดับ bfloat16 บน GPU GH200 จำนวน 4096 ตัว หลังการเทรน โมเดลยังผ่านการ fine-tune แบบมีผู้ดูแล และ alignment ด้วยเทคนิค QRPO เพื่อให้ตอบสนองต่อผู้ใช้ได้ดีขึ้น โดยไม่ละเมิดความเป็นกลางหรือความปลอดภัย สิ่งที่โดดเด่นคือ Apertus เคารพสิทธิ์ของเจ้าของข้อมูลอย่างเข้มงวด โดยใช้ระบบ opt-out ที่สามารถย้อนกลับได้ และมีระบบ output filter ที่ผู้ใช้สามารถดาวน์โหลดทุก 6 เดือน เพื่อกรองข้อมูลส่วนบุคคลออกจากผลลัพธ์ของโมเดล นอกจากนี้ Apertus ยังถูกออกแบบให้สอดคล้องกับกฎหมายความโปร่งใสของ EU AI Act และกฎหมายคุ้มครองข้อมูลของสวิตเซอร์แลนด์ โดยมีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ทั้งหมด ✅ ข้อมูลพื้นฐานของ Apertus ➡️ พัฒนาโดย SNAI ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL ➡️ มีสองขนาด: 8B และ 70B พารามิเตอร์ ➡️ เทรนด้วยข้อมูล 15T token จากเว็บ, โค้ด, และคณิตศาสตร์ ✅ สถาปัตยกรรมและเทคนิคการเทรน ➡️ ใช้ decoder-only transformer พร้อมฟังก์ชัน xIELU ➡️ ใช้ optimizer AdEMAMix และ precision แบบ bfloat16 ➡️ เทรนบน GPU GH200 จำนวน 4096 ตัว ✅ ความสามารถด้านภาษาและความโปร่งใส ➡️ รองรับ 1811 ภาษา โดย 40% เป็นภาษาที่ไม่ใช่ภาษาอังกฤษ ➡️ ใช้ข้อมูลที่เปิดและเคารพ opt-out ของเจ้าของข้อมูล ➡️ มีระบบ output filter สำหรับลบข้อมูลส่วนบุคคลจากผลลัพธ์ ✅ การใช้งานและการ deploy ➡️ รองรับ context ยาวถึง 65,536 token ➡️ ใช้งานผ่าน Transformers v4.56.0, vLLM, SGLang และ MLX ➡️ มีอินเทอร์เฟซผ่าน Swisscom และ PublicAI สำหรับผู้ใช้ทั่วไป ✅ การปฏิบัติตามกฎหมายและจริยธรรม ➡️ สอดคล้องกับ EU AI Act และกฎหมายสวิตเซอร์แลนด์ ➡️ มีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ ➡️ ไม่ใช้ข้อมูลที่ละเมิดสิทธิ์หรือมีเนื้อหาที่ไม่เหมาะสม https://huggingface.co/swiss-ai/Apertus-70B-2509
    HUGGINGFACE.CO
    swiss-ai/Apertus-70B-2509 · Hugging Face
    We’re on a journey to advance and democratize artificial intelligence through open source and open science.
    0 ความคิดเห็น 0 การแบ่งปัน 196 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก logits ถึง embedding: เมื่อคณิตศาสตร์พื้นฐานกลายเป็นภาษาที่ LLM ใช้คิด

    บทความจาก Giles Thomas อธิบายว่า หากคุณเคยเรียนคณิตศาสตร์ระดับมัธยม—โดยเฉพาะเรื่องเวกเตอร์, เมทริกซ์, และการคูณเมทริกซ์—คุณมีพื้นฐานเพียงพอที่จะเข้าใจการทำงานของ LLM ในขั้นตอน “inference” หรือการใช้งานโมเดลที่เทรนมาแล้ว

    เริ่มจาก “เวกเตอร์” ซึ่งใน LLM หมายถึงชุดตัวเลขที่แทนความน่าจะเป็นของคำถัดไปในลำดับข้อความ เช่น โมเดล GPT-2 มีคำศัพท์ 50,257 คำ ดังนั้นเวกเตอร์ logits ที่ออกมาจะมี 50,257 ค่า โดยแต่ละค่าคือความน่าจะเป็นของคำหนึ่ง ๆ ที่จะถูกเลือกเป็นคำถัดไป

    เพื่อแปลงเวกเตอร์นี้ให้กลายเป็น “ความน่าจะเป็นจริง” เราใช้ฟังก์ชัน softmax ซึ่งจะเปลี่ยนค่าทั้งหมดให้รวมกันเป็น 1 และกระจายเป็นเปอร์เซ็นต์ของแต่ละคำ เช่น เวกเตอร์ (1, 2, 3) และ (–9, –8, –7) อาจให้ผล softmax เดียวกันคือ (0.09, 0.24, 0.66) เพราะแม้ค่าจะต่างกัน แต่ “ลำดับความน่าจะเป็น” เหมือนกัน

    จากนั้นเรามี “embedding space” ซึ่งเป็นพื้นที่หลายมิติที่ใช้แทน “ความหมาย” ของคำ โดยคำที่มีความหมายใกล้กันจะอยู่ใกล้กันในพื้นที่นี้ เช่น “แมวบ้าน”, “เสือ”, และ “สิงโต” อาจอยู่ในกลุ่มเดียวกัน ส่วน “หมา”, “หมาป่า”, และ “โคโยตี้” อยู่ในอีกกลุ่มหนึ่ง

    การแปลงจาก vocab space ไปยัง embedding space และกลับมาใช้เมทริกซ์คูณ เช่น การใช้เมทริกซ์ขนาด 50,257 × 768 เพื่อแปลงเวกเตอร์จาก vocab space ไปยัง embedding space และเมทริกซ์ 768 × 50,257 เพื่อแปลงกลับ

    สุดท้าย Giles อธิบายว่า “layer” ใน neural network ก็คือการคูณเมทริกซ์เช่นกัน โดย input เป็นเวกเตอร์ n × d และ weight เป็นเมทริกซ์ d_out × d_in ซึ่งเมื่อคูณกันจะได้ output เป็น n × d_out ซึ่งเป็นการ “project” จากพื้นที่หนึ่งไปยังอีกพื้นที่หนึ่ง

    คณิตศาสตร์พื้นฐานที่ใช้ใน LLM
    เวกเตอร์แทนความน่าจะเป็นของคำถัดไป
    softmax ใช้แปลง logits ให้เป็นความน่าจะเป็นจริง
    embedding space ใช้แทนความหมายของคำในหลายมิติ

    การแปลงระหว่าง vocab space และ embedding space
    ใช้เมทริกซ์ขนาดใหญ่ เช่น 50,257 × 768 เพื่อแปลงเวกเตอร์
    การแปลงกลับใช้เมทริกซ์ 768 × 50,257
    การแปลงนี้อาจ “สูญเสียข้อมูล” หากลดจำนวนมิติ

    การคำนวณใน neural network
    layer หนึ่งคือการคูณเมทริกซ์ระหว่าง input และ weight
    ผลลัพธ์คือการ project จาก input space ไปยัง output space
    bias และ activation function เป็นส่วนเสริมที่ทำให้ระบบไม่เป็นเชิงเส้น

    ตัวอย่างการใช้งานจริง
    เวกเตอร์ logits จาก GPT-2 มี 50,257 ค่า
    softmax แปลงเวกเตอร์ให้รวมเป็น 1 และกระจายเป็นเปอร์เซ็นต์
    embedding space ใช้จัดกลุ่มคำที่มีความหมายใกล้กัน

    https://www.gilesthomas.com/2025/09/maths-for-llms
    🎙️ เรื่องเล่าจาก logits ถึง embedding: เมื่อคณิตศาสตร์พื้นฐานกลายเป็นภาษาที่ LLM ใช้คิด บทความจาก Giles Thomas อธิบายว่า หากคุณเคยเรียนคณิตศาสตร์ระดับมัธยม—โดยเฉพาะเรื่องเวกเตอร์, เมทริกซ์, และการคูณเมทริกซ์—คุณมีพื้นฐานเพียงพอที่จะเข้าใจการทำงานของ LLM ในขั้นตอน “inference” หรือการใช้งานโมเดลที่เทรนมาแล้ว เริ่มจาก “เวกเตอร์” ซึ่งใน LLM หมายถึงชุดตัวเลขที่แทนความน่าจะเป็นของคำถัดไปในลำดับข้อความ เช่น โมเดล GPT-2 มีคำศัพท์ 50,257 คำ ดังนั้นเวกเตอร์ logits ที่ออกมาจะมี 50,257 ค่า โดยแต่ละค่าคือความน่าจะเป็นของคำหนึ่ง ๆ ที่จะถูกเลือกเป็นคำถัดไป เพื่อแปลงเวกเตอร์นี้ให้กลายเป็น “ความน่าจะเป็นจริง” เราใช้ฟังก์ชัน softmax ซึ่งจะเปลี่ยนค่าทั้งหมดให้รวมกันเป็น 1 และกระจายเป็นเปอร์เซ็นต์ของแต่ละคำ เช่น เวกเตอร์ (1, 2, 3) และ (–9, –8, –7) อาจให้ผล softmax เดียวกันคือ (0.09, 0.24, 0.66) เพราะแม้ค่าจะต่างกัน แต่ “ลำดับความน่าจะเป็น” เหมือนกัน จากนั้นเรามี “embedding space” ซึ่งเป็นพื้นที่หลายมิติที่ใช้แทน “ความหมาย” ของคำ โดยคำที่มีความหมายใกล้กันจะอยู่ใกล้กันในพื้นที่นี้ เช่น “แมวบ้าน”, “เสือ”, และ “สิงโต” อาจอยู่ในกลุ่มเดียวกัน ส่วน “หมา”, “หมาป่า”, และ “โคโยตี้” อยู่ในอีกกลุ่มหนึ่ง การแปลงจาก vocab space ไปยัง embedding space และกลับมาใช้เมทริกซ์คูณ เช่น การใช้เมทริกซ์ขนาด 50,257 × 768 เพื่อแปลงเวกเตอร์จาก vocab space ไปยัง embedding space และเมทริกซ์ 768 × 50,257 เพื่อแปลงกลับ สุดท้าย Giles อธิบายว่า “layer” ใน neural network ก็คือการคูณเมทริกซ์เช่นกัน โดย input เป็นเวกเตอร์ n × d และ weight เป็นเมทริกซ์ d_out × d_in ซึ่งเมื่อคูณกันจะได้ output เป็น n × d_out ซึ่งเป็นการ “project” จากพื้นที่หนึ่งไปยังอีกพื้นที่หนึ่ง ✅ คณิตศาสตร์พื้นฐานที่ใช้ใน LLM ➡️ เวกเตอร์แทนความน่าจะเป็นของคำถัดไป ➡️ softmax ใช้แปลง logits ให้เป็นความน่าจะเป็นจริง ➡️ embedding space ใช้แทนความหมายของคำในหลายมิติ ✅ การแปลงระหว่าง vocab space และ embedding space ➡️ ใช้เมทริกซ์ขนาดใหญ่ เช่น 50,257 × 768 เพื่อแปลงเวกเตอร์ ➡️ การแปลงกลับใช้เมทริกซ์ 768 × 50,257 ➡️ การแปลงนี้อาจ “สูญเสียข้อมูล” หากลดจำนวนมิติ ✅ การคำนวณใน neural network ➡️ layer หนึ่งคือการคูณเมทริกซ์ระหว่าง input และ weight ➡️ ผลลัพธ์คือการ project จาก input space ไปยัง output space ➡️ bias และ activation function เป็นส่วนเสริมที่ทำให้ระบบไม่เป็นเชิงเส้น ✅ ตัวอย่างการใช้งานจริง ➡️ เวกเตอร์ logits จาก GPT-2 มี 50,257 ค่า ➡️ softmax แปลงเวกเตอร์ให้รวมเป็น 1 และกระจายเป็นเปอร์เซ็นต์ ➡️ embedding space ใช้จัดกลุ่มคำที่มีความหมายใกล้กัน https://www.gilesthomas.com/2025/09/maths-for-llms
    WWW.GILESTHOMAS.COM
    The maths you need to start understanding LLMs
    A quick refresher on the maths behind LLMs: vectors, matrices, projections, embeddings, logits and softmax.
    0 ความคิดเห็น 0 การแบ่งปัน 152 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้

    Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน

    ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้

    จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้

    ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป

    นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด

    ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล

    จุดกำเนิดของ Fourier Transform
    Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น
    แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis
    Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน

    การใช้งานในยุคปัจจุบัน
    ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง
    ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน
    ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ

    การพัฒนาเพิ่มเติม
    Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม
    Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก
    ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่

    ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์
    Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ
    ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี
    เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย

    ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน
    Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป
    ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity

    ความเปราะบางของการตีความในฟิสิกส์
    การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง
    ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง

    ความไม่แน่นอนของการใช้งานในระบบจริง
    การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป
    การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ

    https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    🎙️ เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้ Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้ จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้ ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล ✅ จุดกำเนิดของ Fourier Transform ➡️ Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น ➡️ แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis ➡️ Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน ✅ การใช้งานในยุคปัจจุบัน ➡️ ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง ➡️ ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน ➡️ ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ ✅ การพัฒนาเพิ่มเติม ➡️ Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม ➡️ Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก ➡️ ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่ ✅ ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์ ➡️ Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ ➡️ ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี ➡️ เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย ‼️ ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน ⛔ Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป ⛔ ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity ‼️ ความเปราะบางของการตีความในฟิสิกส์ ⛔ การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง ⛔ ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง ‼️ ความไม่แน่นอนของการใช้งานในระบบจริง ⛔ การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป ⛔ การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    WWW.QUANTAMAGAZINE.ORG
    What Is the Fourier Transform?
    Amid the chaos of revolutionary France, one man’s mathematical obsession gave way to a calculation that now underpins much of mathematics and physics. The calculation, called the Fourier transform, decomposes any function into its parts.
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง”

    Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง

    เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ

    แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2

    เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง

    Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน

    ความหมายของการจดจ่ออย่างต่อเนื่อง
    เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน
    ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์
    สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow

    ตัวอย่างจากประสบการณ์จริง
    การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง
    การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ
    การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง

    ข้อมูลเสริมจากงานวิจัย
    การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory)
    การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่
    ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น

    ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ
    การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack
    ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้

    ความเปราะบางของระบบประสาท
    การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว
    หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้

    ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ”
    ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน
    การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม

    https://www.henrikkarlsson.xyz/p/attention
    🎙️ เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง” Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2 เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน ✅ ความหมายของการจดจ่ออย่างต่อเนื่อง ➡️ เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน ➡️ ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์ ➡️ สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow ✅ ตัวอย่างจากประสบการณ์จริง ➡️ การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง ➡️ การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ ➡️ การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง ✅ ข้อมูลเสริมจากงานวิจัย ➡️ การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory) ➡️ การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่ ➡️ ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น ‼️ ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ ⛔ การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack ⛔ ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้ ‼️ ความเปราะบางของระบบประสาท ⛔ การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว ⛔ หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้ ‼️ ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ” ⛔ ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน ⛔ การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม https://www.henrikkarlsson.xyz/p/attention
    WWW.HENRIKKARLSSON.XYZ
    Almost anything you give sustained attention to will begin to loop on itself and bloom
    When people talk about the value of paying attention and slowing down, they often make it sound prudish and monk-like. But we shouldn’t forget how interesting and overpoweringly pleasurable sustained attention can be.
    0 ความคิดเห็น 0 การแบ่งปัน 212 มุมมอง 0 รีวิว
  • กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล

    Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ

    เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง

    การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด

    Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน

    เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น

    สรุปเนื้อหาเป็นหัวข้อ
    กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน
    ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง
    ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2
    บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง
    ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient
    ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation
    resample ภาพด้วย Hann window เพื่อป้องกัน aliasing
    demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array
    ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing
    ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว
    แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้
    ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี
    ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks
    ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด

    ข้อมูลเสริมจากภายนอก
    กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา
    strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ
    Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย
    KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง
    Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing
    patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D
    Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ

    https://daniel.lawrence.lu/blog/y2025m09d21/
    🎙️ กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน ➡️ ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง ➡️ ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2 ➡️ บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง ➡️ ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient ➡️ ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation ➡️ resample ภาพด้วย Hann window เพื่อป้องกัน aliasing ➡️ demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array ➡️ ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing ➡️ ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว ➡️ แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้ ➡️ ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี ➡️ ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks ➡️ ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด ✅ ข้อมูลเสริมจากภายนอก ➡️ กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา ➡️ strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ ➡️ Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย ➡️ KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง ➡️ Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing ➡️ patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D ➡️ Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ https://daniel.lawrence.lu/blog/y2025m09d21/
    DANIEL.LAWRENCE.LU
    Line scan camera image processing
    I use my line scan camera to take cool pictures of trains and other stuff.
    0 ความคิดเห็น 0 การแบ่งปัน 225 มุมมอง 0 รีวิว
  • หั่นหัวหอมแบบคณิตศาสตร์: เมื่อความสม่ำเสมอคือเป้าหมาย

    หลายคนอาจคิดว่าการหั่นหัวหอมคือเรื่องของทักษะในครัว แต่สำหรับนักคณิตศาสตร์และเชฟอย่าง J. Kenji López-Alt มันคือโจทย์ที่แก้ได้ด้วยสมการ

    การหั่นแบบทั่วไป—แนวตั้ง—ให้ชิ้นที่ใกล้เคียงกันตรงกลาง แต่ด้านล่างกลับใหญ่เกินไป ส่วนการหั่นแบบรัศมี (radial) ก็มีปัญหาอีกแบบ คือชิ้นด้านนอกใหญ่กว่าด้านในมาก

    เพื่อหาวิธีที่ดีที่สุด ทีมงานจาก The Pudding ทดลองหั่นหัวหอมจำลองที่มี 10 ชั้น ด้วยวิธีต่าง ๆ แล้วคำนวณความเบี่ยงเบนมาตรฐานของขนาดชิ้นหอม

    ผลคือ การหั่นแบบรัศมีโดยเล็งไปที่จุดลึกประมาณ 96% ของรัศมีหัวหอมจากด้านบน ให้ค่าความเบี่ยงเบนต่ำที่สุดที่ 29.5% ซึ่งหมายถึงชิ้นหอมที่สม่ำเสมอที่สุด

    แม้จะมีการวิเคราะห์เชิงทฤษฎีโดย Dr. Dylan Poulsen ว่าค่าคงที่ของหัวหอมอยู่ที่ ~55.731% ของรัศมี แต่ในโลกจริงที่เราหั่นได้แค่ 10 ครั้ง การเล็งลึกถึง 96% กลับให้ผลดีที่สุด

    อย่างไรก็ตาม Kenji ก็ย้ำว่า “ความสม่ำเสมอของชิ้นหอมสำคัญแค่ในอินเทอร์เน็ต ไม่ใช่ในครัวจริง” เพราะสุดท้ายแล้ว รสชาติอาหารไม่ได้ขึ้นอยู่กับความเป๊ะของการหั่น


    https://pudding.cool/2025/08/onions/
    🧠 หั่นหัวหอมแบบคณิตศาสตร์: เมื่อความสม่ำเสมอคือเป้าหมาย หลายคนอาจคิดว่าการหั่นหัวหอมคือเรื่องของทักษะในครัว แต่สำหรับนักคณิตศาสตร์และเชฟอย่าง J. Kenji López-Alt มันคือโจทย์ที่แก้ได้ด้วยสมการ การหั่นแบบทั่วไป—แนวตั้ง—ให้ชิ้นที่ใกล้เคียงกันตรงกลาง แต่ด้านล่างกลับใหญ่เกินไป ส่วนการหั่นแบบรัศมี (radial) ก็มีปัญหาอีกแบบ คือชิ้นด้านนอกใหญ่กว่าด้านในมาก เพื่อหาวิธีที่ดีที่สุด ทีมงานจาก The Pudding ทดลองหั่นหัวหอมจำลองที่มี 10 ชั้น ด้วยวิธีต่าง ๆ แล้วคำนวณความเบี่ยงเบนมาตรฐานของขนาดชิ้นหอม ผลคือ การหั่นแบบรัศมีโดยเล็งไปที่จุดลึกประมาณ 96% ของรัศมีหัวหอมจากด้านบน ให้ค่าความเบี่ยงเบนต่ำที่สุดที่ 29.5% ซึ่งหมายถึงชิ้นหอมที่สม่ำเสมอที่สุด แม้จะมีการวิเคราะห์เชิงทฤษฎีโดย Dr. Dylan Poulsen ว่าค่าคงที่ของหัวหอมอยู่ที่ ~55.731% ของรัศมี แต่ในโลกจริงที่เราหั่นได้แค่ 10 ครั้ง การเล็งลึกถึง 96% กลับให้ผลดีที่สุด อย่างไรก็ตาม Kenji ก็ย้ำว่า “ความสม่ำเสมอของชิ้นหอมสำคัญแค่ในอินเทอร์เน็ต ไม่ใช่ในครัวจริง” เพราะสุดท้ายแล้ว รสชาติอาหารไม่ได้ขึ้นอยู่กับความเป๊ะของการหั่น https://pudding.cool/2025/08/onions/
    PUDDING.COOL
    Dicing an Onion, the Mathematically Optimal Way
    There is more than one way to dice an onion…
    0 ความคิดเห็น 0 การแบ่งปัน 148 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก

    ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS

    ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง

    แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว

    ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้
    ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต

    ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม
    เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้

    ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม
    มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy

    แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson
    เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้

    ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม
    เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้

    ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable
    ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี

    คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้
    ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง

    Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง
    แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้

    Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส
    เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม

    https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    🎲🔐 เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว ✅ ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้ ➡️ ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต ✅ ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม ➡️ เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้ ✅ ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม ➡️ มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy ✅ แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson ➡️ เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้ ✅ ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม ➡️ เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้ ✅ ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable ➡️ ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี ✅ คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้ ➡️ ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง ✅ Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง ➡️ แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้ ✅ Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส ➡️ เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    WWW.NEOWIN.NET
    Quantum computer does something for first time, creates "certified truly random" numbers
    Researchers achieve a breakthrough using quantum computing to generate and certify randomness, solving a problem classical computers can't tackle alone.
    0 ความคิดเห็น 0 การแบ่งปัน 330 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: GPU กำลังจะกลายเป็นสินทรัพย์การเงินที่ซื้อขายได้

    Startup ชื่อ OneChronos จับมือกับ Auctionomics บริษัทออกแบบตลาดที่ก่อตั้งโดย Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เพื่อสร้าง “ตลาดซื้อขายล่วงหน้า GPU” แห่งแรกของโลก โดยเป้าหมายคือให้ผู้ใช้งานสามารถ “ล็อกราคา” และ “จัดการความเสี่ยง” ของการเข้าถึง GPU ได้เหมือนกับการซื้อขายสินค้าโภคภัณฑ์ เช่น น้ำมันหรือไฟฟ้า

    ในยุคที่ AI เติบโตอย่างรวดเร็ว GPU กลายเป็นทรัพยากรที่มีค่ามากที่สุด แต่กลับไม่มีเครื่องมือทางการเงินใดที่ช่วยให้บริษัทสามารถวางแผนหรือป้องกันความเสี่ยงจากราคาที่ผันผวนได้เลย

    ตลาดใหม่นี้จะใช้ระบบ “การประมูลแบบอัจฉริยะ” เพื่อให้ผู้ใช้งานสามารถเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ โดย Auctionomics จะช่วยออกแบบกลไกตลาดให้มีประสิทธิภาพ โปร่งใส และสามารถจัดสรรทรัพยากรได้อย่างเหมาะสม

    OneChronos และ Auctionomics ร่วมกันสร้างตลาดซื้อขายล่วงหน้า GPU แห่งแรกของโลก
    ใช้ระบบประมูลอัจฉริยะเพื่อจัดสรรทรัพยากร GPU อย่างมีประสิทธิภาพ
    เปรียบเสมือน “ตลาดซื้อขายน้ำมัน” สำหรับโลก AI

    Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เป็นผู้ออกแบบกลไกตลาด
    เคยออกแบบการประมูลคลื่นความถี่ที่เปลี่ยนโฉมวงการโทรคมนาคม
    ใช้ทฤษฎีเกมและคณิตศาสตร์เพื่อสร้างแรงจูงใจที่เหมาะสม

    GPU ถูกมองว่าเป็น “สินทรัพย์องค์กรที่ยังไม่มีการป้องกันความเสี่ยง” ที่ใหญ่ที่สุดในโลก
    ไม่มีเครื่องมือทางการเงินใดที่ช่วยล็อกราคาหรือจัดการความเสี่ยง
    ต่างจากน้ำมันหรือไฟฟ้าที่มีตลาดซื้อขายล่วงหน้า

    ระบบจะเปิดให้ผู้ใช้งานเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ
    ช่วยให้บริษัทสามารถวางแผนล่วงหน้าและควบคุมต้นทุนได้
    ลดปัญหาการขาดแคลนและราคาผันผวนในช่วงที่มีความต้องการสูง

    ตลาดนี้จะเปิดให้ผู้เข้าร่วมหลากหลาย เช่น ผู้ผลิตชิป, ผู้ให้บริการคลาวด์, นักลงทุนในศูนย์ข้อมูล
    ยิ่งมีผู้เข้าร่วมหลากหลาย ตลาดจะยิ่งมีความโปร่งใสและมีสภาพคล่องสูง
    ช่วยให้เกิดการค้นหาราคาที่แท้จริงของทรัพยากร GPU

    https://www.techspot.com/news/108879-startup-nobel-laureate-collaborate-create-gpu-financial-exchange.html
    🎙️ เรื่องเล่าจากข่าว: GPU กำลังจะกลายเป็นสินทรัพย์การเงินที่ซื้อขายได้ Startup ชื่อ OneChronos จับมือกับ Auctionomics บริษัทออกแบบตลาดที่ก่อตั้งโดย Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เพื่อสร้าง “ตลาดซื้อขายล่วงหน้า GPU” แห่งแรกของโลก โดยเป้าหมายคือให้ผู้ใช้งานสามารถ “ล็อกราคา” และ “จัดการความเสี่ยง” ของการเข้าถึง GPU ได้เหมือนกับการซื้อขายสินค้าโภคภัณฑ์ เช่น น้ำมันหรือไฟฟ้า ในยุคที่ AI เติบโตอย่างรวดเร็ว GPU กลายเป็นทรัพยากรที่มีค่ามากที่สุด แต่กลับไม่มีเครื่องมือทางการเงินใดที่ช่วยให้บริษัทสามารถวางแผนหรือป้องกันความเสี่ยงจากราคาที่ผันผวนได้เลย ตลาดใหม่นี้จะใช้ระบบ “การประมูลแบบอัจฉริยะ” เพื่อให้ผู้ใช้งานสามารถเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ โดย Auctionomics จะช่วยออกแบบกลไกตลาดให้มีประสิทธิภาพ โปร่งใส และสามารถจัดสรรทรัพยากรได้อย่างเหมาะสม ✅ OneChronos และ Auctionomics ร่วมกันสร้างตลาดซื้อขายล่วงหน้า GPU แห่งแรกของโลก ➡️ ใช้ระบบประมูลอัจฉริยะเพื่อจัดสรรทรัพยากร GPU อย่างมีประสิทธิภาพ ➡️ เปรียบเสมือน “ตลาดซื้อขายน้ำมัน” สำหรับโลก AI ✅ Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เป็นผู้ออกแบบกลไกตลาด ➡️ เคยออกแบบการประมูลคลื่นความถี่ที่เปลี่ยนโฉมวงการโทรคมนาคม ➡️ ใช้ทฤษฎีเกมและคณิตศาสตร์เพื่อสร้างแรงจูงใจที่เหมาะสม ✅ GPU ถูกมองว่าเป็น “สินทรัพย์องค์กรที่ยังไม่มีการป้องกันความเสี่ยง” ที่ใหญ่ที่สุดในโลก ➡️ ไม่มีเครื่องมือทางการเงินใดที่ช่วยล็อกราคาหรือจัดการความเสี่ยง ➡️ ต่างจากน้ำมันหรือไฟฟ้าที่มีตลาดซื้อขายล่วงหน้า ✅ ระบบจะเปิดให้ผู้ใช้งานเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ ➡️ ช่วยให้บริษัทสามารถวางแผนล่วงหน้าและควบคุมต้นทุนได้ ➡️ ลดปัญหาการขาดแคลนและราคาผันผวนในช่วงที่มีความต้องการสูง ✅ ตลาดนี้จะเปิดให้ผู้เข้าร่วมหลากหลาย เช่น ผู้ผลิตชิป, ผู้ให้บริการคลาวด์, นักลงทุนในศูนย์ข้อมูล ➡️ ยิ่งมีผู้เข้าร่วมหลากหลาย ตลาดจะยิ่งมีความโปร่งใสและมีสภาพคล่องสูง ➡️ ช่วยให้เกิดการค้นหาราคาที่แท้จริงของทรัพยากร GPU https://www.techspot.com/news/108879-startup-nobel-laureate-collaborate-create-gpu-financial-exchange.html
    WWW.TECHSPOT.COM
    Startup and Nobel laureate collaborate to create GPU financial exchange
    The world of artificial intelligence is built on computing power, and at the heart of that engine are graphics processing units. These chips are in such high...
    0 ความคิดเห็น 0 การแบ่งปัน 244 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล้องสู่คำตอบ: Search Live กับการค้นหาแบบเห็นภาพจริง

    Google ได้เปิดตัวฟีเจอร์ใหม่ใน AI Mode ที่ชื่อว่า Search Live ซึ่งเป็นการนำเทคโนโลยีจาก Project Astra มาใช้ในระบบค้นหา โดยผู้ใช้สามารถเปิดกล้องมือถือผ่าน Google Lens แล้วสตรีมภาพแบบสดเข้าสู่ AI Mode เพื่อถามคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้า เช่น สูตรอาหารจากวัตถุดิบในตู้เย็น หรือการวิเคราะห์แผนภาพทางคณิตศาสตร์

    นอกจากนี้ Google ยังเพิ่มฟีเจอร์อื่นๆ เช่น การอัปโหลดไฟล์ PDF และภาพ เพื่อให้ AI วิเคราะห์เนื้อหาในไฟล์ร่วมกับข้อมูลจากเว็บ และตอบคำถามได้อย่างมีบริบท รวมถึงฟีเจอร์ Canvas ที่ช่วยให้ผู้ใช้สามารถวางแผนหรือจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ซึ่งจะอัปเดตตามคำถามและการแก้ไขของผู้ใช้

    Search Live เปิดให้ผู้ใช้สตรีมภาพจากกล้องมือถือเข้าสู่ AI Mode ใน Google Search
    ใช้ผ่าน Google Lens โดยแตะไอคอน “Live” แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น
    AI จะตอบคำถามแบบโต้ตอบ พร้อมลิงก์ข้อมูลเพิ่มเติมจากเว็บ

    ฟีเจอร์นี้ใช้เทคโนโลยีจาก Project Astra ของ Google DeepMind
    เป็นการค้นหาแบบมัลติโหมดที่รวมภาพ เสียง และข้อความ
    ช่วยให้ AI เข้าใจบริบทของสิ่งที่ผู้ใช้กำลังดูอยู่

    AI Mode รองรับการอัปโหลดไฟล์ PDF และภาพบนเดสก์ท็อป
    ผู้ใช้สามารถถามคำถามเกี่ยวกับเนื้อหาในไฟล์ได้โดยตรง
    AI จะวิเคราะห์เนื้อหาในไฟล์และเชื่อมโยงกับข้อมูลจากเว็บ

    ฟีเจอร์ Canvas ช่วยจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก
    เหมาะสำหรับการสร้างแผนการเรียน, แผนการเดินทาง หรือรายการงาน
    สามารถแก้ไขและติดตามข้อมูลได้หลายครั้งในแต่ละเซสชัน

    ฟีเจอร์ใหม่ทั้งหมดเริ่มเปิดใช้งานในสหรัฐฯ สำหรับผู้ใช้ในโปรแกรม Labs ของ AI Mode
    รองรับเฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป
    ฟีเจอร์จะทยอยเปิดใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า

    https://www.neowin.net/news/google-will-let-you-stream-your-live-camera-feed-to-ai-mode-in-search-for-better-results/
    📱 เรื่องเล่าจากกล้องสู่คำตอบ: Search Live กับการค้นหาแบบเห็นภาพจริง Google ได้เปิดตัวฟีเจอร์ใหม่ใน AI Mode ที่ชื่อว่า Search Live ซึ่งเป็นการนำเทคโนโลยีจาก Project Astra มาใช้ในระบบค้นหา โดยผู้ใช้สามารถเปิดกล้องมือถือผ่าน Google Lens แล้วสตรีมภาพแบบสดเข้าสู่ AI Mode เพื่อถามคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้า เช่น สูตรอาหารจากวัตถุดิบในตู้เย็น หรือการวิเคราะห์แผนภาพทางคณิตศาสตร์ นอกจากนี้ Google ยังเพิ่มฟีเจอร์อื่นๆ เช่น การอัปโหลดไฟล์ PDF และภาพ เพื่อให้ AI วิเคราะห์เนื้อหาในไฟล์ร่วมกับข้อมูลจากเว็บ และตอบคำถามได้อย่างมีบริบท รวมถึงฟีเจอร์ Canvas ที่ช่วยให้ผู้ใช้สามารถวางแผนหรือจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ซึ่งจะอัปเดตตามคำถามและการแก้ไขของผู้ใช้ ✅ Search Live เปิดให้ผู้ใช้สตรีมภาพจากกล้องมือถือเข้าสู่ AI Mode ใน Google Search ➡️ ใช้ผ่าน Google Lens โดยแตะไอคอน “Live” แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น ➡️ AI จะตอบคำถามแบบโต้ตอบ พร้อมลิงก์ข้อมูลเพิ่มเติมจากเว็บ ✅ ฟีเจอร์นี้ใช้เทคโนโลยีจาก Project Astra ของ Google DeepMind ➡️ เป็นการค้นหาแบบมัลติโหมดที่รวมภาพ เสียง และข้อความ ➡️ ช่วยให้ AI เข้าใจบริบทของสิ่งที่ผู้ใช้กำลังดูอยู่ ✅ AI Mode รองรับการอัปโหลดไฟล์ PDF และภาพบนเดสก์ท็อป ➡️ ผู้ใช้สามารถถามคำถามเกี่ยวกับเนื้อหาในไฟล์ได้โดยตรง ➡️ AI จะวิเคราะห์เนื้อหาในไฟล์และเชื่อมโยงกับข้อมูลจากเว็บ ✅ ฟีเจอร์ Canvas ช่วยจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ➡️ เหมาะสำหรับการสร้างแผนการเรียน, แผนการเดินทาง หรือรายการงาน ➡️ สามารถแก้ไขและติดตามข้อมูลได้หลายครั้งในแต่ละเซสชัน ✅ ฟีเจอร์ใหม่ทั้งหมดเริ่มเปิดใช้งานในสหรัฐฯ สำหรับผู้ใช้ในโปรแกรม Labs ของ AI Mode ➡️ รองรับเฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป ➡️ ฟีเจอร์จะทยอยเปิดใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า https://www.neowin.net/news/google-will-let-you-stream-your-live-camera-feed-to-ai-mode-in-search-for-better-results/
    WWW.NEOWIN.NET
    Google will let you stream your live camera feed to AI Mode in Search for better results
    Google has announced a ton of new capabilities coming soon to AI Mode in Search, including Search Live, which streams your live camera feed to Google Search.
    0 ความคิดเห็น 0 การแบ่งปัน 198 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกของ Embedding: เมื่อข้อความกลายเป็นตัวเลขที่มีความหมาย

    ลองจินตนาการว่าเราให้โมเดลภาษาอย่าง Llama2 หรือ Mistral อ่านประโยคหนึ่ง เช่น “แมวกระโดดขึ้นโต๊ะ” แล้วถามว่า “เข้าใจไหม?” โมเดลจะไม่ตอบว่า “เข้าใจ” แบบมนุษย์ แต่จะเปลี่ยนประโยคนั้นเป็นชุดตัวเลขที่เรียกว่า embedding ซึ่งเป็นการแปลงข้อความให้กลายเป็น “ความหมายในเชิงคณิตศาสตร์”

    ใน Hugging Face Space นี้ hesamation ได้อธิบายว่า embedding คือการนำข้อความผ่านกระบวนการหลายขั้นตอนในโมเดล LLM เพื่อให้ได้เวกเตอร์ที่สื่อถึงความหมายของข้อความนั้น โดยใช้เทคนิคการ pooling เช่น การเฉลี่ย (average), การใช้ token พิเศษ [CLS], หรือการเลือกค่ามากสุด (max pooling)

    นอกจากนี้ยังมีการอธิบายว่า embedding ไม่ใช่แค่ตัวเลขธรรมดา แต่เป็นการสรุปความหมาย, บริบท, และโครงสร้างของข้อความในรูปแบบที่โมเดลเข้าใจได้ และสามารถนำไปใช้ในงานต่าง ๆ เช่น การค้นหาความคล้ายคลึง, การจัดกลุ่มข้อมูล, หรือการตอบคำถาม

    Embedding คือการแปลงข้อความให้เป็นเวกเตอร์ที่มีความหมาย
    ใช้ในงาน NLP เช่น การค้นหา, การจัดกลุ่ม, การตอบคำถาม

    โมเดล LLM เช่น Llama2 และ Mistral สร้าง embedding จาก hidden states หลายชั้น
    hidden states มีรูปแบบ [batch_size, number_of_tokens, embedding_size]
    ต้องใช้เทคนิค pooling เพื่อให้ได้ embedding เดียวต่อข้อความ

    เทคนิค pooling มีหลายแบบให้เลือกใช้ตามบริบทของงาน
    เช่น average pooling, max pooling, [CLS] token pooling
    attention_mask ใช้เพื่อกรอง token ที่เป็น padding

    embedding เป็นพื้นฐานสำคัญของการเข้าใจภาษาธรรมชาติในโมเดล AI
    ช่วยให้โมเดลเข้าใจความหมายและบริบทของข้อความ
    เป็นจุดเริ่มต้นของการประมวลผลข้อมูลเชิงภาษา

    การเลือก pooling strategy ที่ไม่เหมาะสมอาจทำให้ embedding ไม่สะท้อนความหมายที่แท้จริง
    เช่น การใช้ average pooling กับข้อความที่มี padding มาก อาจทำให้ผลลัพธ์ผิดเพี้ยน
    ต้องใช้ attention_mask เพื่อกรอง token ที่ไม่สำคัญ

    การใช้ embedding จากโมเดลที่ไม่รองรับงานเฉพาะทาง อาจให้ผลลัพธ์ไม่แม่นยำ
    เช่น ใช้ embedding จากโมเดลทั่วไปกับงานทางการแพทย์หรือกฎหมาย
    ควรเลือกโมเดลที่ fine-tune มาเพื่อบริบทนั้นโดยเฉพาะ

    การใช้ embedding โดยไม่เข้าใจโครงสร้างของ hidden states อาจทำให้เกิดข้อผิดพลาดในการประมวลผล
    เช่น การเลือก hidden state ชั้นที่ไม่เหมาะสม
    ควรศึกษาว่าแต่ละชั้นของโมเดลมีความหมายอย่างไร

    https://huggingface.co/spaces/hesamation/primer-llm-embedding
    🧠 เรื่องเล่าจากโลกของ Embedding: เมื่อข้อความกลายเป็นตัวเลขที่มีความหมาย ลองจินตนาการว่าเราให้โมเดลภาษาอย่าง Llama2 หรือ Mistral อ่านประโยคหนึ่ง เช่น “แมวกระโดดขึ้นโต๊ะ” แล้วถามว่า “เข้าใจไหม?” โมเดลจะไม่ตอบว่า “เข้าใจ” แบบมนุษย์ แต่จะเปลี่ยนประโยคนั้นเป็นชุดตัวเลขที่เรียกว่า embedding ซึ่งเป็นการแปลงข้อความให้กลายเป็น “ความหมายในเชิงคณิตศาสตร์” ใน Hugging Face Space นี้ hesamation ได้อธิบายว่า embedding คือการนำข้อความผ่านกระบวนการหลายขั้นตอนในโมเดล LLM เพื่อให้ได้เวกเตอร์ที่สื่อถึงความหมายของข้อความนั้น โดยใช้เทคนิคการ pooling เช่น การเฉลี่ย (average), การใช้ token พิเศษ [CLS], หรือการเลือกค่ามากสุด (max pooling) นอกจากนี้ยังมีการอธิบายว่า embedding ไม่ใช่แค่ตัวเลขธรรมดา แต่เป็นการสรุปความหมาย, บริบท, และโครงสร้างของข้อความในรูปแบบที่โมเดลเข้าใจได้ และสามารถนำไปใช้ในงานต่าง ๆ เช่น การค้นหาความคล้ายคลึง, การจัดกลุ่มข้อมูล, หรือการตอบคำถาม ✅ Embedding คือการแปลงข้อความให้เป็นเวกเตอร์ที่มีความหมาย ➡️ ใช้ในงาน NLP เช่น การค้นหา, การจัดกลุ่ม, การตอบคำถาม ✅ โมเดล LLM เช่น Llama2 และ Mistral สร้าง embedding จาก hidden states หลายชั้น ➡️ hidden states มีรูปแบบ [batch_size, number_of_tokens, embedding_size] ➡️ ต้องใช้เทคนิค pooling เพื่อให้ได้ embedding เดียวต่อข้อความ ✅ เทคนิค pooling มีหลายแบบให้เลือกใช้ตามบริบทของงาน ➡️ เช่น average pooling, max pooling, [CLS] token pooling ➡️ attention_mask ใช้เพื่อกรอง token ที่เป็น padding ✅ embedding เป็นพื้นฐานสำคัญของการเข้าใจภาษาธรรมชาติในโมเดล AI ➡️ ช่วยให้โมเดลเข้าใจความหมายและบริบทของข้อความ ➡️ เป็นจุดเริ่มต้นของการประมวลผลข้อมูลเชิงภาษา ‼️ การเลือก pooling strategy ที่ไม่เหมาะสมอาจทำให้ embedding ไม่สะท้อนความหมายที่แท้จริง ⛔ เช่น การใช้ average pooling กับข้อความที่มี padding มาก อาจทำให้ผลลัพธ์ผิดเพี้ยน ⛔ ต้องใช้ attention_mask เพื่อกรอง token ที่ไม่สำคัญ ‼️ การใช้ embedding จากโมเดลที่ไม่รองรับงานเฉพาะทาง อาจให้ผลลัพธ์ไม่แม่นยำ ⛔ เช่น ใช้ embedding จากโมเดลทั่วไปกับงานทางการแพทย์หรือกฎหมาย ⛔ ควรเลือกโมเดลที่ fine-tune มาเพื่อบริบทนั้นโดยเฉพาะ ‼️ การใช้ embedding โดยไม่เข้าใจโครงสร้างของ hidden states อาจทำให้เกิดข้อผิดพลาดในการประมวลผล ⛔ เช่น การเลือก hidden state ชั้นที่ไม่เหมาะสม ⛔ ควรศึกษาว่าแต่ละชั้นของโมเดลมีความหมายอย่างไร https://huggingface.co/spaces/hesamation/primer-llm-embedding
    HUGGINGFACE.CO
    LLM Embeddings Explained: A Visual and Intuitive Guide - a Hugging Face Space by hesamation
    This app explains how language models transform text into meaningful representations through embeddings. It provides a visual guide to help you understand traditional and modern language model tech...
    0 ความคิดเห็น 0 การแบ่งปัน 213 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์

    IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
    - พีชคณิต (Algebra)
    - ทฤษฎีจำนวน (Number Theory)
    - เรขาคณิต (Geometry)
    - คอมบิเนอริกส์ (Combinatorics)

    ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์

    สิ่งที่น่าทึ่งคือ:
    - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
    - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
    - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
    - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้

    เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
    - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
    - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
    - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO

    Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
    แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง

    เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
    ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ

    ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
    ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end

    Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
    ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที

    ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
    เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด

    ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
    ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์

    จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
    เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง

    การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
    หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด

    การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
    เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน

    การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
    ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง

    การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
    ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ

    https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
    🎙️ เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์ IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา: - พีชคณิต (Algebra) - ทฤษฎีจำนวน (Number Theory) - เรขาคณิต (Geometry) - คอมบิเนอริกส์ (Combinatorics) ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์ สิ่งที่น่าทึ่งคือ: - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน) - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้ เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น: - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO ✅ Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง ➡️ แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง ✅ เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ ➡️ ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ ✅ ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน ➡️ ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end ✅ Gemini Deep Think ทำงานแบบ natural language ทั้งหมด ➡️ ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที ✅ ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน ➡️ เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด ✅ ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน ➡️ ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์ ✅ จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra ➡️ เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง ‼️ การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง ⛔ หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด ‼️ การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์ ⛔ เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน ‼️ การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO ⛔ ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง ‼️ การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน ⛔ ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
    DEEPMIND.GOOGLE
    Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad
    Our advanced model officially achieved a gold-medal level performance on problems from the International Mathematical Olympiad (IMO), the world’s most prestigious competition for young...
    0 ความคิดเห็น 0 การแบ่งปัน 357 มุมมอง 0 รีวิว
  • ** เลขปริศนาจาก <ปรปักษ์จำนน>**

    สวัสดีค่ะ เพื่อนเพจที่ได้ดูเรื่อง <ปรปักษ์จำนน> คงจำได้ว่าพระเอกมีกล่องไม้ใบหนึ่งที่หวงมาก ห้ามนางเอกแตะต้อง และในซีรีส์นางเอกแสดงการปลดผนึกตัวล็อกของกล่องได้อย่างรวดเร็ว มือทำไปปากก็อธิบายไปว่าล็อก ‘จิ่วกง’ หรือ ‘จิ่วกงสั่ว’ นี้ประกอบด้วยชิ้นต่างๆ ที่แทนตัวเลข มีใจกลางเป็นเลข 5 ไม่ว่าจะบวกเลขในทิศทางใดก็จะได้ผลลัพท์เท่ากับ 15 พร้อมกับบอกว่าใครที่ได้เรียนคณิตศาสตร์มาก็ต้องทำได้

    บวกเลขขั้นพื้นฐาน ใครๆ ก็ทำได้ แต่เชื่อว่าพวกเรานึกภาพไม่ออกว่าคือภาพเลขอะไร วันนี้มาเฉลยค่ะ

    เขียนไปก็อ่านลำบาก ดูรูปประกอบ 2 เลยค่ะว่ามันคือภาพเลขอะไร ... เลขชุดนี้มีความพิเศษอย่างที่นางเอกว่า คือตรงกลางเป็นเลข 5 และเมื่อเอาเลขสามตัวมาบวกกันตามแนวต่างๆ จะได้ค่า 15 นั่นเอง และเลขชุดพิเศษตามภาพนี้เรียกว่า ‘จิ่วกงเก๋อ’ (九宫格) หรือ ‘จิ่วกงถู’ (九宫图) ถูกนำมาประดิษฐ์เป็นปริศนากระดานเลขให้เด็กเล่นเพื่อฝึกปรือทักษะการคำนวณและมีการพัฒนาความยากขึ้นไปอีกหลายขั้นจนเกิน 3x3 ช่องตามโบราณ

    เลขชุดเก้าช่องตามที่แสดงในรูปประกอบนี้พัฒนามาจากภาพวาดสองรูปในสมัยบรรพกาลคือ ‘เหอถู’ (河图) และ ‘ลั่วซู’ (洛书) (ดูรูปประกอบ 3) ที่มาของมันยังคงเป็นปริศนา แต่ตามตำนานเล่าว่าเมื่อครั้งต้าอวี่ช่วยโลกจากน้ำท่วมครั้งใหญ่เสร็จแล้วนั้น มีเต่ายักษ์โผล่ขึ้นมาจากแม่น้ำลั่ว บนกระดองหลังเต่าสลักลายจุดไว้ ถูกจำลองขึ้นมาเป็นภาพวาด ต่อมาเรียกรวมกันว่าเหอถูและลั่วซู บ้างก็ว่าทั้งสองภาพนี้เป็นการบันทึกการเรียงตัวของดาวโดยชนรุ่นบรรพกาล

    แต่ไม่ว่าเหอถูและลั่วซูจะมีที่มาอย่างไร สองภาพนี้ถูกศึกษาวิเคราะห์อย่างละเอียดมาตลอดทุกยุคทุกสมัยจนแตกแขนงเป็นหลายวิชา เช่น คณิตศาสตร์ โหราศาสตร์และดาราศาสตร์ ฯลฯ จนมีคำกล่าวว่าทุกสรรพสิ่งในโลกนี้ล้วนอยู่ในสองภาพนี้ และมีการเอ่ยพาดพิงถึงสองภาพนี้ในหลายเอกสารโบราณ จวบจนปัจจุบันก็ยังมีการใช้คอมพิวเตอร์พัฒนาอัลกอริทึม (algorithm) ตามหลักการของเลขชุดจิ่วกงถูนี้ แต่จนใจที่เนื้อหานั้นยากเกินกว่าที่ Storyฯ จะเข้าใจและเอามาอธิบายต่อให้เพื่อนเพจฟังได้

    มีคนไปวิเคราะห์ความน่าทึ่งของตัวเลขจิ่วกงถูนี้เพิ่มเติม (ดูรูปประกอบ 4) จะเห็นว่าหากนับวนไปเรื่อยๆ มันจะมีค่าเท่ากันทุกแถว เพื่อนเพจที่ชอบการคำนวณลองไปทำต่อเพิ่มเติมว่าวนไปอีกหลายๆ หลักจะยังได้ผลลัพธ์เท่ากันเหมือนกันหมดหรือไม่ ทำแล้วมาบอกกล่าวกันหน่อยนะคะ

    และในเรื่อง <ปรปักษ์จำนน> นี้ กล่องดังกล่าวมีตัวล็อกที่จะปลดได้ด้วยการแก้ปริศนาบนฝากล่องซึ่งมีเก้าช่องเหมือนกระดานเกมปัจจุบัน ล็อกดังกล่าวนี้จึงเรียกว่า ‘จิ่วกงสั่ว’ (九宫锁) นั่นเอง

    (ป.ล. หากอ่านแล้วชอบใจ อย่าลืมกดติดตามเพจนี้เพื่อป้องกันการกีดกันของเฟซบุ๊กด้วยนะคะ #StoryfromStory)

    Credit รูปภาพจากในละครและจาก:
    https://www.marieclaire.com.tw/entertainment/tvshow/86397
    http://www.yrcc.gov.cn/hhwh/wxyc/202503/t20250320_440769.html
    Credit ข้อมูลรวบรวมจาก:
    https://baike.baidu.com/item/河图/7525
    http://www.360doc.com/content/21/0223/10/49937858_963504002.shtml

    #ปรปักษ์จำนน #จิ่วกงสั่ว #เลขปริศนา #จิ่วกงเก๋อ #เหอถู #ลั่วซู #สาระจีน
    ** เลขปริศนาจาก <ปรปักษ์จำนน>** สวัสดีค่ะ เพื่อนเพจที่ได้ดูเรื่อง <ปรปักษ์จำนน> คงจำได้ว่าพระเอกมีกล่องไม้ใบหนึ่งที่หวงมาก ห้ามนางเอกแตะต้อง และในซีรีส์นางเอกแสดงการปลดผนึกตัวล็อกของกล่องได้อย่างรวดเร็ว มือทำไปปากก็อธิบายไปว่าล็อก ‘จิ่วกง’ หรือ ‘จิ่วกงสั่ว’ นี้ประกอบด้วยชิ้นต่างๆ ที่แทนตัวเลข มีใจกลางเป็นเลข 5 ไม่ว่าจะบวกเลขในทิศทางใดก็จะได้ผลลัพท์เท่ากับ 15 พร้อมกับบอกว่าใครที่ได้เรียนคณิตศาสตร์มาก็ต้องทำได้ บวกเลขขั้นพื้นฐาน ใครๆ ก็ทำได้ แต่เชื่อว่าพวกเรานึกภาพไม่ออกว่าคือภาพเลขอะไร วันนี้มาเฉลยค่ะ เขียนไปก็อ่านลำบาก ดูรูปประกอบ 2 เลยค่ะว่ามันคือภาพเลขอะไร ... เลขชุดนี้มีความพิเศษอย่างที่นางเอกว่า คือตรงกลางเป็นเลข 5 และเมื่อเอาเลขสามตัวมาบวกกันตามแนวต่างๆ จะได้ค่า 15 นั่นเอง และเลขชุดพิเศษตามภาพนี้เรียกว่า ‘จิ่วกงเก๋อ’ (九宫格) หรือ ‘จิ่วกงถู’ (九宫图) ถูกนำมาประดิษฐ์เป็นปริศนากระดานเลขให้เด็กเล่นเพื่อฝึกปรือทักษะการคำนวณและมีการพัฒนาความยากขึ้นไปอีกหลายขั้นจนเกิน 3x3 ช่องตามโบราณ เลขชุดเก้าช่องตามที่แสดงในรูปประกอบนี้พัฒนามาจากภาพวาดสองรูปในสมัยบรรพกาลคือ ‘เหอถู’ (河图) และ ‘ลั่วซู’ (洛书) (ดูรูปประกอบ 3) ที่มาของมันยังคงเป็นปริศนา แต่ตามตำนานเล่าว่าเมื่อครั้งต้าอวี่ช่วยโลกจากน้ำท่วมครั้งใหญ่เสร็จแล้วนั้น มีเต่ายักษ์โผล่ขึ้นมาจากแม่น้ำลั่ว บนกระดองหลังเต่าสลักลายจุดไว้ ถูกจำลองขึ้นมาเป็นภาพวาด ต่อมาเรียกรวมกันว่าเหอถูและลั่วซู บ้างก็ว่าทั้งสองภาพนี้เป็นการบันทึกการเรียงตัวของดาวโดยชนรุ่นบรรพกาล แต่ไม่ว่าเหอถูและลั่วซูจะมีที่มาอย่างไร สองภาพนี้ถูกศึกษาวิเคราะห์อย่างละเอียดมาตลอดทุกยุคทุกสมัยจนแตกแขนงเป็นหลายวิชา เช่น คณิตศาสตร์ โหราศาสตร์และดาราศาสตร์ ฯลฯ จนมีคำกล่าวว่าทุกสรรพสิ่งในโลกนี้ล้วนอยู่ในสองภาพนี้ และมีการเอ่ยพาดพิงถึงสองภาพนี้ในหลายเอกสารโบราณ จวบจนปัจจุบันก็ยังมีการใช้คอมพิวเตอร์พัฒนาอัลกอริทึม (algorithm) ตามหลักการของเลขชุดจิ่วกงถูนี้ แต่จนใจที่เนื้อหานั้นยากเกินกว่าที่ Storyฯ จะเข้าใจและเอามาอธิบายต่อให้เพื่อนเพจฟังได้ มีคนไปวิเคราะห์ความน่าทึ่งของตัวเลขจิ่วกงถูนี้เพิ่มเติม (ดูรูปประกอบ 4) จะเห็นว่าหากนับวนไปเรื่อยๆ มันจะมีค่าเท่ากันทุกแถว เพื่อนเพจที่ชอบการคำนวณลองไปทำต่อเพิ่มเติมว่าวนไปอีกหลายๆ หลักจะยังได้ผลลัพธ์เท่ากันเหมือนกันหมดหรือไม่ ทำแล้วมาบอกกล่าวกันหน่อยนะคะ และในเรื่อง <ปรปักษ์จำนน> นี้ กล่องดังกล่าวมีตัวล็อกที่จะปลดได้ด้วยการแก้ปริศนาบนฝากล่องซึ่งมีเก้าช่องเหมือนกระดานเกมปัจจุบัน ล็อกดังกล่าวนี้จึงเรียกว่า ‘จิ่วกงสั่ว’ (九宫锁) นั่นเอง (ป.ล. หากอ่านแล้วชอบใจ อย่าลืมกดติดตามเพจนี้เพื่อป้องกันการกีดกันของเฟซบุ๊กด้วยนะคะ #StoryfromStory) Credit รูปภาพจากในละครและจาก: https://www.marieclaire.com.tw/entertainment/tvshow/86397 http://www.yrcc.gov.cn/hhwh/wxyc/202503/t20250320_440769.html Credit ข้อมูลรวบรวมจาก: https://baike.baidu.com/item/河图/7525 http://www.360doc.com/content/21/0223/10/49937858_963504002.shtml #ปรปักษ์จำนน #จิ่วกงสั่ว #เลขปริศนา #จิ่วกงเก๋อ #เหอถู #ลั่วซู #สาระจีน
    WWW.MARIECLAIRE.COM.TW
    《折腰》5大幕後真相曝光:劉宇寧帶傷上陣,宋祖兒獲封「天選小喬」,女主首選竟是趙露思
    劉宇寧、宋祖兒《折腰》曾榮登「網友最期待古裝劇」冠軍,開播後果然不負眾望,收視與口碑雙雙飆高。劉宇寧成功擺脫古裝醜男標籤,獲讚「天選魏劭」;這兩年深陷逃稅風波的宋祖兒,也以聰慧絕美「小喬」華麗回歸,再掀話題熱潮。
    4 ความคิดเห็น 0 การแบ่งปัน 512 มุมมอง 0 รีวิว
  • เราทุกคนเห็นแล้ว ว่า รมต. ที่มาจากโควต้า นั้น ประสิทธิภาพต่ำกว่ามาตราฐาน กลาโหม เกษตร ศึกษาธิการ ไปรษณีย์ เป็นต้น
    มาช่วยกันฝัน และออกแบบรัฐธรรมนูญ โดยดำรงไว้ซึ่งหมวดพระมหากษัตริย์ และความมั่นคงแห่งชาติ

    ไม่ต้องมีพรรคการเมือง เป็นประชาธิปไตยแบบไทย

    หมวดผู้มีสิทธิ์เลือกตั้ง:
    ----------------------------------
    1) เป็นผู้มี หรือเคยมีประวัติการเสียภาษี หรือมียอดรวมภาษีมูลค่าเพิ่มสะสม ปีละสามหมื่นบาทขึ้นไป
    2) มีอายุครบหรือเกิน 18 ปีบริบูรณ์
    3) เป็นผู้มีสัญชาติไทย ไม่มีสัญชาติอื่น


    หมวดผู้สมัคร สส. เลือกตั้ง:
    -----------------------------------------
    1) มีอายุเกิน 30 ปีบริบูรณ์ แต่ไม่เกิน 70ปีบริบูรณ์
    2) มีประวัติสร้างชื่อเสียง ระดับชาติ, ปราชญ์ชาวบ้าน, บำเพ็ญสาธารณะประโยชน์เป็นหลักฐาน ติดต่อกันไม่ต่ำกว่า 5ปีภาษี หรือสำเร็จการศึกษาขั้นต่ำปริญญาตรี จากสถาบันการศึกษาที่ กพ. รับรอง
    3) เป็นผู้ไม่มีประวัติประพฤติผิดจริยธรรม ทุจริตคอรัปชั่น บ่อนทำลายสังคม ศาสนา และแผ่นดิน ไม่ว่าศาลจะตัดสินหรือไม่ แต่วิญญูชนประจักษ์ได้


    หมวดผู้สมัคร นายกฯ รมต. เลือกตั้ง:
    ------------------------------------------------------
    1) มีคุณสมบัติเหมือน ผู้สมัคร สส.
    2) เป็นตำแหน่งหน้าที่แยกสมัครต่างจาก ผู้สมัคร สส. โดยผู้สมัครเลือกตั้ง หน้าที่ นายกฯ หรือ รมต. จะต้องเลือกสมัครในหน้าที่ใดหน้าที่หนึ่งเท่านั้น
    3) ผู้สมัคร มีหน้าที่แสดงวิสัยทัศน์ และแผนการดำเนินงานไม่ต่ำกว่า 10ข้อ ลงสื่อสารให้สามารถตรวจสอบ
    4) คะแนนมาจากทั่วประเทศ


    หมวด สว. ส่วนโควตา:
    1) ผู้ดำรงตำแหน่งผู้บัญชาการเหล่าทัพ, ปลัดกระทรวง, ตัวแทนศิลปินแห่งชาติทุกสาขา, อาจารย์ผู้มีผลงานวิจัยระดับชาติหรือระดับโลก, อดีตนักเรียนนักศึกษาที่เคยเข้าชิงแข่งขันทางการศึกษาระดับโลก เช่น แข่งขันคณิตศาสตร์ ชีววิทยา เคมี สิ่งประดิษฐ์ที่ไม่เคยมี เกมส์, อดีตนักกีฬาทีมชาติไทยที่ผ่านสนามเอเชี่ยนเกมส์ขึ้นไป หลายๆ ประเภท
    2) มีอายุไม่เกิน 76ปีบริบูรณ์
    3) เป็นผู้ไม่มีประวัติประพฤติผิดจริยธรรม ทุจริตคอรัปชั่น บ่อนทำลายสังคม ศาสนา และแผ่นดิน ไม่ว่าศาลจะตัดสินหรือไม่ แต่วิญญูชนประจักษ์ได้
    4) ไม่เป็นผู้มีผลประโยชน์ทับซ้อน กับ สส. นายกฯ หรือ รมต. เช่น เป็นคนในครอบครัว สามีภรรยา พ่อแม่ พี่น้องในสายเลือด, ไม่เป็นหุ้นส่วน


    ทุกผู้ที่ได้การคัดเลือก จะต้องมีความละอายชั่ว ศีลธรรม หากพบว่ากระทำผิด จะต้องหยุดปฏิบัติหน้าที่ โดยทันทีไม่สามารถยืดเยื้อปฏิบัติหน้าที่ต่อไป

    ผู้ช่วย สส. รมต. จะมีได้ไม่เกินกี่คน รายชื่อผู้ช่วย ต้องประกาศ ให้สาธารณะตรวจสอบได้โดยสะดวก

    เราทุกคนเห็นแล้ว ว่า รมต. ที่มาจากโควต้า นั้น ประสิทธิภาพต่ำกว่ามาตราฐาน กลาโหม เกษตร ศึกษาธิการ ไปรษณีย์ เป็นต้น มาช่วยกันฝัน และออกแบบรัฐธรรมนูญ โดยดำรงไว้ซึ่งหมวดพระมหากษัตริย์ และความมั่นคงแห่งชาติ ไม่ต้องมีพรรคการเมือง เป็นประชาธิปไตยแบบไทย หมวดผู้มีสิทธิ์เลือกตั้ง: ---------------------------------- 1) เป็นผู้มี หรือเคยมีประวัติการเสียภาษี หรือมียอดรวมภาษีมูลค่าเพิ่มสะสม ปีละสามหมื่นบาทขึ้นไป 2) มีอายุครบหรือเกิน 18 ปีบริบูรณ์ 3) เป็นผู้มีสัญชาติไทย ไม่มีสัญชาติอื่น หมวดผู้สมัคร สส. เลือกตั้ง: ----------------------------------------- 1) มีอายุเกิน 30 ปีบริบูรณ์ แต่ไม่เกิน 70ปีบริบูรณ์ 2) มีประวัติสร้างชื่อเสียง ระดับชาติ, ปราชญ์ชาวบ้าน, บำเพ็ญสาธารณะประโยชน์เป็นหลักฐาน ติดต่อกันไม่ต่ำกว่า 5ปีภาษี หรือสำเร็จการศึกษาขั้นต่ำปริญญาตรี จากสถาบันการศึกษาที่ กพ. รับรอง 3) เป็นผู้ไม่มีประวัติประพฤติผิดจริยธรรม ทุจริตคอรัปชั่น บ่อนทำลายสังคม ศาสนา และแผ่นดิน ไม่ว่าศาลจะตัดสินหรือไม่ แต่วิญญูชนประจักษ์ได้ หมวดผู้สมัคร นายกฯ รมต. เลือกตั้ง: ------------------------------------------------------ 1) มีคุณสมบัติเหมือน ผู้สมัคร สส. 2) เป็นตำแหน่งหน้าที่แยกสมัครต่างจาก ผู้สมัคร สส. โดยผู้สมัครเลือกตั้ง หน้าที่ นายกฯ หรือ รมต. จะต้องเลือกสมัครในหน้าที่ใดหน้าที่หนึ่งเท่านั้น 3) ผู้สมัคร มีหน้าที่แสดงวิสัยทัศน์ และแผนการดำเนินงานไม่ต่ำกว่า 10ข้อ ลงสื่อสารให้สามารถตรวจสอบ 4) คะแนนมาจากทั่วประเทศ หมวด สว. ส่วนโควตา: 1) ผู้ดำรงตำแหน่งผู้บัญชาการเหล่าทัพ, ปลัดกระทรวง, ตัวแทนศิลปินแห่งชาติทุกสาขา, อาจารย์ผู้มีผลงานวิจัยระดับชาติหรือระดับโลก, อดีตนักเรียนนักศึกษาที่เคยเข้าชิงแข่งขันทางการศึกษาระดับโลก เช่น แข่งขันคณิตศาสตร์ ชีววิทยา เคมี สิ่งประดิษฐ์ที่ไม่เคยมี เกมส์, อดีตนักกีฬาทีมชาติไทยที่ผ่านสนามเอเชี่ยนเกมส์ขึ้นไป หลายๆ ประเภท 2) มีอายุไม่เกิน 76ปีบริบูรณ์ 3) เป็นผู้ไม่มีประวัติประพฤติผิดจริยธรรม ทุจริตคอรัปชั่น บ่อนทำลายสังคม ศาสนา และแผ่นดิน ไม่ว่าศาลจะตัดสินหรือไม่ แต่วิญญูชนประจักษ์ได้ 4) ไม่เป็นผู้มีผลประโยชน์ทับซ้อน กับ สส. นายกฯ หรือ รมต. เช่น เป็นคนในครอบครัว สามีภรรยา พ่อแม่ พี่น้องในสายเลือด, ไม่เป็นหุ้นส่วน ทุกผู้ที่ได้การคัดเลือก จะต้องมีความละอายชั่ว ศีลธรรม หากพบว่ากระทำผิด จะต้องหยุดปฏิบัติหน้าที่ โดยทันทีไม่สามารถยืดเยื้อปฏิบัติหน้าที่ต่อไป ผู้ช่วย สส. รมต. จะมีได้ไม่เกินกี่คน รายชื่อผู้ช่วย ต้องประกาศ ให้สาธารณะตรวจสอบได้โดยสะดวก
    9 ความคิดเห็น 0 การแบ่งปัน 561 มุมมอง 0 รีวิว
  • เมื่อวันที่ 10 กรกฎาคม 2025 Elon Musk และทีม xAI เปิดตัว Grok 4 ซึ่งเป็นโมเดล AI แบบมัลติโหมดรุ่นล่าสุด โดยมีจุดเด่นด้านการเข้าใจภาษา การแก้โจทย์คณิตศาสตร์ และการให้เหตุผลอย่างลึกซึ้ง

    Grok 4 มีหลายเวอร์ชัน โดยเวอร์ชัน “Heavy” ที่ใช้เครื่องมือหลายตัวพร้อมกัน (multi-agent tools) ทำคะแนนได้สูงมากในหลายการทดสอบ เช่น:
    - Humanity’s Last Exam (HLE): Grok 4 Heavy ทำคะแนนได้ 44.4% สูงกว่า Gemini 2.5 Pro ที่ใช้เครื่องมือ (26.9%)
    - ARC-AGI-2: Grok 4 ได้ 16.2% ซึ่งสูงกว่า Claude Opus 4 เกือบเท่าตัว
    - MMLU: ได้คะแนน 86.6% และมี Intelligence Index สูงถึง 73 ซึ่งนำหน้าทั้ง OpenAI และ Google

    ในด้าน STEM และการเขียนโค้ด:
    - GPQA: Grok 4 ได้ 87.5%, ส่วน Grok 4 Heavy ได้ 88.9%
    - AIME: Grok 4 Heavy ได้คะแนนเต็ม 100%
    - SWE-Bench: Grok 4 Code (จะเปิดตัวเดือนสิงหาคม) ทำคะแนนได้ 72–75%

    Elon Musk ระบุว่า Grok 4 “แทบไม่เคยตอบผิดในข้อสอบฟิสิกส์หรือคณิตศาสตร์เลย” และสามารถตรวจจับข้อผิดพลาดในคำถามได้ด้วย

    ด้านราคาการใช้งาน:
    - API ราคาเท่า Grok 3: $3/$15 ต่อ 1 ล้าน tokens

    แพ็กเกจผู้ใช้ทั่วไป:
    - ฟรี: เข้าถึง Grok 3 แบบจำกัด
    - SuperGrok ($30/เดือน): เข้าถึง Grok 3 และ Grok 4
    - SuperGrok Heavy ($300/เดือน): เข้าถึง Grok 3, Grok 4 และ Grok 4 Heavy

    https://www.neowin.net/news/elon-musks-xai-launches-grok-4-claiming-top-spot-among-industry-ai-models/
    เมื่อวันที่ 10 กรกฎาคม 2025 Elon Musk และทีม xAI เปิดตัว Grok 4 ซึ่งเป็นโมเดล AI แบบมัลติโหมดรุ่นล่าสุด โดยมีจุดเด่นด้านการเข้าใจภาษา การแก้โจทย์คณิตศาสตร์ และการให้เหตุผลอย่างลึกซึ้ง Grok 4 มีหลายเวอร์ชัน โดยเวอร์ชัน “Heavy” ที่ใช้เครื่องมือหลายตัวพร้อมกัน (multi-agent tools) ทำคะแนนได้สูงมากในหลายการทดสอบ เช่น: - Humanity’s Last Exam (HLE): Grok 4 Heavy ทำคะแนนได้ 44.4% สูงกว่า Gemini 2.5 Pro ที่ใช้เครื่องมือ (26.9%) - ARC-AGI-2: Grok 4 ได้ 16.2% ซึ่งสูงกว่า Claude Opus 4 เกือบเท่าตัว - MMLU: ได้คะแนน 86.6% และมี Intelligence Index สูงถึง 73 ซึ่งนำหน้าทั้ง OpenAI และ Google ในด้าน STEM และการเขียนโค้ด: - GPQA: Grok 4 ได้ 87.5%, ส่วน Grok 4 Heavy ได้ 88.9% - AIME: Grok 4 Heavy ได้คะแนนเต็ม 100% - SWE-Bench: Grok 4 Code (จะเปิดตัวเดือนสิงหาคม) ทำคะแนนได้ 72–75% Elon Musk ระบุว่า Grok 4 “แทบไม่เคยตอบผิดในข้อสอบฟิสิกส์หรือคณิตศาสตร์เลย” และสามารถตรวจจับข้อผิดพลาดในคำถามได้ด้วย ด้านราคาการใช้งาน: - API ราคาเท่า Grok 3: $3/$15 ต่อ 1 ล้าน tokens แพ็กเกจผู้ใช้ทั่วไป: - ฟรี: เข้าถึง Grok 3 แบบจำกัด - SuperGrok ($30/เดือน): เข้าถึง Grok 3 และ Grok 4 - SuperGrok Heavy ($300/เดือน): เข้าถึง Grok 3, Grok 4 และ Grok 4 Heavy https://www.neowin.net/news/elon-musks-xai-launches-grok-4-claiming-top-spot-among-industry-ai-models/
    WWW.NEOWIN.NET
    Elon Musk's xAI launches Grok 4, claiming top spot among industry AI models
    Elon Musk's xAI has launched its new flagship AI model, Grok-4, which demonstrates leading performance in various academic, reasoning, and coding benchmarks.
    0 ความคิดเห็น 0 การแบ่งปัน 245 มุมมอง 0 รีวิว
  • รีโพสต์เพจ สรยุทธ์ สุทัศนจินดา 9/7/68

    “‘ทักษิณ’ ลั่นเมืองไทยไม่มีทางตัน แค่มีคนอุดไว้ บอก นายกฯ อิ๊งค์ ยังอยากให้ภูมิใจไทยร่วมรัฐบาล แต่เขาใช้คลิปฮุนเซน เป็นจังหวะเตะลูก พร้อมแฉกลฮั้วสว.วางแผนตั้งแต่ก่อนเลือกตั้ง สส. รับตกใจเห็นวิสัยทัศน์แยบยล ขาย สส.พ่วง สว. มั่นใจความบริสุทธิ์ลูกสาว หวังศาลรับฟัง ไม่ปิดประตู มีโอกาสกลืนเลือด 4 ปี๊บ จูบปาก ‘ภท.’ รอบสาม หากติดคณิตศาสตร์การเมือง ลั่น ผมหมูจะตาย มีแต่ช่วยคน จะกลัวผมทำไม ชี้ ผมต้องช่วยประเทศ จะปล่อยไว้แบบนี้ไม่ได้ เผย ไม่ได้คุยกับ ‘เนวิน - อนุทิน’ เลย มอง ภท. เป็นฝ่ายแค้นมากกว่าฝ่ายค้าน ลั่น พ่อนายกอยู่นี่ เชื่อการเมืองไม่มีสูญญากาศ แม้ ‘อิ๊งค์’ ถูกสั่งพักงาน ชม มท.1 คนใหม่ มาถูกทาง สั่งโยกย้ายทันทีหลังเริ่มงาน บอก river of no return หากจะรีเทิร์นต้องรอสมัยหน้า

    เมื่อเวลา 18.30 น. วันที่ 9 กรกฎาคม ที่โรงแรมอีสติน แกรนด์ พญาไท นายทักษิณ ชินวัตร อดีตนายกรัฐมนตรี เดินทางมาร่วมเป็นแขกรับเชิญในรายการ 55 ปี เนชั่น ผ่าทางตันประเทศไทย เอ็กซ์คลูซีฟ ทอล์ก กับ 4 ผู้นำทางความคิด ร่วมชี้ทางรอดการเมือง ทางออกประเทศไทย 3 บก. ถาม บก.ที่ 4 ตอบ

    โดยก่อนเริ่มถ่ายทอดสด พิธีกรได้เชิญนายทักษิณขึ้นบนเวที โดยนายทักษิณ กล่าวว่า วันนี้มาในฐานะพ่อนายกฯ ขณะเดียวกันพิธีได้ถามนายทักษิณว่า ไปไหนมาไหนต้องมีลูกสาวเกาะติดเป็นผู้ติดตามตลอด

    นายทักษิณ ยิ้มและกล่าวว่า “ผมเป็นคนที่ใกล้ชิดลูกๆ 17 ปีที่ไม่ได้อยู่ใกล้ชิดลูกๆ กลับมาเขาก็ต้องมาคอยเป็นห่วงเป็นใย”

    จากนั้นเข้าสู่การถ่ายทอดสด โดยพิธีได้ถามว่า วันนี้ประเทศถึงทางตันหรือไม่ นายทักษิณ กล่าวว่า “แสดงว่ามีคนอุดไว้ มันถึงจะตัน เหตุเกิดที่ไหนดับที่นั่น”

    ส่วนเป็นกลุ่มใด องค์กรใดที่ไปอุดไว้ทำให้เกิดทางตัน นายทักษิณ กล่าวว่า เราต้องเข้าใจก่อนว่า เมืองไทยเรานี้ คนอยากเป็นนายกฯ ก็เยอะ ลูกชายไปเที่ยวเมืองนอกก็ประกาศเลยว่า พ่อจะต้องเป็นนายกฯ ภายในเดือนกรกฎาคมนี้ ตนจะเล่าให้ฟังคนที่อยากไปเป็นนายกฯ นี่ เขายอมทำทุกอย่าง เพราะอยากให้หมอดูแม่น เดี๋ยวหมอดูจะไม่แม่นไป

    เมื่อถามว่า เขาทำเพื่อหมอดูหรือเพื่อตัวเอง นายทักษิณ กล่าวว่า ก็ด้วยกัน ส่วนจะได้เป็นนายกหรือไม่นั้นตนไม่รู้เพราะเห็นว่าลูกชายพูดแบบนั้น

    จากนั้นพิธีกร ถามว่าในแคนดิเดตนายกฯ ส่วนใหญ่มีแต่ลูกสาว แต่มีอยู่คนเดียว คือ น.หนูอนุทินแน่ๆ นายทักษิณ กล่าวว่า ตนไม่ได้พูดนะ

    พิธีย้อนถามถึงปัญหาทางตันที่เกิดขึ้น นายทักษิณ กล่าวว่า การเมืองมีหลายรูปแบบโดยเฉพาะเรื่องนิติสงครามเข้ามาด้วย บางทีก็เป็นเรื่องของตัวเลขในสภาฯ ซึ่งเป็นคณิตศาสตร์ทางการเมือง ทุกคนเก่งคณิตคณิตศาสตร์หมด มันไม่มีอะไรเกินกว่าที่ไม่สามารถแก้ได้ ตนบอกเลยว่าไม่ตัน

    เมื่อถามถึง การเอาที่พรรคภูมิใจไทย (ภท.) ออกจากรัฐบาลจะทำให้เกิดทางตันหรือไม่ นายทักษิณ ย้ำว่าไม่ได้ขอให้ออก เพียงแต่ว่ารัฐบาลพรรคเพื่อไทย เป็นรัฐบาลที่ต้องมีผลงานเพราะชอบสู้ด้วยนโยบาย เพราะแถลงไปแล้วมันเป็นไปตามที่แถลงก็ต้องพยามผลักดัน แต่มันไปติดที่กระทรวงมหาดไทย ก็นโยบายหลายเรื่องทั้งยาเสพติดและการแก้ไขปัญหาความยากจน ทุกอย่างเรื่องหนี้ เรื่องโอทอป มันต้องอาศัยกลไกของมหาดไทยทั้งนั้น เเม้กระทั่ง เรื่องสร้างบ้านให้คนไทย ที่ต้องทำสัญญา 99 ปีก็ต้องไปผ่านมหาดไทย

    ”พูดให้ชัดเจน พรรคเพื่อไทยบอกว่าขอมหาดไทยคืน แต่เขาไม่ตกลง เราก็ไม่แน่ใจว่าเขาจะออกหรือไม่ นายกเล่าให้ตนฟังว่า ยังอยากให้เขาอยู่ตรงนี้ อยู่ทำด้วยกัน พอดีมีเหตุฮุนเซน ก็ได้จังหวะเตะลูกพร้อม“

    พิธีกร ถามว่า เขามีการคอนเน็คติ้งกันหรือไม่ ระหว่างกัมพูชา ในไทยกับกัมพูชาในกัมพูชา นายทักษิณ กล่าวว่า ผมไม่กลัาจะไปปรักปรำใคร มันบังเอิญ

    นายทักษิณ ยังย้ำว่าการแก้ไขทางตันนั้นไม่มีปัญหาอะไรต้องแก้ไปด้วยคณิตศาสตร์ทางการเมือง พร้อมยืนยันเสถียรภาพรัฐบาล ยังไม่ใช่ตันเลย

    พิธีกรได้ถามถึงพรรคภูมิใจไทยที่ออกไปเป็นฝ่ายค้านแล้วขย่มร่วมกับกลไกของ สว. จนทำให้นายกฯ ต้องพักการปฏิบัติหน้าที่ นายทักษิณ กล่าวว่า ตนจะเล่าให้ฟัง เรื่องการฮั้วสว. ซึ่งสวโดนกล่าวหา ว่ามีการฮั้ว ซึ่งพูดเพราะไปนะ ต้องใช้คำว่าโกงเลือกตั้ง เรื่องนี้จริยธรรมมันไม่มีแล้ว แล้วจะมาร้องจริยธรรมทำไม ในเมื่อคนร้องไม่มีจริยธรรมแล้วจะมาร้องจริยธรรมคนอื่น เป็นเรื่องที่จะทำยังไงให้รัฐบาลล่ม ให้ทันกรกฎาคน มันกลายเป็นว่า zero-sum game แล้วเป็น Race Against Time

    “ผมถามเรื่องสว.พรรคร่วมรัฐบาลจะเอายังไงกันดี ทุกคนบอกไม่มีใครยุ่ง แต่ตนเห็นมีรายงานการสืบสวนที่เขาเล่าให้ผมฟัง ว่ามีเตรียมการตั้งแต่เลือกตั้งสส. ตนตกใจสุดขีดว่าวิสัยทัศน์เขาดีมาก ที่สส.เลือกตั้งก่อน แล้วใครคุมสส. 15 คนจะได้โควตา สว.หนึ่งคน นายทักษิณ กล่าว

    พิธีกร ย้อนถามเรื่องเสียงในสภาฯ ที่ปริ่มน้ำจะต้องทำยังไง นายทักษิณ กล่าวว่าก็ต้องบริหารและเพิ่มคนไป เดี๋ยวก็ต้องร้องเพลง ” ฉันป่าวนะเขามาเอง“ก็ไม่มีปัญหา พวกเราเป็นเบิร์ด เพราะรักทุกๆคน ปัญหาเขามีไว้ให้แก้เขาไม่ได้มีไว้ให้แบก ตนมองปัญหาเป็นความท้าทาย ถ้าคิดว่าเป็นปัญหาก็เครียดตายไม่ต้องนอน

    “ เราอยู่ในโลกที่มีกติกาก็ต้องเคารพกติกาแต่เมื่อศาลบอกว่าให้พักปฎิบัติหน้าที่เราก็พักซะ แต่คนมีหน้าที่ก็ทำไป เป็นเรื่องที่เราต้องทำตามกติกา ถ้าเราไม่เคารพกติกาไปบิดเบี้ยวกติกา มันก็อยู่ด้วยกันยาก “ นายทักษิณ กล่าว

    ส่วนถ้าคนชกนอกกติกา นายทักษิณ กล่าวว่า ตนก็กระทืบเท้าเขา จะกระทืบตัวเองทำไม

    นายทักษิณ กล่าวด้วยว่า สมัยนี้นิติสงครามไม่เหมือนเดิม ไม่แรงกว่าเดิม สมัยก่อนมีระบบคอมแมนคอนโทรล สมัยนี้ร้องและทำหน้าที่พิจารณา แต่ก็ไม่จำเป็นต้องทำตาม ระบบยังมีกติกาของมันอยู่ แม้จะหยุมหยิม แต่มีหลักมีเกณฑ์กว่าสมัยก่อน ส่วนที่องค์กรอิสระไม่กี่คนมาตัดสิน จริงๆ แล้ว ก็ไม่ควรเป็นเช่นนี้ แต่ถ้าเราเข้ามาแล้วมีกติกาแบบนี้ ก็ต้องเดินไปก่อน โดนจนชินแล้ว เป็นเรื่องที่เราก็ต้องสู้ไป แก้ไป อะไรแก้ได้ก็แก้ อะไรแก้ไม่ได้ก็ต้องอยู่ในกติกานั้น

    นายทักษิณ มองว่าการหยุดปฏิบัติหน้าที่ของน.ส.แพทองธาร ชินวัตร นายกรัฐมนตรีเพื่อลดกระแสมากกว่า คนละเรื่องกับการตัดสิน ส่วนวิตกกังวลหรือไม่ว่าน.ส.แพทองธารจะพ้นจากหน้าที่นายกรัฐมนตรี แล้วทำให้เกมการเมืองถึงขั้นยุบสภาฯ นายทักษิณยืนยันว่าตนมั่นใจตามข้อกฎหมาย ข้อเท็จจริงและมั่นใจความบริสุทธิ์ใจของลูกสาว เชื่อว่าศาลน่าจะรับฟังด้วยเหตุและผลว่าข้อเท็จจริงเป็นอย่างไร ก็อธิบายได้หมดทุกอย่าง ส่วนพรรคที่ออกไป เพราะคิดว่าน.ส.แพทองธารไม่รอดนั้น ตนก็ไม่รู้เหมือนกัน ไม่รู้ว่าใครไปทำอะไรหรือไม่

    หากเขาไปสุมหัวจะตั้งรัฐบาลแล้ว นายทักษิณ บอกว่าจงเป็นสุขเป็นสุขเถิด ตนเดาอยู่แล้ว ผมไม่อยากให้เขาออก แต่เขาอยากออก แต่ในเมื่อตัดสินใจแล้ว ก็อย่าไปเสียใจกับมัน เราไม่สามารถควบคุมได้เพราะเราชวนเขาแล้ว เขาไม่เอา ไม่เอาก็ช่วยไม่ได้ ไม่รู้จะทำอย่างไร เราก็อยู่ได้ เพราะแลกกระทรวงอื่นเขาก็ไม่เอา เขาจะเอากระทรวงมหาดไทยกับคมนาคม ส่วนเหตุผลที่ไม่ให้นั้นเพราะเรารู้อดีตเขา

    สำหรับกรณีที่หากย้อนกลับไปแล้วผิดหวังกับพรรคภูมิใจไทย (ภท.) โดยรอบแรกปี 2551 ที่พรรค ภท. ไปตั้งพรรคของตัวเองแล้วไปร่วมกับพรรคประชาธิปัตย์ (ปชป.) อีกขั้วหนึ่ง ส่วนรอบนี้ก็ผิดหวังอีกนั้น นายทักษิณ บอกว่าการเมืองต้องเข้าใจว่าการเมืองบ้านเรามีกฎไว้เลี่ยง ผมกลับมาลืมอดีตหมดแล้ว พยายามจะเริ่มต้นใหม่ ส่วนจะมีรอบที่สามกับภูมิใจไทยหรือไม่นั้น นายทักษิณ บอกว่า การเมืองบ้านเรา วันนี้เป็นการออกแบบการเมืองที่แย่ที่สุด ตั้งแต่ทหารปฏิวัติมาเนี่ยแหละ เวลาเขาเขียนรัฐธรรมนูญ เขาเห็นหน้าผมอยู่ กันผมในทุกรูปแบบ กันจนผลสุดท้ายบ้านเมืองมีปัญหา การเมืองแบบหัวแตก พรรคเล็กพรรคน้อยเยอะแยะ ทำงานยาก ไม่เหมือนตอนตนแก้ปัญหาต้มยำกุ้ง เพราะเป็นพรรคใหญ่ ไม่มีระบบสัมปทานกระทรวง มาวันนี้มันแย่แล้ว ให้ไปบริหารแต่กับไปทำธุรการกับธุรกิจ ธุรการคือแต่งตั้งโยกย้าย ธุรกิจคือวางไข่ออกไข่ วันนี้กติกาแบบนี้สร้างวัฒนธรรม ไม่ทำไม่ผิด เมื่อถามย้ำ จะมีรอบสาม กับภูมิใจไทย หรือไม่ นายทักษิณ ระบุการเมืองไทย ไม่มีมิตรแท้และศัตรูที่ถาวร เมื่อการเมืองออกแบบแบบนี้ ไม่สามารถที่จะบอกว่าจะอยู่คนเดียวในรัฐบาลนี้ สูตรคณิตศาสตร์ไม่สามารถตั้งรัฐบาลได้ ดังนั้นก็ต้องกลืนเลือด ซัก 3-4 ปี๊ป ก็ว่าไป ไม่ปิดโอกาสร่วมมือพรรคส้ม แต่วันนี้ยังไม่จำเป็น บอกสีน้ำเงินส้ม จับมือกันได้หลวมๆ เหตุเป็นปลาคนละน้ำ ชี้บริบทรัฐบาล มีหลายออฟชั่น

    นายทักษิณ ยังตอบคำถามกรณีตนเองเป็นทางตันหรือไม่ และปัญหาทั้งหมดเกิดเพราะท่านหรือไม่นั้น ว่า หลายคนอาจจะไม่ชอบหน้าเป็นพิเศษ จึงทำให้ตนมีขาประจำ ซึ่งตนเมินขาประจำที่เป็นมา 20 ปี พ่อเสียชีวิตก็ลืมถามว่าพ่อของใครมีปัญหากับพ่อของเขาหรือไม่ ส่วนที่เหตุใดจึงไม่สามารถโน้มน้าวคนกลุ่มนี้ได้นั้น ตนมองว่าหากคนกลุ่มนี้มาพูดคุยกับตน ซึ่งบางคนไม่รู้จักตนด้วยซ้ำ ไม่เคยเจอเห็นแต่ในทีวี แต่เมื่อเห็นก็รู้สึกหมั่นไส้แล้ว ซึ่งตนเป็นคนที่สร้างตัวจากไม่มีอะไรมาด้วยตัวเอง จึงไม่ค่อยอะไร

    ส่วนมาถามว่าเพราะอะไรถึงเห็นในทีวีแล้วหมั่นไส้ นายทักษิณ ระบุว่า ตนยังคงงงอยู่ ส่วนนายกฯ แพทองธาร เคยถามหรือไม่ว่าไปทำอะไรให้คนกลุ่มนั้น ถึงมาเป็นอุปสรรคต่อการทำงาน นายทักษิณ ตอบสั้นๆ ว่า “ผมก็กวาดน้ำ อย่าไปคิดอะไรมาก”

    ส่วนในฐานะที่คลุกคลีกับการเมืองมา 51 ปี โอกาสที่พรรคสีแดงอย่างพรรคเพื่อไทยจะไปผสมกับพรรคประชาชนนายทักษิณ ระบุว่า “ในวันนี้ยังไม่มีมีความจำ แต่ไม่ได้หมายความว่าเราเป็นศรัตรูกับพรรคใดพรรคหนึ่ง ยืนยันว่าไม่ได้เป็น แต่การจะทำงานกับใครต้องมั่นใจว่าเราไปด้วยกันได้ และไม่ขัดนโยบายหลักๆ โดยเฉพาะอย่างยิ่งเรื่องสถาบัน เรื่องเจ้านาย เพราะตนได้รับพระเมตตาสูงสุด ดังนั้นตนจะไม่มีทางที่จะไปทำงานกับใครที่กระทบกระเทือนกับสถาบัน

    หลังจากศาลรัฐธรรมนูญวินิจฉัยมาสีส้มไม่ได้มีการพูดถึงประเด็นมาตรา 112 จะสามารถร่วมมือกันได้หรือไม่ นายทักษิณ ตอบ ”ไม่รู้ เพราะไม่ได้คุยกันเลย“

    สำหรับสีน้ำเงินกับสีส้มมีโอกาสจับมือกันได้หรือไม่ในขณะที่เป็น ตนมองว่า หากจะจับก็จับหลวมๆ เพราะเป็นปลาคนละน้ำ ส่วนน้ำของแดงกับส้มใกล้เคียงกว่ากันนั้นหรือไม่ หากพูดความจริงเป็นพรรคที่เกิดจากนโยบายพรรคที่เกิดจากการหาเสียงมาสไตล์เดียวกัน ถ้าเห็นไทยรักไทยอย่างไรพรรคส้มก็คล้ายๆ กัน

    อย่างนั้นส้มกับน้ำเงินปลาคนละน้ำ แต่แดงกับส้มปลาน้ำกันใช่หรือไม่ นายทักษิณ บอกว่า เป็นวงสีธรรมชาติ สีส้มเกิดจากสีแดงรวมกับสีเหลือง ถ้าแดงแยกไปประสมกับน้ำเงินจะเป็นสีม่วง และสีเหลืองผสมสีน้ำเงินเป็นสีเขียว ถ้าสีม่วงกับสีเหลืองไปผสมกันจะเป็นสีช้ำเลือดช้ำหนอง สีไม่สวย ส่วนสีแดงผสมกับสีส้มจะเป็นสีแสด ซึ่งสีแสดมันแรงไป

    ส่วนที่อดีตนายกวิเคราะห์ ยังไม่จำเป็นที่จะจับมือกับสีส้ม เสียงอย่างพอ โดยนายทักษิณระบุว่า พรรคแกนนำรัฐบาลยังมีความสามัคคีทำงานด้วยกันได้ ไม่มีปัญหา เพียงแต่ว่าต้องคุมในสภามาให้โดสภาแค่นั้นเอง ไม่ให้โดดกฎหมายสำคัญ
    ส่วนหลังจากนั้นหนูเปล่านะเขามาเอง

    ส่วนกลไกการเมืองในปัจจุบัน เป็นอุปสรรคต่อรัฐบาลในปัจจุบัน นายทักษิณ ระบุว่า มีปัญหาไว้ให้แก้เมื่อมีอุปสรรคต้องแก้ไป หากถามว่าถึงทางตันหรือไม่ไม่ตัน ส่วนกลไกบริบทปัจจุบันทำให้นายกรัฐมนตรีไปสู่การติดกับดัก และรักการนายกฯ ต้องประคองต่อ หรือหากไม่ลาออกก็ต้องยุบสภา รัฐบาลจะอายุสั้น นายทักษิณ ระบุว่า มีหลาย option 1.คือนายกแพทองธารทองคำรอด ก็สามารถกลับไปทำงานเต็มที่และทำยาว 2. แต่ถ้าสมมุติว่าไม่รอดมี 2 ทางเลือก คือเสนอนายชัยเกษม นิติสิริ หรือยุบสภา และตอนนี้นายชัยเกษมก็ยังฟิต อยู่ตีกอล์ฟสบายมาก

    เมื่อถามว่า ท่านดูอารมณ์ของคนไทย ที่ถูกตั้งคำถามเหมือนกัน เพื่อไทยที่เป็นแกนนำ มีอาวุธอยู่สองอาวุธ คือ นายเศรษฐา ทวีสิน ติดกับดักจริยธรรมของ ศาลรัฐธรรมนูญ นางสาวแพทองธาร ชินวัตร ติดกับดักของศาลรัฐธรรมนูญเข้าไปอีก ท่านคิดว่านายชัยเกษม ที่เป็นกลไกที่สาม จะเป็นทางรอดของประเทศหรือไม่ นายทักษิณ กล่าวว่า ผมยังอยู่เอาออกไม่ได้ ตนยังเป็นสทร. เหมือนเดิม ผมไม่ยอม อายุ 76 ปียังหนุ่มอยู่ ขอให้บ้านเมืองรอด เอาเรื่องบ้านเมืองเป็นหลัก

    เมื่อถามว่า ถ้าเทียบกับช่วงสิงหาคมปี 2566 มีทัวร์ลงเยอะ วิบากกรรมเยอะขึ้นกว่าเดิมหรือไม่ นายทักษิณ กล่าวว่า ก็ไม่เป็นไร ตื่นเช้ามาวันนี้ต้องขึ้นศาลก็ขึ้นไป มันแก่แล้วปล่อยวางไปเยอะแล้ว ผมหยุดแล้วแต่ท่านไม่หยุด ตนต้องทำให้บ้านเมือง จะให้ทำอย่างไร ภาวะเศรษฐกิจในวันนี้ ถ้าตนไม่เสือกแล้วใครจะเสือก มันยากนะ วันนี้ปัญหาบ้านเมืองตนอยู่เฉยไม่ได้ ในฐานะเป็นอดีตนายกรัฐมนตรีและลูกเป็นนายกรัฐมนตรี มีอะไรก็ต้องช่วยกัน วันนี้ประชุมว่าจะเอาอย่างไร ซึ่งตนออกนอกประเทศไม่ได้ถ้าออกได้จะสนุกกว่านี้

    เมื่อถามว่าอยากจะออกไปช่วย แล้วมีคดีมองว่าเหมือนมีใครมาล่ามขาไว้หรือไม่ นายทักษิณ กล่าวว่า เป็นเรื่องต่อเนื่องจากคราวที่แล้ว ตอนที่ปฏิวัติปี 2549 คดีของตนจะหมดอายุความก็เลยล็อคไว้ก่อน โดยใช้การสัมภาษณ์ที่เกี่ยวข้องกับม. 112 ที่เกาหลีใต้ ซึ่งตนไม่กังวล เราไม่มีอะไรเลย ซึ่งถ้าเป็นภาวะปกติ ก็คงไม่มีการตั้งข้อกล่าวหาแต่เป็นภาวะพิเศษ

    เมื่อถามว่า ในกลไกบริบททางการเมือง ในปัจจุบันทั้งกลไกเรื่องฝ่ายค้าน กลไกนิติสงครามทางข้อกฎหมาย กลไกองค์การอิสระ จะมีกลไกมีอำนาจอะไรที่เหนือกว่าสิ่งเหล่านี้หรือไม่ ที่จะทำให้การทำงานของรัฐบาลเดินต่อไปไม่ค่อยได้ สะดุดตลอด นายทักษิณ กล่าวว่า ไม่มีอะไรเลย มีแต่ความหยุมหยิมของระบบ ซึ่งต้องแก้ระบบการเมืองที่วางไว้ องค์การอิสระที่อนุญาตให้ใครก็ได้มาร้อง ซึ่งเป็นเรื่องที่คดีหลบไปหมด ซึ่งอาจจะส่งเสริมอาชีพนักร้อง บางคนรับจ้างร้องหรือบางคนรับจ้างหยุดร้อง

    เมื่อถามว่า การกลับมาเป็น สทร. กลัวจะมีอำนาจอะไรหรือไม่ นายทักษิณ กล่าวว่า อย่ามากลัวตน หมูเรียกพี่ใครเจอตน ผมหมูจะตาย ไม่เคยฆ่าใครมีแต่ช่วยคน

    เมื่อถามว่า สายน้ำเงิน บอกว่าไม่กลัวลูกแต่กลัวพ่อนายทักษิณ กล่าวว่า ตนคุยชัดเจนจะตาย ถ้าชัดเจนแบบที่ตนบอกก็จบไปแล้ว

    เมื่อถามว่า มีการพูดคุยกับนายเนวิน หรือนายอนุทิน ชาญวีรกูล ในฐานะหัวหน้าพรรคภูมิใจไทย หรือไม่ นายทักษิณ กล่าวว่าไม่ได้คุยเลย เพราะเขาไม่คุยกับตน พรรคที่ร่วมรัฐบาล แปลสภาพมาเป็นฝ่ายค้าน

    เมื่อถามว่า ไม่รู้จะเป็นฝ่ายค้านหรือฝ่ายแค้น นายทักษิณ กล่าวว่า น่าจะแค้นมากกว่าค้าน เมื่อถามถึงเรื่องการทำงาน โดยเฉพาะในส่วนกระทรวงมหาดไทยที่เข้าไปดูแลกรมที่ดิน ประเมินเรื่องเขากระโดงอย่างไร นายทักษิณกล่าวว่าทุกอย่างต้องเป็นไปตามกติกา และกฎหมาย ซึ่งที่ดินอัลไพน์ก็โดนสั่งถอน ว่ากันไปตามกติกามีสิทธิ์ก็รักษาสิทธิ์ไป ใครนั่งทับสิ่งที่ไม่ถูกต้องก็ต้องโดน ม. 157 และเดี๋ยวอีกไม่นานก็ต้องมีคนมาร้อง มท.1ใหม่ ซึ่งตอนนี้ก็มาแล้ว เป็นอย่างที่เขาบอกว่าบ้านเมืองเราไม่ใช่ผู้เสียหายก็ร้องได้เลอะเทอะไปหมด

    ส่วนเรื่องการทำงานของรัฐมนตรีว่าการกระทรวงมหาดไทยคนใหม่ มีการโยกย้ายทันที ถือว่ามาถูกทางหรือไม่ นายทักษิณกล่าวว่าต้องเห็นใจ เขามาจากกระทรวงกลาโหม มาถึงตรงนี้ต้องเด็ดขาด และมองว่ากลไกกระทรวงมหาดไทยเริ่มทำงานแล้ว ได้ข่าวรัฐมนตรีบอกว่าจะดุเอง บอกว่าไม่ต้องมาต้อนรับ หากผู้ว่าฯไม่ทำงานก็จะโดน

    ส่วนในแง่การทำงานระหว่างที่นางสาวแพทองธารถูกพักการทำหน้าที่ จะสร้างความมั่นใจให้คนอย่างไรว่ารัฐบาลยังไม่ถึงจุดอับ ทักษิณกล่าวว่า

    “พ่อนายกอยู่นี่ ยังไงก็ดูแลบ้านเมืองเต็มที่ มีอะไรก็บอกให้รัฐมนตรีช่วยกันทำเชื่อว่าไม่มีสูญญากาศ ส่วนที่บอกว่าข้าราชการจะเกียร์ว่างนั้นไม่ต้องว่าง ไม่ต้องรอสถานการณ์การเมือง อย่าไปคิดว่า river จะ return”

    เมื่อถามว่าระบบราชการหลังรัฐประหารเปลี่ยนไป นายทักษิณยอมรับว่า เปลี่ยนไป ข้าราชการบางคนบอกว่าจะกลับมา แต่ตนขอบอกว่า river of no return จะรีเทิร์นต้องรอเลือกตั้งสมัยหน้า

    เมื่อถามว่าคะแนนนิยมที่ลดลง น่าห่วงหรือไม่ นายทักษิณกล่าวว่า การเมืองเป็นกระแส ต้องดูว่าในภาวะการณ์ไหน หากโดนรุมอย่างนี้ หากเป็นทางโซเชียลมีเดีย ซอมบี้ทั้งหลาย ก็จะมีการปั่นกันโกรธกัน สักเดี๋ยวก็หยุด

    ส่วนจะขับเคลื่อนโครงการใหญ่ได้อย่างไร ในช่วงที่การเมืองไม่มีเสถียรภาพ นายทักษิณกล่าวว่าอะไรที่เคลื่อนได้ก็ต้องเคลื่อน อะไรที่เป็นรูทีนก็ต้องขับเคลื่อนทั้งเรื่องยาเสพติดการแก้หนี้การเพิ่มรายได้ให้ประชาชนต้องทำอย่างต่อเนื่อง แต่เรื่องโครงการใหญ่ใหญ่อยู่ในแนยทางอยู่แล้วก็ต้องทำไปส่วนเรื่องเอ็นเตอร์เทนเม้นท์คอมเพล็กซ์วันนี้ถอนออกมาเพราะไม่อยากให้สับสน ซึ่งช่วงนี้ต้องเรียงลำดับความสำคัญก็ไม่เป็นไร”
    รีโพสต์เพจ สรยุทธ์ สุทัศนจินดา 9/7/68 “‘ทักษิณ’ ลั่นเมืองไทยไม่มีทางตัน แค่มีคนอุดไว้ บอก นายกฯ อิ๊งค์ ยังอยากให้ภูมิใจไทยร่วมรัฐบาล แต่เขาใช้คลิปฮุนเซน เป็นจังหวะเตะลูก พร้อมแฉกลฮั้วสว.วางแผนตั้งแต่ก่อนเลือกตั้ง สส. รับตกใจเห็นวิสัยทัศน์แยบยล ขาย สส.พ่วง สว. มั่นใจความบริสุทธิ์ลูกสาว หวังศาลรับฟัง ไม่ปิดประตู มีโอกาสกลืนเลือด 4 ปี๊บ จูบปาก ‘ภท.’ รอบสาม หากติดคณิตศาสตร์การเมือง ลั่น ผมหมูจะตาย มีแต่ช่วยคน จะกลัวผมทำไม ชี้ ผมต้องช่วยประเทศ จะปล่อยไว้แบบนี้ไม่ได้ เผย ไม่ได้คุยกับ ‘เนวิน - อนุทิน’ เลย มอง ภท. เป็นฝ่ายแค้นมากกว่าฝ่ายค้าน ลั่น พ่อนายกอยู่นี่ เชื่อการเมืองไม่มีสูญญากาศ แม้ ‘อิ๊งค์’ ถูกสั่งพักงาน ชม มท.1 คนใหม่ มาถูกทาง สั่งโยกย้ายทันทีหลังเริ่มงาน บอก river of no return หากจะรีเทิร์นต้องรอสมัยหน้า เมื่อเวลา 18.30 น. วันที่ 9 กรกฎาคม ที่โรงแรมอีสติน แกรนด์ พญาไท นายทักษิณ ชินวัตร อดีตนายกรัฐมนตรี เดินทางมาร่วมเป็นแขกรับเชิญในรายการ 55 ปี เนชั่น ผ่าทางตันประเทศไทย เอ็กซ์คลูซีฟ ทอล์ก กับ 4 ผู้นำทางความคิด ร่วมชี้ทางรอดการเมือง ทางออกประเทศไทย 3 บก. ถาม บก.ที่ 4 ตอบ โดยก่อนเริ่มถ่ายทอดสด พิธีกรได้เชิญนายทักษิณขึ้นบนเวที โดยนายทักษิณ กล่าวว่า วันนี้มาในฐานะพ่อนายกฯ ขณะเดียวกันพิธีได้ถามนายทักษิณว่า ไปไหนมาไหนต้องมีลูกสาวเกาะติดเป็นผู้ติดตามตลอด นายทักษิณ ยิ้มและกล่าวว่า “ผมเป็นคนที่ใกล้ชิดลูกๆ 17 ปีที่ไม่ได้อยู่ใกล้ชิดลูกๆ กลับมาเขาก็ต้องมาคอยเป็นห่วงเป็นใย” จากนั้นเข้าสู่การถ่ายทอดสด โดยพิธีได้ถามว่า วันนี้ประเทศถึงทางตันหรือไม่ นายทักษิณ กล่าวว่า “แสดงว่ามีคนอุดไว้ มันถึงจะตัน เหตุเกิดที่ไหนดับที่นั่น” ส่วนเป็นกลุ่มใด องค์กรใดที่ไปอุดไว้ทำให้เกิดทางตัน นายทักษิณ กล่าวว่า เราต้องเข้าใจก่อนว่า เมืองไทยเรานี้ คนอยากเป็นนายกฯ ก็เยอะ ลูกชายไปเที่ยวเมืองนอกก็ประกาศเลยว่า พ่อจะต้องเป็นนายกฯ ภายในเดือนกรกฎาคมนี้ ตนจะเล่าให้ฟังคนที่อยากไปเป็นนายกฯ นี่ เขายอมทำทุกอย่าง เพราะอยากให้หมอดูแม่น เดี๋ยวหมอดูจะไม่แม่นไป เมื่อถามว่า เขาทำเพื่อหมอดูหรือเพื่อตัวเอง นายทักษิณ กล่าวว่า ก็ด้วยกัน ส่วนจะได้เป็นนายกหรือไม่นั้นตนไม่รู้เพราะเห็นว่าลูกชายพูดแบบนั้น จากนั้นพิธีกร ถามว่าในแคนดิเดตนายกฯ ส่วนใหญ่มีแต่ลูกสาว แต่มีอยู่คนเดียว คือ น.หนูอนุทินแน่ๆ นายทักษิณ กล่าวว่า ตนไม่ได้พูดนะ พิธีย้อนถามถึงปัญหาทางตันที่เกิดขึ้น นายทักษิณ กล่าวว่า การเมืองมีหลายรูปแบบโดยเฉพาะเรื่องนิติสงครามเข้ามาด้วย บางทีก็เป็นเรื่องของตัวเลขในสภาฯ ซึ่งเป็นคณิตศาสตร์ทางการเมือง ทุกคนเก่งคณิตคณิตศาสตร์หมด มันไม่มีอะไรเกินกว่าที่ไม่สามารถแก้ได้ ตนบอกเลยว่าไม่ตัน เมื่อถามถึง การเอาที่พรรคภูมิใจไทย (ภท.) ออกจากรัฐบาลจะทำให้เกิดทางตันหรือไม่ นายทักษิณ ย้ำว่าไม่ได้ขอให้ออก เพียงแต่ว่ารัฐบาลพรรคเพื่อไทย เป็นรัฐบาลที่ต้องมีผลงานเพราะชอบสู้ด้วยนโยบาย เพราะแถลงไปแล้วมันเป็นไปตามที่แถลงก็ต้องพยามผลักดัน แต่มันไปติดที่กระทรวงมหาดไทย ก็นโยบายหลายเรื่องทั้งยาเสพติดและการแก้ไขปัญหาความยากจน ทุกอย่างเรื่องหนี้ เรื่องโอทอป มันต้องอาศัยกลไกของมหาดไทยทั้งนั้น เเม้กระทั่ง เรื่องสร้างบ้านให้คนไทย ที่ต้องทำสัญญา 99 ปีก็ต้องไปผ่านมหาดไทย ”พูดให้ชัดเจน พรรคเพื่อไทยบอกว่าขอมหาดไทยคืน แต่เขาไม่ตกลง เราก็ไม่แน่ใจว่าเขาจะออกหรือไม่ นายกเล่าให้ตนฟังว่า ยังอยากให้เขาอยู่ตรงนี้ อยู่ทำด้วยกัน พอดีมีเหตุฮุนเซน ก็ได้จังหวะเตะลูกพร้อม“ พิธีกร ถามว่า เขามีการคอนเน็คติ้งกันหรือไม่ ระหว่างกัมพูชา ในไทยกับกัมพูชาในกัมพูชา นายทักษิณ กล่าวว่า ผมไม่กลัาจะไปปรักปรำใคร มันบังเอิญ นายทักษิณ ยังย้ำว่าการแก้ไขทางตันนั้นไม่มีปัญหาอะไรต้องแก้ไปด้วยคณิตศาสตร์ทางการเมือง พร้อมยืนยันเสถียรภาพรัฐบาล ยังไม่ใช่ตันเลย พิธีกรได้ถามถึงพรรคภูมิใจไทยที่ออกไปเป็นฝ่ายค้านแล้วขย่มร่วมกับกลไกของ สว. จนทำให้นายกฯ ต้องพักการปฏิบัติหน้าที่ นายทักษิณ กล่าวว่า ตนจะเล่าให้ฟัง เรื่องการฮั้วสว. ซึ่งสวโดนกล่าวหา ว่ามีการฮั้ว ซึ่งพูดเพราะไปนะ ต้องใช้คำว่าโกงเลือกตั้ง เรื่องนี้จริยธรรมมันไม่มีแล้ว แล้วจะมาร้องจริยธรรมทำไม ในเมื่อคนร้องไม่มีจริยธรรมแล้วจะมาร้องจริยธรรมคนอื่น เป็นเรื่องที่จะทำยังไงให้รัฐบาลล่ม ให้ทันกรกฎาคน มันกลายเป็นว่า zero-sum game แล้วเป็น Race Against Time “ผมถามเรื่องสว.พรรคร่วมรัฐบาลจะเอายังไงกันดี ทุกคนบอกไม่มีใครยุ่ง แต่ตนเห็นมีรายงานการสืบสวนที่เขาเล่าให้ผมฟัง ว่ามีเตรียมการตั้งแต่เลือกตั้งสส. ตนตกใจสุดขีดว่าวิสัยทัศน์เขาดีมาก ที่สส.เลือกตั้งก่อน แล้วใครคุมสส. 15 คนจะได้โควตา สว.หนึ่งคน นายทักษิณ กล่าว พิธีกร ย้อนถามเรื่องเสียงในสภาฯ ที่ปริ่มน้ำจะต้องทำยังไง นายทักษิณ กล่าวว่าก็ต้องบริหารและเพิ่มคนไป เดี๋ยวก็ต้องร้องเพลง ” ฉันป่าวนะเขามาเอง“ก็ไม่มีปัญหา พวกเราเป็นเบิร์ด เพราะรักทุกๆคน ปัญหาเขามีไว้ให้แก้เขาไม่ได้มีไว้ให้แบก ตนมองปัญหาเป็นความท้าทาย ถ้าคิดว่าเป็นปัญหาก็เครียดตายไม่ต้องนอน “ เราอยู่ในโลกที่มีกติกาก็ต้องเคารพกติกาแต่เมื่อศาลบอกว่าให้พักปฎิบัติหน้าที่เราก็พักซะ แต่คนมีหน้าที่ก็ทำไป เป็นเรื่องที่เราต้องทำตามกติกา ถ้าเราไม่เคารพกติกาไปบิดเบี้ยวกติกา มันก็อยู่ด้วยกันยาก “ นายทักษิณ กล่าว ส่วนถ้าคนชกนอกกติกา นายทักษิณ กล่าวว่า ตนก็กระทืบเท้าเขา จะกระทืบตัวเองทำไม นายทักษิณ กล่าวด้วยว่า สมัยนี้นิติสงครามไม่เหมือนเดิม ไม่แรงกว่าเดิม สมัยก่อนมีระบบคอมแมนคอนโทรล สมัยนี้ร้องและทำหน้าที่พิจารณา แต่ก็ไม่จำเป็นต้องทำตาม ระบบยังมีกติกาของมันอยู่ แม้จะหยุมหยิม แต่มีหลักมีเกณฑ์กว่าสมัยก่อน ส่วนที่องค์กรอิสระไม่กี่คนมาตัดสิน จริงๆ แล้ว ก็ไม่ควรเป็นเช่นนี้ แต่ถ้าเราเข้ามาแล้วมีกติกาแบบนี้ ก็ต้องเดินไปก่อน โดนจนชินแล้ว เป็นเรื่องที่เราก็ต้องสู้ไป แก้ไป อะไรแก้ได้ก็แก้ อะไรแก้ไม่ได้ก็ต้องอยู่ในกติกานั้น นายทักษิณ มองว่าการหยุดปฏิบัติหน้าที่ของน.ส.แพทองธาร ชินวัตร นายกรัฐมนตรีเพื่อลดกระแสมากกว่า คนละเรื่องกับการตัดสิน ส่วนวิตกกังวลหรือไม่ว่าน.ส.แพทองธารจะพ้นจากหน้าที่นายกรัฐมนตรี แล้วทำให้เกมการเมืองถึงขั้นยุบสภาฯ นายทักษิณยืนยันว่าตนมั่นใจตามข้อกฎหมาย ข้อเท็จจริงและมั่นใจความบริสุทธิ์ใจของลูกสาว เชื่อว่าศาลน่าจะรับฟังด้วยเหตุและผลว่าข้อเท็จจริงเป็นอย่างไร ก็อธิบายได้หมดทุกอย่าง ส่วนพรรคที่ออกไป เพราะคิดว่าน.ส.แพทองธารไม่รอดนั้น ตนก็ไม่รู้เหมือนกัน ไม่รู้ว่าใครไปทำอะไรหรือไม่ หากเขาไปสุมหัวจะตั้งรัฐบาลแล้ว นายทักษิณ บอกว่าจงเป็นสุขเป็นสุขเถิด ตนเดาอยู่แล้ว ผมไม่อยากให้เขาออก แต่เขาอยากออก แต่ในเมื่อตัดสินใจแล้ว ก็อย่าไปเสียใจกับมัน เราไม่สามารถควบคุมได้เพราะเราชวนเขาแล้ว เขาไม่เอา ไม่เอาก็ช่วยไม่ได้ ไม่รู้จะทำอย่างไร เราก็อยู่ได้ เพราะแลกกระทรวงอื่นเขาก็ไม่เอา เขาจะเอากระทรวงมหาดไทยกับคมนาคม ส่วนเหตุผลที่ไม่ให้นั้นเพราะเรารู้อดีตเขา สำหรับกรณีที่หากย้อนกลับไปแล้วผิดหวังกับพรรคภูมิใจไทย (ภท.) โดยรอบแรกปี 2551 ที่พรรค ภท. ไปตั้งพรรคของตัวเองแล้วไปร่วมกับพรรคประชาธิปัตย์ (ปชป.) อีกขั้วหนึ่ง ส่วนรอบนี้ก็ผิดหวังอีกนั้น นายทักษิณ บอกว่าการเมืองต้องเข้าใจว่าการเมืองบ้านเรามีกฎไว้เลี่ยง ผมกลับมาลืมอดีตหมดแล้ว พยายามจะเริ่มต้นใหม่ ส่วนจะมีรอบที่สามกับภูมิใจไทยหรือไม่นั้น นายทักษิณ บอกว่า การเมืองบ้านเรา วันนี้เป็นการออกแบบการเมืองที่แย่ที่สุด ตั้งแต่ทหารปฏิวัติมาเนี่ยแหละ เวลาเขาเขียนรัฐธรรมนูญ เขาเห็นหน้าผมอยู่ กันผมในทุกรูปแบบ กันจนผลสุดท้ายบ้านเมืองมีปัญหา การเมืองแบบหัวแตก พรรคเล็กพรรคน้อยเยอะแยะ ทำงานยาก ไม่เหมือนตอนตนแก้ปัญหาต้มยำกุ้ง เพราะเป็นพรรคใหญ่ ไม่มีระบบสัมปทานกระทรวง มาวันนี้มันแย่แล้ว ให้ไปบริหารแต่กับไปทำธุรการกับธุรกิจ ธุรการคือแต่งตั้งโยกย้าย ธุรกิจคือวางไข่ออกไข่ วันนี้กติกาแบบนี้สร้างวัฒนธรรม ไม่ทำไม่ผิด เมื่อถามย้ำ จะมีรอบสาม กับภูมิใจไทย หรือไม่ นายทักษิณ ระบุการเมืองไทย ไม่มีมิตรแท้และศัตรูที่ถาวร เมื่อการเมืองออกแบบแบบนี้ ไม่สามารถที่จะบอกว่าจะอยู่คนเดียวในรัฐบาลนี้ สูตรคณิตศาสตร์ไม่สามารถตั้งรัฐบาลได้ ดังนั้นก็ต้องกลืนเลือด ซัก 3-4 ปี๊ป ก็ว่าไป ไม่ปิดโอกาสร่วมมือพรรคส้ม แต่วันนี้ยังไม่จำเป็น บอกสีน้ำเงินส้ม จับมือกันได้หลวมๆ เหตุเป็นปลาคนละน้ำ ชี้บริบทรัฐบาล มีหลายออฟชั่น นายทักษิณ ยังตอบคำถามกรณีตนเองเป็นทางตันหรือไม่ และปัญหาทั้งหมดเกิดเพราะท่านหรือไม่นั้น ว่า หลายคนอาจจะไม่ชอบหน้าเป็นพิเศษ จึงทำให้ตนมีขาประจำ ซึ่งตนเมินขาประจำที่เป็นมา 20 ปี พ่อเสียชีวิตก็ลืมถามว่าพ่อของใครมีปัญหากับพ่อของเขาหรือไม่ ส่วนที่เหตุใดจึงไม่สามารถโน้มน้าวคนกลุ่มนี้ได้นั้น ตนมองว่าหากคนกลุ่มนี้มาพูดคุยกับตน ซึ่งบางคนไม่รู้จักตนด้วยซ้ำ ไม่เคยเจอเห็นแต่ในทีวี แต่เมื่อเห็นก็รู้สึกหมั่นไส้แล้ว ซึ่งตนเป็นคนที่สร้างตัวจากไม่มีอะไรมาด้วยตัวเอง จึงไม่ค่อยอะไร ส่วนมาถามว่าเพราะอะไรถึงเห็นในทีวีแล้วหมั่นไส้ นายทักษิณ ระบุว่า ตนยังคงงงอยู่ ส่วนนายกฯ แพทองธาร เคยถามหรือไม่ว่าไปทำอะไรให้คนกลุ่มนั้น ถึงมาเป็นอุปสรรคต่อการทำงาน นายทักษิณ ตอบสั้นๆ ว่า “ผมก็กวาดน้ำ อย่าไปคิดอะไรมาก” ส่วนในฐานะที่คลุกคลีกับการเมืองมา 51 ปี โอกาสที่พรรคสีแดงอย่างพรรคเพื่อไทยจะไปผสมกับพรรคประชาชนนายทักษิณ ระบุว่า “ในวันนี้ยังไม่มีมีความจำ แต่ไม่ได้หมายความว่าเราเป็นศรัตรูกับพรรคใดพรรคหนึ่ง ยืนยันว่าไม่ได้เป็น แต่การจะทำงานกับใครต้องมั่นใจว่าเราไปด้วยกันได้ และไม่ขัดนโยบายหลักๆ โดยเฉพาะอย่างยิ่งเรื่องสถาบัน เรื่องเจ้านาย เพราะตนได้รับพระเมตตาสูงสุด ดังนั้นตนจะไม่มีทางที่จะไปทำงานกับใครที่กระทบกระเทือนกับสถาบัน หลังจากศาลรัฐธรรมนูญวินิจฉัยมาสีส้มไม่ได้มีการพูดถึงประเด็นมาตรา 112 จะสามารถร่วมมือกันได้หรือไม่ นายทักษิณ ตอบ ”ไม่รู้ เพราะไม่ได้คุยกันเลย“ สำหรับสีน้ำเงินกับสีส้มมีโอกาสจับมือกันได้หรือไม่ในขณะที่เป็น ตนมองว่า หากจะจับก็จับหลวมๆ เพราะเป็นปลาคนละน้ำ ส่วนน้ำของแดงกับส้มใกล้เคียงกว่ากันนั้นหรือไม่ หากพูดความจริงเป็นพรรคที่เกิดจากนโยบายพรรคที่เกิดจากการหาเสียงมาสไตล์เดียวกัน ถ้าเห็นไทยรักไทยอย่างไรพรรคส้มก็คล้ายๆ กัน อย่างนั้นส้มกับน้ำเงินปลาคนละน้ำ แต่แดงกับส้มปลาน้ำกันใช่หรือไม่ นายทักษิณ บอกว่า เป็นวงสีธรรมชาติ สีส้มเกิดจากสีแดงรวมกับสีเหลือง ถ้าแดงแยกไปประสมกับน้ำเงินจะเป็นสีม่วง และสีเหลืองผสมสีน้ำเงินเป็นสีเขียว ถ้าสีม่วงกับสีเหลืองไปผสมกันจะเป็นสีช้ำเลือดช้ำหนอง สีไม่สวย ส่วนสีแดงผสมกับสีส้มจะเป็นสีแสด ซึ่งสีแสดมันแรงไป ส่วนที่อดีตนายกวิเคราะห์ ยังไม่จำเป็นที่จะจับมือกับสีส้ม เสียงอย่างพอ โดยนายทักษิณระบุว่า พรรคแกนนำรัฐบาลยังมีความสามัคคีทำงานด้วยกันได้ ไม่มีปัญหา เพียงแต่ว่าต้องคุมในสภามาให้โดสภาแค่นั้นเอง ไม่ให้โดดกฎหมายสำคัญ ส่วนหลังจากนั้นหนูเปล่านะเขามาเอง ส่วนกลไกการเมืองในปัจจุบัน เป็นอุปสรรคต่อรัฐบาลในปัจจุบัน นายทักษิณ ระบุว่า มีปัญหาไว้ให้แก้เมื่อมีอุปสรรคต้องแก้ไป หากถามว่าถึงทางตันหรือไม่ไม่ตัน ส่วนกลไกบริบทปัจจุบันทำให้นายกรัฐมนตรีไปสู่การติดกับดัก และรักการนายกฯ ต้องประคองต่อ หรือหากไม่ลาออกก็ต้องยุบสภา รัฐบาลจะอายุสั้น นายทักษิณ ระบุว่า มีหลาย option 1.คือนายกแพทองธารทองคำรอด ก็สามารถกลับไปทำงานเต็มที่และทำยาว 2. แต่ถ้าสมมุติว่าไม่รอดมี 2 ทางเลือก คือเสนอนายชัยเกษม นิติสิริ หรือยุบสภา และตอนนี้นายชัยเกษมก็ยังฟิต อยู่ตีกอล์ฟสบายมาก เมื่อถามว่า ท่านดูอารมณ์ของคนไทย ที่ถูกตั้งคำถามเหมือนกัน เพื่อไทยที่เป็นแกนนำ มีอาวุธอยู่สองอาวุธ คือ นายเศรษฐา ทวีสิน ติดกับดักจริยธรรมของ ศาลรัฐธรรมนูญ นางสาวแพทองธาร ชินวัตร ติดกับดักของศาลรัฐธรรมนูญเข้าไปอีก ท่านคิดว่านายชัยเกษม ที่เป็นกลไกที่สาม จะเป็นทางรอดของประเทศหรือไม่ นายทักษิณ กล่าวว่า ผมยังอยู่เอาออกไม่ได้ ตนยังเป็นสทร. เหมือนเดิม ผมไม่ยอม อายุ 76 ปียังหนุ่มอยู่ ขอให้บ้านเมืองรอด เอาเรื่องบ้านเมืองเป็นหลัก เมื่อถามว่า ถ้าเทียบกับช่วงสิงหาคมปี 2566 มีทัวร์ลงเยอะ วิบากกรรมเยอะขึ้นกว่าเดิมหรือไม่ นายทักษิณ กล่าวว่า ก็ไม่เป็นไร ตื่นเช้ามาวันนี้ต้องขึ้นศาลก็ขึ้นไป มันแก่แล้วปล่อยวางไปเยอะแล้ว ผมหยุดแล้วแต่ท่านไม่หยุด ตนต้องทำให้บ้านเมือง จะให้ทำอย่างไร ภาวะเศรษฐกิจในวันนี้ ถ้าตนไม่เสือกแล้วใครจะเสือก มันยากนะ วันนี้ปัญหาบ้านเมืองตนอยู่เฉยไม่ได้ ในฐานะเป็นอดีตนายกรัฐมนตรีและลูกเป็นนายกรัฐมนตรี มีอะไรก็ต้องช่วยกัน วันนี้ประชุมว่าจะเอาอย่างไร ซึ่งตนออกนอกประเทศไม่ได้ถ้าออกได้จะสนุกกว่านี้ เมื่อถามว่าอยากจะออกไปช่วย แล้วมีคดีมองว่าเหมือนมีใครมาล่ามขาไว้หรือไม่ นายทักษิณ กล่าวว่า เป็นเรื่องต่อเนื่องจากคราวที่แล้ว ตอนที่ปฏิวัติปี 2549 คดีของตนจะหมดอายุความก็เลยล็อคไว้ก่อน โดยใช้การสัมภาษณ์ที่เกี่ยวข้องกับม. 112 ที่เกาหลีใต้ ซึ่งตนไม่กังวล เราไม่มีอะไรเลย ซึ่งถ้าเป็นภาวะปกติ ก็คงไม่มีการตั้งข้อกล่าวหาแต่เป็นภาวะพิเศษ เมื่อถามว่า ในกลไกบริบททางการเมือง ในปัจจุบันทั้งกลไกเรื่องฝ่ายค้าน กลไกนิติสงครามทางข้อกฎหมาย กลไกองค์การอิสระ จะมีกลไกมีอำนาจอะไรที่เหนือกว่าสิ่งเหล่านี้หรือไม่ ที่จะทำให้การทำงานของรัฐบาลเดินต่อไปไม่ค่อยได้ สะดุดตลอด นายทักษิณ กล่าวว่า ไม่มีอะไรเลย มีแต่ความหยุมหยิมของระบบ ซึ่งต้องแก้ระบบการเมืองที่วางไว้ องค์การอิสระที่อนุญาตให้ใครก็ได้มาร้อง ซึ่งเป็นเรื่องที่คดีหลบไปหมด ซึ่งอาจจะส่งเสริมอาชีพนักร้อง บางคนรับจ้างร้องหรือบางคนรับจ้างหยุดร้อง เมื่อถามว่า การกลับมาเป็น สทร. กลัวจะมีอำนาจอะไรหรือไม่ นายทักษิณ กล่าวว่า อย่ามากลัวตน หมูเรียกพี่ใครเจอตน ผมหมูจะตาย ไม่เคยฆ่าใครมีแต่ช่วยคน เมื่อถามว่า สายน้ำเงิน บอกว่าไม่กลัวลูกแต่กลัวพ่อนายทักษิณ กล่าวว่า ตนคุยชัดเจนจะตาย ถ้าชัดเจนแบบที่ตนบอกก็จบไปแล้ว เมื่อถามว่า มีการพูดคุยกับนายเนวิน หรือนายอนุทิน ชาญวีรกูล ในฐานะหัวหน้าพรรคภูมิใจไทย หรือไม่ นายทักษิณ กล่าวว่าไม่ได้คุยเลย เพราะเขาไม่คุยกับตน พรรคที่ร่วมรัฐบาล แปลสภาพมาเป็นฝ่ายค้าน เมื่อถามว่า ไม่รู้จะเป็นฝ่ายค้านหรือฝ่ายแค้น นายทักษิณ กล่าวว่า น่าจะแค้นมากกว่าค้าน เมื่อถามถึงเรื่องการทำงาน โดยเฉพาะในส่วนกระทรวงมหาดไทยที่เข้าไปดูแลกรมที่ดิน ประเมินเรื่องเขากระโดงอย่างไร นายทักษิณกล่าวว่าทุกอย่างต้องเป็นไปตามกติกา และกฎหมาย ซึ่งที่ดินอัลไพน์ก็โดนสั่งถอน ว่ากันไปตามกติกามีสิทธิ์ก็รักษาสิทธิ์ไป ใครนั่งทับสิ่งที่ไม่ถูกต้องก็ต้องโดน ม. 157 และเดี๋ยวอีกไม่นานก็ต้องมีคนมาร้อง มท.1ใหม่ ซึ่งตอนนี้ก็มาแล้ว เป็นอย่างที่เขาบอกว่าบ้านเมืองเราไม่ใช่ผู้เสียหายก็ร้องได้เลอะเทอะไปหมด ส่วนเรื่องการทำงานของรัฐมนตรีว่าการกระทรวงมหาดไทยคนใหม่ มีการโยกย้ายทันที ถือว่ามาถูกทางหรือไม่ นายทักษิณกล่าวว่าต้องเห็นใจ เขามาจากกระทรวงกลาโหม มาถึงตรงนี้ต้องเด็ดขาด และมองว่ากลไกกระทรวงมหาดไทยเริ่มทำงานแล้ว ได้ข่าวรัฐมนตรีบอกว่าจะดุเอง บอกว่าไม่ต้องมาต้อนรับ หากผู้ว่าฯไม่ทำงานก็จะโดน ส่วนในแง่การทำงานระหว่างที่นางสาวแพทองธารถูกพักการทำหน้าที่ จะสร้างความมั่นใจให้คนอย่างไรว่ารัฐบาลยังไม่ถึงจุดอับ ทักษิณกล่าวว่า “พ่อนายกอยู่นี่ ยังไงก็ดูแลบ้านเมืองเต็มที่ มีอะไรก็บอกให้รัฐมนตรีช่วยกันทำเชื่อว่าไม่มีสูญญากาศ ส่วนที่บอกว่าข้าราชการจะเกียร์ว่างนั้นไม่ต้องว่าง ไม่ต้องรอสถานการณ์การเมือง อย่าไปคิดว่า river จะ return” เมื่อถามว่าระบบราชการหลังรัฐประหารเปลี่ยนไป นายทักษิณยอมรับว่า เปลี่ยนไป ข้าราชการบางคนบอกว่าจะกลับมา แต่ตนขอบอกว่า river of no return จะรีเทิร์นต้องรอเลือกตั้งสมัยหน้า เมื่อถามว่าคะแนนนิยมที่ลดลง น่าห่วงหรือไม่ นายทักษิณกล่าวว่า การเมืองเป็นกระแส ต้องดูว่าในภาวะการณ์ไหน หากโดนรุมอย่างนี้ หากเป็นทางโซเชียลมีเดีย ซอมบี้ทั้งหลาย ก็จะมีการปั่นกันโกรธกัน สักเดี๋ยวก็หยุด ส่วนจะขับเคลื่อนโครงการใหญ่ได้อย่างไร ในช่วงที่การเมืองไม่มีเสถียรภาพ นายทักษิณกล่าวว่าอะไรที่เคลื่อนได้ก็ต้องเคลื่อน อะไรที่เป็นรูทีนก็ต้องขับเคลื่อนทั้งเรื่องยาเสพติดการแก้หนี้การเพิ่มรายได้ให้ประชาชนต้องทำอย่างต่อเนื่อง แต่เรื่องโครงการใหญ่ใหญ่อยู่ในแนยทางอยู่แล้วก็ต้องทำไปส่วนเรื่องเอ็นเตอร์เทนเม้นท์คอมเพล็กซ์วันนี้ถอนออกมาเพราะไม่อยากให้สับสน ซึ่งช่วงนี้ต้องเรียงลำดับความสำคัญก็ไม่เป็นไร”
    0 ความคิดเห็น 0 การแบ่งปัน 1110 มุมมอง 0 รีวิว
  • ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU

    นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด

    Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น
    - รองรับ TF32 แบบของ NVIDIA
    - เพิ่ม support สำหรับ FP8
    - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย

    และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว

    Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป  
    • แบ่งเป็น 4 tile, tile ละ 48 คอร์  
    • ไม่มี E-Core แบบ Xeon 6

    TDP สูงสุดต่อซ็อกเก็ต = 500W  
    • รองรับระบบระบายความร้อนระดับองค์กร

    รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล  
    • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM  
    • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ

    รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ  
    • TF32 (ของ NVIDIA)  
    • FP8 → ลด latency inference model  
    • AMX และ APX รุ่นใหม่

    รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก

    วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores

    ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W

    การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์  
    • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient

    Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว  
    • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง

    https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    ลองนึกภาพว่าในแร็กเซิร์ฟเวอร์เดียว เราสามารถวางชิป Xeon รุ่นใหม่ถึง 4 ซ็อกเก็ตได้ → รวมเป็น 768 คอร์เต็ม ๆ → ใช้พลังงานรวม 2,000W → พร้อมรัน LLM หรือ inference workload ได้เลย โดยไม่ต้องพึ่ง GPU นี่ยังไม่รวมระบบแรมที่รองรับได้ถึง 16 แชนแนล DDR5 ความเร็ว 12,800 MT/s ต่อ DIMM ด้วยมาตรฐาน MRDIMM Gen 2 → ช่วยระบายข้อมูลเข้า-ออกจากคอร์ระดับ “Panther Cove” ได้แบบไม่ติดขัด Intel ยังเพิ่มความสามารถด้าน AI แบบเนทีฟในซีพียูนี้ เช่น - รองรับ TF32 แบบของ NVIDIA - เพิ่ม support สำหรับ FP8 - เพิ่มความสามารถของ APX และ AMX → เพื่อเร่ง inference ขนาดเล็กให้รันบนซีพียูได้เลย และนี่จะเป็นผลิตภัณฑ์ 18A node ตัวแรกของ Intel ในระดับ mass production → เชื่อมโยงกับการเปิดตัว AI accelerator ของค่าย Jaguar Shores ได้อย่างสมบูรณ์ในระบบเดียว ✅ Intel Diamond Rapids Xeon 7 จะมีสูงสุด 192 P-Core แท้ใน SKU รุ่นท็อป   • แบ่งเป็น 4 tile, tile ละ 48 คอร์   • ไม่มี E-Core แบบ Xeon 6 ✅ TDP สูงสุดต่อซ็อกเก็ต = 500W   • รองรับระบบระบายความร้อนระดับองค์กร ✅ รองรับแรม DDR5 แบบ 8 หรือ 16 แชนแนล   • ใช้ MRDIMM Gen 2 → Bandwidth ระดับ 12,800 MT/s ต่อ DIMM   • ทำงานร่วมกับคอร์ Panther Cove ได้เต็มประสิทธิภาพ ✅ รองรับเทคโนโลยีใหม่ด้าน AI และคณิตศาสตร์ความละเอียดต่ำ   • TF32 (ของ NVIDIA)   • FP8 → ลด latency inference model   • AMX และ APX รุ่นใหม่ ✅ รองรับ PCIe Gen 6 สำหรับเชื่อมต่อ accelerator ภายนอก ✅ วางจำหน่ายปี 2026 ควบคู่กับ AI accelerator รุ่น Jaguar Shores ✅ ระบบ 4 ซ็อกเก็ตสามารถรวมได้ถึง 768 คอร์ และใช้ไฟ 2,000W ‼️ การผลักดันสู่ TDP 500W ต่อซ็อกเก็ตอาจสร้างความท้าทายให้กับระบบระบายความร้อนและพลังงานในดาต้าเซ็นเตอร์   • ต้องใช้ระบบระบายระดับของเหลว (liquid cooling) หรือ sub-ambient ‼️ Intel จะต้องพิสูจน์ว่าประสิทธิภาพต่อวัตต์จะ “คุ้มพลังงาน” กว่า AMD EPYC รุ่น Zen 6/7 ที่กำลังจะเปิดตัว   • เพราะ AMD นำหน้าไปก่อนในประสิทธิภาพและ efficiency ตลาดเซิร์ฟเวอร์ช่วงหลัง https://www.techpowerup.com/338664/intel-diamond-rapids-xeon-cpu-to-feature-up-to-192-p-cores-and-500-w-tdp
    WWW.TECHPOWERUP.COM
    Intel "Diamond Rapids" Xeon CPU to Feature up to 192 P-Cores and 500 W TDP
    Intel's next-generation "Oak Stream" platform is preparing to accommodate the upcoming "Diamond Rapids" Xeon CPU generation, and we are receiving more interesting details about the top-end configurations Intel will offer. According to the HEPiX TechWatch working group, the Diamond Rapids Intel Xeon ...
    0 ความคิดเห็น 0 การแบ่งปัน 236 มุมมอง 0 รีวิว
  • คณะวิทยาศาสตร์และศิลปศาสตร์ ได้กำหนดจัดโครงการการแข่งขันทักษะทางวิทยาศาสตร์ระดับประถมศึกษาและมัธยมศึกษาขึ้น เพื่อมุ่งเน้นการยกระดับศักยภาพของประเทศ ในหลากหลายมิติ บนพื้นฐานที่ต้องการปรับปัจจุบันเพื่อปูทางสู่อนาคต โครงสร้างพื้นฐานวิทยาศาสตร์ เทคโนโลยี และดิจิทัล และตามพัฒนาการศึกษาขั้นพื้นฐาน พ.ศ. 2566-2570 พัฒนาผู้เรียนให้มีสมรรถนะและทักษะด้านการอ่าน คณิตศาสตร์ การคิดขั้นสูง นวัตกรรมวิทยาศาสตร์ และเทคโนโลยีดิจิทัล และภาษาต่างประเทศ โดยแบ่งการแข่งขันออกเป็น 2 ประเภท ได้แก่ โครงงานประเภททดลอง และโครงงานประเภทสิ่งประดิษฐ์
    กำหนดจัดขึ้นในวันที่ 31 กรกฎาคม 2568 ณ ห้องประชุมตะโกราย 1 อาคารสำนักส่งเสริมวิชาการและงานทะเบียน มหาวิทยาลัยเทคโนโลยีราชมงคลอีสาน
    1. คุณสมบัติผู้เข้าประกวด
    1.1 นักเรียนระดับ ป. 4-6
    1.2 นักเรียนระดับชั้น ม. 1-3
    1.3 นักเรียนระดับชั้น ม. 4-6
    2. ประเภทและจำนวนผู้เข้าประกวด (ประเภททีม 3 คน)
    2.1 ระดับชั้นประถมศึกษาตอนปลาย ป. 4-6 ทุกสังกัด
    2.2 ระดับมัธยมศึกษาตอนต้น ม. 1-3 ทุกสังกัด
    2.3 ระดับมัธยมศึกษาตอนปลาย ม. 4-6 ทุกสังกัด
    3. วิธีดำเนินการและรายละเอียดหลักเกณฑ์การประกวด
    ผู้เข้าประกอบต้องส่งไฟล์รายงานโครงงานวิทยาศาสตร์ ความยาวไม่เกิน 20 หน้า พร้อมไฟล์คลิปวีดิโอนำเสนอโครงงาน ไม่เกิน 5 นาที และไฟล์บทคัดย่อตามแบบฟอร์มที่กำหนด (.doc และ pdf) ผ่านทางลิงค์
    https://docs.google.com/forms/d/e/1FAIpQLSe_GRH6cgWJBaakrxf2wU9xxgtjqkbDb98wQaZVFe4ZfgkB4Q/viewform?usp=header
    ที่ปรากฎในสื่อประชาสัมพันธ์ โดยส่งภายในวันที่ 14 กรกฎาคม 2568
    รางวัลที่ 1 คะแนนสูงสุดอันดับ 1 เงินรางวัล 1,200 บาท
    รางวัลที่ 2 คะแนนสูงสุดอันดับ 2 เงินรางวัล 800 บาท
    รางวัลที่ 3 คะแนนสูงสุดอันดับ 3 เงินรางวัล 500 บาท
    (ผู้เข้าร่วมแข่งขันและผู้ควบคุมจะได้รับเกียรติบัตรจากการเข้าร่วมกิจกรรม)
    สอบถามข้อมูลเพิ่มเติม ที่ ผศ.ดร. วิชุดา กล้าเวช 0621656415
    คณะวิทยาศาสตร์และศิลปศาสตร์ ได้กำหนดจัดโครงการการแข่งขันทักษะทางวิทยาศาสตร์ระดับประถมศึกษาและมัธยมศึกษาขึ้น เพื่อมุ่งเน้นการยกระดับศักยภาพของประเทศ ในหลากหลายมิติ บนพื้นฐานที่ต้องการปรับปัจจุบันเพื่อปูทางสู่อนาคต โครงสร้างพื้นฐานวิทยาศาสตร์ เทคโนโลยี และดิจิทัล และตามพัฒนาการศึกษาขั้นพื้นฐาน พ.ศ. 2566-2570 พัฒนาผู้เรียนให้มีสมรรถนะและทักษะด้านการอ่าน คณิตศาสตร์ การคิดขั้นสูง นวัตกรรมวิทยาศาสตร์ และเทคโนโลยีดิจิทัล และภาษาต่างประเทศ โดยแบ่งการแข่งขันออกเป็น 2 ประเภท ได้แก่ โครงงานประเภททดลอง และโครงงานประเภทสิ่งประดิษฐ์ กำหนดจัดขึ้นในวันที่ 31 กรกฎาคม 2568 ณ ห้องประชุมตะโกราย 1 อาคารสำนักส่งเสริมวิชาการและงานทะเบียน มหาวิทยาลัยเทคโนโลยีราชมงคลอีสาน 1. คุณสมบัติผู้เข้าประกวด 1.1 นักเรียนระดับ ป. 4-6 1.2 นักเรียนระดับชั้น ม. 1-3 1.3 นักเรียนระดับชั้น ม. 4-6 2. ประเภทและจำนวนผู้เข้าประกวด (ประเภททีม 3 คน) 2.1 ระดับชั้นประถมศึกษาตอนปลาย ป. 4-6 ทุกสังกัด 2.2 ระดับมัธยมศึกษาตอนต้น ม. 1-3 ทุกสังกัด 2.3 ระดับมัธยมศึกษาตอนปลาย ม. 4-6 ทุกสังกัด 3. วิธีดำเนินการและรายละเอียดหลักเกณฑ์การประกวด ผู้เข้าประกอบต้องส่งไฟล์รายงานโครงงานวิทยาศาสตร์ ความยาวไม่เกิน 20 หน้า พร้อมไฟล์คลิปวีดิโอนำเสนอโครงงาน ไม่เกิน 5 นาที และไฟล์บทคัดย่อตามแบบฟอร์มที่กำหนด (.doc และ pdf) ผ่านทางลิงค์ https://docs.google.com/forms/d/e/1FAIpQLSe_GRH6cgWJBaakrxf2wU9xxgtjqkbDb98wQaZVFe4ZfgkB4Q/viewform?usp=header ที่ปรากฎในสื่อประชาสัมพันธ์ โดยส่งภายในวันที่ 14 กรกฎาคม 2568 รางวัลที่ 1 คะแนนสูงสุดอันดับ 1 เงินรางวัล 1,200 บาท รางวัลที่ 2 คะแนนสูงสุดอันดับ 2 เงินรางวัล 800 บาท รางวัลที่ 3 คะแนนสูงสุดอันดับ 3 เงินรางวัล 500 บาท (ผู้เข้าร่วมแข่งขันและผู้ควบคุมจะได้รับเกียรติบัตรจากการเข้าร่วมกิจกรรม) สอบถามข้อมูลเพิ่มเติม ที่ ผศ.ดร. วิชุดา กล้าเวช 0621656415
    0 ความคิดเห็น 0 การแบ่งปัน 436 มุมมอง 0 รีวิว
  • เทคโนโลยีการลอยตัวทำงานโดยการใช้ไฟฟ้าผ่านขดลวดที่สร้างสนามแม่เหล็กไฟฟ้า

    ในปี ค.ศ. 1687 นักเล่นไสยศาสตร์และนักมายากล ไอแซก นิวตัน ได้ตีพิมพ์หนังสือ Principia ซึ่งตั้งสมมติฐานเกี่ยวกับแรงโน้มถ่วง และรวมเอาผลงานทั้งหมดของฟรีเมสันอย่างพีทาโกรา โคเปอร์นิคัส บราเฮ เคปเลอร์ และกาลิเลโอ ก่อนหน้าเขา

    มีเพียงคนเดียวเท่านั้นที่คัดค้านทฤษฎีแรงโน้มถ่วงอย่างแข็งกร้าว นั่นก็คือ นิโคลา เทสลา
    เทสลายังคัดค้านไอน์สไตน์ในหลาย ๆ ด้าน หนึ่งในนั้นคือทฤษฎีแรงโน้มถ่วง เมื่อถูกถามถึงความคิดเห็นของเขา เทสลาได้วิเคราะห์อย่างเผ็ดร้อน และฉันขออ้างคำพูดของเขาว่า:

    “[ทฤษฎีสัมพันธภาพของไอน์สไตน์เป็น] ชุดทางคณิตศาสตร์ที่งดงาม ชวนหลงใหล และทำให้ผู้คนมองไม่เห็นข้อผิดพลาดที่แฝงอยู่ ทฤษฎีนี้เปรียบเสมือนขอทานที่สวมเสื้อผ้าสีม่วง ซึ่งผู้คนที่โง่เขลาจะมองว่าเป็นกษัตริย์ ผู้ที่อธิบายทฤษฎีนี้เป็นคนฉลาดหลักแหลม แต่พวกเขาเป็นนักฟิสิกส์เชิงอภิปรัชญา มากกว่าจะเป็นนักวิทยาศาสตร์”
    เทคโนโลยีการลอยตัวทำงานโดยการใช้ไฟฟ้าผ่านขดลวดที่สร้างสนามแม่เหล็กไฟฟ้า ในปี ค.ศ. 1687 นักเล่นไสยศาสตร์และนักมายากล ไอแซก นิวตัน ได้ตีพิมพ์หนังสือ Principia ซึ่งตั้งสมมติฐานเกี่ยวกับแรงโน้มถ่วง และรวมเอาผลงานทั้งหมดของฟรีเมสันอย่างพีทาโกรา โคเปอร์นิคัส บราเฮ เคปเลอร์ และกาลิเลโอ ก่อนหน้าเขา มีเพียงคนเดียวเท่านั้นที่คัดค้านทฤษฎีแรงโน้มถ่วงอย่างแข็งกร้าว นั่นก็คือ นิโคลา เทสลา เทสลายังคัดค้านไอน์สไตน์ในหลาย ๆ ด้าน หนึ่งในนั้นคือทฤษฎีแรงโน้มถ่วง เมื่อถูกถามถึงความคิดเห็นของเขา เทสลาได้วิเคราะห์อย่างเผ็ดร้อน และฉันขออ้างคำพูดของเขาว่า: “[ทฤษฎีสัมพันธภาพของไอน์สไตน์เป็น] ชุดทางคณิตศาสตร์ที่งดงาม ชวนหลงใหล และทำให้ผู้คนมองไม่เห็นข้อผิดพลาดที่แฝงอยู่ ทฤษฎีนี้เปรียบเสมือนขอทานที่สวมเสื้อผ้าสีม่วง ซึ่งผู้คนที่โง่เขลาจะมองว่าเป็นกษัตริย์ ผู้ที่อธิบายทฤษฎีนี้เป็นคนฉลาดหลักแหลม แต่พวกเขาเป็นนักฟิสิกส์เชิงอภิปรัชญา มากกว่าจะเป็นนักวิทยาศาสตร์”
    0 ความคิดเห็น 0 การแบ่งปัน 290 มุมมอง 1 0 รีวิว
  • หน่อย เปิดอบรมพัฒนาศักยภาพศูนย์พัฒนาวิชาการโรงเรียนสังกัด อบจ.นครราชสีมา เป็นการเสริมสร้างศักยภาพในการปฏิบัติงานของกรรมการศูนย์ฯ พร้อมทั้งแลกเปลี่ยนความคิดเห็น ประสบการณ์ร่วมกัน เพื่อนำไปสู่ผลงานที่รวดเร็วและถูกต้อง โดยปัจจุบันคณะกรรมการศูนย์ฯ มีจำนวน 7 ศูนย์ 195 คน ครอบคลุม กลุ่มสาระการเรียนรู้ภาษาไทย, กลุ่มสาระการเรียนรู้วิทยาศาสตร์และเทคโนโลยี, งานวัดผลและประเมินผลการเรียน, กิจกรรมพัฒนาผู้เรียน(แนะแนว), กลุ่มสาระการเรียนรู้ศิลปะ, งานระบบดูแลช่วยเหลือนักเรียน และ กลุ่มสาระการเรียนรู้คณิตศาสตร์ โดยหลังจากจบการอบรมจะได้นำความรู้ไปสู่การปฏิบัติงานในหน้าที่ที่รับผิดชอบได้อย่างรวดเร็วและถูกต้อง ณ โรงแรมลามอนเต้ เขาใหญ่ อ.ปากช่อง

    ดร.ยลดา หวังศุภกิจโกศล
    นายกองค์การบริหารส่วนจังหวัดนครราชสีมา
    17 มิถุนายน 2568

    #หน่อยยลดา
    #นายกหน่อย
    #อบจโคราช
    #สร้างคนสร้างเศรษฐกิจสร้างเมืองโคราช
    หน่อย เปิดอบรมพัฒนาศักยภาพศูนย์พัฒนาวิชาการโรงเรียนสังกัด อบจ.นครราชสีมา เป็นการเสริมสร้างศักยภาพในการปฏิบัติงานของกรรมการศูนย์ฯ พร้อมทั้งแลกเปลี่ยนความคิดเห็น ประสบการณ์ร่วมกัน เพื่อนำไปสู่ผลงานที่รวดเร็วและถูกต้อง โดยปัจจุบันคณะกรรมการศูนย์ฯ มีจำนวน 7 ศูนย์ 195 คน ครอบคลุม กลุ่มสาระการเรียนรู้ภาษาไทย, กลุ่มสาระการเรียนรู้วิทยาศาสตร์และเทคโนโลยี, งานวัดผลและประเมินผลการเรียน, กิจกรรมพัฒนาผู้เรียน(แนะแนว), กลุ่มสาระการเรียนรู้ศิลปะ, งานระบบดูแลช่วยเหลือนักเรียน และ กลุ่มสาระการเรียนรู้คณิตศาสตร์ โดยหลังจากจบการอบรมจะได้นำความรู้ไปสู่การปฏิบัติงานในหน้าที่ที่รับผิดชอบได้อย่างรวดเร็วและถูกต้อง ณ โรงแรมลามอนเต้ เขาใหญ่ อ.ปากช่อง ดร.ยลดา หวังศุภกิจโกศล นายกองค์การบริหารส่วนจังหวัดนครราชสีมา 17 มิถุนายน 2568 #หน่อยยลดา #นายกหน่อย #อบจโคราช #สร้างคนสร้างเศรษฐกิจสร้างเมืองโคราช
    0 ความคิดเห็น 0 การแบ่งปัน 382 มุมมอง 0 รีวิว
  • การอัปเกรดควอนตัมทำให้การสร้างตัวเลขสุ่มสามารถตรวจสอบได้
    นักวิจัยจาก National Institute of Standards and Technology (NIST) ในสหรัฐฯ ได้พัฒนาเทคนิคใหม่สำหรับการสร้างตัวเลขสุ่ม (Random Number Generation - RNG) ที่สามารถตรวจสอบได้อย่างสมบูรณ์ โดยใช้ ควอนตัมเอนแทงเกิลเมนต์ ร่วมกับ บล็อกเชน เพื่อเพิ่มความโปร่งใสและความน่าเชื่อถือ.

    รายละเอียดเทคโนโลยีใหม่
    ใช้ควอนตัมเอนแทงเกิลเมนต์ เพื่อสร้างตัวเลขสุ่มที่แท้จริง โดยอาศัยคุณสมบัติของอนุภาคที่เชื่อมโยงกัน.
    เพิ่มระบบบล็อกเชนเพื่อบันทึกค่าที่สร้างขึ้น ทำให้สามารถตรวจสอบย้อนหลังได้ว่าข้อมูลไม่ถูกแก้ไข.
    พัฒนาโปรโตคอลชื่อ Twine เพื่อใช้บันทึกค่าแฮชของตัวเลขสุ่มลงในบล็อกเชน.
    เปิดตัวบริการ CURBy (University of Colorado Randomness Beacon) เพื่อให้ประชาชนสามารถเข้าถึงตัวเลขสุ่มที่ตรวจสอบได้.

    ผลกระทบและข้อควรระวัง
    ระบบ RNG ทั่วไปอาจไม่สามารถตรวจสอบได้ ทำให้เกิดความเสี่ยงในการใช้งานด้านความปลอดภัย.
    การใช้บล็อกเชนช่วยเพิ่มความโปร่งใส แต่ก็อาจมีข้อจำกัดด้านความเร็วและต้นทุนในการดำเนินการ.
    การนำเทคโนโลยีนี้ไปใช้ในระบบที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสข้อมูลและการทำธุรกรรมออนไลน์ อาจต้องมีการทดสอบเพิ่มเติม.

    แนวทางการนำไปใช้
    ใช้ในระบบเข้ารหัสข้อมูล เพื่อเพิ่มความปลอดภัยในการสื่อสาร.
    นำไปใช้ในเกมออนไลน์และการพนัน เพื่อให้แน่ใจว่าผลลัพธ์เป็นแบบสุ่มจริง.
    ใช้ในงานวิจัยด้านฟิสิกส์และคณิตศาสตร์ ที่ต้องการตัวเลขสุ่มที่ตรวจสอบได้.

    ข้อมูลเพิ่มเติมเกี่ยวกับเทคโนโลยี RNG
    IBM กำลังพัฒนาเครื่องควอนตัมคอมพิวเตอร์ที่ทรงพลังที่สุด คาดว่าจะเปิดตัวภายในปี 2029.
    การโจรกรรมคริปโตครั้งใหญ่ที่สุดมูลค่า 1.5 พันล้านดอลลาร์ เกิดขึ้นจากช่องโหว่ด้านความปลอดภัยของระบบ RNG.
    การใช้ตัวเลขสุ่มที่ไม่ปลอดภัยอาจนำไปสู่การแฮ็กข้อมูล โดยเฉพาะในระบบที่ต้องการความปลอดภัยสูง.

    https://www.techspot.com/news/108329-researchers-develop-first-fully-traceable-quantum-random-number.html
    การอัปเกรดควอนตัมทำให้การสร้างตัวเลขสุ่มสามารถตรวจสอบได้ นักวิจัยจาก National Institute of Standards and Technology (NIST) ในสหรัฐฯ ได้พัฒนาเทคนิคใหม่สำหรับการสร้างตัวเลขสุ่ม (Random Number Generation - RNG) ที่สามารถตรวจสอบได้อย่างสมบูรณ์ โดยใช้ ควอนตัมเอนแทงเกิลเมนต์ ร่วมกับ บล็อกเชน เพื่อเพิ่มความโปร่งใสและความน่าเชื่อถือ. รายละเอียดเทคโนโลยีใหม่ ✅ ใช้ควอนตัมเอนแทงเกิลเมนต์ เพื่อสร้างตัวเลขสุ่มที่แท้จริง โดยอาศัยคุณสมบัติของอนุภาคที่เชื่อมโยงกัน. ✅ เพิ่มระบบบล็อกเชนเพื่อบันทึกค่าที่สร้างขึ้น ทำให้สามารถตรวจสอบย้อนหลังได้ว่าข้อมูลไม่ถูกแก้ไข. ✅ พัฒนาโปรโตคอลชื่อ Twine เพื่อใช้บันทึกค่าแฮชของตัวเลขสุ่มลงในบล็อกเชน. ✅ เปิดตัวบริการ CURBy (University of Colorado Randomness Beacon) เพื่อให้ประชาชนสามารถเข้าถึงตัวเลขสุ่มที่ตรวจสอบได้. ผลกระทบและข้อควรระวัง ‼️ ระบบ RNG ทั่วไปอาจไม่สามารถตรวจสอบได้ ทำให้เกิดความเสี่ยงในการใช้งานด้านความปลอดภัย. ‼️ การใช้บล็อกเชนช่วยเพิ่มความโปร่งใส แต่ก็อาจมีข้อจำกัดด้านความเร็วและต้นทุนในการดำเนินการ. ‼️ การนำเทคโนโลยีนี้ไปใช้ในระบบที่ต้องการความปลอดภัยสูง เช่น การเข้ารหัสข้อมูลและการทำธุรกรรมออนไลน์ อาจต้องมีการทดสอบเพิ่มเติม. แนวทางการนำไปใช้ ✅ ใช้ในระบบเข้ารหัสข้อมูล เพื่อเพิ่มความปลอดภัยในการสื่อสาร. ✅ นำไปใช้ในเกมออนไลน์และการพนัน เพื่อให้แน่ใจว่าผลลัพธ์เป็นแบบสุ่มจริง. ✅ ใช้ในงานวิจัยด้านฟิสิกส์และคณิตศาสตร์ ที่ต้องการตัวเลขสุ่มที่ตรวจสอบได้. ข้อมูลเพิ่มเติมเกี่ยวกับเทคโนโลยี RNG ✅ IBM กำลังพัฒนาเครื่องควอนตัมคอมพิวเตอร์ที่ทรงพลังที่สุด คาดว่าจะเปิดตัวภายในปี 2029. ✅ การโจรกรรมคริปโตครั้งใหญ่ที่สุดมูลค่า 1.5 พันล้านดอลลาร์ เกิดขึ้นจากช่องโหว่ด้านความปลอดภัยของระบบ RNG. ‼️ การใช้ตัวเลขสุ่มที่ไม่ปลอดภัยอาจนำไปสู่การแฮ็กข้อมูล โดยเฉพาะในระบบที่ต้องการความปลอดภัยสูง. https://www.techspot.com/news/108329-researchers-develop-first-fully-traceable-quantum-random-number.html
    WWW.TECHSPOT.COM
    Quantum upgrade makes random number generation fully traceable
    Physicists at the National Institute of Standards and Technology in Boulder, Colorado, have upgraded their previously developed quantum-based method for true random number generation. Thanks to the...
    0 ความคิดเห็น 0 การแบ่งปัน 279 มุมมอง 0 รีวิว
  • AI ยังไม่สามารถใช้เหตุผลได้อย่างแท้จริง
    แม้ว่าหลายบริษัทจะอ้างว่า AI สามารถใช้เหตุผลได้ แต่ งานวิจัยล่าสุดจาก Apple และ ETH Zürich พบว่า AI ล้มเหลวในการแก้ปัญหาตรรกะที่ซับซ้อน โดยเฉพาะ ปริศนา Tower of Hanoi และโจทย์คณิตศาสตร์ระดับโอลิมปิก

    นักวิจัย ทดสอบ AI หลายรุ่น โดยให้ แก้ปริศนา Tower of Hanoi และอธิบายขั้นตอน พบว่า AI สามารถแก้โจทย์ง่าย ๆ ได้ แต่เมื่อจำนวนดิสก์เพิ่มขึ้น AI กลับทำผิดพลาดและให้คำตอบที่ขัดแย้งกันเอง

    ข้อมูลจากข่าว
    - Apple และ ETH Zürich ทดสอบ AI กับปริศนา Tower of Hanoi และโจทย์คณิตศาสตร์ระดับโอลิมปิก
    - AI สามารถแก้โจทย์ง่าย ๆ ได้ แต่ล้มเหลวเมื่อความซับซ้อนเพิ่มขึ้น
    - Google Gemini 2.5 Pro ทำคะแนนได้ 24% จากการให้คำตอบบางส่วน แต่ไม่มี AI ตัวใดแก้โจทย์ได้สมบูรณ์
    - OpenAI o3-mini ทำคะแนนได้เพียง 2% และมักข้ามขั้นตอนหรือให้คำตอบที่ขัดแย้งกันเอง
    - นักวิจัยพบว่า AI ไม่ได้ใช้เหตุผลจริง ๆ แต่เพียงจับคู่รูปแบบข้อมูลที่เคยเห็นมาก่อน

    ผลกระทบต่อการพัฒนา AI
    แม้ว่าบริษัทเทคโนโลยี จะโฆษณาว่า AI สามารถใช้เหตุผลได้ แต่ งานวิจัยล่าสุดชี้ให้เห็นว่า AI ยังไม่สามารถคิดอย่างเป็นระบบได้จริง

    คำเตือนที่ควรพิจารณา
    - AI อาจให้คำตอบที่ดูน่าเชื่อถือ แต่ไม่ได้มีตรรกะที่ถูกต้องเสมอไป
    - AI ที่ใช้ในงานที่ต้องการเหตุผล เช่น การแพทย์และกฎหมาย อาจต้องมีระบบตรวจสอบเพิ่มเติม
    - ต้องติดตามว่าบริษัทเทคโนโลยีจะพัฒนา AI ให้มีความสามารถด้านตรรกะที่ดีขึ้นได้หรือไม่
    - นักวิจัยเสนอให้ใช้ AI ร่วมกับระบบตรรกะเชิงสัญลักษณ์เพื่อเพิ่มความแม่นยำ

    อนาคตของ AI และตรรกะ
    แม้ว่า AI จะยังไม่สามารถใช้เหตุผลได้อย่างแท้จริง แต่ นักวิจัยกำลังพัฒนาแนวทางใหม่ เช่น การรวม AI กับตรรกะเชิงสัญลักษณ์ เพื่อให้ AI สามารถให้คำตอบที่ถูกต้องมากขึ้น

    https://www.techspot.com/news/108294-ai-flunks-logic-test-multiple-studies-reveal-illusion.html
    🧠 AI ยังไม่สามารถใช้เหตุผลได้อย่างแท้จริง แม้ว่าหลายบริษัทจะอ้างว่า AI สามารถใช้เหตุผลได้ แต่ งานวิจัยล่าสุดจาก Apple และ ETH Zürich พบว่า AI ล้มเหลวในการแก้ปัญหาตรรกะที่ซับซ้อน โดยเฉพาะ ปริศนา Tower of Hanoi และโจทย์คณิตศาสตร์ระดับโอลิมปิก นักวิจัย ทดสอบ AI หลายรุ่น โดยให้ แก้ปริศนา Tower of Hanoi และอธิบายขั้นตอน พบว่า AI สามารถแก้โจทย์ง่าย ๆ ได้ แต่เมื่อจำนวนดิสก์เพิ่มขึ้น AI กลับทำผิดพลาดและให้คำตอบที่ขัดแย้งกันเอง ✅ ข้อมูลจากข่าว - Apple และ ETH Zürich ทดสอบ AI กับปริศนา Tower of Hanoi และโจทย์คณิตศาสตร์ระดับโอลิมปิก - AI สามารถแก้โจทย์ง่าย ๆ ได้ แต่ล้มเหลวเมื่อความซับซ้อนเพิ่มขึ้น - Google Gemini 2.5 Pro ทำคะแนนได้ 24% จากการให้คำตอบบางส่วน แต่ไม่มี AI ตัวใดแก้โจทย์ได้สมบูรณ์ - OpenAI o3-mini ทำคะแนนได้เพียง 2% และมักข้ามขั้นตอนหรือให้คำตอบที่ขัดแย้งกันเอง - นักวิจัยพบว่า AI ไม่ได้ใช้เหตุผลจริง ๆ แต่เพียงจับคู่รูปแบบข้อมูลที่เคยเห็นมาก่อน 🔥 ผลกระทบต่อการพัฒนา AI แม้ว่าบริษัทเทคโนโลยี จะโฆษณาว่า AI สามารถใช้เหตุผลได้ แต่ งานวิจัยล่าสุดชี้ให้เห็นว่า AI ยังไม่สามารถคิดอย่างเป็นระบบได้จริง ‼️ คำเตือนที่ควรพิจารณา - AI อาจให้คำตอบที่ดูน่าเชื่อถือ แต่ไม่ได้มีตรรกะที่ถูกต้องเสมอไป - AI ที่ใช้ในงานที่ต้องการเหตุผล เช่น การแพทย์และกฎหมาย อาจต้องมีระบบตรวจสอบเพิ่มเติม - ต้องติดตามว่าบริษัทเทคโนโลยีจะพัฒนา AI ให้มีความสามารถด้านตรรกะที่ดีขึ้นได้หรือไม่ - นักวิจัยเสนอให้ใช้ AI ร่วมกับระบบตรรกะเชิงสัญลักษณ์เพื่อเพิ่มความแม่นยำ 🚀 อนาคตของ AI และตรรกะ แม้ว่า AI จะยังไม่สามารถใช้เหตุผลได้อย่างแท้จริง แต่ นักวิจัยกำลังพัฒนาแนวทางใหม่ เช่น การรวม AI กับตรรกะเชิงสัญลักษณ์ เพื่อให้ AI สามารถให้คำตอบที่ถูกต้องมากขึ้น https://www.techspot.com/news/108294-ai-flunks-logic-test-multiple-studies-reveal-illusion.html
    WWW.TECHSPOT.COM
    AI flunks logic test: Multiple studies reveal illusion of reasoning
    Apple researchers have uncovered a key weakness in today's most hyped AI systems – they falter at solving puzzles that require step-by-step reasoning. In a new paper,...
    0 ความคิดเห็น 0 การแบ่งปัน 271 มุมมอง 0 รีวิว
  • MathWorks บริษัทผู้พัฒนา MATLAB และ Simulink ซึ่งเป็นซอฟต์แวร์ด้านการคำนวณทางคณิตศาสตร์และวิศวกรรม ได้รับผลกระทบจาก การโจมตีด้วยแรนซัมแวร์ ทำให้ระบบไอทีหลายส่วนไม่สามารถใช้งานได้ โดยเหตุการณ์นี้เกิดขึ้นตั้งแต่วันที่ 18 พฤษภาคม 2025 และยังไม่สามารถกู้คืนระบบทั้งหมดได้

    แรนซัมแวร์เป็นหนึ่งในภัยคุกคามไซเบอร์ที่รุนแรงที่สุดในปี 2025 โดยมีหลายบริษัทที่ถูกโจมตี เช่น Masimo, Sensata และ Hitachi Vantara ซึ่งต้องปิดระบบบางส่วนเพื่อป้องกันความเสียหาย

    นอกจากนี้ ยังมีความเป็นไปได้ว่าแฮกเกอร์กำลัง เจรจากับ MathWorks เพื่อเรียกค่าไถ่ ซึ่งเป็นเหตุผลที่บริษัทยังไม่เปิดเผยรายละเอียดเกี่ยวกับผู้โจมตี

    ข้อมูลจากข่าว
    - MathWorks ถูกโจมตีด้วยแรนซัมแวร์ ตั้งแต่วันที่ 18 พฤษภาคม 2025
    - ระบบไอทีหลายส่วนไม่สามารถใช้งานได้ รวมถึง MATLAB Answers, Cloud Center และ File Exchange
    - บางระบบเริ่มกลับมาออนไลน์ แต่ยังอยู่ในสถานะ ทำงานได้ไม่เต็มที่
    - MathWorks แจ้งหน่วยงานบังคับใช้กฎหมาย และกำลังทำงานร่วมกับผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์

    คำเตือนที่ควรพิจารณา
    - ยังไม่มีข้อมูลเกี่ยวกับผู้โจมตี และไม่ทราบว่ามีข้อมูลลูกค้าถูกขโมยหรือไม่
    - แรนซัมแวร์อาจส่งผลกระทบต่อองค์กรอื่น ที่ใช้บริการของ MathWorks
    - บริษัทที่ใช้ MATLAB และ Simulink ควรตรวจสอบระบบของตนเอง เพื่อป้องกันความเสี่ยง
    - หากมีการเจรจาเรียกค่าไถ่ อาจทำให้การกู้คืนระบบล่าช้า

    การโจมตีครั้งนี้สะท้อนถึงความรุนแรงของแรนซัมแวร์ในปี 2025 และเป็นเครื่องเตือนใจให้บริษัทต่าง ๆ ให้ความสำคัญกับการรักษาความปลอดภัยไซเบอร์มากขึ้น

    https://www.techradar.com/pro/security/top-math-software-and-services-platform-still-offline-following-ransomware-attack
    MathWorks บริษัทผู้พัฒนา MATLAB และ Simulink ซึ่งเป็นซอฟต์แวร์ด้านการคำนวณทางคณิตศาสตร์และวิศวกรรม ได้รับผลกระทบจาก การโจมตีด้วยแรนซัมแวร์ ทำให้ระบบไอทีหลายส่วนไม่สามารถใช้งานได้ โดยเหตุการณ์นี้เกิดขึ้นตั้งแต่วันที่ 18 พฤษภาคม 2025 และยังไม่สามารถกู้คืนระบบทั้งหมดได้ แรนซัมแวร์เป็นหนึ่งในภัยคุกคามไซเบอร์ที่รุนแรงที่สุดในปี 2025 โดยมีหลายบริษัทที่ถูกโจมตี เช่น Masimo, Sensata และ Hitachi Vantara ซึ่งต้องปิดระบบบางส่วนเพื่อป้องกันความเสียหาย นอกจากนี้ ยังมีความเป็นไปได้ว่าแฮกเกอร์กำลัง เจรจากับ MathWorks เพื่อเรียกค่าไถ่ ซึ่งเป็นเหตุผลที่บริษัทยังไม่เปิดเผยรายละเอียดเกี่ยวกับผู้โจมตี ✅ ข้อมูลจากข่าว - MathWorks ถูกโจมตีด้วยแรนซัมแวร์ ตั้งแต่วันที่ 18 พฤษภาคม 2025 - ระบบไอทีหลายส่วนไม่สามารถใช้งานได้ รวมถึง MATLAB Answers, Cloud Center และ File Exchange - บางระบบเริ่มกลับมาออนไลน์ แต่ยังอยู่ในสถานะ ทำงานได้ไม่เต็มที่ - MathWorks แจ้งหน่วยงานบังคับใช้กฎหมาย และกำลังทำงานร่วมกับผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ ‼️ คำเตือนที่ควรพิจารณา - ยังไม่มีข้อมูลเกี่ยวกับผู้โจมตี และไม่ทราบว่ามีข้อมูลลูกค้าถูกขโมยหรือไม่ - แรนซัมแวร์อาจส่งผลกระทบต่อองค์กรอื่น ที่ใช้บริการของ MathWorks - บริษัทที่ใช้ MATLAB และ Simulink ควรตรวจสอบระบบของตนเอง เพื่อป้องกันความเสี่ยง - หากมีการเจรจาเรียกค่าไถ่ อาจทำให้การกู้คืนระบบล่าช้า การโจมตีครั้งนี้สะท้อนถึงความรุนแรงของแรนซัมแวร์ในปี 2025 และเป็นเครื่องเตือนใจให้บริษัทต่าง ๆ ให้ความสำคัญกับการรักษาความปลอดภัยไซเบอร์มากขึ้น https://www.techradar.com/pro/security/top-math-software-and-services-platform-still-offline-following-ransomware-attack
    0 ความคิดเห็น 0 การแบ่งปัน 414 มุมมอง 0 รีวิว
Pages Boosts