• "เมื่อความหวังกลายเป็นความเข้าใจผิด: นักวิจัย OpenAI กับประกาศความสำเร็จ GPT-5 ด้านคณิตศาสตร์ที่ไม่เคยเกิดขึ้น"

    ในช่วงต้นเดือนตุลาคม 2025 โลกเทคโนโลยีต้องสะดุดกับข่าวที่ดูเหมือนจะเป็นก้าวกระโดดครั้งใหญ่ของ AI ด้านคณิตศาสตร์ เมื่อหนึ่งในนักวิจัยระดับนำของ OpenAI ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า GPT-5 สามารถแก้ปัญหาคณิตศาสตร์ระดับมหาวิทยาลัยได้อย่างแม่นยำถึง 94.4% ซึ่งสูงกว่ารุ่นก่อนหน้าอย่าง GPT-4 Turbo ที่ทำได้เพียง 32.8%

    แต่หลังจากนั้นไม่นาน ความจริงก็ปรากฏว่าโพสต์ดังกล่าวเป็นการเข้าใจผิดจากการตีความผลการทดลองที่ยังไม่สมบูรณ์ และไม่ได้ผ่านการตรวจสอบอย่างเป็นทางการจากทีมวิจัยของ OpenAI

    โพสต์ต้นทางถูกลบออกอย่างรวดเร็ว และนักวิจัยคนดังกล่าวได้ออกมาขอโทษ พร้อมชี้แจงว่าเป็นการสื่อสารที่คลาดเคลื่อนจากผลการทดลองภายในที่ยังไม่สามารถสรุปได้อย่างชัดเจน

    เหตุการณ์ที่เกิดขึ้น
    นักวิจัย OpenAI โพสต์ว่า GPT-5 ทำคะแนนด้านคณิตศาสตร์ได้ 94.4%
    เปรียบเทียบกับ GPT-4 Turbo ที่ทำได้ 32.8%
    ข้อมูลดังกล่าวสร้างความตื่นเต้นในวงการ AI

    ความจริงที่เปิดเผย
    ผลการทดลองยังไม่สมบูรณ์และไม่ได้รับการตรวจสอบจากทีม
    โพสต์ดังกล่าวถูกลบออกภายในไม่กี่ชั่วโมง
    นักวิจัยออกมาขอโทษและชี้แจงว่าเป็นการสื่อสารผิดพลาด

    ผลกระทบต่อวงการ
    สะท้อนถึงความเปราะบางของการสื่อสารวิทยาศาสตร์ในยุคโซเชียลมีเดีย
    กระตุ้นให้เกิดการตั้งคำถามต่อความโปร่งใสของการพัฒนา AI
    ทำให้ผู้ใช้งานและนักวิจัยต้องระมัดระวังในการตีความผลการทดลอง

    https://the-decoder.com/leading-openai-researcher-announced-a-gpt-5-math-breakthrough-that-never-happened/
    📐 "เมื่อความหวังกลายเป็นความเข้าใจผิด: นักวิจัย OpenAI กับประกาศความสำเร็จ GPT-5 ด้านคณิตศาสตร์ที่ไม่เคยเกิดขึ้น" ในช่วงต้นเดือนตุลาคม 2025 โลกเทคโนโลยีต้องสะดุดกับข่าวที่ดูเหมือนจะเป็นก้าวกระโดดครั้งใหญ่ของ AI ด้านคณิตศาสตร์ เมื่อหนึ่งในนักวิจัยระดับนำของ OpenAI ได้โพสต์ข้อความบน X (Twitter เดิม) ว่า GPT-5 สามารถแก้ปัญหาคณิตศาสตร์ระดับมหาวิทยาลัยได้อย่างแม่นยำถึง 94.4% ซึ่งสูงกว่ารุ่นก่อนหน้าอย่าง GPT-4 Turbo ที่ทำได้เพียง 32.8% แต่หลังจากนั้นไม่นาน ความจริงก็ปรากฏว่าโพสต์ดังกล่าวเป็นการเข้าใจผิดจากการตีความผลการทดลองที่ยังไม่สมบูรณ์ และไม่ได้ผ่านการตรวจสอบอย่างเป็นทางการจากทีมวิจัยของ OpenAI โพสต์ต้นทางถูกลบออกอย่างรวดเร็ว และนักวิจัยคนดังกล่าวได้ออกมาขอโทษ พร้อมชี้แจงว่าเป็นการสื่อสารที่คลาดเคลื่อนจากผลการทดลองภายในที่ยังไม่สามารถสรุปได้อย่างชัดเจน ✅ เหตุการณ์ที่เกิดขึ้น ➡️ นักวิจัย OpenAI โพสต์ว่า GPT-5 ทำคะแนนด้านคณิตศาสตร์ได้ 94.4% ➡️ เปรียบเทียบกับ GPT-4 Turbo ที่ทำได้ 32.8% ➡️ ข้อมูลดังกล่าวสร้างความตื่นเต้นในวงการ AI ‼️ ความจริงที่เปิดเผย ⛔ ผลการทดลองยังไม่สมบูรณ์และไม่ได้รับการตรวจสอบจากทีม ⛔ โพสต์ดังกล่าวถูกลบออกภายในไม่กี่ชั่วโมง ⛔ นักวิจัยออกมาขอโทษและชี้แจงว่าเป็นการสื่อสารผิดพลาด ✅ ผลกระทบต่อวงการ ➡️ สะท้อนถึงความเปราะบางของการสื่อสารวิทยาศาสตร์ในยุคโซเชียลมีเดีย ➡️ กระตุ้นให้เกิดการตั้งคำถามต่อความโปร่งใสของการพัฒนา AI ➡️ ทำให้ผู้ใช้งานและนักวิจัยต้องระมัดระวังในการตีความผลการทดลอง https://the-decoder.com/leading-openai-researcher-announced-a-gpt-5-math-breakthrough-that-never-happened/
    0 ความคิดเห็น 0 การแบ่งปัน 109 มุมมอง 0 รีวิว
  • “ONLYOFFICE Docs 9.1 มาแล้ว!” — ปรับปรุงการทำงานร่วมกัน เพิ่มฟีเจอร์ Redact PDF และประสิทธิภาพสูตรคำนวณ

    หลังจากเปิดตัวเวอร์ชัน 9.0 ที่มาพร้อมอินเทอร์เฟซใหม่และฟีเจอร์ AI ล่าสุด ทีมพัฒนา ONLYOFFICE ได้ปล่อยเวอร์ชัน 9.1 ซึ่งเป็นการอัปเดตจุดแรกในซีรีส์ 9.x โดยเน้นการปรับปรุงประสิทธิภาพ ความสามารถในการทำงานร่วมกัน และเครื่องมือใหม่ที่ตอบโจทย์ผู้ใช้สายเอกสารและองค์กร

    ฟีเจอร์เด่นในเวอร์ชันนี้คือเครื่องมือ “Redact” สำหรับ PDF ที่ช่วยลบข้อมูลสำคัญอย่างถาวร พร้อมตัวเลือก “Find & Redact” สำหรับเอกสารขนาดใหญ่ และการ Redact แบบทั้งหน้า/ช่วงหน้า นอกจากนี้ยังมีเครื่องมือ annotation ใหม่ เช่น วาดรูปทรงต่าง ๆ ลงบนเอกสาร

    ในด้านการแก้ไขเอกสารทั่วไป:

    การจัดการคอมเมนต์สามารถกรองระหว่าง “Open” และ “Resolved” ได้
    การแก้ไขกราฟรองรับการระเบิด (Explosion) สำหรับกราฟวงกลม
    การจัดการตารางมีแท็บ “Table Design” ใหม่
    Pivot Table รองรับการกรองตามวันที่
    สูตร LOOKUP, VLOOKUP, HLOOKUP และ XLOOKUP ทำงานเร็วขึ้นและใช้หน่วยความจำดีขึ้น
    การตั้งชื่อชีตและการใส่สูตรมีการเน้น argument เพื่อความเข้าใจง่าย

    ใน Presentation Editor มีแท็บ Slide Master ใหม่ ส่วน Document Editor รองรับ section break ใน block content control ทุกระดับ

    ด้านการรองรับไฟล์:
    เปิดดูภาพ HEIF และเอกสาร HWPML ได้
    แปลง PDF เป็น TXT และ PPTX เป็น TXT ได้โดยตรง
    รองรับสูตรคณิตศาสตร์ในรูปแบบ MathML

    เวอร์ชันเซิร์ฟเวอร์ยังมี Admin Panel ใหม่สำหรับดูสถานะและการตั้งค่าระบบ พร้อมการปรับปรุง localization สำหรับภาษาจีนดั้งเดิมและเซอร์เบีย

    ข้อมูลในข่าว
    ONLYOFFICE Docs 9.1 เป็นอัปเดตจุดแรกในซีรีส์ 9.x
    เพิ่มเครื่องมือ Redact สำหรับ PDF พร้อม Find & Redact และ Redact แบบช่วงหน้า
    เพิ่ม annotation tools เช่น Rectangle, Circle, Arrow, Connected Lines
    กรองคอมเมนต์ระหว่าง “Open” และ “Resolved” ได้
    รองรับ Explosion ในกราฟวงกลม 2D
    LOOKUP, VLOOKUP, HLOOKUP, XLOOKUP ทำงานเร็วขึ้น
    มีแท็บ “Table Design” สำหรับจัดการตาราง
    Pivot Table รองรับการกรองตามวันที่
    ตั้งชื่อชีตได้ทันที และสูตรมีการเน้น argument
    Presentation Editor มีแท็บ Slide Master ใหม่
    Document Editor รองรับ section break ใน block content control
    รองรับ HEIF, HWPML, PDF→TXT, PPTX→TXT, MathML
    เวอร์ชันเซิร์ฟเวอร์มี Admin Panel ใหม่
    ปรับปรุง localization สำหรับภาษาจีนดั้งเดิมและเซอร์เบีย

    https://news.itsfoss.com/onlyoffice-docs-9-1-release/
    📝 “ONLYOFFICE Docs 9.1 มาแล้ว!” — ปรับปรุงการทำงานร่วมกัน เพิ่มฟีเจอร์ Redact PDF และประสิทธิภาพสูตรคำนวณ หลังจากเปิดตัวเวอร์ชัน 9.0 ที่มาพร้อมอินเทอร์เฟซใหม่และฟีเจอร์ AI ล่าสุด ทีมพัฒนา ONLYOFFICE ได้ปล่อยเวอร์ชัน 9.1 ซึ่งเป็นการอัปเดตจุดแรกในซีรีส์ 9.x โดยเน้นการปรับปรุงประสิทธิภาพ ความสามารถในการทำงานร่วมกัน และเครื่องมือใหม่ที่ตอบโจทย์ผู้ใช้สายเอกสารและองค์กร ฟีเจอร์เด่นในเวอร์ชันนี้คือเครื่องมือ “Redact” สำหรับ PDF ที่ช่วยลบข้อมูลสำคัญอย่างถาวร พร้อมตัวเลือก “Find & Redact” สำหรับเอกสารขนาดใหญ่ และการ Redact แบบทั้งหน้า/ช่วงหน้า นอกจากนี้ยังมีเครื่องมือ annotation ใหม่ เช่น วาดรูปทรงต่าง ๆ ลงบนเอกสาร ในด้านการแก้ไขเอกสารทั่วไป: 📝 การจัดการคอมเมนต์สามารถกรองระหว่าง “Open” และ “Resolved” ได้ 📝 การแก้ไขกราฟรองรับการระเบิด (Explosion) สำหรับกราฟวงกลม 📝 การจัดการตารางมีแท็บ “Table Design” ใหม่ 📝 Pivot Table รองรับการกรองตามวันที่ 📝 สูตร LOOKUP, VLOOKUP, HLOOKUP และ XLOOKUP ทำงานเร็วขึ้นและใช้หน่วยความจำดีขึ้น 📝 การตั้งชื่อชีตและการใส่สูตรมีการเน้น argument เพื่อความเข้าใจง่าย ใน Presentation Editor มีแท็บ Slide Master ใหม่ ส่วน Document Editor รองรับ section break ใน block content control ทุกระดับ ด้านการรองรับไฟล์: 📝 เปิดดูภาพ HEIF และเอกสาร HWPML ได้ 📝 แปลง PDF เป็น TXT และ PPTX เป็น TXT ได้โดยตรง 📝 รองรับสูตรคณิตศาสตร์ในรูปแบบ MathML เวอร์ชันเซิร์ฟเวอร์ยังมี Admin Panel ใหม่สำหรับดูสถานะและการตั้งค่าระบบ พร้อมการปรับปรุง localization สำหรับภาษาจีนดั้งเดิมและเซอร์เบีย ✅ ข้อมูลในข่าว ➡️ ONLYOFFICE Docs 9.1 เป็นอัปเดตจุดแรกในซีรีส์ 9.x ➡️ เพิ่มเครื่องมือ Redact สำหรับ PDF พร้อม Find & Redact และ Redact แบบช่วงหน้า ➡️ เพิ่ม annotation tools เช่น Rectangle, Circle, Arrow, Connected Lines ➡️ กรองคอมเมนต์ระหว่าง “Open” และ “Resolved” ได้ ➡️ รองรับ Explosion ในกราฟวงกลม 2D ➡️ LOOKUP, VLOOKUP, HLOOKUP, XLOOKUP ทำงานเร็วขึ้น ➡️ มีแท็บ “Table Design” สำหรับจัดการตาราง ➡️ Pivot Table รองรับการกรองตามวันที่ ➡️ ตั้งชื่อชีตได้ทันที และสูตรมีการเน้น argument ➡️ Presentation Editor มีแท็บ Slide Master ใหม่ ➡️ Document Editor รองรับ section break ใน block content control ➡️ รองรับ HEIF, HWPML, PDF→TXT, PPTX→TXT, MathML ➡️ เวอร์ชันเซิร์ฟเวอร์มี Admin Panel ใหม่ ➡️ ปรับปรุง localization สำหรับภาษาจีนดั้งเดิมและเซอร์เบีย https://news.itsfoss.com/onlyoffice-docs-9-1-release/
    NEWS.ITSFOSS.COM
    ONLYOFFICE Docs 9.1 Arrives with PDF Redaction and Many Editor Upgrades
    New redaction tools, performance boosts, and enhanced collaboration features.
    0 ความคิดเห็น 0 การแบ่งปัน 118 มุมมอง 0 รีวิว
  • “ฐานข้อมูลเวกเตอร์: หัวใจของการค้นหาแบบเข้าใจความหมายในยุค AI” — จากการค้นหาด้วยคำสู่การค้นหาด้วยความเข้าใจ

    ในอดีต การค้นหาข้อมูลต้องอาศัยคำที่ตรงเป๊ะ เช่น ชื่อผู้ใช้หรือรหัสสินค้า แต่เมื่อโลกเต็มไปด้วยข้อมูลที่ไม่มีโครงสร้าง เช่น รูปภาพ ข้อความ หรือเสียง การค้นหาแบบเดิมก็เริ่มล้าสมัย นี่คือจุดที่ “ฐานข้อมูลเวกเตอร์” (Vector Database) เข้ามาเปลี่ยนเกม

    หลักการคือการใช้โมเดล AI สร้าง “embedding” หรือ “ลายนิ้วมือดิจิทัล” ของข้อมูล เช่น รูปภาพหรือข้อความ แล้วเปลี่ยนเป็นเวกเตอร์ (ชุดตัวเลข) ที่สะท้อนความหมายและบริบทของข้อมูลนั้น จากนั้นฐานข้อมูลเวกเตอร์จะจัดเก็บและค้นหาเวกเตอร์ที่ใกล้เคียงกันในเชิงคณิตศาสตร์ เพื่อหาข้อมูลที่ “คล้ายกัน” แม้จะไม่เหมือนกันเป๊ะ

    ตัวอย่างเช่น หากคุณอัปโหลดภาพสุนัขพันธุ์โกลเด้นรีทรีฟเวอร์ ระบบสามารถค้นหาภาพที่คล้ายกัน เช่น ลาบราดอร์ในสวน โดยไม่ต้องใช้คำว่า “สุนัข” เลย เพราะ embedding เข้าใจความหมายของภาพ

    ฐานข้อมูลเวกเตอร์ใช้เทคนิคการค้นหาแบบ Approximate Nearest Neighbor (ANN) เพื่อให้ค้นหาได้เร็วมากในระดับมิลลิวินาที แม้จะมีข้อมูลเป็นพันล้านรายการ โดยยอมแลกความแม่นยำเล็กน้อยเพื่อความเร็ว

    เทคโนโลยีนี้ถูกนำไปใช้ในหลายวงการ เช่น:
    อีคอมเมิร์ซ: แนะนำสินค้าที่คล้ายกับที่ผู้ใช้ดู
    ความปลอดภัยไซเบอร์: ค้นหามัลแวร์ที่คล้ายกับตัวอย่างที่พบ
    แชตบอท AI: ค้นหาข้อมูลในเอกสารภายในองค์กรเพื่อตอบคำถาม
    ตรวจสอบลิขสิทธิ์: เปรียบเทียบเสียงหรือภาพกับฐานข้อมูลขนาดใหญ่

    มีฐานข้อมูลเวกเตอร์หลายประเภท เช่น Pinecone, Weaviate, Milvus, Qdrant, FAISS และ Chroma รวมถึง PostgreSQL ที่เพิ่มความสามารถด้านเวกเตอร์ผ่าน pgvector

    ข้อมูลในข่าว
    ฐานข้อมูลเวกเตอร์ช่วยค้นหาข้อมูลที่คล้ายกันในเชิงความหมาย ไม่ใช่แค่คำ
    ใช้ embedding จากโมเดล AI เพื่อแปลงข้อมูลเป็นเวกเตอร์
    เวกเตอร์คือชุดตัวเลขที่สะท้อนความหมายของข้อมูล
    ใช้ ANN เพื่อค้นหาเวกเตอร์ที่ใกล้เคียงกันอย่างรวดเร็ว
    ถูกนำไปใช้ในอีคอมเมิร์ซ, ความปลอดภัยไซเบอร์, แชตบอท และการตรวจสอบลิขสิทธิ์
    มีฐานข้อมูลเวกเตอร์หลายประเภท ทั้งแบบคลาวด์, โอเพ่นซอร์ส และฝังในแอป
    Pinecone และ Weaviate เหมาะกับการใช้งานแบบ API
    Milvus และ Qdrant เหมาะกับองค์กรที่ต้องการควบคุมระบบเอง
    FAISS และ Chroma เหมาะกับนักพัฒนาที่ต้องการฝังในแอปขนาดเล็ก
    PostgreSQL เพิ่มความสามารถด้านเวกเตอร์ผ่าน pgvector

    คำเตือนจากข้อมูลข่าว
    การใช้ ANN อาจแลกความแม่นยำเล็กน้อยเพื่อความเร็ว
    หาก embedding ไม่ดี อาจทำให้ผลลัพธ์การค้นหาไม่ตรงความต้องการ
    การจัดการฐานข้อมูลเวกเตอร์ขนาดใหญ่ต้องใช้ทรัพยากรสูง
    การฝึก embedding ต้องใช้ข้อมูลคุณภาพสูงเพื่อให้ผลลัพธ์มีความหมาย
    การนำไปใช้ในระบบที่ต้องการความแม่นยำสูง เช่น การแพทย์ ต้องระวังเป็นพิเศษ

    https://hackread.com/power-of-vector-databases-era-of-ai-search/
    🔍 “ฐานข้อมูลเวกเตอร์: หัวใจของการค้นหาแบบเข้าใจความหมายในยุค AI” — จากการค้นหาด้วยคำสู่การค้นหาด้วยความเข้าใจ ในอดีต การค้นหาข้อมูลต้องอาศัยคำที่ตรงเป๊ะ เช่น ชื่อผู้ใช้หรือรหัสสินค้า แต่เมื่อโลกเต็มไปด้วยข้อมูลที่ไม่มีโครงสร้าง เช่น รูปภาพ ข้อความ หรือเสียง การค้นหาแบบเดิมก็เริ่มล้าสมัย นี่คือจุดที่ “ฐานข้อมูลเวกเตอร์” (Vector Database) เข้ามาเปลี่ยนเกม หลักการคือการใช้โมเดล AI สร้าง “embedding” หรือ “ลายนิ้วมือดิจิทัล” ของข้อมูล เช่น รูปภาพหรือข้อความ แล้วเปลี่ยนเป็นเวกเตอร์ (ชุดตัวเลข) ที่สะท้อนความหมายและบริบทของข้อมูลนั้น จากนั้นฐานข้อมูลเวกเตอร์จะจัดเก็บและค้นหาเวกเตอร์ที่ใกล้เคียงกันในเชิงคณิตศาสตร์ เพื่อหาข้อมูลที่ “คล้ายกัน” แม้จะไม่เหมือนกันเป๊ะ ตัวอย่างเช่น หากคุณอัปโหลดภาพสุนัขพันธุ์โกลเด้นรีทรีฟเวอร์ ระบบสามารถค้นหาภาพที่คล้ายกัน เช่น ลาบราดอร์ในสวน โดยไม่ต้องใช้คำว่า “สุนัข” เลย เพราะ embedding เข้าใจความหมายของภาพ ฐานข้อมูลเวกเตอร์ใช้เทคนิคการค้นหาแบบ Approximate Nearest Neighbor (ANN) เพื่อให้ค้นหาได้เร็วมากในระดับมิลลิวินาที แม้จะมีข้อมูลเป็นพันล้านรายการ โดยยอมแลกความแม่นยำเล็กน้อยเพื่อความเร็ว เทคโนโลยีนี้ถูกนำไปใช้ในหลายวงการ เช่น: ⭐ อีคอมเมิร์ซ: แนะนำสินค้าที่คล้ายกับที่ผู้ใช้ดู ⭐ ความปลอดภัยไซเบอร์: ค้นหามัลแวร์ที่คล้ายกับตัวอย่างที่พบ ⭐ แชตบอท AI: ค้นหาข้อมูลในเอกสารภายในองค์กรเพื่อตอบคำถาม ⭐ ตรวจสอบลิขสิทธิ์: เปรียบเทียบเสียงหรือภาพกับฐานข้อมูลขนาดใหญ่ มีฐานข้อมูลเวกเตอร์หลายประเภท เช่น Pinecone, Weaviate, Milvus, Qdrant, FAISS และ Chroma รวมถึง PostgreSQL ที่เพิ่มความสามารถด้านเวกเตอร์ผ่าน pgvector ✅ ข้อมูลในข่าว ➡️ ฐานข้อมูลเวกเตอร์ช่วยค้นหาข้อมูลที่คล้ายกันในเชิงความหมาย ไม่ใช่แค่คำ ➡️ ใช้ embedding จากโมเดล AI เพื่อแปลงข้อมูลเป็นเวกเตอร์ ➡️ เวกเตอร์คือชุดตัวเลขที่สะท้อนความหมายของข้อมูล ➡️ ใช้ ANN เพื่อค้นหาเวกเตอร์ที่ใกล้เคียงกันอย่างรวดเร็ว ➡️ ถูกนำไปใช้ในอีคอมเมิร์ซ, ความปลอดภัยไซเบอร์, แชตบอท และการตรวจสอบลิขสิทธิ์ ➡️ มีฐานข้อมูลเวกเตอร์หลายประเภท ทั้งแบบคลาวด์, โอเพ่นซอร์ส และฝังในแอป ➡️ Pinecone และ Weaviate เหมาะกับการใช้งานแบบ API ➡️ Milvus และ Qdrant เหมาะกับองค์กรที่ต้องการควบคุมระบบเอง ➡️ FAISS และ Chroma เหมาะกับนักพัฒนาที่ต้องการฝังในแอปขนาดเล็ก ➡️ PostgreSQL เพิ่มความสามารถด้านเวกเตอร์ผ่าน pgvector ‼️ คำเตือนจากข้อมูลข่าว ⛔ การใช้ ANN อาจแลกความแม่นยำเล็กน้อยเพื่อความเร็ว ⛔ หาก embedding ไม่ดี อาจทำให้ผลลัพธ์การค้นหาไม่ตรงความต้องการ ⛔ การจัดการฐานข้อมูลเวกเตอร์ขนาดใหญ่ต้องใช้ทรัพยากรสูง ⛔ การฝึก embedding ต้องใช้ข้อมูลคุณภาพสูงเพื่อให้ผลลัพธ์มีความหมาย ⛔ การนำไปใช้ในระบบที่ต้องการความแม่นยำสูง เช่น การแพทย์ ต้องระวังเป็นพิเศษ https://hackread.com/power-of-vector-databases-era-of-ai-search/
    HACKREAD.COM
    The Power of Vector Databases in the New Era of AI Search
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 ความคิดเห็น 0 การแบ่งปัน 144 มุมมอง 0 รีวิว
  • “เมื่อเส้นตรงกลายเป็นเรื่องเล่า — คู่มือภาพประกอบ Linear Algebra ที่ทำให้คณิตศาสตร์เข้าใจง่ายขึ้น (และมีดราม่าเล็ก ๆ ด้วย)”

    Aditya Bhargava ผู้เขียนหนังสือยอดนิยม “Grokking Algorithms” กลับมาอีกครั้งในปี 2025 พร้อมผลงานใหม่ “An Illustrated Introduction to Linear Algebra” ที่ตั้งใจจะเปลี่ยนภาพจำของวิชาคณิตศาสตร์ที่หลายคนเคยกลัว ให้กลายเป็นเรื่องเล่าที่เข้าใจง่ายผ่านภาพประกอบและตัวอย่างจากชีวิตประจำวัน

    หนังสือเล่มนี้ใช้แนวทาง “visual-first” โดยเริ่มต้นจากการอธิบายแนวคิดพื้นฐานของเวกเตอร์ เมทริกซ์ และการแปลงเชิงเส้น ผ่านภาพวาดและสถานการณ์จำลอง เช่น การวางแผนมื้ออาหาร การแลกเหรียญ หรือการจัดการทรัพยากร ซึ่งช่วยให้ผู้อ่านเห็นภาพและเข้าใจความหมายของการคำนวณเชิงเส้นในบริบทจริง

    อย่างไรก็ตาม หนังสือก็ไม่รอดจากเสียงวิจารณ์ โดยเฉพาะการเลือกนำเสนอ “Gaussian Elimination” ตั้งแต่ต้นเล่ม ก่อนที่จะสร้างพื้นฐานด้านภาพและความเข้าใจเชิงเรขาคณิต หลายคนมองว่าเป็นการ “ข้ามขั้น” และทำให้ผู้อ่านสับสน โดยเฉพาะเมื่อใช้ตัวแปร x และ y สลับบทบาทในหลายบริบท เช่น บางครั้งแทนอาหาร บางครั้งแทนสารอาหาร

    แม้จะมีข้อถกเถียง แต่หลายเสียงก็ชื่นชมแนวทางการสอนที่ใช้ภาพประกอบและตัวอย่างจริง โดยเฉพาะในยุคที่ Linear Algebra กลายเป็นพื้นฐานของ Machine Learning และ AI การมีสื่อที่เข้าถึงง่ายจึงเป็นสิ่งจำเป็น

    ข้อมูลสำคัญจากเนื้อหา
    หนังสือ “An Illustrated Introduction to Linear Algebra” เขียนโดย Aditya Bhargava
    ใช้ภาพประกอบและตัวอย่างจากชีวิตจริง เช่น เหรียญ อาหาร และสารอาหาร
    เน้นการอธิบายแนวคิดเวกเตอร์ เมทริกซ์ และการแปลงเชิงเส้น
    มีการนำเสนอ Gaussian Elimination ตั้งแต่ต้นเล่ม
    ตัวแปร x และ y ถูกใช้ในหลายบริบท ทำให้บางคนสับสน
    หนังสือได้รับความสนใจจากกลุ่มผู้เรียนที่ไม่ถนัดคณิตศาสตร์
    เป็นสื่อที่เชื่อมโยง Linear Algebra กับการใช้งานจริงใน AI และ ML

    ข้อมูลเสริมจากภายนอก
    Gaussian Elimination คือวิธีแก้ระบบสมการเชิงเส้นโดยใช้การแปลงเมทริกซ์
    Linear Algebra เป็นพื้นฐานของการทำงานของ neural networks และการลดมิติข้อมูล
    Gilbert Strang จาก MIT เป็นหนึ่งในผู้บุกเบิกการสอน Linear Algebra แบบ intuitive
    ช่อง YouTube อย่าง 3Blue1Brown ใช้ภาพเคลื่อนไหวเพื่ออธิบาย Linear Algebra ได้อย่างน่าทึ่ง
    การใช้ภาพและเรื่องเล่าช่วยลดความกลัวคณิตศาสตร์ในกลุ่มผู้เรียนสายศิลป์และมนุษย์ศาสตร์

    https://www.ducktyped.org/p/an-illustrated-introduction-to-linear
    📘 “เมื่อเส้นตรงกลายเป็นเรื่องเล่า — คู่มือภาพประกอบ Linear Algebra ที่ทำให้คณิตศาสตร์เข้าใจง่ายขึ้น (และมีดราม่าเล็ก ๆ ด้วย)” Aditya Bhargava ผู้เขียนหนังสือยอดนิยม “Grokking Algorithms” กลับมาอีกครั้งในปี 2025 พร้อมผลงานใหม่ “An Illustrated Introduction to Linear Algebra” ที่ตั้งใจจะเปลี่ยนภาพจำของวิชาคณิตศาสตร์ที่หลายคนเคยกลัว ให้กลายเป็นเรื่องเล่าที่เข้าใจง่ายผ่านภาพประกอบและตัวอย่างจากชีวิตประจำวัน หนังสือเล่มนี้ใช้แนวทาง “visual-first” โดยเริ่มต้นจากการอธิบายแนวคิดพื้นฐานของเวกเตอร์ เมทริกซ์ และการแปลงเชิงเส้น ผ่านภาพวาดและสถานการณ์จำลอง เช่น การวางแผนมื้ออาหาร การแลกเหรียญ หรือการจัดการทรัพยากร ซึ่งช่วยให้ผู้อ่านเห็นภาพและเข้าใจความหมายของการคำนวณเชิงเส้นในบริบทจริง อย่างไรก็ตาม หนังสือก็ไม่รอดจากเสียงวิจารณ์ โดยเฉพาะการเลือกนำเสนอ “Gaussian Elimination” ตั้งแต่ต้นเล่ม ก่อนที่จะสร้างพื้นฐานด้านภาพและความเข้าใจเชิงเรขาคณิต หลายคนมองว่าเป็นการ “ข้ามขั้น” และทำให้ผู้อ่านสับสน โดยเฉพาะเมื่อใช้ตัวแปร x และ y สลับบทบาทในหลายบริบท เช่น บางครั้งแทนอาหาร บางครั้งแทนสารอาหาร แม้จะมีข้อถกเถียง แต่หลายเสียงก็ชื่นชมแนวทางการสอนที่ใช้ภาพประกอบและตัวอย่างจริง โดยเฉพาะในยุคที่ Linear Algebra กลายเป็นพื้นฐานของ Machine Learning และ AI การมีสื่อที่เข้าถึงง่ายจึงเป็นสิ่งจำเป็น ✅ ข้อมูลสำคัญจากเนื้อหา ➡️ หนังสือ “An Illustrated Introduction to Linear Algebra” เขียนโดย Aditya Bhargava ➡️ ใช้ภาพประกอบและตัวอย่างจากชีวิตจริง เช่น เหรียญ อาหาร และสารอาหาร ➡️ เน้นการอธิบายแนวคิดเวกเตอร์ เมทริกซ์ และการแปลงเชิงเส้น ➡️ มีการนำเสนอ Gaussian Elimination ตั้งแต่ต้นเล่ม ➡️ ตัวแปร x และ y ถูกใช้ในหลายบริบท ทำให้บางคนสับสน ➡️ หนังสือได้รับความสนใจจากกลุ่มผู้เรียนที่ไม่ถนัดคณิตศาสตร์ ➡️ เป็นสื่อที่เชื่อมโยง Linear Algebra กับการใช้งานจริงใน AI และ ML ✅ ข้อมูลเสริมจากภายนอก ➡️ Gaussian Elimination คือวิธีแก้ระบบสมการเชิงเส้นโดยใช้การแปลงเมทริกซ์ ➡️ Linear Algebra เป็นพื้นฐานของการทำงานของ neural networks และการลดมิติข้อมูล ➡️ Gilbert Strang จาก MIT เป็นหนึ่งในผู้บุกเบิกการสอน Linear Algebra แบบ intuitive ➡️ ช่อง YouTube อย่าง 3Blue1Brown ใช้ภาพเคลื่อนไหวเพื่ออธิบาย Linear Algebra ได้อย่างน่าทึ่ง ➡️ การใช้ภาพและเรื่องเล่าช่วยลดความกลัวคณิตศาสตร์ในกลุ่มผู้เรียนสายศิลป์และมนุษย์ศาสตร์ https://www.ducktyped.org/p/an-illustrated-introduction-to-linear
    0 ความคิดเห็น 0 การแบ่งปัน 210 มุมมอง 0 รีวิว
  • “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน”

    ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้

    SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น

    เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง

    ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้

    การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้

    Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต

    ข้อมูลสำคัญจากข่าว
    Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet
    SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม
    Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ
    ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่
    ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR
    การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F*
    SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม
    ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง

    ข้อมูลเสริมจากภายนอก
    Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function
    ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม
    Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ
    Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์
    SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU

    https://signal.org/blog/spqr/
    🔐 “Signal เปิดตัว Triple Ratchet — ป้องกันแชตจากภัยควอนตัม ด้วย SPQR และการเข้ารหัสแบบผสมผสาน” ในยุคที่การสื่อสารส่วนตัวผ่านแอปแชตกลายเป็นเรื่องพื้นฐานของชีวิตประจำวัน ความปลอดภัยของข้อความจึงเป็นสิ่งที่ไม่อาจละเลย ล่าสุด Signal ได้เปิดตัวการอัปเกรดครั้งสำคัญของโปรโตคอลเข้ารหัสของตนเอง โดยเพิ่มกลไกใหม่ชื่อว่า SPQR (Sparse Post-Quantum Ratchet) เข้ามาเสริมความสามารถของระบบ Double Ratchet เดิม กลายเป็น Triple Ratchet ที่สามารถต้านทานการโจมตีจากคอมพิวเตอร์ควอนตัมในอนาคตได้ SPQR ถูกออกแบบมาเพื่อเสริมความปลอดภัยในสองด้านหลักคือ Forward Secrecy (FS) และ Post-Compromise Security (PCS) โดยใช้เทคนิคการแลกเปลี่ยนกุญแจแบบใหม่ที่เรียกว่า ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนทานต่อการถอดรหัสด้วยควอนตัม และสามารถทำงานร่วมกับระบบเดิมได้อย่างราบรื่น เพื่อให้การแลกเปลี่ยนกุญแจมีประสิทธิภาพสูงสุด ทีมงาน Signal ได้ออกแบบระบบ state machine ที่สามารถจัดการการส่งข้อมูลขนาดใหญ่แบบ chunk และใช้เทคนิค erasure code เพื่อให้การส่งข้อมูลมีความยืดหยุ่นและทนต่อการสูญหายของข้อความระหว่างทาง ที่สำคัญคือ Triple Ratchet ไม่ได้แทนที่ Double Ratchet แต่ใช้ร่วมกัน โดยนำกุญแจจากทั้งสองระบบมาผสมผ่าน Key Derivation Function เพื่อสร้างกุญแจใหม่ที่มีความปลอดภัยแบบผสมผสาน ซึ่งหมายความว่า ผู้โจมตีต้องสามารถเจาะทั้งระบบเดิมและระบบใหม่พร้อมกัน จึงจะสามารถถอดรหัสข้อความได้ การเปิดตัว SPQR ยังมาพร้อมการออกแบบให้สามารถ “downgrade” ได้ในกรณีที่ผู้ใช้ยังไม่ได้อัปเดตแอป ซึ่งช่วยให้การสื่อสารไม่สะดุด และยังคงปลอดภัยในระดับเดิม จนกว่าการอัปเดตจะครอบคลุมทุกผู้ใช้ Signal ยังใช้การตรวจสอบความถูกต้องของโค้ดผ่านระบบ formal verification โดยใช้เครื่องมือเช่น ProVerif และ F* เพื่อให้มั่นใจว่าโปรโตคอลใหม่มีความปลอดภัยจริงตามที่ออกแบบ และจะยังคงปลอดภัยแม้มีการอัปเดตในอนาคต ✅ ข้อมูลสำคัญจากข่าว ➡️ Signal เปิดตัว Triple Ratchet โดยเพิ่ม SPQR เข้ามาเสริม Double Ratchet ➡️ SPQR ใช้ ML-KEM ซึ่งเป็นมาตรฐานการเข้ารหัสที่ทนต่อควอนตัม ➡️ Triple Ratchet ให้ความปลอดภัยแบบ hybrid โดยผสมกุญแจจากสองระบบ ➡️ ใช้ state machine และ erasure code เพื่อจัดการการส่งข้อมูลขนาดใหญ่ ➡️ ระบบสามารถ downgrade ได้หากผู้ใช้ยังไม่รองรับ SPQR ➡️ การตรวจสอบความถูกต้องของโค้ดใช้ formal verification ผ่าน ProVerif และ F* ➡️ SPQR จะถูกนำไปใช้กับทุกข้อความในอนาคตเมื่อการอัปเดตครอบคลุม ➡️ ผู้ใช้ไม่ต้องทำอะไรเพิ่มเติม การเปลี่ยนแปลงจะเกิดขึ้นเบื้องหลัง ✅ ข้อมูลเสริมจากภายนอก ➡️ Double Ratchet เป็นระบบที่ให้ FS และ PCS โดยใช้ ECDH และ hash function ➡️ ML-KEM เป็นหนึ่งในมาตรฐานที่ NIST รับรองสำหรับการเข้ารหัสหลังยุคควอนตัม ➡️ Erasure code ช่วยให้สามารถส่งข้อมูลแบบ chunk โดยไม่ต้องเรียงลำดับ ➡️ Formal verification เป็นกระบวนการตรวจสอบความถูกต้องของโปรโตคอลในระดับคณิตศาสตร์ ➡️ SPQR ได้รับการพัฒนาโดยร่วมมือกับนักวิจัยจาก PQShield, AIST และ NYU https://signal.org/blog/spqr/
    SIGNAL.ORG
    Signal Protocol and Post-Quantum Ratchets
    We are excited to announce a significant advancement in the security of the Signal Protocol: the introduction of the Sparse Post Quantum Ratchet (SPQR). This new ratchet enhances the Signal Protocol’s resilience against future quantum computing threats while maintaining our existing security guar...
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก”

    Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป

    แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด

    Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร

    ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ

    แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต

    ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม

    ข้อมูลสำคัญจากข่าว
    Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ
    Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด
    มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo
    มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1
    ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน
    Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์
    Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure
    เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment
    xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ

    ข้อมูลเสริมจากภายนอก
    Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google
    xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok
    Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา
    Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral
    การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์

    https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    🧠 “Grok 4 เปิดตัวบน Azure AI Foundry — เมื่อ AI ของ Elon Musk กลายเป็นตัวเลือกใหม่สำหรับงานวิเคราะห์ระดับลึก” Microsoft ประกาศเปิดให้ใช้งาน Grok 4 บนแพลตฟอร์ม Azure AI Foundry อย่างเป็นทางการ หลังจากผ่านการทดลองใช้งานแบบส่วนตัว โดย Grok 4 เป็นโมเดล AI จาก xAI ของ Elon Musk ที่เน้นด้าน “frontier-level reasoning” หรือการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ดขั้นสูง มากกว่าการสร้างสรรค์เนื้อหาแบบทั่วไป แม้ Grok 4 จะยังด้อยกว่าคู่แข่งอย่าง GPT-4 และ Gemini ในด้านความเข้าใจภาพและความสามารถแบบมัลติโหมด แต่จุดแข็งของมันคือการประมวลผลข้อมูลเชิงลึกในบริบทที่ซับซ้อน โดยมี context window ขนาดใหญ่ถึง 128,000 tokens ซึ่งเทียบเท่ากับ GPT-4 Turbo และเหนือกว่าหลายโมเดลในตลาด Microsoft เปิดให้ใช้งาน Grok 4 ผ่าน Azure ในรูปแบบ “AI supermarket” ที่ให้ลูกค้าเลือกโมเดลจากหลายผู้พัฒนาได้อย่างอิสระ โดยมี 3 รุ่นให้เลือกใช้งาน ได้แก่ Grok 4 Fast Reasoning สำหรับงานวิเคราะห์, Grok 4 Fast Non-Reasoning สำหรับงานทั่วไป และ Grok Code Fast 1 สำหรับนักพัฒนา โดยทั้งหมดมีจุดเด่นด้านความเร็วและการควบคุมความปลอดภัยระดับองค์กร ราคาการใช้งานอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ซึ่งถือว่าอยู่ในระดับแข่งขันได้เมื่อเทียบกับโมเดลระดับสูงอื่น ๆ แม้ Grok 4 จะมีประสิทธิภาพสูง แต่ก็ไม่ใช่โมเดลที่ “deploy แล้วลืม” เพราะ Microsoft เน้นให้ผู้ใช้งานตั้งระบบ guardrails และตรวจสอบผลลัพธ์อย่างต่อเนื่อง โดยจะมีการเผยแพร่คะแนนความปลอดภัยใหม่ในอนาคต ก่อนหน้านี้ Grok เคยมีประเด็นด้านความปลอดภัย เช่น การตอบคำถามที่ไม่เหมาะสมในเวอร์ชันก่อน ทำให้ Microsoftเลือกใช้แนวทาง “ระมัดระวัง” ในการเปิดตัวบน Azure เพื่อให้มั่นใจว่าการใช้งานจะอยู่ภายใต้การควบคุมที่เหมาะสม ✅ ข้อมูลสำคัญจากข่าว ➡️ Microsoft เปิดให้ใช้งาน Grok 4 บน Azure AI Foundry อย่างเป็นทางการ ➡️ Grok 4 เป็นโมเดลจาก xAI ที่เน้นการวิเคราะห์เชิงตรรกะ วิทยาศาสตร์ และโค้ด ➡️ มี context window ขนาด 128,000 tokens เทียบเท่า GPT-4 Turbo ➡️ มี 3 รุ่นให้เลือกใช้งาน: Fast Reasoning, Fast Non-Reasoning, และ Code Fast 1 ➡️ ราคาอยู่ที่ $5.5 ต่อ input tokens หนึ่งล้าน และ $27.5 ต่อ output tokens หนึ่งล้าน ➡️ Microsoft เน้นให้ผู้ใช้ตั้งระบบ guardrails และตรวจสอบผลลัพธ์ ➡️ Grok 4 เป็นส่วนหนึ่งของแนวคิด “AI supermarket” บน Azure ➡️ เปิดใช้งานทั่วโลกภายใต้หมวด Global Standard Deployment ➡️ xAI เซ็นสัญญากับรัฐบาลสหรัฐฯ เพื่อใช้งาน Grok ในหน่วยงานต่าง ๆ ✅ ข้อมูลเสริมจากภายนอก ➡️ Grok 4 ถูกพัฒนาโดยทีมของ Elon Musk เพื่อแข่งขันกับ OpenAI และ Google ➡️ xAI มีแผนใช้ GPU H100 จำนวน 50 ล้านตัวใน 5 ปีข้างหน้าเพื่อขยายการใช้งาน Grok ➡️ Grok 2.5 เคยเปิดให้ใช้งานแบบโอเพ่นซอร์สเพื่อให้ชุมชนร่วมพัฒนา ➡️ Azure AI Foundry เป็นแพลตฟอร์มที่รวมโมเดลจากหลายผู้พัฒนา เช่น OpenAI, Meta, Mistral ➡️ การใช้ context window ขนาดใหญ่ช่วยให้โมเดลเข้าใจข้อมูลต่อเนื่องได้ดีขึ้นในงานวิเคราะห์ https://www.tomshardware.com/tech-industry/artificial-intelligence/microsoft-adds-grok-4-to-azure-ai-foundry-following-cautious-trials-elon-musks-latest-ai-model-is-now-available-to-deploy-for-frontier-level-reasoning
    0 ความคิดเห็น 0 การแบ่งปัน 232 มุมมอง 0 รีวิว
  • “Claude Sonnet 4.5 เปิดตัวอย่างเป็นทางการ — โมเดล AI ที่เข้าใจโค้ดลึกที่สุด พร้อมความสามารถ reasoning ระดับมนุษย์”

    Anthropic ประกาศเปิดตัว Claude Sonnet 4.5 ซึ่งเป็นโมเดล AI ที่ได้รับการยกย่องว่า “ดีที่สุดในโลกด้านการเขียนโค้ดและการใช้คอมพิวเตอร์” โดยไม่ใช่แค่เร็วหรือแม่นยำ แต่ยังสามารถทำงานแบบ agentic ได้อย่างเต็มรูปแบบ เช่น การวางแผนงานหลายขั้นตอน, การจัดการเครื่องมือ, และการแก้ปัญหาที่ซับซ้อนในระดับที่มนุษย์ทำได้ยาก

    Claude Sonnet 4.5 ทำคะแนนสูงสุดในหลาย benchmark เช่น SWE-bench Verified (82.0%), OSWorld (61.4%) และ AIME 2025 ซึ่งแสดงถึงความสามารถในการ reasoning, คณิตศาสตร์ และการใช้เครื่องมือจริงในโลกการทำงาน โดยเฉพาะในงานที่ต้องใช้ความคิดต่อเนื่องยาวนานกว่า 30 ชั่วโมง

    ในด้านการใช้งานจริง Claude Sonnet 4.5 ถูกนำไปใช้ในหลายองค์กร เช่น Canva, GitHub Copilot, Figma, และ CoCounsel โดยช่วยลดเวลาในการพัฒนา, วิเคราะห์ข้อมูลทางกฎหมาย, และสร้างต้นแบบดีไซน์ได้เร็วขึ้นอย่างมีนัยสำคัญ

    นอกจากนี้ยังมีการเปิดตัวฟีเจอร์ใหม่ใน Claude Code เช่น ระบบ checkpoint, VS Code extension, context editor, และ Claude Agent SDK ที่เปิดให้ผู้พัฒนาสร้าง agent ของตัวเองได้ โดยใช้โครงสร้างเดียวกับที่ Claude ใช้ในการจัดการหน่วยความจำและการทำงานแบบ sub-agent

    ด้านความปลอดภัย Claude Sonnet 4.5 ได้รับการฝึกด้วยแนวทาง AI Safety Level 3 พร้อมระบบ classifier ที่ตรวจจับคำสั่งอันตราย เช่น CBRN (เคมี ชีวภาพ นิวเคลียร์) และมีการลด false positive ลงถึง 10 เท่าเมื่อเทียบกับรุ่นก่อนหน้า

    ข้อมูลสำคัญจากข่าว
    Claude Sonnet 4.5 เปิดตัวอย่างเป็นทางการ พร้อมใช้งานผ่าน API และแอปของ Claude
    เป็นโมเดลที่ดีที่สุดในโลกด้านการเขียนโค้ด, การใช้คอมพิวเตอร์ และ reasoning
    ทำคะแนนสูงสุดใน SWE-bench Verified (82.0%) และ OSWorld (61.4%)
    สามารถทำงานต่อเนื่องได้มากกว่า 30 ชั่วโมงในงานที่ซับซ้อน
    ถูกนำไปใช้งานจริงในองค์กรใหญ่ เช่น Canva, GitHub, Figma, CoCounsel
    Claude Code เพิ่มฟีเจอร์ใหม่ เช่น checkpoint, VS Code extension, context editor
    Claude Agent SDK เปิดให้ผู้พัฒนาสร้าง agent แบบเดียวกับ Claude ได้
    Claude Sonnet 4.5 ใช้ระบบ AI Safety Level 3 พร้อม classifier ป้องกันคำสั่งอันตราย

    ข้อมูลเสริมจากภายนอก
    Claude Sonnet 4.5 ใช้แนวคิด Constitutional AI และ extended thinking เพื่อ reasoning ที่แม่นยำ
    Claude Agent SDK รองรับการจัดการ sub-agent และการทำงานแบบ parallel tool execution
    SWE-bench Verified เป็น benchmark ที่วัดความสามารถในการแก้ปัญหาซอฟต์แวร์จริง
    OSWorld เป็น benchmark ที่วัดการใช้คอมพิวเตอร์ในสถานการณ์จริง เช่น การกรอกฟอร์มหรือจัดการไฟล์
    Claude Sonnet 4.5 มี context window สูงถึง 200K tokens และรองรับการคิดแบบ interleaved

    https://www.anthropic.com/news/claude-sonnet-4-5
    🧠 “Claude Sonnet 4.5 เปิดตัวอย่างเป็นทางการ — โมเดล AI ที่เข้าใจโค้ดลึกที่สุด พร้อมความสามารถ reasoning ระดับมนุษย์” Anthropic ประกาศเปิดตัว Claude Sonnet 4.5 ซึ่งเป็นโมเดล AI ที่ได้รับการยกย่องว่า “ดีที่สุดในโลกด้านการเขียนโค้ดและการใช้คอมพิวเตอร์” โดยไม่ใช่แค่เร็วหรือแม่นยำ แต่ยังสามารถทำงานแบบ agentic ได้อย่างเต็มรูปแบบ เช่น การวางแผนงานหลายขั้นตอน, การจัดการเครื่องมือ, และการแก้ปัญหาที่ซับซ้อนในระดับที่มนุษย์ทำได้ยาก Claude Sonnet 4.5 ทำคะแนนสูงสุดในหลาย benchmark เช่น SWE-bench Verified (82.0%), OSWorld (61.4%) และ AIME 2025 ซึ่งแสดงถึงความสามารถในการ reasoning, คณิตศาสตร์ และการใช้เครื่องมือจริงในโลกการทำงาน โดยเฉพาะในงานที่ต้องใช้ความคิดต่อเนื่องยาวนานกว่า 30 ชั่วโมง ในด้านการใช้งานจริง Claude Sonnet 4.5 ถูกนำไปใช้ในหลายองค์กร เช่น Canva, GitHub Copilot, Figma, และ CoCounsel โดยช่วยลดเวลาในการพัฒนา, วิเคราะห์ข้อมูลทางกฎหมาย, และสร้างต้นแบบดีไซน์ได้เร็วขึ้นอย่างมีนัยสำคัญ นอกจากนี้ยังมีการเปิดตัวฟีเจอร์ใหม่ใน Claude Code เช่น ระบบ checkpoint, VS Code extension, context editor, และ Claude Agent SDK ที่เปิดให้ผู้พัฒนาสร้าง agent ของตัวเองได้ โดยใช้โครงสร้างเดียวกับที่ Claude ใช้ในการจัดการหน่วยความจำและการทำงานแบบ sub-agent ด้านความปลอดภัย Claude Sonnet 4.5 ได้รับการฝึกด้วยแนวทาง AI Safety Level 3 พร้อมระบบ classifier ที่ตรวจจับคำสั่งอันตราย เช่น CBRN (เคมี ชีวภาพ นิวเคลียร์) และมีการลด false positive ลงถึง 10 เท่าเมื่อเทียบกับรุ่นก่อนหน้า ✅ ข้อมูลสำคัญจากข่าว ➡️ Claude Sonnet 4.5 เปิดตัวอย่างเป็นทางการ พร้อมใช้งานผ่าน API และแอปของ Claude ➡️ เป็นโมเดลที่ดีที่สุดในโลกด้านการเขียนโค้ด, การใช้คอมพิวเตอร์ และ reasoning ➡️ ทำคะแนนสูงสุดใน SWE-bench Verified (82.0%) และ OSWorld (61.4%) ➡️ สามารถทำงานต่อเนื่องได้มากกว่า 30 ชั่วโมงในงานที่ซับซ้อน ➡️ ถูกนำไปใช้งานจริงในองค์กรใหญ่ เช่น Canva, GitHub, Figma, CoCounsel ➡️ Claude Code เพิ่มฟีเจอร์ใหม่ เช่น checkpoint, VS Code extension, context editor ➡️ Claude Agent SDK เปิดให้ผู้พัฒนาสร้าง agent แบบเดียวกับ Claude ได้ ➡️ Claude Sonnet 4.5 ใช้ระบบ AI Safety Level 3 พร้อม classifier ป้องกันคำสั่งอันตราย ✅ ข้อมูลเสริมจากภายนอก ➡️ Claude Sonnet 4.5 ใช้แนวคิด Constitutional AI และ extended thinking เพื่อ reasoning ที่แม่นยำ ➡️ Claude Agent SDK รองรับการจัดการ sub-agent และการทำงานแบบ parallel tool execution ➡️ SWE-bench Verified เป็น benchmark ที่วัดความสามารถในการแก้ปัญหาซอฟต์แวร์จริง ➡️ OSWorld เป็น benchmark ที่วัดการใช้คอมพิวเตอร์ในสถานการณ์จริง เช่น การกรอกฟอร์มหรือจัดการไฟล์ ➡️ Claude Sonnet 4.5 มี context window สูงถึง 200K tokens และรองรับการคิดแบบ interleaved https://www.anthropic.com/news/claude-sonnet-4-5
    WWW.ANTHROPIC.COM
    Introducing Claude Sonnet 4.5
    Claude Sonnet 4.5 is the best coding model in the world, strongest model for building complex agents, and best model at using computers.
    0 ความคิดเห็น 0 การแบ่งปัน 220 มุมมอง 0 รีวิว
  • “218 คือขีดสุดของหมากรุก — นักวิจัยยืนยัน ไม่มีตำแหน่งใดที่เล่นได้มากกว่านี้อีกแล้ว”

    ในโลกของหมากรุก มีคำถามหนึ่งที่ค้างคาใจนักคิดมานานหลายสิบปี: “ตำแหน่งใดในกระดานที่มีจำนวนการเดินที่เป็นไปได้มากที่สุด?” คำตอบที่เคยถูกเสนอโดยปรมาจารย์ด้านการจัดวางหมาก Nenad Petrović ในปี 1964 คือ 218 การเดินสำหรับฝั่งขาว และไม่มีใครสามารถหาตำแหน่งที่มีมากกว่านั้นได้เลย

    ล่าสุดในปี 2024 นักวิจัยและนักวิทยาการคอมพิวเตอร์นามว่า Tobs40 ได้ใช้เทคนิคทางคณิตศาสตร์และการเขียนโปรแกรมขั้นสูงเพื่อพิสูจน์ว่า “ไม่มีตำแหน่งที่สามารถเล่นได้มากกว่า 218 ครั้ง” หากตำแหน่งนั้นต้องสามารถเกิดขึ้นได้จริงจากการเล่นตามกฎหมากรุก

    การพิสูจน์นี้ไม่ใช่เรื่องง่าย เพราะจำนวนตำแหน่งที่เป็นไปได้ในหมากรุกมีมากถึงประมาณ 4.8 × 10⁴⁴ ตำแหน่ง ซึ่งมากกว่าการเดารหัสผ่าน 23 ตัวอักษรเสียอีก นักวิจัยจึงใช้วิธี “ลดขนาดปัญหา” โดยพิจารณาเฉพาะตำแหน่งที่มีโอกาสสร้างจำนวนการเดินสูง และใช้เทคนิคการประมาณแบบ fractional (เช่น ให้เบี้ยอยู่บนช่อง e4 แบบ 27.3%) เพื่อให้คอมพิวเตอร์สามารถ “ว่ายผ่าน” ตำแหน่งต่าง ๆ ได้เร็วขึ้น

    แม้จะใช้ซอฟต์แวร์ระดับโลกอย่าง Gurobi และปรับแต่งโมเดลอย่างหนัก แต่การคำนวณก็ยังใช้เวลานานถึงหลายหมื่นวินาที และต้องใช้หน่วยความจำมหาศาล สุดท้าย Gurobi ได้แสดงผลลัพธ์ว่า “ไม่มีตำแหน่งใดที่สามารถเล่นได้มากกว่า 218 ครั้ง” และยังยืนยันว่า 218 เป็นค่าบนสุดที่เป็นไปได้ในตำแหน่งที่สามารถเกิดขึ้นจริงจากการเล่นตามกฎ

    นอกจากนี้ ยังมีการยืนยันว่าตำแหน่งที่ไม่มีการโปรโมตเบี้ยจะมีจำนวนการเดินสูงสุดที่ 144 ครั้ง และตำแหน่งที่ผิดกฎ (เช่น มีเบี้ยหลายตัวบนช่องเดียวกัน) อาจมีได้ถึง 288 การเดิน แต่ไม่สามารถเกิดขึ้นได้จริงจากการเล่นตามกฎ

    ข้อมูลสำคัญจากข่าว
    ตำแหน่งที่มีจำนวนการเดินสูงสุดคือ 218 ครั้ง สำหรับฝั่งขาว
    ตำแหน่งนี้ถูกเสนอโดย Nenad Petrović ในปี 1964 และได้รับการพิสูจน์ในปี 2024
    นักวิจัยใช้เทคนิคทางคณิตศาสตร์และการเขียนโปรแกรมเพื่อพิสูจน์
    ใช้ซอฟต์แวร์ Gurobi ในการแก้ปัญหาแบบ integer programming
    มีการใช้เทคนิค fractional เพื่อเร่งการค้นหาตำแหน่งที่เหมาะสม
    ตำแหน่งที่ไม่มีการโปรโมตเบี้ยมีจำนวนการเดินสูงสุดที่ 144 ครั้ง
    ตำแหน่งที่ผิดกฎสามารถมีได้ถึง 288 การเดิน แต่ไม่สามารถเกิดขึ้นจริง
    ผลลัพธ์ยืนยันว่าไม่มีตำแหน่งที่ reachable ที่มีมากกว่า 218 การเดิน
    มีการเผยแพร่โค้ดบน GitHub เพื่อให้ผู้สนใจนำไปต่อยอด

    ข้อมูลเสริมจากภายนอก
    จำนวนตำแหน่งที่เป็นไปได้ในหมากรุกมีมากถึง ~4.8 × 10⁴⁴
    การใช้ fractional decision เป็นเทคนิคใน optimization ที่ช่วยลดเวลาในการคำนวณ
    Gurobi เป็นหนึ่งใน solver ที่ใช้ในงานวิจัยระดับโลก เช่น logistics, AI และการเงิน
    ตำแหน่งที่มีการเดินมากมักมีเบี้ยใกล้โปรโมต และไม่มีการเช็คจากฝ่ายตรงข้าม
    การพิสูจน์นี้ช่วยให้การพัฒนา engine หมากรุกสามารถใช้ค่าขีดจำกัดที่แน่นอนได้

    https://lichess.org/@/Tobs40/blog/why-a-reachable-position-cant-have-more-than-218-playable-moves/a5xdxeqs
    ♟️ “218 คือขีดสุดของหมากรุก — นักวิจัยยืนยัน ไม่มีตำแหน่งใดที่เล่นได้มากกว่านี้อีกแล้ว” ในโลกของหมากรุก มีคำถามหนึ่งที่ค้างคาใจนักคิดมานานหลายสิบปี: “ตำแหน่งใดในกระดานที่มีจำนวนการเดินที่เป็นไปได้มากที่สุด?” คำตอบที่เคยถูกเสนอโดยปรมาจารย์ด้านการจัดวางหมาก Nenad Petrović ในปี 1964 คือ 218 การเดินสำหรับฝั่งขาว และไม่มีใครสามารถหาตำแหน่งที่มีมากกว่านั้นได้เลย ล่าสุดในปี 2024 นักวิจัยและนักวิทยาการคอมพิวเตอร์นามว่า Tobs40 ได้ใช้เทคนิคทางคณิตศาสตร์และการเขียนโปรแกรมขั้นสูงเพื่อพิสูจน์ว่า “ไม่มีตำแหน่งที่สามารถเล่นได้มากกว่า 218 ครั้ง” หากตำแหน่งนั้นต้องสามารถเกิดขึ้นได้จริงจากการเล่นตามกฎหมากรุก การพิสูจน์นี้ไม่ใช่เรื่องง่าย เพราะจำนวนตำแหน่งที่เป็นไปได้ในหมากรุกมีมากถึงประมาณ 4.8 × 10⁴⁴ ตำแหน่ง ซึ่งมากกว่าการเดารหัสผ่าน 23 ตัวอักษรเสียอีก นักวิจัยจึงใช้วิธี “ลดขนาดปัญหา” โดยพิจารณาเฉพาะตำแหน่งที่มีโอกาสสร้างจำนวนการเดินสูง และใช้เทคนิคการประมาณแบบ fractional (เช่น ให้เบี้ยอยู่บนช่อง e4 แบบ 27.3%) เพื่อให้คอมพิวเตอร์สามารถ “ว่ายผ่าน” ตำแหน่งต่าง ๆ ได้เร็วขึ้น แม้จะใช้ซอฟต์แวร์ระดับโลกอย่าง Gurobi และปรับแต่งโมเดลอย่างหนัก แต่การคำนวณก็ยังใช้เวลานานถึงหลายหมื่นวินาที และต้องใช้หน่วยความจำมหาศาล สุดท้าย Gurobi ได้แสดงผลลัพธ์ว่า “ไม่มีตำแหน่งใดที่สามารถเล่นได้มากกว่า 218 ครั้ง” และยังยืนยันว่า 218 เป็นค่าบนสุดที่เป็นไปได้ในตำแหน่งที่สามารถเกิดขึ้นจริงจากการเล่นตามกฎ นอกจากนี้ ยังมีการยืนยันว่าตำแหน่งที่ไม่มีการโปรโมตเบี้ยจะมีจำนวนการเดินสูงสุดที่ 144 ครั้ง และตำแหน่งที่ผิดกฎ (เช่น มีเบี้ยหลายตัวบนช่องเดียวกัน) อาจมีได้ถึง 288 การเดิน แต่ไม่สามารถเกิดขึ้นได้จริงจากการเล่นตามกฎ ✅ ข้อมูลสำคัญจากข่าว ➡️ ตำแหน่งที่มีจำนวนการเดินสูงสุดคือ 218 ครั้ง สำหรับฝั่งขาว ➡️ ตำแหน่งนี้ถูกเสนอโดย Nenad Petrović ในปี 1964 และได้รับการพิสูจน์ในปี 2024 ➡️ นักวิจัยใช้เทคนิคทางคณิตศาสตร์และการเขียนโปรแกรมเพื่อพิสูจน์ ➡️ ใช้ซอฟต์แวร์ Gurobi ในการแก้ปัญหาแบบ integer programming ➡️ มีการใช้เทคนิค fractional เพื่อเร่งการค้นหาตำแหน่งที่เหมาะสม ➡️ ตำแหน่งที่ไม่มีการโปรโมตเบี้ยมีจำนวนการเดินสูงสุดที่ 144 ครั้ง ➡️ ตำแหน่งที่ผิดกฎสามารถมีได้ถึง 288 การเดิน แต่ไม่สามารถเกิดขึ้นจริง ➡️ ผลลัพธ์ยืนยันว่าไม่มีตำแหน่งที่ reachable ที่มีมากกว่า 218 การเดิน ➡️ มีการเผยแพร่โค้ดบน GitHub เพื่อให้ผู้สนใจนำไปต่อยอด ✅ ข้อมูลเสริมจากภายนอก ➡️ จำนวนตำแหน่งที่เป็นไปได้ในหมากรุกมีมากถึง ~4.8 × 10⁴⁴ ➡️ การใช้ fractional decision เป็นเทคนิคใน optimization ที่ช่วยลดเวลาในการคำนวณ ➡️ Gurobi เป็นหนึ่งใน solver ที่ใช้ในงานวิจัยระดับโลก เช่น logistics, AI และการเงิน ➡️ ตำแหน่งที่มีการเดินมากมักมีเบี้ยใกล้โปรโมต และไม่มีการเช็คจากฝ่ายตรงข้าม ➡️ การพิสูจน์นี้ช่วยให้การพัฒนา engine หมากรุกสามารถใช้ค่าขีดจำกัดที่แน่นอนได้ https://lichess.org/@/Tobs40/blog/why-a-reachable-position-cant-have-more-than-218-playable-moves/a5xdxeqs
    LICHESS.ORG
    Why a reachable position can't have more than 218 playable moves
    I hope that the title is unambiguous enough now and I wholeheartedly apologize to all the people who thought that it was about 218 move long games! .___.
    0 ความคิดเห็น 0 การแบ่งปัน 184 มุมมอง 0 รีวิว
  • ลูกครึ่ง หรือ นกสองหัว ตอนที่ 7 – ครู
    นิทานเรื่องจริง เรื่อง “ลูกครึ่ง หรือ นกสองหัว”
    ตอนที่ 7 “ครู”
    Fethullah Gulen เป็นใคร เส้นชีวิตเขาน่าสนใจไม่เบา เก็บจากรายงานการวิเคราะห์สัมพันธ์ภาพระหว่างอเมริกากับตุรกี ที่ทำโดย CFR เมื่อค.ศ. 2012 ได้ความว่า Fethullah Gulen เป็นชาวตุรกี เกิดเมื่อปี ค.ศ. 1941 ที่ Koruchuk หมู่บ้านเล็ก ๆ ของ Ezurum ซึ่งเป็นเมืองอยู่ทางชายแดนด้านตะวันออกของตุรกี การเรียนของเขาไม่ค่อยโดดเด่น เนื่องจากครอบครัวอพยพ ย้ายที่ไปเรื่อย ๆ แต่เขาเป็นคนใฝ่ดี สนใจ วิทยาศาสตร์ วรรณคดี ประวัติศาสตร์ และปรัญชา โดยเฉพาะปรัญชาของทางฝั่งตะวันตก เช่น Albert Camus และ Jean-Paul Sartre เขาศึกษาเกี่ยวกับศาสนาอิสลามด้วยตนเอง โดยการสวดและท่องจำ (อืม ! ประวัติแบบนี้ คนเขียนแต่งได้น่าสนใจจริง)
    ปี ค.ศ. 1966 เขาได้เป็นผู้บริหารโรงเรียนทางศาสนาที่ Ismir เขาใช้วิธีสอน โดยเอาความรู้เกี่ยวกับวิทยาศาสตร์ มาผสมผสานกับด้านศาสนา ซึ่งเขาบอกว่าเขาได้รับอิทธิพลมาจาก Said Nursi ซึ่งเป็นนักปฎิรูปใหญ่ของอิสลาม Nursi เป็นผู้ต่อต้านลัทธิคอมมิวนิสต์ตัวยง ส่วน Gulen เอง ก็มีแนวโน้มไปในทางเป็นนายทุน คงเป็นเส้นทางที่ทำให้เขาคบกับอเมริกาได้อย่างไม่ขัดเขิน
    ปัจจุบัน Gulen เป็นหัวหน้ากลุ่ม Hizmet ซึ่งเป็นขบวนการทางศาสนาและเกี่ยว ข้องกับการเมือง มีเครือข่ายทั่วโลก เป็นโรงเรียนสอนภาษาอังกฤษ โรงเรียนสอนศาสนา สื่อและองค์กรการกุศล มูลค่ารวมประมาณกว่า 20 พันล้านเหรียญ !
    Hizmet มีสาวกเฉพาะในตุรกีถึง 3 ล้านคน นี่ยังไม่ได้นับในอเมริกาและส่วนอื่นของโลก Hizmet เน้นที่จะสร้างอิสลามยุคใหม่ เพื่อรัฐตุรกีใหม่ เป็นอิสลามที่มีการศึกษา เขาให้คุณค่ากับคนชั้นกลางที่ทำ งานวิชาชีพ โดยเฉพาะด้านวิทยาศาสตร์ คณิตศาสตร์ เคมี ฟิสิกซ์ นอกจากนี้เขายังสนับสนุน พวกทำงานให้รัฐ เช่น ผู้พิพากษาและตำรวจ เป็นกลุ่มคนที่เขาบอกว่าเหมาะสมที่จะสร้างสังคมใหม่ของอิสลาม ที่มองเห็นคุณค่าของศาสนาต่างกับของเดิม (มันเขียนพิมพ์เขียว สร้างรูปแบบใกล้เคียงกันหมด แม้กระทั่งในบ้านเรา!)
    กลุ่มผู้สนับสนุน Gulen กับสนับสนุน พรรค AKP ของนาย Erdogan ก็เกือบจะเป็นกลุ่มเดียวกัน และในช่วงแรกดูเหมือน นาย Gulen กับพวกหัวหน้าของ AKP รวมทั้งตัวนาย Erdogan ก็ดูจะไปกันได้ดี เพราะมีแนวทางที่จะปฏิรูปศาสนาให้ทันสมัยขึ้นและนำมาปรับใช้ให้สอดคล้อง กับการบริหารประเทศ ซึ่งเป็นแนวทุนนิยมเสรี (ชัดเจนดี)
    แต่ไป ๆ มา ๆ อิทธิพลของนาย Gulen ชักจะแพร่กระจายมากขึ้น โดยเฉพาะในกลุ่มตำรวจ ข้าราชการฝ่ายตุลาการและผู้พิพากษา (นี่ มันเรื่องในตุรกีนะครับ ขอย้ำอีกที) ในการเทศน์ออกโทรทัศน์ เมื่อ ค.ศ. 1999 นาย Gulen กล่าวว่า
    “พวกท่านจะต้องเจาะเข้าไปในเส้นเลือดใหญ่ของระบบ โดยไม่ให้มีการไหวตัว ถึงความมีอยู่และการกระทำของท่าน จนกว่าท่านจะเข้าไปถึงอำนาจที่อยู่ในใจกลาง… ท่านจะต้องคอย จนเมื่อท่านได้อำนาจของรัฐทั้งหมด มาอยู่ในมือแล้ว และเมื่อนั้นท่านจะได้อำนาจทั้งหมด ตามรัฐธรรมนูญของตุรกี” (ยังไงไม่ทราบ ผมเขียนข้อความนี้ แล้วทำให้นึกถึงเสียงและหน้าของยายนกแสก ทำไมมันให้ความรู้สึกเดียวกัน ! ?)
    หลังจากการเทศน์อันเด็ดดวง นาย Gulen ก็เก็บของอพยพไปอยู่อเมริกาในปีนั้นเอง โดยอ้างว่าจะไปรักษาตัว (ข้ออ้างสูตรสำเร็จ) แม้ว่าตอนนั้น จะยังไม่มีทีท่าว่าจะโดนจับ หรือโดนขู่แต่อย่างไร
    เขาอยู่อเมริกามาตั้งแต่ ค.ศ. 1999 จนถึงบัดนี้ก็ยังอยู่ ในคฤหาสน์ใหญ่โตมโหฬารบริเวณกว้างขวาง ที่ Saylosburg ทางตะวันออกของมลรัฐ Pennsylvania มีรั้วรอบขอบชิด มียามท่าทางขึงขัง ตลอดแนวบริเวณอาณาเขต
    ครูสอนศาสนาจากบ้านนอกของตุรกีมาได้ไกลถึงเพียงนี้ แถมอเมริกา ต้อนรับขับสู้อย่างดี ขาดแต่ปูพรมแดงรับ น่าจะมีเบื้องหลัง เบื้องหน้ามากกว่าที่ CFR เอามาเล่า
    สวัสดีครับ
คนเล่านิทาน
21 กค. 2557
    ลูกครึ่ง หรือ นกสองหัว ตอนที่ 7 – ครู นิทานเรื่องจริง เรื่อง “ลูกครึ่ง หรือ นกสองหัว” ตอนที่ 7 “ครู” Fethullah Gulen เป็นใคร เส้นชีวิตเขาน่าสนใจไม่เบา เก็บจากรายงานการวิเคราะห์สัมพันธ์ภาพระหว่างอเมริกากับตุรกี ที่ทำโดย CFR เมื่อค.ศ. 2012 ได้ความว่า Fethullah Gulen เป็นชาวตุรกี เกิดเมื่อปี ค.ศ. 1941 ที่ Koruchuk หมู่บ้านเล็ก ๆ ของ Ezurum ซึ่งเป็นเมืองอยู่ทางชายแดนด้านตะวันออกของตุรกี การเรียนของเขาไม่ค่อยโดดเด่น เนื่องจากครอบครัวอพยพ ย้ายที่ไปเรื่อย ๆ แต่เขาเป็นคนใฝ่ดี สนใจ วิทยาศาสตร์ วรรณคดี ประวัติศาสตร์ และปรัญชา โดยเฉพาะปรัญชาของทางฝั่งตะวันตก เช่น Albert Camus และ Jean-Paul Sartre เขาศึกษาเกี่ยวกับศาสนาอิสลามด้วยตนเอง โดยการสวดและท่องจำ (อืม ! ประวัติแบบนี้ คนเขียนแต่งได้น่าสนใจจริง) ปี ค.ศ. 1966 เขาได้เป็นผู้บริหารโรงเรียนทางศาสนาที่ Ismir เขาใช้วิธีสอน โดยเอาความรู้เกี่ยวกับวิทยาศาสตร์ มาผสมผสานกับด้านศาสนา ซึ่งเขาบอกว่าเขาได้รับอิทธิพลมาจาก Said Nursi ซึ่งเป็นนักปฎิรูปใหญ่ของอิสลาม Nursi เป็นผู้ต่อต้านลัทธิคอมมิวนิสต์ตัวยง ส่วน Gulen เอง ก็มีแนวโน้มไปในทางเป็นนายทุน คงเป็นเส้นทางที่ทำให้เขาคบกับอเมริกาได้อย่างไม่ขัดเขิน ปัจจุบัน Gulen เป็นหัวหน้ากลุ่ม Hizmet ซึ่งเป็นขบวนการทางศาสนาและเกี่ยว ข้องกับการเมือง มีเครือข่ายทั่วโลก เป็นโรงเรียนสอนภาษาอังกฤษ โรงเรียนสอนศาสนา สื่อและองค์กรการกุศล มูลค่ารวมประมาณกว่า 20 พันล้านเหรียญ ! Hizmet มีสาวกเฉพาะในตุรกีถึง 3 ล้านคน นี่ยังไม่ได้นับในอเมริกาและส่วนอื่นของโลก Hizmet เน้นที่จะสร้างอิสลามยุคใหม่ เพื่อรัฐตุรกีใหม่ เป็นอิสลามที่มีการศึกษา เขาให้คุณค่ากับคนชั้นกลางที่ทำ งานวิชาชีพ โดยเฉพาะด้านวิทยาศาสตร์ คณิตศาสตร์ เคมี ฟิสิกซ์ นอกจากนี้เขายังสนับสนุน พวกทำงานให้รัฐ เช่น ผู้พิพากษาและตำรวจ เป็นกลุ่มคนที่เขาบอกว่าเหมาะสมที่จะสร้างสังคมใหม่ของอิสลาม ที่มองเห็นคุณค่าของศาสนาต่างกับของเดิม (มันเขียนพิมพ์เขียว สร้างรูปแบบใกล้เคียงกันหมด แม้กระทั่งในบ้านเรา!) กลุ่มผู้สนับสนุน Gulen กับสนับสนุน พรรค AKP ของนาย Erdogan ก็เกือบจะเป็นกลุ่มเดียวกัน และในช่วงแรกดูเหมือน นาย Gulen กับพวกหัวหน้าของ AKP รวมทั้งตัวนาย Erdogan ก็ดูจะไปกันได้ดี เพราะมีแนวทางที่จะปฏิรูปศาสนาให้ทันสมัยขึ้นและนำมาปรับใช้ให้สอดคล้อง กับการบริหารประเทศ ซึ่งเป็นแนวทุนนิยมเสรี (ชัดเจนดี) แต่ไป ๆ มา ๆ อิทธิพลของนาย Gulen ชักจะแพร่กระจายมากขึ้น โดยเฉพาะในกลุ่มตำรวจ ข้าราชการฝ่ายตุลาการและผู้พิพากษา (นี่ มันเรื่องในตุรกีนะครับ ขอย้ำอีกที) ในการเทศน์ออกโทรทัศน์ เมื่อ ค.ศ. 1999 นาย Gulen กล่าวว่า “พวกท่านจะต้องเจาะเข้าไปในเส้นเลือดใหญ่ของระบบ โดยไม่ให้มีการไหวตัว ถึงความมีอยู่และการกระทำของท่าน จนกว่าท่านจะเข้าไปถึงอำนาจที่อยู่ในใจกลาง… ท่านจะต้องคอย จนเมื่อท่านได้อำนาจของรัฐทั้งหมด มาอยู่ในมือแล้ว และเมื่อนั้นท่านจะได้อำนาจทั้งหมด ตามรัฐธรรมนูญของตุรกี” (ยังไงไม่ทราบ ผมเขียนข้อความนี้ แล้วทำให้นึกถึงเสียงและหน้าของยายนกแสก ทำไมมันให้ความรู้สึกเดียวกัน ! ?) หลังจากการเทศน์อันเด็ดดวง นาย Gulen ก็เก็บของอพยพไปอยู่อเมริกาในปีนั้นเอง โดยอ้างว่าจะไปรักษาตัว (ข้ออ้างสูตรสำเร็จ) แม้ว่าตอนนั้น จะยังไม่มีทีท่าว่าจะโดนจับ หรือโดนขู่แต่อย่างไร เขาอยู่อเมริกามาตั้งแต่ ค.ศ. 1999 จนถึงบัดนี้ก็ยังอยู่ ในคฤหาสน์ใหญ่โตมโหฬารบริเวณกว้างขวาง ที่ Saylosburg ทางตะวันออกของมลรัฐ Pennsylvania มีรั้วรอบขอบชิด มียามท่าทางขึงขัง ตลอดแนวบริเวณอาณาเขต ครูสอนศาสนาจากบ้านนอกของตุรกีมาได้ไกลถึงเพียงนี้ แถมอเมริกา ต้อนรับขับสู้อย่างดี ขาดแต่ปูพรมแดงรับ น่าจะมีเบื้องหลัง เบื้องหน้ามากกว่าที่ CFR เอามาเล่า สวัสดีครับ
คนเล่านิทาน
21 กค. 2557
    0 ความคิดเห็น 0 การแบ่งปัน 368 มุมมอง 0 รีวิว
  • “Markov Chains: ต้นกำเนิดของโมเดลภาษา — เมื่อความน่าจะเป็นกลายเป็นเครื่องมือสร้างภาษา”

    ในบทความที่เขียนโดย Elijah Potter นักเรียนมัธยมปลายผู้หลงใหลในคณิตศาสตร์และการเขียนโปรแกรม ได้ย้อนกลับไปสำรวจรากฐานของโมเดลภาษา (Language Models) ผ่านมุมมองของ Markov Chains ซึ่งเป็นระบบทางคณิตศาสตร์ที่ใช้ในการคาดการณ์เหตุการณ์แบบสุ่ม โดยอิงจากสถานะก่อนหน้าเพียงหนึ่งขั้นตอน

    Potter เริ่มต้นด้วยการเล่าประสบการณ์ส่วนตัวเกี่ยวกับวงจรความรู้สึกต่อ AI ตั้งแต่ความตื่นเต้น ความผิดหวัง ความสับสน จนถึงความเบื่อหน่าย และนำไปสู่ความตั้งใจที่จะ “กลับไปสู่รากฐาน” ด้วยการศึกษาระบบที่เรียบง่ายแต่ทรงพลังอย่าง Markov Chains

    เขาอธิบายหลักการของ Markov Chains ผ่านตัวอย่างของ Alice ที่อยู่ระหว่างร้านขายของชำและท้องฟ้าจำลอง โดยใช้ตารางความน่าจะเป็นในการคาดการณ์การเคลื่อนที่ของเธอในแต่ละชั่วโมง ซึ่งสามารถแปลงเป็น matrix และ vector เพื่อคำนวณสถานะในอนาคตได้อย่างแม่นยำ

    จากนั้น Potter นำแนวคิดนี้มาประยุกต์ใช้กับการสร้างระบบ autocomplete โดยใช้ภาษา Rust และ WebAssembly ในการสร้าง transition matrix จากข้อความตัวอย่าง แล้วใช้ matrix multiplication เพื่อคาดการณ์คำถัดไปที่มีความเป็นไปได้สูงที่สุด

    เขายังพูดถึงข้อจำกัดของ Markov Chains ในการสร้างข้อความแบบต่อเนื่อง เพราะระบบจะมีแนวโน้มเข้าสู่ “steady state” หรือสถานะคงที่เมื่อรันไปนาน ๆ ทำให้ข้อความที่สร้างออกมาดูซ้ำซากและคาดเดาได้ง่าย จึงเสนอวิธีการสุ่มแบบใหม่โดยใช้ matrix R ที่มีค่าบนเส้นทแยงมุมเป็นตัวเลขสุ่ม เพื่อเพิ่มความหลากหลายในการเลือกคำ

    บทความนี้ไม่เพียงแต่เป็นการสาธิตเชิงเทคนิค แต่ยังสะท้อนถึงความพยายามในการเข้าใจโมเดลภาษาอย่างลึกซึ้ง โดยไม่พึ่งพา “เวทมนตร์ของ AI” ที่หลายคนรู้สึกว่าเข้าใจยากและควบคุมไม่ได้

    ข้อมูลสำคัญจากบทความ
    Elijah Potter ใช้ Markov Chains เพื่อสร้างระบบ autocomplete ด้วย Rust และ WebAssembly
    อธิบายหลักการผ่านตัวอย่าง Alice ที่เคลื่อนที่ระหว่างสถานที่ด้วยความน่าจะเป็น
    ใช้ matrix และ vector ในการคำนวณสถานะในอนาคต
    สร้าง transition matrix จากข้อความตัวอย่างเพื่อคาดการณ์คำถัดไป
    ระบบสามารถเลือกคำถัดไปโดยใช้ matrix multiplication
    เสนอวิธีสุ่มคำถัดไปโดยใช้ matrix R เพื่อหลีกเลี่ยงการเข้าสู่ steady state
    บทความสะท้อนความตั้งใจในการเข้าใจโมเดลภาษาอย่างโปร่งใสและควบคุมได้

    ข้อมูลเสริมจากภายนอก
    Markov Chains ถูกคิดค้นโดย Andrey Markov ในศตวรรษที่ 20 เพื่อศึกษาลำดับเหตุการณ์แบบสุ่ม
    โมเดลภาษาในยุคแรก เช่น Shannon’s bigram model ก็ใช้แนวคิดคล้าย Markov
    โมเดล GPT และ Transformer ใช้บริบทหลายคำ ไม่ใช่แค่คำก่อนหน้าเดียวแบบ Markov
    Steady state ใน Markov Chains คือสถานะที่ความน่าจะเป็นไม่เปลี่ยนแปลงเมื่อรันไปนาน ๆ
    การใช้ matrix multiplication ในการคำนวณความน่าจะเป็นเป็นพื้นฐานของหลายระบบ AI

    https://elijahpotter.dev/articles/markov_chains_are_the_original_language_models
    🔁 “Markov Chains: ต้นกำเนิดของโมเดลภาษา — เมื่อความน่าจะเป็นกลายเป็นเครื่องมือสร้างภาษา” ในบทความที่เขียนโดย Elijah Potter นักเรียนมัธยมปลายผู้หลงใหลในคณิตศาสตร์และการเขียนโปรแกรม ได้ย้อนกลับไปสำรวจรากฐานของโมเดลภาษา (Language Models) ผ่านมุมมองของ Markov Chains ซึ่งเป็นระบบทางคณิตศาสตร์ที่ใช้ในการคาดการณ์เหตุการณ์แบบสุ่ม โดยอิงจากสถานะก่อนหน้าเพียงหนึ่งขั้นตอน Potter เริ่มต้นด้วยการเล่าประสบการณ์ส่วนตัวเกี่ยวกับวงจรความรู้สึกต่อ AI ตั้งแต่ความตื่นเต้น ความผิดหวัง ความสับสน จนถึงความเบื่อหน่าย และนำไปสู่ความตั้งใจที่จะ “กลับไปสู่รากฐาน” ด้วยการศึกษาระบบที่เรียบง่ายแต่ทรงพลังอย่าง Markov Chains เขาอธิบายหลักการของ Markov Chains ผ่านตัวอย่างของ Alice ที่อยู่ระหว่างร้านขายของชำและท้องฟ้าจำลอง โดยใช้ตารางความน่าจะเป็นในการคาดการณ์การเคลื่อนที่ของเธอในแต่ละชั่วโมง ซึ่งสามารถแปลงเป็น matrix และ vector เพื่อคำนวณสถานะในอนาคตได้อย่างแม่นยำ จากนั้น Potter นำแนวคิดนี้มาประยุกต์ใช้กับการสร้างระบบ autocomplete โดยใช้ภาษา Rust และ WebAssembly ในการสร้าง transition matrix จากข้อความตัวอย่าง แล้วใช้ matrix multiplication เพื่อคาดการณ์คำถัดไปที่มีความเป็นไปได้สูงที่สุด เขายังพูดถึงข้อจำกัดของ Markov Chains ในการสร้างข้อความแบบต่อเนื่อง เพราะระบบจะมีแนวโน้มเข้าสู่ “steady state” หรือสถานะคงที่เมื่อรันไปนาน ๆ ทำให้ข้อความที่สร้างออกมาดูซ้ำซากและคาดเดาได้ง่าย จึงเสนอวิธีการสุ่มแบบใหม่โดยใช้ matrix R ที่มีค่าบนเส้นทแยงมุมเป็นตัวเลขสุ่ม เพื่อเพิ่มความหลากหลายในการเลือกคำ บทความนี้ไม่เพียงแต่เป็นการสาธิตเชิงเทคนิค แต่ยังสะท้อนถึงความพยายามในการเข้าใจโมเดลภาษาอย่างลึกซึ้ง โดยไม่พึ่งพา “เวทมนตร์ของ AI” ที่หลายคนรู้สึกว่าเข้าใจยากและควบคุมไม่ได้ ✅ ข้อมูลสำคัญจากบทความ ➡️ Elijah Potter ใช้ Markov Chains เพื่อสร้างระบบ autocomplete ด้วย Rust และ WebAssembly ➡️ อธิบายหลักการผ่านตัวอย่าง Alice ที่เคลื่อนที่ระหว่างสถานที่ด้วยความน่าจะเป็น ➡️ ใช้ matrix และ vector ในการคำนวณสถานะในอนาคต ➡️ สร้าง transition matrix จากข้อความตัวอย่างเพื่อคาดการณ์คำถัดไป ➡️ ระบบสามารถเลือกคำถัดไปโดยใช้ matrix multiplication ➡️ เสนอวิธีสุ่มคำถัดไปโดยใช้ matrix R เพื่อหลีกเลี่ยงการเข้าสู่ steady state ➡️ บทความสะท้อนความตั้งใจในการเข้าใจโมเดลภาษาอย่างโปร่งใสและควบคุมได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Markov Chains ถูกคิดค้นโดย Andrey Markov ในศตวรรษที่ 20 เพื่อศึกษาลำดับเหตุการณ์แบบสุ่ม ➡️ โมเดลภาษาในยุคแรก เช่น Shannon’s bigram model ก็ใช้แนวคิดคล้าย Markov ➡️ โมเดล GPT และ Transformer ใช้บริบทหลายคำ ไม่ใช่แค่คำก่อนหน้าเดียวแบบ Markov ➡️ Steady state ใน Markov Chains คือสถานะที่ความน่าจะเป็นไม่เปลี่ยนแปลงเมื่อรันไปนาน ๆ ➡️ การใช้ matrix multiplication ในการคำนวณความน่าจะเป็นเป็นพื้นฐานของหลายระบบ AI https://elijahpotter.dev/articles/markov_chains_are_the_original_language_models
    ELIJAHPOTTER.DEV
    Markov Chains Are the Original Language Models
    Back in my day, we used math for autocomplete.
    0 ความคิดเห็น 0 การแบ่งปัน 278 มุมมอง 0 รีวิว
  • “Terence Tao กับแนวคิดสังคมมนุษย์ 4 ระดับ — เมื่อคณิตศาสตร์กลายเป็นเครื่องมือเข้าใจโลก ไม่ใช่แค่ตัวเลข”

    Terence Tao นักคณิตศาสตร์ระดับโลก ได้โพสต์ข้อคิดเห็นเชิงปรัชญาและสังคมบน Mathstodon ซึ่งสะท้อนมุมมองของเขาต่อโครงสร้างสังคมมนุษย์ในยุคปัจจุบัน โดยแบ่งออกเป็น 4 ระดับ ได้แก่:

    1️⃣ มนุษย์แต่ละคน
    2️⃣ กลุ่มเล็กที่จัดตั้งขึ้น (เช่น ครอบครัว เพื่อน กลุ่มอาสาสมัคร หรือชุมชนออนไลน์ขนาดเล็ก)
    3️⃣ กลุ่มใหญ่ที่จัดตั้งขึ้น (เช่น รัฐบาล บริษัทข้ามชาติ หรือแพลตฟอร์มโซเชียลมีเดีย)
    4️⃣ ระบบซับซ้อนระดับโลก (เช่น เศรษฐกิจโลก วัฒนธรรมไวรัล หรือสภาพภูมิอากาศ)

    Tao ชี้ว่าในยุคดิจิทัล กลุ่มใหญ่ได้รับพลังเพิ่มขึ้นอย่างมหาศาลจากเทคโนโลยีและระบบแรงจูงใจ ขณะที่กลุ่มเล็กกลับถูกลดบทบาทลงอย่างต่อเนื่อง ส่งผลให้มนุษย์แต่ละคนรู้สึกโดดเดี่ยว ไร้อิทธิพล และขาดความเชื่อมโยงกับระบบที่ใหญ่ขึ้น

    เขาเปรียบเทียบว่าองค์กรขนาดใหญ่ให้ “อาหารแปรรูปทางสังคม” ที่ดูเหมือนตอบสนองความต้องการ แต่ขาดความลึกซึ้งและความจริงใจเหมือนกลุ่มเล็กที่มีความสัมพันธ์ใกล้ชิด เช่นเดียวกับอาหารขยะที่ให้พลังงานแต่ไม่ให้สารอาหาร

    Tao เสนอว่าควรให้ความสำคัญกับกลุ่มเล็กที่เกิดขึ้นใหม่ เช่น โครงการคณิตศาสตร์แบบ crowdsourced ที่เขาเห็นในช่วงหลัง ซึ่งแม้จะไม่มีผลตอบแทนทางเศรษฐกิจโดยตรง แต่ให้คุณค่าทางจิตใจ ความรู้สึกมีส่วนร่วม และเป็นช่องทางเชื่อมโยงกับระบบใหญ่ได้อย่างมีความหมาย

    ข้อมูลสำคัญจากโพสต์ของ Terence Tao
    Tao แบ่งโครงสร้างสังคมมนุษย์ออกเป็น 4 ระดับ: บุคคล, กลุ่มเล็ก, กลุ่มใหญ่, และระบบซับซ้อน
    กลุ่มใหญ่ได้รับพลังจากเทคโนโลยีและระบบแรงจูงใจในยุคใหม่
    กลุ่มเล็กถูกลดบทบาทลง ส่งผลให้บุคคลรู้สึกโดดเดี่ยวและขาดอิทธิพล
    องค์กรใหญ่ให้ “อาหารแปรรูปทางสังคม” ที่ขาดความจริงใจ
    กลุ่มเล็กมีความสามารถในการเปลี่ยนแปลงและให้คุณค่าทางจิตใจ
    Tao เห็นโครงการคณิตศาสตร์แบบ crowdsourced เป็นตัวอย่างของกลุ่มเล็กที่มีพลัง
    เสนอให้สนับสนุนกลุ่มเล็กที่เกิดขึ้นใหม่เพื่อเชื่อมโยงกับระบบใหญ่

    ข้อมูลเสริมจากภายนอก
    โครงการ Polymath ที่ Tao เคยร่วมก่อตั้ง เป็นตัวอย่างของการทำงานร่วมกันในกลุ่มเล็ก
    Proof assistant อย่าง Lean ช่วยให้คนทั่วไปสามารถร่วมในโครงการคณิตศาสตร์ได้
    กลุ่มเล็กมีขนาดต่ำกว่า “Dunbar’s number” ซึ่งเป็นจำนวนคนที่มนุษย์สามารถรักษาความสัมพันธ์ได้อย่างมีคุณภาพ
    การรวมกลุ่มเล็กสามารถสร้างแรงผลักดันทางสังคม เช่น การเคลื่อนไหวทางการเมืองหรือวัฒนธรรม
    การใช้ AI และแพลตฟอร์มออนไลน์สามารถช่วยฟื้นฟูบทบาทของกลุ่มเล็กได้ หากออกแบบอย่างมีจริยธรรม

    https://mathstodon.xyz/@tao/115259943398316677
    🧩 “Terence Tao กับแนวคิดสังคมมนุษย์ 4 ระดับ — เมื่อคณิตศาสตร์กลายเป็นเครื่องมือเข้าใจโลก ไม่ใช่แค่ตัวเลข” Terence Tao นักคณิตศาสตร์ระดับโลก ได้โพสต์ข้อคิดเห็นเชิงปรัชญาและสังคมบน Mathstodon ซึ่งสะท้อนมุมมองของเขาต่อโครงสร้างสังคมมนุษย์ในยุคปัจจุบัน โดยแบ่งออกเป็น 4 ระดับ ได้แก่: 1️⃣ มนุษย์แต่ละคน 2️⃣ กลุ่มเล็กที่จัดตั้งขึ้น (เช่น ครอบครัว เพื่อน กลุ่มอาสาสมัคร หรือชุมชนออนไลน์ขนาดเล็ก) 3️⃣ กลุ่มใหญ่ที่จัดตั้งขึ้น (เช่น รัฐบาล บริษัทข้ามชาติ หรือแพลตฟอร์มโซเชียลมีเดีย) 4️⃣ ระบบซับซ้อนระดับโลก (เช่น เศรษฐกิจโลก วัฒนธรรมไวรัล หรือสภาพภูมิอากาศ) Tao ชี้ว่าในยุคดิจิทัล กลุ่มใหญ่ได้รับพลังเพิ่มขึ้นอย่างมหาศาลจากเทคโนโลยีและระบบแรงจูงใจ ขณะที่กลุ่มเล็กกลับถูกลดบทบาทลงอย่างต่อเนื่อง ส่งผลให้มนุษย์แต่ละคนรู้สึกโดดเดี่ยว ไร้อิทธิพล และขาดความเชื่อมโยงกับระบบที่ใหญ่ขึ้น เขาเปรียบเทียบว่าองค์กรขนาดใหญ่ให้ “อาหารแปรรูปทางสังคม” ที่ดูเหมือนตอบสนองความต้องการ แต่ขาดความลึกซึ้งและความจริงใจเหมือนกลุ่มเล็กที่มีความสัมพันธ์ใกล้ชิด เช่นเดียวกับอาหารขยะที่ให้พลังงานแต่ไม่ให้สารอาหาร Tao เสนอว่าควรให้ความสำคัญกับกลุ่มเล็กที่เกิดขึ้นใหม่ เช่น โครงการคณิตศาสตร์แบบ crowdsourced ที่เขาเห็นในช่วงหลัง ซึ่งแม้จะไม่มีผลตอบแทนทางเศรษฐกิจโดยตรง แต่ให้คุณค่าทางจิตใจ ความรู้สึกมีส่วนร่วม และเป็นช่องทางเชื่อมโยงกับระบบใหญ่ได้อย่างมีความหมาย ✅ ข้อมูลสำคัญจากโพสต์ของ Terence Tao ➡️ Tao แบ่งโครงสร้างสังคมมนุษย์ออกเป็น 4 ระดับ: บุคคล, กลุ่มเล็ก, กลุ่มใหญ่, และระบบซับซ้อน ➡️ กลุ่มใหญ่ได้รับพลังจากเทคโนโลยีและระบบแรงจูงใจในยุคใหม่ ➡️ กลุ่มเล็กถูกลดบทบาทลง ส่งผลให้บุคคลรู้สึกโดดเดี่ยวและขาดอิทธิพล ➡️ องค์กรใหญ่ให้ “อาหารแปรรูปทางสังคม” ที่ขาดความจริงใจ ➡️ กลุ่มเล็กมีความสามารถในการเปลี่ยนแปลงและให้คุณค่าทางจิตใจ ➡️ Tao เห็นโครงการคณิตศาสตร์แบบ crowdsourced เป็นตัวอย่างของกลุ่มเล็กที่มีพลัง ➡️ เสนอให้สนับสนุนกลุ่มเล็กที่เกิดขึ้นใหม่เพื่อเชื่อมโยงกับระบบใหญ่ ✅ ข้อมูลเสริมจากภายนอก ➡️ โครงการ Polymath ที่ Tao เคยร่วมก่อตั้ง เป็นตัวอย่างของการทำงานร่วมกันในกลุ่มเล็ก ➡️ Proof assistant อย่าง Lean ช่วยให้คนทั่วไปสามารถร่วมในโครงการคณิตศาสตร์ได้ ➡️ กลุ่มเล็กมีขนาดต่ำกว่า “Dunbar’s number” ซึ่งเป็นจำนวนคนที่มนุษย์สามารถรักษาความสัมพันธ์ได้อย่างมีคุณภาพ ➡️ การรวมกลุ่มเล็กสามารถสร้างแรงผลักดันทางสังคม เช่น การเคลื่อนไหวทางการเมืองหรือวัฒนธรรม ➡️ การใช้ AI และแพลตฟอร์มออนไลน์สามารถช่วยฟื้นฟูบทบาทของกลุ่มเล็กได้ หากออกแบบอย่างมีจริยธรรม https://mathstodon.xyz/@tao/115259943398316677
    0 ความคิดเห็น 0 การแบ่งปัน 329 มุมมอง 0 รีวิว
  • “GPT-3 กับ 12,000 มิติแห่งความหมาย — เมื่อคณิตศาสตร์ช่วยให้โมเดลภาษาเข้าใจโลกได้ลึกกว่าที่คิด”

    บทความโดย Nicholas Yoder ได้เปิดเผยเบื้องหลังของคำถามที่ดูเหมือนง่ายแต่ลึกซึ้ง: “โมเดลภาษาอย่าง GPT-3 ที่มี embedding space เพียง 12,288 มิติ สามารถเก็บข้อมูลนับพันล้านแนวคิดได้อย่างไร?” คำตอบไม่ได้อยู่แค่ในวิศวกรรม แต่ซ่อนอยู่ในเรขาคณิตมิติสูงและทฤษฎีคณิตศาสตร์ที่ชื่อว่า Johnson–Lindenstrauss lemma

    ในโลกของเวกเตอร์ การจัดเรียงแบบ “orthogonal” (ตั้งฉาก) มีข้อจำกัด — N มิติสามารถรองรับได้แค่ N เวกเตอร์ที่ตั้งฉากกันเท่านั้น แต่ถ้าเรายอมให้เวกเตอร์มีมุมใกล้เคียง 90° เช่น 85–95° หรือที่เรียกว่า “quasi-orthogonal” ความจุของพื้นที่จะเพิ่มขึ้นอย่างมหาศาล

    Yoder ได้ทดลองสร้างเวกเตอร์ 10,000 ตัวในพื้นที่ 100 มิติ โดยใช้ loss function ที่ดูเรียบง่าย แต่กลับเจอปัญหา “Gradient Trap” และ “99% Solution” ซึ่งทำให้เวกเตอร์บางตัวติดอยู่ในตำแหน่งที่ไม่เหมาะสม แม้จะดูดีในเชิงสถิติ เขาจึงปรับ loss function ให้ลงโทษเวกเตอร์ที่มี dot product สูงขึ้นแบบ exponential และพบว่าแม้จะตั้งเป้ามุมใกล้ 90° แต่ผลลัพธ์จริงกลับอยู่ที่ ~76.5° ซึ่งนำไปสู่การค้นพบขีดจำกัดใหม่ของการบรรจุเวกเตอร์ในมิติสูง

    จากนั้น Yoder ได้เชื่อมโยงกับ Johnson–Lindenstrauss lemma ซึ่งระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำได้โดยไม่เสียโครงสร้างระยะห่างมากนัก โดยจำนวนมิติที่ต้องใช้จะเพิ่มขึ้นแบบลอการิทึมตามจำนวนจุดที่ต้องการฉาย — ทำให้การลดมิติในงานจริง เช่น การจัดการข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา เป็นไปได้อย่างมีประสิทธิภาพ

    เขายังเสนอสูตรประมาณจำนวนเวกเตอร์ที่สามารถจัดวางในพื้นที่ embedding ได้ตามมุมที่ยอมรับได้ เช่น ที่มุม 89° GPT-3 สามารถรองรับได้ ~10⁸ เวกเตอร์ แต่ถ้ายอมลดมุมลงเหลือ 85° จะสามารถรองรับได้มากกว่า 10²⁰⁰ เวกเตอร์ — มากกว่าจำนวนอะตอมในจักรวาลเสียอีก

    ข้อมูลสำคัญจากบทความ
    GPT-3 มี embedding space ขนาด 12,288 มิติ แต่สามารถเก็บแนวคิดได้มหาศาล
    การใช้ quasi-orthogonal vectors (มุมใกล้ 90°) ช่วยเพิ่มความจุของพื้นที่
    การทดลองพบว่า loss function แบบเดิมมีปัญหา gradient trap และ 99% solution
    การปรับ loss function แบบ exponential ช่วยให้เวกเตอร์จัดเรียงได้ดีขึ้น

    การเชื่อมโยงกับทฤษฎี JL lemma
    JL lemma ระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำโดยรักษาระยะห่างได้
    จำนวนมิติที่ต้องใช้เพิ่มขึ้นแบบ log(N)/ε² ตามจำนวนจุดและความคลาดเคลื่อนที่ยอมรับ
    ใช้ในงานจริง เช่น การลดมิติของข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา
    การทดลองพบว่า embedding space สามารถรองรับเวกเตอร์ได้มากกว่าที่คาด

    ข้อมูลเสริมจากภายนอก
    Hadamard matrix และ BCH coding เป็นเทคนิคที่ใช้ในการฉายข้อมูลแบบมีประสิทธิภาพ
    uIP และ SLIP เป็นโปรโตคอลที่ใช้ใน embedded system ที่มีหน่วยความจำจำกัด
    GPT-3 ใช้ embedding space ขนาด 12,288 มิติ ซึ่งถือว่าเล็กเมื่อเทียบกับจำนวนแนวคิดที่ต้องรองรับ
    การจัดเรียงเวกเตอร์ในมิติสูงมีความสัมพันธ์กับ sphere packing และ geometry แบบ non-Euclidean

    https://nickyoder.com/johnson-lindenstrauss/
    🧠 “GPT-3 กับ 12,000 มิติแห่งความหมาย — เมื่อคณิตศาสตร์ช่วยให้โมเดลภาษาเข้าใจโลกได้ลึกกว่าที่คิด” บทความโดย Nicholas Yoder ได้เปิดเผยเบื้องหลังของคำถามที่ดูเหมือนง่ายแต่ลึกซึ้ง: “โมเดลภาษาอย่าง GPT-3 ที่มี embedding space เพียง 12,288 มิติ สามารถเก็บข้อมูลนับพันล้านแนวคิดได้อย่างไร?” คำตอบไม่ได้อยู่แค่ในวิศวกรรม แต่ซ่อนอยู่ในเรขาคณิตมิติสูงและทฤษฎีคณิตศาสตร์ที่ชื่อว่า Johnson–Lindenstrauss lemma ในโลกของเวกเตอร์ การจัดเรียงแบบ “orthogonal” (ตั้งฉาก) มีข้อจำกัด — N มิติสามารถรองรับได้แค่ N เวกเตอร์ที่ตั้งฉากกันเท่านั้น แต่ถ้าเรายอมให้เวกเตอร์มีมุมใกล้เคียง 90° เช่น 85–95° หรือที่เรียกว่า “quasi-orthogonal” ความจุของพื้นที่จะเพิ่มขึ้นอย่างมหาศาล Yoder ได้ทดลองสร้างเวกเตอร์ 10,000 ตัวในพื้นที่ 100 มิติ โดยใช้ loss function ที่ดูเรียบง่าย แต่กลับเจอปัญหา “Gradient Trap” และ “99% Solution” ซึ่งทำให้เวกเตอร์บางตัวติดอยู่ในตำแหน่งที่ไม่เหมาะสม แม้จะดูดีในเชิงสถิติ เขาจึงปรับ loss function ให้ลงโทษเวกเตอร์ที่มี dot product สูงขึ้นแบบ exponential และพบว่าแม้จะตั้งเป้ามุมใกล้ 90° แต่ผลลัพธ์จริงกลับอยู่ที่ ~76.5° ซึ่งนำไปสู่การค้นพบขีดจำกัดใหม่ของการบรรจุเวกเตอร์ในมิติสูง จากนั้น Yoder ได้เชื่อมโยงกับ Johnson–Lindenstrauss lemma ซึ่งระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำได้โดยไม่เสียโครงสร้างระยะห่างมากนัก โดยจำนวนมิติที่ต้องใช้จะเพิ่มขึ้นแบบลอการิทึมตามจำนวนจุดที่ต้องการฉาย — ทำให้การลดมิติในงานจริง เช่น การจัดการข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา เป็นไปได้อย่างมีประสิทธิภาพ เขายังเสนอสูตรประมาณจำนวนเวกเตอร์ที่สามารถจัดวางในพื้นที่ embedding ได้ตามมุมที่ยอมรับได้ เช่น ที่มุม 89° GPT-3 สามารถรองรับได้ ~10⁸ เวกเตอร์ แต่ถ้ายอมลดมุมลงเหลือ 85° จะสามารถรองรับได้มากกว่า 10²⁰⁰ เวกเตอร์ — มากกว่าจำนวนอะตอมในจักรวาลเสียอีก ✅ ข้อมูลสำคัญจากบทความ ➡️ GPT-3 มี embedding space ขนาด 12,288 มิติ แต่สามารถเก็บแนวคิดได้มหาศาล ➡️ การใช้ quasi-orthogonal vectors (มุมใกล้ 90°) ช่วยเพิ่มความจุของพื้นที่ ➡️ การทดลองพบว่า loss function แบบเดิมมีปัญหา gradient trap และ 99% solution ➡️ การปรับ loss function แบบ exponential ช่วยให้เวกเตอร์จัดเรียงได้ดีขึ้น ✅ การเชื่อมโยงกับทฤษฎี JL lemma ➡️ JL lemma ระบุว่าเราสามารถฉายข้อมูลจากมิติสูงไปยังมิติต่ำโดยรักษาระยะห่างได้ ➡️ จำนวนมิติที่ต้องใช้เพิ่มขึ้นแบบ log(N)/ε² ตามจำนวนจุดและความคลาดเคลื่อนที่ยอมรับ ➡️ ใช้ในงานจริง เช่น การลดมิติของข้อมูลลูกค้า หรือ embedding คำในโมเดลภาษา ➡️ การทดลองพบว่า embedding space สามารถรองรับเวกเตอร์ได้มากกว่าที่คาด ✅ ข้อมูลเสริมจากภายนอก ➡️ Hadamard matrix และ BCH coding เป็นเทคนิคที่ใช้ในการฉายข้อมูลแบบมีประสิทธิภาพ ➡️ uIP และ SLIP เป็นโปรโตคอลที่ใช้ใน embedded system ที่มีหน่วยความจำจำกัด ➡️ GPT-3 ใช้ embedding space ขนาด 12,288 มิติ ซึ่งถือว่าเล็กเมื่อเทียบกับจำนวนแนวคิดที่ต้องรองรับ ➡️ การจัดเรียงเวกเตอร์ในมิติสูงมีความสัมพันธ์กับ sphere packing และ geometry แบบ non-Euclidean https://nickyoder.com/johnson-lindenstrauss/
    NICKYODER.COM
    Beyond Orthogonality: How Language Models Pack Billions of Concepts into 12,000 Dimensions
    In a recent 3Blue1Brown video series on transformer models, Grant Sanderson posed a fascinating question: How can a relatively modest embedding space of 12,288 dimensions (GPT-3) accommodate millions of distinct real-world concepts? The answer lies at the intersection of high-dimensional geometry and a remarkable mathematical result known as the
    0 ความคิดเห็น 0 การแบ่งปัน 303 มุมมอง 0 รีวิว
  • “คะแนนอ่าน-คณิตนักเรียนมัธยมปลายสหรัฐฯ ต่ำสุดในรอบ 20 ปี — สะท้อนวิกฤตการศึกษาที่ลึกกว่าผลกระทบจากโควิด”

    ผลการสอบระดับชาติของสหรัฐฯ หรือที่เรียกว่า “Nation’s Report Card” ล่าสุดเผยให้เห็นภาพที่น่ากังวลอย่างยิ่ง: คะแนนเฉลี่ยของนักเรียนชั้นมัธยมปลายปีสุดท้าย (Grade 12) ในวิชาการอ่านและคณิตศาสตร์ตกลงสู่ระดับต่ำสุดในรอบกว่า 20 ปี โดยเฉพาะในปี 2024 ซึ่งเป็นครั้งแรกที่มีการสอบหลังช่วงการระบาดของโควิด-19

    แม้หลายฝ่ายจะชี้ว่าโควิดมีผลกระทบต่อการเรียนรู้ เช่น การเรียนออนไลน์ การขาดเรียน และความเครียดสะสม แต่ผู้เชี่ยวชาญกลับเตือนว่าแนวโน้มคะแนนตกต่ำนี้เริ่มต้นมานานก่อนโควิดแล้ว และสะท้อนปัญหาเชิงโครงสร้าง เช่น การลดลงของการอ่านหนังสือเล่มยาว การเปลี่ยนแนวการสอนภาษาอังกฤษไปเน้นบทสั้น และการใช้หน้าจอมากเกินไป

    ในวิชาคณิตศาสตร์ พบว่า 45% ของนักเรียนมัธยมปลายสอบได้ต่ำกว่าระดับ “พื้นฐาน” (NAEP Basic) ซึ่งหมายถึงไม่สามารถแก้โจทย์พื้นฐาน เช่น การหาค่าความน่าจะเป็นจากตาราง หรือการคำนวณพื้นที่ได้ ส่วนในวิชาการอ่าน มีถึง 32% ที่ไม่สามารถดึงข้อมูลจากข้อความเพื่อเข้าใจความหมายได้

    ช่องว่างระหว่างนักเรียนที่ทำคะแนนสูงสุดกับต่ำสุดก็เพิ่มขึ้นอย่างชัดเจน โดยเฉพาะในวิชาวิทยาศาสตร์ระดับมัธยมต้น (Grade 8) ซึ่งสะท้อนถึงความเหลื่อมล้ำทางการศึกษา และการขาดกิจกรรมเรียนรู้แบบลงมือทำที่ลดลงหลังโควิด

    แม้จะมีนักเรียนจำนวนมากที่ได้รับการตอบรับเข้ามหาวิทยาลัย แต่ผลสอบกลับชี้ว่าเพียง 33% เท่านั้นที่มีความพร้อมด้านวิชาการสำหรับเรียนคณิตศาสตร์ระดับมหาวิทยาลัย — ลดลงจาก 37% ในปี 2019

    https://apnews.com/article/naep-reading-math-scores-12th-grade-c18d6e3fbc125f12948cc70cb85a520a
    📉 “คะแนนอ่าน-คณิตนักเรียนมัธยมปลายสหรัฐฯ ต่ำสุดในรอบ 20 ปี — สะท้อนวิกฤตการศึกษาที่ลึกกว่าผลกระทบจากโควิด” ผลการสอบระดับชาติของสหรัฐฯ หรือที่เรียกว่า “Nation’s Report Card” ล่าสุดเผยให้เห็นภาพที่น่ากังวลอย่างยิ่ง: คะแนนเฉลี่ยของนักเรียนชั้นมัธยมปลายปีสุดท้าย (Grade 12) ในวิชาการอ่านและคณิตศาสตร์ตกลงสู่ระดับต่ำสุดในรอบกว่า 20 ปี โดยเฉพาะในปี 2024 ซึ่งเป็นครั้งแรกที่มีการสอบหลังช่วงการระบาดของโควิด-19 แม้หลายฝ่ายจะชี้ว่าโควิดมีผลกระทบต่อการเรียนรู้ เช่น การเรียนออนไลน์ การขาดเรียน และความเครียดสะสม แต่ผู้เชี่ยวชาญกลับเตือนว่าแนวโน้มคะแนนตกต่ำนี้เริ่มต้นมานานก่อนโควิดแล้ว และสะท้อนปัญหาเชิงโครงสร้าง เช่น การลดลงของการอ่านหนังสือเล่มยาว การเปลี่ยนแนวการสอนภาษาอังกฤษไปเน้นบทสั้น และการใช้หน้าจอมากเกินไป ในวิชาคณิตศาสตร์ พบว่า 45% ของนักเรียนมัธยมปลายสอบได้ต่ำกว่าระดับ “พื้นฐาน” (NAEP Basic) ซึ่งหมายถึงไม่สามารถแก้โจทย์พื้นฐาน เช่น การหาค่าความน่าจะเป็นจากตาราง หรือการคำนวณพื้นที่ได้ ส่วนในวิชาการอ่าน มีถึง 32% ที่ไม่สามารถดึงข้อมูลจากข้อความเพื่อเข้าใจความหมายได้ ช่องว่างระหว่างนักเรียนที่ทำคะแนนสูงสุดกับต่ำสุดก็เพิ่มขึ้นอย่างชัดเจน โดยเฉพาะในวิชาวิทยาศาสตร์ระดับมัธยมต้น (Grade 8) ซึ่งสะท้อนถึงความเหลื่อมล้ำทางการศึกษา และการขาดกิจกรรมเรียนรู้แบบลงมือทำที่ลดลงหลังโควิด แม้จะมีนักเรียนจำนวนมากที่ได้รับการตอบรับเข้ามหาวิทยาลัย แต่ผลสอบกลับชี้ว่าเพียง 33% เท่านั้นที่มีความพร้อมด้านวิชาการสำหรับเรียนคณิตศาสตร์ระดับมหาวิทยาลัย — ลดลงจาก 37% ในปี 2019 https://apnews.com/article/naep-reading-math-scores-12th-grade-c18d6e3fbc125f12948cc70cb85a520a
    APNEWS.COM
    US high school students lose ground in math and reading, continuing yearslong decline
    A decade-long slide in high school students’ performance in reading and math persisted during the COVID-19 pandemic, with 12th graders’ scores dropping to their lowest level in more than 20 years.
    0 ความคิดเห็น 0 การแบ่งปัน 216 มุมมอง 0 รีวิว
  • “Liquid Glass บนเว็บ: เมื่อแสงหักเหกลายเป็นศิลปะ UI ด้วย CSS และ SVG — สวยระดับ Apple แต่ยังใช้ได้แค่ Chrome!”

    ถ้าคุณเคยเห็นเอฟเฟกต์ Liquid Glass ที่ Apple เปิดตัวในงาน WWDC 2025 แล้วรู้สึกว่า “อยากได้แบบนี้บนเว็บบ้าง” — บทความนี้คือคำตอบที่คุณรอคอย เพราะมันคือการทดลองสร้างเอฟเฟกต์หักเหแสงแบบกระจกโค้งบนเบราว์เซอร์ โดยใช้แค่ CSS, SVG และคณิตศาสตร์ฟิสิกส์พื้นฐาน

    แนวคิดหลักคือการจำลองการหักเหของแสง (refraction) ตามกฎของ Snell–Descartes ซึ่งอธิบายว่ามุมของแสงจะเปลี่ยนไปเมื่อผ่านจากวัสดุหนึ่งไปสู่อีกวัสดุหนึ่ง เช่น จากอากาศเข้าสู่กระจก โดยใช้ค่าดัชนีหักเห (refractive index) เพื่อคำนวณทิศทางใหม่ของแสง

    บทความนี้เลือกใช้รูปทรงวงกลมเป็นพื้นฐาน เพราะง่ายต่อการคำนวณและสามารถขยายเป็นรูปทรงอื่นได้ในอนาคต โดยใช้ฟังก์ชันความสูงของพื้นผิวกระจกเพื่อคำนวณมุมตกกระทบและมุมหักเห จากนั้นสร้าง “สนามเวกเตอร์การเลื่อนตำแหน่ง” (displacement vector field) เพื่อบอกว่าแสงควรเบนไปทางไหน

    เมื่อได้เวกเตอร์แล้ว ก็แปลงเป็นภาพ SVG displacement map โดยใช้สีแดงและเขียวแทนการเลื่อนในแกน X และ Y ตามลำดับ แล้วนำไปใช้ในฟิลเตอร์ SVG เพื่อสร้างเอฟเฟกต์หักเหแสงบนองค์ประกอบ UI จริง เช่น ปุ่ม, สวิตช์, กล่องค้นหา และมิวสิกเพลเยอร์

    สุดท้ายยังเพิ่ม “specular highlight” หรือแสงสะท้อนขอบกระจก เพื่อให้ดูสมจริงยิ่งขึ้น โดยใช้การเบลนด์ภาพ highlight เข้ากับภาพที่ผ่านการหักเหแล้ว — ทั้งหมดนี้ทำงานได้เฉพาะใน Chrome เท่านั้น เพราะยังไม่มีเบราว์เซอร์อื่นรองรับ SVG filter เป็น backdrop-filter

    แนวคิดหลักของ Liquid Glass บนเว็บ
    จำลองการหักเหแสงตามกฎ Snell–Descartes
    ใช้ค่าดัชนีหักเหของวัสดุ เช่น อากาศ (n=1) และกระจก (n=1.5)
    ใช้ฟังก์ชันความสูงของพื้นผิวเพื่อคำนวณมุมตกกระทบ
    สร้าง displacement vector field เพื่อบอกทิศทางการเบนของแสง

    การสร้าง SVG displacement map
    แปลงเวกเตอร์เป็นสีในภาพ SVG โดยใช้ Red = X, Green = Y
    ใช้ <feDisplacementMap /> เพื่อเลื่อนตำแหน่งพิกเซลตามเวกเตอร์
    scale ของฟิลเตอร์ใช้ค่าการเบนสูงสุดที่คำนวณไว้
    สามารถ animate scale เพื่อควบคุมความแรงของเอฟเฟกต์

    การใช้งานใน UI จริง
    ใช้กับองค์ประกอบ UI เช่น ปุ่ม, สวิตช์, กล่องค้นหา, มิวสิกเพลเยอร์
    เพิ่ม specular highlight เพื่อให้ดูมีแสงสะท้อนขอบกระจก
    ใช้ <feBlend /> เพื่อรวมภาพ highlight กับภาพหักเห
    ปรับค่าความเงา, ความอิ่มสี, และระดับการหักเหได้ตามต้องการ

    ข้อมูลเสริมจากภายนอก
    Apple เปิดตัว Liquid Glass ใน WWDC 2025 เป็นส่วนหนึ่งของ iOS 26 และ visionOS
    เอฟเฟกต์นี้มีต้นแบบจาก Dynamic Island และ macOS Aqua
    นักพัฒนาเริ่มสร้างเวอร์ชัน CSS-only เพื่อใช้บนเว็บโดยไม่พึ่ง JavaScript
    GitHub มีโปรเจกต์ทดลองหลายตัว เช่น liquid-glass-effect-macos

    https://kube.io/blog/liquid-glass-css-svg/
    🧊 “Liquid Glass บนเว็บ: เมื่อแสงหักเหกลายเป็นศิลปะ UI ด้วย CSS และ SVG — สวยระดับ Apple แต่ยังใช้ได้แค่ Chrome!” ถ้าคุณเคยเห็นเอฟเฟกต์ Liquid Glass ที่ Apple เปิดตัวในงาน WWDC 2025 แล้วรู้สึกว่า “อยากได้แบบนี้บนเว็บบ้าง” — บทความนี้คือคำตอบที่คุณรอคอย เพราะมันคือการทดลองสร้างเอฟเฟกต์หักเหแสงแบบกระจกโค้งบนเบราว์เซอร์ โดยใช้แค่ CSS, SVG และคณิตศาสตร์ฟิสิกส์พื้นฐาน แนวคิดหลักคือการจำลองการหักเหของแสง (refraction) ตามกฎของ Snell–Descartes ซึ่งอธิบายว่ามุมของแสงจะเปลี่ยนไปเมื่อผ่านจากวัสดุหนึ่งไปสู่อีกวัสดุหนึ่ง เช่น จากอากาศเข้าสู่กระจก โดยใช้ค่าดัชนีหักเห (refractive index) เพื่อคำนวณทิศทางใหม่ของแสง บทความนี้เลือกใช้รูปทรงวงกลมเป็นพื้นฐาน เพราะง่ายต่อการคำนวณและสามารถขยายเป็นรูปทรงอื่นได้ในอนาคต โดยใช้ฟังก์ชันความสูงของพื้นผิวกระจกเพื่อคำนวณมุมตกกระทบและมุมหักเห จากนั้นสร้าง “สนามเวกเตอร์การเลื่อนตำแหน่ง” (displacement vector field) เพื่อบอกว่าแสงควรเบนไปทางไหน เมื่อได้เวกเตอร์แล้ว ก็แปลงเป็นภาพ SVG displacement map โดยใช้สีแดงและเขียวแทนการเลื่อนในแกน X และ Y ตามลำดับ แล้วนำไปใช้ในฟิลเตอร์ SVG เพื่อสร้างเอฟเฟกต์หักเหแสงบนองค์ประกอบ UI จริง เช่น ปุ่ม, สวิตช์, กล่องค้นหา และมิวสิกเพลเยอร์ สุดท้ายยังเพิ่ม “specular highlight” หรือแสงสะท้อนขอบกระจก เพื่อให้ดูสมจริงยิ่งขึ้น โดยใช้การเบลนด์ภาพ highlight เข้ากับภาพที่ผ่านการหักเหแล้ว — ทั้งหมดนี้ทำงานได้เฉพาะใน Chrome เท่านั้น เพราะยังไม่มีเบราว์เซอร์อื่นรองรับ SVG filter เป็น backdrop-filter ✅ แนวคิดหลักของ Liquid Glass บนเว็บ ➡️ จำลองการหักเหแสงตามกฎ Snell–Descartes ➡️ ใช้ค่าดัชนีหักเหของวัสดุ เช่น อากาศ (n=1) และกระจก (n=1.5) ➡️ ใช้ฟังก์ชันความสูงของพื้นผิวเพื่อคำนวณมุมตกกระทบ ➡️ สร้าง displacement vector field เพื่อบอกทิศทางการเบนของแสง ✅ การสร้าง SVG displacement map ➡️ แปลงเวกเตอร์เป็นสีในภาพ SVG โดยใช้ Red = X, Green = Y ➡️ ใช้ <feDisplacementMap /> เพื่อเลื่อนตำแหน่งพิกเซลตามเวกเตอร์ ➡️ scale ของฟิลเตอร์ใช้ค่าการเบนสูงสุดที่คำนวณไว้ ➡️ สามารถ animate scale เพื่อควบคุมความแรงของเอฟเฟกต์ ✅ การใช้งานใน UI จริง ➡️ ใช้กับองค์ประกอบ UI เช่น ปุ่ม, สวิตช์, กล่องค้นหา, มิวสิกเพลเยอร์ ➡️ เพิ่ม specular highlight เพื่อให้ดูมีแสงสะท้อนขอบกระจก ➡️ ใช้ <feBlend /> เพื่อรวมภาพ highlight กับภาพหักเห ➡️ ปรับค่าความเงา, ความอิ่มสี, และระดับการหักเหได้ตามต้องการ ✅ ข้อมูลเสริมจากภายนอก ➡️ Apple เปิดตัว Liquid Glass ใน WWDC 2025 เป็นส่วนหนึ่งของ iOS 26 และ visionOS ➡️ เอฟเฟกต์นี้มีต้นแบบจาก Dynamic Island และ macOS Aqua ➡️ นักพัฒนาเริ่มสร้างเวอร์ชัน CSS-only เพื่อใช้บนเว็บโดยไม่พึ่ง JavaScript ➡️ GitHub มีโปรเจกต์ทดลองหลายตัว เช่น liquid-glass-effect-macos https://kube.io/blog/liquid-glass-css-svg/
    KUBE.IO
    Liquid Glass in the Browser: Refraction with CSS and SVG — kube.io
    Explore how to recreate Apple's stunning Liquid Glass effect using CSS, SVG Displacement Maps, and refraction calculations.
    0 ความคิดเห็น 0 การแบ่งปัน 307 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก ETH Zurich ถึง 1811 ภาษา: เมื่อโมเดลภาษาไม่ได้ถูกสร้างเพื่อแข่งขัน แต่เพื่อให้ทุกคนเข้าถึงได้

    Apertus เป็นโมเดลภาษาใหญ่ (LLM) ที่พัฒนาโดย Swiss National AI Institute (SNAI) ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL โดยมีเป้าหมายเพื่อสร้างโมเดลที่เปิดทุกส่วน—ตั้งแต่โค้ด, น้ำหนักโมเดล, ข้อมูลเทรน, ไปจนถึงสูตรการเทรนเอง

    โมเดลมีสองขนาดคือ 8B และ 70B พารามิเตอร์ โดยเวอร์ชัน 70B ถูกเทรนด้วยข้อมูล 15 ล้านล้าน token จากเว็บ, โค้ด, และคณิตศาสตร์ ผ่านกระบวนการ curriculum learning ที่จัดลำดับเนื้อหาอย่างเป็นระบบ

    Apertus รองรับภาษามากถึง 1811 ภาษา โดย 40% ของข้อมูลเทรนเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ เช่น Swiss German, Romansh และภาษาอื่น ๆ ที่มักถูกละเลยในโมเดลทั่วไป

    โมเดลใช้สถาปัตยกรรม decoder-only transformer พร้อมฟังก์ชัน activation ใหม่ชื่อ xIELU และ optimizer แบบ AdEMAMix ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพการเทรนในระดับ bfloat16 บน GPU GH200 จำนวน 4096 ตัว

    หลังการเทรน โมเดลยังผ่านการ fine-tune แบบมีผู้ดูแล และ alignment ด้วยเทคนิค QRPO เพื่อให้ตอบสนองต่อผู้ใช้ได้ดีขึ้น โดยไม่ละเมิดความเป็นกลางหรือความปลอดภัย

    สิ่งที่โดดเด่นคือ Apertus เคารพสิทธิ์ของเจ้าของข้อมูลอย่างเข้มงวด โดยใช้ระบบ opt-out ที่สามารถย้อนกลับได้ และมีระบบ output filter ที่ผู้ใช้สามารถดาวน์โหลดทุก 6 เดือน เพื่อกรองข้อมูลส่วนบุคคลออกจากผลลัพธ์ของโมเดล

    นอกจากนี้ Apertus ยังถูกออกแบบให้สอดคล้องกับกฎหมายความโปร่งใสของ EU AI Act และกฎหมายคุ้มครองข้อมูลของสวิตเซอร์แลนด์ โดยมีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ทั้งหมด

    ข้อมูลพื้นฐานของ Apertus
    พัฒนาโดย SNAI ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL
    มีสองขนาด: 8B และ 70B พารามิเตอร์
    เทรนด้วยข้อมูล 15T token จากเว็บ, โค้ด, และคณิตศาสตร์

    สถาปัตยกรรมและเทคนิคการเทรน
    ใช้ decoder-only transformer พร้อมฟังก์ชัน xIELU
    ใช้ optimizer AdEMAMix และ precision แบบ bfloat16
    เทรนบน GPU GH200 จำนวน 4096 ตัว

    ความสามารถด้านภาษาและความโปร่งใส
    รองรับ 1811 ภาษา โดย 40% เป็นภาษาที่ไม่ใช่ภาษาอังกฤษ
    ใช้ข้อมูลที่เปิดและเคารพ opt-out ของเจ้าของข้อมูล
    มีระบบ output filter สำหรับลบข้อมูลส่วนบุคคลจากผลลัพธ์

    การใช้งานและการ deploy
    รองรับ context ยาวถึง 65,536 token
    ใช้งานผ่าน Transformers v4.56.0, vLLM, SGLang และ MLX
    มีอินเทอร์เฟซผ่าน Swisscom และ PublicAI สำหรับผู้ใช้ทั่วไป

    การปฏิบัติตามกฎหมายและจริยธรรม
    สอดคล้องกับ EU AI Act และกฎหมายสวิตเซอร์แลนด์
    มีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้
    ไม่ใช้ข้อมูลที่ละเมิดสิทธิ์หรือมีเนื้อหาที่ไม่เหมาะสม

    https://huggingface.co/swiss-ai/Apertus-70B-2509
    🎙️ เรื่องเล่าจาก ETH Zurich ถึง 1811 ภาษา: เมื่อโมเดลภาษาไม่ได้ถูกสร้างเพื่อแข่งขัน แต่เพื่อให้ทุกคนเข้าถึงได้ Apertus เป็นโมเดลภาษาใหญ่ (LLM) ที่พัฒนาโดย Swiss National AI Institute (SNAI) ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL โดยมีเป้าหมายเพื่อสร้างโมเดลที่เปิดทุกส่วน—ตั้งแต่โค้ด, น้ำหนักโมเดล, ข้อมูลเทรน, ไปจนถึงสูตรการเทรนเอง โมเดลมีสองขนาดคือ 8B และ 70B พารามิเตอร์ โดยเวอร์ชัน 70B ถูกเทรนด้วยข้อมูล 15 ล้านล้าน token จากเว็บ, โค้ด, และคณิตศาสตร์ ผ่านกระบวนการ curriculum learning ที่จัดลำดับเนื้อหาอย่างเป็นระบบ Apertus รองรับภาษามากถึง 1811 ภาษา โดย 40% ของข้อมูลเทรนเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ เช่น Swiss German, Romansh และภาษาอื่น ๆ ที่มักถูกละเลยในโมเดลทั่วไป โมเดลใช้สถาปัตยกรรม decoder-only transformer พร้อมฟังก์ชัน activation ใหม่ชื่อ xIELU และ optimizer แบบ AdEMAMix ซึ่งออกแบบมาเพื่อเพิ่มประสิทธิภาพการเทรนในระดับ bfloat16 บน GPU GH200 จำนวน 4096 ตัว หลังการเทรน โมเดลยังผ่านการ fine-tune แบบมีผู้ดูแล และ alignment ด้วยเทคนิค QRPO เพื่อให้ตอบสนองต่อผู้ใช้ได้ดีขึ้น โดยไม่ละเมิดความเป็นกลางหรือความปลอดภัย สิ่งที่โดดเด่นคือ Apertus เคารพสิทธิ์ของเจ้าของข้อมูลอย่างเข้มงวด โดยใช้ระบบ opt-out ที่สามารถย้อนกลับได้ และมีระบบ output filter ที่ผู้ใช้สามารถดาวน์โหลดทุก 6 เดือน เพื่อกรองข้อมูลส่วนบุคคลออกจากผลลัพธ์ของโมเดล นอกจากนี้ Apertus ยังถูกออกแบบให้สอดคล้องกับกฎหมายความโปร่งใสของ EU AI Act และกฎหมายคุ้มครองข้อมูลของสวิตเซอร์แลนด์ โดยมีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ทั้งหมด ✅ ข้อมูลพื้นฐานของ Apertus ➡️ พัฒนาโดย SNAI ซึ่งเป็นความร่วมมือระหว่าง ETH Zurich และ EPFL ➡️ มีสองขนาด: 8B และ 70B พารามิเตอร์ ➡️ เทรนด้วยข้อมูล 15T token จากเว็บ, โค้ด, และคณิตศาสตร์ ✅ สถาปัตยกรรมและเทคนิคการเทรน ➡️ ใช้ decoder-only transformer พร้อมฟังก์ชัน xIELU ➡️ ใช้ optimizer AdEMAMix และ precision แบบ bfloat16 ➡️ เทรนบน GPU GH200 จำนวน 4096 ตัว ✅ ความสามารถด้านภาษาและความโปร่งใส ➡️ รองรับ 1811 ภาษา โดย 40% เป็นภาษาที่ไม่ใช่ภาษาอังกฤษ ➡️ ใช้ข้อมูลที่เปิดและเคารพ opt-out ของเจ้าของข้อมูล ➡️ มีระบบ output filter สำหรับลบข้อมูลส่วนบุคคลจากผลลัพธ์ ✅ การใช้งานและการ deploy ➡️ รองรับ context ยาวถึง 65,536 token ➡️ ใช้งานผ่าน Transformers v4.56.0, vLLM, SGLang และ MLX ➡️ มีอินเทอร์เฟซผ่าน Swisscom และ PublicAI สำหรับผู้ใช้ทั่วไป ✅ การปฏิบัติตามกฎหมายและจริยธรรม ➡️ สอดคล้องกับ EU AI Act และกฎหมายสวิตเซอร์แลนด์ ➡️ มีเอกสารสาธารณะและโค้ดการเทรนให้ตรวจสอบได้ ➡️ ไม่ใช้ข้อมูลที่ละเมิดสิทธิ์หรือมีเนื้อหาที่ไม่เหมาะสม https://huggingface.co/swiss-ai/Apertus-70B-2509
    HUGGINGFACE.CO
    swiss-ai/Apertus-70B-2509 · Hugging Face
    We’re on a journey to advance and democratize artificial intelligence through open source and open science.
    0 ความคิดเห็น 0 การแบ่งปัน 281 มุมมอง 0 รีวิว
  • เรื่องเล่าจาก logits ถึง embedding: เมื่อคณิตศาสตร์พื้นฐานกลายเป็นภาษาที่ LLM ใช้คิด

    บทความจาก Giles Thomas อธิบายว่า หากคุณเคยเรียนคณิตศาสตร์ระดับมัธยม—โดยเฉพาะเรื่องเวกเตอร์, เมทริกซ์, และการคูณเมทริกซ์—คุณมีพื้นฐานเพียงพอที่จะเข้าใจการทำงานของ LLM ในขั้นตอน “inference” หรือการใช้งานโมเดลที่เทรนมาแล้ว

    เริ่มจาก “เวกเตอร์” ซึ่งใน LLM หมายถึงชุดตัวเลขที่แทนความน่าจะเป็นของคำถัดไปในลำดับข้อความ เช่น โมเดล GPT-2 มีคำศัพท์ 50,257 คำ ดังนั้นเวกเตอร์ logits ที่ออกมาจะมี 50,257 ค่า โดยแต่ละค่าคือความน่าจะเป็นของคำหนึ่ง ๆ ที่จะถูกเลือกเป็นคำถัดไป

    เพื่อแปลงเวกเตอร์นี้ให้กลายเป็น “ความน่าจะเป็นจริง” เราใช้ฟังก์ชัน softmax ซึ่งจะเปลี่ยนค่าทั้งหมดให้รวมกันเป็น 1 และกระจายเป็นเปอร์เซ็นต์ของแต่ละคำ เช่น เวกเตอร์ (1, 2, 3) และ (–9, –8, –7) อาจให้ผล softmax เดียวกันคือ (0.09, 0.24, 0.66) เพราะแม้ค่าจะต่างกัน แต่ “ลำดับความน่าจะเป็น” เหมือนกัน

    จากนั้นเรามี “embedding space” ซึ่งเป็นพื้นที่หลายมิติที่ใช้แทน “ความหมาย” ของคำ โดยคำที่มีความหมายใกล้กันจะอยู่ใกล้กันในพื้นที่นี้ เช่น “แมวบ้าน”, “เสือ”, และ “สิงโต” อาจอยู่ในกลุ่มเดียวกัน ส่วน “หมา”, “หมาป่า”, และ “โคโยตี้” อยู่ในอีกกลุ่มหนึ่ง

    การแปลงจาก vocab space ไปยัง embedding space และกลับมาใช้เมทริกซ์คูณ เช่น การใช้เมทริกซ์ขนาด 50,257 × 768 เพื่อแปลงเวกเตอร์จาก vocab space ไปยัง embedding space และเมทริกซ์ 768 × 50,257 เพื่อแปลงกลับ

    สุดท้าย Giles อธิบายว่า “layer” ใน neural network ก็คือการคูณเมทริกซ์เช่นกัน โดย input เป็นเวกเตอร์ n × d และ weight เป็นเมทริกซ์ d_out × d_in ซึ่งเมื่อคูณกันจะได้ output เป็น n × d_out ซึ่งเป็นการ “project” จากพื้นที่หนึ่งไปยังอีกพื้นที่หนึ่ง

    คณิตศาสตร์พื้นฐานที่ใช้ใน LLM
    เวกเตอร์แทนความน่าจะเป็นของคำถัดไป
    softmax ใช้แปลง logits ให้เป็นความน่าจะเป็นจริง
    embedding space ใช้แทนความหมายของคำในหลายมิติ

    การแปลงระหว่าง vocab space และ embedding space
    ใช้เมทริกซ์ขนาดใหญ่ เช่น 50,257 × 768 เพื่อแปลงเวกเตอร์
    การแปลงกลับใช้เมทริกซ์ 768 × 50,257
    การแปลงนี้อาจ “สูญเสียข้อมูล” หากลดจำนวนมิติ

    การคำนวณใน neural network
    layer หนึ่งคือการคูณเมทริกซ์ระหว่าง input และ weight
    ผลลัพธ์คือการ project จาก input space ไปยัง output space
    bias และ activation function เป็นส่วนเสริมที่ทำให้ระบบไม่เป็นเชิงเส้น

    ตัวอย่างการใช้งานจริง
    เวกเตอร์ logits จาก GPT-2 มี 50,257 ค่า
    softmax แปลงเวกเตอร์ให้รวมเป็น 1 และกระจายเป็นเปอร์เซ็นต์
    embedding space ใช้จัดกลุ่มคำที่มีความหมายใกล้กัน

    https://www.gilesthomas.com/2025/09/maths-for-llms
    🎙️ เรื่องเล่าจาก logits ถึง embedding: เมื่อคณิตศาสตร์พื้นฐานกลายเป็นภาษาที่ LLM ใช้คิด บทความจาก Giles Thomas อธิบายว่า หากคุณเคยเรียนคณิตศาสตร์ระดับมัธยม—โดยเฉพาะเรื่องเวกเตอร์, เมทริกซ์, และการคูณเมทริกซ์—คุณมีพื้นฐานเพียงพอที่จะเข้าใจการทำงานของ LLM ในขั้นตอน “inference” หรือการใช้งานโมเดลที่เทรนมาแล้ว เริ่มจาก “เวกเตอร์” ซึ่งใน LLM หมายถึงชุดตัวเลขที่แทนความน่าจะเป็นของคำถัดไปในลำดับข้อความ เช่น โมเดล GPT-2 มีคำศัพท์ 50,257 คำ ดังนั้นเวกเตอร์ logits ที่ออกมาจะมี 50,257 ค่า โดยแต่ละค่าคือความน่าจะเป็นของคำหนึ่ง ๆ ที่จะถูกเลือกเป็นคำถัดไป เพื่อแปลงเวกเตอร์นี้ให้กลายเป็น “ความน่าจะเป็นจริง” เราใช้ฟังก์ชัน softmax ซึ่งจะเปลี่ยนค่าทั้งหมดให้รวมกันเป็น 1 และกระจายเป็นเปอร์เซ็นต์ของแต่ละคำ เช่น เวกเตอร์ (1, 2, 3) และ (–9, –8, –7) อาจให้ผล softmax เดียวกันคือ (0.09, 0.24, 0.66) เพราะแม้ค่าจะต่างกัน แต่ “ลำดับความน่าจะเป็น” เหมือนกัน จากนั้นเรามี “embedding space” ซึ่งเป็นพื้นที่หลายมิติที่ใช้แทน “ความหมาย” ของคำ โดยคำที่มีความหมายใกล้กันจะอยู่ใกล้กันในพื้นที่นี้ เช่น “แมวบ้าน”, “เสือ”, และ “สิงโต” อาจอยู่ในกลุ่มเดียวกัน ส่วน “หมา”, “หมาป่า”, และ “โคโยตี้” อยู่ในอีกกลุ่มหนึ่ง การแปลงจาก vocab space ไปยัง embedding space และกลับมาใช้เมทริกซ์คูณ เช่น การใช้เมทริกซ์ขนาด 50,257 × 768 เพื่อแปลงเวกเตอร์จาก vocab space ไปยัง embedding space และเมทริกซ์ 768 × 50,257 เพื่อแปลงกลับ สุดท้าย Giles อธิบายว่า “layer” ใน neural network ก็คือการคูณเมทริกซ์เช่นกัน โดย input เป็นเวกเตอร์ n × d และ weight เป็นเมทริกซ์ d_out × d_in ซึ่งเมื่อคูณกันจะได้ output เป็น n × d_out ซึ่งเป็นการ “project” จากพื้นที่หนึ่งไปยังอีกพื้นที่หนึ่ง ✅ คณิตศาสตร์พื้นฐานที่ใช้ใน LLM ➡️ เวกเตอร์แทนความน่าจะเป็นของคำถัดไป ➡️ softmax ใช้แปลง logits ให้เป็นความน่าจะเป็นจริง ➡️ embedding space ใช้แทนความหมายของคำในหลายมิติ ✅ การแปลงระหว่าง vocab space และ embedding space ➡️ ใช้เมทริกซ์ขนาดใหญ่ เช่น 50,257 × 768 เพื่อแปลงเวกเตอร์ ➡️ การแปลงกลับใช้เมทริกซ์ 768 × 50,257 ➡️ การแปลงนี้อาจ “สูญเสียข้อมูล” หากลดจำนวนมิติ ✅ การคำนวณใน neural network ➡️ layer หนึ่งคือการคูณเมทริกซ์ระหว่าง input และ weight ➡️ ผลลัพธ์คือการ project จาก input space ไปยัง output space ➡️ bias และ activation function เป็นส่วนเสริมที่ทำให้ระบบไม่เป็นเชิงเส้น ✅ ตัวอย่างการใช้งานจริง ➡️ เวกเตอร์ logits จาก GPT-2 มี 50,257 ค่า ➡️ softmax แปลงเวกเตอร์ให้รวมเป็น 1 และกระจายเป็นเปอร์เซ็นต์ ➡️ embedding space ใช้จัดกลุ่มคำที่มีความหมายใกล้กัน https://www.gilesthomas.com/2025/09/maths-for-llms
    WWW.GILESTHOMAS.COM
    The maths you need to start understanding LLMs
    A quick refresher on the maths behind LLMs: vectors, matrices, projections, embeddings, logits and softmax.
    0 ความคิดเห็น 0 การแบ่งปัน 219 มุมมอง 0 รีวิว
  • เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้

    Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน

    ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้

    จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้

    ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป

    นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด

    ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล

    จุดกำเนิดของ Fourier Transform
    Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น
    แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis
    Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน

    การใช้งานในยุคปัจจุบัน
    ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง
    ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน
    ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ

    การพัฒนาเพิ่มเติม
    Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม
    Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก
    ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่

    ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์
    Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ
    ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี
    เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย

    ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน
    Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป
    ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity

    ความเปราะบางของการตีความในฟิสิกส์
    การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง
    ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง

    ความไม่แน่นอนของการใช้งานในระบบจริง
    การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป
    การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ

    https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    🎙️ เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้ Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้ จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้ ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล ✅ จุดกำเนิดของ Fourier Transform ➡️ Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น ➡️ แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis ➡️ Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน ✅ การใช้งานในยุคปัจจุบัน ➡️ ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง ➡️ ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน ➡️ ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ ✅ การพัฒนาเพิ่มเติม ➡️ Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม ➡️ Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก ➡️ ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่ ✅ ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์ ➡️ Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ ➡️ ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี ➡️ เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย ‼️ ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน ⛔ Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป ⛔ ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity ‼️ ความเปราะบางของการตีความในฟิสิกส์ ⛔ การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง ⛔ ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง ‼️ ความไม่แน่นอนของการใช้งานในระบบจริง ⛔ การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป ⛔ การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    WWW.QUANTAMAGAZINE.ORG
    What Is the Fourier Transform?
    Amid the chaos of revolutionary France, one man’s mathematical obsession gave way to a calculation that now underpins much of mathematics and physics. The calculation, called the Fourier transform, decomposes any function into its parts.
    0 ความคิดเห็น 0 การแบ่งปัน 294 มุมมอง 0 รีวิว
  • เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง”

    Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง

    เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ

    แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2

    เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง

    Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน

    ความหมายของการจดจ่ออย่างต่อเนื่อง
    เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน
    ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์
    สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow

    ตัวอย่างจากประสบการณ์จริง
    การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง
    การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ
    การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง

    ข้อมูลเสริมจากงานวิจัย
    การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory)
    การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่
    ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น

    ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ
    การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack
    ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้

    ความเปราะบางของระบบประสาท
    การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว
    หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้

    ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ”
    ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน
    การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม

    https://www.henrikkarlsson.xyz/p/attention
    🎙️ เรื่องเล่าจากการจดจ่อ: เมื่อความสนใจที่ยาวนานทำให้โลกภายใน “บานสะพรั่ง” Henrik Karlsson เริ่มต้นด้วยการตั้งคำถามว่า ทำไมเราถึงมอง “การจดจ่อ” เป็นเรื่องเคร่งขรึม ทั้งที่จริงแล้วมันคือประสบการณ์ที่เข้มข้นและน่าหลงใหลที่สุดอย่างหนึ่งในชีวิต—โดยเฉพาะเมื่อเรายอมให้ความสนใจนั้น “วนซ้ำ” และ “เบ่งบาน” ในตัวมันเอง เขายกตัวอย่างจากประสบการณ์ทางเพศ ที่การยืดเวลาความพึงพอใจทำให้ระบบโดพามีนในสมองถูกกระตุ้นอย่างต่อเนื่อง จนเกิดการรับรู้ที่ลึกขึ้นในร่างกาย ความรู้สึกบนผิวหนัง กลายเป็นวงจรป้อนกลับที่ทำให้เราหลุดเข้าไปในภาวะที่เหนือกว่าความคิดปกติ แต่ไม่ใช่แค่เรื่องเซ็กซ์—Henrik ขยายแนวคิดนี้ไปยังความวิตก ความสุข ความเหงา และแม้แต่การฟังดนตรีหรือดูงานศิลปะ โดยชี้ว่าเมื่อเราจดจ่อกับสิ่งใดสิ่งหนึ่งนานพอ ระบบต่าง ๆ ในร่างกายจะเริ่ม “ประสานกัน” และสร้างประสบการณ์ที่ลึกขึ้นเรื่อย ๆ จนกลายเป็นภาวะเปลี่ยนแปลงของจิตใจ เช่น “jhana” หรือภาวะสมาธิขั้นสูงที่นักวิจัยพบว่ามีการเปลี่ยนแปลงของการเชื่อมต่อสมองในระดับลึก2 เขาเล่าถึงการฟังซิมโฟนีของ Sibelius ที่ทำให้เกิดภาพยนตร์ในหัวถึงสามเรื่องในเวลาเพียง 30 นาที—เพราะดนตรีมีโครงสร้างที่พอเหมาะระหว่างความคาดเดาได้และความแปลกใหม่ ทำให้สมองสามารถ “จดจ่อ” ได้อย่างลึกและต่อเนื่อง Henrik สรุปว่า ความสนใจที่ยาวนานไม่ใช่แค่เครื่องมือในการทำงานหรือการเรียนรู้ แต่คือประตูสู่ภาวะจิตที่ลึกกว่า ซึ่งอาจช่วยให้เราทำความเข้าใจตัวเอง ความรู้สึก และโลกได้ในระดับที่ไม่เคยเข้าถึงมาก่อน ✅ ความหมายของการจดจ่ออย่างต่อเนื่อง ➡️ เป็นภาวะที่ระบบต่าง ๆ ในร่างกายเริ่มประสานกัน ➡️ ทำให้เกิดวงจรป้อนกลับที่เพิ่มความเข้มข้นของประสบการณ์ ➡️ สามารถนำไปสู่ภาวะเปลี่ยนแปลงของจิต เช่น jhana หรือ flow ✅ ตัวอย่างจากประสบการณ์จริง ➡️ การยืดเวลาความพึงพอใจทางเพศทำให้ระบบโดพามีนถูกกระตุ้นอย่างต่อเนื่อง ➡️ การฟังดนตรีอย่างลึกสามารถสร้างภาพและเรื่องราวในจิตใจ ➡️ การจดจ่อกับความสุขหรือความเหงาอาจนำไปสู่ภาวะหลุดพ้นหรือการเข้าใจตัวเอง ✅ ข้อมูลเสริมจากงานวิจัย ➡️ การเข้าสู่ jhana มีการเปลี่ยนแปลงของการเชื่อมต่อสมองแบบไม่เป็นคลื่น (non-oscillatory) ➡️ การจดจ่อกับคณิตศาสตร์หรือโมเดล AI อย่างลึกสามารถสร้าง “ความใกล้ชิดทางวิจัย” ที่นำไปสู่ความเข้าใจใหม่ ➡️ ความสนใจที่ยาวนานช่วยให้ระบบภายใน “ปรับจูน” และสร้างความรู้สึกที่ลึกขึ้น ‼️ ความเสี่ยงจากการจดจ่อกับสิ่งที่เป็นลบ ⛔ การจดจ่อกับความวิตกอาจนำไปสู่ภาวะตื่นตระหนกหรือ panic attack ⛔ ความคิดลบอาจวนซ้ำและขยายตัวจนควบคุมไม่ได้ ‼️ ความเปราะบางของระบบประสาท ⛔ การเปลี่ยนแปลงของฮอร์โมนและระบบสมองต้องใช้เวลาในการปรับตัว ⛔ หากเปลี่ยนสิ่งที่สนใจบ่อยเกินไป ระบบภายในจะไม่สามารถประสานกันได้ ‼️ ความเข้าใจผิดเกี่ยวกับ “การจดจ่อ” ⛔ ไม่ใช่ทุกคนจะสามารถเข้าสู่ภาวะลึกได้ทันที ต้องอาศัยการฝึกฝน ⛔ การจดจ่ออย่างลึกอาจทำให้หลุดจากบริบทปัจจุบัน หากไม่มีการควบคุม https://www.henrikkarlsson.xyz/p/attention
    WWW.HENRIKKARLSSON.XYZ
    Almost anything you give sustained attention to will begin to loop on itself and bloom
    When people talk about the value of paying attention and slowing down, they often make it sound prudish and monk-like. But we shouldn’t forget how interesting and overpoweringly pleasurable sustained attention can be.
    0 ความคิดเห็น 0 การแบ่งปัน 311 มุมมอง 0 รีวิว
  • กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล

    Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ

    เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง

    การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด

    Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน

    เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น

    สรุปเนื้อหาเป็นหัวข้อ
    กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน
    ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง
    ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2
    บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง
    ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient
    ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation
    resample ภาพด้วย Hann window เพื่อป้องกัน aliasing
    demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array
    ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing
    ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว
    แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้
    ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี
    ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks
    ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด

    ข้อมูลเสริมจากภายนอก
    กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา
    strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ
    Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย
    KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง
    Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing
    patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D
    Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ

    https://daniel.lawrence.lu/blog/y2025m09d21/
    🎙️ กล้องที่ถ่ายภาพด้วยเวลา – เมื่อการถ่ายภาพรถไฟกลายเป็นศาสตร์แห่งการประมวลผล Daniel Lawrence ใช้กล้อง line scan เพื่อถ่ายภาพรถไฟที่เคลื่อนผ่านกล้องนิ่ง ๆ โดยกล้องจะมีแค่ 1–2 แถวพิกเซลที่สแกนต่อเนื่องในแนวตั้ง ขณะที่รถไฟเคลื่อนผ่านในแนวนอน ทำให้ภาพที่ได้มีความละเอียดสูงมาก และมีลักษณะพิเศษคือ “แถบแนวนอน” ที่เกิดจากฉากหลังซ้ำ ๆ เขาใช้กล้อง Alkeria Necta N4K2-7C ที่มีเซนเซอร์ Bayer array ขนาด 4096×2 และบันทึกข้อมูลแบบ raw 16-bit เพื่อให้สามารถประมวลผลได้อย่างละเอียดในภายหลัง การประมวลผลภาพจากกล้องนี้มีหลายขั้นตอน ตั้งแต่การตรวจจับวัตถุเคลื่อนที่ การประมาณความเร็ว การ resample ภาพ การ demosaic สี การลบแถบแนวตั้ง การลด noise การแก้ skew ไปจนถึงการปรับสี ซึ่งแต่ละขั้นตอนมีเทคนิคเฉพาะที่ต้องใช้ความเข้าใจทั้งด้านคณิตศาสตร์และการเขียนโค้ด Daniel ยังทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบว่าบางครั้ง AI สร้างโค้ดที่ซับซ้อนเกินจำเป็น เช่น การใช้ tensor ขนาดมหึมา หรือการสร้าง matrix ที่กิน RAM จนหมด ทำให้เขาต้องกลับมาเขียนเองในหลายส่วน เขาแชร์ภาพรถไฟจากหลายประเทศ รวมถึง Renfe AVE, CR400AF, และรถไฟใต้ดินนิวยอร์ก พร้อมเปรียบเทียบกับงานของ Adam Magyar และ KR64 ที่ใช้กล้อง strip scan แบบฟิล์มในการถ่ายภาพรถไฟในญี่ปุ่น 📌 สรุปเนื้อหาเป็นหัวข้อ ➡️ กล้อง line scan ใช้แถวพิกเซลเดียวในการสแกนวัตถุที่เคลื่อนผ่าน ➡️ ภาพที่ได้มีความละเอียดสูงและมีลักษณะ “แถบแนวนอน” จากฉากหลัง ➡️ ใช้กล้อง Alkeria Necta N4K2-7C เซนเซอร์ Bayer array ขนาด 4096×2 ➡️ บันทึกข้อมูลแบบ raw 16-bit เพื่อประมวลผลภายหลัง ➡️ ตรวจจับวัตถุเคลื่อนที่ด้วย energy function และการวิเคราะห์ gradient ➡️ ประมาณความเร็วโดยเปรียบเทียบ green channels และใช้ spline interpolation ➡️ resample ภาพด้วย Hann window เพื่อป้องกัน aliasing ➡️ demosaic สีด้วย bilinear interpolation และจัดการ offset ของ Bayer array ➡️ ลบแถบแนวตั้งด้วย weighted least squares และ exponential smoothing ➡️ ลด noise ด้วย patch-based denoising ที่ใช้ self-similarity ตลอดแถว ➡️ แก้ skew ด้วย Hough transform และ sampling ใหม่หลังการแก้ ➡️ ปรับสีด้วย matrix ที่ “เดาเอา” แต่ได้ผลลัพธ์ที่ดูดี ➡️ ใช้ Python และ numpy ในการเขียนโค้ด โดยแบ่งข้อมูลเป็น chunks ➡️ ทดลองใช้ AI agent ในการช่วยเขียนโค้ด แต่พบข้อจำกัดหลายจุด ✅ ข้อมูลเสริมจากภายนอก ➡️ กล้อง line scan ใช้หลักการเดียวกับ photo finish camera ในการแข่งขันกีฬา ➡️ strip scan camera แบบฟิล์มต้องดึงฟิล์มด้วยความเร็วที่สัมพันธ์กับวัตถุ ➡️ Adam Magyar ใช้กล้องดิจิทัลในการถ่ายภาพใต้ดินที่มีแสงน้อย ➡️ KR64 ใช้กล้องฟิล์มในการถ่ายภาพรถไฟญี่ปุ่นอย่างต่อเนื่อง ➡️ Hann window เป็นหนึ่งใน window function ที่นิยมใช้ใน signal processing ➡️ patch-based denoising เป็นเทคนิคที่ใช้ในงานวิจัยด้านภาพ เช่น BM3D ➡️ Hough transform ใช้ในการตรวจจับเส้นตรงและ skew ในภาพ https://daniel.lawrence.lu/blog/y2025m09d21/
    DANIEL.LAWRENCE.LU
    Line scan camera image processing
    I use my line scan camera to take cool pictures of trains and other stuff.
    0 ความคิดเห็น 0 การแบ่งปัน 328 มุมมอง 0 รีวิว
  • หั่นหัวหอมแบบคณิตศาสตร์: เมื่อความสม่ำเสมอคือเป้าหมาย

    หลายคนอาจคิดว่าการหั่นหัวหอมคือเรื่องของทักษะในครัว แต่สำหรับนักคณิตศาสตร์และเชฟอย่าง J. Kenji López-Alt มันคือโจทย์ที่แก้ได้ด้วยสมการ

    การหั่นแบบทั่วไป—แนวตั้ง—ให้ชิ้นที่ใกล้เคียงกันตรงกลาง แต่ด้านล่างกลับใหญ่เกินไป ส่วนการหั่นแบบรัศมี (radial) ก็มีปัญหาอีกแบบ คือชิ้นด้านนอกใหญ่กว่าด้านในมาก

    เพื่อหาวิธีที่ดีที่สุด ทีมงานจาก The Pudding ทดลองหั่นหัวหอมจำลองที่มี 10 ชั้น ด้วยวิธีต่าง ๆ แล้วคำนวณความเบี่ยงเบนมาตรฐานของขนาดชิ้นหอม

    ผลคือ การหั่นแบบรัศมีโดยเล็งไปที่จุดลึกประมาณ 96% ของรัศมีหัวหอมจากด้านบน ให้ค่าความเบี่ยงเบนต่ำที่สุดที่ 29.5% ซึ่งหมายถึงชิ้นหอมที่สม่ำเสมอที่สุด

    แม้จะมีการวิเคราะห์เชิงทฤษฎีโดย Dr. Dylan Poulsen ว่าค่าคงที่ของหัวหอมอยู่ที่ ~55.731% ของรัศมี แต่ในโลกจริงที่เราหั่นได้แค่ 10 ครั้ง การเล็งลึกถึง 96% กลับให้ผลดีที่สุด

    อย่างไรก็ตาม Kenji ก็ย้ำว่า “ความสม่ำเสมอของชิ้นหอมสำคัญแค่ในอินเทอร์เน็ต ไม่ใช่ในครัวจริง” เพราะสุดท้ายแล้ว รสชาติอาหารไม่ได้ขึ้นอยู่กับความเป๊ะของการหั่น


    https://pudding.cool/2025/08/onions/
    🧠 หั่นหัวหอมแบบคณิตศาสตร์: เมื่อความสม่ำเสมอคือเป้าหมาย หลายคนอาจคิดว่าการหั่นหัวหอมคือเรื่องของทักษะในครัว แต่สำหรับนักคณิตศาสตร์และเชฟอย่าง J. Kenji López-Alt มันคือโจทย์ที่แก้ได้ด้วยสมการ การหั่นแบบทั่วไป—แนวตั้ง—ให้ชิ้นที่ใกล้เคียงกันตรงกลาง แต่ด้านล่างกลับใหญ่เกินไป ส่วนการหั่นแบบรัศมี (radial) ก็มีปัญหาอีกแบบ คือชิ้นด้านนอกใหญ่กว่าด้านในมาก เพื่อหาวิธีที่ดีที่สุด ทีมงานจาก The Pudding ทดลองหั่นหัวหอมจำลองที่มี 10 ชั้น ด้วยวิธีต่าง ๆ แล้วคำนวณความเบี่ยงเบนมาตรฐานของขนาดชิ้นหอม ผลคือ การหั่นแบบรัศมีโดยเล็งไปที่จุดลึกประมาณ 96% ของรัศมีหัวหอมจากด้านบน ให้ค่าความเบี่ยงเบนต่ำที่สุดที่ 29.5% ซึ่งหมายถึงชิ้นหอมที่สม่ำเสมอที่สุด แม้จะมีการวิเคราะห์เชิงทฤษฎีโดย Dr. Dylan Poulsen ว่าค่าคงที่ของหัวหอมอยู่ที่ ~55.731% ของรัศมี แต่ในโลกจริงที่เราหั่นได้แค่ 10 ครั้ง การเล็งลึกถึง 96% กลับให้ผลดีที่สุด อย่างไรก็ตาม Kenji ก็ย้ำว่า “ความสม่ำเสมอของชิ้นหอมสำคัญแค่ในอินเทอร์เน็ต ไม่ใช่ในครัวจริง” เพราะสุดท้ายแล้ว รสชาติอาหารไม่ได้ขึ้นอยู่กับความเป๊ะของการหั่น https://pudding.cool/2025/08/onions/
    PUDDING.COOL
    Dicing an Onion, the Mathematically Optimal Way
    There is more than one way to dice an onion…
    0 ความคิดเห็น 0 การแบ่งปัน 181 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก

    ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS

    ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง

    แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว

    ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้
    ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต

    ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม
    เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้

    ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม
    มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy

    แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson
    เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้

    ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม
    เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้

    ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable
    ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี

    คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้
    ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง

    Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง
    แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้

    Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส
    เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม

    https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    🎲🔐 เรื่องเล่าจากโลกควอนตัม: เมื่อคอมพิวเตอร์ควอนตัมสร้าง “ความสุ่มที่พิสูจน์ได้” เป็นครั้งแรก ในเดือนสิงหาคม 2025 ทีมนักวิจัยจาก JPMorganChase, Quantinuum, Argonne และ Oak Ridge National Laboratory รวมถึงมหาวิทยาลัย Texas at Austin ได้สร้างปรากฏการณ์ใหม่ในวงการควอนตัมคอมพิวติ้ง พวกเขาใช้คอมพิวเตอร์ควอนตัมขนาด 56 qubit สร้างตัวเลขสุ่มที่ไม่เพียงแค่ “ดูเหมือนสุ่ม” แต่สามารถพิสูจน์ได้ทางคณิตศาสตร์ว่า “สุ่มจริง” ด้วยการตรวจสอบจากซูเปอร์คอมพิวเตอร์คลาสสิกที่มีพลังประมวลผลระดับ 1.1 ExaFLOPS ความสำเร็จนี้เรียกว่า “certified randomness” ซึ่งหมายถึงตัวเลขที่ไม่สามารถคาดเดาได้ ไม่สามารถสร้างซ้ำได้ และไม่สามารถปลอมแปลงได้แม้จะมีการแทรกแซงจากภายนอก โดยใช้เทคนิค random circuit sampling (RCS) ที่ท้าทายให้คอมพิวเตอร์ควอนตัมเลือกคำตอบแบบสุ่มจากชุดคำถามที่สร้างจาก seed เล็ก ๆ แล้วให้ซูเปอร์คอมพิวเตอร์ตรวจสอบผลลัพธ์ว่าเป็นความสุ่มจริง แนวคิดนี้ถูกเสนอครั้งแรกโดย Scott Aaronson ในปี 2018 และวันนี้มันได้กลายเป็นจริง พร้อมเปิดประตูสู่การใช้งานในโลกจริง เช่น การเข้ารหัสข้อมูล การสร้างระบบที่ยุติธรรม และการปกป้องความเป็นส่วนตัว ✅ ทีมนักวิจัยใช้คอมพิวเตอร์ควอนตัม 56 qubit สร้างตัวเลขสุ่มที่พิสูจน์ได้ ➡️ ใช้ Quantinuum System Model H2-1 ผ่านอินเทอร์เน็ต ✅ ใช้เทคนิค random circuit sampling (RCS) เพื่อสร้างความสุ่ม ➡️ เป็นกระบวนการที่คอมพิวเตอร์คลาสสิกไม่สามารถจำลองได้ ✅ ซูเปอร์คอมพิวเตอร์คลาสสิกถูกใช้ตรวจสอบความสุ่ม ➡️ มีพลังประมวลผลรวม 1.1 ExaFLOPS เพื่อรับรอง 71,313 bits ของ entropy ✅ แนวคิด “certified randomness” ถูกเสนอโดย Scott Aaronson ➡️ เป็นการพิสูจน์ว่าความสุ่มนั้นไม่สามารถปลอมแปลงได้ ✅ ผลลัพธ์นี้มีประโยชน์ต่อการเข้ารหัส ความเป็นส่วนตัว และความยุติธรรม ➡️ เป็นก้าวแรกสู่การใช้ควอนตัมคอมพิวเตอร์ในงานจริงที่คลาสสิกทำไม่ได้ ✅ ความสุ่มที่พิสูจน์ได้มีความสำคัญต่อการเข้ารหัสแบบ unhackable ➡️ ป้องกันการคาดเดาหรือย้อนรอยจากผู้ไม่หวังดี ✅ คอมพิวเตอร์คลาสสิกใช้ pseudo-random generators ที่สามารถถูกควบคุมได้ ➡️ ไม่เหมาะกับงานที่ต้องการความปลอดภัยระดับสูง ✅ Quantum supremacy เคยเป็นแค่แนวคิด แต่วันนี้กลายเป็นการใช้งานจริง ➡️ แสดงให้เห็นว่าควอนตัมคอมพิวเตอร์สามารถแก้ปัญหาที่คลาสสิกทำไม่ได้ ✅ Certified randomness สามารถใช้ในระบบเลือกตั้งดิจิทัล หรือการจับฉลากที่โปร่งใส ➡️ เพิ่มความน่าเชื่อถือในระบบที่ต้องการความยุติธรรม https://www.neowin.net/news/quantum-computer-does-something-for-first-time-creates-certified-truly-random-numbers/
    WWW.NEOWIN.NET
    Quantum computer does something for first time, creates "certified truly random" numbers
    Researchers achieve a breakthrough using quantum computing to generate and certify randomness, solving a problem classical computers can't tackle alone.
    0 ความคิดเห็น 0 การแบ่งปัน 377 มุมมอง 0 รีวิว
  • เรื่องเล่าจากข่าว: GPU กำลังจะกลายเป็นสินทรัพย์การเงินที่ซื้อขายได้

    Startup ชื่อ OneChronos จับมือกับ Auctionomics บริษัทออกแบบตลาดที่ก่อตั้งโดย Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เพื่อสร้าง “ตลาดซื้อขายล่วงหน้า GPU” แห่งแรกของโลก โดยเป้าหมายคือให้ผู้ใช้งานสามารถ “ล็อกราคา” และ “จัดการความเสี่ยง” ของการเข้าถึง GPU ได้เหมือนกับการซื้อขายสินค้าโภคภัณฑ์ เช่น น้ำมันหรือไฟฟ้า

    ในยุคที่ AI เติบโตอย่างรวดเร็ว GPU กลายเป็นทรัพยากรที่มีค่ามากที่สุด แต่กลับไม่มีเครื่องมือทางการเงินใดที่ช่วยให้บริษัทสามารถวางแผนหรือป้องกันความเสี่ยงจากราคาที่ผันผวนได้เลย

    ตลาดใหม่นี้จะใช้ระบบ “การประมูลแบบอัจฉริยะ” เพื่อให้ผู้ใช้งานสามารถเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ โดย Auctionomics จะช่วยออกแบบกลไกตลาดให้มีประสิทธิภาพ โปร่งใส และสามารถจัดสรรทรัพยากรได้อย่างเหมาะสม

    OneChronos และ Auctionomics ร่วมกันสร้างตลาดซื้อขายล่วงหน้า GPU แห่งแรกของโลก
    ใช้ระบบประมูลอัจฉริยะเพื่อจัดสรรทรัพยากร GPU อย่างมีประสิทธิภาพ
    เปรียบเสมือน “ตลาดซื้อขายน้ำมัน” สำหรับโลก AI

    Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เป็นผู้ออกแบบกลไกตลาด
    เคยออกแบบการประมูลคลื่นความถี่ที่เปลี่ยนโฉมวงการโทรคมนาคม
    ใช้ทฤษฎีเกมและคณิตศาสตร์เพื่อสร้างแรงจูงใจที่เหมาะสม

    GPU ถูกมองว่าเป็น “สินทรัพย์องค์กรที่ยังไม่มีการป้องกันความเสี่ยง” ที่ใหญ่ที่สุดในโลก
    ไม่มีเครื่องมือทางการเงินใดที่ช่วยล็อกราคาหรือจัดการความเสี่ยง
    ต่างจากน้ำมันหรือไฟฟ้าที่มีตลาดซื้อขายล่วงหน้า

    ระบบจะเปิดให้ผู้ใช้งานเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ
    ช่วยให้บริษัทสามารถวางแผนล่วงหน้าและควบคุมต้นทุนได้
    ลดปัญหาการขาดแคลนและราคาผันผวนในช่วงที่มีความต้องการสูง

    ตลาดนี้จะเปิดให้ผู้เข้าร่วมหลากหลาย เช่น ผู้ผลิตชิป, ผู้ให้บริการคลาวด์, นักลงทุนในศูนย์ข้อมูล
    ยิ่งมีผู้เข้าร่วมหลากหลาย ตลาดจะยิ่งมีความโปร่งใสและมีสภาพคล่องสูง
    ช่วยให้เกิดการค้นหาราคาที่แท้จริงของทรัพยากร GPU

    https://www.techspot.com/news/108879-startup-nobel-laureate-collaborate-create-gpu-financial-exchange.html
    🎙️ เรื่องเล่าจากข่าว: GPU กำลังจะกลายเป็นสินทรัพย์การเงินที่ซื้อขายได้ Startup ชื่อ OneChronos จับมือกับ Auctionomics บริษัทออกแบบตลาดที่ก่อตั้งโดย Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เพื่อสร้าง “ตลาดซื้อขายล่วงหน้า GPU” แห่งแรกของโลก โดยเป้าหมายคือให้ผู้ใช้งานสามารถ “ล็อกราคา” และ “จัดการความเสี่ยง” ของการเข้าถึง GPU ได้เหมือนกับการซื้อขายสินค้าโภคภัณฑ์ เช่น น้ำมันหรือไฟฟ้า ในยุคที่ AI เติบโตอย่างรวดเร็ว GPU กลายเป็นทรัพยากรที่มีค่ามากที่สุด แต่กลับไม่มีเครื่องมือทางการเงินใดที่ช่วยให้บริษัทสามารถวางแผนหรือป้องกันความเสี่ยงจากราคาที่ผันผวนได้เลย ตลาดใหม่นี้จะใช้ระบบ “การประมูลแบบอัจฉริยะ” เพื่อให้ผู้ใช้งานสามารถเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ โดย Auctionomics จะช่วยออกแบบกลไกตลาดให้มีประสิทธิภาพ โปร่งใส และสามารถจัดสรรทรัพยากรได้อย่างเหมาะสม ✅ OneChronos และ Auctionomics ร่วมกันสร้างตลาดซื้อขายล่วงหน้า GPU แห่งแรกของโลก ➡️ ใช้ระบบประมูลอัจฉริยะเพื่อจัดสรรทรัพยากร GPU อย่างมีประสิทธิภาพ ➡️ เปรียบเสมือน “ตลาดซื้อขายน้ำมัน” สำหรับโลก AI ✅ Paul Milgrom นักเศรษฐศาสตร์รางวัลโนเบล เป็นผู้ออกแบบกลไกตลาด ➡️ เคยออกแบบการประมูลคลื่นความถี่ที่เปลี่ยนโฉมวงการโทรคมนาคม ➡️ ใช้ทฤษฎีเกมและคณิตศาสตร์เพื่อสร้างแรงจูงใจที่เหมาะสม ✅ GPU ถูกมองว่าเป็น “สินทรัพย์องค์กรที่ยังไม่มีการป้องกันความเสี่ยง” ที่ใหญ่ที่สุดในโลก ➡️ ไม่มีเครื่องมือทางการเงินใดที่ช่วยล็อกราคาหรือจัดการความเสี่ยง ➡️ ต่างจากน้ำมันหรือไฟฟ้าที่มีตลาดซื้อขายล่วงหน้า ✅ ระบบจะเปิดให้ผู้ใช้งานเสนอราคาสำหรับเวลาใช้งาน GPU หรือความจุที่ต้องการ ➡️ ช่วยให้บริษัทสามารถวางแผนล่วงหน้าและควบคุมต้นทุนได้ ➡️ ลดปัญหาการขาดแคลนและราคาผันผวนในช่วงที่มีความต้องการสูง ✅ ตลาดนี้จะเปิดให้ผู้เข้าร่วมหลากหลาย เช่น ผู้ผลิตชิป, ผู้ให้บริการคลาวด์, นักลงทุนในศูนย์ข้อมูล ➡️ ยิ่งมีผู้เข้าร่วมหลากหลาย ตลาดจะยิ่งมีความโปร่งใสและมีสภาพคล่องสูง ➡️ ช่วยให้เกิดการค้นหาราคาที่แท้จริงของทรัพยากร GPU https://www.techspot.com/news/108879-startup-nobel-laureate-collaborate-create-gpu-financial-exchange.html
    WWW.TECHSPOT.COM
    Startup and Nobel laureate collaborate to create GPU financial exchange
    The world of artificial intelligence is built on computing power, and at the heart of that engine are graphics processing units. These chips are in such high...
    0 ความคิดเห็น 0 การแบ่งปัน 306 มุมมอง 0 รีวิว
  • เรื่องเล่าจากกล้องสู่คำตอบ: Search Live กับการค้นหาแบบเห็นภาพจริง

    Google ได้เปิดตัวฟีเจอร์ใหม่ใน AI Mode ที่ชื่อว่า Search Live ซึ่งเป็นการนำเทคโนโลยีจาก Project Astra มาใช้ในระบบค้นหา โดยผู้ใช้สามารถเปิดกล้องมือถือผ่าน Google Lens แล้วสตรีมภาพแบบสดเข้าสู่ AI Mode เพื่อถามคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้า เช่น สูตรอาหารจากวัตถุดิบในตู้เย็น หรือการวิเคราะห์แผนภาพทางคณิตศาสตร์

    นอกจากนี้ Google ยังเพิ่มฟีเจอร์อื่นๆ เช่น การอัปโหลดไฟล์ PDF และภาพ เพื่อให้ AI วิเคราะห์เนื้อหาในไฟล์ร่วมกับข้อมูลจากเว็บ และตอบคำถามได้อย่างมีบริบท รวมถึงฟีเจอร์ Canvas ที่ช่วยให้ผู้ใช้สามารถวางแผนหรือจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ซึ่งจะอัปเดตตามคำถามและการแก้ไขของผู้ใช้

    Search Live เปิดให้ผู้ใช้สตรีมภาพจากกล้องมือถือเข้าสู่ AI Mode ใน Google Search
    ใช้ผ่าน Google Lens โดยแตะไอคอน “Live” แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น
    AI จะตอบคำถามแบบโต้ตอบ พร้อมลิงก์ข้อมูลเพิ่มเติมจากเว็บ

    ฟีเจอร์นี้ใช้เทคโนโลยีจาก Project Astra ของ Google DeepMind
    เป็นการค้นหาแบบมัลติโหมดที่รวมภาพ เสียง และข้อความ
    ช่วยให้ AI เข้าใจบริบทของสิ่งที่ผู้ใช้กำลังดูอยู่

    AI Mode รองรับการอัปโหลดไฟล์ PDF และภาพบนเดสก์ท็อป
    ผู้ใช้สามารถถามคำถามเกี่ยวกับเนื้อหาในไฟล์ได้โดยตรง
    AI จะวิเคราะห์เนื้อหาในไฟล์และเชื่อมโยงกับข้อมูลจากเว็บ

    ฟีเจอร์ Canvas ช่วยจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก
    เหมาะสำหรับการสร้างแผนการเรียน, แผนการเดินทาง หรือรายการงาน
    สามารถแก้ไขและติดตามข้อมูลได้หลายครั้งในแต่ละเซสชัน

    ฟีเจอร์ใหม่ทั้งหมดเริ่มเปิดใช้งานในสหรัฐฯ สำหรับผู้ใช้ในโปรแกรม Labs ของ AI Mode
    รองรับเฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป
    ฟีเจอร์จะทยอยเปิดใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า

    https://www.neowin.net/news/google-will-let-you-stream-your-live-camera-feed-to-ai-mode-in-search-for-better-results/
    📱 เรื่องเล่าจากกล้องสู่คำตอบ: Search Live กับการค้นหาแบบเห็นภาพจริง Google ได้เปิดตัวฟีเจอร์ใหม่ใน AI Mode ที่ชื่อว่า Search Live ซึ่งเป็นการนำเทคโนโลยีจาก Project Astra มาใช้ในระบบค้นหา โดยผู้ใช้สามารถเปิดกล้องมือถือผ่าน Google Lens แล้วสตรีมภาพแบบสดเข้าสู่ AI Mode เพื่อถามคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้า เช่น สูตรอาหารจากวัตถุดิบในตู้เย็น หรือการวิเคราะห์แผนภาพทางคณิตศาสตร์ นอกจากนี้ Google ยังเพิ่มฟีเจอร์อื่นๆ เช่น การอัปโหลดไฟล์ PDF และภาพ เพื่อให้ AI วิเคราะห์เนื้อหาในไฟล์ร่วมกับข้อมูลจากเว็บ และตอบคำถามได้อย่างมีบริบท รวมถึงฟีเจอร์ Canvas ที่ช่วยให้ผู้ใช้สามารถวางแผนหรือจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ซึ่งจะอัปเดตตามคำถามและการแก้ไขของผู้ใช้ ✅ Search Live เปิดให้ผู้ใช้สตรีมภาพจากกล้องมือถือเข้าสู่ AI Mode ใน Google Search ➡️ ใช้ผ่าน Google Lens โดยแตะไอคอน “Live” แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น ➡️ AI จะตอบคำถามแบบโต้ตอบ พร้อมลิงก์ข้อมูลเพิ่มเติมจากเว็บ ✅ ฟีเจอร์นี้ใช้เทคโนโลยีจาก Project Astra ของ Google DeepMind ➡️ เป็นการค้นหาแบบมัลติโหมดที่รวมภาพ เสียง และข้อความ ➡️ ช่วยให้ AI เข้าใจบริบทของสิ่งที่ผู้ใช้กำลังดูอยู่ ✅ AI Mode รองรับการอัปโหลดไฟล์ PDF และภาพบนเดสก์ท็อป ➡️ ผู้ใช้สามารถถามคำถามเกี่ยวกับเนื้อหาในไฟล์ได้โดยตรง ➡️ AI จะวิเคราะห์เนื้อหาในไฟล์และเชื่อมโยงกับข้อมูลจากเว็บ ✅ ฟีเจอร์ Canvas ช่วยจัดระเบียบข้อมูลในแถบด้านข้างแบบไดนามิก ➡️ เหมาะสำหรับการสร้างแผนการเรียน, แผนการเดินทาง หรือรายการงาน ➡️ สามารถแก้ไขและติดตามข้อมูลได้หลายครั้งในแต่ละเซสชัน ✅ ฟีเจอร์ใหม่ทั้งหมดเริ่มเปิดใช้งานในสหรัฐฯ สำหรับผู้ใช้ในโปรแกรม Labs ของ AI Mode ➡️ รองรับเฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป ➡️ ฟีเจอร์จะทยอยเปิดใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า https://www.neowin.net/news/google-will-let-you-stream-your-live-camera-feed-to-ai-mode-in-search-for-better-results/
    WWW.NEOWIN.NET
    Google will let you stream your live camera feed to AI Mode in Search for better results
    Google has announced a ton of new capabilities coming soon to AI Mode in Search, including Search Live, which streams your live camera feed to Google Search.
    0 ความคิดเห็น 0 การแบ่งปัน 237 มุมมอง 0 รีวิว
  • เรื่องเล่าจากโลกของ Embedding: เมื่อข้อความกลายเป็นตัวเลขที่มีความหมาย

    ลองจินตนาการว่าเราให้โมเดลภาษาอย่าง Llama2 หรือ Mistral อ่านประโยคหนึ่ง เช่น “แมวกระโดดขึ้นโต๊ะ” แล้วถามว่า “เข้าใจไหม?” โมเดลจะไม่ตอบว่า “เข้าใจ” แบบมนุษย์ แต่จะเปลี่ยนประโยคนั้นเป็นชุดตัวเลขที่เรียกว่า embedding ซึ่งเป็นการแปลงข้อความให้กลายเป็น “ความหมายในเชิงคณิตศาสตร์”

    ใน Hugging Face Space นี้ hesamation ได้อธิบายว่า embedding คือการนำข้อความผ่านกระบวนการหลายขั้นตอนในโมเดล LLM เพื่อให้ได้เวกเตอร์ที่สื่อถึงความหมายของข้อความนั้น โดยใช้เทคนิคการ pooling เช่น การเฉลี่ย (average), การใช้ token พิเศษ [CLS], หรือการเลือกค่ามากสุด (max pooling)

    นอกจากนี้ยังมีการอธิบายว่า embedding ไม่ใช่แค่ตัวเลขธรรมดา แต่เป็นการสรุปความหมาย, บริบท, และโครงสร้างของข้อความในรูปแบบที่โมเดลเข้าใจได้ และสามารถนำไปใช้ในงานต่าง ๆ เช่น การค้นหาความคล้ายคลึง, การจัดกลุ่มข้อมูล, หรือการตอบคำถาม

    Embedding คือการแปลงข้อความให้เป็นเวกเตอร์ที่มีความหมาย
    ใช้ในงาน NLP เช่น การค้นหา, การจัดกลุ่ม, การตอบคำถาม

    โมเดล LLM เช่น Llama2 และ Mistral สร้าง embedding จาก hidden states หลายชั้น
    hidden states มีรูปแบบ [batch_size, number_of_tokens, embedding_size]
    ต้องใช้เทคนิค pooling เพื่อให้ได้ embedding เดียวต่อข้อความ

    เทคนิค pooling มีหลายแบบให้เลือกใช้ตามบริบทของงาน
    เช่น average pooling, max pooling, [CLS] token pooling
    attention_mask ใช้เพื่อกรอง token ที่เป็น padding

    embedding เป็นพื้นฐานสำคัญของการเข้าใจภาษาธรรมชาติในโมเดล AI
    ช่วยให้โมเดลเข้าใจความหมายและบริบทของข้อความ
    เป็นจุดเริ่มต้นของการประมวลผลข้อมูลเชิงภาษา

    การเลือก pooling strategy ที่ไม่เหมาะสมอาจทำให้ embedding ไม่สะท้อนความหมายที่แท้จริง
    เช่น การใช้ average pooling กับข้อความที่มี padding มาก อาจทำให้ผลลัพธ์ผิดเพี้ยน
    ต้องใช้ attention_mask เพื่อกรอง token ที่ไม่สำคัญ

    การใช้ embedding จากโมเดลที่ไม่รองรับงานเฉพาะทาง อาจให้ผลลัพธ์ไม่แม่นยำ
    เช่น ใช้ embedding จากโมเดลทั่วไปกับงานทางการแพทย์หรือกฎหมาย
    ควรเลือกโมเดลที่ fine-tune มาเพื่อบริบทนั้นโดยเฉพาะ

    การใช้ embedding โดยไม่เข้าใจโครงสร้างของ hidden states อาจทำให้เกิดข้อผิดพลาดในการประมวลผล
    เช่น การเลือก hidden state ชั้นที่ไม่เหมาะสม
    ควรศึกษาว่าแต่ละชั้นของโมเดลมีความหมายอย่างไร

    https://huggingface.co/spaces/hesamation/primer-llm-embedding
    🧠 เรื่องเล่าจากโลกของ Embedding: เมื่อข้อความกลายเป็นตัวเลขที่มีความหมาย ลองจินตนาการว่าเราให้โมเดลภาษาอย่าง Llama2 หรือ Mistral อ่านประโยคหนึ่ง เช่น “แมวกระโดดขึ้นโต๊ะ” แล้วถามว่า “เข้าใจไหม?” โมเดลจะไม่ตอบว่า “เข้าใจ” แบบมนุษย์ แต่จะเปลี่ยนประโยคนั้นเป็นชุดตัวเลขที่เรียกว่า embedding ซึ่งเป็นการแปลงข้อความให้กลายเป็น “ความหมายในเชิงคณิตศาสตร์” ใน Hugging Face Space นี้ hesamation ได้อธิบายว่า embedding คือการนำข้อความผ่านกระบวนการหลายขั้นตอนในโมเดล LLM เพื่อให้ได้เวกเตอร์ที่สื่อถึงความหมายของข้อความนั้น โดยใช้เทคนิคการ pooling เช่น การเฉลี่ย (average), การใช้ token พิเศษ [CLS], หรือการเลือกค่ามากสุด (max pooling) นอกจากนี้ยังมีการอธิบายว่า embedding ไม่ใช่แค่ตัวเลขธรรมดา แต่เป็นการสรุปความหมาย, บริบท, และโครงสร้างของข้อความในรูปแบบที่โมเดลเข้าใจได้ และสามารถนำไปใช้ในงานต่าง ๆ เช่น การค้นหาความคล้ายคลึง, การจัดกลุ่มข้อมูล, หรือการตอบคำถาม ✅ Embedding คือการแปลงข้อความให้เป็นเวกเตอร์ที่มีความหมาย ➡️ ใช้ในงาน NLP เช่น การค้นหา, การจัดกลุ่ม, การตอบคำถาม ✅ โมเดล LLM เช่น Llama2 และ Mistral สร้าง embedding จาก hidden states หลายชั้น ➡️ hidden states มีรูปแบบ [batch_size, number_of_tokens, embedding_size] ➡️ ต้องใช้เทคนิค pooling เพื่อให้ได้ embedding เดียวต่อข้อความ ✅ เทคนิค pooling มีหลายแบบให้เลือกใช้ตามบริบทของงาน ➡️ เช่น average pooling, max pooling, [CLS] token pooling ➡️ attention_mask ใช้เพื่อกรอง token ที่เป็น padding ✅ embedding เป็นพื้นฐานสำคัญของการเข้าใจภาษาธรรมชาติในโมเดล AI ➡️ ช่วยให้โมเดลเข้าใจความหมายและบริบทของข้อความ ➡️ เป็นจุดเริ่มต้นของการประมวลผลข้อมูลเชิงภาษา ‼️ การเลือก pooling strategy ที่ไม่เหมาะสมอาจทำให้ embedding ไม่สะท้อนความหมายที่แท้จริง ⛔ เช่น การใช้ average pooling กับข้อความที่มี padding มาก อาจทำให้ผลลัพธ์ผิดเพี้ยน ⛔ ต้องใช้ attention_mask เพื่อกรอง token ที่ไม่สำคัญ ‼️ การใช้ embedding จากโมเดลที่ไม่รองรับงานเฉพาะทาง อาจให้ผลลัพธ์ไม่แม่นยำ ⛔ เช่น ใช้ embedding จากโมเดลทั่วไปกับงานทางการแพทย์หรือกฎหมาย ⛔ ควรเลือกโมเดลที่ fine-tune มาเพื่อบริบทนั้นโดยเฉพาะ ‼️ การใช้ embedding โดยไม่เข้าใจโครงสร้างของ hidden states อาจทำให้เกิดข้อผิดพลาดในการประมวลผล ⛔ เช่น การเลือก hidden state ชั้นที่ไม่เหมาะสม ⛔ ควรศึกษาว่าแต่ละชั้นของโมเดลมีความหมายอย่างไร https://huggingface.co/spaces/hesamation/primer-llm-embedding
    HUGGINGFACE.CO
    LLM Embeddings Explained: A Visual and Intuitive Guide - a Hugging Face Space by hesamation
    This app explains how language models transform text into meaningful representations through embeddings. It provides a visual guide to help you understand traditional and modern language model tech...
    0 ความคิดเห็น 0 การแบ่งปัน 249 มุมมอง 0 รีวิว
  • เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์

    IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา:
    - พีชคณิต (Algebra)
    - ทฤษฎีจำนวน (Number Theory)
    - เรขาคณิต (Geometry)
    - คอมบิเนอริกส์ (Combinatorics)

    ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์

    สิ่งที่น่าทึ่งคือ:
    - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน)
    - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน
    - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา
    - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้

    เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น:
    - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ
    - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน
    - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO

    Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง
    แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง

    เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ
    ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ

    ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน
    ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end

    Gemini Deep Think ทำงานแบบ natural language ทั้งหมด
    ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที

    ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน
    เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด

    ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน
    ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์

    จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra
    เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง

    การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง
    หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด

    การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์
    เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน

    การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO
    ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง

    การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน
    ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ

    https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
    🎙️ เรื่องเล่าจากสนามโอลิมปิกคณิตศาสตร์: เมื่อ AI ได้เหรียญทองในสนามมนุษย์ IMO เป็นการแข่งขันคณิตศาสตร์ระดับโลกที่จัดต่อเนื่องมาตั้งแต่ปี 1959 โดยแต่ละประเทศส่งนักเรียนมัธยมปลาย 6 คนมาแข่งขันกันในโจทย์ที่ยากมากในสาขา: - พีชคณิต (Algebra) - ทฤษฎีจำนวน (Number Theory) - เรขาคณิต (Geometry) - คอมบิเนอริกส์ (Combinatorics) ปีนี้ Google DeepMind ส่งโมเดล Gemini Deep Think เข้าร่วมในฐานะ AI system ที่ถูกประเมินโดยกรรมการ IMO จริง — และสามารถแก้โจทย์ได้ 5 จาก 6 ข้ออย่างถูกต้อง ได้คะแนนรวม 35 จาก 42 คะแนน ซึ่งเทียบเท่ากับระดับเหรียญทองของมนุษย์ สิ่งที่น่าทึ่งคือ: - ปีที่แล้ว AlphaGeometry + AlphaProof ทำได้แค่ระดับเหรียญเงิน (28 คะแนน) - ต้องใช้การแปลโจทย์เป็นภาษาสัญลักษณ์ (เช่น Lean) และใช้เวลาคำนวณ 2–3 วัน - ปีนี้ Gemini Deep Think ทำงานแบบ end-to-end ด้วยภาษาอังกฤษธรรมดา - ใช้เวลาเท่ากับการแข่งขันจริง (4.5 ชั่วโมง) และให้คำตอบที่ตรวจสอบได้ เบื้องหลังความสำเร็จคือการใช้เทคนิคใหม่ เช่น: - Parallel Thinking: คิดหลายแนวทางพร้อมกันก่อนเลือกคำตอบ - Reinforcement Learning: ฝึกจากข้อมูลการแก้โจทย์หลายขั้นตอน - Corpus คุณภาพสูง: รวมคำแนะนำและตัวอย่างการแก้โจทย์ IMO ✅ Gemini Deep Think ทำคะแนน 35/42 ใน IMO 2025 เทียบเท่าระดับเหรียญทอง ➡️ แก้โจทย์ 5 จาก 6 ข้อได้อย่างถูกต้องภายในเวลาแข่งขันจริง ✅ เป็นครั้งแรกที่ AI ได้รับการประเมินโดยกรรมการ IMO อย่างเป็นทางการ ➡️ ใช้เกณฑ์เดียวกับนักเรียนมนุษย์ในการตรวจคำตอบ ✅ ปีที่แล้ว AlphaGeometry + AlphaProof ได้แค่ระดับเหรียญเงิน ➡️ ต้องใช้การแปลโจทย์และคำนวณหลายวัน ไม่ใช่แบบ end-to-end ✅ Gemini Deep Think ทำงานแบบ natural language ทั้งหมด ➡️ ไม่ต้องแปลเป็นภาษาสัญลักษณ์ และให้คำตอบที่ตรวจสอบได้ทันที ✅ ใช้เทคนิค Parallel Thinking เพื่อคิดหลายแนวทางพร้อมกัน ➡️ เพิ่มความสามารถในการเลือกวิธีแก้ที่ดีที่สุด ✅ ฝึกด้วย reinforcement learning บนข้อมูลการพิสูจน์และแก้โจทย์หลายขั้นตอน ➡️ ทำให้เข้าใจตรรกะเชิงลึกและการให้เหตุผลแบบมนุษย์ ✅ จะเปิดให้กลุ่มนักคณิตศาสตร์ทดลองใช้ก่อนปล่อยสู่ผู้ใช้ Google AI Ultra ➡️ เพื่อรับฟีดแบ็กและปรับปรุงก่อนใช้งานจริง ‼️ การตรวจคำตอบของ IMO ไม่ได้ประเมินระบบหรือโมเดลเบื้องหลัง ⛔ หมายความว่าแม้คำตอบจะถูก แต่ยังไม่รับรองความน่าเชื่อถือของกระบวนการทั้งหมด ‼️ การใช้ AI ในการพิสูจน์ทางคณิตศาสตร์ยังต้องการการตรวจสอบจากมนุษย์ ⛔ เพราะบางคำตอบอาจดูถูกต้องแต่ขาดตรรกะหรือหลักฐานที่ชัดเจน ‼️ การฝึกด้วย corpus เฉพาะทางอาจทำให้โมเดลเก่งเฉพาะโจทย์ IMO ⛔ ไม่สามารถสรุปว่า AI เข้าใจคณิตศาสตร์ทั่วไปหรือสามารถสอนคนได้จริง ‼️ การใช้ AI ในการแก้โจทย์อาจทำให้เกิดการพึ่งพาโดยไม่เข้าใจพื้นฐาน ⛔ ต้องมีการออกแบบให้ AI เป็นผู้ช่วย ไม่ใช่ตัวแทนความเข้าใจ https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
    DEEPMIND.GOOGLE
    Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad
    Our advanced model officially achieved a gold-medal level performance on problems from the International Mathematical Olympiad (IMO), the world’s most prestigious competition for young...
    0 ความคิดเห็น 0 การแบ่งปัน 394 มุมมอง 0 รีวิว
Pages Boosts