• “มีใครบ้าง...ที่ไม่ชอบกุนเชียง? โดยเฉพาะกุนเชียงร้านกินจุ๊บจิ๊บ ที่ทั้งหอม ทั้งนุ่ม ทอดก็กรอบนอกนุ่มใน หั่นบาง ๆ โปะข้าวสวยร้อน ๆ โอ้โห... ฟินไม่ไหว ของร้านเราสะอาด ทำจากเนื้อหมู เนื้อปลาจริง ๆ ไม่มีสารกันบูด ทอดแล้วไม่มันเยิ้ม กินแล้วไม่เลี่ยนจะทำข้าวผัดกุนเชียง ไข่เจียวกุนเชียง หรือแค่กินเปล่า ๆ เสิร์ฟกับข้าวสวยร้อนๆ ก็อร่อยทุกคำ เก็บไว้ในตู้เย็นได้นาน ทานง่าย หิวเมื่อไหร่ก็พร้อมเสิร์ฟ …นี่เราไม่ได้มาเล่น ๆ... เค้ามาอร่อยจริงจัง ปังไม่ไหววววกดสั่งซื้อในตะกร้าด้านล่างได้เลยค่ะ⭕️ กุนเชียงหมู ใน TikTokhttps://vt.tiktok.com/ZSMYbDdHr/กุนเชียงหมู ใน Shopeehttps://th.shp.ee/icytTqnกุนเชียงปลา ใน TikTokhttps://vt.tiktok.com/ZSMYgRyc2/กุนเชียงปลา ใน Shopeehttps://th.shp.ee/UP94YQLเลือกชมสินค้าอื่นๆของเราได้ทั้งสองช่องทาง1. Shopee : shopee.co.th/kinjubjibshop2. TikTok : https://www.tiktok.com/@kinjubjibshop?_t=ZS-8txYHQWejyM&_เลือกช้อปได้ตามความชอบและคูปองของแต่ละช่องทางได้เลยค่ะ#นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #อร่อยดีบอกต่อ #ของอร่อยต้องลอง #ปลาเกล็ดขาวอบกรอบ #ปลาเกล็ดขาวสามรส #ปลาเกล็ดขาว #กุนเชียงหมู #กุนเชียงปลา #ปลาซิวทอดกรอบ #ปลาซิว #หมึกกะตอยแห้ง
    “มีใครบ้าง...ที่ไม่ชอบกุนเชียง? โดยเฉพาะกุนเชียงร้านกินจุ๊บจิ๊บ ที่ทั้งหอม ทั้งนุ่ม ทอดก็กรอบนอกนุ่มใน หั่นบาง ๆ โปะข้าวสวยร้อน ๆ โอ้โห... ฟินไม่ไหว ของร้านเราสะอาด ทำจากเนื้อหมู เนื้อปลาจริง ๆ ไม่มีสารกันบูด ทอดแล้วไม่มันเยิ้ม กินแล้วไม่เลี่ยนจะทำข้าวผัดกุนเชียง ไข่เจียวกุนเชียง หรือแค่กินเปล่า ๆ เสิร์ฟกับข้าวสวยร้อนๆ ก็อร่อยทุกคำ เก็บไว้ในตู้เย็นได้นาน ทานง่าย หิวเมื่อไหร่ก็พร้อมเสิร์ฟ …นี่เราไม่ได้มาเล่น ๆ... เค้ามาอร่อยจริงจัง ปังไม่ไหววววกดสั่งซื้อในตะกร้าด้านล่างได้เลยค่ะ🌶️♨️⭕️ กุนเชียงหมู 🙂 ใน TikTokhttps://vt.tiktok.com/ZSMYbDdHr/กุนเชียงหมู 🙂 ใน Shopeehttps://th.shp.ee/icytTqnกุนเชียงปลา 🐟🐠 🙂 ใน TikTokhttps://vt.tiktok.com/ZSMYgRyc2/กุนเชียงปลา 🐠🐟 🙂 ใน Shopeehttps://th.shp.ee/UP94YQLเลือกชมสินค้าอื่นๆของเราได้ทั้งสองช่องทาง1. Shopee : shopee.co.th/kinjubjibshop2. TikTok : https://www.tiktok.com/@kinjubjibshop?_t=ZS-8txYHQWejyM&_เลือกช้อปได้ตามความชอบและคูปองของแต่ละช่องทางได้เลยค่ะ#นึกถึงอาหารทะเลแห้งนึกถึงเราร้านกินจุ๊บจิ๊บ #ร้านกินจุ๊บจิ๊บ #kinjubjibshop #อร่อยดีบอกต่อ #ของอร่อยต้องลอง #ปลาเกล็ดขาวอบกรอบ #ปลาเกล็ดขาวสามรส #ปลาเกล็ดขาว #กุนเชียงหมู #กุนเชียงปลา #ปลาซิวทอดกรอบ #ปลาซิว #หมึกกะตอยแห้ง
    0 Comments 0 Shares 11 Views 0 0 Reviews
  • https://youtube.com/shorts/TqMUzz1PV9w?si=d5IQriCwO-Mor79q
    https://youtube.com/shorts/TqMUzz1PV9w?si=d5IQriCwO-Mor79q
    0 Comments 0 Shares 27 Views 0 Reviews
  • Why Capitalizing “Native American” Matters

    These days, social media is glut with excited folks who are sending off their cheek swabs to find out just what’s hiding in their DNA. Will they find out they had an ancestor on the Mayflower? Or, maybe they have a Native American ancestor?

    That would make them Native American too, right? Well, the definition of Native American is a lot more complicated than the genetics chart you get from your standard DNA testing center. You see, the term Native American refers to many, many different groups of people and not all of them identify with this term.

    Before we get to that, though, let’s start with the capitalization issue.

    Native American with a capital N

    The lexicographers have distinguished between native Americans and Native Americans. The first version, with the lowercase n, applies to anyone who was born here in the United States. After all, when used as an adjective, native is defined as “being the place or environment in which a person was born or a thing came into being.” If you were born in the United States of America, you are native to the country. Lowercase native American is an adjective that modifies the noun American. The lowercase native American is a noun phrase that describes someone as being an American citizen who is native to the United States.

    Simply being born in the good old US of A doesn’t make someone a Native American (capital N). Those two words are both capitalized because, when used together, they form what grammar experts refer to as a proper noun, or “a noun that is used to denote a particular person, place, or thing.” The term Native American is a very broad label that refers to a federally recognized category of Americans who are indigenous to the land that is now the United States (although some also extend the word’s usage to include all the the Indigenous Peoples of North and South America), and they make up at least two percent of the US population. They’re not just native to this area in the sense of having been born on American soil, but they have established American Indian or Alaska Native ancestry. As a general term, Native American is often used collectively to refer to the many different tribes of Indigenous Peoples who lived in the Americas long before the arrival of European colonizers. In reality, Native Americans are not a monolith, and they belong to many different tribes with their own cultures and languages. Note the words Native American should always be used together. It’s considered disparaging and offensive to refer to a group of people who are Native American simply as natives.

    Another good example of common nouns vs. proper nouns is New York City. When it’s written with a capital C, it’s specifically referring to the area that encompasses the five boroughs. When it’s written with a lowercase c, as in a New York city, it can refer to any large metropolis located anywhere in the state.

    DNA isn’t a definition

    So, all you need is a DNA test, and your ancestry falls under the definition of Native American, right? Well, that’s complicated.

    While the United States Department of Interior has its own rules regarding who qualifies for membership and enrollment in a tribe, the members of the tribes themselves don’t often agree with the government responsible for taking their lands and forcing them to live on reservations in the first place. Nor is there consensus among the more than 574 federally recognized tribal nations in the United States on what DNA results are required to establish heritage.

    Both the United Nations and Indigenous Peoples worldwide have denounced certain attempts at tracing human origins through DNA, including the Human Genome Diversity Project.

    If you feel that you have proven without a doubt that your lineage is Native American, you’ll have to turn to the individual tribe itself for the official opinion on the matter. And, even with a DNA test, you may find that you may be native American but not necessarily Native American.

    What about Indian?

    The department of the US federal government that oversees relations with the many Native American tribes is named the Bureau of Indian Affairs. The United States Census uses the term American Indian to refer to a person who identifies themself as a Native American. The term Indian referring to Native Americans has largely fallen out of general usage, and many Native American Peoples consider this term offensive. That being said, there are a significant number of Native American tribes and individuals that use the word Indian or the phrase American Indian to identify themselves.

    Even more common, though, is a group using the specific name of their tribe—especially the name used in their own language—to identify themselves. For example, a member of the Navajo tribe may refer to their particular group as Diné.

    As is often the case when it comes to language, people often have their own personal choice as to which words they prefer. If you are unsure about what words to use, the best choice is always to ask someone what they prefer.

    Native to Alaska

    The term Native American is sometimes used to include some Eskimo and Aleut peoples, specifically those whose families are native to the area now known as Alaska. The United States government uses the term Native Alaskan, and many other organizations prefer the term Alaska Native. Eskimo is still used as a self-designation by some people, while others consider it derogatory. Still other peoples will often prefer the specific name for their own people, tribe, or community—typically preferring a word from their own language. As is always the case, it’s best to let the person in question share their preferred terminology.

    © 2025, Aakkhra, All rights reserved.
    Why Capitalizing “Native American” Matters These days, social media is glut with excited folks who are sending off their cheek swabs to find out just what’s hiding in their DNA. Will they find out they had an ancestor on the Mayflower? Or, maybe they have a Native American ancestor? That would make them Native American too, right? Well, the definition of Native American is a lot more complicated than the genetics chart you get from your standard DNA testing center. You see, the term Native American refers to many, many different groups of people and not all of them identify with this term. Before we get to that, though, let’s start with the capitalization issue. Native American with a capital N The lexicographers have distinguished between native Americans and Native Americans. The first version, with the lowercase n, applies to anyone who was born here in the United States. After all, when used as an adjective, native is defined as “being the place or environment in which a person was born or a thing came into being.” If you were born in the United States of America, you are native to the country. Lowercase native American is an adjective that modifies the noun American. The lowercase native American is a noun phrase that describes someone as being an American citizen who is native to the United States. Simply being born in the good old US of A doesn’t make someone a Native American (capital N). Those two words are both capitalized because, when used together, they form what grammar experts refer to as a proper noun, or “a noun that is used to denote a particular person, place, or thing.” The term Native American is a very broad label that refers to a federally recognized category of Americans who are indigenous to the land that is now the United States (although some also extend the word’s usage to include all the the Indigenous Peoples of North and South America), and they make up at least two percent of the US population. They’re not just native to this area in the sense of having been born on American soil, but they have established American Indian or Alaska Native ancestry. As a general term, Native American is often used collectively to refer to the many different tribes of Indigenous Peoples who lived in the Americas long before the arrival of European colonizers. In reality, Native Americans are not a monolith, and they belong to many different tribes with their own cultures and languages. Note the words Native American should always be used together. It’s considered disparaging and offensive to refer to a group of people who are Native American simply as natives. Another good example of common nouns vs. proper nouns is New York City. When it’s written with a capital C, it’s specifically referring to the area that encompasses the five boroughs. When it’s written with a lowercase c, as in a New York city, it can refer to any large metropolis located anywhere in the state. DNA isn’t a definition So, all you need is a DNA test, and your ancestry falls under the definition of Native American, right? Well, that’s complicated. While the United States Department of Interior has its own rules regarding who qualifies for membership and enrollment in a tribe, the members of the tribes themselves don’t often agree with the government responsible for taking their lands and forcing them to live on reservations in the first place. Nor is there consensus among the more than 574 federally recognized tribal nations in the United States on what DNA results are required to establish heritage. Both the United Nations and Indigenous Peoples worldwide have denounced certain attempts at tracing human origins through DNA, including the Human Genome Diversity Project. If you feel that you have proven without a doubt that your lineage is Native American, you’ll have to turn to the individual tribe itself for the official opinion on the matter. And, even with a DNA test, you may find that you may be native American but not necessarily Native American. What about Indian? The department of the US federal government that oversees relations with the many Native American tribes is named the Bureau of Indian Affairs. The United States Census uses the term American Indian to refer to a person who identifies themself as a Native American. The term Indian referring to Native Americans has largely fallen out of general usage, and many Native American Peoples consider this term offensive. That being said, there are a significant number of Native American tribes and individuals that use the word Indian or the phrase American Indian to identify themselves. Even more common, though, is a group using the specific name of their tribe—especially the name used in their own language—to identify themselves. For example, a member of the Navajo tribe may refer to their particular group as Diné. As is often the case when it comes to language, people often have their own personal choice as to which words they prefer. If you are unsure about what words to use, the best choice is always to ask someone what they prefer. Native to Alaska The term Native American is sometimes used to include some Eskimo and Aleut peoples, specifically those whose families are native to the area now known as Alaska. The United States government uses the term Native Alaskan, and many other organizations prefer the term Alaska Native. Eskimo is still used as a self-designation by some people, while others consider it derogatory. Still other peoples will often prefer the specific name for their own people, tribe, or community—typically preferring a word from their own language. As is always the case, it’s best to let the person in question share their preferred terminology. © 2025, Aakkhra, All rights reserved.
    0 Comments 0 Shares 91 Views 0 Reviews
  • เรื่องเล่าจาก Arrow Lake ถึง Metro Exodus: เมื่อการปรับแต่งระดับซอฟต์แวร์กลายเป็นตัวเร่งเกมที่ทรงพลัง

    Intel ได้ปล่อยอัปเดตใหม่สำหรับฟีเจอร์ Application Optimization (APO) ซึ่งเป็นระบบที่ช่วยปรับแต่งการทำงานของ CPU ให้เหมาะกับเกมแต่ละเกมโดยเฉพาะ โดยอัปเดตล่าสุดในเดือนกันยายน 2025 นี้ได้เพิ่มเกมใหม่เข้าไปอีก 15 เกม รวมถึง Metro Exodus Enhanced Edition, God of War, Dyson Sphere Program และ EA Sports FC 24

    ฟีเจอร์ APO นี้รองรับเฉพาะ CPU รุ่นใหม่ ได้แก่ Core Ultra 200 series และ Arrow Lake (14th Gen) โดยเฉพาะรุ่นที่มีรหัส “K” และ HX ซึ่งเป็นรุ่นที่เน้นประสิทธิภาพสูง ทั้งในเดสก์ท็อปและโน้ตบุ๊ก

    Intel ระบุว่าการเปิดใช้งาน APO จะช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 14% ในบางเกม และยังช่วยให้ค่า 1% lows (เฟรมเรตต่ำสุดที่เกิดขึ้นระหว่างเล่น) ดีขึ้นอย่างเห็นได้ชัด ซึ่งหมายถึงประสบการณ์เล่นเกมที่ลื่นไหลมากขึ้น แม้ในฉากที่มีการประมวลผลหนัก

    เพื่อเปิดใช้งาน APO ผู้ใช้ต้องติดตั้ง Intel Dynamic Tuning Technology (DTT) จากเว็บไซต์ของผู้ผลิตเมนบอร์ด และสามารถจัดการการตั้งค่า APO รายเกมได้ผ่านแอป Intel APO UI ที่ดาวน์โหลดจาก Microsoft Store

    นอกจากนี้ Intel ยังระบุว่า APO จะได้รับการอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามาในฐานข้อมูล ซึ่งหมายความว่าผู้ใช้ไม่ต้องติดตั้งใหม่ทุกครั้ง

    รายละเอียดของ APO Update ล่าสุด
    เพิ่มเกมใหม่ 15 เกม เช่น Metro Exodus, God of War, FC 24
    รองรับ CPU Arrow Lake และ Core Ultra 200 เฉพาะรุ่น K และ HX
    เพิ่มประสิทธิภาพได้สูงสุด 14% และปรับปรุงค่า 1% lows

    วิธีเปิดใช้งาน APO
    ติดตั้ง Intel DTT จากเว็บไซต์ผู้ผลิตเมนบอร์ด
    ดาวน์โหลด Intel APO UI จาก Microsoft Store เพื่อจัดการรายเกม
    ได้รับอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามา

    ผลกระทบต่อประสบการณ์เล่นเกม
    เฟรมเรตลื่นขึ้นในฉากที่มีการประมวลผลหนัก
    ลดอาการกระตุกหรือ drop frame ในเกมที่ซับซ้อน
    ไม่ต้องเปลี่ยนฮาร์ดแวร์เพื่อให้เกมทำงานดีขึ้น

    https://wccftech.com/intel-releases-apo-update-for-core-ultra-200-and-14th-gen-processors-claims-up-to-14-higher-performance/
    🎙️ เรื่องเล่าจาก Arrow Lake ถึง Metro Exodus: เมื่อการปรับแต่งระดับซอฟต์แวร์กลายเป็นตัวเร่งเกมที่ทรงพลัง Intel ได้ปล่อยอัปเดตใหม่สำหรับฟีเจอร์ Application Optimization (APO) ซึ่งเป็นระบบที่ช่วยปรับแต่งการทำงานของ CPU ให้เหมาะกับเกมแต่ละเกมโดยเฉพาะ โดยอัปเดตล่าสุดในเดือนกันยายน 2025 นี้ได้เพิ่มเกมใหม่เข้าไปอีก 15 เกม รวมถึง Metro Exodus Enhanced Edition, God of War, Dyson Sphere Program และ EA Sports FC 24 ฟีเจอร์ APO นี้รองรับเฉพาะ CPU รุ่นใหม่ ได้แก่ Core Ultra 200 series และ Arrow Lake (14th Gen) โดยเฉพาะรุ่นที่มีรหัส “K” และ HX ซึ่งเป็นรุ่นที่เน้นประสิทธิภาพสูง ทั้งในเดสก์ท็อปและโน้ตบุ๊ก Intel ระบุว่าการเปิดใช้งาน APO จะช่วยเพิ่มประสิทธิภาพได้สูงสุดถึง 14% ในบางเกม และยังช่วยให้ค่า 1% lows (เฟรมเรตต่ำสุดที่เกิดขึ้นระหว่างเล่น) ดีขึ้นอย่างเห็นได้ชัด ซึ่งหมายถึงประสบการณ์เล่นเกมที่ลื่นไหลมากขึ้น แม้ในฉากที่มีการประมวลผลหนัก เพื่อเปิดใช้งาน APO ผู้ใช้ต้องติดตั้ง Intel Dynamic Tuning Technology (DTT) จากเว็บไซต์ของผู้ผลิตเมนบอร์ด และสามารถจัดการการตั้งค่า APO รายเกมได้ผ่านแอป Intel APO UI ที่ดาวน์โหลดจาก Microsoft Store นอกจากนี้ Intel ยังระบุว่า APO จะได้รับการอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามาในฐานข้อมูล ซึ่งหมายความว่าผู้ใช้ไม่ต้องติดตั้งใหม่ทุกครั้ง ✅ รายละเอียดของ APO Update ล่าสุด ➡️ เพิ่มเกมใหม่ 15 เกม เช่น Metro Exodus, God of War, FC 24 ➡️ รองรับ CPU Arrow Lake และ Core Ultra 200 เฉพาะรุ่น K และ HX ➡️ เพิ่มประสิทธิภาพได้สูงสุด 14% และปรับปรุงค่า 1% lows ✅ วิธีเปิดใช้งาน APO ➡️ ติดตั้ง Intel DTT จากเว็บไซต์ผู้ผลิตเมนบอร์ด ➡️ ดาวน์โหลด Intel APO UI จาก Microsoft Store เพื่อจัดการรายเกม ➡️ ได้รับอัปเดตอัตโนมัติเมื่อมีเกมใหม่เพิ่มเข้ามา ✅ ผลกระทบต่อประสบการณ์เล่นเกม ➡️ เฟรมเรตลื่นขึ้นในฉากที่มีการประมวลผลหนัก ➡️ ลดอาการกระตุกหรือ drop frame ในเกมที่ซับซ้อน ➡️ ไม่ต้องเปลี่ยนฮาร์ดแวร์เพื่อให้เกมทำงานดีขึ้น https://wccftech.com/intel-releases-apo-update-for-core-ultra-200-and-14th-gen-processors-claims-up-to-14-higher-performance/
    WCCFTECH.COM
    Intel Releases APO Update For Core Ultra 200 And 14th Gen Processors; Claims Up To 14% Higher Performance
    Intel has rolled out the latest update for the APO aka Application Optimization for several titles for the 14th gen and Arrow lake CPUs.
    0 Comments 0 Shares 117 Views 0 Reviews
  • เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU

    Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา

    แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์

    ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow

    Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม

    แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน

    แนวคิด Software Defined Super Core ของ Intel
    รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว
    ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ
    ใช้ shared memory และ synchronization module ภายในคอร์

    จุดต่างจากเทคนิคเดิม
    คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย
    ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล
    มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์

    การใช้งานและความคาดหวัง
    เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง
    หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์
    อาจใช้ในงาน AI inference, simulation, หรือ mining

    ข้อกำหนดด้านซอฟต์แวร์
    ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด
    ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core
    ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software

    https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    🎙️ เรื่องเล่าจาก Pentium 4 ถึง Software Defined Super Core: เมื่อ Intel หยิบเทคนิคเก่า มาปรับใหม่เพื่ออนาคตของ CPU Intel ได้จดสิทธิบัตรใหม่ชื่อว่า “Software Defined Super Core” ซึ่งเป็นแนวคิดที่รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียวในสายตาของระบบปฏิบัติการ โดยคอร์ที่รวมกันจะทำงานแบบขนานก่อนจะจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพของงานแบบ single-thread โดยไม่ต้องเพิ่มขนาดคอร์หรือความเร็วสัญญาณนาฬิกา แนวคิดนี้คล้ายกับ “inverse hyper-threading” ที่เคยทดลองในยุค Pentium 4 แต่ถูกปรับให้ทันสมัยขึ้น โดยใช้ shared memory และ synchronization module ขนาดเล็กในแต่ละคอร์ พร้อมพื้นที่หน่วยความจำพิเศษชื่อ wormhole address space เพื่อจัดการการส่งข้อมูลระหว่างคอร์ ในทางปฏิบัติ ระบบปฏิบัติการจะต้องตัดสินใจว่า workload ใดควรใช้โหมด super core ซึ่งอาจทำให้การจัดตารางงานซับซ้อนขึ้น และต้องการการสนับสนุนจาก compiler หรือ binary instrumentation เพื่อแบ่งโค้ดและใส่คำสั่งควบคุม flow Intel หวังว่าแนวทางนี้จะช่วยเพิ่ม performance-per-watt โดยเฉพาะในงานที่ต้องการประสิทธิภาพแบบ single-thread เช่น AI inference, mining, หรือ simulation ที่ไม่สามารถกระจายงานได้ดีบน multicore แบบเดิม แม้จะยังไม่มีข้อมูล benchmark ที่ชัดเจน แต่แนวคิดนี้อาจเป็นทางเลือกใหม่ที่ไม่ต้องพึ่ง brute-force แบบเพิ่มจำนวนคอร์หรือขยายขนาด cache เหมือนที่ AMD และ Apple ใช้ในปัจจุบัน ✅ แนวคิด Software Defined Super Core ของ Intel ➡️ รวมคอร์จริงหลายตัวให้กลายเป็นคอร์เสมือนเดียว ➡️ ทำงานแบบขนานก่อนจัดเรียงคำสั่งใหม่เพื่อเพิ่มประสิทธิภาพ ➡️ ใช้ shared memory และ synchronization module ภายในคอร์ ✅ จุดต่างจากเทคนิคเดิม ➡️ คล้าย inverse hyper-threading แต่ปรับให้ทันสมัย ➡️ ต่างจาก AMD ที่ใช้ Clustered Multi-Threading โดยแบ่งคอร์เป็นโมดูล ➡️ มีการใช้ wormhole address space เพื่อจัดการข้อมูลระหว่างคอร์ ✅ การใช้งานและความคาดหวัง ➡️ เหมาะกับงาน single-thread ที่ต้องการประสิทธิภาพสูง ➡️ หวังว่าจะเพิ่ม performance-per-watt โดยไม่ต้องเพิ่มขนาดคอร์ ➡️ อาจใช้ในงาน AI inference, simulation, หรือ mining ✅ ข้อกำหนดด้านซอฟต์แวร์ ➡️ ต้องการ compiler หรือ binary instrumentation เพื่อแบ่งโค้ด ➡️ ระบบปฏิบัติการต้องจัดการ scheduling ให้เหมาะกับโหมด super core ➡️ ต้องการการสนับสนุนจาก ecosystem ทั้ง hardware และ software https://www.techradar.com/pro/is-it-a-bird-is-it-a-plane-no-its-super-core-intels-latest-patent-revives-ancient-anti-hyperthreading-cpu-technique-in-attempt-to-boost-processor-performance-but-will-it-be-enough
    0 Comments 0 Shares 116 Views 0 Reviews
  • เรื่องเล่าจาก shared สู่ private: เมื่อธุรกิจเริ่มหันหลังให้ cloud และกลับมาหาเซิร์ฟเวอร์ที่ควบคุมได้จริง

    จากผลสำรวจของ Liquid Web ที่สอบถามผู้ใช้งานและผู้ตัดสินใจด้านเทคนิคกว่า 950 ราย พบว่า Virtual Private Server (VPS) กำลังกลายเป็นตัวเลือกหลักของธุรกิจทุกขนาด โดยเฉพาะผู้ที่เคยใช้ shared hosting และ cloud มาก่อน

    กว่า 27% ของผู้ใช้ที่ยังไม่ใช้ VPS ระบุว่ามีแผนจะย้ายมาใช้ภายใน 12 เดือน โดยผู้ใช้ shared hosting เป็นกลุ่มที่มีแนวโน้มสูงสุดในการเปลี่ยนมาใช้ VPS เพราะรู้สึกอึดอัดกับข้อจำกัดด้านการปรับแต่งระบบ

    ผู้ใช้ cloud hosting ส่วนใหญ่ระบุว่า “ต้นทุน” เป็นเหตุผลหลักในการเปลี่ยนมาใช้ VPS ขณะที่ผู้ใช้ dedicated hosting ไม่พอใจกับประสิทธิภาพที่ไม่คุ้มค่าเมื่อเทียบกับราคา

    สิ่งที่ทำให้ VPS ได้รับความนิยมคือ root-access ที่เปิดให้ผู้ใช้ควบคุมระบบได้เต็มที่ และ uptime guarantee ที่ช่วยให้ธุรกิจมั่นใจในความเสถียรของบริการ

    นอกจากนี้ยังพบว่า VPS ถูกใช้ในงานที่หลากหลายมากขึ้น เช่น hosting เว็บไซต์และแอป (48%), การ deploy หรือปรับแต่งโมเดล AI (15%), การรัน automation script, การโฮสต์เกม (เช่น Minecraft), และการจัดการร้านค้าออนไลน์

    แม้ VPS จะเคยเป็นเครื่องมือของนักพัฒนาและ DevOps เป็นหลัก แต่ตอนนี้มีผู้ใช้กลุ่ม hobbyist เพิ่มขึ้นอย่างชัดเจน โดย 19% ของผู้ตอบแบบสอบถามระบุว่าใช้ VPS เพื่อโฮสต์เกม, เว็บไซต์ส่วนตัว, หรือแม้แต่ Discord bot

    ที่น่าสนใจคือ 65% ของผู้ใช้ VPS เรียนรู้จากการลองผิดลองถูกและดู tutorial ออนไลน์ โดยมีเพียง 31% เท่านั้นที่เคยได้รับการฝึกอบรมอย่างเป็นทางการ

    อย่างไรก็ตาม เกือบครึ่งของผู้ใช้ VPS เคยเปลี่ยนผู้ให้บริการเพราะ “ไม่ได้รับการสนับสนุนที่เพียงพอ” ซึ่งสะท้อนว่าการบริการหลังบ้านยังเป็นจุดอ่อนของหลายแบรนด์

    แนวโน้มการเปลี่ยนมาใช้ VPS
    27% ของผู้ใช้ที่ยังไม่ใช้ VPS มีแผนจะย้ายภายใน 12 เดือน
    ผู้ใช้ shared hosting เปลี่ยนเพราะข้อจำกัดด้านการปรับแต่ง
    ผู้ใช้ cloud hosting เปลี่ยนเพราะต้นทุน
    ผู้ใช้ dedicated hosting เปลี่ยนเพราะประสิทธิภาพไม่คุ้มค่า

    เหตุผลที่ VPS ได้รับความนิยม
    root-access ช่วยให้ควบคุมระบบได้เต็มที่
    uptime guarantee เพิ่มความมั่นใจในการใช้งาน
    รองรับการใช้งานหลากหลาย เช่น AI, ecommerce, automation

    กลุ่มผู้ใช้งานและพฤติกรรม
    50% ของ IT pros ใช้ VPS สำหรับ DevOps และ automation
    19% เป็น hobbyist ที่ใช้ VPS เพื่อเกมและโปรเจกต์ส่วนตัว
    65% เรียนรู้จาก tutorial และ trial-and-error
    มีเพียง 31% ที่เคยได้รับการฝึกอบรมอย่างเป็นทางการ

    ระบบปฏิบัติการที่นิยม
    Windows เป็นที่นิยมที่สุด (36%)
    Ubuntu ตามมาเป็นอันดับสอง (28%)
    CentOS ยังมีผู้ใช้อยู่บ้าง (9%)

    https://www.techradar.com/pro/sharing-might-be-caring-but-businesses-are-moving-towards-private-servers
    🎙️ เรื่องเล่าจาก shared สู่ private: เมื่อธุรกิจเริ่มหันหลังให้ cloud และกลับมาหาเซิร์ฟเวอร์ที่ควบคุมได้จริง จากผลสำรวจของ Liquid Web ที่สอบถามผู้ใช้งานและผู้ตัดสินใจด้านเทคนิคกว่า 950 ราย พบว่า Virtual Private Server (VPS) กำลังกลายเป็นตัวเลือกหลักของธุรกิจทุกขนาด โดยเฉพาะผู้ที่เคยใช้ shared hosting และ cloud มาก่อน กว่า 27% ของผู้ใช้ที่ยังไม่ใช้ VPS ระบุว่ามีแผนจะย้ายมาใช้ภายใน 12 เดือน โดยผู้ใช้ shared hosting เป็นกลุ่มที่มีแนวโน้มสูงสุดในการเปลี่ยนมาใช้ VPS เพราะรู้สึกอึดอัดกับข้อจำกัดด้านการปรับแต่งระบบ ผู้ใช้ cloud hosting ส่วนใหญ่ระบุว่า “ต้นทุน” เป็นเหตุผลหลักในการเปลี่ยนมาใช้ VPS ขณะที่ผู้ใช้ dedicated hosting ไม่พอใจกับประสิทธิภาพที่ไม่คุ้มค่าเมื่อเทียบกับราคา สิ่งที่ทำให้ VPS ได้รับความนิยมคือ root-access ที่เปิดให้ผู้ใช้ควบคุมระบบได้เต็มที่ และ uptime guarantee ที่ช่วยให้ธุรกิจมั่นใจในความเสถียรของบริการ นอกจากนี้ยังพบว่า VPS ถูกใช้ในงานที่หลากหลายมากขึ้น เช่น hosting เว็บไซต์และแอป (48%), การ deploy หรือปรับแต่งโมเดล AI (15%), การรัน automation script, การโฮสต์เกม (เช่น Minecraft), และการจัดการร้านค้าออนไลน์ แม้ VPS จะเคยเป็นเครื่องมือของนักพัฒนาและ DevOps เป็นหลัก แต่ตอนนี้มีผู้ใช้กลุ่ม hobbyist เพิ่มขึ้นอย่างชัดเจน โดย 19% ของผู้ตอบแบบสอบถามระบุว่าใช้ VPS เพื่อโฮสต์เกม, เว็บไซต์ส่วนตัว, หรือแม้แต่ Discord bot ที่น่าสนใจคือ 65% ของผู้ใช้ VPS เรียนรู้จากการลองผิดลองถูกและดู tutorial ออนไลน์ โดยมีเพียง 31% เท่านั้นที่เคยได้รับการฝึกอบรมอย่างเป็นทางการ อย่างไรก็ตาม เกือบครึ่งของผู้ใช้ VPS เคยเปลี่ยนผู้ให้บริการเพราะ “ไม่ได้รับการสนับสนุนที่เพียงพอ” ซึ่งสะท้อนว่าการบริการหลังบ้านยังเป็นจุดอ่อนของหลายแบรนด์ ✅ แนวโน้มการเปลี่ยนมาใช้ VPS ➡️ 27% ของผู้ใช้ที่ยังไม่ใช้ VPS มีแผนจะย้ายภายใน 12 เดือน ➡️ ผู้ใช้ shared hosting เปลี่ยนเพราะข้อจำกัดด้านการปรับแต่ง ➡️ ผู้ใช้ cloud hosting เปลี่ยนเพราะต้นทุน ➡️ ผู้ใช้ dedicated hosting เปลี่ยนเพราะประสิทธิภาพไม่คุ้มค่า ✅ เหตุผลที่ VPS ได้รับความนิยม ➡️ root-access ช่วยให้ควบคุมระบบได้เต็มที่ ➡️ uptime guarantee เพิ่มความมั่นใจในการใช้งาน ➡️ รองรับการใช้งานหลากหลาย เช่น AI, ecommerce, automation ✅ กลุ่มผู้ใช้งานและพฤติกรรม ➡️ 50% ของ IT pros ใช้ VPS สำหรับ DevOps และ automation ➡️ 19% เป็น hobbyist ที่ใช้ VPS เพื่อเกมและโปรเจกต์ส่วนตัว ➡️ 65% เรียนรู้จาก tutorial และ trial-and-error ➡️ มีเพียง 31% ที่เคยได้รับการฝึกอบรมอย่างเป็นทางการ ✅ ระบบปฏิบัติการที่นิยม ➡️ Windows เป็นที่นิยมที่สุด (36%) ➡️ Ubuntu ตามมาเป็นอันดับสอง (28%) ➡️ CentOS ยังมีผู้ใช้อยู่บ้าง (9%) https://www.techradar.com/pro/sharing-might-be-caring-but-businesses-are-moving-towards-private-servers
    WWW.TECHRADAR.COM
    Sharing might be caring, but businesses are moving towards private servers
    VPS servers are becoming the server type of choice for IT pros and hobbyists alike
    0 Comments 0 Shares 123 Views 0 Reviews
  • เรื่องเล่าจากหน้าจอเล็กถึงเครือข่ายใหญ่: เมื่ออุปกรณ์สมาร์ทในบ้านกลายเป็นผู้ใช้ข้อมูลเงียบ ๆ ที่ไม่มีใครคาดคิด

    Dave Plummer อดีตวิศวกรของ Microsoft ผู้พัฒนา Task Manager และพอร์ตเกม Space Cadet Pinball ได้โพสต์บน X ว่าอุปกรณ์ Amazon Echo Show สองเครื่องในบ้านของเขา ซึ่งเขา “แทบไม่ได้ใช้งานเลย” กลับใช้ข้อมูลอินเทอร์เน็ตมากกว่า 4GB ภายในเวลาเพียง 24 ชั่วโมง

    Echo Show เป็นสมาร์ทดีไวซ์ที่มีหน้าจอสัมผัส ใช้แสดงข่าว ภาพถ่าย การแจ้งเตือน และข้อมูลจากคลาวด์ แม้จะไม่ได้สั่งงานด้วยเสียง แต่ก็ยังเชื่อมต่ออินเทอร์เน็ตตลอดเวลาเพื่ออัปเดตเนื้อหาและติดตั้งเฟิร์มแวร์ใหม่

    Plummer ไม่เชื่อว่าอุปกรณ์กำลัง “แอบฟัง” เขา แต่คาดว่าอาจเกิดจาก (a) bug, (b) การอัปเดตขนาดใหญ่, หรือ (c) การดาวน์โหลดวิดีโอหรือภาพจากคลาวด์ เช่น เทรลเลอร์ภาพยนตร์หรือภาพถ่ายที่ซิงก์ไว้

    ผู้ใช้คนอื่นใน Reddit และ Amazon Forum ก็รายงานพฤติกรรมคล้ายกัน โดยบางคนพบว่า Echo Spot ใช้ข้อมูลมากกว่า 100GB ต่อเดือน แม้จะไม่ได้ใช้งานฟีเจอร์สตรีมมิ่งเลย3

    มีการตั้งข้อสงสัยว่า Amazon Sidewalk ซึ่งเป็นระบบ mesh network ที่ให้ Echo เชื่อมต่อกับอุปกรณ์อื่นในบริเวณใกล้เคียง อาจเป็นสาเหตุของการใช้ข้อมูลเกินปกติ แม้ Amazon จะระบุว่า Sidewalk ใช้ข้อมูลไม่เกิน 500MB ต่อเดือนต่อบัญชี แต่ผู้ใช้หลายคนแนะนำให้ปิดฟีเจอร์นี้เพื่อความปลอดภัย

    พฤติกรรมการใช้ข้อมูลของ Echo Show
    ใช้ข้อมูลมากกว่า 4GB ภายใน 24 ชั่วโมง แม้ไม่ได้ใช้งาน
    อาจเกิดจากการอัปเดตเฟิร์มแวร์, bug, หรือการดาวน์โหลด cached content
    แสดงภาพข่าว, ภาพถ่าย, และข้อมูลจากคลาวด์อย่างต่อเนื่อง

    ความเห็นจากผู้ใช้และนักพัฒนา
    Dave Plummer ไม่เชื่อว่า Echo กำลังแอบฟัง แต่สงสัยว่าเป็น bug หรือการอัปเดต
    ผู้ใช้ใน Reddit รายงานว่า Echo Spot ใช้ข้อมูลมากกว่า 100GB ต่อเดือน
    บางคนพบว่า Echo ใช้ข้อมูลแม้จะไม่ได้สั่งงานด้วยเสียงเลย

    ปัจจัยที่อาจเป็นสาเหตุ
    Amazon Sidewalk อาจทำให้อุปกรณ์เชื่อมต่อกันและใช้ข้อมูลมากขึ้น
    การอัปเดตเฟิร์มแวร์อัตโนมัติอาจเกิด loop หรือใช้ข้อมูลมากกว่าปกติ
    การดาวน์โหลดภาพหรือวิดีโอจากคลาวด์อาจไม่ถูกควบคุม

    แนวทางการตรวจสอบและป้องกัน
    ตรวจสอบการใช้ข้อมูลผ่าน router หรือแอป Alexa
    ปิด Amazon Sidewalk และ Flash Briefing เพื่อจำกัดการเชื่อมต่อ
    หากไม่มั่นใจ ให้ถอดปลั๊กเพื่อหยุดการเชื่อมต่อทั้งหมด

    https://www.tomshardware.com/speakers/amazon-echo-uses-gigabytes-of-data-despite-not-being-used-its-owner-doesnt-think-hes-being-spied-on
    🎙️ เรื่องเล่าจากหน้าจอเล็กถึงเครือข่ายใหญ่: เมื่ออุปกรณ์สมาร์ทในบ้านกลายเป็นผู้ใช้ข้อมูลเงียบ ๆ ที่ไม่มีใครคาดคิด Dave Plummer อดีตวิศวกรของ Microsoft ผู้พัฒนา Task Manager และพอร์ตเกม Space Cadet Pinball ได้โพสต์บน X ว่าอุปกรณ์ Amazon Echo Show สองเครื่องในบ้านของเขา ซึ่งเขา “แทบไม่ได้ใช้งานเลย” กลับใช้ข้อมูลอินเทอร์เน็ตมากกว่า 4GB ภายในเวลาเพียง 24 ชั่วโมง Echo Show เป็นสมาร์ทดีไวซ์ที่มีหน้าจอสัมผัส ใช้แสดงข่าว ภาพถ่าย การแจ้งเตือน และข้อมูลจากคลาวด์ แม้จะไม่ได้สั่งงานด้วยเสียง แต่ก็ยังเชื่อมต่ออินเทอร์เน็ตตลอดเวลาเพื่ออัปเดตเนื้อหาและติดตั้งเฟิร์มแวร์ใหม่ Plummer ไม่เชื่อว่าอุปกรณ์กำลัง “แอบฟัง” เขา แต่คาดว่าอาจเกิดจาก (a) bug, (b) การอัปเดตขนาดใหญ่, หรือ (c) การดาวน์โหลดวิดีโอหรือภาพจากคลาวด์ เช่น เทรลเลอร์ภาพยนตร์หรือภาพถ่ายที่ซิงก์ไว้ ผู้ใช้คนอื่นใน Reddit และ Amazon Forum ก็รายงานพฤติกรรมคล้ายกัน โดยบางคนพบว่า Echo Spot ใช้ข้อมูลมากกว่า 100GB ต่อเดือน แม้จะไม่ได้ใช้งานฟีเจอร์สตรีมมิ่งเลย3 มีการตั้งข้อสงสัยว่า Amazon Sidewalk ซึ่งเป็นระบบ mesh network ที่ให้ Echo เชื่อมต่อกับอุปกรณ์อื่นในบริเวณใกล้เคียง อาจเป็นสาเหตุของการใช้ข้อมูลเกินปกติ แม้ Amazon จะระบุว่า Sidewalk ใช้ข้อมูลไม่เกิน 500MB ต่อเดือนต่อบัญชี แต่ผู้ใช้หลายคนแนะนำให้ปิดฟีเจอร์นี้เพื่อความปลอดภัย ✅ พฤติกรรมการใช้ข้อมูลของ Echo Show ➡️ ใช้ข้อมูลมากกว่า 4GB ภายใน 24 ชั่วโมง แม้ไม่ได้ใช้งาน ➡️ อาจเกิดจากการอัปเดตเฟิร์มแวร์, bug, หรือการดาวน์โหลด cached content ➡️ แสดงภาพข่าว, ภาพถ่าย, และข้อมูลจากคลาวด์อย่างต่อเนื่อง ✅ ความเห็นจากผู้ใช้และนักพัฒนา ➡️ Dave Plummer ไม่เชื่อว่า Echo กำลังแอบฟัง แต่สงสัยว่าเป็น bug หรือการอัปเดต ➡️ ผู้ใช้ใน Reddit รายงานว่า Echo Spot ใช้ข้อมูลมากกว่า 100GB ต่อเดือน ➡️ บางคนพบว่า Echo ใช้ข้อมูลแม้จะไม่ได้สั่งงานด้วยเสียงเลย ✅ ปัจจัยที่อาจเป็นสาเหตุ ➡️ Amazon Sidewalk อาจทำให้อุปกรณ์เชื่อมต่อกันและใช้ข้อมูลมากขึ้น ➡️ การอัปเดตเฟิร์มแวร์อัตโนมัติอาจเกิด loop หรือใช้ข้อมูลมากกว่าปกติ ➡️ การดาวน์โหลดภาพหรือวิดีโอจากคลาวด์อาจไม่ถูกควบคุม ✅ แนวทางการตรวจสอบและป้องกัน ➡️ ตรวจสอบการใช้ข้อมูลผ่าน router หรือแอป Alexa ➡️ ปิด Amazon Sidewalk และ Flash Briefing เพื่อจำกัดการเชื่อมต่อ ➡️ หากไม่มั่นใจ ให้ถอดปลั๊กเพื่อหยุดการเชื่อมต่อทั้งหมด https://www.tomshardware.com/speakers/amazon-echo-uses-gigabytes-of-data-despite-not-being-used-its-owner-doesnt-think-hes-being-spied-on
    0 Comments 0 Shares 130 Views 0 Reviews
  • เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI

    Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่

    แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom

    ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P)

    Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น

    หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน

    ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง

    รายละเอียดของดีล Broadcom–OpenAI
    มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack
    ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง
    ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี

    สเปกของชิป AI ที่คาดว่าจะใช้
    สถาปัตยกรรม systolic array สำหรับงาน inference
    ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ
    ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class)

    ขนาดของการ deploy
    คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node
    เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก
    เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon

    ผลกระทบต่ออุตสาหกรรม
    เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD
    Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware
    อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง

    https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    🎙️ เรื่องเล่าจาก XPU ถึง N3: เมื่อ OpenAI ไม่รอใครอีกต่อไป และเลือกสร้างชิปเองเพื่อควบคุมอนาคตของ AI Broadcom เพิ่งประกาศว่าได้รับคำสั่งซื้อฮาร์ดแวร์ AI มูลค่า $10 พันล้านดอลลาร์จากลูกค้ารายหนึ่งที่ไม่เปิดเผยชื่อ โดยประกอบด้วย XPU (custom AI accelerator), ชิปเครือข่าย, และ reference rack platform สำหรับการประกอบเป็นระบบ AI ขนาดใหญ่ แม้ Broadcom จะไม่ระบุชื่อ แต่หลายฝ่าย—including CNBC, Financial Times และนักวิเคราะห์จาก Mizuho และ KeyBanc—ต่างชี้ว่า “ลูกค้าลึกลับ” รายนี้คือ OpenAI ซึ่งกำลังเตรียมเปลี่ยนจากการใช้ GPU ของ Nvidia และ AMD บน Azure ไปสู่การใช้ฮาร์ดแวร์ของตัวเองที่ออกแบบร่วมกับ Broadcom ชิปใหม่นี้คาดว่าจะใช้สถาปัตยกรรม systolic array ที่เหมาะกับงาน inference โดยเฉพาะ และจะมาพร้อมกับหน่วยความจำ HBM ระดับสูง (อาจเป็น HBM3E หรือ HBM4) ผลิตบนเทคโนโลยี 3nm-class ของ TSMC (N3 หรือ N3P) Broadcom ระบุว่าลูกค้ารายนี้ได้ผ่านการ validate แล้ว และได้ “ปล่อยคำสั่งผลิตจริง” ซึ่งหมายความว่าออกจากขั้นตอน prototype สู่การผลิตเชิงพาณิชย์เต็มรูปแบบ โดยจะเริ่มส่งมอบใน Q3 ปี 2026 และคาดว่าจะ deploy ได้ภายในปลายปีนั้น หากประเมินจากราคาชิป AI ที่อยู่ระหว่าง $5,000–$10,000 ต่อตัว ดีลนี้อาจหมายถึงการสั่งซื้อ XPU จำนวน 1–2 ล้านตัว ซึ่งจะถูกกระจายไปในหลายหมื่น node และ rack—เทียบเท่าหรือมากกว่าคลัสเตอร์ inference ที่ใหญ่ที่สุดในโลก ณ ปัจจุบัน ดีลนี้ไม่เพียงแต่ทำให้ OpenAI มีฮาร์ดแวร์ของตัวเอง แต่ยังเพิ่มอำนาจต่อรองกับ Nvidia และ AMD ในอนาคต และอาจเป็นจุดเริ่มต้นของการเปลี่ยนผ่านจาก “GPU-centric AI” สู่ “custom silicon AI” ที่ออกแบบมาเพื่องานเฉพาะทางโดยตรง ✅ รายละเอียดของดีล Broadcom–OpenAI ➡️ มูลค่า $10 พันล้านดอลลาร์ สำหรับ XPU, networking chip และ reference rack ➡️ ลูกค้าผ่านการ validate และปล่อยคำสั่งผลิตจริง ➡️ ส่งมอบใน Q3 2026 และ deploy ได้ภายในปลายปี ✅ สเปกของชิป AI ที่คาดว่าจะใช้ ➡️ สถาปัตยกรรม systolic array สำหรับงาน inference ➡️ ใช้ HBM3E หรือ HBM4 เป็นหน่วยความจำ ➡️ ผลิตบนเทคโนโลยี TSMC N3 หรือ N3P (3nm-class) ✅ ขนาดของการ deploy ➡️ คาดว่าจะมี XPU 1–2 ล้านตัว กระจายในหลายหมื่น node ➡️ เทียบเท่าหรือมากกว่าคลัสเตอร์ AI inference ที่ใหญ่ที่สุดในโลก ➡️ เป็นการเปลี่ยนผ่านจาก GPU-centric ไปสู่ custom silicon ✅ ผลกระทบต่ออุตสาหกรรม ➡️ เพิ่มอำนาจต่อรองของ OpenAI กับ Nvidia และ AMD ➡️ Broadcom กลายเป็นผู้เล่นใหม่ในตลาด AI hardware ➡️ อาจเร่งให้ hyperscaler รายอื่นหันมาพัฒนา custom chip ของตัวเอง https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
    0 Comments 0 Shares 105 Views 0 Reviews
  • เรื่องเล่าจากบทความถึงการบอยคอต: เมื่อความพยายามควบคุมข้อมูลกลายเป็นสงครามกับความเป็นกลาง

    ในช่วงปลายปี 2024 ถึงต้นปี 2025 Elon Musk ได้เปิดฉากโจมตี Wikipedia อย่างเปิดเผย โดยเริ่มจากโพสต์บน X (Twitter) ที่เรียกร้องให้ผู้ติดตามกว่า 200 ล้านคน “หยุดบริจาคให้ Wokepedia” พร้อมกล่าวหาว่า Wikipedia มีอคติทางการเมือง และควร “คืนความสมดุลให้กับอำนาจการแก้ไข”

    การโจมตีนี้เกิดขึ้นหลังจาก Wikipedia อัปเดตหน้าประวัติของ Musk โดยเพิ่มเนื้อหาที่กล่าวถึงท่าทางของเขาในงานสุนทรพจน์ของ Donald Trump ซึ่งบางคนตีความว่าเป็น “ท่าทางแบบนาซี” แม้จะไม่มีการยืนยันเจตนา แต่การกล่าวถึงในบทความก็เพียงพอให้ Muskโกรธและเริ่มรณรงค์ต่อต้าน Wikipedia อย่างจริงจัง

    บทความใน Wikipedia Signpost และรายงานจาก Newsweek ระบุว่า Musk ไม่ได้โจมตี Wikipedia เพียงลำพัง แต่ร่วมมือกับนักเคลื่อนไหวฝ่ายขวา เช่น Chaya Raichik (Libs of TikTok) ที่โพสต์ภาพงบประมาณของ Wikimedia Foundation พร้อมกล่าวหาว่าองค์กรใช้เงิน $50 ล้านไปกับ “diversity, equity, and inclusion” ซึ่งกลายเป็นเป้าหมายของฝ่ายขวาในสหรัฐฯ

    Jimmy Wales ผู้ก่อตั้ง Wikipedia ตอบโต้ทันที โดยโพสต์ว่า “Elon ไม่พอใจที่ Wikipedia ไม่สามารถซื้อได้” และหวังว่าการรณรงค์ของ Musk จะกระตุ้นให้คนที่เชื่อในความจริงบริจาคมากขึ้น Wales ยังย้ำว่า Wikipedia ยึดหลักความเป็นกลาง และเปิดให้ทุกคนมีส่วนร่วมในการแก้ไขอย่างโปร่งใส

    ในขณะที่แพลตฟอร์มอื่น ๆ เช่น X ภายใต้การนำของ Musk กำลังลดการควบคุมเนื้อหาและเปิดทางให้ข้อมูลเท็จแพร่กระจาย Wikipedia ยังคงรักษามาตรฐานการตรวจสอบและการอ้างอิงอย่างเข้มงวด แม้จะถูกโจมตีจากหลายฝ่าย

    การโจมตี Wikipedia โดย Elon Musk
    Musk เรียกร้องให้ผู้ติดตาม “หยุดบริจาคให้ Wokepedia”
    โจมตีเนื้อหาที่กล่าวถึงท่าทางของเขาในงานของ Trump
    ร่วมมือกับนักเคลื่อนไหวฝ่ายขวาในการโจมตีงบประมาณของ Wikimedia

    การตอบโต้จาก Wikipedia
    Jimmy Wales ยืนยันว่า Wikipedia ไม่สามารถซื้อได้
    ย้ำหลักความเป็นกลางและการเปิดให้ทุกคนมีส่วนร่วม
    หวังว่าการโจมตีจะกระตุ้นให้คนที่เชื่อในความจริงบริจาคมากขึ้น

    บริบททางการเมืองและสื่อ
    Wikipedia ถูกมองว่าเป็น “ปราการสุดท้าย” ของข้อมูลที่ไม่ถูกควบคุม
    X ภายใต้ Musk ลดการควบคุมเนื้อหาและเปิดทางให้ข้อมูลเท็จ
    ความขัดแย้งสะท้อนถึงแนวโน้มการแบ่งขั้วในสื่อดิจิทัล

    ความสำคัญของ Wikipedia ในยุคข้อมูล
    เป็นแหล่งข้อมูลที่มีผู้เข้าชมหลายล้านคนต่อวัน
    ใช้ระบบอ้างอิงและการตรวจสอบจากชุมชนอาสาสมัคร
    ยังคงเป็นแหล่งข้อมูลที่ได้รับความเชื่อถือในระดับโลก

    https://www.theverge.com/cs/features/717322/wikipedia-attacks-neutrality-history-jimmy-wales
    🎙️ เรื่องเล่าจากบทความถึงการบอยคอต: เมื่อความพยายามควบคุมข้อมูลกลายเป็นสงครามกับความเป็นกลาง ในช่วงปลายปี 2024 ถึงต้นปี 2025 Elon Musk ได้เปิดฉากโจมตี Wikipedia อย่างเปิดเผย โดยเริ่มจากโพสต์บน X (Twitter) ที่เรียกร้องให้ผู้ติดตามกว่า 200 ล้านคน “หยุดบริจาคให้ Wokepedia” พร้อมกล่าวหาว่า Wikipedia มีอคติทางการเมือง และควร “คืนความสมดุลให้กับอำนาจการแก้ไข” การโจมตีนี้เกิดขึ้นหลังจาก Wikipedia อัปเดตหน้าประวัติของ Musk โดยเพิ่มเนื้อหาที่กล่าวถึงท่าทางของเขาในงานสุนทรพจน์ของ Donald Trump ซึ่งบางคนตีความว่าเป็น “ท่าทางแบบนาซี” แม้จะไม่มีการยืนยันเจตนา แต่การกล่าวถึงในบทความก็เพียงพอให้ Muskโกรธและเริ่มรณรงค์ต่อต้าน Wikipedia อย่างจริงจัง บทความใน Wikipedia Signpost และรายงานจาก Newsweek ระบุว่า Musk ไม่ได้โจมตี Wikipedia เพียงลำพัง แต่ร่วมมือกับนักเคลื่อนไหวฝ่ายขวา เช่น Chaya Raichik (Libs of TikTok) ที่โพสต์ภาพงบประมาณของ Wikimedia Foundation พร้อมกล่าวหาว่าองค์กรใช้เงิน $50 ล้านไปกับ “diversity, equity, and inclusion” ซึ่งกลายเป็นเป้าหมายของฝ่ายขวาในสหรัฐฯ Jimmy Wales ผู้ก่อตั้ง Wikipedia ตอบโต้ทันที โดยโพสต์ว่า “Elon ไม่พอใจที่ Wikipedia ไม่สามารถซื้อได้” และหวังว่าการรณรงค์ของ Musk จะกระตุ้นให้คนที่เชื่อในความจริงบริจาคมากขึ้น Wales ยังย้ำว่า Wikipedia ยึดหลักความเป็นกลาง และเปิดให้ทุกคนมีส่วนร่วมในการแก้ไขอย่างโปร่งใส ในขณะที่แพลตฟอร์มอื่น ๆ เช่น X ภายใต้การนำของ Musk กำลังลดการควบคุมเนื้อหาและเปิดทางให้ข้อมูลเท็จแพร่กระจาย Wikipedia ยังคงรักษามาตรฐานการตรวจสอบและการอ้างอิงอย่างเข้มงวด แม้จะถูกโจมตีจากหลายฝ่าย ✅ การโจมตี Wikipedia โดย Elon Musk ➡️ Musk เรียกร้องให้ผู้ติดตาม “หยุดบริจาคให้ Wokepedia” ➡️ โจมตีเนื้อหาที่กล่าวถึงท่าทางของเขาในงานของ Trump ➡️ ร่วมมือกับนักเคลื่อนไหวฝ่ายขวาในการโจมตีงบประมาณของ Wikimedia ✅ การตอบโต้จาก Wikipedia ➡️ Jimmy Wales ยืนยันว่า Wikipedia ไม่สามารถซื้อได้ ➡️ ย้ำหลักความเป็นกลางและการเปิดให้ทุกคนมีส่วนร่วม ➡️ หวังว่าการโจมตีจะกระตุ้นให้คนที่เชื่อในความจริงบริจาคมากขึ้น ✅ บริบททางการเมืองและสื่อ ➡️ Wikipedia ถูกมองว่าเป็น “ปราการสุดท้าย” ของข้อมูลที่ไม่ถูกควบคุม ➡️ X ภายใต้ Musk ลดการควบคุมเนื้อหาและเปิดทางให้ข้อมูลเท็จ ➡️ ความขัดแย้งสะท้อนถึงแนวโน้มการแบ่งขั้วในสื่อดิจิทัล ✅ ความสำคัญของ Wikipedia ในยุคข้อมูล ➡️ เป็นแหล่งข้อมูลที่มีผู้เข้าชมหลายล้านคนต่อวัน ➡️ ใช้ระบบอ้างอิงและการตรวจสอบจากชุมชนอาสาสมัคร ➡️ ยังคงเป็นแหล่งข้อมูลที่ได้รับความเชื่อถือในระดับโลก https://www.theverge.com/cs/features/717322/wikipedia-attacks-neutrality-history-jimmy-wales
    WWW.THEVERGE.COM
    Wikipedia is under attack — and how it can survive
    The site’s volunteers face threats from Trump, billionaires, and AI.
    0 Comments 0 Shares 99 Views 0 Reviews
  • เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้

    Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน

    ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้

    จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้

    ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป

    นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด

    ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล

    จุดกำเนิดของ Fourier Transform
    Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น
    แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis
    Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน

    การใช้งานในยุคปัจจุบัน
    ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง
    ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน
    ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ

    การพัฒนาเพิ่มเติม
    Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม
    Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก
    ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่

    ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์
    Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ
    ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี
    เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย

    ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน
    Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป
    ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity

    ความเปราะบางของการตีความในฟิสิกส์
    การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง
    ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง

    ความไม่แน่นอนของการใช้งานในระบบจริง
    การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป
    การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ

    https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    🎙️ เรื่องเล่าจากเสียงดนตรีถึงฟิสิกส์ควอนตัม: เมื่อ Fourier เปลี่ยนความวุ่นวายให้กลายเป็นคลื่นที่เข้าใจได้ Jean-Baptiste Joseph Fourier เกิดในปี 1768 ท่ามกลางความวุ่นวายของฝรั่งเศสก่อนการปฏิวัติ เขาเกือบจะกลายเป็นนักบวช แต่เลือกเส้นทางคณิตศาสตร์แทน และในช่วงที่เขาเกือบถูกประหารชีวิตจากการแสดงความเห็นทางการเมือง Fourier ก็ได้กลับมาสู่โลกวิชาการ และกลายเป็นที่ปรึกษาด้านวิทยาศาสตร์ของนโปเลียน ในช่วงที่เขาอยู่ในอียิปต์ Fourier เริ่มสนใจการกระจายความร้อนในโลหะ และเสนอว่าอุณหภูมิในแท่งโลหะสามารถเขียนเป็นผลรวมของคลื่นง่าย ๆ ได้—แม้จะเป็นแท่งที่ครึ่งหนึ่งร้อน ครึ่งหนึ่งเย็นก็ตาม แนวคิดนี้ถูกมองว่า “เป็นไปไม่ได้” ในยุคนั้น แต่ Fourier ยืนยันว่าแม้จะต้องใช้คลื่นจำนวนอนันต์ ก็สามารถอธิบายการกระจายความร้อนได้ จากแนวคิดนี้เกิดเป็น Fourier Transform ซึ่งสามารถแยกฟังก์ชันใด ๆ ออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน—เหมือนการฟังเสียงดนตรีแล้วแยกเสียงแต่ละเครื่องดนตรีออกมาได้ ในยุคปัจจุบัน Fourier Transform ถูกใช้ในทุกอย่างตั้งแต่การบีบอัดภาพ JPEG, การกรองเสียงรบกวน, การตรวจจับคลื่นความโน้มถ่วง, ไปจนถึงการอธิบายหลักความไม่แน่นอนในฟิสิกส์ควอนตัม ที่ตำแหน่งและโมเมนตัมของอนุภาคไม่สามารถรู้ได้พร้อมกัน เพราะ Fourier Transform ของตำแหน่งจะกระจายโมเมนตัมออกไป นอกจากนี้ยังมี Fourier Series ซึ่งใช้ในการประมาณฟังก์ชันที่มีขอบคม เช่น square wave โดยใช้คลื่นไซน์จำนวนมากมารวมกันให้ใกล้เคียงที่สุด ในปี 1960s มีการพัฒนา Fast Fourier Transform (FFT) โดย Cooley และ Tukey ซึ่งทำให้การคำนวณ Fourier Transform เร็วขึ้นมาก และกลายเป็นหัวใจของการประมวลผลสัญญาณในยุคดิจิทัล ✅ จุดกำเนิดของ Fourier Transform ➡️ Jean-Baptiste Joseph Fourier เสนอแนวคิดในปี 1807 ว่าความร้อนสามารถอธิบายด้วยคลื่น ➡️ แม้จะถูกคัดค้านในตอนแรก แต่แนวคิดนี้กลายเป็นรากฐานของ harmonic analysis ➡️ Fourier Transform แยกฟังก์ชันออกเป็นคลื่นไซน์และโคไซน์ที่มีความถี่ต่างกัน ✅ การใช้งานในยุคปัจจุบัน ➡️ ใช้ในการบีบอัดภาพ (JPEG), การกรองเสียง, การวิเคราะห์คลื่นความโน้มถ่วง ➡️ ใช้ในฟิสิกส์ควอนตัมเพื่ออธิบายหลักความไม่แน่นอน ➡️ ใช้ในการวิเคราะห์ภาพและเสียงแบบหลายมิติ ✅ การพัฒนาเพิ่มเติม ➡️ Fourier Series ใช้ในการประมาณฟังก์ชันที่มีขอบคม ➡️ Fast Fourier Transform (FFT) ทำให้การคำนวณเร็วขึ้นมาก ➡️ ใช้ในเรดาร์, MRI, การวิเคราะห์ข้อมูลขนาดใหญ่ ✅ ความเชื่อมโยงกับคณิตศาสตร์บริสุทธิ์ ➡️ Harmonic analysis เชื่อมโยงกับ number theory และการแจกแจงจำนวนเฉพาะ ➡️ ใช้ในการแก้สมการเชิงอนุพันธ์และปัญหาในฟิสิกส์ทฤษฎี ➡️ เป็นเครื่องมือหลักในการแปลงปัญหายากให้กลายเป็นปัญหาที่เข้าใจง่าย ‼️ ความเสี่ยงจากการใช้กับฟังก์ชันที่ซับซ้อน ⛔ Fourier Transform ไม่สามารถใช้กับฟังก์ชันที่แกว่งไม่หยุดแม้จะซูมเข้าไป ⛔ ต้องใช้เงื่อนไขทางคณิตศาสตร์ที่เข้มงวด เช่น integrability และ continuity ‼️ ความเปราะบางของการตีความในฟิสิกส์ ⛔ การแปลงตำแหน่งเป็นโมเมนตัมในควอนตัมอาจทำให้เกิดความไม่แน่นอนสูง ⛔ ต้องระวังการใช้ Fourier Transform ในบริบทที่ต้องการความแม่นยำสูง ‼️ ความไม่แน่นอนของการใช้งานในระบบจริง ⛔ การบีบอัดภาพด้วย Fourier อาจทำให้รายละเอียดเล็ก ๆ หายไป ⛔ การกรองเสียงอาจทำให้เสียงบางส่วนถูกตัดออกโดยไม่ตั้งใจ https://www.quantamagazine.org/what-is-the-fourier-transform-20250903/
    WWW.QUANTAMAGAZINE.ORG
    What Is the Fourier Transform?
    Amid the chaos of revolutionary France, one man’s mathematical obsession gave way to a calculation that now underpins much of mathematics and physics. The calculation, called the Fourier transform, decomposes any function into its parts.
    0 Comments 0 Shares 87 Views 0 Reviews
  • เรื่องเล่าจาก daemon ถึง daemonless: เมื่อความปลอดภัยกลายเป็นเหตุผลหลักในการเปลี่ยนเครื่องมือ

    Dominik Szymański วิศวกร DevOps ได้เขียนบันทึกการเปลี่ยนผ่านจาก Docker ไปสู่ Podman หลังจากพบว่า Docker ซึ่งเคยเป็นเครื่องมือที่ “ทุกคนใช้” กลับมีจุดอ่อนที่ซ่อนอยู่ในสถาปัตยกรรม—โดยเฉพาะ daemon ที่รันด้วยสิทธิ์ root ตลอดเวลา

    Docker ใช้สถาปัตยกรรมแบบ client-server โดย CLI จะสื่อสารกับ dockerd ซึ่งเป็น daemon ที่รันอยู่เบื้องหลัง และควบคุมทุก container บนระบบ หาก daemon นี้ถูกโจมตีหรือมีช่องโหว่ เช่น CVE-2019-5736 หรือ CVE-2024-21626 ก็อาจนำไปสู่การเข้าถึงระบบ host ได้ทันที

    Podman เลือกแนวทางตรงข้าม—ไม่มี daemon เลย ทุกคำสั่งที่รันจะสร้าง container เป็น child process ของผู้ใช้โดยตรง และทำงานภายใต้สิทธิ์ของ user นั้น ทำให้แม้ container จะถูกโจมตี ก็ไม่สามารถเข้าถึงระบบ host ได้ในระดับ root

    นอกจากเรื่องความปลอดภัยแล้ว Podman ยังมีฟีเจอร์ที่น่าสนใจ เช่น การสร้าง systemd unit file อัตโนมัติ, การจัดการ pod แบบ native ที่สามารถแปลงเป็น Kubernetes YAML ได้ทันที, และการแยกเครื่องมือเฉพาะทาง เช่น Buildah สำหรับ build image และ Skopeo สำหรับจัดการ registry

    การเปลี่ยนจาก Docker ไป Podman ไม่ได้ยากอย่างที่คิด เพราะ Podman ใช้ CLI แบบเดียวกับ Docker และรองรับ Dockerfile เดิมได้ทันที แค่ alias docker=podman ก็สามารถใช้งานได้เหมือนเดิม

    Dominik ยังแชร์ประสบการณ์การย้าย FastAPI ไป Podman โดยใช้ rootless container, systemd integration และ pod สำหรับจัดการ multi-service ได้อย่างมีประสิทธิภาพ และพบว่า resource usage บน dashboard ดูสะอาดขึ้นอย่างเห็นได้ชัด

    สถาปัตยกรรมของ Docker และ Podman
    Docker ใช้ daemon ที่รันด้วย root privileges ตลอดเวลา
    Podman ไม่มี daemon และรัน container เป็น child process ของ user
    ลด single point of failure และลด surface ของการโจมตี

    ช่องโหว่ด้านความปลอดภัยของ Docker
    CVE-2019-5736: container escape ผ่าน runC
    CVE-2022-0847 “Dirty Pipe”: เขียนไฟล์ read-only บน kernel
    CVE-2024-21626: fd leak และ cwd escape บน runC
    แคมเปญ cryptojacking ผ่าน Docker API ที่เปิดเผย

    ฟีเจอร์เด่นของ Podman
    สร้าง systemd unit file ด้วย podman generate systemd
    รองรับ pod แบบ native และแปลงเป็น Kubernetes YAML ได้
    ใช้ Buildah และ Skopeo สำหรับงานเฉพาะทาง
    rootless container เป็นค่าเริ่มต้น เพิ่มความปลอดภัย

    การย้ายจาก Docker ไป Podman
    CLI เหมือนกัน: podman run, podman build, podman ps
    Dockerfile เดิมใช้งานได้ทันที
    รองรับ Docker Compose ผ่าน podman-compose หรือแปลงเป็น Kubernetes

    ประสบการณ์ใช้งานจริง
    ระบบเสถียรขึ้นเมื่อไม่มี daemon
    dashboard แสดงการใช้ resource ได้ชัดเจนขึ้น
    เหมาะสำหรับผู้ที่ต้องรับผิดชอบด้านความปลอดภัยโดยตรง

    https://codesmash.dev/why-i-ditched-docker-for-podman-and-you-should-too
    🎙️ เรื่องเล่าจาก daemon ถึง daemonless: เมื่อความปลอดภัยกลายเป็นเหตุผลหลักในการเปลี่ยนเครื่องมือ Dominik Szymański วิศวกร DevOps ได้เขียนบันทึกการเปลี่ยนผ่านจาก Docker ไปสู่ Podman หลังจากพบว่า Docker ซึ่งเคยเป็นเครื่องมือที่ “ทุกคนใช้” กลับมีจุดอ่อนที่ซ่อนอยู่ในสถาปัตยกรรม—โดยเฉพาะ daemon ที่รันด้วยสิทธิ์ root ตลอดเวลา Docker ใช้สถาปัตยกรรมแบบ client-server โดย CLI จะสื่อสารกับ dockerd ซึ่งเป็น daemon ที่รันอยู่เบื้องหลัง และควบคุมทุก container บนระบบ หาก daemon นี้ถูกโจมตีหรือมีช่องโหว่ เช่น CVE-2019-5736 หรือ CVE-2024-21626 ก็อาจนำไปสู่การเข้าถึงระบบ host ได้ทันที Podman เลือกแนวทางตรงข้าม—ไม่มี daemon เลย ทุกคำสั่งที่รันจะสร้าง container เป็น child process ของผู้ใช้โดยตรง และทำงานภายใต้สิทธิ์ของ user นั้น ทำให้แม้ container จะถูกโจมตี ก็ไม่สามารถเข้าถึงระบบ host ได้ในระดับ root นอกจากเรื่องความปลอดภัยแล้ว Podman ยังมีฟีเจอร์ที่น่าสนใจ เช่น การสร้าง systemd unit file อัตโนมัติ, การจัดการ pod แบบ native ที่สามารถแปลงเป็น Kubernetes YAML ได้ทันที, และการแยกเครื่องมือเฉพาะทาง เช่น Buildah สำหรับ build image และ Skopeo สำหรับจัดการ registry การเปลี่ยนจาก Docker ไป Podman ไม่ได้ยากอย่างที่คิด เพราะ Podman ใช้ CLI แบบเดียวกับ Docker และรองรับ Dockerfile เดิมได้ทันที แค่ alias docker=podman ก็สามารถใช้งานได้เหมือนเดิม Dominik ยังแชร์ประสบการณ์การย้าย FastAPI ไป Podman โดยใช้ rootless container, systemd integration และ pod สำหรับจัดการ multi-service ได้อย่างมีประสิทธิภาพ และพบว่า resource usage บน dashboard ดูสะอาดขึ้นอย่างเห็นได้ชัด ✅ สถาปัตยกรรมของ Docker และ Podman ➡️ Docker ใช้ daemon ที่รันด้วย root privileges ตลอดเวลา ➡️ Podman ไม่มี daemon และรัน container เป็น child process ของ user ➡️ ลด single point of failure และลด surface ของการโจมตี ✅ ช่องโหว่ด้านความปลอดภัยของ Docker ➡️ CVE-2019-5736: container escape ผ่าน runC ➡️ CVE-2022-0847 “Dirty Pipe”: เขียนไฟล์ read-only บน kernel ➡️ CVE-2024-21626: fd leak และ cwd escape บน runC ➡️ แคมเปญ cryptojacking ผ่าน Docker API ที่เปิดเผย ✅ ฟีเจอร์เด่นของ Podman ➡️ สร้าง systemd unit file ด้วย podman generate systemd ➡️ รองรับ pod แบบ native และแปลงเป็น Kubernetes YAML ได้ ➡️ ใช้ Buildah และ Skopeo สำหรับงานเฉพาะทาง ➡️ rootless container เป็นค่าเริ่มต้น เพิ่มความปลอดภัย ✅ การย้ายจาก Docker ไป Podman ➡️ CLI เหมือนกัน: podman run, podman build, podman ps ➡️ Dockerfile เดิมใช้งานได้ทันที ➡️ รองรับ Docker Compose ผ่าน podman-compose หรือแปลงเป็น Kubernetes ✅ ประสบการณ์ใช้งานจริง ➡️ ระบบเสถียรขึ้นเมื่อไม่มี daemon ➡️ dashboard แสดงการใช้ resource ได้ชัดเจนขึ้น ➡️ เหมาะสำหรับผู้ที่ต้องรับผิดชอบด้านความปลอดภัยโดยตรง https://codesmash.dev/why-i-ditched-docker-for-podman-and-you-should-too
    CODESMASH.DEV
    Switching from Docker to Podman
    Podman offers better security, uses fewer resources, and integrates seamlessly with Linux and Kubernetes, making it a superior Docker alternative
    0 Comments 0 Shares 95 Views 0 Reviews
  • แกะรอยเก่า ตอนที่ 2

    นิทานเรื่องจริง เรื่อง “แกะรอยเก่า”
    ตอนที่ 2
    นาย Kenneth Perry Landon เป็นมิชชั่นนารี หมอสอนศาสนา แต่ไม่ใช่มิชชั่นนารีประเภทเดินหน้าเซียวเที่ยวเคาะประตูบ้าน เหมือนคนขายหนังสือพจนานุกรมสมัยก่อน แต่เขาเป็นนักสอนศาสนามีดีกรี จบปริญญาตรีทางเทววิทยา Theological Seminary จากมหาวิทยาลัย Princeton (วิชานี้เขาว่านักบวชสมัยก่อนที่เดินทางมาเผยแพร่ศาสนา แถวเอเซีย ลาตินอเมริกา ล้วนจบวิชานี้ทั้งนั้น นอกเหนือจากเรียนหลายภาษาแล้ว หนึ่งในหลักสูตรเขาว่าต้องเรียนฟันดาบและต่อสู้ป้องกันตัวด้วย)หลังจากนั้นนาย Kenneth ก็เรียนต่อจบปริญญาโทจากมหาวิทยาลัย Chicago เขาเดินทางมาเมืองไทย พร้อมภรรยา เมื่อประมาณ ค.ศ. 1927 (อย่าเพิ่งโว้ย ว่าเล่านิทานโบราณจัง ตอนนี้ใครๆ เขาเขียนเรื่องเรือบินหายหรือสงครามโลกครั้งที่ 3 กันทั้งนั้น ใจเย็น อ่านต่อไปก่อนน่า เดี๋ยวมันก็อธิบายมาถึงปัจจุบันได้เองแหละ)
    เขากับนาง Margaret เดินทางมาทางเรือจากด้านตะวันออกของอเมริกา ผ่านมหาสมุทรแปซิฟิก มาโผล่เอาที่สิงคโปร์ ตลอดทางที่เรือแวะจอดท่าต่างๆ เขานั่งเบิ่งตา หูตั้ง มองทุกอย่าง ฟังทุกเรื่อง จัดเก็บข้อมูลเรียงแน่นอยู่ในหัว (ใบสั่งมันคงระบุชัดเจนดี) จนเมื่อเรือแล่นจากสิงคโปร์ขึ้นมาบางกอก เมียก็ถามเขาว่า นี่เธอรู้จักเมืองไทยดีแค่ไหนนะเนี่ย เขาตอบว่า ฉันรู้แต่ว่าคนไทยส่วนมากเป็นฝาแฝดตัวติดกัน แล้วก็มีช้างเผือกแยะมาก และที่เมืองไทยฝนน่าจะตกชุก เพราะฉันเห็นรูปถ่ายพระเจ้าแผ่นดินของไทย นั่งอยู่ใต้ร่มอันใหญ่มาก หน้าตาเหมือนน้ำพุ 9 ชั้น (อืม ! ชั้นเชิงใช้ได้ ตอบเมียตัวเองได้แบบนี้อนาคตไกล)
    นาย Kenneth กับนาง Margaret เมื่อแรกมาถึงเมืองไทยก็พักอยู่ที่เมืองบางกอกก่อน อยู่ประมาณ 1 ปี ตลอดเวลา 1 ปี เขาถูกพาไปป้วนเปี้ยนวนเวียนอยู่ในสังคมฝรั่งที่มีทั้งพวกมิชชั่นนารี พวกฑูต และพ่อค้าฝรั่ง แล้วฝรั่งพวกนี้ก็พาเขาเข้าสังคมคนไทยชั้นสูง ทำให้เขามีโอกาสรู้จักผู้หลักผู้ใหญ่ของเมืองไทย รวมทั้งเชื้อพระวงศ์ระดับสูง เช่น กรมพระยาดำรงเดชานุภาพ กรมหมื่นพิทยาลงกรณ์ เป็นต้น (อย่าลืมว่าเมื่อนาย Kenneth มาถึงเมืองไทย ช่วงนั้นยังเป็นระบอบสมบูรณาญาสิทธิราชย์อยู่ น่าสนใจวิธีการนำตัวเข้าสังคมของนักสอนศาสนารายนี้จริงๆ) นาย Kenneth ไม่ได้ใช้เวลาเดินเล่นอยู่ในวงสังคมชั้นสูงอย่างเดียว อีกอย่างที่เขาทำอย่างเอาจริงเอาจัง และไม่ให้ใครรู้ คือ เขาตั้งใจเรียนภาษาไทย เขาจ้างครูมาสอน เขาและภรรยาเรียนภาษาไทยกับครูทุกวันๆ ละ 3 ชั่วโมง และทำการบ้านเตรียมตัวอีกวันละ 3 ชั่วโมง สำหรับการเรียนในวันรุ่งขึ้น เป็นการเรียนแบบหลักสูตรเร่งรัดเลยละ (มันทำไมต้องเร่งรัดกันขนาดนี้นะ ?) เขาฝึกบทเรียนภาษาไทยที่เขาเรียน ด้วยการออกไปเดินเที่ยวเล่นในตลาด ไปเดินซื้อของและถามแม่ค้า เป็นภาษาไทยว่า “เท่าไหร่” และไม่ว่าแม่ค้าจะตอบว่าอะไร และไม่ว่าเขาจะฟังรู้เรื่องหรือไม่ เขาก็จะตอบกลับเป็นภาษาไทยว่า “แพงไป” แล้วก็เดินไปหาแม่ค้าเจ้าอื่นต่อไป (เห็นลีลาสายลับรุ่นโบราณไหมครับ สมัยนี้ก็ยังทำแบบนี้ แต่แทนที่จะเดินเล่นตามตลาด เขาไปเดินเล่นตามห้าง ตามงานสังคมชั้นสูง ตามที่มั่วสุมของคนชั้นสูง เช่นที่สปอร์ตคลับ และตามบ้านคนใหญ่คนโตทั้งหลาย ฯลฯ เสร็จแล้วพวกเขาก็ไปรายงานข้อมูลที่ได้ยินมาจากที่ไปเดินเล่น ตามที่ตัวเองเข้าใจ แบบ งูๆ ปลาๆ ต่อนายเหนือ เรื่องมันถึงได้วุ่น !)
    จากการเรียนภาษาไทยอย่างตั้งอกตั้งใจ ทำให้เขาเข้าใจว่า ภาษาไทยเป็นภาษาที่ลึกซึ้ง แสดงถึงความละเอียดอ่อนของความเป็นคนไทย เขายกตัวอย่างคำว่า ฉัน ภาษาอังกฤษ ใช้ I หรือ me แค่ 2 คำ แต่ภาษาไทยมีให้เลือกใช้ถึง 15 คำ แต่ละคำแสดงถึงสถานะทางสังคมของ ผู้พูด ความสัมพันธ์ระหว่างผู้พูดและยังแยกเพศได้อีก สิ่งเหล่านี้ไม่มีในภาษาอังกฤษ นอกจากนั้นคำเดียวกันนั้น ถ้าใช้คู่กับอีกคำ ระหว่างบุรุษที่ 1 กับบุรุษที่ 2 ยังแสดงถึงอารมณ์ ความสนิทสนมของผู้ใช้อีกด้วย รวมทั้งแสดงได้ถึงฐานะที่สูงต่ำกว่ากัน เช่นคำว่า “มึง” และ “กู” ดังนั้นจึงเป็นการยากที่ชาวต่างชาติจะเข้าใจคนไทย และสังคมไทยถ้าไม่เข้าใจภาษาไทยให้แตกฉานเสียก่อน (อยากรู้ว่าไอ้พวก app รุ่นใหม่ที่ไปเดินเล่นตามสังคมนั้น มันจะเข้าใจความละเอียดอ่อนของคนไทยได้แค่ไหนกัน)
    นอกจากนี้จากการเรียนภาษาไทย ทำให้เขาเข้าใจว่า กว่าครึ่งของภาษาไทยมีรากมาจากภาษาสันสกฤตและบาลี ซึ่งเป็นภาษาโบราณของอินเดีย และเกี่ยวพันกับพุทธศาสนา ซึ่งเป็นทั้งศาสนาและวัฒนธรรมของคนไทย เขาบอกกับตัวเองว่าถ้าจะเข้าใจคนไทยให้ลึกซึ้ง ต้องเข้าใจภาษาไทย และควรจะศึกษาเกี่ยวกับอินเดียด้วย เพื่อเข้าใจที่มาที่ไปของคนไทย ประเพณี และวิธีการคิดของคนไทย ซึ่งภายหลังเขาได้กลับไปเรียนต่อปริญญาเอก ที่มหาวิทยาลัย Chicago เขาเรียนภาษาสันสกฤต บาลีรวมทั้งเรียนวิชาเกี่ยวกับอินเดียด้วย (เขาหาอุปกรณ์เสริมได้เก่ง ต้องยอมรับ นักสอนศาสนาคนนี้ ไม่ธรรมดาจริงๆ)
    เขาเรียนภาษาไทยแตกฉานได้อย่างรวดเร็ว ระหว่างที่อยู่บางกอก เขาทดสอบความแตกฉานของตัวเองด้วยการ เริ่มเทศน์เกี่ยวกับพระเยซูคริสต์ เป็นภาษาไทย ช่วงแรกๆ เวลาเขาเทศน์ เมื่อพูดถึงพระเยซูถูกตรึง “กางเขน” เขาออกเสียงภาษาไทย เป็นพระเยซูถูกตรึง “กางเกง” และนั่นทำให้เขาเป็นที่ชอบใจของคนไทย ว่าเขาเทศน์ได้ตลกดี และทำให้มีคนมาฟังเขาแยะ แม้จะไม่รู้จักพระเยซูและศาสนาคริสเตียนเลยแม้แต่น้อย แต่ก็พากันมาดูฝรั่งแทศน์เป็นภาษาไทย แบบดูการแสดงตลก โดยไม่คิดอะไรมาก

    คนเล่านิทาน
    แกะรอยเก่า ตอนที่ 2 นิทานเรื่องจริง เรื่อง “แกะรอยเก่า” ตอนที่ 2 นาย Kenneth Perry Landon เป็นมิชชั่นนารี หมอสอนศาสนา แต่ไม่ใช่มิชชั่นนารีประเภทเดินหน้าเซียวเที่ยวเคาะประตูบ้าน เหมือนคนขายหนังสือพจนานุกรมสมัยก่อน แต่เขาเป็นนักสอนศาสนามีดีกรี จบปริญญาตรีทางเทววิทยา Theological Seminary จากมหาวิทยาลัย Princeton (วิชานี้เขาว่านักบวชสมัยก่อนที่เดินทางมาเผยแพร่ศาสนา แถวเอเซีย ลาตินอเมริกา ล้วนจบวิชานี้ทั้งนั้น นอกเหนือจากเรียนหลายภาษาแล้ว หนึ่งในหลักสูตรเขาว่าต้องเรียนฟันดาบและต่อสู้ป้องกันตัวด้วย)หลังจากนั้นนาย Kenneth ก็เรียนต่อจบปริญญาโทจากมหาวิทยาลัย Chicago เขาเดินทางมาเมืองไทย พร้อมภรรยา เมื่อประมาณ ค.ศ. 1927 (อย่าเพิ่งโว้ย ว่าเล่านิทานโบราณจัง ตอนนี้ใครๆ เขาเขียนเรื่องเรือบินหายหรือสงครามโลกครั้งที่ 3 กันทั้งนั้น ใจเย็น อ่านต่อไปก่อนน่า เดี๋ยวมันก็อธิบายมาถึงปัจจุบันได้เองแหละ) เขากับนาง Margaret เดินทางมาทางเรือจากด้านตะวันออกของอเมริกา ผ่านมหาสมุทรแปซิฟิก มาโผล่เอาที่สิงคโปร์ ตลอดทางที่เรือแวะจอดท่าต่างๆ เขานั่งเบิ่งตา หูตั้ง มองทุกอย่าง ฟังทุกเรื่อง จัดเก็บข้อมูลเรียงแน่นอยู่ในหัว (ใบสั่งมันคงระบุชัดเจนดี) จนเมื่อเรือแล่นจากสิงคโปร์ขึ้นมาบางกอก เมียก็ถามเขาว่า นี่เธอรู้จักเมืองไทยดีแค่ไหนนะเนี่ย เขาตอบว่า ฉันรู้แต่ว่าคนไทยส่วนมากเป็นฝาแฝดตัวติดกัน แล้วก็มีช้างเผือกแยะมาก และที่เมืองไทยฝนน่าจะตกชุก เพราะฉันเห็นรูปถ่ายพระเจ้าแผ่นดินของไทย นั่งอยู่ใต้ร่มอันใหญ่มาก หน้าตาเหมือนน้ำพุ 9 ชั้น (อืม ! ชั้นเชิงใช้ได้ ตอบเมียตัวเองได้แบบนี้อนาคตไกล) นาย Kenneth กับนาง Margaret เมื่อแรกมาถึงเมืองไทยก็พักอยู่ที่เมืองบางกอกก่อน อยู่ประมาณ 1 ปี ตลอดเวลา 1 ปี เขาถูกพาไปป้วนเปี้ยนวนเวียนอยู่ในสังคมฝรั่งที่มีทั้งพวกมิชชั่นนารี พวกฑูต และพ่อค้าฝรั่ง แล้วฝรั่งพวกนี้ก็พาเขาเข้าสังคมคนไทยชั้นสูง ทำให้เขามีโอกาสรู้จักผู้หลักผู้ใหญ่ของเมืองไทย รวมทั้งเชื้อพระวงศ์ระดับสูง เช่น กรมพระยาดำรงเดชานุภาพ กรมหมื่นพิทยาลงกรณ์ เป็นต้น (อย่าลืมว่าเมื่อนาย Kenneth มาถึงเมืองไทย ช่วงนั้นยังเป็นระบอบสมบูรณาญาสิทธิราชย์อยู่ น่าสนใจวิธีการนำตัวเข้าสังคมของนักสอนศาสนารายนี้จริงๆ) นาย Kenneth ไม่ได้ใช้เวลาเดินเล่นอยู่ในวงสังคมชั้นสูงอย่างเดียว อีกอย่างที่เขาทำอย่างเอาจริงเอาจัง และไม่ให้ใครรู้ คือ เขาตั้งใจเรียนภาษาไทย เขาจ้างครูมาสอน เขาและภรรยาเรียนภาษาไทยกับครูทุกวันๆ ละ 3 ชั่วโมง และทำการบ้านเตรียมตัวอีกวันละ 3 ชั่วโมง สำหรับการเรียนในวันรุ่งขึ้น เป็นการเรียนแบบหลักสูตรเร่งรัดเลยละ (มันทำไมต้องเร่งรัดกันขนาดนี้นะ ?) เขาฝึกบทเรียนภาษาไทยที่เขาเรียน ด้วยการออกไปเดินเที่ยวเล่นในตลาด ไปเดินซื้อของและถามแม่ค้า เป็นภาษาไทยว่า “เท่าไหร่” และไม่ว่าแม่ค้าจะตอบว่าอะไร และไม่ว่าเขาจะฟังรู้เรื่องหรือไม่ เขาก็จะตอบกลับเป็นภาษาไทยว่า “แพงไป” แล้วก็เดินไปหาแม่ค้าเจ้าอื่นต่อไป (เห็นลีลาสายลับรุ่นโบราณไหมครับ สมัยนี้ก็ยังทำแบบนี้ แต่แทนที่จะเดินเล่นตามตลาด เขาไปเดินเล่นตามห้าง ตามงานสังคมชั้นสูง ตามที่มั่วสุมของคนชั้นสูง เช่นที่สปอร์ตคลับ และตามบ้านคนใหญ่คนโตทั้งหลาย ฯลฯ เสร็จแล้วพวกเขาก็ไปรายงานข้อมูลที่ได้ยินมาจากที่ไปเดินเล่น ตามที่ตัวเองเข้าใจ แบบ งูๆ ปลาๆ ต่อนายเหนือ เรื่องมันถึงได้วุ่น !) จากการเรียนภาษาไทยอย่างตั้งอกตั้งใจ ทำให้เขาเข้าใจว่า ภาษาไทยเป็นภาษาที่ลึกซึ้ง แสดงถึงความละเอียดอ่อนของความเป็นคนไทย เขายกตัวอย่างคำว่า ฉัน ภาษาอังกฤษ ใช้ I หรือ me แค่ 2 คำ แต่ภาษาไทยมีให้เลือกใช้ถึง 15 คำ แต่ละคำแสดงถึงสถานะทางสังคมของ ผู้พูด ความสัมพันธ์ระหว่างผู้พูดและยังแยกเพศได้อีก สิ่งเหล่านี้ไม่มีในภาษาอังกฤษ นอกจากนั้นคำเดียวกันนั้น ถ้าใช้คู่กับอีกคำ ระหว่างบุรุษที่ 1 กับบุรุษที่ 2 ยังแสดงถึงอารมณ์ ความสนิทสนมของผู้ใช้อีกด้วย รวมทั้งแสดงได้ถึงฐานะที่สูงต่ำกว่ากัน เช่นคำว่า “มึง” และ “กู” ดังนั้นจึงเป็นการยากที่ชาวต่างชาติจะเข้าใจคนไทย และสังคมไทยถ้าไม่เข้าใจภาษาไทยให้แตกฉานเสียก่อน (อยากรู้ว่าไอ้พวก app รุ่นใหม่ที่ไปเดินเล่นตามสังคมนั้น มันจะเข้าใจความละเอียดอ่อนของคนไทยได้แค่ไหนกัน) นอกจากนี้จากการเรียนภาษาไทย ทำให้เขาเข้าใจว่า กว่าครึ่งของภาษาไทยมีรากมาจากภาษาสันสกฤตและบาลี ซึ่งเป็นภาษาโบราณของอินเดีย และเกี่ยวพันกับพุทธศาสนา ซึ่งเป็นทั้งศาสนาและวัฒนธรรมของคนไทย เขาบอกกับตัวเองว่าถ้าจะเข้าใจคนไทยให้ลึกซึ้ง ต้องเข้าใจภาษาไทย และควรจะศึกษาเกี่ยวกับอินเดียด้วย เพื่อเข้าใจที่มาที่ไปของคนไทย ประเพณี และวิธีการคิดของคนไทย ซึ่งภายหลังเขาได้กลับไปเรียนต่อปริญญาเอก ที่มหาวิทยาลัย Chicago เขาเรียนภาษาสันสกฤต บาลีรวมทั้งเรียนวิชาเกี่ยวกับอินเดียด้วย (เขาหาอุปกรณ์เสริมได้เก่ง ต้องยอมรับ นักสอนศาสนาคนนี้ ไม่ธรรมดาจริงๆ) เขาเรียนภาษาไทยแตกฉานได้อย่างรวดเร็ว ระหว่างที่อยู่บางกอก เขาทดสอบความแตกฉานของตัวเองด้วยการ เริ่มเทศน์เกี่ยวกับพระเยซูคริสต์ เป็นภาษาไทย ช่วงแรกๆ เวลาเขาเทศน์ เมื่อพูดถึงพระเยซูถูกตรึง “กางเขน” เขาออกเสียงภาษาไทย เป็นพระเยซูถูกตรึง “กางเกง” และนั่นทำให้เขาเป็นที่ชอบใจของคนไทย ว่าเขาเทศน์ได้ตลกดี และทำให้มีคนมาฟังเขาแยะ แม้จะไม่รู้จักพระเยซูและศาสนาคริสเตียนเลยแม้แต่น้อย แต่ก็พากันมาดูฝรั่งแทศน์เป็นภาษาไทย แบบดูการแสดงตลก โดยไม่คิดอะไรมาก คนเล่านิทาน
    0 Comments 0 Shares 97 Views 0 Reviews
  • บูรพาไม่แพ้ Ep.137 : เบื้องหลังพาเหรด 80 ปี Victory Day จีนชนะสงครามโลก
    .
    วันพุธที่ 3 กันยายน 2568 ที่ผ่านมา ที่กรุงปักกิ่ง ประเทศจีนมีงานใหญ่ คือ งานรำลึกชัยชนะในสงครามต่อต้านญี่ปุ่น และสงครามโลกครั้งที่ 2 ซึ่งปีนี้เป็นวาระครบรอบ 80 ปี โดยประเทศจีนได้จัดการ “สวนสนาม” ที่จัตุรัสเทียนอันเหมิน พร้อมกับเชิญผู้นำ และบุคคลสำคัญจากชาติต่าง ๆ เกือบ 30 ประเทศเข้าร่วมพิธี โดยงานครั้งนี้มีผู้ร่วมงานในพื้นที่มากกว่า 5 หมื่นคน
    .
    ถึงแม้ว่า จีนจะมีพิธีระลึกถึงชัยชนะในสงครามโลกเป็นประจำทุกปี แต่การสวนสนาม และการจัดงานอย่างยิ่งใหญ่นั้น ไม่ได้มีกันบ่อย ๆ เพราะว่าการจัดงานในระดับนี้ต้องมีการเตรียมงานอย่างมากมาย, มีการฝึกซ้อมหลายครั้ง, และมีค่าใช้จ่ายที่สูงมาก ดังนั้น งานในปีนี้จึงมีความสำคัญมากเป็นพิเศษ ...
    .
    คลิกฟัง >> https://www.youtube.com/watch?v=lU3vWB8sv3U
    .
    #บูรพาไม่แพ้ #สงครามโลกครั้งที่2 #จีนจัดพาเหรดชนะสงคราม #VictoryDay #จัตุรัสเทียนอันเหมิน
    บูรพาไม่แพ้ Ep.137 : เบื้องหลังพาเหรด 80 ปี Victory Day จีนชนะสงครามโลก . วันพุธที่ 3 กันยายน 2568 ที่ผ่านมา ที่กรุงปักกิ่ง ประเทศจีนมีงานใหญ่ คือ งานรำลึกชัยชนะในสงครามต่อต้านญี่ปุ่น และสงครามโลกครั้งที่ 2 ซึ่งปีนี้เป็นวาระครบรอบ 80 ปี โดยประเทศจีนได้จัดการ “สวนสนาม” ที่จัตุรัสเทียนอันเหมิน พร้อมกับเชิญผู้นำ และบุคคลสำคัญจากชาติต่าง ๆ เกือบ 30 ประเทศเข้าร่วมพิธี โดยงานครั้งนี้มีผู้ร่วมงานในพื้นที่มากกว่า 5 หมื่นคน . ถึงแม้ว่า จีนจะมีพิธีระลึกถึงชัยชนะในสงครามโลกเป็นประจำทุกปี แต่การสวนสนาม และการจัดงานอย่างยิ่งใหญ่นั้น ไม่ได้มีกันบ่อย ๆ เพราะว่าการจัดงานในระดับนี้ต้องมีการเตรียมงานอย่างมากมาย, มีการฝึกซ้อมหลายครั้ง, และมีค่าใช้จ่ายที่สูงมาก ดังนั้น งานในปีนี้จึงมีความสำคัญมากเป็นพิเศษ ... . คลิกฟัง >> https://www.youtube.com/watch?v=lU3vWB8sv3U . #บูรพาไม่แพ้ #สงครามโลกครั้งที่2 #จีนจัดพาเหรดชนะสงคราม #VictoryDay #จัตุรัสเทียนอันเหมิน
    Like
    2
    0 Comments 0 Shares 64 Views 0 Reviews
  • ก๋วยเตี๋ยวเรือตลาดนัดศิวะ #สมุทรปราการ #กินอะไรดี #ร้านดีบอกต่อ #อร่อยบอกต่อ #กิน #อร่อย #อาหาร #eat #food #foodie #delicious #thaifood #streetfood #กินง่ายริมทาง #thaitimes #kaiaminute
    ก๋วยเตี๋ยวเรือตลาดนัดศิวะ #สมุทรปราการ #กินอะไรดี #ร้านดีบอกต่อ #อร่อยบอกต่อ #กิน #อร่อย #อาหาร #eat #food #foodie #delicious #thaifood #streetfood #กินง่ายริมทาง #thaitimes #kaiaminute
    0 Comments 0 Shares 53 Views 0 0 Reviews
  • บูรพาไม่แพ้ Ep.137 : เบื้องหลังพาเหรด 80 ปี Victory Day จีนชนะสงครามโลก

    https://www.youtube.com/watch?v=lU3vWB8sv3U
    บูรพาไม่แพ้ Ep.137 : เบื้องหลังพาเหรด 80 ปี Victory Day จีนชนะสงครามโลก https://www.youtube.com/watch?v=lU3vWB8sv3U
    Like
    1
    0 Comments 0 Shares 37 Views 0 Reviews
  • ผบ.ทบ.ทำไมไม่ย้าย มทภ.1นี้ออกจากพื้นที่ทันที,แปลกใจมาก,ทำไมยังมายืนคุมกำลังทหารภาค.1ปกติอีก,ประชาชนเขารับไม่ได้นานแล้ว,ไม่ไว้วางใจด้วย,อ.วีระฟ้อง ม.157อีก,โดยส่วนใหญ่คนแบบนีัจะทำงานไม่เต็มที่จริงแล้ว,ทั้งติดโผ.ขึ้นผบ.ทบ.อีก,บ้านเมืองเราจะอันตรายมากถ้าคนลักษณะนี้ขึ้นเป็นใหญ่ คนไทยไม่ได้กินแกลบนะ,ถ้ามีแพลตฟอร์มลงมติออรไลน์จากประชาชนว่า สมควรย้ายมทภ.1ออกจากพื้นที่ภาค1ทันทีหรือไม่ ประชาชนกว่า20ล้านคน ลงมติให้ย้ายทันทีแน่นอน.ผลงานเปรียบเทียบกับภาค2แล้ว แค่บ้านหนองจานกระจอกมาก กากด้วยแต่ไม่มีฝีมือจัดการปัญหาเด็ดขาดอะไรและปล่อยให้เนิ่นนานมาถึงเวลานี้ได้อย่างไร เสมือนกำจัดเพาะเลี้ยงไฟไว้ด้วย,เพาะเชื้อรออะไรบ้างอย่าง อย่างมีเป้าหมาย หรือรอ มทภ.2ลงจากตำแหน่งเกษียณอายุไปเหรอ,ฮุนเซนจะยึด11จุดคืน,
    ..ผบ.เหล่าทัพ ผบ.ทบ.เราระบบบริหารจัดการมีปัญหาจริงๆ,เขมรบ้านหนองจานเข้ามายั่วยุบนแผ่นดินไทยภายใต้กฎอัยการศึกแท้ๆแต่ไม่มีปัญญาจัดการเขมรพวกนี้จริง,ตีโอบจัดการทหารเขมรที่ยืนคุมด้านหลังก็ได้ ยิงแก๊สน้ำตาใส่ทหารเขมรด้านหลังก็ได้,
    ..สรุป ทำผลักดันคนเขมรออกจากหลัก46,47จริงอะไรเลย,เสียถึง ผบ.ทบ.และผบ.เหล่าทัพด้วย.กองทัพมีความไม่ปกติภายในด้วย.

    https://youtube.com/shorts/tQmKPICy8ok?si=BSzIuackLEUnL01J
    ผบ.ทบ.ทำไมไม่ย้าย มทภ.1นี้ออกจากพื้นที่ทันที,แปลกใจมาก,ทำไมยังมายืนคุมกำลังทหารภาค.1ปกติอีก,ประชาชนเขารับไม่ได้นานแล้ว,ไม่ไว้วางใจด้วย,อ.วีระฟ้อง ม.157อีก,โดยส่วนใหญ่คนแบบนีัจะทำงานไม่เต็มที่จริงแล้ว,ทั้งติดโผ.ขึ้นผบ.ทบ.อีก,บ้านเมืองเราจะอันตรายมากถ้าคนลักษณะนี้ขึ้นเป็นใหญ่ คนไทยไม่ได้กินแกลบนะ,ถ้ามีแพลตฟอร์มลงมติออรไลน์จากประชาชนว่า สมควรย้ายมทภ.1ออกจากพื้นที่ภาค1ทันทีหรือไม่ ประชาชนกว่า20ล้านคน ลงมติให้ย้ายทันทีแน่นอน.ผลงานเปรียบเทียบกับภาค2แล้ว แค่บ้านหนองจานกระจอกมาก กากด้วยแต่ไม่มีฝีมือจัดการปัญหาเด็ดขาดอะไรและปล่อยให้เนิ่นนานมาถึงเวลานี้ได้อย่างไร เสมือนกำจัดเพาะเลี้ยงไฟไว้ด้วย,เพาะเชื้อรออะไรบ้างอย่าง อย่างมีเป้าหมาย หรือรอ มทภ.2ลงจากตำแหน่งเกษียณอายุไปเหรอ,ฮุนเซนจะยึด11จุดคืน, ..ผบ.เหล่าทัพ ผบ.ทบ.เราระบบบริหารจัดการมีปัญหาจริงๆ,เขมรบ้านหนองจานเข้ามายั่วยุบนแผ่นดินไทยภายใต้กฎอัยการศึกแท้ๆแต่ไม่มีปัญญาจัดการเขมรพวกนี้จริง,ตีโอบจัดการทหารเขมรที่ยืนคุมด้านหลังก็ได้ ยิงแก๊สน้ำตาใส่ทหารเขมรด้านหลังก็ได้, ..สรุป ทำผลักดันคนเขมรออกจากหลัก46,47จริงอะไรเลย,เสียถึง ผบ.ทบ.และผบ.เหล่าทัพด้วย.กองทัพมีความไม่ปกติภายในด้วย. https://youtube.com/shorts/tQmKPICy8ok?si=BSzIuackLEUnL01J
    0 Comments 0 Shares 75 Views 0 Reviews
  • https://youtu.be/ZCzrtBbGJHk?si=UpoIGqdzWc7reICR
    https://youtu.be/ZCzrtBbGJHk?si=UpoIGqdzWc7reICR
    0 Comments 0 Shares 51 Views 0 Reviews
  • เรื่องเล่าจาก N3P ถึง 5W: เมื่อชิปมือถือระดับเรือธงสามารถเล่นเกม AAA ได้โดยไม่เกิน 5 วัตต์

    Qualcomm กำลังเตรียมเปิดตัว Snapdragon 8 Elite Gen 5 ภายในเดือนกันยายน 2025 โดยใช้เทคโนโลยีการผลิตแบบ 3nm รุ่นที่สามของ TSMC ที่เรียกว่า N3P ซึ่งแม้จะเป็นแค่ “optical shrink” จาก N3E แต่ก็ให้ประสิทธิภาพเพิ่มขึ้นราว 5% ที่พลังงานเท่าเดิม หรือประหยัดพลังงานได้ 5–10% ที่ความเร็วเท่าเดิม

    จากตัวอย่างชิปที่หลุดออกมา (engineering sample) พบว่าประสิทธิภาพในการเล่นเกมสูงกว่ารุ่น Snapdragon 8 Elite เดิมอย่างชัดเจน โดยเฉพาะในด้าน framerate และการจัดการพลังงาน แม้จะยังไม่มีการเปิดเผยชื่อเกมที่ใช้ทดสอบ แต่มีรายงานว่าชิปสามารถรันเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W

    สิ่งที่น่าสนใจคือ แม้จะมีการเพิ่มความเร็วของคอร์และประสิทธิภาพของ GPU/NPU แต่การใช้พลังงานกลับไม่เพิ่มตาม—สะท้อนถึงการปรับปรุงด้านสถาปัตยกรรม เช่น memory fabric, instruction-per-clock และการจัดการ scheduler ที่ดีขึ้น

    ในบางกรณี ตัวอย่างชิปที่ถูก underclock ยังสามารถทำคะแนน multi-core ได้สูงกว่ารุ่นเดิม แม้จะรันที่ความเร็วเพียง 4.00GHz เทียบกับ 4.74GHz ของ Elite เดิม ซึ่งบ่งชี้ถึงการปรับปรุงที่ไม่ใช่แค่เรื่องความเร็ว แต่เป็นการออกแบบที่ลึกขึ้น

    Qualcomm ยังตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก ซึ่งแม้จะดูเล็กน้อย แต่ในโลกของสมาร์ทโฟน ทุกวัตต์มีผลต่อความร้อนและอายุแบตเตอรี่อย่างมีนัยสำคัญ

    สถาปัตยกรรมและเทคโนโลยีการผลิต
    ใช้ TSMC N3P ซึ่งเป็น 3nm รุ่นที่สามแบบ optical shrink จาก N3E
    ให้ประสิทธิภาพเพิ่มขึ้น 5% หรือประหยัดพลังงานได้ 5–10%
    Qualcomm ใช้ headroom เพื่อเพิ่มความเร็วและประสิทธิภาพโดยไม่เพิ่ม wattage

    ประสิทธิภาพของ engineering sample
    เล่นเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W
    ให้ framerate สูงกว่ารุ่น Snapdragon 8 Elite เดิม
    underclocked sample ยังทำคะแนน multi-core ได้สูงกว่า Elite เดิม

    การปรับปรุงด้านสถาปัตยกรรม
    ปรับปรุง instruction-per-clock, memory subsystem และ scheduler
    GPU และ NPU มีประสิทธิภาพสูงขึ้นโดยไม่เพิ่มพลังงาน
    รองรับงาน generative AI บนอุปกรณ์โดยไม่กระทบแบตเตอรี่

    เป้าหมายด้านพลังงานและความร้อน
    Qualcomm ตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก
    ช่วยลดความร้อนและยืดอายุแบตเตอรี่
    เหมาะสำหรับงาน burst เช่น AI inference, photo processing, app launch

    https://wccftech.com/snapdragon-8-elite-gen-5-engineering-sample-better-performance-and-efficiency-than-snapdragon-8-elite/
    🎙️ เรื่องเล่าจาก N3P ถึง 5W: เมื่อชิปมือถือระดับเรือธงสามารถเล่นเกม AAA ได้โดยไม่เกิน 5 วัตต์ Qualcomm กำลังเตรียมเปิดตัว Snapdragon 8 Elite Gen 5 ภายในเดือนกันยายน 2025 โดยใช้เทคโนโลยีการผลิตแบบ 3nm รุ่นที่สามของ TSMC ที่เรียกว่า N3P ซึ่งแม้จะเป็นแค่ “optical shrink” จาก N3E แต่ก็ให้ประสิทธิภาพเพิ่มขึ้นราว 5% ที่พลังงานเท่าเดิม หรือประหยัดพลังงานได้ 5–10% ที่ความเร็วเท่าเดิม จากตัวอย่างชิปที่หลุดออกมา (engineering sample) พบว่าประสิทธิภาพในการเล่นเกมสูงกว่ารุ่น Snapdragon 8 Elite เดิมอย่างชัดเจน โดยเฉพาะในด้าน framerate และการจัดการพลังงาน แม้จะยังไม่มีการเปิดเผยชื่อเกมที่ใช้ทดสอบ แต่มีรายงานว่าชิปสามารถรันเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W สิ่งที่น่าสนใจคือ แม้จะมีการเพิ่มความเร็วของคอร์และประสิทธิภาพของ GPU/NPU แต่การใช้พลังงานกลับไม่เพิ่มตาม—สะท้อนถึงการปรับปรุงด้านสถาปัตยกรรม เช่น memory fabric, instruction-per-clock และการจัดการ scheduler ที่ดีขึ้น ในบางกรณี ตัวอย่างชิปที่ถูก underclock ยังสามารถทำคะแนน multi-core ได้สูงกว่ารุ่นเดิม แม้จะรันที่ความเร็วเพียง 4.00GHz เทียบกับ 4.74GHz ของ Elite เดิม ซึ่งบ่งชี้ถึงการปรับปรุงที่ไม่ใช่แค่เรื่องความเร็ว แต่เป็นการออกแบบที่ลึกขึ้น Qualcomm ยังตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก ซึ่งแม้จะดูเล็กน้อย แต่ในโลกของสมาร์ทโฟน ทุกวัตต์มีผลต่อความร้อนและอายุแบตเตอรี่อย่างมีนัยสำคัญ ✅ สถาปัตยกรรมและเทคโนโลยีการผลิต ➡️ ใช้ TSMC N3P ซึ่งเป็น 3nm รุ่นที่สามแบบ optical shrink จาก N3E ➡️ ให้ประสิทธิภาพเพิ่มขึ้น 5% หรือประหยัดพลังงานได้ 5–10% ➡️ Qualcomm ใช้ headroom เพื่อเพิ่มความเร็วและประสิทธิภาพโดยไม่เพิ่ม wattage ✅ ประสิทธิภาพของ engineering sample ➡️ เล่นเกมกราฟิกหนักได้โดยใช้พลังงานไม่เกิน 5W ➡️ ให้ framerate สูงกว่ารุ่น Snapdragon 8 Elite เดิม ➡️ underclocked sample ยังทำคะแนน multi-core ได้สูงกว่า Elite เดิม ✅ การปรับปรุงด้านสถาปัตยกรรม ➡️ ปรับปรุง instruction-per-clock, memory subsystem และ scheduler ➡️ GPU และ NPU มีประสิทธิภาพสูงขึ้นโดยไม่เพิ่มพลังงาน ➡️ รองรับงาน generative AI บนอุปกรณ์โดยไม่กระทบแบตเตอรี่ ✅ เป้าหมายด้านพลังงานและความร้อน ➡️ Qualcomm ตั้งเป้าลดการใช้พลังงานลงอีก 1W สำหรับเกมกราฟิกหนัก ➡️ ช่วยลดความร้อนและยืดอายุแบตเตอรี่ ➡️ เหมาะสำหรับงาน burst เช่น AI inference, photo processing, app launch https://wccftech.com/snapdragon-8-elite-gen-5-engineering-sample-better-performance-and-efficiency-than-snapdragon-8-elite/
    WCCFTECH.COM
    Snapdragon 8 Elite Gen 5 Engineering Sample Pushes Higher Framerate In Games With Better Efficiency Than The Snapdragon 8 Elite
    An engineering sample of the Snapdragon 8 Elite Gen 5 ended up delivering significantly better performance and efficiency than its direct predecessor, the Snapdragon 8 Elite
    0 Comments 0 Shares 102 Views 0 Reviews
  • เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ

    Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม

    นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที

    Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม

    ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า

    ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า

    ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก

    การอัปเดตนโยบายของ Anthropic
    ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด
    ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures
    ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI

    เหตุผลด้านความมั่นคง
    กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ
    เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม
    Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย

    ผลกระทบทางธุรกิจ
    สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์
    กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน
    ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร

    การตอบสนองจากฝั่งจีน
    Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5
    แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า
    Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI

    https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    🎙️ เรื่องเล่าจาก Claude ถึง Zhipu: เมื่อการควบคุม AI ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นเรื่องของอำนาจและความไว้วางใจ Anthropic ผู้พัฒนา Claude AI ได้ประกาศอัปเดตเงื่อนไขการให้บริการเมื่อวันที่ 5 กันยายน 2025 โดยระบุว่าจะ “ปิดกั้นการเข้าถึง” Claude สำหรับบริษัทใดก็ตามที่มีโครงสร้างผู้ถือหุ้นเป็น “จีนถือหุ้นเกิน 50%” ไม่ว่าจะจดทะเบียนอยู่ที่ใดในโลกก็ตาม นี่ไม่ใช่การแบนผู้ใช้จากประเทศจีนโดยตรง แต่เป็นการตัดสิทธิ์ตาม ownership structure ซึ่งหมายความว่าแม้บริษัทจะตั้งอยู่ในสิงคโปร์ ฮ่องกง หรือยุโรป หากมีผู้ถือหุ้นจีนเป็นหลัก ก็จะถูกตัดออกจากการใช้งาน Claude ทันที Anthropic ระบุว่าเหตุผลหลักคือ “ความเสี่ยงด้านกฎหมาย กฎระเบียบ และความมั่นคง” โดยเฉพาะความกังวลว่ารัฐบาลจีนอาจบังคับให้บริษัทในเครือส่งข้อมูลกลับไปยังหน่วยข่าวกรองหรือกองทัพ ซึ่งอาจนำไปสู่การใช้ AI ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ผลกระทบทางธุรกิจไม่เล็ก—Anthropic ยอมรับว่าจะสูญเสียรายได้ในระดับ “หลายร้อยล้านดอลลาร์” แต่ยืนยันว่าการป้องกันการใช้งานในบริบทที่เป็นภัยต่อความมั่นคงนั้นสำคัญกว่า ภายในไม่กี่ชั่วโมงหลังข่าวเผยแพร่ บริษัท Zhipu ซึ่งเป็นสตาร์ทอัพ AI จากจีน ได้เปิดตัว “Claude Migration Toolkit” ที่ช่วยให้ผู้ใช้สามารถย้ายจาก Claude ไปยัง GLM-4.5 ได้ทันที พร้อมแจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude ถึง 3 เท่า ก่อนหน้านี้ Alibaba ก็เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI ในจีน และตอนนี้ดูเหมือนว่าบริษัทจีนกำลังเร่งสร้าง ecosystem ของตัวเองเพื่อรับมือกับการถูกตัดออกจาก AI ระดับโลก ✅ การอัปเดตนโยบายของ Anthropic ➡️ ปิดกั้นบริษัทที่มีผู้ถือหุ้นจีนเกิน 50% ไม่ว่าจดทะเบียนที่ใด ➡️ ครอบคลุมถึงบริษัทแม่, บริษัทย่อย, และ joint ventures ➡️ ใช้ ownership filter แทน geolocation เป็นครั้งแรกในวงการ AI ✅ เหตุผลด้านความมั่นคง ➡️ กังวลว่ารัฐจีนอาจบังคับให้บริษัทส่งข้อมูลกลับไปยังหน่วยงานรัฐ ➡️ เสี่ยงต่อการนำ AI ไปใช้ในงานด้านอาวุธอัตโนมัติหรือการสอดแนม ➡️ Anthropic ยืนยันว่าเป็นการป้องกันการใช้งานในบริบทที่เป็นภัย ✅ ผลกระทบทางธุรกิจ ➡️ สูญเสียรายได้ระดับหลายร้อยล้านดอลลาร์ ➡️ กระทบผู้ใช้ในหลายประเทศที่มีโครงสร้างผู้ถือหุ้นจีน ➡️ ยังไม่ชัดเจนว่าจะบังคับใช้นโยบายนี้ผ่าน cloud reseller อย่างไร ✅ การตอบสนองจากฝั่งจีน ➡️ Zhipu เปิดตัว Claude Migration Toolkit พร้อม API GLM-4.5 ➡️ แจก 20 ล้าน token ฟรี และ throughput สูงกว่า Claude 3 เท่า ➡️ Alibaba เคยเปิดตัว Qwen-plus เพื่อรับมือกับการจำกัด API ของ OpenAI https://www.tomshardware.com/tech-industry/anthropic-blocks-chinese-firms-from-claude
    WWW.TOMSHARDWARE.COM
    Anthropic blocks Chinese-controlled firms from Claude AI — cites 'legal, regulatory, and security risks'
    Anthropic says that it wants to ensure that “authoritarian” and “adversarial” regimes cannot access its models.
    0 Comments 0 Shares 125 Views 0 Reviews
  • เรื่องเล่าจาก CXL ถึง DDR5: เมื่อการ์ดเสริมกลายเป็นหน่วยความจำหลักของระบบ AI

    Gigabyte เปิดตัวการ์ดเสริมรุ่นใหม่ชื่อ AI Top CXL R5X4 ซึ่งเป็น add-in card (AIC) ที่ใช้เทคโนโลยี CXL 2.0/1.1 เพื่อเพิ่มหน่วยความจำ DDR5 ได้สูงสุดถึง 512GB ผ่านสล็อต PCIe 5.0 x16 โดยไม่ต้องพึ่ง DIMM บนเมนบอร์ดโดยตรง

    การ์ดนี้มีขนาด 120 × 254 มม. ใช้แผงวงจร 16-layer HDI PCB และควบคุมด้วยชิป Microchip PM8712 พร้อมระบบระบายความร้อนแบบ “CXL Thermal Armor” ที่เป็นโลหะเต็มตัว และพัดลม AIO สำหรับระบายความร้อนจากตัวควบคุมและสล็อตแรม

    จุดเด่นคือการรองรับ DDR5 RDIMM แบบ ECC ได้ถึง 4 ช่อง โดยแต่ละช่องรองรับโมดูลสูงสุด 128GB รวมเป็น 512GB ซึ่งต่างจากโมดูล CXL แบบสำเร็จรูปของ Samsung ที่มีขนาดตายตัว—การ์ดนี้ให้ผู้ใช้เลือกขนาดแรมเองได้

    แม้จะออกแบบมาสำหรับเมนบอร์ด Gigabyte รุ่น TRX50 AI Top และ W790 AI Top แต่หากเมนบอร์ดอื่นรองรับ PCIe 5.0 และ CXL ก็สามารถใช้งานได้เช่นกัน อย่างไรก็ตาม Gigabyte เตือนว่าบางสล็อตบน TRX50 เช่น PCIEX16_4 ไม่รองรับ CXL

    การ์ดใช้พลังงานประมาณ 70W ที่โหลดเต็ม และต้องต่อสายไฟ 8-pin EXT12V พร้อมไฟ LED แสดงสถานะการเชื่อมต่อพลังงาน ราคายังไม่เปิดเผย แต่คาดว่าจะอยู่ในช่วง $2,000–$3,000 ตามมาตรฐานของผลิตภัณฑ์ CXL ระดับสูง

    สเปกของ AI Top CXL R5X4
    ใช้ PCIe 5.0 x16 และรองรับ CXL 2.0/1.1
    มี 4 ช่อง DDR5 RDIMM รองรับ ECC สูงสุด 512GB
    ใช้ Microchip PM8712 controller และระบบระบายความร้อนแบบโลหะเต็มตัว

    การใช้งานและความเข้ากันได้
    ออกแบบสำหรับ TRX50 AI Top และ W790 AI Top
    สามารถใช้กับเมนบอร์ดอื่นที่รองรับ PCIe 5.0 และ CXL
    ต้องตรวจสอบว่าแต่ละสล็อตรองรับ CXL จริง เช่น PCIEX16_4 บน TRX50 ไม่รองรับ

    จุดเด่นด้านการปรับแต่งและการขยาย
    ผู้ใช้สามารถเลือกขนาดแรมเองได้ ต่างจากโมดูล CXL แบบสำเร็จรูป
    รองรับการอัปเกรดในอนาคตโดยไม่ต้องเปลี่ยนการ์ด
    เหมาะสำหรับงาน AI training ที่ต้องการแรมระดับหลายร้อย GB

    ระบบพลังงานและการระบายความร้อน
    ใช้พลังงานประมาณ 70W ที่โหลดเต็ม
    ต้องต่อสายไฟ 8-pin EXT12V พร้อมไฟ LED แสดงสถานะ
    มีพัดลม AIO สำหรับระบายความร้อนจากตัวควบคุมและสล็อตแรม

    https://www.tomshardware.com/pc-components/ram/expansion-card-lets-you-insert-512gb-of-extra-ddr5-memory-into-your-pcie-slot-cxl-2-0-aic-designed-for-trx50-and-w790-workstation-motherboards
    🎙️ เรื่องเล่าจาก CXL ถึง DDR5: เมื่อการ์ดเสริมกลายเป็นหน่วยความจำหลักของระบบ AI Gigabyte เปิดตัวการ์ดเสริมรุ่นใหม่ชื่อ AI Top CXL R5X4 ซึ่งเป็น add-in card (AIC) ที่ใช้เทคโนโลยี CXL 2.0/1.1 เพื่อเพิ่มหน่วยความจำ DDR5 ได้สูงสุดถึง 512GB ผ่านสล็อต PCIe 5.0 x16 โดยไม่ต้องพึ่ง DIMM บนเมนบอร์ดโดยตรง การ์ดนี้มีขนาด 120 × 254 มม. ใช้แผงวงจร 16-layer HDI PCB และควบคุมด้วยชิป Microchip PM8712 พร้อมระบบระบายความร้อนแบบ “CXL Thermal Armor” ที่เป็นโลหะเต็มตัว และพัดลม AIO สำหรับระบายความร้อนจากตัวควบคุมและสล็อตแรม จุดเด่นคือการรองรับ DDR5 RDIMM แบบ ECC ได้ถึง 4 ช่อง โดยแต่ละช่องรองรับโมดูลสูงสุด 128GB รวมเป็น 512GB ซึ่งต่างจากโมดูล CXL แบบสำเร็จรูปของ Samsung ที่มีขนาดตายตัว—การ์ดนี้ให้ผู้ใช้เลือกขนาดแรมเองได้ แม้จะออกแบบมาสำหรับเมนบอร์ด Gigabyte รุ่น TRX50 AI Top และ W790 AI Top แต่หากเมนบอร์ดอื่นรองรับ PCIe 5.0 และ CXL ก็สามารถใช้งานได้เช่นกัน อย่างไรก็ตาม Gigabyte เตือนว่าบางสล็อตบน TRX50 เช่น PCIEX16_4 ไม่รองรับ CXL การ์ดใช้พลังงานประมาณ 70W ที่โหลดเต็ม และต้องต่อสายไฟ 8-pin EXT12V พร้อมไฟ LED แสดงสถานะการเชื่อมต่อพลังงาน ราคายังไม่เปิดเผย แต่คาดว่าจะอยู่ในช่วง $2,000–$3,000 ตามมาตรฐานของผลิตภัณฑ์ CXL ระดับสูง ✅ สเปกของ AI Top CXL R5X4 ➡️ ใช้ PCIe 5.0 x16 และรองรับ CXL 2.0/1.1 ➡️ มี 4 ช่อง DDR5 RDIMM รองรับ ECC สูงสุด 512GB ➡️ ใช้ Microchip PM8712 controller และระบบระบายความร้อนแบบโลหะเต็มตัว ✅ การใช้งานและความเข้ากันได้ ➡️ ออกแบบสำหรับ TRX50 AI Top และ W790 AI Top ➡️ สามารถใช้กับเมนบอร์ดอื่นที่รองรับ PCIe 5.0 และ CXL ➡️ ต้องตรวจสอบว่าแต่ละสล็อตรองรับ CXL จริง เช่น PCIEX16_4 บน TRX50 ไม่รองรับ ✅ จุดเด่นด้านการปรับแต่งและการขยาย ➡️ ผู้ใช้สามารถเลือกขนาดแรมเองได้ ต่างจากโมดูล CXL แบบสำเร็จรูป ➡️ รองรับการอัปเกรดในอนาคตโดยไม่ต้องเปลี่ยนการ์ด ➡️ เหมาะสำหรับงาน AI training ที่ต้องการแรมระดับหลายร้อย GB ✅ ระบบพลังงานและการระบายความร้อน ➡️ ใช้พลังงานประมาณ 70W ที่โหลดเต็ม ➡️ ต้องต่อสายไฟ 8-pin EXT12V พร้อมไฟ LED แสดงสถานะ ➡️ มีพัดลม AIO สำหรับระบายความร้อนจากตัวควบคุมและสล็อตแรม https://www.tomshardware.com/pc-components/ram/expansion-card-lets-you-insert-512gb-of-extra-ddr5-memory-into-your-pcie-slot-cxl-2-0-aic-designed-for-trx50-and-w790-workstation-motherboards
    0 Comments 0 Shares 93 Views 0 Reviews
  • เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์

    ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต

    สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ

    ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง

    แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน

    การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์

    การกลับมาของชิป Blockscale BZM2
    Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา
    ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH
    ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation

    การแจกจ่ายและการใช้งาน
    แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว
    ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่
    ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse

    ความหมายต่อวงการขุดบิตคอยน์
    เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่
    เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง
    สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน

    การใช้งานนอกเหนือจากการขุด
    ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน
    มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล
    สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ

    https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    🎙️ เรื่องเล่าจากชิปที่ถูกทิ้งถึงการปฏิวัติวงการขุดบิตคอยน์ ย้อนกลับไปปี 2022 Intel เคยเปิดตัวชิป Blockscale BZM2 ซึ่งเป็น ASIC รุ่นที่สองสำหรับการขุดบิตคอยน์โดยเฉพาะ ด้วยประสิทธิภาพสูงถึง 580 GH/s และใช้พลังงานเพียง 23 J/TH แต่หลังจากเปิดตัวได้ไม่นาน Intel ก็ถอนตัวจากตลาดนี้อย่างเงียบ ๆ ท่ามกลางการแข่งขันที่รุนแรงจาก Bitmain และการเปลี่ยนแปลงในตลาดคริปโต สองปีผ่านไป ชิปเหล่านี้กลับมาอีกครั้ง—ไม่ใช่เพื่อขาย แต่เพื่อแจกฟรี โดย Jack Dorsey ผ่านบริษัท Block (เดิมคือ Square) ได้บริจาคชิป BZM2 จำนวน 256,000 ตัวให้กับมูลนิธิ 256 Foundation ซึ่งเป็นกลุ่มนักพัฒนาโอเพ่นซอร์สด้านฮาร์ดแวร์ขุดบิตคอยน์ในสหรัฐฯ ชิปเหล่านี้จะถูกแจกจ่ายให้กับ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว โดยไม่มีเอกสารทางเทคนิคจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่จากชุมชน เพื่อให้สามารถนำไปใช้งานได้จริง แม้ชิป BZM2 จะถูกออกแบบมาเพื่อขุดบิตคอยน์โดยใช้ SHA-256 แต่ผู้พัฒนาบางรายเริ่มทดลองใช้ความร้อนจากชิปในการทำงานอื่น เช่น อุ่นน้ำ อุ่นห้อง หรือแม้แต่ทำให้เตียงเครื่องพิมพ์ 3D ร้อนขึ้น—สะท้อนถึงแนวคิด “heat reuse” ที่กำลังได้รับความสนใจในวงการพลังงานหมุนเวียน การแจกชิปครั้งนี้ถือเป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ เช่น Bitmain ซึ่งมักล็อก firmware และไม่เปิดให้ผู้ใช้ปรับแต่งได้ การมีชิปในมือของนักพัฒนาโอเพ่นซอร์สจึงเป็นก้าวสำคัญสู่การกระจายอำนาจของระบบขุดบิตคอยน์ ✅ การกลับมาของชิป Blockscale BZM2 ➡️ Intel เคยเปิดตัวในปี 2022 แล้วถอนตัวจากตลาดในปีถัดมา ➡️ ชิปมีประสิทธิภาพ 580 GH/s และใช้พลังงาน 23 J/TH ➡️ ถูกบริจาคจำนวน 256,000 ตัวโดย Block (Jack Dorsey) ให้ 256 Foundation ✅ การแจกจ่ายและการใช้งาน ➡️ แจกให้ 4 โครงการโอเพ่นซอร์สในสหรัฐฯ โครงการละ 54,000 ตัว ➡️ ไม่มีเอกสารจาก Intel แต่มีการสร้าง schematic และ reference design ใหม่ ➡️ ใช้สำหรับการขุดบิตคอยน์และการทดลองด้าน heat reuse ✅ ความหมายต่อวงการขุดบิตคอยน์ ➡️ เป็นการปลดล็อก ecosystem ที่เคยถูกควบคุมโดยผู้ผลิตรายใหญ่ ➡️ เปิดโอกาสให้ผู้ใช้ปรับแต่งและตรวจสอบฮาร์ดแวร์ได้เอง ➡️ สร้างแนวทางใหม่ในการพัฒนาอุปกรณ์ขุดแบบเปิดและยั่งยืน ✅ การใช้งานนอกเหนือจากการขุด ➡️ ใช้ความร้อนจากชิปในการอุ่นห้อง อุ่นน้ำ หรือทำงานในระบบพลังงานหมุนเวียน ➡️ มีศักยภาพในการใช้งานในบ้านหรือพื้นที่ห่างไกล ➡️ สะท้อนแนวคิด circular computing และการใช้พลังงานอย่างมีประสิทธิภาพ https://www.tomshardware.com/tech-industry/semiconductors/intel-bzm2-block-sale-chips-return-from-dead
    0 Comments 0 Shares 116 Views 0 Reviews
  • เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น

    ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว

    แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน

    Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้

    ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023

    การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน

    ข้อตกลงระหว่าง Nvidia กับ Lambda
    มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว
    แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว
    Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda

    จุดแข็งของ Lambda และแผนการเติบโต
    ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน
    คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026
    ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030

    กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ
    เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO
    เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน
    หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร

    การใช้งาน GPU ที่เช่ากลับ
    ใช้สำหรับงานวิจัยภายในของ Nvidia
    สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI
    ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่

    https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    🎙️ เรื่องเล่าจาก Lambda Loop: เมื่อ Nvidia กลายเป็นทั้งผู้ผลิต ผู้ลงทุน และผู้เช่าในระบบ AI ที่ตัวเองสร้างขึ้น ในเดือนกันยายน 2025 Nvidia ได้ลงนามในข้อตกลงมูลค่า 1.5 พันล้านดอลลาร์กับ Lambda ซึ่งเป็นสตาร์ทอัพด้านคลาวด์ AI ที่ Nvidia เคยลงทุนไว้ก่อนหน้านี้ โดยดีลนี้ประกอบด้วยการเช่ากลับ GPU จำนวน 18,000 ตัวที่ Lambda เคยซื้อจาก Nvidia ไปแล้ว แบ่งเป็นสัญญาเช่า 4 ปีสำหรับ GPU จำนวน 10,000 ตัว มูลค่า 1.3 พันล้านดอลลาร์ และอีก 200 ล้านดอลลาร์สำหรับ GPU รุ่นเก่าหรือระดับรองอีก 8,000 ตัว ซึ่งจะถูกใช้โดยทีมวิจัยของ Nvidia เอง เช่นเดียวกับที่ Amazon และ Microsoft ใช้เซิร์ฟเวอร์ของ Lambda สำหรับงานภายใน Lambda ซึ่งก่อตั้งในปี 2012 และมีพนักงานประมาณ 400 คน กำลังเตรียม IPO โดยคาดว่าจะมีรายได้จากคลาวด์เกิน 1 พันล้านดอลลาร์ในปี 2026 และตั้งเป้าแตะ 20 พันล้านดอลลาร์ภายในปี 2030 โดยมีแผนขยายกำลังประมวลผลจาก 47 เมกะวัตต์เป็น 3 กิกะวัตต์ภายในทศวรรษนี้ ดีลนี้สะท้อนถึงปัญหาการขาดแคลน GPU ระดับสูงทั่วโลก แม้แต่ Nvidia เองก็ต้องหาทางเข้าถึงทรัพยากรผ่านพันธมิตรที่เคยขายชิปให้ และยังเป็นกลยุทธ์ที่คล้ายกับที่ Nvidia เคยใช้กับ CoreWeave ซึ่งเป็นสตาร์ทอัพอีกแห่งที่ได้รับการสนับสนุนจาก Nvidia และใช้ GPU เป็นหลักประกันเงินกู้มูลค่า 2.3 พันล้านดอลลาร์ในปี 2023 การเช่ากลับ GPU จาก Lambda ยังช่วยให้ Nvidia เข้าถึงโครงสร้างพื้นฐาน AI ได้ทันที โดยไม่ต้องลงทุนสร้างศูนย์ข้อมูลใหม่ และยังรักษาความสัมพันธ์กับสตาร์ทอัพที่ใช้เทคโนโลยีของ Nvidia เป็นหลัก—เป็นการสร้าง “ระบบนิเวศแบบปิด” ที่ Nvidia เป็นทั้งผู้ผลิต ผู้ลงทุน และผู้ใช้งาน ✅ ข้อตกลงระหว่าง Nvidia กับ Lambda ➡️ มูลค่า 1.5 พันล้านดอลลาร์ สำหรับ GPU 18,000 ตัว ➡️ แบ่งเป็น 1.3 พันล้านสำหรับ GPU 10,000 ตัว และ 200 ล้านสำหรับอีก 8,000 ตัว ➡️ Nvidia กลายเป็นลูกค้ารายใหญ่ที่สุดของ Lambda ✅ จุดแข็งของ Lambda และแผนการเติบโต ➡️ ก่อตั้งในปี 2012 มีพนักงานประมาณ 400 คน ➡️ คาดว่ารายได้คลาวด์จะเกิน 1 พันล้านดอลลาร์ในปี 2026 ➡️ ตั้งเป้าขยายกำลังประมวลผลเป็น 3 กิกะวัตต์ภายในปี 2030 ✅ กลยุทธ์ของ Nvidia ในการสร้างระบบนิเวศ ➡️ เคยใช้กลยุทธ์เดียวกันกับ CoreWeave ก่อน IPO ➡️ เป็นทั้งผู้ผลิต, ผู้ลงทุน, และผู้ใช้งานในระบบเดียวกัน ➡️ หลีกเลี่ยงการสร้างศูนย์ข้อมูลใหม่โดยใช้โครงสร้างพื้นฐานของพันธมิตร ✅ การใช้งาน GPU ที่เช่ากลับ ➡️ ใช้สำหรับงานวิจัยภายในของ Nvidia ➡️ สนับสนุนบริการ DGX Cloud และการพัฒนาโมเดล AI ➡️ ช่วยให้ Nvidia เข้าถึงทรัพยากรได้ทันทีโดยไม่ต้องรอการผลิตใหม่ https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-signs-usd1-5-billion-deal-with-cloud-startup-lambda-to-rent-back-its-own-ai-chips-18-000-gpus-will-be-leased-over-4-years-as-lambda-gears-up-for-its-ipo
    0 Comments 0 Shares 99 Views 0 Reviews
  • เรื่องเล่าจาก Ransomware 3.0: เมื่อมัลแวร์ไม่ต้องเขียนโค้ดล่วงหน้า แค่สั่ง AI ให้แต่งสดตามสถานการณ์

    ในเดือนกันยายน 2025 นักวิจัยจาก NYU Tandon School of Engineering เปิดเผยว่า “PromptLocker” ซึ่งถูกบริษัท ESET เข้าใจผิดว่าเป็นมัลแวร์จริงในโลกไซเบอร์นั้น แท้จริงคือโค้ดทดลองในโครงการวิจัยชื่อ “Ransomware 3.0” ที่พัฒนาขึ้นเพื่อศึกษาความสามารถของ AI ในการสร้างมัลแวร์แบบอัตโนมัติ

    PromptLocker ใช้ Lua script ที่ถูกสร้างจาก prompt แบบ hard-coded เพื่อสแกนไฟล์ในเครื่อง, เลือกเป้าหมาย, ขโมยข้อมูล, และเข้ารหัสไฟล์—ครบทุกขั้นตอนของ ransomware โดยไม่ต้องมีโค้ดล่วงหน้า นักวิจัยใช้ LLM (Large Language Model) แบบโอเพ่นซอร์สเพื่อแต่งโค้ดตามคำสั่งที่ฝังไว้ใน binary และให้ AI ตัดสินใจเองว่าจะโจมตีอย่างไร

    สิ่งที่น่ากังวลคือ ความสามารถของระบบนี้ในการทำงานแบบ “ปิดวงจร” โดยไม่ต้องมีมนุษย์คอยควบคุม และสามารถปรับเปลี่ยนพฤติกรรมตามสภาพแวดล้อมได้แบบ polymorphic—ทำให้การตรวจจับยากขึ้นมาก

    ต้นทุนของการโจมตีหนึ่งครั้งอยู่ที่ประมาณ 23,000 token หรือราว $0.70 หากใช้ API เชิงพาณิชย์ แต่ถ้าใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ นักวิจัยเตือนว่า “ผลตอบแทนของแฮกเกอร์จะสูงกว่าคนลงทุนใน AI เสียอีก” หากไม่มีมาตรการควบคุมที่เหมาะสม

    แม้จะเป็นแค่การทดลองในห้องแล็บ แต่ PromptLocker ทำงานได้จริง และสามารถหลอกนักวิจัยด้านความปลอดภัยให้เชื่อว่าเป็นมัลแวร์ในโลกจริงได้—สะท้อนถึงความซับซ้อนของภัยคุกคามที่อาจเกิดขึ้นในอนาคต

    จุดกำเนิดของ PromptLocker
    เป็นโค้ดทดลองจาก NYU Tandon School of Engineering
    ถูกเข้าใจผิดโดย ESET ว่าเป็นมัลแวร์จริงในโลกไซเบอร์
    ใช้ชื่อในงานวิจัยว่า “Ransomware 3.0”

    วิธีการทำงานของระบบ
    ใช้ Lua script ที่สร้างจาก prompt เพื่อควบคุมการโจมตี
    ทำงานครบทุกขั้นตอน: สแกน, ขโมย, เข้ารหัส, สร้างโน้ตร้องค่าไถ่
    ใช้ LLM แบบโอเพ่นซอร์สในการแต่งโค้ดตามสถานการณ์

    ความสามารถของระบบ
    ทำงานแบบปิดวงจรโดยไม่ต้องมีมนุษย์ควบคุม
    สร้างโค้ดแบบ polymorphic ที่ปรับเปลี่ยนตามสภาพแวดล้อม
    สามารถหลอกนักวิจัยให้เชื่อว่าเป็นมัลแวร์จริงได้

    ต้นทุนและผลกระทบ
    ใช้ประมาณ 23,000 token ต่อการโจมตีหนึ่งครั้ง (~$0.70)
    หากใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์
    นักวิจัยเตือนว่าแฮกเกอร์อาจได้ผลตอบแทนสูงกว่าผู้ลงทุนใน AI

    https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes
    🎙️ เรื่องเล่าจาก Ransomware 3.0: เมื่อมัลแวร์ไม่ต้องเขียนโค้ดล่วงหน้า แค่สั่ง AI ให้แต่งสดตามสถานการณ์ ในเดือนกันยายน 2025 นักวิจัยจาก NYU Tandon School of Engineering เปิดเผยว่า “PromptLocker” ซึ่งถูกบริษัท ESET เข้าใจผิดว่าเป็นมัลแวร์จริงในโลกไซเบอร์นั้น แท้จริงคือโค้ดทดลองในโครงการวิจัยชื่อ “Ransomware 3.0” ที่พัฒนาขึ้นเพื่อศึกษาความสามารถของ AI ในการสร้างมัลแวร์แบบอัตโนมัติ PromptLocker ใช้ Lua script ที่ถูกสร้างจาก prompt แบบ hard-coded เพื่อสแกนไฟล์ในเครื่อง, เลือกเป้าหมาย, ขโมยข้อมูล, และเข้ารหัสไฟล์—ครบทุกขั้นตอนของ ransomware โดยไม่ต้องมีโค้ดล่วงหน้า นักวิจัยใช้ LLM (Large Language Model) แบบโอเพ่นซอร์สเพื่อแต่งโค้ดตามคำสั่งที่ฝังไว้ใน binary และให้ AI ตัดสินใจเองว่าจะโจมตีอย่างไร สิ่งที่น่ากังวลคือ ความสามารถของระบบนี้ในการทำงานแบบ “ปิดวงจร” โดยไม่ต้องมีมนุษย์คอยควบคุม และสามารถปรับเปลี่ยนพฤติกรรมตามสภาพแวดล้อมได้แบบ polymorphic—ทำให้การตรวจจับยากขึ้นมาก ต้นทุนของการโจมตีหนึ่งครั้งอยู่ที่ประมาณ 23,000 token หรือราว $0.70 หากใช้ API เชิงพาณิชย์ แต่ถ้าใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ นักวิจัยเตือนว่า “ผลตอบแทนของแฮกเกอร์จะสูงกว่าคนลงทุนใน AI เสียอีก” หากไม่มีมาตรการควบคุมที่เหมาะสม แม้จะเป็นแค่การทดลองในห้องแล็บ แต่ PromptLocker ทำงานได้จริง และสามารถหลอกนักวิจัยด้านความปลอดภัยให้เชื่อว่าเป็นมัลแวร์ในโลกจริงได้—สะท้อนถึงความซับซ้อนของภัยคุกคามที่อาจเกิดขึ้นในอนาคต ✅ จุดกำเนิดของ PromptLocker ➡️ เป็นโค้ดทดลองจาก NYU Tandon School of Engineering ➡️ ถูกเข้าใจผิดโดย ESET ว่าเป็นมัลแวร์จริงในโลกไซเบอร์ ➡️ ใช้ชื่อในงานวิจัยว่า “Ransomware 3.0” ✅ วิธีการทำงานของระบบ ➡️ ใช้ Lua script ที่สร้างจาก prompt เพื่อควบคุมการโจมตี ➡️ ทำงานครบทุกขั้นตอน: สแกน, ขโมย, เข้ารหัส, สร้างโน้ตร้องค่าไถ่ ➡️ ใช้ LLM แบบโอเพ่นซอร์สในการแต่งโค้ดตามสถานการณ์ ✅ ความสามารถของระบบ ➡️ ทำงานแบบปิดวงจรโดยไม่ต้องมีมนุษย์ควบคุม ➡️ สร้างโค้ดแบบ polymorphic ที่ปรับเปลี่ยนตามสภาพแวดล้อม ➡️ สามารถหลอกนักวิจัยให้เชื่อว่าเป็นมัลแวร์จริงได้ ✅ ต้นทุนและผลกระทบ ➡️ ใช้ประมาณ 23,000 token ต่อการโจมตีหนึ่งครั้ง (~$0.70) ➡️ หากใช้โมเดลโอเพ่นซอร์ส ต้นทุนจะเป็นศูนย์ ➡️ นักวิจัยเตือนว่าแฮกเกอร์อาจได้ผลตอบแทนสูงกว่าผู้ลงทุนใน AI https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes
    0 Comments 0 Shares 107 Views 0 Reviews
  • เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools

    ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้

    ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ

    ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก

    สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น

    Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน

    การเปิดตัว agentic frameworks จากจีน
    Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1
    ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม
    Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม

    ความสามารถของ Youtu-Agent
    ทำคะแนน 71.47% บน WebWalkerQA benchmark
    ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์
    มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ

    ความนิยมและการเปรียบเทียบ
    Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง
    LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว
    IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI

    การขยาย ecosystem ของ Tencent
    เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก
    ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer
    เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC

    https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    🎙️ เรื่องเล่าจาก Youtu-Agent ถึง Coze Studio: เมื่อจีนไม่รอใคร และกำลังสร้างระบบนิเวศของ AI agentic tools ในช่วงครึ่งหลังของปี 2025 จีนเริ่มเปิดตัวชุดเครื่องมือสร้าง AI agent แบบโอเพ่นซอร์สอย่างต่อเนื่อง โดยมี Tencent, ByteDance และ Alibaba เป็นหัวหอกหลักในการผลักดัน “agentic frameworks”—ซอฟต์แวร์ที่ช่วยให้ผู้ใช้สามารถสร้างและจัดการ AI agents ที่ทำงานอัตโนมัติได้ ล่าสุด Tencent เปิดตัว Youtu-Agent บน GitHub ซึ่งเป็นเฟรมเวิร์กที่พัฒนาโดย Youtu Labs และใช้โมเดล DeepSeek-V3.1 เป็นฐาน โดยสามารถทำคะแนนได้ถึง 71.47% บน WebWalkerQA ซึ่งเป็น benchmark สำหรับการเดินทางในเว็บแบบอัตโนมัติ ก่อนหน้านี้ ByteDance ได้เปิดตัว Coze Studio ในเดือนกรกฎาคม และ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม โดยทั้งสองเฟรมเวิร์กได้รับดาวบน GitHub มากกว่า 10,000 ดวงแล้ว ถือเป็นสัญญาณว่าเครื่องมือจากจีนเริ่มได้รับความนิยมในระดับโลก แม้จะยังตามหลัง LangChain ที่มีมากกว่า 115,000 ดาวอยู่มาก สิ่งที่ทำให้ Youtu-Agent น่าสนใจคือการใช้ YAML (Yet Another Markup Language) แทนการเขียนโค้ด เพื่อกำหนดพฤติกรรมของเอเจนต์ และมี “meta-agent” ที่สามารถพูดคุยกับผู้ใช้เพื่อสร้าง YAML ให้โดยอัตโนมัติ—ลดภาระของนักพัฒนา และเปิดโอกาสให้ผู้เริ่มต้นสามารถสร้างเอเจนต์ได้ง่ายขึ้น Tencent ยังเปิดตัวโมเดลแปลภาษาแบบโอเพ่นซอร์สที่ชนะการแข่งขันระดับโลก และปล่อยเวอร์ชันย่อยของโมเดล Hunyuan ที่สามารถรันบน GPU ระดับ consumer ได้ ซึ่งสะท้อนถึงแนวทาง “ประชาธิปไตยของ AI” ที่จีนกำลังผลักดัน ✅ การเปิดตัว agentic frameworks จากจีน ➡️ Tencent เปิดตัว Youtu-Agent บน GitHub โดยใช้ DeepSeek-V3.1 ➡️ ByteDance เปิดตัว Coze Studio ในเดือนกรกฎาคม ➡️ Alibaba เปิดตัว Qwen-Agent ในเดือนมีนาคม ✅ ความสามารถของ Youtu-Agent ➡️ ทำคะแนน 71.47% บน WebWalkerQA benchmark ➡️ ใช้ YAML ในการกำหนดพฤติกรรมของเอเจนต์ ➡️ มี meta-agent ที่ช่วยสร้าง YAML โดยอัตโนมัติ ✅ ความนิยมและการเปรียบเทียบ ➡️ Coze Studio และ Qwen-Agent มีดาวบน GitHub มากกว่า 10,000 ดวง ➡️ LangChain จากสหรัฐฯ มีมากกว่า 115,000 ดาว ➡️ IBM จัดอันดับว่าเฟรมเวิร์กยอดนิยมยังเป็นของฝั่งสหรัฐฯ เช่น AutoGen, CrewAI ✅ การขยาย ecosystem ของ Tencent ➡️ เปิดตัวโมเดลแปลภาษาที่ชนะการแข่งขันระดับโลก ➡️ ปล่อยเวอร์ชันย่อยของ Hunyuan ที่รันบน GPU ระดับ consumer ➡️ เปิดตัวเอเจนต์เฉพาะทางสำหรับงาน coding และ marketing ในงาน WAIC https://www.thestar.com.my/tech/tech-news/2025/09/05/china-advances-in-ai-agentic-tools-as-tencent-bytedance-weigh-in
    WWW.THESTAR.COM.MY
    China advances in AI agentic tools as Tencent, ByteDance weigh in
    Tencent is the latest to join the fray after the Shenzhen-based company open-sourced its new Youtu-Agent agentic framework on Tuesday.
    0 Comments 0 Shares 104 Views 0 Reviews
  • เรื่องเล่าจากเบื้องหลังความไม่พอใจของ CISO: เมื่อคนที่ต้องรับผิดชอบมากที่สุด กลับไม่มีที่นั่งในห้องที่สำคัญที่สุด

    จากรายงานปี 2025 โดย IANS และ Artico Search พบว่าเกือบ 40% ของ CISO ในองค์กรขนาดกลางและเล็กไม่มีสิทธิ์เข้าถึงบอร์ดบริหารเลย และในกลุ่มนี้ ครึ่งหนึ่งรายงานว่ารู้สึกไม่พอใจในงานที่ทำอยู่

    CISO หลายคนถูกจ้างในระดับ “ผู้จัดการอาวุโส” หรือ “ผู้อำนวยการ” แต่ถูกเรียกว่า CISO โดยไม่มีอำนาจหรือขอบเขตงานที่แท้จริง พวกเขามักต้องรายงานต่อ CIO หรือ CTO ซึ่งมีเป้าหมายด้านเทคโนโลยี ไม่ใช่ความปลอดภัย—และเมื่อมีความเสี่ยงที่ไม่ถูกจัดการ ก็กลายเป็นว่า CISO ต้องรับผิดชอบโดยไม่มีโอกาสสื่อสารกับบอร์ดเลย

    George Gerchow จาก Bedrock Security เล่าว่าเขาเคยอยู่ในตำแหน่งที่ไม่สามารถพูดคุยกับหัวหน้าหรือบอร์ดได้โดยตรง จนทีมของเขาเริ่มลาออก และสุดท้ายเขาต้องออกจากตำแหน่งนั้นเอง เขาจึงระบุในสัญญางานใหม่ว่า “ต้องรายงานตรงต่อ CEO หรือบอร์ดเท่านั้น”

    แม้บางองค์กรจะให้ CISO เข้าถึงบอร์ดได้ แต่คำถามคือ “ใช้โอกาสนั้นได้ดีแค่ไหน” เพราะการพูดถึง CVE หรือ ransomware gang อาจทำให้บอร์ดเบื่อและมองว่า CISO ไม่เข้าใจธุรกิจ การสื่อสารที่ดีต้องเชื่อมโยงความเสี่ยงกับผลกระทบทางธุรกิจ เช่น รายได้ที่หายไป หรือความเชื่อมั่นของลูกค้าที่ลดลง

    Andy Land จาก CISO Executive Network แนะนำว่า CISO ต้องสร้างความสัมพันธ์กับผู้บริหารระดับ C ก่อน เพื่อเข้าใจเป้าหมายของแต่ละฝ่าย และใช้สิ่งนั้นเป็นสะพานไปสู่การสื่อสารกับบอร์ดอย่างมีประสิทธิภาพ

    สถานการณ์การเข้าถึงบอร์ดของ CISO
    40% ของ CISO ในองค์กรขนาดกลางและเล็กไม่มีสิทธิ์เข้าถึงบอร์ด
    50% ของกลุ่มนี้รายงานว่ารู้สึกไม่พอใจในงาน
    CISO ที่มีสิทธิ์เข้าบอร์ดรายไตรมาส มีความพึงพอใจเพียง 8%

    ปัญหาโครงสร้างการรายงาน
    CISO มักรายงานต่อ CIO หรือ CTO ซึ่งมีเป้าหมายต่างกัน
    ความเสี่ยงที่ไม่ถูกจัดการอาจถูกกดไว้ ไม่ถูกนำเสนอถึงบอร์ด
    CISO กลายเป็นผู้รับผิดชอบเมื่อเกิดเหตุการณ์ แม้ไม่มีอำนาจในการตัดสินใจ

    ผลกระทบต่อความมั่นคงและความผูกพันในงาน
    CISO หลายคนลาออกหรือเปลี่ยนสายงานเพราะรู้สึกไม่มีอำนาจ
    อายุเฉลี่ยของตำแหน่ง CISO อยู่ที่ 18–26 เดือน
    การเปลี่ยนแปลงโครงสร้างองค์กรอาจทำให้ช่องทางสื่อสารถูกตัดขาด

    แนวทางการสร้างความสัมพันธ์กับบอร์ด
    ต้องเริ่มจากการเข้าใจเป้าหมายของผู้บริหารระดับ C
    สื่อสารความเสี่ยงในรูปแบบที่เชื่อมโยงกับรายได้, pipeline, และ churn
    หลีกเลี่ยงการพูดเชิงเทคนิคที่ไม่เชื่อมโยงกับผลกระทบทางธุรกิจ

    https://www.csoonline.com/article/4049347/lack-of-board-access-the-no-1-ciso-dissatisfaction.html
    🎙️ เรื่องเล่าจากเบื้องหลังความไม่พอใจของ CISO: เมื่อคนที่ต้องรับผิดชอบมากที่สุด กลับไม่มีที่นั่งในห้องที่สำคัญที่สุด จากรายงานปี 2025 โดย IANS และ Artico Search พบว่าเกือบ 40% ของ CISO ในองค์กรขนาดกลางและเล็กไม่มีสิทธิ์เข้าถึงบอร์ดบริหารเลย และในกลุ่มนี้ ครึ่งหนึ่งรายงานว่ารู้สึกไม่พอใจในงานที่ทำอยู่ CISO หลายคนถูกจ้างในระดับ “ผู้จัดการอาวุโส” หรือ “ผู้อำนวยการ” แต่ถูกเรียกว่า CISO โดยไม่มีอำนาจหรือขอบเขตงานที่แท้จริง พวกเขามักต้องรายงานต่อ CIO หรือ CTO ซึ่งมีเป้าหมายด้านเทคโนโลยี ไม่ใช่ความปลอดภัย—และเมื่อมีความเสี่ยงที่ไม่ถูกจัดการ ก็กลายเป็นว่า CISO ต้องรับผิดชอบโดยไม่มีโอกาสสื่อสารกับบอร์ดเลย George Gerchow จาก Bedrock Security เล่าว่าเขาเคยอยู่ในตำแหน่งที่ไม่สามารถพูดคุยกับหัวหน้าหรือบอร์ดได้โดยตรง จนทีมของเขาเริ่มลาออก และสุดท้ายเขาต้องออกจากตำแหน่งนั้นเอง เขาจึงระบุในสัญญางานใหม่ว่า “ต้องรายงานตรงต่อ CEO หรือบอร์ดเท่านั้น” แม้บางองค์กรจะให้ CISO เข้าถึงบอร์ดได้ แต่คำถามคือ “ใช้โอกาสนั้นได้ดีแค่ไหน” เพราะการพูดถึง CVE หรือ ransomware gang อาจทำให้บอร์ดเบื่อและมองว่า CISO ไม่เข้าใจธุรกิจ การสื่อสารที่ดีต้องเชื่อมโยงความเสี่ยงกับผลกระทบทางธุรกิจ เช่น รายได้ที่หายไป หรือความเชื่อมั่นของลูกค้าที่ลดลง Andy Land จาก CISO Executive Network แนะนำว่า CISO ต้องสร้างความสัมพันธ์กับผู้บริหารระดับ C ก่อน เพื่อเข้าใจเป้าหมายของแต่ละฝ่าย และใช้สิ่งนั้นเป็นสะพานไปสู่การสื่อสารกับบอร์ดอย่างมีประสิทธิภาพ ✅ สถานการณ์การเข้าถึงบอร์ดของ CISO ➡️ 40% ของ CISO ในองค์กรขนาดกลางและเล็กไม่มีสิทธิ์เข้าถึงบอร์ด ➡️ 50% ของกลุ่มนี้รายงานว่ารู้สึกไม่พอใจในงาน ➡️ CISO ที่มีสิทธิ์เข้าบอร์ดรายไตรมาส มีความพึงพอใจเพียง 8% ✅ ปัญหาโครงสร้างการรายงาน ➡️ CISO มักรายงานต่อ CIO หรือ CTO ซึ่งมีเป้าหมายต่างกัน ➡️ ความเสี่ยงที่ไม่ถูกจัดการอาจถูกกดไว้ ไม่ถูกนำเสนอถึงบอร์ด ➡️ CISO กลายเป็นผู้รับผิดชอบเมื่อเกิดเหตุการณ์ แม้ไม่มีอำนาจในการตัดสินใจ ✅ ผลกระทบต่อความมั่นคงและความผูกพันในงาน ➡️ CISO หลายคนลาออกหรือเปลี่ยนสายงานเพราะรู้สึกไม่มีอำนาจ ➡️ อายุเฉลี่ยของตำแหน่ง CISO อยู่ที่ 18–26 เดือน ➡️ การเปลี่ยนแปลงโครงสร้างองค์กรอาจทำให้ช่องทางสื่อสารถูกตัดขาด ✅ แนวทางการสร้างความสัมพันธ์กับบอร์ด ➡️ ต้องเริ่มจากการเข้าใจเป้าหมายของผู้บริหารระดับ C ➡️ สื่อสารความเสี่ยงในรูปแบบที่เชื่อมโยงกับรายได้, pipeline, และ churn ➡️ หลีกเลี่ยงการพูดเชิงเทคนิคที่ไม่เชื่อมโยงกับผลกระทบทางธุรกิจ https://www.csoonline.com/article/4049347/lack-of-board-access-the-no-1-ciso-dissatisfaction.html
    WWW.CSOONLINE.COM
    Lack of board access: The No. 1 factor for CISO dissatisfaction
    As C-level executives, CISOs are accountable for anything that goes wrong but are not given the same C-level treatment and access that would help them execute their functions with authority.
    0 Comments 0 Shares 113 Views 0 Reviews
More Results