• ByteDance เตรียมเปิดตัว GameTop – แพลตฟอร์มเกมใหม่ชน Steam พร้อมฟีเจอร์ AI และโซเชียล

    จำได้ไหมว่าเมื่อก่อน Steam คือเจ้าตลาดเกม PC แบบไร้คู่แข่ง? ตอนนี้ ByteDance กำลังจะเข้ามาเขย่าบัลลังก์นั้นด้วย GameTop แพลตฟอร์มใหม่ที่ไม่ใช่แค่ร้านขายเกม แต่ยังเป็นพื้นที่โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI

    GameTop จะเปิดให้ผู้ใช้ซื้อเกม ดาวน์โหลด และเล่นได้เหมือน Steam หรือ Epic Games Store แต่ที่น่าสนใจคือมันจะมีระบบ “โปรไฟล์ผู้ใช้” ป้ายรางวัล ระบบแต้ม และฟีเจอร์โซเชียลที่คล้ายกับ TikTok รวมถึงเครื่องมือสร้างคอนเทนต์แบบ UGC (User-Generated Content) ที่ใช้ AI ช่วยให้ผู้เล่นสร้างคลิป แชร์รีวิว หรือแม้แต่สร้างเกมเล็กๆ ได้เอง

    การพัฒนา GameTop เป็นส่วนหนึ่งของการปรับโครงสร้างภายใน ByteDance โดยทีมเกมของบริษัทหันมาเน้นการจัดจำหน่ายมากกว่าการพัฒนาเกมเอง ซึ่งช่วยลดต้นทุนและเพิ่มประสิทธิภาพ

    แม้ตอนนี้ยังไม่มีข้อมูลแน่ชัดว่า GameTop จะเปิดตัวเมื่อไร แต่การจ้างงานในจีนที่เกี่ยวข้องกับแพลตฟอร์มนี้เริ่มขึ้นแล้ว และมีแนวโน้มว่าจะเปิดให้บริการในหลายประเทศ

    ByteDance พัฒนา GameTop
    เป็นแพลตฟอร์มเกม PC ที่เน้นตลาดต่างประเทศ
    มีระบบจัดจำหน่ายเกมเหมือน Steam
    มีฟีเจอร์โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI

    จุดเด่นของ GameTop
    ระบบโปรไฟล์ ป้ายรางวัล และแต้มสะสม
    ฟีเจอร์ UGC ที่ใช้ AI ช่วยสร้างคลิปหรือเกม
    คล้ายกับ TikTok แต่เน้นเกมเป็นหลัก

    การปรับโครงสร้างภายใน ByteDance
    หันมาเน้นการจัดจำหน่ายเกมแทนการพัฒนาเอง
    ลดต้นทุนและเพิ่มประสิทธิภาพ
    นำโดย Zhang Yunfan ผู้บริหารสายเกมคนใหม่

    https://www.tomshardware.com/video-games/pc-gaming/chinas-bytedance-reportedly-building-a-steam-competitor-gametop-for-overseas-markets-will-distribute-and-publish-games-like-any-other-store-while-harboring-a-social-space-with-ai-assisted-creator-tools
    🎮 ByteDance เตรียมเปิดตัว GameTop – แพลตฟอร์มเกมใหม่ชน Steam พร้อมฟีเจอร์ AI และโซเชียล จำได้ไหมว่าเมื่อก่อน Steam คือเจ้าตลาดเกม PC แบบไร้คู่แข่ง? ตอนนี้ ByteDance กำลังจะเข้ามาเขย่าบัลลังก์นั้นด้วย GameTop แพลตฟอร์มใหม่ที่ไม่ใช่แค่ร้านขายเกม แต่ยังเป็นพื้นที่โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI GameTop จะเปิดให้ผู้ใช้ซื้อเกม ดาวน์โหลด และเล่นได้เหมือน Steam หรือ Epic Games Store แต่ที่น่าสนใจคือมันจะมีระบบ “โปรไฟล์ผู้ใช้” ป้ายรางวัล ระบบแต้ม และฟีเจอร์โซเชียลที่คล้ายกับ TikTok รวมถึงเครื่องมือสร้างคอนเทนต์แบบ UGC (User-Generated Content) ที่ใช้ AI ช่วยให้ผู้เล่นสร้างคลิป แชร์รีวิว หรือแม้แต่สร้างเกมเล็กๆ ได้เอง การพัฒนา GameTop เป็นส่วนหนึ่งของการปรับโครงสร้างภายใน ByteDance โดยทีมเกมของบริษัทหันมาเน้นการจัดจำหน่ายมากกว่าการพัฒนาเกมเอง ซึ่งช่วยลดต้นทุนและเพิ่มประสิทธิภาพ แม้ตอนนี้ยังไม่มีข้อมูลแน่ชัดว่า GameTop จะเปิดตัวเมื่อไร แต่การจ้างงานในจีนที่เกี่ยวข้องกับแพลตฟอร์มนี้เริ่มขึ้นแล้ว และมีแนวโน้มว่าจะเปิดให้บริการในหลายประเทศ ✅ ByteDance พัฒนา GameTop ➡️ เป็นแพลตฟอร์มเกม PC ที่เน้นตลาดต่างประเทศ ➡️ มีระบบจัดจำหน่ายเกมเหมือน Steam ➡️ มีฟีเจอร์โซเชียลและเครื่องมือสร้างคอนเทนต์ด้วย AI ✅ จุดเด่นของ GameTop ➡️ ระบบโปรไฟล์ ป้ายรางวัล และแต้มสะสม ➡️ ฟีเจอร์ UGC ที่ใช้ AI ช่วยสร้างคลิปหรือเกม ➡️ คล้ายกับ TikTok แต่เน้นเกมเป็นหลัก ✅ การปรับโครงสร้างภายใน ByteDance ➡️ หันมาเน้นการจัดจำหน่ายเกมแทนการพัฒนาเอง ➡️ ลดต้นทุนและเพิ่มประสิทธิภาพ ➡️ นำโดย Zhang Yunfan ผู้บริหารสายเกมคนใหม่ https://www.tomshardware.com/video-games/pc-gaming/chinas-bytedance-reportedly-building-a-steam-competitor-gametop-for-overseas-markets-will-distribute-and-publish-games-like-any-other-store-while-harboring-a-social-space-with-ai-assisted-creator-tools
    0 Comments 0 Shares 62 Views 0 Reviews
  • How To Refer To Little People: The Terms To Know

    Most people are familiar with the use of the term little people in reference to people who have dwarfism—people whose short stature is the result of a medical or genetic condition. But it’s not the only term.

    In this article, we’ll note the range of terms and preferences and explain some of the notable reasons behind these preferences.

    Content warning: The end of this article includes an explicit mention of an offensive slur. As part of our mission to educate about words and their impact on people, we believe it is important to include information about this word, especially since some people may be unaware that it is considered offensive.

    What is dwarfism?

    An important aspect of understanding dwarfism is understanding that dwarfism is a general term and doesn’t refer to one specific medical condition that causes short stature. Instead, the term is used to refer to shortness of stature that can be caused by many different medical or genetic conditions.

    Generally, an adult is considered to have dwarfism if they have a height measured at 4 feet 10 inches or lower.

    What causes dwarfism?

    The most common cause of dwarfism is achondroplasia, a condition that impairs the growth of bones and causes an atypical skeletal structure, especially in the limbs. While this condition can be inherited, it is often caused by genetic mutations. This means that parents who do not have achondroplasia can have children who do, and parents who do have achondroplasia can have children who don’t.
    What do people with dwarfism prefer to be called?

    First, remember that discussing a condition or physical difference is in many cases unnecessary. Most of the time, the first thing you should ask a person is their name.

    Of course, it is sometimes necessary and important to use generally identifying terms, such as when discussing accessibility in the workplace or a person’s membership in a community. And whenever such things are being discussed, it’s important to use the terms that people themselves prefer when referring to themselves and being referred to.

    Because preferences vary widely, the best approach is always to ask. Preferences may also overlap—some people may use certain terms interchangeably or be OK with multiple terms.

    Here are some of the most common and widely accepted terms.

    dwarf and person with dwarfism

    Some people with dwarfism prefer to be referred to—and to refer to themselves—with the standalone term dwarf. In contrast, some people prefer the term person with dwarfism, an example of what’s called person-first language, which is terminology that places the person before a mention of a specific characteristic (usually literally using the word person or the plural people as the first words in an identifying phrase). Preferring to be referred to as a dwarf is an example of what’s called identity-first language, which places emphasis on a characteristic that a person considers an inherent part of their identity.

    Both terms are considered catch-all terms that encompass all medical and genetic causes of dwarfism. Both versions are also commonly used in the medical community when discussing dwarfism.

    While organizations within the community often use such terms in discussing their members and those they advocate for, such terms are not commonly used in names of such organizations (though there are exceptions).

    It’s important to note that some people may not be comfortable using either term for a variety of reasons. One reason is that they may consider them as too technical outside of a medical context. Furthermore, some people may prefer to avoid the word dwarf’s associations with characters in folklore and pop culture (which in many cases have had the effect of demeaning people of short stature).

    little person, little people

    Out of all of the terms that refer to people with dwarfism, the straightforward little person (and its plural little people) is now likely the most common and the one most people are familiar with.

    Around the world, many organizations focused on people with dwarfism use the term little people in their name and in their communications, including Little People of America, Little People UK, and Little People of British Columbia.

    The increase in the awareness of this terminology is often attributed in part to the high visibility of such terms in notable aspects of pop culture, such as the title of the long-running TV series Little People, Big World.

    Although such terms are now widely used and preferred, keep in mind that personal preferences vary.

    person of short stature and short-statured person

    Although less common, the terms person of short stature and short-statured person (sometimes unhyphenated as short statured) are also used (along with their plural forms that use people). Preferences around person-first or identity-first constructions also apply in this case.

    These phrases are used by groups and organizations focused on little people, often interchangeably with previously mentioned options. They are sometimes also used in the names of such organizations, such as Short Statured People of Australia and Short Stature Scotland.

    Which term should I use?

    Remember that specifying whether or not a person has dwarfism is often completely unnecessary. See the person first—and don’t assume that their size defines them. Most of the time, the first thing you should ask a person is their name.

    In cases when it’s important to identify someone as being short in stature in the ways we’ve discussed here, all of the terms we’ve listed can be suitable. Many are often used interchangeably. Little person and little people are the most common. But no preference is universal, so be sure to respect a person’s preferences.

    Offensive terms

    Although preferences vary around the terms that have been discussed thus far, there are some terms that should never be used. Notably, one term considered extremely offensive is the disparaging word midget. Like other slurs, its explicit mention is often avoided in discussions about the term by instead using the phrase the M word. (We feel it is important to explicitly state it here so as to leave no confusion about which word we’re referring to.)

    Though the term once came to be used by some as a way to distinguish various forms of dwarfism, members of the community and advocacy organizations now note that its history is rooted in demeaning usage—and that it should be avoided altogether.

    That push for avoidance and elimination of use also extends to contexts in which the term has traditionally been applied not to people but to things in reference to their small size (such as certain types of racing cars, as one example).

    สงวนลิขสิทธิ์ © 2025 AAKKHRA & Co.
    How To Refer To Little People: The Terms To Know Most people are familiar with the use of the term little people in reference to people who have dwarfism—people whose short stature is the result of a medical or genetic condition. But it’s not the only term. In this article, we’ll note the range of terms and preferences and explain some of the notable reasons behind these preferences. Content warning: The end of this article includes an explicit mention of an offensive slur. As part of our mission to educate about words and their impact on people, we believe it is important to include information about this word, especially since some people may be unaware that it is considered offensive. What is dwarfism? An important aspect of understanding dwarfism is understanding that dwarfism is a general term and doesn’t refer to one specific medical condition that causes short stature. Instead, the term is used to refer to shortness of stature that can be caused by many different medical or genetic conditions. Generally, an adult is considered to have dwarfism if they have a height measured at 4 feet 10 inches or lower. What causes dwarfism? The most common cause of dwarfism is achondroplasia, a condition that impairs the growth of bones and causes an atypical skeletal structure, especially in the limbs. While this condition can be inherited, it is often caused by genetic mutations. This means that parents who do not have achondroplasia can have children who do, and parents who do have achondroplasia can have children who don’t. What do people with dwarfism prefer to be called? First, remember that discussing a condition or physical difference is in many cases unnecessary. Most of the time, the first thing you should ask a person is their name. Of course, it is sometimes necessary and important to use generally identifying terms, such as when discussing accessibility in the workplace or a person’s membership in a community. And whenever such things are being discussed, it’s important to use the terms that people themselves prefer when referring to themselves and being referred to. Because preferences vary widely, the best approach is always to ask. Preferences may also overlap—some people may use certain terms interchangeably or be OK with multiple terms. Here are some of the most common and widely accepted terms. dwarf and person with dwarfism Some people with dwarfism prefer to be referred to—and to refer to themselves—with the standalone term dwarf. In contrast, some people prefer the term person with dwarfism, an example of what’s called person-first language, which is terminology that places the person before a mention of a specific characteristic (usually literally using the word person or the plural people as the first words in an identifying phrase). Preferring to be referred to as a dwarf is an example of what’s called identity-first language, which places emphasis on a characteristic that a person considers an inherent part of their identity. Both terms are considered catch-all terms that encompass all medical and genetic causes of dwarfism. Both versions are also commonly used in the medical community when discussing dwarfism. While organizations within the community often use such terms in discussing their members and those they advocate for, such terms are not commonly used in names of such organizations (though there are exceptions). It’s important to note that some people may not be comfortable using either term for a variety of reasons. One reason is that they may consider them as too technical outside of a medical context. Furthermore, some people may prefer to avoid the word dwarf’s associations with characters in folklore and pop culture (which in many cases have had the effect of demeaning people of short stature). little person, little people Out of all of the terms that refer to people with dwarfism, the straightforward little person (and its plural little people) is now likely the most common and the one most people are familiar with. Around the world, many organizations focused on people with dwarfism use the term little people in their name and in their communications, including Little People of America, Little People UK, and Little People of British Columbia. The increase in the awareness of this terminology is often attributed in part to the high visibility of such terms in notable aspects of pop culture, such as the title of the long-running TV series Little People, Big World. Although such terms are now widely used and preferred, keep in mind that personal preferences vary. person of short stature and short-statured person Although less common, the terms person of short stature and short-statured person (sometimes unhyphenated as short statured) are also used (along with their plural forms that use people). Preferences around person-first or identity-first constructions also apply in this case. These phrases are used by groups and organizations focused on little people, often interchangeably with previously mentioned options. They are sometimes also used in the names of such organizations, such as Short Statured People of Australia and Short Stature Scotland. Which term should I use? Remember that specifying whether or not a person has dwarfism is often completely unnecessary. See the person first—and don’t assume that their size defines them. Most of the time, the first thing you should ask a person is their name. In cases when it’s important to identify someone as being short in stature in the ways we’ve discussed here, all of the terms we’ve listed can be suitable. Many are often used interchangeably. Little person and little people are the most common. But no preference is universal, so be sure to respect a person’s preferences. Offensive terms Although preferences vary around the terms that have been discussed thus far, there are some terms that should never be used. Notably, one term considered extremely offensive is the disparaging word midget. Like other slurs, its explicit mention is often avoided in discussions about the term by instead using the phrase the M word. (We feel it is important to explicitly state it here so as to leave no confusion about which word we’re referring to.) Though the term once came to be used by some as a way to distinguish various forms of dwarfism, members of the community and advocacy organizations now note that its history is rooted in demeaning usage—and that it should be avoided altogether. That push for avoidance and elimination of use also extends to contexts in which the term has traditionally been applied not to people but to things in reference to their small size (such as certain types of racing cars, as one example). สงวนลิขสิทธิ์ © 2025 AAKKHRA & Co.
    0 Comments 0 Shares 189 Views 0 Reviews
  • “Valkey 9.0 เปิดตัว – รองรับหลายฐานข้อมูลในคลัสเตอร์เดียว พร้อมทะลุ 1 พันล้านคำขอต่อวินาที!”

    Valkey ซึ่งเป็นฐานข้อมูล key-value แบบ in-memory ที่พัฒนาโดยชุมชนโอเพ่นซอร์สภายใต้ Linux Foundation ได้เปิดตัวเวอร์ชันใหม่ Valkey 9.0 ที่มาพร้อมฟีเจอร์เด็ด 3 อย่างที่แก้ปัญหาใหญ่ในระบบฐานข้อมูลแบบกระจาย (distributed database)

    ฟีเจอร์แรกคือ Atomic Slot Migration ที่ช่วยให้การย้ายข้อมูลระหว่างเซิร์ฟเวอร์ในคลัสเตอร์ทำได้แบบไม่มี downtime โดยใช้ snapshot และย้ายข้อมูลเบื้องหลังแบบเรียลไทม์

    ฟีเจอร์ที่สองคือ Hash Field Expiration ที่ให้ผู้ใช้สามารถตั้งเวลาให้ field ใน hash หมดอายุได้แบบแยก field ซึ่งช่วยลดการใช้หน่วยความจำและไม่ต้องลบข้อมูลด้วยตัวเองอีกต่อไป

    ฟีเจอร์สุดท้ายคือ Multiple Databases in Cluster Mode ที่ให้รันหลายฐานข้อมูลแยกกันในคลัสเตอร์เดียว เช่น staging กับ production โดยไม่ต้องตั้งโครงสร้างใหม่

    ด้านประสิทธิภาพ Valkey 9.0 เร็วขึ้นกว่าเดิมถึง 40% และบางคำสั่งเร็วขึ้นถึง 200% โดยสามารถรองรับได้มากกว่า 1 พันล้านคำขอต่อวินาที บนคลัสเตอร์ 2,000 โหนด

    Madelyn Olson ผู้ดูแลโครงการเผยว่า Valkey 9.0 เปิดตัวช้ากว่ากำหนดเพราะมีข้อเสนอจากชุมชนจำนวนมาก แต่ทีมงานก็พยายามปรับปรุงกระบวนการให้ตอบสนองได้เร็วขึ้นในอนาคต พร้อมย้ำว่าโค้ดของ Valkey จะยังคงเปิดให้ทุกคนเข้าถึงได้เสมอ

    ฟีเจอร์ใหม่ใน Valkey 9.0
    Atomic Slot Migration – ย้ายข้อมูลระหว่างเซิร์ฟเวอร์แบบไม่มี downtime
    Hash Field Expiration – ตั้งเวลาให้ field หมดอายุได้แบบแยก field
    Multiple Databases in Cluster Mode – รันหลายฐานข้อมูลในคลัสเตอร์เดียว

    ประสิทธิภาพที่เพิ่มขึ้น
    เร็วขึ้นกว่า Valkey 8.1 ถึง 40%
    บางคำสั่งเร็วขึ้นถึง 200%
    รองรับมากกว่า 1 พันล้านคำขอ/วินาที บนคลัสเตอร์ 2,000 โหนด

    ความเห็นจากผู้ดูแลโครงการ
    เปิดตัวช้ากว่ากำหนดเพราะมีข้อเสนอจากชุมชนจำนวนมาก
    ทีมงานปรับปรุงกระบวนการเพื่อรองรับการพัฒนาในอนาคต
    ยืนยันว่า Valkey จะยังคงเป็นโอเพ่นซอร์สภายใต้ Linux Foundation
    การเปิดโค้ดช่วยให้ผู้ใช้ไม่ถูกล็อกด้วยเครื่องมือ proprietary

    ความเคลื่อนไหวในวงการ
    Redis 8 กลับมาเปิดซอร์สอีกครั้งภายใต้ AGPL
    Valkey ย้ำจุดยืนเรื่องความโปร่งใสและการเติบโตจากชุมชน
    การเปิดตัว Valkey 9.0 สะท้อนพลังของการพัฒนาแบบโอเพ่นซอร์ส

    https://news.itsfoss.com/valkey-9-release/
    🚀 “Valkey 9.0 เปิดตัว – รองรับหลายฐานข้อมูลในคลัสเตอร์เดียว พร้อมทะลุ 1 พันล้านคำขอต่อวินาที!” Valkey ซึ่งเป็นฐานข้อมูล key-value แบบ in-memory ที่พัฒนาโดยชุมชนโอเพ่นซอร์สภายใต้ Linux Foundation ได้เปิดตัวเวอร์ชันใหม่ Valkey 9.0 ที่มาพร้อมฟีเจอร์เด็ด 3 อย่างที่แก้ปัญหาใหญ่ในระบบฐานข้อมูลแบบกระจาย (distributed database) ฟีเจอร์แรกคือ Atomic Slot Migration ที่ช่วยให้การย้ายข้อมูลระหว่างเซิร์ฟเวอร์ในคลัสเตอร์ทำได้แบบไม่มี downtime โดยใช้ snapshot และย้ายข้อมูลเบื้องหลังแบบเรียลไทม์ ฟีเจอร์ที่สองคือ Hash Field Expiration ที่ให้ผู้ใช้สามารถตั้งเวลาให้ field ใน hash หมดอายุได้แบบแยก field ซึ่งช่วยลดการใช้หน่วยความจำและไม่ต้องลบข้อมูลด้วยตัวเองอีกต่อไป ฟีเจอร์สุดท้ายคือ Multiple Databases in Cluster Mode ที่ให้รันหลายฐานข้อมูลแยกกันในคลัสเตอร์เดียว เช่น staging กับ production โดยไม่ต้องตั้งโครงสร้างใหม่ ด้านประสิทธิภาพ Valkey 9.0 เร็วขึ้นกว่าเดิมถึง 40% และบางคำสั่งเร็วขึ้นถึง 200% โดยสามารถรองรับได้มากกว่า 1 พันล้านคำขอต่อวินาที บนคลัสเตอร์ 2,000 โหนด Madelyn Olson ผู้ดูแลโครงการเผยว่า Valkey 9.0 เปิดตัวช้ากว่ากำหนดเพราะมีข้อเสนอจากชุมชนจำนวนมาก แต่ทีมงานก็พยายามปรับปรุงกระบวนการให้ตอบสนองได้เร็วขึ้นในอนาคต พร้อมย้ำว่าโค้ดของ Valkey จะยังคงเปิดให้ทุกคนเข้าถึงได้เสมอ ✅ ฟีเจอร์ใหม่ใน Valkey 9.0 ➡️ Atomic Slot Migration – ย้ายข้อมูลระหว่างเซิร์ฟเวอร์แบบไม่มี downtime ➡️ Hash Field Expiration – ตั้งเวลาให้ field หมดอายุได้แบบแยก field ➡️ Multiple Databases in Cluster Mode – รันหลายฐานข้อมูลในคลัสเตอร์เดียว ✅ ประสิทธิภาพที่เพิ่มขึ้น ➡️ เร็วขึ้นกว่า Valkey 8.1 ถึง 40% ➡️ บางคำสั่งเร็วขึ้นถึง 200% ➡️ รองรับมากกว่า 1 พันล้านคำขอ/วินาที บนคลัสเตอร์ 2,000 โหนด ✅ ความเห็นจากผู้ดูแลโครงการ ➡️ เปิดตัวช้ากว่ากำหนดเพราะมีข้อเสนอจากชุมชนจำนวนมาก ➡️ ทีมงานปรับปรุงกระบวนการเพื่อรองรับการพัฒนาในอนาคต ➡️ ยืนยันว่า Valkey จะยังคงเป็นโอเพ่นซอร์สภายใต้ Linux Foundation ➡️ การเปิดโค้ดช่วยให้ผู้ใช้ไม่ถูกล็อกด้วยเครื่องมือ proprietary ✅ ความเคลื่อนไหวในวงการ ➡️ Redis 8 กลับมาเปิดซอร์สอีกครั้งภายใต้ AGPL ➡️ Valkey ย้ำจุดยืนเรื่องความโปร่งใสและการเติบโตจากชุมชน ➡️ การเปิดตัว Valkey 9.0 สะท้อนพลังของการพัฒนาแบบโอเพ่นซอร์ส https://news.itsfoss.com/valkey-9-release/
    NEWS.ITSFOSS.COM
    Valkey 9.0 Adds Multi-Database Clusters, Supports 1 Billion Requests Per Second
    New release brings 40% throughput increase and seamless zero-downtime resharding.
    0 Comments 0 Shares 136 Views 0 Reviews
  • "Kubernetes 1 ล้านโหนด: ภารกิจสุดโหดที่กลายเป็นจริง"

    ลองจินตนาการถึง Kubernetes cluster ที่มีถึง 1 ล้านโหนด—ไม่ใช่แค่แนวคิด แต่เป็นการทดลองจริงที่ผลักดันขีดจำกัดของระบบ cloud-native ที่ทรงพลังที่สุดในโลกใบนี้! โครงการ “k8s-1m” โดยผู้เชี่ยวชาญจาก OpenAI และอดีตผู้ร่วมเขียนบทความชื่อดังเรื่องการขยาย Kubernetes สู่ 7,500 โหนด ได้กลับมาอีกครั้ง พร้อมเป้าหมายใหม่ที่ทะเยอทะยานกว่าเดิม: สร้าง cluster ที่มี 1 ล้านโหนดและสามารถจัดการ workload ได้จริง

    เบื้องหลังความสำเร็จนี้คือการแก้ปัญหาทางเทคนิคระดับมหากาพย์ ตั้งแต่การจัดการ IP ด้วย IPv6, การออกแบบระบบ etcd ใหม่ให้รองรับการเขียนระดับแสนครั้งต่อวินาที, ไปจนถึงการสร้าง distributed scheduler ที่สามารถจัดสรร 1 ล้าน pods ได้ภายใน 1 นาที

    แม้จะไม่ใช่ระบบที่พร้อมใช้งานใน production แต่โครงการนี้ได้เปิดเผยขีดจำกัดที่แท้จริงของ Kubernetes และเสนอแนวทางใหม่ในการออกแบบระบบ cloud-native ที่สามารถรองรับ workload ขนาดมหาศาลได้ในอนาคต

    สรุปเนื้อหาจากโครงการ k8s-1m:

    เป้าหมายของโครงการ
    สร้าง Kubernetes cluster ที่มี 1 ล้านโหนด
    ทดสอบขีดจำกัดของระบบ cloud-native
    ไม่เน้นการใช้งานเชิงพาณิชย์ แต่เพื่อการวิจัยและแรงบันดาลใจ

    ปัญหาหลักที่ต้องแก้
    ประสิทธิภาพของ etcd ที่เป็นคอขวด
    ความสามารถของ kube-apiserver ในการจัดการ watch cache
    การจัดการ IP address ด้วย IPv6
    การออกแบบ scheduler ให้กระจายโหลดได้

    เทคนิคที่ใช้ในระบบเครือข่าย
    ใช้ IPv6 แทน IPv4 เพื่อรองรับ IP จำนวนมหาศาล
    สร้าง bridge สำหรับ pod interfaces เพื่อจัดการ MAC address
    ใช้ WireGuard เป็น NAT64 gateway สำหรับบริการที่รองรับเฉพาะ IPv4

    ข้อจำกัดด้านความปลอดภัย
    ไม่ใช้ network policies ระหว่าง workloads เพราะมี prefix มากเกินไป
    ไม่ใช้ firewall ครอบคลุมทุก prefix แต่ใช้ TLS และการจำกัดพอร์ตแทน

    การจัดการ state ด้วย mem_etcd
    สร้าง etcd ใหม่ที่เขียนด้วย Rust ชื่อ mem_etcd
    ลดการใช้ fsync เพื่อเพิ่ม throughput
    ใช้ hash map และ B-tree แยกตาม resource kind
    รองรับการเขียนระดับล้านครั้งต่อวินาที

    คำเตือนเกี่ยวกับ durability
    ลดระดับความทนทานของข้อมูลเพื่อเพิ่มประสิทธิภาพ
    ไม่ใช้ etcd replicas ในบางกรณีเพื่อหลีกเลี่ยงการลด throughput

    การออกแบบ scheduler แบบกระจาย
    ใช้แนวคิด scatter-gather เพื่อกระจายการคำนวณ
    ใช้ relays หลายระดับเพื่อกระจาย pod ไปยัง schedulers
    ใช้ ValidatingWebhook แทน watch stream เพื่อรับ pod ใหม่เร็วขึ้น

    ปัญหา long-tail latency
    บาง scheduler ช้ากว่าค่าเฉลี่ย ทำให้ระบบรอ
    ใช้เทคนิค pinned CPUs และปรับ GC เพื่อลดความล่าช้า
    ตัดสินใจไม่รอ scheduler ที่ช้าเกินไป

    ผลการทดลอง
    สามารถจัดสรร 1 ล้าน pods ได้ในเวลาประมาณ 1 นาที
    mem_etcd รองรับ 100K–125K requests/sec
    kube-apiserver รองรับ 100K lease updates/sec
    ระบบใช้ RAM และ CPU อย่างมีประสิทธิภาพ

    ข้อจำกัดของภาษา Go
    GC ของ Go เป็นคอขวดหลักในการจัดการ object จำนวนมาก
    การเพิ่ม kube-apiserver replicas ไม่ช่วยลด GC load

    ข้อสรุปจากโครงการ
    ขนาด cluster ไม่สำคัญเท่ากับอัตราการเขียนของ resource kind
    Lease updates เป็นภาระหลักของระบบ
    การแยก etcd ตาม resource kind ช่วยเพิ่ม scalability
    การเปลี่ยน backend ของ etcd และปรับ watch cache ช่วยรองรับ 1 ล้านโหนด

    https://bchess.github.io/k8s-1m/
    🖇️ "Kubernetes 1 ล้านโหนด: ภารกิจสุดโหดที่กลายเป็นจริง" ลองจินตนาการถึง Kubernetes cluster ที่มีถึง 1 ล้านโหนด—ไม่ใช่แค่แนวคิด แต่เป็นการทดลองจริงที่ผลักดันขีดจำกัดของระบบ cloud-native ที่ทรงพลังที่สุดในโลกใบนี้! โครงการ “k8s-1m” โดยผู้เชี่ยวชาญจาก OpenAI และอดีตผู้ร่วมเขียนบทความชื่อดังเรื่องการขยาย Kubernetes สู่ 7,500 โหนด ได้กลับมาอีกครั้ง พร้อมเป้าหมายใหม่ที่ทะเยอทะยานกว่าเดิม: สร้าง cluster ที่มี 1 ล้านโหนดและสามารถจัดการ workload ได้จริง เบื้องหลังความสำเร็จนี้คือการแก้ปัญหาทางเทคนิคระดับมหากาพย์ ตั้งแต่การจัดการ IP ด้วย IPv6, การออกแบบระบบ etcd ใหม่ให้รองรับการเขียนระดับแสนครั้งต่อวินาที, ไปจนถึงการสร้าง distributed scheduler ที่สามารถจัดสรร 1 ล้าน pods ได้ภายใน 1 นาที แม้จะไม่ใช่ระบบที่พร้อมใช้งานใน production แต่โครงการนี้ได้เปิดเผยขีดจำกัดที่แท้จริงของ Kubernetes และเสนอแนวทางใหม่ในการออกแบบระบบ cloud-native ที่สามารถรองรับ workload ขนาดมหาศาลได้ในอนาคต สรุปเนื้อหาจากโครงการ k8s-1m: ✅ เป้าหมายของโครงการ ➡️ สร้าง Kubernetes cluster ที่มี 1 ล้านโหนด ➡️ ทดสอบขีดจำกัดของระบบ cloud-native ➡️ ไม่เน้นการใช้งานเชิงพาณิชย์ แต่เพื่อการวิจัยและแรงบันดาลใจ ✅ ปัญหาหลักที่ต้องแก้ ➡️ ประสิทธิภาพของ etcd ที่เป็นคอขวด ➡️ ความสามารถของ kube-apiserver ในการจัดการ watch cache ➡️ การจัดการ IP address ด้วย IPv6 ➡️ การออกแบบ scheduler ให้กระจายโหลดได้ ✅ เทคนิคที่ใช้ในระบบเครือข่าย ➡️ ใช้ IPv6 แทน IPv4 เพื่อรองรับ IP จำนวนมหาศาล ➡️ สร้าง bridge สำหรับ pod interfaces เพื่อจัดการ MAC address ➡️ ใช้ WireGuard เป็น NAT64 gateway สำหรับบริการที่รองรับเฉพาะ IPv4 ‼️ ข้อจำกัดด้านความปลอดภัย ⛔ ไม่ใช้ network policies ระหว่าง workloads เพราะมี prefix มากเกินไป ⛔ ไม่ใช้ firewall ครอบคลุมทุก prefix แต่ใช้ TLS และการจำกัดพอร์ตแทน ✅ การจัดการ state ด้วย mem_etcd ➡️ สร้าง etcd ใหม่ที่เขียนด้วย Rust ชื่อ mem_etcd ➡️ ลดการใช้ fsync เพื่อเพิ่ม throughput ➡️ ใช้ hash map และ B-tree แยกตาม resource kind ➡️ รองรับการเขียนระดับล้านครั้งต่อวินาที ‼️ คำเตือนเกี่ยวกับ durability ⛔ ลดระดับความทนทานของข้อมูลเพื่อเพิ่มประสิทธิภาพ ⛔ ไม่ใช้ etcd replicas ในบางกรณีเพื่อหลีกเลี่ยงการลด throughput ✅ การออกแบบ scheduler แบบกระจาย ➡️ ใช้แนวคิด scatter-gather เพื่อกระจายการคำนวณ ➡️ ใช้ relays หลายระดับเพื่อกระจาย pod ไปยัง schedulers ➡️ ใช้ ValidatingWebhook แทน watch stream เพื่อรับ pod ใหม่เร็วขึ้น ‼️ ปัญหา long-tail latency ⛔ บาง scheduler ช้ากว่าค่าเฉลี่ย ทำให้ระบบรอ ⛔ ใช้เทคนิค pinned CPUs และปรับ GC เพื่อลดความล่าช้า ⛔ ตัดสินใจไม่รอ scheduler ที่ช้าเกินไป ✅ ผลการทดลอง ➡️ สามารถจัดสรร 1 ล้าน pods ได้ในเวลาประมาณ 1 นาที ➡️ mem_etcd รองรับ 100K–125K requests/sec ➡️ kube-apiserver รองรับ 100K lease updates/sec ➡️ ระบบใช้ RAM และ CPU อย่างมีประสิทธิภาพ ‼️ ข้อจำกัดของภาษา Go ⛔ GC ของ Go เป็นคอขวดหลักในการจัดการ object จำนวนมาก ⛔ การเพิ่ม kube-apiserver replicas ไม่ช่วยลด GC load ✅ ข้อสรุปจากโครงการ ➡️ ขนาด cluster ไม่สำคัญเท่ากับอัตราการเขียนของ resource kind ➡️ Lease updates เป็นภาระหลักของระบบ ➡️ การแยก etcd ตาม resource kind ช่วยเพิ่ม scalability ➡️ การเปลี่ยน backend ของ etcd และปรับ watch cache ช่วยรองรับ 1 ล้านโหนด https://bchess.github.io/k8s-1m/
    0 Comments 0 Shares 193 Views 0 Reviews
  • “Wi-Fi 8 มาแล้ว! Sercomm เปิดตัวเราเตอร์จริงเครื่องแรก” — เมื่อยุคใหม่ของการเชื่อมต่อไร้สายเริ่มต้นจากบริษัทที่คุณอาจไม่รู้จัก

    Wi-Fi 8 กำลังเปลี่ยนจากแนวคิดในห้องทดลองสู่ผลิตภัณฑ์จริงที่จับต้องได้ โดย Sercomm บริษัทจากไต้หวันที่เชี่ยวชาญด้านอุปกรณ์บรอดแบนด์ ได้เปิดตัวเราเตอร์ Wi-Fi 8 เครื่องแรกของโลกที่สร้างขึ้นจากชิปเซ็ตใหม่ล่าสุดของ Broadcom

    ต่างจาก Wi-Fi รุ่นก่อนที่เน้นความเร็วสูงสุด Wi-Fi 8 มุ่งเน้น “ความเสถียร” และ “ความน่าเชื่อถือ” เป็นหลัก โดยใช้ช่องสัญญาณกว้างถึง 320MHz บนคลื่น 2.4GHz, 5GHz และ 6GHz พร้อมฟีเจอร์ใหม่ เช่น Enhanced Long Range และ Distributed Resource Units ที่ช่วยให้สัญญาณไม่หลุดแม้มีอุปกรณ์เชื่อมต่อจำนวนมาก หรือผู้ใช้อยู่ไกลจากเราเตอร์

    Qualcomm เรียก Wi-Fi 8 ว่าเป็น “การเปลี่ยนแปลงพื้นฐาน” ของการออกแบบระบบไร้สาย โดยเน้น latency ต่ำและการจัดการสัญญาณอัจฉริยะ ซึ่งเหมาะกับบ้านอัจฉริยะและการใช้งานในพื้นที่แออัด

    เราเตอร์ของ Sercomm ยังรองรับมาตรฐาน Matter สำหรับอุปกรณ์สมาร์ตโฮม และระบบ fiber-to-the-room เพื่อการเชื่อมต่อที่เร็วและเสถียรยิ่งขึ้น โดยจะเปิดตัวในงาน Network X 2025 ที่กรุงปารีส

    Sercomm เปิดตัวเราเตอร์ Wi-Fi 8 เครื่องแรกของโลก
    ใช้ชิปเซ็ตใหม่ล่าสุดจาก Broadcom

    Wi-Fi 8 เน้นความเสถียรและ latency ต่ำมากกว่าความเร็วสูงสุด
    ช่องสัญญาณกว้าง 320MHz บนคลื่น 2.4GHz, 5GHz และ 6GHz

    ฟีเจอร์ใหม่ เช่น Enhanced Long Range และ Distributed Resource Units
    ช่วยให้สัญญาณเสถียรแม้มีอุปกรณ์จำนวนมากหรืออยู่ไกล

    Qualcomm เรียก Wi-Fi 8 ว่า “การเปลี่ยนแปลงพื้นฐาน” ของระบบไร้สาย
    เหมาะกับบ้านอัจฉริยะและพื้นที่แออัด

    เราเตอร์ของ Sercomm รองรับมาตรฐาน Matter และ fiber-to-the-room
    เตรียมเปิดตัวในงาน Network X 2025 ที่กรุงปารีส

    https://www.techradar.com/pro/the-first-wi-fi-8-wireless-router-you-can-actually-touch-and-see-will-be-built-by-a-company-youve-probably-never-heard-of
    📶 “Wi-Fi 8 มาแล้ว! Sercomm เปิดตัวเราเตอร์จริงเครื่องแรก” — เมื่อยุคใหม่ของการเชื่อมต่อไร้สายเริ่มต้นจากบริษัทที่คุณอาจไม่รู้จัก Wi-Fi 8 กำลังเปลี่ยนจากแนวคิดในห้องทดลองสู่ผลิตภัณฑ์จริงที่จับต้องได้ โดย Sercomm บริษัทจากไต้หวันที่เชี่ยวชาญด้านอุปกรณ์บรอดแบนด์ ได้เปิดตัวเราเตอร์ Wi-Fi 8 เครื่องแรกของโลกที่สร้างขึ้นจากชิปเซ็ตใหม่ล่าสุดของ Broadcom ต่างจาก Wi-Fi รุ่นก่อนที่เน้นความเร็วสูงสุด Wi-Fi 8 มุ่งเน้น “ความเสถียร” และ “ความน่าเชื่อถือ” เป็นหลัก โดยใช้ช่องสัญญาณกว้างถึง 320MHz บนคลื่น 2.4GHz, 5GHz และ 6GHz พร้อมฟีเจอร์ใหม่ เช่น Enhanced Long Range และ Distributed Resource Units ที่ช่วยให้สัญญาณไม่หลุดแม้มีอุปกรณ์เชื่อมต่อจำนวนมาก หรือผู้ใช้อยู่ไกลจากเราเตอร์ Qualcomm เรียก Wi-Fi 8 ว่าเป็น “การเปลี่ยนแปลงพื้นฐาน” ของการออกแบบระบบไร้สาย โดยเน้น latency ต่ำและการจัดการสัญญาณอัจฉริยะ ซึ่งเหมาะกับบ้านอัจฉริยะและการใช้งานในพื้นที่แออัด เราเตอร์ของ Sercomm ยังรองรับมาตรฐาน Matter สำหรับอุปกรณ์สมาร์ตโฮม และระบบ fiber-to-the-room เพื่อการเชื่อมต่อที่เร็วและเสถียรยิ่งขึ้น โดยจะเปิดตัวในงาน Network X 2025 ที่กรุงปารีส ✅ Sercomm เปิดตัวเราเตอร์ Wi-Fi 8 เครื่องแรกของโลก ➡️ ใช้ชิปเซ็ตใหม่ล่าสุดจาก Broadcom ✅ Wi-Fi 8 เน้นความเสถียรและ latency ต่ำมากกว่าความเร็วสูงสุด ➡️ ช่องสัญญาณกว้าง 320MHz บนคลื่น 2.4GHz, 5GHz และ 6GHz ✅ ฟีเจอร์ใหม่ เช่น Enhanced Long Range และ Distributed Resource Units ➡️ ช่วยให้สัญญาณเสถียรแม้มีอุปกรณ์จำนวนมากหรืออยู่ไกล ✅ Qualcomm เรียก Wi-Fi 8 ว่า “การเปลี่ยนแปลงพื้นฐาน” ของระบบไร้สาย ➡️ เหมาะกับบ้านอัจฉริยะและพื้นที่แออัด ✅ เราเตอร์ของ Sercomm รองรับมาตรฐาน Matter และ fiber-to-the-room ➡️ เตรียมเปิดตัวในงาน Network X 2025 ที่กรุงปารีส https://www.techradar.com/pro/the-first-wi-fi-8-wireless-router-you-can-actually-touch-and-see-will-be-built-by-a-company-youve-probably-never-heard-of
    WWW.TECHRADAR.COM
    Sercomm builds first Wi-Fi 8 router using Broadcom’s new chipset
    Sercomm's router is built around Broadcom’s newest chipset
    0 Comments 0 Shares 170 Views 0 Reviews
  • “AI ปลอมเสียงศิลปินดังในคลิปไว้อาลัย Charlie Kirk” — เมื่อ YouTube กลายเป็นเวทีของบทเพลงที่ไม่มีใครร้องจริง

    ผู้ใช้ YouTube หลายคนตกใจเมื่อพบคลิปไว้อาลัย Charlie Kirk นักเคลื่อนไหวฝ่ายขวาที่ถูกลอบสังหาร โดยมีเสียงร้องจากศิลปินดังอย่าง Adele, Ed Sheeran และ Justin Bieber — แต่ทั้งหมดเป็นเสียงที่สร้างจาก AI โดยไม่มีการร้องจริงหรือรับรู้จากเจ้าตัว

    คลิปเหล่านี้ใช้ภาพประกอบที่ดูสมจริง เช่น thumbnails ที่ศิลปินร้องไห้ พร้อมเนื้อเพลงที่แต่งขึ้นจาก prompt เช่น “The angels sing your name” หรือ “Your story’s written in the stars” ซึ่งสร้างความซาบซึ้งให้ผู้ชมจำนวนมาก แม้เสียงจะไม่เหมือนต้นฉบับก็ตาม

    AI music generators อย่าง Suno สามารถสร้างเพลงจากข้อความง่าย ๆ เช่น “ทำเพลงแจ๊สเกี่ยวกับรดน้ำต้นไม้” หรือ “เพลงแนว house เกี่ยวกับลาออกจากงาน” และเมื่อสื่อ AFP ทดสอบด้วย prompt ไว้อาลัยนักเคลื่อนไหว ก็ได้เพลงชื่อ “Star Gone Too Soon” และ “Echoes of a Flame” ภายในไม่กี่วินาที

    แม้ YouTube จะมีนโยบายให้ผู้สร้างเนื้อหาต้องเปิดเผยว่าใช้ AI แต่หลายคลิปกลับซ่อนข้อมูลไว้ในคำอธิบายที่ต้องคลิกขยายถึงจะเห็น

    นักวิจารณ์เช่น Alex Mahadevan จาก Poynter เตือนว่า “อินเทอร์เน็ตที่เคยเต็มไปด้วยคนสร้างสรรค์กำลังถูกแทนที่ด้วย AI slop ที่สร้างเพื่อเงิน” และ Lucas Hansen จาก CivAI เสริมว่า “การลอกเลียนเสียงและภาพควรได้รับการคุ้มครอง แม้จะเป็นคนที่เสียชีวิตแล้วก็ตาม”

    ข้อมูลในข่าว
    คลิปไว้อาลัย Charlie Kirk ใช้เสียง AI ปลอมเป็นศิลปินดัง
    มี thumbnails ปลอม เช่นภาพศิลปินร้องไห้
    เนื้อเพลงสร้างจาก prompt เช่น “Your story’s written in the stars”
    AI music generators อย่าง Suno สร้างเพลงจากข้อความได้ภายในวินาที
    YouTube มีนโยบายให้เปิดเผยการใช้ AI แต่หลายคลิปซ่อนข้อมูลไว้
    คลิปเหล่านี้มีผู้ชมหลายล้านและคอมเมนต์ขอบคุณศิลปินที่ไม่ได้ร้องจริง
    Alex Mahadevan เตือนว่าอินเทอร์เน็ตกำลังถูกแทนที่ด้วย “AI slop”
    Lucas Hansen เสนอให้คุ้มครองเสียงและภาพของบุคคล แม้จะเสียชีวิตแล้ว
    The Velvet Sundown วง AI บน Spotify มีผู้ฟังเกิน 200,000 คน
    Suno เสนอ prompt เช่น “เพลงแจ๊สเกี่ยวกับรดน้ำต้นไม้”

    https://www.thestar.com.my/tech/tech-news/2025/10/17/youtube-users-trip-over-fake-ai-tributes-to-charlie-kirk
    🎤 “AI ปลอมเสียงศิลปินดังในคลิปไว้อาลัย Charlie Kirk” — เมื่อ YouTube กลายเป็นเวทีของบทเพลงที่ไม่มีใครร้องจริง ผู้ใช้ YouTube หลายคนตกใจเมื่อพบคลิปไว้อาลัย Charlie Kirk นักเคลื่อนไหวฝ่ายขวาที่ถูกลอบสังหาร โดยมีเสียงร้องจากศิลปินดังอย่าง Adele, Ed Sheeran และ Justin Bieber — แต่ทั้งหมดเป็นเสียงที่สร้างจาก AI โดยไม่มีการร้องจริงหรือรับรู้จากเจ้าตัว คลิปเหล่านี้ใช้ภาพประกอบที่ดูสมจริง เช่น thumbnails ที่ศิลปินร้องไห้ พร้อมเนื้อเพลงที่แต่งขึ้นจาก prompt เช่น “The angels sing your name” หรือ “Your story’s written in the stars” ซึ่งสร้างความซาบซึ้งให้ผู้ชมจำนวนมาก แม้เสียงจะไม่เหมือนต้นฉบับก็ตาม AI music generators อย่าง Suno สามารถสร้างเพลงจากข้อความง่าย ๆ เช่น “ทำเพลงแจ๊สเกี่ยวกับรดน้ำต้นไม้” หรือ “เพลงแนว house เกี่ยวกับลาออกจากงาน” และเมื่อสื่อ AFP ทดสอบด้วย prompt ไว้อาลัยนักเคลื่อนไหว ก็ได้เพลงชื่อ “Star Gone Too Soon” และ “Echoes of a Flame” ภายในไม่กี่วินาที แม้ YouTube จะมีนโยบายให้ผู้สร้างเนื้อหาต้องเปิดเผยว่าใช้ AI แต่หลายคลิปกลับซ่อนข้อมูลไว้ในคำอธิบายที่ต้องคลิกขยายถึงจะเห็น นักวิจารณ์เช่น Alex Mahadevan จาก Poynter เตือนว่า “อินเทอร์เน็ตที่เคยเต็มไปด้วยคนสร้างสรรค์กำลังถูกแทนที่ด้วย AI slop ที่สร้างเพื่อเงิน” และ Lucas Hansen จาก CivAI เสริมว่า “การลอกเลียนเสียงและภาพควรได้รับการคุ้มครอง แม้จะเป็นคนที่เสียชีวิตแล้วก็ตาม” ✅ ข้อมูลในข่าว ➡️ คลิปไว้อาลัย Charlie Kirk ใช้เสียง AI ปลอมเป็นศิลปินดัง ➡️ มี thumbnails ปลอม เช่นภาพศิลปินร้องไห้ ➡️ เนื้อเพลงสร้างจาก prompt เช่น “Your story’s written in the stars” ➡️ AI music generators อย่าง Suno สร้างเพลงจากข้อความได้ภายในวินาที ➡️ YouTube มีนโยบายให้เปิดเผยการใช้ AI แต่หลายคลิปซ่อนข้อมูลไว้ ➡️ คลิปเหล่านี้มีผู้ชมหลายล้านและคอมเมนต์ขอบคุณศิลปินที่ไม่ได้ร้องจริง ➡️ Alex Mahadevan เตือนว่าอินเทอร์เน็ตกำลังถูกแทนที่ด้วย “AI slop” ➡️ Lucas Hansen เสนอให้คุ้มครองเสียงและภาพของบุคคล แม้จะเสียชีวิตแล้ว ➡️ The Velvet Sundown วง AI บน Spotify มีผู้ฟังเกิน 200,000 คน ➡️ Suno เสนอ prompt เช่น “เพลงแจ๊สเกี่ยวกับรดน้ำต้นไม้” https://www.thestar.com.my/tech/tech-news/2025/10/17/youtube-users-trip-over-fake-ai-tributes-to-charlie-kirk
    WWW.THESTAR.COM.MY
    YouTube users trip over fake AI tributes to Charlie Kirk
    Rapidly evolving artificial intelligence tools can now create songs from simple text prompts, mimicking the voices of celebrity artists to produce tributes or entire performances on demand, often without their knowledge or consent.
    0 Comments 0 Shares 196 Views 0 Reviews
  • “Unkey ลาออกจาก Serverless” — เมื่อความเร็วและความเรียบง่ายสำคัญกว่าแนวคิดไร้เซิร์ฟเวอร์

    หลังจากใช้ Cloudflare Workers มานานกว่า 2 ปี Unkey ตัดสินใจย้ายระบบ API authentication ทั้งหมดไปใช้ Go servers แบบ stateful โดยให้เหตุผลว่า serverless แม้จะดูดีในแง่การกระจายโหลดและต้นทุน แต่กลับสร้าง “ภาษีความซับซ้อน” ที่ทำให้ทีมต้องสร้าง workaround มากมายเพื่อให้ระบบทำงานได้เร็วและเสถียร

    ปัญหาหลักคือ latency ที่ไม่สามารถลดต่ำกว่า 30ms ได้ แม้จะใช้ cache หลายชั้น รวมถึงการต้องพึ่งพา SaaS หลายตัวเพื่อแก้ปัญหาที่ serverless สร้างขึ้น เช่น Redis, Queues, Durable Objects และ Logstreams ซึ่งเพิ่มทั้งความซับซ้อนและจุดล้มเหลว

    เมื่อย้ายมาใช้ Go servers ทีมสามารถลด latency ได้ถึง 6 เท่า และตัดทิ้งระบบ pipeline ที่ซับซ้อน เช่น chproxy และ logdrain workers โดยใช้การ batch ข้อมูลใน memory แบบง่าย ๆ แทน

    นอกจากนี้ยังได้ประโยชน์ด้าน self-hosting, การพัฒนาในเครื่อง, และการหลุดพ้นจากข้อจำกัดของ Cloudflare runtime โดยยังคงใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลดและ autoscaling

    ข้อมูลในข่าว
    Unkey ย้ายจาก Cloudflare Workers ไปใช้ Go servers แบบ stateful
    ลด latency ได้ถึง 6 เท่า จากเดิมที่ติดอยู่ที่ 30ms+
    ปัญหาหลักคือการ cache ที่ต้องพึ่ง network request เสมอ
    ใช้ cache แบบ SWR หลายชั้นแต่ยังไม่เร็วพอ
    ต้องใช้ SaaS หลายตัวเพื่อแก้ปัญหา serverless เช่น Redis, Queues, Durable Objects
    pipeline สำหรับ analytics และ logs มีความซับซ้อนสูง
    ใช้ chproxy เพื่อ buffer event ก่อนส่งเข้า ClickHouse
    ใช้ logdrain worker เพื่อจัดการ metrics และ logs ก่อนส่งเข้า Axiom
    เมื่อย้ายมา Go servers สามารถ batch ข้อมูลใน memory ได้โดยตรง
    ลดความซับซ้อนของระบบจาก distributed system เหลือแค่ application เดียว
    รองรับ self-hosting ด้วยคำสั่งง่าย ๆ เช่น docker run -p 8080:8080 unkey/api
    พัฒนาและ debug ในเครื่องได้ง่ายขึ้น
    หลุดพ้นจากข้อจำกัดของ Cloudflare runtime
    ใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลด
    เตรียมเปิดตัว “Unkey Deploy” แพลตฟอร์มสำหรับรัน Unkey ได้ทุกที่

    https://www.unkey.com/blog/serverless-exit
    🚪 “Unkey ลาออกจาก Serverless” — เมื่อความเร็วและความเรียบง่ายสำคัญกว่าแนวคิดไร้เซิร์ฟเวอร์ หลังจากใช้ Cloudflare Workers มานานกว่า 2 ปี Unkey ตัดสินใจย้ายระบบ API authentication ทั้งหมดไปใช้ Go servers แบบ stateful โดยให้เหตุผลว่า serverless แม้จะดูดีในแง่การกระจายโหลดและต้นทุน แต่กลับสร้าง “ภาษีความซับซ้อน” ที่ทำให้ทีมต้องสร้าง workaround มากมายเพื่อให้ระบบทำงานได้เร็วและเสถียร ปัญหาหลักคือ latency ที่ไม่สามารถลดต่ำกว่า 30ms ได้ แม้จะใช้ cache หลายชั้น รวมถึงการต้องพึ่งพา SaaS หลายตัวเพื่อแก้ปัญหาที่ serverless สร้างขึ้น เช่น Redis, Queues, Durable Objects และ Logstreams ซึ่งเพิ่มทั้งความซับซ้อนและจุดล้มเหลว เมื่อย้ายมาใช้ Go servers ทีมสามารถลด latency ได้ถึง 6 เท่า และตัดทิ้งระบบ pipeline ที่ซับซ้อน เช่น chproxy และ logdrain workers โดยใช้การ batch ข้อมูลใน memory แบบง่าย ๆ แทน นอกจากนี้ยังได้ประโยชน์ด้าน self-hosting, การพัฒนาในเครื่อง, และการหลุดพ้นจากข้อจำกัดของ Cloudflare runtime โดยยังคงใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลดและ autoscaling ✅ ข้อมูลในข่าว ➡️ Unkey ย้ายจาก Cloudflare Workers ไปใช้ Go servers แบบ stateful ➡️ ลด latency ได้ถึง 6 เท่า จากเดิมที่ติดอยู่ที่ 30ms+ ➡️ ปัญหาหลักคือการ cache ที่ต้องพึ่ง network request เสมอ ➡️ ใช้ cache แบบ SWR หลายชั้นแต่ยังไม่เร็วพอ ➡️ ต้องใช้ SaaS หลายตัวเพื่อแก้ปัญหา serverless เช่น Redis, Queues, Durable Objects ➡️ pipeline สำหรับ analytics และ logs มีความซับซ้อนสูง ➡️ ใช้ chproxy เพื่อ buffer event ก่อนส่งเข้า ClickHouse ➡️ ใช้ logdrain worker เพื่อจัดการ metrics และ logs ก่อนส่งเข้า Axiom ➡️ เมื่อย้ายมา Go servers สามารถ batch ข้อมูลใน memory ได้โดยตรง ➡️ ลดความซับซ้อนของระบบจาก distributed system เหลือแค่ application เดียว ➡️ รองรับ self-hosting ด้วยคำสั่งง่าย ๆ เช่น docker run -p 8080:8080 unkey/api ➡️ พัฒนาและ debug ในเครื่องได้ง่ายขึ้น ➡️ หลุดพ้นจากข้อจำกัดของ Cloudflare runtime ➡️ ใช้ AWS Global Accelerator และ Fargate เพื่อรักษาความสามารถในการกระจายโหลด ➡️ เตรียมเปิดตัว “Unkey Deploy” แพลตฟอร์มสำหรับรัน Unkey ได้ทุกที่ https://www.unkey.com/blog/serverless-exit
    0 Comments 0 Shares 131 Views 0 Reviews
  • “Scalable แต่เปลือง — เมื่อสตาร์ทอัพยุคใหม่สร้างระบบแบบ Google แต่มีลูกค้าแค่ 2 คน”

    Stavros เปิดบทความด้วยการเสียดสีว่า “ทุกคนเป็นวิศวกรจาก FAANG” เพราะไม่ว่าจะเป็นสตาร์ทอัพเล็กหรือใหญ่ ทุกคนดูเหมือนจะสร้างระบบแบบเดียวกัน: ใช้ AWS/GCP, มี microservices เป็นสิบ, ใช้ orchestrator ซับซ้อน, autoscaling พร้อมระบบ distributed datastore ที่อ่านข้อมูลช้าลงตามเวลาที่เขียนล่าสุด

    เขาตั้งคำถามว่า “ทำไมทุกคนถึงรีบแก้ปัญหา scalability ก่อนจะมีลูกค้าจริง?” ทั้งที่ปัญหาแรกของสตาร์ทอัพควรจะเป็น “จะอยู่รอดได้อีก 2 เดือนหรือไม่” ไม่ใช่ “จะรองรับผู้ใช้ล้านคนได้อย่างไร”

    Stavros เสนอว่าแทนที่จะสร้าง distributed monolith ที่ซับซ้อนตั้งแต่วันแรก เราควรเริ่มจาก monolith ที่มีโครงสร้างดี ใช้ module ที่แยกกันชัดเจน มี interface แบบ statically typed และใช้ type checker เพื่อควบคุมการเปลี่ยนแปลง API ได้อย่างปลอดภัย

    เขายอมรับว่าการใช้ monolith มีข้อเสีย เช่น ไม่สามารถ scale เฉพาะ module ได้ง่าย แต่ข้อดีคือความเร็ว ความเรียบง่าย และความสามารถในการเปลี่ยนแปลงแบบ atomic โดยไม่ต้อง version API หรือ debug payload ที่ซับซ้อน

    สตาร์ทอัพยุคใหม่มักสร้างระบบแบบ FAANG โดยไม่จำเป็น
    ใช้ microservices, distributed datastore, autoscaling ตั้งแต่วันแรก

    ปัญหาแรกของสตาร์ทอัพควรเป็น “การอยู่รอด” ไม่ใช่ “scalability”
    แต่ scalability ง่ายกว่าและดูเท่กว่าในเรซูเม่

    ระบบที่ซับซ้อนมีต้นทุนสูง ทั้งด้านเงินและเวลา
    โดยเฉพาะเมื่อยังไม่มีผู้ใช้จริง

    Stavros เสนอให้ใช้ monolith ที่มี module แยกกันชัดเจน
    ใช้ interface แบบ statically typed และ type checker

    ข้อดีของ monolith คือความเร็วและความสามารถในการเปลี่ยน API ได้ทันที
    ไม่ต้อง version endpoint หรือ debug dict ซับซ้อน

    การใช้ monorepo ไม่จำเป็น แต่ช่วยให้ deploy แบบ atomic ได้ง่าย
    เป็น trade-off ที่แต่ละทีมต้องตัดสินใจเอง

    การสร้างระบบซับซ้อนตั้งแต่ต้นอาจทำให้สตาร์ทอัพล้มก่อนจะมีผู้ใช้จริง
    เพราะใช้ทรัพยากรไปกับสิ่งที่ยังไม่จำเป็น

    การออกแบบเพื่อ “เรซูเม่” มากกว่าความต้องการจริงของธุรกิจ
    ทำให้ระบบเต็มไปด้วยเทคโนโลยีที่ไม่ก่อให้เกิดรายได้

    การใช้ distributed architecture โดยไม่จำเป็น
    ทำให้เกิดความซับซ้อนที่ไม่คุ้มค่าในระยะเริ่มต้น

    การหลีกเลี่ยง monolith เพราะกลัว “ball of yarn”
    อาจทำให้พลาดโอกาสในการสร้างระบบที่เร็วและง่ายต่อการดูแล

    https://www.stavros.io/posts/why-is-everything-so-scalable/
    🧱 “Scalable แต่เปลือง — เมื่อสตาร์ทอัพยุคใหม่สร้างระบบแบบ Google แต่มีลูกค้าแค่ 2 คน” Stavros เปิดบทความด้วยการเสียดสีว่า “ทุกคนเป็นวิศวกรจาก FAANG” เพราะไม่ว่าจะเป็นสตาร์ทอัพเล็กหรือใหญ่ ทุกคนดูเหมือนจะสร้างระบบแบบเดียวกัน: ใช้ AWS/GCP, มี microservices เป็นสิบ, ใช้ orchestrator ซับซ้อน, autoscaling พร้อมระบบ distributed datastore ที่อ่านข้อมูลช้าลงตามเวลาที่เขียนล่าสุด เขาตั้งคำถามว่า “ทำไมทุกคนถึงรีบแก้ปัญหา scalability ก่อนจะมีลูกค้าจริง?” ทั้งที่ปัญหาแรกของสตาร์ทอัพควรจะเป็น “จะอยู่รอดได้อีก 2 เดือนหรือไม่” ไม่ใช่ “จะรองรับผู้ใช้ล้านคนได้อย่างไร” Stavros เสนอว่าแทนที่จะสร้าง distributed monolith ที่ซับซ้อนตั้งแต่วันแรก เราควรเริ่มจาก monolith ที่มีโครงสร้างดี ใช้ module ที่แยกกันชัดเจน มี interface แบบ statically typed และใช้ type checker เพื่อควบคุมการเปลี่ยนแปลง API ได้อย่างปลอดภัย เขายอมรับว่าการใช้ monolith มีข้อเสีย เช่น ไม่สามารถ scale เฉพาะ module ได้ง่าย แต่ข้อดีคือความเร็ว ความเรียบง่าย และความสามารถในการเปลี่ยนแปลงแบบ atomic โดยไม่ต้อง version API หรือ debug payload ที่ซับซ้อน ✅ สตาร์ทอัพยุคใหม่มักสร้างระบบแบบ FAANG โดยไม่จำเป็น ➡️ ใช้ microservices, distributed datastore, autoscaling ตั้งแต่วันแรก ✅ ปัญหาแรกของสตาร์ทอัพควรเป็น “การอยู่รอด” ไม่ใช่ “scalability” ➡️ แต่ scalability ง่ายกว่าและดูเท่กว่าในเรซูเม่ ✅ ระบบที่ซับซ้อนมีต้นทุนสูง ทั้งด้านเงินและเวลา ➡️ โดยเฉพาะเมื่อยังไม่มีผู้ใช้จริง ✅ Stavros เสนอให้ใช้ monolith ที่มี module แยกกันชัดเจน ➡️ ใช้ interface แบบ statically typed และ type checker ✅ ข้อดีของ monolith คือความเร็วและความสามารถในการเปลี่ยน API ได้ทันที ➡️ ไม่ต้อง version endpoint หรือ debug dict ซับซ้อน ✅ การใช้ monorepo ไม่จำเป็น แต่ช่วยให้ deploy แบบ atomic ได้ง่าย ➡️ เป็น trade-off ที่แต่ละทีมต้องตัดสินใจเอง ‼️ การสร้างระบบซับซ้อนตั้งแต่ต้นอาจทำให้สตาร์ทอัพล้มก่อนจะมีผู้ใช้จริง ⛔ เพราะใช้ทรัพยากรไปกับสิ่งที่ยังไม่จำเป็น ‼️ การออกแบบเพื่อ “เรซูเม่” มากกว่าความต้องการจริงของธุรกิจ ⛔ ทำให้ระบบเต็มไปด้วยเทคโนโลยีที่ไม่ก่อให้เกิดรายได้ ‼️ การใช้ distributed architecture โดยไม่จำเป็น ⛔ ทำให้เกิดความซับซ้อนที่ไม่คุ้มค่าในระยะเริ่มต้น ‼️ การหลีกเลี่ยง monolith เพราะกลัว “ball of yarn” ⛔ อาจทำให้พลาดโอกาสในการสร้างระบบที่เร็วและง่ายต่อการดูแล https://www.stavros.io/posts/why-is-everything-so-scalable/
    0 Comments 0 Shares 167 Views 0 Reviews
  • “Firefox 144 มาแล้ว! ปรับปรุง PiP, เสริมความปลอดภัย และเพิ่มฟีเจอร์ใหม่เพียบทั้งบนเว็บและมือถือ”

    Mozilla ได้ปล่อย Firefox 144 อย่างเป็นทางการเมื่อวันที่ 13 ตุลาคม 2025 โดยมาพร้อมฟีเจอร์ใหม่ที่น่าสนใจทั้งด้านความสะดวกในการใช้งาน ความปลอดภัย และการสนับสนุนนักพัฒนาเว็บ โดยเฉพาะการปรับปรุงฟีเจอร์ Picture-in-Picture (PiP) ที่ให้ผู้ใช้สามารถปิดหน้าต่างวิดีโอแบบลอยได้โดยไม่หยุดเล่นวิดีโอ ด้วยการกด Shift + Click หรือ Shift + Esc

    นอกจากนี้ Firefox 144 ยังอัปเดตปุ่ม Firefox Account บนแถบเครื่องมือให้แสดงคำว่า “Sign In” ชัดเจนขึ้น และปรับปรุงระบบเข้ารหัสรหัสผ่านใน Password Manager จาก 3DES-CBC เป็น AES-256-CBC เพื่อความปลอดภัยที่ทันสมัยยิ่งขึ้น

    สำหรับผู้ใช้ Android จะเห็นแบนเนอร์แปลภาษาใหม่ และมีการลบตัวเลือก “Allow screenshots in private browsing” ออกไป ส่วนผู้ใช้ Windows จะเห็นการเปลี่ยนแปลงพฤติกรรมของการเปิดลิงก์จากแอปอื่นให้เปิดใน virtual desktop เดียวกัน

    ปล่อย Firefox 144 อย่างเป็นทางการเมื่อ 13 ตุลาคม 2025
    พร้อม Firefox 140.4 และ 115.29.0 ESR

    ปรับปรุง Picture-in-Picture (PiP)
    ปิดหน้าต่าง PiP โดยไม่หยุดวิดีโอด้วย Shift + Click หรือ Shift + Esc

    ปรับปรุงปุ่ม Firefox Account บน toolbar
    แสดงคำว่า “Sign In” ถัดจากไอคอน

    เสริมความปลอดภัยใน Password Manager
    เปลี่ยนการเข้ารหัสจาก 3DES-CBC เป็น AES-256-CBC

    สำหรับ Android:
    เพิ่มแบนเนอร์แปลภาษา
    ลบตัวเลือก “Allow screenshots in private browsing”

    สำหรับ Windows:
    เปิดลิงก์จากแอปอื่นใน virtual desktop เดียวกัน

    สำหรับนักพัฒนาเว็บ:
    รองรับ Element.moveBefore API
    รองรับ math-shift compact
    รองรับ PerformanceEventTiming.interactionId
    รองรับ command และ commandfor attributes
    รองรับ View Transition API Level 1
    รองรับ resizeMode ใน getUserMedia
    รองรับ worker transfer สำหรับ RTCDataChannel
    รองรับ upsert proposal (getOrInsert, getOrInsertComputed)
    รองรับ WebGPU GPUDevice.importExternalTexture (Windows)
    รองรับ lock() และ unlock() ของ ScreenOrientation (Windows/Android)
    รองรับ dithering สำหรับ gradients บน WebRender
    เพิ่ม batch-encoding path ให้ VideoEncoder ใน WebCodecs (Windows)
    ปรับปรุง tooltip ใน Inspector ให้แสดง badge สำหรับ custom events

    https://9to5linux.com/firefox-144-is-now-available-for-download-this-is-whats-new
    🦊 “Firefox 144 มาแล้ว! ปรับปรุง PiP, เสริมความปลอดภัย และเพิ่มฟีเจอร์ใหม่เพียบทั้งบนเว็บและมือถือ” Mozilla ได้ปล่อย Firefox 144 อย่างเป็นทางการเมื่อวันที่ 13 ตุลาคม 2025 โดยมาพร้อมฟีเจอร์ใหม่ที่น่าสนใจทั้งด้านความสะดวกในการใช้งาน ความปลอดภัย และการสนับสนุนนักพัฒนาเว็บ โดยเฉพาะการปรับปรุงฟีเจอร์ Picture-in-Picture (PiP) ที่ให้ผู้ใช้สามารถปิดหน้าต่างวิดีโอแบบลอยได้โดยไม่หยุดเล่นวิดีโอ ด้วยการกด Shift + Click หรือ Shift + Esc นอกจากนี้ Firefox 144 ยังอัปเดตปุ่ม Firefox Account บนแถบเครื่องมือให้แสดงคำว่า “Sign In” ชัดเจนขึ้น และปรับปรุงระบบเข้ารหัสรหัสผ่านใน Password Manager จาก 3DES-CBC เป็น AES-256-CBC เพื่อความปลอดภัยที่ทันสมัยยิ่งขึ้น สำหรับผู้ใช้ Android จะเห็นแบนเนอร์แปลภาษาใหม่ และมีการลบตัวเลือก “Allow screenshots in private browsing” ออกไป ส่วนผู้ใช้ Windows จะเห็นการเปลี่ยนแปลงพฤติกรรมของการเปิดลิงก์จากแอปอื่นให้เปิดใน virtual desktop เดียวกัน ✅ ปล่อย Firefox 144 อย่างเป็นทางการเมื่อ 13 ตุลาคม 2025 ➡️ พร้อม Firefox 140.4 และ 115.29.0 ESR ✅ ปรับปรุง Picture-in-Picture (PiP) ➡️ ปิดหน้าต่าง PiP โดยไม่หยุดวิดีโอด้วย Shift + Click หรือ Shift + Esc ✅ ปรับปรุงปุ่ม Firefox Account บน toolbar ➡️ แสดงคำว่า “Sign In” ถัดจากไอคอน ✅ เสริมความปลอดภัยใน Password Manager ➡️ เปลี่ยนการเข้ารหัสจาก 3DES-CBC เป็น AES-256-CBC ✅ สำหรับ Android: ➡️ เพิ่มแบนเนอร์แปลภาษา ➡️ ลบตัวเลือก “Allow screenshots in private browsing” ✅ สำหรับ Windows: ➡️ เปิดลิงก์จากแอปอื่นใน virtual desktop เดียวกัน ✅ สำหรับนักพัฒนาเว็บ: ➡️ รองรับ Element.moveBefore API ➡️ รองรับ math-shift compact ➡️ รองรับ PerformanceEventTiming.interactionId ➡️ รองรับ command และ commandfor attributes ➡️ รองรับ View Transition API Level 1 ➡️ รองรับ resizeMode ใน getUserMedia ➡️ รองรับ worker transfer สำหรับ RTCDataChannel ➡️ รองรับ upsert proposal (getOrInsert, getOrInsertComputed) ➡️ รองรับ WebGPU GPUDevice.importExternalTexture (Windows) ➡️ รองรับ lock() และ unlock() ของ ScreenOrientation (Windows/Android) ➡️ รองรับ dithering สำหรับ gradients บน WebRender ➡️ เพิ่ม batch-encoding path ให้ VideoEncoder ใน WebCodecs (Windows) ➡️ ปรับปรุง tooltip ใน Inspector ให้แสดง badge สำหรับ custom events https://9to5linux.com/firefox-144-is-now-available-for-download-this-is-whats-new
    9TO5LINUX.COM
    Firefox 144 Is Now Available for Download, This Is What’s New - 9to5Linux
    Firefox 144 open-source web browser is now available for download with various new features and improvements. Here's what's new!
    0 Comments 0 Shares 226 Views 0 Reviews
  • “Datastar — เฟรมเวิร์กใหม่ที่พลิกโฉมการสร้างเว็บแบบเรียลไทม์ ด้วยไฟล์เดียวและไม่ต้องใช้ JavaScript”

    ลองนึกภาพว่าคุณสามารถสร้างเว็บแอปแบบเรียลไทม์ที่ตอบสนองไว ใช้งานง่าย และไม่ต้องพึ่งพา JavaScript ฝั่งผู้ใช้เลย — นั่นคือสิ่งที่ Datastar เสนอให้กับนักพัฒนาในยุคที่หลายคนเริ่มเบื่อกับความซับซ้อนของ SPA (Single Page Application)

    Datastar เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB ที่ช่วยให้คุณสร้างเว็บตั้งแต่หน้าเว็บธรรมดาไปจนถึงแอปแบบ collaborative ที่ทำงานแบบเรียลไทม์ โดยใช้แนวคิด “hypermedia-driven frontend” ซึ่งหมายถึงการควบคุม DOM และ state จากฝั่ง backend ผ่าน HTML attributes เช่น data-on-click="@get('/endpoint')" โดยไม่ต้องเขียน JavaScript ฝั่งผู้ใช้เลย

    เฟรมเวิร์กนี้รองรับการส่งข้อมูลแบบ HTML ปกติและแบบ event-stream (SSE) ทำให้สามารถอัปเดต DOM แบบเรียลไทม์ได้ง่าย และยังสามารถใช้ backend ภาษาใดก็ได้ เช่น Go, Python, Rust หรือ Node.js โดยมี SDK รองรับ

    นักพัฒนาหลายคนที่เคยใช้ React, htmx หรือ Alpine.js ต่างพูดเป็นเสียงเดียวกันว่า Datastar ช่วยลดความซับซ้อนของ frontend ได้อย่างมาก และทำให้พวกเขากลับมาโฟกัสกับการแก้ปัญหาทางธุรกิจแทนที่จะต้องมานั่งจัดการกับ state และ virtual DOM

    จุดเด่นของ Datastar
    เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB
    รองรับการสร้างเว็บแบบเรียลไทม์โดยไม่ต้องใช้ JavaScript ฝั่งผู้ใช้
    ใช้แนวคิด hypermedia-driven frontend ควบคุม DOM ผ่าน HTML attributes

    การทำงานแบบเรียลไทม์
    รองรับการส่งข้อมูลแบบ text/html และ text/event-stream (SSE)
    สามารถอัปเดต DOM จาก backend ได้ทันที
    ใช้คำสั่งเช่น PatchElements() เพื่อเปลี่ยนแปลง DOM แบบสดๆ

    ความยืดหยุ่นของ backend
    สามารถใช้ภาษาใดก็ได้ในการเขียน backend เช่น Go, Python, Rust
    มี SDK รองรับหลายภาษา
    ไม่จำกัดเทคโนโลยีฝั่งเซิร์ฟเวอร์

    ความเห็นจากนักพัฒนา
    ลดความซับซ้อนจาก SPA และ virtual DOM
    ใช้งานง่ายกว่า htmx หรือ Alpine.js
    เหมาะกับแอปที่ต้องการความเร็วและความเสถียร

    ข้อมูลเสริมจากภายนอก
    SSE (Server-Sent Events) เป็นเทคโนโลยีที่ใช้ส่งข้อมูลจากเซิร์ฟเวอร์ไปยัง client แบบต่อเนื่อง โดยไม่ต้องเปิด WebSocket
    Hypermedia-driven frontend เป็นแนวคิดที่ใช้ข้อมูลจาก backend ควบคุม UI โดยตรง ผ่าน HTML attributes
    การไม่ใช้ JavaScript ฝั่งผู้ใช้ช่วยลดปัญหาเรื่อง bundle size, security และ performance

    https://data-star.dev/
    ⭐ “Datastar — เฟรมเวิร์กใหม่ที่พลิกโฉมการสร้างเว็บแบบเรียลไทม์ ด้วยไฟล์เดียวและไม่ต้องใช้ JavaScript” ลองนึกภาพว่าคุณสามารถสร้างเว็บแอปแบบเรียลไทม์ที่ตอบสนองไว ใช้งานง่าย และไม่ต้องพึ่งพา JavaScript ฝั่งผู้ใช้เลย — นั่นคือสิ่งที่ Datastar เสนอให้กับนักพัฒนาในยุคที่หลายคนเริ่มเบื่อกับความซับซ้อนของ SPA (Single Page Application) Datastar เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB ที่ช่วยให้คุณสร้างเว็บตั้งแต่หน้าเว็บธรรมดาไปจนถึงแอปแบบ collaborative ที่ทำงานแบบเรียลไทม์ โดยใช้แนวคิด “hypermedia-driven frontend” ซึ่งหมายถึงการควบคุม DOM และ state จากฝั่ง backend ผ่าน HTML attributes เช่น data-on-click="@get('/endpoint')" โดยไม่ต้องเขียน JavaScript ฝั่งผู้ใช้เลย เฟรมเวิร์กนี้รองรับการส่งข้อมูลแบบ HTML ปกติและแบบ event-stream (SSE) ทำให้สามารถอัปเดต DOM แบบเรียลไทม์ได้ง่าย และยังสามารถใช้ backend ภาษาใดก็ได้ เช่น Go, Python, Rust หรือ Node.js โดยมี SDK รองรับ นักพัฒนาหลายคนที่เคยใช้ React, htmx หรือ Alpine.js ต่างพูดเป็นเสียงเดียวกันว่า Datastar ช่วยลดความซับซ้อนของ frontend ได้อย่างมาก และทำให้พวกเขากลับมาโฟกัสกับการแก้ปัญหาทางธุรกิจแทนที่จะต้องมานั่งจัดการกับ state และ virtual DOM ✅ จุดเด่นของ Datastar ➡️ เป็นเฟรมเวิร์กน้ำหนักเบาเพียง 10.75 KiB ➡️ รองรับการสร้างเว็บแบบเรียลไทม์โดยไม่ต้องใช้ JavaScript ฝั่งผู้ใช้ ➡️ ใช้แนวคิด hypermedia-driven frontend ควบคุม DOM ผ่าน HTML attributes ✅ การทำงานแบบเรียลไทม์ ➡️ รองรับการส่งข้อมูลแบบ text/html และ text/event-stream (SSE) ➡️ สามารถอัปเดต DOM จาก backend ได้ทันที ➡️ ใช้คำสั่งเช่น PatchElements() เพื่อเปลี่ยนแปลง DOM แบบสดๆ ✅ ความยืดหยุ่นของ backend ➡️ สามารถใช้ภาษาใดก็ได้ในการเขียน backend เช่น Go, Python, Rust ➡️ มี SDK รองรับหลายภาษา ➡️ ไม่จำกัดเทคโนโลยีฝั่งเซิร์ฟเวอร์ ✅ ความเห็นจากนักพัฒนา ➡️ ลดความซับซ้อนจาก SPA และ virtual DOM ➡️ ใช้งานง่ายกว่า htmx หรือ Alpine.js ➡️ เหมาะกับแอปที่ต้องการความเร็วและความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ SSE (Server-Sent Events) เป็นเทคโนโลยีที่ใช้ส่งข้อมูลจากเซิร์ฟเวอร์ไปยัง client แบบต่อเนื่อง โดยไม่ต้องเปิด WebSocket ➡️ Hypermedia-driven frontend เป็นแนวคิดที่ใช้ข้อมูลจาก backend ควบคุม UI โดยตรง ผ่าน HTML attributes ➡️ การไม่ใช้ JavaScript ฝั่งผู้ใช้ช่วยลดปัญหาเรื่อง bundle size, security และ performance https://data-star.dev/
    DATA-STAR.DEV
    Datastar
    The hypermedia framework.
    0 Comments 0 Shares 189 Views 0 Reviews
  • หัวข้อข่าว: <output> แท็กที่ถูกลืมใน HTML แต่ทรงพลังเกินคาด — ตัวช่วยใหม่เพื่อการเข้าถึงที่แท้จริง

    ลองนึกถึงแท็ก HTML ที่สามารถแสดงผลลัพธ์แบบไดนามิก พร้อมรองรับการเข้าถึง (accessibility) โดยไม่ต้องเขียน ARIA เพิ่มเติม — นั่นคือ <output> แท็กที่อยู่ในสเปก HTML มาตั้งแต่ปี 2008 แต่แทบไม่มีใครพูดถึง

    Den Odell ผู้เขียนบทความนี้เล่าว่าเขาค้นพบแท็ก <output> ขณะทำโปรเจกต์ด้าน accessibility ที่ต้องแสดงคะแนนความเสี่ยงแบบเรียลไทม์ให้ผู้ใช้เห็นและ “ได้ยิน” ผ่าน screen reader เดิมทีเขาใช้ ARIA live region ซึ่งทำงานได้ แต่รู้สึกว่าเป็นการ “แปะ” แก้ปัญหาเฉพาะหน้า จนกระทั่งเขาพบว่า <output> ถูกออกแบบมาเพื่อสิ่งนี้โดยเฉพาะ

    แท็ก <output> จะประกาศค่าที่เปลี่ยนแปลงให้ screen reader โดยอัตโนมัติ โดยไม่รบกวนผู้ใช้ และยังสามารถเชื่อมโยงกับ <input> ได้ด้วย attribute for="" เพื่อระบุว่า output นี้ขึ้นอยู่กับ input ตัวใด

    ตัวอย่างการใช้งานมีตั้งแต่เครื่องคิดเลข, slider ที่แสดงค่าระยะทาง, การแจ้งเตือนความแข็งแรงของรหัสผ่าน ไปจนถึงการแสดงราคาค่าขนส่งที่ดึงมาจาก API แบบเรียลไทม์

    แม้ว่า <output> จะยังมีข้อจำกัด เช่น บาง screen reader ยังไม่รองรับการอ่านค่าที่เปลี่ยนแปลงได้ดีนัก แต่ก็สามารถแก้ได้ด้วยการเพิ่ม role="status" แบบชัดเจน

    สรุปเนื้อหาบทความและข้อมูลเสริม
    <output> คือแท็ก HTML สำหรับแสดงผลลัพธ์แบบไดนามิก
    ใช้แสดงค่าที่คำนวณหรือเกิดจากการกระทำของผู้ใช้
    ถูกแมปไปยัง role="status" ใน accessibility tree โดยอัตโนมัติ

    ความสามารถด้าน accessibility
    screen reader อ่านค่าที่เปลี่ยนแปลงโดยไม่รบกวนผู้ใช้
    อ่านค่าทั้งหมด ไม่ใช่แค่ส่วนที่เปลี่ยน

    การใช้งานร่วมกับ <input>
    ใช้ attribute for="" เพื่อเชื่อมโยงกับ input หลายตัว
    ไม่จำเป็นต้องอยู่ใน <form> ก็ใช้งานได้

    ตัวอย่างการใช้งานจริง
    เครื่องคิดเลขที่แสดงผลลัพธ์ทันที
    การแสดงค่าจาก slider เช่น “10,000 miles/year”
    การแจ้งเตือนความแข็งแรงของรหัสผ่าน
    การแสดงผลลัพธ์จาก API เช่นราคาค่าขนส่ง

    ข้อมูลเสริมจากภายนอก
    <output> อยู่ในสเปก HTML5 มาตั้งแต่ปี 2008
    รองรับในเบราว์เซอร์หลักและ screen reader ส่วนใหญ่
    ใช้งานร่วมกับ React, Vue และเฟรมเวิร์ก JavaScript อื่นได้ดี
    เป็นแท็ก inline โดยดีไซน์ สามารถจัดสไตล์ได้เหมือน <span> หรือ <div>

    คำเตือนเกี่ยวกับการใช้งาน <output>
    บาง screen reader ยังไม่รองรับการประกาศค่าที่เปลี่ยนแปลง
    ควรเพิ่ม role="status" เพื่อให้แน่ใจว่าค่าจะถูกอ่าน
    ไม่ควรใช้ <output> สำหรับการแจ้งเตือนทั่วไป เช่น toast message หรือ error message

    การกลับมาให้ความสนใจกับ <output> คือการย้ำเตือนว่า HTML ยังมีขุมทรัพย์ที่ถูกลืมซ่อนอยู่มากมาย และบางครั้งคำตอบที่ดีที่สุดก็อาจอยู่ตรงหน้าเรามานานแล้ว โดยไม่ต้องพึ่งพา JavaScript หรือ ARIA เสมอไปครับ

    https://denodell.com/blog/html-best-kept-secret-output-tag
    📰 หัวข้อข่าว: <output> แท็กที่ถูกลืมใน HTML แต่ทรงพลังเกินคาด — ตัวช่วยใหม่เพื่อการเข้าถึงที่แท้จริง ลองนึกถึงแท็ก HTML ที่สามารถแสดงผลลัพธ์แบบไดนามิก พร้อมรองรับการเข้าถึง (accessibility) โดยไม่ต้องเขียน ARIA เพิ่มเติม — นั่นคือ <output> แท็กที่อยู่ในสเปก HTML มาตั้งแต่ปี 2008 แต่แทบไม่มีใครพูดถึง Den Odell ผู้เขียนบทความนี้เล่าว่าเขาค้นพบแท็ก <output> ขณะทำโปรเจกต์ด้าน accessibility ที่ต้องแสดงคะแนนความเสี่ยงแบบเรียลไทม์ให้ผู้ใช้เห็นและ “ได้ยิน” ผ่าน screen reader เดิมทีเขาใช้ ARIA live region ซึ่งทำงานได้ แต่รู้สึกว่าเป็นการ “แปะ” แก้ปัญหาเฉพาะหน้า จนกระทั่งเขาพบว่า <output> ถูกออกแบบมาเพื่อสิ่งนี้โดยเฉพาะ แท็ก <output> จะประกาศค่าที่เปลี่ยนแปลงให้ screen reader โดยอัตโนมัติ โดยไม่รบกวนผู้ใช้ และยังสามารถเชื่อมโยงกับ <input> ได้ด้วย attribute for="" เพื่อระบุว่า output นี้ขึ้นอยู่กับ input ตัวใด ตัวอย่างการใช้งานมีตั้งแต่เครื่องคิดเลข, slider ที่แสดงค่าระยะทาง, การแจ้งเตือนความแข็งแรงของรหัสผ่าน ไปจนถึงการแสดงราคาค่าขนส่งที่ดึงมาจาก API แบบเรียลไทม์ แม้ว่า <output> จะยังมีข้อจำกัด เช่น บาง screen reader ยังไม่รองรับการอ่านค่าที่เปลี่ยนแปลงได้ดีนัก แต่ก็สามารถแก้ได้ด้วยการเพิ่ม role="status" แบบชัดเจน 📌 สรุปเนื้อหาบทความและข้อมูลเสริม ✅ <output> คือแท็ก HTML สำหรับแสดงผลลัพธ์แบบไดนามิก ➡️ ใช้แสดงค่าที่คำนวณหรือเกิดจากการกระทำของผู้ใช้ ➡️ ถูกแมปไปยัง role="status" ใน accessibility tree โดยอัตโนมัติ ✅ ความสามารถด้าน accessibility ➡️ screen reader อ่านค่าที่เปลี่ยนแปลงโดยไม่รบกวนผู้ใช้ ➡️ อ่านค่าทั้งหมด ไม่ใช่แค่ส่วนที่เปลี่ยน ✅ การใช้งานร่วมกับ <input> ➡️ ใช้ attribute for="" เพื่อเชื่อมโยงกับ input หลายตัว ➡️ ไม่จำเป็นต้องอยู่ใน <form> ก็ใช้งานได้ ✅ ตัวอย่างการใช้งานจริง ➡️ เครื่องคิดเลขที่แสดงผลลัพธ์ทันที ➡️ การแสดงค่าจาก slider เช่น “10,000 miles/year” ➡️ การแจ้งเตือนความแข็งแรงของรหัสผ่าน ➡️ การแสดงผลลัพธ์จาก API เช่นราคาค่าขนส่ง ✅ ข้อมูลเสริมจากภายนอก ➡️ <output> อยู่ในสเปก HTML5 มาตั้งแต่ปี 2008 ➡️ รองรับในเบราว์เซอร์หลักและ screen reader ส่วนใหญ่ ➡️ ใช้งานร่วมกับ React, Vue และเฟรมเวิร์ก JavaScript อื่นได้ดี ➡️ เป็นแท็ก inline โดยดีไซน์ สามารถจัดสไตล์ได้เหมือน <span> หรือ <div> ‼️ คำเตือนเกี่ยวกับการใช้งาน <output> ⛔ บาง screen reader ยังไม่รองรับการประกาศค่าที่เปลี่ยนแปลง ⛔ ควรเพิ่ม role="status" เพื่อให้แน่ใจว่าค่าจะถูกอ่าน ⛔ ไม่ควรใช้ <output> สำหรับการแจ้งเตือนทั่วไป เช่น toast message หรือ error message การกลับมาให้ความสนใจกับ <output> คือการย้ำเตือนว่า HTML ยังมีขุมทรัพย์ที่ถูกลืมซ่อนอยู่มากมาย และบางครั้งคำตอบที่ดีที่สุดก็อาจอยู่ตรงหน้าเรามานานแล้ว โดยไม่ต้องพึ่งพา JavaScript หรือ ARIA เสมอไปครับ https://denodell.com/blog/html-best-kept-secret-output-tag
    DENODELL.COM
    HTML’s Best Kept Secret: The output Tag
    Make your dynamic content accessible by default with the HTML tag that time forgot.
    0 Comments 0 Shares 132 Views 0 Reviews
  • “Raspberry Pi OS รีเบสสู่ Debian 13 ‘Trixie’ — ปรับโฉมใหม่หมด เพิ่มความยืดหยุ่น พร้อมฟีเจอร์จัดการระบบแบบรวมศูนย์”

    Raspberry Pi OS ซึ่งเป็นระบบปฏิบัติการยอดนิยมสำหรับบอร์ด Raspberry Pi ได้รับการอัปเดตครั้งใหญ่ในเดือนตุลาคม 2025 โดยรีเบสไปใช้ Debian 13 “Trixie” เป็นฐานหลัก พร้อมยังคงใช้ Linux Kernel 6.12 LTS เพื่อความเสถียรในระยะยาว การเปลี่ยนแปลงครั้งนี้ไม่เพียงแค่ปรับปรุงด้านเทคนิค แต่ยังมาพร้อมกับการออกแบบใหม่ที่ทันสมัยและฟีเจอร์จัดการระบบที่รวมศูนย์มากขึ้น

    หนึ่งในจุดเด่นของเวอร์ชันใหม่นี้คือการปรับโครงสร้างการติดตั้งแพ็กเกจให้เป็นแบบ modular ซึ่งช่วยให้ผู้ใช้สามารถปรับแต่งภาพ ISO ได้ง่ายขึ้น เช่น การแปลงจากเวอร์ชัน Lite ไปเป็น Desktop หรือกลับกัน ซึ่งไม่เคยรองรับอย่างเป็นทางการมาก่อน

    ด้านการออกแบบ UI มีการเพิ่มธีม GTK ใหม่ 2 แบบ ได้แก่ PiXtrix (โหมดสว่าง) และ PiXonyx (โหมดมืด) พร้อมไอคอนใหม่และฟอนต์ระบบ “Nunito Sans Light” ที่ให้ความรู้สึกทันสมัยมากขึ้น รวมถึงภาพพื้นหลังใหม่ที่เข้ากับธีมโดยรวม

    ระบบ taskbar ได้รับการปรับปรุงด้วย System Monitor plugin สำหรับแจ้งเตือนพลังงานและสถานะอื่น ๆ และมีการรวม Clock plugin ให้ใช้งานร่วมกันระหว่าง wf-panel-pi และ lxpanel-pi ซึ่งเป็นเวอร์ชัน fork ของ LXDE Panel ที่ตัดปลั๊กอินที่ไม่รองรับออกไป

    ที่สำคัญคือการเปิดตัว Control Centre แบบใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในที่เดียว แทนที่แอปแยกย่อยเดิม เช่น Raspberry Pi Configuration, Appearance Settings, Mouse and Keyboard Settings ฯลฯ ทำให้การจัดการระบบสะดวกขึ้นมาก

    ยังมีการเพิ่มเครื่องมือ command-line ใหม่ ได้แก่ rpi-keyboard-config และ rpi-keyboard-fw-update สำหรับปรับแต่งและอัปเดตคีย์บอร์ดโดยเฉพาะ ส่วนแอป Bookshelf ก็ได้รับการปรับปรุงให้แสดงเนื้อหาพิเศษสำหรับผู้สนับสนุน พร้อมระบบปลดล็อกผ่านการ “Contribute”

    ข้อมูลสำคัญจากข่าว
    Raspberry Pi OS รีเบสไปใช้ Debian 13 “Trixie” พร้อม Linux Kernel 6.12 LTS
    ปรับโครงสร้างแพ็กเกจให้เป็นแบบ modular เพื่อความยืดหยุ่นในการติดตั้ง
    เพิ่มธีม GTK ใหม่ 2 แบบ: PiXtrix และ PiXonyx พร้อมไอคอนและฟอนต์ใหม่
    Taskbar มี System Monitor plugin และ Clock plugin แบบรวมศูนย์
    LXDE Panel ถูก fork เป็น lxpanel-pi และลบปลั๊กอินที่ไม่รองรับ
    เปิดตัว Control Centre ใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในแอปเดียว
    เพิ่มเครื่องมือ command-line: rpi-keyboard-config และ rpi-keyboard-fw-update
    แอป Bookshelf แสดงเนื้อหาพิเศษพร้อมระบบปลดล็อกผ่านการสนับสนุน
    รองรับ Raspberry Pi ทุกรุ่น ตั้งแต่ 1A+ ถึง CM4 และ Zero 2 W
    ผู้ใช้สามารถอัปเดตผ่านคำสั่ง sudo apt update && sudo apt full-upgrade

    ข้อมูลเสริมจากภายนอก
    Debian 13 “Trixie” มาพร้อมการปรับปรุงด้านความปลอดภัยและการรองรับฮาร์ดแวร์ใหม่
    Modular package layout ช่วยให้การสร้าง image แบบ custom ง่ายขึ้นมาก
    ฟอนต์ Nunito Sans Light เป็นฟอนต์แบบ open-source ที่เน้นความอ่านง่าย
    Control Centre แบบรวมศูนย์เป็นแนวทางที่นิยมในระบบ desktop สมัยใหม่ เช่น GNOME และ KDE
    การ fork lxpanel ช่วยให้ทีม Raspberry Pi สามารถควบคุมการพัฒนาได้เต็มที่

    https://9to5linux.com/raspberry-pi-os-is-now-based-on-debian-13-trixie-with-fresh-new-look
    🍓 “Raspberry Pi OS รีเบสสู่ Debian 13 ‘Trixie’ — ปรับโฉมใหม่หมด เพิ่มความยืดหยุ่น พร้อมฟีเจอร์จัดการระบบแบบรวมศูนย์” Raspberry Pi OS ซึ่งเป็นระบบปฏิบัติการยอดนิยมสำหรับบอร์ด Raspberry Pi ได้รับการอัปเดตครั้งใหญ่ในเดือนตุลาคม 2025 โดยรีเบสไปใช้ Debian 13 “Trixie” เป็นฐานหลัก พร้อมยังคงใช้ Linux Kernel 6.12 LTS เพื่อความเสถียรในระยะยาว การเปลี่ยนแปลงครั้งนี้ไม่เพียงแค่ปรับปรุงด้านเทคนิค แต่ยังมาพร้อมกับการออกแบบใหม่ที่ทันสมัยและฟีเจอร์จัดการระบบที่รวมศูนย์มากขึ้น หนึ่งในจุดเด่นของเวอร์ชันใหม่นี้คือการปรับโครงสร้างการติดตั้งแพ็กเกจให้เป็นแบบ modular ซึ่งช่วยให้ผู้ใช้สามารถปรับแต่งภาพ ISO ได้ง่ายขึ้น เช่น การแปลงจากเวอร์ชัน Lite ไปเป็น Desktop หรือกลับกัน ซึ่งไม่เคยรองรับอย่างเป็นทางการมาก่อน ด้านการออกแบบ UI มีการเพิ่มธีม GTK ใหม่ 2 แบบ ได้แก่ PiXtrix (โหมดสว่าง) และ PiXonyx (โหมดมืด) พร้อมไอคอนใหม่และฟอนต์ระบบ “Nunito Sans Light” ที่ให้ความรู้สึกทันสมัยมากขึ้น รวมถึงภาพพื้นหลังใหม่ที่เข้ากับธีมโดยรวม ระบบ taskbar ได้รับการปรับปรุงด้วย System Monitor plugin สำหรับแจ้งเตือนพลังงานและสถานะอื่น ๆ และมีการรวม Clock plugin ให้ใช้งานร่วมกันระหว่าง wf-panel-pi และ lxpanel-pi ซึ่งเป็นเวอร์ชัน fork ของ LXDE Panel ที่ตัดปลั๊กอินที่ไม่รองรับออกไป ที่สำคัญคือการเปิดตัว Control Centre แบบใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในที่เดียว แทนที่แอปแยกย่อยเดิม เช่น Raspberry Pi Configuration, Appearance Settings, Mouse and Keyboard Settings ฯลฯ ทำให้การจัดการระบบสะดวกขึ้นมาก ยังมีการเพิ่มเครื่องมือ command-line ใหม่ ได้แก่ rpi-keyboard-config และ rpi-keyboard-fw-update สำหรับปรับแต่งและอัปเดตคีย์บอร์ดโดยเฉพาะ ส่วนแอป Bookshelf ก็ได้รับการปรับปรุงให้แสดงเนื้อหาพิเศษสำหรับผู้สนับสนุน พร้อมระบบปลดล็อกผ่านการ “Contribute” ✅ ข้อมูลสำคัญจากข่าว ➡️ Raspberry Pi OS รีเบสไปใช้ Debian 13 “Trixie” พร้อม Linux Kernel 6.12 LTS ➡️ ปรับโครงสร้างแพ็กเกจให้เป็นแบบ modular เพื่อความยืดหยุ่นในการติดตั้ง ➡️ เพิ่มธีม GTK ใหม่ 2 แบบ: PiXtrix และ PiXonyx พร้อมไอคอนและฟอนต์ใหม่ ➡️ Taskbar มี System Monitor plugin และ Clock plugin แบบรวมศูนย์ ➡️ LXDE Panel ถูก fork เป็น lxpanel-pi และลบปลั๊กอินที่ไม่รองรับ ➡️ เปิดตัว Control Centre ใหม่ที่รวมการตั้งค่าทั้งหมดไว้ในแอปเดียว ➡️ เพิ่มเครื่องมือ command-line: rpi-keyboard-config และ rpi-keyboard-fw-update ➡️ แอป Bookshelf แสดงเนื้อหาพิเศษพร้อมระบบปลดล็อกผ่านการสนับสนุน ➡️ รองรับ Raspberry Pi ทุกรุ่น ตั้งแต่ 1A+ ถึง CM4 และ Zero 2 W ➡️ ผู้ใช้สามารถอัปเดตผ่านคำสั่ง sudo apt update && sudo apt full-upgrade ✅ ข้อมูลเสริมจากภายนอก ➡️ Debian 13 “Trixie” มาพร้อมการปรับปรุงด้านความปลอดภัยและการรองรับฮาร์ดแวร์ใหม่ ➡️ Modular package layout ช่วยให้การสร้าง image แบบ custom ง่ายขึ้นมาก ➡️ ฟอนต์ Nunito Sans Light เป็นฟอนต์แบบ open-source ที่เน้นความอ่านง่าย ➡️ Control Centre แบบรวมศูนย์เป็นแนวทางที่นิยมในระบบ desktop สมัยใหม่ เช่น GNOME และ KDE ➡️ การ fork lxpanel ช่วยให้ทีม Raspberry Pi สามารถควบคุมการพัฒนาได้เต็มที่ https://9to5linux.com/raspberry-pi-os-is-now-based-on-debian-13-trixie-with-fresh-new-look
    9TO5LINUX.COM
    Raspberry Pi OS Is Now Based on Debian 13 "Trixie" with Fresh New Look - 9to5Linux
    Raspberry Pi OS 2025-10-01 is now available for download with based on Debian 13 "Trixie" and featuring new GTK and icon themes.
    0 Comments 0 Shares 318 Views 0 Reviews
  • “Stanford เปิดตัว Megakernel สำหรับ Llama-70B — ใช้ GPU เต็มประสิทธิภาพ แซง SGLang ไปกว่า 22%”

    ทีมนักวิจัยจาก Hazy Research แห่งมหาวิทยาลัย Stanford ได้เปิดตัว “Megakernel” สำหรับการ inference โมเดล Llama-70B โดยใช้ GPU H100 แบบเต็มประสิทธิภาพ ซึ่งสามารถแซงระบบยอดนิยมอย่าง SGLang ได้ถึง 22% ในการทดสอบชุดคำสั่งจาก ShareGPT

    แนวคิดหลักคือการรวมการประมวลผลทั้งหมดของโมเดลไว้ใน “megakernel” เดียว แทนที่จะใช้หลาย kernel แบบเดิม ซึ่งมักมีช่วงเวลาที่ GPU ว่างเปล่าและไม่ได้ทำงาน ทีมงานจึงออกแบบระบบ interpreter ที่สามารถ pipeline คำสั่งต่าง ๆ ได้อย่างต่อเนื่อง ทั้งในระดับ SM (Streaming Multiprocessor), ระหว่าง SM หลายตัว และระหว่าง GPU หลายตัว

    การออกแบบนี้ช่วยให้สามารถ overlap การโหลดข้อมูล, การคำนวณ, และการสื่อสารระหว่าง GPU ได้พร้อมกัน ทำให้ใช้ทรัพยากรของ GPU ได้เต็มที่ ไม่ว่าจะเป็น tensor core, memory bandwidth หรือ NVLink

    นอกจากนี้ยังมีการปรับโครงสร้างของ Llama-70B ให้เหมาะกับการทำงานแบบ parallel โดยใช้เทคนิค “distributed transpose” แทน reduce-scatter เพื่อลดการสื่อสารระหว่าง GPU ลงถึง 8 เท่า แม้จะแลกกับการใช้หน่วยความจำเพิ่มขึ้น 9GB ต่อ GPU

    ระบบนี้ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น inference engine ที่ออกแบบมาเพื่องาน throughput สูง โดยสามารถจัดการ batch ขนาดใหญ่ได้อย่างมีประสิทธิภาพ และใช้ CPU เพียงเล็กน้อยในการจัดคิวคำสั่ง

    ผลการทดสอบแสดงให้เห็นว่า Megakernel สามารถประมวลผลคำสั่งได้เร็วกว่า SGLang อย่างชัดเจน ทั้งในด้าน input, output และ throughput รวม โดยเฉพาะเมื่อใช้ batch ขนาดใหญ่ เช่น 8,192 prompt

    ข้อมูลสำคัญจากข่าว
    Megakernel ถูกออกแบบเพื่อ inference Llama-70B บน GPU H100
    ใช้ระบบ interpreter ที่ pipeline คำสั่งได้ทั้งใน SM, ระหว่าง SM และ GPU
    ลดช่วงเวลาที่ GPU ไม่ได้ทำงาน ด้วยการ overlap การโหลด, คำนวณ และสื่อสาร
    ใช้ distributed transpose แทน reduce-scatter เพื่อลด network traffic
    เพิ่มประสิทธิภาพการทำงานแบบ data-parallel โดย replicate O-projection matrix
    Megakernel ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น engine สำหรับงาน throughput สูง
    ผลการทดสอบแสดงว่า Megakernel แซง SGLang ไปกว่า 22% ในชุดคำสั่ง ShareGPT
    ใช้ global work queue และ interleaving เพื่อจัดการคำสั่งแบบ dynamic

    ข้อมูลเสริมจากภายนอก
    SM (Streaming Multiprocessor) คือหน่วยย่อยของ GPU ที่ทำงานแบบ parallel
    NVLink เป็นเทคโนโลยีเชื่อมต่อระหว่าง GPU ที่มี bandwidth สูง
    Reduce-scatter เป็นเทคนิคการรวมข้อมูลจากหลาย GPU แต่มีค่าใช้จ่ายด้าน network
    Distributed transpose ช่วยลดการสื่อสารโดยเปลี่ยนรูปแบบการจัดข้อมูล
    Tokasaurus รองรับการทำงานแบบ tensor-parallel และ pipeline-parallel

    https://hazyresearch.stanford.edu/blog/2025-09-28-tp-llama-main
    ⚙️ “Stanford เปิดตัว Megakernel สำหรับ Llama-70B — ใช้ GPU เต็มประสิทธิภาพ แซง SGLang ไปกว่า 22%” ทีมนักวิจัยจาก Hazy Research แห่งมหาวิทยาลัย Stanford ได้เปิดตัว “Megakernel” สำหรับการ inference โมเดล Llama-70B โดยใช้ GPU H100 แบบเต็มประสิทธิภาพ ซึ่งสามารถแซงระบบยอดนิยมอย่าง SGLang ได้ถึง 22% ในการทดสอบชุดคำสั่งจาก ShareGPT แนวคิดหลักคือการรวมการประมวลผลทั้งหมดของโมเดลไว้ใน “megakernel” เดียว แทนที่จะใช้หลาย kernel แบบเดิม ซึ่งมักมีช่วงเวลาที่ GPU ว่างเปล่าและไม่ได้ทำงาน ทีมงานจึงออกแบบระบบ interpreter ที่สามารถ pipeline คำสั่งต่าง ๆ ได้อย่างต่อเนื่อง ทั้งในระดับ SM (Streaming Multiprocessor), ระหว่าง SM หลายตัว และระหว่าง GPU หลายตัว การออกแบบนี้ช่วยให้สามารถ overlap การโหลดข้อมูล, การคำนวณ, และการสื่อสารระหว่าง GPU ได้พร้อมกัน ทำให้ใช้ทรัพยากรของ GPU ได้เต็มที่ ไม่ว่าจะเป็น tensor core, memory bandwidth หรือ NVLink นอกจากนี้ยังมีการปรับโครงสร้างของ Llama-70B ให้เหมาะกับการทำงานแบบ parallel โดยใช้เทคนิค “distributed transpose” แทน reduce-scatter เพื่อลดการสื่อสารระหว่าง GPU ลงถึง 8 เท่า แม้จะแลกกับการใช้หน่วยความจำเพิ่มขึ้น 9GB ต่อ GPU ระบบนี้ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น inference engine ที่ออกแบบมาเพื่องาน throughput สูง โดยสามารถจัดการ batch ขนาดใหญ่ได้อย่างมีประสิทธิภาพ และใช้ CPU เพียงเล็กน้อยในการจัดคิวคำสั่ง ผลการทดสอบแสดงให้เห็นว่า Megakernel สามารถประมวลผลคำสั่งได้เร็วกว่า SGLang อย่างชัดเจน ทั้งในด้าน input, output และ throughput รวม โดยเฉพาะเมื่อใช้ batch ขนาดใหญ่ เช่น 8,192 prompt ✅ ข้อมูลสำคัญจากข่าว ➡️ Megakernel ถูกออกแบบเพื่อ inference Llama-70B บน GPU H100 ➡️ ใช้ระบบ interpreter ที่ pipeline คำสั่งได้ทั้งใน SM, ระหว่าง SM และ GPU ➡️ ลดช่วงเวลาที่ GPU ไม่ได้ทำงาน ด้วยการ overlap การโหลด, คำนวณ และสื่อสาร ➡️ ใช้ distributed transpose แทน reduce-scatter เพื่อลด network traffic ➡️ เพิ่มประสิทธิภาพการทำงานแบบ data-parallel โดย replicate O-projection matrix ➡️ Megakernel ถูกนำไปใช้ใน Tokasaurus ซึ่งเป็น engine สำหรับงาน throughput สูง ➡️ ผลการทดสอบแสดงว่า Megakernel แซง SGLang ไปกว่า 22% ในชุดคำสั่ง ShareGPT ➡️ ใช้ global work queue และ interleaving เพื่อจัดการคำสั่งแบบ dynamic ✅ ข้อมูลเสริมจากภายนอก ➡️ SM (Streaming Multiprocessor) คือหน่วยย่อยของ GPU ที่ทำงานแบบ parallel ➡️ NVLink เป็นเทคโนโลยีเชื่อมต่อระหว่าง GPU ที่มี bandwidth สูง ➡️ Reduce-scatter เป็นเทคนิคการรวมข้อมูลจากหลาย GPU แต่มีค่าใช้จ่ายด้าน network ➡️ Distributed transpose ช่วยลดการสื่อสารโดยเปลี่ยนรูปแบบการจัดข้อมูล ➡️ Tokasaurus รองรับการทำงานแบบ tensor-parallel และ pipeline-parallel https://hazyresearch.stanford.edu/blog/2025-09-28-tp-llama-main
    0 Comments 0 Shares 245 Views 0 Reviews
  • “ช่องโหว่ RCE ร้ายแรงใน Apache Fory’s Python Module — เมื่อการ deserialize กลายเป็นประตูหลังให้แฮกเกอร์”

    Apache Fory ซึ่งเป็นเฟรมเวิร์ก serialization แบบ multi-language ที่เน้นประสิทธิภาพสูง ได้เปิดเผยช่องโหว่ร้ายแรงในโมดูล Python ที่ชื่อว่า “pyfory” โดยช่องโหว่นี้ถูกระบุในรหัส CVE-2025-61622 และมีระดับความรุนแรง “Critical” ด้วยคะแนน CVSS สูงสุดถึง 9.8

    ช่องโหว่นี้เกิดจากการใช้ fallback serializer ที่เรียกว่า “pickle” ซึ่งเป็นกลไกใน Python สำหรับการแปลงข้อมูลให้สามารถจัดเก็บและส่งต่อได้ แต่หากนำไปใช้กับข้อมูลที่ไม่ได้รับการตรวจสอบหรือมาจากแหล่งที่ไม่เชื่อถือ ก็สามารถเปิดช่องให้แฮกเกอร์ส่งข้อมูลที่ถูกออกแบบมาเพื่อเรียกใช้ pickle.loads() ซึ่งจะนำไปสู่การรันโค้ดอันตรายจากระยะไกล (Remote Code Execution)

    ช่องโหว่นี้ส่งผลกระทบต่อ pyfory ตั้งแต่เวอร์ชัน 0.5.0 ถึง 0.12.2 โดยเฉพาะในแอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองหรือป้องกันอย่างเหมาะสม

    ทีม Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 ซึ่งได้ลบ fallback pickle serializer ออกไปโดยสิ้นเชิง เพื่อปิดช่องทางการโจมตีนี้ และแนะนำให้ผู้ใช้อัปเดตทันทีโดยไม่มีวิธีแก้ไขชั่วคราว (workaround)

    ข้อมูลสำคัญจากข่าว
    ช่องโหว่ CVE-2025-61622 เป็น Remote Code Execution (RCE) ในโมดูล pyfory ของ Apache Fory
    เกิดจากการใช้ fallback serializer แบบ pickle โดยไม่มีการป้องกัน
    ผู้โจมตีสามารถส่งข้อมูลที่บังคับให้ระบบใช้ pickle.loads() ซึ่งเปิดทางให้รันโค้ดอันตราย
    ส่งผลกระทบต่อเวอร์ชัน 0.5.0 ถึง 0.12.2 ของ pyfory
    แอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองจะเสี่ยงสูง
    Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 โดยลบ pickle fallback ออกไป
    ไม่มี workaround ชั่วคราว ต้องอัปเดตแพตช์ทันที

    ข้อมูลเสริมจากภายนอก
    pickle ใน Python เป็นเครื่องมือ serialization ที่ทรงพลังแต่มีความเสี่ยงสูง
    การใช้ pickle กับข้อมูลที่ไม่ได้รับการตรวจสอบถือเป็นแนวทางที่ไม่ปลอดภัย
    ช่องโหว่ลักษณะนี้เคยถูกใช้ในมัลแวร์และการโจมตีแบบ supply chain
    Apache Fory เป็นเฟรมเวิร์กที่ใช้ในระบบ distributed และ AI pipeline หลายแห่ง
    การลบ fallback serializer เป็นแนวทางที่ปลอดภัยที่สุดในการป้องกัน RCE

    https://securityonline.info/critical-rce-flaw-in-apache-forys-python-module-cve-2025-61622/
    🐍 “ช่องโหว่ RCE ร้ายแรงใน Apache Fory’s Python Module — เมื่อการ deserialize กลายเป็นประตูหลังให้แฮกเกอร์” Apache Fory ซึ่งเป็นเฟรมเวิร์ก serialization แบบ multi-language ที่เน้นประสิทธิภาพสูง ได้เปิดเผยช่องโหว่ร้ายแรงในโมดูล Python ที่ชื่อว่า “pyfory” โดยช่องโหว่นี้ถูกระบุในรหัส CVE-2025-61622 และมีระดับความรุนแรง “Critical” ด้วยคะแนน CVSS สูงสุดถึง 9.8 ช่องโหว่นี้เกิดจากการใช้ fallback serializer ที่เรียกว่า “pickle” ซึ่งเป็นกลไกใน Python สำหรับการแปลงข้อมูลให้สามารถจัดเก็บและส่งต่อได้ แต่หากนำไปใช้กับข้อมูลที่ไม่ได้รับการตรวจสอบหรือมาจากแหล่งที่ไม่เชื่อถือ ก็สามารถเปิดช่องให้แฮกเกอร์ส่งข้อมูลที่ถูกออกแบบมาเพื่อเรียกใช้ pickle.loads() ซึ่งจะนำไปสู่การรันโค้ดอันตรายจากระยะไกล (Remote Code Execution) ช่องโหว่นี้ส่งผลกระทบต่อ pyfory ตั้งแต่เวอร์ชัน 0.5.0 ถึง 0.12.2 โดยเฉพาะในแอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองหรือป้องกันอย่างเหมาะสม ทีม Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 ซึ่งได้ลบ fallback pickle serializer ออกไปโดยสิ้นเชิง เพื่อปิดช่องทางการโจมตีนี้ และแนะนำให้ผู้ใช้อัปเดตทันทีโดยไม่มีวิธีแก้ไขชั่วคราว (workaround) ✅ ข้อมูลสำคัญจากข่าว ➡️ ช่องโหว่ CVE-2025-61622 เป็น Remote Code Execution (RCE) ในโมดูล pyfory ของ Apache Fory ➡️ เกิดจากการใช้ fallback serializer แบบ pickle โดยไม่มีการป้องกัน ➡️ ผู้โจมตีสามารถส่งข้อมูลที่บังคับให้ระบบใช้ pickle.loads() ซึ่งเปิดทางให้รันโค้ดอันตราย ➡️ ส่งผลกระทบต่อเวอร์ชัน 0.5.0 ถึง 0.12.2 ของ pyfory ➡️ แอปพลิเคชันที่ deserialize ข้อมูลจากแหล่งภายนอกโดยไม่กรองจะเสี่ยงสูง ➡️ Apache Fory ได้ออกแพตช์ในเวอร์ชัน 0.12.3 โดยลบ pickle fallback ออกไป ➡️ ไม่มี workaround ชั่วคราว ต้องอัปเดตแพตช์ทันที ✅ ข้อมูลเสริมจากภายนอก ➡️ pickle ใน Python เป็นเครื่องมือ serialization ที่ทรงพลังแต่มีความเสี่ยงสูง ➡️ การใช้ pickle กับข้อมูลที่ไม่ได้รับการตรวจสอบถือเป็นแนวทางที่ไม่ปลอดภัย ➡️ ช่องโหว่ลักษณะนี้เคยถูกใช้ในมัลแวร์และการโจมตีแบบ supply chain ➡️ Apache Fory เป็นเฟรมเวิร์กที่ใช้ในระบบ distributed และ AI pipeline หลายแห่ง ➡️ การลบ fallback serializer เป็นแนวทางที่ปลอดภัยที่สุดในการป้องกัน RCE https://securityonline.info/critical-rce-flaw-in-apache-forys-python-module-cve-2025-61622/
    SECURITYONLINE.INFO
    Critical RCE Flaw in Apache Fory’s Python Module (CVE-2025-61622)
    Apache Fory has a critical RCE vulnerability (CVE-2025-61622) in its pyfory module. An attacker can exploit an unguarded pickle fallback to execute arbitrary code.
    0 Comments 0 Shares 165 Views 0 Reviews
  • “Cloudflare ป้องกัน DDoS ขนาด 22.2 Tbps ได้สำเร็จ — โลกไซเบอร์เข้าสู่ยุค ‘โจมตีระดับมหึมา’ ที่ต้องพึ่ง AI ป้องกันแบบเรียลไทม์”

    ในเดือนกันยายน 2025 Cloudflare ได้ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยมีมา โดยการโจมตีครั้งนี้มีขนาดถึง 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที ซึ่งมากกว่าการโจมตีครั้งก่อนหน้าถึงสองเท่า และกินเวลาทั้งหมดเพียง 40 วินาทีเท่านั้น

    แม้จะเป็นช่วงเวลาสั้น ๆ แต่ปริมาณข้อมูลที่ถูกส่งมานั้นเทียบเท่ากับการสตรีมวิดีโอ 4K จำนวนหนึ่งล้านรายการพร้อมกัน หรือการรีเฟรชหน้าเว็บจากทุกคนบนโลกพร้อมกัน 1.3 ครั้งต่อวินาที ซึ่งแสดงให้เห็นถึงความรุนแรงและความเร็วของการโจมตีในยุคใหม่

    Cloudflare ระบุว่าการป้องกันครั้งนี้ดำเนินการโดยระบบอัตโนมัติทั้งหมด โดยไม่ต้องอาศัยการตอบสนองจากมนุษย์เลย ซึ่งสะท้อนถึงความสำคัญของการใช้ AI และระบบ machine learning ในการป้องกันภัยไซเบอร์ที่เกิดขึ้นในระดับ “machine speed”

    การโจมตีครั้งนี้ถูกระบุว่าเป็นการโจมตีแบบ “UDP carpet bomb” ที่มุ่งเป้าไปยัง IP เดียว โดยใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที และสูงสุดถึง 47,000 พอร์ต โดยมีแหล่งที่มาจากกว่า 404,000 IP ทั่วโลก ซึ่งไม่ใช่การปลอมแปลง IP แต่เป็นการใช้ botnet จริงที่ชื่อว่า AISURU

    AISURU เป็น botnet ที่ประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก เช่น เราเตอร์, กล้อง IP, DVR และ NVR โดยมีการแพร่กระจายผ่านช่องโหว่ในเฟิร์มแวร์ของผู้ผลิตหลายราย เช่น Totolink, D-Link, Zyxel และ Realtek

    ข้อมูลสำคัญจากข่าว
    Cloudflare ป้องกันการโจมตี DDoS ขนาด 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที
    การโจมตีใช้เวลาเพียง 40 วินาที แต่มีปริมาณข้อมูลมหาศาล
    ระบบของ Cloudflare ตรวจจับและป้องกันโดยอัตโนมัติ ไม่ต้องใช้มนุษย์
    เป็นการโจมตีแบบ UDP carpet bomb targeting IP เดียว
    ใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที สูงสุด 47,000 พอร์ต
    แหล่งที่มาจากกว่า 404,000 IP ที่ไม่ถูกปลอมแปลง
    Botnet ที่ใช้คือ AISURU ซึ่งประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก
    AISURU แพร่ผ่านช่องโหว่ในเฟิร์มแวร์ของ Totolink, Realtek, D-Link, Zyxel และอื่น ๆ
    Cloudflare เคยป้องกันการโจมตีขนาด 11.5 Tbps และ 7.3 Tbps ก่อนหน้านี้ในปีเดียวกัน

    ข้อมูลเสริมจากภายนอก
    DDoS แบบ “hit-and-run” คือการโจมตีระยะสั้นแต่รุนแรง เพื่อหลบหลีกการตอบสนอง
    ระบบ legacy scrubbing center ไม่สามารถรับมือกับการโจมตีระดับนี้ได้ทัน
    การใช้ AI และ machine learning เป็นแนวทางใหม่ในการป้องกันภัยไซเบอร์
    Botnet ที่ใช้ IoT เป็นฐานมีแนวโน้มเพิ่มขึ้น เพราะอุปกรณ์เหล่านี้มักมีระบบความปลอดภัยต่ำ
    AISURU เคยถูกใช้โจมตีแพลตฟอร์มเกม Black Myth: Wukong และขายบริการผ่าน Telegram

    https://hackread.com/cloudflare-blocks-22-2-tbps-ddos-attack/
    🌐 “Cloudflare ป้องกัน DDoS ขนาด 22.2 Tbps ได้สำเร็จ — โลกไซเบอร์เข้าสู่ยุค ‘โจมตีระดับมหึมา’ ที่ต้องพึ่ง AI ป้องกันแบบเรียลไทม์” ในเดือนกันยายน 2025 Cloudflare ได้ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยมีมา โดยการโจมตีครั้งนี้มีขนาดถึง 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที ซึ่งมากกว่าการโจมตีครั้งก่อนหน้าถึงสองเท่า และกินเวลาทั้งหมดเพียง 40 วินาทีเท่านั้น แม้จะเป็นช่วงเวลาสั้น ๆ แต่ปริมาณข้อมูลที่ถูกส่งมานั้นเทียบเท่ากับการสตรีมวิดีโอ 4K จำนวนหนึ่งล้านรายการพร้อมกัน หรือการรีเฟรชหน้าเว็บจากทุกคนบนโลกพร้อมกัน 1.3 ครั้งต่อวินาที ซึ่งแสดงให้เห็นถึงความรุนแรงและความเร็วของการโจมตีในยุคใหม่ Cloudflare ระบุว่าการป้องกันครั้งนี้ดำเนินการโดยระบบอัตโนมัติทั้งหมด โดยไม่ต้องอาศัยการตอบสนองจากมนุษย์เลย ซึ่งสะท้อนถึงความสำคัญของการใช้ AI และระบบ machine learning ในการป้องกันภัยไซเบอร์ที่เกิดขึ้นในระดับ “machine speed” การโจมตีครั้งนี้ถูกระบุว่าเป็นการโจมตีแบบ “UDP carpet bomb” ที่มุ่งเป้าไปยัง IP เดียว โดยใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที และสูงสุดถึง 47,000 พอร์ต โดยมีแหล่งที่มาจากกว่า 404,000 IP ทั่วโลก ซึ่งไม่ใช่การปลอมแปลง IP แต่เป็นการใช้ botnet จริงที่ชื่อว่า AISURU AISURU เป็น botnet ที่ประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก เช่น เราเตอร์, กล้อง IP, DVR และ NVR โดยมีการแพร่กระจายผ่านช่องโหว่ในเฟิร์มแวร์ของผู้ผลิตหลายราย เช่น Totolink, D-Link, Zyxel และ Realtek ✅ ข้อมูลสำคัญจากข่าว ➡️ Cloudflare ป้องกันการโจมตี DDoS ขนาด 22.2 Tbps และ 10.6 พันล้านแพ็กเก็ตต่อวินาที ➡️ การโจมตีใช้เวลาเพียง 40 วินาที แต่มีปริมาณข้อมูลมหาศาล ➡️ ระบบของ Cloudflare ตรวจจับและป้องกันโดยอัตโนมัติ ไม่ต้องใช้มนุษย์ ➡️ เป็นการโจมตีแบบ UDP carpet bomb targeting IP เดียว ➡️ ใช้พอร์ตเฉลี่ย 31,000 พอร์ตต่อวินาที สูงสุด 47,000 พอร์ต ➡️ แหล่งที่มาจากกว่า 404,000 IP ที่ไม่ถูกปลอมแปลง ➡️ Botnet ที่ใช้คือ AISURU ซึ่งประกอบด้วยอุปกรณ์ IoT ที่ถูกแฮก ➡️ AISURU แพร่ผ่านช่องโหว่ในเฟิร์มแวร์ของ Totolink, Realtek, D-Link, Zyxel และอื่น ๆ ➡️ Cloudflare เคยป้องกันการโจมตีขนาด 11.5 Tbps และ 7.3 Tbps ก่อนหน้านี้ในปีเดียวกัน ✅ ข้อมูลเสริมจากภายนอก ➡️ DDoS แบบ “hit-and-run” คือการโจมตีระยะสั้นแต่รุนแรง เพื่อหลบหลีกการตอบสนอง ➡️ ระบบ legacy scrubbing center ไม่สามารถรับมือกับการโจมตีระดับนี้ได้ทัน ➡️ การใช้ AI และ machine learning เป็นแนวทางใหม่ในการป้องกันภัยไซเบอร์ ➡️ Botnet ที่ใช้ IoT เป็นฐานมีแนวโน้มเพิ่มขึ้น เพราะอุปกรณ์เหล่านี้มักมีระบบความปลอดภัยต่ำ ➡️ AISURU เคยถูกใช้โจมตีแพลตฟอร์มเกม Black Myth: Wukong และขายบริการผ่าน Telegram https://hackread.com/cloudflare-blocks-22-2-tbps-ddos-attack/
    HACKREAD.COM
    Cloudflare Blocks Record 22.2 Tbps DDoS Attack
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 222 Views 0 Reviews
  • “Cap’n Web: RPC ยุคใหม่สำหรับเบราว์เซอร์ — เขียนโค้ดเหมือนเรียกฟังก์ชันปกติ แต่ทำงานข้ามเครือข่ายได้ทันที”

    Cloudflare เปิดตัว Cap’n Web ระบบ RPC (Remote Procedure Call) ใหม่ที่เขียนด้วย TypeScript ล้วน ๆ โดยออกแบบมาเพื่อใช้งานในเบราว์เซอร์, Cloudflare Workers, Node.js และทุก runtime ที่รองรับ JavaScript สมัยใหม่ จุดเด่นคือการใช้งานง่ายมาก — ไม่ต้องมี schema, ไม่ต้องมี boilerplate และใช้ JSON เป็นพื้นฐานในการสื่อสาร

    Cap’n Web เป็นญาติทางจิตวิญญาณของ Cap’n Proto ที่ Kenton Varda เคยสร้างไว้เมื่อสิบปีก่อน แต่ถูกออกแบบใหม่ให้เหมาะกับโลกเว็บ โดยเน้นความสามารถแบบ object-capability เช่น การส่งฟังก์ชันหรืออ็อบเจกต์ข้ามเครือข่ายแบบ reference, การเรียกแบบสองทาง (bidirectional), และการใช้ promise pipelining เพื่อลดจำนวนรอบการสื่อสาร

    ระบบนี้ยังรองรับการใช้งานแบบ batch ผ่าน HTTP และ WebSocket ได้ทันที โดยสามารถส่งคำสั่งหลายชุดในรอบเดียว และใช้ promise ที่ยังไม่ resolve เป็น input ของคำสั่งถัดไปได้ทันที ซึ่งช่วยลด latency อย่างมาก

    Cap’n Web ยังมีระบบความปลอดภัยแบบ capability-based ที่ช่วยให้การยืนยันตัวตนและการควบคุมสิทธิ์ทำได้ในระดับ object เช่น การเรียก authenticate() แล้วได้ session object ที่มีสิทธิ์เฉพาะตัว ไม่สามารถปลอมแปลงได้

    ที่น่าทึ่งคือ Cap’n Web รองรับการ map array แบบไม่ต้องเพิ่มรอบการสื่อสาร โดยใช้เทคนิค record-replay เพื่อแปลง callback เป็นชุดคำสั่งที่สามารถรันฝั่งเซิร์ฟเวอร์ได้โดยไม่ต้อง round-trip กลับไปยัง client

    ทั้งหมดนี้ทำให้ Cap’n Web เป็นระบบ RPC ที่ “คิดแบบ JavaScript” อย่างแท้จริง และอาจเป็นทางเลือกใหม่แทน GraphQL สำหรับแอปที่ต้องการความโต้ตอบแบบ real-time และโครงสร้าง API ที่ยืดหยุ่น

    ข้อมูลสำคัญจากข่าว
    Cap’n Web เป็น RPC system แบบใหม่ที่เขียนด้วย TypeScript ล้วน
    ใช้ JSON เป็นพื้นฐานในการสื่อสาร พร้อม pre/post-processing สำหรับ type พิเศษ
    รองรับ WebSocket, HTTP, postMessage และสามารถขยายไปยัง transport อื่นได้
    ขนาดไฟล์หลังบีบอัดต่ำกว่า 10kB และไม่มี dependency

    ความสามารถหลักของ Cap’n Web
    รองรับ bidirectional calling — server เรียก client ได้ และกลับกัน
    ส่งฟังก์ชันและอ็อบเจกต์แบบ reference ข้ามเครือข่ายได้
    ใช้ promise pipelining เพื่อลดจำนวน network round trip
    รองรับ capability-based security เช่น session object ที่ไม่สามารถปลอมได้
    รองรับ HTTP batch mode สำหรับการเรียกหลายคำสั่งในรอบเดียว
    รองรับ array.map() แบบไม่ต้อง round-trip โดยใช้ DSL ที่แปลงจาก callback

    การใช้งานกับ TypeScript
    สามารถประกาศ interface เดียวแล้วใช้ทั้ง client และ server ได้
    รองรับ auto-complete และ type checking แบบ end-to-end
    สามารถใช้ร่วมกับระบบ runtime type-checking เช่น Zod ได้

    ข้อมูลเสริมจากภายนอก
    Cap’n Proto เป็นระบบ RPC ที่ใช้ในระบบ distributed ขนาดใหญ่ เช่น Sandstorm
    GraphQL แก้ปัญหา waterfall ของ REST แต่มีข้อจำกัดด้าน composability
    Cap’n Web แก้ปัญหาเดียวกันโดยไม่ต้องใช้ schema หรือ tooling ใหม่
    Cloudflare ใช้ Cap’n Web ใน Wrangler และเริ่มทดลองใน frontend apps แล้ว

    https://blog.cloudflare.com/capnweb-javascript-rpc-library/
    🔗 “Cap’n Web: RPC ยุคใหม่สำหรับเบราว์เซอร์ — เขียนโค้ดเหมือนเรียกฟังก์ชันปกติ แต่ทำงานข้ามเครือข่ายได้ทันที” Cloudflare เปิดตัว Cap’n Web ระบบ RPC (Remote Procedure Call) ใหม่ที่เขียนด้วย TypeScript ล้วน ๆ โดยออกแบบมาเพื่อใช้งานในเบราว์เซอร์, Cloudflare Workers, Node.js และทุก runtime ที่รองรับ JavaScript สมัยใหม่ จุดเด่นคือการใช้งานง่ายมาก — ไม่ต้องมี schema, ไม่ต้องมี boilerplate และใช้ JSON เป็นพื้นฐานในการสื่อสาร Cap’n Web เป็นญาติทางจิตวิญญาณของ Cap’n Proto ที่ Kenton Varda เคยสร้างไว้เมื่อสิบปีก่อน แต่ถูกออกแบบใหม่ให้เหมาะกับโลกเว็บ โดยเน้นความสามารถแบบ object-capability เช่น การส่งฟังก์ชันหรืออ็อบเจกต์ข้ามเครือข่ายแบบ reference, การเรียกแบบสองทาง (bidirectional), และการใช้ promise pipelining เพื่อลดจำนวนรอบการสื่อสาร ระบบนี้ยังรองรับการใช้งานแบบ batch ผ่าน HTTP และ WebSocket ได้ทันที โดยสามารถส่งคำสั่งหลายชุดในรอบเดียว และใช้ promise ที่ยังไม่ resolve เป็น input ของคำสั่งถัดไปได้ทันที ซึ่งช่วยลด latency อย่างมาก Cap’n Web ยังมีระบบความปลอดภัยแบบ capability-based ที่ช่วยให้การยืนยันตัวตนและการควบคุมสิทธิ์ทำได้ในระดับ object เช่น การเรียก authenticate() แล้วได้ session object ที่มีสิทธิ์เฉพาะตัว ไม่สามารถปลอมแปลงได้ ที่น่าทึ่งคือ Cap’n Web รองรับการ map array แบบไม่ต้องเพิ่มรอบการสื่อสาร โดยใช้เทคนิค record-replay เพื่อแปลง callback เป็นชุดคำสั่งที่สามารถรันฝั่งเซิร์ฟเวอร์ได้โดยไม่ต้อง round-trip กลับไปยัง client ทั้งหมดนี้ทำให้ Cap’n Web เป็นระบบ RPC ที่ “คิดแบบ JavaScript” อย่างแท้จริง และอาจเป็นทางเลือกใหม่แทน GraphQL สำหรับแอปที่ต้องการความโต้ตอบแบบ real-time และโครงสร้าง API ที่ยืดหยุ่น ✅ ข้อมูลสำคัญจากข่าว ➡️ Cap’n Web เป็น RPC system แบบใหม่ที่เขียนด้วย TypeScript ล้วน ➡️ ใช้ JSON เป็นพื้นฐานในการสื่อสาร พร้อม pre/post-processing สำหรับ type พิเศษ ➡️ รองรับ WebSocket, HTTP, postMessage และสามารถขยายไปยัง transport อื่นได้ ➡️ ขนาดไฟล์หลังบีบอัดต่ำกว่า 10kB และไม่มี dependency ✅ ความสามารถหลักของ Cap’n Web ➡️ รองรับ bidirectional calling — server เรียก client ได้ และกลับกัน ➡️ ส่งฟังก์ชันและอ็อบเจกต์แบบ reference ข้ามเครือข่ายได้ ➡️ ใช้ promise pipelining เพื่อลดจำนวน network round trip ➡️ รองรับ capability-based security เช่น session object ที่ไม่สามารถปลอมได้ ➡️ รองรับ HTTP batch mode สำหรับการเรียกหลายคำสั่งในรอบเดียว ➡️ รองรับ array.map() แบบไม่ต้อง round-trip โดยใช้ DSL ที่แปลงจาก callback ✅ การใช้งานกับ TypeScript ➡️ สามารถประกาศ interface เดียวแล้วใช้ทั้ง client และ server ได้ ➡️ รองรับ auto-complete และ type checking แบบ end-to-end ➡️ สามารถใช้ร่วมกับระบบ runtime type-checking เช่น Zod ได้ ✅ ข้อมูลเสริมจากภายนอก ➡️ Cap’n Proto เป็นระบบ RPC ที่ใช้ในระบบ distributed ขนาดใหญ่ เช่น Sandstorm ➡️ GraphQL แก้ปัญหา waterfall ของ REST แต่มีข้อจำกัดด้าน composability ➡️ Cap’n Web แก้ปัญหาเดียวกันโดยไม่ต้องใช้ schema หรือ tooling ใหม่ ➡️ Cloudflare ใช้ Cap’n Web ใน Wrangler และเริ่มทดลองใน frontend apps แล้ว https://blog.cloudflare.com/capnweb-javascript-rpc-library/
    BLOG.CLOUDFLARE.COM
    Cap'n Web: A new RPC system for browsers and web servers
    Cap'n Web is a new open source, JavaScript-native RPC protocol for use in browsers and web servers. It provides the expressive power of Cap'n Proto, but with no schemas and no boilerplate.
    0 Comments 0 Shares 222 Views 0 Reviews
  • “Local-First Apps ยังไม่เกิดจริง เพราะการ Sync ไม่ง่ายอย่างที่คิด — แต่ SQLite + HLC + CRDT อาจเป็นคำตอบ”

    แอปพลิเคชันแบบ Local-First หรือ Offline-First เคยถูกมองว่าเป็นอนาคตของการใช้งานซอฟต์แวร์ ด้วยคุณสมบัติที่โหลดเร็ว ใช้แบบไม่ต้องต่อเน็ต และให้ความเป็นส่วนตัวสูงสุด แต่ในความเป็นจริง แอปที่รองรับการทำงานแบบออฟไลน์จริง ๆ ยังมีน้อยมาก เพราะการ “ซิงก์ข้อมูล” ระหว่างอุปกรณ์หลายเครื่องนั้นยากกว่าที่คิด

    Marco Bambini ผู้ก่อตั้ง SQLite Cloud อธิบายว่า การสร้างแอปแบบ Local-First คือการสร้างระบบกระจาย (Distributed System) ที่ต้องให้หลายอุปกรณ์สามารถแก้ไขข้อมูลแบบออฟไลน์ และสุดท้ายต้องรวมข้อมูลให้ตรงกันโดยไม่สูญเสียอะไรเลย ซึ่งมีสองปัญหาหลักที่ต้องแก้คือ:

    1️⃣ ลำดับเหตุการณ์ไม่แน่นอน (Unreliable Ordering) อุปกรณ์แต่ละเครื่องมีเวลาไม่ตรงกัน และเหตุการณ์เกิดขึ้นไม่พร้อมกัน หากนำข้อมูลมารวมโดยไม่จัดลำดับให้ดี อาจเกิดความขัดแย้ง เช่น เครื่อง A ตั้งค่า x = 3 ส่วนเครื่อง B ตั้ง x = 5 แล้วใครควร “ชนะ”?

    วิธีแก้คือ Hybrid Logical Clocks (HLC) — ระบบ timestamp ที่รวมเวลาเครื่องจริงกับตัวนับเหตุการณ์ เพื่อให้สามารถเรียงลำดับเหตุการณ์ได้แม้ไม่มีนาฬิกากลาง

    2️⃣ ความขัดแย้งของข้อมูล (Conflicts) แม้จะจัดลำดับได้แล้ว แต่ถ้าอุปกรณ์สองเครื่องแก้ไขข้อมูลเดียวกัน เช่น ยอดเงินในบัญชี แล้วซิงก์เข้ามา อาจเกิดการเขียนทับและข้อมูลหาย

    วิธีแก้คือ CRDTs (Conflict-Free Replicated Data Types) — โครงสร้างข้อมูลที่สามารถรวมกันได้โดยไม่สูญเสียข้อมูล เช่น ใช้กลยุทธ์ Last-Write-Wins (LWW) ที่ให้ข้อมูลล่าสุดเป็นฝ่ายชนะ

    เพื่อให้ระบบนี้ทำงานได้จริง SQLite ถูกเลือกเป็นฐานข้อมูลหลัก เพราะมีความเสถียร ใช้งานง่าย และมีอยู่ในทุกแพลตฟอร์ม โดย Bambini ได้สร้าง SQLite extension ที่เก็บทุกการเปลี่ยนแปลงเป็น “ข้อความ” พร้อม timestamp จาก HLC และใช้ CRDT ในการตัดสินว่าเปลี่ยนแปลงใดควรนำมาใช้

    ผลลัพธ์คือระบบที่สามารถทำงานออฟไลน์ได้เป็นสัปดาห์โดยไม่สูญเสียข้อมูล และเมื่อกลับมาออนไลน์ก็สามารถรวมข้อมูลได้อย่างแม่นยำโดยไม่ต้องใช้เซิร์ฟเวอร์กลาง

    ข้อมูลสำคัญจากข่าว
    Local-First Apps ยังไม่แพร่หลายเพราะการซิงก์ข้อมูลระหว่างอุปกรณ์ทำได้ยาก
    ปัญหาหลักคือการจัดลำดับเหตุการณ์และการแก้ไขความขัดแย้งของข้อมูล
    ใช้ Hybrid Logical Clocks (HLC) เพื่อจัดลำดับเหตุการณ์แบบกระจาย
    ใช้ CRDTs เพื่อรวมข้อมูลโดยไม่สูญเสียหรือเขียนทับกัน

    แนวทางการแก้ปัญหา
    SQLite ถูกใช้เป็นฐานข้อมูลหลักเพราะเสถียรและมีอยู่ทุกแพลตฟอร์ม
    ทุกการเปลี่ยนแปลงถูกเก็บเป็นข้อความพร้อม timestamp
    ใช้กลยุทธ์ Last-Write-Wins (LWW) เพื่อเลือกข้อมูลล่าสุด
    ระบบสามารถทำงานออฟไลน์ได้นานโดยไม่สูญเสียข้อมูล

    ข้อมูลเสริมจากภายนอก
    Turso และ cr-sqlite เป็นตัวอย่างของระบบที่ใช้ SQLite ในการซิงก์แบบ Local-First
    CRDTs ถูกใช้ในระบบ collaboration เช่น Automerge และ Yjs
    HLCs ถูกใช้ในระบบฐานข้อมูลกระจาย เช่น CockroachDB และ Spanner
    Local-First Apps ช่วยลดการพึ่งพาเซิร์ฟเวอร์กลางและเพิ่มความเป็นส่วนตัว

    https://marcobambini.substack.com/p/why-local-first-apps-havent-become
    📱 “Local-First Apps ยังไม่เกิดจริง เพราะการ Sync ไม่ง่ายอย่างที่คิด — แต่ SQLite + HLC + CRDT อาจเป็นคำตอบ” แอปพลิเคชันแบบ Local-First หรือ Offline-First เคยถูกมองว่าเป็นอนาคตของการใช้งานซอฟต์แวร์ ด้วยคุณสมบัติที่โหลดเร็ว ใช้แบบไม่ต้องต่อเน็ต และให้ความเป็นส่วนตัวสูงสุด แต่ในความเป็นจริง แอปที่รองรับการทำงานแบบออฟไลน์จริง ๆ ยังมีน้อยมาก เพราะการ “ซิงก์ข้อมูล” ระหว่างอุปกรณ์หลายเครื่องนั้นยากกว่าที่คิด Marco Bambini ผู้ก่อตั้ง SQLite Cloud อธิบายว่า การสร้างแอปแบบ Local-First คือการสร้างระบบกระจาย (Distributed System) ที่ต้องให้หลายอุปกรณ์สามารถแก้ไขข้อมูลแบบออฟไลน์ และสุดท้ายต้องรวมข้อมูลให้ตรงกันโดยไม่สูญเสียอะไรเลย ซึ่งมีสองปัญหาหลักที่ต้องแก้คือ: 1️⃣ ลำดับเหตุการณ์ไม่แน่นอน (Unreliable Ordering) อุปกรณ์แต่ละเครื่องมีเวลาไม่ตรงกัน และเหตุการณ์เกิดขึ้นไม่พร้อมกัน หากนำข้อมูลมารวมโดยไม่จัดลำดับให้ดี อาจเกิดความขัดแย้ง เช่น เครื่อง A ตั้งค่า x = 3 ส่วนเครื่อง B ตั้ง x = 5 แล้วใครควร “ชนะ”? 🔧 วิธีแก้คือ Hybrid Logical Clocks (HLC) — ระบบ timestamp ที่รวมเวลาเครื่องจริงกับตัวนับเหตุการณ์ เพื่อให้สามารถเรียงลำดับเหตุการณ์ได้แม้ไม่มีนาฬิกากลาง 2️⃣ ความขัดแย้งของข้อมูล (Conflicts) แม้จะจัดลำดับได้แล้ว แต่ถ้าอุปกรณ์สองเครื่องแก้ไขข้อมูลเดียวกัน เช่น ยอดเงินในบัญชี แล้วซิงก์เข้ามา อาจเกิดการเขียนทับและข้อมูลหาย 🔧 วิธีแก้คือ CRDTs (Conflict-Free Replicated Data Types) — โครงสร้างข้อมูลที่สามารถรวมกันได้โดยไม่สูญเสียข้อมูล เช่น ใช้กลยุทธ์ Last-Write-Wins (LWW) ที่ให้ข้อมูลล่าสุดเป็นฝ่ายชนะ เพื่อให้ระบบนี้ทำงานได้จริง SQLite ถูกเลือกเป็นฐานข้อมูลหลัก เพราะมีความเสถียร ใช้งานง่าย และมีอยู่ในทุกแพลตฟอร์ม โดย Bambini ได้สร้าง SQLite extension ที่เก็บทุกการเปลี่ยนแปลงเป็น “ข้อความ” พร้อม timestamp จาก HLC และใช้ CRDT ในการตัดสินว่าเปลี่ยนแปลงใดควรนำมาใช้ ผลลัพธ์คือระบบที่สามารถทำงานออฟไลน์ได้เป็นสัปดาห์โดยไม่สูญเสียข้อมูล และเมื่อกลับมาออนไลน์ก็สามารถรวมข้อมูลได้อย่างแม่นยำโดยไม่ต้องใช้เซิร์ฟเวอร์กลาง ✅ ข้อมูลสำคัญจากข่าว ➡️ Local-First Apps ยังไม่แพร่หลายเพราะการซิงก์ข้อมูลระหว่างอุปกรณ์ทำได้ยาก ➡️ ปัญหาหลักคือการจัดลำดับเหตุการณ์และการแก้ไขความขัดแย้งของข้อมูล ➡️ ใช้ Hybrid Logical Clocks (HLC) เพื่อจัดลำดับเหตุการณ์แบบกระจาย ➡️ ใช้ CRDTs เพื่อรวมข้อมูลโดยไม่สูญเสียหรือเขียนทับกัน ✅ แนวทางการแก้ปัญหา ➡️ SQLite ถูกใช้เป็นฐานข้อมูลหลักเพราะเสถียรและมีอยู่ทุกแพลตฟอร์ม ➡️ ทุกการเปลี่ยนแปลงถูกเก็บเป็นข้อความพร้อม timestamp ➡️ ใช้กลยุทธ์ Last-Write-Wins (LWW) เพื่อเลือกข้อมูลล่าสุด ➡️ ระบบสามารถทำงานออฟไลน์ได้นานโดยไม่สูญเสียข้อมูล ✅ ข้อมูลเสริมจากภายนอก ➡️ Turso และ cr-sqlite เป็นตัวอย่างของระบบที่ใช้ SQLite ในการซิงก์แบบ Local-First ➡️ CRDTs ถูกใช้ในระบบ collaboration เช่น Automerge และ Yjs ➡️ HLCs ถูกใช้ในระบบฐานข้อมูลกระจาย เช่น CockroachDB และ Spanner ➡️ Local-First Apps ช่วยลดการพึ่งพาเซิร์ฟเวอร์กลางและเพิ่มความเป็นส่วนตัว https://marcobambini.substack.com/p/why-local-first-apps-havent-become
    MARCOBAMBINI.SUBSTACK.COM
    Why Local-First Apps Haven’t Become Popular?
    Offline-first apps promise instant loading and privacy, but in practice, very few apps get offline support because getting sync right is surprisingly hard.
    0 Comments 0 Shares 238 Views 0 Reviews
  • “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า”

    Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000

    แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้

    ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย

    ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า

    Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark”

    ข้อมูลสำคัญจากข่าว
    Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB
    ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000
    คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน
    ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B

    การเปรียบเทียบกับคลัสเตอร์ Framework
    คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า
    Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน
    Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม
    การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร

    ข้อมูลเสริมจากภายนอก
    Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec
    Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่
    UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก
    บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง

    https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    🧠 “Jeff Geerling เสียใจที่สร้างคลัสเตอร์ AI ด้วย Raspberry Pi มูลค่า $3,000 — บทเรียนจากความฝันสู่ความจริงที่ไม่คุ้มค่า” Jeff Geerling นักพัฒนาและบล็อกเกอร์สายฮาร์ดแวร์ชื่อดัง ได้เผยแพร่บทความในเดือนกันยายน 2025 เล่าถึงประสบการณ์การสร้างคลัสเตอร์ AI ด้วย Raspberry Pi Compute Module 5 (CM5) จำนวน 10 ตัว รวม RAM ทั้งหมด 160 GB โดยใช้ Compute Blade ซึ่งเป็นบอร์ดที่ออกแบบมาเพื่อการจัดการคลัสเตอร์ขนาดเล็กโดยเฉพาะ รวมค่าใช้จ่ายทั้งหมดประมาณ $3,000 แม้จะเป็นโปรเจกต์ที่น่าตื่นเต้น แต่ Jeff ยอมรับว่าเขา “เสียใจ” กับการลงทุนครั้งนี้ เพราะผลลัพธ์ที่ได้ไม่คุ้มค่าในแง่ของประสิทธิภาพ โดยเฉพาะเมื่อเทียบกับคลัสเตอร์ Framework Desktop มูลค่า $8,000 ที่เขาเคยสร้างไว้ก่อนหน้านี้ ในด้าน HPC (High Performance Computing) คลัสเตอร์ Pi สามารถทำความเร็วได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ซึ่งถือว่าเร็วกว่า Pi เดี่ยวถึง 10 เท่า แต่ยังช้ากว่าคลัสเตอร์ Framework ถึง 4 เท่า แม้จะมีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย ส่วนด้าน AI กลับน่าผิดหวังยิ่งกว่า เพราะ Pi 5 ยังไม่สามารถใช้ Vulkan กับ llama.cpp ได้ ทำให้ inference ต้องพึ่ง CPU เท่านั้น ผลคือการรันโมเดล Llama 3.3:70B ได้เพียง 0.28 tokens/sec และแม้จะใช้ distributed-llama ก็ยังได้แค่ 0.85 tokens/sec ซึ่งช้ากว่าคลัสเตอร์ Framework ถึง 5 เท่า Jeff สรุปว่า คลัสเตอร์ Pi อาจเหมาะกับงานเฉพาะทาง เช่น CI jobs, edge computing ที่ต้องการความปลอดภัยสูง หรือการเรียนรู้เชิงทดลอง แต่ไม่เหมาะกับงาน AI หรือ HPC ที่จริงจัง และเขายังแซวตัวเองว่า “นี่คือคลัสเตอร์ที่แย่ — ยกเว้น blade หมายเลข 9 ที่ตายทุกครั้งที่รัน benchmark” ✅ ข้อมูลสำคัญจากข่าว ➡️ Jeff Geerling สร้างคลัสเตอร์ AI ด้วย Raspberry Pi CM5 จำนวน 10 ตัว รวม RAM 160 GB ➡️ ใช้ Compute Blade และอุปกรณ์เสริม รวมค่าใช้จ่ายประมาณ $3,000 ➡️ คลัสเตอร์ทำความเร็ว HPC ได้ 325 Gflops หลังปรับปรุงระบบระบายความร้อน ➡️ ด้าน AI ทำความเร็วได้เพียง 0.28–0.85 tokens/sec เมื่อรันโมเดล Llama 3.3:70B ✅ การเปรียบเทียบกับคลัสเตอร์ Framework ➡️ คลัสเตอร์ Framework Desktop มูลค่า $8,000 เร็วกว่าคลัสเตอร์ Pi ถึง 4–5 เท่า ➡️ Framework ใช้ APU และ Vulkan ทำให้ inference เร็วกว่าอย่างชัดเจน ➡️ Pi cluster มีประสิทธิภาพด้านพลังงานดีกว่าเล็กน้อย แต่ไม่คุ้มค่าในภาพรวม ➡️ การรัน distributed-llama บน Pi cluster มีข้อจำกัดด้านจำนวน node และความเสถียร ✅ ข้อมูลเสริมจากภายนอก ➡️ Raspberry Pi CM5 ใช้ CPU Cortex-A76 และมีแบนด์วิดธ์หน่วยความจำประมาณ 10 GB/sec ➡️ Compute Blade ได้รับความนิยมในกลุ่มผู้พัฒนา แต่ยังไม่เหมาะกับงาน AI ขนาดใหญ่ ➡️ UC Santa Barbara เคยสร้างคลัสเตอร์ Pi ขนาด 1,050 node ซึ่งยังถือว่าใหญ่ที่สุดในโลก ➡️ บริษัท Unredacted Labs ใช้ Pi cluster สำหรับ Tor exit relays เพราะมีความปลอดภัยสูง https://www.jeffgeerling.com/blog/2025/i-regret-building-3000-pi-ai-cluster
    0 Comments 0 Shares 301 Views 0 Reviews
  • “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่”

    Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu

    CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง

    ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน

    แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก

    ความร่วมมือระหว่าง Canonical และ NVIDIA
    Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง
    นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager
    ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA
    รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library

    ผลกระทบต่อวงการพัฒนา AI
    CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning
    การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล
    Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ
    รองรับการใช้งานใน data center, edge computing และ cloud infrastructure

    ข้อมูลเสริมจากภายนอก
    CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด
    Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด
    NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux
    AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน

    https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    🚀 “Canonical ผนึกกำลัง NVIDIA — ติดตั้ง CUDA บน Ubuntu ง่ายแค่คำสั่งเดียว เตรียมเปิดทางนักพัฒนา AI สู่ยุคใหม่” Canonical ผู้พัฒนา Ubuntu ประกาศความร่วมมือครั้งสำคัญกับ NVIDIA ในวันที่ 15 กันยายน 2025 โดยจะนำชุดเครื่องมือ CUDA (Compute Unified Device Architecture) เข้ามาอยู่ใน repository ของ Ubuntu โดยตรง ซึ่งหมายความว่า นักพัฒนาไม่ต้องดาวน์โหลดจากเว็บไซต์ NVIDIA อีกต่อไป แต่สามารถติดตั้ง CUDA ได้ด้วยคำสั่งเดียวผ่านระบบจัดการแพ็กเกจของ Ubuntu CUDA เป็นแพลตฟอร์มการประมวลผลแบบขนานที่ใช้ GPU ของ NVIDIA เพื่อเร่งความเร็วในการคำนวณ โดยเฉพาะในงานด้าน AI, machine learning, การจำลองเชิงฟิสิกส์ และการประมวลผลภาพขนาดใหญ่ ซึ่งเดิมทีการติดตั้ง CUDA บน Ubuntu ต้องผ่านหลายขั้นตอนที่ซับซ้อน เช่น การเลือกเวอร์ชันที่เข้ากันได้กับไดรเวอร์ GPU และการตั้งค่า runtime ด้วยตนเอง ด้วยการเปลี่ยนแปลงนี้ Canonical จะดูแลการติดตั้งและความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA ที่รองรับทั้งหมด ทำให้ผู้ใช้สามารถประกาศการใช้งาน CUDA runtime ได้โดยไม่ต้องจัดการรายละเอียดเอง ซึ่งจะช่วยลดข้อผิดพลาดและเพิ่มความเร็วในการพัฒนาแอปพลิเคชัน แม้ยังไม่มีการระบุวันที่แน่ชัดว่า CUDA จะพร้อมใช้งานใน repository ของ Ubuntu แต่ Canonical ยืนยันว่าจะรองรับทั้งเวอร์ชัน LTS และ interim releases ซึ่งครอบคลุมผู้ใช้ Ubuntu ส่วนใหญ่ทั่วโลก ✅ ความร่วมมือระหว่าง Canonical และ NVIDIA ➡️ Canonical เตรียมนำ CUDA toolkit เข้า repository ของ Ubuntu โดยตรง ➡️ นักพัฒนาสามารถติดตั้ง CUDA ด้วยคำสั่งเดียวผ่าน APT package manager ➡️ ลดขั้นตอนการติดตั้งที่เคยซับซ้อนจากเว็บไซต์ NVIDIA ➡️ รองรับ GPU-accelerated libraries, debugging tools, C/C++ compiler และ runtime library ✅ ผลกระทบต่อวงการพัฒนา AI ➡️ CUDA เป็นหัวใจของการประมวลผลแบบขนานในงาน AI และ machine learning ➡️ การติดตั้งแบบ native ช่วยให้การพัฒนาแอปบน Ubuntu เป็นไปอย่างลื่นไหล ➡️ Ubuntu จะจัดการความเข้ากันได้ของ CUDA กับฮาร์ดแวร์ NVIDIA โดยอัตโนมัติ ➡️ รองรับการใช้งานใน data center, edge computing และ cloud infrastructure ✅ ข้อมูลเสริมจากภายนอก ➡️ CUDA เปิดให้ควบคุม thread, memory hierarchy และ kernel ได้อย่างละเอียด ➡️ Ubuntu ใช้ระบบ APT ที่ปลอดภัยและมีการตรวจสอบซัพพลายเชนอย่างเข้มงวด ➡️ NVIDIA GPU ตั้งแต่รุ่น Turing รองรับไดรเวอร์แบบ open-source บน Linux ➡️ AMD ก็มีแนวทางคล้ายกันผ่าน ROCm stack สำหรับการประมวลผลแบบขนาน https://9to5linux.com/canonical-to-package-and-distribute-nvidia-cuda-within-ubuntus-repositories
    9TO5LINUX.COM
    Canonical to Package and Distribute NVIDIA CUDA within Ubuntu's Repositories - 9to5Linux
    Ubuntu maker Canonical announced that it will package and distribute the NVIDIA CUDA toolkit within Ubuntu’s repositories.
    0 Comments 0 Shares 214 Views 0 Reviews
  • “DOOMQL: เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — เมื่อฐานข้อมูลกลายเป็นเครื่องมือสร้างโลก 3D”

    ใครจะคิดว่า SQL ซึ่งเป็นภาษาที่ใช้จัดการฐานข้อมูล จะสามารถใช้สร้างเกมยิงแบบ DOOM ได้ ล่าสุด Lukas Vogel นักวิทยาศาสตร์คอมพิวเตอร์และผู้ร่วมก่อตั้ง CedarDB ได้สร้างเกมชื่อ “DOOMQL” ซึ่งเป็นเกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย “pure SQL” ทั้งหมด โดยใช้เวลาเพียงหนึ่งเดือนระหว่างการลาคลอด

    DOOMQL ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตจากผู้เล่นและแสดงภาพ ส่วนการประมวลผลทั้งหมด — ตั้งแต่การเรนเดอร์ภาพ 3D, การเคลื่อนไหวของศัตรู, ไปจนถึงการจัดการสถานะเกม — ถูกเขียนด้วย SQL ล้วน ๆ บนฐานข้อมูล CedarDB ซึ่งทำให้เกมสามารถรันได้ที่ 30 FPS บนความละเอียด 128x64 พิกเซล

    ความพิเศษของ DOOMQL คือการใช้ฐานข้อมูลเป็น “เซิร์ฟเวอร์เกม” โดยอาศัยคุณสมบัติของ SQL เช่น transaction isolation เพื่อให้ผู้เล่นแต่ละคนเห็นสถานะเกมที่สอดคล้องกัน แม้จะมีผู้เล่นหลายคนพร้อมกัน และยังสามารถ “โกง” ได้โดยการส่งคำสั่ง SQL ตรงเข้าไปในฐานข้อมูล

    Vogel ได้แรงบันดาลใจจากโปรเจกต์ DuckDB-DOOM ซึ่งใช้ SQL ร่วมกับ JavaScript ในการเรนเดอร์ภาพ แต่เขามองว่าการใช้ JavaScript เป็น “การโกง” และต้องการพิสูจน์ว่า SQL เพียงอย่างเดียวก็สามารถสร้างเกมได้จริง แม้จะยอมรับว่า “มันอาจจะเป็นไอเดียที่แย่” ในแง่ของการดูแลรักษาและดีบัก

    จุดเด่นของ DOOMQL
    เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — ไม่มี JavaScript หรือ engine ภายนอก
    ใช้ CedarDB เป็นฐานข้อมูลหลักในการจัดการสถานะและเรนเดอร์ภาพ
    รันที่ 30 FPS บนความละเอียด 128x64 พิกเซล — เร็วกว่ารุ่น DuckDB ที่รันได้เพียง 8 FPS
    ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตและแสดงภาพ

    สถาปัตยกรรมของเกม
    ข้อมูลทั้งหมดอยู่ในตาราง SQL เช่น map, players, mobs, inputs, sprites
    การเรนเดอร์ใช้ stack ของ SQL views ที่ทำ raycasting และ sprite projection
    game loop เป็น shell script ที่รัน SQL file ประมาณ 30 ครั้งต่อวินาที
    ผู้เล่นสามารถส่งคำสั่ง SQL เพื่อเปลี่ยนสถานะเกมหรือ “โกง” ได้โดยตรง

    ข้อมูลเสริมจากภายนอก
    DuckDB-DOOM เป็นโปรเจกต์ก่อนหน้า ที่ใช้ SQL ร่วมกับ JavaScript และ WebAssembly
    DOOMQL ได้รับความสนใจจากนักพัฒนาและนักวิจัยด้านฐานข้อมูล
    CedarDB เป็นฐานข้อมูลที่ออกแบบมาเพื่อประสิทธิภาพสูงในการ query แบบ real-time
    Vogel วางแผนเพิ่มฟีเจอร์ เช่น power-ups, อาวุธหลายแบบ, AI ฝ่ายตรงข้าม และระบบ sprite ที่ดีขึ้น

    https://www.tomshardware.com/video-games/retro-gaming/doom-multiplayer-tribute-gets-coded-in-pure-sql-and-runs-at-30fps-made-from-just-150-lines-of-code-in-less-than-a-month
    🧠 “DOOMQL: เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — เมื่อฐานข้อมูลกลายเป็นเครื่องมือสร้างโลก 3D” ใครจะคิดว่า SQL ซึ่งเป็นภาษาที่ใช้จัดการฐานข้อมูล จะสามารถใช้สร้างเกมยิงแบบ DOOM ได้ ล่าสุด Lukas Vogel นักวิทยาศาสตร์คอมพิวเตอร์และผู้ร่วมก่อตั้ง CedarDB ได้สร้างเกมชื่อ “DOOMQL” ซึ่งเป็นเกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย “pure SQL” ทั้งหมด โดยใช้เวลาเพียงหนึ่งเดือนระหว่างการลาคลอด DOOMQL ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตจากผู้เล่นและแสดงภาพ ส่วนการประมวลผลทั้งหมด — ตั้งแต่การเรนเดอร์ภาพ 3D, การเคลื่อนไหวของศัตรู, ไปจนถึงการจัดการสถานะเกม — ถูกเขียนด้วย SQL ล้วน ๆ บนฐานข้อมูล CedarDB ซึ่งทำให้เกมสามารถรันได้ที่ 30 FPS บนความละเอียด 128x64 พิกเซล ความพิเศษของ DOOMQL คือการใช้ฐานข้อมูลเป็น “เซิร์ฟเวอร์เกม” โดยอาศัยคุณสมบัติของ SQL เช่น transaction isolation เพื่อให้ผู้เล่นแต่ละคนเห็นสถานะเกมที่สอดคล้องกัน แม้จะมีผู้เล่นหลายคนพร้อมกัน และยังสามารถ “โกง” ได้โดยการส่งคำสั่ง SQL ตรงเข้าไปในฐานข้อมูล Vogel ได้แรงบันดาลใจจากโปรเจกต์ DuckDB-DOOM ซึ่งใช้ SQL ร่วมกับ JavaScript ในการเรนเดอร์ภาพ แต่เขามองว่าการใช้ JavaScript เป็น “การโกง” และต้องการพิสูจน์ว่า SQL เพียงอย่างเดียวก็สามารถสร้างเกมได้จริง แม้จะยอมรับว่า “มันอาจจะเป็นไอเดียที่แย่” ในแง่ของการดูแลรักษาและดีบัก ✅ จุดเด่นของ DOOMQL ➡️ เกมยิงแบบมัลติเพลเยอร์ที่เขียนด้วย SQL ล้วน ๆ — ไม่มี JavaScript หรือ engine ภายนอก ➡️ ใช้ CedarDB เป็นฐานข้อมูลหลักในการจัดการสถานะและเรนเดอร์ภาพ ➡️ รันที่ 30 FPS บนความละเอียด 128x64 พิกเซล — เร็วกว่ารุ่น DuckDB ที่รันได้เพียง 8 FPS ➡️ ใช้เพียง ~150 บรรทัดของ Python สำหรับ client ที่รับอินพุตและแสดงภาพ ✅ สถาปัตยกรรมของเกม ➡️ ข้อมูลทั้งหมดอยู่ในตาราง SQL เช่น map, players, mobs, inputs, sprites ➡️ การเรนเดอร์ใช้ stack ของ SQL views ที่ทำ raycasting และ sprite projection ➡️ game loop เป็น shell script ที่รัน SQL file ประมาณ 30 ครั้งต่อวินาที ➡️ ผู้เล่นสามารถส่งคำสั่ง SQL เพื่อเปลี่ยนสถานะเกมหรือ “โกง” ได้โดยตรง ✅ ข้อมูลเสริมจากภายนอก ➡️ DuckDB-DOOM เป็นโปรเจกต์ก่อนหน้า ที่ใช้ SQL ร่วมกับ JavaScript และ WebAssembly ➡️ DOOMQL ได้รับความสนใจจากนักพัฒนาและนักวิจัยด้านฐานข้อมูล ➡️ CedarDB เป็นฐานข้อมูลที่ออกแบบมาเพื่อประสิทธิภาพสูงในการ query แบบ real-time ➡️ Vogel วางแผนเพิ่มฟีเจอร์ เช่น power-ups, อาวุธหลายแบบ, AI ฝ่ายตรงข้าม และระบบ sprite ที่ดีขึ้น https://www.tomshardware.com/video-games/retro-gaming/doom-multiplayer-tribute-gets-coded-in-pure-sql-and-runs-at-30fps-made-from-just-150-lines-of-code-in-less-than-a-month
    0 Comments 0 Shares 293 Views 0 Reviews
  • “บริการป้องกัน DDoS กลายเป็นเหยื่อของการโจมตี DDoS ขนาดมหึมา — FastNetMon ตรวจจับได้ทันก่อนระบบล่ม”

    ในเหตุการณ์ที่ชวนให้ตั้งคำถามถึงความมั่นคงของโครงสร้างอินเทอร์เน็ต บริการป้องกัน DDoS รายหนึ่งในยุโรปตะวันตกกลับกลายเป็นเป้าหมายของการโจมตี DDoS ขนาดใหญ่ที่สุดครั้งหนึ่งในประวัติศาสตร์ โดยมีปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps) ซึ่งเป็นการโจมตีแบบ UDP flood ที่มาจากอุปกรณ์ลูกค้าทั่วโลกกว่า 11,000 เครือข่าย2.

    แม้จะเป็นบริการที่ออกแบบมาเพื่อป้องกันการโจมตีลักษณะนี้ แต่ครั้งนี้ก็ต้องพึ่งพาการช่วยเหลือจาก FastNetMon ซึ่งสามารถตรวจจับและบรรเทาการโจมตีได้ภายในไม่กี่วินาที ด้วยแพลตฟอร์มที่ใช้ algorithm แบบ C++ ที่ปรับแต่งมาเพื่อการวิเคราะห์ทราฟฟิกแบบเรียลไทม์

    สิ่งที่ทำให้การโจมตีครั้งนี้น่ากังวลคือการใช้ “อุปกรณ์ทั่วไปในบ้าน” เช่น เราเตอร์และ IoT ที่ถูกแฮกมาเป็นเครื่องมือโจมตี ซึ่งสะท้อนถึงแนวโน้มใหม่ของการ weaponize อุปกรณ์ผู้บริโภคในระดับมหาศาล โดย FastNetMon เตือนว่า หากไม่มีการกรองทราฟฟิกที่ระดับ ISP การโจมตีลักษณะนี้จะยิ่งขยายตัวและควบคุมได้ยาก

    แม้จะไม่ใช่การโจมตีที่ใหญ่ที่สุดในแง่ของ bandwidth (Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 พันล้านแพ็กเก็ตต่อวินาที) แต่การโจมตีครั้งนี้ก็ถือเป็นหนึ่งในระดับ packet-rate ที่ใหญ่ที่สุดเท่าที่เคยเปิดเผยต่อสาธารณะ และเป็นสัญญาณเตือนว่าโลกไซเบอร์กำลังเข้าสู่ยุคที่การโจมตีสามารถเกิดขึ้นจากอุปกรณ์ที่เราใช้อยู่ทุกวัน

    รายละเอียดของการโจมตี DDoS ครั้งใหญ่
    เป้าหมายคือผู้ให้บริการ DDoS scrubbing ในยุโรปตะวันตก
    ปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps)
    ใช้เทคนิค UDP flood จากอุปกรณ์ CPE ที่ถูกแฮก เช่น IoT และเราเตอร์
    มาจากกว่า 11,000 เครือข่ายทั่วโลก — สะท้อนการกระจายตัวระดับมหาศาล

    การตอบสนองของ FastNetMon
    ใช้แพลตฟอร์ม Advanced ที่เขียนด้วย C++ สำหรับการตรวจจับแบบเรียลไทม์
    ตรวจจับได้ภายในไม่กี่วินาที — ป้องกันระบบล่มได้ทัน
    ใช้ ACL บน edge routers เพื่อบล็อกทราฟฟิกที่เป็นอันตราย
    เตือนให้มีการกรองทราฟฟิกที่ระดับ ISP เพื่อป้องกันการโจมตีในอนาคต

    ข้อมูลเสริมจากภายนอก
    Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 Bpps เพียงไม่กี่วันก่อนหน้า
    UDP เป็นโปรโตคอลที่นิยมใช้โจมตี เพราะไม่ต้องมี handshake แบบ TCP
    อุปกรณ์ CPE ที่ไม่ได้รับการอัปเดตหรือมีรหัสผ่านเริ่มต้น เป็นเป้าหมายหลักของการแฮก
    การโจมตีแบบ packet-rate flood มุ่งทำลาย state table และ buffer ของอุปกรณ์เครือข่าย

    https://www.tomshardware.com/tech-industry/cyber-security/ddos-scrubbing-service-ironic-target-of-massive-attack-it-was-built-to-prevent-hit-with-1-5-billion-packets-per-second-from-more-than-11-000-distributed-networks
    🌐 “บริการป้องกัน DDoS กลายเป็นเหยื่อของการโจมตี DDoS ขนาดมหึมา — FastNetMon ตรวจจับได้ทันก่อนระบบล่ม” ในเหตุการณ์ที่ชวนให้ตั้งคำถามถึงความมั่นคงของโครงสร้างอินเทอร์เน็ต บริการป้องกัน DDoS รายหนึ่งในยุโรปตะวันตกกลับกลายเป็นเป้าหมายของการโจมตี DDoS ขนาดใหญ่ที่สุดครั้งหนึ่งในประวัติศาสตร์ โดยมีปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps) ซึ่งเป็นการโจมตีแบบ UDP flood ที่มาจากอุปกรณ์ลูกค้าทั่วโลกกว่า 11,000 เครือข่าย2. แม้จะเป็นบริการที่ออกแบบมาเพื่อป้องกันการโจมตีลักษณะนี้ แต่ครั้งนี้ก็ต้องพึ่งพาการช่วยเหลือจาก FastNetMon ซึ่งสามารถตรวจจับและบรรเทาการโจมตีได้ภายในไม่กี่วินาที ด้วยแพลตฟอร์มที่ใช้ algorithm แบบ C++ ที่ปรับแต่งมาเพื่อการวิเคราะห์ทราฟฟิกแบบเรียลไทม์ สิ่งที่ทำให้การโจมตีครั้งนี้น่ากังวลคือการใช้ “อุปกรณ์ทั่วไปในบ้าน” เช่น เราเตอร์และ IoT ที่ถูกแฮกมาเป็นเครื่องมือโจมตี ซึ่งสะท้อนถึงแนวโน้มใหม่ของการ weaponize อุปกรณ์ผู้บริโภคในระดับมหาศาล โดย FastNetMon เตือนว่า หากไม่มีการกรองทราฟฟิกที่ระดับ ISP การโจมตีลักษณะนี้จะยิ่งขยายตัวและควบคุมได้ยาก แม้จะไม่ใช่การโจมตีที่ใหญ่ที่สุดในแง่ของ bandwidth (Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 พันล้านแพ็กเก็ตต่อวินาที) แต่การโจมตีครั้งนี้ก็ถือเป็นหนึ่งในระดับ packet-rate ที่ใหญ่ที่สุดเท่าที่เคยเปิดเผยต่อสาธารณะ และเป็นสัญญาณเตือนว่าโลกไซเบอร์กำลังเข้าสู่ยุคที่การโจมตีสามารถเกิดขึ้นจากอุปกรณ์ที่เราใช้อยู่ทุกวัน ✅ รายละเอียดของการโจมตี DDoS ครั้งใหญ่ ➡️ เป้าหมายคือผู้ให้บริการ DDoS scrubbing ในยุโรปตะวันตก ➡️ ปริมาณการโจมตีสูงถึง 1.5 พันล้านแพ็กเก็ตต่อวินาที (1.5 Gpps) ➡️ ใช้เทคนิค UDP flood จากอุปกรณ์ CPE ที่ถูกแฮก เช่น IoT และเราเตอร์ ➡️ มาจากกว่า 11,000 เครือข่ายทั่วโลก — สะท้อนการกระจายตัวระดับมหาศาล ✅ การตอบสนองของ FastNetMon ➡️ ใช้แพลตฟอร์ม Advanced ที่เขียนด้วย C++ สำหรับการตรวจจับแบบเรียลไทม์ ➡️ ตรวจจับได้ภายในไม่กี่วินาที — ป้องกันระบบล่มได้ทัน ➡️ ใช้ ACL บน edge routers เพื่อบล็อกทราฟฟิกที่เป็นอันตราย ➡️ เตือนให้มีการกรองทราฟฟิกที่ระดับ ISP เพื่อป้องกันการโจมตีในอนาคต ✅ ข้อมูลเสริมจากภายนอก ➡️ Cloudflare เคยรับมือกับการโจมตีขนาด 11.5 Tbps และ 5.1 Bpps เพียงไม่กี่วันก่อนหน้า ➡️ UDP เป็นโปรโตคอลที่นิยมใช้โจมตี เพราะไม่ต้องมี handshake แบบ TCP ➡️ อุปกรณ์ CPE ที่ไม่ได้รับการอัปเดตหรือมีรหัสผ่านเริ่มต้น เป็นเป้าหมายหลักของการแฮก ➡️ การโจมตีแบบ packet-rate flood มุ่งทำลาย state table และ buffer ของอุปกรณ์เครือข่าย https://www.tomshardware.com/tech-industry/cyber-security/ddos-scrubbing-service-ironic-target-of-massive-attack-it-was-built-to-prevent-hit-with-1-5-billion-packets-per-second-from-more-than-11-000-distributed-networks
    0 Comments 0 Shares 278 Views 0 Reviews
  • “ย้อนอดีตสู่อนาคต: ทำไมการจัดรูปแบบโค้ดควรเป็นเรื่องไม่จำเป็นตั้งแต่ยุค 80”

    ลองจินตนาการว่า...คุณกำลังเขียนโค้ดในปี 2025 แต่ยังต้องมานั่งเถียงกันเรื่องการเว้นวรรค, การใช้ tab หรือ space, หรือแม้แต่การตั้งค่า eslint ที่ทำให้ทีมปวดหัว ทั้งที่ปัญหาเหล่านี้ “ถูกแก้ไปแล้วตั้งแต่ยุค 80”!

    บทความนี้เล่าย้อนถึงประสบการณ์ของผู้เขียนกับครูสอนคอมพิวเตอร์ในโรงเรียนมัธยมที่เคยทำงานกับคอมไพเลอร์ภาษา Ada และ Rational R1000 ซึ่งเป็น workstation ที่ล้ำหน้ามากในยุคนั้น โดยใช้ระบบที่เรียกว่า DIANA (Descriptive Intermediate Attributed Notation for Ada) แทนการเก็บ source code แบบข้อความธรรมดา

    DIANA เป็น IR (Intermediate Representation) ที่สามารถแสดงผลในรูปแบบใดก็ได้ตามที่ผู้ใช้ต้องการ โดยไม่ต้องสนใจเรื่องการจัดรูปแบบโค้ดเลย เพราะสิ่งที่แสดงออกมาเป็นเพียง “ภาพพิมพ์สวยๆ” ของโครงสร้างโปรแกรมที่แท้จริง ซึ่งถูกจัดเก็บเป็นต้นไม้ข้อมูล (program tree) และแก้ไขได้โดยตรงผ่าน editor แบบ projectional editing

    Rational R1000 ยังมีฟีเจอร์ล้ำยุค เช่น incremental compilation, semantic analysis, version control และ debugging ที่ฝังอยู่ในระบบตั้งแต่ต้น ซึ่งช่วยให้การพัฒนาโปรแกรมขนาดใหญ่เป็นไปอย่างรวดเร็วและแม่นยำ

    แม้วันนี้เราจะมีเครื่องมือที่ดีขึ้น เช่น Claude ที่ช่วย refactor โค้ดได้ง่าย แต่ในเรื่องของการจัดรูปแบบ เรากลับถอยหลัง เพราะยังต้องเสียเวลาไปกับการตั้งค่าลินเตอร์และการตกแต่งโค้ด ทั้งที่เทคโนโลยีในอดีตเคยทำให้สิ่งเหล่านี้ “ไม่จำเป็น” มาแล้ว

    แนวคิดจากยุค 80 ที่ล้ำหน้ากว่าปัจจุบัน
    DIANA เป็น IR ที่ใช้แทนการเก็บ source code แบบข้อความ
    ผู้ใช้สามารถตั้งค่าการแสดงผลโค้ดได้ตามใจ โดยไม่กระทบต่อการทำงาน
    Rational R1000 ใช้ DIANA เป็นแกนหลักในการพัฒนาโปรแกรม
    ระบบสามารถแก้ไขโครงสร้างโปรแกรมโดยตรงผ่าน projectional editing
    ไม่ต้องเถียงเรื่อง tab vs space หรือ eslint-config อีกต่อไป

    ฟีเจอร์ล้ำยุคของ Rational R1000
    มี incremental compilation สำหรับภาษา strongly typed
    รองรับ semantic analysis และ version control ในตัว
    ใช้ในการพัฒนาโปรแกรมระดับชาติ เช่น ISS และ F-22
    เป็นต้นกำเนิดของ UML โดย Grady Booch
    IDE ที่ฝังอยู่ในระบบสามารถ debug และ refactor ได้ทันที

    บทเรียนสำหรับยุคปัจจุบัน
    Claude และ AI agent ช่วยให้ refactor โค้ดได้ง่ายขึ้น
    แต่การจัดรูปแบบโค้ดยังเป็นปัญหาที่ไม่ควรมีอีกต่อไป
    ควรพิจารณาแนวทางใหม่ เช่น projectional editing หรือการใช้ IR

    คำเตือนเกี่ยวกับการพึ่งพาเครื่องมือจัดรูปแบบ
    การถกเถียงเรื่อง formatting อาจทำให้เสียเวลาโดยไม่จำเป็น
    การบังคับใช้ eslint หรือ prettier อาจสร้างความขัดแย้งในทีม
    การยึดติดกับรูปแบบโค้ดอาจบดบังเป้าหมายที่แท้จริงของการพัฒนา
    การไม่เข้าใจโครงสร้างภายในของโค้ด อาจทำให้ refactor ผิดพลาด

    https://maxleiter.com/blog/formatting
    🧾 “ย้อนอดีตสู่อนาคต: ทำไมการจัดรูปแบบโค้ดควรเป็นเรื่องไม่จำเป็นตั้งแต่ยุค 80” ลองจินตนาการว่า...คุณกำลังเขียนโค้ดในปี 2025 แต่ยังต้องมานั่งเถียงกันเรื่องการเว้นวรรค, การใช้ tab หรือ space, หรือแม้แต่การตั้งค่า eslint ที่ทำให้ทีมปวดหัว ทั้งที่ปัญหาเหล่านี้ “ถูกแก้ไปแล้วตั้งแต่ยุค 80”! บทความนี้เล่าย้อนถึงประสบการณ์ของผู้เขียนกับครูสอนคอมพิวเตอร์ในโรงเรียนมัธยมที่เคยทำงานกับคอมไพเลอร์ภาษา Ada และ Rational R1000 ซึ่งเป็น workstation ที่ล้ำหน้ามากในยุคนั้น โดยใช้ระบบที่เรียกว่า DIANA (Descriptive Intermediate Attributed Notation for Ada) แทนการเก็บ source code แบบข้อความธรรมดา DIANA เป็น IR (Intermediate Representation) ที่สามารถแสดงผลในรูปแบบใดก็ได้ตามที่ผู้ใช้ต้องการ โดยไม่ต้องสนใจเรื่องการจัดรูปแบบโค้ดเลย เพราะสิ่งที่แสดงออกมาเป็นเพียง “ภาพพิมพ์สวยๆ” ของโครงสร้างโปรแกรมที่แท้จริง ซึ่งถูกจัดเก็บเป็นต้นไม้ข้อมูล (program tree) และแก้ไขได้โดยตรงผ่าน editor แบบ projectional editing Rational R1000 ยังมีฟีเจอร์ล้ำยุค เช่น incremental compilation, semantic analysis, version control และ debugging ที่ฝังอยู่ในระบบตั้งแต่ต้น ซึ่งช่วยให้การพัฒนาโปรแกรมขนาดใหญ่เป็นไปอย่างรวดเร็วและแม่นยำ แม้วันนี้เราจะมีเครื่องมือที่ดีขึ้น เช่น Claude ที่ช่วย refactor โค้ดได้ง่าย แต่ในเรื่องของการจัดรูปแบบ เรากลับถอยหลัง เพราะยังต้องเสียเวลาไปกับการตั้งค่าลินเตอร์และการตกแต่งโค้ด ทั้งที่เทคโนโลยีในอดีตเคยทำให้สิ่งเหล่านี้ “ไม่จำเป็น” มาแล้ว ✅ แนวคิดจากยุค 80 ที่ล้ำหน้ากว่าปัจจุบัน ➡️ DIANA เป็น IR ที่ใช้แทนการเก็บ source code แบบข้อความ ➡️ ผู้ใช้สามารถตั้งค่าการแสดงผลโค้ดได้ตามใจ โดยไม่กระทบต่อการทำงาน ➡️ Rational R1000 ใช้ DIANA เป็นแกนหลักในการพัฒนาโปรแกรม ➡️ ระบบสามารถแก้ไขโครงสร้างโปรแกรมโดยตรงผ่าน projectional editing ➡️ ไม่ต้องเถียงเรื่อง tab vs space หรือ eslint-config อีกต่อไป ✅ ฟีเจอร์ล้ำยุคของ Rational R1000 ➡️ มี incremental compilation สำหรับภาษา strongly typed ➡️ รองรับ semantic analysis และ version control ในตัว ➡️ ใช้ในการพัฒนาโปรแกรมระดับชาติ เช่น ISS และ F-22 ➡️ เป็นต้นกำเนิดของ UML โดย Grady Booch ➡️ IDE ที่ฝังอยู่ในระบบสามารถ debug และ refactor ได้ทันที ✅ บทเรียนสำหรับยุคปัจจุบัน ➡️ Claude และ AI agent ช่วยให้ refactor โค้ดได้ง่ายขึ้น ➡️ แต่การจัดรูปแบบโค้ดยังเป็นปัญหาที่ไม่ควรมีอีกต่อไป ➡️ ควรพิจารณาแนวทางใหม่ เช่น projectional editing หรือการใช้ IR ‼️ คำเตือนเกี่ยวกับการพึ่งพาเครื่องมือจัดรูปแบบ ⛔ การถกเถียงเรื่อง formatting อาจทำให้เสียเวลาโดยไม่จำเป็น ⛔ การบังคับใช้ eslint หรือ prettier อาจสร้างความขัดแย้งในทีม ⛔ การยึดติดกับรูปแบบโค้ดอาจบดบังเป้าหมายที่แท้จริงของการพัฒนา ⛔ การไม่เข้าใจโครงสร้างภายในของโค้ด อาจทำให้ refactor ผิดพลาด https://maxleiter.com/blog/formatting
    MAXLEITER.COM
    Max Leiter
    and we knew this back in the 80s
    0 Comments 0 Shares 269 Views 0 Reviews
  • เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว

    Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ

    ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime

    ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น

    ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7

    นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที

    สเปกหลักของ GIGABYTE XL44-SX2-AAS1
    ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว
    แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32
    ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว

    ความสามารถด้านการเชื่อมต่อและประมวลผล
    รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU
    มี 2×400GbE external connections สำหรับ data center traffic
    รองรับ GPU-to-GPU direct communication สำหรับ distributed AI

    ฮาร์ดแวร์ระดับ data center
    Dual Intel Xeon 6700/6500 series CPU
    รองรับ DDR5 DIMM สูงสุด 32 แถว
    พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium

    ซอฟต์แวร์และการใช้งาน
    มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos
    รองรับงาน AI inference, physical AI, 3D simulation, video processing
    ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization

    การใช้งานในอุตสาหกรรม
    เหมาะกับ smart manufacturing, financial modeling, medical research
    รองรับ LLM inference และการสร้าง digital twins
    พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025

    https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    🎙️ เรื่องเล่าจาก Blackwell ถึง BlueField: เมื่อ Giga Computing เปิดตัวเซิร์ฟเวอร์ที่รวมทุกสิ่งไว้ในแร็คเดียว Giga Computing ซึ่งเป็นบริษัทลูกของ GIGABYTE ได้เปิดตัว XL44-SX2-AAS1 ซึ่งเป็นเซิร์ฟเวอร์รุ่นใหม่ในกลุ่ม NVIDIA RTX PRO Server โดยใช้สถาปัตยกรรม MGX ที่ออกแบบมาเพื่อรองรับงาน AI ระดับองค์กรโดยเฉพาะ ภายในเซิร์ฟเวอร์นี้มี GPU รุ่น RTX PRO 6000 Blackwell Server Edition ถึง 8 ตัว แต่ละตัวมี 24,064 CUDA cores, 96 GB GDDR7 ECC memory และสามารถประมวลผล FP4 ได้ถึง 3.7 PFLOPS พร้อม DPU รุ่น BlueField-3 ที่ให้แบนด์วิดธ์ 400 Gb/s สำหรับการเข้าถึงข้อมูลและความปลอดภัยของ runtime ที่โดดเด่นคือการใช้ NVIDIA ConnectX-8 SuperNIC จำนวน 4 ตัว ซึ่งรองรับ PCIe Gen 6 x16 และสามารถเชื่อมต่อ GPU-to-GPU โดยตรงด้วยแบนด์วิดธ์สูงสุดถึง 800 Gb/s ต่อ GPU—ช่วยให้การเทรนโมเดลแบบกระจาย (distributed training) ทำได้เร็วขึ้นและเสถียรมากขึ้น ระบบนี้ยังมาพร้อมกับซีพียู Intel Xeon 6700/6500 series แบบ dual-socket, RAM DDR5 สูงสุด 32 DIMMs, และพาวเวอร์ซัพพลายแบบ redundant 3+1 ขนาด 3200W ที่ผ่านมาตรฐาน 80 Plus Titanium เพื่อรองรับการทำงาน 24/7 นอกจากฮาร์ดแวร์แล้ว XL44 ยังมาพร้อมกับ NVIDIA AI Enterprise ที่รวม microservices อย่าง NIM, รองรับ Omniverse สำหรับ digital twins และ Cosmos สำหรับ physical AI—ทำให้สามารถนำโมเดลจากโลกเสมือนเข้าสู่การใช้งานจริงได้ทันที ✅ สเปกหลักของ GIGABYTE XL44-SX2-AAS1 ➡️ ใช้ GPU RTX PRO 6000 Blackwell Server Edition × 8 ตัว ➡️ แต่ละ GPU มี 96 GB GDDR7 ECC, 3.7 PFLOPS FP4, 117 TFLOPS FP32 ➡️ ใช้ DPU BlueField-3 และ SuperNIC ConnectX-8 × 4 ตัว ✅ ความสามารถด้านการเชื่อมต่อและประมวลผล ➡️ รองรับ PCIe Gen 6 x16 และ InfiniBand/Ethernet สูงสุด 800 Gb/s ต่อ GPU ➡️ มี 2×400GbE external connections สำหรับ data center traffic ➡️ รองรับ GPU-to-GPU direct communication สำหรับ distributed AI ✅ ฮาร์ดแวร์ระดับ data center ➡️ Dual Intel Xeon 6700/6500 series CPU ➡️ รองรับ DDR5 DIMM สูงสุด 32 แถว ➡️ พาวเวอร์ซัพพลาย 3+1 redundant 3200W 80 Plus Titanium ✅ ซอฟต์แวร์และการใช้งาน ➡️ มาพร้อม NVIDIA AI Enterprise, NIM, Omniverse และ Cosmos ➡️ รองรับงาน AI inference, physical AI, 3D simulation, video processing ➡️ ใช้งานได้กับ Windows, Linux, Kubernetes และ virtualization ✅ การใช้งานในอุตสาหกรรม ➡️ เหมาะกับ smart manufacturing, financial modeling, medical research ➡️ รองรับ LLM inference และการสร้าง digital twins ➡️ พร้อมใช้งานทั่วไปในเดือนตุลาคม 2025 https://www.techpowerup.com/340680/giga-computing-expands-nvidia-rtx-pro-server-portfolio
    WWW.TECHPOWERUP.COM
    Giga Computing Expands NVIDIA RTX PRO Server Portfolio
    Giga Computing, a subsidiary of GIGABYTE Group, today announced the availability of the XL44-SX2-AAS1 server, integrating NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs with the NVIDIA BlueField-3 DPU and NVIDIA ConnectX-8 SuperNICs, this breakthrough platform unifies computing and high-speed dat...
    0 Comments 0 Shares 263 Views 0 Reviews
  • เรื่องเล่าจาก 11.5 Tbps: เมื่อ DDoS ไม่ใช่แค่การโจมตี แต่คือการทดสอบโครงสร้างพื้นฐานของโลกออนไลน์

    ในเดือนกันยายน 2025 Cloudflare ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยบันทึกไว้ โดยมีความแรงถึง 11.5 Tbps และกินเวลาราว 35 วินาที แม้จะสั้น แต่ก็เพียงพอที่จะทำให้โครงสร้างพื้นฐานของอินเทอร์เน็ต “สะเทือน” หากไม่มีระบบป้องกันที่แข็งแกร่ง

    การโจมตีครั้งนี้มาในรูปแบบ UDP flood ซึ่งเป็นการส่งข้อมูลแบบไร้การเชื่อมต่อจากอุปกรณ์ที่ถูกแฮ็ก เช่น IoT และ cloud VM จากหลายผู้ให้บริการ โดยในช่วงแรกมีการระบุว่า Google Cloud เป็นแหล่งหลักของทราฟฟิก แต่ภายหลังพบว่าเป็นการรวมกันจากหลายแหล่งที่ถูกควบคุมโดย botnet

    เพื่อให้เห็นภาพ—11.5 Tbps เทียบเท่ากับการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน หรือการดาวน์โหลดข้อมูลหลายสิบเทราไบต์ในเวลาไม่ถึงนาที

    แม้จะเป็นการโจมตีที่ใหญ่ที่สุด แต่ Cloudflare ระบุว่า “ขนาด” ไม่ใช่สิ่งสำคัญที่สุด การโจมตีที่อันตรายจริงคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง ซึ่งสามารถทำให้ API ล่ม, เว็บไซต์ไม่ตอบสนอง หรือธุรกิจหยุดชะงักได้

    RETN ซึ่งเป็นผู้ให้บริการเครือข่ายระดับโลกเสริมว่า สิ่งที่วัดผลได้จริงคือ “ระบบยังออนไลน์อยู่หรือไม่” และพวกเขาได้เพิ่มความสามารถในการกรองข้อมูล (scrubbing capacity) มากกว่า 5000% เพื่อรับมือกับการโจมตีระดับนี้

    รายละเอียดของการโจมตี
    เป็น DDoS แบบ UDP flood ที่มีความแรงสูงสุด 11.5 Tbps
    กินเวลาประมาณ 35 วินาทีโดยไม่มีผลกระทบต่อบริการของ Cloudflare
    ทราฟฟิกมาจากอุปกรณ์ IoT และ cloud VM ที่ถูกควบคุมโดย botnet

    ความหมายของขนาดการโจมตี
    เทียบเท่าการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน
    เป็นการทดสอบความสามารถของระบบอินเทอร์เน็ตระดับโลก
    Cloudflare เคยรับมือกับการโจมตี 7.3 Tbps ในเดือนมิถุนายน และ 5.6 Tbps ในปี 2024

    มุมมองจากผู้เชี่ยวชาญ
    William Manzione จาก RETN ระบุว่า “ขนาดไม่ใช่ทุกอย่าง”
    การโจมตีที่อันตรายคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง
    RETN เพิ่ม scrubbing capacity มากกว่า 5000% เพื่อรับมือกับ multi-terabit flood

    ประสิทธิภาพของระบบป้องกัน
    Cloudflare ใช้ระบบอัตโนมัติในการตรวจจับและบล็อกการโจมตี
    ไม่มีการหยุดชะงักของเว็บไซต์หรือ API ของลูกค้า
    แสดงถึงความสามารถในการป้องกันแบบ real-time ที่มีประสิทธิภาพสูง

    https://hackread.com/cloudflare-mitigates-largest-ddos-attack-11-5-tbps/
    🎙️ เรื่องเล่าจาก 11.5 Tbps: เมื่อ DDoS ไม่ใช่แค่การโจมตี แต่คือการทดสอบโครงสร้างพื้นฐานของโลกออนไลน์ ในเดือนกันยายน 2025 Cloudflare ประกาศว่าได้ป้องกันการโจมตีแบบ DDoS (Distributed Denial-of-Service) ที่ใหญ่ที่สุดเท่าที่เคยบันทึกไว้ โดยมีความแรงถึง 11.5 Tbps และกินเวลาราว 35 วินาที แม้จะสั้น แต่ก็เพียงพอที่จะทำให้โครงสร้างพื้นฐานของอินเทอร์เน็ต “สะเทือน” หากไม่มีระบบป้องกันที่แข็งแกร่ง การโจมตีครั้งนี้มาในรูปแบบ UDP flood ซึ่งเป็นการส่งข้อมูลแบบไร้การเชื่อมต่อจากอุปกรณ์ที่ถูกแฮ็ก เช่น IoT และ cloud VM จากหลายผู้ให้บริการ โดยในช่วงแรกมีการระบุว่า Google Cloud เป็นแหล่งหลักของทราฟฟิก แต่ภายหลังพบว่าเป็นการรวมกันจากหลายแหล่งที่ถูกควบคุมโดย botnet เพื่อให้เห็นภาพ—11.5 Tbps เทียบเท่ากับการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน หรือการดาวน์โหลดข้อมูลหลายสิบเทราไบต์ในเวลาไม่ถึงนาที แม้จะเป็นการโจมตีที่ใหญ่ที่สุด แต่ Cloudflare ระบุว่า “ขนาด” ไม่ใช่สิ่งสำคัญที่สุด การโจมตีที่อันตรายจริงคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง ซึ่งสามารถทำให้ API ล่ม, เว็บไซต์ไม่ตอบสนอง หรือธุรกิจหยุดชะงักได้ RETN ซึ่งเป็นผู้ให้บริการเครือข่ายระดับโลกเสริมว่า สิ่งที่วัดผลได้จริงคือ “ระบบยังออนไลน์อยู่หรือไม่” และพวกเขาได้เพิ่มความสามารถในการกรองข้อมูล (scrubbing capacity) มากกว่า 5000% เพื่อรับมือกับการโจมตีระดับนี้ ✅ รายละเอียดของการโจมตี ➡️ เป็น DDoS แบบ UDP flood ที่มีความแรงสูงสุด 11.5 Tbps ➡️ กินเวลาประมาณ 35 วินาทีโดยไม่มีผลกระทบต่อบริการของ Cloudflare ➡️ ทราฟฟิกมาจากอุปกรณ์ IoT และ cloud VM ที่ถูกควบคุมโดย botnet ✅ ความหมายของขนาดการโจมตี ➡️ เทียบเท่าการสตรีมภาพยนตร์ HD หลายพันเรื่องพร้อมกัน ➡️ เป็นการทดสอบความสามารถของระบบอินเทอร์เน็ตระดับโลก ➡️ Cloudflare เคยรับมือกับการโจมตี 7.3 Tbps ในเดือนมิถุนายน และ 5.6 Tbps ในปี 2024 ✅ มุมมองจากผู้เชี่ยวชาญ ➡️ William Manzione จาก RETN ระบุว่า “ขนาดไม่ใช่ทุกอย่าง” ➡️ การโจมตีที่อันตรายคือแบบ multi-vector ที่มีความซับซ้อนและต่อเนื่อง ➡️ RETN เพิ่ม scrubbing capacity มากกว่า 5000% เพื่อรับมือกับ multi-terabit flood ✅ ประสิทธิภาพของระบบป้องกัน ➡️ Cloudflare ใช้ระบบอัตโนมัติในการตรวจจับและบล็อกการโจมตี ➡️ ไม่มีการหยุดชะงักของเว็บไซต์หรือ API ของลูกค้า ➡️ แสดงถึงความสามารถในการป้องกันแบบ real-time ที่มีประสิทธิภาพสูง https://hackread.com/cloudflare-mitigates-largest-ddos-attack-11-5-tbps/
    HACKREAD.COM
    Cloudflare Mitigates Largest Ever Recorded DDoS Attack at 11.5 Tbps
    Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
    0 Comments 0 Shares 215 Views 0 Reviews
  • Mythic Words From Mythologies Around The World

    It’s in human nature to tell stories and in many ways, our stories—our mythologies—work their way into every aspect of our daily lives, from meme culture to the language we speak. You may be familiar with some of the words derived from the names of Greek and Roman gods and characters (herculean, echo, narcissist, to name a few). But some of the words with similar origins are more obscure and may surprise you, and still others are drawn from completely different cultural lineages! Many of our modern words are inspired not only by Greco-Roman mythos but also by West African, Indigenous, Far East Asian, and Nordic folktales, gods, heroes, and legends.

    Here’s a closer look at some of our everyday words and the many diverse mythologies that have contributed to their use and interpretation today.

    California

    While many of us might view the Golden State as the land of sunshine, mild winters, and plenty, this idyllic image of California is first glimpsed in Garci Rodríguez de Montalvo’s novel Las Sergas de Esplandián (“The Adventures of Esplandián”) from the 1500s. At a time when Spanish invasion and exploration of the Americas was at its peak, Las Sergas de Esplandián describes a fictional island ruled by Queen Calafia of the Indies, hence the name “California.” It’s possible Rodríguez de Montalvo derived California from the Arabic khalif or khalifa (a spiritual leader of Islam), or the term Califerne from the 11th-century epic French poem The Song of Roland. When the Spanish first encountered the Baja California peninsula, it was initially believed to be an island and so was dubbed for the fictional island in Rodríguez de Montalvo’s novel. Eventually, this name would apply to the region that we now know as California in the US and Baja California in Mexico today.

    chimeric

    Chimeric is an adjective used to describe something “imaginary, fanciful” or in the context of biology, chimeric describes an organism “having parts of different origins.” The word chimeric is derived from the name of an ancient Greek monster, the chimera. Typically depicted as a having both a goat and lion head sprouting from its back and a serpent as a tail, the chimera was a terrifying and formidable opponent.

    hell

    While this word may call to mind Christianity and the realm of demons and condemned souls, hell is also associated with another concept of the underworld. According to Norse mythology, the prominent god Odin appointed the goddess and daughter of Loki, Hel, to preside over the realm of the dead. Hel’s name subsequently became associated as the word for the underworld itself. The word hell entered Old English sometime before the year 900 CE.

    hurricane

    When a windstorm whips up torrential rains, it can definitely seem like a god’s fury has been called down. This might explain why hurricane is derived from a Taíno storm god, Hurakán. The Taíno were an Indigenous tribe of the Caribbean, so it certainly makes sense that their deities would hold the name now associated with major tropical storms. Working its way from Spanish into English, hurricane was likely first recorded in English around the mid-1500s.

    Nike

    Typically depicted with wings, Nike was the Greek goddess of victory. Her influence was not limited to athletics, and she could oversee any field from art to music to war. Nike is said to have earned this title as one of the first deities to offer her allegiance to Zeus during the Titanomachy, the great battle between the Titans and gods for Mount Olympus. Of course, with a winning streak like that, it’s no wonder a popular sports apparel company would name itself after her.

    plutocracy

    Plutocracy means “the rule or power of wealth” or “of the wealthy, particularly a government or state in which the wealthy class rules.” The pluto in plutocracy comes from the Roman god of wealth, Pluto. Often known best by his Greek name, Hades, Pluto also presided over the underworld. Where does the wealth factor in? Precious metals and gems are typically found underground. The word plutocracy was recorded in the English language around 1645–1655.

    protean

    The adjective protean [ proh-tee-uhn ] describes how something readily assumes different forms, shapes, or characteristics. Something that is protean is “extremely variable.” This word originates from the name of Proteus, a minor Greek sea god who served under Poseidon. Proteus was prophetic and said to be able to gaze into the past, present, and future. However, he was pretty stingy with his knowledge, so most challengers would have to surprise him and wrestle him—while Proteus continually transformed into different (usually dangerous) shapes, such as a lion or a snake! If the challenger held on throughout the transformations, Proteus would answer their question truthfully before jumping back into the sea.

    quetzalcoatlus

    Quetzalcoatlus is a genus of pterosaur from the Late Cretaceous period. Its remains were discovered in 1971 in Texas. As a flying dinosaur from the Americas, its name derives from the god Quetzalcóatl, or “the feathered serpent,” in Nahuatl. Often depicted as exactly that (in addition to having incarnations that ranged from axolotls to dogs to corn), Quetzalcóatl was a prominent god of creation and order in the pantheon of the Mexica people. His domain included powerful and sustaining forces such as the sun, the wind, agriculture, wisdom, and writing.

    ragnarok

    Popping up everywhere from video games to blockbuster movies, the word ragnarok [ rahg-nuh-rok ] just sounds cool. It’s typically used as a synonym for the end of the world—and that’s what it originally referred to. In Norse mythology, this apocalyptic moment will occur when three roosters crow and the monster hound, Garmr, breaks free of his cave. A frightening battle among gods ensues along with natural disasters. The Old Norse word Ragnarǫk that it derives from is a compound of “gods” (ragna) and “fate” (rok).

    Subaru

    Known in most of the English-speaking world as a popular car manufacturer, Subaru is a Japanese word for the Seven Sisters, or Pleiades, constellation. The Subaru logo even features the six stars visible to the naked eye in the constellation. In 2021, astronomers Ray and Barnaby Norris proposed that the constellation referred to as “Seven Sisters” by various ancient peoples (which today looks like six visible stars) once had a seventh visible star whose light has been swallowed up by the light of another.

    Tuesday/Wednesday/Thursday/Friday/Saturday

    If we want an example of mythology rooted in our day-to-day, we needn’t look any further than the days of the week. Initially, Romans named their days of the week after the planets, which included the sun and the moon (Sunday and Monday). As the Roman Empire expanded to include Germanic-speaking peoples, the names of the weekdays were adapted to reflect the names of gods familiar to the local populations.

    Today, five out of seven days of the week are linked to the names of mythological gods, four of which are Old Germanic/Norse in origin. Tuesday is rooted in the name of the Norse god of war and justice, Tyr. Wednesday descends from Woden (alternatively, Odin), a widely revered Germanic-Norse god who presided over healing, wisdom, death, war, poetry, and sorcery. Thursday is derived from the thunder god Thor. Finally, Friday owes its name to Frigg, the goddess of marriage, prophecy, clairvoyance, and motherhood. The outlier of the weekday group is Saturday, which traces its name back to Saturn, the Roman god of time, wealth, and renewal.

    While scholars are uncertain as to when the Germanic-Norse adaptations of the days of the week were introduced, it is estimated to have occurred between 200-500 CE to predate the spread of Christianity and the final collapse of the Roman Empire.

    weird

    While weird today generally means “bizarre” or “unusual,” its older use has been to refer to something that is “uncanny” or relating to the supernatural. This links into the original definition of weird, or then wyrd, as being able to control fate or destiny. The Old English derivation of the Germanic word was first recorded before 900 CE as wyrd; then in Middle English as the phrase werde sisters, which referred to the Fates. According to Greek mythology, the three goddesses known as the Fates control the destinies of the lives of man. In the early 1600s, Shakespeare’s Macbeth, used werde sisters to refer to these witches in the play.

    © 2025, Aakkhra, All rights reserved.
    Mythic Words From Mythologies Around The World It’s in human nature to tell stories and in many ways, our stories—our mythologies—work their way into every aspect of our daily lives, from meme culture to the language we speak. You may be familiar with some of the words derived from the names of Greek and Roman gods and characters (herculean, echo, narcissist, to name a few). But some of the words with similar origins are more obscure and may surprise you, and still others are drawn from completely different cultural lineages! Many of our modern words are inspired not only by Greco-Roman mythos but also by West African, Indigenous, Far East Asian, and Nordic folktales, gods, heroes, and legends. Here’s a closer look at some of our everyday words and the many diverse mythologies that have contributed to their use and interpretation today. California While many of us might view the Golden State as the land of sunshine, mild winters, and plenty, this idyllic image of California is first glimpsed in Garci Rodríguez de Montalvo’s novel Las Sergas de Esplandián (“The Adventures of Esplandián”) from the 1500s. At a time when Spanish invasion and exploration of the Americas was at its peak, Las Sergas de Esplandián describes a fictional island ruled by Queen Calafia of the Indies, hence the name “California.” It’s possible Rodríguez de Montalvo derived California from the Arabic khalif or khalifa (a spiritual leader of Islam), or the term Califerne from the 11th-century epic French poem The Song of Roland. When the Spanish first encountered the Baja California peninsula, it was initially believed to be an island and so was dubbed for the fictional island in Rodríguez de Montalvo’s novel. Eventually, this name would apply to the region that we now know as California in the US and Baja California in Mexico today. chimeric Chimeric is an adjective used to describe something “imaginary, fanciful” or in the context of biology, chimeric describes an organism “having parts of different origins.” The word chimeric is derived from the name of an ancient Greek monster, the chimera. Typically depicted as a having both a goat and lion head sprouting from its back and a serpent as a tail, the chimera was a terrifying and formidable opponent. hell While this word may call to mind Christianity and the realm of demons and condemned souls, hell is also associated with another concept of the underworld. According to Norse mythology, the prominent god Odin appointed the goddess and daughter of Loki, Hel, to preside over the realm of the dead. Hel’s name subsequently became associated as the word for the underworld itself. The word hell entered Old English sometime before the year 900 CE. hurricane When a windstorm whips up torrential rains, it can definitely seem like a god’s fury has been called down. This might explain why hurricane is derived from a Taíno storm god, Hurakán. The Taíno were an Indigenous tribe of the Caribbean, so it certainly makes sense that their deities would hold the name now associated with major tropical storms. Working its way from Spanish into English, hurricane was likely first recorded in English around the mid-1500s. Nike Typically depicted with wings, Nike was the Greek goddess of victory. Her influence was not limited to athletics, and she could oversee any field from art to music to war. Nike is said to have earned this title as one of the first deities to offer her allegiance to Zeus during the Titanomachy, the great battle between the Titans and gods for Mount Olympus. Of course, with a winning streak like that, it’s no wonder a popular sports apparel company would name itself after her. plutocracy Plutocracy means “the rule or power of wealth” or “of the wealthy, particularly a government or state in which the wealthy class rules.” The pluto in plutocracy comes from the Roman god of wealth, Pluto. Often known best by his Greek name, Hades, Pluto also presided over the underworld. Where does the wealth factor in? Precious metals and gems are typically found underground. The word plutocracy was recorded in the English language around 1645–1655. protean The adjective protean [ proh-tee-uhn ] describes how something readily assumes different forms, shapes, or characteristics. Something that is protean is “extremely variable.” This word originates from the name of Proteus, a minor Greek sea god who served under Poseidon. Proteus was prophetic and said to be able to gaze into the past, present, and future. However, he was pretty stingy with his knowledge, so most challengers would have to surprise him and wrestle him—while Proteus continually transformed into different (usually dangerous) shapes, such as a lion or a snake! If the challenger held on throughout the transformations, Proteus would answer their question truthfully before jumping back into the sea. quetzalcoatlus Quetzalcoatlus is a genus of pterosaur from the Late Cretaceous period. Its remains were discovered in 1971 in Texas. As a flying dinosaur from the Americas, its name derives from the god Quetzalcóatl, or “the feathered serpent,” in Nahuatl. Often depicted as exactly that (in addition to having incarnations that ranged from axolotls to dogs to corn), Quetzalcóatl was a prominent god of creation and order in the pantheon of the Mexica people. His domain included powerful and sustaining forces such as the sun, the wind, agriculture, wisdom, and writing. ragnarok Popping up everywhere from video games to blockbuster movies, the word ragnarok [ rahg-nuh-rok ] just sounds cool. It’s typically used as a synonym for the end of the world—and that’s what it originally referred to. In Norse mythology, this apocalyptic moment will occur when three roosters crow and the monster hound, Garmr, breaks free of his cave. A frightening battle among gods ensues along with natural disasters. The Old Norse word Ragnarǫk that it derives from is a compound of “gods” (ragna) and “fate” (rok). Subaru Known in most of the English-speaking world as a popular car manufacturer, Subaru is a Japanese word for the Seven Sisters, or Pleiades, constellation. The Subaru logo even features the six stars visible to the naked eye in the constellation. In 2021, astronomers Ray and Barnaby Norris proposed that the constellation referred to as “Seven Sisters” by various ancient peoples (which today looks like six visible stars) once had a seventh visible star whose light has been swallowed up by the light of another. Tuesday/Wednesday/Thursday/Friday/Saturday If we want an example of mythology rooted in our day-to-day, we needn’t look any further than the days of the week. Initially, Romans named their days of the week after the planets, which included the sun and the moon (Sunday and Monday). As the Roman Empire expanded to include Germanic-speaking peoples, the names of the weekdays were adapted to reflect the names of gods familiar to the local populations. Today, five out of seven days of the week are linked to the names of mythological gods, four of which are Old Germanic/Norse in origin. Tuesday is rooted in the name of the Norse god of war and justice, Tyr. Wednesday descends from Woden (alternatively, Odin), a widely revered Germanic-Norse god who presided over healing, wisdom, death, war, poetry, and sorcery. Thursday is derived from the thunder god Thor. Finally, Friday owes its name to Frigg, the goddess of marriage, prophecy, clairvoyance, and motherhood. The outlier of the weekday group is Saturday, which traces its name back to Saturn, the Roman god of time, wealth, and renewal. While scholars are uncertain as to when the Germanic-Norse adaptations of the days of the week were introduced, it is estimated to have occurred between 200-500 CE to predate the spread of Christianity and the final collapse of the Roman Empire. weird While weird today generally means “bizarre” or “unusual,” its older use has been to refer to something that is “uncanny” or relating to the supernatural. This links into the original definition of weird, or then wyrd, as being able to control fate or destiny. The Old English derivation of the Germanic word was first recorded before 900 CE as wyrd; then in Middle English as the phrase werde sisters, which referred to the Fates. According to Greek mythology, the three goddesses known as the Fates control the destinies of the lives of man. In the early 1600s, Shakespeare’s Macbeth, used werde sisters to refer to these witches in the play. © 2025, Aakkhra, All rights reserved.
    Like
    1
    0 Comments 0 Shares 816 Views 0 Reviews
More Results