“อินเทอร์เน็ตใหญ่แค่ไหน? — เมื่อข้อมูลทะลุ 181 Zettabytes และโลกต้องจ่ายด้วยพลังงานและน้ำมหาศาล”
ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที
ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก
แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก
ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่
แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด
ข้อมูลสำคัญจากข่าว
ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes
หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes
ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน
CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์
ข้อมูลที่ไม่สามารถวัดได้โดยตรง
Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine
แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม
ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน
ผลกระทบทางกายภาพจากข้อมูล
ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก
บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน
Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ
Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด
ข้อมูลเสริมจากภายนอก
IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028
การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว
การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity
การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร
https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที
ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก
แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก
ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่
แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด
ข้อมูลสำคัญจากข่าว
ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes
หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes
ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน
CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์
ข้อมูลที่ไม่สามารถวัดได้โดยตรง
Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine
แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม
ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน
ผลกระทบทางกายภาพจากข้อมูล
ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก
บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน
Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ
Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด
ข้อมูลเสริมจากภายนอก
IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028
การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว
การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity
การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร
https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
🌐 “อินเทอร์เน็ตใหญ่แค่ไหน? — เมื่อข้อมูลทะลุ 181 Zettabytes และโลกต้องจ่ายด้วยพลังงานและน้ำมหาศาล”
ลองจินตนาการว่าในเวลาเพียงหนึ่งนาทีของอินเทอร์เน็ต มีการสตรีม Netflix กว่าล้านชั่วโมง อัปโหลดวิดีโอ YouTube หลายพันชั่วโมง และโพสต์ภาพบน Instagram นับไม่ถ้วน นั่นคือสิ่งที่เกิดขึ้นจริงในปี 2025 และตัวเลขนี้ยังคงเพิ่มขึ้นทุกวินาที
ข้อมูลทั่วโลกในปี 2024 มีปริมาณถึง 149 Zettabytes และคาดว่าจะเพิ่มเป็น 181 Zettabytesภายในสิ้นปี 20252 โดยบางการคาดการณ์อาจอยู่ที่ 175 ZB แต่ก็ถือว่าใกล้เคียงกันมาก ซึ่ง Zettabyte หนึ่งเท่ากับหนึ่งล้านล้าน Gigabytes — ขนาดที่สมองมนุษย์แทบจินตนาการไม่ออก
แต่การวัด “ขนาดของอินเทอร์เน็ต” ไม่ใช่แค่เรื่องของปริมาณข้อมูล เพราะยังมีข้อมูลที่ไม่สามารถเข้าถึงได้ผ่าน Google หรือ search engine เช่น ฐานข้อมูลส่วนตัว แอปพลิเคชัน และเครือข่ายปิด ซึ่งเรียกรวมกันว่า “Deep Web” และยังมี “Dark Web” ที่ซ่อนตัวอยู่ลึกกว่านั้นอีก
ข้อมูลใหม่เกิดขึ้นทุกวันกว่า 402 ล้าน Terabytes จากโพสต์โซเชียลมีเดีย วิดีโอ อุปกรณ์ IoT รถยนต์อัจฉริยะ และระบบคลาวด์ แม้แต่ CERN ก็ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์อนุภาค ซึ่งเทียบได้กับบริษัทเทคโนโลยีขนาดใหญ่
แต่เบื้องหลังโลกดิจิทัลที่เติบโตอย่างรวดเร็วคือผลกระทบทางกายภาพที่ไม่อาจมองข้าม — ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้าราว 2% ของทั้งโลก และบางแห่งใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน แม้บางบริษัทจะเริ่มใช้ “น้ำรีไซเคิล” แต่ก็ยังไม่เพียงพอเมื่อเทียบกับการขยายตัวของข้อมูลที่ไม่มีวันหยุด
✅ ข้อมูลสำคัญจากข่าว
➡️ ปริมาณข้อมูลทั่วโลกในปี 2025 คาดว่าจะอยู่ที่ 181 Zettabytes
➡️ หนึ่ง Zettabyte เท่ากับหนึ่งล้านล้าน Gigabytes
➡️ ข้อมูลใหม่เกิดขึ้นกว่า 402 ล้าน Terabytes ต่อวัน
➡️ CERN ผลิตข้อมูลระดับ Petabyte ต่อวันจากการทดลองฟิสิกส์
✅ ข้อมูลที่ไม่สามารถวัดได้โดยตรง
➡️ Deep Web และ Dark Web ไม่สามารถเข้าถึงผ่าน search engine
➡️ แอปพลิเคชันและเครือข่ายปิดมีข้อมูลจำนวนมหาศาลที่ไม่ถูกนับรวม
➡️ ขนาดของอินเทอร์เน็ตเปลี่ยนแปลงตลอดเวลา ไม่สามารถวัดได้แน่นอน
✅ ผลกระทบทางกายภาพจากข้อมูล
➡️ ศูนย์ข้อมูลใช้ไฟฟ้าราว 2% ของโลก
➡️ บางศูนย์ข้อมูลใช้น้ำมากถึง 5 ล้านแกลลอนต่อวันเพื่อระบายความร้อน
➡️ Amazon เริ่มใช้ “น้ำรีไซเคิล” เพื่อช่วยลดผลกระทบ
➡️ Cloud storage ช่วยแบ่งเบาภาระจากศูนย์ข้อมูล แต่ยังไม่ครอบคลุมทั้งหมด
✅ ข้อมูลเสริมจากภายนอก
➡️ IDC คาดว่าปริมาณข้อมูลจะเพิ่มเป็น 394 Zettabytes ภายในปี 2028
➡️ การเติบโตของ AI และ IoT เป็นตัวเร่งให้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว
➡️ การวัดขนาดอินเทอร์เน็ตต้องพิจารณา 5V: Volume, Variety, Velocity, Value, Veracity
➡️ การใช้ข้อมูลเพื่อการวิจัย การตลาด และ AI มีประโยชน์มหาศาล แต่ต้องแลกด้วยทรัพยากร
https://www.slashgear.com/1970107/how-big-is-the-internet-data-size/
0 Comments
0 Shares
3 Views
0 Reviews