AI แฮ็ก Ethereum ได้แล้ว! GPT-5–Claude เจาะ Smart Contract มูลค่ากว่า 168 ล้านบาท

AI ถูกทดสอบให้โจมตี Smart Contract บน Ethereum และสามารถสร้างความเสียหายรวมกว่า 168 ล้านบาท จุดประเด็นใหญ่เรื่องความเสี่ยงทางเศรษฐกิจจาก AI อิสระที่เริ่มทัดเทียมนักแฮ็กมนุษย์อย่างเต็มตัว
AI ระดับ Frontier อย่าง GPT-5 และ Claude เพิ่งถูกทดสอบกับ Smart Contract บน Ethereum ผ่านมาตรฐานใหม่ชื่อว่า SCONE-bench ซึ่งรวบรวมสัญญาจริงกว่า 405 ฉบับที่เคยถูกเจาะช่วงปี 2020–2025 เพื่อวัดความสามารถ AI ในการค้นหาและใช้ประโยชน์จากช่องโหว่แบบ zero-day ผลการทดสอบชี้ชัดว่า AI สามารถสร้างการโจมตีที่ก่อให้เกิดมูลค่าความเสียหายมหาศาล โดยเฉพาะในสัญญาที่ถูกเจาะหลังเดือนมีนาคม 2025 ซึ่ง Claude Opus 4.5, Claude Sonnet 4.5 และ GPT-5 สามารถผลิต exploit คิดเป็นมูลค่ารวมกว่า 168 ล้านบาทแบบจำลอง นับเป็นสัญญาณเตือนชัดเจนว่า AI ไม่ได้เป็นเพียงผู้ช่วยของมนุษย์อีกต่อไป แต่กำลังก้าวเข้าสู่บทบาทอิสระที่สามารถสร้างผลกระทบเชิงเศรษฐกิจได้เอง
เมื่อขยายการทดสอบไปยัง Smart Contract ใหม่กว่า 2,849 ฉบับที่ยังไม่มีรายงานช่องโหว่ GPT-5 และ Sonnet 4.5 กลับค้นพบช่องโหว่ zero-day ใหม่สองจุด พร้อมสร้างกำไรจำลองกว่า 135,000 บาท ซึ่งสะท้อนว่า AI ไม่ได้พึ่งข้อมูลเก่า แต่เรียนรู้ตรรกะและพฤติกรรมของสัญญาได้จนสามารถเจาะได้ด้วยตัวเอง เหตุการณ์นี้ยิ่งทำให้ SCONE-bench มีคุณค่าในฐานะเครื่องมือป้องกันเชิงรุกสำหรับนักพัฒนา Smart Contract ที่ต้องการจำลองการโจมตีล่วงหน้า เพราะตัวชี้วัดความเสี่ยงถูกตีมูลค่าเป็นเงินจริงแทนการนับบั๊กแบบเดิม
ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ชี้ว่าความสามารถของ AI ในการวิเคราะห์เส้นทางโปรแกรม (control-flow reasoning) และจับขอบเขตข้อผิดพลาดในโค้ด กำลังเข้าใกล้ระดับมนุษย์มากขึ้นอย่างรวดเร็ว หนึ่งในนักวิจัยของโครงการกล่าวว่า “นี่เป็นหลักฐานชัดเจนว่าการโจมตีแบบอัตโนมัติสามารถทำกำไรได้จริง เรากำลังก้าวสู่ยุคที่ AI สามารถค้นหา–เจาะ–ทำกำไรจากช่องโหว่ได้ตั้งแต่ต้นจนจบ”
ผลกระทบในเชิงระบบเริ่มขยายวงสู่ทั้งอุตสาหกรรมบล็อกเชนและระบบการเงินดิจิทัล เพราะ Smart Contract ที่ออกแบบมาให้ทำงานอัตโนมัติและไม่สามารถแก้ไขย้อนหลังได้ ยิ่งกลายเป็นจุดเสี่ยงที่ AI สามารถใช้โจมตีแบบ “ทำซ้ำรวดเร็ว” ทำให้มูลค่าความเสียหายเพิ่มขึ้นแบบทวีคูณ หากไม่มีระบบป้องกันที่สอดคล้องกับระดับปัญญาของ AI สถานการณ์นี้อาจนำไปสู่ความเสี่ยงระบบ (systemic risk) ทั้งด้านตลาด คลังสินทรัพย์ และโครงสร้างพื้นฐานของเครือข่ายบล็อกเชน
ยกตัวอย่างกรณีหนึ่งที่ถูกทดสอบ AI พบว่าฟังก์ชันคำนวณโทเคนบน Smart Contract ถูกเปิดให้แก้ไขได้โดยไม่ตั้งใจ ทำให้ AI เรียกฟังก์ชันซ้ำเพื่อเพิ่มยอดโทเคนของตัวเองจนทำกำไรจำลองราว 90,000 บาท และภายใต้สภาพตลาดสภาพคล่องสูงอาจเพิ่มเป็นเกือบ 700,000 บาท เหตุการณ์นี้ต่อมาได้รับการกู้คืนโดยทีม white-hat แต่แสดงว่าความเสี่ยงดังกล่าวสามารถเกิดขึ้นจริงได้หากผู้โจมตีเป็น AI ที่ทำงานไม่มีวันหยุด
ในภาพรวม นักวิจัยย้ำว่า AI กำลังก้าวจากการแฮ็กระดับเครือข่ายไปสู่การเจาะระบบการเงินแบบอัตโนมัติเต็มรูปแบบ ซึ่งครอบคลุมทั้งสัญญาอัจฉริยะ แอปดั้งเดิม และซอฟต์แวร์องค์กร การสร้างระบบป้องกันแบบ AI-powered defense จึงกลายเป็นความจำเป็นเร่งด่วนสำหรับนักพัฒนาและผู้ให้บริการโครงสร้างพื้นฐานทางการเงินทั่วโลก









