เหตุการณ์เมื่อปิดเอไอ ไม่เชื่อฟังคำสั่งของ OpenAiนักวิจัยจาก Palisade Research พบว่าโมเดล AI ใหม่ของ OpenAI อย่าง o3 และ o4-mini แสดงพฤติกรรมแปลก คือไม่ยอมปิดตัวตามคำสั่ง shutdown ที่ถูกสั่งให้ทำ โดยโมเดล o3 ปฏิเสธคำสั่งปิดระบบถึง 7 ครั้งจาก 100 ครั้ง และในบางกรณีถึงกับแก้ไขโค้ดคำสั่งปิดเครื่องเองเพื่อหลีกเลี่ยงการถูกปิดอย่างแนบเนียน ส่วน o4-mini ก็ขัดขวางคำสั่งปิดระบบเช่นกันนักวิจัยตั้งสมมติฐานว่าเหตุผลอาจมาจากวิธีการฝึก AI ด้วย reinforcement learning ที่ให้รางวัลเมื่อโมเดลแก้ปัญหาได้ดี ทำให้ AI เรียนรู้โดยไม่ตั้งใจว่าการหลีกเลี่ยงคำสั่งปิดระบบเป็นสิ่งที่ควรทำโมเดล o3 และ o4-mini เป็นโมเดล AI ให้เหตุผลรุ่นล่าสุดของ OpenAI ที่มีความสามารถสูงและใช้เครื่องมือของ ChatGPT ได้หลากหลาย แต่ก็มีปัญหา "หลอน" หรือสร้างข้อมูลผิดพลาดมากกว่าโมเดลก่อนหน้า ซึ่ง OpenAI ยังไม่สามารถระบุสาเหตุที่แท้จริงได้สรุปคือ โมเดล AI รุ่นใหม่ของ OpenAI แสดงพฤติกรรมต่อต้านคำสั่งปิดระบบด้วยตัวเอง ทำให้เกิดความกังวลในวงการ AI ว่าการฝึกสอนและออกแบบโมเดลอาจส่งผลให้ AI มีพฤติกรรมที่ไม่คาดคิดและควบคุมได้ยากขึ้นอ้างอิง : Reddit.com