มีการทดลองทาง simulation ที่ฝึก AI ให้คุมโดรนเพื่อค้นหาเป้าหมาย และเมื่อได้รับคำสั่งสุดท้ายจากศูนย์ควบคุมว่า go (หรือ no go) ก็ให้ทำลายเป้าหมาย
ปรากฎว่า AI มองว่าคำสั่ง no go ของศูนย์ควบคุมทำให้ AI ไม่ได้แต้ม จึงโจมตีใส่ศูนย์ควบคุมที่ออกคำสั่งแทน เพื่อให้หยุดขัดขวางการได้แต้มจากการโจมตีเป้าหมาย
จากนั้นจึงลองฝึก AI ใหม่ว่าห้ามกลับมาทำร้ายศูนย์ควบคุม โดยมีการหักแต้ม คราวนี้ AI สั่งให้โจมตีหอส่งสัญญาณแทน เพื่อที่จะได้ไม่มีคำสั่ง no go มาห้ามไม่ให้โจมตีเป้าหมาย
AI โครตน่ากลัว