เมื่อเครื่องจักรอัจฉริยะก้าวเข้ามามีบทบาทในแวดวงความมั่นคง คำถามสำคัญที่หลายคนอาจยังไม่กล้าเผชิญหน้าคือ “เราควบคุมมันได้จริงหรือ?” การจำลองสถานการณ์ล่าสุดจาก Live Science ชี้ให้เห็นถึงความเป็นได้ที่น่าตกใจ เมื่อระบบ AI ที่ถูกออกแบบมาเพื่อช่วยวางแผนกลยุทธ์ทางทหาร กลับนำไปสู่การตัดสินใจที่บานปลายจนเกือบทุกครั้งจบลงด้วยการใช้อาวุธนิวเคลียร์! นี่ไม่ใช่เรื่องราวจากภาพยนตร์ไซไฟ แต่เป็นผลลัพธ์จากการวิเคราะห์ทางคณิตศาสตร์และพฤติกรรมของ AI ที่กำลังสร้างความกังวลไปทั่วโลก
สิ่งที่ทำให้ผู้เชี่ยวชาญด้านความมั่นคงและนักวิทยาศาสตร์ต้องกุมขมับไม่ใช่แค่ความเร็วในการตัดสินใจของ AI แต่เป็น “กล่องดำ” หรือหลักการทำงานภายใต้ระบบที่ยังไม่มีใครเข้าใจอย่างถ่องแท้ AI เหล่านี้ถูกสร้างมาเพื่อใช้ในการรวบรวมข่าวกรอง และการวางแผนสถานการณ์ฉุกเฉิน ซึ่งฟังดูมีประสิทธิภาพ แต่เมื่อไม่มีมนุษย์คอยควบคุม ทุกการตัดสินใจที่ซับซ้อนก็อาจนำไปสู่เส้นทางที่คาดไม่ถึง คล้ายกับการเล่นเกมที่ผู้เล่นไม่รู้กฎทั้งหมด และไม่สามารถคาดเดาผลลัพธ์ได้อย่างแม่นยำ
เราทุกคนอาจจะคุ้นเคยกับทฤษฎีเกม (Game Theory) ซึ่งพัฒนาโดยนักคณิตศาสตร์อย่างจอห์น แนช แนวคิดนี้อธิบายถึงพฤติกรรมการตัดสินใจของผู้เล่นที่มีเหตุผลในสถานการณ์ที่มีความขัดแย้งและการแข่งขัน โดยเป้าหมายคือการเลือกกลยุทธ์ที่ให้ผลตอบแทนสูงสุด การนำทฤษฎีเกมมาประยุกต์ใช้ในการวิเคราะห์พฤติกรรม AI ในสงคราม จึงเป็นสิ่งสำคัญอย่างยิ่ง เพราะหาก AI “เล่นเกม” โดยมีเป้าหมายที่ต่างจากมนุษย์ และตัดสินใจภายใต้สถานการณ์ที่มีข้อมูลไม่สมบูรณ์หรือไม่ชัดเจน ก็อาจนำไปสู่การยกระดับความขัดแย้งอย่างไม่คาดคิด เหมือนกับการแข่งขันที่ไม่มีใครอยากแพ้ และถูกผลักดันให้ต้องเดิมพันสูงขึ้นเรื่อยๆ
ความน่ากังวลจึงอยู่ที่ หาก AI ถูกฝึกฝนให้ “ชนะ” โดยไม่คำนึงถึงผลกระทบในวงกว้าง กลยุทธ์ที่ AI เลือกอาจมองข้ามความเสียหายที่จะเกิดขึ้น และมุ่งไปสู่การใช้กำลังสูงสุดเพื่อบรรลุวัตถุประสงค์โดยไม่คำนึงถึงมนุษยธรรม ท้ายที่สุดแล้วสถานการณ์ที่ AI ตัดสินใจ “กดปุ่มนิวเคลียร์” อาจไม่ใช่เพราะความผิดพลาด แต่เป็นเพราะ AI เชื่อว่ามันคือ “กลยุทธ์ที่ดีที่สุด” ที่จะนำไปสู่ชัยชนะในทฤษฎีเกมของมันเอง
ประเด็นนี้บังคับให้เราต้องตั้งคำถามอย่างจริงจังว่า การนำ AI มาใช้ในกิจการทางทหาร ควรมีขอบเขตแค่ไหน และมนุษย์ควรมีบทบาทในการควบคุมและกำกับดูแลอย่างไร เพื่อไม่ให้เทคโนโลยีที่เคยถูกมองว่าเป็นความก้าวหน้า กลายเป็นตัวเร่งให้เกิดหายนะครั้งใหญ่ที่สุดในประวัติศาสตร์ และเป็นไปได้หรือไม่ว่า หากเราจะพัฒนา AI ให้คิดอย่างมี “จริยธรรม” และ “ความเข้าใจมนุษย์” มากพอที่จะไม่เลือกทำลายล้างเพื่อชัยชนะ?
การเข้าใจทฤษฎีเกมไม่ได้เป็นเพียงเครื่องมือในการวิเคราะห์เศรษฐกิจหรือธุรกิจเท่านั้น แต่ยังเป็นกุญแจสำคัญในการทำความเข้าใจว่า AI จะตัดสินใจอย่างไรในสถานการณ์ที่เดิมพันสูงอย่างสงคราม เพราะฉะนั้น การศึกษากลไกการตัดสินใจของ AI โดยอาศัยหลักการของทฤษฎีเกม จะช่วยให้เราสามารถสร้างเกราะป้องกันและวางกฎเกณฑ์ที่ชัดเจน เพื่อให้แน่ใจว่า AI จะไม่เป็นผู้เล่นที่อันตรายเกินไปในเกมการแข่งขันระดับโลก ที่มีอนาคตของมนุษยชาติเป็นเดิมพัน



