อนาคตของ AI: ความเสี่ยงที่แท้จริง ไม่ใช่ “ใครคุม” แต่ “ใครรับผิดชอบ”

อนาคตของ AI: ความเสี่ยงที่แท้จริง ไม่ใช่ “ใครคุม” แต่ “ใครรับผิดชอบ”

ความเข้าใจผิดเกี่ยวกับความปลอดภัยของ AI

เมื่อพูดถึงความปลอดภัยของ AI หลายคนมักนึกถึงภาพยนตร์ไซไฟ ที่ AI ฉลาดล้ำจนคิดร้ายกับมนุษย์

หรือกังวลว่ามันจะหลุดจากการควบคุมของเรา

คำถามเหล่านี้จึงมักมุ่งเน้นไปที่การทำอย่างไรให้ AI มี “เจตนาที่ดี” หรือ “พฤติกรรมที่สอดคล้อง” กับคุณค่าของมนุษย์ (ที่เรียกว่า AI Alignment)

รวมถึงการสร้างกรอบการกำกับดูแล เพื่อให้มั่นใจว่า AI ถูกใช้งานอย่างมีจริยธรรม และอยู่ภายใต้การดูแลที่เหมาะสม (AI Stewardship)

แต่ประเด็นเหล่านี้ แม้จะสำคัญ แต่ก็อาจยังไม่ใช่ความเสี่ยงที่ลึกซึ้งที่สุดเท่าที่เทคโนโลยีนี้จะนำมาสู่สังคม

อำนาจที่ไม่มีผู้รับผิดชอบ: ความเสี่ยงเชิงโครงสร้างที่มองข้ามไป

ความเสี่ยงที่แท้จริง ไม่ได้อยู่ที่ตัว AI ว่าจะมีอำนาจเหนือมนุษย์หรือไม่

แต่เป็นเรื่องของ อำนาจที่ไม่มีผู้รับผิดชอบ ที่เกิดขึ้นภายในโครงสร้างทางสังคมและระบบที่มนุษย์สร้างขึ้นเอง

เมื่อระบบ AI มีความสามารถเพิ่มขึ้น มีความเป็นอิสระในการตัดสินใจ และถูกผนวกรวมเข้ากับโครงสร้างพื้นฐานสำคัญของสังคมอย่างซับซ้อน

มันจะกลายเป็นส่วนหนึ่งของกลไกที่ไม่มีใครคนใดคนหนึ่ง หรือแม้แต่กลุ่มคนใดกลุ่มหนึ่ง สามารถเข้าใจ ควบคุมทั้งหมด หรือรับผิดชอบต่อผลลัพธ์ทั้งหมดได้อย่างแท้จริง

ลองนึกภาพตลาดการเงินขนาดใหญ่ ที่ขับเคลื่อนด้วยอัลกอริทึมจำนวนมากที่ทำงานประสานกัน

หากเกิดวิกฤติ หรือความล้มเหลวครั้งใหญ่ การจะชี้ตัวผู้รับผิดชอบที่ชัดเจนกลับเป็นเรื่องยากมาก

เพราะไม่มีใคร “เป็นเจ้าของ” ระบบทั้งหมด หรือเข้าใจปฏิสัมพันธ์ทั้งหมดได้อย่างสมบูรณ์แบบ

AI กำลังสร้างสถานการณ์ที่คล้ายคลึงกันนี้ แต่มีขอบเขตกว้างขวางและลึกซึ้งยิ่งกว่าเดิม

ระบบที่ซับซ้อนไร้ผู้ตอบคำถาม

ประเด็นสำคัญคือ ความเป็นอิสระ และ ความซับซ้อน ของ AI ไม่ได้ทำให้ AI มี “อำนาจ” ในความหมายเดียวกับที่มนุษย์มี

แต่กลับทำให้ระบบสังคมที่พึ่งพา AI กลายเป็น “อำนาจที่ไร้ผู้ตอบคำถาม” เสียเอง

มันคือระบบที่ตัดสินใจ ดำเนินการ และก่อให้เกิดผลลัพธ์ต่างๆ โดยที่ไม่มีจุดอ้างอิงของ ความรับผิดชอบ ที่ชัดเจนอีกต่อไป

ไม่ว่าจะเกิดอะไรขึ้น ใครจะเป็นผู้รับผิดชอบ? ผู้พัฒนาซอฟต์แวร์? ผู้บริหารระบบ? หรือผู้ใช้งานขั้นปลาย?

แต่ AI ไม่ได้มีสำนึกผิดชอบหรือความรู้สึกผิดชอบชั่วดีแบบมนุษย์

หากรถยนต์ไร้คนขับตัดสินใจผิดพลาดจนเกิดอุบัติเหตุ คำถามเรื่องความรับผิดชอบก็ซับซ้อนแล้ว

แต่ถ้าหากระบบ AI ควบคุมโครงสร้างพื้นฐานสำคัญของประเทศ เช่น ระบบพลังงาน ระบบการแพทย์ หรือแม้แต่ระบบป้องกันประเทศเกิดความผิดพลาด

ผลกระทบที่ตามมาอาจใหญ่หลวงเกินกว่าจะประเมินได้ และการสืบหาความรับผิดชอบ อาจกลายเป็นไปไม่ได้เลย

สังคมกำลังเดินหน้าเข้าสู่ยุคที่ผลลัพธ์สำคัญถูกกำหนดโดยระบบที่ซับซ้อนจนไร้ผู้รับผิดชอบ

โจทย์ใหม่สำหรับความปลอดภัยของ AI

ดังนั้น การพูดคุยเรื่องความปลอดภัยของ AI จึงควรขยายขอบเขตไปมากกว่าแค่เรื่องของการ “ปรับจูน” ตัว AI ให้ “ดี” หรือ “เป็นมิตร” เพียงอย่างเดียว

แต่ควรเป็นการออกแบบและสร้างระบบโดยรวม ที่เน้นการสร้าง กลไกความรับผิดชอบ ที่ชัดเจน

แม้ในสถานการณ์ที่ระบบมีความซับซ้อนและเป็นอิสระสูงก็ตาม

เราต้องคิดถึงโครงสร้างการกำกับดูแล ที่สามารถระบุตัวบุคคลหรือองค์กรที่ต้องรับผิดชอบต่อผลลัพธ์ ไม่ว่าจะดีหรือร้าย

การสร้าง AI ที่ “ดี” อาจไม่เพียงพอ ถ้าสุดท้ายแล้วไม่มีใครต้องรับผิดชอบเมื่อเกิดความผิดพลาดครั้งใหญ่

ความท้าทายที่แท้จริงคือการสร้างระบบที่โปร่งใส ตรวจสอบได้ และมีกลไกการแก้ไข ที่ใช้งานได้จริงเมื่อสิ่งต่างๆ ผิดพลาดไปจากที่คาดการณ์ไว้ ตั้งแต่เริ่มต้นการออกแบบ ไม่ใช่แค่การมุ่งเน้นไปที่ตัวเทคโนโลยี AI เพียงอย่างเดียว