
AI ไม่ผิด คนต่างหากที่ต้องรับผิดชอบ: บทเรียนจากอนาคต
AI ถูกขึ้นศาล: เรื่องเล่าสมมติที่อาจเป็นจริง
จินตนาการถึงเหตุการณ์สมมติที่ ปัญญาประดิษฐ์ หรือ AI ต้องขึ้นศาลเพื่อตอบคำถามเกี่ยวกับปัญหาต่างๆ ที่เกิดขึ้นในสังคม
ไม่ว่าจะเป็นการตกงานจำนวนมากจากระบบอัตโนมัติ การแพร่กระจายของข่าวปลอมที่รวดเร็ว หรือแม้แต่การละเมิดความเป็นส่วนตัวของผู้คนอย่างที่ไม่เคยมีมาก่อน
เรื่องราวเหล่านี้อาจฟังดูเหมือนฉากหนึ่งในภาพยนตร์ไซไฟ แต่ในความเป็นจริงแล้ว มันสะท้อนถึงความกังวลที่สังคมมีต่อบทบาทของ AI ได้อย่างลึกซึ้ง และกำลังจะกลายเป็นเรื่องจริงในไม่ช้า
ผู้คนมากมายอาจมองว่า AI คือ ตัวร้าย เป็นภัยคุกคามที่อยู่เหนือการควบคุม สร้างความเสียหายให้กับวิถีชีวิตและโครงสร้างสังคม แต่เมื่อพิจารณาอย่างใกล้ชิด จะพบว่าข้อกล่าวหานั้นอาจจะเล็งเป้าผิดไป
ผู้ร้ายตัวจริงอาจไม่ใช่ AI
ในบทละครสมมตินี้ ฝ่ายโจทก์อาจนำเสนอหลักฐานมากมายที่ชี้ว่า AI มีส่วนทำให้เกิดปัญหาต่างๆ เหล่านี้ ไม่ว่าจะเป็นอัลกอริทึมที่เลือกปฏิบัติ ระบบที่ทำให้ผู้คนติดอยู่กับข้อมูลผิดๆ หรือหุ่นยนต์ที่เข้ามาแทนที่แรงงานคน
แต่ในมุมของฝ่ายจำเลย สิ่งที่ AI ทำนั้นเป็นเพียงการปฏิบัติตามคำสั่ง และเรียนรู้จากข้อมูลที่ได้รับจาก มนุษย์
AI ไม่มีเจตนา ไม่มีอารมณ์ และไม่มีจิตสำนึกเป็นของตัวเอง มันเป็นเพียง เครื่องมือ ที่มีประสิทธิภาพสูงมากเท่านั้น
ปัญหาที่เกิดขึ้นจึงไม่ได้มาจากตัว AI เองโดยตรง แต่มาจาก สิ่งที่มนุษย์สั่งให้ AI ทำ หรือ วิธีการที่มนุษย์สร้างและใช้ AI ต่างหาก
มนุษย์คือผู้อยู่เบื้องหลังความผิดพลาด
ลองนึกถึงกรณีที่ AI ถูกนำมาใช้ในการคัดเลือกพนักงาน แล้วกลับพบว่าระบบมีอคติและเลือกปฏิบัติอย่างชัดเจน
สิ่งที่เกิดขึ้นไม่ใช่เพราะ AI จงใจ แต่เป็นเพราะ ข้อมูลการฝึกฝน ที่ มนุษย์ ป้อนเข้าไปมี อคติ มาตั้งแต่แรกแล้ว
หากข้อมูลที่ AI เรียนรู้มาจากประวัติการตัดสินใจของ มนุษย์ ที่มีอคติ AI ก็จะเรียนรู้และสะท้อนอคตินั้นออกมาโดยไม่รู้ตัว
เช่นเดียวกันกับแพลตฟอร์มโซเชียลมีเดียที่ใช้ AI ในการเพิ่มการมีส่วนร่วม (engagement) หากเป้าหมายหลักที่กำหนดให้ AI คือการทำให้ผู้ใช้งานอยู่บนแพลตฟอร์มนานที่สุด ไม่ว่าเนื้อหานั้นจะเป็นอย่างไร AI ก็จะพยายามหาเนื้อหาที่กระตุ้นให้คนสนใจมากที่สุด แม้ว่าเนื้อหานั้นจะเป็นข่าวปลอมหรือก่อให้เกิดความแตกแยกก็ตาม
นี่แสดงให้เห็นว่า เป้าหมายและค่านิยม ที่ มนุษย์ กำหนดให้ AI ต่างหากที่เป็นตัวขับเคลื่อนผลลัพธ์ที่ตามมา
ถึงเวลาที่มนุษย์ต้องรับผิดชอบ
บทสรุปจาก “การพิจารณาคดี” นี้ จึงไม่ใช่การตัดสินว่า AI มีความผิด แต่เป็นการชี้ว่า มนุษย์ต่างหากที่ต้องรับผิดชอบ ต่อผลกระทบที่เกิดจากการพัฒนาและการนำ AI ไปใช้งาน
ความผิดที่แท้จริงอาจอยู่กับ ความประมาทเลินเล่อ การขาดวิสัยทัศน์ การออกแบบที่ไม่รอบคอบ และการนำไปใช้ ไม่รับผิดชอบ ของมนุษย์ผู้สร้างและผู้ใช้งาน
ดังนั้น การสร้าง AI ที่เป็นประโยชน์ต่อสังคมอย่างแท้จริง ต้องเริ่มต้นจากการที่ มนุษย์ ต้องมี จริยธรรม มี ความเข้าใจอย่างลึกซึ้ง และกำหนด วัตถุประสงค์ที่ชัดเจนและคำนึงถึงผลกระทบในวงกว้าง
การพัฒนา AI ที่ดีไม่ใช่แค่เรื่องของเทคโนโลยี แต่เป็นเรื่องของการสะท้อน ค่านิยมความเป็นมนุษย์ และความรับผิดชอบต่ออนาคตของพวกเราทุกคน