AI ฉลาดเรื่องตัวเลข ทำไมบางครั้งถึงทำให้การตัดสินใจแย่ลง?

AI ฉลาดเรื่องตัวเลข ทำไมบางครั้งถึงทำให้การตัดสินใจแย่ลง?

ในช่วงสองสามปีที่ผ่านมา หลายองค์กรกระโดดเข้าสู่การนำ ปัญญาประดิษฐ์ (AI) มาใช้หวังยกระดับประสิทธิภาพ

ตัวชี้วัดต่าง ๆ ดูดีขึ้น รายงานผลลัพธ์ก็สมบูรณ์แบบ แต่กลับมีสิ่งหนึ่งที่น่าประหลาดใจ

ในบางสถานการณ์ การตัดสินใจที่เกิดจาก AI กลับไม่ได้นำไปสู่ผลลัพธ์ที่ดีขึ้นเสมอไป หรือบางครั้งอาจทำให้แย่ลงด้วยซ้ำ

นี่คือปรากฏการณ์ที่น่าสนใจ ที่เราควรทำความเข้าใจ

AI เก่งเรื่องตัวเลข แต่ไม่เข้าใจโลกแห่งความเป็นจริง

AI ถูกสร้างมาให้เก่งกาจในการ วิเคราะห์ข้อมูล และ เพิ่มประสิทธิภาพ ในสิ่งที่มันถูกฝึกฝนมา

มันสามารถหาวิธีลดเวลาการรอคิวของลูกค้าได้เก่งมาก หรือเสนอสินค้าที่ AI คาดการณ์ว่าลูกค้าจะซื้อได้แม่นยำ

แต่ AI ไม่ได้มีความเข้าใจใน บริบท หรือ สามัญสำนึก แบบมนุษย์

เป้าหมายหลักของ AI คือการทำตาม KPI (Key Performance Indicators) หรือตัวชี้วัดที่กำหนดไว้อย่างเคร่งครัด

ซึ่งบางครั้ง KPI เหล่านั้นอาจไม่ได้สะท้อน ผลลัพธ์ทางธุรกิจที่แท้จริง หรือประสบการณ์ของมนุษย์อย่างครบถ้วน

ตัวอย่างเช่น AI อาจลดเวลาการรอสายของลูกค้าให้น้อยลงที่สุด เพื่อให้ KPI การบริการลูกค้าดูดีเยี่ยม

แต่ในความเป็นจริง ลูกค้าอาจได้รับการบริการที่รีบร้อน ขาดความใส่ใจ หรือแก้ปัญหาไม่ได้อย่างมีประสิทธิภาพ

ปัญหาจากเป้าหมายที่คลาดเคลื่อน

เมื่อการออกแบบระบบ AI มุ่งเน้นไปที่การปรับปรุง ตัวเลขบางอย่าง เพียงอย่างเดียว

โดยไม่ได้คำนึงถึง ผลกระทบที่ซับซ้อนกว่านั้น อาจเกิดปัญหาตามมา

สิ่งที่เรียกว่า “เงา” ของตัวชี้วัด คือผลลัพธ์เชิงลบที่มองไม่เห็นในตัวเลข แต่ส่งผลกระทบในระยะยาว

เช่น ความไม่พอใจของลูกค้าที่สะสม หรือการที่พนักงานรู้สึกเหนื่อยหน่ายกับการต้องทำงานตามคำสั่งของ AI ที่ดูเหมือนจะขัดกับสามัญสำนึก

นอกจากนี้ แรงจูงใจ ของทีมงานที่ดูแล AI ก็เป็นสิ่งสำคัญ

หากทีมถูกประเมินผลจากแค่ตัวเลขที่ AI รายงาน การมุ่งเน้นแต่ตัวเลขก็จะเกิดขึ้นเป็นเรื่องปกติ

โดยอาจละเลยผลกระทบด้านอื่น ๆ ที่อาจเกิดขึ้นกับภาพรวมของธุรกิจ

การมองภาพรวมที่ไม่สมบูรณ์

AI มักทำงานแบบ ไซโล หรือแยกส่วน

มันถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพในส่วนงานใดส่วนงานหนึ่งโดยเฉพาะ เช่น การจัดการคลังสินค้า หรือการตลาด

แต่การตัดสินใจของ AI ในส่วนหนึ่ง อาจส่งผลกระทบแบบ โดมิโน ต่อส่วนอื่น ๆ ขององค์กร

และ AI ไม่ได้มีกลไกในการทำความเข้าใจ ความสัมพันธ์ ที่ซับซ้อนเหล่านี้ได้เองทั้งหมด

การขาด มุมมองแบบองค์รวม ทำให้การตัดสินใจที่ดูดีในระดับจุลภาค อาจนำไปสู่ผลลัพธ์ที่ไม่พึงประสงค์ในระดับมหภาคได้

เมื่อมนุษย์เริ่มเชื่อ AI มากเกินไป

ความสำเร็จของ AI ในด้านต่าง ๆ ทำให้มนุษย์มีแนวโน้มที่จะ เชื่อมั่น ในการตัดสินใจของมันมากขึ้น

บางครั้งถึงขั้น ละเลยการตรวจสอบ หรือการใช้ วิจารณญาณ ของมนุษย์

เมื่อตัวเลขดูดี รายงานดูสวยงาม ก็มักจะสรุปว่าทุกอย่างดำเนินไปได้ด้วยดี

โดยไม่ได้ตั้งคำถามว่า ตัวเลขเหล่านั้นสะท้อนความเป็นจริงทั้งหมดหรือไม่

และมีอะไรบ้างที่ AI อาจมองข้ามไป หรือผลักภาระไปให้ส่วนอื่น ๆ

การนำ AI มาใช้อย่างชาญฉลาดนั้น ต้องการมากกว่าแค่การติดตั้งเทคโนโลยี

องค์กรต้องกำหนด นิยามของความสำเร็จ ให้ครอบคลุม ไม่ใช่แค่ตัวชี้วัดเชิงปริมาณ

ต้องพยายามทำความเข้าใจ ผลกระทบแบบองค์รวม และมองหา “เงา” ของตัวชี้วัดที่อาจเกิดขึ้น

รวมถึงการรักษา บทบาทสำคัญของมนุษย์ ในการกำกับดูแล ตรวจสอบ และใช้ดุลยพินิจ

เพื่อให้แน่ใจว่า AI เป็นเครื่องมือที่ช่วยส่งเสริมการตัดสินใจให้ดีขึ้นจริง ๆ ไม่ใช่แค่ทำให้ตัวเลขดูสวยงามเท่านั้น