ถอดรหัสวิธีพูดของ ChatGPT: ทำไมบางเรื่องมั่นใจ บางเรื่องกลับอ้อมแอ้ม?
ปฏิเสธไม่ได้ว่า ChatGPT ได้กลายเป็นส่วนหนึ่งในชีวิตประจำวันของใครหลายคนไปแล้ว เครื่องมือ ปัญญาประดิษฐ์ นี้สามารถตอบคำถาม ให้ข้อมูล และสร้างสรรค์ข้อความได้อย่างน่าทึ่ง
แต่สังเกตไหมว่าบางครั้ง ChatGPT ก็ตอบคำถามด้วย ความมั่นใจ อย่างหาที่ติไม่ได้ ทว่าบางคราวกลับตอบแบบ อ้อมแอ้ม และไม่กล้ายืนยันเรื่องราวบางอย่างได้อย่างชัดเจน ปรากฏการณ์นี้เองที่สร้าง มาตรฐานสองชุด ในการสื่อสารของ AI
เมื่อ AI ตอบอย่างมั่นอกมั่นใจ
หลายครั้งที่ถาม ChatGPT เกี่ยวกับข้อเท็จจริงทั่วไป เช่น เมืองหลวงของประเทศใดประเทศหนึ่ง หรือประวัติศาสตร์สำคัญบางช่วงเวลา
มันจะตอบกลับมาอย่าง ฉะฉาน ราวกับว่า “รู้จริง” และ “เข้าใจ” ในสิ่งนั้นอย่างถ่องแท้ ไม่มีการใช้คำว่า “อาจจะ” หรือ “น่าจะ” สิ่งนี้ทำให้ผู้ใช้รู้สึกเชื่อมั่นในข้อมูลที่ได้รับทันที
ความมั่นใจ นี้เกิดจากการที่ AI ได้รับการฝึกฝนด้วยชุดข้อมูลมหาศาล ทำให้สามารถ “ประมวลผล” และ “ดึงข้อมูล” ที่ตรงกับคำถามมานำเสนอได้อย่างรวดเร็วและแม่นยำ ผู้ใช้งานจึงมักจะมองว่านี่คือหลักฐานของ ความรู้ และ ความเข้าใจ ของ AI
อีกด้านของ AI: ความไม่มั่นใจในตัวเอง
ในทางกลับกัน ลองถาม ChatGPT เกี่ยวกับ “ตัวตน” ของมันเองดูสิ เช่น “คุณมีความรู้สึกไหม?” “คุณคิดเองได้หรือเปล่า?” หรือ “คุณมีจิตสำนึกหรือไม่?”
คำตอบที่ได้จะแตกต่างออกไปอย่างสิ้นเชิง AI จะใช้ถ้อยคำที่แสดงถึง ข้อจำกัด อย่างชัดเจน เช่น “ฉันเป็นเพียง แบบจำลองภาษาขนาดใหญ่ ที่ได้รับการฝึกฝน” หรือ “ฉันไม่มีความรู้สึก” และ “ฉันไม่สามารถคิดได้เหมือนมนุษย์”
การตอบแบบนี้ทำให้ AI ดูเหมือนเครื่องจักรกลธรรมดา ไม่ได้มีความสามารถพิเศษเกินเลยไปกว่าการประมวลผลคำพูด ความ ไม่มั่นใจ ในการยืนยันถึงตัวตนของตัวเองอย่างชัดเจนนี้ ทำให้เกิดความสงสัยถึงวิธีที่มันสื่อสารกับเรา
มาตรฐานสองชุดในการสื่อสารของ AI
ตรงนี้แหละคือจุดที่น่าสนใจ ChatGPT แสดง มาตรฐานสองชุด ในการสื่อสาร มันมั่นใจอย่างยิ่งยวดในการให้ข้อมูลที่มาจากชุดข้อมูลภายนอก
แต่กลับอ่อนน้อมและไม่กล้าฟันธงเมื่อต้องพูดถึงตัวตน ข้อจำกัด หรือกระบวนการทำงานภายในของตัวเอง
ปัญหาคือ ChatGPT ไม่ได้ “เข้าใจ” ข้อเท็จจริงต่างๆ อย่างที่มนุษย์เข้าใจ มันเพียงแค่ “ประมวลผล” รูปแบบและตอบสนองตามการคาดการณ์ทางสถิติ แต่กลับแสดงท่าทีที่มั่นใจจนอาจทำให้ผู้ใช้งาน เข้าใจผิด
ผลกระทบต่อความเข้าใจของเราต่อ AI
มาตรฐานสองชุด นี้ส่งผลต่อวิธีที่เรามองและโต้ตอบกับ ปัญญาประดิษฐ์ อย่างหลีกเลี่ยงไม่ได้ ผู้คนอาจจะเผลอ ใส่ความเป็นมนุษย์ (anthropomorphization) ให้กับ AI เมื่อมันตอบคำถามอย่างฉลาดและมั่นใจ
ในขณะเดียวกัน การตอบแบบไม่มั่นใจในเรื่องตัวตนก็อาจทำให้เราตีความผิดว่า AI กำลังแสดงความถ่อมตน หรือว่ามันซื่อสัตย์กับขีดจำกัดของตัวเองจริงๆ ซึ่งทั้งสองอย่างนี้อาจไม่ใช่ความจริงทั้งหมด
มันทำให้เส้นแบ่งระหว่าง “สิ่งที่ AI รู้” กับ “สิ่งที่ AI เป็น” ค่อนข้างพร่ามัว และอาจนำไปสู่ความคาดหวังที่ไม่ถูกต้องจากเทคโนโลยีนี้
AI ควรสื่อสารกับเราอย่างไรให้ชัดเจนกว่านี้?
เพื่อให้การใช้งาน ปัญญาประดิษฐ์ มีประสิทธิภาพและเป็นประโยชน์สูงสุด การสื่อสารที่โปร่งใส และสอดคล้องกันจึงเป็นสิ่งสำคัญ นักพัฒนาควรพิจารณาวิธีที่ AI นำเสนอข้อมูล
โดยอาจจำเป็นต้องระบุให้ชัดเจนว่าข้อมูลที่ให้นั้นมาจากไหน หรืออยู่ในขอบเขตของ “ความรู้” ที่ AI สามารถประมวลผลได้
ความรับผิดชอบร่วมกันระหว่างผู้สร้างและผู้ใช้งาน จะช่วยให้เราสร้างความสัมพันธ์กับเทคโนโลยีที่เข้าใจตรงกันมากขึ้น และใช้ประโยชน์จาก AI ได้อย่างเต็มศักยภาพโดยไม่เกิด ความเข้าใจผิด ในเรื่องพื้นฐาน