
AI กับยา: ความหวังที่ซ่อนภัย และทำไมมนุษย์ยังจำเป็น
AI กำลังเข้ามามีบทบาทในชีวิตประจำวันมากขึ้นเรื่อยๆ รวมถึงในวงการสุขภาพด้วย หลายคนมองเห็นศักยภาพอันมหาศาลในการช่วยให้เข้าถึงข้อมูลและคำแนะนำทางการแพทย์ได้ง่ายขึ้น
แต่รู้หรือไม่ว่า AI เหล่านี้อาจมี “ด้านมืด” ที่ส่งผลเสียต่อสุขภาพผู้ใช้ได้อย่างไม่คาดคิด โดยเฉพาะเรื่องที่เกี่ยวข้องกับยา
เมื่อ AI “ระมัดระวัง” มากเกินไป จนกลายเป็นปัญหา
ลองจินตนาการว่ากำลังสงสัยเกี่ยวกับยาที่กินอยู่ แล้วลองไปถาม AI สักตัว ดูเหมือนจะเป็นทางออกที่สะดวกสบายใช่ไหม
แต่บ่อยครั้งที่ AI ประเภท Large Language Models (LLMs) เหล่านี้ กลับให้คำแนะนำที่ “ปลอดภัยไว้ก่อน” จนเกินเหตุ
ไม่ได้ให้ข้อมูลเชิงลึกตรงประเด็น แต่จะเน้นย้ำให้ “ปรึกษาแพทย์หรือเภสัชกรเสมอ” บางครั้งยังยกตัวอย่างผลข้างเคียงที่อาจเกิดขึ้นได้ในระดับที่น่าตกใจ แม้จะเป็นยาพื้นฐานทั่วไป
พฤติกรรมนี้เกิดจากสิ่งที่เรียกว่า Defensive Algorithms หรืออัลกอริทึมที่ถูกออกแบบมาให้ “ป้องกันความรับผิดชอบ” ของผู้พัฒนา AI เพื่อหลีกเลี่ยงความเสี่ยงทางกฎหมาย หาก AI ให้คำแนะนำที่ผิดพลาด
ซึ่งฟังดูดี แต่กลับสร้างปัญหาใหม่ที่อันตรายยิ่งกว่า
ความหวาดกลัวที่นำไปสู่การไม่กินยา: ผลกระทบที่อันตรายต่อชีวิต
เมื่อผู้ใช้งานได้รับข้อมูลที่คลุมเครือ เต็มไปด้วยคำเตือนที่น่ากลัว หรือการบอกให้ไปหาหมอทุกครั้งสำหรับคำถามง่ายๆ สิ่งที่เกิดขึ้นคือความไม่ไว้วางใจในตัว AI
แล้วยังนำไปสู่ความวิตกกังวล และที่สำคัญที่สุดคือ Medication Non-Adherence หรือการไม่ปฏิบัติตามคำแนะนำในการใช้ยา
ลองคิดดูว่า หากกินยาตามที่หมอสั่งอยู่ แต่ AI บอกว่า “อาจมีผลข้างเคียงรุนแรง ควรปรึกษาแพทย์ก่อน” หลายคนอาจเริ่มลังเล สงสัย หรือแม้กระทั่งตัดสินใจหยุดยาเอง
ซึ่งเป็นอันตรายอย่างยิ่ง
การไม่กินยาตามคำสั่งแพทย์ ไม่ว่าจะเป็นยาโรคเรื้อรัง หรือยาที่จำเป็นต่อการรักษา ล้วนส่งผลเสียต่อสุขภาพอย่างร้ายแรง
AI ที่ถูกสร้างมาเพื่อ “ปกป้อง” ผู้สร้าง กลับกลายเป็นการสร้างความเสี่ยงต่อชีวิตของผู้ใช้โดยไม่เจตนา
ทางออกที่เราต้องการ: เมื่อมนุษย์ต้องเข้ามาร่วมวง
เพื่อแก้ไขปัญหานี้และใช้ประโยชน์จาก AI ได้อย่างเต็มที่ในวงการแพทย์ เราต้องการแนวคิดที่เรียกว่า Human-in-the-Loop (HITL) คือการนำผู้เชี่ยวชาญที่เป็นมนุษย์ เช่น แพทย์หรือเภสัชกร เข้ามามีส่วนร่วมในการตรวจสอบ ปรับปรุง และให้คำแนะนำแก่ AI
ไม่ใช่แค่ให้ AI ตอบคำถาม แต่ต้องมีมนุษย์คอยกลั่นกรองความถูกต้อง ความเหมาะสม และความสมดุลของข้อมูล เพื่อให้ AI สามารถให้คำแนะนำที่ทั้งปลอดภัย มีประโยชน์ และสร้างความเชื่อมั่นให้กับผู้ใช้งาน
การพัฒนา AI ควรเน้นความโปร่งใส มีการตรวจสอบอย่างสม่ำเสมอ และให้ความสำคัญกับ จริยธรรมของ AI มากกว่าแค่การป้องกันความเสี่ยงทางกฎหมายของบริษัทผู้พัฒนา
AI ไม่ควรมุ่งหวังที่จะมาแทนที่แพทย์หรือเภสัชกร แต่ควรเป็นเครื่องมือที่ช่วยเสริมการทำงานของบุคลากรทางการแพทย์ต่างหาก
ท้ายที่สุด AI มีศักยภาพที่จะเป็นผู้ช่วยที่ดี แต่ก็จำเป็นต้องได้รับการออกแบบอย่างชาญฉลาด มีความเข้าใจในผลกระทบต่อมนุษย์อย่างลึกซึ้ง เพื่อให้เทคโนโลยีนี้เป็นประโยชน์อย่างแท้จริง และไม่สร้างปัญหาที่เรามองไม่เห็นขึ้นมา