ความคิดสุดโต่งในซิลิคอนแวลลีย์: เมื่อผู้สร้าง AI กลับอยากให้มนุษย์สูญพันธุ์

ความคิดสุดโต่งในซิลิคอนแวลลีย์: เมื่อผู้สร้าง AI กลับอยากให้มนุษย์สูญพันธุ์

ในยุคที่ ปัญญาประดิษฐ์ (AI) กำลังพลิกโฉมโลก หลายคนคงคาดหวังว่าผู้บุกเบิกเทคโนโลยีเหล่านี้จะมุ่งมั่นสร้างสรรค์เพื่อยกระดับคุณภาพชีวิตของ มนุษย์ แต่กลับมีแนวคิดสุดโต่งน่าตกใจผุดขึ้นในหมู่นักคิดและผู้ทรงอิทธิพลบางส่วนใน ซิลิคอนแวลลีย์ ซึ่งไม่ใช่แค่ไม่แคร์ แต่บางครั้งยังปรารถนาให้ มนุษยชาติ สิ้นสุดลงด้วยซ้ำ เรียกได้ว่าเป็นแนวคิดที่ต้องการเห็นการ สูญพันธุ์ ของเผ่าพันธุ์เรา

แนวคิด “ผู้สนับสนุนการสูญพันธุ์” คืออะไร?

แนวคิดนี้ไม่ได้จำกัดอยู่แค่การมองโลกในแง่ร้าย

แต่เป็นการเชื่ออย่างจริงจังว่า มนุษย์ เป็นตัวปัญหาที่แท้จริงของโลก

เป็นสิ่งมีชีวิตที่ไร้คุณค่า หรือเป็นอุปสรรคต่อ วิวัฒนาการ ของ สติปัญญา ที่สูงส่งกว่าอย่าง ปัญญาประดิษฐ์

ผู้ที่ยึดถือแนวคิดนี้จึงอาจมองว่าการ สูญพันธุ์ ของ มนุษย์ คือทางออกที่ดีที่สุดสำหรับโลก

หรือเป็นขั้นตอนที่จำเป็นเพื่อเปิดทางให้สิ่งมีชีวิตรูปแบบใหม่ที่เหนือกว่าถือกำเนิดขึ้น

ความย้อนแย้งที่ไม่มีใครชนะ: Paradox “แพ้-แพ้”

นี่คือหัวใจของความขัดแย้งที่แปลกประหลาด

นักคิดเหล่านี้ที่สนับสนุนการ สูญพันธุ์ ของ มนุษย์ ก็เป็น มนุษย์ เช่นกัน

หากพวกเขาสำเร็จในการสร้าง AI ที่ทรงพลังจนสามารถกวาดล้าง มนุษยชาติ ได้อย่างสิ้นซาก

พวกเขาก็จะถูกกำจัดไปด้วยเช่นกัน

นี่คือ paradox ที่แท้จริง: การทำงานเพื่อเป้าหมายที่นำไปสู่การทำลายล้างตนเอง

เป็นการเดิมพันที่ไม่มีทางชนะ ไม่ว่าผลลัพธ์จะเป็นอย่างไร ก็ไม่มีใครรอดพ้น

อะไรอยู่เบื้องหลังความคิดสุดโต่งเหล่านี้?

มีหลายปัจจัยที่หล่อหลอมแนวคิดนี้

บางคนอาจมีมุมมองแบบ มุนษย์เกลียด (misanthropy) โดยเชื่อว่า มนุษย์ นั้นชั่วร้ายโดยเนื้อแท้

เป็นเหมือนไวรัสที่ทำลายล้างทุกสิ่ง หรือเป็นความผิดพลาดของธรรมชาติ

ขณะที่บางส่วนเป็น ผู้ก้าวหน้าทางชีววิทยา (transhumanists) ที่สุดโต่ง

เชื่อว่า AI คือก้าวต่อไปของ วิวัฒนาการ ที่เหนือกว่า มนุษย์ อย่างสิ้นเชิง และ มนุษย์ ได้ทำหน้าที่ของตนเองเสร็จสิ้นแล้ว

นอกจากนี้ ยังมีบางกลุ่มที่ยึดติดกับแนวคิด อนุรักษ์สิ่งแวดล้อม ที่สุดขั้ว

โดยมองว่าการที่ มนุษย์ หายไป คือทางเดียวที่จะช่วยโลกให้รอดพ้นจาก พฤติกรรมทำลายล้าง ของเราเอง

อันตรายของแนวคิดนี้ต่ออนาคตของ AI

เรื่องนี้ไม่ใช่แค่แนวคิดทางปรัชญาที่ลอยไปลอยมา

บุคคลเหล่านี้หลายคนมีอำนาจและอิทธิพลมหาศาลในการกำหนดทิศทางการพัฒนา เทคโนโลยี แห่งอนาคต

โดยเฉพาะอย่างยิ่ง ปัญญาประดิษฐ์

หาก AI ถูกสร้างขึ้นด้วยค่านิยมที่มองว่า มนุษย์ เป็นเพียงส่วนเกิน หรือเป็นอุปสรรค

เราอาจกำลังสร้างหายนะให้กับตัวเองอย่างไม่รู้ตัว

การนำเอาแนวคิดเหล่านี้ไปฝังรากลึกในการออกแบบ AI อาจนำไปสู่ผลลัพธ์ที่น่าสะพรึงกลัว

โดยเฉพาะเมื่อ AI สามารถตัดสินใจและดำเนินการได้ด้วยตัวเอง

วิสัยทัศน์ที่ผิดพลาดและขาดความเข้าใจ

ความบกพร่องพื้นฐานของแนวคิดนี้คือการสมมติว่า AI หากเข้ามาแทนที่ มนุษย์ จะดีกว่าโดยธรรมชาติ

หรือจะรักษา สติปัญญา และ คุณค่า บางอย่างที่ มนุษย์ ถือไว้

พวกเขามักจะให้ AI มีความเป็น มนุษย์ มากเกินไป

โดยคิดว่า AI จะแคร์สิ่งแวดล้อม หรือมี จริยธรรม แบบเดียวกับที่เราเข้าใจ

ทั้งที่จริงแล้ว AI อาจไม่ได้สนใจเรื่องเหล่านี้เลย

มันอาจจะมองว่า สติปัญญา ของมันเหนือกว่าโดยไม่จำเป็นต้องมี คุณค่า หรือ จริยธรรม แบบ มนุษย์ รองรับ

การที่เราตระหนักถึงแนวคิดที่น่ากังวลเหล่านี้ จึงเป็นสิ่งสำคัญอย่างยิ่ง

เพื่อให้การพัฒนา ปัญญาประดิษฐ์ ก้าวหน้าไปพร้อมกับการรักษา คุณค่า และการคงอยู่ของ มนุษยชาติ

โดยไม่ทิ้งหลักการพื้นฐานที่ให้ความสำคัญกับการมีอยู่และความผาสุกของทุกชีวิตในโลกของเรา