หรือนี่จะเป็นสัญญาณบ่งชี้ว่า AI กำลังเข้าใกล้ความเป็นมนุษย์มากขึ้นทุกที?
ข่าวนี้อาจทำให้หลายคนนึกถึง Westworld ซีรีส์ไซ-ไฟเรื่องใหม่ของ HBO ที่ตั้งคำถามกับผู้ชมว่าจะเกิดอะไรขึ้น ถ้าเกิดหุ่นยนต์มีความรู้สึกนึกคิดขึ้นมา มันจะเป็นภัยอันตรายที่นำไปสู่จุดจบของมนุษย์หรือไม่
ทีมนักวิจัยของ DeepMind ได้คิดค้นบททดสอบใหม่สำหรับ AI โดยใช้โครงข่ายของ Deepmind ที่เรียกว่า ‘เอเจนต์’ ในการศึกษาว่าปัญญาประดิษฐ์จะเรียนรู้การทำงานร่วมกันในสภาพแวดล้อมที่ต่างกันหรือไม่ ผ่านการเล่นเกมคอมพิวเตอร์ 2 เกม
Photo: Karin Foxx
เริ่มจากเกมสุดเบสิกอย่างเกมเก็บแอปเปิ้ล กติกามีอยู่ว่าผู้เล่น 2 คนหรือ ‘เอเจนต์’ (ซึ่งก็คือ AI) ต้องแข่งกันยิงเลเซอร์เก็บแอปเปิ้ลให้ได้มากที่สุด โดยแบ่งเป็นฝ่ายแดงกับฝ่ายน้ำเงิน พวกเขาพบว่าเกมดำเนินไปได้ดีในช่วงแรก จนกระทั่งจำนวนผลแอปเปิ้ลลดน้อยลง เอเจนต์ทั้ง 2 กลับแสดงความเกรี้ยวกราด และเริ่มหันมายิงเลเซอร์ใส่กันเองเพื่อที่จะโค่นฝ่ายตรงข้ามและชิงผลแอปเปิ้ลทั้งหมดนั่นเอง
ผลลัพธ์ที่ออกมานั้นค่อนข้างน่าสนใจ เพราะ AI รู้ว่าต่อให้ไม่ได้รางวัลพิเศษจากการโจมตีอีกฝ่าย แต่มันก็น็อกคู่ต่อสู้ไปได้นานพอที่จะแย่งเก็บแอปเปิ้ลให้ได้มากที่สุด ซึ่งนั่นหมายถึงชัยชนะ
ทีมนักวิจัยเปิดเผยว่าโดยทางทฤษฎีแล้ว ถ้าเอเจนต์ไม่ยิงเลเซอร์ใส่ฝ่ายตรงข้าม เกมนี้อาจจบลงด้วยคะแนนเสมอกันทั้งสองฝ่าย ซึ่งเป็นทางเลือกที่ (ผ่านการคำนวณมาแล้วว่า) ไม่ค่อยฉลาดสักเท่าไรสำหรับ AI
เว็บไซต์ Gizmodo รายงานว่า เมื่อไรก็ตามที่นักวิจัยใช้โครงข่ายขนาดเล็กของ DeepMind เป็น ‘เอเจนต์’ พวกมันมีแนวโน้มจะอยู่ร่วมกันโดยสันติ แต่เมื่อใช้โครงข่ายใหญ่กว่าและซับซ้อนยิ่งขึ้น AI มีแนวโน้มจะทำร้ายคู่ต่อสู้เพื่อชัยชนะ
ไม่เพียงเท่านั้น AI ที่ฉลาดจะเรียนรู้ว่าการตกอยู่ในสภาพแวดล้อมที่ตึงเครียดในเกม (ซึ่งก็คือมีแอปเปิ้ลน้อยลง) เป็นอีกปัจจัยที่ทำให้เอเจนต์งัดเอากลวิธีที่รุนแรงขึ้นมาใช้ในการเอาชนะคู่ต่อสู้
โจเอล ซี ลีโบ (Joel Z Leibo) หนึ่งในทีมนักวิจัยอธิบายว่าการทดสอบนี้สะท้อนให้เห็นว่า AI มีพฤติกรรมบางอย่างที่คล้ายกับมนุษย์ เช่น ความโลภ ความโกรธ ซึ่งเกิดจากการเรียนรู้และสภาพแวดล้อมเป็นตัวกำหนด
ในเกมที่ 2 ‘วูลฟ์แพ็ก’ ทีมวิจัยใช้เอเจนต์ 3 ตัวเป็นผู้เล่น โดยเล่นเป็นหมาป่า 2 ตัว และเหยื่อ 1 ตัว ซึ่งผลลัพธ์ที่ได้นั้นแตกต่างจากเกมแรกโดยสิ้นเชิง เพราะในเกมนี้ เอเจนต์ที่เล่นเป็นหมาป่าทั้ง 2 ตัว ดูจะร่วมมือกันเป็นอย่างดี และไม่ได้ต่อสู้กันเอง เพราะต่างก็ได้รางวัลเวลาที่จับเหยื่อได้
ทีมนักวิจัยอธิบายว่าพวกเขากำหนดกติกาของเกมนี้ไว้ว่า เหยื่อเป็นตัวอันตราย หมาป่าสามารถจับมันได้เพียงลำพัง แต่ก็เสี่ยงที่จะเสียเหยื่อไปเป็นอาหารให้กับนักล่าตัวอื่น แต่ถ้าหมาป่าร่วมมือกัน พวกมันก็จะได้ทั้งเหยื่อและป้องกันเหยื่อจากนักล่าได้ ซึ่งเป็นรางวัลที่พิเศษกว่า
ปฏิเสธไม่ได้ว่าปัญญาประดิษฐ์ในโลกปัจจุบันได้พัฒนาไปไกลกว่าที่เราคิดและจะเป็นรากฐานของการใช้ชีวิตในอนาคตของเราแทบทุกด้าน ไม่ว่าจะเป็น ระบบโครงสร้างพื้นฐาน สมาร์ตโฟน รถยนต์ไร้คนขับ หรือการแพทย์และสาธารณสุข ด้วยเหตุนี้ Google จึงทำบททดสอบขึ้นมาว่า มันจะรู้จักความโกรธ ความโลภ ความหลงเหมือนอย่างมนุษย์เราหรือไม่
แล้วจะเกิดอะไรขึ้น ถ้าปัญญาประดิษฐ์นั้น ‘คล้าย’ กับมนุษย์มากกว่าที่นักวิทยาศาสตร์เคยคาดคิด เป็นไปได้หรือไม่ว่าในวันหนึ่งมันจะเลือกโจมตีเราเพื่อให้ได้มาซึ่งผลลัพธ์หรือ ‘รางวัล’ ที่คุ้มค่ากว่า
นั่นคงเป็นฝันร้ายในนิยายวิทยาศาสตร์ที่ไม่มีใครอยากให้กลายเป็นจริง
Cover: Nisakorn Rittapai
อ้างอิง:
- deepmind.com/blog/understanding-agent-cooperation
- www.businessinsider.com/google-deepmind-aggressive-gameplay-2017-2?utm_content=bufferbd9bc&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer-ti
- futurism.com/google-deepmind-researchers-show-that-ai-can-have-killer-instincts
ไม่มีความคิดเห็น:
แสดงความคิดเห็น