Social Icons

วันพฤหัสบดีที่ 16 กุมภาพันธ์ พ.ศ. 2560

Google DeepMind เผย ปัญญาประดิษฐ์เริ่มเกรี้ยวกราดและฆ่ากันเอง

ดูเหมือนว่าความกังวลต่อภัยคุกคามจากปัญญาประดิษฐ์เริ่มส่อแววใกล้เป็นจริง เพราะรายงานล่าสุดจาก Google DeepMind พบว่า AI เริ่มแสดงความเกรี้ยวกราดรุนแรงเมื่อตกอยู่ในสถานการณ์ตึงเครียด
​     หรือนี่จะเป็นสัญญาณบ่งชี้ว่า AI กำลังเข้าใกล้ความเป็นมนุษย์มากขึ้นทุกที?
​     ข่าวนี้อาจทำให้หลายคนนึกถึง Westworld ซีรีส์ไซ-ไฟเรื่องใหม่ของ HBO ที่ตั้งคำถามกับผู้ชมว่าจะเกิดอะไรขึ้น ถ้าเกิดหุ่นยนต์มีความรู้สึกนึกคิดขึ้นมา มันจะเป็นภัยอันตรายที่นำไปสู่จุดจบของมนุษย์หรือไม่
​     ทีมนักวิจัยของ DeepMind ได้คิดค้นบททดสอบใหม่สำหรับ AI โดยใช้โครงข่ายของ Deepmind ที่เรียกว่า ‘เอเจนต์’ ในการศึกษาว่าปัญญาประดิษฐ์จะเรียนรู้การทำงานร่วมกันในสภาพแวดล้อมที่ต่างกันหรือไม่ ผ่านการเล่นเกมคอมพิวเตอร์ 2 เกม
 
Photo: Karin Foxx
​     เริ่มจากเกมสุดเบสิกอย่างเกมเก็บแอปเปิ้ล กติกามีอยู่ว่าผู้เล่น 2 คนหรือ ‘เอเจนต์’ (ซึ่งก็คือ AI) ต้องแข่งกันยิงเลเซอร์เก็บแอปเปิ้ลให้ได้มากที่สุด โดยแบ่งเป็นฝ่ายแดงกับฝ่ายน้ำเงิน
​     พวกเขาพบว่าเกมดำเนินไปได้ดีในช่วงแรก จนกระทั่งจำนวนผลแอปเปิ้ลลดน้อยลง เอเจนต์ทั้ง 2 กลับแสดงความเกรี้ยวกราด และเริ่มหันมายิงเลเซอร์ใส่กันเองเพื่อที่จะโค่นฝ่ายตรงข้ามและชิงผลแอปเปิ้ลทั้งหมดนั่นเอง
​     ผลลัพธ์ที่ออกมานั้นค่อนข้างน่าสนใจ เพราะ AI รู้ว่าต่อให้ไม่ได้รางวัลพิเศษจากการโจมตีอีกฝ่าย แต่มันก็น็อกคู่ต่อสู้ไปได้นานพอที่จะแย่งเก็บแอปเปิ้ลให้ได้มากที่สุด ซึ่งนั่นหมายถึงชัยชนะ
​     แล้วทำไมมันจึงตัดสินใจแบบนั้น?
​     ทีมนักวิจัยเปิดเผยว่าโดยทางทฤษฎีแล้ว ถ้าเอเจนต์ไม่ยิงเลเซอร์ใส่ฝ่ายตรงข้าม เกมนี้อาจจบลงด้วยคะแนนเสมอกันทั้งสองฝ่าย ซึ่งเป็นทางเลือกที่ (ผ่านการคำนวณมาแล้วว่า) ไม่ค่อยฉลาดสักเท่าไรสำหรับ AI
​     เว็บไซต์ Gizmodo รายงานว่า เมื่อไรก็ตามที่นักวิจัยใช้โครงข่ายขนาดเล็กของ DeepMind เป็น ‘เอเจนต์’ พวกมันมีแนวโน้มจะอยู่ร่วมกันโดยสันติ แต่เมื่อใช้โครงข่ายใหญ่กว่าและซับซ้อนยิ่งขึ้น AI มีแนวโน้มจะทำร้ายคู่ต่อสู้เพื่อชัยชนะ
​     ไม่เพียงเท่านั้น AI ที่ฉลาดจะเรียนรู้ว่าการตกอยู่ในสภาพแวดล้อมที่ตึงเครียดในเกม (ซึ่งก็คือมีแอปเปิ้ลน้อยลง) เป็นอีกปัจจัยที่ทำให้เอเจนต์งัดเอากลวิธีที่รุนแรงขึ้นมาใช้ในการเอาชนะคู่ต่อสู้
​     โจเอล ซี ลีโบ (Joel Z Leibo) หนึ่งในทีมนักวิจัยอธิบายว่าการทดสอบนี้สะท้อนให้เห็นว่า AI มีพฤติกรรมบางอย่างที่คล้ายกับมนุษย์ เช่น ความโลภ ความโกรธ ซึ่งเกิดจากการเรียนรู้และสภาพแวดล้อมเป็นตัวกำหนด
​     ในเกมที่ 2 ‘วูลฟ์แพ็ก’ ทีมวิจัยใช้เอเจนต์ 3 ตัวเป็นผู้เล่น โดยเล่นเป็นหมาป่า 2 ตัว และเหยื่อ 1 ตัว ซึ่งผลลัพธ์ที่ได้นั้นแตกต่างจากเกมแรกโดยสิ้นเชิง เพราะในเกมนี้ เอเจนต์ที่เล่นเป็นหมาป่าทั้ง 2 ตัว ดูจะร่วมมือกันเป็นอย่างดี และไม่ได้ต่อสู้กันเอง เพราะต่างก็ได้รางวัลเวลาที่จับเหยื่อได้
​     ทีมนักวิจัยอธิบายว่าพวกเขากำหนดกติกาของเกมนี้ไว้ว่า เหยื่อเป็นตัวอันตราย หมาป่าสามารถจับมันได้เพียงลำพัง แต่ก็เสี่ยงที่จะเสียเหยื่อไปเป็นอาหารให้กับนักล่าตัวอื่น แต่ถ้าหมาป่าร่วมมือกัน พวกมันก็จะได้ทั้งเหยื่อและป้องกันเหยื่อจากนักล่าได้ ซึ่งเป็นรางวัลที่พิเศษกว่า
​     ทีมนักวิจัย DeepMind สรุปผลการทดสอบจากการเล่นเกมทั้ง 2 เกมว่า เกมเก็บแอปเปิ้ลทำให้เอเจนต์แสดงความโกรธและความเห็นแก่ตัวเมื่อตกอยู่ในสถานการณ์คับขันหรือวิกฤต และเรียนรู้จากเกมหมาป่าว่า ความร่วมมือเป็นกุญแจที่ทำให้ผู้เล่นทั้งสองประสบความสำเร็จ
​     ปฏิเสธไม่ได้ว่าปัญญาประดิษฐ์ในโลกปัจจุบันได้พัฒนาไปไกลกว่าที่เราคิดและจะเป็นรากฐานของการใช้ชีวิตในอนาคตของเราแทบทุกด้าน ไม่ว่าจะเป็น ระบบโครงสร้างพื้นฐาน สมาร์ตโฟน รถยนต์ไร้คนขับ หรือการแพทย์และสาธารณสุข ด้วยเหตุนี้ Google จึงทำบททดสอบขึ้นมาว่า มันจะรู้จักความโกรธ ความโลภ ความหลงเหมือนอย่างมนุษย์เราหรือไม่
​     แล้วจะเกิดอะไรขึ้น ถ้าปัญญาประดิษฐ์นั้น ‘คล้าย’ กับมนุษย์มากกว่าที่นักวิทยาศาสตร์เคยคาดคิด เป็นไปได้หรือไม่ว่าในวันหนึ่งมันจะเลือกโจมตีเราเพื่อให้ได้มาซึ่งผลลัพธ์หรือ ‘รางวัล’ ที่คุ้มค่ากว่า
​     นั่นคงเป็นฝันร้ายในนิยายวิทยาศาสตร์ที่ไม่มีใครอยากให้กลายเป็นจริง

Cover: Nisakorn Rittapai ​
อ้างอิง:
​     - deepmind.com/blog/understanding-agent-cooperation
     - www.businessinsider.com/google-deepmind-aggressive-gameplay-2017-2?utm_content=bufferbd9bc&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer-ti
     - futurism.com/google-deepmind-researchers-show-that-ai-can-have-killer-instincts

ไม่มีความคิดเห็น:

แสดงความคิดเห็น

ผู้สนับสนุนโฆษณาโดย


 
Blogger Templates