IMDB : tt7658158
คะแนน : 6
ฉันคิดว่าภาพยนตร์เรื่องนี้ยอดเยี่ยมมาก! ฉันแนะนำให้เพื่อนและเพื่อนร่วมงานด้านไอทีดูทันทีที่มีโอกาส ฉันคิดว่าในปัจจุบันในสังคมความเสี่ยงของ AI (โดยเฉพาะอย่างยิ่งปัญญาประดิษฐ์ทั่วไปและปัญญาประดิษฐ์ขั้นสูง) จะไม่เป็นที่เข้าใจของคนส่วนใหญ่ แม้แต่นักวิจัยด้านไอทีและ AI ส่วนใหญ่ เนื่องจากจุดสนใจหลัก (และงบประมาณหลัก) ไปที่ ANI (AI ที่แคบ) ที่สร้างไว้แล้วได้เข้าสู่สังคมของเรา และมีประโยชน์ (ที่เป็นไปได้) มากมายในด้านต่างๆ รวมถึงการแพทย์ (เช่น การวินิจฉัยโรคมะเร็ง การต่อสู้กับโรคระบาด) การขนส่ง การควบคุมสภาพอากาศ ความยั่งยืน เป็นต้น
เป็นเรื่องที่ยอดเยี่ยมที่เคียร์ ดัลเลียในภาพยนตร์เรื่องนี้ได้ย้อนกลับไปดู "ปี 2001" และปฏิสัมพันธ์ระหว่างเขากับฮาล สำหรับคนส่วนใหญ่ที่อยู่นอกแวดวง AI HAL ยังคงเป็นคอมพิวเตอร์ AI อัจฉริยะที่เป็นที่รู้จักมากที่สุด สารคดีให้ภาพรวมที่ดีของผู้มีส่วนได้ส่วนเสียต่างๆ และมุมมองในการอภิปรายเชิงรุก/ต่อต้าน AGI ในปัจจุบัน (ประโยชน์ของ AI, หุ่นยนต์, สงคราม, ความเสี่ยงที่มีอยู่สำหรับมนุษยชาติ สามารถควบคุมได้หรือไม่) โดยเฉพาะคำพูดของไบรอัน จอห์นสัน (“แผนการของเราในฐานะสายพันธุ์หนึ่งคืออะไร ... เราไม่มีแผนและเราไม่รู้ว่าจำเป็นต้องมีแผน”) วนเวียนอยู่ในใจฉันตลอดเวลา ฉันคิดว่านั่นคือปัญหาจริงๆ เกือบทุกคนในสาขา AI (แม้แต่คนที่มีความระมัดระวังมากกว่าเช่น Stuart Russell หรือ Max Tegmark) ต่างสันนิษฐานว่า AGI จะมาในเร็วๆ นี้ (ภายใน 10 ถึง 50 ปีข้างหน้า) และงานวิจัยหลายชิ้นยอมรับว่ามีความเสี่ยงร้ายแรงมาก (รวมถึงความเสี่ยงที่มีอยู่) ที่มาพร้อมกับสิ่งนี้ อย่างไรก็ตาม เมื่อพวกเขาพูดถึงการลดความเสี่ยงเหล่านี้ การสนทนาก็เริ่มไม่ชัดเจนมากขึ้น เช่น คำแนะนำของ Stuart Russell เกี่ยวกับ "AI ที่มีเมตตากรุณาที่พิสูจน์ได้" หรือแนวคิดของ Ben Goertzel เกี่ยวกับ "AI แบบกระจายอำนาจ" สำหรับฉันสิ่งนี้ไม่สมเหตุสมผล ก่อนอื่นเราควรมีแผนที่จะพิสูจน์ว่าความเสี่ยงพื้นฐานได้รับการบรรเทาลงก่อนที่เราจะเดินหน้าต่อไป หรือมิฉะนั้น ให้ระงับการวิจัย AGI ไว้ชั่วคราว (หากยังเป็นไปได้...) เช่นเดียวกับที่เราทำเกี่ยวกับการดัดแปลงพันธุกรรมและการโคลนนิ่ง