在科技界目光聚焦的2025北京智源大会开幕式上,蒙特利尔大学教授、图灵奖得主约书亚・本吉奥(Yoshua Bengio)带来了令人瞩目的观点。他在主旨演讲中明确指出,AI的规划能力正以惊人的指数级速度提升。依据当前的研究曲线进行严谨推测,在大约5年的时间跨度内,AI的规划能力有望达到人类水平。
本吉奥坦言,在ChatGPT发布后,他深刻地意识到自己严重低估了AI的发展速度。这一认知的转变促使他彻底调整研究方向,全力投入到降低AI失控风险的研究工作中。他强调,人们不能仅仅着眼于当下AI的发展状态,更应具有前瞻性,深入思考AI在未来1年、3年、5年甚至10年后可能达到的发展高度。
“我们已经见证了能够熟练掌握语言、顺利通过各类测试的机器诞生,这在几年前听起来犹如科幻小说中的情节,如今却已成为现实。”本吉奥表示。而且,当前AI的能力边界正在不断拓展,已经展现出复杂推理、自主性,甚至欺骗行为等特征。这一系列现象无疑为人类敲响了警钟,AI的发展已经到了一个需要高度重视风险管控的阶段。
为了有效应对AI可能带来的风险,本吉奥提出了一系列具有建设性的策略。他呼吁运用先进技术对AI的使用进行严格验证,确保其在运行过程中遵循人类设定的道德指令。同时,他创新性地提出了“科学家AI”的概念,致力于构建一种完全非通用的、基于解释能力的AI。他希望这类AI能够专注于解释世界,而不是过度干预世界。此外,本吉奥还提议让这类AI在安全架构中充当“守护者AI”的角色,对其他更具主动性的AI系统进行外部监督,以此来保障整个AI生态系统的安全性和稳定性。
在全球合作层面,本吉奥认为,唯一能让不同国家携手合作,共同应对AI风险的有效途径,是让各国政府,尤其是美国和中国,充分认识到AI可能引发的真正灾难性后果。例如,人类对AI失去控制,或者恐怖分子利用AI实施恶意行为等。他呼吁全球各国在技术监管和政治层面展开深度合作,共同为AI的发展制定合理的规则和框架,确保AI始终服务于人类的利益,推动人类社会的进步与发展。