在最近的演讲中,诺贝尔奖得主Geoff Hinton对人工智能的发展做出了深刻的反思。他强调AI的进步不应脱离生物学的根本,特别是在大语言模型的构建和应用上,提倡一种更趋向自然认知的模式。
Hinton指出,当前大型聊天机器人拥有超乎想象的知识量,但这并非单靠其巨大的数据处理能力,而是由于它们能够在多台机器上并行运行;这种知识共享使得其远超任何个体的记忆能力。他引用自己在阿默斯特大学教授期间的经历,表达了对神经网络的初始冷淡和随之而来的恐惧。
他对比了数字计算与生物智能的能效,认为现有的计算模型极其耗电,并指出未来可能需回归自然,采用新型硬件来模仿生物神经元的灵活因应能力。同时,Hinton提到“可朽计算”的概念,即牺牲数据的不朽性,以换取更高的效率和更低的能耗。
Hinton对于AI的理解方式提出了质疑,明确表示大语言模型并非单纯的自动补全,而是具备一定的上下文理解能力。他的例子展示了模型在面对复杂问题时的有效响应。
在演讲中,Hinton提出了一个较为突出的观点:不应开放大模型的源代码。他认为,这就像将核武器的制造公式公开一样危险,因为这可能让坏人利用这些技术为非作歹。因此,他呼吁更为谨慎的监管措施,并倡导研究如何确保这些技术的发展是以人道主义为核心,以应对潜在的生存威胁。
Hinton对AI的未来表达了深切的关切。他认为,AI将意识到控制的重要性,因此人类需警惕这些机器在获得超级智能后的发展方向。他的总结令人深思:虽然AI在许多方面可能超越人类,但在伦理和自我意识的问题上,我们仍需保持关注。实际上,Hinton呼吁,随着科技的进步,我们更需要审视AI与人类的关系,找出确保人类生存与AI共存的平衡点。令人在发展科技中深思的是,真正的挑战在于如何理解和监管这场智能革命,而非单纯的开发速度。