人工智能 (AI) 正在迅速发展,一些专家预测,最早在 2027 年,它就可能超越人类智能。未来学家和人工智能研究员 Ben Goertzel 是预测人工智能有能力自我改进,从而推动一场迫在眉睫的“智能爆发”的人士之一。 这引发了关于未来工作、全球安全以及人类意味着什么的关键问题。世界是否已经准备好迎接一个机器不仅能执行任务,而且还能以超人的水平思考和创造的时代?
通用人工智能 (AGI) 的时间表
Goertzel 估计,我们可能在未来 3 到 8 年内实现人类水平的通用人工智能 (AGI)。他认为,一旦 AGI 达到人类水平,只需几年时间,就能实现根本性的超人 AGI。 这种加速是由人工智能以指数级速度学习和自我改进的能力推动的。但其他专家如何看待这个时间表呢?
Google DeepMind 的联合创始人 Shane Legg 预计,到 2028 年,AGI 出现的可能性为 50%。Anthropic 的首席执行官 Dario Amodei 预计,甚至更早,在 2-3 年内,即 2027 年至 2028 年间,就会出现“人类水平”的人工智能。OpenAI 的首席执行官 Sam Altman 给出了稍微保守的估计,认为 AGI 可能会在未来 4-5 年内,即 2029-2030 年左右实现。虽然具体时间仍不确定,但领先的人工智能研究人员普遍认为,我们正处于重大突破的边缘。
人工智能加速自我改进
这一快速进展的关键驱动因素之一是人工智能越来越强的自我训练能力。人工智能模型正在学习训练自己,从而逐渐实现某种“自我改进”。 这种自我完善的循环已经在加速开发过程。事实上,人工智能已经被用来加速其自身的改进。有人预测,到 2026 年底,人工智能代理在几天内完成的工作,最好的软件工程承包商需要两周才能完成。这种效率水平可能会彻底改变各行各业,并重塑全球经济。
编码和软件开发的未来
人工智能对软件开发的影响尤其值得关注。专家预测,人工智能可能会在 3-6 个月内编写 90% 的代码,并在 12 个月内编写几乎所有的代码。想象一下,在这样一个世界里,人工智能处理绝大多数的编码任务,从而使人类开发人员能够专注于更高层次的战略举措和创造性问题解决。这对软件工程师的未来意味着什么?他们会变得更像人工智能主管,指导和改进这些智能编码机器的输出吗?
阴暗面:人工智能与全球安全
然而,人工智能的快速发展也带来了巨大的风险。最令人担忧的问题之一是人工智能可能破坏全球安全。Goertzel 警告说,人工智能有颠覆核威慑和引发核战争的风险。随着人工智能系统变得越来越复杂,它们可能会被用来发动自主网络攻击、操纵信息,甚至控制武器系统。这些发展所涉及的伦理问题是深刻的,我们必须制定强有力的保障措施,以防止人工智能被用于恶意目的。
从高中到博士:人工智能的惊人进步
人工智能的发展速度确实惊人。想想看:2020 年,人工智能在数学、生物学和编码等领域表现出高中水平。而今天,它已经达到了博士水平。这表明人工智能的能力在相对较短的时间内呈指数级增长。随着人工智能不断学习和发展,它很可能会在许多领域超越人类智能,从而可能在科学、技术和医学领域取得前所未有的进步。但是,我们也必须注意潜在的风险,并确保人工智能得到负责任的开发和使用。
结论:驾驭人工智能超级智能时代
专家意见的趋同和人工智能发展中不可否认的进步表明,我们正在迅速接近通用人工智能时代,并可能接近人工智能超级智能时代。虽然确切的时间表仍不确定,但未来几年对于塑造人工智能的未来及其对社会的影响至关重要。我们必须就人工智能的伦理、社会和经济影响进行深入的讨论,并制定政策和法规,以促进负责任的创新和减轻潜在的风险。人类是会利用人工智能的力量来改善所有人,还是会屈服于其潜在的危险?答案取决于我们今天所做的选择。随着人工智能的快速发展,理解智能爆发的可能性变得越来越重要。
