人工智能能否超越人类 人工智能会超越人脑吗
近期,知名企业家埃隆·马斯克发表了一项引人注目的预测,他声称在不久的将来——大约在2025年至2026年之间,AI(人工智能)可能会达到甚至超越最聪明人类的智能水平。这一断言令众多旁观者心生震撼:是否AGI(通用人工智能)已离我们如此之近?
在前几年的科研共识中,AGI的实现曾被预估为几十年乃至一个世纪后的遥远目标。在近一年半里,OpenAI公司在人工智能大模型领域取得的显著成果使得行业内的乐观派纷纷缩短了AGI的预期时间表至5至10年。相较之下,马斯克的两年之期则显得更为激进。若从当前人工智能的发展状况来看,实现AGI至少面临着能源瓶颈和两大风险挑战。
能源瓶颈问题日益凸显。当前盛行的人工智能大模型仍处在“算力驱动”的阶段,依靠计算能力的累积来促进智能的涌现。在2020年,最先进的大模型算力需求已达到每秒进行数以百亿次的浮点运算;而到了2024年,这一需求预计将攀升至每秒进行数以千亿次的浮点运算,且呈现出每三到四个月就翻一番的增长趋势。算力密集型的特性意味着高能耗。据外媒报道,OpenAI的ChatGPT聊天机器人每天消耗的电力相当于处理约两亿个用户请求所需的能量,是普通美庭日均用电量的数万倍。相较之下,人类大脑的能耗则相对低廉,约仅在二十瓦左右。由此可见,从能耗角度出发,要实现与人类同等智能水平的AI还有漫长的道路需要探索,这其中也包括对于未来能源自由的不懈追求和对于芯片与算法持续创新的期望。
安全风险与商业风险是另外两大亟待解决的问题。就商业风险而言,投资于大模型的公司往往面临着运营成本高昂的质疑。比如一家公司的产品虽收取月费或年费给用户提供服务,但其运营成本却远远超出此收费标准。因此这也可能导致AI迭代的速度放缓。当前形势表明,尽管资金仍源源不断地投入大模型的研究与发展中,但巨大的成本投入也使得初创企业迫切需要寻求商业变现的途径。
至于安全风险方面,人工智能技术的飞速发展不仅带来了前所未有的机遇,同时也带来了难以预料的风险和复杂挑战。这要求我们必须确保AI始终处于人类的控制之下,并推动建立可、可监督、可追溯、可信赖的技术体系。在追求AI快速发展的我们必须坚持“科技向善”的原则,明确并遵守准则和规范的问责机制。全球共同面临的AI治理议题需考虑全球视野下的国际协作和规范制定,不可仅由部分决定规则方向。
总体而言,虽然人工智能为我们带来了无限的想象空间和可能性,但实现AGI这一目标仍需克服众多挑战和困难。我们需要谨慎前行、理性应对、综合考虑各方面因素以实现AI技术的可持续发展。