活在枫叶国

 找回密码
 立即注册
查看: 317|回复: 0

人工智能会在几年内超越人类吗

[复制链接]

2万

主题

4万

帖子

13万

积分

论坛元老

Rank: 13Rank: 13Rank: 13Rank: 13

积分
130731
发表于 2024-4-13 17:24:00 | 显示全部楼层 |阅读模式 来自: LAN
mOKn5YK95mz35XKX.jpg

' ?, }& f4 Y. d1 Q
  `3 M* }7 V* h3 @" f% Q
  美国知名企业家埃隆·马斯克近日宣称,到2025年或2026年,AI(人工智能)可能比最聪明的人类还要聪明。这个预测让不少人惊诧:具备与人类同等智能甚至超越人类智能的AGI(通用人工智能),已经近在眼前了吗?3 d) y) n. \* Q- z% w
  前几年,大多数科学家们对AGI的预期还是几十年乃至上百年后才能实现。近一年半以来,美国人工智能公司OpenAI在大模型方面的巨大成功,让不少乐观的业内人士把AGI实现时间表缩减到5年至10年。马斯克的2年之期,很明显是一个更为激进的预测。从人工智能发展现状看,阻滞AGI实现的因素至少有一大瓶颈和两大风险。
' _2 e* O$ z# b! M  一大瓶颈是能源瓶颈。风头正盛的人工智能大模型,目前还处于“大力出奇迹”阶段,依靠算力堆积实现智能涌现。2020年,最强的大模型算力需求达到每秒浮点运算次数10的23次方量级;到2024年,最强的大模型预训练算力需求已达到每秒10的26次方浮点运算量级,并继续按算力需求每3个月到4个月翻番的规律发展。算力密集意味着能量密集。据外媒报道,OpenAI的ChatGPT聊天机器人每天消耗的电力超过50万千瓦时,用于处理约2亿个用户请求,相当于美国一个普通家庭每天用电量的1.7万多倍。与这样巨大的能耗相比,一个成年人的大脑功率仅约20瓦,低能耗优点十分突出。从能耗看,人工智能要达到人类智能水平还有很大差距,以至于有些专家寄希望于未来可控核聚变技术突破带来的“能源自由”,也有些专家寄希望于芯片和算法的突飞猛进,这二者的突破显然都是短期内难以做到的。  t1 k9 w" A( v' M
  两大风险是商业风险和安全风险。  u+ S4 W/ G; E: z. b
  从商业风险看,对人工智能大模型的投资面临着“赔本赚吆喝”的质疑,增速难以持续,这有可能会影响人工智能的迭代速度。比如,一家美国公司的大模型产品向用户收取10美元月费或100美元年费,但因为服务成本高,需要每个月为每个用户“倒贴”20美元。研究机构CB Insights发布的《2023年人工智能(AI)行业现状报告》显示,2023年,全球AI初创公司融资总额约为425亿美元,比2022年的473亿美元下降10%。大模型创业公司估值高、缺乏明确商业化路径,已经劝退了不少风险投资者。当前,虽然大量资金仍在涌向大模型,但烧钱如流水的“炼大模型”成本,也让大模型的商业变现需求愈加急切。
- ?( A0 h& D( y1 Q, c4 r  从安全风险看,当前人工智能技术快速发展,在给世界带来巨大机遇的同时,也带来了难以预知的风险和复杂的挑战。要确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术,显然不是让人工智能不受约束地发展越快越好,而是需要坚持“科技向善”的伦理先行,建立并完善人工智能伦理准则、规范及问责机制。人工智能治理关乎全人类命运,是世界各国面临的共同课题,因此人工智能规则制定也不能由少数发达国家说了算,而是要推动构建公平、公正的人工智能国际治理体系。
# A* Q& d" B" H$ G* M5 W7 V  人工智能或许终有一天将超过人类,无论那一天是远还是近,人类都要做好迎接挑战的准备。 (本文来源:经济日报 作者:佘惠敏)
【郑重声明】活在枫叶国刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经本网同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|小黑屋|活在枫叶国

GMT-5, 2024-11-12 14:55 , Processed in 0.017998 second(s), 37 queries .

Powered by 活在枫叶国

www.canadaasians.com

快速回复 返回顶部 返回列表