咱们平时聊起AI最关心的俩问题肯定是:这东西以后能更“灵光”不?啥时候能跟人一样会思考、懂变通啊?今天就用大白话把这事儿掰开揉碎了说不用整那些听不懂的技术词保证大家都能看明白。
一、先给结论:AI肯定会更“聪明”但短期内成不了“人精” 首先得明确一点未来的AI绝对会比现在好用得多、能干得多也就是咱们说的“更聪明”。
但要是说它能达到人类那种“上知天文下知地理还能察言观色、灵活变通”的智力水平短期内肯定没戏。
这里的“短期内”保守估计至少是几十年甚至可能更久不是说三五年就能实现的。
可能有人会问“更聪明”具体是啥样啊?其实就是AI在咱们生活、工作里能做的事儿越来越精准效率也越来越高。
比如现在AI帮医生看CT片可能还会漏诊一些早期的小病灶以后它就能看得更细准确率比现在高一大截;再比如现在用AI写个文案有时候还得人改半天以后它可能一写就符合咱们想要的风格不用怎么调整。
这些都是“更聪明”的表现而且肯定会慢慢实现。
但“达到人类智力水平”就不一样了。
人类的智力不光是会做题、会干活还包括能理解感情、能自主感情、能应对突发状况。
比如你跟朋友聊天对方说“今天天气真差”你能听出他可能因为天气不好心情不好还能安慰他;但AI现在只能识别“天气差”这个信息没法体会背后的情绪更不会主动安慰人。
这种差距不是简单提升技术就能补上的。
二、为啥说AI会更“聪明”?技术在不断突破 AI能变“聪明”核心是背后的技术一直在升级就像给AI不断“充电”“升级装备”一样。
现在有几个关键技术方向都在帮AI变得更强。
第一个是“物理信息神经网络”。
听着挺玄乎其实就是让AI能更好地理解现实世界的规律。
以前AI处理数据大多是“死记硬背”比如看了一万张猫的图片就知道“长这样的是猫”但它不知道猫会跑、会跳不知道猫的身体结构为啥能支持这些动作。
而物理信息神经网络能把物理定律(比如力学、光学原理)融入到AI的“学习过程”里。
比如训练AI识别车祸现场它不光能看到“车撞在一起了”还能根据物理规律判断“撞击力度大概有多大可能会造成哪些损伤”这样它给出的分析结果就更贴合现实不会犯“常识性错误”。
第二个是“因果模型”。
咱们人类做事很擅长找“因果关系”比如“因为没带伞所以淋雨了”“因为努力学习所以成绩提高了”。
但以前的AI只会找“相关性”比如它发现“冰淇淋销量高的时候溺水事故也多”就可能误以为“吃冰淇淋导致溺水”却不知道其实是“天气热大家既爱吃冰淇淋又爱去游泳”。
而因果模型就是教AI分清“相关”和“因果”让它思考问题更有逻辑。
比如用在医疗领域AI不光能发现“某类人群发病率高”还能分析出“是因为饮食习惯还是遗传因素或者是环境影响”这样给出的健康建议才更靠谱。
有了这些技术AI在专业领域的能力肯定会越来越强。
比如在金融领域以后AI能更准确地预测股市波动不是靠瞎猜而是靠分析经济数据、政策变化之间的因果关系;在教育领域AI能更精准地找到学生的知识漏洞不是简单地多做题而是分析“为啥这个知识点没学会是理解错了概念还是没掌握解题方法”。
这些都是AI变“聪明”的具体体现而且会实实在在地帮咱们解决问题。
三、为啥说短期内AI达不到人类智力水平?三大瓶颈绕不开 虽然AI会变“聪明”但要达到人类的智力水平还有三个大难题没解决这些难题不是靠“堆数据”“堆算力”就能搞定的得有本质性的理论突破才行。
第一个瓶颈:AI本质是“模式匹配”不是真“理解” 现在的AI不管是ChatGPT还是能画画的Midjourney核心逻辑都是“模式匹配”。
简单说就是AI在海量数据里找规律然后根据规律生成答案。
比如你让AI写一篇关于“春天”的作文它其实是把以前看过的几百万篇“春天”的文章拆成片段再重新组合起来;你让AI看一张X光片它也是对比以前看过的几十万张X光片找“哪块阴影跟癌症的特征最像”。
但这不是真的“理解”。
人类看到“春天”会想到小时候在春天放风筝的回忆会闻到春天里花香的味道会感受到天气变暖的舒服;而AI不知道“春天”是什么感觉它只知道“春天”这个词常和“花开”“燕子”“温暖”这些词放在一起。
再比如你问AI“为什么水结冰会膨胀”它能说出“因为水分子结冰后形成晶体结构间隙变大”但它没法像人类一样通过“冬天冻住的水管会裂开”这个生活经验真正理解“膨胀”的含义。
这章没有结束请点击下一页继续阅读!。
本文地址大白话聊透人工智能未来的AI会更聪明吗能达到人类的智力水平吗来源 http://www.jingaoyang.com
开局被废我以剑冢斩神明
葬剑
这个人渣不简单
快穿之拒当大冤种
最强丧尸档案
白话文讲资治通鉴
携空间穿古代挖到千年人参暴富
午夜诡影悬疑短篇故事集
四合院开局掘了养老团的根
庆余年闲昀野嬷大合集
斗罗大陆之千星龙皇
海贼王黑暗中的黎明
我在足坛刷成就
影视之多子多福