大家好!这里是 AI—BBC 很高兴又跟大家见面了,感谢大家在百忙之中能抽出时间参加这次的分享会。最近ChatGPT和Sora非常的火,我们呢也要与时俱进,因为肉眼可见的2030年之前,会实现超级智能。到那时候,人类的智力与超级智能相比,就如青蛙与人类的差距这么大。所以我们要紧跟趋势,驾驭AIGC。还是上次说的那句话:一个人的能力再强,强不过时代;一个人再努力,努力不过趋势。
上一次的分享会,我们说的是AIGC的一些基础原理,是偏理工科一点的底层逻辑,这一回,我们会要说一说 AI的未来发展和当下的几种局限
大模型将重新定义人类的知识。首先,我们的知识边界会快速地扩展。因为吸收了全人类的精选知识(也就是预训练),大模型成了上知天文,下知地理的图书管理员。再加上监督学习和强化学习涌现出类比、推理等等多种能力之后,大模型又变得多才多艺、能思善辩。它能部分模仿人类的思维能力,但又比任何一个聪明的人都更具备全面的优势。其次,我们的知识处理的范式将发生转换。从学习、应用知识,到发现新知识,大模型会全面参与到各个流程中来,跟人类进行协作。 如果说未来的强人工智能或通用人工智能将是人类最后一个发明,那么现在的大模型很可能是人类最后一个靠自己独立完成的发明。未来的科研和发明,都会有大模型的深度参与和助力。 最后,知识范式转换也会带来挑战。以后我们学习的知识,会有很大一部分源于生成式大模型,而不仅仅是我们自己书写的文本。因为大模型生成内容存在不确定性,可能会对传统人类知识造成污染。因此,这个关于信任的挑战必须由人类自己来面对。我们能不能识别人工智能生成内容里的偏见和缺陷呢?如何发展出一种简单易行的质询模式,能够质疑人工智能生成内容的真实性呢?这是一个大挑战
我们可以简单粗暴地把生命看作是一种能够自我复制的信息处理系统,物理结构是硬件,行为和“算法”是软件。
1.0版的生命 是以细菌为代表的简单生物阶段,其硬件和软件都是靠进化获得,行为则是完全固化的; 2.0版的生命 是以人类为代表的文化阶段,进化决定了我们的硬件,但我们可以自行设计软件,通过学习来获得知识、改变行为和优化“算法”; 3.0版的生命 是以人工智能为代表的科技阶段,生命不仅可以自行设计软件,还可以自行设计硬件,由碳基变为硅基,最终摆脱进化的枷锁。
AI再厉害也得听人指挥,最终做决策的必须是人,这叫底线思维;一切生产、一切研发都是为了人。人的需求必须是各项事业的出发点和落脚点,所以理解人永远都是最重要的智能。
而AI不可能比人更理解人。AI再厉害它也没有肉体它不是碳基生物,它没有人的感知能力。AI时代,在逻辑运算、听说读写那些一般认知项目上,我们人类已经输了,我们要发挥长板优势,就必须让自己更像人而不是更像AI。
AI时代的商业场景,会要求我们认识自己、团队和客户,要有情感智能和存在智能。这是AI语境下的领导力新的命题。下面我们就谈一谈领导力!
这里我解释一下:情感智能(Emotional Intelligence):是指人工智能系统具备理解、解释和模拟人类情感的能力。这包括识别人类情感,比如愉悦、愤怒、悲伤等,通过语音、文本和图像等多种形式来判断和理解情感。情感智能还可以根据人类情感做出相应的回应和决策,以更好地与人类进行交互。实现情感智能可以使人工智能更加人性化,更能适应不同用户的情感需求。 存在智能(Existential Intelligence): 是指人工智能系统在一定程度上模拟和理解人类的意识、自我认知和哲学思考。这种智能超越了传统的任务执行和逻辑推理,关注于对存在和人类存在的探究。存在智能可能涉及对人类价值观、道德、意义等抽象概念的理解,以及与人类进行哲学性的对话和交流。
AI时代,公司跟公司之间的差异在哪呢?领导力的价值如何体现?说白了,这家公司如何比别家公司更能赚钱呢?最早的领导力是[英雄主义]:我是这个狼群中最能打的,所以你们都得听我的,我说怎么办就怎么办。这是第一层。近现代以来出现了[军队式]的领导力:讲究稳定和可靠性,做事得有章法,不能朝令夕改。这种领导力的问题在于容易出官僚主义,类似于国企,什么都讲制度和流程,有时候忘了初心。后来主流管理学倡导[机器式]的领导力:它以目标为核心,讲考核、问责、谁有能力谁上,是比较扁平的组织结构,追求效率最大化。这是国内民营企业常见的领导方式。这种领导力的问题在于它可能会让视野窄化,过于关注具体的目标,时间长了会产生倦怠,乃至于丧失视野。前面这三种可以说都是卖猪肉思维,比的是执行。新一代管理学倡导的一种领导力是讲[价值观和愿景]:说我们不是一个只知道赚钱的公司,我们是为客户创造价值。它讲究服务式领导,就是希望团队小伙伴对要做的事情达成共识,不但知道做什么,更要知道为什么。这种领导力的问题是,现在社会上各种价值观是油家的开酒难办成。那怎么办呢?就是要充分认识事物的复杂性,能够处理有矛盾冲突的观念。我理解的领导力特别讲人格魅力:你的公司,本质上是你的人格的放大,你有多大的认知,公司能做多大的事;你的认知有多复杂,公司才能做多复杂的业务。关键在于,这些都不是AI能有的智能。
再来说一说,情感计算为什么这么难? AI在短期内既不能学会人的情感,更不能理解人的意识。有四个理由:第一,检测情感非常困难。不同文化、不同场景下,人的情感流露可以很不样。人非常善于伪装和隐藏自己的情感,这是进化给人的社交本能。 第二,我们人都是在实践中学习理解别人的情感。你从小跟朋友们摸爬滚打,你惹怒过别人,你被人惹哭过,通过这些互动反馈你才学会了情感。AI没有这样的学习机会。 第三,人的情感十分复杂。经过几百万年的演化,人脑的逻辑运算能力虽然一般,但是情绪运算绝对是无比发达的[系统1]的快速运算。我们能在复杂的环境中感受到微妙的危险,能自己给自己建构情绪,能用直觉做出判断。第四,人有一些感觉是无法用语言表达的。是某种特定物体带给你的特定感觉。你对红色的感觉是什么?喝牛奶是一种什么感觉?你没有办法向一个盲人解释红色,也没有办法用语言向一个没喝过牛奶的人精确描写牛奶。那AI,又怎么能知道呢?我总结几点给大家的建议:一是,发掘新的可能性。定义对于自己最有价值的事情。二是,从现在开始,从回答问题转向提出问题,并确定哪些问题值得被提出。从知识执行转向知识战略。三是,知识的广度和思维的清晰度相对比较重要。四是,直接学习详细的知识已经变得不重要了。可以在更高的层次学习或者工作。抽象掉许多具体的细节,要做整合,视野要宽。再站在更高的维度,而不是专业化。这些AI都已经干了。。尽可能深而广地思考可能调用的知识范式。以上就是本期全部内容。谢谢大家!