作为一个理工男,我经常思考男人经常思考的两个问题:第一,宇宙从何而来,宇宙有多大,宇宙的边界在哪里;第二,灵魂是什么?
第一还没想出来,但是现在,我想在这篇帖子分享一下关于灵魂的想法,不太成熟,就当日记写
首先,谈一谈我对科学的看法,我认为人人都可以成为科学家,重要的是提出理论和模型,哥白尼没有发现引力一样提出了日心说,所以我也构想了一个关于灵魂的模型,完全瞎想,希望能引发各位的灵感。
这个模型的灵感源自我小时候的一次经历,这个不多说了,有人感兴趣再说。
一、概述
灵魂是什么,我把它定义为对外部环境应对方法的巨大集合
二、模型的结构
1、外部环境实例化
2、本能反应的算法
3、与环境发生互动的方法
4、场景和情景的构建
5、语言、文字、表情、肢体语言的表达模型
6、如何形成记忆
7、记忆对选择的影响
等等
以上都是我瞎编的,想法有,就是还没组织好文字表达清楚
下面是本模型的基础之一:外部环境实例化
本模型的大量方法都是根据实际生活中推到出来的,为便于大家理解,解释模型前我会使用生活中的例子便于大家理解。
大家肯定有过这样的体会,看清楚桌子上物品的位置,即便闭上眼睛,也能准确的摸到它,盲人在自己家也能熟练的走动,有些盲人还能根据声音判断物体形状,这就是空间距离感,我的理论是,空间距离感是比视觉更加底层的一种感觉,并不依赖视觉。视觉、听觉、触觉都可以帮助你建立空间距离。
所以为了感知环境,我们首先要建立空间距离感,在这里,我使用3D模型建模来实现空间距离感,建模的手段就是通过视觉、听觉和触觉等等。
各位肯定感觉很普通,对不对,算法很成熟了,有什么创新,在这里我并不打算用AI算法通过一张图片来构建模型,我们还是要思考人是怎么观察的,人观察物体会扭动脖子四处看,两眼的焦距会拉近拉远,人还会走动,会绕着物体看,还会摸一摸,这就是我用来建模的方法,通过定焦的双目或者更多目摄像机拍摄的物体在运动中的变化进行尝试建模,举个例子,车辆在行驶中,路边的路灯杆、树木比远处的山移动快的多,我们就可以得出结论,路灯杆和树比山离我们更近,而比较路灯杆和树木的移动,我们可以知道路灯杆离我们更近,根据摄像机得到的画面中物体的相对移动和物体的线条,我们进行尝试建模,关键的一步来了,我们将得到的模型跟画面做一个融合和对比,当我们移动时,根据画面变化不断修正3D模型,当模型中物体的位置变化、大小变化、相互遮挡与我们观察得到的画面一致时,就说明我们建模成功了。建模成功后,就算在一个密闭的房间中突然关了灯,你也可以走到任何想到达的位置。
好,现在我们已经得到了一个跟视觉匹配的3D模型了,下面就要开始真正关键的一步了,环境实例化。那么环境实例化具体是什么意思哪?其实就是将3D建模得到的模型分割成各个具体的物体,这个就比较复杂了,我们先从简单的开始,一个篮球在房间地板上跳动,这个篮球单独从模型中识别并分割出来就比较简单,一个杯子放在桌子上,在3D模型中杯子跟桌子可能是一个整体,我们可以根据颜色来把它分割出来,当然还有更好的办法,拿起来看看,双目扫描建模,再放回去。没错,这就是婴儿认知世界的方法,通过这种方法,我们可以将房间内一切可以看到的物体都建立单独的模型,这些模型再重新组合成房间这个环境的模型。
那么现在我们得到了分割成具体物体的3D模型了,又到了关键中的关键一步,那就是为3D物体建立类别,这个灵感来自我上大学时学的C++,万物皆对象,对象皆有类,这个难度不大,华为手机都能识别几十种物体了,3D模型的信息量更大,更容易识别和建立类别,在这里我要强调一下,我们建立的模型在视觉处理中始终都是跟画面实时同步的,是隐藏在我们看到的画面的身后的,我们看到一个美女,眼中是美女的画面,脑中是她的3D模型,闭上眼睛,美女看不见了,3D模型一定还在。跟目前AI识别图形不同的是,我们为3D模型中的类赋予数量更为巨大的属性,在这里,我们以球为例子,讲一下如何建立类别,我的二女儿一岁半,正是喜欢玩球的时候,家里有各种球,大的小的,各种颜色,玩过很多球,她发现球型的,能弹得东西,爸爸妈妈都说是球,那么她自己就建立了一个球的类别,她说要玩球,我随便给她拿一个就可以。为物体建立类别是一个非常复杂的过程,这也是人工智能需要自我学习的关键一步,我们可以为机器人设定人类的五感,遇到未知的类别,就要用五感去为物体建立类别,它需要去看,去摸,去闻,去添,去听,这属于本能反应算法的部分,我们小时候会用力尿高用舌头舔一下一个道理。我们假设程序装入一台谷歌大狗,那么大狗就不像现在这样只会走路不倒,我们把很多的球放在他面前,告诉它这是球,那么它就要根据自己学习本能,用五感去跟这个球互动,表现形式就是跟球玩耍,认识球的属性,从而学会球这个类别,那么谷歌大狗就变成了谷歌哈士奇。我们创造机器人,可以赋予它更多的传感器,认识物体也不限于五感,必定比人类更加清晰的认识世界。
除了为物体建立类别,进阶智能还能根据特殊的属性建立类别,比如钻石、黄金、玉石归为一类,也可以为物质之外的东西建立类别,比如关系、感情,这些都需要基于现实世界的物体类别。
为物体建立类别后,我们再回到摄像机中房间的画面,这时我们看到的就不仅是画面了,在经过充分的类别学习后,图像分析不再是简单的图形识别,一幅图像就变成了一个场景,或者一个情景,我认为这才是汽车自动驾驶的未来,汽车行驶在路上,通过摄像机将环境建模,路上的车辆、红绿灯、防撞栏,路灯杆,实时建模与图像匹配,根据3D模型和类别属性计算他们的位置、轨迹,根据汽车的种类和汽车行驶速度和驾驶方式判断他们的动向,汽车自己就具有了空间距离感,这才是真正的自动驾驶,它可以拥有目前技术根本无法实现的能力,比如看到路口右转的斯太尔,刚拍到它的车头,根据类别的定义和3D空间模型,自动驾驶程序就知道它后面还有多大的车身,而且一般不减速,然后减速让行;比如说上马路牙子,汽车首先掌握自己的外形空间大小,摄像机从稍远的距离看到马路牙子,判断自己能不能上去,开近之后,摄像机无法拍摄到马路牙子,通过之前的建模判断障碍物距离,接近后减速降档,接触后加油门上去,根据车身的角度变化与模型计算印证,最后成功上马路牙子,想想都牛逼。
好了,回到正题,为物体建立类别后,我们接触到的东西都要实例化,还是以球为例,我女儿玩球,玩着玩着就只喜欢一个球,这个球必然跟其他的球不同,也许是颜色,大小,或者软硬,反正是在类别中有独特的属性,为物体类别实例化的过程,涉及到了本能算法,场景、情景和记忆,这里我们就不多讲,人工智能遇到一个未知物品,首先要确定它的类别,在进阶智能里,它可以通过资料,交流学习类别,这里也不多讲,现在只讲实例化的意义,比如一个杯子,人工智能首先学习到杯子的类别属性,当摄像机看到一个杯子时,杯子模型跟杯子的画面、材质、温度等等就形成一个实例,刚才举得自动驾驶所分析路灯杆、汽车、红绿灯就是一个一个实例,实例可以记忆,自动驾驶也可以通过学习人类驾驶员的驾驶习惯和道路标志物实例来学习驾驶路线。对于进阶智能来说实例还有更多的属性,一个罐子,有的人看就是一个罐子,有的人就知道这是青花瓷;同一个核桃,有的砸着吃,有的人当宝贝;一个戒指,之前你天天带手上,后来扔马桶,同一个物体,它的属性何其之多,但不同人,不同时间的你对它的属性定义也不同,人工智能也是一样的,一件物品对它来说同样具有不同于其他人工智能的意义,它的成长也不断刷新着实例的属性。
总之,环境实例化是本模型的基础,在此之上,我们基于实例来建立本能反应,学习行为,记忆,知识,行为等算法,基于实例创建场景、情景等进阶环境感知,建立关系、行为准则等等进阶类别
文字识别、语言识别再也不是只根据字义、声音分析,当读到一段文字的时候,3D实例将构建起虚拟的环境来理解其中含义,当你跟人工智能说天气真好时,它也能抬头看看天,然后说:放屁。
今后有时间再想想关于构建场景和情景,以及语言和文字对应场景情景的算法,名词代表一个实例,动词代表一个场景,当与一个人对话时,人工智能会调用记忆,现场情景,人物状态,上下文,知识等等海量的数据来理解一句话。
一个罐子,有的人看就是一个罐子,有的人就知道这是青花瓷;同一个核桃,有的砸着吃,有的人当宝贝;
这个和人的人生观和世界观有关吧。
和你一样,满脸懵逼
太深奥了 让我慢慢消化消化