说白了:对于现代人工智能主要依靠深度神经网络,深度神经网络的本质就是一个可以代表任何公式的黑盒子。故而可以作为任何数据拟合的目标,拟合一个数据一定是输入和输出对应的,故而必要的就是数据标注。大量的数据拟合才会达到更好的效果,因此增加了人工智能除了算力之外的成本。
所以今天主要想解决这个成本问题,假设我们的目标是求某两个数据的相似度,而三角形具有相似定理,那么就讲这些数据通过神经网络变为多个三个数组成的向量,每个数代表三角形的一个边的值。为了很好的求解相似 ,我们让三角都必须是直角三角形。假如output=[[a,b,c],…]
可以讲c看做是非直角边,(a2+b2)-c**2=loss,这样当loss最低的之后就证明所有的数据基本都能抽象成为多个直角三角形。
这样数据A和B 输入到该网络,输出Oa 和Ob 进行三角相似计算。方可知道数据A和B的相似成程度。

上面的实例可以总结为,将任意数据输入到net中,得到一个固定的物理数学化学参数,这些参数必须符合某些定理,这样能够计算loss,进行自回归,也就是说产生的一部分参数是输出,一部分是label,输出和label 之间必须符合某些定理,这个定理最好和后期要达到的目的直接相关。
比如必须是匀速直线运动才能使用某些公式计算目标,必须是自由落体,才能怎么样。必须是直角三角行才能,必须在一个平面内才可,也就是说,loss是一个定理的成立的约束条件,当loss越小就越接近定理,定理成立了才能使用定理去完成目的,目标。
其实人类处理问题的时候也是一样的,并不是讲所有的数据都标注出来才能解决,人类可以直接过滤掉不符合常识,定理的条件的数据,或者是将数据或者是其他事件,变得更符合某种条件。
就能通过固定规律控制和达到目的。
比如你要利用避雷针这个现象去发电,你要达到吸雷电的条件才能做之后的工作。

更多文章请关注《万象专栏》