共同进化博弈内容摘要:

下表所示(上图为原矩阵,下图为象矩阵): B A 守信 不守信 相信 a4, b4 a3, b3 不相信 a2, b2 a1, b1 B A 合作 不合作 合作 a4, b4 a3, b3 不合作 a2, b2 a1, b1 程序实现 程序输出的数据:  每个个体每次博弈的收益值即适应度函数 fitness  每个个体每一次博弈的选择即 history数组  每个个体的策略串 strategy  每次博弈中守信个体的数目 程序实现 系统中的个体分 A型和 B型两种,大小为偶数 *偶数的矩阵,这样就可以使两种类型的个体依次间隔开来。 A型与 B型的不同之处有:  记忆深度(即记忆博弈对象的历史记录与得益值的步数);  历史记录的长度(个体的历史记录的长度取决于它的博弈对象的记忆深度);  策略串的大小(策略串的大小取决于个体的记忆深度与类型。 A型个体的策略串的长度等于其记忆深度加 1, B型个体的策略串等于其记忆深度加 1的两倍)。 结果分析与讨论 程序对 100*100大小(即 10000个个体 ,5000个 A型, 5000个 B型)的系统,进行了 500步博弈模拟。 将要讨论的一些结果:  系统中合作者的数目随博弈次数的变化情况  各博弈者在每一步的选择情况,即是否合作  各博弈者的策略随步数的变化情况 可能对其产生影响的一些因素:  支付矩阵  记忆深度  选择、学习、变异的方式  其它因素 在下面的讨论中,主要考虑记忆深度和支付矩阵的影响,选择、学习的方式都如前所述, 不再改变,且暂不考虑变异和其它因素。 但是由于以后研究的需要,仍将其列出。 结果分析与讨论 首先考虑系统中合作者的数目随博弈次数的变化情况。 右图是在如前所述的博弈矩阵下进行的结果,记忆深度为 m=2, 4, 6,8的情形。 其中横坐标表示步数,总坐标表示合作者的人数。 下同。 结果分析与讨论 我们进行了很多次实验,发现如下几个现象:  合作者的比例总是先升高再下降,最终减至零。 这个结果并没有出现动态平衡,这与我们最初的想法有出入,可以说结果不是很理想,但是这与用遗传算法求解演化稳定策略具有一定的相似之处。  当记忆深度越大时,合作者趋于零的速度总体越慢,但是即使是同一个记忆深度,趋于零的速度也是有不同的,这个主要是演化机制中的随机性导致的。 这里统计的只是按照同一个记忆深度下,概率密度最大者的趋近速度。 结果分析与讨论 在另一个更具有一般性的支付矩阵下,我们做了同样的实验,其结果如右图。 这个支付矩阵是{1,2,2,1,1,2,2,1}, 它所得到的结果将不再是简单地减少至零的 ,这可能是由于它有多个演化稳定策略。 我们让其记忆深度 m=3,运行1500步,可以发现其仍有波动。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。