hnmj

11


默认页面

<h1>整体进度</h1> <p>1 比赛场晋级赛已初步完成4端联调,跑通流程(拱猪), 2 水鱼比赛场正在重构机器人才能跑完比赛流程,调试完毕后与其他端进行联调 3 拱猪先行开始淘汰赛赛制相关工作 4 大厅开始新UI替换 5 后台自定义比赛配置持续完善中 6 水鱼ai强化学习探索中</p> <h2>程国强</h2> <p>1 增加web同步亲友圈房间接口(房间建立/解散,游戏开始/结束,玩家加入/退出),游戏ws服务器检测缓存命令并执行 2 联调淘汰赛的流程,并解决过程中的一些问题(进行中) 3 与大海一起完成服务器迁移到阿里云的工作 4 联调并优化晋级赛的一些细节</p> <p>近期计划 1 将访问频繁信息放到缓存,比如玩家信息(包括房卡金币等),桌子信息等,降低数据库访问频率,同时开放rds给子游戏,降低同步数据的消耗 2 根据新版UI,分析需求变动 3 根据讨论结果继续完善比赛场淘汰赛赛制</p> <h2>胡功喜</h2> <p>拱猪: 1.拱猪客户端重构大体上完成,还有一些细节需要完善。 2.利用新的拱猪客户端已经接通新的比赛场晋级赛。 大厅: 1.接通拱猪客户端比赛场联调 2.替换大厅主页UI为最新的UI</p> <h2>张富进</h2> <p>1.学习马尔可夫决策过程,并了解Bellman期望方程构成和求解 2.基于Q-learning方法设计(弊端:Q-learning算法基本的假设是环境不变的) 3.设计shape为S x A的reward矩阵,闲家A对于庄家来说,当闲家牌状态为开牌,庄可直接作用于闲家A,在此状态下reward可设置为0,当闲家A牌状态为强攻或密,庄不可直接作用于闲家A,此时reward设置为-1。 问题:在对弈游戏中,庄家对闲家的同一操作可能有不同响应(因为每个回合的牌都不一样,比如庄家让闲家A走,闲家A可能走、可能反) 基于该算法弊端,需要在其中加入探索和利用机制,以epsilon-greedy算法为代表</p> <p>下一步: 研究epsilon-greedy算法以及其他适用的方法</p> <h2>吴天文</h2> <p>1.完成拱猪前后端晋级赛功能,完成部分淘汰赛功能 2.正在对接拱猪淘汰赛的流程</p> <h2>董大海</h2> <p>已完成: 比赛场后台配置 锦标赛报名发奖退赛 淘汰赛报名退赛以及复活跳阶 物品后台配置 商城后台配置</p> <p>待完成: 周榜月榜发奖 以及部分已完成的接口对接</p> <h2>任勇红</h2> <p>1,统计后台游戏数配置编辑,实现自定义比赛开赛人数,参与人数,开赛时间段,赛制模式。 2,后台可编辑比赛晋级模式,是否跳级,跳级以及报名消耗物品, 3,自定义比赛奖励,配置每轮名次奖励,每轮奖励物品, 4,接下来要实现对物品的配置。</p> <h2>雷雨</h2> <p>1 正在重构水鱼比赛场机器人逻辑,目前正在调试,完成之后开始比赛场联调</p>

页面列表

ITEM_HTML