默认页面
<h1>整体进度</h1>
<p>1 比赛场晋级赛已初步完成4端联调,跑通流程(拱猪),
2 水鱼比赛场正在重构机器人才能跑完比赛流程,调试完毕后与其他端进行联调
3 拱猪先行开始淘汰赛赛制相关工作
4 大厅开始新UI替换
5 后台自定义比赛配置持续完善中
6 水鱼ai强化学习探索中</p>
<h2>程国强</h2>
<p>1 增加web同步亲友圈房间接口(房间建立/解散,游戏开始/结束,玩家加入/退出),游戏ws服务器检测缓存命令并执行
2 联调淘汰赛的流程,并解决过程中的一些问题(进行中)
3 与大海一起完成服务器迁移到阿里云的工作
4 联调并优化晋级赛的一些细节</p>
<p>近期计划
1 将访问频繁信息放到缓存,比如玩家信息(包括房卡金币等),桌子信息等,降低数据库访问频率,同时开放rds给子游戏,降低同步数据的消耗
2 根据新版UI,分析需求变动
3 根据讨论结果继续完善比赛场淘汰赛赛制</p>
<h2>胡功喜</h2>
<p>拱猪:
1.拱猪客户端重构大体上完成,还有一些细节需要完善。
2.利用新的拱猪客户端已经接通新的比赛场晋级赛。
大厅:
1.接通拱猪客户端比赛场联调
2.替换大厅主页UI为最新的UI</p>
<h2>张富进</h2>
<p>1.学习马尔可夫决策过程,并了解Bellman期望方程构成和求解
2.基于Q-learning方法设计(弊端:Q-learning算法基本的假设是环境不变的)
3.设计shape为S x A的reward矩阵,闲家A对于庄家来说,当闲家牌状态为开牌,庄可直接作用于闲家A,在此状态下reward可设置为0,当闲家A牌状态为强攻或密,庄不可直接作用于闲家A,此时reward设置为-1。
问题:在对弈游戏中,庄家对闲家的同一操作可能有不同响应(因为每个回合的牌都不一样,比如庄家让闲家A走,闲家A可能走、可能反)
基于该算法弊端,需要在其中加入探索和利用机制,以epsilon-greedy算法为代表</p>
<p>下一步:
研究epsilon-greedy算法以及其他适用的方法</p>
<h2>吴天文</h2>
<p>1.完成拱猪前后端晋级赛功能,完成部分淘汰赛功能
2.正在对接拱猪淘汰赛的流程</p>
<h2>董大海</h2>
<p>已完成:
比赛场后台配置
锦标赛报名发奖退赛
淘汰赛报名退赛以及复活跳阶
物品后台配置
商城后台配置</p>
<p>待完成:
周榜月榜发奖
以及部分已完成的接口对接</p>
<h2>任勇红</h2>
<p>1,统计后台游戏数配置编辑,实现自定义比赛开赛人数,参与人数,开赛时间段,赛制模式。
2,后台可编辑比赛晋级模式,是否跳级,跳级以及报名消耗物品,
3,自定义比赛奖励,配置每轮名次奖励,每轮奖励物品,
4,接下来要实现对物品的配置。</p>
<h2>雷雨</h2>
<p>1 正在重构水鱼比赛场机器人逻辑,目前正在调试,完成之后开始比赛场联调</p>