ns3-gym入门(三):在opengym基础上实现一个小小的demo
创始人
2025-01-11 07:34:28
0

因为官方给的"opengym""opengym-2"这两个例子都很简单,所以自己改了一个demo,把reward-action-state相互影响的关系表现出来

一、准备工作

在ns3.35/scratch目录下创建一个文件夹:
(后续的运行指令后面都需要转移到这个文件夹路径下)

二、主要思路

  • Action:离散空间[0,1,2,3],使用ε-贪心策略选择
  • ExecuteActions:赋值x=action
  • Obs\State:基于action定义一组数,关于x的线性函数
  • Reward:对state中的所有数据进行处理,取平均数得到r

PS.发现一个问题,这个框架如果脱离了具体的网络环境其实并不好定义,因为这些要素相互依赖的关系非常抽象,尤其是state是通过全网状态搜集得到的,在这里没有定义具体的网络环境,所以暂时用全局变量来表示一下这种隐性关系

三、关键实现步骤

mygym.cc(定义了存储决策和状态的全局变量,增加了收集状态、执行动作、计算奖励的函数)
①全局变量

static float deci = 0.0; // 全局变量,用于存储决策 std::vector state;// 全局变量,用于存储状态

②创建状态空间(只是初始化一个容器,定义好维度就行)

//初始化一般不用大改,建立一个存储空间就行 Ptr MyGymEnv::GetObservationSpace() {   uint32_t nodeNum = 8;   float low = 0.0;   float high = 100.0;   std::vector shape = {nodeNum,};   std::string dtype = TypeNameGet ();   Ptr space = CreateObject(low, high, shape, dtype);   NS_LOG_UNCOND ("MyGetObservationSpace: " << space);   return space; }

③创建动作空间(离散)

// 离散空间[0,1,2,3] Ptr MyGymEnv::GetActionSpace() {    uint32_t nodeNum = 4;   Ptr space = CreateObject (nodeNum);   NS_LOG_UNCOND ("MyGetActionSpace: " << space);   return space; }

④执行选定的动作

// action存储到全局变量deci bool MyGymEnv::ExecuteActions(Ptr action) {   Ptr discrete = DynamicCast(action);   NS_LOG_UNCOND ("MyExecuteActions: " << action);   deci = discrete->GetValue();   return true; }

⑤收集网络状态

Ptr MyGymEnv::GetObservation() {    uint32_t nodeNum =  8;   std::vector shape = {nodeNum,};   Ptr > box = CreateObject >(shape);      for (uint32_t i=0;iAddValue(value);   }  }    // 将 box 的值放入全局变量 state   state.clear();   for (uint32_t i = 0; i < nodeNum; i++) {     state.push_back(box->GetValue(i)); // 获取 box 中的值并添加到 state 中   }    NS_LOG_UNCOND ("MyGetObservation: " << box);   return box; }
// 搜集网络状态的函数 float  MyGymEnv::GetValue(uint32_t index) {   float value = deci*index;   return value; }

⑥根据状态计算奖励

// 对state进行处理 float MyGymEnv::GetAverage( std::vector state) {   uint32_t sum = 0;   for (uint32_t value : state) {     sum += value;   }   return static_cast(sum) / state.size(); } /* Define reward function */ float MyGymEnv::GetReward() {   float reward = GetAverage(state);   NS_LOG_UNCOND ("MyGetReward: " << reward);   return reward; }

mygym.h(声明全局变量,添加自定义函数到private类)

extern std::vector state;// 全局变量,用于存储状态
private:   void ScheduleNextStateRead();   float GetValue(uint32_t index);   float GetAverage( std::vector state);

sim.cc(这一块没有什么要改的,注意总仿真时间和仿真次数的关系,相当于实际的step受到两个地方的参数影响,另一个在创建环境时定义的isGameOver函数中)

  double simulationTime = 3; //seconds, 控制仿真次数的位置2   double envStepTime = 0.1; //seconds, ns3gym env step time interval

test.py(这里主要的改动是使用了ε-贪心策略)

# Choose action             if np.random.rand( ) < epsilon:                  action = env.action_space.sample()                  print("random")             else:                 for action in range(env.action_space.n):#离散动作空间的定义                     Q_value = estimate(action,ob_space)                     if Q_value > best_value:                         best_value = Q_value                         best_action = action                     action = best_action                 print("maximum Q")

简单模拟了一下Q值的估计(基于action估计reward)

def estimate(action,ob_space):     state = []     for i in range(ob_space.shape[0]):{         state.append(action * i)      }     reward = np.mean(state)     Q_value =reward     return Q_value

简单运行了一下:
ns3端:

python端

PS.要注意ns3-gym传递的数据类型可能无法直接用len()等函数,要去查看定义的具体数据类型

这个demo只是先按照我的理解大致实现了各个环节的衔接,但是reward对action的调整作用还没有体现出来,强化学习的精髓还没有融合进去,还有一些细节问题可能没有发现,下一个demo见

相关内容

热门资讯

黑科技讲解(wepoke软件透... 黑科技讲解(wepoke软件透明挂价格)外挂黑科技辅助器(透视)总是有挂(黑科技脚本)-哔哩哔哩亲,...
第5分钟黑科技!德扑之星ai软... 第5分钟黑科技!德扑之星ai软件,(德扑之星)竟然有挂,扑克教程(有挂方法)-哔哩哔哩;1、玩家可以...
黑科技安装!aapoker辅助... 黑科技安装!aapoker辅助工具下载(透视)太坑了真的是有挂(科技教程黑科技攻略)-哔哩哔哩;暗藏...
黑科技辅助挂(德扑之星发牌规律... 黑科技辅助挂(德扑之星发牌规律)外挂透明挂辅助软件(透视)果然真的有挂(黑科技解密)-哔哩哔哩1、每...
透视脚本!WPK最新ai辅助黑... 透视脚本!WPK最新ai辅助黑科技,(wPk)原来是真的有挂,黑科技自建房(有挂规律)-哔哩哔哩1、...
黑科技智能ai!智星德州菠萝a... 黑科技智能ai!智星德州菠萝app下载(透视)太坑了是真的有挂(可靠教程黑科技介绍)-哔哩哔哩;1)...
黑科技能赢(微扑克透牌软件)外... 黑科技能赢(微扑克透牌软件)外挂透明挂辅助器(透视)本来真的有挂(黑科技介绍)-哔哩哔哩进入游戏-大...
透视代打!wPK最新ai辅助黑... 透视代打!wPK最新ai辅助黑科技,(wpK)原来真的是有挂,黑科技规律(的确有挂)-哔哩哔哩1)辅...
黑科技讲解!德扑之星操作(智能... 黑科技讲解!德扑之星操作(智能ai)太坑了存在有挂(玩家教你黑科技介绍)-哔哩哔哩;暗藏猫腻,小编详...
黑科技规律(智星德州菠萝怎么看... 黑科技规律(智星德州菠萝怎么看有没有开挂)外挂透视辅助app(透视)切实真的有挂(黑科技攻略)-哔哩...