鱼C论坛

 找回密码
 立即注册
查看: 2258|回复: 0

python用softmax算法实现多摇臂老虎机强化学习的问题

[复制链接]
发表于 2020-10-16 09:04:05 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
我在网上找到了用贪心算法实现多摇臂老虎机强化学习的代码,把贪心算法换成了softmax算法,但是关于老虎机各个摇臂被选中的概率有一些疑问,代码如下:
  1. import numpy as np
  2. import random

  3. #老虎机的定义
  4. class Bandit:

  5.     def __init__(self, arms_prob):
  6.         self.arms_prob = arms_prob
  7.         self.size = len(self.arms_prob)

  8.     def play(self, i):
  9.         if not 0 <= i < self.size:
  10.             return -1
  11.         else:
  12.             if random.uniform(0, 1) < self.arms_prob[i]:
  13.                 return 1
  14.             else:
  15.                 return 0

  16. class Model:
  17.     def __init__(self, bandit, temperature=0.2, training_epochs=10000):
  18.         self.bandit = bandit #摇臂老虎机
  19.         self.temperature = temperature #温度参数
  20.         self.training_epochs = training_epochs #尝试次数
  21.         self.values = np.zeros(bandit.size) #摇臂的平均奖赏
  22.         self.times = np.zeros(bandit.size) #尝试次数
  23.         self.p = [1/bandit.size for i in range(bandit.size)] #摇臂的概率分布
  24.         self.size = bandit.size #摇臂数
  25.         self.result = 0 #回报率最高的摇臂编号

  26.     #计算摇臂选择的概率分布
  27.     def probability(self,index):
  28.         self.a = 0
  29.         for i in range(bandit.size):
  30.             self.a += np.e ** (self.values[i] / self.temperature)
  31.         return (np.e ** (self.values[index] / self.temperature)) / self.a

  32.     def train(self):
  33.         i = 0
  34.         r = 0 #最终的奖赏
  35.         while i <= self.training_epochs:
  36.             index = random.choices([i for i in range(bandit.size)],self.p)[0]#根据权重选取摇臂
  37.             reward = self.bandit.play(index)
  38.             assert reward >= 0 and index >= 0
  39.             self.times[index] += 1
  40.             self.values[index] = 1.0 / (self.times[index]+1) *(self.values[index] * self.times[index] + reward)
  41.             for j in range(bandit.size):
  42.                 self.p[j] = self.probability(j)
  43.             # self.p[index] = self.probability(index)
  44.             i += 1
  45.             print("Round %d, choose %d, reward %d " % (i, index, reward))
  46.             print(repr(self.values))
  47.             r += reward #累加奖赏
  48.             # print(repr(self.p))
  49.             sum_ = 0
  50.             for z in range (self.size):
  51.                 sum_ += self.p[z]
  52.             print(sum_)

  53.         self.result = self.values.argmax(axis=0)
  54.         print('累积奖赏:',r,' 回报率:', r / self.training_epochs)

  55. bandit = Bandit([0.5, 0.6, 0.8, 0.9, 0.3, 0.95, 0.96, 0.45, 0.93, 0.22, 0.65])
  56. model = Model(bandit, temperature=0.1, training_epochs=30000)
  57. # bandit = Bandit([0.4, 0.2])
  58. # model = Model(bandit, temperature=0.01, training_epochs=3000)
  59. model.train()
  60. print("最佳选择是 %d." % model.result)
复制代码

在47-49的三行里,我写了两种算摇臂被选中的概率的方法,前一种是每选择一次摇臂,就根据公式将所有摇臂的概率更新一次,我觉得这种似乎比较合理,后一种被我注释掉的,是只更新当次被选中的摇臂的概率。两种实验下来结果都差不多,我想问一下到底应该怎么写。
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-28 10:38

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表