强化学习(Reinforcement Learning, RL)是一种机器学习方法,它通过与环境的交互来学习如何做出决策,以最大化累积奖励。PyTorch 是一个流行的开源机器学习库,它提供了灵活的计算图和自动微分功能,非常适合实现复杂的强化学习算法。
1. 环境(Environment)
在强化学习中,环境是一个抽象的概念,它定义了智能体(agent)可以执行的动作(actions)、观察到的状态(states)以及获得的奖励(rewards)。PyTorch 本身不提供环境,但可以使用 OpenAI 的 Gym 库来创建和管理环境。
import gym
# 创建一个环境
env = gym.make('CartPole-v1')
2. 策略(Policy)
策略是智能体用来选择动作的函数。在强化学习中,策略可以是确定性的或随机的。使用 PyTorch,我们可以通过神经网络来近似策略。
import torch
import torch.nn as nn
import torch.optim as optim
# 定义一个简单的策略网络
class PolicyNetwork(nn.Module):
def __init__(self, state_size, action_size):
super(PolicyNetwork, self).__init__()
self.fc1 = nn.Linear(state_size, 128)
self.fc2 = nn.Linear(128, action_size)
def forward(self, state):
x = torch.relu(self.fc1(state))
x = self.fc2(x)
return torch.softmax(x, dim=1)
# 初始化网络和优化器
policy_net = PolicyNetwork(env.observation_space.shape[0], env.action_space.n)
optimizer = optim.Adam(policy_net.parameters(), lr=0.01)
3. 价值函数(Value Function)
价值函数估计从给定状态开始,遵循特定策略所能获得的期望回报。在 PyTorch 中,我们可以使用另一个神经网络来近似价值函数。
# 定义价值网络
class ValueNetwork(nn.Module):
def __init__(self, state_size):
super(ValueNetwork, self).__init__()
self.fc1 = nn.Linear(state_size, 128)
self.fc2 = nn.Linear(128, 1)
def forward(self, state):
x = torch.relu(self.fc1(state))
x = self.fc2(x)
return x
# 初始化价值网络和优化器
value_net = ValueNetwork(env.observation_space.shape[0])
value_optimizer = optim.Adam(value_net.parameters(), lr=0.01)
4. 训练循环(Training Loop)
在训练循环中,智能体会与环境交互,收集经验,并使用这些经验来更新策略和价值函数。
def train():
num_episodes = 1000
for episode in range(num_episodes):
state = env.reset()
done = False
rewards = 0
while not done:
# 选择动作
state_tensor = torch.from_numpy(state).float().unsqueeze(0)
action_probs = policy_net(state_tensor)
action = torch.argmax(action_probs).item()
# 执行动作
next_state, reward, done, _ = env.step(action)
rewards += reward
# 更新价值函数
next_state_tensor = torch.from_numpy(next_state).float().unsqueeze(0)
next_value = value_net(next_state_tensor)
current_value = value_net(state_tensor)
value_optimizer.zero_grad()
value_loss = (current_value - next_value).pow(2).mean()
value_loss.backward()
value_optimizer.step()
# 更新策略
policy_optimizer.zero_grad()
policy_loss = -torch.log(action_probs[action]) * (next_value - rewards)
policy_loss.backward()
policy_optimizer.step()
state = next_state
print(f'Episode {episode+1}, Reward: {rewards}')
train()
5. 探索与利用(Exploration and Exploitation)
在强化学习中,智能体需要在探索(尝试新的动作)和利用(使用已知的最佳策略)之间找到平衡。ε-贪心策略是一种常用的方法。
epsilon = 0.1 # 探索率
def choose_action(state, policy_net):
if np.random.rand() < epsilon:
return env.action_space.sample() # 探索
else:
state_tensor = torch.from_numpy(state).float().unsqueeze(0)
action_probs = policy_net(state_tensor)
return torch.argmax(action_probs).item() # 利用
-
机器学习
+关注
关注
66文章
8414浏览量
132601 -
强化学习
+关注
关注
4文章
266浏览量
11250 -
pytorch
+关注
关注
2文章
808浏览量
13218
发布评论请先 登录
相关推荐
评论