EnsekiTT Blog

EnsekiTTが書くブログです。

週末に3DSもポケモンもなかったのでChainerでDQNを育てた話。

つまりなにしたの

ブロック崩しなどで一世を風靡したDeep Q NetworkをChainerで実装して、OpenAIの環境で育てた。
youtu.be

基本的な強化学習の流れ

ゲームそのものをEnvironment
ゲームで言うプレイヤーをAgent
プレイヤーの操作をAction
プレイヤーはプレイの結果をゲーム画面を観察、つまりObservationして確認する(日本語に組み込むと変な感じ
ゲーム画面には、ゲームの状態(残りのブロックの画像とか)、Stateが表示される。
ゲーム画面には、ゲームのスコア(上がると嬉しいもの)、Rewardも表示される。

プレイヤーは操作とゲーム画面の組み合わせからこれはうまくいった、うまくいく流れ来たけどなんかこれ以上スコア上がらん…大きく変えるか!
とかを繰り返して学習を勧めていく。
(英単語はOpenAI Gymの表現と合わせている。)

基本的なDeep Q Networkの流れ

ゲームの結果をもとに学習するところでDQN登場。
状態と操作の組み合わせから報酬と次の状態が無限に得られるなら、
順序にかかわらず最適な価値行動を取れるのが強み。

基本的なOpenAI Gymの使い方

・所望のGymを作成する
・Gymの環境要素を取得する(State, Action,Seed(再現性のため))
・Agentを作成する
・人がGymを見るためのモニタを開始する
・エピソード回数分のループ
・Gymの環境をリセットする
・時間数分のループ
・環境をレンダリング
・状態を観察
・Agentは行動を選択する
・環境で上記の行動を実効
・Agentは実行結果を経験としてストックする
・Agentは学習する
・もし環境が終了判定をしていたらループを抜ける
・時間数分のループ終わり
・エピソード回数分のループ終わり

環境を選ぶ

gym.openai.com

これらの中から環境を選択する。
今回はCartPoleにした。
> Box2D系も今度試したい

$ pip install gym

依存関係

ffmpeg cmake boost boost-python sdl2 swig wget
(osxでやったとき)

実際のコードはこちら(CartPoleの場合)

# coding:utf-8
# pylint: disable=E1101

import argparse
import sys
import copy
from collections import deque

import gym
import numpy as np

import chainer.links as L
import chainer.functions as F
from chainer import Chain, optimizers, Variable, serializers

class Network(Chain):
    def __init__(self, n_in, n_out):
        super(Network, self).__init__(
            L1=L.Linear(n_in, 100),
            L2=L.Linear(100, 200),
            L3=L.Linear(200, 100),
            L4=L.Linear(100, 100),
            q_value=L.Linear(100, n_out, initialW=np.zeros((n_out, 100), dtype=np.float32))
        )

    def q_func(self, in_layer):
        """
        Q function
        """
        layer1 = F.leaky_relu(self.L1(in_layer))
        layer2 = F.leaky_relu(self.L2(layer1))
        layer3 = F.leaky_relu(self.L3(layer2))
        layer4 = F.leaky_relu(self.L4(layer3))
        return self.q_value(layer4)

class Agent():
    def __init__(self, n_state, n_action, seed):
        np.random.seed(seed)
        sys.setrecursionlimit(10000)
        self.n_action = n_action
        self.model = Network(n_state, n_action)
        self.target_model = copy.deepcopy(self.model)
        self.optimizer = optimizers.Adam()
        self.optimizer.setup(self.model)
        self.memory = deque()
        self.loss = 0
        self.step = 0
        self.train_freq = 10
        self.target_update_freq = 20

        self.gamma = 0.99
        self.mem_size = 1000
        self.replay_size = 100
        self.epsilon = 0.05

    def stock_experience(self, exp):
        """
        経験をストックする
        """
        self.memory.append(exp)
        if len(self.memory) > self.mem_size:
            self.memory.popleft()

    def forward(self, exp):
        """
        順伝搬する
        """
        state = Variable(exp["state"])
        state_dash = Variable(exp["state_dash"])
        q_action = self.model.q_func(state)

        # Tartget
        tmp = self.target_model.q_func(state_dash)
        tmp = list(map(np.max, tmp.data))
        max_q_dash = np.asanyarray(tmp, dtype=np.float32)
        target = np.asanyarray(copy.deepcopy(q_action.data), dtype=np.float32)

        for i in range(self.replay_size):
            target[i, exp["action"][i]] = exp["reward"][i] \
                + (self.gamma * max_q_dash[i]) * (not exp["ep_end"][i])
        loss = F.mean_squared_error(q_action, Variable(target))
        self.loss = loss.data

        """
        Clipping
        # CartPoleとかCartみたいに途中まででもうまくいかないと
        # 悪化しかしないものにClippingは向いていないのでは?
        # TODO: atariゲームでうまくいくかどうか確認したい
        ""
        for i in range(self.replay_size):
            if ep_end[i] is True:
                tmp_ = np.sign(reward[i])
            else:
                tmp_ = np.sign(reward[i]) + self.gamma * max_q_dash[i]
            target[i, action[i]] = tmp_

        # Clipping
        td = Variable(target) - Q
        td_tmp = td.data + 1000.0 * (abs(td.data) <= 1)
        td_clip = td * (abs(td.data) <= 1) + td/abs(td_tmp) * (abs(td.data)>1)

        zero_val = Variable(np.zeros((self.replay_size, self.n_action), dtype=np.float32))
        loss = F.mean_squared_error(Q, Variable(target))
        self.loss = loss.data
        """
        return loss

    def action(self, state):
        """
        状態を引数としてとり、
        Actionを選択|生成して返す
        """
        if np.random.rand() < self.epsilon:
            return np.random.randint(0, self.n_action)
        else:
            state = Variable(state)
            q_action = self.model.q_func(state)
            q_action = q_action.data[0]
            act = np.argmax(q_action)
            return np.asarray(act, dtype=np.int8)

    def experience_replay(self):
        mem = np.random.permutation(np.array(self.memory))
        perm = np.array([i for i in range(len(mem))])
        for start in perm[::self.replay_size]:
            index = perm[start:start+self.replay_size]
            replay = mem[index]

            state = np.array([replay[i]["state"] \
                for i in range(self.replay_size)], dtype=np.float32)
            action = np.array([replay[i]["action"] \
                for i in range(self.replay_size)], dtype=np.int8)
            reward = np.array([replay[i]["reward"] \
                for i in range(self.replay_size)], dtype=np.float32)
            state_dash = np.array([replay[i]["state_dash"] \
                for i in range(self.replay_size)], dtype=np.float32)
            ep_end = np.array([replay[i]["ep_end"] \
                for i in range(self.replay_size)], dtype=np.bool)
            experience = {"state":state, "action":action, \
                "reward":reward, "state_dash":state_dash, "ep_end":ep_end}

            # 最適化
            self.model.zerograds()
            loss = self.forward(experience)
            loss.backward()
            self.optimizer.update()

    def train(self):
        if len(self.memory) >= self.mem_size:
            if self.step % self.train_freq == 0:
                self.experience_replay()
            if self.step % self.target_update_freq == 0:
                self.target_model = copy.deepcopy(self.model)
        self.step += 1

    def save_model(self, model_dir):
        serializers.save_npz(model_dir + "model.npz", self.model)

    def load_model(self, model_dir):
        serializers.load_npz(model_dir + "model.npz", self.model)
        self.target_model = copy.deepcopy(self.model)

def arg_parse():
    parser = argparse.ArgumentParser(description='いっけーAgent!n万エピソードだ!')
    parser.add_argument('--env', '-e', type=str, default="CartPole-v0",
                        help='Open AI environment')
    args = parser.parse_args()
    return args

def main():
    """
    Main Loop
    """
    args = arg_parse()
    # 所望のGymを作成する
    env = gym.make(args.env)

    # Gymの環境要素を取得する(State, Action,Seed(再現性のため))
    n_state = env.observation_space.shape[0]
    n_action = env.action_space.n
    seed = 114514
    # Agentを作成する
    agent = Agent(n_state, n_action, seed)
    action_list = [i for i in range(0, n_action)]

    # 人がGymを見るためのモニタを開始する
    view_path = "./video/" + args.env
    env.monitor.start(view_path, video_callable=None, force=True)

    # エピソード回数分のループ
    for _episode in range(10000):
        # Gymの環境をリセットする
        observation = env.reset()
        # 時間数分のループ
        for _times in range(2000):
            # 環境をレンダリング
            env.render()
            # 状態を観察
            state = observation.astype(np.float32).reshape((1, n_state))
            # Agentは行動を選択する
            action = action_list[agent.action(state)]
            # 環境で上記の行動を実効
            observation, reward, ep_end, _ = env.step(action)
            state_dash = observation.astype(np.float32).reshape((1, n_state))
            experience = {"state":state, "action":action, \
                "reward":reward, "state_dash":state_dash, "ep_end":ep_end}
            # Agentは実行結果を経験としてストックする
            agent.stock_experience(experience)
            # Agentは学習する
            agent.train()
            # もし環境が終了判定をしていたらループを抜ける
            if ep_end:
                break
    env.monitor.close()

if __name__ == "__main__":
    main()

さいごに

AtariやBox2Dでも試したいが、そもそも環境を作れるようにしたい。

クリエイティブ・コモンズ・ライセンス
この 作品 は クリエイティブ・コモンズ 表示 4.0 国際 ライセンスの下に提供されています。