OpenAI Gym
* 강화학습을 위해서는 Agent와 환경을 구축해야 한다. 물리적으로 구축하려면 많은 제약이 있기 때문에 이를 가상으로 구축할 수 있는 서비스를 제공하는 툴킷이 존재한다. 지금부터 소개할 OpenAI Gym이다. 참고로 이 포스팅에서는 colab을 사용하고 있다.
import gym
gym.envs.registry.all() #가능한 environment 목록
# dict_values([EnvSpec(Copy-v0), EnvSpec(RepeatCopy-v0), EnvSpec(ReversedAddition-v0), EnvSpec(ReversedAddition3-v0), EnvSpec(DuplicatedInput-v0), EnvSpec(Reverse-v0), EnvSpec(CartPole-v0), EnvSpec(CartPole-v1), EnvSpec(MountainCar-v0), EnvSpec(MountainCarContinuous-v0), EnvSpec(Pendulum-v0), EnvSpec(Acrobot-v1), EnvSpec(LunarLander-v2), EnvSpec(LunarLanderContinuous-v2), EnvSpec(BipedalWalker-v3), EnvSpec(BipedalWalkerHardcore-v3), EnvSpec(CarRacing-v0), EnvSpec(Blackjack-v0), EnvSpec(KellyCoinflip-v0), EnvSpec(KellyCoinflipGeneralized-v0), EnvSpec(FrozenLake-v0), EnvSpec(FrozenLake8x8-v0) ... 생략
* 보면 알 수 있듯이 OpenAI Gym을 사용할 때 이용 가능한 환경은 매우 다양하다. 우리는 그 중 'CartPole-v1'환경을 사용할 것이다. CartPole-v1 환경은 카트 위에 놓인 막대가 떨어지지 않도록 왼쪽이나 오른쪽으로 가속할 수 있는 2D 시뮬레이션이다.
env=gym.make('CartPole-v1')
env.seed(42)
obs=env.reset() #environment 초기화
obs # environment 초기화는 첫 번째 관측을 반환
# array([-0.01258566, -0.00156614, 0.04207708, -0.00180545])
* cartpole의 reset메소드는 [카트의 수평 위치(0.0 = 중앙), 카트의 속도(양수는 우측 방향을 의미), 막대의 각도(0.0 = 수직), 막대의 각속도(양수는 시계 방향을 의미)] 를 타나낸다.
!apt update
!apt install -y xvfb # server install
IS_COLAB = "google.colab" in sys.modules
if IS_COLAB:
!apt update && apt install -y libpq-dev libsdl2-dev swig xorg-dev xvfb
%pip install -U tf-agents pyvirtualdisplay
%pip install -U gym>=0.21.0
%pip install -U gym[box2d,atari,accept-rom-license]
!xvfb-run -s "-screen 0 1400x900x24" jupyter notebook #server run
* 이제 render()메소드를 활용해 환경을 출력해야 하는데, 한 가지 문제점이 있다. Carpole과 같은 환경들은 사용자의 display에 접근해 창을 띄워 환경에 대한 정보를 나타내야 하는데, 우리가 사용하는 colab은 가상환경을 사용하는 headlesss server이다. 때문에 Xvfb, Xdummy 같은 가짜 X server를 install 해야 한다. 우리는 Xvfb(X virtual framebuffer) server를 사용할 것이다.
* Xvfb에서 framebuffer는 화면에 나타날 영상 정보를 저장하는 buffer이다. 프레임버퍼의 각 기억단위는 화면에 있는 하나의 pixel에 대응되고, 화면의 pixel의 on/off나 색깔을 bitmap으로 기억하게 된다. 이 framebuffer에 특정 값들을 할당하면 screen에 그대로 반영된다. 즉, Xvfb는 우리가 사용할 carpole환경과 같이 screen과 같은 출력장치가 필요한 경우임에도 출력장치가 없는 headless server(우리가 사용중인 colab과 같은)를 사용중일 때 가상적으로(virtual) framebuffer를 생성하여 마치 출력장치가 있는 서버를 사용하는 것과 같도록 소프트웨어적으로 구현해주는 역할을 한다.
try:
import pyvirtualdisplay
display = pyvirtualdisplay.Display(visible=0, size=(1400, 900)).start()
except ImportError:
pass
* 또한 pyvirtualdisplay 라이브러리도 필요하기 때문에 import 해주고, Display 메소드를 통해 가상 화면을 사용할 것이다.
def plot_environment(env, figsize=(5,4)):
plt.figure(figsize=figsize)
img=env.render(mode='rgb_array')
plt.imshow(img)
plt.axis('off')
return img
plot_environment(env)
plt.show()
* 이제 render() 메소드를 통해 plot을 그려보자. render()메소드에 parameter로 mode='rgb_array'를 부여하면 rgb차원으로 구성된 3차원 array가 return 된다. 이를 활용해 plot을 그리는 함수를 만들어 현재 환경에 대한 plot을 출력해보았다.
env.action_space
# Discrete(2)
* env.action_space를 통해 가능한 행동이 몇 개인지 파악할 수가 있다. 우리는 0과 1 두개의 행동이 가능하고 각각 왼쪽 가속, 오른쪽 가속에 해당한다.
action=1 # 오른쪽 가속
obs, reward, done, info = env.step(action)
print('obs: ', obs)
print('reward: ', reward)
print('done: ', done)
print('info: ', info)
# obs: [-0.00875843 0.38742572 0.03642255 -0.56005382]
# reward: 1.0
# done: False
# info: {}
* step()메소드를 통해 action을 실행할 수 있다. 이 때 step()메소드가 반환하는 값은 위와 같이 4개이다.
* obs : action을 취함으로서 얻은 관측값들을 뜻한다. obs[1]이 음수가 되었으므로 카트가 오른쪽으로 움직이게 될 것이다. obs[2]를 보면 막대는 오른쪽 방향으로 아직 기울어져 있다. 하지만 각속도가 음수가 되었으므로 obs[3] < 0 다음 스텝 이후에는 왼쪽으로 기울어질 가능성이 크다.
* reward : agent의 목표는 카트에서 막대를 오랫동안 떨어트리지 않는 것이므로 어떤 action(오른쪽이던, 왼쪽이던)을 취해도 reward는 1이 될 것이다.
* done : 이 값이 True면 말그대로 이 eposide가 done인 상태가 된다(종료상태). 막대가 너무 기울어지거나 화면 밖으로 나갈 경우 혹은 정해진 최대 step인 200 step이 넘어갈 경우 episode는 종료된다. episode 종료 이후 꼭 reset을 통해 값을 초기화 해줘야 한다.
* info : 현재 cartpole 환경에서는 info가 비어있지만, 다른 환경의 경우 agent 생명이 몇 번 남았는지 등의 정보가 담긴다.
* 한 환경의 사용이 끝날 경우 close()메소드를 통해 자원을 release해준다.
def basic_policy(obs):
angle=obs[2]
return 0 if angle < 0 else 1 # angle이 왼쪽으로 기울어져있으면 왼쪽으로 가속
total_score=[]
for episode in range(500):
episode_reward=0
obs=env.reset()
for step in range(200):
action=basic_policy(obs)
obs, reward, done, info=env.step(action)
episode_reward+=reward
if done:
break
total_score.append(episode_reward)
np.mean(total_score), np.std(total_score), np.min(total_score), np.max(total_score)
# (42.344, 9.100421089158457, 24.0, 72.0)
* basic policy로 angle이 0보다 작아지면, 즉 왼쪽으로 막대기가 기울면 왼쪽으로 가속하고 반대의 경우 오른쪽으로 가속하는 함수를 만들어 500번의 episode를 진행하였다. 500번의 시도에도 72번의 step을 넘기지 못하고 episode가 종료되었다. 그렇다면 policy로서 neural network를 사용했을 때는 어떤 결과가 나올지 다음 내용을 살펴보자.
'Deep Learning > Hands On Machine Learning' 카테고리의 다른 글
신용할당 문제(Credit Assignment Problem) (0) | 2022.01.08 |
---|---|
강화학습의 신경망 정책 (0) | 2022.01.08 |
강화학습 기본 (0) | 2022.01.08 |
GAN(Generative Adversarial Network) (0) | 2022.01.01 |
17.8 Variational AutoEncoder (0) | 2021.12.28 |