首頁 > 後端開發 > Python教學 > 使用 DQN 建立國際象棋代理

使用 DQN 建立國際象棋代理

Susan Sarandon
發布: 2024-12-30 01:55:07
原創
539 人瀏覽過

我最近嘗試實現一個基於 DQN 的國際象棋代理。

現在,任何知道 DQN 和國際象棋如何運作的人都會告訴你這是一個愚蠢的想法。

確實如此,但作為一個初學者,我仍然很喜歡它。在這篇文章中,我將分享我在這方面工作時學到的見解。


了解環境。

在開始實現 Agent 本身之前,我必須熟悉將要使用的環境,並在其之上製作一個自訂包裝器,以便它可以在訓練期間與 Agent 互動。

  • 我使用了 kaggle_environments 函式庫中的西洋棋環境。

     from kaggle_environments import make
     env = make("chess", debug=True)
    
    登入後複製
    登入後複製
  • 我還使用了 Chessnut,這是一個輕量級的 Python 函式庫,可以幫助解析和驗證西洋棋遊戲。

     from Chessnut import Game
     initial_fen = env.state[0]['observation']['board']
     game=Game(env.state[0]['observation']['board'])
    
    登入後複製
    登入後複製

在此環境中,板的狀態以 FEN 格式儲存。

Building a Chess Agent using DQN

它提供了一種緊湊的方式來表示棋盤上的所有棋子和當前活躍的玩家。但是,由於我計劃將輸入提供給神經網絡,因此我必須修改狀態的表示。


將 FEN 轉換為矩陣格式

Building a Chess Agent using DQN

由於棋盤上有 12 種不同類型的棋子,因此我創建了 12 個 8x8 網格通道來表示棋盤上每種類型的狀態。


為環境創建一個包裝器

class EnvCust:
    def __init__(self):
        self.env = make("chess", debug=True)
        self.game=Game(env.state[0]['observation']['board'])
        print(self.env.state[0]['observation']['board'])
        self.action_space=game.get_moves();
        self.obs_space=(self.env.state[0]['observation']['board'])

    def get_action(self):
        return Game(self.env.state[0]['observation']['board']).get_moves();


    def get_obs_space(self):
        return fen_to_board(self.env.state[0]['observation']['board'])

    def step(self,action):
        reward=0
        g=Game(self.env.state[0]['observation']['board']);
        if(g.board.get_piece(Game.xy2i(action[2:4]))=='q'):
            reward=7
        elif g.board.get_piece(Game.xy2i(action[2:4]))=='n' or g.board.get_piece(Game.xy2i(action[2:4]))=='b' or g.board.get_piece(Game.xy2i(action[2:4]))=='r':
            reward=4
        elif g.board.get_piece(Game.xy2i(action[2:4]))=='P':
            reward=2
        g=Game(self.env.state[0]['observation']['board']);
        g.apply_move(action)
        done=False
        if(g.status==2):
            done=True
            reward=10
        elif g.status == 1:  
            done = True
            reward = -5 
        self.env.step([action,'None'])
        self.action_space=list(self.get_action())
        if(self.action_space==[]):
            done=True
        else:
            self.env.step(['None',random.choice(self.action_space)])
            g=Game(self.env.state[0]['observation']['board']);
            if g.status==2:
                reward=-10
                done=True

        self.action_space=list(self.get_action())
        return self.env.state[0]['observation']['board'],reward,done
登入後複製

這個包裝器的目的是為代理提供獎勵策略以及用於在訓練期間與環境交互的步驟函數。

Chessnut 有助於獲取信息,例如當前棋盤狀態下可能的合法走法,以及在遊戲過程中識別將死者。

我嘗試制定獎勵政策,為將死並消滅敵方棋子給予正分,而為輸掉比賽給予負分。


建立重播緩衝區

Building a Chess Agent using DQN

重播緩衝區在訓練期間用於保存 Q 網路輸出的(狀態、動作、獎勵、下一個狀態),並在以後隨機用於目標網路的反向傳播


輔助功能

Building a Chess Agent using DQN

Building a Chess Agent using DQN

Chessnut 以 UCI 格式返回合法動作,看起來像“a2a3”,但是為了與神經網路交互,我使用基本模式將每個動作轉換為不同的索引。總共有 64 個方塊,所以我決定為每個動作設定 64*64 個唯一索引。
我知道並非所有 64*64 的棋步都是合法的,但我可以使用 Chessnut 來處理合法性,而且模式足夠簡單。


神經網路結構

 from kaggle_environments import make
 env = make("chess", debug=True)
登入後複製
登入後複製

此神經網路使用卷積層接收 12 個通道輸入,並使用有效的動作索引來過濾獎勵輸出預測。


實施代理

 from Chessnut import Game
 initial_fen = env.state[0]['observation']['board']
 game=Game(env.state[0]['observation']['board'])
登入後複製
登入後複製

這顯然是一個非常基本的模型,實際上不可能表現良好(而且也沒有),但它確實幫助我理解了 DQN 如何更好地工作。

Building a Chess Agent using DQN

以上是使用 DQN 建立國際象棋代理的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:dev.to
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板