在Python中用遺傳演算法最佳化垃圾收集策略

遺傳演算法是一個最佳化技術,在本質上類似於進化過程。這可能是一個粗略的類比,但如果你眯著眼睛看,達爾文的自然選擇確實大致上類似於一個最佳化任務,其目的是製造出完全適合在其環境中繁衍生息的有機體。

在本文中,我將展示如何在Python中實現一個遺傳演算法,在幾個小時內“進化”一個收集垃圾的機器人。

背景

我所遇到的遺傳演算法原理最好的教程來自Melanie Mitchell寫的一本關於複雜系統的好書《Complexity: A Guided Tour》。

在其中一個章節中,Mitchell介紹了一個名叫Robby的機器人,他在生活中的唯一目的是撿垃圾,並描述瞭如何使用GA最佳化Robby的控制策略。下面我將解釋我解決這個問題的方法,並展示如何在Python中實現該演算法。有一些很好的包可以用來構造這類演算法(比如DEAP),但是在本教程中,我將只使用基本Python、Numpy和TQDM(可選)。

雖然這只是一個玩具的例子,但GAs在許多實際應用中都有使用。作為一個數據科學家,我經常用它們來進行超引數最佳化和模型選擇。雖然GAs的計算成本很高,但GAs允許我們並行地探索搜尋空間的多個區域,並且在計算梯度時是一個很好的選擇。

問題描述

一個名為Robby的機器人生活在一個充滿垃圾的二維網格世界中,周圍有4堵牆(如下圖所示)。這個專案的目標是發展一個最佳的控制策略,使他能夠有效地撿垃圾,而不是撞牆。

在Python中用遺傳演算法最佳化垃圾收集策略

Robby只能看到他周圍上下左右四個方塊以及他所在的方塊,每個方塊有3個選擇,空的,有垃圾,或者是一面牆。因此,Robby有3⁵=243種不同的情況。Robby可以執行7種不同的動作:上下左右的移動(4種)、隨機移動、撿拾垃圾或靜止不動。

因此,Robby的控制策略可以編碼為一個“DNA”字串,由0到6之間的243位數字組成(對應於Robby在243種可能的情況下應該採取的行動)。

方法

任何GA的最佳化步驟如下:

生成問題初始隨機解的“種群” 個體的“擬合度”是根據它解決問題的程度來評估的 最合適的解決方案進行“繁殖”並將“遺傳”物質傳遞給下一代的後代 重複第2步和第3步,直到我們得到一組最佳化的解決方案

在我們的任務中,你建立了第一代Robbys初始化為隨機DNA字串(對應於隨機控制策略)。然後模擬讓這些機器人在隨機分配的網格世界中執行,並觀察它們的效能。

擬合度

機器人的擬合度取決於它在n次移動中撿到多少垃圾,以及它撞到牆上多少次。在我們的例子中,機器人每撿到一塊垃圾就給它10分,每次它撞到牆上就減去5分。然後,這些機器人以它們的擬合度相關的機率進行“交配”(即,撿起大量垃圾的機器人更有可能繁衍後代),新一代機器人誕生了。

交配

有幾種不同的方法可以實現“交配”。在Mitchell的版本中,她將父母的兩條DNA鏈隨機拼接,然後將它們連線在一起,為下一代創造一個孩子。在我的實現中,我從每一個親本中隨機分配每個基因(即,對於243個基因中的每一個,我擲硬幣決定遺傳誰的基因)。

例如使用我的方法,在前10個基因裡,父母和孩子可能的基因如下:

Parent 1: 1440623161 Parent 2: 2430661132 Child:    2440621161

突變

我們用這個演算法複製的另一個自然選擇的概念是“變異”。雖然一個孩子的絕大多數基因都是從父母那裡遺傳下來的,但我也建立了基因突變的小可能性(即隨機分配)。這種突變率使我們能夠探索新的可能。

Python實現

第一步是匯入所需的包併為此任務設定引數。我已經選擇了這些引數作為起點,但是它們可以調整,我鼓勵你可以嘗試調整。

""" 匯入包 """ import numpy as np from tqdm.notebook import tqdm  """ 設定引數 """ # 模擬設定 pop_size = 200 # 每一代機器人的數量 num_breeders = 100 # 每一代能夠交配的機器人數量 num_gen = 400 # 總代數 iter_per_sim = 100 # 每個機器人垃圾收集模擬次數 moves_per_iter = 200 # 機器人每次模擬可以做的移動數  # 網格設定 rubbish_prob = 0.5 # 每個格子中垃圾的機率 grid_size = 10 # 0網格大小(牆除外)  # 進化設定 wall_penalty = -5 # 因撞到牆上而被扣除的擬合點 no_rub_penalty = -1 # 在空方塊撿垃圾被扣分 rubbish_score = 10 # 撿垃圾可獲得積分 mutation_rate = 0.01 # 變異的機率

接下來,我們為網格世界環境定義一個類。我們用標記“o”、“x”和“w”來表示每個單元,分別對應一個空單元、一個帶有垃圾的單元和一個牆。

class Environment:     """     類,用於表示充滿垃圾的網格環境。每個單元格可以表示為:     'o': 空     'x': 垃圾     'w': ǽ     """     def __init__(self, p=rubbish_prob, g_size=grid_size):         self.p = p # 單元格是垃圾的機率         self.g_size = g_size # 不包括牆          # 初始化網格並隨機分配垃圾         self.grid = np.random.choice(['o','x'], size=(self.g_size+2,self.g_size+2), p=(1 - self.p, self.p))                  # 設定外部正方形為牆壁         self.grid[:,[0,self.g_size+1]] = 'w'         self.grid[[0,self.g_size+1], :] = 'w'      def show_grid(self):         # 以當前狀態列印網格         print(self.grid)      def remove_rubbish(self,i,j):         # 從指定的單元格(i,j)清除垃圾         if self.grid[i,j] == 'o': # 單元格已經是空             return False         else:             self.grid[i,j] = 'o'             return True      def get_pos_string(self,i,j):         # 返回一個字串,表示單元格(i,j)中機器人“可見”的單元格         return self.grid[i-1,j] + self.grid[i,j+1] + self.grid[i+1,j] + self.grid[i,j-1] + self.grid[i,j]

接下來,我們建立一個類來表示我們的機器人。這個類包括執行動作、計算擬合度和從一對父機器人生成新DNA的方法。

class Robot:     """     用於表示垃圾收集機器人     """     def __init__(self, p1_dna=None, p2_dna=None, m_rate=mutation_rate, w_pen=wall_penalty, nr_pen=no_rub_penalty, r_score=rubbish_score):         self.m_rate = m_rate # 突變率         self.wall_penalty = w_pen # 因撞到牆上而受罰         self.no_rub_penalty = nr_pen # 在空方塊撿垃圾的處罰         self.rubbish_score = r_score # 撿垃圾的獎勵         self.p1_dna = p1_dna # 父母2的DNA         self.p2_dna = p2_dna # 父母2的DNA                  # 生成字典來從場景字串中查詢基因索引         con = ['w','o','x'] # 牆,空,垃圾         self.situ_dict = dict()         count = 0         for up in con:             for right in con:                 for down in con:                     for left in con:                         for pos in con:                             self.situ_dict[up+right+down+left+pos] = count                             count += 1                  # 初始化DNA         self.get_dna()      def get_dna(self):         # 初始化機器人的dna字串         if self.p1_dna is None:             # 沒有父母的時候隨機生成DNA             self.dna = ''.join([str(x) for x in np.random.randint(7,size=243)])         else:             self.dna = self.mix_dna()      def mix_dna(self):         # 從父母的DNA生成機器人的DNA         mix_dna = ''.join([np.random.choice([self.p1_dna,self.p2_dna])[i] for i in range(243)])          #新增變異         for i in range(243):             if np.random.rand() > 1 - self.m_rate:                 mix_dna = mix_dna[:i] + str(np.random.randint(7)) + mix_dna[i+1:]          return mix_dna      def simulate(self, n_iterations, n_moves, debug=False):         # 模擬垃圾收集         tot_score = 0         for it in range(n_iterations):             self.score = 0 # 擬合度分數             self.envir = Environment()             self.i, self.j = np.random.randint(1,self.envir.g_size+1, size=2) # 隨機分配初始位置             if debug:                 print('before')                 print('start position:',self.i, self.j)                 self.envir.show_grid()             for move in range(n_moves):                 self.act()             tot_score += self.score             if debug:                 print('after')                 print('end position:',self.i, self.j)                 self.envir.show_grid()                 print('score:',self.score)         return tot_score / n_iterations # n次迭代的平均得分      def act(self):         # 根據DNA和機器人位置執行動作         post_str = self.envir.get_pos_string(self.i, self.j) # 機器人當前位置         gene_idx = self.situ_dict[post_str] # 當前位置DNA的相關索引         act_key = self.dna[gene_idx] # 從DNA中讀取行動         if act_key == '5':             # 隨機移動             act_key = np.random.choice(['0','1','2','3'])          if act_key == '0':             self.mv_up()         elif act_key == '1':             self.mv_right()         elif act_key == '2':             self.mv_down()         elif act_key == '3':             self.mv_left()         elif act_key == '6':             self.pickup()      def mv_up(self):         # 向上移動         if self.i == 1:             self.score += self.wall_penalty         else:             self.i -= 1      def mv_right(self):         # 向右移動         if self.j == self.envir.g_size:             self.score += self.wall_penalty         else:             self.j += 1      def mv_down(self):         # 向下移動         if self.i == self.envir.g_size:             self.score += self.wall_penalty         else:             self.i += 1      def mv_left(self):         # 向左移動         if self.j == 1:             self.score += self.wall_penalty         else:             self.j -= 1      def pickup(self):         # 撿垃圾         success = self.envir.remove_rubbish(self.i, self.j)         if success:             # 成功撿到垃圾             self.score += self.rubbish_score         else:             # 當前方塊沒有撿到垃圾             self.score += self.no_rub_penalty

最後是執行遺傳演算法的時候了。在下面的程式碼中,我們生成一個初始的機器人種群,讓自然選擇來執行它的過程。我應該提到的是,當然有更快的方法來實現這個演算法(例如利用並行化),但是為了本教程的目的,我犧牲了速度來實現清晰。

# 初始種群 pop = [Robot() for x in range(pop_size)] results = []  # 執行進化 for i in tqdm(range(num_gen)):     scores = np.zeros(pop_size)          # 遍歷所有機器人     for idx, rob in enumerate(pop):         # 執行垃圾收集模擬並計算擬合度         score = rob.simulate(iter_per_sim, moves_per_iter)         scores[idx] = score      results.append([scores.mean(),scores.max()]) # 儲存每一代的平均值和最大值      best_robot = pop[scores.argmax()] # 儲存最好的機器人      # 限制那些能夠交配的機器人的數量     inds = np.argpartition(scores, -num_breeders)[-num_breeders:] # 基於擬合度得到頂級機器人的索引     subpop = []     for idx in inds:         subpop.append(pop[idx])     scores = scores[inds]      # 平方並標準化     norm_scores = (scores - scores.min()) ** 2      norm_scores = norm_scores / norm_scores.sum()      # 創造下一代機器人     new_pop = []     for child in range(pop_size):         # 選擇擬合度優秀的父母         p1, p2 = np.random.choice(subpop, p=norm_scores, size=2, replace=False)         new_pop.append(Robot(p1.dna, p2.dna))      pop = new_pop

雖然最初大多數機器人不撿垃圾,總是撞到牆上,但幾代人之後,我們開始看到一些簡單的策略(例如“如果與垃圾在一起,就撿起來”和“如果挨著牆,就不要移到牆裡”)。經過幾百次的反覆,我們只剩下一代不可思議的垃圾收集天才!

結果

下面的圖表表明,我們能夠在400代機器人種群中“進化”出一種成功的垃圾收集策略。

在Python中用遺傳演算法最佳化垃圾收集策略

為了評估進化控制策略的質量,我手動建立了一個基準策略,其中包含一些直觀合理的規則:

如果垃圾在當前方塊,撿起來 如果在相鄰的方塊上可以看到垃圾,移到那個方塊 如果靠近牆,則向相反方向移動 否則,隨意移動

平均而言,這一基準策略達到了426.9的擬合度,但我們最終的“進化”機器人的平均擬合度為475.9。

戰略分析

這種最佳化方法最酷的一點是,你可以找到反直覺的解決方案。機器人不僅能夠學習人類可能設計的合理規則,而且還自發地想出了人類可能永遠不會考慮的策略。一種先進的技術出現了,就是使用“標記物”來克服近視和記憶不足。

例如,如果一個機器人現在在一個有垃圾的方塊上,並且可以看到東西方方塊上的垃圾,那麼一個天真的方法就是立即撿起當前方塊上的垃圾,然後移動到那個有垃圾的方塊。這種策略的問題是,一旦機器人移動(比如向西),他就無法記住東邊還有1個垃圾。為了克服這個問題,我們觀察了我們的進化機器人執行以下步驟:

向西移動(在當前方塊留下垃圾作為標記) 撿起垃圾往東走(它可以看到垃圾作為標記) 把垃圾撿起來,搬到東邊去 撿起最後一塊垃圾

在Python中用遺傳演算法最佳化垃圾收集策略

從這種最佳化中產生的另一個反直覺策略的例子如下所示。OpenAI使用強化學習(一種更復雜的最佳化方法)教代理玩捉迷藏。我們看到,這些代理一開始學習“人類”策略,但最終學會了新的解決方案。

結論

遺傳演算法以一種獨特的方式將生物學和計算機科學結合在一起,雖然不一定是最快的演算法,但在我看來,它們是最美麗的演算法之一。

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 8614 字。

轉載請註明: 在Python中用遺傳演算法最佳化垃圾收集策略 - 楠木軒