首页
/
每日頭條
/
生活
/
神經網絡如何确定中間層的神經元
神經網絡如何确定中間層的神經元
更新时间:2024-09-30 02:14:49

引言

神經網絡是機器學習的一個迷人的領域,但是它們有時很難優化和解釋。事實上,它們有幾個超參數。要優化的最常見的超參數是隐藏層中的神經元數量。讓我們看看如何為我們的數據集找到一個神經網絡的最佳神經元數量。

什麼是神經網絡?

神經網絡是一種特定模型,它可以根據一層神經元來捕捉特征與目标之間的相關性,從而轉換數據集。一個神經網絡是由幾層神經元組成的。每個神經元獲取一些輸入,轉換它們并返回輸出。一個神經元的輸出可以成為下一層神經元的輸入等等,構建越來越複雜的架構。

第一層稱為輸入層,由返回特征值本身的神經元構成。然後,第一層的每個神經元連接到隐藏層的所有神經元,負責網絡的學習能力。隐藏層後面可以跟幾個其他隐藏層,這是深度學習網絡的典型特征。最後,将最後一個隐藏層的輸出提供給給出結果(即目标變量的值)的輸出層。

在最簡單的形式中,神經網絡隻有一個隐藏層,如下圖所示。

神經網絡如何确定中間層的神經元(一個神經網絡有多少個神經元)1

輸入層的神經元數目等于特征數目。根據目标變量定義輸出層的神經元數。接下來的問題是如何為隐藏層找到正确的神經元數量。

數量太少可能會産生欠拟合,因為網絡可能無法正确學習。但是數量太多有可能産生過拟合,因為從網絡中學習了太多從而無法泛化。因此必須有合适數量的神經元來确保良好的訓練。

如何優化神經元的數量

該過程非常簡單,它使用交叉驗證:

  • 設置一定數量的神經元
  • 在 k 折交叉驗證中計算某些性能指标的平均值
  • 用不同數量的神經元重複這個過程
  • 選擇神經元的數量,最大化 k 交叉驗證的平均值

交叉驗證很重要,因為使用它我們可以确保模型不會過拟合或欠拟合。

這個過程非常類似于超參數調優,因為隐藏層中的神經元數量實際上是一個要調優的超參數。

現在讓我們看看如何在 Python 中實現這個過程。

在 Python 中的示例

在這個例子中,我将展示如何使用 scikit-learn 庫優化 Python 中的神經元數量。事實上,你也可能會使用 Keras 來構建神經網絡,但概念是完全相同的。

我将使用 scikit-learn 中包含的乳腺癌示例數據集。

首先,讓我們導入一些有用的庫。

import numpy as np from sklearn.preprocessing import StandardScaler from sklearn.neural_network import MLPClassifier from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split, GridSearchCV from sklearn.pipeline import Pipeline from sklearn.metrics import roc_auc_score

然後,我們可以加載我們的數據集,并将其分成訓練集和測試集。

X,y = load_breast_cancer(return_X_y=True) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)

現在,我們必須定義我們的模型。在本例中,我将使用一個簡單的帶有單個隐藏層的多層感知器。為了簡單起見,構造函數的所有參數都保留在它們的标準值中。我隻是設置随機狀态,以确保結果的可重複性。

在将數據集提供給神經網絡之前,不要忘記縮放特征。為簡單起見,我将在 scikit-learn 中使用 Pipeline 對象,然後應用标準化。

model = Pipeline([ ('scaler',StandardScaler()), ('model',MLPClassifier(random_state=0)) ])

現在,我們必須通過搜索最佳神經元數量來優化我們的網絡。請記住,我們嘗試了幾種可能的數字并計算交叉驗證中性能指标的平均值。最大化這樣一個值的神經元數量就是我們正在尋找的數量。

為此,我們可以使用 GridSearchCV 對象。由于我們正在處理二元分類問題,因此我們要最大化的指标是 AUROC。我們将以 2 的步長跨越 5 到 100 個神經元。

search = GridSearchCV(model, {'model__hidden_layer_sizes':[(x,) for x in np.arange(5,100,2)]}, cv = 5, scoring = "roc_auc", verbose=3, n_jobs = -1 )

最後,我們可以尋找最佳的神經元數量。

search.fit(X_train, y_train)

搜索結束後,我們會得到最好的平均分,即:

search.best_score_ # 0.9947175348495965

神經元的最佳數量是:

search.best_params_ # {'model__hidden_layer_sizes': (75,)}

最後,我們可以在測試數據集上計算這樣一個模型的 AUROC,以确保我們沒有對數據集進行過多的處理。

roc_auc_score(y_test,search.predict_proba(X_test)[:,1]) # 0.9982730973233008

我們得到的值仍然很高,所以我們很确定優化後的模型已經泛化了訓練數據集,從它攜帶的信息中學習。

總結

優化神經網絡可能是一個複雜的任務。在這篇文章中,我已經解釋了一種優化神經元數量的可能方法,但是同樣的概念甚至可以應用到其他超參數(比如激活函數、小批量大小、時代數量、學習速度)。記住,超參數的數量越多,優化的速度就越慢。

,
Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
推荐阅读
臭鳜魚是湘菜的代表菜
臭鳜魚是湘菜的代表菜
湘菜十大招牌菜:鐵闆臭鳜魚技術配方湖南正宗特色代表100經典家常菜譜做法竅門步驟大全【臭鳜魚又叫臭桂魚】五星級酒店:特色私房菜名廚實戰技術經過本人和多位名廚在各酒樓菜單上的經典湘菜以不同的烹饪手法為主搭配精美出品照片圖文并茂對湘菜的特色食材...
2024-09-30
海外代購是怎麼做
海外代購是怎麼做
大學時期做的代購,到現在有5年多了,畢業兩年了。大學在深圳,離香港很近,當天來回,經常給朋友親戚們帶東西。後來,朋友介紹朋友,需求越來越多,一來二去,就做起了代購。大三時自己可以解決大學花銷,包括學費,學藝術的,本科,學費一年一萬多。畢業之...
2024-09-30
趙麗穎最初說過一句父母給的臉
趙麗穎最初說過一句父母給的臉
《幸福到萬家》劇照昨天突然注意到優酷更新了一個新劇《幸福到萬家》,本來看到名字我是不感興趣的,可一看就“真香”了,我最喜歡的女演員趙麗穎在裡面,又是大導演鄭曉龍執導,就憑快被盤出包漿的《甄嬛傳》,咱也不能忽視鄭導的電視劇呀。然後剛看了兩集就...
2024-09-30
紅茶能直接開水泡嗎
紅茶能直接開水泡嗎
丨本文由小陳茶事原創丨首發于頭條号:小陳茶事丨作者:村姑陳《1》周末,有位茶友在私信裡咨詢。這是位新面孔。據茶友自己介紹,他剛開始喝茶不久。按照他們當地的喝茶習慣,普遍以紅茶居多。但在最近,他聽到兩個說法,都是關于紅茶沖泡的。按原話來描述,...
2024-09-30
車主務必不要亂停車
車主務必不要亂停車
“我買個東西就走”“沒車位了”“大家都這麼停的”……很多市民朋友是不是都為違停找過類似理由但理由千萬條,安全第一條車輛不按規定停放不僅容易造成交通擁堵甚至還易引發交通事故為了讓我們的城市道路更安全更暢通濱州公安交警部門持續開展違停整治行動下...
2024-09-30
Copyright 2023-2024 - www.tftnews.com All Rights Reserved