首页
/
每日頭條
/
生活
/
神經網絡如何确定中間層的神經元
神經網絡如何确定中間層的神經元
更新时间:2025-07-02 08:19:49

引言

神經網絡是機器學習的一個迷人的領域,但是它們有時很難優化和解釋。事實上,它們有幾個超參數。要優化的最常見的超參數是隐藏層中的神經元數量。讓我們看看如何為我們的數據集找到一個神經網絡的最佳神經元數量。

什麼是神經網絡?

神經網絡是一種特定模型,它可以根據一層神經元來捕捉特征與目标之間的相關性,從而轉換數據集。一個神經網絡是由幾層神經元組成的。每個神經元獲取一些輸入,轉換它們并返回輸出。一個神經元的輸出可以成為下一層神經元的輸入等等,構建越來越複雜的架構。

第一層稱為輸入層,由返回特征值本身的神經元構成。然後,第一層的每個神經元連接到隐藏層的所有神經元,負責網絡的學習能力。隐藏層後面可以跟幾個其他隐藏層,這是深度學習網絡的典型特征。最後,将最後一個隐藏層的輸出提供給給出結果(即目标變量的值)的輸出層。

在最簡單的形式中,神經網絡隻有一個隐藏層,如下圖所示。

神經網絡如何确定中間層的神經元(一個神經網絡有多少個神經元)1

輸入層的神經元數目等于特征數目。根據目标變量定義輸出層的神經元數。接下來的問題是如何為隐藏層找到正确的神經元數量。

數量太少可能會産生欠拟合,因為網絡可能無法正确學習。但是數量太多有可能産生過拟合,因為從網絡中學習了太多從而無法泛化。因此必須有合适數量的神經元來确保良好的訓練。

如何優化神經元的數量

該過程非常簡單,它使用交叉驗證:

  • 設置一定數量的神經元
  • 在 k 折交叉驗證中計算某些性能指标的平均值
  • 用不同數量的神經元重複這個過程
  • 選擇神經元的數量,最大化 k 交叉驗證的平均值

交叉驗證很重要,因為使用它我們可以确保模型不會過拟合或欠拟合。

這個過程非常類似于超參數調優,因為隐藏層中的神經元數量實際上是一個要調優的超參數。

現在讓我們看看如何在 Python 中實現這個過程。

在 Python 中的示例

在這個例子中,我将展示如何使用 scikit-learn 庫優化 Python 中的神經元數量。事實上,你也可能會使用 Keras 來構建神經網絡,但概念是完全相同的。

我将使用 scikit-learn 中包含的乳腺癌示例數據集。

首先,讓我們導入一些有用的庫。

import numpy as np from sklearn.preprocessing import StandardScaler from sklearn.neural_network import MLPClassifier from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split, GridSearchCV from sklearn.pipeline import Pipeline from sklearn.metrics import roc_auc_score

然後,我們可以加載我們的數據集,并将其分成訓練集和測試集。

X,y = load_breast_cancer(return_X_y=True) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)

現在,我們必須定義我們的模型。在本例中,我将使用一個簡單的帶有單個隐藏層的多層感知器。為了簡單起見,構造函數的所有參數都保留在它們的标準值中。我隻是設置随機狀态,以确保結果的可重複性。

在将數據集提供給神經網絡之前,不要忘記縮放特征。為簡單起見,我将在 scikit-learn 中使用 Pipeline 對象,然後應用标準化。

model = Pipeline([ ('scaler',StandardScaler()), ('model',MLPClassifier(random_state=0)) ])

現在,我們必須通過搜索最佳神經元數量來優化我們的網絡。請記住,我們嘗試了幾種可能的數字并計算交叉驗證中性能指标的平均值。最大化這樣一個值的神經元數量就是我們正在尋找的數量。

為此,我們可以使用 GridSearchCV 對象。由于我們正在處理二元分類問題,因此我們要最大化的指标是 AUROC。我們将以 2 的步長跨越 5 到 100 個神經元。

search = GridSearchCV(model, {'model__hidden_layer_sizes':[(x,) for x in np.arange(5,100,2)]}, cv = 5, scoring = "roc_auc", verbose=3, n_jobs = -1 )

最後,我們可以尋找最佳的神經元數量。

search.fit(X_train, y_train)

搜索結束後,我們會得到最好的平均分,即:

search.best_score_ # 0.9947175348495965

神經元的最佳數量是:

search.best_params_ # {'model__hidden_layer_sizes': (75,)}

最後,我們可以在測試數據集上計算這樣一個模型的 AUROC,以确保我們沒有對數據集進行過多的處理。

roc_auc_score(y_test,search.predict_proba(X_test)[:,1]) # 0.9982730973233008

我們得到的值仍然很高,所以我們很确定優化後的模型已經泛化了訓練數據集,從它攜帶的信息中學習。

總結

優化神經網絡可能是一個複雜的任務。在這篇文章中,我已經解釋了一種優化神經元數量的可能方法,但是同樣的概念甚至可以應用到其他超參數(比如激活函數、小批量大小、時代數量、學習速度)。記住,超參數的數量越多,優化的速度就越慢。

,
Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
推荐阅读
綜合評價沈陽工程學院
綜合評價沈陽工程學院
近日,遼甯省精神文明建設指導委員會印發《遼甯省文明委關于表彰2018-2020年度全省文明城市(區)、文明村鎮、文明單位和第二屆全省文明家庭、文明校園及新一屆全省未成年人思想道德建設工作先進的決定》(遼文明委〔2020〕16号),按照從嚴把...
2025-07-02
羲是什麼意思
羲是什麼意思
羲是什麼意思?羲[xī],見〖伏羲〗“羲氏”、“和氏”,是傳說中掌天文曆法的官吏;神話中駕日車的神;神話中太陽的母親;中國漢代王莽時所設官名姓,今天小編就來聊一聊關于羲是什麼意思?接下來我們就一起去研究一下吧!羲是什麼意思羲[xī],見〖伏...
2025-07-02
剝了新鮮核桃的手怎樣才洗得幹淨
剝了新鮮核桃的手怎樣才洗得幹淨
剝了新鮮核桃的手怎樣才洗得幹淨?手上沾染了核桃青皮素的黑色氧化物,隻能是經常洗手,靠人體自身的皮膚表皮細胞自行代謝、老化、脫落而緩慢去除,今天小編就來說說關于剝了新鮮核桃的手怎樣才洗得幹淨?下面更多詳細答案一起來看看吧!剝了新鮮核桃的手怎樣...
2025-07-02
冬季做什麼湯養胃
冬季做什麼湯養胃
冬季做什麼湯養胃?花生芪棗牛腱湯材料:牛腱肉600克,花生仁50克,北芪25克,紅棗12顆,蓮子25克,香油、鹽少許,我來為大家講解一下關于冬季做什麼湯養胃?跟着小編一起來看一看吧!冬季做什麼湯養胃花生芪棗牛腱湯材料:牛腱肉600克,花生仁...
2025-07-02
路飛再次遇到女帝
路飛再次遇到女帝
《海賊王》895集已經更新,這一集中路飛和女帝再次相遇,自從香波地群島一别後,路飛和女帝就沒相遇過。女帝之所以出現,是因為要參加幾年舉辦一場的萬博會,路飛也是為了給桑尼号補充可樂,才會和女帝相遇,場景和兩年前路飛出現在九蛇島的類似,不過這一...
2025-07-02
Copyright 2023-2025 - www.tftnews.com All Rights Reserved