首页
/
每日頭條
/
生活
/
神經網絡如何确定中間層的神經元
神經網絡如何确定中間層的神經元
更新时间:2025-12-04 08:01:24

引言

神經網絡是機器學習的一個迷人的領域,但是它們有時很難優化和解釋。事實上,它們有幾個超參數。要優化的最常見的超參數是隐藏層中的神經元數量。讓我們看看如何為我們的數據集找到一個神經網絡的最佳神經元數量。

什麼是神經網絡?

神經網絡是一種特定模型,它可以根據一層神經元來捕捉特征與目标之間的相關性,從而轉換數據集。一個神經網絡是由幾層神經元組成的。每個神經元獲取一些輸入,轉換它們并返回輸出。一個神經元的輸出可以成為下一層神經元的輸入等等,構建越來越複雜的架構。

第一層稱為輸入層,由返回特征值本身的神經元構成。然後,第一層的每個神經元連接到隐藏層的所有神經元,負責網絡的學習能力。隐藏層後面可以跟幾個其他隐藏層,這是深度學習網絡的典型特征。最後,将最後一個隐藏層的輸出提供給給出結果(即目标變量的值)的輸出層。

在最簡單的形式中,神經網絡隻有一個隐藏層,如下圖所示。

神經網絡如何确定中間層的神經元(一個神經網絡有多少個神經元)1

輸入層的神經元數目等于特征數目。根據目标變量定義輸出層的神經元數。接下來的問題是如何為隐藏層找到正确的神經元數量。

數量太少可能會産生欠拟合,因為網絡可能無法正确學習。但是數量太多有可能産生過拟合,因為從網絡中學習了太多從而無法泛化。因此必須有合适數量的神經元來确保良好的訓練。

如何優化神經元的數量

該過程非常簡單,它使用交叉驗證:

  • 設置一定數量的神經元
  • 在 k 折交叉驗證中計算某些性能指标的平均值
  • 用不同數量的神經元重複這個過程
  • 選擇神經元的數量,最大化 k 交叉驗證的平均值

交叉驗證很重要,因為使用它我們可以确保模型不會過拟合或欠拟合。

這個過程非常類似于超參數調優,因為隐藏層中的神經元數量實際上是一個要調優的超參數。

現在讓我們看看如何在 Python 中實現這個過程。

在 Python 中的示例

在這個例子中,我将展示如何使用 scikit-learn 庫優化 Python 中的神經元數量。事實上,你也可能會使用 Keras 來構建神經網絡,但概念是完全相同的。

我将使用 scikit-learn 中包含的乳腺癌示例數據集。

首先,讓我們導入一些有用的庫。

import numpy as np from sklearn.preprocessing import StandardScaler from sklearn.neural_network import MLPClassifier from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split, GridSearchCV from sklearn.pipeline import Pipeline from sklearn.metrics import roc_auc_score

然後,我們可以加載我們的數據集,并将其分成訓練集和測試集。

X,y = load_breast_cancer(return_X_y=True) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)

現在,我們必須定義我們的模型。在本例中,我将使用一個簡單的帶有單個隐藏層的多層感知器。為了簡單起見,構造函數的所有參數都保留在它們的标準值中。我隻是設置随機狀态,以确保結果的可重複性。

在将數據集提供給神經網絡之前,不要忘記縮放特征。為簡單起見,我将在 scikit-learn 中使用 Pipeline 對象,然後應用标準化。

model = Pipeline([ ('scaler',StandardScaler()), ('model',MLPClassifier(random_state=0)) ])

現在,我們必須通過搜索最佳神經元數量來優化我們的網絡。請記住,我們嘗試了幾種可能的數字并計算交叉驗證中性能指标的平均值。最大化這樣一個值的神經元數量就是我們正在尋找的數量。

為此,我們可以使用 GridSearchCV 對象。由于我們正在處理二元分類問題,因此我們要最大化的指标是 AUROC。我們将以 2 的步長跨越 5 到 100 個神經元。

search = GridSearchCV(model, {'model__hidden_layer_sizes':[(x,) for x in np.arange(5,100,2)]}, cv = 5, scoring = "roc_auc", verbose=3, n_jobs = -1 )

最後,我們可以尋找最佳的神經元數量。

search.fit(X_train, y_train)

搜索結束後,我們會得到最好的平均分,即:

search.best_score_ # 0.9947175348495965

神經元的最佳數量是:

search.best_params_ # {'model__hidden_layer_sizes': (75,)}

最後,我們可以在測試數據集上計算這樣一個模型的 AUROC,以确保我們沒有對數據集進行過多的處理。

roc_auc_score(y_test,search.predict_proba(X_test)[:,1]) # 0.9982730973233008

我們得到的值仍然很高,所以我們很确定優化後的模型已經泛化了訓練數據集,從它攜帶的信息中學習。

總結

優化神經網絡可能是一個複雜的任務。在這篇文章中,我已經解釋了一種優化神經元數量的可能方法,但是同樣的概念甚至可以應用到其他超參數(比如激活函數、小批量大小、時代數量、學習速度)。記住,超參數的數量越多,優化的速度就越慢。

,
Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
推荐阅读
特崗和招教都過了怎麼選擇
特崗和招教都過了怎麼選擇
招教與特崗依然分不清?史上最全的總結來了!特崗教師是什麼?特崗教師與教師招聘有何區别?這樣一系列的關于特崗教師的相關問題你還是不清楚嗎?今天小編整理了關于特崗教師與招教的常見問題,以及特崗教師招聘的相關内容,供大家參考。招教?特崗教師?你能...
2025-12-04
脫口秀是什麼形式
脫口秀是什麼形式
脫口秀是什麼形式?脫口秀被定義為“通過讨論對新聞或社會問題進行評論、表達觀點的一種形式”,接下來我們就來聊聊關于脫口秀是什麼形式?以下内容大家不妨參考一二希望能幫到您!脫口秀是什麼形式脫口秀被定義為“通過讨論對新聞或社會問題進行評論、表達觀...
2025-12-04
西遊記第十八回概括
西遊記第十八回概括
西遊記第十八回概括?第十八回内容概括:觀音院唐僧脫難,高老莊大聖除魔過了些日子,唐僧二人經過高老莊,得知高太公的不幸遭遇悟空想會一下這個妖怪這個妖怪想要獨占太公之女于是,悟空變為太公之女,迷惑妖怪,最終顯出原形妖怪認出悟空,敵不過他化作一陣...
2025-12-04
沉浸式雲遊故宮紫禁城
沉浸式雲遊故宮紫禁城
北京日報客戶端|記者劉平6月29日,北京迎來降雨天氣,遊客在故宮冒雨遊覽,熱情不減。遊客沿着宮内步行道打傘前行,不時記錄着雨中古殿的美麗景象。,
2025-12-04
嶽風柳萱什麼小說
嶽風柳萱什麼小說
嶽風柳萱什麼小說?嶽風柳萱是小說《贅婿當道》中的角色,今天小編就來說說關于嶽風柳萱什麼小說?下面更多詳細答案一起來看看吧!嶽風柳萱什麼小說嶽風柳萱是小說《贅婿當道》中的角色。《贅婿當道》是連載中的一部都市類小說,最新更新倒第一千二百七十二章...
2025-12-04
Copyright 2023-2025 - www.tftnews.com All Rights Reserved