首页
/
每日頭條
/
圖文
/
torch模型僅更新部分參數
torch模型僅更新部分參數
更新时间:2025-12-16 08:23:03

torch模型僅更新部分參數(關于Torch中的scatter)1

scatter_ 和 one hot

看了很多博客,中國人寫博客有一個特點就是複制來複制去,根本沒有講到重點,好了廢話不多扯,今天講下 scatter_ 函數。

操作一:

import torch # 導入 torch模塊,這裡操作的都是張量數據 src = torch.arange(1, 11).reshape((2, 5)) # 這裡創建一個 2行5列的數據 print(src) # 打印出來 tensor([[ 1, 2, 3, 4, 5], [ 6, 7, 8, 9, 10]])

上面這個是準備數據,是一個兩行五列的數據。再創建一個索引數據

index = torch.tensor([[0, 1, 2, 0, 2]]) print(index) tensor([[0, 1, 2, 0, 2]])

在這之前都是很簡單的,相比讀者肯定能看到,無非就是兩個數據,請耐心往下看

result_1 = torch.zeros(3, 5, dtype=src.dtype) # 創建一個3行5列的數據全是0 print(result_1) tensor([[0, 0, 0, 0 0], [0, 0 0, 0, 0], [0, 0, 0, 0, 0]])

解析來就是使用 scatter_函數: 也就是根據相關索引,把result_1的指定位置填充下

result = result_1.scatter_(0, index, src)

這裡是什麼意思呢, 0 表示按列來處理,result_1 是需要被更改的數據,index是索引位置, src數用來填充的數據,舉例子: 如上面描述:

result_1 = tensor([[0, 0, 0, 0 0],

[0, 0 0, 0, 0],

[0, 0, 0, 0, 0]])

index = tensor([[0, 1, 2, 0, 2]])

tensor([[ 1, 2, 3, 4, 5],

[ 6, 7, 8, 9, 10]])

第一個參數 0 表示按列來處理

索引第1個值為0,這表示第1列的第1個數據設置為scr中的第2個數據

ensor([[1, 0, 0, 0 0],

[0, 0 0, 0, 0],

[0, 0, 0, 0, 0]])

索引第2個值為1,這表示第2列的第2個數據設置為scr中的第2個數據

ensor([[1, 0, 0, 0 0],

[0, 2 0, 0, 0],

[0, 0, 0, 0, 0]])

索引第3個值為2,這表示第3列的第3個數據設置為scr中的第3個數據

ensor([[1, 0, 0, 0 0],

[0, 2 0, 0, 0],

[0, 0, 3, 0, 0]])

索引第4個值為0,這表示第4列的第1個數據設置為scr中的第4個數據

ensor([[1, 0, 0, 4 0],

[0, 2 0, 0, 0],

[0, 0, 3, 0, 0]])

索引第5個值為2,這表示第5列的第3個數據設置為scr中的第5個數據

ensor([[1, 0, 0, 4 0],

[0, 2 0, 0, 0],

[0, 0, 3, 0, 5]])

以上就是詳細的計算流程

操作2:

idx = torch.tensor([[0, 1, 2, 3,4]]) last = torch.zeros(3, 5, dtype=src.dtype).scatter_(dim=1, index=idx, value=2)

這裡第一步我相信大家都熟悉,就是創建一個數據而已,這裡我們理解為索引數據

1、torch.zeros(3, 5, dtype=src.dtype). 表示的是創建一個3行5列的數據矩陣,全是0

tensor([[0, 0, 0, 0 0],

[0, 0 0, 0, 0],

[0, 0, 0, 0, 0]])

2、dim=1,表示是按行計算

3、value,表示相應的位置上設置為某個值

idx = torch.tensor([[0, 1, 2, 3,4]])

表示的是第一行的第 0 1 2 3 4 的位置上全是設置為2,也就是

tensor([[2, 2, 2, 2, 2],

[0, 0, 0, 0, 0],

[0, 0, 0, 0, 0]])

當然,我相信某些人還是一臉懵逼,再繼續往下看

idx = torch.tensor([[0, 1, 2, 3,4],[0,0,0,0,4]]) last = torch.zeros(3, 5, dtype=src.dtype).scatter_(dim=1, index=idx, value=2)

這裡我們看到idx為 torch.tensor([[0, 1, 2, 3,4],[0,0,0,0,4]])

這個idx有兩行,那麼他對應的也是 torch.zeros(3, 5, dtype=src.dtype)中的兩行數據,

[0, 1, 2, 3,4] 表示的是第一行的第 0 1 2 3 4 的位置上全是設置為2

[0,0,0,0,4]]表示的是第二行的第 0 、4 的位置上設置為2,其他地方不變

因此整體數據變成了

tensor([[2, 2, 2, 2, 2],

[2, 0, 0, 0, 2],

[0, 0, 0, 0, 0]])

好了,這個函數介紹到此為止,希望能幫到大家

,
Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
推荐阅读
甜到炸裂的日本戀愛漫畫大全
甜到炸裂的日本戀愛漫畫大全
繼續強推一波看過超級好評的高糖少女漫畫啊,依舊是免費看的,不必擔心看到一半花錢什麼的~~~啊啊啊啊真的是看得老夫少女心炸裂了!!甜美的咬痕來自霸道總裁的高甜寵愛!故事講述的是不可一世的血族王子,戀上卑微血仆少女。全漫充滿了禁锢與占有,人類與...
2025-12-16
圍繞建設什麼實現高質量發展
圍繞建設什麼實現高質量發展
圍繞建設什麼實現高質量發展?主席在第二屆“一帶一路”國際合作高峰論壇開幕式上發表主旨演講時指出,面向未來,我們要聚焦重點、深耕細作,共同繪精準細膩的“工筆畫”,推動共建“一帶一路”沿着高質量發展方向不斷前進,下面我們就來說一說關于圍繞建設什...
2025-12-16
凍幹粉睡眠面膜該怎麼用
凍幹粉睡眠面膜該怎麼用
凍幹粉睡眠面膜該怎麼用?獲諾貝爾獎的EGF,提高皮膚組織再生能力,讓美國總統候選人,前美國第一夫人希拉裡為之傾倒20年,從希拉裡開始,在整個歐美引發了一陣諾貝爾EGF美容風潮包括超級名模黑珍珠、巨星約翰屈伏塔、《欲望城市》的沙拉潔西卡派克、...
2025-12-16
鼻子去黑頭的小妙招
鼻子去黑頭的小妙招
鼻子去黑頭的小妙招?#怎樣去黑頭粉刺#知己知彼方能百戰不殆,要想打敗黑頭,就得知道ta從何而來?,接下來我們就來聊聊關于鼻子去黑頭的小妙招?以下内容大家不妨參考一二希望能幫到您!鼻子去黑頭的小妙招#怎樣去黑頭粉刺#知己知彼方能百戰不殆,要想...
2025-12-16
hr的績效是怎麼考核
hr的績效是怎麼考核
hr的績效是怎麼考核?一、績效考核得分1、績效考核計算公式=KPI績效(50﹪)360度考核(30﹪)個人行為鑒定20﹪,接下來我們就來聊聊關于hr的績效是怎麼考核?以下内容大家不妨參考一二希望能幫到您!hr的績效是怎麼考核一、績效考核得分...
2025-12-16
Copyright 2023-2025 - www.tftnews.com All Rights Reserved