主頁 > 資料庫 > 在具有多個輸入的函式上使用map()以擺脫for回圈

在具有多個輸入的函式上使用map()以擺脫for回圈

2022-06-02 19:53:31 資料庫

語境:

我有一個函式可以對我想盡可能高效地撰寫的多個陣列進行上采樣(因為我必須運行它 370000 次)。

該函式接受多個輸入,由 2 個for回圈組成。為了對我的陣列進行上采樣,我用一個引數回圈這個函式k,我想擺脫這個回圈(它位于函式之外)。我嘗試使用混合map()串列理解來最小化我的計算時間,但我無法讓它作業。

問題:

如何讓我map()的部分代碼作業(見最后一段代碼)?有沒有比map()擺脫for回圈更好的方法?

概括:

  • 功能interpolate_and_get_results:2個for回圈。接受 3D、2D 陣列并int作為輸入
  • 此函式在我想擺脫的for回圈(引數)中運行k

我寫了一些示例代碼,其中的部分map()不起作用,因為我想不出一種將k引數作為list傳遞的方法,但也是一個input

謝謝 !

ps:用于并行化此示例中未使用的插值函式的代碼

import numpy as np
import time

#%% --- SETUP OF THE PROBLEM --- %%#

temperatures = np.random.rand(10,4,7)*100
precipitation = np.random.rand(10,4,7)
snow = np.random.rand(10,4,7)

# Flatten the arrays to make them iterable with map()
temperatures = temperatures.reshape(10,4*7)
precipitation = precipitation.reshape(10,4*7)
snow = snow.reshape(10,4*7)

# Array of altitudes to "adjust" the temperatures
alt = np.random.rand(4,7)*1000

# Flatten the array
alt = alt.reshape(4*7)

# Weight Matrix

w = np.random.rand(4*7, 1000, 1000)


#%% Function
def interpolate_and_get_results(temp, prec, Eprec, w, i, k):
    
    # Do some calculations
    factor1 = ((temperatures[i,k]-272.15)   (-alt[k] * -6/1000))
    factor2 = precipitation[i,k]
    factor3 = snow[i,k]
    
    # Iterate through every cell of the upsampled arrays
    for i in range(w.shape[1]):
        for j in range(w.shape[2]):
            val = w[k, i, j]
            temp[i, j]  = factor1 * val
            prec[i, j]  = factor2 * val
            Eprec[i, j]  = factor3 * val


    

#%% --- Function call without loop simplification --- ##%
# Prepare a template array
dummy = np.zeros((w.shape[1], w.shape[2]))

# Initialize the global arrays to be filled
tempYEAR2 = np.zeros((9, dummy.shape[0], dummy.shape[1]))
precYEAR2 = np.zeros((9, dummy.shape[0], dummy.shape[1]))
EprecYEAR2 = np.zeros((9, dummy.shape[0], dummy.shape[1]))

ts = time.time()
for i in range(temperatures.shape[0]):
    
    # Create empty host arrays
    temp = dummy.copy()
    prec = dummy.copy()
    Eprec = dummy.copy()
    
    for k in range(w.shape[0]):
         interpolate_and_get_results(temp, prec, Eprec, w, i, k)

print('Time: ', (time.time()-ts))




#%% --- With Map (DOES NOT WORK)  --- %%#
del k

dummy = np.zeros((w.shape[1], w.shape[2]))

# Initialize the global arrays to be filled
tempYEAR2 = np.zeros((9, dummy.shape[0], dummy.shape[1]))
precYEAR2 = np.zeros((9, dummy.shape[0], dummy.shape[1]))
EprecYEAR2 = np.zeros((9, dummy.shape[0], dummy.shape[1]))

# Create a list k to be iterated through with the map() function
k = [k for k in range(0, temperatures.shape[1])]

for i in range(temperatures.shape[0]):
    
    # Create empty host arrays
    temp = dummy.copy()
    prec = dummy.copy()
    Eprec = dummy.copy()
    
    # Call the interpolate function with map() iterating through k
    map(interpolate_and_get_results(temp, prec, Eprec, w, i, k), k)

@Jér?me Richardnumba應用戶 @ken 的要求添加的代碼(在我的電腦上運行需要 48.81 秒):

import numpy as np
import multiprocessing as mp
import time



#%% ------ Create data ------ ###
temperatures = np.random.rand(10,4,7)*100
precipitation = np.random.rand(10,4,7)
snow = np.random.rand(10,4,7)

# Array of altitudes to "adjust" the temperatures
alt = np.random.rand(4,7)*1000


#%% ------ IDW Interpolation ------ ###

# We create a weight matrix that we use to upsample our temperatures, precipitations and snow matrices
# This part is not that important, it works well as it is

MX,MY = np.shape(temperatures[0])
N = 300

T = np.zeros([N*MX 1, N*MY 1])

# create NxM inverse distance weight matrices based on Gaussian interpolation

x = np.arange(0,N*MX 1)
y = np.arange(0,N*MY 1)
X,Y = np.meshgrid(x,y)

k = 0
w =  np.zeros([MX*MY,N*MX 1,N*MY 1])
for mx in range(MX):
    for my in range(MY):

        # Gaussian
        add_point = np.exp(-((mx*N-X.T)**2 (my*N-Y.T)**2)/N**2)
        w[k,:,:]  = add_point
        k  = 1

sum_weights = np.sum(w, axis=0)
for k in range(MX*MY):
    w[k,:,:] /= sum_weights






#%% --- Function --- %%#
# Code from Jér?me Richard: https://stackoverflow.com/questions/72399050/parallelize-three-nested-loops/72399494?noredirect=1#comment127919686_72399494

import numba as nb

# get_results   interpolator
@nb.njit('void(float64[:,::1], float64[:,::1], float64[:,::1], float64[:,:,::1], int_, int_, int_, int_)', parallel=True)
def interpolate_and_get_results(temp, prec, Eprec, w, i, k, mx, my):
    factor1 = ((temperatures[i,mx,my]-272.15)   (-alt[mx, my] * -6/1000))
    factor2 = precipitation[i,mx,my]
    factor3 = snow[i,mx,my]

    # Filling the
    for i in nb.prange(w.shape[1]):
        for j in range(w.shape[2]):
            val = w[k, i, j]
            temp[i, j]  = factor1 * val
            prec[i, j]  = factor2 * val
            Eprec[i, j]  = factor3 * val




#%% --- Main Loop --- %%#



ts = time.time()
if __name__ == '__main__':

    dummy = np.zeros((w.shape[1], w.shape[2]))

    # Initialize the permanent arrays to be filled
    tempYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    precYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    EprecYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    smbYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    
    # Initialize semi-permanent array
    smb = np.zeros((dummy.shape[0], dummy.shape[1]))



    # Loop over the "time" axis
    for i in range(0, temperatures.shape[0]):

        # Create empty semi-permanent arrays
        temp = dummy.copy()
        prec = dummy.copy()
        Eprec = dummy.copy()

        # Loop over the different weights
        for k in range(w.shape[0]):

            # Loops over the cells of the array to be upsampled
            for mx in range(MX):
                for my in range(MY):

                    interpolate_and_get_results(temp, prec, Eprec, w, i, k, mx, my)

        # At each timestep, update the semi-permanent array using the results from the interpolate function
        smb[np.logical_and(temp <= 0, prec > 0)]  = prec[np.logical_and(temp <= 0, prec > 0)]

        # Fill the permanent arrays (equivalent of storing the results at the end of every year)
        # and reinitialize the semi-permanent array every 5th timestep
        if i%5 == 0:
            
            # Permanent
            tempYEAR[int(i/5)] = temp
            precYEAR[int(i/5)] = prec
            EprecYEAR[int(i/5)] = Eprec
            smbYEAR[int(i/5)] = smb

            # Semi-permanent
            smb = np.zeros((dummy.shape[0], dummy.shape[1]))


print("Time spent:", time.time()-ts)
  

uj5u.com熱心網友回復:

注意:這個答案不是關于如何使用地圖,而是關于“更好的方法”。

你正在做很多多余的計算。信不信由你,這段代碼輸出相同的結果。

# No change in the initialization section above.

ts = time.time()
if __name__ == '__main__':

    dummy = np.zeros((w.shape[1], w.shape[2]))

    # Initialize the permanent arrays to be filled
    tempYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    precYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    EprecYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))
    smbYEAR = np.zeros((9, dummy.shape[0], dummy.shape[1]))

    smb = np.zeros((dummy.shape[0], dummy.shape[1]))

    temperatures_inter = temperatures - 272.15
    w_inter = w.sum(axis=0)
    alt_inter = (alt * (-6 / 1000)).sum()

    for i in range(0, temperatures_inter.shape[0]):
        temp_i = (temperatures_inter[i].sum() - alt_inter) * w_inter
        prec_i = precipitation[i].sum() * w_inter
        Eprec_i = snow[i].sum() * w_inter

        condition = np.logical_and(temp_i <= 0, prec_i > 0)
        smb[condition]  = prec_i[condition]

        if i % 5 == 0:
            tempYEAR[i // 5] = temp_i
            precYEAR[i // 5] = prec_i
            EprecYEAR[i // 5] = Eprec_i
            smbYEAR[i // 5] = smb
            smb = np.zeros((dummy.shape[0], dummy.shape[1]))

print("Time spent:", time.time() - ts)

我通過將結果與使用 numba 的代碼的輸出進行比較來驗證結果。相差約0.0000001,可能是舍入誤差造成的。

print((tempYEAR_from_yours - tempYEAR_from_mine).sum())  # -8.429287845501676e-08
print((precYEAR_from_yours - precYEAR_from_mine).sum())  # 2.595697878859937e-09
print((EprecYEAR_from_yours - EprecYEAR_from_mine).sum())  # -7.430216442116944e-09
print((smbYEAR_from_yours - smbYEAR_from_mine).sum())  # -6.875431779462815e-09

在我的電腦上,這段代碼耗時 0.36 秒。它不使用 numba,甚至沒有并行化。它只是消除了冗余。

轉載請註明出處,本文鏈接:https://www.uj5u.com/shujuku/485071.html

標籤:Python 麻木的 for循环 优化 列表理解

上一篇:如何將numpy陣列的后續行與第一行對齊

下一篇:如何洗掉easyadminsymfony中選擇檔案按鈕旁邊的洗掉按鈕?

標籤雲
其他(157675) Python(38076) JavaScript(25376) Java(17977) C(15215) 區塊鏈(8255) C#(7972) AI(7469) 爪哇(7425) MySQL(7132) html(6777) 基礎類(6313) sql(6102) 熊猫(6058) PHP(5869) 数组(5741) R(5409) Linux(5327) 反应(5209) 腳本語言(PerlPython)(5129) 非技術區(4971) Android(4554) 数据框(4311) css(4259) 节点.js(4032) C語言(3288) json(3245) 列表(3129) 扑(3119) C++語言(3117) 安卓(2998) 打字稿(2995) VBA(2789) Java相關(2746) 疑難問題(2699) 细绳(2522) 單片機工控(2479) iOS(2429) ASP.NET(2402) MongoDB(2323) 麻木的(2285) 正则表达式(2254) 字典(2211) 循环(2198) 迅速(2185) 擅长(2169) 镖(2155) 功能(1967) .NET技术(1958) Web開發(1951) python-3.x(1918) HtmlCss(1915) 弹簧靴(1913) C++(1909) xml(1889) PostgreSQL(1872) .NETCore(1853) 谷歌表格(1846) Unity3D(1843) for循环(1842)

熱門瀏覽
  • GPU虛擬機創建時間深度優化

    **?桔妹導讀:**GPU虛擬機實體創建速度慢是公有云面臨的普遍問題,由于通常情況下創建虛擬機屬于低頻操作而未引起業界的重視,實際生產中還是存在對GPU實體創建時間有苛刻要求的業務場景。本文將介紹滴滴云在解決該問題時的思路、方法、并展示最終的優化成果。 從公有云服務商那里購買過虛擬主機的資深用戶,一 ......

    uj5u.com 2020-09-10 06:09:13 more
  • 可編程網卡芯片在滴滴云網路的應用實踐

    **?桔妹導讀:**隨著云規模不斷擴大以及業務層面對延遲、帶寬的要求越來越高,采用DPDK 加速網路報文處理的方式在橫向縱向擴展都出現了局限性。可編程芯片成為業界熱點。本文主要講述了可編程網卡芯片在滴滴云網路中的應用實踐,遇到的問題、帶來的收益以及開源社區貢獻。 #1. 資料中心面臨的問題 隨著滴滴 ......

    uj5u.com 2020-09-10 06:10:21 more
  • 滴滴資料通道服務演進之路

    **?桔妹導讀:**滴滴資料通道引擎承載著全公司的資料同步,為下游實時和離線場景提供了必不可少的源資料。隨著任務量的不斷增加,資料通道的整體架構也隨之發生改變。本文介紹了滴滴資料通道的發展歷程,遇到的問題以及今后的規劃。 #1. 背景 資料,對于任何一家互聯網公司來說都是非常重要的資產,公司的大資料 ......

    uj5u.com 2020-09-10 06:11:05 more
  • 滴滴AI Labs斬獲國際機器翻譯大賽中譯英方向世界第三

    **桔妹導讀:**深耕人工智能領域,致力于探索AI讓出行更美好的滴滴AI Labs再次斬獲國際大獎,這次獲獎的專案是什么呢?一起來看看詳細報道吧! 近日,由國際計算語言學協會ACL(The Association for Computational Linguistics)舉辦的世界最具影響力的機器 ......

    uj5u.com 2020-09-10 06:11:29 more
  • MPP (Massively Parallel Processing)大規模并行處理

    1、什么是mpp? MPP (Massively Parallel Processing),即大規模并行處理,在資料庫非共享集群中,每個節點都有獨立的磁盤存盤系統和記憶體系統,業務資料根據資料庫模型和應用特點劃分到各個節點上,每臺資料節點通過專用網路或者商業通用網路互相連接,彼此協同計算,作為整體提供 ......

    uj5u.com 2020-09-10 06:11:41 more
  • 滴滴資料倉庫指標體系建設實踐

    **桔妹導讀:**指標體系是什么?如何使用OSM模型和AARRR模型搭建指標體系?如何統一流程、規范化、工具化管理指標體系?本文會對建設的方法論結合滴滴資料指標體系建設實踐進行解答分析。 #1. 什么是指標體系 ##1.1 指標體系定義 指標體系是將零散單點的具有相互聯系的指標,系統化的組織起來,通 ......

    uj5u.com 2020-09-10 06:12:52 more
  • 單表千萬行資料庫 LIKE 搜索優化手記

    我們經常在資料庫中使用 LIKE 運算子來完成對資料的模糊搜索,LIKE 運算子用于在 WHERE 子句中搜索列中的指定模式。 如果需要查找客戶表中所有姓氏是“張”的資料,可以使用下面的 SQL 陳述句: SELECT * FROM Customer WHERE Name LIKE '張%' 如果需要 ......

    uj5u.com 2020-09-10 06:13:25 more
  • 滴滴Ceph分布式存盤系統優化之鎖優化

    **桔妹導讀:**Ceph是國際知名的開源分布式存盤系統,在工業界和學術界都有著重要的影響。Ceph的架構和演算法設計發表在國際系統領域頂級會議OSDI、SOSP、SC等上。Ceph社區得到Red Hat、SUSE、Intel等大公司的大力支持。Ceph是國際云計算領域應用最廣泛的開源分布式存盤系統, ......

    uj5u.com 2020-09-10 06:14:51 more
  • es~通過ElasticsearchTemplate進行聚合~嵌套聚合

    之前寫過《es~通過ElasticsearchTemplate進行聚合操作》的文章,這一次主要寫一個嵌套的聚合,例如先對sex集合,再對desc聚合,最后再對age求和,共三層嵌套。 Aggregations的部分特性類似于SQL語言中的group by,avg,sum等函式,Aggregation ......

    uj5u.com 2020-09-10 06:14:59 more
  • 爬蟲日志監控 -- Elastc Stack(ELK)部署

    傻瓜式部署,只需替換IP與用戶 導讀: 現ELK四大組件分別為:Elasticsearch(核心)、logstash(處理)、filebeat(采集)、kibana(可視化) 下載均在https://www.elastic.co/cn/downloads/下tar包,各組件版本最好一致,配合fdm會 ......

    uj5u.com 2020-09-10 06:15:05 more
最新发布
  • day02-2-商鋪查詢快取

    功能02-商鋪查詢快取 3.商鋪詳情快取查詢 3.1什么是快取? 快取就是資料交換的緩沖區(稱作Cache),是存盤資料的臨時地方,一般讀寫性能較高。 快取的作用: 降低后端負載 提高讀寫效率,降低回應時間 快取的成本: 資料一致性成本 代碼維護成本 運維成本 3.2需求說明 如下,當我們點擊商店詳 ......

    uj5u.com 2023-04-20 08:33:24 more
  • MySQL中binlog備份腳本分享

    關于MySQL的二進制日志(binlog),我們都知道二進制日志(binlog)非常重要,尤其當你需要point to point災難恢復的時侯,所以我們要對其進行備份。關于二進制日志(binlog)的備份,可以基于flush logs方式先切換binlog,然后拷貝&壓縮到到遠程服務器或本地服務器 ......

    uj5u.com 2023-04-20 08:28:06 more
  • day02-短信登錄

    功能實作02 2.功能01-短信登錄 2.1基于Session實作登錄 2.1.1思路分析 2.1.2代碼實作 2.1.2.1發送短信驗證碼 發送短信驗證碼: 發送驗證碼的介面為:http://127.0.0.1:8080/api/user/code?phone=xxxxx<手機號> 請求方式:PO ......

    uj5u.com 2023-04-20 08:27:27 more
  • 快取與資料庫雙寫一致性幾種策略分析

    本文將對幾種快取與資料庫保證資料一致性的使用方式進行分析。為保證高并發性能,以下分析場景不考慮執行的原子性及加鎖等強一致性要求的場景,僅追求最終一致性。 ......

    uj5u.com 2023-04-20 08:26:48 more
  • sql陳述句優化

    問題查找及措施 問題查找 需要找到具體的代碼,對其進行一對一優化,而非一直把關注點放在服務器和sql平臺 降低簡化每個事務中處理的問題,盡量不要讓一個事務拖太長的時間 例如檔案上傳時,應將檔案上傳這一步放在事務外面 微軟建議 4.啟動sql定時執行計劃 怎么啟動sqlserver代理服務-百度經驗 ......

    uj5u.com 2023-04-20 08:26:35 more
  • 云時代,MySQL到ClickHouse資料同步產品對比推薦

    ClickHouse 在執行分析查詢時的速度優勢很好的彌補了MySQL的不足,但是對于很多開發者和DBA來說,如何將MySQL穩定、高效、簡單的同步到 ClickHouse 卻很困難。本文對比了 NineData、MaterializeMySQL(ClickHouse自帶)、Bifrost 三款產品... ......

    uj5u.com 2023-04-20 08:26:29 more
  • sql陳述句優化

    問題查找及措施 問題查找 需要找到具體的代碼,對其進行一對一優化,而非一直把關注點放在服務器和sql平臺 降低簡化每個事務中處理的問題,盡量不要讓一個事務拖太長的時間 例如檔案上傳時,應將檔案上傳這一步放在事務外面 微軟建議 4.啟動sql定時執行計劃 怎么啟動sqlserver代理服務-百度經驗 ......

    uj5u.com 2023-04-20 08:25:13 more
  • Redis 報”OutOfDirectMemoryError“(堆外記憶體溢位)

    Redis 報錯“OutOfDirectMemoryError(堆外記憶體溢位) ”問題如下: 一、報錯資訊: 使用 Redis 的業務介面 ,產生 OutOfDirectMemoryError(堆外記憶體溢位),如圖: 格式化后的報錯資訊: { "timestamp": "2023-04-17 22: ......

    uj5u.com 2023-04-20 08:24:54 more
  • day02-2-商鋪查詢快取

    功能02-商鋪查詢快取 3.商鋪詳情快取查詢 3.1什么是快取? 快取就是資料交換的緩沖區(稱作Cache),是存盤資料的臨時地方,一般讀寫性能較高。 快取的作用: 降低后端負載 提高讀寫效率,降低回應時間 快取的成本: 資料一致性成本 代碼維護成本 運維成本 3.2需求說明 如下,當我們點擊商店詳 ......

    uj5u.com 2023-04-20 08:24:03 more
  • day02-短信登錄

    功能實作02 2.功能01-短信登錄 2.1基于Session實作登錄 2.1.1思路分析 2.1.2代碼實作 2.1.2.1發送短信驗證碼 發送短信驗證碼: 發送驗證碼的介面為:http://127.0.0.1:8080/api/user/code?phone=xxxxx<手機號> 請求方式:PO ......

    uj5u.com 2023-04-20 08:23:11 more