1. 10億個數中找出最大的1000個數 這種題目就是分治+堆排序。 為啥分治?因為數太多了,全部加載進內存不夠用,所以分配到多台機器中,或者多個文件中,但具體分成多少份,視情況而定,只要保證滿足內存限制即可。什么,如何分?Hash(num)% numOfFiles。 為啥堆排序?首先堆排序 ...
1. 10億個數中找出最大的1000個數 這種題目就是分治+堆排序。 為啥分治?因為數太多了,全部加載進內存不夠用,所以分配到多台機器中,或者多個文件中,但具體分成多少份,視情況而定,只要保證滿足內存限制即可。什么,如何分?Hash(num)% numOfFiles。 為啥堆排序?首先堆排序 ...
torch.autograd.Variable是Autograd的核心類,它封裝了Tensor,並整合了反向傳播的相關實現(tensor變成variable之后才能進行反向傳播求梯度?用變量.back ...
誤差越小越好。 PyTorch中的nn模塊提供了多種可直接使用的深度學習損失函數,如交叉熵、均方誤 ...
log_softmax log(softmax(X)) function:torch.nn.functional.log_softmax(x, dim=None) nn:torch.nn. ...
在未排序的數組中找到第 k 個最大的元素。請注意,你需要找的是數組排序后的第 k 個最大的元素,而不是第 k 個不同的元素。 示例 1: 示例 2: TopK的問題,思路就是用堆來解決。 先以前K個元素構建一個大小為K的小頂堆,然后從K個元素之后,遍歷從索引在K后面的元素 ...
最近在學習pytorch函數時需要做獨熱碼,然后遇到了scatter_()函數,不太明白意思,現在懂了記錄一下以免以后忘記。 這個函數是用一個src的源張量或者標量以及索引來修改另一個張量。這個函數主要有三個參數scatter_(dim,index,src) dim:沿着哪個維度來進行索引 ...
首先,給出官方文檔的鏈接: https://pytorch.org/docs/stable/generated/torch.gather.html?highlight=gather#torch.gather 然后,我用白話翻譯一下官方文檔。 gather,顧名思義,聚集 ...
size() size()函數返回張量的各個維度的尺度。 squeeze() squeeze(input, dim=None),如果不給定dim,則把input的所有size為1的維度給移除;如果給定dim,則只移除給定的且size為1的維度。 ...