Two Sigma:序列深度學習與量化投資


https://zhuanlan.zhihu.com/p/438259912

量化投資與機器學習微信公眾號,是業內垂直於 量化投資、對沖基金、Fintech、人工智能、大數據等領域的主流自媒體。公眾號擁有來自 公募、私募、券商、期貨、銀行、保險、高校等行業 20W+關注者,連續2年被騰訊雲+社區評選為“年度最佳作者”。

近日,來自Two sigma AI Core團隊的David Kriegman教授進行了題為《Deep Learning for Sequences in Quantitative Finance》在線分享。David Kriegman是加州大學聖地亞哥分校的計算機科學與工程教授,也是計算機視覺的專家。他於今年1月份加入了Two Sigma AI Core團隊。

量化投資對很多人來說似乎很神秘,以至於大家經常把投資過程本身稱為一個“黑盒子”。此外,量化投資的復雜性不斷增加,如今Two Sigma和其他公司經常在過程的各個部分使用強大的深度學習技術,根據大量數據做出決策。

即便如此,這個過程也不一定像人們有時想象的那樣神秘。David kriegman教授在本次網絡研討會,闡明Two Sigma研究人員如何將序列深度學習應用於量化投資。

正如David Kriegman解釋的那樣,量化投資過程地分為特征提取、預測單個資產的收益、投資組合配置和交易執行等步驟。這個過程中的許多步驟可以很容易地表示為機器學習問題,可以使用序列深度學習方法解決。

序列深度深度學習的輸入是一個單維或多維的序列,如RNN就是典型的用於序列預測的深度學習模型。在很多領域都有序列預測的需求,比如情感分析、圖像標注、翻譯等等。

圖片來自:Two Sigma

接下來的分享分為兩大部分:第一部分介紹了Two Sigma的量化投資的流程線,以及各流程中與深度學習結合的過程;第二部分介紹了常見的用於序列預測的深度學習模型。

傳統的因子體系的投資框架將策略構建的過程分為了特征提取、預測單個資產的收益、投資組合配置和交易執行等步驟。在這些步驟中,如特征提取、資產收益預測及交易執行中,都用到了序列預測。

可以看到,這還是一個傳統的因子模型的構建流程,只不過在不同的流程中找到了深度學習的應用場景。所以整體還是基於傳統投資框架,用深度學習進行局部優化與提升。在我們之前介紹的念空超級信號工廠( 念空的『超級信號工廠』)也采取了一樣的框架體系。
圖片來自:Two Sigma

Feature Extraction與Alpha Modeling的步驟中,原始輸入的因子可以來自多個維度,包括量價指標、基本面數據、情緒數據及非傳統信息源。通過大量的數據結合序列深度學習模型,對資產未來的收益進行預測。

圖片來自:Two Sigma

有了對於單個資產的收益預測,接下來就是組合構建,需要確定每個資產在組合中的占比。雖然這不是一個序列預測的問題。但組合優化本身也可以結合機器學習的算法,需要考慮非常多的限制條件,及選取合適的目標函數。這本身是一個大規模的優化問題。

圖片來自:Two Sigma

最后,在交易執行層面,為了盡可能的控制交易成本,對於未來價格的預測也是一個序列預測的問題。與Feature Extraction與Alpha Modeling預測相對中長期的資產收益率不同的是,交易執行過程中預測的是跟高頻的價格變動、成交量變動,以達到最優的執行成本。這當中需要考慮多個因素:訂單量大小的選擇,交易所的選擇及訂單類型的選擇等。

圖片來自:Two Sigma

在第二部分序列預測深度學習模型的介紹中,David Kriegman從基礎的RNN介紹到了LSTM。也提到了近年來序列預測模型的熱點,主要包括:Transformer和Attention。當然CNN也更多的用在了序列預測的問題上。

對於新手,一個可行的序列預測的學習路徑就是:RNN-LSTM-Attention-Transformers-各種新Paper。
圖片來自:Two Sigma

最后作者也分享了強化學習的相關應用,強化學習完全是一個端到端的應用。主要在游戲和機器人領域取得了很大的成功。強化學習本身需要強大的算力及模擬器。但在量化投資的應用並沒有深度學習那么廣泛。

圖片來自:Two Sigma

總結

通過本次分享,可以看出深度學習在頂尖對沖基金的應用:

  • 深度學習有用,且已經成為主力
  • 堅持傳統投資框架,在不同的流程中找到深度學習的應用場景
  • 基礎設施、海量數據同等重要


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM