電力現(xiàn)貨預(yù)測(cè)精度高不等于交易收益好:改造決策樹(shù)
枯藤老樹(shù)昏鴉,小橋流水人家。語(yǔ)文老師給我講這首詩(shī)的時(shí)候,說(shuō)這個(gè)只是名詞的堆砌,但給人一種直指內(nèi)心的感覺(jué)。
——以上是這篇技術(shù)文章的核心思想。
(來(lái)源:微信公眾號(hào)“蘭木達(dá)電力現(xiàn)貨”作者:王超一)
一.兩種決策樹(shù)的差異對(duì)比
在講正題之前,先簡(jiǎn)要講一下 scikit-learn(以下簡(jiǎn)稱sklearn)決策樹(shù)的主要實(shí)現(xiàn)邏輯。另外,這一塊代碼位于 sklearn/tree 目錄下,而 ensemble 里的隨機(jī)森林依賴 tree 目錄代碼。
首先,構(gòu)造一棵決策樹(shù)有兩種邏輯,一種是深度優(yōu)先搜索DepthFirstTreeBuilder,即每次找到最優(yōu)的分裂節(jié)點(diǎn),然后在左右子樹(shù)中按同樣邏輯構(gòu)建;另一種是類似寬度優(yōu)先搜索的貪心策略BestFirstTreeBuilder,之所以說(shuō)是類似寬度優(yōu)先搜索,是因?yàn)槊看味颊业疆?dāng)前的最優(yōu)分裂,而不是按層分裂,即把寬搜用的隊(duì)列換成優(yōu)先級(jí)隊(duì)列。用哪一種方式建樹(shù)取決于是否指定了最大葉子節(jié)點(diǎn)數(shù)T,如果指定了就用BestFirstTreeBuilder,因?yàn)檫@樣即使無(wú)腦搜索也是O(T2)復(fù)雜度,當(dāng)然sklearn用了基于堆的優(yōu)先級(jí)隊(duì)列可以將復(fù)雜度降低為O(TlogT)。
其次,除了構(gòu)建樹(shù)的方法外,剩下的邏輯核心在于 Splitter, Splitter也保存了原始的X、y、 sample_weight,Splitter主要有4個(gè)方法:
1)init 方法,保存原始X、y、sample_weight,生成一個(gè)對(duì)樣本(行)的索引表,并利用X和行索引表和一個(gè)特征的緩存數(shù)組生成一個(gè)Partitioner 對(duì)象;
2)node_reset方法,利用 y,sample weight和行索引構(gòu)造 Criterion 對(duì)象,分類樹(shù)的熵、基尼系數(shù),回歸樹(shù)的MSE,MAE都是在這個(gè)Criterion的實(shí)現(xiàn);
3)node_impurity方法,調(diào)用self.criterion.node_impurity計(jì)算一個(gè)節(jié)點(diǎn)的純度,這個(gè)數(shù)越小越好;
4)node_split 方法,本方法是核心,有兩個(gè)更基礎(chǔ)的方法,分別為 node_split_best 和 node_split_random,這兩個(gè)方法都調(diào)用了 Splitter、Partitioner、Criterion 3個(gè)對(duì)象,同時(shí)有很多性能上的優(yōu)化,如在行索引上操作,對(duì)快速排序的優(yōu)化,對(duì)常量特征的優(yōu)化等。
上邊這一段看不懂沒(méi)有關(guān)系,大致就是說(shuō),sklearn用cython寫(xiě)了個(gè)樹(shù)的構(gòu)建,并把a(bǔ)pi暴露給python,然后每個(gè)關(guān)鍵點(diǎn)都有幾種選擇,這些一般都傳入字符串參數(shù),然后sklearn有內(nèi)置的字典來(lái)找到對(duì)應(yīng)的類,這些類用 Cython 實(shí)現(xiàn)來(lái)確保效率。
二.電力市場(chǎng)交易的優(yōu)化目標(biāo)是收益而不是偏差
問(wèn)題在于,拿電力交易為例,我們最終的目標(biāo)是收益最大化,一般來(lái)說(shuō)這個(gè)收益取決于當(dāng)前價(jià)格和未來(lái)價(jià)格之差,后文簡(jiǎn)稱價(jià)差,如果我們構(gòu)造一個(gè)回歸樹(shù),y為價(jià)差,那么可以選擇 MAE、MSE或其變種作為一個(gè)純度的度量,這樣就是把收益最大化問(wèn)題轉(zhuǎn)換為價(jià)差的回歸了。這個(gè)數(shù)學(xué)建模的問(wèn)題在于,雖然邏輯上更優(yōu)的價(jià)差預(yù)測(cè)會(huì)帶來(lái)更好的策略收益,但實(shí)踐中也不絕對(duì),有可能把MAE降低了,策略收益沒(méi)有提高反而降低了。
能否給出一個(gè)直面目標(biāo)函數(shù)(策略收益)的決策樹(shù)呢?
首先,回過(guò)頭再看一下決策樹(shù)為我們提供了什么,決策樹(shù)給出了一些條件下的樣本集合,這些條件是分層的,可以定義這個(gè)樣本集合的一個(gè)指標(biāo),代表這個(gè)分層好不好,即決策樹(shù)是否恰當(dāng)劃分。那么這個(gè)指標(biāo)就可以直接定義為這個(gè)集合下按照某種交易策略下的利潤(rùn)。
比如,我們有一種策略,只看預(yù)測(cè)價(jià)差的符號(hào),不論價(jià)差大小,都申報(bào)同樣多的電量,那么這個(gè)集合的利潤(rùn)就是所有價(jià)差之和的絕對(duì)值。
其次,還得重新實(shí)現(xiàn)proxy_impurity_improvement和children_impurity這兩個(gè)方法,限于篇幅原因不再贅述。這里面有個(gè)坑,這個(gè)純度即node_impurity 越小越好,那么我們利潤(rùn)最大化得乘以-1,然而在sklearn中,默認(rèn)純度為正數(shù),我們開(kāi)頭講的樹(shù)構(gòu)建過(guò)程中,如果純度小于一個(gè)極小正數(shù)時(shí)認(rèn)為當(dāng)前節(jié)點(diǎn)已經(jīng)是葉子節(jié)點(diǎn)了,所以得改樹(shù)構(gòu)建的邏輯,具體而言就是加上3個(gè)#注釋掉3行即可。
經(jīng)過(guò)這樣的改造,在山東日前交易中,回測(cè)利潤(rùn)是MSE的3倍或更多。
接下來(lái),我們更進(jìn)一步,注意到我們這里要用-1倍的利潤(rùn)作為節(jié)點(diǎn)純度,對(duì)新能源電站,計(jì)算利潤(rùn)需要更多的數(shù)據(jù),比如裝機(jī)容量、實(shí)際發(fā)電和預(yù)測(cè)發(fā)電,而實(shí)際發(fā)電在sklearn框架中是一個(gè)尷尬的存在。
我們不能把這個(gè)數(shù)值當(dāng)做X,因?yàn)檫@個(gè)是個(gè)未來(lái)數(shù)據(jù)。然而在回歸中,如果把這個(gè)數(shù)當(dāng)做y,在代碼邏輯上勉強(qiáng)能跑通,但會(huì)在代碼中把真正的y與輔助性的數(shù)據(jù)混在一起,代碼結(jié)構(gòu)化變差,比如在predict會(huì)得到一個(gè)二維矩陣。所以我們嘗試了修改 sklearn 的 api,分別給 BaseDecisionTree.fit、TreeBuilder.build、Splitter.init, Criterion.init 中增加相同的輔助計(jì)算節(jié)點(diǎn)純度的參數(shù),加上這個(gè)機(jī)制,就可以任意修改(節(jié)點(diǎn)純度)目標(biāo)函數(shù)了。
自定義的目標(biāo)函數(shù)讓我們可以直面交易利潤(rùn),把價(jià)差預(yù)測(cè)的學(xué)習(xí)直接升級(jí)到交易策略的學(xué)習(xí),然而,這也給我們提出了更高的決策樹(shù)后處理要求,對(duì)策略的過(guò)擬合也得有更多的控制手段。
最后吐槽一下,Pycharm 對(duì) Cython 的支持太差了,右邊一堆紅(提示代碼錯(cuò)誤),代碼折疊也有問(wèn)題,可能逼著我們?nèi)ビ?vs code 了。

責(zé)任編輯:葉雨田
-
河北電力交易中心:5家售電公司的自主注銷生效
-
陜西電力交易中心新增1家負(fù)荷聚合商
-
2023年4月中旬江蘇電力市場(chǎng)月內(nèi)掛牌交易公告
2023-04-14江蘇電力市場(chǎng)
-
河北電力交易中心:5家售電公司的自主注銷生效
-
陜西電力交易中心新增1家負(fù)荷聚合商
-
2023年4月中旬江蘇電力市場(chǎng)月內(nèi)掛牌交易公告
2023-04-14江蘇電力市場(chǎng)