国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
改進(jìn)的故障排除
銀行和金融
In the Retail industry, AI and ML models are used to guide various decisions such as product sales, inventory management, marketing, customer support and experience, etc. Having explainability with the ML and AI facilitates understanding of the model predictions, and a deeper look into issues related to predictions such as types of products not generating sales, or what will be the sales predictions for a particular store or outlet next month, or which products would have high demand, and needs to be stocked, or what marketing廣告系列對(duì)銷(xiāo)售等有積極的影響。
在本文中,我們將更深入地研究添加ML和AI模型的兩種外部工具的解釋性和可解釋性:
注意:每次我們運(yùn)行此代碼時(shí),石灰都會(huì)選擇功能並為其分配一些新的權(quán)重,因此它可能會(huì)更改預(yù)測(cè)的值以及圖。
>第二步
>最後,我們使用替代LR模型為L(zhǎng)ocal實(shí)例#0適合LIME,並查看其說(shuō)明。這也將有助於解釋黑匣子模型(XGBR)的功能貢獻(xiàn)。為此,請(qǐng)使用下面顯示的代碼。
理解塑形(Shapley添加說(shuō)明)
塑形庫(kù)可以直接與復(fù)雜模型一起使用以生成解釋。以下是與復(fù)雜XGBoost模型直接使用Shap的代碼(使用與Lime解釋相同的模型實(shí)例)。
>以上將顯示聯(lián)盟中每個(gè)特徵播放器的塑形值數(shù)組,即測(cè)試數(shù)據(jù)集中的觀察值。
結(jié)論
> shapdocumentation
首頁(yè) 科技週邊 人工智慧 ML和AI模型解釋性和解釋性

ML和AI模型解釋性和解釋性

Mar 09, 2025 pm 01:17 PM

在本文中,我們深入研究了機(jī)器學(xué)習(xí)和人工智能模型的解釋性和解釋性的概念。我們探討了為什麼了解模型如何做出預(yù)測(cè)至關(guān)重要,尤其是當(dāng)這些技術(shù)用於醫(yī)療保健,金融和法律體係等關(guān)鍵領(lǐng)域時(shí)。通過(guò)Lime和Shap等工具,我們演示瞭如何獲得對(duì)模型決策過(guò)程的見(jiàn)解,從而使復(fù)雜的模型更加透明。本文強(qiáng)調(diào)了解釋性和可解釋性之間的差異,並解釋了這些概念如何有助於建立對(duì)AI系統(tǒng)的信任,同時(shí)還應(yīng)對(duì)其挑戰(zhàn)和局限性。

學(xué)習(xí)目標(biāo)

了解機(jī)器學(xué)習(xí)中的模型可解釋性和可解釋性之間的區(qū)別
    了解石灰和塑造工具如何增強(qiáng)模型透明度和決策見(jiàn)解。
  • 探索解釋性和可解釋性在建立AI系統(tǒng)中的信任中的重要性。
  • 了解如何簡(jiǎn)化複雜的模型,以更好地理解而不損害性能。
  • 確定與AI模型可解釋性和可解釋性相關(guān)的挑戰(zhàn)和局限性。
  • >目錄的表
  • >
  • >可解釋性和可解釋性意味著什麼,為什麼它們?cè)贛L和AI?

>中的好處是改善模型的可解釋性和可解釋性
  • 流行的ML的可解釋性和解釋性和解釋性
  • >在復(fù)雜模型中如何內(nèi)置的解釋性和可解釋性在
  • 中如何起作用,石灰模型模型模型的決策如何起作用,以及如何解釋其解釋的解釋?zhuān)?
  • 如何訪(fǎng)問(wèn)lime擾動(dòng)的數(shù)據(jù)擾動(dòng)數(shù)據(jù)?形狀說(shuō)明?
  • 如何實(shí)現(xiàn)和解釋複雜XGBR模型的摘要圖?
  • >如何實(shí)現(xiàn)和解釋複雜XGBR模型的形狀依賴(lài)圖?模型解釋性
  • >結(jié)論

常見(jiàn)問(wèn)題

解釋性和解釋性是什麼意思,為什麼它們?cè)贛L和AI中至關(guān)重要?

解釋性是回答模型決策背後的原因的過(guò)程。例如,我們可以說(shuō)ML和AI模型在可以通過(guò)解釋模型如何在樹(shù)中拆分公共節(jié)點(diǎn)並解釋其分開(kāi)的邏輯來(lái)提供模型的決策的解釋和推理時(shí)具有解釋性。另一方面,可解釋性是將模型的解釋和決策轉(zhuǎn)換給非技術(shù)用戶(hù)的過(guò)程。它可以幫助數(shù)據(jù)科學(xué)家了解諸如權(quán)重和係數(shù)之類(lèi)的事物,從而有助於模型預(yù)測(cè),並幫助非技術(shù)用戶(hù)了解該模型如何做出決策以及模型對(duì)做出這些預(yù)測(cè)的重要性。 隨著AI和ML模型越來(lái)越複雜,具有數(shù)百個(gè)模型層以及數(shù)千至數(shù)十億到數(shù)十億到數(shù)十億到數(shù)十億的參數(shù),例如在LLM和深度學(xué)習(xí)模型中,我們很難理解該模型的整體和本地觀察水平的決策。模型解釋性為模型內(nèi)部運(yùn)作的見(jiàn)解和推理提供了解釋。因此,數(shù)據(jù)科學(xué)家和AI專(zhuān)家必須將解釋性技術(shù)利用到其模型構(gòu)建過(guò)程中,這也將提高模型的解釋性。

提高模型的解釋性和可解釋性的好處

>下面我們將研究模型的解釋性和解釋性的好處:>

改進(jìn)的信任

>信任是一個(gè)具有廣泛含義的詞。這是對(duì)某人或某物的可靠性,誠(chéng)實(shí)或正直的信心。

>

>信任與人以及非生命的事物相關(guān)聯(lián)。例如,依靠朋友的決策或依靠全自動(dòng)駕駛汽車(chē)將您從一個(gè)地方運(yùn)送到另一個(gè)地方。缺乏透明度和溝通也可能導(dǎo)致信任的侵蝕。同樣,信任是通過(guò)小步驟和重複積極互動(dòng)來(lái)建立的。當(dāng)我們與某人或事物保持積極的互動(dòng)時(shí),它會(huì)增強(qiáng)我們對(duì)他們的可靠性,積極意圖和無(wú)害性的信念。因此,信任是通過(guò)我們的經(jīng)驗(yàn)隨著時(shí)間的推移而建立的。

>,它對(duì)我們依靠ML&AI模型及其預(yù)測(cè)起著重要作用。

>

提高透明度和協(xié)作

>當(dāng)我們可以解釋機(jī)器或深度學(xué)習(xí)模型的內(nèi)部運(yùn)作,其決策過(guò)程以及規(guī)則和選擇背後的直覺(jué)時(shí),我們可以建立信任和問(wèn)責(zé)制。它還有助於改善與利益相關(guān)者和合作夥伴的協(xié)作和參與。

>

改進(jìn)的故障排除

>當(dāng)某事斷裂或無(wú)法按預(yù)期工作時(shí),我們需要找到問(wèn)題的根源。為此,對(duì)系統(tǒng)或模型的內(nèi)部工作的透明度至關(guān)重要。它有助於診斷問(wèn)題並採(cǎi)取有效的措施來(lái)解決問(wèn)題。例如,考慮一個(gè)預(yù)測(cè)該人“ B”的模型,不應(yīng)批準(zhǔn)貸款。要理解這一點(diǎn),我們必須檢查模型的預(yù)測(cè)和決策。這包括確定“ B”觀察人員優(yōu)先級(jí)的模型的因素。 在這種情況下,模型的解釋性將非常方便地研究模型的預(yù)測(cè)和與人相關(guān)的決策”。同樣,在更深入地研究模型的內(nèi)部運(yùn)作時(shí),我們可能會(huì)很快發(fā)現(xiàn)一些可能影響和影響模型決策的偏見(jiàn)。

因此,使用ML和AI模型具有解釋性並利用它們將使故障排除,監(jiān)視和持續(xù)改進(jìn)有效,並有助於識(shí)別和減輕偏見(jiàn)以及錯(cuò)誤以提高模型性能。

> ML的流行業(yè)務(wù)用例,AI解釋性和解釋性

>我們始終對(duì)該模型的總體預(yù)測(cè)能力感興趣,以影響和做出數(shù)據(jù)驅(qū)動(dòng)的知情決策。在銀行和金融,零售,醫(yī)療保健,互聯(lián)網(wǎng)等各種行業(yè)中,ML和AI模型有許多應(yīng)用程序。商業(yè),保險(xiǎn),汽車(chē),製造,教育,電信,旅行,空間等

以下是一些示例:

>

銀行和金融

對(duì)於銀行和金融行業(yè)來(lái)說(shuō),識(shí)別合適的客戶(hù)以提供貸款或發(fā)行信用卡很重要。他們也有興趣防止欺詐性交易。此外,這個(gè)行業(yè)受到了高度監(jiān)管。

要進(jìn)行這些內(nèi)部流程,例如申請(qǐng)批準(zhǔn)和欺詐監(jiān)控的有效,銀行和財(cái)務(wù)槓桿ML和AI建模,以協(xié)助這些重要的決定。他們利用ML和AI模型根據(jù)某些給定和已知因素來(lái)預(yù)測(cè)結(jié)果。 通常,這些機(jī)構(gòu)中的大多數(shù)不斷監(jiān)視交易和數(shù)據(jù)以檢測(cè)模式,趨勢(shì)和異常。對(duì)他們而言,重要的是有能力了解他們處理的每個(gè)應(yīng)用程序的ML和AI模型預(yù)測(cè)。他們有興趣了解模型預(yù)測(cè)背後的推理以及在做出預(yù)測(cè)中發(fā)揮重要作用的因素。

>現(xiàn)在,假設(shè)ML模型預(yù)測(cè)貸款申請(qǐng)將被拒絕對(duì)其一些信用評(píng)分高的客戶(hù)拒絕,這似乎並不常見(jiàn)。在這種情況下,他們可以利用模型解釋進(jìn)行風(fēng)險(xiǎn)分析,並就模型決定拒絕客戶(hù)應(yīng)用的原因而獲得更深入的見(jiàn)解,而哪些客戶(hù)因素在此決策中起著重要作用。這一發(fā)現(xiàn)可能有助於他們檢測(cè),調(diào)查和減輕模型決策中的問(wèn)題,漏洞和新偏見(jiàn),並有助於提高模型績(jī)效。

醫(yī)療保健

如今,在醫(yī)療保健行業(yè)中,ML/AI模型被利用以根據(jù)病史,實(shí)驗(yàn)室,生活方式,遺傳學(xué)等來(lái)預(yù)測(cè)患者的健康結(jié)果。

假設(shè)醫(yī)療機(jī)構(gòu)使用ML/AI模型來(lái)預(yù)測(cè)患者治療的患者是否具有癌癥者的可能性很高。由於這些問(wèn)題涉及一個(gè)人的生活,因此AI/ML模型有望以很高的準(zhǔn)確性來(lái)預(yù)測(cè)結(jié)果。 在這種情況下,

有能力深入研究模型的預(yù)測(cè),利用的決策規(guī)則,並理解影響預(yù)測(cè)的因素變得很重要。醫(yī)療保健專(zhuān)業(yè)團(tuán)隊(duì)將進(jìn)行盡職調(diào)查,並期望ML/AI模型的透明度提供與預(yù)測(cè)的患者結(jié)果和促成因素有關(guān)的清晰詳細(xì)的解釋。這是ML/AI模型解釋性變得必不可少的地方。 此審問(wèn)有時(shí)可能有助於發(fā)現(xiàn)模型決策中一些隱藏的漏洞和依據(jù),並可以解決以改善未來(lái)的模型預(yù)測(cè)。

自動(dòng)駕駛汽車(chē)

自動(dòng)駕駛汽車(chē)是自動(dòng)操作的車(chē)輛,例如汽車(chē),貨車(chē),火車(chē),飛機(jī),飛機(jī),飛船等。在此類(lèi)車(chē)輛中,AI和ML型號(hào)在使這些車(chē)輛能夠獨(dú)立運(yùn)行而無(wú)需人工干預(yù)的情況下獨(dú)立運(yùn)行。這些模型是使用機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)模型構(gòu)建的。它們使自動(dòng)駕駛汽車(chē)/車(chē)輛能夠感知周?chē)h(huán)境中的信息,做出明智的決定並安全地導(dǎo)航。

>在旨在在道路上操作的自動(dòng)駕駛汽車(chē),導(dǎo)航意味著實(shí)時(shí)自主指導(dǎo)車(chē)輛,即不需要人類(lèi)干預(yù)即通過(guò)關(guān)鍵任務(wù),例如檢測(cè)和識(shí)別物體,識(shí)別交通信號(hào)和標(biāo)誌,預(yù)測(cè)對(duì)象行為,預(yù)測(cè)對(duì)象行為,維護(hù)車(chē)道,維持和計(jì)劃途徑,並採(cǎi)取適當(dāng)?shù)膽B(tài)度,並採(cǎi)取適當(dāng)?shù)臎Q定,>零售

> 在上述業(yè)務(wù)用例中,我們可以清楚地看到,對(duì)於ML和AI模型,對(duì)整個(gè)模型以及個(gè)人預(yù)測(cè)具有指導(dǎo)業(yè)務(wù)決策並提高業(yè)務(wù)運(yùn)營(yíng)有效的個(gè)人預(yù)測(cè)非常重要。

>>>>>>>>>>>

>一些複雜的模型帶有內(nèi)置的解釋性,而某些模型則依靠外部工具為此。如今,有幾種可用的模型無(wú)關(guān)工具可以幫助我們添加模型解釋性。我們將更深入地研究可用的兩個(gè)此類(lèi)工具。

>

>改善ML和AI模型的工具解釋性和解釋性

> 任何提供與模型決策過(guò)程以及模型預(yù)測(cè)中功能貢獻(xiàn)有關(guān)的信息的工具均非常有幫助。通過(guò)可視化可以使解釋更加直觀。

>

在本文中,我們將更深入地研究添加ML和AI模型的兩種外部工具的解釋性和可解釋性:

石灰(局部解釋模型 - 敏捷的解釋?zhuān)?/p>

  • shap(外形添加說(shuō)明)
  • >
  • 石灰是模型不可知論,這意味著可以通過(guò)任何機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型來(lái)實(shí)現(xiàn)它。它可以與機(jī)器學(xué)習(xí)模型(例如線(xiàn)性和邏輯回歸,決策樹(shù),隨機(jī)森林,Xgboost,knn,Elasticnet等)一起使用。

    >在假設(shè)可以使用一個(gè)簡(jiǎn)單的可解釋模型來(lái)解釋複雜模型的內(nèi)部工作原理的假設(shè)。簡(jiǎn)單的可解釋模型可以是簡(jiǎn)單的線(xiàn)性回歸模型或決策樹(shù)模型。在這裡,我們利用一個(gè)簡(jiǎn)單的線(xiàn)性回歸模型作為一種可解釋的模型來(lái)使用石灰/塑形說(shuō)明為複雜模型生成解釋。

    。

    石灰也稱(chēng)為local可解釋的模型敏捷的解釋?zhuān)淮卧趩蝹€(gè)觀察結(jié)果上本地在本地進(jìn)行了解釋?zhuān)瑏K有助於我們了解該模型如何預(yù)測(cè)該觀察結(jié)果的得分。它通過(guò)使用原始觀測(cè)值的特徵的擾動(dòng)值創(chuàng)建合成數(shù)據(jù)來(lái)起作用。

    什麼是擾動(dòng)數(shù)據(jù)及其如何創(chuàng)建?

    >

    為為表格數(shù)據(jù)創(chuàng)建擾動(dòng)的數(shù)據(jù)集,Lime首先採(cǎi)用觀察中的所有功能,然後通過(guò)使用各種轉(zhuǎn)換來(lái)稍微修改特徵值來(lái)迭代為觀察創(chuàng)建新值。擾動(dòng)的值非常接近原始觀察值,並且從鄰域更靠近原始值。 > 對(duì)於文本和圖像數(shù)據(jù)類(lèi)型,lime迭代通過(guò)隨機(jī)從原始數(shù)據(jù)集中選擇功能並創(chuàng)建新的擾動(dòng)值,從該功能的功能創(chuàng)建新的擾動(dòng)值,從而創(chuàng)建數(shù)據(jù)集。石灰內(nèi)核寬度控制數(shù)據(jù)點(diǎn)鄰域的大小。

    較小的內(nèi)核大小意味著鄰域很小,最接近原始值的點(diǎn)將顯著影響解釋?zhuān)鴮?duì)於較大的內(nèi)核大小,遙遠(yuǎn)的點(diǎn)可能會(huì)導(dǎo)致石灰解釋。

    更廣泛的鄰里大小將導(dǎo)致更精確的解釋?zhuān)梢詭椭l(fā)現(xiàn)數(shù)據(jù)中的一些更廣泛的趨勢(shì)。有關(guān)更精確的本地解釋?zhuān)瑧?yīng)優(yōu)先考慮小社區(qū)尺寸。 >

    理解圖

    通過(guò)下面的圖(圖1),我們?cè)噲D對(duì)擾動(dòng)的值,內(nèi)核大小和鄰域進(jìn)行一些直覺(jué)。

    。 在討論中,我們使用了BigMart數(shù)據(jù)集中的數(shù)據(jù)示例,這是一個(gè)回歸問(wèn)題。我們利用了石灰的表格數(shù)據(jù)。

    >

    >從BigMart數(shù)據(jù)集考慮觀察#0。該觀察值具有13值的特徵“ item_type”。我們計(jì)算了此功能的平均值和標(biāo)準(zhǔn)偏差,我們的平均值為7.234,標(biāo)準(zhǔn)偏差等於4.22。這在上圖中顯示。然後,我們計(jì)算出等於1.366的z得分。

    > z得分左側(cè)的區(qū)域?yàn)槲覀兲峁┝藢⒌挽秞的特徵的值%。對(duì)於1.366的Z分?jǐn)?shù),該功能的值約為91.40%,該功能將低於x = 13。因此,我們得到一個(gè)直覺(jué),即對(duì)於此功能,內(nèi)核寬度必須低於x = 13。而且,內(nèi)核寬度將有助於控制鄰里的擾動(dòng)數(shù)據(jù)的大小。 圖2下面的

    顯示了BigMart數(shù)據(jù)集中的三個(gè)原始測(cè)試數(shù)據(jù)點(diǎn),我們認(rèn)為這些數(shù)據(jù)點(diǎn)是為了獲得石灰過(guò)程的直覺(jué)。 XGBoost是一個(gè)複雜的模型,用於在原始觀測(cè)值實(shí)例上生成預(yù)測(cè)。

    > 在本文中,我們將使用BigMart預(yù)處理和編碼數(shù)據(jù)集中的前3個(gè)記錄來(lái)提供示例和解釋以支持討論。

    石灰距離公式ML和AI模型解釋性和解釋性 內(nèi)部使用原始數(shù)據(jù)點(diǎn)和附近點(diǎn)之間的距離,並使用歐幾里得距離計(jì)算距離。假設(shè)點(diǎn)x = 13具有坐標(biāo)(x1,y1),而鄰域中的另一個(gè)點(diǎn)具有坐標(biāo)(x2,y2),使用以下方程式計(jì)算這兩個(gè)點(diǎn)之間的歐幾里得距離:

    下圖(圖4)顯示了藍(lán)色的擾動(dòng)數(shù)據(jù)點(diǎn)和原始值作為紅色數(shù)據(jù)點(diǎn)。距原始數(shù)據(jù)點(diǎn)較短距離的擾動(dòng)數(shù)據(jù)點(diǎn)將對(duì)石灰解釋更具影響力。

    ML和AI模型解釋性和解釋性

    上面的方程式考慮2d??梢詾榫哂衝個(gè)尺寸數(shù)的數(shù)據(jù)點(diǎn)得出類(lèi)似的方程。

    >

    內(nèi)核寬度有助於石灰確定為特徵選擇擾動(dòng)值的鄰域的大小。隨著值或數(shù)據(jù)點(diǎn)偏離原始值,它們?cè)陬A(yù)測(cè)模型結(jié)果方面的影響就會(huì)降低。 ML和AI模型解釋性和解釋性> 下圖(圖6)顯示了擾動(dòng)的特徵值,以及它們與原始值的相似性得分以及使用XGBoost模型的擾動(dòng)實(shí)例預(yù)測(cè),圖(圖5)顯示了黑匣子可解釋的簡(jiǎn)單模型(線(xiàn)性回歸)的信息。

    >內(nèi)置的解釋性和解釋性如何在復(fù)雜模型中起作用ML和AI模型解釋性和解釋性

    複雜模型,例如XGBoost,Random Forest等。具有基本的內(nèi)置模型解釋性特徵。 XGBoost模型在全球?qū)用嫣峁┝四P偷慕忉屝?,並且無(wú)法解釋觀察到本地級(jí)別的預(yù)測(cè)。

    >

    以來(lái),我們將XGBoost用作複雜的模型,因此我們?cè)谙旅嬗懻摿似鋬?nèi)置模型的解釋性。 XGBOOST為我們提供了繪製決策樹(shù)的功能,以將直覺(jué)納入模型的全局決策及其對(duì)預(yù)測(cè)的重要性。功能重要性返回功能列表,按照其對(duì)模型結(jié)果的貢獻(xiàn)意義的順序。

    首先,我們啟動(dòng)了XGBoost模型,然後使用訓(xùn)練集的獨(dú)立和目標(biāo)功能對(duì)其進(jìn)行了訓(xùn)練。 XGBoost模型的內(nèi)置解釋性特徵用於獲得對(duì)模型的見(jiàn)解。

    繪製XGBoost內(nèi)構(gòu)建的說(shuō)明使用以下源代碼:

    下圖(圖7)顯示了上述BigMart複雜XGBOOST模型的輸出決策樹(shù)。

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    >從上面的XGBoost模型樹(shù)中,我們可以了解模型的決策以及其用於分類(lèi)數(shù)據(jù)並做出最終預(yù)測(cè)的條件規(guī)則。從上面看來(lái),對(duì)於此XGBoost模型,功能item_mrp對(duì)結(jié)果做出了最大的貢獻(xiàn),其次是決策中的outlet_type。我們可以使用XGBoost的特徵重要性來(lái)驗(yàn)證這一點(diǎn)。

    > ML和AI模型解釋性和解釋性源代碼以顯示功能重要性

    >使用內(nèi)置說(shuō)明顯示XGBoost模型的功能重要性,請(qǐng)使用以下源代碼。

    下面的圖(圖9)顯示了使用上述XGBoost模型內(nèi)構(gòu)建的解釋產(chǎn)生的特徵。

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    從上面的XGBOOST特徵的重要性中,有趣的是,對(duì)於XGBoost模型,outlet_type的貢獻(xiàn)幅度比item_mrp高。此外,該模型為其他貢獻(xiàn)特徵及其對(duì)模型預(yù)測(cè)的影響提供了信息。
    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    >正如我們注意到的那樣,XGBoost模型的說(shuō)明處?kù)度驅(qū)用妫瑏K提供了大量信息,但是缺少一些其他信息,例如功能貢獻(xiàn)的方向,我們對(duì)本地級(jí)別觀察沒(méi)有見(jiàn)解。方向?qū)⒏嬖V我們?cè)撎蒯缡欠裼兄对黾宇A(yù)測(cè)值或減少預(yù)測(cè)值。對(duì)於分類(lèi)問(wèn)題,功能貢獻(xiàn)的方向?qū)⒁馕吨涝摴δ苁欠裼兄丁?1”或類(lèi)“ 0”。

    >這是外部解釋性工具(例如石灰和外形)可以有用的地方,並補(bǔ)充XGBoost模型的解釋性,並提供有關(guān)特徵貢獻(xiàn)或功能影響方向的信息。對(duì)於沒(méi)有內(nèi)置功能來(lái)解釋模型決策過(guò)程的模型,Lime有助於添加此能力,以解釋其對(duì)本地和全球?qū)嵗念A(yù)測(cè)決策。

    lime模型的決策如何起作用以及如何解釋其解釋?zhuān)?

    > 石灰可以與復(fù)雜的模型,簡(jiǎn)單模型以及黑匣子模型一起使用,我們對(duì)模型的工作不了解,並且只有預(yù)測(cè)。 因此,我們可以將石灰模型直接與需要說(shuō)明的模型合適,並且我們也可以使用它來(lái)通過(guò)替代簡(jiǎn)單模型來(lái)解釋黑匣子模型。 下面的

    我們將使用XGBoost回歸模型作為複雜的和黑匣子模型,並利用簡(jiǎn)單的線(xiàn)性回歸模型來(lái)了解黑匣子模型的石灰解釋。這也將使我們能夠使用兩種方法對(duì)同一複雜模型進(jìn)行LIME生成的解釋。 >

    要安裝石灰?guī)?,使用以下代碼:>

    >方法1:如何使用複雜的XGBR模型實(shí)現(xiàn)和解釋石灰解釋?zhuān)?

    >直接使用複雜模型(例如XGBoost)使用以下代碼:>

    這將產(chǎn)生一個(gè)看起來(lái)如下圖的輸出。

    >

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    從上方開(kāi)始,我們看到擾動(dòng)的觀察#0的相似性得分為71.85%,這表明該觀察值的特徵與原始觀察結(jié)果相似71.85%。觀察#0的預(yù)測(cè)值為1670.82,預(yù)測(cè)值的總範(fàn)圍在21.74至5793.40之間。 lime確定了觀察#0預(yù)測(cè)的最大貢獻(xiàn)特徵,並以特徵貢獻(xiàn)的幅度降序排列。

    >以藍(lán)色標(biāo)記的特徵表明它們有助於降低模型的預(yù)測(cè)值,而橙色標(biāo)記的特徵表明它們有助於增加觀察值的預(yù)測(cè)值,即本地實(shí)例#0。

    >此外,Lime通過(guò)提供模型將數(shù)據(jù)分配進(jìn)行觀察的特徵級(jí)條件規(guī)則而進(jìn)一步發(fā)展。

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    >可視化特徵貢獻(xiàn)和使用石灰

    的模型預(yù)測(cè)

    在上面的圖(圖13)中,左側(cè)的圖表示所有觀測(cè)值的預(yù)測(cè)值(min至max)的總範(fàn)圍,並且中心的值是該特定實(shí)例的預(yù)測(cè)值,即觀察。

    >中心的圖顯示了藍(lán)色代表對(duì)模型預(yù)測(cè)的負(fù)面影響,並且對(duì)本地實(shí)例的模型預(yù)測(cè)的積極貢獻(xiàn)特徵由顏色橙色表示。具有特徵的數(shù)值值表示特徵的擾動(dòng)值,或者我們可以說(shuō)它們表示特徵對(duì)模型預(yù)測(cè)的貢獻(xiàn)的幅度,在這種情況下,它是針對(duì)特定觀察(#0)或局部實(shí)例

    。

    右上的圖表示模型在生成實(shí)例的預(yù)測(cè)時(shí)給出的特徵重要性的順序。

    注意:每次我們運(yùn)行此代碼時(shí),石灰都會(huì)選擇功能並為其分配一些新的權(quán)重,因此它可能會(huì)更改預(yù)測(cè)的值以及圖。

    >

    >方法2:如何使用替代簡(jiǎn)單LR模型來(lái)實(shí)現(xiàn)和解釋黑匣子模型(XGBR)的石灰解釋?zhuān)?

    要使用複雜的黑匣子模型(例如XGBoost)實(shí)現(xiàn)石灰,我們可以使用替代模型方法。對(duì)於替代模型,我們可以使用簡(jiǎn)單的模型,例如線(xiàn)性回歸或決策樹(shù)模型。石灰在這些簡(jiǎn)單模型上非常有效。而且,我們還可以將復(fù)雜的模型用作帶石灰的替代模型。

    要將石灰與替代簡(jiǎn)單模型首先使用,我們需要從黑匣子模型中進(jìn)行預(yù)測(cè)。

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    >第二步

    在第二步中,使用複雜模型,火車(chē)集的獨(dú)立特徵和石灰,我們生成了一個(gè)擾動(dòng)特徵值的新數(shù)據(jù)集,然後使用擾動(dòng)特徵和復(fù)雜模型預(yù)測(cè)值訓(xùn)練替代模型(在這種情況下是線(xiàn)性回歸)。

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    要使用石灰生成擾動(dòng)的特徵值,我們可以使用以下以下源代碼。

    上面的代碼可用於回歸。對(duì)於分類(lèi)問(wèn)題,必須將模式修改為“分類(lèi)”。
    # install lime library
    !pip install lime
    
    # import Explainer function from lime_tabular module of lime library
    from lime.lime_tabular import LimeTabularExplainer
    >

    note

    >最後,我們使用替代LR模型為L(zhǎng)ocal實(shí)例#0適合LIME,並查看其說(shuō)明。這也將有助於解釋黑匣子模型(XGBR)的功能貢獻(xiàn)。為此,請(qǐng)使用下面顯示的代碼。

    >

    在執(zhí)行上面的執(zhí)行時(shí),我們得到了以下石灰說(shuō)明,如下圖(圖13)所示。

    # Fit the explainer model  using the complex model and show the LIME explanation and score
    explanation = explainer.explain_instance(X_unseen_test.values[0], xgbr_model.predict)
    explanation.show_in_notebook(show_table=True, show_all=False)
    print(explanation.score)

    我們立即註意到的一件事是,當(dāng)我們直接將石灰與XGBoost模型一起使用時(shí),對(duì)於觀察#0,石灰解釋得分較高(71.85%),當(dāng)我們將其視為黑匣子模型並使用替代LR模型來(lái)獲取黑匣子模型(XGBOBOST)的lime解釋?zhuān)╔GBOBOST),則是一個(gè)顯著的分?jǐn)?shù)(XGBOBOST)。這表明與替代模型方法相比,觀察值中的特徵數(shù)量將較少,因此,與原始模型的原始模型和石灰相比,使用解釋器的預(yù)測(cè)可能會(huì)有一些差異。

    觀察#0的預(yù)測(cè)值為2189.59,總體預(yù)測(cè)值在2053.46和2316.54之間。

    使用石灰XGBR的觀察#0的預(yù)測(cè)值為1670.82。

    如何訪(fǎng)問(wèn)石灰擾動(dòng)數(shù)據(jù)?

    查看石灰擾動(dòng)值使用以下代碼。

    上面的輸出看起來(lái)如下圖所示。

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    lime特徵的重要性ML和AI模型解釋性和解釋性 模型中的每個(gè)實(shí)例在生成實(shí)例的預(yù)測(cè)時(shí)給出了不同的特徵。這些確定的模型功能在模型的預(yù)測(cè)中起著重要作用。特徵重要性值表示模型預(yù)測(cè)的擾動(dòng)特徵值或已確定特徵的新幅度。

    石灰的解釋分?jǐn)?shù)是什麼?
    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    >

    石灰解釋得分錶明了石灰解釋的準(zhǔn)確性以及確定的特徵在預(yù)測(cè)模型結(jié)果中的作用。較高的可解釋分?jǐn)?shù)表明,該模型對(duì)觀察的識(shí)別特徵在此實(shí)例的模型預(yù)測(cè)中起著重要作用。從上圖(圖13),我們可以看到可解釋的替代LR模型給觀察中確定的特徵得分為0.4954。 ML和AI模型解釋性和解釋性現(xiàn)在,讓我們來(lái)研究另一個(gè)名為Shapely的工具,因?yàn)樗鼮槟P吞砑恿私忉屝浴?

    >

    理解塑形(Shapley添加說(shuō)明)

    >另一種用於ML的普遍使用的工具,AI模型的解釋是Shap(外形添加說(shuō)明)。該工具也是模型的不可知論。它的解釋基於稱(chēng)為“沙普利價(jià)值觀”的合作遊戲理論概念。在這個(gè)遊戲理論中,考慮所有玩家的貢獻(xiàn),並根據(jù)他們對(duì)整體結(jié)果的貢獻(xiàn)賦予每個(gè)玩家的價(jià)值。因此,它為模型決策提供了公平且可解釋的洞察力。

    >根據(jù)Shapely的說(shuō)法,一個(gè)球員聯(lián)盟共同努力取得結(jié)果。所有玩家都不相同,每個(gè)玩家都有不同的特徵,可以幫助他們以不同的方式為結(jié)果做出貢獻(xiàn)。在大多數(shù)情況下,是多個(gè)玩家的貢獻(xiàn)可以幫助他們贏得比賽。因此,玩家之間的合作是有益的,需要得到重視,不僅應(yīng)僅取決於單個(gè)玩家對(duì)結(jié)果的貢獻(xiàn)。而且,每一層次,從結(jié)果中產(chǎn)生的收益應(yīng)根據(jù)玩家的貢獻(xiàn)在玩家中分配。

    塑造ML和AI模型解釋工具基於上述概念。它將數(shù)據(jù)集中的功能視為團(tuán)隊(duì)中的個(gè)別玩家(觀察)。這些聯(lián)盟在ML模型中共同努力以預(yù)測(cè)結(jié)果,而回報(bào)是模型預(yù)測(cè)。 Shap有助於公平有效地在單個(gè)特徵(參與者)之間分配結(jié)果增長(zhǎng),從而認(rèn)識(shí)到它們對(duì)模型結(jié)果的貢獻(xiàn)。

    使用沙普利值

    公平分佈貢獻(xiàn)

    在上面的圖(圖15)中,我們考慮了兩名參加比賽的球員,並以獎(jiǎng)金的形式獲得了結(jié)果。兩名球員通過(guò)組建不同的聯(lián)盟(C12,C10,C20,C0)參加,並通過(guò)每個(gè)聯(lián)盟獲得不同的獎(jiǎng)品。最後,我們看到了平均平均體重如何幫助我們確定每個(gè)玩家對(duì)結(jié)果的貢獻(xiàn),並在參與者中公平地分配獎(jiǎng)金。 ML和AI模型解釋性和解釋性 在“ i”播放器的情況下,圖(圖16)中顯示的以下方程可用於確定每個(gè)播放器或功能的塑性值。

    >讓我們進(jìn)一步探索形狀庫(kù)。

    >如何安裝shap庫(kù)安裝並初始化它? ML和AI模型解釋性和解釋性>

    要安裝shap庫(kù)使用以下源代碼,如下所示。

    如何實(shí)現(xiàn)和解釋複雜的XGBR模型塑造說(shuō)明?

    塑形庫(kù)可以直接與復(fù)雜模型一起使用以生成解釋。以下是與復(fù)雜XGBoost模型直接使用Shap的代碼(使用與Lime解釋相同的模型實(shí)例)。

    >

    如何生成複雜XGBR模型的形狀值?
    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    >以上將顯示聯(lián)盟中每個(gè)特徵播放器的塑形值數(shù)組,即測(cè)試數(shù)據(jù)集中的觀察值。

    形狀值看起來(lái)如圖所示(圖-19):

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_

    >複雜XGBR模型的形狀特徵重要性是什麼?

    > Shap可以幫助我們確定哪些功能有助於模型的結(jié)果。它顯示了每個(gè)功能如何影響預(yù)測(cè)及其影響。 Shap還比較了模型中特徵對(duì)其他功能的貢獻(xiàn)。

    > 通過(guò)考慮特徵的所有可能排列,

    shap實(shí)現(xiàn)了這一點(diǎn)。它可以計(jì)算和比較具有和沒(méi)有功能的模型結(jié)果,從而計(jì)算每個(gè)特徵貢獻(xiàn)以及整個(gè)團(tuán)隊(duì)(所有參與者又稱(chēng)一個(gè)特徵)。

    如何實(shí)現(xiàn)和解釋複雜XGBR模型的摘要摘要圖?

    Shap摘要圖可用於查看Shap特徵貢獻(xiàn),其重要性和對(duì)結(jié)果的影響。

    以下是圖(圖20)顯示了生成摘要圖的源代碼。

    上面的圖(圖21)顯示了BigMart數(shù)據(jù)的形狀摘要圖。從上方,我們看到Shap以其重要性順序排列了Bigmart數(shù)據(jù)集中的功能。在右側(cè),我們看到了從頂部的高價(jià)值特徵和底部排列的低值排列的特徵。
    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()
    >也,我們可以解釋模型特徵對(duì)其結(jié)果的影響。特徵撞擊以水平為中心,圍繞著外形平均值。形狀平均值左側(cè)的特徵的外形值在粉紅色的顏色中表示,表示其負(fù)面影響。形狀平均值右側(cè)的特徵形狀值表示對(duì)積極影響的特徵貢獻(xiàn)。形狀值還表示特徵對(duì)結(jié)果的大小或影響。

    因此,Shap列出了該模型的整體圖,表明每個(gè)特徵對(duì)預(yù)測(cè)結(jié)果的貢獻(xiàn)的大小和方向。 ML和AI模型解釋性和解釋性如何實(shí)現(xiàn)和解釋複雜XGBR模型的形狀依賴(lài)圖?

    > Shap功能依賴(lài)圖有助於我們將功能關(guān)係與另一個(gè)功能解釋。在上面的圖中,似乎Item_MRP取決於outlet_type。對(duì)於outlet_types 1至3,item_mrp的趨勢(shì)增加,而從上面的utlet_type 0到outlet_type 1,item_mrp的趨勢(shì)下降。

    >。

    如何實(shí)現(xiàn)和解釋複雜XGBR模型的塑造力圖? 到目前為止,我們?cè)谌蚬?fàn)圍內(nèi)看到了Shap的特徵,影響力和決策的特徵。塑形力圖可用於在當(dāng)?shù)赜^察級(jí)別中直覺(jué)進(jìn)入模型決策。

    要利用Shap Force圖,我們可以使用以下代碼。請(qǐng)記住使用自己的數(shù)據(jù)集名稱(chēng)。以下代碼查看測(cè)試數(shù)據(jù)集的第一個(gè)觀察結(jié)果,即x_unseen_test.iloc [0]。可以更改此數(shù)字以查看不同的觀察結(jié)果。

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    ML和AI模型解釋性和解釋性

    我們可以將上述力圖解釋為以下?;局抵甘臼褂肧hap替代LR模型的本地實(shí)例#0的預(yù)測(cè)值。標(biāo)記為深粉色的功能是推動(dòng)預(yù)測(cè)值更高的功能,而標(biāo)記為藍(lán)色的特徵則將預(yù)測(cè)推向了較低的值。具有功能的數(shù)字是特徵原始值。

    >

    如何為複雜的XGBoost模型實(shí)現(xiàn)和解釋制定決策圖?

    要顯示形狀依賴(lài)圖,我們可以使用以下代碼,如下圖所示。

    # feature importance of the model
    feature_importance_xgb = pd.DataFrame()
    feature_importance_xgb['variable'] = X_train.columns
    feature_importance_xgb['importance'] = xgbr_model.feature_importances_
    SHAP決策圖是查看不同模型特徵對(duì)模型預(yù)測(cè)的影響的另一種方式。從下面的決策圖中,我們?cè)噲D可視化各種模型功能對(duì)預(yù)測(cè)結(jié)果的影響,即項(xiàng)目插座銷(xiāo)售。

    從下面的決策圖中,我們觀察到特徵item_mrp對(duì)預(yù)測(cè)結(jié)果產(chǎn)生了積極影響。它增加了商品插座銷(xiāo)售。同樣,utlet_isternifier_out018也通過(guò)提高銷(xiāo)售額做出了積極的貢獻(xiàn)。另一方面,item_type對(duì)結(jié)果產(chǎn)生負(fù)面影響。它減少了商品銷(xiāo)售。同樣,utlet_istentifier_27也以負(fù)面貢獻(xiàn)減少了銷(xiāo)售。

    >

    >下面的圖顯示了大市場(chǎng)銷(xiāo)售數(shù)據(jù)的決策圖。

    >如何使用TreeExplainer實(shí)現(xiàn)和解釋複雜XGBR模型的塑造力圖? ML和AI模型解釋性和解釋性

    # feature_importance values in descending order
    feature_importance_xgb.sort_values(by='importance', ascending=False).head()
    如何使用替代模型實(shí)現(xiàn)和解釋黑匣子模型的解釋?zhuān)?

    >使用替代模型(此處使用的線(xiàn)性回歸模型)使用Shap解釋使用以下代碼。線(xiàn)性回歸模型是使用黑匣子模型和訓(xùn)練集的獨(dú)立特徵的預(yù)測(cè)來(lái)訓(xùn)練的。 ML和AI模型解釋性和解釋性

    對(duì)於Shap解釋器替代模型,Shap值將看起來(lái)像下面。

    如何使用替代LR模型來(lái)實(shí)現(xiàn)和解釋黑匣子模型的形狀摘要圖?
    # install lime library
    !pip install lime
    
    # import Explainer function from lime_tabular module of lime library
    from lime.lime_tabular import LimeTabularExplainer
    >顯示黑匣子替代模型的形狀摘要圖,代碼看起來(lái)像下面。

    ML和AI模型解釋性和解釋性

    >從上面的黑匣子代替代LR模型的Shap摘要圖中,Item_Type和item_MRP是具有總體中性影響的Item_Type的最高貢獻(xiàn)功能之一,而item_mrp似乎正在向右手側(cè)伸向右手,表明它有助於增加結(jié)果(即ite_e.e.e.e.e.e.e.e.e.outlet_sales。

    如何實(shí)現(xiàn)和解釋黑匣子替代簡(jiǎn)單LR模型的形狀依賴(lài)圖?

    >使用替代LR模型實(shí)現(xiàn)Shap Dependece圖,請(qǐng)使用以下代碼。 >

    輸出看起來(lái)像下面的。

    # plot single tree
    plot_tree(xgbr_model)
    plt.figure(figsize=(10,5))
    plt.show()

    >從上面的圖中我們可以說(shuō),對(duì)於黑匣子替代LR模型,MRP對(duì)於出口類(lèi)型0和1的趨勢(shì)越來(lái)越多,而對(duì)於出口類(lèi)型3的趨勢(shì)也有所下降。

    模型的比較表ML和AI模型解釋性和解釋性

    >下面我們將查看表格以比較每個(gè)模型

    Aspect LIME SHAP Blackbox Surrogate LR Model XGBR Model (Complex)
    Explainability Local-level explainability for individual predictions Global-level and local-level explainability Limited explainability, no local-level insights Limited local-level interpretability
    Model Interpretation Uses synthetic dataset with perturbed values to analyze model’s decision rationale Uses game theory to evaluate feature contributions No local-level decision insights Global-level interpretability only
    Explanation Score Average explanation score = 0.6451 Provides clear insights into feature importance Lower explanation score compared to LIME XGBR Higher prediction accuracy but lower explanation
    Accuracy of Closeness to Predicted Value Matches predicted values closely in some cases Provides better accuracy with complex models Low accuracy of closeness compared to LIME Matches predicted values well but limited explanation
    Usage Helps diagnose and understand individual predictions Offers fairness and transparency in feature importance Not suitable for detailed insights Better for high-level insights, not specific
    Complexity and Explainability Tradeoff Easier to interpret but less accurate for complex models Higher accuracy with complex models, but harder to interpret Less accurate, hard to interpret Highly accurate but limited interpretability
    Features Explains local decisions and features with high relevance to original data Offers various plots for deeper model insights Basic model with limited interpretability Provides global explanation of model decisions
    Best Use Cases Useful for understanding decision rationale for individual predictions Best for global feature contribution and fairness Used when interpretability is not a major concern Best for higher accuracy at the cost of explainability
    Performance Analysis Provides a match with XGBR prediction but slightly lower accuracy Performs well but has a complexity-accuracy tradeoff Limited performance insights compared to LIME High prediction accuracy but with limited interpretability
    Lime的擾動(dòng)特徵和模型解釋性

    見(jiàn)解

    >同樣,在分析石灰擾動(dòng)值時(shí),我們對(duì)石灰選擇的特徵的方式進(jìn)行了一些直覺(jué),然後分配給它們的擾動(dòng)權(quán)重,並嘗試使預(yù)測(cè)更接近原始。

    >帶來(lái)所有的石灰模型和觀測(cè)值(對(duì)於排名前3的行和選定的功能)。

    >

    ML和AI模型解釋性和解釋性

    ML和AI模型解釋性和解釋性

    從上面開(kāi)始,我們可以看到,對(duì)於觀察#0,原始XGBR模型預(yù)測(cè)和石灰XGBR模型預(yù)測(cè)是匹配的,而對(duì)於相同的原始特徵值,BlackBox替代模型預(yù)測(cè)觀察#0也是不對(duì)的。同時(shí),石灰XGBR模型展示了高解釋得分(特徵與原始功能的相似性)。 複雜石灰XGBR模型的解釋得分的平均值為0.6451,黑盒替代LR石灰模型的平均值為0.5701。在這種情況下,石灰XGBR的平均解釋得分高於黑匣子模型。

    預(yù)測(cè)值的親密度的準(zhǔn)確性

    下面我們分析了三個(gè)模型的預(yù)測(cè)值的親密度的精度。

    通過(guò)簡(jiǎn)單的LR模型和石灰複合物XGBR模型的預(yù)測(cè)值的%精度是相同的,兩種模型都達(dá)到了100%的觀測(cè)精度。這表明預(yù)測(cè)值與復(fù)雜XGBR模型做出的實(shí)際預(yù)測(cè)非常匹配。通常,較高的親密度精度反映了一個(gè)更準(zhǔn)確的模型。

    >

    比較預(yù)測(cè)和實(shí)際值時(shí),會(huì)觀察到差異。對(duì)於觀察#3,預(yù)測(cè)值(2174.69)顯著高於實(shí)際值(803.33)。同樣,計(jì)算了石灰複合物XGBR和BlackBox替代LR模型的親密度精度。結(jié)果突出顯示了各種性能指標(biāo),如表中所述。 ML和AI模型解釋性和解釋性>

    >從上方我們看到,對(duì)於觀察1,BlackBox替代LR模型表現(xiàn)最好。同時(shí),對(duì)於其他兩個(gè)觀察結(jié)果(#2和#3),兩個(gè)模型性能均相等。

    石灰複合物XGBR模型的平均性能約為176,BlackBox替代LR模型約為186。 因此,我們可以說(shuō)石灰複雜模型的精度<石灰黑盒替代LR模型精度。 ML和AI模型解釋性和解釋性

    結(jié)論

    石灰和外形是提高機(jī)器學(xué)習(xí)和AI模型的解釋性的強(qiáng)大工具。它們使復(fù)雜或黑框模型更加透明。石灰專(zhuān)門(mén)針對(duì)模型的決策過(guò)程提供本地級(jí)別的見(jiàn)解。 Shap提供了更廣泛的視野,並在全球和地方層面上都解釋了功能貢獻(xiàn)。儘管石灰的準(zhǔn)確性可能並不總是與XGBR這樣的複雜模型匹配,但對(duì)於理解單個(gè)預(yù)測(cè)而言是無(wú)價(jià)的。 另一方面,Shap的基於遊戲理論的方法促進(jìn)了公平和透明度,但有時(shí)很難解釋。 BlackBox模型和XGBR等複雜模型提供了更高的預(yù)測(cè)準(zhǔn)確性,但通常以降低解釋性為代價(jià)。最終,這些工具之間的選擇取決於預(yù)測(cè)準(zhǔn)確性和模型可解釋性之間的平衡,這可能會(huì)根據(jù)所使用模型的複雜性而有所不同。

    鑰匙要點(diǎn)

    lime和shap提高了複雜AI模型的解釋性。

    石灰是獲得對(duì)預(yù)測(cè)的本地水平見(jiàn)解的理想選擇。

    shap對(duì)特徵重要性和公平性提供了更全球的理解。
      較高的模型複雜性通常會(huì)導(dǎo)致更好的準(zhǔn)確性,但可以降低解釋性。
    • 這些工具之間的選擇取決於對(duì)準(zhǔn)確性和可解釋性的需求。
    • 參考
    • 有關(guān)更多詳細(xì)信息,請(qǐng)使用以下
    • >
    • 源代碼存儲(chǔ)庫(kù)
    • limedocumentation

    > shapdocumentation

    常見(jiàn)問(wèn)題
    • > Q1。模型解釋性和可解釋性之間有什麼區(qū)別?口譯員是將語(yǔ)言翻譯成不了解語(yǔ)言的人的人。因此,模型解釋性的作用是用作翻譯器,並以易於理解的方式將模型以技術(shù)形式產(chǎn)生的模型解釋轉(zhuǎn)化為非技術(shù)人類(lèi)的解釋。 模型的解釋性與生成模型的解釋有關(guān)在本地觀察和全球?qū)用娴臎Q策中產(chǎn)生模型解釋。因此,模型的解釋性有助於將模型解釋從復(fù)雜的技術(shù)格式轉(zhuǎn)化為用戶(hù)友好的格式。
    • Q2。為什麼模型解釋性在AI和ML中很重要??
    • a。 ML和AI模型的解釋性和可解釋性至關(guān)重要,原因有幾個(gè)。它們使模型具有透明度和信任。它們還促進(jìn)協(xié)作並幫助識(shí)別和減輕脆弱性,風(fēng)險(xiǎn)和偏見(jiàn)。此外,解釋性有助於調(diào)試問(wèn)題並確保遵守法規(guī)和道德標(biāo)準(zhǔn)。這些因素在各種業(yè)務(wù)用例中尤為重要,包括銀行和金融,醫(yī)療保健,完全自動(dòng)駕駛汽車(chē)和零售,如文章中所述。 Q3。所有模型都可以使用石灰和外形嗎?是的,石灰和外形是模型的不可知論。這意味著它們可以應(yīng)用於任何機(jī)器學(xué)習(xí)模型。這兩種工具都增強(qiáng)了模型的解釋性和解釋性。實(shí)現(xiàn)模型的解釋性挑戰(zhàn)是什麼?實(shí)現(xiàn)模型的挑戰(zhàn)在於在模型準(zhǔn)確性和模型解釋之間找到平衡。重要的是要確保解釋是由非技術(shù)用戶(hù)解釋的。這些解釋的質(zhì)量必須在實(shí)現(xiàn)高模型準(zhǔn)確性的同時(shí)保持。 >

以上是ML和AI模型解釋性和解釋性的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線(xiàn)上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開(kāi)發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺(jué)化網(wǎng)頁(yè)開(kāi)發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

熱門(mén)話(huà)題

前7個(gè)筆記本替代品 前7個(gè)筆記本替代品 Jun 17, 2025 pm 04:32 PM

Google的NotebookLM是由Gemini 2.5提供動(dòng)力的智能AI筆記工具,它在匯總文檔方面表現(xiàn)出色。但是,它在工具使用方面仍然有局限性,例如源蓋,雲(yún)依賴(lài)性和最近的“發(fā)現(xiàn)”功能

從採(cǎi)用到優(yōu)勢(shì):2025年塑造企業(yè)LLM的10個(gè)趨勢(shì) 從採(cǎi)用到優(yōu)勢(shì):2025年塑造企業(yè)LLM的10個(gè)趨勢(shì) Jun 20, 2025 am 11:13 AM

以下是重塑企業(yè)AI景觀的十種引人注目的趨勢(shì)。對(duì)LLMSorganizations的財(cái)務(wù)承諾正在大大增加其在LLMS的投資,其中72%的人預(yù)計(jì)他們的支出今年會(huì)增加。目前,近40%a

AI投資者停滯不前? 3條購(gòu)買(mǎi),建造或與人工智能供應(yīng)商合作的戰(zhàn)略途徑 AI投資者停滯不前? 3條購(gòu)買(mǎi),建造或與人工智能供應(yīng)商合作的戰(zhàn)略途徑 Jul 02, 2025 am 11:13 AM

投資蓬勃發(fā)展,但僅資本還不夠。隨著估值的上升和獨(dú)特性的衰落,以AI為中心的風(fēng)險(xiǎn)投資的投資者必須做出關(guān)鍵決定:購(gòu)買(mǎi),建立或合作夥伴才能獲得優(yōu)勢(shì)?這是評(píng)估每個(gè)選項(xiàng)和PR的方法

生成AI的不可阻擋的增長(zhǎng)(AI Outlook第1部分) 生成AI的不可阻擋的增長(zhǎng)(AI Outlook第1部分) Jun 21, 2025 am 11:11 AM

披露:我的公司Tirias Research已向IBM,NVIDIA和本文提到的其他公司諮詢(xún)。 Growth驅(qū)動(dòng)力的生成AI採(cǎi)用的激增比最樂(lè)觀的預(yù)測(cè)更具戲劇性。然後,

新蓋洛普?qǐng)?bào)告:AI文化準(zhǔn)備就緒需要新的心態(tài) 新蓋洛普?qǐng)?bào)告:AI文化準(zhǔn)備就緒需要新的心態(tài) Jun 19, 2025 am 11:16 AM

廣泛採(cǎi)用和情感準(zhǔn)備之間的差距揭示了人類(lèi)如何與越來(lái)越多的數(shù)字伴侶互動(dòng)。我們正在進(jìn)入共存階段,算法編織到我們的日?,F(xiàn)場(chǎng)

這些初創(chuàng)公司正在幫助企業(yè)出現(xiàn)在AI搜索摘要中 這些初創(chuàng)公司正在幫助企業(yè)出現(xiàn)在AI搜索摘要中 Jun 20, 2025 am 11:16 AM

由於AI,那些日子是編號(hào)的。根據(jù)一個(gè)螺柱,搜索企業(yè)諸如Travel網(wǎng)站皮劃艇和Edtech Company Chegg之類(lèi)的企業(yè)正在下降,部分原因是60%的網(wǎng)站搜索不會(huì)導(dǎo)致用戶(hù)單擊任何鏈接。

AGI和AI超級(jí)智能將嚴(yán)重?fù)糁腥祟?lèi)天花板的假設(shè)障礙 AGI和AI超級(jí)智能將嚴(yán)重?fù)糁腥祟?lèi)天花板的假設(shè)障礙 Jul 04, 2025 am 11:10 AM

讓我們來(lái)談?wù)劇? 對(duì)創(chuàng)新AI突破的分析是我正在進(jìn)行的AI中正在進(jìn)行的福布斯列覆蓋的一部分,包括識(shí)別和解釋各種有影響力的AI複雜性(請(qǐng)參閱此處的鏈接)。 前往Agi和

思科在美國(guó)2025 思科在美國(guó)2025 Jun 19, 2025 am 11:10 AM

讓我們仔細(xì)研究一下我發(fā)現(xiàn)的最重要的東西,以及思科如何以其目前的努力來(lái)進(jìn)一步實(shí)現(xiàn)其野心。

See all articles