久久精品一本到99热免费,亚洲国产日韩一区三区,精品国产综合二区亚洲,性欧美黑人性视频在线

    <sub id="qk7nk"><ol id="qk7nk"></ol></sub>
  1. 
    
  2. <legend id="qk7nk"></legend>

    <legend id="qk7nk"></legend>

    您的位置:首頁>AI>

    Google的Explainable AI服務闡明了機器學習模型如何做出決策

    Google LLC已在其云平臺上推出了一項新的“可解釋AI”服務,旨在使機器學習模型做出決策的過程更加透明。

    谷歌表示,這樣做的想法是,這將有助于建立對這些模型的更大信任。這很重要,因為大多數(shù)現(xiàn)有模型往往相當不透明。只是不清楚他們如何做出決定。

    Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey在今天的博客中解釋說,Explainable AI旨在提高機器學習模型的可解釋性。她說,這項新服務的工作原理是量化每個數(shù)據(jù)因素對模型產生的結果的貢獻,幫助用戶了解其做出決定的原因。

    換句話說,它不會以通俗易懂的方式解釋事物,但是該分析對于首先構建機器學習模型的數(shù)據(jù)科學家和開發(fā)人員仍然有用。

    可解釋的AI有進一步的局限性,因為它提出的任何解釋都將取決于機器學習模型的性質以及用于訓練它的數(shù)據(jù)。

    她寫道:“任何解釋方法都有局限性。”“一方面,AI解釋反映了數(shù)據(jù)中發(fā)現(xiàn)的模型的模式,但它們并未揭示數(shù)據(jù)樣本,總體或應用程序中的任何基本關系。我們正在努力向客戶提供最直接,最有用的解釋方法,同時保持其局限性透明。”

    盡管如此,可解釋的AI還是很重要的,因為準確解釋特定機器學習模型為何得出結論的原因,對于最終負責這些決策的組織內的高級管理人員很有用。對于高度嚴格的行業(yè)來說,這尤其重要,而信心絕對至關重要。谷歌表示,對于處于這一職位的許多組織來說,沒有任何可解釋性的人工智能目前已超出范圍。

    在相關新聞中,Google還發(fā)布了所謂的“模型卡”,作為其Cloud Vision應用程序編程界面的面部檢測和對象檢測功能的文檔。

    免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!