国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
介紹
學(xué)習(xí)成果
目錄
什麼是小語(yǔ)言模型?
SLM的優(yōu)點(diǎn)超過(guò)LLM
量身定制的效率和精度
速度
成本
什麼是傑瑪?
不同版本的Gemma
Gemma 1家庭
代碼Gemma
經(jīng)常出現(xiàn)的寶石
pal
Gemma 2和相關(guān)工具
Gemma 2
相關(guān)工具
訪問(wèn)點(diǎn)
什麼是微調(diào)?
微調(diào)SLM的原因
微調(diào)過(guò)程
步驟1:選擇正確的預(yù)訓(xùn)練模型
步驟2:數(shù)據(jù)選擇和準(zhǔn)備
步驟3:高參數(shù)調(diào)整
步驟4:訓(xùn)練模型
步驟5:評(píng)估
步驟6:微調(diào)調(diào)整
示例:醫(yī)療聊天機(jī)器人
參數(shù)有效的微調(diào)
步驟1:預(yù)處理
步驟2A:常規(guī)微調(diào)
步驟2B:參數(shù)有效的微調(diào)
何時(shí)將SLM與LLMS進(jìn)行推理?
任務(wù)複雜性和精度
資源可用性
延遲和速度
費(fèi)用考慮
部署和可擴(kuò)展性
部署SLM之前的注意事項(xiàng)
資源約束
潛伏期和性能
兼容性和集成
安全和隱私
維護(hù)和更新
MediaPipe和WebAssembly用於在邊緣設(shè)備上部署SLM
Mediapipe
WebAssembly
LLMS今天如何部署?
與通信平臺(tái)集成
基於雲(yún)的微服務(wù)
數(shù)據(jù)管理
Pub/Sub Messaging Systems
Integration with Analytics and Data Sources
限制
How Can SLMs Function Well with Fewer Parameters?
Training Methods
Domain-Specific Adaptation
Effectiveness Factors
結(jié)論
常見(jiàn)問(wèn)題
首頁(yè) 科技週邊 人工智慧 小語(yǔ)言模型的微調(diào)和推斷

小語(yǔ)言模型的微調(diào)和推斷

Apr 13, 2025 am 10:15 AM

介紹

想像一下,您正在建立醫(yī)療聊天機(jī)器人,龐大的,渴望資源的大型語(yǔ)言模型(LLMS)似乎滿足您的需求。那是像Gemma這樣的小語(yǔ)言模型(SLM)發(fā)揮作用的地方。在本文中,我們探討了SLM如何成為專注,高效的AI任務(wù)的完美解決方案。通過(guò)了解使Gemma獨(dú)特的原因到對(duì)Healthcare等專業(yè)領(lǐng)域進(jìn)行微調(diào)的獨(dú)特之處,我們將指導(dǎo)您完成整個(gè)過(guò)程。您將了解微調(diào)不僅如何提高性能,還可以削減成本並降低延遲,從而使SLM在AI景觀中變成遊戲改變者。無(wú)論您是在預(yù)算緊張還是在邊緣設(shè)備上部署,本文都會(huì)向您展示如何充分利用SLM,以滿足您的特定需求。本文基於最近的演講,在Datahack Summit 2024中,尼克希爾·拉娜(Nikhil Rana)和喬納爾(Joinal)在吉瑪(Gemma)等小語(yǔ)言模型(如Gemma)的微調(diào)和推理中提供了有關(guān)。

學(xué)習(xí)成果

  • 了解小語(yǔ)言模型(SLM)等小語(yǔ)言模型(LLMS)的優(yōu)勢(shì)。
  • 了解微調(diào)SLM對(duì)特定領(lǐng)域的任務(wù)和提高性能的重要性。
  • 通過(guò)示例和關(guān)鍵注意事項(xiàng)探索微調(diào)SLM的分步過(guò)程。
  • 發(fā)現(xiàn)用於部署SLM並減少邊緣設(shè)備延遲的最佳實(shí)踐。
  • 確定微調(diào)SLM中的共同挑戰(zhàn)以及如何有效克服它們。

目錄

  • 介紹
  • 什麼是小語(yǔ)言模型?
  • SLM的優(yōu)點(diǎn)超過(guò)LLM
  • 什麼是傑瑪?
  • 不同版本的Gemma
  • 什麼是微調(diào)?
  • 微調(diào)過(guò)程
  • 何時(shí)將SLM與LLMS進(jìn)行推理?
  • 部署SLM之前的注意事項(xiàng)
  • MediaPipe和WebAssembly用於在邊緣設(shè)備上部署SLM
  • LLMS今天如何部署?
  • SLM如何使用較少的參數(shù)運(yùn)作?
  • 結(jié)論
  • 常見(jiàn)問(wèn)題

什麼是小語(yǔ)言模型?

小型語(yǔ)言模型是更廣為人知的大型語(yǔ)言模型的縮放版本。與大型數(shù)據(jù)集訓(xùn)練並需要大量計(jì)算資源的較大對(duì)應(yīng)物不同,SLM的設(shè)計(jì)更輕,更有效。它們針對(duì)特定的任務(wù)和環(huán)境,其中速度,內(nèi)存和處理能力至關(guān)重要。

SLM提供了幾個(gè)優(yōu)勢(shì),包括部署時(shí)延遲和成本降低,尤其是在邊緣計(jì)算方案中。儘管它們可能不誇耀LLM的廣泛常識(shí),但可以通過(guò)特定於域的數(shù)據(jù)進(jìn)行微調(diào)以精確地執(zhí)行專業(yè)任務(wù)。這使它們非常適合快速,資源效率響應(yīng)至關(guān)重要的方案,例如在移動(dòng)應(yīng)用程序或低功率設(shè)備中。

SLM在性能和效率之間取得了平衡,使其成為希望優(yōu)化其AI驅(qū)動(dòng)的解決方案的企業(yè)或開(kāi)發(fā)人員的強(qiáng)大替代方案,而無(wú)需與LLMS相關(guān)的大型開(kāi)銷(xiāo)。

小語(yǔ)言模型的微調(diào)和推斷

SLM的優(yōu)點(diǎn)超過(guò)LLM

小型語(yǔ)言模型比較大的同行,大型語(yǔ)言模型具有多種優(yōu)勢(shì),尤其是在效率,精度和成本效益方面。

量身定制的效率和精度

SLM是專門(mén)為針對(duì)目標(biāo)的,通常是利基任務(wù)而設(shè)計(jì)的,使它們能夠達(dá)到通用LLM可能不容易到達(dá)的精確度。通過(guò)專注於特定的域或應(yīng)用程序,SLM能夠在沒(méi)有不必要的廣義知識(shí)開(kāi)銷(xiāo)的情況下產(chǎn)生高度相關(guān)的輸出。

速度

由於其尺寸較小,SLM的處理延遲較低,非常適合實(shí)時(shí)應(yīng)用程序,例如AI驅(qū)動(dòng)的客戶服務(wù),數(shù)據(jù)分析或快速響應(yīng)至關(guān)重要的對(duì)話代理。減少的處理時(shí)間可以增強(qiáng)用戶體驗(yàn),尤其是在資源受限的環(huán)境(例如移動(dòng)或嵌入式系統(tǒng))中。

成本

SLM的計(jì)算複雜性降低導(dǎo)致財(cái)務(wù)成本降低。培訓(xùn)和部署的資源密集程度較低,使SLM更實(shí)惠。這是小型企業(yè)或特定用例的理想選擇。 SLM需要更少的培訓(xùn)數(shù)據(jù)和基礎(chǔ)設(shè)施,為更輕的應(yīng)用提供了具有成本效益的LLMS替代方法。

什麼是傑瑪?

Gemma是小型語(yǔ)言模型(SLM)的重要例子,旨在以精確和效率來(lái)解決特定用例。它是語(yǔ)言模型景觀中量身定制的解決方案,旨在利用較小模型的優(yōu)勢(shì),同時(shí)保持目標(biāo)應(yīng)用程序中的高性能。

Gemma以其在不同版本上的多功能性而聞名,每個(gè)版本都針對(duì)各種任務(wù)進(jìn)行了優(yōu)化。例如,Gemma的不同版本迎合從客戶支持到更專業(yè)的醫(yī)療或法律領(lǐng)域等更專業(yè)的需求。這些版本完善了它們適合各自應(yīng)用領(lǐng)域的功能,以確保模型提供相關(guān)和準(zhǔn)確的響應(yīng)。

Gemma的輕巧和高效的體系結(jié)構(gòu)在性能和資源使用之間取得了平衡,使其適合具有有限計(jì)算能力的環(huán)境。它的預(yù)培訓(xùn)模型為微調(diào)提供了強(qiáng)大的基礎(chǔ),可以根據(jù)特定的行業(yè)需求或利基應(yīng)用程序進(jìn)行自定義。本質(zhì)上,Gemma展示了小型語(yǔ)言模型如何在具有成本效益和資源效率的同時(shí)提供專業(yè)的高質(zhì)量結(jié)果。無(wú)論是用於特定任務(wù)的廣泛使用還是量身定制,在各種情況下,Gemma都是有價(jià)值的工具。

不同版本的Gemma

Gemma家族包括一系列基於Gemini模型相同的研究和技術(shù)建立的一系列輕巧,最先進(jìn)的模型。 Gemma的每個(gè)版本都解決了特定的需求和應(yīng)用程序,提供了從文本生成到多模式功能的功能。

Gemma 1家庭

Gemma 1家族代表了Gemma生態(tài)系統(tǒng)中最初的模型套件,旨在迎合廣泛的文本處理和生成任務(wù)。這些模型是Gemma系列的基礎(chǔ),提供了各種功能以滿足不同的用戶需求。家庭按其大小和專業(yè)化對(duì)模型進(jìn)行分類(lèi),每個(gè)模型都為各種應(yīng)用帶來(lái)了獨(dú)特的優(yōu)勢(shì)。

小語(yǔ)言模型的微調(diào)和推斷

Gemma 2b和2b-it

  • Gemma 2B :此模型是原始Gemma 1系列的一部分,旨在處理具有強(qiáng)大性能的各種基於文本的任務(wù)。它的通用功能使其成為應(yīng)用程序創(chuàng)建,自然語(yǔ)言理解和其他常見(jiàn)文本處理需求等應(yīng)用程序的多功能選擇。
  • Gemma 2b-it :2B模型的變體,專門(mén)針對(duì)與信息技術(shù)相關(guān)的上下文量身定制。該模型為以IT為中心的應(yīng)用程序提供了增強(qiáng)的性能,例如生成技術(shù)文檔,代碼段和與IT相關(guān)的查詢,非常適合在與技術(shù)相關(guān)領(lǐng)域中需要專業(yè)支持的用戶。

Gemma 7b和7b-it

  • Gemma 7b :7b型號(hào)代表了Gemma 1家族中更強(qiáng)大的版本。它增加的容量使其能夠有效地處理更複雜和多樣化的文本生成任務(wù)。它設(shè)計(jì)用於要求更深入了解上下文和更細(xì)微的文本輸出的應(yīng)用程序,使其適合於復(fù)雜的內(nèi)容創(chuàng)建和詳細(xì)的自然語(yǔ)言處理。
  • Gemma 7b-it :建立在7B型號(hào)的功能上,為特定於IT的應(yīng)用進(jìn)行了優(yōu)化。它為技術(shù)內(nèi)容生成和復(fù)雜的代碼幫助等任務(wù)提供了高級(jí)支持,為需要高性能工具以及與編程相關(guān)的挑戰(zhàn)提供了迎合用戶。

代碼Gemma

Code Gemma模型是Gemma家族的專業(yè)版本,專門(mén)用於協(xié)助編程任務(wù)。他們專注於代碼完成和代碼生成,在有效的代碼處理至關(guān)重要的環(huán)境中提供寶貴的支持。這些模型經(jīng)過(guò)優(yōu)化,以提高綜合開(kāi)發(fā)環(huán)境(IDE)和編碼助理的生產(chǎn)率。

代碼Gemma 2b

  • 代碼GEMMA 2B是針對(duì)較小規(guī)模的代碼生成任務(wù)量身定制的。它是代碼段相對(duì)可管理的環(huán)境的理想選擇。該模型為常規(guī)編碼需求提供了堅(jiān)實(shí)的性能,例如完成簡(jiǎn)單的代碼片段或提供基本的代碼建議。

代碼Gemma 7b和7b-it

  • Code Gemma 7b :此模型更高級(jí),適合處理更複雜的編碼任務(wù)。它提供了複雜的代碼完成功能,並且能夠處理複雜的代碼生成要求。 7B模型的能力提高使其對(duì)更苛刻的編碼方案有效,從而提高了準(zhǔn)確性和上下文感知的建議。
  • 代碼GEMMA 7B-IT :建立在7B模型的功能上,7B-IT變體專門(mén)針對(duì)IT相關(guān)的編程任務(wù)進(jìn)行了優(yōu)化。它在IT和技術(shù)相關(guān)項(xiàng)目的上下文中生成和完成代碼方面表現(xiàn)出色。該模型提供了針對(duì)複雜的IT環(huán)境量身定制的高級(jí)功能,並支持了諸如詳細(xì)的代碼幫助和技術(shù)內(nèi)容生成之類(lèi)的任務(wù)。

經(jīng)常出現(xiàn)的寶石

經(jīng)常出現(xiàn)的Gemma模型適合需要快速有效的文本生成的應(yīng)用。他們提供低潛伏期和高速性能,使其非常適合實(shí)時(shí)處理至關(guān)重要的場(chǎng)景。

  • 經(jīng)過(guò)重複的Gemma 2b為動(dòng)態(tài)文本生成任務(wù)提供了強(qiáng)大的功能。其優(yōu)化的體系結(jié)構(gòu)可確??焖夙憫?yīng)和最小的延遲,使其非常適合實(shí)時(shí)聊天機(jī)器人,實(shí)時(shí)內(nèi)容生成和其他快速文本輸出的情況。該模型可以有效地處理大批量的請(qǐng)求,從而提供高效且可靠的性能。
  • 經(jīng)常性的Gemma 2B-IT建立在2B模型的功能基礎(chǔ)上,但專門(mén)針對(duì)信息技術(shù)環(huán)境量身定制。它在生成與IT任務(wù)和內(nèi)容相關(guān)的文本和內(nèi)容較低的內(nèi)容方面表現(xiàn)出色。 2B-IT變體對(duì)於以IT為註重的應(yīng)用程序(例如技術(shù)支持聊天機(jī)器人和動(dòng)態(tài)IT文檔)特別有用,在該應(yīng)用程序中,速度和特定於域的相關(guān)性都是至關(guān)重要的。

pal

Paligemma代表了Gemma家族中作為第一個(gè)多模式模型的重大進(jìn)步。該模型同時(shí)集成了視覺(jué)和文本輸入,提供了處理一系列多模式任務(wù)的多功能功能。

Paligemma 2.9b

該模型可在頂點(diǎn)模型花園中提供指令和混合調(diào)整版本,在處理圖像和文本方面擅長(zhǎng)。它在多模式任務(wù)中提供了最高的性能,例如視覺(jué)問(wèn)題回答,圖像字幕和圖像檢測(cè)。通過(guò)集成圖像和文本輸入,它基於視覺(jué)數(shù)據(jù)生成詳細(xì)的文本響應(yīng)。這種功能使其對(duì)於需要視覺(jué)和文本理解的應(yīng)用程序非常有效。

Gemma 2和相關(guān)工具

Gemma 2代表了語(yǔ)言模型的演變的重大飛躍,將高級(jí)性能與增強(qiáng)的安全性和透明度功能相結(jié)合。這是對(duì)Gemma 2及其相關(guān)工具的詳細(xì)介紹:

小語(yǔ)言模型的微調(diào)和推斷

Gemma 2

  • 性能:27b Gemma 2模型在其尺寸類(lèi)別上出色,提供了出色的性能,可與規(guī)模上的模型相關(guān)起更大。這使其成為一系列應(yīng)用程序的強(qiáng)大工具,為模型的尺寸兩倍提供競(jìng)爭(zhēng)性替代品。
  • 9b Gemma 2 :這種變體以其出色的性能而聞名,超過(guò)了Llama 3 8B等其他模型,並在其類(lèi)別中有效地與開(kāi)放模型有效競(jìng)爭(zhēng)。
  • 2B Gemma 2 :以其出色的對(duì)話能力而聞名,2B模型在聊天機(jī)器人體育館上的表現(xiàn)優(yōu)於GPT-3.5模型,確立了自己的領(lǐng)先選擇。

相關(guān)工具

    • 功能:ShieldGemma專門(mén)研究教學(xué)調(diào)整模型,以評(píng)估和確保文本提示輸入和生成的響應(yīng)的安全性。
    • 目的:它評(píng)估了遵守預(yù)定義的安全政策,這使其成為內(nèi)容適度和安全性至關(guān)重要的應(yīng)用的必不可少的工具。
  • 傑瑪範(fàn)圍
    • 功能:Gemma範(fàn)圍是一種研究工具,旨在分析和了解Gemma 2生成AI模型的內(nèi)部工作。
    • 目的:它為模型的機(jī)制和行為提供了見(jiàn)解,支持研究人員和開(kāi)發(fā)人員精煉和優(yōu)化模型。

訪問(wèn)點(diǎn)

  • Google AI Studio :一個(gè)平臺(tái),可訪問(wèn)包括Gemma 2在內(nèi)的各種AI模型和工具,用於開(kāi)發(fā)和實(shí)驗(yàn)。
  • Kaggle :一個(gè)著名的數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)社區(qū)平臺(tái),在該平臺(tái)上,Gemma 2模型可用於研究和競(jìng)爭(zhēng)。
  • 擁抱面:包括Gemma 2在內(nèi)的機(jī)器學(xué)習(xí)模型的流行存儲(chǔ)庫(kù),用戶可以在其中下載和利用這些模型。
  • Vertex AI :Google雲(yún)服務(wù),可訪問(wèn)Gemma 2和其他AI工具,用於可擴(kuò)展模型部署和管理。

Gemma 2在性能,安全性和透明度方面的進(jìn)步,結(jié)合其相關(guān)工具,將其定位為各種AI應(yīng)用程序和研究努力的多功能和強(qiáng)大資源。

什麼是微調(diào)?

微調(diào)是機(jī)器學(xué)習(xí)生命週期的關(guān)鍵步驟,特別是對(duì)於小語(yǔ)言模型(SLM)等模型。它涉及調(diào)整專用數(shù)據(jù)集上的預(yù)訓(xùn)練模型,以提高其針對(duì)特定任務(wù)或域的性能。

微調(diào)建立在預(yù)先訓(xùn)練的模型上,該模型已經(jīng)從廣泛的數(shù)據(jù)集中學(xué)習(xí)了一般功能。與其從頭開(kāi)始訓(xùn)練模型,該模型在計(jì)算上昂貴且耗時(shí),微調(diào)會(huì)完善此模型,以使其更適合特定用例。核心思想是調(diào)整模型的現(xiàn)有知識(shí),以更好地處理特定類(lèi)型的數(shù)據(jù)或任務(wù)。

微調(diào)SLM的原因

  • 特定於領(lǐng)域的知識(shí):預(yù)先訓(xùn)練的模型可能是普遍的,在利基領(lǐng)域缺乏專業(yè)知識(shí)。微調(diào)使該模型可以合併特定於領(lǐng)域的語(yǔ)言,術(shù)語(yǔ)和上下文,從而使其對(duì)醫(yī)療聊天機(jī)器人或法律文檔分析等專業(yè)應(yīng)用程序更有效。
  • 提高一致性:即使是高性能的模型也可以在其產(chǎn)出中表現(xiàn)出差異。微調(diào)有助於穩(wěn)定模型的響應(yīng),確保其始終與特定應(yīng)用程序的所需輸出或標(biāo)準(zhǔn)保持一致。
  • 減少幻覺(jué):大型模型有時(shí)會(huì)產(chǎn)生實(shí)際上不正確或無(wú)關(guān)緊要的響應(yīng)。微調(diào)通過(guò)完善模型的理解並使其產(chǎn)出更可靠和與特定環(huán)境相關(guān),從而有助於減輕這些問(wèn)題。
  • 降低延遲和成本:針對(duì)特定任務(wù)進(jìn)行微調(diào)的較小模型或SLMS比較大的通用模型更有效地運(yùn)行。該效率轉(zhuǎn)化為降低計(jì)算成本和更快的處理時(shí)間,使其更適合實(shí)時(shí)應(yīng)用程序和成本敏感的環(huán)境。

微調(diào)過(guò)程

微調(diào)是機(jī)器學(xué)習(xí)和自然語(yǔ)言處理的至關(guān)重要技術(shù),它可以調(diào)整預(yù)訓(xùn)練的模型,以更好地在特定任務(wù)或數(shù)據(jù)集上執(zhí)行。這是微調(diào)過(guò)程的詳細(xì)概述:

小語(yǔ)言模型的微調(diào)和推斷

步驟1:選擇正確的預(yù)訓(xùn)練模型

微調(diào)過(guò)程的第一步是選擇作為基礎(chǔ)的預(yù)訓(xùn)練模型。該模型已經(jīng)在大型多樣的數(shù)據(jù)集上進(jìn)行了培訓(xùn),從而捕獲了通用語(yǔ)言模式和知識(shí)。模型的選擇取決於手頭的任務(wù)以及模型的初始培訓(xùn)與所需應(yīng)用的一致性。例如,如果您正在使用醫(yī)療聊天機(jī)器人,則可以選擇已在廣泛文本上進(jìn)行培訓(xùn)的模型,但專門(mén)針對(duì)醫(yī)療環(huán)境進(jìn)行了微調(diào)。

步驟2:數(shù)據(jù)選擇和準(zhǔn)備

數(shù)據(jù)在微調(diào)中起著至關(guān)重要的作用。用於微調(diào)的數(shù)據(jù)集應(yīng)與特定域或應(yīng)用程序的目標(biāo)任務(wù)和代表有關(guān)。例如,醫(yī)療聊天機(jī)器人將需要包含醫(yī)療對(duì)話,患者查詢和與醫(yī)療保健相關(guān)的信息的數(shù)據(jù)集。

  • 數(shù)據(jù)清潔:清潔和預(yù)處理數(shù)據(jù),以刪除可能對(duì)微調(diào)過(guò)程產(chǎn)生負(fù)面影響的任何無(wú)關(guān)或嘈雜的內(nèi)容。
  • 平衡數(shù)據(jù)集:為避免過(guò)度擬合,請(qǐng)確保數(shù)據(jù)集平衡和多樣化,足以代表任務(wù)的各個(gè)方面。這包括為每個(gè)類(lèi)別或輸入類(lèi)型提供足夠的示例。

步驟3:高參數(shù)調(diào)整

微調(diào)涉及調(diào)整幾個(gè)超參數(shù)以優(yōu)化模型的性能:

  • 學(xué)習(xí)率:學(xué)習(xí)率決定了每次迭代的模型權(quán)重調(diào)整多少。太高的學(xué)習(xí)率會(huì)導(dǎo)致模型過(guò)快地收斂到次優(yōu)的解決方案,而低速度可以減慢訓(xùn)練過(guò)程。
  • 批次尺寸:批量大小是指一個(gè)迭代中使用的訓(xùn)練示例數(shù)量。較大的批量大小可以加快訓(xùn)練過(guò)程,但可能需要更多的計(jì)算資源。
  • 時(shí)代的數(shù)量:一個(gè)時(shí)代是整個(gè)培訓(xùn)數(shù)據(jù)集的完整通行證。時(shí)期的數(shù)量會(huì)影響模型的訓(xùn)練程度。太少的時(shí)期可能導(dǎo)致擬合不足,而太多的時(shí)代可能導(dǎo)致過(guò)度擬合。

步驟4:訓(xùn)練模型

在訓(xùn)練階段,該模型暴露於微調(diào)數(shù)據(jù)集。訓(xùn)練過(guò)程涉及根據(jù)預(yù)測(cè)輸出和實(shí)際標(biāo)籤之間的誤差調(diào)整模型權(quán)重。該階段是該模型將其一般知識(shí)調(diào)整為微調(diào)任務(wù)的細(xì)節(jié)的地方。

  • 損耗函數(shù):損耗函數(shù)衡量模型的預(yù)測(cè)符合實(shí)際值的符合程度。常見(jiàn)的損失功能包括用於分類(lèi)任務(wù)的跨凝結(jié)功能以及回歸任務(wù)的平方誤差。
  • 優(yōu)化算法:使用優(yōu)化算法,例如ADAM或SGD(隨機(jī)梯度下降),通過(guò)更新模型權(quán)重來(lái)最大程度地減少損失函數(shù)。

步驟5:評(píng)估

微調(diào)後,對(duì)模型進(jìn)行評(píng)估以評(píng)估其在目標(biāo)任務(wù)上的性能。這涉及在單獨(dú)的驗(yàn)證數(shù)據(jù)集上測(cè)試模型,以確保其性能良好並有效地概括為新的,看不見(jiàn)的數(shù)據(jù)。

  • 指標(biāo):評(píng)估指標(biāo)因任務(wù)而異。使用指標(biāo),例如精度,精度,召回和F1得分來(lái)進(jìn)行分類(lèi)任務(wù)。採(cǎi)用BLEU分?jǐn)?shù)或其他相關(guān)措施來(lái)發(fā)電。

步驟6:微調(diào)調(diào)整

根據(jù)評(píng)估結(jié)果,可能需要進(jìn)一步調(diào)整。這可以包括與不同的超參數(shù)的其他微調(diào),調(diào)整培訓(xùn)數(shù)據(jù)集或合併技術(shù)來(lái)處理過(guò)度擬合或不合適的技術(shù)。

示例:醫(yī)療聊天機(jī)器人

對(duì)於醫(yī)療聊天機(jī)器人,對(duì)一般預(yù)訓(xùn)練的語(yǔ)言模型進(jìn)行微調(diào)涉及在醫(yī)療對(duì)話數(shù)據(jù)集上培訓(xùn)它,重點(diǎn)關(guān)注醫(yī)學(xué)術(shù)語(yǔ),患者互動(dòng)模式和相關(guān)的健康信息。此過(guò)程可確保聊天機(jī)器人了解醫(yī)療環(huán)境,並可以提供準(zhǔn)確的域特異性響應(yīng)。

小語(yǔ)言模型的微調(diào)和推斷

參數(shù)有效的微調(diào)

參數(shù)有效的微調(diào)是一種精緻的方法,可以使用最小的計(jì)算和資源開(kāi)銷(xiāo)來(lái)調(diào)整預(yù)訓(xùn)練的語(yǔ)言模型(LLMS)。該方法著重於通過(guò)減少需要更新的參數(shù)量來(lái)優(yōu)化微調(diào)過(guò)程,從而使其更具成本效益和高效。這是參數(shù)有效的微調(diào)過(guò)程的細(xì)分:

小語(yǔ)言模型的微調(diào)和推斷

步驟1:預(yù)處理

旅程始於在大型未標(biāo)記的文本語(yǔ)料庫(kù)上進(jìn)行語(yǔ)言模型的預(yù)處理。這個(gè)無(wú)監(jiān)督的預(yù)處理階段使該模型對(duì)語(yǔ)言有廣泛的了解,從而使其能夠在各種一般任務(wù)上表現(xiàn)良好。在此階段,該模型從大量數(shù)據(jù)中學(xué)習(xí),開(kāi)發(fā)了隨後的微調(diào)所需的基礎(chǔ)技能。

步驟2A:常規(guī)微調(diào)

在傳統(tǒng)的微調(diào)中,預(yù)先培訓(xùn)的LLM進(jìn)一步培訓(xùn)了一個(gè)標(biāo)有較小的目標(biāo)數(shù)據(jù)集。此步驟涉及根據(jù)特定任務(wù)或域更新所有原始模型參數(shù)。儘管這種方法可以導(dǎo)致高度專業(yè)的模型,但通常是資源密集型和昂貴的,因?yàn)樗枰匾挠?jì)算能力來(lái)調(diào)整大量參數(shù)。

步驟2B:參數(shù)有效的微調(diào)

參數(shù)有效的微型調(diào)整僅通過(guò)專注於模型參數(shù)的一個(gè)子集,提供了更簡(jiǎn)化的替代方案。在這種方法中:

  • 原始模型參數(shù)保持冷凍:預(yù)訓(xùn)練模型的核心參數(shù)保持不變。這種方法利用原始模型中編碼的同時(shí)保存資源的既有知識(shí)。
  • 新參數(shù)的添加:該技術(shù)沒(méi)有更新整個(gè)模型,而是添加一組專門(mén)針對(duì)微調(diào)任務(wù)量身定制的新參數(shù)。
  • 微調(diào)新參數(shù):在微調(diào)過(guò)程中,只有這些新添加的參數(shù)才能調(diào)整。這導(dǎo)致了一種更具資源效率的方法,因?yàn)楦律倭繀?shù)的計(jì)算量較差。

這種方法大大減少了與微調(diào)相關(guān)的計(jì)算負(fù)擔(dān)和財(cái)務(wù)成本,這使其成為資源有限的應(yīng)用程序或僅需要較小改編的任務(wù)的有吸引??力的選擇。

何時(shí)將SLM與LLMS進(jìn)行推理?

在小語(yǔ)言模型(SLM)和大語(yǔ)言模型(LLMS)的推理之間決定各種因素,包括各種因素,包括績(jī)效要求,資源限制和應(yīng)用程序細(xì)節(jié)。這是一個(gè)詳細(xì)的故障,可幫助確定最適合您需求的模型:

任務(wù)複雜性和精度

  • SLM :非常適合需要高效和精確度但不涉及復(fù)雜或高度細(xì)微的語(yǔ)言理解的任務(wù)。 SLM在特定定義明確的任務(wù)中表現(xiàn)出色,例如特定於域的查詢或常規(guī)數(shù)據(jù)處理。例如,如果您需要一個(gè)模型來(lái)處理利基行業(yè)的客戶支持門(mén)票,SLM可以在沒(méi)有不必要的計(jì)算開(kāi)銷(xiāo)的情況下提供快速準(zhǔn)確的響應(yīng)。
  • LLMS :最適合涉及復(fù)雜語(yǔ)言生成,細(xì)微差別理解或創(chuàng)造創(chuàng)造性內(nèi)容的任務(wù)。 LLM有能力處理廣泛的主題並提供詳細(xì)的,上下文意識(shí)的響應(yīng)。對(duì)於諸如生成全面的研究摘要或參與復(fù)雜的對(duì)話AI之類(lèi)的任務(wù),LLM由於其較大的模型尺寸和更廣泛的培訓(xùn)而提供了出色的性能。

資源可用性

  • SLM :當(dāng)計(jì)算資源受到限制時(shí)使用SLM。它們較小的尺寸轉(zhuǎn)化為較低的內(nèi)存使用和更快的處理時(shí)間,使其適合至關(guān)重要的環(huán)境。例如,在邊緣設(shè)備或移動(dòng)平臺(tái)上部署SLM可確保應(yīng)用程序保持響應(yīng)能力和資源效率。
  • LLMS :當(dāng)資源充足時(shí)選擇LLMS,任務(wù)證明其使用合理。儘管LLM需要明顯的計(jì)算能力和內(nèi)存,但它們?yōu)檠}雜的任務(wù)提供了更強(qiáng)大的性能。例如,如果您正在運(yùn)行大型文本分析或多轉(zhuǎn)交談系統(tǒng),LLMS可以利用其廣泛的功能來(lái)提供高質(zhì)量的輸出。

延遲和速度

  • SLM :當(dāng)?shù)蜐摲诤涂焖夙憫?yīng)時(shí)間至關(guān)重要時(shí),SLMS是首選的選擇。他們簡(jiǎn)化的體系結(jié)構(gòu)允許快速推斷,使其非常適合實(shí)時(shí)應(yīng)用程序。例如,聊天機(jī)器人可在實(shí)時(shí)地進(jìn)行大量查詢的聊天機(jī)器人受益於SLM的低潛伏期。
  • LLMS :儘管LLMS由於其大小和復(fù)雜性而可能具有較高的延遲,但它們適用於與輸出的深度和質(zhì)量相比,響應(yīng)時(shí)間不太重要的應(yīng)用。對(duì)於諸如深入內(nèi)容生成或詳細(xì)語(yǔ)言分析之類(lèi)的應(yīng)用程序,使用LLM的好處大於響應(yīng)時(shí)間較慢的時(shí)間。

費(fèi)用考慮

  • SLM :具有預(yù)算限制的方案的成本效益。與LLM相比,培訓(xùn)和部署SLM通常便宜。它們?yōu)闊o(wú)需高度計(jì)算能力的任務(wù)提供了一種經(jīng)濟(jì)高效的解決方案。
  • LLMS :由於其規(guī)模和所需的計(jì)算資源而更加昂貴。但是,對(duì)於需要廣泛的語(yǔ)言理解和發(fā)電能力的任務(wù)是有道理的。對(duì)於產(chǎn)出質(zhì)量至關(guān)重要的應(yīng)用程序,預(yù)算允許,投資LLM可以產(chǎn)生可觀的回報(bào)。

部署和可擴(kuò)展性

  • SLM :適合在資源有限(包括邊緣設(shè)備和移動(dòng)應(yīng)用程序)的環(huán)境中部署的理想選擇。它們的較小的佔(zhàn)地面積可確保它們可以輕鬆地集成到具有有限的處理能力的各種平臺(tái)中。
  • LLMS :適用於需要可擴(kuò)展性的大規(guī)模部署。當(dāng)有足夠的資源可用時(shí),他們可以有效地處理大量數(shù)據(jù)和復(fù)雜的查詢。例如,需要大量數(shù)據(jù)處理和高通量的企業(yè)級(jí)應(yīng)用程序非常適合LLM。

部署SLM之前的注意事項(xiàng)

準(zhǔn)備部署小語(yǔ)言模型(SLM)時(shí),應(yīng)考慮幾個(gè)關(guān)鍵注意事項(xiàng),以確保成功集成和操作。其中包括:

資源約束

  • 內(nèi)存和處理能力:SLM的設(shè)計(jì)為輕量級(jí),但是評(píng)估目標(biāo)環(huán)境的內(nèi)存和處理能力至關(guān)重要。確保部署平臺(tái)具有足夠的資源來(lái)處理模型的需求,即使與較大的模型相比,SLM的要求較低。
  • 功耗:對(duì)於邊緣設(shè)備,功率效率至關(guān)重要。評(píng)估模型的功耗,以避免過(guò)度的能源使用,這可能是電池供電或低功率環(huán)境的關(guān)注點(diǎn)。

潛伏期和性能

  • 響應(yīng)時(shí)間:由於對(duì)SLM進(jìn)行了優(yōu)化以更快地推斷,請(qǐng)驗(yàn)證部署環(huán)境是否支持低延遲操作。性能可能會(huì)根據(jù)硬件而異,因此在現(xiàn)實(shí)情況下測(cè)試模型對(duì)於確保達(dá)到績(jī)效期望很重要。
  • 可伸縮性:考慮部署解決方案的可伸縮性。確保系統(tǒng)可以隨著用戶或請(qǐng)求的增加而有效地處理不同的負(fù)載並有效地?cái)U(kuò)展。

兼容性和集成

  • 平臺(tái)兼容性:確保部署平臺(tái)與模型格式和所使用的技術(shù)堆棧兼容。這包括檢查與操作系統(tǒng),編程環(huán)境以及集成所需的任何其他軟件的兼容性。
  • 與現(xiàn)有系統(tǒng)集成:評(píng)估SLM將如何與現(xiàn)有應(yīng)用程序或服務(wù)集成。無(wú)縫集成對(duì)於確保模型在更廣泛的系統(tǒng)體系結(jié)構(gòu)中有效發(fā)揮作用至關(guān)重要。

安全和隱私

  • 數(shù)據(jù)安全性:評(píng)估安全措施,以保護(hù)SLM處理的敏感數(shù)據(jù)。確保使用數(shù)據(jù)加密和安全通信協(xié)議來(lái)保護(hù)信息。
  • 隱私問(wèn)題:考慮部署如何處理用戶數(shù)據(jù)並符合隱私法規(guī)。確保部署遵守?cái)?shù)據(jù)保護(hù)標(biāo)準(zhǔn)並保持用戶機(jī)密性。

維護(hù)和更新

  • 模型維護(hù):計(jì)劃定期維護(hù)和SLM的更新。這包括監(jiān)視模型性能,解決潛在問(wèn)題以及根據(jù)需要更新模型以適應(yīng)數(shù)據(jù)或需求的變化。
  • 版本管理:實(shí)施版本控制和管理實(shí)踐來(lái)處理模型更新並確保不同模型版本之間的平穩(wěn)過(guò)渡。

MediaPipe和WebAssembly用於在邊緣設(shè)備上部署SLM

這是兩種促進(jìn)SLM在邊緣設(shè)備上部署的技術(shù),每種技術(shù)都具有不同的優(yōu)勢(shì):

Mediapipe

  • 實(shí)時(shí)性能:MediaPipe專為實(shí)時(shí)處理而設(shè)計(jì),非常適合部署需要快速推斷邊緣設(shè)備的SLM。它提供有效的管道來(lái)處理數(shù)據(jù)並集成各種機(jī)器學(xué)習(xí)模型。
  • 模塊化體系結(jié)構(gòu):MediaPipe的模塊化體系結(jié)構(gòu)可以輕鬆地集成SLM與其他組件和預(yù)處理步驟。這種靈活性可以創(chuàng)建針對(duì)特定用例的定制解決方案。
  • 跨平臺(tái)支持:MediaPipe支持各種平臺(tái),包括移動(dòng)和Web環(huán)境。此跨平臺(tái)功能可確??梢栽诓煌脑O(shè)備和操作系統(tǒng)上始終部署SLM。

WebAssembly

  • 性能和可移植性:WebAssembly(WASM)在Web環(huán)境中提供近乎本地的性能,使其非常適合部署需要在瀏覽器中有效運(yùn)行的SLMS。它允許執(zhí)行用C和Rust等語(yǔ)言編寫(xiě)的代碼,並以最少的開(kāi)銷(xiāo)。
  • 安全與隔離:WebSembly在安全的沙盒環(huán)境中運(yùn)行,從而增強(qiáng)了SLM部署的安全性和隔離。當(dāng)處理敏感數(shù)據(jù)或與Web應(yīng)用程序集成時(shí),這一點(diǎn)尤其重要。
  • 兼容性:WebAssembly與現(xiàn)代瀏覽器兼容,可用於在廣泛的基於Web的應(yīng)用程序中部署SLM。這種廣泛的兼容性可確保用戶可以輕鬆地訪問(wèn)和利用SLM的不同平臺(tái)。

LLMS今天如何部署?

大型語(yǔ)言模型(LLM)的部署已經(jīng)大大發(fā)展,利用高級(jí)雲(yún)技術(shù),微服務(wù)和集成框架來(lái)增強(qiáng)其性能和可訪問(wèn)性。這種現(xiàn)代方法可確保LLM有效地集成到各種平臺(tái)和服務(wù)中,從而提供無(wú)縫的用戶體驗(yàn)和強(qiáng)大的功能。

小語(yǔ)言模型的微調(diào)和推斷

與通信平臺(tái)集成

與通信平臺(tái)集成是部署LLM的關(guān)鍵方面。這些模型嵌入了廣泛使用的通信工具中,例如Slack,Discord和Google Chat。通過(guò)與這些平臺(tái)集成,LLM可以通過(guò)熟悉的聊天接口直接與用戶交互。該設(shè)置允許LLMS實(shí)時(shí)處理和響應(yīng)查詢,並利用其訓(xùn)練有素的知識(shí)來(lái)提供相關(guān)答案。集成過(guò)程涉及基於信道源或機(jī)器人名稱配置命名空間,這有助於將請(qǐng)求路由到適當(dāng)?shù)哪P秃蛿?shù)據(jù)源。

基於雲(yún)的微服務(wù)

基於雲(yún)的微服務(wù)在LLM的部署中起著至關(guān)重要的作用。諸如Google Cloud Run之類(lèi)的平臺(tái)用於管理處理各種任務(wù)的微服務(wù),例如解析輸入消息,處理數(shù)據(jù)以及與LLM的接口。每個(gè)服務(wù)都通過(guò) /DISCORD /MESSEASS或 /SLACK /MEAXS,通過(guò)特定端點(diǎn)運(yùn)行,以確保數(shù)據(jù)已標(biāo)準(zhǔn)化並有效地處理。這種方法支持可擴(kuò)展和靈活的部署,可容納不同的溝通渠道和用例。

數(shù)據(jù)管理

In the realm of Data Management, cloud storage solutions and vectorstores are essential. Files and data are uploaded to cloud storage buckets and processed to create contexts for the LLM. Large files are chunked and indexed in vectorstores, allowing the LLM to retrieve and utilize relevant information effectively. Langchain tools facilitate this orchestration by parsing questions, looking up contexts in vectorstores, and managing chat histories, ensuring that responses are accurate and contextually relevant.

Pub/Sub Messaging Systems

Pub/Sub Messaging Systems are employed for handling large volumes of data and tasks. This system enables parallel processing by chunking files and sending them through Pub/Sub channels. This method supports scalable operations and efficient data management. Unstructured APIs and Cloud Run convert documents into formats for LLMs, integrating diverse data types into the model's workflow.

Integration with Analytics and Data Sources

Integration with Analytics and Data Sources further enhances LLM performance. Platforms like Google Cloud and Azure OpenAI provide additional insights and functionalities, refining the LLM's responses and overall performance. Command and storage management systems handle chat histories and file management. They support ongoing training and fine-tuning of LLMs based on real-world interactions and data inputs.

限制

  • Latency: Processing requests through cloud-based LLMs can introduce latency, impacting real-time applications or interactive user experiences.
  • Cost: Continuous usage of cloud resources for LLM deployment can incur significant costs, especially for high-volume or resource-intensive tasks.
  • Privacy Concerns: Transmitting sensitive data to the cloud for processing raises privacy and security concerns, particularly in industries with strict regulations.
  • Dependence on Internet Connectivity: Cloud-based LLM deployments require a stable internet connection, limiting functionality in offline or low-connectivity environments.
  • Scalability Challenges: Scaling cloud-based LLM deployments can be challenging, causing performance issues during peak usage periods.

How Can SLMs Function Well with Fewer Parameters?

SLMs can deliver impressive performance despite having fewer parameters compared to their larger counterparts. Thanks to several effective training methods and strategic adaptations.

Training Methods

  • Transfer Learning : SLMs benefit significantly from transfer learning, a technique where a model is initially trained on a broad dataset to acquire general knowledge. This foundational training allows the SLM to adapt to specific tasks or domains with minimal additional training. By leveraging pre-existing knowledge, SLMs can efficiently tune their capabilities to meet particular needs, enhancing their performance without requiring extensive computational resources.
  • Knowledge Distillation : Knowledge distillation allows SLMs to perform efficiently by transferring insights from a larger model (like an LLM) into a smaller SLM. This process helps SLMs achieve comparable performance while reducing computational needs. It ensures SLMs handle specific tasks effectively without the overhead of larger models.

Domain-Specific Adaptation

SLMs can be tailored to excel in specific domains through targeted training on specialized datasets. This domain-specific adaptation enhances their effectiveness for specialized tasks. For example, SLMs developed by NTG are adept at understanding and analyzing construction Health, Safety, and Environment (HSE) terminology. By focusing on specific industry jargon and requirements, these models achieve higher accuracy and relevance in their analyses compared to more generalized models.

Effectiveness Factors

The effectiveness of an SLM depends on its training, fine-tuning, and task alignment. SLMs can outperform larger models in certain scenarios, but they are not always superior. They excel in specific use cases with advantages like lower latency and reduced costs. For broader or more complex applications, LLMs may still be preferable due to their extensive training and larger parameter sets.

結(jié)論

Fine-tuning and inference with Small Language Models (SLMs) like Gemma show their adaptability and efficiency. By selecting and tailoring pre-trained models, fine-tuning for specific domains, and optimizing deployment, SLMs achieve high performance with lower costs. Techniques such as parameter-efficient methods and domain-specific adaptations make SLMs a strong alternative to larger models. They offer precision, speed, and cost-effectiveness for various tasks. As technology evolves, SLMs will increasingly enhance AI-driven solutions across industries.

常見(jiàn)問(wèn)題

Q 1. What are Small Language Models (SLMs)?

A. SLMs are lightweight AI models designed for specific tasks or domains, offering efficient performance with fewer parameters compared to larger models like LLMs.

Q 2. Why should I consider fine-tuning an SLM?

A. Fine-tuning enhances an SLM's performance for particular tasks, improves consistency, reduces errors, and can make it more cost-effective compared to using larger models.

Q 3. What are the key steps in the fine-tuning process?

A. The fine-tuning process involves selecting the right pre-trained model, preparing domain-specific data, adjusting hyperparameters, and evaluating the model's performance.

Q 4. How does parameter-efficient fine-tuning differ from conventional fine-tuning?

A. Parameter-efficient fine-tuning updates only a small subset of model parameters, which is less resource-intensive than conventional methods that update the entire model.

Q 5. When should I use SLMs instead of LLMs for inference?

A. SLMs are ideal for tasks requiring fast, efficient processing with lower computational costs, while LLMs are better suited for complex tasks requiring extensive general knowledge.

以上是小語(yǔ)言模型的微調(diào)和推斷的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開(kāi)發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺(jué)化網(wǎng)頁(yè)開(kāi)發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

熱門(mén)話題

從採(cǎi)用到優(yōu)勢(shì):2025年塑造企業(yè)LLM的10個(gè)趨勢(shì) 從採(cǎi)用到優(yōu)勢(shì):2025年塑造企業(yè)LLM的10個(gè)趨勢(shì) Jun 20, 2025 am 11:13 AM

以下是重塑企業(yè)AI景觀的十種引人注目的趨勢(shì)。對(duì)LLMSorganizations的財(cái)務(wù)承諾正在大大增加其在LLMS的投資,其中72%的人預(yù)計(jì)他們的支出今年會(huì)增加。目前,近40%a

AI投資者停滯不前? 3條購(gòu)買(mǎi),建造或與人工智能供應(yīng)商合作的戰(zhàn)略途徑 AI投資者停滯不前? 3條購(gòu)買(mǎi),建造或與人工智能供應(yīng)商合作的戰(zhàn)略途徑 Jul 02, 2025 am 11:13 AM

投資蓬勃發(fā)展,但僅資本還不夠。隨著估值的上升和獨(dú)特性的衰落,以AI為中心的風(fēng)險(xiǎn)投資的投資者必須做出關(guān)鍵決定:購(gòu)買(mǎi),建立或合作夥伴才能獲得優(yōu)勢(shì)?這是評(píng)估每個(gè)選項(xiàng)和PR的方法

生成AI的不可阻擋的增長(zhǎng)(AI Outlook第1部分) 生成AI的不可阻擋的增長(zhǎng)(AI Outlook第1部分) Jun 21, 2025 am 11:11 AM

披露:我的公司Tirias Research已向IBM,NVIDIA和本文提到的其他公司諮詢。 Growth驅(qū)動(dòng)力的生成AI採(cǎi)用的激增比最樂(lè)觀的預(yù)測(cè)更具戲劇性。然後,

新蓋洛普?qǐng)?bào)告:AI文化準(zhǔn)備就緒需要新的心態(tài) 新蓋洛普?qǐng)?bào)告:AI文化準(zhǔn)備就緒需要新的心態(tài) Jun 19, 2025 am 11:16 AM

廣泛採(cǎi)用和情感準(zhǔn)備之間的差距揭示了人類(lèi)如何與越來(lái)越多的數(shù)字伴侶互動(dòng)。我們正在進(jìn)入共存階段,算法編織到我們的日?,F(xiàn)場(chǎng)

這些初創(chuàng)公司正在幫助企業(yè)出現(xiàn)在AI搜索摘要中 這些初創(chuàng)公司正在幫助企業(yè)出現(xiàn)在AI搜索摘要中 Jun 20, 2025 am 11:16 AM

由於AI,那些日子是編號(hào)的。根據(jù)一個(gè)螺柱,搜索企業(yè)諸如Travel網(wǎng)站皮劃艇和Edtech Company Chegg之類(lèi)的企業(yè)正在下降,部分原因是60%的網(wǎng)站搜索不會(huì)導(dǎo)致用戶單擊任何鏈接。

AGI和AI超級(jí)智能將嚴(yán)重?fù)糁腥祟?lèi)天花板的假設(shè)障礙 AGI和AI超級(jí)智能將嚴(yán)重?fù)糁腥祟?lèi)天花板的假設(shè)障礙 Jul 04, 2025 am 11:10 AM

讓我們來(lái)談?wù)劇? 對(duì)創(chuàng)新AI突破的分析是我正在進(jìn)行的AI中正在進(jìn)行的福布斯列覆蓋的一部分,包括識(shí)別和解釋各種有影響力的AI複雜性(請(qǐng)參閱此處的鏈接)。 前往Agi和

思科在美國(guó)2025 思科在美國(guó)2025 Jun 19, 2025 am 11:10 AM

讓我們仔細(xì)研究一下我發(fā)現(xiàn)的最重要的東西,以及思科如何以其目前的努力來(lái)進(jìn)一步實(shí)現(xiàn)其野心。

構(gòu)建您的第一個(gè)LLM應(yīng)用程序:初學(xué)者的教程 構(gòu)建您的第一個(gè)LLM應(yīng)用程序:初學(xué)者的教程 Jun 24, 2025 am 10:13 AM

您是否曾經(jīng)嘗試過(guò)建立自己的大型語(yǔ)言模型(LLM)應(yīng)用程序?有沒(méi)有想過(guò)人們?nèi)绾翁岣咦约旱腖LM申請(qǐng)來(lái)提高生產(chǎn)率? LLM應(yīng)用程序已被證明在各個(gè)方面都有用

See all articles