国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
質(zhì)量保證
數(shù)據(jù)集
3。部署
評(píng)估標(biāo)記的數(shù)據(jù)集
首頁 科技週邊 人工智慧 Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

Mar 08, 2025 am 09:35 AM

>我最近找到了一個(gè)AI平臺(tái),該平臺(tái)會(huì)自動(dòng)從任何類型的媒體生成抽認(rèn)卡。由於我喜歡用間距重複記憶的概念,因此我立即上傳了XGBoost教程,並要求AI在其上創(chuàng)建50個(gè)抽認(rèn)卡。

,但我很失望。大多數(shù)問題太容易了,很少有關(guān)於代碼語法。更奇怪的是,有10%的問題是相同的,並且完全不明顯 - “法國(guó)的首都是什麼?”。 這些類型的錯(cuò)誤表明缺乏適當(dāng)?shù)脑u(píng)估和對(duì)AI服務(wù)產(chǎn)生的產(chǎn)出的驗(yàn)證。也許他們不知道蘭史密斯。

> Langsmith是一個(gè)完善的平臺(tái),用於測(cè)試,調(diào)試和評(píng)估LLM應(yīng)用程序。也許,其最重要的功能是LLM輸出評(píng)估和性能監(jiān)控。在本教程中,我們將看到行動(dòng)中的框架並學(xué)習(xí)將其應(yīng)用於您自己的項(xiàng)目中的技術(shù)。

>讓我們開始!

為什麼langsmith?

正如我上面提到的,Langsmith是評(píng)估大型語言應(yīng)用程序的綜合平臺(tái)。以下是它們帶來的一些特徵和切實(shí)的現(xiàn)實(shí)世界好處:

快速設(shè)置

>程序員可以在幾分鐘而不是小時(shí)內(nèi)開始嘗試Langsmith。這意味著小型團(tuán)隊(duì)或獨(dú)奏開發(fā)人員可以在一個(gè)週末進(jìn)行AI申請(qǐng),並可能在周一之前運(yùn)送付費(fèi)服務(wù)。

質(zhì)量保證

>使用嚴(yán)格的評(píng)估工具,公司可以避免AI發(fā)行錯(cuò)誤的尷尬和成本(例如我在介紹中給出的示例)。 Langsmith允許您根據(jù)內(nèi)置標(biāo)準(zhǔn)檢查L(zhǎng)LM的輸出,例如樂於助人,連貫性,厭女癥,甚至是自然語言的定制評(píng)估,例如“輸出陳詞濫調(diào)的內(nèi)容?”或者,在抽認(rèn)卡的情況下,“卡是否包含編碼問題?”。

實(shí)時(shí)監(jiān)視和可視化

langsmith使用痕跡來記錄LLM運(yùn)行的各個(gè)方面。這些包括標(biāo)準(zhǔn),例如延遲,代幣計(jì)數(shù),運(yùn)行價(jià)格和所有類型的元數(shù)據(jù)。 Web UI允許您使用自然語言來快速根據(jù)錯(cuò)誤百分比,延遲,日期甚至文本內(nèi)容來快速過濾運(yùn)行。這意味著,例如,如果AI導(dǎo)師開始對(duì)其對(duì)實(shí)際學(xué)生的反應(yīng)進(jìn)行故障,則可以在幾個(gè)小時(shí)內(nèi)推出修復(fù)程序。

>

與Langchain

集成 Langchain是專門針對(duì)LLMS開發(fā)階段的Langmith的父框架。它提供模塊化軟件設(shè)計(jì),可鏈多個(gè)LLM(代理),並將它們與其他API(例如YouTube,Google Search等)集成在一起。 Langsmith是頂部的櫻桃,確保使用Langchain製造的原型通過使用其強(qiáng)大的評(píng)估和監(jiān)視工具來按預(yù)期進(jìn)行。

>與Langchain教程查看我們的LLM申請(qǐng),以了解有關(guān)Langchain的更多信息。

數(shù)據(jù)集

Langsmith的另一個(gè)重要功能是數(shù)據(jù)集。它們可用於在部署前針對(duì)一組標(biāo)準(zhǔn)化示例來改善蘭鍊鍊,代理或模型。例如,我們可能有一個(gè)包含兩個(gè)列的CSV文件 - 以特定格式的抽認(rèn)卡的問題和答案。

>通過將此文件轉(zhuǎn)換為參考數(shù)據(jù)集,我們可以使用前面提到的質(zhì)量保證指標(biāo)來指示LLMS評(píng)估其自己的輸出。

>我們現(xiàn)在將通過一對(duì)一的示例看到所有這些功能。

>

> llm應(yīng)用程序開發(fā)工作流程

在ML應(yīng)用程序開發(fā)中,您可以收集數(shù)據(jù),訓(xùn)練,微調(diào),測(cè)試和部署模型 - 這些步驟定義明確。但是,使用LLM應(yīng)用程序,您通常會(huì)從供應(yīng)商的現(xiàn)成模型開始。微調(diào)?那可能很昂貴。因此,您將專注於製定正確的提示 - 這全都是向您的LLM應(yīng)用程序提出正確的問題。將其視為需要大量提示來測(cè)試內(nèi)容,就像您需要大量的數(shù)據(jù)以進(jìn)行良好的ML模型一樣。

但是,在提示下,您正在處理進(jìn)出的文本,而不是數(shù)字。因此,測(cè)量錯(cuò)誤或準(zhǔn)確性的通常方法,例如MSE或跨凝性,在這裡不工作。另外,想像一下閱讀所有輸入和輸出以進(jìn)行評(píng)估 - 如果您有成千上萬的提示進(jìn)行評(píng)估,那將需要幾天的時(shí)間。

>

因此,您需要一個(gè)工作流程,這一切都涉及有效地創(chuàng)建和測(cè)試這些提示,以查看LLM應(yīng)用程序的表現(xiàn),而不會(huì)淹沒手動(dòng)檢查。這是可能的樣子:

1。開發(fā)

在此階段,您將使用Langchain之類的框架製作應(yīng)用程序的基礎(chǔ)。對(duì)於抽認(rèn)卡生成器項(xiàng)目,您的原型可能包括供應(yīng)商所選LLM頂部的多個(gè)組件。例如,您可能需要將其鏈接到:

檢索器:搜索引擎API,Web刮板

文檔加載程序:文件輸入 - PDF,文本,CSV,JSON,剪貼板,YouTube,搜索等
    聊天加載程序
  • >向量存儲(chǔ)
  • 嵌入模型
  • >回調(diào)
  • 等等(請(qǐng)參閱可以從Langchain Docs的此頁面中添加哪種組件)。但是,您可以通過使用Langchain提供的普通高級(jí)任務(wù)的現(xiàn)成連鎖店大幅度縮短開發(fā)時(shí)間。
  • >
  • 2。生產(chǎn)
  • 在此階段,您將針對(duì)盡可能多的方案測(cè)試您的應(yīng)用程序。這意味著您必須確保每個(gè)添加的組件效果很好,鏈條良好,並產(chǎn)生一致的高質(zhì)量輸出。
給定的LLM是非確定性的(它們不會(huì)為相同的輸入產(chǎn)生相同的輸出)和添加組件的複雜性,您將在此階段將大部分時(shí)間花費(fèi)在此階段。朗史密斯的發(fā)展是使這段時(shí)間盡可能短的唯一目的。我們將在整個(gè)教程中進(jìn)行更多討論。

>

3。部署

>擁有可行的應(yīng)用程序後,您可以將其部署為REST API。 REST API基本上將您現(xiàn)有的Langchain鍊或代理轉(zhuǎn)換為其他人可以發(fā)送請(qǐng)求以與您的AI模型進(jìn)行交互的HTTPS鏈接?,F(xiàn)在,您將構(gòu)建服務(wù)的用戶界面,例如桌面應(yīng)用程序,或者更常見的是網(wǎng)站。

>現(xiàn)在,沒有簡(jiǎn)單的方法可以做到這一點(diǎn),但是Langchain開發(fā)人員即將釋放Langserve,這將集成到Fastapi中(那真是太棒了?)。查看文檔此頁面的潛行峰。

>

現(xiàn)在,讓我們終於開始用langsmith進(jìn)行修補(bǔ)。

>

langsmith平臺(tái)概述

>我們將從理解Web UI開始。它可通過Smith.langchain.com鏈接獲得。對(duì)於訪問,您必須註冊(cè)並從候補(bǔ)名單中清除,因?yàn)樗壳疤庫(kù)斗忾]的beta中。

>但是,一旦您進(jìn)入,著陸頁將看起來像這樣:

>

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

>兩個(gè)主要部分是項(xiàng)目和數(shù)據(jù)集和測(cè)試,並且可以通過Python SDK來操縱這兩個(gè)部分。該平臺(tái)還具有用於部署和註釋隊(duì)列的選項(xiàng)卡,但它們超出了本文的範(fàn)圍。

設(shè)置Langmith Python SDK

通過其Python SDK,在Langsmith中管理項(xiàng)目的管理要容易得多,該SDK通過API密鑰連接到平臺(tái)。

。 要獲取鑰匙,請(qǐng)單擊平臺(tái)中的密鑰圖標(biāo),然後將其保存在安全的地方。然後,在具有新的虛擬環(huán)境初始化的新目錄中,創(chuàng)建一個(gè).env文件。內(nèi)部,粘貼以下兩行:

接下來,在您的終端中,運(yùn)行以下命令以安裝langsmith和python-dotenv讀取環(huán)境變量:

LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"
現(xiàn)在是時(shí)候編寫代碼了:

>

python-dotenv to read environment variables:
pip install -U langsmith
pip install python-dotenv
我們導(dǎo)入find_dotenv和load_dotenv函數(shù)以讀取環(huán)境變量,並使用OS設(shè)置它們:

import warnings

from dotenv import find_dotenv, load_dotenv

warnings.filterwarnings("ignore")
>將langchain_tracing_v2設(shè)置為true啟用跟蹤(記錄),這對(duì)於調(diào)試LLMS至關(guān)重要。之後,我們初始化一個(gè)客戶與Langsmith平臺(tái)進(jìn)行交談:

>客戶包含在Langsmith中操縱項(xiàng)目和資產(chǎn)的高級(jí)命令。我們將使用的客戶端的第一個(gè)命令是創(chuàng)建一個(gè)新項(xiàng)目:
import os

load_dotenv(find_dotenv())
os.environ["LANGCHAIN_API_KEY"] = str(os.getenv("LANGCHAIN_API_KEY"))
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_ENDPOINT"] = "https://api.smith.langchain.com"

成功運(yùn)行後,您可以在Web UI的“項(xiàng)目”部分中查看列出的項(xiàng)目:>
from langsmith import Client

# Initialize a client
client = Client()

import uuid

# Create id
uid = uuid.uuid4()
# Create a unique name
PROJECT_NAME = "flashcards-generator-" + str(uid)
# Create the project
session = client.create_project(
   project_name=PROJECT_NAME,
   description="A project that generates flashcards from user input",
)
接下來,我們需要將新項(xiàng)目設(shè)置為默認(rèn)值,並使用另一個(gè)環(huán)境變量:>

現(xiàn)在,我們需要一個(gè)llm來進(jìn)行我們的項(xiàng)目。我們將使用GPT-3.5 Turbo,因?yàn)樗阋?,但是您可以使用Langchain提供的許多其他型號(hào)。 Openai模型是通過Chatopenai類初始化的。

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

>讓我們進(jìn)行第一次運(yùn)行:

LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"

>如果您快速?gòu)腢I檢查項(xiàng)目,則會(huì)看到上述運(yùn)行跟蹤(已記錄):

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

>設(shè)置環(huán)境變量和客戶端時(shí),我們會(huì)自動(dòng)啟用日誌記錄。如您所見,我們已經(jīng)有一堆關(guān)於運(yùn)行的元數(shù)據(jù)。

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

讓我們?cè)龠\(yùn)行幾個(gè)提示:

python-dotenv to read environment variables:
pip install -U langsmith
pip install python-dotenv
>我們已經(jīng)可以構(gòu)建一個(gè)基本的文本摘要。讓我們總結(jié)一下上次運(yùn)行的輸出:>

太好了,現(xiàn)在是時(shí)候創(chuàng)建我們的第一個(gè)數(shù)據(jù)集了。

>
import warnings

from dotenv import find_dotenv, load_dotenv

warnings.filterwarnings("ignore")
在langmith

中創(chuàng)建一個(gè)未標(biāo)記的數(shù)據(jù)集

>正如我在“ LLM應(yīng)用程序開發(fā)工作流程”部分中提到的,您可能需要?jiǎng)?chuàng)建或收集數(shù)千個(gè)提示來評(píng)估您的LLM模型,鏈條或代理。因此,像我們上面所做的那樣,運(yùn)行那些一對(duì)一的人並不是最好的做法。

>

出於這個(gè)原因,Langsmith提供了三種類型的數(shù)據(jù)集:>

鍵值(KV) - 默認(rèn)值:將輸入定義為任意鍵值對(duì)。在評(píng)估需要多個(gè)輸入或返回多個(gè)輸出的鏈條和代理時(shí),它們很有用。

>

llm數(shù)據(jù)集(LLM):輸入和輸出是在llms -string in,string out的“完成樣式”中定義的。
    >聊天數(shù)據(jù)集(CHAT):這些是從LLM CHATS轉(zhuǎn)換並使用結(jié)構(gòu)化輸入和序列化消息定義的數(shù)據(jù)集。
  • 首先,讓我們看看如何創(chuàng)建一個(gè)沒有輸出的鍵值數(shù)據(jù)集。我們將使用客戶端的create_dataset函數(shù):
  • 現(xiàn)在,讓我們添加三個(gè)輸入,每個(gè)輸入都要求LLM創(chuàng)建一個(gè)抽認(rèn)卡:

>如果您瀏覽UI的數(shù)據(jù)集選項(xiàng)卡,則將看到每個(gè)提示符都列出了null輸出:
import os

load_dotenv(find_dotenv())
os.environ["LANGCHAIN_API_KEY"] = str(os.getenv("LANGCHAIN_API_KEY"))
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_ENDPOINT"] = "https://api.smith.langchain.com"

from langsmith import Client

# Initialize a client
client = Client()

現(xiàn)在,讓我們使用run_on_dataset函數(shù)在一行代碼中運(yùn)行所有提示:

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介>運(yùn)行完成後,它將在數(shù)據(jù)集頁面上列出。這是它的外觀:

import uuid

# Create id
uid = uuid.uuid4()
# Create a unique name
PROJECT_NAME = "flashcards-generator-" + str(uid)
# Create the project
session = client.create_project(
   project_name=PROJECT_NAME,
   description="A project that generates flashcards from user input",
)

>我們剛剛在未標(biāo)記的數(shù)據(jù)集上進(jìn)行了測(cè)試 - 一個(gè)帶有示例提示的數(shù)據(jù)集但沒有示例輸出。我們的測(cè)試只是對(duì)每個(gè)提示產(chǎn)生了回應(yīng),但沒有評(píng)估任何問題。但是我們想執(zhí)行基本檢查,例如“輸出有幫助嗎?”或“響應(yīng)是短的還是長(zhǎng)的”?

>

langsmith允許我們使用內(nèi)置的評(píng)估者進(jìn)行此類檢查。 Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介評(píng)估langmith

中的LLMS

>使用數(shù)據(jù)集中的三個(gè)提示來運(yùn)行簡(jiǎn)潔性和連貫性評(píng)估,我們可以使用RunevalConfig類:

LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"
上面的

,我們?cè)诜Q為評(píng)估者的列表中定義了兩個(gè)標(biāo)準(zhǔn)。我們將這些評(píng)估器傳遞給RUN_ON_DATASET函數(shù)的評(píng)估參數(shù):

python-dotenv to read environment variables:
pip install -U langsmith
pip install python-dotenv

> run_on_dataset是一個(gè)有用的功能,可以使用提供的LLM在數(shù)據(jù)集中運(yùn)行所有提示,並隨時(shí)執(zhí)行任何類型的評(píng)估。它的結(jié)果將在每個(gè)數(shù)據(jù)集的專用頁面上可見:

>

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

這次,每個(gè)提示的運(yùn)行都具有連貫性和簡(jiǎn)潔性指標(biāo)。在底部,您還將看到每個(gè)度量的平均分?jǐn)?shù)。

要查看所有內(nèi)置標(biāo)準(zhǔn)的列表,請(qǐng)運(yùn)行以下片段:>

import warnings

from dotenv import find_dotenv, load_dotenv

warnings.filterwarnings("ignore")
當(dāng)然,並非所有LLM用例都可以與基本評(píng)估者一起檢查。例如,沒有評(píng)估者可以檢查抽認(rèn)卡是否包含編碼問題。因此,我們最好定義它:

>通過自然語言傳遞自定義標(biāo)準(zhǔn),我們只需將{“ criteria_name”:“檢查狀態(tài)”}傳遞給標(biāo)準(zhǔn)類。上面,我們正在創(chuàng)建兩個(gè)額外的評(píng)估器,因此Langsmith將在數(shù)據(jù)集中的提示所產(chǎn)生的輸出的頂部運(yùn)行兩個(gè)其他提示:
import os

load_dotenv(find_dotenv())
os.environ["LANGCHAIN_API_KEY"] = str(os.getenv("LANGCHAIN_API_KEY"))
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_ENDPOINT"] = "https://api.smith.langchain.com"
>

>如果您查看運(yùn)行,您將看到我們?cè)诿總€(gè)提示下定義的自定義標(biāo)準(zhǔn)。如果您徘徊,您將獲得LLM的推理:
from langsmith import Client

# Initialize a client
client = Client()
>

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

通過檢查所有提示的評(píng)估結(jié)果,您會(huì)發(fā)現(xiàn)我們的標(biāo)準(zhǔn)未按預(yù)期進(jìn)行評(píng)估。因此,這是要考慮的事情 - 您還需要提示設(shè)計(jì)標(biāo)準(zhǔn)以確保它們檢查正確的內(nèi)容。 Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介>

創(chuàng)建標(biāo)記的數(shù)據(jù)集

有時(shí),您可以決定創(chuàng)建一個(gè)帶有預(yù)期輸出(例如標(biāo)記為數(shù)據(jù)集)的提示數(shù)據(jù)集。您可以以各種格式創(chuàng)建標(biāo)記的數(shù)據(jù)集,但也許最常見的數(shù)據(jù)集是CSV文件。例如,這是我用chatgpt生成的文件,其中包含pytorch語法上的五個(gè)問題:

為了創(chuàng)建一個(gè)數(shù)據(jù)集,我們可以使用upload_csv函數(shù):>

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介該函數(shù)具有三個(gè)必需的參數(shù):CSV路徑和輸入/輸出列的名稱。一旦上傳完成,數(shù)據(jù)集將出現(xiàn)在UI中:>

import uuid

# Create id
uid = uuid.uuid4()
# Create a unique name
PROJECT_NAME = "flashcards-generator-" + str(uid)
# Create the project
session = client.create_project(
   project_name=PROJECT_NAME,
   description="A project that generates flashcards from user input",
)
>讓我們從本數(shù)據(jù)集的上一節(jié)中運(yùn)行我們的自定義標(biāo)準(zhǔn):

>如果您轉(zhuǎn)到數(shù)據(jù)集頁面並查看運(yùn)行,我們可以看到每個(gè)自定義標(biāo)準(zhǔn)的平均分?jǐn)?shù):

>

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

評(píng)估標(biāo)記的數(shù)據(jù)集

用自然語言編寫的內(nèi)置和自定義評(píng)估器

主要用於未標(biāo)記的數(shù)據(jù)集。對(duì)於我們上傳的標(biāo)記數(shù)據(jù)集,例如我們上傳的CSV數(shù)據(jù)集,Langsmith提供了更全面的評(píng)估者,以衡量對(duì)提示的響應(yīng)的正確性:>

    > context_qa(上下文Q&A):在評(píng)估正確性
  • 的同時(shí)使用示例輸出作為上下文
  • > QA(Q&A):使用參考輸出
  • > cot_qa(經(jīng)過思考鏈問答):類似於Context_QA,但是該評(píng)估者迫使LLM在達(dá)成裁決之前使用經(jīng)過思考的推理。
  • >
讓我們?cè)谑纠袊L試最後一個(gè):

LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"
> cotqa標(biāo)準(zhǔn)返回一個(gè)稱為上下文準(zhǔn)確性的分?jǐn)?shù),如下面的GIF(也在UI中)中所示:

>

Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介

請(qǐng)?jiān)L問Langsmith文檔的Langchain評(píng)估員部分,以了解有關(guān)評(píng)估人員的更多信息。

結(jié)論

在閱讀本教程後,您對(duì)Langsmith確實(shí)是一個(gè)及時(shí)工程的工具,您將是正確的!目前,Langsmith是確保LLM的說明和輸出的最佳框架實(shí)際上是您想要的。

>您還必須意識(shí)到構(gòu)建生產(chǎn)級(jí)LLM應(yīng)用程序所需的精力。因此,在從事LLM項(xiàng)目時(shí),請(qǐng)使用Langsmith進(jìn)行更流暢的體驗(yàn)。

>

>如果蘭史密斯的某些概念沒有意義,那麼您可能缺乏蘭班林的一些基本原理。以下是一些資源:

蘭鏈介紹數(shù)據(jù)工程

    在Langchain中構(gòu)建上下文感知聊天機(jī)器人
  • > langchain
  • 的及時(shí)工程
  • >如何使用langchain
  • 構(gòu)建LLM應(yīng)用程序
  • > Langchain Docs
  • langsmith docs

以上是Langsmith的調(diào)試和測(cè)試LLMS的簡(jiǎn)介的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

從採(cǎi)用到優(yōu)勢(shì):2025年塑造企業(yè)LLM的10個(gè)趨勢(shì) 從採(cǎi)用到優(yōu)勢(shì):2025年塑造企業(yè)LLM的10個(gè)趨勢(shì) Jun 20, 2025 am 11:13 AM

以下是重塑企業(yè)AI景觀的十種引人注目的趨勢(shì)。對(duì)LLMSorganizations的財(cái)務(wù)承諾正在大大增加其在LLMS的投資,其中72%的人預(yù)計(jì)他們的支出今年會(huì)增加。目前,近40%a

AI投資者停滯不前? 3條購(gòu)買,建造或與人工智能供應(yīng)商合作的戰(zhàn)略途徑 AI投資者停滯不前? 3條購(gòu)買,建造或與人工智能供應(yīng)商合作的戰(zhàn)略途徑 Jul 02, 2025 am 11:13 AM

投資蓬勃發(fā)展,但僅資本還不夠。隨著估值的上升和獨(dú)特性的衰落,以AI為中心的風(fēng)險(xiǎn)投資的投資者必須做出關(guān)鍵決定:購(gòu)買,建立或合作夥伴才能獲得優(yōu)勢(shì)?這是評(píng)估每個(gè)選項(xiàng)和PR的方法

生成AI的不可阻擋的增長(zhǎng)(AI Outlook第1部分) 生成AI的不可阻擋的增長(zhǎng)(AI Outlook第1部分) Jun 21, 2025 am 11:11 AM

披露:我的公司Tirias Research已向IBM,NVIDIA和本文提到的其他公司諮詢。 Growth驅(qū)動(dòng)力的生成AI採(cǎi)用的激增比最樂觀的預(yù)測(cè)更具戲劇性。然後,

這些初創(chuàng)公司正在幫助企業(yè)出現(xiàn)在AI搜索摘要中 這些初創(chuàng)公司正在幫助企業(yè)出現(xiàn)在AI搜索摘要中 Jun 20, 2025 am 11:16 AM

由於AI,那些日子是編號(hào)的。根據(jù)一個(gè)螺柱,搜索企業(yè)諸如Travel網(wǎng)站皮劃艇和Edtech Company Chegg之類的企業(yè)正在下降,部分原因是60%的網(wǎng)站搜索不會(huì)導(dǎo)致用戶單擊任何鏈接。

AGI和AI超級(jí)智能將嚴(yán)重?fù)糁腥祟愄旎ò宓募僭O(shè)障礙 AGI和AI超級(jí)智能將嚴(yán)重?fù)糁腥祟愄旎ò宓募僭O(shè)障礙 Jul 04, 2025 am 11:10 AM

讓我們來談?wù)劇? 對(duì)創(chuàng)新AI突破的分析是我正在進(jìn)行的AI中正在進(jìn)行的福布斯列覆蓋的一部分,包括識(shí)別和解釋各種有影響力的AI複雜性(請(qǐng)參閱此處的鏈接)。 前往Agi和

構(gòu)建您的第一個(gè)LLM應(yīng)用程序:初學(xué)者的教程 構(gòu)建您的第一個(gè)LLM應(yīng)用程序:初學(xué)者的教程 Jun 24, 2025 am 10:13 AM

您是否曾經(jīng)嘗試過建立自己的大型語言模型(LLM)應(yīng)用程序?有沒有想過人們?nèi)绾翁岣咦约旱腖LM申請(qǐng)來提高生產(chǎn)率? LLM應(yīng)用程序已被證明在各個(gè)方面都有用

AMD繼續(xù)在AI中建立動(dòng)力,還有很多工作要做 AMD繼續(xù)在AI中建立動(dòng)力,還有很多工作要做 Jun 28, 2025 am 11:15 AM

總體而言,我認(rèn)為該活動(dòng)對(duì)於展示AMD如何向客戶和開發(fā)人員移動(dòng)球非常重要。在SU下,AMD的M.O.要製定明確,雄心勃勃的計(jì)劃並對(duì)他們執(zhí)行。她的“說/do”比率很高。公司做

未來預(yù)測(cè)從AI到AGI的道路上的大規(guī)模情報(bào)爆炸 未來預(yù)測(cè)從AI到AGI的道路上的大規(guī)模情報(bào)爆炸 Jul 02, 2025 am 11:19 AM

讓我們來談?wù)劇? 對(duì)創(chuàng)新AI突破的分析是我正在進(jìn)行的AI中正在進(jìn)行的福布斯列覆蓋的一部分,包括識(shí)別和解釋各種有影響力的AI複雜性(請(qǐng)參閱此處的鏈接)。對(duì)於那些讀者

See all articles