国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Maison Périphériques technologiques IA Tutoriel GPT-4O et Langgraph: Créez une application TNT-LLM

Tutoriel GPT-4O et Langgraph: Créez une application TNT-LLM

Mar 05, 2025 am 10:56 AM

TNT-LLM de Microsoft: Révolution de la production de taxonomie et de la classification du texte

Microsoft a dévoilé TNT-llm, un système révolutionnaire automatisant la création de taxonomie et la classification du texte, dépassant les méthodes traditionnelles à la fois en vitesse et en précision. Cette approche innovante tire parti de la puissance des modèles de grande langue (LLM) pour rationaliser et mettre à l'échelle la génération de taxonomies et de classificateurs, minimisant l'intervention manuelle. Ceci est particulièrement bénéfique pour les applications comme Bing Copilot, où la gestion des données textuelles dynamiques et diverses est primordiale.

Cet article démontre l'implémentation de TNT-llm à l'aide de GPT-4O et Langgraph pour un regroupement d'articles de presse efficace. Pour plus d'informations sur GPT-4O et Langgraph, consultez ces ressources:

  • Qu'est-ce que le GPT-4O d'Openai?
  • Tutoriel API GPT-4O: Président avec API d'Openai
  • Tutoriel Langgraph: Qu'est-ce que Langgraph et comment l'utiliser?

Le document de recherche TNT-LLM original, "TNT-LLM: Minage de texte à grande échelle avec de grands modèles de langage", fournit des détails complets sur le système.

Comprendre tnt-llm

TNT-LLM (Taxonomie et classification de texte à l'aide de modèles de langage grand) est un framework en deux étapes con?u pour générer et classer les taxonomies à partir de données textuelles.

Phase 1: Génération de taxonomie

Cette phase initiale utilise un échantillon de documents texte et une instruction spécifique (par exemple, "générer une taxonomie pour cluster des articles de presse"). Un LLM résume chaque document, extraitant des informations clés. Grace à un raffinement itératif, le LLM construit, modifie et affine la taxonomie, résultant en une hiérarchie structurée des étiquettes et des descriptions pour une catégorisation d'articles de presse efficace.

GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application

Source: Mengting Wan et al.

Phase 2: Classification du texte

La deuxième phase utilise la taxonomie générée pour étiqueter un ensemble de données plus large. Le LLM applique ces étiquettes, créant des données de formation pour un classificateur léger (comme la régression logistique). Ce classificateur formé étiquette efficacement l'ensemble de données ou effectue une classification en temps réel.

GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application

Source: Mengting Wan et al.

La nature adaptable de TNT-llm le rend adapté à diverses taches de classification de texte, y compris la détection d'intention et la catégorisation des sujets.

Avantages de tnt-llm

TNT-LLM offre des avantages significatifs pour l'extraction et la classification de texte à grande échelle:

  • Génération de taxonomie automatisée: automatise la création de taxonomies détaillées et interprétables à partir de texte brut, éliminant la nécessité d'un effort manuel étendu et d'une expertise du domaine.
  • Classification évolutive: Permet efficacement la classification de texte évolutive à l'aide de modèles légers qui gèrent de grands ensembles de données et une classification en temps réel.
  • Effectif-efficacité: optimise l'utilisation des ressources grace à l'utilisation de LLM à plusieurs niveaux (par exemple, GPT-4 pour la production de taxonomie, GPT-3.5-turbo pour le résumé et la régression logistique pour la classification finale).
  • Sorties de haute qualité: La production de taxonomie itérative garantit des catégorisations de haute qualité, pertinentes et précises.
  • Intervention humaine minimale: réduit l'entrée manuelle, minimisant les biais et les incohérences potentielles.
  • Flexibilité: s'adapte à diverses taches et domaines de classification de texte, soutenant l'intégration avec divers LLM, méthodes d'intégration et classificateurs.

Implémentation de tnt-llm

Un guide d'implémentation étape par étape suit:

Installation:

Installez les packages nécessaires:

pip install langgraph langchain langchain_openai

Définir les variables d'environnement pour les clés API et les noms de modèle:

export AZURE_OPENAI_API_KEY='your_api_key_here'
export AZURE_OPENAI_MODEL='your_deployment_name_here'
export AZURE_OPENAI_ENDPOINT='deployment_endpoint'

Concepts de base:

  • Documents: Données de texte brutes (articles, journaux de chat) structurés à l'aide de la classe Doc.
  • Taxonomies: Clusters d'intentions ou de sujets classés, gérés par la classe TaxonomyGenerationState.

Construire une application TNT-llm simple:

Les sections suivantes détaillent les étapes d'implémentation, en utilisant des extraits de code pour illustrer les processus clés. En raison de la durée du code d'origine, une reproduction complète ici n'est pas pratique. Cependant, ce qui suit donne un aper?u structuré du processus:

  • étape 0: Définissez la classe d'état du graphique, chargez des ensembles de données et initialisez GPT-4O: Cela implique de définir les structures de données et de charger l'ensemble de données d'articles d'information. Un modèle GPT-4O est initialisé pour une utilisation tout au long du pipeline.

  • étape 1: résumer les documents: Chaque document est résumé à l'aide d'une invite LLM.

  • étape 2: Créer des minibatches: Les documents résumés sont divisés en minibatchs pour le traitement parallèle.

  • étape 3: Générer la taxonomie initiale: Une taxonomie initiale est générée à partir du premier minibatch.

  • étape 4: Mettez à jour la taxonomie: La taxonomie est mise à jour itérativement lorsque les minibatches suivantes sont traitées.

  • étape 5: Revoir la taxonomie: La taxonomie finale est examinée pour l'exactitude et la pertinence.

  • étape 6: Orchestrer le pipeline TNT-LLM avec Stategraph: Un StateGraph orchestre l'exécution des différentes étapes.

  • étape 7: regroupement et affichage de l'article de presse de TNT-llm Taxonomie: La taxonomie finale est affichée, montrant les grappes d'articles de presse.

Conclusion

TNT-llm offre une solution puissante et efficace pour l'exploitation et la classification de texte à grande échelle. Ses capacités d'automatisation réduisent considérablement le temps et les ressources nécessaires pour analyser les données de texte non structurées, permettant la prise de décision basée sur les données dans divers domaines. Le potentiel de développement et d'applications entre les industries est substantiel. Pour ceux qui s'intéressent au développement des applications LLM, un cours sur "Developing LLM Applications with Langchain" est recommandé.

GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel PHP
1500
276
Kimi K2: le modèle agentique open source le plus puissant Kimi K2: le modèle agentique open source le plus puissant Jul 12, 2025 am 09:16 AM

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Grok 4 vs Claude 4: Quel est le meilleur? Grok 4 vs Claude 4: Quel est le meilleur? Jul 12, 2025 am 09:37 AM

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui 10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui Jul 16, 2025 am 11:12 AM

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

6 taches manus ai peut faire en quelques minutes 6 taches manus ai peut faire en quelques minutes Jul 06, 2025 am 09:29 AM

Je suis s?r que vous devez conna?tre l'agent général de l'IA, Manus. Il a été lancé il y a quelques mois, et au cours des mois, ils ont ajouté plusieurs nouvelles fonctionnalités à leur système. Maintenant, vous pouvez générer des vidéos, créer des sites Web et faire beaucoup de MO

L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide Jul 12, 2025 am 09:33 AM

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours Jul 09, 2025 am 11:17 AM

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Quels sont les 7 types d'agents d'IA? Quels sont les 7 types d'agents d'IA? Jul 11, 2025 am 11:08 AM

Imaginez quelque chose de sophistiqué, comme un moteur d'IA prêt à donner des commentaires détaillés sur une nouvelle collection de vêtements de Milan, ou une analyse de marché automatique pour une entreprise opérant dans le monde entier, ou des systèmes intelligents gérant une grande flotte de véhicules.

Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Jul 09, 2025 am 11:16 AM

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

See all articles