国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Heim Backend-Entwicklung Python-Tutorial So erstellen Sie Ihr eigenes RAG mit kostenlosen LLM-Modellen und einer Wissensdatenbank

So erstellen Sie Ihr eigenes RAG mit kostenlosen LLM-Modellen und einer Wissensdatenbank

Dec 28, 2024 am 08:49 AM

In diesem Artikel wird die Implementierung eines unkomplizierten, aber effektiven Frage-Antwort-Systems untersucht, das moderne transformatorbasierte Modelle kombiniert. Das System verwendet T5 (Text-to-Text Transfer Transformer) für die Antwortgenerierung und Satztransformatoren für den semantischen ?hnlichkeitsabgleich.

In meinem vorherigen Artikel habe ich erkl?rt, wie man mithilfe eines kostenlosen grundlegenden LLM-Modells eine einfache übersetzungs-API mit einer Webschnittstelle erstellt. Lassen Sie uns dieses Mal in den Aufbau eines Retrieval-Augmented Generation (RAG)-Systems unter Verwendung kostenloser transformatorbasierter LLM-Modelle und einer Wissensdatenbank eintauchen.

RAG (Retrieval-Augmented Generation) ist eine Technik, die zwei Schlüsselkomponenten kombiniert:

Abruf: Zun?chst wird eine Wissensdatenbank (wie Dokumente, Datenbanken usw.) durchsucht, um relevante Informationen für eine bestimmte Abfrage zu finden. Dies beinhaltet normalerweise:

  • Text in Einbettungen (numerische Vektoren, die Bedeutung darstellen) umwandeln
  • Suchen ?hnlicher Inhalte mithilfe von ?hnlichkeitsma?en (z. B. Kosinus-?hnlichkeit)
  • Auswahl der relevantesten Informationen

Generierung: Anschlie?end wird ein Sprachmodell (wie T5 in unserem Code) verwendet, um eine Antwort zu generieren durch:

Kombinieren der abgerufenen Informationen mit der ursprünglichen Frage

Erstellen einer Antwort in natürlicher Sprache basierend auf diesem Kontext

Im Code:

  • Der SentenceTransformer übernimmt den Abrufteil durch die Erstellung von Einbettungen
  • Das T5-Modell übernimmt den Generierungsteil durch die Erstellung von Antworten

Vorteile von RAG:

  • Genauere Antworten, da sie auf spezifischem Wissen basieren
  • Reduzierte Halluzinationen im Vergleich zu reinen LLM-Reaktionen
  • M?glichkeit, auf aktuelle oder dom?nenspezifische Informationen zuzugreifen
  • Kontrollierbarer und transparenter als die reine Generierung

überblick über die Systemarchitektur

How to Create Your Own RAG with Free LLM Models and a Knowledge Base

Die Implementierung besteht aus einer SimpleQASystem-Klasse, die zwei Hauptkomponenten orchestriert:

  • Ein semantisches Suchsystem mit Satztransformatoren
  • Ein Antwortgenerierungssystem mit T5

Sie k?nnen die neueste Version des Quellcodes hier herunterladen: https://github.com/alexander-uspenskiy/rag_project

Systemdiagramm

How to Create Your Own RAG with Free LLM Models and a Knowledge Base

RAG-Projekt-Setup-Handbuch

Diese Anleitung hilft Ihnen beim Einrichten Ihres Retrieval-Augmented Generation (RAG)-Projekts sowohl unter macOS als auch unter Windows.

Voraussetzungen

Für macOS:

Homebrew installieren (falls noch nicht installiert):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Installieren Sie Python 3.8 mit Homebrew
brew install python@3.10
Für Windows:
Laden Sie Python 3.8 von python.org herunter und installieren Sie es
Stellen Sie sicher, dass Sie w?hrend der Installation ?Python zu PATH hinzufügen“ aktivieren

Projekt-Setup

Schritt 1: Projektverzeichnis erstellen

macOS:

mkdir RAG_project
cd RAG_project
Windows:

mkdir RAG_project
cd RAG_project

Schritt 2: Virtuelle Umgebung einrichten

macOS:

python3 -m venv venv
Quelle venv/bin/activate

Windows:

python -m venv venv
venvScriptsactivate

**Kernkomponenten

  1. Initialisierung**
def __init__(self):
    self.model_name = 't5-small'
    self.tokenizer = T5Tokenizer.from_pretrained(self.model_name)
    self.model = T5ForConditionalGeneration.from_pretrained(self.model_name)
    self.encoder = SentenceTransformer('paraphrase-MiniLM-L6-v2')

Das System initialisiert mit zwei Hauptmodellen:

T5-small: Eine kleinere Version des T5-Modells zur Generierung von Antworten
paraphrase-MiniLM-L6-v2: Ein Satztransformationsmodell zum Kodieren von Text in sinnvolle Vektoren

2. Datensatzvorbereitung

def prepare_dataset(self, data: List[Dict[str, str]]):
    self.answers = [item['answer'] for item in data]
    self.answer_embeddings = []
    for answer in self.answers:
        embedding = self.encoder.encode(answer, convert_to_tensor=True)
        self.answer_embeddings.append(embedding)

Die Datensatzvorbereitungsphase:

  • Extrahiert Antworten aus den Eingabedaten
  • Erstellt Einbettungen für jede Antwort mithilfe des Satztransformators
  • Speichert sowohl Antworten als auch deren Einbettungen zum schnellen Abrufen

Wie das System funktioniert

1. Fragenbearbeitung

Wenn ein Benutzer eine Frage einreicht, führt das System die folgenden Schritte aus:

Einbettungsgenerierung: Die Frage wird in eine Vektordarstellung umgewandelt, wobei dasselbe Satztransformationsmodell verwendet wird, das für die Antworten verwendet wird.

Semantische Suche: Das System findet die relevanteste gespeicherte Antwort nach:

  • Berechnung der Kosinus?hnlichkeit zwischen der Frageneinbettung und allen Antworteinbettungen
  • Auswahl der Antwort mit der h?chsten ?hnlichkeitsbewertung Kontextbildung: Die ausgew?hlte Antwort wird zum Kontext für T5, um eine endgültige Antwort zu generieren.

2. Antwortgenerierung

def get_answer(self, question: str) -> str:
    # ... semantic search logic ...
    input_text = f"Given the context, what is the answer to the question: {question} Context: {context}"
    input_ids = self.tokenizer(input_text, max_length=512, truncation=True, 
                             padding='max_length', return_tensors='pt').input_ids
    outputs = self.model.generate(input_ids, max_length=50, num_beams=4, 
                                early_stopping=True, no_repeat_ngram_size=2

Der Antwortgenerierungsprozess:

  • Kombiniert die Frage und den Kontext zu einer Eingabeaufforderung für T5
  • Tokenisiert den Eingabetext mit einer maximalen L?nge von 512 Token
  • Erzeugt eine Antwort mithilfe der Strahlsuche mit diesen Parametern:
  • max_length=50: Begrenzt die Antwortl?nge
  • num_beams=4: Verwendet Strahlsuche mit 4 Strahlen
  • early_stopping=True: Stoppt die Generierung, wenn alle Strahlen ein End-Token erreichen
  • no_repeat_ngram_size=2: Verhindert die Wiederholung von Bigrammen

3. Antwort Reinigung

def __init__(self):
    self.model_name = 't5-small'
    self.tokenizer = T5Tokenizer.from_pretrained(self.model_name)
    self.model = T5ForConditionalGeneration.from_pretrained(self.model_name)
    self.encoder = SentenceTransformer('paraphrase-MiniLM-L6-v2')
  • Entfernt doppelte aufeinanderfolgende W?rter (ohne Berücksichtigung der Gro?- und Kleinschreibung)
  • Der erste Buchstabe der Antwort wird gro? geschrieben
  • Entfernt zus?tzliche Leerzeichen

Vollst?ndiger Quellcode

Sie k?nnen die neueste Version des Quellcodes hier herunterladen: https://github.com/alexander-uspenskiy/rag_project

def prepare_dataset(self, data: List[Dict[str, str]]):
    self.answers = [item['answer'] for item in data]
    self.answer_embeddings = []
    for answer in self.answers:
        embedding = self.encoder.encode(answer, convert_to_tensor=True)
        self.answer_embeddings.append(embedding)

Speicherverwaltung:

Das System nutzt explizit die CPU, um Speicherprobleme zu vermeiden
Einbettungen werden bei Bedarf in CPU-Tensoren umgewandelt
Die Eingabel?nge ist auf 512 Token begrenzt

Fehlerbehandlung:

  • Umfassende Try-Except-Bl?cke im gesamten Code
  • Aussagekr?ftige Fehlermeldungen zum Debuggen
  • Validierungsprüfungen für nicht initialisierte Komponenten

Anwendungsbeispiel

def get_answer(self, question: str) -> str:
    # ... semantic search logic ...
    input_text = f"Given the context, what is the answer to the question: {question} Context: {context}"
    input_ids = self.tokenizer(input_text, max_length=512, truncation=True, 
                             padding='max_length', return_tensors='pt').input_ids
    outputs = self.model.generate(input_ids, max_length=50, num_beams=4, 
                                early_stopping=True, no_repeat_ngram_size=2

Im Terminal ausführen

How to Create Your Own RAG with Free LLM Models and a Knowledge Base

Einschr?nkungen und m?gliche Verbesserungen

Skalierbarkeit:

Die aktuelle Implementierung beh?lt alle Einbettungen im Speicher
K?nnte mit Vektordatenbanken für gro? angelegte Anwendungen verbessert werden

Antwortqualit?t:

H?ngt stark von der Qualit?t des bereitgestellten Antwortdatensatzes ab
Begrenzt durch das Kontextfenster von T5-small
K?nnte von einer Antwortvalidierung oder einer Konfidenzbewertung profitieren

Leistung:

  • Die alleinige Verwendung der CPU kann bei umfangreichen Anwendungen langsamer sein
  • K?nnte durch Stapelverarbeitung optimiert werden
  • K?nnte Caching für h?ufig gestellte Fragen implementieren

Abschluss

Diese Implementierung bietet eine solide Grundlage für ein Frage-Antwort-System und kombiniert die St?rken der semantischen Suche und der transformatorbasierten Textgenerierung. Spielen Sie gerne mit Modellparametern (wie max_length, num_beams, Early_stopping, no_repeat_ngram_size usw.), um einen besseren Weg zu finden, um koh?rentere und stabilere Antworten zu erhalten. Obwohl es Raum für Verbesserungen gibt, bietet die aktuelle Implementierung ein gutes Gleichgewicht zwischen Komplexit?t und Funktionalit?t, sodass sie für Bildungszwecke und kleine bis mittlere Anwendungen geeignet ist.

Viel Spa? beim Codieren!

Das obige ist der detaillierte Inhalt vonSo erstellen Sie Ihr eigenes RAG mit kostenlosen LLM-Modellen und einer Wissensdatenbank. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen

PHP-Tutorial
1502
276
Wie man mit der API -Authentifizierung in Python umgeht Wie man mit der API -Authentifizierung in Python umgeht Jul 13, 2025 am 02:22 AM

Der Schlüssel zum Umgang mit der API -Authentifizierung besteht darin, die Authentifizierungsmethode korrekt zu verstehen und zu verwenden. 1. Apikey ist die einfachste Authentifizierungsmethode, die normalerweise in den Anforderungsheader- oder URL -Parametern platziert ist. 2. BasicAuth verwendet Benutzername und Kennwort für die Basis64 -Codierungsübertragung, die für interne Systeme geeignet ist. 3.. OAuth2 muss das Token zuerst über Client_id und Client_secret erhalten und dann das BearerToken in den Anforderungsheader bringen. V. Kurz gesagt, die Auswahl der entsprechenden Methode gem?? dem Dokument und das sichere Speichern der Schlüsselinformationen ist der Schlüssel.

Erkl?ren Sie Python -Behauptungen. Erkl?ren Sie Python -Behauptungen. Jul 07, 2025 am 12:14 AM

Assert ist ein Inssertion -Tool, das in Python zum Debuggen verwendet wird, und wirft einen Assertionerror aus, wenn der Zustand nicht erfüllt ist. Die Syntax ist eine geltende Bedingung sowie optionale Fehlerinformationen, die für die interne Logiküberprüfung geeignet sind, z. B. Parameterprüfung, Statusbest?tigung usw., k?nnen jedoch nicht für die Sicherheits- oder Benutzereingabeprüfung verwendet werden und sollten in Verbindung mit klaren Eingabeaufforderungen verwendet werden. Es ist nur zum Hilfsdebuggen in der Entwicklungsphase verfügbar, anstatt die Ausnahmebehandlung zu ersetzen.

Was sind Python -Typ -Hinweise? Was sind Python -Typ -Hinweise? Jul 07, 2025 am 02:55 AM

TypHintsinpythonsolvetheProblemofAmbiguityAndpotentialbugsindynamicalpedCodeByAllowingDevelopstospecifyexpectypes

Wie man über zwei Listen gleichzeitig python iteriert Wie man über zwei Listen gleichzeitig python iteriert Jul 09, 2025 am 01:13 AM

Eine gemeinsame Methode, um zwei Listen gleichzeitig in Python zu durchqueren, besteht darin, die Funktion ZIP () zu verwenden, die mehrere Listen in der Reihenfolge und die kürzeste ist. Wenn die Listenl?nge inkonsistent ist, k?nnen Sie iTertools.zip_longest () verwenden, um die l?ngste zu sein und die fehlenden Werte auszufüllen. In Kombination mit Enumerate () k?nnen Sie den Index gleichzeitig erhalten. 1.zip () ist pr?gnant und praktisch, geeignet für die Iteration gepaarte Daten; 2.zip_longest () kann den Standardwert beim Umgang mit inkonsistenten L?ngen einfüllen. 3.Enumerate (ZIP ()) kann w?hrend des Durchlaufens Indizes erhalten und die Bedürfnisse einer Vielzahl komplexer Szenarien erfüllen.

Was sind Python -Iteratoren? Was sind Python -Iteratoren? Jul 08, 2025 am 02:56 AM

INPYTHON, ITERATORATORSAROBJECTSHATALWOULOUPING ThroughCollections Byimplementing__iter __ () und __Next __ (). 1) IteratorsworkviATheiterProtocol, verwendete __iter __ () toreturn thiteratorand__Next __ () torethentexteemtemuntemuntilstoperationSaised.2) und

Python Fastapi Tutorial Python Fastapi Tutorial Jul 12, 2025 am 02:42 AM

Um moderne und effiziente APIs mit Python zu schaffen, wird Fastapi empfohlen. Es basiert auf Eingabeaufforderungen an Standardpython -Typ und kann automatisch Dokumente mit ausgezeichneter Leistung generieren. Nach der Installation von Fastapi und ASGI Server Uvicorn k?nnen Sie Schnittstellencode schreiben. Durch das Definieren von Routen, das Schreiben von Verarbeitungsfunktionen und die Rückgabe von Daten kann schnell APIs erstellt werden. Fastapi unterstützt eine Vielzahl von HTTP -Methoden und bietet automatisch generierte Swaggerui- und Redoc -Dokumentationssysteme. URL -Parameter k?nnen durch Pfaddefinition erfasst werden, w?hrend Abfrageparameter durch Einstellen von Standardwerten für Funktionsparameter implementiert werden k?nnen. Der rationale Einsatz pydantischer Modelle kann dazu beitragen, die Entwicklungseffizienz und Genauigkeit zu verbessern.

Wie man eine API mit Python testet Wie man eine API mit Python testet Jul 12, 2025 am 02:47 AM

Um die API zu testen, müssen Sie Pythons Anfragebibliothek verwenden. In den Schritten werden die Bibliothek installiert, Anfragen gesendet, Antworten überprüfen, Zeitüberschreitungen festlegen und erneut werden. Installieren Sie zun?chst die Bibliothek über PipinstallRequests. Verwenden Sie dann Requests.get () oder Requests.Post () und andere Methoden zum Senden von GET- oder Post -Anfragen. überprüfen Sie dann die Antwort. Fügen Sie schlie?lich Zeitüberschreitungsparameter hinzu, um die Zeitüberschreitungszeit festzulegen, und kombinieren Sie die Wiederholungsbibliothek, um eine automatische Wiederholung zu erreichen, um die Stabilit?t zu verbessern.

Python variabler Umfang in Funktionen Python variabler Umfang in Funktionen Jul 12, 2025 am 02:49 AM

In Python sind Variablen, die in einer Funktion definiert sind, lokale Variablen und sind nur innerhalb der Funktion gültig. Extern definiert sind globale Variablen, die überall gelesen werden k?nnen. 1. lokale Variablen werden zerst?rt, wenn die Funktion ausgeführt wird. 2. Die Funktion kann auf globale Variablen zugreifen, kann jedoch nicht direkt ge?ndert werden, sodass das globale Schlüsselwort erforderlich ist. 3. Wenn Sie die ?u?eren Funktionsvariablen in verschachtelten Funktionen ?ndern m?chten, müssen Sie das nichtlokale Schlüsselwort verwenden. 4.. Variablen mit demselben Namen beeinflussen sich in verschiedenen Bereichen nicht gegenseitig; 5. Global muss bei der Modifizierung globaler Variablen deklariert werden, ansonsten werden ungebundener Fehler aufgeworfen. Das Verst?ndnis dieser Regeln hilft bei der Vermeidung von Fehler und zum Schreiben zuverl?ssigerer Funktionen.

See all articles