


So erstellen Sie Ihr eigenes RAG mit kostenlosen LLM-Modellen und einer Wissensdatenbank
Dec 28, 2024 am 08:49 AMIn diesem Artikel wird die Implementierung eines unkomplizierten, aber effektiven Frage-Antwort-Systems untersucht, das moderne transformatorbasierte Modelle kombiniert. Das System verwendet T5 (Text-to-Text Transfer Transformer) für die Antwortgenerierung und Satztransformatoren für den semantischen ?hnlichkeitsabgleich.
In meinem vorherigen Artikel habe ich erkl?rt, wie man mithilfe eines kostenlosen grundlegenden LLM-Modells eine einfache übersetzungs-API mit einer Webschnittstelle erstellt. Lassen Sie uns dieses Mal in den Aufbau eines Retrieval-Augmented Generation (RAG)-Systems unter Verwendung kostenloser transformatorbasierter LLM-Modelle und einer Wissensdatenbank eintauchen.
RAG (Retrieval-Augmented Generation) ist eine Technik, die zwei Schlüsselkomponenten kombiniert:
Abruf: Zun?chst wird eine Wissensdatenbank (wie Dokumente, Datenbanken usw.) durchsucht, um relevante Informationen für eine bestimmte Abfrage zu finden. Dies beinhaltet normalerweise:
- Text in Einbettungen (numerische Vektoren, die Bedeutung darstellen) umwandeln
- Suchen ?hnlicher Inhalte mithilfe von ?hnlichkeitsma?en (z. B. Kosinus-?hnlichkeit)
- Auswahl der relevantesten Informationen
Generierung: Anschlie?end wird ein Sprachmodell (wie T5 in unserem Code) verwendet, um eine Antwort zu generieren durch:
Kombinieren der abgerufenen Informationen mit der ursprünglichen Frage
Erstellen einer Antwort in natürlicher Sprache basierend auf diesem Kontext
Im Code:
- Der SentenceTransformer übernimmt den Abrufteil durch die Erstellung von Einbettungen
- Das T5-Modell übernimmt den Generierungsteil durch die Erstellung von Antworten
Vorteile von RAG:
- Genauere Antworten, da sie auf spezifischem Wissen basieren
- Reduzierte Halluzinationen im Vergleich zu reinen LLM-Reaktionen
- M?glichkeit, auf aktuelle oder dom?nenspezifische Informationen zuzugreifen
- Kontrollierbarer und transparenter als die reine Generierung
überblick über die Systemarchitektur
Die Implementierung besteht aus einer SimpleQASystem-Klasse, die zwei Hauptkomponenten orchestriert:
- Ein semantisches Suchsystem mit Satztransformatoren
- Ein Antwortgenerierungssystem mit T5
Sie k?nnen die neueste Version des Quellcodes hier herunterladen: https://github.com/alexander-uspenskiy/rag_project
Systemdiagramm
RAG-Projekt-Setup-Handbuch
Diese Anleitung hilft Ihnen beim Einrichten Ihres Retrieval-Augmented Generation (RAG)-Projekts sowohl unter macOS als auch unter Windows.
Voraussetzungen
Für macOS:
Homebrew installieren (falls noch nicht installiert):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Installieren Sie Python 3.8 mit Homebrew
brew install python@3.10
Für Windows:
Laden Sie Python 3.8 von python.org herunter und installieren Sie es
Stellen Sie sicher, dass Sie w?hrend der Installation ?Python zu PATH hinzufügen“ aktivieren
Projekt-Setup
Schritt 1: Projektverzeichnis erstellen
macOS:
mkdir RAG_project
cd RAG_project
Windows:
mkdir RAG_project
cd RAG_project
Schritt 2: Virtuelle Umgebung einrichten
macOS:
python3 -m venv venv
Quelle venv/bin/activate
Windows:
python -m venv venv
venvScriptsactivate
**Kernkomponenten
- Initialisierung**
def __init__(self): self.model_name = 't5-small' self.tokenizer = T5Tokenizer.from_pretrained(self.model_name) self.model = T5ForConditionalGeneration.from_pretrained(self.model_name) self.encoder = SentenceTransformer('paraphrase-MiniLM-L6-v2')
Das System initialisiert mit zwei Hauptmodellen:
T5-small: Eine kleinere Version des T5-Modells zur Generierung von Antworten
paraphrase-MiniLM-L6-v2: Ein Satztransformationsmodell zum Kodieren von Text in sinnvolle Vektoren
2. Datensatzvorbereitung
def prepare_dataset(self, data: List[Dict[str, str]]): self.answers = [item['answer'] for item in data] self.answer_embeddings = [] for answer in self.answers: embedding = self.encoder.encode(answer, convert_to_tensor=True) self.answer_embeddings.append(embedding)
Die Datensatzvorbereitungsphase:
- Extrahiert Antworten aus den Eingabedaten
- Erstellt Einbettungen für jede Antwort mithilfe des Satztransformators
- Speichert sowohl Antworten als auch deren Einbettungen zum schnellen Abrufen
Wie das System funktioniert
1. Fragenbearbeitung
Wenn ein Benutzer eine Frage einreicht, führt das System die folgenden Schritte aus:
Einbettungsgenerierung: Die Frage wird in eine Vektordarstellung umgewandelt, wobei dasselbe Satztransformationsmodell verwendet wird, das für die Antworten verwendet wird.
Semantische Suche: Das System findet die relevanteste gespeicherte Antwort nach:
- Berechnung der Kosinus?hnlichkeit zwischen der Frageneinbettung und allen Antworteinbettungen
- Auswahl der Antwort mit der h?chsten ?hnlichkeitsbewertung Kontextbildung: Die ausgew?hlte Antwort wird zum Kontext für T5, um eine endgültige Antwort zu generieren.
2. Antwortgenerierung
def get_answer(self, question: str) -> str: # ... semantic search logic ... input_text = f"Given the context, what is the answer to the question: {question} Context: {context}" input_ids = self.tokenizer(input_text, max_length=512, truncation=True, padding='max_length', return_tensors='pt').input_ids outputs = self.model.generate(input_ids, max_length=50, num_beams=4, early_stopping=True, no_repeat_ngram_size=2
Der Antwortgenerierungsprozess:
- Kombiniert die Frage und den Kontext zu einer Eingabeaufforderung für T5
- Tokenisiert den Eingabetext mit einer maximalen L?nge von 512 Token
- Erzeugt eine Antwort mithilfe der Strahlsuche mit diesen Parametern:
- max_length=50: Begrenzt die Antwortl?nge
- num_beams=4: Verwendet Strahlsuche mit 4 Strahlen
- early_stopping=True: Stoppt die Generierung, wenn alle Strahlen ein End-Token erreichen
- no_repeat_ngram_size=2: Verhindert die Wiederholung von Bigrammen
3. Antwort Reinigung
def __init__(self): self.model_name = 't5-small' self.tokenizer = T5Tokenizer.from_pretrained(self.model_name) self.model = T5ForConditionalGeneration.from_pretrained(self.model_name) self.encoder = SentenceTransformer('paraphrase-MiniLM-L6-v2')
- Entfernt doppelte aufeinanderfolgende W?rter (ohne Berücksichtigung der Gro?- und Kleinschreibung)
- Der erste Buchstabe der Antwort wird gro? geschrieben
- Entfernt zus?tzliche Leerzeichen
Vollst?ndiger Quellcode
Sie k?nnen die neueste Version des Quellcodes hier herunterladen: https://github.com/alexander-uspenskiy/rag_project
def prepare_dataset(self, data: List[Dict[str, str]]): self.answers = [item['answer'] for item in data] self.answer_embeddings = [] for answer in self.answers: embedding = self.encoder.encode(answer, convert_to_tensor=True) self.answer_embeddings.append(embedding)
Speicherverwaltung:
Das System nutzt explizit die CPU, um Speicherprobleme zu vermeiden
Einbettungen werden bei Bedarf in CPU-Tensoren umgewandelt
Die Eingabel?nge ist auf 512 Token begrenzt
Fehlerbehandlung:
- Umfassende Try-Except-Bl?cke im gesamten Code
- Aussagekr?ftige Fehlermeldungen zum Debuggen
- Validierungsprüfungen für nicht initialisierte Komponenten
Anwendungsbeispiel
def get_answer(self, question: str) -> str: # ... semantic search logic ... input_text = f"Given the context, what is the answer to the question: {question} Context: {context}" input_ids = self.tokenizer(input_text, max_length=512, truncation=True, padding='max_length', return_tensors='pt').input_ids outputs = self.model.generate(input_ids, max_length=50, num_beams=4, early_stopping=True, no_repeat_ngram_size=2
Im Terminal ausführen
Einschr?nkungen und m?gliche Verbesserungen
Skalierbarkeit:
Die aktuelle Implementierung beh?lt alle Einbettungen im Speicher
K?nnte mit Vektordatenbanken für gro? angelegte Anwendungen verbessert werden
Antwortqualit?t:
H?ngt stark von der Qualit?t des bereitgestellten Antwortdatensatzes ab
Begrenzt durch das Kontextfenster von T5-small
K?nnte von einer Antwortvalidierung oder einer Konfidenzbewertung profitieren
Leistung:
- Die alleinige Verwendung der CPU kann bei umfangreichen Anwendungen langsamer sein
- K?nnte durch Stapelverarbeitung optimiert werden
- K?nnte Caching für h?ufig gestellte Fragen implementieren
Abschluss
Diese Implementierung bietet eine solide Grundlage für ein Frage-Antwort-System und kombiniert die St?rken der semantischen Suche und der transformatorbasierten Textgenerierung. Spielen Sie gerne mit Modellparametern (wie max_length, num_beams, Early_stopping, no_repeat_ngram_size usw.), um einen besseren Weg zu finden, um koh?rentere und stabilere Antworten zu erhalten. Obwohl es Raum für Verbesserungen gibt, bietet die aktuelle Implementierung ein gutes Gleichgewicht zwischen Komplexit?t und Funktionalit?t, sodass sie für Bildungszwecke und kleine bis mittlere Anwendungen geeignet ist.
Viel Spa? beim Codieren!
Das obige ist der detaillierte Inhalt vonSo erstellen Sie Ihr eigenes RAG mit kostenlosen LLM-Modellen und einer Wissensdatenbank. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der Schlüssel zum Umgang mit der API -Authentifizierung besteht darin, die Authentifizierungsmethode korrekt zu verstehen und zu verwenden. 1. Apikey ist die einfachste Authentifizierungsmethode, die normalerweise in den Anforderungsheader- oder URL -Parametern platziert ist. 2. BasicAuth verwendet Benutzername und Kennwort für die Basis64 -Codierungsübertragung, die für interne Systeme geeignet ist. 3.. OAuth2 muss das Token zuerst über Client_id und Client_secret erhalten und dann das BearerToken in den Anforderungsheader bringen. V. Kurz gesagt, die Auswahl der entsprechenden Methode gem?? dem Dokument und das sichere Speichern der Schlüsselinformationen ist der Schlüssel.

Assert ist ein Inssertion -Tool, das in Python zum Debuggen verwendet wird, und wirft einen Assertionerror aus, wenn der Zustand nicht erfüllt ist. Die Syntax ist eine geltende Bedingung sowie optionale Fehlerinformationen, die für die interne Logiküberprüfung geeignet sind, z. B. Parameterprüfung, Statusbest?tigung usw., k?nnen jedoch nicht für die Sicherheits- oder Benutzereingabeprüfung verwendet werden und sollten in Verbindung mit klaren Eingabeaufforderungen verwendet werden. Es ist nur zum Hilfsdebuggen in der Entwicklungsphase verfügbar, anstatt die Ausnahmebehandlung zu ersetzen.

TypHintsinpythonsolvetheProblemofAmbiguityAndpotentialbugsindynamicalpedCodeByAllowingDevelopstospecifyexpectypes

Eine gemeinsame Methode, um zwei Listen gleichzeitig in Python zu durchqueren, besteht darin, die Funktion ZIP () zu verwenden, die mehrere Listen in der Reihenfolge und die kürzeste ist. Wenn die Listenl?nge inkonsistent ist, k?nnen Sie iTertools.zip_longest () verwenden, um die l?ngste zu sein und die fehlenden Werte auszufüllen. In Kombination mit Enumerate () k?nnen Sie den Index gleichzeitig erhalten. 1.zip () ist pr?gnant und praktisch, geeignet für die Iteration gepaarte Daten; 2.zip_longest () kann den Standardwert beim Umgang mit inkonsistenten L?ngen einfüllen. 3.Enumerate (ZIP ()) kann w?hrend des Durchlaufens Indizes erhalten und die Bedürfnisse einer Vielzahl komplexer Szenarien erfüllen.

INPYTHON, ITERATORATORSAROBJECTSHATALWOULOUPING ThroughCollections Byimplementing__iter __ () und __Next __ (). 1) IteratorsworkviATheiterProtocol, verwendete __iter __ () toreturn thiteratorand__Next __ () torethentexteemtemuntemuntilstoperationSaised.2) und

Um moderne und effiziente APIs mit Python zu schaffen, wird Fastapi empfohlen. Es basiert auf Eingabeaufforderungen an Standardpython -Typ und kann automatisch Dokumente mit ausgezeichneter Leistung generieren. Nach der Installation von Fastapi und ASGI Server Uvicorn k?nnen Sie Schnittstellencode schreiben. Durch das Definieren von Routen, das Schreiben von Verarbeitungsfunktionen und die Rückgabe von Daten kann schnell APIs erstellt werden. Fastapi unterstützt eine Vielzahl von HTTP -Methoden und bietet automatisch generierte Swaggerui- und Redoc -Dokumentationssysteme. URL -Parameter k?nnen durch Pfaddefinition erfasst werden, w?hrend Abfrageparameter durch Einstellen von Standardwerten für Funktionsparameter implementiert werden k?nnen. Der rationale Einsatz pydantischer Modelle kann dazu beitragen, die Entwicklungseffizienz und Genauigkeit zu verbessern.

Um die API zu testen, müssen Sie Pythons Anfragebibliothek verwenden. In den Schritten werden die Bibliothek installiert, Anfragen gesendet, Antworten überprüfen, Zeitüberschreitungen festlegen und erneut werden. Installieren Sie zun?chst die Bibliothek über PipinstallRequests. Verwenden Sie dann Requests.get () oder Requests.Post () und andere Methoden zum Senden von GET- oder Post -Anfragen. überprüfen Sie dann die Antwort. Fügen Sie schlie?lich Zeitüberschreitungsparameter hinzu, um die Zeitüberschreitungszeit festzulegen, und kombinieren Sie die Wiederholungsbibliothek, um eine automatische Wiederholung zu erreichen, um die Stabilit?t zu verbessern.

In Python sind Variablen, die in einer Funktion definiert sind, lokale Variablen und sind nur innerhalb der Funktion gültig. Extern definiert sind globale Variablen, die überall gelesen werden k?nnen. 1. lokale Variablen werden zerst?rt, wenn die Funktion ausgeführt wird. 2. Die Funktion kann auf globale Variablen zugreifen, kann jedoch nicht direkt ge?ndert werden, sodass das globale Schlüsselwort erforderlich ist. 3. Wenn Sie die ?u?eren Funktionsvariablen in verschachtelten Funktionen ?ndern m?chten, müssen Sie das nichtlokale Schlüsselwort verwenden. 4.. Variablen mit demselben Namen beeinflussen sich in verschiedenen Bereichen nicht gegenseitig; 5. Global muss bei der Modifizierung globaler Variablen deklariert werden, ansonsten werden ungebundener Fehler aufgeworfen. Das Verst?ndnis dieser Regeln hilft bei der Vermeidung von Fehler und zum Schreiben zuverl?ssigerer Funktionen.
