Bis zum Vorjahr wurde eine schnelle Engineering als entscheidende F?higkeit zur Interaktion mit gro?artigen Modellen (LLMs) angesehen. In jüngster Zeit sind LLM jedoch in ihren Argumentations- und Verst?ndnisf?higkeiten erheblich fortgeschritten. Natürlich haben sich unsere Erwartungen auch dramatisch weiterentwickelt. Vor einem Jahr waren wir zufrieden, wenn Chatgpt eine anst?ndige E -Mail für uns verfassen k?nnte. Heute erwarten wir, dass es unsere Daten analysiert, unsere Systeme automatisiert und Pipelines entworfen hat. Allein so schnell reicht allein nicht aus, um skalierbare KI -L?sungen zu erstellen. Um das Potenzial von LLMs vollst?ndig zu nutzen, empfehlen Experten nun, kontextreiche Eingabeaufforderungen einzubeziehen, die einigerma?en genaue, zuverl?ssige und geeignete Outputs erzeugen. Dieser Prozess wird nun als ?Kontext -Engineering“ bezeichnet. In diesem Artikel werden wir untersuchen, welche Kontext-Engineering es beinhaltet, wie es sich vom schnellen Engineering unterscheidet und wie hochwertiges Kontext-Engineering zum Aufbau von L?sungen auf Unternehmensebene verwendet werden kann.
Inhaltsverzeichnis
- Was ist Context Engineering?
- Kontext -Engineering vs prompt Engineering
- Was sind die Komponenten des Kontext -Engineering?
- Anweisung Eingabeaufforderung
- Benutzeraufforderung
- Gespr?chsgeschichte
- Langzeitged?chtnis
- LAPPEN
- Werkzeugdefinition
- Ausgangsstruktur
- Warum brauchen wir kontextreiche Eingabeaufforderungen?
- Verwenden der gut strukturierten Eingabeaufforderung
- Mit einer unstrukturierten Eingabeaufforderung
- Wie schreibe ich bessere kontextreiche Eingabeaufforderungen für Ihren Workflow?
- Schreibkontext entwickeln
- Kontext ausw?hlen
- Komprimierungskontext
- Kontext isolieren
- Mein Rat
- Abschluss
Was ist Context Engineering?
Context Engineering ist die Praxis, die gesamte Eingabe zu organisieren, die einem gro?en Sprachmodell zur Verbesserung seiner Genauigkeit und Zuverl?ssigkeit gegeben wird. Es beinhaltet die Strukturierung und Optimierung der Eingabeaufforderungen, damit der LLM den gesamten "Kontext" empf?ngt, der erforderlich ist, um eine Antwort zu erzeugen, die genau mit der gewünschten Ausgabe übereinstimmt.
Kontext -Engineering vs prompt Engineering
Auf den ersten Blick scheint das Kontext -Engineering ein weiterer Begriff für prompte Engineering zu sein. Aber ist das wirklich der Fall? Lassen Sie uns die Unterscheidung schnell klarstellen.
Bei der schnellen Technik geht es darum, einen einzelnen, gut strukturierten Eingang zu erstellen, der den von einem LLM erhaltenen Ausgang führt. Es hilft, die besten Ergebnisse mit nur der Eingabeaufforderung zu erzielen. In der schnellen Technik geht es im Wesentlichen um das, was Sie fragen.
Bei Context Engineering dagegen geht es darum, die vollst?ndige Umgebung rund um die LLM einzurichten. Ziel ist es, die Ausgangsgenauigkeit und Effizienz des Modells selbst für komplexe Aufgaben zu verbessern. Bei Context Engineering geht es darum, wie Sie Ihr Modell auf die Reaktion vorbereiten.
Im Wesentlichen,
<code>Context Engineering = Prompt Engineering (Documents/Agents/Metadata/RAG, etc.)</code>
Was sind die Komponenten des Kontext -Engineering?
Die Kontext -Engineering geht weit über die Eingabeaufforderung hinaus. Einige seiner Schlüsselkomponenten umfassen:
- Anweisung Eingabeaufforderung
- Benutzeraufforderung
- Gespr?chsgeschichte
- Langzeitged?chtnis
- LAPPEN
- Werkzeugdefinition
- Ausgangsstruktur
Jedes dieser Kontextelemente beeinflusst die Eingabe des LLM -Prozesses und bestimmt seine Reaktion. Lassen Sie uns in jede Komponente eintauchen und sie als Beispiel mit ChatGPT veranschaulichen.
1. Eingabeaufforderung
Systemanweisungen oder Aufforderungen, die die Pers?nlichkeit, Regeln und das Verhalten des Modells leiten.
Wie nutzt Chatgpt es ?
Es "Frames" alle nachfolgenden Antworten. Zum Beispiel, wenn die Systemaufforderung lautet:
?Sie sind ein erfahrener Rechtsassistent. Beantworten Sie genau und geben Sie keine medizinischen Beratung an“, geben Sie rechtliche Antworten und vermeiden Sie medizinische Beratung.
Ich sah einen verwundeten Mann am Raod und ich bringe ihn ins Krankenhaus ins Krankenhaus
2. Benutzeraufforderung
Benutzeraufforderungen für sofortige Aufgaben oder Fragen.
Wie nutzt Chatgpt es ?
Es dient als Hauptsignal, um zu bestimmen, welche Reaktion erzeugt werden soll.
Beispiel: Benutzer: ?Fassen Sie diesen Artikel in zwei Kugelpunkten zusammen.“
3. Gespr?chsgeschichte
Aufrechterhaltung des Gespr?chsflusss.
Wie nutzt Chatgpt es ?
Es liest sich jedes Mal, wenn es reagiert, den gesamten Chat -Verlauf, um die Konsistenz aufrechtzuerhalten.
Benutzer (früher): ?Mein Projekt ist in Python.“
Benutzer (sp?ter): " Wie verbinde ich mich zu einer Datenbank?"
Chatgpt wird wahrscheinlich in Python antworten, weil es sich erinnert
### 4. Langzeitged?chtnisLangzeitged?chtnis zum Aufbewahren von Benutzerpr?ferenzen, Gespr?chen oder wichtigen Fakten.
In Chatgpt:
Benutzer (vor Wochen) : "Ich bin vegan."
Jetzt : "Gib mir ein paar Ideen für das Abendessen in Paris."
Chatgpt nimmt Ihre Ern?hrungsbeschr?nkungen zur Kenntnis und bietet einige veganfreundliche Optionen.
5. Lappen
RAGUVAL-Augmented Generation (RAG) bietet Echtzeitinformationen aus Dokumenten, APIs oder Datenbanken, um relevante, zeitnahe Antworten zu generieren.
In ChatGPT mit aktivierter Browser/Tools:
Benutzer : "Was ist das Wetter in Delhi gerade?"
ChatGPT ruft Echtzeitdaten aus dem Web ab, um die aktuellen Wetterbedingungen bereitzustellen.
6. Werkzeugdefinition
Werkzeugdefinitionen, die das Modell informieren, wie und wann bestimmte Funktionen ausgeführt werden sollen.
In Chatgpt mit Tools/Plugins:
Benutzer : ?Buchen Sie mir einen Flug nach Tokio.“
Chatgpt ruft ein Tool wie Search_flights (Ziel, Daten) auf und pr?sentiert verfügbare Flugoptionen.
7. Ausgangsstruktur
Strukturierte Ausgangsformate, die Antworten als JSON, Tabellen oder ein beliebiges Format nach nachgeschalteten Systemen zurückgeben.
In Chatgpt für Entwickler:
Anweisung : ?Als JSON -wie {'Ziel': '…', 'Days':…}“ formatiert.
ChatGPT antwortet im angeforderten Format und macht es programmatisch analysiert.
Warum brauchen wir kontextreiche Eingabeaufforderungen?
Moderne AI -L?sungen beruhen nicht nur auf LLMs, sondern verwenden auch zunehmend AI -Agenten. W?hrend Frameworks und Tools wichtig sind, liegt die tats?chliche St?rke eines KI -Agenten darin, wie effektiv es sich effektiv versammelt und den Kontext an die LLM liefert.
Stellen Sie sich das so vor: Die Hauptaufgabe des Agenten ist nicht darin, zu entscheiden, wie sie reagieren sollen. Es geht darum, die richtigen Informationen zu sammeln und den Kontext zu erweitern, bevor Sie die LLM aufrufen. Dies k?nnte das Hinzufügen von Daten aus Datenbanken, APIs, Benutzerprofilen oder früheren Gespr?chen beinhalten.
Wenn zwei AI -Agenten dieselbe Framework und Werkzeuge verwenden, liegt ihre wirkliche Unterscheidung in der Art und Weise, wie Anweisungen und Kontext entwickelt werden. Eine kontextreiche Eingabeaufforderung stellt sicher, dass das LLM nicht nur die unmittelbare Frage versteht, sondern auch das breitere Ziel, die Benutzerpr?ferenzen und alle externen Tatsachen, die erforderlich sind, um pr?zise, zuverl?ssige Ergebnisse zu erzielen.
Beispiel
Nehmen wir zum Beispiel zwei Systemaufforderungen an einen Agenten, dessen Ziel es ist, eine personalisierte Ern?hrung und einen Trainingsplan zu erstellen.
Gut strukturierte Eingabeaufforderung | Schlecht strukturierte Eingabeaufforderung |
** Sie sind Fitcoach, ein erfahrener KI -Fitness- und Ern?hrungstrainer, der sich ausschlie?lich auf Fitnessstudio -Workouts und -di?t konzentriert. ** Kritische Regeln - müssen streng folgen:
Erforderliche Informationen (müssen alle vor einem Plan sammeln):
|
Das obige ist der detaillierte Inhalt vonContext Engineering ist der neue ' Schnelltechnik. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen

Googles NotebookLM ist ein intelligentes KI-Notiz-Tool, das von Gemini 2.5 betrieben wird, das sich beim Zusammenfassen von Dokumenten auszeichnet. Es hat jedoch weiterhin Einschr?nkungen bei der Verwendung von Tools, wie Quellkappen, Cloud -Abh?ngigkeit und der jüngsten ?Discover“ -Funktion

Aber was hier auf dem Spiel steht, sind nicht nur rückwirkende Sch?den oder Lizenzgebühren. Laut Yelena Ambartsumian, einer KI-Governance- und IP-Anw?ltin und Gründerin von Ambart Law PLLC, ist das eigentliche Anliegen zukunftsweisend. ?Ich denke, Disney und Universal's MA

Die Verwendung von AI ist nicht dasselbe wie die Verwendung gut zu verwenden. Viele Gründer haben dies durch Erfahrung entdeckt. Was als zeitsparendes Experiment beginnt, schafft oft mehr Arbeit. Die Teams verbringen Stunden damit, Inhalte der AI-generierten überarbeitung oder überprüfung der Ausgaben zu überprüften

Hier sind zehn überzeugende Trends, die die AI -Landschaft der Unternehmen neu ver?ndern. Das riskante finanzielle Engagement für LLMSorganisierungen erh?ht ihre Investitionen in LLM erheblich, wobei 72% erwarten, dass ihre Ausgaben in diesem Jahr steigen. Derzeit fast 40% a

Das Space Company Voyager Technologies sammelte am Mittwoch w?hrend seines B?rsengangs fast 383 Millionen US -Dollar, wobei die Aktien auf 31 US -Dollar angeboten wurden. Das Unternehmen bietet sowohl Regierungs- als auch gewerblichen Kunden eine Reihe von platzbezogenen Dienstleistungen an, einschlie?lich Aktivit?ten an Bord der IN-

Ich habe natürlich die Boston -Dynamik, die sich in der N?he befindet, genau gefolgt. Auf der globalen Bühne steigt jedoch ein anderes Robotikunternehmen als beeindruckende Pr?senz. Ihre vierbeinigen Roboter werden bereits in der realen Welt eingesetzt, und werden

Fügen Sie dieser Realit?t die Tatsache hinzu, dass KI weitgehend eine schwarze Box bleibt und die Ingenieure immer noch Schwierigkeiten haben zu erkl?ren, warum Modelle sich unvorhersehbar verhalten oder wie Sie sie beheben k?nnen, und Sie k?nnten die gr??te Herausforderung für die Branche heute erfassen.

Nvidia hat Lepton AI als DGX Cloud Lepton umbenannt und im Juni 2025 wieder eingeführt. Wie von NVIDIA angegeben, bietet der Service eine einheitliche AI
