Qwen hat gerade 8 neue Modelle im Rahmen seiner neuesten Familie ver?ffentlicht - QWEN3, die vielversprechende F?higkeiten pr?sentiert. Das Flaggschiff-Modell QWEN3-235B-A22B übertraf die meisten anderen Modelle, darunter Deepseek-R1, OpenAs O1, O3-Mini, GROK 3 und Gemini 2,5-PRO, in Standard-Benchmarks. In der Zwischenzeit übertraf der kleine QWEN3-30B-A3B QWQ-32B, das ungef?hr das 10-fache der aktivierten Parameter als neues Modell aufweist. Mit solchen fortschrittlichen Funktionen erweisen sich diese Modelle als eine gute Wahl für eine breite Palette von Anwendungen. In diesem Artikel werden wir die Merkmale aller QWEN3 -Modelle untersuchen und lernen, wie Sie sie verwenden, um Lappensysteme und KI -Agenten zu erstellen.
Inhaltsverzeichnis
- Was ist Qwen3?
- Schlüsselmerkmale von QWEN3
- So greifen Sie über API auf QWEN3 -Modelle zu
- Verwenden Sie QWEN3, um Ihre KI -L?sungen zu betreiben
- Voraussetzungen
- Aufbau eines AI -Agenten mit QWEN3
- Aufbau eines Lappensystems mit QWEN3
- Anwendungen von Qwen3
- Abschluss
- H?ufig gestellte Fragen
Was ist Qwen3?
QWEN3 ist die neueste Serie von Gro?sprachemodellen (LLMs) in der QWEN -Familie, die aus 8 verschiedenen Modellen besteht. Dazu geh?ren QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B und QWEN3-0.6B. Alle diese Modelle werden unter Apache 2.0 -Lizenz ver?ffentlicht, wodurch sie Einzelpersonen, Entwicklern und Unternehmen frei zur Verfügung stellen.
W?hrend 6 dieser Modelle dicht sind, bedeutet dies, dass sie w?hrend der Zeit der Inferenz und des Trainings alle Parameter aktiv verwenden, 2 von ihnen sind offen gewichtet:
- QWEN3-235B-A22B: Ein gro?es Modell mit 235 Milliarden Parametern, von denen 22 Milliarden aktivierte Parameter sind.
- QWEN3-30B-A3B: Eine kleinere MOE mit 30 Milliarden Gesamtparametern und 3 Milliarden aktivierten Parametern.
Hier ist ein detaillierter Vergleich aller 8 QWEN3 -Modelle:
Modelle | Schichten | K?pfe (Q/KV) | Krawattenbettung | Kontextl?nge |
Qwen3-0.6b | 28 | 16/8 | Ja | 32k |
Qwen3-1.7b | 28 | 16/8 | Ja | 32k |
Qwen3-4b | 36 | 32/8 | Ja | 32k |
Qwen3-8b | 36 | 32/8 | NEIN | 128K |
Qwen3-14b | 40 | 40/8 | NEIN | 128K |
QWEN3-32B | 64 | 64/8 | NEIN | 128K |
QWEN3-30B-A3B | 48 | 32/4 | NEIN | 128K |
QWEN3-235B-A22B | 94 | 64/4 | NEIN | 128K |
Hier ist, was der Tisch sagt:
- Ebenen: Schichten repr?sentieren die Anzahl der verwendeten Transformatorbl?cke. Es umfasst mehrkopf Selbstbek?mpfungsmechanismus, Vorw?rtsnetzwerke, positionelle Codierung, Schichtnormalisierung und Restverbindungen. Wenn ich also sage, dass QWEN3-30B-A3B 48 Schichten hat, bedeutet dies, dass das Modell 48 Transformatorbl?cke verwendet, die nacheinander oder parallel gestapelt sind.
- K?pfe: Transformatoren verwenden mehrk?pfige Aufmerksamkeit, die seinen Aufmerksamkeitsmechanismus in mehrere K?pfe aufteilt, jeweils ein neues Aspekt aus den Daten. Hier repr?sentiert Q/KV:
- Q (Abfragek?pfe): Gesamtzahl der Aufmerksamkeitsk?pfe, die zum Generieren von Abfragen verwendet werden.
- KV (Schlüssel und Wert): Die Anzahl der Schlüssel-/Wertk?pfe pro Aufmerksamkeitsblock.
HINWEIS: Diese Aufmerksamkeitsk?pfe für Schlüssel, Abfrage und Wert unterscheiden sich v?llig von der Schlüssel-, Abfrage- und Wertvektor, die durch eine Selbstbek?mpfung erzeugt werden.
Lesen Sie auch: QWEN3 -Modelle: Wie man zugreift, Leistung, Funktionen und Anwendungen
Schlüsselmerkmale von QWEN3
Hier sind einige der wichtigsten Merkmale der QWEN3 -Modelle:
- Vorausbildung: Der Prozess vor dem Training besteht aus drei Stufen:
- In der ersten Stufe wurde das Modell auf über 30 Billionen Token mit einer Kontextl?nge von 4K -Token vorbereitet. Dies lehrte das Modell grundlegende Sprachkenntnisse und allgemeine Kenntnisse.
- In der zweiten Stufe wurde die Datenqualit?t verbessert, indem der Anteil wissenintensiver Daten wie STEM, Codierung und Argumentationsaufgaben erh?ht wurde. Das Modell wurde dann über weitere 5 Billionen Token trainiert.
- In der letzten Phase wurden hochwertige Langkontextdaten verwendet, indem die Kontextl?nge auf 32 -km -Token erh?ht wurde. Dies wurde durchgeführt, um sicherzustellen, dass das Modell l?ngere Eingaben effektiv verarbeiten kann.
- Nach der Schulung: Um ein Hybridmodell zu entwickeln, das sowohl schrittweise Argumentation als auch schnelle Reaktionen in der Lage ist, wurde eine 4-stufige Trainingspipeline implementiert. Dies bestand aus:
- Langkette des Gedanke (COT)
- Argumentationsbasierte Verst?rkungslernen (RL)
- Denkmodus Fusion
- General Rl
- Hybrid -Denkmodi: QWEN3 -Modelle verwenden einen Hybridansatz zur Probleml?sung mit zwei neuen Modi:
- Denkmodus: In diesem Modus nehmen die Modelle Zeit, indem sie eine komplexe Problemaussage in kleine und prozedurale Schritte einteilen, um sie zu l?sen.
- Nichtdenkungsmodus: In diesem Modus liefert das Modell schnelle Ergebnisse und eignet sich meistens für einfachere Fragen.
- Mehrsprachige Unterstützung: QWEN3 -Modelle unterstützen 119 Sprachen und Dialekte. Dies hilft Benutzern aus der ganzen Welt, von diesen Modellen zu profitieren.
- Improvisierte Agentenfunktionen: QWEN hat die QWEN3 -Modelle für bessere Codierung und Agentenfunktionen optimiert und das Modellkontextprotokoll (MCP) unterstützt.
So greifen Sie über API auf QWEN3 -Modelle zu
Um die QWEN3 -Modelle zu verwenden, werden wir über API mit der OpenRouter -API darauf zugreifen. Hier erfahren Sie, wie es geht:
- Erstellen Sie ein Konto auf OpenRouter und gehen Sie in die Modellsuchleiste, um die API für dieses Modell zu finden.
- W?hlen Sie das Modell Ihrer Wahl und klicken Sie auf der Zielseite auf "API -Taste erstellen", um eine neue API zu generieren.
Verwenden Sie QWEN3, um Ihre KI -L?sungen zu betreiben
In diesem Abschnitt werden wir mit QWEN3 den Prozess des Erstellens von AI -Anwendungen durchlaufen. Wir werden zuerst ein AI-Anbieter-Reiseplaner-Agent mit dem Modell erstellen, und dann einen Q/A-Rag-Bot mit Langchain.
Voraussetzungen
Bevor wir einige reale KI-L?sungen mit QWEN3 erstellen, müssen wir zun?chst die grundlegenden Voraussetzungen wie folgt abdecken:
- Vertrautheit mit der Eingabeaufforderung oder dem Terminal und der F?higkeit, sie durch das Terminal zu führen.
- F?higkeit, Umgebungsvariablen einzurichten.
- Python muss installiert werden: https://www.python.org/downloads/
- Wissen über die Grundlagen von Langchain: https://www.langchain.com/
Aufbau eines AI -Agenten mit QWEN3
In diesem Abschnitt werden wir QWEN3 verwenden, um ein AI-angetriebenes Reisebüro zu erstellen, das die wichtigsten Reisepl?tze für die Stadt oder den Ort, den Sie besuchen, angeben. Wir erm?glichen es dem Agenten auch, das Internet zu durchsuchen, um aktualisierte Informationen zu finden und ein Tool hinzuzufügen, das die W?hrungskonvertierung erm?glicht.
Schritt 1: Einrichten von Bibliotheken und Tools
Zun?chst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Agenten erforderlich sind.
! von Langchain.chat_Models importieren Sie Chatopenai aus Langchain.agents Import -Tool von Langchain.tools Import DuckDuckGoSearchrun importieren von Langchain.agents import initialize_agent llm = chatopenai ( Base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Modell = "Qwen/Qwen3-235b-A22B: Free" ) # Web -Search -Tool search = DuckDuckGoSearchRun () # Tool für DestinationAgent Def get_destinations (Ziel): return search.run (f "Top 3 Touristenpl?tze in {destination}") DestinationTool = Tool ( name = "Ziel empfohlen", func = get_destinations, BESCHREIBUNG = "Findet Top -Orte in einer Stadt zu besuchen" ) # Tool für Currencyagent Def convert_usd_to_inr (Abfrage): Menge = [float (s) für s in query.split () if S.Replace ('.', '', 1) .isdigit ()]] Wenn Betrag: Rückgabe f "{Menge [0]} USD = {Menge [0] * 83.2: .2f} INR" Return "konnte nicht analysieren." CurrencyTool = Tool ( name = "W?hrungswandler", func = convert_usd_to_inr, Beschreibung = "Konvertiert USD in INR basierend auf der statischen Rate" )
- Search_tool: DuckDuckGoSearchrun () erm?glicht es dem Agenten, mit der Websuche Informationen über die beliebten Touristenpl?tze zu erhalten.
- DestinationTool: Wendet die Funktion get_destinations () an, die das Suchwerkzeug verwendet, um die Top 3 Touristenpl?tze in einer bestimmten Stadt zu erhalten.
- CurrencyTool: Verwendet die Funktion convert_usd_to_inr (), um die Preise von USD in INR zu konvertieren. Sie k?nnen 'INR' in der Funktion ?ndern, um sie in eine W?hrung Ihrer Wahl umzuwandeln.
Lesen Sie auch: Erstellen Sie einen Reiseassistenten Chatbot mit Huggingface, Langchain und Mistralai
Schritt 2: Erstellen des Agenten
Nachdem wir alle Tools initialisiert haben, gehen wir mit dem Erstellen eines Agenten, der die Tools verwendet und uns einen Plan für die Reise erm?glichen.
Tools = [DestinationTool, CurrencyTool] Agent = initialize_agent ( Werkzeuge = Werkzeuge, llm = llm, Agent_type = "Zero-Shot-React-Dezescription", w?rtlich = wahr ) Def Trip_Planner (Stadt, USD_Budget): dest = get_destinations (Stadt) INR_BUDGET = CONVERT_USD_TO_INR (f "{USD_BUDGET} USD TO INR")) Rückkehr f "" "Hier ist Ihr Reiseplan: *Top -Pl?tze in {City}*: {dest} *Budget*: {inr_budget} Genie?e deinen Tagesausflug! "" "
- Initialize_agent: Diese Funktion erstellt einen Agenten mit Langchain mit einem Null-Shot-Reaktionsansatz, mit dem der Agent die Toolbeschreibungen verstehen kann.
- Agent_type: "Zero-Shot-React-Dezescription" erm?glicht es dem Agent LLM, zu entscheiden, welches Tool es in einer bestimmten Situation ohne Vorwissen verwenden soll, indem sie die Beschreibung und die Eingabe verwenden.
- Ausführlich: Ausführlich erm?glicht die Protokollierung des Denkprozesses des Agenten, sodass wir jede Entscheidung überwachen k?nnen, die der Agent trifft, einschlie?lich aller Interaktionen und Tools, die aufgerufen werden.
- TRIP_PLANNER: Dies ist eine Python -Funktion, die Tools manuell aufruft, anstatt sich auf den Agenten zu verlassen. Damit kann der Benutzer das beste Tool für ein bestimmtes Problem ausw?hlen.
Schritt 3: Initialisierung des Agenten
In diesem Abschnitt werden wir den Agenten initialisieren und seine Antwort beobachten.
# Initialisieren Sie den Agenten City = "Delhi" USD_BUDGET = 8500 # Führen Sie den Multi-Agent-Planer aus response = Agent.run (f "Planen Sie eine Tagesausreise nach {City} mit einem Budget von {USD_BUDGET} USD")) Aus Ipython.display Import Markdown, Anzeige Anzeige (Markdown (Antwort))
- Aufruf von Agent: Agent.Run () verwendet die Absicht des Benutzers über Eingabeaufforderung und plant die Reise.
Ausgabe
Aufbau eines Lappensystems mit QWEN3
In diesem Abschnitt werden wir einen Rag -Bot erstellen, der jede Abfrage innerhalb des entsprechenden Eingabedokuments aus der Wissensbasis beantwortet. Dies gibt eine informative Antwort unter Verwendung von QWEN/QWEN3-235B-A22B. Das System würde auch Langchain verwenden, um genaue und kontextbezogene Antworten zu erzeugen.
Schritt 1: Einrichten der Bibliotheken und Tools
Zun?chst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Lappensystems erforderlich sind.
! von Langchain_Community.document_loaders Textloader importieren von Langchain.text_splitter importieren charaktertextsplitter von Langchain_Community.VectorStores importieren Chroma von Langchain.embeddings Import HuggingfaceEmbedingdings von Langchain.chains Import Retrievalqa von Langchain.chat_Models importieren Sie Chatopenai # Laden Sie Ihr Dokument auf loader = textloader ("/content/my_docs.txt") docs = lader.load ()
- Laden von Dokumenten: Die Langchain -Klasse ?Textloader“ l?dt das Dokument wie eine PDF-, TXT- oder DOC -Datei, die für das q/a -Abruf verwendet wird. Hier habe ich my_docs.txt hochgeladen.
- Ausw?hlen des Vektor -Setups: Ich habe Chromadb verwendet, um die Einbettungen aus unserer Vektor -Datenbank für den Q/A -Prozess zu speichern und zu durchsuchen.
Schritt 2: Erstellen der Einbettungen
Nachdem wir unser Dokument geladen haben, gehen wir mit dem Erstellen von Einbettungen daraus, was dazu beitr?gt, den Abrufprozess zu lindern.
# In Stücke aufgeteilt splitter = charakterTextsplitter (chunk_size = 300, chunk_overlap = 50) thunks = splitter.split_documents (docs) # Mit dem Umarmungsface -Modell einbetten embettdings = huggingfaceembeddings (model_name = "All-minilm-l6-v2") db = chroma.from_documents (Stücke, Einbettung = Einbettung) # Setup Qwen LLM von OpenRouter aus Setzen llm = chatopenai ( Base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Modell = "Qwen/Qwen3-235b-A22B: Free" ) # Erstellen Sie Rag -Kette retriever = db.as_retriever (search_kwargs = {"k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- Dokumentspaltung: Der CharakterTextSplitter () spaltet den Text in kleinere Stücke, was haupts?chlich in zwei Dingen hilft. Erstens erleichtert es den Abrufprozess und zweitens hilft es bei der Beibehaltung des Kontextes vom vorherigen Chunk über Chunk_Overlap.
- Einbettungsdokumente: Einbettungsdings konvertieren den Text in die Einbettungsvektoren einer festgelegten Dimension für jeden Token. Hier haben wir Chunk_Size von 300 verwendet, was bedeutet, dass jedes Wort/Token in einen Vektor von 300 Dimensionen umgewandelt wird. Jetzt hat diese Vektoreinbettung alle kontextuellen Informationen dieses Wortes in Bezug auf die anderen W?rter im Chunk.
- Lappenkette: Lappenkette kombiniert das Chromadb mit dem LLM, um einen Lappen zu bilden. Auf diese Weise k?nnen wir kontextbezogene Antworten sowohl aus dem Dokument als auch aus dem Modell erhalten.
Schritt 3: Initialisierung des Lappensystems
# Eine Frage stellen response = rag_chain.invoke ({"query": "Wie kann ich Qwen mit MCP verwenden. Bitte geben Sie mir eine schrittweise Anleitung zusammen mit den erforderlichen Code -Snippets"}) Anzeige (Markdown (Antwort ['Ergebnis']))
- Abfrageausführung: Die Methode rag_chain_invoke () sendet die Abfrage des Benutzers an das RAG-System, das dann die relevanten kontextbewussten Brocken aus dem Dokumentstore (Vector DB) abruft und eine kontextbezogene Antwort generiert.
Ausgabe
Hier finden Sie den vollst?ndigen Code.
Anwendungen von Qwen3
Hier finden Sie einige weitere Anwendungen von QWEN3 in Branchen:
- Automatisierte Codierung: QWEN3 kann Code generieren, debuggen und Dokumentationen bereitstellen, mit denen Entwickler Fehler ohne manuelle Aufwand l?sen k?nnen. Sein 22B-Parametermodell zeichnet sich in der Codierung aus, wobei die Leistungen mit Modellen wie Deepseek-R1, Gemini 2.5 Pro und Openai's O3-Mini vergleichbar sind.
- Bildung und Forschung: QWEN3 Archiv hohe Genauigkeit in Mathematik, Physik und Probleml?sung von Logical Denking. Es ist auch mit dem Gemini 2.5 Pro konkurriert, w?hrend es sich mit Modellen wie OpenAs O1, O3-Mini, Deepseek-R1 und GROK 3 Beta auszeichnet.
- Agentenbasierte Tool-Integration: QWEN3 führt auch in AI-Agentenaufgaben an, indem sie die Verwendung externer Tools, APIs und MCPs für mehrstufige und multi-agentische Workflows mit seiner Tool-Calling-Vorlage erm?glichen, was die Agenteninteraktion weiter vereinfacht.
- Erweiterte Argumentationsaufgaben: QWEN3 verwendet eine umfassende Denkf?higkeit, um optimale und genaue Antworten zu liefern. Das Modell verwendet die Kette des Ged?chtnisses für komplexe Aufgaben und einen Nicht-Denken-Modus für optimierte Geschwindigkeit.
Abschluss
In diesem Artikel haben wir gelernt, wie man QWEN3-Agenten-KI- und RAG-Systeme baut. Die hohe Leistung, die mehrsprachige Unterstützung und die fortschrittliche F?higkeit von QWEN3 machen es zu einer starken Wahl für das Abrufen von Wissen und agentenbasierte Aufgaben. Durch die Integration von QWEN3 in RAG- und Agenten-Pipelines k?nnen wir genaue, kontextbezogene und reibungslose Antworten erhalten, was es zu einem starken Anw?rter auf reale Anwendungen für KI-Antriebssysteme macht.
H?ufig gestellte Fragen
Q1. Wie unterscheidet sich QWEN3 von anderen LLMs für LAG?A. QWEN3 verfügt über eine hybride Argumentationsf?higkeit, mit der es dynamische ?nderungen in den Antworten vornehmen kann, mit der die RAG -Workflows sowohl für die Abruf- als auch für die komplexe Analyse optimiert werden k?nnen.
Q2. Was sind die Werkzeuge, die zur Integration von Lappen ben?tigt werden?A. Es umfasst haupts?chlich die Vektordatenbank, einbettende Modelle, Langchain -Workflow und eine API, um auf das Modell zuzugreifen.
Q3. Kann QWEN3 das Multisep -Werkzeugketten im Agent -Workflow erm?glichen?Ja, mit den integrierten Templates für integrierte Tools in Qwen-Agent k?nnen wir sequentielle Tool-Vorg?nge wie Websuche, Datenanalyse und Berichterstellung analysieren und aktivieren.
Q4. Wie kann man die Latenz in QWEN3 -Agentenreaktionen reduzieren? A. Man kann die Latenz in vielerlei Hinsicht verringern, einige von ihnen sind:
1. Verwendung von MOE-Modellen wie QWEN3-30B-A3B, die nur 3 Milliarden aktive Parameter haben.
2. Durch Verwendung von GPU-optimierten Schlussfolgerungen.
A. Der übliche Fehler beinhaltet:
1. MCP Server -Initialisierungsfehler wie JSON -Formatierung und Init.
2. Fehlerpaarungsfehler.
3. Kontextfensterüberlauf.
Das obige ist der detaillierte Inhalt vonWie man Lag -Systeme und KI -Agenten mit QWEN3 baut. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen

Googles NotebookLM ist ein intelligentes KI-Notiz-Tool, das von Gemini 2.5 betrieben wird, das sich beim Zusammenfassen von Dokumenten auszeichnet. Es hat jedoch weiterhin Einschr?nkungen bei der Verwendung von Tools, wie Quellkappen, Cloud -Abh?ngigkeit und der jüngsten ?Discover“ -Funktion

Hier sind zehn überzeugende Trends, die die AI -Landschaft der Unternehmen neu ver?ndern. Das riskante finanzielle Engagement für LLMSorganisierungen erh?ht ihre Investitionen in LLM erheblich, wobei 72% erwarten, dass ihre Ausgaben in diesem Jahr steigen. Derzeit fast 40% a

Das Investieren boomt, aber Kapital allein reicht nicht aus. Mit zunehmender Bewertungen und Verblassen der Unterscheidungskraft müssen Investoren in AI-fokussierten Risikokonstrumentfonds eine wichtige Entscheidung treffen: Kaufen, Bau oder Partner, um einen Vorteil zu erlangen? Hier erfahren Sie, wie Sie jede Option bewerten - und PR

Offenlegung: Mein Unternehmen, Tirias Research, hat sich für IBM, NVIDIA und andere in diesem Artikel genannte Unternehmen beraten. Wachstumstreiber Die Anstieg der generativen KI -Adoption war dramatischer als selbst die optimistischsten Projektionen, die vorhersagen konnten. Dann a

Diese Tage sind dank AI nummeriert. Suchen Sie den Verkehr für Unternehmen wie die Reisebereich Kayak und das Edtech -Unternehmen Chegg, teilweise, weil 60% der Suchanfragen auf Websites wie Google nicht dazu führen, dass Benutzer laut One Stud auf Links klicken

Die Kluft zwischen weit verbreiteter Akzeptanz und emotionaler Bereitschaft zeigt etwas Wesentliches darüber, wie sich die Menschen mit ihrer wachsenden Auswahl an digitalen Gef?hrten besch?ftigen. Wir betreten eine Phase des Koexistenz

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Auf dem Weg zu Agi und

Schauen wir uns genauer an, was ich am bedeutendsten fand - und wie Cisco auf seinen aktuellen Bemühungen aufbauen k?nnte, seine Ambitionen weiter zu verwirklichen.
