


QWQ-32B de Qwen: petit modèle avec un énorme potentiel - Analytics Vidhya
Mar 21, 2025 am 09:38 AMLes prouesses de l'IA en Chine se développent rapidement, avec des modèles comme Deepseek et Qwen défier les leaders mondiaux. Deepseek, un rival de Chatgpt, a attiré une attention significative, tandis que le chatbot polyvalent de Qwen, l'intégration de la vision, du raisonnement et du codage, fait des progrès impressionnants. QWQ 32B, le dernier modèle de raisonnement de QWEN, est un concurrent de taille moyenne, en concurrence avec des modèles de haut niveau comme Deepseek-R1 et O1-MinI, démontrant des progrès remarquables de l'IA de la Chine.
Table des matières
- Comprendre QWQ 32B de QWEN
- Benchmarks de performance
- Accéder à QWQ 32B:
- La méthode la plus simple: chat qwen
- Déploiement local via le visage étreint
- Configuration locale simplifiée avec Olllama
- QWQ 32B en action
- Conclusion
Comprendre QWQ 32B de QWEN
QWQ-32B, un modèle de paramètres de 32 milliards de la famille QWEN, exploite l'apprentissage de renforcement (RL) pour améliorer ses capacités de raisonnement et de résolution de problèmes. Ses performances rivalisent avec celles de modèles plus grands tels que Deepseek-R1, adaptant son raisonnement en fonction de la rétroaction et de l'utilisation efficace des outils. Poids ouvert et disponible sous la licence Apache 2.0 sur Hugging Face et Modelscope, il est également accessible par le chat QWen, présentant le potentiel de RL pour augmenter considérablement les performances de l'IA.
Benchmarks de performance
Les compétences de raisonnement mathématique, de codage et de résolution de résolution de problèmes de QWQ-32B ont été rigoureusement testées sur divers repères. Les comparaisons suivantes mettent en évidence ses performances avec les principaux modèles comme Deepseek-R1-Distillé-QWEN-32B, Deepseek-R1-distillé-llama-70b, O1-MinI et l'original Deepseek-R1.
LiveBench scores, évaluant le raisonnement à travers diverses taches, positionnez QWQ-32B entre R1 et O3-MinI, mais à un co?t nettement inférieur (environ 1 / 10e). Les estimations des prix, basées sur les données API ou OpenRouter, placent QWQ-Preview à 0,18 $ par jeton de sortie sur Deepinfra, soulignant sa rentabilité.
Le QWQ-32B d'Alibaba obtient un score de 59% sur le diamant GPQA (raisonnement scientifique) et 86% sur AIME 2024 (mathématiques). Tout en excellant en mathématiques, son raisonnement scientifique est à la tra?ne des meilleurs concurrents.
Actuellement tendance n ° 1 sur HuggingFace.
En savoir plus via notre cours QWQ 32B gratuit!
Accéder à QWQ 32B
L'accès au QWQ-32B offre plusieurs options en fonction de vos besoins et de votre expertise technique.
Via le chat Qwen (approche la plus simple)
- Visitez http://m.miracleart.cn/link/e3524b4d458e3625befde27f60809f34 .
- Créer un compte (si nécessaire).
- Sélectionnez "QWQ-32B" dans le menu de sélection du modèle.
- Commencez à interagir avec le modèle.
Déploiement local via le visage étreint
Prérequis:
- GPU haut de gamme (24 Go de VRAM minimum; 80 Go pour le FP16 non qualifié; environ 20 Go pour les versions quantifiées).
- Python 3.8, git, pip ou conda.
- Bibliothèque de transformateurs de face étreintes (4.37.0).
Installation et utilisation: (Les extraits de code fournis dans le texte d'origine sont conservés ici)
<code>pip install transformers torch</code>
<code>from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") tokenizer = AutoTokenizer.from_pretrained(model_name)</code>
<code>prompt = "How many r's are in the word 'strawberry'?" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=512) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)</code>
Configuration locale simplifiée avec Olllama
- Téléchargez et installez Olllama depuis olllama.com.
- Tirez le modèle:
ollama pull qwq:32b
- Exécutez le modèle:
ollama run qwq:32b
QWQ 32B en action
(Des exemples avec des vidéos intégrés sont conservés du texte original)
Invite: Créez une page Web statique avec une bougie éclairante avec des étincelles autour de la flamme
Invite: développez un jeu assis où vous pouvez tirer des missiles dans toutes les directions. Au début, la vitesse de l'ennemi est très lente, mais après avoir vaincu trois ennemis, la vitesse augmente progressivement. Implémentation dans P5.JS
Invite: écrivez un programme Python qui montre une balle rebondissant à l'intérieur d'un hexagone tournante. La balle doit être affectée par la gravité et la friction, et elle doit rebondir de manière réaliste des murs rotatifs .
Conclusion
QWQ-32B représente une progression substantielle du raisonnement de l'IA, offrant des performances comparables aux modèles top à une fraction du co?t. Ses forts scores Livebench et sa rentabilité (0,18 $ par jeton de sortie) en font une solution pratique et accessible pour diverses applications. Ce progrès signifie que le potentiel d'IA à haute performance devient plus abordable et largement accessible, favorisant une plus grande innovation.
En savoir plus sur l'utilisation de QWQ 32B dans vos projets avec notre cours gratuit!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Imaginez quelque chose de sophistiqué, comme un moteur d'IA prêt à donner des commentaires détaillés sur une nouvelle collection de vêtements de Milan, ou une analyse de marché automatique pour une entreprise opérant dans le monde entier, ou des systèmes intelligents gérant une grande flotte de véhicules.

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

Les scientifiques ont découvert une méthode intelligente mais alarmante pour contourner le système. Juillet 2025 a marqué la découverte d'une stratégie élaborée où les chercheurs ont inséré des instructions invisibles dans leurs soumissions académiques - ces directives secrètes étaient la queue
