


Création d'un grattoir Web de commerce électronique asynchrone avec Pydantic, Crawl et Gemini
Jan 12, 2025 am 06:25 AMEn bref?: Ce guide montre la création d'un scraper de commerce électronique à l'aide de l'extraction basée sur l'IA de crawl4ai et des modèles de données Pydantic. Le scraper récupère de manière asynchrone à la fois les listes de produits (noms, prix) et les informations détaillées sur les produits (spécifications, avis).
Accédez au code complet sur Google Colab
Vous en avez assez des complexités du web scraping traditionnel pour l'analyse des données de commerce électronique?? Ce didacticiel simplifie le processus à l'aide d'outils Python modernes. Nous exploiterons crawl4ai pour une extraction intelligente des données et Pydantic pour une modélisation et une validation robustes des données.
Pourquoi choisir Crawl4AI et Pydantic??
- crawl4ai?: rationalise l'exploration et le scraping du Web à l'aide de méthodes d'extraction basées sur l'IA.
- Pydantic?: Fournit la validation des données et la gestion des schémas, garantissant des données récupérées structurées et précises.
Pourquoi cibler Tokopedia??
Tokopedia, une importante plateforme de commerce électronique indonésienne, nous sert d'exemple. (Remarque : l'auteur est indonésien et utilisateur de la plateforme, mais non affilié.) Les principes s'appliquent à d'autres sites de commerce électronique. Cette approche de scraping est bénéfique pour les développeurs intéressés par l'analyse du commerce électronique, les études de marché ou la collecte automatisée de données.
Qu'est-ce qui distingue cette approche??
Au lieu de nous appuyer sur des sélecteurs CSS complexes ou XPath, nous utilisons l'extraction basée sur LLM de crawl4ai. Cela offre?:
- Résilience améliorée aux changements de structure du site Web.
- Sortie de données plus propre et plus structurée.
- Réduction des frais de maintenance.
Configuration de votre environnement de développement
Commencez par installer les packages nécessaires?:
%pip install -U crawl4ai %pip install nest_asyncio %pip install pydantic
Pour l'exécution de code asynchrone dans les notebooks, nous utiliserons également nest_asyncio
?:
import crawl4ai import asyncio import nest_asyncio nest_asyncio.apply()
Définir des modèles de données avec Pydantic
Nous utilisons Pydantic pour définir la structure de données attendue. Voici les modèles :
from pydantic import BaseModel, Field from typing import List, Optional class TokopediaListingItem(BaseModel): product_name: str = Field(..., description="Product name from listing.") product_url: str = Field(..., description="URL to product detail page.") price: str = Field(None, description="Price displayed in listing.") store_name: str = Field(None, description="Store name from listing.") rating: str = Field(None, description="Rating (1-5 scale) from listing.") image_url: str = Field(None, description="Primary image URL from listing.") class TokopediaProductDetail(BaseModel): product_name: str = Field(..., description="Product name from detail page.") all_images: List[str] = Field(default_factory=list, description="List of all product image URLs.") specs: str = Field(None, description="Technical specifications or short info.") description: str = Field(None, description="Long product description.") variants: List[str] = Field(default_factory=list, description="List of variants or color options.") satisfaction_percentage: Optional[str] = Field(None, description="Customer satisfaction percentage.") total_ratings: Optional[str] = Field(None, description="Total number of ratings.") total_reviews: Optional[str] = Field(None, description="Total number of reviews.") stock: Optional[str] = Field(None, description="Stock availability.")
Ces modèles servent de modèles, garantissant la validation des données et fournissant une documentation claire.
Le processus de grattage
Le grattoir fonctionne en deux phases :
1. Exploration des listes de produits
Tout d'abord, nous récupérons les pages de résultats de recherche?:
async def crawl_tokopedia_listings(query: str = "mouse-wireless", max_pages: int = 1): # ... (Code remains the same) ...
2. Récupération des détails du produit
Ensuite, pour chaque URL de produit, nous récupérons des informations détaillées?:
async def crawl_tokopedia_detail(product_url: str): # ... (Code remains the same) ...
Combiner les étapes
Enfin, nous intégrons les deux phases?:
async def run_full_scrape(query="mouse-wireless", max_pages=2, limit=15): # ... (Code remains the same) ...
Exécuter le Scraper
Voici comment exécuter le scraper?:
%pip install -U crawl4ai %pip install nest_asyncio %pip install pydantic
Conseils de pro
- Limitation de débit?: Respectez les serveurs de Tokopedia?; introduire des délais entre les demandes de scraping à grande échelle.
-
Mise en cache?: Activer la mise en cache de crawl4ai pendant le développement (
cache_mode=CacheMode.ENABLED
). - Gestion des erreurs?: Implémentez des mécanismes complets de gestion des erreurs et de nouvelles tentatives pour une utilisation en production.
- Clés API?: Stockez les clés API Gemini en toute sécurité dans des variables d'environnement, et non directement dans le code.
Prochaines étapes
Ce grattoir peut être étendu à?:
- Stockez les données dans une base de données.
- Surveillez les changements de prix au fil du temps.
- Analyser les tendances et les modèles de produits.
- Comparez les prix dans plusieurs magasins.
Conclusion
L'extraction basée sur LLM de crawl4ai améliore considérablement la maintenabilité du web scraping par rapport aux méthodes traditionnelles. L'intégration avec Pydantic garantit l'exactitude et la structure des données.
Respectez toujours les robots.txt
et les conditions d'utilisation d'un site Web avant de le supprimer.
Liens importants?:
Crawl4AI
- Site officiel : http://m.miracleart.cn/link/1026d8c97a822ee171c6cbf939fe4aca
- Référentiel GitHub?: http://m.miracleart.cn/link/62c1b075041300455ec2b54495d93c99
- Documentation?: http://m.miracleart.cn/link/1026d8c97a822ee171c6cbf939fe4aca/mkdocs/core/installation/
Pydantique
- Documentation officielle : http://m.miracleart.cn/link/a4d4ec4aa3c45731396ed6e65fee40b9
- Page PyPI?: http://m.miracleart.cn/link/4d8ab89733dd9a88f1a9d130ca675c2e
- Référentiel GitHub?: http://m.miracleart.cn/link/22935fba49f7d80d5adf1cfa6b0344f4
Remarque?: Le code complet est disponible dans le notebook Colab. N'hésitez pas à l'expérimenter et à l'adapter à vos besoins spécifiques.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

L'Unittest et Pytest de Python sont deux cadres de test largement utilisés qui simplifient l'écriture, l'organisation et l'exécution de tests automatisés. 1. Les deux prennent en charge la découverte automatique des cas de test et fournissent une structure de test claire: unittest définit les tests en héritant de la classe TestCase et en commen?ant par Test \ _; PyTest est plus concis, il suffit d'une fonction à partir de test \ _. 2. Ils ont tous un support d'affirmation intégré: Unittest fournit ASSERTEQUAL, ASSERTTRUE et d'autres méthodes, tandis que PyTest utilise une instruction ASSERT améliorée pour afficher automatiquement les détails de l'échec. 3. Tous ont des mécanismes pour gérer la préparation et le nettoyage des tests: l'ONU

PythonisidealfordataanalysysydUetonumpyandpandas.1) NumpyExcelsAtnumericalcomputations withfast, multidimensionalarraysandvectorizedoperationslikenp.sqrt (). 2) PandashandlesstructuredDatawitheSeriesandData

La programmation dynamique (DP) optimise le processus de solution en décomposant des problèmes complexes en sous-problèmes plus simples et en stockant leurs résultats pour éviter les calculs répétés. Il existe deux méthodes principales: 1. De haut en bas (mémorisation): décomposer récursivement le problème et utiliser le cache pour stocker les résultats intermédiaires; 2. Affaisant (tableau): construire de manière itérative des solutions à partir de la situation de base. Convient pour des scénarios où des valeurs maximales / minimales, des solutions optimales ou des sous-problèmes qui se chevauchent sont nécessaires, tels que les séquences de Fibonacci, les problèmes de randonnée, etc. Dans Python, il peut être mis en ?uvre par le biais de décorateurs ou des tableaux, et l'attention doit être accordée à l'identification des relations récursives, à la définition de la situation de la banquette et à l'optimisation de la complexité de l'espace.

Pour implémenter un itérateur personnalisé, vous devez définir les méthodes __iter__ et __Next__ dans la classe. ① La méthode __iter__ renvoie l'objet itérateur lui-même, généralement soi, pour être compatible avec des environnements itératifs tels que pour les boucles; ② La méthode __Next__ contr?le la valeur de chaque itération, renvoie l'élément suivant dans la séquence, et lorsqu'il n'y a plus d'éléments, une exception d'arrêt doit être lancée; ③ L'état doit être suivi correctement et les conditions de terminaison doivent être définies pour éviter les boucles infinies; ④ Logique complexe telle que le filtrage des lignes de fichiers et faire attention au nettoyage des ressources et à la gestion de la mémoire; ⑤ Pour une logique simple, vous pouvez envisager d'utiliser le rendement de la fonction du générateur à la place, mais vous devez choisir une méthode appropriée basée sur le scénario spécifique.

Les tendances futures de Python incluent l'optimisation des performances, les invites de type plus fortes, la montée des temps d'exécution alternatifs et la croissance continue du champ AI / ML. Premièrement, CPYthon continue d'optimiser, améliorant les performances grace à un temps de démarrage plus rapide, à l'optimisation des appels de fonction et à des opérations entières proposées; Deuxièmement, les invites de type sont profondément intégrées dans les langues et les cha?nes d'outils pour améliorer l'expérience de sécurité et de développement du code; Troisièmement, des temps d'exécution alternatifs tels que Pyscript et Nuitka offrent de nouvelles fonctions et des avantages de performance; Enfin, les domaines de l'IA et de la science des données continuent de se développer, et les bibliothèques émergentes favorisent un développement et une intégration plus efficaces. Ces tendances indiquent que Python s'adapte constamment aux changements technologiques et maintient sa position principale.

Le module de socket de Python est la base de la programmation réseau, offrant des fonctions de communication réseau de bas niveau, adaptées à la création d'applications client et serveur. Pour configurer un serveur TCP de base, vous devez utiliser socket.socket () pour créer des objets, lier des adresses et des ports, appelez .Listen () pour écouter les connexions et accepter les connexions client via .Accept (). Pour créer un client TCP, vous devez créer un objet Socket et appeler .Connect () pour vous connecter au serveur, puis utiliser .sendall () pour envoyer des données et .recv () pour recevoir des réponses. Pour gérer plusieurs clients, vous pouvez utiliser 1. Threads: Démarrez un nouveau thread à chaque fois que vous vous connectez; 2. E / S asynchrone: Par exemple, la bibliothèque Asyncio peut obtenir une communication non bloquante. Choses à noter

La réponse principale au découpage de la liste Python est de ma?triser la syntaxe [start: fin: étape] et comprendre son comportement. 1. Le format de base du découpage de la liste est la liste [Démarrage: fin: étape], où le démarrage est l'index de démarrage (inclus), la fin est l'index final (non inclus), et l'étape est la taille de pas; 2. OMIT START Par défaut Démarrer à partir de 0, omettre la fin par défaut à la fin, omettez l'étape par défaut à 1; 3. Utilisez My_List [: N] pour obtenir les N premiers éléments et utilisez My_List [-N:] pour obtenir les N derniers éléments; 4. Utilisez l'étape pour sauter des éléments, tels que My_List [:: 2] pour obtenir des chiffres pair, et les valeurs d'étape négatives peuvent inverser la liste; 5. Les malentendus communs incluent l'indice final pas

Le polymorphisme est un concept de base dans la programmation orientée objet Python, se référant à "une interface, plusieurs implémentations", permettant le traitement unifié de différents types d'objets. 1. Le polymorphisme est implémenté par la réécriture de la méthode. Les sous-classes peuvent redéfinir les méthodes de classe parent. Par exemple, la méthode Spoke () de classe animale a des implémentations différentes dans les sous-classes de chiens et de chats. 2. Les utilisations pratiques du polymorphisme comprennent la simplification de la structure du code et l'amélioration de l'évolutivité, tels que l'appel de la méthode Draw () uniformément dans le programme de dessin graphique, ou la gestion du comportement commun des différents personnages dans le développement de jeux. 3. Le polymorphisme de l'implémentation de Python doit satisfaire: la classe parent définit une méthode, et la classe enfant remplace la méthode, mais ne nécessite pas l'héritage de la même classe parent. Tant que l'objet implémente la même méthode, c'est ce qu'on appelle le "type de canard". 4. Les choses à noter incluent la maintenance
