国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

ホームページ バックエンド開(kāi)発 Python チュートリアル Scratch_python からの Python クローラーの作成の完全な記録

Scratch_python からの Python クローラーの作成の完全な記録

Apr 08, 2018 am 11:52 AM
python 爬蟲(chóng)類(lèi)

最初の9回の記事は基礎(chǔ)から書(shū)き方まで詳しく紹介していますので、10回目の記事ではクローラープログラムの書(shū)き方をステップバイステップで詳しく記録していきます。本校のウェブサイトについて:

http://jwxt.sdu.edu.cn:7777/zhxt_bks/zhxt_bks.html

スコアを確認(rèn)するには、ログインする必要があり、各科目のスコアが表示されます。ただし、加重平均點(diǎn)である成績(jī)點(diǎn)は表示されません。

このように評(píng)定點(diǎn)を手動(dòng)で計(jì)算するのは、明らかに非常に面倒です。したがって、Python を使用してこの問(wèn)題を解決するクローラーを作成できます。

1.決戦前夜

まずツールを準(zhǔn)備しましょう:HttpFoxプラグイン。

これは、ページのリクエストとレスポンスの時(shí)間と內(nèi)容、およびブラウザで使用される COOKIE を分析する http プロトコル分析プラグインです。


例として、Firefox にインストールするだけで、次のような効果が得られます:

対応する情報(bào)を非常に直感的に表示できます。

「開(kāi)始」をクリックして検出を開(kāi)始し、「停止」をクリックして検出を一時(shí)停止し、「クリア」をクリックしてコンテンツをクリアします。

通常、使用する前に、[停止] をクリックして一時(shí)停止し、[クリア] をクリックして畫(huà)面をクリアし、現(xiàn)在のページにアクセスして取得したデータが表示されていることを確認(rèn)します。


2. 敵陣の背後に深く入ります


ログイン時(shí)にどのような情報(bào)が送信されるかを確認(rèn)するには、山東大學(xué)のスコア照會(huì) Web サイトにアクセスしてみましょう。

まず、ログイン ページに移動(dòng)し、httpfox を開(kāi)いてクリアし、[開(kāi)始] をクリックして検出を開(kāi)始します:

個(gè)人情報(bào)を入力した後、httpfox がオンになっていることを確認(rèn)し、[OK] をクリックして情報(bào)を送信し、ログに記録しますで。

この時(shí)點(diǎn)で、httpfox が 3 つの情報(bào)を検出したことがわかります:

この時(shí)點(diǎn)で、ページにアクセスした後にフィードバックされたデータが確実にキャプチャされるように、ログインをシミュレートできるように、停止ボタンをクリックします。クローラーをするとき。

3.庖丁解牛

一見(jiàn)すると、GET が 2 つ、POST が 1 つで、合計(jì) 3 つのデータが得られましたが、それらが何なのか、どのように使用するのかはまだわかりません。

そのため、キャプチャしたコンテンツを 1 つずつ確認(rèn)する必要があります。

最初にPOST情報(bào)を見(jiàn)てみましょう:


POST情報(bào)なので、PostDataを見(jiàn)るだけで済みます。

POSTデータはstudidとpwdの合計(jì)2つあることがわかります。

そして、Type の Redirect to から、POST 完了後に bks_login2.loginmessage ページにジャンプすることがわかります。

このデータは、「OK」をクリックした後に送信されたフォームデータであることがわかります。

Cookie ラベルをクリックすると、Cookie 情報(bào)が表示されます:


はい、ACCOUNT Cookie が受信されました。セッション終了後に自動(dòng)的に破棄されます。

それでは、送信後にどのような情報(bào)を受け取りましたか?

次の 2 つの GET データを見(jiàn)てみましょう。

まず最初のものを見(jiàn)てみましょう。コンテンツタグをクリックして、受け取ったコンテンツを表示します。 -HTML ソース コードは間違いなく公開(kāi)されています:


これは単にページの HTML ソース コードであるようです。Cookie をクリックすると、Cookie 関連の情報(bào)が表示されます:



。ああ、HTML ページの元のコンテンツは、Cookie 情報(bào)が送信された後に受信されました。

最後に受信したメッセージを見(jiàn)てみましょう:

大まかに見(jiàn)てみると、これは style.css という単なる CSS ファイルであるはずですが、これは私たちにはあまり影響しません。

4. 冷靜に対応する


サーバーに送信したデータと受信したデータがわかったので、基本的なプロセスは次のとおりです:

まず、學(xué)生 ID とパスワードを送信します--- > ;その後、Cookie の値を返し、Cookie をサーバーに送信します--->ページ情報(bào)を返します。成績(jī)ページからデータを取得し、正規(guī)表現(xiàn)を使用して成績(jī)と単位を個(gè)別に抽出し、加重平均を計(jì)算します。


OK、非常に単純なサンプル用紙のように見(jiàn)えます。それでは試してみましょう。

しかし、実験の前に、POST データがどこに送信されるかという未解決の問(wèn)題がまだあります。

元のページをもう一度見(jiàn)てください:

明らかに、これは HTML フレームワークを使用して実裝されています。つまり、アドレス バーに表示されるアドレスは、右側(cè)のフォームを送信するアドレスではありません。

それでは、どうすれば本當(dāng)の住所を取得できるのでしょうか - 。 - 右クリックしてページのソース コードを表示します:

はい、そうです。name="w_right" を持つものが目的のログイン ページです。

Web サイトの元のアドレスは:

http://jwxt.sdu.edu.cn:7777/zhxt_bks/zhxt_bks.html

したがって、実際のフォーム送信アドレスは次のようになります:

http://jwxt .sdu.edu.cn:7777/zhxt_bks/xk_login.html

入力してみると、


清華大學(xué)のコース選択システムであることが判明しました。 。 。おそらくうちの學(xué)校はページを作るのが面倒だったので、そのまま借りただけだと思います。 。結(jié)果的にはタイトルも変更されませんでした。 。 。

しかし、このページはまだ必要なページではありません。POST データが送信されるページは、フォームの ACTION で送信されるページである必要があるためです。

つまり、POST データが送信される場(chǎng)所を知るためにソース コードをチェックする必要があります:


そうですね、視覚的に言うと、これは POST データが送信されるアドレスです。

アドレスバーに配置します。完全なアドレスは次のようになります:

http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bks_login2.login

(取得方法は非常に簡(jiǎn)単です。Firefox で參照します。ブラウザでリンクを直接クリックすると、リンクのアドレスが表示されます)

5. 試してみましょう

次のタスクは、Python を使用して POST データの送信をシミュレートし、返された Cookie 値。

Cookieの操作については、次のブログ投稿を參照してください:

http://www.jb51.net/article/57144.htm

最初にPOSTデータを準(zhǔn)備し、次にCookie受信を準(zhǔn)備し、次に書(shū)き込みますソース コードは次のとおりです。

# -*- coding: utf-8 -*-
#---------------------------------------
#   程序:山東大學(xué)爬蟲(chóng)
#   版本:0.1
#   作者:why
#   日期:2013-07-12
#   語(yǔ)言:Python 2.7
#   操作:輸入學(xué)號(hào)和密碼
#   功能:輸出成績(jī)的加權(quán)平均值也就是績(jī)點(diǎn)
#---------------------------------------
import urllib  
import urllib2
import cookielib
cookie = cookielib.CookieJar()  
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
#需要POST的數(shù)據(jù)#
postdata=urllib.urlencode({  
    'stuid':'201100300428',  
    'pwd':'921030'  
})
#自定義一個(gè)請(qǐng)求#
req = urllib2.Request(  
    url = 'http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bks_login2.login',  
    data = postdata
)
#訪問(wèn)該鏈接#
result = opener.open(req)
#打印返回的內(nèi)容#
print result.read()

この後、実行時(shí)の効果を見(jiàn)てみましょう:


これで、シミュレートされたログインが成功したことが計(jì)算されます。

6. あるものを別のものに置き換える

次のタスクは、クローラーを使用して生徒のスコアを取得することです。

ソースのウェブサイトをもう一度見(jiàn)てみましょう。

HTTPFOX を開(kāi)いた後、クリックして結(jié)果を表示し、次のデータがキャプチャされたことを確認(rèn)します。


最初の GET データをクリックしてコンテンツを表示すると、Content が取得された結(jié)果のコンテンツであることがわかります。

取得したページリンクは、右クリックしてページのソースコードから要素を表示すると、リンクをクリック後にジャンプするページが表示されます(Firefoxの場(chǎng)合は右クリックして「このフレームを表示」するだけです) ):


次のように結(jié)果を表示するためのリンクを取得できます:

http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bkscjcx.curscopre

7。すべての準(zhǔn)備が整いました

これですべての準(zhǔn)備が整ったので、クローラーにリンクを適用して、結(jié)果ページが表示されるかどうかを確認(rèn)してください。

httpfox からわかるように、スコア情報(bào)を返すには Cookie を送信する必要があるため、Python を使用してスコア情報(bào)を要求する Cookie の送信をシミュレートします:

# -*- coding: utf-8 -*-
#---------------------------------------
#   程序:山東大學(xué)爬蟲(chóng)
#   版本:0.1
#   作者:why
#   日期:2013-07-12
#   語(yǔ)言:Python 2.7
#   操作:輸入學(xué)號(hào)和密碼
#   功能:輸出成績(jī)的加權(quán)平均值也就是績(jī)點(diǎn)
#---------------------------------------
import urllib  
import urllib2
import cookielib
#初始化一個(gè)CookieJar來(lái)處理Cookie的信息#
cookie = cookielib.CookieJar()
#創(chuàng)建一個(gè)新的opener來(lái)使用我們的CookieJar#
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
#需要POST的數(shù)據(jù)#
postdata=urllib.urlencode({  
    'stuid':'201100300428',  
    'pwd':'921030'  
})
#自定義一個(gè)請(qǐng)求#
req = urllib2.Request(  
    url = 'http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bks_login2.login',  
    data = postdata
)
#訪問(wèn)該鏈接#
result = opener.open(req)
#打印返回的內(nèi)容#
print result.read()
#打印cookie的值
for item in cookie:  
    print 'Cookie:Name = '+item.name  
    print 'Cookie:Value = '+item.value
    
#訪問(wèn)該鏈接#
result = opener.open('http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bkscjcx.curscopre')
#打印返回的內(nèi)容#
print result.read()

F5 を押して実行して確認(rèn)します。キャプチャされたデータ:


このままでも問(wèn)題ないので、正規(guī)表現(xiàn)を使ってデータを少し加工して、クレジットと対応するスコアを抽出します。

8. すぐに使える

このような大量の HTML ソース コードは明らかに処理に役立ちません。次に、正規(guī)表現(xiàn)を使用して必要なデータを抽出する必要があります。

正規(guī)表現(xiàn)のチュートリアルについては、次のブログ投稿をご覧ください:

http://www.jb51.net/article/57150.htm

結(jié)果のソース コードを見(jiàn)てみましょう:


そんな時(shí)は、正規(guī)表現(xiàn)を使えば簡(jiǎn)単です。

コードを少し整理してから、正規(guī)表現(xiàn)を使用してデータを抽出します。

# -*- coding: utf-8 -*-
#---------------------------------------
#   程序:山東大學(xué)爬蟲(chóng)
#   版本:0.1
#   作者:why
#   日期:2013-07-12
#   語(yǔ)言:Python 2.7
#   操作:輸入學(xué)號(hào)和密碼
#   功能:輸出成績(jī)的加權(quán)平均值也就是績(jī)點(diǎn)
#---------------------------------------
import urllib  
import urllib2
import cookielib
import re
class SDU_Spider:  
    # 申明相關(guān)的屬性  
    def __init__(self):    
        self.loginUrl = 'http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bks_login2.login'   # 登錄的url
        self.resultUrl = 'http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bkscjcx.curscopre' # 顯示成績(jī)的url
        self.cookieJar = cookielib.CookieJar()                                      # 初始化一個(gè)CookieJar來(lái)處理Cookie的信息
        self.postdata=urllib.urlencode({'stuid':'201100300428','pwd':'921030'})     # POST的數(shù)據(jù)
        self.weights = []   #存儲(chǔ)權(quán)重,也就是學(xué)分
        self.points = []    #存儲(chǔ)分?jǐn)?shù),也就是成績(jī)
        self.opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookieJar))
    def sdu_init(self):
        # 初始化鏈接并且獲取cookie
        myRequest = urllib2.Request(url = self.loginUrl,data = self.postdata)   # 自定義一個(gè)請(qǐng)求
        result = self.opener.open(myRequest)            # 訪問(wèn)登錄頁(yè)面,獲取到必須的cookie的值
        result = self.opener.open(self.resultUrl)       # 訪問(wèn)成績(jī)頁(yè)面,獲得成績(jī)的數(shù)據(jù)
        # 打印返回的內(nèi)容
        # print result.read()
        self.deal_data(result.read().decode('gbk'))
        self.print_data(self.weights);
        self.print_data(self.points);
    # 將內(nèi)容從頁(yè)面代碼中摳出來(lái)  
    def deal_data(self,myPage):  
        myItems = re.findall(&#39;<TR>.*?<p.*?<p.*?<p.*?<p.*?<p.*?>(.*?)</p>.*?<p.*?<p.*?>(.*?)</p>.*?</TR>&#39;,myPage,re.S)     #獲取到學(xué)分
        for item in myItems:
            self.weights.append(item[0].encode(&#39;gbk&#39;))
            self.points.append(item[1].encode(&#39;gbk&#39;))
            
    # 將內(nèi)容從頁(yè)面代碼中摳出來(lái)
    def print_data(self,items):  
        for item in items:  
            print item
#調(diào)用  
mySpider = SDU_Spider()  
mySpider.sdu_init()

レベルは限られており、正規(guī)表現(xiàn)は少し見(jiàn)苦しいです。実行時(shí)の効果は次の図に示すとおりです。

OK、次はデータの処理です。 。

9. 凱旋

完全なコードは次のとおりです。この時(shí)點(diǎn)で、完全なクローラー プロジェクトが完成します。

# -*- coding: utf-8 -*-
#---------------------------------------
#   程序:山東大學(xué)爬蟲(chóng)
#   版本:0.1
#   作者:why
#   日期:2013-07-12
#   語(yǔ)言:Python 2.7
#   操作:輸入學(xué)號(hào)和密碼
#   功能:輸出成績(jī)的加權(quán)平均值也就是績(jī)點(diǎn)
#---------------------------------------
import urllib  
import urllib2
import cookielib
import re
import string
class SDU_Spider:  
    # 申明相關(guān)的屬性  
    def __init__(self):    
        self.loginUrl = &#39;http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bks_login2.login&#39;   # 登錄的url
        self.resultUrl = &#39;http://jwxt.sdu.edu.cn:7777/pls/wwwbks/bkscjcx.curscopre&#39; # 顯示成績(jī)的url
        self.cookieJar = cookielib.CookieJar()                                      # 初始化一個(gè)CookieJar來(lái)處理Cookie的信息
        self.postdata=urllib.urlencode({&#39;stuid&#39;:&#39;201100300428&#39;,&#39;pwd&#39;:&#39;921030&#39;})     # POST的數(shù)據(jù)
        self.weights = []   #存儲(chǔ)權(quán)重,也就是學(xué)分
        self.points = []    #存儲(chǔ)分?jǐn)?shù),也就是成績(jī)
        self.opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookieJar))
    def sdu_init(self):
        # 初始化鏈接并且獲取cookie
        myRequest = urllib2.Request(url = self.loginUrl,data = self.postdata)   # 自定義一個(gè)請(qǐng)求
        result = self.opener.open(myRequest)            # 訪問(wèn)登錄頁(yè)面,獲取到必須的cookie的值
        result = self.opener.open(self.resultUrl)       # 訪問(wèn)成績(jī)頁(yè)面,獲得成績(jī)的數(shù)據(jù)
        # 打印返回的內(nèi)容
        # print result.read()
        self.deal_data(result.read().decode(&#39;gbk&#39;))
        self.calculate_date();
    # 將內(nèi)容從頁(yè)面代碼中摳出來(lái)  
    def deal_data(self,myPage):  
        myItems = re.findall(&#39;<TR>.*?<p.*?<p.*?<p.*?<p.*?<p.*?>(.*?)</p>.*?<p.*?<p.*?>(.*?)</p>.*?</TR>&#39;,myPage,re.S)     #獲取到學(xué)分
        for item in myItems:
            self.weights.append(item[0].encode(&#39;gbk&#39;))
            self.points.append(item[1].encode(&#39;gbk&#39;))
    #計(jì)算績(jī)點(diǎn),如果成績(jī)還沒(méi)出來(lái),或者成績(jī)是優(yōu)秀良好,就不運(yùn)算該成績(jī)
    def calculate_date(self):
        point = 0.0
        weight = 0.0
        for i in range(len(self.points)):
            if(self.points[i].isdigit()):
                point += string.atof(self.points[i])*string.atof(self.weights[i])
                weight += string.atof(self.weights[i])
        print point/weight
#調(diào)用  
mySpider = SDU_Spider()  
mySpider.sdu_init()

関連する推奨事項(xiàng):

Python クローラーを使用して貴重なブログ投稿を取得する方法

Python 動(dòng)的クローラーの共有例

以上がScratch_python からの Python クローラーの作成の完全な記録の詳細(xì)內(nèi)容です。詳細(xì)については、PHP 中國(guó)語(yǔ) Web サイトの他の関連記事を參照してください。

このウェブサイトの聲明
この記事の內(nèi)容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰屬します。このサイトは、それに相當(dāng)する法的責(zé)任を負(fù)いません。盜作または侵害の疑いのあるコンテンツを見(jiàn)つけた場(chǎng)合は、admin@php.cn までご連絡(luò)ください。

ホットAIツール

Undress AI Tool

Undress AI Tool

脫衣畫(huà)像を無(wú)料で

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード寫(xiě)真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

寫(xiě)真から衣服を削除するオンライン AI ツール。

Clothoff.io

Clothoff.io

AI衣類(lèi)リムーバー

Video Face Swap

Video Face Swap

完全無(wú)料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡(jiǎn)単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無(wú)料のコードエディター

SublimeText3 中國(guó)語(yǔ)版

SublimeText3 中國(guó)語(yǔ)版

中國(guó)語(yǔ)版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強(qiáng)力な PHP 統(tǒng)合開(kāi)発環(huán)境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開(kāi)発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

PHPはAIインテリジェント音聲アシスタントPHP音聲相互作用システムの構(gòu)築を呼び出す PHPはAIインテリジェント音聲アシスタントPHP音聲相互作用システムの構(gòu)築を呼び出す Jul 25, 2025 pm 08:45 PM

ユーザー音聲入力がキャプチャされ、フロントエンドJavaScriptのMediareCorder APIを介してPHPバックエンドに送信されます。 2。PHPはオーディオを一時(shí)ファイルとして保存し、STTAPI(GoogleやBaiduの音聲認(rèn)識(shí)など)を呼び出してテキストに変換します。 3。PHPは、テキストをAIサービス(Openaigptなど)に送信して、インテリジェントな返信を取得します。 4。PHPは、TTSAPI(BaiduやGoogle Voice Synthesisなど)を呼び出して音聲ファイルに返信します。 5。PHPは、音聲ファイルをフロントエンドに戻し、相互作用を完了します。プロセス全體は、すべてのリンク間のシームレスな接続を確保するためにPHPによって支配されています。

AIと組み合わせてPHPを使用してテキストエラー修正PHP構(gòu)文検出と最適化を?qū)g現(xiàn)する方法 AIと組み合わせてPHPを使用してテキストエラー修正PHP構(gòu)文検出と最適化を?qū)g現(xiàn)する方法 Jul 25, 2025 pm 08:57 PM

AIによるテキストエラーの修正と構(gòu)文最適化を?qū)g現(xiàn)するには、次の手順に従う必要があります。1。Baidu、Tencent API、またはオープンソースNLPライブラリなどの適切なAIモデルまたはAPIを選択します。 2。PHPのカールまたはガズルを介してAPIを呼び出し、返品結(jié)果を処理します。 3.アプリケーションにエラー修正情報(bào)を表示し、ユーザーが採(cǎi)用するかどうかを選択できるようにします。 4.構(gòu)文の検出とコードの最適化には、PHP-LとPHP_CODESNIFFERを使用します。 5.フィードバックを継続的に収集し、モデルまたはルールを更新して効果を改善します。 AIAPIを選択するときは、PHPの精度、応答速度、価格、サポートの評(píng)価に焦點(diǎn)を當(dāng)てます。コードの最適化は、PSR仕様に従い、キャッシュを合理的に使用し、円形クエリを避け、定期的にコードを確認(rèn)し、Xを使用する必要があります。

Python Seabornジョイントプロットの例 Python Seabornジョイントプロットの例 Jul 26, 2025 am 08:11 AM

Seabornのジョイントプロットを使用して、2つの変數(shù)間の関係と分布をすばやく視覚化します。 2。基本的な散布図は、sns.jointplot(data = tips、x = "total_bill"、y = "tip"、dind = "scatter")によって実裝され、中心は散布図であり、ヒストグラムは上部と右側(cè)と右側(cè)に表示されます。 3.回帰線と密度情報(bào)をdind = "reg"に追加し、marminal_kwsを組み合わせてエッジプロットスタイルを設(shè)定します。 4。データ量が大きい場(chǎng)合は、「ヘックス」を使用することをお?jiǎng)幛幛筏蓼埂?/p>

PHP統(tǒng)合AI感情コンピューティングテクノロジーPHPユーザーフィードバックインテリジェント分析 PHP統(tǒng)合AI感情コンピューティングテクノロジーPHPユーザーフィードバックインテリジェント分析 Jul 25, 2025 pm 06:54 PM

AIセンチメントコンピューティングテクノロジーをPHPアプリケーションに統(tǒng)合するために、COREはセンチメント分析にクラウドサービスAIAPI(Google、AWS、Azureなど)を使用し、HTTPリクエストを介してテキストを送信し、JSON結(jié)果を返し、データベースに感情的なデータを保存し、それによって自動(dòng)化された処理とユーザーフィードバックのデータ検査を?qū)g現(xiàn)することです。特定の手順には次のものが含まれます。1。正確性、コスト、言語(yǔ)サポート、統(tǒng)合の複雑さを考慮して、適切なAIセンチメント分析APIを選択します。 2。ガズルまたはカールを使用してリクエストを送信し、センチメントスコア、ラベル、および強(qiáng)度情報(bào)を保存します。 3。優(yōu)先順位の並べ替え、トレンド分析、製品の反復(fù)方向、ユーザーセグメンテーションをサポートする視覚的なダッシュボードを構(gòu)築します。 4。APIコールの制限や數(shù)などの技術(shù)的課題に対応する

パイソンリストへの変換の例 パイソンリストへの変換の例 Jul 26, 2025 am 08:00 AM

文字列リストは、 '' .join(words)などのJoIn()メソッドとマージして、「Helloworldfrompython」を取得できます。 2。NUMBERリストは、參加する前にMAP(STR、數(shù)字)または[STR(x)forxinNumbers]を備えた文字列に変換する必要があります。 3.任意のタイプリストは、デバッグに適したブラケットと引用符のある文字列に直接変換できます。 4。カスタム形式は、 '|' .join(f "[{item}]" foriteminitems)output "[a] | [などのjoin()と組み合わせたジェネレーター式によって実裝できます。

Python Pandas Meltの例 Python Pandas Meltの例 Jul 27, 2025 am 02:48 AM

pandas.melt()は、幅広い形式データを長(zhǎng)い形式に変換するために使用されます。答えは、ID_VARSを識(shí)別列を保持し、value_varsを溶かしてvar_nameおよびvalue_nameを選択する列を選択して、新しい列名を定義することです。列は1.id_vars = 'name'を意味します。 4.Value_Name = 'スコア'元の値の新しい列名を設(shè)定し、最後に名前、件名、スコアを含む3つの列を生成します。

メモリバウンド操作のためのPythonの最適化 メモリバウンド操作のためのPythonの最適化 Jul 28, 2025 am 03:22 AM

Pythoncanbeoptimizedformemory-boundoperationsは、ヘッドゲネレーター、EfficientDataStructures、およびManagingObjectlifetimes.first、Usegeneratoratoratoratoratoratoraturatussを使用していることを確認(rèn)してください

PythonはSQL Server Pyodbcの例に接続します PythonはSQL Server Pyodbcの例に接続します Jul 30, 2025 am 02:53 AM

Pyodbcのインストール:Pipinstallpyodbcコマンドを使用してライブラリをインストールします。 2.接続sqlserver:pyodbc.connect()メソッドを介して、ドライバー、サーバー、データベース、uid/pwdまたはtrusted_connectionを含む接続文字列を使用し、それぞれSQL認(rèn)証またはWindows認(rèn)証をサポートします。 3.インストールされているドライバーを確認(rèn)します:pyodbc.drivers()を?qū)g行し、「sqlserver」を含むドライバー名をフィルタリングして、「sqlserverのodbcdriver17」などの正しいドライバー名が使用されるようにします。 4.接続文字列の重要なパラメーター

See all articles