Sehingga tahun sebelumnya, kejuruteraan segera dianggap sebagai kemahiran penting untuk berinteraksi dengan model bahasa yang besar (LLM). Walau bagaimanapun, baru -baru ini, LLM telah maju dengan ketara dalam kebolehan pemikiran dan pemahaman mereka. Sememangnya, jangkaan kami juga telah berkembang secara dramatik. Setahun yang lalu, kami berpuas hati jika Chatgpt boleh mengarang e -mel yang baik untuk kami. Hari ini, kami mengharapkan ia menganalisis data kami, mengautomasikan sistem kami, dan reka bentuk saluran paip. Namun, kejuruteraan segera sahaja tidak mencukupi untuk membuat penyelesaian AI yang berskala. Untuk memanfaatkan sepenuhnya potensi LLM, pakar-pakar kini mengesyorkan menggabungkan petikan yang kaya konteks yang menghasilkan output yang cukup tepat, boleh dipercayai, dan sesuai. Proses ini kini dirujuk sebagai "Kejuruteraan Konteks." Dalam artikel ini, kami akan meneroka apa kejuruteraan konteks yang diperlukan, bagaimana ia berbeza dari kejuruteraan segera, dan bagaimana kejuruteraan konteks berkualiti tinggi boleh digunakan untuk membina penyelesaian peringkat perusahaan.
Jadual Kandungan
- Apakah kejuruteraan konteks?
- Kejuruteraan konteks vs kejuruteraan segera
- Apakah komponen kejuruteraan konteks?
- Arahan arahan
- Arahan pengguna
- Sejarah perbualan
- Memori jangka panjang
- Rag
- Definisi alat
- Struktur output
- Mengapa kita memerlukan petunjuk yang kaya dengan konteks?
- Menggunakan arahan yang berstruktur dengan baik
- Dengan arahan yang tidak tersusun
- Bagaimana untuk menulis petunjuk yang lebih kaya konteks untuk aliran kerja anda?
- Membangunkan konteks penulisan
- Memilih konteks
- Konteks memampatkan
- Mengasingkan konteks
- Nasihat saya
- Kesimpulan
Apakah kejuruteraan konteks?
Kejuruteraan konteks adalah amalan menganjurkan keseluruhan input yang diberikan kepada model bahasa yang besar untuk meningkatkan ketepatan dan kebolehpercayaannya. Ia melibatkan penstrukturan dan mengoptimumkan arahan supaya LLM menerima semua "konteks" yang diperlukan untuk menghasilkan respons yang sejajar dengan output yang dikehendaki.
Kejuruteraan konteks vs kejuruteraan segera
Pada pandangan pertama, kejuruteraan konteks mungkin kelihatan seperti istilah lain untuk kejuruteraan segera. Tetapi adakah itu benar -benar berlaku? Mari cepat jelaskan perbezaannya.
Kejuruteraan segera adalah mengenai membuat satu input berstruktur tunggal yang membimbing output yang diperoleh dari LLM. Ia membantu mencapai hasil yang terbaik dengan menggunakan segera. Kejuruteraan segera pada dasarnya mengenai apa yang anda minta.
Kejuruteraan konteks, sebaliknya, adalah mengenai menubuhkan persekitaran yang lengkap di sekitar LLM. Ia bertujuan untuk meningkatkan ketepatan dan kecekapan output model, walaupun untuk tugas -tugas yang kompleks. Kejuruteraan konteks adalah mengenai bagaimana anda menyediakan model anda untuk bertindak balas.
Pada dasarnya,
<code>Context Engineering = Prompt Engineering (Documents/Agents/Metadata/RAG, etc.)</code>
Apakah komponen kejuruteraan konteks?
Kejuruteraan konteks jauh melampaui sekadar segera. Beberapa komponen utamanya termasuk:
- Arahan arahan
- Arahan pengguna
- Sejarah perbualan
- Memori jangka panjang
- Rag
- Definisi alat
- Struktur output
Setiap elemen konteks ini mempengaruhi bagaimana LLM memproses input dan menentukan tindak balasnya. Mari kita menyelam ke setiap komponen dan menggambarkan mereka menggunakan chatgpt sebagai contoh.
1. Arahan Prompt
Arahan atau arahan sistem yang membimbing keperibadian, peraturan, dan tingkah laku model.
Bagaimana chatgpt menggunakannya ?
Ia "bingkai" semua tindak balas berikutnya. Sebagai contoh, jika sistem segera adalah:
"Anda adalah pembantu undang -undang pakar. Jawab dengan ringkas dan tidak memberikan nasihat perubatan," ia akan memberikan jawapan undang -undang dan mengelakkan memberi nasihat perubatan.
Saya melihat seorang lelaki yang cedera di raod dan saya membawanya ke hospital
2. Prompt pengguna
Pengguna meminta tugas atau soalan segera.
Bagaimana chatgpt menggunakannya ?
Ia berfungsi sebagai isyarat utama untuk menentukan tindak balas yang dihasilkan.
Ex: Pengguna: "Ringkaskan artikel ini dalam dua titik peluru."
3. Sejarah Perbualan
Mengekalkan aliran perbualan.
Bagaimana chatgpt menggunakannya ?
Ia membaca seluruh sejarah sembang setiap kali ia bertindak balas untuk mengekalkan konsistensi.
Pengguna (lebih awal): "Projek saya berada di Python."
Pengguna (kemudian): " Bagaimana saya menyambung ke pangkalan data?"
Chatgpt mungkin akan bertindak balas di Python kerana ia ingat
### 4. Memori jangka panjangMemori jangka panjang untuk mengekalkan keutamaan pengguna, perbualan, atau fakta penting.
Di chatgpt:
Pengguna (minggu yang lalu) : "Saya vegan."
Sekarang : "Beri saya beberapa idea tempat untuk makan malam di Paris."
ChatGPT mengambil perhatian terhadap sekatan diet anda dan menawarkan beberapa pilihan mesra vegan.
5. Rag
Generasi Retrieval-Augmented (RAG) menyediakan maklumat masa nyata dari dokumen, API, atau pangkalan data untuk menjana respons yang relevan dan tepat pada masanya.
Di chatgpt dengan penyemakan imbas/alat diaktifkan:
Pengguna : "Bagaimana cuaca di Delhi sekarang?"
CHATGPT mengambil data masa nyata dari web untuk menyediakan keadaan cuaca semasa.
6. Definisi alat
Definisi alat yang memaklumkan model bagaimana dan bila melaksanakan fungsi tertentu.
Di chatgpt dengan alat/plugin:
Pengguna : "Tempah saya penerbangan ke Tokyo."
Chatgpt memanggil alat seperti carian_flights (destinasi, tarikh) dan menyajikan pilihan penerbangan yang tersedia.
7. Struktur output
Format output berstruktur yang mengembalikan respons sebagai JSON, jadual, atau sebarang format yang diperlukan oleh sistem hiliran.
Di chatgpt untuk pemaju:
Arahan : "Balas diformat sebagai json seperti {'destinasi': '...,' hari ': ...}"
CHATGPT bertindak balas dalam format yang diminta, menjadikannya diprogramkan secara programatik.
Mengapa kita memerlukan petunjuk yang kaya dengan konteks?
Penyelesaian AI moden bukan sahaja bergantung kepada LLM tetapi juga menggunakan agen AI. Walaupun kerangka dan alat adalah penting, kekuatan sebenar agen AI terletak pada bagaimana ia berkesan mengumpulkan dan menyampaikan konteks ke LLM.
Fikirkan dengan cara ini: Peranan utama ejen bukanlah untuk memutuskan bagaimana untuk bertindak balas. Ini mengenai mengumpul maklumat yang betul dan memperluaskan konteks sebelum menggunakan LLM. Ini boleh melibatkan menambah data dari pangkalan data, API, profil pengguna, atau perbualan masa lalu.
Apabila dua ejen AI menggunakan rangka kerja dan alat yang sama, perbezaan sebenar mereka terletak pada bagaimana arahan dan konteks direkayasa. Prompt yang kaya dengan konteks memastikan LLM memahami bukan sahaja soalan segera tetapi juga matlamat yang lebih luas, keutamaan pengguna, dan sebarang fakta luaran yang diperlukan untuk menghasilkan hasil yang tepat dan boleh dipercayai.
Contoh
Sebagai contoh, ambil dua sistem yang diberikan kepada ejen yang matlamatnya adalah untuk menyampaikan diet dan pelan senaman yang diperibadikan.
Prompt berstruktur dengan baik | Prompt yang tidak berstruktur |
** Anda adalah FitCoach, pakar AI Fitness dan Nutrition Jurulatih hanya memberi tumpuan kepada latihan gim dan diet. ** Peraturan kritikal - mesti mengikut ketat:
Maklumat yang diperlukan (mesti mengumpulkan semua sebelum rancangan):
|
Atas ialah kandungan terperinci Kejuruteraan Konteks adalah ' baru ' Kejuruteraan segera. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Ingat banjir model Cina sumber terbuka yang mengganggu industri Genai awal tahun ini? Walaupun Deepseek mengambil sebahagian besar tajuk utama, Kimi K1.5 adalah salah satu nama yang terkenal dalam senarai. Dan model itu agak sejuk.

Menjelang pertengahan tahun 2025, AI "perlumbaan senjata" dipanaskan, dan Xai dan Anthropic kedua-duanya mengeluarkan model perdana mereka, Grok 4 dan Claude 4. Kedua-dua model ini berada di hujung falsafah reka bentuk dan platform penempatan, namun mereka

Tetapi kita mungkin tidak perlu menunggu 10 tahun untuk melihatnya. Malah, apa yang boleh dianggap sebagai gelombang pertama yang benar-benar berguna, mesin seperti manusia sudah ada di sini. Tahun -tahun kebelakangan ini telah melihat beberapa prototaip dan model pengeluaran melangkah keluar dari T

Dibina di atas enjin kedalaman saraf proprietari Leia, aplikasinya memproses imej dan menambah kedalaman semula jadi bersama -sama dengan gerakan simulasi -seperti kuali, zum, dan kesan paralaks -untuk membuat gulungan video pendek yang memberikan kesan melangkah ke SCE

Sehingga tahun sebelumnya, kejuruteraan segera dianggap sebagai kemahiran penting untuk berinteraksi dengan model bahasa yang besar (LLM). Walau bagaimanapun, baru -baru ini, LLM telah maju dengan ketara dalam kebolehan pemikiran dan pemahaman mereka. Sememangnya, jangkaan kami

Gambar sesuatu yang canggih, seperti enjin AI yang bersedia memberikan maklum balas terperinci mengenai koleksi pakaian baru dari Milan, atau analisis pasaran automatik untuk perniagaan yang beroperasi di seluruh dunia, atau sistem pintar yang menguruskan armada kenderaan yang besar.

Satu kajian baru dari penyelidik di King's College London dan University of Oxford berkongsi hasil apa yang berlaku ketika Openai, Google dan Anthropic dibuang bersama dalam pertandingan cutthroat berdasarkan dilema banduan berulang. Ini tidak

Para saintis telah menemui kaedah yang bijak namun membimbangkan untuk memintas sistem. Julai 2025 menandakan penemuan strategi yang rumit di mana penyelidik memasukkan arahan yang tidak kelihatan ke dalam penyerahan akademik mereka - arahan rahsia ini adalah ekor
