国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Heim Technologie-Peripherieger?te KI Drei Geheimnisse für die Bereitstellung gro?er Modelle in der Cloud

Drei Geheimnisse für die Bereitstellung gro?er Modelle in der Cloud

Apr 24, 2024 pm 03:00 PM
Sprachmodell Wolke llms Sichere übertragung

51CTO Technology Stack (WeChat ID: blog51cto) . Ich fange an, serverloses Cloud Computing zu vermissen. Ihre Anwendungen reichen von der Verbesserung der Konversations-KI bis hin zur Bereitstellung komplexer Analysel?sungen für verschiedene Branchen und vielen anderen Funktionen. Viele Unternehmen setzen diese Modelle auf Cloud-Plattformen ein, da ?ffentliche Cloud-Anbieter bereits ein fertiges ?kosystem bereitstellen und dies der Weg des geringsten Widerstands ist. Allerdings ist es nicht billig.

Drei Geheimnisse für die Bereitstellung gro?er Modelle in der CloudDie Cloud bietet darüber hinaus weitere Vorteile wie Skalierbarkeit, Effizienz und erweiterte Rechenleistung (GPUs auf Abruf). Der Prozess der Bereitstellung von LLM auf einer ?ffentlichen Cloud-Plattform birgt einige wenig bekannte Geheimnisse, die einen erheblichen Einfluss auf Erfolg oder Misserfolg haben k?nnen. Vielleicht weil es nicht viele KI-Experten gibt, die sich mit LLMs befassen, und weil wir noch nicht viel Erfahrung in diesem Bereich haben, gibt es viele Lücken in unserem Wissenssystem.

Lassen Sie uns drei wenig bekannte ?Tricks“ bei der Bereitstellung von LLM in der Cloud untersuchen, die vielleicht sogar Ihre KI-Ingenieure nicht kennen. Wenn man bedenkt, dass diese Ingenieure oft über 300.000 US-Dollar pro Jahr verdienen, ist es vielleicht an der Zeit, über die Details ihrer Arbeit nachzudenken. Ich sehe, wie jeder auf die KI zustürmt, als würden ihm die Haare brennen, aber er macht mehr Fehler als je zuvor.

1. Kosteneffizienz und Skalierbarkeit des Managements

Einer der Hauptvorteile der Bereitstellung von LLMs auf Cloud-Plattformen ist die M?glichkeit, Ressourcen nach Bedarf zu skalieren. Wir müssen keine guten Kapazit?tsplaner sein, denn Cloud-Plattformen verfügen über Ressourcen, die wir einfach per Mausklick oder automatisch zuweisen.

Aber Moment, wir sind dabei, denselben Fehler zu machen, den wir beim Einsatz von Cloud Computing gemacht haben. Das Kostenmanagement bei gleichzeitiger Skalierung ist eine F?higkeit, bei deren effektiver Navigation viele Menschen Hilfe ben?tigen. Beachten Sie, dass Cloud-Dienste in der Regel auf der Grundlage der verbrauchten Rechenressourcen abgerechnet werden. Sie funktionieren wie Versorgungsunternehmen. Je mehr Sie verarbeiten, desto mehr zahlen Sie. Angesichts der Tatsache, dass GPUs mehr kosten (und mehr Strom verbrauchen), ist dies ein zentrales Anliegen bei der Verwendung von LLMs, die von ?ffentlichen Cloud-Anbietern bereitgestellt werden.

Bitte stellen Sie sicher, dass Sie Kostenmanagement-Tools verwenden, einschlie?lich derer, die von Cloud-Plattformen bereitgestellt werden, und der Tools, die von zuverl?ssigen Drittanbietern für Kostenkontrolle und -überwachung (Finops) bereitgestellt werden. Implementieren Sie beispielsweise automatische Skalierung und Planung, w?hlen Sie den richtigen Instanztyp aus oder nutzen Sie Instanzen auf Abruf, um die Kosten zu optimieren. Denken Sie au?erdem daran, Ihre Bereitstellung kontinuierlich zu überwachen und die Ressourcen basierend auf der Nutzung und nicht nur auf der Grundlage der prognostizierten Auslastung anzupassen. Das bedeutet, eine überbereitstellung um jeden Preis zu vermeiden (verstehen Sie mein Wortspiel hier?).

2. Datenschutz in Multi-Tenant-Umgebungen

Der Einsatz von LLMs erfordert h?ufig die Verarbeitung gro?er Datenmengen und das Training von Wissensmodellen, die sensible oder propriet?re Daten enthalten k?nnen. Das Risiko bei der Verwendung einer ?ffentlichen Cloud besteht darin, dass Ihre ?Nachbarn“ in Form von Verarbeitungsinstanzen vorliegen, die auf derselben physischen Hardware ausgeführt werden. Daher besteht beim ?ffentlichen Cloud-Speicher das Risiko, dass w?hrend der Datenspeicherung und -verarbeitung auf die Daten von anderen virtuellen Maschinen zugegriffen werden kann, die auf derselben physischen Hardware im ?ffentlichen Cloud-Rechenzentrum ausgeführt werden. Um dieses Problem zu l?sen, bieten viele Public-Cloud-Anbieter Cloud-Sicherheitsoptionen für Unternehmen an. Diese Optionen bieten Isolierung und Schutz Ihrer Daten vor dem Zugriff anderer virtueller Maschinen, die auf der physischen Hardware ausgeführt werden. Ein weiteres Sicherheitsproblem ist die übertragung von Daten bei der Speicherung und Verarbeitung. Daten k?nnen über ?ffentliche Cloud-Netzwerke übertragen werden, was bedeutet, dass sie w?hrend der übertragung abgefangen oder belauscht werden k?nnen. Um dieses Problem zu l?sen, stellen ?ffentliche Clouds normalerweise Verschlüsselung und sichere übertragungsprotokolle bereit, um die Sicherheit der Daten w?hrend der übertragung zu gew?hrleisten. Alles in allem: Bereitstellung von LLMs

Wenn Sie einen Public-Cloud-Anbieter danach fragen, wird er mit seiner neuesten PowerPoint-Pr?sentation herausstürzen und zeigen, dass dies unm?glich ist. Obwohl dies gr??tenteils zutrifft, ist es nicht ganz korrekt. Dieses Risiko besteht bei allen mandantenf?higen Systemen; Sie müssen es mindern. Ich habe festgestellt, dass die Wahrscheinlichkeit, dass dieses Problem auftritt, umso gr??er ist, je kleiner der Cloud-Anbieter ist, der beispielsweise nur in einem einzigen Land t?tig ist. Dies gilt für Datenspeicher und LLMs.

Das Geheimnis besteht darin, einen Cloud-Anbieter zu w?hlen, der strenge Sicherheitsstandards erfüllt und nachweist: Datenverschlüsselung im Ruhezustand und bei der übertragung, Identit?ts- und Zugriffsmanagement (IAM) und Isolationsrichtlinien. Natürlich ist es besser, Ihre eigene Sicherheitsrichtlinie und Ihren eigenen Sicherheitstechnologie-Stack zu implementieren, um sicherzustellen, dass die Verwendung von mandantenf?higen LLMs in der Cloud weniger riskant ist.

3. Behandeln Sie die Bereitstellung zustandsbehafteter Modelle.

Gro?e Sprachmodelle (LLMs) sind gr??tenteils zustandsbehaftet, was bedeutet, dass sie Informationen von einer Interaktion zur n?chsten behalten. Dieser alte Ansatz bietet neue Vorteile: die M?glichkeit, in kontinuierlichen Lernszenarien effizienter zu sein. Die Verwaltung des Zustands dieser Modelle in Cloud-Umgebungen stellt jedoch eine Herausforderung dar, da Instanzen in Cloud-Umgebungen von Natur aus kurzlebig oder zustandslos sein k?nnen.

Hilfreich sind Orchestrierungstools, die eine zustandsbehaftete Bereitstellung unterstützen (z. B. Kubernetes). Sie k?nnen persistente Speicheroptionen für gro?e Sprachmodelle nutzen und so konfiguriert werden, dass sie ihren Status über Sitzungen hinweg beibehalten und bearbeiten. Dies ist erforderlich, um die Kontinuit?t und Leistung gro?er Sprachmodelle zu unterstützen.

Angesichts des explosionsartigen Wachstums der generativen künstlichen Intelligenz ist die Bereitstellung gro?er Sprachmodelle auf Cloud-Plattformen eine Selbstverst?ndlichkeit. Für die meisten Unternehmen ist es einfach zu umst?ndlich, die Cloud nicht zu nutzen. Meine Sorge wegen der daraus resultierenden Hektik ist, dass wir einige leicht l?sbare Probleme übersehen und gro?e und teure Fehler machen, die am Ende gr??tenteils vermeidbar sind.

Um mehr über AIGC zu erfahren, besuchen Sie bitte:

51CTO AI.x Community

https://www.51cto.com/aigc/

Das obige ist der detaillierte Inhalt vonDrei Geheimnisse für die Bereitstellung gro?er Modelle in der Cloud. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen

PHP-Tutorial
1502
276
Tokenisierung in einem Artikel verstehen! Tokenisierung in einem Artikel verstehen! Apr 12, 2024 pm 02:31 PM

Sprachmodelle basieren auf Text, der normalerweise in Form von Zeichenfolgen vorliegt. Da die Eingabe in das Modell jedoch nur Zahlen sein kann, muss der Text in eine numerische Form umgewandelt werden. Die Tokenisierung ist eine grundlegende Aufgabe der Verarbeitung natürlicher Sprache. Sie kann eine fortlaufende Textsequenz (z. B. S?tze, Abs?tze usw.) entsprechend den spezifischen Anforderungen in eine Zeichenfolge (z. B. W?rter, Phrasen, Zeichen, Satzzeichen usw.) unterteilen. Die darin enthaltenen Einheiten werden als Token oder Wort bezeichnet. Gem?? dem in der Abbildung unten gezeigten spezifischen Prozess werden die Texts?tze zun?chst in Einheiten unterteilt, dann werden die einzelnen Elemente digitalisiert (in Vektoren abgebildet), dann werden diese Vektoren zur Codierung in das Modell eingegeben und schlie?lich an nachgelagerte Aufgaben ausgegeben erhalten Sie weiterhin das Endergebnis. Die Textsegmentierung kann entsprechend der Granularit?t der Textsegmentierung in Toke unterteilt werden.

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für gro?e Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für gro?e Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der F?rderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datens?tze k?nnen nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die F?higkeiten gro?er Sprachmodelle (LLMs) bewerten, insbesondere die F?higkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datens?tze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datens?tze immer noch einige M?ngel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schr?nken jedoch den Antwortauswahlbereich des Modells ein und k?nnen die F?higkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollst?ndig testen. Im Gegensatz dazu offene Fragen und Antworten

So nutzen Sie Vue zur Datenverschlüsselung und sicheren übertragung So nutzen Sie Vue zur Datenverschlüsselung und sicheren übertragung Aug 02, 2023 pm 02:58 PM

So verwenden Sie Vue zur Datenverschlüsselung und sicheren übertragung. Einführung: Mit der Entwicklung des Internets hat die Datensicherheit immer mehr Aufmerksamkeit erhalten. Bei der Entwicklung von Webanwendungen sind Datenverschlüsselung und sichere übertragung wichtige Mittel zum Schutz der Privatsph?re und sensibler Informationen der Benutzer. Als beliebtes JavaScript-Framework bietet Vue eine Fülle von Tools und Plug-Ins, die uns bei der Datenverschlüsselung und sicheren übertragung helfen k?nnen. In diesem Artikel wird die Verwendung von Vue zur Datenverschlüsselung und sicheren übertragung vorgestellt und Codebeispiele als Referenz bereitgestellt. 1. Datenverschlüsselung und Datenverschlüsselung

Ein Artikel zum Verst?ndnis der technischen Herausforderungen und Optimierungsstrategien für die Feinabstimmung gro?er Sprachmodelle Ein Artikel zum Verst?ndnis der technischen Herausforderungen und Optimierungsstrategien für die Feinabstimmung gro?er Sprachmodelle Mar 20, 2024 pm 11:01 PM

Hallo zusammen, mein Name ist Luga. Heute werden wir weiterhin Technologien im ?kosystem der künstlichen Intelligenz erforschen, insbesondere LLMFine-Tuning. In diesem Artikel wird die LLMFine-Tuning-Technologie weiterhin eingehend analysiert, um allen zu helfen, ihren Implementierungsmechanismus besser zu verstehen, damit sie besser auf die Marktentwicklung und andere Bereiche angewendet werden kann. LLMs (LargeLanguageModels) führen eine neue Welle der Technologie der künstlichen Intelligenz an. Diese fortschrittliche KI simuliert die menschlichen Wahrnehmungs- und Sprachf?higkeiten, indem sie riesige Datenmengen mithilfe statistischer Modelle analysiert, um komplexe Muster zwischen W?rtern und Phrasen zu lernen. Die leistungsstarken Funktionen von LLMs haben gro?es Interesse bei vielen führenden Unternehmen und Technologiebegeisterten geweckt, die sich beeilen, diese auf künstlicher Intelligenz basierenden Funktionen einzuführen

Drei Geheimnisse für die Bereitstellung gro?er Modelle in der Cloud Drei Geheimnisse für die Bereitstellung gro?er Modelle in der Cloud Apr 24, 2024 pm 03:00 PM

Zusammenstellung|Produziert von Ich fange an, serverloses Cloud Computing zu vermissen. Ihre Anwendungen reichen von der Verbesserung der Konversations-KI bis hin zur Bereitstellung komplexer Analysel?sungen für verschiedene Branchen und vielen anderen Funktionen. Viele Unternehmen setzen diese Modelle auf Cloud-Plattformen ein, da ?ffentliche Cloud-Anbieter bereits ein fertiges ?kosystem bereitstellen und dies der Weg des geringsten Widerstands ist. Allerdings ist es nicht billig. Die Cloud bietet darüber hinaus weitere Vorteile wie Skalierbarkeit, Effizienz und erweiterte Rechenfunktionen (GPUs auf Anfrage verfügbar). Es gibt einige wenig bekannte Aspekte der Bereitstellung von LLM auf ?ffentlichen Cloud-Plattformen

RoSA: Eine neue Methode zur effizienten Feinabstimmung gro?er Modellparameter RoSA: Eine neue Methode zur effizienten Feinabstimmung gro?er Modellparameter Jan 18, 2024 pm 05:27 PM

Da Sprachmodelle in einem noch nie dagewesenen Ausma? skaliert werden, wird eine umfassende Feinabstimmung für nachgelagerte Aufgaben unerschwinglich teuer. Um dieses Problem zu l?sen, begannen Forscher, der PEFT-Methode Aufmerksamkeit zu schenken und sie zu übernehmen. Die Hauptidee der PEFT-Methode besteht darin, den Umfang der Feinabstimmung auf einen kleinen Satz von Parametern zu beschr?nken, um die Rechenkosten zu senken und gleichzeitig eine hochmoderne Leistung bei Aufgaben zum Verstehen natürlicher Sprache zu erzielen. Auf diese Weise k?nnen Forscher Rechenressourcen einsparen und gleichzeitig eine hohe Leistung aufrechterhalten, wodurch neue Forschungsschwerpunkte auf dem Gebiet der Verarbeitung natürlicher Sprache entstehen. RoSA ist eine neue PEFT-Technik, die durch Experimente mit einer Reihe von Benchmarks gezeigt hat, dass sie frühere Low-Rank-Adaptive- (LoRA) und reine Sparse-Feinabstimmungsmethoden mit demselben Parameterbudget übertrifft. Dieser Artikel wird n?her darauf eingehen

PHP 401-Antwort: Beheben Sie unbefugte Fehler und erh?hen Sie die Sicherheit PHP 401-Antwort: Beheben Sie unbefugte Fehler und erh?hen Sie die Sicherheit Apr 09, 2024 pm 03:15 PM

In der Webentwicklung bedeutet ein 401 Unauthorized-Fehler, dass der Client nicht berechtigt ist, auf eine bestimmte Ressource zuzugreifen. PHP bietet mehrere Verarbeitungsmethoden: 1. Verwenden Sie den HTTP-Statuscode 401. 2. JSON-Antwort ausgeben. Um die Sicherheit zu erh?hen, k?nnen Sie folgende Ma?nahmen ergreifen: 1. Verwenden Sie HTTPS. 2. Aktivieren Sie den CSRF-Schutz. 4. Verwenden Sie ein Autorisierungsframework.

Effiziente Parameter-Feinabstimmung umfangreicher Sprachmodelle – BitFit/Prefix/Prompt-Feinabstimmungsserie Effiziente Parameter-Feinabstimmung umfangreicher Sprachmodelle – BitFit/Prefix/Prompt-Feinabstimmungsserie Oct 07, 2023 pm 12:13 PM

Im Jahr 2018 ver?ffentlichte Google BERT. Nach seiner Ver?ffentlichung übertraf es die State-of-the-Art-Ergebnisse (Sota) von 11 NLP-Aufgaben und stellte damit einen neuen Meilenstein in der NLP-Welt dar In der Abbildung unten ist der Trainingsprozess des BERT-Modells dargestellt, rechts der Feinabstimmungsprozess für bestimmte Aufgaben. Unter anderem dient die Feinabstimmungsphase der Feinabstimmung, wenn sie anschlie?end in einigen nachgelagerten Aufgaben verwendet wird, wie z. B. Textklassifizierung, Wortartkennzeichnung, Frage- und Antwortsysteme usw. BERT kann auf verschiedene Arten feinabgestimmt werden Aufgaben ohne Anpassung der Struktur. Durch das Aufgabendesign ?vorab trainiertes Sprachmodell + Feinabstimmung der nachgelagerten Aufgabe“ werden leistungsstarke Modelleffekte erzielt. Seitdem ist ?Sprachmodell vor dem Training + Feinabstimmung der nachgelagerten Aufgabe“ zum Mainstream-Training im NLP-Bereich geworden.

See all articles