


Was ist 'physische KI'? Im Vorsto?, um KI die reale Welt zu verstehen
Jun 14, 2025 am 11:23 AMFügen Sie dieser Realit?t die Tatsache hinzu, dass KI weitgehend eine schwarze Box und Ingenieure immer noch Schwierigkeiten haben, zu erkl?ren, warum Modelle sich unvorhersehbar verhalten oder wie Sie sie beheben k?nnen, und Sie k?nnten die gr??te Herausforderung für die Branche heute erfassen.
Aber hier sehen eine wachsende Anzahl von Forschern und Startups die n?chste gro?e Chance: nicht nur in einem schnelleren Modelltraining oder beeindruckenderen generativen Outputs, sondern auch in Maschinen, die die physische Welt wirklich verstehen - die Art und Weise, wie sie sich bewegt, reagiert und sich in Echtzeit entfaltet. Sie bezeichnen dies als " physische KI ".
Der Ausdruck wurde zuerst von Jensen Huang, CEO von Nvidia, in den Rampenlicht gebracht, der die physische KI als die n?chste Grenze der künstlichen Intelligenz bezeichnet hat und sie als ? KI, die die Gesetze der Physik versteht “ und über die Kennzeichnung von Pixel über die Kennzeichnung von Pixel zum K?rperbewusstsein, die Bewegung, die Bewegung und die Interaktion hinaus definiert wurde.
Von passiven Kameras bis aktiv
In seinem Kern kombiniert die physische KI Computervision, Physiksimulation und maschinelles Lernen, um Maschinen verursachen und zu Wirkung zu lehren. Im Wesentlichen erm?glicht es KI -Systemen, nicht nur Objekte oder Menschen zu identifizieren, sondern auch zu verstehen, wie sie mit ihrer Umgebung interagieren - z. B. wie jemandes Bewegung eine Tür ?ffnet oder wie ein Ball von einer Wand abprallen k?nnte.
Bei Lumana , einem Startup, das vom Global Venture Capital and Growth Equity -Unternehmen Norwest finanziert wird, ist dieser Ausdruck nicht nur ein Marketingbegriff. Es stellt eine vollst?ndige Transformation in der Produktentwicklung dar. Das Unternehmen, das für AI-Videoanalysen bekannt ist, trainiert nun seine Modelle nicht nur, um Bewegung zu erkennen, sondern auch das menschliche Verhalten zu interpretieren, die Absicht zu bewerten und automatisch Echtzeit-Warnungen zu generieren.
"Wir definieren die physische KI als die n?chste Phase der Video-Intelligenz", sagte Sagi Ben-Moshe, CEO von Lumana, in einem Interview. "Es geht nicht mehr einfach darum, ein rotes Auto oder eine Person in einem Flur zu identifizieren-es geht darum, vorherzusagen, was als n?chstes passieren k?nnte und in realen Situationen sinnvolle Ma?nahmen ergreifen k?nnte."
In einem praktischen Beispiel erkannte Lumanas System einen potenziellen Angriff, nachdem er eine ungew?hnliche K?rpersprache und die N?he zwischen zwei M?nnern und einem Paar unbeaufsichtigter Getr?nke erkannte und eine Warnung ausl?ste, die es den Mitarbeitern erm?glichte, einzugreifen, bevor die Situation eskalierte. In einem anderen Fall wurden Verst??e gegen die Lebensmittelsicherheit in Echtzeit ermittelt, einschlie?lich der Arbeiter, die die H?nde nicht waschen, mit Lebensmitteln ohne Handschuhe umgegangen sind und rohe Zutaten zu lange herauslassen. Diese Probleme waren nach der Tatsache keine Probleme, sondern diejenigen, die so gefangen wurden, dass sie geschah. Diese Ebene der vielschichtigen Interpretation, erkl?rte Ben-Moshe, verwandelt Kameras in ?intelligente Sensoren“.
Wirkliche Auswirkungen
Es ist kein Zufall, dass Huang den Begriff ?physische KI“ zuvor verwendet hat und ihn mit verk?rperter Intelligenz und realer Simulation verbindet. Es spiegelt eine gr??ere Verschiebung der Branche zum Aufbau von KI -Systemen wider, die die Gesetze der Physik besser verstehen und effektiver argumentieren k?nnen. Die Physik bezieht sich in diesem Zusammenhang auf Ursache und Wirkung - die F?higkeit, Bewegung, Kraft und Interaktion zu analysieren, nicht nur zu Erscheinungen.
Diese Perspektive stimmte mit Investoren von Norwest aus, die Lumana in ihren frühen Stadien unterstützten. "Sie k?nnen die Zukunft der Video -Intelligenz nicht aufbauen, indem Sie nur Objekte erkennen", sagte Dror Nahumi, eine pers?nliche Partnerin bei Norwest . "Sie ben?tigen Systeme, die verstehen, was passiert, im Kontext, und k?nnen es besser machen als ein Mensch, der ein Dutzend Bildschirme beobachtet. Oft brauchen Unternehmen diese Informationen sofort."
Norwest ist nicht der einzige Spieler in diesem Bereich. Andere, wie Hakimo und Vintra, untersuchen ?hnliche Anwendungen - nutzen AI, um Sicherheitsverletzungen bei der Herstellung zu erkennen, das Herumlungern im Einzelhandel zu erkennen oder ?ffentliche St?rungen zu verhindern, bevor sie sich verschlechtern.
Zum Beispiel hat Hakimo kürzlich einen autonomen überwachungsagenten entwickelt, der Angriffe verhinderte, Vandalismus identifizierte und sogar eine zusammengebrochene Person mit Live -Video -Feeds und KI unterstützte. Bei NVIDIA GTC im M?rz stellte Nvidia Roboteragenten vor, die lernen, die Schwerkraft und r?umliche Beziehungen durch umweltbasiertes Training zu verstehen, und das gleiche physische Argumenting, das Lumana in seine überwachungsinstrumente integriert, wiederholt.
Und erst gestern kündigte Meta die Ver?ffentlichung von V-JEPA 2 an, ?einem selbstüberwachenden Fundament-Weltmodell, um die physische Realit?t zu verstehen, Ergebnisse vorwegzunehmen und effiziente Strategien zu planen“. Wie Michel Meyer, Gruppenproduktmanager bei The Core Learning and Reasoning Division der grundlegenden KI -Forschung des Unternehmens, schrieb gestern über LinkedIn und zitierte den Meta -Chef -AI -Wissenschaftler Yann Lecun: ?Dies ist eine grundlegende Verschiebung zu KI -Systemen, die zu planen k?nnen, planen und durch physische Weltmodelle handeln. Das."
Auf die Frage, was die praktischen Auswirkungen der physischen KI sein k?nnten, wies Nahumi darauf hin, dass es sich um Schlagworte hinausgeht. "Jeder kann Bewegung erkennen, aber wenn Sie eine echte KI in der Videoüberwachung wünschen, müssen Sie darüber hinausgehen, um den Kontext zu verstehen." Er sieht Lumanas Vollstapel, kontextbezogener Architektur eher als grundlegend als nur als Verkaufsgespr?ch.
"Wir glauben, dass es hier eine bedeutende Gesch?ftsm?glichkeit gibt und die Technologie jetzt reif genug ist, um die menschliche Leistung in Echtzeit zu unterstützen und sogar zu übertreffen", sagte er mir.
Vertrauen und Transparenz
Die Wahrheit ist, dass der Erfolg von physischen Systemen nicht nur von der zugrunde liegenden Technologie abh?ngt. W?hrend sich die KI weiterentwickelt, wird immer klarer, dass der Erfolg der meisten KI -Systeme stark von Ethik, Vertrauen und Rechenschaftspflicht abh?ngt. Anders ausgedrückt ist Vertrauen die W?hrung der Effektivit?t von KI. Und die wichtigste Frage, die Unternehmen weiterhin beantworten müssen, ist: K?nnen wir vertrauen, dass Ihrem KI -System sicher funktioniert?
In Sicherheitseinstellungen k?nnen falsch positive Positives Standorte schlie?en oder unschuldige Personen falsch beschuldigen. In industriellen Umgebungen k?nnten falsch interpretierte Aktionen unn?tige Alarme ausführen.
Privatsph?re ist ein weiterer Anlass zur Sorge. W?hrend viele physische KI-Systeme in privaten Einrichtungen-Fabriken, Campus, Hotels-funktionieren, warnen Kritiker, dass die Echtzeitverhaltensvorhersage ohne Aufsicht zu einer Massenüberwachung führen k?nnte. Wie Ben-Moshe selbst zugab, ist dies eine leistungsstarke Technologie, die Schutzma?nahmen, Offenheit und explizite Zustimmung erfordert.
Laut Nahumi liefert der mehrstufige Ansatz von Lumana jedoch nützliche Warnungen, schützt jedoch die Privatsph?re und erm?glicht eine reibungslose Integration in aktuelle Systeme. "Lumana entwirft Systeme, die die physische KI mit minimaler St?rung auf die vorhandene Infrastruktur schichten", stellte er fest, "sicherzustellen, dass die Betreiber nicht von falsch positiven Aktivit?ten überw?ltigt werden."
Ein Markt am Rande
Trotz dieser Bedenken steigt die Nachfrage schnell an. Einzelh?ndler m?chten Fu?verkehrsanomalien überwachen. Die Gemeinden zielen darauf ab, Kriminalit?t zu verhindern, ohne das Personal zu erh?hen. Die Hersteller suchen in Echtzeit-Sicherheitsvorschriften anstelle von überprüfungen nach dem Ereignis. In jedem Szenario bleibt das Problem gleich: zu viele Kameras, zu wenig Einblick.
Und das ist die kommerzielle Rechtfertigung hinter der physischen KI. Norwests Nahumi sagte: ?Wir sehen klare ROI -Indikatoren - nicht nur bei vermiedenen Verlusten, sondern auch in der operativen Effizienz. Dies ist keine spekulative Deep -Tech mehr. Es ist eine Plattforminvestition.“
Diese Investition beruht auf Systemen, die skalierbar, flexibel und kosteneffizient sind. Die Strategie von Lumana, die die physische KI über vorhandene Kamerasysteme hinzufügt, vermeidet das Dilemma ?Rip-and-Replace“ und h?lt die Adoptionsbarrieren niedrig. Nahumi hob das wachsende Unternehmensinteresse in Einzelhandel, Fertigung, Gastgewerbe und ?ffentliche Sicherheit hervor - in Bereichen, in denen Videomaterial reichlich vorhanden ist, aber die Analyse bleibt manuell und ineffizient.
Selbst in Unternehmensgremien und Forschungslabors w?chst der Wunsch nach Maschinen, die ?verstehen“ und nicht ?beobachten“. Deshalb verdoppeln Unternehmen wie Norwest, Nvidia, Hakimo und Lumana die physische KI.
"In fünf Jahren", so Ben-Moshe, "wird die physische KI mehr als beobachtet-es wird Aktionen vorschlagen, Ereignisse vorhersagen und Sicherheitsteams unübertroffene Sichtbarkeit bieten." Er betonte, dass dies um Systeme geht, die nicht nur sehen, sondern auch reagieren.
Das Mitnehmen
Letztendlich ist das Ziel der physischen KI nicht nur, Maschinen zu helfen, klarer zu sehen - es soll ihnen helfen, zu verstehen, was sie sehen. Es soll ihnen helfen, in der komplexen physischen Welt, in der wir leben, zu erkennen, zu verstehen und zu begründen.
Ben-Moshe stellt sich eine Zukunft vor, in der die physische KI Ma?nahmen empfiehlt, Vorf?lle davon abh?lt, es zu eskalieren, und prognostiziert sogar Ereignisse, bevor sie auftreten. "Jede Sekunde des Videos sollte umsetzbare Erkenntnisse liefern", sagte er. "Wir m?chten, dass Maschinen über die Welt als System argumentieren - wie Partikel, die m?gliche Wege in der Physik verfolgen - und das wahrscheinlichste und wertvollste Ergebnis hervorheben."
Das ist ein bedeutender Sprung aus den heutigen grundlegenden überwachungssystemen. An der Verhinderung von Kriminalit?t und der Vermeidung von Unf?llen bis zur Aufdeckung neuer operativer Erkenntnisse und der Analyse von Aktivit?tstrends bieten die Argumenten von Motoren über Kameras einen messbaren Wert.
Aber die Skalierung ist der Ort, an dem die wirkliche Anstrengung liegt. Es erfordert Systeme, die pr?zise, ??ethisch, prüfbar und vertrauenswürdig sind. Wenn dieses Gleichgewicht erreicht werden kann, k?nnen wir bald in eine Welt eintreten, in der AI uns nicht nur zeigt, was passiert ist, sondern uns auch hilft, zu bestimmen, was am wichtigsten ist.
Das obige ist der detaillierte Inhalt vonWas ist 'physische KI'? Im Vorsto?, um KI die reale Welt zu verstehen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Aber wir müssen wahrscheinlich nicht einmal 10 Jahre warten, um einen zu sehen. Was als erste Welle wirklich nützlicher, menschlicher Maschinen angesehen werden k?nnte, ist bereits da. In den letzten Jahren wurden eine Reihe von Prototypen und Produktionsmodellen aus t herausgezogen

Bis zum Vorjahr wurde eine schnelle Engineering als entscheidende F?higkeit zur Interaktion mit gro?artigen Modellen (LLMs) angesehen. In jüngster Zeit sind LLM jedoch in ihren Argumentations- und Verst?ndnisf?higkeiten erheblich fortgeschritten. Natürlich unsere Erwartung

Aufgebaut auf Leia's propriet?rer neuronaler Tiefenmotor verarbeitet die App still Bilder und fügt die natürliche Tiefe zusammen mit simulierten Bewegungen hinzu - wie Pfannen, Zoome und Parallaxeffekte -, um kurze Video -Rollen zu erstellen, die den Eindruck erwecken, in die SCE einzusteigen

Stellen Sie sich vor, dass etwas Geformtes, wie ein KI -Motor, der bereit ist, ein detailliertes Feedback zu einer neuen Kleidungssammlung von Mailand oder automatische Marktanalyse für ein weltweit betriebenes Unternehmen zu geben, oder intelligentes Systeme, das eine gro?e Fahrzeugflotte verwaltet.

Eine neue Studie von Forschern am King's College London und der University of Oxford teilt die Ergebnisse dessen, was passiert ist, als OpenAI, Google und Anthropic in einem Cutthroat -Wettbewerb zusammengeworfen wurden, der auf dem iterierten Dilemma des Gefangenen basiert. Das war nein

Wissenschaftler haben eine clevere, aber alarmierende Methode aufgedeckt, um das System zu umgehen. Juli 2025 markierte die Entdeckung einer aufw?ndigen Strategie, bei der Forscher unsichtbare Anweisungen in ihre akademischen Einreichungen eingefügt haben - diese verdeckten Richtlinien waren Schwanz
