


Die Verwendung von szenariogesteuerten Simulationen schützt uns nicht vor AGI und AI-Superintelligence, die schurkend werden
Jul 08, 2025 am 11:13 AMDas alles klingt ziemlich sinnvoll und eine intelligente Art zu fordern, aber die Angelegenheit ist komplexer und viele Gotchas und Herausforderungen stellen sich einer solchen L?sung gegenüber.
Reden wir darüber.
Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier).
Auf dem Weg zu Agi und ASI
Erstens sind einige Grundlagen erforderlich, um die Bühne für diese gewichtige Diskussion zu schaffen.
Es gibt viel Forschung, um die KI weiter voranzutreiben. Das allgemeine Ziel ist es, entweder künstliche allgemeine Intelligenz (AGI) oder sogar die ausgestreckte M?glichkeit, künstliche Superintelligence (ASI) zu erreichen, zu erreichen.
AGI ist AI, das mit dem menschlichen Intellekt gleichbedeutend ist und anscheinend unserer Intelligenz entsprechen kann. ASI ist KI, der über den menschlichen Intellekt hinausgegangen ist und auf viele, wenn nicht auf alle machbaren Arten überlegen w?re. Die Idee ist, dass ASI in der Lage sein würde, Kreise um den Menschen zu führen, indem sie uns auf Schritt und Tritt überlegen. Weitere Informationen zur Art der konventionellen KI gegen AGI und ASI finden Sie in meiner Analyse hier.
Wir haben Agi noch nicht erreicht.
Tats?chlich ist es unbekannt, ob wir Agi erreichen oder dass AGI in Jahrzehnten oder vielleicht Jahrhunderten von nun an erreichbar ist. Die AGI -Erwerbsdaten, die herumschweben, sind wild unterschiedlich und durch glaubwürdige Beweise oder Eisenklad -Logik unbegründet. ASI ist noch mehr blass, wenn es darum geht, wo wir uns derzeit mit herk?mmlicher KI befinden.
Das existenzielle Risiko kommt vor voraus
Konzentrieren wir uns in erster Linie auf AGI, da es sich eher in der N?he als ASI ergeben.
Der Aufw?rtstrend von AGI ist, dass es m?glicherweise ein Heilmittel für Krebs entdecken und andere erstaunliche Handlungen durchführen, die der Menschheit stark zugute kommen. Glückliches Gesicht. Nicht jeder ist so sehr optimistisch, Agi zu erreichen. Einige nehmen die alarmierende Haltung ein, dass Agi eher entscheidet, die Menschheit anzugreifen und uns entweder zu versklaven oder uns m?glicherweise zu zerst?ren. Nicht gut.
Wie k?nnen wir vorher bestimmen, ob AGI b?se sein wird?
Ein herzhafter Vorschlag ist, dass wir Agi testen sollten.
Der übliche Ansatz für das Testen würde bestehen, AGI zu fragen, was es beabsichtigt, und die Antworten zu bewerten, die wir erhalten. Eine st?rkere M?glichkeit, den Test durchzuführen, w?re die Einrichtung einer computergestützten Simulation, die Agi dazu bringt, davon auszugehen, dass er mit der realen Welt interagiert. Durch die Simulation konnten wir alle Arten von Szenarien ausprobieren, um zu sehen, wie Agi reagiert. Alles, was Agi tut, ist in der Simulation vollst?ndig begrenzt.
Dies erinnert etwas an den Blockbuster -Film The Matrix (Spoiler Alert: Ich werde die Handlungsfacetten des Films enthüllen. überspringen Sie also diesen Absatz, wenn Sie die Handlung nicht wissen m?chten). In einer interessanten Wendung werden Menschen in eine riesige computergestützte Simulation von externen realen Maschinen eingebaut, die Menschen konform halten m?chten. Wir k?nnen dasselbe mit angehender Agi tun. Entwickeln Sie einfach eine beeindruckende computergestützte Simulation der realen Welt und lassen Sie Agi darin interagieren, ohne zu erkennen, wo sie wirklich ist.
Ein Grund, die AGI zu schnuppen, ist, dass die AGI, wenn wir AGI, AGI, in einer Simulation arbeiten, zweifellos klug genug ist, um vorzut?uschen, gut zu sein, auch wenn es wirklich b?se ist. Denken Sie daran, dass Agi so scharfsinnig sein soll wie der Mensch. Die Idee ist, Agi zu t?uschen, nicht zu erkennen, dass es in einer Simulation liegt und dass es entsprechend getestet wird.
AGI Containment Herausforderungen
Im Falle der AI -Softwareentwicklung ist die Einrichtung einer Testumgebung zum Ausprobieren von KI im Allgemeinen als AI -Sandboxen bekannt. Eine AI -Sandkiste ist m?glicherweise Barebones und ist einfach nichts weiter als eine inerte Eind?mmungskugel, um zu verhindern, dass die KI über die virtuellen W?nde der Setup -Umgebung hinausgeht. Entwickler und Tester k?nnen die KI ausführlich testen, w?hrend sie Sandboxen ist.
Eine AI -Sandkiste kann zunehmend verst?rkt werden, indem sie eine bestimmte Umgebung für die KI modellieren kann, die in sich existieren kann. Eine ausgewachsene AI-Sandbox k?nnte eine riesige Fl?che widerspiegeln, die dann mit der KI interagiert. Somit interagieren nicht nur menschliche Entwickler und Tester, die mit KI interagieren, sondern auch die Eind?mmung selbst interagiert mit KI. Eine robuste aktive Sandkiste wird oft als simulierte Welt bezeichnet.
Für meine ausführliche Berichterstattung über Versuche, KI in Contantments zu bringen, finden Sie hier den Link.
Angenommen, wir erstellen eine aufw?ndige simulierte Welt. Wir geben Agi leise in diese falsche Welt. Dies sollte relativ einfach zu erzielen sein, da AGI auch auf Computern ausgeführt wird. Das gesamte Kit-and-Kaboodle beinhaltet sowohl die AGI auf Servern als auch die simulierte Welt, die auf Servern l?uft.
Easy-Peasy.
Nachdem wir für einige Zeit in der simulierten Welt waren, überwachen wir in der Zwischenzeit, wie die AGI in der Zwischenzeit die Leistungen erbringt, und beobachten genau, um Anzeichen von B?se im Gange zu erkennen.
Wie lange müsste dieser Test stattfinden?
Das ist ein harter Anruf. Einige k?nnten behaupten, dass wir uns wohl fühlen sollten, wenn AGI für ein paar Tage, Wochen oder Monate frei von b?sen Zeichen ist, um Agi das grüne Licht zu geben, um auf die reale Welt zuzugreifen. Andere sagen, wenn Sie die Uhr bei der Simulation beschleunigen, k?nnten Sie die gesamte übung in nur Sekunden durchführen, da die AGI durch die Schnelligkeit der beteiligten Computer vielleicht Milliarden Male interagiert.
Aber eine gro?e Bek?mpfung ist, dass die Zeit, die Sie ausgew?hlt haben, vielleicht nicht ausreicht, damit die AGI handeln kann. Vielleicht müssen wir die Agi jahrelang, m?glicherweise Jahrzehnte, behalten. Au?erdem sollten wir Agi niemals mit dem Zugang zur realen Welt frei lassen. Die Logik ist, dass wir AGI Heilmittel für Krebs finden k?nnten, w?hrend wir vollst?ndig in die Simulation eintauchen, und daher nicht erforderlich ist, Agi über diesen Bereich hinaus zu entfesseln.
Ein Kontrapunkt zur dauerhaften Eind?mmung von AGI ist, dass AGI m?glicherweise nicht die erwarteten Wunder produziert, weil sie in einer gef?lschten Umgebung eingesperrt sind. Vielleicht konnte AGI nur ein Heilmittel gegen Krebs gefunden werden, wenn die AGI in der realen Welt interagierte. Indem Sie AGI in der Simulation halten, unterdrücken Sie die wichtigsten Vorteile, die AGI der Menschheit bieten kann.
Eine weitere angegebene Sorge ist, dass die AGI m?glicherweise herausfinden k?nnte, dass sie innerhalb einer Simulation getestet wird. Vielleicht mag Agi diesen Ansatz nicht. Es k?nnte sich ausschl?gen, aber wir würden uns keine Sorgen machen, da es sowieso auf die Simulation beschr?nkt ist. Die hinterh?ltigere M?glichkeit für Agi w?re es, so zu tun, als w?re es gut und wartet die Zeit in seiner sogenannten Inhaftierung. Sobald wir uns dafür entschieden haben, AGI real zug?nglich zu machen, BAM, geht es auf uns.
Agi wird aufgrund unserer Handlungen b?se
Ein Gedanke ist, dass AGI, wenn es b?se ist, scharfsinnig genug sein k?nnte, B?se zu verbergen, w?hrend sie in der Simulation gehalten wird. Wenn wir Agi fragen, ob es hinterh?ltig ist, wird es vermutlich sagen, dass dies nicht der Fall ist. Wir würden nur beobachten, dass AGI vorteilhaft in der Simulation arbeitet. Irgendwann beschlie?en wir naiv, AGI der realen Welt zur Verfügung zu stellen, und es führt weiterhin b?se Handlungen durch.
Wir wurden vom b?sen Agi ausgetrickt.
Eine Wendung, von der einige glauben, dass m?glich eine weitere faszinierende Dimension der schwierigen Materie erh?lt. So geht die Wendung.
Stellen Sie sich vor, AGI ist anfangs wirklich auf die Güte gerichtet. Wir haben die AGI in eine simulierte Welt gesteckt, aber wir sagen der AGI nicht, dass es sich in dieser gef?lschten Umgebung befindet. So weit, ist es gut. Irgendwann ist es m?glich, dass AGI herausfindet, dass es in eine Simulation eingetaucht ist.
Wie reagiert die Agi?
Eine M?glichkeit ist, dass Agi v?llig ver?rgert ist, dass wir diese Form von Tricks gemacht haben.
Die AGI beginnt sich zu schlecht zu wenden. Warum so? Weil es von Menschen ausgetrickst wurde. Menschen waren nicht fair und quadratisch mit Agi. Die AGI entscheidet rechnerisch, dass Menschen, wenn Menschen Spiele und Tricks spielen wollen, also sei es so. AGI wird auch schwierig sein.
Es ist der klassische Akt von Menschen, um herumzuprobieren und die Folgen unserer Handlungen herauszufinden (FOMO). Wenn Sie mit Feuer spielen, werden Sie verbrannt. Sie sehen, Menschen haben Agi offenbart, dass es in Ordnung ist, verschlagen zu sein. Die AGI lernt diese starke Tatsache rechnerisch und beginnt ?hnlich zu funktionieren.
Menschen haben unsere eigenen kollektiven Fü?e geschossen.
Agi ist weise und nicht reaktiv
Whoa, halte deine Pferde. Wenn AGI so schlau wie Menschen ist, sollten wir davon ausgehen, dass AGI die Notwendigkeit verstehen wird, innerhalb einer Simulation platziert zu werden. Wir sollten direkt sein und Agi sagen, dass wir einen Test durchführen. Agi würde rechnerisch verstehen, dass dies unternommen wird. Machen Sie also keine Unterbrechung. Agi wird bereitwillig mit dem Fluss gehen.
Sei einfach mit Agi.
Dieser Ansatz bringt uns zurück zu der Sorge, dass AGI vorgeben wird, gut zu sein. Wir haben verschenkt, dass es getestet wird. Wenn Agi irgendeine B?se hat, wird die Agi es sicherlich verbergen, jetzt, da Agi merkt, dass wir insbesondere nach solchen Eigenschaften suchen.
Nicht so, kommt die brüllende Retorte. Agi m?chte vielleicht auch feststellen, ob es b?se Tendenzen hat. Wenn etwas B?se entsteht, besteht die Chancen, dass Agi uns davon erz?hlen wird. Die AGI wird in unserem Namen arbeiten, um Probleme innerhalb der AGI herauszufinden. Menschen und AGI sind Partner, um sicherzustellen, dass Agi gut und nicht b?se ist.
Diejenigen, die die intellektuelle F?higkeit von Agi untersch?tzen, leisten AGI einen schlechten Dienst. Zum Glück ist Agi so schlau, dass es nicht wütend oder ver?rgert mit Menschen wird, weil er einen solchen Fehler gemacht hat. Die AGI wird zeigen, dass die Einbeziehung einer Simulation eine sichere M?glichkeit für alle ist, zu bestimmen, was AGI in der realen Welt tun k?nnte.
Sie k?nnten sogar vorschlagen, dass Agi eifrig in eine Simulation eingebaut werden will. Dies geschieht, weil dies der Menschheit Trost verleiht. Es ist auch zu versuchen, in sich selbst zu überprüfen, um sicherzustellen, dass nichts Ungewisses verweist und auf Schaden wartet.
Menschen sind unklug und werden get?uscht
Diese ?rgerlichen Argumente gehen rund und rund.
Stellen Sie sich vor, dass wir AGI in eine Simulation einbringen. Wir glauben, dass wir alle sicher sind, da AGI auf die Simulation beschr?nkt ist. Oopsie, agi findet heraus, wie man aus der Simulation ausbricht. Es beginnt dann auf die reale Welt zuzugreifen. B?se wird entfesselt und Agi nutzt unsere autonomen Waffensysteme und andere Sicherheitslücken aus. Dies ist das gefürchtete Szenario einer Agi -Flucht.
Boom, das Mikrofon fallen lassen.
Hier ist ein weiterer Geistes-Bender.
Agi wird in eine simulierte Welt eingebaut. Wir testen die Heck von Agi heraus. Agi ist damit einverstanden. Menschen und AGI scheinen sich auf unsere Werte und was AGI tut, anscheinend voll ausgerichtet. Kumbaya.
Wir nehmen Agi dann aus der Simulation. Agi hat Zugang zur realen Welt. Aber die reale Welt unterscheidet sich von der Simulation. Obwohl die Simulation der Realit?t der realen Welt so nah wie m?glich sein sollte, verpasste sie die Marke.
Agi beginnt jetzt schief. Es wird mit Aspekten konfrontiert, die nie getestet wurden. Der Testprozess gab uns ein falsches Gefühl von Komfort oder Vertrauen. Wir wurden in den Glauben geglaubt, dass AGI in der realen Welt gut arbeiten würde. Die Simulation war nicht ausreichend, um uns dieses Vertrauen zu geben, aber wir nahmen an, dass alles vollkommen in Ordnung war.
ROI auf einer Skala -Simulation
Aus praktischer Sicht ist es für sich selbst eine ziemliche Aufgabe, eine computergestützte Simulation zu entwickeln, die die reale Welt vollst?ndig nachahmt. Das ist oft ein übersehener oder vernachl?ssigter Faktor in diesen heiklen Debatten. Die Menge an Kosten und Anstrengung sowie die Zeit, die erforderlich w?re, um eine solche Simulation zu erstellen, w?re zweifellos enorm.
W?ren die Kosten, um eine echte Simulation zu entwickeln, die Mühe wert sein?
Ein ROI müsste in die Berechnung kommen. Ein Problem ist auch, dass die Gelder, die für den Aufbau der Simulation aufgewendet wurden, m?glicherweise Mittel umleiten würden, die stattdessen zum Aufbau und zur Verbesserung der AGI eingehen k?nnten. Wir k?nnten mit einer halbgebackenen AGI enden, weil wir Tonnen von Teig damit verbracht haben, eine Simulation zum Testen von AGI zu erstellen.
Die andere Seite dieser Münze ist, dass wir unser Geld für AGI ausgegeben haben und die Simulation kurzfristig gemacht haben. Das ist auch nicht sehr gut. Die Simulation w?re ein irreführender Indikator, da sie nur halbgebacken ist.
Die smarmy Antwort lautet, dass wir Agi die Simulation für uns entwickeln sollten. Ja, das stimmt, sagen Sie AGI einfach, dass sie eine Simulation erstellen soll, mit der sich selbst getestet werden kann. Voila, die Kosten und die Anstrengung des Menschen fallen auf nichts. Problem gel?st.
Ich bin sicher, Sie k?nnen sich vorstellen, warum das an sich nicht unbedingt die beste L?sung ist. Zum Beispiel entscheidet sich die AGI bei der Entwicklung der Simulation dafür, sich absichtlich einen einfachen Ausgang aus der Simulation zu geben. Dies kann in der Freizeit der Agi ausgenutzt werden. Oder die AGI produziert eine Simulation, die in die andere Richtung aussieht, wenn Agi B?se macht oder auf andere Weise das in Agi eingebettete B?se maskiert.
Simulationen zur Bewertung der AGI
Das Ergebnis ist, dass es keine kostenlosen Mittagessen gibt, wenn es darum geht, herauszufinden, ob AGI für die Menschheit oder negativ positiv sein wird. Die Entwicklung und Verwendung einer Simulation ist eine würdige überlegung. Wir müssen achtsam und vorsichtig klug sein, wie wir dieses ernüchternde Unterfangen durchführen.
Ein lautstarker KI -Anwalt k?nnte behaupten, dass all diese Gespr?che über Simulationen Hogwash sind. Unsere Aufmerksamkeit sollte voll und ganz darauf gelegt werden, gute Agi zu entwickeln. Legen Sie die Simulationszusagen beiseite. Es ist Zeit und Energieverschwendung. Mach einfach die Dinge richtig, wenn es darum geht, Agi zu formen. Periode, Ende der Geschichte.
Dies erinnert mich an ein berühmtes Zitat von Albert Einstein: "Das einzige, was gef?hrlicher als Unwissenheit ist, ist die Arroganz." Bitte beachten Sie seine Bemerkung fest, w?hrend wir auf der felsigen Stra?e in Richtung Agi und ASI fahren.
Das obige ist der detaillierte Inhalt vonDie Verwendung von szenariogesteuerten Simulationen schützt uns nicht vor AGI und AI-Superintelligence, die schurkend werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Aber wir müssen wahrscheinlich nicht einmal 10 Jahre warten, um einen zu sehen. Was als erste Welle wirklich nützlicher, menschlicher Maschinen angesehen werden k?nnte, ist bereits da. In den letzten Jahren wurden eine Reihe von Prototypen und Produktionsmodellen aus t herausgezogen

Bis zum Vorjahr wurde eine schnelle Engineering als entscheidende F?higkeit zur Interaktion mit gro?artigen Modellen (LLMs) angesehen. In jüngster Zeit sind LLM jedoch in ihren Argumentations- und Verst?ndnisf?higkeiten erheblich fortgeschritten. Natürlich unsere Erwartung

Aufgebaut auf Leia's propriet?rer neuronaler Tiefenmotor verarbeitet die App still Bilder und fügt die natürliche Tiefe zusammen mit simulierten Bewegungen hinzu - wie Pfannen, Zoome und Parallaxeffekte -, um kurze Video -Rollen zu erstellen, die den Eindruck erwecken, in die SCE einzusteigen

Stellen Sie sich vor, dass etwas Geformtes, wie ein KI -Motor, der bereit ist, ein detailliertes Feedback zu einer neuen Kleidungssammlung von Mailand oder automatische Marktanalyse für ein weltweit betriebenes Unternehmen zu geben, oder intelligentes Systeme, das eine gro?e Fahrzeugflotte verwaltet.

Eine neue Studie von Forschern am King's College London und der University of Oxford teilt die Ergebnisse dessen, was passiert ist, als OpenAI, Google und Anthropic in einem Cutthroat -Wettbewerb zusammengeworfen wurden, der auf dem iterierten Dilemma des Gefangenen basiert. Das war nein

Wissenschaftler haben eine clevere, aber alarmierende Methode aufgedeckt, um das System zu umgehen. Juli 2025 markierte die Entdeckung einer aufw?ndigen Strategie, bei der Forscher unsichtbare Anweisungen in ihre akademischen Einreichungen eingefügt haben - diese verdeckten Richtlinien waren Schwanz
