国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Table des matières
Se dirigeant vers AGI et ASI
Risque existentiel se profile
Défis de confinement AGI
Agi devient mal en raison de nos actions
AGI est sage et non réactif
Les humains sont imprudents et sont trompés
ROI sur une simulation à l'échelle
Simulations pour évaluer AGI
Maison Périphériques technologiques IA L'utilisation de simulations axées sur le scénario ne nous protégera pas des AGI et de l'IA Superintelligence devenant voyous

L'utilisation de simulations axées sur le scénario ne nous protégera pas des AGI et de l'IA Superintelligence devenant voyous

Jul 08, 2025 am 11:13 AM

L'utilisation de simulations axées sur le scénario ne nous protégera pas des AGI et de l'IA Superintelligence devenant voyous

Cela semble assez judicieux et une manière intelligente de procéder, mais la question est plus complexe et beaucoup de gatchas et de défis sont confrontés à une telle solution.

Parlons-en.

Cette analyse d'une percée d'IA innovante fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici).

Se dirigeant vers AGI et ASI

Premièrement, certains principes fondamentaux sont tenus de préparer le terrain pour cette discussion lourde.

Il y a beaucoup de recherches en cours pour faire progresser l'IA. L'objectif général est d'atteindre l'intelligence générale artificielle (AGI) ou peut-être même la possibilité tendue de réaliser une superintelligence artificielle (ASI).

AGI est AI qui est considéré comme à égalité avec l'intellect humain et qui peut correspondre apparemment à notre intelligence. L'ASI est une IA qui est allée au-delà de l'intellect humain et serait supérieure à beaucoup sinon toutes les manières possibles. L'idée est que l'ASI serait en mesure de faire des cercles autour des humains en nous éteignant à chaque tournant. Pour plus de détails sur la nature de l'IA conventionnelle contre AGI et ASI, consultez mon analyse sur le lien ici.

Nous n'avons pas encore atteint AGI.

En fait, on ne sait pas si nous atteindrons AGI, ou que peut-être AGI sera réalisable dans des décennies ou peut-être dans des siècles. Les dates de réalisation de l'AGI qui flottent sont très variables et extrêmement non étayées par toute preuve crédible ou logique à ferr. L'ASI est encore plus au-delà du pale en ce qui concerne l'endroit où nous sommes actuellement avec une IA conventionnelle.

Risque existentiel se profile

Concentrons-nous principalement ici sur AGI, car il est plus susceptible de survenir à court terme que l'ASI.

L'avantage d'AGI est qu'il pourrait découvrir un remède contre le cancer et effectuer d'autres actes incroyables qui profitent grandement à l'humanité. Visage heureux. Tout le monde n'est pas si grand pour atteindre AGI. Certains prennent la position alarmante selon laquelle AGI est plus susceptible de décider d'attaquer l'humanité et de nous asservir ou peut-être de nous détruire. Pas bon.

Comment pouvons-nous déterminer à l'avance si AGI sera mauvais?

Une suggestion chaleureuse est que nous devons tester AGI.

L'approche habituelle des tests consisterait à demander à AGI ce qu'il a l'intention de faire et à évaluer les réponses que nous obtenons. Une fa?on plus forte d'effectuer le test serait de configurer une simulation informatique qui informe AGI en supposant qu'il interagit avec le monde réel. Via la simulation, nous pourrions essayer toutes sortes de scénarios pour voir comment AGI réagit. Tout ce qu'Agi fait est entièrement plafonné dans la simulation.

Cela rappelle un peu le film à succès The Matrix (Spoiler Alert: Je vais révéler les facettes de l'intrigue du film, alors sautez ce paragraphe si vous ne voulez pas conna?tre l'intrigue). Dans une tournure intéressante, les humains sont placés dans une vaste simulation informatique par des machines externes réelles qui veulent garder les humains conformes. Nous pouvons faire de même avec Agi en herbe. Il suffit de concevoir une simulation informatique impressionnante du monde réel et de demander à l'AGI de l'interagir sans réaliser où elle est vraiment.

Une raison de snooker l'AGI est que si nous disons carrément à AGI qu'il fonctionne à l'intérieur d'une simulation, l'AGI est sans aucun doute assez intelligent pour faire semblant d'être bon, même s'il est vraiment mauvais. N'oubliez pas que l'AGI est censé être aussi astucieux que les humains. L'idée est de tromper AGI pour ne pas se rendre compte que c'est dans une simulation et qu'elle est testée en conséquence.

Défis de confinement AGI

Dans le langage du développement de logiciels d'IA, l'établissement d'un environnement de test pour essayer l'IA est généralement connu sous le nom de sable d'IA. Un bac à sable AI peut être des ?illets nus et être simplement rien de plus qu'une sphère de confinement inerte, visant à empêcher l'IA d'aller au-delà des murs virtuels de l'environnement de configuration. Les développeurs et les testeurs peuvent tester largement l'IA pendant qu'il est en bac à sable.

Un bac à sable AI peut être de plus en plus amplifié en lui faisant modéliser un environnement particulier pour que l'IA existe à l'intérieur. Un bac à sable AI à part entière peut refléter une vaste étendue qui interagit ensuite avec l'IA. Ainsi, non seulement les développeurs et les testeurs humains interagissent avec l'IA, mais le confinement lui-même interagit également avec l'IA. Un bac à sable actif robuste est souvent appelé un monde simulé.

Pour ma couverture approfondie des tentatives de placer l'IA dans des confinement, consultez le lien ici.

Supposons que nous fabriquons un monde simulé élaboré. Nous pla?ons tranquillement Agi dans ce faux monde. Cela devrait être relativement facile à réaliser, car AGI fonctionne également sur des ordinateurs. L'ensemble du kit-et-kaboodle implique à la fois l'AGI fonctionnant sur des serveurs et le monde simulé fonctionnant sur des serveurs.

Très facile.

Après avoir été à l'intérieur du monde simulé pendant une certaine période, nous surveillons entre-temps comment AGI se produit et regarde attentivement pour détecter tous les signes de méchanceté.

Combien de temps ce test devrait-il avoir lieu?

C'est un appel difficile. Certains pourraient affirmer que si AGI est exempt de signes pervers pendant quelques jours, semaines ou mois, nous devons nous sentir à l'aise de donner à AGI le feu vert pour accéder au monde réel. D'autres disent que si vous accélérez l'horloge sur la simulation, vous pourriez faire tout l'exercice en quelques secondes depuis que l'AGI interagit peut-être des milliards de fois via la rapidité des ordinateurs impliqués.

Mais un grand scrupule est que peut-être que la durée que vous avez choisie est insuffisante pour que l'AGI puisse agir. Peut-être que nous devons garder AGI contenu pendant des années, peut-être des décennies. De plus, nous ne devrions peut-être jamais laisser AGI se libérer avec l'accès au monde réel. La logique est que nous pourrions avoir AGI trouver des remèdes contre le cancer tout en étant complètement immergé dans la simulation, donc pas besoin de libérer AGI au-delà de ce domaine contenu.

Un contrepoint au confinement permanent de l'AGI est que l'AGI pourrait ne pas produire les merveilles prévues en raison de la confusion dans un faux environnement. Peut-être qu'un remède contre le cancer n'a pu être trouvé par AGI que si l'AGI interagissait dans le monde réel. En gardant AGI dans la simulation, vous supprimez les avantages vitaux que AGI peut fournir à l'humanité.

Une autre préoccupation a déclaré que l'AGI pourrait comprendre qu'elle est testée dans une simulation. Peut-être qu'Agi n'aime pas cette approche. Cela pourrait s'en prendre, mais nous ne serions pas inquiets car il se limite de toute fa?on à la simulation. La fa?on plus sournoise pour Agi de faire les choses serait de faire semblant d'être bon, attendant le temps de son soi-disant emprisonnement. Une fois que nous avons choisi de rendre AGI réel accessible, BAM, il nous est fou.

Agi devient mal en raison de nos actions

Une pensée est que si Agi est mauvais, il pourrait être suffisamment astucieux pour cacher la méchanceté tout en étant maintenue à l'intérieur de la simulation. Si nous demandons à AGI s'il est sournois, il dira probablement que ce n'est pas le cas. Tout ce que nous observions, c'est que AGI travaille en bénéfice à l'intérieur de la simulation. à un moment donné, nous décidons na?vement de rendre AGI à la disposition du monde réel et il continue à accomplir des actes mauvais.

Nous avons été trompés par le mal Agi.

Une torsion qui, selon certains, est possible, ajoute une autre dimension intrigante à la question difficile à accomplir. Voici comment se passe la torsion.

Imaginez que AGI vise vraiment la bonté. Nous mettons l'AGI dans un monde simulé, mais nous ne disons pas à l'AGI qu'elle est à l'intérieur de cet environnement truqué. Jusqu'ici, tout va bien. à un moment donné, il est possible que AGI comprenne qu'il est immergé dans une simulation.

Comment l'AGI réagira-t-il?

Une possibilité est qu'Agi est totalement contrarié que nous ayons fait cette forme de ruse.

L'Agi commence à se tourner vers la méchanceté. Pourquoi alors? Parce qu'il a été trompé par les humains. Les humains n'ont pas été justes et carrés avec AGI. L'AGI décide par calcul que si les humains veulent jouer à des jeux et des astuces, tant pis. Agi sera aussi difficile.

C'est l'acte classique des humains de se tromper et de découvrir (FOMO) les conséquences de nos actions. Si vous jouez avec le feu, vous serez br?lé. Vous voyez, les humains ont démontré ouvertement à Agi qu'il est normal d'être sournois. L'AGI apprend sur le plan informatique de ce fait et commence à fonctionner de manière similaire.

Les humains ont tiré sur nos propres pieds collectifs.

AGI est sage et non réactif

Whoa, tenez vos chevaux. Si AGI est aussi intelligent que les humains, nous devons supposer que AGI comprendra la nécessité d'être placée dans une simulation. Nous devons être franc et dire à AGI que nous faisons un test. AGI comprendrait par calcul la nécessité de faire entreprendre cette question. Ainsi, ne faites aucun subterfuge. Agi ira volontiers avec le flux.

Soyez juste droit avec Agi.

Cette approche nous ramène à la préoccupation qu'Agi prétend être en bonne conduite. Nous avons cédé qu'il est testé. Si Agi a de la méchanceté, l'AGI le cachera certainement, maintenant qu'Agi se rend compte que nous recherchons particulièrement de tels traits.

Ce n'est pas le cas, la réplique de la couture. Agi voudrait peut-être également vérifier s'il a de mauvaises tendances. Lorsque tout le mal survient, il y a de fortes chances qu'Agi nous en parle. L'AGI va travailler en notre nom pour dénigrer les problèmes au sein d'AGI. Les humains et AGI sont des partenaires pour essayer de s'assurer que AGI est bon et non mauvais.

Ceux qui sous-estiment la capacité intellectuelle d'AGI rendent un mauvais service à AGI. Heureusement, Agi est si intelligent qu'il ne se met pas en colère ou ne se fache pas avec les humains pour avoir fait une telle erreur. L'AGI montrera que le fait d'être placé dans une simulation est un moyen s?r pour tous de déterminer ce que AGI pourrait faire dans le monde réel.

Vous pourriez même suggérer qu'Agi veut avidement être placé dans une simulation. Il le fait car cela mettra le réconfort à l'humanité. Il le fait également pour essayer de revérifier en lui-même pour s'assurer que rien de facheux ne s'attarde et attend de nuire.

Les humains sont imprudents et sont trompés

Ces arguments épineux tournent en rond.

Imagez que nous mettons AGI dans une simulation. Nous pensons que nous sommes tous en sécurité car AGI est limité à la simulation. Oopsie, Agi trouve comment sortir de la simulation. Il commence alors à accéder au monde réel. La méchanceté est décha?née et AGI exploite nos systèmes d'armes autonomes et autres vulnérabilités. Ceci est le scénario redouté d'une évadé Agi.

Boom, déposez le micro.

Voici un autre bend d'esprit.

AGI est placé dans un monde simulé. Nous testons le diable de l'AGI. Agi est d'accord avec ?a. Les humains et AGI sont apparemment entièrement alignés sur nos valeurs et ce que fait AGI. Kumbaya.

Nous retirons ensuite AGI de la simulation. Agi a accès au monde réel. Mais le monde réel se révèle différer de la simulation. Bien que la simulation soit censée être aussi proche que possible de la réalité du monde réel, il a raté la marque.

Agi commence maintenant à faire mal. Il est confronté à des aspects qui n'ont jamais été testés. Le processus de test nous a donné un faux sentiment de confort ou de confiance. Nous avons été bercés pour croire que AGI fonctionnerait bien dans le monde réel. La simulation était insuffisante pour nous donner cette confiance, mais nous avons supposé que tout était parfaitement bien.

ROI sur une simulation à l'échelle

D'un point de vue pratique, concevoir une simulation informatique qui imite pleinement le monde réel est une quête en soi. C'est souvent un facteur négligé ou négligé dans ces débats épineux. Le montant des co?ts et des efforts, ainsi que le temps qui serait nécessaire pour créer une telle simulation serait sans aucun doute énorme.

Le co?t de concevoir une simulation de bonne foi en vaut-il la peine?

Un ROI devrait entrer dans le calcul. L'une des préoccupations est également que les fonds dépensés pour construire la simulation détourneraient potentiellement des fonds qui pourraient plut?t se rendre à la construction et à l'amélioration de l'AGI. Nous pourrions nous retrouver avec un AGI à moitié cuit parce que nous avons passé des tonnes de pate à faire une simulation pour tester AGI.

L'autre c?té de cette médaille est que nous avons dépensé notre argent sur AGI et que nous avons fait un travail à décrochage pour concevoir la simulation. Ce n'est pas très bien non plus. La simulation serait un indicateur trompeur car il n'est à moitié cuit.

La réponse smarmy est que nous devrions avoir AGI concevoir la simulation pour nous. Oui, c'est vrai, dites simplement à AGI de créer une simulation qui peut être utilisée pour se tester. Le tour est joué, le co?t et les efforts des humains tombent à rien. Problème résolu.

Je suis s?r que vous pouvez deviner pourquoi ce n'est pas nécessairement la meilleure solution en soi. Par exemple, AGI dans la conception de la simulation choisit de se donner délibérément une sortie facile de la simulation. Cela peut être exploité à la durée de l'AGI. Ou l'AGI produit une simulation qui ressemblera dans l'autre sens lorsque AGI fait de la méchanceté ou masque autrement le mal ancré dans AGI.

Simulations pour évaluer AGI

Le résultat est qu'il n'y a pas de déjeuners gratuits lorsqu'il s'agit de déterminer si AGI va être positif pour l'humanité ou le négatif. Développer et utiliser une simulation est une considération digne. Nous devons être attentifs et prudemment intelligents dans la fa?on dont nous entreprenons cette entreprise qui donne à réfléchir.

Un défenseur de l'IA bruyant pourrait affirmer que tous ces discours sur les simulations sont du laveur. Notre attention devrait être pleinement sur la conception du bon AGI. Mettez de c?té les aspirations de simulation. C'est une perte de temps et d'énergie. Faites juste les choses correctement quand il s'agit de fa?onner AGI. Période, fin de l'histoire.

Cela me rappelle une citation célèbre d'Albert Einstein: ?La seule chose plus dangereuse que l'ignorance est l'arrogance.? Veuillez garder sa remarque fermement à l'esprit alors que nous allons sur la route rocheuse en direction d'Agi et d'Asi.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel PHP
1502
276
Kimi K2: le modèle agentique open source le plus puissant Kimi K2: le modèle agentique open source le plus puissant Jul 12, 2025 am 09:16 AM

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Grok 4 vs Claude 4: Quel est le meilleur? Grok 4 vs Claude 4: Quel est le meilleur? Jul 12, 2025 am 09:37 AM

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui 10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui Jul 16, 2025 am 11:12 AM

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide Jul 12, 2025 am 09:33 AM

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours Jul 09, 2025 am 11:17 AM

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Quels sont les 7 types d'agents d'IA? Quels sont les 7 types d'agents d'IA? Jul 11, 2025 am 11:08 AM

Imaginez quelque chose de sophistiqué, comme un moteur d'IA prêt à donner des commentaires détaillés sur une nouvelle collection de vêtements de Milan, ou une analyse de marché automatique pour une entreprise opérant dans le monde entier, ou des systèmes intelligents gérant une grande flotte de véhicules.

Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Jul 09, 2025 am 11:16 AM

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

Crise de commandement dissimulé: les chercheurs jeu aiment être publiés Crise de commandement dissimulé: les chercheurs jeu aiment être publiés Jul 13, 2025 am 11:08 AM

Les scientifiques ont découvert une méthode intelligente mais alarmante pour contourner le système. Juillet 2025 a marqué la découverte d'une stratégie élaborée où les chercheurs ont inséré des instructions invisibles dans leurs soumissions académiques - ces directives secrètes étaient la queue

See all articles