国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Maison Périphériques technologiques IA AMD accélère les centres de données d'IA avec instinct et Helios

AMD accélère les centres de données d'IA avec instinct et Helios

Jun 13, 2025 am 11:24 AM

Divulgation: mon entreprise, Tirias Research, a consulté AMD et d'autres sociétés mentionnées dans cet article.

AMD accélère les centres de données d'IA avec instinct et Helios

Les derniers ajouts à la famille Instinct sont le MI350 et le MI355X. Suite à un calendrier de version annuel similaire à son principal concurrent dans l'espace d'IA, AMD continue de livrer de nouveaux accélérateurs d'IA de serveur sur une base annuelle. Les MI350 et MI355X sont basés sur la nouvelle architecture d'ADNc 4. Le MI350 utilise un refroidissement passif avec des dissipateurs de chaleur et des ventilateurs, tandis que le MI355X utilise un refroidissement liquide via une technologie directe sur puce. Ce passage au refroidissement liquide apporte deux avantages majeurs: il augmente la puissance totale de la carte (TBP) de 1000 W à 1400 W et augmente la densité du rack de 64 GPU par rack à 128 GPU par rack.

AMD affirme que la série MI350 offre une augmentation des performances 3x dans la formation et l'inférence de l'IA par rapport à la génération MI300 antérieure, fournissant des résultats compétitifs qui correspondent ou dépassent les concurrents sur certains modèles et charges de travail d'IA. (Tirias Research ne publie pas les données de référence comparatives à moins de valider indépendamment).

En termes de conception, la série MI350 conserve une structure similaire à la génération MI300, en utilisant une liaison hybride 3D pour empiler une matrice de tissu à l'infini, deux matrices d'E / S et huit matrices de calcul sur un interposeur en silicium. Les mises à niveau clés comprennent l'adoption de l'architecture de calcul ADNc 4, l'intégration de la dernière mémoire HBM3E et les améliorations de l'architecture d'E / S qui réduisent le nombre d'E / S de quatre à deux. Ces composants sont construits sur les processus de fabrication N3 et N6 de TSMC, entra?nant une amélioration de l'efficacité des performances à travers la puce tout en gardant la taille physique compacte.

AMD accélère les centres de données d'IA avec instinct et Helios

Le deuxième ensemble de clés d'annonces se concentre sur ROCM, la plate-forme de développement de logiciels GPU open-source d'AMD. Avec le lancement de ROCM 7, la plate-forme a considérablement m?ri. L'une des mises à jour les plus notables est la prise en charge de Pytorch native sur Windows pour les PC basés sur AMD, ce qui est un avantage majeur pour les développeurs et rend ROCM entièrement portable sur toutes les plateformes AMD. ROCM prend désormais en charge tous les principaux cadres et modèles d'IA, y compris 1,8 million de modèles disponibles sur les calins. Par rapport à ROCM 6, ROCM 7 offre une moyenne de performances d'entra?nement en moyenne 3 fois plus rapides et 3,5 fois de meilleures vitesses d'inférence sur les modèles de premier plan de l'industrie. Parallèlement à ces améliorations de logiciels, AMD étend son engagement avec les développeurs grace à des initiatives comme une piste de développeur dédiée lors de l'événement AI avancé et à l'accès au nouveau Cloud AMD Developer Cloud via GitHub.

AMD accélère les centres de données d'IA avec instinct et Helios

La troisième annonce majeure a été la prochaine architecture du système de niveau du rack, Helios, prévue pour la sortie en 2026. Comme d'autres leaders de l'industrie, AMD s'oriente vers le traitement entier comme la plate-forme informatique principale plut?t que de simples plateaux de serveur individuels. Helios sera alimenté par les dernières technologies AMD pour le traitement, l'IA et le réseautage. Il présentera le CPU ZEN 6 EPYC, l'accélérateur GPU Instinct Mi400 basé sur l'ADNc de nouvelle génération, et la Pensando Vulcano Ai Nic pour le réseautage à grande échelle. Pour la connectivité GPU du rack interne, Helios implémentera Ualink. La norme UALINK 1.0 a été publiée en avril, avec la disponibilité de l'IP de Marvell et Synopsys, et des puces de commutation attendues de fournisseurs tels que Astera Labs et Cisco, qui sont également des partenaires UALINK.

AMD a été rejoint à l'avancement de l'IA par une solide gamme de partenaires et de clients, notamment Astera Labs, Cohere, Humain, Meta, Marvell, Microsoft, Openai, Oracle, Red Hat et Xai. Humain a été particulièrement intéressant, en raison de sa coentreprise avec AMD et d'autres sociétés de semi-conducteurs pour développer des infrastructures d'IA en Arabie saoudite. L'humain a déjà commencé à construire onze centres de données et prévoit de déployer des modules de 50 MW par trimestre. Une partie fondamentale de la stratégie de l'humain consiste à utiliser les abondants ressources énergétiques et les jeunes effectifs de l'Arabie saoudite.

Il y a beaucoup plus à déballer en ce qui concerne ces annonces et les nombreuses collaborations de partenariat détaillées, mais ces trois mettent en évidence l'engagement continu d'AMD à rester compétitif sur le marché de l'IA du centre de données, en présentant une exécution solide et en renfor?ant sa position en tant que fournisseur alternatif crédible d'accélérateurs GPU du centre de données et de plateformes AI. Alors que le secteur technologique se précipite pour répondre aux demandes croissantes de l'IA, AMD continue d'affiner ses solutions de serveur pour mieux servir les développeurs et les applications d'IA. Bien qu'il ne dépasse pas la compétition, AMD comble l'écart dans plusieurs domaines, se positionnant comme l'alternative la plus forte à Nvidia.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel PHP
1502
276
Kimi K2: le modèle agentique open source le plus puissant Kimi K2: le modèle agentique open source le plus puissant Jul 12, 2025 am 09:16 AM

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Grok 4 vs Claude 4: Quel est le meilleur? Grok 4 vs Claude 4: Quel est le meilleur? Jul 12, 2025 am 09:37 AM

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui 10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui Jul 16, 2025 am 11:12 AM

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide Jul 12, 2025 am 09:33 AM

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours Jul 09, 2025 am 11:17 AM

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Quels sont les 7 types d'agents d'IA? Quels sont les 7 types d'agents d'IA? Jul 11, 2025 am 11:08 AM

Imaginez quelque chose de sophistiqué, comme un moteur d'IA prêt à donner des commentaires détaillés sur une nouvelle collection de vêtements de Milan, ou une analyse de marché automatique pour une entreprise opérant dans le monde entier, ou des systèmes intelligents gérant une grande flotte de véhicules.

Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Jul 09, 2025 am 11:16 AM

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

Crise de commandement dissimulé: les chercheurs jeu aiment être publiés Crise de commandement dissimulé: les chercheurs jeu aiment être publiés Jul 13, 2025 am 11:08 AM

Les scientifiques ont découvert une méthode intelligente mais alarmante pour contourner le système. Juillet 2025 a marqué la découverte d'une stratégie élaborée où les chercheurs ont inséré des instructions invisibles dans leurs soumissions académiques - ces directives secrètes étaient la queue

See all articles