Il y a eu de nombreuses discussions sur la manière dont l'IA accélérera l'évolution des plates-formes cloud et permettra une nouvelle génération d'outils basés sur l'IA pour gérer les environnements cloud. Mais l’IA pourrait bouleverser un autre aspect du cloud : la mise en réseau. À mesure que de plus en plus de charges de travail d’IA migrent vers le cloud, la capacité à fournir de meilleures solutions de mise en réseau cloud deviendra une priorité clé. Voici pourquoi et à quoi pourrait ressembler l’avenir des réseaux cloud à l’ère de l’intelligence artificielle.
La raison pour laquelle l'IA imposera de nouvelles exigences aux réseaux cloud est simple : pour bien fonctionner à grande échelle, les charges de travail de l'IA nécessiteront des niveaux de performances sans précédent de la part des réseaux cloud.
Dans de nombreux cas, les données auxquelles les charges de travail d'IA doivent accéder résideront sur des serveurs distants situés sur la même plate-forme cloud que la charge de travail, ou dans un cloud différent.
Les réseaux cloud fourniront des liens critiques reliant les charges de travail et les données de l'IA. Dans de nombreux cas, la quantité de données sera énorme, donc la formation d’un modèle d’IA simple peut également nécessiter une grande quantité d’informations, tandis que le modèle doit accéder aux données avec une faible latence. Les réseaux devront donc pouvoir prendre en charge des bandes passantes très élevées à des niveaux de performances très élevés.
L'IA est non seulement capable de fournir une puissance de connexion réseau stable, mais ce n'est pas la seule charge de travail cloud qui nécessite d'excellentes performances réseau. La capacité à fournir des réseaux à faible latence et à large bande passante est depuis longtemps importante pour des cas d'utilisation tels que les ordinateurs de bureau dans le cloud et le streaming vidéo.
Les fournisseurs de services cloud proposent également des solutions à long terme pour répondre à ces besoins de performances réseau. Tous les principaux cloud offrent des services réseau de « connexion directe » qui peuvent améliorer considérablement la vitesse et la fiabilité du réseau, en particulier lors du déplacement de données entre cloud dans une architecture multi-cloud, ou dans le cadre d'un modèle de cloud hybride entre des centres de données privés et publics. des nuages.
Cependant, pour les charges de travail d'IA ayant des besoins de performances réseau vraiment particuliers, la connexion directe au service peut ne pas suffire. Les charges de travail peuvent également nécessiter une optimisation au niveau matériel sous la forme de solutions telles que des unités de traitement de données (DPU), qui permettent de gérer le trafic réseau de manière ultra-efficace. En fait, des fournisseurs comme Google investissent déjà dans ce domaine en lançant une plateforme cloud adaptée à l’IA générative. Cela montre qu'une entreprise connue principalement pour vendre des cartes vidéo reconnaît également que libérer tout le potentiel de l'intelligence artificielle nécessite également de l'innovation dans le matériel réseau.
Actuellement, il reste à voir comment les fournisseurs de cloud, les vendeurs de matériel et les développeurs d'intelligence artificielle répondront aux défis particuliers que l'intelligence artificielle apporte au domaine des réseaux cloud. En général, cependant, nous pouvons constater les changements suivants :
Utilisation accrue de la connexion directe : Dans le passé, les services de connexion directe au cloud avaient tendance à être utilisés uniquement par les grandes entreprises ayant des architectures cloud complexes et des besoins de haute performance. Mais parmi les petites organisations qui cherchent à tirer pleinement parti des flux de travail d’IA basés sur le cloud, les connexions directes pourraient devenir plus courantes.
Coûts de sortie plus élevés : Étant donné que les fournisseurs de cloud facturent généralement des frais de « sortie » lorsque les données quittent le réseau, les charges de travail d'IA exécutées dans le cloud peuvent augmenter les frais de réseau que les entreprises paient pour la sortie. À l’avenir, la capacité de prédire et de gérer les frais de sortie déclenchés par les charges de travail d’IA constituera un élément important de l’optimisation des coûts du cloud.
Fluctuations de la consommation réseau : Certaines charges de travail d'IA consommeront beaucoup de ressources réseau cloud, mais seulement temporairement. Par exemple, ils peuvent avoir besoin de déplacer de grandes quantités de données pendant la formation, mais de réduire l'utilisation du réseau une fois la formation terminée. Cela signifie que la capacité à s'adapter aux grandes fluctuations de la consommation du réseau peut devenir un autre élément important de la gestion des performances du réseau cloud.
Si vous souhaitez tirer pleinement parti du cloud pour vous aider à supporter les charges de travail d'intelligence artificielle, vous devez optimiser votre stratégie de réseau cloud, ce qui nécessite de tirer parti des services et du matériel réseau avancés, tout en ajustant l'optimisation des coûts et les performances du réseau. stratégies de gestion.
Actuellement, les solutions disponibles pour aider à atteindre ces objectifs continuent d'évoluer, mais pour toute entreprise cherchant à déployer des charges de travail d'IA dans le cloud, il s'agit d'un espace à surveiller de près.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!