


Trois défis majeurs de l'IA générative pour l'exploitation et la maintenance du cloud
Auteur | David Linthicum
Planification | Yan Zheng
De nos jours, personne ne doute de la puissance de l'IA, mais les entreprises doivent être conscientes qu'elle peut également conduire au déploiement d'un trop grand nombre d'applications, à des problèmes de mise à l'échelle et à des dépassements de coûts.
Depuis que j'ai de l'expérience dans le développement et l'intégration de l'IA avec des architectures d'entreprise et cloud, je connais les avantages de l'IA générative. Cependant, je sais aussi que s’il y a de nombreux avantages, il y a aussi des inconvénients qu’il faut considérer simultanément. L’IA générative se développant si rapidement, il est important de décider comment la gérer efficacement et réduire tout impact négatif.
Je propose trois inconvénients majeurs de l'IA générative que les professionnels du cloud computing doivent comprendre et gérer.
1. Trop de déploiements d'applications cloud
C'est le plus gros problème que je vois. Désormais, grâce aux mécanismes no-code ou low-code, nous pouvons créer des applications plus rapidement à l’aide d’outils de développement générés par l’IA. Le nombre d’applications déployées (qui doivent toutes être gérées) peut facilement devenir incontrôlable.
Bien sûr, il est bon d’accélérer le déploiement des applications pour répondre aux besoins de l’entreprise. Le retard dans les applications limitait la croissance de l'entreprise dans les années 90 et au début des années 2000, donc toute façon de l'améliorer est bonne pour les affaires, n'est-ce pas ?
Cependant, je constate une approche presque imprudente du développement d'applications. Le travail requis pour créer et déployer ces systèmes ne prend que quelques jours, voire quelques heures. Les entreprises ne réfléchissent pas beaucoup au rôle global des applications, et de nombreuses applications sont spécialement conçues pour répondre à des besoins tactiques et sont souvent redondantes. Les équipes CloudOps tentent de gérer trois à cinq fois plus d'applications et de bases de données connectées qu'elles le devraient. Ce gâchis ne pourra pas prendre une ampleur considérable et le coût est trop élevé.
2. Problème d'évolutivité
Les systèmes d'intelligence artificielle générative nécessitent plus de ressources de calcul et de stockage que celles actuellement disponibles. Pour atteindre une plus grande échelle, il faut exploiter ces ressources et n'est pas aussi simple que d'activer davantage de services de stockage et de calcul.
Afin d'étendre rapidement l'utilisation des systèmes d'IA générative, une réflexion et une planification doivent être prises pour obtenir et déployer des ressources supplémentaires. Cela dépend généralement de la capacité de l'équipe opérationnelle à déployer correctement la bonne quantité de ressources sans compromettre la valeur du système ni limiter ses capacités. Les compromis ici sont presque infinis.
3. Dépensez de l'argent comme de l'eau et dépensez trop
Nous pouvons remarquer que pendant que nous sommes occupés à créer des systèmes d'exploitation financiers pour surveiller et gérer les coûts du cloud, le coût de génération des systèmes d'IA a considérablement augmenté. Que devez-vous faire ?
En fait, il s’agit d’un problème commercial, pas d’un problème technique. Les entreprises doivent comprendre pourquoi et comment elles investissent dans le cloud, ainsi que le retour sur investissement qu’elles en retirent. Les coûts peuvent alors être inclus dans le budget prédéfini.
C'est un point chaud pour les entreprises qui ont des limites sur les dépenses cloud. Souvent, les développeurs métier souhaitent exploiter les systèmes d’IA générative pour des raisons commerciales légitimes. Cependant, comme indiqué précédemment, leur prix est élevé et les entreprises doivent donc trouver du financement, une motivation commerciale, ou les deux.
Souvent, bien que l'intelligence artificielle générative soit la technologie utilisée aujourd'hui par les soi-disant « enfants cool », elle n'est généralement pas rentable. L’IA générative est parfois utilisée pour des tâches tactiques simples comparables aux méthodes de développement plus traditionnelles. La surutilisation de l’IA est un problème persistant depuis sa création ; la réalité est que la technologie ne s’applique qu’à certains problèmes commerciaux. Mais c’est populaire, médiatisé et donc galvaudé.
Ces questions illustrent la nécessité d’acquérir plus d’expérience à mesure que cette technologie évolue. Cependant, cela pourrait avoir un impact négatif sur les opérations cloud, comme ce fut le cas lorsque le cloud a décollé pour la première fois.
Lien original : https://www.php.cn/link/a26475af783877529bf81eed81743d71
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La commande de fermeture CENTOS est arrêtée et la syntaxe est la fermeture de [options] le temps [informations]. Les options incluent: -H Arrêtez immédiatement le système; -P éteignez l'alimentation après l'arrêt; -r redémarrer; -t temps d'attente. Les temps peuvent être spécifiés comme immédiats (maintenant), minutes (minutes) ou une heure spécifique (HH: mm). Des informations supplémentaires peuvent être affichées dans les messages système.

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Guide complet pour vérifier la configuration HDFS dans les systèmes CentOS Cet article vous guidera comment vérifier efficacement la configuration et l'état de l'exécution des HDF sur les systèmes CentOS. Les étapes suivantes vous aideront à bien comprendre la configuration et le fonctionnement des HDF. Vérifiez la variable d'environnement Hadoop: Tout d'abord, assurez-vous que la variable d'environnement Hadoop est correctement définie. Dans le terminal, exécutez la commande suivante pour vérifier que Hadoop est installé et configuré correctement: HadoopVersion Check HDFS Fichier de configuration: Le fichier de configuration de base de HDFS est situé dans le répertoire / etc / hadoop / conf / le répertoire, où Core-site.xml et hdfs-site.xml sont cruciaux. utiliser

Activer l'accélération du GPU Pytorch sur le système CentOS nécessite l'installation de versions CUDA, CUDNN et GPU de Pytorch. Les étapes suivantes vous guideront tout au long du processus: CUDA et CUDNN Installation détermineront la compatibilité de la version CUDA: utilisez la commande NVIDIA-SMI pour afficher la version CUDA prise en charge par votre carte graphique NVIDIA. Par exemple, votre carte graphique MX450 peut prendre en charge CUDA11.1 ou plus. Téléchargez et installez Cudatoolkit: visitez le site officiel de Nvidiacudatoolkit et téléchargez et installez la version correspondante selon la version CUDA la plus élevée prise en charge par votre carte graphique. Installez la bibliothèque CUDNN:

L'installation de MySQL sur CENTOS implique les étapes suivantes: Ajout de la source MySQL YUM appropriée. Exécutez la commande YUM Install MySQL-Server pour installer le serveur MySQL. Utilisez la commande mysql_secure_installation pour créer des paramètres de sécurité, tels que la définition du mot de passe de l'utilisateur racine. Personnalisez le fichier de configuration MySQL selon les besoins. Écoutez les paramètres MySQL et optimisez les bases de données pour les performances.

Docker utilise les fonctionnalités du noyau Linux pour fournir un environnement de fonctionnement d'application efficace et isolé. Son principe de travail est le suivant: 1. Le miroir est utilisé comme modèle en lecture seule, qui contient tout ce dont vous avez besoin pour exécuter l'application; 2. Le Système de fichiers Union (UnionFS) empile plusieurs systèmes de fichiers, ne stockant que les différences, l'économie d'espace et l'accélération; 3. Le démon gère les miroirs et les conteneurs, et le client les utilise pour l'interaction; 4. Les espaces de noms et les CGROUP implémentent l'isolement des conteneurs et les limitations de ressources; 5. Modes de réseau multiples prennent en charge l'interconnexion du conteneur. Ce n'est qu'en comprenant ces concepts principaux que vous pouvez mieux utiliser Docker.

La commande pour redémarrer le service SSH est: SystemCTL Redémarrer SSHD. Étapes détaillées: 1. Accédez au terminal et connectez-vous au serveur; 2. Entrez la commande: SystemCTL Restart SSHD; 3. Vérifiez l'état du service: SystemCTL Status Sshd.

La formation distribuée par Pytorch sur le système CentOS nécessite les étapes suivantes: Installation de Pytorch: La prémisse est que Python et PIP sont installés dans le système CentOS. Selon votre version CUDA, obtenez la commande d'installation appropriée sur le site officiel de Pytorch. Pour la formation du processeur uniquement, vous pouvez utiliser la commande suivante: pipinstalltorchtorchVisionTorChaudio Si vous avez besoin d'une prise en charge du GPU, assurez-vous que la version correspondante de CUDA et CUDNN est installée et utilise la version Pytorch correspondante pour l'installation. Configuration de l'environnement distribué: la formation distribuée nécessite généralement plusieurs machines ou des GPU multiples uniques. Lieu
