Au cours des dernières années, la nécessité pour les entreprises de créer rapidement de nouveaux modèles commerciaux et canaux de marketing a accéléré l'adoption de l'intelligence artificielle. Cela est particulièrement vrai dans le domaine de la santé, où l’analyse des données a accéléré le développement de vaccins contre la COVID-19. Dans le domaine des biens de consommation emballés, la Harvard Business Review a rapporté que Frito-Lay avait créé une plateforme de commerce électronique, Snacks.com, en seulement 30 jours.
La pandémie a également accéléré l'adoption de l'intelligence artificielle dans l'éducation, les écoles ayant été contraintes de permettre l'apprentissage en ligne du jour au lendemain. Chaque fois que cela sera possible, le monde passera aux transactions « sans contact », révolutionnant ainsi le secteur bancaire.
Trois développements technologiques pendant la pandémie de COVID-19 ont accéléré l'adoption de l'intelligence artificielle :
Voici les avantages et les inconvénients de ces développements pour les responsables informatiques.
Même 60 ans après la loi de Moore, la puissance de calcul continue de s'améliorer, avec des machines plus puissantes et davantage grâce à de nouvelles puces d'entreprises comme les capacités de traitement de NVidia. AIImpacts rapporte qu'« au cours des 25 dernières années, la puissance de calcul disponible par dollar a probablement été multipliée par dix (mesurée en FLOPS ou MIPS) environ tous les quatre ans ». Cependant, au cours des 6 à 8 dernières années, ce taux a ralenti.
L'informatique bon marché offre aux responsables informatiques plus d'options, leur permettant de faire plus avec moins.
Envisagez le Big Data. Avec une informatique bon marché, les professionnels de l’informatique veulent exploiter sa puissance. Les gens veulent commencer à ingérer et analyser toutes les données disponibles pour obtenir de meilleures informations, analyses et décisions.
Mais si vous ne faites pas attention, vous pouvez vous retrouver avec une énorme quantité de puissance de calcul et pas assez pour de vraies applications professionnelles.
À mesure que les coûts de réseau, de stockage et de calcul diminuent, les humains ont tendance à les utiliser davantage. Mais ils n’apportent pas nécessairement de valeur commerciale à tout.
Avant la pandémie de COVID-19, les termes « entrepôt de données » et « lac de données » étaient standards. Mais les nouvelles architectures de données telles que les « structures de données » et les « grilles de données » sont quasiment inexistantes. DataFabric soutient l'adoption de l'IA car elle permet aux entreprises d'utiliser les données pour maximiser leur chaîne de valeur en automatisant la découverte, la gouvernance et la consommation des données. Quel que soit l’endroit où résident les données, les entreprises peuvent fournir les bonnes données au bon moment.
Cela offre l'opportunité d'inverser la tendance vers des référentiels de données centralisés ou des lacs de données. Cela pourrait signifier davantage d’informatique de pointe et de données disponibles là où elles sont les plus pertinentes. Ces progrès permettent d’utiliser automatiquement les données appropriées pour la prise de décision, ce qui est essentiel pour que l’IA soit exploitable.
Les responsables informatiques doivent comprendre les aspects commerciaux et IA des nouvelles architectures de données. S’ils ne savent pas ce dont chaque partie de l’entreprise a besoin (y compris le type de données et où et comment elles seront utilisées), ils ne seront peut-être pas en mesure de créer le bon type d’architecture de données et de consommation de données pour obtenir le bon support. La compréhension par le service informatique des exigences métier et du modèle économique qui accompagne cette architecture de données est essentielle.
Les recherches de Statista mettent en évidence la croissance des données : en 2020, la quantité totale de données créées, capturées, copiées et utilisées dans le monde était de 64,2 zettaoctets et devrait atteindre 180 zettaoctets d'ici 2025 octets ou plus. Un rapport de recherche de Statista de mai 2022 indiquait que « la croissance est plus élevée que prévu en raison de l'augmentation de la demande due à la nouvelle épidémie de couronne ». Les sources de Big Data comprennent les médias, le cloud computing, l'Internet des objets, les réseaux et les bases de données.
Chaque décision et transaction peut être retracée jusqu'à la source de données. Les responsables informatiques sont plus autonomes s'ils peuvent utiliser AIOps/MLOps pour se concentrer sur les sources de données à des fins d'analyse et de prise de décision. Les bonnes données peuvent fournir une analyse commerciale instantanée et fournir des informations approfondies pour l'analyse prédictive.
Entourés de données issues de l'IoT, de l'edge computing, formatées et non formatées, intelligentes et inintelligibles, les responsables informatiques sont confrontés à la règle des 80/20 : 20 % de la confiance qui génère 80 % de la valeur commerciale. Quelles sont les données source? Comment utilisez-vous les opérations d’IA/ML pour déterminer les sources de données fiables et quelles sources de données doivent être utilisées pour l’analyse et la prise de décision ? Chaque entreprise a besoin de réponses à ces questions.
L'intelligence artificielle devient omniprésente, alimentée par de nouveaux algorithmes et une puissance de calcul de plus en plus abondante et bon marché. Depuis plus de 70 ans, la technologie de l’intelligence artificielle est en pleine évolution. La pandémie n’a pas accéléré le développement de l’intelligence artificielle ; elle a accéléré son adoption.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!