Table des matières
1. Plateforme DevOps basée sur l'IA
En plus des défis liés à la promotion des pratiques DevOps, il y a une autre question à considérer : si ces pratiques peuvent aider les développeurs à écrire plus de code et à le publier plus fréquemment, est-ce une bonne chose ?
Digital.ai se concentre sur l'intégration de l'intelligence artificielle dans l'automatisation pour aider les développeurs à créer et fournir du code et aider les organisations à tirer davantage de valeur commerciale de la production de logiciels. Alors, comment pouvons-nous évoluer ? Comment pouvons-nous organiser les choses pour parvenir à une orchestration commune et réutilisable ? Le travail actuel de
Maison Périphériques technologiques IA Comment l'IA améliorera-t-elle l'ingénierie des plateformes et DevEx ?

Comment l'IA améliorera-t-elle l'ingénierie des plateformes et DevEx ?

Oct 31, 2023 pm 08:13 PM
人工智能 平台 工程

Auteur | Heather Joslyn

Veuillez réécrire le contenu suivant en chinois : Star Swirl

Pour de nombreuses entreprises qui adoptent DevOps, évoluer et créer de la valeur en augmentant la productivité des développeurs est un défi de taille. Dans cet article, nous discutons des dernières approches basées sur l'IA en matière d'ingénierie de plateforme.

1. Plateforme DevOps basée sur l'IA

Digital.ai est une entreprise technologique leader de l'IA qui se consacre à aider les entreprises mondiales à réaliser leur transformation numérique. Ses clients comprennent de grandes entreprises : institutions financières, organismes d'assurance et sociétés de jeux. L’un des plus gros problèmes auxquels ils sont confrontés est celui de l’échelle.

Aujourd'hui, je souhaite vous révéler comment la plateforme DevOps est mise en œuvre dans une entreprise axée sur l'IA

Bien sûr, selon la plateforme de diffusion de flux de valeur Digital.ai et vice-président de l'ingénierie DevOps et directeur général DevOps Wing To, dans un Podcast des médias étrangers Selon le communiqué, ils adoptent tous des méthodes de développement modernes telles que le DevOps agile. Cependant, dans les grandes organisations (comme des milliers de développeurs), le véritable défi auquel elles sont confrontées est de savoir comment évoluer pour bénéficier des avantages d'une livraison rapide et rester proche des utilisateurs finaux tout en étant capable de le faire à grande échelle

Cet article en discutera avec vous les derniers progrès en matière d'ingénierie des plates-formes et comment l'intelligence artificielle peut contribuer à améliorer l'automatisation.

Wing To a déclaré : "Bien sûr, ils utilisent tous des méthodes de développement modernes telles que le DevOps agile." au fur et à mesure que les développeurs s'organisent, il s'agit de savoir comment livrer rapidement tout en évoluant, rester proche de l'utilisateur final, tout en restant capable de le faire à grande échelle. Dans ce numéro de Makers, To et Heather Joslyn de TNS discutent des dernières avancées en matière d'ingénierie de plateforme et de la manière dont l'intelligence artificielle peut contribuer à améliorer l'automatisation

2. Améliorer la productivité, où est la valeur ?

En plus des défis liés à la promotion des pratiques DevOps, il y a une autre question à considérer : si ces pratiques peuvent aider les développeurs à écrire plus de code et à le publier plus fréquemment, est-ce une bonne chose ?

Il y a aussi un nouveau défi, a-t-il ajouté. "Je crois que tout le monde parle du développement de l'IA assistée ou augmentée, en particulier dans les grandes entreprises, où ils voient le potentiel d'améliorer la productivité. Mais comment mettre en œuvre cela dans l'ensemble de l'organisation ?" L'entreprise dispose de développeurs très productifs, mais ne peut pas les égaler en termes de ce qui se passe une fois le logiciel créé ? Pour dire : " Comme nous le savons tous, fournir du code ne consiste pas seulement à écrire du code. Il y a de nombreux processus après cela. " " Le suivi doit également suivre le même rythme

3. intelligence

L'ingénierie de plate-forme est un ensemble de pratiques et d'outils conçus pour libérer les développeurs d'avoir à se soucier autant de Kubernetes et de l'infrastructure, et de surcharger les ingénieurs d'exploitation avec des tâches répétitives au service de ces développeurs. "À mesure que l'équipe grandit, le défi auquel nous sommes confrontés est que les nouveaux développeurs juniors (et) les développeurs de niveau intermédiaire ne sont pas très compétents, et nous ne voulons pas que nos développeurs seniors passent tout leur temps sur l'infrastructure", a déclaré To. "

Digital.ai se concentre sur l'intégration de l'intelligence artificielle dans l'automatisation pour aider les développeurs à créer et fournir du code et aider les organisations à tirer davantage de valeur commerciale de la production de logiciels. Alors, comment pouvons-nous évoluer ? Comment pouvons-nous organiser les choses pour parvenir à une orchestration commune et réutilisable ? Le travail actuel de

Digital.ai comprend : L'application de modèles pour capturer et reproduire les parties difficiles à modifier du processus de livraison de logiciels d'une organisation. De plus, ils utilisent également la technologie de l'intelligence artificielle pour aider à configurer rapidement et automatiquement l'environnement de développement et à créer des outils pour les développeurs

D'après ma compréhension, cette phrase signifie que Digital.ai travaille dur pour améliorer sa "plateforme de développement interne", et ils utilisent une variété d'outils différents pour y parvenir, tels que la création de pipelines, l'exécution de tâches individuelles ou la configuration de

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

La formation Axiom permet au LLM d'apprendre le raisonnement causal : le modèle à 67 millions de paramètres est comparable au niveau de mille milliards de paramètres GPT-4. La formation Axiom permet au LLM d'apprendre le raisonnement causal : le modèle à 67 millions de paramètres est comparable au niveau de mille milliards de paramètres GPT-4. Jul 17, 2024 am 10:14 AM

Montrez la chaîne causale à LLM et il pourra apprendre les axiomes. L'IA aide déjà les mathématiciens et les scientifiques à mener des recherches. Par exemple, le célèbre mathématicien Terence Tao a partagé à plusieurs reprises son expérience de recherche et d'exploration à l'aide d'outils d'IA tels que GPT. Pour que l’IA soit compétitive dans ces domaines, des capacités de raisonnement causal solides et fiables sont essentielles. La recherche présentée dans cet article a révélé qu'un modèle Transformer formé sur la démonstration de l'axiome de transitivité causale sur de petits graphes peut se généraliser à l'axiome de transitivité sur de grands graphes. En d’autres termes, si le Transformateur apprend à effectuer un raisonnement causal simple, il peut être utilisé pour un raisonnement causal plus complexe. Le cadre de formation axiomatique proposé par l'équipe est un nouveau paradigme pour l'apprentissage du raisonnement causal basé sur des données passives, avec uniquement des démonstrations.

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Jul 25, 2024 am 06:42 AM

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

Nvidia joue avec l'élagage et la distillation : réduisant de moitié les paramètres de Llama 3.1 8B pour obtenir de meilleures performances avec la même taille Nvidia joue avec l'élagage et la distillation : réduisant de moitié les paramètres de Llama 3.1 8B pour obtenir de meilleures performances avec la même taille Aug 16, 2024 pm 04:42 PM

L’essor des petits modèles. Le mois dernier, Meta a publié la série de modèles Llama3.1, qui comprend le plus grand modèle Meta à ce jour, le modèle 405B, et deux modèles plus petits avec respectivement 70 milliards et 8 milliards de paramètres. Llama3.1 est considéré comme inaugurant une nouvelle ère de l'open source. Cependant, bien que les modèles de nouvelle génération soient puissants en termes de performances, ils nécessitent néanmoins une grande quantité de ressources informatiques lors de leur déploiement. Par conséquent, une autre tendance est apparue dans l’industrie, qui consiste à développer des petits modèles de langage (SLM) qui fonctionnent suffisamment bien dans de nombreuses tâches linguistiques et sont également très peu coûteux à déployer. Récemment, des recherches de NVIDIA ont montré qu'un élagage structuré combiné à une distillation des connaissances permet d'obtenir progressivement des modèles de langage plus petits à partir d'un modèle initialement plus grand. Lauréat du prix Turing, Meta Chief A

See all articles