Du jour au lendemain, Amazon est venu "dépasser dans un virage".
Alors que les principaux géants mondiaux de la technologie adoptent le grand modèle le plus populaire d’aujourd’hui, l’AIGC, Amazon ne donne aux gens qu’une seule impression : la furtivité.
Bien qu'AWS ait fourni une puissance de calcul d'apprentissage automatique à de grandes entreprises vedettes telles que Hugging Face et Stability AI, Amazon divulgue rarement les détails de la coopération. Certains internautes ont estimé qu'au cours des dernières réunions de reporting financier, Amazon n'avait mentionné l'IA presque aucune fois.
Mais maintenant, l’attitude d’Amazon a radicalement changé.
Le 13 avril, le PDG d'Amazon, Andy Jassy, a publié la lettre annuelle aux actionnaires de 2022, déclarant qu'il est convaincu qu'Amazon peut contrôler les coûts et continuer à investir dans de nouveaux domaines de croissance. Dans sa lettre, il a déclaré qu'Amazon investirait massivement à l'avenir dans les domaines actuellement populaires des modèles linguistiques à grande échelle (LLM) et de l'intelligence artificielle générative (IA).
Jassy a déclaré qu'au cours des dernières décennies, Amazon a utilisé l'apprentissage automatique dans diverses applications. L'entreprise développe actuellement son propre modèle linguistique à grande échelle, qui a le potentiel d'améliorer « presque toutes les expériences client ».
Avant qu’il ait fini de parler, le grand modèle et les services d’Amazon ont été dévoilés.
"La plupart des entreprises souhaitent utiliser de grands modèles de langage, mais les modèles de langage vraiment utiles nécessitent des milliards de dollars et des années pour se former, et les gens ne veulent pas passer par là", a déclaré Andy Jassy. "Ils cherchent donc à améliorer un modèle de base déjà énorme, puis à pouvoir le personnaliser à leurs propres fins. C'est Bedrock."
Version Amazon de ChatGPT : une partie de son service cloud.
Dans sa dernière annonce, AWS a présenté un nouvel ensemble de modèles – collectivement appelés « Amazon Titan ».
Les modèles de la série Titan sont divisés en deux types, l'un est un modèle de texte pour la génération de contenu et l'autre est un modèle d'intégration qui peut créer des intégrations vectorielles pour créer des fonctions de recherche efficaces, etc.
Le modèle de génération de texte est similaire au GPT-4 d'OpenAI (mais pas nécessairement identique en termes de performances) et peut effectuer des tâches telles que la rédaction d'articles de blog et d'e-mails, la synthèse de documents et l'extraction d'informations à partir de bases de données. Les modèles d'intégration traduisent les entrées textuelles (telles que des mots et des phrases) en représentations numériques, appelées intégrations, qui contiennent la sémantique du texte.
Les chatbots ChatGPT et Microsoft Bing basés sur le modèle de langage OpenAI produisent parfois des informations inexactes. Cela est dû à un comportement appelé "hallucination", où le résultat semble convaincant, mais en fait cela n'a rien à voir avec les données d'entraînement.
Le vice-président d'AWS, Bratin Saha, a déclaré à CNBC qu'Amazon « se soucie beaucoup » de l'exactitude et veille à ce que son modèle Titan produise des réponses de haute qualité.
Les clients pourront personnaliser les modèles Titan avec leurs propres données. Mais un autre vice-président a déclaré que les données ne seraient jamais utilisées pour entraîner les modèles Titan afin de garantir que d'autres clients, y compris des concurrents, ne bénéficieraient pas de ces données.
Sivasubramanian et Saha ont refusé de parler de la taille des modèles Titan ou d'identifier les données utilisées par Amazon pour les former, et Saha n'a pas décrit le processus suivi par Amazon pour supprimer les parties problématiques des données de formation du modèle.
La sortie du modèle Titan fait en fait partie du plan « Bedrock » d'Amazon. Amazon, le plus grand fournisseur d'infrastructures cloud au monde, ne laissera évidemment pas un domaine en croissance aussi rapide à des concurrents tels que Google et Microsoft.
Le projet Bedrock a été lancé un mois après la sortie de GPT-4 par OpenAI. À cette époque, Microsoft avait investi des milliards de dollars dans OpenAI et fournissait de la puissance de calcul à OpenAI via son service cloud Azure. Il s'agit de la concurrence la plus forte à laquelle l'activité AWS d'Amazon ait jamais été confrontée.
Le service cloud Bedrock est similaire au moteur derrière le chatbot ChatGPT alimenté par la startup OpenAI soutenue par Microsoft. Amazon Web Services donnera accès à des modèles comme Titan via son service d'IA générative Bedrock.
L'ensemble de modèles de base initial pris en charge par ce service comprend également des modèles d'AI21, Anthropic et Stability AI, ainsi que les nouveaux modèles de la série Titan développés par Amazon. Les débuts de Bedrock sont un précurseur des partenariats qu’AWS a noués avec des startups d’IA générative au cours des derniers mois.
Le principal avantage de Bedrock est que les utilisateurs peuvent l'intégrer au reste de la plateforme cloud AWS. Cela signifie que les organisations pourront accéder plus facilement aux données stockées dans le service de stockage d'objets Amazon S3 et bénéficier des politiques de contrôle d'accès et de gouvernance d'AWS.
Amazon ne révèle pas actuellement combien coûtera le service Bedrock car il est encore en avant-première limitée. Un porte-parole a déclaré que les clients peuvent s'inscrire sur une liste d'attente. Auparavant, Microsoft et OpenAI avaient annoncé les prix d'utilisation de GPT-4, à partir de quelques centimes pour 1 000 jetons, avec un jeton équivalent à environ quatre caractères anglais, tandis que Google n'a pas encore annoncé les prix de son modèle de langage PaLM.
Nous savons que la programmation sera l'un des domaines où la technologie de l'IA générative sera rapidement appliquée. Aujourd’hui, les développeurs de logiciels passent beaucoup de temps à écrire du code assez simple et indifférencié, et beaucoup de temps à apprendre de nouveaux outils et techniques complexes en constante évolution. En conséquence, les développeurs disposent de très peu de temps pour développer des fonctionnalités et des services innovants.
Pour résoudre ce problème, les développeurs tenteront de copier des extraits de code depuis Internet, puis de les modifier, mais ils risquent de copier par inadvertance du code invalide et du code présentant des risques de sécurité. Cette méthode de recherche et de copie fait également perdre du temps aux développeurs dans la construction d’une entreprise.
L'IA générative peut réduire considérablement ce travail ardu en « écrivant » du code principalement indifférencié, permettant aux développeurs d'écrire du code plus rapidement et d'avoir plus de temps pour se concentrer sur un travail de programmation plus créatif.
En 2022, Amazon a annoncé le lancement de l'aperçu Amazon CodeWhisperer . Cet assistant de programmation IA utilise un modèle de base intégré pour générer des suggestions de code en temps réel sur la base des commentaires des développeurs décrits en langage naturel et du code existant dans l'EDI, améliorant ainsi l'efficacité du travail. La version préliminaire a reçu une réponse enthousiaste de la part des développeurs, les utilisateurs accomplissant les tâches en moyenne 57 % plus rapidement et avec un taux de réussite 27 % plus élevé que ceux qui n'ont pas utilisé l'assistant de programmation.
Maintenant, Amazon annonce que CodeWhisperer est officiellement disponible, gratuit et ouvert à tous les utilisateurs individuels sans aucune qualification ni limite de durée d'utilisation. Comprend également le suivi des citations et 50 analyses de sécurité par mois. Les utilisateurs doivent uniquement s'inscrire par e-mail et n'ont pas besoin d'un compte de service cloud Amazon. Les clients Entreprise peuvent choisir la version Professionnelle qui inclut des fonctionnalités de gestion plus avancées.
En plus de Python, Java, JavaScript, TypeScript et C#, CodeWhisperer a ajouté la prise en charge de 10 nouveaux langages de développement tels que Go, Kotlin, Rust, PHP et SQL. Les développeurs peuvent accéder à CodeWhisperer via le plug-in Amazon Toolkit dans des environnements de développement intégrés tels que VS Code, IntelliJ IDEA, Amazon Cloud9, et peuvent également être utilisés dans la console Amazon Lambda.
Amazon affirme qu'en plus d'apprendre à partir de milliards de lignes de code public, CodeWhisperer est également formé sur le code d'Amazon. Il s'agit donc actuellement du moyen le plus précis, le plus rapide et le plus sécurisé de générer du code pour les services cloud Amazon, notamment Amazon EC2 et plus encore.
Le code généré par les assistants de programmation IA peut contenir des vulnérabilités de sécurité cachées, c'est pourquoi CodeWhisperer fournit des capacités d'analyse de sécurité intégrées (activées par inférence automatisée), le seul à le faire. Cette fonctionnalité détecte les vulnérabilités difficiles à détecter et formule des recommandations de correction, telles que celles du Top 10 Open Web Application Security Project (OWASP) et celles qui ne sont pas conformes aux meilleures pratiques des bibliothèques cryptographiques.
De plus, pour aider les développeurs à développer du code de manière responsable, CodeWhisperer filtre les suggestions de code qui peuvent être considérées comme biaisées ou injustes. Dans le même temps, étant donné que les clients peuvent avoir besoin de se référer à des sources de code open source ou d'obtenir l'autorisation de les utiliser, CodeWhisperer est également le seul assistant de programmation capable de filtrer et de marquer les suggestions de code open source suspectées.
Amazon est dans le domaine de l'IA depuis plus de 20 ans et AWS compte déjà plus de 100 000 clients IA. Amazon utilise une version modifiée de Titan pour diffuser les résultats de recherche via sa page d'accueil, a déclaré Sivasubramanian.
Cependant, Amazon n'est que l'une des grandes entreprises à lancer des capacités d'IA générative après l'émergence et la popularité de ChatGPT. Expedia, HubSpot, Paylocity et Spotify se sont tous engagés à intégrer la technologie OpenAI, contrairement à Amazon. "Nous agissons toujours lorsque tout est prêt et que toute la technologie est déjà là", a déclaré Sivasubramanian. Amazon veut garantir que Bedrock soit facile à utiliser et rentable grâce à son utilisation d'un processeur d'IA personnalisé.
Actuellement, des entreprises telles que C3.ai, Pegasystems et Salesforce se préparent à introduire Amazon Bedrock.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!