Le succès phénoménal de ChatGPT a obligé toutes les entreprises technologiques à commencer à investir dans la recherche sur l'IA et à trouver comment intégrer l'intelligence artificielle dans leurs produits. C’est une situation sans précédent, et pourtant, l’intelligence artificielle n’en est qu’à ses débuts.
Mais il ne s'agit pas seulement de chatbots IA sophistiqués et de générateurs de texte en image. Il existe des outils d’IA hautement spéculatifs mais incroyablement impressionnants à l’horizon.
Les requêtes de recherche sémantique sont testées pour fournir de meilleurs résultats de recherche aux personnes. Les moteurs de recherche utilisent actuellement des algorithmes centrés sur les mots clés pour fournir des informations pertinentes aux utilisateurs. Cependant, une dépendance excessive aux mots-clés pose plusieurs problèmes, tels qu'une compréhension limitée du contexte, les spécialistes du marketing exploitant le référencement et des résultats de recherche de mauvaise qualité en raison de la difficulté à exprimer des requêtes complexes.
Contrairement aux algorithmes de recherche traditionnels, la recherche sémantique utilise l'intégration de mots et le mappage sémantique pour comprendre le contexte d'une requête avant de fournir des résultats de recherche. Ainsi, au lieu de s’appuyer sur un ensemble de mots-clés, la recherche sémantique fournit des résultats basés sur la sémantique ou sur la signification d’une requête donnée.
Le concept de recherche sémantique existe depuis un certain temps déjà. Cependant, les entreprises ont du mal à mettre en œuvre une telle fonctionnalité en raison de la lenteur et de la consommation de ressources de la recherche sémantique.
La solution consiste à cartographier les intégrations vectorielles et à les stocker dans une grande base de données vectorielles. Cela réduit considérablement les besoins en puissance de calcul et accélère les résultats de recherche en limitant les résultats aux informations les plus pertinentes.
De grandes entreprises technologiques et startups comme Pinecone, Redis et Milvus investissent actuellement dans des bases de données vectorielles pour fournir des capacités de recherche sémantique sur les systèmes de recommandation, les moteurs de recherche, les systèmes de gestion de contenu et les chatbots.
Bien qu'il ne s'agisse pas nécessairement d'une avancée technique, plusieurs grandes entreprises technologiques souhaitent démocratiser l'IA. Pour le meilleur ou pour le pire, les modèles d’IA open source sont désormais formés et bénéficient de licences plus permissives que les organisations peuvent utiliser et affiner.
Le Wall Street Journal rapporte que Meta achète des accélérateurs d'IA Nvidia H100 et vise à développer une IA qui concurrence le récent modèle GPT-4 d'OpenAI.
Il n'existe actuellement aucun LLM accessible au public qui puisse égaler les performances brutes de GPT-4. Mais avec Meta promettant un produit compétitif avec une licence plus permissive, les entreprises peuvent enfin affiner un LLM puissant sans risquer que des secrets commerciaux et des données sensibles soient exposés et utilisés contre elles.
Plusieurs projets expérimentaux sont actuellement en cours pour développer des agents IA qui nécessitent peu ou pas d'instructions pour atteindre un certain objectif. Vous vous souvenez peut-être des concepts d'agents IA d'Auto-GPT, l'outil d'IA qui automatise ses actions.
L'idée est que l'agent atteigne une pleine autonomie grâce à une auto-évaluation et une autocorrection constantes. Le concept de travail pour parvenir à l'autoréflexion et à la correction est que l'agent se demande continuellement à chaque étape du processus quelle action doit être effectuée, les étapes à suivre pour la réaliser, les erreurs qu'il a commises et ce qu'il peut faire pour s'améliorer. .
Le problème est que les modèles actuels utilisés dans les agents d'IA ont peu de compréhension sémantique. Cela amène les agents à halluciner et à leur demander de fausses informations, ce qui les coince dans une boucle infinie d’auto-évaluation et de correction.
Des projets comme le MetaGPT Multi-agent Framework visent à résoudre le problème en utilisant simultanément plusieurs agents d'IA pour réduire de telles hallucinations. Des frameworks multi-agents sont mis en place pour imiter le fonctionnement d’une startup. Chaque agent de cette startup se verra attribuer des postes tels que chef de projet, concepteur de projet, programmeur et testeur. En divisant les objectifs complexes en tâches plus petites et en les déléguant à différents agents d’IA, ces agents ont plus de chances d’atteindre leurs objectifs.
Bien entendu, ces frameworks en sont encore à leurs premiers stades de développement et de nombreux problèmes doivent encore être résolus. Mais avec des modèles plus puissants, une meilleure infrastructure d’IA et une recherche et un développement continus, ce n’est qu’une question de temps avant que des agents d’IA efficaces et des sociétés d’IA multi-agents ne deviennent une réalité.
Les grandes entreprises et les startups investissent massivement dans la recherche et le développement de l'IA et de ses infrastructures. Nous pouvons donc nous attendre à ce que l’avenir de l’IA générative fournisse un meilleur accès à des informations utiles grâce à la recherche sémantique, à des agents d’IA et des sociétés d’IA entièrement autonomes, ainsi qu’à des modèles hautes performances disponibles gratuitement que les entreprises et les particuliers pourront utiliser et affiner.
Bien que passionnant, il est également important que nous prenions notre temps pour réfléchir à l'éthique de l'IA, à la confidentialité des utilisateurs et au développement responsable des systèmes et infrastructures d'IA. Rappelons que l’évolution de l’IA générative ne consiste pas seulement à construire des systèmes plus intelligents ; il s’agit également de remodeler nos pensées et d’être responsable de la manière dont nous utilisons la technologie.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!