Après avoir vu la version printanière d'OpenAI hier, il n'est pas difficile de deviner que lors de la conférence Google I/O d'aujourd'hui, il y aura certainement une introduction aux assistants IA.
Après tout, Altman, qui a publié GPT-4o avant la conférence Google I/O, a fait preuve de toute sa pertinence. Avec les méthodes d'Altman, il est naturellement confiant pour frapper avec précision et éliminer jusqu'au bout cette « confrontation » « rouge et bleu ». .
Effectivement, lors de la conférence, le PDG de Google, Pichai, a invité Demis, le nouvel assistant d'IA de Google, le projet Astra, qui a été dévoilé par Demis, qui a fait ses débuts à la conférence Google I/O.
Le Projet Astra est un assistant d'intelligence artificielle générale multimodal en temps réel avec Google Gemini comme moteur de base, équivalent au successeur de Google Assistant.
Tout comme Siri, Alexa et d'autres assistants IA que nous avons utilisés dans le passé, vous pouvez toujours interagir avec lui en utilisant la voix ; la différence est qu'avec les caractéristiques uniques de l'IA générative, elle a désormais de meilleures capacités de compréhension, elle peut le faire. plus de choses, et plus important encore, cette fois, il dispose également de capacités de reconnaissance visuelle, permettant à l'assistant IA de voir le monde les yeux ouverts.
Dans la démonstration vidéo de Google lors de la conférence, l'accent était mis sur l'intelligence visuelle de cet assistant IA.
Dans la vidéo de démonstration, un ingénieur de Google tenait un téléphone portable avec la caméra allumée, permettant à Gemini d'identifier les objets qui émettent des sons dans l'espace, d'identifier le code affiché sur l'écran du moniteur et même d'identifier l'adresse actuelle du présentateur. à travers des vues extérieures sur la rue.
En plus d'appliquer l'assistant IA aux téléphones mobiles, Google a également appliqué l'assistant IA aux lunettes AR lorsque l'ingénieur a pointé les lunettes intelligentes équipées de cet assistant IA vers le système conçu sur le tableau noir et lors de la proposition. comment améliorer le système, l'assistant IA peut même donner des suggestions pour améliorer la conception du système.
C'est l'intelligence visuelle affichée par Google sur l'assistant IA Avec la bénédiction de Gemini, les capacités interactives de ces assistants IA ont été considérablement améliorées.
Cependant, en termes de naturel de l'interaction réelle, un tel assistant IA est encore loin des résultats démontrés hier par OpenAI GPT-4o.
OpenAI a réussi à "couper"
Juste la veille de la conférence Google I/O, OpenAI a organisé une conférence de printemps massive. GPT-4o a été le protagoniste de ce printemps, déployé sur les téléphones mobiles. fonctionnalité démontrée lors de cette conférence.
À en juger par les capacités de l'assistant IA démontrées lors de la conférence OpenAI, l'effet de démonstration est meilleur en termes de convivialité du contenu de démonstration, de naturel du processus d'interaction et de capacités multimodales de cet assistant IA. .
En effet, lorsque OpenAI a chargé GPT-4o sur le téléphone mobile, il a non seulement ajouté une intelligence visuelle, mais a également permis à l'assistant IA de répondre en temps réel (le délai de réponse moyen officiel est de 320 millisecondes) et peut être frappé à tout moment peut même comprendre les émotions humaines.
Lors de la démonstration des capacités d'intelligence visuelle, OpenAI a écrit une équation mathématique sur papier pour que l'assistant IA résolve le problème étape par étape, un peu comme un professeur d'école primaire.
Et lorsque vous passez un « appel vidéo » avec GPT-4o, il peut reconnaître vos expressions faciales, comprendre vos émotions et savoir si vous avez l'air heureux ou triste maintenant, tout comme un être humain.
Il n'est pas difficile de constater qu'avec le soutien de la technologie de modèle à grande échelle d'aujourd'hui, Google et OpenAI tentent de réinventer l'assistant IA brut d'origine, en espérant que l'assistant IA puisse interagir avec nous naturellement comme de vraies personnes.
À en juger par les résultats de démonstration vidéo des deux conférences avant et après, l'assistant IA utilisant de grands modèles comme moteur de base nous a en effet clairement fait sentir qu'il existe une nette différence générationnelle entre l'assistant IA actuel et le précédent Siri. et Alexa.
En fait, alors que le développement de l'IA générative et de la technologie des grands modèles bat son plein, Apple tente également de réinventer Siri. Auparavant, Bloomberg a rapporté, citant des personnes proches du dossier, qu'Apple discutait d'une coopération avec OpenAI et Google Bring. leurs grands modèles au système d’exploitation iOS 18.
Quant à savoir si un tel assistant IA peut rendre Siri à nouveau populaire et devenir une application phare pour les téléphones IA, cela dépend de la capacité d'Apple à "enchanter" à nouveau l'assistant IA.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!