Google AI a commencé à fournir aux développeurs un accès à des fenêtres contextuelles étendues et à des fonctionnalités économiques, à commencer par le grand modèle de langage (LLM) Gemini 1.5 Pro. Auparavant disponible via une liste d'attente, la fenêtre contextuelle complète de 2 millions de jetons est désormais ouverte à tous les développeurs. Google introduit également la mise en cache contextuelle pour réduire les coûts des tâches qui réutilisent des informations similaires dans plusieurs invites.
Avec la nouvelle mise à jour, les modèles Gemini 1.5 Pro et Flash peuvent désormais générer et exécuter dynamiquement du code Python. Les modèles peuvent en outre utiliser l'analyse des données et les mathématiques pour résoudre efficacement les problèmes de raisonnement. Selon Google, l'environnement d'exécution de code est sécurisé et n'a pas accès à Internet ; la société affirme également que les développeurs ne seront facturés que pour le résultat final généré par le modèle. Le modèle léger Gemma 2 est désormais également disponible pour une utilisation dans Google AI Studio. Les personnes intéressées peuvent y accéder sous « Paramètres avancés » dans Google AI Studio.
Plusieurs entreprises utilisent déjà Google Gemini 1.5 Flash. La liste des applications tirant parti de la technologie comprend Envision, qui aide les utilisateurs malvoyants, l'analyse des politiques de Plural, le traitement vidéo de Zapier et le système de mémoire AI personnalisé de Dot. L'autre chose qui est actuellement déployée auprès des développeurs est ce que la publication de Google appelle le « réglage du texte », avec un accès complet à cette fonctionnalité attendu d'ici la mi-juillet.
Working For NotebookcheckÊtes-vous un technicien qui sait écrire ? Alors rejoignez notre équipe ! Recherché : - Rédacteur de nouvellesDétails iciCe qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!