Xu Ya, vice-président de l'ingénierie et responsable des activités de données et d'intelligence artificielle chez LinkedIn, a déclaré que étant donné que les équipes d'ingénierie et de produit ont mis en œuvre de nombreux travaux basés sur les derniers modèles GPT d'OpenAI (y compris ChatGPT et GPT -4) et certains modèles open source changent, ce calendrier est sans précédent pour une entreprise aussi grande que LinkedIn. L'outil comprend des fonctionnalités telles que des articles collaboratifs sur l'IA générative, des suggestions de rédaction personnalisées pour les descriptions de poste et les profils LinkedIn.
Xu Ya a expliqué que l'équipe de développement qu'elle dirigeait était capable de générer automatiquement des descriptions de poste et de gérer le trafic en temps réel en seulement un mois. Une équipe interfonctionnelle avec un objectif commun était la clé. Elle a ajouté : "Ce n'est pas que nous travaillons 20 heures par jour ou que nous quittons le travail tard, mais que nous mettons de côté d'autres choses et nous concentrons sur l'accomplissement d'un travail important."
Xu Ya a déclaré que puisque LinkedIn est une filiale de Microsoft, elle a vraiment vu. l'avenir de cette technologie. L'automne dernier, elle, avec le PDG de LinkedIn, Ryan Roslansky, et d'autres collègues, a rapidement commencé à imaginer comment ChatGPT et d'autres modèles GPT pourraient créer davantage d'opportunités d'applications et de services pour les membres et clients de LinkedIn.
Xu Ya a déclaré que la philosophie d'ingénierie prioritaire de son équipe était « ancrée dans l'exploration plutôt que dans la construction de produits finaux matures ». Elle a expliqué que la maturation des fonctionnalités et des expériences appropriées se produira au fil du temps, mais qu'en mettant la technologie de l'IA générative entre les mains de chaque ingénieur et chef de produit intéressé, une telle exploration sera encouragée.
La création de LinkedIn Gateway, qui donne accès aux modèles OpenAI et aux modèles open source de Hugging Face, et la fourniture du Generative AI Playground de LinkedIn, qui permet aux ingénieurs d'explorer les données LinkedIn à l'aide de modèles d'IA génératifs avancés provenant d'entreprises OpenAI et d'autres sources, ont facilité cela. exploration. L'entreprise a également convoqué des milliers d'ingénieurs pour participer au plus grand hackathon interne jamais organisé par LinkedIn.
De plus, les collaborateurs de LinkedIn doivent mieux comprendre le fonctionnement des grands modèles de langage, y compris la manière de réaliser une ingénierie juste à temps, ainsi que les problèmes et limites potentiels des modèles.
Xu Ya a déclaré : « Nous proposons différents niveaux d'éducation, tels que des réunions d'entreprise, des cours de déjeuner et d'apprentissage, ainsi qu'une formation plus approfondie pour ceux qui sont plus profondément impliqués dans le développement de l'intelligence artificielle et la recherche et développement. également sur l'intégration et une partie importante du soutien à l'intelligence artificielle générative. Elle a déclaré : « En raison de notre culture collaborative, nous encourageons les différentes équipes à partager des ressources. Cela leur permet de se développer rapidement dans des situations où le nombre de développeurs ayant accès à certains modèles d'IA générative est limité en raison de la capacité. sur l'expérience en matière de quotas, d'accès, de modèles d'incitation et d'autres bonnes pratiques afin qu'ils puissent mieux s'entraider "
Courez vite, mais courez ensemble
Par exemple, la société publie des articles générés par l'IA via un pipeline d'évaluation, fait examiner les résultats des itérations par des humains et modifie son ingénierie en conséquence. la mouche, jusqu'à ce que vous obteniez un score satisfaisant. Xu Ya a expliqué que LinkedIn examine très attentivement quels risques sont tolérables et quels sont les risques intolérables. L’entreprise n’a aucune tolérance pour le contenu répréhensible et a une faible tolérance pour le contenu de zone grise. Il compte sur le personnel pour signaler le contenu à supprimer.
Elle a ajouté qu'elle espère éviter toute information mauvaise et préjudiciable et permettre uniquement la génération et la publication de contenus sûrs et informatifs. Par exemple, elle a noté que le récent article de Kevin Roose dans le New York Times comprenait une transcription de sa conversation avec le chatbot Bing de Microsoft. L'article souligne qu'il serait préoccupant si quelqu'un partageait un guide sur la façon de fabriquer une bombe, mais si quelqu'un donnait de mauvais conseils sur la façon d'accomplir la tâche lors d'une conversation avec le chatbot, ou dans le cas de Roose, commentait son mariage, alors serait moins préoccupant.
Xu Ya a déclaré : « Cette technologie ne peut pas exister uniquement en laboratoire, elle doit être mise en œuvre dans des applications pratiques. De cette façon, les gens peuvent l'utiliser pleinement d'une manière qui n'était jamais prévue en laboratoire, mais ils doivent s'assurer qu'elle existe. est le bon processus. » Elle a cité les récents commentaires du directeur de la technologie de Microsoft, Kevin Scott, sur le sujet.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!