Comment effectuer une analyse efficace des données
Tutoriels recommandés : Tutoriel Python
Dans la seconde moitié du Internet, en permanence Dans le contexte d'opérations raffinées, les chefs de produit ne s'appuient plus uniquement sur les sentiments pour fabriquer des produits, mais doivent également cultiver la conscience des données et être capables d'utiliser les données comme base pour améliorer continuellement les produits.
Contrairement aux analystes de données professionnels de l'entreprise, les chefs de produit peuvent visualiser les données davantage au niveau des utilisateurs et de l'entreprise pour trouver les raisons des modifications des données plus rapidement et de manière plus approfondie.
Alors, en partant du principe que les données ont été effectivement enregistrées, comment analyser efficacement les données ?
1. Clarifier le but de l'analyse des données
1. Si le but de l'analyse des données est de comparer les page avant et après révision Les avantages et les inconvénients doivent être mesurés à partir du taux de clics, du taux de rebond et d'autres dimensions de la page. Pour les applications de commerce électronique, nous devons également observer le taux de conversion des commandes. Pour les applications sociales, nous devons payer. attention à la durée de la visite de l'utilisateur, aux likes, aux interactions de transfert, etc.
Lorsque de nombreux nouveaux arrivants conçoivent leurs propres produits, ils peuvent consacrer beaucoup de temps à la conception du produit lui-même, mais ne dépensent pas d'énergie à réfléchir à la manière de mesurer le succès du produit. . Dans la documentation du produit Écrire une phrase creuse comme « l'expérience utilisateur a été améliorée » n'est pas propice au bon déroulement de la revue de conception du produit, et il n'est pas non plus possible d'améliorer rapidement et plus efficacement les indicateurs KPI du produit.
2. Si le but de l'analyse des données est d'explorer les raisons des fluctuations anormales des données dans un certain module, la méthode d'analyse doit être progressivement démantelée selon le principe de la pyramide, version-> ; temps->
Par exemple, si vous constatez que le taux de clics du module Devinez que vous aimez sur la page d'accueil est récemment passé de 40% à 35%, soit une forte baisse de 5%, à ce stade, vérifiez d'abord quelle version des données s'est produite. La fluctuation est-elle causée par des omissions ou des erreurs lors du lancement de la nouvelle version ?
Si les données de fluctuation des versions restent cohérentes, regardez quand les données ont commencé à changer. Est-ce à cause des vacances de Noël et du Nouvel An que d'autres modules de la page sont en ligne ? La nouvelle activité a affecté les conversions « devinez que vous aimez ».
Sinon, examinez si la composition des sources de trafic a changé ou si cela est causé par une augmentation du nombre d'expositions de nouveaux utilisateurs.
Les chefs de produit doivent analyser les données avec un objectif clair et réfléchir aux dimensions qui doivent être construites pour vérifier afin d'atteindre l'objectif. La plupart du temps, les chefs de produit doivent être très patients et démonter les subdivisions étape par étape pour en rechercher les raisons.
2. Collecte de données multicanal
Il existe généralement quatre types de canaux de collecte.
1. En obtenant de rapports d'analyse de données externes de l'industrie tels qu'Analysys ou iResearch, vous devez observer les données avec une attitude prudente et extraire des informations efficaces et précises, retirez certaines données qui peuvent être remplies d'eau et vous devez toujours vous méfier des données secondaires qui ont été traitées par d'autres.
2. Collectez de manière proactive les commentaires des utilisateurs de l'AppStore, des commentaires du service client, de Weibo et d'autres forums communautaires. Lorsque j'ai du temps libre, je vais souvent sur le forum de la communauté pour lire les commentaires sur le statut des utilisateurs. Généralement, ces commentaires sont très extrêmes, soit très bons, soit réprimandés, mais ces commentaires sont toujours très bénéfiques pour l'amélioration de la conception de mon propre produit. Oui, vous pouvez essayer de déduire pourquoi l’utilisateur a ressenti de telles émotions à ce moment-là.
3. Participer vous-même à la conception du questionnaire, aux entretiens avec les utilisateurs et à d'autres enquêtes, affrontez directement les utilisateurs, collectez des données de première main et observez les problèmes et les sentiments que les utilisateurs rencontrent lorsqu'ils utilisent produits. Le questionnaire doit affiner les questions principales et réduire le nombre de questions, et les résultats du recyclage doivent éliminer les questionnaires inefficaces et superficiels. Lors des entretiens avec les utilisateurs, il faut veiller à ne pas utiliser de mots ou de questions d'orientation susceptibles de biaiser les sentiments naturels de l'utilisateur.
4. Étudiez les données à partir des trajectoires de comportement des utilisateurs enregistrées. Les grandes entreprises disposent généralement de rapports/e-mails par ligne fixe pour fournir des commentaires quotidiens, voire en temps réel, sur les données des utilisateurs en ligne. Elles fournissent également des plates-formes de requêtes SQL aux chefs de produit ou aux analystes de données afin qu'ils puissent explorer et comparer les données de manière plus approfondie. manière.
3. Éliminez efficacement les données interférentes
1. Sélectionnez le nombre correct d'échantillons, sélectionnez un nombre suffisamment grand et éliminez l'influence des données extrêmes ou accidentelles. Aux Jeux olympiques de 2008, le pourcentage de tir à trois points de Yao Ming était de 100 %, et le pourcentage de tir à trois points de Kobe était de 32 %. Cela signifie-t-il que le pourcentage de tir à trois points de Yao Ming était supérieur à celui de Kobe ? Il y a un problème avec l'affichage, car lors de ces Jeux olympiques, Yao Ming n'a tiré qu'un seul tir à trois points et Kobe en a tiré 53.
2. Développer les mêmes règles d'échantillonnage pour réduire le biais des conclusions d'analyse . Par exemple, deux copywritings Push, le premier "Vous avez une enveloppe rouge à emporter qui fait chaud au cœur que vous n'avez pas encore reçue. La plus grande enveloppe rouge est réservée uniquement à vous qui êtes les meilleurs en matière de nourriture. Cliquez pour participer." deuxième "Envoyez-vous un avantage basse température à emporter sans quitter la maison." Les ménages peuvent déguster des plats chauds et délicieux, cliquez pour récupérer. Les données expérimentales montrent que le taux de clics de la deuxième copie Push est 30 % supérieur à celui de la première. Alors est-ce vraiment le deuxième exemplaire qui est le plus attractif ? Il s’est avéré que l’activité des destinataires de la deuxième copie Push était nettement supérieure à celle de la première.
3. À l'exclusion de l'interférence de la version ou des facteurs de vacances, les performances des données de la nouvelle version sont souvent très bonnes lors de son premier lancement, car les utilisateurs qui activement mise à niveau sont généralement des utilisateurs très actifs. À l'approche des week-ends ou des jours fériés importants, les besoins de consommation des utilisateurs se déclencheront et le taux de conversion des commandes des applications de commerce électronique augmentera également fortement. Par conséquent, lors de la comparaison des données, les données du groupe expérimental et du groupe témoin doivent maintenir une correspondance dans la dimension temporelle.
4. Oubliez les données historiques. Les humains sont différents de la technologie des données. La technologie des données a une capacité de mémoire de 100 %, tandis que les humains ne peuvent se souvenir que de 33 % après 1 jour, 25 % après 6 jours et 21 % après 31 jours selon la loi de l'oubli d'Ahobins. Par conséquent, nous devons choisir la période de dépistage de manière raisonnable. Par exemple, le module Guess You Like effectue non seulement un certain processus de pondération sur la notation des balises d'intérêt, mais mène également une série d'expériences de régression basées sur des facteurs tels que le cycle de vie du produit pour obtenir la courbe de déclin des différents types d'audience. intérêts et tendances d'achat. Utilisez des changements d'heure réguliers pour supprimer efficacement les anciennes données afin d'augmenter le taux de clics du module.
5. L'expérience doit diviser le groupe A1, c'est-à-dire ajouter un autre groupe A1 au groupe expérimental B et au groupe témoin A. Les règles de A1 et A doivent être cohérentes , puis explorez les règles de AB En comparant les fluctuations des données avec AA1, élimine l'impact des fluctuations naturelles/anormales des données. Mon expérience A/B actuelle montre qu'il est très important et nécessaire de créer le groupe A1. Quelle que soit la taille des données, les données des deux groupes avec les mêmes règles expérimentales présenteront également certaines petites fluctuations, et cela. une petite fluctuation est dans le raffinement. Dans le fonctionnement actuel, notre jugement peut être grandement perturbé et biaisé.
4. Examinez les données de manière raisonnable et objective
1. 🎜>
Les chefs de produit prennent des décisions lorsqu'ils entendent les commentaires de certains utilisateurs et passent beaucoup de temps à développer les fonctions correspondantes. Souvent, par conséquent, ces fonctions ne répondent qu'à des besoins urgents. un très petit nombre d'utilisateurs et la plupart des utilisateurs s'en moquent. Cela peut même être contraire aux demandes des principaux utilisateurs, entraînant une chute des données après le lancement de la nouvelle version du produit.
Ignorer les utilisateurs silencieux et ne pas prendre en compte de manière exhaustive les besoins fondamentaux de la plupart des utilisateurs cibles du produit peut entraîner un gaspillage de main-d'œuvre et de ressources matérielles, et pire encore, des opportunités commerciales manquées.
2. Comprendre de manière exhaustive les résultats des données
S'il y a une différence évidente entre les attentes des résultats expérimentaux et notre biais de compréhension empirique, veuillez ne pas tirer aveuglément des conclusions et remettre en question votre intuition, mais essayez de mener une analyse plus approfondie des données.
Par exemple, j'ai mené une fois une expérience pour proposer des fenêtres contextuelles d'activité aux utilisateurs sur la page d'accueil, et j'ai constaté que les données du groupe expérimental s'amélioraient en termes de taux de clics sur la page d'accueil. , le taux de conversion des commandes et même le taux de rétention sur 7 jours, dépassant largement le groupe témoin, le taux de conversion de chaque module de la page d'accueil a été considérablement amélioré, dépassant largement nos attentes. Il s'agit donc vraiment d'un pop-up actif qui stimule l'utilisateur. taux de conversion ?
Plus tard, nous avons constaté que les utilisateurs qui peuvent afficher des pop-ups actifs sur la page d'accueil ont tendance à avoir de meilleures conditions de réseau lorsqu'ils utilisent l'environnement. Dans un environnement wifi, les utilisateurs qui n'affichent pas de pop-ups. ups sont Il se peut que dans des scénarios mobiles tels que les bus, les métros et les centres commerciaux, la communication réseau soit mauvaise, affectant ainsi les résultats de l'expérience A/B.
3. Ne vous fiez pas trop aux données
D'une part, une dépendance excessive aux données cela nous fera faire beaucoup de choses qui n'ont aucune valeur. L'analyse des données, par contre, limitera également l'inspiration et la créativité que devraient avoir les chefs de produit.
Tout comme Luo Zhenyu l'a mentionné dans le discours du réveillon du Nouvel An des Amis du Temps. Donnez aux utilisateurs ce qu'ils veulent. Vous pouvez le deviner avant même qu'ils ne le disent. Personne ne le fait mieux que Toutiao dans le domaine de la distribution de contenu. Cependant, l'algorithme de l'amour maternel a de gros inconvénients. recommandation Il deviendra de plus en plus étroit au fil du temps.
De l'autre côté se trouve l'algorithme de l'amour paternel, debout et voyant loin. Dites aux utilisateurs, mettez les conneries entre vos mains, je vais vous dire une bonne chose, suivez-moi. Tout comme les produits de la série iPhone créés par Qiao Bangzhu à l'époque, il n'a pas examiné d'analyse de marché ni mené de recherche sur les utilisateurs pour créer des produits qui dépassaient les attentes des utilisateurs.
5. Résumé
Netflix, le site Web de vidéo le plus performant aux États-Unis, utilise le Big Data grâce à l'analyse. basé sur les habitudes des utilisateurs. L'analyse a approfondi le processus créatif du film, façonnant le drame américain populaire "House of Cards". Cependant, l'équipe de Netflix nous a dit que nous ne devrions pas être obsédés par le big data
Si une série télévisée avec un score de 9 est considérée comme un produit de haute qualité, le big data peut nous éviter le risque d'un score faible de 6 ou moins, mais cela nous mènera aussi pas à pas vers la médiocrité, dont la grande majorité se situe entre 7 et 8 points.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Compétences en matière de traitement de la structure des Big Data : Chunking : décomposez l'ensemble de données et traitez-le en morceaux pour réduire la consommation de mémoire. Générateur : générez des éléments de données un par un sans charger l'intégralité de l'ensemble de données, adapté à des ensembles de données illimités. Streaming : lisez des fichiers ou interrogez les résultats ligne par ligne, adapté aux fichiers volumineux ou aux données distantes. Stockage externe : pour les ensembles de données très volumineux, stockez les données dans une base de données ou NoSQL.

AEC/O (Architecture, Engineering & Construction/Operation) fait référence aux services complets qui assurent la conception architecturale, la conception technique, la construction et l’exploitation dans le secteur de la construction. En 2024, l’industrie de l’AEC/O est confrontée à des défis changeants au milieu des progrès technologiques. Cette année devrait voir l’intégration de technologies avancées, annonçant un changement de paradigme dans la conception, la construction et l’exploitation. En réponse à ces changements, les industries redéfinissent les processus de travail, ajustent les priorités et renforcent la collaboration pour s'adapter aux besoins d'un monde en évolution rapide. Les cinq tendances majeures suivantes dans l'industrie AEC/O deviendront des thèmes clés en 2024, lui recommandant d'évoluer vers un avenir plus intégré, réactif et durable : chaîne d'approvisionnement intégrée, fabrication intelligente.

À l'ère d'Internet, le Big Data est devenu une nouvelle ressource. Avec l'amélioration continue de la technologie d'analyse du Big Data, la demande de programmation Big Data est devenue de plus en plus urgente. En tant que langage de programmation largement utilisé, les avantages uniques du C++ dans la programmation Big Data sont devenus de plus en plus importants. Ci-dessous, je partagerai mon expérience pratique dans la programmation Big Data C++. 1. Choisir la structure de données appropriée Le choix de la structure de données appropriée est une partie importante de l'écriture de programmes Big Data efficaces. Il existe une variété de structures de données en C++ que nous pouvons utiliser, telles que des tableaux, des listes chaînées, des arbres, des tables de hachage, etc.

1. Contexte de la construction de la plateforme 58 Portraits Tout d'abord, je voudrais partager avec vous le contexte de la construction de la plateforme 58 Portraits. 1. La pensée traditionnelle de la plate-forme de profilage traditionnelle ne suffit plus. La création d'une plate-forme de profilage des utilisateurs s'appuie sur des capacités de modélisation d'entrepôt de données pour intégrer les données de plusieurs secteurs d'activité afin de créer des portraits d'utilisateurs précis. Elle nécessite également l'exploration de données pour comprendre le comportement et les intérêts des utilisateurs. et besoins, et fournir des capacités côté algorithmes ; enfin, il doit également disposer de capacités de plate-forme de données pour stocker, interroger et partager efficacement les données de profil utilisateur et fournir des services de profil. La principale différence entre une plate-forme de profilage d'entreprise auto-construite et une plate-forme de profilage de middle-office est que la plate-forme de profilage auto-construite dessert un seul secteur d'activité et peut être personnalisée à la demande. La plate-forme de mid-office dessert plusieurs secteurs d'activité et est complexe ; modélisation et offre des fonctionnalités plus générales. 2.58 Portraits d'utilisateurs de l'arrière-plan de la construction du portrait sur la plate-forme médiane 58

À l’ère actuelle du Big Data, le traitement et l’analyse des données sont devenus un support important pour le développement de diverses industries. En tant que langage de programmation doté d'une efficacité de développement élevée et de performances supérieures, le langage Go a progressivement attiré l'attention dans le domaine du big data. Cependant, par rapport à d'autres langages tels que Java, Python, etc., le langage Go prend en charge relativement mal les frameworks Big Data, ce qui a causé des problèmes à certains développeurs. Cet article explorera les principales raisons du manque de framework Big Data dans le langage Go, proposera des solutions correspondantes et l'illustrera avec des exemples de code spécifiques. 1. Allez dans la langue

Le lancement du produit d'automne 2023 de Yizhiwei s'est terminé avec succès ! Revoyons ensemble les moments forts de la conférence ! 1. Une ouverture intelligente et inclusive, permettant aux jumeaux numériques de devenir productifs Ning Haiyuan, co-fondateur de Kangaroo Cloud et PDG de Yizhiwei, a déclaré dans son discours d'ouverture : Lors de la réunion stratégique de l'entreprise de cette année, nous avons positionné l'orientation principale de la recherche et du développement de produits comme « Ouverture intelligente et inclusive » « Trois capacités principales, en nous concentrant sur les trois mots-clés fondamentaux de « l'ouverture intelligente et inclusive », nous avons en outre proposé l'objectif de développement consistant à « faire des jumeaux numériques une force productive ». 2. EasyTwin : explorez un nouveau moteur de jumeau numérique plus facile à utiliser 1. De la version 0.1 à 1.0, continuez à explorer le moteur de rendu de fusion jumelle numérique pour obtenir de meilleures solutions avec un mode d'édition 3D mature, des plans interactifs pratiques et des ressources de modèle massives.

En tant que langage de programmation open source, le langage Go a progressivement reçu une attention et une utilisation généralisées ces dernières années. Il est privilégié par les programmeurs pour sa simplicité, son efficacité et ses puissantes capacités de traitement simultané. Dans le domaine du traitement du Big Data, le langage Go a également un fort potentiel. Il peut être utilisé pour traiter des données massives, optimiser les performances et peut être bien intégré à divers outils et frameworks de traitement du Big Data. Dans cet article, nous présenterons quelques concepts et techniques de base du traitement du Big Data en langage Go, et montrerons comment utiliser le langage Go à travers des exemples de code spécifiques.

Dans le traitement du Big Data, l'utilisation d'une base de données en mémoire (telle qu'Aerospike) peut améliorer les performances des applications C++ car elle stocke les données dans la mémoire de l'ordinateur, éliminant ainsi les goulots d'étranglement d'E/S disque et augmentant considérablement les vitesses d'accès aux données. Des cas pratiques montrent que la vitesse de requête lors de l'utilisation d'une base de données en mémoire est plusieurs fois plus rapide que lors de l'utilisation d'une base de données sur disque dur.