Skip to content

Analyses prédictives (if used anjective)

Une fois que votre prédiction a été créée et entraînée, vous avez accès à la page Analyses prédictives. Cette page vous aide à décider quels utilisateurs vous devez cibler en fonction de leur score de probabilité ou de leur catégorie.

A propos de l’analyse prédictive/analytique (if used anjective)

Dès que la prédiction est terminée et que cette page est remplie, vous pouvez commencer à utiliser les filtres dans les segments ou les campagnes pour commencer à utiliser les résultats du modèle. Si vous voulez de l’aide pour décider qui cibler et pourquoi, cette page peut le faire en fonction de l’exactitude historique du modèle et de vos propres objectifs commerciaux.

Tels sont les éléments constitutifs de l’analyse/analytique prévisionnelle des événements :

La distribution des scores de vraisemblance pour l’ensemble de l’audience de prédictions est affichée en haut de la page. Les utilisateurs des compartiments situés plus à droite ont des scores plus élevés et sont plus susceptibles de réaliser l’événement. Les utilisateurs des compartiments situés plus à gauche sont moins susceptibles d’effectuer l’événement. Le curseur situé sous le graphique vous permettra de sélectionner une section d’utilisateurs et d’estimer quels seraient les résultats du ciblage de ces utilisateurs.

Lorsque vous déplacez les curseurs sur différentes positions, la barre située dans la moitié gauche du panneau vous indique combien d’utilisateurs, sur l’ensemble de l’audience prédite, seraient ciblés en utilisant la partie de la population que vous avez sélectionnée.

Score de vraisemblance

Les utilisateurs de l’audience de prédictions se verront attribuer un score de probabilité compris entre 0 et 100. Plus le score est élevé, plus la probabilité de réaliser l’événement est grande.

Voici comment un utilisateur est classé en fonction de son score de probabilité :

  • Faible : entre 0 et 50
  • Moyenne : entre 50 et 75
  • Élevé : entre 75 et 100

Les scores et les prédictions correspondantes seront mis à jour selon la planification que vous avez choisie dans la page de création des prédictions. Le nombre d’utilisateurs ayant des scores de vraisemblance dans chacun des 20 compartiments de taille égale ou dans chacune des catégories de vraisemblance est affiché dans le graphique en haut de la page.

Précision estimée

Dans la moitié droite du panneau situé sous le graphique, nous présentons des estimations de la précision attendue du ciblage de la partie de l’audience de prédictions que vous avez sélectionnée de deux manières : combien d’utilisateurs sélectionnés sont censés réaliser l’événement, et combien sont censés ne pas le faire.

L'audience sélectionnée et la précision estimée affichées dans le tableau de bord de Braze.

On attend d’eux qu’ils accomplissent

Vous pouvez utiliser la précision estimée pour vérifier combien d’utilisateurs sélectionnés sont censés effectuer l’événement.

La prédiction n’est pas parfaitement exacte, et aucune prédiction ne l’est jamais, ce qui signifie que Braze ne sera pas en mesure d’identifier chaque futur utilisateur pour réaliser l’événement. Les scores de vraisemblance sont comme un ensemble de prédictions informées et fiables. La barre de progression indique combien de “vrais positifs” attendus dans l’audience de prédiction seront ciblés avec l’audience sélectionnée. Notez que nous nous attendons à ce que ce nombre d’utilisateurs réalise l’événement même si vous ne leur envoyez pas de message.

On ne s’attend pas à ce qu’ils soient performants

Vous pouvez utiliser la précision estimée pour vérifier combien d’utilisateurs sélectionnés sont susceptibles de ne pas réaliser l’événement.

Tous les modèles de machine learning font des erreurs. Il se peut que certains utilisateurs de votre sélection aient un score de probabilité élevé, mais qu’ils ne réalisent pas l’événement. Si vous n’agissiez pas, ils ne réaliseraient pas l’événement. Ils seront de toute façon ciblés, donc il s’agit d’une erreur ou d’un « faux positif ». La largeur totale de cette deuxième barre de progression représente le nombre attendu d’utilisateurs qui n’effectueront pas l’événement, et la partie remplie représente ceux qui seront incorrectement ciblés en utilisant la position actuelle du curseur.

À l’aide de ces informations, nous vous encourageons à décider du nombre de vrais positifs que vous souhaitez capturer, du nombre de faux positifs dont vous pouvez accepter le ciblage et du coût des erreurs pour votre entreprise. Si vous envoyez une promotion intéressante, vous pouvez cibler uniquement les non acheteurs (faux positifs) en privilégiant le côté gauche du graphique. Vous pouvez également encourager les acheteurs qui achètent souvent (les vrais positifs) à le faire à nouveau en sélectionnant une section d’utilisateurs qui privilégie le côté droit du graphique.

Qualité des prédictions

To measure the accuracy of your model, the Prediction Quality metric will show you how effective this particular machine learning model appears to be when tested on historical data. Braze pulls data according to the groups you specified in the model creation page. The model is trained on one data set (the “training” set) and then tested on a new, separate data set (the “test” set).

The prediction will be trained again every two weeks and updated alongside the Prediction Quality metric to keep your predictions updated on the most recent user behavior patterns. Additionally, each time this occurs, the last two weeks of predictions will be tested against actual user outcomes. The Prediction Quality will then be calculated based on these real outcomes (rather than estimates). This is an automatic backtest (that is, testing a predictive model on historical data) to ensure the prediction is accurate in real-world scenarios. The last time this retraining and backtesting occurred will be displayed on the Predictions page and an individual prediction’s analytics page. Even a preview prediction will perform this backtest once after its creation. This way, you can be sure of the accuracy of your customized prediction even with the free version of the feature.

Prediction quality example

For example, if 20% of your users usually churn on average, and you pick a random subset of 20% of your users and label them as churned at random (whether they truly are or not), you’d expect to correctly identify only 20% of the actual churners. That’s random guessing. If the model were to only do that well, the lift would be 1 for this case.

If the model, on the other hand, allowed you to message 20% of the users and, in doing so capture all the “true” churners and no one else, the lift would be 100% / 20% = 5. If you chart this ratio for every proportion of the likeliest churners you could message, you get the Lift Curve.

Another way to think of lift quality (and also Prediction Quality) is how far along the way between random guessing (0%) and perfection (100%) the prediction’s lift curve is at identifying churners on the test set. For the original paper on lift quality, see Measuring lift quality in database marketing.

How it’s measured

Our measure of Prediction Quality is lift quality. Generally, “lift” refers to the increased ratio or percentage of a successful outcome, such as a conversion. In this case, the successful outcome is correctly identifying a user who would have churned. Lift quality is the average lift the prediction provides across all possible audience sizes for messaging the test set. This approach measures how much better than random guessing the model is. With this measure, 0% means the model is no better than randomly guessing about who will churn, and 100% indicates perfect knowledge of who will churn.

Here’s what we recommend for various ranges of Prediction Quality:

Tableau de corrélation des événements

Cette analyse affiche les attributs ou les comportements de l’utilisateur qui sont en corrélation avec les événements de l’audience de prédiction. Les attributs évalués sont l’âge, le pays, le sexe et la langue. Les comportements analysés comprennent les sessions, les achats, le montant total des dépenses, les événements personnalisés, ainsi que les campagnes et les étapes canvas reçues au cours des 30 derniers jours.

Les tableaux sont divisés en deux parties, gauche et droite, respectivement pour les personnes les plus et les moins susceptibles de réaliser l’événement. Pour chaque ligne, le ratio par lequel les utilisateurs ayant le comportement ou l’attribut dans la colonne de gauche sont plus ou moins susceptibles de réaliser l’événement est affiché dans la colonne de droite. Ce nombre est le rapport entre les scores de vraisemblance des utilisateurs ayant ce comportement ou cet attribut, divisé par la probabilité de réaliser l’événement sur l’ensemble de l’audience de prédiction.

Ce tableau n’est mis à jour que lorsque la prédiction se réajuste et non lorsque les scores de vraisemblance de l’utilisateur sont mis à jour.

CETTE PAGE A-T-ELLE ÉTÉ UTILE?
New Stuff!