Firebase is back at Google I/O on May 10! Register now

À propos de la personnalisation de la configuration à distance

Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

La personnalisation utilise l'apprentissage automatique, en particulier un algorithme de bandit multi-armé contextuel, pour déterminer l'expérience optimale pour les utilisateurs individuels afin d'atteindre un objectif. Dans notre cas, l'objectif est d'optimiser le nombre total ou la valeur totale des paramètres d'événements Google Analytics spécifiques.

Qu'est-ce qu'un algorithme contextuel de bandit multi-armé ?

Le "bandit multi-armé" est une métaphore utilisée pour décrire la situation où nous voulons continuellement choisir un chemin qui mène aux récompenses les plus élevées et les plus fiables parmi une liste de chemins multiples. Pour visualiser cela, vous pouvez utiliser la métaphore d'un joueur devant une rangée de machines à sous - souvent appelé familièrement un "bandit manchot" parce qu'une machine à sous a une poignée (ou un bras) et prend votre argent. Puisque nous voulons résoudre plusieurs "bras", le bandit manchot devient le bandit multi-bras .

Par exemple, supposons que nous ayons trois options et que nous voulions déterminer celle qui offre la récompense la plus fiable : nous pourrions essayer chaque option, puis, après avoir reçu un résultat, nous pourrions simplement continuer à choisir le bras qui a donné le plus de récompenses. C'est ce qu'on appelle un algorithme gourmand : l'option qui donne le meilleur résultat à la première tentative est celle que nous continuerons à choisir. Mais nous pouvons comprendre que cela ne fonctionne pas toujours - d'une part, la récompense élevée pourrait être un coup de chance. Ou peut-être y a-t-il un contexte spécifique à l'utilisateur qui a entraîné des récompenses plus élevées au cours de cette période qui ne seraient pas aussi efficaces plus tard.

Ainsi, le contexte est ajouté pour rendre l'algorithme plus efficace. Pour la personnalisation de Remote Config, ce contexte initial est un échantillonnage aléatoire, ou incertitude , qui fournit une certaine entropie à l'expérience. Cela implémente un « bandit multi-armé contextuel ». Au fur et à mesure que l'expérience se poursuit, l'exploration et l'observation continues ajoutent un véritable contexte appris sur les armes les plus susceptibles d'obtenir une récompense pour le modèle, ce qui le rend plus efficace.

Qu'est-ce que cela signifie pour mon application ?

Voyons maintenant ce que signifie un algorithme de bandit multi-armé dans le contexte de votre application. Supposons que vous optimisez les clics sur les bannières publicitaires. Dans ce cas, les "bras" de la personnalisation seraient les valeurs alternatives que vous spécifiez pour représenter les différentes bannières publicitaires que vous souhaitez afficher aux utilisateurs. Le clic sur la bannière publicitaire est la récompense, que nous appelons un objectif .

Lorsque vous lancez une personnalisation pour la première fois, le modèle ne sait pas quelle valeur alternative sera la plus susceptible d'atteindre votre objectif pour chaque utilisateur individuel. Au fur et à mesure que la personnalisation explore chaque valeur alternative pour comprendre la probabilité d'atteindre votre objectif, le modèle sous-jacent devient plus informé, améliorant sa capacité à prédire et à sélectionner l'expérience optimale pour chaque utilisateur.

La personnalisation utilise une fenêtre d'adhérence de 24 heures. Il s'agit de la durée pendant laquelle l'algorithme de personnalisation explore une seule valeur alternative. Vous devez donner à vos personnalisations suffisamment de temps pour explorer chaque valeur alternative plusieurs fois (généralement environ 14 jours). Idéalement, vous pouvez les laisser fonctionner en permanence afin qu'ils puissent continuellement s'améliorer et s'adapter à mesure que votre application et les comportements des utilisateurs changent.

Suivre des métriques supplémentaires

La personnalisation de Remote Config offre également la possibilité de suivre jusqu'à deux métriques supplémentaires, pour vous aider à contextualiser vos résultats. Supposons que vous ayez développé une application sociale et que vous ayez défini différentes valeurs alternatives pour encourager les utilisateurs à partager du contenu avec des amis afin d'augmenter l'engagement global.

Dans ce cas, vous pouvez choisir d'optimiser pour un événement Analytics tel que link_received et définir vos deux métriques sur user_engagement et link_opened pour comprendre si l'engagement de l'utilisateur et le nombre de liens que l'utilisateur ouvre augmentent (véritable engagement) ou diminuent (peut-être trop de liens spam). ).

Bien que ces mesures supplémentaires ne soient pas prises en compte dans l'algorithme de personnalisation, vous pouvez les suivre parallèlement à vos résultats de personnalisation, ce qui vous donne un aperçu précieux de la capacité de la personnalisation à atteindre vos objectifs globaux.

Comprendre les résultats de la personnalisation

Une fois qu'une personnalisation a été exécutée suffisamment longtemps pour collecter des données, vous pouvez afficher ses résultats.

Pour afficher les résultats de la personnalisation :

  1. Ouvrez la page Remote Config et cliquez sur Personnalisations .

  2. Sélectionnez la personnalisation que vous souhaitez afficher. Vous pouvez rechercher la personnalisation spécifique par nom ou par objectif, et trier par nom, heure de début ou amélioration totale.

La page de résultats récapitule l' amélioration totale , ou la différence en pourcentage des performances, que la personnalisation fournit par rapport au groupe de référence .

La page de résultats affiche également l'état actuel de la personnalisation, les attributs de la personnalisation et un graphique interactif qui :

  • Affiche une vue quotidienne et totale détaillée des performances de la personnalisation par rapport à la ligne de base.

  • Affiche les performances globales de chaque valeur dans le groupe de lignes de base.

  • Affiche les résultats et les performances des objectifs par rapport aux mesures supplémentaires que vous avez choisies, accessibles à l'aide des onglets en haut du résumé.

Une personnalisation peut être laissée en cours d'exécution indéfiniment et vous pouvez continuer à revoir la page de résultats pour surveiller ses performances. L'algorithme continuera d'apprendre et de s'ajuster, de sorte qu'il puisse s'adapter lorsque le comportement de l'utilisateur change.

Prochaines étapes