7 min read

Retour d'expérience sur Buildbot 1/3

Retour d'expérience sur Buildbot 1/3

Depuis que j'avais pris en main le développement de CPS, je caressais l'idée de remettre en place un outil d'intégration continue comme Buildbot, qui était utilisé à l'époque Nuxeo.

Les implications de l'intégration continue vont bien au-delà du  simple lancement périodique des compilations et tests unitaires ; il  peut s'agir:

  • de lancer une masse de tests qui serait insupportable pour le  développeur à chaque commit ou train de commits. Dans les grosses  applications modulaires, les tests d'intégration sont probablement les  plus importants, mais ils peuvent être très longs
  • de lancer les tests dans différents environnements (système  d'exploitations, middlewares, bases de données), et pourquoi pas aller  jusqu'à faire de la veille sur les montées de version autour du projet ?
  • de faire du processus de livraison une banalité exécutée tous les  jours : non seulement on fournit très facilement des versions  journalières à la communauté sous diverses formes, mais on produit les  versions officielles de la même façon (jusqu'aux paquets pour  distributions)
  • de lancer des tests de charge et repérer ainsi les chutes de performances
  • de mettre en ligne automatiquement les diverses formes de documentation

J'ai beaucoup entendu dire que Buildbot n'était pas adapté à un  produit multi-versionné comme CPS, et on me conseillait plutôt d'aller  vers Jenkins, mais le monde Java a tendance à me rebuter

Le tutoriel m'a très rapidement convaincu que la flexibilité était  bien plus grande que l'a priori que j'avais par ouï-dire. Dans l'ensemble, à chaque fois que je me suis dit « ce serait bien si…»,  j'ai constaté que c'était prévu ! Il reste vrai que les cas multi-versionnés n'ont pas (encore) de  solution standard prévue par Buildbot, mais c'est aussi parce qu'il est  difficile de proposer une façon de faire qui s'adapte à tous les cas,  comme le souligne la FAQ.

La documentation de Buildbot est très complète, et on peut la mettre à  jour par le processus standard Github. Il n'est pas question de la  répéter ici, mais je vais quand même expliquer très vite les concepts de  base, avant de détailler comment j'ai pu les appliquer dans quelques  cas de figure :

  • une petite application web en repoze.bfg (renommé maintenant en Pyramid) versionnée avec deux dépôts Mercurial (core et web) ;
  • un projet dans lequel une partie gestion en OpenERP et une partie grand public en Django dialoguent en XML-RPC et partagent la même base PostgreSQL. Celui-ci  illustre bien les problématiques à résoudre lorsque les tests dépendent  d'une configuration de ports interne et externe, une plaie pour les  tests unitaires, un mal nécessaire pour les tests fonctionnels et de  charge
  • CPS : une trentaine de dépôts Mercurial évoluant de concert, regoupés en trois distributions, sur deux versions de Zope, avec une branche stable et une instable (9 combinaisons à tester);

Je ne prétends pas que les solutions trouvées soient idéales, mais elles ont le mérite de fonctionner.

Par contre, c'est pour moi aussi une occasion de souligner la  puissance de la configuration programmatique : il y a des choses qu'on  ne peut faire efficacement qu'en ayant un langage de programmation sous  le capot, et qu'un format purement déclaratif, que ce soit en format INI  ou XML ne pourra jamais faire, ou alors au prix d'une duplication  insoutenable à court terme.

Principes de base

Builds et esclaves

Buildbot sert à lancer automatiquement des builds, notion à  prendre au sens large : par exemple compilation, exécution de tests,  création d'archives à partir du code source, mise à jour de  documentation. Un build est l'exécution d'un builder.

Buildbot est un système réparti, suivant le modèle maître et esclaves ; toute la configuration, dont la définition des builders,  est faite au niveau du maître, les esclaves ne font qu'exécuter les  commandes transmises par le maître et lui renvoyer les résultats.
La configuration des builders est organisée en étapes (steps), dont la mise à jour du code source.

Les builders ont chacun leur sous-répertoire réservé sur le système de fichiers de  l'esclave. Il est important de faire le moins de présupposés possible  dans la définition des builds sur le contexte système général  de l'esclave, sous peine d'avoir du mal à ajouter des esclaves quand le  réseau grossit. Quelques exemples :

  • Si l'on ne peut éviter de  supposer que l'on dispose d'un serveur PostgreSQL en local (cela  peut-être même l'objet du test : vérifier le comportement sur la version  officielle d'une distribution donnée), il faut éviter d'être obligé de  faire des présupposés sur le port sur lequel il répond.
  • Si l'on doit lancer une application qui écoute sur un port réseau, on doit éviter de coder en dur le numéro de port.

La prise de décision

La décision de lancer un build est prise par un objet scheduler, toujours défini dans la configuration du maître.

Les schedulers utilisent eux-mêmes des informations provenant des change sources, qui surveillent les dépôts de code.
Suivant le système de contrôle de version (VCS) utilisé, il y a des change sources par interrogation régulière (poll) ou par appel direct depuis le VCS lui-même (hook).

Dans le cas des tests automatisés, il est important de lancer les builds en temps quasi-réel en fonction des commits : cela permet de corriger  les effets de bord à un moment où les développeurs concernés ont leurs  modifications en tête.
Buildbot inclut dans son rapport une liste des commits suspects (blame list).  Idéalement, celle-ci ne doit vraiment comporter que les commits  vraiment concernés. On verra que dans les cas qui nous intéressent, ce  sera forcément un compromis.
Il faut également éviter de lancer trop  de builds inutiles, sous peine de ralentir tout le réseau, surtout si  les machines esclaves ne sont pas entièrement dédiées en tant  qu'esclaves.

Il y a également des schedulers chronlogiques, et la possibilité de lancer des builds depuis l'interface web (force-build)

Les  cas qui m'intéressent sont versionnés avec Bazaar ou Mercurial, pour  lesquels il faut fonctionner par hook. Cela impose d'avoir la main sur  la machine qui tient la branche à tester (souvent une branche de  référence), ou d'en faire un miroir local.

Flexibilité : les propriétés

Tous les objets de la chaîne de décision et traitement lisent et  écrivent dans un dictionnaire (association clef/valeur) partagé, les  propriétés (Properties).

Par exemple, c'est par ces propriétés que le numéro de révision des sources est récupéré par le build. On peut aussi attacher des propriétés à l'esclave sur lequel le build s'exécute (par exemple le port sur lequel le serveur de base de données ambiant écoute)
ou les spécifier dans l'interface web en cas d'exécution manuelle.

Toutes les étapes qui constituent la définition du builder peuvent utiliser les propriétés.

Exemple: une application en deux parties

C'est le plus simple cas possible de dépôts multiples.

Attention, ce qui suit ne fonctionne bien que dans le cas général où le build est causé par le passage d'un changeset, mais  par exemple pas pour le premier build d'un slave. Il m'a fallu insister  (et faire plus sale) pour traiter ces cas au bord. De plus, ne pas  espérer grouper les changesets par trains avec le treeStableTimer.  Le futur Buildbot 0.8.7 traite tout cela nativement, et bien mieux.  J'espère trouver le temps d'en parler bientôt. [Ajouté le 28/08/2012]

Contexte

Anybox développe une application web spécifique, qui est organisée en  deux parties : monappli.core, qui définit des algorithmes de base mais  ne fournit aucune interface utilisateur, et monappli.web, qui est une  interface utilisateur en repoze.bfg. C'est une séparation très  classique.

La plupart du temps,  les deux parties sont en  développement actif. La partie web appelle les APIs définies dans le  core, il est donc important de tester la partie web s'il y a des  modifications dans le core. Chaque partie est versionnée indépendamment,  en Mercurial.

Fonctionnement

Lorsque le change source reçoit l'information par le hook du VCS sur la disponiibilité de nouveaux commits, il note dans les propriétés :

  • de quel dépôt il s'agit (en général, le chemin sur le système de fichiers du VCS)
  • la révision concernée ; celle-ci n'a de sens que pour le dépôt concerné

Pour commencer, on met un scheduler qui réagit sur les deux dépôts qui nous intéressent, par une expression régulière sur le nom de dépôt :

SCHEDULERS = [                                                                  
   SingleBranchScheduler(                                                      
       name="monappli",                                                        
       change_filter=ChangeFilter(branch='default',                            
                                  repository_re='.*/monappli/.*'),            
       builderNames=["monappli"]),                                            
]


La configuration du builder commence par la mise à jour des deux dépôts, sous la forme de deux steps de type Mercurial.
Sur  chacun, je mets une condition d'exécution en fonction du dépôt pour  éviter de faire un update de monappli.core sur une révision qui n'existe  que dans monappli.web :

from buildbot.process.factory import BuildFactory
from buildbot.steps.source.mercurial import Mercurial

monappli_factory = BuildFactory()

def check_repo_name(val):
   """Return a function that can performs a repository name check on given val"""
   def check(step):
       return step.getProperty('repository').rsplit('/', 1)[-1] == val
   return check

monappli_factory.addStep(Mercurial(
   repourl='http://hg.example/Monappli/core',
   mode='full',
   method='fresh',
   branchType='inrepo',
   description='hg:core',
   workdir='build/core',
   doStepIf=check_repo_name('core')
   ))

monappli_factory.addStep(Mercurial(
   repourl='http://hg.example/Monappli/web',
   mode='full',
   method='fresh',
   branchType='inrepo',
   haltOnFailure=True,
   workdir='build/web',
   doStepIf=check_repo_name('web')
   ))

En  résumé, on peut enregistrer une fonction python grâce auparamètre  doStepIf, et celle-ci accède aux propriétés. Pour éviter de trop  dupliquer, on a ici un modèle de fonctions (check_repo_name), mais ce  n'est pas l'essentiel.

Le paramètre workdir permet de spécifier  où ranger les sources, ce qui sera utile dans les steps suivants, comme  celui-ci, qui appelle simplement

monappli_factory.addStep(ShellCommand(
       command=['core/bin/python', 'core/setup.py', 'test'],
       haltOnFailure=True,
       description='develop:core'))

C'est simple, mais ce n'est pas facilement généralisable à un grand nombre de dépôts : même en créant les steps dans des boucles, se baser sur le nommage deviendrait trop aléatoire.
Cela  dit, on peut espérer pour ceux qui travaillent avec beaucoup de dépôts  vivants en parallèle qu'ils ont des outils pour le faire, et que l'on  peut les utiliser dans le cadre de buildbot. Ce sera l'objet du  troisième article de la série : le cas CPS.